JP2007156153A - Musical instrument terminal - Google Patents

Musical instrument terminal Download PDF

Info

Publication number
JP2007156153A
JP2007156153A JP2005352008A JP2005352008A JP2007156153A JP 2007156153 A JP2007156153 A JP 2007156153A JP 2005352008 A JP2005352008 A JP 2005352008A JP 2005352008 A JP2005352008 A JP 2005352008A JP 2007156153 A JP2007156153 A JP 2007156153A
Authority
JP
Japan
Prior art keywords
data
voice
title information
musical instrument
performance data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005352008A
Other languages
Japanese (ja)
Other versions
JP4670618B2 (en
Inventor
Takuya Tamaru
卓也 田丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2005352008A priority Critical patent/JP4670618B2/en
Publication of JP2007156153A publication Critical patent/JP2007156153A/en
Application granted granted Critical
Publication of JP4670618B2 publication Critical patent/JP4670618B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique which enables a user to easily recognize contents of musical performance data. <P>SOLUTION: A control section 11 of the musical instrument terminal 1 once detecting an operation for recording a musical piece being done generates musical performance data and also generates character title information. At this time, the control section 11 displays a message prompting input of voice title information. Once voice title information is input, the control section stores the character title information and voice title information in a storage section 12 while making them correspond to each other, and transmits the character title information, voice title information, and musical performance data to a server device while making them correspond to one another. When a character title is selected on a picture where a list of character titles is displayed, the control section 11 reads voice title information, stored corresponding to the selected character title information, out of the storage section 12 and outputs its voice through a speaker 19. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、演奏データの保存、検索、アクセス制御等を行うための技術に関する。   The present invention relates to a technique for performing performance data storage, retrieval, access control, and the like.

演奏者の演奏内容に応じて演奏データを生成する電子楽器端末においては、生成した演奏データを自身のメモリから読み出してサーバなどへ送信する通信機能を備えたものがある。このような場合、楽器端末の操作ボタン等により入力されるテキストデータや、楽器端末が自動で生成したタイムスタンプ(日付、時刻等)を示すテキストデータが、演奏データを識別するファイル名として用いられている。   Some electronic musical instrument terminals that generate performance data in accordance with the performance content of a performer have a communication function of reading the generated performance data from its own memory and transmitting it to a server or the like. In such a case, text data input by an operation button of a musical instrument terminal or text data indicating a time stamp (date, time, etc.) automatically generated by the musical instrument terminal is used as a file name for identifying performance data. ing.

ところで、楽器端末が自動で生成するファイル名は、機械的、無機的な文字列となることが多く、使用者がそのファイル名から演奏データの内容を思い出すことが困難なために、所望のファイルを見つけ出すことができないという問題があった。
また、ユーザがファイル名を入力する場合は、ファイル名にある程度の意味を持たせることができるので、上述した問題は緩和されるが、ファイル名の文字数は限られていることが多く、本来残したい意味内容を含めたファイル名にすることができないことが多い。そのため、上述の場合と同様に所望のファイルがなかなか見つけられないことが多かった。
このような場合は、ユーザは、いちいちそのファイルを開いて、ファイルの内容を確認しなければ、そのファイルがどのようなものであるかを把握することができなかった。更に、ファイルを読み出して再生しても、曲の特徴部分(サビの部分など)を聞かないと、所望のファイルかどうか分からないことが多いため、そのファイルの最初の音声を確認しただけでは内容が把握できず、結局有る程度の時間をかけてそのファイルの内容を試聴しなければならず、所望のファイルを探すのに時間がかかってしまうという問題があった。
By the way, the file name automatically generated by the musical instrument terminal is often a mechanical and inorganic character string, and it is difficult for the user to remember the contents of the performance data from the file name. There was a problem that could not find out.
In addition, when a user inputs a file name, the file name can have a certain meaning, so the above-mentioned problem is alleviated, but the number of characters in the file name is often limited and left as it is. In many cases, the file name cannot include the desired meaning. For this reason, as in the case described above, it is often difficult to find a desired file.
In such a case, unless the user opens the file and checks the contents of the file, the user cannot grasp what the file is. Furthermore, even if a file is read and played, if you do not listen to the features of the song (such as rust), it is often impossible to tell if the file is the desired file. However, there is a problem that it takes a certain amount of time to audition the contents of the file, and it takes time to search for a desired file.

ところで、データ(ファイル)の蓄積および管理方法については種々のものが提案されている。例えば、特許文献1に記載の技術は、筆記面に書き込まれた画像を読み取り、読み取られた画像データと、その画像が書き込まれた際に発言された音声とを対応付けて記憶し、再生指示が行われると、画像と音声とが同期して再生されるようになっている。また、特許文献2に記載の技術では、音声データが画像データに添付されて蓄積され、キーワード等を入力することによって、音声データと画像データとを検索できるようになっている。
特開2003−260896号公報 特開2000−165577号公報
Various methods for storing and managing data (files) have been proposed. For example, the technique described in Patent Document 1 reads an image written on a writing surface, stores the read image data in association with a voice uttered when the image is written, and reproduces the instruction. Is performed, the image and the sound are reproduced in synchronization. In the technique described in Patent Document 2, audio data is attached to image data and stored, and the audio data and image data can be searched by inputting a keyword or the like.
JP 2003-260896 A Japanese Patent Laid-Open No. 2000-165577

特許文献1、2に記載の技術では、ファイル内容として音声データが包含されているので、ファイル内容を再生すれば、再生される音声や画像から所望のファイルであるか否かを比較的早く判断することができることも予想される。
しかしながら、特許文献1,2に記載の技術においては、いずれも記録するファイルにファイル名を付けるという点においては、上述した従来の手法となんら代わりが無く、ファイルを読み出す際には、結局、ファイル名あるいはキーワードを頼りにするしかなかった。また、特許文献2ではキーワードを使って検索を補助することができるものの、ファイル名そのものの記憶が曖昧な場合には、キーワード検索の的中率も悪くなるから、結局、上記の問題を解決することはできない。
したがって、特許文献1,2に記載の技術では、所望のファイルを即座に検索することは困難である。
In the technologies described in Patent Documents 1 and 2, since audio data is included as file contents, it is determined relatively quickly whether or not the file is a desired file from the reproduced audio or image when the file contents are reproduced. It is also expected to be able to do.
However, in the techniques described in Patent Documents 1 and 2, there is no substitute for the conventional method described above in that the file name is assigned to the file to be recorded. I had to rely on names or keywords. In Patent Document 2, although a search can be assisted by using a keyword, if the memory of the file name itself is ambiguous, the hit rate of the keyword search also deteriorates, so that the above problem is solved. It is not possible.
Therefore, with the techniques described in Patent Documents 1 and 2, it is difficult to search for a desired file immediately.

本発明は、上述した背景の下になされたものであり、楽器端末において生成された演奏データについて、ユーザが容易にその演奏データの内容を認識することができる技術を提供することを目的とする。   The present invention has been made under the above-described background, and an object of the present invention is to provide a technique that allows a user to easily recognize the contents of performance data generated in a musical instrument terminal. .

上記課題を解決するため、本発明は、演奏を行うための操作子と、前記操作子が操作された内容に応じた信号を出力する検知手段と、前記検知手段によって出力された信号に基づいて演奏データを生成する演奏データ生成手段と、前記演奏データのタイトルを示すタイトルデータを生成するタイトルデータ生成手段と、入力される音声に対応する音声データを生成する音声入力手段と、前記演奏データを前記音声データおよび前記タイトルデータに対応付けて、所定のサーバ装置に通信ネットワークを介して送信する送信手段とを備えることを特徴とする楽器端末を提供する。   In order to solve the above problems, the present invention is based on an operation element for performing a performance, a detection means for outputting a signal corresponding to the content of operation of the operation element, and a signal output by the detection means. Performance data generating means for generating performance data, title data generating means for generating title data indicating the title of the performance data, sound input means for generating sound data corresponding to the input sound, and the performance data There is provided a musical instrument terminal comprising: transmission means for transmitting to a predetermined server device via a communication network in association with the audio data and the title data.

本発明の好ましい態様においては、前記タイトルデータと前記音声データとを対応付けて記憶する記憶手段と、前記記憶手段に記憶された1または複数のタイトルデータを表示する表示手段と、前記表示手段に表示されたタイトルデータのうちのいずれか一つを選択する選択手段と、前記選択手段により選択されたタイトルデータと対応する音声データを前記記憶手段から読み出し、読み出した音声データに基づいて音声を発音する発音手段とを備えることを特徴とする。
本発明の別の好ましい態様においては、前記演奏データを前記サーバ装置に送信する旨のコマンド信号を受け取ると、前記音声入力手段への音声入力を促す報知動作を行う報知手段を有し、前記送信手段は前記報知手段による報知動作が行われ、前記音声入力手段によって音声データが生成されたことを認識した後に、前記演奏データを前記音声データに対応付けて送信することを特徴とする。
本発明の更に好ましい態様においては、前記記憶手段に記憶された音声データを読み出して、前記所定のサーバ装置に通信ネットワークを介して送信する音声データ送信手段と、前記所定のサーバ装置から、前記演奏データを受信する演奏データ受信手段と、前記演奏データ受信手段により受信された演奏データを記憶する演奏データ記憶手段とを備えることを特徴とする。
In a preferred aspect of the present invention, the storage means for storing the title data and the audio data in association with each other, the display means for displaying one or more title data stored in the storage means, and the display means Selection means for selecting any one of the displayed title data, and voice data corresponding to the title data selected by the selection means are read from the storage means, and sound is generated based on the read voice data And a sound generation means.
In another preferred aspect of the present invention, the apparatus further comprises notification means for performing a notification operation for prompting voice input to the voice input means when receiving a command signal for transmitting the performance data to the server device. The means is characterized in that after the notifying operation is performed by the notifying means and the voice data is generated by the voice input means, the performance data is transmitted in association with the voice data.
In a further preferred aspect of the present invention, the audio data stored in the storage means is read out and transmitted to the predetermined server device via a communication network, and the performance data is transmitted from the predetermined server device. Performance data receiving means for receiving data and performance data storage means for storing performance data received by the performance data receiving means are provided.

本発明によれば、楽器端末において生成された演奏データについて、ユーザが容易にその演奏データの内容を認識することができる。   According to the present invention, the user can easily recognize the content of the performance data generated in the musical instrument terminal.

<A:構成>
図1は、本発明の一実施形態に係るシステムの全体構成を示すブロック図である。図に示すように、このシステムは、楽器端末1とサーバ装置2とが、通信ネットワークにより接続されて構成される。なお、実際にはより多くの楽器端末が接続されるが、説明の簡略化のために1つの楽器端末1だけを示している。
<A: Configuration>
FIG. 1 is a block diagram showing the overall configuration of a system according to an embodiment of the present invention. As shown in the figure, this system is configured by connecting a musical instrument terminal 1 and a server device 2 via a communication network. Note that more musical instrument terminals are actually connected, but only one musical instrument terminal 1 is shown for simplicity of explanation.

楽器端末1は、電子キーボード等の電子楽器である。ここで、楽器端末1の構成について、図2および図3を参照しつつ説明する。図2は、楽器端末1の外観を示す図であり、図3は、楽器端末1のハードウェア構成を示すブロック図である。図において、10は、複数の鍵10aを備えた演奏部である。楽器端末1の演奏者は、この演奏部10の鍵10aを押下することによって楽器端末1を演奏する。鍵10aが押下されて演奏が行われると、演奏部10は、その演奏内容に応じた信号を出力する。11は例えばCPU(Central Processing Unit)等の演算装置や、ROM(Read Only Memory)やRAM(Random Access Memory)などの各種メモリを備えた制御部である。12は、フラッシュメモリ等で構成された記憶部であり、楽器端末1の各部を制御するための各種プログラムが記憶されている。制御部11の演算装置は、記憶部12に記憶されているコンピュータプログラムを読み出して実行することにより、バス13を介して楽器端末1の各部を制御する。また、演奏者によって演奏部10が操作されると、制御部11は、演奏部10から供給される信号に基づいてMIDI(Musical Instrument Digital Interface:登録商標)形式の演奏データを生成する。
なお、記憶部12は、数曲の演奏データを記憶可能な記憶領域を備えており、制御部11によって生成された演奏データを記憶部12に記憶できるようになっている。
The musical instrument terminal 1 is an electronic musical instrument such as an electronic keyboard. Here, the configuration of the musical instrument terminal 1 will be described with reference to FIGS. 2 and 3. FIG. 2 is a diagram illustrating an external appearance of the musical instrument terminal 1, and FIG. 3 is a block diagram illustrating a hardware configuration of the musical instrument terminal 1. In the figure, reference numeral 10 denotes a performance unit having a plurality of keys 10a. The performer of the musical instrument terminal 1 plays the musical instrument terminal 1 by pressing the key 10a of the performance unit 10. When the performance is performed by pressing the key 10a, the performance unit 10 outputs a signal corresponding to the performance content. Reference numeral 11 denotes a control unit including an arithmetic device such as a CPU (Central Processing Unit) and various memories such as a ROM (Read Only Memory) and a RAM (Random Access Memory). Reference numeral 12 denotes a storage unit configured by a flash memory or the like, and stores various programs for controlling each unit of the musical instrument terminal 1. The arithmetic unit of the control unit 11 controls each unit of the musical instrument terminal 1 via the bus 13 by reading out and executing the computer program stored in the storage unit 12. When the performance unit 10 is operated by the performer, the control unit 11 generates performance data in MIDI (Musical Instrument Digital Interface: registered trademark) format based on a signal supplied from the performance unit 10.
The storage unit 12 includes a storage area capable of storing several pieces of performance data, and the performance data generated by the control unit 11 can be stored in the storage unit 12.

14は、通信ネットワークに接続するためのモデムや各種通信装置を備えた通信部であり、制御部11による制御の下で他の装置とデータ通信を行うようになっている。15は、5インチ程度の狭小な表示領域を有する表示部である。16は、「受信」、「送信」、「収録」、「停止」及び「再生」等の各種ボタンや、カーソル表示を上下させる上下キー等を備えた操作部である。楽器端末1のユーザは、表示部15に表示されたメッセージを見ながら操作部16を操作することにより、楽器端末1に対して各種指示入力を行うことができる。17は、音声を収音するマイクロフォンであり、制御部11は、マイクロフォン17が収音する音声からデジタル形式の音声データを生成する。18は、制御部11によって供給される演奏データに基づいてスピーカ19を駆動するオーディオ制御部である。   A communication unit 14 includes a modem for connecting to a communication network and various communication devices, and performs data communication with other devices under the control of the control unit 11. Reference numeral 15 denotes a display unit having a narrow display area of about 5 inches. An operation unit 16 includes various buttons such as “receive”, “transmit”, “record”, “stop”, and “play”, and up and down keys for moving the cursor up and down. The user of the musical instrument terminal 1 can input various instructions to the musical instrument terminal 1 by operating the operation unit 16 while viewing the message displayed on the display unit 15. Reference numeral 17 denotes a microphone that collects sound. The control unit 11 generates digital audio data from the sound collected by the microphone 17. Reference numeral 18 denotes an audio control unit that drives the speaker 19 based on performance data supplied by the control unit 11.

次に、サーバ装置2の構成について図4を参照しつつ説明する。図4は、サーバ装置2のハードウェア構成を示すブロック図である。図において、21は、例えばCPU等の演算装置や、ROMやRAMなどの各種メモリを備えた制御部である。22は、例えばハードディスクなどの大容量記憶装置で構成された記憶部である。記憶部22はサーバ装置2を動作させるための各種プログラムを記憶しており、制御部21の演算装置は、記憶部22に記憶されているプログラムを読み出して実行することにより、バス23を介してサーバ装置2の各部を制御する。24は、各種通信装置等を備える通信部であり、制御部21の制御の下、楽器端末1とのデータの授受を行う。   Next, the configuration of the server device 2 will be described with reference to FIG. FIG. 4 is a block diagram illustrating a hardware configuration of the server device 2. In the figure, reference numeral 21 denotes a control unit including an arithmetic device such as a CPU and various memories such as a ROM and a RAM. Reference numeral 22 denotes a storage unit composed of a mass storage device such as a hard disk. The storage unit 22 stores various programs for operating the server device 2, and the arithmetic unit of the control unit 21 reads out and executes the program stored in the storage unit 22, thereby executing the program via the bus 23. Each part of the server apparatus 2 is controlled. A communication unit 24 includes various communication devices and the like, and exchanges data with the musical instrument terminal 1 under the control of the control unit 21.

図4に示す記憶部22には、多数のファイルが記憶されるファイル群記憶エリア22aが設けられている。ここで、サーバ装置2の記憶部22に記憶されるファイルの構造について、図5を参照しつつ説明する。
本実施形態においては、図5に示すように、文字タイトル情報TIと音声タイトル情報AIと演奏データDAとの3つの情報が互いに対応付けられて構成されるファイルを取り扱う。このファイルは他の一般的なファイルとは拡張子によって区別される。図5において文字タイトル情報TIは、ファイル名や、そのファイルが生成された日付等のテキスト形式のデータであり、ファイルを識別するためにファイルに付与される情報である。文字タイトル情報TIは一般的なファイルに付随しているものと同様である。次に、音声タイトル情報AIは、音声データであり、文字タイトル情報TIと同様にファイルを識別するためにファイルに付与される情報である。この音声タイトル情報AIは、一般的ファイルにはない付加的な情報である。演奏データDAは、楽器端末1によって生成される演奏データである。
The storage unit 22 shown in FIG. 4 is provided with a file group storage area 22a for storing a large number of files. Here, the structure of the file stored in the storage unit 22 of the server device 2 will be described with reference to FIG.
In the present embodiment, as shown in FIG. 5, a file configured by associating three pieces of information of character title information TI, audio title information AI, and performance data DA is handled. This file is distinguished from other common files by its extension. In FIG. 5, character title information TI is data in text format such as a file name and a date when the file is generated, and is information given to the file in order to identify the file. The character title information TI is the same as that attached to a general file. Next, the audio title information AI is audio data, and is information given to the file in order to identify the file in the same manner as the character title information TI. The audio title information AI is additional information that is not included in a general file. The performance data DA is performance data generated by the musical instrument terminal 1.

<B:動作>
次に、本実施形態の動作について説明する。
<B−1:ファイル生成>
まず、楽器端末1のユーザが楽器端末1を演奏して楽曲を収録し、収録した演奏データを含むファイルを、サーバ装置2に送信する動作について、図6を参照しつつ説明する。図6は、楽器端末1の制御部11が行うファイル生成処理を示すフローチャートである。まず、楽器端末1のユーザは、操作部16の「収録」ボタンを押下して、楽曲の収録を開始させ、演奏部10を操作して楽器端末1の演奏を行う。楽器端末1の制御部11は、収録を開始する旨の操作が行われたことを検知すると(ステップSA1;YES)、演奏部10から供給される信号からMIDI形式の演奏データを生成し、生成した演奏データを記憶部12に記憶させる(ステップSA2)。また、同時に、制御部11は、生成した演奏データをオーディオ制御部18に供給し、オーディオ制御部18は、供給されるデータに基づいてスピーカ19を駆動する。これにより、楽器端末1のユーザによって演奏される演奏音が、スピーカ19から出力される(ステップSA3)。
<B: Operation>
Next, the operation of this embodiment will be described.
<B-1: File generation>
First, an operation in which the user of the musical instrument terminal 1 plays the musical instrument terminal 1 to record music and transmits a file including the recorded performance data to the server apparatus 2 will be described with reference to FIG. FIG. 6 is a flowchart showing a file generation process performed by the control unit 11 of the musical instrument terminal 1. First, the user of the musical instrument terminal 1 presses the “record” button of the operation unit 16 to start recording of music, and operates the performance unit 10 to perform the musical instrument terminal 1. When the control unit 11 of the musical instrument terminal 1 detects that an operation to start recording has been performed (step SA1; YES), it generates MIDI format performance data from the signal supplied from the performance unit 10, and generates the data. The performance data is stored in the storage unit 12 (step SA2). At the same time, the control unit 11 supplies the generated performance data to the audio control unit 18, and the audio control unit 18 drives the speaker 19 based on the supplied data. Thereby, the performance sound performed by the user of the musical instrument terminal 1 is output from the speaker 19 (step SA3).

楽曲の演奏を終えると、楽器端末1のユーザは、「停止」ボタンを押下して、楽曲の収録を終了する。「停止」ボタンが押下されたことを検知すると(ステップSA4;YES)、制御部11は、日付や時刻等のテキスト形式のデータを文字タイトル情報TIとして生成する(ステップSA5)。   When the performance of the music is finished, the user of the musical instrument terminal 1 presses the “stop” button to end the recording of the music. When it is detected that the “stop” button has been pressed (step SA4; YES), the control unit 11 generates text data such as date and time as character title information TI (step SA5).

次に、制御部11は、表示部15を制御して、音声タイトル情報AIの入力を促すメッセージを表示部15に表示させる(ステップSA6)。楽器端末1のユーザは、表示部15に表示されたメッセージの内容を確認し、操作部16を用いて音声タイトル情報AIを入力する旨の操作を行い、ファイルの内容を示す音声を発音する。楽器端末1の制御部11は、音声タイトル情報AIを入力する旨の操作が行われたことを検知すると(ステップSA7;YES)、音声をマイクロフォン17によって収音して音声データを生成し、その音声データをそのファイルの音声タイトル情報AIとする(ステップSA8)。この処理によって、文字タイトル情報TIと音声タイトル情報AIとが演奏データに付与されたファイルが生成されることになる。   Next, the control unit 11 controls the display unit 15 to display a message for prompting input of the audio title information AI on the display unit 15 (step SA6). The user of the musical instrument terminal 1 confirms the content of the message displayed on the display unit 15, performs an operation for inputting the audio title information AI using the operation unit 16, and produces a sound indicating the content of the file. When the control unit 11 of the musical instrument terminal 1 detects that an operation for inputting the audio title information AI has been performed (step SA7; YES), the audio is collected by the microphone 17 to generate audio data. The audio data is set as audio title information AI of the file (step SA8). By this processing, a file in which the character title information TI and the audio title information AI are added to the performance data is generated.

楽器端末1の制御部11は、生成したファイルの文字タイトル情報TIと音声タイトル情報AIとを対応付けて記憶部12に記憶させる(ステップSA9)。このように、楽器端末1が演奏データを生成する毎に、その演奏データの文字タイトル情報とTIと音声タイトル情報AIとが対応付けて記憶されるから、楽器端末1の記憶部12には、楽器端末1が生成した複数の演奏データについて、その演奏データと対応する文字タイトル情報TIと音声タイトル情報AIとが対応付けて記憶されることになる。   The control unit 11 of the musical instrument terminal 1 stores the character title information TI and the audio title information AI of the generated file in association with each other in the storage unit 12 (step SA9). Thus, every time the musical instrument terminal 1 generates performance data, the character title information, TI, and audio title information AI of the performance data are stored in association with each other. For a plurality of performance data generated by the musical instrument terminal 1, the character title information TI and the audio title information AI corresponding to the performance data are stored in association with each other.

このとき、楽器端末1のユーザは、操作部16の「送信」ボタンを押下して、演奏データをサーバに送信する旨の指示を楽器端末1に入力することができる。送信指示が入力されたことを検知すると(ステップSA10;YES)、制御部11は、生成したファイルを、通信ネットワークを介してサーバ装置2に送信する(ステップSA11)。   At this time, the user of the musical instrument terminal 1 can input an instruction to the musical instrument terminal 1 to transmit performance data to the server by pressing the “Send” button of the operation unit 16. When detecting that a transmission instruction has been input (step SA10; YES), the control unit 11 transmits the generated file to the server device 2 via the communication network (step SA11).

サーバ装置2の制御部21は、通信部24を介してファイルを受信すると、ファイル群記憶エリア22aに受信したファイルを記憶させる。すなわち、文字タイトル情報TIと音声タイトル情報AIと演奏データDAとを対応付けて記憶部22に記憶させる。   When the control unit 21 of the server device 2 receives the file via the communication unit 24, the control unit 21 stores the received file in the file group storage area 22a. That is, the character title information TI, the audio title information AI, and the performance data DA are stored in the storage unit 22 in association with each other.

<B−2:ファイル一覧表示>
次に、ファイルの一覧表示動作について説明する。
楽器端末1のユーザは、操作部16を操作して、ファイルの一覧を表示させる旨の操作を行う。楽器端末1の制御部11は、ファイルの一覧を表示する旨の操作が行われたことを検知すると、例えば図7に示すような、記憶部12に記憶された文字タイトル情報TIに基づく文字タイトルを一覧表示する。図7に示すように、複数のファイルについて、その文字タイトル情報の示す文字タイトルが表示部15に表示される。
<B-2: File list display>
Next, a file list display operation will be described.
The user of the musical instrument terminal 1 operates the operation unit 16 to perform an operation for displaying a list of files. When the control unit 11 of the musical instrument terminal 1 detects that an operation for displaying a list of files has been performed, for example, a character title based on character title information TI stored in the storage unit 12 as shown in FIG. List. As shown in FIG. 7, for a plurality of files, the character titles indicated by the character title information are displayed on the display unit 15.

楽器端末1のユーザは、表示部15に表示される画面を確認しながら、操作部16の上下キーを操作してファイルの文字タイトルを選択する。楽器端末1の制御部11は、文字タイトルが選択されたことを検知すると、選択された文字タイトルと対応して記憶部12に記憶された音声タイトル情報を記憶部12から読み出して、読み出した音声タイトル情報の示す音声を、オーディオ制御部18、スピーカ19を介して発音させる。楽器端末1のユーザは、発音される音声タイトル情報を聴くことによって、このファイルの音声タイトルを認識することができる。   The user of the musical instrument terminal 1 selects the character title of the file by operating the up and down keys of the operation unit 16 while confirming the screen displayed on the display unit 15. When detecting that a character title has been selected, the control unit 11 of the musical instrument terminal 1 reads out the audio title information stored in the storage unit 12 corresponding to the selected character title from the storage unit 12 and reads out the read audio The sound indicated by the title information is generated via the audio control unit 18 and the speaker 19. The user of the musical instrument terminal 1 can recognize the audio title of this file by listening to the audio title information that is pronounced.

一般に、文字タイトル情報TIは日付や時刻等を示すテキストデータであるため、意味が希薄であり、そのテキストタイトルからファイルの内容を把握することは困難であることが多い。そのため、楽器端末1のユーザは、そのファイルの文字タイトル情報を見ても、それがどのようなファイルであるかが分からなかったり、思い出せなかったりする場合が多々ある。   In general, since the character title information TI is text data indicating date, time, etc., the meaning is sparse and it is often difficult to grasp the contents of the file from the text title. For this reason, the user of the musical instrument terminal 1 often does not know what kind of file it is or cannot remember even when looking at the character title information of the file.

これに対し本実施形態においては、文字タイトル情報TIに加えて、音声タイトル情報AIをファイルに付与するようにし、楽器端末1の制御部11は、ファイルのファイル名(文字タイトル情報TI)の表示に併せて、音声タイトル情報TIを発音する。ファイルの内容を示す音声を聞くことによって、楽器端末1のユーザは、そのファイルがどのようなものであるかを容易に把握することが可能となる。具体的には、例えば、保存時における音声の抑揚や声の質などから、そのファイルを記録したときの状況や感情(嬉しい、悲しい、元気、弱気・・・)などを具体的に思い出すことが容易になる。一例として、仮に風邪声で記録した場合は、風邪をひいていたその当時の状況などが思い出され、同時にそのときに作業していたファイルがどのようなものだったという記憶が手繰られてくる。つまり、そのときのユーザの声の調子等によって音声タイトル情報はユニークなものとなり、ユーザにとっては後に容易に思い出し易いものとなる。これにより、楽器端末1のユーザは、多数のファイルの音声タイトルを順次聞きながら所得したいファイルを探すことができる。   On the other hand, in this embodiment, in addition to the character title information TI, the audio title information AI is added to the file, and the control unit 11 of the instrument terminal 1 displays the file name (character title information TI) of the file. At the same time, the audio title information TI is pronounced. By listening to the sound indicating the contents of the file, the user of the musical instrument terminal 1 can easily grasp what the file is. Specifically, for example, the situation or emotion (happy, sad, cheerful, bearish ...) when recording the file may be specifically recalled from the inflection of voice and the quality of voice at the time of storage. It becomes easy. As an example, if recording was made with a cold voice, the situation at the time when the cold was caught is recalled, and at the same time, the memory of what the file was working on at that time is handed over. That is, the audio title information is unique depending on the tone of the user's voice at that time, and it is easy for the user to easily remember later. As a result, the user of the musical instrument terminal 1 can search for a file that he / she wants to earn while listening to the audio titles of a large number of files.

また、一般的に、電子楽器は、キーボードやマウスなどの入力手段を有していないため、ファイル名としてユーザがテキストデータを入力することが困難であったり、煩雑である場合が多い。これに対し本実施形態においては、音声によってタイトルを入力するので、テキストデータを入力する必要がなく、ユーザは容易にタイトルを入力することが可能となる。   In general, since an electronic musical instrument does not have input means such as a keyboard and a mouse, it is often difficult or complicated for a user to input text data as a file name. On the other hand, in the present embodiment, since the title is input by voice, it is not necessary to input text data, and the user can easily input the title.

<B−3:ファイル取得>
次に、ファイルの取得動作について説明する。楽器端末1のユーザは、取得したいファイルの文字タイトルを選択した状態で、操作部16の「受信」ボタンを押下する。楽器端末1の制御部11は、「受信」ボタンが押下されたことを検知すると、選択されたファイルの文字タイトル情報TIと音声タイトル情報AIとを記憶部12から読み出し、読み出した文字タイトル情報TIと音声タイトル情報AIとを通信部14を介してサーバ装置2に送信する。
<B-3: File acquisition>
Next, a file acquisition operation will be described. The user of the musical instrument terminal 1 presses the “Receive” button of the operation unit 16 with the character title of the file to be acquired selected. When the control unit 11 of the musical instrument terminal 1 detects that the “Receive” button has been pressed, the control unit 11 reads out the character title information TI and the audio title information AI of the selected file from the storage unit 12, and reads out the read character title information TI. And the audio title information AI are transmitted to the server device 2 via the communication unit 14.

サーバ装置2の制御部21は、通信部24を介して、文字タイトル情報TIと音声タイトル情報AIとを受信すると、それらと一致する文字タイトル情報TIおよび音声タイトル情報AIを有するファイルを、記憶部22に記憶されているファイル群記憶エリア22aから検索する。一致するものが検索された場合は、そのファイルに対するアクセスを許可する。すなわち、検索されたファイルを、通信部24を介して楽器端末1に送信する。
逆に、一致するものが検索されなかった場合は、ファイルに対するアクセスを拒否する。すなわち、文字タイトル情報TIが一致しても、音声タイトル情報AIが一致しない場合は、そのファイルへのアクセスが拒否されることになる。このように、本実施形態においては、文字タイトル情報TIに加えて音声タイトル情報AIが認証のための情報として用いられる。
When the control unit 21 of the server apparatus 2 receives the character title information TI and the audio title information AI via the communication unit 24, the control unit 21 stores a file having the character title information TI and the audio title information AI that match the character title information TI and the audio title information AI. The file group storage area 22a stored in the file 22 is searched. If a match is found, access to the file is allowed. That is, the retrieved file is transmitted to the musical instrument terminal 1 via the communication unit 24.
Conversely, if no match is found, access to the file is denied. That is, even if the character title information TI matches, but the audio title information AI does not match, access to the file is denied. As described above, in this embodiment, the audio title information AI is used as information for authentication in addition to the character title information TI.

楽器端末1の制御部11は、サーバ装置2からファイルを受信すると、受信したファイルの演奏データを、記憶部12に記憶させる。   When the control unit 11 of the musical instrument terminal 1 receives a file from the server device 2, the performance data of the received file is stored in the storage unit 12.

ファイルへのアクセスを行うためのキーがファイル名(文字タイトル情報TI)のみである場合は、文字データでは文字数が限られていることもあり、偶然に一致することもあり得る。また、推定して作成した文字データによってアクセスが可能になってしまうおそれもある。一方、音声データが偶然に一致する確率は皆無であり、推定等によって似せた音声データを作ることも難しい。本実施形態においては、音声タイトル情報AIが一致することを条件にして演奏データへのアクセスを許可しているので、そのセキュリティは極めて高い。音声タイトル情報AIの一致確認における分析方法は種々あり、波形の全部一致、フォルマント一致、周波数成分の一致など種々のアルゴリズムが考えられる。いずれの方法を用いても、分析を細かくすれば確認の精度は著しく高くなるので、記憶部22に記憶されているファイルが悪意の第3者によって容易にアクセスされてしまうという事態を防ぐことが可能となる。   When the key for accessing the file is only the file name (character title information TI), the number of characters may be limited in the character data, and may coincide by chance. Moreover, there is a possibility that access may be made possible by character data created by estimation. On the other hand, there is no probability that voice data coincides by chance, and it is difficult to create voice data that is similar by estimation or the like. In the present embodiment, access to performance data is permitted on condition that the audio title information AI matches, so that the security is extremely high. There are various analysis methods for confirming the coincidence of the audio title information AI, and various algorithms such as a complete waveform match, a formant match, and a frequency component match can be considered. Regardless of which method is used, if the analysis is made finer, the accuracy of the confirmation is remarkably increased, so that it is possible to prevent a situation in which a file stored in the storage unit 22 is easily accessed by a malicious third party. It becomes possible.

また、楽器端末は記憶領域が限られており、大量のデータを記憶することができない場合が多いが、本実施形態においては、演奏データをサーバ装置2で蓄積および管理するので、大量のデータを保存しておくことができ、かつ、楽器端末1には文字タイトル情報TIと音声タイトル情報AIだけを保存しておけばよいので、楽器端末1の記憶領域を多く使うことはない。また、ユーザは、文字タイトル情報(または音声タイトル情報)を選択するという簡単な操作を行うだけで、ファイルをサーバ装置2からダウンロードすることができる。   In addition, the musical instrument terminal has a limited storage area and cannot store a large amount of data in many cases. However, in the present embodiment, the performance data is stored and managed by the server device 2, and therefore a large amount of data is stored. Since only the character title information TI and the audio title information AI need be stored in the musical instrument terminal 1, the storage area of the musical instrument terminal 1 is not used much. Further, the user can download the file from the server device 2 only by performing a simple operation of selecting character title information (or audio title information).

本実施形態においては、例えば、あるユーザに、ある演奏データに対するアクセスを許可したい場合は、その演奏データの音声タイトル情報AIを与えるようにすればよい。このようにすれば、そのユーザは、与えられた音声タイトル情報AIをキーとして照合可能となるから、その演奏データにアクセスすることが可能となる。このようにして、アクセスの自由度を増すこともできる。このようなアクセス処理を行えば、例えば、セッションに参加する複数の楽器端末の間で、各々の演奏データを交換することができ、しかも、演奏データが第三者に漏洩してしまうという心配がない。   In this embodiment, for example, when it is desired to allow a user to access certain performance data, the audio title information AI of the performance data may be given. In this way, the user can collate using the given audio title information AI as a key, so that the performance data can be accessed. In this way, the degree of freedom of access can be increased. If such access processing is performed, for example, performance data can be exchanged between a plurality of musical instrument terminals participating in a session, and further, there is a concern that performance data may be leaked to a third party. Absent.

<C:変形例>
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。以下にその一例を示す。
(1)上述した実施形態においては、楽器端末として、電子キーボード等の電子楽器を用いたが、楽器端末はこれに限定されるものではなく、電子ドラムや電子ギター等であってもよい。
<C: Modification>
As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above, It can implement with another various form. An example is shown below.
(1) In the embodiment described above, an electronic musical instrument such as an electronic keyboard is used as the musical instrument terminal. However, the musical instrument terminal is not limited to this, and may be an electronic drum, an electronic guitar, or the like.

(2)上述した実施形態においては、楽器端末が生成する演奏データを、MIDI形式のデータとして、ファイルとして記憶する内容もMIDIデータとしたが、ファイルの内容となる演奏データの形式はこれに限定されるものではなく、例えば演奏音の波形を示す波形データであってもよい。具体的には、上述した実施形態に即していえば、オーディオ制御部18でMIDIデータに基づいて生成される波形データを用いるようにしてもよい。また、演奏操作子が発生する演奏データもMIDI形式に限らず、他の形式であってもよく、さらに、演奏音に対応した波形データを直接出力するタイプの楽器端末を用い、この波形データを記憶あるいはサーバへ転送するようにしてもよい。 (2) In the above-described embodiment, the performance data generated by the musical instrument terminal is MIDI format data, and the content stored as a file is also MIDI data. However, the format of the performance data serving as the file content is limited to this. For example, waveform data indicating a waveform of a performance sound may be used. Specifically, in accordance with the above-described embodiment, waveform data generated by the audio control unit 18 based on MIDI data may be used. Also, the performance data generated by the performance operator is not limited to the MIDI format, but may be in other formats. Further, the waveform data is used by using a musical instrument terminal that directly outputs waveform data corresponding to the performance sound. You may make it transfer to memory or a server.

(3)上述した第1および第2の実施形態においては、図5に示すデータ構造を有するファイルをサーバ装置2の記憶部に記憶させるようにした。ファイルの保存形式はこれに限定されるものではなく、例えば、図8に示すように、文字タイトル情報と、音声タイトル情報と、演奏データとの各項目を互いに関連付けてテーブルに記憶させておくようにしてもよい。図8において、「音声タイトル情報識別子」は、例えば音声タイトル情報が記憶された領域の先頭アドレスであってもよく、または、音声タイトル情報のファイル名であってもよい。または、音声タイトル情報本体をこのテーブルに記憶させておくようにしてもよい。このように実質的に演奏データDAと音声タイトル情報AIとが関連していればよい。 (3) In the first and second embodiments described above, the file having the data structure shown in FIG. 5 is stored in the storage unit of the server device 2. The file storage format is not limited to this. For example, as shown in FIG. 8, the items of character title information, audio title information, and performance data are associated with each other and stored in a table. It may be. In FIG. 8, the “voice title information identifier” may be, for example, the start address of the area where the voice title information is stored, or may be the file name of the voice title information. Or you may make it memorize | store the audio | voice title information main body in this table. Thus, it is only necessary that the performance data DA and the audio title information AI are substantially related to each other.

(4)上述した第1および第2の実施形態においては、文字タイトル情報TIとして、その演奏データDAが生成された日付や時刻等のテキスト形式のデータを制御部11が生成するようにしたが、文字タイトル情報はこれに限定されるものではなく、例えば、ユーザを識別するためのユーザID等の所定の識別情報を文字タイトル情報に含めるようにしてもよい。または、例えば、操作部にテキストデータを入力するためのテンキー等を設けて、表示部15にファイル名の入力を促す旨のメッセージを表示させ、ユーザによって入力されたテキストデータを文字タイトル情報TIとして用いるようにしてもよい。または、日付や時刻とユーザ入力によるテキストデータとを併用して用いるようにしてもよく、文字タイトル情報TIの生成方法は設計等に応じて変更可能である。 (4) In the first and second embodiments described above, the control unit 11 generates text format data such as the date and time when the performance data DA is generated as the character title information TI. The character title information is not limited to this. For example, predetermined identification information such as a user ID for identifying the user may be included in the character title information. Alternatively, for example, a numeric keypad or the like for inputting text data is provided on the operation unit, and a message prompting the user to input a file name is displayed on the display unit 15, and the text data input by the user is used as the character title information TI. You may make it use. Alternatively, the date and time may be used in combination with text data input by the user, and the method for generating the character title information TI can be changed according to the design or the like.

(5)上述した実施形態においては、楽器端末のマイクロフォンから入力される音声を音声タイトル情報とするようにした。この音声タイトル情報は、サンプリングされた音声データを所定のアルゴリズムで圧縮するようにしてもよい。また、音声タイトルについてどのくらいの密度のデータにするかは、設計等に応じて変更可能である。
また、音声タイトル情報の照合や解析を行う際に、複数のアルゴリズムからいずれか一つを選択できるようにしてもよい。
または、音声を所定のアルゴリズムで変形する特殊マイクを楽器端末に設けるようにし、このマイクに入力される音声を所定のアルゴリズムで変形して生成した音声データを音声タイトル情報として用いるようにしてもよい。
(5) In the embodiment described above, the voice input from the microphone of the musical instrument terminal is used as the voice title information. As the audio title information, the sampled audio data may be compressed by a predetermined algorithm. Also, the density of the data for the audio title can be changed according to the design or the like.
Further, when collating or analyzing the audio title information, any one of a plurality of algorithms may be selected.
Alternatively, a special microphone that transforms sound with a predetermined algorithm may be provided in the musical instrument terminal, and sound data generated by transforming sound input to the microphone with a predetermined algorithm may be used as the sound title information. .

(6)上述した実施形態においては、楽器端末1の制御部11は、文字タイトル情報と音声タイトル情報とを記憶部12に記憶させておき、ファイルを取得する場合には、記憶部12に記憶された文字タイトル情報と音声タイトル情報とを記憶部12から読み出して、サーバ装置2に送信するようにした。これに代えて、楽器端末1のマイクロフォン17からユーザが音声を入力し、入力された音声の声紋等を照合することによって、ファイルへのアクセスを許可するようにしてもよい。
なお、この場合、楽器端末1に呼気センサを備えたマイクロフォンを設けるようにしてもよい。音声照合するときに、自分の音声データが他人に傍受されると、他人でもデータを取得できるという問題があるが、呼気センサーマイクで音声タイトルを入力すると、音声を収録した機器から発音されたのか、人がライブでしゃべったのかを認識することができる。
(6) In the above-described embodiment, the control unit 11 of the musical instrument terminal 1 stores the character title information and the audio title information in the storage unit 12 and stores them in the storage unit 12 when acquiring a file. The text title information and the audio title information thus read out are read from the storage unit 12 and transmitted to the server device 2. Instead, the user may input a voice from the microphone 17 of the musical instrument terminal 1, and allow access to the file by collating a voice print or the like of the input voice.
In this case, the instrument terminal 1 may be provided with a microphone provided with an exhalation sensor. When voice collation, if someone else's voice data is intercepted by another person, there is a problem that the other person can also obtain the data, but if you entered a voice title with the breath sensor microphone, was it pronounced by the device that recorded the voice? , Can recognize if people talked live.

本発明の実施形態に係るシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the system which concerns on embodiment of this invention. 同実施形態に係る楽器端末の外観を示す図である。It is a figure which shows the external appearance of the musical instrument terminal which concerns on the same embodiment. 同実施形態に係る楽器端末の構成を示すブロック図である。It is a block diagram which shows the structure of the musical instrument terminal which concerns on the same embodiment. 同実施形態に係るサーバ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the server apparatus which concerns on the same embodiment. 同実施形態に係るファイルのデータ構造を示す図である。It is a figure which shows the data structure of the file which concerns on the same embodiment. 同実施形態の楽器端末の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the musical instrument terminal of the embodiment. 同実施形態の楽器端末が表示するファイル一覧画面の一例を示す図である。It is a figure which shows an example of the file list screen which the musical instrument terminal of the embodiment displays. 本発明の変形例に係るテーブルのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the table which concerns on the modification of this invention.

符号の説明Explanation of symbols

1…楽器端末、2…サーバ装置、10…演奏部、11,21…制御部、12,22…記憶部、13,23…バス、14,24…通信部、15…表示部、16…操作部、17…マイクロフォン、18…オーディオ制御部、19…スピーカ。 DESCRIPTION OF SYMBOLS 1 ... Musical instrument terminal, 2 ... Server apparatus, 10 ... Performance part, 11, 21 ... Control part, 12, 22 ... Memory | storage part, 13, 23 ... Bus, 14, 24 ... Communication part, 15 ... Display part, 16 ... Operation Part, 17 ... microphone, 18 ... audio control part, 19 ... speaker.

Claims (4)

演奏を行うための操作子と、
前記操作子が操作された内容に応じた信号を出力する検知手段と、
前記検知手段によって出力された信号に基づいて演奏データを生成する演奏データ生成手段と、
前記演奏データのタイトルを示すタイトルデータを生成するタイトルデータ生成手段と、
入力される音声に対応する音声データを生成する音声入力手段と、
前記演奏データを前記音声データおよび前記タイトルデータに対応付けて、所定のサーバ装置に通信ネットワークを介して送信する送信手段と
を備えることを特徴とする楽器端末。
A controller for performing,
Detecting means for outputting a signal corresponding to the content of operation of the operator;
Performance data generation means for generating performance data based on the signal output by the detection means;
Title data generation means for generating title data indicating the title of the performance data;
Voice input means for generating voice data corresponding to the input voice;
A musical instrument terminal comprising: transmission means for transmitting the performance data in association with the audio data and the title data to a predetermined server device via a communication network.
前記タイトルデータと前記音声データとを対応付けて記憶する記憶手段と、
前記記憶手段に記憶された1または複数のタイトルデータを表示する表示手段と、
前記表示手段に表示されたタイトルデータのうちのいずれか一つを選択する選択手段と、
前記選択手段により選択されたタイトルデータと対応する音声データを前記記憶手段から読み出し、読み出した音声データに基づいて音声を発音する発音手段と
を備えることを特徴とする請求項1に記載の楽器端末。
Storage means for storing the title data and the audio data in association with each other;
Display means for displaying one or more title data stored in the storage means;
Selecting means for selecting any one of the title data displayed on the display means;
The musical instrument terminal according to claim 1, further comprising: sound generation means for reading out voice data corresponding to the title data selected by the selection means from the storage means and generating a sound based on the read voice data. .
前記演奏データを前記サーバ装置に送信する旨のコマンド信号を受け取ると、前記音声入力手段への音声入力を促す報知動作を行う報知手段を有し、
前記送信手段は前記報知手段による報知動作が行われ、前記音声入力手段によって音声データが生成されたことを認識した後に、前記演奏データを前記音声データに対応付けて送信することを特徴とする請求項1記載の楽器端末。
When receiving a command signal for transmitting the performance data to the server device, it has notification means for performing a notification operation for prompting voice input to the voice input means,
The transmission means transmits the performance data in association with the audio data after the notification operation by the notification means is performed and the voice input means recognizes that the voice data has been generated. Item 1. The musical instrument terminal according to Item 1.
前記記憶手段に記憶された音声データを読み出して、前記所定のサーバ装置に通信ネットワークを介して送信する音声データ送信手段と、
前記所定のサーバ装置から、前記演奏データを受信する演奏データ受信手段と、
前記演奏データ受信手段により受信された演奏データを記憶する演奏データ記憶手段と
を備えることを特徴とする請求項2または3に記載の楽器端末。
Voice data transmitting means for reading the voice data stored in the storage means and transmitting the voice data to the predetermined server device via a communication network;
Performance data receiving means for receiving the performance data from the predetermined server device;
The musical instrument terminal according to claim 2 or 3, further comprising: performance data storage means for storing performance data received by the performance data receiving means.
JP2005352008A 2005-12-06 2005-12-06 Musical instrument terminal Expired - Fee Related JP4670618B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005352008A JP4670618B2 (en) 2005-12-06 2005-12-06 Musical instrument terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005352008A JP4670618B2 (en) 2005-12-06 2005-12-06 Musical instrument terminal

Publications (2)

Publication Number Publication Date
JP2007156153A true JP2007156153A (en) 2007-06-21
JP4670618B2 JP4670618B2 (en) 2011-04-13

Family

ID=38240595

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005352008A Expired - Fee Related JP4670618B2 (en) 2005-12-06 2005-12-06 Musical instrument terminal

Country Status (1)

Country Link
JP (1) JP4670618B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011081364A (en) * 2009-09-14 2011-04-21 Yamaha Corp Storage system and storage device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05159541A (en) * 1991-12-03 1993-06-25 Mitsubishi Electric Corp Automatic music playback apparatus
JP2629949B2 (en) * 1989-03-10 1997-07-16 松下電器産業株式会社 Audio disc player device
JPH11306643A (en) * 1998-04-20 1999-11-05 Ricoh Co Ltd Interchangeable medium initializing method and device
JP2001331182A (en) * 2000-05-19 2001-11-30 Sony Corp Information distribution method and distributed information receiving terminal
JP2002157275A (en) * 2000-11-22 2002-05-31 Fuji Photo Film Co Ltd Picture display device and storage medium
JP2003131670A (en) * 2001-10-30 2003-05-09 Vegetable House:Kk System for distributing automatic piano playing data
JP2004233765A (en) * 2003-01-31 2004-08-19 Yamaha Corp Music information providing server and electronic music device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2629949B2 (en) * 1989-03-10 1997-07-16 松下電器産業株式会社 Audio disc player device
JPH05159541A (en) * 1991-12-03 1993-06-25 Mitsubishi Electric Corp Automatic music playback apparatus
JPH11306643A (en) * 1998-04-20 1999-11-05 Ricoh Co Ltd Interchangeable medium initializing method and device
JP2001331182A (en) * 2000-05-19 2001-11-30 Sony Corp Information distribution method and distributed information receiving terminal
JP2002157275A (en) * 2000-11-22 2002-05-31 Fuji Photo Film Co Ltd Picture display device and storage medium
JP2003131670A (en) * 2001-10-30 2003-05-09 Vegetable House:Kk System for distributing automatic piano playing data
JP2004233765A (en) * 2003-01-31 2004-08-19 Yamaha Corp Music information providing server and electronic music device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011081364A (en) * 2009-09-14 2011-04-21 Yamaha Corp Storage system and storage device

Also Published As

Publication number Publication date
JP4670618B2 (en) 2011-04-13

Similar Documents

Publication Publication Date Title
US7368652B2 (en) Music search system and music search apparatus
JP5630155B2 (en) Storage system and storage device
JP2019053170A (en) Musical instrument practicing device
CN101551997A (en) Assisted learning system of music
TW200824408A (en) Methods and systems for information retrieval during communication, and machine readable medium thereof
JP4670618B2 (en) Musical instrument terminal
JP2010078926A (en) Duet partner extracting system
JP2006031484A5 (en)
JP2006031484A (en) Content management device and program
JP2010060635A (en) Karaoke device
JP4230379B2 (en) Karaoke device with a singing recording system
JP5243909B2 (en) Karaoke system
JP5240840B2 (en) Karaoke equipment
JP4223277B2 (en) A music selection device and a music selection program capable of selecting a desired song while continuously playing a part of a plurality of songs narrowed down to a predetermined number or less by keyword search
JP2007148740A (en) File control unit
JP4534966B2 (en) Tone setting device and program
JP4237078B2 (en) Karaoke device characterized by replay control system
JPH09190192A (en) Playing reservation device for karaoke device
JP2006098957A (en) Karaoke system control device
JP2010060634A (en) Karaoke device
JPH09198070A (en) Musical performance reservation device of karaoke device
JP4410205B2 (en) Karaoke system
JP2023078520A (en) karaoke system
JP2004144956A (en) System and server for individual music selection book
JP2010078927A (en) Duet possible song extracting system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100706

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110103

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees