JP6464824B2 - Music performance device and music performance program - Google Patents
Music performance device and music performance program Download PDFInfo
- Publication number
- JP6464824B2 JP6464824B2 JP2015039242A JP2015039242A JP6464824B2 JP 6464824 B2 JP6464824 B2 JP 6464824B2 JP 2015039242 A JP2015039242 A JP 2015039242A JP 2015039242 A JP2015039242 A JP 2015039242A JP 6464824 B2 JP6464824 B2 JP 6464824B2
- Authority
- JP
- Japan
- Prior art keywords
- performance
- command
- information
- sound source
- music
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
- Electrophonic Musical Instruments (AREA)
Description
本発明は、演奏情報を再生することで楽曲の演奏を行う楽曲演奏装置及び楽曲演奏用プログラムに関する。 The present invention relates to a music performance device and a music performance program for performing music by reproducing performance information.
近年パーソナルコンピュータは、CPUやメモリの性能が向上するとともに価格が下がり広く普及している。これに伴ってパーソナルコンピュータで使用される各種ソフトウェアが多数開発され、機能および性能が向上している。ソフトウェア音源もその一つであり、CPUにより楽音を合成する技術およびその合成された楽音に効果を付与する技術が改良され、良質な楽音を形成できるようになっている。 In recent years, personal computers have been widely spread as the performance of CPUs and memories has improved and the price has decreased. Along with this, many kinds of software used in personal computers have been developed, and functions and performance have been improved. A software sound source is one of them, and a technique for synthesizing musical sounds by a CPU and a technique for imparting an effect to the synthesized musical sounds have been improved so that high-quality musical sounds can be formed.
特許文献1には、ソフトウェア音源の処理負荷が大きかったことを課題として、CPUにかかる負荷が所定の値より大きい場合、CPUに代え代替音源で楽音を合成する楽音合成装置が開示されている。このような楽音合成装置を使用することで、CPUにかかる負荷が大きい場合であっても、代替音源を使用することで、楽音の発生開始の遅れや、楽音の合成の途切れといった不具合を解消することが可能となっている。 Japanese Patent Application Laid-Open No. 2004-228688 discloses a musical sound synthesizer that synthesizes musical sounds using an alternative sound source instead of the CPU when the load applied to the CPU is larger than a predetermined value because the processing load of the software sound source is large. By using such a musical tone synthesizer, even when the load on the CPU is heavy, the use of an alternative sound source eliminates problems such as delays in the start of musical tone generation and interruption of musical tone synthesis. It is possible.
現在、CPUの処理能力の向上、メモリの大容量化に伴い、パーソナルコンピュータなどの各種情報処理装置の能力は、ソフトウェア音源を十分に扱うことのできるまでになっている。従来、カラオケ装置では、ハードウェア音源を使用することが主流であったが、このような処理能力の向上により、ソフトウェア音源を搭載することが検討されている。ソフトウェア音源は、良質な楽音を提供できるため、顧客誘引の要素として音質が求められるカラオケ装置には好適な機能である。また、ソフトウェア音源は、ソフトウェアのバージョンを上げることで、バグの修正、機能の追加などに対応可能であるため、各種メンテナンスの面においても好適な機能といえる。 At present, with the improvement of the processing capability of the CPU and the increase in the capacity of the memory, the capabilities of various information processing apparatuses such as personal computers have been able to sufficiently handle software sound sources. Conventionally, in a karaoke apparatus, it has been the mainstream to use a hardware sound source, but it is considered to install a software sound source due to such an improvement in processing capability. Since the software sound source can provide high-quality musical sounds, it is a function suitable for a karaoke apparatus that requires sound quality as an element of customer attraction. The software sound source can be said to be a suitable function in terms of various types of maintenance because it can cope with bug correction and function addition by increasing the software version.
ところで、カラオケ装置では、これまでに作成した楽曲情報を活用することが必要となる。楽曲情報は、MIDI規格を基本に作成されているため、ハードウェア音源用に作成した楽曲情報であってもソフトウェア音源で再生することが可能である。カラオケ装置において、ソフトウェア音源の搭載開発を進めるにあたり、従前にハードウェア音源用に作成した楽曲情報を、ソフトウェア音源で再生させた場合、聴取時に違和感が発生することが分かった。この違和感は、従前に作成したハードウェア音源用の楽曲情報を、ソフトウェア音源用に調整することで対応可能であるが、カラオケ装置で扱っている楽曲情報は数十万曲にも達するため、1曲ずつ調整することは不可能に近い。 By the way, in a karaoke apparatus, it is necessary to utilize the music information created so far. Since the music information is created based on the MIDI standard, even music information created for a hardware sound source can be reproduced with a software sound source. In the development of software sound sources in karaoke devices, it has been found that when music information previously created for hardware sound sources is played back with software sound sources, a sense of incongruity occurs during listening. This sense of incongruity can be dealt with by adjusting the previously created music information for the hardware sound source to the software sound source, but since the music information handled by the karaoke apparatus reaches several hundred thousand songs, 1 It is almost impossible to adjust each song.
本発明は、このような課題を解決することを目的とし、楽曲再生装置において良好な音質の楽曲を再生するため、以下の構成を採用するものである。
複数のコマンドで構成された演奏情報に基づいて演奏を行う楽曲演奏装置であって、
前記コマンドに規定されている送信タイミングに基づいて、ソフトウェア音源で構成された演奏手段に前記コマンドを送信する送信処理と、
前記演奏情報中、前記送信タイミングが同時または略同時である関係を有する複数の前記コマンドからなるコマンド群を検出し、検出した前記コマンド群の内、先頭に位置する前記コマンド以外の少なくとも1つの前記コマンドについて、当該コマンドに規定されている前記送信タイミングに遅延量を付与したタイミングで、前記演奏手段に送信する遅延処理と、を実行することを特徴とする。
In order to solve such problems, the present invention employs the following configuration in order to reproduce music with good sound quality in a music reproducing apparatus.
A music performance device that performs based on performance information composed of a plurality of commands,
A transmission processing based on transmission timing is specified in the command, transmits the command to play means constituted by software tone generator,
In the performance information, a command group consisting of a plurality of the commands having the relationship that the transmission timing is simultaneous or substantially simultaneous is detected, and at least one of the detected command groups other than the command located at the head is detected. A delay process for transmitting to the performance means is executed for the command at a timing obtained by adding a delay amount to the transmission timing defined in the command.
さらに本発明に係る楽曲演奏装置において、
前記コマンドは、MIDI規格に従って形成されていることを特徴とする。
Furthermore, in the music performance device according to the present invention,
The command is formed according to the MIDI standard.
さらに本発明に係る楽曲演奏装置において、
前記送信処理で付与する遅延量は、前記コマンド群中、先に位置する前記コマンドのデータ量に基づいて決定されることを特徴とする。
Furthermore, in the music performance device according to the present invention,
The amount of delay to be given in the transmission process is determined based on the data amount of the command located first in the command group.
さらに本発明に係る楽曲演奏装置は、
前記遅延処理を実行する第1演奏処理と、前記遅延処理を実行しない第2演奏処理とを、実行可能とし、
前記演奏情報の種別に従い、前記第1演奏処理もしくは前記第2演奏処理を実行することを特徴とする。
Furthermore, the music performance device according to the present invention is:
The first performance process that executes the delay process and the second performance process that does not execute the delay process can be executed.
The first performance process or the second performance process is executed according to a type of the performance information.
さらに本発明に係る楽曲演奏用プログラムは、
複数のコマンドで構成された演奏情報に基づいて演奏を行う楽曲演奏用プログラムであって、
前記コマンドに規定されている送信タイミングに基づいて、ソフトウェア音源で構成された演奏手段に前記コマンドを送信する送信処理と、
前記演奏情報中、前記送信タイミングが同時または略同時である関係を有する複数の前記コマンドからなるコマンド群を検出し、前記検出したコマンド群の内、先頭に位置する前記コマンド以外の少なくとも1つの前記コマンドについて、当該コマンドに規定されている前記送信タイミングに遅延量を付与したタイミングで、前記演奏手段に送信する遅延処理と、をコンピュータに実行させることを特徴とする。
Furthermore, the music performance program according to the present invention is:
A music performance program for performing based on performance information composed of a plurality of commands,
A transmission processing based on transmission timing is specified in the command, transmits the command to play means constituted by software tone generator,
Said playing information, the transmission timing detects a command group composed of a plurality of said commands having a relationship is simultaneous or substantially simultaneous, the of the detected commands, wherein other than the command at least one of which is located at the head The computer is caused to execute a delay process for transmitting to the performance means at a timing when a delay amount is added to the transmission timing defined in the command.
本発明に係る楽曲再生装置、または、楽曲再生用プログラムによれば、例えば、ハードウェア音源のように、コマンドをシリアル転送する環境で作成された演奏情報を、ソフトウェア音源のように、複数のコマンドを同時、あるいは、短い時間で処理できる環境を使用して演奏する場合、聴取時の違和感を抑制することが可能となる。したがって、従前にハードウェア音源のために作成した演奏情報を、違和感なくソフトウェア音源で演奏することが可能となる。よって、ソフトウェア音源のために演奏情報を調整、あるいは、再度作成し直す必要がなく、既存の資産を活用することが可能となる。特に、膨大な数の演奏情報を扱うカラオケ装置において、ハードウェア音源からソフトウェア音源に変更する際、大きな効果を発揮する。 According to the music playback device or the music playback program according to the present invention, for example, performance information created in an environment in which commands are serially transferred like a hardware sound source, a plurality of commands like a software sound source. When playing in an environment that can be processed simultaneously or in a short time, it is possible to suppress a sense of discomfort during listening. Therefore, it is possible to perform the performance information previously created for the hardware sound source with the software sound source without a sense of incongruity. Therefore, it is not necessary to adjust performance information or re-create it for the software sound source, and it is possible to utilize existing assets. In particular, in a karaoke apparatus that handles an enormous amount of performance information, it is very effective when changing from a hardware sound source to a software sound source.
さらに本発明に係る楽曲再生装置、または、楽曲再生用プログラムによれば、演奏情報の種別に応じて、既存の演奏情報には第1演奏処理を使用し、ソフトウェア音源用に作成した演奏情報には第2演奏処理を使用することで、新旧、どちらの演奏情報に対しても、聴取時の違和感の抑制された演奏を楽しむことが可能となる。 Further, according to the music playback device or the music playback program according to the present invention, the first performance processing is used for the existing performance information according to the type of the performance information, and the performance information created for the software sound source is used. By using the second performance processing, it is possible to enjoy a performance in which a sense of incongruity at the time of listening is suppressed for both old and new performance information.
本実施形態の楽曲演奏装置について、カラオケ装置2を例にとって説明する。図1は、本発明の実施形態に係るカラオケシステムの構成を示す図である。本実施形態におけるカラオケシステムは、カラオケ装置2(コマンダ)と、リモコン装置1を含んで構成されている。なお、図1に示す例では、1台のカラオケ装置2に対して、リモコン装置1aとリモコン装置1b、2台のリモコン装置1が使用されている例である。これらリモコン装置1a、1bの構成は同一であるため、リモコン装置1として説明を行う。カラオケ装置2とリモコン装置1は、LAN100及びアクセスポイント110を利用してネットワークを形成するように接続されている。 The music performance device of the present embodiment will be described by taking the karaoke device 2 as an example. FIG. 1 is a diagram showing a configuration of a karaoke system according to an embodiment of the present invention. The karaoke system in this embodiment includes a karaoke device 2 (commander) and a remote control device 1. In the example shown in FIG. 1, the remote controller 1 a, the remote controller 1 b, and the two remote controllers 1 are used for one karaoke apparatus 2. Since these remote control devices 1a and 1b have the same configuration, the remote control device 1 will be described. The karaoke device 2 and the remote control device 1 are connected so as to form a network using the LAN 100 and the access point 110.
カラオケボックスなどの店舗に設置されるカラオケ装置2は、楽曲情報を再生することで歌唱の伴奏を行う装置である。カラオケ装置2は、各構成を統括して制御するためのCPU30、各種プログラムを実行するにあたって必要となる情報を一時記憶するためのメモリ27を備えている。本実施形態のカラオケ装置2は、ハードウェア音源ではなく、CPU30上で動作するソフトウェア音源を使用して楽曲の演奏を行う形態となっている。CPU30は、ハードディスク32等の記憶手段に記憶されている波形を読み出して、PCM情報を合成し、音響制御部25に出力する。音響制御部25では、合成されたPCM情報と、マイクロホン44a、44bから入力される歌唱音声情報とを加算してスピーカ42に出力する。 The karaoke device 2 installed in a store such as a karaoke box is a device that performs singing accompaniment by reproducing music information. The karaoke apparatus 2 includes a CPU 30 for controlling each component in an integrated manner, and a memory 27 for temporarily storing information necessary for executing various programs. The karaoke apparatus 2 according to the present embodiment is configured to perform music using not a hardware sound source but a software sound source that operates on the CPU 30. The CPU 30 reads the waveform stored in the storage means such as the hard disk 32, synthesizes the PCM information, and outputs it to the acoustic control unit 25. The acoustic control unit 25 adds the synthesized PCM information and the singing voice information input from the microphones 44 a and 44 b and outputs the sum to the speaker 42.
カラオケ装置2は、ユーザからの各種入力を受け付ける操作部21を備える。カラオケ装置2は、操作部21からの入力を解釈してCPU30に伝達する操作処理部22を備える。また、カラオケ装置2は、各種情報を記憶する記憶部としてのハードディスク32を備える。カラオケ装置2は、LAN100に接続してネットワークに加入する通信手段としてのLAN通信部24を備えている。 The karaoke apparatus 2 includes an operation unit 21 that receives various inputs from the user. The karaoke apparatus 2 includes an operation processing unit 22 that interprets an input from the operation unit 21 and transmits it to the CPU 30. The karaoke apparatus 2 includes a hard disk 32 as a storage unit that stores various types of information. The karaoke apparatus 2 includes a LAN communication unit 24 as a communication unit that connects to the LAN 100 and joins the network.
また、カラオケ装置2は、モニタ41に対して歌詞映像、背景映像を表示させる映像再生手段を備える。この映像再生手段は、映像情報に基づいて映像を再生する映像再生部29、再生する映像を一時的に蓄積するビデオRAM28、再生された映像に対する歌詞テロップの重畳、映像効果を付与する映像制御部31を備えて構成される。 Further, the karaoke apparatus 2 includes video reproduction means for displaying lyrics video and background video on the monitor 41. This video playback means includes a video playback unit 29 that plays back video based on video information, a video RAM 28 that temporarily stores the video to be played back, a superposition of lyrics telop on the played back video, and a video control unit that provides video effects 31 is comprised.
さらに、このカラオケ装置2では、外部に接続されるモニタ41以外に、タッチパネルモニタ33に対して各種情報を表示することを可能としている。タッチパネルモニタ33は映像制御部31から入力された映像情報を表示する表示部35と、タッチ入力された位置を操作処理部22に出力するタッチパネル34が重畳されて構成されている。このタッチパネルモニタ33は、カラオケ装置2の操作部、あるいは、リモコン装置1のタッチパネルモニタ11などと同様、入力部として機能する。ユーザは、タッチパネルモニタ33にて楽曲を選択することで、直接カラオケ装置2に予約をさせるなど、カラオケ装置2に対する各種操作を行うことが可能である。 Further, in this karaoke apparatus 2, various information can be displayed on the touch panel monitor 33 in addition to the monitor 41 connected to the outside. The touch panel monitor 33 is configured by superimposing a display unit 35 that displays video information input from the video control unit 31 and a touch panel 34 that outputs a touch input position to the operation processing unit 22. The touch panel monitor 33 functions as an input unit, like the operation unit of the karaoke device 2 or the touch panel monitor 11 of the remote control device 1. The user can perform various operations on the karaoke apparatus 2 such as making the karaoke apparatus 2 make a reservation directly by selecting music on the touch panel monitor 33.
このような構成にてカラオケ装置2は、各種処理を実行することとなるが、カラオケ装置2の主な機能として、楽曲予約処理、楽曲再生処理などを実行可能としている。楽曲予約処理は、ユーザからの指定に基づいて楽曲を指定、予約するための処理であってリモコン装置1と連携して実行される。ユーザの操作により、リモコン装置1などの入力部で指定された予約情報をメモリ27中の予約テーブルに登録する。楽曲再生処理は、予約された楽曲を再生させる処理であって、演奏処理と歌詞再生処理とが同期して実行される処理である。 With such a configuration, the karaoke apparatus 2 executes various processes, but as a main function of the karaoke apparatus 2, a music reservation process, a music reproduction process, and the like can be executed. The music reservation process is a process for designating and reserving music based on designation from the user, and is executed in cooperation with the remote control device 1. The reservation information designated by the input unit such as the remote control device 1 is registered in the reservation table in the memory 27 by a user operation. The music playback process is a process of playing a reserved music, and the performance process and the lyrics playback process are executed in synchronization.
演奏処理は、楽曲情報に含まれる演奏情報に基づいて演奏を行う処理である。本実施形態では、CPU30、メモリ27等の制御手段を使用して演奏を行うソフトウェア音源の形態を採用している。なお、ソフトウェア音源に対し、波形合成の専用チップを使用するような形態の音源は、ハードウェア音源と呼ばれる。ソフトウェア音源としての制御手段で合成されたPCM情報は、音響制御部25で合成され、マイクロホン44a、44bから入力される歌唱音声と一緒にスピーカ42から放音される。歌詞再生処理は、楽曲情報に含まれる歌詞情報をモニタ41に表示させることで歌唱補助を行う処理である。この歌詞再生処理で表示される歌詞に、背景映像を重畳させて表示させる背景映像表示処理を実行することとしてもよい。 The performance process is a process for performing a performance based on performance information included in the music information. In this embodiment, the form of a software sound source that performs using the control means such as the CPU 30 and the memory 27 is adopted. A sound source that uses a waveform synthesis dedicated chip for a software sound source is called a hardware sound source. The PCM information synthesized by the control means as a software sound source is synthesized by the acoustic control unit 25 and emitted from the speaker 42 together with the singing voice input from the microphones 44a and 44b. The lyric reproduction process is a process of performing singing assistance by displaying the lyric information included in the music information on the monitor 41. A background video display process for superimposing a background video on the lyrics displayed in the lyrics reproduction process may be executed.
一方、リモコン装置1は、歌唱する楽曲を選択する選曲処理を実行可能とし、予約情報などカラオケ装置2に対して各種指示を送信可能としている。また、リモコン装置1は、カラオケ装置2あるいはインターネット上に接続されたサーバ装置5から各種情報を受信し、ユーザに対して各種情報を提供することも可能である。本実施形態では、ユーザから各種指示を受け付けるユーザインターフェイスとして、操作部17と、タッチパネルモニタ11を備えている。タッチパネルモニタ11は、表示部11aとタッチパネル11bを有して構成され、表示部11aに各種インターフェイスを表示するとともに、ユーザからのタッチ入力を受付可能としている。 On the other hand, the remote control device 1 can execute a music selection process for selecting a song to be sung and can transmit various instructions to the karaoke device 2 such as reservation information. The remote control device 1 can also receive various information from the karaoke device 2 or the server device 5 connected to the Internet and provide the user with various information. In the present embodiment, an operation unit 17 and a touch panel monitor 11 are provided as user interfaces for receiving various instructions from the user. The touch panel monitor 11 includes a display unit 11a and a touch panel 11b, displays various interfaces on the display unit 11a, and can accept a touch input from a user.
さらにリモコン装置1は、楽曲検索に必要とされるデータベース、各種プログラム、並びに、プログラム実行に伴って発生する各種情報を記憶する記憶部として、メモリ14、そして、これら構成を統括して制御するためのリモコン側制御部を備えて構成される。リモコン側制御部には、CPU15、タッチパネルモニタ11に対して表示する映像を形成する映像制御部13、表示する映像情報を一時的に蓄えるビデオRAM12、タッチパネルモニタ11あるいは操作部17からの入力を解釈してCPU15に伝える操作処理部18が含まれている。 Furthermore, the remote control device 1 controls the memory 14 and the configuration as a storage unit for storing a database, various programs required for music search, and various types of information generated during program execution. Remote control side control unit. The remote control side control unit interprets inputs from the CPU 15, the video control unit 13 that forms video to be displayed on the touch panel monitor 11, the video RAM 12 that temporarily stores video information to be displayed, the touch panel monitor 11, or the operation unit 17. Thus, an operation processing unit 18 for transmitting to the CPU 15 is included.
また、リモコン装置1は、無線LAN通信部16によって、アクセスポイント110と無線接続されることで、LAN100によって構成されるネットワークに接続される。なお、各リモコン装置1は、特定のカラオケ装置2に対して事前に対応付けされている。リモコン装置1から出力される各種命令は、対応付けされたカラオケ装置2にて受信される。 Further, the remote control device 1 is connected to a network constituted by the LAN 100 by being wirelessly connected to the access point 110 by the wireless LAN communication unit 16. Each remote control device 1 is associated with a specific karaoke device 2 in advance. Various commands output from the remote control device 1 are received by the associated karaoke device 2.
このようなリモコン装置1の構成により、ユーザからの各種入力をタッチパネルモニタ11、あるいは、操作部17から受付けるとともに、映像情報をタッチパネルモニタ11に表示することで、カラオケ装置2に対して楽曲予約などの各種指示を行うことが可能とされている。 With such a configuration of the remote control device 1, various inputs from the user are received from the touch panel monitor 11 or the operation unit 17, and video information is displayed on the touch panel monitor 11, thereby making music reservations for the karaoke device 2. It is possible to give various instructions.
図2は、カラオケ装置2で使用する楽曲情報のデータ構成を示す図である。楽曲情報は、楽曲情報に関連する各種情報であるメタ情報と、演奏等、各種処理を実行する実情報を含んで構成される。メタ情報には、楽曲情報を識別するための楽曲識別情報(楽曲ID)、楽曲名、歌手名などの楽曲関連情報が含まれている。 FIG. 2 is a diagram illustrating a data configuration of music information used in the karaoke apparatus 2. The music information includes meta information, which is various information related to the music information, and actual information for executing various processes such as performance. The meta information includes music related information such as music identification information (music ID) for identifying music information, a music name, and a singer name.
メタ情報中、ソフトウェア音源での使用を前提として作成された楽曲情報には、ソフトウェア音源フラグが含まれている。本実施形態のカラオケ装置2では、ハードウェア音源での使用を前提として作成された楽曲情報と、ハードウェア音源での使用を前提として作成された楽曲情報が再生され、特に、演奏情報の演奏処理については、両種別の楽曲情報で異なる形態の演奏処理が行われる。このソフトウェア音源フラグは、両種別の楽曲情報を判別するために設けられた識別子である。 In the meta information, the music information created on the premise of using the software sound source includes a software sound source flag. In the karaoke apparatus 2 of the present embodiment, music information created on the premise of use with a hardware sound source and music information created on the premise of use with a hardware sound source are reproduced. In particular, performance processing of performance information is performed. Is performed in different forms for both types of music information. This software sound source flag is an identifier provided for discriminating both types of music information.
カラオケ装置2では、従来、ハードウェア音源が使用されており、既存のカラオケ装置2で再生可能な楽曲は数十万曲にも上る数である。今回、新たにカラオケ装置2にソフトウェア音源を採用することで、新たな楽曲情報の作成はソフトウェア音源での使用を前提として行われる。本実施形態では、ソフトウェア音源での使用を前提として新たに作成された楽曲情報に対し、ソフトウェア音源フラグを付すことで、ハードウェア音源での使用を前提として作成された既存の楽曲情報を変更することなく、判別することが可能となっている。なお、ソフトウェア音源での使用を前提として作成された楽曲情報と、ハードウェア音源での使用を前提として作成された楽曲情報との判別は、このようなソフトウェア音源フラグを使用する形態に代え、楽曲情報のデータベースを使用して判別することや、楽曲情報の作成日によって判別するなど、各種形態を採用することが可能である。 In the karaoke apparatus 2, a hardware sound source has been conventionally used, and there are hundreds of thousands of music pieces that can be reproduced by the existing karaoke apparatus 2. This time, by newly adopting a software sound source for the karaoke apparatus 2, the creation of new music information is performed on the premise that the software sound source is used. In the present embodiment, existing music information created on the assumption of use with a hardware sound source is changed by attaching a software sound source flag to music information newly created on the assumption of use with a software sound source. Without any problem. Note that music information created on the premise of use with a software sound source and music information created on the premise of use with a hardware sound source are distinguished from those using a software sound source flag. Various forms such as determination using an information database and determination based on the creation date of music information can be adopted.
楽曲情報の実情報には、演奏情報、歌詞情報が含まれている。演奏情報は、MIDI規格に基づいて音源を制御する制御情報を含んで構成された、カラオケの伴奏音を演奏するための情報である。歌詞情報は、歌唱補助のため、演奏情報に同期して表示される情報であり、演奏に同期して表示された歌詞の色替えを行うように構成することも可能である。 The actual information of the music information includes performance information and lyric information. The performance information is information for playing the accompaniment sound of karaoke configured to include control information for controlling the sound source based on the MIDI standard. The lyric information is information that is displayed in synchronization with the performance information in order to assist the singing, and can be configured to change the color of the displayed lyrics in synchronization with the performance.
図3は、MIDIコマンドを使用した演奏情報の演奏を説明するための図である。図3(A)は、演奏情報の構成形態を示した図である。演奏情報は、複数のMIDIコマンドの列で構成されている。MIDIコマンドを読み出すシーケンス処理は、図に示すように、上から下方向にMIDIコマンドを順次読み出して音源に引き渡す。各MIDIコマンドは、デルタタイムDTとイベントデータEVの組み合わせで構成されている。デルタタイムDTは、前に位置するMIDIコマンドとの時間間隔を規定する情報であって、音符長に対応する数値である。例えば、全音符の分解能を480とした場合、デルタタイムDT=120は、前のMIDIコマンドから四分音符の長さを空けて、イベントデータEVを実行することを意味する。また、デルタタイムDT=0は、前のMIDIコマンドと間隔を空けることなく(同時に)、イベントデータEVを実行することを意味する。 FIG. 3 is a diagram for explaining performance information performance using MIDI commands. FIG. 3A is a diagram showing a configuration form of performance information. The performance information is composed of a plurality of MIDI command strings. In the sequence process for reading out the MIDI command, as shown in the figure, the MIDI command is sequentially read from the top to the bottom and delivered to the sound source. Each MIDI command is composed of a combination of delta time DT and event data EV. The delta time DT is information that defines a time interval from a MIDI command positioned in front, and is a numerical value corresponding to the note length. For example, when the resolution of all notes is 480, the delta time DT = 120 means that the event data EV is executed after a quarter note length from the previous MIDI command. Also, the delta time DT = 0 means that the event data EV is executed without leaving (at the same time) as the previous MIDI command.
図3(B)は、図3(A)のMIDIコマンドに含まれるイベントデータEVの実行タイミングが示されている。演奏情報中に記述されるイベント1は、その前に記述されたMIDIコマンドから、デルタタイムDT=120の間隔を有する時間T1のタイミングで実行される。イベント1に続いて記述されたイベント2は、時間T1からデルタタイムDT=120の間隔を有する時間T2のタイミングで実行される。全部音符の分解能が480の場合、時間T1と時間T2の間隔は四分音符の時間長となる。イベント2に続いて記述されたイベント3は、時間T2からデルタタイムDT=0、すなわち、イベント2と同じ時間T2のタイミングで実行される。イベント3に続いて記述されたイベント4は、時間T2からデルタタイムDT=180の間隔を有する時間T3のタイミングで実行される。全部音符の分解能が480の場合、時間T1と時間T2の間隔は付点四分音符の時間長となる。 FIG. 3B shows the execution timing of the event data EV included in the MIDI command of FIG. Event 1 described in the performance information is executed at the timing of time T1 having an interval of delta time DT = 120 from the MIDI command described before. Event 2 described following event 1 is executed at the timing of time T2 having an interval of delta time DT = 120 from time T1. When the resolution of all notes is 480, the interval between time T1 and time T2 is the time length of a quarter note. Event 3 described following event 2 is executed from time T2 to delta time DT = 0, that is, at the same time T2 as event 2. Event 4 described following event 3 is executed at the timing of time T3 having an interval of delta time DT = 180 from time T2. When the resolution of all notes is 480, the interval between time T1 and time T2 is the time length of a dotted quarter note.
イベントデータEVは、音源を制御する各種命令を規定したデータである。このイベントデータEVには、発音開始を指示するノートオンデータ、発音終了を指示するノートオフデータ、音源に対し各種制御を指示するコントロールチェンジデータ、独自に定めた各種制御を指示するエクスクルーシブデータ等が含まれる。このように、イベントデータEVとその実行タイミングを規定したデルタタイムDTの組み合わせからなるMIDIコマンドを使用して、楽曲の演奏が実行される。 The event data EV is data defining various instructions for controlling the sound source. The event data EV includes note-on data for instructing the start of sound generation, note-off data for instructing the end of sound generation, control change data for instructing various controls on the sound source, exclusive data for instructing various kinds of control that are uniquely defined included. In this way, a musical piece is played using a MIDI command comprising a combination of event data EV and a delta time DT that defines the execution timing thereof.
図4は、本実施形態のハードウェア音源を使用した場合の波形生成を説明するための図である。ここでは、2つの音を同時に発音させる場合を例にとって説明する。図4(A)に示す様に、ノートオンAとノートオンBは、ノートオンBに対応して記述されているイベントデータEV=0により、2つの音を同時に発音させることが規定されている。ハードウェア音源では、情報を伝送する際、シリアル転送が用いられる。したがって、演奏情報の伝送は、演奏情報に記述された順序で行われることになり、図4(A)の場合、ノートオンA、ノートオンBの順で転送され、実際には、ノートオンBは、ノートオンAよりも遅れて実行されることになる。 FIG. 4 is a diagram for explaining waveform generation when the hardware sound source of the present embodiment is used. Here, a case where two sounds are pronounced simultaneously will be described as an example. As shown in FIG. 4 (A), note-on A and note-on B are defined to emit two sounds simultaneously by event data EV = 0 described corresponding to note-on B. . A hardware sound source uses serial transfer when transmitting information. Therefore, the performance information is transmitted in the order described in the performance information, and in the case of FIG. 4A, it is transferred in the order of note-on A and note-on B. Is executed later than Note On A.
図4(B−1)には、2つのイベントデータEVの実際の伝送の様子を模式的に示している。ノートオンAがハードウェア音源に伝送された後、ノートオンAのデータ量の伝送部に対応する遅延時間dtの後、ノートオンBがハードウェア音源に伝送されることになる。図4(B−2)には、ハードウェア音源において、2つのイベントデータの伝送に従って発生する音声波形について、上半分のエンベロープ(包絡線)を示したものである。理解を容易にするため、ノートオンAとノートオンBは同じ波形を発生するイベントデータEVとしている。ノートオンAとノートオンBの実行タイミングは、遅延時間dtを伴うため、ノートオンAによって発生する音声波形Wa(実線)とノートオンBによって発生する音声波形Wb(破線)の間にも遅延時間が発生することになる。図4(B−3)に示されるように、実際に聴取する合成波形は、音声波形Waと遅延時間dtを伴って発生した音声波形Wbの和となる。 FIG. 4B-1 schematically shows how the two event data EV are actually transmitted. After note-on A is transmitted to the hardware sound source, note-on B is transmitted to the hardware sound source after a delay time dt corresponding to the transmission unit of the data amount of note-on A. FIG. 4B-2 shows an upper half envelope (envelope) for a sound waveform generated in accordance with transmission of two event data in a hardware sound source. In order to facilitate understanding, note-on A and note-on B are event data EV that generates the same waveform. Since the execution timing of note-on A and note-on B is accompanied by a delay time dt, there is also a delay time between the voice waveform Wa (solid line) generated by note-on A and the voice waveform Wb (dashed line) generated by note-on B. Will occur. As shown in FIG. 4 (B-3), the synthesized waveform actually heard is the sum of the speech waveform Wa and the speech waveform Wb generated with the delay time dt.
次に、ソフトウェア音源を使用した場合の波形生成について説明を行う。図5は、本実施形態のソフトウェア音源を使用した場合の波形生成を説明するための図である。ソフトウェア音源では、情報の伝送にシリアル転送を使用していない。そのため、図4で説明したようなシリアル転送に伴う遅延時間が発生しない。ここでは、図4と同じデータ構成の2つのMIDIコマンドを、ソフトウェア音源を使用して発音させた場合について説明を行う。 Next, waveform generation when a software sound source is used will be described. FIG. 5 is a diagram for explaining waveform generation when the software sound source of the present embodiment is used. Software sound sources do not use serial transfer to transmit information. Therefore, there is no delay time associated with serial transfer as described in FIG. Here, a case where two MIDI commands having the same data structure as in FIG. 4 are pronounced using a software sound source will be described.
ソフトウェア音源では、シリアル転送を使用しないため、情報伝送に伴う遅延が発生しない。図4(A)と同じ図5(A)に示されるノートオンAとノートオンBを発音させる場合を考えてみる。これら2つのイベントデータEVは、図5(B−1)に示されているように、ソフトウェア音源では、時間Taにおいて同時に実行される。図5(B−2)には、図4(B−2)には、ハードウェア音源において、2つのイベントデータの伝送に従って発生する音声波形について、上半分のエンベロープ(包絡線)を示したものである。ノートオンAとノートオンBは同じ波形を発生するイベントデータEVを想定しているため、両波形は同一となる。分かりやすくするため図5(B−2)では、ノートオンAによって発生する音声波形Wa(実線)とノートオンBによって発生する音声波形Wb(破線)を僅かにずらして記載している。実際には、音声波形Waと音声波形Wbの間には、遅延は発生しない。 Since the software sound source does not use serial transfer, there is no delay associated with information transmission. Consider a case where note-on A and note-on B shown in FIG. 5A, the same as FIG. These two event data EV are simultaneously executed at the time Ta in the software sound source, as shown in FIG. FIG. 5 (B-2) shows an upper half envelope (envelope) of a sound waveform generated in accordance with transmission of two event data in a hardware sound source in FIG. 4 (B-2). It is. Since note-on A and note-on B assume event data EV that generates the same waveform, both waveforms are the same. For the sake of clarity, in FIG. 5 (B-2), the speech waveform Wa (solid line) generated by note-on A and the speech waveform Wb (broken line) generated by note-on B are shown slightly shifted. Actually, no delay occurs between the audio waveform Wa and the audio waveform Wb.
実際に聴取する合成波形は、図5(B−3)に示されるように、音声波形Waと音声波形Wbの和となる。ここでは、各音声波形の最大値をAとした場合、加算した音声波形の最大値は2Aとなることが想定できる。図5(B−3)には、図4(B−3)の振幅Bで示した音声波形のエンベロープ(破線)を同時に示している。ハードウェア音源を使用した場合の合成波形の振幅Bは、ソフトウェア音源を使用した場合の合成波形の振幅2Aよりも小さいことが分かる。これは、ハードウェア音源におけるシリアル転送に基づき発生する遅延時間によるものである。 As shown in FIG. 5B-3, the synthesized waveform that is actually heard is the sum of the speech waveform Wa and the speech waveform Wb. Here, when the maximum value of each speech waveform is A, it can be assumed that the maximum value of the added speech waveform is 2A. FIG. 5 (B-3) simultaneously shows the envelope (broken line) of the speech waveform indicated by the amplitude B in FIG. 4 (B-3). It can be seen that the amplitude B of the composite waveform when the hardware sound source is used is smaller than the amplitude 2A of the composite waveform when the software sound source is used. This is due to a delay time generated based on serial transfer in the hardware sound source.
カラオケ装置2では、従来、ハードウェア音源を使用して演奏情報の作成が行われていた。したがって、演奏情報に対するチューンアップは、実際に演奏されるカラオケ装置2、あるいは、それに搭載されたハードウェア音源で聴取することで行われている。したがって、従来のハードウェア音源を使用した環境化で作成された演奏情報は、いわば、ハードウェア音源に適化されたものであって、シリアル転送を使用しないソフトウェア音源での使用を想定していないものであった。今回、新たに、カラオケ装置2において、ソフトウェア音源を採用するにあたり、既存の演奏情報(ハードウェア音源の環境下で作成された演奏情報)を再生させた場合、シリアル転送を使用しないことを理由とした聴取上の違和感が発生することが分かった。例えば、図5(B−2)で説明した様に、ハードウェア音源の環境下では振幅Bの音量で再生されていたところ、ソフトウェア音源の環境下では、振幅2A(2A>B)の音量で再生されてしまうこと等である。 In the karaoke apparatus 2, performance information has been conventionally created using a hardware sound source. Therefore, the tune-up with respect to the performance information is performed by listening to the karaoke device 2 that is actually played, or the hardware sound source mounted thereon. Therefore, the performance information created by the environment using the conventional hardware sound source is, so to speak, optimized for the hardware sound source, and is not intended for use with a software sound source that does not use serial transfer. It was a thing. This time, when adopting a software sound source in the karaoke device 2 newly, if the existing performance information (performance information created in the environment of the hardware sound source) is played back, serial transfer is not used. It was found that a sense of incongruity in listening occurred. For example, as described with reference to FIG. 5B-2, playback is performed with a volume of amplitude B under the environment of a hardware sound source, but with a volume of amplitude 2A (2A> B) under the environment of a software sound source. It will be played back.
本実施形態では、このような事情を鑑みなされたものであって、ハードウェア音源の環境下で作成された演奏情報をソフトウェア音源で演奏させる場合の違和感を抑制することを目的とするものである。 The present embodiment has been made in view of such circumstances, and aims to suppress a sense of incongruity when playing performance information created in a hardware sound source environment with a software sound source. .
図6は、本実施形態の楽曲再生処理を示すフロー図である。図1のカラオケシステムにおいて、リモコン装置1から送信された予約情報は、カラオケ装置2のメモリ27で管理する予約テーブルに順次記憶される。カラオケ装置2は、予約テーブルのチェックを行い(S101)、次に再生すべき再生の楽曲があると判定された場合(S102:Yes)、予約情報中に規定された楽曲情報をハードディスク32から読み出す(S103)。そして、楽曲情報のメタ情報中にソフトウェア音源フラグが記述されているか否かを確認する(S104)。本実施形態では、既存の楽曲情報のように、ハードウェア音源の環境下で作成された演奏情報と、ソフトウェア音源の環境下で作成された演奏情報との間で異なる演奏処理を行うこととしている。このような形態により、ハードウェア音源の環境下、あるいは、ソフトウェア音源の環境下で作成された演奏情報のどちらについても違和感なく演奏を行うことを可能としている。 FIG. 6 is a flowchart showing the music reproduction process of the present embodiment. In the karaoke system of FIG. 1, reservation information transmitted from the remote control device 1 is sequentially stored in a reservation table managed by the memory 27 of the karaoke device 2. The karaoke apparatus 2 checks the reservation table (S101), and when it is determined that there is a music to be reproduced next (S102: Yes), the music information defined in the reservation information is read from the hard disk 32. (S103). Then, it is confirmed whether or not a software sound source flag is described in the meta information of the music information (S104). In the present embodiment, different performance processing is performed between performance information created under the environment of a hardware sound source and performance information created under the environment of a software sound source like existing music information. . With such a configuration, it is possible to perform performances without any discomfort in both performance information created in a hardware sound source environment or software sound source environment.
ソフトウェア音源フラグが無い楽曲情報は、第1演奏処理(S200)を使用して演奏情報の演奏が実行される。一方、ソフトウェア音源フラグが付された楽曲情報は、第2演奏処理(S200’)を使用して演奏情報の演奏が実行される。なお、このフロー図には記載していないが、カラオケ装置2では、楽曲情報に含まれる歌詞情報に基づいて歌詞再生処理も併せて実行される。 Music information without a software sound source flag is played using the first performance process (S200). On the other hand, the music information to which the software sound source flag is attached is played with the performance information using the second performance processing (S200 '). Although not shown in this flowchart, the karaoke apparatus 2 also executes lyrics reproduction processing based on the lyrics information included in the music information.
では、本実施形態のカラオケ装置2で使用するソフトウェア音源について、その構成、及び、演奏処理について説明する。図7は、本実施形態のソフトウェア音源構成を示すブロック図である。ソフトウェア音源は、図1で説明したカラオケ装置2中のCPU300、メモリ27等の制御手段、そして、ソフトウェア音源を実現するためのプログラムを使用して実現される。図7は、ソフトウェア音源の機能を、ブロック図で説明したものである。 Now, the configuration and performance processing of the software sound source used in the karaoke apparatus 2 of the present embodiment will be described. FIG. 7 is a block diagram showing a software sound source configuration of the present embodiment. The software sound source is realized by using a control unit such as the CPU 300 and the memory 27 in the karaoke apparatus 2 described with reference to FIG. 1 and a program for realizing the software sound source. FIG. 7 is a block diagram illustrating the function of the software sound source.
CPU300は、シーケンサ301、MIDIコマンド受信手段302、シンセサイザ304といった機能を受け持つ。シーケンサ301は、演奏情報を構成するMIDIコマンドをハードディスク32から読み出し、合成波形としてのPCM情報を音響制御部25に出力する機能を有する。MIDIコマンドに応じて生成されたPCM情報は、音響制御部25からスピーカ42へ出力することで演奏情報は演奏音となって楽曲情報が再生されることとなる。このシーケンサ301は、MIDIコマンドの入力を管理するMIDI管理手段301aと、PCM情報の出力を管理するPCM管理手段301b、PCM情報を蓄積するバッファ27cを有して構成される。なお、紙面の都合上、バッファ27cはCPU300内に位置しているが、メモリ27など、CPU300の外部に設けられた記憶手段を使用することが一般的である。バッファ27cは、蓄積しているPCM情報を、所定のサンプリングレートに従って、音響制御部25に出力する。PCM管理手段301bは、バッファ27c内のPCM情報の蓄積量を監視し、PCM情報が必要になった場合、シンセサイザ304にPCM生成指示を出力する(丸4)。 The CPU 300 has functions such as a sequencer 301, a MIDI command receiving unit 302, and a synthesizer 304. The sequencer 301 has a function of reading out MIDI commands constituting the performance information from the hard disk 32 and outputting PCM information as a synthesized waveform to the sound control unit 25. The PCM information generated in response to the MIDI command is output from the sound control unit 25 to the speaker 42, so that the performance information becomes a performance sound and the music information is reproduced. The sequencer 301 includes a MIDI management unit 301a that manages input of MIDI commands, a PCM management unit 301b that manages output of PCM information, and a buffer 27c that stores PCM information. Although the buffer 27c is located in the CPU 300 for the sake of space, it is general to use a storage means such as the memory 27 provided outside the CPU 300. The buffer 27c outputs the accumulated PCM information to the acoustic control unit 25 according to a predetermined sampling rate. The PCM management unit 301b monitors the amount of PCM information stored in the buffer 27c, and when PCM information is needed, outputs a PCM generation instruction to the synthesizer 304 (circle 4).
MIDIコマンド受信手段302は、シーケンサ301から送信(丸1)されたMIDIコマンドを受信し、受信したMIDIコマンドをメモリ27内の一部領域を使用して形成されたリングバッファ27aに格納する(丸2)。なお、MIDIコマンド受信手段302は、MIDIコマンドを受信した場合、確認の意を有する応答信号をMIDI管理手段301aに返信する(丸3)。シンセサイザ304(本発明に係る「演奏手段」に相当)は、リングバッファ27aに記憶されたMIDIコマンドに記述されたイベントデータEVをデルタタイムDTに基づいて取り出し(丸5)、キャッシュ27bに蓄積した音声波形を読み出してPCM情報を合成し(丸6)、PCM情報を出力する(丸8)機能を有する。また、シンセサイザ304は、DSP機能を有しており、音声波形に対して各種音響効果を付与する(丸7)ことが可能である。 The MIDI command receiving means 302 receives the MIDI command transmitted from the sequencer 301 (circle 1), and stores the received MIDI command in the ring buffer 27a formed using a partial area in the memory 27 (circle). 2). When the MIDI command receiving unit 302 receives the MIDI command, the MIDI command receiving unit 302 returns a response signal indicating confirmation to the MIDI managing unit 301a (circle 3). The synthesizer 304 (corresponding to the “performance means” according to the present invention) takes out the event data EV described in the MIDI command stored in the ring buffer 27a based on the delta time DT (circle 5) and stores it in the cache 27b. A voice waveform is read out, PCM information is synthesized (circle 6), and PCM information is output (circle 8). Further, the synthesizer 304 has a DSP function, and can impart various acoustic effects to the speech waveform (circle 7).
図8は、本実施形態の(第1、第2)演奏処理を示すフロー図である。図6の楽曲再生処理で説明したように、ハードウェア音源の環境下で作成された演奏情報は第1演奏処理(S200)を、ソフト音源の環境下で作成された演奏情報は第2演奏処理(S200’)を使用して楽曲の演奏が行われるが、両演奏処理(S200とS200’)は、遅延処理の有無において異なるため、ここでは1のフロー図を使用して説明する。 FIG. 8 is a flowchart showing the (first and second) performance processing of this embodiment. As described in the music reproduction process of FIG. 6, the performance information created in the hardware sound source environment is the first performance process (S200), and the performance information created in the software sound source environment is the second performance process. (S200 ′) is used to perform the music, but both performance processes (S200 and S200 ′) differ depending on whether or not there is a delay process, and will be described here using the flowchart of FIG.
演奏処理が開始されると、メモリ27上において、リングバッファ27a、キャッシュ27b、バッファ27cの確保、シンセサイザ304の初期値設定等、初期化処理が実行される(S201)。ソフトウェア音源中、MIDI管理手段301aは、楽曲の再生状況などに応じて、ハードディスク32からMIDIデータを読み出して、MIDIコマンド受信手段302へ出力する。MIDIコマンド受信手段302は、MIDIコマンドが入力される(S202:Yes)と、受信したMIDIデータをリングバッファ27aに書き込む(S203)。シンセサイザ304は、PCM管理手段301bからPCM生成指示を待つ(S204)。PCM生成指示は、バッファ27cの蓄積状況に応じてPCM管理手段301bから出力される指示である。このPCM生成指示には、必要なPCM情報の情報量を示す要求サンプル数が含まれている。PCM生成指示を受信した場合(S204:Yes)、シンセサイザ304は、受信した要求サンプル数分のPCM情報の生成が完了するまで、S206〜S209繰り返し、単位サンプル分(この例では、1ms時間分)分毎にPCM情報を生成する。 When the performance processing is started, initialization processing such as securing the ring buffer 27a, the cache 27b, and the buffer 27c and setting the initial value of the synthesizer 304 is executed on the memory 27 (S201). In the software sound source, the MIDI management means 301 a reads out MIDI data from the hard disk 32 and outputs it to the MIDI command receiving means 302 according to the reproduction status of the music. When the MIDI command is input (S202: Yes), the MIDI command receiving means 302 writes the received MIDI data into the ring buffer 27a (S203). The synthesizer 304 waits for a PCM generation instruction from the PCM management unit 301b (S204). The PCM generation instruction is an instruction output from the PCM management unit 301b in accordance with the accumulation status of the buffer 27c. This PCM generation instruction includes the number of requested samples indicating the amount of necessary PCM information. When the PCM generation instruction is received (S204: Yes), the synthesizer 304 repeats S206 to S209 until the generation of the PCM information for the received requested number of samples is completed, and the unit sample (in this example, 1 ms time) PCM information is generated every minute.
図9には、本実施形態の要求サンプルと単位サンプル(1ms時間)の関係を示した図である。要求サンプルは、バッファ27cの蓄積量等に基づいて可変する値である。図9の場合、要求サンプルは、15の単位サンプルを必要とした場合となっており、この要求サンプルを受信したシンセサイザ304は、S204〜S207を15回繰り返し実行して、15ms時間分のPCM情報を生成する。PCM情報の生成は、まず、今回生成する単位サンプル内に、反映させるイベントデータEVがあるか否かを確認する(S206)。これはMIDIコマンド中に規定されているデルタタイムDTに基づいて行われる。反映すべきイベントデータEVがある場合(S206:Yes)、当該イベントデータEVをリングバッファ27aから読み出して(S207)、当該イベントデータEVに基づく処理を実行する。例えば、イベントデータEVがノートオンの場合、キャッシュ27bに蓄積した音声波形を読み出して、合成波形の生成を開始する。なお、本実施形態では、リングバッファ27aに蓄積されたMIDIコマンドを先読みし、必要となる音声波形を予めハードディスク32からキャッシュ27bに読み出すこととしており、シンセサイザ304の波形合成において、迅速な音声波形の読み出しを可能としている。 FIG. 9 is a diagram showing the relationship between the requested sample and the unit sample (1 ms time) of the present embodiment. The request sample is a value that varies based on the accumulation amount of the buffer 27c and the like. In the case of FIG. 9, the requested sample is a case where 15 unit samples are required, and the synthesizer 304 that has received this requested sample repeatedly executes S204 to S207 15 times to obtain PCM information for 15 ms time. Is generated. In generating the PCM information, first, it is confirmed whether or not there is event data EV to be reflected in the unit sample generated this time (S206). This is done based on the delta time DT specified in the MIDI command. If there is event data EV to be reflected (S206: Yes), the event data EV is read from the ring buffer 27a (S207), and processing based on the event data EV is executed. For example, when the event data EV is note-on, the voice waveform accumulated in the cache 27b is read and generation of a synthesized waveform is started. In the present embodiment, the MIDI command stored in the ring buffer 27a is prefetched, and the necessary audio waveform is read from the hard disk 32 to the cache 27b in advance. In the waveform synthesis of the synthesizer 304, a quick audio waveform is generated. Reading is possible.
シンセサイザ304では、新たに読み出したイベントデータと先に読み出したイベントデータに基づいて、単位サンプル(1ms時間)分のPCM情報を生成する(S208)。そして、生成したPCM情報に各種音響効果を付与するDSP処理を施し、シーケンサ301内のバッファ27cに出力する。単位サンプル分毎に繰り返し、S206〜S209の処理を実行することで、要求サンプル数分のPCM情報の生成が完了する(S205:Yes)と、演奏終了の確認を行う(S210)。演奏終了で無い場合(S210:No)、MIDIコマンドの入力(S202)、もしくは、PCM生成指示の受信を待つ。一方、演奏が終了した場合(S210:Yes)、メモリ27上に確保したリングバッファ27a、キャッシュ27b、バッファ27c等、リソース開放を行う等の終了処理(S211)を実行し、一連の演奏処理を終了する。 The synthesizer 304 generates PCM information for a unit sample (1 ms time) based on the newly read event data and the previously read event data (S208). Then, the generated PCM information is subjected to DSP processing for imparting various sound effects, and is output to the buffer 27 c in the sequencer 301. When the generation of PCM information for the required number of samples is completed (S205: Yes) by repeating the processing of S206 to S209 for each unit sample, the end of performance is confirmed (S210). If it is not the end of the performance (S210: No), it waits for input of a MIDI command (S202) or reception of a PCM generation instruction. On the other hand, when the performance is finished (S210: Yes), a termination process (S211) such as releasing resources such as the ring buffer 27a, the cache 27b, and the buffer 27c secured in the memory 27 is executed, and a series of performance processes is performed. finish.
以上、本実施形態のソフトウェア音源では、シリアル転送を行うハードウェア音源と異なり、演奏情報中、同時に行うことが規定されたイベントデータEVは、遅延なく同時に実行することが可能である。そのため、音響的に優れた演奏を行うできる反面、図4、図5で説明した様に、ハードウェア音源での使用を前提として作成された演奏情報は、鳥瞰的な違和感を伴うことがある。そのため、本実施形態の第1演奏処理では、ハードウェア音源での使用を前提として作成された演奏情報の演奏において、遅延処理を施すことで、従来のハードウェア音源と同様の演奏を行い、演奏上の違和感の抑制を図ることとしている。 As described above, in the software sound source of the present embodiment, unlike the hardware sound source that performs serial transfer, the event data EV that is specified to be performed simultaneously in the performance information can be simultaneously executed without delay. Therefore, while performing an acoustically excellent performance, as described with reference to FIGS. 4 and 5, performance information created on the assumption of use with a hardware sound source may be accompanied by a bird's-eye view. Therefore, in the first performance process of the present embodiment, a performance process similar to that of a conventional hardware sound source is performed by performing a delay process in the performance information performance created on the assumption that the hardware sound source is used. We try to suppress the above feeling of strangeness.
図10は、本実施形態の第1演奏処理(遅延処理あり)を説明するための図である。この第1演奏処理は、ソフトウェア音源フラグが付されていない楽曲情報に含まれる演奏情報、すなわち、ハードウェア音源での使用を前提として作成された演奏情報に対して行われる処理であり、特に、演奏情報中、同時に実行することが規定されたイベントデータEVに対し、遅延処理を行うことを特徴としている。 FIG. 10 is a diagram for explaining the first performance processing (with delay processing) of the present embodiment. The first performance process is a process performed on performance information included in music information without a software sound source flag, that is, performance information created on the premise of use with a hardware sound source. In the performance information, a delay process is performed on the event data EV that is specified to be executed simultaneously.
図10(A)は、演奏情報中、同時に実行することが規定された3つのイベントデータEVを含む部分を記載したものである。イベントBに付されたデルタタイムDT、イベントCに付されたデルタタイムDTは、共に「0」であり、3つのイベントデータEVは、同時に実行されることが規定されている。 FIG. 10A shows a part including three event data EVs that are specified to be executed simultaneously in the performance information. The delta time DT attached to the event B and the delta time DT attached to the event C are both “0”, and it is defined that the three event data EV are executed simultaneously.
このような演奏情報をソフトウェア音源で演奏させた場合、各イベントデータEVは忠実に同タイミングで実行されることになる。本実施形態では、ハードウェア音源での実行を模擬するため遅延処理を施すこととしている。遅延処理は、同時に実行する複数のイベントデータEV中、先頭に記述されたイベントデータEV以外に対して行われる。図10の例では、イベントB、イベントCに対して遅延が施される。遅延量は、前に位置するイベントデータEVのデータ量に基づいて決定される。 When such performance information is played by a software sound source, each event data EV is faithfully executed at the same timing. In the present embodiment, a delay process is performed to simulate execution with a hardware sound source. The delay process is performed on the event data EV other than the event data EV described at the head of the plurality of event data EV executed simultaneously. In the example of FIG. 10, a delay is applied to event B and event C. The delay amount is determined based on the data amount of the event data EV located in front.
イベントAの実行タイミングが、時間T1の場合、イベントBの実行タイミングは、時間T1に遅延時間D1を付与した時間T2のタイミングで実行される。図7のブロック図では、このタイミングでリングバッファ27aから読み出されることになる。この遅延時間D1は、前に位置するイベントAのデータ量Laにシリアル転送速度Vtを乗算(D1=La*Vt)して算出される。同様に、イベントCの実行タイミングは、時間T2に遅延時間D2を付与した時間T3のタイミングで実行される。遅延時間D2は、前に位置するイベントBのデータ量Lbに、ハードウェア音源で使用するシリアル転送速度Vtを乗算(D2=Lb*Vt)して算出される。イベントCの実行タイミングである時間T3は、時間T1から遅延時間D3を付与したタイミングでもある。この遅延時間D3は、前に位置するイベントAとイベントBのデータ量(La+Lb)にシリアル転送速度Vtを乗算(D3=(La+Lb)*Vt)して算出される。なお、遅延時間D1〜D3の値は、このように、前に位置するイベントデータEVのデータ量のみならず、他の要素を含んで算出されることとしてもよい。このように本実施形態では、ハードウェア音源での使用を前提として作成された演奏情報をソフトウェア音源で演奏する際、遅延処理を伴う演奏処理(第1演奏処理)を行うことで、ハードウェア音源での演奏を模擬し、聴取上の違和感を抑制することが可能となる。 When the execution timing of event A is time T1, the execution timing of event B is executed at the timing of time T2, which is obtained by adding delay time D1 to time T1. In the block diagram of FIG. 7, data is read from the ring buffer 27a at this timing. The delay time D1 is calculated by multiplying the data amount La of the event A located in front by the serial transfer speed Vt (D1 = La * Vt). Similarly, the execution timing of event C is executed at the timing of time T3 obtained by adding delay time D2 to time T2. The delay time D2 is calculated by multiplying the data amount Lb of the previous event B by the serial transfer rate Vt used by the hardware sound source (D2 = Lb * Vt). The time T3 that is the execution timing of the event C is also the timing that the delay time D3 is given from the time T1. This delay time D3 is calculated by multiplying the data amount (La + Lb) of event A and event B positioned in front by the serial transfer rate Vt (D3 = (La + Lb) * Vt). Note that the values of the delay times D1 to D3 may be calculated including not only the data amount of the event data EV positioned in the above but also other elements. As described above, in the present embodiment, when performance information created on the premise of use with a hardware sound source is played with a software sound source, a performance process with a delay process (first performance process) is performed, thereby performing a hardware sound source. This makes it possible to simulate the performance of the music and to suppress the sense of discomfort in listening.
図11には、本実施形態の第2演奏処理(遅延処理なし)を説明するための図が示されている。一方、新たに形成した楽曲情報など、ソフトウェア音源での使用を前提として作成された演奏情報は、遅延処理を伴わない第2演奏処理を使用した演奏が行われる。この第2演奏処理では、MIDIコマンドに規定されているタイミングでイベントデータEVが実行される。図11(A)は、図10(A)と同様、演奏情報中、同時に実行することが規定された3つのイベントデータEVを含む部分を記載したものである。第2演奏処理では、ソフトウェア音源での使用を前提として形成された演奏情報を対象とするため、図10のような遅延時間は設けない。すなわち、同時に実行することが規定されたMIDIコマンドは、図11(B)に示す様に、時間T1で同時に実行されることになる。ソフトウェア音源での使用を前提として形成された演奏情報は、ソフトウェア音源での聴取テストなどが行われ、ソフトウェア音源上での演奏が最適化されているため、図4、図5で説明した様な問題も発生しない。また、シリアル転送を必要としないため、コマンド実行のレスポンスが高く、良好な演奏を行うことも可能である。 FIG. 11 is a diagram for explaining the second performance process (no delay process) of the present embodiment. On the other hand, performance information created on the premise of use with a software sound source, such as newly formed music information, is played using the second performance processing without delay processing. In the second performance process, the event data EV is executed at the timing specified in the MIDI command. FIG. 11 (A) shows a part including three event data EV that are specified to be executed simultaneously in the performance information, as in FIG. 10 (A). In the second performance process, performance information formed on the premise of use with a software sound source is targeted, and therefore there is no delay time as shown in FIG. That is, the MIDI commands specified to be executed simultaneously are executed simultaneously at time T1, as shown in FIG. The performance information formed on the premise of using the software sound source is subjected to a listening test on the software sound source, and the performance on the software sound source is optimized. There is no problem. In addition, since serial transfer is not required, the command execution response is high, and it is possible to perform a good performance.
以上、カラオケ装置2を例に取って、本実施形態の楽曲演奏装置を説明したが、楽曲演奏装置では、同時に実行することが規定されたコマンド(MIDIコマンド)について、少なくとも1つのコマンドに遅延を施すことで、ハードウェア音源の様な他の形態で作成された演奏情報であっても違和感を抑えた演奏を行うことが可能である。なお、明細書中では、同時に実行することが規定されたコマンド(MIDIコマンド)をコマンド群として特定し、遅延処理の対象としているが、コマンド群の特定は、このような形態以外に、実行間隔が短い複数のコマンドをコマンド群の対象として規定するなど各種形態を採用することが可能である。また、本実施形態の楽曲演奏装置は、カラオケ装置2のみならず、電子楽器など他の装置に適用することが可能である。あるいは、パソコン、スマートホンなどの携帯端末、ゲーム機などの各種コンピュータで実行可能な楽曲演奏用プログラムとして提供することも可能である。 As described above, the karaoke apparatus 2 is taken as an example, and the music performance apparatus of the present embodiment has been described. However, in the music performance apparatus, a command (MIDI command) that is specified to be executed simultaneously is delayed for at least one command. As a result, it is possible to perform a performance with a sense of incongruity suppressed even with performance information created in another form such as a hardware sound source. In the specification, commands that are specified to be executed simultaneously (MIDI commands) are specified as a command group and are subject to delay processing. It is possible to adopt various forms such as defining a plurality of short commands as targets of the command group. Further, the music performance device of the present embodiment can be applied not only to the karaoke device 2 but also to other devices such as an electronic musical instrument. Alternatively, it can also be provided as a music performance program that can be executed on various computers such as personal computers and mobile terminals such as smart phones and game machines.
1(1a、1b):リモコン装置 27c:バッファ
2:カラオケ装置 28:ビデオRAM
5:サーバ装置 29:映像再生部
11:タッチパネルモニタ 30:CPU
11a:表示部 31:映像制御部
11b:タッチパネル 32:ハードディスク
12:ビデオRAM 33:タッチパネルモニタ
13:映像制御部 34:タッチパネル
14:メモリ 35:表示部
15:CPU 41:モニタ
16:無線LAN通信部 42:スピーカ
17:操作部 44a、44b:マイクロホン
18:操作処理部 110:アクセスポイント
21:操作部 300:CPU
22:操作処理部 301:シーケンサ
24:LAN通信部 301a:MIDI管理手段
25:音響制御部 301b:PCM管理手段
27:メモリ 302:MIDIコマンド受信手段
27a:リングバッファ 304:シンセサイザ
27b:キャッシュ
1 (1a, 1b): remote control device 27c: buffer 2: karaoke device 28: video RAM
5: Server device 29: Video playback unit 11: Touch panel monitor 30: CPU
11a: Display unit 31: Video control unit 11b: Touch panel 32: Hard disk 12: Video RAM 33: Touch panel monitor 13: Video control unit 34: Touch panel 14: Memory 35: Display unit 15: CPU 41: Monitor 16: Wireless LAN communication unit 42: Speaker 17: Operation unit 44a, 44b: Microphone 18: Operation processing unit 110: Access point 21: Operation unit 300: CPU
22: Operation processing unit 301: Sequencer 24: LAN communication unit 301a: MIDI management unit 25: Acoustic control unit 301b: PCM management unit 27: Memory 302: MIDI command reception unit 27a: Ring buffer 304: Synthesizer 27b: Cache
Claims (5)
前記コマンドに規定されている送信タイミングに基づいて、ソフトウェア音源で構成された演奏手段に前記コマンドを送信する送信処理と、
前記演奏情報中、前記送信タイミングが同時または略同時である関係を有する複数の前記コマンドからなるコマンド群を検出し、検出した前記コマンド群の内、先頭に位置する前記コマンド以外の少なくとも1つの前記コマンドについて、当該コマンドに規定されている前記送信タイミングに遅延量を付与したタイミングで、前記演奏手段に送信する遅延処理と、を実行することを特徴とする
楽曲演奏装置。 A music performance device that performs based on performance information composed of a plurality of commands,
A transmission processing based on transmission timing is specified in the command, transmits the command to play means constituted by software tone generator,
In the performance information, a command group consisting of a plurality of the commands having the relationship that the transmission timing is simultaneous or substantially simultaneous is detected, and at least one of the detected command groups other than the command located at the head is detected. A music performance device that performs a delay process for transmitting a command to the performance means at a timing at which a delay amount is added to the transmission timing defined in the command.
請求項1に記載の楽曲演奏装置。 The music performance device according to claim 1, wherein the command is formed in accordance with a MIDI standard.
請求項1または請求項2に記載の楽曲演奏装置。 The music performance device according to claim 1, wherein the delay amount given in the transmission process is determined based on a data amount of the command positioned first in the command group.
前記演奏情報の種別に従い、前記第1演奏処理もしくは前記第2演奏処理を実行することを特徴とする
請求項1から請求項3の何れか1項に記載の楽曲演奏装置。 The first performance process that executes the delay process and the second performance process that does not execute the delay process can be executed.
The music performance device according to any one of claims 1 to 3 , wherein the first performance process or the second performance process is executed in accordance with a type of the performance information.
前記コマンドに規定されている送信タイミングに基づいて、ソフトウェア音源で構成された演奏手段に前記コマンドを送信する送信処理と、
前記演奏情報中、前記送信タイミングが同時または略同時である関係を有する複数の前記コマンドからなるコマンド群を検出し、前記検出したコマンド群の内、先頭に位置する前記コマンド以外の少なくとも1つの前記コマンドについて、当該コマンドに規定されている前記送信タイミングに遅延量を付与したタイミングで、前記演奏手段に送信する遅延処理と、をコンピュータに実行させることを特徴とする
楽曲演奏用プログラム。 A music performance program for performing based on performance information composed of a plurality of commands,
A transmission processing based on transmission timing is specified in the command, transmits the command to play means constituted by software tone generator,
Said playing information, the transmission timing detects a command group composed of a plurality of said commands having a relationship is simultaneous or substantially simultaneous, the of the detected commands, wherein other than the command at least one of which is located at the head A program for performing music, which causes a computer to execute a delay process for transmitting a command to the performance means at a timing when a delay amount is added to the transmission timing defined in the command.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015039242A JP6464824B2 (en) | 2015-02-27 | 2015-02-27 | Music performance device and music performance program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015039242A JP6464824B2 (en) | 2015-02-27 | 2015-02-27 | Music performance device and music performance program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016161706A JP2016161706A (en) | 2016-09-05 |
JP6464824B2 true JP6464824B2 (en) | 2019-02-06 |
Family
ID=56844970
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015039242A Active JP6464824B2 (en) | 2015-02-27 | 2015-02-27 | Music performance device and music performance program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6464824B2 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2862062B2 (en) * | 1993-12-28 | 1999-02-24 | ヤマハ株式会社 | Karaoke equipment |
JPH08241081A (en) * | 1995-03-03 | 1996-09-17 | Hitachi Ltd | Synchronous control method for plural sound sources |
JP3713836B2 (en) * | 1996-10-08 | 2005-11-09 | ヤマハ株式会社 | Music performance device |
JP2001282241A (en) * | 2000-03-31 | 2001-10-12 | Kawai Musical Instr Mfg Co Ltd | Electronic musical tone generator, electronic musical tone generating method and recording medium |
JP4206613B2 (en) * | 2000-06-13 | 2009-01-14 | ヤマハ株式会社 | Music data transmitter |
JP4207226B2 (en) * | 2005-02-16 | 2009-01-14 | 誠 南川 | Musical sound control device, musical sound control method, and computer program for musical sound control |
-
2015
- 2015-02-27 JP JP2015039242A patent/JP6464824B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016161706A (en) | 2016-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3072452B2 (en) | Karaoke equipment | |
JP2016503197A (en) | Synthesizer using bidirectional transmission | |
US8887051B2 (en) | Positioning a virtual sound capturing device in a three dimensional interface | |
EP3550555B1 (en) | Electronic musical instrument, method, and storage medium | |
JP6457326B2 (en) | Karaoke system that supports transmission delay of singing voice | |
JP5086445B2 (en) | System and method for providing multi-region equipment support in an audio player | |
JP2019066648A (en) | Method for assisting in editing singing voice and device for assisting in editing singing voice | |
JP2001331175A (en) | Device and method for generating submelody and storage medium | |
JP5130348B2 (en) | Karaoke collaboration using portable electronic devices | |
JP3829780B2 (en) | Performance method determining device and program | |
JP6568351B2 (en) | Karaoke system, program and karaoke audio playback method | |
JP6464824B2 (en) | Music performance device and music performance program | |
JP6657866B2 (en) | Sound effect imparting device and sound effect imparting program | |
JP6316099B2 (en) | Karaoke equipment | |
JP6634857B2 (en) | Music performance apparatus, music performance program, and music performance method | |
JP6558077B2 (en) | Music performance device and music performance program | |
JP6610211B2 (en) | Music performance device and music performance program | |
JP5510207B2 (en) | Music editing apparatus and program | |
JP6372407B2 (en) | Music performance device and music performance program | |
JP6558123B2 (en) | Karaoke device and karaoke program | |
JP2005215709A (en) | Musical sound generating device | |
JP6264660B2 (en) | Sound source control device, karaoke device, sound source control program | |
JP5800155B2 (en) | Karaoke equipment | |
JP6606839B2 (en) | Waveform writing apparatus, method, program, and electronic musical instrument | |
JP4124227B2 (en) | Sound generator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170908 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180611 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180703 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180822 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181211 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181224 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6464824 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |