JP2010054856A - Electronic musical instrument - Google Patents

Electronic musical instrument Download PDF

Info

Publication number
JP2010054856A
JP2010054856A JP2008220354A JP2008220354A JP2010054856A JP 2010054856 A JP2010054856 A JP 2010054856A JP 2008220354 A JP2008220354 A JP 2008220354A JP 2008220354 A JP2008220354 A JP 2008220354A JP 2010054856 A JP2010054856 A JP 2010054856A
Authority
JP
Japan
Prior art keywords
signal
performance
mixing
sound
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008220354A
Other languages
Japanese (ja)
Inventor
Atsushi Fukada
敦史 深田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2008220354A priority Critical patent/JP2010054856A/en
Publication of JP2010054856A publication Critical patent/JP2010054856A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily create music content in which high-quality musical instrument performance sound is recorded and which sufficiently presents the atmosphere and the realistic sensation upon the musical instrument performance. <P>SOLUTION: A mixing signal generated by a mixing process of mixing a music signal generated in response to a performance operation to an operator and an externally generated sound signal is recorded as music content. When performing the mixing process of the music signal and the sound signal, the rise of the music signal at a sound source following the performance operation start of the operator and/or the fall of the music signal at the sound source following the performance operation end of the operator are detected. While the sound signal fades out or fades in on the basis of the detection of the rise and/or the fall of the music signal, the mixing with the music signal is performed. Accordingly, the high-quality musical instrument performance sound (music signal) is recorded, and the music content capable of sufficiently presenting the atmosphere and the realistic sensation upon the performance is easily created by a performer who only performs the music. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、演奏者が行った楽器演奏を記録した音楽コンテンツを生成することが可能な電子楽器に関する。特に、楽器演奏音が高音質に録音されておりかつ楽器演奏時の周りの雰囲気・臨場感をも充分に伝えうる音楽コンテンツを生成する技術に関する。   The present invention relates to an electronic musical instrument capable of generating music content in which musical instrument performances performed by a performer are recorded. In particular, the present invention relates to a technique for generating music content in which musical instrument performance sounds are recorded with high sound quality and can sufficiently convey the surrounding atmosphere and presence when playing musical instruments.

最近では、インターネット等の通信ネットワークの普及に伴い、ユーザが動画などの音楽コンテンツを生成し、該生成した音楽コンテンツを通信ネットワークを介して接続されたサーバに対して投稿(アップロード)することで、同じようにして他のユーザから投稿された多数の音楽コンテンツを多くのユーザで共有して楽しむことができる、所謂音楽コンテンツ共有サービスが提供されている。こうした技術に関連するものとしては、例えば下記に示す特許文献1に記載されている発明がその一例である。
特開2005-346492号公報
Recently, with the spread of communication networks such as the Internet, users generate music content such as videos, and post (upload) the generated music content to a server connected via the communication network. In the same manner, a so-called music content sharing service is provided in which a large number of music contents posted by other users can be shared and enjoyed by many users. For example, the invention described in Patent Document 1 shown below is an example of the technology related to such technology.
JP 2005-346492 A

従来技術において、ユーザにより生成され投稿されうる音楽コンテンツには、ユーザ自身が楽器(自然楽器や電子楽器)を操作して演奏している演奏風景を録画した動画(映像信号だけでなく、当然にマイクロフォンから入力される音響信号を含む)や、演奏操作に応じて楽器から発せられた楽音のみを録音したものなどがある。こうした録画や録音等は、一般的には楽器とは別に用意されたビデオカメラ(撮像装置、マイクロフォンなどの音響入力装置を含んでいてよい)やオーディオレコーダー(音響入力装置)などの外部機器を利用して行われている。なお、本明細書において、外部機器を利用して入力される本装置外部で発生した楽音を音響信号と呼ぶ。また、楽音という場合、音楽的な音に限るものではなく、音声あるいはその他任意の音を含んでいてもよい意味あいで用いるものとする。   In the prior art, music content that can be generated and posted by a user includes a moving image (not only a video signal but also a video of a performance scene that is played by a user operating a musical instrument (natural musical instrument or electronic musical instrument). Including a sound signal input from a microphone) and a recording of only a musical sound emitted from a musical instrument in response to a performance operation. For such recording and recording, external devices such as a video camera (which may include an imaging device, a microphone, etc.) and an audio recorder (acoustic input device) that are generally prepared separately from the musical instrument are used. Has been done. In this specification, a musical sound generated outside the apparatus that is input using an external device is referred to as an acoustic signal. In addition, the term “musical sound” is not limited to musical sound, but is used in the sense that it may include voice or other arbitrary sounds.

ところで、上記外部機器を利用して録画した映像に含まれる音響信号や録音された音響信号には、演奏者が演奏操作している楽器から発せられた楽音(演奏音)のみならず、演奏者自身が発したあるいは演奏者の周りで発せられた上記演奏音以外の音(便宜的に周囲の音と呼ぶ)も録音される。しかし、楽音鑑賞の観点からすると、演奏操作とは関係なく発せられる周囲の音は通常雑音としてユーザに捉えられやすいことに鑑み、従来の音楽コンテンツは純粋に演奏操作に基づき楽器から発せられる「楽音(演奏音)」を鑑賞するには適していない。そこで、楽器演奏時において周囲の音が録音されることを避けるために、演奏者による演奏操作に基づき生成された楽音(波形)信号そのものを直接記録することが考えられるが、そうすると演奏開始前や演奏終了後に発生された楽器演奏時の雰囲気・臨場感(所謂ライブ感)を伝えうる周囲の音が全く録音されないことになる。例えば、演奏開始前に演奏者が「次はこの曲(曲名)いくぜ。よろしく。」などといったようにして演奏曲の説明などを即興で入れたとしても、またその場で一緒に演奏を楽しんでいた観客が歓声をあげたり拍手などをしたとしても、それら周囲の音が全く録音されず、従ってその音楽コンテンツが本当に演奏者がその場で演奏したものを記録(録画ないし録音)したものであるのかが当該音楽コンテンツを楽しむユーザに伝わりにくい。このように、従来の音楽コンテンツは「楽音(演奏音)」を鑑賞するには適しておらず、また演奏時の雰囲気・臨場感を醸し出すに乏しい音楽コンテンツでもある、という問題点があった。   By the way, the sound signal included in the video recorded using the external device and the recorded sound signal include not only the musical sound (performance sound) emitted from the musical instrument operated by the performer but also the performer. Sounds other than the performance sound that is emitted by the player or around the performer (referred to as ambient sounds for convenience) are also recorded. However, from the viewpoint of listening to music, in view of the fact that ambient sounds that are irrelevant to the performance operation are usually easily perceived by the user as noise, conventional music content is “musical sound that is uttered from an instrument purely based on the performance operation. (Performance sound) "is not suitable for appreciation. Therefore, in order to avoid recording surrounding sounds when playing a musical instrument, it is conceivable to directly record the musical sound (waveform) signal itself generated based on the performance operation by the performer. Surrounding sounds that can convey the atmosphere and realism (so-called live feeling) at the time of musical instrument performance generated after the performance is completed are not recorded at all. For example, even if the performer puts in an improvisational explanation of the performance song, such as “Next song will go next. Even if the audience was cheering or applauding, the surrounding sounds were not recorded at all, so the music content was recorded (recorded or recorded) what the performer really played on the spot. It is difficult for a user who enjoys the music content to know whether there is any. As described above, the conventional music contents are not suitable for appreciating “musical sounds (performance sounds)”, and also have a problem that they are also music contents that are poor in creating an atmosphere and a sense of presence during performance.

本発明は上述の点に鑑みてなされたもので、電子楽器の演奏を録音したり演奏風景を録画したりする際に、演奏中に発生される演奏音を高音質で録音することと、演奏前後における周囲の音を録音することとを両立させて、「楽音(演奏音)」を鑑賞するに適しかつ演奏時の雰囲気・臨場感を充分に醸し出す音楽コンテンツをユーザが簡単に制作することができる電子楽器を提供することを目的とする。   The present invention has been made in view of the above points. When recording a performance of an electronic musical instrument or recording a performance scene, the performance sound generated during the performance is recorded with high sound quality. Users can easily create music content that is suitable for appreciating "musical sound (performance sound)" and creating an atmosphere and realistic sensation during performance, in combination with recording surrounding sounds before and after. An object is to provide an electronic musical instrument.

本発明に係る電子楽器は、操作子と、記憶手段と、前記操作子の演奏操作に応じて、楽音信号を生成する音源と、外部で発生した音響信号を入力する入力手段と、前記音源で生成された楽音信号と、前記入力手段から入力された音響信号とをミキシング処理してミキシング信号を生成するミキシング手段と、前記生成したミキシング信号を音楽コンテンツとして前記記憶手段に記録する記録手段と、前記操作子の演奏操作開始に伴う前記音源での楽音信号の立ち上がり及び/又は前記操作子の演奏操作終了に伴う前記音源での楽音信号の立下りを検出する検出手段と、前記楽音信号の立ち上がり及び/又は立下りの検出に基づき、前記音響信号をフェードアウト及び/又はフェードインさせながら前記楽音信号とミキシング処理を行うよう前記ミキシング手段を制御する制御手段とを具えてなり、前記ミキシング信号は、演奏操作開始前及び演奏操作終了後については前記音響信号のみからなり、演奏操作開始から演奏操作終了までにおいては前記楽音信号のみからなる音楽コンテンツとして記録されることを特徴とする。   An electronic musical instrument according to the present invention includes an operation element, a storage unit, a sound source that generates a musical sound signal according to a performance operation of the operation element, an input unit that inputs an externally generated acoustic signal, and the sound source. Mixing means for mixing the generated musical sound signal and the acoustic signal input from the input means to generate a mixing signal; recording means for recording the generated mixing signal as music content in the storage means; Detecting means for detecting a rising edge of a musical tone signal at the sound source accompanying the start of a performance operation of the operating element and / or a falling edge of a musical tone signal at the sound source accompanying the end of a performance operation of the operator; and a rising edge of the musical tone signal; And / or on the basis of the detection of the fall, the sound signal is faded out and / or faded in before being mixed with the musical sound signal. Control means for controlling the mixing means, and the mixing signal consists of only the acoustic signal before the start of the performance operation and after the end of the performance operation, and only the musical sound signal from the start of the performance operation to the end of the performance operation. It is recorded as music content consisting of.

この発明によると、操作子の演奏操作に応じて生成された楽音信号と、外部で発生した音響信号とをミキシング処理して生成したミキシング信号を音楽コンテンツとして記録する。前記楽音信号と前記音響信号とをミキシング処理する際に、前記操作子の演奏操作開始に伴う前記音源での楽音信号の立ち上がり及び/又は前記操作子の演奏操作終了に伴う前記音源での楽音信号の立下りを検出し、該楽音信号の立ち上がり及び/又は立下りの検出に基づき前記音響信号をフェードアウト及び/又はフェードインさせながら前記楽音信号とミキシング処理するように制御を行う。これにより、演奏操作開始前及び演奏操作終了後については前記音響信号のみからなり、演奏操作開始から演奏操作終了までにおいては前記楽音信号のみからなる音楽コンテンツが記憶手段に記録される。このようにすると、楽器演奏音(楽音信号)が高音質に録音されておりかつ演奏時の雰囲気・臨場感を充分に伝えうる音楽コンテンツを、演奏者は特に意識せずとも単に操作子を操作して演奏を行うだけで簡単に作成することができるようになる。   According to the present invention, the mixing signal generated by mixing the musical tone signal generated according to the performance operation of the operator and the externally generated acoustic signal is recorded as music content. When mixing the musical sound signal and the acoustic signal, the musical sound signal at the sound source accompanying the rise of the musical sound signal at the sound source accompanying the start of the performance operation of the operator and / or the completion of the performance operation of the operator. And a control is performed to mix the sound signal with the sound signal while fading out and / or fading in the sound signal based on detection of the rising edge and / or falling edge of the music signal. As a result, before the start of the performance operation and after the end of the performance operation, only the sound signal is included, and from the start of the performance operation to the end of the performance operation, music content including only the musical sound signal is recorded in the storage means. In this way, the music player's performance sound (musical sound signal) is recorded with high sound quality and music content that can fully convey the atmosphere and realism of the performance is simply operated by the player without being particularly conscious. Then you can easily create it just by playing.

この発明によれば、外部で発生した周囲の音(音響信号)を入力する一方で、操作子の演奏操作に応じて生成された楽器演奏音(楽音信号)を外部に発する前の段階で音源から直接入力し、楽音信号の立ち上がり(演奏開始)/立下り(演奏終了)の検出にあわせて音響信号に対してフェードアウト/フェードイン制御を施しながら楽音信号とミキシング処理を行い、生成されたミキシング信号を音楽コンテンツとして記録する。これにより、演奏者は楽器演奏音が高音質に録音されておりかつ演奏時の雰囲気・臨場感を充分に伝えうる音楽コンテンツを生成することが簡単にできるようになる、という効果を得る。   According to the present invention, an external sound (acoustic signal) generated externally is input, while a musical instrument performance sound (musical sound signal) generated in response to the performance operation of the controller is input to the sound source before The generated sound signal is mixed with the sound signal while performing the fade-out / fade-in control on the sound signal in accordance with the detection of the rising edge (performance start) / falling edge (end of performance). Record the signal as music content. As a result, it is possible for the performer to easily generate music content in which the musical instrument performance sound is recorded with high sound quality and can sufficiently convey the atmosphere and the realism during performance.

以下、この発明の実施の形態を添付図面に従って詳細に説明する。   Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

図1は、この発明に係る電子楽器の全体構成の一実施例を示したハード構成ブロック図である。本実施例に示す電子楽器は、マイクロプロセッサユニット(CPU)1、リードオンリメモリ(ROM)2、ランダムアクセスメモリ(RAM)3からなるマイクロコンピュータによって制御される。CPU1は、この電子楽器全体の動作を制御する。このCPU1に対して、通信バス1D(例えばデータ及びアドレスバス)を介してROM2、RAM3、記憶装置4、検出回路5,6、表示回路7、音源・効果回路8、通信インタフェース(I/F)9がそれぞれ接続されている。ROM2は、CPU1により実行あるいは参照される各種制御プログラムや各種データ等を格納する。RAM3は、CPU1が所定のプログラムを実行する際に発生する各種データなどを一時的に記憶するワーキングメモリとして、あるいは現在実行中のプログラムやそれに関連するデータを一時的に記憶するメモリ等として使用される。RAM3の所定のアドレス領域がそれぞれの機能に割り当てられ、レジスタやフラグ、テーブル、メモリなどとして利用される。   FIG. 1 is a hardware configuration block diagram showing an embodiment of the overall configuration of an electronic musical instrument according to the present invention. The electronic musical instrument shown in this embodiment is controlled by a microcomputer including a microprocessor unit (CPU) 1, a read only memory (ROM) 2, and a random access memory (RAM) 3. The CPU 1 controls the operation of the entire electronic musical instrument. For this CPU 1, ROM 2, RAM 3, storage device 4, detection circuits 5 and 6, display circuit 7, sound source / effect circuit 8, communication interface (I / F) via communication bus 1D (for example, data and address bus) 9 are connected to each other. The ROM 2 stores various control programs executed by or referred to by the CPU 1, various data, and the like. The RAM 3 is used as a working memory for temporarily storing various data generated when the CPU 1 executes a predetermined program, or as a memory for temporarily storing a currently executing program and related data. The A predetermined address area of the RAM 3 is assigned to each function and used as a register, flag, table, memory, or the like.

記憶装置4は、各種データやCPU1が実行する各種制御プログラム等を記憶する。上述したROM2に制御プログラムが記憶されていない場合、この記憶装置4(例えばハードディスク)に制御プログラムを記憶させておき、それをRAM3に読み込むことにより、ROM2に制御プログラムを記憶している場合と同様の動作をCPU1にさせることができる。このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。なお、記憶装置4はハードディスク(HD)に限られず、フレキシブルディスク(FD)、コンパクトディスク(CD‐ROM・CD‐RAM)、光磁気ディスク(MO)、DVD(Digital Versatile Disk)、あるいはフラッシュメモリなどの半導体メモリ等の様々な形態の記憶媒体を利用する記憶装置であればどのようなものであってもよい。記憶媒体は電子楽器に対して着脱自在としてもよいし、電子楽器に内蔵されていてもよい。   The storage device 4 stores various data and various control programs executed by the CPU 1. When the control program is not stored in the ROM 2 described above, the control program is stored in the storage device 4 (for example, a hard disk), and is read into the RAM 3 so that the control program is stored in the ROM 2. The CPU 1 can be operated as described above. In this way, control programs can be easily added and upgraded. The storage device 4 is not limited to a hard disk (HD), but a flexible disk (FD), a compact disk (CD-ROM / CD-RAM), a magneto-optical disk (MO), a DVD (Digital Versatile Disk), or a flash memory. Any storage device may be used as long as the storage device uses various types of storage media such as semiconductor memory. The storage medium may be detachable from the electronic musical instrument or may be built in the electronic musical instrument.

演奏操作子5Aは、楽音の音高を選択するための複数の鍵を備えた例えば鍵盤等のようなものであり、各鍵に対応してキースイッチを有しており、この演奏操作子5A(鍵盤等)はユーザ自身の手弾きによるマニュアル演奏に使用することができるのは勿論のこと、音色や効果等を設定する手段などとして使用することもできる。検出回路5は、演奏操作子5Aの各鍵の押圧及び離鍵を検出することによって検出出力を生じる。   The performance operator 5A is, for example, a keyboard provided with a plurality of keys for selecting the pitch of a musical tone, and has a key switch corresponding to each key. (Keyboard etc.) can be used not only for manual playing by the user's own playing but also as a means for setting tone color, effect and the like. The detection circuit 5 generates a detection output by detecting the pressing and release of each key of the performance operator 5A.

設定操作子(スイッチ等)6Aは、例えば演奏の際に使用する音色・効果あるいは音量やテンポ等などの各種演奏パラメータを設定する設定スイッチ、自動演奏データに基づく自動演奏の開始/終了を指示する自動演奏スイッチ、ユーザ演奏の録画(録音)の開始/終了を指示する記録スイッチ等、各種の操作子を含んで構成される。勿論、設定操作子6Aは上記した以外にも音高、音色、効果等を選択・設定・制御するために数値データ入力用のテンキーや文字データ入力用のキーボード、あるいはディスプレイ7A上の画面位置を指定するポインタを操作するマウスなどの各種操作子を含んでいてもよい。検出回路6は、上記設定操作子6Aの操作状態を検出し、その操作状態に応じたスイッチ情報等をデータ及びアドレスバス1Dを介してCPU1に出力する。   A setting operator (switch or the like) 6A instructs setting / setting of various performance parameters such as tone color / effect or volume and tempo used during performance, and the start / end of automatic performance based on automatic performance data. Various operation elements such as an automatic performance switch and a recording switch for instructing start / end of recording (recording) of a user performance are included. Of course, in addition to the above, the setting operator 6A is used to select, set, and control pitches, tones, effects, etc. The numeric keypad for inputting numeric data, the keyboard for inputting character data, or the screen position on the display 7A. Various operators such as a mouse for operating a designated pointer may be included. The detection circuit 6 detects the operation state of the setting operation element 6A, and outputs switch information and the like corresponding to the operation state to the CPU 1 via the data and address bus 1D.

表示回路7は例えば液晶表示パネル(LCD)やCRT等から構成されるディスプレイ7Aに、上記スイッチ操作に応じた各種画面を表示するのは勿論のこと、ROM2や記憶装置4に記憶されている各種データあるいはCPU1の制御状態などを表示することもできる。演奏者はディスプレイ7Aに表示されるこれらの各種情報を参照することで、演奏の際に使用する各種演奏パラメータの設定や自動演奏曲の選択などを容易に行うことができる。   The display circuit 7 displays various screens corresponding to the above switch operations on a display 7A composed of, for example, a liquid crystal display panel (LCD), a CRT, or the like, as well as various types stored in the ROM 2 or the storage device 4. Data or the control state of the CPU 1 can also be displayed. The performer can easily set various performance parameters to be used at the time of performance, select an automatic performance piece, and the like by referring to the various information displayed on the display 7A.

音源・効果回路8は複数のチャンネルで楽音信号の同時発生が可能であり、通信バス1Dを経由して与えられた演奏情報を入力し、この演奏情報に基づいて楽音を合成して楽音信号を発生する。また、発生した楽音信号に対して効果を付与することもできる。音源・効果回路8から発生される楽音信号は、アンプやスピーカなどを含むサウンドシステム8Aから発音されるし、またマイクロフォンなどを介せずにRAM3や記憶装置4などに記録することができる。この音源・効果回路8とサウンドシステム8Aの構成には、従来のいかなる構成を用いてもよい。例えば、音源・効果回路8はFM、PCM、物理モデル、フォルマント合成等の各種楽音合成方式のいずれを採用してもよく、また専用のハードウェアで構成してもよいし、CPU1によるソフトウェア処理で構成してもよい。   The tone generator / effect circuit 8 can simultaneously generate musical sound signals on a plurality of channels, inputs performance information given via the communication bus 1D, synthesizes musical sounds based on the performance information, and generates musical sound signals. appear. An effect can also be given to the generated musical sound signal. A musical tone signal generated from the sound source / effect circuit 8 is generated from a sound system 8A including an amplifier and a speaker, and can be recorded in the RAM 3 or the storage device 4 without using a microphone. Any conventional configuration may be used for the configuration of the sound source / effect circuit 8 and the sound system 8A. For example, the tone generator / effect circuit 8 may employ any of various tone synthesis methods such as FM, PCM, physical model, formant synthesis, etc., or may be configured with dedicated hardware, or by software processing by the CPU 1. It may be configured.

通信インタフェース(I/F)9は、外部機器と当該電子楽器との間でMIDI形式の演奏データを送受信するMIDI入出力インタフェース、MIDI以外のデータや制御プログラムなどの各種情報を送受信するデータ入出力インタフェースとしての機能を備えた、例えばRS-232C、USB(ユニバーサル・シリアル・バス)、IEEE1394(アイトリプルイー1394)、ブルートゥース(商標)、赤外線送受信器等のインタフェースである。また、LAN(Local Area Network)やインターネット、電話回線等の有線あるいは無線の通信ネットワークを介して、電子楽器とネットワーク上の外部機器(例えば、サーバ装置)とを接続することができ、電子楽器とサーバ装置との間で各種データや各種情報などを送受信することができるネットワークインタフェースである。こうした通信インタフェース9は、有線あるいは無線のものいずれかでなく双方を具えていてよい。   The communication interface (I / F) 9 is a MIDI input / output interface for transmitting / receiving MIDI performance data between an external device and the electronic musical instrument, and a data input / output for transmitting / receiving various information such as non-MIDI data and control programs. For example, RS-232C, USB (Universal Serial Bus), IEEE1394 (Eye Triple E 1394), Bluetooth (trademark), an infrared transmitter / receiver and the like having an interface function. In addition, an electronic musical instrument and an external device (for example, a server device) on the network can be connected via a wired or wireless communication network such as a LAN (Local Area Network), the Internet, or a telephone line. This is a network interface capable of transmitting and receiving various data and various information to and from the server device. Such a communication interface 9 may be both wired and wireless and may include both.

前記通信インタフェース(I/F)9は例えばUSBホスト端子であって、該USBホスト端子にはUSBビデオクラスに対応したWebカメラ,デジタルビデオカメラ,デジタルスチルカメラ等のMotion-JPEG、DV、MPEG-2、MPEG-4などの圧縮データや非圧縮データからなる動画/静止画を送信可能な撮像装置9Aが接続される。この場合、電子楽器にはUSBビデオクラスドライバが組み込まれていることは言うまでもない。また、前記通信インタフェース(I/F)9は例えばオーディオインタフェースであって、該オーディオインタフェースには例えばマイクロフォンやオーディオレコーダー等のアナログの音響信号を送信可能な音響入力装置9Bが接続される。なお、相互に接続されうる電子楽器、撮像装置、音響入力装置は全てのデータ形式に対応するものに限らず、少なくとも1つのデータ形式に対応するものであればよい。また、USBビデオクラスに限らず専用のドライバを使って通信を行ってもよく、その場合のデータ形式は上記した形式に限らない。さらに、撮像装置や音響入力装置は予め電子楽器に内蔵されていてもよい。   The communication interface (I / F) 9 is, for example, a USB host terminal. The USB host terminal includes Motion-JPEG, DV, MPEG-, such as a Web camera, a digital video camera, and a digital still camera compatible with the USB video class. 2. Connected is an imaging device 9A capable of transmitting moving / still images made up of compressed data such as MPEG-4 and uncompressed data. In this case, it goes without saying that the USB video class driver is built in the electronic musical instrument. The communication interface (I / F) 9 is an audio interface, for example, and an audio input device 9B capable of transmitting an analog audio signal such as a microphone or an audio recorder is connected to the audio interface. In addition, the electronic musical instrument, the imaging device, and the sound input device that can be connected to each other are not limited to those corresponding to all data formats, and may be any ones corresponding to at least one data format. In addition, communication may be performed using a dedicated driver in addition to the USB video class, and the data format in that case is not limited to the above format. Furthermore, the imaging device and the sound input device may be built in the electronic musical instrument in advance.

なお、演奏操作子5Aは鍵盤楽器の形態に限らず、弦楽器や管楽器、あるいは打楽器等どのようなタイプの形態でもよい。また、演奏操作子5Aやディスプレイ7Aあるいは音源・効果回路8などを1つの装置本体に内蔵したものに限らず、それぞれが別々に構成され、通信インタフェースや各種ネットワーク等の通信手段を用いて各装置を接続するように構成されたものであってもよいことは言うまでもない。   The performance operator 5A is not limited to a keyboard instrument, but may be any type of instrument such as a stringed instrument, a wind instrument, or a percussion instrument. Further, the performance operator 5A, the display 7A, the sound source / effect circuit 8 and the like are not limited to those built in one apparatus body, and each apparatus is configured separately, and each apparatus is configured using communication means such as a communication interface or various networks. Needless to say, it may be configured to connect the two.

次に、図1に示した電子楽器において演奏者が行った操作及びその操作に応じて発生された楽音さらにはその際に演奏者の周りで発生した周囲の音を記録(録画及び録音)して音楽コンテンツを生成する機能の概要について、図2を用いて説明する。図2は、図1に示した電子楽器における音楽コンテンツ生成機能の概略を示す機能ブロック図である。   Next, the operation performed by the performer in the electronic musical instrument shown in FIG. 1 and the musical sound generated in response to the operation and the surrounding sound generated around the performer at that time are recorded (recording and recording). An overview of the function of generating music content will be described with reference to FIG. FIG. 2 is a functional block diagram showing an outline of a music content generation function in the electronic musical instrument shown in FIG.

自動演奏データ記憶部Iは、自動演奏データを記憶する。記憶する自動演奏データは、1曲全体の楽曲を表す楽曲データ(ソングデータ)や、伴奏スタイルデータ、コード進行データなどであって、ユーザが演奏操作子5Aを操作して楽曲をマニュアル演奏する際のバック演奏(自動伴奏など)をこの自動演奏データに担わせるようにしている。すなわち、自動演奏部Jはユーザによる自動演奏スイッチの操作に応じて、ROM2や記憶装置4に予め記憶済みの自動演奏データを時間経過にしたがって順次に読み出し、該読み出した自動演奏データを楽音生成部Kへ供給する。楽音生成部Kは自動演奏部Jから自動演奏データが供給された場合、該自動演奏データに基づいてユーザ自身が設定した演奏環境(音色、音量、効果など)に従って楽音信号を生成する。一方、演奏操作子5Aはユーザによる演奏操作(例えば押鍵/離鍵操作)に応じた操作情報を生成し、該生成した操作情報を楽音生成部Kへ供給する。楽音生成部Kは演奏操作子5Aから操作情報が供給された場合、該操作情報に基づいて前記演奏環境に従って楽音信号を生成する。楽音生成部Kは自動演奏データ又は操作情報に基づき生成した楽音信号を、ミキシング部H及び立ち上がり/立下り検出部Lに順次に供給する。   The automatic performance data storage unit I stores automatic performance data. The automatic performance data to be stored is music data (song data) representing the music of the entire music, accompaniment style data, chord progression data, etc., when the user manually plays the music by operating the performance operator 5A. This automatic performance data is used to play back performance (such as automatic accompaniment). That is, the automatic performance unit J sequentially reads the automatic performance data stored in advance in the ROM 2 and the storage device 4 over time in accordance with the operation of the automatic performance switch by the user, and the read automatic performance data is read as a musical sound generation unit. Supply to K. When automatic performance data is supplied from the automatic performance unit J, the musical sound generation unit K generates a musical sound signal according to the performance environment (tone color, volume, effect, etc.) set by the user based on the automatic performance data. On the other hand, the performance operator 5A generates operation information corresponding to a performance operation (for example, key pressing / key release operation) by the user, and supplies the generated operation information to the tone generation unit K. When the operation information is supplied from the performance operator 5A, the music generation unit K generates a music signal according to the performance environment based on the operation information. The musical tone generation unit K sequentially supplies the musical tone signal generated based on the automatic performance data or the operation information to the mixing unit H and the rising / falling detection unit L.

なお、従来知られているように、自動演奏データが伴奏スタイルデータなどのパターンデータの再生順を規定するパターンシーケンスデータである場合には、自動演奏部Jに対し別途コード(和音)データが演奏操作子5Aないし自動演奏データ記憶部Iに記憶されたコード進行データに従い供給され、これに従い音高変換処理がなされて楽音が生成される。また、自動演奏データがコード進行データである場合には、自動演奏部Jに対し読み出されたコードデータが前述の伴奏スタイルデータの音高変換用に供給される。
なお、上記自動演奏データ記憶部Iと自動演奏部Jは必要に応じて設けてあればよく、本発明に係る電子楽器において必須ではない(バック演奏が必要なければ設けていなくてよい)。
As is known in the art, when the automatic performance data is pattern sequence data that defines the playback order of pattern data such as accompaniment style data, chord data is separately performed for the automatic performance section J. It is supplied in accordance with the chord progression data stored in the operator 5A or the automatic performance data storage unit I, and tone conversion processing is performed in accordance with this chord progression data to generate a musical tone. When the automatic performance data is chord progression data, the chord data read out to the automatic performance section J is supplied for pitch conversion of the accompaniment style data.
The automatic performance data storage unit I and the automatic performance unit J may be provided as necessary, and are not essential in the electronic musical instrument according to the present invention (there is no need to be provided if the back performance is not required).

撮像部A(USBカメラ等)は、本電子楽器を演奏する演奏者の演奏操作(演奏操作子の操作だけでなく、自動演奏の開始/終了操作などの他の操作を含んでいてよい)を撮影する。撮像部Aで撮影された演奏操作の動画像(映像信号)は、映像記録部Bへと送られる。録画(録音)指示部Mは、ユーザによる記録スイッチの操作に応じて映像記録部B及びオーディオ記録部Dに対して映像信号及び音響信号の記録開始/終了を指示する。映像記録部Bは録画(録音)指示部Mから記録開始の指示をうけると録画を開始し、ここでは撮像部Aから送られた動画像(映像信号)を時間経過にしたがって録画(記録)する。なお、映像記録部Bで動画像を記録する際の録画フォーマットは任意である(前述の撮像部Aから送られてくる映像信号形式と同じでもよいし、他の映像信号形式に変換してもよい)。一方、音響入力部Fは典型的にはマイクロフォンであり、演奏者が本電子楽器を演奏する際(特に、演奏開始前と演奏終了後)に適宜に発生された周囲の音を入力してアナログの音響信号に変換する。このアナログ音響信号はA/D変換部Gでデジタル信号に変換された後に、ミキシング部Hへ供給される。   The image pickup unit A (USB camera or the like) performs performance operations (not only operation of performance operators but also other operations such as automatic performance start / end operations) performed by a player who plays the electronic musical instrument. Take a picture. The performance operation moving image (video signal) shot by the imaging unit A is sent to the video recording unit B. The recording (recording) instruction unit M instructs the video recording unit B and the audio recording unit D to start / end recording of the video signal and the audio signal according to the operation of the recording switch by the user. When the video recording unit B receives a recording start instruction from the recording (recording) instruction unit M, the video recording unit B starts recording. Here, the video image (video signal) sent from the imaging unit A is recorded (recorded) over time. . Note that the recording format for recording a moving image in the video recording unit B is arbitrary (the same as the video signal format sent from the imaging unit A described above, or may be converted to another video signal format). Good). On the other hand, the sound input unit F is typically a microphone, and inputs a surrounding sound appropriately generated when the performer plays the electronic musical instrument (especially before the performance starts and after the performance ends). Convert to sound signal. The analog acoustic signal is converted into a digital signal by the A / D conversion unit G and then supplied to the mixing unit H.

立ち上がり/立下り検出部Lは、楽音生成部Kで生成された楽音信号の立ち上がり及び立下りを検出する。ただし、本明細書において、楽音信号の立ち上がり/立下りとは、1音又は複数の連続音におけるそれぞれの音又は一連の連続音のアタック(立ち上がり部)/リリース(立下り部)を表すのではなく、演奏開始に基づく楽音信号の最初の発生箇所(立ち上がり)と演奏終了に基づく楽音信号の最後の終了箇所(立下り)を表す。ミキシング部Hは、音響入力部Fから供給されたアナログ音響信号と、楽音生成部Kで生成された楽音信号とをミキシングする。その際に、前記立ち上がり/立下り検出部Lにおける楽音信号の立ち上がり/立下りの検出タイミングに基づき、前記アナログ音響信号に対してフェードアウト/フェードイン制御を開始する(詳しくは後述する図3又は図5参照)。なお、このフェードアウト/フェードイン制御に要する時間は固定時間でもよいし、ユーザが任意の時間を設定できるようにしてあってもよい。また、その時間はノイズが生じない程度の短時間(例えば1秒未満)でもよいし、もっと長時間(例えば5秒程度)でもよい。   The rising / falling detection unit L detects the rising and falling of the tone signal generated by the tone generation unit K. However, in this specification, the rising / falling of the musical sound signal does not represent an attack (rising part) / release (falling part) of each sound or a series of continuous sounds in one or a plurality of continuous sounds. Rather, it represents the first occurrence point (rising edge) of the tone signal based on the start of the performance and the last end point (falling edge) of the tone signal based on the end of the performance. The mixing unit H mixes the analog sound signal supplied from the sound input unit F and the tone signal generated by the tone generation unit K. At that time, fade-out / fade-in control is started for the analog sound signal based on the detection timing of the rising / falling of the tone signal in the rising / falling detection unit L (see FIG. 3 or FIG. 5). Note that the time required for the fade-out / fade-in control may be a fixed time, or the user may set an arbitrary time. The time may be a short time (for example, less than 1 second) that does not cause noise, or may be a longer time (for example, about 5 seconds).

オーディオ記録部Dは録画(録音)指示部Mから記録開始の指示をうけると、ミキシング部Hによるミキシング処理によって生成されたミキシング信号を時間経過にしたがって録音(記録)する。ただし、オーディオ記録部Dが記録するミキシング信号の録音態様としては、遅延指示部Nによる時間遅延がミキシング部Hで行われることなく生成されたミキシング信号を録音する場合(後述する図3及び図4参照)と、遅延指示部Nによる時間遅延がミキシング部Hで行われて生成されたミキシング信号を録音する場合(後述する図5及び図6参照)との2通りの実施形態がある。前記遅延指示部Nは、音響信号と楽音信号とを所定時間だけ遅延してから前記各信号のミキシング処理を行うようミキシング部Hに対して指示する。上記実施形態についての詳細な説明は後述する。なお、オーディオ記録部Dで楽音信号を録音する際の録音フォーマットは任意である(例えば非圧縮オーディオ、圧縮オーディオ等)。   When the audio recording unit D receives a recording start instruction from the recording (recording) instruction unit M, the audio recording unit D records (records) the mixing signal generated by the mixing processing by the mixing unit H over time. However, as a recording mode of the mixing signal recorded by the audio recording unit D, the mixing signal generated without the time delay by the delay instruction unit N being recorded in the mixing unit H is recorded (FIGS. 3 and 4 to be described later). (See FIG. 5 and FIG. 6 to be described later) and recording the mixing signal generated by the time delay by the delay instruction unit N performed by the mixing unit H. The delay instruction unit N instructs the mixing unit H to perform mixing processing of each signal after delaying the sound signal and the musical sound signal by a predetermined time. A detailed description of the above embodiment will be given later. Note that the recording format for recording a musical tone signal in the audio recording unit D is arbitrary (for example, uncompressed audio, compressed audio, etc.).

ファイル作成部Eは、前記映像記録部Bで録画された動画像(映像信号)と、前記オーディオ記録部Dで録音されたミキシング信号(音響信号と楽音信号とをミキシング処理したもの)とを含んでなるマルチメディアファイル(音楽コンテンツ)を作成する。作成されたマルチメディアファイルは、ファイル記憶部Cに記憶される。ファイル記憶部Cに記憶されたマルチメディアファイルは、通信インタフェース9経由や着脱可能な記憶媒体経由で本電子楽器外部の他の装置に供給可能であり、ユーザが例えば動画投稿サイトのサーバやブログサイトのサーバなどにアップロードすることができる。   The file creation unit E includes a moving image (video signal) recorded by the video recording unit B and a mixing signal (a mixture of an acoustic signal and a musical tone signal) recorded by the audio recording unit D. Create a multimedia file (music content) consisting of The created multimedia file is stored in the file storage unit C. The multimedia file stored in the file storage unit C can be supplied to other devices outside the electronic musical instrument via the communication interface 9 or a removable storage medium. Can be uploaded to other servers.

上記したように、本実施例に示す電子楽器においては、オーディオ記録部Dが録音するミキシング信号の録音態様の一例として、遅延指示部Nによる時間遅延が行われることなく生成されたミキシング信号を録音する第1の実施形態と、遅延指示部Nによる時間遅延が行われて生成されたミキシング信号を録音する第2の実施形態とがある。そこで、まず、第1の実施形態について、図3及び図4を用いて説明する。   As described above, in the electronic musical instrument shown in the present embodiment, as an example of the recording mode of the mixing signal recorded by the audio recording unit D, the mixing signal generated without time delay by the delay instruction unit N is recorded. There are a first embodiment and a second embodiment for recording a mixing signal generated by performing a time delay by the delay instruction unit N. Therefore, first, the first embodiment will be described with reference to FIGS. 3 and 4.

図3は、上記した第1の実施形態を説明するための概念図である。ここでは説明を理解しやすくするために、映像記録部Bで録画する映像信号を上段に示し、オーディオ記録部Dで録音するミキシング信号をミキシング前の音響信号と楽音信号とに分け、それぞれ中段と下段とに示した。すなわち、図3は、ファイル作成部Eによって録音・録画開始から録音・録画終了までの時間経過に応じて作成されるマルチメディアファイルの内容に相当する。なお、図中において斜線部を施した箇所は動画像、周囲の音、演奏音が実際に録音されている箇所を便宜的に表す。   FIG. 3 is a conceptual diagram for explaining the first embodiment described above. Here, in order to make the explanation easy to understand, the video signal to be recorded by the video recording unit B is shown in the upper stage, and the mixing signal to be recorded by the audio recording unit D is divided into an acoustic signal and a musical sound signal before mixing, Shown in the bottom row. That is, FIG. 3 corresponds to the contents of the multimedia file created by the file creation unit E over time from recording / recording start to recording / recording end. In the drawing, the hatched portions indicate the locations where moving images, ambient sounds, and performance sounds are actually recorded for convenience.

演奏者が録音・録画の開始を指示すると、撮像部Aから供給される映像信号の録画が開始されるとともに、音響入力部F(マイクロフォン)で入力された音響信号と楽音生成部Kで発生された楽音信号とをミキシングしたミキシング信号の録音が開始される。ただし、ミキシング信号の録音を開始したとしても、録音・録画を開始してから演奏開始時点までは、電子楽器での演奏が開始されていないことから無音を表す楽音信号が録音される。一方、音響信号は電子楽器での演奏が開始されていなくとも録音される。すなわち、録音・録画を開始してから演奏開始時点までは、周囲の音(音響信号)のみがミキシング信号に反映される。   When the performer instructs to start recording / recording, recording of the video signal supplied from the image pickup unit A is started, and the sound signal generated by the sound input unit F (microphone) and the musical sound generation unit K are generated. Recording of the mixing signal obtained by mixing the musical sound signal is started. However, even if the recording of the mixing signal is started, a musical tone signal representing silence is recorded since the performance with the electronic musical instrument has not started from the start of the recording / recording until the start of the performance. On the other hand, the acoustic signal is recorded even if the performance with the electronic musical instrument is not started. That is, only the surrounding sound (acoustic signal) is reflected in the mixing signal from the start of recording / recording to the start of performance.

電子楽器での演奏が開始されると、無音を表す楽音信号でなく演奏操作に応じて発生される楽音信号が録音されるようになる。この演奏操作に応じて発生される楽音信号の録音は、電子楽器での演奏が終了されるまで続く。一方、電子楽器での演奏が開始されても音響信号は関係なしに続けて録音されるが、楽音信号の立ち上がりの検知に応じて音響信号に対してフェードアウト制御が開始される。したがって、フェードアウトに要する時間が経過した以降に音響入力部F(マイクロフォン)から入力された音響信号についてはミキシング信号に反映されない。このように、演奏開始時点からフェードアウトに要する時間が経過するまでの間は、演奏操作に応じて発生される演奏音(楽音信号)と周囲の音(音響信号)の両方がミキシング信号に反映される(ただし、時間経過に応じて周囲の音はだんだんと反映されなくなる)。それ以降は、演奏音(楽音信号)のみがミキシング信号に反映される。   When a performance with an electronic musical instrument is started, a musical sound signal generated in response to a performance operation is recorded instead of a musical sound signal representing silence. Recording of the musical tone signal generated in response to the performance operation continues until the performance with the electronic musical instrument is completed. On the other hand, even if the performance with the electronic musical instrument is started, the sound signal is continuously recorded regardless of the relationship, but fade-out control is started for the sound signal in response to the detection of the rising edge of the tone signal. Therefore, an acoustic signal input from the acoustic input unit F (microphone) after the time required for fading out has not been reflected in the mixing signal. In this way, both the performance sound (musical sound signal) generated in response to the performance operation and the surrounding sound (acoustic signal) are reflected in the mixing signal from the start of the performance until the time required for fade-out elapses. (However, as the time goes by, ambient sounds will gradually disappear.) Thereafter, only the performance sound (musical sound signal) is reflected in the mixing signal.

電子楽器での演奏が終了されると、演奏操作に応じて発生される楽音信号でなく無音を表す楽音信号が録音・録画終了まで録音される。一方、楽音信号の立下りの検知に応じて音響信号に対してフェードイン制御が開始されることから、楽音信号の立下りを検知した以降は周囲の音(音響信号)のみがミキシング信号に反映される。さらに、演奏者が録音・録画の終了を指示すると、映像信号の録画及び音響信号と楽音信号をミキシングしたミキシング信号の録音を終了する。以上のようにして、録音・録画を開始してから終了するまでの間において、動画像(映像信号)については続けて録画を行うことで常に反映させるようにする一方で、ミキシング信号の元となる音響信号と楽音信号については、演奏開始/終了タイミングにあわせて音響信号に対してフェードアウト/フェードイン制御を行うことによって、演奏開始までと演奏終了後は周囲の音(音響信号)のみを、演奏開始から演奏終了までのフェードアウトに要する時間を除くほとんどの間は演奏音(楽音信号)のみを反映させるようにしている。   When the performance on the electronic musical instrument is finished, a musical tone signal representing silence is recorded until recording is completed, not a musical tone signal generated in response to the performance operation. On the other hand, since the fade-in control is started for the sound signal in response to the detection of the fall of the music signal, only the surrounding sound (sound signal) is reflected in the mixing signal after the fall of the music signal is detected. Is done. Further, when the performer instructs the end of recording / recording, the recording of the video signal and the recording of the mixing signal obtained by mixing the audio signal and the musical tone signal are ended. As described above, between the start and end of recording / recording, the moving image (video signal) is always reflected by continuously recording, while the source of the mixing signal is For the sound signal and musical sound signal, by performing fade-out / fade-in control on the sound signal in accordance with the performance start / end timing, only the surrounding sound (sound signal) is obtained until the performance starts and after the performance ends. Only the performance sound (musical sound signal) is reflected during most of the time except for the time required for fading out from the performance start to the performance end.

図4は、上記した第1の実施形態を実現する「立ち上がり/立下り検出処理」の一実施例を示すフローチャートである。当該処理は、電子楽器の電源オンに応じてCPU1が開始する処理であって、立ち上がり/立下り検出部Lの機能に該当する。なお、ここでは図示を省略したが、図2に示した各機能に該当する処理が別途動作していることは言うまでもない。   FIG. 4 is a flowchart showing an example of the “rising / falling detection process” for realizing the first embodiment. The process is a process started by the CPU 1 in response to power-on of the electronic musical instrument, and corresponds to the function of the rising / falling detection unit L. In addition, although illustration was abbreviate | omitted here, it cannot be overemphasized that the process applicable to each function shown in FIG. 2 is operate | moving separately.

ステップS1は、楽音生成部Kから供給される楽音信号に基づき楽音信号の立ち上がりを検出したか否かを判定する。例えば、録音・録画の開始後に最初に出現した楽音信号のアタック部を楽音信号の立ち上がりとする。楽音信号の立ち上がりを検出した場合には(ステップS1のYES)、音響信号のフェードアウト制御の開始をミキシング部Hに指示する(ステップS2)。ミキシング部Hでは、該指示に応じて音響信号をフェードアウト制御しながら楽音信号とのミキシングを行いミキシング信号を生成する。ステップS3は、楽音生成部Kから供給される楽音信号に基づき楽音信号の立下りを検出したか否かを判定する。例えば、楽音信号のリリース部が出現してから所定時間(録音対象の楽曲の途中に現れるユーザが演奏するパートにおける無音期間よりも長い時間であって、固定長であってもよいし、ユーザにより長さ設定が可能であってもよい)内に楽音信号のアタック部が続けて出現しない場合、最後の楽音信号のリリース部を楽音信号の立下りとする。楽音信号の立下りを検出した場合には(ステップS3のYES)、音響信号のフェードイン制御の開始をミキシング部Hに指示する(ステップS4)。ミキシング部Hでは、該指示に応じて音響信号をフェードイン制御しながら楽音信号(ただし、無音)とのミキシングを行うことによってミキシング信号を生成する。   In step S1, it is determined whether or not the rising edge of the tone signal has been detected based on the tone signal supplied from the tone generator K. For example, the attack portion of the musical sound signal that first appears after the start of recording / recording is set as the rising edge of the musical sound signal. When the rising edge of the tone signal is detected (YES in step S1), the mixing unit H is instructed to start the fade-out control of the acoustic signal (step S2). The mixing unit H generates a mixing signal by mixing with a musical sound signal while fading out the acoustic signal according to the instruction. In step S3, it is determined whether or not the falling edge of the tone signal has been detected based on the tone signal supplied from the tone generator K. For example, a predetermined time after the release part of the musical sound signal appears (a period longer than the silence period in the part played by the user appearing in the middle of the music to be recorded, which may be a fixed length, or If the attack portion of the musical tone signal does not appear in succession (the length may be set), the release portion of the last musical tone signal is set as the falling edge of the musical tone signal. When the falling edge of the tone signal is detected (YES in step S3), the mixing unit H is instructed to start the fade-in control of the acoustic signal (step S4). The mixing unit H generates a mixing signal by performing mixing with a musical sound signal (but silence) while fading in the acoustic signal according to the instruction.

上述した第1の実施形態の場合、演奏開始からフェードアウトに要する時間が経過するまでは、周囲の音(音響信号)と演奏音(楽音信号)とがどうしても重なってしまうことが起こる(図3参照)。そのため、例えば静かな曲の演奏を開始する際に周囲の音が極めて大きかったような場合などには、ユーザが演奏開始時点の演奏音を聴き取り難い音楽コンテンツを生成してしまい都合が悪い。そこで、第2の実施形態では、録音・録画開始から終了するまでにわたって、周囲の音(音響信号)と演奏音(楽音信号)とを重ねないように信号制御して音楽コンテンツを生成する。以下、説明する。   In the case of the first embodiment described above, the surrounding sound (acoustic signal) and the performance sound (musical sound signal) inevitably overlap each other until the time required for fade-out elapses from the start of the performance (see FIG. 3). ). For this reason, for example, when the sound of the surroundings is extremely loud when the performance of a quiet song is started, it is inconvenient because the user generates music content that makes it difficult to hear the performance sound at the start of the performance. Therefore, in the second embodiment, music content is generated by performing signal control so that surrounding sounds (acoustic signals) and performance sounds (musical sound signals) do not overlap from the start of recording to the end of recording. This will be described below.

図5は、上記した第2の実施形態を説明するための概念図である。まず、演奏者が録音・録画の開始を指示したとしても、音響信号と楽音信号に関しては直ぐに録音を開始することなく音響信号と楽音信号とを一時的にバッファリングしておく。録音・録画の開始指示から音響信号に対するフェードアウト制御に要する時間分だけ経過すると、順次にバッファリングした音響信号と楽音信号とを読み出して、これらの信号をミキシング処理してミキシング信号を生成する。その際に、楽音信号の立ち上がりを検出した場合には、バッファリングされている音響信号のフェードアウトを開始し、楽音信号とミキシングする。他方、楽音信号の立下りを検出した場合には、直ちにではなくバッファリングしてある時間分、つまりはフェードアウト制御に要した時間分だけ時間を遅らせてから音響信号のフェードインを開始し、楽音信号とミキシングする。このようにして、第2の実施形態では演奏開始時に開始される音響信号のフェードアウト制御を、演奏開始に応じて発生される楽音信号を録音する前に完了させるようにしている。   FIG. 5 is a conceptual diagram for explaining the second embodiment described above. First, even if the performer instructs the start of recording / recording, the acoustic signal and the musical sound signal are temporarily buffered without immediately starting the recording with respect to the acoustic signal and the musical sound signal. When the time required for the fade-out control for the sound signal elapses from the recording / recording start instruction, the buffered sound signal and the musical sound signal are read out sequentially, and these signals are mixed to generate a mixing signal. At that time, when the rising edge of the musical tone signal is detected, fade-out of the buffered acoustic signal is started and mixed with the musical tone signal. On the other hand, when the falling edge of the musical sound signal is detected, the sound signal is faded in after being delayed by the buffered time, that is, the time required for fade-out control. Mix with the signal. In this way, in the second embodiment, the fade-out control of the acoustic signal started at the start of the performance is completed before recording the musical sound signal generated in response to the start of the performance.

なお、この場合には、音響信号と楽音信号とを遅延させてミキシング処理する分だけ、動画像(映像信号)の録画タイミングと演奏音(楽音信号)及び周囲の音(音響信号)の録音タイミングとがずれてしまうので、録音・録画終了時に時間調整をしてからファイル記憶部Cに記録する必要がある。こうした時間(タイミング)調整は、ファイル作成部Eでバッファリングしてある時間つまりはフェードアウト制御に要した時間だけ音響信号及び楽音信号の録音時間を前にもどしてから、ファイル記憶部Cに記録させるようにするとよい。あるいは、映像信号についても録音・録画の開始指示にあわせて直ぐに録画を開始することなく、音響信号及び楽音信号と同じようにバッファリングすることで、動画像と演奏音及び周囲の音との互いの発生タイミングがずれないようにしてもよい。   In this case, the recording timing of the moving image (video signal), the performance sound (musical sound signal), and the surrounding sound (acoustic signal) are recorded by the amount corresponding to the mixing processing by delaying the acoustic signal and the musical sound signal. Therefore, it is necessary to record in the file storage unit C after adjusting the time at the end of recording / recording. Such time (timing) adjustment is performed by returning the recording time of the sound signal and the musical sound signal to the time that is buffered by the file creation unit E, that is, the time required for the fade-out control, and then recording it in the file storage unit C. It is good to do so. Alternatively, the video signal is buffered in the same manner as the sound signal and the musical sound signal without starting recording immediately in accordance with the recording / recording start instruction. The generation timing may not be shifted.

図6は、上記した第2の実施形態を実現する「立ち上がり/立下り検出処理」の一実施例を示すフローチャートである。ステップS11は、遅延された楽音信号に基づき楽音信号の立ち上がりを検出したか否かを判定する。楽音信号の立ち上がりを検出した場合には(ステップS11のYES)、楽音信号と同じように遅延された音響信号のフェードアウト制御の開始をミキシング部Hに指示する(ステップS12)。ステップS13は、楽音信号の立下りを検出したか否かを判定する。楽音信号の立下りを検出した場合には(ステップS13のYES)、フェードイン予約を行う(ステップS14)。このフェードイン予約は、演奏終了に応じて直ぐに音響信号のフェードイン制御を開始してしまうと、周囲の音(音響信号)と演奏音(楽音信号)とが重なってしまうことが生じるので、これを避けるために音響信号のフェードイン制御の開始を遅らせるために指定される時刻(演奏終了が指定された時刻)である。ステップS15は、フェードイン予約から所定時間が経過したか否かを判定する。フェードイン予約から所定時間(フェードアウト制御に要した時間)が経過したと判定した場合には(ステップS15のYES)、遅延された音響信号のフェードイン制御の開始をミキシング部Hに指示する(ステップS16)。   FIG. 6 is a flowchart showing an example of “rising / falling detection process” for realizing the second embodiment. In step S11, it is determined whether or not the rising edge of the musical tone signal has been detected based on the delayed musical tone signal. When the rising edge of the tone signal is detected (YES in step S11), the mixing unit H is instructed to start fade-out control of the acoustic signal delayed in the same manner as the tone signal (step S12). In step S13, it is determined whether or not the falling edge of the tone signal has been detected. When the falling edge of the tone signal is detected (YES in step S13), a fade-in reservation is performed (step S14). In this fade-in reservation, if the fade-in control of the sound signal is started immediately after the performance ends, the surrounding sound (acoustic signal) and the performance sound (musical signal) may overlap. This is the time designated for delaying the start of the fade-in control of the acoustic signal (time when the performance end is designated). In step S15, it is determined whether or not a predetermined time has elapsed since the fade-in reservation. If it is determined that a predetermined time (time required for fade-out control) has elapsed since the fade-in reservation (YES in step S15), the mixing unit H is instructed to start fade-in control of the delayed acoustic signal (step S15). S16).

以上のようにして、外部で発生した周囲の音(音響信号)を入力すると共に演奏操作に従って生成された楽器演奏音(楽音信号)を外部に発する前の段階で音源から直接入力するようにしておき、そして楽音信号の立ち上がり(演奏開始)/立下り(演奏終了)を検出した場合には音響信号に対してフェードアウト/フェードイン制御を施して前記楽音信号とミキシング処理を行うようにした。こうすると、演奏開始前や演奏終了後においては周囲の音のみ、演奏開始から演奏終了までにおいては楽器演奏音のみを組み合わせてなる音楽コンテンツが自動的に生成される。これにより、演奏者は楽器演奏音が高音質に録音されておりかつ演奏時の雰囲気・臨場感を充分に伝えうる音楽コンテンツを生成することが簡単にできるようになる。   As described above, ambient sounds generated externally (acoustic signals) are input, and musical instrument performance sounds (musical sound signals) generated in accordance with the performance operation are directly input from the sound source at a stage before being output externally. When the rising edge (performance start) / falling edge (performance end) of the musical tone signal is detected, fade-out / fade-in control is performed on the acoustic signal to perform the mixing processing with the musical tone signal. In this way, music content is automatically generated by combining only the surrounding sounds before the performance starts and after the performance ends, and only the instrument performance sounds from the performance start to the performance end. As a result, the performer can easily generate music content in which the musical instrument performance sound is recorded with high sound quality and can sufficiently convey the atmosphere and the realism during performance.

なお、立ち上がり/立下り検出部Lにおいて音響信号に従い観客の拍手を検出できるようにしておき、演奏開始前に拍手を検出した場合には、楽音信号が立ち上がっても拍手が終わるまでフェードアウトに要する時間を延長させてもよい。こうした場合、第2実施形態では、フェードアウトに要する時間の延長に伴い延長した分だけ楽音信号の録音開始を遅らせることは言うまでもない。また、音響信号に従い歌唱を検出して、フェードアウト後であっても音響信号のボリュームを上げるようにしてもよい。
なお、立ち上がり/立下り検出部Lは、自動演奏データ中に「エンディング」などのマークが含まれていたら、これを合図にフェードイン制御を開始させるようにしてもよい。さらに、自動演奏データ中の「間奏開始」マークでフェードイン、「間奏終了」マークでフェードアウト制御をそれぞれ開始させるようにしてよい。このようにした場合には、間奏中に行われた観客の拍手等を適宜自動的に録音でき便利である。
なお、曲末尾近く(自動演奏データの再生位置に基づき、曲末尾近くであることを検出可能である)において拍手を検出した場合には、楽音信号の立下りを待たずにフェードイン制御を開始させてもよい。
If the applause of the audience is detected by the rising / falling detection unit L in accordance with the acoustic signal and the applause is detected before the start of the performance, the time required for fading out until the applause ends even if the music signal rises. May be extended. In such a case, needless to say, in the second embodiment, the start of recording of the musical sound signal is delayed by an amount corresponding to the extension of the time required for fading out. Further, the singing may be detected according to the acoustic signal, and the volume of the acoustic signal may be increased even after the fade-out.
If the automatic performance data includes a mark such as “ending” in the automatic performance data, the rising / falling detection unit L may start the fade-in control using this as a signal. Further, fade-in control may be started at the “interlude start” mark in the automatic performance data, and fade-out control may be started at the “interlude end” mark. In this case, it is convenient to automatically record the applause of the audience performed during the interlude as appropriate.
If applause is detected near the end of the song (it can be detected that it is near the end of the song based on the playback position of the automatic performance data), fade-in control is started without waiting for the fall of the tone signal. You may let them.

なお、音響信号のフェードアウト/フェードイン制御を伴うミキシング処理を、音響信号及び楽音信号それぞれの録音後に行うようにしてもよい。すなわち、一旦、ボリュームを下げずに音響信号及び楽音信号を録音しておき(ただし音響信号と楽音信号は別トラックに録音する)、録音終了後に自動的に楽音信号トラックを解析して楽音信号の立ち上がり/立下りを検出し、音響信号トラックにおいて対応する位置にある音響信号にフェードアウト/フェードインを掛けながらミキシング処理を行い、生成されるミキシング信号を保存する。
なお、楽音信号の立ち上がり/立下りの検出として、演奏情報中の最初のノートオンやオールノートオフ(から所定時間経過したこと)を検出するようにして、該検出に従ってフェードアウトやフェードイン制御を開始するようにしてもよい。あるいは自動演奏のスタートやストップ指示を検出して、フェードアウトやフェードイン制御を開始するようにしてもよい。これらの検出も楽音信号の立ち上がり/立下り検出と実質的に等しいからである。
なお、本発明に係る電子楽器は録画と録音の両方を行えるものに限らず、録音のみを行えるものであればよいことは言うまでもない。
In addition, you may make it perform the mixing process accompanied by the fade-out / fade-in control of an acoustic signal after recording each of an acoustic signal and a musical tone signal. In other words, once the sound signal and the tone signal are recorded without lowering the volume (but the sound signal and the tone signal are recorded on different tracks), the tone signal track is automatically analyzed after recording and the tone signal is recorded. Rising / falling is detected, mixing processing is performed while fading out / fade in the acoustic signal at the corresponding position in the acoustic signal track, and the generated mixing signal is stored.
In addition, as detection of the rising / falling of the tone signal, the first note-on or all-note-off in the performance information is detected (a predetermined time has elapsed since then), and fade-out and fade-in control is started according to the detection. You may make it do. Alternatively, fade-out or fade-in control may be started by detecting an automatic performance start or stop instruction. This is because these detections are substantially equal to the rising / falling detection of the tone signal.
Needless to say, the electronic musical instrument according to the present invention is not limited to one capable of both recording and recording, and may be any one capable of only recording.

この発明に係る電子楽器の全体構成の一実施例を示したハード構成ブロック図である。1 is a block diagram of a hardware configuration showing an example of the overall configuration of an electronic musical instrument according to the present invention. 電子楽器における音楽コンテンツ生成機能の概略を示す機能ブロック図である。It is a functional block diagram which shows the outline of the music content production | generation function in an electronic musical instrument. 遅延指示部による時間遅延が行われることなくミキシング信号を録音する第1の実施形態を説明するための概念図である。It is a conceptual diagram for demonstrating 1st Embodiment which records a mixing signal, without performing the time delay by a delay instruction | indication part. 第1の実施形態を実現する「立ち上がり/立下り検出処理」の一実施例を示すフローチャートである。It is a flowchart which shows one Example of the "rising / falling detection process" which implement | achieves 1st Embodiment. 遅延指示部による時間遅延が行われてミキシング信号を録音する第2の実施形態を説明するための概念図である。It is a conceptual diagram for demonstrating 2nd Embodiment which performs the time delay by a delay instruction | indication part and records a mixing signal. 第2の実施形態を実現する「立ち上がり/立下り検出処理」の一実施例を示すフローチャートである。It is a flowchart which shows one Example of the "rising / falling detection process" which implement | achieves 2nd Embodiment.

符号の説明Explanation of symbols

1…CPU、2…ROM、3…RAM、4…記憶装置、5,6…検出回路、5A…演奏操作子、6A…設定操作子、7…表示回路、7A…ディスプレイ、8…音源・効果回路、8A…サウンドシステム、9…通信インタフェース、1D…通信バス、A…撮像部、B…映像記録部、C…ファイル記憶部、D…オーディオ記録部、E…ファイル作成部、F…音響入力部、G…A/D変換部、H…ミキシング部、I…自動演奏データ記憶部、J…自動演奏部、K…楽音生成部、L…立ち上がり/立下り検出部、M…録画(録音)指示部、N…遅延指示部 DESCRIPTION OF SYMBOLS 1 ... CPU, 2 ... ROM, 3 ... RAM, 4 ... Storage device, 5, 6 ... Detection circuit, 5A ... Performance operator, 6A ... Setting operator, 7 ... Display circuit, 7A ... Display, 8 ... Sound source / effect Circuit: 8A ... Sound system, 9 ... Communication interface, 1D ... Communication bus, A ... Imaging unit, B ... Video recording unit, C ... File storage unit, D ... Audio recording unit, E ... File creation unit, F ... Sound input , G ... A / D conversion unit, H ... mixing unit, I ... automatic performance data storage unit, J ... automatic performance unit, K ... musical sound generation unit, L ... rising / falling detection unit, M ... recording (recording) Instruction unit, N ... delay instruction unit

Claims (4)

操作子と、
記憶手段と、
前記操作子の演奏操作に応じて、楽音信号を生成する音源と、
外部で発生した音響信号を入力する入力手段と、
前記音源で生成された楽音信号と、前記入力手段から入力された音響信号とをミキシング処理してミキシング信号を生成するミキシング手段と、
前記生成したミキシング信号を音楽コンテンツとして前記記憶手段に記録する記録手段と、
前記操作子の演奏操作開始に伴う前記音源での楽音信号の立ち上がり及び/又は前記操作子の演奏操作終了に伴う前記音源での楽音信号の立下りを検出する検出手段と、
前記楽音信号の立ち上がり及び/又は立下りの検出に基づき、前記音響信号をフェードアウト及び/又はフェードインさせながら前記楽音信号とミキシング処理を行うよう前記ミキシング手段を制御する制御手段と
を具えてなり、
前記ミキシング信号は、演奏操作開始前及び演奏操作終了後については前記音響信号のみからなり、演奏操作開始から演奏操作終了までにおいては前記楽音信号のみからなる音楽コンテンツとして記録されることを特徴とする電子楽器。
An operator,
Storage means;
A sound source that generates a musical sound signal in response to a performance operation of the operator,
An input means for inputting an externally generated acoustic signal;
Mixing means for generating a mixing signal by mixing a musical sound signal generated by the sound source and an acoustic signal input from the input means;
Recording means for recording the generated mixing signal in the storage means as music content;
Detecting means for detecting a rise of a musical sound signal in the sound source accompanying the start of a performance operation of the operator and / or a fall of a musical sound signal in the sound source accompanying the end of the performance operation of the operator;
Control means for controlling the mixing means to perform mixing processing with the musical sound signal while fading out and / or fading in the acoustic signal based on detection of rising and / or falling of the musical sound signal;
The mixing signal includes only the acoustic signal before the start of the performance operation and after the end of the performance operation, and is recorded as music content including only the musical sound signal from the start of the performance operation to the end of the performance operation. Electronic musical instrument.
前記操作子を操作する演奏者の映像信号を入力する映像入力手段をさらに具えてなり、前記記録手段は演奏者の操作と当該操作に応じて生成された楽音信号とが時間的に一致するように、音楽コンテンツとして前記映像信号を前記ミキシング信号に並行して記録する請求項1に記載の電子楽器。   It further comprises video input means for inputting a video signal of the performer who operates the operation element, and the recording means is configured so that the player's operation and the musical sound signal generated in response to the operation coincide with each other in time. The electronic musical instrument according to claim 1, wherein the video signal is recorded as music content in parallel with the mixing signal. 前記制御手段は、前記楽音信号の立ち上がり開始時点において前記音響信号のフェードアウトを完了させるために、前記楽音信号と前記音響信号とを実際の信号生成時又は信号入力時よりも時間遅延してからミキシング処理するよう前記ミキシング手段を制御することを特徴とする請求項1又は2に記載の電子楽器。   The control means mixes the musical sound signal and the acoustic signal after a time delay from the time of actual signal generation or signal input in order to complete the fading out of the acoustic signal at the start of rising of the musical sound signal. 3. The electronic musical instrument according to claim 1, wherein the mixing means is controlled so as to perform processing. 前記制御手段は、前記楽音信号の立下り終了時点において前記音響信号のフェードインを開始するように前記ミキシング手段を制御することを特徴とする請求項1乃至3のいずれかに記載の電子楽器。   4. The electronic musical instrument according to claim 1, wherein the control means controls the mixing means so as to start fade-in of the acoustic signal at the end of falling of the musical sound signal.
JP2008220354A 2008-08-28 2008-08-28 Electronic musical instrument Pending JP2010054856A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008220354A JP2010054856A (en) 2008-08-28 2008-08-28 Electronic musical instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008220354A JP2010054856A (en) 2008-08-28 2008-08-28 Electronic musical instrument

Publications (1)

Publication Number Publication Date
JP2010054856A true JP2010054856A (en) 2010-03-11

Family

ID=42070842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008220354A Pending JP2010054856A (en) 2008-08-28 2008-08-28 Electronic musical instrument

Country Status (1)

Country Link
JP (1) JP2010054856A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014189005A1 (en) * 2013-05-23 2014-11-27 ヤマハ株式会社 Musical-performance recording system, musical-performance recording method, and musical instrument
JP2021063998A (en) * 2011-09-18 2021-04-22 タッチチューンズ ミュージック コーポレーション Method, digital jukebox system and recording media

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021063998A (en) * 2011-09-18 2021-04-22 タッチチューンズ ミュージック コーポレーション Method, digital jukebox system and recording media
JP7161232B2 (en) 2011-09-18 2022-10-26 タッチチューンズ ミュージック コーポレーション Method, digital jukebox system and recording medium
JP7418865B2 (en) 2011-09-18 2024-01-22 タッチチューンズ ミュージック コーポレーション Method, digital jukebox system and recording medium
WO2014189005A1 (en) * 2013-05-23 2014-11-27 ヤマハ株式会社 Musical-performance recording system, musical-performance recording method, and musical instrument
US9472176B2 (en) 2013-05-23 2016-10-18 Yamaha Corporation Performance recording system, performance recording method, and musical instrument

Similar Documents

Publication Publication Date Title
JP5119932B2 (en) Keyboard instruments, piano and auto-playing piano
KR20070091261A (en) Electronic musical apparatus for reproducing received music content
JP2008286946A (en) Data reproduction device, data reproduction method, and program
JP6106397B2 (en) Karaoke device and computer program
JP7367835B2 (en) Recording/playback device, control method and control program for the recording/playback device, and electronic musical instrument
JP2010054856A (en) Electronic musical instrument
JP4107212B2 (en) Music playback device
WO2021059399A1 (en) Acoustic device, acoustic system, image generation method, and image generation program
JP4561561B2 (en) Karaoke equipment
JP4586787B2 (en) Live performance karaoke system
JP2009134146A (en) Content editing device
JP2008233558A (en) Electronic musical instrument and program
JP6601615B2 (en) Movie processing system, movie processing program, and portable terminal
JP4501639B2 (en) Acoustic signal reading apparatus and program
JP4182898B2 (en) Karaoke equipment
JP4479635B2 (en) Audio apparatus and karaoke apparatus
JP4496927B2 (en) Acoustic signal recording apparatus and program
JP2008089854A (en) Remote musical performance system
JP2006091804A (en) Automatic music player and program
JP2008197501A (en) Electronic instrument and performance data utilization program
JP4407559B2 (en) Karaoke equipment
JP5800155B2 (en) Karaoke equipment
JP5669026B2 (en) Karaoke equipment
JPH1115486A (en) Music reproducing device
JPH1091158A (en) Musical sound reproducing system