JP2010008893A - Electronic music device - Google Patents

Electronic music device Download PDF

Info

Publication number
JP2010008893A
JP2010008893A JP2008170534A JP2008170534A JP2010008893A JP 2010008893 A JP2010008893 A JP 2010008893A JP 2008170534 A JP2008170534 A JP 2008170534A JP 2008170534 A JP2008170534 A JP 2008170534A JP 2010008893 A JP2010008893 A JP 2010008893A
Authority
JP
Japan
Prior art keywords
recording
gesture
automatic performance
unit
performance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008170534A
Other languages
Japanese (ja)
Inventor
Atsushi Fukada
敦史 深田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2008170534A priority Critical patent/JP2010008893A/en
Publication of JP2010008893A publication Critical patent/JP2010008893A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic music device capable of recording only a performance scene. <P>SOLUTION: An image taking device 20 is installed as described in (a). A power switch of the image taking device 20 is turned on, and when a user presses a recording mode selection switch in a state that a moving image data are always supplied from the image taking device 20 to an electronic keyboard instrument, the electronic keyboard instrument changes its operation mode to a recording mode to bring a record stand-by state. Image recognition is performed whether or not the typical conductor action of 4 beats as in (c) (gesture for record start indication) performed by user's own hands is included in the moving image data. When the gesture for record start indication is recognized, it is determined that current action is positioned in which position from "1" to "4" like (c). When it is determined that it is positioned at the position "1" at a second time, a record start command is generated and outputted. According this, the image recording of the moving image data supplied from the image taking device 20 is started. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、ユーザの演奏風景を録画することができる電子音楽装置に関する。   The present invention relates to an electronic music apparatus capable of recording a performance scene of a user.

ユーザの演奏風景を録画することができる電子音楽装置は、従来から知られている。   2. Description of the Related Art Conventionally, an electronic music apparatus capable of recording a user's performance scenery has been known.

このような電子音楽装置として、ビデオカメラの操作部を介して入力される指示に従って、ユーザの演奏風景や種々の演奏音等を当該ビデオカメラに装着したビデオテープに録画するようにしたものがある(たとえば、特許文献1参照)。
特開2003−208164号公報
As such an electronic music apparatus, there is one that records a performance scene of a user, various performance sounds, and the like on a video tape attached to the video camera in accordance with an instruction input via an operation unit of the video camera. (For example, refer to Patent Document 1).
JP 2003-208164 A

しかし、上記従来の電子音楽装置では、録画の開始または停止の指示はビデオカメラの操作部を介してなされていたので、つまり操作部に設けられている開始/停止を指示するための操作子(たとえば、ボタン)をユーザが操作することによってなされていたので、演奏風景だけではなく、その前後の不必要なユーザの動作、具体的には、録画開始ボタンを操作してから実際に演奏を開始するまでのユーザの動作、あるいは演奏を終了してから録画停止ボタンを操作するまでのユーザの動作も録画されていた。もちろん、録画後の編集作業により、不必要な録画部分をカットすることもできるが、編集作業は面倒である。   However, in the above-described conventional electronic music apparatus, the instruction to start or stop the recording is made via the operation unit of the video camera, that is, the operation element (instruction for instructing the start / stop provided in the operation unit ( For example, the button is operated by the user, so not only the performance scenery but also unnecessary user actions before and after that, specifically, the recording start button is operated and then the performance is actually started. The user's actions until the start or the user's actions from the end of the performance to the operation of the recording stop button were also recorded. Of course, unnecessary recording parts can be cut by editing after recording, but the editing is troublesome.

本発明は、この点に着目してなされたものであり、演奏風景のみを録画することが可能となる電子音楽装置を提供することを目的とする。   The present invention has been made paying attention to this point, and an object thereof is to provide an electronic music apparatus capable of recording only a performance scene.

上記目的を達成するため、請求項1に記載の電子音楽装置は、ユーザを含む情景を撮影して得られた動画像データを供給する供給手段と、演奏情報を発生する演奏操作子と、ユーザが前記演奏操作子を操作することによって発生された演奏情報に基づいて楽音信号を生成する生成手段と、前記供給手段によって供給された動画像データからユーザの所定のジェスチャを認識する認識手段と、前記供給された動画像データを録画するとともに、前記生成手段によって生成された楽音信号および/または前記発生された演奏情報を記録する録画・記録手段と、前記認識手段によって認識されたジェスチャに基づいて、前記録画・記録手段の録画・記録の状態を制御する制御手段とを有することを特徴とする。   In order to achieve the above object, an electronic music apparatus according to claim 1 is provided with supply means for supplying moving image data obtained by photographing a scene including a user, a performance operator for generating performance information, and a user. Generating means for generating a musical sound signal based on performance information generated by operating the performance operator, recognition means for recognizing a user's predetermined gesture from moving image data supplied by the supply means, Based on the recording / recording means for recording the supplied moving image data and recording the musical sound signal generated by the generating means and / or the generated performance information, and the gesture recognized by the recognition means. And control means for controlling the recording / recording state of the recording / recording means.

請求項2に記載の電子音楽装置は、請求項1の電子音楽装置において、自動演奏データに基づいて自動演奏を行う自動演奏手段と、前記認識されたジェスチャに基づいて、前記自動演奏のテンポを設定する設定手段とをさらに有し、前記生成手段は、前記自動演奏手段による自動演奏に基づいても楽音信号を生成することを特徴とする。   The electronic music apparatus according to claim 2 is the electronic music apparatus according to claim 1, wherein automatic performance means for performing automatic performance based on automatic performance data and the tempo of the automatic performance based on the recognized gesture are provided. Setting means for setting, wherein the generation means generates a musical tone signal even based on an automatic performance by the automatic performance means.

請求項1に記載の発明によれば、供給された動画像データからユーザの所定のジェスチャが認識され、該認識されたジェスチャに基づいて、録画・記録手段の録画・記録の状態が制御されるので、ユーザを含む情景の録画を開始あるいは停止させるためにボタンを操作する動作のような、録画したい情景とは無関係な格好の悪い映像が録画されることを防止できる。   According to the first aspect of the present invention, a user's predetermined gesture is recognized from the supplied moving image data, and the recording / recording state of the recording / recording means is controlled based on the recognized gesture. Therefore, it is possible to prevent a bad-looking video unrelated to the scene to be recorded such as an operation of operating a button to start or stop recording of the scene including the user from being recorded.

請求項2に記載の発明によれば、認識されたジェスチャに基づいてテンポ設定も行うことができるので、予めテンポを設定しておくことなく、録画・記録の開始時にテンポ設定を行うことができる。   According to the second aspect of the present invention, since the tempo can be set based on the recognized gesture, the tempo can be set at the start of recording / recording without setting the tempo in advance. .

以下、本発明の実施の形態を図面に基づいて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施の形態に係る電子音楽装置を適用した電子鍵盤楽器の概略構成を示すブロック図である。   FIG. 1 is a block diagram showing a schematic configuration of an electronic keyboard instrument to which an electronic music apparatus according to an embodiment of the present invention is applied.

同図に示すように、本実施の形態の電子鍵盤楽器は、音高情報を含む演奏情報を入力するための鍵盤を含む演奏操作子1と、各種情報を入力するための複数のスイッチやダイアル、ジョイスティックを含む設定操作子2と、演奏操作子1の操作状態を検出する検出回路3と、設定操作子2の操作状態を検出する検出回路4と、装置全体の制御を司るCPU5と、該CPU5が実行する制御プログラムや各種テーブルデータ等を記憶するROM6と、演奏情報、各種入力情報および演算結果等を一時的に記憶するRAM7と、各種情報等を表示する、たとえば液晶ディスプレイ(LCD)および発光ダイオード(LED)等を備えた表示装置8と、前記制御プログラムを含む各種アプリケーションプログラムや各種楽曲データ、各種データ等を記憶する記憶装置9と、ユーザの演奏風景などを撮影する撮像装置20を接続し、この撮像装置20とデータの送受信を行う通信インターフェース(I/F)10と、演奏操作子1から入力された演奏情報や、前記記憶装置9に記憶されたいずれかの楽曲データを再生して得られた演奏情報等を楽音信号に変換するとともに、その楽音信号に各種効果を付与するための音源・効果回路11と、該音源・効果回路11からの楽音信号を音響に変換する、たとえば、DAC(Digital-to-Analog Converter)やアンプ、スピーカ等のサウンドシステム12とにより構成されている。   As shown in the figure, the electronic keyboard instrument of the present embodiment includes a performance operator 1 including a keyboard for inputting performance information including pitch information, and a plurality of switches and dials for inputting various information. , A setting operator 2 including a joystick, a detection circuit 3 for detecting an operation state of the performance operator 1, a detection circuit 4 for detecting an operation state of the setting operator 2, a CPU 5 for controlling the entire apparatus, A ROM 6 for storing a control program executed by the CPU 5 and various table data, a RAM 7 for temporarily storing performance information, various input information, calculation results, and the like, and displays various information such as a liquid crystal display (LCD) and Display device 8 having a light emitting diode (LED) and the like, various application programs including the control program, various music data, various data, etc. A storage device 9 is connected to an imaging device 20 that captures a performance scene of a user, and a communication interface (I / F) 10 that transmits / receives data to / from the imaging device 20 and the performance operator 1 are input. A sound source / effect circuit for converting performance information obtained by reproducing any piece of music data stored in the storage device 9 into a musical sound signal, and applying various effects to the musical sound signal 11 and a sound system 12 such as a DAC (Digital-to-Analog Converter), an amplifier, and a speaker for converting a musical sound signal from the sound source / effect circuit 11 into sound.

上記構成要素3〜11は、バス13を介して相互に接続され、通信I/F10には撮像装置20が接続され、音源・効果回路11にはサウンドシステム12が接続されている。   The components 3 to 11 are connected to each other via the bus 13, the imaging device 20 is connected to the communication I / F 10, and the sound system 12 is connected to the sound source / effect circuit 11.

記憶装置9は、たとえば、フレキシブルディスク(FD)、ハードディスク(HD)、CD−ROM、DVD(デジタル多目的ディスク)、光磁気ディスク(MO)および半導体メモリなどの記憶媒体とその駆動装置である。記憶媒体は、駆動装置から着脱可能であってもよいし、記憶装置9自体が、電子鍵盤楽器から着脱可能であってもよい。あるいは、記憶媒体も記憶装置9も着脱不可能であってもよい。なお、記憶装置9(の記憶媒体)には、前述のように、CPU5が実行する制御プログラムも記憶でき、ROM6に制御プログラムが記憶されていない場合には、この記憶装置9に制御プログラムを記憶させておき、それをRAM7に読み込むことにより、ROM6に制御プログラムを記憶している場合と同様の動作をCPU5にさせることができる。このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。   The storage device 9 is, for example, a storage medium such as a flexible disk (FD), a hard disk (HD), a CD-ROM, a DVD (digital multipurpose disk), a magneto-optical disk (MO), and a semiconductor memory, and its driving device. The storage medium may be detachable from the drive device, or the storage device 9 itself may be detachable from the electronic keyboard instrument. Alternatively, neither the storage medium nor the storage device 9 may be detachable. Note that the storage device 9 (the storage medium) can also store the control program executed by the CPU 5 as described above, and if the control program is not stored in the ROM 6, the control program is stored in the storage device 9. By reading it into the RAM 7, it is possible to cause the CPU 5 to perform the same operation as when the control program is stored in the ROM 6. In this way, control programs can be easily added and upgraded.

通信I/F10としては、たとえば、MIDI信号などの音楽信号を専用に送受信する音楽専用有線I/F、USB(ユニバーサル・シリアル・バス)やIEEE1394(アイトリプルイー1394)などの汎用近距離有線I/F、Ethernet(登録商標)などの汎用ネットワークI/F、無線LAN(local area network)やBluetooth(登録商標)などの汎用近距離無線I/Fを挙げることができる。本実施の形態では、通信I/F10として、USBを採用しているが、これに代えて他の種類のI/Fを採用してもよいし、これに他の種類のI/Fを加えるようにしてもよい。   As the communication I / F 10, for example, a music dedicated wired I / F that exclusively transmits and receives a music signal such as a MIDI signal, a general-purpose short-distance wired I such as USB (Universal Serial Bus) and IEEE 1394 (I Triple 1394). / F, general-purpose network I / F such as Ethernet (registered trademark), and general-purpose short-range wireless I / F such as wireless local area network (LAN) and Bluetooth (registered trademark). In this embodiment, the USB is adopted as the communication I / F 10, but other types of I / Fs may be used instead, and other types of I / Fs are added thereto. You may do it.

撮像装置20は、たとえばUSBビデオ・クラス(USB video class)に対応したWebカメラ、デジタルビデオカメラ、デジタルスチルカメラなどのカメラであり、撮影して得られた動画像データをMotion-JPEG、DV(Digital Video)、MPEG-2またはMPEG-4などの圧縮データに変換して、あるいは非圧縮データのまま出力する。通信I/F10には、USBホスト端子が設けられるとともに、USBビデオ・クラス・ドライバが組み込まれており、通信I/F10は、撮像装置20が出力した上記各種形式の動画像データをUSBの通信プロトコルに従って受信する。なお、通信I/F10としては、上記各種形式すべての動画像データを受信可能なものに限らず、そのうちの少なくとも1つの形式の動画像データを受信可能なものであればよい。また、動画像データの通信プロトコルは、USBビデオ・クラスに規定されているものに限られる訳ではない。USBビデオ・クラスに規定されている通信プロトコル以外の通信プロトコルを採用した場合には、この通信プロトコルに従って通信する動画像データは上記各種形式に限られない。また、撮像装置20の撮影方向やズームの倍率などを電子鍵盤楽器側から制御可能に構成されているときには、通信I/F10は、その制御情報をUSBの通信プロトコルに従って撮像装置20に送信する。なお、本実施の形態では、撮像装置20として、通信I/F10を介して外部接続したものを採用したが、これに限らず、電子鍵盤楽器内に組み込んだものを採用してもよい。   The imaging device 20 is a camera such as a Web camera, a digital video camera, or a digital still camera that supports, for example, a USB video class. Motion image data obtained by shooting is motion-JPEG, DV ( Digital Video), converted into compressed data such as MPEG-2 or MPEG-4, or output as uncompressed data. The communication I / F 10 is provided with a USB host terminal and a USB video class driver. The communication I / F 10 transmits the above-mentioned various types of moving image data output from the imaging device 20 via USB communication. Receive according to protocol. Note that the communication I / F 10 is not limited to one that can receive moving image data in all of the above-described various formats, and may be any device that can receive moving image data in at least one of the formats. In addition, the communication protocol for moving image data is not limited to that specified in the USB video class. When a communication protocol other than the communication protocol defined in the USB video class is adopted, the moving image data communicated according to this communication protocol is not limited to the above-described various formats. When the electronic keyboard instrument side is configured to control the shooting direction, zoom magnification, and the like of the imaging device 20, the communication I / F 10 transmits the control information to the imaging device 20 according to the USB communication protocol. In the present embodiment, an externally connected device via the communication I / F 10 is employed as the imaging device 20, but the present invention is not limited to this, and a device incorporated in an electronic keyboard instrument may be employed.

なお、本実施の形態では、電子音楽装置を電子鍵盤楽器上に構築するようにしたが、これに限らず、鍵盤を外部接続した汎用的なPC上に構築してもよい。また、鍵盤楽器の形態ではなく、弦楽器タイプ、管楽器タイプ、打楽器タイプ等の他の楽器の形態を採用してもよい。   In this embodiment, the electronic music apparatus is constructed on the electronic keyboard instrument. However, the present invention is not limited to this, and the electronic music apparatus may be constructed on a general-purpose PC externally connected to the keyboard. Further, other musical instrument forms such as a string instrument type, a wind instrument type, and a percussion instrument type may be employed instead of the keyboard instrument form.

図2は、本実施の形態の電子鍵盤楽器の機能構成を示すブロック図である。   FIG. 2 is a block diagram showing a functional configuration of the electronic keyboard instrument of the present embodiment.

同図において、撮像部101は、主として前記撮像装置20、通信I/F10およびCPU5に相当し、撮像装置20を用いて撮影され、通信I/F10を介して当該電子鍵盤楽器内に供給された動画像データを、CPU5を介してジェスチャ認識部102および動画記録部103に供給する。   In the figure, an imaging unit 101 mainly corresponds to the imaging device 20, the communication I / F 10 and the CPU 5, is shot using the imaging device 20, and is supplied into the electronic keyboard instrument via the communication I / F 10. The moving image data is supplied to the gesture recognition unit 102 and the moving image recording unit 103 via the CPU 5.

ジェスチャ認識部102は、主としてCPU5および前記RAM7に相当し、CPU5が所定の制御プログラム(ソフトウェア・モジュール)を実行することで実現される。ジェスチャ認識部102は、撮像部101から供給された動画像データを一時的に記憶し、この動画像データに対して所定の画像処理を施すことにより、ユーザが行った所定のジェスチャを認識する。ここで、所定のジェスチャとは、動画記録部103での録画動作をスタートさせるためのジェスチャ(以下、「録画スタート指示用ジェスチャ」という)、スタートした録画動作をストップさせるためのジェスチャ(以下、「録画ストップ指示用ジェスチャ」という)、およびテンポ設定を行わせるためのジェスチャ(以下、「テンポ設定指示用ジェスチャ」という)である。そして、ジェスチャ認識部102は、撮像部101からの動画像データ内に、録画スタート指示用ジェスチャが含まれていることを認識すると(厳密には、後述するように、さらに「録画スタート指示タイミング」に相当するジェスチャが認識されるまで待ってから)、録画スタートを指示するコマンド(以下、「録画スタートコマンド」という)を出力し、録画ストップ指示用ジェスチャが含まれていることを認識すると、録画ストップを指示するコマンド(以下、「録画ストップコマンド」という)を出力し、テンポ設定指示用ジェスチャが含まれていることを認識すると、テンポ設定を指示するコマンド(以下、「テンポ設定コマンド」という)を出力する。ジェスチャ認識部102から出力される上記3種類のコマンドのうち、録画スタートコマンドおよび録画ストップコマンドは、前記動画記録部103およびオーディオ記録部108に供給され、テンポ設定コマンドは、自動演奏部105に供給される。なお、本発明の特徴は、動画像データから認識したジェスチャをどのように利用するかにあり、動画像データからジェスチャをどのように認識するかにある訳ではないので、ジェスチャの認識処理としては、公知の認識処理を採用すればよい。   The gesture recognition unit 102 mainly corresponds to the CPU 5 and the RAM 7 and is realized by the CPU 5 executing a predetermined control program (software module). The gesture recognition unit 102 temporarily stores the moving image data supplied from the imaging unit 101 and performs predetermined image processing on the moving image data to recognize a predetermined gesture performed by the user. Here, the predetermined gesture refers to a gesture for starting a recording operation in the moving picture recording unit 103 (hereinafter referred to as “recording start instruction gesture”), and a gesture for stopping the started recording operation (hereinafter referred to as “ Recording stop instruction gesture ”) and a gesture for performing tempo setting (hereinafter referred to as“ tempo setting instruction gesture ”). When the gesture recognition unit 102 recognizes that the moving image data from the imaging unit 101 includes a recording start instruction gesture (strictly speaking, as described later, “recording start instruction timing”). Until a gesture corresponding to is recognized), a command to start recording (hereinafter referred to as “recording start command”) is output, and when it is recognized that a recording stop instruction gesture is included, A command for instructing tempo setting (hereinafter referred to as “tempo setting command”) when a command for instructing stop (hereinafter referred to as “recording stop command”) is output and it is recognized that a tempo setting instruction gesture is included. Is output. Of the three types of commands output from the gesture recognition unit 102, a recording start command and a recording stop command are supplied to the moving image recording unit 103 and the audio recording unit 108, and a tempo setting command is supplied to the automatic performance unit 105. Is done. Note that the feature of the present invention is how to use the gesture recognized from the moving image data, and not how to recognize the gesture from the moving image data. A known recognition process may be employed.

動画記録部103は、主としてCPU5、RAM7および記憶装置9に相当し、CPU5が所定の制御プログラムを実行することで実現される。動画記録部103は、ジェスチャ認識部102から録画スタートコマンドが供給されると、撮像部101から供給された動画像データを時間の経過に従って記録する。動画像データを記録する際のデータフォーマットは、どのようなものを採用してもよいので、動画記録部103から供給される動画像データのフォーマットと同じフォーマットで記録してもよいし、他のフォーマットに変換した後、変換後のフォーマットで記録するようにしてもよい。なお、動画記録部103における動画像データの録画スタート/ストップは、本実施の形態では、ジェスチャ認識部102から録画スタート/ストップコマンドが供給されたことに応じてなされるが、これに加えて、ユーザが前記設定操作子2に含まれる録画スタート/ストップスイッチ(ともに図示せず)を操作したことに応じてもなされるようにしてもよい。   The moving image recording unit 103 mainly corresponds to the CPU 5, the RAM 7, and the storage device 9, and is realized by the CPU 5 executing a predetermined control program. When the recording start command is supplied from the gesture recognition unit 102, the moving image recording unit 103 records the moving image data supplied from the imaging unit 101 as time passes. Since any data format may be employed when recording moving image data, it may be recorded in the same format as the moving image data format supplied from the moving image recording unit 103. After conversion into the format, recording may be performed in the converted format. In this embodiment, the moving image data recording start / stop in the moving image recording unit 103 is performed in response to the recording start / stop command supplied from the gesture recognition unit 102. In addition, It may be made in response to a user operating a recording start / stop switch (both not shown) included in the setting operator 2.

自動演奏データ記憶部104は、主としてRAM7の所定位置に確保された一部領域に相当し、自動演奏部105によって自動演奏される自動演奏データを記憶する。本実施の形態の電子鍵盤楽器(の前記記憶装置9)内には、複数の自動演奏データが記憶され、自動演奏データ記憶部104には、その中からユーザによって選択された1つ(後述するように、複数の場合もあり得る)が記憶される。ここで、自動演奏データは、ユーザが前記演奏操作子1を用いてある楽曲を演奏する際のバック演奏を行わせるためのものであり、具体的には、1曲の楽曲を表す楽曲データ(ソングデータ)や、伴奏スタイルデータ、コード進行データなどである。なお、自動演奏データのフォーマットとしては、どのようなものを採用しても構わないが、本実施の形態では、通常の電子楽器でよく用いられているSMF(Standard MIDI File)形式を採用することにする。伴奏スタイルデータは、たとえば、複数のセクション(「イントロ」、「メイン」、「エンディング」および「フィルイン」など)のそれぞれに対応した、所定長(たとえば、1小節長)のスタイルデータによって構成され、各スタイルデータはそれぞれ、キーイベントとその再生タイミングを1組とする複数組からなるシーケンスデータによって構成されている。そして、各キーイベントの音高は、たとえば「Cメジャコード」を基準として表されており、ユーザが、たとえば前記鍵盤から好みのコードを指定すると、自動演奏部105は、各キーイベントの音高をそのコードに合った音高に変換して、後段の楽音生成部107に出力する。なお、伴奏スタイルデータは、上述のように、セクション毎の実データ(スタイルデータ)によって構成する代わりに、セクション毎の実データ(の格納場所)を指示する指示情報(のシーケンス)によって構成し、自動演奏する際に、演奏位置の指示情報によって指示される実データを取得するようにしてもよい。また、コード進行データは、たとえば、複数のコードデータ(=コードイベント+その再生タイミング)からなるシーケンスデータによって構成されている。コード進行データを再生して伴奏を生成する場合、コード進行データを構成する各コードデータをそのまま再生して伴奏を生成するようにしてもよいし、ユーザが指定したコードデータに基づいて、当該コード進行データを他のコード進行データに変換することで、伴奏を生成するようにしてもよい。   The automatic performance data storage unit 104 mainly corresponds to a partial area secured at a predetermined position in the RAM 7 and stores automatic performance data automatically played by the automatic performance unit 105. A plurality of automatic performance data is stored in the electronic keyboard instrument (the storage device 9) of the present embodiment, and the automatic performance data storage unit 104 selects one of them (described later). A plurality of possible cases) is stored. Here, the automatic performance data is for allowing the user to perform a back performance when playing a certain piece of music using the performance operator 1, and specifically, music data (one piece of music data ( Song data), accompaniment style data, chord progression data, and the like. It should be noted that any format may be adopted as the automatic performance data format, but in this embodiment, the SMF (Standard MIDI File) format often used in ordinary electronic musical instruments is adopted. To. The accompaniment style data is composed of, for example, style data of a predetermined length (for example, one bar length) corresponding to each of a plurality of sections (“Intro”, “Main”, “Ending”, “Fill-in”, etc.) Each style data is composed of sequence data composed of a plurality of sets each including a key event and its reproduction timing. The pitch of each key event is expressed with reference to, for example, “C major chord”. When the user designates a favorite chord from the keyboard, for example, the automatic performance unit 105 selects the pitch of each key event. Is converted to a pitch suitable for the chord and output to the musical tone generation unit 107 at the subsequent stage. As described above, the accompaniment style data is constituted by instruction information (sequence) indicating the actual data (storage location) for each section, instead of the actual data (style data) for each section, as described above. When automatic performance is performed, actual data indicated by performance position instruction information may be acquired. Further, the chord progression data is composed of sequence data composed of a plurality of chord data (= chord event + its reproduction timing), for example. When the accompaniment is generated by reproducing the chord progression data, the chord data constituting the chord progression data may be reproduced as it is to generate the accompaniment, or the chord data may be generated based on the chord data designated by the user. The accompaniment may be generated by converting the progress data into other chord progress data.

自動演奏部105は、主としてCPU5およびRAM7に相当し、CPU5が所定の制御プログラムを実行することで実現される。自動演奏部105は、RAM7に設けた読み出しポインタ(図示せず)が示す位置にある自動演奏データを自動演奏データ記憶部104から読み出し、読み出した自動演奏データが再生タイミングデータであるときには、その再生タイミングまで待ってから読み出しポインタを“1”だけ進め、その位置にあるキーイベントデータを読み出して楽音生成部107に供給した後、読み出しポインタを“1”だけ進める一方、読み出した自動演奏データがキーイベントデータであるときには、そのまま楽音生成部107に供給した後、読み出しポインタを“1”だけ進める。ここで、再生タイミングデータは、隣接するキーイベントデータ間の時間差(デルタタイム)を、所定の音符長(たとえば、96分音符長)を単位とする整数値で表したものである。つまり、上記「再生タイミングまで待つ」とは、読み出した再生タイミングデータの値を所定の音符長毎に“1”ずつデクリメントして行き、“0”になるまで待つことである。したがって、自動演奏部105は所定の音符長に相当する時間を計時する必要があるが、音符長に相当する時間はテンポに応じた時間であるので、換言すると、音符長に相当する時間はテンポが決まらなければ決まらないので、自動演奏部105は、ジェスチャ認識部102からのテンポ設定コマンドに応じたテンポに基づいて、所定の音符長に相当する時間を決定する。そして自動演奏部105は、その決定した時間を、たとえばCPU5に内蔵されているタイマ(図示せず)を用いて計測する。   The automatic performance unit 105 mainly corresponds to the CPU 5 and the RAM 7 and is realized by the CPU 5 executing a predetermined control program. The automatic performance unit 105 reads automatic performance data at a position indicated by a read pointer (not shown) provided in the RAM 7 from the automatic performance data storage unit 104. When the read automatic performance data is reproduction timing data, the automatic performance data is reproduced. After waiting until the timing, the read pointer is advanced by “1”, the key event data at that position is read and supplied to the tone generator 107, and then the read pointer is advanced by “1” while the read automatic performance data is the key. If it is event data, it is supplied to the tone generator 107 as it is, and then the read pointer is advanced by “1”. Here, the reproduction timing data represents the time difference (delta time) between adjacent key event data as an integer value with a predetermined note length (for example, 96th note length) as a unit. That is, “waiting until the reproduction timing” means decrementing the value of the read reproduction timing data by “1” every predetermined note length and waiting until it becomes “0”. Therefore, the automatic performance unit 105 needs to measure the time corresponding to the predetermined note length, but the time corresponding to the note length is a time corresponding to the tempo. In other words, the time corresponding to the note length is the tempo. Therefore, the automatic performance unit 105 determines a time corresponding to a predetermined note length based on the tempo according to the tempo setting command from the gesture recognition unit 102. And the automatic performance part 105 measures the determined time using the timer (not shown) built in CPU5, for example.

なお、自動演奏データとして、前記伴奏スタイルデータが記憶されているときに、キーイベントデータが読み出された場合、自動演奏部105は、前述のように、そのキーイベントデータの音高を指定されたコードデータに合った音高に変換して出力する。コードデータの指定方法としては、前述のように、ユーザが鍵盤を用いて指定する方法を例に挙げたが、これに限らず、コード進行データを再生することで得られるコードデータによって指定する方法を採用してもよい。この場合には、自動演奏データ記憶部104の、伴奏スタイルデータが記憶されている領域とは別の領域に、再生したいコード進行データを記憶しておき、自動演奏部105は、伴奏スタイルデータの読み出しに並行してコード進行データを読み出すようにすればよい。   If the key event data is read when the accompaniment style data is stored as the automatic performance data, the automatic performance unit 105 is designated with the pitch of the key event data as described above. It is converted to a pitch that matches the chord data and output. As described above, the chord data designation method is exemplified by the method in which the user designates using the keyboard as described above. However, the chord data designation method is not limited to this. May be adopted. In this case, chord progression data to be reproduced is stored in an area different from the area where accompaniment style data is stored in the automatic performance data storage section 104, and the automatic performance section 105 stores the accompaniment style data. The chord progression data may be read in parallel with the reading.

演奏操作子106は、主として前記演奏操作子1および検出回路3に相当し、ユーザによる演奏操作に応じた演奏情報(本実施の形態では、MIDIメッセージ)を生成し、楽音生成部107およびMIDI記録部109に出力する。   The performance operator 106 mainly corresponds to the performance operator 1 and the detection circuit 3, and generates performance information (in the present embodiment, MIDI message) according to the performance operation by the user. Output to the unit 109.

楽音生成部107は、主として前記音源・効果回路11に相当し、ユーザによって設定された楽音生成環境(音色、音量および効果など)で、自動演奏部105から供給されたキーイベントデータおよび演奏操作子106から供給された演奏情報に基づいて楽音信号を生成し、適宜効果を付与した後、オーディオ記録部108に出力する。   The musical tone generation unit 107 mainly corresponds to the sound source / effect circuit 11, and in the musical tone generation environment (tone color, volume, effect, etc.) set by the user, the key event data and the performance operator supplied from the automatic performance unit 105. A musical tone signal is generated based on the performance information supplied from 106, and an effect is appropriately given, and then output to the audio recording unit 108.

オーディオ記録部108は、主としてCPU5およびRAM7に相当し、CPU5が所定の制御プログラムを実行することで実現される。オーディオ記録部108は、ジェスチャ認識部102から録画スタートコマンドが供給されると、楽音生成部107から供給された楽音信号(オーディオデータ)を時間の経過に従って記録し、録画ストップコマンドが供給されると、楽音信号の記録を停止する。ここで、オーディオデータの記録フォーマットは、どのようなものを採用してもよく、非圧縮のものでも、圧縮したものでもよい。なお本実施の形態では、オーディオ記録部108における記録開始/停止の指示も、動画記録部103における録画開始/停止の指示と同様に、録画スタート/ストップコマンドによって行うようにしたが、これは、両者における開始/停止の指示が同じタイミングでなされるので、敢えて異なるスタート/ストップコマンド(たとえば、動画記録部103については録画スタート/ストップコマンド、オーディオ記録部108については記録スタート/ストップコマンド)を生成して供給する必要はないからである。もちろん、この場合でも、異なるスタートコマンドを生成して、それぞれ動画記録部103およびオーディオ記録部108に供給するようにしてもよい。   The audio recording unit 108 mainly corresponds to the CPU 5 and the RAM 7 and is realized by the CPU 5 executing a predetermined control program. When the recording start command is supplied from the gesture recognition unit 102, the audio recording unit 108 records the musical tone signal (audio data) supplied from the musical tone generation unit 107 as time passes, and when the recording stop command is supplied. Stop recording the music signal. Here, any recording format of audio data may be adopted, which may be uncompressed or compressed. In the present embodiment, the recording start / stop instruction in the audio recording unit 108 is also performed by the recording start / stop command in the same manner as the recording start / stop instruction in the moving image recording unit 103. Since both start / stop instructions are given at the same timing, different start / stop commands (for example, a recording start / stop command for the moving picture recording unit 103 and a recording start / stop command for the audio recording unit 108) are generated. This is because there is no need to supply them. Of course, even in this case, different start commands may be generated and supplied to the moving image recording unit 103 and the audio recording unit 108, respectively.

MIDI記録部109は、主としてCPU5およびRAM7に相当し、CPU5が所定の制御プログラムを実行することで実現される。MIDI記録部109は、演奏操作子106から供給されたMIDIメッセージをSMF形式で記録する。なお、MIDI記録部109における記録開始/停止の指示も、録画スタート/ストップコマンドによって行えばよい。   The MIDI recording unit 109 mainly corresponds to the CPU 5 and the RAM 7 and is realized by the CPU 5 executing a predetermined control program. The MIDI recording unit 109 records the MIDI message supplied from the performance operator 106 in the SMF format. Note that the recording start / stop instruction in the MIDI recording unit 109 may also be performed by a recording start / stop command.

ファイル作成部110は、主としてCPU5およびRAM7に相当し、CPU5が所定の制御プログラムを実行することで実現される。ファイル作成部110は、動画記録部103によって記録された動画像データ、オーディオ記録部108によって記録されたオーディオデータおよびMIDI記録部109によって記録されたSMF形式のMIDIデータを1つのファイル内に収めたマルチメディアファイルを作成して、ファイル記憶部111に出力する。   The file creation unit 110 mainly corresponds to the CPU 5 and the RAM 7 and is realized by the CPU 5 executing a predetermined control program. The file creation unit 110 stores the moving image data recorded by the moving image recording unit 103, the audio data recorded by the audio recording unit 108, and the SMF format MIDI data recorded by the MIDI recording unit 109 in one file. A multimedia file is created and output to the file storage unit 111.

ファイル記憶部111は、主としてRAM7の所定位置に確保された一部領域に相当し、ファイル作成部110から供給されるマルチメディアファイルを記憶する。記憶されたマルチメディアファイルは、前記通信I/F10あるいは着脱可能な記憶媒体経由で外部の装置に供給可能であり、たとえば動画投稿サイトのサーバや、ブログサイトのサーバなどにアップロードすることができる。   The file storage unit 111 mainly corresponds to a partial area secured at a predetermined position in the RAM 7 and stores a multimedia file supplied from the file creation unit 110. The stored multimedia file can be supplied to an external device via the communication I / F 10 or a removable storage medium, and can be uploaded to, for example, a video posting site server or a blog site server.

なお、本実施の形態では、マルチメディアファイルとして、複数種類(3種類)のデータを1つのファイル内に収めたものを生成するようにしたが、これに限らず、複数種類のデータのそれぞれについて個別にファイルを作成し、その個々のファイルを関連付けて、同時に再生可能に構成してもよい。   In the present embodiment, the multimedia file is generated with a plurality of types (three types) of data stored in one file. However, the present invention is not limited to this, and each of the plurality of types of data is generated. A file may be created individually, and the individual files may be associated with each other so that they can be played back simultaneously.

また、本実施の形態の電子鍵盤楽器には、オーディオ記録部108とMIDI記録部109はいずれも備わっているものとしたが、いずれか一方のみ備わっているとしてもよい。あるいは、機能としては、オーディオ記録部108とMIDI記録部109のいずれも備わっており、ユーザの選択操作に応じて、両方有効、オーディオ記録部108のみ有効あるいはMIDI記録部109のみ有効のいずれかを選択可能に構成してもよい。   Further, although the electronic keyboard instrument of the present embodiment is provided with both the audio recording unit 108 and the MIDI recording unit 109, only one of them may be provided. Or, as a function, both the audio recording unit 108 and the MIDI recording unit 109 are provided, and either one of the two is valid, only the audio recording unit 108 is valid, or only the MIDI recording unit 109 is valid according to a user's selection operation. You may comprise so that selection is possible.

以上のように構成された電子鍵盤楽器が実行する制御処理を、まず図3を参照してその概要を説明し、次に図4を参照して詳細に説明する。   A control process executed by the electronic keyboard instrument configured as described above will be described first with reference to FIG. 3 and then in detail with reference to FIG.

図3は、本実施の形態の電子鍵盤楽器による演奏風景の撮影方法を説明するための図であり、同図(a)は、電子鍵盤楽器を演奏するユーザを撮影するために撮像装置20を設置した一例を示し、同図(b)は、同図(a)の撮像装置20の設置状態で演奏風景を撮影したときに、前記表示装置8のLCD上に表示された撮影画像(動画像)8aの一例を示し、同図(c)は、前記録画スタート指示用ジェスチャの一例を示す図であり、同図(d)は、前記録画ストップ指示用ジェスチャの一例を示す図である。   FIG. 3 is a diagram for explaining a method for photographing a performance scene using the electronic keyboard instrument according to the present embodiment. FIG. 3A shows the imaging apparatus 20 for photographing a user who plays the electronic keyboard instrument. An example of installation is shown, and FIG. 5B shows a captured image (moving image) displayed on the LCD of the display device 8 when a performance scene is photographed with the imaging device 20 installed in FIG. ) 8a shows an example, FIG. 8C shows an example of the recording start instruction gesture, and FIG. 8D shows an example of the recording stop instruction gesture.

図3(a)に示すように撮像装置20を設置し、撮像装置20の電源スイッチ(図示せず)をオンして、動画像データが撮像装置20から本実施の形態の電子鍵盤楽器に常時供給される状態にした上で、ユーザが、たとえば前記設定操作子2に含まれる録画モード選択スイッチ(図示せず)を押すと、本実施の形態の電子鍵盤楽器は、その動作モードを録画モードに切り替えて、録画待機状態になる。そして、前記ジェスチャ認識部102は、供給されている動画像データに対して画像認識を行う。画像認識の対象となるジェスチャは、前記録画スタート指示用ジェスチャまたは前記録画ストップ指示用ジェスチャのいずれかであり、本実施の形態では、録画スタート指示用ジェスチャも録画ストップ指示用ジェスチャも、指揮動作(指揮ジェスチャ)を採用している。より具体的には、自動演奏させる自動演奏データが、たとえば4拍子の曲である場合、録画スタート指示用ジェスチャは、前記図3(c)に示すような、ユーザが自分の手で行った典型的な4拍子の指揮動作である。一方、録画ストップ指示用ジェスチャは、前記図3(d)に示すような、ユーザが自分の手で行った「止め」の指揮動作(指揮終了動作)である。   As shown in FIG. 3A, the imaging device 20 is installed, a power switch (not shown) of the imaging device 20 is turned on, and moving image data is always transferred from the imaging device 20 to the electronic keyboard instrument of the present embodiment. When the user presses a recording mode selection switch (not shown) included in the setting operator 2, for example, the electronic keyboard instrument according to the present embodiment changes its operation mode to the recording mode. To enter the recording standby state. The gesture recognition unit 102 performs image recognition on the moving image data supplied. The gesture for image recognition is either the recording start instruction gesture or the recording stop instruction gesture. In the present embodiment, the recording start instruction gesture and the recording stop instruction gesture are both directed. Adopting a command gesture). More specifically, when the automatic performance data to be automatically played is, for example, a music of 4 beats, the recording start instruction gesture is typically performed by the user with his / her hand as shown in FIG. This is a typical four-beat operation. On the other hand, the recording stop instruction gesture is a “stop” command operation (command end operation) performed by the user with his / her hand as shown in FIG.

ジェスチャ認識部102は、当該動画像データ内に録画スタート指示用ジェスチャが含まれていることを認識すると、現在の動作が図3(c)中“1”から“4”のいずれの位置にあるかを判別し、2回目の“1”の位置にあると判別されたときに、前記録画スタートコマンドを生成して前記動画記録部103、オーディオ記録部108およびMIDI記録部109に出力する。これに応じて、動画記録部103は、撮像部101から供給された動画像データの録画を開始し、オーディオ記録部108は、前記楽音生成部107から供給された楽音信号の記録を開始し、MIDI記録部109は、前記演奏操作子106から供給されたMIDIメッセージの記録を開始する。   When the gesture recognizing unit 102 recognizes that the recording start instruction gesture is included in the moving image data, the current operation is in any position from “1” to “4” in FIG. When it is determined that the current position is “1” for the second time, the recording start command is generated and output to the moving image recording unit 103, the audio recording unit 108, and the MIDI recording unit 109. In response to this, the moving image recording unit 103 starts recording the moving image data supplied from the imaging unit 101, the audio recording unit 108 starts recording the musical sound signal supplied from the musical sound generating unit 107, The MIDI recording unit 109 starts recording the MIDI message supplied from the performance operator 106.

また、ジェスチャ認識部102は、録画スタート指示用ジェスチャを認識したときに、その録画スタート指示用ジェスチャ内の一部ジェスチャである、前記テンポ設定指示用ジェスチャを認識すると、そのジェスチャからテンポ値を算出し、算出したテンポ値を設定させるためのテンポ設定コマンドを前記自動演奏部105に出力する。ここで、テンポを1分間当たりの拍数(BPM)で定義し、録画スタート指示用ジェスチャとして、図3(c)の4拍子の指揮動作を採用し、テンポ設定指示用ジェスチャとして、1拍に相当する指揮動作、つまり、ユーザが指揮を開始するために構えた位置(“4”の位置)から“1”の位置まで手を振り下ろす動作を採用した場合、テンポ値は、次のようにして算出される。すなわち、
(a)ユーザが1拍に相当する指揮動作(テンポ設定指示用ジェスチャ)を行ったときに経過した時間(秒)を測定
(b)60秒を上記(a)の測定時間によって除算
によって算出される。もちろん、テンポ値の算出方法はこれに限られる訳ではなく、たとえば、テンポ設定指示用ジェスチャとして、4拍に相当する指揮動作、つまり、ユーザが指揮を開始するために構えた位置(“4”の位置)から1−2−3の各位置を経由して元の位置(“4”の位置)まで手を振る動作を採用し、
(a′)ユーザが4拍に相当する指揮動作を行ったときに経過した時間(秒)を測定
(b′)60秒を上記(a′)の測定時間の4分の1(=1拍当たりの経過時間)によって除算
によって算出するようにしてもよい。
When the gesture recognition unit 102 recognizes the recording start instruction gesture and recognizes the tempo setting instruction gesture, which is a partial gesture in the recording start instruction gesture, the gesture recognition unit 102 calculates a tempo value from the gesture. Then, a tempo setting command for setting the calculated tempo value is output to the automatic performance unit 105. Here, the tempo is defined as the number of beats per minute (BPM), the 4-beat command operation of FIG. 3C is adopted as the recording start instruction gesture, and the tempo setting instruction gesture is set to one beat. If the equivalent commanding action, that is, the action of shaking the hand down from the position ("4" position) that the user holds to start commanding to the "1" position, is adopted, the tempo value is as follows: Is calculated. That is,
(A) Measure the time (seconds) that elapsed when the user performed a command action equivalent to one beat (tempo setting instruction gesture). (B) Calculate 60 seconds by dividing by the measurement time of (a) above. The Of course, the method of calculating the tempo value is not limited to this. For example, as a tempo setting instruction gesture, a command action corresponding to 4 beats, that is, a position (“4”) prepared for the user to start commanding. ) From the position (1) to the original position (position "4") through each position 1-2-3,
(A ′) The time (seconds) elapsed when the user performs a command action corresponding to 4 beats (b ′) 60 seconds is a quarter of the measurement time of (a ′) (= 1 beat) (Elapsed time per hit) may be calculated by division.

自動演奏部105は、ジェスチャ認識部102からテンポ設定コマンドを受信すると、自動演奏を行う際に用いるテンポ値を、このテンポ設定コマンドによって指定されるテンポ値に設定する。   When the automatic performance unit 105 receives the tempo setting command from the gesture recognition unit 102, the automatic performance unit 105 sets the tempo value used when performing the automatic performance to the tempo value specified by the tempo setting command.

一方、動画記録部103が動画像データを録画している(このときには当然、オーディオ記録部108も楽音信号を記録しており、MIDI記録部109もMIDIメッセージを記録している)状態で、ジェスチャ認識部102が、当該動画像データ内に録画ストップ指示用ジェスチャが含まれていることを認識すると、ジェスチャ認識部102は、動画記録部103、オーディオ記録部108およびMIDI記録部109に対して前記録画ストップコマンドを出力する。これに応じて、動画記録部103は動画像データの録画を停止し、オーディオ記録部108は楽音信号の記録を停止し、MIDI記録部109はMIDIメッセージの記録を停止する。   On the other hand, in a state where the moving image recording unit 103 is recording moving image data (in this case, of course, the audio recording unit 108 is also recording a musical sound signal and the MIDI recording unit 109 is also recording a MIDI message), the gesture is performed. When the recognizing unit 102 recognizes that the recording stop instruction gesture is included in the moving image data, the gesture recognizing unit 102 notifies the moving image recording unit 103, the audio recording unit 108, and the MIDI recording unit 109. Output a recording stop command. In response to this, the moving picture recording unit 103 stops the recording of the moving image data, the audio recording unit 108 stops the recording of the musical tone signal, and the MIDI recording unit 109 stops the recording of the MIDI message.

このようにして、本実施の形態の電子鍵盤楽器では、ユーザが撮像装置20に向かって所定のジェスチャを行うだけで、演奏風景の録画を開始あるいは停止させることができるので、演奏風景の録画を開始あるいは停止させるためにボタンを操作する動作のような、演奏風景とは無関係な格好の悪い映像が録画されることを防止できる。   As described above, in the electronic keyboard instrument of the present embodiment, the recording of the performance scenery can be started or stopped only by the user performing a predetermined gesture toward the imaging device 20, so that the recording of the performance scenery can be performed. It is possible to prevent an unfavorable video unrelated to the performance scene, such as an operation of operating a button to start or stop, from being recorded.

また、ジェスチャに基づいてテンポ設定も行うことができるので、予めテンポを設定しておくことなく、録画開始時にテンポ設定を行うことができる。   Further, since the tempo can be set based on the gesture, the tempo can be set at the start of recording without setting the tempo in advance.

次に、この制御処理を詳細に説明する。   Next, this control process will be described in detail.

図4は、本実施の形態の電子鍵盤楽器、特にCPU5が実行する録画処理の手順を示すフローチャートであり、本録画処理は、たとえば、ユーザが前記録画モード選択スイッチを押したときに、起動される。   FIG. 4 is a flowchart showing the procedure of the recording process executed by the electronic keyboard instrument of the present embodiment, particularly the CPU 5, and this recording process is started when the user presses the recording mode selection switch, for example. The

本録画処理は、主として
(1)録画待機状態設定処理(ステップS1)
(2)自動演奏データ選択処理(ステップS2)
(3)録画スタートコマンド生成処理(ステップS4)
(4)テンポ設定コマンド生成処理(ステップS6)
(5)自動演奏スタートコマンド生成処理(ステップS8)
(6)演奏情報生成処理(ステップS10)
(7)自動演奏ストップコマンド生成処理(ステップS12)
(8)録画ストップコマンド生成処理(ステップS14)
(9)録画の終了処理(ステップS15)
によって構成されている。
This video recording process mainly includes (1) video recording standby state setting process (step S1).
(2) Automatic performance data selection process (step S2)
(3) Recording start command generation process (step S4)
(4) Tempo setting command generation processing (step S6)
(5) Automatic performance start command generation process (step S8)
(6) Performance information generation process (step S10)
(7) Automatic performance stop command generation process (step S12)
(8) Recording stop command generation process (step S14)
(9) Recording end processing (step S15)
It is constituted by.

本録画処理が起動されると、まずCPU5は、処理を前記(1)の録画待機状態設定処理に進め、前記動画記録部103、オーディオ記録部108およびMIDI記録部109が録画スタートコマンドを受信すると直ちに、動画記録部103は動画像データを録画でき、オーディオ記録部108は楽音信号を記録でき、MIDI記録部109はMIDIメッセージを記録できる状態(録画待機状態)に設定する。なお、この(1)録画待機状態設定処理が実行されるときには、撮像装置20は既に前記通信I/F10を介して本実施の形態の電子鍵盤楽器と接続されており、撮像装置20の電源はオン状態であることを前提としている。つまり、ここでの「録画待機状態」とは、本実施の形態の電子鍵盤楽器(の、特に動画記録部103、オーディオ記録部108およびMIDI記録部109)に対するものであって、撮像装置20に対するものではない。ただし撮像装置20が、本実施の形態の電子鍵盤楽器側から録画待機状態(たとえば、電源をオンして、動画像データを出力する状態)に制御可能に構成されている場合には、撮像装置20を録画待機状態に設定する処理も、この(1)録画待機状態設定処理内で行うようにすればよい。また本実施の形態では、動画記録部103における録画とオーディオ記録部108およびMIDI記録部109における各記録は、同時に開始して同時に終了し、さらに「録画」には通常、音声を記録することも含まれ、さらに本実施の形態では、MIDIメッセージも記録されるので、以下、「録画」には、動画記録部103における動画像データの録画だけでなく、オーディオ記録部108における楽音信号の記録や、MIDI記録部109におけるMIDIメッセージの記録も含まれることとする。   When the main recording process is started, the CPU 5 first advances the process to the recording standby state setting process (1), and when the moving picture recording unit 103, the audio recording unit 108, and the MIDI recording unit 109 receive a recording start command. Immediately, the moving image recording unit 103 can record moving image data, the audio recording unit 108 can record a musical sound signal, and the MIDI recording unit 109 is set to a state in which a MIDI message can be recorded (recording standby state). When this (1) recording standby state setting process is executed, the imaging device 20 is already connected to the electronic keyboard instrument of the present embodiment via the communication I / F 10, and the power source of the imaging device 20 is It is assumed that it is on. In other words, the “recording standby state” here refers to the electronic keyboard instrument (particularly, the moving picture recording unit 103, the audio recording unit 108, and the MIDI recording unit 109) of the present embodiment. It is not a thing. However, when the imaging device 20 is configured to be controllable to a recording standby state (for example, a state in which the power is turned on and moving image data is output) from the electronic keyboard instrument side of the present embodiment, the imaging device The process of setting 20 to the recording standby state may also be performed within this (1) recording standby state setting process. In the present embodiment, the recording in the moving picture recording unit 103 and the recordings in the audio recording unit 108 and the MIDI recording unit 109 are started at the same time and ended at the same time. In addition, since a MIDI message is also recorded in the present embodiment, hereinafter, “recording” includes not only recording of moving image data in the moving image recording unit 103 but also recording of musical sound signals in the audio recording unit 108. In addition, recording of a MIDI message in the MIDI recording unit 109 is also included.

次にCPU5は、処理を前記(2)の自動演奏データ選択処理に進める。前述のように、自動演奏部105が自動演奏可能な自動演奏データは、記憶装置9内に複数記憶されており、自動演奏データ記憶部104には、その中からユーザによって選択された1つの自動演奏データが記憶される。この(2)自動演奏データ選択処理では、CPU5は、前記表示装置8上に、記憶装置9に記憶されている複数の自動演奏データ(の名称)の一覧を表示させ、その一覧からユーザによって選択された自動演奏データを読み出して、自動演奏データ記憶部104に格納する。   Next, the CPU 5 advances the process to the automatic performance data selection process (2). As described above, a plurality of pieces of automatic performance data that can be automatically played by the automatic performance unit 105 are stored in the storage device 9, and the automatic performance data storage unit 104 stores one automatic performance data selected by the user. Performance data is stored. In this (2) automatic performance data selection processing, the CPU 5 displays a list of a plurality of automatic performance data (names) stored in the storage device 9 on the display device 8, and is selected by the user from the list. The read automatic performance data is read out and stored in the automatic performance data storage unit 104.

次にCPU5は、撮像部101から供給されている動画像データ内に、録画スタート指示用ジェスチャが含まれているかどうかの画像認識を行い、録画スタート指示用ジェスチャが含まれているときには、現在の動作が録画スタートタイミングのものであるかどうかを判別する(ステップS3)。この処理は、前記ジェスチャ認識部102によって実行される処理の一部である。録画スタート指示用ジェスチャは、本実施の形態では、ユーザの手による指揮動作(指揮ジェスチャ)であり、前記(2)自動演奏データ選択処理で選択された自動演奏データが、たとえば4拍子の曲である場合には、前記図3(c)に示したような4拍子の曲に対する典型的な指揮動作(「構え」の静止位置から1−2−3を経由して「構え」の位置“4”に至る動作)である。そしてCPU5は、現在の動作が指揮を開始してから2回目の“1”に相当するかどうかを判別し、2回目の“1”に相当すると判別されたときには、つまり録画スタート指示タイミングであるときには、CPU5は、処理を前記(3)の録画スタートコマンド生成処理に進める。この(3)録画スタートコマンド生成処理では、CPU5は、録画スタートコマンドを生成して、動画記録部103、オーディオ記録部108およびMIDI記録部109に供給する。   Next, the CPU 5 performs image recognition as to whether or not the recording start instruction gesture is included in the moving image data supplied from the imaging unit 101, and when the recording start instruction gesture is included, It is determined whether or not the operation is at the recording start timing (step S3). This process is a part of the process executed by the gesture recognition unit 102. In the present embodiment, the recording start instruction gesture is a command operation (command gesture) by the user's hand, and the automatic performance data selected in the (2) automatic performance data selection process is, for example, a music of four beats. In some cases, a typical command action for a four-beat tune as shown in FIG. 3 (c) (from the rest position of the “stand” through the 1-2-3 via the position “4” of the “stand” Is an operation that leads to “ Then, the CPU 5 determines whether or not the current operation corresponds to “1” for the second time after starting the command, and when it is determined to correspond to “1” for the second time, that is, the recording start instruction timing. In some cases, the CPU 5 advances the process to the recording start command generation process (3). In this (3) recording start command generation process, the CPU 5 generates a recording start command and supplies it to the moving picture recording unit 103, the audio recording unit 108 and the MIDI recording unit 109.

このように本実施の形態では、録画スタート指示用ジェスチャとして、指揮ジェスチャを認識し、その所定タイミングで録画スタート指示を行うようにしたが、録画スタート指示用ジェスチャとしては、これに限らず、顔の表情(これも、本実施の形態ではジェスチャと見なすことにする)や首振り動作などの他のジェスチャを採用してもよい。顔の表情としては、瞬き(所定回数の瞬きで、録画スタート指示)、撮像装置20への注視(所定時間継続して注視したときに、録画スタート指示)、笑顔(笑顔になったときに、録画スタート指示)などを挙げることができ、首振り動作としては、横方向または縦方向への首振り(所定回数の首振りで、録画スタート指示)などを挙げることができる。   As described above, in this embodiment, the command gesture is recognized as the recording start instruction gesture, and the recording start instruction is performed at the predetermined timing. However, the recording start instruction gesture is not limited to this, but the face Other gestures such as a facial expression (also considered as a gesture in the present embodiment) and a swing motion may be adopted. As facial expressions, blinking (recording start instruction at a predetermined number of blinks), gaze on the imaging device 20 (recording start instruction when gazing continuously for a predetermined time), smile (when smiling) Recording start instruction) and the like, and the swing operation can include horizontal or vertical swing (recording start instruction with a predetermined number of swings).

次にCPU5は、前記ステップS3で認識した録画スタート指示用ジェスチャ内に、テンポ設定指示用ジェスチャが含まれているかどうかの画像認識を行う(ステップS5)。この処理も、前記ジェスチャ認識部102によって実行される処理の一部である。ステップS5で認識された録画スタート指示用ジェスチャが指揮ジェスチャである場合、テンポ設定指示用ジェスチャは、その指揮ジェスチャを構成する一部ジェスチャである。指揮ジェスチャが、たとえば前記図3(c)のジェスチャであるとすると、テンポ設定指示用ジェスチャは、前述したような、ユーザが手を「構え」の静止位置から“1”の位置まで振り下ろすジェスチャである。そして、テンポ設定指示用ジェスチャを認識すると、CPU5は、処理を前記(4)のテンポ設定コマンド生成処理に進める。この(4)テンポ設定コマンド生成処理では、CPU5は、認識したテンポ設定指示用ジェスチャに基づいてテンポ値を算出し、そのテンポ値を含むテンポ設定コマンドを生成して、前記自動演奏部105に供給する。なお、録画スタート指示用ジェスチャが前記首振り動作である場合には、テンポ設定指示用ジェスチャは、その録画スタート指示用ジェスチャと同じ首振り動作とし(この場合、録画スタート指示用ジェスチャを認識することが同時に、テンポ設定指示用ジェスチャを認識することになる)、CPU5は、その首振りの周期からテンポ値を検出して、テンポ設定コマンドを生成するようにすればよい。   Next, the CPU 5 performs image recognition as to whether or not the tempo setting instruction gesture is included in the recording start instruction gesture recognized in step S3 (step S5). This process is also a part of the process executed by the gesture recognition unit 102. When the recording start instruction gesture recognized in step S5 is a command gesture, the tempo setting instruction gesture is a partial gesture constituting the command gesture. If the command gesture is, for example, the gesture shown in FIG. 3C, the tempo setting instruction gesture is a gesture in which the user swings his / her hand down from the “stand” stationary position to the “1” position as described above. It is. When recognizing the tempo setting instruction gesture, the CPU 5 advances the process to the tempo setting command generation process (4). In this (4) tempo setting command generation process, the CPU 5 calculates a tempo value based on the recognized tempo setting instruction gesture, generates a tempo setting command including the tempo value, and supplies the tempo setting command to the automatic performance unit 105. To do. When the recording start instruction gesture is the swing operation, the tempo setting instruction gesture is the same as the recording start instruction gesture (in this case, the recording start instruction gesture is recognized). At the same time, the CPU 5 recognizes the tempo setting instruction gesture), and the CPU 5 may detect the tempo value from the swing cycle and generate a tempo setting command.

次にCPU5は、自動演奏のスタート指示がなされたかどうかチェックし(ステップS7)、自動演奏のスタート指示がなされたときには、処理を前記(5)の自動演奏スタートコマンド生成処理に進める。この(5)自動演奏スタートコマンド生成処理では、CPU5は、自動演奏スタートコマンドを生成して、自動演奏部105に供給する。これに応じて、自動演奏部105は、前記自動演奏データ記憶部104に記憶されている自動演奏データの自動演奏を開始する。ここで、自動演奏のスタート指示は、ユーザが、たとえば前記設定操作子2に含まれる自動演奏スタートスイッチ(図示せず)を押すことによってなされることを想定している。しかし本録画処理のフローチャートでは、自動演奏スタートスイッチを押すときには既に、動画記録部103による動画記録は開始されているので、ユーザが自動演奏スタートスイッチを押す動作も録画されることになる。この動作が演奏風景に含まれないようにするためには、前記(3)の録画スタートコマンド生成処理によって動画記録部103への録画開始が指示されてから所定時間経過後、自動的に自動演奏スタートコマンドが生成されるようにすればよい。   Next, the CPU 5 checks whether or not an automatic performance start instruction has been issued (step S7). If an automatic performance start instruction has been issued, the process proceeds to the automatic performance start command generation process (5). In this (5) automatic performance start command generation process, the CPU 5 generates an automatic performance start command and supplies it to the automatic performance unit 105. In response to this, the automatic performance section 105 starts automatic performance of the automatic performance data stored in the automatic performance data storage section 104. Here, it is assumed that the start instruction of the automatic performance is made by the user pressing an automatic performance start switch (not shown) included in the setting operator 2, for example. However, in the flowchart of this recording process, when the automatic performance start switch is pressed, the moving image recording by the moving image recording unit 103 has already been started, so that the operation of the user pressing the automatic performance start switch is also recorded. In order to prevent this operation from being included in the performance scene, the automatic performance is automatically performed after a predetermined time has elapsed since the start of recording to the moving image recording unit 103 was instructed by the recording start command generation process of (3). A start command may be generated.

そして、ユーザが前記演奏操作子1を用いて演奏操作を行うと、CPU5は、処理を前記(6)の演奏情報生成処理に進める(ステップS9→S10)。この(6)演奏情報生成処理では、CPU5は、その演奏操作に応じた演奏情報(本実施の形態では前述のように、MIDIメッセージ)を生成して、前記楽音生成部107およびMIDI記録部109に供給する。   When the user performs a performance operation using the performance operator 1, the CPU 5 advances the process to the performance information generation process (6) (step S9 → S10). In this (6) performance information generation process, the CPU 5 generates performance information corresponding to the performance operation (in this embodiment, as described above, the MIDI message), and the musical tone generation unit 107 and the MIDI recording unit 109. To supply.

次にCPU5は、自動演奏のストップ指示がなされたかどうか、あるいは自動演奏が進んで自動演奏データの末尾に達したかどうかをチェックし(ステップS7)、自動演奏のストップ指示がなされたか、あるいは自動演奏データの末尾に達したときには、処理を前記(7)の自動演奏ストップコマンド生成処理に進める。この(7)自動演奏ストップコマンド生成処理では、CPU5は、自動演奏ストップコマンドを生成して、自動演奏部105に供給する。これに応じて、自動演奏部105は自動演奏を終了する。ここで、自動演奏のストップ指示は、ユーザが、たとえば前記設定操作子2に含まれる自動演奏ストップスイッチ(図示せず)を押すことによってなされることを想定している。しかし、このときには録画は終了していないので、自動演奏ストップスイッチを押す動作も録画されることになる。この動作が演奏風景に含まれないようにするためには、後述する(8)の録画ストップコマンド生成処理によって動画記録部103(およびオーディオ記録部108)への録画終了が指示されるに際して、その指示前に自動演奏ストップコマンドを自動的に生成して自動演奏部105に出力し、それから所定時間経過後に、当該録画終了を指示するようにすればよい。なお、自動演奏データの末尾に達したときに、動画記録部103側で自動的に、自動演奏が終了するようになっていれば、CPU5は敢えて自動演奏ストップコマンドを生成する必要はない。   Next, the CPU 5 checks whether or not an automatic performance stop instruction has been given, or whether or not the automatic performance has progressed and reached the end of the automatic performance data (step S7), and whether or not the automatic performance stop instruction has been given or automatically When the end of the performance data is reached, the process proceeds to the automatic performance stop command generation process (7). In this (7) automatic performance stop command generation process, the CPU 5 generates an automatic performance stop command and supplies it to the automatic performance unit 105. In response to this, the automatic performance unit 105 ends the automatic performance. Here, it is assumed that the automatic performance stop instruction is given by, for example, the user pressing an automatic performance stop switch (not shown) included in the setting operator 2. However, since the recording is not finished at this time, the operation of pressing the automatic performance stop switch is also recorded. In order to prevent this operation from being included in the performance scenery, when the recording stop command generation processing in (8) described later is instructed to end the recording to the moving picture recording unit 103 (and the audio recording unit 108), An automatic performance stop command may be automatically generated and output to the automatic performance unit 105 prior to the instruction, and the end of the recording may be instructed after a predetermined time has elapsed. If the automatic performance is automatically terminated on the moving image recording unit 103 side when the end of the automatic performance data is reached, the CPU 5 does not need to generate an automatic performance stop command.

次にCPU5は、撮像部101から供給されている動画像データ内に、前記録画ストップ指示用ジェスチャが含まれているかどうかの画像認識を行う(ステップS13)。この処理は、前記ジェスチャ認識部102によって実行される処理の一部である。録画ストップ指示用ジェスチャは、本実施の形態では、ユーザの手による指揮の終了動作であり、前記図3(d)に示したような「止め」の動作である。なお、「止め」には、「置き止め」、「反動止め」、「叩き止め」などの各種技法があるが、録画ストップ指示用ジェスチャとして、いずれを採用してもよいことは言うまでもない。ステップS13の画像認識により、録画ストップ指示用ジェスチャが認識されたときには、CPU5は、処理を前記(8)の録画ストップコマンド生成処理に進める。この(8)録画ストップコマンド生成処理では、CPU5は、録画ストップコマンドを生成して、動画記録部103、オーディオ記録部108およびMIDI記録部109に供給する。ステップS13の判別処理ではさらに、ユーザが、たとえば前記設定操作子2に含まれる録画ストップスイッチ(図示せず)を押すことで録画のストップ指示がなされたかどうかも判別するようにしている。これは、録画を終了するときには、その終了指示動作(録画ストップスイッチを押す動作)が録画されても構わない、あるいは、録画の終了までもジェスチャによって指示するのは煩わしいというユーザを考慮してのものである。   Next, the CPU 5 performs image recognition as to whether or not the recording stop instruction gesture is included in the moving image data supplied from the imaging unit 101 (step S13). This process is a part of the process executed by the gesture recognition unit 102. In this embodiment, the recording stop instruction gesture is a command termination operation by the user's hand, and is a “stop” operation as shown in FIG. Note that “stop” includes various techniques such as “stop”, “rebound stop”, and “stop”, but it goes without saying that any of them may be adopted as a recording stop instruction gesture. When the recording stop instruction gesture is recognized by the image recognition in step S13, the CPU 5 advances the process to the recording stop command generation process (8). In this (8) recording stop command generation process, the CPU 5 generates a recording stop command and supplies it to the moving image recording unit 103, the audio recording unit 108, and the MIDI recording unit 109. In the determination processing in step S13, it is further determined whether or not the user has instructed to stop recording by pressing a recording stop switch (not shown) included in the setting operator 2, for example. This is because the end instruction operation (operation of pressing the recording stop switch) may be recorded when the recording is ended, or it is troublesome to give an instruction by the gesture until the end of the recording. Is.

続いてCPU5は、処理を前記(9)の録画の終了処理に進める。この(9)録画の終了処理では、CPU5は、録画モードを終了し、前記ファイル作成部110に指示することで、前記マルチメディアファイルを作成して前記ファイル記憶部111に記憶させる。   Subsequently, the CPU 5 advances the process to the recording end process (9). In this (9) recording end process, the CPU 5 ends the recording mode and instructs the file creation unit 110 to create the multimedia file and store it in the file storage unit 111.

なお、本実施の形態では、画像認識するジェスチャは、生成するコマンド毎に予め定められた1つのジェスチャとしたが、これに限らず、コマンド毎に複数のジェスチャを認識可能とし、コマンド毎に採用する1つのジェスチャをユーザが選択可能に構成してもよいし、コマンドとは無関係に複数のジェスチャを認識可能とし、どのジェスチャをどのコマンドに対応付けるかをユーザが選択可能に構成してもよい。さらに、ユーザのジェスチャの癖を学習させるようにしてもよい。   In this embodiment, the gesture for recognizing an image is a single gesture predetermined for each command to be generated. However, the present invention is not limited to this, and a plurality of gestures can be recognized for each command and adopted for each command. One gesture may be configured to be selectable by the user, or a plurality of gestures may be recognized regardless of a command, and a user may be configured to be able to select which gesture is associated with which command. Furthermore, you may make it learn a user's gesture habit.

また、本実施の形態では、テンポ設定指示用ジェスチャは、録画スタート指示用ジェスチャの一部あるいは全部としたが、これに限らず、録画スタート指示用ジェスチャとは独立したジェスチャを採用してもよい。   In this embodiment, the tempo setting instruction gesture is a part or all of the recording start instruction gesture. However, the present invention is not limited to this, and a gesture independent of the recording start instruction gesture may be employed. .

また、ジェスチャからテンポを検出する構成は、必須のものではない。なぜなら、一般的に自動演奏データにはテンポデータが設定されており、このテンポデータのテンポに従って自動演奏を行うだけでも問題がないからである。なお、ジェスチャからテンポを検出する構成を備えるようにした場合には、検出したテンポを採用して自動演奏を行うか、あるいは自動演奏データ内に既に設定されているテンポデータのテンポに従って自動演奏を行うかを、ユーザが予め選択できるようにしておいた方が好ましい。   In addition, the configuration for detecting the tempo from the gesture is not essential. This is because tempo data is generally set in the automatic performance data, and there is no problem even if the automatic performance is simply performed according to the tempo of the tempo data. If the tempo is detected from the gesture, an automatic performance is performed using the detected tempo, or an automatic performance is performed according to the tempo of the tempo data already set in the automatic performance data. It is preferable for the user to be able to select in advance whether to do this.

さらに、本実施の形態では、認識されたジェスチャは、動画記録部103、オーディオ記録部108、MIDI記録部109および自動演奏部105を制御するコマンドを生成するために使用したが、これに限らず、撮像装置20を制御するコマンドを生成するために使用してもよい。たとえば、ユーザが手あるいは目(視線)で上下左右を指示すると、指示した方向に撮像装置20の撮影方向を向かわせるような制御コマンドを生成するようにしたり、首振りの角度の大きさに応じてズームの倍率を変更するような制御コマンドを生成するようにしたりすることが考えられる。   Further, in the present embodiment, the recognized gesture is used to generate a command for controlling the moving image recording unit 103, the audio recording unit 108, the MIDI recording unit 109, and the automatic performance unit 105. However, the present invention is not limited to this. It may be used to generate a command for controlling the imaging device 20. For example, when the user designates up, down, left, and right with hands or eyes (line of sight), a control command that directs the photographing direction of the imaging device 20 in the designated direction is generated, or according to the swing angle. It is possible to generate a control command that changes the zoom magnification.

また、本実施の形態では、ユーザが演奏操作子1を用いて演奏するときには常に、自動演奏データによる自動演奏を行うようにしたが、自身の演奏にバック演奏を必要としないユーザもいるので、自動演奏を行うかどうかユーザに選択させる機能を設けた方が好ましい。特に、自動演奏のスタート指示が自動的になされる場合には、この選択機能は有用である。   Further, in the present embodiment, whenever a user performs using the performance operator 1, automatic performance is performed using automatic performance data. However, some users do not need back performance for their own performance. It is preferable to provide a function that allows the user to select whether or not to perform automatic performance. This selection function is particularly useful when an automatic performance start instruction is automatically issued.

なお、上述した実施の形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。   A program in which a storage medium storing software program codes for realizing the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus is stored in the storage medium. It goes without saying that the object of the present invention can also be achieved by reading and executing the code.

この場合、記憶媒体から読出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードおよび該プログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the program code and the storage medium storing the program code constitute the present invention.

プログラムコードを供給するための記憶媒体としては、たとえば、フレキシブルディスク、ハードディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。また、通信ネットワークを介してサーバコンピュータからプログラムコードが供給されるようにしてもよい。   As a storage medium for supplying the program code, for example, a flexible disk, hard disk, magneto-optical disk, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD + RW, magnetic A tape, a non-volatile memory card, a ROM, or the like can be used. Further, the program code may be supplied from a server computer via a communication network.

また、コンピュータが読出したプログラムコードを実行することにより、上述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOSなどが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also the OS running on the computer based on the instruction of the program code performs the actual processing. It goes without saying that a case where the functions of the above-described embodiment are realized by performing part or all of the above and the processing thereof is included.

さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

本発明の一実施の形態に係る電子音楽装置を適用した電子鍵盤楽器の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the electronic keyboard instrument to which the electronic music apparatus which concerns on one embodiment of this invention is applied. 図1の電子鍵盤楽器の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the electronic keyboard instrument of FIG. 図1の電子鍵盤楽器による演奏風景の撮影方法を説明するための図である。It is a figure for demonstrating the imaging | photography method of the performance scenery with the electronic keyboard instrument of FIG. 図1の電子鍵盤楽器、特にCPUが実行する録画処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the video recording process which the electronic keyboard instrument of FIG. 1, especially CPU performs.

符号の説明Explanation of symbols

1…演奏操作子,5…CPU(供給手段、生成手段、認識手段、録画・記録手段、制御手段、自動演奏手段、設定手段),7…RAM(生成手段、認識手段、録画・記録手段、制御手段、自動演奏手段、設定手段),10…通信I/F(供給手段),11…音源・効果回路(生成手段) DESCRIPTION OF SYMBOLS 1 ... Performance operator, 5 ... CPU (supply means, production | generation means, recognition means, recording / recording means, control means, automatic performance means, setting means), 7 ... RAM (generation means, recognition means, recording / recording means, Control means, automatic performance means, setting means), 10 ... communication I / F (supply means), 11 ... sound source / effect circuit (generation means)

Claims (2)

ユーザを含む情景を撮影して得られた動画像データを供給する供給手段と、
演奏情報を発生する演奏操作子と、
ユーザが前記演奏操作子を操作することによって発生された演奏情報に基づいて楽音信号を生成する生成手段と、
前記供給手段によって供給された動画像データからユーザの所定のジェスチャを認識する認識手段と、
前記供給された動画像データを録画するとともに、前記生成手段によって生成された楽音信号および/または前記発生された演奏情報を記録する録画・記録手段と、
前記認識手段によって認識されたジェスチャに基づいて、前記録画・記録手段の録画・記録の状態を制御する制御手段と
を有することを特徴とする電子音楽装置。
Supply means for supplying moving image data obtained by photographing a scene including a user;
A performance controller for generating performance information;
Generating means for generating a musical sound signal based on performance information generated by a user operating the performance operator;
Recognition means for recognizing a user's predetermined gesture from the moving image data supplied by the supply means;
Recording / recording means for recording the supplied moving image data and recording the musical sound signal generated by the generating means and / or the generated performance information;
An electronic music apparatus comprising: control means for controlling a recording / recording state of the recording / recording means based on a gesture recognized by the recognition means.
自動演奏データに基づいて自動演奏を行う自動演奏手段と、
前記認識されたジェスチャに基づいて、前記自動演奏のテンポを設定する設定手段と
をさらに有し、
前記生成手段は、前記自動演奏手段による自動演奏に基づいても楽音信号を生成することを特徴とする請求項1に記載の電子音楽装置。
Automatic performance means for performing automatic performance based on automatic performance data;
Setting means for setting a tempo of the automatic performance based on the recognized gesture;
The electronic music apparatus according to claim 1, wherein the generation unit generates a musical sound signal even based on an automatic performance by the automatic performance unit.
JP2008170534A 2008-06-30 2008-06-30 Electronic music device Pending JP2010008893A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008170534A JP2010008893A (en) 2008-06-30 2008-06-30 Electronic music device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008170534A JP2010008893A (en) 2008-06-30 2008-06-30 Electronic music device

Publications (1)

Publication Number Publication Date
JP2010008893A true JP2010008893A (en) 2010-01-14

Family

ID=41589444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008170534A Pending JP2010008893A (en) 2008-06-30 2008-06-30 Electronic music device

Country Status (1)

Country Link
JP (1) JP2010008893A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014189005A1 (en) * 2013-05-23 2014-11-27 ヤマハ株式会社 Musical-performance recording system, musical-performance recording method, and musical instrument
JP2017207615A (en) * 2016-05-18 2017-11-24 ヤマハ株式会社 Automatic playing system and automatic playing method
JP2020129146A (en) * 2016-05-18 2020-08-27 ヤマハ株式会社 Automatic performance system and automatic performance method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014189005A1 (en) * 2013-05-23 2014-11-27 ヤマハ株式会社 Musical-performance recording system, musical-performance recording method, and musical instrument
US9472176B2 (en) 2013-05-23 2016-10-18 Yamaha Corporation Performance recording system, performance recording method, and musical instrument
EP3001410A4 (en) * 2013-05-23 2016-11-30 Yamaha Corp Musical-performance recording system, musical-performance recording method, and musical instrument
JP2017207615A (en) * 2016-05-18 2017-11-24 ヤマハ株式会社 Automatic playing system and automatic playing method
JP2020129146A (en) * 2016-05-18 2020-08-27 ヤマハ株式会社 Automatic performance system and automatic performance method

Similar Documents

Publication Publication Date Title
US9691429B2 (en) Systems and methods for creating music videos synchronized with an audio track
JP5103980B2 (en) Processing system, audio reproducing apparatus, and program
US20170236551A1 (en) Systems and methods for creating composite videos
JP2013171070A (en) Music information processing apparatus and music information processing method
JP4596966B2 (en) Electronic musical instruments
JP2004233698A (en) Device, server and method to support music, and program
JP2010008893A (en) Electronic music device
JP2007188561A (en) Automatic generation device for slide show with music, and program
JP4483936B2 (en) Music / video playback device
JP2008139450A (en) Automatic accompaniment generator and program for achieving automatic accompaniment generating method
WO2014203870A1 (en) Musical performance system, musical performance method and musical performance program
JP2005274851A (en) Electronic music system and computer program applied to the same system
JP2020109918A (en) Video control system and video control method
JP5109426B2 (en) Electronic musical instruments and programs
JP2007208459A (en) Apparatus and program for automatically generating slide show with music
JP6110731B2 (en) Command input recognition system by gesture
US8340508B2 (en) Record/playback apparatus and control method therefor
JP5338312B2 (en) Automatic performance synchronization device, automatic performance keyboard instrument and program
JP2010054686A (en) Electronic musical device
JP2010054856A (en) Electronic musical instrument
JP4161714B2 (en) Karaoke equipment
JP2018112724A (en) Performance guide device, performance guide program and performance guide method
JP2008197501A (en) Electronic instrument and performance data utilization program
JP2017108198A (en) Musical score display system, moving image data supply device, musical score data supply device, image display device and musical score display program
JP2005258267A (en) Mobile terminal