JP5999689B2 - Performance system and program - Google Patents

Performance system and program Download PDF

Info

Publication number
JP5999689B2
JP5999689B2 JP2012096835A JP2012096835A JP5999689B2 JP 5999689 B2 JP5999689 B2 JP 5999689B2 JP 2012096835 A JP2012096835 A JP 2012096835A JP 2012096835 A JP2012096835 A JP 2012096835A JP 5999689 B2 JP5999689 B2 JP 5999689B2
Authority
JP
Japan
Prior art keywords
performance
image
unit
staff
note
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012096835A
Other languages
Japanese (ja)
Other versions
JP2013225016A (en
Inventor
哲晃 馬場
哲晃 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Metropolitan University
Original Assignee
Tokyo Metropolitan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Metropolitan University filed Critical Tokyo Metropolitan University
Priority to JP2012096835A priority Critical patent/JP5999689B2/en
Publication of JP2013225016A publication Critical patent/JP2013225016A/en
Application granted granted Critical
Publication of JP5999689B2 publication Critical patent/JP5999689B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/30Character recognition based on the type of data
    • G06V30/304Music notations

Description

本発明は、演奏システム及びプログラムに関し、より詳細には、描画された五線譜を利用して演奏を実行する演奏システム及びプログラムに関する。   The present invention relates to a performance system and a program, and more particularly to a performance system and a program for performing a performance using a drawn staff.

特開2008−123181号公報(特許文献1)は、楽譜の画像を解析して自動的にMIDIデータを生成する楽譜認識装置を開示する。ここで、特許文献1の楽譜認識装置は、外部MIDI機器との間でMIDIデータを送受信するためのインターフェースを備えているので、楽譜認識装置を外部MIDI機器に接続すれば、スキャンした楽譜に基づくMIDIデータをそのまま外部MIDI機器に出力して演奏させることができる。   Japanese Patent Laying-Open No. 2008-123181 (Patent Document 1) discloses a musical score recognition apparatus that analyzes a musical score image and automatically generates MIDI data. Here, since the score recognition apparatus of Patent Document 1 includes an interface for transmitting and receiving MIDI data to and from an external MIDI device, if the score recognition device is connected to the external MIDI device, it is based on the scanned score. MIDI data can be directly output to an external MIDI device for performance.

しかしながら、特許文献1の楽譜認識装置は、譜面または段落単位のバッチ処理(一括処理)によってMIDIデータを生成するものであり、楽譜認識装置が楽譜からMIDIデータを生成することと、外部MIDI機器が生成されたMIDIデータに基づいて演奏することは本質的には無関係である。   However, the score recognition device of Patent Document 1 generates MIDI data by batch processing (batch processing) in units of musical scores or paragraphs. The score recognition device generates MIDI data from a score, and the external MIDI device Performing based on the generated MIDI data is essentially irrelevant.

特開2008−123181号公報JP 2008-123181 A

本発明は、五線譜を利用して演奏を実行する新規な演奏システム及びプログラムを提供することを目的とする。   An object of this invention is to provide the novel performance system and program which perform a performance using a staff score.

本発明者は、これまで、単に、音楽の記述フォーマットとして利用されてきた五線譜について改めて検討を加えた結果、五線譜を利用した新しい演奏形態に想到し、本発明に至ったのである。   As a result of reexamining the music notation that has been used as a music description format, the present inventor has come up with a new performance form using the music notation, and has reached the present invention.

すなわち、本発明によれば、描画された五線譜を利用して演奏を実行する演奏システムであって、撮影手段を搭載する演奏用デバイスと、前記撮影手段が撮影した五線譜の画像を解析する画像解析部と、前記画像解析部の解析結果に基づいて前記五線譜上に描画された音符が表す音の音高を決定する音高決定部と、決定された前記音高に基づいて発音データを生成する発音データ生成部と、前記発音データに基づいて音声信号を出力する発音制御部と、前記画像解析部の解析結果に基づいて演奏用GUIを生成し、該演奏用GUIを介して演奏操作を受け付ける演奏用GUI部とを含み、前記演奏用GUI部は、前記五線譜を表す背景画像の上にY軸方向に伸びる発音ラインを重畳表示する演奏用GUIを生成し、前記発音データ生成部は、前記発音ラインが前記五線譜上の前記音符の画像の上に重畳されている間、前記発音データを発音制御部に対して出力する演奏システムが提供される。   That is, according to the present invention, a performance system for performing a performance using a drawn staff score, a performance device equipped with a photographing means, and an image analysis for analyzing an image of the staff score photographed by the photographing means A pitch determining unit that determines a pitch of a sound represented by a note drawn on the staff based on an analysis result of the image analysis unit, and generates pronunciation data based on the determined pitch A sound generation data generation unit, a sound generation control unit that outputs a sound signal based on the sound generation data, a performance GUI is generated based on the analysis result of the image analysis unit, and a performance operation is received via the performance GUI A performance GUI unit, and the performance GUI unit generates a performance GUI that superimposes and displays a sound line extending in the Y-axis direction on a background image representing the staff. The sound generation data generation unit includes: While serial sound line is superimposed on the note of the image on the musical staff, performance system for outputting the sound data to the sound control unit is provided.

上述したように、本発明によれば、五線譜を利用して演奏を実行する新規な演奏システムが提供される。本発明の演奏システムによれば、音楽初学者に向けた簡易な印刷楽譜を再生することができるので、これまで数多く出版されてきた楽譜教材を利用したインタラクティブな音楽学習体験をユーザに提供することができる。   As described above, according to the present invention, a novel performance system for performing a performance using a staff is provided. According to the performance system of the present invention, a simple printed score for music beginners can be reproduced, so that an interactive music learning experience using a number of score materials published so far can be provided to the user. Can do.

本実施形態の演奏システムの機能ブロック図。The functional block diagram of the performance system of this embodiment. 本実施形態の演奏システムの実装形態を示す図。The figure which shows the implementation form of the performance system of this embodiment. 紙面に鉛筆で描画された五線譜を示す図。The figure which shows the staff score drawn with the pencil on paper. 本実施形態における演奏用デバイスを示す図。The figure which shows the device for performance in this embodiment. リアルタイム演奏処理を示すフローチャート。The flowchart which shows a real-time performance process. 画像解析処理を示すフローチャート。The flowchart which shows an image analysis process. 画像解析処理を説明するための概念図。The conceptual diagram for demonstrating an image analysis process. 画像解析処理を説明するための概念図。The conceptual diagram for demonstrating an image analysis process. 演奏用GUI画面を説明するための概念図。The conceptual diagram for demonstrating the GUI screen for performance. 音量を決定する処理を説明するための概念図。The conceptual diagram for demonstrating the process which determines a sound volume. エフェクトを加える処理を説明するための概念図。The conceptual diagram for demonstrating the process which adds an effect. 音声設定処理を説明するための概念図。The conceptual diagram for demonstrating an audio | voice setting process.

以下、本発明を図面に示した実施の形態をもって説明するが、本発明は、図面に示した実施の形態に限定されるものではない。なお、以下に参照する各図においては、共通する要素について同じ符号を用い、適宜、その説明を省略するものとする。   Hereinafter, the present invention will be described with reference to embodiments shown in the drawings, but the present invention is not limited to the embodiments shown in the drawings. In the drawings referred to below, the same reference numerals are used for common elements, and the description thereof is omitted as appropriate.

図1は、本発明の実施形態である演奏システム1000の機能ブロック図を示す。本実施形態の演奏システム1000は、演奏用デバイス100と、演奏用デバイス100からの入力に基づいて所定の情報処理を実行する情報処理装置200と、情報処理装置200から出力される音声信号を音波に変換する発音手段300と、情報処理装置200から出力される画像データを表示する表示装置400を含んで構成されている。   FIG. 1 shows a functional block diagram of a performance system 1000 according to an embodiment of the present invention. The performance system 1000 of the present embodiment includes a performance device 100, an information processing apparatus 200 that executes predetermined information processing based on input from the performance device 100, and a sound signal output from the information processing apparatus 200 as a sound wave. And a display device 400 that displays image data output from the information processing device 200.

本実施形態における演奏用デバイス100は、撮影手段110と、モード切替スイッチ120を含んで構成されている。撮影手段110は、CCDイメージセンサやCMOSイメージセンサを搭載したデジタルカメラとして構成することができ、演奏用デバイス100は、撮影手段110によって撮影された画像およびモード切替スイッチ120のスイッチ信号を情報処理装置200に送信する。   The performance device 100 according to the present embodiment is configured to include a photographing unit 110 and a mode switch 120. The photographing means 110 can be configured as a digital camera equipped with a CCD image sensor or a CMOS image sensor, and the performance device 100 receives an image photographed by the photographing means 110 and a switch signal of the mode change switch 120 as an information processing device. 200.

情報処理装置200は、CPU、RAM、ROM、およびハードディスクやフラッシュメモリなどの外部記憶装置、ならびにネットワーク・インターフェースや無線インターフェースなどの適切な通信インターフェースを含んで構成されるコンピュータ装置であって、WINDOWS(登録商標)、UNIX(登録商標)、LINUX(登録商標)などといった適切なオペレーション・システム(OS)の管理下で、C、C++、VisualC++、VisualBasic、Java(登録商標)などのオブジェクト指向のプログラミング言語により記述された所定のアプリケーション・プログラムを実行することによって、画像解析部211、OCR部212、音高決定部214、音量決定部216、エフェクト部218、演奏用GUI部220、音色設定部224、発音データ生成部226、発音制御部228、モード切替部230として機能する。   The information processing device 200 is a computer device including a CPU, a RAM, a ROM, an external storage device such as a hard disk and a flash memory, and an appropriate communication interface such as a network interface and a wireless interface. Object-oriented programming languages such as C, C ++, Visual C ++, Visual Basic, Java (registered trademark) under the control of an appropriate operating system (OS) such as registered trademark (registered trademark), UNIX (registered trademark), LINUX (registered trademark) By executing a predetermined application program described by the above, an image analysis unit 211, an OCR unit 212, a pitch determination unit 214, a volume determination unit 216, an effect unit 218, a performance GU Part 220, tone color setting section 224, sound data generation unit 226, the sound generation control unit 228, which functions as a mode switching unit 230.

画像解析部211およびOCR部212は、演奏用デバイス100から画像入力I/F210を介して入力される画像に基づいて所定の画像解析処理を実行する。音高決定部214、音量決定部216、エフェクト部218、および演奏用GUI部220の各々は、画像解析部211の解析結果に基づいて以下の処理を実行する。   The image analysis unit 211 and the OCR unit 212 execute predetermined image analysis processing based on an image input from the performance device 100 via the image input I / F 210. Each of the pitch determination unit 214, the sound volume determination unit 216, the effect unit 218, and the performance GUI unit 220 executes the following processing based on the analysis result of the image analysis unit 211.

すなわち、音高決定部214は、五線譜に記述された音符が表す音の音高を決定し、音量決定部216は、音符が表す音の音量を決定する。エフェクト部218は、音符が表す音に所定のエフェクトを加え、演奏用GUI部220は、演奏操作を受け付けるための演奏用GUIを生成し、表示装置400に表示する。   In other words, the pitch determination unit 214 determines the pitch of the sound represented by the notes described in the staff, and the volume determination unit 216 determines the volume of the sound represented by the notes. The effect unit 218 adds a predetermined effect to the sound represented by the note, and the performance GUI unit 220 generates a performance GUI for accepting a performance operation and displays the performance GUI on the display device 400.

発音データ生成部226は、音高決定部214が決定した音高に基づいて、MIDIデータとして参照される発音データを生成するための機能部であり、演奏用GUI画面を介したユーザからの操作入力に応答して生成した発音データを発音制御部228に出力する。   The sound generation data generation unit 226 is a functional unit for generating sound generation data referred to as MIDI data based on the pitch determined by the pitch determination unit 214, and is operated by the user via the performance GUI screen. The sound generation data generated in response to the input is output to the sound generation control unit 228.

発音制御部228は、発音データ生成部226から入力された発音データを、音量決定部216が決定した音量およびエフェクト部218によって加えられる所定のエフェクトを反映させたWAVなどの音声信号に変換し、スピーカー装置として参照される発音手段300に出力する。   The sound generation control unit 228 converts the sound generation data input from the sound generation data generation unit 226 into an audio signal such as WAV reflecting the sound volume determined by the sound volume determination unit 216 and a predetermined effect applied by the effect unit 218, The sound is output to the sound generation means 300 referred to as a speaker device.

ここで、図1に示した演奏用デバイス100、情報処理装置200、発音手段300および表示装置400の各構成は、それぞれが物理的に分離した存在であってもよく、適切な組み合わせで一体化されていてもよい。例えば、情報処理装置200、発音手段300および表示装置400の各機能を一つの装置(例えば、デスクトップPC、ノートPC、スマートフォン、タブレット型端末、PDAなど)に集約してもよいし、演奏用デバイス100、情報処理装置200、発音手段300および表示装置400の全ての機能を1つの筐体内に集約してもよい。1つの筐体内に集約した場合、演奏システム1000は、演奏装置として参照することができる。なお、物理的に分離した各構成間は、有線・無線の方式を問わず、ローカル接続や、インターネットやLANなどのネットワークを介して接続することもできる。   Here, the components of the performance device 100, the information processing device 200, the sound generation means 300, and the display device 400 shown in FIG. 1 may be physically separated from each other, and are integrated in an appropriate combination. May be. For example, the functions of the information processing device 200, the sound generation means 300, and the display device 400 may be integrated into one device (for example, a desktop PC, a notebook PC, a smartphone, a tablet terminal, a PDA, etc.), or a performance device 100, the information processing device 200, the sound generation means 300, and the display device 400 may all be integrated into one housing. When collected in one housing, the performance system 1000 can be referred to as a performance device. Note that the physically separated components can be connected via a local connection or a network such as the Internet or a LAN regardless of a wired or wireless system.

さらに、本実施形態における表示装置400は、画像を表示可能な手段であればどのようなものであってもよく、演奏システム1000の実装形態に応じて、デスクトップ型ディスプレイ装置、ヘッドマウントディスプレイ、プロジェクター装置、小型液晶パネルなどの適切な手段を採用することができる。   Furthermore, the display device 400 according to the present embodiment may be any device that can display an image. Depending on the implementation of the performance system 1000, a desktop display device, a head-mounted display, a projector Appropriate means such as an apparatus and a small liquid crystal panel can be employed.

以上、本実施形態の演奏システム1000の基本構成について説明してきたが、続いて、より具体的な実装形態に基づいて演奏システム1000を説明する。なお、以降の説明においては、適宜、図1を参照するものとする。   The basic configuration of the performance system 1000 according to this embodiment has been described above. Next, the performance system 1000 will be described based on a more specific mounting form. In the following description, FIG. 1 will be referred to as appropriate.

図2は、演奏システム1000の実装形態を例示する。図2に例示する演奏システム1000は、ユーザがペンのごとく握って操作する演奏用デバイス100と出力装置500を含んで構成されている。ここで、出力装置500は、先に説明した情報処理装置200、発音手段300および表示装置400の各機能を集約した装置として参照されたい。   FIG. 2 illustrates an implementation of the performance system 1000. A performance system 1000 illustrated in FIG. 2 includes a performance device 100 and an output device 500 that a user holds and operates like a pen. Here, the output device 500 should be referred to as a device in which the functions of the information processing device 200, the sound generation means 300, and the display device 400 described above are integrated.

演奏にあたり、ユーザは、まず、図2(a)に示すように、紙などの任意の媒体に対して手書きで五線譜を描画する。図3(a)は、紙面に鉛筆で描画された五線譜を示す。図3(a)に示すように、演奏システム1000を使用した即興演奏においては、五線の上に簡略化した音符(符頭のみからなる簡易音符)を記述することが前提となる。なぜなら、本実施形態における即興演奏においては、ユーザが音の長さ(音価)を動的に決めることを前提とするので、音符は音高のみを表せば足りるからである。そして、このような簡易音符を使用することによって、五線譜の認識処理に要するデータ量を低減できるので、五線譜の認識処理速度が向上し、リアルタイム性が向上する。   In performing the performance, the user first draws a musical score on an arbitrary medium such as paper as shown in FIG. FIG. 3A shows a staff notation drawn with a pencil on a paper surface. As shown in FIG. 3A, in the improvisational performance using the performance system 1000, it is assumed that a simplified note (simple note consisting only of note heads) is described on the staff. This is because, in the improvisational performance in the present embodiment, since it is assumed that the user dynamically determines the length (sound value) of the sound, it is sufficient that the note represents only the pitch. And by using such a simple note, the amount of data required for the staff score recognition process can be reduced, so that the staff score recognition processing speed is improved and the real-time performance is improved.

ユーザは、五線譜を書き終わると、演奏用デバイス100と出力装置500を起動し、図2(b)に示すように、演奏用デバイス100を紙面に当接させた状態で、五線譜をなぞるように左から右へと移動させる。このとき、ユーザは、出力装置500の表示画面に表示される演奏用GUI画面20を見ながら演奏用デバイス100を所望の速度で動かす。そして、演奏用デバイス100が五線譜に記譜された音符の上に到達すると、当該音符に対応する音が出力装置500の発音手段から発音される。   When the user finishes writing the staff, he activates the performance device 100 and the output device 500, and traces the staff in a state where the performance device 100 is in contact with the paper surface as shown in FIG. 2B. Move from left to right. At this time, the user moves the performance device 100 at a desired speed while viewing the performance GUI screen 20 displayed on the display screen of the output device 500. Then, when the performance device 100 reaches the top of the note recorded on the staff, a sound corresponding to the note is generated from the sound generation means of the output device 500.

図4は、図2に示した演奏用デバイス100の正面図、上面図、下面図、側面図および側面断面図を示す。図4に示すように、演奏用デバイス100は、円柱部132と、円柱部132の一端に接続される略半球状の読み取り部134を含んで構成されている。円柱部132の外周面には、モードを切り替えるための2つのトグルスイッチ122,123が配設されており、各トグルスイッチ122,123の押下によって、出力装置500がリアルタイム演奏モードおよび録音演奏モードにセットされ、トグルスイッチ124の押下によって録音内容がリセットされるように構成されている。   4 shows a front view, a top view, a bottom view, a side view, and a side cross-sectional view of the performance device 100 shown in FIG. As shown in FIG. 4, the performance device 100 includes a columnar part 132 and a substantially hemispherical reading unit 134 connected to one end of the columnar part 132. Two toggle switches 122 and 123 for switching modes are disposed on the outer peripheral surface of the cylindrical portion 132, and when the toggle switches 122 and 123 are pressed, the output device 500 is switched to the real-time performance mode and the recording performance mode. The recorded contents are reset when the toggle switch 124 is pressed.

略半球状の読み取り部134は中空状になっており、その外周には、ユーザに読み取り方向をガイドするべく、対向する2つの切り欠き部136,136が形成されている。ここで、2つの切り欠き部136,136は、CCDカメラ110のカメラ座標系のX軸方向に対向するように形成されており、ユーザは、五線譜の読み取りにあたり、図2(b)および図3(b)に示すように、切り欠き部136の幅方向に5本の描画線の全てが収まるように読み取り部134を紙面に当接し、その状態を維持しながら演奏用デバイス100をおおよそX軸方向になぞるように移動する。   The substantially hemispherical reading unit 134 has a hollow shape, and two notch portions 136 and 136 facing each other are formed on the outer periphery thereof so as to guide the reading direction to the user. Here, the two notches 136 and 136 are formed so as to face each other in the X-axis direction of the camera coordinate system of the CCD camera 110, and the user reads the staff notation in FIGS. 2B and 3. As shown in (b), the reading device 134 is brought into contact with the paper surface so that all of the five drawing lines can be accommodated in the width direction of the cutout portion 136, and the performance device 100 is held approximately on the X axis while maintaining this state. Move to trace the direction.

さらに、演奏用デバイス100には、読み取り部134の内部に臨むようにCCDカメラ110が搭載され、読み取り部134の内部に照明をあてるためのLED137が配置されている。読み取り部134を紙面に当接した状態において、CCDカメラ110は紙面上の五線譜に対峙する。そして、CCDカメラ110は、この状態で、図3(b)に示すように、五線と当該五線上に記述された少なくとも1つの音符を同時に撮影できるように、その画角が設定される。なお、CCDカメラ110およびLED137の代替手段として、赤外線カメラおよび赤外線照射手段を用いてもよい。CCDカメラ110の画像出力およびトグルスイッチ122,123,124(モード切替スイッチ120)のON/OFF信号は、無線通信I/F140を介して出力装置500にリアルタイムで転送される。   Further, the performance device 100 is equipped with a CCD camera 110 facing the inside of the reading unit 134, and an LED 137 for illuminating the inside of the reading unit 134 is disposed. In a state where the reading unit 134 is in contact with the paper surface, the CCD camera 110 faces the staff on the paper surface. Then, in this state, as shown in FIG. 3B, the CCD camera 110 sets the angle of view so that the staff and at least one musical note described on the staff can be photographed simultaneously. In addition, as an alternative means for the CCD camera 110 and the LED 137, an infrared camera and an infrared irradiation means may be used. The image output of the CCD camera 110 and the ON / OFF signals of the toggle switches 122, 123, and 124 (mode switch 120) are transferred to the output device 500 in real time via the wireless communication I / F 140.

以上、演奏用デバイス100について説明してきたが、図4に示した形状・構造はあくまで例示であり、種々の設計変更が可能であることに留意されたい。   Although the performance device 100 has been described above, it should be noted that the shape and structure shown in FIG. 4 are merely examples, and various design changes are possible.

本実施形態においては、演奏用デバイス100のトグルスイッチ122がユーザによって押下されたことに応答して、モード切替部230が情報処理装置200の動作モードをリアルタイム演奏モードに切り替える。以下、情報処理装置200において実行されるリアルタイム演奏処理を図5に示すフローチャート基づいて説明する。   In this embodiment, in response to the toggle switch 122 of the performance device 100 being pressed by the user, the mode switching unit 230 switches the operation mode of the information processing apparatus 200 to the real-time performance mode. Hereinafter, real-time performance processing executed in the information processing apparatus 200 will be described with reference to the flowchart shown in FIG.

リアルタイム演奏モードにおいては、まず、画像解析部211が画像解析処理(ステップ100)を実行する。以下、図6に示すフローチャート基づいて画像解析部211が実行する画像解析処理を説明する。   In the real-time performance mode, first, the image analysis unit 211 executes image analysis processing (step 100). Hereinafter, image analysis processing executed by the image analysis unit 211 will be described based on the flowchart shown in FIG.

まず、ステップ101において、演奏用デバイス100からリアルタイムで転送される手書き楽譜のデジタル画像を取得する。図7(a)は、取得した手書き楽譜のデジタル画像を例示する。図7(a)に示す画像には、画像座標系のX軸方向に伸びる5本の描画線と2つの簡易音符(以下、単に音符という)が写っている。   First, in step 101, a digital image of a handwritten score transferred from the performance device 100 in real time is acquired. FIG. 7A illustrates a digital image of the acquired handwritten score. The image shown in FIG. 7A includes five drawing lines extending in the X-axis direction of the image coordinate system and two simple musical notes (hereinafter simply referred to as musical notes).

次に、ステップ102において、取得したデジタル画像について2値化処理を実行する。なお、ステップ102は、画像認識の精度を上げるために用いられる画像処理(ノイズ除去、平滑化、エッジ強調、細線化、背景正規化など)を適宜含んでいてもよい。図7(b)は、図7(a)に示したデジタル画像を2値化した2値化画像を示す。   Next, in step 102, binarization processing is executed on the acquired digital image. Note that step 102 may appropriately include image processing (noise removal, smoothing, edge enhancement, thinning, background normalization, etc.) used to increase the accuracy of image recognition. FIG. 7B shows a binary image obtained by binarizing the digital image shown in FIG.

次に、ステップ103において、2値化画像を画像座標系のX軸方向に領域分割する処理を実行する。具体的には、2値化画像を五線のみが存在する領域(以下、第1領域という)とその余の領域(以下、第2領域という)に領域分割する処理を実行する。その結果、五線の上に音符が描画された領域が第2領域として分割される。図7(c)は、2値化画像を領域分割した状態を示す。なお、図7(c)において、第1領域および第2領域を、それぞれ、丸囲み数字1および2で示す(以下の図において同様)。ただし、ステップ103においては、例外的に、五線譜の両端のように五線が描画されていない領域や線がかすれたり途切れたりして五線の全てが認識できなかったような領域が、音符が描画されているいないにかかわらず第2領域として分割されることもある。   Next, in step 103, a process for dividing the binarized image in the X-axis direction of the image coordinate system is executed. Specifically, the binarized image is divided into an area where only the staff is present (hereinafter referred to as the first area) and the remaining area (hereinafter referred to as the second area). As a result, the area where the musical notes are drawn on the staff is divided as the second area. FIG. 7C shows a state where the binarized image is divided into regions. In FIG. 7C, the first region and the second region are indicated by encircled numerals 1 and 2, respectively (the same applies to the following drawings). However, in step 103, as an exception, an area where the staff is not drawn, such as both ends of the staff, or an area where all the staffs cannot be recognized due to faint or broken lines, It may be divided as the second area regardless of whether it is drawn.

次に、ステップ103の結果を受けて、ステップ104において第1領域が存在するか否かが判断され、第1領域が存在する場合(ステップ104、Yes)、処理はそのままステップ105に進む。一方、第1領域が存在しない場合は(ステップ104、No)、音色設定処理(ステップ300)に進んだ後、ステップ105に進む。なお、音色設定処理については、後述する。   Next, based on the result of step 103, it is determined in step 104 whether or not the first area exists. If the first area exists (step 104, Yes), the process proceeds to step 105 as it is. On the other hand, if the first region does not exist (step 104, No), the process proceeds to the timbre setting process (step 300) and then proceeds to step 105. The tone color setting process will be described later.

ステップ105においては、第1領域に存在する五線の座標情報に基づいて線形補間を実行することによって、第2領域内に5本の推定線を定義する。具体的には、図8(a)に拡大して示すように、第2領域の左右に隣接する2つの第1領域内の描画線について、注目する第2領域の左側に位置する第1領域内の描画線の右端画素Rと、注目する第2領域の右側に位置する第1領域内の描画線の左端画素Lを結ぶ線分Sを第2領域内の五線として推定する。このとき、5本の推定線は、画像の下から上にかけて順番に、第1線〜第5線としてマークされる。   In step 105, five estimated lines are defined in the second region by performing linear interpolation based on the coordinate information of the staff existing in the first region. Specifically, as shown in an enlarged view in FIG. 8A, the first region located on the left side of the second region of interest with respect to the drawing lines in the two first regions adjacent to the left and right of the second region. A line segment S connecting the right end pixel R of the inner drawing line and the left end pixel L of the drawing line in the first region located on the right side of the second region of interest is estimated as a staff in the second region. At this time, the five estimated lines are marked as the first to fifth lines in order from the bottom to the top of the image.

次に、ステップ106において、ラベリング処理などの手法を用いて第2領域内に描画された音符の画素領域を画定した後、図8(b)に拡大して示すように、音符のエッジ画素Eの座標と、音符の代表画素Dの座標を求める。図8(b)は、第2領域を二分するようにY軸方向に伸びる基準線Bを定義し、この基準線B上に存在する2つのエッジ画素を結ぶ線分の中点に相当する画素を代表画素Dとする例を示しているが、この他にも、音符の画素領域の重心を代表画素Dとするなど、適切な規則に従って代表画素Dを決定すればよい   Next, in step 106, a pixel area of a note drawn in the second area is defined using a technique such as a labeling process, and then, as shown in an enlarged view in FIG. And the coordinates of the representative pixel D of the note. FIG. 8B defines a reference line B extending in the Y-axis direction so as to bisect the second region, and a pixel corresponding to the midpoint of a line segment connecting two edge pixels existing on the reference line B. In this example, the representative pixel D may be determined in accordance with an appropriate rule, for example, the center of gravity of the note pixel region may be the representative pixel D.

最後に、ステップ107において、各第2領域について、先のステップ105で定義した5本の推定線の座標情報と、先のステップ106で求めた音符に係る各種座標情報(エッジ画素および代表画素)を楽譜画像情報として一時記憶用のバッファに保持し(ステップ107)、処理を終了する。なお、第2領域に音符が描画されていないケースでは、当該第2領域に係る楽譜画像情報をブランクとして保持する。   Finally, in step 107, for each second region, the coordinate information of the five estimated lines defined in the previous step 105 and various coordinate information (edge pixels and representative pixels) relating to the musical note obtained in the previous step 106 Is stored in the temporary storage buffer as musical score image information (step 107), and the process ends. Note that, in the case where a note is not drawn in the second area, the musical score image information related to the second area is held as a blank.

再び、図5に戻って説明を続ける。画像解析処理(ステップ100)が終了すると、処理はステップ201に進み、演奏用GUI部220が、演奏用GUI画面に表示する発音ラインが第2領域の上にあるか否かを判断する。ここで、演奏用GUI部220が生成・提供する演奏用GUI画面について説明する。   Returning to FIG. 5 again, the description will be continued. When the image analysis process (step 100) ends, the process proceeds to step 201, and the performance GUI unit 220 determines whether or not the sounding line to be displayed on the performance GUI screen is on the second area. Here, the performance GUI screen generated and provided by the performance GUI unit 220 will be described.

図9は、本実施形態における演奏用GUI画面を説明するための概念図である。なお、図9においては、理解の容易のため、演奏用GUI画面20を手書き楽譜の上に重畳して表示する(以下、図10および図11において同様)。本実施形態における演奏用GUI画面は、画像解析部211の解析結果に基づいて演奏用GUI部220が生成する。図9に示す演奏用GUI画面20は、演奏用デバイス100から転送された画像の2値化画像の第1領域と第2領域を識別可能に区分け表示した画像(例えば、色分け表示)を背景画像とし、当該背景画像の中央部の適切な位置を画像座標系のY軸方向に伸びて横断する直線Pを固定表示している。本実施形態においては、この直線Pを発音ラインPとして定義する。   FIG. 9 is a conceptual diagram for explaining a performance GUI screen in the present embodiment. In FIG. 9, for ease of understanding, the performance GUI screen 20 is displayed superimposed on the handwritten score (hereinafter the same as in FIGS. 10 and 11). The performance GUI screen in this embodiment is generated by the performance GUI unit 220 based on the analysis result of the image analysis unit 211. The performance GUI screen 20 shown in FIG. 9 displays an image (for example, color-coded display) in which the first area and the second area of the binarized image of the image transferred from the performance device 100 are displayed so as to be distinguishable. And a straight line P extending in the Y-axis direction of the image coordinate system and traversing an appropriate position in the center of the background image is fixedly displayed. In the present embodiment, this straight line P is defined as a sound generation line P.

ユーザが演奏用デバイス100で手書き楽譜を左から右になぞっていくことに応答して、演奏用GUI画面20に表示される背景画像が時々刻々と変化する。仮に、ステップ201において、演奏用GUI画面20が図9(a)に示す状態にあるとき、発音ラインPは、第2領域の上にないので(ステップ201、No)、処理はステップ100に戻り、再び、演奏用デバイス100から転送されてくる最新の画像に基づいて画像解析処理が実行される。   In response to the user tracing the handwritten score from left to right with the performance device 100, the background image displayed on the performance GUI screen 20 changes from moment to moment. If the performance GUI screen 20 is in the state shown in FIG. 9A in step 201, the sounding line P is not on the second region (step 201, No), and the process returns to step 100. The image analysis process is executed again based on the latest image transferred from the performance device 100.

続いて、ユーザが演奏用デバイス100を右側に移動させた結果、図9(b)に示すように、発音ラインPが第2領域の上に重畳されると(ステップ201、Yes)、処理はステップ202に進み、発音ラインPが重畳された第2領域に音符があるか否か判断される。なお、この判断は、当該第2領域について一時記憶用バッファに楽譜画像情報が保持されている否かによって行うことができる。要するに、上述したステップ201およびステップ202を経て、演奏用GUI画面に表示される発音ラインPが音符の画像の上に重畳されているか否かが判断される。   Subsequently, as a result of the user moving the performance device 100 to the right side, as shown in FIG. 9B, when the sound generation line P is superimposed on the second area (step 201, Yes), the processing is performed. Proceeding to step 202, it is determined whether or not there is a note in the second region where the sound generation line P is superimposed. This determination can be made based on whether or not the score image information is held in the temporary storage buffer for the second area. In short, it is determined whether or not the sounding line P displayed on the performance GUI screen is superimposed on the note image through the above-described step 201 and step 202.

図9(b)に示す状態の場合、発音ラインPが重畳された第2領域に音符Qが存在するので(ステップ202、Yes)、ステップ203に進み、一時記憶用バッファに保持された当該第2領域の楽譜画像情報に基づいて、音高決定部214が、音符Qが表す音の音高を決定する。例えば、音符Qが存在する第2領域について、図8(c)に示す楽譜画像情報が保持されていた場合、代表画素Dと第1〜第3線との相互位置関係に基づき、適切なアルゴリズムを使用して音高を決定する。なお、五線譜の画像から音符が表す音高を決定する手法は既知であり、本実施形態においては、上述した手順に限らず、既知の手法をはじめとした適切なアルゴリズムを使用して音高を決定することができる。以下、ステップ203において、音高「ソ」が決定されたとして説明を続ける。   In the state shown in FIG. 9B, the note Q is present in the second region where the sounding line P is superimposed (step 202, Yes), so that the process proceeds to step 203, and the second stored in the temporary storage buffer. Based on the score image information of the two areas, the pitch determination unit 214 determines the pitch of the sound represented by the note Q. For example, when the musical score image information shown in FIG. 8C is held for the second region where the note Q exists, an appropriate algorithm is based on the mutual positional relationship between the representative pixel D and the first to third lines. Use to determine the pitch. Note that the method for determining the pitch represented by the note from the image of the musical score is known, and in this embodiment, the pitch is not limited to the above-described procedure, and the pitch is calculated using an appropriate algorithm including a known method. Can be determined. Hereinafter, the description will be continued assuming that the pitch “so” is determined in step 203.

続いて、ステップ204に進み、同じ楽譜画像情報に基づいて、音量決定部216が、音符Qが表す音の音量を決定する。図10(a)は、音量を決定する処理を説明するための概念図である。音量の決定にあたっては、音符QのY軸方向の幅に基づいて音量を決定する。図10(a)は、第2領域を二分するようにY軸方向に伸びる基準線B上に存在する音符Qの2つのエッジ画素の間のピクセル距離を音符QのY軸方向の幅とし、当該幅に基づいて音量を決定する例を示す。この他にも、Y軸方向に伸び音符Qの代表画素Dを通る線を基準線Bとし、当該基準線B上に存在する音符Qの2つのエッジ画素の間のピクセル距離を音符QのY軸方向の幅とすることもできる。   Subsequently, the process proceeds to step 204, where the volume determination unit 216 determines the volume of the sound represented by the note Q based on the same musical score image information. FIG. 10A is a conceptual diagram for explaining the process of determining the volume. In determining the volume, the volume is determined based on the width of the note Q in the Y-axis direction. FIG. 10A shows the pixel distance between two edge pixels of the note Q existing on the reference line B extending in the Y-axis direction so as to bisect the second region as the width of the note Q in the Y-axis direction. An example in which the volume is determined based on the width is shown. In addition to this, a line passing through the representative pixel D of the note Q extending in the Y-axis direction is defined as a reference line B, and the pixel distance between two edge pixels of the note Q existing on the reference line B is defined as the Y of the note Q. It can also be an axial width.

続いて、ステップ205に進み、上述した手順で決定した音高および音量で発音を開始する。具体的には、発音データ生成部226が、音色設定部224によって設定された音色と音高決定部214が決定した音高「ソ」に基づいて発音データ(MIDIデータ)を生成し、発音制御部228に出力する。発音制御部228は、発音データ生成部226から入力された音高「ソ」の発音データを、音量決定部216が決定した音量に基づいて、WAVなどの音声信号に変換して発音手段300に出力する。   Subsequently, the process proceeds to step 205, where sound generation is started with the pitch and volume determined in the above-described procedure. Specifically, the sound generation data generation unit 226 generates sound generation data (MIDI data) based on the timbre set by the timbre setting unit 224 and the pitch “seo” determined by the pitch determination unit 214, thereby generating sound control To the unit 228. The sound generation control unit 228 converts the sound generation data of the pitch “So” input from the sound generation data generation unit 226 into a sound signal such as WAV based on the sound volume determined by the sound volume determination unit 216 and sends it to the sound generation unit 300. Output.

発音が開始された後、発音ラインPが第2領域上に重畳されている限り、演奏用GUI部220は、発音データ生成部226に対して発音を継続するように指示する。これを受けて、発音データ生成部226は発音制御部228に対して発音データの出力を継続する。さらに、この間に、演奏用デバイス100の所定の動きに応答して、後述するステップ206またはステップ207の処理が実行され、発音される音の性質が動的に変化する。以下、この点について説明する。   After the sound generation is started, the performance GUI unit 220 instructs the sound generation data generation unit 226 to continue sound generation as long as the sound generation line P is superimposed on the second area. In response to this, the sound generation data generation unit 226 continues to output sound generation data to the sound generation control unit 228. Further, during this time, in response to a predetermined movement of the performance device 100, the processing of Step 206 or Step 207, which will be described later, is executed, and the nature of the sound to be sounded dynamically changes. Hereinafter, this point will be described.

ステップ206では、発音ラインPを第2領域に重畳させた状態を維持しつつ、演奏用デバイス100が長手方向を軸として回動することに応答して、音量決定部216が、音符Qが表す音の音量を変更する。ステップ206で実行される処理は、先のステップ204において音量決定部216が実行する処理と本質的に同じであり、音量決定部216は、音符QのY軸方向の幅を常時監視し、最新の幅情報に基づいて音量を動的に再設定する。一般に、音符(符頭)は五線に対して傾きをもった楕円として記述されることが多いので、図10(a)の左側に示す状態から、演奏用デバイス100を右回転させて、図10(b)の左側に示す状態にすると、図10(b)の右側に拡大して示すように、ピクセル距離がW1からW2に変化する(W2>W1)。これに応じて、音量決定部216は音符Qが表す音の設定音量を増加させる。   In step 206, in response to the performance device 100 rotating about the longitudinal direction while maintaining the state where the sound generation line P is superimposed on the second region, the volume determination unit 216 represents the note Q. Change the volume of the sound. The processing executed in step 206 is essentially the same as the processing executed by the volume determination unit 216 in the previous step 204. The volume determination unit 216 constantly monitors the width of the note Q in the Y-axis direction, The volume is dynamically reset based on the width information. In general, since a note (note head) is often described as an ellipse having an inclination with respect to a staff, the performance device 100 is rotated to the right from the state shown on the left side of FIG. In the state shown on the left side of FIG. 10B, the pixel distance changes from W1 to W2 as shown on the right side of FIG. 10B (W2> W1). In response to this, the volume determination unit 216 increases the set volume of the sound represented by the note Q.

ステップ207では、発音ラインPを第2領域に重畳させた状態を維持しつつ、演奏用デバイス100が譜面上下方向(すなわち、画像座標系のY軸方向)に動くことに応答して、エフェクト部218が発音にピッチベントエフェクトを加える。具体的には、図11(a)に示す初期状態から図11(b)に示すように、ユーザが演奏用デバイス100を譜面上下方向に動かすことに応答して、エフェクト部218は、発音を開始した時点の音符Qの代表画素DのY座標値[Y1]と、移動後の音符Qの代表画素DのY座標値[Y]との差分の絶対値を移動量として検出し、その移動量に応じて音高「ソ」から無段階に音の高さを変化させる(すなわち、音高「ソ」の周波数を基準としてそこから周波数を増分する)。なお、ここでは、ピッチベントエフェクトに基づいて説明したが、エフェクト部218が加えるエフェクトはこれに限定されるものではなく、譜面上下方向の移動量に応じて、任意のエフェクト(例えば、リバーブやコーラスなど)を設定するように構成してもよい。 In step 207, in response to the performance device 100 moving in the musical score vertical direction (that is, the Y-axis direction of the image coordinate system) while maintaining the state where the sound generation line P is superimposed on the second region, the effect unit 218 adds a pitch vent effect to the pronunciation. Specifically, as shown in FIG. 11 (b) from the initial state shown in FIG. 11 (a), in response to the user moving the performance device 100 in the vertical direction of the musical score, the effect unit 218 generates a sound. The absolute value of the difference between the Y coordinate value [Y 1 ] of the representative pixel D of the note Q at the time of start and the Y coordinate value [Y 2 ] of the representative pixel D of the note Q after movement is detected as a movement amount, The pitch of the sound is changed steplessly from the pitch “seo” according to the amount of movement (that is, the frequency is incremented from the pitch “seo” based on the frequency). Although the description has been given based on the pitch vent effect here, the effect applied by the effect unit 218 is not limited to this, and an arbitrary effect (for example, reverb or chorus) is selected according to the amount of movement in the musical score vertical direction. Etc.) may be set.

続くステップ208では、再び、演奏用GUI部220が、発音ラインPが第2領域上にあるか否かを判断し、発音ラインPが未だ第2領域上にある場合は、ステップ206以降の手順を繰り返す。一方、ユーザがさらにカメラを譜面右側に移動させた結果、図9(c)に示す状態になると、演奏用GUI部220は、発音ラインPが第2領域から外れたと判断し(ステップ208、No)、演奏用GUI部220は発音データ生成部226に対して発音を停止するように指示する。これを受けて、発音データ生成部226は発音制御部228への発音データの出力を停止し、発音が終了する(ステップ209)。その後は、再び、ステップ100の画像解析処理に戻り、上述した一連の処理を繰り返す。   In subsequent step 208, the performance GUI unit 220 determines again whether or not the sounding line P is on the second area. If the sounding line P is still on the second area, the procedure after step 206 is performed. repeat. On the other hand, as a result of the user moving the camera further to the right side of the musical score, when the state shown in FIG. 9C is obtained, the performance GUI unit 220 determines that the sounding line P has deviated from the second area (step 208, No). ), The performance GUI unit 220 instructs the sound generation data generation unit 226 to stop sound generation. In response to this, the sound generation data generation unit 226 stops outputting the sound generation data to the sound generation control unit 228, and the sound generation ends (step 209). Thereafter, the process returns to the image analysis process in step 100 again, and the series of processes described above is repeated.

次に、本実施形態における音色設定処理について説明する。本実施形態における音色設定部224は、任意の文字と所定の音色を紐付けて管理する。例えば、音色設定部224は、文字列「pf」を「ピアノ」の音色に紐付けたり、文字列「dr」を「ドラム」の音色に紐付けたりすることができる。   Next, the tone color setting process in this embodiment will be described. The tone color setting unit 224 in the present embodiment manages an arbitrary character and a predetermined tone color in association with each other. For example, the tone color setting unit 224 can link the character string “pf” to the tone color of “piano”, or link the character string “dr” to the tone color of “drum”.

例えば、ユーザが図12(a)に示すように、手書き譜面の適当な余白を利用して、文字列「pf」および文字列「dr」を手書きした後、ユーザが演奏用デバイス100の読み取り部134を文字列「pf」が描画された位置に当接したとして、図6に戻って説明する。この場合、取得画像には第1領域(五線のみが存在する領域)が一切存在しないので(ステップ104、No)、ステップ300に進んで音色設定処理が実行される。以下、図12(b)に示すフローチャート基づいて音色設定処理を説明する。   For example, as shown in FIG. 12A, after the user has handwritten a character string “pf” and a character string “dr” using an appropriate margin of the handwritten musical score, the user reads the reading unit of the performance device 100. Returning to FIG. 6, description will be made assuming that 134 is in contact with the position where the character string “pf” is drawn. In this case, since there is no first area (area where only the staff is present) in the acquired image (step 104, No), the process proceeds to step 300, and the timbre setting process is executed. The timbre setting process will be described below based on the flowchart shown in FIG.

まず、ステップ301において、演奏用デバイス100が撮影した手書き文字「pf」の画像を取得する。続く、ステップ302において、OCR部212が取得した手書き文字「pf」の画像のOCR処理を実行し、手書き文字を認識する。最後に、ステップ302において、音色設定部224は、認識した文字「pf」に紐付けられたピアノの音色を発音データ生成部226に設定する。   First, in step 301, an image of the handwritten character “pf” photographed by the performance device 100 is acquired. Subsequently, in step 302, the OCR process of the image of the handwritten character “pf” acquired by the OCR unit 212 is executed to recognize the handwritten character. Finally, in step 302, the tone color setting unit 224 sets the piano tone color associated with the recognized character “pf” in the pronunciation data generation unit 226.

以上、本実施形態のリアルタイム演奏モードについて説明してきたが、本実施形態においては、演奏用デバイス100のトグルスイッチ124がユーザによって押下されたことに応答して、モード切替部230が情報処理装置200の動作モードを、録音演奏モードに切り替える。録音演奏モードにおいては、ユーザが五線譜をスキャンする間、発音データ生成部226は、音高決定部214および音量決定部216が決定する音高および音量と、発音ラインPの第2領域滞在期間に応じて決定された音価に基づいてMIDIデータを生成・保存し、ユーザからの求めに応じて演奏を再生する。   Although the real-time performance mode of the present embodiment has been described above, in this embodiment, the mode switching unit 230 is operated by the information processing apparatus 200 in response to the toggle switch 124 of the performance device 100 being pressed by the user. Switch to the recording performance mode. In the recording performance mode, while the user scans the staff, the pronunciation data generation unit 226 performs the pitch and volume determined by the pitch determination unit 214 and the volume determination unit 216, and the period of stay in the second region of the pronunciation line P. MIDI data is generated and stored based on the sound value determined accordingly, and the performance is reproduced in response to a request from the user.

以上、本発明について実施形態をもって説明してきたが、本発明は上述した実施形態に限定されるものではない。   Although the present invention has been described with the embodiment, the present invention is not limited to the above-described embodiment.

例えば、上述した実施形態では、手書き描画した五線譜を使用して演奏する態様を説明したが、本発明の演奏システムは、手書き描画した五線譜に限らず、印刷描画された五線譜、印刷された五線に手書きの音符を描画した五線譜など、どのような五線譜であっても適用可能であることは言うまでもない。また、五線譜が描画される媒体は紙に限らず任意の媒体であればよい。   For example, in the above-described embodiment, the aspect of performing using the hand-drawn staff notation has been described. However, the performance system of the present invention is not limited to the hand-drawn staff notation, but the printed staff notation and the printed staff Needless to say, any musical notation such as a musical notation in which handwritten notes are drawn is applicable. The medium on which the staff is drawn is not limited to paper, and any medium may be used.

また、上述した実施形態の演奏用GUI画面では、発音ラインを定義した上で、当該発音ラインを表す直線を背景画像上に重畳表示する態様を例示したが、発音ラインを表すグラフィックは、ユーザが発音ラインを直感的に認識できるものであればどのようなものであってもよく、例えば、上述した直線の代わりに矢印などのグラフィックを採用してもよい。   In the performance GUI screen of the above-described embodiment, the sound line is defined, and the straight line representing the sound line is superimposed on the background image. However, the graphic representing the sound line is displayed by the user. Anything can be used as long as the pronunciation line can be intuitively recognized. For example, a graphic such as an arrow may be employed instead of the straight line described above.

また、上述した実施形態では、取得画像の内容に基づいて音色設定処理を自動的に実行する態様を示したが、音色設定処理用の専用のスイッチを設け、当該スイッチの押下に応答して音色設定処理を実行するようにしてもよい。また、上述した実施形態では、OCR機能を利用して音色を設定する態様について説明したが、本発明においては、OCR機能を利用して、エフェクトやリズムボックス、音域やテンポなどの所定の設定項目を設定するように構成してもよい。   In the above-described embodiment, the timbre setting process is automatically executed based on the content of the acquired image. However, a dedicated switch for the timbre setting process is provided, and the timbre is set in response to pressing of the switch. A setting process may be executed. In the above-described embodiment, the aspect in which the timbre is set using the OCR function has been described. However, in the present invention, predetermined setting items such as an effect, a rhythm box, a sound range, and a tempo are used using the OCR function. It may be configured to set.

また、本発明においては、音色設定部において複数のカラーと音色を紐付けておき、演奏用デバイスに搭載した3CCDカメラが取得したカラー画像を解析することによって、音符の彩色に応じてその音符が表す音の音色を設定するように構成することもできる。また、音量決定部を音符の画素領域の面積(ピクセル数)に基づいて音量を決定するように構成してもよく、音符の大きさ・形状にかかわらず一定の音量で発音してもよい。さらに、演奏デバイスに適切な振動アクチュエータを搭載し、音符の発音時やOCR認識成功時に10ms程度の振動をユーザに与えるなどの触覚フィードバックの構成を採用してもよい。その他、当業者が推考しうる実施態様の範囲内において、本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。   In the present invention, a plurality of colors and timbres are associated with each other in the timbre setting unit, and the color image obtained by the 3CCD camera mounted on the performance device is analyzed, so that the musical note is changed according to the coloring of the musical note. It can also be configured to set the timbre of the sound to be represented. Further, the sound volume determination unit may be configured to determine the sound volume based on the area (number of pixels) of the pixel area of the note, and may sound at a constant sound volume regardless of the size and shape of the note. Furthermore, an appropriate vibration actuator may be mounted on the performance device, and a tactile feedback configuration may be employed in which a vibration of about 10 ms is given to the user when a note is generated or when OCR recognition is successful. In addition, it is included in the scope of the present invention as long as the effects and effects of the present invention are exhibited within the scope of embodiments that can be considered by those skilled in the art.

上述した実施形態の各機能は、C、C++、C#、Java(登録商標)などのオブジェクト指向プログラミング言語などで記述された装置実行可能なプログラムにより実現でき、本実施形態のプログラムは、ハードディスク装置、CD−ROM、MO、DVD、フレキシブルディスク、EEPROM、EPROMなどの装置可読な記録媒体に格納して頒布することができ、また他装置が可能な形式でネットワークを介して伝送することができる。   Each function of the above-described embodiment can be realized by a device-executable program written in an object-oriented programming language such as C, C ++, C #, Java (registered trademark), and the program of this embodiment is a hard disk device. , CD-ROM, MO, DVD, flexible disk, EEPROM, EPROM and the like can be stored and distributed in a device-readable recording medium, and can be transmitted via a network in a format that other devices can.

最後に、本発明の演奏システムの応用展開について説明する。   Finally, application development of the performance system of the present invention will be described.

(音楽教育用コンテンツとしての利用)
日本では、義務教育において五線譜の読み方が必修とされているにもかかわらず、依然として多くの人が楽譜を読めないまま大人になるという現実がある。これは、これまでの学習が、五線譜のフォーマットを理論的に学ばせることだけに終始する結果、生徒の頭の中で五線譜の視覚情報とそれが表すところの音(聴覚情報)がいつまでたっても結びついていかないことに原因がある。
(Use as music education content)
In Japan, even though compulsory education requires reading the staff notation, there is still the reality that many people still become adults without being able to read the score. This is because learning so far only begins to theoretically learn the format of the staff notation, so that the visual information of the staff and the sound it represents (auditory information) will last in the student's head. The cause is that they are not connected.

この点につき、本発明の演奏システムを音楽教育用コンテンツとして導入すれば、生徒は、思いつくままに手書きした楽譜をその場ですぐに音として確認することができるので、記譜→発音→記譜→発音のサイクルを繰り返して遊んでいるうちに、自然と楽譜が読めるようになるであろう。   In this regard, if the performance system of the present invention is introduced as a content for music education, the student can immediately confirm the musical score handwritten as he / she thinks as a sound, so notation → pronunciation → notation → You will be able to read the score naturally as you play through the pronunciation cycle.

(新しい演奏パフォーマンスの提案)
近年、ラップトップコンピュータを使用して演奏パフォーマンスを行うラップトップミュージックと呼ばれる演奏形態が注目を集めている。ラップトップミュージックでは、ラップトップコンピュータやサンプラーなどの操作機器だけを使用してライブ演奏を行うが、演奏者がそれらを操作する姿それ自体は、魅力的な演奏パフォーマンスとは程遠い。ライブ演奏の観客は、演奏者の奏でる音はもちろんのこと、演奏者の動作パフォーマンスに大きな魅力を感じるものであり、この点に関しては、ラップトップミュージックは古典楽器の演奏に劣っていると言わざるを得ない。
(Proposal of new performance)
In recent years, a performance form called laptop music in which a performance is performed using a laptop computer has attracted attention. In laptop music, live performances are performed using only operating devices such as laptop computers and samplers, but the appearance of the player's operation itself is far from an attractive performance. Audiences of live performances have a great appeal not only to the sound played by the performer, but also to the performance performance of the performer. In this regard, laptop music is inferior to playing classical instruments. I do not get.

一方、本発明の演奏システムをラップトップミュージックに応用すれば、ラップトップミュージックが持つ本来の利点を維持しつつ、従来の古典楽器の演奏に通ずるようなヒューマンなパフォーマンスを観客に披露することが可能になる。例えば、以下のような演奏を実現することができるであろう。   On the other hand, if the performance system of the present invention is applied to laptop music, it is possible to show the human performance to the audience that is similar to the performance of conventional classical instruments while maintaining the original advantages of laptop music. become. For example, the following performance may be realized.

演奏者は、ステージ上で即興的に五線譜を描き、書き上げた五線譜を本発明の演奏用デバイスでなぞっていく。その様子は大型スクリーンに映し出される。このとき、演奏用GUI画面も併せて大型スクリーンに映し出される。パフォーマーは、五線譜をなぞる速度を速くしたり遅くしたりしてメロディに緩急を付けたり、なぞる方向を反転させて逆再生的な音を出したり、演奏用デバイスを動かすことによって音量や音高を揺らし、トレモロ、ビブラート、ピッチベントのようなニュアンスを演奏の中に即興的に挿入したり、観客が見守る中、次々に新しい楽譜を書き足していき、それぞれの楽譜を異なる楽器音でループシーケンスさせる等々。このように、本発明の演奏システムをラップトップミュージックに応用すれば、観客を視覚と聴覚の両方から魅了することができるであろう。   The performer improvisely draws a staff on the stage and traces the staff that has been written with the performance device of the present invention. The situation is projected on a large screen. At this time, the performance GUI screen is also displayed on the large screen. The performer can increase or decrease the volume and pitch by moving the performance device by increasing or decreasing the speed of tracing the stave to give the melody more or less, reversing the direction of the trace to produce a reverse playback sound, or moving the performance device. Nuances such as shaking, tremolo, vibrato, and pitch bent are improvised in the performance, and while the audience watches, new scores are added one after another, and each score is loop-sequenced with different instrument sounds. And so on. Thus, if the performance system of the present invention is applied to laptop music, it will be possible to attract the audience both visually and auditorily.

20…演奏用GUI画面
100…演奏用デバイス
110…撮影手段(CCDカメラ)
120…モード切替スイッチ
122,123,124…トグルスイッチ
132…円柱部
134…読み取り部
136…切り欠き部
137…LED
140…無線通信I/F
200…情報処理装置
210…画像入力I/F
211…画像解析部
212…OCR部
214…音高決定部
216…音量決定部
218…エフェクト部
220…演奏用GUI部
224…音色設定部
226…発音データ生成部
228…発音制御部
230…モード切替部
300…発音手段
400…表示装置
500…出力装置
1000…演奏システム
20 ... GUI screen for performance 100 ... Device for performance 110 ... Photography means (CCD camera)
DESCRIPTION OF SYMBOLS 120 ... Mode change switch 122,123,124 ... Toggle switch 132 ... Cylindrical part 134 ... Reading part 136 ... Notch part 137 ... LED
140 ... Wireless communication I / F
200 ... Information processing device 210 ... Image input I / F
211 ... Image analysis unit 212 ... OCR unit 214 ... Pitch determination unit 216 ... Volume determination unit 218 ... Effect unit 220 ... Performance GUI unit 224 ... Tone setting unit 226 ... Sound generation data generation unit 228 ... Sound generation control unit 230 ... Mode switching Part 300 ... Sound generation means 400 ... Display device 500 ... Output device 1000 ... Performance system

Claims (8)

描画された五線譜を利用して演奏を実行する演奏システムであって、
撮影手段を搭載する演奏用デバイスと、
前記撮影手段が撮影した五線譜の画像を解析する画像解析部と、
前記画像解析部の解析結果に基づいて前記五線譜上に描画された音符が表す音の音高を決定する音高決定部と、
決定された前記音高に基づいて発音データを生成する発音データ生成部と、
前記発音データに基づいて音声信号を出力する発音制御部と、
前記画像解析部の解析結果に基づいて演奏用GUIを生成し、該演奏用GUIを介して演奏操作を受け付ける演奏用GUI部と、
を含み、
前記演奏用GUI部は、前記五線譜を表す背景画像の上にY軸方向に伸びる直線を発音ラインとして重畳表示する演奏用GUIを生成し、
前記発音データ生成部は、前記発音ラインが前記五線譜上の前記音符の画像の上に重畳されている間、前記発音データを発音制御部に対して出力し、
前記撮影手段が前記Y軸方向に動かされることに応答して、前記音符が表す音に対して前記Y軸方向の移動量に応じた量の所定のエフェクトを加えるエフェクト部をさらに含む、
演奏システム。
A performance system for performing a performance using a drawn staff notation,
A performance device equipped with a photographing means;
An image analysis unit for analyzing an image of the staff score photographed by the photographing means;
A pitch determination unit that determines a pitch of a sound represented by a note drawn on the staff based on the analysis result of the image analysis unit;
A pronunciation data generation unit that generates the pronunciation data based on the determined pitch;
A sound generation control unit that outputs a sound signal based on the sound generation data;
A performance GUI unit that generates a performance GUI based on the analysis result of the image analysis unit and receives a performance operation via the performance GUI;
Including
The performance GUI unit generates a performance GUI that superimposes and displays a straight line extending in the Y-axis direction as a pronunciation line on the background image representing the staff.
The sound generation data generation unit outputs the sound generation data to the sound generation control unit while the sound generation line is superimposed on the image of the note on the staff .
An effect unit that adds a predetermined effect in an amount corresponding to the amount of movement in the Y-axis direction to the sound represented by the note in response to the photographing unit being moved in the Y-axis direction;
Performance system.
前記五線譜は手書き描画され、前記音符は符頭のみの簡易音符で記述される、請求項1に記載の演奏システム。   The performance system according to claim 1, wherein the staff notation is drawn by handwriting, and the notes are described by simple notes with only note heads. 前記音符の前記Y軸方向の幅に基づいて前記音符が表す音の音量を決定する音量決定部をさらに含み、前記発音制御部は、決定された前記音量に基づいて前記音声信号を出力する、請求項1または2に記載の演奏システム。   A volume determination unit that determines a volume of a sound represented by the note based on a width of the note in the Y-axis direction, and the sound generation control unit outputs the audio signal based on the determined volume. The performance system according to claim 1 or 2. 前記所定のエフェクトはピッチベントエフェクトである、請求項1〜3のいずれか一項に記載の演奏システム。 The performance system according to claim 1, wherein the predetermined effect is a pitch vent effect. 前記撮影手段が撮影した画像について文字認識を実行するOCR部と、
任意の文字と所定の音色を紐付けて管理する音色設定部をさらに含み、
前記音色設定部は、前記OCR部が認識した文字に紐付けられた所定の音色を前記音符が表す音の音色として設定する、請求項1〜のいずれか一項に記載の演奏システム。
An OCR unit that performs character recognition on an image photographed by the photographing unit;
It further includes a timbre setting unit for managing an arbitrary character and a predetermined timbre in association with each other,
The performance system according to any one of claims 1 to 4 , wherein the timbre setting unit sets a predetermined timbre associated with a character recognized by the OCR unit as a timbre of a sound represented by the note.
コンピュータに対して、描画された五線譜を利用した演奏を実行させるためコンピュータ実行可能なプログラムであって、
撮影手段を搭載する演奏用デバイスが撮影した五線譜の画像を解析するステップと、
前記五線譜の画像解析結果に基づいて前記五線譜上に描画された音符が表す音の音高を決定するステップと、
決定された前記音高に基づいて発音データを生成するステップと、
前記五線譜の画像解析結果に基づいて前記五線譜を表す背景画像の上にY軸方向に伸びる直線を発音ラインとして重畳表示する演奏用GUIを生成するステップと、
前記発音ラインが前記五線譜上の前記音符の画像の上に重畳されている間、前記発音データに基づいて音声信号を出力するステップと
前記撮影手段が前記Y軸方向に動かされることに応答して、前記音符が表す音に対して前記Y軸方向の移動量に応じた量の所定のエフェクトを加えるステップと
を実行させるためのプログラム。
A computer-executable program for causing a computer to perform a performance using a drawn staff.
Analyzing an image of a musical score taken by a performance device equipped with a photographing means;
Determining a pitch of a sound represented by a note drawn on the staff based on the image analysis result of the staff;
Generating pronunciation data based on the determined pitch;
Generating a performance GUI for displaying a straight line extending in the Y-axis direction as a pronunciation line on a background image representing the staff based on the image analysis result of the staff;
Outputting an audio signal based on the pronunciation data while the pronunciation line is superimposed on the image of the note on the staff .
Performing a step of applying a predetermined effect in an amount corresponding to the amount of movement in the Y-axis direction to the sound represented by the note in response to the photographing unit being moved in the Y-axis direction. Program to let you.
前記五線譜の画像を解析するステップは、
前記五線譜の画像を2値化して2値化画像を生成するステップと、
前記2値化画像について、画像座標系のX軸方向に、五線のみが存在する領域である第1領域と五線上に音符が描画された領域である第2領域に領域分割するステップとを含み、
前記演奏用GUIを生成するステップは、
前記2値化画像について前記第1領域と前記第2領域を識別可能に区分けした表示した画像を前記背景画像とし、該背景画像の中央部を横断して伸びる直線を前記発音ラインとして固定表示するステップを含む、請求項に記載のプログラム。
The step of analyzing the image of the staff is as follows:
Binarizing the stave image to generate a binarized image;
Dividing the binarized image into a first region where only a staff is present and a second region where a note is drawn on the staff in the X-axis direction of the image coordinate system ; Including
The step of generating the performance GUI includes:
For the binarized image, the displayed image obtained by dividing the first region and the second region so as to be distinguishable is used as the background image, and a straight line extending across the center of the background image is fixedly displayed as the sound generation line. The program according to claim 6 , comprising steps.
前記領域分割するステップにおいて、前記第1領域が存在しない場合に、前記撮影手段が撮影した画像について文字認識を実行し、認識した文字に紐付けられた所定の音色を前記音符が表す音の音色として設定する、請求項に記載のプログラム。 In the step of the area division, tone when said first area does not exist, the imaging means performs character recognition on the image captured is, the sound representing a predetermined tone which are linked to the recognized character is the note The program according to claim 7 , set as
JP2012096835A 2012-04-20 2012-04-20 Performance system and program Expired - Fee Related JP5999689B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012096835A JP5999689B2 (en) 2012-04-20 2012-04-20 Performance system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012096835A JP5999689B2 (en) 2012-04-20 2012-04-20 Performance system and program

Publications (2)

Publication Number Publication Date
JP2013225016A JP2013225016A (en) 2013-10-31
JP5999689B2 true JP5999689B2 (en) 2016-09-28

Family

ID=49595110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012096835A Expired - Fee Related JP5999689B2 (en) 2012-04-20 2012-04-20 Performance system and program

Country Status (1)

Country Link
JP (1) JP5999689B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113257210B (en) * 2021-06-02 2023-10-24 南京邮电大学 Multi-mode spectrum conversion method and system for copper or wooden musical instrument

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06332443A (en) * 1993-05-26 1994-12-02 Matsushita Electric Ind Co Ltd Score recognizing device
JP2001309290A (en) * 2000-04-21 2001-11-02 Canon Inc Output control device and method, and storage medium
JP2002041038A (en) * 2000-07-31 2002-02-08 Taito Corp Virtual musical instrument playing device
JP2005297390A (en) * 2004-04-13 2005-10-27 Masami Unno Musical score paper with sized notes
JP4803797B2 (en) * 2005-10-26 2011-10-26 株式会社河合楽器製作所 Music score recognition apparatus and music score recognition program
US20080167739A1 (en) * 2007-01-05 2008-07-10 National Taiwan University Of Science And Technology Autonomous robot for music playing and related method
JP4986287B2 (en) * 2007-04-20 2012-07-25 堅造 赤澤 Electronic musical instruments
CN202694620U (en) * 2012-04-19 2013-01-23 北京工业大学 Portable musical instrument assistant apparatus

Also Published As

Publication number Publication date
JP2013225016A (en) 2013-10-31

Similar Documents

Publication Publication Date Title
JP4557899B2 (en) Sound processing program and sound processing apparatus
US7754955B2 (en) Virtual reality composer platform system
JP6344578B2 (en) How to play an electronic musical instrument
Freeman Extreme sight-reading, mediated expression, and audience participation: Real-time music notation in live performance
Paine Towards unified design guidelines for new interfaces for musical expression
Arfib et al. Expressiveness and digital musical instrument design
JP2008170947A (en) Autonomous score reading and music playing robot and method thereof
EP3759707B1 (en) A method and system for musical synthesis using hand-drawn patterns/text on digital and non-digital surfaces
WO2020059245A1 (en) Information processing device, information processing method and information processing program
JP2007121355A (en) Playing system
US7504572B2 (en) Sound generating method
JP5999689B2 (en) Performance system and program
Johnston Interfaces for musical expression based on simulated physical models
JPH1138967A (en) Electronic musical instrument
JP4765705B2 (en) Music control device
JP5935815B2 (en) Speech synthesis apparatus and program
Akbari claVision: visual automatic piano music transcription
Hakim et al. Virtual guitar: Using real-time finger tracking for musical instruments
JP6950180B2 (en) Musical tone data processing method and musical tone data processing device
Barbancho et al. Human–computer interaction and music
JP2008076765A (en) Musical performance system
Bandara A music keyboard with gesture controlled effects based on computer vision
Overholt Advancements in violin-related human-computer interaction
WO2023032422A1 (en) Processing method, program, and processing device
JP7326776B2 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150417

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160824

R150 Certificate of patent or registration of utility model

Ref document number: 5999689

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees