JP2018157436A - Attribute display device and attribute display method - Google Patents

Attribute display device and attribute display method Download PDF

Info

Publication number
JP2018157436A
JP2018157436A JP2017053697A JP2017053697A JP2018157436A JP 2018157436 A JP2018157436 A JP 2018157436A JP 2017053697 A JP2017053697 A JP 2017053697A JP 2017053697 A JP2017053697 A JP 2017053697A JP 2018157436 A JP2018157436 A JP 2018157436A
Authority
JP
Japan
Prior art keywords
attribute
image
display
sound
sound image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017053697A
Other languages
Japanese (ja)
Inventor
司 末永
Tsukasa Suenaga
司 末永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2017053697A priority Critical patent/JP2018157436A/en
Publication of JP2018157436A publication Critical patent/JP2018157436A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To make it possible to overlook attributes of sound images that change every moment as music progresses.SOLUTION: The sound image attribute display device includes: acquisition means for acquiring an attribute of a sound image that changes as music progresses on the basis of music information; and display control means for associating the sound image included in the music information with an image object, displaying a localization position among attributes of the sound image in association with a display position of the image object, and displaying a change of the attribute acquired by the acquisition means as a change on the screen of the image object.SELECTED DRAWING: Figure 3

Description

本発明は、DTM(Desk Top Music)による音楽作成を支援する技術に関する。   The present invention relates to a technique for supporting music creation by DTM (Desk Top Music).

DTMとは、音楽を作成編集するコンピュータ環境のことを言う。音楽は音像に設定された属性が時々刻々変化することで構成される。音像の属性とは、音名、定位、音量、EQやリバーブの有無や強さ等である。DTMにより音楽作成を行う際に、音楽の進行に伴って時々刻々変化する音像の属性を視覚的に把握できることが好ましく、これを実現する技術の一例としては、シーケンサプログラムにおける再生画面(特許文献1:図2)が挙げられる。   DTM refers to a computer environment for creating and editing music. Music is configured by changing the attributes set in the sound image from moment to moment. The attributes of a sound image include a note name, localization, volume, presence or absence of EQ or reverb, strength, and the like. When creating music by DTM, it is preferable to visually grasp the attributes of sound images that change every moment as the music progresses. As an example of a technique for realizing this, a playback screen in a sequencer program (Patent Document 1) : Fig. 2).

特許第3840915号Japanese Patent No. 3840915

DTMでは、トラックに音像を割り当てることで音楽情報が作成されるが、トラックの数が100を超える場合があり、また、各トラックに割り当てられる音像に関しても30個程度の属性が設定される場合がある。トラック数が100で、属性数が30の場合、音楽の進行に伴って100×30=3000個の属性が時々刻々変化する。このような場合、上記再生画面では全ての属性の変化を俯瞰することはできないといった問題がある。   In DTM, music information is created by assigning sound images to tracks. However, the number of tracks may exceed 100, and about 30 attributes may be set for sound images assigned to each track. is there. When the number of tracks is 100 and the number of attributes is 30, 100 × 30 = 3000 attributes change from moment to moment as the music progresses. In such a case, there is a problem in that it is not possible to look down on all attribute changes on the playback screen.

本発明は以上に説明した課題に鑑みて為されたものであり、音楽の進行に伴って時々刻々変化する音像の属性を俯瞰できるようにする技術を提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a technique that enables a bird's-eye view of attributes of a sound image that changes every moment with the progress of music.

上記課題を解決するために本発明は、音楽情報に基づく音楽の進行に伴って変化する音像の属性を取得する取得手段と、音楽情報に含まれる音像を画像オブジェクトに対応づけ、音像の属性のうち定位位置を画像オブジェクトの表示位置に対応付けて表示し、取得手段が取得した属性の変化を、画像オブジェクトの画面上の変化として表示する表示制御手段と、を備えたことを特徴とする音像の属性表示装置、を提供する。   In order to solve the above-described problems, the present invention relates to an acquisition unit that acquires a sound image attribute that changes with the progress of music based on music information, and associates a sound image included in the music information with an image object. A sound image comprising: a display control unit that displays a localization position in association with a display position of an image object, and displays a change in the attribute acquired by the acquisition unit as a change on the screen of the image object. Attribute display device.

本発明によれば、音楽の進行に伴う音像の属性の変化に応じて当該音像に対応づけられた画像オブジェクトが画面上で変化する。本発明の属性表示装置のユーザは、画像オブジェクトの画面上の変化から、音楽の進行に伴って時々刻々変化する音像の属性を俯瞰することができる。   According to the present invention, the image object associated with the sound image changes on the screen according to the change in the attribute of the sound image as the music progresses. The user of the attribute display device of the present invention can overlook the attribute of the sound image that changes every moment with the progress of music from the change of the image object on the screen.

より好ましい態様においては、表示制御手段は、音像の定位位置以外の属性を画像オブジェクトの大きさ、形状、および表示色の各々に対応付けることを特徴とする。また別の好ましい態様においては、表示制御手段は、音像が発音状態の場合と発音していない状態とで画像オブジェクトの表示態様を異ならせることを特徴とする。   In a more preferred aspect, the display control means associates attributes other than the localization position of the sound image with each of the size, shape, and display color of the image object. In another preferred mode, the display control means is characterized in that the display mode of the image object is different depending on whether the sound image is in a sounding state or not.

別の好ましい態様においては、表示制御手段は、画像オブジェクトの大きさを音像の音量に対応付け、音楽の進行に伴って当該音像の音量が予め定められた閾値を上回る場合に画像オブジェクトを表示することを特徴とする。このような態様によれば、音楽情報に複数の音像が含まれている場合に、各音像に対応する画像オブジェクトをその音像の音量に関わらず表示装置に表示する態様に比較して、表示装置に表示する画像オブジェクトの数が減り、画像オブジェクトの表示に要する処理負荷を軽減させることができる。   In another preferred embodiment, the display control means associates the size of the image object with the volume of the sound image, and displays the image object when the volume of the sound image exceeds a predetermined threshold as the music progresses. It is characterized by that. According to such an aspect, when a plurality of sound images are included in the music information, the display device is compared with the aspect in which the image object corresponding to each sound image is displayed on the display device regardless of the volume of the sound image. The number of image objects to be displayed is reduced, and the processing load required to display the image objects can be reduced.

別の好ましい態様においては、音像の属性を変更する属性変更手段を有することを特徴とする。この態様によれば、属性変更手段により音像の属性を変更すること、すなわち音楽情報を編集することが可能になる。   In another preferred aspect, the image processing apparatus includes an attribute changing unit that changes the attribute of the sound image. According to this aspect, the attribute of the sound image can be changed by the attribute changing unit, that is, the music information can be edited.

また、上記課題を解決するために本発明は、音楽情報に基づく音楽の進行に伴って変化する音像の属性を取得する取得ステップと、音楽情報に含まれる音像を画像オブジェクトに対応づけ、音像の属性のうち定位位置を画像オブジェクトの表示位置に対応付けて表示し、取得ステップにて取得した属性の変化を、画像オブジェクトの画面上の変化として表示する表示ステップと、を含むことを特徴とする音像の属性表示方法、を提供する。この属性表示方法によっても、音楽の進行に伴って時々刻々変化する音像の属性を俯瞰できるようになる。   In order to solve the above-described problem, the present invention relates to an acquisition step for acquiring a sound image attribute that changes with the progress of music based on music information, and a sound image included in the music information is associated with an image object. A display step of displaying the localization position in association with the display position of the image object among the attributes and displaying the change of the attribute acquired in the acquisition step as a change on the screen of the image object. A sound image attribute display method is provided. Also by this attribute display method, it is possible to look down on the attributes of the sound image that changes every moment as the music progresses.

本発明の別の態様としては、CPU(Central Processing Unit)などのコンピュータに上記属性表示方法を実行させるプログラム、換言すれば、コンピュータを上記表示制御手段および取得手段として機能させるプログラムを提供する態様が考えられる。また、当該プログラムの具体的な提供態様としては、CD−ROM(Compact Disk-Read Only Memory)やフラッシュROM(Read
Only Memory)などのコンピュータ読み取り可能な記録媒体に書き込んで配布する態様や、インターネットなど電気通信回線経由のダウンロードにより配布する態様が考えられる。
Another aspect of the present invention is an aspect of providing a program for causing a computer such as a CPU (Central Processing Unit) to execute the attribute display method, in other words, a program for causing a computer to function as the display control means and the acquisition means. Conceivable. Further, as a specific mode of providing the program, a CD-ROM (Compact Disk-Read Only Memory) or a flash ROM (Read
A mode in which data is written and distributed on a computer-readable recording medium such as Only Memory) or a mode in which data is distributed by downloading via a telecommunication line such as the Internet can be considered.

本発明の一実施形態による属性表示装置10の構成例を示す図である。It is a figure which shows the structural example of the attribute display apparatus 10 by one Embodiment of this invention. 属性表示装置10の制御部110が、属性表示プログラムを実行することで実現する属性表示方法の流れを示すフローチャートである。It is a flowchart which shows the flow of the attribute display method implement | achieved when the control part 110 of the attribute display apparatus 10 executes an attribute display program. 属性表示装置10の制御部110が、属性表示プログラムを実行することで実現する機能ブロックを示す図である。It is a figure which shows the functional block implement | achieved when the control part 110 of the attribute display apparatus 10 executes an attribute display program. 属性表示装置10により属性が表示される音像の仮想空間VSにおける配置例を示す図である。It is a figure which shows the example of arrangement | positioning in the virtual space VS of the sound image by which an attribute is displayed by the attribute display apparatus. 属性表示装置10の表示部120aに表示される属性表示画面の一例を示す図である。It is a figure which shows an example of the attribute display screen displayed on the display part 120a of the attribute display apparatus 10. FIG. 属性表示装置10の表示部120aに表示される属性表示画面の一例を示す図である。It is a figure which shows an example of the attribute display screen displayed on the display part 120a of the attribute display apparatus 10. FIG. 属性表示装置10により属性が表示される音像の仮想空間VSにおける配置例を示す図である。It is a figure which shows the example of arrangement | positioning in the virtual space VS of the sound image by which an attribute is displayed by the attribute display apparatus. 属性表示装置10の表示部120aに表示される属性表示画面の一例を示す図である。It is a figure which shows an example of the attribute display screen displayed on the display part 120a of the attribute display apparatus 10. FIG. 変形例(4)の属性表示方法の流れを示すフローチャートである。It is a flowchart which shows the flow of the attribute display method of a modification (4).

以下、図面を参照しつつ、本発明の実施形態を説明する。
図1は、本発明の一実施形態による属性表示装置10の構成例を示す図である。図1に示す属性表示装置10は、コンピュータゲームにおけるゲーム音楽や効果音の音楽情報を作成するためのDTMを実現するパーソナルコンピュータである。本実施形態の属性表示装置10はパーソナルコンピュータであるが、タブレット端末であっても良い。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration example of an attribute display device 10 according to an embodiment of the present invention. An attribute display device 10 shown in FIG. 1 is a personal computer that realizes a DTM for creating music information of game music and sound effects in a computer game. The attribute display device 10 of the present embodiment is a personal computer, but may be a tablet terminal.

図1に示すように、属性表示装置10は、制御部110、ユーザI/F部120、記憶部130、およびこれら構成要素間のデータ授受を仲介するバス140を含む。なお、図1に示す構成要素の他に、USB(Universal Serial Bus)メモリなどの外部機器を接続するための外部機器I/F部や、他の機器と通信するための通信I/F部が属性表示装置10に含まれていても良い。   As shown in FIG. 1, the attribute display device 10 includes a control unit 110, a user I / F unit 120, a storage unit 130, and a bus 140 that mediates data exchange between these components. In addition to the components shown in FIG. 1, there are an external device I / F unit for connecting an external device such as a USB (Universal Serial Bus) memory, and a communication I / F unit for communicating with other devices. It may be included in the attribute display device 10.

制御部110は、例えばCPUである。制御部110は記憶部130に記憶されている各種ソフトウェアを実行することで属性表示装置10の制御中枢として機能する。   The control unit 110 is a CPU, for example. The control unit 110 functions as a control center of the attribute display device 10 by executing various software stored in the storage unit 130.

ユーザI/F部120は、属性表示装置10を利用するためのユーザI/Fを提供する。ユーザI/F部120は、図1に示すように、表示部120aと、操作入力部120bと、音出力部120cと、を含む。   The user I / F unit 120 provides a user I / F for using the attribute display device 10. As shown in FIG. 1, the user I / F unit 120 includes a display unit 120a, an operation input unit 120b, and a sound output unit 120c.

表示部120aは、例えば液晶パネルである。表示部120aは、制御部110による制御の下、各種画面を表示する。音出力部120cは、制御部110による制御の下で音信号を生成する音源回路(図1では図示略)と、音源回路から与えられる音信号に応じて音を出力するスピーカ(図1では図示略)とを含む。   The display unit 120a is a liquid crystal panel, for example. The display unit 120a displays various screens under the control of the control unit 110. The sound output unit 120c is a sound source circuit (not shown in FIG. 1) that generates a sound signal under the control of the control unit 110, and a speaker (not shown in FIG. 1) that outputs sound according to the sound signal given from the sound source circuit. Abbreviation).

操作入力部120bは、マウス等のポインティングデバイスとMIDIキーボードを含む。MIDIキーボードは、DTMにおいて作曲に使われる装置であるが、音像の音色(例えば、音像に対応する楽器の種別)や音名、音量、EQのかかり具合等をユーザに指定させるための装置でもある。マウス等のポインティングデバイスは一般的な入力操作に加えて、DTMにおいて音像の定位位置をユーザに指定させるための装置でもある。操作入力部120bに対して、クリックやドラッグ、或いはキー押下などの操作が為されると、操作入力部120bはその操作内容を表すデータを制御部110に与える。これにより、操作入力部120bに対して為された操作の内容が制御部110に伝達される。   The operation input unit 120b includes a pointing device such as a mouse and a MIDI keyboard. The MIDI keyboard is a device used for composition in DTM, but is also a device for allowing the user to specify the tone color of the sound image (for example, the type of musical instrument corresponding to the sound image), the sound name, the volume, and the degree of EQ. . A pointing device such as a mouse is a device for allowing a user to specify a localization position of a sound image in DTM in addition to a general input operation. When an operation such as clicking, dragging, or key pressing is performed on the operation input unit 120b, the operation input unit 120b gives data representing the operation content to the control unit 110. As a result, the content of the operation performed on the operation input unit 120b is transmitted to the control unit 110.

記憶部130は、図1に示すように揮発性記憶部132と不揮発性記憶部134とを含む。揮発性記憶部132は、例えばRAM(Random
Access Memory)である。揮発性記憶部132は各種ソフトウェアを実行する際のワークエリアとして制御部110によって利用される。不揮発性記憶部134は例えばハードディスクである。不揮発性記憶部134には、各種ソフトウェアと各種データが格納される。不揮発性記憶部134に格納されているソフトウェアの具体例としては、OS(Operating
System)を制御部110に実現させるためのカーネルソフトウェアとDTMソフトウェアが挙げられる。不揮発性記憶部134に格納されるデータの具体例としては、DTMにおいて作成される音楽情報が挙げられる。
As shown in FIG. 1, the storage unit 130 includes a volatile storage unit 132 and a nonvolatile storage unit 134. The volatile storage unit 132 is, for example, a RAM (Random
Access Memory). The volatile storage unit 132 is used by the control unit 110 as a work area when executing various software. The nonvolatile storage unit 134 is, for example, a hard disk. The nonvolatile storage unit 134 stores various software and various data. As a specific example of software stored in the nonvolatile storage unit 134, an OS (Operating
Kernel software and DTM software for causing the control unit 110 to realize (System). A specific example of data stored in the nonvolatile storage unit 134 is music information created in DTM.

属性表示装置10の電源(図1では図示略)が投入されると、制御部110はカーネルソフトウェアを不揮発性記憶部134から揮発性記憶部132へ読み出し、その実行を開始する。カーネルプログラムにしたがって作動している制御部110は、操作入力部120bに対する操作により実行を指示されたソフトウェアを不揮発性記憶部134から揮発性記憶部132へ読み出し、その実行を開始する。例えば、操作入力部120bに対する操作により、DTMソフトウェアの実行を指示された場合には、制御部110は、DTMソフトウェアを不揮発性記憶部134から揮発性記憶部132へ読み出し、その実行を開始する。   When the attribute display device 10 is powered on (not shown in FIG. 1), the control unit 110 reads the kernel software from the nonvolatile storage unit 134 to the volatile storage unit 132 and starts executing it. The control unit 110 operating according to the kernel program reads the software instructed to be executed by an operation on the operation input unit 120b from the nonvolatile storage unit 134 to the volatile storage unit 132, and starts executing the software. For example, when the execution of the DTM software is instructed by an operation on the operation input unit 120b, the control unit 110 reads the DTM software from the nonvolatile storage unit 134 to the volatile storage unit 132, and starts the execution.

DTMソフトウェアにしたがって作動している制御部110は、DTMを実現する。このDTMにおいては、ユーザは、操作入力部120bに対する操作により音楽情報を生成することができる。より詳細に説明すると、ユーザは、操作入力部120bに対する操作により、各トラックに音像の音色(音像に対応する楽器の種別)を設定する。次いで、ユーザは、操作入力部120bに対する操作により、音色以外の属性をトラック毎に設定する。例えば、ユーザは、音楽の始点を起算点とする各時刻における音名をトラック毎に設定し、次いで各時刻における音量をトラック毎に設定し、各時刻における定位位置をトラック毎に設定する。また、ユーザは、操作入力部120bに対する操作により作成した音楽情報の再生を指示することができる。DTMソフトウェアにしたがって作動している制御部110は、音楽情報の再生を指示されると、該当する音楽情報にしたがって音出力部120cを制御し、当該音楽情報の表す音を音出力部120cに出力させる。   The control unit 110 operating according to the DTM software implements DTM. In this DTM, the user can generate music information by operating the operation input unit 120b. More specifically, the user sets the timbre of the sound image (the type of instrument corresponding to the sound image) to each track by an operation on the operation input unit 120b. Next, the user sets attributes other than the timbre for each track by an operation on the operation input unit 120b. For example, the user sets the note name at each time starting from the start point of music for each track, then sets the volume at each time for each track, and sets the localization position at each time for each track. Further, the user can instruct reproduction of music information created by an operation on the operation input unit 120b. When the control unit 110 operating according to the DTM software is instructed to reproduce the music information, the control unit 110 controls the sound output unit 120c according to the corresponding music information and outputs the sound represented by the music information to the sound output unit 120c. Let

本実施形態では、図1に示すように、上記DTMソフトウェアには、属性表示プログラムが含まれている。制御部110が、この属性表示プログラムを実行すると、音楽情報に含まれる音像の属性の変化をユーザが俯瞰可能なように表示部120aへの表示制御を行う。本実施形態では、音楽情報の再生を指示された制御部110は、音楽情報の再生を開始するとともに、属性表示プログラムの実行を開始する。   In the present embodiment, as shown in FIG. 1, the DTM software includes an attribute display program. When the control unit 110 executes the attribute display program, the control unit 110 performs display control on the display unit 120a so that the user can look down on the change in the attribute of the sound image included in the music information. In the present embodiment, the control unit 110 that is instructed to reproduce the music information starts to reproduce the music information and starts to execute the attribute display program.

図2は、制御部110が、属性表示プログラムを実行することで実現する属性表示方法の流れを示すフローチャートである。図2に示すように、この属性表示方法は、取得ステップSA100と、表示ステップSA110と、判定ステップSA120と、を含む。判定ステップSA120では、制御部110は、音楽情報の再生が終了したか否かを判定する。図2に示すように、制御部110は、判定ステップSA120の判定結果が“Yes”になるまで、取得ステップSA100および表示ステップSA110の処理を音楽情報の再生に同期させて繰り返し実行する。図3に、制御部110が属性表示プログラムにしたがって実現する機能ブロックを示すが、属性表示プログラムにしたがって作動している制御部110は、取得ステップSA100の処理を実行する取得手段、および表示ステップSA110の処理を実行する表示制御手段として機能する。   FIG. 2 is a flowchart showing the flow of the attribute display method realized by the control unit 110 executing the attribute display program. As shown in FIG. 2, this attribute display method includes an acquisition step SA100, a display step SA110, and a determination step SA120. In determination step SA120, control unit 110 determines whether or not the reproduction of music information has ended. As shown in FIG. 2, the control unit 110 repeatedly executes the processing of the acquisition step SA100 and the display step SA110 in synchronization with the reproduction of music information until the determination result of the determination step SA120 becomes “Yes”. FIG. 3 shows functional blocks realized by the control unit 110 according to the attribute display program. The control unit 110 operating according to the attribute display program includes an acquisition unit that executes the process of the acquisition step SA100, and a display step SA110. It functions as a display control means for executing the process.

図3における取得手段は、音楽の進行に伴って変化する音像の属性を音楽情報から取得する。図3における表示制御手段は、取得手段が取得した音像の属性に対応付けて画像オブジェクトを表示部120aに表示する。ここで、表示制御手段は、音像の属性のうち定位位置を画像オブジェクトの表示位置に対応付ける。加えて、表示制御手段は、音像の定位位置以外の属性を画像オブジェクトの大きさ、形状、および表示色の各々に対応付ける。具体的には、表示制御手段は、音量を画像オブジェクトの大きさに、音色を画像オブジェクトの形状に、音名を画像オブジェクトの表示色に対応づける。つまり、表示制御手段は、音像が発音状態である場合には、その音像の定位位置に対応する表示位置に、その音像の音色、音量、および音名に対応した形状、大きさおよび表示色の画像オブジェクトを表示し、音像が非発音状態である場合にはその音像に対応する画像オブジェクトの表示を行わない。そして、表示制御手段は、取得手段が取得した属性の変化を、画像オブジェクトの画面上の変化として表示する。   The acquisition means in FIG. 3 acquires from the music information the attribute of the sound image that changes as the music progresses. The display control unit in FIG. 3 displays an image object on the display unit 120a in association with the attribute of the sound image acquired by the acquisition unit. Here, the display control means associates the localization position among the attributes of the sound image with the display position of the image object. In addition, the display control means associates attributes other than the localization position of the sound image with each of the size, shape, and display color of the image object. Specifically, the display control means associates the volume with the size of the image object, the tone color with the shape of the image object, and the tone name with the display color of the image object. That is, when the sound image is in a sounding state, the display control means has a shape, size, and display color corresponding to the tone color, volume, and tone name of the sound image at the display position corresponding to the localization position of the sound image. When an image object is displayed and the sound image is in a non-sounding state, the image object corresponding to the sound image is not displayed. Then, the display control means displays the attribute change acquired by the acquisition means as a change on the screen of the image object.

本発明では、100個の音像が3次元空間を移動しながら発音する場合、表示画面の仮想空間内を100個の画像オブジェクトが移動しながらそれぞれ形状、大きさ、表示色を変化させる。この段落以降では、音像は3つで、2次元空間を音像が移動する場合を例に、説明する。本実施形態の表示制御手段は、音色がピアノであれば矩形の画像オブジェクトを、音色がギターであれば円形の画像オブジェクトを、音色がベースであれば三角形の画像オブジェクトを対応付け、音名が「ド」の音には青色を、音名が「ミ」の音には赤色を、音名が「ソ」の音には黄色を、夫々対応付ける。ここで、上記音楽情報には、音像SI1〜SI3の3つが含まれており、音像SI1がピアノに、音像SI2がギターに、音像SI3がベースに夫々対応していたとする。そして、ある時刻T1において、音像SI1〜SI3の各々が配置される仮想空間VSを上方から見た場合の音像SI1〜SI3の各々の定位位置が図4のように表され、音像SI1〜SI3の各々から発せられる音の音名が「ミ」であり、かつ同じ音量であったとする。   In the present invention, when 100 sound images are generated while moving in a three-dimensional space, the shape, size, and display color are changed while 100 image objects move in the virtual space of the display screen. In the following paragraphs, a case where there are three sound images and the sound image moves in a two-dimensional space will be described as an example. The display control means of this embodiment associates a rectangular image object if the timbre is a piano, a circular image object if the timbre is a guitar, and a triangular image object if the timbre is a base. The sound of “do” is associated with blue, the sound with the name “mi” is associated with red, and the sound with the name “so” is associated with yellow. Here, it is assumed that the music information includes three sound images SI1 to SI3, the sound image SI1 corresponds to the piano, the sound image SI2 corresponds to the guitar, and the sound image SI3 corresponds to the base. At a certain time T1, the localization positions of the sound images SI1 to SI3 when the virtual space VS in which the sound images SI1 to SI3 are arranged are viewed from above are represented as shown in FIG. It is assumed that the sound name of each sound is “mi” and has the same volume.

表示制御手段は、時刻T1において図5に示す属性表示画面AG1を表示部120aに表示する。この属性表示画面AG1は、上記仮想空間VSを上方から見た平面図に対応し、音像SI1の定位位置にはその音色(ピアノ)に対応する形状(すなわち、矩形)の画像オブジェクトOG1が、音像SI2の定位位置にはその音色(ギター)に対応する形状(すなわち、円形)の画像オブジェクトOG2が、音像SI3の定位位置にはその音色(ベース)に対応する形状(すなわち、三角形)の画像オブジェクトOG3がそれぞれ配置されている。前述したように、時刻T1では、音像SI1〜SI3の各々の音量は同じであるため、表示制御手段は画像オブジェクトOG1〜OG3の大きさを同じにする。また、前述したように、時刻T1では、音像SI1〜SI3の各々の音名は何れも「ミ」であるため、表示制御手段は画像オブジェクトOG1〜OG3の表示色を赤色にする。なお、図5において縦線のハッチングは赤色を意味し、以降の図6および図8においても同様である。また、図6および図8において、横線のハッチングは青色を意味し、斜め線のハッチングは黄色を意味する。   The display control means displays the attribute display screen AG1 shown in FIG. 5 on the display unit 120a at time T1. The attribute display screen AG1 corresponds to a plan view of the virtual space VS as viewed from above, and an image object OG1 having a shape (that is, a rectangle) corresponding to the tone (piano) is located at the localization position of the sound image SI1. An image object OG2 having a shape (that is, a circle) corresponding to the tone (guitar) at the localization position of SI2, and an image object having a shape (that is, a triangle) corresponding to the tone (base) at the localization position of sound image SI3. OG3 is arrange | positioned, respectively. As described above, since the sound volumes of the sound images SI1 to SI3 are the same at time T1, the display control unit makes the sizes of the image objects OG1 to OG3 the same. Further, as described above, at time T1, since the sound names of the sound images SI1 to SI3 are all “mi”, the display control unit changes the display color of the image objects OG1 to OG3 to red. In FIG. 5, vertical hatching means red, and the same applies to FIGS. 6 and 8 below. Moreover, in FIG. 6 and FIG. 8, the hatching of a horizontal line means blue, and the hatching of a diagonal line means yellow.

図5に示す属性表示画面AG1を視認したユーザは、画像オブジェクトOG1〜OG3の各々の表示位置、形状、大きさおよび表示色から、音像SI1〜SI3の各々の定位位置、音色、音量および音名を視覚的に把握することができる。   The user who has viewed the attribute display screen AG1 shown in FIG. 5 determines the localization position, tone color, volume, and tone name of each of the sound images SI1 to SI3 from the display position, shape, size, and display color of each of the image objects OG1 to OG3. Can be grasped visually.

時刻T1から時刻T2(T2>T1)までに、音像SI1〜SI3の各々の定位位置、音名および音量が変化していた場合には、表示制御手段はそれら定位位置、音名、および音量の変化に応じて画像オブジェクトOG1〜OG3の各々の表示位置、表示色および大きさを変化させる。例えば、音像SI1〜SI3の各々の定位位置は変化せず、時刻T2における音像SI1の音名が「ド」であり、かつ音像SI3の音名が「ソ」であり、さらに音像SI3の音量が大きくなっていたとする。すると、時刻T2では、表示制御手段は、図6に示す属性表示画面AG2を表示部120aに表示する。ユーザは、音像SI1および音像SI3の各々に対応する画像オブジェクトOG1およびOG3の各々の表示色の変化、および画像オブジェクトOG3の大きさの変化から音像SI1および音像SI3の各々の音名の変化、および音像SI3の音量の変化を視覚的に把握することができる。   If the localization position, pitch name, and volume of each of the sound images SI1 to SI3 have changed from time T1 to time T2 (T2> T1), the display control means changes the localization position, pitch name, and volume. The display position, display color, and size of each of the image objects OG1 to OG3 are changed according to the change. For example, the localization positions of the sound images SI1 to SI3 do not change, the sound name of the sound image SI1 at time T2 is “do”, the sound name of the sound image SI3 is “So”, and the volume of the sound image SI3 is Suppose it was getting bigger. Then, at time T2, the display control means displays the attribute display screen AG2 shown in FIG. 6 on the display unit 120a. The user changes the display color of each of the image objects OG1 and OG3 corresponding to each of the sound image SI1 and the sound image SI3, and changes in the sound names of the sound images SI1 and SI3 from the changes in the size of the image object OG3. It is possible to visually grasp the change in volume of the sound image SI3.

時刻T3(T3>T2)では音像SI1は非発音状態であり、音像SI3の音量が時刻T1における音量に戻り、音像SI2の定位位置が図7に示すように変化していたとする。すると、表示制御手段は、図8に示す属性表示画面AG3を表示部120aに表示する。属性表示画面AG3を視認したユーザは、画像オブジェクトOG1が表示されていないことから、時刻T3では音像SI1が非発音状態であることを把握することができる。また、ユーザは、音像SI3の音量が時刻T1における音量に戻ったこと、および音像SI2の定位位置が変化したことを画像オブジェクトOG3の大きさの変化および画像オブジェクトOG2の表示位置の変化から視覚的に把握することができる。   It is assumed that the sound image SI1 is in a non-sounding state at time T3 (T3> T2), the volume of the sound image SI3 returns to the volume at time T1, and the localization position of the sound image SI2 has changed as shown in FIG. Then, the display control means displays the attribute display screen AG3 shown in FIG. 8 on the display unit 120a. The user who visually recognizes the attribute display screen AG3 can grasp that the sound image SI1 is in a non-sounding state at time T3 because the image object OG1 is not displayed. Further, the user visually confirms that the volume of the sound image SI3 has returned to the volume at the time T1 and that the localization position of the sound image SI2 has changed from the change in the size of the image object OG3 and the change in the display position of the image object OG2. Can grasp.

以上説明したように本実施形態の属性表示装置10によれば、ユーザは、音楽の進行に伴って時々刻々変化する音像の属性を俯瞰することができる。上記実施形態では、音像に対応する画像オブジェクトの形状が矩形、円形、三角形であったが、音符、音量計(音量レベルメータ)等の形状であっても良い。また、音像に対応する画像オブジェクトとしてゲームのキャラクタを用いても良く、どのような形状の画像オブジェクトを用いても良い。また、上記実施形態では、属性表示画面として、音像SI1〜SI3が配置される仮想空間VSを上方から見た平面図に対応する画面を用いたが、三次元空間に対応する画面であっても良く、この場合は、各音像に対応する画像オブジェクトとして、球、三角錐、立方体などを用いるようにすれば良い。また、本実施形態では、ゲーム音楽やゲームの効果音の音楽情報を作成するためのDTMへの本発明の適用例を説明したが、歌唱音や楽器演奏音等の音楽情報を作成するためのDTMに本発明を適用しても勿論良い。   As described above, according to the attribute display device 10 of the present embodiment, the user can look down on the attributes of the sound image that change from moment to moment as the music progresses. In the above embodiment, the shape of the image object corresponding to the sound image is a rectangle, a circle, or a triangle. However, the shape may be a note, a volume meter (volume level meter), or the like. In addition, a game character may be used as an image object corresponding to a sound image, and an image object having any shape may be used. Moreover, in the said embodiment, although the screen corresponding to the top view which looked at virtual space VS where sound image SI1-SI3 is arrange | positioned from the upper direction was used as an attribute display screen, even if it is a screen corresponding to a three-dimensional space. In this case, a sphere, a triangular pyramid, a cube, or the like may be used as an image object corresponding to each sound image. Moreover, although this embodiment demonstrated the application example of this invention to DTM for creating the music information of game music or the sound effect of a game, for creating music information, such as a singing sound and a musical instrument performance sound Of course, the present invention may be applied to a DTM.

以上、本発明の実施形態について説明したが、この実施形態に以下の変形を加えても良い。
(1)上記実施形態では、音像が発音状態である場合には当該音像に対応する画像オブジェクトが属性表示画面における当該音像の定位位置に対応する表示位置に表示された。しかし、音像が発音していない状態(非発音状態)である場合には、発音状態とは異なる画像オブジェクト(例えば、発音状態と同じ形状で輪郭線のみで構成された画像オブジェクト)を表示させ、現在は非発音状態であっても将来に発音状態となる(或いは過去に発音状態となっていた)音像があることをユーザに把握させるようにしても良い。この態様によれば、音像の発音状態および非発音状態についての時間軸方向の俯瞰が可能になる。
As mentioned above, although embodiment of this invention was described, you may add the following modifications to this embodiment.
(1) In the above embodiment, when the sound image is in a sounding state, the image object corresponding to the sound image is displayed at the display position corresponding to the localization position of the sound image on the attribute display screen. However, when the sound image is not sounded (non-sounding state), an image object different from the sounding state (for example, an image object having the same shape as the sounding state and configured only by a contour line) is displayed. You may make it grasp | ascertain that there exists a sound image which will be in a sounding state in the future even if it is a non-sounding state now (or it was in a sounding state in the past). According to this aspect, it is possible to have a bird's-eye view of the sound image sounding state and the non-sounding state in the time axis direction.

また、音量を画像オブジェクトの大きさに設定しておけば、音楽の進行に合せて音量が変化し画像オブジェクトが大きさを変えるので、音楽に合わせて(音楽に同期して)画像オブジェクトが振動しているように見える。コンピュータゲームの世界では、複数のキャラクタが画面に表示され、「音」はするが、どのキャラクタが話しているのか判らない場合がある。そのような場合、キャラクタが表示された画面と、キャラクタのセリフに合せて画像オブジェクトが振動しているように見える画面とを重ねて表示することで、どのキャラクタが話しているか識別可能になる。   If the volume is set to the size of the image object, the volume of the image object changes as the music progresses, and the size of the image object changes. Therefore, the image object vibrates according to the music (in synchronization with the music). Looks like you are doing. In the world of computer games, there are cases where a plurality of characters are displayed on the screen and make a “sound” but do not know which character is speaking. In such a case, it is possible to identify which character is speaking by superimposing and displaying the screen on which the character is displayed and the screen on which the image object appears to vibrate according to the character's lines.

(2)上記実施形態では、音像が非発音状態である場合には当該音像に対応する画像オブジェクトは表示されなかったが、音楽の進行に伴って音量が予め定められた閾値を上回る場合に当該音像に対応づけた画像オブジェクトを表示する(換言すれば、音像が発音状態であっても音量が当該閾値未満である場合には当該音像に対応する画像オブジェクトを表示しない)ようにしても良い。前述したように、トラック数が100であり、各トラックに1つの音像が割り当てられている場合には、属性表示画面に100個の画像オブジェクトを表示することになるが、後者の態様によれば、各時刻において音量が閾値未満の音像に対応する画像オブジェクトの表示を省略することができ、画像オブジェクトの表示に要する処理負荷を軽減しつつ、音楽の進行に伴って時々刻々変化する音像の属性を俯瞰できるようになる。 (2) In the above embodiment, when the sound image is in a non-sounding state, the image object corresponding to the sound image is not displayed, but when the volume exceeds a predetermined threshold as the music progresses, An image object associated with the sound image may be displayed (in other words, even if the sound image is in a sounding state, the image object corresponding to the sound image is not displayed when the volume is less than the threshold value). As described above, when the number of tracks is 100 and one sound image is assigned to each track, 100 image objects are displayed on the attribute display screen. According to the latter aspect, , The display of the image object corresponding to the sound image whose volume is less than the threshold at each time can be omitted, and the attribute of the sound image that changes momentarily as the music progresses while reducing the processing load required for the display of the image object You will be able to overlook.

(3)上記実施形態では、音像の定位位置以外の属性の一例として、音量、音色および音名を挙げたが、これに限定されるものではなく、EQの有無(或いは強さ)であっても良く、EQをかける際の帯域の分割数やEQにより強調されている(或いは弱められている)周波数範囲であっても良い。また、リバーブの有無(或いは強さ)であっても良く、リバーブタイムの長さや残響周波数であっても良い。また、リバーブをかける音像のグループ、EQをかける音像のグループ、コーラスをかける音像のグループ、音像の定位をグループで行うための定位のグループ等で音像をグループ分けし、当該各々のグループを音像の属性としても良い。また、音像の定位位置以外の複数の属性のうちの何れを画像オブジェクトの大きさ、形状および表示色に対応付けるかをユーザに指示させるようにしても良い。例えば、EQの有無を表示色に対応付けることを指示する操作が為された場合には画像オブジェクトの表示色がEQの有無に応じて一斉に変化する。このため、EQをかけ忘れた音像や当該音像に対応するトラックを視覚的に把握することが可能になる。 (3) In the above embodiment, as an example of attributes other than the localization position of the sound image, the volume, tone color, and pitch name are given, but the present invention is not limited to this, and the presence or absence (or strength) of EQ. Alternatively, it may be a frequency range that is emphasized (or weakened) by the number of divisions of the band when applying EQ or EQ. Moreover, the presence or absence (or strength) of reverb may be sufficient, and the length of reverb time and the reverberation frequency may be sufficient. In addition, sound images are grouped into sound image groups to which reverb is applied, sound images to be applied with EQ, sound images to be applied with chorus, and localization groups for performing sound image localization in groups. It may be an attribute. Further, the user may be instructed which of a plurality of attributes other than the localization position of the sound image is associated with the size, shape and display color of the image object. For example, when an operation for instructing to associate the presence / absence of EQ with the display color is performed, the display color of the image object changes simultaneously according to the presence / absence of EQ. For this reason, it becomes possible to visually grasp the sound image forgot to apply EQ and the track corresponding to the sound image.

例えば、コンピュータゲームにおいて効果音として使われる「銃声」は「発射音とそれに伴う残響音」が長いため、1つのトラックでは表現しきれず、複数のトラックを用いて表現されることが多い。このように複数のトラックで表現される音については、その一部のトラックについてEQのかけ忘れが発生し易いが、本態様によればEQをかけ忘れたトラックを視覚的に把握することが可能になる。   For example, a “gunshot” used as a sound effect in a computer game has a long “fire sound and accompanying reverberation sound”, so it cannot be expressed with one track and is often expressed with a plurality of tracks. As described above, for sounds expressed by multiple tracks, it is easy to forget to apply EQ to some of the tracks, but according to this aspect, it is possible to visually grasp the track for which EQ has been forgotten. become.

(4)上記実施形態では、音楽情報の開始から終了まで、音楽の進行に合せて画像オブジェクトが表示画面内を移動しながら、形状、大きさ、表示色を変化させるので、属性の設定ミスに気付き易い。属性の設定ミスに気付いた時点で「編集モード」に制御を移し、属性を編集できるようにしても良い。具体的には、図2に示す属性表示方法に代えて図9に示す属性表示方法を制御部110に実行させる。図9に示す属性表示方法は、編集指示判定ステップSA112および編集ステップSA114を含む点が図2に示す属性表示方法と異なる。編集指示判定ステップSA112は、表示ステップSA110に後続して実行される。編集指示判定ステップSA112では、制御部110は、「編集モード」への移行を指示する操作が操作入力部120bに対して為されたか否かを判定する。「編集モード」への移行を指示する操作が為された場合に編集指示判定ステップSA112の判定結果は“Yes”になる。 (4) In the above embodiment, since the image object moves in the display screen as the music progresses from the start to the end of the music information, the shape, size, and display color are changed. Easy to notice. When an attribute setting error is noticed, control may be transferred to “edit mode” so that the attribute can be edited. Specifically, the control unit 110 executes the attribute display method shown in FIG. 9 instead of the attribute display method shown in FIG. The attribute display method shown in FIG. 9 is different from the attribute display method shown in FIG. 2 in that it includes an edit instruction determination step SA112 and an edit step SA114. The edit instruction determination step SA112 is executed subsequent to the display step SA110. In the edit instruction determination step SA112, the control unit 110 determines whether or not an operation for instructing the shift to the “edit mode” has been performed on the operation input unit 120b. When the operation for instructing the shift to the “edit mode” is performed, the determination result in the edit instruction determination step SA112 is “Yes”.

編集指示判定ステップSA112の判定結果が“No”であれば、制御部110は判定ステップSA120を実行する。これに対して、編集指示判定ステップSA112の判定結果が“Yes”である場合には、制御部110は編集ステップSA114を実行した後に判定ステップSA120を実行する。編集ステップSA114では、制御部110は、画像オブジェクトの表示位置、大きさ、形状或いは表示色を変更する操作が操作入力部120bに対して為されるのに応じて音像の属性を変更(すなわち、音楽情報を更新)する。つまり、制御部110は、音像の属性を変更する属性変更手段の役割を担う。   If the determination result in edit instruction determination step SA112 is “No”, control unit 110 executes determination step SA120. On the other hand, when the determination result of the edit instruction determination step SA112 is “Yes”, the control unit 110 executes the determination step SA120 after executing the edit step SA114. In the editing step SA114, the control unit 110 changes the attribute of the sound image in response to an operation for changing the display position, size, shape, or display color of the image object being performed on the operation input unit 120b (that is, Update music information). That is, the control unit 110 serves as an attribute changing unit that changes the attribute of the sound image.

例えば、編集ステップSA114において、画像オブジェクトをクリックしてドラッグアンドドロップする操作が操作入力部120bに対して為された場合には、制御部110は、ドロップ後の表示位置に音像の定位位置を変更する。また、編集ステップSA114において、画像オブジェクトをクリックする操作が操作入力部120bに対して為された場合には、制御部110は、当該画像オブジェクトの表示色候補或いは当該画像オブジェクトの形状候補をリスト表示するポップアップを表示し、当該ポップアップに対する操作により指定された表示色或いは形状に変更するとともに、変更後の表示色或いは形状に対応する属性に変更する。このようにして更新された音楽情報は、記憶部130に保存される。もしくは、画像オブジェクトをクリックすることで、DTMソフトウェアの編集機能が動作するようにしても良い。または、画像オブジェクトをクリックすることで、特許文献1の図2に示されたシーケンサプログラムを表示して、画像オブジェクトに対応するトラックを表示して、シーケンサプログラムにより属性を変更するようにしても良い。   For example, in the editing step SA114, when an operation of clicking and dragging and dropping an image object is performed on the operation input unit 120b, the control unit 110 changes the localization position of the sound image to the display position after the drop. To do. Further, in the editing step SA114, when an operation of clicking on the image object is performed on the operation input unit 120b, the control unit 110 displays a list of display color candidates for the image object or shape candidates for the image object. The pop-up to be displayed is displayed, and the display color or shape designated by the operation for the pop-up is changed, and the attribute corresponding to the changed display color or shape is changed. The music information updated in this way is stored in the storage unit 130. Alternatively, the editing function of the DTM software may be operated by clicking an image object. Alternatively, by clicking the image object, the sequencer program shown in FIG. 2 of Patent Document 1 may be displayed, the track corresponding to the image object may be displayed, and the attribute may be changed by the sequencer program. .

(5)上記実施形態では、属性表示画面の表示先となる表示部120aが属性表示装置10に含まれていたが、属性表示装置10とは別個の表示装置に属性表示画面を表示させても良い。また、属性表示画面の表示先となる表示装置は1つには限定されず、複数であっても良い。例えば、トラック数が100で、属性数が30の場合、10台の表示装置を用いて1度で全ての属性を表示し、音楽の進行に伴う属性の変化を俯瞰することができる。また、ヘッドマウントディスプレイを使うことで、上記の表示装置10台による表示をパノラマ表示することで、1度で全ての属性を表示し、音楽の進行に伴う属性の変化を俯瞰することができる。操作入力部120bおよび音出力部120cについても同様に属性表示装置10とは別箇の装置であっても良い。また、上記実施形態では、DTMを実現する装置と属性表示装置とが同一の装置であったが両者を別箇の装置としても良い。また、上記実施形態では、属性表示装置10を1つのパーソナルコンピュータで実現したが、インターネットに接続された複数のパーソナルコンピュータにより属性表示装置を実現するクラウド態様であっても良い。 (5) In the above embodiment, the display unit 120a that is the display destination of the attribute display screen is included in the attribute display device 10. However, even if the attribute display screen is displayed on a separate display device from the attribute display device 10, good. Further, the display device that is the display destination of the attribute display screen is not limited to one, and may be plural. For example, when the number of tracks is 100 and the number of attributes is 30, all the attributes can be displayed at once using 10 display devices, and the change in the attributes accompanying the progress of music can be overlooked. Further, by using the head mounted display, the display by the above ten display devices can be displayed in a panorama, so that all the attributes can be displayed at a time, and the change in the attributes accompanying the progress of music can be overlooked. Similarly, the operation input unit 120b and the sound output unit 120c may be separate devices from the attribute display device 10. Moreover, in the said embodiment, although the apparatus which implement | achieves DTM, and an attribute display apparatus were the same apparatuses, both are good also as another apparatus. Moreover, in the said embodiment, although the attribute display apparatus 10 was implement | achieved with one personal computer, the cloud aspect which implement | achieves an attribute display apparatus with the some personal computer connected to the internet may be sufficient.

(6)上記実施形態では、図3に示す取得手段および表示制御手段をソフトウェアで実現したが、これら各手段を電子回路などのハードウェアで実現し、これらハードウェアを組み合わせて属性表示装置を構成しても良い。また、上記実施形態では、本発明に係る属性表示方法を制御部110に実行させる属性表示プログラムがDTMソフトウェアの一部として属性表示装置10の不揮発性記憶部134に予め格納されていた。しかし、上記属性表示プログラムを単体で提供しても良い。具体的には、上記属性表示プログラムをCD−ROMやフラッシュROMなどのコンピュータ読み取り可能な記録媒体に書き込んで配布する態様や、インターネットなどの電気通信回線経由のダウンロードにより配布する態様が考えられる。このようにして配布される属性表示プログラムにしたがって一般的なコンピュータを作動させることで、当該コンピュータを本発明の属性表示装置として機能させることができる。 (6) In the above embodiment, the acquisition unit and the display control unit shown in FIG. 3 are realized by software. However, these units are realized by hardware such as an electronic circuit, and the attribute display device is configured by combining these hardware. You may do it. Moreover, in the said embodiment, the attribute display program which makes the control part 110 perform the attribute display method which concerns on this invention was previously stored in the non-volatile memory | storage part 134 of the attribute display apparatus 10 as a part of DTM software. However, the attribute display program may be provided alone. Specifically, a mode in which the attribute display program is written and distributed on a computer-readable recording medium such as a CD-ROM or a flash ROM, and a mode in which the attribute display program is distributed by downloading via a telecommunication line such as the Internet can be considered. By operating a general computer in accordance with the attribute display program distributed in this manner, the computer can function as the attribute display device of the present invention.

10…属性表示装置、110…制御部、120…ユーザI/F部、120a…表示部、120b…操作入力部、120c…音出力部、130…記憶部、132…揮発性記憶部、134…不揮発性記憶部、140…バス。 DESCRIPTION OF SYMBOLS 10 ... Attribute display apparatus, 110 ... Control part, 120 ... User I / F part, 120a ... Display part, 120b ... Operation input part, 120c ... Sound output part, 130 ... Memory | storage part, 132 ... Volatile memory part, 134 ... Nonvolatile storage unit, 140... Bus.

Claims (6)

音楽情報に基づく音楽の進行に伴って変化する音像の属性を取得する取得手段と、
前記音楽情報に含まれる音像を画像オブジェクトに対応づけ、前記音像の属性のうち定位位置を前記画像オブジェクトの表示位置に対応付けて表示し、前記取得手段が取得した前記属性の変化を、前記画像オブジェクトの画面上の変化として表示する表示制御手段と、
を備えたことを特徴とする音像の属性表示装置。
An acquisition means for acquiring an attribute of a sound image that changes with the progress of music based on music information;
A sound image included in the music information is associated with an image object, a localization position among the attributes of the sound image is displayed in association with a display position of the image object, and the change in the attribute acquired by the acquisition unit is displayed in the image Display control means for displaying as changes on the screen of the object;
A sound image attribute display device comprising:
前記表示制御手段は、前記音像の前記定位位置以外の属性を前記画像オブジェクトの大きさ、形状、および表示色の各々に対応付けることを特徴とする請求項1に記載の属性表示装置。   The attribute display device according to claim 1, wherein the display control unit associates an attribute other than the localization position of the sound image with each of a size, a shape, and a display color of the image object. 前記表示制御手段は、前記音像が発音状態と発音していない状態とで前記画像オブジェクトの表示態様を異ならせることを特徴とする請求項1または請求項2の何れか1項に記載の属性表示装置。   3. The attribute display according to claim 1, wherein the display control unit changes a display mode of the image object between a sounding state and a state where the sound image is not sounding. apparatus. 前記表示制御手段は、前記画像オブジェクトの大きさを前記音像の音量に対応付け、音楽の進行に伴って前記音像の音量が予め定められた閾値を上回る場合に、前記画像オブジェクトを表示することを特徴とする請求項1〜3の何れか1項に記載の属性表示装置。   The display control means associates the size of the image object with the volume of the sound image, and displays the image object when the volume of the sound image exceeds a predetermined threshold as music progresses. The attribute display device according to claim 1, wherein the attribute display device is a feature. 前記音像の属性を変更する属性変更手段を有することを特徴とする請求項1〜4の何れか1項に記載の属性表示装置。   The attribute display device according to claim 1, further comprising an attribute changing unit that changes an attribute of the sound image. 音楽情報に基づく音楽の進行に伴って変化する音像の属性を取得する取得ステップと、
前記音楽情報に含まれる音像を画像オブジェクトに対応づけ、前記音像の属性のうち定位位置を前記画像オブジェクトの表示位置に対応付けて表示し、前記取得ステップにて取得した前記属性の変化を、前記画像オブジェクトの画面上の変化として表示する表示ステップと、
を含むことを特徴とする音像の属性表示方法。
An acquisition step of acquiring an attribute of a sound image that changes as the music progresses based on the music information;
A sound image included in the music information is associated with an image object, a localization position among the attributes of the sound image is displayed in association with a display position of the image object, and the change in the attribute acquired in the acquisition step is A display step for displaying the image object as a change on the screen;
A method for displaying an attribute of a sound image, comprising:
JP2017053697A 2017-03-17 2017-03-17 Attribute display device and attribute display method Pending JP2018157436A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017053697A JP2018157436A (en) 2017-03-17 2017-03-17 Attribute display device and attribute display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017053697A JP2018157436A (en) 2017-03-17 2017-03-17 Attribute display device and attribute display method

Publications (1)

Publication Number Publication Date
JP2018157436A true JP2018157436A (en) 2018-10-04

Family

ID=63716846

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017053697A Pending JP2018157436A (en) 2017-03-17 2017-03-17 Attribute display device and attribute display method

Country Status (1)

Country Link
JP (1) JP2018157436A (en)

Similar Documents

Publication Publication Date Title
KR101611511B1 (en) A method of composing music in a portable terminal having a touchscreen
JP6988343B2 (en) Singing voice editing support method and singing voice editing support device
CN108140402B (en) Method for dynamically modifying audio content theme
JP2019066649A (en) Method for assisting in editing singing voice and device for assisting in editing singing voice
JP2019066648A (en) Method for assisting in editing singing voice and device for assisting in editing singing voice
JP2018157436A (en) Attribute display device and attribute display method
JP3579927B2 (en) Automatic performance device
JP6651934B2 (en) Input support device and musical note input support method
JP5510207B2 (en) Music editing apparatus and program
JP2000250793A (en) Data set selecting device
JP4089576B2 (en) Parameter setting device and parameter setting program
JP5029400B2 (en) Management program and information processing apparatus
JP3931872B2 (en) Parameter editing apparatus and program for realizing parameter editing method
Hetrick Modular Understanding: A Taxonomy and Toolkit for Designing Modularity in Audio Software and Hardware
JP2008165098A (en) Electronic musical instrument
JP4000986B2 (en) Display control apparatus and program
JP6766397B2 (en) Performance assistance display device and performance assistance display method
JP2756805B2 (en) Automatic rhythm playing device
JP4148091B2 (en) Parameter editing apparatus and program for realizing parameter editing method
JP2000187471A (en) Musical score display device
JP2006031056A (en) Automatic music player
Holzborn Building Mobile Instruments for Improvised Musical Performance
JP3635658B2 (en) Editing instruction apparatus, method, and program related to the method
JP5348173B2 (en) Electronic information processing apparatus and program
JP3846298B2 (en) Performance information display device and performance information display program