WO2018008081A1 - 照明制御データ生成用楽曲選択装置、照明制御データ生成用楽曲選択方法、および照明制御データ生成用楽曲選択プログラム - Google Patents

照明制御データ生成用楽曲選択装置、照明制御データ生成用楽曲選択方法、および照明制御データ生成用楽曲選択プログラム Download PDF

Info

Publication number
WO2018008081A1
WO2018008081A1 PCT/JP2016/069883 JP2016069883W WO2018008081A1 WO 2018008081 A1 WO2018008081 A1 WO 2018008081A1 JP 2016069883 W JP2016069883 W JP 2016069883W WO 2018008081 A1 WO2018008081 A1 WO 2018008081A1
Authority
WO
WIPO (PCT)
Prior art keywords
music
section
data
control data
lighting control
Prior art date
Application number
PCT/JP2016/069883
Other languages
English (en)
French (fr)
Inventor
弘勝 川野
敏貴 中井
井上 純一郎
Original Assignee
Pioneer DJ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer DJ株式会社 filed Critical Pioneer DJ株式会社
Priority to US16/313,970 priority Critical patent/US10390410B2/en
Priority to PCT/JP2016/069883 priority patent/WO2018008081A1/ja
Priority to JP2018525855A priority patent/JP6633753B2/ja
Publication of WO2018008081A1 publication Critical patent/WO2018008081A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/165Controlling the light source following a pre-assigned programmed sequence; Logic control [LC]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/061Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of musical phrases, isolation of musically relevant segments, e.g. musical thumbnail generation, or for temporal structure analysis of a musical piece, e.g. determination of the movement sequence of a musical work
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/405Beam sensing or control, i.e. input interfaces involving substantially immaterial beams, radiation, or fields of any nature, used, e.g. as a switch as in a light barrier, or as a control device, e.g. using the theremin electric field sensing principle
    • G10H2220/411Light beams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/081Genre classification, i.e. descriptive metadata for classification or selection of musical pieces according to style
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/028Casings; Cabinets ; Supports therefor; Mountings therein associated with devices performing functions other than acoustics, e.g. electric candles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W84/00Network topologies
    • H04W84/02Hierarchically pre-organised networks, e.g. paging networks, cellular networks, WLAN [Wireless Local Area Network] or WLL [Wireless Local Loop]
    • H04W84/10Small scale networks; Flat hierarchical networks
    • H04W84/12WLAN [Wireless Local Area Networks]
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/155Coordinated control of two or more light sources

Definitions

  • the present invention relates to an illumination control data generation music selection device, an illumination control data generation music selection method, and an illumination control data generation music selection program.
  • the lighting control data related to the lighting content corresponding to the music is created in advance, and the lighting is controlled based on the lighting control data in synchronization with the music when the music is played.
  • the music structure is analyzed in advance for the music data to be played, and the characteristic sections characterizing the music structure (for example, intro section, A melody section, B melody section, chorus section, (Outro section, up section, down section, break section, music genre, tonality, etc.) are assigned, and an illumination pattern suitable for the image of each feature section is designated, and lighting control is set.
  • An object of the present invention is to generate a lighting control data generation music selection device, a lighting control data generation music selection method capable of efficiently generating lighting control data when generating lighting control data according to a plurality of music data, And providing a music selection program for generating illumination control data.
  • the music selection device for lighting control data generation of the present invention A lighting control data generation music selection device for selecting music data suitable for generating lighting control data corresponding to each music data from a plurality of music data including development information of characteristic sections characterizing the music structure.
  • a development information acquisition unit that acquires development information of each characteristic section of the plurality of music data
  • a feature section type determination unit that determines the type of the feature section based on the development information of the feature section acquired by the development information acquisition unit
  • a music data selection unit that selects music data for generating illumination control data based on the type of the feature section determined by the feature section type determination unit; It is characterized by having.
  • the music selection method for lighting control data generation of the present invention A lighting control data generation music selection method for selecting music data suitable for generating lighting control data corresponding to each music data from a plurality of music data including development information of feature sections characterizing the music structure.
  • a procedure for acquiring development information of each feature section of the plurality of music data A procedure for determining the type of feature section based on the acquired development information of the feature section;
  • the music selection program for lighting control data generation of the present invention is A computer is caused to function as the above-described music selection device for generating illumination control data.
  • the block diagram showing the structure of the acoustic control system and illumination system which concern on embodiment of this invention.
  • FIG. 1 shows an acoustic control system 1 and an illumination system 10 according to an embodiment of the present invention.
  • a player 2, a mixer 3, a computer 4, and a speaker 5 are provided.
  • the digital player 2 includes a jog dial 2A and a plurality of operation buttons (not shown), and an operator of the digital player 2 outputs acoustic control information corresponding to the operation by operating the jog dial 2A or the operation buttons. Can do.
  • the acoustic control information is output to the computer 4 via the cable 6 based on the USB (Universal Serial Bus) standard capable of bidirectional communication.
  • USB Universal Serial Bus
  • the mixer 3 includes an operation switch 3A, a volume adjustment lever 3B, and a left / right switching lever 3C. By operating these switches 3A, levers 3B, 3C, acoustic control information can be output.
  • the acoustic control information is output to the computer 4 via the cable 7 conforming to the USB standard.
  • the cable 7 may be compliant with other standards, and may be wired or wireless.
  • the music information processed by the computer 4 is input to the mixer 3, and the music information including the input digital signal is converted into an analog signal and output from the speaker 5 through the analog cable 8. .
  • the digital player 2 and the mixer 3 are connected to each other via the communication cable 9 and output the sound control information generated by operating the digital player 2 directly to the mixer 3 without using the computer 4. DJ performances can also be performed.
  • the digital player 2 and the mixer 3 are configured separately. However, the present invention is not limited to this, and the present invention may be applied to a DJ controller in which the digital player and the mixer are integrated.
  • the lighting system 10 includes a computer 4 of the acoustic control system 1, a computer 12 connected via a communication cable 11, and a lighting device 13 controlled by the computer 12.
  • the cables 6, 7, 9, and 11 do not need to be limited to those compliant with the respective standards, and may be compliant with other standards.
  • a wireless communication connection may be established by a wireless LAN (Local Area Network) or the like.
  • the lighting device 13 performs lighting in a live space or event space, and includes various lighting fixtures 13A that are frequently used as live equipment.
  • the lighting fixture 13A is, for example, a perlite, a strobe light, a moving head, or the like that is frequently used for stage lighting. In these lighting fixtures 13A, in addition to intermittent light projection and brightness, parameters such as the irradiation direction and operating speed can be specified by the fixture.
  • the computer 4 and the computer 12 are separate, but may be the same computer.
  • the lighting fixtures 13A of the lighting device 13 comply with the DMX512 standard, are connected to each other based on the standard, and transmit an illumination control signal 13B based on the standard.
  • Each lighting fixture 13A can be made to perform intended lighting.
  • the DMX512 standard is a general standard in the field of stage lighting, but the connection between the computer 12 and the lighting device 13 is not limited to the standard, and may be based on another standard.
  • FIG. 2 shows a functional block diagram of the acoustic control system 1 and the lighting system 10 according to the present embodiment.
  • the computer 4 of the acoustic control system 1 includes an arithmetic processing device 14 and a storage device 15. In the storage device 15, music data up to a plurality of music 1... Music N are stored.
  • the arithmetic processing device 14 includes a music structure analysis unit 16 and a development information output unit 17 as computer programs executed on the arithmetic processing device 14.
  • the music structure analysis unit 16 assigns characteristic sections such as an intro section, an A melody section, a B melody section, a chorus section, and an outro section to a plurality of pieces of music 1 in the storage device 15. Development information about N is generated.
  • the feature section may not be divided in this way, but may be divided into an up section for excitement, a hook section that is most exciting in the music, a down section that suppresses the excitement, and a break section after the hook. .
  • the music structure analysis by the music structure analysis unit 16 can employ various methods. For example, each piece of music data of music 1... Music N is subjected to FFT (Fast Fourier Transform) for each bar, and the data is analyzed in units of bars. It is possible to adopt a method of counting the number of sounds, setting a development point where the development of the feature section changes, and assigning the feature section between the development points based on the size of the number of sounds. As another method, a method of assigning a feature section based on the similarity of a melody or the like in music data can be employed. The analysis result is output to the development information output unit 17. The development information output unit 17 outputs the development information of each of the plurality of music 1... Music N generated by the music structure analysis unit 16 to the computer 12 constituting the lighting system 10.
  • FFT Fast Fourier Transform
  • the computer 12 of the lighting system 10 is executed on the arithmetic processing unit 18 and includes a development information acquisition unit 19, a feature section type determination unit 20, a music additional information acquisition unit 21, a development information / additional information table 22, and a music data selection unit. 23, a music data search unit 24, a feature section extraction unit 25, a display information generation unit 26, an illumination control data generation unit 27, and an illumination control unit 28.
  • the display information generation unit 26 functions as a lighting selection data generation music selection device according to the present invention.
  • the development information acquisition unit 19 the feature section type determination unit 20, the music additional information acquisition unit 21, the development information / additional information table 22, the music data selection unit 23, the music data search unit 24, the characteristic section extraction unit 25, and a display
  • the information generation unit 26 is configured as an illumination control data generation music selection program that can be read by the computer 12.
  • the expansion information acquisition unit 19 acquires the expansion information of each of the plurality of music pieces 1... Music N generated by the music structure analysis unit 16 and sets the expansion information of each music piece 1. / Write to the additional information table 22 Specifically, as illustrated in FIG. 3, the development information acquisition unit 19 determines the presence or absence of feature sections such as an intro section, an A melody section, a B melody section, an outro section, etc. Then, it is written in the development information table / additional information table 22.
  • the development information / additional information table 22 is configured as a matrix table in which feature sections and additional information such as music genre information, music tone information, and music inflection information are combined.
  • the feature section type determination unit 20 determines the type of the feature section of each song 1... Song N written in the development information / additional information table 22 by the development information acquisition unit 19. Specifically, the feature section type determination unit 20 includes feature sections such as an intro section, an A melody section, a B melody section, a chorus section, an interlude section, a C melody section, and an outro section included in each song 1. Determine the type. For example, in the case of the music 2 shown in FIG. 3, the feature section type determination unit 20 determines that the music 2 has four types of feature sections of an intro section, a rust section, a C melody section, and an outro section. To do.
  • the music additional information acquisition unit 21 acquires additional information added to the music 1... Music N stored in the storage device 15 and writes the acquired music additional information in the development information / additional information table 22. Specifically, the music additional information acquisition unit 21 sets the attributes of music 1... Music N such as music genre information, music tone information, music inflection information, etc. recorded in the header of music data such as MP3 data. Acquired, and as shown in FIG. 4, writes what attributes each song 1... Song N has.
  • the music additional information is not necessarily added to the header information of the music data, and may be stored in a database in which the music data and the music additional information are associated in a table format, for example.
  • the music additional information is not limited to music genre information, music tone information, and music inflection information, and may be music beat information such as 4 beats, 8 beats, and 16 beats.
  • the music data selection unit 23 selects music suitable for generating the illumination control data based on the type of the feature section determined by the feature section type determination unit 20. Specifically, the music data selection unit 23 selects a music piece having the most characteristic section types among the music pieces 1... For example, when the music 1 to the music 4 shown in FIG. 5 are compared, the music 4 has six types of feature sections among all the feature sections from the intro section to the outro section. Selects song 4. The selection result is output to the illumination control data generation unit 27. The music data selection unit 23 selects the next music data when the selection of the first music data is completed and the feature section extraction of the other music data is completed by the feature section extraction unit 25.
  • the music data search unit 24 selects the music data selected by the music data selection unit 23 based on the feature section type obtained from the feature section type determination unit 20 or the music additional information acquired by the music additional information acquisition unit 21.
  • the music data related to is searched from other music data. Specifically, as shown in FIG. 5, the music data search unit 24 searches for music data of the music 3 from the music 1 common to the music genre called techno when the music 4 is selected by the music data selection unit 23. To do.
  • the feature section extraction unit 25 compares the feature sections of the song data of the songs 1 to 3 searched by the song data search unit 24 with the feature section of the song data of the song 4 selected by the song data selection unit 23. Extract feature sections that are common to each other. Specifically, as shown in FIG. 6, the feature section extraction unit 25, the intro section, the A melody section, the B melody section, the chorus section, the C melody section, and the outro section of the music data of the selected music 4 The characteristic section of the music 3 is extracted from the music 1 common to the music.
  • the display information generation unit 26 may generate the situation where the extraction of the feature section as shown in FIG. 6 is completed as display information in a matrix table format and display it on the display screen of the computer 12.
  • the illumination control data generation unit 27 generates illumination control data based on the music data of the music 4 selected by the music data selection unit 23.
  • the illumination control data generated by the illumination control data generation unit 27 is output to the illumination control unit 28.
  • the lighting control data generation unit 27 changes the music control data from the music 1 to the music 3 with respect to the lighting control data of each feature section of the music 4.
  • the lighting control data of the common characteristic section is allocated, and the lighting control data of the characteristic section, for example, the interlude section of the musical piece 3, which is not included in the music data of the musical piece 4, is generated.
  • the illumination control data generated by the illumination control data generation unit 27 is generated as DMX control software data processed by the illumination control unit 28.
  • the illumination control unit 28 is configured as DMX control software executed in the computer 12, but may be a hardware controller connected to the computer 12.
  • the lighting control unit 28 controls the lighting device 13 based on the lighting control data output from the lighting control data generation unit 27, thereby changing the effect based on the desired lighting image according to the feature section, and the lighting fixture. Lighting effect by 13A is performed.
  • the development information acquisition unit 19 acquires the development information output from the development information output unit 17 (procedure S1), and writes the development information in the development information / additional information table 22 (procedure S2).
  • the music additional information acquisition unit 21 acquires attributes such as music genre information, music tonality information, music inflection information, etc. added to the music 1... Music N (step S3) and adds the music to the development information / additional information table 22 Information is written (step S4). Note that step S1 to step S2 and step S3 to step S4 may be simultaneously processed in parallel.
  • the feature section type determination unit 20 determines the type of each feature section of the music data of the music 1... Song N, and the music data selection unit 23 determines the type of the feature section based on the determined feature section type.
  • the music data of music 4 is selected with the largest amount of music data (step S5).
  • the music data search unit 24 searches the music data of the music 3 from the music 1 of the music genre of the music data of the music 4 selected by the music data selection unit 23 (techno in FIG. 5) and the music genre in common. (Procedure S6).
  • the feature section extraction unit 25 compares the feature section of the music data of the searched music pieces 1 to 3 with the feature section of the music data of the music piece 4 selected by the music data selection unit 23, and features common to each other. A section is extracted (procedure S7).
  • the song data selection unit 23 selects the song data from which all the feature sections have not been extracted, that is, the song data of the song 3 having the interlude section in the case of FIG. Selection and extraction are repeated until all N feature sections are extracted (step S8).
  • the lighting control data generation unit 27 generates lighting control data including lighting effect data corresponding to each feature section for the music data of the music 4 selected by the music data selection unit 23 (step S9). Next, the lighting control data generation unit 27 assigns lighting effect data to the common feature section, and generates lighting control data of the music 3 from the music 1 (step S10). Finally, the lighting control data generation unit 27 generates lighting control data for the interlude section in the music data of the music 3 that is not included in the music data of the music 4 (step S11). As described above, when all the lighting control data of the music 1... Music 4 are generated, the DJ performance is performed based on the music 1... Music 4 and at the same time the lighting effect is generated based on the generated lighting control data. Do.
  • the lighting control data generation music selection device includes the music data selection unit 23, so that the music data of the music 4 having the most characteristic sections and the most complicated development is selected. Based on this music data, Lighting control data will be generated. Then, the music data search unit 24 and the feature section extraction unit 25 search for the music 3 from the music 1 having the same music genre as that of the music 4, and the music 1 to the characteristic section of the music 3 having the same characteristic section of the music data of the music 4. Since the same lighting control data is allocated, the lighting control data can be generated efficiently, and the lighting effect setting in the DJ performance can be performed efficiently.
  • the music selection apparatus for lighting control data generation was used in order to generate the lighting control data of the lighting apparatus 13, this invention is not limited to this.
  • the illumination control data generation device may be further used to generate production control data for production by pyrotronics such as flame and smoke.
  • DESCRIPTION OF SYMBOLS 1 ... Sound control system, 2 ... Digital player, 2A ... Jog dial, 3 ... Mixer, 3A ... Operation switch, 3B ... Volume control lever, 3C ... Left / right switching lever, 4 ... Computer, 5 ... Speaker, 6, 7, 9, DESCRIPTION OF SYMBOLS 11 ... Cable, 8 ... Analog cable, 10 ... Lighting system, 12 ... Computer, 13 ... Lighting apparatus, 13A ... Lighting fixture, 13B ... Lighting control signal, 14 ... Arithmetic processing device, 15 ... Memory
  • feature section type determination unit 21 ... music additional information acquisition unit, 22 ... additional information table, 23 ... music data selection unit 24 ... music data search unit, 25 ... feature section extraction unit, 26 ... display information generation unit, 27 ... illumination control data generation unit, 28 ... illumination control unit.

Abstract

楽曲構造を特徴付ける特徴区間の展開情報を含む複数の楽曲データの中から、それぞれの楽曲データに応じた照明制御データを生成するのに適した楽曲データを選択する照明制御データ生成用楽曲選択装置は、複数の楽曲データのそれぞれの特徴区間の展開情報を取得する展開情報取得部(19)と、展開情報取得部(19)により取得された特徴区間の展開情報に基づいて、特徴区間の種類を判定する特徴区間種類判定部(20)と、特徴区間種類判定部(20)により判定された特徴区間の種類に基づいて、照明制御データを生成する楽曲データを選択する楽曲データ選択部(23)と、を備えている。

Description

照明制御データ生成用楽曲選択装置、照明制御データ生成用楽曲選択方法、および照明制御データ生成用楽曲選択プログラム
 本発明は、照明制御データ生成用楽曲選択装置、照明制御データ生成用楽曲選択方法、および照明制御データ生成用楽曲選択プログラムに関する。
 コンサートやクラブシーンにおいて、音楽に対応した照明または楽曲に同期して照明を変化させることは、演出効果上重要である。
 楽曲に対応した照明を用いた緻密な演出効果を得るためには、楽曲を理解した専属の照明スタッフが操作することが望ましい。しかし、小規模なコンサートやクラブ、イベント等では、費用の都合などから、専属の照明スタッフを常駐させることは困難である。
 これに対して、従来楽曲に対応した照明操作の自動化が提案されている。たとえば、特許文献1に記載の技術は、楽曲に対応した照明内容に関する照明制御データを予め作成しておき、楽曲の演奏時に楽曲と同期して、照明制御データ基づき照明を制御することにより、楽曲に対応した所望の照明演出効果を実現している。
 照明制御データの作成にあたっては、演奏対象となる楽曲データに対して、予め楽曲構造の解析を行い、楽曲構造を特徴づける特徴区間(例えば、イントロ区間、Aメロ区間、Bメロ区間、サビ区間、アウトロ区間、アップ区間、ダウン区間、ブレイク区間、楽曲ジャンル、調性など)を割り付け、各特徴区間のイメージに適した照明パターンを指定して、照明制御の設定を行う。
特許第374079号公報
 しかしながら、前記特許文献1に記載の技術では、演奏する楽曲毎に照明制御データを生成しなければならず、コンサート中に複数の楽曲を演奏する場合には、それぞれの楽曲データに応じた照明制御データを生成しなければならないという点で、依然として煩雑さが残る。
 本発明の目的は、複数の楽曲データに応じて照明制御データを生成するに際し、効率よく照明制御データを生成することのできる照明制御データ生成用楽曲選択装置、照明制御データ生成用楽曲選択方法、および照明制御データ生成用楽曲選択プログラムを提供することにある。
 本発明の照明制御データ生成用楽曲選択装置は、
 楽曲構造を特徴付ける特徴区間の展開情報を含む複数の楽曲データの中から、それぞれの楽曲データに応じた照明制御データを生成するのに適した楽曲データを選択する照明制御データ生成用楽曲選択装置であって、
 前記複数の楽曲データのそれぞれの特徴区間の展開情報を取得する展開情報取得部と、
 前記展開情報取得部により取得された特徴区間の展開情報に基づいて、特徴区間の種類を判定する特徴区間種類判定部と、
 前記特徴区間種類判定部により判定された特徴区間の種類に基づいて、照明制御データを生成する楽曲データを選択する楽曲データ選択部と、
を備えていることを特徴とする。
 本発明の照明制御データ生成用楽曲選択方法は、
 楽曲構造を特徴付ける特徴区間の展開情報を含む複数の楽曲データの中から、それぞれの楽曲データに応じた照明制御データを生成するのに適した楽曲データを選択する照明制御データ生成用楽曲選択方法であって、
 前記複数の楽曲データのそれぞれの特徴区間の展開情報を取得する手順と、
 取得された特徴区間の展開情報に基づいて、特徴区間の種類を判定する手順と、
 判定された特徴区間の種類に基づいて、照明制御データを生成する楽曲データを選択する手順と、
を実施することを特徴とする。
 本発明の照明制御データ生成用楽曲選択プログラムは、
 コンピュータを、前述した照明制御データ生成用楽曲選択装置として機能させることを特徴とする。
本発明の実施形態に係る音響制御システムおよび照明システムの構成を表すブロック図。 前記実施形態における音響制御システムおよび照明システムの構成を表すブロック図。 前記実施形態における展開情報/楽曲付加情報テーブルの構成を表す模式図。 前記実施形態における展開情報/楽曲付加情報テーブルの構成を表す模式図。 前記実施形態における展開情報/楽曲付加情報テーブルの構成を表す模式図。 前記実施形態における展開情報/楽曲付加情報テーブルの構成を表す模式図。 前記実施形態における作用を説明するためのフローチャート。
 [1]音響制御システム1および照明システム10の全体構成
 図1には、本発明の実施形態に係る音響制御システム1および照明システム10が示されており、音響制御システム1は、2台のデジタルプレーヤー2と、ミキサー3と、コンピュータ4と、スピーカー5とを備える。
 デジタルプレーヤー2は、ジョグダイヤル2Aと、図示しない複数の操作ボタンとを備え、デジタルプレーヤー2の操作者は、ジョグダイヤル2Aや、操作ボタンを操作することにより、操作に応じた音響制御情報を出力することができる。音響制御情報は、双方向通信可能なUSB(Universal Serial Bus)規格に基づくケーブル6を介してコンピュータ4に出力される。
 ミキサー3は、操作スイッチ3Aと、音量調整レバー3Bと、左右切替レバー3Cとを備え、これらのスイッチ3A、レバー3B、3Cを操作することにより、音響制御情報を出力することができる。音響制御情報は、USB規格に準拠したケーブル7を介してコンピュータ4に出力される。このケーブル7についても、他の規格に準拠したものでもよく、有線、無線も問わない。また、ミキサー3には、コンピュータ4で処理された楽曲情報が入力され、入力されたデジタル信号からなる楽曲情報は、アナログ信号に変換され、アナログケーブル8を介して、スピーカー5から音声出力される。
 また、デジタルプレーヤー2およびミキサー3は、通信ケーブル9を介して互いに接続され、コンピュータ4を使わなくとも、デジタルプレーヤー2を操作して生成された音響制御情報を、直接ミキサー3に出力して、DJパフォーマンスを行うこともできる。
 なお、本実施形態では、デジタルプレーヤー2およびミキサー3は、別体で構成していたが、これに限らず、デジタルプレーヤーおよびミキサーが一体型のDJコントローラに本発明を適用してもよい。
 照明システム10は、音響制御システム1のコンピュータ4と、通信ケーブル11を介して接続されるコンピュータ12と、コンピュータ12によって制御される照明装置13とを備える。なお、ケーブル6、7、9、11は、それぞれの規格に準拠したものに限定される必要はなく、他の規格に準拠したものであってもよく、さらには、有線による接続だけでなく、無線LAN(Local Area Network)等で無線通信接続してもよい。
 照明装置13は、ライブスペース内やイベントスペース内の照明を行うものであり、ライブ設備として多用される各種の照明器具13Aを備えている。
 照明器具13Aは、舞台照明に多用される、例えばパーライト、ストロボライト、ムービングヘッドなどである。これらの照明器具13Aにおいては、それぞれ投光の断続、明るさのほか、器具によって照射方向、動作速度などのパラメータを指定することができる。
 本実施形態では、コンピュータ4とコンピュータ12は、別体としているが、同一のコンピュータであってもよい。
 これらのパラメータを制御するために、照明装置13の照明器具13Aは、それぞれDMX512規格に準拠するとともに、同規格に基づいて互いに接続され、同規格に準拠した照明制御信号13Bを送信することで、各照明器具13Aに所期の照明を実行させることができる。
 なお、DMX512規格は舞台照明分野で一般的な規格であるが、コンピュータ12および照明装置13の接続は、同規格によるものに限らず、他の規格に基づくものであってもよい。
 [2]音響制御システム1および照明システム10の機能ブロック構成
 図2には、本実施形態に係る音響制御システム1および照明システム10の機能ブロック図が示されている。
 音響制御システム1のコンピュータ4は、演算処理装置14および記憶装置15を備える。記憶装置15内には、複数の楽曲1…楽曲Nまでの楽曲データが記憶されている。演算処理装置14は、演算処理装置14上で実行されるコンピュータプログラムとしての楽曲構造解析部16、および展開情報出力部17を備える。
 楽曲構造解析部16は、記憶装置15内の複数の楽曲1…楽曲Nに、イントロ区間、Aメロ区間、Bメロ区間、サビ区間、アウトロ区間等の特徴区間を割り付け、それぞれの楽曲1…楽曲Nについての展開情報を生成する。
 なお、特徴区間の切り分けはこの切り分け方でなくともよく、盛り上がりに向けたアップ区間、楽曲中で一番盛り上がるフック区間、盛り上がりを押さえたダウン区間、フック後のブレイク区間という切り分けを行なってもよい。
 楽曲構造解析部16による楽曲構造の解析は、種々の方法を採用することができ、たとえば、楽曲1…楽曲Nのそれぞれの楽曲データを小節毎にFFT(Fast Fourier Transform)を行い、小節単位で音の数をカウントして、特徴区間の展開が変化する展開ポイントを設定し、音の数の大小に基づいて、展開ポイント間に特徴区間を割り付ける方法を採用することができる。また、他の方法としては、楽曲データ中のメロディ等の類似性に基づいて、特徴区間を割り付ける方法も採用することができる。解析結果は、展開情報出力部17に出力される。
 展開情報出力部17は、楽曲構造解析部16で生成された複数の楽曲1…楽曲Nのそれぞれの展開情報を、照明システム10を構成するコンピュータ12に出力する。
 照明システム10のコンピュータ12は、演算処理装置18上で実行される、展開情報取得部19、特徴区間種類判定部20、楽曲付加情報取得部21、展開情報/付加情報テーブル22、楽曲データ選択部23、楽曲データ探索部24、特徴区間抽出部25、表示情報生成部26、照明制御データ生成部27、および照明制御部28を備える。
 これらのうち、展開情報取得部19、特徴区間種類判定部20、楽曲付加情報取得部21、展開情報/付加情報テーブル22、楽曲データ選択部23、楽曲データ探索部24、特徴区間抽出部25、および表示情報生成部26が、本発明にいう照明制御データ生成用楽曲選択装置として機能する。なお、展開情報取得部19、特徴区間種類判定部20、楽曲付加情報取得部21、展開情報/付加情報テーブル22、楽曲データ選択部23、楽曲データ探索部24、特徴区間抽出部25、および表示情報生成部26は、コンピュータ12で読み取り可能な照明制御データ生成用楽曲選択プログラムとして構成される。
 展開情報取得部19は、楽曲構造解析部16で生成された複数の楽曲1…楽曲Nのそれぞれの展開情報を取得し、それぞれの楽曲1…楽曲Nの展開情報を、予め設定された展開情報/付加情報テーブル22に書き込む。
 具体的には、展開情報取得部19は、図3に示されるように、それぞれの楽曲1…楽曲Nについてのイントロ区間、Aメロ区間、Bメロ区間…アウトロ区間等の特徴区間の有無を判定し、展開情報テーブル/付加情報テーブル22に書き込む。なお、展開情報/付加情報テーブル22は、特徴区間と、楽曲ジャンル情報、楽曲調性情報、楽曲抑揚情報等の付加情報とを組み合わせたマトリクス状のテーブルとして構成されている。
 特徴区間種類判定部20は、展開情報取得部19によって、展開情報/付加情報テーブル22に書き込まれたそれぞれの楽曲1…楽曲Nの特徴区間の種類を判定する。
 具体的には、特徴区間種類判定部20は、それぞれの楽曲1…楽曲Nに含まれるイントロ区間、Aメロ区間、Bメロ区間、サビ区間、間奏区間、Cメロ区間、アウトロ区間等の特徴区間の種類を判定する。たとえば、図3に示される楽曲2であれば、特徴区間種類判定部20は、楽曲2がイントロ区間、サビ区間、Cメロ区間、およびアウトロ区間という4種類の特徴区間を備えている、と判定する。
 楽曲付加情報取得部21は、記憶装置15内に記憶されている楽曲1…楽曲Nに付加された付加情報を取得し、展開情報/付加情報テーブル22に取得された楽曲付加情報を書き込む。
 具体的には、楽曲付加情報取得部21は、MP3データ等の楽曲データのヘッダ等に記録された楽曲ジャンル情報、楽曲調性情報、楽曲抑揚情報等の楽曲1…楽曲Nのそれぞれの属性を取得し、図4に示されるように、それぞれの楽曲1…楽曲Nが、どのような属性を有するかを書き込む。なお、楽曲付加情報は、楽曲データのヘッダ情報に必ずしも付されている必要はなく、たとえば、楽曲データと、楽曲付加情報をテーブル形式で関連付けたデータベースに記憶されていてもよい。また、楽曲付加情報は、楽曲ジャンル情報、楽曲調性情報、楽曲抑揚情報に限られず、たとえば、4ビート、8ビート、16ビート等の楽曲ビート情報であってもよい。
 楽曲データ選択部23は、特徴区間種類判定部20により判定された特徴区間の種類に基づいて、照明制御データを生成するのに適した楽曲を選択する。具体的には、楽曲データ選択部23は、楽曲1…楽曲Nのうち、特徴区間の種類が最も多い楽曲を選択する。たとえば、図5に示される楽曲1から楽曲4を比較すると、楽曲4は、イントロ区間からアウトロ区間までの全ての特徴区間のうち、6種類の特徴区間を備えているので、楽曲データ選択部23は、楽曲4を選択する。選択結果は、照明制御データ生成部27に出力される。
 また、楽曲データ選択部23は、最初の楽曲データの選択が終了し、特徴区間抽出部25による他の楽曲データの特徴区間の抽出が終了したら、次の楽曲データの選択を行う。
 楽曲データ探索部24は、特徴区間種類判定部20より得られた特徴区間種類、または楽曲付加情報取得部21により取得された楽曲付加情報に基づいて、楽曲データ選択部23により選択された楽曲データに関連する楽曲データを、他の楽曲データの中から探索する。具体的には、楽曲データ探索部24は、図5に示されるように、楽曲データ選択部23により楽曲4が選択されたら、テクノという楽曲ジャンルで共通する楽曲1から楽曲3の楽曲データを探索する。
 特徴区間抽出部25は、楽曲データ探索部24により探索された楽曲1から楽曲3の楽曲データの特徴区間と、楽曲データ選択部23により選択された楽曲4の楽曲データの特徴区間とを比較し、相互に共通する特徴区間を抽出する。
 具体的には、特徴区間抽出部25は、図6に示されるように、選択された楽曲4の楽曲データのイントロ区間、Aメロ区間、Bメロ区間、サビ区間、Cメロ区間、およびアウトロ区間と共通する楽曲1から楽曲3の特徴区間を抽出する。
 表示情報生成部26は、図6に示されるような特徴区間の抽出が終了した状況を、マトリクス状のテーブル形式の表示情報として生成し、コンピュータ12の表示画面上に表示してもよい。
 照明制御データ生成部27は、楽曲データ選択部23で選択された楽曲4の楽曲データに基づいて、照明制御データを生成する。照明制御データ生成部27により生成された照明制御データは、照明制御部28に出力される。
 また、照明制御データ生成部27は、楽曲データ選択部23で選択された楽曲4の照明制御データが生成されたら、楽曲4の各特徴区間の照明制御データに対して、楽曲1から楽曲3に、共通する特徴区間の照明制御データを割り付け、楽曲4の楽曲データにはない、特徴区間、たとえば楽曲3の間奏区間の照明制御データを生成する。
 照明制御データ生成部27で生成される照明制御データは、照明制御部28で処理されるDMXコントロールソフトウェア用データとして生成される。なお、本実施形態では、照明制御部28は、コンピュータ12内で実行されるDMXコントロールソフトウェアとして構成しているが、コンピュータ12に接続されたハードウェアコントローラであってもよい。
 照明制御部28は、照明制御データ生成部27から出力された照明制御データに基づいて、照明装置13の制御を行うことにより、所望の照明イメージによる演出を特徴区間に応じて変化させ、照明器具13Aによる照明演出を行う。
 [3]実施形態の作用および効果
 次に、照明制御データ生成用楽曲選択方法となる本実施形態の作用を、図7に示されるフローチャートに基づいて説明する。
 展開情報取得部19は、展開情報出力部17から出力された展開情報を取得し(手順S1)、展開情報/付加情報テーブル22に展開情報を書き込む(手順S2)。
 楽曲付加情報取得部21は、楽曲1…楽曲Nに付加された楽曲ジャンル情報、楽曲調性情報、楽曲抑揚情報等の属性を取得し(手順S3)、展開情報/付加情報テーブル22に楽曲付加情報を書き込む(手順S4)。なお、手順S1から手順S2と、手順S3から手順S4とは並列で同時に処理してもよい。
 特徴区間種類判定部20は、楽曲1…楽曲Nの楽曲データのそれぞれの特徴区間の種類を判定し、楽曲データ選択部23は、判定された特徴区間の種類に基づいて、特徴区間の種類が最も多い楽曲データ、図5であれば楽曲4の楽曲データを選択する(手順S5)。
 楽曲データ探索部24は、楽曲データ選択部23で選択された楽曲4の楽曲データの楽曲ジャンル(図5であればテクノ)、と共通する楽曲ジャンルの楽曲1から楽曲3の楽曲データを探索する(手順S6)。
 特徴区間抽出部25は、探索された楽曲1から楽曲3の楽曲データの特徴区間と、楽曲データ選択部23により選択された楽曲4の楽曲データの特徴区間とを比較し、相互に共通する特徴区間を抽出する(手順S7)。
 特徴区間の抽出が終了したら、楽曲データ選択部23は、すべての特徴区間が抽出されていない楽曲データ、図6であれば、間奏区間を有する楽曲3の楽曲データを選択し、楽曲1…楽曲Nのすべての特徴区間が抽出されるまで、選択と抽出を繰り返す(手順S8)。
 照明制御データ生成部27は、楽曲データ選択部23で選択された楽曲4の楽曲データに対して、各特徴区間に応じた照明演出データを含む照明制御データを生成する(手順S9)。
 次に、照明制御データ生成部27は、共通する特徴区間に対して、照明演出データを割り付け、楽曲1から楽曲3の照明制御データを生成する(手順S10)。
 最後に、照明制御データ生成部27は、楽曲4の楽曲データには含まれていない、楽曲3の楽曲データにおける間奏区間の照明制御データを生成する(手順S11)。
 以上のようにして、楽曲1…楽曲4の照明制御データがすべて生成されたら、楽曲1…楽曲4に基づいて、DJパフォーマンスを行うと同時に、生成された照明制御データに基づいて、照明演出を行う。
 このような本実施形態によれば、以下のような効果がある。
 照明制御データ生成用楽曲選択装置が、楽曲データ選択部23を備えていることにより、最も特徴区間の種類が多く、展開の複雑な楽曲4の楽曲データが選択され、この楽曲データに基づいて、照明制御データを生成することとなる。そして、楽曲データ探索部24および特徴区間抽出部25により、楽曲4と同じ楽曲ジャンルの楽曲1から楽曲3が探索され、楽曲4の楽曲データの特徴区間と同じ楽曲1から楽曲3の特徴区間に、同じ照明制御データが割り付けられるので、照明制御データを効率よく生成することができ、DJパフォーマンスにおける照明演出設定を効率よく行うことができる。
 なお、本実施形態では、照明制御データ生成用楽曲選択装置を、照明装置13の照明制御データを生成するために用いていたが、本発明はこれに限られない。たとえば、照明制御データ生成装置を、さらに、炎やスモーク等のパイロトロニクスによる演出するための演出制御データを生成するために用いてもよい。
 1…音響制御システム、2…デジタルプレーヤー、2A…ジョグダイヤル、3…ミキサー、3A…操作スイッチ、3B…音量調整レバー、3C…左右切替レバー、4…コンピュータ、5…スピーカー、6、7、9、11…ケーブル、8…アナログケーブル、10…照明システム、12…コンピュータ、13…照明装置、13A…照明器具、13B…照明制御信号、14…演算処理装置、15…記憶装置、16…楽曲構造解析部、17…展開情報出力部、18…演算処理装置、19…展開情報取得部、20…特徴区間種類判定部、21…楽曲付加情報取得部、22…付加情報テーブル、23…楽曲データ選択部、24…楽曲データ探索部、25…特徴区間抽出部、26…表示情報生成部、27…照明制御データ生成部、28…照明制御部。
 

Claims (7)

  1.  楽曲構造を特徴付ける特徴区間の展開情報を含む複数の楽曲データの中から、それぞれの楽曲データに応じた照明制御データを生成するのに適した楽曲データを選択する照明制御データ生成用楽曲選択装置であって、
     前記複数の楽曲データのそれぞれの特徴区間の展開情報を取得する展開情報取得部と、
     前記展開情報取得部により取得された特徴区間の展開情報に基づいて、特徴区間の種類を判定する特徴区間種類判定部と、
     前記特徴区間種類判定部により判定された特徴区間の種類に基づいて、照明制御データを生成する楽曲データを選択する楽曲データ選択部と、
    を備えていることを特徴とする照明制御データ生成用楽曲選択装置。
  2.  請求項1に記載の照明制御データ生成用楽曲選択装置において、
     前記複数の楽曲データには、それぞれの楽曲データを関連付ける楽曲付加情報が付され、
     前記複数の楽曲データのそれぞれの楽曲付加情報を取得する楽曲付加情報取得部と、
     前記楽曲付加情報取得部により取得された楽曲付加情報に基づいて、前記楽曲データ選択部により選択された楽曲データに関連する楽曲データを、他の楽曲データの中から探索する楽曲データ探索部と、
     前記楽曲データ探索部により探索された楽曲データを構成する特徴区間と、前記楽曲データ選択部により選択された楽曲データを構成する特徴区間とを比較し、相互に共通する特徴区間を抽出する特徴区間抽出部と、
    を備えていることを特徴とする照明制御データ生成用楽曲選択装置。
  3.  請求項2に記載の照明制御データ生成用楽曲選択装置において、
     前記特徴区間種類判定部により判定された特徴区間の種類と、前記楽曲データ探索部により探索された前記選択された楽曲データに関連する楽曲データとをマトリクス状に表示させる表示情報を生成する表示情報生成部を備えていることを特徴とする照明制御データ生成用楽曲選択装置。
  4.  請求項1から請求項3のいずれか一項に記載の照明制御データ生成用楽曲選択装置において、
     前記特徴区間の種類は、イントロ区間、Aメロ区間、サビ区間、Cメロ区間、およびアウトロ区間の少なくともいずれかを含んでいることを特徴とする照明制御データ生成用楽曲選択装置。
  5.  請求項1から請求項3のいずれか一項に記載の照明制御データ生成用楽曲選択装置において、
     前記特徴区間の種類は、イントロ区間、アップ区間、ダウン区間、フック区間、ブレイク区間、およびアウトロ区間の少なくともいずれかを含んでいることを特徴とする照明制御データ生成用楽曲選択装置。
  6.  楽曲構造を特徴付ける特徴区間の展開情報を含む複数の楽曲データの中から、それぞれの楽曲データに応じた照明制御データを生成するのに適した楽曲データを選択する照明制御データ生成用楽曲選択方法であって、
     前記複数の楽曲データのそれぞれの特徴区間の展開情報を取得する手順と、
     取得された特徴区間の展開情報に基づいて、特徴区間の種類を判定する手順と、
     判定された特徴区間の種類に基づいて、照明制御データを生成する楽曲データを選択する手順と、
    を実施することを特徴とする照明制御データ生成用楽曲選択方法。
  7.  コンピュータを、請求項1から請求項5のいずれか一項の照明制御データ生成用楽曲選択装置として機能させることを特徴とする照明制御データ生成用楽曲選択プログラム。
     
PCT/JP2016/069883 2016-07-05 2016-07-05 照明制御データ生成用楽曲選択装置、照明制御データ生成用楽曲選択方法、および照明制御データ生成用楽曲選択プログラム WO2018008081A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/313,970 US10390410B2 (en) 2016-07-05 2016-07-05 Music selection device for generating lighting control data, music selection method for generating lighting control data, and music selection program for generating lighting control data
PCT/JP2016/069883 WO2018008081A1 (ja) 2016-07-05 2016-07-05 照明制御データ生成用楽曲選択装置、照明制御データ生成用楽曲選択方法、および照明制御データ生成用楽曲選択プログラム
JP2018525855A JP6633753B2 (ja) 2016-07-05 2016-07-05 照明制御データ生成用楽曲選択装置、照明制御データ生成用楽曲選択方法、および照明制御データ生成用楽曲選択プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/069883 WO2018008081A1 (ja) 2016-07-05 2016-07-05 照明制御データ生成用楽曲選択装置、照明制御データ生成用楽曲選択方法、および照明制御データ生成用楽曲選択プログラム

Publications (1)

Publication Number Publication Date
WO2018008081A1 true WO2018008081A1 (ja) 2018-01-11

Family

ID=60912531

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/069883 WO2018008081A1 (ja) 2016-07-05 2016-07-05 照明制御データ生成用楽曲選択装置、照明制御データ生成用楽曲選択方法、および照明制御データ生成用楽曲選択プログラム

Country Status (3)

Country Link
US (1) US10390410B2 (ja)
JP (1) JP6633753B2 (ja)
WO (1) WO2018008081A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017168644A1 (ja) * 2016-03-30 2017-10-05 Pioneer DJ株式会社 楽曲展開解析装置、楽曲展開解析方法および楽曲展開解析プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3743079B2 (ja) * 1996-10-24 2006-02-08 ヤマハ株式会社 演奏データ作成方法および装置
JP2012150244A (ja) * 2011-01-19 2012-08-09 Yahoo Japan Corp 楽曲レコメンド装置、方法及びプログラム
JP2014038308A (ja) * 2012-07-18 2014-02-27 Yamaha Corp 音符列解析装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110015765A1 (en) * 2009-07-15 2011-01-20 Apple Inc. Controlling an audio and visual experience based on an environment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3743079B2 (ja) * 1996-10-24 2006-02-08 ヤマハ株式会社 演奏データ作成方法および装置
JP2012150244A (ja) * 2011-01-19 2012-08-09 Yahoo Japan Corp 楽曲レコメンド装置、方法及びプログラム
JP2014038308A (ja) * 2012-07-18 2014-02-27 Yamaha Corp 音符列解析装置

Also Published As

Publication number Publication date
JP6633753B2 (ja) 2020-01-22
US20190200432A1 (en) 2019-06-27
JPWO2018008081A1 (ja) 2019-05-16
US10390410B2 (en) 2019-08-20

Similar Documents

Publication Publication Date Title
US8921678B2 (en) Generating tones by combining sound materials
US8426718B2 (en) Simulating several instruments using a single virtual instrument
EP1020843B1 (en) Automatic musical composition method
JP6669883B2 (ja) 音声データ処理方法及び装置
JP6617783B2 (ja) 情報処理方法、電子機器及びプログラム
JP6585289B2 (ja) 照明制御装置、照明制御方法、および照明制御プログラム
JP6633753B2 (ja) 照明制御データ生成用楽曲選択装置、照明制御データ生成用楽曲選択方法、および照明制御データ生成用楽曲選択プログラム
JP6645085B2 (ja) 自動アレンジ装置及びプログラム
US20180144732A1 (en) Methods, Devices and Computer Program Products for Interactive Musical Improvisation Guidance
WO2018016008A1 (ja) 音響機器制御操作入力装置、および音響機器制御操作入力プログラム
US20210225345A1 (en) Accompaniment Sound Generating Device, Electronic Musical Instrument, Accompaniment Sound Generating Method and Non-Transitory Computer Readable Medium Storing Accompaniment Sound Generating Program
JP2005055457A (ja) 楽譜表示装置及びプログラム
CN111667554A (zh) 信息处理装置的控制方法、电子设备、演奏数据显示系统
JP6768005B2 (ja) 照明制御装置、照明制御方法および照明制御プログラム
JP2015081985A (ja) 複数人による協調演奏を実現する装置およびシステム
JP2005099264A (ja) 音楽演奏プログラム
JP2004212414A (ja) 自動演奏装置及びプログラム
WO2017212551A1 (ja) 照明演出装置、照明システム、照明演出方法および照明演出プログラム
CN113724673B (zh) 节奏型编辑器构建及节奏型编辑器生成节奏并保存节奏的方法
JP4877166B2 (ja) 再生装置およびプログラム
WO2011030761A1 (ja) 音楽ゲームシステム及びそのコンピュータプログラム並びに効果音データの生成方法
JP2021015242A (ja) 演奏支援装置、演奏支援方法、コンピュータプログラム
JP2021015220A (ja) 演奏支援装置、演奏支援方法、コンピュータプログラム
Moriaty Unsound Connections: No-Input Synthesis System
JP5825449B2 (ja) コード検出装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16908125

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018525855

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16908125

Country of ref document: EP

Kind code of ref document: A1