WO2007066813A1 - 音楽編集装置、音楽編集情報の作成方法、並びに音楽編集情報が記録された記録媒体 - Google Patents

音楽編集装置、音楽編集情報の作成方法、並びに音楽編集情報が記録された記録媒体 Download PDF

Info

Publication number
WO2007066813A1
WO2007066813A1 PCT/JP2006/324884 JP2006324884W WO2007066813A1 WO 2007066813 A1 WO2007066813 A1 WO 2007066813A1 JP 2006324884 W JP2006324884 W JP 2006324884W WO 2007066813 A1 WO2007066813 A1 WO 2007066813A1
Authority
WO
WIPO (PCT)
Prior art keywords
section
song
music
remix
processing
Prior art date
Application number
PCT/JP2006/324884
Other languages
English (en)
French (fr)
Inventor
Akihiro Komori
Kosei Yamashita
Yasushi Miyajima
Motoyuki Takai
Norikazu Hiraki
Yuichi Abe
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to JP2007549212A priority Critical patent/JPWO2007066813A1/ja
Priority to CN2006800452229A priority patent/CN101322179B/zh
Priority to US12/093,059 priority patent/US7678983B2/en
Priority to EP06834639A priority patent/EP1959427A4/en
Publication of WO2007066813A1 publication Critical patent/WO2007066813A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/125Medley, i.e. linking parts of different musical pieces in one single piece, e.g. sound collage, DJ mix
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/021Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs, seven segments displays
    • G10H2220/081Beat indicator, e.g. marks or flashing LEDs to indicate tempo or beat positions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/016File editing, i.e. modifying musical data files or streams as such
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings

Definitions

  • a music device that collects music content and the like as a material and generates new (contents) according to an editorial report according to the above method. It also relates to a recording body for recording the edited report described in accordance with the law of the above report.
  • Memo With audio Thea has become a routine to carry a large number of songs. In addition to listening to a large number of songs on the media, not only can you listen to the original CD album, but you can also listen to all the songs across albums, or just listen to your favorite songs. The style of reconstructing and listening as a play list is widespread. It can also be said that the reason why Za has become popular in the order in which he wants to listen to the songs he wants to listen to without keeping the turn recorded in the album.
  • Figure 28 shows a conventional live performance using song A and song B. Each is played at the original tempo of the song. There will be silence in the mochiron.
  • the 2 0 0 3 4 4 0 4 6 report discloses how to combine multiple materials according to their power via a keyboard mouse to interactively edit and play back songs to enjoy.
  • chips chips such as sound patterns, flashes, etc. that are applied to these are assigned.
  • the chip corresponding to this is executed.
  • the corresponding chips are combined. Also, press in order and combine the chips with to compose the music.
  • a disc DJ can perform a song from a number of songs by connecting the other parts of the song like a line-remix. It was difficult to reconstruct the sword as if it were a bit. Is a general profession nowadays, and there is a level company for mixing and using it, and the people who are enjoying it are becoming larger in scale.
  • Playback is possible by overlaying or connecting multiple tracks or parts of many recorded tracks on a body such as a hard disk flash.
  • the purpose is to provide a method of music information that can be used to realize the collection of information.
  • it aims to provide a music device that collects music contents and the like as a material and generates new (content) according to the compilation report according to the above law.
  • It is intended to provide a recording body for recording editorial reports written in accordance with the law of information.
  • the master processing section generates a stadium and a stadium, and sends this master bit to the above-mentioned customic processing section. Synchronous playback that gives instructions according to the data and plays multiple songs according to the mix
  • the music playback part is composed of the music parts reproduced in the above-mentioned period reproduction, and the control part is a layered structure and has control parameter data body parts in a hierarchy. Mixing is performed based on the file.
  • the data that is generated corresponding to the music data and that includes at least the bit on the time axis, and the file that determines the XK pattern are included. Based on this mix processing, it generates a mix processing section and a stabit, and sends this stabi to the above mix processing section, and at the same time, the above mix processing is performed.
  • Mixing the songs played in the above playback Is a method of information referred to as the above-mentioned mix pattern, and is a data structure that is hierarchical and has control parameter data body parts in the hierarchy. Of the lower part of the upper data part It is created by processing the data part of the layer with the laser part.
  • the mixing section has commands such as synchronous playback for instructing according to the mixing pattern data, playback of multiple songs according to mixing, and mixing of the songs played during the above playback.
  • the high-order data part is composed of the xs pattern file. Records the position of the parametric meta-section created Ri by the and the call that processes the de-data body of by Ri layer to the edited report.
  • Ming it is possible to achieve a collection of many recorded songs on a body, such as a dos disk flasher, that are played back in layers or overlaid. , You can connect the body or part of the comfort to the real time and play on the spot.
  • Fig. 2 shows a music block to which the device and method according to the invention are applied.
  • Fig. 2 shows a block diagram showing the detailed structure of the synchronous playback and audio mixing parts.
  • the block of the music table is shown in Fig. 4.
  • 5 is a flowchart showing the order of the music programs to be played, Fig. 5 shows the data on the time axis, Fig. 6 shows an example of the time axis data, and Fig. 7 shows the time axis.
  • Fig. 8A 8 B 8 C shows another specific example of the meta data,
  • Fig. 9 shows the method of the meta data, Fig. 9 shows an example of the body of the sex pattern, Fig. 0.
  • FIG. 5 shows the G1 of the salutation tool for the direct realization of the law.
  • Fig. 5 is for explaining the music student by Ming
  • Fig. 6 is for the class.
  • Figure 7 for explaining the tie
  • Figure 8 for explaining the tie by cut-in
  • Figure 8 for using the effect Figure 9 for explaining the tie Fig.
  • Fig. 20 for explaining the tie by the cloth
  • Fig. 2 for explaining the synchronous regeneration
  • Fig. 2 for explaining the use of the hook
  • Fig. 22 for the partial reproduction.
  • Fig. 23 shows a music device with a network unit
  • Fig. 24 shows a music unit with a network unit
  • Fig. 25 shows a music unit with a network unit.
  • Fig. 26 of Fig. 2 shows a music device with a sensor
  • Fig. 2 7A 2 7B shows a sensor
  • Fig. 28 which is a flowchart showing the order of the music devices, is a diagram for explaining conventional life.
  • FIG. 1 is a block diagram of music to which the device and method according to the present invention are applied.
  • Content data original data
  • it is a device that automatically performs DJ training.
  • a central processing unit (C P) 2 As shown in Fig. 1, this is connected to a central processing unit (C P) 2 via 3, a memory 4, and a synchronous playback 8.
  • RM RAM 4, Z ZA 15 and Z TF 6 are connected to C P 2 via 3.
  • C P 2 determines how to connect the songs to the real time, and gives the necessary materials for the synchronized playback 8 with the required timing. Also, the tempo bit synchronization is indicated for the synchronized playback 8 according to the operation of the.
  • 5 is a memory that holds multiple data.
  • a flash memory device such as a portable storage device or a portable storage device. Etc. can be externally connected.
  • the music data stored in 5 may be compressed or compressed.
  • Data 6 stores the data added to the music on the time axis.
  • the metadata is supplemental data added to the music on the time axis, and not only the tempo but also the bit report, the measure (simply referred to as the head) report, and the prelude (intro) test ( The melody information such as rust) is described.
  • Mic Pattern 7 does not need to be limited as long as it is a memory device like Music 5. It is a memory that directs the mix pattern method and holds the mix pattern.
  • Periodic playback 8 is a block for automatically playing music, and plays the music material indicated by the mix control function of C P 2 in synchronization with the reference pitch.
  • Period playback 9 audio mixing 0, digital analog (DA) and audio 2.
  • Period playback 9 has multiple and plays multiple issues in synchronization with the clock issue generated within itself. Also, based on the data from the meta data storage device 6, the position of the song currently being played is constantly monitored, and the CP 2's dexterity function tells you where it is playing (playing the song). Number of samples) or whether the node is being played. return it.
  • A Converts the digital signal reproduced by audio mixing 0 to analog. 2 amplifies the analog signal from D A and outputs it to a speakerphone.
  • the M 3 has a music program in an order according to the method of Ming. It also stores the data of the default.
  • RAM 4 becomes the carrier when C P 2 executes the above program. It also stores the data when the above program is executed.
  • the 1 F 5 is, for example, a kipo, a tussah, or a touch pad that accepts works by The. 6 is a display including a current situation, a music situation, or a touch panel that enables the work by The The, for example, a device.
  • a display including a current situation, a music situation, or a touch panel that enables the work by The The, for example, a device.
  • FIG. 2 is a block diagram showing the detailed structure of the synchronized playback 9 audio mixing 0.
  • the term regeneration 9 consists of a mass turbulent 90 and three systems.
  • the star bit 90 produces a clock equivalent to the bit. Specifically, it outputs the tempo at the time of the tune and the pit signal synchronized with that tempo.
  • the stabit 90 generates a measure number and other usual bit numbers according to the designated 4 4 and 3 4 children, and outputs them.
  • Each trace has a decor (r) 9 9
  • Decoder 9 9 9 C outputs the compressed voice of M P 3 and so on as the code and data.
  • S E does not need to be compressed because it has a short length and a small data size. Therefore, the decorator of this S E track may be omitted.
  • the time-strain 9 2 9 9 2 converts the playback rate while keeping the pitch constant. Meta data
  • Match materials with different tempo based on the data from 6 to the tempo of the reference bit Performs processing to change the playback rate to real time based on the ratio of the song to the original tempo master bit. This makes it possible to match the original tempo of the song to the tempo of the stadium. Of course, the pitch cannot be changed as described above.
  • these voices may have a pitch shift (h h t r) function. Change the pitch while keeping the pitch shift and playback constant. This is a necessary function, but an additional function, which is used to comfortably harmonize materials with different degrees.
  • Mixing 0 corresponds to the above 3 tra It is equipped with three system control sections 0 0 a 0 0 and a volume control section. After being mixed by these three types of audio mix 02, it is amplified by audio 3 and output to the external speaker and headphone. It is configured so that the signals from the tracks can be processed and the volume can be processed.
  • FIG 3 is a block diagram of music.
  • the function of C P 2 as a hardware component is shown in the figure as the tasting unit 20.
  • the mixing control unit 20 is further divided into a data processing unit 2 and a lick pattern 2 2 included.
  • the mix processing unit 20 processes the data stored in the metadata 6 by the data processing unit 2. As mentioned above, the music is added with time-based data, and holds not only the tempo but also the bit report, the measure report, and the melody report such as the intro.
  • the metadata management unit 2 reads the data on the time axis corresponding to the music, reads it with the mix pattern included 2 2 and investigates the music information according to the instructions in the mix pattern report. For example, by understanding which bit is where you are, and where the bit of the song you are trying to combine is, you can identify multiple songs and their effects. , At what point, how to play it is decided.
  • the coax processing unit 20 reads the spac pattern file 7a stored in the cox pattern 7 with the cox pattern 22. Whether or not the touch panel file 7a fades out, cuts, or SE does This is a file that specifies and.
  • the mix pattern may be data artificially instructed by The or a third party (such as connecting to the role of this song), or created by an automatic algorithm. But it's okay (something like a machine that the machine decides in hand.
  • the period regeneration 9 generates a stabit by the stabit 90, and sends this stabit to the mixing control unit 20.
  • the mixing control unit 20 controls the mixing pattern 20.
  • the player can play multiple songs using the data from the data 6 according to the instruction.
  • Figure 4 shows the order of music programs that music executes by C P 2. This program is an example of how to collect things.
  • the mixing section 20 of C F 2 is a mix pattern.
  • Step S Read and get the mix pattern file 7a from 7 with mix pattern embedding 2 2. Next, get the song, for example, the eyes to the synchronized playback 9 (step S 2. If there is another song, go to step S 3 and perform the synchronized playback.
  • Step S 4) to determine the tempo of 9 Star Beat 90. If it is 0, it may be fixed at 40, or may be specified by The. Next, get the connection pattern (also written on the pattern) (step S 5).
  • step S6 the data of the song is acquired. If it is A, it means the data of song A.
  • the next step is to determine from the check pattern whether or not the Fecting is required, and if necessary, Y Enable to apply a proper flick to ES and Fect. 0 (Step S 8
  • step S9 whether or not volume control is necessary is determined from the backup pattern. For example, select whether you want to raise or lower the song A and song B when editing and stacking them. If necessary (, step S 0 to set the hood parameter. I wrote it on the assumption that it can be raised or lowered dynamically, but set the lamella there.
  • step S the original tempo of the plane is set for the master beat 90 of the synchronized playback 9 (step S).
  • the original tempo of the song is attached to the data.
  • the empty voice in the synchronized playback 9 is acquired.
  • the 3C example has been described above, but when it is free, it gets the free space and sets the song to play (step S3).
  • step S5 After acquiring the location of the song (step S4), it is determined whether the point for preparing the next song has been reached (step S5. If SE is a class, the class is If the suspension ends before that section, or if it is a cut-in, it will start immediately so that you can make preparations from the beginning.Of course, it is playback at exactly the same time. If you haven't reached the point at which you want to prepare a song, go back to Step S4 and wait until you reach the next song. If the desired point is reached (,, return to step S2.
  • Figure 5 is a diagram showing data 30 on the time axis.
  • the metadata 30 is supplementary data on the time axis added to the music. , Not only the tempo, but also bite information, measure information, and introductory melodies. 3 indicates whether it is a knot.
  • 4 represents the 4 of the eye.
  • 2 represents the second eye.
  • 2 means the beat at the beginning of the section.
  • 32 shows what is in that position. Indicates the position of a normal, ordinary, melody, tesabi, etc. clause. 0 0 indicates that it is the head of the bar. , Have 2 sex.
  • a sample for example, if a song is sampled with k, it is a sample in between, but that position is described in sample positions.
  • the data 30 as shown in Fig. 5 is described by a text expression and an expression.
  • Figure 6 shows an example of time axis data.
  • the data of the axis between 40 bit 4 4 2 is displayed at the same time. 40 changes from left to right with the passage of time, and with it a bit.
  • 4 2 of 4 major bars shows a normal bit. It has the clause 4 and the other bit 4 2 (if it is a quad, then 3 by the timing of 4 notes) corresponding to the sample of the music.
  • Figure 7 is also a diagram showing an example of time axis data. It is possible to attach to the 50 not only the bit 5 5 but also the melody composition such as the song's intro 5, A melody 5 2 5 3 B melody 5 4, temosabi). is there. You can use this information to find out the position of the target song and the position of the fixed melody.
  • 8 A is an example in which the data 7 and the data 7 2 such as M P 3 are logically different and physically exist in the same media.
  • 8B is an example in which data 7 4 is mixed with music data 7 4 like M E G 4.
  • 8 C is an example in which data 75 corresponding to music data 7 6 is retrieved via a network.
  • the music data is. This applies to the case where the unit has a network unit like the music 800, which will be described later, and is connected to a network such as the Internet. Data on the network can be downloaded according to 1D.
  • Fig. 9 is a diagram showing an example of the body of the X-spattern.
  • the song's data is for the song, but the x-spatan allows the child to create whatever they want and not to have any dependency on the song. It is a way of connecting the two.
  • 1 D (file) 6 ⁇ in the pattern 60 of the tux may be the same as A ⁇ E. It may be an opposite file.
  • 6 2 indicates where to play for each song. Specify the chorus for A, the 8th to 20th for intro C for B, the whole for D, and the chorus for E.
  • the birth time (fect) 63 specifies how to apply a different hook to each of the parts.
  • connection (pattern) 64 has a cross as A, but when connecting with B, it indicates that it should be connected with the cross. Also, from B to C In the toin, C to D are losses, and D and E indicate that they are connected simultaneously.
  • splice (fect) 65 specifies that a reverb, mouth cut, and distortion are applied as a fex at the time of splicing. Tether SE 6 6 specifies.
  • the actual live is performed as follows. Is played. Intros come to the crowd near the rust. At the same time as the introductory session of the beginning of the 8th, the beginning of section 0 begins at Crosfe. Sometimes they are mixed. It is also played back at the same time. It is like that.
  • the x-spat pattern is deliberately added to the conventional play list with instructions as to where and how to connect the song.
  • Figure 0 shows the data structure of the editorial report created by the method of the present report. 9 of the specific example shown in the figure
  • songs are stratified into song 20 song 30 and rody block 40.
  • the song is layered, and the structure of the layer is different.
  • the nodes that make up this song respond to the power from the interface of the music device, and the parameters that make up the song and the method of proceeding to the real time and the sounds that make up the song. It is composed of the data body that is the material. There are some nodes that can be processed and some cannot be processed at the same time in the same hierarchy.
  • the music and the connection sequence between the music and the music are divided into the following three layers to be structured and processed.
  • Songlist 20 is a more global layer, including the tie-breaking sequence of song layers. It is possible to change the hood, such as by activating the cloth P and moving it.
  • the song-layer roulette is similar to the album song song that the creator of the song-layer song group has several songs built together. The three parties (the or other creator) may describe rules for using different songs for their dynamics.
  • Song 30 is a song about the same as the existing one.
  • a song 20 is usually created by the same player, and at least one song is completed as a song.
  • the song 20 is a layer for connecting multiple songs. Therefore, it is composed of a set of data actions for arranging existing songs such as analogies.
  • the melody block 40 is composed of a group of blocks for composing the upper song 30.
  • it has a meaningful structure such as the usual Intro A Rabbit guitar.
  • a meaningful structure such as the usual Intro A Rabbit guitar.
  • Songlist 20 has control parameter 2.
  • This parameter 2 specifies the parameters for controlling the lock data, which is a jerk that shows the example of the lock.
  • Song 30 has 2 as described later.
  • the control parameter 2 describes the parameters for controlling the X-ray device 2.
  • Parametric 2 describes the regeneration sequence as follows. The same applies up to the middle of the example shown in Fig. 9.
  • the crossover pattern is specified as a cross pattern.
  • the cut pattern is specified.
  • the link specifies a reverb.
  • the connection S E is basically nothing.
  • the control parameters 3 35 are described in the song 30. These control parameters 3 35 are composed of the locks data 2 2 of the song layer. And the control parameters 3 3 5
  • parameter 3 The subdivision of the songs of parameters 3 and 32 is used as te (hook). Lifetime fake is not specified. Also, parameter 33 has an intro to the subdivision of song 34. The birth hook specifies a rocket. Parameter 35 defines the subdivision of 36 songs from verse 8 to 20. No birth ect is specified.
  • Melody Block 40 is an empty control parameter. It is equipped with 3 4 5 1 4 7 4 9 1 5 3 5 5. In this example, since static processing is performed according to the mix pattern, the parameter section of the melodic program 40 does not require each parameter.
  • the control body is an inlet 42, an A melody 4 4, a B melody 6 a chorus 4 8, an nding 50, an intro 52, an A melody 5 4 Rust 5 6 is connected.
  • the illustration is described by the orbit pattern.
  • the y-t p A melody is specified as y typ ", the B melody is y typ” "as y y" "Endy.
  • Figure 2 shows the stratification up to the ensemble and the installation in addition to the song, the song, and the melodic block.
  • the ensemble layer when viewed in terms of intro, rust, etc., depending on the number of returns, for example, piano may be included in the second, and vice versa in place of the peer. is there. Also, the clause just before leaving the loop and moving to another melody block may be different from the loop.
  • the instrumental layer is a combination of the sound materials that are combined to form the unsampled layer. It is okay to specify the physical file body, or you can give search conditions such as the bite guitar.
  • Fig. 13 shows an editorial report created by the method of Akira's report, specifically, music 1 based on the slick pattern. Shown here is an example in which multiple songs are continuously played by specifying the direction.
  • the song is selected by the Z (step S 4 0.
  • the song specified in the control parameter section in the song layer of 0 2 is selected (step S 4). What is specified here is what kind of voice you want to perform when you make a class, such as when you perform the class from the end of the song (eg, according to the bit at the beginning of the section). It is information such as whether to do it.
  • a song element is selected in the order of melody block, ensemble, and installation item, and the song is played (step S42, step S43, step S44). These are the song
  • step S45 the process goes to step S4 ⁇ Song selection, and the new song starts on the designated side.
  • Figure 14 shows the salient tool G 1 for intuitive implementation of Ming's report method.
  • This example is an example of the specification method for the purpose of playing the music. 60 is the song 6, song 62, and the next song's effect
  • the audio file 6 4 used for 6 3 can be specified.
  • the tempo of each song is adjusted to the tempo determined by the system or the system regardless of the original tempo of the song, and
  • the tempo positions of multiple songs are handled accurately, and the playback position is controlled by the real time for synchronous playback. It is assumed that the method described in this section is used to connect the songs described here to the seamless mode.
  • Figure 6 shows an example in which song A and song B are overlapped with a bit and are connected by cross-processing.
  • the current A is faded out (the amount is gradually decreased) while the next song B is gradually increased in the amount) .By playing that one at the same time, both songs are synchronized. The effect of switching to less is obtained.
  • Cross This is a method that has been widely used for FM radio transmission, but the point of Akira is that the song A and B have the tempo set, so the song is not harmonious. There is a connection.
  • the cut-out shown in Fig. 7 can be performed.
  • Figure 8 shows an example of the effects placed on each of song A, song B, and song C.
  • Figure 9 is an example showing the stitching of music A and music B using S E using cross. Of course in this case
  • Fuku plays a more natural and attractive way by connecting the reverb B to the song A while playing the local cut file on the song B, and simultaneously applying the above-mentioned various connecting methods. It can be realized.
  • the music is not limited to the music body to apply the above-mentioned connection method, and may be the music part or the intro part as shown in Fig. 22. If you connect the parts of a song, you will be able to connect them in a mix.
  • the tempo may be determined by the tempo specified by the The, or the whole song may be adjusted to the main song.
  • Za has the following new original stains in addition to the previous ones. These stains can never be obtained by listening to music passively as before, and they are actively involved in music, creating a way of listening to music that suits themselves and creating oneself. It satisfies one's own. In other words, you can listen to the music as a mix of the notes by connecting the specific parts of the song in brackets. In addition, you can complete your creativity by experimenting with how to connect the songs yourself and creating a good one that you choose.
  • Fig. 23 shows the composition of other sounds 80 to which the state of Ming is applied.
  • 2 4 Figure shows music 80 professional It is a figure.
  • This 80 has a network 8 and can be connected to the Internet 82.
  • a network user 8 has a network that can be exchanged and shared by a network such as the Internet 82, and a third party can create a user-created computer. You can enjoy it by downloading it.
  • the content pattern is not limited to that of an individual, and the content pattern provided by the content service side may be used.
  • the method of connecting songs is published on the Internet, etc., and it is a new music-based method that allows people to share it with other people or to create a mix with multiple people to create a good value for each other. It becomes possible to perform mini-processing.
  • Figures 25 and 26 further show the door composition and block diagram of other sounds 0.
  • This 0 is a configuration that takes a sensor sensor value via the A converter and functionally has a sensor.
  • the technique of detecting the walking tempo with an acceleration sensor and changing the tempo of the music in accordance with the tempo is applied. Applying this example, it is possible to change the stab tempo according to the walking tempo and mix all the songs according to the tempo of walking jogging. Also, the invention of selecting a music piece in accordance with the tempo of walking jogging may be applied as in the case of the audio signal (2 0 0 5 3 6 3 0 9 4). Sensors are indispensable to use these, and by applying the sensor and the algorithms of these inventions to the system, It is possible to select songs at the same time, and then to add them to produce a stop.
  • 2 7 A 2 7 B is for music with sensor mode
  • the sensor mode the sensor detects patterns such as walking and jogging, and changes them according to the pattern.
  • the sensor mode is a method in which the previous song selection is performed by jogging or walking, and the order of the songs, or the song selection itself is determined by the sensor, and is determined by the pattern. Not necessarily. It can be said that this suggests that it changes dynamically. It is an image that the pattern is dynamically created according to the value from the sensor, instead of reading the pattern file that is already read.
  • Step S3 When the pattern is selected instead of the sensor destination, the procedure is the same as in the above-mentioned Fig. 4.
  • step S3 and step S32 The case where the sensor mode is selected in step S3 and step S32 will be described. This is the case when music is automatically selected according to jogging and music is automatically connected according to it.
  • step S3 it is a step S3 3) in which the music and tempo can be adjusted by the power of the sensor. If it is determined in step S34 that there is the next song, the step tempo is set in step S35. . In this case, the tempo is set according to the tempo of walking. Since it is not always the case that the connecting method of the song is preliminarily determined, it is automatically determined (step S 3 6). There are some jogging modes that are easy to connect with a class, and I'm looking at the data of the next song, and since I'm fooling in, I sometimes overlap them. The process of step S 3 7 is the same as steps S 6 to S 5 in Fig. 4, so it will be explained.
  • the method of connecting music is disclosed on the Internet, etc., and it can be shared with other people or created by multiple people to create a price. It will be possible to have a conversation centered on new music, such as playing together. Also, by using the sensor, you can listen to music that suits your situation and condition.
  • the tempo of the number of songs recorded in memory is set to a predetermined timing, and in the case of holding a plurality of songs, all of the above-mentioned number of songs are simultaneously reproduced.
  • the above songs are characterized by using all or part of the songs.
  • the effect talk It is characterized by including which voice.
  • the above-mentioned arbitrary and arbitrary timings are characterized in that they can be set particularly at the bar and the melodic position.
  • the volume can be individually adjusted for each of the songs that are being played back at the same time during the above-mentioned playback. Using the adjustment, it is possible to reduce the amount of the song currently being played at the time of the above-mentioned production and increase the amount of the next song while simultaneously composing and playing.
  • timing is performed based on the data that is composed of the tempo, the time signature, the down-setting music message, etc. recorded in advance corresponding to the above-mentioned song.
  • the above-mentioned metadata is recorded on the same file as the music, or recorded as a file and the response to the music is used by the database and.
  • separately prepare a pattern file that describes the generation / method of the song start timing and volume control method of the song during the above-mentioned playback, and play it back in real time based on this. It is characterized by performing control.
  • the above tempo is specified by the Z or automatically determined by the unit. This is characterized.
  • the feature is that the data from the sensor is used as the tempo automatically determined by the notation.
  • the sensor is characterized by being able to add any sensor such as an acceleration sensor, a sensor, a sensor body temperature sensor, a body movement sensor, or an electroencephalogram sensor.
  • the pattern file is not only recorded in, but also can be obtained from an external storage device or the Internet.
  • the user can specify the user's position and the music player according to the force from the sensor attached to the music / live device interface for the music / live device interface.
  • Characterize It is also characterized by the ability to arrange songs such as mixing other sounds, adding fex, and specifying the method of those parameters in places other than the joint of the songs. .

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

多数の楽曲の全体あるいは部分をビートを揃えて重ねたり、つなぐという編集を実現できる音楽編集装置を提供する。楽曲データに対応して予め生成された、少なくとも時間軸上のビート位置を含むメタデータと、リミックスパターンを決定するファイルに基づいてリミックス処理を行うリミックス処理部と、マスタービートを生成し、このマスタービートを上記リミックス処理部に送るとともに、上記リミックス処理部がリミックスパターンとメタデータに応じて指示してきたリミックス処理に応じて複数の楽曲を再生する同期再生制御部と、同期再生制御部にて再生された楽曲を混合する混合部とを備え、リミックス処理部は階層化され、かつ各階層に制御パラメータ部とデータ実体部を有するデータ構造のリミックスパターンファイルに基づいてリミックス処理を行う。

Description

明 細
音楽編集装置、 音楽編集情 の作成方法、 並びに音楽編集情報が 記録された記録媒体 …
技 1分野 .
本発明は、 例えば、 楽曲を楽曲パー ト 小節などに細分化し 、 それ らを編集する際に 、 曲と曲とのつなぎ方を指定するための音楽 ¾fe集 1 報の作成方法に関し、 特に上記作成方法に したがつた 集情報に応じ て 音楽コ ンテンッなどを素材と して用い して新たな楽曲 (音 楽コ ンテンッ) を生成する音楽編集装置に関する また 、 上記 ^pg 集情報の作成方法に従って記述された編 *情報を記録する G録媒体に 関する。 - 背 技術
メモ リ 型ォー Tィ ォの普及と ともにュ ザは大 の楽曲を持ち歩く とが日常的になつた。 大量の楽曲をメァィ ァの交換 く 連 して聴 けるメモ リ 型ォ ディ ォにおいては、 もともとの C Dァルバム単位で 聴 < だけではな < 、 すべてめ楽曲をアルパ'ムをまたいでシャ 、ン フルし て聴いた り 、 自分の気に入つた曲だけをプレイ '」 ス 卜 と して再構成し て鸱く とレ ぅ ス夕ィ ルが広まつている。 予めアルバムに録音されてい る順番を守らずに 、 ユーザが白分で聴きたい曲を聴さたい順番で聴ぐ 白由が広まつたと t る。
しかしながら 1 曲 1 曲に いては先頭から最後まで聴く とが前 提となつてお り 曲と曲の間には無 部分がでさてしま Ό 。 すな わち 、 曲は 1 曲という単位が最小になつてお り 、 その 1 曲で元結する 聴さ方しかできない。 そのため 、 そこで集中、 いわゆる ノ り が途切れ て しまう ので、 テンショ ンを保つたまま楽曲を聴さ feeける こ とが難し 第 2 8 図にほ楽曲 Aと楽曲 B を用い 従来の音楽再生を不す。 二つ の楽曲はそれぞれ楽曲の持つオ リ ジナ のテンポで再生される。 もち ろん、 曲間には無音部分がで、きてしま
そこで 複数の曰 楽素材を組み合わ て編集する技術が考えられた
。 特開 2 0 3 ― 4 4 0 4 6 号公報に 、 キーボー ドゃマウスを介し たユーザ 力に応じて 、 複数の音素材 組み合わせて楽曲を対話的に 編集した 再生して楽しむ技術が開示 れている。 キーポー ドの各キ 一に対して 、、 ササヴウンン Hドパバタ一 やワン ッ 卜などの音片や、 これら 音片に適用すするるェエフフ Xェクク 卜な からな ッ プか *割り 当てられている 。 ユーザがキーを押下する こ によつ 、 この押下キーに対応するチ ッ プが実行される。 複数のキ を同時 押下操作する こ とによって、 該当するチッ プを合成出力す 。 また、 各キーを順に押下してチッ プ を時系列的に組み合わせて楽 を構成する。
しかし、 上記特開 2 0 0 3 4 4 0 4 6 号公報の #1によ て ¾、 例えばディ スク ジ 3 グキ ― ( J ) が行 ミ ッ クスのよラ に曲の一 部分を他の曲 つないで複.数 曲力ゝらぁたかも一つの曲を 、 ビ一卜 を 揃えて繋ぐよ う に再構成する ぃラ こ とは困難であつた D J は現在 では一般的な職業であ り 、 U ッ クス音楽もそれ専用の レ一ベル会社 があ りそれを楽しんでいる ザ層も規摸が大き く なつてさている 本発明は 、 上 δし実情に鑑み なされたものであ り 八 ― 丁ィ スク フ ラ ッ シュ メモ V などの記 媒体に、 記録されている多数の楽曲の 全体あるいは部分をビ一卜 を揃えて重ねて再生した 0 つないで再生 するという編集を実現する際に利用できる音楽編集情報の作成方法の 提供を目的とする また 、 上記作成方法に したがつた編集情報に応じ て、 音楽コ ンテンソなどを素材と して用いて編集して新たな楽曲 (音 楽コ ンテンッ) を生成する音楽編集装置の提供を目的とする。 また、 上記音楽編集情報の作成方法に従って記述された編集情報を記録する 記録媒体の提供を目的とする。
発明の開示
本発明に係る 楽編集装置は、 上記課題を解決するために、 楽曲デ 一夕に対応して予め生成された、 少なく とも時間軸上のビー ト位置を 含むメタデ一夕 と 、 リ ミ ッ クスパターンを決定するフ ァイルに基づい て リ ミ ッ クス処理を行う リ ミ ッ クス処理部と、 マスタービー 卜を生成 し、 このマス夕一ビー トを上記り ミ ッ クス処理部に送る とともに、 上 記リ ミ ッ クス処理部がリ ミ ッ クスパターンとメ タデータに応じて指示 してきた リ ヅ クス処理に応じて複数の楽曲を再生する同期再生制御 部と、 上記同期再生制御部にて再生された楽曲を混合する混合部とを 備 、 上 'J .ッ クス処理部は階層化され、 かつ.各階層に制御パラ メ 一夕部とデ一夕実体部を有するデ一夕構造の リ ミ ッ クスパターンフ ァ ィルに基づいて ミ ッ クス処理を行う。 .
本発明に係る編集情報の作成方法は、 上記課題を解決するために、 楽曲データに対応して予め生 された、 少なく と も時間軸上のビー ト 位置を含むメタ丁 —夕 と、 リ ミ ッ クスパターンを決定するフ ァイルに 基づいて リ ッ ク ス処理を行う リ ミ ッ ク ス処理部と、 マス夕一ビー ト を生成し、 のマスター ビー 卜 を上記リ ミ ッ クス処理部に送る とと も に、 上記リ ッ クス処理部がリ ミ ッ クスノ°夕一ンとメ 夕データに応じ て指示してさた U ミ ッ クス処理に応じて複数の楽曲を再生する同期再 生制御部と 、 上記同期再生制御部にて再生された楽曲を混合する混合 部とを備えてなる音楽編集装置によ り 、 上記リ ミ ッ クスパターンと し て参照される編集情報の作成方法であって、 階層化され、 かつ各階層 に制御パラメ ―夕部とデータ実体部を有するデータ構造のリ ミ ッ クス パターンフ ァィルを、 上位層のデータ部を構成している下位層の制御 パラメータ部(こよ り 同階層の了一夕実体部を処理する とによ り作成 する
本発明に係る編集情報を記録した記録媒体は 、 上記 題を解決する ために、 楽曲: 7 夕に対応して予め生成された 、 少なく とも時間軸上 のビー ト位置を含むメ タデ一夕 と、 リ ミ ッ クスパターンを決定するフ ァィルに基づいてリ ミ ッ クス処理を行う リ ミ ッ クス処理部と、 マス夕 一ビー トを生成し、 このマスタ ―ビー トを上記 U 5 ッ クス処理部に送 る とともに 、 上記リ ミ ッ クス処理部がリ ミ ッ クスパ夕一ンとメ夕デー 夕に応じて指示してきた リ ッ クス処理に応じて複数の楽曲を再生す る同期再生制御部と _t pL同期再生制御部にて再生された楽曲を混合 する混合部とを備えてなる 編集装置によ り 、 上 p u ミ ッ クスパ夕 一ンと して参照される編集情報を記録した記録媒体であつて、 階層化 され 、 かつ各階層に制御パラメ —タ部とデータ実体部を有するデ一夕
'構造のリ ミ ッ クスパターンフ ァィルを、 上位層のデー夕部を構成して いる下位層の制御パラメ一夕部によ り 同階層のデータ实体部を処理す る とによ り作成された編'集情報を記録している
本発明によれば、 ハー ドァィ スクゃフラ ッ シュメモ などの記憶媒 体に 、 記録されている多数の楽曲の全体あるいは部分をビー 卜を揃え て sねて再生したり 、 つないで再生するという編集を実現できる。 ま た 楽曲の全体または一部を u アルタイ ムにその場その場でつないで 再生する こ とができる。
図面の簡単な説明
第 1 図は、 本発明によ る装置、 方法の一実施の形態が適用 される 音楽編集装置 1 のブロ ッ ク 図、 第 2 図は、 同期再生制御部と音 キ シ ング部の詳細な構成を示すブロ ッ ク 図、 第 3 図は、 音楽編集装 置の機能ブロ ッ ク 図、 第 4 図は、 音楽編集装置が C P U によつて実 行する音楽編集プロ グラムの処理手順を示すフ ローチヤ ト 、 第 5 図は 時間 W上の メ タデータ を示す図、 第 6 図は、 時間軸メ タつ タの具体例を示す図、 第 7.図は、 時間軸メ タデータの他の具体例を 示す図 、 第 8 図 Α、 第 8 図 Β及び第 8 図 Cは、 メ タデ —夕 の格納方 法を示す図、 第 9 図は、 リ ミ ッ ク スパター ンフ ァ イ ルの具体例を示 す図 第 1 0 図は、 本発明の編集情報の作成方法によ り 作成された 集情報のデータ構造を示す図、 第 1 1 図は、 X M L によ り 記述さ れた ミ ッ ク ス ノ ターンフ ァ イ ルの記述例を示す図、 第 1 2 図は、 ソ ングリス ト層、 ソ ング層、 メ ロディ ブロ ッ ク 層のほかに、 ァ ンサ ンブル層、 イ ンス 卜 ウ ルメ ン 卜層 までの階層化を示 している図 、 第
1 3 図は、 本発明の編集情報の作成方法によ り 作成された編集情報
、 具体的には リ ミ ッ ク スパター ン フ ァ イ ルに基づいた ¾tj 装置 の制御例を示す図、 第 1 4 図は、 本発明の編集情報の作成方法を直 感的に実現するためのォーサ リ ン グツールの G U I 構成例を示す 図 、 第 1 5 図は 、 本発明による音楽再生を説明するための図 、 第 1
6 図は ク 口 フ エ ド によるつなぎを説明するための図、 第 1 7 図は、 力 ッ 卜ィ ンによるつなぎを説明するための図、 第 1 8 図は、 効 y^. を用 たつなぎを説明するための図、 第 1 9 図は、 効果音を 用 いたク □ス フ エー ドによるつなぎを説明するための図、 第 2 0 図 は 、 同時同期再生を説明するための図、 第 2 1 図は、 ェフ エ ク 卜 の 適用 を 明するための図、 第 2 2 図は、 部分再生を説明するための 図 、 第 2 3 図は 、 ネ ッ ト ワーク 通信部を有する音楽編集装置の構成 図 、 第 2 4 図は 、 ネ ッ ト ワーク通信部を有する音楽編集装置の機能 ブ □ ッ ク 図 、 第 2 5 図は、 セ ンサー値取得部を有する音楽編集装置 の構成図 第 2 6 図は、 セ ンサー値取得部を有する音楽編集装置の 機能ブ □ッ ク 図 、 第 2 7 図 A及び第 2 7 図 B は、 セ ンサー値取得部 を有する音楽'編集装置の処理手順を示すフ ローチャ ー ト、 第 2 8 図 は、 従来の音楽再生を説明するための図である。
発明を実施するための最良の形態
以下 、 本発明を実施するための最良の形態について図面を参照しな がら p兑明する 第 1 図は本発明による装置、 方法の ―実施の形態が適 用される音楽編集装置 1 のブ D V ク図で,ある。
の音楽編集装置 1 は、 八 Hディ スク ( H D ) ンパク 卜ディ スク ( C D ) , ミニディ スク ( M D ) 、 ディ ジタルパ サタイルディ スク ( D V D ) などの種々の記録媒体ゃィ ン夕一ネッ 卜などのネッ 卜 ヮ ―ク を通じて提供される楽曲の音楽コ ンテンツデ ―夕 (ォ リ ジナル デ 夕 ) に対して、 後述する 夕データを用いて、 例えば本来テンポ が異なる楽曲 Aと楽曲 B とをピ トを揃えて重ねて再生する こ とがで さる つま Ό 自動的に D J 再生を行う装置である
第 1 図に示すょラ に、 この 楽編集装置 1 は、 中央演算処理装置 (
C P U ) 2 にバス 3 を介レて記憧部 4 、 同期再生部 8 を接続している また c P U 2 にバス 3 を介して R O M 1 3 R A M 1 4 、 ユーザ 操作 I / F部 1 5及びユーザィ ンターフ ェース ( U / I ) 表示部 1 6 を接 している
C P U 2 はリ アルタィムに楽曲のつなぎ方を決定し 同期再生部 8 に対して必要な楽曲素材を必要なタイ ミ ングで与える また、 ユーザ の操作に応じて同期再生部 8 に対し、 テンポの'指示やビ ―卜同期 Ζ非 同期の指示を行 Ό
記憶部 4 は、 楽曲用記憶部 5 楽曲メ タデータ用記憶部 6 及びリ ミ ッ クスパ夕 ン用記憶部 7 からなる。 楽曲用記憶部 5 は 複数の楽曲 デ ―夕を保持する記憶部である 据え置き用の音楽再生装置や、 携帯 用の 楽再生装置が持っているようなフ ラ ッ シュメモ やハー ドディ スクなど記憶部を外部接続してもよい。 なお、 楽曲用記憶部 5 に記寧 される楽曲データは圧縮されたものでも非圧縮のものでもかまわない 楽曲メタデータ用記憶部 6 は 、 楽曲に付加されている、 時間軸上の メ夕データを記憶している。 詳細は後述するが、 メ タデータは楽曲に 付加された時間軸上の補助デー夕であ り 、 テンポだけでなく ビ — 卜の 位置情報、 小節の先頭 (単に頭と記す) 位置情報、 (¾り癸' (イ ン 卜 □ ) やテーマ (サビ) などのメ +ロディ情報が 己述されている。
リ ミ ッ クスパターン用記憶部 7 は、 楽曲用記憶部 5 と同様に 己憶装 置であれば特に制限を付ける必要はない 。 り 5 ッ クスパターン指定方 法を指示したり ミ ッ クスパターンフ ァィルを保持する記憶部でめ リ ミ ッ クスパターンフ アイ レに いては 、 trp細を後述するが、 曲順が 曰 いてあるだけでなく 、 曲順 + どう いうふう に組み合わせるか 、 ある いは楽曲 Aと楽曲 Bのどこを使つ ,てどこ.に組み合わせるかというよう な 、 こ とが書いてある フ ァイルで
同期再生部 § は、 .音楽編集装置 1 が自動的に D J .再生を行うための 信号処理ブロ ッ クであ り 、 C P U 2 の リ ミ ッ クス制御機能によ り指示 された楽曲素材を基準ピ一 卜に同期して再生する。 同期再生制御部 9
、 音声ミキシング部 1 0 、 デジ夕ル Zァナロ グ変換部 ( D A ) 1 1 及び音声出力部 1 2 からなる。
同期再生制御部 9 は 、 複数の 曰 尸信 生成部を有し、 複数の音声信 号を、 自分の中で生成したク ロ ッ ク信号に同期して再生する。 また、 メ夕デ一夕用記憶装置 6 からのメ夕デ一夕に基づいて現在再生されて いる楽曲の位置を常に監視し、 C P U 2 の リ ミ ッ クス処理機能部に、 今どこを再生しているのかという位置 (楽曲の再生をしているサンプ ル数とかの位置) や、 何小節目の何拍目 を再生しているのかという位 置を返す。
音声ミキシング部 1 0 は、 同期再生制御部 9 内の複数の立 士
曰 尸信号生 成部で生成された複数系統の音声信号を合成して出力する D / A 1 1 は音声ミキシング部 1 0 で再生されたテジ夕ル信号をァナ □グ信号 に変換する。 音声出力部 1 2 は、 D / A 1 1 からのアナ口 グ曰 尸信号 を増幅し、 ス ピーパ、力ス Fやへッ 'ドホンなどに出力する
R O M 1 3 は、 本 の音 集方法に したがつた処理手順からな る音楽編集プ P ラ 格納 ている。 また 、 丁フ オル 卜の各種つ 夕を格納してい M 1 は C P U 2 が上記曰 ί 集プ □グラ ムを実行する ときのヮ一クェ ァ なる た 、 上記音楽編集プ口グ ラムを実行するときの各 ¾更 テ 夕を し憶する
ュ一ザ操作 Γ 部 5 は ザによる操作を受けつける例えばキ 一ボー ドや、 ク 夕 ッナ ッ トなどである U I 表示部 1 6 は 、 現在の操作状況 楽 理状況、 あるレ、は 一ザによる操作を 可能とする夕 ツチ ルを含 た表示部であ Ό 例えば液晶表示装置 である。 もちろん R Tで よい
第 2 図は同期再生制御部 9 と音尸 ミキシング部 1 0 の詳細な構成を 不すブロ ッ ク図でめる。 同期再生制御部 9 は、 マス夕一ビー ト生成部
9 口
0 と、 3 系統の音声信 生成部からなる。 マスタービー 卜生成部 9 0 は 、 ビー トに相当するク π ッ クを生成する。 詳細には、 リ ミ ッ クス 時のテンポとそのテンポに同期 したピー ト信号を出力する。 マスター ビ一ト生成部 9 0 は指定された拍子 ( 4 Z 4拍子や 3 / 4拍子など) にあわせて、 小節の頭信号とそれ以外の通常のビー 卜信号を生成し、 出力する。
3 系統 ( ト ラ ッ ク) の曰 声信号生成部は、 リ アル夕ィ ムにステレオ の立
曰 を複数だせるよう にするために、 典型的な例と して、 楽曲 A、 楽 曲 B、 効果音 (Sound ef fect : S E ) という こ とで 3 卜 'ラ ッ ク と して いる ものである。 もちろん、 楽曲の構成数に応じて 4 卜 ラ ッ ク 、 5 卜 ラ ッ クあるいはそれ以上の ト ラ ッ ク数でもかまわない。 の 信号 生成部は、 マスタ一 ビ一卜生成部 9 0 が生成した同期信 (ク □ッ.ク
、 あるいはビー ト) をもとに楽曲の小節/ビー ト位置を Ύス夕一ビ一 卜の小節 Zビー ト位置に合わせて同期再生を行う。
各 ト ラ ッ ク には、 それぞれ、 デコーダ ( Decoder) 9 1 a 、 9 1 b及 び 9 1 c と、 タイムス ト レツチ部 (Time Stretch) 9 2 a 、 9 2 b及 び 9 2 c が備えられている。 デコーダ 9 1 a、 9 1 b及び 9 1 c は、
M P 3 や A T R A C等の圧縮音声をデコー ドし、 P C Mデ一夕 と して 出力する。 こ こで、 S Eは長さが短く 、 データサイ ズも小さ いため必 しも圧縮する必要は無い。 そのため、 この S E 卜 ラ ッ クのァ 一ダ は省略してもよい。 夕ィ ムス ト レッチ部 9 2 a、 9 2 b及び 9 2 c は
、 音程を一定に保ったまま再生速度を変換する。 メ 夕デ一夕用記憶部
6 からのメタデータに基づいて異なるテンポを持つ楽曲素材を 準ビ 一卜のテンポに合わせる。 楽曲のオリ ジナルテンポとマスタ一ビ一ト との比率に鑑みて、 再生速度を リ アルタイ ムに変化させるとい 処理 を行う。 これによつて 、 楽曲のオリ ジチルテンポをマス夕一ピ ―卜の テンポに合わせる こ とができる。 もちろん、 上述したよ Ό に 程を変 える ことはない。
なお、 これら音声信号生成部には、 ピッチシフ ト • (P \ t ch Sh i f ter
) 機能を搭載してもよい。 ピッチシフ ト機能は、 再生 is度を一定に保 つたまま音程を変更する。 これは異なるキ一や音程を持つ楽曲素材を 音楽的に調和させるのに利用されるが、 必ずしも必要な機能ではなく 付加的な機能である。
音声ミキシング部 1 0 は、 上記 3 ト ラ ッ クの音声信号生成部に対応 して、 3 系統のエフ Xク 卜処理部 1 0 0 a 、 1 0 0 b及び 1 0 0 C と
、 音量調整部 1 0 1 a 、 1 0 1 b及び 1 0 1 c を備える。 これら 3 系 統の出力は音声ミ ッ クス部 1 0 2 によ Ό ッ クスされて力 ら 声出力 部 1 0 3 によ り増幅されて外部のス ピ一力 、 ヘッ ドホンに出力される
。 音声信号生成部の各 卜 ラ ッ クからの出力音声信号に対してそれぞれ エフェク 卜処理と、 量 整処理がでさる構成となっている
第 3 図は音楽編集装匱 1 の機能プロ ッ ク図である。 第 1 図に八一 ド ゥェァ構成と して示した C P U 2 の機能が 、 ' リ ミ ッ クス処理部 2 0 と して示してある。 リ ッ クス処理部 2 0 は 、 さ らにメタデ一夕処理部
2 1 と リ ミ ッ クスパ夕 ―ン読み込み部 2 2 に分かれている。
リ ミ ッ クス処理部 2 0 は 、 5つ 夕用記憶部 6 に格納されたメ 夕 データをメタデータ処理部 2 1 によつて処理する。 上述したよ Ό に、 楽曲には時間軸上のメ 夕ァ一夕が付加されてお り 、 テンポだけでなく ビー トの位置情報、 小節の頭位置情報 ィ ン ト ロゃサビなどのメ 口デ ィ 情報を保持している
メタデータ処理部 2 1 は 、 楽曲に対応した時間軸.上のメタ了一夕を 読み込み、 リ ミ ッ ク スパ夕 ―ン s¾み込み部 2 2 で読み込んだ ッ ク スパターン情報の指示に従つて当該楽曲の位置情報を調査する 例え ば、 今、 どこのビー 卜に'白分がいるのかとか、 今組み合わせよ Ό と し ている楽曲のピー トはど にあるのかという こ とを把握したラ で、 複数ある楽曲とか、 効果 という ものを どの時点で、 どう いうふう に再生するかを決めている
また、 リ ミ ッ クス処理部 2 0 は、 リ V クスパターン用記憶部 7 に 格納された リ ミ ッ クスパタ一ンフ アイ ル 7 a を リ ミ ッ クスパ夕一ゝ
¾π み込み部 2 2 で読み込む U ミ ッ クスパ夕ーンフ ァイル 7 a は 、 フェ
— ドアゥ 卜するのか 力 V 卜ィ ンするのか 、 S Eは何をかけるのか、 という ような i とを指定したフ ァィルでめ 。 ッ クスパ夕一ンは ユーザあるいは第三者の手によ て人為的に指示されたデ ―夕列 ( の曲の後にはこ う いふう .に なげとか ) でも い し、 自動生成ァル ゴリ ズムによって作られたちのでもよい (勝手に機械側力 決めるよ う な リ ミ ッ クスのよラなもの )
同期再生制御部 9 は、 マス夕一ビ一卜生成部 9 0 によ りマス夕一ビ
―卜を生成し、 このマスタ一ビ一卜を ミ ッ クス処理部 2 0 に送る と ともに、 リ ミ ッ クス処理部 2 0 が ッ クスパタ一ンとメタ 一夕に 応じて指示してきた U ミ ッ クス処理に応じ、 メ 夕デ一夕用記億部 6 か らの各メタデータを用いて複数の楽曲を再生す
第 4 図は 楽編集装置 1 が C P U 2 によって実行する音楽編 プロ グラムの処理手順でめ の 楽編 プログラムは本発明の 楽編 集方法の具体例である
まず、 C P U 2 の U 5 ッ クス処理部 2 0 はリ クスパタ ―ン用記 憶部 Ί -からの リ ミ 'ン クスパタ一ンフ ァィ ル 7 a を リ ミ ッ クパ夕 ―ノ a% み込み部 2 2 で読み込んで取得する (ステップ S 1 ) 。 次に 楽曲、 例えば 1 曲目 を同期再生制御部 9 に取得させる (ステツ プ S 2 ) 。 さ らに、 次の曲があれば (ステ V プ S 3 にて Y E S ) 、 同期再生制御部
9 のマス夕一七'一卜生成部 9 0 のテンポを決定する (ステツ プ s 4 ) これは、 1 4 0 なら 1 4 0 で固定でもいいし 、 ュ一ザが何か指定し ている ものでもよい 。 次に なぎかたパターン (これもパ夕 ―ンフ ァィルに書いてある ) を取得する (ステッ プ S 5 )
これで、 曲とつなぎ方のパ夕一ンが決まったので 、 楽曲のメ 夕つ 夕を取得する (ステッ プ S 6 ) 楽曲 Aであれば楽曲 Aのメ 夕ァ ―タ のこ とである。 次に 、 ェフ ク 卜処理が必要かどうかを リ ミ ッ クスパ 夕 —ンフ ァィルから判断する (ステッ プ S 7 ) し、 必要であれば ( Y E S ) 、 エフェグ ト処理部 1 0 0 にて しかるベきェフ Xク 卜 をかけ るよう に有効にする (ステッブ S 8 )
次に 、 音量フェー ド処理が必要かどうカゝを U 5 ッ クスパ夕 ンフ ァ ィルから判断する (ステッ プ S 9 ) o 例えば楽曲 A と楽曲 Β を ¾!9 し て重ねる ときに上げた り下げた りの音量フェ ドが必要かを選択する
。 ち し必要があれば ( Y E S ) フェ ドパラメ 夕を ax定する (ス テップ S 1 0 ) 。 自動的に上げた Ό 下げた Ό ¾r刖提に して いたが
、 そこにパラメータを設定してお < „
次に 、 同期再生制御部 9 のマス夕 ビ 卜生成部 9 0 に対レて、 楽 曲のォリ ジナルのテンポをセッ 卜する (ステッ プ S 1 1 ) ο 楽曲の才 リ ジナルのテンポはメタ丁 ^に付与されている o そして 同期再生 制御部 9 内の空いている 声信号生成部を取得する 3 c h の具体例 を上述レたが、 空いている ところを取得して再生させたい楽曲 ·≥:セッ 卜する (ステッ プ S 1 3 )
そして、 各楽曲の現在の再玍 置を取得してから (ステッ プ S 1 4
) 、 次の楽曲 ¾用意するポ.イ ン 卜に到達 したかを判断する (ステッ プ
S 1 5 ) 。 例えば、 S Eがク ロスフェ ドであれば 、 ク □スフエー ド が終わるめはその小節の何小節か前であつたり 、 力 ッ 卜ィ ンであれば
、 すぐに始まるので 1 小節前から準備しても間に合 Ό もちろん、 同 時再生は全く 同時に再生でめ "S そう いうポィ ン 卜 に到 したかを見 て、 も し楽曲を用意するポイ ン 卜に到達していないのであれば 、 ステ ップ S 1 4 にもどり 、 到達するまで待つている 。 も し、 次の楽曲を用 意するポイ ン ト に到達したのであれば ( Y E S ) , ステ プ S 2 に戻 第 5 図は時間軸上のメ 夕データ 3 0 を示す図であ メ夕丁一夕 3
0 は、 上述したよう に、 楽曲に付加された時間軸上の補助デ 夕であ Ό Tンポだけでなく ビー トの位置情報、 小節の頭位置情報、 イ ン 卜 口やサビなどのメ 口ディ 情報が記述されている。 小節 拍 3 1 は 1 小 節目の何拍巨かを表している 「 1 1 」 は 1 小節目の 1 拍目 を表す。
Γ 1 4 j は 1 小節目の 4拍目を表す。 同様に、 「 2 1 」 は 2 小節目の
1 拍目を表す 。 特に、 「 1 1 」 Γ 2 1 」 は各小節の先頭の拍を表す こ とになる 属性 3 2 はその位置に何があるかを示している。 小節の 頭、 普通の拍 、 メ 口ディ 、 テーマ (サビ) 等の位置を示す。 「 0 1 8000
0 1 J は小節の先頭である ことを示す。 前記 「 1 1 」 「 2 1 」 の属性 と して.示している。 サンプル位置は、 例えば楽曲が 44 . 1 kH zでサンプリ ングされているのであれば、 1 秒間に 44 1 00サンプルであるが、 その位 置がサンプル単位で記述されている こ とになる。 この第 5 図に示した ようなメタデータ 3 0 はテキス ト形式やバイナ リ 形式で記述されてい 第 6 図は時間軸メタデ 夕の具体例である 音声信号 4 0 と ビ ― 卜
4 1 4 2 の時間軸のメ タ了 —夕を同時に表示してい 。 信号 4
0 は左から右に時間の経過とと もに変化しているが それとと ちに ビ 卜 も乗つている。 第 6 図において長い線 4 1 力 小節の頭、 短い線 4
2 が通常のピー '卜を示している。 小節の先頭 4 1 とそれ以外のビ ― 卜
4 2 ( 4拍子であれば小節頭のあとに 4分音符の夕ィ ミ ングで 3拍) 位置を楽曲のサンプル位置に対応させて保持しているものである 第 7 図も時間軸メ 夕デ ―夕の具体例を示す図である 。 音声信号 5 0 に 、 ピ ト位置 5 5 だけでなく 楽曲のィ ン 卜 □ 5 1 や Aメ □ τィ 5
2 及び 5 3 B メ ロディ 5 4 、 テーマ (サビ ) といつたメ ロ Tィ 構成 を示す位置情報を付ける とが可能である の情報を利用 して対象 の楽曲の小節位置や特定のメ 口ディ の開始位置がわかる。
上記第 1 図等に構成を示した音楽編集装置 1 では メタデ 夕は楽 曲メ タデー夕用記憶装置 6 に格納されていだ。 メ 夕了―夕の格納方法 は 、 第 8 図 A 第 8 図 B及び第 8 図 Cに示すよ う に してもよい。 第 8 図 Aは、 M P 3 のよう にメ タデ一夕 7 1 と楽曲デ一夕 7 2 が論理的に 別で物理的に同じメディ アに存在する例 こ "める。 また 、 第 8 図 Bは M
P E G 4 のよう に楽曲データ 7 4 にメタデータ 7 3 が混在している例 でめる また 、 第 8 図 Cは例えばネッ 卜 ワーク を介して楽曲データ 7
6 に対応するメ 夕データ 7 5 が検索される例である 論理的にも物理 的に楽曲テ一夕 とメ タデータは別々であ し れは 、 後述する音楽編 集装置 8 0 及び 1 1 0 のよう に、 ネッ 卜 ワーク通信部を備え、 イ ンタ 一ネッ 卜などのネッ ワーク に接続する形態のとさに適用される。 楽 曲 I Dに応じてネッ ト'ワーク上のサイ 卜から メタァ一夕をダウン口一 ト'する こ とができる。
第 9 図は ッ クスパターンフ ァイルの具体例を示す図である。 楽 曲のメタデ一夕は楽曲に対して 1 対 1 のものであるが 、 リ ミ ッ クスパ 夕一ンのほう は 、 ユーザが自由に作る こ とができ 、 楽曲とは何の依存 関係もないよラ にする こ と'もできる。 楽曲間をど Ό なぐかという フ ァィルである ミ ッ クスのパターン 6 0 における 、 曲 I D (フ アイ ル ) 6 1 の I D _A I D— Eは、 曲名 A ~ E と同 じであ てもよい。 絶対的 なフ ァイル名やフ 7ィルパスでもよい。 再生部分 6 2 は、 それぞれの 楽曲に対してどこを再生するかを示す。 曲 Aに対しては 「サビ J 、 B に対しては Γィ ン 卜 □ J 、 Cに対しては 「 8 小節 から 2 0 小節目」 まで、 Dに対しては全体、 E に対しては 「サビ」 という位置を指定す る 。 再生時 ( Xフェク 卜) 6 3 は、 各曲の各部分に 、 それぞれどう い うふうなェフ Xク 卜をかけるかを指定する。 つなぎ方 (パターン) 6
4 は、 曲 Aに対してク ロス フエ ー ドとぁる力 B とつなぐときにク ロ スフェー ドでつなぎなさいという こ とを不 " 1 。 また B力、ら Cはカ ツ 卜ィ ンで Cから Dはク □スフェ―卜'で D と Eはサビの部分を同^ 再生でつなぐとぃラ ことを示す また つなぎ時 (ェフェク 卜) 6 5 はつなぎ時にェフエク 卜 と し u バ ブ □ ―力 ッ 卜 デイ ス トーシ
3 ンをかける とを指定する つなぎ S E 6 6 は 、 効果音を指定する 第 9 図に示したパタ ンを指示した α 際の再生は次のよう に 行われる。 Π D_Aのサビが再生される。 → [ D_Aのサビ終わり付近で I D
_B ン 卜 □がク Pスフェ 卜'で入つで < る I D—Bのィ ン 卜 □終わ 0 と同時に I D_Cの 8小節 Sの再生が開始される→ I D_C 2 0 小節の数小節 力 ら I D — Dがク 口スフ X ―ドで入ってく る 。 同時に S E—Aも ソ クスされ
' る 0 I D Dのサビが < ると 【D— Eのサピち同時に再生される J とい 具合である。
このよう に、 リ ミ ッ クスパターンは概念的に従来のプレイ リス ト に 対し曲のどこをどのよう につなぐかという指示を追加したものである と もいえる。
第 1 0 図は本発明の編集情報の作成方法によ り作成された編集情報 のデータ構造を示す図である。 第 9 図に示した具体例の I D_A I D_B I D—Cの曲分に対応している。
第 1 0 図では 楽曲をソ ングリ ス ト層 1 2 0 、 ソ ング 1 3 0 、 メ □ディ ブロ ッ ク層 1 4 0 のよ う に階層化している。 楽曲を階層化し、 階層毎に処理内容の粒度を異ならせたッ リ ―構造と している。 このッ
U を構成する各ノー ドは音楽編集装置のィ ンターフ X スからの入 力に応じて、 楽曲を構成方法や進行方法を U アル夕ィ ムに生成するた めの制御パラ メ ―夕部と楽曲を構成する 素材となる 夕実体部か ら構成される また、 各ノー ドは同一階層で同時刻に処理可能なもの と処理不可能なものがある。 第 1 0 図では楽曲および楽曲と楽曲のつなぎシーケンスを次に示す
3 層のレィャに分けて構造化して管理を行う 。 ソ ング ス 卜層 1 2 0 は、 ソ ング層の なぎのシーケンス も含めたあっ と ちグ口一バルな層 である ク Pスフエー ドゃ B P Mを揃 て動じ再生するなど曲間のェ フェク 卜 を変化させる こ とができる。 ソ ングリ ス 卜層のルールベース はソ ング層のソ ングルールを創作するク リ ェ一夕がいぐ つかのソ ング をまとめて構築するか (既存のァルバムとソ ングの関係に似ている)
、 第 ―者 ( 3.一ザまたは他のク リ エ一夕 ) がさ まざまなソ ングをダイ ナミ ック に利用するためのルールを記述してもよい。
ソ ング層 1 3 0 は、 既存の概念で言 Ό と ころの 1 曲にあたる。 ソ ン グリ ス 卜層 1 2 0 との違いは、 通常一つのソ ングは同一のク リ エー夕 によ て創作され 、 少なく と もひとつのソ ングで曲と しては完結して いると ろである 。 このよう に考える と ソ ングリ ス 卜 1 1 2 0 は複数 のソ ングを ないでいく ための上位の層 'である。 したがつて、 例えば
Γ I D _A」 などのよう に既存の曲を別なァ レンジにするためのひとまと ま り の了 ―夕 ァク シ ョ ンで構成されている
メ P Tィ ブ □ッ ク層 1 4 0 は、 上位のソ ング層 1 3 0 を構成するた めの楽曲ブ □ッ ク群で構成される。 例えば通常の楽曲は 「イ ン 卜 口」
「 Aメ □ J Γサビ 」 「ギ夕一ソ ロ」 などと呼ばれる意味的な構造を持 つている 本システムでも曲をこのよ うな構造に分解して保持する こ とによ て 、 例えばイ ン ト ロだけを別な物に入れ替えたり、 サビを何 度も牀 Ό返した 0 というよう に楽曲をマク □的に編曲する こ とが可能 である
ソ ング ス 卜層 1 2 0 には、 制御パラメ一夕部 1 2 1 がある。 この 制御パラメ ―夕部 1 2 1 は、 リ ミ ッ ク ス例を示すォブジェク トである り ミ ッ クスァ ―夕部 1 2 2 を制御するためのパラメ一夕を規定してい る。 ソ ング層 1 3 0 には後述するよ う に【D_A 1 3 2、 ID _B 1 3 4、 ID
_C 1 3 6 の楽曲デ一夕実体 (オブジェク ト) が記述される o これら ID
—A 1 3 2 、 ID_B 1 3 4 、 ID— C 1 3 6 を用いての リ ミ クスの実体がリ ミ ッ クスデータ部 1 2 2 に記述されている。 そ して リ ッ クスデ一 夕部 1 2 2 を制御するための制御パラメ一夕が制御パラメ一夕部 1 2
1 に記述されている o
制御パラ メ一夕部 1 2 1 には、 再生順序力 UD_A→ ID _B → ID — Cのよう に記述されている 上記第 9 図に示した例の途中までの順序と同 じで ある。 なぎ方 夕一ンは、 1D_A→ ID_Bには、 ク ロスフ X一 夕一 ンを指定している また、 ID_B-→ ID— Cは、 カ ツ トイ ンパ夕 ―ンを指定 している 。 また、 つなぎ時ェフエク トは ID— A→ ID_Bには 、 バ一ブを 指定している。 また 、 I D— B→ I D_Cは口一カ ツ トを指定している。 また
、 つなぎ S Eは 1 D — A → 【D— B、 ID— B→ ID— Cと もになしとなつている。 ソ ング層 1 3 0 には 、 制御パラメ一夕部 1 3 1、 1 3 3 及び 1 3 5 が記述されている o れら制御パラメータ部 1 3 1 、 1 3 3及び 1 3
5 は、 ソ ングリ ス 卜層の リ—ミ ッ クスデ一夕部 1 2 2 から成 立ってい る。 そ して、 制御パフメータ部 1 3 1、 1 3 3 及び 1 3 5 は 、 各 ID— A
1 3 2、 ID_B 1 3 4 、 ID— C 1 3 6 という ォブジェク 卜である実体を制 御するための制御パラメータを規定している。
制御パラ メ一夕部 1 3 1 は、 I D_A 1 3 2 の曲の再生部分をテーマ ( サビ) と している o 再生時エフェク 卜は指定していない また、 制御 ノ ラメ一夕部 1 3 3 は 、 ID— B 1 3 4 の曲の再生部分をィ ン 卜 口 と して いる。 再生時エフ Xク トはローカ ツ トを指定している o 制御パラ メ一 夕部 1 3 5 は ID— C 1 3 6 の曲の再生部分を 8 小節目から 2 0 小節目 と している 。 再生時ェフェク 卜は指定していない。
メ ロディ ブロ ッ ク層 1 4 0 は、 空の制御パラ メ一夕部 1 4 1、 1 4 3 、 1 4 5 、 1 4 7 、 1 4 9 、 1 5 1 、 1 5 3 、 1 5 5 を備えている 。 この例では、 リ ミ ッ クスパターンに したがって静的に処理を行うの で、 メ ロディ ブロ ッ ク層 1 4 0 の制御パラ メ一夕部は各パラメータを 不要と している。 各制御パラメ一夕部には、 制御の実体となるイ ン ト 口部 1 4 2 、 Aメ ロディ 部 1 4 4 、 B メ ロディ 部 1 4 6 、 サビ部 1 4 8 、 エンディ ング部 1 5 0 、 イ ン ト ロ部 1 .5 2 、 Aメ ロディ 部 1 5 4 、 サビ部 1 5 6 が接続する形となっている。
第 1 1 図には、 X M L によ り記述された リ ミ ッ クスパターンフ アイ ルの記述例を示す。-く songj is t id = " SONG_L【ST_l">によ り ソ ングリ ス 卜 1 である こ とを規定している。 続いて、 く cont rol ler trans i t i on = " 【D— A: ID— B" pat tern二" CROSS— FADE" e f f ec t REVERB" se = "" /〉によ り 、 I D— A→ [ D— Bには、 ク ロスフェー ドパターンを指定して、 さ らにエフ ェク ト と してリ ノ \'—ブを指定している。
'また、 control ler t rans i t i on = " ID_B: I D_C" pa 11 e r n = " CUT_ I N" e f f ec t=" L0W_CUT" se = "" /〉では、 I D— B→ I D—Cには、 カ ッ トイ ンパターン を指定して、 さ らにエフェ ク と して口一カ ッ トを指定している。 また、 く song id = " ID— A"〉によ り 、 1 D_Aの再生を規定している。 く con tro l l er pi ay— s egme n t =" MELODY— BLOCK: A" e f lee t =" " /> にて Aメ ロ ディ ブロ ッ ク と、 エフェク トな しを指定し、 く melody type = " INTRO" I > にてイ ン ト ロを、 く me 1 ody type = " A" /〉にて Aメ ロディ を、 〈me I ody type = "B" /〉にて B メ ロディ を、 く mel ody type = " SABI" /〉にてサビを、 く melody lype = " ENDING" /〉にてエンディ ングを指定している。
また、 く song id = " ID_B"〉にて 1D_Bの再生を規定し、 く control ler pi ay— segmenい" MELODY— BLOCK: INTRO" e f feeい" LOW— CUT" ハにてイ ン 卜 口のエフェ ク トをローカ ツ 卜で再生する こ とを規定している。 そして 、 <me I ody type = "【NTR0" /〉(こてイ ン 卜 □を、 <me 1 ody type = " A" />(こ て Aメ ロディ を、 〈melody type = "SABI" />にてサビを指定している。 また ぐ s ong i d =" ID ID _cを指定し、 く cont ro 11 e r p 1 ay— s egmen t BAR: 8- 20" ef feeい"" /〉にて曲の再生部分を 8 小節 gから 2
0小節 g と し、 ェフ Xク ト をなしと指定している
第 1 2 図には 、 ソ ングリ ス ト層 ソ ング層 、 メ 口ディ ブ口 ッ ク層の ほかに ア ンサンブル層、 イ ンス 卜 ウルメ ン 卜層までの階層化を示し ている ア ンサンブル 1層では、 ィ ン ト ロ、 サビなどの楽曲構造単位で 見た場口 、 その繰り返し数へによつて例えば 1 回目のサビはピァノが入
j (■
り、 2 回目のサビはピァノ のかわ 0 にホーン 'セク ショ ンが入る場合が ある。 ま り返しを抜けて別のメ ロディ ブ口 ッ ク に移行す 鼠 の数小節が 1 回目の り返しとは異なる こ とがある
ィ ンス 卜 ゥルメ ン 卜層は、 ァ ンサンブル層を構成するための楽器ご とに録 された 糸害材の集合である 。 具体的なフ アイル実体を明示し てもかまわないし、 「明るい 8ビ ' トのギター ■ J のような検索条件を与 えておいてもかまわない。
第 1 3 図には 、 本発明の—編集情報の作成方法によ り作成さ " ¾ffl集 情報、 体的にはリ ッ クスパ夕 ―ンフ アイルに基づいた音楽編集装 置 1 の制御例を示す こ こに示しているのは複数の楽曲を繋ぎ方を指 定して連続再生する例 ある。
はじめにユーザによつてソ ング ス 卜が選択される (ステソ プ S 4
0 ) つぎに第 1 0 図や第 1 2 図のソ ング層にある制御パラ メ一夕部 に指定された繋ぎ方とソ ングが選択される (ステッ プ S 4 1 ) で指定される繫ぎ方とは楽曲の終了前何小節目から ク ロス フェー ドを 行うのかといつたェフェク ト情報や 、 繋ぐとさにどのような 声をど のよラ に (例えば小節の頭のピ 卜 に合わせて N回再生) するかなど の情報である。 次にメ ロティ フ ロ ッ ク、 ァンサンブル、 イ ンス 卜 ウルメ ン 卜の順に 楽曲の構成要素が選択され 曲が再生される (ステッ プ S 4 2 ステ ッ プ S 4 3 、 ステッ プ S 4 4 ) 。 これらはソ ング終了条件が "継続中
"の間繰り返される。 さ らにソ ング終了条件がステップ S 4 5 にて" 終了 "になったときはステ V プ S 4 1 の魃ぎ方 ' ソ ング選択に行さ、 新しいソ ングが指定された魃ぎ方で開始する こ とになる。
第 1 4 図には、 本発明の編集情報の作成方法を直感的に実現するた めのォーサリ ングツールの G U I 構成例を示す。 の例は楽曲を繋い で再生する ことを目的と した指定方法例である。 画面 1 6 0 にはゾン グリ ス 卜名 1 6 1 、 ソ ング名 1 6 2 、 次の曲と繋ぐときのエフェク 卜
1 6 3 と繫ぎに用いられる フ アイル 1 6 4が指定できるよ Ό にな つている
このよう に、 第 1 0 図に示したデータ構造の編集情報である U 5 ッ クスパタ —ンデータ によれば 既存の楽曲のァ レンジが変更になるた め、 ' ザに新たな音楽の楽しみ方を提供する こ とが出来る。 また、 作者が楽曲生成 ' 再生装置におけるセンサ一ゃュ ―ザイ ンターフェ― スの入力に応じたァ レンジの変更を指定出来るよ になる。 また 、 複 数の曲を繋いで再生する こ とで D J が行っているような楽曲の再生 方法を手軽に楽しむこ とが可能となる。
次に、 第 1 5 図〜第 2 2 図を参照して楽曲をつなぐ方法の実例を概 略的に説明する。 従来の音楽再生では第 2 8 図のよ う に二つの楽曲 A と楽曲 Bはそれぞれの楽曲のちつオリ ジナルのテンポで再生され 、 曲 と曲の間には無音部分がでさる こ とがほどんどであつた。 ■再生装置の 仕組み的に無音部分なく 繋ぐ とができる ものもあるが、 楽曲の前後 には多少なり無音部分がある曲も多く 、 それらの曲は曲の前後に曲の 一部と して無音部分を含んでいるためどう しても曲間に無音部分がで さてしまつ
第 1 図に構成を示した音楽編集装置 1 によれば、 第 1 5 図のよう に
、 楽曲の才 リ ジナルテンポによ らずユーザあるいはシステムが決定し たテンポにすべての楽曲のテンポを合わせ、 そしてそれら楽曲の拍位 置 (ダウンビ― ト位置 ) も合わせて再生する とで 、 曲を違和感なく シ一ム レスにノ ンス 卜 プに繋ぐこ とを可能にする
これは 集装置 1 が楽曲 Aと楽曲 B を上述したよ う に ビー 卜同 期再生する こ とによる 異なるテンポの楽曲のビー 卜 (拍) を同期さ せて再生するためには 、 それぞれの楽曲のォ ジナルのテンポと拍 ( ビ一ト) 位置を知らな < てはならない。 また 、 再生時にはテンポと ビ 一ト位置を ftuえるために楽曲の再 速度を変化させなく てはならない 才リ ジナルのテンポと ビー 卜位置を知るために、 曰 朵編集装置 1 で は楽曲とぺァとなつた時間軸上の ,メタデータを用いている。. 再生時に は楽曲の才 リ ジナルテンポと現在のマスタービ ― 卜テンポの比から再 生坯度 ¾:変化させたう.えで、' おのおのの楽曲の小節 .の頭位置を合わせ て再生を開始する。
上記のよう に複数の楽曲のテンポと ビー ト位置を正確に扱つて、 リ ァルタイ ムに再生位置を制御して同期再生を行 Ό 乙 s¾明する楽 曲をシーム レスにつなぐ手法はすベてこのビ一卜同期再生という方法 を用いる とが前提となつている
第 1 6 図には 、 楽曲 Aと楽曲 B をピー 卜を揃えて重ねながら、 ク ロ スフエ一 F処理によ Ό なぐという例を示す 現在の楽曲 Aをフエ一 ァゥ 卜 it
( を徐々 に小さ く する) しながら次に く る楽曲 B をフエ 一ドイ ン ( 昼を徐々 に大きく する) し、 その両方を同時に再生する こ とで双方の曲がシ一ム レスに入れ替わる効果が得られる。 ク ロスフ ドは、 従来から F Mラ ジオ放送などでよ く 利用 される手法である が本発明のポィ ン 卜は れらの楽曲 Aと楽曲 Bのテンポと ビー ト位置 が揃えられているため埕和感 < ノ ンス ト ッ プで楽曲がつながると こ ろにある
音楽 装置 1 では 第 1 7 図に概要を示す力 ッ 卜イ ン処理も行え る。 曲 A 楽曲 B 楽曲 C間の繋ぎ目が音楽的に切れがよい場合な どではク □ス フェ を行うよ り ち第 1 7 図のよう にそのまま繋いで しまつた方 よい場 □ もある また 楽曲の ビー 卜の切れ目で意図的 に切つて次のビ ―卜から次の曲に切換える こ と .ち考えられる
また 楽編集装置 1 では 上述したよう に効果 ( S E ) を用い て楽曲をつないでいる つま 0 楽曲だけでなく 楽曲つなぎ部分や 任意の部分に効果 ( S E S o u n d E f f e e t ) をはさむこ とができる。 第 1 8 図は楽曲 Aと楽曲 B と楽曲 C のそれぞれ 'の楽曲間に効果音を 挟んだ例である 第 1 9 図は S Eを用いた楽曲 Aと楽曲 Bのク ロスフ ドによるつなぎを示す例である もちろんこの 合の効果音もマ スタービー トテンポに同期させる とが可能である S Eを挟んだり 重ねた りする とで曲 a¾が大さ < 異なる楽曲同士をつなぐ場合によ り 自然につなぐ とが可能となる
また 楽 '編集装置 1 では 同時再生を行ってもよい。 異なる楽曲 をつなぐだけではな < 第 2 0 図に示すよう に、 ビ ト同期を行い同 時に再生を h ける テンポとビ 卜位置が同期しているため 、 あたか も最初からそのよ Όな 1 曲であ たかのよう に錯覚する こ とすらある また 楽 ha集装置 1 は、 第 2 1 図に示すよう に 一つの楽曲 A中 にエフェク 卜を 用 してもよい 楽曲 Aの一部分も し く は全体にエフ ェク ト (音響効果 ) を週用 し 質を変化させる。 単に低音や高音を強 調するものだけでな < バ一ブ、 ディ レィ 、 了ィ ス ド―シ 3 ン、 マ キシマイザと ( つた音色そのものを変化させる のまでを含む エフェク 卜は楽曲 Aにはリハ'一ブ、 楽曲 B には P一力 ッ 卜 フィ ル夕 をかけながら同時に再生したり 上記さ まざまなつなぎ方を同時に適用 する こ とによつてよ り 白然で魅力的なつなぎ方を 現する とがでさ よ / 楽 集装置 1 は 、 上記つなぎ方 -a:適用するには楽曲全体に 限らず、 第 2 2 図のよ Ό に各楽曲のザビの部分であつた 0 ィ ン 卜 □ 部分であつた り してもかまわない。 楽曲の部分を なぐしとで例えば サビだけリ ッ クスするようなつなぎ方が可能となる。
以上説明 したよ に 楽編集装置 1 によれば り ミ ヅクスパ夕一 ン ¾ gel izbした リ ミ ッ クスパターンフ ァィルをもとに楽曲の U ッ クス をノ ンス 卜 ッ プで行 こ とができる。 その際ュ ―ザが指定した 'テンポ でマスタービ一卜テンポを決定してもよいし、 メィ ンとなる楽曲のテ ンポに全体をあわせても い。
したがつて 楽 集装置 1 によれば、 ュ一ザはこれまでの音楽の 楽しみ方に加えて 次の新しい次元の楽しみ方ができる れらの楽 しみはこれまでのよケに.受動的に音楽を聴いているだけでは決して得 られないものであ Ό 能動的に音楽にかかわり 白分自身に つた 楽の聴き方を創出した り 自分自身の頭示欲を満たすちのである。
ま り 、 楽曲の好きな部分をかつ うよ < つないでノ ンス 卜 ップの
U 5 ッ クス音楽と して聞く こ とがでさ "a また 、 楽曲の なぎ方を自 分で試行錯誤して んだ力 ッ ゥのよいちのを作る とい 創造欲を満 たすこ とがでさる
なお、 第 2 3 図には、 本発明の実施の形態が週用される他の音楽編 集装置 8 0 の構成を す 第 2 4 図は 楽 集装置 8 0 の機能ブ □ ッ ク図である。 この音楽編集装置 δ 0 は、 ネッ 卜 ヮ一ク通信部 8 1 を 備え、 イ ンタ一ネッ ト 8 2 に接続できる。
ネッ ト ワーク通信部 8 1 を する ことで 、 U ッ クスパ夕一ンフ ァ ィルをイ ンターネッ ト 8 2 などのネ ッ 卜 ヮ一クで交換、 共有する こ と によってあるユーザが作成した リ ミ ッ ク スを第 者がダゥンロー ド し て楽しむこ とができる。 また、 個人のユーザに限らずコ ンテンッサ一 ビス側が提供したリ ミ ッ クスパ夕一ンを用いてもよい。
この音楽編集装置 8 0 によれば、 楽曲のつ'なぎ方をィ ン夕 —ネッ ト などで公開 し、 それを他の人と共有した り複数人でり 5 ッ クスを作り 上げ評価しあう といった新しい音楽を軸と した ュ二ケーシヨ ンが 可能となる。
第 2 5 図及び'第 2 6 図にはさ らに他の音楽 集装置 1 1 0 のハ一 ド ウェア構成及び機能ブロ ッ ク図を示す。 この 楽 集装置 1 1 0 は、
A Z Dコ ンバータ 1 1 1 を介してセンサー 1 1 2 からセンサ一値を取 得する構成であ り、 機能的にセンサ一値取得部を備える
センサ一値^:得部 1 1 3 は、' 例えば、 「再生様態制御装置及び再生 様態制御方法 (特開 2 0 0 5 - 1 5 6 6 4 1 J の発明にあるよう に
、 加速度センサ一を利用 して歩行テンポを検出 し 、 その歩行テンポに 合わせて楽曲のテンポを変化させる技術を週用 している の例を応 用する と、 歩行テンポに合わせてマスタービ ―卜生成部のテンポを変 更し、 すべての楽曲を歩行ゃジヨ ギングのテンポに合わせて リ ミ ッ ク ス再生する こ とが可能となる。 また 、 「ォ一丁ィ ォ信号の再生機およ び再生方法」 (特願 2 0 0 5 - 3 6 3 0 9 4 にあるよう に歩行やジ ョ ギングのテンポに合わせて楽曲を選択する発明を J 用 してもよい。 これらを使うためには、 センサーが不可欠で 、 そのセンサ一とこれ ら発明のアルゴリ ズムを本システムに適用する とで、 ュ一ザの状態 に合わせて楽曲が選ばれ、 さ ら にそれらがり ッ クスされてノ ンス 卜 ップ再生する とが可能である
第 2 7 図 A及び第 2 7 図 B ,はセシサ一優先モ一ドを備えた音楽 装置 1 1 0 の処理手順を示すフ ο ―チャ一卜である の処理手順は
、 リ ミ ッ クスパ夕 —ン優先モ ―ト'のほかに、 センサ一優先モー ドがあ り 、 例えばュ一ザの選択に応じて処理を異ならせる センサー優先モ 一ドでは、 歩行とか、 ジョ ギングとかのパ夕一ンをセン'サ一が検出 し
、 そのパ夕一ンに応じてビー 卜を変化させる ちのである
まず、 センサ ―優先モ一ドかパ夕 ―ン優先モ一ドかを決定する (ス テツ ブ S 3 1 1 ) 。 この 口 、 センサ一優先モ一ド というのは、 さき ほどのユーザがンョ ギングする とか 歩 < とかで選曲するという技術 であ り 、 曲の順番とか、 選曲そのものはセンサ一によつて決定される もので、 パ夕一ンによつて決定される とはかぎらない これは、 動的 にかわる というのを示唆している.と ち える め かじめフイ ツ クス されているパ夕一ンフ ァィルを むのではな < て、 センサ一からの値 によって、 パタ ―ンフ ァィルを動的に作るというよ, なイ メージであ ス ステッ プ S 3 1 1 にてセンサ一優先ではな < パ夕一ン優先モー ドが 選択されたとさには、 上述した第 4 図の処理手順と同様
ステッ ノ' S 3 1 1 、 ステップ S 3 1 2 にてセンサ一優先モー ドが選 択されたとさについて説明する ン 3 ギングに合わせて楽曲が自動的 に選ばれてそれに合わせて楽曲を白動的につなぎま しよ う'という よう な場合である
サブルーチンとなっているが 、 センサ一の入力から楽曲とテンポを 決める (ステップ S 3 1 3 ) ステッ プ S 3 1 4 にて次の曲がある と 判定する と 、 ステッ プ S 3 1 5 にて ス夕一ビ一卜テンポを設定する この □ 、 歩行のテンポから検出されて設定されたテンポとなる。, この □は 、 曲のつなぎかたがあらかじめ決められたものとはかぎら ないので 、 自動的に決定する、 (ステッ プ S 3 1 6 ) 。 例えば 、 ジョ ギ ングモ ―ドならば全部ク ロスフエ ― ドでつなぐ安易なものちある し、 次の曲のメ 夕デ一夕を見て、 フエ ドィ ン している曲なので 、 そのま ま重ねる 合もある。 ステッ プ: 3 3 1 7 以降の処理については第 4 図 のステ プ S 6 S 1 5 と同一で.あるため、 説明を省略する
のよう に音楽編集装置 1 1 0 によれば、 ジョ ギングのテンポに合 わせた楽曲選択をし、 さ ら に.それらをノ ンス ト ッ プでつなぐ とによ てジ a ギングのテンシ .ョ ンゃテンポを狂わせる こ となく快適にジョ ギングを楽しむ,こ とができる。 また'、 ジョ ギングに限らず 、 センサー によ ては他の リ ズミ カルな運動 (ダンスなど) や心拍に合わせた リ ヅ クスなどが実現できる。
センサ からの入力を使って、 曲を選択してさ らにそのテ.ンポもジ
3 ギングのテンポに合わせてやつて、 リ ミ ッ クス してやる 自分の好 さな曲を白分のテンポに合わせて 、 楽しむこ とができる。
また 、 夕ィマー リ ミ ッ クス再生を行う こ ともできる。 例えば気に入 つたァルバムの曲や自分で作ったプレィ リ ス 卜を通勤時間の 3 0 分の 間に聞さたいという要求がある。 従来であれば、 アルバムが 6 0 分で ある α 、 毎回 3 0 分再生したと ころで、 曲を途中停止する しかなか たが 、 本発明のシステムを利用する こ とで指定した楽曲集が 3 0 分 にち よ どおさ まるよう にテンポおよび曲の使用する部分を び U ミ ッ クスする こ とが可能となる。 ジョ ギングと組み合わせる ともでき る 3 0 分だけ走り たいときに、 3 0分リ ミ ッ クスでジョ ギングテン ポで曲がなつているが、 3 0分でぴった り 曲がおわるよう にする こ と がでさる ο サビだけを通勤時の 3 0分に合う よ つ に リ ミ ッ クス し、 目的地につ いたときにち ょ う どリ ミ ッ クスが終わるよう にする こ とが可能である
。 また、 同時に到着時刻付近.ではテンポをだんだん遅く した り、 特定 の S Eを重ねるなどしてそろそろ到着する という雰囲気を演出する こ ともできる。
以上に説明したよ に 音楽編集装 8 0 及び 1 1 0 によれば、 楽 曲のつなぎ方をィ ン夕一ネッ 卜などで公開し、 それを他の人と共有し た り複数人でリ ッ クスを作り 上げ評価しあ'う といつた新しい音楽を 軸と したコ ミ ュ一ケ一シ a ンが可能となる。 また、 センサーを利用 し て、 よ り 自分の状況や状態にあつた音楽を聴く こ とができる。
これらの特徴は 、 こ 'れまでのプロク u エー夕、 ミ ジシャ ン力 作 つた作品をそのまま楽しむこ とを当た Ό 前と してきた世界に一石を投 じ、 それら作品を自分の表現のための素材と して再利用 し再構成して 楽しむという新しい世界をュ一ザに体験させる こ とができる。
これによ り 、 楽に楽しみを見出すュ一ザが増えれば音楽業界全体 が活性化される また ·、 楽業界側から見ても ザ側で新たに再構 成する ことを前提と した楽曲作品とそれを創出する新たなク リ エ一タ が登場する可能性がある 業界とュ一ザによって新しい音楽文化創造 の可能性がある
最後に、 本発明の音楽 集装置の利用可能な特徴について記述する
。 この音楽編集装置は、 記億部に記録された複数の楽曲のテンポとダ ゥンビー トを定められた夕ィ ミ ングに揃え、 複数の再生制御部を保持 する再生部において、 前記複数の楽曲をすべて同時に同期再生する こ とを特徵と した楽曲生成 • 再生装置である。 また、 上記楽曲は曲の全 体あるいは一部分を使用する とを特徴とする。 また、 上記楽曲は音 楽的に構成された一つの曲だけでなく 、 効果音や会話、 アナウンスな どの音声を含むこ とを特徴とする。
また、 上記同期再生時に任意の楽曲に対して任意の楽曲開始位置、 ί± 思の夕ィ ミ ングで自由に発育開始 停止ができる こ とを特徴とする た、 上記任意の位置、 任意のタイ ミ ングは特に小節単位、 拍単位
、 メ 口ディ 構成単位での指定が可能なこ とを特徴とする。
また、 上記特徴を利用 し、 現在再生中の楽曲に対し異なる別の楽曲 の任意部分を任意のタイ ミ ングで同時に再生する こ とを可能とする。 同様に、 上記特徴を利用 し、 現在再生中の楽曲の任意の部分で再生を 停止し ' 途切れる こ となく 異なる別の楽曲の任意部分を即座に再生開 始する こ とを可能とする
また、 上記同期再生時に同 B に再生中の各々の 曲に対して 個別 に音 整可能なこ とを特徴とする。 上記音量 Ρ を利用 し 上記同 時再生時に現在再生中の楽曲の 量を下げながら の楽曲の 量を上 げながら同時に合成して再生する .こ とを可能とす
また 、 上記同期再生時に同時に再生中の各々の 曲に対して、 個別 に信号処理によるェフエク ト処理 "2:適用できる こ を特徴とする。 ま た、 上記同期再生は、' 上 曲に対応して前ちつ 記録されたテンポ
、 拍子 、 ダゥンビー 卜位置、 メ □アイ 構成変化位 情報などで構成さ れるメ夕デ一夕をも とに夕イ ミ ング制御を行 Ό こ を特徴とする。 また 、 上記メタデ一夕は楽曲と同一のフ ァィル 記録されているか
、 別フ ァィルと して記録され楽曲との対応をつ ベースおよび識別 子を用いて管理する こ とを特徴とする。 また 、 上 同期再生時の楽曲 の範囲 、 発音開始夕イ ミ ング、 音量の制御方法、 フエク 卜処理の種 類は 生成 • 再生方法を記述したパ夕一ンフ アイ を別に用意し、 そ れをもとに リ アルタイ ムに再生制御を行う こ とを特徴とする。
また 、 上記テンポはュ ザが指定するか本装置が自動的に決定する とを特徴とする。 上記の本装置が自動的(こ決定するテ'ンポと してセ ンサ一からの入力 7 夕を使用する こ とを特徵とする
上記センサーには加 JS度セ サー 、 シャィ 口センサ 心拍センサ 体温センサ一 、 体動センサ 脳波センサ一など ゆるセンサ を付加できる こ とを特徴とする。 上記パ夕ーンフ ァィルは本装置内 の記憶部に記録されるだけでな 外部 己憶装置またはィ ンターネッ 卜から取得可能なこ とを特徴とする
また 楽曲の リ ッ クス方法を記述するためのフ ァィルにおいて、 楽曲を連 再生する 口 に、 それぞれの楽曲を一曲づつ個別に再生す る以外に ク ロスフ X ドのよ うなェフェク 卜や別な音をミ キシング する とによって が途切れ^) ことな < 再生されるよう にするための 曲と曲の繋ぎ方情報を記述できる とを特徴とする
また 楽曲生成 • 再生装置のイ ン夕 フェースに対するユーザの操 作や 楽曲生成 · 再生装置の外部に取り 付けられたセンサ一からの入 力に応じた楽曲の再生位置や楽曲同士の繋ぎ方を、 ュ ザが指定でき る とを特徴 する た、' 楽曲の なぎ部分以外の場所にも別な音 を キシングした 0 、 ェフエク 卜を加えたり 、 それらの制御パラメ 夕の変更方法を指定する といった楽曲のア レンジ方法ができる こ とを 特徴とする。

Claims

請求の範囲
1 楽曲デ一夕 に対応 して予め生成された、 少な く と も時間軸上の ビ一卜位置を含むメ タデータ と、 リ ミ ッ ク スパター ンを決定する フ ァ ィ ルに基づいて リ ミ ッ ク ス処理を行う リ ミ ッ ク ス処理部と、 ス 夕一ビー ト を生成 し、 このマス ター ビー ト を上記 リ ミ ッ ク ス 処理部に送る と と も に、 上記 リ ミ ッ ク ス処理部が リ ミ ッ ク スパ夕一 ン と メ 夕データ に応 じて指示 してきた り ミ ッ ク ス処理に応 じ、 各メ 夕丁 ―夕 を用 いて複数の楽曲を再生する同期再生制御部と、 上記同期再生制御部にて再生 さ れた楽曲 を混合する混合部と を 備 、
上記 ミ ッ ク ス処理部は、 階層 ί匕され、 かつ各階層に制御パラ メ 一夕部とデータ実体部を有するデー タ構造の リ ミ ッ ク スパ 夕一ン フ ァ ィ ルに基づいて リ ミ ッ ク ス処理を行 う こ と を特徴とする in
曰 楽 編集装置 ο
2 上記 リ ミ ッ ク ス処理部は、 上記メ タデータ を処理する メ タ丁一 夕処理部と、 上記 リ ミ ッ クスパター ンを読み込む リ ミ ッ ク スパ夕 ― ン み込み部を備え る こ と を特徴 とする請求の範囲 1 記載の立 曰 楽 集装置 ο
3 上記同期再生制御部は、 マスター ビー ト を生成 し、 上記 リ ッ ク ス処理部に供給するマスター ビー 卜生成部と 、 複数の楽曲の立 曰 尸 信号を生成する複数系統の音声信号生成部を備える こ と を特徴 と する 求の範囲 1 記載の音楽編集装置。
4 上記メ タデータ を記憶している メ タデータ用記憶部、 上記楽曲 丁 ―夕 を記憶 して いる楽曲用記憶部及び り ミ ッ ク スパター ン を記 億 している リ ミ ッ ク スパタ ー ン用記憶部を備える こ と を特徵 とす るョ *
求の範囲 1 記載の音楽編集装置。
5 楽曲デ 夕 に対応 して予め生成された、 少な く と も時間軸上の ビ一卜位置を含むメ タデータ と、 リ ミ ッ ク スパター ンを決定する フ ァ ィ ルに基づいて リ ミ ッ ク ス処理を行う リ ミ ッ ク ス処理部と、 ス 夕一ピ ―卜 を生成 し、 このマス ター ビー 卜 を上記 リ ミ ッ ク ス処理部 に送る と と も に 、 上記 リ ミ ッ ク ス処理部が リ ミ ッ ク スパターン と メ タ 一夕 に応 じて指示 してき た リ ミ ッ ク ス処理 に応 じて複数の楽 曲を再生する同期再生制御部と、 上記同期再生制御部にて再生さ れ た楽曲を混 する混合部と を備えてなる音'楽編集装置によ り 、 上記 ク スパ夕ー ン と レて参照さ れる編集情報の作成方法であ つ て
階層化され、 かつ各階層に制御パ ラ メータ部とデ ―夕実体部を有 するデータ構造の リ ミ ッ ク スパター ン フ ァ イ ルを、 上位層のデ ―夕 部を構成 している下位層の制御パ ラ メ ータ部によ Ό 同階層のァ ― タ実体部を処理する こ と によ り 作成する こ と を特徵 とす 集情 報の作成方法。
6 . 上記階層 は、 上位層側か ら ソ ング リ ス ト層、. ソ ング層、 メ □ テ ィ ブロ ッ ク 層であ る こ と を特徴 とする請求の範囲 5 記載の 蘭 情報の作成方法。
7 . ソ ングリス ト層の制御パラ メータ部は リ ミ ッ ク ス用 体デ ―夕 部を制御するために用 い られ、 上記 リ ミ ッ ク ス用実体ァ一タ部はソ ン グ層の複数の制御パラ メータ部か らな り 、 ソ ング ®の複数の制御 パ ラ メ 一夕 はソ ング層の各実体データ 部を制御する ため に用 い ら れ、 メ ロディ ブロ ッ ク層では静的に複数の実体データ部が実行され る こ と を特徴とする請求の範囲 6 記載の編集情報の作成方法。
8 . 楽曲データ に対応 して予め生成された、 少な く と も時間軸上の ビー ト位置を含むメ タデータ と、 リ ミ ッ ク スパター ンを決定する フ ァ ィ ル 1: ¾づ'いて リ ミ ッ ク ス処理を行う リ ミ ッ ク ス処理部と、 マス 夕一ピ ― 卜 を生成 し 、 このマス ター ビー ト を上記 リ ミ ッ クス処理部 に送る と と ち に、 上記 リ ミ ッ ク ス処理部が リ ミ ッ ク スパター ン と メ タ τ一夕 に応 じて指示 して きた り ミ ッ ク ス処理に応 じて複数の楽 曲を再生する 同期再生制御部と、 上記同期再生制御部にて再生され た楽曲を混 口 する混合部と を備えてなる音楽編集装置によ り 、 上記 ッ ク スパ タ ー ン と して参照 さ れる編集情報を記録 した記録媒 体であつ て
階層化され 、 かつ各階層に制御パラ メータ部とデータ実体部を有 する丁一夕構造の リ ミ ッ ク スパター ンフ ァ イ ルを、 上位層のデ ―夕 部を 成 してい る下位層の制御パ ラ メ ー タ部によ り 同階層の丁一 夕実体部を処理する こ と によ り 作成さ れた編隼情報を記録 してい る と を特徴とする記録媒体。
PCT/JP2006/324884 2005-12-09 2006-12-07 音楽編集装置、音楽編集情報の作成方法、並びに音楽編集情報が記録された記録媒体 WO2007066813A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007549212A JPWO2007066813A1 (ja) 2005-12-09 2006-12-07 音楽編集装置、音楽編集情報の作成方法、並びに音楽編集情報が記録された記録媒体
CN2006800452229A CN101322179B (zh) 2005-12-09 2006-12-07 音乐编辑设备、创建音乐编辑信息的方法及其记录介质
US12/093,059 US7678983B2 (en) 2005-12-09 2006-12-07 Music edit device, music edit information creating method, and recording medium where music edit information is recorded
EP06834639A EP1959427A4 (en) 2005-12-09 2006-12-07 MUSIC EDITING DEVICE, MUSIC EDITING INFORMATION GENERATION METHOD AND RECORDING MEDIUM ON WHICH MUSIC EDITOR INFORMATION IS RECORDED

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-356820 2005-12-09
JP2005356820 2005-12-09

Publications (1)

Publication Number Publication Date
WO2007066813A1 true WO2007066813A1 (ja) 2007-06-14

Family

ID=38122950

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/324884 WO2007066813A1 (ja) 2005-12-09 2006-12-07 音楽編集装置、音楽編集情報の作成方法、並びに音楽編集情報が記録された記録媒体

Country Status (6)

Country Link
US (1) US7678983B2 (ja)
EP (1) EP1959427A4 (ja)
JP (1) JPWO2007066813A1 (ja)
KR (1) KR20080074975A (ja)
CN (1) CN101322179B (ja)
WO (1) WO2007066813A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009138425A1 (en) * 2008-05-16 2009-11-19 Tonium Ab Audio mix instruction file with timing information referring to unique patterns within audio tracks
EP2131365A1 (en) * 2008-06-03 2009-12-09 Sony Corporation Information processing device, information processing method and program
JP2009294671A (ja) * 2009-09-07 2009-12-17 Sony Computer Entertainment Inc オーディオ再生装置およびオーディオ早送り再生方法
WO2013114421A1 (ja) * 2012-01-30 2013-08-08 パイオニア株式会社 表示システム、表示制御装置、音響機器、表示方法およびプログラム
US8914389B2 (en) 2008-06-03 2014-12-16 Sony Corporation Information processing device, information processing method, and program
US8996412B2 (en) 2008-06-03 2015-03-31 Sony Corporation Information processing system and information processing method
JPWO2020230279A1 (ja) * 2019-05-14 2020-11-19

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9818386B2 (en) 1999-10-19 2017-11-14 Medialab Solutions Corp. Interactive digital music recorder and player
US8160269B2 (en) * 2003-08-27 2012-04-17 Sony Computer Entertainment Inc. Methods and apparatuses for adjusting a listening area for capturing sounds
US8139793B2 (en) 2003-08-27 2012-03-20 Sony Computer Entertainment Inc. Methods and apparatus for capturing audio signals based on a visual image
US8233642B2 (en) 2003-08-27 2012-07-31 Sony Computer Entertainment Inc. Methods and apparatuses for capturing an audio signal based on a location of the signal
EP1846916A4 (en) * 2004-10-12 2011-01-19 Medialab Solutions Llc SYSTEMS AND METHODS FOR REMOVE MUSIC
KR20080074975A (ko) * 2005-12-09 2008-08-13 소니 가부시끼 가이샤 음악 편집 장치, 음악 편집 정보의 작성 방법, 및 음악편집 정보가 기록된 기록 매체
JP5259083B2 (ja) * 2006-12-04 2013-08-07 ソニー株式会社 マッシュアップ用データの配布方法、マッシュアップ方法、マッシュアップ用データのサーバ装置およびマッシュアップ装置
JP5007563B2 (ja) * 2006-12-28 2012-08-22 ソニー株式会社 音楽編集装置および方法、並びに、プログラム
US7956274B2 (en) * 2007-03-28 2011-06-07 Yamaha Corporation Performance apparatus and storage medium therefor
JP4311466B2 (ja) * 2007-03-28 2009-08-12 ヤマハ株式会社 演奏装置およびその制御方法を実現するプログラム
KR101512992B1 (ko) * 2007-05-22 2015-04-17 코닌클리케 필립스 엔.브이. 오디오 데이터를 처리하기 위한 디바이스 및 방법
US20090062943A1 (en) * 2007-08-27 2009-03-05 Sony Computer Entertainment Inc. Methods and apparatus for automatically controlling the sound level based on the content
US20090164034A1 (en) * 2007-12-19 2009-06-25 Dopetracks, Llc Web-based performance collaborations based on multimedia-content sharing
JP2010054530A (ja) * 2008-08-26 2010-03-11 Sony Corp 情報処理装置、発光制御方法およびコンピュータプログラム
US7939742B2 (en) * 2009-02-19 2011-05-10 Will Glaser Musical instrument with digitally controlled virtual frets
KR101040086B1 (ko) * 2009-05-20 2011-06-09 전자부품연구원 오디오 생성방법, 오디오 생성장치, 오디오 재생방법 및 오디오 재생장치
FR2963471A1 (fr) * 2010-08-02 2012-02-03 Nevisto Sa Procede et dispositif automatique de production d'une bande son par combinaison de composantes sonores
US8805693B2 (en) * 2010-08-18 2014-08-12 Apple Inc. Efficient beat-matched crossfading
US8458221B2 (en) * 2010-10-13 2013-06-04 Sony Corporation Method and system and file format of generating content by reference
CN101984490B (zh) * 2010-11-23 2012-06-27 亿览在线网络技术(北京)有限公司 一种逐字同步的歌词文件的生成方法及系统
WO2013181414A1 (en) * 2012-06-01 2013-12-05 Songalbum, Llc System and method for automatic synchronization of audio layers
JP2014052469A (ja) * 2012-09-06 2014-03-20 Sony Corp 音声処理装置、音声処理方法、及び、プログラム
CN102968995B (zh) * 2012-11-16 2018-10-02 新奥特(北京)视频技术有限公司 一种音频信号的混音方法及装置
US20140229393A1 (en) * 2013-02-11 2014-08-14 James E. Malackowski Ip content discovery platform
US9502017B1 (en) * 2016-04-14 2016-11-22 Adobe Systems Incorporated Automatic audio remixing with repetition avoidance
US10545720B2 (en) 2017-09-29 2020-01-28 Spotify Ab Automatically generated media preview
CN108322816B (zh) * 2018-01-22 2020-07-31 北京英夫美迪科技股份有限公司 广播节目中背景音乐的播放方法和系统
CN108831425B (zh) * 2018-06-22 2022-01-04 广州酷狗计算机科技有限公司 混音方法、装置及存储介质
CN109147745B (zh) * 2018-07-25 2020-03-10 北京达佳互联信息技术有限公司 歌曲编辑处理方法、装置、电子设备及存储介质
CN109545249B (zh) * 2018-11-23 2020-11-03 广州酷狗计算机科技有限公司 一种处理音乐文件的方法及装置
CN110472094B (zh) * 2019-08-06 2023-03-31 沈阳大学 一种传统音乐录入方法
CN110517657B (zh) * 2019-08-15 2024-01-16 上海若安文化传播有限公司 音乐文件的节拍配置/播放方法、系统、介质及设备
US11238839B2 (en) 2019-09-19 2022-02-01 Spotify Ab Audio stem identification systems and methods
US10997986B2 (en) 2019-09-19 2021-05-04 Spotify Ab Audio stem identification systems and methods
CN112863466B (zh) * 2021-01-07 2024-05-31 广州欢城文化传媒有限公司 一种音频社交变声方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000056780A (ja) * 1998-08-05 2000-02-25 Yamaha Corp カラオケ装置
JP2001109470A (ja) * 1999-10-13 2001-04-20 Yamaha Corp 自動演奏装置及び方法
JP2003044046A (ja) 2001-07-30 2003-02-14 Sony Corp 情報処理装置及び情報処理方法、並びに記憶媒体
JP2003108132A (ja) * 2001-09-28 2003-04-11 Pioneer Electronic Corp オーディオ情報再生装置及びオーディオ情報再生システム
JP2004198759A (ja) * 2002-12-19 2004-07-15 Sony Computer Entertainment Inc 楽音再生装置及び楽音再生プログラム
JP2005156641A (ja) 2003-11-20 2005-06-16 Sony Corp 再生態様制御装置及び再生態様制御方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3446278B2 (ja) * 1993-12-28 2003-09-16 ヤマハ株式会社 自動演奏装置
IT1282613B1 (it) * 1996-02-13 1998-03-31 Roland Europ Spa Apparecchiatura elettronica per la composizione e riproduzione automatica di dati musicali
JP3861381B2 (ja) * 1997-06-13 2006-12-20 ヤマハ株式会社 カラオケ装置
EP1354318A1 (en) * 2000-12-22 2003-10-22 Muvee Technologies Pte Ltd System and method for media production
US6888999B2 (en) * 2001-03-16 2005-05-03 Magix Ag Method of remixing digital information
US20040205648A1 (en) * 2001-08-17 2004-10-14 David Tinsley Systems and methods for authoring content
JP2004172668A (ja) * 2002-11-15 2004-06-17 Matsushita Electric Ind Co Ltd 着信音生成回路及び記録媒体
JP3901098B2 (ja) 2003-01-17 2007-04-04 ヤマハ株式会社 楽音編集システム
CN1523909A (zh) * 2003-02-18 2004-08-25 手机及微型电子产品的电子音乐铃声导入方法及装置
US7208672B2 (en) * 2003-02-19 2007-04-24 Noam Camiel System and method for structuring and mixing audio tracks
US20040254660A1 (en) * 2003-05-28 2004-12-16 Alan Seefeldt Method and device to process digital media streams
CN100362567C (zh) * 2004-04-07 2008-01-16 杭州斯达康通讯有限公司 一种合成和弦手机铃声的方法
EP1934699A4 (en) * 2005-09-15 2011-03-16 Digital Layers Inc METHOD, SYSTEM AND DEVICE FOR DELIVERING MEDIA LAYERS
US20070083537A1 (en) * 2005-10-10 2007-04-12 Yahool, Inc. Method of creating a media item portion database
US7844820B2 (en) * 2005-10-10 2010-11-30 Yahoo! Inc. Set of metadata for association with a composite media item and tool for creating such set of metadata
US8762403B2 (en) * 2005-10-10 2014-06-24 Yahoo! Inc. Method of searching for media item portions
US20070083380A1 (en) * 2005-10-10 2007-04-12 Yahoo! Inc. Data container and set of metadata for association with a media item and composite media items
KR20080074975A (ko) * 2005-12-09 2008-08-13 소니 가부시끼 가이샤 음악 편집 장치, 음악 편집 정보의 작성 방법, 및 음악편집 정보가 기록된 기록 매체
US7855333B2 (en) * 2005-12-09 2010-12-21 Sony Corporation Music edit device and music edit method
US20070208564A1 (en) * 2006-03-06 2007-09-06 Available For Licensing Telephone based search system
JP4487958B2 (ja) * 2006-03-16 2010-06-23 ソニー株式会社 メタデータ付与方法及び装置
US20070261537A1 (en) * 2006-05-12 2007-11-15 Nokia Corporation Creating and sharing variations of a music file
JP5007563B2 (ja) * 2006-12-28 2012-08-22 ソニー株式会社 音楽編集装置および方法、並びに、プログラム
US8426715B2 (en) * 2007-12-17 2013-04-23 Microsoft Corporation Client-side audio signal mixing on low computational power player using beat metadata

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000056780A (ja) * 1998-08-05 2000-02-25 Yamaha Corp カラオケ装置
JP2001109470A (ja) * 1999-10-13 2001-04-20 Yamaha Corp 自動演奏装置及び方法
JP2003044046A (ja) 2001-07-30 2003-02-14 Sony Corp 情報処理装置及び情報処理方法、並びに記憶媒体
JP2003108132A (ja) * 2001-09-28 2003-04-11 Pioneer Electronic Corp オーディオ情報再生装置及びオーディオ情報再生システム
JP2004198759A (ja) * 2002-12-19 2004-07-15 Sony Computer Entertainment Inc 楽音再生装置及び楽音再生プログラム
JP2005156641A (ja) 2003-11-20 2005-06-16 Sony Corp 再生態様制御装置及び再生態様制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1959427A4

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009138425A1 (en) * 2008-05-16 2009-11-19 Tonium Ab Audio mix instruction file with timing information referring to unique patterns within audio tracks
EP2131365A1 (en) * 2008-06-03 2009-12-09 Sony Corporation Information processing device, information processing method and program
US8914389B2 (en) 2008-06-03 2014-12-16 Sony Corporation Information processing device, information processing method, and program
US8924404B2 (en) 2008-06-03 2014-12-30 Sony Corporation Information processing device, information processing method, and program
US8996412B2 (en) 2008-06-03 2015-03-31 Sony Corporation Information processing system and information processing method
JP2009294671A (ja) * 2009-09-07 2009-12-17 Sony Computer Entertainment Inc オーディオ再生装置およびオーディオ早送り再生方法
WO2013114421A1 (ja) * 2012-01-30 2013-08-08 パイオニア株式会社 表示システム、表示制御装置、音響機器、表示方法およびプログラム
JPWO2020230279A1 (ja) * 2019-05-14 2020-11-19
WO2020230279A1 (ja) * 2019-05-14 2020-11-19 AlphaTheta株式会社 音響装置および音響再生プログラム
JP7375004B2 (ja) 2019-05-14 2023-11-07 AlphaTheta株式会社 音響装置および音響再生プログラム

Also Published As

Publication number Publication date
US20090044689A1 (en) 2009-02-19
EP1959427A4 (en) 2011-11-30
EP1959427A1 (en) 2008-08-20
CN101322179B (zh) 2012-05-02
JPWO2007066813A1 (ja) 2009-05-21
US7678983B2 (en) 2010-03-16
KR20080074975A (ko) 2008-08-13
CN101322179A (zh) 2008-12-10

Similar Documents

Publication Publication Date Title
WO2007066813A1 (ja) 音楽編集装置、音楽編集情報の作成方法、並びに音楽編集情報が記録された記録媒体
JP5243042B2 (ja) 音楽編集装置及び音楽編集方法
WO2007066819A1 (ja) 音楽編集装置及び音楽編集方法
Huber The MIDI manual: a practical guide to MIDI in the project studio
CN101211643B (zh) 音乐编辑装置、方法及程序
US8173883B2 (en) Personalized music remixing
KR20060051123A (ko) 재생장치 및 재생방법
JP4489650B2 (ja) 歌詞文字に基づいて切り貼り編集を行うカラオケ録音編集装置
Huber The Midi manual: A practical guide to Midi within Modern Music production
KR101029483B1 (ko) 멀티채널 오디오 파일을 이용한 음악 ucc 제작방법 및 그 장치
JP3294526B2 (ja) カラオケ装置
Harding Transforming a Pop Song: The Journey of the Extended Club Remix (Taz Vegas'“Am I Dreaming,” 2019)
Harding 18TRANSFORMING A POP SONG
JP3194884B2 (ja) カラオケ装置のコンテンツ記録媒体
JP3983568B2 (ja) 楽曲専用ムード映像を他の楽曲の背景映像に部分流用するカラオケ装置
Rando et al. How do Digital Audio Workstations influence the way musicians make and record music?
JP2024501519A (ja) オーディオアレンジメントの生成及びミキシング
JP2008276101A (ja) 楽曲再生システム及び楽曲再生装置
Dixon Fractures for clarinet and computer
WO2004095743A2 (en) Method for teaching individual parts in a musical ensemble

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680045222.9

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
ENP Entry into the national phase

Ref document number: 2007549212

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 3613/DELNP/2008

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 12093059

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020087013804

Country of ref document: KR

Ref document number: 2006834639

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE