WO2007066819A1 - 音楽編集装置及び音楽編集方法 - Google Patents

音楽編集装置及び音楽編集方法 Download PDF

Info

Publication number
WO2007066819A1
WO2007066819A1 PCT/JP2006/324890 JP2006324890W WO2007066819A1 WO 2007066819 A1 WO2007066819 A1 WO 2007066819A1 JP 2006324890 W JP2006324890 W JP 2006324890W WO 2007066819 A1 WO2007066819 A1 WO 2007066819A1
Authority
WO
WIPO (PCT)
Prior art keywords
music
remix
song
metadata
songs
Prior art date
Application number
PCT/JP2006/324890
Other languages
English (en)
French (fr)
Inventor
Yasushi Miyajima
Kosei Yamashita
Motoyuki Takai
Akihiro Komori
Norikazu Hiraki
Yuichi Abe
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP20060834645 priority Critical patent/EP1959429A4/en
Priority to JP2007549215A priority patent/JPWO2007066819A1/ja
Priority to CN2006800457218A priority patent/CN101322180B/zh
Priority to US12/092,641 priority patent/US7855333B2/en
Publication of WO2007066819A1 publication Critical patent/WO2007066819A1/ja

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/076Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/105Composing aid, e.g. for supporting creation, edition or modification of a piece of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/125Medley, i.e. linking parts of different musical pieces in one single piece, e.g. sound collage, DJ mix
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/131Morphing, i.e. transformation of a musical piece into a new different one, e.g. remix
    • G10H2210/136Morphing interpolation, i.e. interpolating in pitch, harmony or time, tempo or rhythm, between two different musical pieces, e.g. to produce a new musical work
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/375Tempo or beat alterations; Music timing control
    • G10H2210/391Automatic tempo adjustment, correction or control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/016File editing, i.e. modifying musical data files or streams as such
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/046File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
    • G10H2240/061MP3, i.e. MPEG-1 or MPEG-2 Audio Layer III, lossy audio compression
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/046File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
    • G10H2240/066MPEG audio-visual compression file formats, e.g. MPEG-4 for coding of audio-visual objects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/091Info, i.e. juxtaposition of unrelated auxiliary information or commercial messages with or between music files
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/295Packet switched network, e.g. token ring
    • G10H2240/305Internet or TCP/IP protocol use for any electrophonic musical instrument data or musical parameter transmission purposes

Definitions

  • the present invention relates to a music device and a music collection method that generate new content by collecting music content obtained by subdividing a music into music patterns, measures, and the like, as a material.
  • Memo With the audio The has become a routine to carry a large number of songs. For audio that allows you to listen to as many songs as you like, not only can you listen to the original CD album, but you can also listen to all the songs across albums There is a widespread style of reconstructing and listening only as a play list. It could be said that the freedom to listen to the songs that Za wants to listen to in the order in which he wants to listen has spread without being kept in the album.
  • Figure 23 shows a conventional live performance using song A and song B. Each is played at the original tempo of the song. Of course, I have a little bit of honey.
  • the report discloses a method of combining multiple materials and interactively editing or playing back music to enjoy the music, depending on the force through the pose.
  • chips such as sound patterns and hooks that apply to these are assigned.
  • the chip corresponding to this is executed.
  • the corresponding chips are synthesized. Also, press in order and combine the chips with to compose the music.
  • the purpose of the present invention is to provide a music device and a music collection method capable of realizing a collection of a large number of recorded songs on a body such as a dodis flash, etc. And, the aim is to provide a music device and a music collection method that allow the body or part of the music to be connected to the real time and played back on the spot.
  • Ming-related music in order to solve the above-mentioned problems, we use at least the time-based bit generated corresponding to the music
  • a mix processing section and a stabit are generated, and this stub is sent to the above mix processing section.
  • the above-mentioned control unit gives instructions according to the mix pattern data, and plays multiple songs according to the mix process Synchronous playback
  • the music collection method uses the bit generated at least on the time axis corresponding to the music data to determine the mix pattern. Based on this, the limiter and stabit for performing mix processing are generated based on this mix, and this starbit is sent to the above-mentioned mix processing step, and at the same time, according to the above-mentioned mitter setting and mix pattern data. It is equipped with a synchronous replay that plays multiple songs according to the instructed remixing process, and a mixture of the songs that were replayed in the above-mentioned replay stage.
  • FIG. 2 is a block showing the detailed structure of the audio playback mixing unit
  • Fig. 3 is the music.
  • Blocks of music instruments Fig. 4 is a chart showing the order of music programs executed by music instruments
  • Fig. 5 shows data on the time axis
  • Fig. 6 shows Fig. 7 shows an example of time axis data
  • Fig. 7 shows another example of time axis data ⁇ 8 A
  • 8 B 8 C shows the method of data
  • Fig. 9 shows
  • Example of a mix spat Fig. 0 is for explaining the music by Ming
  • Fig. Is for explaining the connection by cross
  • Fig. 2 is the connection by cutin.
  • Fig. 0 is for explaining the music by Ming
  • Fig. Is for explaining the connection by cross
  • Fig. 2 is the connection by cutin.
  • Fig. 0 is for explaining the music by Ming
  • Fig. Is for explaining the connection by cross
  • Fig. 2 is the connection by cutin.
  • FIG. 3 is for explaining the tie using the effect
  • Fig. 4 is for explaining the tie by using the cross
  • Fig. 5 is for the simultaneous reproduction.
  • Fig. 6 is for explaining the use of the hook
  • Fig. 7 is for explaining the partial live
  • Fig. 8 is for the music device with a network device.
  • Figure shows a block of a music device with a network device
  • Figure 20 shows a block of a music device with a sensor
  • Figure 2 shows a block of a music device with a sensor.
  • 2 A 2 2 B is a flowchart showing the order of the music devices with sensors
  • 2 3 2 It is a figure. Good for carrying out Ming
  • FIG. 1 is a block diagram of music to which the device and method according to the present invention are applied.
  • this unit is connected to the central processing unit () 2 via 3 via the storage unit 4 and the playback unit 8. (CP 2 to 3 through RM 3 RAM 4, the 5th interface)
  • C P 2 determines how to connect the music to the real time, and gives the necessary materials to the synchronous playback device 8 at the required timing. Also, depending on the work of the Z, the tempo
  • the memory device 4 is composed of a music memory device 5, a data memory device 6 and a mix pattern memory device 7.
  • the storage device 5 is a storage device that holds a plurality of data. It is a storage device such as a storage device for storage and a flash memory device that a portable device has.
  • the data storage device 6 which may be the music data stored in the music storage device 5 or the compressed data may be any storage device such as a flash memory device and is added to the music. , It stores the data on the time axis.
  • the metadata is supplementary data added to the music on the time axis, and includes not only the tempo but also bit information, measure (simply referred to as head) information, and prelude (introduction).
  • the melody information such as rust
  • the mix pattern storage device 7 does not have to be particularly limited as long as it is a storage device. It is a storage device that indicates the method of the hard disk pattern and holds the hard disk pattern. The details of the Tuspattan will be described later. Is not only written, but also how to combine them, or where to use and where to combine song A and song B.
  • the playback device 8 is a block for automatically playing music, and plays the music material indicated by the C P 2's miter control function in synchronization with the reference bit. Period reproduction
  • Period playback 9 has multiple and plays multiple issues in synchronization with the clock issue generated within itself.
  • the position of the song currently being played is constantly monitored based on the data from the meta data storage device 6, and the mix function of CP 2 and the song being played now are recorded. Returns the number of samples that are being played, and whether the node is being played.
  • Mixing 0 combines and outputs the sequence signals generated by multiple in the synchronized playback 9. Converts the digital signal reproduced by voice mixing 0 into an analog signal. 2 amplifies the analog signal from D A and outputs it to a speakerphone.
  • R O 3 houses a music program that is organized according to the method of Ming. It also stores the data of the alt.
  • RAM 4 is the worker when CP 2 executes the above program. It also stores the data when the above program is executed.
  • the 1 F 5 accepts works by The For example Examples include kipo, usu, touchpad, etc.
  • 6 is a display that includes the current situation, the music situation, or a touch panel that enables the work by the user.
  • FIG. 2 is a block diagram showing the detailed structure of synchronized playback 9 audio mixing 0.
  • the term regeneration 9 consists of a stabilizer 90 and three systems.
  • the stabit 90 generates a clock equivalent to the bit. In detail, the tempo at the time of mixing and the bit synchronized with that tempo are output.
  • the stabit 90 generates a measure number and other usual bit numbers according to the designated 4 4 and 3 4 children, and outputs them.
  • tracks A, B, and effect und eet SE are used as 3 tracks. is there. Of course, 4 or 5 or more tracks may be used depending on the music.
  • the sync signal clock generated by the stabit 90, or the bit is used to perform the synchronous playback according to the bit position of the music according to the stabinov device.
  • Each track has r) 999 C and a time strech (h 9 2 9 9 2).
  • Decoder 9 9 9 is used to decorate the compressed voice such as MP3 or the like. Since the SE has a short length and a small data size, it is not necessary to shrink it. You may.
  • the Time Stretch 9 2 9 9 2 c is a device that converts the playback level while keeping the pitch constant. Match materials with different tempos based on the data from the metadata storage device 6 to the tempo of the reference bit. Depending on the ratio with the original tempo of the song, the process of changing the playback rate to real time is performed. This allows the original tempo of the song to match the tempo of the stadium. Of course, it does not change the pitch as mentioned above.
  • pitch shift h h f r function may be included in these voices. Change the pitch while keeping the pitch shift and playback constant. This is used to comfortably combine materials with different degrees, but it is not a necessary function but an additional function.
  • three system control units 0, 0 0 0 and a volume 0 a 0 b are provided. After being mixed by these three types of voice mix 02, it is amplified by voice 0 3 and output to an external speaker or headphone. It is configured so that it can control the volume from each track and volume.
  • Periodic playback 9 Audio mixing 0 is connected to C P 2 via the bus or the Calbus of the synchronous playback unit.
  • Figure 3 is a block diagram of music.
  • the function of CP 2 in the figure is the mixing section 20.
  • the data processing unit 20 is 2 Divided into 2 2 embedded patterns.
  • the mix processing unit 20 processes the data stored in the data storage device 6 by the data processing unit 2. As described above, data on the time axis is added to the song, and it holds the bit information, bar information, and melody information only by tempo.
  • the meta data processing unit 2 reads the data on the time axis corresponding to the music, reads it with the mix pattern embedding 22 and investigates the music information according to the instructions in the mix pattern report. ⁇ Knowing which bit is where you are, and where the bit of the song you are trying to combine are, keep track of the multiple songs and effects. , I have decided how to play it.
  • the mix processing unit 20 stores the mix pattern file 7a in the miter pattern storage device 7 or reads the mix pattern file 7a with the mix pattern pattern 22.
  • the mix pattern file 7a is a file that specifies whether to hood, cut, or what SE should apply.
  • a mimic pattern is either a data artificially directed by the hand of the third party or a person who is connected to the role of this), or it is created by an automatic algorithm. The machine decides in hand and it is like a limiter).
  • the phase regeneration 9 generates a stabit by the stabit 90, sends this sta- tus to the mixing section 20, and the mixing section 20 mixes the pattern with the mix pattern.
  • the meta data storage device can be instructed. Play multiple songs using the data from 6
  • Figure 4 is the order of the music programs that music executes by C P 2. This is an example of how to collect this program.
  • the mix processing unit 20 of C P 2 reads and acquires the mix pattern file 7a from the mix pattern storage device 7 with the mix pattern inclusion 2 2 in step S.
  • the synchronized playback 9 acquire the song, eg, step S2). If there is the next song, go to step S3, and determine the tempo of the synchronized playback 9 sta- bile 90.
  • Step S4 This may be fixed at 40 to 40 or may be specified by The.
  • Step S 5 the binder pattern (also written in the pattern).
  • step S 6 acquire the data of the song. It is A's data.
  • step S7 which determines from the mix pattern whether or not a function is necessary, YES if necessary, and it is effective to apply a suitable amount to the function part 0 0. Yes Step S 8
  • step S9 it is judged from the miter pattern whether the volume control is necessary. For example, select whether you want to raise or lower the tune when editing song A and song B and stacking them. If necessary (, step S 0 to set the hood parameter. I wrote it on the assumption that it can be raised or lowered dynamically, but set the lamella there.
  • Step S Set the original tempo of the song.
  • the original tempo of the song is attached to the data.
  • the empty voice in the synchronous playback 9 is acquired.
  • the 3C example has been described above, but if there is an empty space, get the free space and set the song you want to play back (S3).
  • step S4 After obtaining the location of the song, step S4) is performed, and then it is determined whether the point for preparing the next song is reached or not in step S5. , If S is a cross, the cross will end immediately before that section, or if it is a cutin, it will start immediately, so preparations from the front will be in time. Of course, they are played at the same time and at exactly the same time. See if you have reached that point, and if you haven't reached the point where the song is prepared, go back to step S4 and wait until you get there. If you have reached the point for the next song, step S2.
  • Figure 5 is a diagram showing data 30 on the time axis.
  • the meta data 30 is supplemental data added to the music on the time axis, and not only the tempo but also bit information, measure information, and intro-type melodies. It has been described.
  • 3 represents the eyes. Represents the eye.
  • 4 represents 4 of the knot.
  • 2 represents the second eye.
  • 2 means the beat at the beginning of the knot.
  • 3 2 shows what is in that position. Indicates the position of a normal, melody, tesabi, etc. in a clause. 0 01 indicates the head of the bar. , Have 2 sex. Sample, for example, a song with a kH sample If so, there are 0 samples in between, but the position is described in sample positions.
  • the data 30 as shown in Fig. 5 is described by text expressions and expressions.
  • Figure 6 shows an example of time axis data. The data of the axis between 40 and 4 bits is displayed at the same time.
  • the long 4 indicates a bar and the short 4 2 indicates a normal bit.
  • the four-note timing is used to hold three positions corresponding to the sample positions of the music. It is a figure which shows the body example. It is possible to add to the 50 not only the bit 5 5 but also the song intro 5 and the melody composition such as A melody 52 5 3, B melody 5 4 and te (sabi). is there. You can use this information to find out the position of the target song and the position of the fixed melody.
  • the data was stored in the data storage device 6.
  • the data may be shown in 8A, 8B and 8C.
  • 8 is an example in which the data 7 and the data 7 2 are logically different and physically exist in the same media like P 3.
  • 8B is an example in which data 73 is mixed with music data 7 4 like MP G 4.
  • 8 C is an example in which data 75 corresponding to music data 7 6 is retrieved via a network.
  • the music data is. This is the music described later This is applied when the network is equipped with a network device such as 800 and is connected to a network such as the Internet.
  • the site data on the network can be downloaded according to D.
  • Figure 9 is a diagram showing an example of the body of the Mic Spatter File.
  • the song's data is for the song, but the mimic pattern allows the user to create it freely and has no dependence on music. it can. It is a question of how to connect.
  • ⁇ in the file 6 may be the same as A to E. It can be an opposite file.
  • 6 2 shows where to play for each song. Specify the chorus for A, the chord for B, the chord for CZ, the 8th to 20th knots, the whole for D, and the chorus for E.
  • the birth hook 63 specifies how to apply the hook to each of the parts.
  • the tether pattern 64 indicates that it is a cross against A, but when it is connected to B, it should be connected with a cross.
  • the joint foot 65 specifies that the reverb, mouth, and discontinuity are to be applied as work hooks at the time of joining.
  • the tether SE 66 gives the pattern shown in Fig. 9 that specifies the effect, the actual life is as follows. Is played. Intros come to Crosov near the rust. Intro At the same time, the number of 20h sections from which the 8th life begins is brought to Kusuf. It is also sometimes used. It is also played at the same time. That is the case.
  • MicSpata is a deliberate addition of instructions to where and how to connect songs in a conventional play list.
  • the tempo of ABC is adjusted to the tempo determined by the or system regardless of the original tempo of the song, and the position of the song ABC (down pitch This also allows you to play the song in a seamless, non-topless manner, which means that the music is played in the same way as song A song B song C as described above.
  • the degree of the song ABC In order to adjust the tempo position during playback, the degree of the song ABC must be changed. In order to know the original tempo position, in music, the music ABC and the respective data on the time axis are used. The original tempo of the song at the time of birth The playback rate is changed based on the ratio of the current tempo of the song, and playback is started with the section of each song aligned.
  • the tempo positions of multiple songs are handled accurately, and the playback position is controlled by the real time for synchronous playback. It is premised that this music playback method is used to connect the music described here to the seamless mode.
  • the figure shows an example in which music A and music B are overlapped with a bit and are connected by cross-processing.
  • the current A is fed out (the amount is gradually decreased) while the next song B is fed in (the amount is gradually increased) .By playing that one at the same time, both songs are synchronized.
  • the cross point is a method that has traditionally been used for F radio transmission, etc., but the clear points are the tempo positions for these A and B songs. Therefore, the songs are connected at the top without feeling of harmony.
  • Fek realizes a more natural and attractive linking method by applying reverb to song A and playing back to song B while applying mouth cut fill, and by applying the above various connection methods at the same time. It is possible .
  • the music is not limited to the musical composition to apply the above-mentioned connection method, and may be the music or the intro as shown in Fig. 7. If you connect the parts of a song, you will be able to connect them together so that you can mix them.
  • the tempo may be determined by the tempo specified by the song, or the tempo of the main song may be used as a whole.
  • FIG. 8 shows the other sounds to which the
  • Figure 9 is a block diagram of music 80.
  • This 80 has a network 8 and can be connected to the internet 82.
  • the above meta data can be brought from the site on the network.
  • the music is played and the meta data comes from the internet as shown in Fig. 8 above.
  • the content service is not limited to an individual user, and may be provided by the content service side or may be used as a mix spatter.
  • the internet connection It will be possible to share it with others and share it with other people, or create a mike with multiple people and create a new music based on the value of the music. Also, if you know the song D, you can bring the song data from the internet.
  • Figures 20 and 2 show the diagram and block diagram of other sounds 0.
  • This 0 is a configuration that acquires the sensor sensor value via the A / D converter, and is functionally equipped with a sensor.
  • the method (2 0 0 3 3 9 3 5 9), the technique of detecting the walking tempo by using the acceleration sensor and changing the tempo of the music according to the tempo is applied. .
  • the invention of selecting music in accordance with the tempo of walking jogging may be applied, as shown in (2) 0 0 5 3 0 3 0 9 9 9) of the method of music replacement.
  • a sensor is indispensable, and by applying the sensor and the algorithm of this invention to the system, songs are selected according to the state of the, and then they are mimicked. It is possible to produce a non-stop.
  • a sensor mode in addition to the mix pattern, and the processing is different depending on the selection of the. Sensor Then, a sensor detects a pattern such as walking or jogging, and the bit is changed according to the pattern.
  • step S2 which determines whether the sensor mode is the button mode.
  • the sensor mode is the technique that the previous user selects by jogging or walking, and the order of the songs and the song selection itself are determined by the sensor. Not necessarily determined by. It can be said that this suggests that it changes dynamically. It is an image that the pattern file is dynamically created by the sensor instead of reading the pattern file that is already prepared.
  • step S 2 When the pattern is selected instead of the sensor destination in step S 2, the process is the same as that of the above-described FIG. The case when the sensor mode is applied to the S2 and S2 2 will be described. This is when music is automatically selected according to jogging and music is automatically connected accordingly.
  • the music and the tempo are determined from the sensor's power (step S23. If it is determined in step S24 that there is the next music, the step tempo is set in step S25. In this case, the tempo is detected from the walking tempo, and the set tempo is set.Since the connecting method of the song is not always preliminarily determined, it is automatically determined step S26). In the case of jogging mods, I'm looking at the easy ones that can be connected with a cross and the data of the next song, and since I'm doing the duning, I may just repeat them. For the reason for the step S 27,
  • the way to connect the songs is made public on the Internet, etc., and it is shared with other people or made by multiple people to make a mike and value it.
  • New music taken Communication is possible. It is also possible to bring meta data from the Internet site in correspondence with music. You can also use the sensor to listen to music that suits your situation and condition.
  • the above-mentioned meaning and arbitrary timing are characterized in that they can be set particularly in bar, beat, and melodic positions.
  • another music for the currently playing song can be Minutes can be played back simultaneously at any timing.
  • the feature is that the volume that is being played at the same time as the above-mentioned period can be individually played. It is possible to simultaneously synthesize and play while increasing the amount of the next song while lowering the amount of the song currently being played at the time of the above-mentioned production.
  • the above-mentioned period reproduction is characterized in that the timing is controlled based on the pre-recorded tempo, time signature, down-bit device, melodies, etc. corresponding to the above-mentioned song.
  • the above-mentioned metadata is recorded on the same file as the music, or recorded as a file and the response to the music is managed using a database and.
  • a separate pattern describing the generation start timing, the volume control method, and the generation / modulation method of the song at the time of the above-mentioned playback is prepared separately, and based on this, a real time pattern is prepared. It is characterized by the fact that it is used for reproduction.
  • the above tempo is characterized by being specified by Z or automatically determined by the position.
  • the feature is that the data from the sensor is used as the tempo automatically determined by the memory.
  • the sensor is characterized in that any sensor such as an acceleration sensor, a sensor, a sensor / sensor, a body motion sensor, an electroencephalogram sensor can be added.
  • the pattern file is not only stored in the storage device, but also in an external storage device or interface. It can be obtained from
  • Ming it is possible to realize a collection of dozens of recorded songs or parts of a large number of recorded songs on a body such as a doss-flame. Also, the body or part of the music can be connected to the realtime and played on the spot.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

リミックス処理部は、楽曲データに対応して予め生成された、少なくとも時間軸上のビート位置を含むメタデータと、リミックスパターンを決定するファイルに基づいてリミックス処理を行う。同期再生制御部は、マスタービートを生成し、このマスタービートを上記リミックス処理部に送るとともに、上記リミックス処理部がリミックスパターンとメタデータに応じて指示してきたリミックス処理に応じて複数の楽曲を再生する。混合部は、同期再生制御部にて再生された楽曲を混合する。ハードディスクやフラッシュメモリなどの記憶媒体に、記録されている多数の楽曲の全体あるいは部分をビートを揃えて重ねたり、つなぐという編集を実現できる音楽編集装置を提供する。

Description

明 細
音楽編集装置及び音楽編集方法
技術分野
本発明は、 例えば 、 楽曲を楽曲パー ト、 小節などに細分化するこ と によ り得られる音楽コ ン ンッな'どを素材と して用いて編集するこ と によ り、 新たな楽曲 (音楽コ ンテンッ) を生成する音楽編集装置及び 編集方法に関する。
m
背 技術
メモリ 型オーディ ォの普及どともにユーザは大量の,楽曲を持ち歩く とが日常的になつた。 大量の楽曲をメディ ァの交換無く連続して聴 けるメモ リ 型オーディ ォにおいては、 もともとの C Dァルバム単位で 聴く だけではなく 、 すべての楽曲をァルノ、'ムをまたいでシャ ッ フリレし て いたり 、 自分の気に入つた曲だけをプレイ リ ス ト と して再構成し て聴く というスタイルが広まつている。 予めアルバムに琴音されてい る順番を守らずに、 ユーザが白分で聴きたい曲を聴きたい順番で聴く. 白由が広まつたとも Λ- o
しかしながら、 1 曲 1 曲については先頭から最後まで聴く ; とが前 提となっており、 ま /こ曲 _»曲の間には無音部分ができてしまう。 すな わち 、 曲は 1 曲という単位が最小になって;^り 、 その 1 曲で完結する 聴さ方しかできない 。 そのため 、 そこで集中、 あるいはいわゆるノ リ が途切れてしまう こ とがあるので、 ある一定のテンショ ンを保ったま ま楽曲を聴き続ける こ とが難しい。
第 2 3 図には楽曲 Aと楽曲 B を用いた従来の音楽再生を示す。 二つ の楽曲はそれぞれ楽曲の持つォリ ジナルのテンポで再生される。 もち ろん 、 曲間には無音部分がでさてしまう。
そこで、 複数の音楽素材を組み合わせて編集する技術が考えられた 。 特開 2 0 0 .3一 4 4 0 4 6 号公報には、 キ一ポー やマウスを介し たユーザ入力に応じて、 複数の音素ネ を組み合わせて楽曲を対話的に 編集したり再生して楽しむ技術が開示されている。 キ一ポー ドの各キ 一に対して、 サウン ドパ夕一ン'やフンショ ッ 卜などの音片や、 これら 音片に適用するエフェク 卜などか'らなるチップが割 0 当てられている
。 ユーザがキーを押下する ことによ て 、 この押下キ一に対応するチ ッ. ^ が実行される。 複数のキーを同時に押下操作する こ とによつて、 該当するチップを合成出力する。 また 、■各キーを順に押下してチッ プ を時系列的に組み合わせて楽曲を構成する。
しかし、 特開 2 0. 0 3 - 4 4 0 4 6 号公報に記載の技術によつても
、 えばディ スクジョ ッキー ( D J ) が行う' リ .ミ ッ-クスのよう に曲の 一部分を他の曲とつないで複数の曲からあたかも一ゥの曲を、 ビ一卜 を辦えて繋ぐよう に再構成する という こ とは困難であつた。 D J は.現 在では一般的な職寒であ り 、 リ ミ ツクス音楽.もそれ専用のレーべル会 社があ りそれを楽しんでいる ザ層 規模が大き < なつてきて 'いる 本発明は、 上記実情に鑑みてなされたものであ り 、 ハ― ドディ スク やフラ ッ シュメモリ などの記憶媒体に 、 録されている多数の楽曲の 全体あるいは部分をビー 卜を揃えて ねた 、 あるいはつなぐという 編集を実現できる音楽編集装置及び 楽編集方法の提供を目的とする
。 また、 楽曲の全体または一部を リ ァルタイムにその場その場でつな いで再生する こ とのできる音楽編集装置及び音楽編集方法の提供を目 的とする。
発明の開示
本発明に係る音楽編集装置は、 上記課題を解決するために、 楽曲了 一夕に対応して予め生成された、 少な < とも時間軸上のビー ト位置を 含むメ夕ァ タ と、 リ ミ ックスパタ一ンを決定するフ ァイルに基づい てリ ミ ッ クス処理を行う リ ミ ツクス m理部と、 マスタービー トを生成 し、 のマスタービー 卜を上記 U ッ.クス処理部に送るとともに、 上 記リ ミ V クス処理部がリ ミ ックスパ夕一ンとメ夕データに応じて指示 してきた ッ クス処理に応じて複数の楽曲を再生する同期再生制御 部と、 上記同期再生制御部にて再生された楽曲を混合する混合部とを 備える
本発明に係る音楽編集方法は. 、 上記 ϋを解決するために 、 楽曲デ 一夕に対応して予め生成された 少な < とも時間軸上,のビ一ト位置を 含むメタァ 夕 と、 リ ミ ックスパ;夕一ンを決定するフアイルに基づい てリ ミ ックス処理を行う リ ミ ッ クス処理工程と、 マス夕一ビ一卜を生 成し、 このマスタービ一 トを上記 ク クス処理ェ.程に送る とともに
、 ^記 U ッ クス処理工程がリ ッ クスパターンとメタデ一夕に応じ て指示してさたリ ッ クス処理に応じて複数の楽曲を再生する同期再 生制御ェ程と 、 上記同期.再生制御ェ程にて再生された楽曲を混合する. 混合ェ程とを備ん'る。 ,
図面の簡単な説明
第 1 図は、 本発明による装置、 方法の一実施の形態か適用 される 音楽編集装置 1 のプロ ッ ク図、 第 2 図は、 同期再生制御装置と音声 ミ キシング装置の詳細な構成を示すブロ ッ ク 図、 第 3 図は、 音楽編 集装置の機能ブロ ッ ク 図、 第 4 図は、 音楽編集装置が C P Uによ つ て実行する音楽編集プロ グラムの処理手順を示すフ ローチヤー ト 、 第 5 図は、 時間軸上のメ タデータ を示す図、 第 6 図は、 時間軸メ タ データの具体例を示す図、 第 7 図は、 時間軸メ タデータの他の具体 例を示す図、 第 8 図 Α、 第 8 図 Β及び第 8 図 Cは、 メ タデータの格 納方法を示す図、 第 9 図は、 リ ミ ッ クスパター ンフ ァイ ルの具体例 を不 T図、 第 1. 0 図は、 本発明による音楽再生を説明するための図
、 第 1 1 図は、 ク ロスフ エ一ド によるつなぎを説明するための図、 第 1 2 図は、 カ ツ トイ ンによ るつなぎを説明するための図、 第 1 3 図は 、 効果音を用 いたつなぎを説明するための図、 第 1 4 図は、 効 果 を用 いたク ロス フ ェー ド によるつなぎ.を説明するための図、 第
1 5 図は、 同時同期再生を説明するための図、 第 1 6 図は、 iフ エ ク hの適用 を説明するための図、 第 1 7 図は、 部分再生を説明する ための図、 第 1 8 図は、 ネ ッ ト ワーク通信装置を有する音楽鐸集装 置め構成図、 第 1 9 図は、 ネ ッ ト ワーク通信装置を有する音楽編集 装置の機能ブロ ッ ク 図、 第 2 0 囪は、 セ ンサ一値取得部を有する音 楽 装置の構成図、 第 2 1 図は、 セ ンサー値取得部を有する音楽 集装置の機能ブロ ッ ク 図、 第 2 2 図 A及び第 2 .2 図 B は、 センサ
'一 取得部を有する音楽編集装置の処理手順を示すフ ローチャ ー 卜 、 .第 2 3 図は、 従来の音楽再生を説明するための図 ' .ある。 発明を実施するための最良の形態 .
以下 、 本 明を実施するための最良の形態について図面を参照しな がら 明する。 第 1 図は 発明による装置、 方法の一実施の形態が適 用される音楽編集装置 1 のブロ ック図である。
の音楽編集装置 1 は、 ハー ドディ スク ( H D ) 、 コ ンパク トディ スク ( C D ) 、 ミニディ スク (M D ) 、 ディ ジタルバーサタイルディ スク ( D V D ) などの種々の記録媒体やイ ンターネッ トなどのネッ ト
―ク を通じて提供される楽曲の音楽コ ンテンッデ一夕 (オリ ジナル 了一夕 ) に対して、 後述するメタデータを用いて、 例えば本来テンポ が異なる楽曲 Aと楽曲 B とをビ一 卜を揃えて繋いで再生したり、 重ね て再生する ことができる。 つま り、 自動的に D J 再生を行う装置であ る。 第 1 図に示すよう に、 の音楽編集 置 1 は、 中央演算処理装置 (
C P U ) 2 にバス 3'を介して記憶装置 4 、 同期再生装置 8 を接続して る。 また.、 C P U 2 にバス 3 を介して R O M 1 3 、 R A M 1 4、 ュ 一ザ操作 I Z F装置 1 5 及びュ —ザィ ン夕 —フエ一ス ( U I ) 表示 装置 1 6 を接続している :
C P U 2 はリ アルタイムに楽曲のつなぎ方を決定し、 同期再生装置
8 に対して必要な楽曲素材を必要なタィ ングで与える。 また、 ユー ザの操作に応じて同期再生装置 8 に対し 、 テン'ポの指示ゃビ一 ト同期 z非同期の指示を行う。
記憶装置 4 は、 楽.曲用記憶装置 5、 メ夕データ用記憶装置 6 及びリ ミ ッ クスパターン用記憶 置 7 からなる. 楽曲用記憶装置 5 は、 複数 の楽曲データを保持する記 te装置である 据え置き用の音楽再生装置 や、 携帯用の音楽再生装 -置が持つているようなフラ ッ シュメモリや八 ー ドディ スクなどの記憶装置でめ 。 なお 、 楽曲用記憶装置 5 に記憶 される楽曲データは圧縮されたものでち非圧縮のも 'のでもかまわない.
' メタデータ用記憶装置 6 は、 フラ ッ シュメモ リやハー ドディ スクな どの種々の記憶装置であ Ό 、 楽曲に付加されている 、 時間軸上のメタ デ一夕を記憶している。 詳'細は後述するが 、 メタデ一夕は楽曲に 加 された時間軸上の補助デ ―タであ り、 テンポだけでなく ビー 卜の位置 情報、 小節の先頭 (単に頭と記す) 位 情報、 前奏 (イ ン 卜口) ゃテ 一マ (サビ) などのメ ロ丁ィ情報が記述されている
リ ミ ッ クスパターン用記憶装置 7 は 、 楽曲用記憶装置 5 と同様に記 憶装置であれば特に制限を付ける必要はない。 リ ミ ックスパターン指 定方法を指示したリ ミ ッ クスパターンフ ァィルを保持する記憶装置で ある。 リ ミ ックスパ夕一ンフ ァィルについては、 詳細を後述するが、 曲順が書いてあるだけでなく 、 曲順 + どつ いうふう に組み合わせるか
、 あるいは楽曲 Aと楽曲 Bの ザ
ど を使つてどこに組み合わせるかとい ような、 こ .とが書いてあるフ ァィルでめ.る o
同期再生装置 8 は、 音楽編集装置 1 が自動的に D J 再生を行うため の信号処理プロ ッ クであ り'、 C P iU 2 の リ ミ ッ クス制御機能によ り指 示された楽曲素材を基準ビー 卜に同期して再生する。 同期再生制御装 置 9 、 音声ミキシング装置 1 0 、 デジタル アナログ変換装置 ( D / A ) 1 1 及び音尸出力装置 1 2 からなる o
同期再生制御衣置 9 は、 複数の音声信号生成部を有し、 複数の音楽 信号を、 自分の中で生成したク ッ ク信号に同期して再生する。 また
、 メタデータ用記憶装置 6 からのメ夕デ一夕に基づいて現在再生され ている楽曲の位置を常に監視し 、 C P U 2 のリ ミ ッ クス処理機能部に
■、 今どこを再生しているのかという位置 (楽曲の再生を,しているサン プル数とかの位置 ) や 、 何小節百の何拍目を再生しているのかという. 位置 ¾:返 ^。
音声ミキ'シング装置 1 0 は 、 同期再生制御装置 9 内の複数の音声信 号生成部で生成された複 系統の音声信号を合成して出力する。 D /
A 1 1 は音声ミキシング装置 1 0 で再生されたデジタル信号をアナ U グ信号に変換-する o 立
曰声出力装置 1 2 は 、 D / A 1 1 カゝらの.アナ口グ 立
曰声信号を増幅し 、 ス ピー力やへッ ドホンなどに出力する。
R 0 M 1 3 は 、 本発明の音楽 集方法にしたがつた処理手順からな る音楽編集プ口グラムを格納している。 また、 デフォル トの各種デ一 夕を格納している 。 R A M 1 4 は 、 C P U 2 が上記音楽編集プログラ ムを実行する とさのヮークェ U ァになる o 1 、 上記音楽編集プログ ラムを実行する とさの各種更新デ一夕を 憶" 5 る o
ユーザ操作 I / F装置 1 5 はュ —ザによる操作を受けつける例えば キーボー ドや、 マウス タ ツチパッ トなどである U / I 表示 置 1
6 は、 現在の操作状況 音楽編集処理状況、 あるいはュ ザによる操 作を可能と.する夕 ツチパネルを含めた表示部であ り 例えば液晶表示 装置である 。 もちろん C R Tでもよい。
第 2 図は同期再生制御装儻 9 と!音声ミ キシング装 1 0 の詳細細な構 成を示すブロ ッ ク図である。 同期再生制御装置 9 は マス夕 ビ 卜 生成部 9 0 と、 3 系統の音声信号生成部からなる マス夕 ビ 卜生 成部 9 0 は 、 ビー ト に相当するク ロ ヅクを生成する 詳細細には U ミ ッ クス時のチンボとそのテンポに同期したビー 卜信号,を出力する 。 マ スタービー ト生成部.9 0 は指定された拍子 ( 4 / 4拍子や 3 / 4拍子 など) にあわせて、 小節の頭信号とそれ以外の通常のビ 卜信号を生 成し、 出力する。
3 系統 ( トラ ッ ク) の音声信号生成部は、 リ アルタィムにス丁レ才 の音を複数だせるよう にするために、 典型的な例と して 、 楽曲 A 楽. 曲 B 、 .効果音 (Sound ef fect : S E ) とレ う こ とで—3 卜 ラ ッ ク として. いるもので 'ある。 もちろん、 楽曲の構成数に応じて 4 卜 ラ ッ ク 5 卜 ラ ックあるいはそれ以上め トラ ッ ク数でもかまわない この 尸信 生成部は、 マスタービー ト生成部 9 0 が生成した同期信 (ク P ック
、 あるいはビー ト) をもとに楽曲の小節/ビー 卜位置をマス夕 ―ビ ― 卜の小節 Zビー ト位置に合わせて同期再生を行う。
各 卜 ラ ッ クには、 それぞれ、 デコーダ (Decoder) 9 1 a 9 1 b及 び 9 1 c と 、 タイムス ト レッチ装置 (Time Stretch) 9 2 a 9 2 b 及び 9 2 c が備えられている。 デコーダ 9 1 a 9 1 b及び 9 1 c は M P 3や A T R A C等の圧縮音声をデコー ド し、 P C Mデ 夕と し て出力する 。 こ こで、 S Eは長さが短く 、 データサイズも小さいため 必ずしも圧縮する必要は無い。 そのため、 この S E ト ラ ッ クの丁 ― ダは省略して'も.よい。 夕ィムス 卜 レツチ装置 9 2 a 、 9 2 b及び 9 2 c は、 音程を ―定に保つたまま再生速度を変換する装置である。 メ夕 デー夕用記憶装置 6 からのメタデータに基づいて なるテンポを持つ 楽曲素材を.基準ビ一卜のテンポに わせる。 楽曲のォリ ジナルテンポ とマスタービ一 卜 との比率に鑑みて、 再生速度を U ァルタィムに変化 させる という処理を行う 。 これによつて 、 楽曲のォ ジナルテンポを マスタービー 卜のテンポに合わせる こ とができる もちろん 、 上述し たよう に音程を変える こ とはない。
なお、 これら 尸信号生成部には、 ヒ 'ツチシフ ' 卜 ( P i t c h S h i f t e r
) 機能を搭載してもよい。 ピ、 チシフ 機能は、 再生 3¾度を一定に保 つたまま音程を変更する。 これは異なるキーや音程を持つ楽曲素材を 音 ^的に調和させるのに利用されるが 、 必ずしも必要な機能ではなく 付力'口的な機能である。
音声ミキシング IB. 1 0 は、 上記 3 卜 ラ ックの 尸信 生成部に対 応して、 3 系統のェフェク ト処理部 1 0 0 a、 1 0 0 b及び 1 0 0 c と、 音量調整 置 1 0 1 a 、' 1 0 1 b及び 1 0 1 c を備える ら
3 系統の出力は (:
尸、ッ 'ク.ス装置 1 0 2 によ り ミ ッ クスされてか ら 声出力装置 1 0 3 によ り増幅されて外部のス ピー力 、 へッ ホンに出 力される。 音尸信号生成部の各 卜 ラ ッ クからの出力 尸信号に対して それぞれエフェク ト処理と 、 音 B 整処理ができる構成となつている
。 同期再生制御装置 9 と音声ミキシング装置 1 0 とは 、 C P U Λス又 は同期再生装置内部の □一力 Jレバスを介して C P U 2 と接続されてい る
第 3 図は音楽 装 1 の機能ブ P ッ ク図である 第 1 図に八一 ゥェァ構成として示した C P U 2 の機能が、 5 ッ クス処理部 2 0 と して示してある 。 'J ソ クス処理部 2 0 は、 さ らにメ夕丁一夕処理部 2 1 と リ ミ ックスパタ一ン π5¾み込み部 2 2 に分かれている。
リ ミ ッ クス処理部 2 0 は 、■ メ夕データ用記憶装置 6 に格納されたメ 夕デ一夕をメタデー夕処理部 2 1 によつて処理する。 上述したよ Ό に
、 ■*
楽曲には時間軸上のメタ丁一夕が付加されており 、 テンポだけでな
< ビー小の位置情報 、 小節の頭位儷情報 、 イ ン ト □やサビなどのメ Π ディ 情報を保持している。
メ夕データ処理部 2 1 は 、 楽曲に対応じた時間軸上のメタつ 夕を み込み、 リ ミ ックスパ夕一ン み込み部 2 2 で ¾tみ込んた リ.ミ ッ ク スパ夕一ン情報の指示に従つて 該楽曲の位置情報を,調査する。 例え ば 、 今、 どこのビ一.卜に自分がいるのかとか、 今組み合わせよう と し ている楽曲のビー トはどこにあるのかという ことを把握したう えで 、 複数ある楽曲とか、 効果音という ものを 、 どの時点.で、 どう いうふ Ό に 生するかを決めている
また、 リ ミ ッ ク 処理部 2 0 は 、 U 5 Vクスパターン 記憶装 7 に格納された リ ミ ッ クスパ夕一ンフ アイル 7 a を リ ミ ッ クスパ夕 ン み込み部 2 2 で読み込む ッ クスパターンフ アイゾレ 7 a は 、 フ ェ一ドアゥ トするのか 、 '力 V 卜ィ ンするのか、 S Eは何をかけるのか
、 とレ ^うようなこ とを指定したフ アイルである。 リ ミ ッ クスパタ一ン は 、 ユーザあるいは第三者の手によって人為的に指示されたつ 夕列
(この曲の後にはこ いふう につなげとか ) でもよいし、 自動生成ァ ルゴリ ズムによって作られたちのでもよい (勝手に機械側が決めるよ なリ ミ ッ クスのよ Όなもの )
同期再生制御装置 9 は、 ス夕 —ビー 卜生成部 9 0 によ りマス夕一 ビ — トを生成し、 このマス夕一ビ — 卜を ミ ッ クス処理部 2 0 に送る とともに、 リ ミ ックス処理部 2 0 がリ ミ ソ クスパターンとメ夕デ一夕 に応じて指示してきた u ミ ッ クス処理に応じ、 メ夕データ用記憶装置 6からの各メ夕デ一夕を用いて複数の楽曲を再生する 第 4 図は音楽編集装置 1 が C P U 2 に.よ て 行する立
曰楽編集プロ グラムの処理手順である。 この音楽 プ □グラムは本発明の音楽編 方法の具体例でめる。
まず、 C P U 2 の リ ミ ッ クス処理部 2 0 は U ッ クスパターン用記 億装置 7 からの リ ミ ックスパターンフ ァィル 7 a を リ ックパターン み込み部 2 2 で読み込んで取得する (ステップ S 1 ) 次に、 楽曲 例えば 1 曲目を同期再生制御装置 9 に取得させる (ステッ プ S 2 ) さ らに 、 次の曲があれば (ステツ プ S 3 にて Y E S ) 、 同期再生制 御装置 9 の ス夕 —ビー 卜生成部 9 0 のテンポを決定する (ステッ プ
S 4 ) 。 これは、 1 4 0 なら 1 4 0で固定でちいいし 、■ュ一ザが何か 指定しているものでもよい 次に、 なぎかたノ 夕一ン (これもノ 夕 一ンフ ァィルに書いてある ) を取得する (ステ プ S 5 )
これで 、 曲とつなぎ方のパターンが決ま たので、 楽曲のメタデー 夕を取得する (ステツフ. S 6 ) 。 楽曲 Aで れば ¾曲 Aのメ夕デ一夕. のこ とであ " &.。 次に、 エフェク ト処理が必要かどうかを U ミ ッ クスパ ターンフ アイルから判断する (ステップ S 7 ) し 、 必要であれば .( Y
E S ) 、 エフェク 卜処理部 1 0 0 にて 、 しかるベきェフ Xク トをかけ るよ に有効 Jこする (ステップ S 8 )
次に、 音量フエー ド処理が必要かど Όかを ックスパターンフ ァ ィルから判断する (ステツ ·プ S 9 ) 例えば楽曲 Aと楽曲 Bを編集し て重ねるときに上げた り下げたり の 曰 里フ X一ト'が必要かを選択する もし必要があれば ( Y E S ) 、 フェ ―ト-パラメ一夕を ax定する (ス テッブ S 1 0 ) 。 自動的に上げたり 、 下げたり を前提に して書いたが
、 そこにパラメ一夕を設定しておく
次に、 同期再生制御装置 9 のマス夕 ―ビ ―卜生成部 9 0 に対して、 楽曲のオリ ジナルのテンポをセッ トする (ステッ プ S 1 1 ) 楽曲の ォリ ジナルのテンポはメ夕データに付与されている。 そして 、 同期再 生制御装置 9 内の空いている音声信号生成部を取得する 3 C hの具 体例を上述したが 、 空いている と ろを取得して再生させたい楽曲を セッ 卜する (ステッ プ S 1 3 ) 。 !
そして、 各楽曲の現在の再生位置を取得してから (ステップ S 1 4
) 、 次の楽曲を用意するポ,イ ン 卜に到達したかを判断する (スアップ
S 1 5 ) 。 例えば 、 S Eがク ロスフエ一 ドであれば、 ク 口スフェ一 ド が終わるのはその小節の何小節力 前であったり 、 力 ッ.卜ィ ンであれぱ
、 すぐ 始まるので. 1 小節前から準镩しても間に合う 。 ¾ちろん、 同 時 生は全く 同時に再生である。 そう IAうポイ ン トに到達したかを見 て、 もし楽曲を用意するポイ ン トに到達していないのであれぱ 、 ステ
' ッ プ S 1 4 にもどり 、 到達するまで待っている。 も し 、 次の楽曲を用 意するポイ ン トに したのであれば ( Y E S ) 、 ステップ S 2 に戻 第 5 図は時間軸上のメタデ一夕 3 0 を示す図である 。 メタテ 夕 3
0 は、 上述したよラ に 、 楽曲に付加された時間軸上の補助デ ―夕であ り 、 テンポだけでな < ビ一 卜の位置情報、 小節の頭位置情報 、 ィ ン ト 口ゃサビなどのメ □丁ィ情報が記述されている。 小節 拍 3 1 は 1 小 節目の何拍目かを表している。 Γ 1 1 」 は 1 小節目の 1 拍巨を表す。
「 1 4」 は 1 小節 の 4拍目を表す。 同様に、 「 2 1 」 は 2 小節目の
1 拍目を表す。 特に 、 Γ 1 1 」 、 「 2 1 」 は各小節の先頭の拍を表す こ とになる。 属性 3 2 はその位置に何があるかを示している 小節の 頭、 普通の拍、 メ □丁ィ 、 テーマ (サビ) 等の位置を示す Γ 0 1 8000
0 1」 は小節の先頭であるこ とを示す。 前記 「 1 1 」 、 Γ 2 1 J の属性 と して示している。 サンプル位置は、 例えば楽曲が 44 . 1 kH zでサンプリ ングされているのであれば、 1 秒間に 44 1 0 0サンプルであるが、 その位 置がサンプル単位で記述されている こ とになる o の第 5 図に 7 した よ'うなメ夕データ 3 0 はテキス 卜形式やバイ.ナ U形式で記述されてい
O o
第 6 図は時間軸メ夕データの 体例である o 尸信号 4 0 と ビ一卜 信号 4 1 、 4 2 の時間軸のメタ了一夕を同時に 示している。 音声信 号 4 0 は左から右に時間の経過とと もに変化しているが、 それとと ち にビー 卜 も乗っている。 第 6 図において長い線 4 1 が小節の頭 、 い 線 4 2 が通常のビー トを示している。 小節の先頭 4 1 とそれ以外のビ 一ト 4 2 ( 4拍子で.あれば小節頭 'のあとに 4分 符の夕イ ミ ングで 3 拍) .位置を楽曲のサンプル位置に対応させて保持しているものである 7 図も時間軸メタデータの m.体例を示す図である ο ■ 尸 号 5 0 に、 ビ一卜位置 5 5 だけでなく 楽曲のイ ン 卜 □ 5 1 や、 Αメ ロディ 5
2及び 5 3、 B メ ロディ. 5. 4、 テ一マ (サビ ) とい 'つたメ ロディ 構成. ¾:示 g '位置情報を付ける こ とが可能でめ 。 の情報を利用 して対象 の楽曲の小節位置や特定めメ ロ丁ィ の開始位置がわかる。
上記 1 図等に構成を示した 集装置 1 では 、 メタデ一夕はメ タデーダ用記憶装置 6 に格納されていた。 メ夕'デ一夕の格納方法ば 、 第 8 図 A 、 第 8 図 B及び第 8 図 C に示すよう にしてもよい。 第 8 図 A は、 M P 3 のよう にメタデータ 7 1 と楽曲デ一夕 7 2 が論理的に別で 物理的に同じメディ ァに存在する例でめる。 また 、 第 8 図 B は Μ Ρ E
G 4 のよう に楽曲デ一夕 7 4 にメ夕デ —夕 .7 3が混在している例であ る o ^た 、 第 8 図 Cは例えばネッ 卜 ヮークを介して楽曲データ 7 6 に 対応するメ 夕デ一夕 7 5 が検索される例である 陋理的にも物理的に 楽曲デ一夕とメタデータは別々である 。 これは 、 後述する音楽 装 置 8 0及び 1 1, 0 のよう に、 ネッ 卜 ヮ一ク通信装置を備え、 イ ンター ネッ 卜などのネッ 卜ワークに接 feeする形態のときに適用される。 楽曲
I Dに応じてネ V ト ワーク上のサイ トからメ夕デ一夕をダウンロー ド する とがでさる
第 9 図は ソ クスパ ^ ―ンフ1アイルの具体例を示す図である。 楽 曲のメ夕デ一夕は楽曲に対して 1 対 1 のものであるが、 リ ミ ッ クスパ 夕一ンのほう は 、 ユーザが自由に作るこ とができ 、 楽曲とは何の依存 関係ちないよラ にするこ ともでさる。 楽曲間をどうつなぐかとレゝぅ フ ァィルである ミ ックスのパターン 6 0 における、 曲 I D (フ アイ ル) 6 1 の I D — A 〜 I D— Ε:は、 曲^ A'~ E と同じであつてもよい。 絶対的 なフ ァィル名やフ 7ィルパスであよい 再生部分 6 2 は、 それぞれの 楽曲に対して.どしを再生するかを示す 曲 Aに対しては 「サビ」 、 B に^しては Γィ ン 卜 □」 、 Cに対しては 「 8 小節目から.2 0 小節目」 まで 、 Dに対して «全体、 Εに対しては 「サビ」 という位置を指定す る。 再生時 (ェフェク 卜.) 6 3 は、 各曲の各部分に'、 それぞれどう い. うふうなェフェグ 卜をかけるかを指定する。 つなぎ方 (パターン) 6
4 は 、 曲 Aに対してク ロスフェー ド とあるが、 B とつなぐときにク ロ スフ X - ドで なぎなざいという こ とを示す。 また、 Bカゝら Cはカ ツ 卜ィ ンで、. C -から Dはク 口スフエー ドで 、 D と Eはサビの部分を同時 再生でつなぐという こ とを示す 。 また 、 つなぎ時 (エフェク ト) 6 5 はつなぎ時にェフェク 卜 と して リバ一ブ 、 ロー力 ッ 卜、 アイ ス 卜ーシ ョ ンをかける とを指定する。 つなぎ S E 6 6 は 、 効果音を指定する
第 9 図に 7 したパターンを指示した □ 、 実際の再生は次のよう に 行われる 。 「 I D _Aのサビが再生される → I D_Aのサビ終わ り付近で I D
Bィ ン 卜 口がク 口スフェー ドで入つて < る 。 → I D _Bのイ ン ト ロ終わり と同時に I D— Cの 8 小節目の再生が開始される→ I D— C 2 0 小節の数小節 から I D _Dがク 口スフェ - ドで入ってく る。 同時に S E— Aもミ ックスされ 。 I D Dのサビがぐ る と I D Eのサビも同時に再生される。 J という 具合である。
このよう に、リ ミ ッ クズ 夕一'ンは概念的に従来のプレイ リ ス 卜 に 対し曲のどこをどのよう に なぐかという指示を追加したものである ともいえる。
次に 第 1 0 図〜第 1 7 楽っ図のでパきるぐを参照して楽曲 つなぐ方法の実例を概 略的に 明する。 従来の音 再生では第 2 3 の う に二つの楽曲 A と楽曲 Bはそれぞれの:楽曲 ォリ ジナル テンポで再生され、 曲 と曲の間には無音部分がで とがぼとん であ た。 再.生装置の 仕組み的に無音部分なく 繫 ができる も もあるが、 楽曲の前後 には多少な 音部分があ 多 それ の曲は曲の前後 曲の 一部として Mハ、、音部分を含ん ためどう し も曲間に無音部分がで. きてしまう
第 1 図に '構成を示した音 装置 1 によれば、 1 0.図のよう に
: 楽曲の才リ ジナルテンポによ らずユーザあるいは ステムが決定し たテンポにすべての楽曲 A B Cのテンポを合わ 、 そして楽曲 A
, B Cの柏-位置 (ダウンビー 位置) も合わせて 生する こ とで、 曲を理和感なく ン ―ム レスにノ ス 卜 ップに繋ぐこ を可能にする。
れは音 集装置 1 が楽曲 と楽曲 B と楽曲 C 上述したよう に ピー ト同期再生する こ とによる。 異なるテンポの 3 の楽曲のビー 卜 (拍) を同期させて再生するためには、 それぞれの 曲 A B , Cの オリ ジナルのテンポと拍 (ビー ト) 位置を知らなく はならない。 ま た、 再生時にはテンポとビ 卜位置を揃えるために 曲 A , B , Cの 再生速度を変化させなく てはならない。 , ォリ ジナルのテンポとビー 卜位置を知るために、 曰 ^ . 装置 1 で は楽曲 A , B , C とそれぞれのぺァとなつた時間軸上のメタァ ―夕を 用いている。 再生時には楽曲のォリ ジナルテ.ンポと現在のマスタ ―ビ 一卜テンポの比から再生速度を変 させたうえで、 おのおのの楽曲の 小節の頭位置を合わせて苒生を開始する。
上記のよう に複数の楽曲のテンポと ビー ト位置を正確に扱 て 、 U アルタィムに再生位置を制御して同期再生を行う。 こ こで説明する楽 曲をシーム レスにつなぐ手法はすベてこのビ一 ト同期再生とい 方法 を用いる こ とが前提となっている
第 1 1 図には.、 楽曲 Aと楽曲 B 'をビー 卜を揃えて重ねながら 、 ク □ スフェ — ド処理によ りつなぐという例を示す。 現在の楽曲 Aをフェ一 ドァゥ ト (音量を徐々 に小さ ぐ する) しながら次に く る楽曲 B をフエ ィ ン (音量を徐々 に大き < する) し、 その両方を同.時に再生する こ とで双方の曲がシーム レスに入れ替わる効果が得られる ク □スフ
X一 Ηは、 従来から F M.ラジォ放送などでよく 利用 'される手法である が本発明の'ボイ ン トはこれらの楽曲 Aと楽曲 Bのテンポと ビ一卜位置 が揃えられているため違 感な < ノ ンス ト ップで楽曲がつながるとこ ろにある
曰楽編集装置 1 では、 第' 1 2 図に概要を未す力 ッ トイ ン処理 行え 楽曲 A、 楽曲 B、 楽曲 C間の繋ぎ目が音楽的に切れがよい 合な どではク ロスフェー ドを行うよ も第 1 2 図のよう にそのまま繋いで しま た方がよい場合もある また、 楽曲のビー トの切れ目で意図的 に切 て次のビ一 卜から次の曲に切換える こ とも考えられる
また 、 音楽編集装置 1 では 、 上述したよう に効果音 ( S E ) を用い て楽曲を.つないでいる。 つま り 、 楽曲だけでなく 、 楽曲つなぎ部分や 任意の部分に効果音 ( S E : S o u n d E f f e c t ) をはさむこ とができる。 第 1 3 図は楽'曲 Aと楽曲 Β と楽曲 Cのそれぞれの楽曲間に効果音を挟 んだ例である 。 第 1' 4 図は S Ε を用いた楽曲 Aと楽曲 Bのク ロスフエ ー ドによる なぎを示す例である o もちろんこの場□の効果音もマス 夕ービ一 卜テンポに同期させる こ とが可能である。 S Eを挟んだり重 、 ねたりする こ とで曲調が大き く 異なる楽曲同士をつなぐ場合によ り 自 然につなぐこ とが可能となる。
また、 楽繃集 ¾c置 1 では、 同時再生を行ってもよい 。 異なる'楽曲 をつなぐだけではなく 、 第 1 5 図に示すよう に、 ビ一卜同期を行い同 時に再生を続ける。 テンポとビ一卜位置が同期しているため、 あたか も最初からそのような 1 曲であつたかのよう に錯覚する こ とすらある o
また、 楽 集: ά置 1 は、 第 1 6 図に示すよう に 、 一つの楽曲 A中
.にエフェク 卜 ¾:適用 してもよい 曲 Aの一部分も し < は全体にエフ ェク 卜 ( 響効果 ) を適用 し音質を変化させる。 単に低音や高音を強 調するものだけでなく 、. .リパーブ、 ディ レイ、 ディ ス 卜ーシヨ ン、 マ, キシマイザ 'といつた音色そのものを変化させるものまでを含む。 ' ェフエク 卜は楽曲 Αにはリバ一ブ 、 楽曲 B には口一力 ッ 卜 フイ リ.レ夕 をかけながら同時に再生したり上記さまざまなつなぎ方を同時に適用 する こ とによつてよ り 自然'で魅力的なつなぎ方を実現する こ とができ る。
また、 楽 集 置 1 は、 上記つなぎ方を適用するには楽曲全体に 限らず、 第 1 7 図のよう に各楽曲のサビの部分であつたり、 イ ン 卜 口 部分であつたり してもかまわない。 楽曲の部分をつなぐこ とで例えば サビだけ U ックスするよ うなつなぎ方が可能となる
以上説明したよう に、 音楽編集装置 1 によれば、 U ッ クスパター ンを 己 Ki した U ≤ ッ クスパターンフ アイルをもとに楽曲の リ ミ ックス をノ ンス 卜 ップで行う こ とができる その際ュ一ザが指定したテンポ でマスタービー トテンポを決定してもよいし メィ ンとなる楽曲のテ ンポに全体をあわせてもよい
したがつて、 音楽編集装置 1 によれば、 3.一ザはこれまでの音楽の 楽しみ方に加えて、 次の新しい次元の楽しみ方がでさる これらの楽 しみはこれまでのよう に受動的に音楽を聴いているだけでは決して得 られないものであ り、 能動的に音楽にかかわり 、 自分自身に合つた音 楽の聴き方を創出したり 自分自身の頭示欲を . たすものである づま り、 楽曲の好きな部分をかつ こう よ < つないでノ ンス 卜 ップの リ ミ ックス音楽として.聞く ことが:でさる。 また 、 楽曲のゥなぎ方を自 分で試行錯誤して選んで魅力的なものを作るという m m.欲を満たすこ とができる
なお、 箄 1 8 図には、 本発明の実施の形態が 用される他の音楽編 集装置 8 0 の構成を示す。 第 1 9 図は 楽 集装置 8 0 の機能ブ口 ッ ク図である。 この音楽.編集装置 8 0 は、: ネ V 卜ヮ'一ク通信装置 8 1 を備え、 ィ 'ンタ一ネッ ト 8 2 に接続できる
ネッ'卜ヮーク通信装置 ' 8 1 を有する こ とで 、 上記メ夕ァ一夕 ^ネッ ト ワーク上のサイ トカゝらもつてく る とがでさる。 楽曲の I Dされ判 れば、 メタデ.一タは上記第' 8 図に示したよ Ό にィ ン夕一ネ 卜上から 持ってこれる
また、 リ ミ ックスパターンフ アイルをィ ン夕ーネッ 卜 8 2 などのネ ッ ト ワークで交換、 共有する こ とによつてあるュ一ザが作成した リ ミ ッ クスを第三者がダウン ド して楽しむ とがでさる また 、 個人 のユーザに限らずコ ンテンツサービス側が提供した u ミ ックスパ夕一 ンを用いてちょい。
この音楽編集装置 8 0 によれば、 楽曲のつなぎ方をィ ン夕一ネッ 卜 などで公開し、 それを他の人と共有した り複数人で ックスを作り
: 上げ評価しあう といづた新しい音楽を軸と したコ ュ二ケ ショ ンが 可能となる。 また、 楽曲の I D さえわかれ ■は:、 楽曲のメタァ タをィ ンターネッ 卜上のサ バから持つてく る こ ともでさる。
' 第 2 0 図及び第 2 1 図にはさ らに他の音 装置 1 1 0 の八 ド ゥェァ構成及び機能ブ P ッ ク図 ¾: 不 の音楽 集装 Β 1 1 0 は、
. A / Dコ ンバー夕 1 1 1 を介してセンサー 1 1 2 からセンサ 値を取 得する構成であ Ό 機能的にセンサー値取得部を備える
センサー値取得部 1 1 3 は 例えば、 「再生様態制御装置及び再生 様態制御方法 (特願 2 .
加速度センサ一を利用 して.歩行テンポを.検出し 、 その歩行テンポに合 わせて楽曲のテンポを変化させる技術を適用 している。 この例を応用 すると、 歩行テンポに合わせてマスタービー 卜生^部のテンポを変更 し 、 すべての楽曲を歩行やジョ ギングのテンポに合わせてリ ックス 生する こ とが可能となる。 また、 「楽曲の切り替'え方法」 ( 「ォ ディ ォ信号の再生機および再生方法」 (特願 2 0 0 5 - 3 0 3 0 9 9
) ) にあるよう に歩行やジョ ギングのテンポに合わせて楽曲を選 す る発明を適用 してもよい。
これらを使うためには、 'センサ一が不可欠で 、 そのセンサ とごれ ら発明のアルゴリ ズムを本システムに適用する こ とで、 ザの状態 に合わせて楽曲が選ばれ、 さ ら にそれらがリ ッ クスされてノ ンス 卜 ップ再生するこ とが可能である。
第 2 2 図 Α及び第 2 2 図 Bはセンサ一優先モ ドを備えた 楽編集 装置 1 1 0 の処理手順を示すフローチャー トである。 この処理手順は リ ミ ックスパターン優先モー ドのほかに、 センサー優先モ ドがあ
0 、 例えばユーザの選択に応じて処理を異ならせる。 センサ 優先モ ドでは、 歩 、 *
とか 、 ンョ ギングとかのパ夕 ンをセンサ一が検出し
、 そのパ夕一ノに応じてビ ト を変化させる のである。
まず 、 センサ一優先モ一ドかパタ ―ン優先モ一 Ηかを決定する (ス テップ S 2 1 1 ) この % σ、 センサ一優先モ一 Η というのは 、 ささ ' ほどの 3. ―ザがン 3 ギングする とか 、 歩く とかで m曲するという技術 であ り 、 曲の順番とか、 選曲そのちのはセンサ ―によつて決定される ちめで 、 パ夕一ンによつて決定されるとはかぎらない 。 これは 、 動的
.にかわるというのを示唆しているとも Θ·んる あらかじめフィ ッ クス されているパ夕一'ンフ ァィルを むのではな < て 、 センサーからの値 によつて 、 />°夕一ンフ ァィルを動'的に作るとい よラなィ メージであ る
ズア一ツフ S 2 1 1 にてセンサ一優先ではなくパ夕.ーン優先モ一 選 されたときには、 上述した第 4 図の処理手順と同様である。
ステツプ S 2 1 1 、 ステツプ S 2 1 2 にてセンサー優先モ一ドが選 択されたとさについて説明する ン a ギングヒ合わせて楽曲が自動的. に選ばれて 'それに合わせて楽曲を白動的につなぐ場合である
サブルーチンとなつて るが センサ一の入力から楽曲とテンポを 決める (ステップ S 2 1 3 ) ステップ S 2 1 4 にて次の曲がある 'と 判定する と 、 ステッ プ S 2 1 5 にてマスタービー 卜テンポを設定する の場合 、 歩行のテンポから検出されて設定されたテンポとなる この場合は 、 曲のつなぎかたがあ らかじめ決められたものとはかぎら ないので、 白動的に決定する (ステップ S 2 1 6 ) 。 例えば 、 ジ 3 ギ ングモー ドならば全部ク ロスフ X ― でつなぐ安易なものや 、 次の曲 のメ夕デー夕を見て、 フエ一 ドィ ンしている曲なので、 そのまま ね る場合もある 。 ステップ S 2 1 7 以降の処理については第 4 図のステ ップ S 6 乃 ステッ プ S 1 5 と同一であるため説明を省略する。 このよう に 楽編集装置 1 1 0 によれば、 ン 3 ギングのテンポに □ わせた楽曲選択をし 、 さ らにそれら をノ ンス ップでつなぐこ とによ つてジョ ギングのテンショ ンやテンポを狂わせる こ となく快適にジ 3 ギングを楽しむこ とがでさる た 、 ジヨ ギングに限らず、 センサ一 によっては他の U ズミ力ルな ί£動 , (ダンスなど) や心拍に合わせた ヅクスなどが実現できる。
センサ一からの入力を使って、 曲を M択してさ らにそのテンポ.ちジ
3 ギングのテンポに合わせてやって、 リ. ッ クス してやる 白分の好 さな曲を自分のテンポに合わせて、 楽しむこ とができる。
また 、 タイマ一リ ミ ツクス再生'を行う ともできる。 例えば気に入 つたァルバムの曲や自分で作つたプレィ U ス トを通勤時間の 3 0 分の 間に聞きたいという要求がある。 従来であれば、 アルバムが 6 0 分で ある 合、 毎回 3 0分再生したところで 、 曲を途 停止する しかなか つたが 、 本発明のシステムを利用する し とで指定 'した楽曲集が 3 0 分 にちよ う どおさまるよう.にテンポおよび曲の使用す'る部分を選びリ ソクスする ことが可能となる。 ジヨ ギングと組み合わせる こ と でき る 3 0分だけ走り たいときに、 3 0分リ ミ ックスでジョ ギングテン ポで曲が鳴っているが、 3 0分でぴった Ό と曲が終わるよう にする サビだけを通勤時の 3 0 分に合う よう に リ ミ ッ クス し、 巨的地につ いたときにち よ Ό ど リ ミ ツ グスが終わるよう にする ことが可能である 、 同時に到着時刻付近ではテンポをだんだん遅く したり 、 特定 の S Eを重ねるなどしてそろそろ到着する という雰囲気を演出する こ ともでき ■© 。
以上に説明したよう に、 音楽編集装置 8 0及び 1 1 0 によれば、 楽 曲のつなぎ方をィ ン夕ーネッ 卜などで公開し、 それを他の人と共有し たり複数人で U ッ クスを作り上げ評価しあう といつた新しい音楽を 軸としたコ ミ 二ケ一シ ンが可能となる また、 メタデ一夕をイ ン ターネッ 卜上のサイ 卜から楽曲に対応させて持ってく ることもできる /し、 センサ一を利用して 、 よ り 自分の状況や状態にあつた音楽を 聴く ことができる
これらの特徴は、 これまでのフ。 '口ク U エー夕、 ミ ユーン 、 *シャ ンが作 つた作。¾をそのまま楽しむ とを当たり 前と してき 世界に一石を投 じ、 それら作品を自分の表現のための素材と して再利用 し再構成して 楽しむという新しい世界を 一ザに体験させる ことができる。
これによ り、 音楽に楽しみを見出す 3.一ザが増えれば音楽業界全体 が活性化される 立
た、 曰楽業界'側から見てもユーザ側で新たに再構 成するこ とを前提と した楽曲作品とそれ.を創出する新たなク リ エー夕 が登場する可能性がある 業界とユーザによって新しい音楽文化創造 の可能性がある
最後に 、 本発明の音楽編集装置の利用可能な特徴について記述する
。 この曰楽編集装置は、. .記憶装置に記録された複数 'の楽曲のテンポと ダウンビ一'卜を定められたタイ ミ ングに揃え、 複数の再生制御装置を 持する再生部において: 前記複数の楽曲をすベて同時に同期再生す る こ とを特徴と した楽曲生成 · 再生装置である。 また、 上記楽曲は曲 の全体あるい.は一部分を使用する こ とを特徴とする た 、 上 曲 は音楽的に構成ざれた一つの曲だけでなく 、 効果立
曰や会話、 アナゥン スなどの音声を含むこ とを特徴とする。
また 、 上記同期再生時に任意の楽曲に対して任思の楽曲開始位置、 任意の夕ィ ミ ングで自由に発音開始 停止ができる とを特徴とする
。 また 、 上記任意の位置、 任意のタイ ミ ングは特に小節単位、 拍単位
、 メ □ティ 構成単位での指定が可能なこ とを特徴とする
また 、 上記特徴を利用 し、 現在再生中の楽曲に対し異なる別の楽曲 の任意部分を任意のタイ ミ ングで同時に再生する こ とを可能とする。 同様に、 上記特徴を利用 し 、 現在再生中の楽曲の任意の部分で再生を 停止し、 途切れる こ となく 異なる別の楽曲の.任思部分を即座に再生開 始する こ とを可能とする。
また、 上記同期再生時に同時に再生中の各々の楽曲に対して、 個別 に音量調整可能なこ とを特徴とする。 上 己曰 里 整を利用 し、 上記同 時再生時に現在再生中の楽曲の音量を下げながら次の楽曲の音量を上 げながら同時に合成して再生する こ とを可能とする。
また、 上記同期再生時に同時に再生.中の各々の楽曲に対して 、 個別 に信号処理 よるエフ:ェク 卜処理 ' 適用でさる こ とを特徴とする ま た 、 上記同期再生は、 上目し'^;曲に対応レて前ちつて記録され,たテンポ
、 拍子、 ダウンビ一 ト位置、 メ □ディ構成変化位置情報などで構成さ れるメタデータをもとに夕イ ミ ング制御を行う ことを特徴とする また、 上記メ夕デ一夕は楽曲と同一のフ ァィルに記録されているか
、 別フ ァイルと して記録さ.れ楽曲との対応をつ 夕'ベースおよび識別 子を用いて管理する こ とを特徴とする。 また 、 上記同期再生時の楽曲 の範囲、 発音開始夕イ ミ ング、 立
曰量め制御方法、 エフェク ト処理 種 類は、 生成 · 再生方法を ti述したパターンフ ァィ.ルを別に用意し 、 そ れをもとに リアルタイ ムに再生制御を行う ことを特徴とする。
また、 上記テンポはュ一ザが指定するか本装置が自動的に決定する し とを特徴とする。 上記の本装置が自動的に決定するテンポとしてセ ンサ一からの入力データを使用する こ とを特徴とする。
上記センサーには加速度センサ一 、 ジャィ 口センサ一 、 心拍センサ 一 、 体温センサ一、 体動センサ一 、 脳波センサーなどあ らゆるセンサ 一を付加できる ことを特徴とする 。 上記パ夕 ―ンフ ァイルは本装置内 の記憶装置に記録されるだけでなく 、 外部記憶装置またはィ ン夕一ネ ヅ トから取得.可能なことを特徴とする。
本発明によれば、 ハー ドディ スクゃフラ ッ シュメモリ などの記憶媒 体に、 記録されている多数の楽曲の全体あるいは部分をビー トを揃え て重ねたりつなぐという編集を実現できる。 また、 楽曲の全体または 一部をリ アルタイムにその場その;場でつないで再生する ことができる

Claims

請求の範囲
1 . 楽曲デ一夕 に対応して予め生成された、 少な く と も時間軸上の ビ一ト位置を含むメ タデータ と、 リ ミ ッ クスパターンを決定する フ ァ ィ ルに基づいて リ ミ ッ クス処理を行う リ ミ ッ ク ス処理部と、 - ス夕一 ビー 卜 を生成し、 この 'マス ター ビー ト を上記 リ ミ ッ ク ス 処理部に送る と と も に、 上記 リ ミ ッ ク ス処理部が リ ミ ッ ク スパ夕一 ン とメ タデータ に応じて指示してきた リ ミ ッ ク ス処理に応じ、 各メ 夕丁 —夕 を用いて複数の楽曲を再生す.る同期再生制御部と、 上記同期再生制御部にて再生された楽曲を混合する混合部と を備える と を特徴とする音楽編集装置。
2 上記 リ ミ ッ ク ス処理部は、 上記メ タデ 夕 を処理する メ タ了 ― 夕処理部と、 上記 リ ミ ッ ク スパターンを読み込む リ ミ ッ クスパタ一 ン 5冗み込み部を備える こ と を特徴とする請求の範囲 1 記載の 楽 集 ft置 .
3 上記同期再生制御部は、 マスター ビー ト を生成し、 上記 リ ッ ク ス処理部に供給するマスター ビー ト 生成部と、 複数の楽曲の 尸 信号を生成する複数系統の音声信号生成部を備える こ と を特徴 と する請求の範囲 1 記載の音楽編集装置。
4 上記メ タ.データ を記愴している メ タデータ用記憶装置、 上記楽 曲 τ一夕 を記憶 している楽曲用記憶装置及び リ ミ ッ ク スパタ一ン を記憶してい る リ ミ ッ クスパター ン用記憶装置を備える こ と を特 徴とする請求の範囲 1 記載の音楽編集装置。
5 上記同期再生制御部は、 複数の楽曲の全体ある いは一部分を使 用する こ と を特徴とする請求の範囲 1 記載の音楽編集装置。
6 . 上記同期再生制御部の複数系統の各音声信号生成部は、 デコ一 ダ、 タイ ムス ト レ ツ チ装置を備える こ とを特徴とする請求の範囲 3 記載の音楽編集装置。
7 . ネ ッ ト ワーク通信装置をさ ら に備え、 上記メ 夕デ一夕 をネ ッ 卜 ヮーク 上のサーバか ら取得する こ と を特徴 とする請求の範囲 1 記 載の音楽編集装置。
8 . ネ ッ ト ワーク通信装置.をさ ら に備え、 上記 リ ミ ッ クスパター ン フ ア イ ルをネ ッ ト ワーク 上で共有する こ と を特徴 とする請求の範 囲 1 記載の音楽編集装置。
.
9 . ユーザの歩行又はジ ョ ギングのテンポを計測 して取得するセ ン サ二値取得部をさ ら に備え、 上記同期再生制御部は上記計測された テ ンポに基づいてマス タ一 ビー''ト テ ンポを生成する こ と を特徴 と する請求項 1 記載の音楽編集装置。 .
1 0 . 楽曲デ一夕 に対応して予め生成された、 少な く と も時間軸上
'の ビー ト位置を含むメ タデータ と、 リ ミ ッ クスパターンを決定する フ アイ ルに基づいて リ ミ ッ ク ス処理を行う リ ミ ッ クス処理工程と、 マス夕一 ビー ト を生成し、 このマス ター ビー ト を上記 リ ミ ッ ク ス 処理工程に送る と と も に、 上記 リ ミ ッ クス処理工程がリ ミ ッ ク スパ 夕ー ン と メ タデ一夕 に応 じて指示 してきた リ ミ ッ ク'ス処理に応 じ て複数の楽曲を再生する同期再生制御工程と、
上記同期再生制御工程にて再生された楽曲 を混合する混合工程 と '
を備える こ とを特徴とする音楽編集方法。
PCT/JP2006/324890 2005-12-09 2006-12-07 音楽編集装置及び音楽編集方法 WO2007066819A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP20060834645 EP1959429A4 (en) 2005-12-09 2006-12-07 MUSIC EDITING DEVICE AND MUSIC EDITING PROCEDURE
JP2007549215A JPWO2007066819A1 (ja) 2005-12-09 2006-12-07 音楽編集装置及び音楽編集方法
CN2006800457218A CN101322180B (zh) 2005-12-09 2006-12-07 音乐编辑装置和音乐编辑方法
US12/092,641 US7855333B2 (en) 2005-12-09 2006-12-07 Music edit device and music edit method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-356825 2005-12-09
JP2005356825 2005-12-09

Publications (1)

Publication Number Publication Date
WO2007066819A1 true WO2007066819A1 (ja) 2007-06-14

Family

ID=38122953

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/324890 WO2007066819A1 (ja) 2005-12-09 2006-12-07 音楽編集装置及び音楽編集方法

Country Status (6)

Country Link
US (1) US7855333B2 (ja)
EP (1) EP1959429A4 (ja)
JP (1) JPWO2007066819A1 (ja)
KR (1) KR20080074977A (ja)
CN (1) CN101322180B (ja)
WO (1) WO2007066819A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009038225A1 (ja) * 2007-09-19 2009-03-26 Sony Corporation コンテンツ再生装置及びコンテンツ再生方法
JP2010531464A (ja) * 2007-06-25 2010-09-24 ソニー エリクソン モバイル コミュニケーションズ, エービー 電子装置を用いて複数のソングを自動的にビートミックスするシステム及び方法
JP2011227212A (ja) * 2010-04-17 2011-11-10 Nl Giken Kk 電子オルゴール
JP2012103603A (ja) * 2010-11-12 2012-05-31 Sony Corp 情報処理装置、楽曲区間抽出方法、及びプログラム
JP2016085332A (ja) * 2014-10-24 2016-05-19 オンキヨー株式会社 音楽編集装置、及び、音楽編集プログラム
CN108202334A (zh) * 2018-03-22 2018-06-26 东华大学 一种能够识别音乐节拍和风格的舞蹈机器人
JP7564189B2 (ja) 2019-08-08 2024-10-08 ハーマン インターナショナル インダストリーズ インコーポレイテッド インテリジェントマッチングを実現し、リズミックトラックを追加する方法及びシステム

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002089111A1 (fr) * 2001-04-17 2002-11-07 Kabushiki Kaisha Kenwood Systeme de transfert d'informations sur un attribut, par exemple, de disque compact
WO2007066813A1 (ja) * 2005-12-09 2007-06-14 Sony Corporation 音楽編集装置、音楽編集情報の作成方法、並びに音楽編集情報が記録された記録媒体
JP5259083B2 (ja) * 2006-12-04 2013-08-07 ソニー株式会社 マッシュアップ用データの配布方法、マッシュアップ方法、マッシュアップ用データのサーバ装置およびマッシュアップ装置
JP5007563B2 (ja) * 2006-12-28 2012-08-22 ソニー株式会社 音楽編集装置および方法、並びに、プログラム
JP4311466B2 (ja) * 2007-03-28 2009-08-12 ヤマハ株式会社 演奏装置およびその制御方法を実現するプログラム
US7956274B2 (en) * 2007-03-28 2011-06-07 Yamaha Corporation Performance apparatus and storage medium therefor
US7915512B2 (en) * 2008-10-15 2011-03-29 Agere Systems, Inc. Method and apparatus for adjusting the cadence of music on a personal audio device
US9024166B2 (en) * 2010-09-09 2015-05-05 Harmonix Music Systems, Inc. Preventing subtractive track separation
JP5594052B2 (ja) * 2010-10-22 2014-09-24 ソニー株式会社 情報処理装置、楽曲再構成方法及びプログラム
US9070352B1 (en) * 2011-10-25 2015-06-30 Mixwolf LLC System and method for mixing song data using measure groupings
US9111519B1 (en) * 2011-10-26 2015-08-18 Mixwolf LLC System and method for generating cuepoints for mixing song data
GB201202565D0 (en) 2012-02-15 2012-03-28 British American Tobacco Co Packaging
JP2014052469A (ja) * 2012-09-06 2014-03-20 Sony Corp 音声処理装置、音声処理方法、及び、プログラム
US9070351B2 (en) * 2012-09-19 2015-06-30 Ujam Inc. Adjustment of song length
CN103928037B (zh) * 2013-01-10 2018-04-13 先锋高科技(上海)有限公司 一种音频切换方法及终端设备
US8927846B2 (en) * 2013-03-15 2015-01-06 Exomens System and method for analysis and creation of music
US9798974B2 (en) 2013-09-19 2017-10-24 Microsoft Technology Licensing, Llc Recommending audio sample combinations
US9280313B2 (en) * 2013-09-19 2016-03-08 Microsoft Technology Licensing, Llc Automatically expanding sets of audio samples
US9372925B2 (en) 2013-09-19 2016-06-21 Microsoft Technology Licensing, Llc Combining audio samples by automatically adjusting sample characteristics
US9257954B2 (en) 2013-09-19 2016-02-09 Microsoft Technology Licensing, Llc Automatic audio harmonization based on pitch distributions
US9613605B2 (en) * 2013-11-14 2017-04-04 Tunesplice, Llc Method, device and system for automatically adjusting a duration of a song
CN103902647A (zh) * 2013-12-27 2014-07-02 上海斐讯数据通信技术有限公司 一种应用于智能设备上的乐谱识别方法及智能设备
EP4218975A3 (en) 2015-05-19 2023-08-30 Harmonix Music Systems, Inc. Improvised guitar simulation
US10101960B2 (en) 2015-05-19 2018-10-16 Spotify Ab System for managing transitions between media content items
GB2581032B (en) * 2015-06-22 2020-11-04 Time Machine Capital Ltd System and method for onset detection in a digital signal
US9773486B2 (en) 2015-09-28 2017-09-26 Harmonix Music Systems, Inc. Vocal improvisation
US9799314B2 (en) 2015-09-28 2017-10-24 Harmonix Music Systems, Inc. Dynamic improvisational fill feature
US9502017B1 (en) * 2016-04-14 2016-11-22 Adobe Systems Incorporated Automatic audio remixing with repetition avoidance
GB2571340A (en) * 2018-02-26 2019-08-28 Ai Music Ltd Method of combining audio signals
CN108831425B (zh) 2018-06-22 2022-01-04 广州酷狗计算机科技有限公司 混音方法、装置及存储介质
KR102128315B1 (ko) 2018-06-25 2020-06-30 서울시립대학교 산학협력단 가상 악기 시각화 기반 미디 음악 편곡 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
CN110867174A (zh) * 2018-08-28 2020-03-06 努音有限公司 自动混音装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06342282A (ja) * 1993-04-08 1994-12-13 Sony Corp 音楽出力装置
JPH07295589A (ja) * 1994-04-22 1995-11-10 Yamaha Corp 波形処理装置
JP2000056780A (ja) * 1998-08-05 2000-02-25 Yamaha Corp カラオケ装置
JP2001109470A (ja) * 1999-10-13 2001-04-20 Yamaha Corp 自動演奏装置及び方法
JP2003044046A (ja) 2001-07-30 2003-02-14 Sony Corp 情報処理装置及び情報処理方法、並びに記憶媒体
JP2003050588A (ja) * 2001-08-06 2003-02-21 Pioneer Electronic Corp コンテンツ提供システムの管理サーバ装置、および端末装置
JP2003108132A (ja) * 2001-09-28 2003-04-11 Pioneer Electronic Corp オーディオ情報再生装置及びオーディオ情報再生システム
JP2004198759A (ja) * 2002-12-19 2004-07-15 Sony Computer Entertainment Inc 楽音再生装置及び楽音再生プログラム
JP2005156641A (ja) 2003-11-20 2005-06-16 Sony Corp 再生態様制御装置及び再生態様制御方法
JP2005303099A (ja) 2004-04-14 2005-10-27 Hitachi High-Technologies Corp プラズマ処理装置およびプラズマ処理方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2956569B2 (ja) * 1996-02-26 1999-10-04 ヤマハ株式会社 カラオケ装置
JP3861381B2 (ja) * 1997-06-13 2006-12-20 ヤマハ株式会社 カラオケ装置
JP2000244811A (ja) * 1999-02-23 2000-09-08 Makino Denki:Kk ミキシング方法およびミキシング装置
JP3570309B2 (ja) * 1999-09-24 2004-09-29 ヤマハ株式会社 リミックス装置および記憶媒体
JP4293712B2 (ja) * 1999-10-18 2009-07-08 ローランド株式会社 オーディオ波形再生装置
JP3843688B2 (ja) 2000-03-15 2006-11-08 ヤマハ株式会社 楽曲データ編集装置
JP3870671B2 (ja) 2000-06-26 2007-01-24 ヤマハ株式会社 携帯端末装置
JP2003022660A (ja) * 2001-07-05 2003-01-24 Kenwood Corp 記録再生装置および記録モード表示方法
JP2003114678A (ja) 2001-07-30 2003-04-18 Sony Corp 情報処理装置及び情報処理方法、並びに記憶媒体
JP2003114677A (ja) 2001-07-30 2003-04-18 Sony Corp 情報処理装置及び情報処理方法、並びに記憶媒体
US6933432B2 (en) 2002-03-28 2005-08-23 Koninklijke Philips Electronics N.V. Media player with “DJ” mode
US20030205124A1 (en) * 2002-05-01 2003-11-06 Foote Jonathan T. Method and system for retrieving and sequencing music by rhythmic similarity
JP2003345351A (ja) 2002-05-27 2003-12-03 Nec Corp デジタルコンテンツ編集システムおよびデジタルコンテンツ編集方法
US7208672B2 (en) * 2003-02-19 2007-04-24 Noam Camiel System and method for structuring and mixing audio tracks
US7521623B2 (en) * 2004-11-24 2009-04-21 Apple Inc. Music synchronization arrangement
US7189913B2 (en) * 2003-04-04 2007-03-13 Apple Computer, Inc. Method and apparatus for time compression and expansion of audio data with dynamic tempo change during playback
US20040254660A1 (en) * 2003-05-28 2004-12-16 Alan Seefeldt Method and device to process digital media streams
US7026536B2 (en) * 2004-03-25 2006-04-11 Microsoft Corporation Beat analysis of musical signals
US7592534B2 (en) * 2004-04-19 2009-09-22 Sony Computer Entertainment Inc. Music composition reproduction device and composite device including the same
US7518053B1 (en) * 2005-09-01 2009-04-14 Texas Instruments Incorporated Beat matching for portable audio
US20070074618A1 (en) * 2005-10-04 2007-04-05 Linda Vergo System and method for selecting music to guide a user through an activity
US20080097633A1 (en) * 2006-09-29 2008-04-24 Texas Instruments Incorporated Beat matching systems

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06342282A (ja) * 1993-04-08 1994-12-13 Sony Corp 音楽出力装置
JPH07295589A (ja) * 1994-04-22 1995-11-10 Yamaha Corp 波形処理装置
JP2000056780A (ja) * 1998-08-05 2000-02-25 Yamaha Corp カラオケ装置
JP2001109470A (ja) * 1999-10-13 2001-04-20 Yamaha Corp 自動演奏装置及び方法
JP2003044046A (ja) 2001-07-30 2003-02-14 Sony Corp 情報処理装置及び情報処理方法、並びに記憶媒体
JP2003050588A (ja) * 2001-08-06 2003-02-21 Pioneer Electronic Corp コンテンツ提供システムの管理サーバ装置、および端末装置
JP2003108132A (ja) * 2001-09-28 2003-04-11 Pioneer Electronic Corp オーディオ情報再生装置及びオーディオ情報再生システム
JP2004198759A (ja) * 2002-12-19 2004-07-15 Sony Computer Entertainment Inc 楽音再生装置及び楽音再生プログラム
JP2005156641A (ja) 2003-11-20 2005-06-16 Sony Corp 再生態様制御装置及び再生態様制御方法
JP2005303099A (ja) 2004-04-14 2005-10-27 Hitachi High-Technologies Corp プラズマ処理装置およびプラズマ処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1959429A4

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010531464A (ja) * 2007-06-25 2010-09-24 ソニー エリクソン モバイル コミュニケーションズ, エービー 電子装置を用いて複数のソングを自動的にビートミックスするシステム及び方法
WO2009038225A1 (ja) * 2007-09-19 2009-03-26 Sony Corporation コンテンツ再生装置及びコンテンツ再生方法
CN101802920B (zh) * 2007-09-19 2012-08-29 索尼公司 内容再现设备和内容再现方法
JP2011227212A (ja) * 2010-04-17 2011-11-10 Nl Giken Kk 電子オルゴール
JP2012103603A (ja) * 2010-11-12 2012-05-31 Sony Corp 情報処理装置、楽曲区間抽出方法、及びプログラム
JP2016085332A (ja) * 2014-10-24 2016-05-19 オンキヨー株式会社 音楽編集装置、及び、音楽編集プログラム
CN108202334A (zh) * 2018-03-22 2018-06-26 东华大学 一种能够识别音乐节拍和风格的舞蹈机器人
JP7564189B2 (ja) 2019-08-08 2024-10-08 ハーマン インターナショナル インダストリーズ インコーポレイテッド インテリジェントマッチングを実現し、リズミックトラックを追加する方法及びシステム

Also Published As

Publication number Publication date
US7855333B2 (en) 2010-12-21
EP1959429A1 (en) 2008-08-20
CN101322180B (zh) 2012-01-11
JPWO2007066819A1 (ja) 2009-05-21
EP1959429A4 (en) 2011-08-31
CN101322180A (zh) 2008-12-10
US20090133568A1 (en) 2009-05-28
KR20080074977A (ko) 2008-08-13

Similar Documents

Publication Publication Date Title
WO2007066819A1 (ja) 音楽編集装置及び音楽編集方法
KR101287984B1 (ko) 음악 편집 장치 및 음악 편집 방법
US7678983B2 (en) Music edit device, music edit information creating method, and recording medium where music edit information is recorded
Bartlett et al. Practical Recording Techniques: The step-by-step approach to professional audio recording
US20110112672A1 (en) Systems and Methods of Constructing a Library of Audio Segments of a Song and an Interface for Generating a User-Defined Rendition of the Song
JP2004212473A (ja) カラオケ装置及びカラオケ再生方法
JP4412128B2 (ja) 再生装置および再生方法
US20160054976A1 (en) Method for producing media contents in duet mode and apparatus used therein
WO2007060605A2 (en) Device for and method of processing audio data items
KR101029483B1 (ko) 멀티채널 오디오 파일을 이용한 음악 ucc 제작방법 및 그 장치
JP4481225B2 (ja) 重唱曲における模範歌唱の再生制御に特徴を有するカラオケ装置
JP3859200B2 (ja) ポータブルミキシング記録装置及びその制御方法並びにプログラム
JP2008216681A (ja) 録音した自分の歌声と模範歌唱とを厳しく比較できるカラオケ装置
KR100552605B1 (ko) 멀티 트랙 오디오 포맷 변환/재생 방법 및 시스템
JP2005033826A (ja) ポータブルミキシング記録装置及びプログラム
KR101562041B1 (ko) 듀엣 모드의 미디어 콘텐츠 제작 방법 및 이에 사용되는 미디어 콘텐츠 제작 장치
JP2005107285A (ja) 楽曲再生装置
JP3900576B2 (ja) 音楽情報再生装置
JP4267513B2 (ja) カラオケ録音装置
KR20110071192A (ko) 미디어 편집 장치, 미디어 편집 서비스 제공 방법, 및 이에 사용되는 웹서버
JP2007079413A (ja) オーディオ再生装置、オーディオ配信システム、オーディオ再生プログラムおよびオーサリングプログラム
JP2007133440A (ja) 音楽情報再生装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680045721.8

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
ENP Entry into the national phase

Ref document number: 2007549215

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 12092641

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 4011/DELNP/2008

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 2006834645

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020087013806

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: DE