JP7440651B2 - 音楽コンテンツの生成 - Google Patents
音楽コンテンツの生成 Download PDFInfo
- Publication number
- JP7440651B2 JP7440651B2 JP2022548683A JP2022548683A JP7440651B2 JP 7440651 B2 JP7440651 B2 JP 7440651B2 JP 2022548683 A JP2022548683 A JP 2022548683A JP 2022548683 A JP2022548683 A JP 2022548683A JP 7440651 B2 JP7440651 B2 JP 7440651B2
- Authority
- JP
- Japan
- Prior art keywords
- music
- audio
- content
- user
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 200
- 239000000203 mixture Substances 0.000 claims description 84
- 238000010801 machine learning Methods 0.000 claims description 80
- 239000011295 pitch Substances 0.000 claims description 58
- 238000004422 calculation algorithm Methods 0.000 claims description 45
- 230000015654 memory Effects 0.000 claims description 36
- 230000001020 rhythmical effect Effects 0.000 claims description 10
- 238000012360 testing method Methods 0.000 claims description 7
- -1 times Substances 0.000 claims 1
- 230000005236 sound signal Effects 0.000 description 57
- 238000012549 training Methods 0.000 description 41
- 235000019587 texture Nutrition 0.000 description 39
- 238000010586 diagram Methods 0.000 description 38
- 230000007613 environmental effect Effects 0.000 description 35
- 230000000694 effects Effects 0.000 description 34
- 238000013528 artificial neural network Methods 0.000 description 28
- 238000005516 engineering process Methods 0.000 description 28
- 238000012986 modification Methods 0.000 description 24
- 230000004048 modification Effects 0.000 description 24
- 230000008859 change Effects 0.000 description 22
- 238000004458 analytical method Methods 0.000 description 19
- 239000013598 vector Substances 0.000 description 19
- 230000006870 function Effects 0.000 description 18
- 238000013515 script Methods 0.000 description 18
- 230000001755 vocal effect Effects 0.000 description 18
- 230000033764 rhythmic process Effects 0.000 description 14
- 230000036651 mood Effects 0.000 description 13
- 238000013459 approach Methods 0.000 description 12
- 239000000872 buffer Substances 0.000 description 12
- 230000007704 transition Effects 0.000 description 12
- 238000000605 extraction Methods 0.000 description 11
- 239000003607 modifier Substances 0.000 description 11
- 238000003860 storage Methods 0.000 description 11
- 230000002123 temporal effect Effects 0.000 description 11
- 238000001514 detection method Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 230000003068 static effect Effects 0.000 description 9
- 230000003993 interaction Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000006399 behavior Effects 0.000 description 7
- 238000007726 management method Methods 0.000 description 7
- 238000004519 manufacturing process Methods 0.000 description 7
- 238000001914 filtration Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 230000007423 decrease Effects 0.000 description 5
- 230000002787 reinforcement Effects 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 230000001427 coherent effect Effects 0.000 description 4
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 238000002156 mixing Methods 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 210000003813 thumb Anatomy 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 238000007667 floating Methods 0.000 description 3
- 230000000670 limiting effect Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000013518 transcription Methods 0.000 description 3
- 230000035897 transcription Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 235000019580 granularity Nutrition 0.000 description 2
- 230000001976 improved effect Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000004800 psychological effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 235000019640 taste Nutrition 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000011144 upstream manufacturing Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 241001342895 Chorus Species 0.000 description 1
- 206010027951 Mood swings Diseases 0.000 description 1
- 208000003028 Stuttering Diseases 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000012550 audit Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- ZYXYTGQFPZEUFX-UHFFFAOYSA-N benzpyrimoxan Chemical compound O1C(OCCC1)C=1C(=NC=NC=1)OCC1=CC=C(C=C1)C(F)(F)F ZYXYTGQFPZEUFX-UHFFFAOYSA-N 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000002301 combined effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 210000003811 finger Anatomy 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000009532 heart rate measurement Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000001404 mediated effect Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 239000013642 negative control Substances 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 238000009527 percussion Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000001766 physiological effect Effects 0.000 description 1
- 239000013641 positive control Substances 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000011042 selective layering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 230000008093 supporting effect Effects 0.000 description 1
- 230000002459 sustained effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0025—Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B15/00—Systems controlled by a computer
- G05B15/02—Systems controlled by a computer electric
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/10—Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
- G06F21/105—Arrangements for software license management or administration, e.g. for managing licenses at corporate level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/10—Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
- G06F21/16—Program or content traceability, e.g. by watermarking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
- G10H1/0041—Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
- G10H1/0058—Transmission between separate instruments or between individual components of a musical system
- G10H1/0066—Transmission between separate instruments or between individual components of a musical system using a MIDI interface
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/02—Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
- G10H1/06—Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
- G10L21/12—Transforming into visible information by displaying time domain information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/06—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/06—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols the encryption apparatus using shift registers or memories for block-wise or stream coding, e.g. DES systems or RC4; Hash functions; Pseudorandom sequence generators
- H04L9/0618—Block ciphers, i.e. encrypting groups of characters of a plain text message using fixed encryption transformation
- H04L9/0637—Modes of operation, e.g. cipher block chaining [CBC], electronic codebook [ECB] or Galois/counter mode [GCM]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/06—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols the encryption apparatus using shift registers or memories for block-wise or stream coding, e.g. DES systems or RC4; Hash functions; Pseudorandom sequence generators
- H04L9/0643—Hash functions, e.g. MD5, SHA, HMAC or f9 MAC
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/076—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/111—Automatic composing, i.e. using predefined musical rules
- G10H2210/115—Automatic composing, i.e. using predefined musical rules using a random process to generate a musical note, phrase, sequence or structure
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/145—Composing rules, e.g. harmonic or musical rules, for use in automatic composition; Rule generation algorithms therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/091—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
- G10H2220/101—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
- G10H2220/126—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters for graphical editing of individual notes, parts or phrases represented as variable length segments on a 2D or 3D representation, e.g. graphical edition of musical collage, remix files or pianoroll representations of MIDI-like files
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/441—Image sensing, i.e. capturing images or optical patterns for musical purposes or musical control purposes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/011—Files or data streams containing coded musical information, e.g. for transmission
- G10H2240/046—File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
- G10H2240/056—MIDI or other note-oriented file format
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/131—Mathematical functions for musical analysis, processing, synthesis or composition
- G10H2250/215—Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
- G10H2250/235—Fourier transform; Discrete Fourier Transform [DFT]; Fast Fourier Transform [FFT]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/541—Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
- G10H2250/641—Waveform sampler, i.e. music samplers; Sampled music loop processing, wherein a loop is a sample of a performance that has been edited to repeat seamlessly without clicks or artifacts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/50—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols using hash chains, e.g. blockchains or hash trees
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Computer Security & Cryptography (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Automation & Control Theory (AREA)
- Technology Law (AREA)
- Computer Hardware Design (AREA)
- Computer Networks & Wireless Communication (AREA)
- Library & Information Science (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Power Engineering (AREA)
- Databases & Information Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
Description
図1は、幾つかの実施形態に従う、例示的な音楽生成器を示す図である。図示の実施形態では、音楽生成モジュール160は、複数の異なるソースから様々な情報を受信し、出力音楽コンテンツ140を生成する。
音楽生成モジュールは、複数の異なるアプリケーション、モジュール、記憶素子などと相互作用して音楽コンテンツを生成することができる。例えば、エンドユーザは、異なる種類のコンピューティングデバイス(例えば、モバイルデバイス、デスクトップコンピュータ、DJ機器など)のために、複数の種類のアプリケーションの1つをインストールすることができる。同様に、別のタイプのアプリケーションが、企業ユーザに提供されてもよい。音楽コンテンツを生成する間にアプリケーションと対話することにより、音楽生成器は、音楽コンテンツを生成するために使用される1つ以上のルールセットを更新するために、ターゲット音楽属性を決定するために使用される外部情報を受信することができる。1つ以上のアプリケーションとの対話に加えて、音楽生成モジュールは、ルールセット、更新ルールセットなどを受信するために他のモジュールと対話することができる。最後に、音楽生成モジュールは、一つ以上のルールセット、オーディオファイル、及び/又は一つ以上の記憶素子に記憶された生成された音楽コンテンツにアクセスすることができる。加えて、音楽生成モジュールは、ローカルであっても、ネットワーク(例えば、クラウドベース)を介してアクセスされてもよい、1つ以上の記憶素子に上記の項目のいずれかを記憶することができる。
本明細書に記載されるように、図1に示される音楽生成モジュール160は、出力音楽コンテンツ140を生成するために、種々の人工知能技術(例えば、機械学習技術)を実装することができる。様々な実施形態では、実施されるAI技術は、より伝統的な機械学習技術及び知識ベースのシステムと深層ニューラルネットワーク(DNN)の組み合わせを含む。この組み合わせは、これらの技術の各々の長所と短所を、音楽作曲やパーソナライズシステムに固有の課題に合わせることができる。音楽コンテンツは複数のレベルで構成されている。例えば、曲にはセクション、フレーズ、メロディ、音符、テクスチャがある。DNNは、音楽コンテンツの非常に高いレベルと非常に低いレベルの詳細を分析し生成するのに有効である。例えば、DNNは、サウンドのテクスチャをクラリネット又はエレキギターに属するものとして低レベルで分類したり、詩及び合唱を高レベルで検出したりすることができる。メロディの構築、オーケストレーション等のような、音楽コンテンツの詳細の中間レベルは、より困難である。DNNは、典型的には、単一モデルにおいて広範囲のスタイルを捕捉するのに優れており、従って、DNNは、多くの表現範囲を有する生成ツールとして実装され得る。
広く人気のある音楽は、リズム、質感、音程の組み合わせを有する場合が多い。(音楽生成器によって行われるように)曲中の各楽器について音符毎に音楽を生成するとき、ルールがこれらの組み合わせに基づいて実装され、コヒーレント音楽を作成することができる。一般に、ルールが厳格になればなるほど、クリエイティブなバリエーションの余地は少なくなり、既存の音楽のコピーを作成する可能性が高くなる。
様々な実施形態では、本明細書に記載されるように、音楽生成システムは、様々なパラメータに基づいてオーディオトラックを選択及び結合することによって、出力音楽コンテンツを自動的に生成するように構成される。本明細書に記載されているように、機械学習モデル(又は他のAI技術)が、音楽コンテンツを生成するために使用される。幾つかの実施態様では、AI技術は、特定のユーザのために音楽コンテンツをカスタマイズするために実施される。例えば、音楽生成システムは、音楽生成を個人化するための種々のタイプの適応制御を実施することができる。音楽生成をパーソナライズすることにより、AI技術によるコンテンツ生成に加えて、作曲者又は聴取者によるコンテンツ制御が可能になる。幾つかの実施形態では、ユーザが独自の制御要素を作成し、この制御要素は、音楽生成システムが、ユーザが作成した制御要素の意図した機能に応じて出力音楽コンテンツを生成するようにトレーニング(例えば、AI技術を用いて)することができる。例えば、ユーザは、音楽生成システムがユーザの好みに応じて音楽に影響を与えるようにトレーニングする制御要素を作成することができる。
多声音楽コンテンツ及び多様な楽器タイプに対してロバストなピッチ検出は、伝統的に達成することが困難である。エンドツーエンドの音楽転送を実装するツールは、オーディオレコーディングを行い、MIDIの形式で書かれたスコア、又はシンボル音楽表現を生成しようと試みることができる。ビートの配置やテンポについての知識がなければ、これらのツールは、音楽リズム構造、インスツルメンテーション、及びピッチを推測する必要がある。結果は変化する可能性があり、一般的な問題は、オーディオファイル内に存在しない短い音符があまりにも多く検出され、音符の高調波が基本ピッチとして検出されることである。
様々な実施形態では、リアルタイムで生成されたオーディオを管理するためのソフトウェアフレームワークは、特定のタイプの機能をサポートすることから利益を得ることができる。例えば、オーディオ処理ソフトウェアは、アナログハードウェアから継承されたモジュラ信号チェーンのメタファに従うことができ、そこでは、オーディオ生成及びオーディオエフェクトを提供する異なるモジュールが、オーディオ信号グラフに一緒にチェーンされる。個々のモジュールは、典型的には、モジュールの信号処理のリアルタイム変更を可能にする種々の連続パラメータを露出する。電子音楽の初期には、パラメータはそれ自体がアナログ信号であることが多く、従って、パラメータ処理チェーンと信号処理チェーンは一致した。デジタル革命以来、パラメータは別個のデジタル信号である傾向があった。
音楽技術ソフトウェアは、典型的には、作曲者/制作者が自動化によって様々な抽象的なエンベロープを制御することを可能にする。幾つかの実施形態では、自動化は、幾つかのオーディオ処理パラメータ(ボリューム、又は残響量など)の予めプログラムされた時間的操作である。自動化は、典型的には、手動で定義されたブレークポイントエンベロープ(例えば、区分的線形関数)又は正弦波のようなプログラマティック関数(別名、低周波発振器(LFO))のいずれかである。
・緊張状態(トラックの容量、歪みのレベルなど)で構築する。
・リズム(音量調整及び/又はゲート設定は、パッドなどにリズミカルな効果を与える)。
・メロディ(ピッチフィルタリングは、パッドなどに適用されるメロディの輪郭を模倣することができる)。
リアルタイムの音楽コンテンツ生成は、独特の課題を提起する可能性がある。例えば、厳しいリアルタイム制約のために、予測不可能で制限されない実行時間を持つ関数呼び出しやサブルーチンは避けるべきである。この問題を避けることは、ほとんどの高級プログラミング言語や、CやC++のような低級言語の大部分の使用を排除するかもしれない。ヒープからメモリを割り当てるもの(例えば、フードの下のmalloc)は、ミューテックスをロックするなどしてブロックする可能性があるものと同様に、除外することができる。これは、マルチスレッドプログラミングを、リアルタイム音楽コンテンツ生成において特に困難にする。ほとんどの標準的なメモリ管理アプローチも実行不可能である可能性があり、その結果、C++STLコンテナのような動的なデータ構造は、リアルタイムの音楽コンテンツ生成のための使用が制限されている。
・スレッド間通信は、ロックフリーのメッセージキューで処理してもよい。
・関数はプレインCで記述され、関数ポインタコールバックを利用する。
・メモリ管理は、カスタムの「ゾーン」又は「領域」を介して実装されてもよい。
・「2速度」システムは、リアルタイムのオーディオスレッド計算がオーディオレートで実行され、オーディオスレッドが「制御レート」で実行されるように制御されて実装されてもよい。制御オーディオスレッドは、リアルタイムオーディオスレッドがスムーズにランプするオーディオパラメータの変更目標を設定することができる。
開示されたシステムは、幾つかの実施形態では、生成された音楽又はその要素、例えば、ループ又はトラックについての情報を記録するために、ブロックチェーン又は他の暗号帳票のような安全な記録技術を利用することができる。幾つかの実施態様において、システムは、複数のオーディオファイル(例えば、トラック又はループ)を組み合わせて出力音楽コンテンツを生成する。この組み合わせは、少なくとも部分的に時間的にオーバーラップするように、音声コンテンツの複数の層を組み合わせることによって実行することができる。出力コンテンツは、音楽の個別の断片であってもよいし、連続的であってもよい。音楽要素の使用の追跡は、例えば、関連する利害関係者にロイヤルティを提供するために、継続的な音楽の文脈において困難を伴うことがある。従って、幾つかの実施形態では、開示されたシステムは、合成音楽コンテンツにおいて使用されるオーディオファイルの識別子及び使用情報(例えば、タイムスタンプ又は再生数)を記録する。さらに、開示されたシステムは、例えば、ブレンドされたオーディオファイルのコンテキストにおける再生時間を追跡するために、種々のアルゴリズムを利用することができる。
図20A~20Bは、幾つかの実施形態による、グラフィカルユーザインタフェースを示すブロック図である。図示の実施形態では、図20Aは、ユーザアプリケーション2010によって表示されるGUIを含み、図20Bは、エンタープライズアプリケーション2030によって表示されるGUIを含む。幾つかの実施態様において、図20A及び20Bに示されるGUIは、アプリケーションによってではなくウェブサイトによって生成される。様々な実施形態では、ダイヤル(例えば、容積、エネルギ等を制御するため)、ボタン、ノブ、表示ボックス(例えば、ユーザに更新された情報を提供するため)などの1つ以上の要素を含む、様々な適切な要素のいずれかが表示されてもよい。
図21-23は、音楽生成モジュール160の特定の実施形態に関する詳細を示す。これらの特定の実施例は、説明の目的で開示されているが、本開示の範囲を制限することを意図したものではないことに留意されたい。これらの実施形態では、ループからの音楽の構築は、パーソナルコンピュータ、モバイル装置、メディア装置などのクライアントシステムによって行われる。図21-23の説明で使用するように、「ループ」という用語は、「オーディオファイル」という用語と置き換えることができる。一般に、ループは、本明細書に記載されるように、オーディオファイルに含まれる。ループは、専門的にキュレートされたループパックに分割することができ、これをアーティストパックと呼ぶことができる。音楽プロパティについてループを分析し、そのプロパティをループメタデータとして格納することができる。構築されたトラック内のオーディオは、分析され(例えば、リアルタイムで)、フィルタリングされて、出力ストリームを混合し、マスターすることができる。様々なフィードバックがサーバに送られ、例えば、ユーザとスライダ又はボタンとのやりとりからの明示的なフィードバック、及び、例えば、音量変化に基づいて、聴取長さ、環境情報等に基づいて、センサによって生成される暗黙的なフィードバックを含む。幾つかの実施形態において、制御入力は、既知の効果を有し(例えば、直接的又は間接的に対象音楽属性を特定するため)、構成モジュールによって使用される。
図24は、幾つかの実施形態に係る台帳を使用するためのフローチャート方法である。図24に示す方法は、特に、本明細書に開示されているコンピュータ回路、システム、装置、素子、又は構成要素のいずれかと共に使用することができる。様々な実施形態では、図示されている方法要素の幾つかは、図示されているものとは異なる順序で同時に実施することができ、又は省略することもできる。追加の方法要素もまた、所望に応じて実行され得る。
セットA
(A1)
方法であって、
コンピュータシステムによって、複数のオーディオファイルの複数の画像表現を生成するステップであって、特定のオーディオファイルの画像表現が、前記特定のオーディオファイル内のデータ及び前記特定のオーディオファイルのMIDI表現に基づき生成される、ステップと、
前記複数の画像表現に基づき、前記オーディオファイルのうちの複数のオーディオファイルを選択するステップと、
前記オーディオファイルのうちの前記複数のオーディオファイルを組み合わせて出力音楽コンテンツを生成するステップと、
を含む方法。
(A2)
前記画像表現のピクセル値は、前記オーディオファイルの速度を表し、前記画像表現は、速度の解像度で圧縮される、セットA内の前述の項のいずれかの方法。
(A3)
前記画像表現が前記オーディオファイルの2次元表現である、セットA内の前述の項のいずれかの方法。
(A4)
ピッチは、前記2次元表現の行によって表され、時間は、前記2次元表現の列によって表され、前記2次元表現のピクセル値は、速度を表す、セットA内の前述の項のいずれかの方法。
(A5)
前記2次元表現は、幅32ピクセル×高さ24ピクセルであり、各ピクセルは、時間次元におけるビートの小部分を表す、セットA内の前述の項のいずれかの方法。
(A6)
ピッチ軸は、8オクターブの範囲で2個のオクターブセットにバンディングされ、ピクセルの最初の12行は、最初の4オクターブのうちのどれが表されるかを決定するピクセルのピクセル値を有する前記最初の4オクターブを表し、ピクセルの第2の12行は、第2の4オクターブのうちのどれが表されるかを決定するピクセルのピクセル値を有する前記第2の4オクターブを表す、セットA内の前述の項のいずれかの方法。
(A7)
時間軸に沿った奇数ピクセル値は、音符の開始を表し、前記時間軸に沿った偶数ピクセル値は、音符の継続を表す、セットA内の前述の項のいずれかの方法。
(A8)
前記複数の画像表現に基づき、前記オーディオファイルの複数のオーディオファイルを選択するために任意の前を設定つ以上の作曲ルールを適用するステップ、を更に含むセットA内の前述の項のいずれかの方法。
(A9)
1つ以上の作曲ルールを適用するステップは、第1の閾値を超える画像表現におけるピクセル値を除去すること、及び第2の閾値を下回る画像表現におけるピクセル値を除去することを含む、セットA内の前述の項のいずれかの方法。
(A10)
前記オーディオファイルのうちの前記複数のオーディオファイルを選択して結合し、前記出力音楽コンテンツを生成するために任意の前を設定つ以上の機械学習アルゴリズムを前記画像表現に適用するステップ、を更に含むセットA内の前述の項のいずれかの方法。
(A11)
前記出力音楽コンテンツにおけるハーモニ及びリズムコヒーレンスをテストするステップ、を更に含むセットA内の前述の項のいずれかの方法。
(A12)
前記複数の画像表現から単一の画像表現を生成するステップと、
前記複数のオーディオファイルから1つ以上のテクスチャ特徴を抽出するステップと、
前記抽出されたテクスチャ特徴の説明を前記単一の画像表現に追加するステップと、
を更に含むセットA内の前述の項のいずれかの方法。
(A13)
格納された命令を有する非一時的コンピュータ可読媒体であって、セットA内の前述の項のいずれかの方法によって実行される動作の任意の組み合わせを含む動作を実行するために、コンピューティング装置によって実行可能である、非一時的コンピュータ可読媒体。
(A14)
機器であって、
1つ以上のプロセッサと、
プログラム命令を格納された1つ以上のメモリと、
を含み、前記プログラム命令は、セットA内の前述の項のいずれかの方法によって実行される動作の任意の組み合わせを実行するために、前記1つ以上のプロセッサによって実行可能である、機器。
セットB
(B1)
方法であって、
コンピュータシステムにより、音楽コンテンツのセットにアクセスするステップと、
前記コンピュータシステムにより、前記音楽コンテンツのオーディオ信号の第1グラフを生成するステップであって、前記第1グラフは、時間に対するオーディオパラメータのグラフである、ステップと、
前記コンピュータシステムにより、前記音楽コンテンツの前記オーディオ信号の第2グラフを生成するステップであって、前記第2グラフは、ビートに対する前記オーディオパラメータの信号グラフである、ステップと、
前記コンピュータシステムにより、前記再生音楽コンテンツの中の前記オーディオパラメータを変更することによって、再生音楽コンテンツから新しい音楽コンテンツを生成するステップであって、前記オーディオパラメータは、前記第1グラフと前記第2グラフの組み合わせに基づき変更される、ステップと、
を含む方法。
(B2)
前記オーディオ信号の前記第2グラフが、前記オーディオ信号の前記第1グラフと同様の構造を有する、セットB内の前述の項のいずれかの方法。
(B3)
前記第1グラフ及び前記第2グラフ内の前記オーディオパラメータは、前記オーディオ信号の特性の変化を決定するグラフ内のノードによって定義される、セットB内の前述の項のいずれかの方法。
(B4)
新しい音楽コンテンツを生成するステップは、
再生音楽コンテンツを受信するステップと、再生音楽コンテンツ内のオーディオ信号に対応する第1グラフ内の第1ノードを決定するステップと、
第1ノードに対応する第2グラフ内の第2ノードを決定するステップと、第2ノードに基づいて1つ以上の特定のオーディオパラメータを決定するステップと、
特定のオーディオパラメータを変更することによって、再生音楽コンテンツ内のオーディオ信号の1つ以上のプロパティを変更するステップと、
を含む、セットB内の前述の項のいずれかの方法。
(B5)
前記第1ノードに基づき、1つ以上の追加の特定されたオーディオパラメータを決定するステップと、
前記追加の特定されたオーディオパラメータを修正することによって、前記再生音楽コンテンツにおける追加のオーディオ信号の1つ以上のプロパティを変更するステップと、
を更に含む、セットB内の前述の項のいずれかに記載の方法。
(B6)
前記1つ以上のオーディオパラメータを決定するステップは、
前記第2グラフ内の前記第2ノードの位置に基づき、前記オーディオパラメータを実現する前記第2グラフの一部分を決定するステップと、
前記第2グラフの前記決定された部分から前記オーディオパラメータを前記1つ以上オーディオ指定パラメータとして選択するステップと、
を含む、セットB内の前述の項のいずれかに記載の方法。
(B7)
前記1つ以上の特定されたオーディオパラメータを変更するステップは、前記第2グラフの決定された部分に対応する再生音楽コンテンツの部分を変更する、セットB内の前述の項のいずれかに記載の方法。
(B8)
前記再生音楽コンテンツにおける前記オーディオ信号の変更されるプロパティは、信号振幅、信号周波数、又はそれらの組み合わせを含む、セットB内の前述の項のいずれかに記載の方法。
(B9)
1つ以上の自動化を前記オーディオパラメータに適用するステップであって、前記自動化の少なくとも1つは、少なくとも1つのオーディオパラメータの予めプログラムされた時間的操作である、ステップ、を更に含むセットB内の前述の項のいずれかに記載の方法。
(B10)
前記オーディオパラメータに1つ以上の変調を適用するステップであって、前記変調のうちの少なくとも1つは、少なくとも1つの自動化の上に少なくとも1つのオーディオパラメータを乗算的に変更する、ステップ、を更に含むセットB内の前述の項のいずれかに記載の方法。
(B11)
前記コンピュータシステムによって、前記音楽コンテンツのセットに関連付けられた1つ以上のオブジェクトを記憶するためのヒープ割り当てメモリを提供するステップをさらに含み、前記1つ以上のオブジェクトは、前記オーディオ信号、前記第1グラフ、及び前記第2グラフのうちの少なくとも1つを含む、セットB内の前述の項のいずれかに記載の方法。
(B12)
前記1つ以上のオブジェクトを前記ヒープ割り当てメモリ内のデータ構造リストに格納するステップをさらに含み、前記データ構造リストは、前記オブジェクトのためのリンクの直列化リストを含む、セットB内の前述の項のいずれかに記載の方法。
(B13)
格納された命令を有する非一時的コンピュータ可読媒体であって、セットB内の前述の項のいずれかの方法によって実行される動作の任意の組み合わせを含む動作を実行するために、コンピューティング装置によって実行可能である、非一時的コンピュータ可読媒体。
(B14)
機器であって、
1つ以上のプロセッサと、
プログラム命令を格納された1つ以上のメモリと、
を含み、前記プログラム命令は、セットB内の前述の項のいずれかの方法によって実行される動作の任意の組み合わせを実行するために、前記1つ以上のプロセッサによって実行可能である、機器。
セットC
(C1)
方法であって、
コンピュータシステムによって複数のオーディオファイルにアクセスするステップと、
少なくとも1つのトレーニング済み機械学習アルゴリズムを用いて、2つ以上のオーディオファイルから音楽コンテンツを結合することによって出力音楽コンテンツを生成するステップと、
前記コンピュータシステムに関連するユーザインタフェース上で、前記生成された出力音楽コンテンツにおけるユーザ指定パラメータを変化させるためにユーザによって作成された制御要素を実装するステップと
を含み、
前記生成された出力音楽コンテンツにおける1つ以上のオーディオパラメータのレベルは、前記制御要素のレベルに基づき決定され、前記1つ以上のオーディオパラメータのレベルと前記制御要素のレベルとの間の関係は、少なくとも1つの音楽再生セッション中のユーザ入力に基づく、方法。
(C2)
前記音楽コンテンツの結合は、2つ以上のオーディオファイル内の音楽コンテンツに基づいて、前記少なくとも1つのトレーニング済み機械学習アルゴリズムによって決定される、セットC内の前述の項のいずれかの方法。
(C3)
前記少なくとも1つのトレーニング済み機械学習アルゴリズムは、前記2つ以上のオーディオファイル内の前記音楽コンテンツに基づいて、前記2つ以上のオーディオファイルから音楽コンテンツを順次選択することによって、前記音楽コンテンツを結合する、セットC内の前述の項のいずれかの方法。
(C4)
前記少なくとも1つのトレーニング済み機械学習アルゴリズムは、指定された時間まで再生された音楽コンテンツのメタデータに基づいて、前記指定された時間後に来るビートのための音楽コンテンツを選択するようにトレーニングされている、セットC内の前述の項のいずれかの方法。
(C5)
前記少なくとも1つのトレーニング済み機械学習アルゴリズムは、前記制御要素のレベルに基づいて、前記指定時間後に来るビートのための音楽コンテンツを選択するようにさらにトレーニングされている、セットC内の前述の項のいずれかの方法。
(C6)
前記1つ以上のオーディオパラメータのレベルと前記制御要素のレベルとの間の関係は、
前記少なくとも1つの音楽再生セッション中に複数のオーディオトラックを再生し、前記複数のオーディオトラックが変化するオーディオパラメータを有し、
前記オーディオトラックの各々について、前記オーディオトラック内の前記ユーザ指定パラメータのユーザが選択したレベルを指定する入力を受信し、
前記オーディオトラックの各々について、前記オーディオトラック内の1つ以上のオーディオパラメータのレベルを評価し、
前記ユーザ指定パラメータのユーザが選択したレベルの各々と前記1つ以上のオーディオパラメータの前記評価されたレベルの各々との間の相関に基づいて、前記1つ以上のオーディオパラメータのレベルと前記制御要素のレベルとの間の関係を決定する、
ことによって決定される、セットC内の前述の項のいずれかの方法。
(C7)
前記1つ以上のオーディオパラメータのレベルと前記制御要素のレベルとの間の前記関係は、1つ以上の機械学習アルゴリズムを使用して決定される、セットC内の前述の項のいずれかの方法。
(C8)
前記1つ以上のオーディオパラメータのレベルと前記制御要素のレベルとの前記関係を、前記生成された出力音楽コンテンツの再生中の前記制御要素のレベルのユーザ変動に基づいて微調整するステップ、を更に含むセットC内の前述の項のいずれかの方法。
(C9)
前記オーディオトラック内の前記1つ以上のオーディオパラメータのレベルは、前記オーディオトラックからのメタデータを使用して評価される、セットC内の前述の項のいずれかの方法。
(C10)
前記コンピュータシステムによって、1つ以上の環境条件に基づき、前記ユーザ指定パラメータのレベルを変化させるステップ、を更に含むセットC内の前述の項のいずれかの方法。
(C11)
前記コンピュータシステムに関連付けられた前記ユーザインタフェース上に、前記生成された出力音楽コンテンツ内の追加のユーザ指定パラメータの変動のために前記ユーザによって生成された少なくとも1つの追加制御要素を実装するステップを更に含み、前記追加ユーザ指定パラメータは、前記ユーザ指定パラメータのサブパラメータである、セットC内の前述の項のいずれかの方法。
(C12)
前記コンピュータシステムのメモリからの前記オーディオファイルにアクセスするステップを更に含み、前記ユーザは、前記アクセスされたオーディオファイルに対する権利を有する、セットC内の前述の項のいずれかの方法。
(C13)
格納された命令を有する非一時的コンピュータ可読媒体であって、セットC内の前述の項のいずれかの方法によって実行される動作の任意の組み合わせを含む動作を実行するために、コンピューティング装置によって実行可能である、非一時的コンピュータ可読媒体。
(C14)
機器であって、
1つ以上のプロセッサと、
プログラム命令を格納された1つ以上のメモリと、
を含み、前記プログラム命令は、セットC内の前述の項のいずれかの方法によって実行される動作の任意の組み合わせを実行するために、前記1つ以上のプロセッサによって実行可能である、機器。
セットD
(D1)
方法であって、
コンピュータシステムにより、音楽コンテンツミックスの再生データを決定するステップであって、前記再生データが前記音楽コンテンツミックスの再生の特徴を示し、前記音楽コンテンツミックスは、複数のオーディオトラックの決定された組み合わせを含む、ステップと、
前記コンピュータシステムにより、電子ブロックチェーン台帳データ構造に、前記音楽コンテンツミックス内の前記複数のオーディオトラックのうちの1つ以上に対する個々の再生データを指定する情報を記録するステップであって、個々のオーディオトラックに対する個々の再生データを指定する前記情報は、前記個々のオーディオトラックに対する使用データと、前記個々のオーディオトラックに関連する署名情報とを含む、ステップと、
を含む方法。
(D2)
前記使用データは、前記音楽コンテンツミックスの再生された時間又は前記音楽コンテンツミックスの再生された回数のうちの少なくとも1つを含む、セットD内の前述の項のいずれかの方法。
(D3)
前記音楽コンテンツミックスの前記再生データと、前記音楽コンテンツミックス内の個々のオーディオトラックを識別するデータとに基づき、前記個々のオーディオトラックの個々の再生データを指定する前記情報を決定するステップ、を更に含むセットD内の前述の項のいずれかの方法。
(D4)
前記音楽コンテンツミックス内の個々のオーディオトラックを識別するデータは、1つ以上の個々のオーディオトラックを含むことに関連して実行されるべき動作をも示すデータストアから検索され、前記記録は、前記示された動作の実行の証明の指示を記録することを含む、セットD内の前述の項のいずれかの方法。
(D5)
複数のオーディオトラックに関連付けられた複数のエンティティのための署名情報及び署名情報を指定するデータに基づき、前記個々のオーディオトラックに関連付けられた1つ以上のエンティティを識別するステップ、を更に含むセットD内の前述の項のいずれかの方法。
(D6)
前記電子ブロックチェーン台帳に記録された個々の再生データを特定する情報に基づき、前記複数のオーディオトラックに関連付けられた前記複数のエンティティに対する報酬を決定するステップ、を更に含むセットD内の前述の項のいずれかの方法。
(D7)
前記再生データは、前記音楽ミックスを生成するために使用される1つ以上の機械学習モジュールの使用データを含む、セットD内の前述の項のいずれかの方法。
(D8)
前記音楽コンテンツミックスの前記再生データを、少なくとも一時的に、再生装置によって格納するステップ、を更に含むセットD内の前述の項のいずれかの方法。
(D9)
前記格納された再生データが、周期的に、又はイベントに応答して、前記再生装置によって別のコンピュータシステムに通信される、D内の前述の項のいずれかの方法。
(D10)
前記再生装置によって、前記音楽コンテンツミックスの前記再生データを暗号化するステップ、を更に含むセットD内の前述の項のいずれかの方法。
(D11)
前記ブロックチェーン台帳は、公衆アクセス可能であり、不変である、セットD内の前述の項のいずれかの方法。
(D12)
元の音楽形式の前記音楽コンテンツミックスに含まれていない第1の個々のオーディオトラックの使用データを決定するステップ、を更に含むセットD内の前述の項のいずれかの方法。
(D13)
前記複数のオーディオトラックのうちの少なくとも2つにおけるオーディオのベクトル表現の間の補間に基づき、新しいオーディオトラックを生成するステップをさらに含み、
前記使用データを決定するステップは、前記第1の個々のオーディオトラックのベクトル表現と前記新しいオーディオトラックのベクトル表現との間の距離に基づく、セットD内の前述の項のいずれかの方法。
(D14)
格納された命令を有する非一時的コンピュータ可読媒体であって、セットD内の前述の項のいずれかの方法によって実行される動作の任意の組み合わせを含む動作を実行するために、コンピューティング装置によって実行可能である、非一時的コンピュータ可読媒体。
(D15)
機器であって、
1つ以上のプロセッサと、
プログラム命令を格納された1つ以上のメモリと、
を含み、前記プログラム命令は、セットD内の前述の項のいずれかの方法によって実行される動作の任意の組み合わせを実行するために、前記1つ以上のプロセッサによって実行可能である、機器。
セットE
(E1)
方法であって、
コンピューティングシステムによって、複数の異なるエンティティの複数のトラックを指定するデータを格納するステップであって、前記データは、前記複数の音楽トラックの各々のトラックに対する署名情報を含む、ステップと、
前記コンピューティングシステムによって、複数のトラックをレイヤリングして、出力音楽コンテンツを生成するステップと、
電子ブロックチェーン台帳データ構造に、前記レイヤリングに含まれるトラックを指定する情報と前記トラックの各々の署名情報とを記録するステップと、
を含む方法。
(E2)
前記ブロックチェーン台帳は、公衆アクセス可能であり、不変である、セットE内の項のいずれかの方法。
(E3)
前記署名情報と一致しないエンティティによる前記トラックのうちの1つの使用を検出するステップ、
を更に含むセットE内の項のいずれかの方法。
(E4)
方法であって、
コンピューティングシステムによって、複数の異なるエンティティに対して複数のトラックを指定するデータを格納するステップであって、前記データは、他のコンテンツにリンクするメタデータを含む、ステップと、
前記コンピューティングシステムによって、複数のトラックを選択及びレイヤリングして、出力音楽コンテンツを生成するステップと、
前記選択されたトラックの前記メタデータに基づき、前記出力音楽コンテンツに関連して出力されるコンテンツを検索するステップと、
を含む方法。
(E5)
前記他のコンテンツが視覚的広告を含む、セットE内の項のいずれかの方法。
(E6)
方法であって、
コンピューティングシステムによって、複数のトラックを指定するデータを格納するステップと、
前記コンピューティングシステムによって、複数の音楽例の出力を引き起こすステップと、
前記コンピューティングシステムによって、前記音楽例のうちの1つ以上が第1音楽パラメータを示すかどうかに関するユーザの意見を示すユーザ入力を受信するステップと、
前記受信するステップに基づき、前記ユーザのためのカスタムルール情報を格納するステップと、
前記コンピューティングシステムによって、前記第1音楽パラメータに対する調整を示すユーザ入力を受信するステップと、
前記コンピューティングシステムによって、前記カスタムルール情報に基づき、複数のトラックを選択し、レイヤリンクして、出力音楽コンテンツを生成するステップと、
を含む方法。
(E7)
前記ユーザが前記第1音楽パラメータの名前を指定する、セットE内の項のいずれかの方法。
(E8)
前記ユーザは、前記第1音楽パラメータの1つ以上の範囲に対する1つ以上の目標を指定し、前記選択するステップ及び前記レイヤリングするステップは、過去のフィードバック情報に基づく、セットE内の項のいずれかの方法。
(E9)
前記過去のフィードバック情報に基づき前記選択するステップ及び前記レイヤリングするステップが、1つ以上の目標を満たさなかったことを決定することに応答して、複数の他の音楽属性を調整し、1つ以上の目標に対する前記複数の他の音楽属性を調整することの効果を決定するステップ、を更に含むセットE内の項のいずれかの方法。
(E10)
前記目標がユーザの心拍数である、セットE内の項のいずれかの方法。
(E11)
前記選択するステップ及び前記レイヤリングするステップが、機械学習エンジンにより実行される、セットE内の項のいずれかの方法。
(E12)
前記機械学習エンジンをトレーニングするステップであって、複数のタイプのユーザ入力に基づき、教師モデルをトレーニングすることと、前記受信したユーザ入力に基づき、学生モデルをトレーニングすることとを含む、ステップを更に含むセットE内の項のいずれかの方法。
(E13)
方法であって、
コンピューティングシステムによって、複数のトラックを指定するデータを格納するステップと、
前記コンピューティングシステムによって、オーディオ装置が第1タイプの環境に位置することを決定するステップと、
前記オーディオ装置が前記第1タイプの環境の中に置かれている間、第1音楽パラメータを調整するユーザ入力を受信するステップと、
前記コンピューティングシステムによって、前記調整された第1音楽パラメータ及び前記第1タイプの環境に基づき、複数のトラックを選択し及びレイヤリングして、前記オーディオ装置を介して出力音楽コンテンツを生成するステップと、
前記コンピューティングシステムによって、前記オーディオ装置が第2タイプの環境に位置することを決定するステップと、
前記オーディオ装置が前記第2のタイプの環境に置かれている間、第1音楽パラメータを調整するユーザ入力を受信するステップと、
前記コンピューティングシステムによって、前記調整された第1音楽パラメータ及び前記第2タイプの環境に基づき、複数のトラックを選択及びレイヤリングして、前記オーディオ装置を介して音楽コンテンツを出力するステップと、
を含む方法。
(E14)
前記選択及びレイヤリングするステップは、前記オーディオ装置が前記第2タイプの環境にあるときより、前記オーディオ装置が前記第1タイプの環境にあるときの前記第1音楽パラメータに対する調整に基づき、異なる音楽属性を調整する、セットE内の項のいずれかの方法。
(E15)
方法であって、
コンピューティングシステムによって、複数のトラックを指定するデータを格納するステップと、
前記コンピューティングシステムによって、音楽コンテンツを指定するデータを格納するステップと、
前記格納された音楽コンテンツの1つ以上のパラメータを決定するステップと、
前記コンピューティングシステムによって、複数のトラックを選択及びレイヤリングして、前記格納された音楽コンテンツの1つ以上のパラメータに基づき、出力音楽コンテンツを生成するステップと、
前記出力音楽コンテンツ及び前記格納された音楽コンテンツの出力を、それらが時間的に重複するように引き起こすステップと、
を含む方法。
(E16)
方法であって、
コンピューティングシステムによって、複数のトラック及び対応するトラック属性を指定するデータを格納するステップと、
前記コンピューティングシステムによって、音楽コンテンツを指定するデータを格納するステップと、
前記記憶された音楽コンテンツの1つ以上のパラメータを決定し、前記格納された音楽コンテンツに含まれる1つ以上のトラックを決定するステップと、
前記コンピューティングシステムによって、前記格納されたトラックのうちのトラック及び前記決定されたトラックのうちのトラックを選択し、レイヤリングして、前記1つ以上のパラメータに基づき、出力音楽コンテンツを生成するステップと、
を含む方法。
(E17)
方法であって、
コンピューティングシステムによって、複数のトラックを指定するデータを格納するステップと、
前記コンピューティングシステムによって、出力音楽コンテンツを生成するために複数のトラックを選択及びレイヤリングするステップと、
を含み、
前記選択は、
最近使用されたトラックに基づき、将来の使用のためにトラックを選択するように構成されたニューラルネットワークモジュールと、
前記選択された構造に基づき、来たる出力音楽コンテンツのための構造を選択し、前記ニューラルネットワークモジュールを制約するように構成された1つ以上の階層的隠れマルコフモデルと、
の両方を使用して実行される、方法。
(E18)
前記出力音楽コンテンツに関する正又は負のユーザフィードバックに基づき、1つ以上の階層的隠れマルコフモデルをトレーニングするステップ、を更に含むセットE内の項のいずれかの方法。
(E19)
音楽コンテンツの複数の例に応答して提供されるユーザ選択に基づき、前記ニューラルネットワークモデルをトレーニングするステップ、を更に含むセットE内の項のいずれかの方法。
(E20)
前記ニューラルネットワークモジュールが、少なくとも1つのグローバルにトレーニングされた層と、特定のユーザアカウントからのフィードバックに基づき、具体的にトレーニングされた少なくとも1つの層とを含む複数の層を含む、セットE内の項のいずれかの方法。
(E21)
方法であって、
コンピューティングシステムによって、複数のトラックを指定するデータを格納するステップと、
前記コンピューティングシステムによって、複数のトラックを選択及びレイヤリングして出力音楽コンテンツを生成するステップと、
を含み、前記選択は、グローバルにトレーニングされた機械学習モジュール及びローカルにトレーニングされた機械学習モジュールの両方を使用して実行される方法。
(E22)
複数のユーザアカウントからのフィードバックを使用して、前記グローバルにトレーニングされた機械学習モジュールをトレーニングし、単一のユーザアカウントからのフィードバックに基づき、ローカルにトレーニングされた機械学習モジュールをトレーニングするステップ、を含むセットE内の項のいずれかの方法。
(E23)
前記グローバルトレーニングされた機械学習モジュールと前記ローカルトレーニングされた機械学習モジュールの両方が、音楽属性のユーザ調整に基づく出力情報を提供する、セットE内の項のいずれかの方法。
(E24)
前記グローバルトレーニングされた機械学習モジュールとローカルトレーニングされた機械学習モジュールが、ニューラルネットワークの異なる層に含まれる、セットE内の項のいずれかの方法。
(E25)
方法であって、
上位レベルの音楽作曲パラメータの値を示す第1ユーザ入力を受信するステップと、
前記上位レベルの音楽作曲パラメータの値に基づき、オーディオトラックを自動的に選択及び結合するステップであって、音楽コンテンツを出力する間に、上位レベルの音楽作曲パラメータに関連付けられた1つ以上のサブパラメータの複数の値を使用することを含む、ステップと、
前記1つ以上のサブパラメータの1つ以上の値を示す第2ユーザ入力を受信するステップと、
前記第2ユーザ入力に基づき、前記自動的に選択及び結合するステップと、
を含む方法。
(E26)
前記上位レベルの音楽作曲パラメータは、エネルギパラメータであり、前記1つ以上のサブパラメータは、テンポ、レイヤ数、ボーカルパラメータ、又は低音パラメータを含む、セットE内の項のいずれかの方法。
(E27)
方法であって、
コンピューティングシステムによってスコア情報にアクセスするステップと、
前記コンピューティングシステムによって、前記スコア情報に基づき、音楽コンテンツを合成するステップと、
前記音楽コンテンツを分析して、異なる時点における複数の周波数ビンに関する周波数情報を生成するステップと、
機械学習エンジンをトレーニングするステップであって、前記周波数情報を入力することと、前記スコア情報を前記トレーニングのためのラベルとして使用することとを含む、ステップと、
を含む方法。
(E28)
前記トレーニングされた機械学習エンジンに音楽コンテンツを入力するステップと、
前記機械学習エンジンを使用して、前記音楽コンテンツのスコア情報を生成するステップと、
をさらに含み、前記生成されたスコア情報は、異なる時点における複数の周波数ビンの周波数情報を含む、セットE内の項のいずれかの方法。
(E29)
前記異なる時点がそれらの間に一定の距離を有する、セットE内の項のいずれかの方法。
(E30)
前記異なる時点が前記音楽コンテンツのビートに対応する、セットE内の項のいずれかの方法。
(E31)
前記機械学習エンジンは、畳み込み層及び再帰層を含む、セットE内の項のいずれかの方法。
(E32)
前記周波数情報が、前記音楽コンテンツがある時点における周波数ビンにコンテンツを含んでいるかどうかのバイナリ指示を含む、セットE内の項のいずれかの方法。
(E33)
前記音楽コンテンツが複数の異なる楽器を含む、セットE内の項のいずれかの方法。
Claims (20)
- 方法であって、
コンピュータシステムによって、複数のオーディオファイルの複数の画像表現を生成するステップであって、特定のオーディオファイルの画像表現が、前記特定のオーディオファイル内の音楽の再生のためのデータ及び前記特定のオーディオファイル内の音符のピッチ、時間、速度データを示すMIDI表現に基づき生成される、ステップと、
前記複数の画像表現を結合することにより単一の画像表現を生成するステップと、
前記単一の画像表現に結合された前記複数の画像表現に基づき、前記オーディオファイルのうちの複数のオーディオファイルを選択するステップと、
前記オーディオファイルのうちの前記複数のオーディオファイルを組み合わせて出力音楽コンテンツを生成するステップと、
を含む方法。 - 前記画像表現におけるピクセル値は、前記オーディオファイル内の音符の速度を表し、前記画像表現は、速度の解像度で圧縮される、請求項1に記載の方法。
- 前記画像表現が前記オーディオファイルの2次元表現である、請求項1に記載の方法。
- ピッチは、前記2次元表現の行によって表され、時間は、前記2次元表現の列によって表され、前記2次元表現のピクセル値は、前記オーディオファイル内の音符の速度を表す、請求項3に記載の方法。
- 前記2次元表現は、幅32ピクセル×高さ24ピクセルであり、各ピクセルは、時間次元におけるビートの小部分を表す、請求項4に記載の方法。
- ピッチ軸は、8オクターブの範囲で2個のオクターブセットにバンディングされ、ピクセルの最初の12行は、最初の4オクターブのうちのどれが表されるかを決定するピクセルのピクセル値を有する前記最初の4オクターブを表し、ピクセルの第2の12行は、第2の4オクターブのうちのどれが表されるかを決定するピクセルのピクセル値を有する前記第2の4オクターブを表す、請求項4に記載の方法。
- 時間軸に沿ったピクセル座標が奇数であるピクセルのピクセル値は、音符の開始を表し、前記時間軸に沿ったピクセル座標が偶数であるピクセルのピクセル値は、音符の継続を表す、請求項4に記載の方法。
- 前記複数の画像表現に基づき、前記オーディオファイルの複数のオーディオファイルを選択するために、1つ以上の作曲ルールを適用するステップ、を更に含む請求項1に記載の方法。
- 1つ以上の作曲ルールを適用するステップは、ピッチ軸におけるピクセル座標が第1の閾値を超える画像表現におけるピクセル値を除去すること、及び前記ピッチ軸におけるピクセル座標が第2の閾値を下回る画像表現におけるピクセル値を除去することを含む、請求項8に記載の方法。
- 前記オーディオファイルのうちの前記複数のオーディオファイルを選択して結合し、前記出力音楽コンテンツを生成するために、1つ以上の機械学習アルゴリズムを前記画像表現に適用するステップ、を更に含む請求項1に記載の方法。
- 前記出力音楽コンテンツにおけるハーモニ及びリズムコヒーレンスをテストするステップ、を更に含む請求項10に記載の方法。
- 前記方法は、前記複数の画像表現から単一の画像表現を生成するステップの後に、
前記複数のオーディオファイルから1つ以上のテクスチャ特徴を抽出するステップと、
前記抽出されたテクスチャ特徴の説明を前記単一の画像表現に付加するステップと、
を更に含む請求項1に記載の方法。 - 格納された命令を有する非一時的コンピュータ可読媒体であって、前記命令は以下の動作:
複数のオーディオファイルの複数の画像表現を生成するステップであって、特定のオーディオファイルの画像表現が、前記特定のオーディオファイル内の音楽の再生のためのデータ及び前記特定のオーディオファイル内の音符のピッチ、時間、速度データを示すMIDI表現に基づき生成される、ステップと、
前記複数の画像表現を結合することにより単一の画像表現を生成するステップと、
前記単一の画像表現に結合された前記複数の画像表現に基づき、前記オーディオファイルのうちの複数のオーディオファイルを選択するステップと、
前記オーディオファイルのうちの前記複数のオーディオファイルを組み合わせて出力音楽コンテンツを生成するステップと、
を実行するためにコンピューティング装置により実行可能である、非一時的コンピュータ可読媒体。 - 前記画像表現は、ピッチが行によって表され時間が列によって表される前記オーディオファイルの2次元表現であり、前記画像表現におけるピクセルのピクセル値は、前記特定のオーディオファイルの前記MIDI表現からの音符の速度を表す、請求項13に記載の非一時的コンピュータ可読媒体。
- 各ピクセルが時間次元におけるビートの小部分を表す、請求項14に記載の非一時的コンピュータ可読媒体。
- 前記動作は、前記複数の画像表現から単一の画像表現を生成するステップの後に、
前記単一の画像表現にテクスチャ特徴の説明を付加するステップであって、前記テクスチャ特徴は前記複数のオーディオファイルから抽出される、ステップと、
を更に含む請求項13に記載の非一時的コンピュータ可読媒体。 - 前記複数のオーディオファイルと共に前記単一の画像表現を格納するステップ、を更に含む請求項16に記載の非一時的コンピュータ可読媒体。
- 前記単一の画像表現に1つ以上の作曲ルールを適用することによって、前記オーディオファイルのうちの前記複数のオーディオファイルを選択するステップ、を更に含む請求項16に記載の非一時的コンピュータ可読媒体。
- 機器であって、
1つ以上のプロセッサと、
格納されたプログラム命令を有する1つ以上のメモリと、
を含み、前記プログラム命令は以下:
複数のオーディオファイルの複数の画像表現を生成し、特定のオーディオファイルの画像表現が、前記特定のオーディオファイル内の音楽の再生のためのデータ及び前記特定のオーディオファイル内の音符のピッチ、時間、速度データを示すMIDI表現に基づき生成され、
前記複数の画像表現を結合することにより単一の画像表現を生成し、
前記単一の画像表現に結合された前記複数の画像表現に基づき、前記オーディオファイルのうちの複数のオーディオファイルを選択し、
前記オーディオファイルのうちの前記複数のオーディオファイルを組み合わせて出力音楽コンテンツを生成する、
ために前記1つ以上のプロセッサにより実行可能である、機器。 - 前記1つ以上のメモリに格納された前記プログラム命令は、生成された出力音楽コンテンツを再生するために、前記1つ以上のプロセッサによって実行可能である、請求項19に記載の機器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024020800A JP2024069216A (ja) | 2020-02-11 | 2024-02-15 | 音楽コンテンツの生成 |
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062972711P | 2020-02-11 | 2020-02-11 | |
US62/972,711 | 2020-02-11 | ||
US202063028233P | 2020-05-21 | 2020-05-21 | |
US63/028,233 | 2020-05-21 | ||
US202063068431P | 2020-08-21 | 2020-08-21 | |
US202063068433P | 2020-08-21 | 2020-08-21 | |
US63/068,431 | 2020-08-21 | ||
US63/068,433 | 2020-08-21 | ||
PCT/US2021/017722 WO2021163377A1 (en) | 2020-02-11 | 2021-02-11 | Music content generation |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024020800A Division JP2024069216A (ja) | 2020-02-11 | 2024-02-15 | 音楽コンテンツの生成 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023513586A JP2023513586A (ja) | 2023-03-31 |
JP7440651B2 true JP7440651B2 (ja) | 2024-02-28 |
Family
ID=74860461
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022548683A Active JP7440651B2 (ja) | 2020-02-11 | 2021-02-11 | 音楽コンテンツの生成 |
JP2024020800A Pending JP2024069216A (ja) | 2020-02-11 | 2024-02-15 | 音楽コンテンツの生成 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024020800A Pending JP2024069216A (ja) | 2020-02-11 | 2024-02-15 | 音楽コンテンツの生成 |
Country Status (6)
Country | Link |
---|---|
US (5) | US11914919B2 (ja) |
EP (1) | EP4104072A1 (ja) |
JP (2) | JP7440651B2 (ja) |
KR (1) | KR20220128672A (ja) |
CN (1) | CN115066681A (ja) |
WO (1) | WO2021163377A1 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109599079B (zh) * | 2017-09-30 | 2022-09-23 | 腾讯科技(深圳)有限公司 | 一种音乐的生成方法和装置 |
KR102459109B1 (ko) * | 2018-05-24 | 2022-10-27 | 에이미 인코퍼레이티드 | 음악 생성기 |
IT201800008080A1 (it) * | 2018-08-13 | 2020-02-13 | Viscount Int Spa | Sistema per la generazione di suono sintetizzato in strumenti musicali. |
CN113767644B (zh) * | 2019-04-22 | 2024-01-09 | 索可立谱公司 | 自动的音频-视频内容生成 |
US11232773B2 (en) * | 2019-05-07 | 2022-01-25 | Bellevue Investments Gmbh & Co. Kgaa | Method and system for AI controlled loop based song construction |
US20210090535A1 (en) * | 2019-09-24 | 2021-03-25 | Secret Chord Laboratories, Inc. | Computing orders of modeled expectation across features of media |
CN115066681A (zh) | 2020-02-11 | 2022-09-16 | 艾米有限公司 | 音乐内容生成 |
US11430420B2 (en) * | 2020-04-29 | 2022-08-30 | At&T Intellectual Property L, L.P. | System for ledger and parametric marketplace for algorithmic content creations |
US11670322B2 (en) * | 2020-07-29 | 2023-06-06 | Distributed Creation Inc. | Method and system for learning and using latent-space representations of audio signals for audio content-based retrieval |
US11593059B2 (en) * | 2020-08-26 | 2023-02-28 | Spotify Ab | Systems and methods for generating recommendations in a digital audio workstation |
US11929051B2 (en) * | 2020-10-01 | 2024-03-12 | General Motors Llc | Environment awareness system for experiencing an environment through music |
US11183160B1 (en) * | 2021-02-16 | 2021-11-23 | Wonder Inventions, Llc | Musical composition file generation and management system |
US20220374625A1 (en) * | 2021-05-07 | 2022-11-24 | Google Llc | Machine-Learned Models for Unsupervised Image Transformation and Retrieval |
US11954318B2 (en) * | 2022-02-20 | 2024-04-09 | Monday.com Ltd. | Dynamically adjusting GUI elements to reflect user multi-selection |
US20230394966A1 (en) * | 2022-06-06 | 2023-12-07 | International Business Machines Corporation | Adaptive sound generation |
KR102636709B1 (ko) * | 2023-09-14 | 2024-02-14 | 주식회사 포자랩스 | 강화 학습을 이용한 오디오 생성 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006084749A (ja) | 2004-09-16 | 2006-03-30 | Sony Corp | コンテンツ生成装置およびコンテンツ生成方法 |
JP2009020387A (ja) | 2007-07-13 | 2009-01-29 | Yamaha Corp | 楽曲を制作するための装置およびプログラム |
JP2015011146A (ja) | 2013-06-28 | 2015-01-19 | ヤマハ株式会社 | 音響処理装置 |
JP2015099358A (ja) | 2013-10-17 | 2015-05-28 | ヤマハ株式会社 | 楽音情報を処理する装置およびプログラム |
Family Cites Families (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2559390B2 (ja) | 1987-01-28 | 1996-12-04 | 株式会社日立製作所 | 音・画像変換装置 |
US5963916A (en) | 1990-09-13 | 1999-10-05 | Intouch Group, Inc. | Network apparatus and method for preview of music products and compilation of market data |
KR940004830B1 (ko) | 1991-03-14 | 1994-06-01 | 주식회사 금성사 | 연주용 데이타화일 기록방법 및 재생장치 |
JPH06102890A (ja) * | 1992-09-22 | 1994-04-15 | Pioneer Electron Corp | カラオケシステム |
JPH08293039A (ja) | 1995-04-24 | 1996-11-05 | Matsushita Electric Ind Co Ltd | 音楽画像変換装置 |
AUPP547898A0 (en) | 1998-08-26 | 1998-09-17 | Canon Kabushiki Kaisha | System and method for automatic music generation |
FR2785438A1 (fr) | 1998-09-24 | 2000-05-05 | Baron Rene Louis | Procede et dispositif de generation musicale |
US7169996B2 (en) | 2002-11-12 | 2007-01-30 | Medialab Solutions Llc | Systems and methods for generating music using data/music data file transmitted/received via a network |
US7653550B2 (en) * | 2003-04-04 | 2010-01-26 | Apple Inc. | Interface for providing modeless timeline based selection of an audio or video file |
US7601904B2 (en) | 2005-08-03 | 2009-10-13 | Richard Dreyfuss | Interactive tool and appertaining method for creating a graphical music display |
JPWO2007026666A1 (ja) | 2005-08-31 | 2009-03-26 | パナソニック株式会社 | コンテンツの属性に対する管理情報を格納する記録媒体、そのような記録媒体に対する記録装置及び再生装置 |
US7491878B2 (en) | 2006-03-10 | 2009-02-17 | Sony Corporation | Method and apparatus for automatically creating musical compositions |
US7541534B2 (en) | 2006-10-23 | 2009-06-02 | Adobe Systems Incorporated | Methods and apparatus for rendering audio data |
JP2010508626A (ja) | 2006-10-31 | 2010-03-18 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | オーディオ信号に応じた照明制御 |
JP5259075B2 (ja) | 2006-11-28 | 2013-08-07 | ソニー株式会社 | マッシュアップ装置およびコンテンツの作成方法 |
US8280539B2 (en) | 2007-04-06 | 2012-10-02 | The Echo Nest Corporation | Method and apparatus for automatically segueing between audio tracks |
JP4467601B2 (ja) | 2007-05-08 | 2010-05-26 | ソニー株式会社 | ビート強調装置、音声出力装置、電子機器、およびビート出力方法 |
JP2009063714A (ja) * | 2007-09-05 | 2009-03-26 | Sony Computer Entertainment Inc | オーディオ再生装置およびオーディオ早送り再生方法 |
US8173883B2 (en) | 2007-10-24 | 2012-05-08 | Funk Machine Inc. | Personalized music remixing |
US8426715B2 (en) | 2007-12-17 | 2013-04-23 | Microsoft Corporation | Client-side audio signal mixing on low computational power player using beat metadata |
US20090164034A1 (en) | 2007-12-19 | 2009-06-25 | Dopetracks, Llc | Web-based performance collaborations based on multimedia-content sharing |
US10311446B2 (en) | 2008-12-05 | 2019-06-04 | Nokia Technologies Oy | Method and apparatus for obfuscating context information |
US8035023B2 (en) | 2009-08-25 | 2011-10-11 | Volkswagen Ag | Predictive environment music playlist selection |
JP5949544B2 (ja) | 2010-12-01 | 2016-07-06 | ヤマハ株式会社 | リズムパターンの類似度に基づく楽音データの検索 |
CN102903375B (zh) | 2011-07-25 | 2017-06-13 | 富泰华工业(深圳)有限公司 | 音乐播放装置及播放方法 |
US20150347971A1 (en) | 2011-12-29 | 2015-12-03 | Brandon E. D'Amore | Systems and methods of creative work collaborative systems |
WO2014028891A1 (en) | 2012-08-17 | 2014-02-20 | Be Labs, Llc | Music generator |
US8927846B2 (en) | 2013-03-15 | 2015-01-06 | Exomens | System and method for analysis and creation of music |
KR20140114238A (ko) * | 2013-03-18 | 2014-09-26 | 삼성전자주식회사 | 오디오와 결합된 이미지 표시 방법 |
JP6197631B2 (ja) | 2013-12-19 | 2017-09-20 | ヤマハ株式会社 | 楽譜解析装置および楽譜解析方法 |
KR20150072597A (ko) * | 2013-12-20 | 2015-06-30 | 삼성전자주식회사 | 멀티미디어 장치 및 이의 음악 작곡 방법, 그리고 노래 보정 방법 |
US9207857B2 (en) | 2014-02-14 | 2015-12-08 | EyeGroove, Inc. | Methods and devices for presenting interactive media items |
US20160379611A1 (en) | 2015-06-23 | 2016-12-29 | Medialab Solutions Corp. | Systems and Method for Music Remixing |
WO2017031421A1 (en) | 2015-08-20 | 2017-02-23 | Elkins Roy | Systems and methods for visual image audio composition based on user input |
US10388321B2 (en) | 2015-08-26 | 2019-08-20 | Twitter, Inc. | Looping audio-visual file generation based on audio and video analysis |
US9721551B2 (en) * | 2015-09-29 | 2017-08-01 | Amper Music, Inc. | Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions |
US9977645B2 (en) * | 2015-10-01 | 2018-05-22 | Moodelizer Ab | Dynamic modification of audio content |
US10068556B2 (en) | 2015-11-18 | 2018-09-04 | Pandora Media, Inc. | Procedurally generating background music for sponsored audio |
US10121249B2 (en) | 2016-04-01 | 2018-11-06 | Baja Education, Inc. | Enhanced visualization of areas of interest in image data |
US9799312B1 (en) * | 2016-06-10 | 2017-10-24 | International Business Machines Corporation | Composing music using foresight and planning |
KR102519302B1 (ko) | 2016-12-20 | 2023-04-06 | 어픽스 프로젝트 인크. | 다수의 디바이스들에 걸쳐 이미지들을 디스플레이하기 위한 시스템들 및 방법들 |
CN110249387B (zh) * | 2017-02-06 | 2021-06-08 | 柯达阿拉里斯股份有限公司 | 用于创建伴随视觉影像的音频轨的方法 |
KR102459109B1 (ko) | 2018-05-24 | 2022-10-27 | 에이미 인코퍼레이티드 | 음악 생성기 |
US11972746B2 (en) * | 2018-09-14 | 2024-04-30 | Bellevue Investments Gmbh & Co. Kgaa | Method and system for hybrid AI-based song construction |
US11361741B2 (en) | 2019-06-21 | 2022-06-14 | Obeebo Labs Ltd. | Systems, devices, and methods for harmonic structure in digital representations of music |
CN110444185B (zh) | 2019-08-05 | 2024-01-12 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种音乐生成方法及装置 |
CN115066681A (zh) | 2020-02-11 | 2022-09-16 | 艾米有限公司 | 音乐内容生成 |
WO2022040410A1 (en) | 2020-08-21 | 2022-02-24 | Aimi Inc. | Comparison training for music generator |
CN115331648A (zh) | 2022-08-03 | 2022-11-11 | 腾讯科技(深圳)有限公司 | 音频数据处理方法、装置、设备、存储介质及产品 |
-
2021
- 2021-02-11 CN CN202180013939.XA patent/CN115066681A/zh active Pending
- 2021-02-11 WO PCT/US2021/017722 patent/WO2021163377A1/en unknown
- 2021-02-11 US US17/174,075 patent/US11914919B2/en active Active
- 2021-02-11 US US17/174,066 patent/US11635936B2/en active Active
- 2021-02-11 EP EP21710719.2A patent/EP4104072A1/en active Pending
- 2021-02-11 JP JP2022548683A patent/JP7440651B2/ja active Active
- 2021-02-11 KR KR1020227030076A patent/KR20220128672A/ko not_active Application Discontinuation
- 2021-02-11 US US17/174,084 patent/US20210248213A1/en active Pending
- 2021-02-11 US US17/174,052 patent/US11947864B2/en active Active
-
2023
- 2023-04-24 US US18/306,169 patent/US20230259327A1/en active Pending
-
2024
- 2024-02-15 JP JP2024020800A patent/JP2024069216A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006084749A (ja) | 2004-09-16 | 2006-03-30 | Sony Corp | コンテンツ生成装置およびコンテンツ生成方法 |
JP2009020387A (ja) | 2007-07-13 | 2009-01-29 | Yamaha Corp | 楽曲を制作するための装置およびプログラム |
JP2015011146A (ja) | 2013-06-28 | 2015-01-19 | ヤマハ株式会社 | 音響処理装置 |
JP2015099358A (ja) | 2013-10-17 | 2015-05-28 | ヤマハ株式会社 | 楽音情報を処理する装置およびプログラム |
Non-Patent Citations (1)
Title |
---|
MODRZEJEWSKI MATEUSZ et al,Application of Deep Neural Networks to Music Composition Based on MIDI Datasets and Graphical Representation,Artifical Intelligence and Soft Computing,2019年05月24日,pp.143-152 |
Also Published As
Publication number | Publication date |
---|---|
CN115066681A (zh) | 2022-09-16 |
WO2021163377A1 (en) | 2021-08-19 |
US20210247954A1 (en) | 2021-08-12 |
JP2024069216A (ja) | 2024-05-21 |
US20210247955A1 (en) | 2021-08-12 |
US11947864B2 (en) | 2024-04-02 |
US20230259327A1 (en) | 2023-08-17 |
KR20220128672A (ko) | 2022-09-21 |
EP4104072A1 (en) | 2022-12-21 |
US11635936B2 (en) | 2023-04-25 |
JP2023513586A (ja) | 2023-03-31 |
US11914919B2 (en) | 2024-02-27 |
US20210248213A1 (en) | 2021-08-12 |
US20210248983A1 (en) | 2021-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7440651B2 (ja) | 音楽コンテンツの生成 | |
US11450301B2 (en) | Music generator | |
US11625217B2 (en) | Music generator | |
US10068557B1 (en) | Generating music with deep neural networks | |
US20220059062A1 (en) | Comparison Training for Music Generator | |
Van Nort et al. | Electro/acoustic improvisation and deeply listening machines | |
Cádiz | Compositional control of computer music by fuzzy logic | |
US20240153475A1 (en) | Music management services | |
Yong | The Mel-frequency cepstrum coefficient for music emotion recognition in machine learning | |
Walczyński et al. | Using Machine Learning Algorithms to Explore Listeners Musical Tastes | |
Sethi et al. | Training Deep Convolutional Networks with Unlimited Synthesis of Musical Examples for Multiple Instrument Recognition | |
Ó Nuanáin et al. | Rhythmic Concatenative Synthesis for Electronic Music | |
Orlovaitė | Visual fingerprints: Identifying, summarizing and comparing music | |
Villegas | Master in Sound and Music Computing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220810 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230731 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230815 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7440651 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |