CN113038998A - 游戏中的动态音乐创建 - Google Patents
游戏中的动态音乐创建 Download PDFInfo
- Publication number
- CN113038998A CN113038998A CN201980075286.0A CN201980075286A CN113038998A CN 113038998 A CN113038998 A CN 113038998A CN 201980075286 A CN201980075286 A CN 201980075286A CN 113038998 A CN113038998 A CN 113038998A
- Authority
- CN
- China
- Prior art keywords
- music
- game
- emotion
- mood
- event
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 claims abstract description 55
- 238000000034 method Methods 0.000 claims abstract description 39
- 230000036651 mood Effects 0.000 claims abstract description 39
- 239000013598 vector Substances 0.000 claims abstract description 39
- 238000013507 mapping Methods 0.000 claims abstract description 23
- 239000000203 mixture Substances 0.000 claims abstract description 23
- 238000013528 artificial neural network Methods 0.000 claims description 36
- 230000015654 memory Effects 0.000 claims description 21
- 230000008859 change Effects 0.000 claims description 8
- 230000006399 behavior Effects 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 2
- 208000019300 CLIPPERS Diseases 0.000 description 29
- 208000021930 chronic lymphocytic inflammation with pontine perivascular enhancement responsive to steroids Diseases 0.000 description 29
- 230000006870 function Effects 0.000 description 24
- 238000012549 training Methods 0.000 description 22
- 238000004458 analytical method Methods 0.000 description 20
- 230000002996 emotional effect Effects 0.000 description 18
- 238000013527 convolutional neural network Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 13
- 230000000694 effects Effects 0.000 description 12
- 230000004913 activation Effects 0.000 description 10
- 239000011159 matrix material Substances 0.000 description 9
- 230000033764 rhythmic process Effects 0.000 description 9
- 238000012552 review Methods 0.000 description 7
- 238000003860 storage Methods 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 6
- 238000004088 simulation Methods 0.000 description 6
- 238000001228 spectrum Methods 0.000 description 5
- 241000282414 Homo sapiens Species 0.000 description 4
- 230000036772 blood pressure Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 244000144730 Amygdalus persica Species 0.000 description 3
- 235000006040 Prunus persica var persica Nutrition 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000002156 mixing Methods 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000029058 respiratory gaseous exchange Effects 0.000 description 3
- 230000001020 rhythmical effect Effects 0.000 description 3
- 238000010200 validation analysis Methods 0.000 description 3
- 241001050985 Disco Species 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 239000004615 ingredient Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- IJJWOSAXNHWBPR-HUBLWGQQSA-N 5-[(3as,4s,6ar)-2-oxo-1,3,3a,4,6,6a-hexahydrothieno[3,4-d]imidazol-4-yl]-n-(6-hydrazinyl-6-oxohexyl)pentanamide Chemical compound N1C(=O)N[C@@H]2[C@H](CCCCC(=O)NCCCCCC(=O)NN)SC[C@@H]21 IJJWOSAXNHWBPR-HUBLWGQQSA-N 0.000 description 1
- 102000006822 Agouti Signaling Protein Human genes 0.000 description 1
- 108010072151 Agouti Signaling Protein Proteins 0.000 description 1
- 102100032202 Cornulin Human genes 0.000 description 1
- 241000484025 Cuniculus Species 0.000 description 1
- 208000034826 Genetic Predisposition to Disease Diseases 0.000 description 1
- 101000920981 Homo sapiens Cornulin Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- ZINJLDJMHCUBIP-UHFFFAOYSA-N ethametsulfuron-methyl Chemical compound CCOC1=NC(NC)=NC(NC(=O)NS(=O)(=O)C=2C(=CC=CC=2)C(=O)OC)=N1 ZINJLDJMHCUBIP-UHFFFAOYSA-N 0.000 description 1
- 229910001385 heavy metal Inorganic materials 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000013173 literature analysis Methods 0.000 description 1
- 230000033001 locomotion Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000003607 modifier Substances 0.000 description 1
- 230000003387 muscular Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 229920002239 polyacrylonitrile Polymers 0.000 description 1
- 201000006292 polyarteritis nodosa Diseases 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- APTZNLHMIGJTEW-UHFFFAOYSA-N pyraflufen-ethyl Chemical compound C1=C(Cl)C(OCC(=O)OCC)=CC(C=2C(=C(OC(F)F)N(C)N=2)Cl)=C1F APTZNLHMIGJTEW-UHFFFAOYSA-N 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/54—Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/67—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/70—Game security or game management aspects
- A63F13/77—Game security or game management aspects involving data related to game devices or game servers, e.g. configuration data, software version or amount of memory
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0025—Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/212—Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1012—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/6027—Methods for processing data by generating or executing the game program using adaptive systems learning from user actions, e.g. for skill level adjustment
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/021—Background music, e.g. for video sequences or elevator music
- G10H2210/026—Background music, e.g. for video sequences or elevator music for games, e.g. videogames
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/111—Automatic composing, i.e. using predefined musical rules
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/125—Medley, i.e. linking parts of different musical pieces in one single piece, e.g. sound collage, DJ mix
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/091—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
- G10H2220/101—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
- G10H2220/106—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters using icons, e.g. selecting, moving or linking icons, on-screen symbols, screen regions or segments representing musical elements or parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/075—Musical metadata derived from musical analysis or for use in electrophonic musical instruments
- G10H2240/085—Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- Cardiology (AREA)
- Business, Economics & Management (AREA)
- Computer Security & Cryptography (AREA)
- General Business, Economics & Management (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Electrophonic Musical Instruments (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
公开了一种用于动态音乐创建的方法和系统。将情绪分配给一个或多个音乐乐想,并且将游戏向量与所述情绪相关联。基于所述情绪,将所述一个或多个音乐乐想映射到所述游戏向量。基于所述游戏向量和所需的情绪生成音乐作曲。
Description
技术领域
本公开涉及音乐作曲、音乐编配、机器学习、游戏设计和情绪的心理映射的领域。
背景技术
游戏一直是动态的追求,其中玩游戏过程响应玩家的动作。随着游戏变得更加电影化和更具沉浸感,音乐的重要性持续增长。当前,游戏中的音乐大部分是由预先编写的片段(通常是预先录制的)创建的,这些片段像拼图碎块一样拼凑在一起。它们间或地减慢、加快、变调,并常常叠加在彼此之上。作曲者可以猜测贯穿玩游戏过程的可能路径,但是由于玩游戏过程是交互式的,因此大部分玩游戏过程都是不可预测的,当然,大多数部分的定时是极少可预测的
在并行的机器学习和人工智能中使基于人类评论者标记的现有内容的训练集来生成内容成为可能。另外,还存在评论数据和到各种形式的艺术表现的情绪映射的较大的语料库。
作为另一个元素,我们正在越来越多地了解参与游戏的玩家。在社交媒体上可以跟踪已经选择加入的玩家,可以基于他们的行为做出关于其性格的分析,并且随着越来越多的用户利用对他们进行跟踪的生物特征识别装置(皮肤电活动、脉搏和呼吸、体温、血压、脑波活动、遗传预先倾向性等),可以将环境定制应用于音乐环境。
发明内容
本公开描述了一种用于分析音乐的机制,所述机制将音乐成分(节奏、拍号、旋律结构、调式、和声结构、和声密度、节奏密度和音色密度)分离出来,从而基于发布的评论和社交媒体表达的关于音乐会、唱片等的人类观点,单独地和组合地将这些成分映射到情绪成分。这是在音乐作品内的宏观和微观层面两者上进行的。基于此训练集,推子(或软件中的虚拟推子)被赋予如紧张、有力量、喜悦、惊奇、柔和、超脱、平和、怀旧、悲伤、通感、恐惧等情绪成分。这些音乐成分参照已为游戏的各个元素/参与者创建的乐想(motif)而被映射,所述元素/参与者包括但不限于角色(领导者、伙伴、主要敌人、巫师等)、活动类型(战斗、休息、规划、躲藏等)、区域(森林、城市、沙漠等)、玩游戏的人的性格等。这些乐想可以是旋律、和声、节奏等。一旦作曲者创建了乐想并将预期的情绪分配给推子,游戏模拟就可以运行,其中作曲者选择乐想组合和情绪映射并将它们应用于各种模拟。这些模拟可以先验地描述,或使用类似的算法来生成,以将游戏映射到类似的情绪环境。实际的物理推子(如在计算机化的音频混合控制台中使用的)可能会使将情绪映射到情境的过程更加直观和出于本能,并且物理性将会产生偶然的结果(例如,即使是紧张的环境,升高通感推子也可能会比升高紧张推子具有更好和更加有趣的效果)。
附图说明
通过考虑以下对本发明的一些具体实施方案的详细描述,特别是当结合附图时,本发明的上述以及另外的目标、特征和优点将变得显而易见,其中在各个图中的相同的附图标记用于指定相同的部件,并且其中:
图1是描绘根据本公开的各方面的动态音乐创建架构的概述的框图。
图2是示出根据本公开的各方面的对用于生成音乐元素语料库的音乐元素进行收集和分析的框图。
图3是描绘根据本公开的各方面的对用于生成带注释的表演数据的语料库的评论和评语进行收集和分析的框图。
图4是根据本公开的各方面的音乐的情绪参数的实施方案的代表性描绘。
图5是根据本公开的各方面的使用音乐和情绪评论元素来训练模型的系统化视图。
图6是示出根据本公开的各方面的对游戏元素的带注释的集合进行创建的框图。
图7是示出根据本公开的各方面的使用虚拟推子或真实推子来参照游戏元素创建和映射音乐元素的框图。
图8是描绘根据本公开的各方面的推子和开关与游戏情境回放引擎的交互的框图。
图9是示出根据本公开的各方面的在映射游戏和音乐元素时如何通过预览即将到来的事件而使用提示显示的框图。
图10是示出根据本公开的各方面的如何使用提示显示来启用预示以管理即将到来的音乐和游戏元素的框图。
图11描绘了根据本公开的各方面的用于游戏中的动态音乐创建的系统的示意性框图。
图12A是根据本公开的各方面的在游戏中的动态音乐创建中使用的递归神经网络的简化节点图。
图12B是根据本公开的各方面的在游戏中的动态音乐创建中使用的未折叠的递归神经网络的简化节点图。
图12C是根据本公开的各方面的在游戏中的动态音乐创建中使用的常规神经网络的简化图。
图12D是根据本公开的各方面的用于在游戏中的动态音乐创建中训练神经网络的方法的框图。
具体实施方式
尽管下面的具体实施方式包含用于说明用途的许多具体细节,但是本领域的任何普通技术人员应了解,对以下细节的许多变化和更改处于本发明的范围内。因此,下面描述的本发明的示例性实施方案在不失一般性并且未暗示对要求保护的本发明的限制的情况下进行阐述。
成分概述
从图1中可以看出,存在组成完整系统的许多成分。详情将在下面介绍,但是从高层次查看完整系统是有用的。成分分解如下:
首先,必须构建音乐情绪数据:可以从编写和录制的音乐的语料库收集音乐数据101。这可以是总谱、人员创建的扒带(transcription)或智能软件系统创建的扒带。接下来,所述系统必须将音乐数据分解成其各个成分–旋律、和声、节奏等102,并且这些成分必须存储为与作品或作品的部分相关联的元数据。现在,为了确定与各个音乐元素相关联的情绪成分或标记,我们将依赖于群体的智慧。显然地,这是准确的,因为它是与我们尝试捕获的音乐有关的人情绪。我们将使用评论、博客帖、专辑注解和其他形式的评语来生成整个作品和各个部分的情绪元数据103。下一步是将音乐元数据映射到情绪元数据104。此时,我们将具有与情绪数据相关联的相当大的音乐数据语料库,但它绝不会是完全的。下一步是使用卷积神经网络(CNN)将实际的音乐元数据与对情绪成分的分析进行比较105。然后,该CNN可以用于针对模型先前尚未基于其进行训练的音乐建议情绪关联。然后可以检查准确度。审查和重复–随着迭代继续,准确度将会提高。
下一步是分析游戏环境。必须首先收集和绘制游戏的阶段、成分情绪和特性。这些场景和成分包括如场所、角色、环境等事物、如战斗、施法等动作、等等106。下一步是将游戏成分映射到情绪元数据成分107。
一旦绘制出游戏环境,便是时候编写音乐乐想了108。可以为所有关键角色、场景、情绪或游戏的任何反复出现的元素编写乐想。一旦编写了基本乐想,推子(虚拟的或真实的)可以用于将音乐情绪标记映射到游戏标记109。用户(游戏玩家)的性格或行为成分也可以映射为要考虑的附加情绪特性110。接下来,继续进行测试、审查和迭代,在开发中的游戏中的不同情境上尝试所述模型111。
接下来是对各种过程的更详细描述。
音乐成分分析
需要一些元素来进行对音乐成分的分析。这些在图2中概述。首先,有较大的乐谱语料库。总谱可以印刷形式获得201。可以对这些印刷的总谱进行扫描和分析,以将其转换为电子版本的总谱。可以使用任何形式的电子打谱(MIDI、Sibelius等)。也已经有可以数字形式获得的总谱202,可以将其添加到语料库。最后,我们可以使用机器学习将音乐扒带成其音乐元素(包括总谱)203。机器学习方法可以为可能不呈符号形式的音乐生成总谱。这将包括同一位艺术家的同一首歌曲的多个版本。对现场表演和录制表演进行分析的优点在于,可以对它们进行更详细的映射,包括如节拍和力度的变化之类的东西;并且对于即兴的素材,可以考虑许多其他变量。我们必须跟踪对不同表演的分析204,这样我们就可以知道表演之间的差异,例如雷昂纳德·伯恩斯坦(Leonard Bernstein)在1964年指挥的纽约爱乐乐团的贝多芬第5交响曲的表演将与几年后小泽征尔(Seiji Ozawa)和波士顿交响乐团一起对同一作品的表演不同。这些总谱必须针对节拍205、节奏成分206、旋律207、和声结构208、力度209、和声和即兴元素210来分析。现在将所有这些存储在详细的音乐表演语料库中211。
一旦对较大的音乐语料库进行深入的机械分析,然后就使用来自评论的描述和关于作品的文献分析将这些分析映射到这些作品的评论。这可以在图3中看到。评论和分析可以是文本、听觉或视觉形式,并且包括但不限于文章301、评论302、博客303、播客304、专辑注解305和社交媒体评语306。从该较大的音乐分析语料库307,将对各个作品和作品的部分进行描述308。此外,这些分析必须具有作品被编写和表演的时期内的背景309。例如,一个人可能看着莫扎特的作品,并阅读在其作品的文献中的描述(其可以是不同的时期,例如在20世纪表演的莫扎特作品)。接下来,应用已知的结构音乐分析310来确定哪些作品和/或作品的部分或旋律乐句是美妙的、英勇的、忧郁的、刺耳的、哀伤的、庄严的、有力的、富有表现力的等。这可能涉及查看音乐文献,并将作曲发展的一般原则应用于分析。例如,旋律飞跃、然后逐音级反转方向被认为是美妙的。旋律音程可以沿令人愉悦、不令人愉悦或自然的音阶关联(例如小九度跳跃是不令人愉悦的,五度是英勇的,而音调符号内的一个音级是自然的)。所有这些表演和作曲数据可以用于将情绪关键词映射到表演和分段311。
“情绪”词可能来自对评论进行数字解析的过程,并且可以包括,并且任何人工分析都几乎必然地,包括以下词:紧张、有力量、喜悦、惊奇、柔和、超脱、平和、怀旧、悲伤和通感。
请注意,要使这些关键词起作用,它们是否准确不一定重要,只是它们具有一致的效果就可以。在实际使用最终系统时,与词语通感相关联的推子实际上是否创造出更具感官享受的音乐将无关紧要,而是只要作曲者可预见并在情绪上可理解即可。这有两个原因:1)标签总是可以更改为更加直观的名称;和2)人类在处理音乐和声音时适应能力很强(在音乐合成器的历史中,尽管是无意义的标签,旋钮、按钮和推子,例如回到Yamaha DX-7,也不会以任何方式影响在名称的基础上直观的声音,而是具有成为乐师的感官记忆和肌肉记忆的一部分的影响,因此易于使用)。
对音乐作品和成分的详细分析置于带注释的表演数据的语料库中312。
注意,映射音乐元素以创建音乐表演的语料库不必是并且将不可能是一对一的映射,而是设置在情绪连续体的音阶上,例如一组音乐向量。例如,作品在通感的音阶上可能是十分之八,而在悲伤的音阶上可能是十分之四。一旦将音乐元素映射到这些情绪向量,就可以对不在训练数据集中的标题来测试模型。人们可以听取结果并微调模型,直到模型更准确为止。最终,模型在某个时刻将变得非常准确。不同模型可以在不同的时间框架中运行以创建50年代风格的恐怖音乐或21世纪风格的恐怖音乐,请记住,实际的描述符不如分类分组重要(也就是说,对一个作曲者来说是柔和的内容可能对另一个作曲者来说是无聊的)。
注意,模型不仅可以将作品和部分映射到情绪向量,而且还可以将构成的旋律、节奏以及和弦进行映射到那些相同的情绪向量。同时,机器学习旋律结构(例如,旋律向上飞跃、然后向下一个音级通常被认为是美妙的,小九度飞跃通常被认为是不和谐的,等等)。
结构音乐分析310可以涉及多个成分。例如,如图4所示,美妙、不和谐和所有主观描述度量可以适时地作为作曲参考。例如,那些在巴赫的时代被认为不和谐的内容(例如,大七度音程被认为太不和谐而无法演奏,除非从先前更和谐的和弦转入七度)在稍后的时代被认为是美妙的(现今,大七度和弦被认为是正常的,甚至有时被人为是感情丰富的)。
在一种现有的音乐情绪分类方法中401,根据心理学家罗伯特·塞耶(RobertThayer)的传统情绪模型来划分歌曲的情绪。所述模型分别沿着能量和压力的线将歌曲划分为从快乐到悲伤和从平静到充满活力。塞耶的模型创建的八个类别包括两条线的极值以及线的可能交点中的每个(例如,快乐-充满活力或悲伤-平静)。
该历史分析可能具有有限的值,并且本文所述的方法可能更加细微和灵活。由于语料库的大小并且因此训练数据集的大小,可以应用更丰富且更细微的分析。
要分析的成分中的一些402可以包括但不限于和声分组、调式和音阶、拍号、节拍、和声密度、节奏密度、旋律结构、乐句长度(和结构)、力度、分节和作曲技巧(变调、转位、逆行等)、律动(包括如放克音乐、沙发音乐、拉丁音乐、雷鬼音乐、摇摆音乐、探戈音乐、梅伦格音乐、萨尔萨音乐、法多音乐、60年代迪斯科音乐、70年代迪斯科音乐、重金属音乐等节奏,有数百种已确立的节奏风格)。
训练模型
正如人们会标记桃子的照片来训练卷积神经网络以在向卷积神经网络示出其之前从未见过的桃子的照片时识别出桃子的照片一样,关于消费者和评论者意见的数据也可以用于训练机器学习模型,然后使用所述模型对新素材进行分类。图5中示出了该过程的一个示例。在所示的实现方式中,可以使用群体的智慧(例如评论、帖子等)来训练我们的模型,以识别与不同音乐乐段相关联的情绪。
在图5所示的实现方式中,音乐数据的语料库分为三个存储桶。第一存储桶,即语料库A 501,是一组音乐数据502,已经基于听众评论数据的分析为该组音乐数据映射了所收集的情绪描述503。第二存储桶,即语料库B 506,是一组音乐数据507,已经为该组音乐数据映射了其自己的一组所收集的情绪描述508。第三存储桶,即语料库C,是一组音乐数据511,针对该组音乐数据,不存在所收集的情绪描述。最初在语料库A上训练模型。使用卷积神经网络504将所收集的情绪描述503映射到音乐数据502。该映射的结果是经训练的引擎505,其应该能够从音乐数据中得出情绪描述。然后将语料库B506的音乐数据507馈送到经训练的引擎505中。所得输出是语料库B音乐的预测情绪描述509。然后将这些预测与所收集的描述510进行比较,以确定预测的准确度。继续该预测、比较和迭代过程(例如,通过将音乐元素从语料库B移到语料库A中并重复进行),直到语料库B音乐的预测情绪描述509与实际结果紧密匹配为止。该过程可以无限地继续,其中系统随时间推移变得越来越智能。在经训练的引擎505经过足够的迭代之后,可以将其用作语料库C511上的预测引擎512,以预测语料库C音乐的情绪描述513。
映射游戏元素
为了将动态音乐元素与游戏中的不同元素进行匹配,可以创建可能需要音乐或音乐变化的元素的语料库。有许多不同的元素可以影响那一刻应该是怎样的音乐。当然,这些元素由游戏开发人员使用,并且可以使其可供作曲者和声音设计师使用,以使音乐匹配。如图6中可以看出,有许多要跟踪和映射的游戏元素。这些包括但不限于游戏角色601、游戏环境或位置602、游戏情绪或音调603、以及可能最重要的游戏事件604。游戏中的事件可以是从敌人或朋友的出现到位置的改变、到战斗、到施法、到比赛(还有许多)的任何事物。所有这些游戏元素605以及它们的触发因素(输入或输出)和修饰符都被收集。另外,这些可以被收集作为游戏向量606。它们被称为向量,因为成分中的许多成分具有多个状态。例如,晚上的场地可能不同于白天,而雨中的场地可能不同于在阳光下。敌人的能力可能可变,其基于时间、地点或等级而增加或减少。从这个角度来看,任何元素都可以具有向量数组。所有游戏元素及其向量都具有与之相关联的情绪。情绪可以随着向量的值而变化,但是尽管如此,情绪可以与游戏元素相关联。一旦将游戏元素映射到其情绪607,我们就可以将该关系存储在带注释的游戏元素的语料库或集合中608。
收集进给环境所需的成分
最终,作曲工具可以用于其自己从玩游戏过程中创建音乐,但是该实施方案重点在于从作曲基元创建音乐。作曲者将创建音乐元素或乐想,并将它们与游戏中的角色或元素相关联。
这里对工具的使用不必单独来使用,而是经常用于增强传统的打谱技术,其中预先录制的音乐被依序且分层地与多个成分组合,从而混合在一起以创建一个整体。也就是说,现今,不同的层可能在不同的时间开始,并且一些层将与其他层叠加,并且还有一些层可能独立于其他层运行。这里的想法是开发附加工具,所述附加工具可以1)作为现有技术的补充(例如在现有技术之上)使用,2)在某些或所有地方代替现有技术使用,或3)作为用于通知现有技术的使用的机制使用。另外,这些机制可以用于创建全新形式的交互式媒体(例如,试图控制血压或脑波状态的人们可以使用音乐反馈作为训练工具,或甚至使用生物特征识别标记作为作曲工具。
在传统的作曲研究中,乐想通常是指小的旋律分段。然而,在该背景下,乐想可以是旋律分段、和声结构、节奏结构和/或特定音调。乐想可以被创建用于如需要一样多的游戏的各个元素/参与者,所述元素/参与者包括但不限于角色(领导者、伙伴、主要敌人、巫师等)、活动类型(战斗、休息、规划、躲藏等)、区域(森林、城市、沙漠等)、玩游戏的人的性格(年轻、年老、男性、女性、内向、外向等)。乐想可以是旋律、和声、节奏等。另外,单个元素可以有多个乐想,例如可以单独或一起使用的节奏模式和旋律模式,或者同一角色可能有在不同情况下使用的悲伤乐想和快乐乐想两者。
一旦作曲者创建了乐想,就可以将其分配给元素/角色。这可以由作曲者或声音设计师完成,并且可以随着游戏的开发而改变,或者甚至可以在发行之后在游戏内部动态改变。
使用工具将音乐成分映射到游戏元素
前述方面可以被组合以将音乐成分映射到游戏元素。在整个文档中,应该假定对推子和按钮的引用可以是真实的物理按钮或推子,也可以是虚拟按钮或推子。直观地,基于乐师和作曲者的经验,预期物理按钮和推子使用起来将更加直观并且可能具有更好的结果。实际的物理推子(如在计算机化的音频混合控制台中使用的)可能,甚至更可能,会使将情绪映射到情境的过程更加直观和出于本能,并且物理性将会产生偶然的结果(例如,即使是紧张的环境,升高通感推子也可能会比升高紧张推子具有更好和更加有趣的效果)。然而,出于本申请的目的,任一者都可以起作用。
事件的可能逻辑顺序的示例如图7所示,但是任何顺序都可以产生结果,并且所述过程毫无疑问将是迭代的、递归的和非线性的。
图7中描绘的逻辑顺序可以以带注释的游戏元素的集合701开始,其可以从图6中的带注释的游戏元素的集合608转入。然后,在702处将游戏触发因素分配给开关。这些触发因素可以是敌人或障碍物的出现或等级提升等等。接下来,选择主要情绪向量703,并在704处分配视觉标记,使得可以向作曲者显示元素类型。然后,将游戏元素分配给多维数组中的情绪元素,如705处所示。然后,在710处将多维数组分配给推子和开关,所述推子和开关用于将音乐情绪标记映射到游戏标记。一旦为游戏元素建立了一组情绪标记,就可以将音乐应用于游戏元素。作曲者编写乐想707。如上所述,乐想可以表示角色、事件、区域或情绪。接下来,我们选择乐想的基线情绪708。这些是默认的情绪。例如,每当巫师出现时,都可能会有具有其默认情绪的默认乐想。这些可以基于情况而变化,但是如果未应用任何变量,则它们将以其默认模式操作。现在,我们将情绪向量分配给推子709。现在已经分配了游戏向量并且分配了音乐向量,在710处,可以使用推子和开关将音乐情绪标记映射到游戏标记。推子不必与单个情绪相对应。因为这就像微调乐器的音色,作曲者可以发挥创造力。也许80%英勇和20%悲伤的推子会产生意想不到的令人愉悦的结果。
接下来,可以将各种主题映射到一组按钮(可能是在彩色矩阵中,因此容易一次看到许多)。其中一些按钮可能与游戏开关相同,但其他按钮将是音乐开关。这些按钮可以按角色类型(英雄、反派、巫师等)、音乐作曲成分(例如在一侧上有律动,并且在另一侧上有旋律,调式横跨顶部)和场景(城市、乡村等)进行分组。
注意,已经映射到按钮或开关的许多游戏触发因素最终都将被玩游戏过程本身“推动”,但是在早期阶段,能够模拟如敌人的到来、或日出、或厄运将至等事物将是有用的。
现在,游戏模拟可以实时运行到游戏的早期版本,即使它只是情节提要,或甚至没有情节提要只是为了编写适用于不同情境的音乐。作曲者可以选择乐想组合和情绪映射,并将其应用于各种模拟并对其进行测试驱动。随着游戏的发展,可以对这些情境进行微调。
实际上,这也可以用作泛化的作曲,其中作曲者或表演者可以使用机器根据基元创建音乐。
使用推子和开关对音乐进行编程
图8示出了可以如何实际使用游戏模拟和音乐编程的示例。如图7中所示和图8中可以看出,乐想801、游戏触发因素802和游戏成分803被映射到推子和开关804。映射到推子和开关804的这些乐想801、游戏触发因素802和游戏成分803被插入到游戏情境回放引擎805中。现在,作曲者在测试各种游戏情境的同时播放音乐806,并由记录的音乐场景/事件映射模块808进行记录。为了看到元素是什么,作曲者可以查看提示显示屏808,所述提示显示屏示出正在使用或将要出现哪些元素。如果触摸了推子,则其所映射到的元素可能会在屏幕上突出显示以提供视觉反馈。提示显示可以示出来自游戏情境回放引擎805的元素,因为这些元素正在从实时推子和开关中播放出来。这由在玩游戏的同时播放音乐的模块806表示并来自记录的音乐场景/事件映射模块807。就像在与自动化推子混合时更新推子一样,所有推子和开关都可以在809处实时更新和修改,并被记住以供以后回放。另外,可以在810处更新乐想、成分和触发因素,并被系统记住。当然,存在无限的撤消操作,并且可以将不同的表演保存为不同的版本,这些版本可以在不同的时间使用并且可以彼此组合使用。
图9显示了根据本公开的各方面的关于可以如何使用提示监视器907的附加详情。即将到来的事件901、角色902和位置903都可以在提示监视器上看到(可能有多个提示监视器)。基于玩游戏过程的预期参数,可以存在默认权重904。这些和推子(和开关)映射矩阵905全部显示在一个或多个提示监视器907上。玩家历史/预测矩阵906是推子映射矩阵905的另一个输入并且在提示监视器上可见。基于玩家的游戏风格或其他因素(当日时间、当前会话中的分钟数或小时数、游戏状态等),该矩阵可以自动更改音乐,或基于作曲者或声音设计师设定的参数来更改音乐。
预示变化的音乐
在电影中,音乐经常在视觉变化之前发生变化。该预兆或预示过程对于与作品的情绪联系以及使观看者/听众为情绪变化做好准备或进行其他情绪准备都非常重要(即使这是错误的预测并且使观看者感到惊讶也是如此)。现在,当我们在即时地编写音乐时,我们将希望能够预示变化。这可能与接近某个关卡的完成或发信号通知新角色或新环境的进入(或为观看者设置一种变化,但实际上却用另一种变化使他们感到惊讶)相关联。
我们的作曲引擎将如何有效地进行预示?我们可以使用提前已知的触发因素,并使用推子或拨盘来控制预示的定时以及预示的坡度。例如,如果某个计时器在某个关卡上时间所剩无几,则可以将预示设置为在时间结束前30秒开始,并使用指数曲线(诸如y=2x)提高强度。许多预示都是可能的,从可能的恐惧泛音到快乐预测。再一次,因为这也被设计为出于本能,所以该功能很可能最终会产生意想不到的结果,其中一些结果对编程到游戏中将是有用的。参见图10,可以在提示矩阵1003上看到一组可能的接下来事件1001。还存在接下来事件定时矩阵1002,其可以用于设置定时值和斜坡特性。可能参与预示的另一个因素是概率情绪加权引擎1004。该引擎对即将发生的事件的预期情绪状态进行加权,并用于使预示音频生效。在提示监视器上可以看到它,其加权效果可以改变。即将发生的事件具有任何特定情绪的可能性和所述情绪的预测强度由事件到情绪可能性映射引擎1005进行映射。预示也受玩家历史和玩家历史/预测矩阵1007的影响,该矩阵可以在提示监视器上看到,并且也进给到预示矩阵引擎1006中。尽管图10中的所有元素都可以在提示监视器中看到,但由于预示矩阵引擎将使用机器智能来显露最可能的情境,因此它们可能会降级到辅助提示监视器。可见的成分可以按喜好进行设置或编程,但是随着素材快速到来(尽管如此,当然,作曲者可以具有很多预备动作),对于学习引擎而言,最好使这些成分中尽可能多的成分自动化。
游戏外使用
该作曲工具的使用不仅限于游戏使用。即使在非游戏使用中,交互式VR环境也可以利用这些技术。另外,这可以用作对传统电视节目或电影进行打谱的作曲工具。而且,一个最终使用可能是在纯粹的音乐创建中使用它来创建专辑或流行歌曲的基础等。
系统
图11描绘了根据本公开的各方面的用于游戏中的动态音乐创建的系统。所述系统可以包括耦合到用户输入装置1102的计算装置1100。用户输入装置1102可以是控制器、触摸屏、传声器、键盘、鼠标、操纵杆、推子板或允许用户向系统中输入包括声音数据的信息的其他装置。所述系统还可以耦合到生物特征识别装置1123,所述生物特征识别装置被配置为测量皮肤电活动、脉搏和呼吸、体温、血压或脑波活动。生物特征识别装置可以是例如但不限于指向用户的热或红外相机,并被配置为根据热特征确定用户的呼吸和心率,有关更多信息请参见Chen等人的共同拥有的专利第8,638,364号“USER INTERFACE SYSTEM ANDMETHOD USING THERMAL IMAGING”,其内容通过引用并入本文。替代地,生物特征识别装置可以是例如但不限于脉搏血氧仪、血压袖带、脑电图机、心电图机、可穿戴活动跟踪器或具有生物感测的智能手表之类的其他装置。
计算装置1100可以包括一个或多个处理器单元1103,所述一个或多个处理器单元可根据熟知的架构(例如,单核、双核、四核、多核、处理器-协处理器、单元处理器等)来配置。计算装置还可以包括一个或多个存储器单元1104(例如,随机存取存储器(RAM)、动态随机存取存储器(DRAM)、只读存储器(ROM)等)。
处理器单元1103可以执行一个或多个程序,所述程序的部分可以被存储在存储器1104中,并且处理器1103可操作地耦合到存储器(例如,通过经由数据总线1105访问存储器)。程序可以被配置为基于视频游戏的游戏向量1109和情绪向量1110来生成或使用声音乐想1108来创建音乐。声音乐想可以是由乐师、用户或机器作曲的简短音乐乐想。另外,存储器1104可以包含实现声音归类和分类NN 1121的训练的程序。存储器1104还可以包含带注释的表演数据和情绪描述的一个或多个数据库1122。神经网络模块1121,例如用于将音乐乐想与情绪相关联的卷积神经网络,也可以存储在存储器1104中。存储器1104可以存储报告1110,所述报告列出了没有被神经网络模块1121识别为在数据库1122中的项目。声音乐想、游戏向量、情绪向量、神经网络模块和带注释的表演数据1108、1109、1121、1122也可以作为数据1118存储在大容量存储区1118中或存储在耦合到通过网络接口1114访问的网络1120的服务器处。另外,用于视频游戏的数据可以在存储器1104存储为数据库或其他地方中的数据或存储为大容量存储区1115中的程序1117或数据1118。
NN的总体结构和概率也可以作为数据1118存储在大容量存储区1115中。处理器单元1103还被配置为执行存储在大容量存储区1115或存储器1104中的一个或多个程序1117,所述程序使处理器执行使用音乐乐想1108、游戏向量1109和情绪向量1110的动态音乐创建的方法,如本文所述。从音乐乐想产生的音乐可以存储在数据库1122中。另外,处理器可以执行本文所述的用于NN 1121训练和音乐乐想到情绪的分类的方法。系统1100可以生成神经网络1122作为NN训练过程的一部分,并将它们存储在存储器1104中。完整的NN可以存储在存储器1104中或作为数据1118存储在大容量存储区1115中。另外,NN 1121可以使用来自用户的实际反应进行训练,其中生物特征识别装置1123用于提供来自用户的生物反馈。
计算装置1100还可以包括熟知的支持电路,诸如输入/输出(I/O)1107、电路、电源(P/S)1111、时钟(CLK)1112和高速缓存1113,它们可以例如经由总线1105与系统的其他部件通信。计算装置可以包括网络接口1114。处理器单元1103和网络接口1114可以被配置为经由用于个人区域网(PAN)的合适的网络协议(例如,蓝牙)实现局域网(LAN)或PAN。计算装置可以任选地包括大容量存储装置1115(诸如,磁盘驱动器、CD-ROM驱动器、磁带驱动器、快闪存储器等),并且大容量存储装置可存储程序和/或数据。计算装置还可以包括用户界面1116以促进系统与用户之间的交互。用户界面可以包括监视器、电视屏幕、扬声器、耳机或向用户传达信息的其他装置。
计算装置1100可以包括网络接口1114以促进经由电子通信网络1120的通信。网络接口1114可以被配置为通过局域网和广域网(诸如互联网)来实现有线或无线通信。装置1100可以通过网络1120经由一个或多个消息包发送和接收数据和/或对文件的请求。通过网络1120发送的消息包可以被临时存储在存储器1104中的缓冲器1109中。带注释的表演数据、声音乐想和带注释的游戏元素可以通过网络1120获得,并部分地存储在存储器1104中以供使用。
神经网络训练
通常,用于动态音乐生成的神经网络可以包括几种不同类型的神经网络中的一种或多种,并且可以具有许多不同的层。举例来说而非限制,分类神经网络可以由一个或多个卷积神经网络(CNN)、递归神经网络(RNN)和/或动态神经网络(DNN)组成。
图12A描绘了具有节点层1220的RNN的基本形式,所述节点中的每一者的特征在于激活函数S、一个输入权重U、递归隐藏节点转移权重W和输出转移权重V。激活函数S可以是本领域中已知的任何非线性函数,并且不限于双曲正切(tanh)函数。例如,激活函数S可以是Sigmoid或ReLu函数。与其他类型的神经网络不同,RNN在整个层具有一组激活函数和权重。如图12B所示,RNN可以被认为是在时间T和T+1中移动的具有相同激活函数的一系列节点1220。因此,RNN通过进给从先前时间T到当前时间T+1的结果来维持历史信息。
在一些实施方案中,可以使用卷积RNN。可以使用的另一种类型的RNN是长短期记忆(LSTM)神经网络,它用输入门激活函数、输出门激活函数和遗忘门激活函数添加RNN节点中的存储块,从而形成门控存储器,这允许网络在更长的时间内保留一些信息,如Hochreiter和Schmidhuber的“长短期记忆(Long Short-term memory)”(神经计算9(8):1735-1780(1997))中所述,其以引用方式并入本文。
图12C描绘了根据本公开的各方面的诸如CRNN等卷积神经网络的示例性布局。在该描绘中,生成卷积神经网络以训练呈数组1232(例如,具有4行4列,从而提供总共16个元素)形式的数据。所描绘的卷积神经网络具有2行乘2列大小的滤波器1233(其跳跃值为1)并且大小为9的通道1236。为了清楚起见,在图12C中仅描绘了第一列通道与其滤波窗口之间的连接1234。然而,本公开的各方面不限于此类实现方式。根据本公开的各方面,实现分类1229的卷积神经网络可以具有任意数量的附加神经网络节点层1231并且可以包括诸如附加卷积层、全连接层、池化层、最大池化层、局部对比度归一化层等任何大小的此类层类型。
初始化之后,定义激活函数和优化程序。然后向NN提供特征向量或输入数据集1242。不同特征向量中的每一者可以由NN从具有已知标签的输入中生成。类似地,可以向NN提供特征向量,所述特征向量对应于具有已知标签或分类的输入。NN然后预测特征或输入的标签或分类1243。将预测的标签或类别与已知的标签或类别(也称为基准真相)进行比较,并且损失函数测量所有训练样本上的预测与基准真相之间的总误差1244。举例来说而非限制,损失函数可以是交叉熵损失函数、二次成本、三重态对比函数、指数成本等。可根据目的使用多个不同的损失函数。通过示例而非限制的方式,为了训练分类器,可以使用交叉熵损失函数,而为了学习预训练的嵌入,可以使用三重态对比函数。然后,使用损失函数的结果并使用用于神经网络的已知训练方法(诸如,具有自适应梯度下降的反向传播等)对NN进行优化和训练1245。在每个训练时期,优化程序尝试挑选使训练损失函数(即,总误差)最小的模型参数(即权重)。数据分为训练样本、验证样本和测试样本。
在训练期间,优化程序使训练样本上的损失函数最小化。在每个训练时期之后,通过计算验证损失和准确性,在验证样本上对模式进行评估。如果没有显著变化,则训练可以停止,并且所得的经训练模型可用于预测测试数据的标签。
因此,可以从具有已知标签或分类的输入中训练神经网络,以对那些输入进行识别和分类。
虽然以上为本发明的优选实施方案的完整描述,但是使用各种替代、修改和等效物是可能的。因此,本发明的范围不应参考以上描述确定,而是应替代地参考随附权利要求书以及其整个范围的等效物确定。本文所述的任何特征(不论是否优选)可与本文所述的任何其他特征(不论是否优选)组合。在随附权利要求书中,不定冠词“一个”或“一种”是指冠词后的一个或多个项的量,除非其中另外明确说明。随附权利要求书不应被理解为包括装置加功能限制,除非这种限制在给定权利要求中使用短语“用于……的装置”来明确陈述。
Claims (21)
1.一种用于动态音乐创建的方法,其包括:
a)将情绪分配给一个或多个音乐乐想;
b)将游戏向量与所述情绪相关联;
c)基于所述情绪将所述一个或多个音乐乐想映射到所述游戏向量;
d)基于所述游戏向量和所需的情绪生成音乐作曲。
2.如权利要求1所述的方法,其中通过经训练以基于内容将情绪分配给音乐的神经网络,将所述情绪分配给所述一个或多个音乐乐想。
3.如权利要求1所述的方法,其中向所述情绪分配等级,并且所述一个或多个音乐乐想到所述游戏向量的所述映射随着分配给所述情绪的所述等级而改变。
4.如权利要求3所述的方法,其中使用情绪等级滑块来改变分配给所述情绪的所述等级。
5.如权利要求1所述的方法,其还包括将用户行为与所述情绪相关联,并且基于所述情绪将所述一个或多个音乐乐想映射到所述用户行为。
6.如权利要求1所述的方法,其还包括基于用户对所述一个或多个音乐乐想中的每一个的身体反应,将所述一个或多个音乐乐想分配给所述情绪。
7.如权利要求1所述的方法,其还包括将一个或多个乐想中的一个分配给游戏向量作为默认乐想,并且其中每当所述游戏向量存在于视频游戏内时,所述默认乐想被包括在所述音乐作曲中。
8.如权利要求1所述的方法,其中所述游戏向量包括游戏元素和用于视频游戏内的所述游戏元素的触发因素。
9.如权利要求8所述的方法,其还包括将所述一个或多个乐想中的一个分配给游戏元素作为用于所述游戏元素的默认乐想,并且每当所述游戏元素存在于所述视频游戏内时,将所述默认乐想包括在所述音乐作曲中。
10.如权利要求8所述的方法,其还包括将所述一个或多个乐想中的一个分配给所述触发因素作为用于所述触发因素的默认乐想,并且每当所述触发因素在所述视频游戏内激活时,将所述默认乐想包括在所述音乐作曲中。
11.如权利要求1所述的方法,其中生成音乐作曲包括:选择所述一个或多个音乐乐想中的在播放视频游戏的同时要播放的一个音乐乐想,其中所述音乐乐想与所述视频游戏同时播放。
12.如权利要求1所述的方法,其还包括生成用于视频游戏的事件提示,其中所述事件提示包括视频游戏内的即将发生的事件,并且其中在所述音乐作曲的生成期间使用所述事件提示。
13.如权利要求12所述的方法,其中所述事件提示包括事件概率、事件定时和事件情绪权重,其中所述事件概率定义事件将在所述事件定时内发生的可能性,并且其中所述事件情绪权重提供所述事件的情绪。
14.如权利要求12所述的方法,其中所述事件情绪权重包括所述情绪的等级。
15.一种用于动态音乐创建的系统,其包括:
处理器;
存储器,所述存储器耦合到所述处理器;
非暂时性指令,所述非暂时性指令嵌入在所述存储器中,所述非暂时性指令在被执行时使所述处理器执行包括以下项的方法:
a)将情绪分配给一个或多个音乐乐想;
b)将游戏向量与所述情绪相关联;
c)基于所述情绪将一个或多个音乐乐想映射到所述游戏向量;
d)基于所述游戏向量和所需的情绪生成音乐作曲。
16.如权利要求14所述的系统,其中通过经训练以基于内容将情绪分配给音乐的神经网络,将所述情绪分配给所述一个或多个音乐乐想。
17.如权利要求14所述的系统,其中向所述情绪分配等级,并且所述一个或多个音乐乐想到所述游戏向量的所述映射随着分配给所述情绪的所述等级而改变。
18.如权利要求16所述的系统,其还包括耦合到所述处理器的情绪滑块,其中所述情绪滑块被配置为控制分配给所述情绪的所述等级。
19.如权利要求14所述的系统,其还包括基于用户对所述一个或多个音乐乐想中的每一个的身体反应,将所述一个或多个音乐乐想分配给所述情绪。
20.如权利要求18所述的系统,其还包括生物特征识别装置,所述生物特征识别装置耦合到所述处理器并且被配置为跟踪所述用户的所述身体反应。
21.一种非暂时性指令,所述非暂时性指令嵌入在计算机可读介质中,所述非暂时性指令在被执行时使计算机执行包括以下项的方法:
a)将情绪分配给一个或多个音乐乐想;
b)将游戏向量与所述情绪相关联;
c)基于所述情绪将一个或多个音乐乐想映射到所述游戏向量;
d)基于所述游戏向量和所需的情绪生成音乐作曲。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862768045P | 2018-11-15 | 2018-11-15 | |
US62/768,045 | 2018-11-15 | ||
PCT/US2019/060306 WO2020102005A1 (en) | 2018-11-15 | 2019-11-07 | Dynamic music creation in gaming |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113038998A true CN113038998A (zh) | 2021-06-25 |
Family
ID=70732126
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980075286.0A Pending CN113038998A (zh) | 2018-11-15 | 2019-11-07 | 游戏中的动态音乐创建 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11969656B2 (zh) |
EP (1) | EP3880324A4 (zh) |
JP (1) | JP7223848B2 (zh) |
CN (1) | CN113038998A (zh) |
WO (1) | WO2020102005A1 (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11328700B2 (en) * | 2018-11-15 | 2022-05-10 | Sony Interactive Entertainment LLC | Dynamic music modification |
US20220036999A1 (en) * | 2020-07-31 | 2022-02-03 | Maestro Games, SPC | Systems and methods to improve a users mental state |
AU2022250856A1 (en) * | 2021-03-31 | 2023-11-16 | DAACI Limited | System and methods for automatically generating a musical composition having audibly correct form |
US11978426B2 (en) | 2021-03-31 | 2024-05-07 | DAACI Limited | System and methods for automatically generating a musical composition having audibly correct form |
CN113143289B (zh) * | 2021-03-31 | 2024-07-26 | 华南理工大学 | 一种可互联互动的智能脑波音乐耳机 |
US11514877B2 (en) | 2021-03-31 | 2022-11-29 | DAACI Limited | System and methods for automatically generating a musical composition having audibly correct form |
KR20240028353A (ko) * | 2021-05-27 | 2024-03-05 | 엑스디마인드 인코퍼레이티드 | 비디오 분석에 기초하는 보충 오디오 세그먼트들의 선택 |
CN113239694B (zh) * | 2021-06-04 | 2022-06-14 | 北京理工大学 | 一种基于论元短语的论元角色识别的方法 |
US20240024775A1 (en) * | 2022-07-22 | 2024-01-25 | Sony Interactive Entertainment LLC | User preference customized generation of gaming music |
US12128308B2 (en) | 2022-07-22 | 2024-10-29 | Sony Interactive Entertainment LLC | Game environment customized generation of gaming music |
WO2024020497A1 (en) * | 2022-07-22 | 2024-01-25 | Sony Interactive Entertainment LLC | Interface customized generation of gaming music |
US20240024781A1 (en) * | 2022-07-22 | 2024-01-25 | Sony Interactive Entertainment LLC | Customized audio spectrum generation of gaming music |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070068367A1 (en) * | 2005-09-20 | 2007-03-29 | Microsoft Corporation | Music replacement in a gaming system |
WO2007043679A1 (ja) * | 2005-10-14 | 2007-04-19 | Sharp Kabushiki Kaisha | 情報処理装置およびプログラム |
US20100307320A1 (en) * | 2007-09-21 | 2010-12-09 | The University Of Western Ontario | flexible music composition engine |
CA2725722A1 (en) * | 2010-12-17 | 2012-06-17 | Karen E. Collins | Method and system for incorporating music into a video game using game parameters |
TW201426730A (zh) * | 2012-12-20 | 2014-07-01 | Univ Southern Taiwan Sci & Tec | 音樂的情緒分類方法 |
TW201426731A (zh) * | 2012-12-20 | 2014-07-01 | Univ Southern Taiwan Sci & Tec | 遊戲音樂的情緒分類方法 |
US20160253915A1 (en) * | 2009-07-02 | 2016-09-01 | The Way Of H, Inc. | Music instruction system |
CN106362260A (zh) * | 2016-11-09 | 2017-02-01 | 武汉智普天创科技有限公司 | Vr情绪调节装置 |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5451709A (en) | 1991-12-30 | 1995-09-19 | Casio Computer Co., Ltd. | Automatic composer for composing a melody in real time |
JP3704980B2 (ja) | 1997-12-17 | 2005-10-12 | ヤマハ株式会社 | 自動作曲装置と記録媒体 |
JP2001190844A (ja) * | 2000-01-06 | 2001-07-17 | Konami Co Ltd | ゲームシステムおよびゲーム用プログラムが記憶されたコンピュータ読み取り可能な記録媒体 |
US7076035B2 (en) | 2002-01-04 | 2006-07-11 | Medialab Solutions Llc | Methods for providing on-hold music using auto-composition |
JP4081789B2 (ja) | 2002-03-07 | 2008-04-30 | ベスタクス株式会社 | 電子楽器 |
WO2004025306A1 (en) | 2002-09-12 | 2004-03-25 | Musicraft Ltd | Computer-generated expression in music production |
EP1703491B1 (en) | 2005-03-18 | 2012-02-22 | Sony Deutschland GmbH | Method for classifying audio data |
US20070044639A1 (en) | 2005-07-11 | 2007-03-01 | Farbood Morwaread M | System and Method for Music Creation and Distribution Over Communications Network |
GB0606119D0 (en) | 2006-03-28 | 2006-05-03 | Telex Communications Uk Ltd | Sound mixing console |
US8168877B1 (en) | 2006-10-02 | 2012-05-01 | Harman International Industries Canada Limited | Musical harmony generation from polyphonic audio signals |
US7696426B2 (en) | 2006-12-19 | 2010-04-13 | Recombinant Inc. | Recombinant music composition algorithm and method of using the same |
US8445767B2 (en) * | 2009-04-11 | 2013-05-21 | Thomas E. Brow | Method and system for interactive musical game |
KR102112973B1 (ko) * | 2009-07-16 | 2020-05-19 | 블루핀 랩스, 인코포레이티드 | 컴퓨터 실행 방법, 시스템 및 컴퓨터 판독 가능 매체 |
US20120047447A1 (en) * | 2010-08-23 | 2012-02-23 | Saad Ul Haq | Emotion based messaging system and statistical research tool |
WO2012165978A1 (en) * | 2011-05-30 | 2012-12-06 | Auckland Uniservices Limited | Interactive gaming system |
US9263060B2 (en) | 2012-08-21 | 2016-02-16 | Marian Mason Publishing Company, Llc | Artificial neural network based system for classification of the emotional content of digital music |
DE202013104376U1 (de) | 2012-09-12 | 2013-11-12 | Ableton Ag | Dynamisches Diatonisches Musikinstrument |
US9183849B2 (en) | 2012-12-21 | 2015-11-10 | The Nielsen Company (Us), Llc | Audio matching with semantic audio recognition and report generation |
US9583084B1 (en) | 2014-06-26 | 2017-02-28 | Matthew Eric Fagan | System for adaptive demarcation of selectively acquired tonal scale on note actuators of musical instrument |
CN108140369A (zh) | 2015-07-17 | 2018-06-08 | 乔凡尼技术公司 | 乐谱、系统和方法 |
US9721551B2 (en) | 2015-09-29 | 2017-08-01 | Amper Music, Inc. | Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions |
US10854180B2 (en) | 2015-09-29 | 2020-12-01 | Amper Music, Inc. | Method of and system for controlling the qualities of musical energy embodied in and expressed by digital music to be automatically composed and generated by an automated music composition and generation engine |
US20170228745A1 (en) * | 2016-02-09 | 2017-08-10 | UEGroup Incorporated | Tools and methods for capturing and measuring human perception and feelings |
US9799312B1 (en) | 2016-06-10 | 2017-10-24 | International Business Machines Corporation | Composing music using foresight and planning |
US10593349B2 (en) | 2016-06-16 | 2020-03-17 | The George Washington University | Emotional interaction apparatus |
CN110249387B (zh) | 2017-02-06 | 2021-06-08 | 柯达阿拉里斯股份有限公司 | 用于创建伴随视觉影像的音频轨的方法 |
US10675544B2 (en) * | 2017-03-31 | 2020-06-09 | Sony Interactive Entertainment LLC | Personalized user interface based on in-application behavior |
WO2019121576A2 (en) | 2017-12-18 | 2019-06-27 | Bytedance Inc. | Automated music production |
IL259059A (en) | 2018-04-30 | 2018-06-28 | Arcana Instr Ltd | A musical instrument with a joystick with variable voltage and a variable range of motion and a method of using it |
US11508393B2 (en) * | 2018-06-12 | 2022-11-22 | Oscilloscape, LLC | Controller for real-time visual display of music |
US10861429B2 (en) | 2018-06-29 | 2020-12-08 | Limitless Music, LLC | Music composition aid |
US20200138356A1 (en) * | 2018-11-01 | 2020-05-07 | Moodify Ltd. | Emotional state monitoring and modification system |
US11328700B2 (en) | 2018-11-15 | 2022-05-10 | Sony Interactive Entertainment LLC | Dynamic music modification |
US10964299B1 (en) | 2019-10-15 | 2021-03-30 | Shutterstock, Inc. | Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions |
US11475867B2 (en) | 2019-12-27 | 2022-10-18 | Spotify Ab | Method, system, and computer-readable medium for creating song mashups |
-
2019
- 2019-11-07 US US16/677,303 patent/US11969656B2/en active Active
- 2019-11-07 JP JP2021526653A patent/JP7223848B2/ja active Active
- 2019-11-07 CN CN201980075286.0A patent/CN113038998A/zh active Pending
- 2019-11-07 WO PCT/US2019/060306 patent/WO2020102005A1/en unknown
- 2019-11-07 EP EP19884029.0A patent/EP3880324A4/en active Pending
-
2024
- 2024-04-29 US US18/649,362 patent/US20240278135A1/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070068367A1 (en) * | 2005-09-20 | 2007-03-29 | Microsoft Corporation | Music replacement in a gaming system |
WO2007043679A1 (ja) * | 2005-10-14 | 2007-04-19 | Sharp Kabushiki Kaisha | 情報処理装置およびプログラム |
US20100307320A1 (en) * | 2007-09-21 | 2010-12-09 | The University Of Western Ontario | flexible music composition engine |
US20160253915A1 (en) * | 2009-07-02 | 2016-09-01 | The Way Of H, Inc. | Music instruction system |
CA2725722A1 (en) * | 2010-12-17 | 2012-06-17 | Karen E. Collins | Method and system for incorporating music into a video game using game parameters |
TW201426730A (zh) * | 2012-12-20 | 2014-07-01 | Univ Southern Taiwan Sci & Tec | 音樂的情緒分類方法 |
TW201426731A (zh) * | 2012-12-20 | 2014-07-01 | Univ Southern Taiwan Sci & Tec | 遊戲音樂的情緒分類方法 |
CN106362260A (zh) * | 2016-11-09 | 2017-02-01 | 武汉智普天创科技有限公司 | Vr情绪调节装置 |
Non-Patent Citations (1)
Title |
---|
KIM: "MUSIC EMOTION RECOGNITION :A STATE OF THE ART REVIEW", 11TH INTERNATIONAL SOCIETY FOR MUSIC INFORMATION RETRIEVAL CONFERENCE, 31 December 2010 (2010-12-31), pages 255 - 256 * |
Also Published As
Publication number | Publication date |
---|---|
US11969656B2 (en) | 2024-04-30 |
JP7223848B2 (ja) | 2023-02-16 |
WO2020102005A1 (en) | 2020-05-22 |
JP2022507579A (ja) | 2022-01-18 |
US20240278135A1 (en) | 2024-08-22 |
US20200188790A1 (en) | 2020-06-18 |
EP3880324A1 (en) | 2021-09-22 |
EP3880324A4 (en) | 2022-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11969656B2 (en) | Dynamic music creation in gaming | |
Herremans et al. | A functional taxonomy of music generation systems | |
Ratliff | Every song ever: Twenty ways to listen in an age of musical plenty | |
Tsatsishvili | Automatic subgenre classification of heavy metal music | |
Nilsson | A field of possibilities: Designing and playing digital musical instruments | |
Miranda | A-life for music: Music and computer models of living systems | |
Shaviro | The rhythm image: music videos and new audiovisual forms | |
López | González | |
Sun et al. | Research on pattern recognition of different music types in the context of AI with the help of multimedia information processing | |
Aljanaki | Emotion in Music: representation and computational modeling | |
Sporka et al. | Design and implementation of a non-linear symphonic soundtrack of a video game | |
Dubnov et al. | Delegating creativity: Use of musical algorithms in machine listening and composition | |
Reed | Laurie Anderson's Big Science | |
Assayag et al. | Interaction with machine improvisation | |
Wadsworth et al. | Rhyme, Metrical Tension, and Formal Ambiguity in Kendrick Lamar’s Flow | |
Hart | Performance cartography, performance cartology: Musical networks for computational musicological analysis. | |
Plut | Application and evaluation of affective adaptive generative music for video games | |
Thompson IV | Creating Musical Scores Inspired by the Intersection of Human Speech and Music Through Model-Based Cross Synthesis | |
Xu | Making Music Composing Easier for Amateurs: A Hybrid Machine Learning Approach | |
da Silva Durão | L-music: Uma Abordagem Para Composição Musical Assistida Usando L-systems | |
Giavitto | All Watched Over by Machines of Loving Grace | |
O'Connor | Dark Waves: The Synthesizer and the Dystopian Sound of Britain (1977-80) | |
Ogilvie-Hanson | Posthuman Production: Technology and Embodiment in the Works of SOPHIE and Holly Herndon | |
Thelle | Making sensors make sense: challenges in the development of digital musical instruments | |
Rosenboom | Illusions of Form |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |