CN111465979A - 信息处理方法、信息处理装置和信息处理程序 - Google Patents
信息处理方法、信息处理装置和信息处理程序 Download PDFInfo
- Publication number
- CN111465979A CN111465979A CN201980006424.XA CN201980006424A CN111465979A CN 111465979 A CN111465979 A CN 111465979A CN 201980006424 A CN201980006424 A CN 201980006424A CN 111465979 A CN111465979 A CN 111465979A
- Authority
- CN
- China
- Prior art keywords
- information processing
- processing apparatus
- data
- feature
- encoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 323
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000000605 extraction Methods 0.000 claims abstract description 57
- 239000000284 extract Substances 0.000 claims abstract description 51
- 238000000034 method Methods 0.000 claims description 70
- 230000008569 process Effects 0.000 claims description 54
- 238000012545 processing Methods 0.000 claims description 40
- 238000010586 diagram Methods 0.000 description 42
- 239000013598 vector Substances 0.000 description 36
- 239000011295 pitch Substances 0.000 description 24
- 230000033764 rhythmic process Effects 0.000 description 24
- 239000000470 constituent Substances 0.000 description 22
- 230000004048 modification Effects 0.000 description 21
- 238000012986 modification Methods 0.000 description 21
- 230000036961 partial effect Effects 0.000 description 20
- 238000009826 distribution Methods 0.000 description 16
- 230000008859 change Effects 0.000 description 13
- 238000003860 storage Methods 0.000 description 11
- 238000005070 sampling Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000013500 data storage Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000000926 separation method Methods 0.000 description 7
- 238000013459 approach Methods 0.000 description 5
- 230000008451 emotion Effects 0.000 description 4
- 230000000717 retained effect Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000002829 reductive effect Effects 0.000 description 3
- 239000000126 substance Substances 0.000 description 3
- 230000017105 transposition Effects 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0025—Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/071—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
Abstract
本信息处理装置(100)包括:提取单元(131),从构成第一内容的元素中提取第一数据;和模型生成单元(132),生成具有第一编码器(50)和第二编码器(55)的训练模型,第一编码器计算作为第一内容的特征量的第一特征量,第二编码器计算作为所提取的第一数据的特征量的第二特征量。
Description
技术领域
本公开涉及一种信息处理方法、信息处理装置以及信息处理程序。更具体地,本公开涉及一种通过机器学习生成的学习模型的生成处理。
背景技术
在各种技术领域中,已使用了利用机器学习的信息处理。例如,通过使用模拟大脑神经系统的机制的神经网络学习内容(图像、音乐等)的特征,自动地生成其他内容。
例如,已经提出了一种技术,该技术使用户能够通过学习现有歌曲的特征来自动创作与歌词匹配的适当歌曲,而无需用户输入除歌词以外的参数。
现有技术文献
专利文献
专利文献1:特开2011-175006号公报
发明内容
技术问题
根据相关技术,通过学习根据表示每首歌曲的歌词的歌词数据和表示歌曲的属性的属性数据计算出的语言特征量,如果给出新的歌词数据,则可以自动生成与新的歌词数据相匹配的歌曲。
然而,在相关技术中,仅生成与歌词匹配的旋律或和弦,并不总是以用户所希望的方式生成歌曲。例如,在相关技术中,难以生成保留用户所指定的特征的歌曲,诸如,在仅保留特定的现有歌曲的节奏的同时改变旋律等。也就是,在传统的学习处理中,难以执行选择性地学习内容的某些特征(例如,歌曲的节奏、旋律及构成声音)的处理。
因此,本公开提出了一种能够选择性地学习用户所指定的特征量的信息处理装置、信息处理方法以及信息处理程序。
问题的解决方案
为了解决上述问题,一种信息处理装置包括:提取单元,从构成第一内容的元素中提取第一数据;和模型生成单元,生成具有第一编码器和第二编码器的学习模型,第一编码器计算作为第一内容的特征量的第一特征量,第二编码器计算作为所提取的第一数据的特征量的第二特征量。
附图说明
图1是示出根据本公开的实施方式的信息处理的示例的示图。
图2是示出根据本公开的实施方式的特征量的示图。
图3是用于对根据本公开的实施方式的生成处理进行说明的示图。
图4是示出根据本公开的实施方式的信息处理装置的配置例的示图。
图5是示出根据本公开的实施方式的歌曲数据存储单元的示例的示图。
图6是示出根据本公开的实施方式的信息处理步骤的示例的流程图(1)。
图7是示出根据本公开的实施方式的信息处理步骤的流程图(2)。
图8是示出根据本公开的第一变形的学习处理的示例的示图。
图9是示出根据本公开的第二变形的学习处理的示例的示图。
图10是示出根据本公开的第三变形的生成处理的示例的示图。
图11是用于对根据本公开的生成处理进行概念性地描述的示图。
图12是示出根据本公开的第四变形的学习处理的示例的示图(1)。
图13是示出根据本公开的第四变形的学习处理的示例的示图(2)。
图14是示出根据本公开的第四变形的学习处理的示例的示图(3)。
图15是示出根据本公开的第四变形的学习处理的示例的示图(4)。
图16是示出根据本公开的第五变形的学习处理的示例的示图。
图17是示出根据本公开的第五变形的生成处理的示例的示图(1)。
图18是示出根据本公开的第五变形的生成处理的示例的示图(2)。
图19是示出根据本公开的第六变形的信息处理的示例的示图(1)。
图20是示出根据本公开的第六变形的信息处理的示例的示图(2)。
图21是示出根据本公开的第六变形的信息处理的示例的示图(3)。
图22是示出实现信息处理装置的功能的计算机的示例的硬件配置图。
具体实施方式
下面将参考附图对本公开的实施方式进行详细描述。在下列各个实施方式中,以相同参考标号表示相同的零件,并且将省去其重复性的描述。
将按照下列各项的顺序对本公开进行描述。
1.实施方式
1-1.根据本公开的实施方式的信息处理的概要
1-2.根据实施方式的信息处理装置的配置
1-3.根据实施方式的信息处理步骤
2.其他实施方式
3.硬件配置
(1.实施方式)
[1-1.根据本公开的实施方式的信息处理的概要]
图1是示出根据本公开的实施方式的信息处理的示例的示图。通过图1中示出的信息处理装置100实现根据本公开的实施方式的信息处理。
信息处理装置100是执行根据本公开的信息处理的装置并且是例如信息处理终端或服务器装置。
在实施方式中,信息处理装置100生成用于提取内容的特征的学习模型并且基于所生成的学习模型来生成新的内容。在实施方式中,内容由诸如音乐(歌曲)、图像以及动画(运动图像)等预定格式的数字数据构成。在图1的示例中,使用信息处理装置100对作为内容的示例的歌曲进行处理。
根据实施方式的学习模型具有编码器和解码器,编码器从构成内容的数据中提取特征量,并且解码器根据所提取的特征量对内容进行重构。例如,信息处理装置100通过诸如变分自编码器(VAE)和生成对抗网络(GAN)等无监督学习来学习编码器。具体地,信息处理装置100将内容输入至编码器,从所提取的特征量对内容进行重构,对重构内容之前和之后的内容进行比较并且对编码器和解码器的参数进行调整。信息处理装置100通过重复该处理并且优化编码器和解码器的参数而生成学习模型。因此,信息处理装置100能够生成从构成内容的数据中获得适当特征量的学习模型。应注意,特征量由例如具有的维数比输入内容的数据更低的矢量表示。
应注意,学习模型并不局限于上述示例,并且只要学习模型能够提取特征量并且从所提取的特征量对内容进行重构,则学习模型可以是任意模型。
在图1的示例中,信息处理装置100将歌曲(换言之,表示构成歌曲的声音的数字数据)输入至编码器,并且提取诸如旋律线、构成声音、节奏(音乐的时间结构,例如,包括多少音符和休止符,按什么顺序再生声音等)、速度以及节拍等表示歌曲的特征的元素,作为歌曲的特征量。
此处,在如上所述生成用于提取现有歌曲的特征量的学习模型的情况下,适当地提取用户所指定的特征可能是一个问题。例如,如果按原样提取任意歌曲的特征量,则可以再现歌曲的特征,但是有时难以使用诸如使用特征量生成新内容的特征量。具体地,使用上述VAE等提取的特征量是一列矢量数值,人类难以识别每个数值表示什么特征。例如,即使自动生成仅包含现有歌曲的节奏特征的新歌曲,人类也难以判断是否使用任意数值生成特征量矢量(换言之,表示特征量的潜在空间)。
因此,根据本公开的信息处理装置100通过下述信息处理生成不仅能够提取整首歌曲的特征量,而且还能够提取用户所希望的特征量的学习模型。具体地,信息处理装置100从作为计算特征量所针对的目标的内容(在下文中,为了区分被称为“第一内容”)中包含的元素(换言之,构成第一内容的数字数据)中提取预定数据(下文中,为了区分被称为“第一数据”)。信息处理装置100生成具有第一编码器和第二编码器的学习模型,第一编码器计算作为第一内容的特征量的第一特征量,第二编码器计算作为所提取的第一数据的特征量的第二特征量。
以这种方式,信息处理装置100生成具有包括第一编码器和第二编码器的配置的学习模型,当提取第一内容的特征量时,第一编码器提取全部第一内容的特征量,第二编码器仅处理第一内容的特定数据。尽管在后面进行了详细描述,然而,第一数据是通过预定操作从第一内容中提取的数据,以易于提取用户所指定的特征量。以这种方式,信息处理装置100生成能够通过使用多个编码器从第一内容及第一内容的某些元素中分别提取特征量的学习模型。结果,信息处理装置100能够获得其中仅用户所希望的特征被单独表达的特征量。此外,信息处理设备100可以使用单独获得的特征量而仅改变或不改变用户在现有内容中指定的特征(例如,歌曲的节奏),从而使得可以自动地生成新的内容(以下,为了区别而称为“第二内容”)。为了说明的目的,将提取第一内容的特征量的编码器称为第一编码器,将提取第一数据的特征量的编码器称为第二编码器,但这是为了方便。例如,提取第一内容的特征量的编码器可以是第二编码器。
在下文中,参考图1,将根据流程描述本公开的信息处理的概要。图1示出了其中信息处理装置100使用学习数据来使学习模型(第一编码器50、第二编码器55以及解码器60)进行学习的处理的流程。
首先,信息处理装置100获取作为学习数据的示例的歌曲30(步骤S1)。歌曲30由例如表示音高、音长以及休止符的符号串(数字数据)构成。作为示例,音高是表示以预定阶数(例如,128阶等)表示声音的音高的频率的音高。此外,音长表示再现的声音保持多长时间。此外,休止符表示声音再现停止的时刻。进一步地,指示歌曲30的数据可以包括诸如歌曲30的节拍或速度、指示小节的停顿的符号、特定时刻的和弦、或构成和弦的构成声音等信息。
例如,信息处理装置100对符号串进行转换,以使得其能够通过模型进行处理。作为示例,信息处理装置100使用被表示成矢量(例如,表示音高、音长等分配给每个维度的声音信息的嵌入(embedding)矢量)的符号串进行处理。表示该声音的数据可以由例如乐器数字接口(MIDI)(注册商标)格式表示,可以是由通用音序器再现的已知格式的数字数据,或可以被表示成WAV格式等波形数据。
通过上述处理,信息处理装置100获得表示歌曲30的数据(步骤S2)。在图1的示例中,表示歌曲30的数据(矢量)被表达成“x1”。
接着,信息处理装置100对数据x1执行提取操作40(步骤S3)。提取操作40是仅从歌曲30中分离出特定特征(例如,用户所希望的特征)的预处理,意指对数据x1执行预定操作并且提取预定数据(对应“第一数据”)的操作。
作为示例,信息处理装置100通过对数据x1执行具有顺序不变性的运算处理来提取第一数据(步骤S4)。例如,具有顺序不变性的运算是指使用交换运算符的运算。具体地,具有顺序不变性的运算是指不取决于顺序的运算(例如,包括可指具有近似顺序不变性的运算,使得计算结果通过包括预定系数而略微地改变),诸如加法或乘法以及取最大值(max)运算等。应注意,在图1的示例中,将通过提取操作40从数据x1中提取的信息表示成特征信息“f1”。
例如,在图1的示例中,假设使信息处理装置100执行处理的用户希望从歌曲30的特征中提取“节奏”。歌曲中的节奏是与时间(顺序)有关的特征。为此,例如,当试图从歌曲30中仅提取节奏时,可以考虑留下表示音符的布置(音长与休止符之间的关系)的信息及隐藏(掩盖)其他信息的方法。
例如,信息处理装置100对数据x1中包括的数据执行具有顺序不变性的运算并且丢弃“表示声音的顺序的信息”。作为示例,信息处理装置100能够将数据x1中的嵌入矢量的平均值作为具有顺序不变性的运算。
将基于特定示例对该方法进行描述。假设与构成歌曲30的8个节拍对应的音符的布置是“C4,_,_,_,E4,_,_,R”。在本示例中,“C4”和“E4”表示声音的音高。此外,符号“_”表示对之前的声音进行延长。此外,“R”表示“休止符”。
此处,假设信息处理装置100具有表示与每个声音或休止符对应的嵌入矢量的数据表。例如,嵌入矢量是d维度(d是任意整数)并且是其中“1”输入至与相应声音对应的维度(诸如,“C4”或“E4”)并且“0”输入至其他维度的矢量。
即,当参考诸如“C4,_,_,_,E4,_,_,R”等数据的布置时,信息处理装置100参考“C4”的嵌入矢量四次,然后参考“E4”的嵌入矢量三次,以及参考“R”的嵌入矢量一次。
此处,信息处理装置100对与“C4,_,_,_,E4,_,_,R”对应的嵌入矢量求平均(可以是加法)。然后,在平均矢量中,丢弃了取决于顺序的信息(即,节奏),并且提取除表示声音的顺序的信息之外的信息(例如,构成声音等)。以这种方式,信息处理装置100能够提取歌曲的局部部分中的“除表示声音的顺序的信息之外的信息”。
在通过这种方式获得的特征信息f1中,保留数据x1中所包括的构成声音(即,构成歌曲30的构成声音的音高),但是,丢弃表示节奏的信息(发出声音的时刻、休止符所处的时刻等)。
随后,信息处理装置100将原始数据x1输入至第一编码器50并且将特征信息f1输入至第二编码器55,第二编码器55是与第一编码器50不同的编码器(步骤S5)。应注意,例如,第一编码器50和第二编码器55是上述VAE等中的编码器并且提取输入数据的特征量作为低维矢量。
信息处理装置100获得从第一编码器50和第二编码器55中的每一个输出的特征量(步骤S6)。在图1的示例中,将数据x1的特征量表达成“z1”,并且将特征信息f1的特征量表达成“z2”。
应注意,在描述中对特征量z1和特征量z2进行了单独描述,但是,特征量z1和特征量z2实际上被包括在一个特征量矢量中。将参考图2对此进行描述。图2是用于对根据本公开的实施方式的特征量进行说明的示图。
如图2中示出的,假设在通过信息处理装置100生成的学习模型中,特征量矢量是64维矢量。在这种情况下,从第一编码器50输出的特征量z1构成特征量矢量的一部分(例如,特征量矢量的前半部分)。此外,从第二编码器55输出的特征量z2也构成特征量矢量的一部分(例如,特征量矢量的后半部分)。应注意,将特征量矢量设置成64维,将多少维度分配给第一编码器50的输出,将多少维度分配给第二编码器55的输出等,可任意设置。
也就是,通过使用多个编码器构成模型,信息处理装置100能够判断特征量矢量的某个维度是从某个编码器输出的值。即,信息处理装置100能够输出能人工解释某个维度表示某个特征的特征量矢量。
返回至图1,继续进行描述。信息处理装置100将从第一编码器50和第二编码器55中的每一个输出的特征量z1和特征量z2输入至解码器60(步骤S7)。
解码器60是经过学习基于通过编码器提取的特征量重构内容的解码器。在图1的示例中,解码器60基于从第一编码器50和第二编码器55中的每一个输出的特征量z1和特征量z2来输出数据x2(步骤S8)。
数据x2与作为第一内容的数据的数据x1具有相同的格式。即,数据x2可以指用于再现与歌曲30具有相同格式的歌曲35的数据(符号串)。换言之,信息处理装置100基于从解码器60输出的数据x2来重构内容(在图1的示例中为歌曲35)(步骤S9)。
然后,信息处理装置100基于重构内容执行模型的学习处理。具体地,信息处理装置100对特征量的提取处理之前和之后的数据(即,数据x1和数据x2)进行比较,并且优化第一编码器50、第二编码器55以及解码器60的参数使得数据x2接近数据x1(步骤S10)。更具体地,信息处理装置100对参数进行优化,以使得数据x1与数据x2之间的重构误差减小并且特征量的后验分布接近先验分布。进一步地,信息处理装置100获取除数据x1之外的多条学习数据并且重复图1中示出的学习处理,以优化学习模型。因此,信息处理装置100能够根据本公开生成学习模型。
根据通过图1的处理生成的学习模型,当将新的歌曲输入至模型时,可以获得其中分离出歌曲的特征量的特征量矢量。在图1的示例中,因为根据学习模型的第二编码器55基于学习数据之中的其中已经丢弃节奏信息的数据(例如,特征信息f1)进行学习,所以第二编码器55是经过学习提取除节奏之外的特征的编码器。换言之,从第二编码器55输出的特征量可以指捕获诸如歌曲中的构成声音等顺序不变特征量的一个特征量(可由人类解释为某个维度指示“构成声音”的一个特征量)。另一方面,根据学习模型的第一编码器50可以指经过学习从特征量矢量中主要提取顺序可变特征量(即,节奏)的编码器。换言之,从第一编码器50输出的特征量可以指仅捕获歌曲中的节奏特征的一个特征量(可由人类解释为某个维度指示“节奏”的一个特征量)。
如上所述,信息处理装置100将所分离和提取的信息提前输入至多个编码器并且基于信息执行学习,由此使得可以将通常表示为简单的数值的序列的特征量矢量分离成特定的特征。例如,如果内容是歌曲,信息处理装置100则能够输出其中分离出节奏或旋律(诸如和弦的构成声音等)的特征量矢量。即,信息处理装置100能够生成分离用户所指定的特征(能够选择性地学习用户所指定的特征量)的学习模型。
此外,信息处理装置100还能够通过使用所生成的学习模型而生成具有用户所指定的特征的新内容(第二内容)。将参考图3对此进行描述。图3是用于对根据本公开的实施方式的生成处理进行说明的示图。
如图3中示出的,信息处理装置100获取图1中示出的特征量z1(步骤S11)。如上所述,特征量z1是包括相对更多的歌曲30中的与节奏有关的特征的特征量。换言之,特征量z1是从歌曲30中分离出的针对目标的特征量。
另一方面,信息处理装置100获取特征量z3,其是与图1中示出的特征量z2具有相同维度的特征量(步骤S11)。特征量z3表示任意数据的特征量。例如,任意数据的特征量是使用第二编码器55从歌曲30之外的其他歌曲中提取的特征量。可替代地,任意数据的特征量还可以是从诸如特征量z2等特征量的先验分布中采样的特征量。
然后,信息处理装置100将特征量z1和特征量z2输入至解码器60(步骤S12)。信息处理装置100获取从解码器60输出的数据x3(步骤S13)。随后,信息处理装置100从数据x3重构歌曲45作为第二内容(步骤S14)。
如上所述,特征量z1是表示歌曲30的节奏特征的特征量。出于此原因,由数据x3重构的歌曲45具备歌曲30的节奏特征(例如,音符的布置顺序、音符的划分、小节的数量、速度等),并且构成声音等是具有由特征量z3表示的特征的歌曲。具体地,歌曲45在保留歌曲30的节奏的同时,具有的由该节奏演奏的音阶(例如,反映特征量z3中的构成声音的特征的音阶)不同于歌曲30的音阶的歌曲。应注意,在重构歌曲45之后,信息处理装置100可以在固定特征量z1(固定节奏)的同时重复从先验分布中对特征量z3的重新采样。结果,信息处理装置100能够自动生成在保留相同节奏特征的同时以不同的音阶播放的多首歌曲。此处,在生成第二内容时,特征量z1不必与图1中示出的特征量z1相同,并且可以使用从特征量z1的先验分布中采样的值。
由此,信息处理装置100能够分离并且提取特定的特征(在本示例中,为节奏)并且使用所提取的特征量生成内容,结果,能够自由创作具有用户所希望的特征的歌曲。例如,信息处理装置100能够在固定节奏的同时生成具有不同构成声音的歌曲的变体。此外,当不固定节奏而是固定构成声音的特征(在上述示例中,固定特征量z2,并且将不同的特征量输入至与特征量z1对应的位置)时,信息处理装置100能够生成具有固定的和弦类型的各种瑟音变化,诸如播放各种节奏(音相)等。换言之,如果特征是用户能够指定的特征(换言之,能够描述生成特征信息的规则),则信息处理装置100固定任意音乐概念从而能够自动生成具有各种变化的歌曲。
应注意,在上述步骤S4中,已经示出了其中信息处理装置100使用数据x1中的顺序不变性提取关于节奏的特征信息f1的示例。此处,信息处理装置100可以通过使用丢弃表示音高的信息的方法来提取特征信息f1。
基于与上述步骤S4中的示例类似的特定示例给出描述。假设与构成歌曲30的8个节拍对应的音符的布置是“C4,_,_,_,E4,_,_,R”。在本示例中,“C4”和“E4”表示声音的音高。此外,符号“_”表示对之前的声音进行延长。此外,“R”表示“休止符”。
此处,信息处理装置100删除表示音高的信息。例如,信息处理装置100以诸如“M”等公共信息替代诸如“C4”和“E4”等信息。结果,构成歌曲30的信息是“M,_,_,_,M,_,_,R”。该信息是其中仅丢弃音高的信息,但该信息中保留了节奏。
在这种情况下,因为所提取的信息(被称为“特征信息f2”)不同,所以在步骤S5之后编码器的学习也不同。即,因为特征信息f2具有保留歌曲30的节奏的信息,所以学习该信息的第二编码器55经学习输出表示歌曲的“节奏特征”的特征量z2。另一方面,第一编码器50经学习输出歌曲的除“节奏特征”之外的特征量z1。即,训练(学习)了提取与图1中示出的示例不同的信息的编码器。以这种方式,第一编码器50和第二编码器55的学习预先根据提取操作40的类型而变化。
应注意,图1中的示例示出了学习整首歌曲30的特征的示例,但是,信息处理装置100可以在每个预定的部分暂停歌曲30并且获取每部分中的内容的数据(部分数据)。
在这种情况下,信息处理装置100可以使用各种已知的方法将歌曲30划分成部分数据。例如,信息处理装置100检测小节的预设停顿并且将歌曲30划分成部分数据(小节)。可替代地,信息处理装置100可以基于节拍与音符之间的关系将歌曲30划分成部分数据。例如,如果歌曲30是4/4节拍,信息处理装置100则检测具有与四分音符对应的长度的四个声音再现时的时间点作为一个停顿并且将歌曲30划分成小节。
此外,信息处理装置100可以使用除小节之外的停顿(pause)作为部分数据。例如,信息处理装置100可以检测歌曲30的旋律线的停顿(例如,具有超过预定阈值的长度的休止符出现的位置等)并且将歌曲划分成部分数据。在这种情况下,部分数据不一定需要与小节相匹配。进一步地,信息处理装置100可以对歌曲30的和弦改变时的时刻等进行检测并且可以基于所检测的时刻将歌曲30划分成部分数据。
[1-2.根据实施方式的信息处理装置的配置]
接着,将描述作为根据实施方式的执行信息处理的信息处理装置的示例的信息处理装置100的配置。图4是示出根据本公开的实施方式的信息处理装置100的配置例的示图。
如图4中示出的,信息处理装置100具有通信单元110、存储单元120以及控制单元130。应注意,信息处理装置100可以具有从管理信息处理装置100的管理员等接收各种操作的输入单元(例如,键盘或鼠标)或显示各种信息的显示单元(例如,液晶显示器等)。
例如,通过网络接口卡(NIC)等实现通信单元110。通信单元110通过有线或无线方式连接至网络N(诸如互联网等)并且经由网络N将信息发送至其他装置等和从其他装置等接收信息。
例如,通过诸如随机存取存储器(RAM)或闪存等半导体存储器元件、或诸如硬盘或光盘等存储设备实现存储单元120。存储单元120包括模型存储单元121和歌曲数据存储单元122。
模型存储单元121存储学习模型。具体地,模型存储单元121包括提取内容的特征量的第一编码器50和第二编码器55以及重构内容的解码器60。应注意,模型存储单元121可以存储诸如学习所使用的内容等学习数据。
歌曲数据存储单元122存储与被输入至模型的内容(歌曲)有关的数据。图5示出了根据实施方式的歌曲数据存储单元122的示例。图5是示出根据本公开的实施方式的歌曲数据存储单元122的示例的示图。在图5示出的示例中,歌曲数据存储单元122具有诸如“歌曲ID”、“部分数据ID”、“音高信息”、“音长休止符信息”、“和弦信息”以及“节奏信息”等项。
“歌曲ID”是用于识别歌曲的识别信息。“部分数据ID”是用于识别部分数据的识别信息。例如,部分数据与构成歌曲的一个或多个小节对应。
“音高信息”表示关于部分数据中所包括的声音的音高(音阶)的信息。“音长休止符信息”表示部分数据中所包括的声音的长度(再现时间或再现节拍)或休止符的长度或时刻。“和弦信息”表示部分数据中所包括的和弦的类型、和弦的构成声音、小节中的和弦的切换等。“节奏信息”表示小节的节拍或速度(tempo)、强节拍的位置、弱节拍的位置等。
应注意,在图5中,将诸如音高信息等项概念性地描述为“C01”,但实际上,每项存储表示上述声音的特定数据。此外,出于说明之缘故,图5示出了其中将“音高信息”、“音长休止符信息”等存储为不同的项的示例,但是这些条信息可以作为指示小节中所包括的音符的信息而被统一存储在一项等中。即,表示歌曲的数据的格式并不局限于图5中示出的格式,而是只要格式能够被模型处理,可以是任意格式。
例如,图5中示出的示例示出了通过歌曲ID“A01”识别的歌曲具有通过部分数据ID“B01”或“B02”识别的部分数据。此外,具有部分数据ID“B01”的部分数据包括其音高信息是“C01”、音长休止符信息是“D01”、和弦信息是“E01”及节奏信息是“F01”的声音数据。
返回至图4,将继续进行描述。通过以随机存取存储器(RAM)等作为工作区,使信息处理装置100中所存储的程序(例如,根据本公开的信息处理程序)运行的例如中央处理单元(CPU)、微处理单元(MPU)等来实现控制单元130。此外,控制单元130是控制器并且可以通过诸如专用集成电路(ASIC)或现场可编程门阵列(FPGA)等集成电路来实现。
如图4中示出的,控制单元130包括提取单元131、模型生成单元132、获取单元133以及内容生成单元134,并且实现或执行下述信息处理的功能或操作。应注意,控制单元130的内部配置并不局限于图4中示出的配置,而是只要控制单元130执行后面所述的信息处理,则可以是其他配置。
提取单元131从构成第一内容的元素中提取第一数据。例如,提取单元131根据用户的指定,基于预定规则从构成第一内容的元素中提取第一数据。例如,提取单元131对构成作为歌曲的第一内容的数字数据执行提取操作,以提取第一数据。
例如,提取单元131接收用户针对第一内容而指定的操作及执行操作的范围的指定,并且在所接收的范围内执行操作。具体地,在图1示出的歌曲30中,提取单元131从用户接收仅从歌曲30中提取节奏的操作及提取节奏的范围(例如,小节等)的指定。然后,提取单元131根据用户的指定执行与提取有关的操作。
作为操作示例,提取单元131通过对范围中所包括的元素执行具有顺序不变性的运算处理来提取第一数据。例如,提取单元131对构成第一内容的数据执行诸如加法、乘法、或取最大值运算等的顺序不变运算。通过该处理,提取单元131能够从第一内容中提取其中仅与顺序有关的信息(在歌曲的示例中为节奏)被掩盖的第一数据。
应注意,从范围内所包括的元素中,提取单元131可以通过丢弃不是时间相关或顺序相关的信息来提取第一数据。在歌曲中,不是时间相关或顺序相关的信息包括例如特定小节中的和弦的构成声音、歌曲的调性、音符的总数、歌曲的节拍等。另一方面,与时间或顺序有关的信息的示例包括歌曲的节奏信息。
例如,提取单元131能够通过丢弃第一内容的特定范围的信息之中作为与时间无关或与顺序无关的信息的音高信息,来提取其中仅保留了节奏信息的第一数据。
模型生成单元132生成具有第一编码器50和第二编码器55的学习模型,第一编码器50计算作为第一内容的特征量的第一特征量,第二编码器55计算作为提取单元131所提取的第一数据的特征量的第二特征量。应注意,学习模型中所包括的编码器的数量并不局限于两个,并且学习模型中可以包括更多数量的编码器。
进一步地,模型生成单元132生成包括解码器60的学习模型,解码器60基于第一特征量和第二特征量解码与第一内容对应的数据。即,当对从多个编码器中提取的特征量进行解码时,模型生成单元132生成被配置为通过一个共同解码器60进行解码的学习模型。
例如,在学习诸如歌曲等内容数据的情况下,模型生成单元132将内容数据输入至第一编码器50并且将从内容数据中提取的特征信息输入至第二编码器55。随后,模型生成单元132将从第一编码器50和第二编码器55输出的特征量输入至解码器60并且重构内容(歌曲)。然后,模型生成单元132对第一编码器50、第二编码器55以及解码器60的参数进行调整,以使得之前内容与之后内容的数据之差减少。模型生成单元132重复该处理并且生成其中对第一编码器50、第二编码器55、以及解码器60进行优化后的学习模型。如上所述,模型生成单元132可以使用诸如VAE和GAN等各种已知的方法生成模型。
获取单元133获取各种信息。例如,获取单元133获取被输入至模型生成单元132生成的学习模型的数据。
例如,获取单元133获取从第一编码器50输出的特征量或从第二编码器55输出的特征量。进一步地,获取单元133可以改变所输出的特征量并且获取已获取的信息作为将被输入至学习模型的信息。例如,获取单元133可以通过从已知特征量的先验分布中对已知特征量进行采样而获得新的特征量。
进一步地,获取单元133可以从用户使用的信息处理终端中获取任意数据。例如,获取单元133获取构成歌曲的数据。然后,获取单元133可以将所获取的数据输入至学习模型(在这种情况下,分别将相同的数据输入至第一编码器50和第二编码器55)并且获取从每个编码器输出的特征量。
内容生成单元134向解码器输入从学习后的第一编码器50或第二编码器55输出的特征量或者通过对基于这些特征量生成的任意特征量进行组合而获得的值,由此生成与第一内容具有相同格式的第二内容作为新内容。应注意,基于从学习后的第一编码器50或第二编码器55输出的特征量而生成的特征量是例如通过从任意编码器输出的特征量的先验分布进行采样而获得的特征量。
例如,内容生成单元134可以基于通过将任意数据输入至学习后的第一编码器50或第二编码器55而输出的特征量生成第二内容。可替代地,如图3中示出的示例,内容生成单元134可以根据通过将所生成的已知特征量(在图3的示例中为特征量z1)与通过将任意数据输入至学习后的第一编码器50或第二编码器55而获得的特征量(在图3的示例中为特征量z3)进行组合而获得的值(例如,64维矢量),生成第二内容。
应注意,如上所述,保持用户所希望的特征的特征量根据用户指定的操作而改变。即,从第一编码器50输出的特征量和从第二编码器55输出的特征量中的哪一特征量保持用户所希望的特征根据用户指定的操作或提取操作的类型而改变。在任意情况下,如果获得与被输入至解码器60的特征量对应的值(例如,如果特征量是64维矢量,则是构成64维矢量的值),内容生成单元134则能够生成与特征量对应的第二内容。
此外,内容生成单元134可以将通过对从学习后的第一编码器50输出的特征量与从学习后的第二编码器55输出的特征量进行组合而获得的值输入至解码器60来生成第二内容,而无需使用已知的特征量。例如,内容生成单元134可以基于通过对由获取单元133获得的任意数据(歌曲等)与通过将任意数据输入至学习后的第一编码器50或第二编码器55而输出的每个特征量进行组合而获得的值,来生成第二内容。
此外,内容生成单元134可以通过固定组合值之中与任意特征量对应的值并且按顺序改变与其他特征量对应的值,来按顺序生成多个第二内容。例如,当特征量的前半部分表示节奏特征时,内容生成单元134能够通过固定特征量的前半部分并且改变后半部分,来按顺序生成保留其节奏的多首歌曲。
[1-3.根据实施方式的信息处理步骤]
接着,将参考图6和图7对根据实施方式的信息处理步骤进行描述。首先,将参考图6对根据本公开的实施方式的学习处理的流程进行描述。图6是示出根据本公开的实施方式的信息处理步骤的流程图(1)。
如图6中示出的,信息处理装置100判断是否已经获取学习数据(内容)(步骤S101)。当未获取学习数据时(步骤S101;否),信息处理装置100等待,直至获取学习数据。
另一方面,当获取了学习数据时(步骤S101;是),信息处理装置100提取目标信息(特征信息)(步骤S102)。
然后,信息处理装置100将原始学习数据与所提取的信息输入至单独的编码器(步骤S103)。例如,信息处理装置100将原始学习数据输入至第一编码器50并且将所提取的信息输入至第二编码器55。
然后,信息处理装置100计算原始学习数据和所提取信息中每一个的特征量(步骤S104)。随后,信息处理装置100将所计算的特征量输入至解码器60(步骤S105)。
从而,信息处理装置100使解码器60输出与原始学习数据的格式相同的数据(步骤S106)。然后,信息处理装置100基于输出数据和原始学习数据对模型进行优化(步骤S107)。例如,信息处理装置100将输出数据与原始学习数据进行比较,并且对模型参数进行优化,以减少重构误差。应注意,为了模型优化,信息处理装置100可以重复从步骤S101至步骤S107的处理足够的次数(例如,直至参数稳定在预定的阈值内)。
信息处理装置100将学习模型(第一编码器50、第二编码器55以及解码器60)存储在存储单元120中(步骤S108)。结果,信息处理装置100结束学习处理。
接着,将参考图7对根据本公开的实施方式的生成处理的流程进行描述。图7是示出根据本公开的实施方式的信息处理步骤的流程图(2)。
如图7中示出的,信息处理装置100获取第一特征量(步骤S201)。例如,第一特征量是学习后的第一编码器50的输出。进一步地,信息处理装置100获取第二特征量(步骤S202)。例如,第二特征量是学习后的第二编码器55的输出。
然后,信息处理装置100将通过对所获取的第一特征量和第二特征量进行组合而获得的值输入至解码器60(步骤S203)。
随后,信息处理装置100基于从解码器60输出的数据生成第二内容(步骤S204)。
(2.其他实施方式)
除上述各个实施方式之外,可以通过各种不同的形式(变形)执行根据上述各个实施方式的处理。
[2-1.学习和生成处理的变形]
在上述实施方式中,已经描述了包括两个编码器和一个解码器的学习模型。此处,信息处理装置100可以学习具有与上述实施方式的配置不同的配置的各种模型。将参考图8对此进行描述。
图8是示出根据本公开的第一变形的学习处理的示例的示图。与图1中示出的示例相比较,图8中示出的示例与图1中示出的示例的不同在于,模型具有第一解码器61和第二解码器62。
在图8示出的示例中,如图1中示出的步骤S1,信息处理装置100对数据x1执行提取操作40(步骤S15),并且提取特征信息f1(步骤S16)。进一步地,如图1中示出的步骤S5一样,信息处理装置100将数据x1输入至第一编码器50并且将特征信息f1输入至第二编码器55(步骤S17)。从而信息处理装置100获取特征量z1和特征量z2(步骤S18)。换言之,该操作是指信息处理装置100对数据x1和特征信息f1执行与第一编码器50或第二编码器55对应的功能操作并且输出特征量z1和特征量z2。
随后,信息处理装置100将特征量z1和特征量z2输入至第一解码器61并且将特征量z2输入至第二解码器(步骤S19)。换言之,该操作是指信息处理装置100对特征量z1和特征量z2执行与第一解码器61对应的功能操作,并且对特征量z2执行与第二解码器62对应的功能操作。
信息处理装置100通过步骤S19中的操作从第一解码器61获得数据x'。进一步地,信息处理装置100从第二解码器62获得特征信息f'(步骤S20)。应注意,数据x'是与数据x1具有相同格式的数据并且概念性地表示经由解码器输出的数据。此外,特征信息f'是与特征信息f1具有相同格式的数据并且概念性地表示经由解码器输出的特征信息。
之后,信息处理装置100对各编码器和解码器的参数进行调整,以使得数据x'接近数据x1并且特征信息f'接近特征信息f1。即,信息处理装置100通过与图1中示出的步骤S10相同的方式执行模型优化处理。
因此,信息处理装置100可以学习具有两个解码器的模型。换言之,信息处理装置100生成具有第一解码器61和第二解码器62的学习模型,第一解码器61基于第一特征量(特征量z1)和第二特征量(特征量z2)解码出与第一内容(数据x1)对应的数据,第二解码器62基于第二特征量解码出与从构成第一内容的元素中提取的第一数据(特征信息f1)对应的数据(特征信息f2)。
根据该配置,与图1中示出的配置相比较,通过第二编码器55和第二解码器62学习的特征量z2必将具有关于特征信息f1的信息。出于此原因,信息处理装置100能够可靠地执行特征分离的学习。更具体地,信息处理装置100通过图8中示出的配置,能够更为可靠地学习被分离为特征信息f1的信息(例如,歌曲的节奏)。
应注意,图8中示出的模型能够具有又一不同的配置。将参考图9对此进行描述。图9是示出根据本公开的第二变形的学习处理的示例的示图。
与图8中示出的示例相比较,图9中示出的示例与图8中示出的示例的不同在于,模型不具有第二编码器55。
在图9示出的示例中,如图8中示出的步骤S15,信息处理装置100对数据x1执行提取操作40(步骤S31),并且提取特征信息f1(步骤S32)。此处,信息处理装置100将数据x1输入至第一编码器50(步骤S33)并且获得特征量z1和特征量z2(步骤S34)。在这种情况下,信息处理装置100针对从第一编码器50输出的值提前设置预定规则并且输出特征量z1和特征量z2。例如,信息处理装置100提前设置规则,以使得所输出的64维矢量的前32维是特征量z1并且后32维是特征量z2。
随后,信息处理装置100将特征量z1和特征量z2输入至第一解码器61,并且将特征量z2输入至第二解码器62(步骤S35)。信息处理装置100通过步骤S35中的操作从第一解码器61获得数据x'。进一步地,信息处理装置100从第二解码器62获得特征信息f'(步骤S36)。
之后,信息处理装置100对每个编码器和解码器的参数进行调整,以使得数据x'接近数据x1并且特征信息f'接近特征信息f1。
如上所述,即使在其中省去第二编码器55的配置中,信息处理装置100也能够执行如图1和图8示出的对分离特征量的学习。因此,信息处理装置100能够简化模型的配置,结果,例如能够快速执行学习处理或能够减少处理负荷。
接着,将参考图10描述生成新内容的情况下的生成处理的变形。图10是示出根据本公开的第三变形的生成处理的示例的示图。
图10示出了在从学习后的第一编码器50和第一解码器61生成新的内容时的处理的流程。应注意,例如,第一编码器50和第一解码器61是通过图9中的学习等其参数经过学习(训练)的编码器和解码器。
信息处理装置100将任意数据x1输入至第一编码器50(步骤S41)并且获得特征量z1和特征量z2(步骤S42)。然后,信息处理装置100将特征量z1和特征量z2输入至第一解码器61(步骤S43)并且获得数据x'(步骤S44)。应注意,信息处理装置100可以不从第一编码器50获得被输入至第一解码器61的特征量,而是通过从事先学习的特征量的分布中对被输入至第一解码器61的特征量进行采样来获得特征量。
以这种方式,信息处理装置100能够从具有简单配置的学习模型(在本示例中,为第一编码器50和第一解码器61)生成作为新内容的数据x'。根据该配置,信息处理装置100将特征量z1和特征量z2输入至一个解码器并且因此能够获得例如包括未被完全分离的特征的数据x'。结果,信息处理装置100能够生成甚至包括节奏信息的新内容,该节奏信息未被完全分离成例如特征量z2并且还被假设甚至保留在特征量z1中。
[2-2.提取操作的变形]
在上述实施方式中,作为提取操作40的示例,已经描述了其中执行预定操作从歌曲30中提取顺序不变信息(例如,节奏信息)的示例。除本示例之外,信息处理装置100还可以执行各种操作作为提取操作40。
例如,在上述实施方式中,已经示出了其中信息处理装置100提取歌曲30的和弦构成声音的示例,但是,信息处理装置100不仅可以提取和弦构成声音,而且还可以提取旋律的构成声音或鼓的构成声音。例如,旋律的构成声音表示诸如歌曲的小节等某个部分中出现的声音类型等。此外,例如,鼓的构成声音表示诸如歌曲的小节等某个部分中出现的鼓组等的声音类型(小鼓、低音鼓等)。
此外,信息处理装置100可以提取表示音高的流的信息(所谓的旋律轮廓(MelodicContour)),诸如在歌曲的流中音高是上升、下降、还是停留等。此外,信息处理装置100可以提取构成歌曲的声音的音阶(表示12种声音中的哪种声音被用于创作歌曲的信息)。进一步地,信息处理装置100可以提取赋予构成声音的顺序的信息(有顺序的构成声音)。例如,信息处理装置100可以提取其中相邻音符的音高进行排序和布置的信息(例如,诸如1度、1度以及2度等音高的序列)。
此外,信息处理装置100可以提取歌曲中的模式分类序列(例如,隐含/实现模型等)。进一步地,信息处理装置100可以采用提取通过例如调性音乐的生成理论(GTTM)的时间跨度树的深度所确定的重要音符序列的方法。
此外,信息处理装置100可以从构成歌曲的声音中提取主音(lead sound)、和弦音、和弦类型、和弦的基音、低音线等。
进一步地,当歌曲由MIDI信息构成时,信息处理装置100可以提取某个部分中的强度信息(velocity)。
进一步地,信息处理装置100可以提取构成歌曲的每个乐器或每个乐器组的声音。此外,当通过深层神经网络(DNN)学习某首歌曲的特征时,信息处理设备100可以提取通过计算某层的特征之间的相关性而获得的风格特征量等。进一步地,信息处理装置100可以提取歌曲中的自相似性。
此外,信息处理装置100可以学习歌曲的特征并且基于学习结果提取特征。例如,信息处理装置100可以学习通过序列到序列网络(模型)对歌曲进行转调的任务并且对解码器设定诸如转调等条件,以提取对于转调不变的特征。
[2-3.应用变形]
如上述实施方式中所述,根据本公开的信息处理,可以执行其中分离预定特征的学习,因此,能够选择性地增加或减少新内容中所出现的特征的影响。将参考图11对此进行描述。图11是用于对根据本公开的生成处理进行概念性地描述的示图。
图11示出了概念性地示出通过根据本公开的生成处理生成的歌曲的图像(音高和音长)的图表64。如上所述,信息处理装置100能够提取节奏作为表示歌曲的一个特征并且生成反映固定或改变节奏的影响的新歌曲。
例如,在固定确定歌曲的节奏特征的因子(被称为“节奏因子”)的同时改变除节奏因子之外的特征时,信息处理装置100沿着图11中示出的固定节奏因子的轴而生成歌曲。另一方面,当固定除节奏因子之外的特征并且改变节奏因子时,信息处理装置100沿着图11中示出的固定除节奏因子之外的轴而生成歌曲。
通常,在内容生成中,当不能分离特征量时,则可以对原始数据进行一些改变,但是难以调整改变的方向。例如,信息处理装置100能够通过改变歌曲65的表示1小节的声音信息的特征量而生成新歌曲66,但是,当不能分离特征量时,改变的方向将被设置成对角线上的一个方向(所谓的1D插值)。
然而,根据信息处理装置100,因为能够从歌曲的特征中分离出诸如节奏因子等元素,所以能够在其中固定节奏因子的方向上和其中固定除节奏因子之外的元素的方向(所谓的2D插值)上改变歌曲65。例如,信息处理装置100能够根据用户需求将歌曲65改变成图表64中示出的所有歌曲的图像。如上所述,信息处理装置100能够生成新的内容,以对特征量的混合比进行调整。
即,信息处理装置100不仅能够通过固定歌曲的节奏或转调程度、音阶等,而且还能够通过控制改变的程度来生成新内容或变形。作为一种特定的方法,能够通过获得两种噪声并且将每种噪声添加至两个特征量z1和z2可生成特征量的变化。此时,当噪声被缩放时,能够控制两个特征量z1和z2中的每个特征量的变化程度。例如,当存在用于获得噪声的两种方法时,存在(1)从诸如正常分布等某个固定分布中获得噪声的方法和(2)使用VAE来学习编码器并且使用从编码器输出的噪声的方法。此外,信息处理装置100能够通过交换某两首歌曲的特征而执行诸如生成新内容等灵活的生成处理。
[2-4.特征量的变形]
在上述实施方式中,已经描述了其中信息处理装置100学习歌曲中的两种类型的特征量(节奏及除节奏之外的元素)的示例。然而,信息处理装置100可以学习两种或更多种类型的特征量。
将参考图12对此进行描述。图12是示出根据本公开的第四变形的学习处理的示例的示图(1)。图12概念性地示出了在学习处理中分离的特征量zo、za、zb和zc以及特征量之间的关系变化。
图12的(a)中示出的概念图67示出了三种类型的特征量是排他特征的特征组。图12的(b)中示出的概念图68示出了四种类型的特征量是作为共同部分的某个空间的特征组。图12的(c)中示出的概念图69示出了三种类型的特征量是作为嵌套空间的特征组。
图13示出了学习图12的(a)中示出的特征组的示例。图13是示出根据本公开的第四变形的学习处理的示例的示图(2)。
如图13中示出的,信息处理装置100对数据x1执行第一提取操作41和第二提取操作42(步骤S51)。然后,信息处理装置100通过第一提取操作41获得特征信息f1并且通过第二提取操作42获得特征信息f2(步骤S52)。随后,信息处理装置100将数据x1输入至第一编码器50,将特征信息f1输入至第二编码器55,并且将特征信息f2输入至第三编码器56(步骤S53)。
信息处理装置100分别从第一编码器50获得特征量zo,从第二编码器55获得特征量za,并且从第三编码器56获得特征量zb(步骤S54)。随后,信息处理装置100分别将特征量zo、特征量za以及特征量zb输入至第一解码器61,将特征量za输入至第二解码器62并且将特征量zb输入至第三解码器63(步骤S55)。然后,信息处理装置100从第一解码器61获得数据x',从第二解码器62获得特征信息f1',并且从第三解码器63获得特征信息f2'(步骤S56)。随后,信息处理装置100对解码器和编码器进行优化,分别使得数据x'接近数据x1,特征信息f1'接近特征信息f1并且特征信息f2'接近特征信息f2。
通过图13中示出的配置,信息处理装置100能够学习具有图12的(a)中示出的关系的特征组。应注意,作为图13中示出的学习的特定示例,例如,第一解码器61执行与歌曲的旋律有关的任务,第二解码器62执行与歌曲的旋律的节奏有关的任务,并且第三解码器63执行与歌曲的旋律构成声音有关的任务。换言之,在图13示出的模型中,可以说第二解码器62捕获特征量za,第三解码器63捕获特征量zb,并且第一解码器61捕获其他特征。
接着,图14示出了学习图12的(b)中示出的特征组的示例。图14是示出根据本公开的第四变形的学习处理的示例的示图(3)。
如图14中示出的,信息处理装置100将数据x1输入至第一编码器50(步骤S61)。然后,信息处理装置100从第一编码器50输出特征量zo、za、zb以及zc(步骤S62)。应注意,在这种情况下,信息处理装置100可以通过与图9中的步骤S33相同的方式设置关于特征量的分离的预定规则等。
随后,信息处理装置100分别将特征量zo、za、zb以及zc输入至第一解码器61,将特征量za和特征量zc输入至第二解码器62,并且将特征量zb和zc输入至第三解码器63(步骤S63)。如图12的(b)中示出的,该处理基于事实:特征量zc与特征量za以及与特征量zb具有共同的特征。
然后,信息处理装置100从第一解码器61获得数据x',从第二解码器62获得特征信息f1',并且从第三解码器63获得特征信息f2'(步骤S56)。随后,信息处理装置100对解码器和编码器进行优化,以分别使得数据x'接近数据x1,特征信息f1'接近特征信息f1,并且特征信息f2'接近特征信息f2。
通过图14中示出的配置,信息处理装置100能够学习具有图12的(b)中示出的关系的特征组。
接着,图15示出了学习图12的(c)中示出的特征组的示例。图15是示出根据本公开的第四变形的学习处理的示例的示图(4)。
在图15示出的处理中,步骤S71至S74与图13中示出的步骤S51至S54是相同的,并且由此省去其描述。
信息处理装置100分别将在步骤S74获得的特征量zo、特征量za以及特征量zb输入至第一解码器61,将特征量za和特征量zb输入至第二解码器62,并且将特征量zb输入至第三解码器63(步骤S75)。如图12的(c)中示出的,该处理基于事实:特征量zb与特征量za和特征量zo具有嵌套结构。
然后,信息处理装置100分别从第一解码器61获得数据x',从第二解码器62获得特征信息f1',并且从第三解码器63获得特征信息f2'(步骤S76)。随后,信息处理装置100对解码器和编码器进行优化,以分别使得数据x'接近数据x1,特征信息f1'接近特征信息f1,并且特征信息f2'接近特征信息f2。
通过图15中示出的配置,信息处理装置100能够学习具有图12的(c)中示出的关系的特征组。如参考图12至图15描述的,即使当多个特征量(特征组)具有不同的关系时,信息处理装置100也能够通过分离每个特征而执行学习。
[2-5.信息处理的变形]
当两个特征量(例如,特征量z1和特征量z2)之间存在依赖关系时,信息处理装置100可以依赖于每次处理所使用的编码器或先验分布。
进一步地,信息处理装置100可以在编码器的两个通道中共享嵌入矢量(embedding)。例如,当信息处理装置100通过提取歌曲的构成声音等而执行学习时,信息处理装置100在编码器的两个通道中共享嵌入矢量。
进一步地,信息处理装置100可以使用敌对学习分离特征量。具体地,信息处理装置100可以学习对特征量z2和正常分布的噪声进行分类的标识符,以分离两个特征量(例如,特征量z1和特征量z2),并且可以执行诸如学习特征量z1等敌对学习,使得识别变得不能进行。
[2-6.模型结构的变形]
信息处理装置100可以学习关于特征量或特征信息的处理具有另外不同结构的模型。下面将参考图16对此进行描述。图16是示出根据本公开的第五变形的学习处理的示例的示图。
在图16示出的示例中,信息处理装置100对数据x1执行提取操作40(步骤S81)并且提取特征信息f1(步骤S82)。之后,信息处理装置100将特征信息f1与数据x1一起输入至第一编码器50并且将特征信息f1输入至第二编码器55(步骤S83)。因此,信息处理装置100获得特征量z1和特征量z2(步骤S84)。
随后,信息处理装置100将特征量z1和特征信息f1输入至第一解码器61,并且将特征量z2输入至第二解码器62(步骤S85)。然后,信息处理装置100从第一解码器61获得数据x'并且从第二解码器62获得特征信息f'(步骤S86)。
之后,信息处理装置100对每个编码器和解码器的参数进行调整,以使得数据x'接近数据x1并且特征信息f'接近特征信息f1。即,信息处理装置100执行模型优化处理。
如上所述,信息处理装置100可以生成具有第一解码器61和第二解码器62的学习模型,第一解码器61基于第一特征量(特征量z1)和第一数据(特征信息f1)来解码出与第一内容(数据x1)对应的数据,第二解码器62基于第二特征量(特征量z2)解码出与第一数据对应的数据(特征信息f')。
具体地,不同于图8中示出的模型等,在步骤S85,信息处理装置100将特征信息f1输入至第一解码器61。因此,在对特征信息f1进行调节之后,信息处理装置100能够执行编码器和解码器的学习。即,信息处理装置100能够执行包括特征信息f1的学习,由此排除与特征信息f1有关的不确定性。具体地,信息处理装置100能够提前执行包括特征信息f1的学习,因此,可以防止由于某些因子而出现不执行分离特征量的学习的情形(例如,仅提取歌曲的节奏信息作为特征量等)。
更具体地,根据图16中的模型的结构,不针对特征量z1学习特征信息f1的不确定性,并且仅学习数据x1的除特征信息f1之外的部分的不确定性。换言之,对于特征量z1,学习与特征信息f1无关的空间。另一方面,通过其他编码器(在图16的示例中,为第二编码器55)学习与特征信息f1有关的空间。结果,学习特征量z1和特征量z2作为明确分离的空间。即,根据第五变形的学习处理,信息处理装置100能够提高学习稳定性。
接着,将参考图17描述生成新内容的情况下的生成处理的变形。图17是示出根据本公开的第五变形的生成处理的示例的示图(1)。
图17示出了从学习后的第一编码器50、第一解码器61以及第二解码器62生成新内容时的处理的流程。应注意,例如,第一编码器50、第一解码器61以及第二解码器62是通过图16中的学习而学习其参数的编码器和解码器。
信息处理装置100对任意数据x1执行提取操作40(步骤S87)并且提取特征信息f1(步骤S88)。之后,信息处理装置100将特征信息f1与数据x1一起输入至第一编码器50(步骤S89)。作为结果,信息处理装置100获得特征量z1(步骤S90)。此外,信息处理装置100通过从事前学习的特征量(空间)的分布中采样事前学习的特征量(空间)而获得任意特征量z2。
随后,信息处理装置100将所获得的特征量z2输入至第二解码器62(步骤S91)并且将所获得的特征信息f'、特征量z1以及特征信息f1输入至第一解码器61(步骤S91)。因此,信息处理装置100获得数据x',即,新内容(步骤S92)。
通过图17中的配置,信息处理装置100能够生成反映通过提取操作提取的特征(在图17的示例中为特征信息f1)的影响的数据x'作为新内容。
应注意,信息处理装置100在生成时可以采用又一不同的配置。将参考图18对此进行描述。
图18示出了从学习后的第一编码器50、第二编码器55、第一解码器61以及第二解码器62生成新内容时的处理的流程。应注意,例如,第一编码器50、第二编码器55、第一解码器61以及第二解码器62是通过图16中的学习而学习其参数的编码器和解码器。
信息处理装置100对任意数据x1执行提取操作40(步骤S93)并且提取特征信息f1(步骤S94)。之后,信息处理装置100将特征信息f1与数据x1一起输入至第一编码器50,并且将特征信息f1输入至第二编码器55(步骤S95)。因此,信息处理装置100从第一编码器50获得特征量z1并且从第二编码器55获得特征量z2(步骤S96)。此时,信息处理装置100可通过从事前学习的特征量(空间)的分布中采样事前学习的特征量(空间)而获得任意特征量z1。
随后,信息处理装置100将所获得的特征量z2输入至第二解码器62(步骤S97)并且将所获得的特征信息f'和特征量z1输入至第一解码器61。因此,信息处理装置100获得数据x',即,新内容(步骤S98)。
通过图18中的配置,信息处理装置100能够生成反映通过提取操作提取的特征(在图18的示例中,为特征信息f1)的影响的数据x'作为新内容。
[2-7.内容的变形]
在上述实施方式中,内容的示例包括歌曲(音乐)。此处,根据变形的信息处理装置100可以使用图像、文本数据等作为内容而执行根据本公开的信息处理。
将参考图19至图21描述其中信息处理装置100将图像作为内容进行处理的示例。图19是示出根据本公开的第六变形的信息处理的示例的示图(1)。
例如,当将图像作为内容进行处理时,信息处理装置100执行从图像中提取高分辨率信息或低分辨率信息的操作。
例如,假设信息处理装置100学习图19中示出的作为内容的图像80并且生成学习模型。假设构成图像80的像素的数量是“128×128像素”。在这种情况下,在诸如“32×32像素”等的占据一定大小的粗略范围内聚集(pooled,合并出)每个像素信息。结果,获得了对于每个“32×32像素”,图像80由一个像素表示的低分辨率图像(通过对图像80进行马赛克处理而获得的图像)。
然后,信息处理装置100利用第一编码器50学习图像80的原始数据并且利用第二编码器55学习低分辨率图像。然后,从第一编码器50输出的特征量z1是表示比32×32像素更小的范围内的特征的特征量。另一方面,从第二编码器55输出的特征量z2是表示除由特征量z1表示的特征之外的更宽范围内的特征的特征量。
例如,由图像80中的32×32像素表示的特征不与人对应,而是与诸如背景等宽范围的颜色对应。另一方面,例如,表示图像80中比32×32像素更小的范围内的特征对应于例如与诸如人的眼睛或鼻子的部位等更小范围内的特征的信息等。
出于此原因,信息处理装置100在固定特征量z1的同时改变特征量z2(例如,在固定特征量z1的同时,利用先验分布对特征量z2进行采样),并且当生成多个第二内容时,能够生成图19中示出的图像组82。图19中示出的图像组82中所包括的每个图像是其中诸如图像80中包括的人的眼睛或鼻子等细微部位几乎不改变并且仅背景颜色和环境光发生改变的图像。
按照这种方式生成的图像组82是指通过在各种背景和环境中对同一人成像而获得的多个图像。即,根据信息处理装置100,可以从对某个人成像而获得的一个图像80中获得与在不同环境中对同一人成像而获得的那些图像相当的大量图像。因此,信息处理装置100能够从非常小数量的原始图像获得用于生成执行特定处理的机器学习模型(例如,面部识别或面部表情识别等分类器)的较大数量的图像。换言之,信息处理装置100能够通过适当的方式使得学习所使用的图像增加。
进一步地,信息处理装置100能够执行与图19中的学习不同的学习。将参考图20对不同学习的示例进行描述。图20是示出根据本公开的第六变形的信息处理的示例的示图(2)。
作为学习的原始数据,使用与图19相同的图像80。在图20的示例中,在占有与图19相比更小范围的范围(诸如图像80的“8×8像素”等)内聚集每个像素信息。
然后,信息处理装置100利用第一编码器50学习图像80的原始数据并且利用第二编码器55学习聚集图像。然后,从第一编码器50输出的特征量z1是表示比8×8像素更小的范围内的特征的特征量。另一方面,从第二编码器55输出的特征量z2是表示除由特征量z1表示的特征之外的更宽范围内的特征的特征量。
例如,图像80中的比8×8像素更小的范围内所表示的特征与例如诸如人的眼睛和鼻子的部位等更小范围内的特征的信息等对应。
在图20的示例中,信息处理装置100在固定特征量z2的同时改变特征量z1(例如,在固定特征量z2的同时,利用先验分布对特征量z1进行采样),并且当生成多个第二内容时,能够生成图20中示出的图像组87。不同于图19,图20中示出的图像组87中所包括的每个图像是其中背景颜色或环境光几乎不发生改变并且诸如图像80中包括的人的眼睛或鼻子等细微部位发生改变的图像。
例如,按照这种方式生成的图像组87能够是用于生成高度准确的面部识别模型的较大数量的图像。即,当在图像80中捕获的人发生细微地改变时,可以使用图像组87生成做出不对在图像80中错误地捕获的人进行识别的判断的模型。因此,信息处理装置100能够改善面部识别模型的性能。
应注意,信息处理装置100能够使用又一不同的学习方法。将参考图21对此进行描述。图21是示出根据本公开的第六变形的信息处理的示例的示图(3)。
作为学习的原始数据,使用与图19相同的图像80。此处,在图21的示例中,在对图像80进行编码时,使用在中间层出现的数据来使第二编码器55学习。例如,信息处理装置100对第二编码器55的中间层的数据(例如,4×4像素的数据)执行全局均聚集(GAP)操作,并使第二编码器55学习,以输出特征量z2。因此,在特征量z2中,学习位置信息(背景等)已经消失的图像80,并且在特征量z1中,学习位置信息。在这种情况下,通过固定特征量z1并且对特征量z2进行采样可以操作除图像中的位置信息之外的信息。例如,如图21中示出的,生成图像组92,其中,保留背景的大致氛围,但是图像中包括的人的面部或人的发型在各个方面是不同的。换言之,信息处理装置100能够利用面部的改变特征属性(对准)生成包括各种人的各种图像。根据该处理,信息处理装置100能够从例如一个图像中生成贴有“人”的标签的较大数量的学习图像。
如上所述,信息处理装置100可以对构成第一内容的数字数据(即,图像)执行提取操作并且提取第一数据。例如,信息处理装置100通过对图像的特定区域中所包括的每个像素的像素信息执行具有顺序不变性的运算处理(例如,聚集)作为提取操作而提取第一数据。
如上所述,即使内容不是歌曲而是图像,信息处理装置100也能够执行其中分离用户作为目标的特征的学习。此外,信息处理装置100能够使用所生成的学习模型自动生成保留用户所指定的特征的图像,诸如其中固定某个特征(诸如背景或人的面部等)并且改变其他特征的图像等。
此外,信息处理装置100可以使用文本数据、动画等作为内容。即,如果可以通过单独编码器学习经由某些操作提取的信息和原始内容数据,信息处理装置100则能够执行分离目标特征量的学习,而与内容的类型无关。
进一步地,信息处理装置100可以应用根据本公开的信息处理,以基于人类味觉信息执行检测发出类似味道的物质等的处理。例如,信息处理装置100从某种物质中分离出具有某种味道的元素,并且将通过对每种元素进行数字化而获得的信息输入至各个编码器,由此学习通过从某种物质中仅分离出特定味道的特征而获得的特征。
此外,在上述实施方式中,已经描述了其中信息处理装置100通过执行具有顺序不变性的某种操作或者丢失某种信息来执行提取特征信息的操作的示例。然而,提取操作并不局限于本示例。例如,信息处理装置100基于针对歌曲的每个小节而提前人工设置的“歌曲的兴奋程度”,学习诸如哪一阶段具有较高的“兴奋程度等”的监督回归函数。然后,信息处理装置100基于学习结果计算待处理的歌曲的每个小节的兴奋程度。然后,信息处理装置100仅提取其兴奋程度超过预定阈值的小节并且利用第二编码器55学习所提取的小节。因此,信息处理装置100能够生成可以分离诸如“兴奋程度”的人工设置的特征的学习模型。
即,信息处理装置100不一定必须通过算法运算从内容中提取特征信息,而是还能够基于人工设置特征从内容中提取特征信息。利用该配置,例如,因为能够分离与情绪对应的特征,所以可以自动生成例如具有人类所感觉的某些特征的内容,诸如产生高兴情绪的内容等。作为示例,信息处理装置100对自然语言处理应用该配置,以自动生成具有引起某种情绪的特征的内容(句子),诸如“产生幸福情绪的句子”等。
[2-8.其他]
进一步地,在上述实施方式描述的每个处理之中,被描述为自动执行的全部或部分处理可手动执行或者被描述为手动执行的处理可通过已知方法自动执行。此外,除非另有规定,否则,能够任意改变上述文献和附图中示出的处理步骤、具体名称以及包括各种数据和参数的信息。例如,每个附图中示出的各种信息并不局限于所示出的信息。
此外,所示出的每个设备的每个部件是功能性概念并且并不一定需要如图所示在物理上配置。即,每个设备的分配/集成的具体形式并不局限于附图中示出的形式,并且根据各种负荷和使用条件,可以将其全部或部分功能地或物理地分配/集成到任意单元中。
进一步地,能够将上述实施方式和变形适当地组合在不与处理内容冲突的范围内。
此外,本说明书中描述的效果仅是示出性的并且并不局限于例证并且可以存在额外的效果。
(3.硬件配置)
例如,通过具有图11中示出的配置的计算机1000实现诸如根据上述各个实施方式的信息处理装置100等信息设备。在下文中,将根据实施方式的信息处理装置100描述为示例。图22是示出实现信息处理装置100的功能的计算机1000的示例的硬件配置图。计算机1000包括CPU 1100、RAM 1200、只读存储器(ROM)1300、硬盘驱动器(HDD)1400、通信接口1500以及输入/输出接口1600。计算机1000的每个部分通过总线1050连接。
CPU 1100基于存储在ROM 1300或HDD 1400中的程序而操作并且控制各个单元。例如,CPU 1100将存储在ROM 1300或HDD 1400中的程序扩展到RAM 1200中并且执行与各种程序对应的处理。
ROM 1300存储诸如当计算机1000启动时通过CPU 1100运行的基本输入输出系统(BIOS)等启动程序、取决于计算机1000的硬件的程序等。
HDD 1400是非临时地记录通过CPU 1100运行的程序、程序所使用的数据等的计算机可读记录介质。具体地,HDD 1400是记录根据本公开的信息处理程序(作为程序数据1450的示例)的记录介质。
通信接口1500是用于将计算机1000连接至外部网络(例如,互联网)的接口。例如,CPU 1100经由通信接口1500从其他设备接收数据并且将通过CPU 1100生成的数据发送至其他设备。
输入/输出接口1600是用于在输入/输出设备1650与计算机1000之间连接的接口。例如,CPU 1100经由输入/输出接口1600从诸如键盘或鼠标等输入设备接收数据。此外,CPU1100经由输入/输出接口1600将数据发送至诸如显示器、扬声器、或打印机等输出设备。进一步地,输入/输出接口1600可以用作读取预定记录介质上所记录的程序等的介质接口。例如,介质是诸如数字通用盘(DVD)或相变重写盘(PD)等光学记录介质、诸如磁光盘(MO)、磁带介质、磁记录介质等磁光记录介质、半导体存储器等。
例如,当计算机1000用作根据实施方式的信息处理装置100时,计算机1000的CPU1100通过执行被加载到RAM 1200上的信息处理程序而实现控制单元130的功能等。进一步地,HDD 1400将根据本公开的信息处理程序或数据存储在存储单元120中。应注意,CPU1100从HDD 1400读取并且运行程序数据1450,但作为另一示例,CPU 1100可以经由外部网络1550从其他设备获取这些程序。
应注意,本技术还能够被配置成如下。
(1)一种信息处理装置,包括:
提取单元,从构成第一内容的元素中提取第一数据;和
模型生成单元,生成具有第一编码器和第二编码器的学习模型,第一编码器计算作为第一内容的特征量的第一特征量,第二编码器计算作为所提取的第一数据的特征量的第二特征量。
(2)根据(1)所述的信息处理装置,其中,
模型生成单元,
生成具有解码器的学习模型,解码器基于第一特征量和第二特征量对与第一内容对应的数据进行解码。
(3)根据(1)或(2)所述的信息处理装置,其中,
提取单元,
接收用户针对第一内容而指定的操作和对执行操作的范围的指定并且在所接收的范围内执行操作。
(4)根据(3)所述的信息处理装置,其中,
提取单元,
通过对范围内包括的元素执行具有顺序不变性的运算处理作为操作来提取第一数据。
(5)根据(3)或(4)所述的信息处理装置,其中,
提取单元,
通过丢弃范围内包括的元素中与时间无关或与顺序无关的信息而提取第一数据。
(6)根据(3)~(5)中任一项所述的信息处理装置,其中,
提取单元,
对构成歌曲的第一内容的数字数据执行操作并且提取第一数据。
(7)根据(6)所述的信息处理装置,其中,
提取单元,
执行丢失第一内容中与范围内包括的声音信息中的声音的高度有关的信息的操作并且提取第一数据。
(8)根据(3)~(5)中任一项所述的信息处理装置,其中,
提取单元,
对构成图像的第一内容的数字数据执行操作并且提取第一数据。
(9)根据(8)所述的信息处理装置,其中,
提取单元,
通过对图像的特定区域中所包括的每个像素的像素信息执行具有顺序不变性的运算处理作为该操作而提取第一数据。
(10)根据(2)~(9)中任一项所述的信息处理装置,进一步包括:
内容生成单元,通过将从学习后的第一编码器或第二编码器输出的特征量或组合基于特征量生成的特征量中任一特征量而获得的值输入至解码器来生成第二内容,第二内容是与第一内容具有相同格式的新内容。
(11)根据(10)所述的信息处理装置,其中,
内容生成单元,
通过将从学习后的第一编码器输出的特征量与从学习后的第二编码器输出的特征量进行组合而获得的值输入至解码器而生成第二内容。
(12)根据(10)或(11)所述的信息处理装置,其中,
内容生成单元,
通过按顺序固定与组合的值之中的任意一个特征量对应的值并且改变与其他特征量对应的值,来按顺序生成多个第二内容。
(13)一种信息处理方法,包括:
允许计算机,
从构成第一内容的元素中提取第一数据;并且
生成具有第一编码器和第二编码器的学习模型,第一编码器计算作为第一内容的特征量的第一特征量,并且第二编码器计算作为所提取的第一数据的特征量的第二特征量。
(14)一种用于运行计算机用作下列项的程序,
提取单元,从构成第一内容的元素中提取第一数据;和
模型生成单元,生成具有第一编码器和第二编码器的学习模型,第一编码器计算作为第一内容的特征量的第一特征量,并且第二编码器计算作为所提取的第一数据的特征量的第二特征量。
(15)根据(1)或(3)~(12)中任一项所述的信息处理装置,其中,
模型生成单元,
生成具有第一解码器和第二解码器的学习模型,第一解码器基于第一特征量和第二特征量对与第一内容对应的数据进行解码,第二解码器基于第二特征量对与第一数据对应的数据进行解码。
(16)根据(1)或(3)~(12)中任一项所述的信息处理装置,其中,
模型生成单元,
生成具有第一解码器和第二解码器的学习模型,第一解码器基于第一特征量和第一数据对与第一内容对应的数据进行解码,第二解码器基于第二特征量对与第一数据对应的数据进行解码。
符号说明
100 信息处理装置
110 通信单元
120 存储单元
121 模型存储单元
122 歌曲数据存储单元
130 控制单元
131 提取单元
132 模型生成单元
133 获取单元
134 内容生成单元
Claims (14)
1.一种信息处理装置,包括:
提取单元,从构成第一内容的元素中提取第一数据;和
模型生成单元,生成具有第一编码器和第二编码器的学习模型,所述第一编码器计算作为所述第一内容的特征量的第一特征量,所述第二编码器计算作为所提取的第一数据的特征量的第二特征量。
2.根据权利要求1所述的信息处理装置,其中
所述模型生成单元
生成具有解码器的所述学习模型,所述解码器基于所述第一特征量和所述第二特征量来解码与所述第一内容对应的数据。
3.根据权利要求1所述的信息处理装置,其中
所述提取单元
接收用户为所述第一内容指定的操作以及对执行所述操作的范围的指定,并且在所接收的范围内执行所述操作。
4.根据权利要求3所述的信息处理装置,其中
所述提取单元
通过对所述范围内包括的所述元素执行具有顺序不变性的运算处理作为所述操作来提取所述第一数据。
5.根据权利要求3所述的信息处理装置,其中
所述提取单元
从所述范围内包括的所述元素中,通过丢弃与时间无关或与顺序无关的信息来提取所述第一数据。
6.根据权利要求3所述的信息处理装置,其中
所述提取单元
对构成作为歌曲的所述第一内容的数字数据执行所述操作并且提取所述第一数据。
7.根据权利要求6所述的信息处理装置,其中
所述提取单元
执行丢失与所述范围内包括的声音信息中的声音的高度有关的信息的操作并且从所述第一内容中提取所述第一数据。
8.根据权利要求3所述的信息处理装置,其中
所述提取单元
对构成作为图像的所述第一内容的数字数据执行所述操作并且提取所述第一数据。
9.根据权利要求8所述的信息处理装置,其中
所述提取单元
通过对所述图像中特定区域中所包括的每个像素的像素信息执行具有顺序不变性的运算处理作为所述操作来提取所述第一数据。
10.根据权利要求2所述的信息处理装置,进一步包括:
内容生成单元,通过向所述解码器输入从经学习的第一编码器或第二编码器输出的特征量或组合基于所述特征量生成的特征量中的任意一个而获得的值来生成第二内容,所述第二内容是与所述第一内容具有相同格式的新内容。
11.根据权利要求10所述的信息处理装置,其中
所述内容生成单元
通过向所述解码器输入将从经学习的所述第一编码器输出的特征量与从经学习的所述第二编码器输出的特征量进行组合而获得的值来生成所述第二内容。
12.根据权利要求10所述的信息处理装置,其中
所述内容生成单元
通过固定所组合的值之中的与任意一个特征量对应的值并且按顺序改变与其他特征量对应的值,来按顺序生成多个所述第二内容。
13.一种信息处理方法,包括:
允许计算机:
从构成第一内容的元素中提取第一数据;以及
生成具有第一编码器和第二编码器的学习模型,所述第一编码器计算作为所述第一内容的特征量的第一特征量,所述第二编码器计算作为所提取的第一数据的特征量的第二特征量。
14.一种用于运行计算机用作以下单元的程序,
提取单元,从构成第一内容的元素中提取第一数据;和
模型生成单元,生成具有第一编码器和第二编码器的学习模型,所述第一编码器计算作为所述第一内容的特征量的第一特征量,所述第二编码器计算作为所提取的第一数据的特征量的第二特征量。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-197972 | 2018-10-19 | ||
JP2018197972 | 2018-10-19 | ||
JP2019061040 | 2019-03-27 | ||
JP2019-061040 | 2019-03-27 | ||
PCT/JP2019/039939 WO2020080239A1 (ja) | 2018-10-19 | 2019-10-10 | 情報処理方法、情報処理装置及び情報処理プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111465979A true CN111465979A (zh) | 2020-07-28 |
Family
ID=70283908
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980006424.XA Pending CN111465979A (zh) | 2018-10-19 | 2019-10-10 | 信息处理方法、信息处理装置和信息处理程序 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11869467B2 (zh) |
EP (1) | EP3726521A4 (zh) |
JP (2) | JP7415922B2 (zh) |
CN (1) | CN111465979A (zh) |
DE (1) | DE112019005226T5 (zh) |
WO (1) | WO2020080239A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022021890A (ja) * | 2020-07-22 | 2022-02-03 | 株式会社Tmik | 音楽処理システム、音楽処理プログラム、及び音楽処理方法 |
JP7033365B2 (ja) * | 2020-07-22 | 2022-03-10 | 株式会社Tmik | 音楽処理システム、音楽処理プログラム、及び音楽処理方法 |
EP4270267A1 (en) | 2020-12-28 | 2023-11-01 | Sony Group Corporation | Information processing device, information processing method, and information processing program |
US20240071342A1 (en) * | 2022-08-26 | 2024-02-29 | Meta Platforms, Inc. | Generative Music from Human Audio |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102568526A (zh) * | 2010-10-22 | 2012-07-11 | 索尼公司 | 信息处理设备、内容数据再配置方法及程序 |
CN103177177A (zh) * | 2011-09-08 | 2013-06-26 | 索尼公司 | 信息处理设备、估计器生成方法和程序 |
US20140174279A1 (en) * | 2012-12-21 | 2014-06-26 | The Hong Kong University Of Science And Technology | Composition using correlation between melody and lyrics |
US10013963B1 (en) * | 2017-09-07 | 2018-07-03 | COOLJAMM Company | Method for providing a melody recording based on user humming melody and apparatus for the same |
CN108304846A (zh) * | 2017-09-11 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 图像识别方法、装置及存储介质 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6167457A (en) * | 1996-12-11 | 2000-12-26 | Agilent Technologies | Message filters, automatic binding, and encoding for distributed systems |
JP2005301812A (ja) * | 2004-04-14 | 2005-10-27 | Hitachi Ltd | デジタル制御装置およびこれを用いたエンジン制御装置 |
US8549400B2 (en) * | 2004-09-28 | 2013-10-01 | Ricoh Company, Ltd. | Techniques for encoding media objects to a static visual representation |
JP3933160B2 (ja) | 2004-11-05 | 2007-06-20 | ヤマハ株式会社 | リズムパターン生成装置及びその記録媒体 |
KR20070099501A (ko) * | 2007-09-18 | 2007-10-09 | 테크온팜 주식회사 | 노래 학습 시스템 및 방법 |
JP2011175006A (ja) | 2010-02-23 | 2011-09-08 | Sony Corp | 情報処理装置、自動作曲方法、学習装置、学習方法、及びプログラム |
US8927846B2 (en) * | 2013-03-15 | 2015-01-06 | Exomens | System and method for analysis and creation of music |
US20150213515A1 (en) * | 2013-06-17 | 2015-07-30 | Yahoo! Inc. | Method and system for online content match advertising |
US9432671B2 (en) * | 2014-05-22 | 2016-08-30 | Xerox Corporation | Method and apparatus for classifying machine printed text and handwritten text |
JP2018005520A (ja) | 2016-06-30 | 2018-01-11 | クラリオン株式会社 | 物体検出装置及び物体検出方法 |
WO2018203147A2 (en) * | 2017-04-23 | 2018-11-08 | Voicebox Technologies Corporation | Multi-lingual semantic parser based on transferred learning |
US10733744B2 (en) * | 2017-05-11 | 2020-08-04 | Kla-Tencor Corp. | Learning based approach for aligning images acquired with different modalities |
JP6355800B1 (ja) * | 2017-06-28 | 2018-07-11 | ヤフー株式会社 | 学習装置、生成装置、学習方法、生成方法、学習プログラム、および生成プログラム |
-
2019
- 2019-10-10 CN CN201980006424.XA patent/CN111465979A/zh active Pending
- 2019-10-10 EP EP19873732.2A patent/EP3726521A4/en active Pending
- 2019-10-10 JP JP2020527830A patent/JP7415922B2/ja active Active
- 2019-10-10 WO PCT/JP2019/039939 patent/WO2020080239A1/ja unknown
- 2019-10-10 DE DE112019005226.8T patent/DE112019005226T5/de active Pending
- 2019-10-10 US US16/772,171 patent/US11869467B2/en active Active
-
2023
- 2023-11-20 US US18/513,693 patent/US20240096303A1/en active Pending
- 2023-12-26 JP JP2023218986A patent/JP2024038111A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102568526A (zh) * | 2010-10-22 | 2012-07-11 | 索尼公司 | 信息处理设备、内容数据再配置方法及程序 |
CN103177177A (zh) * | 2011-09-08 | 2013-06-26 | 索尼公司 | 信息处理设备、估计器生成方法和程序 |
US20140174279A1 (en) * | 2012-12-21 | 2014-06-26 | The Hong Kong University Of Science And Technology | Composition using correlation between melody and lyrics |
US10013963B1 (en) * | 2017-09-07 | 2018-07-03 | COOLJAMM Company | Method for providing a melody recording based on user humming melody and apparatus for the same |
CN108304846A (zh) * | 2017-09-11 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 图像识别方法、装置及存储介质 |
Non-Patent Citations (3)
Title |
---|
GAETAN HADJERES ET, AL.: "《DeepBach: a Steerable Model for Bach Chorales Generation》", 《ARXIV.ORG,CORNELL UNIVERSITY LIBRARY》, pages 1 - 9 * |
GINO BRUNNER ET, AL.: "《MIDI-VAE:Modeling Dynamics and Instrumentation of Music with Application to Style Transfer》", 《ARXIV.ORG,CORNELL UNIVERSITY LIBRARY》, pages 1 - 8 * |
IAN SIMON ET, AL.: "《LEARNING A LATENT SPACE OF MULTITRACK MEASURES》", 《ARXIV.ORG,CORNELL UNIVERSITY LIBRARY》, pages 1 - 6 * |
Also Published As
Publication number | Publication date |
---|---|
JP7415922B2 (ja) | 2024-01-17 |
JPWO2020080239A1 (ja) | 2021-09-09 |
WO2020080239A1 (ja) | 2020-04-23 |
US20210358461A1 (en) | 2021-11-18 |
US11869467B2 (en) | 2024-01-09 |
US20240096303A1 (en) | 2024-03-21 |
EP3726521A1 (en) | 2020-10-21 |
JP2024038111A (ja) | 2024-03-19 |
EP3726521A4 (en) | 2021-11-10 |
DE112019005226T5 (de) | 2021-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111465979A (zh) | 信息处理方法、信息处理装置和信息处理程序 | |
Brunner et al. | MIDI-VAE: Modeling dynamics and instrumentation of music with applications to style transfer | |
Mao et al. | DeepJ: Style-specific music generation | |
US11705096B2 (en) | Autonomous generation of melody | |
Levy et al. | Structural segmentation of musical audio by constrained clustering | |
US20210335333A1 (en) | Computing orders of modeled expectation across features of media | |
CN112435642B (zh) | 一种基于深度神经网络的旋律midi伴奏生成方法 | |
US20210151014A1 (en) | Information processing device for musical score data | |
US20220301528A1 (en) | Systems, Devices, and Methods for Harmonic Structure in Digital Representations of Music | |
CN111241829A (zh) | 一种基于神经网络的智能歌词修改方法及辅助系统 | |
Marchetti et al. | Convolutional generative adversarial network, via transfer learning, for traditional scottish music generation | |
JP7439755B2 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
Zhang et al. | WuYun: exploring hierarchical skeleton-guided melody generation using knowledge-enhanced deep learning | |
Nieto | Discovering structure in music: Automatic approaches and perceptual evaluations | |
Mezza et al. | A latent rhythm complexity model for attribute-controlled drum pattern generation | |
Zhu et al. | A Survey of AI Music Generation Tools and Models | |
JP7251684B2 (ja) | アレンジ生成方法、アレンジ生成装置、及び生成プログラム | |
Ranjan et al. | Using a bi-directional lstm model with attention mechanism trained on midi data for generating unique music | |
Yee-King | Latent spaces: A creative approach | |
Gross et al. | Automatic realistic music video generation from segments of youtube videos | |
Dhara et al. | Automatic note transcription system for Hindustani classical music | |
Johnson et al. | Musical motif discovery from non-musical inspiration sources | |
Ma et al. | Coarse-to-fine framework for music generation via generative adversarial networks | |
JP2001013982A (ja) | 音声合成装置 | |
KR102490769B1 (ko) | 음악적 요소를 이용한 인공지능 기반의 발레동작 평가 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |