CN108804526B - 兴趣确定系统、兴趣确定方法及存储介质 - Google Patents
兴趣确定系统、兴趣确定方法及存储介质 Download PDFInfo
- Publication number
- CN108804526B CN108804526B CN201810396276.4A CN201810396276A CN108804526B CN 108804526 B CN108804526 B CN 108804526B CN 201810396276 A CN201810396276 A CN 201810396276A CN 108804526 B CN108804526 B CN 108804526B
- Authority
- CN
- China
- Prior art keywords
- word
- vector
- interest
- user
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 39
- 239000013598 vector Substances 0.000 claims description 281
- 238000013528 artificial neural network Methods 0.000 claims description 121
- 238000006243 chemical reaction Methods 0.000 claims description 25
- 238000004590 computer program Methods 0.000 claims description 4
- 238000004458 analytical method Methods 0.000 description 20
- 230000000877 morphologic effect Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 19
- 238000012706 support-vector machine Methods 0.000 description 16
- 238000012360 testing method Methods 0.000 description 16
- 238000011156 evaluation Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 241000277269 Oncorhynchus masou Species 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 235000013351 cheese Nutrition 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 238000012358 sourcing Methods 0.000 description 2
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000012467 final product Substances 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 235000015224 raw ham Nutrition 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 235000011888 snacks Nutrition 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/40—Data acquisition and logging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3347—Query execution using vector based model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2457—Query processing with adaptation to user needs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Computer Hardware Design (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
兴趣确定系统包括:数据获取单元,被配置成获取指示用户的对话信息中包含的每个词的特征的第一数据组;第一学习单元,被配置成通过使用第一输入和输出值来学习,第一输入值被设置为将第一数据组与指示预定词的特征的第二数据组相关联的数据组,第一输出值是被设置为指示是否存在用户的兴趣的信息;以及确定单元,被配置成:当已经向第一学习单元输入指示要被确定的词的特征的第三数据组与第一数据组相关联的数据组时,基于从第一学习单元输出的输出值,确定是否存在用户对要被确定的词的兴趣。
Description
技术领域
本发明涉及确定是否存在用户的兴趣的兴趣确定系统、兴趣确定方法及存储介质。
相关技术的描述
已知一种系统,其通过使用均表示在用户的对话中出现的词的特征的向量来确定是否存在用户的兴趣(例如,参见日本未审查专利申请公开第2017-027168号(JP 2017-027168A))。
发明内容
本系统通过使用在用户的对话中出现的词来确定是否存在用户的兴趣。出于这个原因,难以确定是否存在用户对没有在用户的对话中出现的词的兴趣。
本发明提供了一种兴趣确定系统,兴趣确定方法和存储介质,其能够确定是否存在用户对没有在用户的对话中出现的词的兴趣。
本发明的第一方面提供了一种兴趣确定系统。该兴趣确定系统包括数据获取单元、第一学习单元和确定单元。数据获取单元被配置成获取指示用户的对话信息中包含的每个词的特征的第一数据组。第一学习单元被配置成通过使用第一输入值和第一输出值来学习。第一输入值被设置为将数据获取单元获取的第一数据组与指示预定词的特征的第二数据组相关联的数据组。第一输出值被设置为指示是否存在用户的兴趣的信息。确定单元被配置成:当已经向第一学习单元输入将由数据获取单元获取的指示要被确定的词的特征的第三数据组与第一数据组相关联的数据组时,基于从第一学习单元输出的输出值,确定是否存在用户对要被确定的词的兴趣。在这方面,由数据获取单元获取的第一数据组可以是第一向量信息,其被表示为用户的对话信息中包含的每个词的特征的量化和向量化信息。第一学习单元可以被配置成通过使用第一输入值和第一输出值来学习。第一输入值可以被设置为将数据获取单元获取的第一向量信息与作为指示预先设置的预定词的特征的第二数据组的第二向量信息相关联的向量信息。第一输出值可以被设置为指示是否存在用户的兴趣的信息。确定单元可以被配置成:当已经向第一学习单元输入了将指示要被确定的词的特征的第三向量信息与由数据获取单元获取的第一向量信息相关联的向量信息时,基于从第一学习单元输出的输出值,确定用户是否对要被确定的词有。在这方面,由数据获取单元获取的第一数据组可以是喜好模型,其将用户的对话信息中包含的每个词的特征表示为指示用户喜好的模型。在这方面,数据获取单元可以包括词向量转换单元和语句向量生成单元。词向量转换单元可以被配置成将用户的对话信息内的兴趣估计单词、在前上下文词和在后上下文词转换为词的向量。兴趣估计词可以是用户有兴趣的词。在前上下文词可以是从兴趣估计词起预定个数的词之前的词。在后上下文词可以是从兴趣估计词起预定个数的词之后的词。语句向量生成单元可以被配置成使用第二学习单元将由词向量转换单元转换的在前上下文词的向量转换为在前上下文向量,并且使用第二学习单元将由词向量转换单元转换的在后上下文词的向量转换为在后上下文向量。在前上下文向量和在后上下文向量均可以指示语句的特征。语句向量生成单元可以被配置成生成通过将转换的在前上下文向量和转换的在后上下文向量连接至兴趣估计词的向量而得到的连接向量。在该方面中,语句向量生成单元可以被配置成针对用户有兴趣的每条对话信息生成连接向量,并且数据获取单元还可以包括喜好模型生成单元,该喜好模型生成单元被配置成计算由语句向量生成单元生成的连接向量的平均作为用户在喜好模型中的向量信息。在这个方面中,兴趣确定系统还可以包括第三学习单元,其被配置成通过使用第二输入值和第二输出值来优化。第二输入值可以被设置为由语句向量生成单元生成的连接向量。第二输出值可以被设置为指示是否存在用户的兴趣的信息。在这方面,第一学习单元、第二学习单元和第三学习单元可以同时被优化。在这方面,第一学习单元、第二学习单元和第三学习单元均可以是神经网络。本发明的第二方面提供了一种兴趣确定方法。兴趣确定方法包括:获取指示用户的对话信息中包含的每个词的特征的第一数据组;使第一学习单元通过使用第一输入值和第一输出值来学习,第一输入值被设置为将第一数据组与指示预定词的特征的第二数据组相关联的数据组,第一输出值被设置为指示是否存在用户的兴趣的信息;并且当已经向第一学习单元输入将指示要被确定的词的特征的第三数据组与第一数据组相关联的数据组时,基于从第一学习单元输出的输出值,确定是否存在用户对要被确定的词的兴趣。本发明的第三方面提供了一种存储计算机程序的计算机可读存储介质,所述计算机程序使得计算机执行用于如下操作的指令:获取指示用户的对话信息中包含的每个词的特征的第一数据组;使第一学习单元通过使用第一输入值和第一输出值来学习,第一输入值被设置为将第一数据组与指示预定词的特征的第二数据组相关联的数据组,第一输出值被设置为指示是否存在用户的兴趣的信息;以及当已经向第一学习单元输入将指示要被确定的词的特征的第三数据组与第一数据组相关联的数据组时,基于从第一学习单元输出的输出值,确定是否存用户对要被确定的词的兴趣。
根据本发明的方面,可以提供能够高度准确地确定是否存在用户对没有在对话中出现的词的兴趣的兴趣确定系统、兴趣确定方法及存储介质。
附图说明
下面将参照附图描述本发明的示例性实施方式的特征、优点及技术和工业意义,其中,相同的附图标记表示相同的元件,并且其中:
图1是示出根据本发明的实施方式的兴趣确定系统的示意系统构造的框图;
图2是示出从对话记录生成语句向量的示例的图;
图3是示出第一神经网络和第二神经网络的结构的图;
图4是用于示出优化第一神经网络和第二神经网络中的每个的方法的图;
图5是示出生成喜好模型的过程的示例的图;
图6是示出第三神经网络的结构的图;
图7是用于示出优化第三神经网络的方法的图;
图8是用于示出确定是否存在用户对要被确定的词的兴趣的方法的图;
图9是示出根据本发明的实施方式的兴趣确定方法的流程的示意流程图;
图10是示出使用的数据的统计信息的示例的表;
图11是示出测试结果的表;
图12是从测试中使用的对话的前半部分部分摘选的图;
图13是示出来自使用联合模型进行的对潜在兴趣的估计的结果的一部分的表;以及
图14是示出来自使用SVM进行的估计的结果的一部分的表。
具体实施方式
在下文中,将参照附图描述本发明的实施方式。根据本发明实施方式的兴趣确定系统能够高度准确地确定用户对用户可能感兴趣的潜在词的兴趣,即使该词没有在用户的对话记录(对话信息)中出现(在下文中,称为潜在兴趣词)。
例如,迄今为止,通过使用在用户的对话中出现的词来确定是否存在用户的兴趣。例如,难以确定是否存在用户对在用户的对话中没有出现的词的兴趣。
相比之下,根据本实施方式的兴趣确定系统获取喜好模型,其为指示用户的对话信息中包含的每个词的特征并指示用户的喜好的向量信息。兴趣确定系统使学习设备(第三神经网络9(稍后描述))通过使用输入值和输出值来学习,输入值被设置为将所获取的喜好模型的向量信息与预先设置的指示预定词的特征的向量信息相关联的向量信息,并且输出值被设置为指示用户是否有兴趣的信息。当已经向学习设备输入将指示要被确定的词的特征的向量信息与喜好模型的向量信息相关联的向量时,兴趣确定系统基于从学习设备输出的输出值来确定是否存在用户对要被确定的词的兴趣。学习指的是优化神经网络。
在如上所述的根据本实施方式的兴趣确定系统中,使学习设备(学习装置)通过使用将综合编辑用户的喜好的喜好模型与所选择的还没有在对话信息中出现的一个预定词相关联的向量信息来学习。因此,在学习设备中包括了不仅基于出现在对话信息中且用户感兴趣的词的喜好,还有基于包括没有出现在对话信息中且用户感兴趣的词的预定词的喜好。也就是说,在使用学习装置确定是否存在用户对要被确定的词的兴趣时,不仅可以高度准备地确定是否存在用户对出现在用户的对话中的词的兴趣还可以高度准确地确定是否存在用户对没有出现在对话中的词的兴趣。
在如上所述的本实施方式中,预先设置的预定词和要被确定的词可以相同或者可以不同。即使在后者的不同的情况下,根据本实施方式的兴趣确定系统1也能够准确地确定是否存在用户的兴趣。
在针对没有出现在对话记录中的词例如名词的确定中,可以想见的是,用户对对话记录中的对象的兴趣是确定的关键。在本实施方式中,如稍后将描述的,首先,确定是否存在用户对对话记录中的每个词的兴趣。可以假定,是否存在用户对词的兴趣主要取决于词前后的上下文。因此,在本实施方式中,在考虑词前后的上下文的情况下确定是否存在用户对词的兴趣。
图1是示出根据本发明的实施方式的兴趣确定系统的示意系统构造的框图。根据本实施方式的兴趣确定系统1包括形态分析单元2、词向量转换单元3、语句向量生成单元4、喜好模型生成单元5、兴趣确定单元6以及第一至第三神经网络7,8,9。形态分析单元2执行形态分析。词向量转换单元3将词转换成向量。语句向量生成单元4生成语句向量。喜好模型生成单元5生成喜好模型。兴趣确定单元6确定是否存在用户的兴趣。第一至第三神经网络7,8,9用作学习设备。
兴趣确定系统1具有主要包括微型计算机的硬件构造。微型计算机包括例如中央处理单元(CPU)、存储器、接口单元(I/F)等。CPU执行算术处理等。存储器包括只读存储器(ROM)和随机存取存储器(RAM)。由CPU执行的操作程序等存储在ROM或RAM中。接口单元从外部设备输入信号或者向外部设备输出信号。CPU、存储器和接口单元通过数据总线等相互连接。
形态分析单元2对对话记录(对话的文本信息)执行形态分析。对话记录存储在例如存储器中。对话记录可以被配置成根据需要经由输入设备等输入至形态分析单元2。形态分析单元2将对话记录分成语素(词)、并生成词串,即,词的集合。形态分析单元2通过使用例如MeCab(日语形态分析系统)执行形态分析。
词向量转换单元3通过将词串转换成指示词串的含义的词向量来将词的含义转换成数字。词向量转换单元3将由形态分析单元2生成的词串转换为词向量序列。词向量转换单元3通过使用例如Word2Vec[Mikolov13](通过对词进行向量化来表达词的量化技术)来将由形态分析单元2生成的词串转换为d维词向量序列x=(x1,x2,...,xt,xk)。兴趣估计词xt例如是估计用户对其有兴趣的词,并预先设置在存储器等中。
语句向量生成单元4通过将词向量序列转换成指示语句的特征的语句向量来收集词向量序列的语句的含义。语句向量生成单元4将由词向量转换单元3转换的词向量序列转换成语句向量序列。
将通过使用具体示例来详细描述将词向量序列转换成语句向量序列的方法。可以假定,兴趣估计词xt附近的词对于估计用户的兴趣是有用的。为此,语句向量生成单元4使用兴趣估计字xt前后的J个词的向量作为上下文。
也就是说,语句向量生成单元4通过使用第一神经网络7转换兴趣估计词xt之前的词的向量序列xf=(xt-1,xt-1+1,...,xt-1)和兴趣估计词xt之后的词的向量序列xs=(xt+1,xt+2,...,xt+1)。
第一神经网络7是第二学习单元的具体示例。第一神经网络7是例如递归神经网络(RNN)。RNN具有在中间层的长短期记忆(LSTM)。代替第一神经网络7,可以使用另一学习设备例如支持向量机(SVM)。如稍后在测试结果中将示出的,由于高的确定准确度,使用RNN第一神经网络7是期望的。
在至第一神经网络7中的输入时,插入表示每个词向量序列的结尾的<EOS>。该<EOS>也是向量。该向量的d维元的一维元为零,并且该向量的(d+1)维元为1。词向量序列被顺序地输入到第一神经网络7,并且在输入<EOS>向量时的第一神经网络7的输出是语句向量。
语句向量生成单元4利用第一神经网络7将词向量序列xf转换成语句向量序列vif,并且利用第一神经网络7将词向量序列xs转换成语句向量序列vis。例如,如图2中所示,语句向量生成单元4基于对话记录“NERU MAE SNS WO MI MASU”生成语句向量。为了说明,对话记录“NERU MAE SNS WO MI MASU”被写成字母的日语发音。对话记录“NERU MAE SNS WO MIMASU”意思是“我在睡觉前检查SNS”。在对话记录中,此对话记录中的兴趣估计词是“SNS”。虽然图2中的词被以日语发音方式书写,实际上这些词是使用word2vec等转换的向量。
首先,语句向量生成单元4从语句的开头逐字地将词向量序列xf(“NERU”,“MAE”,“<EOS>”)输入至第一神经网络7中,并且在输入<EOS>时将在前上下文向量vf设置为第一神经网络7的输出。类似地,语句向量生成单元4基于词向量序列xs(“WO”,“MI”,“MASU”,“<EOS>”)生成在后上下文向量vi s。语句向量生成单元4不将兴趣估计词(“SNS”)输入至第一神经网络7中,而是直接将该词向量用作兴趣估计词xt。
随后,语句向量生成单元4生成连接向量vsent=[vf;xt;vs]。连接向量vsent通过连接在前上下文向量vf、兴趣估计字xt的向量和在后上下文向量vs来获得。分号表示向量的组合。这同样适用于下面的描述。语句向量生成单元4通过使用连接向量vsent来确定是否存在用户对兴趣估计词xt的兴趣。语句向量生成单元4将连接向量vsent输入至第二神经网络8中。
第二神经网络8是第三学习单元的具体示例。第二神经网络8是二维概率分布。第二神经网络8输出用户对兴趣估计词xt有兴趣的“兴趣;是”的概率以及用户对兴趣估计词xt没有兴趣的“兴趣;否”的概率。第二神经网络8可以被配置成仅输出“兴趣;是”的概率。
代替第二神经网络8,可以使用另一学习设备例如支持向量机(SVM)。如稍后在测试结果中将示出的,由于高的确定准确度,使用全连接层第二神经网络8是更期望的。
图3是示出第一神经网络7和第二神经网络8的结构的图。如图3中所示,形态分析单元2对对话记录执行形态分析,并且将兴趣估计词(要被确定的词)、在要被确定的词之前的在前上下文词(词1,...,词N,EOS)、以及在要被确定的词之后的在后上下文词(词1,...,词N,EOS)输出至词向量转换单元3。词向量转换单元3将从形态分析单元2输出的在前上下文词、兴趣估计词和在后上下文词转换成词向量序列,并将转换的词向量序列输出至语句向量生成单元4。
语句向量生成单元4将从词向量转换单元3输出的在前上下文词的词向量序列和在后上下文词的词向量序列输入至第一神经网络7。第一神经网络7响应于该输入而输出在前上下文向量和在后上下文向量。语句向量生成单元4通过使用向量连接器将从第一神经网络7输出的在前上下文向量和在后上下文向量连接到兴趣估计词的向量来生成连接向量vsent,并且将生成的连接向量vsent输入至第二神经网络8。
第二神经网络8被配置成例如全连接层(具有八层的Res-Net)。第二神经网络8响应于该输入而输出二维类“兴趣;是”的概率和二维类“兴趣;否”的概率。
语句向量生成单元4通过使用存储在例如存储器中的用于学习的数据来优化第一神经网络7和第二神经网络8。
图4是用于示出优化第一神经网络和第二神经网络的方法的图。用于学习的数据是例如将对话记录(n)与指示用户对对话记录(n)的兴趣的兴趣标签(n)相关联的数据(n=1,...,N)。在类“兴趣;是”的情况下,兴趣标签(n)被设置为1(兴趣标签(n)=1)。在类“兴趣;否”的情况下,兴趣标签(n)被设置为0(兴趣标签(n)=0)。
如图4中所示,对全部对话记录(n)(n=1,...,N)重复上述过程,并且进一步重复迭代次数。因此,第一神经网络7和第二神经网络8被优化。此时,语句向量生成单元4对第一神经网络7和第二神经网络8进行优化,以使得从第二神经网络8针对每个对话记录(n)以及与对话记录(n)相关联的兴趣标签(n)输出的类“兴趣;是”的概率和类“兴趣;否”的概率之间的偏差被最小化。
语句向量生成单元4基于优化的第二神经网络8确定是否存在用户对兴趣估计词xt的兴趣。语句向量生成单元4此时确定用户有兴趣所基于的连接向量vsent可以被认为是作为主要目的的估计潜在兴趣的关键。因此,在语句向量生成单元4确定用户有兴趣的情况下,语句向量生成单元4将连接向量Vsent保存在存储器等中。如稍后将描述的,根据本实施方式的兴趣确定系统1基于保存在存储器中的连接向量vsent生成喜好模型,然后基于喜好模型确定是否存在用户对要被确定的词的兴趣。
喜好模型生成单元5生成表达用户喜好的喜好模型。因此,可以编辑用户有兴趣的词信息。也就是说,喜好模型是在其中全面编辑用户喜好的信息。因此,如稍后将描述的,通过使用高度准确地反映用户喜好的喜好模型,可以高度准确地确定是否存在用户的兴趣。
接下来,将详细描述生成喜好模型的方法。喜好模型为如下信息:在该信息中,基于逐个用户对指示每个用户的对话记录中包含的词的特征的多条向量信息进行分类。喜好模型生成单元5基于由语句生成单元4生成的连接向量vsent生成喜好模型。
喜好模型生成单元5基于保存在存储器中的连接向量vsent计算例如每个用户的连接向量的平均作为喜好模型。如此,通过计算连接向量vsent的平均,可以生成进一步高度准确地表达用户喜好的喜好模型。如稍后将描述的,通过使用喜好模型,可以进一步高度准确地确定是否存在用户对要被确定的词的兴趣。
喜好模型生成单元5计算每个用户的连接向量的平均作为喜好模型;然而,喜好模型不限于每个用户的连接向量vsent的平均。例如,喜好模型生成单元5可以计算将通过将保存在存储器中的连接向量vsent相加而得到的相加值作为喜好模型。另外,喜好模型生成单元5可以对保存在存储器中的连接向量vsent中的每个进行加权,然后计算相加值作为喜好模型。只要用户的喜好被进一步高度合适地包含在喜好模型中,可以应用任何计算方法。
图5是示出生成喜好模型的过程的示例的图。例如,如图5中所示,形态分析单元2对作为用于学习的数据的对话记录(1)至对话记录(N1)进行形态分析(兴趣标签=1(确定为有兴趣)),并且将在前上下文词、兴趣估计词和在后上下文词输出至词向量转换单元3。词向量转换单元3将从形态分析单元2输出的在前上下文词、兴趣估计词和在后上下文词转换成词向量序列,并且将转换的词向量序列输出至语句向量生成单元4。
语句向量生成单元4将从词向量转换单元3输出的在前上下文词和在后上下文词的词向量序列输入至优化的第一神经网络7。优化的第一神经网络7响应于该输入而输出在前上下文向量和在后上下文向量。语句向量生成单元4使用向量连接器将从优化的第一神经网络7输出的在前上下文向量和在后上下文向量连接到兴趣估计词的向量,并生成连接向量vsent。
如上所述,语句向量生成单元4的向量连接器针对对话记录(1)至对话记录(N1)中的每一个生成连接向量vsent,并输出连接向量vsent。
喜好模型生成单元5通过计算从向量连接器输出的对话记录(1)的连接向量vsent至对话记录(N1)的连接向量vsent的平均来生成喜好模型。喜好模型可预先存储在存储器等中。在这种情况下,兴趣确定单元6可以被配置成根据需要加载存储在存储器中的喜好模型。
兴趣确定单元6通过确定是否存在用户对所选择的要被确定的词的兴趣来确定用户是否对没有包含在对话记录中的词有兴趣。兴趣确定单元6是确定单元的具体示例。兴趣确定单元6基于由喜好模型生成单元5生成的喜好模型通过使用第三神经网络9来确定是否存在用户对所选择的词的兴趣。第三神经网络9是第一学习单元的具体示例。
图6是示出第三神经网络的结构的图。第三神经网络9以及例如第二神经网络8被配置成全连接层(具有八层的Res-Net)。
代替第三神经网络9,可以使用另一学习设备,例如支持向量机(SVM)。如稍后由测试结果示出的,由于高的确定准确度,使用全连接层第三神经网络9是最期望的。
词向量转换单元3将词转换成词向量序列,并且将转换的词向量序列输出至语句向量生成单元4。语句向量生成单元4的向量连接器生成通过将从词向量转换单元3输出的词向量序列连接至从喜好模型生成单元5输出的作为喜好模型的连接向量的平均而得到的连接向量。语句向量生成单元4的向量连接器将连接向量输入至第三神经网络9。将连接向量的平均——即喜好模型——连接至词的词向量序列的原因在于将喜好模型的喜好赋予该词。喜好模型的喜好通过该连接被包含在词中。
例如,对于用户uj(j=0,1,...)的连接向量vsent的平均由auj表示。所选择的词的词向量序列由wuj=(w1 uj,w2 uj,...,wn uj)表示。向量连接器生成通过将连接向量vsent的平均auj连接至词向量序列wuj而得到的连接向量[auj;wi uj]。向量连接器将连接向量[auj;wi uj]输入至第三神经网络9。第三神经网络9响应于该输入而输出二维类“兴趣;是”的概率和二维类“兴趣;否”的概率。第三神经网络9可以被配置成响应于该输入输出仅“兴趣;是”的概率。
兴趣确定单元6优化如上所述被配置的第三神经网络9。兴趣确定单元6通过使用存储在例如存储器等中的用于学习的数据来对第三神经网络9进行优化。
图7是用于示出优化第三神经网络的方法的图。用于优化第三神经网络9的用于学习的数据是例如如下数据,在该数据中,将预定词(m)与指示用户对预定词(m)的兴趣的兴趣标签(m)相关联(m=1,...,M)。预定词是例如包括没有在用户的对话记录中出现的词的任意词。
在类“兴趣;是”的情况下,兴趣标签(m)被设置为1(兴趣标签(m)=1)。在类“兴趣;否”的情况下,兴趣标签(m)被设置为0(兴趣标签(m)=0)。用于学习的数据预先存储在例如存储器等中。
如图7中所示,对所有预定词(m)(m=1,...,M)重复上述过程,并且进一步重复迭代次数。因此,第三神经网络9被优化。此时,兴趣确定单元6对第三神经网络9进行优化,使得从第三神经网络9针对每个预定词(m)以及与预定词(m)相关联的兴趣标签(m)输出的类“兴趣;是”的概率和类“兴趣;否”的概率之间的偏差被最小化。
兴趣确定单元6利用优化的第三神经网络9基于由喜好模型生成单元5生成的喜好模型来确定是否存在用户对要被确定的词的兴趣。
连接向量的平均——即,喜好模型——与预定词的词向量序列连接的原因在于将喜好模型的喜好赋予预定词。通过该连接将喜好模型的喜好包含在预定词中。由于预定词是包括没有出现在对话记录中的词的任意词,因此可以将用户的喜好也包含在没有出现在对话记录中的词中。如此,通过使用所生成的用于学习的数据来优化第三神经网络9,然后使用优化的第三神经网络9,不仅可以高度准确地确定是否存在用户对在用户的对话中出现的词的兴趣,还可以高度准确地确定是否存在用户没有在对话中出现的词的兴趣。
图8是用于示出确定是否存在用户对要被确定的词的兴趣的方法的图。词向量转换单元3将要被确定的词转换成词向量序列,并将转换的词向量序列输出至语句向量生成单元4。语句向量生成单元4的向量连接器生成连接向量[auj;wi uj]。连接向量[auj;wi uj]通过将从词向量转换单元3输出的词向量序列wuj连接到从喜好模型生成单元5输出的连接向量vsent的平均——即,喜好模型——来得到。
语句向量生成单元4将生成的连接向量[auj;wi uj]输入至第三神经网络。第三神经网络9响应于该输入而输出二维类“兴趣;是”的概率和二维类“兴趣;否”的概率。第三神经网络9的输出是关于是否有兴趣的二维概率分布,如估计对包含在对话记录中的词的兴趣的情况。兴趣确定单元6能够基于从第三个神经网络9输出的类“兴趣;是”的概率和类“兴趣;否”的概率来确定用户是否对要被确定的词有潜在兴趣。
在本实施方式中,第一至第三神经网络7,8,9可以不是彼此独立的,而是可以彼此连接。也就是说,第三神经网络9的输入可以随着第一神经网络7和第二神经网络8的输出而变化。
另外,为了使第一至第三神经网络7,8,9有效地学习,例如将第二神经网络8的优化时与正确答案的偏差和第三神经网络9的优化时与正确答案的偏差的总和定义为损失函数。如此,通过同时使用损失函数优化第一至第三神经网络7,8,9,可以从对话记录提取合适的语句向量,并且还可以准确地确定是否存在对潜在兴趣词的兴趣。
接下来,将描述由根据本实施方式的兴趣确定系统1执行的兴趣确定方法的流程。图9是示出根据本实施方式的兴趣确定方法的流程的示意性流程图。
基于用户的对话记录优化第一神经网络7和第二神经网络8(步骤S101)。
喜好模型生成单元5通过计算通过连接从优化的第一神经网络7输出的语句向量而得到的连接向量vsent的平均来生成喜好模型(步骤S102)。
第三神经网络9使用通过将连接向量的平均——即,喜好模型——连接至预先设置的预定词的向量而得到的连接向量来学习,并且被优化(步骤S103)。
当优化的第三神经网络9接收到通过将要被确定的词的向量连接至连接向量的平均——即,喜好模型——而得到的向量时,优化的第三神经网络9输出类“兴趣;是”的概率和类“兴趣;否”的概率(步骤S104)。
兴趣确定单元6基于从优化的第三神经网络9输出的类“兴趣;是”的概率和类“兴趣;否”的概率来确定是否存在用户对要被确定的词的兴趣(步骤S105)。
在根据本实施方式的兴趣确定系统1中通过使用两个用户的对话数据来执行性能评估测试。测试结果将在下面描述。
给对话数据中的所有名词分配表示是否存在用户的兴趣的标记。在性能评估测试中,对话数据被如下处理。每段对话数据按在每个对话中包含的讲话数量分成两个相等的部分。每段对话数据的前半部分被定义为要被提供给兴趣确定系统1的对话记录。每段对话数据的后半部分中的名词被定义为用于估计潜在兴趣的名词(后半对话数据不被提供给兴趣确定系统1)。根据本实施方式的兴趣确定系统1被评估如下。从名词被包含在后半对话数据中的哪个用户的讲话中的角度来将用于估计潜在兴趣的名词给予各用户,并且确定发出包括该名词的讲话的用户是否表达了对该名词的兴趣。
将详细描述在测试中使用的对话数据。关于对话数据,通过云包服务(cloudsourcing service)招募测试对象,并且收集100条数据,每条数据包括一个小时的对话。为了学习和评估,给收集的对话数据包含中的所有名词分配注释者是否有兴趣的注释。名词由形态分析单元2自动提取。每个注释者被给予对话数据和在对话中使用的名词,并给每个名词分配两个标记——即“有兴趣”或“不确定或没有兴趣”——中的任意一个。分配的标准是说出包括旨在注释的名词的词的注释者在注释者被问问题——即,“您对()(插入关注的名词)感兴趣吗?”或“您对关于()(插入关注的名词)的主题感兴趣吗?”——时的假设答案。当在问题的括号中插入名词时语句的含义在日语中没有意义时,分配标记“不确定或没有兴趣”。基于上述标准,招募的10位注释员分别注释,并根据多数裁定原则确定正确的标记。当标记“有兴趣”的数量和标记“不确定或没有兴趣”的数量彼此相等(均为五)时,分配标记“不确定或没有兴趣”。图10是示出所使用的数据的统计信息的示例的图。指示注释者之间的注释一致程度的Fleiss'Kappa为0.50,指示中等程度的一致。
接下来,将详细描述测试的设置。Word2Vec被设置成使得窗口大小为5,最小出现频率为10并且向量的维数为1000,然后通过使用大约100GB的数据来执行学习。在兴趣估计名词之前的在前五个词以及在兴趣估计名词之后的在后五个词被用于编码成上下文向量(J=5)。对上下文向量进行编码的RNN(第一神经网络7)的输入层具有1001个维度。用于估计对对话中包含的名词的兴趣的第二神经网络8的输入层具有3000个维度。用于估计潜在兴趣的第三神经网络9的输入层具有4000个维度。其他中间层中的每个有1000个维度。对所有中间层施加丢弃,丢弃率设定为30%。将学习迭代次数设置为30,并基于确定“有兴趣”的准确率,召回率(recall factor)和F值(F-measure)以10倍交叉验证进行评估。
接下来,将详细描述对比技术。为了评估根据本实施方式的技术,准备了同时更新两个神经网络的联合模型、分离用于估计潜在兴趣的第三神经网络9的单独模型、第一至第三神经网络7,8,9中的每个的层数设置为1的浅模型,以及其中全部设置为八层ResNet[He16]的深模型。在单独模型中,用于编码成上下文向量的第一神经网络7和第二神经网络8与第三神经网络9分离,并且损失函数也被分离。为了分离第三神经网络9,第一神经网络7的输出(上下文向量)未被用于估计潜在兴趣,并且使用平均词向量代替平均语句向量。如在联合模型的情况下,使用第二神经网络8的结果来选择要被平均的词向量。测试是在四个设置下进行的,即单独的浅模型,单独的深模型,联合的浅模型和联合的深模型。这些模型是上述模型的组合。执行使用如下两种技术的测试作为基线技术。
基线1
基于与对话记录中的名词的相似性来估计潜在兴趣作为词相似性基线。在该技术中,对话记录中包含的所有名词通过Word2Vec被转换成词向量,并且基于词向量的平均与潜在兴趣估计名词的向量之间的余弦相似度来确定是“有兴趣”还是“不确定或没有兴趣”。在将相似度阈值以0.1的步长从0.0改变至1.0的同时进行评估,并将最大F值的结果定义为该技术的结果。
基线2:SVM
执行使用SVM的确定作为另一个基线。在该技术中,通过将在基线1的词相似性中使用的平均向量连接至潜在兴趣估计名词的向量而得到的向量被设置为输入向量,并且利用SVM将是否存在潜在兴趣分类为两类。
接下来,将详细描述测试结果。图11是示出测试结果的表。如图11中所示,联合深模型的F值最高,随后F值按照联合浅模型、单独浅模型和单独深模型的顺序降低。该技术表现出比上述基线技术中的词相似性或SVM更优异的性能。
在使用词相似性的技术中,可以假定,由于使用了对话记录包含中的所有名词,因此在平均词向量的计算中使用了无论是否有兴趣的许多词,因此性能低。
基于神经网络的兴趣确定方法比基于SVM的技术更优异的原因大概在于四个基于神经网络的模型使用RNN利用了讲话的上下文信息;而SVM模型通过只关注讲话中的名词来执行估计。
当基于神经网络的模型彼此比较时,联合浅模型或联合深模型比单独浅模型或单独深模型呈现更优异的估计结果。
从结果看出,根据本实施方式的兴趣确定方法是有效的,其中两个累积的偏差被统一并且整个模型被学习。当关注浅模型和深模型之间的差异时,浅模型呈现出比单独模型中的深模型更大的F值和更好的结果。另一方面,在联合模型中,深模型表现出比浅模型稍大的F值和更好的结果。尤其是,联合深模型在所有技术中表现出最好的结果。从这个结果表明,具有大量层的神经网络与联合模型的组合是有效的。
图12是从在测试中使用的对话的前半部分部分摘选的图。图13示出了使用联合模型对从对话的后半部分提取的潜在兴趣名词执行的关于潜在兴趣的确定的结果的一部分。图14示出了使用SVM的确定的结果的一部分。在图13和图14中,圆圈标记表示“有兴趣”,十字标记表示“不确定或没有兴趣”。
根据对话示例清楚的是,用户1和用户2都对酒精有兴趣。为此,可以假定,用户1和用户2对佐酒小吃有一定兴趣。明显的是,根据本实施方式的神经网络和SVM都能够对“奶酪”,“熏制食物”和“生火腿”执行适当的兴趣确定。根据本实施方式的神经网络能够正确地确定用户1对诸如“乐器”和“吉他”之类的与音乐有关的事物有兴趣,并且用户2对与音乐有关的事物不是很有兴趣。另一方面,明显的是,SVM没能逐个说话者地执行确定并且确定用户1和用户2都对作为用户之间的共同词的词“奶酪”、“乐器”和“吉他”有兴趣。根据上述结果,发现,根据本实施方式的神经网络能够逐个用户地正确地确定潜在兴趣。
在根据本实施方式的兴趣确定系统中,在输入值被设置为将指示用户喜好的喜好模型的向量信息与预先设置的预定词的向量相关联的向量信息,并且输出值被设置为指示是否存在用户的兴趣的信息的情况下,第三神经网络9通过使用输入值和输出值来学习,。将指示要被确定的词的特征的向量信息与喜好模型的向量信息相关联的向量信息被输入至第三神经网络9。兴趣确定单元6基于从第三神经网络9输出的输出值来确定是否存在用户对要被确定的词的兴趣。
因此,通过使用将用户的喜好全面编辑的喜好模型与没有出现在对话信息中的所选择的预定词相关联的向量信息来使第三神经网络9学习。因此,在第三神经网络9中不仅包括了基于出现在对话信息中且用户感兴趣的词的喜好,还包括了基于包括没有出现在对话信息中并且用户感兴趣的词的预定单词的喜好。也就是说,通过使用第三神经网络9确定是否存在用户对要被确定的词的兴趣,不仅可以高度准确地确定是否存在用户对出现在用户对话中的词的兴趣,还可以高度准确地确定是否存在用户对没有出现在对话中的词的兴趣。
本发明不限于上述实施方式。在不脱离本发明的范围的情况下,可以根据需要修改上述实施方式。例如,在上述实施方式中,包括在兴趣确定系统1中的部件(形态分析单元2、词向量转换单元3、语句向量生成单元4、喜好模型生成单元5、兴趣确定单元6以及第一到第三神经网络7,8,9)和如图4中所示的用于学习的数据等不仅可以以包括在一个系统、CPU等中的情况下被提供,还可以在为其每个或任意组合提供CPU或PC的情况下被提供,或者可以通过通信线路彼此连接。
本发明适用于图9中所示的过程,例如通过使CPU执行计算机程序来实现图9中所示的过程。
程序可以被存储在各种类型的非暂态计算机可读介质中并被提供给计算机。非暂态计算机可读介质包括各种类型的有形存储介质。非暂态计算机可读介质的示例包括磁记录介质(例如,软盘,磁带或硬盘驱动器)、磁光介质(例如,磁光盘)、CD只读存储器(ROM)、CD-R,CD-R/W和半导体存储器(例如光罩式ROM,可编程ROM(PROM),可擦除PROM(EPROM),闪存ROM或随机存取存储器(RAM))。
程序可以经由各种类型的暂态计算机可读介质提供给计算机。暂态计算机可读介质的示例包括电信号,光信号和电磁波。暂态计算机可读介质能够经由诸如电线和光纤的有线通信路径或无线通信路径将程序提供给计算机。
Claims (10)
1.一种兴趣确定系统,其特征在于包括:
数据获取单元,被配置成获取指示用户的对话信息中包含的每个词的特征的第一数据组;
第一学习单元,被配置成通过使用第一输入值和第一输出值来学习,所述第一输入值被设置为将所述数据获取单元获取的所述第一数据组与指示预定词的特征的第二数据组相关联的数据组,所述第一输出值被设置为指示是否存在所述用户的兴趣的信息;以及
确定单元,被配置成:当已经向所述第一学习单元输入将指示要被确定的词的特征的第三数据组与所述数据获取单元获取的所述第一数据组相关联的数据组时,基于从所述第一学习单元输出的输出值,确定是否存在所述用户对所述要被确定的词的兴趣;
其中,由所述数据获取单元获取的所述第一数据组为第一向量信息,所述第一向量信息被表示为所述用户的对话信息中包含的每个词的特征的量化且向量化的信息;
所述第一学习单元被配置成通过使用所述第一输入值和所述第一输出值来学习,所述第一输入值被设置为将所述数据获取单元获取的所述第一向量信息与作为指示预先设置的所述预定词的特征的所述第二数据组的第二向量信息相关联的向量信息,所述第一输出值被设置为指示是否存在所述用户的兴趣的信息;并且
所述确定单元被配置成:当已经向所述第一学习单元输入了将指示所述要被确定的词的特征的第三向量信息与所述数据获取单元获取的所述第一向量信息相关联的向量信息时,基于从所述第一学习单元输出的输出值,确定是否存在所述用户对所述要被确定的词的兴趣。
2.根据权利要求1所述的兴趣确定系统,其特征在于,所述数据获取单元获取的所述第一数据组是喜好模型,所述喜好模型将用户的对话信息中包含的每个词的特征表示为指示所述用户的喜好的模型。
3.根据权利要求2所述的兴趣确定系统,其特征在于,所述数据获取单元包括:
词向量转换单元,被配置成将所述用户的对话信息内的兴趣估计词、在前上下文词和在后上下文词转换为词的向量,所述兴趣估计词是所述用户有兴趣的词,所述在前上下文词是从所述兴趣估计词起预定个数的词之前的词,所述在后上下文词是从所述兴趣估计词起预定个数的词之后的词;以及
语句向量生成单元,被配置成:使用第二学习单元将由所述词向量转换单元转换的所述在前上下文词的向量转换为在前上下文向量;并且使用所述第二学习单元将由所述词向量转换单元转换的所述在后上下文词的向量转换为在后上下文向量,所述在前上下文向量和所述在后上下文向量均指示语句的特征,所述语句向量生成单元被配置成生成通过将转换的所述在前上下文向量和转换的所述在后上下文向量连接至所述兴趣估计词的向量而得到的连接向量。
4.根据权利要求3所述的兴趣确定系统,其特征在于:
所述语句向量生成单元被配置成针对所述用户有兴趣的各条对话信息中的每条对话信息生成所述连接向量;并且
所述数据获取单元还包括喜好模型生成单元,所述喜好模型生成单元被配置成计算由所述语句生成单元生成的所述连接向量的平均作为所述喜好模型中的所述用户的向量信息。
5.根据权利要求3或4所述的兴趣确定系统,其特征在于还包括第三学习单元,所述第三学习单元被配置成通过使用第二输入值和第二输出值来被优化,所述第二输入值被设置为由所述语句向量生成单元生成的所述连接向量,所述第二输出值被设置为指示是否存在所述用户的兴趣的信息。
6.根据权利要求5所述的兴趣确定系统,其特征在于,所述第一学习单元、所述第二学习单元和所述第三学习单元被配置成同时被优化。
7.根据权利要求5所述的兴趣确定系统,其特征在于,所述第一学习单元、所述第二学习单元和所述第三学习单元均是神经网络。
8.根据权利要求6所述的兴趣确定系统,其特征在于,所述第一学习单元、所述第二学习单元和所述第三学习单元均是神经网络。
9.一种兴趣确定方法,其特征在于包括:
获取指示用户的对话信息中包含的每个词的特征的第一数据组;
使第一学习单元通过使用第一输入值和第一输出值来学习,所述第一输入值被设置为将所述第一数据组与指示预定词的特征的第二数据组相关联的数据组,所述第一输出值被设置为指示是否存在所述用户的兴趣的信息;以及
当已经向所述第一学习单元输入将指示要被确定的词的特征的第三数据组与所述第一数据组相关联的数据组时,基于从所述第一学习单元输出的输出值,确定是否存在所述用户对所述要被确定的词的兴趣;
其中,所述第一数据组为第一向量信息,所述第一向量信息被表示为所述用户的对话信息中包含的每个词的特征的量化且向量化的信息;
所述第一学习单元被配置成通过使用所述第一输入值和所述第一输出值来学习,所述第一输入值被设置为将所述第一向量信息与作为指示预先设置的所述预定词的特征的所述第二数据组的第二向量信息相关联的向量信息,所述第一输出值被设置为指示是否存在所述用户的兴趣的信息;并且
当已经向所述第一学习单元输入了将指示所述要被确定的词的特征的第三向量信息与所述第一向量信息相关联的向量信息时,基于从所述第一学习单元输出的输出值,确定是否存在所述用户对所述要被确定的词的兴趣。
10.一种计算机可读存储介质,其特征在于包括:
存储单元,被配置成存储计算机程序,其中,当所述计算机程序被执行时,所述计算机程序使计算机执行用于如下操作的指令:
i)获取指示用户的对话信息中包含的每个词的特征的第一数据组;
ii)使第一学习单元通过使用第一输入值和第一输出值来学习,所述第一输入值被设置为将所述第一数据组与指示预定词的特征的第二数据组相关联的数据组,所述第一输出值被设置为指示是否存在所述用户的兴趣的信息;以及
iii)当已经向所述第一学习单元输入将指示要被确定的词的特征的第三数据组与第一数据组相关联的数据组时,基于从所述第一学习单元输出的输出值,确定是否存在所述用户对所述要被确定的词的兴趣;
其中,所述第一数据组为第一向量信息,所述第一向量信息被表示为所述用户的对话信息中包含的每个词的特征的量化且向量化的信息;
所述第一学习单元被配置成通过使用所述第一输入值和所述第一输出值来学习,所述第一输入值被设置为将所述第一向量信息与作为指示预先设置的所述预定词的特征的所述第二数据组的第二向量信息相关联的向量信息,所述第一输出值被设置为指示是否存在所述用户的兴趣的信息;并且
当已经向所述第一学习单元输入了将指示所述要被确定的词的特征的第三向量信息与所述第一向量信息相关联的向量信息时,基于从所述第一学习单元输出的输出值,确定是否存在所述用户对所述要被确定的词的兴趣。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017091246A JP6794921B2 (ja) | 2017-05-01 | 2017-05-01 | 興味判定装置、興味判定方法、及びプログラム |
JP2017-091246 | 2017-05-01 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108804526A CN108804526A (zh) | 2018-11-13 |
CN108804526B true CN108804526B (zh) | 2023-03-31 |
Family
ID=62196322
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810396276.4A Active CN108804526B (zh) | 2017-05-01 | 2018-04-27 | 兴趣确定系统、兴趣确定方法及存储介质 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11024326B2 (zh) |
EP (1) | EP3399470A1 (zh) |
JP (1) | JP6794921B2 (zh) |
KR (1) | KR102057184B1 (zh) |
CN (1) | CN108804526B (zh) |
BR (1) | BR102018008297A2 (zh) |
RU (1) | RU2692427C1 (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190019748A (ko) * | 2017-08-18 | 2019-02-27 | 삼성전자주식회사 | 자연어 생성 방법 및 장치 |
GB2568233A (en) * | 2017-10-27 | 2019-05-15 | Babylon Partners Ltd | A computer implemented determination method and system |
US10891352B1 (en) * | 2018-03-21 | 2021-01-12 | Optum, Inc. | Code vector embeddings for similarity metrics |
US10921245B2 (en) * | 2018-06-08 | 2021-02-16 | Ball Aerospace & Technologies Corp. | Method and systems for remote emission detection and rate determination |
US11100288B1 (en) * | 2018-06-21 | 2021-08-24 | SoundHound Inc. | Factored neural networks for language modeling |
US10978189B2 (en) | 2018-07-19 | 2021-04-13 | Optum, Inc. | Digital representations of past, current, and future health using vectors |
US11321312B2 (en) * | 2019-01-14 | 2022-05-03 | ALEX—Alternative Experts, LLC | Vector-based contextual text searching |
WO2020175692A1 (ja) * | 2019-02-28 | 2020-09-03 | 旭化成株式会社 | 学習装置および判断装置 |
CN114169418B (zh) * | 2021-11-30 | 2023-12-01 | 北京百度网讯科技有限公司 | 标签推荐模型训练方法及装置、标签获取方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102016787A (zh) * | 2008-02-25 | 2011-04-13 | 阿迪吉欧有限责任公司 | 确定所关注的域的相关信息 |
CN106897263A (zh) * | 2016-12-29 | 2017-06-27 | 北京光年无限科技有限公司 | 基于深度学习的机器人对话交互方法及装置 |
EP3282446A1 (en) * | 2016-08-09 | 2018-02-14 | Panasonic Intellectual Property Management Co., Ltd. | Dialogue act estimation method, dialogue act estimation apparatus, and medium |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6029195A (en) * | 1994-11-29 | 2000-02-22 | Herz; Frederick S. M. | System for customized electronic identification of desirable objects |
US7606714B2 (en) * | 2003-02-11 | 2009-10-20 | Microsoft Corporation | Natural language classification within an automated response system |
US8156427B2 (en) * | 2005-08-23 | 2012-04-10 | Ricoh Co. Ltd. | User interface for mixed media reality |
US8732025B2 (en) * | 2005-05-09 | 2014-05-20 | Google Inc. | System and method for enabling image recognition and searching of remote content on display |
US7991715B2 (en) * | 2007-12-27 | 2011-08-02 | Arbor Labs, Inc. | System and method for image classification |
BRPI0904540B1 (pt) * | 2009-11-27 | 2021-01-26 | Samsung Eletrônica Da Amazônia Ltda | método para animar rostos/cabeças/personagens virtuais via processamento de voz |
US9135326B2 (en) * | 2009-12-10 | 2015-09-15 | Nec Corporation | Text mining method, text mining device and text mining program |
RU2440610C1 (ru) * | 2010-06-21 | 2012-01-20 | Геннадий Борисович Бронфельд | Система для работы с интеллектуальной электронной книгой - элингой |
JP5466119B2 (ja) * | 2010-09-21 | 2014-04-09 | Kddi株式会社 | 同一の共有コンテンツに興味を持つ視聴者の属性の観点を推定する最適観点推定プログラム、装置及び方法 |
US9536269B2 (en) * | 2011-01-19 | 2017-01-03 | 24/7 Customer, Inc. | Method and apparatus for analyzing and applying data related to customer interactions with social media |
US8452772B1 (en) * | 2011-08-01 | 2013-05-28 | Intuit Inc. | Methods, systems, and articles of manufacture for addressing popular topics in a socials sphere |
US9244908B2 (en) * | 2012-03-27 | 2016-01-26 | Accenture Global Services Limited | Generation of a semantic model from textual listings |
US9570090B2 (en) * | 2015-05-26 | 2017-02-14 | Google Inc. | Dialog system with automatic reactivation of speech acquiring mode |
US10242036B2 (en) * | 2013-08-14 | 2019-03-26 | Ricoh Co., Ltd. | Hybrid detection recognition system |
WO2015039222A1 (en) * | 2013-09-19 | 2015-03-26 | Sysomos L.P. | Systems and methods for actively composing content for use in continuous social communication |
US20150248651A1 (en) * | 2014-02-28 | 2015-09-03 | Christine E. Akutagawa | Social networking event planning |
KR101500900B1 (ko) * | 2014-04-28 | 2015-03-12 | 한양대학교 산학협력단 | 학습 데이터로부터 생성된 최종 분류기를 이용하여 텍스트를 분류하는 방법 및 시스템 |
US9627532B2 (en) * | 2014-06-18 | 2017-04-18 | Nuance Communications, Inc. | Methods and apparatus for training an artificial neural network for use in speech recognition |
US9381434B2 (en) * | 2014-06-30 | 2016-07-05 | Linkedin Corporation | Social network interaction via games |
JP6710907B2 (ja) * | 2015-07-16 | 2020-06-17 | Tis株式会社 | 嗜好学習方法、嗜好学習プログラム、及び嗜好学習装置 |
US9633282B2 (en) * | 2015-07-30 | 2017-04-25 | Xerox Corporation | Cross-trained convolutional neural networks using multimodal images |
US9875258B1 (en) * | 2015-12-17 | 2018-01-23 | A9.Com, Inc. | Generating search strings and refinements from an image |
KR101652433B1 (ko) * | 2016-02-11 | 2016-08-30 | 주식회사 위즈벤처스 | Sns 문서에서 추출된 토픽을 기반으로 파악된 감정에 따른 개인화 광고 제공 방법 |
JP6549500B2 (ja) | 2016-02-26 | 2019-07-24 | トヨタ自動車株式会社 | 話題推定学習装置及び話題推定学習方法 |
US10116757B2 (en) * | 2016-04-25 | 2018-10-30 | Chian Chiu Li | Location-based open social networks |
US11347374B2 (en) * | 2016-11-17 | 2022-05-31 | Meta Platforms, Inc. | Systems and methods for managing shared content |
US10347244B2 (en) * | 2017-04-21 | 2019-07-09 | Go-Vivace Inc. | Dialogue system incorporating unique speech to text conversion method for meaningful dialogue response |
-
2017
- 2017-05-01 JP JP2017091246A patent/JP6794921B2/ja active Active
-
2018
- 2018-04-25 KR KR1020180048008A patent/KR102057184B1/ko active IP Right Grant
- 2018-04-25 BR BR102018008297-3A patent/BR102018008297A2/pt not_active IP Right Cessation
- 2018-04-26 RU RU2018115766A patent/RU2692427C1/ru active
- 2018-04-27 US US15/964,388 patent/US11024326B2/en active Active
- 2018-04-27 CN CN201810396276.4A patent/CN108804526B/zh active Active
- 2018-04-30 EP EP18170121.0A patent/EP3399470A1/en not_active Ceased
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102016787A (zh) * | 2008-02-25 | 2011-04-13 | 阿迪吉欧有限责任公司 | 确定所关注的域的相关信息 |
EP3282446A1 (en) * | 2016-08-09 | 2018-02-14 | Panasonic Intellectual Property Management Co., Ltd. | Dialogue act estimation method, dialogue act estimation apparatus, and medium |
CN106897263A (zh) * | 2016-12-29 | 2017-06-27 | 北京光年无限科技有限公司 | 基于深度学习的机器人对话交互方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
KR102057184B1 (ko) | 2019-12-18 |
RU2692427C1 (ru) | 2019-06-24 |
EP3399470A1 (en) | 2018-11-07 |
JP2018190136A (ja) | 2018-11-29 |
KR20180121831A (ko) | 2018-11-09 |
CN108804526A (zh) | 2018-11-13 |
US20180315440A1 (en) | 2018-11-01 |
JP6794921B2 (ja) | 2020-12-02 |
BR102018008297A2 (pt) | 2019-03-12 |
US11024326B2 (en) | 2021-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108804526B (zh) | 兴趣确定系统、兴趣确定方法及存储介质 | |
US10438586B2 (en) | Voice dialog device and voice dialog method | |
CN109582767B (zh) | 对话系统处理方法、装置、设备及可读存储介质 | |
WO2019200923A1 (zh) | 基于拼音的语义识别方法、装置以及人机对话系统 | |
WO2019163849A1 (ja) | 音声変換学習装置、音声変換装置、方法、及びプログラム | |
CN108228576B (zh) | 文本翻译方法及装置 | |
CN109062902B (zh) | 一种文本语义表达方法及装置 | |
CN112863489B (zh) | 语音识别方法、装置、设备及介质 | |
JP6553015B2 (ja) | 話者属性推定システム、学習装置、推定装置、話者属性推定方法、およびプログラム | |
CN112232276A (zh) | 一种基于语音识别和图像识别的情绪检测方法和装置 | |
CN111653270A (zh) | 语音处理方法、装置、计算机可读存储介质及电子设备 | |
JP5740368B2 (ja) | 識別的音声認識精度推定装置、識別的音声認識精度推定方法、プログラム | |
JP2015175859A (ja) | パターン認識装置、パターン認識方法及びパターン認識プログラム | |
CN112686060B (zh) | 文本翻译方法、装置、电子设备和存储介质 | |
JP6082657B2 (ja) | ポーズ付与モデル選択装置とポーズ付与装置とそれらの方法とプログラム | |
JP6220733B2 (ja) | 音声分類装置、音声分類方法、プログラム | |
CN112686059B (zh) | 文本翻译方法、装置、电子设备和存储介质 | |
JP6473112B2 (ja) | 音声認識精度推定装置、音声認識精度推定方法及び音声認識精度推定プログラム | |
CN113033160B (zh) | 对话的意图分类方法及设备和生成意图分类模型的方法 | |
JP7411149B2 (ja) | 学習装置、推定装置、学習方法、推定方法及びプログラム | |
JP5679345B2 (ja) | 音声認識精度推定装置、音声認識精度推定方法、プログラム | |
WO2023112169A1 (ja) | 学習方法、推定方法、学習装置、推定装置、学習プログラム及び推定プログラム | |
JP5679346B2 (ja) | 識別的音声認識精度推定装置、識別的音声認識精度推定方法、プログラム | |
CN113096649B (zh) | 语音预测方法、装置、电子设备和存储介质 | |
JP2018028872A (ja) | 学習装置、学習方法、プログラムパラメータおよび学習プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |