CN106844788B - 一种图书馆智能搜索排序方法及系统 - Google Patents

一种图书馆智能搜索排序方法及系统 Download PDF

Info

Publication number
CN106844788B
CN106844788B CN201710160587.6A CN201710160587A CN106844788B CN 106844788 B CN106844788 B CN 106844788B CN 201710160587 A CN201710160587 A CN 201710160587A CN 106844788 B CN106844788 B CN 106844788B
Authority
CN
China
Prior art keywords
prediction
model
retrieval
intelligent
sequencing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201710160587.6A
Other languages
English (en)
Other versions
CN106844788A (zh
Inventor
于慧
胡雪华
徐小红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Arts and Sciences
Original Assignee
Chongqing University of Arts and Sciences
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Arts and Sciences filed Critical Chongqing University of Arts and Sciences
Priority to CN201710160587.6A priority Critical patent/CN106844788B/zh
Publication of CN106844788A publication Critical patent/CN106844788A/zh
Application granted granted Critical
Publication of CN106844788B publication Critical patent/CN106844788B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/248Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种图书馆智能搜索排序方法,首先建立智能检索模型训练器和智能检索预测排序模型;获取检索信息;利用循环卷积网络处理检索信息,提取信息特征向量;利用softmax函数对检索信息的特征向量归一化计算;通过智能检索预测排序模型计算图书排序并存入数据库中;使用累积误差计算模型预测错误程度:根据累积误差值大小决定是否对智能检索预测排序模块模型进行更新:本发明提供的方法相较于传统的标题、作者关键字匹配的搜索系统更灵活,对于搜索关键字不在图书标题的搜索准确性提高;由于具备了智能检索模型训练器和数据库,使得系统具备了自适应学习能力,减少了人工参与,节省了人力资源和使用难度,能更方便的布局具有图书馆自身图书特色和众多使用者习惯的智能搜索排序系统。

Description

一种图书馆智能搜索排序方法及系统
技术领域
本发明涉及图书自动检测技术领域,特别是一种精确预测和推荐的图书馆智能搜索排序方法及系统。
背景技术
现有的图书馆图书检索方式普遍采用关键字匹配,同时为了减少工作量和复杂度,大部分检索系统均采用书名以及作者的关键词的匹配,这虽然符合大众需求,但是对于使用者给出的不与书名等匹配的关键字的检索将检索失败;
因此,需要一种能精确预测和推荐的图书馆智能搜索排序方法及系统。
发明内容
本发明的目的是提出一种精确预测和推荐的图书馆智能搜索排序方法及系统。
本发明的目的是通过以下技术方案来实现的:
本发明提供的图书馆智能搜索排序方法,包括以下步骤:
获取检索信息;
利用循环卷积网络处理检索信息,提取特征向量;
将特征向量送入卷积神经网络,输出与图书馆图书数目相同维度的预测向量;
利用softmax函数对预测向量进行归一化计算生成对应于每本图书的预测概率;
对预测概率进行排序,按概率从高到低输出排序结果;
将图书预测排序结果存入数据库中。
进一步,还包括以下步骤:
根据排序结果和用户对输入检索信息所点击选择图书按照以下公式计算出用于衡量模型预测错误程度的累积误差值β:
式中,n为累积预测次数,pi,1为第i次预测时预测结果中排序最大的概率值,pi,j为第i次预测时用户对输入检索信息所点击选择图书对应的预测概率值,j为其对应的排序位置;
判断累积误差值β与设定门限值的关系,并按照以下方式对智能检索预测排序模块模型进行更新:
当更新调度模块检测到累积误差值β大于设定门限值时,从数据库中随机选择多个样本组成训练集,启动智能检索模型训练器,对模型进行重新训练;并且对训练的多个模型对在数据库中随机选取的N个样本计算累积误差值β,选择其中累积误差值最小的模型更新智能检索预测排序模块模型;
所述从数据库中选择样本包括:用户输入检索信息、用户检索时间、模型预测排序结果及用户对应输入检索信息所点击选择图书。
进一步,所述智能模型检索训练器训练过程中,softmax函数所在层学习率根据样本采集时间和训练时间按照以下公式进行计算:
Figure BDA0001248397490000022
式中,λ0为固定学习率,t为模型训练时间,单位为秒,
Figure BDA0001248397490000023
为对应样本保存时间,即为样本用户检索时间,单位为秒。
进一步,所述的循环卷积网络采用长短时记忆模型LSTM;所述的卷积神经网络采用GoogleNet网络模型结构。
本发明还提供了一种图书馆智能搜索排序系统,包括数据库、智能检索模型训练器、更新调度模块以及智能检索预测排序模块;
所述数据库用于存储图书馆所有图书的检索信息;
所述智能检索模型训练器,根据数据库存储的检索信息和输入信息对卷积神经网模型进行训练,存储训练完成的网络模型;
所述智能检索预测排序模块,通过智能检索模型训练器训练完成的网络模型,对用户输入的检索信息进行计算,对图书馆图书按预测概率大小进行从大到小排序,输出排序结果;
所述更新调度模块,用于对智能检索模型训练器的启动和智能检索预测排序模块中模型进行更新。
进一步,所述更新调度模块按照以下公式来实现智能检索预测排序模块的更新:
按照以下公式计算模型预测错误程度:
Figure BDA0001248397490000021
式中,n为累积预测次数,pi,1为第i次预测时预测结果中排序最大的概率值,pi,j为第i次预测时关键字对应的感兴趣图书对应的概率值,j为其对应的排序位置;
当更新调度模块检测到累积误差值β大于设定门限值时,启动智能检索模型训练器,对模型进行重新训练;并且对训练的多个模型对在数据库中随机选取的N个样本计算累积误差值β,选择其中累积误差值最小的模型更新智能检索预测排序模块模型。
进一步,所述softmax函数中的学习率根据样本采集时间和训练时间按照以下公式进行计算:
Figure BDA0001248397490000031
式中,λ0为固定学习率,t为模型训练时间,单位为秒,
Figure BDA0001248397490000032
为对应样本保存时间,单位为秒。
由于采用了上述技术方案,本发明具有如下的优点:
本发明提供的搜索排序方法使用神经网络的机器学习方法训练图书馆搜索预测系统,相较于传统的标题、作者关键字匹配的搜索系统更灵活,对于搜索关键字不在图书标题的搜索准确性提高,如文学类书籍;
由于具备了智能检索模型训练器和数据库,使得系统具备了自适应学习能力,减少了人工参与,节省了人力资源和使用难度,能更方便的布局具有图书馆自身图书特色和众多使用者习惯的智能搜索排序系统。
智能检索模型训练过程中,依赖时间特性的可变学习率计算使得系统更好,更快适应最新图书和使用者习惯、兴趣的变化。
关于更新调度模块依据累积误差率的调度和模型更新,在保证系统预测精度的情况下,避免了实时更新系统模型参数所引入的计算资源增加、能耗增加问题,保证了系统的预测效率、节省成本。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
本发明的附图说明如下。
图1为本发明的方案框图。
图2为本发明的流程图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
如图所示,本实施例提供的图书馆智能搜索排序方法,包括以下步骤:
获取检索信息;
利用循环卷积网络处理检索信息,提取特征向量;
将特征向量送入卷积神经网络,输出与图书馆图书数目相同维度的预测向量;
利用softmax函数对预测向量进行归一化计算生成对应于每本图书的预测概率;
对预测概率进行排序,按概率从高到低输出排序结果;
将图书预测排序结果存入数据库中。
还包括以下步骤:
根据排序结果和用户对输入检索信息所点击选择图书按照以下公式计算出用于衡量模型预测错误程度的累积误差值β:
Figure BDA0001248397490000041
式中,n为累积预测次数,pi,1为第i次预测时预测结果中排序最大的概率值,pi,j为第i次预测时用户对输入检索信息所点击选择图书对应的预测概率值,j为其对应的排序位置;
判断累积误差值β与设定门限值的关系,并按照以下方式对智能检索预测排序模块模型进行更新:
当更新调度模块检测到累积误差值β大于设定门限值时,从数据库中随机选择多个样本组成训练集,启动智能检索模型训练器,对模型进行重新训练;并且对训练的多个模型对在数据库中随机选取的N个样本计算累积误差值β,选择其中累积误差值最小的模型更新智能检索预测排序模块模型;
所述从数据库中选择样本包括:用户输入检索信息、用户检索时间、模型预测排序结果及用户对应输入检索信息所点击选择图书。
所述智能模型检索训练器训练过程中,softmax函数所在层学习率根据样本采集时间和训练时间按照以下公式进行计算:
Figure BDA0001248397490000052
式中,λ0为固定学习率,t为模型训练时间,单位为秒,
Figure BDA0001248397490000053
为对应样本保存时间,即为样本用户检索时间,单位为秒。
所述的循环卷积网络采用长短时记忆模型LSTM;所述的卷积神经网络采用GoogleNet网络模型结构。
本实施例提供的图书馆智能搜索排序系统,包括数据库、智能检索模型训练器、更新调度模块以及智能检索预测排序模块;
所述数据库用于存储图书馆所有图书的检索信息;
所述智能检索模型训练器,根据数据库存储的检索信息和输入信息对卷积神经网模型进行训练,存储训练完成的网络模型;
所述智能检索预测排序模块,通过智能检索模型训练器训练完成的网络模型,对用户输入的检索信息进行计算,对图书馆图书按预测概率大小进行从大到小排序,输出排序结果;
所述更新调度模块,用于对智能检索模型训练器的启动和智能检索预测排序模块中模型进行更新。
所述更新调度模块按照以下公式来实现智能检索预测排序模块的更新:
根据排序结果和用户输入关键字所选中的感兴趣图书,可以通过累积计算误差值用于衡量模型预测的错误程度,按照以下公式计算模型预测错误程度,具体如下:
Figure BDA0001248397490000051
式中,n为累积预测次数,pi,1为第i次预测时预测结果中排序最大的概率值,pi,j为第i次预测时关键字对应的感兴趣图书对应的概率值,j为其对应的排序位置。预测概率差值越大说明模型预测结果误差越大,位置越靠后说明误差越大。
当更新调度模块检测到累积误差值β大于设定门限值时,启动智能检索模型训练器,对模型进行重新训练;并且对训练的多个模型对在数据库中随机选取的N个样本计算累积误差值β,选择其中累积误差值最小的模型更新智能检索预测排序模块模型。
本实施例中softmax函数中的学习率采用学习率与样本采集时间和训练时间相关的特性,具体计算如下:
Figure BDA0001248397490000061
式中,λ0为固定学习率,t为模型训练时间,单位为秒,
Figure BDA0001248397490000062
为对应样本保存时间,单位为秒;通过固定学习率乘以时间相关的因子,保证了离训练时间越近的样本权重越大,时间越久远样本权重越小,从而使得模型更适应最新情况,如图书馆增加图书等。使得时间越近的样本学习率越大,使得系统更适应当前环境。
本实施例提供的数据库存储有图书馆所有图书信息,包括书名、作者、出版社、出版时间,并对所有图书进行一一对应编号;以及使用检索系统的检索历史记录,包括检索关键字、感兴趣图书编号以及检索时间。
对于图书馆,根据图书馆藏书量巨大特性,采用神经网络对智能检索模型进行训练,即采用当前最高效、实用的卷积神经网络提取样本特征,由于输入关键字个数不定,所以在在卷积网络之前添加循环卷积网络处理可变长关键字,最后对卷积神经网络特征采用softmax函数进行归一化计算,及智能检索训练器网络模型由循环卷积网络+卷积神经网络+softmax组成。
智能检索模型训练器根据数据库统计的检索关键字和对应的感兴趣图书编号对网络模型进行训练,存储多个训练完成的网络模型。区别于传统的深度神经网络训练中softmax层学习率固定递减或指数递减规则。
智能检索预测排序模块通过训练完成的网络模型,对用户输入的检索关键字进行计算,对图书馆图书按预测概率大小进行从大到小排序,输出排序结果。
更新调度模块主要负责智能检索模型训练器的启动和智能检索预测排序模块中模型的更新。当更新调度模块检测到累积误差值β大于设定门限值时,启动智能检索模型训练器,对模型进行重新训练;并且对训练的多个模型对在数据库中随机选取的N个样本计算累积误差值β,选择其中累积误差值最小的模型更新智能检索预测排序模块模型。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的保护范围当中。

Claims (3)

1.一种图书馆智能搜索排序方法,其特征在于:包括以下步骤:
获取检索信息;
利用循环卷积网络处理检索信息,提取特征向量;
将特征向量送入卷积神经网络,输出与图书馆图书数目相同维度的预测向量;
利用softmax函数对预测向量进行归一化计算生成对应于每本图书的预测概率;
对预测概率进行排序,按概率从高到低输出排序结果;
将图书预测排序结果存入数据库中;
其中,根据所述排序结果和用户对输入检索信息所点击选择图书按照以下公式计算出用于衡量模型预测错误程度的累积误差值β:
Figure FDA0002172852170000011
式中,n为累积预测次数,pi,1为第i次预测时预测结果中排序最大的概率值,,pi,j为第i次预测时用户对输入检索信息所点击选择图书对应的预测概率值,j为其对应的排序位置;
判断累积误差值β与设定门限值的关系,并按照以下方式对智能检索预测排序模块模型进行更新:
当更新调度模块检测到累积误差值β大于设定门限值时,从数据库中随机选择多个样本组成训练集,启动智能检索模型训练器,对模型进行重新训练;并且对训练的多个模型对在数据库中随机选取的N个样本计算累积误差值β,选择其中累积误差值最小的模型更新智能检索预测排序模块模型;
所述从数据库中选择样本包括:用户输入检索信息、用户检索时间、模型预测排序结果及用户对应输入检索信息所点击选择图书;
所述智能模型检索训练器训练过程中,softmax函数所在层学习率根据样本采集时间和训练时间按照以下公式进行计算:
Figure FDA0002172852170000021
式中,λ0为固定学习率,t为模型训练时间,单位为秒,
Figure FDA0002172852170000022
为对应样本保存时间,即为样本用户检索时间,单位为秒。
2.如权利要求1所述的图书馆智能搜索排序方法,其特征在于:所述循环卷积网络采用长短时记忆模型LSTM;所述卷积神经网络采用GoogleNet网络模型结构。
3.一种图书馆智能搜索排序系统,其特征在于:包括数据库、智能检索模型训练器、更新调度模块以及智能检索预测排序模块;
所述数据库用于存储图书馆所有图书的检索信息;
所述智能检索模型训练器,根据数据库存储的检索信息和输入信息对卷积神经网模型进行训练,存储训练完成的网络模型;
所述智能检索预测排序模块,通过智能检索模型训练器训练完成的网络模型,对用户输入的检索信息进行计算,对图书馆图书按预测概率大小进行从大到小排序,输出排序结果;
所述更新调度模块,用于对智能检索模型训练器的启动和智能检索预测排序模块中模型进行更新;
其中,所述更新调度模块按照以下公式来实现智能检索预测排序模块的更新:
按照以下公式计算模型预测错误程度:
Figure FDA0002172852170000031
式中,n为累积预测次数,pi,1为第i次预测时预测结果中排序最大的概率值,pi,j为第i次预测时关键字对应的感兴趣图书对应的概率值,j为其对应的排序位置;
当更新调度模块检测到累积误差值β大于设定门限值时,启动智能检索模型训练器,对模型进行重新训练;并且对训练的多个模型对在数据库中随机选取的N个样本计算累积误差值β,选择其中累积误差值最小的模型更新智能检索预测排序模块模型;
softmax函数中的学习率根据样本采集时间和训练时间按照以下公式进行计算:
式中,λ0为固定学习率,t为模型训练时间,单位为秒,
Figure FDA0002172852170000033
为对应样本保存时间,单位为秒。
CN201710160587.6A 2017-03-17 2017-03-17 一种图书馆智能搜索排序方法及系统 Expired - Fee Related CN106844788B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710160587.6A CN106844788B (zh) 2017-03-17 2017-03-17 一种图书馆智能搜索排序方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710160587.6A CN106844788B (zh) 2017-03-17 2017-03-17 一种图书馆智能搜索排序方法及系统

Publications (2)

Publication Number Publication Date
CN106844788A CN106844788A (zh) 2017-06-13
CN106844788B true CN106844788B (zh) 2020-02-18

Family

ID=59144859

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710160587.6A Expired - Fee Related CN106844788B (zh) 2017-03-17 2017-03-17 一种图书馆智能搜索排序方法及系统

Country Status (1)

Country Link
CN (1) CN106844788B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107423756A (zh) * 2017-07-05 2017-12-01 武汉科恩斯医疗科技有限公司 基于深度卷积神经网络结合长短期记忆模型的核磁共振图像序列分类方法
CN108304433B (zh) * 2017-08-31 2021-09-28 腾讯科技(深圳)有限公司 一种数据搜索方法及其设备、存储介质、服务器
CN108898015B (zh) * 2018-06-26 2021-07-27 暨南大学 基于人工智能的应用层动态入侵检测系统及检测方法
CN109961347A (zh) * 2018-10-19 2019-07-02 大连九州创智科技有限公司 一种基于射频标签技术的图书馆图书信息管理方法
CN111435378B (zh) * 2019-01-14 2023-09-05 中国人民大学 查询结果的排序方法、装置、电子设备以及存储介质
CN112948544B (zh) * 2021-02-25 2022-03-29 安徽农业大学 一种基于深度学习与质量影响的图书检索方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102541883A (zh) * 2010-12-17 2012-07-04 上海杉达学院 图书馆教材检索及管理系统
CN104537116A (zh) * 2015-01-23 2015-04-22 浙江大学 一种基于标签的图书搜索方法
CN104615589A (zh) * 2015-02-15 2015-05-13 百度在线网络技术(北京)有限公司 训练命名实体识别模型的方法、命名实体识别方法及装置
CN106095749A (zh) * 2016-06-03 2016-11-09 杭州量知数据科技有限公司 一种基于深度学习的文本关键词提取方法
CN106372058A (zh) * 2016-08-29 2017-02-01 中译语通科技(北京)有限公司 一种基于深度学习的短文本情感要素抽取方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10146872B2 (en) * 2014-07-16 2018-12-04 Excalibur Ip, Llc Method and system for predicting search results quality in vertical ranking

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102541883A (zh) * 2010-12-17 2012-07-04 上海杉达学院 图书馆教材检索及管理系统
CN104537116A (zh) * 2015-01-23 2015-04-22 浙江大学 一种基于标签的图书搜索方法
CN104615589A (zh) * 2015-02-15 2015-05-13 百度在线网络技术(北京)有限公司 训练命名实体识别模型的方法、命名实体识别方法及装置
CN106095749A (zh) * 2016-06-03 2016-11-09 杭州量知数据科技有限公司 一种基于深度学习的文本关键词提取方法
CN106372058A (zh) * 2016-08-29 2017-02-01 中译语通科技(北京)有限公司 一种基于深度学习的短文本情感要素抽取方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于神经网络的词和文档语义向量表示方法研究;来斯惟;《中国科学院大学博士学位论文》;20160215;正文第80-83页 *

Also Published As

Publication number Publication date
CN106844788A (zh) 2017-06-13

Similar Documents

Publication Publication Date Title
CN106844788B (zh) 一种图书馆智能搜索排序方法及系统
CN108829822B (zh) 媒体内容的推荐方法和装置、存储介质、电子装置
CN106815252B (zh) 一种搜索方法和设备
WO2018157804A1 (zh) 一种问题的应答方法及装置
CN105808590B (zh) 搜索引擎实现方法、搜索方法以及装置
CN110942091B (zh) 寻找可靠的异常数据中心的半监督少样本图像分类方法
CN109388743B (zh) 语言模型的确定方法和装置
CN109697289A (zh) 一种改进的用于命名实体识别的主动学习方法
CN110019889A (zh) 训练特征提取模型及计算图片与查询词相关性系数的方法和相关装置
CN110147421B (zh) 一种目标实体链接方法、装置、设备及存储介质
CN112100529A (zh) 搜索内容排序方法、装置、存储介质和电子设备
CN110795527B (zh) 候选实体排序方法、训练方法及相关装置
CN109902156B (zh) 实体检索方法、存储介质和电子设备
CN114627863A (zh) 一种基于人工智能的语音识别方法和装置
CN112364238A (zh) 一种基于深度学习的用户兴趣点推荐方法与系统
CN112579752A (zh) 实体关系的抽取方法及装置、存储介质、电子设备
CN112966072A (zh) 案件的预判方法、装置、电子装置和存储介质
CN109145083A (zh) 一种基于深度学习的候选答案选取方法
CN104714977B (zh) 一种实体与知识库项的关联方法及装置
CN116226443B (zh) 基于大规模视频语料库的弱监督视频片段定位方法及系统
CN113743239A (zh) 行人重识别方法、装置及电子设备
CN115827990B (zh) 搜索方法及装置
CN111914109A (zh) 一种基于深度度量学习的服装检索技术
CN116167353A (zh) 一种基于孪生长短期记忆网络的文本语义相似度度量方法
CN113032612B (zh) 一种多目标图像检索模型的构建方法及检索方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200218