CN111626408A - 哈希编码方法、装置、设备及可读存储介质 - Google Patents

哈希编码方法、装置、设备及可读存储介质 Download PDF

Info

Publication number
CN111626408A
CN111626408A CN202010453607.0A CN202010453607A CN111626408A CN 111626408 A CN111626408 A CN 111626408A CN 202010453607 A CN202010453607 A CN 202010453607A CN 111626408 A CN111626408 A CN 111626408A
Authority
CN
China
Prior art keywords
hash
preset
data
training
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010453607.0A
Other languages
English (en)
Other versions
CN111626408B (zh
Inventor
吴锦和
范力欣
张天豫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WeBank Co Ltd
Original Assignee
WeBank Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by WeBank Co Ltd filed Critical WeBank Co Ltd
Priority to CN202010453607.0A priority Critical patent/CN111626408B/zh
Publication of CN111626408A publication Critical patent/CN111626408A/zh
Priority to PCT/CN2020/134323 priority patent/WO2021232752A1/zh
Application granted granted Critical
Publication of CN111626408B publication Critical patent/CN111626408B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/06Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols the encryption apparatus using shift registers or memories for block-wise or stream coding, e.g. DES systems or RC4; Hash functions; Pseudorandom sequence generators
    • H04L9/0643Hash functions, e.g. MD5, SHA, HMAC or f9 MAC

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Power Engineering (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本申请公开了一种哈希编码方法、装置、设备及可读存储介质,所述哈希编码方法包括:获取待处理数据,并将所述待处理数据输入基于预设类别信息进行优化的哈希模型,以基于所述待处理数据对应的类别特征信息,对所述待处理数据进行哈希,获得哈希结果,进而基于所述哈希结果对应的各比特位符号,确定所述待处理数据对应的输出哈希编码值。本申请解决了哈希编码准确性低的技术问题。

Description

哈希编码方法、装置、设备及可读存储介质
技术领域
本申请涉及金融科技(Fintech)的人工智能领域,尤其涉及一种哈希编码方法、装置、设备及可读存储介质。
背景技术
随着金融科技,尤其是互联网科技金融的不断发展,越来越多的技术(如分布式、区块链Blockchain、人工智能等)应用在金融领域,但金融业也对技术提出了更高的要求,如对金融业对应待办事项的分发也有更高的要求。
随着计算机软件和人工智能的不断发展,深度学习的应用领域也越来越广泛,例如,用于进行编码等,目前,通常基于深度学习的哈希编码模型进行哈希编码,且输入模型的输入样本越相似,模型输出的哈希编码值越相似,进而当输入样本不属于同一样本类别且相似程度较高时,哈希编码模型容易输出相同的哈希编码值,也即,对于属于不同样本类别的输入样本,输出的哈希编码值容易混淆,进而降低了哈希编码的准确性,例如,当输入样本为猫图像时,由于猫图像与狗图像的相似程度较高,猫图像对应的哈希编码值有极大的可能性与狗图像对应的哈希编码值相同,所以,现有技术中存在哈希编码准确性低的技术问题。
发明内容
本申请的主要目的在于提供一种哈希编码方法、装置、设备及可读存储介质,旨在解决现有技术中哈希编码准确性低的技术问题。
为实现上述目的,本申请提供一种哈希编码方法,所述哈希编码方法应用于哈希编码设备,所述哈希编码方法包括:
获取待处理数据,并将所述待处理数据输入基于预设类别信息进行优化的哈希模型,以基于所述待处理数据对应的类别特征信息,对所述待处理数据进行哈希,获得哈希结果;
基于所述哈希结果对应的各比特位符号,确定所述待处理数据对应的输出哈希编码值。
可选地,所述哈希模型包括深度极化网络,
所述将所述待处理数据输入基于预设类别信息进行优化的哈希模型,以基于所述待处理数据对应的类别特征信息,对所述待处理数据进行哈希,获得哈希结果的步骤包括:
将所述待处理数据输入所述深度极化网络的隐藏层,对所述待处理数据进行数据处理,获得所述类别特征信息;
将所述类别特征信息输入所述深度极化网络的哈希层,对所述类别特征信息进行哈希,获得所述哈希结果。
可选地,所述哈希结果包括哈希向量,所述哈希向量至少包括一个输出比特位,
所述基于所述哈希结果对应的各比特位符号,确定所述待处理数据对应的输出哈希编码值的步骤包括:
提取各所述输出比特位对应的所述比特位符号;
基于各所述比特位符号和各所述输出比特位在所述哈希向量中的位置,确定所述输出哈希编码值。
可选地,所述预设类别信息包括预设哈希编码值,
在所述获取待处理数据,并将所述待处理数据输入基于预设类别信息进行优化的哈希模型,以基于所述待处理数据对应的类别特征信息,对所述待处理数据进行哈希,获得哈希结果的步骤之前,所述哈希编码方法包括:
获取训练数据和待训练哈希模型,并基于预设目标哈希编码方式,生成所述训练数据对应的所述预设哈希编码值;
基于所述预设哈希编码值和所述训练数据,对所述待训练哈希模型进行迭代训练,以优化所述待训练哈希模型对应的预设极化损失函数,直至所述待训练哈希模型达到预设迭代结束条件,获得所述哈希模型。
可选地,所述基于所述预设哈希编码值和所述训练数据,对所述待训练哈希模型进行迭代训练,以优化所述待训练哈希模型对应的预设极化损失函数,直至所述待训练哈希模型达到预设迭代结束条件,获得所述哈希模型的步骤包括:
将所述训练数据输入所述待训练哈希模型,以基于所述预设极化损失函数,对所述训练数据进行哈希编码,获得初始哈希编码值;
计算所述初始哈希编码值和所述预设哈希编码值之间的训练汉明距离,并将所述训练汉明距离与预设汉明距离阀值进行比对;
若所述训练汉明距离大于所述预设汉明距离阀值,则判定所述待训练哈希模型未达到所述预设迭代结束条件,并基于所述初始哈希编码值,优化所述预设极化损失函数;
基于优化后的所述预设极化损失函数,重新进行所述待训练哈希模型的训练,直至所述训练汉明距离小于或者等于所述预设汉明距离阀值;
若所述训练汉明距离小于或者等于所述预设汉明距离阀值,则判定所述待训练哈希模型达到所述预设迭代结束条件,并将所述待训练哈希模型作为所述哈希模型。
可选地,所述将所述训练数据输入所述待训练哈希模型,以基于所述预设极化损失函数,对所述训练数据进行哈希编码,获得初始哈希编码值的步骤包括:
将所述训练数据输入所述待训练哈希模型,对所述训练数据进行哈希,获得训练哈希结果;
基于所述预设极化损失函数,对所述训练哈希结果进行极化,获得极化结果;
基于所述极化结果,确定所述初始哈希编码值。
可选地,所述预设目标哈希编码方式包括随机目标哈希编码和自适应目标哈希编码,
所述基于预设目标哈希编码方式,生成所述训练数据对应的所述预设哈希编码值的步骤包括:
对所述训练数据进行所述随机目标哈希编码,获得所述预设哈希编码值;或者
对所述训练数据进行所述自适应目标哈希编码,获得所述预设哈希编码值。
本申请还提供一种哈希编码装置,所述哈希编码装置为虚拟装置,且所述哈希编码装置应用于哈希编码设备,所述哈希编码装置包括:
哈希模块,用于获取待处理数据,并将所述待处理数据输入基于预设类别信息进行优化的哈希模型,以基于所述待处理数据对应的类别特征信息,对所述待处理数据进行哈希,获得哈希结果;
确定模块,用于基于所述哈希结果对应的各比特位符号,确定所述待处理数据对应的输出哈希编码值。
可选地,所述哈希模块包括:
数据处理单元,用于将所述待处理数据输入所述深度极化网络的隐藏层,对所述待处理数据进行数据处理,获得所述类别特征信息;
哈希单元,用于将所述类别特征信息输入所述深度极化网络的哈希层,对所述类别特征信息进行哈希,获得所述哈希结果。
可选地,所述确定模块包括:
提取单元,用于提取各所述输出比特位对应的所述比特位符号;
生成单元,用于基于各所述比特位符号和各所述输出比特位在所述哈希向量中的位置,确定所述输出哈希编码值。
可选地,所述哈希编码装置还包括:
获取模块,用于获取训练数据和待训练哈希模型,并基于预设目标哈希编码方式,生成所述训练数据对应的所述预设哈希编码值;
训练模块,用于基于所述预设哈希编码值和所述训练数据,对所述待训练哈希模型进行迭代训练,以优化所述待训练哈希模型对应的预设极化损失函数,直至所述待训练哈希模型达到预设迭代结束条件,获得所述哈希模型。
可选地,所述训练模块包括:
哈希编码单元,用于将所述训练数据输入所述待训练哈希模型,以基于所述预设极化损失函数,对所述训练数据进行哈希编码,获得初始哈希编码值;
计算单元,用于计算所述初始哈希编码值和所述预设哈希编码值之间的训练汉明距离,并将所述训练汉明距离与预设汉明距离阀值进行比对;
优化单元,用于若所述训练汉明距离大于所述预设汉明距离阀值,则判定所述待训练哈希模型未达到所述预设迭代结束条件,并基于所述初始哈希编码值,优化所述预设极化损失函数;
重新训练单元,用于基于优化后的所述预设极化损失函数,重新进行所述待训练哈希模型的训练,直至所述训练汉明距离小于或者等于所述预设汉明距离阀值;
第二确定单元,用于若所述训练汉明距离小于或者等于所述预设汉明距离阀值,则判定所述待训练哈希模型达到所述预设迭代结束条件,并将所述待训练哈希模型作为所述哈希模型。
可选地,所述哈希编码单元包括:
哈希子单元,用于将所述训练数据输入所述待训练哈希模型,对所述训练数据进行哈希,获得训练哈希结果;
极化子单元,用于基于所述预设极化损失函数,对所述训练哈希结果进行极化,获得极化结果;
确定子单元,用于基于所述极化结果,确定所述初始哈希编码值。
可选地,所述获取模块包括:
随机哈希单元,用于对所述训练数据进行所述随机目标哈希编码,获得所述预设哈希编码值;或者
自适应哈希单元,用于对所述训练数据进行所述自适应目标哈希编码,获得所述预设哈希编码值。
本申请还提供一种哈希编码设备,所述哈希编码设备为实体设备,所述哈希编码设备包括:存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的所述哈希编码方法的程序,所述哈希编码方法的程序被处理器执行时可实现如上述的哈希编码方法的步骤。
本申请还提供一种可读存储介质,所述可读存储介质上存储有实现哈希编码方法的程序,所述哈希编码方法的程序被处理器执行时实现如上述的哈希编码方法的步骤。
本申请通过获取待处理数据,并将所述待处理数据输入基于预设类别信息进行优化的哈希模型,以基于所述待处理数据对应的类别特征信息,对所述待处理数据进行哈希,获得哈希结果,进而基于所述哈希结果对应的各比特位符号,确定所述待处理数据对应的输出哈希编码值。也即,本申请在获取待处理数据之后,通过将所述待处理数据输入基于预设类别信息进行优化的哈希模型,以基于所述待处理数据对应的类别特征信息,按照所述待处理数据对应的样本类别,进行对所述待处理数据的哈希,获得哈希结果,进而基于所述哈希结果对应的各比特位符号,即可进行所述待处理数据对应的输出哈希编码值的确定,其中,由于所述哈希模型是基于预设类别信息进行优化的,即使输入样本不属于同一样本类别且相似程度较高,所述哈希模型依然可基于输入样本对应的类别特征信息,输出所述输入样本所属样本类别对应的哈希结果,进而避免了哈希模型对于属于不同样本类别的输入样本,输出的哈希编码值容易混淆的情况发生,进一步地,基于所述哈希结果对应的各比特位符号,可生成更加准确的哈希编码值,进而提高了哈希编码的准确性,所以,解决了哈希编码准确性低的技术问题。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请哈希编码方法第一实施例的流程示意图;
图2为本申请哈希编码方法第二实施例的流程示意图;
图3为本申请实施例方案涉及的硬件运行环境的设备结构示意图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
本申请实施例提供一种哈希编码方法,在本申请哈希编码方法的第一实施例中,参照图1,所述哈希编码方法包括:
步骤S10,获取待处理数据,并将所述待处理数据输入基于预设类别信息进行优化的哈希模型,以基于所述待处理数据对应的类别特征信息,对所述待处理数据进行哈希,获得哈希结果;
在本实施例中,需要说明的是,所述哈希模型包括深度极化网络,其中,所述深度极化网络为基于预设类别信息和预设极化损失函数优化的深度学习模型,且对属于同一样本类别的输入样本,所述哈希模型均能输出相同的哈希向量,其中,所述哈希向量至少包括一个目标比特位,且各所述目标比特位上的数值与0的距离大于预设距离阀值,例如,假设所述哈希向量为(a,b),所述预设距离阀值等于1,则a与0的距离大于或者等于1,b与0的距离也大于或者等于1。
另外地,需要说明的是,所述深度极化网络包括隐藏层和哈希层,其中,所述隐藏层为所述预设深度极化网络的数据处理层,用于进行卷积处理、池化处理等数据处理过程,且所述隐藏层为基于深度学习训练好的一层或者多层神经网络,所述哈希层为所述预设深度极化网络的输出层,用于对所述待处理数据进行哈希,并输出对应的哈希结果,且所述哈希层为基于深度学习训练好的一层或者多层神经网络,所述待处理数据可用矩阵或者向量进行表示,所述类别特征信息为所述深度极化网络的隐藏层输出的数据特征表示矩阵,其中,所述数据特征表示矩阵包括所述待处理数据对应的所有特征信息。
获取待处理数据,并将所述待处理数据输入基于预设类别信息进行优化的哈希模型,以基于所述待处理数据对应的类别特征信息,对所述待处理数据进行哈希,获得哈希结果,具体地,获取预设存储数据库中提取所述待处理数据,并将所述待处理数据对应的待处理数据表示矩阵输入所述深度极化网络的隐藏层,对所述待处理数据表示矩阵进行数据处理,其中,所述数据处理包括卷积、池化等,进而获得所述数据表示矩阵对应的特征表示矩阵,进而将所述特征表示矩阵输入预设哈希层,对所述特征表示矩阵进行哈希,获得所述特征表示矩阵对应的哈希向量,其中,所述哈希向量的每一目标比特位上的数值均大于或者等所述预设距离阀值。
其中,所述哈希模型包括深度极化网络,
所述将所述待处理数据输入基于预设类别信息进行优化的哈希模型,以基于所述待处理数据对应的类别特征信息,对所述待处理数据进行哈希,获得哈希结果的步骤包括:
步骤S11,将所述待处理数据输入所述深度极化网络的隐藏层,对所述待处理数据进行数据处理,获得所述类别特征信息;
在本实施例中,将所述待处理数据输入所述深度极化网络的隐藏层,对所述待处理数据进行数据处理,获得所述类别特征信息,具体地,将所述待处理数据对应的待处理数据表示矩阵输入所述深度极化网络的隐藏层,对所述数据表示矩阵进行预设次数的卷积和池化交替处理,获得所述数据表示矩阵对应的特征表示矩阵,并将所述特征表示矩阵作为所述类别特征信息。
步骤S12,将所述类别特征信息输入所述深度极化网络的哈希层,对所述类别特征信息进行哈希,获得所述哈希结果。
在本实施例中,将所述类别特征信息输入所述深度极化网络的哈希层,对所述类别特征信息进行哈希,获得所述哈希结果,具体地,将所述类别特征信息对应的特征表示矩阵输入所述深度极化网络的哈希层,对所述特征表示矩阵进行全连接,获得全连接向量,进而为所述全连接向量中的各目标比特位匹配对应的极化输出通道,并基于各所述极化输出通道,对各所述极化输出通道各自对应的目标比特位进行极化,为各所述目标比特位赋予极化标识,进而输出极化后的各所述目标比特位共同对应的哈希向量,并将所述哈希向量作为所述哈希结果,其中,所述极化输出通道是为所述目标比特位赋予极化标识的模型输出通道,所述极化标识为所述目标比特位的正负符号,例如,假设所述全连接向量为(a,b),所述哈希向量为(a,-b),进而目标比特位a对应的极化标识为+1,目标比特位b对应的极化标识为+1。
步骤S20,基于所述哈希结果对应的各比特位符号,确定所述待处理数据对应的输出哈希编码值。
在本实施例中,基于所述哈希结果对应的各比特位符号,确定所述待处理数据对应的输出哈希编码值,具体地,提取所述哈希向量中每一输出比特位对应的极化标识,并基于各所述极化标识和各所述极化标识对应的输出比特位在所述哈希向量中的位置,生成所述输出哈希编码值,例如,假设所述哈希向量为1*3的向量(a,-b,c),则输出比特位a对的极化标识为正,输出比特位-b对应的极化标识为负,输出比特位c对应的极化标识为正,进而所述哈希编码值为(1,-1,1)。
其中,所述哈希结果包括哈希向量,所述哈希向量至少包括一个输出比特位,
所述基于所述哈希结果对应的各比特位符号,确定所述待处理数据对应的输出哈希编码值的步骤包括:
步骤S21,提取各所述输出比特位对应的所述比特位符号;
在本实施例中,需要说明的是,所述比特位符号为所述输出比特位的极化标识。
步骤S22,基于各所述比特位符号和各所述输出比特位在所述哈希向量中的位置,确定所述输出哈希编码值。
在本实施例中,需要说明的是,所述哈希向量和所述输出哈希编码值为的长度相同,例如,假设所述哈希向量为长度为3的向量,则所述哈希编码值的长度为3。
基于各所述比特位符号和各所述输出比特位在所述哈希向量中的位置,确定所述输出哈希编码值,具体地,依据各所述输出比特位在所述哈希向量中的位置和所述哈希向量的长度,生成各所述比特位符号对应的且与所述哈希向量相同长度的哈希编码值。
本实施例通过获取待处理数据,并将所述待处理数据输入基于预设类别信息进行优化的哈希模型,以基于所述待处理数据对应的类别特征信息,对所述待处理数据进行哈希,获得哈希结果,进而基于所述哈希结果对应的各比特位符号,确定所述待处理数据对应的输出哈希编码值。也即,本实施例在获取待处理数据之后,通过将所述待处理数据输入基于预设类别信息进行优化的哈希模型,以基于所述待处理数据对应的类别特征信息,按照所述待处理数据对应的样本类别,进行对所述待处理数据的哈希,获得哈希结果,进而基于所述哈希结果对应的各比特位符号,即可进行所述待处理数据对应的输出哈希编码值的确定,其中,由于所述哈希模型是基于预设类别信息进行优化的,即使输入样本不属于同一样本类别且相似程度较高,所述哈希模型依然可基于输入样本对应的类别特征信息,输出所述输入样本所属样本类别对应的哈希结果,进而避免了哈希模型对于属于不同样本类别的输入样本,输出的哈希编码值容易混淆的情况发生,进一步地,基于所述哈希结果对应的各比特位符号,可生成更加准确的哈希编码值,进而提高了哈希编码的准确性,所以,解决了哈希编码准确性低的技术问题。
进一步地,参照图2,基于本申请中第一实施例,在本申请的另一实施例中,所述预设类别信息包括预设哈希编码值,
在所述获取待处理数据,并将所述待处理数据输入基于预设类别信息进行优化的哈希模型,以基于所述待处理数据对应的类别特征信息,对所述待处理数据进行哈希,获得哈希结果的步骤之前,所述哈希编码方法包括:
步骤A10,获取训练数据和待训练哈希模型,并基于预设目标哈希编码方式,生成所述训练数据对应的所述预设哈希编码值;
在本实施例中,需要说明的是,所述待训练哈希模型为未训练好的神经网络模型,所述预设目标哈希编码方式可为预先设定好的任意一种哈希编码方式,所述训练数据为用于训练所述待训练哈希模型的训练样本,所述预设哈希编码值为所述训练样本所属的训练样本类别对应的哈希编码值,其中,一所述训练样本类别对应一所述预设哈希编码值,所述训练样本类别至少包括一个训练样本。
获取训练数据和待训练哈希模型,并基于预设目标哈希编码方式,生成所述训练数据对应的所述预设哈希编码值,具体地,从预设训练数据存储数据库中提取所述训练样本和待训练哈希模型,并基于预设目标哈希编码方式,对所述训练样本进行哈希编码,生成所述训练样本所属的训练样本类别对应的预设哈希编码值。
其中,在步骤A10中,所述预设目标哈希编码方式包括随机目标哈希编码和自适应目标哈希编码,
所述基于预设目标哈希编码方式,生成所述训练数据对应的所述预设哈希编码值的步骤包括:
步骤A11,对所述训练数据进行所述随机目标哈希编码,获得所述预设哈希编码值;
在本实施例中,需要说明的是,若所述预设目标哈希编码方式为随机目标哈希编码,则所述目标哈希编码结果中属于不同分类样本的对应的目标哈希向量之间的汉明距离应为目标汉明距离2*K*p*(1-p),其中,K为所述目标哈希向量中比特位的数量,p为所述目标哈希向量对应的样本属于所述分类样本的概率,例如,假设训练数据包括两个分类向量,K为32比特,所述分类样本包括猫和狗,若所述分类向量对应的样本属于猫的概率为0.5,属于狗的概率为0.5,则猫对应的目标哈希向量与狗对应的目标哈希向量之间的最大汉明距离为16。
对所述训练数据进行所述随机目标哈希编码,获得所述预设哈希编码值,具体地,基于预设高斯随机方法,生成所述训练样本对应的预设哈希编码值。
步骤A12,对所述训练数据进行所述自适应目标哈希编码,获得所述预设哈希编码值。
在本实施例,对所述训练数据进行所述自适应目标哈希编码,获得所述预设哈希编码值,具体地,获取所述训练数据对应的训练样本类别的多个训练样本,以基于预设高斯随机方法分别生成各所述训练样本对应的随机哈希编码值,其中,一所述训练样本对应一个所述随机哈希编码值,进而确定各所述训练样本类别中每一所述训练样本对应的随机哈希编码值,并分别求取每一所述训练样本类别对应的各随机哈希编码值的平均值,获得各所述训练样本类别对应的平均哈希编码值,进而将所述平均哈希编码值作为对应的训练样本类别中所有训练样本对应的预设哈希编码值。
步骤A20,基于所述预设哈希编码值和所述训练数据,对所述待训练哈希模型进行迭代训练,以优化所述待训练哈希模型对应的预设极化损失函数,直至所述待训练哈希模型达到预设迭代结束条件,获得所述哈希模型。
在本实施例中,需要说明的是,所述预设迭代结束条件包括达到预设迭代次数阀值、预设极化损失函数收敛等,所述迭代训练包括一轮或者多轮训练。
基于所述预设哈希编码值和所述训练数据,对所述待训练哈希模型进行迭代训练,以优化所述待训练哈希模型对应的预设极化损失函数,直至所述待训练哈希模型达到预设迭代结束条件,获得所述哈希模型,具体地,将所述训练数据输入所述待训练哈希模型,以基于所述预设哈希编码值,对所述待训练哈希模型进行训练更新,并判断训练更新后的所述待训练哈希模型是否满足预设迭代结束条件,若训练更新后的所述待训练哈希模型满足预设迭代结束条件,则将训练更新后的所述待训练哈希模型作为所述哈希模型,若训练更新后的所述待训练哈希模型不满足预设迭代结束条件,则获取所述待训练哈希模型基于所述训练数据输出的初始哈希编码值,并基于所述初始哈希编码值和所述预设哈希编码值,优化所述待训练哈希模型的各极化输出通道对应的预设极化损失函数,并重新所述待训练哈希模型进行训练更新,直至训练更新后的所述待训练哈希模型满足预设迭代结束条件。
其中,所述基于所述预设哈希编码值和所述训练数据,对所述待训练哈希模型进行迭代训练,以优化所述待训练哈希模型对应的预设极化损失函数,直至所述待训练哈希模型达到预设迭代结束条件,获得所述哈希模型的步骤包括:
步骤A21,将所述训练数据输入所述待训练哈希模型,以基于所述预设极化损失函数,对所述训练数据进行哈希编码,获得初始哈希编码值;
在本实施例中,所述训练数据至少包括一个训练样本,所述初始哈希编码值包括各所述训练样本对应的初始哈希编码值。
将所述训练数据输入所述待训练哈希模型,以基于所述预设极化损失函数,对所述训练数据进行哈希编码,获得初始哈希编码值,具体地,将所述训练样本对应的待处理训练矩阵输入所述待训练哈希模型,其中,所述待处理训练矩阵为训练样本的矩阵表示形式,进而对所述待处理训练矩阵进行哈希,获得训练哈希向量,进而基于所述预设极化损失函数,对所述训练哈希向量的每一比特位进行强制极化,获得所述训练哈希向量对应的训练极化向量,进而基于所述训练极化向量中每一比特位对应的极化标识,生成所述训练样本对应的初始哈希编码值,其中,所述预设极化损失函数如下所示,
L(v,t^c)=max(m-v*t^c,0)
其中,L为所述预设极化损失函数,m为预设强制极化参数,v为所述训练哈希向量中每一哈希向量比特位上的数值,且v的绝对值大于m,t^c为所述哈希向量比特位对应的目标哈希值,所述目标哈希值为所述训练样本对应的预设哈希编码值上的比特位数值,且t^c={-1,+1},且所述预设极化损失函数收敛于0,例如,假设m为1,t^c为1,v为-1,此时,L=2,若要使得预设极化损失函数收敛于0,则需要对v进行强制极化,使得v为1,此时L=0,进而当t^c等于1时,所述训练哈希向量比特位上的数值将朝正方向逐渐远离0,当t^c等于-1时,所述训练哈希向量比特位上的数值将朝负方向逐渐远离0,进而在极化成功后,获得的训练极化向量中每一比特位的极化标识应与对应的目标哈希值一致,进一步地,由于同一训练样本类别的预设哈希编码值相同,所以属于同一训练样本类别的各训练样本对应的训练极化向量中每一比特位上的极化标识一致,进而基于各极化标识,获得的模型输出值一致,也即,对于属于同一样本类别的模型输入样本,基于训练好的所述哈希模型可获得相同的哈希编码值。
另外地,需要说明的是,所述训练哈希向量中每一比特位均对应所述待训练哈希模型中的一极化输出通道,每一所述极化输出通道对应的预设强制极化参数均由对所述哈希编码模型进行训练优化而得到,进而每一所述极化输出通道对应的预设强制极化参数可能相同,也可能不同,其中,所述极化输出通道用于基于所述预设强制极化参数,通过对应的所述预设极化损失函数,强制极化所述训练哈希向量中对应的比特位上的数值,并输出所述初始哈希编码值中对应的比特位的编码数值。
其中,所述将所述训练数据输入所述待训练哈希模型,以基于所述预设极化损失函数,对所述训练数据进行哈希编码,获得初始哈希编码值的步骤包括:
步骤A211,将所述训练数据输入所述待训练哈希模型,对所述训练数据进行哈希,获得训练哈希结果;
在本实施例中,将所述训练数据输入所述待训练哈希模型,对所述训练数据进行哈希,获得训练哈希结果,具体地,将所述训练数据输入所述待训练哈希模型的隐藏层,对所述训练数据进行数据处理,获得训练数据特征表示矩阵,进而将所述训练数据特征表示矩阵输入所述待训练哈希模型的哈希层,对所述训练数据特征表示矩阵进行全连接,获得训练哈希向量,并将所述训练哈希向量作为所述训练哈希结果;
步骤A212,基于所述预设极化损失函数,对所述训练哈希结果进行极化,获得极化结果;
在本实施例中,基于所述预设极化损失函数,对所述训练哈希结果进行极化,获得极化结果,具体地,基于所述预设极化损失函数,对所述训练哈希向量中的每一比特位上的数值进行强制极化,获得训练极化向量,并将所述训练极化向量作为所述极化结果。
步骤A213,基于所述极化结果,确定所述初始哈希编码值。
在本实施例中,基于所述极化结果,确定所述初始哈希编码值,具体地,提取所述训练极化向量中各比特位对应的训练极化标识,并基于各所述训练极化标识对应的比特位在所述训练极化向量中的位置,生成各所述训练极化标识共同对应的所述初始哈希编码值
步骤A22,计算所述初始哈希编码值和所述预设哈希编码值之间的训练汉明距离,并将所述训练汉明距离与预设汉明距离阀值进行比对;
在本实施例中,计算所述初始哈希编码值和所述预设哈希编码值之间的训练汉明距离,并将所述训练汉明距离与预设汉明距离阀值进行比对,具体地,将所述初始哈希编码值的每一比特位上的数值与所述预设哈希编码值的每一比特位上的数值进行比对,确定所述初始哈希编码值和所述预设哈希编码值之间比特位数值不相同的比特位数量,并将所述比特位数量作为所述训练汉明距离,并将所述训练汉明距离与预设汉明距离阀值进行比对,例如,假设所述初始哈希编码值为向量(1,1,1,1),所述目标哈希编码结果为向量(-1,1,1,-1),则所述比特位数量为2,则所述训练汉明距离为2。
步骤A23,若所述训练汉明距离大于所述预设汉明距离阀值,则判定所述待训练哈希层未达到所述预设迭代结束条件,并基于所述初始哈希编码值优化所述预设极化损失函数;
在本实施例中,若所述训练汉明距离大于所述预设汉明距离阀值,则判定所述待训练哈希层未达到所述预设迭代结束条件,并基于所述初始哈希编码值优化所述预设极化损失函数,具体地,若所述训练汉明距离大于所述预设汉明距离阀值,则判定所述预设极化损失函数并未在所有所述极化输出通道上收敛,也即,所述预设极化损失函数未收敛,进而判定所述待训练哈希模型未达到所述预设迭代结束条件,进而确定所述初始哈希编码值和所述预设哈希编码值之间的一个或者多个相异比特位,并确定各所述相异比特位对应的未收敛极化输出通道,进而调整各所述未收敛极化输出通道对应的预设极化损失函数中的预设强制极化参数,其中,所述未收敛极化输出通道为未收敛的预设极化损失函数对应的极化输出通道,其中,所述待训练哈希模型至少包括一个极化输出通道,且所述极化输出通道的数量与所述训练哈希向量中的比特位的数量相关,也即,一所述训练哈希向量中的比特位对应一所述极化输出通道。
步骤A24,基于优化后的所述预设极化损失函数,重新进行所述待训练哈希模型的训练,直至所述训练汉明距离小于或者等于所述预设汉明距离阀值;
在本实施例中,基于优化后的所述预设极化损失函数,重新进行所述待训练哈希模型的训练,直至所述训练汉明距离小于或者等于所述预设汉明距离阀值,具体地,重新获取所述训练数据,并基于重新获取的训练数据,对优化后的所述预设极化损失函数对应的待训练哈希模型重新进行迭代训练,以继续优化所述预设极化损失函数,直至所述训练汉明距离小于或者等于所述预设汉明距离阀值。
步骤A25,若所述训练汉明距离小于或者等于所述预设汉明距离阀值,则判定所述待训练哈希模型达到所述预设迭代结束条件,并将所述待训练哈希模型作为所述哈希模型。
在本实施例中,若所述训练汉明距离小于或者等于所述预设汉明距离阀值,则判定所述待训练哈希模型达到所述预设迭代结束条件,并将所述待训练哈希模型作为所述哈希模型,具体地,若所述训练汉明距离小于或者等于所述预设汉明距离阀值,则判定所述待训练哈希模型达到所述预设迭代结束条件,也即,所述待训练哈希模型中各所述极化输出通道对应的预设极化损失函数收敛,进而将所述待训练哈希模型作为所述哈希模型。
另外地,需要说明的是,目前基于深度学习的哈希编码方式,通常以成对相似度标签为训练目标,且在训练时需加上约束条件,进而导致在训练哈希模型时需要进行优化的参数变多,而本实施例中训练哈希模型时,只需基于简单的极化损失函数,即可完成哈希模型的优化,进行避免了以成对相似度标签为训练目标,且在训练时需加上约束条件以训练哈希模型的情况发生,进而可显著提高哈希模型构建效率。
本实施例获取训练数据和待训练哈希模型,并基于预设目标哈希编码方式,生成所述训练数据对应的所述预设哈希编码值,进而基于所述预设哈希编码值和所述训练数据,对所述待训练哈希模型进行迭代训练,以优化所述待训练哈希模型对应的预设极化损失函数,直至所述待训练哈希模型达到预设迭代结束条件,获得所述哈希模型。也即,本实施例提供了一种基于深度学习直接训练哈希模型的方法,也即,基于所述训练数据和所述预设哈希编码值,对所述待训练哈希层进行迭代训练,以优化所述待训练哈希层对应的预设极化损失函数,直至所述待训练哈希层达到预设迭代结束条件,获得所述哈希模型,其中,在迭代训练过程中,并未加上约束条件,且直接基于深度学习对所述待训练哈希层进行迭代训练,进而避免了以成对相似度标签为训练目标,且加上约束条件,训练所述待训练哈希层的情况发生,降低了模型训练时的计算复杂度,提高了模型训练时的计算效率,为解决哈希编码准确性低的技术问题奠定了基础。
参照图3,图3是本申请实施例方案涉及的硬件运行环境的设备结构示意图。
如图3所示,该哈希编码设备可以包括:处理器1001,例如CPU,存储器1005,通信总线1002。其中,通信总线1002用于实现处理器1001和存储器1005之间的连接通信。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储设备。
可选地,该哈希编码设备还可以包括矩形用户接口、网络接口、摄像头、RF(RadioFrequency,射频)电路,传感器、音频电路、WiFi模块等等。矩形用户接口可以包括显示屏(Display)、输入子模块比如键盘(Keyboard),可选矩形用户接口还可以包括标准的有线接口、无线接口。网络接口可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。
本领域技术人员可以理解,图3中示出的哈希编码设备结构并不构成对哈希编码设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图3所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块以及哈希编码程序。操作系统是管理和控制哈希编码设备硬件和软件资源的程序,支持哈希编码程序以及其它软件和/或程序的运行。网络通信模块用于实现存储器1005内部各组件之间的通信,以及与哈希编码系统中其它硬件和软件之间通信。
在图3所示的哈希编码设备中,处理器1001用于执行存储器1005中存储的哈希编码程序,实现上述任一项所述的哈希编码方法的步骤。
本申请哈希编码设备具体实施方式与上述哈希编码方法各实施例基本相同,在此不再赘述。
本申请实施例还提供一种哈希编码装置,所述哈希编码装置应用于哈希编码设备,所述哈希编码装置包括:
哈希模块,用于获取待处理数据,并将所述待处理数据输入基于预设类别信息进行优化的哈希模型,以基于所述待处理数据对应的类别特征信息,对所述待处理数据进行哈希,获得哈希结果;
确定模块,用于基于所述哈希结果对应的各比特位符号,确定所述待处理数据对应的输出哈希编码值。
可选地,所述哈希模块包括:
数据处理单元,用于将所述待处理数据输入所述深度极化网络的隐藏层,对所述待处理数据进行数据处理,获得所述类别特征信息;
哈希单元,用于将所述类别特征信息输入所述深度极化网络的哈希层,对所述类别特征信息进行哈希,获得所述哈希结果。
可选地,所述确定模块包括:
提取单元,用于提取各所述输出比特位对应的所述比特位符号;
生成单元,用于基于各所述比特位符号和各所述输出比特位在所述哈希向量中的位置,确定所述输出哈希编码值。
可选地,所述哈希编码装置还包括:
获取模块,用于获取训练数据和待训练哈希模型,并基于预设目标哈希编码方式,生成所述训练数据对应的所述预设哈希编码值;
训练模块,用于基于所述预设哈希编码值和所述训练数据,对所述待训练哈希模型进行迭代训练,以优化所述待训练哈希模型对应的预设极化损失函数,直至所述待训练哈希模型达到预设迭代结束条件,获得所述哈希模型。
可选地,所述训练模块包括:
哈希编码单元,用于将所述训练数据输入所述待训练哈希模型,以基于所述预设极化损失函数,对所述训练数据进行哈希编码,获得初始哈希编码值;
计算单元,用于计算所述初始哈希编码值和所述预设哈希编码值之间的训练汉明距离,并将所述训练汉明距离与预设汉明距离阀值进行比对;
优化单元,用于若所述训练汉明距离大于所述预设汉明距离阀值,则判定所述待训练哈希模型未达到所述预设迭代结束条件,并基于所述初始哈希编码值,优化所述预设极化损失函数;
重新训练单元,用于基于优化后的所述预设极化损失函数,重新进行所述待训练哈希模型的训练,直至所述训练汉明距离小于或者等于所述预设汉明距离阀值;
第二确定单元,用于若所述训练汉明距离小于或者等于所述预设汉明距离阀值,则判定所述待训练哈希模型达到所述预设迭代结束条件,并将所述待训练哈希模型作为所述哈希模型。
可选地,所述哈希编码单元包括:
哈希子单元,用于将所述训练数据输入所述待训练哈希模型,对所述训练数据进行哈希,获得训练哈希结果;
极化子单元,用于基于所述预设极化损失函数,对所述训练哈希结果进行极化,获得极化结果;
确定子单元,用于基于所述极化结果,确定所述初始哈希编码值。
可选地,所述获取模块包括:
随机哈希单元,用于对所述训练数据进行所述随机目标哈希编码,获得所述预设哈希编码值;或者
自适应哈希单元,用于对所述训练数据进行所述自适应目标哈希编码,获得所述预设哈希编码值。
本申请哈希编码装置的具体实施方式与上述哈希编码方法各实施例基本相同,在此不再赘述。
本申请实施例提供了一种可读存储介质,且所述可读存储介质存储有一个或者一个以上程序,所述一个或者一个以上程序还可被一个或者一个以上的处理器执行以用于实现上述任一项所述的哈希编码方法的步骤。
本申请可读存储介质具体实施方式与上述哈希编码方法各实施例基本相同,在此不再赘述。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利处理范围内。

Claims (10)

1.一种哈希编码方法,其特征在于,所述哈希编码方法包括:
获取待处理数据,并将所述待处理数据输入基于预设类别信息进行优化的哈希模型,以基于所述待处理数据对应的类别特征信息,对所述待处理数据进行哈希,获得哈希结果;
基于所述哈希结果对应的各比特位符号,确定所述待处理数据对应的输出哈希编码值。
2.如权利要求1所述哈希编码方法,其特征在于,所述哈希模型包括深度极化网络,
所述将所述待处理数据输入基于预设类别信息进行优化的哈希模型,以基于所述待处理数据对应的类别特征信息,对所述待处理数据进行哈希,获得哈希结果的步骤包括:
将所述待处理数据输入所述深度极化网络的隐藏层,对所述待处理数据进行数据处理,获得所述类别特征信息;
将所述类别特征信息输入所述深度极化网络的哈希层,对所述类别特征信息进行哈希,获得所述哈希结果。
3.如权利要求1所述哈希编码方法,其特征在于,所述哈希结果包括哈希向量,所述哈希向量至少包括一个输出比特位,
所述基于所述哈希结果对应的各比特位符号,确定所述待处理数据对应的输出哈希编码值的步骤包括:
提取各所述输出比特位对应的所述比特位符号;
基于各所述比特位符号和各所述输出比特位在所述哈希向量中的位置,确定所述输出哈希编码值。
4.如权利要求1所述哈希编码方法,其特征在于,所述预设类别信息包括预设哈希编码值,
在所述获取待处理数据,并将所述待处理数据输入基于预设类别信息进行优化的哈希模型,以基于所述待处理数据对应的类别特征信息,对所述待处理数据进行哈希,获得哈希结果的步骤之前,所述哈希编码方法包括:
获取训练数据和待训练哈希模型,并基于预设目标哈希编码方式,生成所述训练数据对应的所述预设哈希编码值;
基于所述预设哈希编码值和所述训练数据,对所述待训练哈希模型进行迭代训练,以优化所述待训练哈希模型对应的预设极化损失函数,直至所述待训练哈希模型达到预设迭代结束条件,获得所述哈希模型。
5.如权利要求4所述哈希编码方法,其特征在于,所述基于所述预设哈希编码值和所述训练数据,对所述待训练哈希模型进行迭代训练,以优化所述待训练哈希模型对应的预设极化损失函数,直至所述待训练哈希模型达到预设迭代结束条件,获得所述哈希模型的步骤包括:
将所述训练数据输入所述待训练哈希模型,以基于所述预设极化损失函数,对所述训练数据进行哈希编码,获得初始哈希编码值;
计算所述初始哈希编码值和所述预设哈希编码值之间的训练汉明距离,并将所述训练汉明距离与预设汉明距离阀值进行比对;
若所述训练汉明距离大于所述预设汉明距离阀值,则判定所述待训练哈希模型未达到所述预设迭代结束条件,并基于所述初始哈希编码值,优化所述预设极化损失函数;
基于优化后的所述预设极化损失函数,重新进行所述待训练哈希模型的训练,直至所述训练汉明距离小于或者等于所述预设汉明距离阀值;
若所述训练汉明距离小于或者等于所述预设汉明距离阀值,则判定所述待训练哈希模型达到所述预设迭代结束条件,并将所述待训练哈希模型作为所述哈希模型。
6.如权利要求5所述哈希编码方法,其特征在于,所述将所述训练数据输入所述待训练哈希模型,以基于所述预设极化损失函数,对所述训练数据进行哈希编码,获得初始哈希编码值的步骤包括:
将所述训练数据输入所述待训练哈希模型,对所述训练数据进行哈希,获得训练哈希结果;
基于所述预设极化损失函数,对所述训练哈希结果进行极化,获得极化结果;
基于所述极化结果,确定所述初始哈希编码值。
7.如权利要求4所述哈希编码方法,其特征在于,所述预设目标哈希编码方式包括随机目标哈希编码和自适应目标哈希编码,
所述基于预设目标哈希编码方式,生成所述训练数据对应的所述预设哈希编码值的步骤包括:
对所述训练数据进行所述随机目标哈希编码,获得所述预设哈希编码值;或者
对所述训练数据进行所述自适应目标哈希编码,获得所述预设哈希编码值。
8.一种哈希编码装置,其特征在于,所述哈希编码装置包括:
哈希模块,用于获取待处理数据,并将所述待处理数据输入基于预设类别信息进行优化的哈希模型,以基于所述待处理数据对应的类别特征信息,对所述待处理数据进行哈希,获得哈希结果;
生成模块,用于基于所述哈希结果对应的各比特位符号,确定所述待处理数据对应的输出哈希编码值。
9.一种哈希编码设备,其特征在于,所述哈希编码设备包括:存储器、处理器以及存储在存储器上的用于实现所述哈希编码方法的程序,
所述存储器用于存储实现哈希编码方法的程序;
所述处理器用于执行实现所述哈希编码方法的程序,以实现如权利要求1至7中任一项所述哈希编码方法的步骤。
10.一种可读存储介质,其特征在于,所述可读存储介质上存储有实现哈希编码方法的程序,所述实现哈希编码方法的程序被处理器执行以实现如权利要求1至7中任一项所述哈希编码方法的步骤。
CN202010453607.0A 2020-05-22 2020-05-22 哈希编码方法、装置、设备及可读存储介质 Active CN111626408B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010453607.0A CN111626408B (zh) 2020-05-22 2020-05-22 哈希编码方法、装置、设备及可读存储介质
PCT/CN2020/134323 WO2021232752A1 (zh) 2020-05-22 2020-12-07 哈希编码方法、装置、设备及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010453607.0A CN111626408B (zh) 2020-05-22 2020-05-22 哈希编码方法、装置、设备及可读存储介质

Publications (2)

Publication Number Publication Date
CN111626408A true CN111626408A (zh) 2020-09-04
CN111626408B CN111626408B (zh) 2021-08-06

Family

ID=72259238

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010453607.0A Active CN111626408B (zh) 2020-05-22 2020-05-22 哈希编码方法、装置、设备及可读存储介质

Country Status (2)

Country Link
CN (1) CN111626408B (zh)
WO (1) WO2021232752A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113111953A (zh) * 2021-04-20 2021-07-13 深圳吉祥星科技股份有限公司 一种投影画质处理装置
WO2021232752A1 (zh) * 2020-05-22 2021-11-25 深圳前海微众银行股份有限公司 哈希编码方法、装置、设备及可读存储介质
CN115292535A (zh) * 2022-08-24 2022-11-04 合肥市正茂科技有限公司 一种基于深度极化哈希的分层车辆图像检索方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114666011B (zh) * 2022-03-23 2024-04-16 锐捷网络股份有限公司 一种数据处理方法、装置及电子设备
CN114842371B (zh) * 2022-03-30 2024-02-27 西北工业大学 一种无监督视频异常检测方法
CN116192402B (zh) * 2023-01-18 2023-10-10 南阳理工学院 一种具有信息编码的通信方法
CN116070277B (zh) * 2023-03-07 2023-08-29 浙江大学 一种基于深度哈希的纵向联邦学习隐私保护方法和系统

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106407352A (zh) * 2016-09-06 2017-02-15 广东顺德中山大学卡内基梅隆大学国际联合研究院 基于深度学习的交通图像检索方法
CN107315765A (zh) * 2017-05-12 2017-11-03 南京邮电大学 一种大规模图片集分布式近似搜索的方法
US20180276528A1 (en) * 2015-12-03 2018-09-27 Sun Yat-Sen University Image Retrieval Method Based on Variable-Length Deep Hash Learning
CN108805157A (zh) * 2018-04-11 2018-11-13 南京理工大学 基于部分随机监督离散式哈希的遥感图像分类方法
CN109241313A (zh) * 2018-08-14 2019-01-18 大连大学 一种基于高阶深度哈希学习的图像检索方法
CN109711422A (zh) * 2017-10-26 2019-05-03 北京邮电大学 图像数据处理、模型的建立方法、装置、计算机设备和存储介质
CN109918532A (zh) * 2019-03-08 2019-06-21 苏州大学 图像检索方法、装置、设备及计算机可读存储介质
CN110134803A (zh) * 2019-05-17 2019-08-16 哈尔滨工程大学 基于哈希学习的图像数据快速检索方法
CN110188227A (zh) * 2019-05-05 2019-08-30 华南理工大学 一种基于深度学习与低秩矩阵优化的哈希图像检索方法
CN110309343A (zh) * 2019-06-28 2019-10-08 南京大学 一种基于深度哈希的声纹检索方法
CN110688501A (zh) * 2019-08-28 2020-01-14 宁波大学 一种基于深度学习的全卷积网络的哈希检索方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104112018B (zh) * 2014-07-21 2017-09-29 南京大学 一种大规模图像检索方法
CN106649782B (zh) * 2016-12-28 2020-03-31 电子科技大学 一种图片检索方法和系统
CN107330074B (zh) * 2017-06-30 2020-05-26 中国科学院计算技术研究所 基于深度学习和哈希编码的图像检索方法
CN111626408B (zh) * 2020-05-22 2021-08-06 深圳前海微众银行股份有限公司 哈希编码方法、装置、设备及可读存储介质

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180276528A1 (en) * 2015-12-03 2018-09-27 Sun Yat-Sen University Image Retrieval Method Based on Variable-Length Deep Hash Learning
CN106407352A (zh) * 2016-09-06 2017-02-15 广东顺德中山大学卡内基梅隆大学国际联合研究院 基于深度学习的交通图像检索方法
CN107315765A (zh) * 2017-05-12 2017-11-03 南京邮电大学 一种大规模图片集分布式近似搜索的方法
CN109711422A (zh) * 2017-10-26 2019-05-03 北京邮电大学 图像数据处理、模型的建立方法、装置、计算机设备和存储介质
CN108805157A (zh) * 2018-04-11 2018-11-13 南京理工大学 基于部分随机监督离散式哈希的遥感图像分类方法
CN109241313A (zh) * 2018-08-14 2019-01-18 大连大学 一种基于高阶深度哈希学习的图像检索方法
CN109918532A (zh) * 2019-03-08 2019-06-21 苏州大学 图像检索方法、装置、设备及计算机可读存储介质
CN110188227A (zh) * 2019-05-05 2019-08-30 华南理工大学 一种基于深度学习与低秩矩阵优化的哈希图像检索方法
CN110134803A (zh) * 2019-05-17 2019-08-16 哈尔滨工程大学 基于哈希学习的图像数据快速检索方法
CN110309343A (zh) * 2019-06-28 2019-10-08 南京大学 一种基于深度哈希的声纹检索方法
CN110688501A (zh) * 2019-08-28 2020-01-14 宁波大学 一种基于深度学习的全卷积网络的哈希检索方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021232752A1 (zh) * 2020-05-22 2021-11-25 深圳前海微众银行股份有限公司 哈希编码方法、装置、设备及可读存储介质
CN113111953A (zh) * 2021-04-20 2021-07-13 深圳吉祥星科技股份有限公司 一种投影画质处理装置
CN115292535A (zh) * 2022-08-24 2022-11-04 合肥市正茂科技有限公司 一种基于深度极化哈希的分层车辆图像检索方法

Also Published As

Publication number Publication date
CN111626408B (zh) 2021-08-06
WO2021232752A1 (zh) 2021-11-25

Similar Documents

Publication Publication Date Title
CN111626408B (zh) 哈希编码方法、装置、设备及可读存储介质
US10726335B2 (en) Generating compressed representation neural networks having high degree of accuracy
CN111967609B (zh) 模型参数验证方法、设备及可读存储介质
CN111612080B (zh) 模型解释方法、设备及可读存储介质
CN111625258B (zh) 默克尔树更新方法、装置、设备及可读存储介质
CN110912908B (zh) 网络协议异常检测方法、装置、计算机设备和存储介质
WO2022032938A1 (zh) 哈希编码优化方法、设备及可读存储介质
US20210014124A1 (en) Feature-based network embedding
US11302108B2 (en) Rotation and scaling for optical character recognition using end-to-end deep learning
CN112966755A (zh) 电感缺陷检测方法、设备及可读存储介质
CN112785002A (zh) 模型构建优化方法、设备、介质及计算机程序产品
WO2021232747A1 (zh) 数据确权方法、设备及可读存储介质
WO2022021834A1 (zh) 神经网络模型确定方法、装置、电子设备、介质及产品
CN112651436A (zh) 一种基于权重不确定的图卷积神经网络的优化方法、装置
CN115496970A (zh) 图像任务模型的训练方法、图像识别方法以及相关装置
CN110275991B (zh) 哈希值的确定方法和装置、存储介质、电子装置
US10212291B2 (en) System, method, and non-transitory computer readable storage medium for image recognition based on convolutional neural networks
CN111950712A (zh) 模型网络参数处理方法、设备及可读存储介质
CN110046670B (zh) 特征向量降维方法和装置
CN111241746A (zh) 向前模型选择方法、设备和可读存储介质
CN113554145B (zh) 确定神经网络的输出的方法、电子设备和计算机程序产品
CN107845116B (zh) 生成平面图像的压缩编码的方法和装置
CN116405330B (zh) 基于迁移学习的网络异常流量识别方法、装置和设备
CN113111953B (zh) 一种投影画质处理装置
US11609936B2 (en) Graph data processing method, device, and computer program product

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant