CN116129201B - 一种商品生物特征的提取和验证方法 - Google Patents

一种商品生物特征的提取和验证方法 Download PDF

Info

Publication number
CN116129201B
CN116129201B CN202310412532.5A CN202310412532A CN116129201B CN 116129201 B CN116129201 B CN 116129201B CN 202310412532 A CN202310412532 A CN 202310412532A CN 116129201 B CN116129201 B CN 116129201B
Authority
CN
China
Prior art keywords
biological
picture
region
genuine
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310412532.5A
Other languages
English (en)
Other versions
CN116129201A (zh
Inventor
毛霖
黄德民
陈海军
齐佰剑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xinlixun Technology Group Co.,Ltd.
Original Assignee
New Lixun Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by New Lixun Technology Co ltd filed Critical New Lixun Technology Co ltd
Priority to CN202310412532.5A priority Critical patent/CN116129201B/zh
Publication of CN116129201A publication Critical patent/CN116129201A/zh
Application granted granted Critical
Publication of CN116129201B publication Critical patent/CN116129201B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/018Certifying business or products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Accounting & Taxation (AREA)
  • Biomedical Technology (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Finance (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种商品生物特征的提取和验证方法,涉及生物图片特征识别技术领域,通过对生物图片使用不带有注意力和带有注意力机制的神经网络模型进行训练,使用热力图可视化算法生成第一热力图和第二热力图,再截取出每张正品生物图片中的特征区域,计算每个特征区域的分类权重,将训练集中的特征区域按分类权重进行分组,获得每个分组的训练集,对每个分组的训练集进行训练,再对生物商品图片中每个特征区域进行识别,统计在生物商品图片中识别出的特征区域,根据识别的特征区域判断生物商品图片是否为正品;解决了因商品生物部分特征区域被破坏而导致的对正品造成误判的问题。

Description

一种商品生物特征的提取和验证方法
技术领域
本发明涉及生物图片特征识别技术领域,具体是一种商品生物特征的提取和验证方法。
背景技术
商品溯源技术是指通过信息技术手段实现对商品生产、加工、储存、运输等全过程的可追溯性和信息记录,从而实现消费者、监管部门和生产企业之间信息的共享和交流。商品溯源技术可以用于保障食品安全、防止假冒伪劣商品流入市场、提升商品质量等方面;
目前对生物商品的正品保障方法是通过在包装内放入商品的溯源码,用户购买商品后扫描商品溯源码后,通过上传商品内的商品照片,并使用识别正品商品的目标识别神经网络模型进行识别;
可以理解的是,目标识别神经网络对目标的识别是基于目标图片中的某些特殊特征进行的,但由于商品流通时间长、范围广以及距离远,在商品运输过程中,尤其是生物类的经过处理的较为脆弱的商品,难免会对商品造成一些破坏,当破坏的区域是重要的用于神经网络识别的重要特征区域时,可能会导致神经网络对正品目标的误判;
为此,本发明提出一种商品生物特征的提取和验证方法。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一。为此,本发明提出一种商品生物特征的提取和验证方法,该一种商品生物特征的提取和验证方法解决了因商品生物部分特征区域被破坏而导致的对正品造成误判的问题。
为实现上述目的,根据本发明的第一方面的实施例提出一种商品生物特征的提取和验证方法,包括以下步骤:
步骤一:验证平台收集生物图片的第一训练集;并对生物图片进行预处理以及标注;
步骤二:验证平台对生物图片使用不带有注意力机制的神经网络模型进行训练,并使用热力图可视化算法生成第一训练集中每张生物图片的第一热力图;所述的神经网络模型为卷积神经网络;
步骤三:验证平台对生物图片使用带有注意力机制的神经网络模型进行训练,并使用热力图可视化算法生成第一训练集中每张生物图片的第二热力图;
步骤四:基于第一热力图和第二热力图,截取出第一训练集中每张正品生物图片中的特征区域,并计算出每个特征区域的分类权重;
步骤五:基于特征区域的分类权重,将第一训练集中的正品生物图片的特征区域进行分组;并基于分组获得每个分组的第二训练集;
步骤六:并对每个特征区域对应的分组的第二训练集使用目标识别神经网络模型进行训练;
步骤七:生物商品生产商打包商品时,在包装袋内放入溯源码;所述溯源码可以为二维码;
步骤八:用户扫描溯源码,进入验证平台;对包装内的生物商品进行拍摄,将拍摄的生物商品图片上传至验证平台;
步骤九:验证平台使用每个特征区域的目标识别神经网络模型识别生物商品图片中是否存在特征区域;并统计在生物商品图片中识别出的特征区域;
步骤十:基于识别出的特征区域,计算生物商品图片的产品识别度;
步骤十一:基于产品识别度判断生物商品图片是否为正品。
所述第一训练集中的生物图片为经过人工鉴定品级的正品和非正品生物图片;
对生物图片进行预处理包括对第一训练集中的生物图片进行图像缩放、像素填充、图像增强以及数据清洗;
所述标注为将第一训练集中的生物图片打上数字标签,例如将正品生物图片标记为1,将非正品生物图片标记为0;
所述的带有注意力机制的神经网络模型为在卷积神经网络中的最后若干层添加通道注意力模块;
截取出第一训练集中每张正品生物图片中的特征区域,并计算出每个特征区域的分类权重包括以下步骤:
步骤S1:将第一训练集中的正品生物图片编号标记为i,并将第i张正品生物图片的第一热力图标记为Hi1,第二热力图标记为Hi2;
步骤S2:按照像素值大小从大到小的顺序对第一热力图Hi1依次截取出第一区域;所述的第一区域根据像素值的变化值来确定区域边界,具体的截取方式为:依据第一区域内的像素点的像素值大于第一区域边界的像素值,且第一区域边界的像素值与第一区域外的相邻像素点的像素值之差大于像素差阈值的条件,从像素值最高的像素点进行遍历,确定各个第一区域的区域边界;
所述的像素差阈值为预设的参数,具体的值根据实际生成的热力图情况而定;
步骤S3:根据每个第一区域在第一热力图Hi1的位置,在第二热力图Hi2中截取出对应的位置作为第二区域;
步骤S4:对于相同位置的第一区域和第二区域,计算每个区域的分类权重;计算每个区域的分类权重的方式为:
将每张正品生物图片中,第一区域和第二区域所在的位置标记为特征区域;
将每个第一区域和第二区域在正品生物图片上的特征区域编号标记为q;
计算每张正品生物图片的第一区域和第二区域的像素值平均值,并将第i张正品生物图片的第q个特征区域的第一区域的像素值平均值标记为Piq1,以及将第q个特征区域的第二区域的像素值平均值标记为Piq2;
找出每张正品生物图片中像素值平均值最大的第一区域,并将该第一区域的像素值平均值标记为Piqm;计算每个特征区域的第一权重系数;具体的,第i张正品生物图片中第q个特征区域的第一权重系数Wiq1的计算公式为:
Figure SMS_1
计算每张正品生物图片中,每个特征区域的第二权重系数;第i张正品生物图片中第q个特征区域的第二权重系数Wiq2的计算公式为
Figure SMS_2
计算每张正品生物图片中,每个特征区域的分类权重;第i张正品生物图片中第q个特征区域的分类权重Fiq的计算公式为Fiq=Wiq1*Wiq2;
将第一训练集中的正品生物图片的特征区域进行分组的方式为:
将每张正品生物图片中的特征区域按照分类权重从大到小的顺序进行排序;
对于排序后的特征区域,将每张正品生物图片中的第n个特征区域的图片分组至第n个训练集中;其中,n为特征区域的排序序号;
基于分组获得每个分组的第二训练集的方式为:
将每个特征区域分组的训练集中的正品生物图片进行预处理;
在每个特征区域对应的分组的训练集中补充具有相同像素维度和通道数量的非正面生物图片;补充后的每个特征区域分组的训练集即为第二训练集;
计算生物商品图片的产品识别度的方式为:
统计生物商品图片中识别到的特征区域,并将识别到的特征区域集合标记为S,将余下的未识别到的特征区域标记为T;
计算第一训练集中,第n个特征区域的识别权重Wn;其中,所述识别权重的计算公式为
Figure SMS_3
;其中,Mn为第n个特征区域对应分组中生物图片的数量;其中,Qn表示特征区域排序后,第n个特征区域在排序前对应的特征区域集合中的编号q;
计算生物商品图片的识别度D,其中,识别度D的计算公式为:
Figure SMS_4
;其中,N为特征区域的总数Wx和Wy分别为特征区域x和特征区域y的识别权重;;Lx和Ly分别为特征区域x和y在特征区域排序中的序号,/>
Figure SMS_5
为预设大于0的调节系数;
判断生物商品图片是否为正品的方式为:
预设识别度阈值d,判断识别度D是否大于识别度阈值d,若大于,则将生物商品图片判断为正品,否则,判断为非正品。
与现有技术相比,本发明的有益效果是:
本发明利用热力图可视化算法可以将卷积神经网络中的卷积层更关注的特征进行高亮展示的特性,结合卷积神经网络中添加通道注意力机制,可以更加突出重要的特征,弱化不重要的特征的特性,将训练集中的生物图片进行特征可视化,并进一步的对每个特征区域进行截取,根据每个特征区域的分类权重大小,将训练集中生物图片的特征区域进行分组,获得新的训练集,在新的训练集中,对每个特征进行单独的目标识别神经网络模型的训练,以在对生物商品进行目标识别的过程中,可以单独对该特征进行识别,并基于识别出的特征和未识别出的特征数据,判断生物商品是否为正品;从而避免了因生物商品部分特征区域被破坏,从而导致完整的生物商品图片被误判的问题。
附图说明
图1为本发明实施例中生物特征提取和验证方法的流程图。
具体实施方式
下面将结合实施例对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
如图1所示,一种商品生物特征的提取和验证方法,包括以下步骤:
步骤一:验证平台收集生物图片的第一训练集;并对生物图片进行预处理以及标注;
步骤二:验证平台对生物图片使用不带有注意力机制的神经网络模型进行训练,并使用热力图可视化算法生成第一训练集中每张生物图片的第一热力图;
步骤三:验证平台对生物图片使用带有注意力机制的神经网络模型进行训练,并使用热力图可视化算法生成第一训练集中每张生物图片的第二热力图;
步骤四:基于第一热力图和第二热力图,截取出第一训练集中每张正品生物图片中的特征区域,并计算出每个特征区域的分类权重;
步骤五:基于特征区域的分类权重,将第一训练集中的正品生物图片的特征区域进行分组;并基于分组获得每个分组的第二训练集;
步骤六:并对每个特征区域对应的分组的第二训练集使用目标识别神经网络模型进行训练;
步骤七:生物商品生产商打包商品时,在包装袋内放入溯源码;所述溯源码可以为二维码;
步骤八:用户扫描溯源码,进入验证平台;对包装内的生物商品进行拍摄,将拍摄的生物商品图片上传至验证平台;
步骤九:验证平台使用每个特征区域的目标识别神经网络模型识别生物商品图片中是否存在特征区域;并统计在生物商品图片中识别出的特征区域;
步骤十:基于识别出的特征区域,计算生物商品图片的产品识别度;
步骤十一:基于产品识别度判断生物商品图片是否为正品。
在一个优选的实施例中,所述第一训练集中的生物图片为经过人工鉴定品级的正品和非正品生物图片;
对生物图片进行预处理包括对第一训练集中的生物图片进行图像缩放、像素填充、图像增强以及数据清洗等;可以理解的是,经过预处理后的第一训练集中的生物图片具有相同的像素维度和通道数量;
所述标注为将第一训练集中的生物图片打上数字标签,例如将正品生物图片标记为1,将非正品生物图片标记为0;
所述的神经网络模型为卷积神经网络;
所述的热力图可视化算法可以是CAM算法或Grad-CAM算法;可以理解的是,热力图可视化算法是将卷积神经网络中的最后一个卷积层的输出的特征图进行可视化,在可视化的生物图片中,使用高亮度像素值标识出最后一层卷积层生成的特征向量对于生物图片中的哪片区域更为关心,而更为关心的区域即可认为是卷积神经网络对目标进行识别的关键特征;
所述的带有注意力机制的神经网络模型为在卷积神经网络中的最后若干层添加通道注意力模块;
可以理解的是,通道注意力机制的作用是加强卷积层生成的特征向量的区分度,即加强影响更大的特征,削弱影响较小的特征,因此在热力图中的表现即为,高亮的区域更为高亮,灰暗的区域更为灰暗;
截取出第一训练集中每张正品生物图片中的特征区域,并计算出每个特征区域的分类权重包括以下步骤:
步骤S1:将第一训练集中的正品生物图片编号标记为i,并将第i张正品生物图片的第一热力图标记为Hi1,第二热力图标记为Hi2;
步骤S2:按照像素值大小从大到小的顺序对第一热力图Hi1依次截取出第一区域;所述的第一区域根据像素值的变化值来确定区域边界,具体的截取方式为:依据第一区域内的像素点的像素值大于第一区域边界的像素值,且第一区域边界的像素值与第一区域外的相邻像素点的像素值之差大于像素差阈值的条件,从像素值最高的像素点进行遍历,确定各个第一区域的区域边界;
在本发明的另一个优选的实施例中,还可以对设置像素值最低阈值,对于像素值低于像素值最低阈值的区域不再截取,以降低对后续特征区域的识别的误导;
所述的像素差阈值为预设的参数,具体的值根据实际生成的热力图情况而定;可以理解的是,第一区域之间可以是包含关系;
步骤S3:根据每个第一区域在第一热力图Hi1的位置,在第二热力图Hi2中截取出对应的位置作为第二区域;
步骤S4:对于相同位置的第一区域和第二区域,计算每个区域的分类权重;具体的,计算每个区域的分类权重的方式为:
将每张正品生物图片中,第一区域和第二区域所在的位置标记为特征区域;
将每个第一区域和第二区域在正品生物图片上的特征区域编号标记为q;
计算每张正品生物图片的第一区域和第二区域的像素值平均值,并将第i张正品生物图片的第q个特征区域的第一区域的像素值平均值标记为Piq1,以及将第q个特征区域的第二区域的像素值平均值标记为Piq2;
找出每张正品生物图片中像素值平均值最大的第一区域,并将该第一区域的像素值平均值标记为Piqm;计算每个特征区域的第一权重系数;具体的,第i张正品生物图片中第q个特征区域的第一权重系数Wiq1的计算公式为:
Figure SMS_6
计算每张正品生物图片中,每个特征区域的第二权重系数;第i张正品生物图片中第q个特征区域的第二权重系数Wiq2的计算公式为
Figure SMS_7
计算每张正品生物图片中,每个特征区域的分类权重;第i张正品生物图片中第q个特征区域的分类权重Fiq的计算公式为Fiq=Wiq1*Wiq2;
在一个优选的实施例中,将第一训练集中的正品生物图片的特征区域进行分组的方式为:
将每张正品生物图片中的特征区域按照分类权重从大到小的顺序进行排序;
对于排序后的特征区域,将每张正品生物图片中的第n个特征区域的图片分组至第n个训练集中;其中,n为特征区域的排序序号;可以理解的是,n与q具有同等含义,区别在于q未排序时的特征区域,n为排序后的特征区域;
进一步的,基于分组获得每个分组的第二训练集的方式为:
将每个特征区域分组的训练集中的正品生物图片进行缩放、像素补充等预处理方式,以保证每张正品生物图片具有相同的像素维度和通道数量;
在每个特征区域对应的分组的训练集中补充具有相同像素维度和通道数量的非正面生物图片;补充后的每个特征区域分组的训练集即为第二训练集;
所述目标识别神经网络模型可以是R-CNN、Fast R-CNN以及Yolo等神经网络模型;
计算生物商品图片的产品识别度的方式为:
统计生物商品图片中识别到的特征区域,并将识别到的特征区域集合标记为S,将余下的未识别到的特征区域标记为T;
计算第一训练集中,第n个特征区域的识别权重Wn;其中,所述识别权重的计算公式为
Figure SMS_8
;其中,Mn为第n个特征区域对应分组中生物图片的数量;其中,Qn表示特征区域排序后,第n个特征区域在排序前对应的特征区域集合中的编号q;
计算生物商品图片的识别度D,其中,识别度D的计算公式为:
Figure SMS_9
;其中,N为特征区域的总数;Wx和Wy分别为特征区域x和特征区域y的识别权重;Lx和Ly分别为特征区域x和y在特征区域排序中的序号,/>
Figure SMS_10
为预设大于0的调节系数;
判断生物商品图片是否为正品的方式为:
预设识别度阈值d,判断识别度D是否大于识别度阈值d,若大于,则将生物商品图片判断为正品,否则,判断为非正品。
以上实施例仅用以说明本发明的技术方法而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方法进行修改或等同替换,而不脱离本发明技术方法的精神和范围。

Claims (5)

1.一种商品生物特征的提取和验证方法,其特征在于,包括以下步骤:
验证平台收集生物图片的第一训练集;并对生物图片进行预处理以及标注;
验证平台对生物图片使用不带有注意力机制的神经网络模型进行训练,并使用热力图可视化算法生成第一训练集中每张生物图片的第一热力图;
验证平台对生物图片使用带有注意力机制的神经网络模型进行训练,并使用热力图可视化算法生成第一训练集中每张生物图片的第二热力图;所述的带有注意力机制的神经网络模型为在卷积神经网络中的最后若干层添加通道注意力模块;
基于第一热力图和第二热力图,截取出第一训练集中每张正品生物图片中的特征区域,并计算出每个特征区域的分类权重;
基于特征区域的分类权重,将第一训练集中的正品生物图片的特征区域进行分组;并基于分组获得每个分组的第二训练集;
并对每个特征区域对应的分组的第二训练集使用目标识别神经网络模型进行训练;
生物商品生产商打包商品时,在包装袋内放入溯源码;用户扫描溯源码,进入验证平台;对包装内的生物商品进行拍摄,将拍摄的生物商品图片上传至验证平台;
验证平台使用每个特征区域的目标识别神经网络模型识别生物商品图片中是否存在特征区域;并统计在生物商品图片中识别出的特征区域;
基于识别出的特征区域,计算生物商品图片的产品识别度;基于产品识别度判断生物商品图片是否为正品;
截取出第一训练集中每张正品生物图片中的特征区域,并计算出每个特征区域的分类权重包括以下步骤:
步骤S1:将第一训练集中的正品生物图片编号标记为i,并将第i张正品生物图片的第一热力图标记为Hi1,第二热力图标记为Hi2;
步骤S2:按照像素值大小从大到小的顺序对第一热力图Hi1依次截取出第一区域;所述的第一区域根据像素值的变化值来确定区域边界,具体的截取方式为:依据第一区域内的像素点的像素值大于第一区域边界的像素值,且第一区域边界的像素值与第一区域外的相邻像素点的像素值之差大于像素差阈值的条件,从像素值最高的像素点进行遍历,确定各个第一区域的区域边界;所述像素差阈值为预设的参数;
步骤S3:根据每个第一区域在第一热力图Hi1的位置,在第二热力图Hi2中截取出对应的位置作为第二区域;
步骤S4:对于相同位置的第一区域和第二区域,计算每个区域的分类权重;
计算每个区域的分类权重的方式为:
将每张正品生物图片中,第一区域和第二区域所在的位置标记为特征区域;
将每个第一区域和第二区域在正品生物图片上的特征区域编号标记为q;
计算每张正品生物图片的第一区域和第二区域的像素值平均值,并将第i张正品生物图片的第q个特征区域的第一区域的像素值平均值标记为Piq1,以及将第q个特征区域的第二区域的像素值平均值标记为Piq2;
找出每张正品生物图片中像素值平均值最大的第一区域,并将该第一区域的像素值平均值标记为Piqm;计算每个特征区域的第一权重系数;具体的,第i张正品生物图片中第q个特征区域的第一权重系数Wiq1的计算公式为:
Figure QLYQS_1
计算每张正品生物图片中,每个特征区域的第二权重系数;第i张正品生物图片中第q个特征区域的第二权重系数Wiq2的计算公式为
Figure QLYQS_2
计算每张正品生物图片中,每个特征区域的分类权重;第i张正品生物图片中第q个特征区域的分类权重Fiq的计算公式为Fiq=Wiq1*Wiq2;
计算生物商品图片的产品识别度的方式为:
统计生物商品图片中识别到的特征区域,并将识别到的特征区域集合标记为S,将余下的未识别到的特征区域标记为T;
计算第一训练集中,第n个特征区域的识别权重Wn;其中,所述识别权重的计算公式为
Figure QLYQS_3
;其中,Mn为第n个特征区域对应分组中生物图片的数量;其中,Qn表示特征区域排序后,第n个特征区域在排序前对应的特征区域集合中的编号q;
计算生物商品图片的识别度D,其中,识别度D的计算公式为:
Figure QLYQS_4
;其中,N为特征区域的总数;Wx和Wy分别为特征区域x和特征区域y的识别权重;Lx和Ly分别为特征区域x和y在特征区域排序中的序号,/>
Figure QLYQS_5
为预设大于0的调节系数。
2.根据权利要求1所述的一种商品生物特征的提取和验证方法,其特征在于,所述第一训练集中的生物图片为经过人工鉴定品级的正品和非正品生物图片;对生物图片进行预处理包括对第一训练集中的生物图片进行图像缩放、像素填充、图像增强以及数据清洗。
3.根据权利要求1所述的一种商品生物特征的提取和验证方法,其特征在于,将第一训练集中的正品生物图片的特征区域进行分组的方式为:
将每张正品生物图片中的特征区域按照分类权重从大到小的顺序进行排序;
对于排序后的特征区域,将每张正品生物图片中的第n个特征区域的图片分组至第n个训练集中;其中,n为特征区域的排序序号。
4.根据权利要求1所述的一种商品生物特征的提取和验证方法,其特征在于,基于分组获得每个分组的第二训练集的方式为:
将每个特征区域分组的训练集中的正品生物图片进行预处理;
在每个特征区域对应的分组的训练集中补充具有相同像素维度和通道数量的非正面生物图片;补充后的每个特征区域分组的训练集即为第二训练集。
5.根据权利要求1所述的一种商品生物特征的提取和验证方法,其特征在于,判断生物商品图片是否为正品的方式为:
预设识别度阈值d,判断识别度D是否大于识别度阈值d,若大于,则将生物商品图片判断为正品,否则,判断为非正品。
CN202310412532.5A 2023-04-18 2023-04-18 一种商品生物特征的提取和验证方法 Active CN116129201B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310412532.5A CN116129201B (zh) 2023-04-18 2023-04-18 一种商品生物特征的提取和验证方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310412532.5A CN116129201B (zh) 2023-04-18 2023-04-18 一种商品生物特征的提取和验证方法

Publications (2)

Publication Number Publication Date
CN116129201A CN116129201A (zh) 2023-05-16
CN116129201B true CN116129201B (zh) 2023-06-20

Family

ID=86299510

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310412532.5A Active CN116129201B (zh) 2023-04-18 2023-04-18 一种商品生物特征的提取和验证方法

Country Status (1)

Country Link
CN (1) CN116129201B (zh)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108229430B (zh) * 2018-01-30 2022-04-05 浙江大学 一种融合注意力图的商品分类方法
CN109754009B (zh) * 2018-12-29 2021-07-13 北京沃东天骏信息技术有限公司 物品识别方法、装置、售货系统和存储介质
CN112597798A (zh) * 2020-11-23 2021-04-02 广州创品知识产权服务有限公司 一种使用神经网络鉴别商品真伪的方法
CN112667820B (zh) * 2020-12-08 2023-04-18 吉林省吉科软信息技术有限公司 全流程可追溯生态链监管知识图谱的深度学习构建方法
CN115376614A (zh) * 2022-04-14 2022-11-22 齐鲁工业大学 基于卷积神经网络与注意力机制结合的关键路径识别方法

Also Published As

Publication number Publication date
CN116129201A (zh) 2023-05-16

Similar Documents

Publication Publication Date Title
CN110310259A (zh) 一种基于改进YOLOv3算法的木结瑕疵检测方法
CN113569667B (zh) 基于轻量级神经网络模型的内河船舶目标识别方法及系统
CN110503112A (zh) 一种增强特征学习的小目标检测及识别方法
Delakis et al. Text detection with convolutional neural networks
US20220331841A1 (en) Methods and arrangements to aid recycling
CN112861635B (zh) 一种基于深度学习的火灾及烟雾实时检测方法
CN107833221A (zh) 一种基于多通道特征融合和机器学习的漏水监测方法
CN108806334A (zh) 一种基于图像的智能船舶身份识别方法
CN109255344A (zh) 一种基于机器视觉的数显式仪表定位与读数识别方法
CN109740572A (zh) 一种基于局部彩色纹理特征的人脸活体检测方法
CN112884033B (zh) 一种基于卷积神经网络的生活垃圾分类检测方法
CN116250020A (zh) 使用潜在邻域图检测对抗性示例
CN116664961B (zh) 基于信码的防伪标签智能识别方法及系统
CN104484650B (zh) 素描人脸识别的方法和装置
CN113744262A (zh) 一种基于GAN和YOLO-v5的目标分割检测方法
CN115641471A (zh) 一种基于生成对抗网络的对抗样本生成方法及系统
CN109977899A (zh) 一种物品识别的训练、推理以及增加新种类的方法和系统
CN115205604A (zh) 基于改进YOLOv5的化工生产过程中安全防护品佩戴检测方法
Haddad et al. Locally adaptive statistical background modeling with deep learning-based false positive rejection for defect detection in semiconductor units
CN112149664A (zh) 一种优化分类与定位任务的目标检测方法
CN116129201B (zh) 一种商品生物特征的提取和验证方法
Kwon Multi-model selective backdoor attack with different trigger positions
WO2024015385A1 (en) Methods and arrangements to utilize end-of-life data generated during recycling and waste sortation for counterfeit deterrence and other actions
Roeksukrungrueang et al. An implementation of automatic container number recognition system
KR101419837B1 (ko) 분할 이미지 셀을 이용하는 아다부스트 기반의 보행자 검출 방법 및 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: 210012 room 801-810, 8 building, 7 Ande Gate Street, Yuhuatai District, Nanjing, Jiangsu, China, 57

Patentee after: Xinlixun Technology Group Co.,Ltd.

Country or region after: China

Address before: 210012 room 801-810, 8 building, 7 Ande Gate Street, Yuhuatai District, Nanjing, Jiangsu, China, 57

Patentee before: New Lixun Technology Co.,Ltd.

Country or region before: China