CN116071778A - 一种冷链食品仓储管理方法 - Google Patents
一种冷链食品仓储管理方法 Download PDFInfo
- Publication number
- CN116071778A CN116071778A CN202310335206.9A CN202310335206A CN116071778A CN 116071778 A CN116071778 A CN 116071778A CN 202310335206 A CN202310335206 A CN 202310335206A CN 116071778 A CN116071778 A CN 116071778A
- Authority
- CN
- China
- Prior art keywords
- layer
- input end
- convolution
- output end
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 235000013305 food Nutrition 0.000 title claims abstract description 60
- 238000007726 management method Methods 0.000 title claims abstract description 19
- 238000005192 partition Methods 0.000 claims abstract description 9
- 238000004806 packaging method and process Methods 0.000 claims abstract description 8
- 238000011176 pooling Methods 0.000 claims description 20
- 230000009191 jumping Effects 0.000 claims description 12
- 230000002093 peripheral effect Effects 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 8
- 238000000034 method Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000011218 segmentation Effects 0.000 claims description 5
- 230000009286 beneficial effect Effects 0.000 description 10
- 239000000284 extract Substances 0.000 description 8
- 238000012549 training Methods 0.000 description 8
- 230000004927 fusion Effects 0.000 description 6
- 230000005484 gravity Effects 0.000 description 4
- 238000000638 solvent extraction Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/42—Document-oriented image-based pattern recognition based on the type of document
- G06V30/424—Postal images, e.g. labels or addresses on parcels or postal envelopes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
- G06Q10/087—Inventory or stock management, e.g. order filling, procurement or balancing against orders
- G06Q10/0875—Itemisation or classification of parts, supplies or services, e.g. bill of materials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/148—Segmentation of character regions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19173—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/1918—Fusion techniques, i.e. combining data from various sources, e.g. sensor fusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
- G06V30/414—Extracting the geometrical structure, e.g. layout tree; Block segmentation, e.g. bounding boxes for graphics or text
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Development Economics (AREA)
- Geometry (AREA)
- Entrepreneurship & Innovation (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种冷链食品仓储管理方法,本发明通过采集冷链食品包装盒上标签的图像,得到标签图像,再在标签图像上提取文字图像,将文字图像中各文字框选出来后,将文字图像进行切分,得到单个文字图像数据,将单个文字图像数据逐一输入文字预测模型中,得到文字信息,识别出冷链食品的配送地,根据配送地的不同,将冷链食品进行分区存放,本发明解决了现有在进行冷链食品管理时,通过人工根据地址进行分区,存在消耗时间长的问题。
Description
技术领域
本发明涉及仓储管理技术领域,具体涉及一种冷链食品仓储管理方法。
背景技术
现有冷链食品在进行打包后,需要人工查看标签上的地址,根据地址的不同进行分配,将不同食品放置在不同的冷藏区,等待货车将属于同一地区的食品运走。人工查看标签地址再进行分配,存在速度较慢,消耗时间较长的问题,但由于冷链食品对温度要求较高,导致其需要更高效的分配方式,否则,会导致冷链食品的变质,或者加快冷链食品的腐败速度。
发明内容
针对现有技术中的上述不足,本发明提供的一种冷链食品仓储管理方法解决了现有在进行冷链食品管理时,通过人工根据地址进行分区,存在消耗时间长的问题。
为了达到上述发明目的,本发明采用的技术方案为:一种冷链食品仓储管理方法,包括以下步骤:
S1、采集冷链食品包装盒上标签的图像,得到标签图像;
S2、对标签图像提取文字图像;
S3、采用位置预测模型框出文字图像中文字位置;
S4、根据文字位置,将文字图像中文字进行切分,得到单个文字图像数据;
S5、将文字图像数据输入到文字预测模型中,得到文字信息;
S6、根据文字信息,得到冷链食品的配送地,基于配送地,将冷链食品进行分区存放。
进一步地,所述S2包括以下分步骤:
S21、从标签图像取1个像素点,作为参考点;
S22、计算参考点与白色像素点的像素距离值;
S23、判断像素距离值是否小于距离阈值,若是,则该参考点为候选像素点,并取下一像素点作为参考点,并跳转至步骤S22,直到标签图像上的像素点遍历完,若否,则取下一像素点作为参考点,并跳转至步骤S22,直到标签图像上的像素点遍历完;
S24、将周边像素点与白色像素点的像素距离值均大于距离阈值的候选像素点赋予黑色像素值;
S25、将剩余候选像素点赋予白色像素值,得到文字图像。
上述进一步地方案的有益效果为:由于冷链食品包装盒上标签通常是白底黑字,其成像后,标签图像上与白色像素点的像素距离近的像素点大概率为背景,因此,步骤S23和步骤S22的循环找到所有的小于距离阈值的像素点,该像素点为候选像素点,在候选像素点中部分像素点可能属于文字区域的像素点,因此通过核查候选像素点周边像素点的方式,判断出其是否为文字像素点,在周边像素点与白色像素点的像素距离值均大于距离阈值时,则该点为文字像素点,其之所以与白色像素点的像素距离值小于距离阈值,则可能是成像的噪点,给该点赋予黑色像素值,给剩余候选像素点赋予白色像素值,使得文字图像上黑白分区,便于后续剔除白色区域,保留黑色区域,减少数据量。
进一步地,所述像素距离值的计算公式为:
进一步地,所述S3中位置预测模型包括:第一卷积块、第二卷积块、第三卷积块、第四卷积块、第五卷积块、第六卷积块、第七卷积块、第一Concat层、第二Concat层、平均池化层和Softmax层;
所述第一卷积块的输入端用于输入文字图像,其输出端分别与第二卷积块的输入端和第一Concat层的输入端连接;所述第二卷积块的输出端与第三卷积块的输入端连接;所述第三卷积块的输出端与第一Concat层的输入端连接;所述第一Concat层的输出端与第四卷积块的输入端连接;所述第四卷积块的输出端分别与第五卷积块的输入端和第二Concat层的输入端连接;所述第五卷积块的输出端与第六卷积块的输入端连接;所述第六卷积块的输出端与第二Concat层的输入端连接;所述第二Concat层的输出端与平均池化层的输入端连接;所述平均池化层的输出端与Softmax层的输入端连接;所述Softmax层的输出端与第七卷积块的输入端连接;所述第七卷积块的输出端作为位置预测模型的输出端。
上述进一步地方案的有益效果为:在第一卷积块提取到图像特征后,通过第二卷积块和第三卷积块再次提取特征,并与第一卷积块提取的特征进行融合,实现第一次特征融合,保障特征的丰富性,再通过第二Concat层进行第二次融合,通过多个卷积块提取深层特征并保留部分浅层特征,提高位置预测精度。
进一步地,所述第一卷积块、第二卷积块、第三卷积块、第四卷积块、第五卷积块、第六卷积块和第七卷积块均包括:卷积层和激活层;
所述激活层的计算公式为:
上述进一步地方案的有益效果为:本发明通过激活层加快模型训练和加速模型收敛。
进一步地,所述S3中位置预测模型的损失函数为:
,其中,为位置预测模型的损失函数,为双曲正切函数,为预测框上第个特征点的横坐标,为预测框上第个特征点的纵坐标,为目标框上第个特征点的横坐标,为目标框上第个特征点的纵坐标,为特征点的数量,为预测框的面积,为目标框的面积,为交集运算,为并集运算。
上述进一步地方案的有益效果为:本发明设置了多个特征点,通过多个特征点的位置计算预测框和目标框的差距,通过差距衡量训练过程中模型的训练程度,同时,为了避免特征点错误匹配,引入,可以监测预测框和目标框重叠度,在监测预测框和目标框重叠度较高,且特征点间差距较小时,位置预测模型训练完成,达到较高的位置预测精度。
进一步地,所述S4包括以下分步骤:
S41、根据文字位置,将文字图像中文字进行切分,得到单个文字图像;
S42、将单个文字图像中白色像素值的像素点数据剔除,得到单个文字图像数据。
上述进一步地方案的有益效果为:将文字图像中文字进行切分,分离出单个文字,同时,将单个文字图像中白色像素值的像素点数据剔除,则剩余均为单个文字数据,减少文字预测模型的数据量,在后续特征提取时,只会提取到文字的特征。
进一步地,所述S5中文字预测模型包括:第一卷积层、通道划分层、通道卷积层、第三Concat层、最大池化层、第二卷积层、加法器、LSTM层和全连接层;
所述第一卷积层的输入端作为文字预测模型的输入端,其输出端分别与通道划分层的输入端和第二卷积层的输入端连接;所述通道划分层的输出端与通道卷积层的输入端连接;所述通道卷积层的输出端与第三Concat层的输入端连接;所述第三Concat层的输出端与最大池化层的输入端连接;所述加法器的输入端分别与最大池化层的输出端和第二卷积层的输出端连接,其输出端与LSTM层的输入端连接;所述LSTM层的输出端与全连接层的输入端连接;所述全连接层的输出端作为文字预测模型的输出端。
上述进一步地方案的有益效果为:通道划分层将第一卷积层提取到的特征数据,按照特征数据所在通道,进行数据划分,通道卷积层实现在各自通道内进行卷积操作,减少运算量,保留各通道的有效特征,通过第三Concat层实现数据融合,再通过最大池化进一步的提取显著特征,将显著特征与第二卷积层提取的普遍特征进行融合,增强显著特征的表达,再通过LSTM层进一步地提取文字特征。
进一步地,所述文字预测模型的损失函数为:
上述进一步地方案的有益效果为:在本发明中文字预测模型的损失函数仅考虑实际输出和预测输出差距,在实际输出和预测输出差距较大时,指数函数决定损失函数损失值的大小,放大损失值,加快模型收敛速度,在实际输出和预测输出差距较小时,对数函数决定损失函数损失值的大小,通过对数函数放缓对文字预测模型的训练速度,使得参数缓慢下降,逼近最优值,防止参数过度下降,为一个可以调节的系数,由于指数函数特性,为了防止在后期指数函数还占有较大比重,因此,设置降低指数函数的比重,在前期由于指数函数数值较大,对指数函数影响较小。
进一步地,所述S6包括以下分步骤:
S61、根据“省”、“市”、“区”、“街道”的关键词,将文字信息进行分词,得到词组信息;
S62、将同一文字信息对应的词组信息与数据库中地址信息进行匹配,在所有词组信息完全匹配成功时,得到冷链食品的配送地;
S63、根据冷链食品的配送地,将冷链食品进行分区存放。
上述进一步地方案的有益效果为:由于地址信息的特殊性,因此可以通过特定的关键词,将文字信息进行分词,得到各个词组,将词组逐一与存储的地址信息进行匹配,找到该冷链食品需要放置的区域,实现冷链食品自动分区。
综上,本发明的有益效果为:本发明通过采集冷链食品包装盒上标签的图像,得到标签图像,再在标签图像上提取文字图像,将文字图像中各文字框选出来后,将文字图像进行切分,得到单个文字图像数据,将单个文字图像数据逐一输入文字预测模型中,得到文字信息,识别出冷链食品的配送地,根据配送地的不同,将冷链食品进行分区存放,本发明解决了现有在进行冷链食品管理时,通过人工根据地址进行分区,存在消耗时间长的问题。
附图说明
图1为一种冷链食品仓储管理方法的流程图;
图2为位置预测模型的结构框图;
图3为文字预测模型的结构框图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
如图1所示,一种冷链食品仓储管理方法,包括以下步骤:
S1、采集冷链食品包装盒上标签的图像,得到标签图像;
S2、对标签图像提取文字图像;
所述S2包括以下分步骤:
S21、从标签图像取1个像素点,作为参考点;
S22、计算参考点与白色像素点的像素距离值;
所述像素距离值的计算公式为:
白色像素点的R通道值为255,G通道值为255,B通道值为255。
S23、判断像素距离值是否小于距离阈值,若是,则该参考点为候选像素点,并取下一像素点作为参考点,并跳转至步骤S22,直到标签图像上的像素点遍历完,若否,则取下一像素点作为参考点,并跳转至步骤S22,直到标签图像上的像素点遍历完;
S24、将周边像素点与白色像素点的像素距离值均大于距离阈值的候选像素点赋予黑色像素值;
S25、将剩余候选像素点赋予白色像素值,得到文字图像。
步骤S23中距离阈值的确定方法为:
A1、随机从标签图像取1个像素点,作为标准点;
A2、计算标准点与标签图像上非临近区域的其他多个像素点的像素距离值;
在本实施例中,非临近区域指在选取其他像素点时,考虑距离标准点较远的点,避免选取标准点的临近区域,从而导致在选点时均是背景像素点或者文字像素点。
A3、判断在非临近区域中是否存在像素距离值大于设定阈值的像素点,若是,则跳转至步骤A4,若否,则跳转至步骤A1,取下一个像素点;
在本实施例中,设定阈值为根据经验设定的具体值。
A4、将与标准点的像素距离值大于设定阈值的像素点挑选出来,作为备选点;
A5、判断标准点的周边像素点与备选点的像素距离值是否均大于设定阈值,若是,则跳转至步骤A6,若否,则跳转至步骤A1,取下一个像素点;
A6、判断备选点的周边像素点与标准点的像素距离值是否均大于设定阈值,若是,则跳转至步骤A7,若否,则跳转至步骤A1,取下一个像素点;
A7、根据标准点和标准点的周边像素点分别与备选点的像素距离值,计算距离阈值:
在步骤A7中的标准点和备选点是经过步骤A1~A6最终确定的像素点。
随机从标签图像选取1个像素点,作为标准点,通过计算标准点与非临近区域的其他多个像素点的像素距离值,去找到两个像素距离较大的像素点,其可能分别是背景像素点或者文字像素点,通过分别核查其周边像素点的情况,从而排除噪点的影响,确定出文字像素点和背景像素点,根据文字像素点和背景像素点间的距离,得到距离阈值。
由于冷链食品包装盒上标签通常是白底黑字,其成像后,标签图像上与白色像素点的像素距离近的像素点大概率为背景,因此,步骤S23和步骤S22的循环找到所有的小于距离阈值的像素点,该像素点为候选像素点,在候选像素点中部分像素点可能属于文字区域的像素点,因此通过核查候选像素点周边像素点的方式,判断出其是否为文字像素点,在周边像素点与白色像素点的像素距离值均大于距离阈值时,则该点为文字像素点,其之所以与白色像素点的像素距离值小于距离阈值,则可能是成像的噪点,给该点赋予黑色像素值,给剩余候选像素点赋予白色像素值,使得文字图像上黑白分区,便于后续剔除白色区域,保留黑色区域,减少数据量。
S3、采用位置预测模型框出文字图像中文字位置;
如图2所示,所述S3中位置预测模型包括:第一卷积块、第二卷积块、第三卷积块、第四卷积块、第五卷积块、第六卷积块、第七卷积块、第一Concat层、第二Concat层、平均池化层和Softmax层;
所述第一卷积块的输入端用于输入文字图像,其输出端分别与第二卷积块的输入端和第一Concat层的输入端连接;所述第二卷积块的输出端与第三卷积块的输入端连接;所述第三卷积块的输出端与第一Concat层的输入端连接;所述第一Concat层的输出端与第四卷积块的输入端连接;所述第四卷积块的输出端分别与第五卷积块的输入端和第二Concat层的输入端连接;所述第五卷积块的输出端与第六卷积块的输入端连接;所述第六卷积块的输出端与第二Concat层的输入端连接;所述第二Concat层的输出端与平均池化层的输入端连接;所述平均池化层的输出端与Softmax层的输入端连接;所述Softmax层的输出端与第七卷积块的输入端连接;所述第七卷积块的输出端作为位置预测模型的输出端。
在第一卷积块提取到图像特征后,通过第二卷积块和第三卷积块再次提取特征,并与第一卷积块提取的特征进行融合,实现第一次特征融合,保障特征的丰富性,再通过第二Concat层进行第二次融合,通过多个卷积块提取深层特征并保留部分浅层特征,提高位置预测精度。
所述第一卷积块、第二卷积块、第三卷积块、第四卷积块、第五卷积块、第六卷积块和第七卷积块均包括:卷积层和激活层;
所述激活层的计算公式为:
本发明通过激活层加快模型训练和加速模型收敛。
所述S3中位置预测模型的损失函数为:
,其中,为位置预测模型的损失函数,为双曲正切函数,为预测框上第个特征点的横坐标,为预测框上第个特征点的纵坐标,为目标框上第个特征点的横坐标,为目标框上第个特征点的纵坐标,为特征点的数量,为预测框的面积,为目标框的面积,为交集运算,为并集运算。
本发明设置了多个特征点,通过多个特征点的位置计算预测框和目标框的差距,通过差距衡量训练过程中模型的训练程度,同时,为了避免特征点错误匹配,引入,可以监测预测框和目标框重叠度,在监测预测框和目标框重叠度较高,且特征点间差距较小时,位置预测模型训练完成,达到较高的位置预测精度。
在本实施例中,位置预测模型还可以采用YOLO神经网络。
S4、根据文字位置,将文字图像中文字进行切分,得到单个文字图像数据;
所述S4包括以下分步骤:
S41、根据文字位置,将文字图像中文字进行切分,得到单个文字图像;
S42、将单个文字图像中白色像素值的像素点数据剔除,得到单个文字图像数据。
将文字图像中文字进行切分,分离出单个文字,同时,将单个文字图像中白色像素值的像素点数据剔除,则剩余均为单个文字数据,减少文字预测模型的数据量,在后续特征提取时,只会提取到文字的特征。
S5、将文字图像数据输入到文字预测模型中,得到文字信息;
如图3所示,所述S5中文字预测模型包括:第一卷积层、通道划分层、通道卷积层、第三Concat层、最大池化层、第二卷积层、加法器、LSTM层和全连接层;
所述第一卷积层的输入端作为文字预测模型的输入端,其输出端分别与通道划分层的输入端和第二卷积层的输入端连接;所述通道划分层的输出端与通道卷积层的输入端连接;所述通道卷积层的输出端与第三Concat层的输入端连接;所述第三Concat层的输出端与最大池化层的输入端连接;所述加法器的输入端分别与最大池化层的输出端和第二卷积层的输出端连接,其输出端与LSTM层的输入端连接;所述LSTM层的输出端与全连接层的输入端连接;所述全连接层的输出端作为文字预测模型的输出端。
通道划分层将第一卷积层提取到的特征数据,按照特征数据所在通道,进行数据划分,通道卷积层实现在各自通道内进行卷积操作,减少运算量,保留各通道的有效特征,通过第三Concat层实现数据融合,再通过最大池化进一步的提取显著特征,将显著特征与第二卷积层提取的普遍特征进行融合,增强显著特征的表达,再通过LSTM层进一步地提取文字特征。
所述文字预测模型的损失函数为:
在本发明中文字预测模型的损失函数仅考虑实际输出和预测输出差距,在实际输出和预测输出差距较大时,指数函数决定损失函数损失值的大小,放大损失值,加快模型收敛速度,在实际输出和预测输出差距较小时,对数函数决定损失函数损失值的大小,通过对数函数放缓对文字预测模型的训练速度,使得参数缓慢下降,逼近最优值,防止参数过度下降,为一个可以调节的系数,由于指数函数特性,为了防止在后期指数函数还占有较大比重,因此,设置降低指数函数的比重,在前期由于指数函数数值较大,对指数函数影响较小。
S6、根据文字信息,得到冷链食品的配送地,基于配送地,将冷链食品进行分区存放。
所述S6包括以下分步骤:
S61、根据“省”、“市”、“区”、“街道”的关键词,将文字信息进行分词,得到词组信息;
S62、将同一文字信息对应的词组信息与数据库中地址信息进行匹配,在所有词组信息完全匹配成功时,得到冷链食品的配送地;
S63、根据冷链食品的配送地,将冷链食品进行分区存放。
由于地址信息的特殊性,因此可以通过特定的关键词,将文字信息进行分词,得到各个词组,将词组逐一与存储的地址信息进行匹配,找到该冷链食品需要放置的区域,实现冷链食品自动分区。
在具体使用过程中,可搭配上传送带,将对应的冷链食品运送到对应位置。
综上,本发明实施例的有益效果为:本发明通过采集冷链食品包装盒上标签的图像,得到标签图像,再在标签图像上提取文字图像,将文字图像中各文字框选出来后,将文字图像进行切分,得到单个文字图像数据,将单个文字图像数据逐一输入文字预测模型中,得到文字信息,识别出冷链食品的配送地,根据配送地的不同,将冷链食品进行分区存放,本发明解决了现有在进行冷链食品管理时,通过人工根据地址进行分区,存在消耗时间长的问题。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种冷链食品仓储管理方法,其特征在于,包括以下步骤:
S1、采集冷链食品包装盒上标签的图像,得到标签图像;
S2、对标签图像提取文字图像;
S3、采用位置预测模型框出文字图像中文字位置;
S4、根据文字位置,将文字图像中文字进行切分,得到单个文字图像数据;
S5、将文字图像数据输入到文字预测模型中,得到文字信息;
S6、根据文字信息,得到冷链食品的配送地,基于配送地,将冷链食品进行分区存放。
2.根据权利要求1所述的冷链食品仓储管理方法,其特征在于,所述S2包括以下分步骤:
S21、从标签图像取1个像素点,作为参考点;
S22、计算参考点与白色像素点的像素距离值;
S23、判断像素距离值是否小于距离阈值,若是,则该参考点为候选像素点,并取下一像素点作为参考点,并跳转至步骤S22,直到标签图像上的像素点遍历完,若否,则取下一像素点作为参考点,并跳转至步骤S22,直到标签图像上的像素点遍历完;
S24、将周边像素点与白色像素点的像素距离值均大于距离阈值的候选像素点赋予黑色像素值;
S25、将剩余候选像素点赋予白色像素值,得到文字图像。
4.根据权利要求1所述的冷链食品仓储管理方法,其特征在于,所述S3中位置预测模型包括:第一卷积块、第二卷积块、第三卷积块、第四卷积块、第五卷积块、第六卷积块、第七卷积块、第一Concat层、第二Concat层、平均池化层和Softmax层;
所述第一卷积块的输入端用于输入文字图像,其输出端分别与第二卷积块的输入端和第一Concat层的输入端连接;所述第二卷积块的输出端与第三卷积块的输入端连接;所述第三卷积块的输出端与第一Concat层的输入端连接;所述第一Concat层的输出端与第四卷积块的输入端连接;所述第四卷积块的输出端分别与第五卷积块的输入端和第二Concat层的输入端连接;所述第五卷积块的输出端与第六卷积块的输入端连接;所述第六卷积块的输出端与第二Concat层的输入端连接;所述第二Concat层的输出端与平均池化层的输入端连接;所述平均池化层的输出端与Softmax层的输入端连接;所述Softmax层的输出端与第七卷积块的输入端连接;所述第七卷积块的输出端作为位置预测模型的输出端。
7.根据权利要求1所述的冷链食品仓储管理方法,其特征在于,所述S4包括以下分步骤:
S41、根据文字位置,将文字图像中文字进行切分,得到单个文字图像;
S42、将单个文字图像中白色像素值的像素点数据剔除,得到单个文字图像数据。
8.根据权利要求1所述的冷链食品仓储管理方法,其特征在于,所述S5中文字预测模型包括:第一卷积层、通道划分层、通道卷积层、第三Concat层、最大池化层、第二卷积层、加法器、LSTM层和全连接层;
所述第一卷积层的输入端作为文字预测模型的输入端,其输出端分别与通道划分层的输入端和第二卷积层的输入端连接;所述通道划分层的输出端与通道卷积层的输入端连接;所述通道卷积层的输出端与第三Concat层的输入端连接;所述第三Concat层的输出端与最大池化层的输入端连接;所述加法器的输入端分别与最大池化层的输出端和第二卷积层的输出端连接,其输出端与LSTM层的输入端连接;所述LSTM层的输出端与全连接层的输入端连接;所述全连接层的输出端作为文字预测模型的输出端。
10.根据权利要求1所述的冷链食品仓储管理方法,其特征在于,所述S6包括以下分步骤:
S61、根据“省”、“市”、“区”、“街道”的关键词,将文字信息进行分词,得到词组信息;
S62、将同一文字信息对应的词组信息与数据库中地址信息进行匹配,在所有词组信息完全匹配成功时,得到冷链食品的配送地;
S63、根据冷链食品的配送地,将冷链食品进行分区存放。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310335206.9A CN116071778B (zh) | 2023-03-31 | 2023-03-31 | 一种冷链食品仓储管理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310335206.9A CN116071778B (zh) | 2023-03-31 | 2023-03-31 | 一种冷链食品仓储管理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116071778A true CN116071778A (zh) | 2023-05-05 |
CN116071778B CN116071778B (zh) | 2023-06-27 |
Family
ID=86171783
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310335206.9A Active CN116071778B (zh) | 2023-03-31 | 2023-03-31 | 一种冷链食品仓储管理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116071778B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170124435A1 (en) * | 2014-12-05 | 2017-05-04 | Planet Ai Gmbh | Method for Text Recognition and Computer Program Product |
WO2021020790A1 (ko) * | 2019-07-30 | 2021-02-04 | 김우일 | 쓰레기처리서비스장치 및 그 장치의 구동방법 |
CN112966698A (zh) * | 2021-03-23 | 2021-06-15 | 西安电子科技大学 | 基于轻量化卷积网络的淡水鱼图像实时识别方法 |
CN113792741A (zh) * | 2021-09-17 | 2021-12-14 | 平安普惠企业管理有限公司 | 文字识别方法、装置、设备及存储介质 |
CN113793091A (zh) * | 2021-08-10 | 2021-12-14 | 湖南工商大学 | 冷链供应链可信监控与冷链仓储智能决策方法 |
CN114360242A (zh) * | 2021-12-10 | 2022-04-15 | 重庆邮电大学 | 一种基于混合卷积lstm的城市短时交通流预测方法及系统 |
CN114626984A (zh) * | 2022-03-16 | 2022-06-14 | 西安理工大学 | 中文文本图像的超分辨率重建方法 |
CN114758340A (zh) * | 2021-12-21 | 2022-07-15 | 上海沐冉信息科技有限公司 | 物流地址智能识别方法、装置、设备及存储介质 |
CN114973207A (zh) * | 2022-08-01 | 2022-08-30 | 成都航空职业技术学院 | 一种基于目标检测的路标识别方法 |
CN115953823A (zh) * | 2023-03-13 | 2023-04-11 | 成都运荔枝科技有限公司 | 一种基于大数据的人脸识别方法 |
-
2023
- 2023-03-31 CN CN202310335206.9A patent/CN116071778B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170124435A1 (en) * | 2014-12-05 | 2017-05-04 | Planet Ai Gmbh | Method for Text Recognition and Computer Program Product |
WO2021020790A1 (ko) * | 2019-07-30 | 2021-02-04 | 김우일 | 쓰레기처리서비스장치 및 그 장치의 구동방법 |
CN112966698A (zh) * | 2021-03-23 | 2021-06-15 | 西安电子科技大学 | 基于轻量化卷积网络的淡水鱼图像实时识别方法 |
CN113793091A (zh) * | 2021-08-10 | 2021-12-14 | 湖南工商大学 | 冷链供应链可信监控与冷链仓储智能决策方法 |
CN113792741A (zh) * | 2021-09-17 | 2021-12-14 | 平安普惠企业管理有限公司 | 文字识别方法、装置、设备及存储介质 |
CN114360242A (zh) * | 2021-12-10 | 2022-04-15 | 重庆邮电大学 | 一种基于混合卷积lstm的城市短时交通流预测方法及系统 |
CN114758340A (zh) * | 2021-12-21 | 2022-07-15 | 上海沐冉信息科技有限公司 | 物流地址智能识别方法、装置、设备及存储介质 |
CN114626984A (zh) * | 2022-03-16 | 2022-06-14 | 西安理工大学 | 中文文本图像的超分辨率重建方法 |
CN114973207A (zh) * | 2022-08-01 | 2022-08-30 | 成都航空职业技术学院 | 一种基于目标检测的路标识别方法 |
CN115953823A (zh) * | 2023-03-13 | 2023-04-11 | 成都运荔枝科技有限公司 | 一种基于大数据的人脸识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116071778B (zh) | 2023-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108052937B (zh) | 基于弱监督的字符检测器训练方法、装置、系统及介质 | |
CN113688652B (zh) | 一种异常驾驶行为的处理方法和装置 | |
CN110610166B (zh) | 文本区域检测模型训练方法、装置、电子设备和存储介质 | |
CN110033481B (zh) | 用于进行图像处理的方法和设备 | |
CN110176001B (zh) | 一种基于Grad-CAM算法的高铁接触网绝缘子破损精确定位方法 | |
CN110913243B (zh) | 一种视频审核的方法、装置和设备 | |
CN109241938B (zh) | 道路拥堵检测方法及终端 | |
CN106919957A (zh) | 处理数据的方法及装置 | |
CN112561896A (zh) | 一种玻璃瓶口缺陷的检测方法、系统、装置及存储介质 | |
CN115719475B (zh) | 一种基于深度学习的三阶段轨旁设备故障自动检测方法 | |
CN116071778B (zh) | 一种冷链食品仓储管理方法 | |
RU2019136604A (ru) | Платформа для управления и проверки достоверности контента видеоизображений, фотографий или аналогичного контента, сгенерированного различными устройствами | |
CN103530653B (zh) | 一种浮选泡沫追踪方法及装置 | |
CN114926791A (zh) | 一种路口车辆异常变道检测方法、装置、存储介质及电子设备 | |
CN113870196B (zh) | 一种基于锚点切图的图像处理方法、装置、设备和介质 | |
CN111553183A (zh) | 一种船只检测模型训练方法、船只检测方法及装置 | |
CN111986259B (zh) | 颜文字检测模型的训练、视频数据的审核方法及相关装置 | |
CN115880533A (zh) | 基于自适应子集搜索和深度学习的桥梁表观裂缝识别方法 | |
CN115018857B (zh) | 图像分割方法、装置、计算机可读存储介质及计算机设备 | |
CN116012317A (zh) | 一种基于弱监督学习的管道漏磁内检测缺陷识别方法 | |
CN111178181A (zh) | 交通场景分割方法及相关装置 | |
CN113706705B (zh) | 用于高精地图的图像处理方法、装置、设备以及存储介质 | |
CN105843930A (zh) | 一种检索视频的方法及装置 | |
CN111382733A (zh) | 多通道集装箱号识别方法、装置和系统 | |
CN113192106B (zh) | 一种家畜跟踪方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |