CN115564656B - 一种基于调度的多图合并识图方法及装置 - Google Patents

一种基于调度的多图合并识图方法及装置 Download PDF

Info

Publication number
CN115564656B
CN115564656B CN202211408860.XA CN202211408860A CN115564656B CN 115564656 B CN115564656 B CN 115564656B CN 202211408860 A CN202211408860 A CN 202211408860A CN 115564656 B CN115564656 B CN 115564656B
Authority
CN
China
Prior art keywords
picture
identified
canvas
visual angle
package
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211408860.XA
Other languages
English (en)
Other versions
CN115564656A (zh
Inventor
邓秋雄
鲁佳曦
连天友
蒲磊
姜旭
赵玲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Zhiyuanhui Information Technology Co Ltd
Original Assignee
Chengdu Zhiyuanhui Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Zhiyuanhui Information Technology Co Ltd filed Critical Chengdu Zhiyuanhui Information Technology Co Ltd
Priority to CN202211408860.XA priority Critical patent/CN115564656B/zh
Publication of CN115564656A publication Critical patent/CN115564656A/zh
Application granted granted Critical
Publication of CN115564656B publication Critical patent/CN115564656B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

本发明公开了一种基于调度的多图合并识图方法及装置,具体包括以下步骤:S1、获得待识别的图片;S2、根据所述待识别的图片,将所述标准图片拼接至预设画布的对应区域块中,获得待识别的画布;S3、当待识别的画布中所有区域均拼接有对应的标准图片时,通过预先训练好的模型对待识别的画布上的各个标准图片进行识别。本发明将获得的待识别图片通过适配处理,拼接在待识别的画布中,并在每两相邻区域之间设置隔离的预留区域,用以解决现有的安检识图效率低且误识率高问题。

Description

一种基于调度的多图合并识图方法及装置
技术领域
本发明涉及智慧安检技术领域,具体涉及一种基于调度的多图合并识图方法及装置。
背景技术
在安检场景智能识图场景下,我们需要获取的人物图片进行客群属性的分析。目前客流分析当前的客流量在300万左右,而处理一张人物图片的耗时在120ms左右,因此一台服务器一天24小时能处理的图片量在72万左右,因此一台服务器需要4-5天才能处理完一天的数据。为了在一天内处理完数据,需要增加服务器来扩展部署服务。为了节省成本,便于维护,提出一种基于多图合并识别的识图方法来提高识图效率,需要配置有A,B,C,D四个区域或更多的区域的画布,以便对4张待识别的图片或更多的待识别的图片进行识图,但是有时会存在长时间无法获得所有区域的图片而无法及时对画布进行处理,且在区域的之间交接处,由于交接处图片直接拼接,容易造成误识,影响最后的识别。
发明内容
本发明的目的在于提供一种基于调度的多图合并识图方法及装置,将获得的待识别的图片通过适配处理,拼接在待识别的画布中,并在每两相邻区域之间设置隔离的预留区域,用以解决现有的安检识图效率低且误识效率高问题。
一种基于调度的多图合并识图方法,具体包括以下步骤:
S1、获得待识别的图片;
S2、根据所述待识别的图片,获得标准图片,将所述标准图片拼接至预设画布的对应区域块中,获得待识别的画布;
S3、当待识别的画布中所有区域均拼接有对应的标准图片时,通过预先训练好的模型对待识别的画布上的各个标准图片进行识别。
进一步地,当待识别的画布中拼接有第一张标准图片时,启动计时器,当计时器的值等于预设值时,直接通过预先训练好的模型对待识别的画布上的各个标准图片进行识别。
进一步地,启动拼接计数器Index,重复执行以下步骤,直至得到当待识别的画布中所有区域均拼接有对应的标准图片:
每获得一张待识别的图片,拼接计数器Index加1,将所述Index与可调参量a进行整除运算,若Index能被可调参量a整除,则从业务场景背景图片库中随机读取一张场景背景图片作为预设画布,所述可调参量a为预设画布中待拼接区域的数量;
根据所述预设画布分辨率的大小,将预设画布进行水平方向和垂直方向的N等分操作,划分得到N*N个等大小的区域块,每个区域块对应的标识i=0,1…,a,其中可调参量a=N*N;
将所述待识别的图片粘贴至对应的区域块。
进一步地,所述待识别的图片对应的区域块的标识为对应的拼接计数器Index与可调参量a进行取余运算得到的余数值。
进一步地,将所述待识别的图片粘贴至对应的区域块,具体包括以下步骤:
判断所述待识别的图片与对应的区域块的尺寸大小;
若所述待识别的图片与对应的区域块的尺寸大小不匹配,则将待识别的图片按照适配比率进行缩放处理,以获得与对应的区域块的尺寸大小匹配的标准图片,将标准图片粘贴至区域块i。
进一步地,所述待识别的图片尺寸大小为w*h,所述区域块的大小为K*K,则所述适配比率具体包括以下几种情形:
情形一:当w*hr>K时,所述适配比率为wr;
情形二:当h*wr>K时,所述适配比率为hr;
其中,wr为长变换比率:wr=K/w;
hr为高变换比率:hr=K/h。
进一步地,若所述待识别的图片尺寸大于区域块,则将所述待识别的图片尺寸按照适配比率进行缩小处理,以获得与对应的区域块大小匹配的标准图片。
进一步地,若所述待识别的图片尺寸小于区域块,则将所述待识别的图片尺寸按照适配比率进行放大处理,以获得与对应的区域块大小匹配的标准图片。
进一步地,所述待识别的画布中,每两张相邻的区域块之间设置预留区域,每一列的预留区域配置成相同大小,每一行的预留区域配置成相同大小。
进一步地,所述待识别的图片为双视角安检机扫描包裹的第一视角X光图片,所述步骤S3之后还包括去重叠处理,具体包括以下步骤:
获取所述双视角安检机扫描重叠包裹的第一视角X光图片和第二视角X光图片,所述第一视角与第二视角相互正交,所述重叠包裹包括前包裹、后包裹;
当检测到第一视角X光图片存在重叠包裹时,根据所述第一视角X光图片,确定所述重叠包裹关联的第二视角X光图片;
对第二视角X光图片进行灰度化处理,获得对应的灰度图片;
根据所述灰度图片提取前包裹边缘曲线、后包裹边缘曲线;
根据所述前包裹边缘曲线、后包裹边缘曲线,进行角点检测,分别确定灰度图片中的前包裹的角点坐标、后包裹的角点坐标;
灰度图片中的前包裹的角点坐标、后包裹的角点坐标,获得对应的第一视角X光图片中前包裹的角点坐标、后包裹的角点坐标;
基于所述前包裹的角点坐标、后包裹的角点坐标对第一视角X光图片的重叠包裹进行切图。
一种基于调度的多图合并识图装置,包括:
一个或多个处理器;
存储单元,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,能使得所述一个或多个处理器实现所述的一种基于调度的多图合并识图方法。
本发明具有的有益效果:
1、通过适配处理,不仅提高了多图片拼接效果,还有效地解决了因包裹种类繁多、且多个包裹图片的拼接区域误识问题等诸多因素影响,易在待识别画布中显示中出现误检、漏检等问题,便于后续检测识别,进而解决了图片拼接实现图像拼接导致的图像扭曲非线性畸变问题,能够在拼接侧边配置隔离区域,避免了为硬件改进的过程,算法简单,占用逻辑资源少;
2、通过本方法可以同时接收多台双视角安检机的第一视角X光图片,提高第一视角X光图片的识别效率与准确率,从而准确定位获得第二视角X光图片,确定包裹与包裹之间的重叠区域,从而解决重叠包裹切图不准确的问题。
附图说明
图1为本发明的基于调度的多图合并识图方法流程示意图;
图2为本发明的待识别的画布示意图;
图3为本发明的待识别的图片示意图;
图4为本发明的主视角图片与侧视角图片示意图;
图5为本发明的第一视角与第二视角的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
另外,为了清楚和简洁起见,可能省略了对公知的结构、功能和配置的描述。本领域普通技术人员将认识到,在不脱离本公开的精神和范围的情况下,可以对本文描述的示例进行各种改变和修改。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有示例中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它示例可以具有不同的值。
实施例1
如图1所示,一种基于调度的多图合并识图方法,具体包括以下步骤:
S1、获得待识别的图片;
S2、根据所述待识别的图片,获得标准图片,将所述标准图片拼接至预设画布的对应区域块中,获得待识别的画布;
S3、当待识别的画布中所有区域均拼接有对应的标准图片时,通过预先训练好的模型对待识别的画布上的各个标准图片进行识别。
具体地,当待识别的画布中拼接有第一张标准图片时,启动计时器,当计时器的值等于预设值时,直接通过预先训练好的模型对待识别的画布上的各个标准图片进行识别。
具体地,启动拼接计数器Index,重复执行以下步骤,直至得到当待识别的画布中所有区域均拼接有对应的标准图片:
每获得一张待识别的图片,拼接计数器Index=Index+1,将所述Index与可调参量a进行整除运算,若Index能被可调参量a整除,则从业务场景背景图片库中随机读取一张场景背景图片作为预设画布,所述可调参量a为预设画布中待拼接区域的数量;
根据所述预设画布分辨率的大小,将预设画布进行水平方向和垂直方向的N等分操作,划分得到N*N个等大小的区域块,每个区域块对应的标识i=0,1,…a,其中可调参量a=N*N;
将所述待识别的图片粘贴至对应的区域块。
需要说明的是,采用多种组合方式将所述待识别的图片进行拼接组合,其中,所述排列式组合包括矩阵式排列和环绕式排列。
具体地,所述待识别的图片对应的区域块的标识为对应的拼接计数器Index与可调参量a进行取余运算得到的余数值。
具体地,将所述待识别的图片粘贴至对应的区域块,具体包括以下步骤:
判断所述待识别的图片与对应的区域块的尺寸大小;
若所述待识别的图片与对应的区域块的尺寸大小不匹配,则将待识别的图片按照适配比率进行缩放处理,以获得与对应的区域块的尺寸大小匹配的标准图片,将标准图片粘贴至区域块i。
具体地,所述待识别的图片尺寸大小为w*h,所述区域块的大小为K*K,则所述适配比率具体包括以下几种情形:
情形一:当w*hr>K时,所述适配比率为wr;
情形二:当h*wr>K时,所述适配比率为hr;
其中,wr为长变换比率:wr=K/w;
hr为高变换比率:hr=K/h。
具体地,若所述待识别的图片尺寸大于区域块,则将所述待识别的图片尺寸按照适配比率进行缩小处理,以获得与对应的区域块大小匹配的标准图片。
具体地,若所述待识别的图片尺寸小于区域块,则将所述待识别的图片尺寸按照适配比率进行放大处理,以获得与对应的区域块大小匹配的标准图片。
具体地,所述待识别的画布中,每两张相邻的区域块之间设置预留区域,每一列的预留区域配置成相同大小,每一行的预留区域配置成相同大小。
如图4所示,所述第一视角为主视角(俯视角),第二视角为侧视角,包裹在主视角下识别为重叠包裹,此种根据现有的识图切图技术,无法很好的将两个重叠包裹完整截取出来。
具体地,所述待识别的图片为双视角安检机扫描包裹的第一视角X光图片,所述步骤S3之后还包括去重叠处理,具体包括以下步骤:
获取所述双视角安检机扫描重叠包裹的第一视角X光图片和第二视角X光图片,所述第一视角与第二视角相互正交,所述重叠包裹包括前包裹、后包裹;
当检测到第一视角X光图片存在重叠包裹时,根据所述第一视角X光图片,确定所述重叠包裹关联的第二视角X光图片;
对第二视角X光图片进行灰度化处理,获得对应的灰度图片;
根据所述灰度图片提取前包裹边缘曲线、后包裹边缘曲线;
根据所述前包裹边缘曲线、后包裹边缘曲线,进行角点检测,分别确定灰度图片中的前包裹的角点坐标、后包裹的角点坐标;
灰度图片中的前包裹的角点坐标、后包裹的角点坐标,获得对应的第一视角X光图片中前包裹的角点坐标、后包裹的角点坐标;
基于所述前包裹的角点坐标、后包裹的角点坐标对第一视角X光图片的重叠包裹进行切图。
示例性的,前包裹的角点坐标为前包裹的左、右边缘Y轴坐标。
将所述第一视角X光图像输入对应的预先训练的目标识别模型,获得包裹的沿传送带传送方向的第一视角像素值;
判断所述第一视角像素值是否超过预设阈值,若是,则判定所述第一视角X光图像中存在重叠包裹。
其中第一视角X光图像中重叠处理处理同样适用于第二视角X光图像。即当检测到到第二视角X光图片存在重叠包裹时,根据所述第二视角X光图片,确定所述重叠包裹关联的第一视角X光图片,其余步骤可参考上述步骤,在此不赘述。
需要说明的是,本申请的去重叠考虑的是两个包裹叠加在一起的重叠区域。
对于包裹层面的视角间协同,过去只是在显示数据上进行了视角之间的对齐,但是现在还需要考虑在包裹层面上进行视角间“对齐”。首先在包裹剪切处理时,两个视角的分包结果要基本一致、互相对应;其次在执行探测时,有些功能需要同一包裹的多个视角的图像协同使用,才能进行探测,典型如液体探测功能。
在本实施例中,通过多套探测装置采集到行包的不同角度的多个X光图片并进行显示,从而避免出现探测装置漏检过包行李中的物品特别是危险物品(如小的危险物品因其旁边的大物品的遮挡而不能被检出,或因为行李放置在探测装置的辐射死角而漏检等),且安检工作人员通过对同一危险物品的不同角度的视图可以快速的判断出该危险物品的结构,因而更加容易对该危险物品进行定位和识别,进而及时采取相关的有效措施,提高了安检的工作效率。更优的是,由于是多套探测装置,因此这些个探测装置的安装面之间的角度关系按预设值进行设置,从而尽量避免出现安检死角的出现。本安检系统实用性强,符合我国国情,具有良好的市场前景。
在本实施例中,处理器和安检机连接,从而实现处理器启闭安检机或安检机启闭处理器,从而实现本系统的全自动化和智能化。
如图5所示,在本实施例中,所述第一视角为主视角,第二视角为侧视角;所述两个视角由2组X射线源和探测器组成,每组X射线源和探测器组成一个视角的成像系统,所述的两个视角为围绕X光安检机输送通道设置的第一视角、第二视角;所述第一视角包括第一X射线源和第一探测器;所述第二视角包括第二X射线源和第二探测器;所述第一X射线源位于输送通道正上方,所述第二X射线源位于输送通道一个侧面。
在系统初始化时,通过对主视角和侧视角的图像进行校正获得校正时间差,获取主视角和侧视角提供的视频帧,主视角和侧视角视频帧中包裹的沿X光机传送带运动方向的长度是相同的,即,其中主视角包裹长度为w0,侧视角包裹长度为w1。记主视角和俯视角校正时的校正时间差:获取所述第一视角X光图片的首帧X光图片的获取时间点t0;获取所述第二视角X光图片的首帧X光图片的获取时间点t0',则
本领域技术人员可以理解的是,由于两套探测装置扫描出来的X光图片可能不是同步产生的,因此需要确定系统分别接收两套探测装置扫描出来的X光图片,以进行相同包裹的两个视角的X光图片之间的关联。因此如何获得两套探测装置之间的时间差是解决关联问题的关键点。本申请还可以采用以下步骤:
获取大量的双视角安检机扫描的包裹第一视角X光图片和第二视角X光图片,确定为实验数据,所述第一视角与第二视角相互正交;
将所述第一视角X光图片输入至目标识别模型,获取包裹的便签、包裹的宽度Wi以及获取时间Ti;
将所述第二视角X光图片输入至目标识别模型,获取包裹的便签、包裹的宽度Wj以及获取时间Tj;
确定需要关联的目标包裹的宽度W1及获取时间T1,根据所述宽度W1,遍历所有第二视角X光图片的包裹的宽度Wj,找出所有与宽度W1相等的第二视角X光图片的包裹,再进行获取时间的比对,根据获取时间T1,遍历所有与宽度W1相等的第二视角X光图片的包裹的获取时间,找到与所述获取时间T1最接近的一个获取时间,确定获取时间对应的帧视频图片为该目标包裹关联的第二视角X帧视频图片。
找出所有实验数据的第一视角X光图片和第二视角X光图片的同一包裹的双视角关联图片,计算关联图片之间获取时间的差值tti,将所有差值tti求平均值处理,获得校正时间差
主视角和侧视角校正后,每隔则缓存一次第二视角X光图片,记为,i表示第i次缓存,i=1,2,…n,表示缓存图片的时间点与获取时间点t0'的时间差,记缓存图片的时间点为ti'',,Ii表示第i次缓存的图片。
如图4所示,对主视图的某一视频帧采用目标识别的方式,识别出包裹的位置,视频帧的时间为t1,包裹A在主视图中的左边缘的Y轴坐标。计算主视角该视频帧的时间t1相对于校正时间差的差值,然后找出符合的侧视角图片Ii。
即根据主视角该视频的时间与校正时间差,确定第二视角X光图片缓存的模糊定位时间t1',获得所述模糊定位时间点t1'与缓存图片的时间点ti''的差值,提取最小的差值对应的缓存时间下的第二视角X光图片,实现同一包裹的主视角图像和俯视角图像的关联。
基于上述去重叠处理,获得重叠区域的左边缘的Y轴坐标、右边缘的Y轴坐标;
基于包裹A在主视图中的左边缘的Y轴坐标,以及重叠区域的右边缘的Y轴坐标,获得去重叠后的包裹A在主视图中的左边缘的Y轴坐标、右边缘的Y轴坐标,基于所述左边缘的Y轴坐标、右边缘的Y轴坐标进行切图获得包裹主视角切图。
因为主视角和侧视角的视频帧具有相同的长度,所以侧视图中同一包裹A的左边缘的Y轴坐标、右边缘的Y轴坐标,可从侧视图中切出包裹图片。
通过以上步骤则切出了双源双视角的两个视角的去重叠区域的包裹图片。
示例性的:
待识别的画布是640*640的图片,记边缘隔离区域为n,把640*640的识待识别的画布分成四个区域,分成了4个320*320的区域A,B,C,D和边缘隔离区域n,如图2所示,A,B,C,D区域范围如下:
A:0<x<=(320-n/2),0<y=(320-n/2);
B:(320+n/2)<x<=640,0<y=(320-n/2);
C:0<x<=(320-n/2),(320+n/2)<y<=640;
D:(320+n/2)<x<=640,(320+n/2)<y<=640;
当收到待识别的图片后,分别放入A,B,C,D这个区域,然后根据预先训练的模型进行识别。
具体流程:
步骤1、初始化全为空白的640*640区域Q和参数index0=0,index0表示第几张图片,将m表示为收到图片后需要等待的时间;
步骤2、当收到待识别的图片S后,index0=index0+1,开启定时任务M,M倒计时m分钟。待识别的图片S进行以下操作:
如图3所示,图片S的宽和高分别为w,h;
计算待识别的图片S的宽和高的伸展或者缩放比:
宽的伸展或者缩放比:w_rate=w/(320-n/2);
高的伸展或者缩放比:h_rate =h/(320-n/2);
记w’和h’为变换过后的标准图片的宽和高;
If w_rate>h_rate:
w’=w*h_rate;
h’=(320-n/2);
else:
w’=(320-n/2);
h’=h*w_rate;
得到宽w’和高h’的新图片S’;
步骤3、当index =1,图片S’放入区域A;
当index=2,图片S’放入区域B;
当index=3,图片S’放入区域C;
当index=4,图片S’放入区域D;
步骤4、定时任务M是否到时间,如果是,无论此时是否收到第4张图片,直接进行步骤6;
步骤5、当index0!=4,定时任务M还在进行时,重复步骤2,当index=4时,停止定时任务M,进行步骤6;
步骤6、对待识别的画布进行图像识别,得到识别结果;
步骤7、识别结果处理;
当0<x<=(320-n/2),0<y=(320-n/2),识别结果属于区域A的图片;
当(320+n/2)<x<=640,0<y=(320-n/2),识别结果属于区域B的图片;
当0<x<=(320-n/2),(320+n/2)<y<=640,识别结果属于区域C的图片;
当(320+n/2)<x<=640,(320+n/2)<y<=640,识别结果属于区域D的图片;
步骤8、重复步骤1。
实施例2
一种基于调度的多图合并识图装置
一个或多个处理器;
存储单元,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,能使得所述一个或多个处理器实现根所述的一种基于调度的多图合并识图方法。
实施例3,一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时能实现所述的一种基于调度的多图合并识图方法。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,依据本发明的技术实质,在本发明的精神和原则之内,对以上实施例所作的任何简单的修改、等同替换与改进等,均仍属于本发明技术方案的保护范围之内。

Claims (7)

1.一种基于调度的多图合并识图方法,其特征在于,具体包括以下步骤:
S1、获得待识别的图片;
S2、根据所述待识别的图片,获得标准图片,将标准图片拼接至预设画布的对应区域块中,获得待识别的画布;
当待识别的画布中拼接有第一张标准图片时,启动计时器,当计时器的值等于预设值时,直接通过预先训练好的模型对待识别的画布上的各个标准图片进行识别;
启动拼接计数器Index,重复执行以下步骤,直至得到当待识别的画布中所有区域均拼接有对应的标准图片:
每获得一张待识别的图片,拼接计数器index加1,将所述Index与可调参量a进行整除运算,若Index能被可调参量a整除,则从业务场景背景图片库中随机读取一张场景背景图片作为预设画布,所述可调参量a为预设画布中待拼接区域的数量;
根据所述预设画布分辨率的大小,将预设画布进行水平方向和垂直方向的N等分操作,划分得到N*N个等大小的区域块,每个区域块对应的标识i=0,1…,a,其中可调参量a=N*N;
将所述待识别的图片粘贴至对应的区域块;
所述待识别的图片对应的区域块的标识为对应的拼接计数器Index与可调参量a进行取余运算得到的余数值;
S3、当待识别的画布中所有区域均拼接有对应的标准图片时,通过预先训练好的模型对待识别的画布上的各个标准图片进行识别;
所述待识别的图片为双视角安检机扫描包裹的第一视角X光图片,步骤S3之后还包括去重叠处理,具体包括以下步骤:
获取所述双视角安检机扫描重叠包裹的第一视角X光图片和第二视角X光图片,所述第一视角与第二视角相互正交,所述重叠包裹包括前包裹、后包裹;
当检测到第一视角X光图片存在重叠包裹时,根据所述第一视角X光图片,确定所述重叠包裹关联的第二视角X光图片;
对第二视角X光图片进行灰度化处理,获得对应的灰度图片;
根据所述灰度图片提取前包裹边缘曲线、后包裹边缘曲线;
根据所述前包裹边缘曲线、后包裹边缘曲线,进行角点检测,分别确定灰度图片中的前包裹的角点坐标、后包裹的角点坐标;
灰度图片中的前包裹的角点坐标、后包裹的角点坐标,获得对应的第一视角X光图片中前包裹的角点坐标、后包裹的角点坐标;
基于所述前包裹的角点坐标、后包裹的角点坐标对第一视角X光图片的重叠包裹进行切图。
2.根据权利要求1所述的一种基于调度的多图合并识图方法,其特征在于,将所述待识别的图片粘贴至对应的区域块,具体包括以下步骤:
判断所述待识别的图片与对应的区域块的尺寸大小;
若所述待识别的图片与对应的区域块的尺寸大小不匹配,则将待识别的图片按照适配比率进行缩放处理,以获得与对应的区域块的尺寸大小匹配的标准图片,将标准图片粘贴至区域块i。
3.根据权利要求2所述的一种基于调度的多图合并识图方法,其特征在于,所述待识别的图片尺寸大小为w*h,所述区域块的大小为K*K,则所述适配比率具体包括以下几种情形:
情形一:当w*hr>K时,所述适配比率为wr;
情形二:当h*wr>K时,所述适配比率为hr;
其中,wr为长变换比率:wr=K/w;
hr为高变换比率:hr=K/h。
4.根据权利要求3所述的一种基于调度的多图合并识图方法,其特征在于,若所述待识别的图片尺寸大于区域块,则将所述待识别的图片尺寸按照适配比率进行缩小处理,以获得与对应的区域块大小匹配的标准图片。
5.根据权利要求3所述的一种基于调度的多图合并识图方法,其特征在于,若所述待识别的图片尺寸小于区域块,则将所述待识别的图片尺寸按照适配比率进行放大处理,以获得与对应的区域块大小匹配的标准图片。
6.根据权利要求1所述的一种基于调度的多图合并识图方法,其特征在于,所述待识别的画布中,每两张相邻的区域块之间设置预留区域,每一列的预留区域配置成相同大小,每一行的预留区域配置成相同大小。
7.一种基于调度的多图合并识图装置,其特征在于,包括:
一个或多个处理器;
存储单元,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,能使得所述一个或多个处理器实现根据权利要求1至6中任意一项所述的一种基于调度的多图合并识图方法。
CN202211408860.XA 2022-11-11 2022-11-11 一种基于调度的多图合并识图方法及装置 Active CN115564656B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211408860.XA CN115564656B (zh) 2022-11-11 2022-11-11 一种基于调度的多图合并识图方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211408860.XA CN115564656B (zh) 2022-11-11 2022-11-11 一种基于调度的多图合并识图方法及装置

Publications (2)

Publication Number Publication Date
CN115564656A CN115564656A (zh) 2023-01-03
CN115564656B true CN115564656B (zh) 2023-04-28

Family

ID=84770281

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211408860.XA Active CN115564656B (zh) 2022-11-11 2022-11-11 一种基于调度的多图合并识图方法及装置

Country Status (1)

Country Link
CN (1) CN115564656B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9990753B1 (en) * 2017-01-11 2018-06-05 Macau University Of Science And Technology Image stitching
CN108171260A (zh) * 2017-12-15 2018-06-15 百度在线网络技术(北京)有限公司 一种图片识别方法及系统
WO2021189910A1 (zh) * 2020-09-24 2021-09-30 平安科技(深圳)有限公司 图片识别方法、装置、电子设备及计算机可读存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4026172A (en) * 1975-03-17 1977-05-31 Hagger Company Belt loop trimming apparatus
JP2006331214A (ja) * 2005-05-27 2006-12-07 Fuji Electric Systems Co Ltd 物体識別タグ及びこれを使用した物体識別システム
CN108376416A (zh) * 2018-01-16 2018-08-07 天津大学 一种图像生成方法以及装置
CN111027526B (zh) * 2019-10-25 2023-06-13 江西省云眼大视界科技有限公司 一种提高车辆目标检测识别效率的方法
CN111062871B (zh) * 2019-12-17 2023-01-24 腾讯科技(深圳)有限公司 一种图像处理方法、装置、计算机设备及可读存储介质
CN111461985A (zh) * 2020-03-31 2020-07-28 维沃移动通信有限公司 图片处理方法及电子设备
CN113807315A (zh) * 2021-10-08 2021-12-17 文思海辉智科科技有限公司 一种构建待识别对象识别模型的方法、装置、设备及介质
CN114639106A (zh) * 2022-01-26 2022-06-17 杭州摸象大数据科技有限公司 图文识别方法、装置、计算机设备及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9990753B1 (en) * 2017-01-11 2018-06-05 Macau University Of Science And Technology Image stitching
CN108171260A (zh) * 2017-12-15 2018-06-15 百度在线网络技术(北京)有限公司 一种图片识别方法及系统
WO2021189910A1 (zh) * 2020-09-24 2021-09-30 平安科技(深圳)有限公司 图片识别方法、装置、电子设备及计算机可读存储介质

Also Published As

Publication number Publication date
CN115564656A (zh) 2023-01-03

Similar Documents

Publication Publication Date Title
WO2021051885A1 (zh) 目标标注的方法及装置
CN110781839A (zh) 一种基于滑窗的大尺寸图像中小目标识别方法
EP3321860A1 (en) Method and system for identifying train number and model, and safety check method and system
CN108830133A (zh) 合同影像图片的识别方法、电子装置及可读存储介质
US20160026898A1 (en) Method and system for object detection with multi-scale single pass sliding window hog linear svm classifiers
CN110210368B (zh) 一种基于安检图像的危险品图像注入方法
CN110910314B (zh) 一种货架场景图像的拼接方法及装置
US11682231B2 (en) Living body detection method and device
CN114660097B (zh) 一种基于双源双视角的同步校正方法及系统
WO2022237135A1 (zh) 目标对象识别的方法及装置
WO2023123924A1 (zh) 目标识别方法、装置、电子设备及存储介质
CN112633392A (zh) 一种太赫兹人体安检图像目标检测模型训练数据增广方法
CN110866453B (zh) 基于卷积神经网络的实时人群稳定状态识别方法及装置
CN115564656B (zh) 一种基于调度的多图合并识图方法及装置
US20200388017A1 (en) System, apparatus and method for facilitating inspection of a target object
CN111738236B (zh) 一种自适应层级的图像切分识别方法、装置及系统
CN111294594B (zh) 一种安检方法、装置、系统及存储介质
CN115423683B (zh) 用画板对列数据包裹图片局部放大的方法及装置和显示器
CN104408430B (zh) 一种车牌定位方法及装置
CN107403429B (zh) 一种周期序列图像模型参数的快速自动获取方法
US20160196473A1 (en) Video Extraction Method and Device
CN115512283A (zh) 包裹图像处理方法、装置、计算机设备和存储介质
CN115471560A (zh) 一种基于主视角和侧视角的切图方法及装置
CN115424200B (zh) 一种基于动态更新的人包关联方法及装置
CN205643198U (zh) 基于x射线的工业部件缺陷的无损检测系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant