CN112183353A - 一种图像数据处理方法、装置和相关设备 - Google Patents
一种图像数据处理方法、装置和相关设备 Download PDFInfo
- Publication number
- CN112183353A CN112183353A CN202011045569.1A CN202011045569A CN112183353A CN 112183353 A CN112183353 A CN 112183353A CN 202011045569 A CN202011045569 A CN 202011045569A CN 112183353 A CN112183353 A CN 112183353A
- Authority
- CN
- China
- Prior art keywords
- image
- target
- sequence
- network model
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/787—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Library & Information Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例公开了一种图像数据处理方法、装置和相关设备,该方法适用于人工智能领域。方法包括:获取目标对象的目标图像序列;获取目标网络模型对应的模型输入序列;模型输入序列中包含目标图像序列中的第一图像;确定第一图像与第二图像之间的结构相似度;若结构相似度达到业务期望条件,则将第二图像添加至模型输入序列,以在第二时刻时将第二图像输入目标网络模型,由目标网络模型输出与更新后的模型输入序列相关联的业务关键特征;基于业务关键特征和特征数据库,确定目标对象所属的分类属性,基于分类属性生成与目标对象相关联的提醒信息。采用本申请,可以提高对对象进行智能识别的准确性,并可以增强对该对象进行提醒的实时性。
Description
技术领域
本申请涉及计算机技术领域,具体涉及人工智能领域,尤其涉及一种图像数据处理方法、装置和相关设备。
背景技术
目前,猫狗是城市流浪动物的主要群体。在实际生活中,当用户(例如,行人A)发现某个区域中的对象(例如,流浪动物)时,可以通过拍照的方式将拍摄到的这个流浪动物的图片上传到指定的社交平台,以利用社交平台的网络交互渠道来宣传与推广流浪猫狗的信息。
显然,这种通过人工拍照的方式所近距离拍摄到的图片数据是比较清晰的,故而当行人A对应的摄像终端获取到包含这个流浪动物的图片数据时,该行人A可以通过该摄像终端将包含这个流浪动物的图片数据推送到社交平台,以便于后续可以在社交平台上无差别的对与这个流浪动物相关联的广播数据信息进行广播。显然,这里的社交平台并不涉及对这个流浪动物的识别,以至于处于该社交平台上的其他用户需要人工分辨这个对象的分类属性,进而存在误分类的现象,以至于降低了对象识别的准确性。
发明内容
本申请提供一种图像数据处理方法、装置和相关设备,可以提高对象识别的准确性,并可以增强对该对象进行提醒的实时性。
本申请实施例一方面提供一种图像数据处理方法,包括:
获取位于第一地理区域中的目标对象的目标图像序列;获取目标网络模型对应的模型输入序列;模型输入序列中包含在第一时刻输入至目标网络模型的目标图像序列中的第一图像;
获取所述目标图像序列中的第二图像,确定第一图像与第二图像之间的结构相似度;
若结构相似度达到与目标网络模型相关联的业务期望条件,则将第二图像添加至模型输入序列,得到更新后的模型输入序列,在第二时刻时将第二图像输入目标网络模型,由目标网络模型输出与更新后的模型输入序列相关联的业务关键特征;第二时刻为第一时刻的下一输入时刻;
基于业务关键特征和与第一地理区域相关联的特征数据库,确定目标对象所属的分类属性,基于分类属性生成与目标对象相关联的提醒信息。
本申请实施例一方面提供一种图像数据处理装置,包括:
目标序列获取模块,用于获取位于第一地理区域中的目标对象的目标图像序列;获取目标网络模型对应的模型输入序列;模型输入序列中包含在第一时刻输入至目标网络模型的目标图像序列中的第一图像;
相似度确定模块,用于获取所述目标图像序列中的第二图像,确定第一图像与第二图像之间的结构相似度;
关键特征确定模块,用于若结构相似度达到与目标网络模型相关联的业务期望条件,则将第二图像添加至模型输入序列,得到更新后的模型输入序列,在第二时刻时将第二图像输入目标网络模型,由目标网络模型输出与更新后的模型输入序列相关联的业务关键特征;第二时刻为第一时刻的下一输入时刻;
提醒信息生成模块,用于基于业务关键特征和与第一地理区域相关联的特征数据库,确定目标对象所属的分类属性,基于分类属性生成与目标对象相关联的提醒信息。
其中,装置还包括:
原始数据采集模块,用于获取由第一地理区域中的采集设备在采集时长内所采集到的原始视频数据,基于采集时长对原始视频数据进行序列化处理,得到原始视频数据对应的初始图像序列;
对象检测模块,用于在初始图像序列中对包含目标对象的图像帧进行对象检测,将检测到的包含目标对象的图像帧作为第一类型图像帧,并在初始图像序列中将除第一类型图像帧之外的图像帧作为第二类型图像帧;
图像帧滤除模块,用于在初始图像序列中滤除第二类型图像帧,将滤除第二类型图像帧后的初始图像序列作为待处理视频序列;待处理视频序列中包含N个第一类型图像帧;一个第一类型图像帧中包含一个目标对象所属的图像区域;N为正整数;
截取构建模块,用于从N个第一类型图像帧中截取包含目标对象的图像区域,以得到N个截图区域,基于N个截图区域的图像尺寸和目标网络模型的输入尺寸,构建位于第一地理区域中的目标对象的目标图像序列。
其中,截取构建模块包括:
尺寸比较单元,用于从N个第一类型图像帧中截取得到N个截图区域,将N个截图区域的图像尺寸与目标网络模型的输入尺寸进行比较,得到尺寸比较结果;
图像确定单元,用于若尺寸比较结果指示N个截图区域的图像尺寸中存在小于或者等于目标网络模型的输入尺寸,则将图像尺寸小于或者等于目标网络模型的输入尺寸的N1个截图区域所对应的图像作为待处理图像,将图像尺寸大于目标网络模型的输入尺寸的N2个截图区域所对应的图像作为第一目标图像;N1与N2之间的和值为N;N1和N2均为整数;
图像放大单元,用于通过超分辨率成像网络对待处理图像进行放大处理,将放大处理后的待处理图像确定为第二目标图像;
序列构建单元,用于根据第一目标图像和第二目标图像分别在初始图像序列中的序列位置信息,构建位于第一地理区域中的目标对象的目标图像序列。
其中,图像放大单元包括:
网络获取子单元,用于获取超分辨率成像网络;超分辨率成像网络包含卷积层、r×r个残差层组和亚像素卷积层组;r为大于1的正整数;
卷积处理子单元,用于将待处理图像输入卷积层,由卷积层中的卷积核对待处理图像进行卷积处理,将卷积层所输出的卷积特征作为待处理图像的目标卷积特征;
残差处理子单元,用于将目标卷积特征输入r×r个残差层组,由r×r个残差层组分别对目标卷积特征进行残差处理,得到每个残差层组对应的目标残差特征;
残差融合子单元,将r×r个目标残差特征输入亚像素卷积层组,由亚像素卷积层组将r×r个目标残差特征进行融合处理,得到融合图像特征,将融合图像特征和目标卷积特征进行叠加处理,得到放大后的待处理图像,将放大后的待处理图像作为第二目标图像;第二目标图像中包含第二图像,且放大后的待处理图像的图像尺寸为待处理图像的图像尺寸的r倍。
其中,第一图像与第二图像具有相同的图像尺寸;
相似度确定模块包括:
图像块划分单元,用于获取目标图像序列中的第二图像,通过滑动窗口分别将第一图像和第二图像划分为M个图像块,一个图像块对应一个图像区域;
第一参数确定单元,用于当控制滑动窗口以单位滑动步长在第一图像上滑动时,在第一图像所包含的M个图像区域中遍历确定第一图像区域,在第一图像中,通过滑动窗口所关联的高斯卷积核确定第一图像区域中的像素点的第一关键参数;
第二参数确定单元,用于当控制滑动窗口以单位滑动步长在第二图像上滑动时,在第二图像所包含的M个图像区域中遍历确定第二图像区域,在第二图像中,通过高斯卷积核确定第二图像区域中的像素点的第二关键参数;
相似性确定单元,用于基于第一关键参数和第二关键参数,确定第一图像区域和第二图像区域之间的局部结构相似性,直到第一图像中的M个图像区域均被确定为第一图像区域,且第二图像中的M个图像区域均被确定为第二图像区域时,得到每个第一图像区域与对应第二图像区域之间的局部结构相似性,基于M个局部结构相似性确定第一图像和第二图像之间的结构相似度。
其中,第一图像区域为从第一图像中遍历获取到的第i个图像区域,第二图像区域为从第二图像中遍历获取到的第i个图像区域;i为小于或者等于M的正整数;
相似性确定单元,具体用于从第一关键参数中获取与第一图像中的第i个图像区域相关联的第一均值和第一标准差,从第二关键参数中获取第二图像中的第i个图像区域相关联的第二均值和第二标准差;
相似性确定单元,还具体用于在第一图像中,将由高斯卷积核平滑处理后的第i个图像区域作为第一处理区域,且在第二图像中,将由高斯卷积核平滑处理后的第i个图像区域作为第二处理区域;
相似性确定单元,还具体用于基于第一均值、第二均值、第一标准差、第二标准差、第一处理区域、第二处理区域,确定第一图像中的第i个图像区域与第二图像中的第i个图像区域之间的亮度对比因子、对比度对比因子和结构对比因子;
相似性确定单元,还具体用于基于亮度对比因子、对比度对比因子和结构对比因子,确定第一图像中的第i个图像区域与第二图像中的第i个图像区域之间的局部结构相似性。
其中,关键特征确定模块包括:
期望条件获取单元,用于获取与目标网络模型相关联的业务期望条件;业务期望条件中包含第一相似阈值和第二相似阈值;第一相似阈值小于第二相似阈值;
期望条件达到单元,用于当检测到结构相似度处于第一相似阈值与第二相似阈值所构成的相似阈值范围内时,确定结构相似度达到业务期望条件;
特征提取单元,用于将第二图像添加至模型输入序列,得到更新后的模型输入序列,在第二时刻时将第二图像输入目标网络模型,由目标网络模型对提取第二图像中的图像特征,将目标网络模型在第二时刻所提取到的图像特征作为目标图像特征;
特征整合单元,用于获取目标网络模型在截止到第一时刻时所提取到的隐藏图像特征,将隐藏图像特征作为模型输入序列对应的历史图像特征,将历史图像特征和目标图像特征进行整合,得到目标网络模型所输出的更新后的模型输入序列的业务关键特征。
其中,关键特征确定模块还包括:
第一确定单元,用于当检测到结构相似度小于第一相似阈值时,确定结构相似度未达到业务期望条件;
隐藏特征确定单元,用于根据小于第一相似阈值的结构相似度,丢弃从目标图像序列中获取到的第二图像,将目标网络模型在截止到第一时刻时所提取到的隐藏图像特征,作为与输入序列相关联的业务关键特征,基于业务关键特征获取模型输入序列的历史特征置信度;
通知执行单元,用于若模型输入序列的历史特征置信度达到置信度指标,则通知提醒信息生成模块执行基于业务关键特征和与第一地理区域相关联的特征数据库,确定目标对象所属的分类属性,基于分类属性生成与目标对象相关联的提醒信息。
其中,目标图像序列中包括第三图像;第三图像为第二图像的下一图像;
关键特征确定模块还包括:
第二确定单元,用于当检测到结构相似度大于第二相似阈值时,确定结构相似度未达到业务期望条件;
图像更新单元,用于根据大于第二相似阈值的结构相似度,丢弃从目标图像序列中获取到的第二图像,从目标图像序列中获取第三图像,用第三图像更新第二图像。
其中,提醒信息生成模块包括:
置信度确定单元,用于基于业务关键特征确定更新后的模型输入序列的目标特征置信度,当目标特征置信度达到置信度指标时,通过与目标网络模型相关联的分类预测模型,在与第一地理区域相关联的特征数据库中对业务关键特征进行特征匹配;
目标档案构建单元,用于若在特征数据库中未匹配到与业务关键特征相匹配的历史对象特征,则基于业务关键特征构建针对目标对象的目标对象档案;
新增属性确定单元,用于基于目标对象档案将由分类预测模型所预测到的目标对象所属的分类属性确定为新增属性;
提醒信息生成单元,用于基于新增属性,将目标对象添加至第一地理位置区域对应的区域对象库,在区域对象库中的对象数量达到对象阈值时,生成与目标对象相关联的提醒信息;提醒信息用于向第一地理区域中的管理人员推送具备新增属性的目标对象。
其中,提醒信息生成模块还包括:
档案查找单元,用于在目标对象所属的分类属性为新增属性时,在遗失对象库中查找与目标对象档案相匹配的遗失对象档案;
遗失对象确定单元,用于若在遗失对象库中查找到与目标对象档案相匹配的遗失对象档案,则确定目标对象为在遗失对象档案中具备遗失对象属性的遗失对象;
通知信息生成单元,用于从遗失对象档案中获取与目标对象相关联的对象遗失人员,基于遗失对象属性生成与目标对象相关联的通知信息;通知信息用于通知对象遗失人员在第一地理位置区域中存在具备遗失对象属性的目标对象。
其中,提醒信息生成模块还包括:
特征更新单元,用于若在特征数据库中匹配到与业务关键特征相匹配的历史对象特征,则在特征数据库所映射的对象管理库中用业务关键特征更新匹配到的历史对象特征;
管理库更新单元,用于若更新后的历史对象特征所对应的第二图像的图像置信度大于对象管理库的图像质量指标,则在对象管理库中用第二图像更新历史对象特征对应的历史对象图像;历史对象图像为在不同于第一位置区域的第二位置区域所采集到的包含目标对象的图像;
地理位置更新单元,用于基于第二位置区域和第一位置区域所构成的对象流动轨迹,将目标对象的地理位置信息由第二位置区域更新为第一位置区域,将目标对象所属的分类属性确定为流动对象属性;
品种更新单元,用于确定具有流动对象属性的目标对象的品种属性,且在品种属性对应的品种置信度大于历史品种指标时,更新对象管理库对应的品种数据库。
本申请实施例一方面提供了一种计算机设备,包括:处理器和存储器;
处理器与存储器相连,其中,存储器用于存储计算机程序,处理器用于调用计算机程序,以执行本申请实施例中的方法。
本申请实施例一方面提供了一种计算机可读存储介质,上述计算机可读存储介质存储有计算机程序,上述计算机程序包括程序指令,上述程序指令被处理器执行时,执行本申请实施例中的方法。
本申请实施例一方面提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行本申请实施例一方面中的方法。
本申请实施例中的计算机设备在获取到位于第一地理区域中的目标对象的目标图像序列时,还可以一并获取目标网络模型对应的输入图像序列。这样,当计算机设备从目标图像序列中获取待输入目标网络模型的第二图像时,可以从该输入图像序列中获取在第一时刻输入至该目标网络模型的目标图像序列中的第一图像;在本申请实施例中,为确保输入该目标网络模型的图像具有较好的图像质量,例如,对于当前需要输入该目标网络模型的包含目标对象(比如,这里的目标对象可以为动物)的第二图像而言,可以在将其输入该目标网络模型之前,预先将该第二图像与上一次(即上述第一时刻)输入该目标网络模型的第一图像进行相似分析,以确定第一图像与第二图像之间的结构相似度;进一步的,本申请实施例可以在结构相似度达到与目标网络模型相关联的业务期望条件时,进一步将第二图像添加到模型输入序列,得到更新后的模型输入序列,以在第二时刻(即本次)将第二图像输入目标网络模型,由目标网络模型输出与更新后的模型输入序列相关联的业务关键特征,进而可以基于从目标图像序列中所挑选出的具有丰富图像特征的第二图像,实现特征提取的准确性;可以理解的是,这里的第二时刻可以为第一时刻的下一输入时刻;即这里的第一时刻与第二时刻均属于不同的输入时刻。进一步的,计算机设备可以基于业务关键特征和与第一地理区域相关联的特征数据库,确定目标对象所属的分类属性,例如,本申请实施例可以基于准确获取到的业务关键特征,快速且智能地识别出这里的目标对象是否属于与特征数据库相关联的已有动物(例如,已有的流浪动物),如果属于,则可以将识别到的已有动物的历史分类属性作为当前的目标对象的分类属性;反之,则可以将该目标对象的分类属性确定为新增属性。由此可见,采用本申请可以在智能感知到这个地理位置区域(即前述第一地理位置区域,例如,某个小区或者某条街道)中所出现的目标对象(例如,新增的动物)时,通过结合多帧图像的信息来提高对该目标对象进行识别的准确性。进一步的,本申请实施例还可以在识别出这个目标对象的分类属性时,进一步基于分类属性生成与目标对象相关联的提醒信息,以便于可以增强对这个地理位置区域所出现的目标对象的进行提醒的实时性。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种网络架构的结构示意图;
图2是本申请实施例提供的一种进行数据交互的场景示意图;
图3是本申请实施例提供的一种图像数据处理方法的流程示意图;
图4是本申请实施例提供的一种对初始图像序列中的图像帧进行过滤的场景示意图;
图5是本申请实施例提供的一种通过抽点处理的方式得到训练数据的场景示意图;
图6a和图6b是本申请实施例提供的一种深度残差神经网络的模型结构图;
图7是本申请实施例提供的一种确定局部结构相似性的场景示意图;
图8是本申请实施例提供的一种图像数据处理方法的流程示意图;
图9是本申请实施例提供的一种在动物识别场景下对动物进行动物检测、识别以及提醒的流程示意图;
图10是本申请实施例提供的一种训练初始网络模型的场景示意图;
图11是本申请实施例提供的一种图像数据处理装置的结构示意图;
图12是本申请实施例提供的一种计算机设备的示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请实施例提供的方案属于人工智能领域下的机器学习((Machine Learning,ML)。可以理解的是,机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
请参见图1,图1是本申请实施例提供的一种网络架构的结构示意图。如图1所示,该网络架构可以包括摄像终端集群、业务服务器2000,其中,可以理解的是,这里的摄像终端集群可以包括一个或者多个摄像终端,这里将不对摄像终端集群中的摄像终端的数量进行限制。其中,如图1所示,摄像终端集群可以包含多个摄像终端,具体可以包含图1所示的摄像终端3000a、摄像终端3000b、摄像终端3000c、…、摄像终端3000n。如图1所示,摄像终端3000a、摄像终端3000b、摄像终端3000c、…、摄像终端3000n可以和业务服务器2000进行网络连接,以便于该摄像终端集群中的每个摄像终端可以通过该网络连接与业务服务器2000进行数据交互。比如,在对象识别场景下,摄像终端集群中的每个摄像终端均可以用于获取包含目标对象的业务数据。这里的对象识别场景具体可以包含人体识别场景、动物识别场景等,这里将不对该对象识别场景进行一一列举。
其中,可以理解的是,本申请实施例中的每个摄像终端中均可以集成有具有图形采集功能的AI摄像头,这样,当这些摄像终端中的任意一个摄像终端在某个地理区域(例如,地理区域S1)中通过AI摄像头采集到包含目标对象(例如,这里的目标对象可以为人的躯体或者动物的躯体等)的图像数据(即原始视频数据)时,可以对该原始视频数据所对应的初始图像序列(例如,L个图像帧,L为正整数)进行对象检测,以从该初始图像序列(例如,L个图像帧)中提取包含目标对象的图像帧,进而可以基于提取到的这些包含目标对象的图像帧(例如,N个图像帧,这里的N可以小于或者等于前述L的正整数),预先得到待处理视频序列。进一步的,本申请实施例可以在该待处理视频序列(即N个图像帧)中截取出包含目标对象的截图区域,以得到N个截图区域,进而可以基于截取到的这些截图区域,构建得到位于该地理区域S1中的这个目标对象的目标图像序列。其中,可以理解的是,这里的地理区域S1可以为小区、校园、街区等需要对目标对象进行智能感知和告警的位置区域。
其中,可以理解的是,在该初始图像序列(例如,前述L个图像帧)中,本申请实施例可以将提取到的这些包含目标对象的图像帧(例如,前述N个图像帧)统称为第一类型图像帧,并可以将在该初始图像序列中的除第一类型图像帧之外的(L-N)个图像帧统称为第二类型图像帧。可以理解的是,本申请实施例在得到上述待处理图像序列之前,可以预先在上述初始图像序列中滤除第二类型图像帧,进而可以将滤除上述第二类型图像帧后的初始图像序列作为待处理视频序列。
其中,可以理解的是,本申请实施例可以将从上述目标图像序列中获取到待输入目标网络模型的图像统称为第二图像,为确保可以对该第二图像中的目标对象进行识别的准确性,本申请实施例可以在将第二图像输入目标网络模型之前,预先将该第二图像与上一次(例如,第一时刻)输入该目标网络模型的图像(即第一图像)进行比较,以计算得到第一图像与第二图像之间的结构相似度。
其中,可以理解的是,这里的结构相似度可以为这两张图像之间的平均结构相似性,且这里的平均结构相似性可以用于从上述目标图像序列中挑选出具有一定差异性的图像,以从该目标图像序列中过滤一些差异性过小的图像,以解决因差异性过小而存在图像冗余的问题。可选的,这里的平均结构相似性还可以用于从该目标图像序列中过滤到一些差异性大的图像,以解决因差异性过大而存在图像模糊的问题。
其中,应当理解,本申请实施例可以将训练之前的网络模型统称为具有特征提取功能的初始网络模型,并可以通过域适应方法对该初始网络模型和具备域判别器的判别网络模型进行模型训练,进而可以在这两个模型(即初始网络模型和判别网络模型)的损失函数收敛时,将训练后的初始网络模型进行统称为目标网络模型。其中,可以理解的是,考虑到随着时间的推移,当前位于上述地理区域S1中的目标对象可能会因为周围环境、光照、亮度以及天气等指标的变化,而影响对上述结果相似度的评估。所以,本申请实施例可以在模型训练阶段,引入具备域判别器的判别网络模型,以使训练后所得到的目标网络模型可以在模型应用阶段准确输出该地理区域S1中的目标对象的分类属性,而无需区别当前时刻所得到的图像的来源。
可选的,为便于理解,本申请实施例还可以在该摄像终端集群中,选择一个摄像终端作为目标摄像终端,进而可以在目标摄像终端获取到包含目标对象的图像数据时,将该图像数据发送给上述业务服务器2000,以使业务服务器2000可以将接收到的这些图像数据统称为上述原始图像数据。此时,业务服务器2000可以基于上述原始图像数据,确定得到后续用于参与进行结构相似度计算的目标图像序列。然后,本申请实施例可以利用业务服务器2000的计算能力,提高对上述第一图像和第二图像之间的结构相似性进行计算的效率。
其中,可以理解的是,这里的目标摄像终端可以包括:智能手机、平板电脑、笔记本电脑、车载终端、路侧摄像设备等具有图像采集功能的智能终端。例如,为便于理解,本申请实施例可以将图1所示的摄像终端3000a作为目标摄像终端,该目标摄像终端中可以运行一个或者多个应用客户端,当这些应用客户端中的某个应用客户端(例如,客户端A)运行在目标摄像终端中时,可以通过该客户端A调用该目标摄像终端中的AI摄像头进行图像采集,以便于后续业务服务器2000在获取到目标摄像终端所上传的一个或者多个图像数据时,可以根据接收到的一个或者多个图像数据确定出包含目标对象的业务数据,这里不对目标摄像终端在采集时长内所采集到的图像数据的数量进行限定。其中,这些应用客户端具体可以包括社交客户端、支付客户端、多媒体客户端(例如,摄像客户端)、自动驾驶客户端等具有图像数据采集功能的客户端。
其中,如图1所示的业务服务器2000可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器,这里将不对其进行限定。
为便于理解,进一步的,请参见图2,图2是本申请实施例提供的一种进行数据交互的场景示意图。如图2所示的摄像终端10a还可以为上述图1所示的摄像终端3000b,该摄像终端3000b可以为上述路侧摄像设备。如图2所示的摄像终端10a的可以在启动上述应用客户端(例如,上述摄像客户端)时,可以通过该摄像客户端对应的摄像头采集到与图2所示的对象A(即上述目标对象)相关联的一个或者多个图像数据,进而可以将采集到的包含目标对象的图像数据发送给图2所示的服务器20a,以使图2所示的服务器20a在获取到这些图像数据时,可以将这些图像数据作为原始视频数据,进而可以对这里的原始视频数据进行序列化处理,以得到原始视频数据对应的初始图像序列。比如,为便于理解,本申请实施例以该初始图像序列中可以包含多个图像帧为例,这里的多个图像帧具体可以包含上述L个图像帧,例如,L个图像帧具体可以包含图像帧1,图像帧2,图像帧3,图像帧4,图像帧5,…,图像帧L。
可以理解的是,本申请实施例可以对初始图像序列中的L个图像帧进行对象检测,以在初始图像序列中获取到包含目标对象的业务数据,即可以从L个图像帧中去除上述(L-N)个第二类型图像帧(即可以去除(L-N)个不包含目标对象的图像帧,例如,可以去除图像帧2和图像帧3),以将去除第二类型图像帧后所得到的N个包含目标对象的图像帧(例如,图像帧1,图像帧4、图像帧5,…,图像帧L)统称为包含目标对象的业务数据。
其中,应当理解,在本申请实施例中,这些包含目标对象的业务数据可以统称为上述第一类型图像帧,该第一类型图像帧的数量可以为前述N个。由于图2所示的摄像终端30a与图2所示的对象A之间的距离相对较远,因此当服务器20a接收到图2所示的具有人脸识别功能的路侧摄像设备所采集到的包含图2所示的对象A(例如,以名字叫做“小花”的小花猫为例)的图像数据(即获取到N个第一类型图像帧)时,可以从获取到的N个第一类型图像帧中截取包含该对象A(即小花猫)的区域,进而可以将从第一类型图像帧中所截取到的包含该对象A的区域统称为截图区域。比如,可以从一个第一类型图像帧中截取到一个包含该对象A的截图区域,例如,可以从上述图像帧1中截取得到包含该对象A的截图区域1’,以此类推,该服务器20a可以从上述图像帧4中截取得到包含该对象A的截图区域2’,可以从上述图像帧5中截取得到包含该对象A的截图区域3’,…,可以从上述图像帧L中截取得到包含该对象A的截图区域n’。
进一步的,为便于理解,假设截取到的N个图像区域的图像尺寸均未超过预设的目标网络模型的输入尺寸,此时,图2所示的服务器20a可以使用训练好的图像放大网络(例如,超分辨成像网络)对这N个截图区域(即上述截图区域1’,截图区域2’,截图区域3’,…,截图区域n’)进行放大处理,以得到放大处理后的这N个截图区域,进而可以基于放大处理后的这N个截图区域,得到图2所示的图像序列100a。可选的,这里的图像放大网络还可以为具备插值功能(例如,双三次插值功能或者双线性插值功能)的网络,这里将不对图像放大网络的具体形式进行限定。
其中,可以理解的是,在本申请实施例中,服务器20a可以将放大处理后的N个截图区域所对应的图像所构成的图像序列统称为目标图像序列,以得到图2所示的图像序列100a。如图2所示,图像序列100a具体可以包括图2所示的图像帧30a,图像帧30b,图像帧30c,…,图像帧30d。其中,图像帧30a可以为通过上述超分辨成像网络对上述截图区域1’进行放大处理后所得到的图像。同理,图像帧30b可以为通过上述超分辨成像网络对上述截图区域2’进行放大处理后所得到的图像,以此类推,图像帧30c可以为通过上述超分辨成像网络对上述截图区域3’进行放大处理后所得到的图像,…,图像帧30d可以为通过上述超分辨成像网络对上述截图区域n’进行放大处理后所得到的图像。
如图2所示的模型输入序列200a中可以包含图2所示的图像帧30a和图像帧30b。比如,本申请实施例可以在输入时刻为T1时刻时将图像帧30a(例如,图像序列100a的首个图像帧)输入至图2所示的目标网络模型之后,当服务器20a获取到图像序列100a中的图像帧30b时,可以确定图像帧30a与图像帧30b之间的结构相似度(比如,结构相似度1),若该结构相似度1达到图2所示的业务期望条件时,可以在输入时刻为T2时刻时将图像帧30b输入至图2所示的目标网络模型。应当理解,本申请实施例可以在将图像帧30b输入至图2所示的目标网络模型之前,将前述T2时刻统称为第二时刻,并将该T2时刻对应的图像帧(即前述图像帧30b)统称为第二图像。同理,本申请实施例可以将上一输入时刻(即前述T1时刻)统称为第一时刻,并将该T1时刻对应的图像帧(即前述图像帧30a)统称为第一图像。
其中,应当理解,当图像帧30a与图像帧30b之间的结构相似度达到图2所示的业务期望条件时,可以将图2所示的图像帧30b(即从该图像序列100a中获取到的第二图像),添加到图2所示的图像帧30a(即上述第一图像)所在的模型输入序列,进而可以将添加有该图像帧30b(即第二图像)的模型输入序列作为图2所示的模型输入序列200a。可以理解的是,这里的模型输入序列可以用于存储能够输入到目标网络模型的图像,且添加至该模型输入序列中的每个图像均是从目标图像序列所包含的多帧图像中所挑选出的具有合理差异性的图像。
基于此,可以理解的是,本申请实施例可以在将图像帧30b输入至图2所示的目标网络模型之后,将上述T2时刻确定为新的第一时刻,并将该新的第一时刻所对应的图像(即图2所示的位于输入图像序列200a中的图像帧30b)确定为新的第一图像。所以,当该服务器20a在从该图像序列100a(即目标图像序列)中获取到下一个图像帧(即图2所示的图像帧30c)时,可以预先将该图像帧30c确定为新的第二图像,进而可以将该新的第二图像与当前最新输入至图2所示的目标网络模型的图像帧30b(即前述新的第一图像)进行比较,以计算该图像帧30c(即新的第二图像)和图像帧30b(即新的第一图像)之间的结构相似度。如图2所示,当服务器20a确定这两者的结构相似度(例如,结构相似度2)达到上述业务期望条件时,则可以将图像帧30c添加至图2所示的模型输入序列200a,进而可以将添加有该图像帧30a的模型输入序列统称为更新后的模型输入序列。所以,该服务器20a可以在输入时刻为T3时刻时,将图像帧30c输入至图2所示的目标网络模型,从而可以从图2所示的图像序列100a中挑选出具有合理差异性的图像帧,以确保特征提取的准确性,并可以解决上述因差异性过小而导致图像冗余的问题或者因差异性过大而导致图像模糊的问题。
如图2所示的目标网络模型可以为循环神经网络(Recurrent Neural Network,RNN)模型,为了确保图像特征提取的准确性和丰富性,该RNN网络模型可以将从新的第二图像中提取到的图像特征(例如,图像特征11)和截止到上述新的第二时刻(即上述T3时刻)所历史记忆到的最新的图像特征(例如,图像特征12)进行融合,以将融合后的图像特征(例如,图像特征13)作为前述更新后的模型输入序列的业务关键特征。如图2所示,此时,服务器20a可以基于该业务关键特征和与该对象A(即前述小花猫)当前所处的第一地理区域相关联的特征数据库,准确确定该目标对象(即图2所示的对象A)的分类属性,比如,该对象A所属的分类属性可以为新增属性,还可以为非新增属性,这里的新增属性是指当前新出现在该第一地理区域中的对象,比如,前述小花猫可能属于遗失的宠物。可选的,这里的非新增属性(也可以称之为流动对象属性)是指曾经出现在该第一地理区域中的历史对象,比如,前述小花猫可能属于流浪动物。
应当理解,当确定好该目标对象的分类属性之后,该服务器20a可以基于上述确定的分类属性生成与该目标对象相关联的提醒信息,比如,当图2的对象A(即目标对象)的分类属性为上述新增属性时,则可以对当前区域(即前述第一地理区域)中所出现的该对象A进行实时告警,以便于管理当前区域的管理人员可以尽快地对该对象A(即上述小花猫)进行管理,从而可以实现对象感知和告警的智能型和实时性。
应当理解,该服务器20a从目标图像序列中的图像帧输入目标网络模型之前,可以尝试遍历将该目标图像序列中的每个图像帧依次作为第二图像,进而可以将在模型输入序列中所获取到的最新添加的具有最大添加时间戳的图像帧作为第一图像,以计算得到这两个图像帧之间的结构相似度,进而可以通过判断当前得到的结构相似度是否满足业务期望条件,来确定是否可以将这里的第二图像添加到模型输入序列,进而可以判断出是否能够将这里的第二图像输入到目标网络模型。应当理解,一旦当前得到的结构相似度(例如,上述结构相似度2)不满足业务期望条件时,则可以确定当前无需将第二图像输入该目标网络模型。
其中,该服务器20a确定第一图像与第二图像之间的结构相似度的具体过程,可以参见上述对上述图像帧30c和图像帧30b的描述,这里将不再继续进行赘述。进一步的,该服务器20a基于图2所示的目标网络模型输出业务关键特征,以及基于业务关键特征和特征数据库,确定目标对象的分类属性的具体实现方式,可以参见下述图3-图10所对应实施例的描述。
进一步地,请参见图3,图3是本申请实施例提供的一种图像数据处理方法的流程示意图。其中,可以理解的是,本申请实施例提供的方法可以由计算机设备执行,这里的计算机设备包括但不限于具备AI摄像头的摄像终端或服务器。比如,该计算机设备可以为具有一定计算能力的边缘计算设备、服务器、云服务器等。为便于理解,本申请实施例以该计算机设备为服务器为例,以阐述在该服务器中对目标对象所属的分类属性进行分类的具体过程。其中,这里的服务器可以为上述图2所对应实施例中的服务器20a。如图3所示,该方法至少可以包括下述步骤S101-步骤S104:
步骤S101,获取位于第一地理区域中的目标对象的目标图像序列,获取目标网络模型对应的模型输入序列;
具体的,计算机设备(比如,服务器)可以在执行步骤S101之前,构建得到位于第一地理区域中的目标对象的目标图像序列。比如,计算机设备可以获取由该第一地理区域中的采集设备(例如,上述图2所对应实施例中的摄像终端10a)在采集时长内所采集到的原始视频数据,进而可以基于采集时长(即采集时长内的每个采集时间戳)对原始视频数据进行序列化处理,以得到原始视频数据对应的初始图像序列;进一步的,计算机设备可以在初始图像序列中对包含目标对象的图像帧进行对象检测,以将检测到的包含目标对象的图像帧作为第一类型图像帧,并在初始图像序列中将除第一类型图像帧之外的图像帧作为第二类型图像帧;进一步的,计算机设备可以在初始图像序列中滤除第二类型图像帧,以将滤除第二类型图像帧后的初始图像序列作为待处理视频序列;其中,可以理解的是,待处理视频序列中可以包含N个第一类型图像帧;一个第一类型图像帧中可以包含一个目标对象所属的图像区域;这里的N可以为正整数;进一步的,计算机设备可以从N个第一类型图像帧中截取包含目标对象的图像区域,以得到N个截图区域,从而可以基于N个截图区域的图像尺寸和目标网络模型的输入尺寸,以构建得到位于第一地理区域中的目标对象的目标图像序列。这样,当计算机设备获取到目标图像序列时,可以获取与目标网络模型相关联的模型输入序列,可以理解的是,这里的模型输入序列可以用于存储输入目标网络模型的每个图像帧。
其中,模型输入序列中可以包含在第一时刻输入至所述目标网络模型的所述目标图像序列中的第一图像。这里的第一时刻可以为将从目标图像序列中获取到的第一图像输入目标网络模型的输入时刻,这样,计算机设备可以进一步执行下述步骤S102,以便于在从目标图像序列中获取到第二图像时,可以通过结构相似度来判断是否可以将当前获取到的第二图像输入目标网络模型。
其中,可以理解的是,该计算机设备获取初始图像序列的具体实现方式,可以参见对上述图2所对应实施例中对包含L个图像帧的初始图像序列的描述,这里将不再继续进行赘述。进一步的,请参见图4,图4是本申请实施例提供的一种对初始图像序列中的图像帧进行过滤的场景示意图。如图4所示,计算机设备在获取到图4所示的初始图像序列300a时,可以进一步将该初始图像序列300a输入至图4所示的对象检测模型,以通过该对象检测模型对该初始图像序列300a进行对象检测,以在该初始图像序列300a的对应图像帧中输出包含目标对象的对象检测框。比如,在图4所示的图像帧40a中未检测到目标对象时,将不在图像帧40a输出对象检测框。又比如,在图4所示的图像帧40b中检测到目标对象时,将在图像帧40b输出对象检测框,该图像帧40b中的对象检测框可以为图4所示的区域1,即该区域1为通过该对象检测模型在图4所示的图像帧40b中所定位到的包含目标对象的图像区域,以此类推,图4所示的区域N即为通过该对象检测模型在图4所示的图像帧40b中所定位到的包含目标对象的图像区域。
由此可见,本申请实施例通过图4所示的训练好的对象检测模型对初始图像序列300a中的图像帧进行对象检测,可以从该初始图像序列300a中过滤掉不包含目标对象的图像帧(即可以过滤掉上述(L-N)个第二类型图像帧,例如,该第二类型图像帧可以包括图4所示的图像帧40a),从而可以得到包含目标对象的图像帧(即可以得到上述N个第一类型图像帧,例如,这里的第一类型图像帧具体可以包含图4所示的图像帧40b,…,图像帧40c)。
进一步的,如图4所示,计算机设备可以将滤除(L-N)个第二类型图像帧后的初始图像序列作为待处理视频序列,该待处理视频序列可以为图4所示的待处理视频序列300b。此时,计算机设备可以在该待处理视频序列300b中,对这N个第一类型图像帧(即图4所示的图像帧40b,…,图像帧40c)中所包含的目标对象的区域进行裁剪,以得到图4所示的N个截图区域。如图4所示,这N个截图区域中的区域1即为从图像帧40b中所裁剪出的包含目标对象的图像区域,同理,这N个截图区域中的区域N即为从图像帧40c中所裁剪出的包含目标对象的图像区域。
进一步的,计算机设备可以将裁剪所得到的区域1的图像尺寸与目标网络模型(例如,上述图2所示的目标网络模型)的输入尺寸进行比较,以判断该区域1的图像尺寸是否超过该输入尺寸,如果超过,则表明当前截取到的区域1属于具有较大尺寸、且清晰的图像,进而可以直接将该具有较大尺寸的区域1统称为第一目标图像。反之,则表明当前截取到的区域1属于较小尺寸、且模糊的图像,故而需要将该具有较小尺寸的区域1所对应的图像作为待处理图像,进而可以通过上述图像放大网络(例如,上述超分辨率成像网络)对该待处理图像(即具有较小尺寸的区域1)进行放大处理,以便于产生清晰的图像,可以理解的是,本申请实施例可以将放大处理后的待处理图像(即放大后所产生的清晰的图像)统称为第二目标图像。
以此类推,计算机设备可以将裁剪所得到的区域N的图像尺寸与目标网络模型(例如,上述图2所示的目标网络模型)的输入尺寸进行比较,以判断该区域N的图像尺寸是否超过该输入尺寸,如果超过,则表明当前截取到的区域N属于具有较大尺寸、且清晰的图像,进而可以直接将该具有较大尺寸的区域N统称为上述第一目标图像。反之,则表明当前截取到的区域N属于较小尺寸、且模糊的图像,故而需要将该具有较小尺寸的区域N所对应的图像作为待处理图像,进而可以通过上述图像放大网络(例如,上述超分辨率成像网络)对该待处理图像(即具有较小尺寸的区域N)进行放大处理,以便于产生清晰的图像,可以理解的是,本申请实施例可以将放大处理后的待处理图像(即放大后所产生的清晰的图像)统称为上述第二目标图像。
由此可见,计算机设备可以将N个截图区域的图像尺寸与目标网络模型的输入尺寸进行比较,以得到尺寸比较结果;若尺寸比较结果指示N个截图区域的图像尺寸中存在小于或者等于目标网络模型的输入尺寸,则可以将图像尺寸小于或者等于目标网络模型的输入尺寸的N1个截图区域所对应的图像作为待处理图像(例如,待处理图像可以包括图4所示的区域1),进而可以将图像尺寸大于目标网络模型的输入尺寸的N2个截图区域(例如,图4所示的区域N)所对应的图像作为第一目标图像;其中,N1与N2之间的和值可以为N;N1和N2均可以为整数;进一步的,计算机设备可以通过超分辨率成像网络对待处理图像(例如,区域1)进行放大处理,进而可以将放大处理后的待处理图像确定为第二目标图像。此时,计算机设备可以进一步根据第一目标图像和第二目标图像分别在初始图像序列中的序列位置信息,构建位于第一地理区域中的目标对象的目标图像序列。
其中,应当理解,目标图像序列中的任意相邻两个图像帧的尺寸可以相同,也可以不同。比如,当该目标图像序列中存在第一目标图像的图像尺寸不同于第二目标图像的图像尺寸时,例如,当上述放大后的区域1的图像尺寸大于图2所示的区域N的图像尺寸时,计算机设备可以通过降采样方式将该放大处理后的区域1的图像尺寸缩小至输入尺寸,并可以通过降采样方式将图2所示的区域N的图像尺寸缩小至输入尺寸,以便于后续在执行下述步骤S102时,可以确保参与进行比较的图像帧具有相同的图像尺寸。
应当理解,相对于人体识别场景而言,在上述对象识别场景为动物识别场景时,通过上述目标网络模型对动物的特征进行提取和识别,往往会比较困难,这是因为本申请实施例所涉及到的流浪动物的体型往往会比人体更小且离地更近(即在同一位置上,这些流浪动物距离上述摄像终端会比人体距离摄像终端更远),因此,在上述第一地理区域(例如,小区、校园等场景区域)下,通过安装在高处的摄像终端(例如,上述图2的摄像终端10a)所进行图像采集,属于一种远距离的图像拍摄,进而导致计算机设备所获取到的由该摄像终端所采集到的动物图像往往仅占据整个图像帧的一小部分,具体的,可以参见上述图2所示的区域1,故而导致计算机设备在从上述待处理视频序列300b中所裁剪得到的包含目标对象的图像区域的分辨率会比较低,因此,该计算机设备可以在截取到包含目标对象的图像区域之后,进一步将这些图像区域分别与上述输入尺寸进行比较,以筛选出需要进行放大处理的图像区域,比如,可以在上述N个截图区域中找出图像尺寸小于或者等于目标网络模型的输入尺寸的N1个截图区域所对应的图像作为待处理图像,进而可以使用上述超分辨率成像网络对过小的图像进行放大处理,以产生清晰的图像。
其中,可以理解的是,这里的超分辨率成像网络可以是通过一系列的二元组(例如,Ij,Bj)的训练数据进行训练后所得到的,其中,Ij可以用于表征参与训练的第j张低分辨率图像,Bj可以用于表征参与训练的第j张高分辨率图像。
其中,可以理解的是,在对该超分辨成像网络进行训练的过程中,计算机设备可以对获取到的高清AI摄像头所采集到的高分辨率图像进行降采样处理,以得到与该高分辨率图像对应的低分辨率图像。其中,可以理解的是,这里所采用的降采样的方法可以为“抽点”处理的方法:比如,当需要将采集到的高分辨率图像缩小r倍时,可以采用该“抽点”处理方法在每r×r个像素点中选择一个像素点作为降采样后的像素点;此外,为了确保每张降采样处理后的图像的像素点之间的差别可以尽可能地大,本申请实施例可以将在每r×r个像素点中选择的每个像素点依次作为降采样图像的像素点,由此可见,在对该超分辨成像网络进行训练的过程中,在获取到1张高分辨率图像时,就可以快速获得r2张降采样后的低分率图像,进而可以构建得到更多的训练数据。
为便于理解,进一步的,请参见图5,图5是本申请实施例提供的一种通过抽点处理的方式得到训练数据的场景示意图。如图5所示的图像帧I可以为上述高清AI摄像头所采集到的高分辨率图像,为便于理解,本申请实施例可以将采集到的高分辨率图像统称为图5所示的原始图像(也可以称之为原始分辨率图像)。如图5所示,该图像帧I中具体可以包含多个像素点,这里的多个像素点具体可以包含图5所示的16个像素点(例如,图5所示的像素点1,像素点2,像素点3、像素点4,像素点5,像素点6,…,像素点16)。可以理解的是,在对该超分辨成像网络进行训练的过程中,若需要使用上述抽点处理的方式将图5所示的原始图像缩小r(例如,r=2)倍,则可以产生图5所示的r×r=r2(即22=4)个降采样图像,这里的4个降采样图像(即每张降采样处理后的图像)具体可以为图5所示的图像帧I1,图像帧I2,图像帧I3和图像帧I4。
其中,为了确保每张降采样处理后的图像的像素点之间的差别可以尽可能地大,本申请实施例可以将在每r×r个像素点中选择的每个像素点依次作为降采样图像的像素点,例如,计算机设备可以在该图像帧I中,以图5所示的每2×2个像素点作为像素区域为例,可以将该图像帧I大致划分为4个像素区域(比如,像素区域1,像素区域2,像素区域3和像素区域4),进而可以在这四个像素区域中分别遍历选取一个像素点作为降采样图像的像素点。
比如,像素区域1中可以包含图5所示的像素点1,像素点2,像素点3和像素点4;像素区域2中可以包含图5所示的像素点5,像素点6,像素点7和像素点8;像素区域3中可以包含图5所示的像素点9,像素点10,像素点13和像素点14;像素区域4中可以包含图5所示的像素点11,像素点12,像素点15和像素点16;此时,计算机设备可以从像素区域1中选取首个像素点(例如,图5所示的像素点1)作为图像帧I1中的降采样图像的像素点,并可以从像素区域2中选取首个像素点(例如,图5所示的像素点5)作为图像帧I1中的降采样图像的像素点,并可以从像素区域3中选取首个像素点(例如,图5所示的像素点9)作为图像帧I1中的降采样图像的像素点,以及从像素区域4中选取首个像素点(例如,图5所示的像素点11)作为图像帧I1中的降采样图像的像素点,进而可以基于从这4个像素区域中所选取的这些像素点,构建得到图5所示的图像帧I1。
以此类推,计算机设备可以从像素区域1中选取第二个像素点(例如,图5所示的像素点2)作为图像帧I1中的降采样图像的像素点,并可以从像素区域2中选取第二个像素点(例如,图5所示的像素点6)作为图像帧I1中的降采样图像的像素点,并可以从像素区域3中选取第二个像素点(例如,图5所示的像素点10)作为图像帧I1中的降采样图像的像素点,以及从像素区域4中选取第二个像素点(例如,图5所示的像素点12)作为图像帧I1中的降采样图像的像素点,进而可以基于从这4个像素区域中所选取的这些像素点,构建得到图5所示的图像帧I2。以此类推,计算机设备可以根据从这4个像素区域中所遍历选取的第三个像素点,构建得到图5所示的图像帧I3,以及根据从这4个像素区域中所遍历选取的第四个像素点,构建得到图5所示的图像帧I4。;
进一步的,如图5所示,计算机设备在得到图5所示的四张降采样图像之后,可以进一步将这些降采样图像与原始图像(即图5所示的图像帧I)进行组合,以得到图5所示的训练数据400a,应当理解,在本申请实施例中,为确保训练后的超分辨率成像网络可以将具有较低分辨率的图像进行放大后,产生清晰的图像(即产生高分辨率的图像),这意味着在该超分辨率成像网络的训练过程中,需要构建用于对该超分辨率成像网络进行训练的二元数据,比如,可以构建得到二元数据(I1,I),二元数据(I2,I),二元数据(I3,I)和二元数据(I4,I)。进一步的,如图5所示,计算机设备可以使用图5所示的训练样本400a对放大网络模型(即超分辨率成像网络)进行训练,以得到图5所示的训练后的放大网络模型。可以理解的是,这里的训练后的放大网络模型可以为上述训练好的超分辨率成像网络,进而可以利用训练好的超分辨率成像网络对采集到的具有较低分辨率的图像进行放大处理,以产生清晰的图像。
可以理解的是,可选的,在实际使用上述训练好的超分辨率成像网络的过程中,还可使用部署现场所实时获取到的高分辨率图像作为原始图像,进而可以按照上述抽点处理的方式实时得到大量的现场数据集,从而可以根据得到的这些现场数据集,构建得到新的训练数据,进而可以对当前所使用的超分辨率成像网络的网络参数进行微调,以确保可以得到更加清晰的图像。
其中,可以理解的是,这里的超分辨率成像网络可以使用深度残差神经网络,这是因为:超分辨率的过程本质上是在低频率图像信息(即通过上述AI摄像头采集到原始的低分辨率图像)的基础上,叠加上高频率信息(即局部的图像细节),因此,利用深度残差神经网络的特性可以保证低频率图像信息始终存在于残差神经网络的每一层,即残差神经网络的每一层都可以含有原始的低分辨率图像的信息。进一步地,在传统的图像识别(例如分类问题)过程中,通过批量归一化的方式可以使得每一层的结果的输入都符合标准正态分布,这极大地避免了底层参数变化对上层网络的扰动,但在图像降噪、超分辨率等任务中,图像的细节处理本就要求网络对于特征输出取值的灵活,因此该步骤移除了批量标准化的过程,进而可以快速且灵活地将上述原始的低分辨率图像转换成高分辨率图像。
为便于理解,进一步的,请参见图6a和图6b,是本申请实施例提供的一种深度残差神经网络的模型结构图。如图6a所示的深度残差神经网络具体可以包含卷积层50a,r×r个残差层组(例如,图6a所示的残差层组60a,…,残差层组60b)和亚像素卷积层组60b。其中,图6a所示的残差层组60a具体可以包含图6a所示的卷积层61a、非线性激活函数62a以及卷积层63a。以此类推,图6a所示的残差层组60b具体可以包含未示出的卷积层61b、非线性激活函数62b以及卷积层63b。此时,如图6a所示的亚像素卷积层组60c具体可以包含图6a所示的卷积层61c、亚像素上采样层62c以及卷积层63c。其中,可以理解的是,该深度残差神经网络的每个残差层组均可以用于产生一系列的像素点。
其中,如图6a所示的卷积层50a可以用于对图6a所示的待处理图像进行卷积处理,以将由该卷积层50a所输出的卷积特征作为该待处理图像的目标卷积特征。如图6a所示,计算机设备可以进一步将该目标卷积特征输入至图6a所示的r×r(例如,2×2=4)个残差层组。具体的,如图6b所示,计算机设备可以将目标卷积特征分别输入图6b所示的残差层组60a,残差层组60d,残差层组60e和残差层组60b,进而可以由图6b所示的4个残差层组(例如,残差层组60a,残差层组60d,残差层组60e和残差层组60b)分别对该目标卷积特征进行残差处理,以得到每个残差层组对应的目标残差特征。比如,如图6b所示,残差层组60a输出的目标残差特征可以为图6b所示的残差特征k1,如图6b所示,残差层组60d输出的目标残差特征可以为图6b所示的残差特征k2,以此类推,残差层组60e输出的目标残差特征可以为图6b所示的残差特征k3,残差层组60b输出的目标残差特征可以为图6b所示的残差特征k4。可以理解的是,图6b所示的4个残差特征(即残差特征k1,残差特征k2,残差特征k3和残差特征k4)均具有相同的特征大小。如图6b所示,计算机设备可以将这4个残差特征输入图6b所示的亚像素卷积层组60c,并可以由该亚像素卷积层组将这4个残差特征进行融合处理,得到融合图像特征,此时,计算机设备可以进一步将该融合图像特征(即上述高频率信息)和图6b所示的目标卷积特征(即上述低频率图像信息)进行叠加处理,以得到上述图6a所示的放大后的待处理图像,进而可以将放大后的待处理图像作为第二目标图像;可以理解的是,这里的第二目标图像可以包含上述准备输入目标网络模型的第二图像。
其中,可以理解的是,当计算机设备需将图6a所示的待处理图像放大r倍时,可以通过深度残差神经网络模型中的r×r个通道(例如,宽、高各r倍,共需要r×r个通道)的输出,拼合成为一个通道的输出。比如,假设r=2,则利用该深度残差神经网络中的4个残差层组可以在4个通道上产生同等大小的图像图像然后,该深度残差神经网络中的亚像素卷积组(即图6a所示的亚像素卷积组60c)将图像图像组合为一个通道的图像该图像可以为图6b所示的图像帧k对应的图像,即得到前述放大后的待处理图像。
步骤S102,获取所述目标图像序列中的第二图像,确定第一图像与第二图像之间的结构相似度。
具体的,计算机设备可以在获取到目标图像序列中的第二图像时,通过滑动窗口分别将第一图像和第二图像划分为M个图像块,其中,一个图像块可以对应一个图像区域;进一步的,当计算机设备控制滑动窗口以单位滑动步长在第一图像上滑动时,可以在第一图像所包含的M个图像区域中遍历确定第一图像区域,进而可以在第一图像中,通过滑动窗口所关联的高斯卷积核确定第一图像区域中的像素点的第一关键参数;这里的第一关键参数可以包含第一图像区域的第一均值和第一标准差值。同理,当计算机设备控制滑动窗口以单位滑动步长在第二图像上滑动时,可以在第二图像所包含的M个图像区域中遍历确定第二图像区域,进而可以在第二图像中,通过高斯卷积核确定第二图像区域中的像素点的第二关键参数;这里的第二关键参数可以包含第二图像区域的第二均值和第二标准差值。进一步的,计算机设备可以基于第一关键参数和第二关键参数,确定第一图像区域和第二图像区域之间的局部结构相似性,直到第一图像中的M个图像区域均被确定为第一图像区域,且第二图像中的M个图像区域均被确定为第二图像区域时,可以得到每个第一图像区域与对应第二图像区域之间的局部结构相似性,进而可以基于M个局部结构相似性确定第一图像和第二图像之间的结构相似度。
其中,可以理解的是,这里的结构相似度可以用于评估两个图像的平均结构相似性。应当理解,当对象识别场景为动物识别场景时,将与人体识别场景下的人脸识别或者躯体识别存在不同,这是因为动物的头部与身体之间没有清晰的界限、且动物不具有明确的正面、侧面和背面,以及动物的尾巴、耳朵等对于身体有较为明显的遮挡,因此为提高动物识别的准确度,本申请实施例提出可以将计算出的结构相似度应用于具有动物识别功能的目标网络模型。应当理解,这里的目标网络模型可以为上述RNN模型,还可以为卷积神经网络(Convolutional Neural Networks,CNN)模型,这里将不对其进行限定。
应当理解,由于在动物识别场景下,可以在通过目标网络模型提取与检索动物(即目标对象)的特征时,此外,通过结合多帧/多张动物图像的信息,可以在这些动物图像之间提取到该目标对象的各姿态、身体各部位的信息。
此外,为了采集多张动物图像,本申请实施例可以通过上述摄像终端在采集时长内捕获到一个或者多个包含目标对象的图像数据,进而可以基于这些采集到的包含目标对象的图像数据,构建得到上述目标图像序列,从而可以基于目标图像序列判断这个目标对象在上述第一地理区域(例如,小区或者校园)中的移动轨迹;这是因为动物(即目标对象)的活动通常在户外,其很长一部分时间是在户外休息,因此通过小区或者校园中安装的AI摄像头在采集时长内所拍摄到的多个包含目标对象的图像数据中,可能在一段时长(例如,时长1,该时长1小前述采集时长)内存在完全相同的图像数据,即此时,该目标对象的状态是处于静止状态的,如果按照人体识别场景下的人脸识别/躯体识别的方式,在采集到的图像数据中存在时长1达到静止时长阈值(例如,前述采集时长)时,则可以结束的原有的采集逻辑,进而会导致采集到的这些图像中的相似图像过多、有价值的图像过少的情况;反之,如果简单地延长采集时长且使AI摄像头采集处于静止状态下的包含目标对象的每一帧图像数据,则会得到大量的冗余图像,导致将影响该计算机设备的计算性能。基于此,为使在采集时长内所采集到的多张包含“各姿态、身体各部位的信息”的不同,本申请实施例提出可以在上述采集时长内收集具有一定差异性的动物图像,以便于后续可以根据收集到的具有一定差异性的动物图像,确保能够提取到更加丰富的图像特征。换言之,本申请实施例可以从目标图像序列中准确挑选出能够输入目标网络模型的图像帧。
其中,为便于理解,进一步的,请参见图7,图7是本申请实施例提供的一种确定局部结构相似性的场景示意图。其中,如图7所示的图像70a可以为上述第一图像,此外,如图7所示的图像70b可以为从上述目标图像序列中获取得到的待输入上述目标网络模型的第二图像。
如图7所示,当计算机设备获取到窗口大小为s×s,固定步长为1的滑动窗口时,可以利用该滑动窗口分别对图7所示的图像70a和图像70b进行分块处理,以将图7所示的图像70a划分成M个图像块,并将图7所示的图像70b划分成M个图像块。可以理解的是,如图7所示,一个图像块可以对应一个图像区域。比如,如图7所示,计算机设备可以得到图像70a的M个图像区域,该图像70a的M个图像区域中可以包含图7所示的图像区域71a。同理,计算机设备可以得到图像70b的M个图像区域,该图像70b的M个图像区域中可以包含图7所示的图像区域71b。应当理解,在局部结构相似性的计算过程中,需要预先定义亮度函数,对比度函数和结构函数,即这里的局部结构相似性可以用于反映两个图像区域在亮度、对比度以及图像结构之间的差异性。其中,局部结构相似性的计算公式可以为以下公式(1)。
其中,公式(1)中的xi为第一图像(比如,图7所示的图像70a)中的第i个图像区域,同理,公式(1)的yi为第二图像中的第i个图像区域。此时,i的取值可以小于等于上述M的值。其中,SSIM(xi,yi)可以用于表示第一图像中的第i个图像区域与第二图像中的第i个图像区域之间的局部结构相似性。其中,L(xi,yi)可以为上述亮度函数的亮度对比因子,C(xi,yi)可以为上述对比度函数的对比度对比因子,S(xi,yi)可以为上述结构函数的结构对比因子。其中,为便于对第一图像中的第i个图像区域中的像素点的均值,与第二图像中的第i个图像区域中的像素点的均值进行区别,本申请实施例可以用公式(1)中的表示第一图像中的第i个图像区域中的像素点的第一均值,并可以用公式(1)中的表示第二图像中的第i个图像区域中的像素点的第二均值。同理,本申请实施例可以用公式(1)中的表示第一图像中的第i个图像区域中的像素点的第一标准差,并可以用公式(1)中的表示第二图像中的第i个图像区域中的像素点的第二标准差。其中,公式(1)中的可以用于表示第一图像中的第i个图像区域与第二图像中的第i个图像区域中之间的协方差。
其中,需要注意的是,公式(1)中的C1的引入是为了解决分母中的均值之和(即)接近于零时所造成的系统不稳定的现象,这里的C1用于参与计算两个图像区域在亮度上的差异性,其中,C1=(K1L)2。这里的L为一张图像中的像素点的灰度范围,比如,若这张图像为灰度图像,则该灰度范围可以用于描述这张图像在特定的位深度(例如,e=8bit)的情况下的灰度等级,此时,L=2e-1=28-1=255。应当理解,若这张图像为彩色图像,则可以预先将其转换为灰度图像,确定相应位深度下的灰度等级,这里将不对位深度e的取值进行限定,例如,e的取值还可以为10bit。其中,K1的值应当远远小于1,例如,K1的值可以为0.01。同理,公式(1)中的C2的引入是为了解决分母中的标准差之和(即)接近于零时所造成的系统不稳定的现象,这里的C2用于参与计算两个图像区域在对比度上的差异性,其中,C2=(K2L)2。其中,K2的值也应当远远小于1,例如,K2的值可以为0.01。
比如,如图7所示,当i的取值为1时,计算机设备可以基于第一图像中的第1个图像区域(即图7所示的图像区域71a)和第二图像中的第1个图像区域(即图7所示的图像区域71b)之间亮度对比因子、对比度对比因子和结构对比因子,确定第一图像中的第1个图像区域与第二图像中的第1个图像区域之间的局部结构相似性。依次类推,对于第一图像(例如,图7所示的图像70a)中的其他图像区域而言,可以基于第一图像中的其他图像区域(例如,第一图像的第2个图像区域可以为图像区域72a,未在图7示出),与第二图像中的对应图像区域(例如,第二图像的第2个图像区域可以为图像区域72b,未在图7示出)之间的亮度对比因子、对比度对比因子和结构对比因子,确定第一图像中的其他图像区域与第二图像中的对应图像区域之间的局部结构相似性。
其中,可以理解的是,当计算机设备控制该窗口尺寸为s×s的滑动窗口在图7所示的图像70a(即第一图像)上滑动时,可以在图7所示的图像70a(即第一图像)上将该滑动窗口所覆盖的图像区域71a确定为第一图像区域,比如,这里的第一图像区域的数量可以为M个,这里的M可以为正整数。比如,为便于理解,这里以图7所示的第一图像区域为图7所示的图像70a中的第i(i=1)个图像区域为例,阐述在该图像70a中遍历获取每个第一图像区域的第一关键参数的过程。此外,考虑到窗口形状对分块的影响,如图7所示,本申请实施例可以采用图7所示的高斯卷积核对图7所示的第一图像区域进行高斯加权计算,以计算得到该滑动窗口在该图像70a的对应图像区域(例如,图7所示的第一图像区域)的第一关键参数,这里的第一关键参数可以为在将图7所示的图像区域71a作为第一图像区域时所计算得到的第一均值和第一标准差。
同理,当计算机设备控制该窗口尺寸为s×s的滑动窗口在图7所示的图像70b(即第二图像)上滑动时,可以在图7所示的图像70b(即第二图像)上将该滑动窗口所覆盖的图像区域71b确定为第二图像区域。比如,为便于理解,这里以图7所示的第二图像区域为图7所示的图像70b中的第i(i=1)个图像区域为例,阐述在该图像70b中遍历获取每个第二图像区域的第二关键参数的过程。同理,本申请实施例还可以采用图7所示的高斯卷积核对图7所示的第二图像区域进行高斯加权计算,以计算得到该滑动窗口在该图像70b的对应图像区域(例如,图7所示的第二图像区域)的第二关键参数,这里的第二关键参数可以为在将图7所示的图像区域71b作为第二图像区域时所计算得到的第二均值和第二标准差。
进一步的,计算机设备可以基于第一图像(例如,图7所示的图像70a)中的第i个图像区域中的每个像素点的像素值与第一均值之间的第一差值,和基于第二图像(例如,图7所示的图像70b)中的第i个图像区域中的每个像素点的像素值与第二均值之间的第二差值,确定图7所示的第一图像区域与第二图像区域之间的协方差。
进一步的,计算机设备在根据上述公式(1)计算出的两个图像区域之间的结构相似度SSIM(xi,yi)时,可以进一步根据下述公式(2),计算第一图像与第二图像之间的平均结构相似性,进而可以将这里的平均结构相似度作为第一图像与第二图像之间的结构相似度P。
其中,公式(2)中的X为上述第一图像,公式(2)中的Y为上述第二图像。其中,M为通过上述滑动窗口将这两个图像所划分得到的图像块的数量,其中,i可以为这两个图像中的第i个图像块所对应的图像区域。其中,公式(2)中的SSIM(xi,yi)的计算方式可以参见上述公式(1)。应当理解,对于上述两张图片(例如,图7所示的图像70a和图像70b)而言,若一张图片里的亮度和对比度的变化大于另一张图片里的亮度和对比度,那么,我们通过引入上述C1和C2可以分别降低这两张图片里的相应图像区域之间的亮度和对比度的差异性,这样,当计算两个图像的平均结构相似性(即MSSIM(X,Y))时,可以准确计算得到这两个图像中的对应图像区域之间的局部结构相似度。比如,本申请实施例可以使用大小为s×s、步长固定(例如,1)的滑动窗口,以及利用方差固定(例如,1.5)的高斯卷积核对两个图像中的每个图像区域计算得到上述SSIM(xi,yi),进而可以将M个SSIM(xi,yi)进行加权平均,以得到这两个图像的平均结构相似性。具体的,计算机设备可以在第一图像中,将由高斯卷积核平滑处理后的第i个图像区域作为第一处理区域,且在第二图像中,将由高斯卷积核平滑处理后的第i个图像区域作为第二处理区域;进而可以基于第一均值、第二均值、第一标准差、第二标准差、第一处理区域、第二处理区域,确定第一图像中的第i个图像区域与第二图像中的第i个图像区域之间的亮度对比因子、对比度对比因子和结构对比因子,进而可以基于亮度对比因子、对比度对比因子和结构对比因子,确定第一图像中的第i个图像区域与第二图像中的第i个图像区域之间的局部结构相似性。
由此可见,本申请实施例可以用两个图像之间的结构相似度来预先判断处于该小区或者校园中的目标对象是否移动,以及该目标对象的姿态是否具备多样性。可以理解的是,本申请实施例中的摄像终端可以为安装在上述第一地理区域中的AI摄像头,由于这里的AI摄像头是固定安装在该第一地理区域中,故而在使用该AI摄像头在上述采集时长内连续采集多张图像数据时,可以有效地避免摄像终端因设备移动、或者外界光照、亮度的变化而对该差异性指标所造成的影响。比如,这里的差异性太小则可以反映处于该第一地理区域中的目标对象尚未移动,当前准备输入目标网络模型的第二图像属于冗余图像;反之,若这里的差异性太大,则可以反映处于该第一地理区域中的目标对象可能处于奔跑或者打闹的状态,即当前准备输入该目标网络模型的第二图像可能是模糊的,因此不一定能作为该目标网络模型的输入信息。由此可见,本申请实施例可以使用上述公式(2)对待输入目标网络模型的图像进行过滤,以便于后续可以在执行步骤S103时,可以提取到更为准确的图像特征。
步骤S103,若结构相似度达到与目标网络模型相关联的业务期望条件,则将第二图像添加至模型输入序列,得到更新后的模型输入序列,在第二时刻时将第二图像输入目标网络模型,由目标网络模型输出与更新后的模型输入序列相关联的业务关键特征;
具体的,计算机设备可以获取与目标网络模型相关联的业务期望条件;业务期望条件中可以包含第一相似阈值(例如,β)和第二相似阈值(例如,β’);可以理解的是,这里的第一相似阈值可以小于第二相似阈值;进一步的,计算机设备可以在检测到结构相似度(即上述用于表征结构相似度的P)处于第一相似阈值与第二相似阈值所构成的相似阈值范围内时,即可以在β<P<β’时,确定结构相似度达到业务期望条件;进一步,计算机设备可以将第二图像添加至模型输入序列,以得到更新后的模型输入序列。与此同时,计算机设备可以在第二时刻时将第二图像输入目标网络模型,由目标网络模型对提取第二图像中的图像特征,将目标网络模型在第二时刻所提取到的图像特征作为目标图像特征;进一步的,计算机设备可以获取目标网络模型在截止到第一时刻时所提取到的隐藏图像特征,进而可以将隐藏图像特征作为模型输入序列对应的历史图像特征,并可以将历史图像特征和目标图像特征进行整合,以得到目标网络模型所输出的更新后的模型输入序列的业务关键特征。其中,第二时刻为第一时刻的下一输入时刻。
其中,可以理解的是,计算机设备在执行完上述步骤S102之后,可以得到上述目标图像序列中的第j帧包含目标对象的图像(即上述第二图像),与上一次输入目标网络模型(例如,上述具有记忆功能的RNN模型)的包含目标对象的图像(即上述第一图像)之间的结构相似度,为便于进行区别,本申请实施例可以将这里的第一图像与第二图像之间的结构相似度记为Pj,则:
(1)当计算机设备确定这里的Pj满足上述业务期望条件时,即β<Pj<β′时,该计算机设备可以将当前待输入目标网络模型的第二图像(例如,上述图2所对应实施例中的图像30c)作为上述目标网络模型(例如,RNN模型)的输入,以通过该RNN模型提取到该第二图像的图像特征,进而可以在第二时刻提取到的图像特征作为目标图像特征。
其中,可以理解的是,此时,计算机设备可以通过该RNN模型的记忆功能,获取到截止到上述第一时刻时所记忆到的隐藏图像特征,进而可以将获取到的隐藏图像特征作为模型输入序列(例如,上述图2所对应实施例中的模型输入序列200a)的历史图像特征。此时,计算机设备可以将最新提取到的图像特征(即目标图像特征)和历史提取到的图像特征(即前述历史图像特征)进行整合,以得到由该目标网络模型所输出的更新后的模型输入序列的业务关键特征。例如,本申请实施例可以将这里的历史图像特征和目标图像特征进行拼接,以拼接得到一个长向量。又比如,本申请实施例可以为这里的历史图像特征和目标图像特征按照时间衰减因子设置权重,比如,最新提取到的目标图像特征的权重可以大于历史提取到的历史图像特征,进而可以将加权处理后的图像特征作为上述业务关键特征。
(2)可选的,当计算机设备确定这里的Pj不满足上述业务期望条件时,即Pj<β时,该计算机设备可以确定该第二图像与上一张输入的第一图像之间的差别过大,比如,上述目标对象为动物(例如,上述小花猫)时,该动物可能处于奔跑的状态,故而可以在目标图像序列中结束确定该目标对象的移动轨迹,进而可以丢弃该第二图像,以避免获取到模糊的图像,这意味着计算机设备可以无需将该第二图像输入目标网络模型。此时,计算机设备可以利用上述RNN模型的记忆功能,获取截止到上述第一时刻时所提取到的隐藏图像特征,并可以将获取到的隐藏图像特征作为与当前的输入序列相关联的业务关键特征;进一步的,计算机设备可以基于业务关键特征获取模型输入序列的历史特征置信度,并可以在模型输入序列的历史特征置信度达到置信度指标时,继续执行下述步骤S104。
(3)可选的,当计算机设备确定这里的Pj不满足上述业务期望条件时,即β′<Pj时,该计算机设备可以确定该第二图像与上一张输入的第一图像之间的差别过小,此时,计算机设备可以确定该处于上述第一地理区域中的目标对象可能处于静止状态,为避免获取到冗余的图像,此时,计算机设备可以丢弃该第二图像,并可以继续从上述目标图像序列中等待获取下一帧图像(例如,第(j+1)帧图像),以将获取到的下一帧图像作为第三图像。为便于理解,本申请实施例可以将在目标图像序列中所获取到的第三图像作为新的第二图像,以便于后续可以跳转执行上述步骤S102,以计算第一图像与该新的第二图像之间的结构相似度。
由此可见,这里的目标图像序列中可以包括第三图像;且该第三图像可以为第二图像(即上述第j帧图像)的下一图像;这意味着当计算机设备检测到结构相似度大于第二相似阈值时,可以确定结构相似度未达到业务期望条件,进而可以根据大于第二相似阈值的结构相似度,丢弃从目标图像序列中获取到的第二图像,以便于后续可以从该目标图像序列中获取到第三图像,进而可以用第三图像更新第二图像。
步骤S104,基于业务关键特征和与第一地理区域相关联的特征数据库,确定目标对象所属的分类属性,基于分类属性生成与目标对象相关联的提醒信息。
具体的,计算机设备可以基于业务关键特征确定更新后的模型输入序列的目标特征置信度,当目标特征置信度达到置信度指标时,可以通过与目标网络模型相关联的分类预测模型,在与第一地理区域相关联的特征数据库中对业务关键特征进行特征匹配;进一步的,若计算机设备在特征数据库中未匹配到与业务关键特征相匹配的历史对象特征,则可以基于业务关键特征构建针对目标对象的目标对象档案;进而可以基于目标对象档案将由分类预测模型所预测到的目标对象所属的分类属性确定为新增属性;进一步的,计算机设备可以基于新增属性,将目标对象添加至第一地理位置区域对应的区域对象库,以在区域对象库中的对象数量达到对象阈值时,生成与目标对象相关联的提醒信息;提醒信息可以用于向该第一地理区域中的管理人员推送具备新增属性的目标对象。
可以理解的是,在本申请实施例中的计算机设备可以包括与安装了AI摄像头的摄像终端相连,具备一定计算能力的边缘计算设备、服务器、云服务器等。值得注意的是,在本申请实施例中,与该计算机设备相关联的摄像终端可以为同时运行在已安装人脸识别等功能的采集设备,即用户可以在无需单独采购新的设备情况下,即可以用这里的采集设备在对象识别场景为人脸识别场景下对包含人脸的图像的采集,还可以用这里的采集设备在对象识别场景为动物识别场景下对包含动物的图像进行采集,即该动物识别场下,该采集设备还可以对采集到的图像数据进行对象检测,以便于可以在确定好相应的识别场景(例如,动物识别场景)时,进一步利用上述计算机设备的计算能力进行特征提取和特征匹配。
可以理解的是,当计算机设备基于业务关键特征在与已有动物相关联的匹配特征库(即上述特征数据库)中,成功匹配到与业务关键特征相匹配的历史对象特征,则可以在特征数据库所映射的对象管理库中用业务关键特征更新匹配到的历史对象特征,比如,可以更新匹配到的已有动物的位置(例如,可以将匹配到这个动物的位置信息由历史的第二地理区域更新为当前的第一地理区域),又比如,可以更新匹配到的已有动物的图像(例如,可以将第二地理区域中所采集到的历史对象图像更新为当前的第二图像)等信息。
可选的,如果匹配失败,则表示该目标对象(例如,以动物为上述小花猫为例)是新出现在该第一地理区域的,则可以对新出现在该第一地理区域中的新增动物进行提醒、并建立针对该新增动物的档案。比如,本申请实施例可以在该第一地理区域所对应的区域对象库中的对象数量(比如,动物数量)达到对象阈值(例如,20只)时,生成与目标对象相关联的提醒信息;这里的提醒信息可以用于向第一地理区域中的管理人员推送具备新增属性的目标对象,以便于该管理人员可以根据该提醒信息对该第一地理区域中的动物进行管理。
其中,可以理解的是,本申请实施例可以将新建的动物档案统称为针对目标对象的目标对象档案。此外,可以理解的是,当该目标对象的分类属性属于新增属性时,还可以进一步在遗失对象库(例如,遗失动物库)中查找与这个目标对象的目标对象档案相匹配的遗失对象档案,进而可以在差值到该遗失对象档案时,确定该目标对象为该遗失对象档案中具备遗失对象属性的遗失对象,进而可以从该遗失对象档案中获取与目标对象相关联的对象遗失人员,进而可以基于遗失对象属性生成与目标对象相关联的通知信息;应当理解,这里的通知信息可以用于通知对象遗失人员在第一地理位置区域中存在具备遗失对象属性的目标对象,以便于可以帮助该对象遗失人员基于该通知信息及时地前往管理人员或者动物保护组织处领取该目标对象。可选的,本申请实施例还可以进一步对该目标对象进行品种识别,进而可以在识别到该目标对象的动物品种属于名贵品种时,进行实时的告警处理。其中,可以理解的是,这里的遗失动物库可以包含人工建立的动物档案,该人工建立的动物档案可以用于匹配新出现的流浪动物。另外,这里的对象管理库(例如,动物库)还可以接入、使用第三方平台的信息,也可以向第三方平台提供或者写入信息。比如,可以将识别出的流浪动物或者人等的图像或者视频发布到社交平台,进而可以实现图像信息的实时感知和识别,以及图像信息的自动发布。
进一步的,请参见图8,图8是本申请实施例提供的一种图像数据处理方法的流程示意图。其中,可以理解的是,本申请实施例提供的方法可以由计算机设备执行,这里的计算机设备包括但不限于摄像终端或服务器。为便于理解,本申请实施例以计算机为服务器为例,该服务器可以为上述图2所对应实施例中的服务器20a,如图8所示,该方法至少可以包括下述步骤S201-步骤S211;
步骤S201,获取由第一地理区域中的采集设备在采集时长内所采集到的原始视频数据,基于采集时长对原始视频数据进行序列化处理,得到原始视频数据对应的初始图像序列;
步骤S202,在初始图像序列中对包含目标对象的图像帧进行对象检测,将检测到的包含目标对象的图像帧作为第一类型图像帧,并在初始图像序列中将除第一类型图像帧之外的图像帧作为第二类型图像帧;
步骤S203,在初始图像序列中滤除第二类型图像帧,将滤除第二类型图像帧后的初始图像序列作为待处理视频序列;
其中,待处理视频序列中包含N个第一类型图像帧;一个第一类型图像帧中包含一个目标对象所属的图像区域;N为正整数;
步骤S204,从N个第一类型图像帧中截取包含目标对象的图像区域,以得到N个截图区域,基于N个截图区域的图像尺寸和目标网络模型的输入尺寸,构建位于第一地理区域中的目标对象的目标图像序列。
其中,步骤S201-步骤S204的具体实现方式,可以参见上述图3所对应实施例中对获取目标图像序列的具体过程的描述,这里将不再继续进行赘述。
步骤S205,获取位于第一地理区域中的目标对象的目标图像序列,获取目标网络模型对应的模型输入序列;
其中,模型输入序列中包含在第一时刻输入至目标网络模型的目标图像序列中的第一图像;
步骤S206,获取目标图像序列中的第二图像,确定第一图像与第二图像之间的结构相似度;
其中,第一图像与第二图像之间的结构相似度的计算方式,可以参见上述图3所对应实施例中对公式(1)和公式(2)的描述,这里将不再继续进行赘述。
步骤S207,若结构相似度达到与目标网络模型相关联的业务期望条件,则将第二图像添加至模型输入序列,得到更新后的模型输入序列,在第二时刻时将第二图像输入目标网络模型,由目标网络模型输出与更新后的模型输入序列相关联的业务关键特征;
其中,第二时刻为第一时刻的下一输入时刻;
其中,步骤S207的具体实现方式,可以参见上述图3所对应实施例中对获取业务关键特征的具体过程的描述,这里将不再继续进行赘述。
步骤S208,基于业务关键特征确定更新后的模型输入序列的目标特征置信度,当目标特征置信度达到置信度指标时,通过与目标网络模型相关联的分类预测模型,在与第一地理区域相关联的特征数据库中对业务关键特征进行特征匹配;
其中,可以理解的是,本申请实施例可以在该业务关键特征的目标特征置信度达到置信度指标时,将该业务关键特征作为特征检索模块的输入,进而可以通过特征检索模块在与第一地理区域相关联的特征数据库中对业务关键特征进行特征匹配,以便于后续可以在特征匹配失败的情况下,进一步执行下述步骤S209,或者在特征匹配成功的情况下,跳转执行步骤S212。
步骤S209,若在特征数据库中未匹配到与业务关键特征相匹配的历史对象特征,则基于业务关键特征构建针对目标对象的目标对象档案;
其中,可以理解的是,这里的动物档案可以包含新增的目标对象档案,还可以包含已经存在的历史对象档案。可以理解的是,这里的动物档案具体可以包括但不限于:该动物的一系列的图像或(和)抓拍视频、动物的历史位置或(和)活动轨迹、动物品种信息、动物特征等。此外,计算机设备还可以利用建立好的动物档案预估目标对象(例如,动物)生理状况、年龄等。
步骤S210,基于目标对象档案将由分类预测模型所预测到的目标对象所属的分类属性确定为新增属性;
步骤S211,基于新增属性,将目标对象添加至第一地理位置区域对应的区域对象库,在区域对象库中的对象数量达到对象阈值时,生成与目标对象相关联的提醒信息;提醒信息用于向第一地理区域中的管理人员推送具备新增属性的目标对象。
可选的,步骤S212,若在特征数据库中匹配到与业务关键特征相匹配的历史对象特征,则在特征数据库所映射的对象管理库中用业务关键特征更新匹配到的历史对象特征;
步骤S213,若更新后的历史对象特征所对应的第二图像的图像置信度大于对象管理库的图像质量指标,则在对象管理库中用第二图像更新历史对象特征对应的历史对象图像;
其中,历史对象图像可以为在不同于第一位置区域的第二位置区域所采集到的包含目标对象的图像;
步骤S214,基于第二位置区域和第一位置区域所构成的对象流动轨迹,将目标对象的地理位置信息由第二位置区域更新为第一位置区域,将目标对象所属的分类属性确定为流动对象属性;
步骤S215,确定具有流动对象属性的目标对象的品种属性,且在品种属性对应的品种置信度大于历史品种指标时,更新对象管理库对应的品种数据库。
为便于理解,进一步的,请参见图9,图9是本申请实施例提供的一种在动物识别场景下对动物进行动物检测、识别以及提醒的流程示意图。如图9所示,计算机设备可以通过执行步骤S21,以获取到摄像终端所上传的图像帧,这里的图像帧可以为上述原始视频数据。进一步的,如图9所示,计算机设备可以执行步骤S22,以对当前获取到的图像帧进行动物检测,进而在这些图像帧中输出包含目标对象(例如,动物)的动物框,此时,计算机设备可以进一步执行步骤S23,以从这些图像帧中裁剪出包含动物的动物图像。进一步的,计算机设备可以执行步骤S24,以便于可以将截取到的这些动物图像(即上述图3所对应实施例中的N个截图区域)与网络(这里指的是上述目标网络模型,例如,RNN模型或者CNN模型)的输入尺寸进行比较,进而可以从这些截取到的动物图像中将图像尺寸小于或者等于目标网络模型的输入尺寸的N1个截图区域所对应的图像作为待处理图像,以便于可以进一步执行图9所示的步骤S25,得到放大后的动物图像(即上述第二目标图像)。应当理解,可选的,计算机设备还可以将图像尺寸大于目标网络模型的输入尺寸的N2个截图区域所对应的图像作为第一目标图像。此时,计算机设备可以将基于第一目标图像和第二目标图像所构成的图像序列统称为上述目标图像序列。
如图9所示,计算机设备可以在得到目标图像序列时,进一步执行步骤S26,以从目标图像序列中遍历选取一张图像作为第二图像,从而可以将该第二图像与上一次输入网络(即上述目标网络模型)的动物图像(即上述第一图像)进行比较,以计算得到这两个图像之间的结构相似度。可以理解的是,计算机设备执行图9所示的步骤S27-步骤S29的具体实现方式可以参见上述图3所对应实施例中对结构相似度的描述,这里将不再继续进行赘述。进一步的,如图9所示,计算机设备在执行完步骤S30之后,可以进一步执行步骤S31-步骤S39,且步骤S31-步骤S39的具体实现方式可以参见上述图3所对应实施例中对新增动物的具体过程的描述,这里将不再继续进行赘述。可选的,应当理解,计算机设备在获取到步骤S30之后,还可以确定动物的特征质量未超过阈值,即计算机设备可以在上述目标特征置信度未达到置信度指标时,结束对该帧的处理,并可以清理为该帧所分配的临时分配空间,并可以报告针对该帧的耗时信息。可选的,计算机设备晒可以在上述目标特征置信度未达到置信度指标时,跳转执行步骤S21,以从目标图像序列中获取新的下一图像帧,以便于后续能够从目标图像序列中获取到具有更好图像质量的图像帧。
如图9所示,可选的,计算机设备在执行完步骤S32之后,还可以执行图9所示的步骤S40,即当计算机设备在动物特征库中匹配到与该业务关键特征相匹配的历史动物特征时,可以执行步骤S40,以便于后续可以执行步骤S41,以便于可以在上述目标图像序列中判断是否存在具有更高图像质量的图像,如图存在,则可以用当前的图像帧更新该历史对象特征所对应的历史对象图像。应当理解,如图9,计算机设备在执行完步骤S41之后,也可以跳转执行步骤S38-步骤S39,以便于后续可以对该目标对象的品种进行识别和更新。
其中,可以理解的是,该用于提取业务关键特征(即动物特征)的目标网络模型可以是由该计算机设备通过获取到的训练样本信息,对初始网络模型进行迭代训练后所得到的。为便于理解,进一步的,请参见图10,图10是本申请实施例提供的一种训练初始网络模型的场景示意图。如图10所示的训练样本1和训练样本2均可以为包含样本对象(例如,上述图2所对应实施例中的对象A,该对象A可以为上述名字叫做“小花”的小花猫)的训练样本信息。其中,训练样本1可以为身上干净的小花,训练样本2可以为身上有泥点的小花。比如,小花身上的毛发、花纹等会受到换毛、淋雨、污渍的影响,例如,小花的毛发会因为季节(换毛)、天气(淋湿不再蓬松)时会产生不同的状态。又比如,小花的体型会随着动物的成长而发生变化,比如,当小花在离开该第一地理区域一段时间后,又返回该第一地理区域时,将会增加对该小花进行识别的难度。基于此,为确保后续对需要识别的目标对象进行识别的准确性,本申请实施例提出可以在模型训练阶段中,使用域适应方法对图10所示的初始网络模型(例如,上述RNN模型)和具备域判别器的域判别模型进行训练,以使训练后的初始网络模型可以准确对目标对象的分类属性进行分类。其中,图10所示的初始网络模型可以用于提取训练样本信息中的目标对象的图像特征,图10所示的样本分类标签可以用于基于由该初始网络模型所提取到的样本关键特征对样本对象的分类属性进行分类处理。图10所示的域判别器可以用于对识别出的样本对象的来源进行判定。
其中,本申请实施例所涉及的域适应方法是为了解决已有数据和测试数据具有不同分布时神经网络识别不够准确的问题,为确保在模型应用阶段的特征提取网络(即目标网络模型)与分类网络(即分类预测模型)具有域适应性,本申请实施例可以通过图10所示的训练样本信息对初始网络模型和域判别器进行训练,以使训练后所得到的目标网络模型可以对目标对象(例如,小花)在不同状态(年龄变化、换毛、淋雨、污渍等)情况下所得到的动物的特征能更加接近。
这样,计算机设备可以通过训练好的目标网络模型识别出当前获取到身上有泥点的动物(目标对象)和特征数据库中所存储的已建立档案的已有动物属于同一对象,即均属于小花,此时,计算机设备在使用训练后的目标网络模型可以无需关注小花当前所处的状态所属的域判别标签的来源。
比如,在本申请实施例中,可以将建立档案的(有标签的)数据集记为S,并可以将未建立的、新采集的、无标签的数据集记为T,从而可以将这里的S和T映射到同一特征向量空间,这里的特征向量空间可以记为F。
比如,Gf:S∪T→F,这里的Gf可以为由图10所示的初始网络模型;又比如,Gd:F→{S,T},可以为图10所示的域判别器,这里的域判别器可以用于判别位于特征向量空间(即F)中的元素是从哪个域(即那个数据集)所映射得到的。应当理解,在模型训练阶段,模型训练的最终目的在于:使用图10所示的初始网络模型在进行特征检索与判别时,可以在特征检索准确的同时,使得域判别器无法区分这个特征是由哪个空间得到的。此时意味着具有特征提取和特征检索功能的目标网络模型与域判别器具有处理不同分布的数据的能力。此时,对于整个网络的损失函数(Loss)(分别为用如下公式(3)表示。
Loss=Ly(Gy(Gf(xi)),yi)*w1+Ld(Gd(Gf(xi)),di)*w2 公式(3);
其中,公式(3)中的xi可以为输入图10所示的初始网络模型的训练样本信息,公式(3)中Gf(xi)可以表示该初始网络模型所提取到的样本关键特征,公式(3)中Gy(Gf(xi)可以用于表示将该样本关键特征输入图10所示的标签预测器(也可以称之为分类预测模型)所预测得到的样本预测标签,公式(3)中yi为该训练样本信息的真实样本标签。由此可见,该目标网络模型与该标签预测器所构成的网络的损失函数(例如,损失函数1)可以为公式(3)中的Ly(Gy(Gf(xi)),yi)。
其中,该损失函数1的计算方式可以记为下述公式(4);
其中,如公式(4)所示,这里的损失函数1可以表示为通过该标签预测器所预测正确时的概率的倒数的对数。
其中,在初始网络模型与域判别器所构成的另一网络的损失函数(例如,损失函数2)而言,公式(3)中的xi可以为输入图10所示的初始网络模型的训练样本信息,公式(3)中Gf(xi)可以表示该初始网络模型所提取到的样本关键特征,公式(3)中Gd(Gf(xi)可以用于表示将该样本关键特征输入图10所示的域判别器所预测得到的域判别预测标签,公式(3)中di为该训练样本信息的真实域标签。由此可见,该目标网络模型与该标签预测器所构成的网络的损失函数(例如,损失函数2)可以为公式(3)中的Ld(Gd(Gf(xi)),di)。
其中,该损失函数2的计算方式可以记为下述公式(5);
其中,如公式(5)所示,这里,当且仅当对于任意xi∈S∪T,Gd(Gf(xi))=0.5时该损失函数2的值达到最小。如上述公式(3)所示,在模型训练阶段中,可以将这两个网络的损失函数进行线性组合,比如,损失函数1的权重可以为公式(3)中的w1,损失函数2的权重可以为公式(3)中的w2。这样既保证了图10所示的域判别器(也可以称之为域判别网络)尽可能无法区分图10所示的样本关键特征的来源,从而可以保证了特征判别网络(即图10所示的初始网络模型和标签预测模型所构成的网络)能尽可能得对该样本关键特征进行特征检索、以及特征匹配。由此可见,当采用训练后的初始网络模型和标签预测模型对目标对象进行预测时,可以通过上述结构相似度自适应的对输入目标网络模型的图像进行过滤和筛选,进而在通过目标网络模型进行特征提取之后,可以尽可能地提高对象识别的准确性。
进一步地,请参见图11,图11是本申请实施例提供的一种图像数据处理装置的结构示意图。上述图像数据处理装置1可以是运行于计算机设备中的一个计算机程序(包括程序代码),例如该图像数据处理装置1可以为一个应用软件;该装置可以用于执行本申请实施例提供的方法中的相应步骤。其中,该图像数据处理装置1可以包括:目标序列获取模块10、相似度确定模块20、关键特征确定模块30和提醒信息生成模块40;进一步的,该图像数据处理装置1还可以包括:原始数据采集模块50,对象检测模块60,图像帧滤除模块70,截取构建模块80。
目标序列获取模块10,用于获取位于第一地理区域中的目标对象的目标图像序列,获取目标网络模型对应的模型输入序列;模型输入序列中包含在第一时刻输入至目标网络模型的目标图像序列中的第一图像模型输入序列;
相似度确定模块20,用于获取所述目标图像序列中的第二图像,确定第一图像与第二图像之间的结构相似度;
相似度确定模块20包括:图像块划分单元201,第一参数确定单元202,第二参数确定单元203和相似性确定单元204;
图像块划分单元201,用于获取目标图像序列中的第二图像,通过滑动窗口分别将第一图像和第二图像划分为M个图像块,一个图像块对应一个图像区域;
第一参数确定单元202,用于当控制滑动窗口以单位滑动步长在第一图像上滑动时,在第一图像所包含的M个图像区域中遍历确定第一图像区域,在第一图像中,通过滑动窗口所关联的高斯卷积核确定第一图像区域中的像素点的第一关键参数;
第二参数确定单元203,用于当控制滑动窗口以单位滑动步长在第二图像上滑动时,在第二图像所包含的M个图像区域中遍历确定第二图像区域,在第二图像中,通过高斯卷积核确定第二图像区域中的像素点的第二关键参数;
相似性确定单元204,用于基于第一关键参数和第二关键参数,确定第一图像区域和第二图像区域之间的局部结构相似性,直到第一图像中的M个图像区域均被确定为第一图像区域,且第二图像中的M个图像区域均被确定为第二图像区域时,得到每个第一图像区域与对应第二图像区域之间的局部结构相似性,基于M个局部结构相似性确定第一图像和第二图像之间的结构相似度。
可选的,其中,第一图像区域为从第一图像中遍历获取到的第i个图像区域,第二图像区域为从第二图像中遍历获取到的第i个图像区域;i为小于或者等于M的正整数;
相似性确定单元204,具体用于从第一关键参数中获取与第一图像中的第i个图像区域相关联的第一均值和第一标准差,从第二关键参数中获取第二图像中的第i个图像区域相关联的第二均值和第二标准差;
相似性确定单元204,还具体用于在第一图像中,将由高斯卷积核平滑处理后的第i个图像区域作为第一处理区域,且在第二图像中,将由高斯卷积核平滑处理后的第i个图像区域作为第二处理区域;
相似性确定单元204,还具体用于基于第一均值、第二均值、第一标准差、第二标准差、第一处理区域、第二处理区域,确定第一图像中的第i个图像区域与第二图像中的第i个图像区域之间的亮度对比因子、对比度对比因子和结构对比因子;
相似性确定单元204,还具体用于基于亮度对比因子、对比度对比因子和结构对比因子,确定第一图像中的第i个图像区域与第二图像中的第i个图像区域之间的局部结构相似性。
其中,图像块划分单元201,第一参数确定单元202,第二参数确定单元203和相似性确定单元204的具体实现方式,可以参见上述图3所对应实施例中对步骤S102的描述,这里将不再继续进行赘述。
关键特征确定模块30,用于若结构相似度达到与目标网络模型相关联的业务期望条件,则基于第二图像更新模型输入序列,且在第二时刻时将第二图像输入目标网络模型,由目标网络模型输出与更新后的模型输入序列相关联的业务关键特征;第二时刻为第一时刻的下一输入时刻;
其中,关键特征确定模块30包括:期望条件获取单元301,期望条件达到单元302,特征提取单元303和特征整合单元304;可选的,关键特征确定模块30还包括:第一确定单元305,隐藏特征确定单元306,通知执行单元307,第二确定单元308,图像更新单元309;
期望条件获取单元301,用于获取与目标网络模型相关联的业务期望条件;业务期望条件中包含第一相似阈值和第二相似阈值;第一相似阈值小于第二相似阈值;
期望条件达到单元302,用于当检测到结构相似度处于第一相似阈值与第二相似阈值所构成的相似阈值范围内时,确定结构相似度达到业务期望条件;
特征提取单元303,用于将第二图像添加至模型输入序列,得到更新后的模型输入序列,在第二时刻时将第二图像输入目标网络模型,由目标网络模型对提取第二图像中的图像特征,将目标网络模型在第二时刻所提取到的图像特征作为目标图像特征;
特征整合单元304,用于获取目标网络模型在截止到第一时刻时所提取到的隐藏图像特征,将隐藏图像特征作为模型输入序列对应的历史图像特征,将历史图像特征和目标图像特征进行整合,得到目标网络模型所输出的更新后的模型输入序列的业务关键特征。
可选的,第一确定单元305,用于当检测到结构相似度小于第一相似阈值时,确定结构相似度未达到业务期望条件;
隐藏特征确定单元306,用于根据小于第一相似阈值的结构相似度,丢弃从目标图像序列中获取到的第二图像,将目标网络模型在截止到第一时刻时所提取到的隐藏图像特征,作为与输入序列相关联的业务关键特征,基于业务关键特征获取模型输入序列的历史特征置信度;
通知执行单元307,用于若模型输入序列的历史特征置信度达到置信度指标,则通知提醒信息生成模块40执行基于业务关键特征和与第一地理区域相关联的特征数据库,确定目标对象所属的分类属性,基于分类属性生成与目标对象相关联的提醒信息。
可选的,其中,目标图像序列中包括第三图像;第三图像为第二图像的下一图像;
第二确定单元308,用于当检测到结构相似度大于第二相似阈值时,确定结构相似度未达到业务期望条件;
图像更新单元309,用于根据大于第二相似阈值的结构相似度,丢弃从目标图像序列中获取到的第二图像,从目标图像序列中获取第三图像,用第三图像更新第二图像。
其中,期望条件获取单元301,期望条件达到单元302,特征提取单元303和特征整合单元304;可选的,关键特征确定模块30还包括:第一确定单元305,隐藏特征确定单元306,通知执行单元307,第二确定单元308,图像更新单元309的具体实现方式,可以参见上述图3所对应实施例中对步骤S103的描述,这里将不再继续进行赘述。
提醒信息生成模块40,用于基于业务关键特征和与第一地理区域相关联的特征数据库,确定目标对象所属的分类属性,基于分类属性生成与目标对象相关联的提醒信息。
其中,提醒信息生成模块40包括:置信度确定单元401,目标档案构建单元402,新增属性确定单元403和提醒信息生成单元404;可选的,提醒信息生成模块40还包括:档案查找单元405,遗失对象确定单元406,通知信息生成单元407,特征更新单元408,管理库更新单元409,地理位置更新单元410以及品种更新单元411;
置信度确定单元401,用于基于业务关键特征确定更新后的模型输入序列的目标特征置信度,当目标特征置信度达到置信度指标时,通过与目标网络模型相关联的分类预测模型,在与第一地理区域相关联的特征数据库中对业务关键特征进行特征匹配;
目标档案构建单元402,用于若在特征数据库中未匹配到与业务关键特征相匹配的历史对象特征,则基于业务关键特征构建针对目标对象的目标对象档案;
新增属性确定单元403,用于基于目标对象档案将由分类预测模型所预测到的目标对象所属的分类属性确定为新增属性;
提醒信息生成单元404,用于基于新增属性,将目标对象添加至第一地理位置区域对应的区域对象库,在区域对象库中的对象数量达到对象阈值时,生成与目标对象相关联的提醒信息;提醒信息用于向第一地理区域中的管理人员推送具备新增属性的目标对象。
其中,可选的,档案查找单元405,用于在目标对象所属的分类属性为新增属性时,在遗失对象库中查找与目标对象档案相匹配的遗失对象档案;
遗失对象确定单元406,用于若在遗失对象库中查找到与目标对象档案相匹配的遗失对象档案,则确定目标对象为在遗失对象档案中具备遗失对象属性的遗失对象;
通知信息生成单元407,用于从遗失对象档案中获取与目标对象相关联的对象遗失人员,基于遗失对象属性生成与目标对象相关联的通知信息;通知信息用于通知对象遗失人员在第一地理位置区域中存在具备遗失对象属性的目标对象。
其中,可选的,特征更新单元408,用于若在特征数据库中匹配到与业务关键特征相匹配的历史对象特征,则在特征数据库所映射的对象管理库中用业务关键特征更新匹配到的历史对象特征;
管理库更新单元409,用于若更新后的历史对象特征所对应的第二图像的图像置信度大于对象管理库的图像质量指标,则在对象管理库中用第二图像更新历史对象特征对应的历史对象图像;历史对象图像为在不同于第一位置区域的第二位置区域所采集到的包含目标对象的图像;
地理位置更新单元410,用于基于第二位置区域和第一位置区域所构成的对象流动轨迹,将目标对象的地理位置信息由第二位置区域更新为第一位置区域,将目标对象所属的分类属性确定为流动对象属性;
品种更新单元411,用于确定具有流动对象属性的目标对象的品种属性,且在品种属性对应的品种置信度大于历史品种指标时,更新对象管理库对应的品种数据库。
其中,置信度确定单元401,目标档案构建单元402,新增属性确定单元403,提醒信息生成单元404,档案查找单元405,遗失对象确定单元406,通知信息生成单元407,特征更新单元408,管理库更新单元409,地理位置更新单元410以及品种更新单元411的具体实现方式,可以参见上述图3所对应实施例中对步骤S104的描述,这里将不再继续进行赘述。
可选的,原始数据采集模块50,用于获取由第一地理区域中的采集设备在采集时长内所采集到的原始视频数据,基于采集时长对原始视频数据进行序列化处理,得到原始视频数据对应的初始图像序列;
对象检测模块60,用于在初始图像序列中对包含目标对象的图像帧进行对象检测,将检测到的包含目标对象的图像帧作为第一类型图像帧,并在初始图像序列中将除第一类型图像帧之外的图像帧作为第二类型图像帧;
图像帧滤除模块70,用于在初始图像序列中滤除第二类型图像帧,将滤除第二类型图像帧后的初始图像序列作为待处理视频序列;待处理视频序列中包含N个第一类型图像帧;一个第一类型图像帧中包含一个目标对象所属的图像区域;N为正整数;
截取构建模块80,用于从N个第一类型图像帧中截取包含目标对象的图像区域,以得到N个截图区域,基于N个截图区域的图像尺寸和目标网络模型的输入尺寸,构建位于第一地理区域中的目标对象的目标图像序列。
其中,截取构建模块80包括:尺寸比较单元801,图像确定单元802,图像放大单元803和序列构建单元804;
尺寸比较单元801,用于从N个第一类型图像帧中截取得到N个截图区域,将N个截图区域的图像尺寸与目标网络模型的输入尺寸进行比较,得到尺寸比较结果;
图像确定单元802,用于若尺寸比较结果指示N个截图区域的图像尺寸中存在小于或者等于目标网络模型的输入尺寸,则将图像尺寸小于或者等于目标网络模型的输入尺寸的N1个截图区域所对应的图像作为待处理图像,将图像尺寸大于目标网络模型的输入尺寸的N2个截图区域所对应的图像作为第一目标图像;N1与N2之间的和值为N;N1和N2均为整数;
图像放大单元803,用于通过超分辨率成像网络对待处理图像进行放大处理,将放大处理后的待处理图像确定为第二目标图像;
其中,图像放大单元803包括:网络获取子单元8031,卷积处理子单元8032,残差处理子单元8033和残差融合子单元8044;
网络获取子单元8031,用于获取超分辨率成像网络;超分辨率成像网络包含卷积层、r×r个残差层组和亚像素卷积层组;r为大于1的正整数;
卷积处理子单元8032,用于将待处理图像输入卷积层,由卷积层中的卷积核对待处理图像进行卷积处理,将卷积层所输出的卷积特征作为待处理图像的目标卷积特征;
残差处理子单元8033,用于将目标卷积特征输入r×r个残差层组,由r×r个残差层组分别对目标卷积特征进行残差处理,得到每个残差层组对应的目标残差特征;
残差融合子单元8034,将r×r个目标残差特征输入亚像素卷积层组,由亚像素卷积层组将r×r个目标残差特征进行融合处理,得到融合图像特征,将融合图像特征和目标卷积特征进行叠加处理,得到放大后的待处理图像,将放大后的待处理图像作为第二目标图像;第二目标图像中包含第二图像,且放大后的待处理图像的图像尺寸为待处理图像的图像尺寸的r倍。
其中,网络获取子单元8031,卷积处理子单元8032,残差处理子单元8033和残差融合子单元8044的具体实现方式,可以参见上述图3所对应实施例中对通过超分辨率成像网络放大图像的具体过程的描述,这里将不再继续进行赘述。
序列构建单元804,用于根据第一目标图像和第二目标图像分别在初始图像序列中的序列位置信息,构建位于第一地理区域中的目标对象的目标图像序列。
其中,尺寸比较单元801,图像确定单元802,图像放大单元803和序列构建单元804的具体实现方式,可以参见上述图3所对应实施例中对通过超分辨率成像网络构建目标图像序列的具体过程的描述,这里将不再继续进行赘述。
其中,目标序列获取模块10、相似度确定模块20、关键特征确定模块30和提醒信息生成模块40的具体实现方式,可以参见上述图3所对应实施例中对步骤S101-步骤S104的描述,这里将不再继续进行赘述;可选的,原始数据采集模块50,对象检测模块60,图像帧滤除模块70,截取构建模块80的具体实现方式,可以参见上述图3和图8所对应实施例中构建得到目标图像序列的具体过程的描述,这里将不再继续进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。
进一步地,请参见图12,图12是本申请实施例提供的一种计算机设备的示意图。如图12所示的计算机设备1000可以包括:至少一个处理器1001,例如CPU,至少一个网络接口1004,用户接口1003,存储器1005,至少一个通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。其中,网络接口1004可选地可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。存储器1005可选地还可以是至少一个位于远离前述处理器1001的存储装置。如图12所示,作为一种计算机存储介质的存储器1005可以包括操作系统、网络通信模块、用户接口模块以及设备控制应用程序。
在图12所示的计算机设备1000中,网络接口1004主要用于提供网络通信功能;而用户接口1003主要用于为用户提供输入的接口;而处理器1001可以用于调用存储器1005中存储的设备控制应用程序,以实现:
获取位于第一地理区域中的目标对象的目标图像序列,获取目标网络模型对应的模型输入序列;模型输入序列中包含在第一时刻输入至目标网络模型的目标图像序列中的第一图像模型输入序列;
获取目标图像序列中的第二图像,确定第一图像与第二图像之间的结构相似度;
若结构相似度达到与目标网络模型相关联的业务期望条件,则将第二图像添加至模型输入序列,得到更新后的模型输入序列,在第二时刻时将第二图像输入目标网络模型,由目标网络模型输出与更新后的模型输入序列相关联的业务关键特征;第二时刻为第一时刻的下一输入时刻;
基于业务关键特征和与第一地理区域相关联的特征数据库,确定目标对象所属的分类属性,基于分类属性生成与目标对象相关联的提醒信息。
应当理解,本申请实施例中所描述的计算机设备1000可执行前文图3或图8所对应实施例中对该图像数据处理方法的描述,也可执行前文图11所对应实施例中对该图像数据处理装置1的描述,在此不再赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。
此外,这里需要指出的是:本申请实施例还提供了一种计算机可读存储介质,且上述计算机可读存储介质中存储有前文提及的计算机设备1000所执行的计算机程序,且上述计算机程序包括程序指令,当上述处理器执行上述程序指令时,能够执行前文图3或图8所对应实施例中对上述图像数据处理方法的描述,因此,这里将不再进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。对于本申请所涉及的计算机可读存储介质实施例中未披露的技术细节,请参照本申请方法实施例的描述。
可以理解的是,本申请实施例还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行前文图3或者图8所对应实施例中对图像数据处理方法的描述,因此,这里将不再进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。对于本申请所涉及的计算机存储介质实施例中未披露的技术细节,请参照本申请方法实施例的描述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
以上所揭露的仅为本申请较佳实施例而已,当然不能以此来限定本申请之权利范围,因此依本申请权利要求所作的等同变化,仍属本申请所涵盖的范围。
Claims (15)
1.一种图像数据处理方法,其特征在于,包括:
获取位于第一地理区域中的目标对象的目标图像序列,获取目标网络模型对应的模型输入序列;所述模型输入序列中包含在第一时刻输入至所述目标网络模型的所述目标图像序列中的第一图像;
获取所述目标图像序列中的第二图像,确定所述第一图像与所述第二图像之间的结构相似度;
若所述结构相似度达到与所述目标网络模型相关联的业务期望条件,则将所述第二图像添加至所述模型输入序列,得到更新后的模型输入序列,在第二时刻时将所述第二图像输入所述目标网络模型,由所述目标网络模型输出与更新后的模型输入序列相关联的业务关键特征;所述第二时刻为所述第一时刻的下一输入时刻;
基于所述业务关键特征和与所述第一地理区域相关联的特征数据库,确定所述目标对象所属的分类属性,基于所述分类属性生成与所述目标对象相关联的提醒信息。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取由第一地理区域中的采集设备在采集时长内所采集到的原始视频数据,基于所述采集时长对所述原始视频数据进行序列化处理,得到所述原始视频数据对应的初始图像序列;
在所述初始图像序列中对包含目标对象的图像帧进行对象检测,将检测到的包含所述目标对象的图像帧作为第一类型图像帧,并在所述初始图像序列中将除所述第一类型图像帧之外的图像帧作为第二类型图像帧;
在所述初始图像序列中滤除所述第二类型图像帧,将滤除所述第二类型图像帧后的初始图像序列作为待处理视频序列;所述待处理视频序列中包含N个所述第一类型图像帧;一个第一类型图像帧中包含一个目标对象所属的图像区域;所述N为正整数;
从N个所述第一类型图像帧中截取包含所述目标对象的图像区域,以得到N个截图区域,基于所述N个截图区域的图像尺寸和目标网络模型的输入尺寸,构建位于所述第一地理区域中的所述目标对象的目标图像序列。
3.根据权利要求2所述的方法,其特征在于,所述从N个所述第一类型图像帧中截取包含所述目标对象的图像区域,以得到N个截图区域,基于所述N个截图区域的图像尺寸和目标网络模型的输入尺寸,构建位于所述第一地理区域中的所述目标对象的目标图像序列,包括:
从N个所述第一类型图像帧中截取得到N个截图区域,将所述N个截图区域的图像尺寸与目标网络模型的输入尺寸进行比较,得到尺寸比较结果;
若所述尺寸比较结果指示所述N个截图区域的图像尺寸中存在小于或者等于所述目标网络模型的输入尺寸,则将图像尺寸小于或者等于所述目标网络模型的输入尺寸的N1个截图区域所对应的图像作为待处理图像,将图像尺寸大于所述目标网络模型的输入尺寸的N2个截图区域所对应的图像作为第一目标图像;所述N1与所述N2之间的和值为所述N;所述N1和所述N2均为整数;
通过超分辨率成像网络对所述待处理图像进行放大处理,将放大处理后的待处理图像确定为第二目标图像;
根据所述第一目标图像和所述第二目标图像分别在所述初始图像序列中的序列位置信息,构建位于所述第一地理区域中的所述目标对象的目标图像序列。
4.根据权利要求3所述的方法,其特征在于,所述通过超分辨率成像网络对所述待处理图像进行放大处理,将放大处理后的待处理图像确定为第二目标图像,包括:
获取超分辨率成像网络;所述超分辨率成像网络包含卷积层、r×r个残差层组和亚像素卷积层组;所述r为大于1的正整数;
将所述待处理图像输入所述卷积层,由所述卷积层中的卷积核对所述待处理图像进行卷积处理,将所述卷积层所输出的卷积特征作为所述待处理图像的目标卷积特征;
将所述目标卷积特征输入所述r×r个残差层组,由所述r×r个残差层组分别对所述目标卷积特征进行残差处理,得到每个残差层组对应的目标残差特征;
将r×r个目标残差特征输入所述亚像素卷积层组,由所述亚像素卷积层组将所述r×r个目标残差特征进行融合处理,得到融合图像特征,将所述融合图像特征和所述目标卷积特征进行叠加处理,得到放大后的待处理图像,将所述放大后的待处理图像作为第二目标图像;所述第二目标图像中包含所述第二图像,且所述放大后的待处理图像的图像尺寸为所述待处理图像的图像尺寸的r倍。
5.根据权利要求1所述的方法,其特征在于,获取所述目标图像序列中的第二图像,所述确定所述第一图像与所述第二图像之间的结构相似度,包括:
获取所述目标图像序列中的第二图像,通过滑动窗口分别将所述第一图像和所述第二图像划分为M个图像块,一个图像块对应一个图像区域;
当控制所述滑动窗口以单位滑动步长在所述第一图像上滑动时,在所述第一图像所包含的M个图像区域中遍历确定第一图像区域,在所述第一图像中,通过所述滑动窗口所关联的高斯卷积核确定所述第一图像区域中的像素点的第一关键参数;
当控制所述滑动窗口以所述单位滑动步长在所述第二图像上滑动时,在所述第二图像所包含的M个图像区域中遍历确定第二图像区域,在所述第二图像中,通过所述高斯卷积核确定所述第二图像区域中的像素点的第二关键参数;
基于所述第一关键参数和所述第二关键参数,确定所述第一图像区域和所述第二图像区域之间的局部结构相似性,直到所述第一图像中的M个图像区域均被确定为第一图像区域,且第二图像中的M个图像区域均被确定为第二图像区域时,得到每个所述第一图像区域与对应第二图像区域之间的局部结构相似性,基于M个局部结构相似性确定所述第一图像和所述第二图像之间的结构相似度。
6.根据权利要求5所述的方法,其特征在于,所述第一图像区域为从所述第一图像中遍历获取到的第i个图像区域,所述第二图像区域为从所述第二图像中遍历获取到的第i个图像区域;所述i为小于或者等于所述M的正整数;
所述基于所述第一关键参数和所述第二关键参数,确定所述第一图像区域和所述第二图像区域之间的局部结构相似性,包括:
从所述第一关键参数中获取与所述第一图像中的第i个图像区域相关联的第一均值和第一标准差,从所述第二关键参数中获取所述第二图像中的第i个图像区域相关联的第二均值和第二标准差;
在所述第一图像中,将由所述高斯卷积核平滑处理后的第i个图像区域作为第一处理区域,且在所述第二图像中,将由所述高斯卷积核平滑处理后的第i个图像区域作为第二处理区域;
基于所述第一均值、所述第二均值、所述第一标准差、所述第二标准差、所述第一处理区域、所述第二处理区域,确定所述第一图像中的第i个图像区域与所述第二图像中的第i个图像区域之间的亮度对比因子、对比度对比因子和结构对比因子;
基于所述亮度对比因子、对比度对比因子和结构对比因子,确定所述第一图像中的第i个图像区域与所述第二图像中的第i个图像区域之间的局部结构相似性。
7.根据权利要求1所述的方法,其特征在于,所述若所述结构相似度达到与所述目标网络模型相关联的业务期望条件,则将所述第二图像添加至所述模型输入序列,得到更新后的模型输入序列,且在第二时刻时将所述第二图像输入所述目标网络模型,由所述目标网络模型输出与更新后的模型输入序列相关联的业务关键特征,包括:
获取与所述目标网络模型相关联的业务期望条件;所述业务期望条件中包含第一相似阈值和第二相似阈值;所述第一相似阈值小于所述第二相似阈值;
当检测到所述结构相似度处于所述第一相似阈值与所述第二相似阈值所构成的相似阈值范围内时,确定所述结构相似度达到所述业务期望条件;
将所述第二图像添加至所述模型输入序列,得到更新后的模型输入序列,在第二时刻时将所述第二图像输入所述目标网络模型,由所述目标网络模型对提取所述第二图像中的图像特征,将所述目标网络模型在所述第二时刻所提取到的图像特征作为目标图像特征;
获取所述目标网络模型在截止到所述第一时刻时所提取到的隐藏图像特征,将所述隐藏图像特征作为所述模型输入序列对应的历史图像特征,将所述历史图像特征和所述目标图像特征进行整合,得到所述目标网络模型所输出的更新后的模型输入序列的业务关键特征。
8.根据权利要求7所述的方法,其特征在于,所述方法还包括:
当检测到所述结构相似度小于所述第一相似阈值时,确定所述结构相似度未达到所述业务期望条件;
根据小于所述第一相似阈值的结构相似度,丢弃从所述目标图像序列中获取到的所述第二图像,将所述目标网络模型在截止到所述第一时刻时所提取到的隐藏图像特征,作为与所述输入序列相关联的业务关键特征,基于所述业务关键特征获取所述模型输入序列的历史特征置信度;
若所述模型输入序列的历史特征置信度达到置信度指标,则执行所述基于所述业务关键特征和与所述第一地理区域相关联的特征数据库,确定所述目标对象所属的分类属性,基于所述分类属性生成与所述目标对象相关联的提醒信息的步骤。
9.根据权利要求7所述的方法,其特征在于,所述目标图像序列中包括第三图像;所述第三图像为所述第二图像的下一图像;
所述方法还包括:
当检测到所述结构相似度大于所述第二相似阈值时,确定所述结构相似度未达到所述业务期望条件;
根据大于所述第二相似阈值的结构相似度,丢弃从所述目标图像序列中获取到的所述第二图像,从所述目标图像序列中获取所述第三图像,用所述第三图像更新所述第二图像;所述第三图像的图像尺寸大于目标网络模型的输入尺寸。
10.根据权利要求1所述的方法,其特征在于,所述基于所述业务关键特征和与所述第一地理区域相关联的特征数据库,确定所述目标对象所属的分类属性,基于所述分类属性生成与所述目标对象相关联的提醒信息,包括:
基于所述业务关键特征确定所述更新后的模型输入序列的目标特征置信度,当所述目标特征置信度达到置信度指标时,通过与所述目标网络模型相关联的分类预测模型,在与所述第一地理区域相关联的特征数据库中对所述业务关键特征进行特征匹配;
若在所述特征数据库中未匹配到与所述业务关键特征相匹配的历史对象特征,则基于所述业务关键特征构建针对所述目标对象的目标对象档案;
基于所述目标对象档案将由所述分类预测模型所预测到的所述目标对象所属的分类属性确定为新增属性;
基于所述新增属性,将所述目标对象添加至所述第一地理位置区域对应的区域对象库,在所述区域对象库中的对象数量达到对象阈值时,生成与所述目标对象相关联的提醒信息;所述提醒信息用于向所述第一地理区域中的管理人员推送具备所述新增属性的目标对象。
11.根据权利要求10所述的方法,其特征在于,所述方法还包括:
在所述目标对象所属的分类属性为所述新增属性时,在遗失对象库中查找与所述目标对象档案相匹配的遗失对象档案;
若在所述遗失对象库中查找到与所述目标对象档案相匹配的遗失对象档案,则确定所述目标对象为在所述遗失对象档案中具备遗失对象属性的遗失对象;
从所述遗失对象档案中获取与所述目标对象相关联的对象遗失人员,基于所述遗失对象属性生成与所述目标对象相关联的通知信息;所述通知信息用于通知所述对象遗失人员在所述第一地理位置区域中存在具备所述遗失对象属性的目标对象。
12.根据权利要求10所述的方法,其特征在于,所述方法还包括:
若在所述特征数据库中匹配到与所述业务关键特征相匹配的历史对象特征,则在所述特征数据库所映射的对象管理库中用所述业务关键特征更新匹配到的历史对象特征;
若更新后的历史对象特征所对应的第二图像的图像置信度大于所述对象管理库的图像质量指标,则在所述对象管理库中用所述第二图像更新所述历史对象特征对应的历史对象图像;所述历史对象图像为在不同于所述第一位置区域的第二位置区域所采集到的包含所述目标对象的图像;
基于所述第二位置区域和所述第一位置区域所构成的对象流动轨迹,将所述目标对象的地理位置信息由所述第二位置区域更新为所述第一位置区域,将所述目标对象所属的分类属性确定为流动对象属性;
确定具有所述流动对象属性的目标对象的品种属性,且在所述品种属性对应的品种置信度大于所述历史品种指标时,更新所述对象管理库对应的品种数据库。
13.一种图像数据处理装置,其特征在于,包括:
目标序列获取模块,用于获取位于第一地理区域中的目标对象的目标图像序列,获取目标网络模型对应的模型输入序列;所述模型输入序列中包含在第一时刻输入至所述目标网络模型的所述目标图像序列中的第一图像;
相似度确定模块,用于获取所述目标图像序列中的第二图像,确定所述第一图像与所述第二图像之间的结构相似度;
关键特征确定模块,用于若所述结构相似度达到与所述目标网络模型相关联的业务期望条件,则将所述第二图像添加至所述模型输入序列,得到更新后的模型输入序列,在第二时刻时将所述第二图像输入所述目标网络模型,由所述目标网络模型输出与更新后的模型输入序列相关联的业务关键特征;
提醒信息生成模块,用于基于所述业务关键特征和与所述第一地理区域相关联的特征数据库,确定所述目标对象所属的分类属性,基于所述分类属性生成与所述目标对象相关联的提醒信息。
14.一种计算机设备,其特征在于,包括:处理器和存储器;
所述处理器与存储器相连,其中,所述存储器用于存储计算机程序,所述处理器用于调用所述计算机程序,以执行如权利要求1-12任一项所述的方法。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时,执行如权利要求1-12任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011045569.1A CN112183353B (zh) | 2020-09-28 | 2020-09-28 | 一种图像数据处理方法、装置和相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011045569.1A CN112183353B (zh) | 2020-09-28 | 2020-09-28 | 一种图像数据处理方法、装置和相关设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112183353A true CN112183353A (zh) | 2021-01-05 |
CN112183353B CN112183353B (zh) | 2022-09-20 |
Family
ID=73945667
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011045569.1A Active CN112183353B (zh) | 2020-09-28 | 2020-09-28 | 一种图像数据处理方法、装置和相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112183353B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113284073A (zh) * | 2021-07-08 | 2021-08-20 | 腾讯科技(深圳)有限公司 | 一种图像修复方法、装置及存储介质 |
CN113506293A (zh) * | 2021-09-08 | 2021-10-15 | 成都数联云算科技有限公司 | 一种图像处理方法、装置、设备及存储介质 |
CN114299319A (zh) * | 2022-01-04 | 2022-04-08 | 深圳星月辰网络科技有限公司 | 一种大数据图像实时多维分析方法及系统 |
CN114943979A (zh) * | 2021-02-09 | 2022-08-26 | 孙民 | 健康照护系统和健康照护方法 |
WO2023029559A1 (zh) * | 2021-08-30 | 2023-03-09 | 华为技术有限公司 | 一种数据处理方法以及装置 |
CN116055900A (zh) * | 2023-03-30 | 2023-05-02 | 北京城建智控科技股份有限公司 | 一种基于摄像装置的图像质量修正方法 |
CN116628248A (zh) * | 2023-07-21 | 2023-08-22 | 合肥焕峰智能科技有限公司 | 一种智能设备采集图像数据处理方法 |
CN117528131A (zh) * | 2024-01-05 | 2024-02-06 | 青岛美迪康数字工程有限公司 | 一种医学影像的ai一体化显示系统及方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070217676A1 (en) * | 2006-03-15 | 2007-09-20 | Kristen Grauman | Pyramid match kernel and related techniques |
US20190087942A1 (en) * | 2013-03-13 | 2019-03-21 | Kofax, Inc. | Content-Based Object Detection, 3D Reconstruction, and Data Extraction from Digital Images |
CN110149553A (zh) * | 2019-05-10 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 图像的处理方法和装置、存储介质及电子装置 |
CN110569927A (zh) * | 2019-09-19 | 2019-12-13 | 浙江大搜车软件技术有限公司 | 移动端全景图像扫描提取的方法、终端和计算机设备 |
CN111241989A (zh) * | 2020-01-08 | 2020-06-05 | 腾讯科技(深圳)有限公司 | 图像识别方法及装置、电子设备 |
CN111259841A (zh) * | 2020-01-20 | 2020-06-09 | 深圳云天励飞技术有限公司 | 一种图像处理方法及相关设备 |
CN111524068A (zh) * | 2020-04-14 | 2020-08-11 | 长安大学 | 一种基于深度学习的变长输入超分辨率视频重建方法 |
CN111582006A (zh) * | 2019-02-19 | 2020-08-25 | 杭州海康威视数字技术股份有限公司 | 一种视频分析方法及装置 |
-
2020
- 2020-09-28 CN CN202011045569.1A patent/CN112183353B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070217676A1 (en) * | 2006-03-15 | 2007-09-20 | Kristen Grauman | Pyramid match kernel and related techniques |
US20190087942A1 (en) * | 2013-03-13 | 2019-03-21 | Kofax, Inc. | Content-Based Object Detection, 3D Reconstruction, and Data Extraction from Digital Images |
CN111582006A (zh) * | 2019-02-19 | 2020-08-25 | 杭州海康威视数字技术股份有限公司 | 一种视频分析方法及装置 |
CN110149553A (zh) * | 2019-05-10 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 图像的处理方法和装置、存储介质及电子装置 |
CN110569927A (zh) * | 2019-09-19 | 2019-12-13 | 浙江大搜车软件技术有限公司 | 移动端全景图像扫描提取的方法、终端和计算机设备 |
CN111241989A (zh) * | 2020-01-08 | 2020-06-05 | 腾讯科技(深圳)有限公司 | 图像识别方法及装置、电子设备 |
CN111259841A (zh) * | 2020-01-20 | 2020-06-09 | 深圳云天励飞技术有限公司 | 一种图像处理方法及相关设备 |
CN111524068A (zh) * | 2020-04-14 | 2020-08-11 | 长安大学 | 一种基于深度学习的变长输入超分辨率视频重建方法 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114943979A (zh) * | 2021-02-09 | 2022-08-26 | 孙民 | 健康照护系统和健康照护方法 |
CN113284073A (zh) * | 2021-07-08 | 2021-08-20 | 腾讯科技(深圳)有限公司 | 一种图像修复方法、装置及存储介质 |
WO2023029559A1 (zh) * | 2021-08-30 | 2023-03-09 | 华为技术有限公司 | 一种数据处理方法以及装置 |
CN113506293A (zh) * | 2021-09-08 | 2021-10-15 | 成都数联云算科技有限公司 | 一种图像处理方法、装置、设备及存储介质 |
CN113506293B (zh) * | 2021-09-08 | 2021-12-07 | 成都数联云算科技有限公司 | 一种图像处理方法、装置、设备及存储介质 |
CN114299319A (zh) * | 2022-01-04 | 2022-04-08 | 深圳星月辰网络科技有限公司 | 一种大数据图像实时多维分析方法及系统 |
CN116055900A (zh) * | 2023-03-30 | 2023-05-02 | 北京城建智控科技股份有限公司 | 一种基于摄像装置的图像质量修正方法 |
CN116055900B (zh) * | 2023-03-30 | 2023-06-09 | 北京城建智控科技股份有限公司 | 一种基于摄像装置的图像质量修正方法 |
CN116628248A (zh) * | 2023-07-21 | 2023-08-22 | 合肥焕峰智能科技有限公司 | 一种智能设备采集图像数据处理方法 |
CN116628248B (zh) * | 2023-07-21 | 2023-09-26 | 合肥焕峰智能科技有限公司 | 一种智能设备采集图像数据处理方法 |
CN117528131A (zh) * | 2024-01-05 | 2024-02-06 | 青岛美迪康数字工程有限公司 | 一种医学影像的ai一体化显示系统及方法 |
CN117528131B (zh) * | 2024-01-05 | 2024-04-05 | 青岛美迪康数字工程有限公司 | 一种医学影像的ai一体化显示系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112183353B (zh) | 2022-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112183353B (zh) | 一种图像数据处理方法、装置和相关设备 | |
Beery et al. | Context r-cnn: Long term temporal context for per-camera object detection | |
KR101897923B1 (ko) | 신경망 학습 모델 기반 추적 객체 추출 서비스 제공 시스템, 이의 방법, 그리고 이 방법을 저장한 컴퓨터 판독 가능 저장 매체 | |
CN104303193B (zh) | 基于聚类的目标分类 | |
CN110210276A (zh) | 一种移动轨迹获取方法及其设备、存储介质、终端 | |
US8855369B2 (en) | Self learning face recognition using depth based tracking for database generation and update | |
CN111222373B (zh) | 一种人员行为分析方法、装置和电子设备 | |
WO2012073421A1 (ja) | 画像分類装置、画像分類方法、プログラム、記録媒体、集積回路、モデル作成装置 | |
CN112312087B (zh) | 一种在长时监控视频中快速定位事件发生时刻的方法及其系统 | |
CN110889334A (zh) | 人员闯入识别方法及装置 | |
CN109063667B (zh) | 一种基于场景的视频识别方式优化及推送方法 | |
KR102296274B1 (ko) | 사용자 학습 기반 딥러닝 객체 인식 서비스 제공 방법 | |
KR102333143B1 (ko) | 무인 계수 서비스 제공 시스템 | |
CN111402298A (zh) | 基于目标检测与轨迹分析的粮库视频数据压缩方法 | |
CN111401215A (zh) | 一种多类别目标检测的方法及系统 | |
CN111445442B (zh) | 基于神经网络的人群计数方法、装置、服务器及存储介质 | |
CN113313098B (zh) | 视频处理方法、设备、系统及存储介质 | |
CN109002808B (zh) | 一种人体行为识别方法及系统 | |
US20240111835A1 (en) | Object detection systems and methods including an object detection model using a tailored training dataset | |
US11532158B2 (en) | Methods and systems for customized image and video analysis | |
CN115953650B (zh) | 特征融合模型的训练方法和装置 | |
CN116824641A (zh) | 姿态分类方法、装置、设备和计算机存储介质 | |
KR102584708B1 (ko) | 과소 및 과밀 환경을 지원하는 군중위험관리시스템 및 방법 | |
CN113297514A (zh) | 图像处理方法、装置、电子设备和计算机存储介质 | |
CN111666983A (zh) | 标注异常行为的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40037366 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |