CN116503622A - 基于计算机视觉图像的数据采集读取方法 - Google Patents
基于计算机视觉图像的数据采集读取方法 Download PDFInfo
- Publication number
- CN116503622A CN116503622A CN202310402614.1A CN202310402614A CN116503622A CN 116503622 A CN116503622 A CN 116503622A CN 202310402614 A CN202310402614 A CN 202310402614A CN 116503622 A CN116503622 A CN 116503622A
- Authority
- CN
- China
- Prior art keywords
- information
- image
- image information
- similarity
- shooting angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 239000013598 vector Substances 0.000 claims description 77
- 238000004364 calculation method Methods 0.000 claims description 55
- 238000012549 training Methods 0.000 claims description 43
- 238000000605 extraction Methods 0.000 claims description 37
- 238000012360 testing method Methods 0.000 claims description 32
- 230000009467 reduction Effects 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 21
- 238000012937 correction Methods 0.000 claims description 17
- 238000002372 labelling Methods 0.000 claims description 12
- 230000000295 complement effect Effects 0.000 claims description 8
- 238000013519 translation Methods 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 230000007306 turnover Effects 0.000 claims description 6
- 238000005520 cutting process Methods 0.000 claims description 5
- 230000001154 acute effect Effects 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 230000008859 change Effects 0.000 description 8
- 230000009466 transformation Effects 0.000 description 7
- 238000010276 construction Methods 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000035945 sensitivity Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 238000004091 panning Methods 0.000 description 3
- 241000009328 Perro Species 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000011524 similarity measure Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/242—Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/72—Data preparation, e.g. statistical preprocessing of image or video features
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
Abstract
本发明涉及图像数据的采集读取技术领域,尤其涉及一种基于计算机视觉图像的数据采集读取方法。该方法包括以下步骤:获取目标识别任务信息,并控制摄像头以初级拍摄角度进行图像采集作业,从而获取图像信息;通过初步图像识别模型对图像信息进行识别,从而获得初步图像识别信息;利用相似度公式对初步图像识别信息与目标识别任务信息中的目标描述信息进行比对计算,从而获得相似度系数;判断相似度系数是否大于或等于预设的相似度阈值信息;确定相似度系数大于或等于预设的相似度阈值信息时,则根据图像信息通过精准图像识别模型进行识别,从而获得精准图像识别信息。本发明通过计算机视觉图像识别自动采集数据,提高数据采集的效率和准确性。
Description
技术领域
本发明涉及图像数据的采集读取技术领域,尤其涉及一种基于计算机视觉图像的数据采集读取方法。
背景技术
基于计算机视觉图像的数据采集读取方法是指利用计算机视觉技术对图像或视频进行识别和分类,并将其作为数据源进行采集和整理。这种方法在很多领域都有着广泛的应用,如智能监控、自动驾驶、人脸识别等。传统的执行计算机视觉图像识别需要大量人工参与,费时费力。而基于计算机视觉图像的数据采集读取方法可以实现自动化,节省人力成本,提高数据采集效率,常规的基于计算机视觉图像的数据采集读取方法往往采用人工智能技术结合,基于计算机视觉图像的数据采集读取方法需要同时处理大量的图像或视频数据,支持高并发、大规模的数据采集需求,对计算设备要求负荷较大,从而导致成本高,运算结果较慢。
发明内容
本发明为解决上述技术问题,提出了一种基于计算机视觉图像的数据采集读取方法,以解决至少一个上述技术问题。
本申请提供一种基于计算机视觉图像的数据采集读取方法,包括以下步骤:
步骤S1:获取目标识别任务信息,并控制摄像头以初级拍摄角度进行图像采集作业,从而获取图像信息;
步骤S2:通过初步图像识别模型对图像信息进行识别,从而获得初步图像识别信息;
步骤S3:利用相似度公式对初步图像识别信息与目标识别任务信息中的目标描述信息进行比对计算,从而获得相似度系数;
步骤S4:判断相似度系数是否大于或等于预设的相似度阈值信息;
步骤S5:确定相似度系数小于预设的相似度阈值信息时,则返回步骤S1并调整次级拍摄角度;
步骤S6:确定相似度系数大于或等于预设的相似度阈值信息时,则根据图像信息通过精准图像识别模型进行识别,从而获得精准图像识别信息。
该技术可以通过计算机视觉图像识别自动采集数据,提高数据采集的效率和准确性。同时,该方法可以根据预设的相似度阈值信息来控制摄像头拍摄角度,使得采集到的图像更具有代表性和可比性,通过使用初步图像识别模型和相似度公式,可以快速筛选出符合目标识别任务要求的图像,提高了识别的准确性和效率。
在本说明书的一个实施例中,初级图像信息包括第一图像信息以及第二图像信息,初级拍摄角度包括第一拍摄角度以及第二拍摄角度,步骤S1具体为:
步骤S11:获取目标识别任务信息;
步骤S12:控制第一摄像头以第一采集频率通过第一摄像角度进行拍摄作业,从而获得第一图像信息;
步骤S13:控制第二摄像头以第二采集频率通过第二摄像角度进行拍摄作业,从而获得第二图像信息,其中第一采集频率与第二采集频率为不同的采集频率,第一摄像角度与第二拍摄角度之间的夹角为锐角。
本实施例使用初级拍摄角度进行图像采集,可以减少采集成本和时间,并且避免复杂场景下的噪声和干扰,能够更加快速地获取目标对象的图像信息。使用初步图像识别模型对图像信息进行预处理,能够有效地筛选出目标对象,提高数据采集的效率和准确性。利用相似度公式进行相似度比对计算,能够量化表达初步图像识别信息与目标识别任务信息中的目标描述信息之间的相似程度,从而判断图像是否符合要求,避免大量无效数据的产生。同时,设定预设的相似度阈值,能够根据实际需要灵活调整识别的敏感度和精度,提高数据采集的准确性和完整性。根据相似度系数与预设的相似度阈值进行比较,确定图像是否符合要求。当相似度系数小于预设的相似度阈值时,进行次级拍摄角度的调整,从而进一步提高数据采集的准确性和完整性。当相似度系数大于或等于预设的相似度阈值时,采用精准图像识别模型进行图像识别,能够获得更加准确和精细的图像识别信息,为后续的分析和应用提供更加有价值的数据支持,本实施例的基于计算机视觉图像的数据采集读取方法具有高效、准确和灵活的特点,能够快速地从复杂场景中获取符合要求的数据,并为后续的分析和应用提供更加优质的数据资源。
在本说明书的一个实施例中,步骤S2中初步图像识别模型的构建步骤具体为:
步骤S21:获取图像信息;
步骤S22:根据图像信息进行图像标注,从而获取标注图像信息;
步骤S23:根据标注图像信息进行优化误差划分,从而获得训练图像信息以及测试图像信息;
步骤S24:根据训练图像信息进行数据增强,从而获得增强图像信息;
步骤S25:根据增强图像信息通过预设的特征提取器进行特征提取,从而获得特征信息;
步骤S26:根据特征信息进行最小代价降维计算,从而获得降维特征信息;
步骤S27:根据降维特征信息进行分类器构建,从而构建识别分类器;
步骤S28:根据测试图像信息对识别分类器进行迭代识别修正,从而获得初步图像识别模型。
本实施例的初步图像识别模型构建步骤可以提高图像识别的准确性和稳定性,通过数据增强、特征提取以及最小代价降维计算等技术手段,能够有效地从原始图像信息中提取出更加鲁棒和有用的特征信息,进而构建出更加有效的图像识别分类器。所描述的图像识别模型构建步骤,通过数据增强、特征提取和最小代价降维计算的操作,可以有效提高初步图像识别模型的精度和鲁棒性。此外,迭代识别修正也有助于进一步提升模型的准确性和可靠性。
在本说明书的一个实施例中,步骤S22具体为:
步骤S221:根据图像信息进行边缘提取,从而获得边缘图像信息;
步骤S222:根据边缘图像信息进行区域划分,从而获得划分区域信息,其中划分区域信息包括区域像素量数据以及区域位置信息;
步骤S223:根据划分区域信息进行提取框生成,从而生成图像提取框;
步骤S224:根据图像提取框对图像信息进行图像提取,从而获得提取图像信息,其中提取图像信息包括提取图像位置信息以及提取图像区域信息;
步骤S225:根据提取图像信息进行特征提取,从而获得图像特征信息,其中图像特征信息包括色彩图像特征、纹理图像特征以及形状图像特征;
步骤S226:根据图像特征信息以及提取图像区域信息进行语义提取,从而获得图像描述信息,其中图像描述信息包括图像描述坐标信息、图像色彩描述信息、图像纹理描述信息以及图像形状描述信息;
步骤S227:根据图像描述信息对图像信息进行图像标注,从而获得标注图像信息。
本实施例所描述的图像标注方法,通过边缘提取、区域划分、提取框生成等操作,可以自动化地对图像进行精细化的划分和标注,能够更加准确地提取出图像的特征信息,并且获得更加详细、全面的图像描述信息。通过使用这种方法进行图像标注,可以大大提高图像识别模型的训练效率和模型精度,同时减少了人工标注的时间和劳动成本。
在本说明书的一个实施例中,步骤S225具体为:
步骤S2251:根据提取图像信息进行像素点统计计算,从而获得色彩图像特征,其中色彩图像特征包括像素平均色彩信息、像素最大色彩信息以及像素颜色直方图信息,像素平均色彩信息包括像素平均红色信息、像素平均绿色信息以及像素平均蓝色信息;
步骤S2252:根据提取图像信息进行纹理特征提取,从而生成纹理图像特征;
步骤S2253:根据提取图像信息进行形状图像特征提取,从而获得形状图像特征。
本实施例中色彩图像特征提取能够准确描述图像中的颜色信息,包括平均色彩信息、最大色彩信息以及颜色直方图信息等,这些信息对于识别和分类彩色图像非常重要;纹理特征提取能够捕捉到图像中的细节和纹理信息,获得与图像纹理相关的特征信息,提高了图像识别模型的鲁棒性;形状特征提取能够描绘图像的几何形状和轮廓,可以为模型提供更加精细化的特征信息。
在本说明书的一个实施例中,标注图像信息包括标注信息,标注信息包括颜色标注信息、纹理标注信息以及图像形状标注信息,训练图像信息包括训练颜色图像信息、训练纹理图像信息以及训练形状图像信息,测试图像信息包括测试颜色图像信息、测试纹理图像信息以及测试形状图像信息;步骤S23具体为:
步骤S231:根据颜色标注信息对标注图像信息通过预设的划分比例进行随机划分,从而获得训练颜色图像信息以及测试颜色图像信息;
步骤S232:根据纹理标注信息对标注图像信息通过预设的划分比例进行随机划分,从而获得训练纹理图像信息以及测试纹理图像信息;
步骤S233:根据形状标注信息对标注图像信息通过预设的划分比例进行随机划分,从而获得训练形状图像信息以及测试形状图像信息。
本实施例针对不同的特征信息进行随机划分,可以提高模型在各个方面的泛化能力和鲁棒性,使得模型更加稳定可靠,通过随机划分,可以构建更加完整、多样化的图像数据集,提高了模型的训练效率和精度,有助于克服过拟合和欠拟合等问题,对于给定的图像数据集,使用不同的特征信息进行划分,可以生成多个独立的测试集,从而可以更加客观地评估模型的性能,提高了模型的可比性和可靠性。
在本说明书的一个实施例中,步骤S24具体为:
步骤S241:根据训练图像信息通过预设的阈值角度进行随机旋转,从而获得旋转图像信息;
步骤S242:对翻转图像信息进行随机缩放处理,从而获得缩放图像信息;
步骤S243:对缩放图像信息进行随机平移处理,生成平移图像信息;
步骤S244:对平移图像信息进行随机翻转处理,从而获得翻转图像信息;
步骤S245:根据翻转图像信息中的标注信息对翻转图像信息进行剪裁,获得剪裁图像信息;
步骤S246:对剪裁图像信息进行随机变形处理,从而获得增强图像信息。
本实施例通过随机旋转图像,可以使模型更好地学习到不同角度下的物体表现,避免出现只对固定角度下物体进行识别的情况,提高模型的旋转不变性;通过随机缩放处理,可以模拟远近距离下物体的表现,增加模型对尺度变化的适应性;通过随机平移处理,可以模拟物体在图像中的位置变换,增加模型对位置变化的适应性;通过随机翻转处理,可以增加模型对左右翻转的镜像变换的鲁棒性;通过剪裁处理,可以去除图像背景噪声,保留关键目标信息,并可以提高模型对目标形变的适应性;通过随机变形处理,可以增加模型对目标形变的适应性,并且可以进一步丰富训练数据的多样性。
在本说明书的一个实施例中,步骤S26具体为:
对特征信息进行均方根计算,从而获得特征均方根信息;
根据特征均方根信息对特征信息进行降维计算,从而获得降维特征信息。
本实施例通过对特征信息进行均方根计算,可以将原始的高维特征信息转换为一维的特征均方根信息,这种一维信息的表示方式既能够保留原始特征信息的重要性,又可以减少特征信息的冗余和噪声,从而提高特征信息的质量和稳定性;通过对特征均方根信息进行降维计算,可以将高维特征信息压缩成低维特征信息。这样做的好处是能够减少特征信息的维度,从而减少计算复杂度,提高模型的计算效率,并且能够抑制不必要的维度噪声和过拟合。
在本说明书的一个实施例中,步骤S13具体为:
步骤S131:将目标识别任务信息进行描述语言转化,从而获得目标描述信息;
步骤S132:根据目标描述信息进行向量化,从而获得目标描述向量;
步骤S133:根据初步图像识别信息进行向量化,从而获得初步图像识别向量;
步骤S134:根据初步图像识别向量以及目标描述向量进行相似度计算,从而获得相似度系数。
本实施例通过将目标识别任务信息进行描述语言转化,可以将自然语言的描述信息转换为机器识别的目标描述信息,从而更加准确地表达目标的特征和属性;通过将目标描述信息和初步图像识别信息分别进行向量化,可以将它们都表示为数学上的向量形式,方便进行后续的相似度计算;通过利用向量化后的目标描述向量和初步图像识别向量进行相似度计算,可以得到一个数值化的相似度系数,该系数反映了目标描述信息和初步图像识别信息之间的相似程度。根据该系数可以进一步确定目标的分类和识别结果。
在本说明书的一个实施例中,相似度计算通过相似度计算公式进行计算,其中相似度计算公式具体为:
L为相似度系数,αi为初步图像识别向量中第i个数据的调整系数,ai为初步图像识别向量中第i个数据,βi为目标描述向量中第i个数据的调整系数,bi为目标描述向量中第i个数据,q为相似度系数偏移项,g为相似度系数的缩放系数,w为相似度系数的初始项,m为误差修正项,k为相似度系数调整指数,为初步图像识别向量中数据平均值,/>为目标描述向量中数据平均值,r为误差调整项,∈为相似度系数的修正项。
本实施例提供一种相似度计算公式,该公式充分考虑了初步图像识别向量中第i个数据的调整系数αi、初步图像识别向量中第i个数据ai、目标描述向量中第i个数据的调整系数βi、目标描述向量中第i个数据bi、相似度系数偏移项q、相似度系数的缩放系数g、相似度系数的初始项w、误差修正项m、相似度系数调整指数k、初步图像识别向量中数据平均值目标描述向量中数据平均值/>误差调整项r以及相互之间的作用关系,从而形成函数关系/>αi以及ai用于调整初步图像识别向量中第i个数据的权重和值,反映了该特征对于相似度计算的贡献程度,βi以及bi用于调整目标描述向量中第i个数据的权重和值,反映了该特征对于相似度计算的贡献程度,相似度系数偏移项q用于平移相似度曲线,增加样本之间相似度的差异性,相似度系数的缩放系数g用于控制相似度曲线的斜率和变化速度,从而更好地表达样本之间的相似关系,相似度系数的初始项w用于保证相似度计算公式的初始值为正数,避免出现负值的情况,/>以及/>分别是初步图像识别向量和目标描述向量的均值,用于控制相似度计算中的基准线,r用于校正相似度计算中可能存在的误差,提高相似度计算的鲁棒性,并通过相似度系数的修正项∈进行修正,从而更好地计算初步图像识别向量和目标描述向量之间的相似度系数,从而提高模型的识别准确率和性能表现。
在本说明书的一个实施例中,次级拍摄角度包括第三拍摄角度以及第四拍摄角度,步骤S15具体为:
确定相似度系数小于预设的相似度阈值信息时,则将第一摄像角度调整至第三摄像角度,并将第二摄像角度调整为第四摄像角度,其中第一摄像角度与第三摄像角度互余,第二摄像角度与第四摄像角度互余。
本实施例,在实际场景中,由于多个摄像头的位置和角度不同,可能导致拍摄到的图像存在视角变化,从而影响识别精度。为了解决这个问题,可以在不同角度和位置拍摄多张图像,然后进行角度和位置的调整,从而提高图像识别的准确性和可靠性;如果相似度系数小于预设的相似度阈值信息,即第一次拍摄的图像与数据库中的图像不够相似,则将第一摄像头的角度调整为第三摄像头的角度,将第二摄像头的角度调整为第四摄像头的角度。这样调整后,可以得到新的拍摄图像,使得视角与数据库中的图像更加相似,从而提高了图像识别的准确性和可靠性。
本发明通过初级拍摄角度进行图像采集,可以减少采集成本和时间,并且避免复杂场景下的噪声和干扰;利用初步图像识别模型对图像信息进行快速预处理,能够有效地筛选出目标对象,提高数据采集的效率和准确性;引入相似度公式进行相似度比对计算,能够量化表达初步图像识别信息与目标识别任务信息中的目标描述信息之间的相似程度,从而判断图像是否符合要求,避免大量无效数据的产生;设定预设的相似度阈值,能够根据实际需要灵活调整识别的敏感度和精度;在相似度系数小于预设的相似度阈值时,进行次级拍摄角度的调整,从而进一步提高数据采集的准确性和完整性;采用精准图像识别模型进行图像识别,能够获得更加准确和精细的图像识别信息,为后续的分析和应用提供更加有价值的数据支持。
附图说明
通过阅读参照以下附图所作的对非限制性实施所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1示出了一实施例的一种基于计算机视觉图像的数据采集读取方法的步骤流程图;
图2示出了一实施例的一种图像采集方法的步骤流程图;
图3示出了一实施例的初步图像识别模型构建方法的步骤流程图;
图4示出了一实施例的一种标注图像信息获取方法的步骤流程图;
图5示出了一实施例的一种图像特征信息获取方法的步骤流程图;
图6示出了一实施例的一种图像集优化误差划分方法的步骤流程图;
图7示出了一实施例的一种图像增强方法的步骤流程图;
图8示出了一实施例的一种相似度系数获取方法的步骤流程图。
具体实施方式
下面结合附图对本发明专利的技术方法进行清楚、完整的描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域所属的技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
此外,附图仅为本发明的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器方法和/或微控制器方法中实现这些功能实体。
应当理解的是,虽然在这里可能使用了术语“第一”、“第二”等等来描述各个单元,但是这些单元不应当受这些术语限制。使用这些术语仅仅是为了将一个单元与另一个单元进行区分。举例来说,在不背离示例性实施例的范围的情况下,第一单元可以被称为第二单元,并且类似地第二单元可以被称为第一单元。这里所使用的术语“和/或”包括其中一个或更多所列出的相关联项目的任意和所有组合。
请参阅图1至图8,本申请提供一种基于计算机视觉图像的数据采集读取方法,包括以下步骤:
步骤S1:获取目标识别任务信息,并控制摄像头以初级拍摄角度进行图像采集作业,从而获取图像信息;
具体地,例如设置相机参数,根据目标识别任务信息中的拍摄角度和距离要求,设置相机的焦距、光圈、曝光时间的参数,控制相机拍摄,通过控制接口,向相机发送控制指令并启动拍摄功能,从而获取多张图像信息。
步骤S2:通过初步图像识别模型对图像信息进行识别,从而获得初步图像识别信息;
具体地,例如将所获得的标签区域图像输入到初步图像识别模型中,进行图像预处理和初步识别,提取出标签信息,输出初步图像识别信息,包括标签类型、位置、大小、颜色的特征,并进行文本化处理
步骤S3:利用相似度公式对初步图像识别信息与目标识别任务信息中的目标描述信息进行比对计算,从而获得相似度系数;
具体地,例如利用相似度公式对初步图像识别信息和目标描述向量进行比对计算,获得相似度系数,cosine_similarity=dot_product(a,b)/(norm(a)*norm(b)),其中,a和b分别代表两个向量,dot_product表示它们的点积,norm表示向量的模长,对于图像识别信息和目标描述向量,可以将它们转化为数字向量,例如使用特征提取算法从图像中提取出关键特征,并将这些特征转化为数字向量。目标描述向量可以是由人工描述或者自动生成的与目标相关的特征向量,将这两个向量带入余弦相似度公式中,即可得到它们之间的相似度系数。相似度系数越高,则表示它们越相似。
步骤S4:判断相似度系数是否大于或等于预设的相似度阈值信息;
步骤S5:确定相似度系数小于预设的相似度阈值信息时,则返回步骤S1并调整次级拍摄角度;
步骤S6:确定相似度系数大于或等于预设的相似度阈值信息时,则根据图像信息通过精准图像识别模型进行识别,从而获得精准图像识别信息。
具体地,例如判断相似度系数:判断相似度系数是否大于或等于预设的相似度阈值信息;如果相似度系数小于预设的相似度阈值信息,则返回步骤S1并调整次级拍摄角度,重新采集图像;如果相似度系数大于或等于预设的相似度阈值信息,则根据图像信息通过精准图像识别模型进行识别,从而获得精准图像识别信息。
具体地,例如在智能门锁系统中,当用户需要开锁时,摄像头会采集用户的面部图像,并将其转化为数字向量作为初步图像识别信息。然后,将该向量与系统中存储的目标描述向量(即已注册用户的面部特征向量)进行比对计算,获得相似度系数。接着,系统会根据预设的相似度阈值信息,判断相似度系数是否大于或等于这个值。如果相似度系数小于预设的相似度阈值信息,则说明该用户的面部特征与数据库中的数据不匹配,此时系统会要求用户重新进行验证,返回到步骤S1,同时可以调整次级拍摄角度来提高识别率。如果相似度系数大于或等于预设的相似度阈值信息,则说明该用户的面部特征与数据库中的数据匹配成功。此时,系统会通过精准图像识别模型进行识别,从而获得精准的人脸识别信息,并且完成门锁的解锁操作。
该技术可以通过计算机视觉图像识别自动采集数据,提高数据采集的效率和准确性。同时,该方法可以根据预设的相似度阈值信息来控制摄像头拍摄角度,使得采集到的图像更具有代表性和可比性,通过使用初步图像识别模型和相似度公式,可以快速筛选出符合目标识别任务要求的图像,提高了识别的准确性和效率。
在本说明书的一个实施例中,初级图像信息包括第一图像信息以及第二图像信息,初级拍摄角度包括第一拍摄角度以及第二拍摄角度,步骤S1具体为:
步骤S11:获取目标识别任务信息;
步骤S12:控制第一摄像头以第一采集频率通过第一摄像角度进行拍摄作业,从而获得第一图像信息;
步骤S13:控制第二摄像头以第二采集频率通过第二摄像角度进行拍摄作业,从而获得第二图像信息,其中第一采集频率与第二采集频率为不同的采集频率,第一摄像角度与第二拍摄角度之间的夹角为锐角。
具体地,例如获取目标识别任务信息:确定要追踪和识别的目标以及其特征;根据目标位置和运动轨迹,控制第一摄像头以第一采集频率通过第一摄像角度进行拍摄作业,从而获得第一图像信息,例如,可以使用无人机或便携式云台相机等设备来完成此任务;同时,控制第二摄像头以第二采集频率通过第二摄像角度进行拍摄作业,从而获得第二图像信息。第一采集频率与第二采集频率可以设置为不同的采集频率,以提高目标检测的准确性。第一摄像角度与第二拍摄角度之间的夹角为锐角,以覆盖更广的视野范围,提高目标追踪的效率和精度;
本实施例使用初级拍摄角度进行图像采集,可以减少采集成本和时间,并且避免复杂场景下的噪声和干扰,能够更加快速地获取目标对象的图像信息。使用初步图像识别模型对图像信息进行预处理,能够有效地筛选出目标对象,提高数据采集的效率和准确性。利用相似度公式进行相似度比对计算,能够量化表达初步图像识别信息与目标识别任务信息中的目标描述信息之间的相似程度,从而判断图像是否符合要求,避免大量无效数据的产生。同时,设定预设的相似度阈值,能够根据实际需要灵活调整识别的敏感度和精度,提高数据采集的准确性和完整性。根据相似度系数与预设的相似度阈值进行比较,确定图像是否符合要求。当相似度系数小于预设的相似度阈值时,进行次级拍摄角度的调整,从而进一步提高数据采集的准确性和完整性。当相似度系数大于或等于预设的相似度阈值时,采用精准图像识别模型进行图像识别,能够获得更加准确和精细的图像识别信息,为后续的分析和应用提供更加有价值的数据支持,本实施例的基于计算机视觉图像的数据采集读取方法具有高效、准确和灵活的特点,能够快速地从复杂场景中获取符合要求的数据,并为后续的分析和应用提供更加优质的数据资源。
在本说明书的一个实施例中,步骤S2中初步图像识别模型的构建步骤具体为:
步骤S21:获取图像信息;
具体地,例如从数据库中预存储的数据进行数据读取,以存入内存等待下一步的行动。
步骤S22:根据图像信息进行图像标注,从而获取标注图像信息;
具体地,例如目标检测:使用目标检测算法,如YOLO、Faster R-CNN等,基于图像特征信息对道路中的障碍物进行检测,例如,可以使用目标框(bounding box)将检测到的障碍物标注出来;简单或粗略的图像标注:根据检测结果,通过简单或粗略的方式对检测到的障碍物进行标注,例如,在目标框内标注“行人”、“车辆”、“建筑物”、“路障”等相对简单的标签信息;将标注后的图像保存下来,从而获得标注图像信息。
步骤S23:根据标注图像信息进行优化误差划分,从而获得训练图像信息以及测试图像信息;
具体地,例如在图像分类任务中,通过标注一些图像,并将它们分为不同的类别,这些标注数据被称为训练集,使用这些训练集数据训练一个分类器模型,以便能够自动地将新的、未知的图像归类到正确的类别中,可以使用另一组已经标注好的测试集来评估模型的性能表现,分类器模型采用聚类算法进行计算生成。
步骤S24:根据训练图像信息进行数据增强,从而获得增强图像信息;
具体地,例如通过随机裁剪,随机翻转,调整亮度和对比度对训练图像信息进行处理,增加噪声,从而获得增强图像信息。
步骤S25:根据增强图像信息通过预设的特征提取器进行特征提取,从而获得特征信息;
具体地,例如使用已经训练好的CNN模型来对图像进行特征提取。例如,在图像分类任务中,使用VGG、ResNet或Inception的CNN模型中的卷积层作为特征提取器。
步骤S26:根据特征信息进行最小代价降维计算,从而获得降维特征信息;
具体地,例如确定可视化或降维的数据,并确保数据是合适的格式。使用欧几里得距离或者其他相似性度量来计算高维和低维空间之间的距离。在进行降维前需要选择一个合适的相似性度量,并将数据矩阵转换为距离矩阵。设置参数,如目标维度和困惑度(perplexity)。目标维度是降维后的空间维度,通常为2或3。困惑度是一个超参数,用于控制局部拓扑结构的复杂度。还有其他的一些参数,如学习率、迭代次数。根据以上参数运行t-SNE算法,获得低维特征表示。
步骤S27:根据降维特征信息进行分类器构建,从而构建识别分类器;
具体地,例如根据降维特征信息进行分类器构建,从而构建识别分类器,如支持向量机算法。
步骤S28:根据测试图像信息对识别分类器进行迭代识别修正,从而获得初步图像识别模型。
具体地,例如将训练集划分为若干个子集,并使用其中的一部分来验证模型的准确率。在每次迭代中,使用不同的子集作为验证集,以检查模型的泛化能力,从而获得初步图像识别模型。
本实施例的初步图像识别模型构建步骤可以提高图像识别的准确性和稳定性,通过数据增强、特征提取以及最小代价降维计算等技术手段,能够有效地从原始图像信息中提取出更加鲁棒和有用的特征信息,进而构建出更加有效的图像识别分类器。所描述的图像识别模型构建步骤,通过数据增强、特征提取和最小代价降维计算的操作,可以有效提高初步图像识别模型的精度和鲁棒性。此外,迭代识别修正也有助于进一步提升模型的准确性和可靠性。
在本说明书的一个实施例中,步骤S22具体为:
步骤S221:根据图像信息进行边缘提取,从而获得边缘图像信息;
具体地,例如使用高斯滤波器对图像进行平滑处理,并计算梯度幅值和方向来检测边缘,从而获得边缘图像信息。
步骤S222:根据边缘图像信息进行区域划分,从而获得划分区域信息,其中划分区域信息包括区域像素量数据以及区域位置信息;
具体地,例如通过迭代计算数据点周围的核密度函数,将数据点归为密度最大的区域。在图像分割中,使用均值漂移算法来找到具有相似颜色和纹理的像素,从而获得划分区域信息。
步骤S223:根据划分区域信息进行提取框生成,从而生成图像提取框;
具体地,例如根据划分区域信息对应像素所在区域生成对应的四边形边框或者围绕边缘,从而生成图像提取框。
步骤S224:根据图像提取框对图像信息进行图像提取,从而获得提取图像信息,其中提取图像信息包括提取图像位置信息以及提取图像区域信息;
具体地,例如根据图像提取框对图像信息进行划分为不同的区域,从而获得提取图像信息。
步骤S225:根据提取图像信息进行特征提取,从而获得图像特征信息,其中图像特征信息包括色彩图像特征、纹理图像特征以及形状图像特征;
具体地,例如色彩特征是指图像中像素的颜色分布和统计特征,包括颜色直方图、颜色矩,纹理特征是指图像中像素的纹理分布和统计特征,包括灰度共生矩阵(GLCM)、局部二值模式(LBP),形状特征是指图像中物体的轮廓、边缘的形状信息,包括边缘特征、角点特征。
步骤S226:根据图像特征信息以及提取图像区域信息进行语义提取,从而获得图像描述信息,其中图像描述信息包括图像描述坐标信息、图像色彩描述信息、图像纹理描述信息以及图像形状描述信息;
具体地,例如将图像特征信息以及提取图像区域信息进行数值语义转化,如红色,左上角,矩形物体,或者黄色花朵,呈圆形,花瓣纹理。
步骤S227:根据图像描述信息对图像信息进行图像标注,从而获得标注图像信息。
具体地,例如根据生成的图像描述信息对图像信息进行图像标注,从而获得标注图像信息。
本实施例所描述的图像标注方法,通过边缘提取、区域划分、提取框生成等操作,可以自动化地对图像进行精细化的划分和标注,能够更加准确地提取出图像的特征信息,并且获得更加详细、全面的图像描述信息。通过使用这种方法进行图像标注,可以大大提高图像识别模型的训练效率和模型精度,同时减少了人工标注的时间和劳动成本。
在本说明书的一个实施例中,步骤S225具体为:
步骤S2251:根据提取图像信息进行像素点统计计算,从而获得色彩图像特征,其中色彩图像特征包括像素平均色彩信息、像素最大色彩信息以及像素颜色直方图信息,像素平均色彩信息包括像素平均红色信息、像素平均绿色信息以及像素平均蓝色信息;
具体地,例如通过对图像中所有像素的颜色值求平均值,获得图像的平均色彩信息。例如,可以计算像素平均红色信息、像素平均绿色信息以及像素平均蓝色信息,通过对图像中所有像素的颜色值取最大值,获得图像的最大色彩信息。例如,可以计算像素最大红色信息、像素最大绿色信息以及像素最大蓝色信息,通过统计图像中每种颜色的出现频率,获得图像的颜色直方图信息。例如,可以计算每种颜色在图像中出现的次数,并绘制相应的颜色直方图。
步骤S2252:根据提取图像信息进行纹理特征提取,从而生成纹理图像特征;
具体地,例如统计图像中相邻像素之间的灰度级别差异,生成灰度共生矩阵,并计算相应的纹理特征,如能量、对比度、协方差。
步骤S2253:根据提取图像信息进行形状图像特征提取,从而获得形状图像特征。
具体地,例如根据物体的轮廓线提取相应的形状特征,如周长、面积、凸性。
本实施例中色彩图像特征提取能够准确描述图像中的颜色信息,包括平均色彩信息、最大色彩信息以及颜色直方图信息等,这些信息对于识别和分类彩色图像非常重要;纹理特征提取能够捕捉到图像中的细节和纹理信息,获得与图像纹理相关的特征信息,提高了图像识别模型的鲁棒性;形状特征提取能够描绘图像的几何形状和轮廓,可以为模型提供更加精细化的特征信息。
在本说明书的一个实施例中,标注图像信息包括标注信息,标注信息包括颜色标注信息、纹理标注信息以及图像形状标注信息,训练图像信息包括训练颜色图像信息、训练纹理图像信息以及训练形状图像信息,测试图像信息包括测试颜色图像信息、测试纹理图像信息以及测试形状图像信息;步骤S23具体为:
步骤S231:根据颜色标注信息对标注图像信息通过预设的划分比例进行随机划分,从而获得训练颜色图像信息以及测试颜色图像信息;
步骤S232:根据纹理标注信息对标注图像信息通过预设的划分比例进行随机划分,从而获得训练纹理图像信息以及测试纹理图像信息;
步骤S233:根据形状标注信息对标注图像信息通过预设的划分比例进行随机划分,从而获得训练形状图像信息以及测试形状图像信息。
具体地,例如将标注图像信息随机地划分为训练集和测试集。例如,可以将标注图像信息按照3:1的比例进行随机划分,其中75%的数据用于训练模型,25%的数据用于测试模型。
本实施例针对不同的特征信息进行随机划分,可以提高模型在各个方面的泛化能力和鲁棒性,使得模型更加稳定可靠,通过随机划分,可以构建更加完整、多样化的图像数据集,提高了模型的训练效率和精度,有助于克服过拟合和欠拟合等问题,对于给定的图像数据集,使用不同的特征信息进行划分,可以生成多个独立的测试集,从而可以更加客观地评估模型的性能,提高了模型的可比性和可靠性。
在本说明书的一个实施例中,步骤S24具体为:
步骤S241:根据训练图像信息通过预设的阈值角度进行随机旋转,从而获得旋转图像信息;
具体地,例如随机旋转方法是指根据预设的阈值角度,将训练图像随机地旋转一个角度。例如,可以在-30°到30°的范围内随机旋转训练图像。
步骤S242:对翻转图像信息进行随机缩放处理,从而获得缩放图像信息;
具体地,例如随机缩放方法是指在翻转图像中随机地选择一个比例因子进行缩放操作。例如,可以在0.8到1.2之间随机选择一个比例因子进行缩放操作,并保留缩放后大小为224x224的图像作为缩放图像。
步骤S243:对缩放图像信息进行随机平移处理,生成平移图像信息;
具体地,例如随机平移方法是指根据预设的平移范围,将缩放图像随机地进行平移操作。例如,可以在横向和纵向上分别随机平移1-5个像素。
步骤S244:对平移图像信息进行随机翻转处理,从而获得翻转图像信息;
具体地,例如随机翻转方法是指将平移图像在水平或垂直方向上随机地进行镜像翻转操作。例如,可以以50%的概率在水平或垂直方向上进行镜像翻转。
步骤S245:根据翻转图像信息中的标注信息对翻转图像信息进行剪裁,获得剪裁图像信息;
具体地,例如根据翻转图像信息中的标注信息中的坐标信息以及区域面积信息对翻转图像信息进行剪裁,获得剪裁图像信息。
步骤S246:对剪裁图像信息进行随机变形处理,从而获得增强图像信息。
具体地,例如随机扭曲方法是指对剪裁图像进行非线性变换操作。例如,可以对剪裁图像进行随机的局部仿射、透视变换,从而获得增强图像信息。
本实施例通过随机旋转图像,可以使模型更好地学习到不同角度下的物体表现,避免出现只对固定角度下物体进行识别的情况,提高模型的旋转不变性;通过随机缩放处理,可以模拟远近距离下物体的表现,增加模型对尺度变化的适应性;通过随机平移处理,可以模拟物体在图像中的位置变换,增加模型对位置变化的适应性;通过随机翻转处理,可以增加模型对左右翻转的镜像变换的鲁棒性;通过剪裁处理,可以去除图像背景噪声,保留关键目标信息,并可以提高模型对目标形变的适应性;通过随机变形处理,可以增加模型对目标形变的适应性,并且可以进一步丰富训练数据的多样性。
在本说明书的一个实施例中,步骤S26具体为:
对特征信息进行均方根计算,从而获得特征均方根信息;
具体地,例如将其每个像素的通道值平方后求平均值再开根号,得到该图像的均方根值作为其能量特征。例如,可以对图像的灰度、RGB通道等进行均方根计算,以提取其能量特征。
根据特征均方根信息对特征信息进行降维计算,从而获得降维特征信息。
具体地,例如通过线性变换将原始特征投影到新的低维空间中,使得特征之间的相关性尽量小。在实现过程中,可以使用特征均方根信息作为权重。
本实施例通过对特征信息进行均方根计算,可以将原始的高维特征信息转换为一维的特征均方根信息,这种一维信息的表示方式既能够保留原始特征信息的重要性,又可以减少特征信息的冗余和噪声,从而提高特征信息的质量和稳定性;通过对特征均方根信息进行降维计算,可以将高维特征信息压缩成低维特征信息。这样做的好处是能够减少特征信息的维度,从而减少计算复杂度,提高模型的计算效率,并且能够抑制不必要的维度噪声和过拟合。
在本说明书的一个实施例中,步骤S13具体为:
步骤S131:将目标识别任务信息进行描述语言转化,从而获得目标描述信息;
具体地,例如原始目标识别任务信息为给定一张狗的图片,要求识别出其中的狗的品种,转化为类狗形状、任何颜色以及带有五官标志。
步骤S132:根据目标描述信息进行向量化,从而获得目标描述向量;
步骤S133:根据初步图像识别信息进行向量化,从而获得初步图像识别向量;
具体地,例如使用特征提取算法(如SIFT、HOG、SURF等)提取文字中的局部特征,使用聚类算法(如K-means)对特征进行聚类,生成视觉单词,并将每个视觉单词出现的次数作为图像的向量表示。
步骤S134:根据初步图像识别向量以及目标描述向量进行相似度计算,从而获得相似度系数。
具体地,例如通过计算两个向量之间的夹角余弦值来判断它们的相似程度,使用余弦相似度计算初步图像识别向量和目标描述向量之间的相似度系数。
本实施例通过将目标识别任务信息进行描述语言转化,可以将自然语言的描述信息转换为机器识别的目标描述信息,从而更加准确地表达目标的特征和属性;通过将目标描述信息和初步图像识别信息分别进行向量化,可以将它们都表示为数学上的向量形式,方便进行后续的相似度计算;通过利用向量化后的目标描述向量和初步图像识别向量进行相似度计算,可以得到一个数值化的相似度系数,该系数反映了目标描述信息和初步图像识别信息之间的相似程度。根据该系数可以进一步确定目标的分类和识别结果。
在本说明书的一个实施例中,相似度计算通过相似度计算公式进行计算,其中相似度计算公式具体为:
L为相似度系数,αi为初步图像识别向量中第i个数据的调整系数,ai为初步图像识别向量中第i个数据,βi为目标描述向量中第i个数据的调整系数,bi为目标描述向量中第i个数据,q为相似度系数偏移项,g为相似度系数的缩放系数,w为相似度系数的初始项,m为误差修正项,k为相似度系数调整指数,为初步图像识别向量中数据平均值,/>为目标描述向量中数据平均值,r为误差调整项,∈为相似度系数的修正项。
本实施例提供一种相似度计算公式,该公式充分考虑了初步图像识别向量中第i个数据的调整系数αi、初步图像识别向量中第i个数据ai、目标描述向量中第i个数据的调整系数βi、目标描述向量中第i个数据bi、相似度系数偏移项q、相似度系数的缩放系数g、相似度系数的初始项w、误差修正项m、相似度系数调整指数k、初步图像识别向量中数据平均值目标描述向量中数据平均值/>误差调整项r以及相互之间的作用关系,从而形成函数关系/>αi以及ai用于调整初步图像识别向量中第i个数据的权重和值,反映了该特征对于相似度计算的贡献程度,βi以及bi用于调整目标描述向量中第i个数据的权重和值,反映了该特征对于相似度计算的贡献程度,相似度系数偏移项q用于平移相似度曲线,增加样本之间相似度的差异性,相似度系数的缩放系数g用于控制相似度曲线的斜率和变化速度,从而更好地表达样本之间的相似关系,相似度系数的初始项w用于保证相似度计算公式的初始值为正数,避免出现负值的情况,/>以及/>分别是初步图像识别向量和目标描述向量的均值,用于控制相似度计算中的基准线,r用于校正相似度计算中可能存在的误差,提高相似度计算的鲁棒性,并通过相似度系数的修正项∈进行修正,从而更好地计算初步图像识别向量和目标描述向量之间的相似度系数,从而提高模型的识别准确率和性能表现。
在本说明书的一个实施例中,次级拍摄角度包括第三拍摄角度以及第四拍摄角度,步骤S15具体为:
确定相似度系数小于预设的相似度阈值信息时,则将第一摄像角度调整至第三摄像角度,并将第二摄像角度调整为第四摄像角度,其中第一摄像角度与第三摄像角度互余,第二摄像角度与第四摄像角度互余。
具体地,例如对于相似度小于阈值的相邻摄像头,可以将前面的一台摄像头的角度调整为后面的摄像头的角度,并将后面的摄像头的角度调整为前面的摄像头的角度。例如,可以将A摄像头的角度调整为C摄像头的角度,将B摄像头的角度调整为D摄像头的角度。
具体地,例如第一拍摄角度与第三拍摄角度互余,第二拍摄角度与第四拍摄角度互余。
本实施例,在实际场景中,由于多个摄像头的位置和角度不同,可能导致拍摄到的图像存在视角变化,从而影响识别精度。为了解决这个问题,可以在不同角度和位置拍摄多张图像,然后进行角度和位置的调整,从而提高图像识别的准确性和可靠性;如果相似度系数小于预设的相似度阈值信息,即第一次拍摄的图像与数据库中的图像不够相似,则将第一摄像头的角度调整为第三摄像头的角度,将第二摄像头的角度调整为第四摄像头的角度。这样调整后,可以得到新的拍摄图像,使得视角与数据库中的图像更加相似,从而提高了图像识别的准确性和可靠性。
本发明通过初级拍摄角度进行图像采集,可以减少采集成本和时间,并且避免复杂场景下的噪声和干扰;利用初步图像识别模型对图像信息进行快速预处理,能够有效地筛选出目标对象,提高数据采集的效率和准确性;引入相似度公式进行相似度比对计算,能够量化表达初步图像识别信息与目标识别任务信息中的目标描述信息之间的相似程度,从而判断图像是否符合要求,避免大量无效数据的产生;设定预设的相似度阈值,能够根据实际需要灵活调整识别的敏感度和精度;在相似度系数小于预设的相似度阈值时,进行次级拍摄角度的调整,从而进一步提高数据采集的准确性和完整性;采用精准图像识别模型进行图像识别,能够获得更加准确和精细的图像识别信息,为后续的分析和应用提供更加有价值的数据支持。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
以上所述仅是本发明的具体实施方式,使本领域技术人员能够理解或实现本发明。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所发明的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种基于计算机视觉图像的数据采集读取方法,其特征在于,包括以下步骤:
步骤S1:获取目标识别任务信息,并控制摄像头以初级拍摄角度进行图像采集作业,从而获取图像信息;
步骤S2:通过初步图像识别模型对图像信息进行识别,从而获得初步图像识别信息;
步骤S3:利用相似度公式对初步图像识别信息与目标识别任务信息中的目标描述信息进行比对计算,从而获得相似度系数;
步骤S4:判断相似度系数是否大于或等于预设的相似度阈值信息;
步骤S5:确定相似度系数小于预设的相似度阈值信息时,则返回步骤S1并调整次级拍摄角度;
步骤S6:确定相似度系数大于或等于预设的相似度阈值信息时,则根据图像信息通过精准图像识别模型进行识别,从而获得精准图像识别信息。
2.根据权利要求1所述的方法,其特征在于,初级图像信息包括第一图像信息以及第二图像信息,初级拍摄角度包括第一拍摄角度以及第二拍摄角度,步骤S1具体为:
获取目标识别任务信息;
控制第一摄像头以第一采集频率通过第一摄像角度进行拍摄作业,从而获得第一图像信息;
控制第二摄像头以第二采集频率通过第二摄像角度进行拍摄作业,从而获得第二图像信息,其中第一采集频率与第二采集频率为不同的采集频率,第一摄像角度与第二拍摄角度之间的夹角为锐角。
3.根据权利要求1所述的方法,其特征在于,步骤S2中初步图像识别模型的构建步骤具体为:
步骤S21:获取图像信息;
步骤S22:根据图像信息进行图像标注,从而获取标注图像信息;
步骤S23:根据标注图像信息进行优化误差划分,从而获得训练图像信息以及测试图像信息;
步骤S24:根据训练图像信息进行数据增强,从而获得增强图像信息;
步骤S25:根据增强图像信息通过预设的特征提取器进行特征提取,从而获得特征信息;
步骤S26:根据特征信息进行最小代价降维计算,从而获得降维特征信息;
步骤S27:根据降维特征信息进行分类器构建,从而构建识别分类器;
步骤S28:根据测试图像信息对识别分类器进行迭代识别修正,从而获得初步图像识别模型。
4.根据权利要求3所述的方法,其特征在于,步骤S22具体为:
步骤S221:根据图像信息进行边缘提取,从而获得边缘图像信息;
步骤S222:根据边缘图像信息进行区域划分,从而获得划分区域信息,其中划分区域信息包括区域像素量数据以及区域位置信息;
步骤S223:根据划分区域信息进行提取框生成,从而生成图像提取框;
步骤S224:根据图像提取框对图像信息进行图像提取,从而获得提取图像信息,其中提取图像信息包括提取图像位置信息以及提取图像区域信息;
步骤S225:根据提取图像信息进行特征提取,从而获得图像特征信息,其中图像特征信息包括色彩图像特征、纹理图像特征以及形状图像特征;
步骤S226:根据图像特征信息以及提取图像区域信息进行语义提取,从而获得图像描述信息,其中图像描述信息包括图像描述坐标信息、图像色彩描述信息、图像纹理描述信息以及图像形状描述信息;
步骤S227:根据图像描述信息对图像信息进行图像标注,从而获得标注图像信息。
5.根据权利要求4所述的方法,其特征在于,步骤S225具体为:
根据提取图像信息进行像素点统计计算,从而获得色彩图像特征,其中色彩图像特征包括像素平均色彩信息、像素最大色彩信息以及像素颜色直方图信息,像素平均色彩信息包括像素平均红色信息、像素平均绿色信息以及像素平均蓝色信息;
根据提取图像信息进行纹理特征提取,从而生成纹理图像特征;
根据提取图像信息进行形状图像特征提取,从而获得形状图像特征。
6.根据权利要求4所述的方法,其特征在于,标注图像信息包括标注信息,标注信息包括颜色标注信息、纹理标注信息以及图像形状标注信息,训练图像信息包括训练颜色图像信息、训练纹理图像信息以及训练形状图像信息,测试图像信息包括测试颜色图像信息、测试纹理图像信息以及测试形状图像信息;步骤S23具体为:
根据颜色标注信息对标注图像信息通过预设的划分比例进行随机划分,从而获得训练颜色图像信息以及测试颜色图像信息;根据纹理标注信息对标注图像信息通过预设的划分比例进行随机划分,从而获得训练纹理图像信息以及测试纹理图像信息;根据形状标注信息对标注图像信息通过预设的划分比例进行随机划分,从而获得训练形状图像信息以及测试形状图像信息;
步骤S24具体为:
根据训练图像信息通过预设的阈值角度进行随机旋转,从而获得旋转图像信息;对翻转图像信息进行随机缩放处理,从而获得缩放图像信息;对缩放图像信息进行随机平移处理,生成平移图像信息;对平移图像信息进行随机翻转处理,从而获得翻转图像信息;根据翻转图像信息中的标注信息对翻转图像信息进行剪裁,获得剪裁图像信息;对剪裁图像信息进行随机变形处理,从而获得增强图像信息。
7.根据权利要求4所述的方法,其特征在于,步骤S26具体为:
对特征信息进行均方根计算,从而获得特征均方根信息;
根据特征均方根信息对特征信息进行降维计算,从而获得降维特征信息。
8.根据权利要求1所述的方法,其特征在于,步骤S13具体为:
将目标识别任务信息进行描述语言转化,从而获得目标描述信息;
根据目标描述信息进行向量化,从而获得目标描述向量;
根据初步图像识别信息进行向量化,从而获得初步图像识别向量;
根据初步图像识别向量以及目标描述向量进行相似度计算,从而获得相似度系数。
9.根据权利要求8所述的方法,其特征在于,相似度计算通过相似度计算公式进行计算,其中相似度计算公式具体为:
L为相似度系数,αi为初步图像识别向量中第i个数据的调整系数,ai为初步图像识别向量中第i个数据,βi为目标描述向量中第i个数据的调整系数,bi为目标描述向量中第i个数据,q为相似度系数偏移项,g为相似度系数的缩放系数,w为相似度系数的初始项,m为误差修正项,k为相似度系数调整指数,为初步图像识别向量中数据平均值,/>为目标描述向量中数据平均值,r为误差调整项,∈为相似度系数的修正项。
10.根据权利要求1所述的方法,其特征在于,次级拍摄角度包括第三拍摄角度以及第四拍摄角度,步骤S15具体为:
确定相似度系数小于预设的相似度阈值信息时,则将第一摄像角度调整至第三摄像角度,并将第二摄像角度调整为第四摄像角度,其中第一摄像角度与第三摄像角度互余,第二摄像角度与第四摄像角度互余。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310402614.1A CN116503622A (zh) | 2023-04-14 | 2023-04-14 | 基于计算机视觉图像的数据采集读取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310402614.1A CN116503622A (zh) | 2023-04-14 | 2023-04-14 | 基于计算机视觉图像的数据采集读取方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116503622A true CN116503622A (zh) | 2023-07-28 |
Family
ID=87329590
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310402614.1A Withdrawn CN116503622A (zh) | 2023-04-14 | 2023-04-14 | 基于计算机视觉图像的数据采集读取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116503622A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116883392A (zh) * | 2023-09-05 | 2023-10-13 | 烟台金丝猴食品科技有限公司 | 基于图像处理的投料控制方法及系统 |
-
2023
- 2023-04-14 CN CN202310402614.1A patent/CN116503622A/zh not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116883392A (zh) * | 2023-09-05 | 2023-10-13 | 烟台金丝猴食品科技有限公司 | 基于图像处理的投料控制方法及系统 |
CN116883392B (zh) * | 2023-09-05 | 2023-11-17 | 烟台金丝猴食品科技有限公司 | 基于图像处理的投料控制方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108304873B (zh) | 基于高分辨率光学卫星遥感影像的目标检测方法及其系统 | |
Chen et al. | Vehicle detection in high-resolution aerial images via sparse representation and superpixels | |
Zhou et al. | Robust vehicle detection in aerial images using bag-of-words and orientation aware scanning | |
CN112686812B (zh) | 银行卡倾斜矫正检测方法、装置、可读存储介质和终端 | |
US7058209B2 (en) | Method and computer program product for locating facial features | |
Xu et al. | Learning-based shadow recognition and removal from monochromatic natural images | |
CN110298376B (zh) | 一种基于改进b-cnn的银行票据图像分类方法 | |
Zhang et al. | Detecting and extracting the photo composites using planar homography and graph cut | |
Khan et al. | 3D model based vehicle classification in aerial imagery | |
CN109034065B (zh) | 一种基于点云的室内场景物体提取方法 | |
CN102509112A (zh) | 车牌识别方法及其识别系统 | |
Zingman et al. | Detection of fragmented rectangular enclosures in very high resolution remote sensing images | |
CN108932518B (zh) | 一种基于视觉词袋模型的鞋印图像特征提取及检索方法 | |
CN108509925B (zh) | 一种基于视觉词袋模型的行人重识别方法 | |
CN113052170B (zh) | 一种无约束场景下的小目标车牌识别方法 | |
CN111753119A (zh) | 一种图像搜索方法、装置、电子设备及存储介质 | |
CN110969164A (zh) | 基于深度学习端对端的低照度成像车牌识别方法及装置 | |
CN110689003A (zh) | 低照度成像车牌识别方法、系统、计算机设备及存储介质 | |
CN116503622A (zh) | 基于计算机视觉图像的数据采集读取方法 | |
CN114863464A (zh) | 一种pid图纸图件信息的二阶识别方法 | |
Guo et al. | Image classification based on SURF and KNN | |
Diaa | A Deep Learning Model to Inspect Image Forgery on SURF Keypoints of SLIC Segmented Regions | |
CN112686247A (zh) | 一种身份证号码检测方法、装置、可读存储介质和终端 | |
Saputra et al. | Integration GLCM and geometric feature extraction of region of interest for classifying tuna | |
CN112418262A (zh) | 车辆再识别的方法、客户端及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20230728 |