CN116229318B - 基于分向数据的信息解析系统 - Google Patents
基于分向数据的信息解析系统 Download PDFInfo
- Publication number
- CN116229318B CN116229318B CN202310167016.0A CN202310167016A CN116229318B CN 116229318 B CN116229318 B CN 116229318B CN 202310167016 A CN202310167016 A CN 202310167016A CN 116229318 B CN116229318 B CN 116229318B
- Authority
- CN
- China
- Prior art keywords
- video frame
- current video
- pixel point
- target
- brightness
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于分向数据的信息解析系统,包括:梯度分析器件,用于获取当前视频帧的各个像素点分别对应的各个亮度梯度值;目标解析设备,用于将当前视频帧的各个像素点分别对应的各个分量数值、动态范围的中间值以及各个亮度梯度值输入到人工智能模型以获得当前视频帧中最近目标以及最远目标二者之间的实体距离;定制重构设备,用于将完成多次学习操作的深度神经网络作为人工智能模型。本发明的基于分向数据的信息解析系统操作鉴别、结构紧凑。由于能够根据当前视频帧的各项分向数据采用针对性训练后的人工智能模型直接分析当前视频帧的画面中最近目标以及最远目标二者之间的实体距离,从而避免陷入复杂、繁琐的信息处理运算。
Description
技术领域
本发明涉及信号处理领域,尤其涉及一种基于分向数据的信息解析系统。
背景技术
信号处理是以数字信号处理为中心而发展的。这是因为信号普遍可以用数字化形式来表示,而数字化的信号可以在电子计算机上通过软件来实现计算或处理,这样,无论多么复杂的运算,只要数学上能够分析、可以得到最优的求解,就都可以在电子计算机上模拟完成。如果计算速度适当快,还可以用超大规模的专用数字信号处理芯片来实时完成。因此,数字信号处理技术成为信息技术发展中最富有活力的学科之一。
信号处理以强大的渗透力,被许多重要的应用领域所采用。工程建筑部门用来仿真大型建筑结构的抗震防震性能;机械制造业用以分析机械结构振动的模型,从而改进振动性能及结构;飞机制造业中用于检查发动机的传动特性及磨损情况;航天遥感用以地面植被情况的分类以及气象云层的分布,医学领域用于B超、X光片以及生理电信号的分析诊断;电信与电子学领域,数字信号处理更是最直接的应用。
华为技术有限公司公开的一件发明申请就涉及一种信号处理方法及装置(CN110998610A),其中方法包括:获取至少两个实数输入信号矩阵;将所述至少两个实数输入信号矩阵拼接为复数输入信号矩阵;获取所述复数输入信号矩阵的复数卷积核矩阵;对所述复数输入信号矩阵以及所述复数卷积核矩阵分别进行傅里叶变换,得到所述复数输入信号矩阵的第一矩阵,所述复数卷积核矩阵的第二矩阵;对所述第一矩阵以及所述第二矩阵进行复数矩阵点乘,得到第三矩阵;通过对所述第三矩阵进行傅里叶逆变换,获取实数输出信号矩阵。通过该申请实施例可以在一定程度上降低信号处理运算量,从而提高信号处理效率。
申请公布号CN102981064A的发明涉及电磁环境预测技术领域,公开了一种飞机外部射频电磁环境预测方法和预测系统,所述系统包括:采集电磁环境参数装置、数据中心、仿真计算中心和可视化输出终端装置,所述方法通过采集电磁环境参数装置将采集的辐射源、大气环境、地面环境、海面环境的电磁环境参数信息传输至通过网络相连的数据中心,并储存于数据中心相对应的数据库中;所述数据中心通过数据线与仿真计算中心相连,所述仿真计算中心将飞机外部射频电磁环境全面预测的数据模型信息传输至通过视频总线相连的可视化输出终端设备,进行电磁环境综合显示;该发明采用了改进的信号描述字方法对飞机外部电磁信号环境进行建模,降低了信号处理运算量,提高了预测效率。
针对视频数据而言,信号处理也具有广泛的应用。然而,当前针对视频画面的信息处理,仍局限于基于各类特征的单步分析,例如,只有在基于目标外形的特征获取视频画面中每一目标的位置后,才能对每两个目标的视觉距离进行解析,随后再根据目标的景深数据的上述视觉距离再完成每两个目标的实地距离的判断,显然,上述信息处理模式步步相扣,每一步运算复杂且数据量大,实际上每一步的运算都存在冗余运算量,无法采用模型学习的模式直接完成初始信息到需求信息的直接转换。
发明内容
为了克服现有技术中的技术问题,本发明提出了一种基于分向数据的信息解析系统,能够根据当前视频帧的各项分向数据采用人工智能模型直接分析当前视频帧的画面中最近目标以及最远目标二者之间的实体距离,其中,人工智能模型的针对性训练机制保证了上述分析的可靠性和稳定性,从而去除了环环相扣的处理步骤的逐步冗余。
根据本发明的一方面,提供了一种基于分向数据的信息解析系统,所述系统包括:
逐项提取器件,用于对采集的当前视频帧的各个像素点获取每一个像素点在YUV颜色空间的Y分量即亮度分量,以获得所述当前视频帧的各个像素点分别对应的各个亮度分量,对采集的当前视频帧的各个像素点获取每一个像素点在YUV颜色空间的U分量即色度分量,以获得所述当前视频帧的各个像素点分别对应的各个色度分量,以及对采集的当前视频帧的各个像素点获取每一个像素点在YUV颜色空间的V分量即饱和度分量,以获得所述当前视频帧的各个像素点分别对应的各个饱和度分量;
范围测量器件,用于采集当前视频帧的动态范围的中间值,所述动态范围的中间值为所述当前视频帧的最大亮度值和所述当前视频帧的最小亮度值限定的数值范围内的中间位置的亮度值;
梯度分析器件,用于获取当前视频帧的各个像素点分别对应的各个亮度梯度值;
目标解析设备,分别与所述逐项提取器件、所述范围测量器件以及所述梯度分析器件连接,用于将所述当前视频帧的各个像素点分别对应的各个亮度分量、所述当前视频帧的各个像素点分别对应的各个色度分量、所述当前视频帧的各个像素点分别对应的各个饱和度分量、所述当前视频帧的动态范围的中间值以及所述当前视频帧的各个像素点分别对应的各个亮度梯度值作为人工智能模型的多个输入内容,并执行所述人工智能模型以获得所述人工智能模型输出的所述当前视频帧中最近目标以及最远目标二者之间的实体距离;
其中,获取当前视频帧的各个像素点分别对应的各个亮度梯度值包括:针对每一个像素点将其作为目标像素点,基于所述目标像素点的亮度值以及所述目标像素点周围的各个像素点分别对应的各个亮度值计算所述目标像素点对应的亮度梯度值。
本发明的基于分向数据的信息解析系统操作鉴别、结构紧凑。由于能够根据当前视频帧的各项分向数据采用针对性训练后的人工智能模型直接分析当前视频帧的画面中最近目标以及最远目标二者之间的实体距离,从而避免陷入复杂、繁琐的信息处理运算。
附图说明
以下将结合附图对本发明的实施例进行描述,其中:
图1为根据本发明第一实施例示出的基于分向数据的信息解析系统的结构方框图。
图2为根据本发明第二实施例示出的基于分向数据的信息解析系统的结构方框图。
图3为根据本发明第三实施例示出的基于分向数据的信息解析系统的结构方框图。
具体实施方式
下面将参照附图对本发明的基于分向数据的信息解析系统的实施例进行详细说明。
第一实施例
图1为根据本发明第一实施例示出的基于分向数据的信息解析系统的结构方框图,所述系统包括:
逐项提取器件,用于对采集的当前视频帧的各个像素点获取每一个像素点在YUV颜色空间的Y分量即亮度分量,以获得所述当前视频帧的各个像素点分别对应的各个亮度分量,对采集的当前视频帧的各个像素点获取每一个像素点在YUV颜色空间的U分量即色度分量,以获得所述当前视频帧的各个像素点分别对应的各个色度分量,以及对采集的当前视频帧的各个像素点获取每一个像素点在YUV颜色空间的V分量即饱和度分量,以获得所述当前视频帧的各个像素点分别对应的各个饱和度分量;
示例地,可以采用FPGA芯片来实现所述逐项提取器件,以及采集的当前视频帧可以来自图像传感器件;
范围测量器件,用于采集当前视频帧的动态范围的中间值,所述动态范围的中间值为所述当前视频帧的最大亮度值和所述当前视频帧的最小亮度值限定的数值范围内的中间位置的亮度值;
梯度分析器件,用于获取当前视频帧的各个像素点分别对应的各个亮度梯度值;
目标解析设备,分别与所述逐项提取器件、所述范围测量器件以及所述梯度分析器件连接,用于将所述当前视频帧的各个像素点分别对应的各个亮度分量、所述当前视频帧的各个像素点分别对应的各个色度分量、所述当前视频帧的各个像素点分别对应的各个饱和度分量、所述当前视频帧的动态范围的中间值以及所述当前视频帧的各个像素点分别对应的各个亮度梯度值作为人工智能模型的多个输入内容,并执行所述人工智能模型以获得所述人工智能模型输出的所述当前视频帧中最近目标以及最远目标二者之间的实体距离;
其中,获取当前视频帧的各个像素点分别对应的各个亮度梯度值包括:针对每一个像素点将其作为目标像素点,基于所述目标像素点的亮度值以及所述目标像素点周围的各个像素点分别对应的各个亮度值计算所述目标像素点对应的亮度梯度值;
示例地,可以采用以目标像素点为中心像素点的像素点窗口来确定所述目标像素点周围的各个像素点,即所述像素点窗口覆盖范围下的多个像素点为所述目标像素点周围的各个像素点。
第二实施例
图2为根据本发明第二实施例示出的基于分向数据的信息解析系统的结构方框图,可以看出,所述基于分向数据的信息解析系统包括以下组件:
逐项提取器件,用于对采集的当前视频帧的各个像素点获取每一个像素点在YUV颜色空间的Y分量即亮度分量,以获得所述当前视频帧的各个像素点分别对应的各个亮度分量,对采集的当前视频帧的各个像素点获取每一个像素点在YUV颜色空间的U分量即色度分量,以获得所述当前视频帧的各个像素点分别对应的各个色度分量,以及对采集的当前视频帧的各个像素点获取每一个像素点在YUV颜色空间的V分量即饱和度分量,以获得所述当前视频帧的各个像素点分别对应的各个饱和度分量;
范围测量器件,用于采集当前视频帧的动态范围的中间值,所述动态范围的中间值为所述当前视频帧的最大亮度值和所述当前视频帧的最小亮度值限定的数值范围内的中间位置的亮度值;
梯度分析器件,用于获取当前视频帧的各个像素点分别对应的各个亮度梯度值;
目标解析设备,分别与所述逐项提取器件、所述范围测量器件以及所述梯度分析器件连接,用于将所述当前视频帧的各个像素点分别对应的各个亮度分量、所述当前视频帧的各个像素点分别对应的各个色度分量、所述当前视频帧的各个像素点分别对应的各个饱和度分量、所述当前视频帧的动态范围的中间值以及所述当前视频帧的各个像素点分别对应的各个亮度梯度值作为人工智能模型的多个输入内容,并执行所述人工智能模型以获得所述人工智能模型输出的所述当前视频帧中最近目标以及最远目标二者之间的实体距离;
定制重构设备,用于将完成多次学习操作的深度神经网络作为人工智能模型输出;
其中,所述定制重构设备还与所述目标解析设备连接,用于将所述人工智能模型输出到所述目标解析设备;
其中,将完成多次学习操作的深度神经网络作为人工智能模型输出包括:当前视频帧的解析度越高,选择的学习操作的次数越多;
示例地,当前视频帧的解析度越高,选择的学习操作的次数越多可以包括:选择的学习操作的次数与当前视频帧的解析度正向关联。
第三实施例
图3为根据本发明第三实施例示出的基于分向数据的信息解析系统的结构方框图,可以看出,所述基于分向数据的信息解析系统包括以下组件:
逐项提取器件,用于对采集的当前视频帧的各个像素点获取每一个像素点在YUV颜色空间的Y分量即亮度分量,以获得所述当前视频帧的各个像素点分别对应的各个亮度分量,对采集的当前视频帧的各个像素点获取每一个像素点在YUV颜色空间的U分量即色度分量,以获得所述当前视频帧的各个像素点分别对应的各个色度分量,以及对采集的当前视频帧的各个像素点获取每一个像素点在YUV颜色空间的V分量即饱和度分量,以获得所述当前视频帧的各个像素点分别对应的各个饱和度分量;
范围测量器件,用于采集当前视频帧的动态范围的中间值,所述动态范围的中间值为所述当前视频帧的最大亮度值和所述当前视频帧的最小亮度值限定的数值范围内的中间位置的亮度值;
梯度分析器件,用于获取当前视频帧的各个像素点分别对应的各个亮度梯度值;
目标解析设备,分别与所述逐项提取器件、所述范围测量器件以及所述梯度分析器件连接,用于将所述当前视频帧的各个像素点分别对应的各个亮度分量、所述当前视频帧的各个像素点分别对应的各个色度分量、所述当前视频帧的各个像素点分别对应的各个饱和度分量、所述当前视频帧的动态范围的中间值以及所述当前视频帧的各个像素点分别对应的各个亮度梯度值作为人工智能模型的多个输入内容,并执行所述人工智能模型以获得所述人工智能模型输出的所述当前视频帧中最近目标以及最远目标二者之间的实体距离;
定制重构设备,用于将完成多次学习操作的深度神经网络作为人工智能模型输出;
信息配置设备,与所述定制重构设备连接,用于配置所述定制重构设备的各个工作参数;
其中,配置所述定制重构设备的各个工作参数包括:采用并行通信线路完成对所述定制重构设备的各个工作参数的同步配置。
接着,继续对本发明的基于分向数据的信息解析系统的具体结构进行进一步的说明。
在根据本发明各个实施例的基于分向数据的信息解析系统中:
执行所述人工智能模型以获得所述人工智能模型输出的所述当前视频帧中最近目标以及最远目标二者之间的实体距离包括:所述当前视频帧中最近目标为距离所述当前视频帧的视频采集机构的镜头最近的实体目标;
其中,执行所述人工智能模型以获得所述人工智能模型输出的所述当前视频帧中最近目标以及最远目标二者之间的实体距离还包括:所述当前视频帧中最近目标为距离所述当前视频帧的视频采集机构的镜头最远的实体目标。
以及在根据本发明各个实施例的基于分向数据的信息解析系统中:
对采集的当前视频帧的各个像素点获取每一个像素点在YUV颜色空间的Y分量即亮度分量,以获得所述当前视频帧的各个像素点分别对应的各个亮度分量包括:所述亮度分量为数值化数值表示,所述数值化数值表示的取值在0-255之间;
其中,对采集的当前视频帧的各个像素点获取每一个像素点在YUV颜色空间的U分量即色度分量,以获得所述当前视频帧的各个像素点分别对应的各个色度分量包括:所述色度分量为数值化数值表示,所述数值化数值表示的取值在0-255之间;
其中,对采集的当前视频帧的各个像素点获取每一个像素点在YUV颜色空间的V分量即饱和度分量,以获得所述当前视频帧的各个像素点分别对应的各个饱和度分量包括:所述饱和度分量为数值化数值表示,所述数值化数值表示的取值在0-255之间。
以及在根据本发明各个实施例的基于分向数据的信息解析系统中:
针对每一个像素点将其作为目标像素点,基于所述目标像素点的亮度值以及所述目标像素点周围的各个像素点分别对应的各个亮度值计算所述目标像素点对应的亮度梯度值包括:所述目标像素点周围的各个像素点分别对应的各个亮度值为在所述当前视频帧中以所述目标像素点为中心到所述目标像素点相同距离的多个亮度值;
其中,所述目标像素点周围的各个像素点分别对应的各个亮度值为在所述当前视频帧中以所述目标像素点为中心到所述目标像素点相同距离的多个亮度值包括:两个像素点之间的距离为所述当前视频帧中两个像素点之间最短距离所经过的像素点的总数。
另外,在所述基于分向数据的信息解析系统中,所述目标像素点周围的各个像素点分别对应的各个亮度值为在所述当前视频帧中以所述目标像素点为中心到所述目标像素点相同距离的多个亮度值还包括:所述相同距离对应的像素点的总数占据所述当前视频帧的像素点的总数的比例小于等于设定比例阈值。
本发明在以下三处体现出了创新点:
第一处,针对每一当前视频帧,采用人工智能模型以基于所述当前视频帧的各个像素点分别对应的各个亮度分量、所述当前视频帧的各个像素点分别对应的各个色度分量、所述当前视频帧的各个像素点分别对应的各个饱和度分量、所述当前视频帧的动态范围的中间值以及所述当前视频帧的各个像素点分别对应的各个亮度梯度值解析所述人工智能模型输出的所述当前视频帧中最近目标以及最远目标二者之间的实体距离,从而完成基于分向数据的定向类型信息的智能化解析;
第二处,在获取当前视频帧的各个像素点分别对应的各个亮度梯度值中,针对每一个像素点将其作为目标像素点,基于所述目标像素点的亮度值以及所述目标像素点周围的各个像素点分别对应的各个亮度值计算所述目标像素点对应的亮度梯度值;
第三处,引入定制重构设备以将完成多次学习操作的深度神经网络作为人工智能模型输出,当前视频帧的解析度越高,选择的学习操作的次数越多,从而实现对不同视频帧的人工智能模型的针对性设计,提升了后续智能解析的可靠性和稳定性。
在详细描述本发明之后,本领域的技术人员应认识到,对于本公开内容,可以在不偏离此处描述的本发明的概念的前提下对本发明进行修改。因此,本发明的范围不应限于所示出和描述的具体实施例。
Claims (7)
1.一种基于分向数据的信息解析系统,其特征在于,所述系统包括:
逐项提取器件,用于对采集的当前视频帧的各个像素点获取每一个像素点在YUV颜色空间的Y分量即亮度分量,以获得所述当前视频帧的各个像素点分别对应的各个亮度分量,对采集的当前视频帧的各个像素点获取每一个像素点在YUV颜色空间的U分量即色度分量,以获得所述当前视频帧的各个像素点分别对应的各个色度分量,以及对采集的当前视频帧的各个像素点获取每一个像素点在YUV颜色空间的V分量即饱和度分量,以获得所述当前视频帧的各个像素点分别对应的各个饱和度分量;
范围测量器件,用于采集当前视频帧的动态范围的中间值,所述动态范围的中间值为所述当前视频帧的最大亮度值和所述当前视频帧的最小亮度值限定的数值范围内的中间位置的亮度值;
梯度分析器件,用于获取当前视频帧的各个像素点分别对应的各个亮度梯度值;
目标解析设备,分别与所述逐项提取器件、所述范围测量器件以及所述梯度分析器件连接,用于将所述当前视频帧的各个像素点分别对应的各个亮度分量、所述当前视频帧的各个像素点分别对应的各个色度分量、所述当前视频帧的各个像素点分别对应的各个饱和度分量、所述当前视频帧的动态范围的中间值以及所述当前视频帧的各个像素点分别对应的各个亮度梯度值作为人工智能模型的多个输入内容,并执行所述人工智能模型以获得所述人工智能模型输出的所述当前视频帧中最近目标以及最远目标二者之间的实体距离;
其中,获取当前视频帧的各个像素点分别对应的各个亮度梯度值包括:针对每一个像素点将其作为目标像素点,基于所述目标像素点的亮度值以及所述目标像素点周围的各个像素点分别对应的各个亮度值计算所述目标像素点对应的亮度梯度值;
其中,所述目标像素点周围的各个像素点分别对应的各个亮度值为在所述当前视频帧中以所述目标像素点为中心到所述目标像素点相同距离的多个亮度值;
其中,两个像素点之间的距离为所述当前视频帧中两个像素点之间最短距离所经过的像素点的总数;
其中,所述相同距离对应的像素点的总数占据所述当前视频帧的像素点的总数的比例小于等于设定比例阈值;
定制重构设备,用于将完成多次学习操作的深度神经网络作为人工智能模型输出;
其中,所述定制重构设备还与所述目标解析设备连接,用于将所述人工智能模型输出到所述目标解析设备;
其中,将完成多次学习操作的深度神经网络作为人工智能模型输出包括:当前视频帧的解析度越高,选择的学习操作的次数越多。
2.如权利要求1所述的基于分向数据的信息解析系统,其特征在于,所述系统还包括:
信息配置设备,与所述定制重构设备连接,用于配置所述定制重构设备的各个工作参数;
其中,配置所述定制重构设备的各个工作参数包括:采用并行通信线路完成对所述定制重构设备的各个工作参数的同步配置。
3.如权利要求1-2任一所述的基于分向数据的信息解析系统,其特征在于:
执行所述人工智能模型以获得所述人工智能模型输出的所述当前视频帧中最近目标以及最远目标二者之间的实体距离包括:所述当前视频帧中最近目标为距离所述当前视频帧的视频采集机构的镜头最近的实体目标。
4.如权利要求3所述的基于分向数据的信息解析系统,其特征在于:
执行所述人工智能模型以获得所述人工智能模型输出的所述当前视频帧中最近目标以及最远目标二者之间的实体距离还包括:所述当前视频帧中最近目标为距离所述当前视频帧的视频采集机构的镜头最远的实体目标。
5.如权利要求4所述的基于分向数据的信息解析系统,其特征在于:
对采集的当前视频帧的各个像素点获取每一个像素点在YUV颜色空间的Y分量即亮度分量,以获得所述当前视频帧的各个像素点分别对应的各个亮度分量包括:所述亮度分量为数值化数值表示,所述数值化数值表示的取值在0-255之间。
6.如权利要求5所述的基于分向数据的信息解析系统,其特征在于:
对采集的当前视频帧的各个像素点获取每一个像素点在YUV颜色空间的U分量即色度分量,以获得所述当前视频帧的各个像素点分别对应的各个色度分量包括:所述色度分量为数值化数值表示,所述数值化数值表示的取值在0-255之间。
7.如权利要求6所述的基于分向数据的信息解析系统,其特征在于:
对采集的当前视频帧的各个像素点获取每一个像素点在YUV颜色空间的V分量即饱和度分量,以获得所述当前视频帧的各个像素点分别对应的各个饱和度分量包括:所述饱和度分量为数值化数值表示,所述数值化数值表示的取值在0-255之间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310167016.0A CN116229318B (zh) | 2023-02-24 | 2023-02-24 | 基于分向数据的信息解析系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310167016.0A CN116229318B (zh) | 2023-02-24 | 2023-02-24 | 基于分向数据的信息解析系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116229318A CN116229318A (zh) | 2023-06-06 |
CN116229318B true CN116229318B (zh) | 2023-09-22 |
Family
ID=86569201
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310167016.0A Active CN116229318B (zh) | 2023-02-24 | 2023-02-24 | 基于分向数据的信息解析系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116229318B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111861893A (zh) * | 2019-04-24 | 2020-10-30 | 浙江宇视科技有限公司 | 一种消除图像伪彩色边方法、系统、设备及计算机介质 |
CN112541853A (zh) * | 2019-09-23 | 2021-03-23 | 阿里巴巴集团控股有限公司 | 数据处理方法、装置及设备 |
CN113905183A (zh) * | 2021-08-25 | 2022-01-07 | 珠海全志科技股份有限公司 | 宽动态范围图像的色差校正方法及装置 |
CN114240499A (zh) * | 2021-12-17 | 2022-03-25 | 深圳壹账通智能科技有限公司 | 基于人工智能的数据分析方法、装置、设备及存储介质 |
WO2022094624A1 (en) * | 2020-11-01 | 2022-05-05 | Nvidia Corporation | Model-based reinforcement learning for behavior prediction in autonomous systems and applications |
CN114782250A (zh) * | 2022-04-24 | 2022-07-22 | 中国工商银行股份有限公司 | 视频图像处理方法、装置、电子设备及存储介质 |
CN114943891A (zh) * | 2022-04-20 | 2022-08-26 | 青岛科技大学 | 一种基于特征描述符的预测框匹配方法 |
CN114998808A (zh) * | 2022-06-20 | 2022-09-02 | 蔡戴朋 | 基于多芯片处理的滤镜分类系统及方法 |
-
2023
- 2023-02-24 CN CN202310167016.0A patent/CN116229318B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111861893A (zh) * | 2019-04-24 | 2020-10-30 | 浙江宇视科技有限公司 | 一种消除图像伪彩色边方法、系统、设备及计算机介质 |
CN112541853A (zh) * | 2019-09-23 | 2021-03-23 | 阿里巴巴集团控股有限公司 | 数据处理方法、装置及设备 |
WO2022094624A1 (en) * | 2020-11-01 | 2022-05-05 | Nvidia Corporation | Model-based reinforcement learning for behavior prediction in autonomous systems and applications |
CN113905183A (zh) * | 2021-08-25 | 2022-01-07 | 珠海全志科技股份有限公司 | 宽动态范围图像的色差校正方法及装置 |
CN114240499A (zh) * | 2021-12-17 | 2022-03-25 | 深圳壹账通智能科技有限公司 | 基于人工智能的数据分析方法、装置、设备及存储介质 |
CN114943891A (zh) * | 2022-04-20 | 2022-08-26 | 青岛科技大学 | 一种基于特征描述符的预测框匹配方法 |
CN114782250A (zh) * | 2022-04-24 | 2022-07-22 | 中国工商银行股份有限公司 | 视频图像处理方法、装置、电子设备及存储介质 |
CN114998808A (zh) * | 2022-06-20 | 2022-09-02 | 蔡戴朋 | 基于多芯片处理的滤镜分类系统及方法 |
Non-Patent Citations (2)
Title |
---|
Unpaired Learning for High Dynamic Range Image Tone Mapping;Yael Vinker 等;《ICCV 2021》;全文 * |
基于深度卷积神经网络的低照度图像增强;马红强 等;《光学学报》(第2期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN116229318A (zh) | 2023-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110991236B (zh) | 一种图像分类的方法及相关装置 | |
CN109902659B (zh) | 用于处理人体图像的方法和装置 | |
CN111833340A (zh) | 图像检测方法、装置、电子设备及存储介质 | |
CN117354467A (zh) | 图像数据智能优化传输系统 | |
CN115311186B (zh) | 一种红外与可见光图像跨尺度注意力对抗融合方法及终端 | |
CN114758337A (zh) | 一种语义实例重建方法、装置、设备及介质 | |
CN113015022A (zh) | 行为识别方法、装置、终端设备及计算机可读存储介质 | |
CN114359289A (zh) | 一种图像处理方法及相关装置 | |
CN115222920A (zh) | 基于图像的数字孪生时空知识图谱构建方法和装置 | |
CN108509830B (zh) | 一种视频数据处理方法及设备 | |
CN114549556B (zh) | 一种图像分割的方法、相关装置、设备以及存储介质 | |
CN112668675B (zh) | 一种图像处理方法、装置、计算机设备及存储介质 | |
CN116229318B (zh) | 基于分向数据的信息解析系统 | |
CN111832358A (zh) | 一种点云语义解析方法和装置 | |
CN110288691B (zh) | 渲染图像的方法、装置、电子设备和计算机可读存储介质 | |
CN116912645A (zh) | 融合纹理和几何特征的三维目标检测方法及装置 | |
CN111104965A (zh) | 车辆目标识别的方法及装置 | |
CN113591838B (zh) | 目标检测方法、装置、电子设备和存储介质 | |
CN110569599A (zh) | 地图服务发布方法、系统和介质 | |
CN115035563A (zh) | 引入注意力机制的小目标检测方法、装置及设备 | |
CN110020624B (zh) | 图像识别方法、终端设备及存储介质 | |
CN115082574B (zh) | 网络模型训练方法和脏器超声切面编码生成方法、装置 | |
CN117392633B (zh) | 一种目标检测方法、计算机可读存储介质及智能设备 | |
CN115100524A (zh) | 一种道路地物识别的方法以及相关装置 | |
CN115565230A (zh) | 基于内容匹配的整点解析平台 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20230828 Address after: 20th Floor, Liantou Building, No. 399 Wenhua Avenue, Jiangxia District, Wuhan City, Hubei Province, 430000 (Declaration of Commitment Registration) Applicant after: Hubei Liantou Consulting Management Co.,Ltd. Address before: No. 3993 Lianhua South Road, Minhang District, Shanghai, 200041 Applicant before: Yun Guiliang |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |