CN115297288B - 用于驾驶模拟器的监控数据存储方法 - Google Patents

用于驾驶模拟器的监控数据存储方法 Download PDF

Info

Publication number
CN115297288B
CN115297288B CN202211205059.5A CN202211205059A CN115297288B CN 115297288 B CN115297288 B CN 115297288B CN 202211205059 A CN202211205059 A CN 202211205059A CN 115297288 B CN115297288 B CN 115297288B
Authority
CN
China
Prior art keywords
sub
gaussian
models
pixel points
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211205059.5A
Other languages
English (en)
Other versions
CN115297288A (zh
Inventor
刘长宜
高国兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Handa Technology Development Group Co ltd
Original Assignee
Handa Technology Development Group Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Handa Technology Development Group Co ltd filed Critical Handa Technology Development Group Co ltd
Priority to CN202211205059.5A priority Critical patent/CN115297288B/zh
Publication of CN115297288A publication Critical patent/CN115297288A/zh
Application granted granted Critical
Publication of CN115297288B publication Critical patent/CN115297288B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及数据处理领域,具体涉及用于驾驶模拟器的监控数据存储方法,包括以下步骤:获取驾驶模拟器的监控视频数据,得到连续图像序列;获取连续图像序列中每一帧图像上像素点像素值的分布模型,根据任意两像素点的分布模型之间的相似性进行区域划分,得到多个区域;基于多个区域更新监控数据,对更新后的监控数据进行存储;即本发明的方案能够对监控数据进行压缩存储,避免占用更多空间。

Description

用于驾驶模拟器的监控数据存储方法
技术领域
本发明涉及数据处理领域,具体涉及用于驾驶模拟器的监控数据存储方法。
背景技术
驾驶模拟器是一种模拟汽车驾驶动作,获得实车驾驶感的仿真设备。其利用虚拟现实仿真技术营造虚拟的驾驶训练环境,并通过模拟器的操作部件与虚拟的环境进行人机交互,从而进行驾驶训练。在训练过程中,需要记录学员的具体操作,使得学员可以在训练完毕后查看训练过程中所出现的错误动作,以便后续纠正,但是由于学员人数较多,且单个学员的训练时间较长。
现有方法中往往是直接将整个监控过程中的所有数据均进行存储,但是这种方法需要较较多的存储空间,因此需要一种自动对监控数据进行存储的方法。
发明内容
为了解决上述技术问题,本发明的目的在于提供用于驾驶模拟器的监控数据存储方法,所采用的技术方案具体如下:
本发明提供的用于驾驶模拟器的监控数据存储方法,包括以下步骤:
获取驾驶模拟器的监控视频数据,得到连续图像序列;
获取连续图像序列中每一帧图像上像素点像素值的分布模型,根据任意两像素点的分布模型之间的相似性进行区域划分,得到多个区域;
基于多个区域更新监控数据,对更新后的监控数据进行存储。
进一步地,所述分布模型的获取过程为:
获取连续图像序列中每一帧图像上具有相同坐标的像素点的所有像素值,得到各个像素点的颜色变化序列;
使用EM算法对各个像素点的颜色变化序列进行混合高斯模型的拟合,其中混合高斯模型包括多个子高斯模型。
进一步地,根据任意两像素点的分布模型之间的相似性进行区域划分,得到多个区域的具体过程为:
从上到下,从左到右地遍历图像中的各个像素点,得到各个像素点八邻域内的所有像素点,对于第
Figure 87542DEST_PATH_IMAGE001
个像素点的八邻域内的第
Figure 650242DEST_PATH_IMAGE002
个像素点,使用KM匹配算法对这两个像素点的混合高斯模型中所有子高斯模型的均值,方差以及权重进行一一匹配,使得匹配后,所有子高斯模型之间的均值方差以及权重之间的差异最小,计算任意两像素点的相似度;
当相似度小于阈值,则两像素点不属于同一区域,反之进行合并;直到划分完所有像素点,得到多个区域,每个区域均对应一个混合高斯模型,所述区域包括目标短暂停留区域、纯背景区域以及目标运动区域。
进一步地,进行合并的具体过程为:
根据各个像素点混合高斯模型中的各个子高斯模型相对于权重最大的子高斯模型之间的权重以及均值的差异判断各个像素点属于背景像素点的可能性,其中,权重最大的子高斯模型记为第一子高斯模型;
当各个像素点属于背景像素点的可能性小于设定阈值,则不属于目标短暂停留区域;反之,则属于目标短暂停留区域,此时记为第二子高斯模型;
计算目标短暂停留区域的所有非第二子高斯模型与其他区域的子高斯模型之间的相似性,并根据相似性与条件阈值之间的大小,得到满足条件阈值且相似度最高的区域,则该区域即为目标短暂停留区域最相近的背景区域,将二者的混合子高斯模型进行合并,将匹配成功的非第二子高斯模型的均值以及方差的均值作为更新后的非第二子高斯模型的均值和方差,完成两个区域混合高斯模型的初次合并;
统计两个区域初次合并完成后子高斯模型的总个数,当总个数小于设定个数时,则直接合并;反之,将根据重要程度排序后的各个子高斯模型中编号大于等于设定个数的子高斯模型进行去除,从而两个区域的最终合并。
进一步地,所述相似性为:
Figure 181717DEST_PATH_IMAGE003
其中,
Figure 728236DEST_PATH_IMAGE004
为两个像素点匹配成功后的子高斯模型的均值之间差值绝对值的累加和,
Figure 570903DEST_PATH_IMAGE005
为两个像素点匹配成功后的子高斯模型的方差之间差值绝对值的累加和,
Figure 519267DEST_PATH_IMAGE006
分别为两个像素点匹配成功后的子高斯模型的权重之间差值绝对值的累加和。
本发明的有益效果为:
本发明的方案,对监控数据进行区域划分,即各个区域所对应的混合高斯模型,以及像素值重新赋值后的每一帧图像数据,实现了对更新后的监控视频数据进行压缩,避免了占用更多空间。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1是本发明的用于驾驶模拟器的监控数据存储方法的流程图。
具体实施方式
为了更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明的方案,其具体实施方式、结构、特征及其功效,详细说明如下。在下述说明中,不同的“一个实施例”或“另一个实施例”指的不一定是同一实施例。此外,一或多个实施例中的特定特征、结构或特点可由任何合适形式组合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。
本发明的目的是:本发明的方案通过对监控视频中每一帧图像中的各个位置上的像素点的所有像素值进行混合高斯模型的拟合,从而将每个像素点的像素值由24位的二进制数转化为3位二进制数进行存储,从而减少压缩数据量,节省存储空间。
具体地,本发明提出的用于驾驶模拟器的监控数据存储方法的方法实施例的步骤流程图,如图1所示,包括以下步骤:
步骤一:获取驾驶模拟器的监控视频数据,得到连续图像序列。
具体地,将相机固定在驾驶模拟器的侧面,采集驾驶位区域图像,对图像进行处理,根据图像中的特征信息对图像进行压缩存储。
本实施例中利用相机对学员的学习过程进行监控,记录学员从开始训练到结束训练的整个过程,对监控视频中连续的视频帧进行截取,得到连续图像序列。
步骤二:获取连续图像序列中每一帧图像上像素点像素值的分布模型,根据各像素点的分布模型之间的相似性进行区域划分,得到多个区域。
本实施例中的分布模型的获取过程为:
获取连续图像序列中每一帧图像上具有相同坐标的像素点的所有像素值,得到各个像素点的颜色变化序列;
使用EM算法对各个像素点的颜色变化序列进行混合高斯模型的拟合,设置子高斯模型的个数
Figure 97010DEST_PATH_IMAGE007
,得到每个像素点每个子高斯模型的均值和方差,其中第
Figure 865246DEST_PATH_IMAGE001
个像素点的第j个子高斯模型的均值,方差以及权重分别记为
Figure 311271DEST_PATH_IMAGE008
,得到混合高斯模型。
本实施例中,在获取连续图像上各个像素点的像素值,并对其进行混合高斯模型拟合的过程中,其本质上是相当于对该像素点不同像素值的一个统计;本发明期望可以将多个像素点的颜色变化情况用一个混合高斯模型进行表示,从而降低存储量,但是整个监控数据中,每个像素点存在三种类型:纯背景像素点,即整个监控数据中该位置上的像素点只受光照的影响;目标短暂停留像素点,即整个监控数据中该位置上的像素点大部分时刻受光照干扰,但是由于目标物体的短暂停留,导致部分数据中与大多数差异较大;目标运动区域,即该位置上由于目标物体的频繁运动,使得像素点与像素点之间的颜色差异较大。
当一个像素值的个数越多,其所在子高斯模型的权重越高,对应该像素点的五个子高斯模型中子高斯模型的权重之间差异较大,此时这个位置上的像素点对应前两种类型的像素点:只受光照影响的背景区域;目标物体短暂停留区域;
此二者之间的区别之处在于,前者各个子高斯模型之间均值之间的差异较小,后者的各个子高斯模型之中存在灰度差异较大的像素点;因为根据均值之间的差异情况对各个子高斯模型设置不同的重要程度,其中,只受光照影响的像素点所对应的权重较低且重要程度较低的子高斯模型可以在后续区域划分过程中进行舍弃,而对于权重较低但重要程度较高的子高斯模型则不允许进行舍弃,否则在后续根据各个像素点的像素值寻找对应的子高斯模型时无法找到对应的子高斯模型而造成的无法更新的现象。
因此,基于上述分析可通过混合高斯模型对像素点进行区域划分,具体地:
从上到下,从左到右地遍历图像中的各个像素点,得到各个像素点八邻域内的所有像素点,对于第
Figure 848563DEST_PATH_IMAGE001
个像素点的八邻域内的第
Figure 600137DEST_PATH_IMAGE002
个像素点,使用KM匹配算法对这两个像素点的混合高斯模型中所有子高斯模型的均值,方差以及权重进行一一匹配,使得匹配后,所有子高斯模型之间的均值方差以及权重之间的差异最小,则这两个像素点的相似度
Figure 855669DEST_PATH_IMAGE009
可表示为:
Figure 839805DEST_PATH_IMAGE010
其中,
Figure 169286DEST_PATH_IMAGE004
为两个像素点匹配成功后的子高斯模型的均值之间差值绝对值的累加和,
Figure 151149DEST_PATH_IMAGE005
为两个像素点匹配成功后的子高斯模型的方差之间差值绝对值的累加和,
Figure 956294DEST_PATH_IMAGE006
分别为两个像素点匹配成功后的子高斯模型的权重之间差值绝对值的累加和。
本实施例中,设置阈值
Figure 947384DEST_PATH_IMAGE011
,当两个像素点之间的相似度
Figure 456338DEST_PATH_IMAGE012
时,认为该像素点不属于同一区域;否则认为这两个像素点属于一个区域,依次处理各个像素点,直到划分完所有像素点,得到多个区域,每个区域均对应一个混合高斯模型,其中将每个区域中所有像素点之间匹配成功的子高斯模型的均值平均值,方差的平均值以及权重的平均值作为每个区域所对应的子高斯模型的均值,方差以及权重;
需要说明的是,由于目标短暂停留区域只是个别时刻的图像中因目标物体的存在,而导致其与纯背景区域之间存在差异,但实际上,目标短暂停留区域与纯背景区域之间仍然存在较高的相似性,因此可以根据各个区域所对应的混合高斯模型之间的相似性进一步对纯背景区域以及目标短暂停留区域进行合并,从而进一步降低存储量;具体过程如下:
根据各个像素点混合高斯模型中的各个子高斯模型相对于权重最大的子高斯模型之间的权重以及均值的差异判断各个像素点属于背景像素点的可能性,其中为了便于称呼,本发明中将权重最大的子高斯模型记为第一子高斯模型,则第
Figure 546785DEST_PATH_IMAGE013
个区域属于目标短暂停留区域的可能性
Figure 308067DEST_PATH_IMAGE014
可表示为:
Figure 837269DEST_PATH_IMAGE015
其中,
Figure 875763DEST_PATH_IMAGE016
分别为第
Figure 261745DEST_PATH_IMAGE013
个区域的第一子高斯模型的均值以及权重;
Figure 970376DEST_PATH_IMAGE017
为第
Figure 975373DEST_PATH_IMAGE013
个区域所对应的混合高斯模型中第
Figure 461849DEST_PATH_IMAGE018
个子高斯模型的权重;
Figure 221994DEST_PATH_IMAGE019
为第
Figure 223448DEST_PATH_IMAGE013
个区域所对应的混合高斯模型中第
Figure 94452DEST_PATH_IMAGE018
个子高斯模型的均值。
上述公式中,由于目标短暂停留区域需要满足子高斯模型权重之间的差异程度大,且子高斯模型之间均值的差异也较大的特点,因此相对第一子高斯模型而言,其他子高斯模型与该子高斯模型之间的权重差值越大且均值之间的差值也越大,该区域属于目标短暂停留区域的概率也越大,因此权重差值以及均值差值均与该区域属于目标短暂停留区域的可能性成正比,因此本发明使用
Figure 104609DEST_PATH_IMAGE020
构建子高斯模型与第一子高斯模型均值之间差值的正相关关系,并对其进行归一化处理。
本实施例中,设置设定阈值
Figure 35656DEST_PATH_IMAGE021
,当
Figure 727669DEST_PATH_IMAGE022
时,认为其不属于目标短暂停留区域,否则,认为其属于目标短暂停留区域。
由于目标短暂停留过程中形成的子高斯模型与纯背景区域中子高斯模型之间的颜色差异较大,因此该子高斯模型是导致目标短暂停留区域与纯背景区域差异的重要原因;故在对目标短暂停留区域与纯背景区域进行合并时,需要对此类子高斯模型进行保留,由于此类子高斯模型的特点在于其与权重最大子高斯模型之间均值差异大且权重差异也大,故上述中的
Figure 199101DEST_PATH_IMAGE023
可以表征第
Figure 394590DEST_PATH_IMAGE013
个区域的第j个子高斯模型是由目标短暂停留造成的子高斯模型的概率,当
Figure 762118DEST_PATH_IMAGE024
时,认为其为由目标短暂停留产生的子高斯模型,为便于理解,本发明中将由目标短暂停留产生的子高斯模型记为第二子高斯模型;
使用上述中的相似度方法计算目标短暂停留区域的所有非第二子高斯模型与其他区域的子高斯模型之间的相似性,并根据相似性与
Figure 347951DEST_PATH_IMAGE025
之间的相对大小,得到满足阈值
Figure 563687DEST_PATH_IMAGE026
且相似度最高的区域,则该区域即为目标短暂停留区域最相近的背景区域,需要将二者的混合子高斯模型进行合并,即对于匹配成功的非第二子高斯模型的均值以及方差的均值作为更新后的非第二子高斯模型的均值和方差,完成了两个区域混合高斯模型的初次合并;
由于第二子高斯模型是需要进行保留的,且第二子高模型的判断都是相对于第一子高斯模型的,因此
Figure 941579DEST_PATH_IMAGE027
也可以表征该第二子高斯模型的重要程度,故设置初次合并完成后权重最大的子高斯模型,即更新后的第一子高斯模型的重要程度为1,根据更新完成后两个区域中所有子高斯模型的重要程度从大到小进行排序,对排序后的子高斯模型从0开始进行编号,需要注意的是,此时两个区域中所有子高斯模型的个数不一定为5;
由于实际环境中的颜色较为丰富,混合高斯模型中子高斯模型的个数过少不能完全表示监控数据中的颜色信息,个数过多又会产生数据冗余,造成不必要的空间浪费,因此本发明使用三位二进制数表示子高斯模型的编号,以便后续使用子高斯模型的编号表示像素点的颜色。由于三位二进制数可以表示的数值范围为
Figure 948849DEST_PATH_IMAGE028
,对应子高斯模型的最大个数为8,当两个区域初次合并完成后子高斯模型的总个数
Figure 287558DEST_PATH_IMAGE029
,当
Figure 304055DEST_PATH_IMAGE030
直接合并即可,当
Figure 474137DEST_PATH_IMAGE031
时,将根据重要程度排序后的各个子高斯模型中编号大于等于8的子高斯模型进行去除,从而两个区域的最终合并。
重复上述步骤,得到最终合并完成后的多个区域,此时得到的多个区域是对于每帧图像而言的,即每帧图像划分的区域位置相同,每个区域均对应一个混合高斯模型。
本发明中,考虑到单帧图像中存在一些颜色变化较为平缓的区域,即该区域中像素点的像素值之间的差异较小,因此这些像素点之间的混合高斯模型相似度较高,故可以根据混合高斯模型之间的相似度对各个像素点进行进一步合并,以降低存储量。
步骤三:基于多个区域更新监控数据,对更新后的监控数据进行存储。
本实施例中,获取各个区域中每个像素点的像素值所对应的子高斯模型编号,即判断该像素点的像素值属于哪个子高斯模型的分布范围内,将该子高斯模型的编号赋值给该像素点,使得每一帧图像中各个像素点更新后的像素值均为一个三位二进制数,由此对每一帧图像中每个像素点像素值的更新;
至此得到本发明需要保存的数据内容,包括各个区域所对应的混合高斯模型,以及像素值重新赋值后的每一帧图像数据,使用霍夫曼编码对更新后的监控视频数据进行压缩,在进行还原过程中,只需要获取该像素点所对应的混合高斯模型中,编号为该像素点像素值的子高斯模型的均值作为该像素点的像素值即可。
本发明根据整个监控数据中各个像素点的颜色变化情况建立混合高斯模型,并将各个像素点的像素值用其对应的子高斯模型的编号代替,从而使得每个像素点的颜色信息从24位二进制数转换为3位二进制数,降低了每个像素点颜色信息的存储量;
本发明最终使得每个像素点的像素值变化范围只存在于
Figure 917888DEST_PATH_IMAGE028
,增加了单帧图像中数据的重复程度,可以降低单帧图像的存储量;此外,由于本发明中对每个子高斯模型的编号是按照重要程度进行排序的,其中第一子高斯模型的编号为0,而混合高斯模型本质上是基于数据的统计的,这也就意味着对于一个像素点而言,其在大多数帧图像中为0的概率大大增加,也就是说本发明中可以增加数据的重复度以及含零量,从而在使用霍夫曼编码对图像进行压缩时,降低整个监控数据的数据存储量。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (3)

1.用于驾驶模拟器的监控数据存储方法,其特征在于,包括以下步骤:
获取驾驶模拟器的监控视频数据,得到连续图像序列;
获取连续图像序列中每一帧图像上像素点像素值的分布模型,根据任意两像素点的分布模型之间的相似性进行区域划分,得到多个区域;
根据任意两像素点的分布模型之间的相似性进行区域划分,得到多个区域的具体过程为:
从上到下,从左到右地遍历图像中的各个像素点,得到各个像素点八邻域内的所有像素点,对于第
Figure 339306DEST_PATH_IMAGE002
个像素点的八邻域内的第
Figure DEST_PATH_IMAGE003
个像素点,使用KM匹配算法对这两个像素点的混合高斯模型中所有子高斯模型的均值,方差以及权重进行一一匹配,使得匹配后,所有子高斯模型之间的均值方差以及权重之间的差异最小,计算任意两像素点的相似度;
当相似度小于阈值,则两像素点不属于同一区域,反之进行合并;直到划分完所有像素点,得到多个区域,每个区域均对应一个混合高斯模型,所述区域包括目标短暂停留区域、纯背景区域以及目标运动区域;
进行合并的具体过程为:
根据各个像素点混合高斯模型中的各个子高斯模型相对于权重最大的子高斯模型之间的权重以及均值的差异判断各个像素点属于背景像素点的可能性,其中,权重最大的子高斯模型记为第一子高斯模型;
当各个像素点属于背景像素点的可能性小于设定阈值,则不属于目标短暂停留区域;反之,则属于目标短暂停留区域,此时记为第二子高斯模型;
计算目标短暂停留区域的所有非第二子高斯模型与其他区域的子高斯模型之间的相似性,并根据相似性与条件阈值之间的大小,得到满足条件阈值且相似度最高的区域,则该区域即为目标短暂停留区域最相近的背景区域,将二者的混合子高斯模型进行合并,将匹配成功的非第二子高斯模型的均值以及方差的均值作为更新后的非第二子高斯模型的均值和方差,完成两个区域混合高斯模型的初次合并;
统计两个区域初次合并完成后子高斯模型的总个数,当总个数小于设定个数时,则直接合并;反之,将根据重要程度排序后的各个子高斯模型中编号大于等于设定个数的子高斯模型进行去除,从而两个区域的最终合并;
基于多个区域更新监控数据,对更新后的监控数据进行存储。
2.根据权利要求1所述的用于驾驶模拟器的监控数据存储方法,其特征在于,所述分布模型的获取过程为:
获取连续图像序列中每一帧图像上具有相同坐标的像素点的所有像素值,得到各个像素点的颜色变化序列;
使用EM算法对各个像素点的颜色变化序列进行混合高斯模型的拟合,其中混合高斯模型包括多个子高斯模型。
3.根据权利要求1所述的用于驾驶模拟器的监控数据存储方法,其特征在于,
所述相似性为:
Figure DEST_PATH_IMAGE005
其中,
Figure 333412DEST_PATH_IMAGE006
为两个像素点匹配成功后的子高斯模型的均值之间差值绝对值的累加和,
Figure DEST_PATH_IMAGE007
为两个像素点匹配成功后的子高斯模型的方差之间差值绝对值的累加和,
Figure 70073DEST_PATH_IMAGE008
分别为两个像素点匹配成功后的子高斯模型的权重之间差值绝对值的累加和。
CN202211205059.5A 2022-09-30 2022-09-30 用于驾驶模拟器的监控数据存储方法 Active CN115297288B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211205059.5A CN115297288B (zh) 2022-09-30 2022-09-30 用于驾驶模拟器的监控数据存储方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211205059.5A CN115297288B (zh) 2022-09-30 2022-09-30 用于驾驶模拟器的监控数据存储方法

Publications (2)

Publication Number Publication Date
CN115297288A CN115297288A (zh) 2022-11-04
CN115297288B true CN115297288B (zh) 2023-03-07

Family

ID=83833843

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211205059.5A Active CN115297288B (zh) 2022-09-30 2022-09-30 用于驾驶模拟器的监控数据存储方法

Country Status (1)

Country Link
CN (1) CN115297288B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115795067B (zh) * 2023-02-08 2023-04-21 济宁市质量计量检验检测研究院(济宁半导体及显示产品质量监督检验中心、济宁市纤维质量监测中心) 一种用于温度测量数据的存储方法
CN116095347B (zh) * 2023-03-09 2023-07-11 中节能(临沂)环保能源有限公司 基于视频分析的建筑工程安全施工方法及系统
CN116912246B (zh) * 2023-09-13 2023-12-29 潍坊医学院 一种基于大数据的肿瘤ct数据处理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101686338A (zh) * 2008-09-26 2010-03-31 索尼株式会社 分割视频中的前景和背景的系统和方法
US8331695B1 (en) * 2009-02-12 2012-12-11 Xilinx, Inc. Integrated circuit having a circuit for and method of updating parameters associated with a background estimation portion of a video frame
CN104599290A (zh) * 2015-01-19 2015-05-06 苏州经贸职业技术学院 一种面向视频感知节点的目标检测方法
CN108961265A (zh) * 2018-05-30 2018-12-07 南京汇川图像视觉技术有限公司 一种基于颜色显著性和高斯模型的精确目标分割方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100568237B1 (ko) * 2004-06-10 2006-04-07 삼성전자주식회사 비디오 영상으로부터 이동 물체를 추출하는 장치 및 방법
US7885463B2 (en) * 2006-03-30 2011-02-08 Microsoft Corp. Image segmentation using spatial-color Gaussian mixture models

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101686338A (zh) * 2008-09-26 2010-03-31 索尼株式会社 分割视频中的前景和背景的系统和方法
US8331695B1 (en) * 2009-02-12 2012-12-11 Xilinx, Inc. Integrated circuit having a circuit for and method of updating parameters associated with a background estimation portion of a video frame
CN104599290A (zh) * 2015-01-19 2015-05-06 苏州经贸职业技术学院 一种面向视频感知节点的目标检测方法
CN108961265A (zh) * 2018-05-30 2018-12-07 南京汇川图像视觉技术有限公司 一种基于颜色显著性和高斯模型的精确目标分割方法

Also Published As

Publication number Publication date
CN115297288A (zh) 2022-11-04

Similar Documents

Publication Publication Date Title
CN115297288B (zh) 用于驾驶模拟器的监控数据存储方法
CN111798400B (zh) 基于生成对抗网络的无参考低光照图像增强方法及系统
CN110062234B (zh) 一种基于区域恰可察觉失真的感知视频编码方法
CN110807757B (zh) 基于人工智能的图像质量评估方法、装置及计算机设备
CN111355956A (zh) 一种hevc帧内编码中基于深度学习的率失真优化快速决策系统及其方法
CN109886391B (zh) 一种基于空间正反对角卷积的神经网络压缩方法
CN112399176A (zh) 一种视频编码方法、装置、计算机设备及存储介质
CN112232351A (zh) 一种基于深度神经网络的车牌识别系统
CN111160481B (zh) 基于深度学习的adas目标检测方法及系统
CN111985597B (zh) 模型压缩方法及装置
CN111008608B (zh) 一种基于深度学习的夜间车辆检测方法
CN111291826A (zh) 基于相关性融合网络的多源遥感图像的逐像素分类方法
CN115618051B (zh) 一种基于互联网的智慧校园监控视频存储方法
CN111179201A (zh) 一种视频去噪方法和电子设备
CN114897742A (zh) 一种纹理和结构特征两次融合的图像修复方法
CN112396042A (zh) 实时更新的目标检测方法及系统、计算机可读存储介质
CN115019340A (zh) 一种基于深度学习的夜间行人检测算法
CN111741313B (zh) 基于图像熵k均值聚类的3d-hevc快速cu分割方法
CN1151678C (zh) 对于视频信号中的目标轮廓图象进行编码的方法和装置
CN110996128A (zh) 在线教学视频推送管理系统
CN114494284B (zh) 一种基于显式监督区域关系的场景解析模型及方法
CN116092034A (zh) 一种基于改进的DeeplabV3+模型的车道线检测方法
CN111402223B (zh) 一种利用变电站视频图像的变电站缺陷问题检测方法
CN111954000B (zh) 一种面向高速收费图片集的无损压缩方法
CN106101489B (zh) 基于云平台的模板匹配监控视频去雾系统及其去雾方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Monitoring Data Storage Method for Driving Simulators

Effective date of registration: 20230629

Granted publication date: 20230307

Pledgee: Jiangsu Nantong Rural Commercial Bank Co.,Ltd. Development Zone sub branch

Pledgor: Handa Technology Development Group Co.,Ltd.

Registration number: Y2023980046772

PE01 Entry into force of the registration of the contract for pledge of patent right