CN117749995A - 一种基于多场景识别与语音交互的视频监控方法及系统 - Google Patents
一种基于多场景识别与语音交互的视频监控方法及系统 Download PDFInfo
- Publication number
- CN117749995A CN117749995A CN202311782545.8A CN202311782545A CN117749995A CN 117749995 A CN117749995 A CN 117749995A CN 202311782545 A CN202311782545 A CN 202311782545A CN 117749995 A CN117749995 A CN 117749995A
- Authority
- CN
- China
- Prior art keywords
- behavior
- data
- video
- analysis model
- abnormal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 145
- 230000003993 interaction Effects 0.000 title claims abstract description 52
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000006399 behavior Effects 0.000 claims abstract description 271
- 238000004458 analytical method Methods 0.000 claims abstract description 131
- 206010000117 Abnormal behaviour Diseases 0.000 claims abstract description 123
- 238000001514 detection method Methods 0.000 claims abstract description 49
- 230000002159 abnormal effect Effects 0.000 claims abstract description 22
- 238000013135 deep learning Methods 0.000 claims abstract description 18
- 238000011156 evaluation Methods 0.000 claims description 37
- 238000012549 training Methods 0.000 claims description 36
- 238000013527 convolutional neural network Methods 0.000 claims description 27
- 238000005516 engineering process Methods 0.000 claims description 21
- 230000004044 response Effects 0.000 claims description 16
- 230000007246 mechanism Effects 0.000 claims description 13
- 238000007781 pre-processing Methods 0.000 claims description 10
- 238000010276 construction Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 8
- 238000012795 verification Methods 0.000 claims description 8
- 238000005457 optimization Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 5
- 239000000779 smoke Substances 0.000 claims description 5
- 239000000872 buffer Substances 0.000 claims description 4
- 230000035945 sensitivity Effects 0.000 claims description 4
- 230000000474 nursing effect Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 description 7
- 230000001960 triggered effect Effects 0.000 description 5
- 238000009825 accumulation Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 230000003542 behavioural effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000001502 supplementing effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010000369 Accident Diseases 0.000 description 1
- 206010011469 Crying Diseases 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000002547 anomalous effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000004297 night vision Effects 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000009747 swallowing Effects 0.000 description 1
- 238000012731 temporal analysis Methods 0.000 description 1
- 238000000700 time series analysis Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Landscapes
- Alarm Systems (AREA)
Abstract
本发明公开了一种基于多场景识别与语音交互的视频监控方法及系统,用于视频监控领域,该方法包括以下步骤:在不同场景中获取摄像头采集的视频监控数据;使用深度学习算法分析视频监控数据,识别并分类不同的场景类型;针对每个识别的场景,分别采用不同的目标检测算法识别视频中的物体,并为每个识别的物体构建行为分析模型;基于行为分析模型、预设规则和历史行为数据,识别异常行为;接收并解析通过语音查询的监控信息或报警请求;收集异常行为信息和语音指令的反馈。本发明利用历史行为数据,预设规则和行为分析模型的信息,提供了综合和全面的方式来识别异常行为,提高异常检测的准确性,减少误报和漏报的可能性。
Description
技术领域
本发明涉及视频监控领域,具体来说,尤其涉及一种基于多场景识别与语音交互的视频监控方法及系统。
背景技术
目前,视频监控是安全防护系统的重要组成部分,它能帮助监控人员实时观察场所内的情况,快速发现和应对可能的安全威胁。例如,摄像头常常用于商店、银行、公共交通和学校等地方,以防止犯罪行为的发生,通过摄像头监控和分析人员的行为模式,可以帮助商家了解顾客的购物行为、优化店铺布局,或者帮助城市管理者优化交通流量等,随着人工智能技术的发展,视频监控系统不再仅仅是被动记录和播放视频,而是可以实现自动目标检测、行为识别、异常检测等高级功能,极大地提高了视频监控的效率和准确性。
视频监控是一种强大的工具,能够提供有价值的信息,帮助我们更好地理解和管理我们的环境。然而,随着技术的发展,我们也需要面对一些新的挑战。
传统的视频监控系统通常依赖于预设的规则和阈值来识别异常行为,这种方法缺乏灵活性,不能适应不断变化的环境和行为模式,依赖于手动特征提取和规则设置的方法,对于复杂和抽象的特征提取效果不佳,容易产生误报和漏报,同时处理效率低下,传统方法往往只能识别和追踪视频中的物体,但无法深入理解和分析物体的行为模式,难以识别出异常或者可疑的行为,在检测到异常行为后,传统的视频监控系统的反应速度往往较慢,无法及时触发警报,从而影响了安全防护的效果。
针对相关技术中的问题,目前尚未提出有效的解决方案。
发明内容
为了克服以上问题,本发明旨在提出一种基于多场景识别与语音交互的视频监控方法及系统,目的在于解决传统的视频监控系统通常依赖于预设的规则和阈值来识别异常行为,这种方法缺乏灵活性,不能适应不断变化的环境和行为模式,依赖于手动特征提取和规则设置的方法,对于复杂和抽象的特征提取效果不佳,容易产生误报和漏报,同时处理效率低下的问题。
为此,本发明采用的具体技术方案如下:
根据本发明的一个方面,提供了一种基于多场景识别与语音交互的视频监控方法,该视频监控方法包括以下步骤:
S1、在不同场景中获取摄像头采集的视频监控数据,并对视频监控数据进行预处理;
S2、使用深度学习算法分析预处理后的视频监控数据,识别并分类不同的场景类型;
S3、针对每个识别的场景,分别采用不同的目标检测算法识别视频中的物体,并为每个识别的物体构建行为分析模型;
S4、基于行为分析模型、预设规则和历史行为数据,使用AI技术识别异常行为,并记录异常行为信息;
S5、将记录的异常行为信息转化为文本,利用TTS技术将文本信息转化为语音进行通知,接收并解析通过语音查询的监控信息或报警请求;
S6、收集异常行为信息和语音指令的反馈,评估并优化行为分析模型。
可选地,在不同场景中获取摄像头采集的视频监控数据,并对视频监控数据进行预处理包括以下步骤:
S11、在不同场景中获取摄像头采集的视频监控数据;
S12、使用中值滤波器去除视频监控数据中的随机噪声;
S13、对视频监控数据中的每一帧进行亮度和对比度的调整;
S14、分析视频监控数据的内容,提取关键帧,并为每个关键帧添加时间戳。
可选地,使用深度学习算法分析预处理后的视频监控数据,识别并分类不同的场景类型包括以下步骤:
S21、根据场景分类的复杂度,选择深度学习算法,并构建卷积神经网络模型;
S22、从预处理后的视频监控数据中提取场景图片或视频片段,并构建训练集和验证集;
S23、使用训练集对卷积神经网络模型进行训练,通过调整模型的参数、使用损失函数和优化器最小化训练误差;
S24、通过验证集评估训练好的卷积神经网络模型的性能,并对卷积神经网络模型进行初步优化;
S25、使用初步优化的卷积神经网络模型对新的视频监控数据进行特征提取,并根据提取的特征对视频中的场景进行分类;
S26、对分类结果进行分析,识别分类错误的案例,并根据错误案例的反馈对卷积神经网络模型进行优化;
S27、将优化后的卷积神经网络模型部署到视频监控平台中,实现实时场景识别和分类。
可选地,针对每个识别的场景,分别采用不同的目标检测算法识别视频中的物体,并为每个识别的物体构建行为分析模型包括以下步骤:
S31、根据识别的场景特点,为每个场景定制目标检测模型;
S32、针对每个场景,从视频监控数据中提取物体图像或视频片段,并进行标注,构建训练集;
S33、数据集训练每个场景的目标检测模型;
S34、在视频监控平台中部署训练好的目标检测模型,对实时视频流进行物体识别和追踪;
S35、对每个识别的物体,根据物体在视频中的运动轨迹、交互和上下文信息,构建行为分析模型,使用标注的视频数据训练行为分析模型,分析视频数据的不同行为模式;
S36、将训练好的行为分析模型集成到视频监控平台中,进行行为识别和行为分析;
S37、设置监控和响应机制,当行为分析模型检测异常行为时,及时触发警报。
可选地,对每个识别的物体,根据物体在视频中的运动轨迹、交互和上下文信息,构建行为分析模型,使用标注的视频数据训练行为分析模型,分析视频数据的不同行为模式包括以下步骤:
S351、从视频监控平台中收集包含目标行为的视频片段;
S352、对视频片段进行标注,标明目标行为的类型、开始时间和结束时间;
S353、从标注的视频数据中提取行为特征;
S354、根据行为特征,构建行为分析模型,并使用标注的视频数据对行为分析模型进行训练;
S355、将训练好的行为分析模型集成到视频监控平台中,并利用行为分析模型分析视频数据的不同行为模式。
可选地,设置监控和响应机制,当行为分析模型检测异常行为时,及时触发警报包括以下步骤:
S371、在家庭安全监控、留守老人看护、儿童陪护及家庭娱乐中,分别定义异常行为;
S372、在行为分析模型中设定用于检测异常行为的参数,检测异常行为的参数至少包括人形识别精度阈值、烟雾和火焰图像识别参数及声音识别敏感度;
S373、通过行为分析模型检测异常行为,并在检测到异常行为时触发警报;
S374、设定警报通知方式,警报通知方式至少包括声音警报、手机APP推送、短信通知及邮件通知。
可选地,基于行为分析模型、预设规则和历史行为数据,使用AI技术识别异常行为,并记录异常行为信息包括以下步骤:
S41、根据历史行为数据和预设规则,从各种来源收集行为数据,并调用行为分析模型;
S42、使用行为分析模型对新的行为数据进行分析和预测,依据预设规则和行为分析模型,初步识别潜在的异常行为;
S43、根据潜在的异常行为,采用不同的异常检测策略,并根据time评估算法和duration评估算法进行行为评估;
S44、当识别异常行为时,根据预设规则,对识别到的异常行为进行处理,并对异常行为进行记录,更新行为分析模型。
可选地,使用行为分析模型对新的行为数据进行分析和预测,依据预设规则和行为分析模型,初步识别潜在的异常行为包括以下步骤:
S421、从物理层、情境表示层和情境分析层接收实时行为数据,并提取行为数据的特征;
S422、根据预设规则和历史行为数据选择行为分析模型;
S423、使用行为分析模型对新的行为数据进行分析,评估行为数据与预设规则和历史行为数据的匹配度;
S424、对行为分析模型的输出进行解析;
S425、识别与正常行为模式不匹配的潜在异常行为,并使用阈值判断行为数据是否异常。
可选地,根据潜在的异常行为,采用不同的异常检测策略,并根据time评估算法和duration评估算法进行行为评估包括以下步骤:
S431、收集time样本数据,计算time样本数据的平均值和加权平均值,并将time样本数据转换为分钟表示;
S432、计算time样本数据的标准差,基于权值确定最小置信区间,并计算置信区间的上下界,建立time模型;
S433、收集duration样本数据,使用修正序列数策略确定duration的阈值,并计算duration样本数据中的最大序列数和可控缓冲区,建立duration的规律模型;
S434、根据建立的time模型和duration模型,对新收集到的行为数据进行评估,并使用time评估算法检查行为的起始时间是否在正常范围内,同时使用duration评估算法检查行为的持续时间是否超出了正常的阈值;
S435、根据time评估算法和duration评估算法评估结果,识别出潜在的异常行为;
其中,计算time样本数据的标准差的公式为:
式中,Sn表示样本数据的标准差;
n表示样本数据的个数;
timei表示第i个样本数据的时间值;
表示样本数据的平均值。
根据本发明的另一个方面,还提供了一种基于多场景识别与语音交互的视频监控系统,该系统包括:视频数据采集模块、场景识别模块、行为模型构建模块、异常行为识别模块、通知与交互模块及反馈模块;
视频数据采集模块,用于在不同场景中获取摄像头采集的视频监控数据,并对视频监控数据进行预处理;
场景识别模块,用于使用深度学习算法分析预处理后的视频监控数据,识别并分类不同的场景类型;
行为模型构建模块,用于针对每个识别的场景,分别采用不同的目标检测算法识别视频中的物体,并为每个识别的物体构建行为分析模型;
异常行为识别模块,用于基于行为分析模型、预设规则和历史行为数据,使用AI技术识别异常行为,并记录异常行为信息;
通知与交互模块,用于将记录的异常行为信息转化为文本,利用TTS技术将文本信息转化为语音进行通知,接收并解析通过语音查询的监控信息或报警请求;
反馈模块,用于收集异常行为信息和语音指令的反馈,评估并优化行为分析模型。
相较于现有技术,本申请具有以下有益效果:
1、本发明通过自适应地学习数据特征,CNN模型能够从图像或视频片段中提取出复杂和抽象的特征,对于场景识别和分类至关重要,使用深度学习算法进行场景识别和分类可以实现自动化和高效性,一旦模型被训练和优化,它可以自动处理新的视频监控数据,无需人工干预,深度学习模型具有很好的扩展性,随着数据量的增加,模型的性能通常会提高,随着视频监控数据的积累,不断提升场景识别和分类的准确性,通过识别分类错误的案例,找出模型的不足,然后针对性地对模型进行优化。
2、本发明通过为每个场景定制目标检测模型,更准确地识别和追踪视频中的物体,不同的场景可能包含不同类型的物体,使用定制的模型可以更好地适应场景的特性,提高目标检测的精度和效率;其次,通过构建行为分析模型,对物体的行为进行深入的理解和分析,了解物体在视频中的动态行为,识别出异常或者可疑的行为模式,这对于安全监控和预警非常重要;通过设置监控和响应机制,在行为分析模型检测到异常行为时及时触发警报,实时的响应机制可以大大提高视频监控系统的反应速度,缩短发现异常行为到采取行动的时间,有效提高安全防护的效果,最后,通过使用标注的视频数据训练行为分析模型,不断地优化和改进模型的性能,随着数据的积累,模型的预测准确性和鲁棒性会不断提高。
3、本发明利用了历史行为数据,预设规则和行为分析模型的信息,提供了一种综合和全面的方式来识别异常行为,提高异常检测的准确性,减少误报和漏报的可能性,提供一种动态的异常检测机制,可以根据实时的行为数据和行为模式的变化进行自我调整和优化,使得异常检测平台能够适应不断变化的环境和行为模式,通过记录异常行为的信息,分析和理解异常行为的原因和模式,从而提供有价值的参考信息,以改进和优化行为分析模型和异常检测策略,通过更新行为分析模型,不仅可以提高模型的预测准确性和鲁棒性,还可以使模型更好地适应新的行为模式和情况,从而持续提高异常检测的性能,总的来说,结合历史行为数据、预设规则和行为分析模型的高效、准确和实时的异常检测方法,这对于提高视频监控系统的性能和安全防护效果至关重要。
附图说明
结合实施例的以下描述,本发明的上述特性、特征和优点及其实现方式和方法变得更明白易懂,实施例结合附图详细阐述。在此以示意图示出:
图1是根据本发明实施例的一种基于多场景识别与语音交互的视频监控方法的流程图;
图2是根据本发明实施例的一种基于多场景识别与语音交互的视频监控系统的原理框图;
图3是本发明中基于多场景识别与语音交互的视频监控摄像头的结构示意图。
图中:
1、视频数据采集模块;2、场景识别模块;3、行为模型构建模块;4、异常行为识别模块;5、通知与交互模块;6、反馈模块;101、机体;201、显示屏;301、链条轮;401、摄像头本体;501、补光灯;601、扩音器;701、温湿度传感器。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
根据本发明的实施例,提供了一种基于多场景识别与语音交互的视频监控方法及系统。
现结合附图和具体实施方式对本发明进一步说明,如图1所示,根据本发明的一个实施例,提供了一种基于多场景识别与语音交互的视频监控方法,该视频监控方法包括以下步骤:
S1、在不同场景中获取摄像头采集的视频监控数据,并对视频监控数据进行预处理。
优选地,在不同场景中获取摄像头采集的视频监控数据,并对视频监控数据进行预处理包括以下步骤:
S11、在不同场景中获取摄像头采集的视频监控数据;
S12、使用中值滤波器去除视频监控数据中的随机噪声;
S13、对视频监控数据中的每一帧进行亮度和对比度的调整;
S14、分析视频监控数据的内容,提取关键帧,并为每个关键帧添加时间戳。
需要解释说明的是,在视频监控平台的数据采集与预处理阶段,对数据的质量和评估有着至关重要的影响,首先需要在不同的场景中获取摄像头采集的视频监控数据,可能涉及到不同的环境,如室内、室外、白天、夜晚等,每种环境都可能对视频数据产生不同的影响,一旦数据被收集,值滤波器去除视频监控数据中的随机噪声,中值滤波是一种非线性操作,能够有效地消除噪声,并且保持图像边缘的清晰度,它的工作原理是在图像中移动一个窗口,然后取窗口中所有像素值的中值作为当前像素的值,接下来,对视频监控数据中的每一帧进行亮度和对比度的调整可以帮助改善图像的可视化效果,通过图像处理算法来实现,例如直方图均衡化、伽马校正等,最后,分析视频监控数据的内容,提取关键帧,并为每个关键帧添加时间戳,关键帧是视频中表示场景变化的重要帧,通过图像分析和机器学习算法来识别,时间戳的添加则可以帮助后续的处理和分析,如异常行为检测、活动识别等。
S2、使用深度学习算法分析预处理后的视频监控数据,识别并分类不同的场景类型。
优选地,使用深度学习算法分析预处理后的视频监控数据,识别并分类不同的场景类型包括以下步骤:
S21、根据场景分类的复杂度,选择深度学习算法,并构建卷积神经网络模型;
S22、从预处理后的视频监控数据中提取场景图片或视频片段,并构建训练集和验证集;
S23、使用训练集对卷积神经网络模型进行训练,通过调整模型的参数、使用损失函数和优化器最小化训练误差;
S24、通过验证集评估训练好的卷积神经网络模型的性能,并对卷积神经网络模型进行初步优化;
S25、使用初步优化的卷积神经网络模型对新的视频监控数据进行特征提取,并根据提取的特征对视频中的场景进行分类;
S26、对分类结果进行分析,识别分类错误的案例,并根据错误案例的反馈对卷积神经网络模型进行优化;
S27、将优化后的卷积神经网络模型部署到视频监控平台中,实现实时场景识别和分类。
需要解释说明的是,在视频监控平台的场景识别阶段,深度学习,特别是卷积神经网络,在图像和视频分析中发挥了重要作用,首先根据场景分类的复杂度,选择相应的深度学习算法并构建CNN模型,CNN模型包括多个卷积层、池化层和全连接层,然后,从预处理后的视频监控数据中提取场景图片或视频片段,并构建训练集和验证集,视频监控数据将用于训练和评估CNN模型,在训练阶段,使用训练集对模型进行训练,调整模型参数,采用损失函数和优化器以最小化训练误差,通常使用反向传播算法和梯度下降等方法来实现,接下来,通过验证集评估训练好的模型的性能,并进行初步优化,这通常涉及到调整模型的超参数,如学习率、批大小等,然后使用初步优化的模型对新的视频监控数据进行特征提取,并根据提取的特征对视频中的场景进行分类,这个过程是通过CNN的前向传播实现的,在分类结果分析阶段,识别分类错误的案例,并根据错误案例的反馈对模型进行优化,再次调整模型的参数或改进模型的架构,最后将优化后的模型部署到视频监控平台中,实现实时场景识别和分类,部署过程涉及到模型压缩和加速技术,以满足实时处理的需求。
S3、针对每个识别的场景,分别采用不同的目标检测算法识别视频中的物体,并为每个识别的物体构建行为分析模型。
优选地,针对每个识别的场景,分别采用不同的目标检测算法识别视频中的物体,并为每个识别的物体构建行为分析模型包括以下步骤:
S31、根据识别的场景特点,为每个场景定制目标检测模型;
S32、针对每个场景,从视频监控数据中提取物体图像或视频片段,并进行标注,构建训练集;
S33、数据集训练每个场景的目标检测模型;
S34、在视频监控平台中部署训练好的目标检测模型,对实时视频流进行物体识别和追踪;
S35、对每个识别的物体,根据物体在视频中的运动轨迹、交互和上下文信息,构建行为分析模型,使用标注的视频数据训练行为分析模型,分析视频数据的不同行为模式;
S36、将训练好的行为分析模型集成到视频监控平台中,进行行为识别和行为分析;
S37、设置监控和响应机制,当行为分析模型检测异常行为时,及时触发警报。
优选地,对每个识别的物体,根据物体在视频中的运动轨迹、交互和上下文信息,构建行为分析模型,使用标注的视频数据训练行为分析模型,分析视频数据的不同行为模式包括以下步骤:
S351、从视频监控平台中收集包含目标行为的视频片段;
S352、对视频片段进行标注,标明目标行为的类型、开始时间和结束时间;
S353、从标注的视频数据中提取行为特征;
S354、根据行为特征,构建行为分析模型,并使用标注的视频数据对行为分析模型进行训练;
S355、将训练好的行为分析模型集成到视频监控平台中,并利用行为分析模型分析视频数据的不同行为模式。
优选地,设置监控和响应机制,当行为分析模型检测异常行为时,及时触发警报包括以下步骤:
S371、在家庭安全监控、留守老人看护、儿童陪护及家庭娱乐中,分别定义异常行为;
S372、在行为分析模型中设定用于检测异常行为的参数,检测异常行为的参数至少包括人形识别精度阈值、烟雾和火焰图像识别参数及声音识别敏感度;
S373、通过行为分析模型检测异常行为,并在检测到异常行为时触发警报;
S374、设定警报通知方式,警报通知方式至少包括声音警报、手机APP推送、短信通知及邮件通知。
需要解释说明的是,在视频监控平台的目标检测和行为分析阶段,根据识别的场景特点定制目标检测模型,选择合适的深度学习模型和算法。然后对每个场景的视频监控数据进行物体图像或视频片段的提取和标注,构建训练集,标注数据将用于训练目标检测模型,训练完成后,将模型部署到视频监控平台,进行实时的物体识别和追踪,接下来,对于每个识别的物体,根据其在视频中的运动轨迹、交互和上下文信息,构建行为分析模型,收集包含目标行为的视频片段,进行标注,提取行为特征,并使用标注的视频数据对行为分析模型进行训练,训练好的行为分析模型将被集成到视频监控平台中,进行行为识别和分析,最后设定监控和响应机制,定义各个使用场景(如家庭安全监控、留守老人看护、儿童陪护及家庭娱乐)的异常行为,并在行为分析模型中设定用于检测异常行为的参数。异常行为的参数包括人形识别精度阈值、烟雾和火焰图像识别参数及声音识别敏感度等,然后使用行为分析模型检测异常行为,并在检测到异常行为时触发警报,警报通知方式可能包括声音警报、手机APP推送、短信通知和邮件通知等,这样,当异常行为发生时,系统可以及时提醒相关人员进行处理,从而保证监控场景的安全。
此外,拓展的使用场景如下:
家庭安全监控场景中360°全景视频监控,支持夜视,视频录像存储(支持本地TF卡存储和云端存储)、回放和检索;内置AI算法对人形和人脸识别,通过时间布防,在值守监控时段对人形检测报警和陌生人报警;通过AI视觉算法技术,对火焰和烟雾识别检测,可以对火灾事故进行预防和报警,并通知家庭成员及时采取措施控制灾难发生。
留守老人看护场景中智能守护,对老人跌倒识别检测报警并推送告知家庭成员,也可联动120救护救助,支持AI智能语音交互,实现人机交流,小小机器人和老人交流解闷;通过语音指令、或者手势识别指令呼叫家庭成员视频电话,实现双向视频语音可视化交流。
婴儿儿童陪护场景中婴儿哭声检测、玩具物品误食吞食等危险动作检测报警;内置温湿度传感器,可对婴儿所处环境温度和湿度检测,超出范围预警报警;人声模仿,播放模拟妈妈声音以及婴儿摇篮曲哄护孩子;可以充当儿童玩伴功能,通过人形识别,滚轮地面驱动行驶跟踪孩子移动行走,自动避障,一路追逐玩耍。
家庭娱乐场景中内置高品质喇叭,通过蓝牙连接可以播放任意音乐;播放音乐同时氛围灯可以五颜六色动感闪烁和切换,营造氛围感;动态精彩图片抓拍,形成相册,家人朋友可以分享与打印相册。
S4、基于行为分析模型、预设规则和历史行为数据,使用AI技术识别异常行为,并记录异常行为信息。
优选地,基于行为分析模型、预设规则和历史行为数据,使用AI技术识别异常行为,并记录异常行为信息包括以下步骤:
S41、根据历史行为数据和预设规则,从各种来源收集行为数据,并调用行为分析模型;
S42、使用行为分析模型对新的行为数据进行分析和预测,依据预设规则和行为分析模型,初步识别潜在的异常行为;
S43、根据潜在的异常行为,采用不同的异常检测策略,并根据time评估算法和duration评估算法进行行为评估;
S44、当识别异常行为时,根据预设规则,对识别到的异常行为进行处理,并对异常行为进行记录,更新行为分析模型。
此外,需要补充说明的时,使用历史行为数据、预设规则以及行为分析模型来识别和记录异常行为,根据历史行为数据和预设规则收集各种行为数据,并调用行为分析模型,从各种传感器接收数据,包括视频监控、声音监控以及其他物联网设备的数据,然后使用行为分析模型对新的行为数据进行分析和预测,并根据预设规则以及行为分析模型初步识别潜在的异常行为。例如,如果某个行为的发生频率、时长或模式与历史数据明显不符,那么可以认为这是一个潜在的异常行为。
紧接着,根据潜在的异常行为,采用不同的异常检测策略,并使用time评估算法和duration评估算法进行行为评估。例如,使用统计方法来判断一个行为是否异常,例如,如果一个行为的发生时间或持续时间超出了预设的阈值,就认为这是一个异常行为。
最后,当识别出异常行为时,根据预设的规则进行处理,并记录异常行为,同时更新行为分析模型,处理异常行为的方式可能多种多样,例如,触发一个警报,或者启动一个自动化的响应流程。同时,更新行为分析模型,以便更好地识别和处理未来的异常行为。
优选地,使用行为分析模型对新的行为数据进行分析和预测,依据预设规则和行为分析模型,初步识别潜在的异常行为包括以下步骤:
S421、从物理层、情境表示层和情境分析层接收实时行为数据,并提取行为数据的特征;
S422、根据预设规则和历史行为数据选择行为分析模型;
S423、使用行为分析模型对新的行为数据进行分析,评估行为数据与预设规则和历史行为数据的匹配度;
S424、对行为分析模型的输出进行解析;
S425、识别与正常行为模式不匹配的潜在异常行为,并使用阈值判断行为数据是否异常。
优选地,根据潜在的异常行为,采用不同的异常检测策略,并根据time评估算法和duration评估算法进行行为评估包括以下步骤:
S431、收集time样本数据,计算time样本数据的平均值和加权平均值,并将time样本数据转换为分钟表示;
S432、计算time样本数据的标准差,基于权值确定最小置信区间,并计算置信区间的上下界,建立time模型;
S433、收集duration样本数据,使用修正序列数策略确定duration的阈值,并计算duration样本数据中的最大序列数和可控缓冲区,建立duration的规律模型;
S434、根据建立的time模型和duration模型,对新收集到的行为数据进行评估,并使用time评估算法检查行为的起始时间是否在正常范围内,同时使用duration评估算法检查行为的持续时间是否超出了正常的阈值;
S435、根据time评估算法和duration评估算法评估结果,识别出潜在的异常行为;
其中,计算time样本数据的标准差的公式为:
式中,Sn表示样本数据的标准差;
n表示样本数据的个数;
timei表示第i个样本数据的时间值;
表示样本数据的平均值。
需要解释说明的是,在这个复杂的行为评估过程中,首先从物理层、情境表示层和情境分析层接收实时行为数据并提取数据特征,将数据转化为一种更适合分析的形式,比如使用特征工程技术提取数据的关键属性,然后根据预设规则和历史行为数据选择适合的行为分析模型,这个阶段可能会涉及到机器学习或深度学习技术,以便根据历史数据学习和预测行为模式,接下来,新的行为数据会通过所选的行为分析模型进行分析,评估行为数据与预设规则和历史行为数据的匹配度,计算行为数据与模型预测之间的差异或相似度。接着对行为分析模型的输出进行解析,并识别出与正常行为模式不匹配的潜在异常行为。设置一个阈值,任何超过这个阈值的行为都会被视为潜在的异常行为。此外,根据潜在的异常行为,采用不同的异常检测策略,使用time评估算法和duration评估算法进行评估。这涉及到统计学和概率论的应用,例如计算样本数据的平均值、加权平均值、标准差等,并使用这些统计量建立行为模型,收集duration样本数据,使用修正序列数策略确定duration的阈值,并计算duration样本数据中的最大序列数和可控缓冲区,时间序列分析和复杂事件处理技术。然后,根据建立的time模型和duration模型,对新收集到的行为数据进行评估,检查行为的起始时间是否在正常范围内,同时检查行为的持续时间是否超出了正常的阈值,时间序列分析和阈值检测技术。最后根据time评估算法和duration评估算法评估结果,识别出潜在的异常行为,异常检测和事件识别技术,以便在行为变得危险或者不可接受之前识别并处理它们。
S5、将记录的异常行为信息转化为文本,利用TTS技术将文本信息转化为语音进行通知,接收并解析通过语音查询的监控信息或报警请求。
需要解释说明的是,上述阶段是一个信息反馈和交互阶段,其中将已经识别和记录的异常行为信息转化为可理解的文本形式的过程,这个过程涉及到自然语言处理(NLP)技术,将结构化或半结构化的异常行为数据转化为人类可以理解的语言。例如,一个异常行为可能被描述为“在不寻常的时间(23:00)有一个未授权的入侵尝试”,接着利用文本到语音(TTS,Text-to-Speech)技术将文本信息转化为语音。以更直观、更人性化的方式与用户或管理员进行交互。例如,一个安全员可能会收到一个自动语音警报,告诉他们有一个可能的入侵尝试。此外,这个阶段也涵盖了接收并解析通过语音查询的监控信息或报警请求的能力,使用语音识别技术来解析用户或管理员的语音指令,并对指令进行相应的操作。例如,一个安全员可能会通过语音命令请求系统提供更详尽的信息。
S6、收集异常行为信息和语音指令的反馈,评估并优化行为分析模型。
需要解释说明的是,收集和整理所有识别出的异常行为信息,这包括异常行为的类型、频率、持续时间以及可能的触发因素,信息可以帮助系统理解哪些行为模式被准确地识别为异常,哪些则可能是误报。同时,用户通过语音指令提供的反馈也会被系统记录和分析,反馈可能包括用户对异常行为警报的响应、对系统性能的评价,以及对异常行为的额外信息。例如,用户可能会通过语音指令报告一个错误的异常警报,或者提供更多关于识别出的异常行为的背景信息。
补充说明如下:Time评估算法:它考虑解决方案的总执行时间作为主要的评估标准。例如,在充电站优化问题中,这可能包括到达充电站的旅行时间,以及在充电站进行充电所需的时间。更短的总时间通常意味着更好的解决方案。
Duration评估算法:它考虑解决方案的持续时间作为主要的评估标准。在某些情况下,这可能与Time评估算法类似,但在其他情况下,它可能更关注解决方案的稳定性或持久性。例如,一个充电站可能提供比另一个充电站更快的充电服务,但如果它的服务经常中断或不可用,那么它的持续时间评分可能会较低。
根据本发明的另一个实施例,如图2所示,还提供了一种基于多场景识别与语音交互的视频监控系统,该系统包括:视频数据采集模块1、场景识别模块2、行为模型构建模块3、异常行为识别模块4、通知与交互模块5及反馈模块6;
视频数据采集模块1,用于在不同场景中获取摄像头采集的视频监控数据,并对视频监控数据进行预处理;
场景识别模块2,用于使用深度学习算法分析预处理后的视频监控数据,识别并分类不同的场景类型;
行为模型构建模块3,用于针对每个识别的场景,分别采用不同的目标检测算法识别视频中的物体,并为每个识别的物体构建行为分析模型;
异常行为识别模块4,用于基于行为分析模型、预设规则和历史行为数据,使用AI技术识别异常行为,并记录异常行为信息;
通知与交互模块5,用于将记录的异常行为信息转化为文本,利用TTS技术将文本信息转化为语音进行通知,接收并解析通过语音查询的监控信息或报警请求;
反馈模块6,用于收集异常行为信息和语音指令的反馈,评估并优化行为分析模型。
根据本发明的又一个实施例,如图3所示,又提供了基于多场景识别与语音交互的视频监控摄像头,该视频监控摄像头包括:机体101、显示屏201、链条轮301、摄像头本体401、补光灯501、扩音器601及温湿度传感器701构成;其中,摄像头本体401内部设置有视频数据采集模块1、场景识别模块2、行为模型构建模块3、异常行为识别模块4、通知与交互模块5及反馈模块6。
且摄像头本体401采用前后左右四镜头设计无缝拼接全景家用摄像头,360°无死角监控和守护,此外,摄像头本体401的四个镜头支持开眼闭眼开关设置;
显示屏201支持摄像头本体401的自身视频显示以及视频通话时对方视频显示切换。
此外,温湿度传感器701支持温湿度检测显示;
摄像头本体401内置wifi模块连网,隐藏式天线设计,且内置电池和电量监测,低电量会自动回归充电。
上述基于多场景识别与语音交互的视频监控摄像头可执行本发明任意实施例所提供的基于多场景识别与语音交互的视频监控方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明任意实施例提供的基于多场景识别与语音交互的视频监控方法。
由于上述所介绍的基于多场景识别与语音交互的视频监控摄像头为可以执行本发明实施例中的基于多场景识别与语音交互的视频监控方法的摄像头,故而基于本发明实施例中所介绍的基于多场景识别与语音交互的视频监控,本领域所属技术人员能够了解本实施例的基于多场景识别与语音交互的视频监控摄像头的具体实施方式以及其各种变化形式,所以在此对于该基于多场景识别与语音交互的视频监控摄像头如何实现本发明实施例中的基于多场景识别与语音交互的视频监控方法不再详细介绍。只要本领域所属技术人员实施本发明实施例中基于多场景识别与语音交互的视频监控方法所采用的摄像头,都属于本申请所欲保护的范围。
综上所述,借助于本发明的上述技术方案,本发明通过自适应地学习数据特征,CNN模型能够从图像或视频片段中提取出复杂和抽象的特征,对于场景识别和分类至关重要,使用深度学习算法进行场景识别和分类可以实现自动化和高效性,一旦模型被训练和优化,它可以自动处理新的视频监控数据,无需人工干预,深度学习模型具有很好的扩展性,随着数据量的增加,模型的性能通常会提高,随着视频监控数据的积累,不断提升场景识别和分类的准确性,通过识别分类错误的案例,找出模型的不足,然后针对性地对模型进行优化;本发明通过为每个场景定制目标检测模型,更准确地识别和追踪视频中的物体,不同的场景可能包含不同类型的物体,使用定制的模型可以更好地适应场景的特性,提高目标检测的精度和效率;其次,通过构建行为分析模型,对物体的行为进行深入的理解和分析,了解物体在视频中的动态行为,识别出异常或者可疑的行为模式,这对于安全监控和预警非常重要;通过设置监控和响应机制,在行为分析模型检测到异常行为时及时触发警报,实时的响应机制可以大大提高视频监控系统的反应速度,缩短发现异常行为到采取行动的时间,有效提高安全防护的效果,最后,通过使用标注的视频数据训练行为分析模型,不断地优化和改进模型的性能,随着数据的积累,模型的预测准确性和鲁棒性会不断提高;本发明利用了历史行为数据,预设规则和行为分析模型的信息,提供了一种综合和全面的方式来识别异常行为,提高异常检测的准确性,减少误报和漏报的可能性,提供一种动态的异常检测机制,可以根据实时的行为数据和行为模式的变化进行自我调整和优化,使得异常检测平台能够适应不断变化的环境和行为模式,通过记录异常行为的信息,分析和理解异常行为的原因和模式,从而提供有价值的参考信息,以改进和优化行为分析模型和异常检测策略,通过更新行为分析模型,不仅可以提高模型的预测准确性和鲁棒性,还可以使模型更好地适应新的行为模式和情况,从而持续提高异常检测的性能,总的来说,结合历史行为数据、预设规则和行为分析模型的高效、准确和实时的异常检测方法,这对于提高视频监控系统的性能和安全防护效果至关重要。
虽然本发明已以较佳实施例揭示如上,然所述实施例仅为了便于说明而举例而已,并非用以限定本发明,本领域的技术人员在不脱离本发明精神和范围的前提下可作若干的更动与润饰,本发明所主张的保护范围应以权利要求书所述为准。
Claims (10)
1.一种基于多场景识别与语音交互的视频监控方法,其特征在于,该视频监控方法包括以下步骤:
S1、在不同场景中获取摄像头采集的视频监控数据,并对视频监控数据进行预处理;
S2、使用深度学习算法分析预处理后的视频监控数据,识别并分类不同的场景类型;
S3、针对每个识别的场景,分别采用不同的目标检测算法识别视频中的物体,并为每个识别的物体构建行为分析模型;
S4、基于行为分析模型、预设规则和历史行为数据,使用AI技术识别异常行为,并记录异常行为信息;
S5、将记录的异常行为信息转化为文本,利用TTS技术将文本信息转化为语音进行通知,接收并解析通过语音查询的监控信息或报警请求;
S6、收集异常行为信息和语音指令的反馈,评估并优化行为分析模型。
2.根据权利要求1所述的一种基于多场景识别与语音交互的视频监控方法,其特征在于,所述在不同场景中获取摄像头采集的视频监控数据,并对视频监控数据进行预处理包括以下步骤:
S11、在不同场景中获取摄像头采集的视频监控数据;
S12、使用中值滤波器去除视频监控数据中的随机噪声;
S13、对视频监控数据中的每一帧进行亮度和对比度的调整;
S14、分析视频监控数据的内容,提取关键帧,并为每个关键帧添加时间戳。
3.根据权利要求1所述的一种基于多场景识别与语音交互的视频监控方法,其特征在于,所述使用深度学习算法分析预处理后的视频监控数据,识别并分类不同的场景类型包括以下步骤:
S21、根据场景分类的复杂度,选择深度学习算法,并构建卷积神经网络模型;
S22、从预处理后的视频监控数据中提取场景图片或视频片段,并构建训练集和验证集;
S23、使用训练集对卷积神经网络模型进行训练,通过调整模型的参数、使用损失函数和优化器最小化训练误差;
S24、通过验证集评估训练好的卷积神经网络模型的性能,并对卷积神经网络模型进行初步优化;
S25、使用初步优化的卷积神经网络模型对新的视频监控数据进行特征提取,并根据提取的特征对视频中的场景进行分类;
S26、对分类结果进行分析,识别分类错误的案例,并根据错误案例的反馈对卷积神经网络模型进行优化;
S27、将优化后的卷积神经网络模型部署到视频监控平台中,实现实时场景识别和分类。
4.根据权利要求1所述的一种基于多场景识别与语音交互的视频监控方法,其特征在于,所述针对每个识别的场景,分别采用不同的目标检测算法识别视频中的物体,并为每个识别的物体构建行为分析模型包括以下步骤:
S31、根据识别的场景特点,为每个场景定制目标检测模型;
S32、针对每个场景,从视频监控数据中提取物体图像或视频片段,并进行标注,构建训练集;
S33、数据集训练每个场景的目标检测模型;
S34、在视频监控平台中部署训练好的目标检测模型,对实时视频流进行物体识别和追踪;
S35、对每个识别的物体,根据物体在视频中的运动轨迹、交互和上下文信息,构建行为分析模型,使用标注的视频数据训练行为分析模型,分析视频数据的不同行为模式;
S36、将训练好的行为分析模型集成到视频监控平台中,进行行为识别和行为分析;
S37、设置监控和响应机制,当行为分析模型检测异常行为时,及时触发警报。
5.根据权利要求4所述的一种基于多场景识别与语音交互的视频监控方法,其特征在于,所述对每个识别的物体,根据物体在视频中的运动轨迹、交互和上下文信息,构建行为分析模型,使用标注的视频数据训练行为分析模型,分析视频数据的不同行为模式包括以下步骤:
S351、从视频监控平台中收集包含目标行为的视频片段;
S352、对视频片段进行标注,标明目标行为的类型、开始时间和结束时间;
S353、从标注的视频数据中提取行为特征;
S354、根据行为特征,构建行为分析模型,并使用标注的视频数据对行为分析模型进行训练;
S355、将训练好的行为分析模型集成到视频监控平台中,并利用行为分析模型分析视频数据的不同行为模式。
6.根据权利要求4所述的一种基于多场景识别与语音交互的视频监控方法,其特征在于,所述设置监控和响应机制,当行为分析模型检测异常行为时,及时触发警报包括以下步骤:
S371、在家庭安全监控、留守老人看护、儿童陪护及家庭娱乐中,分别定义异常行为;
S372、在行为分析模型中设定用于检测异常行为的参数,所述检测异常行为的参数至少包括人形识别精度阈值、烟雾和火焰图像识别参数及声音识别敏感度;
S373、通过行为分析模型检测异常行为,并在检测到异常行为时触发警报;
S374、设定警报通知方式,所述警报通知方式至少包括声音警报、手机APP推送、短信通知及邮件通知。
7.根据权利要求1所述的一种基于多场景识别与语音交互的视频监控方法,其特征在于,所述基于行为分析模型、预设规则和历史行为数据,使用AI技术识别异常行为,并记录异常行为信息包括以下步骤:
S41、根据历史行为数据和预设规则,从各种来源收集行为数据,并调用行为分析模型;
S42、使用行为分析模型对新的行为数据进行分析和预测,依据预设规则和行为分析模型,初步识别潜在的异常行为;
S43、根据潜在的异常行为,采用不同的异常检测策略,并根据time评估算法和duration评估算法进行行为评估;
S44、当识别异常行为时,根据预设规则,对识别到的异常行为进行处理,并对异常行为进行记录,更新行为分析模型。
8.根据权利要求7所述的一种基于多场景识别与语音交互的视频监控方法,其特征在于,所述使用行为分析模型对新的行为数据进行分析和预测,依据预设规则和行为分析模型,初步识别潜在的异常行为包括以下步骤:
S421、从物理层、情境表示层和情境分析层接收实时行为数据,并提取行为数据的特征;
S422、根据预设规则和历史行为数据选择行为分析模型;
S423、使用行为分析模型对新的行为数据进行分析,评估行为数据与预设规则和历史行为数据的匹配度;
S424、对行为分析模型的输出进行解析;
S425、识别与正常行为模式不匹配的潜在异常行为,并使用阈值判断行为数据是否异常。
9.根据权利要求8所述的一种基于多场景识别与语音交互的视频监控方法,其特征在于,所述根据潜在的异常行为,采用不同的异常检测策略,并根据time评估算法和duration评估算法进行行为评估包括以下步骤:
S431、收集time样本数据,计算time样本数据的平均值和加权平均值,并将time样本数据转换为分钟表示;
S432、计算time样本数据的标准差,基于权值确定最小置信区间,并计算置信区间的上下界,建立time模型;
S433、收集duration样本数据,使用修正序列数策略确定duration的阈值,并计算duration样本数据中的最大序列数和可控缓冲区,建立duration的规律模型;
S434、根据建立的time模型和duration模型,对新收集到的行为数据进行评估,并使用time评估算法检查行为的起始时间是否在正常范围内,同时使用duration评估算法检查行为的持续时间是否超出了正常的阈值;
S435、根据time评估算法和duration评估算法评估结果,识别出潜在的异常行为;
其中,所述计算time样本数据的标准差的公式为:
式中,Sn表示样本数据的标准差;
n表示样本数据的个数;
timei表示第i个样本数据的时间值;
表示样本数据的平均值。
10.一种基于多场景识别与语音交互的视频监控系统,用于实现权利要求1-9中任一项所述的基于多场景识别与语音交互的视频监控方法,其特征在于,该系统包括:视频数据采集模块、场景识别模块、行为模型构建模块、异常行为识别模块、通知与交互模块及反馈模块;
视频数据采集模块,用于在不同场景中获取摄像头采集的视频监控数据,并对视频监控数据进行预处理;
场景识别模块,用于使用深度学习算法分析预处理后的视频监控数据,识别并分类不同的场景类型;
行为模型构建模块,用于针对每个识别的场景,分别采用不同的目标检测算法识别视频中的物体,并为每个识别的物体构建行为分析模型;
异常行为识别模块,用于基于行为分析模型、预设规则和历史行为数据,使用AI技术识别异常行为,并记录异常行为信息;
通知与交互模块,用于将记录的异常行为信息转化为文本,利用TTS技术将文本信息转化为语音进行通知,接收并解析通过语音查询的监控信息或报警请求;
反馈模块,用于收集异常行为信息和语音指令的反馈,评估并优化行为分析模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311782545.8A CN117749995B (zh) | 2023-12-22 | 2023-12-22 | 一种基于多场景识别与语音交互的视频监控方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311782545.8A CN117749995B (zh) | 2023-12-22 | 2023-12-22 | 一种基于多场景识别与语音交互的视频监控方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117749995A true CN117749995A (zh) | 2024-03-22 |
CN117749995B CN117749995B (zh) | 2024-07-30 |
Family
ID=90277311
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311782545.8A Active CN117749995B (zh) | 2023-12-22 | 2023-12-22 | 一种基于多场景识别与语音交互的视频监控方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117749995B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117994863A (zh) * | 2024-04-03 | 2024-05-07 | 中国石油大学(华东) | 一种人体行为识别方法及其识别系统 |
CN118075427A (zh) * | 2024-03-26 | 2024-05-24 | 招互(江苏)智慧科技有限公司 | 一种智能化监控管理方法及系统 |
CN118075511A (zh) * | 2024-04-19 | 2024-05-24 | 深圳市艾科维达科技有限公司 | 一种基于物联网摄像头智能监控系统 |
CN118154380A (zh) * | 2024-04-09 | 2024-06-07 | 潜山韵浩环保科技有限公司 | 一种智慧校园安全监控预测管理系统 |
CN118262114A (zh) * | 2024-04-01 | 2024-06-28 | 行至智能(北京)技术有限公司 | 一种多模态实时交互决策的方法及系统 |
CN118430111A (zh) * | 2024-06-20 | 2024-08-02 | 北京七人科技有限公司 | 一种智能门铃用户行为分析系统 |
CN118447445A (zh) * | 2024-05-13 | 2024-08-06 | 广东空港一号供应链科技有限公司 | 一种基于物联网技术的货物防盗方法及系统 |
CN118447445B (zh) * | 2024-05-13 | 2024-10-22 | 广东空港一号供应链科技有限公司 | 一种基于物联网技术的货物防盗方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106571014A (zh) * | 2016-10-24 | 2017-04-19 | 上海伟赛智能科技有限公司 | 一种在视频中识别异常动作的方法和系统 |
CN111582235A (zh) * | 2020-05-26 | 2020-08-25 | 瑞纳智能设备股份有限公司 | 用于实时监控站内异常事件的警报方法、系统及设备 |
CN114663827A (zh) * | 2022-02-28 | 2022-06-24 | 北京慧图科技(集团)股份有限公司 | 一种判断场景内涝积水深度的方法及系统 |
CN115457446A (zh) * | 2022-10-11 | 2022-12-09 | 南通德泰信息科技有限公司 | 一种基于视频分析的异常行为监管系统 |
CN116958791A (zh) * | 2023-07-31 | 2023-10-27 | 南京华苏科技有限公司 | 基于深度学习的摄像头轮询调用在机器视觉中的告警方法 |
CN117014585A (zh) * | 2023-10-07 | 2023-11-07 | 联通在线信息科技有限公司 | 基于智能视频分析的家庭监控场景自动切换方法及系统 |
-
2023
- 2023-12-22 CN CN202311782545.8A patent/CN117749995B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106571014A (zh) * | 2016-10-24 | 2017-04-19 | 上海伟赛智能科技有限公司 | 一种在视频中识别异常动作的方法和系统 |
CN111582235A (zh) * | 2020-05-26 | 2020-08-25 | 瑞纳智能设备股份有限公司 | 用于实时监控站内异常事件的警报方法、系统及设备 |
CN114663827A (zh) * | 2022-02-28 | 2022-06-24 | 北京慧图科技(集团)股份有限公司 | 一种判断场景内涝积水深度的方法及系统 |
CN115457446A (zh) * | 2022-10-11 | 2022-12-09 | 南通德泰信息科技有限公司 | 一种基于视频分析的异常行为监管系统 |
CN116958791A (zh) * | 2023-07-31 | 2023-10-27 | 南京华苏科技有限公司 | 基于深度学习的摄像头轮询调用在机器视觉中的告警方法 |
CN117014585A (zh) * | 2023-10-07 | 2023-11-07 | 联通在线信息科技有限公司 | 基于智能视频分析的家庭监控场景自动切换方法及系统 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118075427A (zh) * | 2024-03-26 | 2024-05-24 | 招互(江苏)智慧科技有限公司 | 一种智能化监控管理方法及系统 |
CN118262114A (zh) * | 2024-04-01 | 2024-06-28 | 行至智能(北京)技术有限公司 | 一种多模态实时交互决策的方法及系统 |
CN117994863A (zh) * | 2024-04-03 | 2024-05-07 | 中国石油大学(华东) | 一种人体行为识别方法及其识别系统 |
CN117994863B (zh) * | 2024-04-03 | 2024-06-11 | 中国石油大学(华东) | 一种人体行为识别方法及其识别系统 |
CN118154380A (zh) * | 2024-04-09 | 2024-06-07 | 潜山韵浩环保科技有限公司 | 一种智慧校园安全监控预测管理系统 |
CN118075511A (zh) * | 2024-04-19 | 2024-05-24 | 深圳市艾科维达科技有限公司 | 一种基于物联网摄像头智能监控系统 |
CN118447445A (zh) * | 2024-05-13 | 2024-08-06 | 广东空港一号供应链科技有限公司 | 一种基于物联网技术的货物防盗方法及系统 |
CN118447445B (zh) * | 2024-05-13 | 2024-10-22 | 广东空港一号供应链科技有限公司 | 一种基于物联网技术的货物防盗方法及系统 |
CN118430111A (zh) * | 2024-06-20 | 2024-08-02 | 北京七人科技有限公司 | 一种智能门铃用户行为分析系统 |
Also Published As
Publication number | Publication date |
---|---|
CN117749995B (zh) | 2024-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN117749995B (zh) | 一种基于多场景识别与语音交互的视频监控方法及系统 | |
CN110209835B (zh) | 一种异常检测方法及装置、计算机存储介质及电子设备 | |
WO2021159604A1 (zh) | 一种轨道列车的监控系统,监控方法及监控装置 | |
KR20180072561A (ko) | 비디오 감시 시스템에서 경보들을 발생시키는 방법 | |
KR101877294B1 (ko) | 객체, 영역 및 객체가 유발하는 이벤트의 유기적 관계를 기반으로 한 복수 개 기본행동패턴 정의를 통한 복합 상황 설정 및 자동 상황 인지가 가능한 지능형 방범 cctv 시스템 | |
KR20150092545A (ko) | 시공적 상황데이터를 이용한 경고 방법 및 시스템 | |
WO2021095351A1 (ja) | 監視装置、監視方法、及びプログラム | |
JP2018181159A (ja) | 防犯システム、防犯方法、及びロボット | |
KR101442669B1 (ko) | 지능형 객체감지를 통한 범죄행위 판별방법 및 그 장치 | |
KR101454644B1 (ko) | 보행자 추적기를 이용한 서성거림을 탐지하는 방법 | |
JP6621092B1 (ja) | 危険度判別プログラム及びシステム | |
CN118486152A (zh) | 安防告警信息数据交互系统及方法 | |
CN201967042U (zh) | 可移动式的监控装置 | |
WO2023124451A1 (zh) | 用于生成告警事件的方法、装置、设备和存储介质 | |
WO2023158926A1 (en) | Systems and methods for detecting security events in an environment | |
JP6739119B6 (ja) | 危険度判別プログラム及びシステム | |
JP7447626B2 (ja) | 情報処理方法、情報処理装置、プログラム及び情報処理システム | |
JP6739115B6 (ja) | 危険度判別プログラム及びシステム | |
KR20230070700A (ko) | 인공지능 감시카메라를 이용한 이벤트 발생 감지 | |
WO2022059123A1 (ja) | 監視システム、カメラ、解析装置及びaiモデル生成方法 | |
KR20220031258A (ko) | 상담 이벤트에 대응되는 학습 데이터 기반 능동형 보안관제 서비스 제공 방법 | |
Shamnath et al. | Human Suspicious Activity Detection Using Ensemble Machine Learning Techniques | |
KR20160086536A (ko) | 시공적 상황데이터를 이용한 경고 방법 및 시스템 | |
CN105578011A (zh) | 一种智能执法记录终端 | |
Nandhini et al. | IoT Based Smart Home Security System with Face Recognition and Weapon Detection Using Computer Vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |