CN117876232B - 一种基于大模型的智能交通事故保险处理方法及系统 - Google Patents

一种基于大模型的智能交通事故保险处理方法及系统 Download PDF

Info

Publication number
CN117876232B
CN117876232B CN202410268715.9A CN202410268715A CN117876232B CN 117876232 B CN117876232 B CN 117876232B CN 202410268715 A CN202410268715 A CN 202410268715A CN 117876232 B CN117876232 B CN 117876232B
Authority
CN
China
Prior art keywords
image
vehicle
large model
frame
histogram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410268715.9A
Other languages
English (en)
Other versions
CN117876232A (zh
Inventor
马昌明
高云
姚磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guoren Property Insurance Co ltd
Original Assignee
Guoren Property Insurance Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guoren Property Insurance Co ltd filed Critical Guoren Property Insurance Co ltd
Priority to CN202410268715.9A priority Critical patent/CN117876232B/zh
Publication of CN117876232A publication Critical patent/CN117876232A/zh
Application granted granted Critical
Publication of CN117876232B publication Critical patent/CN117876232B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于大模型的智能交通事故保险处理方法及系统,包括步骤:S1:采集事故现场车辆视频帧图像数据;S2:计算每一帧图像的颜色直方图,统计帧图像在RGB、HSI颜色空间;S3:采用改进的巴氏距离计算每一帧图像与视频帧图像中所有其他每一帧图像的直方图差异度,并对直方图差异度求和得到总差异度量;S4:选取总差异度量最大的图像以及文本描述输入到训练好的大模型;S5:大模型输出车辆损害程度并进行显示;本申请采用改进的巴氏距离计算每一帧图像与视频帧图像中所有其他每一帧图像的直方图差异度,大大提升了车辆损害程度识别的准确性和效率,极大增加用户体验。

Description

一种基于大模型的智能交通事故保险处理方法及系统
技术领域
本发明涉及人工智能技术领域,具体涉及一种基于大模型的智能交通事故保险处理方法及系统。
背景技术
随着汽车保有量的持续增加,交通事故的发生率也随之上升。这不仅对人们的生命安全构成了威胁,而且也给交通管理和保险公司带来了巨大的挑战。特别是事故发生后的损害评估和保险理赔过程,往往需要大量的人力和时间,效率低下且成本高昂。因此,如何快速、准确地评估车辆损害程度,成为了保险行业和交通管理部门亟待解决的问题。
传统的车辆损害评估方法主要依赖于专业评估师通过目测和交警来判断,这种方法不仅耗时长、成本高,而且评估结果往往因人而异,缺乏客观性和一致性。随着计算机视觉和机器学习技术的发展,虽然出现了一些自动化的损害评估系统,但这些系统大多依赖于特定的硬件设备,或者在复杂环境下的准确性和鲁棒性还有待提高。此外,现有的自动化系统很少考虑到将图像数据和文本信息相结合进行分析,而这对于全面理解事故情况、准确评估损害程度非常关键。例如,仅通过图像数据难以获取事故发生的具体时间和地点,而这些信息对于理解事故背景、分析损害原因等都非常重要。
近年来,随着人工智能技术,特别是大模型、深度学习的快速发展,基于大数据的智能分析方法为解决上述问题提供了新的思路。大模型,如基于变换器的模型(Transformer-based models)和卷积神经网络(CNNs),已经在图像识别、自然语言处理等领域显示出了卓越的性能。这些模型通过在大量数据上进行预训练,能够学习到丰富的特征表示,从而在特定任务上实现快速准确的分析和预测。
尽管大模型在许多领域取得了成功应用,但如何将这些先进的技术应用于交通事故保险处理领域,特别是如何有效结合图像数据和文本信息进行综合分析,以及如何设计合理的算法框架以提高损害评估的准确性和效率,仍然是目前亟需解决的技术挑战。且现有的大模型判断过程中对于视频帧图像进行选取过程中难以选择出关键帧,导致车辆损害程度判断不准确,且视频帧图像选择过程中,没有考虑到损害区域的特点,进而导致识别效率及判断准确度较差,因此迫切需要一种新的解决方案,以提高处理的效率、判断准确度和客户满意度。
发明内容
针对现有技术中提到的上述问题,本发明提供了一种基于大模型的智能交通事故保险处理方法及系统,该系统计算每一帧图像的颜色直方图,统计帧图像在RGB、HSI颜色空间:采用改进的巴氏距离计算每一帧图像与视频帧图像中所有其他每一帧图像的直方图差异度,并对直方图差异度求和得到总差异度量;选取总差异度量最大的图像以及文本描述输入到训练好的大模型;大模型输出车辆损害程度并进行显示;本申请采用改进的巴氏距离计算每一帧图像与视频帧图像中所有其他每一帧图像的直方图差异度,大大提升了识别的准确性和效率,极大增加用户体验。
本申请提供一种基于大模型的智能交通事故保险处理方法,包括步骤:
S1:采集事故现场车辆视频帧图像数据,对采集的视频帧图像数据进行预处理;
S2:计算视频帧图像数据中的每一帧图像的颜色直方图:对于每一帧图像,将其在RGB、HSI颜色空间中的每个通道划分为N个区间;对于每一帧图像,在每个颜色通道内,计算落入各个区间内的像素数量:
其中,是颜色直方图在第/>个区间的像素计数;/>是图像/>中的像素点在颜色通道R、G、B、H、S、I的值,/>是指示函数,当括号内条件成立时取值1,否则为0;/>和/>分别表示直方图的第/>个区间的下界和上界;R表示红色、G表示绿色、B表示蓝色,H表示色相、S表示饱和度、I 表示亮度;
S3:对于每一帧图像,采用改进的巴氏距离计算每一帧图像与视频帧图像中所有其他每一帧图像的直方图差异度,并对每一帧图像的直方图差异度求和得到总差异度量,改进的巴氏距离计算公式为:
其中,、/>分别表示两个不同的直方图,/>分别表示直方图/>、/>均值,N是直方图的区间数,/>、/>分别是颜色直方图/>和/>在第/>个区间的像素计数;/>为第/>个区间的重要性系数,区间的像素数量越高则/>值越小;
S4:选取总差异度量最大的图像以及文本描述输入到训练好的大模型;
S5:大模型输出车辆损害程度并进行显示。
优选地,所述S1:采集事故现场车辆视频帧图像数据,对采集的视频帧图像数据进行预处理,包括采用手机或CCD相机采集事故现场车辆视频图像数据,采用高斯滤波进行去噪处理。
优选地,所述S4:选取总差异度量最大的图像以及文本描述输入到训练好的大模型,文本描述包括事故发生的时间、地点、涉及的车辆类型。
优选地,所述S5:大模型输出车辆损害程度并进行显示,车辆损害程度包括轻微、中等、重大,显示包括在LCD电脑屏幕进行显示或手机进行显示。
优选地,所述S4:选取总差异度量最大的图像以及文本描述输入到训练好的大模型,训练好的大模型在训练过程中,使用标注的车辆损害图像和对应的事故描述,以学习识别车辆损害程度。
本申请还提供一种基于大模型的智能交通事故保险处理系统,包括:
视频帧图像数据采集模块:采用CCD相机或手机终端采集事故现场车辆视频帧图像数据,对采集的视频帧图像数据进行预处理;
颜色直方图计算模块:计算视频帧图像数据中的每一帧图像的颜色直方图:对于每一帧图像,将其在RGB、HSI颜色空间中的每个通道划分为N个区间;对于每一帧图像,在每个颜色通道内,计算落入各个区间内的像素数量:
其中,是颜色直方图在第/>个区间的像素计数;/>是图像/>中的像素点在颜色通道R、G、B、H、S、I的值,/>是指示函数,当括号内条件成立时取值1,否则为0;/>和/>分别表示直方图的第/>个区间的下界和上界;R表示红色、G表示绿色、B表示蓝色,H表示色相、S表示饱和度、I 表示亮度;
总差异度量计算模块:对于每一帧图像,采用改进的巴氏距离计算每一帧图像与视频帧图像中所有其他每一帧图像的直方图差异度,并对每一帧图像的直方图差异度求和得到总差异度量,改进的巴氏距离计算公式为:
其中,、/>分别表示两个不同的直方图,/>分别表示直方图/>、/>均值,N是直方图的区间数,/>、/>分别是颜色直方图/>和/>在第/>个区间的像素计数;/>为第/>个区间的重要性系数,区间的像素数量越高则/>值越小;
大模型计算模块:选取总差异度量最大的图像以及文本描述输入到训练好的大模型;
输出模块:大模型输出车辆损害程度并进行显示。
优选地,所述视频帧图像数据采集模块:采用CCD相机或手机终端采集事故现场车辆视频帧图像数据,对采集的视频帧图像数据进行预处理,包括采用手机或CCD相机采集事故现场车辆视频图像数据,采用高斯滤波进行去噪处理。
优选地,所述总差异度量计算模块:选取总差异度量最大的图像以及文本描述输入到训练好的大模型,文本描述包括事故发生的时间、地点、涉及的车辆类型。
优选地,所述大模型计算模块:大模型输出车辆损害程度并进行显示,车辆损害程度包括轻微、中等、重大,显示包括在LCD电脑屏幕进行显示或手机进行显示。
优选地,所述总差异度量计算模块:选取总差异度量最大的图像以及文本描述输入到训练好的大模型,训练好的大模型在训练过程中,使用标注的车辆损害图像和对应的事故描述,以学习识别车辆损害程度。
本发明提供了一种基于大模型的智能交通事故保险处理方法及系统,所能实现的有益技术效果如下:
1、本发明颜色直方图计算过程中,计算视频帧图像数据中的每一帧图像的颜色直方图:对于每一帧图像,将其在RGB、HSI颜色空间中的每个通道划分为N个区间;对于每一帧图像,在每个颜色通道内,计算落入各个区间内的像素数量,也即计算六个通道的每个区间的数量,通过图像的多个通道的数据计算,挖掘出图像信息更全面,大大丰富了图像数据类型,显著提高了关键帧图像选取的准确度,大大提升了车辆损害程度判断准确性和效率,极大增加用户体验。
2、本发明采用改进的巴氏距离计算每一帧图像与视频帧图像中所有其他每一帧图像的直方图差异度,并对每一帧图像的直方图差异度求和得到总差异度量,改进的巴氏距离计算公式为:
其中,、/>分别表示两个不同的直方图,/>分别表示直方图/>、/>均值,N是直方图的区间数,/>、/>分别是颜色直方图/>和/>在第/>个区间的像素计数;/>为第/>个区间的重要性系数,区间的像素数量越高则/>值越小;
通过引入为第/>个区间的重要性系数,考虑到了车辆事故照片中一般没收损害的车漆颜色占比较大,而刮蹭等事故后的颜色占比整体较小但重要度非常高,能够有效地增强视频帧图像提取的准确性。
3、本发明通过选取总差异度量最大的图像以及文本描述输入到训练好的大模型,训练好的大模型在训练过程中,使用标注的车辆损害图像和对应的事故描述,以学习识别车辆损害程度,大大提高了车辆损害程度识别的准确性,且大模型能够对对车辆保险解决方案给出准确性的意见建议。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明的一种基于大模型的智能交通事故保险处理方法步骤示意图;
图2是本发明的一种基于大模型的智能交通事故保险处理系统示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
实施例1:
针对现有技术中提到的上述问题,为解决上述技术问题,如附图1所示:提供本申请提供本申请提供一种基于大模型的智能交通事故保险处理方法,包括步骤:
S1:采集事故现场车辆视频帧图像数据,对采集的视频帧图像数据进行预处理;在一个实施例中,一次交通事故中一辆汽车与另一辆汽车在十字路口发生碰撞。事故发生后,调查人员(或事故当事人)使用智能手机或专业的CCD相机围绕受损车辆转一圈,从不同角度拍摄视频,确保损害的各个方面都被记录下来。此视频应尽可能覆盖车辆的前后、左右侧以及特别是受损部位的细节。预处理采集的视频帧图像数据,视频稳定化:为减少手抖或移动拍摄带来的视频抖动,采用视频稳定技术对原始视频进行处理,确保后续分析的准确性。去噪处理:应用高斯滤波等去噪技术对视频帧进行预处理,去除图像中的噪声,提高图像质量。亮度和对比度调整:根据事故发生的光照条件,对视频帧进行亮度和对比度的调整,使得受损部位的细节更加清晰可见。帧选择和裁剪:从视频中提取关键帧,尤其是那些清晰显示损伤细节的帧。对于每个关键帧,裁剪图像以仅包含车辆受损部分,减少后续处理的计算负担。颜色空间转换:将图像从RGB颜色空间转换到HSI或HSV颜色空间,为后续的颜色直方图分析做准备。通过上述预处理步骤,可以获得一系列清晰、稳定且专注于损害区域的图像帧,这些帧随后将被用于进一步的损害分析和评估。在一个实施例中,一辆蓝色轿车在停车时不慎撞到了路边的护栏,造成了车前保险杠和左前翼子板的损伤。事故发生后,车主使用其智能手机从不同角度围绕车辆录制了一段视频。通过上述预处理步骤,视频中关于损伤的关键帧被成功提取和优化,随后这些图像帧将被用来评估损伤程度,并辅以事故发生的时间、地点等文本描述,一同输入到训练好的大模型中进行分析,最终为车主提供了一个基于AI分析的保险理赔建议以及车辆损害程度判断。
S2:计算视频帧图像数据中的每一帧图像的颜色直方图:对于每一帧图像,将其在RGB、HSI颜色空间中的每个通道划分为N个区间;对于每一帧图像,在每个颜色通道内,计算落入各个区间内的像素数量:
其中,是颜色直方图在第/>个区间的像素计数;/>是图像/>中的像素点在颜色通道R、G、B、H、S、I的值,/>是指示函数,当括号内条件成立时取值1,否则为0;/>和/>分别表示直方图的第/>个区间的下界和上界;R表示红色、G表示绿色、B表示蓝色,H表示色相、S表示饱和度、I 表示亮度;
在一个实施例中,在交通事故现场拍摄的视频中需要分析每一帧图像,选取最能代表损害程度的图像以识别车辆受损情况。这一帧图像展示了车辆的一个侧面,其中包含了由于碰撞造成的明显划痕和凹陷。将通过计算这一帧图像在RGB和HSI颜色空间中每个通道的颜色直方图来分析损伤。步骤1: 颜色空间转换,首先,确认图像已经处于RGB颜色空间中。然后,使用颜色空间转换算法将图像从RGB颜色空间转换到HSI颜色空间。这样,我们就可以分别在RGB和HSI颜色空间中分析图像。步骤2: 划分区间,对于RGB和HSI中的每个通道,我们将颜色值的可能范围划分为N个区间。例如,对于RGB空间,可能的颜色值范围是0到255,如果我们选择N=16,则每个区间覆盖16个颜色值。步骤3: 计算像素数,RGB空间:对于红色通道R,遍历图像中的每个像素,确定每个像素的R值落入哪个区间,并相应地增加该区间的计数。对绿色G和蓝色B通道重复相同的过程。HSI空间:转换后,对色相H、饱和度S和亮度I通道执行相同的区间计数操作。由于H、S、I的范围和性质与RGB不同,区间的定义也会相应调整。例如,色相H的范围可能是0°到360°。
在一些实施例中,分析的帧图像显示车辆的侧面受损。通过计算发现,红色通道R中颜色值为“红色漆面”区间的像素数量明显增加,这可能是因为碰撞导致的车漆剥落。在HSI空间中,色相H的某个区间(对应于红色漆面)的像素数量也显著增加,同时亮度I在较低区间的像素数量增加,可能指示损伤区域的阴影或凹陷。通过对这些直方图的分析,可以提供关于车辆损伤特征的重要信息,例如损伤的严重程度、损伤区域的颜色变化,以及是否有明显的凹陷或划痕。
在一个实施例中,一辆蓝色轿车在尝试避让行人时不慎撞上路边的电线杆,造成了车辆前部的显著损伤。事故发生后,调查人员使用高清摄像头围绕车辆拍摄了一段视频,用以记录损伤的详细情况。此视频包含了从不同角度拍摄的车辆损伤情况,其中一些帧清晰地展示了损伤的程度和特征。步骤1: 转换颜色空间,首先,对视频中的每一帧图像,保持其原始的RGB颜色空间不变。然后,将每一帧图像从RGB颜色空间转换到HSI颜色空间。这一步骤使得我们能够从不同的颜色属性(如色相、饱和度和亮度)进行分析。步骤2: 划分区间和计算像素数量,对于RGB和HSI颜色空间中的每个通道(R、G、B、H、S、I),将其可能的值范围划分为N个区间。N=256,即每个区间代表一个具体的颜色值。接下来,对于每一帧图像中的每个通道,统计落入每个区间内的像素数量。这意味着每一帧图像将会产生6个直方图(RGB和HSI各三个)。步骤3: 直方图计算,以红色通道R为例,对于图像中的每个像素,确定它的R值属于哪一个区间,并在该区间的计数上加一。重复此过程,直至完成R通道的所有像素统计。对于G、B通道重复相同的过程。对于转换后的HSI空间,同样地,分别对H、S、I通道的像素执行区间统计。在处理过程中,我们关注于损伤明显的帧图像。通过对这一帧的RGB直方图分析,我们发现R通道和G通道在较高亮度区间的像素数量突增,这可能是由于撞击导致车辆漆面损伤和裸露金属反光所致。同时,在HSI空间的分析中,色相H通道显示出在蓝色相应区间的明显增加,饱和度S通道和亮度I通道的变化可能揭示了损伤区域的细节特征,如漆面的褪色或金属的暴露。通过上述直方图的分析,可以定量地识别和评估车辆受损的程度和特性。这些信息对于理解事故的影响、评估修复成本以及处理保险理赔至关重要。例如,通过比较事故前后车辆图像的直方图差异,可以客观地评估损伤对车辆价值的影响,为保险公司提供科学的理赔依据。此实施例清晰地展示了如何通过计算和分析每一帧图像中RGB和HSI颜色空间的直方图来评估车辆损伤,为交通事故保险处理提供了一种有效的技术手段。
S3:对于每一帧图像,采用改进的巴氏距离计算每一帧图像与视频帧图像中所有其他每一帧图像的直方图差异度,并对每一帧图像的直方图差异度求和得到总差异度量,改进的巴氏距离计算公式为:
其中,、/>分别表示两个不同的直方图,/>分别表示直方图/>、/>均值,N是直方图的区间数,/>、/>分别是颜色直方图/>和/>在第/>个区间的像素计数;/>为第/>个区间的重要性系数,区间的像素数量越高则/>值越小;
在一个实施例中,一个交通事故现场有一段视频记录了从事故发生前到发生后的全过程,包括车辆受损的详细情况。我们的目标是从这段视频中找到那些最能代表事故影响的帧,即那些在视觉上显示最大变化的帧。步骤1: 直方图计算,对视频中的每一帧,我们首先计算其在RGB和HSI颜色空间中每个通道的颜色直方图。这意味着,对于每一帧图像,我们都会得到六个直方图(RGB的R、G、B和HSI的H、S、I)。步骤2: 应用改进的巴氏距离,接下来,我们对每一帧图像使用改进的巴氏距离方法来计算它与视频中所有其他帧的直方图差异度。在这个过程中,我们引入了一个概念——“重要性系数”,这个系数是基于直方图中每个区间的像素数量来调整的。具体来说,如果某个区间的像素数量很高,说明这种颜色在图像中非常常见,是大部分车身的颜色特征,因此,我们给这个区间的重要性系数赋予一个较小的值,以降低它在巴氏距离计算中的影响。步骤3: 计算总差异度量,对于每一帧图像,我们将它与其他所有帧的巴氏距离求和,得到一个总差异度量。这个总差异度量反映了该帧图像在视觉上与视频中其他所有帧的平均差异。在事故发生的视频中,有一帧清晰地捕捉到了车辆前保险杠由于撞击护栏而产生的凹陷。通过计算这一帧与视频中其他帧的直方图差异度,我们发现这一帧的总差异度量远大于其他帧,这表明从颜色分布的角度看,这一帧展现了与众不同的视觉特征——即车辆的损害程度。通过识别出总差异度量最大的那些帧,我们可以快速定位到视频中最能代表车辆损伤的瞬间。这对于后续的损害评估、维修成本估算以及保险理赔处理来说是非常有价值的信息。保险公司可以使用这些关键帧来评估车辆损伤的严重程度,交警可以用它们来分析事故原因,而车主可以基于这些信息与维修店沟通修车事宜。
S4:选取总差异度量最大的图像以及文本描述输入到训练好的大模型;
在一个实施例中,一辆白色轿车在晚上与一辆停在路边的黑色SUV发生碰撞,造成了白色轿车前端的明显损伤。事故发生后,一个旁观者使用智能手机录制了整个事故的视频,包括事故发生前后车辆的状态变化。步骤1: 直方图差异度计算,通过之前的步骤,我们已经计算了视频中每一帧图像的直方图差异度,并找到了总差异度量最大的那一帧图像。假设这一帧清晰地显示了白色轿车前保险杠和车头灯的损伤。步骤2: 文本描述的准备,与此同时,根据现场目击者的报告和事故的具体情况,我们准备了一份文本描述,包括:事故发生的时间:晚上9点左右。事故发生的地点:城市的某个十字路口。涉及的车辆类型:一辆白色轿车和一辆黑色SUV。简要的事故经过描述:白色轿车在尝试避开突然横穿马路的行人时,不慎撞上了停在路边的黑色SUV。步骤3: 输入到大模型,将总差异度量最大的图像和上述文本描述一起输入到一个训练好的大模型中。这个大模型是通过深度学习技术训练的,它不仅能够识别图像中的车辆损伤特征,还能理解文本描述中的信息,并综合这些数据来评估车辆损伤的严重程度。大模型经过训练,能够识别不同类型和程度的车辆损伤,并理解事故相关的文本描述。在本例中,大模型分析了输入的损伤图像和文本描述,确定了白色轿车的损伤类型为前保险杠和车头灯的破损,考虑到事故发生的时间和地点,模型进一步推断出在夜间视线不佳的条件下发生的事故往往损伤程度更为严重。大模型的输出可以直接用于指导保险公司的理赔决策,比如确定保险赔偿的金额,或者是否需要进行现场进一步调查。
大模型通常指的是具有大量参数和复杂结构的深度学习模型,它们能够从海量数据中学习到丰富的特征表示。在交通事故保险处理的上下文中,大模型可以利用图像识别和自然语言处理(NLP)技术来分析事故现场的图像数据和相关文本描述,从而提供对车辆损害程度的精确评估。大模型的关键技术,图像识别:利用卷积神经网络(CNN)等技术,大模型可以识别和分析事故现场图像中的车辆损伤特征,如划痕、凹陷、碎片分布等。自然语言处理:通过NLP技术,大模型能够理解和分析事故相关的文本描述,包括事故的时间、地点、涉及的车辆类型以及事故经过。多模态学习:大模型采用多模态学习方法,综合图像和文本数据,提供更全面和准确的事故分析结果。
在一个实施例中,使用大模型进行事故损害评估,一辆红色轿车在雨天滑到路边撞击了路灯杆,造成了明显的车身损伤。事故发生后,调查人员收集了现场的照片和目击者的文字描述。大模型的训练,数据准备:收集大量交通事故的图像数据和对应的文本描述,包括不同类型和程度的车辆损伤情况。模型训练:图像分析部分:使用卷积神经网络(CNN)对图像数据进行训练,学习识别不同类型的车辆损伤特征。文本分析部分:采用NLP模型(如BERT或GPT)处理文本数据,学习理解事故的具体信息。融合学习:通过多模态学习技术,结合图像和文本的分析结果,训练大模型对车辆损害进行综合评估。图像和文本输入:将事故现场的照片和目击者的描述作为输入,送入训练好的大模型。损害评估:大模型分析图像中的损害特征和文本中的事故信息,如时间、天气状况(雨天)等,综合这些信息评估车辆损害的程度。输出结果:模型输出车辆损害的评估报告,包括损害程度、可能需要的修复措施和估计的修复成本。决策支持:保险公司根据大模型提供的评估报告做出理赔决定,同时,交通管理部门也可以利用这些信息来分析事故原因,提出预防措施。
S5:大模型输出车辆损害程度并进行显示。
在一个实施例中,一辆蓝色轿车在冰雪路面上失控,撞击了路边的护栏,造成了车辆前端和侧面的损伤。事故发生后,调查人员或事故当事人使用智能手机拍摄了损伤的照片,并记录了事故发生的时间、地点等信息。步骤1: 数据输入,将损伤的照片和事故的文本描述输入到训练好的大模型中。这个大模型已经通过分析大量类似的案例学习了识别和评估车辆损伤的能力。步骤2: 损害评估,大模型综合考虑输入的图像和文本信息,评估车辆损害的程度。模型可能会识别出图像中的损伤特征(如凹陷、划痕)和文本中提到的事故环境(如冰雪路面),以及任何可能影响损伤严重程度的因素。步骤3: 输出结果,根据分析,大模型输出车辆损害程度的评估结果。结果可能包括损害的具体类型(如前保险杠损坏、侧面划痕)、损害程度(如轻微、中等、重大)和修复建议。步骤4: 结果显示,评估结果通过一个用户界面显示,这可能是一个专用的应用程序界面,或者是保险公司、修理厂或交警队的电脑屏幕。结果显示可以包括损害的文字描述、可能的修复成本估计,甚至是修复前后的模拟图像。大模型分析了蓝色轿车的损伤照片和事故描述,识别出前保险杠有一个大凹陷,侧面有多处划痕。模型进一步评估认为损害程度为“中等”,推荐前往专业修理厂进行详细检查和维修。这个评估结果随后在保险公司的处理系统上显示,为保险理赔专员提供了处理理赔申请的重要信息。保险公司可以基于大模型的评估结果快速决定理赔方案,提高理赔处理的效率和客户满意度。事故当事人可以通过查看模型的评估结果,更好地理解自己车辆的损害情况和可能的维修需求。修理厂可以根据评估结果提前准备所需的修理材料和工具,缩短车辆修复时间。
在一些实施例中,所述S1:采集事故现场车辆视频帧图像数据,对采集的视频帧图像数据进行预处理,包括采用手机或CCD相机采集事故现场车辆视频图像数据,采用高斯滤波进行去噪处理。一辆灰色轿车在滑湿的道路上失控,与一辆停在路边的绿色小货车发生了碰撞。事故导致了灰色轿车的前端损伤和绿色小货车的侧面损伤。事故发生后,一名路过的行人使用其智能手机记录了事故现场的视频,包括了从不同角度拍摄的车辆损伤情况。步骤1: 视频采集,设备选择:行人使用的是一款普通的智能手机,配备了高清摄像头。采集过程:行人围绕事故现场行走,从不同角度拍摄了车辆的损伤部位,确保损伤的每个细节都被记录下来。视频包括了灰色轿车前端的凹陷和划痕,以及绿色小货车侧面的损伤。步骤2:视频帧提取和预处理,帧提取:从拍摄的视频中提取关键帧,特别是那些清晰显示损伤细节的帧。去噪处理原因:由于雨天和傍晚的光照条件,视频中的一些帧可能包含噪点,这可能会影响损伤细节的清晰度。对提取的关键帧使用高斯滤波进行去噪处理。高斯滤波是一种常用的图像平滑技术,通过对图像进行加权平均来减少噪点,从而提高图像质量。选择合适的高斯滤波器参数(如滤波器大小和标准差),对每一帧图像进行处理。处理后的图像更清晰,损伤的细节更易于识别。
在一些实施例中,所述S4:选取总差异度量最大的图像以及文本描述输入到训练好的大模型,文本描述包括事故发生的时间、地点、涉及的车辆类型。一辆白色的轿车和一辆红色的运货卡车在市中心的一个繁忙路口发生了碰撞。由于雨天导致的湿滑路面,白色轿车在刹车时滑出了控制,侧面撞击到了运货卡车的前端。事故导致了白色轿车严重的侧面损伤和运货卡车前端的轻微损伤。文本描述的准备,为了全面分析这次事故,我们准备了一份详细的文本描述,内容包括:事故发生的时间:2023年3月15日早上7:45。事故发生的地点:市中心路口,近第五大道和橡树街交汇处。涉及的车辆类型:白色轿车:2018年款本田雅阁,车牌号码ABC123。红色运货卡车:2020年款福特F-150,车牌号码XYZ789。事故经过简述:由于当天早晨的雨天条件,路面湿滑。白色轿车在尝试避让一个突然穿越马路的行人时,刹车失控,滑向了相对方向行驶的红色运货卡车,导致两车在路口相撞。步骤1: 文本描述的使用,将上述文本描述作为案件的一部分,输入到处理交通事故案件的大模型中。这些信息对于模型来说是宝贵的上下文,有助于模型更准确地理解事故发生的具体情况。步骤2: 大模型分析,大模型利用文本描述中的信息,结合从事故现场采集的图像数据,进行综合分析。模型可以根据事故的时间、地点和涉及的车辆类型等信息,预测损害的严重程度,甚至是可能的责任方。在本实施例中,大模型通过分析事故的文本描述和图像数据,评估了白色轿车的侧面损伤非常严重,需要大面积的维修;而红色运货卡车的前端损伤相对较轻,可能只需要简单的修复。此外,模型还考虑到了事故发生的时间(早高峰时段)和地点(繁忙路口),推测事故可能由于白色轿车的不当刹车操作引起。保险理赔处理:保险公司可以根据大模型的分析结果快速决定理赔金额,为车主提供理赔服务。事故责任分析:交警队利用模型分析的结果,配合现场调查,确定事故责任方,制定交通安全改进措施。
在一些实施例中,所述S5:大模型输出车辆损害程度并进行显示,车辆损害程度包括轻微、中等、重大,显示包括在交警队LCD电脑屏幕进行显示或手机进行显示。一辆黑色SUV、一辆银色轿车和一辆红色跑车在市区的一条主路上发生连环碰撞。事故造成了不同程度的车辆损害。事故发生后,现场的交警利用携带的设备记录了事故情况,并对涉事车辆的损害程度进行了初步评估。步骤1: 损害程度评估,使用一个预先训练好的大模型,输入事故现场的车辆损害照片及相关文本描述(包括事故时间、地点等)。大模型分析这些信息,评估出每辆车的损害程度:黑色SUV:轻微损害(小划痕和漆面轻微损伤)。银色轿车:中等损害(前保险杠损坏和车头灯破裂)。红色跑车:重大损害(车身严重变形,需要大修或报废)。步骤2: 结果显示,在交警队LCD电脑屏幕上显示:事故分析报告及车辆损害程度评估结果在交警队的控制中心的大型LCD电脑屏幕上显示。这样做可以让处理事故的整个团队同时查看评估结果,便于讨论和决策。在手机上显示:同时,这些评估结果也通过专用的事故处理应用程序推送到现场交警的智能手机上。这使得在事故现场忙碌的交警也能实时获取车辆损害程度的详细信息,用于指导现场的事故处理和记录工作。在本实施例中,通过现代化的技术手段(大模型分析和多平台显示),有效提升了交通事故处理的效率和准确性。具体而言:交警队可以根据车辆损害程度的评估结果,迅速制定事故处理策略,比如安排拖车服务、通知相关车主进行维修等。对重大损害的车辆,交警可以优先处理,确保事故现场的快速清理,减少对交通的影响。显示车辆损害程度的信息还可以辅助交警进行事故责任的判定,为后续的保险理赔提供初步依据。
在一些实施例中,所述S4:选取总差异度量最大的图像以及文本描述输入到训练好的大模型,训练好的大模型在训练过程中,使用标注的车辆损害图像和对应的事故描述,以学习识别车辆损害程度。步骤1: 数据准备和预处理图像标注:对数据集中的每张图像,标注车辆损害的具体位置和类型,如前保险杠凹陷、车门划痕等,并标注损害程度为轻微、中等或重大。文本描述处理:对每个案例的事故描述进行文本预处理,提取关键信息,如事故发生的时间、地点、天气条件、涉及车辆的类型等。步骤2: 模型设计和训练,模型设计:设计一个多模态的深度学习模型,该模型包括两个主要分支:一个用于处理图像数据的卷积神经网络(CNN)分支,和一个用于处理文本数据的自然语言处理(NLP)分支。训练过程:使用上述标注的图像和处理后的文本描述作为训练数据,对模型进行训练。训练过程中,模型学习如何从图像中识别车辆损害的特征,以及如何结合文本描述中的信息来准确评估损害程度。步骤3: 模型评估和优化,评估:通过在一个独立的测试数据集上评估模型的性能,确定模型在识别车辆损害程度方面的准确性。优化:根据评估结果调整模型参数和结构,以进一步提高模型的性能和准确性。
在一个实施例中,考虑到汽车保险公司希望自动化其理赔流程,特别是在评估车辆损害程度方面,以提高效率和减少人为错误。为此,决定开发一个基于深度学习的大模型,该模型能够分析事故现场的图像和相关的文本描述,自动识别车辆损害的程度。步骤1:数据收集和标注,图像收集:从历史理赔案例中收集大量事故现场的车辆损害图像。这些图像展示了不同类型和程度的车辆损害,包括轻微的划痕、中等的凹陷以及重大的车体变形。文本描述收集:同时收集每个案例的事故描述,包括事故发生的时间、地点、天气条件、车辆类型等信息。数据标注:对每个案例的图像和文本描述进行标注,确定车辆损害的程度(轻微、中等、重大)。步骤2: 模型训练,预处理:对图像进行必要的预处理,如大小调整、去噪等;对文本描述进行分词、向量化等预处理。特征学习:使用深度学习算法(如卷积神经网络CNN对图像进行特征提取,使用自然语言处理NLP模型如BERT对文本描述提取特征。融合与训练:将图像和文本的特征融合,并使用这些融合特征训练大模型。训练过程中,模型学习如何基于图像特征和文本信息共同判断车辆损害的程度。在训练完成后,保险公司得到了一个能够自动评估车辆损害程度的大模型。例如,当一辆车在停车场被另一辆车撞击造成门板凹陷的案例被输入模型时:图像输入:事故现场的照片清晰显示了车门的凹陷和划痕。文本输入:事故描述提供了额外的上下文信息,如“在超市停车场发生的碰撞”,“对方车辆在倒车时未注意到本车”等。模型分析:大模型综合分析图像和文本信息,识别出损害为“中等”程度,并给出了维修建议和可能的成本估算。自动理赔:保险公司可以使用该模型自动处理理赔申请,快速准确地评估车辆损害程度,提高理赔流程的效率。损害记录和分析:保险公司可以利用模型评估结果,对历史理赔案例进行分类和分析,为风险管理和保险产品定价提供支持。
本申请还提供一种基于大模型的智能交通事故保险处理系统,包括1. 图像采集设备,智能手机和数码相机:用于现场采集事故车辆的损害照片。这些设备应具备高分辨率摄像头,以确保损害细节的清晰记录。2. 数据存储和处理设备,服务器:强大的服务器用于存储大量的事故图像数据和文本描述,以及运行大模型进行数据分析和处理。这些服务器需要具备高速的处理器、大容量的内存和存储空间。云存储服务:为了提高数据的可访问性和系统的可扩展性,云存储服务可以被用来存储事故数据和处理结果。3. 显示和交互设备,LCD电脑屏幕:用于在保险公司、交警部门等场所显示车辆损害评估结果和理赔信息。智能手机和平板电脑:通过专用的应用程序(APP),保险公司的理赔员、交警以及事故当事人可以在这些移动设备上查看损害评估结果和理赔状态。4. 网络通讯设备,路由器和交换机:确保所有的硬件设备在内部网络中互联,并能够高效地访问云服务。移动网络设备:利用4G/5G网络,保证现场采集的数据能够实时上传到服务器或云平台进行处理。视频帧图像数据采集模块:采用CCD相机或手机终端采集事故现场车辆视频帧图像数据,对采集的视频帧图像数据进行预处理;
颜色直方图计算模块:计算视频帧图像数据中的每一帧图像的颜色直方图:对于每一帧图像,将其在RGB、HSI颜色空间中的每个通道划分为N个区间;对于每一帧图像,在每个颜色通道内,计算落入各个区间内的像素数量:
其中,是颜色直方图在第/>个区间的像素计数;/>是图像/>中的像素点在颜色通道R、G、B、H、S、I的值,/>是指示函数,当括号内条件成立时取值1,否则为0;/>和/>分别表示直方图的第/>个区间的下界和上界;R表示红色、G表示绿色、B表示蓝色,H表示色相、S表示饱和度、I 表示亮度;
总差异度量计算模块:对于每一帧图像,采用改进的巴氏距离计算每一帧图像与视频帧图像中所有其他每一帧图像的直方图差异度,并对每一帧图像的直方图差异度求和得到总差异度量,改进的巴氏距离计算公式为:
其中,、/>分别表示两个不同的直方图,/>分别表示直方图/>、/>均值,N是直方图的区间数,/>、/>分别是颜色直方图/>和/>在第/>个区间的像素计数;/>为第/>个区间的重要性系数,区间的像素数量越高则/>值越小。
在一些实施例中,的值基于区间像素数量的倒数。如果某个区间的像素数量非常高,意味着这种颜色在图像中非常常见,因此这个区间对于识别损伤的独特性可能不是很重要,给予较低的权重。具发生了一起交通事故,一辆蓝色轿车因为避让突然冲出的行人而与一辆停在路边的黄色货车发生了侧面碰撞。事故导致蓝色轿车的侧门和后视镜受损,黄色货车的前保险杠也出现了损伤。现场的目击者使用智能手机拍摄了事故现场的照片,并记录了简短的文字描述,包括事故发生的时间、地点、涉及车辆的颜色和类型等信息。输入到大模型,图像输入:包括蓝色轿车受损的侧面、黄色货车的损伤部位的高清照片。文字描述输入:包括“星期五下午五点,在阳光大道和枫叶街交叉口,一辆蓝色轿车在避让行人时侧面撞上了一辆停在路边的黄色货车。”这样的描述提供了事故的具体细节。大模型的分析和输出,损害评估:大模型综合分析图像和文字描述,识别出蓝色轿车的侧门有明显的凹陷,后视镜脱落,同时,黄色货车的前保险杠有划痕和轻微变形。模型利用先前训练的数据,理解了“避让行人”这一动作可能导致急刹车或突然转向,进而推断出撞击的力度和可能的损害程度。事故原因分析:通过分析文字描述中的情境信息和图像中的损伤细节,大模型还能推断出事故的可能原因,如速度控制、视线盲区等。维修建议和成本估算:基于损害程度和事故原因的分析,大模型进一步提供了维修建议(如更换后视镜、修复车门凹陷等)和大致的成本估算,为车主和保险公司提供决策依据。
在一些实施例中,大模型计算模块:选取总差异度量最大的图像以及文本描述输入到训练好的大模型;输出模块:大模型输出车辆损害程度并进行显示。
在一些实施例中,所述视频帧图像数据采集模块:采用CCD相机或手机终端采集事故现场车辆视频帧图像数据,对采集的视频帧图像数据进行预处理,包括采用手机或CCD相机采集事故现场车辆视频图像数据,采用高斯滤波进行去噪处理。
在一些实施例中,所述总差异度量计算模块:选取总差异度量最大的图像以及文本描述输入到训练好的大模型,文本描述包括事故发生的时间、地点、涉及的车辆类型。
在一些实施例中,所述大模型计算模块:大模型输出车辆损害程度并进行显示,车辆损害程度包括轻微、中等、重大,显示包括在交警队LCD电脑屏幕进行显示或手机进行显示。
在一些实施例中,所述总差异度量计算模块:选取总差异度量最大的图像以及文本描述输入到训练好的大模型,训练好的大模型在训练过程中,使用标注的车辆损害图像和对应的事故描述,以学习识别车辆损害程度。
本发明提供了一种基于大模型的智能交通事故保险处理方法及系统,所能实现的有益技术效果如下:
1、本发明颜色直方图计算过程中,计算视频帧图像数据中的每一帧图像的颜色直方图:对于每一帧图像,将其在RGB、HSI颜色空间中的每个通道划分为N个区间;对于每一帧图像,在每个颜色通道内,计算落入各个区间内的像素数量,也即计算六个通道的每个区间的数量,通过图像的多个通道的数据计算,挖掘出图像信息更全面,大大丰富了图像数据类型,显著提高了关键帧图像选取的准确度,大大提升了车辆损害程度判断准确性和效率,极大增加用户体验。
2、本发明采用改进的巴氏距离计算每一帧图像与视频帧图像中所有其他每一帧图像的直方图差异度,并对每一帧图像的直方图差异度求和得到总差异度量,改进的巴氏距离计算公式为:/>
其中,、/>分别表示两个不同的直方图,/>分别表示直方图/>、/>均值,N是直方图的区间数,/>、/>分别是颜色直方图/>和/>在第/>个区间的像素计数;/>为第/>个区间的重要性系数,区间的像素数量越高则/>值越小;
通过引入为第/>个区间的重要性系数,考虑到了车辆事故照片中一般没收损害的车漆颜色占比较大,而刮蹭等事故后的颜色占比整体较小但重要度非常高,能够有效地增强视频帧图像提取的准确性。
3、本发明通过选取总差异度量最大的图像以及文本描述输入到训练好的大模型,训练好的大模型在训练过程中,使用标注的车辆损害图像和对应的事故描述,以学习识别车辆损害程度,大大提高了车辆损害程度识别的准确性,且大模型能够对对车辆保险解决方案给出准确性的意见建议。
以上对一种基于大模型的智能交通事故保险处理方法及系统进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的核心思想;同时,对于本领域的一般技术人员,依据本发明的思想和方法,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种基于大模型的智能交通事故保险处理方法,其特征在于,包括步骤:
S1:采集事故现场车辆视频帧图像数据,对采集的视频帧图像数据进行预处理;
S2:计算视频帧图像数据中的每一帧图像的颜色直方图:对于每一帧图像,将其在RGB、HSI颜色空间中的每个通道划分为N个区间;对于每一帧图像,在每个颜色通道内,计算落入各个区间内的像素数量:
其中,是颜色直方图在第/>个区间的像素计数;/>是图像/>中的像素点在颜色通道R、G、B、H、S、I的值,/>是指示函数,当括号内条件成立时取值1,否则为0;/>和/>分别表示直方图的第/>个区间的下界和上界;R表示红色、G表示绿色、B表示蓝色,H表示色相、S表示饱和度、I 表示亮度;
S3:对于每一帧图像,采用改进的巴氏距离计算每一帧图像与视频帧图像中所有其他每一帧图像的直方图差异度,并对每一帧图像的直方图差异度求和得到总差异度量,改进的巴氏距离计算公式为:
其中,、/>分别表示两个不同的直方图,/>分别表示直方图/>、/>均值,N是直方图的区间数,/>、/>分别是颜色直方图/>和/>在第/>个区间的像素计数;/>为第/>个区间的重要性系数,区间的像素数量越高则/>值越小;
S4:选取总差异度量最大的图像以及文本描述输入到训练好的大模型;
S5:大模型输出车辆损害程度并进行显示。
2.如权利要求1所述的一种基于大模型的智能交通事故保险处理方法,其特征在于,所述S1:采集事故现场车辆视频帧图像数据,对采集的视频帧图像数据进行预处理,包括采用手机或CCD相机采集事故现场车辆视频图像数据,采用高斯滤波进行去噪处理。
3.如权利要求1所述的一种基于大模型的智能交通事故保险处理方法,其特征在于,所述S4:选取总差异度量最大的图像以及文本描述输入到训练好的大模型,文本描述包括事故发生的时间、地点、涉及的车辆类型。
4.如权利要求1所述的一种基于大模型的智能交通事故保险处理方法,其特征在于,所述S5:大模型输出车辆损害程度并进行显示,车辆损害程度包括轻微、中等、重大,显示包括在LCD电脑屏幕进行显示或手机进行显示。
5.如权利要求1所述的一种基于大模型的智能交通事故保险处理方法,其特征在于,所述S4:选取总差异度量最大的图像以及文本描述输入到训练好的大模型,训练好的大模型在训练过程中,使用标注的车辆损害图像和对应的事故描述,以学习识别车辆损害程度。
6.一种基于大模型的智能交通事故保险处理系统,其特征在于,包括:
视频帧图像数据采集模块:采用CCD相机或手机终端采集事故现场车辆视频帧图像数据,对采集的视频帧图像数据进行预处理;
颜色直方图计算模块:计算视频帧图像数据中的每一帧图像的颜色直方图:对于每一帧图像,将其在RGB、HSI颜色空间中的每个通道划分为N个区间;对于每一帧图像,在每个颜色通道内,计算落入各个区间内的像素数量:
其中,是颜色直方图在第/>个区间的像素计数;/>是图像/>中的像素点在颜色通道R、G、B、H、S、I的值,/>是指示函数,当括号内条件成立时取值1,否则为0;/>和/>分别表示直方图的第/>个区间的下界和上界;R表示红色、G表示绿色、B表示蓝色,H表示色相、S表示饱和度、I 表示亮度;
总差异度量计算模块:对于每一帧图像,采用改进的巴氏距离计算每一帧图像与视频帧图像中所有其他每一帧图像的直方图差异度,并对每一帧图像的直方图差异度求和得到总差异度量,改进的巴氏距离计算公式为:
其中,、/>分别表示两个不同的直方图,/>分别表示直方图/>、/>均值,N是直方图的区间数,/>、/>分别是颜色直方图/>和/>在第/>个区间的像素计数;/>为第/>个区间的重要性系数,区间的像素数量越高则/>值越小;
大模型计算模块:选取总差异度量最大的图像以及文本描述输入到训练好的大模型;
输出模块:大模型输出车辆损害程度并进行显示。
7.如权利要求6所述的一种基于大模型的智能交通事故保险处理系统,其特征在于,所述视频帧图像数据采集模块:采用CCD相机或手机终端采集事故现场车辆视频帧图像数据,对采集的视频帧图像数据进行预处理,包括采用手机或CCD相机采集事故现场车辆视频图像数据,采用高斯滤波进行去噪处理。
8.如权利要求6所述的一种基于大模型的智能交通事故保险处理系统,其特征在于,所述总差异度量计算模块:选取总差异度量最大的图像以及文本描述输入到训练好的大模型,文本描述包括事故发生的时间、地点、涉及的车辆类型。
9.如权利要求6所述的一种基于大模型的智能交通事故保险处理系统,其特征在于,所述大模型计算模块:大模型输出车辆损害程度并进行显示,车辆损害程度包括轻微、中等、重大,显示包括在LCD电脑屏幕进行显示或手机进行显示。
10.如权利要求6所述的一种基于大模型的智能交通事故保险处理系统,其特征在于,所述总差异度量计算模块:选取总差异度量最大的图像以及文本描述输入到训练好的大模型,训练好的大模型在训练过程中,使用标注的车辆损害图像和对应的事故描述,以学习识别车辆损害程度。
CN202410268715.9A 2024-03-11 2024-03-11 一种基于大模型的智能交通事故保险处理方法及系统 Active CN117876232B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410268715.9A CN117876232B (zh) 2024-03-11 2024-03-11 一种基于大模型的智能交通事故保险处理方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410268715.9A CN117876232B (zh) 2024-03-11 2024-03-11 一种基于大模型的智能交通事故保险处理方法及系统

Publications (2)

Publication Number Publication Date
CN117876232A CN117876232A (zh) 2024-04-12
CN117876232B true CN117876232B (zh) 2024-05-28

Family

ID=90595150

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410268715.9A Active CN117876232B (zh) 2024-03-11 2024-03-11 一种基于大模型的智能交通事故保险处理方法及系统

Country Status (1)

Country Link
CN (1) CN117876232B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101727672A (zh) * 2008-10-24 2010-06-09 云南正卓信息技术有限公司 一种物体滞留/偷窃事件的检测、跟踪、识别方法
CN103106668A (zh) * 2011-11-09 2013-05-15 佳能株式会社 基于颜色直方图来描述图像区域的方法和系统
WO2016175234A1 (ja) * 2015-04-27 2016-11-03 ヤンマー株式会社 色画像処理方法、色画像処理プログラム、物体認識方法及び装置
CN108682010A (zh) * 2018-05-08 2018-10-19 阿里巴巴集团控股有限公司 车辆损伤识别的处理方法、处理设备、客户端及服务器
CN110766723A (zh) * 2019-10-22 2020-02-07 湖南大学 一种基于颜色直方图相似性的无人机目标跟踪方法及系统
CN113032631A (zh) * 2021-02-24 2021-06-25 北京工业大学 一种基于全局运动统计特征的团队体育视频关键帧提取方法
CN114723945A (zh) * 2022-04-07 2022-07-08 平安科技(深圳)有限公司 车损检测方法和装置、电子设备及存储介质
CN116935293A (zh) * 2023-09-15 2023-10-24 国任财产保险股份有限公司 一种远程视频查勘定损自动化处理方法及系统
CN117094781A (zh) * 2023-08-25 2023-11-21 国任财产保险股份有限公司 一种智能车险定价和理赔处理方法及系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101727672A (zh) * 2008-10-24 2010-06-09 云南正卓信息技术有限公司 一种物体滞留/偷窃事件的检测、跟踪、识别方法
CN103106668A (zh) * 2011-11-09 2013-05-15 佳能株式会社 基于颜色直方图来描述图像区域的方法和系统
WO2016175234A1 (ja) * 2015-04-27 2016-11-03 ヤンマー株式会社 色画像処理方法、色画像処理プログラム、物体認識方法及び装置
CN108682010A (zh) * 2018-05-08 2018-10-19 阿里巴巴集团控股有限公司 车辆损伤识别的处理方法、处理设备、客户端及服务器
CN110766723A (zh) * 2019-10-22 2020-02-07 湖南大学 一种基于颜色直方图相似性的无人机目标跟踪方法及系统
CN113032631A (zh) * 2021-02-24 2021-06-25 北京工业大学 一种基于全局运动统计特征的团队体育视频关键帧提取方法
CN114723945A (zh) * 2022-04-07 2022-07-08 平安科技(深圳)有限公司 车损检测方法和装置、电子设备及存储介质
CN117094781A (zh) * 2023-08-25 2023-11-21 国任财产保险股份有限公司 一种智能车险定价和理赔处理方法及系统
CN116935293A (zh) * 2023-09-15 2023-10-24 国任财产保险股份有限公司 一种远程视频查勘定损自动化处理方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
一种结合区域直方图比较的单高斯背景建模算法的改进;阿斯雅 等;《计算机光盘软件与应用》;20140715;全文 *
基于卷积神经网络的视频镜头边界检测;王婷婷;《中国优秀硕士学位论文全文数据库 信息科技辑》;20200315;全文 *
基于色块边缘和颜色直方图的多目标跟踪算法;刘一宸;;计算机与现代化;20160215(02);全文 *

Also Published As

Publication number Publication date
CN117876232A (zh) 2024-04-12

Similar Documents

Publication Publication Date Title
CN111368687B (zh) 一种基于目标检测和语义分割的人行道车辆违停检测方法
Bas et al. Automatic vehicle counting from video for traffic flow analysis
EP3336764B1 (en) Vehicle monitoring method and image acquisition device
CN103824452B (zh) 一种轻量级的基于全景视觉的违章停车检测装置
KR101756849B1 (ko) 노상 무인정산 주차관제 시스템
Nemade Automatic traffic surveillance using video tracking
CN106600977A (zh) 基于多特征识别的违停检测方法及系统
KR101565978B1 (ko) 원거리 캡처 영상으로 복수의 차량번호를 인식하고 복수의 증거사진을 동시에 추출하는 방법
US8433099B2 (en) Vehicle discrimination apparatus, method, and computer readable medium storing program thereof
CN110689724B (zh) 一种基于深度学习的机动车斑马线礼让行人自动审核方法
US11410287B2 (en) System and method for artificial intelligence based determination of damage to physical structures
CN113160575A (zh) 一种非机动车辆及驾驶人的交通违法行为检测方法及系统
CN113033275B (zh) 基于深度学习的车辆变道不打转向灯分析系统
CN112818834B (zh) 一种交叉口针对应急车辆的避让判定方法、设备及介质
CN103927548A (zh) 一种新的避免车辆碰撞的刹车行为检测方法
CN111695565A (zh) 基于道路关卡模糊图像的汽车标志精准定位方法
CN111144301A (zh) 一种基于深度学习的道路路面缺陷快速预警装置
CN109858459A (zh) 基于警用车载视频要素信息实现智能解析处理的系统及其方法
CN113903012A (zh) 碰撞预警方法及装置、车载设备及存储介质
CN114708532A (zh) 一种监控视频质量评估方法、系统及存储介质
CN114663859A (zh) 灵敏准确的复杂路况车道偏移实时预警系统
CN116824549B (zh) 基于多检测网络融合的目标检测方法、装置及车辆
CN113723273A (zh) 一种车辆轨迹信息确定方法、装置及计算机设备
CN113936257A (zh) 车辆违章行为的检测方法及检测装置、车载电子设备
CN117876232B (zh) 一种基于大模型的智能交通事故保险处理方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant