CN117221391B - 基于视觉语义大模型的智能摄像机推送方法、装置及设备 - Google Patents
基于视觉语义大模型的智能摄像机推送方法、装置及设备 Download PDFInfo
- Publication number
- CN117221391B CN117221391B CN202311481417.XA CN202311481417A CN117221391B CN 117221391 B CN117221391 B CN 117221391B CN 202311481417 A CN202311481417 A CN 202311481417A CN 117221391 B CN117221391 B CN 117221391B
- Authority
- CN
- China
- Prior art keywords
- model
- sample
- text information
- image
- descriptive text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 136
- 238000000034 method Methods 0.000 title claims abstract description 92
- 238000003058 natural language processing Methods 0.000 claims abstract description 42
- 238000012549 training Methods 0.000 claims abstract description 36
- 230000008569 process Effects 0.000 claims abstract description 24
- 230000033001 locomotion Effects 0.000 claims abstract description 23
- 238000012545 processing Methods 0.000 claims description 35
- 230000015654 memory Effects 0.000 claims description 13
- 230000005540 biological transmission Effects 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 7
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000004590 computer program Methods 0.000 description 18
- 238000001514 detection method Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000012544 monitoring process Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000013475 authorization Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241001122767 Theaceae Species 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 239000003651 drinking water Substances 0.000 description 1
- 235000020188 drinking water Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供了基于视觉语义大模型的智能摄像机推送方法、装置及设备,应用于人工智能以及智能摄像机技术领域。该方法包括:在检测到目标对象发生移动的情况下,采集在当前场景下的场景图像;将场景图像上传至云端服务器,以使得云端服务器基于预先部署的视觉语义大模型处理场景图像,并输出用于描述场景图像的描述性文本信息,其中,视觉语义大模型是基于样本对象的属性和不同样本对象之间的关系属性,对初始视觉语义模型进行训练得到的,初始视觉语义模型通过计算机视觉模型和自然语言处理模型共同构建得到;以及通过云端服务器将用于描述场景图像的描述性文本信息推送至与智能摄像机相关联的客户端,以使得在客户端中显示描述性文本信息。
Description
技术领域
本发明涉及人工智能以及智能摄像机技术领域,尤其涉及基于视觉语义大模型的智能摄像机推送方法、装置及设备。
背景技术
在相关技术中,用户可能会在某一个空间内,在允许设置摄像机的情况下,根据允许设置的监控范围以及监控角度进行监控。在监控过程中,通常需要用户直接手动的通过监控程序查看监控视频。在此过程中,如果发生突发事件,用户需要登录监控程序后查看监控视频才能获知,不能保证事件时效性,影响用户体验。此外,现有的智能摄像机虽然可以具有一定的图像识别和分析能力,但是现有的智能摄像机使用小模型处理能力有限,例如,对于复杂的场景可能无法提供泛化能力。
发明内容
鉴于上述问题,本发明提供了一种基于视觉语义大模型的智能摄像机推送方法、装置、设备、介质和程序产品。
根据本发明的第一个方面,提供了一种基于大模型的智能摄像机推送方法,包括:
在检测到目标对象发生移动的情况下,采集在当前场景下的场景图像;
将场景图像上传至云端服务器,以使得云端服务器基于预先部署的视觉语义大模型处理场景图像,并输出用于描述场景图像的描述性文本信息,其中,视觉语义大模型是基于样本对象的属性和不同样本对象之间的关系属性,对初始视觉语义模型进行训练得到的,初始视觉语义模型通过计算机视觉模型和自然语言处理模型共同构建得到;以及
通过云端服务器将用于描述场景图像的描述性文本信息推送至与智能摄像机相关联的客户端,以使得在客户端中显示描述性文本信息。
根据本发明的实施例,对初始视觉语义模型进行训练的方法,包括:
获取样本图像和用于描述样本图像的样本描述性文本信息;
将样本图像输入计算机视觉模型,输出样本图像特征,其中,样本图像特征是基于样本对象的属性和不同样本对象之间的关系属性确定的;
将样本图像特征输入自然语言处理模型,输出初始描述性文本信息;
基于初始描述性文本信息和样本描述性文本信息,调整计算机视觉模型的参数和自然语言处理模型的参数,得到视觉语义大模型。
根据本发明的实施例,自然语言处理模型的参数包括用于限制描述长度的字符数的参数;描述性文本信息满足预设字符数限制条件;
对初始视觉语义模型进行训练的方法,还包括:
根据预设字符数限制条件,对用于限制描述长度的字符数的参数进行调整,得到视觉语义大模型。
根据本发明的实施例,自然语言处理模型的参数包括用于限制描述形式的参数;描述性文本信息满足预设描述形式限制条件;
对初始视觉语义模型进行训练的方法,还包括:
根据预设描述形式限制条件,对用于限制描述形式的参数进行调整,得到视觉语义大模型。
根据本发明的实施例,将样本图像输入计算机视觉模型,输出样本图像特征,包括:
将图像特征输入计算机视觉模型;
根据样本对象的属性,提取与样本图像关联的样本对象的属性特征;
根据不同样本对象之间的关系属性,提取与样本图像关联的样本对象之间的关系属性特征;
根据样本对象的属性特征和关系属性特征,确定样本图像的样本图像特征;
输出样本图像特征。
根据本发明的实施例,基于视觉语义大模型的智能摄像机推送方法还包括:
在录制场景视频的过程中,以队列的形式存储每帧对应的图像;
检测每帧对应的图像,确定目标对象是否发生移动。
根据本发明的实施例,与智能摄像机相关联的客户端包括用于展示智能摄像机录制场景的应用客户端;场景图像是通过传输协议上传至云端服务器的。
本发明的第二方面提供了一种基于视觉语义大模型的智能摄像机推送装置,包括:
采集模块,用于在检测到目标对象发生移动的情况下,采集在当前场景下的场景图像;
处理模块,用于将场景图像上传至云端服务器,以使得云端服务器基于预先部署的视觉语义大模型处理场景图像,并输出用于描述场景图像的描述性文本信息,其中,视觉语义大模型是基于样本对象的属性和不同样本对象之间的关系属性,对初始视觉语义模型进行训练得到的,初始视觉语义模型通过计算机视觉模型和自然语言处理模型共同构建得到;
推送模块,用于通过云端服务器将用于描述场景图像的描述性文本信息推送至与智能摄像机相关联的客户端,以使得在客户端中显示描述性文本信息。
本发明的第三方面提供了一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序,其中,当一个或多个程序被一个或多个处理器执行时,使得一个或多个处理器执行上述基于视觉语义大模型的智能摄像机推送方法。
本发明的第四方面还提供了一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行上述基于视觉语义大模型的智能摄像机推送方法。
本发明的第五方面还提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述基于视觉语义大模型的智能摄像机推送方法。
根据本发明的实施例,在检测到目标对象发生移动的情况下,将在当前场景下的场景图像上传至云端服务器,通过预先部署的视觉语义大模型处理场景图像,由于视觉语义大模型借助大模型较强的捕捉特征性能、泛化能力、图像细节处理能力以及对输入噪声或变化更加鲁棒的特点,能够准确得到用于描述场景图像的描述性文本信息,并将描述性文本信息推送至与智能摄像机相关联的客户端,能够使得在客户端中显示描述性文本信息,有利于用户实时快速查看描述性文本信息,保证了在检测场景中用户知晓事件的时效性,提升了用户体验。能够至少部分解决现有技术中智能摄像机使用小模型处理能力有限的问题,以及至少部分解决用户使用现有智能摄像机时关于用户体验以及事件时效性的问题。
附图说明
通过以下参照附图对本发明实施例的描述,本发明的上述内容以及其他目的、特征和优点将更为清楚,在附图中:
图1示出了根据本发明实施例的基于视觉语义大模型的智能摄像机推送方法、装置、设备、介质和程序产品的应用场景图;
图2示出了根据本发明实施例的基于视觉语义大模型的智能摄像机推送方法的流程图;
图3示出了根据本发明实施例的基于视觉语义大模型的智能摄像机的功能展示图;
图4示出了根据本发明另一实施例的基于视觉语义大模型的智能摄像机的功能展示图;
图5示出了根据本发明实施例的基于视觉语义大模型的智能摄像机推送装置的结构框图;以及
图6示出了根据本发明实施例的适于实现基于视觉语义大模型的智能摄像机推送方法的电子设备的方框图。
具体实施方式
以下,将参照附图来描述本发明的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本发明的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本发明实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本发明。在此使用的术语“包括”、“包含”等表明了特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
在本发明的技术方案中,所涉及的用户信息(包括但不限于用户个人信息、用户图像信息、用户设备信息,例如位置信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据,并且相关数据的收集、存储、使用、加工、传输、提供、公开和应用等处理,均遵守相关国家和地区的相关法律法规和标准,采取了必要保密措施,不违背公序良俗,并提供有相应的操作入口,供用户选择授权或者拒绝。
在本发明实施例的技术方案中,在获取或采集用户个人信息之前,均获取了用户的授权或同意。
在相关技术中,用户可能会在某一个空间内,在允许设置摄像机的情况下,根据允许设置的监控范围以及监控角度进行监控。在监控过程中,通常需要用户直接手动的通过监控程序查看监控视频。在此过程中,如果发生突发事件,用户需要登录监控程序后查看监控视频才能获知,不能保证事件时效性,影响用户体验。此外,现有的智能摄像机虽然可以具有一定的图像识别和分析能力,但是现有的智能摄像机使用小模型处理能力有限,例如,利用单一小模型处理的不足之处可以包括:性能限制,小模型通常有较少的参数,这可能会限制它们的表示能力;过拟合,虽然小模型相对不太容易过拟合,但如果训练数据量非常少,它们仍然可能过拟合;功能受限,小模型可能无法处理复杂或多样的任务,因为它们的容量较小;泛化能力,较大的模型通常在泛化到未见过的数据时表现得更好,而小模型可能会受到限制;细节丢失,在某些任务,如图像超分辨率或图像恢复中,小模型可能无法捕捉到细节信息;对噪声的敏感性,小模型可能对输入数据中的噪声更加敏感;训练不稳定,由于参数较少,小模型在训练过程中可能更容易受到梯度爆炸或消失的影响;难以获得预训练模型,对于许多流行的大型模型,通常有预训练的版本可供下载和微调,而小模型可能没有这样的资源等。
本发明的实施例提供了一种基于视觉语义大模型的智能摄像机推送方法、装置及设备。该方法包括:在检测到目标对象发生移动的情况下,采集在当前场景下的场景图像;将场景图像上传至云端服务器,以使得云端服务器基于预先部署的视觉语义大模型处理场景图像,并输出用于描述场景图像的描述性文本信息,其中,视觉语义大模型是基于样本对象的属性和不同样本对象之间的关系属性,对初始视觉语义模型进行训练得到的,初始视觉语义模型通过计算机视觉模型和自然语言处理模型共同构建得到;以及通过云端服务器将用于描述场景图像的描述性文本信息推送至与智能摄像机相关联的客户端,以使得在客户端中显示描述性文本信息。
图1示出了根据本发明实施例的基于视觉语义大模型的智能摄像机推送方法、装置、设备、介质和程序产品的应用场景图。
如图1所示,根据该实施例的应用场景100可以包括第一终端设备101、第二终端设备102、第三终端设备103、网络104以及云端服务器105。网络104用以在第一终端设备101、第二终端设备102、第三终端设备103和云端服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用第一终端设备101、第二终端设备102、第三终端设备103中的至少一个通过网络104与云端服务器105交互,以接收或发送消息等。第一终端设备101、第二终端设备102、第三终端设备103上可以安装有智能摄像机以及与智能摄像机相关联的客户端应用。
第一终端设备101、第二终端设备102、第三终端设备103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
云端服务器105可以是提供各种服务的服务器,例如对用户利用第一终端设备101、第二终端设备102、第三终端设备103上智能摄像机所检测的目标对象发生移动的情况提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的场景图像等进行分析等处理,并将处理结果(例如根据场景图像生成用于描述场景图像的描述性文本信息等)反馈给终端设备。
应该理解,图1中的终端设备、网络和云端服务器的数目仅仅是的。根据实现需要,可以具有任意数目的终端设备、网络和云端服务器。
以下将基于图1描述的场景,通过图2~图4对公开实施例的基于视觉语义大模型的智能摄像机推送方法进行详细描述。
图2示出了根据本发明实施例的基于视觉语义大模型的智能摄像机推送方法的流程图。
如图2所示,该实施例的基于视觉语义大模型的智能摄像机推送方法200包括操作S210~操作S230。
在操作S210,在检测到目标对象发生移动的情况下,采集在当前场景下的场景图像。
需要说明的是,智能摄像机的检测,以及采集当前场景下的场景图像时,所涉及的信息(包括但不限于用户个人信息、用户图像信息、用户设备信息,例如位置信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据,并且相关数据的收集、存储、使用、加工、传输、提供、公开和应用等处理,均遵守相关国家和地区的相关法律法规和标准,采取了必要保密措施,不违背公序良俗,并提供有相应的操作入口,供用户选择授权或者拒绝。
根据本发明的实施例,智能摄像机可以通过图像检测功能对目标对象进行检测,在检测到目标对象发生移动的情况下,智能摄像机通过图像采集功能采集在当前场景下的场景图像。
其中,目标对象可以是具有移动能力的对象,例如,可以是车辆、行人、动物等。当前场景可以是根据用户需求确定的。
例如,可以通过智能摄像机检测在办公室门口是否有目标对象发生移动,如检测到有人出现,那么可以采集此时有人出现在办公室门口的场景图像。
在操作S220,将场景图像上传至云端服务器,以使得云端服务器基于预先部署的视觉语义大模型处理场景图像,并输出用于描述场景图像的描述性文本信息,其中,视觉语义大模型是基于样本对象的属性和不同样本对象之间的关系属性,对初始视觉语义模型进行训练得到的,初始视觉语义模型通过计算机视觉模型和自然语言处理模型共同构建得到。
根据本发明的实施例,智能摄像机可以通过使用传输协议或者通过配置用于连接云端服务器的接口,将场景图像上传至云端服务器。
根据本发明的实施例,视觉语义大模型可以用于对场景图像进行分析并生成用于描述场景图像的描述性文本信息的大模型。
根据本发明的实施例,其中,视觉语义大模型可以包括训练好的计算机视觉模型和训练好的自然语言处理模型。可以基于样本对象的属性和不同样本对象之间的关系属性,对计算机视觉模型和自然语言处理模型进行训练,训练好的计算机视觉模型可以用于提取场景图像的图像特征。训练好的自然语言处理模型(NLP模型)可以用于根据计算机视觉模型得到的图像特征生成用于描述场景图像的描述性文本信息。可以将训练得到的视觉语义大模型预先部署在云端服务器上。
例如,可以将采集到的有人出现在办公室门口的场景图像上传至云端服务器,云端服务器利用视觉语义大模型处理场景图像,根据场景图像中的人的属性特征、办公室门口其他对象的属性特征以及人与其他对象的关系属性特征,可以生成用于描述场景图像的描述性文本信息,例如可以是“一个穿着蓝半袖的人站在蓝色背景墙前”。
在操作S230,通过云端服务器将用于描述场景图像的描述性文本信息推送至与智能摄像机相关联的客户端,以使得在客户端中显示描述性文本信息。
根据本发明的实施例,将用于描述场景图像的描述性文本信息推送至与智能摄像机相关联的客户端后,用户可以在客户端直接查看描述性文本信息。
根据本发明的实施例,与智能摄像机相关联的客户端可以是智能手机、平板电脑、膝上型便携计算机和台式计算机等等智能设备上安装有与智能摄像机相关联的应用客户端。
例如,可以在客户端显示“一个穿着蓝半袖的人站在蓝色背景墙边”。
根据本发明实施例,在检测到目标对象发生移动的情况下,将在当前场景下的场景图像上传至云端服务器,通过预先部署的视觉语义大模型处理场景图像,由于视觉语义大模型借助大模型较强的捕捉特征性能、泛化能力、图像细节处理能力以及对输入噪声或变化更加鲁棒的特点,能够准确得到用于描述场景图像的描述性文本信息,并将描述性文本信息推送至与智能摄像机相关联的客户端,能够使得在客户端中显示描述性文本信息,有利于用户实时快速查看描述性文本信息,保证了在检测场景中用户知晓事件的时效性,提升了用户体验。能够至少部分解决现有技术中智能摄像机使用小模型处理能力有限的问题,以及至少部分解决用户使用现有智能摄像机时关于用户体验以及事件时效性的问题。
根据本发明的一实施例,基于视觉语义大模型的智能摄像机推送方法,由智能摄像机执行,可以包括:在检测到目标对象发生移动的情况下,采集在当前场景下的场景图像;将场景图像上传至云端服务器,以使得云端服务器将对场景图像处理得到的用于描述场景图像的描述性文本信息推送至与智能摄像机相关联的客户端,其中,云端服务器是基于预先部署的视觉语义大模型对场景图像处理后输出的用于描述场景图像的描述性文本信息,视觉语义大模型是基于样本对象的属性和不同样本对象之间的关系属性,对初始视觉语义模型进行训练得到的,初始视觉语义模型通过计算机视觉模型和自然语言处理模型共同构建得到。
根据本发明的一实施例,基于视觉语义大模型的智能摄像机推送方法,由云端服务器执行,可以包括:接收智能摄像机上传的场景图像,其中,场景图像是智能摄像机在检测到目标对象发生移动的情况下,通过采集当前场景下的图像得到的;基于预先部署的视觉语义大模型处理场景图像,并输出用于描述场景图像的描述性文本信息,其中,视觉语义大模型是基于样本对象的属性和不同样本对象之间的关系属性,对初始视觉语义模型进行训练得到的,初始视觉语义模型通过计算机视觉模型和自然语言处理模型共同构建得到;将用于描述场景图像的描述性文本信息推送至与智能摄像机相关联的客户端,以使得在客户端中显示描述性文本信息。
根据本发明的一实施例,基于视觉语义大模型的智能摄像机推送方法,由与智能摄像机相关联的客户端执行,可以包括:接收由云端服务器推送的用于描述场景图像的描述性文本信息;显示描述性文本信息;其中,用于描述场景图像的描述性文本信息是云端服务器基于预先部署的视觉语义大模型处理由智能摄像机上传的场景图像后输出的,场景图像是智能摄像机在检测到目标对象发生移动的情况下,通过采集当前场景下的图像得到的,视觉语义大模型是基于样本对象的属性和不同样本对象之间的关系属性,对初始视觉语义模型进行训练得到的,初始视觉语义模型通过计算机视觉模型和自然语言处理模型共同构建得到。
图3示出了根据本发明实施例的基于视觉语义大模型的智能摄像机的功能展示图;图4示出了根据本发明另一实施例的基于视觉语义大模型的智能摄像机的功能展示图。
根据本发明的另一实施例,在通过云端服务器将用于描述场景图像的描述性文本信息推送至与智能摄像机相关联的客户端时,描述性文本信息可以以连接的形式显示。例如,如图3所示,客户端可以安装在手机上,可以从客户端接收并以弹窗的形式显示“一个穿着蓝半袖的人站在蓝色背景墙前,去查看>>”。如果用户在直接查看描述性文本信息后,还想查看画面,可以点击描述性文本信息直接跳转到当前场景下的场景图像,如图4所示。既能保证在用户能够在不打开画面的情况下,及时的获得画面内容,又能保证用户对画面的需求,提升了用户的体验。
根据本发明的实施例,除客户端可以在接收到描述性文本信息后,在客户端显示描述性文本信息之外,还可以将描述性文本信息转化为语音信息;通过识别语音信息,确定是否发生目标事件,在确定发生目标事件的情况下,自动播放语音信息。其中,语音信息的转化以及识别方法均可以采用现有语音转化设备或者语音识别装置或者现有转化方法或者识别方法实现,本发明不作具体限定。通过这种方式,用户能够及时知晓目标事件的发生,及时进行下一步处理。其中,目标事件例如可以是老人滑倒。
例如,用户在行动不便的老人家中客厅通过摄像机检测,目标对象是一位老人,当老人滑倒时,本发明实施例提供的智能摄像机可以将场景图像上传至云端服务器,通过云端服务器向用户发送描述性文本信息,并进行语音播放信息,这样用户可以第一时间获知老人滑倒的事件,并采取急救措施等。再次需要说明的是,本发明中所涉及的摄像机检测或摄像机录制或者通过摄像机采集图像等都均为经用户授权或者经过各方充分授权的,并且相关数据的收集、存储、使用、加工、传输、提供、公开和应用等处理,均遵守相关国家和地区的相关法律法规和标准,采取了必要保密措施,不违背公序良俗,并提供有相应的操作入口,供用户选择授权或者拒绝。
根据本发明的实施例,对初始视觉语义模型进行训练的方法可以包括:
获取样本图像和用于描述样本图像的样本描述性文本信息;将样本图像输入计算机视觉模型,输出样本图像特征,其中,样本图像特征是基于样本对象的属性和不同样本对象之间的关系属性确定的;将样本图像特征输入自然语言处理模型,输出初始描述性文本信息; 基于初始描述性文本信息和样本描述性文本信息,调整计算机视觉模型的参数和自然语言处理模型的参数,得到视觉语义大模型。
根据本发明的实施例,可以由计算机视觉模型和自然语言处理模型共同构建初始视觉语义模型。其中,计算机视觉模型可以由多层卷积神经网络构成,可以利用多层卷积层和池化层识别样本图像中的样本图像特征。自然语言处理模型可以是一个循环神经网络(RNN)、长短时记忆网络(LSTM)或Transformer网络。
根据本发明的实施例,样本图像特征可以包括:样本图像中样本对象的属性特征和不同样本对象之间的关系属性特征。其中,样本对象可以是样本图像中所有物,例如样本图像可以是某一时刻针对客厅的拍摄图像,则样本对象可以是墙、人物、动物、灯、沙发、茶几、电视等。样本对象的属性可以是样本对象的基本属性和样本对象在样本图像中的位置属性等。不同样本对象之间的关系属性可以是不同样本对象之间的位置关系属性和不同样本对象之间存在关联的关联属性等,例如,人坐在沙发上,人与沙发存在关联等。
根据本发明的实施例,根据初始描述性文本信息和样本描述性文本信息,使用损失函数(如交叉熵损失)来计算初始视觉语义大模型的损失值,并根据损失值,更新初始视觉语义大模型的参数。可以使用一种优化算法(如Adam或SGD)来最小化损失函数的损失值,得到视觉语义大模型。初始描述性文本信息可以用于描述样本图像的文本信息。
根据本发明的实施例,获取样本图像和用于描述样本图像的样本描述性文本信息可以是:获取大量图像数据,这些图像数据可以是多种多样的,可以包括但不限于各种场景、对象和活动等。将图像数据作为样本图像。同时,获取与图像数据配套的文本描述信息,文本描述信息可以是图片的标签、标题或更详细的描述。描述可以包括但不限于以主谓宾的形式。将与图像数据配套的文本描述信息作为用于描述样本图像的样本描述性文本信息。
根据本发明实施例,计算机视觉模型基于样本对象的属性和不同样本对象之间的关系属性确定的样本图像特征,能够更加准确地提取到用于描述样本图像的特征,有利于对样本对象的识别,以及有利于自然语言处理模型根据输入的样本图像特征,准确生成可以描述样本图像的文本信息,基于此训练得到的视觉语义大模型能够对输入图像进行精准处理后,能够输出针对图像的重要描述性文本。
根据本发明的实施例,在准备训练样本时还可以通过图像增强技术(如旋转、翻转、缩放等)来扩充数据集,并提高模型的泛化能力。
根据本发明的实施例,在将样本图像输入计算机视觉模型,输出样本图像特征之前,还可以包括:对样本图像预处理;对用于描述样本图像的样本描述性文本信息预处理。其中,对样本图像预处理包括缩放、裁剪、归一化等步骤,以保证计算机视觉模型可以高效地处理输入图像。对用于描述样本图像的样本描述性文本信息预处理包括分词、词干提取和词嵌入等步骤,以准备好用于训练的文本数据,让自然语言处理模型学习。
根据本发明的实施例,自然语言处理模型的参数可以包括用于限制描述长度的字符数的参数,描述性文本信息满足预设字符数的限制条件。其中,对初始视觉语义模型进行训练的方法还可以包括:根据预设字符数的限制条件,对用于限制描述长度的字符数的参数进行调整,得到视觉语义大模型。
根据本发明的实施例,自然语言处理模型的参数可以包括用于使描述具有多样性的参数,描述性文本信息满足多样性限制条件。其中,对初始视觉语义模型进行训练的方法还可以包括:根据多样性限制条件,对用于使描述具有多样性的参数进行调整,得到视觉语义大模型。
根据本发明的实施例,自然语言处理模型的参数可以包括用于限制描述长度的字符数和使描述具有多样性的参数;描述性文本信息满足预设字符数限制条件和多样性限制条件。其中,对初始视觉语义模型进行训练的方法还可以包括:根据预设字符数限制条件和多样性限制条件,对用于限制描述长度的字符数和使描述具有多样性的参数进行调整,得到视觉语义大模型。
根据本发明的实施例,预设字符数限制条件和多样性限制条件可以根据实际对图像进行描述的情况以及用户阅读文本信息的情况等确定。例如,预设字符数限制条件可以是用于描述图像的文本信息中的描述长度的字符数不超过预设数量的字符数等。多样性限制条件可以是用于描述图像的文本信息中的描述语言满足多样化等,预设数量可以是20、25等,描述语言满足多样化例如可以是“一个穿蓝色衣服的男孩子从门前走过”和“从门前走过了一个穿蓝色衣服的男孩子”等。
在实施本发明的过程中发现,现有复杂场景中图像信息较多,利用现有语义模型生成的描述性文本较长,甚至出现信息冗余的情况,如果要对描述性文本进行浏览获知信息,不易抓住重点,还耗时较长等。在本发明实施例中,通过调整用于限制描述长度的字符数的参数得到的视觉语义大模型,生成的描述性文本信息满足预设字符数限制条件,可以满足用户需求。在将生成的描述性文本信息推送至与智能摄像机相关联的客户端时,可以减少冗余信息占用的内存量,能够加速显示描述性文本信息的速度,能够及时将描述性文本信息展示给用户。此外,生成的描述性文本信息满足预设字符数限制条件,有利于用户快速读取信息,并准确获知智能摄像机检测到的情况。
根据本发明的实施例,通过调整用于使描述具有多样性的参数得到的视觉语义大模型,生成的描述性文本信息满足多样性限制条件,针对场景图像的描述能够从多个角度围绕目标对象进行语义表达,不仅能够使用户获得文本信息,还能提高用户的可阅读性,提高用户体验。
根据本发明的实施例,在同时调整用于限制描述长度的字符数的参数和调整用于使描述具有多样性的参数得到的视觉语义大模型,生成的描述性文本信息不仅满足预设字符数限制条件还满足多样性限制条件,既能够使用户快速阅读描述性文本信息,同时还提高了描述性文本信息的可阅读性。
根据本发明的实施例,自然语言处理模型的参数可以包括用于限制描述形式的参数;描述性文本信息满足预设描述形式限制条件。其中,对初始视觉语义模型进行训练的方法还可以包括:根据预设描述形式限制条件,对用于限制描述形式的参数进行调整,得到视觉语义大模型。
根据本发明的实施例,预设描述形式限制条件可以是根据用户的阅读习惯、语言描述特点等确定的。例如,预设描述形式限制条件可以是主体(特征)+行为(状态)+去查看(固定描述)。描述性文本信息例如可以是“一个男人正在工作,去查看”、“一只猫在沙发上,去查看”、“一只蜂鸟在喝水,去查看”等。
在实施本发明的过程中发现,现有复杂场景中图像信息较多,利用现有语义模型生成的描述性文本可能出现对象之间的重复描述等,容易造成信息杂乱繁琐的情况,如果要对描述性文本进行浏览获知信息,阅读感差,还耗时较长等。在本发明实施例中,通过调整用于限制描述形式的参数得到的视觉语义大模型,生成的描述性文本信息满足预设描述形式限制条件,可以实现不过多描述场景,只显示事件核心内容的功能,以及语言表达清晰且有条理,不仅有利于用户快速读取信息,并能够使用户更直观地了解智能摄像机检测到的情况,还提高了用户体验感。
需要说明的是,自然语言处理模型的参数还可以包括用于限制描述形式的参数和用于限制描述长度的字符数的参数,也可以包括用于限制描述形式的参数和用于使描述具有多样性的参数,也可以包括用于限制描述形式的参数、用于限制描述长度的字符数的参数和用于使描述具有多样性的参数。
根据本发明的实施例,将样本图像输入计算机视觉模型,输出样本图像特征,可以包括:
将图像特征输入计算机视觉模型;根据样本对象的属性,提取与样本图像关联的样本对象的属性特征;根据不同样本对象之间的关系属性,提取与样本图像关联的样本对象之间的关系属性特征;根据样本对象的属性特征和关系属性特征,确定样本图像的样本图像特征;输出样本图像特征。
根据本发明的实施例,与样本图像关联的样本对象的属性特征可以是样本对象的基本属性特征和位置属性特征等,例如,用于描述样本对象自身的基本特征、样本对象在样本图像中所处位置特征等。与样本图像关联的样本对象之间的关系属性特征可以是不同样本对象之间的位置关系属性特征和不同样本对象之间存在关联的关联属性特征等,例如,人坐在沙发上,人与沙发的关联属性特征可以是人与沙发之间有关的属性特征;人与沙发的位置关系属性特征可以是人相对于沙发的位置关系等。
根据本发明实施例,计算机视觉模型基于样本对象的属性和不同样本对象之间的关系属性确定的样本图像特征,能够更加准确地提取到用于描述样本图像的特征,有利于对样本对象的识别,以及有利于自然语言处理模型根据输入的样本图像特征,准确生成可以描述样本图像的文本信息。
根据本发明的实施例,基于视觉语义大模型的智能摄像机推送方法可以还包括:
在录制场景视频的过程中,以队列的形式存储每帧对应的图像;检测每帧对应的图像,确定目标对象是否发生移动。
根据本发明的实施例,智能摄像机可以通过内置的移动检测算法实时监控场景,一旦检测到目标对象发生移动,会捕获当前场景下的场景图像,并将场景图像上传到云端服务器。
其中,移动检测算法可以包括但不限于:背景减除法(Background Subtraction)、光流法(Optical Flow)、帧差法(Frame Differencing)、混合高斯模型(Gaussian MixtureModel, GMM)、卡尔曼滤波器(Kalman Filter)、深度学习方法、区域相关滤波器(Correlation Filters)、稀疏表示(Sparse Representation)。
例如,背景减除法可以包括静态背景减除和自适应背景减除。其中,静态背景减除可以用每一帧图像与背景模型进行比较,得到前景对象;自适应背景减除,背景模型可以随时间动态更新,以适应场景的变化。光流法可以通过计算连续帧之间的像素点运动来检测运动。帧差法可以计算连续帧之间的差异来检测移动对象。混合高斯模型可以使用混合高斯模型来表示背景,并通过模型更新来检测移动对象。卡尔曼滤波器可以基于状态空间模型和贝叶斯推断来预测和更新对象的状态。深度学习方法可以包括卷积神经网络(CNN)和循环神经网络(RNN)/长短时记忆网络(LSTM)。其中,卷积神经网络使用深度神经网络来进行特征学习和移动检测;循环神经网络(RNN)/长短时记忆网络(LSTM)可以用于处理视频序列数据,检测视频中的移动对象。区域相关滤波器可以基于频域或空域的相关滤波来进行对象跟踪和移动检测。稀疏表示可以通过稀疏编码技术来进行背景建模和前景检测。
根据本发明的实施例,智能摄像机可以在录制视频的过程中,根据录制视频的场景,匹配符合该场景下的移动检测算法,得到目标移动检测算法。然后根据目标移动检测算法,实时检测目标对象是否发生移动。其中,目标对象可以是具有移动能力的对象,例如,可以是车辆、行人、动物等。
根据本发明实施例,智能摄像机可以在移动检测后,确定目标对象是否发生移动。有利于在确定目标对象发生移动的情况下,及时将采集图像接入云端服务器部署的视觉语义大模型,并推送文字描述给用户,这意味着智能摄像机可以更加智能地感知周围发生的事情,并以更具针对性的方式提供通知和警报。不仅仅是传输视频的工具,更像是拥有理解视频内容的智能设备。用户在使用智能摄像机的过程中,智能摄像机自身感知到重要事件发生时,可以通过推送的方式向用户发送消息,告诉用户发生了什么,能够使用户更直观地了解视频中所发生的事件,并及时采取行动。
根据本发明的实施例,与智能摄像机相关联的客户端可以包括用于展示智能摄像机录制场景的应用客户端;场景图像是通过传输协议上传至云端服务器的。
根据本发明的实施例,应用客户端可以安装在智能手机、平板电脑、膝上型便携计算机和台式计算机等等智能设备上有与智能摄像机相关联的应用客户端。智能摄像机可以通过使用 HTTP协议(HyperText Transfer Protocol,超文本传输协议)或 MQTT协议(Message Queuing Telemetry Transport,消息队列遥测传输协议),将场景图像上传到云端服务器。
基于上述基于大模型的智能摄像机推送方法,本发明还提供了一种基于大模型的智能摄像机推送装置。以下将结合图5对该装置进行详细描述。
图5示出了根据本发明实施例的基于视觉语义大模型的智能摄像机推送装置的结构框图。
如图5所示,该实施例的基于视觉语义大模型的智能摄像机推送装置500包括采集模块510、处理模块520和推送模块530。
采集模块510用于在检测到目标对象发生移动的情况下,采集在当前场景下的场景图像。在一实施例中,采集模块510可以用于执行前文描述的操作S210,在此不再赘述。
处理模块520用于将场景图像上传至云端服务器,以使得云端服务器基于预先部署的视觉语义大模型处理场景图像,并输出用于描述场景图像的描述性文本信息,其中,视觉语义大模型是基于样本对象的属性和不同样本对象之间的关系属性,对初始视觉语义模型进行训练得到的,初始视觉语义模型通过计算机视觉模型和自然语言处理模型共同构建得到。在一实施例中,处理模块520可以用于执行前文描述的操作S220,在此不再赘述。
推送模块530用于通过云端服务器将用于描述场景图像的描述性文本信息推送至与智能摄像机相关联的客户端,以使得在客户端中显示描述性文本信息。在一实施例中,推送模块530可以用于执行前文描述的操作S230,在此不再赘述。
根据本发明的实施例,对初始视觉语义模型进行训练的装置可以包括:获取模块、特征处理模块、文本处理模块和训练模块。
获取模块用于获取样本图像和用于描述样本图像的样本描述性文本信息。
特征处理模块用于将样本图像输入计算机视觉模型,输出样本图像特征,其中,样本图像特征是基于样本对象的属性和不同样本对象之间的关系属性确定的。
文本处理模块用于将样本图像特征输入自然语言处理模型,输出初始描述性文本信息。
训练模块用于基于初始描述性文本信息和样本描述性文本信息,调整计算机视觉模型的参数和自然语言处理模型的参数,得到视觉语义大模型。
根据本发明的实施例,自然语言处理模型的参数包括用于限制描述长度的字符数的参数;描述性文本信息满足预设字符数限制条件。
其中,对初始视觉语义模型进行训练的装置还可以包括字符数限制模块。
字符数限制模块用于根据预设字符数限制条件,对用于限制描述长度的字符数的参数进行调整,得到视觉语义大模型。
根据本发明的实施例,自然语言处理模型的参数可以包括用于使描述具有多样性的参数,描述性文本信息满足多样性限制条件。其中,对初始视觉语义模型进行训练的装置还可以包括:多样性限制模块。
多样性限制模块用于根据多样性限制条件,对用于使描述具有多样性的参数进行调整,得到视觉语义大模型。
根据本发明的实施例,自然语言处理模型的参数包括用于限制描述形式的参数;描述性文本信息满足预设描述形式限制条件。
其中,对初始视觉语义模型进行训练的装置还可以包括描述形式限制模块。
描述形式限制模块用于根据预设描述形式限制条件,对用于限制描述形式的参数进行调整,得到视觉语义大模型。
根据本发明的实施例,特征处理模块可以包括:输入单元、第一提取单元、第二提取单元、特征确定单元和输出单元。
输入单元用于将图像特征输入计算机视觉模型。
第一提取单元用于根据样本对象的属性,提取与样本图像关联的样本对象的属性特征。
第二提取单元用于根据不同样本对象之间的关系属性,提取与样本图像关联的样本对象之间的关系属性特征。
特征确定单元用于根据样本对象的属性特征和关系属性特征,确定样本图像的样本图像特征。
输出单元用于输出样本图像特征。
根据本发明的实施例,基于视觉语义大模型的智能摄像机推送装置500还包括:存储模块和检测模块。
存储模块用于在录制场景视频的过程中,以队列的形式存储每帧对应的图像。
检测模块用于检测每帧对应的图像,确定目标对象是否发生移动。
根据本发明的实施例,与智能摄像机相关联的客户端包括用于展示智能摄像机录制场景的应用客户端;场景图像是通过传输协议上传至云端服务器的。
根据本发明的实施例,采集模块510、处理模块520和推送模块530中的任意多个模块可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本发明的实施例,采集模块510、处理模块520和推送模块530中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,采集模块510、处理模块520和推送模块530中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
图6示出了根据本发明实施例的适于实现基于视觉语义大模型的智能摄像机推送方法的电子设备的方框图。
如图6所示,根据本发明实施例的电子设备600包括处理器601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。处理器601例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC))等等。处理器601还可以包括用于缓存用途的板载存储器。处理器601可以包括用于执行根据本发明实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 603中,存储有电子设备600操作所需的各种程序和数据。处理器 601、ROM602以及RAM 603通过总线604彼此相连。处理器601通过执行ROM 602和/或RAM 603中的程序来执行根据本发明实施例的方法流程的各种操作。需要注意,程序也可以存储在除ROM602和RAM 603以外的一个或多个存储器中。处理器601也可以通过执行存储在一个或多个存储器中的程序来执行根据本发明实施例的方法流程的各种操作。
根据本发明的实施例,电子设备600还可以包括输入/输出(I/O)接口605,输入/输出(I/O)接口605也连接至总线604。电子设备600还可以包括连接至I/O接口605的以下部件中的一项或多项:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
本发明还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本发明实施例的方法。
根据本发明的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。例如,根据本发明的实施例,计算机可读存储介质可以包括上文描述的ROM 602和/或RAM 603和/或ROM 602和RAM 603以外的一个或多个存储器。
本发明的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。当计算机程序产品在计算机系统中运行时,该程序代码用于使计算机系统实现本发明实施例所提供的方法。
在该计算机程序被处理器601执行时执行本发明实施例的系统/装置中限定的上述功能。根据本发明的实施例,上文描述的系统、装置、模块、单元等可以通过计算机程序模块来实现。
在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分609被下载和安装,和/或从可拆卸介质611被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被处理器601执行时,执行本发明实施例的系统中限定的上述功能。根据本发明的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
根据本发明的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本发明实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域技术人员可以理解,本发明的各个实施例和/或权利要求中记载的特征可以进行多种组合或/或结合,即使这样的组合或结合没有明确记载于本发明中。特别地,在不脱离本发明精神和教导的情况下,本发明的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本发明的范围。
以上对本发明的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本发明的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本发明的范围由所附权利要求及其等同物限定。不脱离本发明的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本发明的范围之内。
Claims (8)
1.一种基于大模型的智能摄像机推送方法,其特征在于,所述方法包括:
在检测到目标对象发生移动的情况下,采集在当前场景下的场景图像;
将所述场景图像上传至云端服务器,以使得所述云端服务器基于预先部署的视觉语义大模型处理所述场景图像,并输出用于描述所述场景图像的描述性文本信息,其中,所述视觉语义大模型是基于样本对象的属性和不同所述样本对象之间的关系属性,对初始视觉语义模型进行训练得到的,所述初始视觉语义模型通过计算机视觉模型和自然语言处理模型共同构建得到;以及
通过所述云端服务器将所述用于描述所述场景图像的描述性文本信息推送至与所述智能摄像机相关联的客户端,以使得在所述客户端中显示所述描述性文本信息;
对所述初始视觉语义模型进行训练的方法,包括:
获取样本图像和用于描述所述样本图像的样本描述性文本信息;
将所述样本图像输入所述计算机视觉模型,输出样本图像特征,其中,所述样本图像特征是基于所述样本对象的属性和所述不同所述样本对象之间的关系属性确定的;
将所述样本图像特征输入所述自然语言处理模型,输出初始描述性文本信息;
基于所述初始描述性文本信息和所述样本描述性文本信息,调整所述计算机视觉模型的参数和所述自然语言处理模型的参数,得到所述视觉语义大模型;
所述将所述样本图像输入所述计算机视觉模型,输出样本图像特征,包括:
将所述图像特征输入所述计算机视觉模型;
根据所述样本对象的属性,提取与所述样本图像关联的样本对象的属性特征;
根据所述不同所述样本对象之间的关系属性,提取与所述样本图像关联的样本对象之间的关系属性特征;
根据所述样本对象的属性特征和所述关系属性特征,确定所述样本图像的所述样本图像特征;
输出所述样本图像特征。
2.根据权利要求1所述的方法,其特征在于,所述自然语言处理模型的参数包括用于限制描述长度的字符数的参数;所述描述性文本信息满足预设字符数限制条件;
所述对所述初始视觉语义模型进行训练的方法,还包括:
根据所述预设字符数限制条件,对所述用于限制描述长度的字符数的参数进行调整,得到所述视觉语义大模型。
3.根据权利要求1所述的方法,其特征在于,所述自然语言处理模型的参数包括用于限制描述形式的参数;所述描述性文本信息满足预设描述形式限制条件;
所述对所述初始视觉语义模型进行训练的方法,还包括:
根据所述预设描述形式限制条件,对所述用于限制描述形式的参数进行调整,得到所述视觉语义大模型。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在录制场景视频的过程中,以队列的形式存储每帧对应的图像;
检测所述每帧对应的图像,确定所述目标对象是否发生移动。
5.根据权利要求1-4任一项所述的方法,其特征在于,所述与所述智能摄像机相关联的客户端包括用于展示所述智能摄像机录制场景的应用客户端;所述场景图像是通过传输协议上传至所述云端服务器的。
6.一种基于大模型的智能摄像机推送装置,其特征在于,所述装置包括:
采集模块,用于在检测到目标对象发生移动的情况下,采集在当前场景下的场景图像;
处理模块,用于将所述场景图像上传至云端服务器,以使得所述云端服务器基于预先部署的视觉语义大模型处理所述场景图像,并输出用于描述所述场景图像的描述性文本信息,其中,所述视觉语义大模型是基于样本对象的属性和不同所述样本对象之间的关系属性,对初始视觉语义模型进行训练得到的,所述初始视觉语义模型通过计算机视觉模型和自然语言处理模型共同构建得到;
推送模块,用于通过所述云端服务器将所述用于描述所述场景图像的描述性文本信息推送至与所述智能摄像机相关联的客户端,以使得在所述客户端中显示所述描述性文本信息;
对所述初始视觉语义模型进行训练的装置,包括:
获取模块,用于获取样本图像和用于描述所述样本图像的样本描述性文本信息;
特征处理模块,用于将所述样本图像输入所述计算机视觉模型,输出样本图像特征,其中,所述样本图像特征是基于所述样本对象的属性和所述不同所述样本对象之间的关系属性确定的;
文本处理模块,用于将所述样本图像特征输入所述自然语言处理模型,输出初始描述性文本信息;
训练模块,用于基于所述初始描述性文本信息和所述样本描述性文本信息,调整所述计算机视觉模型的参数和所述自然语言处理模型的参数,得到所述视觉语义大模型;
所述特征处理模块包括:
输入单元,用于将所述图像特征输入所述计算机视觉模型;
第一提取单元,用于根据所述样本对象的属性,提取与所述样本图像关联的样本对象的属性特征;
第二提取单元,用于根据所述不同所述样本对象之间的关系属性,提取与所述样本图像关联的样本对象之间的关系属性特征;
特征确定单元,用于根据所述样本对象的属性特征和所述关系属性特征,确定所述样本图像的所述样本图像特征;
输出单元,用于输出所述样本图像特征。
7.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现权利要求1至5中任一项所述的方法。
8.一种计算机可读存储介质,其特征在于,其上存储有可执行指令,该指令被处理器执行时使处理器实现权利要求1至5中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311481417.XA CN117221391B (zh) | 2023-11-09 | 2023-11-09 | 基于视觉语义大模型的智能摄像机推送方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311481417.XA CN117221391B (zh) | 2023-11-09 | 2023-11-09 | 基于视觉语义大模型的智能摄像机推送方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117221391A CN117221391A (zh) | 2023-12-12 |
CN117221391B true CN117221391B (zh) | 2024-02-23 |
Family
ID=89051474
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311481417.XA Active CN117221391B (zh) | 2023-11-09 | 2023-11-09 | 基于视觉语义大模型的智能摄像机推送方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117221391B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109919009A (zh) * | 2019-01-24 | 2019-06-21 | 北京明略软件系统有限公司 | 目标对象的监控方法、装置及系统 |
CN110110145A (zh) * | 2018-01-29 | 2019-08-09 | 腾讯科技(深圳)有限公司 | 描述文本生成方法及装置 |
CN110598739A (zh) * | 2019-08-07 | 2019-12-20 | 广州视源电子科技股份有限公司 | 图文转换方法、设备、智能交互方法、设备及系统、客户端、服务器、机器、介质 |
CN113298151A (zh) * | 2021-05-26 | 2021-08-24 | 中国电子科技集团公司第五十四研究所 | 一种基于多级特征融合的遥感图像语义描述方法 |
CN115631502A (zh) * | 2022-10-21 | 2023-01-20 | 北京百度网讯科技有限公司 | 文字识别方法、装置、模型训练方法、电子设备及介质 |
CN116468970A (zh) * | 2023-04-21 | 2023-07-21 | 中国科学院空天信息创新研究院 | 模型训练方法、图像处理方法、装置、设备及介质 |
-
2023
- 2023-11-09 CN CN202311481417.XA patent/CN117221391B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110110145A (zh) * | 2018-01-29 | 2019-08-09 | 腾讯科技(深圳)有限公司 | 描述文本生成方法及装置 |
CN109919009A (zh) * | 2019-01-24 | 2019-06-21 | 北京明略软件系统有限公司 | 目标对象的监控方法、装置及系统 |
CN110598739A (zh) * | 2019-08-07 | 2019-12-20 | 广州视源电子科技股份有限公司 | 图文转换方法、设备、智能交互方法、设备及系统、客户端、服务器、机器、介质 |
CN113298151A (zh) * | 2021-05-26 | 2021-08-24 | 中国电子科技集团公司第五十四研究所 | 一种基于多级特征融合的遥感图像语义描述方法 |
CN115631502A (zh) * | 2022-10-21 | 2023-01-20 | 北京百度网讯科技有限公司 | 文字识别方法、装置、模型训练方法、电子设备及介质 |
CN116468970A (zh) * | 2023-04-21 | 2023-07-21 | 中国科学院空天信息创新研究院 | 模型训练方法、图像处理方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN117221391A (zh) | 2023-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11398038B2 (en) | Relevant motion detection in video | |
CN109543714B (zh) | 数据特征的获取方法、装置、电子设备及存储介质 | |
Vargas et al. | An enhanced background estimation algorithm for vehicle detection in urban traffic scenes | |
KR101897923B1 (ko) | 신경망 학습 모델 기반 추적 객체 추출 서비스 제공 시스템, 이의 방법, 그리고 이 방법을 저장한 컴퓨터 판독 가능 저장 매체 | |
CN110633669B (zh) | 家居环境中基于深度学习的移动端人脸属性识别方法 | |
US11263472B2 (en) | On-demand visual analysis focalized on salient events | |
WO2020000382A1 (en) | Motion-based object detection method, object detection apparatus and electronic device | |
CN111626956A (zh) | 图像去模糊方法和装置 | |
CN106603999A (zh) | 视频监控报警方法与系统 | |
CN113191495A (zh) | 超分模型的训练及人脸识别方法、装置、介质及电子设备 | |
Singh et al. | Methods to detect an event using artificial intelligence and Machine Learning | |
KR102366544B1 (ko) | 딥러닝을 활용한 영상 기반의 강수 정보 제공 시스템 및 방법 | |
CN114898266A (zh) | 训练方法、图像处理方法、装置、电子设备以及存储介质 | |
CN116704269B (zh) | 数据处理方法、装置、设备及存储介质 | |
CN117221391B (zh) | 基于视觉语义大模型的智能摄像机推送方法、装置及设备 | |
CN110855932B (zh) | 基于视频数据的报警方法、装置、电子设备及存储介质 | |
Park et al. | Bayesian rule-based complex background modeling and foreground detection | |
CN115083229A (zh) | 基于ai视觉识别的飞行训练设备智能识别与警示系统 | |
CN114581994A (zh) | 一种课堂考勤管理方法和系统 | |
CN117216308B (zh) | 基于大模型的搜索方法、系统、设备及介质 | |
CN117576264B (zh) | 图像生成方法、装置、设备及介质 | |
CN111062337B (zh) | 人流方向检测方法及装置、存储介质和电子设备 | |
JP7215815B1 (ja) | 情報処理装置、プログラムおよび情報処理方法 | |
CN116091984B (zh) | 视频目标分割方法、装置、电子设备及存储介质 | |
CN117423163A (zh) | 模型训练方法、吸烟行为检测方法及模型训练装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |