CN113727073A - 一种基于云计算实现车载视频监控的方法及系统 - Google Patents
一种基于云计算实现车载视频监控的方法及系统 Download PDFInfo
- Publication number
- CN113727073A CN113727073A CN202111013943.4A CN202111013943A CN113727073A CN 113727073 A CN113727073 A CN 113727073A CN 202111013943 A CN202111013943 A CN 202111013943A CN 113727073 A CN113727073 A CN 113727073A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- video
- information
- video stream
- paths
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/189—Recording image signals; Reproducing recorded image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明公开了一种基于云计算实现车载视频监控的方法及系统,其方法包括:基于四个车载摄像头获取所在区域的视频信息;车载设备对每一个车载摄像头所采集的视频信息进行编码处理形成一路视频流信息;车载设备将四路视频流信息发送到云平台;云平台获取四路视频流信息,并基于时间标签获取所述时间标签下的四路视频流信息的帧数据;将四路视频流信息的帧数据进行图像处理,并基于车辆本身的图片复合成3D环绕视图;基于车载定位信息将所述3D环绕视图复合到车载三维地图所对应的位置上形成车辆三维监控视频信息。本发明实施例实现车辆场景和三维地图信息融合,方便后续道路路况研究和分析,也为相关3D场景取景提供了便利。
Description
技术领域
本发明涉及视频监控技术领域,尤其涉及一种基于云计算实现车载视频监控的方法及系统。
背景技术
车载视频监控目前已经广泛应用于智能汽车中,车载监控视频已经成熟应用于车载设备中,但车载设备的监控只能看到视野范围内的视频状况,其无法基于车辆本身形成基于三维地图的信息监控实现云端存储,导致现有车辆的路况等信息无法实时存储于服务器中,使得无法基于车辆本身周围状况进行后续研究。
发明内容
本发明的目的在于克服现有技术的不足,本发明提供了一种基于云计算实现车载视频监控的方法及系统,其通过车载摄像头实时获取四周视频流,然后基于云端合成三维地图信息进行云端存储,保障了车辆路况供后续研究。
为了解决上述问题,本发明提出了一种基于云计算实现车载视频监控的方法,所述方法包括以下步骤:
基于四个车载摄像头获取所在区域的视频信息,所述四个车载摄像头位于车辆的四周;
车载设备对每一个车载摄像头所采集的视频信息进行编码处理形成一路视频流信息,所述每一路视频流信息中封装有车载定位信息;
车载设备将四路视频流信息发送到云平台;
云平台获取四路视频流信息,并基于时间标签获取所述时间标签下的四路视频流信息的帧数据;
将四路视频流信息的帧数据进行图像处理,并基于车辆本身的图片复合成3D环绕视图;
基于车载定位信息将所述3D环绕视图复合到车载三维地图所对应的位置上形成车辆三维监控视频信息,并存储所述车辆三维监控视频信息。
所述车载设备对每一个车载摄像头所采集的视频信息进行编码处理形成一路视频流信息包括:
对所采集的视频信息进行预处理;
对预处理后的视频信息进行H.265编码压缩。
所述对所采集的视频信息进行预处理包括:
使用视频处理模块中的库函数对视频信息进行去噪预处理和防抖预处理。
所述使用视频处理模块中的库函数对视频信息进行去噪预处理包括:
选择视频信息中的一帧图像作为当前帧图像,根据选取的当前帧图像的当前区域确定参考值图像中对应位置的参考区域;
确定当前区域与参考区域的欧几里德距离;
根据欧几里德距离确定参考区域相对于当前区域的权重值;
根据权重值及当前区域的像素值确定当前区域去噪后的像素值;
检测是否得到当前帧图像所有区域去噪后的像素值,若是则当前帧图像去噪完成;若否则选取新的当前区域。
所述对预处理后的视频信息进行H.265编码压缩包括:
采用先进的基于上下文的自适应二进制算数编码对预处理后的视频信息进行编码。
所述车载设备将四路视频流信息发送到云平台包括:
通过实时流传输协议RTSP协议将每一路视频流信息发送到云端。
所述将四路视频流信息的帧数据进行图像处理,并基于车辆本身的图片复合成3D环绕视图包括:
对同一时间标签下的帧数据进行几何对齐、光度对齐和基于车辆本身的复合视图合成。
相应的,本发明实施例还提供了一种车载视频监控的系统,所述系统包括:
位于车辆四周的四个车载摄像头,用于获取所在区域的视频信息;
车载设备,用于对每一个车载摄像头所采集的视频信息进行编码处理形成一路视频流信息,所述每一路视频流信息中封装有车载定位信息,并将四路视频流信息发送到云平台;
云平台,用于获取四路视频流信息,并基于时间标签获取所述时间标签下的四路视频流信息的帧数据;将四路视频流信息的帧数据进行图像处理,并基于车辆本身的图片复合成3D环绕视图;基于车载定位信息将所述3D环绕视图复合到车载三维地图所对应的位置上形成车辆三维监控视频信息,并存储所述车辆三维监控视频信息。
所述四个车载摄像头通过串行器连接到解串器上,所述解串器上设置有4个独立的输入口连接着串行器。
所述车载摄像头与解串器之间采用电容耦合方式连接。
本发明实施例采用云计算实现车载视频监控的方法及系统,其通过车载摄像头实时获取四周视频流,然后基于云端合成三维地图信息进行云端存储,通过四个摄像头可以实时采集到车辆周围的路况,使得云端可以快速结合四个摄像头的视频流还原车辆周围的三维场景,并实现三维场景在三维地图上的复合,实现车辆场景和三维地图信息融合,方便后续道路路况研究和分析,也为相关3D场景取景提供了便利。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见的,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明实施例中的基于云计算实现车载视频监控的系统结构图;
图2是本发明实施例中的基于云计算实现车载视频监控的方法流程图;
图3是本发明实施例中的视频处理模块对视频信息进行去噪预处理的方法流程图;
图4是本发明实施例中的视频处理模块对视频信息进行防抖预处理的方法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
图1示出了本发明实施例中的基于云计算实现车载视频监控的系统结构图,该系统包括:
位于车辆四周的四个车载摄像头,用于获取所在区域的视频信息;
车载设备,用于对每一个车载摄像头所采集的视频信息进行编码处理形成一路视频流信息,所述每一路视频流信息中封装有车载定位信息,并将四路视频流信息发送到云平台;
云平台,用于获取四路视频流信息,并基于时间标签获取所述时间标签下的四路视频流信息的帧数据;将四路视频流信息的帧数据进行图像处理,并基于车辆本身的图片复合成3D环绕视图;基于车载定位信息将所述3D环绕视图复合到车载三维地图所对应的位置上形成车辆三维监控视频信息,并存储所述车辆三维监控视频信息。
需要说明的是,这里的四个车载摄像头可以在车辆四周分布,一个车身的侧面设置有一个车载摄像头,这里的四个车载摄像头包括:第一车载摄像头、第二车载摄像头、第三车载摄像头、第四车载摄像头,第一车载摄像头可以位于车的头部,第二车载摄像头可以位于车的尾部,第三车载摄像头可以位于车的左侧,第四车载摄像头可以位于车的右侧,四个车载摄像头通过串行器连接到解串器上,解串器上可以设置有4个独立的输入口连接着串行器,其可以接收4个独立的串行视频流。车载摄像头与解串器之间采用电容耦合方式连接,其不受车载供电而影响视频信号的传输。
该系统通过车载摄像头实时获取四周视频流,然后基于云端合成三维地图信息进行云端存储,通过四个摄像头可以实时采集到车辆周围的路况,使得云端可以快速结合四个摄像头的视频流还原车辆周围的三维场景,并实现三维场景在三维地图上的复合,实现车辆场景和三维地图信息融合,方便后续道路路况研究和分析,也为相关3D场景取景提供了便利。
需要说明的是,这里的车载设备还用于对所采集的视频信息进行预处理;以及对预处理后的视频信息进行H.265编码压缩。这里的对所采集的视频信息进行预处理包括:使用视频处理模块中的库函数对视频信息进行去噪预处理和防抖预处理。这里对预处理后的视频信息进行H.265编码压缩包括:采用先进的基于上下文的自适应二进制算数编码对预处理后的视频信息进行编码。
具体的,使用视频处理模块中的库函数对视频信息进行去噪预处理包括:选择视频信息中的一帧图像作为当前帧图像,根据选取的当前帧图像的当前区域确定参考值图像中对应位置的参考区域;确定当前区域与参考区域的欧几里德距离;根据欧几里德距离确定参考区域相对于当前区域的权重值;根据权重值及当前区域的像素值确定当前区域去噪后的像素值;检测是否得到当前帧图像所有区域去噪后的像素值,若是则当前帧图像去噪完成;若否则选取新的当前区域。
具体的,这里视频处理模块对视频信息进行防抖预处理的方法包括:获取去噪处理后的视频信息;将视频信息中的待处理视频图像序列作为预先训练好的深度神经网络模型的输入,该深度神经网络模型包括特征提取模块和抖动参数估计模块;利用特征提取模块获取待处理视频图像序列每帧图像的深层抽象特征;利用抖动参数估计模块对相邻若干帧图像的深层抽象特征进行处理,估计当前帧图像的抖动参数;根据当前帧的抖动参数,获取稳定的当前帧图像。这里深度神经网络模型的训练过程包括:获取训练样本数据,基于深度神经网络模型的目标损失函数为均方差损失函数,利用训练样本数据训练深度神经网络模型,学习模型参数,以得到预先训练好的深度神经网络模型。
具体的,车载设备上设置有无线网卡,该无线网卡可以是一种USB接口无线网卡。为了节约网络带宽,通过使用H.265编码标准对摄像头采集的视频流进行数据压缩,并基于无线网卡将压缩后的视频流发送到云端,将复杂计算、云储存以及流媒体分发等服务放到云端处理,从而有效解决车载设备本地计算能力差、网络传输视频分辨率低的问题,使得云端处理数据效率提升,大大提升网络传输效率。本发明实施例中车载设备采用实时流传输协议(Real Time Streaming Protocol,RTSP)流媒体传输协议将每一路视频流信息发送到云端,其对每一路视频流信息采用RTSP协议进行封装,具体包括:对RTSP协议的数据结构进行修改,在RTSP的协议头中增加编码器识别号来标识流的编码类型为H.265,在RTSP协议的元数据中增加编码器识别号表示使用的是H.265编码,并对RTSP协议的数据结构进行修改;采用修改后的RTSP协议进行H.265编码视频数据的传输,从而实现车载设备将四路视频流信息发送到云平台。
基于图1所示的系统,图2示出了本发明实施例中的基于云计算实现车载视频监控的方法流程图,包括以下步骤:
S21、基于四个车载摄像头获取所在区域的视频信息,所述四个车载摄像头位于车辆的四周;
需要说明的是,这里的四个车载摄像头可以在车辆四周分布,一个车身的侧面设置有一个车载摄像头,四个车载摄像头通过串行器连接到解串器上,解串器上可以设置有4个独立的输入口连接着串行器,其可以接收4个独立的串行视频流。车载摄像头与解串器之间采用电容耦合方式连接,其不受车载供电而影响视频信号的传输。
S22、车载设备对每一个车载摄像头所采集的视频信息进行编码处理形成一路视频流信息,所述每一路视频流信息中封装有车载定位信息;
车载设备基于串行器连接着四个车载摄像头,其获取到四组独立的视频信息,其需要对每一个车载摄像头所采集的视频信息进行编码处理形成一路视频流信息,其包括对所采集的视频信息进行预处理和H.265编码压缩。
具体的,使用视频处理模块中的库函数对视频信息进行去噪预处理和防抖预处理等、使用视频编码模块对视频进行H.265编码压缩处理,然后通过RTSP流媒体传输协议将每一路视频流信息发送到云端。这里使用H.265编码可以节省码率,使得图像输出的质量更高,从而有效减少车载设备对网络传输带宽的要求。
车载定位信息与视频流信息所关联可以在车载三维地图上进行定位匹配,使得车辆视频场景结合三维地图进行三维地图视频渲染。
图3示出了本发明实施例中的视频处理模块对视频信息进行去噪预处理的方法流程图,这里视频处理模块对视频进行去噪预处理的方法包括:
S31、选择视频信息中的一帧图像作为当前帧图像,根据选取的当前帧图像的当前区域确定参考值图像中对应位置的参考区域,这里的参考帧图像包括当前帧图像,当前帧图像即为待去噪的图像,参考帧图像包含当前帧图像以及其他相邻帧图像;
S32、确定当前区域与参考区域的欧几里德距离,可以根据当前区域和参考区域的像素值确定他们之间的欧几里德距离;
S33、根据欧几里德距离确定参考区域相对于当前区域的权重值;
S34、根据权重值及当前区域的像素值确定当前区域去噪后的像素值,这里为了达到较好的去噪效果,可以采用相邻帧局部位置加权平均的方法得到去噪后的像素值;
S35、检测是否得到当前帧图像所有区域去噪后的像素值,若是,则进入步骤S36,否则进入S37;
S36、当前帧图像去噪完成;
S37、选取新的当前区域,返回步骤S31。
这里针对视频噪声在视频信息的分布存在随机性,视频噪点在视频信息的相邻多帧之间在相同的像素位置的相关性较差,或不具有相关性,利用相邻帧之间局部位置的加权平均的方法对噪声视频进行去噪,可以较好的进行去噪效果,提高视频信息的视觉效果,车载设备通过该去噪方法对四个车载摄像头上的视频信息去噪具有去噪速度快,且容易满足实时性要求。
图4示出了本发明实施例中的视频处理模块对视频信息进行防抖预处理的方法流程图,这里视频处理模块对视频信息进行防抖预处理的方法包括:
S41、获取去噪处理后的视频信息;
S42、将视频信息中的待处理视频图像序列作为预先训练好的深度神经网络模型的输入,该深度神经网络模型包括特征提取模块和抖动参数估计模块;
这里深度神经网络模型的训练过程包括:获取训练样本数据,基于深度神经网络模型的目标损失函数为均方差损失函数,利用训练样本数据训练深度神经网络模型,学习模型参数,以得到预先训练好的深度神经网络模型。
S43、利用特征提取模块获取待处理视频图像序列每帧图像的深层抽象特征;
S44、利用抖动参数估计模块对相邻若干帧图像的深层抽象特征进行处理,估计当前帧图像的抖动参数;
S45、根据当前帧的抖动参数,获取稳定的当前帧图像。
需要说明的是,本发明实施例中的H.265编码压缩处理采用先进的基于上下文的自适应二进制算数编码对预处理后的视频信息进行编码,使得视频编码在速度、压缩率和内存占用等方面均得到了大幅改善。
H.265标准围绕着现有的视频编码标准H.264保留原来的某些技术,同时对一些相关技术加以改进,其使用先进的技术用以改善码流、编码质量、延时和算法复杂度之间的关系,达到最优化设置,其提高压缩效率、提高鲁棒性和错误恢复能力、减少实时的时延、减少信道获取时间和随机接入时延、降低复杂度等,H.265可以实现利用1到2Mbps的传输速度传送720P普通高清音视频传送。
S23、车载设备将四路视频流信息发送到云平台;
本发明实施例中通过实时流传输协议(Real Time Streaming Protocol,RTSP)流媒体传输协议将每一路视频流信息发送到云端,其对每一路视频流信息采用RTSP协议进行封装,具体包括:对RTSP协议的数据结构进行修改,在RTSP的协议头中增加编码器识别号来标识流的编码类型为H.265,在RTSP协议的元数据中增加编码器识别号表示使用的是H.265编码,并对RTSP协议的数据结构进行修改;采用修改后的RTSP协议进行H.265编码视频数据的传输,从而实现车载设备将四路视频流信息发送到云平台。
这里使用H.265编码方式在保证画面不变质的前提下,降低码率从而可以不需要消耗很高带宽资源情况下就可以传输高画质的视频数据。
S24、云平台获取四路视频流信息,并基于时间标签获取所述时间标签下的四路视频流信息的帧数据;
这里利用云平台的强大计算能力来还原车辆所处的3D场景,提升了计算处理效率,也实现了3D数据本地存储。
S25、将四路视频流信息的帧数据进行图像处理,并基于车辆本身的图片复合成3D环绕视图;
云端需要对四路视频流信息处理,需要提取每一路视频流信息中的帧数据,然后对相同时刻的帧数据围绕车辆本身的图片来复合成一个3D环绕视图。
这里对同一时间标签的帧数据进行图像处理,从而可以实现基于车辆本身图像复合成3D环绕视图,其包括:对同一时间标签下的帧数据进行几何对齐、光度对齐和基于车辆本身的复合视图合成。
需要说明的是,这里几何对齐实现对车辆周围场景的校准,确定各个车载摄像头的取景位置,光度对齐进行光度校正相邻视图之间的亮度、对比度和颜色差使之相互进行匹配过程,从而达到场景的无缝拼接。
在几何对齐和光度对齐之后,将4个摄像头获取的视频数据和车辆本身的图片合成并生成负荷环绕视图,从而基于云端实现了对车辆周身的3D环绕视图。
S26、基于车载定位信息将所述3D环绕视图复合到车载三维地图所对应的位置上形成车辆三维监控视频信息,并存储所述车辆三维监控视频信息。
为了较好的实现对车辆定位监控或者地理位置的关联度,可以基于车载定位信息将3D环绕视图与车载三维地图相匹配,从而在车载三维地图上匹复合成了车辆在三维地图上实现动态视频监控的效果,通过车辆3D环绕视图和车载三维地图相结合存储车辆三维监控视频信息,使得车辆监控视频可以结合三维地图的全方位可视化监控。
综上,本发明实施例所提供的云计算实现车载视频监控的方法及系统,其通过车载摄像头实时获取四周视频流,然后基于云端合成三维地图信息进行云端存储,通过四个摄像头可以实时采集到车辆周围的路况,使得云端可以快速结合四个摄像头的视频流还原车辆周围的三维场景,并实现三维场景在三维地图上的复合,实现车辆场景和三维地图信息融合,方便后续道路路况研究和分析,也为相关3D场景取景提供了便利。
以上对本发明实施例进行了详细介绍,本文中采用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于云计算实现车载视频监控的方法,其特征在于,所述方法包括以下步骤:
基于四个车载摄像头获取所在区域的视频信息,所述四个车载摄像头位于车辆的四周;
车载设备对每一个车载摄像头所采集的视频信息进行编码处理形成一路视频流信息,所述每一路视频流信息中封装有车载定位信息;
车载设备将四路视频流信息发送到云平台;
云平台获取四路视频流信息,并基于时间标签获取所述时间标签下的四路视频流信息的帧数据;
将四路视频流信息的帧数据进行图像处理,并基于车辆本身的图片复合成3D环绕视图;
基于车载定位信息将所述3D环绕视图复合到车载三维地图所对应的位置上形成车辆三维监控视频信息,并存储所述车辆三维监控视频信息。
2.如权利要求1所述的基于云计算实现车载视频监控的方法,其特征在于,所述车载设备对每一个车载摄像头所采集的视频信息进行编码处理形成一路视频流信息包括:
对所采集的视频信息进行预处理;
对预处理后的视频信息进行H.265编码压缩。
3.如权利要求2所述的基于云计算实现车载视频监控的方法,其特征在于,所述对所采集的视频信息进行预处理包括:
使用视频处理模块中的库函数对视频信息进行去噪预处理和防抖预处理。
4.如权利要求3所述的基于云计算实现车载视频监控的方法,其特征在于,所述使用视频处理模块中的库函数对视频信息进行去噪预处理包括:
选择视频信息中的一帧图像作为当前帧图像,根据选取的当前帧图像的当前区域确定参考值图像中对应位置的参考区域;
确定当前区域与参考区域的欧几里德距离;
根据欧几里德距离确定参考区域相对于当前区域的权重值;
根据权重值及当前区域的像素值确定当前区域去噪后的像素值;
检测是否得到当前帧图像所有区域去噪后的像素值,若是则当前帧图像去噪完成;若否则选取新的当前区域。
5.如权利要求2所述的基于云计算实现车载视频监控的方法,其特征在于,所述对预处理后的视频信息进行H.265编码压缩包括:
采用先进的基于上下文的自适应二进制算数编码对预处理后的视频信息进行编码。
6.如权利要求5所述的基于云计算实现车载视频监控的方法,其特征在于,所述车载设备将四路视频流信息发送到云平台包括:
通过实时流传输协议RTSP协议将每一路视频流信息发送到云端。
7.如权利要求1至6任一项所述的基于云计算实现车载视频监控的方法,其特征在于,所述将四路视频流信息的帧数据进行图像处理,并基于车辆本身的图片复合成3D环绕视图包括:
对同一时间标签下的帧数据进行几何对齐、光度对齐和基于车辆本身的复合视图合成。
8.一种车载视频监控的系统,其特征在于,所述系统包括:
位于车辆四周的四个车载摄像头,用于获取所在区域的视频信息;
车载设备,用于对每一个车载摄像头所采集的视频信息进行编码处理形成一路视频流信息,所述每一路视频流信息中封装有车载定位信息,并将四路视频流信息发送到云平台;
云平台,用于获取四路视频流信息,并基于时间标签获取所述时间标签下的四路视频流信息的帧数据;将四路视频流信息的帧数据进行图像处理,并基于车辆本身的图片复合成3D环绕视图;基于车载定位信息将所述3D环绕视图复合到车载三维地图所对应的位置上形成车辆三维监控视频信息,并存储所述车辆三维监控视频信息。
9.如权利要求8所述的车载视频监控的系统,其特征在于,所述四个车载摄像头通过串行器连接到解串器上,所述解串器上设置有4个独立的输入口连接着串行器。
10.如权利要求9所述的车载视频监控的系统,其特征在于,所述车载摄像头与解串器之间采用电容耦合方式连接。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111013943.4A CN113727073A (zh) | 2021-08-31 | 2021-08-31 | 一种基于云计算实现车载视频监控的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111013943.4A CN113727073A (zh) | 2021-08-31 | 2021-08-31 | 一种基于云计算实现车载视频监控的方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113727073A true CN113727073A (zh) | 2021-11-30 |
Family
ID=78679920
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111013943.4A Withdrawn CN113727073A (zh) | 2021-08-31 | 2021-08-31 | 一种基于云计算实现车载视频监控的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113727073A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116349750A (zh) * | 2023-03-14 | 2023-06-30 | 贵州省茶叶研究所 | 一种自控做青的茶叶加工系统及其加工方法 |
WO2023138556A1 (zh) * | 2022-01-18 | 2023-07-27 | 长城汽车股份有限公司 | 基于车载多摄像头的视频生成方法、装置及车载设备 |
-
2021
- 2021-08-31 CN CN202111013943.4A patent/CN113727073A/zh not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023138556A1 (zh) * | 2022-01-18 | 2023-07-27 | 长城汽车股份有限公司 | 基于车载多摄像头的视频生成方法、装置及车载设备 |
CN116349750A (zh) * | 2023-03-14 | 2023-06-30 | 贵州省茶叶研究所 | 一种自控做青的茶叶加工系统及其加工方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11671632B2 (en) | Machine-learning-based adaptation of coding parameters for video encoding using motion and object detection | |
US11490092B2 (en) | Event-based adaptation of coding parameters for video image encoding | |
US11057646B2 (en) | Image processor and image processing method | |
US20210090217A1 (en) | Video coding for machine (vcm) based system and method for video super resolution (sr) | |
WO2021042957A1 (zh) | 一种图像处理方法和装置 | |
WO2021164216A1 (zh) | 一种视频编码方法、装置、设备及介质 | |
WO2021057689A1 (zh) | 视频解码方法及装置、视频编码方法及装置、存储介质和电子装置 | |
US20210377542A1 (en) | Video encoding and decoding method, device, and system, and storage medium | |
CN116803079A (zh) | 视频和相关特征的可分级译码 | |
CN113727073A (zh) | 一种基于云计算实现车载视频监控的方法及系统 | |
CN113660486B (zh) | 图像编码、解码、重建、分析方法、系统及电子设备 | |
CN111131825A (zh) | 一种视频处理方法及相关装置 | |
CN113409203A (zh) | 图像模糊程度确定方法、数据集构建方法与去模糊方法 | |
CN112383778B (zh) | 一种视频编码方法、装置及解码方法、装置 | |
CN114125448B (zh) | 视频编码方法、解码方法及相关装置 | |
CN111406404B (zh) | 获得视频文件的压缩方法、解压缩方法、系统及存储介质 | |
US20240070924A1 (en) | Compression of temporal data by using geometry-based point cloud compression | |
WO2024198897A1 (zh) | 一种视频传输方法、装置、存储介质和系统 | |
ZHANG et al. | Recent Advances in Video Coding for Machines Standard and Technologies | |
CN116052047B (zh) | 运动物体检测方法及其相关设备 | |
WO2024078403A1 (zh) | 图像处理方法、装置及设备 | |
WO2023030070A1 (zh) | 编码、封装及显示方法、装置及电子设备 | |
CN109168007B (zh) | 一种标定焦点及其图像传输的方法 | |
CN113873247A (zh) | 一种数字视频数据编码及解码装置及方法 | |
WO2020181540A1 (zh) | 一种视频处理方法、装置、编码设备及解码设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20211130 |
|
WW01 | Invention patent application withdrawn after publication |