CN115953655A - 一种目标分析方法及装置 - Google Patents

一种目标分析方法及装置 Download PDF

Info

Publication number
CN115953655A
CN115953655A CN202211610729.1A CN202211610729A CN115953655A CN 115953655 A CN115953655 A CN 115953655A CN 202211610729 A CN202211610729 A CN 202211610729A CN 115953655 A CN115953655 A CN 115953655A
Authority
CN
China
Prior art keywords
target
observation
virtual
determining
sampling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211610729.1A
Other languages
English (en)
Inventor
占磊
傅广怀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikvision Digital Technology Co Ltd
Original Assignee
Hangzhou Hikvision Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikvision Digital Technology Co Ltd filed Critical Hangzhou Hikvision Digital Technology Co Ltd
Priority to CN202211610729.1A priority Critical patent/CN115953655A/zh
Publication of CN115953655A publication Critical patent/CN115953655A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本申请提供一种目标分析方法及装置,涉及图像处理技术领域,可以用于调整目标分析时融合视频的观测方位,以提升目标分析的检测效果以及准确率。具体方案包括:首先获取布设于目标区域的多个拍摄设备拍摄的视频数据,该目标区域为待识别目标所在的区域;然后将多个拍摄设备拍摄的视频数据投射在目标区域的三维空间模型中,得到基于三维空间模型下的融合视频;再根据对目标区域中的待分析对象进行目标分析时所需的画面要素,确定融合视频的目标观测方位;基于目标观测方位下的融合视频的展示的画面,对待分析对象进行目标分析。

Description

一种目标分析方法及装置
技术领域
本申请涉及图像处理技术领域,尤其涉及一种目标分析方法及装置。
背景技术
目前,视频拍摄系统被广泛应用于园区、工业区、社区、公司、车站、机场等场所,拍摄到的拍摄视频可以被应用于交通、环境监测等多个技术领域。拍摄视频数据具有数据量大、高价值信息稀疏分布等特性,各个拍摄设备采集到的拍摄视频往往采用各自独立的视图模式。
但是,单一拍摄设备的视场有限,若一个拍摄设备的拍摄角度不好,则仅基于该拍摄设备原始图像数据无法有效完成对于出现在拍摄场景中的目标对象的检测、特征分析等任务。
发明内容
本申请提供一种目标分析方法及装置,可以用于调整目标分析时融合视频的观测方位,以提升目标分析的准确率。
为实现上述技术目的,本申请采用如下技术方案:
第一方面,本申请实施例提供了一种目标分析方法,该方法包括:首先获取布设于目标区域的多个拍摄设备拍摄的视频数据,该目标区域为待识别目标所在的区域;然后将多个拍摄设备拍摄的视频数据投射在目标区域的三维空间模型中,得到基于三维空间模型下的融合视频;再根据对目标区域中的待分析对象进行目标分析时所需的画面要素,确定融合视频的目标观测方位;基于目标观测方位下的融合视频的展示的画面,对待分析对象进行目标分析。
本申请实施例提供的目标分析方法至少具有以下有益效果:该方法可以基于三维融合视频技术,将获取到的目标区域的多个拍摄设备拍摄到的视频数据进行融合处理,以得到目标区域的融合视频。在该融合视频中,还可以基于目标分析的检测类型来选择合适的观测方位。以及基于该观测方位,调整融合视频的展示画面,并根据调整后的观测方位下的融合视频的展示的画面进行目标分析。这样一来,不仅可以解决包括但不限于单点位目标无法分析等场景的问题,还可以提升目标分析的准确性。
可选的,该目标分析可以为例如目标检测、目标追踪、目标结构化处理、目标特征提取、目标分类等目标分析类型。
在一种可能的实现方式中,上述根据对目标区域中的待分析对象进行目标分析时所需的画面要素,确定融合视频的目标观测方位,包括:获取画面要素的预设观测方位;基于预设观测方位在融合视频中确定第一虚拟观测方位;第一虚拟观测方位为基于第一拍摄设备的布设角度和布设位置,在三维空间模型中确定的虚拟观测方位,第一虚拟观测方位与预设观测方位之间的第一偏转角度小于其他拍摄设备在三维空间模型中的虚拟观测方位与预设观测方位的偏转角度;根据第一偏转角度和第一虚拟观测方位,确定目标观测方位。
在另一种可能的实现方式中,上述根据第一偏转角度和第一虚拟观测方位,确定目标观测方位,包括:根据第一偏转角度,在三维空间模型中调整第一虚拟观测方位对应的第一虚拟拍摄设备的布设角度;将调整后的第一虚拟拍摄设备对应的观测方位确定为目标观测方位。
在又一种可能的实现方式中,上述根据对目标区域中的待分析对象进行目标分析所需的画面要素,确定融合视频的目标观测方位,包括:根据在融合视频中的多个虚拟观测方位,确定多个采样范围;其中,虚拟观测方位为为基于各个拍摄设备的布设角度和布设位置,在三维空间模型中确定的虚拟观测方位,一个采样范围为基于多个虚拟观测方位中相邻的两个虚拟观测方位确定的;在多个采样范围中的各个采样范围内,基于第一采样间隔确定一个或多个第一采样观测方位;确定基于融合视频在各个第一采样观测方位下的展示画面对待分析对象进行目标分析的置信度,其中,置信度用于指示在展示画面中对待分析对象进行目标分析的准确度;将置信度最高的展示画面对应的第一采样观测方位确定为目标观测方位。
在又一种可能的实现方式中,该方法还包括:在目标观测方位的修正范围内,基于第二采样间隔确定一个或多个第二采样观测方位,第二采样间隔小于第一采样间隔,目标观测方位的修正范围为包括目标观测方位的预设偏移角度的采样范围;确定融合视频在各个第二采样观测方位下的展示画面对待分析对象进行目标分析的置信度;将置信度最高的展示画面对应的第二采样观测方位确定为修正后的目标观测方位。
在又一种可能的实现方式中,在目标分析为对待分析对象的一个或多个目标特征进行分析时,画面要素为包括用于显示待分析对象的一个或多个目标特征的图像。
第二方面,本申请实施例提供了一种目标检测装置,该装置包括:获取模块,用于获取布设于目标区域的多个拍摄设备拍摄的视频数据;目标区域为待识别目标所在的区域;处理模块,用于将多个拍摄设备拍摄的视频数据投射在目标区域的三维空间模型中,得到基于三维空间模型下的融合视频;处理模块,还用于根据对目标区域中的待分析对象进行目标分析时所需的画面要素,确定融合视频的目标观测方位;分析模块,用于基于目标观测方位下的融合视频的展示的画面,对待分析对象进行目标分析。
在一种可能的实现方式中,上述处理模块,具体用于:获取画面要素的预设观测方位;基于预设观测方位在融合视频中确定第一虚拟观测方位;第一虚拟观测方位为基于第一拍摄设备的布设角度和布设位置,在三维空间模型中确定的虚拟观测方位,第一虚拟观测方位与预设观测方位之间的第一偏转角度小于其他拍摄设备在三维空间模型中的虚拟观测方位与预设观测方位的偏转角度;根据第一偏转角度和第一虚拟观测方位,确定目标观测方位。
在另一种可能的实现方式中,上述处理模块,还具体用于:根据第一偏转角度,在三维空间模型中调整第一虚拟观测方位对应的第一虚拟拍摄设备的布设角度;将调整后的第一虚拟拍摄设备对应的观测方位确定为目标观测方位。
在又一种可能的实现方式中,上述处理模块,还具体用于:根据在融合视频中的多个虚拟观测方位,确定多个采样范围;其中,虚拟观测方位为为基于各个拍摄设备的布设角度和布设位置,在三维空间模型中确定的虚拟观测方位,一个采样范围为基于多个虚拟观测方位中相邻的两个虚拟观测方位确定的;在多个采样范围中的各个采样范围内,基于第一采样间隔确定一个或多个第一采样观测方位;确定基于融合视频在各个第一采样观测方位下的展示画面对待分析对象进行目标分析的置信度,其中,置信度用于指示在展示画面中对待分析对象进行目标分析的准确度;将置信度最高的展示画面对应的第一采样观测方位确定为目标观测方位。
在又一种可能的实现方式中,上述处理模块,还用于:在目标观测方位的修正范围内,基于第二采样间隔确定一个或多个第二采样观测方位,第二采样间隔小于第一采样间隔,目标观测方位的修正范围为包括目标观测方位的预设偏移角度的采样范围;确定融合视频在各个第二采样观测方位下的展示画面对待分析对象进行目标分析的置信度;将置信度最高的展示画面对应的第二采样观测方位确定为修正后的目标观测方位。
在又一种可能的实现方式中,在目标分析为对待分析对象的一个或多个目标特征进行分析时,画面要素为包括用于显示待分析对象的一个或多个目标特征的图像。
第三方面,本申请提供一种电子设备,该电子设备包括存储器和处理器。上述存储器和处理器耦合。该存储器用于存储计算机程序代码,该计算机程序代码包括计算机指令。当处理器执行该计算机指令时,使得电子设备执行如第一方面及其任一种可能的设计方式所述的目标分析方法。
第四方面,本申请提供一种计算机可读存储介质,该计算机可读存储介质存储有计算机指令,当所述计算机指令在电子设备上运行时,使得电子设备执行如第一方面及其任一种可能的设计方式所述的目标分析方法。
第五方面,本申请提供一种计算机程序产品,该计算机程序产品包括计算机指令,当计算机指令在电子设备上运行时,使得电子设备执行如第一方面及其任一种可能的设计方式所述的目标分析方法。
本申请中第二方面到第五方面及其各种实现方式的具体描述,可以参考第一方面及其各种实现方式中的详细描述;并且,第二方面到第六方面及其各种实现方式的有益效果,可以参考第一方面及其各种实现方式中的有益效果分析,此处不再赘述。
附图说明
图1为本申请实施例提供的一种拍摄系统的示意图;
图2为本申请实施例提供的一种拍摄场景的示意图;
图3为本申请实施例提供的一种目标分析装置的硬件结构示意图;
图4为本申请实施例提供的一种目标分析方法的流程图;
图5为本申请实施例提供的一种虚拟观测方位的示意图;
图6为本申请实施例提供的一种预设观测方位的示意图;
图7为本申请实施例提供的另一种虚拟观测方位的示意图;
图8为本申请实施例提供的另一种目标分析方法的流程图;
图9为本申请实施例提供的一种第一采样观测方位的示意图;
图10为本申请实施例提供的另一种目标分析方法的流程图;
图11为本申请实施例提供的一种目标分析装置的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在本申请的描述中,除非另有说明,“/”表示“或”的意思,例如,A/B可以表示A或B。本文中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。此外,“至少一个”是指一个或多个,“多个”是指两个或两个以上。“第一”、“第二”等字样并不对数量和执行次序进行限定,并且“第一”、“第二”等字样也并不限定一定不同。
需要说明的是,本申请中,“示例性的”或者“例如”等词用于表示作例子、例证或说明。本申请中被描述为“示例性的”或者“例如”的任何实施例或设计方案不应被解释为比其他实施例或设计方案更优选或更具优势。确切而言,使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念。
目标分析为了提升基于拍摄到的视频进行目标分析的分析效果,本申请实施例提供了一种目标分析方法,该方法具体包括:首先获取布设于目标区域的多个拍摄设备拍摄的视频数据,该目标区域为待识别目标所在的区域;然后将多个拍摄设备拍摄的视频数据投射在目标区域的三维空间模型中,得到基于三维空间模型下的融合视频;再根据对目标区域中的待分析对象进行目标分析时所需的画面要素,确定融合视频的目标观测方位;基于目标观测方位下的融合视频的展示的画面,对待分析对象进行目标分析。可选的,该目标分析可以为例如目标检测、目标追踪、目标结构化处理、目标特征提取、目标分类等目标分析类型。
如此,基于上述目标分析方法,可以解决包括但不限于单点位目标无法分析等场景的问题,此外,还可以提升目标分析的准确性。
如图1所示,为本申请实施例提供的一种拍摄系统100,如图1所示,该拍摄系统100中包括拍摄设备10和管理设备20。其中,拍摄设备10与管理设备20连接,以使得该管理设备20能够与拍摄设备10进行通信。
应理解,上述连接的方式可以为无线连接,例如蓝牙连接、Wi-Fi连接等;或者,上述连接的方式也可以为有线连接,例如光纤连接等,对此不作限定。
拍摄设备10用于实时采集拍摄场景中的视频数据。拍摄设备10可以为具有视频摄像/传播和静态图像捕捉等基本功能的设备,例如摄像机。
可选的,拍摄设备10可以识别出现在该拍摄设备10的视场内的待分析对象,待分析对象可以为该拍摄系统100中预设的需要进行目标分析的目标对象,例如待分析对象可以为车辆、动物或其他可能的目标对象。或者,待分析对象还可以为包括动物、车辆、物体中任意多项的组合。示例性的,待分析对象可以为包括多种的组合,例如牵着宠物狗的行人。应理解,基于该示例性的分析对象,拍摄画面中需要同时包括行人和动物,以便于检测到该分析对象。
可选的,拍摄设备10的数量可以包括一个或多个。例如,在如图2所示的拍摄场景中,布设有拍摄设备101、拍摄设备102、拍摄设备103以及拍摄设备104。其中,每一个拍摄设备均与管理设备20连接。
管理设备20用于管理拍摄场景中布设的一个或多个拍摄设备10。管理设备20可以设置于拍摄场景中,例如该拍摄场景为办公区域,该管理设备20可以设置于办公区域内任意位置。或者,管理设备20也可以设置于该拍摄场景之外,例如该拍摄场景为办公区域,管理设备20也可以设置于办公区域之外的拍摄室或其他可能的区域。
在一些实施例中,管理设备20可以实时或周期性获取该拍摄场景中各个拍摄设备拍摄到的拍摄数据,以对该获取到的拍摄数据进行处理并存储。可选的,管理设备20还可以用于显示获取到的拍摄数据或者借助于必要的显示部件显示获取到的拍摄数据。
管理设备20可以为各种具有数据处理能力的电子设备,例如服务器(或云服务器)、录像机、摄像机、计算机、智能佩戴设备、智能便携设备等设备。
例如,该电子设备可以为服务器,其可以是单独的一台服务器,或者是多台服务器组成的服务器集群,又或者是一个云计算服务中心,对此不作限定。
又例如,该电子设备可以是终端设备,其可以是手机、平板电脑、桌面型、膝上型、手持计算机、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本,以及蜂窝电话、个人数字助理(personal digital assistant,PDA)、增强现实(augmented reality,AR)\虚拟现实(virtual reality,VR)设备等终端设备。可选的,该电子设备可以向用户展示接收到的拍摄设备10拍摄到的拍摄视频,以及向用户展示通过本申请实施例提供的方法确定出的三维融合视频画面。
本申请实施例还提供一种目标分析装置,该目标分析装置即为上述目标分析方法的执行主体。该目标分析装置具有数据处理能力的设备。例如,该目标分析装置可以是上述拍摄系统100中的管理设备20,或者该目标分析装置是该管理设备20中的一个功能模块,又或者该目标分析装置可以是与该管理设备20连接的任一计算设备等。本申请实施例对此不作限定。
下面结合图3对目标分析装置200的一种硬件结构进行介绍。
如图3所示,该目标分析装置200包括处理器210,通信线路220以及通信接口230。
可选的,该目标分析装置200还可以包括存储器240。其中,处理器210,存储器240以及通信接口230之间可以通过通信线路220连接。
其中,处理器210可以是中央处理器(central processing unit,CPU)、通用处理器如图形处理器(graphics processing unit,GPU)、图形处理器、网络处理器(networkprocessor,NP)、数字信号处理器(digital signal processing,DSP)、微处理器、微控制器、可编程逻辑器件(programmable logic device,PLD)或它们的任意组合。处理器210还可以是其它任意具有处理功能的装置,例如电路、器件或软件模块,不做限制。
在一种示例中,处理器210可以包括一个或多个CPU,例如图3中的CPU0和CPU1。
作为一种可选的实现方式,目标分析装置200包括多个处理器,例如,除处理器210之外,还可以包括处理器270。通信线路220,用于在目标分析装置200所包括的各部件之间传送信息。
通信接口230,用于与其他设备或其它通信网络进行通信。该其它通信网络可以为以太网,无线接入网(radio access network,RAN),无线局域网(wireless local areanetworks,WLAN)等。通信接口230可以是模块、电路、收发器或者任何能够实现通信的装置。
存储器240,用于存储指令。其中,指令可以是计算机程序。
其中,存储器240可以是只读存储器(read-only memory,ROM)或可存储静态信息和/或指令的其他类型的静态存储设备,也可以是存取存储器(random access memory,RAM)或者可存储信息和/或指令的其他类型的动态存储设备,还可以是电可擦可编程只读存储器(electrically erasable programmable read-only memory,EEPROM)、只读光盘(compact disc read-only memory,CD-ROM)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备等,不予限制。
需要指出的是,存储器240可以独立于处理器210存在,也可以和处理器210集成在一起。存储器240可以用于存储指令或者程序代码或者一些数据等。存储器240可以位于目标分析装置200内,也可以位于目标分析装置200外,不做限制。
处理器210,用于执行存储器240中存储的指令,以实现本申请下述实施例提供的通信方法。例如,当目标分析装置200为终端或者终端中的芯片或者片上系统时,处理器210可以执行存储器240中存储的指令,以实现本申请提供的目标分析方法。
作为一种可选的实现方式,目标分析装置200还包括输出器件250和输入器件260。其中,输出器件250可以是显示屏、扬声器等能够将目标分析装置200的数据输出给用户的器件。输入器件260是可以键盘、鼠标、麦克风或操作杆等能够向目标分析装置200输入数据的器件。
需要指出的是,图3中示出的结构并不构成对该装置的限定,除图3所示部件之外,该计算装置可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合说明书附图,对本申请提供的实施例进行具体介绍。
如图4所示,本申请实施例提供了一种目标分析方法,可选的,该方法由图3所示的目标分析装置200执行,该方法包括以下步骤:
S101、目标分析装置获取布设于目标区域的多个拍摄设备拍摄的视频数据。
其中,上述目标区域为待识别目标所在的区域。
可选的,目标区域可以为整个拍摄场景的一部分,或者,目标区域即为整个拍摄场景。上述拍摄场景为设置有上述拍摄系统的场景。示例性的,该拍摄场景可以为设置有多个拍摄设备的路口区域、设置有多个拍摄设备的办公区域等。
此外,上述视频数据也为各个拍摄设备拍摄的该拍摄场景中的全部或者一部分视频数据。
可选的,目标分析装置可以实时接收到多个拍摄设备发送的视频数据。或者,目标分析装置可以以预设频率获取到的多个拍摄设备发送的视频数据。又或者,目标分析装置还可以获取到预先存储的历史录像视频数据。
其中,上述预设频率可以为1分钟/次、3分钟/次或者30秒/次或其他可能的频率。
S102、目标分析装置将多个拍摄设备拍摄的视频数据投射在目标区域的三维空间模型中,得到基于三维空间模型下的融合视频。
在本申请实施例中,目标的三维空间模型具体可以为:在目标区域的一个或多个拍摄设备对该目标区域进行画面拍摄的过程中,目标分析装置利用基于一个或多个拍摄设备获取到拍摄视频数据使用相关软件进行建模,以进一步得到该目标区域的三维融合视频。可选的,目标区域的三维空间模型的具体建模过程还可以采用截断的带符号距离函数(truncated signed distance function,TSDF)算法等。具体的,基于该算法,目标分析装置可以获取目标区域的点云数据,再将点云数据映射到一个预先定义的三维立体空间中,并用截断符号距离函数表示真实场景表面附近的区域,以建立目标区域的三维空间模型。
可选的,上述目标区域的三维空间模型的具体建模过程还可以是云端设备、高性能电脑或其他可能的设备来执行的,从而,该目标分析装置可以在该设备中获取到已经构建完成的该目标区域的三维空间模型。
在一些实施例中,目标分析装置可以将实时采集到的拍摄设备拍摄得到的视频数据投射在目标区域的三维空间模型中,从而得到该目标区域中实时的融合视频。
进而,目标分析装置在进行目标分析的过程中,可以提取出其中需要进行目标分析的一段时间内的融合视频数据。
可选的,对于同一时刻下各个拍摄设备拍摄得到的视频帧,目标分析装置可以利用计算机视觉相关算法,计算各个视频帧中的像素点在该目标区域的三维空间模型中的空间物体表面的对应点的空间位置。进而,通过投射变换可以得出实现各个视频帧与三维空间模型的融合,形成基于该三维空间模型的融合画面。
其中,视频帧是指是视频中一幅独立的静止画面。视频是由一幅一幅独立的画面组成的看似连续的影像,其中,一幅独立的画面可以称为一个视频帧。
进一步地,基于上述对于一个时刻下各个拍摄设备拍摄得到的视频帧的融合过程,依次对获取到的各个拍摄设备拍摄得到的视频帧进行融合处理,即可得到上述一段时间内的融合视频。
在一些实施例中,目标分析装置在进行目标分析的过程中,可以从该目标分析装置的存储空间中或者各个拍摄设备处,获取需要进行目标分析的一段时间内,各个拍摄设备拍摄得到的视频数据。进而,目标分析装置可以将获取到的该段时间内各个拍摄设备的视频数据投射到拍摄场景的三维空间模型中,以生成该段时间内的融合视频。
此外,上述生成的融合视频可以支持从虚拟全局视点或虚拟观测方位观测视频图像。也即,目标分析装置可以从虚拟全局视点或虚拟观测方位向用户展现融合视频的视频图像。其中,该视点可以高于物理摄像机真实位置点,虚拟观测方位也可以不同于物理摄像机的真实位置布设角度。
其中,上述虚拟观测方位可以理解为用户观看的方位。基于该虚拟观测方位角,可以理解为在上述三维空间模型中布设有虚拟拍摄设备,从而,该虚拟拍摄设备拍摄到的画面即为展示给用户的画面,也即该虚拟观测方位下,用户观看到的画面。例如,图5提供一种目标区域的三维空间模型。如图5所示,在该三维空间模型中,可以从虚拟观测方位51、虚拟观测方位52、虚拟观测方位53以及虚拟观测方位54展示该三维空间模型的融合视频。
需要说明的是,本申请实施例中关于虚拟拍摄设备的描述仅为便于虚拟观测方位的理解,在实际实现中,该三维空间模型中可以并未真实布设有虚拟拍摄设备。
S103、目标分析装置根据对目标区域中的待分析对象进行目标分析时所需的画面要素,确定融合视频的目标观测方位。
其中,上述画面要素是指在进行目标分析的过程所需的待分析对象的各种信息。在目标分析为对待分析对象的一个或多个目标特征进行分析时,上述画面要素为包括用于显示待分析对象的所述一个或多个目标特征的图像。例如,当用户需要获取视频中车辆的车牌时,此时上述画面要素即为画面中车辆的车牌信息。
此外,上述目标观测方位可以理解为展示上述虚拟视频的一个虚拟观测方位,融合视频在目标观测方位下展示画面要素的完整度高于非目标观测方位。如此,基于目标观测方位下的融合视频的展示画面便于对待分析对象进行目标分析,且目标分析的准确率更高。
在一种实施例中,目标分析装置可以根据目标分析装置对待分析对象进行目标分析所需要的画面要素,进而查找出包括该画面要素的融合视频的展示画面,并且,该展示画面对应的虚拟观测方位即为上述目标观测方位。进而,目标分析装置可以将融合视频从原始观测方位切换为上述目标观测方位。
可选的,目标分析装置确定目标观测方位的具体过程可以包括以下步骤:
步骤1、目标分析装置获取上述画面要素的预设观测方位。
需要说明的是,在预设的理想状态下,融合视频在上述预测观测方位展示该画面要素的完整度最高。
具体的,目标分析装置可以根据上述画面要素的类型,获取该画面要素类型对应的预设观测方位。
示例性的,若画面要素为行人正面图像,则如图6中的(a)所示,预设观测方位应为观测方位61,正面直视该人体(人员1)的观测方位。
或者,若画面要素为车辆中驾驶员的动作信息,则如图6中的(b)所示,预设观测方位应为观测方位62,正面直视该车辆正前方的观测方位。
步骤2、目标分析装置基于预设观测方位在融合视频中确定第一虚拟观测方位。
其中,上述第一虚拟观测方位为基于第一拍摄设备的布设角度和布设位置,在三维空间模型中确定的虚拟观测方位。并且,第一虚拟观测方位与预设观测方位之间的第一偏转角度小于其他拍摄设备在三维空间模型中的虚拟观测方位与预设观测方位的偏转角度。
示例性的,目标分析装置可以分别获取该目标区域中布设的多个拍摄设备的布设角度和布设位置。进而,目标分析装置可以确定各个拍摄设备在目标场景的三维融合模型对应的虚拟观测方位,并计算各个拍摄设备的虚拟观测方位与预设观测方位之间的偏转角度。
可选的,目标分析装置可以根据上述各个拍摄设备在实际目标区域中的布设位置和拍摄角度,在目标区域的三维空间模型中生成各个拍摄设备对应的虚拟拍摄设备。从而,目标分析装置可以在目标区域的三维空间模型中,确定各个虚拟拍摄设备的虚拟观测方位与预设观测方位之间的偏转角度。
可选的,上述偏转角度还可以包括水平方向上的第一偏转角度和竖直方向上的第二偏转角度。
从而,目标分析装置在多个拍摄设备中确定出第一拍摄设备,该第一拍摄设备可以为多个拍摄设备中第一偏转角度和/或第二拍摄角度最小的拍摄设备。
示例性的,如图7所示,若目标区域中包括拍摄设备1、拍摄设备2、拍摄设备3以及拍摄设备4,若画面要素为车辆71中驾驶员的动作信息,则如图7所示,预设观测方位正面直视该车辆正前方的观测方位。在这四个拍摄设备中,若拍摄设备1的第一偏转角度(也即第一拍摄设备在三维空间模型中的虚拟观测方位与预设观测方位之间的偏转角度)和第二偏转角度均为最小角度,则目标分析装置可以将拍摄设备1确定为上述第一拍摄设备。或者,若拍摄设备1的第一偏转角度为最小角度,且拍摄设备2的第二偏转角度为最小角度,则目标分析装置可以将拍摄设备1或者拍摄设备2确定为上述第一拍摄设备。
在一些实施例中,目标分析装置还可以获取各个拍摄设备的拍摄参数。例如各个拍摄设备的拍摄焦距、拍摄像素等参数,可以用于判断各个拍摄设备拍摄的视频数据的缩放参数。
需要说明的是,在实际使用中,各个目标区域实际布设的拍摄设备拍摄的视频数据的缩放参数为1,也即未经过缩放。但是,对于三维融合视频中的虚拟拍摄设备而言,该虚拟拍摄设备的虚拟观测方位下的视频画面可以为经过缩放处理的画面。
步骤3、目标分析装置根据第一偏转角度和第一虚拟观测方位,确定目标观测方位。
其中,目标分析装置可以根据上述各个拍摄设备在实际目标区域中的布设位置和拍摄角度,在目标区域的三维空间模型中生成各个拍摄设备对应的虚拟拍摄设备。原始观测方位可以为目标区域中的任一拍摄设备在上述三维空间模型中对应的虚拟拍摄设备的观测方位。
可选的,目标分析装置可以根据第一偏转角度,在三维空间模型中调整第一虚拟观测方位对应的第一虚拟拍摄设备的布设角度;并将调整后的所述第一虚拟拍摄设备对应的观测方位确定为目标观测方位。
需要说明的是,上述融合视频具有默认观测方位,该默认观测方位即为上述任一拍摄设备在上述三维空间模型中对应的虚拟拍摄设备的虚拟观测方位。若目标分析装置未对融合视频的观测方位进行调整,则融合视频即以该默认观测方位进行展示。从而,在该默认观测方位下,融合视频的展示画面中可能并未包括待分析对象,或者并未包括对待分析对象进行目标分析所需的画面要素,从而,目标分析装置可以对该融合视频的观测方位进行调整。
可选的,在确定出目标观测方位之后,目标分析装置可以先计算原始观测方位与第一拍摄设备对应的虚拟观测方位之间的偏移角度,进而结合该第一拍摄设备对应的虚拟观测方位与目标观测方位之间的偏移角度,确定出实际应该调整的总偏移角度。从而,目标分析装置可以基于该总偏移角度对融合视频进行调整,以将融合视频从原始观测方位调整为目标观测方位。
S104、目标分析装置基于目标展示观测方位下的融合视频的展示画面,对待分析对象进行目标分析。
可选的,上述目标分析可以为特征提取、人脸检测、行人检测、行为识别、视频内容识别等多种可能的对视频数据进行的处理过程。
本申请实施例提供的目标分析方法至少具有以下有益效果:该方法可以基于三维融合视频技术,将获取到的目标区域的多个拍摄设备拍摄到的视频数据进行融合处理,以得到目标区域的融合视频。在该融合视频中,还可以基于目标分析的检测类型来选择合适的观测方位。以及基于该观测方位,调整融合视频的展示画面,并根据调整后的观测方位下的融合视频的展示的画面进行目标分析。这样一来,不仅可以解决包括但不限于单点位目标无法分析等场景的问题,还可以提升目标分析的准确性。
在一些实施例中,如图8所示,基于图4所示的目标分析方法,本申请还提供确定目标角度的另一种实现方式,步骤S103可以具体实现为:
S1031、目标分析装置跟据在融合视频中的多个虚拟观测方位,确定多个采样范围。
可选的,目标分析装置可以基于目标区域中的多个拍摄设备中的任意相邻两个拍摄设备在融合视频中的虚拟观测方位,确定一个采样范围。
具体的,目标分析装置可以在拍摄场景的三维空间模型中布设各个拍摄设备对应的虚拟拍摄设备,进而根据每两个相邻的虚拟拍摄设备的虚拟观测方位之间的偏移角度,确定一个采样范围。从而,可以确定一个或多个采样范围。
S1032、目标分析装置在多个采样范围中的各个采样范围内,基于第一采样间隔确定一个或多个第一采样观测方位。
其中,上述第一采样间隔可以为1°、5°、10°或其他可能的角度值。
对于每一个采样范围,目标分析装置可以基于上述第一采样间隔,在该采样范围内确定出一个或多个第一采样观测方位。第一采样观测方位可以理解为上述三维融合模型中的一个虚拟观测方位。
如图9所示,第一采样间隔的大小可以为以图9中的角1的角度大小。示例性的,若第二拍摄设备与第三拍摄设备之间的偏移角度为30°,而第一采样间隔也即角1为5°,则目标分析装置可以在于拍摄设备1的偏移角度为5°处确定第一采样观测方位也即图9中的采样观测方位1、在偏移角度为10°处确定采样观测方位2、在偏移观测方位为15°处确定采样观测方位3、在偏移角度为20°处确定采样观测方位4、在偏移角度为25°处确定采样观测方位5。在一些实施例中,目标分析装置还可以基于预设的不同的画面缩放比例,在上述一个或多个观测方位的基础上确定更多的第一采样观测方位。
示例性的,若预设的画面缩放比例为0.5、1、1.5以及2。从而,对于上述确定出的一个或多个观测方位中的观测方位1而言,目标分析装置还可以基于该观测方位1,确定出拍摄角度不变,但画面缩放比例分别为0.5、1.5以及2的观测方位1.1、1.2以及1.3。应理解,观测方位1通常为默认缩放比例,也即缩放比例为1。
S1033、目标分析装置确定基于融合视频在各个第一采样观测方位下的展示画面对待分析对象进行目标分析的置信度。
其中,上述置信度用于指示在一个采样观测方位的展示画面中对待分析对象进行目标分析的准确度。并且,上述置信度可以以0-1之间例如0.1、0.55等数据表示。
可选的,目标分析装置可以基于预设算法确定各个虚拟观测方位下融合视频的显示画面对待分析对象进行目标分析的置信度。其中,置信度越高,说明该虚拟观测方位下融合视频的显示画面中越可能包括上述画面要素,且画面要素的角度越合适进行目标分析。
S1034、目标分析装置将置信度最高的展示画面对应的第一采样观测方位确定为目标观测方位。
基于上述实施例,该方法可以直接基于采样法选定多个候选的虚拟观测方位(也即第一采样观测方位),进而依次对每个候选的虚拟观测方位下的展示画面进行评价,从而确定出最合适的目标观测方位。如此,确定的目标观测方位更加准确。
在一些实施例中,目标分析装置还可以对确定出的目标观测方位进行修正,基于图4或图8所示的目标分析方法,如图10所示,在步骤S103之后,该方法还可以包括以下步骤:
S201、目标分析装置在目标观测方位的修正范围内,基于第二采样间隔确定一个或多个第二采样观测方位。
其中,上述修正范围可以为偏移角度为预设大小(也即预设偏移角度),且包括目标观测方位的采样范围。示例性的,预设大小可以为偏移角度为5°、10°等。若预设大小为5°,则修正范围可以目标展示观测方位±2.5°。
此外,第二采间隔小于第一采样间隔。示例性的,第二采样间隔可以为0.1°、0.2°、或者0.5°或其他合理的数值。
S202、目标分析装置确定融合视频在各个第二采样观测方位下的展示画面对待分析对象进行目标分析的置信度。
其中,步骤S202的相关描述可以参考上述步骤S1033,此处不再赘述。
S203、目标分析装置将置信度最高的展示画面对应的第二采样观测方位确定为修正后的目标观测方位。
基于上述实施例,该方法可以以更小的采样间隔选定目标观测方位附近的候选的虚拟观测方位(也即上述第二采样观测方位),进而依次对每个候选的虚拟观测方位下的展示画面进行评价,从而确定出更加合适的目标观测方位。
上述主要从方法的角度对本申请实施例提供的方案进行了介绍。为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术目标应该很容易意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术目标可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
如图11所示,为本申请实施例还提供的一种目标分析装置300的结构示意图。该装置300可以包括:获取模块301、融合模块302、处理模块303以及分析模块304。
其中,获取模块301,用于获取布设于目标区域的多个拍摄设备拍摄的视频数据;目标区域为待识别目标所在的区域。
融合模块302,用于将多个拍摄设备拍摄的视频数据投射在目标区域的三维空间模型中,得到基于三维空间模型下的融合视频。
处理模块303,还用于根据对目标区域中的待分析对象进行目标分析时所需的画面要素,确定融合视频的目标观测方位。
分析模块304,用于基于目标观测方位下的融合视频的展示的画面,对待分析对象进行目标分析。
在一种可能的实现方式中,上述处理模块303,具体用于:获取画面要素的预设观测方位;基于预设观测方位在融合视频中确定第一虚拟观测方位;第一虚拟观测方位为基于第一拍摄设备的布设角度和布设位置,在三维空间模型中确定的虚拟观测方位,第一虚拟观测方位与预设观测方位之间的第一偏转角度小于其他拍摄设备在三维空间模型中的虚拟观测方位与预设观测方位的偏转角度;根据第一偏转角度和第一虚拟观测方位,确定目标观测方位。
在另一种可能的实现方式中,上述处理模块303,还具体用于:根据第一偏转角度,在三维空间模型中调整第一虚拟观测方位对应的第一虚拟拍摄设备的布设角度;将调整后的第一虚拟拍摄设备对应的观测方位确定为目标观测方位。
在又一种可能的实现方式中,上述处理模块303,还具体用于:根据在融合视频中的多个虚拟观测方位,确定多个采样范围;其中,虚拟观测方位为为基于各个拍摄设备的布设角度和布设位置,在三维空间模型中确定的虚拟观测方位,一个采样范围为基于多个虚拟观测方位中相邻的两个虚拟观测方位确定的;在多个采样范围中的各个采样范围内,基于第一采样间隔确定一个或多个第一采样观测方位;确定基于融合视频在各个第一采样观测方位下的展示画面对待分析对象进行目标分析的置信度,其中,置信度用于指示在展示画面中对待分析对象进行目标分析的准确度;将置信度最高的展示画面对应的第一采样观测方位确定为目标观测方位。
在又一种可能的实现方式中,上述处理模块303,还用于:在目标观测方位的修正范围内,基于第二采样间隔确定一个或多个第二采样观测方位,第二采样间隔小于第一采样间隔,目标观测方位的修正范围为包括目标观测方位的预设偏移角度的采样范围;确定融合视频在各个第二采样观测方位下的展示画面对待分析对象进行目标分析的置信度;将置信度最高的展示画面对应的第二采样观测方位确定为修正后的目标观测方位。
在又一种可能的实现方式中,在目标分析为对待分析对象的一个或多个目标特征进行分析时,画面要素为包括用于显示待分析对象的一个或多个目标特征的图像。
关于上述可选方式的具体描述可以参见前述的方法实施例,此处不再赘述。此外,上述提供的任一种目标分析装置300的解释以及有益效果的描述均可参考上述对应的方法实施例,不再赘述。
作为示例,结合图3,目标分析装置的处理模块303所实现的功能可以通过图3中的处理器210或处理器270执行图3中的存储器240中的程序代码实现。获取模块301所实现的功能可以通过图2中的通信线路220实现,当然不限于此。
本领域技术人员应该很容易意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
需要说明的是,图11中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。例如,还可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
本申请实施例还提供了一种计算机可读存储介质,包括计算机执行指令,当其在计算机上运行时,使得计算机执行上述实施例提供的任意一种方法。例如,图4中S101~S104的一个或多个特征可以由该计算机可读存储介质中储存的一个或多个计算机执行指令来承担。
本申请实施例还提供了一种包含计算机执行指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例提供的任意一种方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件程序实现时,可以全部或部分地以计算机程序产品的形式来实现。该计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行计算机执行指令时,全部或部分地产生按照本申请实施例的流程或功能。计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,计算机指令可以从一个网站站点、计算机、服务器或者数据中心通过有线(例如同轴电缆、光纤、数字用户线(digitalsubscriber line,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可以用介质集成的服务器、数据中心等数据存储设备。可用介质可以是磁性介质(例如,软盘、硬盘、磁带),光介质(例如,DVD)、或者半导体介质(例如固态硬盘(solid state disk,SSD))等。
尽管结合具体特征及其实施例对本申请进行了描述,显而易见的,在不脱离本申请的精神和范围的情况下,可对其进行各种修改和组合。相应地,本说明书和附图仅仅是所附权利要求所界定的本申请的示例性说明,且视为已覆盖本申请范围内的任意和所有修改、变化、组合或等同物。显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何在本申请揭露的技术范围内的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。

Claims (10)

1.一种目标分析方法,其特征在于,所述方法包括:
获取布设于目标区域的多个拍摄设备拍摄的视频数据;所述目标区域为待识别目标所在的区域;
将所述多个拍摄设备拍摄的视频数据投射在目标区域的三维空间模型中,得到基于所述三维空间模型下的融合视频;
根据对所述目标区域中的待分析对象进行目标分析时所需的画面要素,确定所述融合视频的目标观测方位;
基于所述目标观测方位下的所述融合视频的展示的画面,对所述待分析对象进行目标分析。
2.根据权利要求1所述的方法,其特征在于,所述根据对所述目标区域中的待分析对象进行目标分析时所需的画面要素,确定所述融合视频的目标观测方位,包括:
获取所述画面要素的预设观测方位;
基于所述预设观测方位在所述融合视频中确定第一虚拟观测方位;所述第一虚拟观测方位为基于所述第一拍摄设备的布设角度和布设位置,在所述三维空间模型中确定的虚拟观测方位,第一虚拟观测方位与所述预设观测方位之间的第一偏转角度小于其他拍摄设备在所述三维空间模型中的虚拟观测方位与所述预设观测方位的偏转角度;
根据所述第一偏转角度和所述第一虚拟观测方位,确定所述目标观测方位。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第一偏转角度和所述第一虚拟观测方位,确定所述目标观测方位,包括:
根据所述第一偏转角度,在所述三维空间模型中调整所述第一虚拟观测方位对应的第一虚拟拍摄设备的布设角度;
将调整后的所述第一虚拟拍摄设备对应的观测方位确定为所述目标观测方位。
4.根据权利要求1所述的方法,其特征在于,所述根据对所述目标区域中的待分析对象进行目标分析所需的画面要素,确定所述融合视频的目标观测方位,包括:
根据在所述融合视频中的多个虚拟观测方位,确定多个采样范围;其中,所述虚拟观测方位为基于各个拍摄设备的布设角度和布设位置,在所述三维空间模型中确定的虚拟观测方位,一个采样范围为基于所述多个虚拟观测方位中相邻的两个虚拟观测方位确定的;
在所述多个采样范围中的各个采样范围内,基于第一采样间隔确定一个或多个第一采样观测方位;
确定基于所述融合视频在各个第一采样观测方位下的展示画面对所述待分析对象进行目标分析的置信度,其中,所述置信度用于指示在所述展示画面中对所述待分析对象进行目标分析的准确度;
将所述置信度最高的所述展示画面对应的所述第一采样观测方位确定为所述目标观测方位。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
在所述目标观测方位的修正范围内,基于第二采样间隔确定一个或多个第二采样观测方位,所述第二采样间隔小于所述第一采样间隔,所述目标观测方位的修正范围为包括所述目标观测方位的预设偏移角度的采样范围;
确定所述融合视频在各个第二采样观测方位下的展示画面对所述待分析对象进行目标分析的置信度;
将所述置信度最高的所述展示画面对应的所述第二采样观测方位确定为修正后的所述目标观测方位。
6.根据权利要求1至5任一项所述的方法,其特征在于,在所述目标分析为对所述待分析对象的一个或多个目标特征进行分析时,所述画面要素为包括用于显示所述待分析对象的所述一个或多个目标特征的图像。
7.一种目标分析装置,其特征在于,所述装置包括:
获取模块,用于获取布设于目标区域的多个拍摄设备拍摄的视频数据;所述目标区域为待识别目标所在的区域;
处理模块,用于将所述多个拍摄设备拍摄的视频数据投射在目标区域的三维空间模型中,得到基于所述三维空间模型下的融合视频;
所述处理模块,还用于根据对所述目标区域中的待分析对象进行目标分析时所需的画面要素,确定所述融合视频的目标观测方位;
分析模块,用于基于所述目标观测方位下的所述融合视频的展示的画面,对所述待分析对象进行目标分析。
8.根据权利要求7所述的装置,其特征在于,所述处理模块,具体用于:
获取所述画面要素的预设观测方位;
基于所述预设观测方位在所述融合视频中确定第一虚拟观测方位;所述第一虚拟观测方位为基于所述第一拍摄设备的布设角度和布设位置,在所述三维空间模型中确定的虚拟观测方位,第一虚拟观测方位与所述预设观测方位之间的第一偏转角度小于其他拍摄设备在所述三维空间模型中的虚拟观测方位与所述预设观测方位的偏转角度;
根据所述第一偏转角度和所述第一虚拟观测方位,确定所述目标观测方位;
所述处理模块,还具体用于:
根据所述第一偏转角度,在所述三维空间模型中调整所述第一虚拟观测方位对应的第一虚拟拍摄设备的布设角度;
将调整后的所述第一虚拟拍摄设备对应的观测方位确定为所述目标观测方位;
所述处理模块,还具体用于:
根据在所述融合视频中的多个虚拟观测方位,确定多个采样范围;其中,所述虚拟观测方位为基于各个拍摄设备的布设角度和布设位置,在所述三维空间模型中确定的虚拟观测方位,一个采样范围为基于所述多个虚拟观测方位中相邻的两个虚拟观测方位确定的;
在所述多个采样范围中的各个采样范围内,基于第一采样间隔确定一个或多个第一采样观测方位;
确定基于所述融合视频在各个第一采样观测方位下的展示画面对所述待分析对象进行目标分析的置信度,其中,所述置信度用于指示在所述展示画面中对所述待分析对象进行目标分析的准确度;
将所述置信度最高的所述展示画面对应的所述第一采样观测方位确定为所述目标观测方位;
所述处理模块,还用于:
在所述目标观测方位的修正范围内,基于第二采样间隔确定一个或多个第二采样观测方位,所述第二采样间隔小于所述第一采样间隔,所述目标观测方位的修正范围为包括所述目标观测方位的预设偏移角度的采样范围;
确定所述融合视频在各个第二采样观测方位下的展示画面对所述待分析对象进行目标分析的置信度;
将所述置信度最高的所述展示画面对应的所述第二采样观测方位确定为修正后的所述目标观测方位;
在所述目标分析为对所述待分析对象的一个或多个目标特征进行分析时,所述画面要素为包括用于显示所述待分析对象的所述一个或多个目标特征的图像。
9.一种电子设备,其特征在于,所述电子设备包括存储器和处理器;所述存储器和所述处理器耦合;所述存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令;
其中,当所述处理器执行所述计算机指令时,使得所述电子设备执行如权利要求1-6中任意一项所述的目标分析方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,当所述计算机指令在电子设备上运行时,使得所述电子设备执行如权利要求1-6中任一项所述的目标分析方法。
CN202211610729.1A 2022-12-14 2022-12-14 一种目标分析方法及装置 Pending CN115953655A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211610729.1A CN115953655A (zh) 2022-12-14 2022-12-14 一种目标分析方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211610729.1A CN115953655A (zh) 2022-12-14 2022-12-14 一种目标分析方法及装置

Publications (1)

Publication Number Publication Date
CN115953655A true CN115953655A (zh) 2023-04-11

Family

ID=87288791

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211610729.1A Pending CN115953655A (zh) 2022-12-14 2022-12-14 一种目标分析方法及装置

Country Status (1)

Country Link
CN (1) CN115953655A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118212038A (zh) * 2024-04-10 2024-06-18 一线达通科技集团有限公司 一种电子商务交易方法和系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118212038A (zh) * 2024-04-10 2024-06-18 一线达通科技集团有限公司 一种电子商务交易方法和系统

Similar Documents

Publication Publication Date Title
CN111046744B (zh) 一种关注区域检测方法、装置、可读存储介质及终端设备
JP7236565B2 (ja) 位置姿勢決定方法、装置、電子機器、記憶媒体及びコンピュータプログラム
CN107256377B (zh) 用于检测视频中的对象的方法、设备和系统
US20210274358A1 (en) Method, apparatus and computer program for performing three dimensional radio model construction
JP6261815B1 (ja) 群集監視装置、および、群集監視システム
CN112927363B (zh) 体素地图构建方法及装置、计算机可读介质和电子设备
CN110296686B (zh) 基于视觉的定位方法、装置及设备
CN110659391A (zh) 一种视频侦查方法及装置
CN109783771B (zh) 将轨迹序列转换为图像矩阵的处理方法、装置和存储介质
CN110619807B (zh) 生成全局热力图的方法和装置
CN113910224B (zh) 机器人跟随的方法、装置及电子设备
WO2019055388A1 (en) 4D CAMERA TRACKING AND OPTICAL STABILIZATION
CN111932681A (zh) 房屋信息显示方法、装置和电子设备
CN112449152A (zh) 多路视频同步的方法、系统及设备
CN112183431A (zh) 实时行人数量统计方法、装置、相机和服务器
CN115953655A (zh) 一种目标分析方法及装置
CN111325790B (zh) 目标追踪方法、设备及系统
CN112215036B (zh) 跨镜追踪方法、装置、设备及存储介质
CN111914784A (zh) 轨旁障碍物入侵实时检测方法、装置及电子设备
CN111310595A (zh) 用于生成信息的方法和装置
CN107657663B (zh) 用于显示信息的方法及装置
CN111259702A (zh) 一种用户兴趣的估计方法及装置
CN111325674A (zh) 图像处理方法、装置及设备
CN112598732B (zh) 目标设备定位方法、地图构建方法及装置、介质、设备
CN115830104A (zh) 一种移动路径生成方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination