CN112818170A - 移动参数显示方法和装置 - Google Patents
移动参数显示方法和装置 Download PDFInfo
- Publication number
- CN112818170A CN112818170A CN202110100058.3A CN202110100058A CN112818170A CN 112818170 A CN112818170 A CN 112818170A CN 202110100058 A CN202110100058 A CN 202110100058A CN 112818170 A CN112818170 A CN 112818170A
- Authority
- CN
- China
- Prior art keywords
- target object
- radar
- camera
- determining
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/74—Browsing; Visualisation therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/7867—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Library & Information Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种移动参数显示方法和装置其中,该方法包括:在摄像头拍摄目标对象的过程中,获取移动参数显示目标对象的空间坐标;根据移动参数显示空间坐标,确定出移动参数显示目标对象的移动参数;将移动参数显示移动参数显示在拍摄生成的目标视频中。本发明解决了移动参数显示效率低的技术问题。
Description
技术领域
本发明涉及计算机领域,具体而言,涉及一种移动参数显示方法和装置。
背景技术
现有技术中,在摄像头拍摄的过程中,通常,只会显示拍摄的目标对象的图像数据,而无法显示目标对象的移动参数等数据,造成目标对象的数据显示效率低。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种移动参数显示方法和装置,以至少解决移动参数显示效率低的技术问题。
根据本发明实施例的一个方面,提供了一种移动参数显示方法,包括:在摄像头拍摄目标对象的过程中,获取上述目标对象的空间坐标;根据上述空间坐标,确定出上述目标对象的移动参数;将上述移动参数显示在拍摄生成的目标视频中。
根据本发明实施例的另一方面,还提供了一种移动参数显示装置,包括:获取单元,用于在摄像头拍摄目标对象的过程中,获取上述目标对象的空间坐标;确定单元,用于根据上述空间坐标,确定出上述目标对象的移动参数;显示单元,用于将上述移动参数显示在拍摄生成的目标视频中。
根据本发明实施例的又一方面,还提供了一种计算机可读的存储介质,该计算机可读的存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述移动参数显示方法。
根据本发明实施例的又一方面,还提供了一种电子设备,包括存储器和处理器,上述存储器中存储有计算机程序,上述处理器被设置为通过上述计算机程序执行上述的移动参数显示方法。
在本发明实施例中,采用了在摄像头拍摄目标对象的过程中,获取上述目标对象的空间坐标;根据上述空间坐标,确定出上述目标对象的移动参数;将上述移动参数显示在拍摄生成的目标视频中的方法,由于在上述方法中,在摄像头拍摄目标对象的过程中,可以显示目标对象的移动参数,从而实现了提高目标对象的移动参数显示效率的效果,进而解决了移动参数显示效率低的技术问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的一种可选的移动参数显示方法的应用环境的示意图;
图2是根据本发明实施例的另一种可选的移动参数显示方法的流程图;
图3是根据本发明实施例的一种可选的移动参数显示方法的系统流程的示意图;
图4是根据本发明实施例的一种可选的移动参数显示方法的聚类流程的示意图;
图5是根据本发明实施例的一种可选的移动参数显示装置的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
根据本发明实施例的一个方面,提供了一种移动参数显示方法,可选地,作为一种可选的实施方式,上述移动参数显示方法可以但不限于应用于如图1所示的环境中。
如图1所示,终端设备102包括了存储器104,用于存储终端设备102运行过程中产生的各项数据、拍摄装置106,用于拍摄目标对象、显示器108,用于显示目标对象。终端设备102可以通过网络110与服务器112之间进行数据交互。服务器112包括数据库114,用于存储各项数据,处理引擎116,用于处理上述各项数据。终端设备102可以从服务器112获取目标对象的空间坐标,然后确定出移动参数,进而将移动参数显示在目标视频中。
可选地,在本实施例中,上述终端设备可以是配置有目标客户端的终端设备,可以包括但不限于以下至少之一:手机(如Android手机、iOS手机等)、笔记本电脑、平板电脑、掌上电脑、MID(Mobile Internet Devices,移动互联网设备)、PAD、台式电脑、智能电视等。目标客户端可以是视频客户端、即时通信客户端、浏览器客户端、教育客户端等。上述网络可以包括但不限于:有线网络,无线网络,其中,该有线网络包括:局域网、城域网和广域网,该无线网络包括:蓝牙、WIFI及其他实现无线通信的网络。上述服务器可以是单一服务器,也可以是由多个服务器组成的服务器集群,或者是云服务器。上述仅是一种示例,本实施例中对此不作任何限定。
可选地,作为一种可选的实施方式,如图2所示,上述移动参数显示方法包括:
S202,在摄像头拍摄目标对象的过程中,获取目标对象的空间坐标;
S204,根据空间坐标,确定出目标对象的移动参数;
S206,将移动参数显示在拍摄生成的目标视频中。
可选地,上述目标视频可以为摄像头拍摄过程中实时显示的视频,也可以为拍摄好的视频。也就是说,摄像头可以一边拍摄,一边显示目标视频,或者拍摄完成之后,显示目标视频。如果目标视频中包括了目标对象,则获取目标对象的空间坐标,进而确定出移动参数,显示移动参数。移动参数可以包括目标对象的移动速度、方向、停留时长等各项数据。摄像头可以为布置在各处的摄像头,如监控设备,也可以为移动终端所携带的摄像头,如手机等设备的相机等。
可选地,在摄像头拍摄目标对象的过程中,获取目标对象的空间坐标包括:
获取雷达检测目标对象得到的目标对象的空间坐标。
雷达可以为监控目标对象的雷达。可以根据目标对象的唯一标识等监控目标对象,确定目标对象的空间坐标。
可选地,在获取雷达检测目标对象得到的目标对象的空间坐标之前,方法还包括:
对摄像头和雷达进行时间标定和空间标定,时间标定用于统一摄像头拍摄目标对象和雷达检测目标对象的时间,空间标定用于确定摄像头拍摄的目标对象在摄像头的第一坐标系下的位置和雷达检测的目标对象在雷达的第二坐标系下的位置的转换规则。
上述标定可以使摄像头和雷达的时间与坐标系相对应。摄像头拍摄时,雷达获取空间坐标。摄像头可以将拍摄区域的范围发送给雷达,雷达检测该范围内的目标对象的空间坐标。
可选地,获取雷达检测目标对象得到的目标对象的空间坐标包括:
根据摄像头拍摄的目标对象的图像确定出目标对象的数量和每一个目标对象的类型;
根据数量和类型对雷达检测到的多个坐标进行聚类,得到目标对象的空间坐标。
也就是说,由摄像头将目标对象的类型与数量发送给雷达,由雷达进行聚类,确定出每一个目标对象的空间坐标或移动轨迹。
可选地,根据数量和类型对雷达检测到的多个坐标进行聚类,得到目标对象的空间坐标包括:
将每一个目标对象在摄像头的第一坐标系下的第一坐标转换为雷达的第二坐标系下的第二坐标;
将第二坐标确定为父节点;
确定每一个目标对象的半径;
将雷达检测到的多个坐标中,与父节点的距离小于半径的点聚类为一类;
将聚类得到的每一类坐标确定为一个目标对象的空间坐标。
可选地,根据空间坐标,确定出目标对象的移动参数包括:
根据空间坐标,确定目标对象的速度。
以下结合一个示例进行说明。
图3为系统流程图。主要过程包括:
对雷达和摄像机进行标定,分为时间标定和空间标定。时间标定意味着每个时刻雷达检测的结果都有对应的图像检测的结果与之匹配,空间标定意味着摄像机图像中的地面像素点都可以转换为雷达空间坐标系中的具体坐标值;
摄像机对当前监控范围进行探测,并进行图像检测,获取到图像中的各个目标的类型(人、车等)与像素集合;如检测到当前的监控范围内有3个人和一辆车,位于多大的范围空间内。
根据各个目标的像素集合确定各自的地面像素点,并将其通过空间标定公式转换成雷达坐标系中的坐标,到此图像检测出的结果拥有了目标类型和雷达坐标;此步骤,将三个人和一辆车的范围空间发送给雷达,雷达检测该控件内的对象的坐标,得到三个人和一辆车的空间坐标,但是,未区分坐标归属。
根据各个目标的雷达坐标、目标类型以及雷达检测该时刻点云进行聚类操作,并最终输出聚类后的结果;聚类结果得到三个人中每一个人的坐标和一辆车的坐标。聚类过程在下述内容中。
聚类后的结果给到跟踪环节,结合该帧结果及历史结果进行跟踪、滤波,并最终给出跟踪结果,结果信息包含但不限于空间坐标、速度、目标存在时长、目标类型等;
跟踪结果反馈给视频并进行配对,最终呈现在视频中。视频中可以在显示目标对象的同时,显示目标哦对象的上述速度等参数内容。
对于上述聚类过程,结合图4进行说明。获取到图像检测的结果后,将当前时刻各个检测目标的雷达坐标、目标类型,结合雷达检测给出的点云进行聚类操作。步骤为:
S402,确认匹配半径及坐标。在聚类流程的上一步骤中,已经通过图像检测以及坐标转换获得了图像目标的类型和雷达坐标。此步中,将不同类型的目标赋予不同的匹配半径,例如,车目标匹配半径Rm可以设置的比人目标匹配半径Rp大。三个人之间的匹配半径可以相同也可以不同。
S404,确认初始聚类父点集。将步骤S402,中确定的图像检测目标确认为聚类父点。遍历该帧所有雷达探测点,若探测点落在任意父点匹配半径内,则跳过;若不落在任何父点匹配半径内,则将该探测点新加为新的父点,匹配半径设置为默认。遍历结束后,该帧的探测点分为两类,一类为父点,一类为落在任一父点匹配半径内的点。如上述示例中三个人和一辆车,则父点至少有4个。
S406,进行第一次匹配。遍历所有雷达探测点,判断该点是否落在任一父点匹配半径内,若是,则记录该点所匹配到的父点的序号。若有探测点可以同时匹配到多个父点,则按照距离关系挑选最近的父点作为匹配点。每一个父点的匹配半径内可以有一个或多个点,也可能没有点。
S408,计算父点本轮信息。第一次匹配结束后,遍历所有父点,将每个父点的所有匹配探测点做加权平均,计算出加权平均距离、角度、速度,以及新坐标。此步中的加权平均,既可做算术平均,也可按照每个匹配点与父点距离做加权平均。该步骤后,可以将超出平均值的点确定出来,移除该父点的点集。例如,一个父点中的匹配探测点的加权平均速度为2米/秒,而其中一个点的速度为20米/秒,明显高于了上述加权平均速度,则将该点挑出,从该父点的点集中删除,匹配到其他父点的点集中。
S410,按照特定条件进行匹配。依据特定条件进行新一轮的匹配,与S406中不同的是,S406仅以距离关系作为匹配唯一规则,原因是在S406还不知道聚类父点的除坐标外的任何信息。而在本步中,可以将速度信息也加入匹配规则。例如,若有探测点落到多个父点的匹配半径中时,可选取速度更为接近的一个父点作为匹配点,称为速度优先匹配;又如,可按照探测点与父点的距离、角度、速度三者的加权统计距离和来计算,选取更小统计距离的父点进行匹配。
S412,计算父点本轮信息。与S408中一样,用于更新本轮聚类父点的各项信息变化。
S414,判断是否所有父点的坐标相对上一轮聚类结果已无变化。若是,则说明每个父点的平均坐标已经不再变化,可以进入S416;若否,则说明仍有父点平均坐标发生改变,此时跳回S410,进行新一轮的匹配。
S416,输出所有父点的坐标、距离、角度、速度、类型、与之相匹配的探测点数等信息,用于跟踪算法。根据默认设置或人工设置,将上述移动参数的至少一种显示在目标视频中。如将速度、角度显示在目标视频中
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
根据本发明实施例的另一个方面,还提供了一种用于实施上述移动参数显示方法的移动参数显示装置。如图5所示,该装置包括:
获取单元502,用于在摄像头拍摄目标对象的过程中,获取目标对象的空间坐标;
确定单元504,用于根据空间坐标,确定出目标对象的移动参数;
显示单元506,用于将移动参数显示在拍摄生成的目标视频中。
作为一种示例,获取单元包括:
获取模块,用于获取雷达检测目标对象得到的目标对象的空间坐标。
作为一种示例,获取单元还包括:
标定模块,用于在获取雷达检测目标对象得到的目标对象的空间坐标之前,对摄像头和雷达进行时间标定和空间标定,时间标定用于统一摄像头拍摄目标对象和雷达检测目标对象的时间,空间标定用于确定摄像头拍摄的目标对象在摄像头的第一坐标系下的位置和雷达检测的目标对象在雷达的第二坐标系下的位置的转换规则。
作为一种示例,获取模块包括:
确定子模块,用于根据摄像头拍摄的目标对象的图像确定出目标对象的数量和每一个目标对象的类型;
聚类子模块,用于根据数量和类型对雷达检测到的多个坐标进行聚类,得到目标对象的空间坐标。
作为一种示例,聚类子模块还用于:
将每一个目标对象在摄像头的第一坐标系下的第一坐标转换为雷达的第二坐标系下的第二坐标;
将第二坐标确定为父节点;
确定每一个目标对象的半径;
将雷达检测到的多个坐标中,与父节点的距离小于半径的点聚类为一类;
将聚类得到的每一类坐标确定为一个目标对象的空间坐标。
作为一种示例,确定单元包括:
确定模块,用于根据空间坐标,确定目标对象的速度。
本实施例的其他示例请参见上述示例,在此不再赘述。
根据本发明实施例的又一个方面,还提供了一种用于实施上述移动参数显示方法的电子设备,该电子设备可以包括存储器与处理器,该存储器用于存储可读的计算机程序,该处理器用于运行计算机程序执行上述任一项方法实施例中的步骤。
根据本发明的实施例的又一方面,还提供了一种计算机可读的存储介质,该计算机可读的存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述计算机可读的存储介质可以被设置为存储用于执行以下步骤的计算机程序:
可选地,在本实施例中,本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(Random Access Memory,RAM)、磁盘或光盘等。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例方法的全部或部分步骤。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的客户端,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种移动参数显示方法,其特征在于,包括:
在摄像头拍摄目标对象的过程中,获取所述目标对象的空间坐标;
根据所述空间坐标,确定出所述目标对象的移动参数;
将所述移动参数显示在拍摄生成的目标视频中。
2.根据权利要求1所述的方法,其特征在于,所述在摄像头拍摄目标对象的过程中,获取所述目标对象的空间坐标包括:
获取雷达检测所述目标对象得到的所述目标对象的所述空间坐标。
3.根据权利要求2所述的方法,其特征在于,在获取雷达检测所述目标对象得到的所述目标对象的所述空间坐标之前,所述方法还包括:
对所述摄像头和所述雷达进行时间标定和空间标定,所述时间标定用于统一所述摄像头拍摄所述目标对象和所述雷达检测所述目标对象的时间,所述空间标定用于确定所述摄像头拍摄的所述目标对象在所述摄像头的第一坐标系下的位置和所述雷达检测的所述目标对象在所述雷达的第二坐标系下的位置的转换规则。
4.根据权利要求2所述的方法,其特征在于,所述获取雷达检测所述目标对象得到的所述目标对象的所述空间坐标包括:
根据所述摄像头拍摄的所述目标对象的图像确定出所述目标对象的数量和每一个所述目标对象的类型;
根据所述数量和所述类型对所述雷达检测到的多个坐标进行聚类,得到所述目标对象的所述空间坐标。
5.根据权利要求4所述的方法,其特征在于,所述根据所述数量和所述类型对所述雷达检测到的多个坐标进行聚类,得到所述目标对象的所述空间坐标包括:
将每一个所述目标对象在所述摄像头的第一坐标系下的第一坐标转换为所述雷达的第二坐标系下的第二坐标;
将所述第二坐标确定为父节点;
确定每一个所述目标对象的半径;
将所述雷达检测到的所述多个坐标中,与所述父节点的距离小于所述半径的点聚类为一类;
将聚类得到的每一类坐标确定为一个所述目标对象的空间坐标。
6.根据权利要求1至5任意一项所述的方法,其特征在于,所述根据所述空间坐标,确定出所述目标对象的移动参数包括:
根据所述空间坐标,确定所述目标对象的速度。
7.一种移动参数显示装置,其特征在于,包括:
获取单元,用于在摄像头拍摄目标对象的过程中,获取所述目标对象的空间坐标;
确定单元,用于根据所述空间坐标,确定出所述目标对象的移动参数;
显示单元,用于将所述移动参数显示在拍摄生成的目标视频中。
8.根据权利要求7所述的装置,其特征在于,所述获取单元包括:
获取模块,用于获取雷达检测所述目标对象得到的所述目标对象的所述空间坐标。
9.根据权利要求8所述的装置,其特征在于,所述获取单元还包括:
标定模块,用于在获取雷达检测所述目标对象得到的所述目标对象的所述空间坐标之前,对所述摄像头和所述雷达进行时间标定和空间标定,所述时间标定用于统一所述摄像头拍摄所述目标对象和所述雷达检测所述目标对象的时间,所述空间标定用于确定所述摄像头拍摄的所述目标对象在所述摄像头的第一坐标系下的位置和所述雷达检测的所述目标对象在所述雷达的第二坐标系下的位置的转换规则。
10.根据权利要求8所述的装置,其特征在于,所述获取模块包括:
确定子模块,用于根据所述摄像头拍摄的所述目标对象的图像确定出所述目标对象的数量和每一个所述目标对象的类型;
聚类子模块,用于根据所述数量和所述类型对所述雷达检测到的多个坐标进行聚类,得到所述目标对象的所述空间坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110100058.3A CN112818170B (zh) | 2021-01-25 | 2021-01-25 | 移动参数显示方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110100058.3A CN112818170B (zh) | 2021-01-25 | 2021-01-25 | 移动参数显示方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112818170A true CN112818170A (zh) | 2021-05-18 |
CN112818170B CN112818170B (zh) | 2023-07-14 |
Family
ID=75859213
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110100058.3A Active CN112818170B (zh) | 2021-01-25 | 2021-01-25 | 移动参数显示方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112818170B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002277540A (ja) * | 2001-03-21 | 2002-09-25 | Toyota Central Res & Dev Lab Inc | 物体検出装置 |
DE102015009849A1 (de) * | 2015-07-30 | 2017-02-02 | Mando Corporation | Radarsystem vom Typ für ein Fahrzeug und Verfahren zum Entfernen eines nicht interessierenden Ziels |
CN109102702A (zh) * | 2018-08-24 | 2018-12-28 | 南京理工大学 | 基于视频车辆检测和雷达信号融合的车辆测速方法 |
CN109581312A (zh) * | 2018-11-22 | 2019-04-05 | 西安电子科技大学昆山创新研究院 | 一种高分辨毫米波雷达多目标聚类方法 |
CN109870680A (zh) * | 2018-10-26 | 2019-06-11 | 北京润科通用技术有限公司 | 一种目标分类方法及装置 |
CN110361727A (zh) * | 2019-07-22 | 2019-10-22 | 浙江大学 | 一种毫米波雷达多目标跟踪方法 |
CN110660186A (zh) * | 2018-06-29 | 2020-01-07 | 杭州海康威视数字技术股份有限公司 | 基于雷达信号在视频图像中识别目标对象的方法及装置 |
CN111652097A (zh) * | 2020-05-25 | 2020-09-11 | 南京莱斯电子设备有限公司 | 一种图像毫米波雷达融合目标检测方法 |
-
2021
- 2021-01-25 CN CN202110100058.3A patent/CN112818170B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002277540A (ja) * | 2001-03-21 | 2002-09-25 | Toyota Central Res & Dev Lab Inc | 物体検出装置 |
DE102015009849A1 (de) * | 2015-07-30 | 2017-02-02 | Mando Corporation | Radarsystem vom Typ für ein Fahrzeug und Verfahren zum Entfernen eines nicht interessierenden Ziels |
CN110660186A (zh) * | 2018-06-29 | 2020-01-07 | 杭州海康威视数字技术股份有限公司 | 基于雷达信号在视频图像中识别目标对象的方法及装置 |
CN109102702A (zh) * | 2018-08-24 | 2018-12-28 | 南京理工大学 | 基于视频车辆检测和雷达信号融合的车辆测速方法 |
CN109870680A (zh) * | 2018-10-26 | 2019-06-11 | 北京润科通用技术有限公司 | 一种目标分类方法及装置 |
CN109581312A (zh) * | 2018-11-22 | 2019-04-05 | 西安电子科技大学昆山创新研究院 | 一种高分辨毫米波雷达多目标聚类方法 |
CN110361727A (zh) * | 2019-07-22 | 2019-10-22 | 浙江大学 | 一种毫米波雷达多目标跟踪方法 |
CN111652097A (zh) * | 2020-05-25 | 2020-09-11 | 南京莱斯电子设备有限公司 | 一种图像毫米波雷达融合目标检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112818170B (zh) | 2023-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10600252B2 (en) | Coarse relocalization using signal fingerprints | |
CN107223269B (zh) | 三维场景定位方法和装置 | |
US10531065B2 (en) | Coarse relocalization using signal fingerprints | |
US11863869B1 (en) | Event detection using motion extracted image comparison | |
EP3550479A1 (en) | Augmented-reality-based offline interaction method and apparatus | |
CN111340864A (zh) | 基于单目估计的三维场景融合方法及装置 | |
CN111797983A (zh) | 一种神经网络构建方法以及装置 | |
CN110399908B (zh) | 基于事件型相机的分类方法和装置、存储介质、电子装置 | |
US20160112701A1 (en) | Video processing method, device and system | |
CN111047622B (zh) | 视频中对象的匹配方法和装置、存储介质及电子装置 | |
CN110366029B (zh) | 一种视频间插入图像帧的方法、系统及电子设备 | |
US20240331245A1 (en) | Video processing method, video processing apparatus, and storage medium | |
US10645297B2 (en) | System, method, and program for adjusting angle of camera | |
CN114332702A (zh) | 目标区域的检测方法和装置、存储介质及电子设备 | |
CN108399514A (zh) | 可监控新鲜度的生鲜配送提示方法和装置 | |
CN112925416A (zh) | 用户视线跟踪方法、装置及系统 | |
WO2020057348A1 (zh) | 一种基于高清摄像头的记忆寻物方法、装置及系统 | |
CN114241012A (zh) | 一种高空抛物的判定方法及装置 | |
CN112818170B (zh) | 移动参数显示方法和装置 | |
CN110392115B (zh) | 区块链节点管理方法、装置和可读存储介质 | |
CN110168599A (zh) | 一种数据处理方法及终端 | |
CN108734712A (zh) | 背景分割的方法、装置及计算机存储介质 | |
KR20200023678A (ko) | 이미지의 일부를 이용한 이미지 검색 방법 및 이를 위한 장치 | |
CN113076845B (zh) | 一种车位获取方法、车位确定装置、车辆及可读存储介质 | |
CN114500900A (zh) | 丢失对象的寻找方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |