CN118181294B - 一种基于视觉感知的机器人抓取系统 - Google Patents

一种基于视觉感知的机器人抓取系统 Download PDF

Info

Publication number
CN118181294B
CN118181294B CN202410489323.5A CN202410489323A CN118181294B CN 118181294 B CN118181294 B CN 118181294B CN 202410489323 A CN202410489323 A CN 202410489323A CN 118181294 B CN118181294 B CN 118181294B
Authority
CN
China
Prior art keywords
grabbing
value
state
video
judgment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410489323.5A
Other languages
English (en)
Other versions
CN118181294A (zh
Inventor
王伟
候金良
黄炎浩
汪良红
石伟华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Fuwei Intelligent Technology Co ltd
Original Assignee
Guangzhou Fuwei Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Fuwei Intelligent Technology Co ltd filed Critical Guangzhou Fuwei Intelligent Technology Co ltd
Priority to CN202410489323.5A priority Critical patent/CN118181294B/zh
Publication of CN118181294A publication Critical patent/CN118181294A/zh
Application granted granted Critical
Publication of CN118181294B publication Critical patent/CN118181294B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/08Gripping heads and other end effectors having finger members
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于视觉感知的机器人抓取系统,涉及视觉感知技术领域,该系统公开了追踪拍摄模块、抓取初判模块、抓取复判模块,追踪拍摄模块在机器人准备抓取前,对目标物进行追踪拍摄,拍摄预设时长的视频,将拍摄视频转换成视频帧,进而生成视频帧的抓取状态检测记录,抓取状态检测记录包括视频帧的抓取状态值,设置追踪拍摄模块,基于视觉感知对目标物进行追踪拍摄,进而对目标物的状态进行智能分析,设置抓取初判模块与抓取复判模块,通过两次不同的判定方式,动态化判定机器人能否对目标物进行抓取,保证机器人在合适的时机对目标物进行抓取。

Description

一种基于视觉感知的机器人抓取系统
技术领域
本发明涉及视觉感知技术领域,更具体地说,它涉及一种基于视觉感知的机器人抓取系统。
背景技术
随着机器人应用领域的不断扩展,人们对机器人的能力需求也在不断的提高。机器人除了能够安全无碰的运动外,操作功能也变得日益重要。目前的机器人可以控制机械臂根据物体的姿态对物体进行精准抓取。但是当物体出现姿态变换或者移动时,机器人虽然也可以对物体进行抓取,但是抓取的精度就会受到影响,导致抓取后物体也容易掉落,如何在合适的时机对动态的物体进行抓取,是当前亟需解决的问题。
发明内容
针对现有技术存在的不足,本发明的目的在于提供一种基于视觉感知的机器人抓取系统。
为实现上述目的,本发明提供了如下技术方案:
一种基于视觉感知的机器人抓取系统,包括追踪拍摄模块、抓取初判模块、抓取复判模块;
所述追踪拍摄模块在机器人准备抓取前,对目标物进行追踪拍摄,拍摄预设时长的视频,将拍摄视频转换成视频帧,进而生成视频帧的抓取状态检测记录,抓取状态检测记录包括视频帧的抓取状态值;
所述抓取初判模块根据抓取判断值判定是否抓取目标物;
所述抓取复判模块根据抓取值判定是否抓取目标物。
进一步的,视频帧的抓取状态值通过下述方式获取得到:
将视频帧作为抓取状态分析模型的输入数据,获取得到抓取状态分析模型输出的标签,将标签标记为FD,利用公式BPZ=FD×a1得到视频帧的抓取状态值BPi,i为视频帧的顺序编号,i=1、2、…、n,其中,a1为标签系数。
进一步的,根据抓取判断值判定是否抓取目标物,具体为:
设置抓取状态高值与抓取状态低值,当视频帧的抓取状态值大于抓取状态高值时,将该视频帧中的目标物状态标记为高偏状态,当视频帧的抓取状态值小于抓取状态低值时,将该视频帧中的目标物状态标记为常规状态,当视频帧的抓取状态值介于抓取状态高值与抓取状态低值之间时,将该视频帧中的目标物状态标记为普偏状态;
将所有视频帧按照视频帧时间先后顺序进行排序,将排序后相邻两个视频帧的目标物状态进行对比,当相邻两个视频帧的目标物状态相同时,不做相应处理,当相邻两个视频帧的目标物状态不同时,将状态变化次数增加一次,将所有状态变化次数进行求和处理,得到状态变化总次数,并标记为ESZ,利用公式得到目标物的抓取判断值PYT,其中,b1为抓取状态值系数,b2为状态变化总次数系数,设置抓取判断阈值,当目标物的抓取判断值小于抓取判断阈值时,则控制机器人对目标物进行抓取,当目标物的抓取判断值大于等于抓取判断阈值时,机器人继续对目标物进行追踪拍摄,并实时基于T抽帧间隔对追踪拍摄视频进行抽帧处理,抽帧得到视频判断帧。
进一步的,根据抓取值判定是否抓取目标物,具体为:
获取视频判断帧的抓取状态值,设置抓取状态阈值,当视频判断帧的抓取状态值大于等于抓取状态阈值时,保持T抽帧间隔对追踪拍摄视频进行抽帧处理;
当视频判断帧的抓取状态值小于抓取状态阈值时,将抓取状态值与抓取状态阈值进行比值计算,得到抽帧调整值KS,基于TKS抽帧间隔,对追踪拍摄视频进行抽帧处理;
获取目标物的抓取值,设置抓取阈值;
当抓取值大于等于抓取阈值时,则控制机器人对目标物进行抓取;
当抓取值小于抓取阈值时,不做相应处理。
进一步的,目标物的抓取值通过下述方式获取得到:
获取平均判断帧密度RSW,获取视频判断帧的总数量并标记为LNJ,利用公式得到目标物的抓取值PKU,其中,c1为平均判断帧密度系数,c2为视频判断帧总数量系数。
进一步的,平均判断帧密度通过下述方式获取得到:将所有视频判断帧按照时间先后顺序(即视频判断帧对应的时间)进行排序,将排序后相邻两个视频判断帧对应的时间进行时间差值计算,得到判断帧密度,将所有判断帧密度进行求和处理并取均值,得到平均判断帧密度,并标记为RSW。
与现有技术相比,本发明具备以下有益效果:
设置追踪拍摄模块,基于视觉感知对目标物进行追踪拍摄,进而对目标物的状态进行智能分析,设置抓取初判模块与抓取复判模块,通过两次不同的判定方式,动态化判定机器人能否对目标物进行抓取,保证机器人在合适的时机对目标物进行抓取。
附图说明
图1为判定机器人能否对目标物抓取的流程框图;
图2为本发明的原理框图。
具体实施方式
参照图1-图2,一种基于视觉感知的机器人抓取系统,包括追踪拍摄模块、抓取初判模块、抓取复判模块。
追踪拍摄模块在机器人准备抓取前,对目标物进行追踪拍摄,拍摄预设时长的视频(预设时长为系统预设,可以根据实际需求进行修改),将拍摄视频转换成视频帧,进而生成视频帧的抓取状态检测记录,抓取状态检测记录包括视频帧的抓取状态值。
视频帧的抓取状态值通过下述方式获取得到:
将视频帧作为抓取状态分析模型的输入数据,获取得到抓取状态分析模型输出的标签,将标签标记为FD,利用公式BPZ=FD×a1得到视频帧的抓取状态值BPi,i为视频帧的顺序编号,i=1、2、…、n,其中,a1为标签系数,a1的取值为0.42。
抓取状态分析模型通过下述方式获取得到:
采集多个视频帧,视频帧可以是目标物在实验过程中的视频帧,通过Canny边缘检测算法,对视频帧进行边缘检测处理,使用OpenCV的f i ndContours函数检测出目标物的轮廓,通过最佳拟合矩形获取目标物的姿态数据,对目标物的姿态数据赋予不同标签,将多组目标物的姿态数据划分成训练集以及验证集,通过迭代训练得到神经网络模型,将训练得到的神经网络模型标记为抓取状态分析模型。标签的取值为[-5~5),标签的数值越大,表示目标物的姿态越偏离常规姿态,标签的数值越小,表示目标物的姿态越接近常规姿态,当标签的取值为-5时,表示目标物的姿态为常规姿态;例:目标物常规姿态为直立于地面、目标物移速为0,当目标物姿态为倾斜于地面,则目标物偏离常规姿态,当目标物正在移动,则目标物偏离常规姿态。
抓取初判模块根据抓取判断值判定是否抓取目标物。
设置抓取状态高值与抓取状态低值,其中,抓取状态高值大于抓取状态低值,抓取状态高值与抓取状态低值均为系统预设系数,可以根据实际检测需求进行修改。
当视频帧的抓取状态值大于抓取状态高值时,将该视频帧中的目标物状态标记为高偏状态,当视频帧的抓取状态值小于抓取状态低值时,将该视频帧中的目标物状态标记为常规状态,当视频帧的抓取状态值介于抓取状态高值与抓取状态低值之间时,将该视频帧中的目标物状态标记为普偏状态。
将所有视频帧按照视频帧时间先后顺序进行排序,将排序后相邻两个视频帧的目标物状态进行对比,当相邻两个视频帧的目标物状态相同时,不做相应处理,当相邻两个视频帧的目标物状态不同时,将状态变化次数增加一次,将所有状态变化次数进行求和处理,得到状态变化总次数,并标记为ESZ,利用公式得到目标物的抓取判断值PYT,其中,b1为抓取状态值系数,b2为状态变化总次数系数,b1的取值为0.37,b2的取值为0.55。
设置抓取判断阈值,抓取判断阈值为系统预设系数,可以根据实际检测需求进行修改。
当目标物的抓取判断值大于等于抓取判断阈值时,机器人继续对目标物进行追踪拍摄,并实时基于T抽帧间隔对追踪拍摄视频进行抽帧处理,抽帧得到视频判断帧,获取视频判断帧的抓取状态值。
当目标物的抓取判断值小于抓取判断阈值时,则控制机器人对目标物进行抓取(机器人的机械臂靠近目标物,机械臂的姿态随目标物的姿态进行调整,基于逆向运动学对目标物进行抓取)。
抓取复判模块根据抓取值判定是否抓取目标物。
设置抓取状态阈值,抓取状态阈值为系统预设系数,可以根据实际检测需求进行修改。
当视频判断帧的抓取状态值大于等于抓取状态阈值时,保持T抽帧间隔对追踪拍摄视频进行抽帧处理。
当视频判断帧的抓取状态值小于抓取状态阈值时,将抓取状态值与抓取状态阈值进行比值计算,得到抽帧调整值KS,基于TKS抽帧间隔,对追踪拍摄视频进行抽帧处理。
将所有视频判断帧按照时间先后顺序(即视频判断帧对应的时间)进行排序,将排序后相邻两个视频判断帧对应的时间进行时间差值计算,得到判断帧密度,将所有判断帧密度进行求和处理并取均值,得到平均判断帧密度,并标记为RSW,获取视频判断帧的总数量并标记为LNJ,利用公式得到目标物的抓取值PKU,其中,c1为平均判断帧密度系数,c2为视频判断帧总数量系数,,c1的取值为0.81,c2的取值为0.72,设置抓取阈值,抓取阈值为系统预设系数,可以根据实际检测需求进行修改。
当抓取值大于等于抓取阈值时,则控制机器人对目标物进行抓取。
当抓取值小于抓取阈值时,不做相应处理。
设置追踪拍摄模块,基于视觉感知对目标物进行追踪拍摄,进而对目标物的状态进行智能分析,设置抓取初判模块与抓取复判模块,通过两次不同的判定方式,动态化判定机器人能否对目标物进行抓取,保证机器人在合适的时机对目标物进行抓取。
上述公式均是去量纲取其数值计算,公式是由采集大量数据进行软件模拟得到最近真实情况的一个公式,公式中的预设参数由本领域的技术人员根据实际情况进行设置。
上述实施例,可以全部或部分地通过软件、硬件、固件或其他任意组合来实现。当使用软件实现时,上述实施例可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令或计算机程序。在计算机上加载或执行所述计算机指令或计算机程序时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以为通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集合的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质。半导体介质可以是固态硬盘。
应理解,在本申请的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-on ly memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (1)

1.一种基于视觉感知的机器人抓取系统,其特征在于,包括追踪拍摄模块、抓取初判模块、抓取复判模块;
所述追踪拍摄模块在机器人准备抓取前,对目标物进行追踪拍摄,拍摄预设时长的视频,将拍摄视频转换成视频帧,进而生成视频帧的抓取状态检测记录,抓取状态检测记录包括视频帧的抓取状态值;
所述抓取初判模块根据抓取判断值判定是否抓取目标物;
所述抓取复判模块根据抓取值判定是否抓取目标物;
视频帧的抓取状态值通过下述方式获取得到:
将视频帧作为抓取状态分析模型的输入数据,获取得到抓取状态分析模型输出的标签,将抓取标签值标记为FD,利用公式得到视频帧的抓取状态值BPi,i为视频帧的顺序编号,i=1、2、…、n,其中,a1为抓取标签值系数;
设置抓取状态高值与抓取状态低值,当视频帧的抓取状态值大于抓取状态高值时,将该视频帧中的目标物状态标记为高偏状态,当视频帧的抓取状态值小于抓取状态低值时,将该视频帧中的目标物状态标记为常规状态,当视频帧的抓取状态值介于抓取状态高值与抓取状态低值之间时,将该视频帧中的目标物状态标记为普偏状态;
将所有视频帧按照视频帧时间先后顺序进行排序,将排序后相邻两个视频帧的目标物状态进行对比,当相邻两个视频帧的目标物状态相同时,不做相应处理,当相邻两个视频帧的目标物状态不同时,将状态变化次数增加一次,将所有状态变化次数进行求和处理,得到状态变化总次数,并标记为ESZ,利用公式得到目标物的抓取判断值PYT,其中,b1为抓取状态值系数,b2为状态变化总次数系数;
目标物的抓取值通过下述方式获取得到:
获取平均判断帧密度RSW,获取视频判断帧的总数量并标记为LNJ,利用公式得到目标物的抓取值PKU,其中,c1为平均判断帧密度系数,c2为视频判断帧总数量系数;
根据抓取判断值判定是否抓取目标物,具体为:
获取抓取判断值,设置抓取判断阈值,当目标物的抓取判断值小于抓取判断阈值时,则控制机器人对目标物进行抓取,当目标物的抓取判断值大于等于抓取判断阈值时,机器人继续对目标物进行追踪拍摄,并实时基于T抽帧间隔对追踪拍摄视频进行抽帧处理,抽帧得到视频判断帧;
根据抓取值判定是否抓取目标物,具体为:
获取视频判断帧的抓取状态值,设置抓取状态阈值,当视频判断帧的抓取状态值大于等于抓取状态阈值时,保持T抽帧间隔对追踪拍摄视频进行抽帧处理;
当视频判断帧的抓取状态值小于抓取状态阈值时,将抓取状态值与抓取状态阈值进行比值计算,得到抽帧调整值KS,基于抽帧间隔,对追踪拍摄视频进行抽帧处理;
获取目标物的抓取值,设置抓取阈值;
当抓取值大于等于抓取阈值时,则控制机器人对目标物进行抓取;
当抓取值小于抓取阈值时,不做相应处理;
平均判断帧密度通过下述方式获取得到:将所有视频判断帧按照时间先后顺序进行排序,将排序后相邻两个视频判断帧对应的时间进行时间差值计算,得到判断帧密度,将所有判断帧密度进行求和处理并取均值,得到平均判断帧密度,并标记为RSW。
CN202410489323.5A 2024-04-23 2024-04-23 一种基于视觉感知的机器人抓取系统 Active CN118181294B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410489323.5A CN118181294B (zh) 2024-04-23 2024-04-23 一种基于视觉感知的机器人抓取系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410489323.5A CN118181294B (zh) 2024-04-23 2024-04-23 一种基于视觉感知的机器人抓取系统

Publications (2)

Publication Number Publication Date
CN118181294A CN118181294A (zh) 2024-06-14
CN118181294B true CN118181294B (zh) 2024-08-13

Family

ID=91398714

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410489323.5A Active CN118181294B (zh) 2024-04-23 2024-04-23 一种基于视觉感知的机器人抓取系统

Country Status (1)

Country Link
CN (1) CN118181294B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101872423A (zh) * 2010-05-27 2010-10-27 天津大学 一种生产线上运动目标追踪方法
CN112950667A (zh) * 2021-02-10 2021-06-11 中国科学院深圳先进技术研究院 一种视频标注方法、装置、设备及计算机可读存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10803314B2 (en) * 2018-10-10 2020-10-13 Midea Group Co., Ltd. Method and system for providing remote robotic control
US20230059054A1 (en) * 2021-08-19 2023-02-23 Electronics And Telecommunications Research Institute Method and apparatus for automatically recognizing location of object
CN117671014B (zh) * 2024-02-02 2024-04-19 泰安大陆医疗器械有限公司 一种基于图像处理的机械臂定位抓取方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101872423A (zh) * 2010-05-27 2010-10-27 天津大学 一种生产线上运动目标追踪方法
CN112950667A (zh) * 2021-02-10 2021-06-11 中国科学院深圳先进技术研究院 一种视频标注方法、装置、设备及计算机可读存储介质

Also Published As

Publication number Publication date
CN118181294A (zh) 2024-06-14

Similar Documents

Publication Publication Date Title
US20200193619A1 (en) Method and device for tracking an object
CN105744232B (zh) 一种基于行为分析技术的输电线路视频防外破的方法
CN106056079B (zh) 一种图像采集设备及人脸五官的遮挡检测方法
CN106097393B (zh) 一种基于多尺度与自适应更新的目标跟踪方法
CN112232450B (zh) 一种综合多阶段的难例样本挖掘方法、目标检测方法
CN107742099A (zh) 一种基于全卷积网络的人群密度估计、人数统计的方法
CN103246896B (zh) 一种鲁棒性车辆实时检测与跟踪方法
CN105117692A (zh) 一种基于深度学习的实时人脸识别方法及系统
CN110991397B (zh) 一种行进方向确定方法及相关设备
CN109977971A (zh) 基于均值偏移与核相关滤波的尺度自适应目标跟踪系统
CN111199556A (zh) 基于摄像头的室内行人检测和跟踪方法
CN100531405C (zh) 体育视频目标跟踪方法
CN113362374A (zh) 一种基于目标跟踪网络的高空抛物检测方法及系统
CN112017210A (zh) 目标物体跟踪方法及装置
CN106791353B (zh) 自动对焦的方法、装置和系统
CN112560641A (zh) 基于视频的双向客流通道中的单向客流信息检测方法
CN110472608A (zh) 图像识别跟踪处理方法及系统
Ali et al. Deep Learning Algorithms for Human Fighting Action Recognition.
CN115661698A (zh) 扶梯乘客异常行为检测方法、系统、电子设备及存储介质
CN118181294B (zh) 一种基于视觉感知的机器人抓取系统
CN105913011B (zh) 基于参数自调节神经网络的人体异常行为检测方法
CN110660084A (zh) 一种多目标跟踪的方法及装置
Liu et al. Worker-in-the-loop cyber-physical system for safe human-robot collaboration in construction
CN110930436B (zh) 一种目标跟踪方法及设备
Roopchand et al. Bat detection and tracking toward batsman stroke recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant