CN106444753B - 基于人工神经网络的人体态势判断智能跟随方法 - Google Patents

基于人工神经网络的人体态势判断智能跟随方法 Download PDF

Info

Publication number
CN106444753B
CN106444753B CN201610833981.7A CN201610833981A CN106444753B CN 106444753 B CN106444753 B CN 106444753B CN 201610833981 A CN201610833981 A CN 201610833981A CN 106444753 B CN106444753 B CN 106444753B
Authority
CN
China
Prior art keywords
followed
data
person
status information
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610833981.7A
Other languages
English (en)
Other versions
CN106444753A (zh
Inventor
张俊丽
熊勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Angel Wing Venture Service Co ltd
Original Assignee
Zhiyixing Science And Technology (wuhan) Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhiyixing Science And Technology (wuhan) Co Ltd filed Critical Zhiyixing Science And Technology (wuhan) Co Ltd
Priority to CN201610833981.7A priority Critical patent/CN106444753B/zh
Publication of CN106444753A publication Critical patent/CN106444753A/zh
Application granted granted Critical
Publication of CN106444753B publication Critical patent/CN106444753B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Acoustics & Sound (AREA)
  • Electromagnetism (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Image Analysis (AREA)

Abstract

本发明专利公开了一种基于人工神经网络的人体态势判断智能跟随方法,包括:步骤(1):跟随设备通过检测设备实时收集被跟随者的状态信息;检测设备将状态信息发送给跟随设备的处理模块;步骤(2):根据状态信息以及人工神经网络算法训练处理模块;步骤(3):训练后的处理模块根据状态信息获得被跟随者的运动趋势;步骤(4):训练后的处理模块根据运动趋势向跟随设备发送跟随指令,指挥跟随设备对被跟随者进行跟随。本发明能够准确获得被跟随者的运动趋势,使得跟随设备进行准确的跟随动作。

Description

基于人工神经网络的人体态势判断智能跟随方法
技术领域
本发明专利涉及机器人导航技术领域,尤其涉及一种基于人工神经网络的人体态势判断智能跟随方法。
背景技术
机器人导航技术广泛运用于机器人技术领域,多采用红外传感器进行数据采集,对机器人周围的物体情况进行监测,从而获得机器人周围的情况,当需要跟随时,获得被跟随者的运动状态,进而使得机器人对被跟随者进行跟随。
但传统的机器人导航技术无法准确获得被跟随者的运动趋势,往往存在一定误差,即无法准确对被跟随者的运动变化进行准确预判,进而导致机器人无法密切对被跟随者进行跟随,存在跟随出现偏差,无法准确高效地完成跟随操作。
发明内容
针对上述现有技术中的不足之处,本发明专利的目的在于提供一种基于人工神经网络的人体态势判断智能跟随方法。
本发明专利的上述目的是通过以下技术方案予以实现的。
一种基于人工神经网络的人体态势判断智能跟随方法,该方法包括以下步骤:
步骤(1):跟随设备通过检测设备实时收集被跟随者的状态信息;检测设备将所述状态信息发送给所述跟随设备的处理模块;
步骤(2):根据所述状态信息以及人工神经网络算法训练所述处理模块;
步骤(3):训练后的所述处理模块根据所述状态信息获得所述被跟随者的运动趋势;
步骤(4):训练后的所述处理模块根据所述运动趋势向所述跟随设备发送跟随指令,指挥所述跟随设备对所述被跟随者进行跟随。
本发明首先借助跟随设备的检测设备对被跟随者进行实时监控,获得被跟随者的状态信息,具体为被跟随者的姿态以及运动趋势,随后检测设备将状态信息交给跟随设备的处理模块;根据实时发送的被跟随者的状态信息以及人工神经网络算法训练处理模块,使得处理模块具备根据被跟随者当前状态信息预判下一时刻的运动趋势的功能;随后处理模块接收到后续传来的状态信息,根据后续传来的状态信息判断被跟随者下一刻的运动趋势,进而进行符合运动趋势的跟随动作。
具体地,所述状态信息包括:位置信息、运动方向信息以及运动速度信息。
具体地,所述运动趋势包括:预测位置信息、预测方向信息以及预测运动速度信息。
进一步地,所述步骤(1)包括以下步骤:
步骤(a):所述跟随设备通过所述检测设备实时收集所述被跟随者的所述状态信息;
步骤(b):跟随设备对所述状态信息进行除杂处理;
步骤(c):跟随设备对所述状态信息进行过滤筛选;
步骤(d):将经过过滤筛选以及除杂处理后的所述状态信息发送给所述跟随设备的所述处理模块。
具体地,所述步骤(b)中对所述状态信息进行过滤筛选,舍弃杂质较多的所述状态信息以及包含错误信息的所述状态信息。
具体地,所述检测设备包括:多个超声波传感器。
优选地,所述检测设备为9个成三行三列矩阵排列的超声波传感器。
与现有技术相比,本发明专利有益效果在于:提供了一种基于人工神经网络的人体态势判断智能跟随方法,利用检测设备对被跟随者进行实时监控,获得被跟随者的状态信息,具体为被跟随者的姿态以及运动趋势,随后检测设备将状态信息交给跟随设备的处理模块;根据实时发送的被跟随者的状态信息以及人工神经网络算法训练处理模块,使得处理模块具备根据被跟随者当前状态信息预判下一时刻的运动趋势的功能;随后处理模块接收到后续传来的状态信息,根据后续传来的状态信息判断被跟随者下一刻的运动趋势,进而进行符合运动趋势的跟随动作;本发明能够准确获得被跟随者的运动趋势,使得跟随设备进行准确的跟随动作。
附图说明
图1为实施例1的基于人工神经网络的人体态势判断智能跟随方法的流程图。
图2为实施例2的步骤(1)的流程图。
具体实施方式
以下将结合附图对本发明专利各实施例的技术方案进行清楚、完整的描述,显然,所描述的实施例仅仅是本发明专利的一部分实施例,而不是全部的实施例。基于本发明专利的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所得到的所有其它实施例,都属于本发明专利所保护的范围。
在本发明专利的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明专利和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明专利的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本发明专利的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明专利中的具体含义。
下面通过具体的实施例子并结合附图对本发明专利做进一步的详细描述。
实施例1
如图1所示,基于人工神经网络的人体态势判断智能跟随方法,该方法包括以下步骤:
步骤(1):跟随设备通过检测设备实时收集被跟随者的状态信息;检测设备将状态信息发送给跟随设备的处理模块;
通过检测设备获取被跟随者的状态信息,实时收集能够对每一时刻的被跟随者进行监测,从而实时获得被跟随者的动向,从而准确地完成跟随动作;
通过多个设备从不同角度感知被跟随者的当前姿态以及运动状态,获取各个不同角度传来的数据,根据姿态的变化、运动状态的变化,判断出被跟随者的状态信息。
步骤(2):根据状态信息以及人工神经网络算法训练处理模块;
人工神经网络即模拟人脑的一种仿生结构,在处理上具有高速度的优点,且具有一定的容错和容差能力,其特色在于信息的分布式存储和并行协同处理,虽然单个神经元的结构极其简单,功能有限,但大量神经元构成的网络系统所能实现的行为却是极其丰富多彩的;通过人工神经网络算法对处理模块进行训练,使得处理模块对被跟随者的状态信息进行模式识别,能够通过人工神经网络算法对状态信息进行处理;
步骤(3):训练后的处理模块根据状态信息获得被跟随者的运动趋势;
根据状态信息,得知被跟随者实时的运动状态,从而借助人工神经网络算法预判被跟随者的运动趋势,以便跟随设备完成跟随;
步骤(4):训练后的处理模块根据运动趋势向跟随设备发送跟随指令,指挥跟随设备对被跟随者进行跟随;
根据实际需求,跟随设备上安装有对应的动力装置,例如:车轮、履带以及机械臂,使得处理模块能够指挥跟随设备进行跟随,跟随设备根据处理模块发送的跟随指令沿获得的被跟随者的运动趋势进行跟随运动,完成智能跟随动作。
本发明首先借助跟随设备的检测设备对被跟随者进行实时监控,获得被跟随者的状态信息,具体为被跟随者的姿态以及运动趋势,随后检测设备将状态信息交给跟随设备的处理模块;根据实时发送的被跟随者的状态信息以及人工神经网络算法训练处理模块,使得处理模块具备根据被跟随者当前状态信息预判下一时刻的运动趋势的功能;随后处理模块接收到后续传来的状态信息,根据后续传来的状态信息判断被跟随者下一刻的运动趋势,进而进行符合运动趋势的跟随动作;
较传统跟随方法而言,本方法实时收集被跟随者的状态信息,根据被跟随者的即时状态的改变可发送对应的跟随动作改变,具有实时性;而人工神经网络算法能够对被跟随者的状态信息进行模式识别,根据被跟随者的状态信息,判断得到下一时刻被跟随者的运动趋势,进而完成跟随,具有跟随密切的优点。
具体地,状态信息包括:位置信息、运动方向信息以及运动速度信息。
由于跟随设备通过检测设备实时收集被跟随者的状态信息,因此状态信息包含的位置信息、运动方向信息以及运动速度信息能够表示每一时刻被跟随者的方位以及运动状态,从而根据位置信息的变化量、运动方向信息的变化量以及运动速度信息的变化量来得到被跟随者在位置、运动方向、运动速度上的变化,进而从而有助于对被跟随者的运动趋势进行预判。
具体地,运动趋势包括:预测位置信息、预测方向信息以及预测运动速度信息。
根据被跟随者前一时刻以及之前多个时刻的位置信息的变化量、运动方向信息的变化量以及运动速度信息的变化量进行综合计算,获得下一时刻被跟随者的位置信息的变化趋势、运动方向信息的变化趋势以及运动速度信息的变化趋势,从而获得被跟随者的运动趋势,进而根据被跟随者的当前状态信息,对被跟随者的下一刻的状态信息进行预判,以便跟随设备准确地对被跟随者进行跟随。
具体地,检测设备包括:多个超声波传感器。
利用超声波传感器感应被跟随者的状态,超声波传感器技术成熟,对与被测物的距离的检测以及被测物状态的监测准确,且具有操作方便的优势;
具体可采用收发一体型超声波传感器,即超声波传感器自身同时具备发送和接收功能,发送振动频率高于20KHz的机械波,即超声波,当遇到被跟随者后,超声波反射回来,由超声波传感器自行接收,结合超声波的传播速度以及反射时间、传播距离得知被跟随者在正对该超声波传感器的方向上的位置、运动速度;
结合多个超声波传感器从不同方向向被跟随者发送超声波,结合不同方向采集得到的数据,从而计算得到被跟随者的具体位置、运动方向以及运动速度;
必要时,使用者可根据需要自行调设超声波传感器发送的超声波的传播速度;另外超声波传感器底部也可设置数控式球形转轴,用以对超声波传感器的角度进行控制。
优选地,检测设备为9个成三行三列矩阵排列的超声波传感器。
将检测设备设置为9个成三行三列矩阵排列的超声波传感器,采用密集型的超声波传感器阵列对被跟随者进行监测,可通过多个超声波传感器从同一角度检测,减小该角度检测数据的误差,当某一超声波传感器检测得到的数据与其他超声波传感器检测得到的数据相比误差较大时,可采用超声波传感阵列中的各超声波传感器检测到的数据的平均值,以便获得的数据更准确,减小误差,进而以便跟随设备准确地对被跟随者进行跟随;同时,可设定一个误差允许范围,误差允许范围可定义为除本数据外,剩余数据的平均值的80%~120%,当某一超声波传感器检测得到的数据与其他超声波传感器检测得到的数据误差较大时,甚至超过了误差范围时,即可舍弃该检测数据,根据剩余的检测数据进行平均值计算,进而达到减小误差的效果;
必要时,使用者可根据跟随设备的体型以及具体跟随需求选择合适数量的超声波传感器进行合适数量的矩阵排列,进而组成合适数量的超声波传感器阵列,以便有效的进行状态信息的采集,进而高效准确地完成跟随操作。
实施例2
如图2所示,本实施例提供一种基于人工神经网络的人体态势判断智能跟随方法,与实施例1的区别在于,进一步地,步骤(1)包括以下步骤:
步骤(a):跟随设备通过检测设备实时收集被跟随者的状态信息;
步骤(b):跟随设备对状态信息进行除杂处理;
检测设备实时收集得到的状态信息,首先为模拟信号,收集得到的模拟信号往往会因外界因素而受到干扰,因此需事先对检测得到的状态信息进行除杂处理,除去杂质信号,从而获得更清晰准确的状态信息,以便后期操作;
步骤(c):跟随设备对状态信息进行过滤筛选;
进行除杂处理后的状态信息,可通过数模转换手段,将之前为模拟信号的状态信息转化为数字信号,数字信号具有抗干扰能力强,便于存储、处理和交换等优点,由于检测设备检测得到的状态信息在数据传输过程中可能会出现数据丢失或误差较大的情况,此时对状态信息进行过滤筛选,将连续的多组状态信息进行对比,将数据丢失或误差较大的状态信息视为无效数据,将无效数据进行剔除,留用过滤筛选后的数据,以便为后期操作提供了更准确的状态信息;
此处设定误差允许范围,当前状态信息中的数据大小为前一时刻状态信息中的数据大小的70%~120%,当超出改误差允许范围,则认定改数据误差较大;
步骤(d):将经过过滤筛选以及除杂处理后的状态信息发送给跟随设备的处理模块;
具体地,步骤(b)中对状态信息进行过滤筛选,舍弃杂质较多的状态信息以及包含错误信息的状态信息。
最后应说明的是:以上实施例仅用以说明本发明专利的技术方案,而非对其限制;尽管参照前述实施例对本发明专利进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明专利实施例技术方案。

Claims (2)

1.一种基于人工神经网络的人体态势判断智能跟随方法,其特征在于,该方法包括以下步骤:
步骤(1):跟随设备通过检测设备实时收集被跟随者的状态信息;跟随设备对所述状态信息进行除杂处理和过滤筛选;将经过除杂处理和过滤筛选后的状态信息发送给所述跟随设备的处理模块;
步骤(2):根据所述状态信息以及人工神经网络算法训练所述处理模块;
步骤(3):训练后的所述处理模块根据所述状态信息获得所述被跟随者的运动趋势;
步骤(4):训练后的所述处理模块根据所述运动趋势向所述跟随设备发送跟随指令,指挥所述跟随设备对所述被跟随者进行跟随;
所述检测设备为9个成三行三列矩阵排列的超声波传感器;
采用密集型的超声波传感器阵列对被跟随者进行监测,通过多个超声波传感器从同一角度检测,减小该角度检测数据的误差,当某一超声波传感器检测得到的数据与其他超声波传感器检测得到的数据相比误差较大时,采用超声波传感器阵列中各超声波传感器检测到的数据的平均值作为检测数据,以减小误差;
步骤(1)中,对所述状态信息进行过滤筛选的方法为:
当所述检测设备中某个超声波传感器检测得到的数据超出误差允许范围,则舍弃该检测数据,采用剩余超声波传感器检测数据的平均值作为状态信息;所述误差允许范围定义为:除本数据外,剩余数据平均值的80%~120%;
将连续多组状态信息进行对比,若当前状态信息中的数据大小在前一时刻状态信息中的数据大小的70%~120%范围内,则认为当前状态信息中的数据为有效数据;否则,为无效数据;
步骤(3)中,所述运动趋势包括:预测位置信息、预测方向信息以及预测运动速度信息。
2.根据权利要求1所述的基于人工神经网络的人体态势判断智能跟随方法,其特征在于,所述状态信息包括:位置信息、运动方向信息以及运动速度信息。
CN201610833981.7A 2016-09-20 2016-09-20 基于人工神经网络的人体态势判断智能跟随方法 Active CN106444753B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610833981.7A CN106444753B (zh) 2016-09-20 2016-09-20 基于人工神经网络的人体态势判断智能跟随方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610833981.7A CN106444753B (zh) 2016-09-20 2016-09-20 基于人工神经网络的人体态势判断智能跟随方法

Publications (2)

Publication Number Publication Date
CN106444753A CN106444753A (zh) 2017-02-22
CN106444753B true CN106444753B (zh) 2019-12-03

Family

ID=58165929

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610833981.7A Active CN106444753B (zh) 2016-09-20 2016-09-20 基于人工神经网络的人体态势判断智能跟随方法

Country Status (1)

Country Link
CN (1) CN106444753B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107730801A (zh) * 2017-09-28 2018-02-23 努比亚技术有限公司 一种监控方法、终端及计算机可读存储介质
CN108549410A (zh) * 2018-01-05 2018-09-18 灵动科技(北京)有限公司 主动跟随方法、装置、电子设备及计算机可读存储介质
CN109977884B (zh) * 2019-03-29 2021-05-11 北京易达图灵科技有限公司 目标跟随方法和装置
CN112565678A (zh) * 2020-10-30 2021-03-26 西安方元明科技股份有限公司 一种随动系统伺服控制方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1382997A (zh) * 2002-06-13 2002-12-04 上海交通大学 基于神经网络的机动目标精确跟踪方法
CN101098465A (zh) * 2007-07-20 2008-01-02 哈尔滨工程大学 一种视频监控中运动目标检测与跟踪方法
CN101549498B (zh) * 2009-04-23 2010-12-29 上海交通大学 智能帮扶式助行机器人的自主跟踪与导航系统
CN103268616B (zh) * 2013-04-18 2015-11-25 北京工业大学 多特征多传感器的移动机器人运动人体跟踪方法
KR102110582B1 (ko) * 2013-08-13 2020-05-13 현대모비스 주식회사 가시광 통신을 이용한 전방 차량 팔로잉 장치
CN104299245B (zh) * 2014-10-13 2017-12-26 深圳先进技术研究院 基于神经网络的增强现实跟踪方法
CN105005247B (zh) * 2015-08-13 2018-02-13 甘莅 跟随式搬运车的运行方法
CN105447458B (zh) * 2015-11-17 2018-02-27 深圳市商汤科技有限公司 一种大规模人群视频分析系统和方法
CN105527960A (zh) * 2015-12-18 2016-04-27 燕山大学 一种基于领航跟随的移动机器人编队控制方法
CN105652891B (zh) * 2016-03-02 2018-06-29 中山大学 一种旋翼无人机移动目标自主跟踪装置及其控制方法
CN105867371B (zh) * 2016-04-06 2019-05-21 北京小米移动软件有限公司 控制平衡车移动的方法及装置
CN105828431A (zh) * 2016-04-25 2016-08-03 上海理工大学 基于uwb的自主跟随机器人定位方法及系统

Also Published As

Publication number Publication date
CN106444753A (zh) 2017-02-22

Similar Documents

Publication Publication Date Title
CN106444753B (zh) 基于人工神经网络的人体态势判断智能跟随方法
CN108876822B (zh) 一种行为危险度评估方法及家庭安防看护系统
CN102156476B (zh) 智能空间与护士机器人多传感器系统及其信息融合方法
US8253792B2 (en) Vision system for monitoring humans in dynamic environments
CN108154084A (zh) 用于农机无人驾驶的多传感器融合的农田环境感知方法
CA2928174C (en) Systems and methods for automated device pairing
Ringdahl et al. Evaluation of approach strategies for harvesting robots: Case study of sweet pepper harvesting: Category:(5)
CN104570731A (zh) 一种基于Kinect的无标定人机交互控制系统及方法
CN102099614A (zh) 防备机器人危险事件的人安全保护系统
CN103722565A (zh) 仿人机器人自碰撞监控系统及监控方法
CN101549498A (zh) 智能帮扶式助行机器人的自主跟踪与导航系统
CN108363394A (zh) 一种安防机器人智能巡检系统及其巡检方法
CN105783988B (zh) 一种智能冰箱检测系统及其方法
CN108942914A (zh) 机器人避障处理方法、装置及机器人
CN109357629A (zh) 一种基于三维扫描仪的智能检测系统及使用方法
CN107300398A (zh) 一种基于wifi通信同时支持定位和数据传输的电力巡检装置
CN202075626U (zh) 智能空间与护士机器人多传感器系统
Morioka et al. A cooperative object tracking system with fuzzy-based adaptive camera selection
CN117444984B (zh) 用于铁路机器人的机械手控制方法及系统
CN115552348A (zh) 移动目标跟随方法、机器人和计算机可读存储介质
Saegusa et al. Human-care rounds robot with contactless breathing measurement
Lu et al. Multisensor system for safer human-robot interaction
Wang Tennis robot design via Internet of Things and deep learning
CN111887004B (zh) 一种杆状作物收割机器人控制方法
CN105825631B (zh) 基于视频智能算法的疲劳检测方法及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230822

Address after: 430073, 14th Floor, Building 4, Phase 1, Modern International Design City, No. 41 Guanggu Avenue, Donghu New Technology Development Zone, Wuhan City, Hubei Province

Patentee after: WUHAN ANGEL WING VENTURE SERVICE Co.,Ltd.

Address before: Room 243, Room 01, 2nd Floor, Unit 1, Building 10, Dongxin Road, Donghu New Technology Development Zone, Wuhan City, Hubei Province, 430075

Patentee before: ZHIYIXING TECHNOLOGY (WUHAN) CO.,LTD.