CN109558835A - 一种基于人体识别的自动牵引车的控制方法及其系统 - Google Patents
一种基于人体识别的自动牵引车的控制方法及其系统 Download PDFInfo
- Publication number
- CN109558835A CN109558835A CN201811435825.0A CN201811435825A CN109558835A CN 109558835 A CN109558835 A CN 109558835A CN 201811435825 A CN201811435825 A CN 201811435825A CN 109558835 A CN109558835 A CN 109558835A
- Authority
- CN
- China
- Prior art keywords
- human
- identification feature
- feature
- action
- human body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D63/00—Motor vehicles or trailers not otherwise provided for
- B62D63/02—Motor vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Transportation (AREA)
- Combustion & Propulsion (AREA)
- Guiding Agricultural Machines (AREA)
Abstract
本发明提供一种基于人体识别的自动牵引车的控制方法及其系统,控制系统设置在自动牵引车中,控制系统可以设定多个控制对象模型,并于控制系统中预设识别特征,识别特征包括人体动作识别特征,每个控制对象模型与人体动作识别特征相对应;控制方法具体包括:步骤S1,启动自动牵引车;步骤S2,获取一测量范围的图像;步骤S3,判断图像内是否包含满足识别特征的物体;步骤S4,根据控制对象模型对应的人体动作识别特征控制自动牵引车工作,返回步骤S2。本发明的有益效果在于:通过人体识别来控制自动牵引车,实现了操作简单方便、使用灵活高、安全可靠的优点。
Description
技术领域
本发明涉及智能机器人技术领域,尤其涉及一种基于人体识别的自动牵引车的控制方法及其系统。
背景技术
随着科学技术的迅速发展,自动牵引车(Automatic Guided Vehicle,AGV)已经成为了一种完成繁重和单调的物料搬运工作的智能搬运装置。并且自动牵引车凭借自动化程度高、结构简单、工作效率高、可控性强和安全性好等优势,在仓储物流、制造工业、交通运输、电子产业和国防军事等领域都有着重要的地位。
现有技术中大多采用遥控装置、上位机端控制指令和车载控制系统等方式对自动牵引车进行控制,然而采用遥控装置对自动牵引车进行控制会大大增加成本;采用上位机端控制指令的方式对自动牵引车进行控制,需要在无法获取现场实时数据的情况下发布控制指令,对环境识别度要求较高,一般只能建立于特定或者固定线路的额行驶,无法满足所有情况;通过车载控制按键对自动牵引车进行控制,会降低自动牵引车在行驶过程中的自动化性能,更依赖于人手动操作和控制。
发明内容
针对现有技术中存在的上述问题,现提供一种旨在通过人体识别来控制自动牵引车,操作简单方便、使用灵活高、安全可靠的基于人体识别的自动牵引车的控制方法及其系统。
具体技术方案如下:
一种基于人体识别的自动牵引车的控制方法,其中,应用于基于人体识别的自动牵引车的控制系统中,控制系统设置在自动牵引车中,控制系统可以设定多个控制对象模型,并于控制系统中预设识别特征,识别特征包括人体动作识别特征,每个控制对象模型与人体动作识别特征相对应;
基于人体识别的自动牵引车的控制方法具体包括以下步骤:
步骤S1,启动自动牵引车;
步骤S2,获取一测量范围的图像;
步骤S3,判断图像内是否包含满足识别特征的物体;
当图像内包含满足识别特征的物体时,图像包含控制对象模型,执行步骤S4;
当图像内不包含满足识别特征的物体时,返回步骤S2;
步骤S4,根据控制对象模型对应的人体动作识别特征控制自动牵引车工作,返回步骤S2。
优选的,基于人体识别的自动牵引车的控制方法,其中,识别特征包括一人体识别特征和一人体细节识别特征;
步骤S3具体包括以下步骤:
步骤S31,对图像进行处理得到一个或多个独立对象;
步骤S32,判断独立对象是否满足人体识别特征;
当独立对象满足人体识别特征时,执行步骤S33;
当独立对象不满足人体识别特征时,返回步骤S2;
步骤S33,判断独立对象是否满足人体细节识别特征;
当独立对象满足人体细节识别特征时,执行步骤S4;
当独立对象不满足人体细节识别特征时,返回步骤S2。
优选的,基于人体识别的自动牵引车的控制方法,其中,人体识别特征包括人体轮廓特征和人体各关节特征;
步骤S32具体包括以下步骤:
步骤S321,判断独立对象是否满足人体轮廓特征;
当独立对象满足人体轮廓特征时,执行步骤S322;
当独立对象不满足人体轮廓特征时,返回步骤S2;
步骤S322,判断独立对象是否满足人体各关节特征;
当独立对象满足人体各关节特征时,执行步骤S33;
当独立对象不满足人体各关节特征时,返回步骤S2。
优选的,基于人体识别的自动牵引车的控制方法,其中,人体细节识别特征包括一用户识别特征和人体动作识别特征,每个控制对象模型与多个用户识别特征对应设置;
步骤S33具体包括以下步骤:
步骤S331,判断独立对象是否满足任一控制对象模型的用户识别特征;
当独立对象不满足任一控制对象模型的用户识别特征时,执行步骤S332;
当独立对象满足任一控制对象模型的用户识别特征时,将独立对象设置为关联与用户识别特征的控制对象模型,执行步骤S333;
步骤S332,判断独立对象的动作信息是否满足任一控制对象模型的人体动作识别特征;
当独立对象的动作信息满足任一控制对象模型的人体动作识别特征时,将独立对象设置为注册为新的控制对象模型,并将动作信息设置为控制对象模型的下一个人体动作识别特征,执行步骤S4;
当独立对象的动作信息不满足任一控制对象模型的人体动作识别特征时,返回步骤S2;
步骤S333,获取控制独立对象的动作信息,判断动作信息是否满足控制对象模型的任一人体动作识别特征;
当动作信息满足控制对象模型的任一人体动作识别特征时,执行步骤S4;
当动作信息不满足控制对象模型的任一人体动作识别特征时,返回步骤S2。
优选的,基于人体识别的自动牵引车的控制方法,其中,步骤S332具体包括以下步骤:
步骤S3321,获取独立对象的多个关节的坐标;
步骤S3322,根据每个关节的坐标得到独立对象的动作信息;
步骤S3323,判断动作信息是否为任一控制对象模型的人体动作识别特征;
当独立对象的动作信息满足任一控制对象模型的人体动作识别特征时,将独立对象设置为注册为新的控制对象模型,并将动作信息设置为控制对象模型的一个人体动作识别特征,执行步骤S4;
当独立对象的动作信息不满足任一控制对象模型的人体动作识别特征时,返回步骤S2。
还包括一种基于人体识别的自动牵引车的控制系统,其中,控制系统设置在自动牵引车上,包括:
获取模块,与自动牵引车连接,用于获取测量范围的图像;
识别模块,与获取模块连接,用于判断图像是否为满足预设的识别特征;
控制模块,与识别模块连接,根据控制对象模型对应的人体动作识别特征控制自动牵引车工作。
优选的,基于人体识别的自动牵引车的控制系统,其中,识别模块包括:
处理单元,用于对图像进行处理得到独立对象;
人体识别单元,与处理单元连接,用于判断独立对象是否满足人体识别特征;
人体细节识别单元,与人体识别单元连接,用于判断满足人体识别特征的独立对象是否满足人体细节识别特征。
优选的,基于人体识别的自动牵引车的控制系统,其中,人体识别单元包括:
人体轮廓识别组件,用于判断独立对象是否满足人体轮廓特征;
人体各关节识别组件,与人体轮廓识别组件连接,用于判断满足人体轮廓特征的独立对象是否满足人体各关节特征。
优选的,基于人体识别的自动牵引车的控制系统,其中,人体细节识别单元包括:
用户识别组件,用于判断独立对象是否满足任一控制对象模型的用户识别特征;
第一动作识别组件,与用户识别组件连接,用于判断不满足用户识别特征的独立对象是否满足任一控制对象模型的人体动作识别特征;
第二动作识别组件,与用户识别组件连接,用于判断满足用户识别特征的独立对象的动作信息是否满足控制对象模型的任一人体动作识别特征。
优选的,基于人体识别的自动牵引车的控制系统,其中,第一动作识别组件包括:
获取坐标块,用于获取独立对象的每个关节的坐标;
动作指令块,与获取坐标块连接,根据每个关节的坐标得到独立对象的动作信息;
人体动作识别块,与动作指令块连接,用于判断动作信息是否为任一控制对象模型的人体动作识别特征。
上述技术方案具有如下优点或有益效果:通过人体识别来控制自动牵引车,实现了操作简单方便、使用灵活高、安全可靠的优点。
附图说明
参考所附附图,以更加充分的描述本发明的实施例。然而,所附附图仅用于说明和阐述,并不构成对本发明范围的限制。
图1为本发明基于人体识别的自动牵引车的控制方法实施例的流程图;
图2为本发明基于人体识别的自动牵引车的控制方法实施例的步骤S3的流程图;
图3为本发明基于人体识别的自动牵引车的控制方法实施例的步骤S32的流程图;
图4为本发明基于人体识别的自动牵引车的控制方法实施例的步骤S33的流程图;
图5为本发明基于人体识别的自动牵引车的控制方法实施例的步骤S332的流程图;
图6为本发明基于人体识别的自动牵引车的控制系统实施例的结构示意图;
图7为本发明基于人体识别的自动牵引车的控制系统实施例的人体识别单元的结构示意图;
图8为本发明基于人体识别的自动牵引车的控制系统实施例的人体细节识别单元的结构示意图;
图9为本发明基于人体识别的自动牵引车的控制系统实施例的第一动作识别组件的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
本发明提供一种基于人体识别的自动牵引车的控制方法,应用于基于人体识别的自动牵引车的控制系统中,控制系统设置在自动牵引车中,控制系统提供多个控制对象模型,并于控制系统中预设识别特征,识别特征包括人体动作识别特征,每个控制对象模型与人体动作识别特征相对应;
如图1所示,基于人体识别的自动牵引车的控制方法具体包括以下步骤:
步骤S1,启动自动牵引车;
步骤S2,获取测量范围的图像;
步骤S3,判断图像是否满足识别特征;
当图像满足识别特征时,图像为控制对象模型,执行步骤S4;
当图像不满足识别特征时,返回步骤S2;
步骤S4,根据控制对象模型对应的人体动作识别特征控制自动牵引车工作,返回步骤S2。
进一步地,作为优选的实施方式,通过识别控制对象模型的多个人体动作识别特征中的一个人体动作识别特征来控制自动牵引车,可以实现人体识别和使用者通过人体动作来控制自动牵引车运动,从而使操作简单方便、使用灵活高、安全可靠。
进一步地,作为优选的实施方式,测量范围可以为自动牵引车的正前方,当使用者进行测量范围时,控制系统直接获取测量范围地图像,从而使获取图像的过程更加方便,当然测量范围也可以为其他位置,例如自动牵引车的四周,可以实现在自动牵引车四周就可以控制自动牵引车的作用;如果有待测物出现在测量范围外,则自动牵引车处于待机状态,但是控制系统持续工作。
进一步地,在上述实施例中,识别特征包括人体识别特征和人体细节识别特征;
如图2所示,步骤S3具体包括以下步骤:
步骤S31,对图像进行处理得到独立对象;
步骤S32,判断独立对象是否满足人体识别特征,即判断该独立对象是否为一个完整的人;
当独立对象满足人体识别特征时,执行步骤S33;
当独立对象不满足人体识别特征时,返回步骤S2;
步骤S33,判断独立对象是否满足人体细节识别特征,即判断为完整的人的独立对象是否为控制对象模型;
当独立对象满足人体细节识别特征时,执行步骤S4;
当独立对象不满足人体细节识别特征时,返回步骤S2。
进一步地,作为优选的实施方式,控制系统首先通过深度图像和彩色图像的复合边框识别剥离得到独立对象;接着获取该独立对象的人体特征,再将上述人体特征与人体识别特征进行比较,判断人体特征与人体识别特征是否一致,将人体特征与人体识别特征一致的独立对象发送给人体细节识别单元33;然后获取上述独立对象的人体细节特征,将上述人体细节特征与人体细节识别特征进行比较,判断人体细节特征与人体细节识别特征是否一致。
进一步地,在上述实施例中,人体识别特征包括人体轮廓特征和人体各关节特征;
如图3所示,步骤S32具体包括以下步骤:
步骤S321,判断独立对象是否满足人体轮廓特征,即判断独立对象是否可能为一个人体;
当独立对象满足人体轮廓特征时,执行步骤S312;
当独立对象不满足人体轮廓特征时,返回步骤S2;
其中,人体轮廓特征为人体大致的轮廓特征,当独立对象满足人体轮廓特征时,说明该独立对象可能是一个人,因为该独立对象有可能被一些障碍物遮挡住身体的一部分,因此并不能说明该独立对象是否为一个完整的人体。
步骤S322,判断独立对象是否满足人体各关节特征,即判断可能为一个人的独立对象是否为一个完整的人体;
当独立对象满足人体各关节特征时,执行步骤S33;
当独立对象不满足人体各关节特征时,返回步骤S2;其中,人体各关节特征为人体的各个关节的特征,例如头部、肢体和躯干的关节特征,当满足人体轮廓特征的独立对象满足人体各关节特征时,说明该独立对象没有被障碍物遮挡身体的一部分,即该独立对象为一个完整的人体。
进一步地,在上述实施例中,人体细节识别特征包括用户识别特征和人体动作识别特征,每个控制对象模型与多个用户识别特征对应设置;
如图4所示,步骤S33具体包括以下步骤:
步骤S331,判断独立对象是否满足任一控制对象模型的用户识别特征,该步骤在判断独立对象即使用者是否为已经注册的控制对象模型;
当独立对象不满足任一控制对象模型的用户识别特征时,执行步骤S332;
当独立对象满足任一控制对象模型的用户识别特征时,将独立对象设置为关联与用户识别特征的控制对象模型,执行步骤S333;
步骤S332,判断独立对象的动作信息是否满足任一控制对象模型的人体动作识别特征,该步骤在判断当独立对象即使用者不是已经注册的控制对象模型时,则对该使用者的动作信息是否为控制对象模型的一个人体动作识别特征;
当独立对象的动作信息满足任一控制对象模型的人体动作识别特征时,将独立对象设置为注册为新的控制对象模型,并将动作信息设置为控制对象模型的一个人体动作识别特征,执行步骤S4;
当独立对象的动作信息不满足任一控制对象模型的人体动作识别特征时,返回步骤S2;
步骤S333,获取独立对象的动作信息,判断动作信息是否满足控制对象模型的任一人体动作识别特征;
当动作信息满足控制对象模型的任一人体动作识别特征时,执行步骤S4;
当动作信息不满足控制对象模型的任一人体动作识别特征时,返回步骤S2。
进一步地,在上述实施例中,如图5所示,步骤S332具体包括以下步骤:
步骤S3321,获取独立对象的多个关节的坐标;
步骤S3322,根据每个关节的坐标得到独立对象的动作信息;
步骤S3323,判断动作信息是否为任一控制对象模型的人体动作识别特征;
当独立对象的动作信息满足任一控制对象模型的人体动作识别特征时,将独立对象设置为注册为新的控制对象模型,并将动作信息设置为控制对象模型的一个人体动作识别特征,执行步骤S4;
当独立对象的动作信息令不满足任一控制对象模型的人体动作识别特征时,返回步骤S2。
进一步地,在上述实施例中,步骤S4中,在根据控制对象模型对应的人体动作识别特征控制自动牵引车工作继续获取图像后,又重新返回步骤S2,即重新获取图像,实现了即使使用者切换动作信息也能继续执行符合人体动作识别特征的动作信息。
还包括一种基于人体识别的自动牵引车的控制系统,控制系统设置在自动牵引车上,如图6所示,控制系统包括:
获取模块1,与自动牵引车连接,用于获取测量范围的图像,上述图像包括彩色图像和深度图像,彩色图像有利于识别模块3进行识别图像中的人体,深度图像有利于识别模块3识别图像中的人体细节;
识别模块3,与获取模块1连接,用于判断图像是否为满足预设的识别特征;
控制模块2,与识别模块3连接,根据控制对象模型对应的人体动作识别特征控制自动牵引车工作。
进一步地,作为优选的实施方式,获取模块1可以为深度视觉装置,上述深度视觉装置可以由多种相机组合形成。例如深度视觉装置可以为双目深度摄像机装置,上述双目深度摄像机装置包括两台二维彩色工业相机和一个结构光源;例如深度视觉装置可以包括复合双目深度摄像机装置,上述复合双目深度摄像机装置包括一台二维彩色工业相机和一台TOF(Time offlight-飞行时间测距)深度相机;例如深度视觉装置可以包括深度摄像机装置,上述深度摄像机装置包括多台TOF深度相机;其中深度视觉装置可以为上述示例中的一种或多种摄像机装置组成。需要说明的是,TOF深度相机可以更快的获取视野范围内的物体边缘,分割独立对象;二维彩色工业相机为对象提供更多的视觉特征,有利于对象识别。
进一步地,在上述实施例中,识别模块3包括:
处理单元31,用于对图像进行处理得到独立对象;
人体识别单元32,与处理单元31连接,用于判断独立对象是否满足人体识别特征;
人体细节识别单元33,与人体识别单元32连接,用于判断满足人体识别特征的独立对象是否满足人体细节识别特征。
进一步地,作为优选的实施方式,处理单元31通过深度图像和彩色图像的复合边框识别剥离得到独立对象;人体识别单元32,获取独立对象的人体特征,再将上述人体特征与人体识别特征进行比较,判断人体特征与人体识别特征是否一致,将人体特征与人体识别特征一致的独立对象发送给人体细节识别单元33;人体细节识别单元33获取上述独立对象的人体细节特征,将上述人体细节特征与人体细节识别特征进行比较,判断人体细节特征与人体细节识别特征是否一致。
进一步地,在上述实施例中,识别模块3还包括存储单元34,上述存储单元34与处理单元31,人体识别单元32,人体细节识别单元33连接,存储单元34中保存有多个控制对象模型,每个控制对象模型都有用户识别特征和人体动作识别特征,即一个控制对象模型中只有一个用户识别特征和多个人体动作识别特征,因此通过查找用户识别特征就可以找到对应的控制对象模型或其中一个人体动作识别特征重新进行控制对象模型的注册。
进一步地,在上述实施例中,如图7所示,人体识别单元32包括:
人体轮廓识别组件321,用于判断独立对象是否满足人体轮廓特征;
人体各关节识别组件322,与人体轮廓识别组件321连接,用于判断满足人体轮廓特征的独立对象是否满足人体各关节特征。
进一步地,作为优选的实施方式,人体轮廓识别组件321获取独立对象的人体轮廓特征,上述人体轮廓特征包括独立对象的轮廓和独立对象的点云,再将上述人体轮廓特征与人体轮廓识别特征进行比较,判断人体轮廓特征与人体轮廓识别特征是否一致,将人体轮廓特征与人体轮廓识别特征一致的独立对象发送给人体各关节识别组件322。
进一步地,在上述实施例中,如图8所示,人体细节识别单元33包括:
用户识别组件331,用于判断独立对象是否满足任一控制对象模型的用户识别特征;
其中,用户识别特征主要包括控制对象模型的面部特征,当然也可以包括控制对象模型的其他特征的相结合的特征。
进一步地,作为优选的实施方式,用户识别组件331首先获取独立对象的用户特征,再将上述用户特征与存储模块中存储的所有控制对象模型的用户识别特征进行比较,当用户特征与任一控制对象模型的用户识别特征一致时,将上述独立对象定义为对应的控制对象模型,此时通过该控制对象模型对应的人体动作识别特征来控制自动牵引车。
第一动作识别组件332,与用户识别组件331连接,用于判断不满足用户识别特征的独立对象是否满足任一控制对象模型的人体动作识别特征;
第二动作识别组件333,与用户识别组件331连接,用于判断满足用户识别特征的独立对象的动作信息是否满足控制对象模型的任一人体动作识别特征。
进一步地,作为优选的实施方式,第一动作识别组件332首先获取不满足用户识别特征的独立对象的动作信息,再将动作信息与存储模块中存储的所有控制对象模型的人体动作识别特征进行比较,当动作信息与任一控制对象模型的任一人体动作识别特征一致时,将上述独立对象定义注册为新的控制对象模型,此时通过该控制对象模型对应的人体动作识别特征来控制自动牵引车,即通过该动作信息控制自动牵引车。
进一步地,在上述实施例中,如图9所示,第一动作识别组件332包括:
获取坐标块3321,用于获取独立对象的每个关节的坐标;
动作指令块3322,与获取坐标块3321连接,根据每个关节的坐标得到独立对象的动作信息;
人体动作识别块3323,与动作指令块3322连接,用于判断动作信息是否为任一控制对象模型的人体动作识别特征。
进一步地,作为优选的实施方式,第一动作识别组件332包括获取坐标块3321,上述获取坐标块3321建立三维空间坐标系,并给独立对象的每一个关节设置对应的坐标,并将上述坐标发送给动作指令块3322,动作指令块3322根据独立对象上述坐标的运动轨迹(运动轨迹为所有坐标的连接)和相对位置得到独立对象的动作信息,并将上述动作信息发送给人体动作识别块3323,人体动作识别块3323将动作信息与存储模块中存储的所有控制对象模型的人体动作识别特征进行比较,当动作信息与任一控制对象模型的任一人体动作识别特征一致时,将上述独立对象定义为对应的控制对象模型,此时通过该控制对象模型对应的人体动作识别特征来控制自动牵引车,即通过该动作信息控制自动牵引车。
以上所述仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范围,对于本领域技术人员而言,应当能够意识到凡运用本发明说明书及图示内容所作出的等同替换和显而易见的变化所得到的方案,均应当包含在本发明的保护范围内。
Claims (10)
1.一种基于人体识别的自动牵引车的控制方法,其特征在于,应用于基于人体识别的自动牵引车的控制系统中,所述控制系统设置在一自动牵引车中,所述控制系统可以设定多个控制对象模型,并于所述控制系统中预设识别特征,所述识别特征包括人体动作识别特征,每个所述控制对象模型与所述人体动作识别特征相对应;
所述基于人体识别的自动牵引车的控制方法具体包括以下步骤:
步骤S1,启动所述自动牵引车;
步骤S2,获取一测量范围的图像;
步骤S3,判断所述图像内是否包含满足所述识别特征的物体;
当所述图像内包含满足所述识别特征的物体时,所述图像包含所述控制对象模型,执行步骤S4;
当所述图像内不包含满足所述识别特征的物体时,返回步骤S2;
步骤S4,根据所述控制对象模型对应的所述人体动作识别特征控制所述自动牵引车工作,返回步骤S2。
2.如权利要求1所述的基于人体识别的自动牵引车的控制方法,其特征在于,所述识别特征包括一人体识别特征和一人体细节识别特征;
所述步骤S3具体包括以下步骤:
步骤S31,对所述图像进行处理得到一个或多个独立对象;
步骤S32,判断所述独立对象是否满足所述人体识别特征;
当所述独立对象满足所述人体识别特征时,执行步骤S33;
当所述独立对象不满足所述人体识别特征时,返回步骤S2;
步骤S33,判断所述独立对象是否满足所述人体细节识别特征;
当所述独立对象满足所述人体细节识别特征时,执行步骤S4;
当所述独立对象不满足所述人体细节识别特征时,返回步骤S2。
3.如权利要求2所述的基于人体识别的自动牵引车的控制方法,其特征在于,所述人体识别特征包括人体轮廓特征和人体各关节特征;
所述步骤S32具体包括以下步骤:
步骤S321,判断所述独立对象是否满足所述人体轮廓特征;
当所述独立对象满足所述人体轮廓特征时,执行步骤S322;
当所述独立对象不满足所述人体轮廓特征时,返回步骤S2;
步骤S322,判断所述独立对象是否满足所述人体各关节特征;
当所述独立对象满足所述人体各关节特征时,执行步骤S33;
当所述独立对象不满足所述人体各关节特征时,返回步骤S2。
4.如权利要求3所述的基于人体识别的自动牵引车的控制方法,其特征在于,所述人体细节识别特征包括一用户识别特征和所述人体动作识别特征,每个所述控制对象模型与多个所述用户识别特征对应设置;
所述步骤S33具体包括以下步骤:
步骤S331,判断所述独立对象是否满足任一所述控制对象模型的所述用户识别特征;
当所述独立对象不满足任一所述控制对象模型的所述用户识别特征时,执行步骤S332;
当所述独立对象满足任一所述控制对象模型的所述用户识别特征时,将所述独立对象设置为关联与所述用户识别特征的控制对象模型,执行步骤S333;
步骤S332,判断所述独立对象的动作信息是否满足任一所述控制对象模型的所述人体动作识别特征;
当所述独立对象的动作信息满足任一所述控制对象模型的所述人体动作识别特征时,将所述独立对象设置为注册为新的控制对象模型,并将所述动作信息设置为所述控制对象模型的下一个人体动作识别特征,执行步骤S4;
当所述独立对象的动作信息不满足任一所述控制对象模型的所述人体动作识别特征时,返回步骤S2;
步骤S333,获取所述独立对象的动作信息,判断所述动作信息是否满足所述控制对象模型的任一所述人体动作识别特征;
当所述动作信息满足所述控制对象模型的任一所述人体动作识别特征时,执行步骤S4;
当所述动作信息不满足所述控制对象模型的任一所述人体动作识别特征时,返回步骤S2。
5.如权利要求4所述的基于人体识别的自动牵引车的控制方法,其特征在于,所述步骤S332具体包括以下步骤:
步骤S3321,获取所述独立对象的多个关节的坐标;
步骤S3322,根据每个所述关节的坐标得到所述独立对象的动作信息;
步骤S3323,判断所述动作信息是否为任一所述控制对象模型的所述人体动作识别特征;
当所述独立对象的动作信息满足任一所述控制对象模型的所述人体动作识别特征时,将所述独立对象设置为注册为新的控制对象模型,并将所述动作信息设置为所述控制对象模型的一个人体动作识别特征,执行步骤S4;
当所述独立对象的动作信息不满足任一所述控制对象模型的所述人体动作识别特征时,返回步骤S2。
6.一种基于人体识别的自动牵引车的控制系统,其特征在于,所述控制系统设置在自动牵引车上,包括:
一获取模块,与所述自动牵引车连接,用于获取所述测量范围的图像;
一识别模块,与所述获取模块连接,用于判断所述图像是否为满足预设的识别特征;
一控制模块,与所述识别模块连接,根据所述控制对象模型对应的所述人体动作识别特征控制所述自动牵引车工作。
7.如权利要求6所述的基于人体识别的自动牵引车的控制系统,其特征在于,所述识别模块包括:
一处理单元,用于对所述图像进行处理得到所述独立对象;
一人体识别单元,与所述处理单元连接,用于判断所述独立对象是否满足所述人体识别特征;
一人体细节识别单元,与所述人体识别单元连接,用于判断满足所述人体识别特征的独立对象是否满足所述人体细节识别特征。
8.如权利要求7所述的基于人体识别的自动牵引车的控制系统,其特征在于,所述人体识别单元包括:
一人体轮廓识别组件,用于判断所述独立对象是否满足所述人体轮廓特征;
一人体各关节识别组件,与所述人体轮廓识别组件连接,用于判断满足所述人体轮廓特征的独立对象是否满足所述人体各关节特征。
9.如权利要求8所述的基于人体识别的自动牵引车的控制系统,其特征在于,所述人体细节识别单元包括:
一用户识别组件,用于判断所述独立对象是否满足任一所述控制对象模型的所述用户识别特征;
一第一动作识别组件,与所述用户识别组件连接,用于判断不满足所述用户识别特征的所述独立对象是否满足任一所述控制对象模型的所述人体动作识别特征;
一第二动作识别组件,与所述用户识别组件连接,用于判断满足所述用户识别特征的所述独立对象的动作信息是否满足所述控制对象模型的任一所述人体动作识别特征。
10.如权利要求9所述的基于人体识别的自动牵引车的控制系统,其特征在于,所述第一动作识别组件包括:
一获取坐标块,用于获取所述独立对象的每个所述关节的坐标;
一动作指令块,与所述获取坐标块连接,根据每个所述关节的坐标得到所述独立对象的动作信息;
一人体动作识别块,与所述动作指令块连接,用于判断所述动作信息是否为任一所述控制对象模型的所述人体动作识别特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811435825.0A CN109558835A (zh) | 2018-11-28 | 2018-11-28 | 一种基于人体识别的自动牵引车的控制方法及其系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811435825.0A CN109558835A (zh) | 2018-11-28 | 2018-11-28 | 一种基于人体识别的自动牵引车的控制方法及其系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109558835A true CN109558835A (zh) | 2019-04-02 |
Family
ID=65867807
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811435825.0A Pending CN109558835A (zh) | 2018-11-28 | 2018-11-28 | 一种基于人体识别的自动牵引车的控制方法及其系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109558835A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109460031A (zh) * | 2018-11-28 | 2019-03-12 | 科大智能机器人技术有限公司 | 一种基于人体识别的自动牵引车的跟随系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104463146A (zh) * | 2014-12-30 | 2015-03-25 | 华南师范大学 | 基于近红外tof相机深度信息的姿势识别方法和装置 |
CN105138111A (zh) * | 2015-07-09 | 2015-12-09 | 中山大学 | 一种基于单摄像头的体感交互方法及系统 |
CN106227336A (zh) * | 2016-07-15 | 2016-12-14 | 深圳奥比中光科技有限公司 | 体感映射的建立方法以及建立装置 |
CN108089695A (zh) * | 2016-11-23 | 2018-05-29 | 纳恩博(北京)科技有限公司 | 一种控制可移动设备的方法和装置 |
-
2018
- 2018-11-28 CN CN201811435825.0A patent/CN109558835A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104463146A (zh) * | 2014-12-30 | 2015-03-25 | 华南师范大学 | 基于近红外tof相机深度信息的姿势识别方法和装置 |
CN105138111A (zh) * | 2015-07-09 | 2015-12-09 | 中山大学 | 一种基于单摄像头的体感交互方法及系统 |
CN106227336A (zh) * | 2016-07-15 | 2016-12-14 | 深圳奥比中光科技有限公司 | 体感映射的建立方法以及建立装置 |
CN108089695A (zh) * | 2016-11-23 | 2018-05-29 | 纳恩博(北京)科技有限公司 | 一种控制可移动设备的方法和装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109460031A (zh) * | 2018-11-28 | 2019-03-12 | 科大智能机器人技术有限公司 | 一种基于人体识别的自动牵引车的跟随系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109506658B (zh) | 机器人自主定位方法和系统 | |
JP7341652B2 (ja) | 情報処理装置、情報処理方法、プログラム、およびシステム | |
CN107688391B (zh) | 一种基于单目视觉的手势识别方法和装置 | |
KR101947619B1 (ko) | 모바일 디바이스에서의 slam | |
Schneider et al. | Fusing vision and lidar-synchronization, correction and occlusion reasoning | |
CN110659543B (zh) | 基于手势识别的车辆控制方法、系统及车辆 | |
CN109460031A (zh) | 一种基于人体识别的自动牵引车的跟随系统 | |
JP2022542858A (ja) | ディープネットワークの訓練方法 | |
CN106959691A (zh) | 可移动电子设备和即时定位与地图构建方法 | |
CN114102585B (zh) | 一种物品抓取规划方法及系统 | |
CN103049912A (zh) | 一种基于任意三面体的雷达-相机系统外部参数标定方法 | |
CN110969064B (zh) | 一种基于单目视觉的图像检测方法、装置及存储设备 | |
CN106003036A (zh) | 一种基于双目视觉引导的物体抓取与放置系统 | |
CN110751336B (zh) | 无人载具的避障方法、避障装置及无人载具 | |
CN112070782A (zh) | 识别场景轮廓的方法、装置、计算机可读介质及电子设备 | |
CN105014675A (zh) | 一种狭窄空间智能移动机器人视觉导航系统及方法 | |
CN109035307A (zh) | 基于自然光双目视觉的设定区域目标追踪方法及系统 | |
CN113537047A (zh) | 障碍物检测方法、装置、交通工具及存储介质 | |
CN117152249A (zh) | 基于语义一致性的多无人机协同建图与感知方法及系统 | |
JP2021177144A (ja) | 情報処理装置、情報処理方法及びープログラム | |
Wang et al. | The design of an augmented reality system for urban search and rescue | |
CN109558835A (zh) | 一种基于人体识别的自动牵引车的控制方法及其系统 | |
Shen et al. | A multi-view camera-projector system for object detection and robot-human feedback | |
CN113971801A (zh) | 一种基于四类多模态数据融合的目标多维度检测方法 | |
Christensen et al. | Integrating vision based behaviours with an autonomous robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190402 |
|
RJ01 | Rejection of invention patent application after publication |