CN110348418A - 目标跟踪方法及装置、智能移动设备和存储介质 - Google Patents
目标跟踪方法及装置、智能移动设备和存储介质 Download PDFInfo
- Publication number
- CN110348418A CN110348418A CN201910646696.8A CN201910646696A CN110348418A CN 110348418 A CN110348418 A CN 110348418A CN 201910646696 A CN201910646696 A CN 201910646696A CN 110348418 A CN110348418 A CN 110348418A
- Authority
- CN
- China
- Prior art keywords
- image
- target object
- target
- described image
- deviant
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 85
- 238000003860 storage Methods 0.000 title claims abstract description 26
- 238000001514 detection method Methods 0.000 claims abstract description 80
- 238000012545 processing Methods 0.000 claims abstract description 67
- 235000011034 Rubus glaucus Nutrition 0.000 claims description 27
- 235000009122 Rubus idaeus Nutrition 0.000 claims description 27
- 240000007651 Rubus glaucus Species 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 26
- 238000004590 computer program Methods 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 5
- 230000005055 memory storage Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 20
- 230000033001 locomotion Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 9
- 238000012360 testing method Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 238000007781 pre-processing Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 230000001537 neural effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000009432 framing Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 241001269238 Data Species 0.000 description 2
- 241000406668 Loxodonta cyclotis Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 230000000712 assembly Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- KLDZYURQCUYZBL-UHFFFAOYSA-N 2-[3-[(2-hydroxyphenyl)methylideneamino]propyliminomethyl]phenol Chemical compound OC1=CC=CC=C1C=NCCCN=CC1=CC=CC=C1O KLDZYURQCUYZBL-UHFFFAOYSA-N 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 244000235659 Rubus idaeus Species 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 201000001098 delayed sleep phase syndrome Diseases 0.000 description 1
- 208000033921 delayed sleep phase type circadian rhythm sleep disease Diseases 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005538 encapsulation Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000012092 media component Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/32—Normalisation of the pattern dimensions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
- G06V20/47—Detecting features for summarising video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
本公开涉及一种目标跟踪方法及装置、智能移动设备和存储介质,所述方法包括:获取采集的图像;对所述图像执行目标检测处理,获取所述图像中的目标对象的位置;基于所述目标对象的位置和所述图像的中心位置之间的距离,得到控制智能移动设备控制指令,其中,所述控制指令用于使得所述目标对象的位置位于所述采集的图像的中心,且所述控制指令包括构成所述距离的偏移序列中的偏移值对应的转动指令,所述偏移序列包括至少一个偏移值。本公开实施例可实现目标对象的实时跟踪。
Description
技术领域
本公开涉及计算机视觉技术领域,尤其涉及一种目标跟踪方法及装置、智能移动设备和存储介质。
背景技术
目前,例如遥控车、移动机器人等智能移动设备在各个领域中都有所应用,例如在教育行业,可以通过遥控车作为教学用具。现有的智能移动设备实现目标跟踪时,存在实时性和准确性较差的技术问题。
发明内容
本公开提出了一种目标跟踪的技术方案。
根据本公开的一方面,提供了一种目标跟踪方法,包括:
获取采集的图像;
对所述图像执行目标检测处理,获取所述图像中的目标对象的位置;
基于所述目标对象的位置和所述图像的中心位置之间的距离,得到控制智能移动设备转动的控制指令,其中,所述控制指令用于使得所述目标对象的位置位于所述采集的图像的中心,且所述控制指令包括构成所述距离的偏移序列中的偏移值对应的转动指令,所述偏移序列包括至少一个偏移值。
在一些可能的实施方式中,在对所述图像执行目标检测处理,获取所述图像中的目标对象的位置之前,所述方法还包括对所述图像执行预处理操作,所述预处理操作包括:将所述图像调整成预设规格的灰度图像,以及对所述灰度图像执行归一化处理;
其中,对所述图像执行目标检测处理,获取所述图像中的目标对象的位置,包括:
对所述预处理操作后得到的图像执行目标检测处理,获得所述预处理操作后的图像中所述目标对象的位置;
基于所述预处理操作后的图像中所述目标对象的位置,确定所述图像中所述目标对象的位置。
在一些可能的实施方式中,所述对所述灰度图像执行归一化处理,包括:
确定所述灰度图像中各像素点的像素值的平均值和标准差;
获得所述像素点的像素值与所述平均值之间的差值;
将所述像素点对应的所述差值和所述标准差之间的比值,确定为所述像素点归一化后的像素值。
在一些可能的实施方式中,所述对所述图像执行目标检测处理,获取所述图像中的目标对象的位置,包括:
提取所述图像的图像特征;
对所述图像特征执行分类处理,得到所述图像中的目标对象的位置区域;
将所述位置区域的中心确定为所述目标对象的位置。
在一些可能的实施方式中,所述目标对象包括人脸;
所述对所述图像执行目标检测处理,获取所述目标对象的位置包括:对所述图像执行人脸检测处理,获得所述图像中人脸的位置。
在一些可能的实施方式中,基于所述目标对象的位置和所述图像的中心位置之间,确定针对智能移动设备的控制指令,包括:
基于所述图像中的目标对象的位置与所述图像中心的距离,确定目标偏移量;
基于所述目标偏移量生成多组偏移序列,并且所述偏移序列中的偏移值的加和值为所述目标偏移量;
利用强化学习算法,从所述多组偏移序列中选择出满足要求的偏移序列,并得到所述满足要求的偏移序列对应的转动指令。
在一些可能的实施方式中,利用强化学习算法,从所述多组偏移序列中选择出满足要求的偏移序列,包括:
针对所述多组偏移序列中各偏移值,确定价值表中与所述偏移值对应的最大价值,所述价值表包括偏移值在不同转动指令下对应的价值;
获得所述偏移值对应的奖赏值,并基于所述偏移值对应的所述奖赏值和所述最大价值,确定所述偏移值的最终价值,所述奖赏值为在未执行所述偏移值的最大价值对应的转动指令的情况下,目标对象的位置与图像中心的距离;
将所述多组偏移序列中各偏移值的所述最终价值之和最大的偏移序列,确定为满足要求的偏移序列。
在一些可能的实施方式中,得到所述满足要求的偏移序列对应的控制指令,包括:
基于所述满足要求的偏移序列中各偏移值的最大价值对应的转动指令,确定所述控制指令。
在一些可能的实施方式中,所述方法还包括:
基于所述控制指令驱动所述智能移动设备执行转动。
在一些可能的实施方式中,所述方法还包括:
基于所述目标对象的位置区域,确定控制所述智能移动设备移动的控制指令,其中,
响应于所述目标对象的位置区域对应的面积大于第一阈值,生成控制所述智能移动设备后退的控制指令;
响应于所述目标对象的位置区域对应的面积小于第二阈值,生成控制所述智能移动设备前进的控制指令,所述第一阈值大于第二阈值。
根据本公开的第二方面,提供了一种目标跟踪装置,其包括:
图像采集模块,其用于采集图像;
目标检测模块,其用于对所述图像执行目标检测处理,获取所述图像中的目标对象的位置;
控制模块,其用于基于所述目标对象的位置和所述图像的中心位置之间的距离,得到控制智能移动设备转动的控制指令,其中,所述控制指令用于使得所述目标对象的位置位于所述采集的图像的中心,且所述控制指令包括构成所述距离的偏移序列中的偏移值对应的转动指令,所述偏移序列包括至少一个偏移值。
在一些可能的实施方式中,所述装置还包括预处理模块,其用于对所述图像执行预处理操作,所述预处理操作包括:将所述图像调整成预设规格的灰度图像,以及对所述灰度图像执行归一化处理;
所述目标检测模块还用于对所述预处理操作后得到的图像执行目标检测处理,获得所述预处理操作后的图像中所述目标对象的位置;
基于所述预处理操作后的图像中所述目标对象的位置,确定所述图像中所述目标对象的位置。
在一些可能的实施方式中,所述预处理模块执行所述对所述灰度图像执行归一化处理的步骤包括:
确定所述灰度图像中各像素点的像素值的平均值和标准差;
获得所述像素点的像素值与所述平均值之间的差值;
将所述像素点对应的所述差值和所述标准差之间的比值,确定为所述像素点归一化后的像素值。
在一些可能的实施方式中,所述目标检测模块还用于提取所述图像的图像特征;
对所述图像特征执行分类处理,得到所述图像中的目标对象的位置区域;
将所述位置区域的中心确定为所述目标对象的位置。
在一些可能的实施方式中,所述目标对象包括人脸;
所述目标检测模块还用于对所述图像执行人脸检测处理,获得所述图像中人脸的位置。
在一些可能的实施方式中,所述控制模块还用于基于所述图像中的目标对象的位置与所述图像中心的距离,确定目标偏移量;
基于所述目标偏移量生成多组偏移序列,并且所述偏移序列中的偏移值的加和值为所述目标偏移量;
利用强化学习算法,从所述多组偏移序列中选择出满足要求的偏移序列,并得到所述满足要求的偏移序列对应的转动指令。
在一些可能的实施方式中,所述控制模块还用于针对所述多组偏移序列中各偏移值,确定价值表中与所述偏移值对应的最大价值,所述价值表包括偏移值在不同转动指令下对应的价值;
获得所述偏移值对应的奖赏值,并基于所述偏移值对应的所述奖赏值和所述最大价值,确定所述偏移值的最终价值,所述奖赏值为在未执行所述偏移值的最大价值对应的转动指令的情况下,目标对象的位置与图像中心的距离;
将所述多组偏移序列中各偏移值的所述最终价值之和最大的偏移序列,确定为满足要求的偏移序列。
在一些可能的实施方式中,所述控制模块还用于基于所述满足要求的偏移序列中各偏移值的最大价值对应的转动指令,确定所述控制指令。
在一些可能的实施方式中,所述目标检测模块还用于基于所述目标对象的位置区域,确定控制所述智能移动设备移动的控制指令,其中,
在所述目标对象的位置区域对应的面积大于第一阈值的情况下,生成控制所述智能移动设备后退的控制指令;
在所述目标对象的位置区域对应的面积小于第二阈值的情况下,生成控制所述智能移动设备前进的控制指令,所述第一阈值大于第二阈值。
根据本公开的第三方面,提供了一种智能移动设备,其包括如第二方面所述的目标跟踪装置,以及
所述目标跟踪装置内的目标检测模块集成在树莓派中,通过所述树莓派执行所述图像采集模块采集的图像的目标检测处理,得到所述目标对象的位置;
所述控制模块与所述树莓派连接,并用于根据所述树莓派得到目标对象的位置生成所述控制指令,并根据所述控制指令控制所述智能移动设备转动。
在一些可能的实施方式中,所述树莓派还集成有所述目标跟踪装置的预处理模块以用于对所述图像执行预处理操作,并对所述预处理操作后的图像执行目标检测处理,得到所述图像中目标对象的位置。
在一些可能的实施方式中,所述智能移动设备包括教育机器人。
根据本公开的第四方面,提供了一种智能移动设备,其包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为调用所述存储器存储的指令,以执行第一方面中任意一项所述的方法。
根据本公开的第五方面,提供了一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现第一方面中任意一项所述的方法。
本公开实施例,可以得到采集的图像中目标对象的位置,并根据该目标对象的位置与图像中心之间的距离,得到智能移动设备的控制指令,该控制指令用于控制智能移动设备的转动,得到的控制指令包括至少一个偏移值对应的转动指令,其中各偏移值形成的偏移序列与目标对象和图像中心之间的距离来确定,通过得到的控制指令可以使得转动后的目标对象能够在采集的图像的中心,从而使得目标对象在智能移动设备的跟踪范围内。本公开实施例可以实时的根据目标对象的位置执行目标跟踪,具有更加方便、准确的特点。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本公开。
根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。
图1示出根据本公开实施例的一种目标跟踪方法的流程图;
图2示出根据本公开实施例对图像执行预处理的流程图;
图3示出根据本公开实施例的一种目标跟踪方法中步骤S20的流程图;
图4示出根据本公开实施例的一种目标跟踪方法中步骤S30的流程图;
图5示出根据本公开实施例的一种目标跟踪方法中步骤S303的流程图;
图6示出根据本不公开实施例的一种目标跟踪方法的另一流程图;
图7示出根据本公开实施的一种目标跟踪方法的应用示例图;
图8示出根据本公开实施例的目标检测网络的训练过程示意图;
图9示出根据本公开实施例的目标检测网络的应用过程示意图
图10示出根据本公开实施例的一种目标跟踪装置的框图;
图11示出根据本公开实施例的一种智能移动设备的框图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
另外,为了更好地说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
本公开实施例提供了一种目标跟踪方法,该方法可以应用在任意的具有图像处理功能的智能移动设备中。例如,目标跟踪方法可以应用在移动机器人、遥控车、飞行器等设备中,上述仅为示例性说明,只要能够实现移动的设备均可以采用本公开实施例的目标跟踪方法。在一些可能的实现方式中,该目标跟踪方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。
图1示出根据本公开实施例的一种目标跟踪方法的流程图,如图1所示,所述目标跟踪方法包括:
S10:获取采集的图像;
在一些可能的实施方式中,应用本公开实施例的目标跟踪方法的智能移动设备上可以包括图像采集设备,如摄像头或者照相机等设备。本公开实施例可以通过图像采集设备直接采集图像,或者也可以通过图像采集设备采集视频数据,并对视频数据执行分帧或者选帧处理,得到对应的图像。
S20:对所述图像执行目标检测处理,获取所述图像中的目标对象的位置;
在一些可能的实施方式中,在得到采集的图像的情况下,可以执行采集的图像的目标检测处理,即检测所采集的图像中是否存在目标对象,以及存在目标对象时,目标对象所在的位置。
在一些可能的实施方式中,可以通过神经网络实现该目标检测处理。其中,本公开实施例检测的目标对象可以为任意类型的对象,如可以为人脸,或者其他的待被跟踪的对象,本公开对此不作具体限定。或者,在一些实施例中,目标对象可以为特定已知身份的对象,即本公开实施例可以执行相应类型的对象(如全部的人脸图像)的跟踪,也可以执行某一特定身份的对象(如已知的特定的人脸图像)的跟踪,具体可以根据需求设定,本公开对此不作具体限定。
在一些可能的实施方式中,实现目标检测处理的神经网络可以为卷积神经网络,该神经网络为经过训练能够实现精确的检测出图像中的目标对象的位置的神经网络,神经网络可以为卷积神经网络,神经网络的形式不做限定。
在一个示例中,可以在对图像执行目标检测处理的过程中,对图像执行特征提取获得图像特征,而后对图像特征执行分类处理,得到图像中目标对象的位置区域,基于该位置区域即可以确定目标对象的位置。其中分类处理得到的分类结果可以包括图像中是否存在目标对象的标识,如第一标识或者第二标识,其中第一标识表示当前位置在图像中对应像素点为目标对象,第二标识表示当前位置在图像中对应的像素点不是目标对象,通过第一标识构成的区域即可以确定目标对象在图像中的位置,如可以将该区域的中心位置确定为目标对象的位置。通过上述,在图像中包括目标对象的情况下,可以直接得到目标对象在图像中的位置,例如可以按照坐标的形式表示目标对象的位置。本公开实施例可以将目标对象在图像中的位置区域的中心作为目标对象的位置。另外,在图像中检测不到目标对象的情况下,输出的位置为空。
S30:基于所述目标对象的位置和所述图像的中心位置之间的距离,得到控制智能移动设备转动的控制指令,其中,所述控制指令用于使得所述目标对象的位置位于所述采集的图像的中心,且所述控制指令包括构成所述距离的偏移序列中的偏移值对应的转动指令,所述偏移序列包括至少一个偏移值;
在一些可能的实施方式中,在得到目标对象在图像中的位置的情况下,可以根据该位置控制智能移动设备移动,从而使得目标对象能够位于采集的图像的中心,进而实现目标对象的跟踪。其中,本公开实施例可以根据目标对象在图像中的位置以及图像中心的位置之间的距离,得到控制智能移动设备转动的控制指令,使得所述目标对象的位置能够位于当前采集的图像的中心。其中,控制指令可以包括由至少一个偏移值分别对应的转动指令,其中至少一个偏移值对应的偏移序列能够形成上述目标对象的位置与图像中心位置之间的距离。例如,各偏移值的加和为上述距离值。其中,本公开实施例的距离可以为有向距离(如方向向量),偏移值也可以为方向向量,通过各偏移值对应的方向向量的加和可以得到距离对应的方向向量,即通过各偏移值对应的转动指令可以实现各偏移值的偏移,最终使得目标对象位于当前采集的图像的中心。在目标对象保持不动的情况下,可以从采集当前图像的下一个图像的时刻起,目标对象始终位于采集的图像的中心。如果目标对象存在移动的情况,由于本公开实施例可以快速的针对前一图像中目标对象的位置调整智能移动设备转动,从而使得目标对象在采集的图像中心,即使在目标对象移动的情况下,也可以对目标对象进行跟踪拍摄,使得目标对象在采集的图像的画面中。
在一些可能的实施方式中,本公开实施例可以采用强化学习算法,执行智能移动设备的转动路径的规划,得到使得目标对象位于图像中心的控制指令,该控制指令可以为基于强化学习算法确定的最优移动方案对应的控制指令。在一个示例中,强化学习算法可以为价值学习算法(Q-learning算法)。
通过强化学习算法,对智能移动设备的移动路径进行优化确定,得到在移动时间、移动路径的便捷性、以及智能移动设备的能耗的综合评价最优的移动路径对应的控制指令。
基于上述配置,本公开实施例可以方便且精确的实现对于目标对象的实时跟踪,根据目标对象的位置控制智能移动设备的转动,使得目标对象位于采集的图像的中心。其中可以根据图像中目标对象的位置与图像中心之间的距离,得到智能移动设备的控制指令,该控制指令用于控制智能移动设备的转动,得到的控制指令包括至少一个偏移值对应的转动指令,其中各偏移值形成的偏移序列与目标对象和图像中心之间的距离来确定,通过得到的控制指令可以使得转动后的目标对象能够在采集的图像的中心,从而使得目标对象在智能移动设备的跟踪范围内。本公开实施例可以实时的根据目标对象的位置执行目标跟踪,具有更加方便、准确且提高了智能移动设备的效能的特点。
下面结合附图,对本公开实施例进行详细说明。
如上述实施例所述,本公开实施例可以在采集到图像的情况下,即对该图像执行目标检测处理。本公开实施例中,由于采集的图像的规格、类型等参数可能存在不同,因此,在对图像执行目标检测处理之前还可以对图像执行预处理操作,得到归一化处理的图像。
图2示出根据本公开实施例对图像执行预处理的流程图。其中,如图2所示,在对图像执行目标检测处理,获取所述图像中的目标对象的位置之前,所述方法还包括对所述图像执行预处理操作,所述预处理操作包括:
S11:将所述图像调整成预设规格的灰度图像;
在一些可能的实施方式中,采集的图像可能是彩色图像,或者其他形式的图像,可以将采集的图像转换为预设规格的图像,而后将预设规格的图像转换为灰度图像。或者,也可以首先将采集的图像转换为灰度图像,而后将灰度图像转换为预设规格的形式。其中预设规格可以为640*480,但不作为本公开的具体限定。将彩色图像或者其他形式的图像转换为灰度图像可以基于对像素值的处理进行转换,如可以使得各像素点的像素值除以最大的像素值,基于该结果得到相应的灰度值,上述仅为示例性说明,本公开对该过程不作具体限定。
由于在处理彩色图片或者其他形式的图像时可能会消耗掉大量资源,但是图片的形式对于检测效果影响较小,本公开将图像转换为灰度图像,将图片直接转换灰度图片然后送到网络模型中进行检测工作,可以减少资源的消耗,提高处理速度。
S12:对所述灰度图像执行归一化处理。
在得到灰度图像的情况下,可以对灰度图像执行归一化处理。通过归一化处理可以将图像的像素值归一化到相同的尺度范围内。其中,归一化处理可以包括:确定所述灰度图像中各像素点的像素值的平均值和标准差;获得所述像素点的像素值与所述平均值之间的差值;将每个像素点对应的所述差值和所述标准差之间的比值,确定为所述像素点归一化后的像素值。
本公开实施例中采集的图像可以多个,也可以为一个,在图像为一个的情况下,得到的灰度图像也为一个。则针对该灰度图像中各像素点对应的像素值(灰度值),可以得到各像素点的像素值对应的平均值和标准差。继而可以利用每个像素点与平均值之间的差值和标准差之间的比值,更新该像素点的像素值。
另外,在采集的图像为多个的情况下,可以对应的得到多个灰度图像。通过该多个灰度图像中各像素点的像素值可以确定多个灰度图像的像素值的平均值和标准差。即本公开实施例的均值和标准差可以为针对一个图像的,也可以为针对多个图像的。在得到多个图像的像素点的像素值的平均值和标准差的情况下,可以得到每个图像的每个像素点的像素值与平均值的差值,而后得到差值和平均值之间的比值,利用该比值更新像素点的像素值。
通过上述方式,可以使得灰度图像中各像素点的像素值统一到相同的尺度上,实现采集的图像的归一化处理。
上述为示例性的说明本公开实施例执行预处理的方式,在其他实施例中,也可以通过其他方式执行预处理。例如可以仅执行将图像转换为预设规格,对预设规格的图像执行归一化处理。即本公开实施例也可以执行彩色图像的归一化处理。其中,可以得到彩色图像中每个像素点的各个通道的特征值的平均值和标准差,如可以得到图像的各像素点的R通道的特征值(R值)的平均值和标准差,G通道的特征值(G值)的平均值和标准差,以及B通道的特征值(B值)的平均值和标准差。而后利用相应颜色通道的特征值与平均值的差值和标准差的比值,得到对应的颜色通道的新的特征值。从而得到每个图像的每个像素点对应的颜色通道的更新的特征值,继而得到归一化的图像。
通过对图像执行预处理,可以使得本公开实施适用于不同类型的图像,以及不同尺度的图像,提高本公开实施例的适用性。
在对图像执行预处理之后,也可以对预处理后的图像执行目标检测处理,得到预处理的图像中目标对象的位置,进而基于预处理图像与未预处理的图像中各像素点位置的对应关系,得到目标对象在图像中的位置,即可以根据预处理后的目标对象的位置得到原始采集的图像中目标对象的位置。下述仅以对采集的图像执行目标检测处理为例进行说明,针对预处理后的图像执行目标检测的过程与其相同,在此不做重复说明。
图3示出根据本公开实施例的一种目标跟踪方法中步骤S20的流程图。其中所述对所述图像执行目标检测处理,获取所述图像中的目标对象的位置,包括:
S201:提取所述图像的图像特征;
在一些可能的实施方式中,可以利用首先提取图像的图像特征,例如可以通过卷积处理得到图像特征,如上所述可以通过神经网络实现目标检测处理,其中神经网络可以包括特征提取模块和分类模块,特征提取模块可以包括至少一层卷积层,同时还可以包括池化层。通过特征提取模块可以提取图像的特征。在其他实施例中也可以残差网络的结构执行该特征提取处理的过程,得到图像特征,本公开对此不作具体限定。
S202:对所述图像特征执行分类处理,得到所述图像中的目标对象的位置区域。
在一些可能的实施方式中,可以对图像特征执行分类处理,例如执行分类处理的分类模块可以包括全连接层,通过全连接层得到图像中目标对象的检测结果,即目标对象的位置区域。本公开实施例的目标对象的位置区域可以按照坐标的形式表示,如检测到的目标对象的位置区域对应的检测框的两个顶角的位置坐标,或者,也可以为一个顶点的位置坐标,以及检测框的高度或者宽度。通过上述即可以得到目标对象所在的位置区域。也就是说,本公开实施例分类处理得到的结果可以包括图像中是否存在目标类型的对象,即目标对象,以及目标对象的位置区域。其中可以利用第一标识和第二标识来标识是否存在目标类型的对象,按照坐标的形式表示目标对象所在的位置区域。例如,第一标识可以为1,表示存在目标对象,相反地,第二标识可以为0,表示不存在目标对象,(x1,x2,y1,y2)分别为检测框的两个顶点对应的横纵坐标值。
S303:将所述位置区域的中心确定为所述目标对象的位置。
在一些可能的实施方式中,可以为检测到的目标对象的位置区域的中心位置确定为目标对象的位置。即可以取该目标对象所在的位置区域的四个顶点的坐标值的均值,得到中心位置的坐标,进而将该中心位置的坐标确定为目标对象的位置。
其中,在一个示例中,目标对象可以为人脸,目标检测处理可以为人脸检测处理,即可以检测图像中人脸所在的位置区域,并进一步根据检测到的人脸所在的位置区域的中心得到人脸的位置。继而执行针对人脸的目标跟踪。
通过上述实施方式,本公开实施例可以得到高精度的目标对象的位置,提高目标跟踪的准确度。
另外,在一些可能的实施方式中,本公开实施例可以通过树莓派执行上述预处理以及目标检测处理的过程,树莓派芯片具有较高的可扩展性同时具有较高的处理速度。
在一些可能的实施方式中,可以将得到的关于目标对象的位置等信息传输给智能移动设备的控制端,进而获得控制指令。本公开实施例执行目标对象的检测结果的传输可以按照预设的数据格式进行封装传输。其中检测结果表示目标对象在图像中的位置。其中,该传输的检测结果对应的数据可以为80字节,并且其中可以包括模式标志位、检测结果信息、CRC校验、重传阈值、控制字段以及可选字段。模式标志位可以表示树莓派芯片当前的工作模式、检测结果信息即可以为目标对象的位置、CRC校验位用于安全验证、重传阈值用于表示重传数据的最大次数值,控制字段用于表示期望智能移动设备的工作模式,可选字段为可以附加的信息。
在得到图像中目标对象的位置的情况下,即可以执行智能移动设备的路径规划处理,得到控制智能移动设备的控制指令。图4示出根据本公开实施例的一种目标跟踪方法中步骤S30的流程图。
S301:基于所述图像中的目标对象的位置与所述图像中心的距离,确定目标偏移量;
在一些可能的实施方式中,本公开实施例在执行目标对象的跟踪时,可以保持目标对象的位置位于图像的中心位置,通过该方式实现目标对象的追踪。因此,本公开实施例在得到目标对象的位置的情况下,可以检测该目标对象的位置与图像的中心位置之间的距离,将该距离作为目标偏移量。其中可以通过目标对象的位置的坐标与图像中心位置的坐标之间的欧式距离,作为目标偏移量。其中该距离还可以表示为向量形式,例如可以表示为图像中心位置和目标对象的位置之间的有向向量,即得到的目标偏移量可以包括目标对象的位置和图像中心之间的距离,还可以包括图像中心相对于目标对象的位置的方向。
S302:基于所述目标偏移量生成多组偏移序列,所述偏移序列中包括至少一个偏移值,并且所述偏移序列中的偏移值的加和值为所述目标偏移量;
在一些可能的实施方式中,本公开实施例可以根据得到的目标偏移量生成多组偏移序列,该偏移序列中包括至少一个偏移值,并且该至少一个偏移值的加和为目标偏移量。例如,目标对象的位置为(100,0),图像中心的位置为(50,0),则目标偏移量为x轴上的50。为了实现该目标偏移量,可以生成多个偏移序列,如第一个偏移序列中的偏移值为10,20和20,第二个偏移序列的偏移值可以为10,25和15,其中各偏移值的方向可以均为x轴的正方向。同理,可以得到多组与目标偏移量对应的多组序列。
在一个可能的实施方式中,生成的多组偏移序列中的偏移值的数量可以为设定的,如可以为3,但不作为本公开的具体限定。另外,生成多组偏移序列的方式可以为随机生成的方式。实际中,能够实现目标偏移量的偏移序列中偏移值的组合方式可以包括多种,本公开实施例可以该多种组合方式中随机选择出预设数量的组合方式,即预设数量的偏移序列。
S303:利用强化学习算法,从所述多组偏移序列中选择出满足要求的偏移序列,并得到所述满足要求的偏移序列对应的控制指令。
在一些可能的实施方式中,在得到生成的偏移序列的情况下,则可以利用强化学习算法选择满足要求的偏移序列。其中,可以利用强化学习算法得到偏移序列对应的总价值,将总价值最高的偏移序列确定为满足要求的偏移序列。
图5示出根据本公开实施例的一种目标跟踪方法中步骤S303的流程图。其中,所述利用强化学习算法,从所述多组偏移序列中选择出满足要求的偏移序列,并得到所述满足要求的偏移序列对应的转动指令,可以包括:
S3031:针对所述多组偏移序列中各偏移值,确定价值表中与所述偏移值对应的最大价值,所述价值表包括偏移值在不同转动指令下对应的价值;
在一些可能的实施方式中,强化学习算法可以为价值学习算法(Q-learning算法),对应的价值表(Q-table)可以表示不同的偏移值在不同的转动指令的情况下对应的价值(quality)。转动指令是指控制智能移动设备转动的指令,其中可以包括电机转动角度、电机转速、以及电机转动时间等参数。本公开实施例中的价值表可以为预先经过强化学习得到的价值表,其中价值表的参数可以精确的区分和体现在不同的偏移值的情况下,不同的转动指令对应的价值。例如,表1示出了转动指令至少一部分参数,表2示为价值表的示意表,其中横向的参数a1、a2和a3为不同的转动指令,纵向的参数s1、s2和s3表示不同的偏移值,表格内的参数表示相应的偏移值与相应的转动指令对应的价值。价值可以表示相应偏移值下对应的转动指令的价值,一般数值越大,价值越高,说明通过该指令实现目标跟踪的价值就越高。
表1
动作 | 值 |
电机转速 | 0-1000 |
电机转动角度 | 0-360 |
电机转动时间 | ~ |
电机停止动作 | 保持、中断 |
表2
a1 | a2 | a3 | |
s1 | 1 | 2 | 3 |
s2 | 1 | 1 | 2 |
s3 | 4 | 2 | 1 |
如上述实施例所述,每个偏移序列中可以包括多个偏移值,本公开实施例可以基于价值表确定每个序列中每个偏移值对应的最大的价值。例如针对偏移值s1,最大的价值为3,针对偏移值s2,最大的价值为2,针对偏移值S3,最大的价值为4。上述仅为示例性说明,对于不同的价值表,得到的价值可能不同,本公开对此不作具体限定。
S3032:获得所述偏移值对应的奖赏值,并基于所述偏移值对应的所述奖赏值和所述最大价值,确定所述偏移值的最终价值,其中所述奖赏值为在未执行所述偏移值对应的转动指令的情况下,目标对象的位置与图像中心的距离;
在一些可能的实施方式中,可以获得偏移序列中每个偏移值的奖赏值,其中奖赏值与未执行相应偏移值时目标对象的位置相关。例如对于每个偏移序列的第一个偏移值,在未执行该偏移值对应的转动指令的情况下,目标对象的位置即为图像中目标对象初始检测到的位置。而对于偏移序列中的其他的偏移值,可以基于假定执行了该偏移值之前的偏移值的最大价值对应的转动指令后,目标对象的位置。例如,假设检测到的图像中的目标对象的位置为(100,0),得到的满足条件的偏移序列可以为20,15,15。对于第一个偏移值,可以通过目标对象的位置(100,0)确定该第一个偏移值的奖赏值。对于第二个偏移值,可以确定目标对象的位置为(120,0),此时可以基于该位置确定第二个偏移值的奖赏值,以及在执行第三个偏移值时,可以确定目标对象的位置为(135,0),此时可以基于该位置确定第三个偏移值的奖赏值。
在一个示例中,得到奖赏值的表达式可以为:
R(s,a)=(s(x)-b)2+(s(y)-c)2 公式1
其中,R(s,a)为偏移值s对应的最大价值的转动指令a的奖赏值,即偏移值s对应的奖赏值,s(x)和s(y)分别为未执行偏移值对应的最大价值的转动指令a时的目标对象的位置的横坐标和纵坐标,b和c分别表示图像中心位置的横坐标和纵坐标。
在得到偏移值对应的奖赏值和最大价值的情况下,可以根据偏移值对应的奖赏值和该偏移值对应的最大价值,确定该偏移值的最终价值。例如可以利用奖赏值与最大价值的加权和确定最终价值。其中,本公开实施例确定偏移值的最终价值的表达式可以为:
Q'(s,a)=R(s,a)+r·max{Q(s,a)}·0.2·0.5 公式2
其中,Q'(s,a)为偏移值s对应的最终价值,R(s,a)为偏移值s对应的最大价值的转动指令a的奖赏值,max{Q(s,a)}为偏移值s对应的最大价值。
通过上述方式则可以得到每个偏移值对应的最终价值。
S3033:将所述多组偏移序列中偏移值的所述最终价值之和最大的偏移序列,确定为满足要求的偏移序列。
在一些可能的实施方式中,可以将偏移序列中的各偏移值的最终价值进行加和处理,得到该偏移序列对应的总价值。而后选择总价值最大的偏移序列作为满足要求的偏移序列。
通过上述方式,可以得到总价值最大的偏移序列,该总价值最大即表示偏移序列对应的转动路径对应的转动指令为最优的选择。
在得到满足要求的偏移序列之后,即可以根据该偏移序列中每个偏移值在价值表中对应的最大价值对应的转动指令,组合生成控制指令。而后可以将该控制指令传输给智能移动设备,使得智能移动设备根据该控制指令执行转动操作。
在一些可能的实施方式中,可以根据生成的控制指令控制智能移动设备移动。其中,控制指令中可以包括电机的转动角度、转动方向等参数,或者也可以包括电机转速、电机转动时间、是否停止等控制指令。
本公开实施例可采用差速转向的方式控制移动设备移动,例如智能移动设备可以为智能移动车,其可以包括左右两个驱动轮,本公开实施例可以基于控制指令控制左右两个驱动轮的转速实现转向和移动。驱动轮转速不同时,即使无转向轮或者转向轮不动作,车身也会转动。本公开实施例中,两个驱动轮转速的不同可以通过操作安装在左右半轴上的两个单独的离合器或制动装置来实现。
智能移动设备根据左右驱动轮的不同的转速和转动角度,可以实现不同转动轨迹。不同转动轨迹下,小车采集到的图片不同,然后通过不断优化,调整智能移动车的位置,最终保证目标对象在图像中心,实现目标对象的跟踪。
另外,在本公开的一些实施例中,本公开实施例还可以根据检测到的目标对象的大小来确定智能移动设备的前进或者后退等移动。图6示出根据本不公开实施例的一种目标跟踪方法的另一流程图。其中所述目标跟踪方法还包括:
S41:基于所述目标对象的位置区域,确定控制所述智能移动设备移动的控制指令,其中,可以判断目标对象的位置区域的面积是否在第一阈值和第二阈值之间的范围内。本公开实施例的执行步骤S20的过程中,可以得到目标对象在采集的图像中的位置区域,本不公开实施例可以根据该位置区域的面积对智能移动设备的移动方向进行控制。
其中,可以得到的目标对象的位置区域,确定该位置区域的面积,并比较该面积和第一阈值以及第二阈值。其中第一阈值和第二阈值可以为预设的参考阈值,第一阈值大于第二阈值,本公开对具体数值不作限定。
S42:在所述目标对象的位置区域对应的面积大于第一阈值的情况下,生成控制所述智能移动设备后退的控制指令;
本公开实施例中,在检测到的目标对象的位置区域的面积大于第一阈值,即表明该目标对象与智能移动设备之间的距离较近,此时可以向后移动智能移动设备。其中可以生成控制所述智能移动设备后退的控制指令,直至检测到的目标对象的位置区域的面积小于第一阈值且大于第二阈值。
S43:在所述目标对象的位置区域对应的面积小于第二阈值的情况下,生成控制所述智能移动设备前进的控制指令,所述第一阈值大于第二阈值。
本公开实施例中,在检测到的目标对象的位置区域的面积小于第二阈值,即表明该目标对象与智能移动设备之间的距离较远,此时可以向前移动智能移动设备。其中可以生成控制所述智能移动设备前进的控制指令,直至检测到的目标对象的位置区域的面积小于第一阈值且大于第二阈值。
对应的,智能移动设备可以根据接收到的前进或者后退的控制指令执行前进或者后退操作。
通过上述方式,可以实现根据目标对象的大小控制智能移动设备的移动,保持检测到的目标对象(如人脸)的位置区域对应的面积在第二阈值和第一阈值之间,实现智能移动设备的移动方向的控制。
本公开实施例中的目标跟踪方法的应用主体可以为智能移动设备,或者也可以为安装在智能移动设备中的装置,用以控制智能移动设备的移动。下面以应用本公开实施例的目标跟踪方法的设备为教育机器人,以及目标对象为人脸为例进行说明,以清楚的体现本公开实施例。图7示出根据本公开实施的一种目标跟踪方法的应用示例图。其中,摄像头A与树莓派B连接,用以将摄像头A采集的图像或者视频传输给树莓派B,其中摄像头A和树莓派B可以通过USB端口连接进行数据传输,但该连接方式不作为本公开的限定。而后可以执行下述过程。
一、树莓派图像采集及图像预处理
本公开的应用领域可以为教育背景下的智能机器人,机器人可以实现人脸检测及跟踪功能。其中,树莓派B可以执行图像的处理过程,本公开实施例的树莓派B可以执行图像的预处理以及目标检测处理,树莓派可以集成有目标检测网络。由于通过摄像头采集到图像类型不尽相同,所以在将图像传输给目标检测网络模型之前,树莓派需要对图像数据进行必要的预处理工作。
预处理流程包括以下四个部分:图像分帧,统一图像大小,图像转换为灰度图,以及图像归一化。图像分帧是指将采集到的视频数据分解为一帧帧的图像,然后将图像大小统一到640*480大小范围。由于彩色图像消耗掉大量资源,但是对于检测效果影响较小,本公开忽略颜色特征,将图像直接转换灰度图像然后送到目标检测网络中进行检测工作。最后为了图像处理方便性,将图像进行归一化处理,就是将图像数据的每一维原始数据减去每一维数据的平均值,将结果代替原始数据,然后再将每一维的数据除以每一维数据的标准差,这样就可以将图像数据归一化到相同尺度。
二、基于深度神经网络模型实现人脸检测
输入:摄像头采集得到图片
输出:人脸检测坐标位置
在本公开实施例可以通过目标检测网络执行图像中的人脸识别和检测,即本公开实施例可以利用深度学习技术实现人脸检测技术,其中分为模型训练和模型应用两个阶段,图8示出根据本公开实施例的目标检测网络的训练过程示意图,图9示出根据本公开实施例的目标检测网络的应用过程示意图。
训练过程中,首先采集人脸数据集图片,包括各个年龄、各个地域的人脸图片,并人工标注得到人脸坐标位置,构建人脸数据集,并将该数据集划分为训练集、测试集和验证集三部分。然后构建神经网络模型,网络模型主要分为两部分,前面部分负责通过叠加卷积层和池化层实现特征提取,后面部分通过全连接层实现分类,然后通过一系列梯度优化算法实现模型训练,经过大量迭代训练后,可以得到训练好的模型,用于模型测试。
应用过程中,将经过预处理过的图片送入已经训练好的模型中,经过前向计算后可以输出图片中人脸坐标位置。
三、将检测结果发送至教育机器人EV3
通过上述实施例,可以通过树莓派完成人脸坐标位置检测,然后可以通过根据已经定义好的通信协议规范,可以将该检测结果坐标封装到数据包中。在完成数据封装后,通过串口发送至智能移动设备C中的处理器或者控制器,其中智能移动设备可以为教育机器人EV3,而后智能移动设备可以根据接收到的人脸位置完成后续人脸跟踪。
四、EV3根据人脸位置坐标,进行路径规划
教育机器人EV3接收并解析从树莓派侧发送的数据包,可以得到人脸坐标位置,然后完成路径规划。其中可以采用强化学习算法实现路径规划。强化学习主要包括状态,奖赏和动作因素。其中,状态即每次检测得到的人脸坐标位置,奖赏可以定义为人脸中心距离图片中心的欧式距离,动作即每次执行的电机运动指令,在教育机器人EV3中,可以控制电机动作如表1。通过神经Q-learning算法模型,可以进行路径规划。定义Q函数如下,输入包括状态和动作,返回在特定状态下执行某一动作的奖赏值。
教育机器人的动作集合见表1,状态集合通过人脸坐标,以跟踪效果,即人脸距离图片中心距离作为奖赏函数,通过衡量不同动作的奖赏函数来更新Q值表,最后可以得到最优Q值表对,包含最佳的动作序列,即电机具体执行指令。
五,智能移动设备根据运动指令,实现人脸跟踪
如教育机器人等智能移动设备采用差速转向机制,小车通过控制左右两个驱动轮E1和E2的转速实现转向。驱动轮转速不同时,即使无转向轮或者转向轮不动作,车身也会旋转。驱动轮转速的不同可以通过操作安装在左右半轴上的两个单独的离合器或制动装置来实现。
智能移动设备可以根据左右轮不同的转速和旋转角度,实现不同旋转轨迹。不同旋转轨迹下,小车采集到的图片不同,然后不断优化动作,调整小车位置,最终保证人脸在图片中心,实现人脸跟踪功能。
另外,本公开实施例中的智能移动设备上还可以设置有传感器D,例如距离传感器、触碰传感器等,用于感测智能移动设备周围环境的相关信息,并可以根据感测到的信息控制智能移动设备的工作模式、移动参数等。
上述仅为示例性举例说明,不作为本公开的具体限定。
综上所述,本公开实施例,可以得到采集的图像中目标对象的位置,并根据该目标对象的位置与图像中心之间的距离,得到智能移动设备的控制指令,该控制指令用于调整智能移动设备的转动角度,得到的控制指令包括至少一个偏移值对应的转动指令,其中各偏移值形成的偏移序列与目标对象和图像中心之间的距离来确定,通过得到的控制指令可以使得转动后的目标对象能够在采集的图像的中心,从而使得目标对象在智能移动设备的跟踪范围内。本公开实施例可以实时的根据目标对象的位置执行目标跟踪,具有更加方便、准确且提高了智能移动设备的效能的特点。
另外,本公开实施例可以利用深度学习技术完成人脸检测(利用神经网络实现目标检测),相比于传统的目标检测方法准确性和速度有明显地提升。本公开实施例还可以利用强化学习算法,通过Q-learning技术进行路径规划,可以选取最佳的转动路径。本公开实施例还可以适用于不同场景需求,可扩展性好。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
可以理解,本公开提及的上述各个方法实施例,在不违背原理逻辑的情况下,均可以彼此相互结合形成结合后的实施例,限于篇幅,本公开不再赘述。
此外,本公开还提供了目标跟踪装置、智能移动设备、计算机可读存储介质、程序,上述均可用来实现本公开提供的任一种目标跟踪方法,相应技术方案和描述和参见方法部分的相应记载,不再赘述。
图10示出根据本公开实施例的目标跟踪装置的框图,如图10所示,所述目标跟踪装置包括:
图像采集模块10,其用于采集图像;
目标检测模块20,其用于对所述图像执行目标检测处理,获取所述图像中的目标对象的位置;
控制模块30,其用于基于所述目标对象的位置和所述图像的中心位置之间的距离,得到控制智能移动设备转动的控制指令,其中,所述控制指令用于使得所述目标对象的位置位于所述采集的图像的中心,且所述控制指令包括构成所述距离的偏移序列中的偏移值对应的控制指令,所述偏移序列包括至少一个偏移值。
在一些可能的实施方式中,所述装置还包括预处理模块,其用于对所述图像执行预处理操作,所述预处理操作包括:将所述图像调整成预设规格的灰度图像,以及对所述灰度图像执行归一化处理;
所述目标检测模块还用于对所述预处理操作后得到的图像执行目标检测处理,获得所述预处理操作后的图像中所述目标对象的位置;
基于所述预处理操作后的图像中所述目标对象的位置,确定所述图像中所述目标对象的位置。
在一些可能的实施方式中,所述预处理模块执行所述对所述灰度图像执行归一化处理的步骤包括:
确定所述灰度图像中各像素点的像素值的平均值和标准差;
获得所述像素点的像素值与所述平均值之间的差值;
将所述像素点对应的所述差值和所述标准差之间的比值,确定为所述像素点归一化后的像素值。
在一些可能的实施方式中,所述目标检测模块还用于提取所述图像的图像特征;
对所述图像特征执行分类处理,得到所述图像中的目标对象的位置区域;
将所述位置区域的中心确定为所述目标对象的位置。
在一些可能的实施方式中,所述目标对象包括人脸;
所述目标检测模块还用于对所述图像执行人脸检测处理,获得所述图像中人脸的位置。
在一些可能的实施方式中,所述控制模块还用于基于所述图像中的目标对象的位置与所述图像中心的距离,确定目标偏移量;
基于所述目标偏移量生成多组偏移序列,并且所述偏移序列中的偏移值的加和值为所述目标偏移量;
利用强化学习算法,从所述多组偏移序列中选择出满足要求的偏移序列,并得到所述满足要求的偏移序列对应的控制指令。
在一些可能的实施方式中,所述控制模块还用于针对所述多组偏移序列中各偏移值,确定价值表中与所述偏移值对应的最大价值,所述价值表包括偏移值在不同转动指令下对应的价值;
获得所述偏移值对应的奖赏值,并基于所述偏移值对应的所述奖赏值和所述最大价值,确定所述偏移值的最终价值,所述奖赏值为在未执行所述偏移值的最大价值对应的转动指令的情况下,目标对象的位置与图像中心的距离;
将所述多组偏移序列中各偏移值的所述最终价值之和最大的偏移序列,确定为满足要求的偏移序列。
在一些可能的实施方式中,所述控制模块还用于基于所述满足要求的偏移序列中各偏移值的最大价值对应的转动指令,确定所述控制指令。
在一些可能的实施方式中,所述目标检测模块还用于基于所述目标对象的位置区域,确定控制所述智能移动设备移动的控制指令,其中,
在所述目标对象的位置区域对应的面积大于第一阈值的情况下,生成控制所述智能移动设备后退的控制指令;
在所述目标对象的位置区域对应的面积小于第二阈值的情况下,生成控制所述智能移动设备前进的控制指令,所述第一阈值大于第二阈值。
另外,本公开实施例还提供了一种智能移动设备,该智能移动设备包括上述实施例所述的目标跟踪装置,所述目标跟踪装置内的目标检测网络集成在树莓派中,通过所述树莓派执行所述图像采集模块采集的图像的目标检测处理,得到所述目标对象的位置;
所述控制模块与所述树莓派连接,并用于根据所述树莓派得到目标对象的位置生成所述控制指令,并根据所述控制指令控制所述智能移动设备转动。
在一些可能的实施方式中,所述智能移动设备包括教育机器人。
在一些可能的实施方式中,所述树莓派还集成有所述目标跟踪装置的预处理模块以用于对所述图像执行预处理操作,并对所述预处理操作后的图像执行目标检测处理,得到所述图像中目标对象的位置。
在一些实施例中,本公开实施例提供的装置具有的功能或包含的模块可以用于执行上文方法实施例描述的方法,其具体实现可以参照上文方法实施例的描述,为了简洁,这里不再赘述。
本公开实施例还提出一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述方法。计算机可读存储介质可以是非易失性计算机可读存储介质。
本公开实施例还提出一种智能移动设备,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为上述方法。
图11示出根据本公开实施例的一种智能移动设备的框图。例如,智能移动设备800可以是任意的能够执行图像处理的设备或者能够执行目标跟踪的移动设备。
参照图11,设备800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制设备800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在设备800的操作。这些数据的示例包括用于在设备800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为设备800的各种组件提供电力。电源组件806可以包括电源管理系统,一个或多个电源,及其他与为设备800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述设备800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当设备800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当设备800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为设备800提供各个方面的状态评估。例如,传感器组件814可以检测到设备800的打开/关闭状态,组件的相对定位,例如所述组件为设备800的显示器和小键盘,传感器组件814还可以检测设备800或设备800一个组件的位置改变,用户与设备800接触的存在或不存在,设备800方位或加速/减速和设备800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于设备800和其他设备之间有线或无线方式的通信。设备800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,设备800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器804,上述计算机程序指令可由设备800的处理器820执行以完成上述方法。
本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (10)
1.一种目标跟踪方法,其特征在于,包括:
获取采集的图像;
对所述图像执行目标检测处理,获取所述图像中的目标对象的位置;
基于所述目标对象的位置和所述图像的中心位置之间的距离,得到控制智能移动设备转动的控制指令,其中,所述控制指令用于使得所述目标对象的位置位于所述采集的图像的中心,且所述控制指令包括构成所述距离的偏移序列中的偏移值对应的转动指令,所述偏移序列包括至少一个偏移值。
2.根据权利要求1所述的方法,其特征在于,在对所述图像执行目标检测处理,获取所述图像中的目标对象的位置之前,所述方法还包括对所述图像执行预处理操作,所述预处理操作包括:将所述图像调整成预设规格的灰度图像,以及对所述灰度图像执行归一化处理;
其中,对所述图像执行目标检测处理,获取所述图像中的目标对象的位置,包括:
对所述预处理操作后得到的图像执行目标检测处理,获得所述预处理操作后的图像中所述目标对象的位置;
基于所述预处理操作后的图像中所述目标对象的位置,确定所述图像中所述目标对象的位置。
3.根据权利要求2所述的方法,其特征在于,所述对所述灰度图像执行归一化处理,包括:
确定所述灰度图像中各像素点的像素值的平均值和标准差;
获得所述像素点的像素值与所述平均值之间的差值;
将所述像素点对应的所述差值和所述标准差之间的比值,确定为所述像素点归一化后的像素值。
4.根据权利要求1-3中任意一项所述的方法,其特征在于,所述对所述图像执行目标检测处理,获取所述图像中的目标对象的位置,包括:
提取所述图像的图像特征;
对所述图像特征执行分类处理,得到所述图像中的目标对象的位置区域;
将所述位置区域的中心确定为所述目标对象的位置。
5.根据权利要求1-4中任意一项所述的方法,其特征在于,所述目标对象包括人脸;
所述对所述图像执行目标检测处理,获取所述目标对象的位置包括:对所述图像执行人脸检测处理,获得所述图像中人脸的位置。
6.根据权利要求1-5中任意一项所述的方法,其特征在于,基于所述目标对象的位置和所述图像的中心位置之间,确定针对智能移动设备的控制指令,包括:
基于所述图像中的目标对象的位置与所述图像中心的距离,确定目标偏移量;
基于所述目标偏移量生成多组偏移序列,并且所述偏移序列中的偏移值的加和值为所述目标偏移量;
利用强化学习算法,从所述多组偏移序列中选择出满足要求的偏移序列,并得到所述满足要求的偏移序列对应的转动指令。
7.一种目标跟踪装置,其特征在于,包括:
图像采集模块,其用于采集图像;
目标检测模块,其用于对所述图像执行目标检测处理,获取所述图像中的目标对象的位置;
控制模块,其用于基于所述目标对象的位置和所述图像的中心位置之间的距离,得到控制智能移动设备转动的控制指令,其中,所述控制指令用于使得所述目标对象的位置位于所述采集的图像的中心,且所述控制指令包括构成所述距离的偏移序列中的偏移值对应的转动指令,所述偏移序列包括至少一个偏移值。
8.一种智能移动设备,其特征在于,包括:如权利要求11-19中任意一项所述的目标跟踪装置,
所述目标跟踪装置内的目标检测模块集成在树莓派中,通过所述树莓派执行所述图像采集模块采集的图像的目标检测处理,得到所述目标对象的位置;
所述控制模块与所述树莓派连接,并用于根据所述树莓派得到目标对象的位置生成所述控制指令,并根据所述控制指令控制所述智能移动设备转动。
9.一种智能移动设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为调用所述存储器存储的指令,以执行权利要求1-6中任意一项所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1-6中任意一项所述的方法。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910646696.8A CN110348418B (zh) | 2019-07-17 | 2019-07-17 | 目标跟踪方法及装置、智能移动设备和存储介质 |
KR1020217014152A KR20210072808A (ko) | 2019-07-17 | 2020-05-11 | 타깃 추적 방법 및 장치, 스마트 이동 기기 및 저장 매체 |
JP2021525569A JP2022507145A (ja) | 2019-07-17 | 2020-05-11 | ターゲット追跡方法及び装置、インテリジェント移動機器並びに記憶媒体 |
PCT/CN2020/089620 WO2021008207A1 (zh) | 2019-07-17 | 2020-05-11 | 目标跟踪方法及装置、智能移动设备和存储介质 |
TW109120760A TWI755762B (zh) | 2019-07-17 | 2020-06-19 | 目標跟蹤方法、智慧移動設備和儲存介質 |
TW110149350A TW202215364A (zh) | 2019-07-17 | 2020-06-19 | 目標跟蹤方法、智慧移動設備和儲存介質 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910646696.8A CN110348418B (zh) | 2019-07-17 | 2019-07-17 | 目标跟踪方法及装置、智能移动设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110348418A true CN110348418A (zh) | 2019-10-18 |
CN110348418B CN110348418B (zh) | 2022-03-11 |
Family
ID=68175655
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910646696.8A Active CN110348418B (zh) | 2019-07-17 | 2019-07-17 | 目标跟踪方法及装置、智能移动设备和存储介质 |
Country Status (5)
Country | Link |
---|---|
JP (1) | JP2022507145A (zh) |
KR (1) | KR20210072808A (zh) |
CN (1) | CN110348418B (zh) |
TW (2) | TW202215364A (zh) |
WO (1) | WO2021008207A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112207821A (zh) * | 2020-09-21 | 2021-01-12 | 大连遨游智能科技有限公司 | 视觉机器人的目标搜寻方法及机器人 |
WO2021008207A1 (zh) * | 2019-07-17 | 2021-01-21 | 上海商汤智能科技有限公司 | 目标跟踪方法及装置、智能移动设备和存储介质 |
CN113409220A (zh) * | 2021-06-28 | 2021-09-17 | 展讯通信(天津)有限公司 | 人脸图像处理方法、装置、介质及设备 |
CN115037877A (zh) * | 2022-06-08 | 2022-09-09 | 湖南大学重庆研究院 | 自动跟随方法、装置以及安全监测方法、装置 |
CN117238039A (zh) * | 2023-11-16 | 2023-12-15 | 暗物智能科技(广州)有限公司 | 基于顶视视角的多任务人体行为分析方法及系统 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113139655B (zh) * | 2021-03-31 | 2022-08-19 | 北京大学 | 一种基于强化学习的目标追踪的训练方法、追踪方法 |
CN115250329B (zh) * | 2021-04-28 | 2024-04-19 | 深圳市三诺数字科技有限公司 | 摄像头的控制方法、装置、计算机设备及存储介质 |
CN113625658B (zh) * | 2021-08-17 | 2022-12-06 | 杭州飞钛航空智能装备有限公司 | 偏移信息处理方法、装置、电子设备和制孔机构 |
WO2024092526A1 (zh) * | 2022-11-01 | 2024-05-10 | 深圳市昊一源科技有限公司 | 相机的控制装置以及相机 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1232197A (zh) * | 1998-04-16 | 1999-10-20 | 三星电子株式会社 | 自动跟踪运动目标的方法和装置 |
CN102307297A (zh) * | 2011-09-14 | 2012-01-04 | 镇江江大科茂信息系统有限责任公司 | 一种多方位视频目标跟踪检测的智能监控系统 |
CN102411368A (zh) * | 2011-07-22 | 2012-04-11 | 北京大学 | 机器人的主动视觉人脸跟踪方法和跟踪系统 |
WO2017120336A2 (en) * | 2016-01-05 | 2017-07-13 | Mobileye Vision Technologies Ltd. | Trained navigational system with imposed constraints |
CN107798723A (zh) * | 2016-08-30 | 2018-03-13 | 北京神州泰岳软件股份有限公司 | 一种目标跟踪控制的方法和装置 |
CN109992000A (zh) * | 2019-04-04 | 2019-07-09 | 北京航空航天大学 | 一种基于分层强化学习的多无人机路径协同规划方法及装置 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7430315B2 (en) * | 2004-02-13 | 2008-09-30 | Honda Motor Co. | Face recognition system |
JP3992026B2 (ja) * | 2004-07-09 | 2007-10-17 | 船井電機株式会社 | 自走ロボット |
JP2010176504A (ja) * | 2009-01-30 | 2010-08-12 | Canon Inc | 画像処理装置、画像処理方法及びプログラム |
CN101888479B (zh) * | 2009-05-14 | 2012-05-02 | 汉王科技股份有限公司 | 检测和跟踪目标图像的方法及装置 |
JP2012191265A (ja) * | 2011-03-08 | 2012-10-04 | Nikon Corp | 画像処理装置およびプログラム |
WO2014179745A1 (en) * | 2013-05-02 | 2014-11-06 | Qualcomm Incorporated | Methods for facilitating computer vision application initialization |
CN104751486B (zh) * | 2015-03-20 | 2017-07-11 | 安徽大学 | 一种多ptz相机的运动目标接力跟踪算法 |
JP6680498B2 (ja) * | 2015-09-28 | 2020-04-15 | 株式会社日立システムズ | 自律飛行移動体、ターゲット追跡方法 |
EP3420428B1 (en) * | 2016-02-26 | 2022-03-23 | SZ DJI Technology Co., Ltd. | Systems and methods for visual target tracking |
CN108292141B (zh) * | 2016-03-01 | 2022-07-01 | 深圳市大疆创新科技有限公司 | 用于目标跟踪的方法和系统 |
CN105740644B (zh) * | 2016-03-24 | 2018-04-13 | 苏州大学 | 一种基于模型学习的清洁机器人最优目标路径规划方法 |
US10140719B2 (en) * | 2016-12-22 | 2018-11-27 | TCL Research America Inc. | System and method for enhancing target tracking via detector and tracker fusion for unmanned aerial vehicles |
CN109040574A (zh) * | 2017-06-08 | 2018-12-18 | 北京君正集成电路股份有限公司 | 一种转动摇头机跟踪目标的方法及装置 |
EP3656118A4 (en) * | 2017-07-18 | 2021-03-03 | Hangzhou Taro Positioning Technology Co., Ltd. | INTELLIGENT OBJECT TRACKING |
CN107992099A (zh) * | 2017-12-13 | 2018-05-04 | 福州大学 | 一种基于改进帧差法的目标运动视频跟踪方法及系统 |
CN108549413A (zh) * | 2018-04-27 | 2018-09-18 | 全球能源互联网研究院有限公司 | 一种云台旋转控制方法、装置及无人飞行器 |
CN108806146A (zh) * | 2018-06-06 | 2018-11-13 | 合肥嘉仕诚能源科技有限公司 | 一种安防监控动态目标锁定追踪方法及系统 |
CN110348418B (zh) * | 2019-07-17 | 2022-03-11 | 上海商汤智能科技有限公司 | 目标跟踪方法及装置、智能移动设备和存储介质 |
-
2019
- 2019-07-17 CN CN201910646696.8A patent/CN110348418B/zh active Active
-
2020
- 2020-05-11 JP JP2021525569A patent/JP2022507145A/ja not_active Ceased
- 2020-05-11 KR KR1020217014152A patent/KR20210072808A/ko not_active Application Discontinuation
- 2020-05-11 WO PCT/CN2020/089620 patent/WO2021008207A1/zh active Application Filing
- 2020-06-19 TW TW110149350A patent/TW202215364A/zh unknown
- 2020-06-19 TW TW109120760A patent/TWI755762B/zh active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1232197A (zh) * | 1998-04-16 | 1999-10-20 | 三星电子株式会社 | 自动跟踪运动目标的方法和装置 |
CN102411368A (zh) * | 2011-07-22 | 2012-04-11 | 北京大学 | 机器人的主动视觉人脸跟踪方法和跟踪系统 |
CN102307297A (zh) * | 2011-09-14 | 2012-01-04 | 镇江江大科茂信息系统有限责任公司 | 一种多方位视频目标跟踪检测的智能监控系统 |
WO2017120336A2 (en) * | 2016-01-05 | 2017-07-13 | Mobileye Vision Technologies Ltd. | Trained navigational system with imposed constraints |
CN107798723A (zh) * | 2016-08-30 | 2018-03-13 | 北京神州泰岳软件股份有限公司 | 一种目标跟踪控制的方法和装置 |
CN109992000A (zh) * | 2019-04-04 | 2019-07-09 | 北京航空航天大学 | 一种基于分层强化学习的多无人机路径协同规划方法及装置 |
Non-Patent Citations (1)
Title |
---|
蔚伟: "《基于行为的移动机器人目标跟踪控制》", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021008207A1 (zh) * | 2019-07-17 | 2021-01-21 | 上海商汤智能科技有限公司 | 目标跟踪方法及装置、智能移动设备和存储介质 |
CN112207821A (zh) * | 2020-09-21 | 2021-01-12 | 大连遨游智能科技有限公司 | 视觉机器人的目标搜寻方法及机器人 |
CN112207821B (zh) * | 2020-09-21 | 2021-10-01 | 大连遨游智能科技有限公司 | 视觉机器人的目标搜寻方法及机器人 |
CN113409220A (zh) * | 2021-06-28 | 2021-09-17 | 展讯通信(天津)有限公司 | 人脸图像处理方法、装置、介质及设备 |
CN115037877A (zh) * | 2022-06-08 | 2022-09-09 | 湖南大学重庆研究院 | 自动跟随方法、装置以及安全监测方法、装置 |
CN117238039A (zh) * | 2023-11-16 | 2023-12-15 | 暗物智能科技(广州)有限公司 | 基于顶视视角的多任务人体行为分析方法及系统 |
CN117238039B (zh) * | 2023-11-16 | 2024-03-19 | 暗物智能科技(广州)有限公司 | 基于顶视视角的多任务人体行为分析方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
KR20210072808A (ko) | 2021-06-17 |
CN110348418B (zh) | 2022-03-11 |
JP2022507145A (ja) | 2022-01-18 |
TW202215364A (zh) | 2022-04-16 |
WO2021008207A1 (zh) | 2021-01-21 |
TW202105326A (zh) | 2021-02-01 |
TWI755762B (zh) | 2022-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110348418A (zh) | 目标跟踪方法及装置、智能移动设备和存储介质 | |
WO2021135577A1 (zh) | 音频信号处理方法、装置、电子设备及存储介质 | |
CN109658352A (zh) | 图像信息的优化方法及装置、电子设备和存储介质 | |
CN109816611A (zh) | 视频修复方法及装置、电子设备和存储介质 | |
CN109614876A (zh) | 关键点检测方法及装置、电子设备和存储介质 | |
RU2708027C1 (ru) | Способ передачи движения субъекта из видео на анимированного персонажа | |
CN109815844A (zh) | 目标检测方法及装置、电子设备和存储介质 | |
CN108764069A (zh) | 活体检测方法及装置 | |
CN107798669A (zh) | 图像去雾方法、装置及计算机可读存储介质 | |
CN109087238A (zh) | 图像处理方法和装置、电子设备以及计算机可读存储介质 | |
CN110060215A (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN109272108A (zh) | 基于神经网络算法的移动控制方法、系统和计算机设备 | |
CN107527053A (zh) | 目标检测方法及装置 | |
CN109977868A (zh) | 图像渲染方法及装置、电子设备和存储介质 | |
CN111274910A (zh) | 场景互动方法、装置及电子设备 | |
CN107679483A (zh) | 号牌识别方法及装置 | |
CN109543537A (zh) | 重识别模型增量训练方法及装置、电子设备和存储介质 | |
Vázquez et al. | Maintaining awareness of the focus of attention of a conversation: A robot-centric reinforcement learning approach | |
CN109919300A (zh) | 神经网络训练方法及装置以及图像处理方法及装置 | |
CN106295499A (zh) | 年龄估计方法及装置 | |
CN105117008B (zh) | 操作引导方法及装置、电子设备 | |
CN106875446B (zh) | 相机重定位方法及装置 | |
CN109840917A (zh) | 图像处理方法及装置、网络训练方法及装置 | |
CN109145970A (zh) | 基于图像的问答处理方法和装置、电子设备及存储介质 | |
CN109920016A (zh) | 图像生成方法及装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |