CN109460077B - 一种自动跟踪方法、自动跟踪设备及自动跟踪系统 - Google Patents
一种自动跟踪方法、自动跟踪设备及自动跟踪系统 Download PDFInfo
- Publication number
- CN109460077B CN109460077B CN201811376560.1A CN201811376560A CN109460077B CN 109460077 B CN109460077 B CN 109460077B CN 201811376560 A CN201811376560 A CN 201811376560A CN 109460077 B CN109460077 B CN 109460077B
- Authority
- CN
- China
- Prior art keywords
- depth information
- automatic tracking
- target
- tracked
- information acquisition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D3/00—Control of position or direction
- G05D3/12—Control of position or direction using feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Abstract
本发明实施方式涉及自动跟踪技术领域,特别是涉及一种自动跟踪方法、自动跟踪设备及自动跟踪系统。所述自动跟踪方法应用于自动跟踪系统,所述自动跟踪系统包括自动跟踪设备,所述方法包括:确定待跟踪目标;获取所述待跟踪目标的第一深度信息;确定所述第一深度信息小于预设深度阈值的待跟踪目标为跟踪目标,并对所述跟踪目标进行自动跟踪。通过上述方式,本发明实施方式能够提高确定跟踪目标的准确性,防止自动跟踪的误触发。
Description
技术领域
本发明实施方式涉及自动跟踪技术领域,特别是涉及一种自动跟踪方法、自动跟踪设备及自动跟踪系统。
背景技术
随着新课改的深入,教师课堂教学越来越追求可视化,这种课堂教学的可视化一般通过自动跟踪设备跟踪教师进行录像来实现,从而促成全自动录播跟踪技术的发展。
目前,通常通过图像识别的方法对教师进行识别来实现自动跟踪,但发明人在实现本发明的过程中发现:通过图像识别的方法对教师进行识别时,若显示设备播放视频、ppt或者远程互动,并且显示设备中出现人物时,则容易将显示设备中的人物确定为跟踪目标,造成自动跟踪的误触发。
发明内容
本发明实施方式旨在提供一种自动跟踪方法、自动跟踪设备及自动跟踪系统,能够能够提高确定跟踪目标的准确性,防止自动跟踪的误触发。
为解决上述技术问题,本发明实施方式采用的一个技术方案是:提供一种自动跟踪方法,应用于自动跟踪系统,所述自动跟踪系统包括自动跟踪设备,所述方法包括:
确定待跟踪目标;
获取所述待跟踪目标的第一深度信息;
确定所述第一深度信息小于预设深度阈值的待跟踪目标为跟踪目标,并对所述跟踪目标进行自动跟踪。
可选地,所述确定待跟踪目标包括:
获取前方环境的环境图像;
对所述环境图像进行特征识别来确定待跟踪目标。
可选地,所述获取所述待跟踪目标的第一深度信息具体包括:
获取所述待跟踪目标的第一位置信息;
根据所述第一位置信息获取所述待跟踪目标的第一深度信息。
可选地,所述自动跟踪设备包括深度信息采集单元,所述获取所述待跟踪目标的第一深度信息包括:
通过所述深度信息采集单元获取所述待跟踪目标的第一深度信息。
可选地,所述自动跟踪系统还包括深度信息采集设备,所述深度信息采集设备与所述自动跟踪设备连接,所述获取所述待跟踪目标的第一深度信息包括:
获取所述深度信息采集设备所采集的所述待跟踪目标的第一深度信息。
可选地,所述方法还包括:
确定与所述深度信息采集设备的相对位置。
可选地,所述确定与所述深度信息采集设备的相对位置包括:
获取第一图像,并通过所述深度信息采集设备获取第二图像;
根据预设标定物特征在所述第一图像和所述第二图像中识别标定物;
获取所述第一图像中所识别的标定物的第二位置信息,以及所述第二图像中所识别的标定物的第三位置信息;
根据所述第二位置信息和所述第三位置信息确定与所述深度信息采集设备的相对位置。
可选地,所述根据所述第一位置信息获取所述待跟踪目标的第一深度信息具体包括:
根据所述相对位置和所述第一位置信息获取所述待跟踪目标的第一深度信息。
可选地,所述自动跟踪系统还包括显示设备,所述自动跟踪方法还包括:
获取标定图像,所述标定图像显示于所述显示设备;
获取所述标定图像的第二深度信息,并将所述第二深度信息确定为所述预设深度阈值。
为解决上述技术问题,本发明实施方式采用的另一个技术方案是:提供一种自动跟踪设备,应用于自动跟踪系统,所述自动跟踪设备包括:
一个处理器,以及,
与所述至少一个处理器通信连接的存储器,其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行以上所述的方法。
为解决上述技术问题,本发明实施方式采用的另一个技术方案是:提供一种自动跟踪系统,包括以上所述的自动跟踪设备。
可选地,所述自动跟踪系统还包括:
深度信息采集设备,所述深度信息采集设备与所述自动跟踪设备连接,所述深度信息采集设备用于采集待跟踪目标的第一深度信息。
本发明实施方式的有益效果是:区别于现有技术的情况下,本发明实施方式提供一种自动跟踪方法、自动跟踪设备及自动跟踪系统,所述自动跟踪方法包括:确定待跟踪目标;获取所述待跟踪目标的第一深度信息;确定所述第一深度信息小于预设深度阈值的待跟踪目标为跟踪目标,并对所述跟踪目标进行自动跟踪。由于跟踪目标通常位于显示设备和自动跟踪设备之间,并且显示设备多固定不动,故跟踪目标与自动跟踪设备之间的距离总是小于显示设备与自动跟踪设备之间的距离,于是,通过判断待跟踪目标的第一深度信息是否小于预设深度阈值,就能够将跟踪目标与显示设备中的背景人物区分开,提高确定跟踪目标的准确性,防止自动跟踪的误触发。
附图说明
一个或多个实施方式通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施方式的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1是本发明实施例一提供的一种自动跟踪系统的结构示意图;
图2是待跟踪目标的第一深度信息的示意图;
图3是本发明实施例一提供的一种自动跟踪方法的流程示意图;
图4是图3所示步骤S300的流程示意图;
图5是图3所示步骤S400的流程示意图;
图6是本发明实施例二提供的一种自动跟踪系统的结构示意图;
图7是本发明实施例二提供的一种自动跟踪方法的流程示意图;
图8是图7所示步骤S420的流程示意图;
图9是本发明实施例三提供的一种自动跟踪装置的结构示意图;
图10是本发明实施例四提供的一种自动跟踪设备的硬件结构示意图。
具体实施方式
为使本发明实施方式的目的、技术方案和优点更加清楚,下面将结合本发明实施方式中的附图,对本发明实施方式中的技术方案进行清楚、完整的描述,显然,所描述的实施方式是本发明一部分实施方式,而不是全部的实施方式。基于本发明中的实施方式,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。
需要说明的是,当元件被表述“固定于”另一个元件,它可以直接在另一个元件上、或者其间可以存在一个或多个居中的元件。当一个元件被表述“连接”另一个元件,它可以是直接连接到另一个元件、或者其间可以存在一个或多个居中的元件。本说明书所使用的术语“垂直的”、“水平的”、“左”、“右”以及类似的表述只是为了说明的目的。
此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
实施例一
请参阅图1,是本发明实施方式提供的一种自动跟踪系统的结构示意图,该自动跟踪系统100包括:显示设备10和自动跟踪设备20,自动跟踪设备20设置于显示设备10的显示界面前方。
显示设备10可以为电子白板、电视机、触摸一体机或者投影幕布等能够显示图像的设备,该显示设备10竖直设置,以使得其显示界面垂直于水平面。
自动跟踪设备20则包括自动跟踪单元和深度信息采集单元,自动跟踪单元和深度信息采集单元通信连接。
其中,自动跟踪单元为云台摄像机,能够在水平方向和垂直方向进行转动,用于确定跟踪目标并跟随跟踪目标的移动进行转动,以对跟踪目标进行跟踪拍摄,实现对跟踪目标的自动跟踪。
深度信息采集单元则为深度传感器,其集成于自动跟踪单元,与自动跟踪单元的空间位置相同,但不跟随自动跟踪单元的转动进行转动,该深度信息采集单元用于采集前方环境的深度信息。当自动跟踪单元与深度信息采集单元通信连接时,自动跟踪单元能够从深度信息采集单元获取前方环境的深度信息。
深度信息采集单元包括但不限于深度相机,例如:双目相机、TOF(Time ofFlight,飞行时间)相机、结构光相机等。
当自动跟踪设备20设置于显示设备10的显示界面前方时,自动跟踪单元的镜头朝向显示设备10的显示界面,以使得自动跟踪单元能够拍摄到显示设备10中显示的内容;深度信息采集单元的镜头朝向显示设备10的显示界面并垂直于该显示界面,以使得深度信息采集单元能够采集前方环境的垂直深度信息。
进一步地,该自动跟踪设备20用于执行自动跟踪方法,以提高确定跟踪目标的准确性,能够准确地将跟踪目标与显示设备中的背景人物区分开,防止自动跟踪的误触发。
具体地,该自动跟踪设备20执行自动跟踪方法时,先确定待跟踪目标。
确定待跟踪目标具体包括:自动跟踪设备20通过自动跟踪单元获取前方环境的环境图像后,对所获取的环境图像进行特征识别来确定待跟踪目标。
其中,对环境图像进行特征识别包括对环境图像进行脸部特征识别,或者,对环境图像进行预设动作特征识别。
对环境图像进行脸部特征识别即判断环境图像中是否存在满足脸部特征的特征点。
其中,脸部特征包括眼睛特征、嘴唇特征、鼻子特征等,若在环境图像中提取到满足眼睛特征、嘴唇特征、鼻子特征的特征点,则将提取到满足脸部特征的特征点的对象确定为待跟踪目标。
对环境图像进行预设动作特征识别即判断环境图像中是否存在满足预设动作特征的特征点。
其中,预设动作特征包括站立特征、转身特征、举手特征等,若在环境图像中提取到满足站立特征、转身特征、举手特征中至少一个特征的特征点,则将提取到满足预设动作特征的特征点的对象确定为待跟踪目标。
当然,在一些可替代实施方式中,还能够通过对环境图像进行脸部特征识别和预设动作特征识别来确定待跟踪目标,即判断环境图像中是否同时存在满足脸部特征和预设动作特征的特征点,若在环境图像中提取到满足眼睛特征、嘴唇特征、鼻子特征的特征点同时又提取到满足站立特征、转身特征、举手特征中至少一个特征的特征点,则将提取到满足脸部特征和预设动作特征的特征点的对象确定为待跟踪目标。
进一步地,在确定待跟踪目标后,自动跟踪设备20获取待跟踪目标的第一深度信息,包括:自动跟踪设备20获取待跟踪目标的第一位置信息,并根据所获取的第一位置信息获取待跟踪目标的第一深度信息。
其中,自动跟踪设备20通过深度信息采集单元获取待跟踪目标的第一深度信息,于是,自动跟踪设备20获取待跟踪目标的第一位置信息后,将所获取的第一位置信息发送至深度信息采集单元,以使深度信息采集单元根据第一位置信息获取对应的待跟踪目标的第一深度信息,然后自动跟踪设备20再根据第一位置信息从深度信息采集单元中获取待跟踪目标的第一深度信息。
其中,待跟踪目标的第一位置信息为待跟踪目标相对自动跟踪设备20的角度,其与自动跟踪单元的转动角度以及待跟踪目标在环境图像上的位置相关,自动跟踪设备20能够通过自动跟踪单元的转动角度以及待跟踪目标在环境图像上的位置计算出待跟踪目标的第一位置信息。
比如,在自动跟踪单元水平转动30度后获取的环境图像中确定了待跟踪目标,并且所确定的待跟踪目标位于环境图像的正中,则表示待跟踪目标位于自动跟踪单元的光轴上,此时,自动跟踪设备20能够计算出待跟踪目标的第一位置信息为30度。
由于深度信息采集单元与自动跟踪单元的空间位置相同,待跟踪目标相对自动跟踪单元的角度即待跟踪目标相对深度信息采集单元的角度,故深度信息采集单元根据第一位置信息确定的待跟踪目标即为自动跟踪单元所确定的待跟踪目标,此时,深度信息采集单元根据第一位置信息就能获取到对应的待跟踪目标的第一深度信息。
该第一深度信息为待跟踪目标与深度信息采集单元的垂直距离(如图2所示d)。
进一步地,在获取待跟踪目标的第一深度信息后,自动跟踪设备20确定第一深度信息小于预设深度阈值的待跟踪目标为跟踪目标,并对跟踪目标进行自动跟踪。
其中,预设深度阈值为深度信息采集单元与显示设备10的垂直距离,当自动跟踪设备20和显示设备10固定安装后,预设深度阈值则保持不变,此时,显示于显示设备10中的背景人物与深度信息采集单元的垂直距离也保持不变,而位于显示设备10和自动跟踪设备20之间的跟踪目标与深度信息采集单元的垂直距离则小于预设深度阈值,故能够通过判断待跟踪目标的第一深度信息是否小于预设深度阈值来判断待跟踪目标是否为跟踪目标,以防止自动跟踪设备20将显示设备10中显示的背景人物误判为跟踪目标。
而预设深度阈值能够预先存储于自动跟踪设备20中,也能够通过以下方法确定预设深度阈值:
自动跟踪设备20获取标定图像,然后获取标定图像的第二深度信息,并将该第二深度信息确定为预设深度阈值。
其中,标定图像为输入至显示设备10进行显示的图像,该标定图像包括待跟踪目标。由于标定图像显示于显示设备10,标定图像的位置即为显示设备10的位置,标定图像的深度信息即为显示设备10的深度信息。
当标定图像显示于显示设备10时,自动跟踪设备20的自动跟踪单元获取的环境图像包括显示设备10所显示的标定图像,由于标定图像包括待跟踪目标,故自动跟踪设备20对环境图像进行特征识别时,能够识别出标定图像中的待跟踪目标,此时,自动跟踪设备20获取到标定图像。
然后自动跟踪设备20通过获取标定图像中的待跟踪目标的第四位置信息获取标定图像的位置,将所获取的第四位置信息发送至深度信息采集单元,以使深度信息采集单元根据第四位置信息获取对应的标定图像的第二深度信息,然后自动跟踪设备20再根据第四位置信息从深度信息采集单元中获取标定图像的第二深度信息,该第二深度信息即为显示设备10与深度信息采集单元的垂直距离,将该第二深度信息确定为预设深度阈值。
当然,在一些可替代实施方式中,自动跟踪设备20设置红外感应芯片,在自动跟踪设备20通过自动跟踪单元确定待跟踪目标后,通过红外感应芯片获取待跟踪目标的生命热图,通过判断生命热图是否符合标准人体生命热图来判断待跟踪目标是否为跟踪目标,确定生命热图符合标准人体生命热图的待跟踪目标为跟踪目标。
本发明实施方式提供一种自动跟踪系统,通过在自动跟踪设备设置深度信息采集单元来获取确定的待跟踪目标的第一深度信息,以使得自动跟踪设备能够通过确定第一深度信息小于预设深度阈值的待跟踪目标为跟踪目标,来区分跟踪目标与背景人物,提高了确定跟踪目标的准确性,防止自动跟踪的误触发。
请参阅图3,是本发明实施方式提供的一种自动跟踪方法的流程示意图,应用于上述自动跟踪系统100,本发明实施方式提供的方法由上述自动跟踪设备20执行,用于准确确定跟踪目标,该自动跟踪方法包括:
S100:获取标定图像,所述标定图像显示于所述显示设备。
标定图像为输入至显示设备进行显示的图像,该标定图像包括待跟踪目标。由于标定图像显示于显示设备,标定图像的位置即为显示设备的位置,标定图像的深度信息即为显示设备的深度信息。
当标定图像显示于显示设备时,自动跟踪设备的自动跟踪单元获取的环境图像包括显示设备所显示的标定图像,由于标定图像包括待跟踪目标,故自动跟踪设备对环境图像进行特征识别时,能够识别出标定图像中的待跟踪目标,此时,自动跟踪设备获取到标定图像。
S200:获取所述标定图像的第二深度信息,并将所述第二深度信息确定为所述预设深度阈值。
自动跟踪设备通过获取标定图像中的待跟踪目标的第四位置信息获取标定图像的位置,将所获取的第四位置信息发送至深度信息采集单元,以使深度信息采集单元根据第四位置信息获取对应的标定图像的第二深度信息,然后自动跟踪设备再根据第四位置信息从深度信息采集单元中获取标定图像的第二深度信息,该第二深度信息即为显示设备与深度信息采集单元的垂直距离,将该第二深度信息确定为预设深度阈值。
S300:确定待跟踪目标。
请参阅图4,确定待跟踪目标具体包括:
S310:获取前方环境的环境图像;
S320:对所述环境图像进行特征识别来确定待跟踪目标。
其中,对环境图像进行特征识别包括对环境图像进行脸部特征识别,或者,对环境图像进行预设动作特征识别。
对环境图像进行脸部特征识别即判断环境图像中是否存在满足脸部特征的特征点。
其中,脸部特征包括眼睛特征、嘴唇特征、鼻子特征等,若在环境图像中提取到满足眼睛特征、嘴唇特征、鼻子特征的特征点,则将提取到满足脸部特征的特征点的对象确定为待跟踪目标。
对环境图像进行预设动作特征识别即判断环境图像中是否存在满足预设动作特征的特征点。
其中,预设动作特征包括站立特征、转身特征、举手特征等,若在环境图像中提取到满足站立特征、转身特征、举手特征中至少一个特征的特征点,则将提取到满足预设动作特征的特征点的对象确定为待跟踪目标。
当然,在一些可替代实施方式中,还能够通过对环境图像进行脸部特征识别和预设动作特征识别来确定待跟踪目标,即判断环境图像中是否同时存在满足脸部特征和预设动作特征的特征点,若在环境图像中提取到满足眼睛特征、嘴唇特征、鼻子特征的特征点同时又提取到满足站立特征、转身特征、举手特征中至少一个特征的特征点,则将提取到满足脸部特征和预设动作特征的特征点的对象确定为待跟踪目标。
S400:获取所述待跟踪目标的第一深度信息。
请参阅图5,获取所述待跟踪目标的第一深度信息具体包括:
S410:获取所述待跟踪目标的第一位置信息;
S420:根据所述第一位置信息获取所述待跟踪目标的第一深度信息。
其中,自动跟踪设备通过深度信息采集单元获取待跟踪目标的第一深度信息,于是,自动跟踪设备获取待跟踪目标的第一位置信息后,将所获取的第一位置信息发送至深度信息采集单元,以使深度信息采集单元根据第一位置信息获取对应的待跟踪目标的第一深度信息,然后自动跟踪设备再根据第一位置信息从深度信息采集单元中获取待跟踪目标的第一深度信息。
其中,待跟踪目标的第一位置信息为待跟踪目标相对自动跟踪设备的角度,其与自动跟踪单元的转动角度以及待跟踪目标在环境图像上的位置相关,自动跟踪设备能够通过自动跟踪单元的转动角度以及待跟踪目标在环境图像上的位置计算出待跟踪目标的第一位置信息。
比如,在自动跟踪单元水平转动30度后获取的环境图像中确定了待跟踪目标,并且所确定的待跟踪目标位于环境图像的正中,则表示待跟踪目标位于自动跟踪单元的光轴上,此时,自动跟踪设备能够计算出待跟踪目标的第一位置信息为30度。
由于深度信息采集单元与自动跟踪单元的空间位置相同,待跟踪目标相对自动跟踪单元的角度即待跟踪目标相对深度信息采集单元的角度,故深度信息采集单元根据第一位置信息确定的待跟踪目标即为自动跟踪单元所确定的待跟踪目标,此时,深度信息采集单元根据第一位置信息就能获取到对应的待跟踪目标的第一深度信息。
该第一深度信息为待跟踪目标与深度信息采集单元的垂直距离(如图2所示d)。
S500:确定所述第一深度信息小于预设深度阈值的待跟踪目标为跟踪目标,并对所述跟踪目标进行自动跟踪。
其中,预设深度阈值为深度信息采集单元与显示设备的垂直距离,当自动跟踪设备和显示设备固定安装后,预设深度阈值则保持不变,此时,显示于显示设备中的背景人物与深度信息采集单元的垂直距离也保持不变,而位于显示设备和自动跟踪设备之间的跟踪目标与深度信息采集单元的垂直距离则小于预设深度阈值,故能够通过判断待跟踪目标的第一深度信息是否小于预设深度阈值来判断待跟踪目标是否为跟踪目标,以防止自动跟踪设备将显示设备中显示的背景人物误判为跟踪目标。
当然,在一些可替代实施方式中,自动跟踪设备设置红外感应芯片,在自动跟踪设备通过自动跟踪单元确定待跟踪目标后,通过红外感应芯片获取待跟踪目标的生命热图,通过判断生命热图是否符合标准人体生命热图来判断待跟踪目标是否为跟踪目标,确定生命热图符合标准人体生命热图的待跟踪目标为跟踪目标。
本发明实施方式提供一种自动跟踪方法,通过获取确定的待跟踪目标的第一深度信息,并确定第一深度信息小于预设深度阈值的待跟踪目标为跟踪目标,来区分跟踪目标与背景人物,提高了确定跟踪目标的准确性,防止自动跟踪的误触发。
实施例二
请参阅图6,是本发明实施方式提供的一种自动跟踪系统的结构示意图,该自动跟踪系统100包括:显示设备10、自动跟踪设备20和深度信息采集设备30,自动跟踪设备20和深度信息采集设备30设置于显示设备10的显示界面前方。
显示设备10可以为电子白板、电视机、触摸一体机或者投影幕布等能够显示图像的设备,该显示设备10竖直设置,以使得其显示界面垂直于水平面。
自动跟踪设备20则为云台摄像机,能够在水平方向和垂直方向进行转动,用于确定跟踪目标并跟随跟踪目标的移动进行转动,以对跟踪目标进行跟踪拍摄,实现对跟踪目标的自动跟踪。
当自动跟踪设备20设置于显示设备10的显示界面前方时,自动跟踪设备20的镜头朝向显示设备10的显示界面,以使得自动跟踪设备20能够拍摄到显示设备10中显示的内容。
深度信息采集设备30则为深度传感器,包括但不限于深度相机,例如:双目相机、TOF(Time of Flight,飞行时间)相机、结构光相机等,用于采集前方环境的深度信息。
该深度信息采集设备30与自动跟踪设备20设置于不同位置,并通过有线或无线的方式进行通信连接。
由于深度信息采集设备30与自动跟踪设备20设置于不同位置,使得深度信息采集设备30和自动跟踪设备20之间存在相对位置。
当深度信息采集设备30与自动跟踪设备20通信连接,自动跟踪设备20能够从深度信息采集设备30获取前方环境的深度信息。
当深度信息采集设备30设置于显示设备10的显示界面前方时,深度信息采集设备30的镜头朝向显示设备10的显示界面并垂直于该显示界面,不能进行转动,以使得深度信息采集设备30能够采集前方环境的垂直深度信息。
进一步地,该自动跟踪设备20用于执行自动跟踪方法,以提高确定跟踪目标的准确性,能够准确地将跟踪目标与显示设备中的背景人物区分开,防止自动跟踪的误触发。
具体地,该自动跟踪设备20执行自动跟踪方法时,先确定待跟踪目标。
确定待跟踪目标具体包括:自动跟踪设备20获取前方环境的环境图像后,对所获取的环境图像进行特征识别来确定待跟踪目标。
其中,对环境图像进行特征识别包括对环境图像进行脸部特征识别,或者,对环境图像进行预设动作特征识别。
对环境图像进行脸部特征识别即判断环境图像中是否存在满足脸部特征的特征点。
其中,脸部特征包括眼睛特征、嘴唇特征、鼻子特征等,若在环境图像中提取到满足眼睛特征、嘴唇特征、鼻子特征的特征点,则将提取到满足脸部特征的特征点的对象确定为待跟踪目标。
对环境图像进行预设动作特征识别即判断环境图像中是否存在满足预设动作特征的特征点。
其中,预设动作特征包括站立特征、转身特征、举手特征等,若在环境图像中提取到满足站立特征、转身特征、举手特征中至少一个特征的特征点,则将提取到满足预设动作特征的特征点的对象确定为待跟踪目标。
当然,在一些可替代实施方式中,还能够通过对环境图像进行脸部特征识别和预设动作特征识别来确定待跟踪目标,即判断环境图像中是否同时存在满足脸部特征和预设动作特征的特征点,若在环境图像中提取到满足眼睛特征、嘴唇特征、鼻子特征的特征点同时又提取到满足站立特征、转身特征、举手特征中至少一个特征的特征点,则将提取到满足脸部特征和预设动作特征的特征点的对象确定为待跟踪目标。
进一步地,在确定待跟踪目标后,自动跟踪设备20获取待跟踪目标的第一深度信息,包括:自动跟踪设备20获取待跟踪目标的第一位置信息后,确定与深度信息采集设备30的相对位置,并根据第一位置信息和相对位置获取待跟踪目标的第一深度信息。
其中,自动跟踪设备20获取深度信息采集设备30所采集的待跟踪目标的第一深度信息,故自动跟踪设备20获取待跟踪目标的第一位置信息,并确定与深度信息采集设备30的相对位置后,将第一位置信息和相对位置发送至深度信息采集设备30,以使深度信息采集设备30根据第一位置信息和相对位置获取对应的待跟踪目标的第一深度信息,然后自动跟踪设备20再根据第一位置信息和相对位置从深度信息采集设备30中获取待跟踪目标的第一深度信息。
其中,待跟踪目标的第一位置信息为待跟踪目标相对自动跟踪设备20的角度,其与自动跟踪设备20的转动角度以及待跟踪目标在环境图像上的位置相关,自动跟踪设备20能够根据转动角度以及待跟踪目标在环境图像上的位置计算出待跟踪目标的第一位置信息。
比如,在自动跟踪设备20水平转动30度后获取的环境图像中确定了待跟踪目标,并且所确定的待跟踪目标位于环境图像的正中,则表示待跟踪目标位于自动跟踪设备20的光轴上,此时,自动跟踪设备20能够计算出待跟踪目标的第一位置信息为30度。
由于深度信息采集设备30与自动跟踪设备20之间存在相对位置,若深度信息采集设备30直接根据自动跟踪设备20所获取的第一位置信息获取待跟踪目标的第一深度信息,会使得深度信息采集设备30确定的待跟踪目标与自动跟踪设备20所确定的待跟踪目标不同,造成深度信息采集设备30采集的第一深度信息错误,故自动跟踪设备20将第一位置信息发送给深度信息采集设备30之前,还需要确定与深度信息采集设备30的相对位置,通过第一位置信息和相对位置就能使深度信息采集设备30以自动跟踪设备20的位置作为原点确定待跟踪目标,提高自动跟踪的准确性。
其中,自动跟踪设备20确定与深度信息采集设备30的相对位置具体包括:自动跟踪设备20获取第一图像,并通过深度信息采集设备30获取第二图像,然后根据预设标定物特征在第一图像和第二图像中识别标定物,并获取第一图像中所识别的标定物的第二位置信息以及第二图像中所识别的标定物的第三位置信息,自动跟踪设备20根据第二位置信息和第三位置信息确定与深度信息采集设备30的相对位置。
因为自动跟踪设备20和深度信息采集设备30的位置不同,故在不同位置拍摄同一个标定物的角度不同,使得所拍摄出的图像中标定物的位置存在差异,通过两个图像的标定物之间的位置差异即可计算出自动跟踪设备20和深度信息采集设备30的相对位置。
上述第一深度信息为待跟踪目标与深度信息采集设备30的垂直距离(如图2所示d)。
进一步地,在获取待跟踪目标的第一深度信息后,自动跟踪设备20确定第一深度信息小于预设深度阈值的待跟踪目标为跟踪目标,并对跟踪目标进行自动跟踪。
其中,预设深度阈值为深度信息采集设备30与显示设备10的垂直距离,当深度信息采集设备30和显示设备10固定安装后,预设深度阈值则保持不变,此时,显示于显示设备10中的背景人物与深度信息采集设备30的垂直距离也保持不变,而位于显示设备10和深度信息采集设备30之间的跟踪目标与深度信息采集设备30的垂直距离则小于预设深度阈值,故能够通过判断待跟踪目标的第一深度信息是否小于预设深度阈值来判断待跟踪目标是否为跟踪目标,以防止自动跟踪设备20将显示设备10中显示的背景人物误判为跟踪目标。
而预设深度阈值能够预先存储于自动跟踪设备20中,也能够通过以下方法确定预设深度阈值:
自动跟踪设备20获取标定图像,然后获取标定图像的第二深度信息,并将该第二深度信息确定为预设深度阈值。
其中,标定图像为输入至显示设备10进行显示的图像,该标定图像包括待跟踪目标。由于标定图像显示于显示设备10,标定图像的位置即为显示设备10的位置,标定图像的深度信息即为显示设备10的深度信息。
当标定图像显示于显示设备10时,自动跟踪设备20获取的环境图像包括显示设备10所显示的标定图像,由于标定图像包括待跟踪目标,故自动跟踪设备20对环境图像进行特征识别时,能够识别出标定图像中的待跟踪目标,此时,自动跟踪设备20获取到标定图像。
然后自动跟踪设备20通过获取标定图像中的待跟踪目标的第四位置信息获取标定图像的位置,自动跟踪设备20在确定与深度信息采集设备30的相对位置后,将所获取的第四位置信息以及相对位置发送至深度信息采集设备30,以使深度信息采集设备30根据第四位置信息和相对位置获取对应的标定图像的第二深度信息,然后自动跟踪设备20再根据第四位置信息和相对位置从深度信息采集设备30中获取标定图像的第二深度信息,该第二深度信息即为显示设备10与深度信息采集设备30的垂直距离,将该第二深度信息确定为预设深度阈值。
当然,在一些可替代实施方式中,自动跟踪设备20设置红外感应芯片,在自动跟踪设备20确定待跟踪目标后,通过红外感应芯片获取待跟踪目标的生命热图,通过判断生命热图是否符合标准人体生命热图来判断待跟踪目标是否为跟踪目标,确定生命热图符合标准人体生命热图的待跟踪目标为跟踪目标。
本发明实施方式提供一种自动跟踪系统,通过设置深度信息采集设备来获取确定的待跟踪目标的第一深度信息,以使得自动跟踪设备能够通过确定第一深度信息小于预设深度阈值的待跟踪目标为跟踪目标,来区分跟踪目标与背景人物,提高了确定跟踪目标的准确性,防止自动跟踪的误触发。
请参阅图7,是本发明实施方式提供的一种自动跟踪方法的流程示意图,应用于本发明实施方式所述的自动跟踪系统100,本发明实施方式提供的方法由所述自动跟踪设备20执行,用于准确确定跟踪目标,该自动跟踪方法与实施例一提供的自动跟踪方法相比基本相同,相同内容请参阅实施例一,在此不再一一赘述。
其区别点在于,在本发明实施方式中,步骤S400具体包括:
S410:获取所述待跟踪目标的第一位置信息。
待跟踪目标的第一位置信息为待跟踪目标相对自动跟踪设备的角度,其与自动跟踪设备的转动角度以及待跟踪目标在环境图像上的位置相关,自动跟踪设备能够根据转动角度以及待跟踪目标在环境图像上的位置计算出待跟踪目标的第一位置信息。
比如,在自动跟踪设备水平转动30度后获取的环境图像中确定了待跟踪目标,并且所确定的待跟踪目标位于环境图像的正中,则表示待跟踪目标位于自动跟踪设备的光轴上,此时,自动跟踪设备能够计算出待跟踪目标的第一位置信息为30度。
S420:确定与所述深度信息采集设备的相对位置;
S430:根据所述相对位置和所述第一位置信息获取所述待跟踪目标的第一深度信息。
由于深度信息采集设备与自动跟踪设备之间存在相对位置,若深度信息采集设备直接根据自动跟踪设备所获取的第一位置信息获取待跟踪目标的第一深度信息,会使得深度信息采集设备确定的待跟踪目标与自动跟踪设备所确定的待跟踪目标不同,造成深度信息采集设备采集的第一深度信息错误,故自动跟踪设备将第一位置信息发送给深度信息采集设备之前,还需要确定与深度信息采集设备的相对位置,通过第一位置信息和相对位置就能使深度信息采集设备以自动跟踪设备的位置作为原点确定待跟踪目标,提高自动跟踪的准确性。
请参阅图8,确定与深度信息采集设备的相对位置具体包括:
S421:获取第一图像,并通过所述深度信息采集设备获取第二图像;
S422:根据预设标定物特征在所述第一图像和所述第二图像中识别标定物;
S423:获取所述第一图像中所识别的标定物的第二位置信息,以及所述第二图像中所识别的标定物的第三位置信息;
S424:根据所述第二位置信息和所述第三位置信息确定与所述深度信息采集设备的相对位置。
因为自动跟踪设备和深度信息采集设备的位置不同,故在不同位置拍摄同一个标定物的角度不同,使得所拍摄出的图像中标定物的位置存在差异,通过两个图像的标定物之间的位置差异即可计算出自动跟踪设备和深度信息采集设备的相对位置。
其中,自动跟踪设备获取深度信息采集设备所采集的待跟踪目标的第一深度信息,故自动跟踪设备获取待跟踪目标的第一位置信息,并确定与深度信息采集设备的相对位置后,将第一位置信息和相对位置发送至深度信息采集设备,以使深度信息采集设备根据第一位置信息和相对位置获取对应的待跟踪目标的第一深度信息,然后自动跟踪设备再根据第一位置信息和相对位置从深度信息采集设备中获取待跟踪目标的第一深度信息。
上述第一深度信息为待跟踪目标与深度信息采集设备30的垂直距离(如图2所示d)。
本发明实施方式提供一种自动跟踪方法,通过获取确定的待跟踪目标的第一深度信息,并确定第一深度信息小于预设深度阈值的待跟踪目标为跟踪目标,来区分跟踪目标与背景人物,提高了确定跟踪目标的准确性,防止自动跟踪的误触发。
实施例三
请参阅图9,是本发明实施方式提供的一种自动跟踪装置的结构示意图,应用于自动跟踪系统,该自动跟踪系统为上述实施方式中所述的自动跟踪系统100,本发明实施方式提供的装置各个模块的功能由上述自动跟踪设备20执行,用于准确确定跟踪目标,该自动跟踪装置包括:
第一确定模块200,所述第一确定模块200用于确定待跟踪目标;
获取模块300,所述获取模块300用于获取所述待跟踪目标的第一深度信息;
第二确定模块400,所述第二确定模块400用于确定所述第一深度信息小于预设深度阈值的待跟踪目标为跟踪目标,并对所述跟踪目标进行自动跟踪。
进一步地,所述第一确定模块200具体用于:
获取前方环境的环境图像;
对所述环境图像进行特征识别来确定待跟踪目标。
进一步地,所述获取模块300具体用于:
获取所述待跟踪目标的第一位置信息;
根据所述第一位置信息获取所述待跟踪目标的第一深度信息。
进一步地,所述自动跟踪设备包括深度信息采集单元时,所述获取模块300通过所述深度信息采集单元获取所述待跟踪目标的第一深度信息。
进一步地,所述自动跟踪系统包括深度信息采集设备,所述深度信息采集设备与所述自动跟踪设备连接时,所述获取模块300获取所述深度信息采集设备所采集的所述待跟踪目标的第一深度信息。
此时,所述获取模块300还用于:确定与所述深度信息采集设备的相对位置。
所述获取模块300具体用于:
获取第一图像,并通过所述深度信息采集设备获取第二图像;
根据预设标定物特征在所述第一图像和所述第二图像中识别标定物;
获取所述第一图像中所识别的标定物的第二位置信息,以及所述第二图像中所识别的标定物的第三位置信息;
根据所述第二位置信息和所述第三位置信息确定与所述深度信息采集设备的相对位置。
此时,所述获取模块300根据所述相对位置和所述第一位置信息获取所述待跟踪目标的第一深度信息。
进一步地,所述自动跟踪系统还包括显示设备,则所述获取模块300还用于:
获取标定图像,所述标定图像显示于所述显示设备;
获取所述标定图像的第二深度信息,并将所述第二深度信息确定为所述预设深度阈值。
由于装置实施方式和方法实施方式是基于同一构思,在内容不互相冲突的前提下,装置实施方式的内容可以引用方法实施方式的,在此不再一一赘述。
本发明实施方式提供一种自动跟踪装置,通过获取确定的待跟踪目标的第一深度信息,并确定第一深度信息小于预设深度阈值的待跟踪目标为跟踪目标,来区分跟踪目标与背景人物,提高了确定跟踪目标的准确性,防止自动跟踪的误触发。
实施例四
请参阅图10,是本发明实施方式提供的一种自动跟踪设备的硬件结构示意图,该自动跟踪设备为上述实施方式中所述的自动跟踪设备20,本发明实施方式提供的硬件模块主要集成于自动跟踪设备20中,使得自动跟踪设备能够执行以上实施方式所述的一种自动跟踪方法,还能实现以上实施方式所述的一种自动跟踪装置的各个模块的功能。
如图10所示,该自动跟踪设备20包括:
一个或多个处理器21以及存储器22。其中,图10中以一个处理器21为例。
处理器21和存储器22可以通过总线或者其他方式连接,图10中以通过总线连接为例。
存储器22作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本发明上述实施方式中的一种自动跟踪方法对应的程序指令以及一种自动跟踪装置对应的模块(例如,第一确定模块200、获取模块300和第二确定模块400等)。处理器21通过运行存储在存储器22中的非易失性软件程序、指令以及模块,从而执行一种自动跟踪方法的各种功能应用以及数据处理,即实现上述方法实施方式中的一种自动跟踪方法以及上述装置实施方式的各个模块的功能。
存储器22可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据一种电池健康监测装置的使用所创建的数据等。
所述存储数据区还存储有预设的数据,包括预设深度阈值、预设动作特征、预设标定物特征。
此外,存储器22可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施方式中,存储器22可选包括相对于处理器21远程设置的存储器,这些远程存储器可以通过网络连接至处理器21。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
所述程序指令以及一个或多个模块存储在所述存储器22中,当被所述一个或者多个处理器21执行时,执行上述任意方法实施方式中的一种自动跟踪方法的各个步骤,或者,实现上述任意装置实施方式中的一种自动跟踪装置的各个模块的功能。
上述产品可执行本发明上述实施方式所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施方式中详尽描述的技术细节,可参见本发明上述实施方式所提供的方法。
本发明实施方式还提供了一种非易失性计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个处理器执行,例如图10中的一个处理器21,可使得计算机执行上述任意方法实施方式中的一种自动跟踪方法的各个步骤,或者,实现上述任意装置实施方式中的一种自动跟踪装置的各个模块的功能。
本发明实施方式还提供了一种计算机程序产品,所述计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被一个或多个处理器执行,例如图10中的一个处理器21,可使得计算机执行上述任意方法实施方式中的一种自动跟踪方法的各个步骤,或者,实现上述任意装置实施方式中的一种自动跟踪装置的各个模块的功能。
以上所描述的装置实施方式仅仅是示意性的,其中所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施方式方案的目的。
通过以上的实施方式的描述,本领域普通技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。本领域普通技术人员可以理解实现上述实施方式方法中的全部或部分流程是可以通过计算机程序指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施方法的流程。其中,所述存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(RandomAccessMemory,RAM)等。
以上所述仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (11)
1.一种自动跟踪方法,应用于自动跟踪系统,所述自动跟踪系统包括自动跟踪设备、显示设备、深度信息采集单元或者深度信息采集设备,其特征在于,所述方法包括:
通过所述自动跟踪设备确定待跟踪目标;
获取所述待跟踪目标的第一位置信息,所述第一位置信息为所述待跟踪目标相对所述自动跟踪设备的角度;
根据所述第一位置信息获取所述待跟踪目标的第一深度信息;
确定所述第一深度信息小于预设深度阈值的待跟踪目标为跟踪目标,并对所述跟踪目标进行自动跟踪;
其中,所述根据所述第一位置信息获取所述待跟踪目标的第一深度信息包括:
当所述自动跟踪系统包括所述深度信息采集单元时,所述深度信息采集单元与所述自动跟踪设备的空间位置相同,根据所述第一位置信息获取所述待跟踪目标的第一深度信息,所述第一深度信息为所述待跟踪目标与所述深度信息采集单元的垂直距离,所述预设深度阈值为所述显示设备与所述深度信息采集单元的垂直距离;
当所述自动跟踪系统包括所述深度信息采集设备时,所述深度信息采集设备与所述自动跟踪设备的空间位置不同,根据所述第一位置信息,结合所述深度信息采集设备与所述自动跟踪设备的相对位置,获取所述待跟踪目标的第一深度信息,所述第一深度信息为所述待跟踪目标与所述深度信息采集设备的垂直距离,所述预设深度阈值为所述显示设备与所述深度信息采集设备的垂直距离。
2.根据权利要求1所述的自动跟踪方法,其特征在于,所述确定待跟踪目标包括:
获取前方环境的环境图像;
对所述环境图像进行特征识别来确定待跟踪目标。
3.根据权利要求2所述的自动跟踪方法,其特征在于,当所述自动跟踪系统包括所述深度信息采集单元时,所述根据所述第一位置信息获取所述待跟踪目标的第一深度信息包括:
通过所述深度信息采集单元获取所述待跟踪目标的第一深度信息。
4.根据权利要求2所述的自动跟踪方法,其特征在于,当所述自动跟踪系统包括所述深度信息采集设备时,所述深度信息采集设备与所述自动跟踪设备连接,所述根据所述第一位置信息获取所述待跟踪目标的第一深度信息包括:
获取所述深度信息采集设备所采集的所述待跟踪目标的第一深度信息。
5.根据权利要求4所述的自动跟踪方法,其特征在于,所述方法还包括:
确定所述自动跟踪设备与所述深度信息采集设备的相对位置。
6.根据权利要求5所述的自动跟踪方法,其特征在于,所述确定所述自动跟踪设备与所述深度信息采集设备的相对位置包括:
通过所述自动跟踪设备获取第一图像,并通过所述深度信息采集设备获取第二图像;
根据预设标定物特征在所述第一图像和所述第二图像中识别标定物;
获取所述第一图像中所识别的标定物的第二位置信息,以及所述第二图像中所识别的标定物的第三位置信息;
根据所述第二位置信息和所述第三位置信息确定与所述深度信息采集设备的相对位置。
7.根据权利要求 6所述的自动跟踪方法,其特征在于,所述根据所述第一位置信息获取所述待跟踪目标的第一深度信息具体包括:
若所述深度信息采集设备与所述自动跟踪设备之间存在相对位置,则结合所述相对位置,根据所述第一位置信息获取所述待跟踪目标的第一深度信息。
8.根据权利要求1-7任一项所述的自动跟踪方法,其特征在于,所述自动跟踪方法还包括:
通过所述自动跟踪设备获取标定图像,所述标定图像显示于所述显示设备,所述标定图像包括待跟踪目标的图像;
获取所述标定图像的第二深度信息,并将所述第二深度信息确定为所述预设深度阈值,其中,所述第二深度信息为所述标定图像与所述深度信息采集设备或者所述深度信息采集单元的垂直距离,也即是所述显示设备与所述深度信息采集设备或者所述深度信息采集单元的垂直距离。
9.一种自动跟踪设备,应用于自动跟踪系统,其特征在于,所述自动跟踪设备包括:
至少一个处理器,以及,
与所述处理器通信连接的存储器,其中,
所述存储器存储有可被所述处理器执行的指令,所述指令被所述处理器执行,以使所述处理器能够执行权利要求1-8任意一项所述的方法。
10.一种自动跟踪系统,其特征在于,包括如权利要求9所述的自动跟踪设备。
11.根据权利要求10所述的自动跟踪系统,其特征在于,所述自动跟踪系统还包括:
深度信息采集设备,所述深度信息采集设备与所述自动跟踪设备连接,所述深度信息采集设备用于采集待跟踪目标的第一深度信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811376560.1A CN109460077B (zh) | 2018-11-19 | 2018-11-19 | 一种自动跟踪方法、自动跟踪设备及自动跟踪系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811376560.1A CN109460077B (zh) | 2018-11-19 | 2018-11-19 | 一种自动跟踪方法、自动跟踪设备及自动跟踪系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109460077A CN109460077A (zh) | 2019-03-12 |
CN109460077B true CN109460077B (zh) | 2022-05-17 |
Family
ID=65610912
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811376560.1A Active CN109460077B (zh) | 2018-11-19 | 2018-11-19 | 一种自动跟踪方法、自动跟踪设备及自动跟踪系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109460077B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110211155A (zh) * | 2019-05-30 | 2019-09-06 | 浙江大华技术股份有限公司 | 目标跟踪方法及相关装置 |
CN112180790B (zh) * | 2020-09-29 | 2021-10-08 | 成都新潮传媒集团有限公司 | 一种多媒体设备的节能控制方法、装置及计算机设备 |
Citations (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102096929A (zh) * | 2011-01-30 | 2011-06-15 | 吴柯维 | 一种教学智能录播系统用教师位置检测方法 |
CN102238368A (zh) * | 2010-04-28 | 2011-11-09 | 长春博鸿电子科技公司(普通合伙) | 一种多模式多目一体化智能相机 |
CN102622769A (zh) * | 2012-03-19 | 2012-08-01 | 厦门大学 | 一种在动态场景下以深度为主导线索的多目标跟踪方法 |
CN102663743A (zh) * | 2012-03-23 | 2012-09-12 | 西安电子科技大学 | 一种复杂场景中多摄影机协同的人物追踪方法 |
WO2012141663A1 (en) * | 2011-04-13 | 2012-10-18 | Alptekin Temizel | A method for individual tracking of multiple objects |
CN103024350A (zh) * | 2012-11-13 | 2013-04-03 | 清华大学 | 一种双目ptz视觉系统的主从跟踪方法及应用该方法的系统 |
CN104333748A (zh) * | 2014-11-28 | 2015-02-04 | 广东欧珀移动通信有限公司 | 获取图像主体对象的方法、装置及终端 |
CN105474033A (zh) * | 2013-12-29 | 2016-04-06 | 刘进 | 智能机姿态测定、全景影像生成及目标识别方法 |
CN105744163A (zh) * | 2016-02-23 | 2016-07-06 | 湖南拓视觉信息技术有限公司 | 一种基于深度信息跟踪对焦的摄像机及摄像方法 |
CN105791796A (zh) * | 2014-12-25 | 2016-07-20 | 联想(北京)有限公司 | 图像处理方法和图像处理装置 |
CN105872477A (zh) * | 2016-05-27 | 2016-08-17 | 北京旷视科技有限公司 | 视频监控方法和视频监控系统 |
JP2016162075A (ja) * | 2015-02-27 | 2016-09-05 | Kddi株式会社 | オブジェクト追跡方法、装置およびプログラム |
CN105956586A (zh) * | 2016-07-15 | 2016-09-21 | 瑞胜科信息(深圳)有限公司 | 一种基于tof 3d摄像机的智能跟踪系统 |
CN106097385A (zh) * | 2016-05-31 | 2016-11-09 | 海信集团有限公司 | 一种目标跟踪的方法和装置 |
CN106991688A (zh) * | 2017-03-09 | 2017-07-28 | 广东欧珀移动通信有限公司 | 人体跟踪方法、人体跟踪装置和电子装置 |
CN107251115A (zh) * | 2015-03-23 | 2017-10-13 | 日本电气株式会社 | 信息处理装置、信息处理方法和程序 |
CN107452021A (zh) * | 2016-04-19 | 2017-12-08 | 深圳正谱云教育技术有限公司 | 基于单镜头图像动态识别的摄像机自动跟踪系统及其方法 |
CN107515714A (zh) * | 2017-07-27 | 2017-12-26 | 歌尔股份有限公司 | 一种手指触控识别方法、装置和触控投影设备 |
CN107813310A (zh) * | 2017-11-22 | 2018-03-20 | 浙江优迈德智能装备有限公司 | 一种基于双目视觉多手势机器人控制方法 |
CN108022205A (zh) * | 2016-11-04 | 2018-05-11 | 杭州海康威视数字技术股份有限公司 | 目标跟踪方法、装置及录播系统 |
CN108171791A (zh) * | 2017-12-27 | 2018-06-15 | 清华大学 | 基于多深度摄像机的动态场景实时三维重建方法及装置 |
CN108574822A (zh) * | 2017-03-08 | 2018-09-25 | 华为技术有限公司 | 一种实现目标跟踪的方法、云台摄像机和监控平台 |
CN108629325A (zh) * | 2018-05-11 | 2018-10-09 | 北京旷视科技有限公司 | 物品位置的确定方法、装置及系统 |
CN108810394A (zh) * | 2017-04-28 | 2018-11-13 | 惠忠州 | 一种智能导播的录播系统 |
CN108833776A (zh) * | 2018-06-06 | 2018-11-16 | 合肥思博特软件开发有限公司 | 一种远程教育教师自动识别优化跟踪方法及系统 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6978167B2 (en) * | 2002-07-01 | 2005-12-20 | Claron Technology Inc. | Video pose tracking system and method |
US8320619B2 (en) * | 2009-05-29 | 2012-11-27 | Microsoft Corporation | Systems and methods for tracking a model |
US8867820B2 (en) * | 2009-10-07 | 2014-10-21 | Microsoft Corporation | Systems and methods for removing a background of an image |
JP2011182252A (ja) * | 2010-03-02 | 2011-09-15 | Ricoh Co Ltd | 撮像装置および画像撮影方法 |
KR101305694B1 (ko) * | 2011-10-20 | 2013-09-09 | 엘지이노텍 주식회사 | 목표물을 검출하기 위한 영상 처리 방법, 장치, 사용자 인터페이스를 위한 방법 및 장치 |
TWI516093B (zh) * | 2012-12-22 | 2016-01-01 | 財團法人工業技術研究院 | 影像互動系統、手指位置的偵測方法、立體顯示系統以及立體顯示器的控制方法 |
CN103220543B (zh) * | 2013-04-25 | 2015-03-04 | 同济大学 | 基于kinect的实时3d视频通信系统及其实现方法 |
US10277888B2 (en) * | 2015-01-16 | 2019-04-30 | Qualcomm Incorporated | Depth triggered event feature |
CN105005992B (zh) * | 2015-07-07 | 2016-03-30 | 南京华捷艾米软件科技有限公司 | 一种基于深度图的背景建模和前景提取的方法 |
CN205142389U (zh) * | 2015-09-18 | 2016-04-06 | 南京城市职业学院 | 一种教学录播系统 |
US9852513B2 (en) * | 2016-03-01 | 2017-12-26 | Intel Corporation | Tracking regions of interest across video frames with corresponding depth maps |
CN107507243A (zh) * | 2016-06-14 | 2017-12-22 | 华为技术有限公司 | 一种摄像机参数调整方法、导播摄像机及系统 |
CN105931510A (zh) * | 2016-06-16 | 2016-09-07 | 北京数智源科技股份有限公司 | 同步评录课堂平台及其方法 |
CN206021622U (zh) * | 2016-07-13 | 2017-03-15 | 深圳泰尔智能视控股份有限公司 | 一种教学录播系统 |
CN106375733A (zh) * | 2016-10-26 | 2017-02-01 | 生迪智慧科技有限公司 | 智能监控装置和系统 |
CN108073978A (zh) * | 2016-11-14 | 2018-05-25 | 顾泽苍 | 一种人工智能超深度学习模型的构成方法 |
CN106826815B (zh) * | 2016-12-21 | 2019-05-31 | 江苏物联网研究发展中心 | 基于彩色图像与深度图像的目标物体识别与定位的方法 |
CN106658032B (zh) * | 2017-01-19 | 2020-02-21 | 三峡大学 | 一种多摄像头直播方法及系统 |
CN106919918B (zh) * | 2017-02-27 | 2022-11-29 | 腾讯科技(上海)有限公司 | 一种人脸跟踪方法和装置 |
CN107103384A (zh) * | 2017-04-01 | 2017-08-29 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于三维知识网络的学习者学习轨迹量化方法 |
CN107255468B (zh) * | 2017-05-24 | 2019-11-19 | 纳恩博(北京)科技有限公司 | 目标跟踪方法、目标跟踪设备及计算机存储介质 |
CN107293162A (zh) * | 2017-07-31 | 2017-10-24 | 广东欧珀移动通信有限公司 | 运动教学辅助方法及装置、终端设备 |
CN108538120A (zh) * | 2018-04-19 | 2018-09-14 | 邵阳学院 | 一种理论课课堂双向双线互动教学装置 |
-
2018
- 2018-11-19 CN CN201811376560.1A patent/CN109460077B/zh active Active
Patent Citations (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102238368A (zh) * | 2010-04-28 | 2011-11-09 | 长春博鸿电子科技公司(普通合伙) | 一种多模式多目一体化智能相机 |
CN102096929A (zh) * | 2011-01-30 | 2011-06-15 | 吴柯维 | 一种教学智能录播系统用教师位置检测方法 |
WO2012141663A1 (en) * | 2011-04-13 | 2012-10-18 | Alptekin Temizel | A method for individual tracking of multiple objects |
CN102622769A (zh) * | 2012-03-19 | 2012-08-01 | 厦门大学 | 一种在动态场景下以深度为主导线索的多目标跟踪方法 |
CN102663743A (zh) * | 2012-03-23 | 2012-09-12 | 西安电子科技大学 | 一种复杂场景中多摄影机协同的人物追踪方法 |
CN103024350A (zh) * | 2012-11-13 | 2013-04-03 | 清华大学 | 一种双目ptz视觉系统的主从跟踪方法及应用该方法的系统 |
CN105474033A (zh) * | 2013-12-29 | 2016-04-06 | 刘进 | 智能机姿态测定、全景影像生成及目标识别方法 |
CN104333748A (zh) * | 2014-11-28 | 2015-02-04 | 广东欧珀移动通信有限公司 | 获取图像主体对象的方法、装置及终端 |
CN105791796A (zh) * | 2014-12-25 | 2016-07-20 | 联想(北京)有限公司 | 图像处理方法和图像处理装置 |
JP2016162075A (ja) * | 2015-02-27 | 2016-09-05 | Kddi株式会社 | オブジェクト追跡方法、装置およびプログラム |
CN107251115A (zh) * | 2015-03-23 | 2017-10-13 | 日本电气株式会社 | 信息处理装置、信息处理方法和程序 |
CN105744163A (zh) * | 2016-02-23 | 2016-07-06 | 湖南拓视觉信息技术有限公司 | 一种基于深度信息跟踪对焦的摄像机及摄像方法 |
CN107452021A (zh) * | 2016-04-19 | 2017-12-08 | 深圳正谱云教育技术有限公司 | 基于单镜头图像动态识别的摄像机自动跟踪系统及其方法 |
CN105872477A (zh) * | 2016-05-27 | 2016-08-17 | 北京旷视科技有限公司 | 视频监控方法和视频监控系统 |
CN106097385A (zh) * | 2016-05-31 | 2016-11-09 | 海信集团有限公司 | 一种目标跟踪的方法和装置 |
CN105956586A (zh) * | 2016-07-15 | 2016-09-21 | 瑞胜科信息(深圳)有限公司 | 一种基于tof 3d摄像机的智能跟踪系统 |
CN108022205A (zh) * | 2016-11-04 | 2018-05-11 | 杭州海康威视数字技术股份有限公司 | 目标跟踪方法、装置及录播系统 |
CN108574822A (zh) * | 2017-03-08 | 2018-09-25 | 华为技术有限公司 | 一种实现目标跟踪的方法、云台摄像机和监控平台 |
CN106991688A (zh) * | 2017-03-09 | 2017-07-28 | 广东欧珀移动通信有限公司 | 人体跟踪方法、人体跟踪装置和电子装置 |
CN108810394A (zh) * | 2017-04-28 | 2018-11-13 | 惠忠州 | 一种智能导播的录播系统 |
CN107515714A (zh) * | 2017-07-27 | 2017-12-26 | 歌尔股份有限公司 | 一种手指触控识别方法、装置和触控投影设备 |
CN107813310A (zh) * | 2017-11-22 | 2018-03-20 | 浙江优迈德智能装备有限公司 | 一种基于双目视觉多手势机器人控制方法 |
CN108171791A (zh) * | 2017-12-27 | 2018-06-15 | 清华大学 | 基于多深度摄像机的动态场景实时三维重建方法及装置 |
CN108629325A (zh) * | 2018-05-11 | 2018-10-09 | 北京旷视科技有限公司 | 物品位置的确定方法、装置及系统 |
CN108833776A (zh) * | 2018-06-06 | 2018-11-16 | 合肥思博特软件开发有限公司 | 一种远程教育教师自动识别优化跟踪方法及系统 |
Non-Patent Citations (1)
Title |
---|
录播设备中的图像跟踪系统设计;孙占鹏;《中国优秀硕士学位论文全文数据库信息科技辑》;20180915(第(2018)9期);第I138-200页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109460077A (zh) | 2019-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018107910A1 (zh) | 一种全景视频融合方法及装置 | |
WO2018101247A1 (ja) | 画像認識撮像装置 | |
CN108839016B (zh) | 机器人巡检方法、存储介质、计算机设备及巡检机器人 | |
CN108416285A (zh) | 枪球联动监控方法、装置及计算机可读存储介质 | |
CN109376601B (zh) | 基于高速球的物体跟踪方法、监控服务器、视频监控系统 | |
US20190378294A1 (en) | Stereo camera and height acquisition method thereof and height acquisition system | |
CN104966062B (zh) | 视频监视方法和装置 | |
US10909388B2 (en) | Population density determination from multi-camera sourced imagery | |
US10564250B2 (en) | Device and method for measuring flight data of flying objects using high speed video camera and computer readable recording medium having program for performing the same | |
CN105165004A (zh) | 摄影系统 | |
CN105830426A (zh) | 一种视频生成系统的视频生成方法及装置 | |
KR20150039252A (ko) | 행동 인식 기반의 응용 서비스 제공 장치 및 그 방법 | |
CN112215037B (zh) | 对象追踪方法及装置、电子设备及计算机可读存储介质 | |
CN109460077B (zh) | 一种自动跟踪方法、自动跟踪设备及自动跟踪系统 | |
US20130135446A1 (en) | Street view creating system and method thereof | |
CN109035307B (zh) | 基于自然光双目视觉的设定区域目标追踪方法及系统 | |
EP3462734A1 (en) | Systems and methods for directly accessing video data streams and data between devices in a video surveillance system | |
CN109784028B (zh) | 人脸解锁方法及相关装置 | |
JP6991045B2 (ja) | 画像処理装置、画像処理装置の制御方法 | |
CN109903308B (zh) | 用于获取信息的方法及装置 | |
CN112073640B (zh) | 全景信息采集位姿获取方法及装置、系统 | |
CN116868912A (zh) | 检测动物社交障碍行为的装置及其方法、电子设备、介质 | |
CN106803937B (zh) | 一种具有文本日志的双摄像头视频监控方法、系统和监控装置 | |
CN112640419B (zh) | 跟随方法、可移动平台、设备和存储介质 | |
CN109062220B (zh) | 控制终端运动的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: Room 1005, Sanhang technology building, northwest Polytechnic University, Gaoxin South 9th Road, Yuehai street, Nanshan District, Shenzhen City, Guangdong Province Applicant after: SHENZHEN BOWEI EDUCATION TECHNOLOGY Co.,Ltd. Address before: Room 1005, Sanhang Science and Technology Building, Northwest Polytechnic University, Gaoxin Nanjiu Road, Yuehai Street, Shenzhen, Guangdong 518000 Applicant before: SHENZHEN BOWEI EDUCATION TECHNOLOGY Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |