CN109144043A - 追踪目标物的方法 - Google Patents

追踪目标物的方法 Download PDF

Info

Publication number
CN109144043A
CN109144043A CN201710499219.4A CN201710499219A CN109144043A CN 109144043 A CN109144043 A CN 109144043A CN 201710499219 A CN201710499219 A CN 201710499219A CN 109144043 A CN109144043 A CN 109144043A
Authority
CN
China
Prior art keywords
contrast image
image
sampling particle
robot
particle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710499219.4A
Other languages
English (en)
Inventor
韩佾君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kinpo Electronics Inc
Original Assignee
Kinpo Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kinpo Electronics Inc filed Critical Kinpo Electronics Inc
Priority to CN201710499219.4A priority Critical patent/CN109144043A/zh
Priority to US15/836,441 priority patent/US10399229B2/en
Publication of CN109144043A publication Critical patent/CN109144043A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • G05D1/0236Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0285Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using signals transmitted via a public communication network, e.g. GSM network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开一种追踪目标物的方法,是控制跟随机器人拍摄目标物以获得对比影像,于对比影像决定对应目标物的多个取样粒子,计算各取样粒子的预测位置,朝对应多个预测位置的预测方向移动以跟随目标物,依据基准影像及对比影像之间的差异重新取样,并将对比影像设定为新的该基准影像。最后,重复执行上述步骤,直到停止跟随。本发明可有效提升追踪的分析速度及稳定性,而可有效实现即时跟随,并可使跟随机器人不需配置信号发射器。

Description

追踪目标物的方法
技术领域
本发明涉及方法,尤其涉及追踪目标物的方法。
背景技术
为了省却使用者驾驶操作,目前已有一种可自动跟随使用者的跟随机器人(如购物车机器人或行李箱机器人)被提出。为了实现自动跟随,于进行跟随前,欲跟随的使用者必须穿戴信号发射器(如摄影机、蓝牙收发器或定位器)。接着,现有的跟随机器人分析自信号发射器所收到的信号(如摄影机所拍摄画面、蓝牙收发器的蓝牙信号或定位器的位置信号)以决定使用者的当前位置,依据使用者的当前位置决定跟随方向,并朝跟随方向移动以跟随使用者。
当使用现有的跟随机器人时,由于使用者必须穿戴信号发射器方可实现自动跟随,不仅对使用者造成不便,增加了现有的跟随机器人的制造成本,并额外增添了因信号发射器遗失而无法实现自动跟随的风险。
发明内容
本发明所要解决的技术问题是提供一种追踪目标物的方法,可使用电脑视觉技术来预测目标物的移动方向并实现即时跟随。
为了实现上述目的,本发明提供了一种追踪目标物的方法,用来使一跟随机器人自动跟随一目标物,其特征在于,包括:
a)于该跟随机器人拍摄该目标物以获得一对比影像;
b)于该对比影像决定对应该目标物的多个取样粒子;
c)依据各该取样粒子的一当前位置及一当前速度计算各该取样粒子的一预测位置;
d)控制该跟随机器人朝对应该多个预测位置的一预测方向移动;
e)依据一基准影像及该对比影像之间的差异对该多个取样粒子进行重新取样,并将该对比影像设定为新的该基准影像;及
f)重复执行该步骤a)至该步骤e),直到停止跟随。
优选地,于该步骤a之后,该步骤b之前包括:
g1)依据该基准影像及该对比影像计算一机体偏移;及
g2)依据该机体偏移校正该对比影像。
优选地,该步骤g1)更包括:
g11)取得一静态实体物件的影像于该基准影像中的一基准位置;
g12)识别该静态实体物件的影像于该对比影像中的一对比位置;及
g13)依据该基准位置及该对比位置计算该机体偏移。
优选地,于该步骤a之后,该步骤b之前包括:
h1)对该对比影像执行一高光过滤处理以过滤该对比影像的一高亮度区域;及
h2)对该对比影像执行一阴影过滤除处理以过滤该对比影像的一低亮度区域。
优选地,该步骤c)包括:
c1)将该当前速度加上一随机值以作为新的该当前速度,其中该当前速度的初始值为0;及
c2)依据各该取样粒子的该当前位置、该当前速度及该基准影像及该对比影像之间的一拍摄时间差计算各该取样粒子的该预测位置。
优选地,该步骤e)包括:
e1)比较该基准影像与该对比影像并产生一差异影像;
e2)依据该差异影像计算各该取样粒子属于该目标物的一正确机率;
e3)依据该多个取样粒子的该多个正确机率对该多个取样粒子进行重新取样;及
e4)将该对比影像设定为新的该基准影像。
优选地,该差异影像包括多个差异点像素,该步骤e2)包括:
e21)依据各该取样粒子的该当前位置于该差异影像上设定各该取样粒子的一统计区域;
e22)计算各该统计区域内所有像素的数量以获得一区域像素总量;
e23)计算各该统计区域内该多个差异点像素的数量以获得一区域差异点总量;及
e24)计算该区域差异点总量及该区域像素总量的一比值,并作为该正确机率。
优选地,该步骤e3)包括:
e31)删除该正确机率低的该取样粒子;及
e32)于该正确机率高的该取样粒子的周围增加新的该取样粒子。
优选地,该步骤d)包括:
d1)于该多个取样粒子的该多个预测位置位于该对比影像的左半边时,控制该跟随机器人的一驱动左轮的转速小于该跟随机器人的一驱动右轮的转速;及
d2)于该多个取样粒子的该多个预测位置位于该对比影像的右半边时,控制该跟随机器人的该驱动右轮的转速小于该跟随机器人的该驱动左轮的转速。
优选地,更包括:
i1)经由该跟随机器人的一距离感测模块感测该跟随机器人与该目标物之间的一当前距离;及
i2)于该多个预测位置位于该对比影像的一预设区域时,依据该当前距离控制该跟随机器人加速或减速,以接近或远离该目标物。
本发明的技术效果在于:
本发明可有效提升追踪的分析速度及稳定性,而可有效实现即时跟随,并可使跟随机器人不需配置信号发射器。
以下结合附图和具体实施例对本发明进行详细描述,但不作为对本发明的限定。
附图说明
图1为本发明第一实施例的跟随机器人的架构图;
图2A为本发明第二实施例的跟随机器人的俯视示意图;
图2B为本发明第二实施例的跟随机器人的仰视示意视图;
图3为本发明第一实施例的追踪目标物的方法的流程图;
图4为本发明第二实施例的追踪目标物的方法的部分流程图;
图5为本发明第三实施例的追踪目标物的方法的部分流程图;
图6为本发明第四实施例的追踪目标物的方法的部分流程图;
图7为本发明第五实施例的追踪目标物的方法的部分流程图;
图8为本发明第六实施例的追踪目标物的方法的部分流程图;
图9A为本发明的移动补偿功能的第一示意图;
图9B为本发明的移动补偿功能的第一示意图;
图10为本发明的计算正确机率的示意图;
图11A为本发明的第一张对比影像与取样粒子变化的示意图;
图11B为本发明的第二张对比影像与取样粒子变化的示意图;
图11C为本发明的第三张对比影像与取样粒子变化的示意图;
图11D为本发明的第四张对比影像与取样粒子变化的示意图;
图12A为本发明的第一张对比影像与第二张对比影像的差异影像与取样粒子变化的示意图;
图12B为本发明的第二张对比影像与第三张对比影像的差异影像与取样粒子变化的示意图;
图12C为本发明的第三张对比影像与第四张对比影像的差异影像与取样粒子变化的示意图。
其中,附图标记:
1…跟随机器人
10…控制模块
12…驱动模块
120…左驱动模块
1200…左马达
1202…左皮带
1204…左驱动杆
122…右驱动模块
1220…右马达
1222…右皮带
1224…右驱动杆
140…驱动左轮
1400…左连动杆
142…驱动右轮
1420…右连动杆
144-146…连动轮
16…影像撷取模块
18…人机界面
20…连接模块
22…记忆模块
24…电池模块
26…距离感测模块
28…乘载板
3…外部装置
30…应用程序
40…基准影像
42…对比影像
50、52’…影像
60-66、Q1-Q7…取样粒子
S…机体偏移
S100-S114…追踪目标物步骤
S20-S26…移动补偿及光影过滤步骤
S200-S204…移动补偿步骤
S30-S34…距离控制步骤
S40-S46…速度调整步骤
S50-S54…重新取样步骤
S520-S526…正确机率计算步骤
S540-S542…删减取样粒子步骤
S60-S66…移动控制步骤
具体实施方式
下面结合附图对本发明的结构原理和工作原理作具体的描述:
首请参阅图1,为本发明第一实施例的跟随机器人的架构图。如图所示,本发明揭露了一种跟随机器人1,可经由电脑视觉技术及预测演算法来追踪并预测目标物(如欲跟随的使用者)的移动方向,而可于不需信号发射器的情况下实现即时跟随。
具体而言,当目标物开始移动时,跟随机器人1可依据所拍到的连续影像来追踪目标物的位置,预测目标物欲前往的方向,并自动朝预测的方向移动以即时跟随目标物。
跟随机器人1主要包括控制模块10、驱动模块12、多个驱动轮(图1以驱动左轮140及驱动右轮142为例,但不以此限定驱动轮的数量及配置方式)及影像撷取模块16。
控制模块10电性连接驱动模块12及影像撷取模块16,用以控制跟随机器人1。
驱动模块12连接多个驱动轮,用以于运转时连动多个驱动轮来驱动跟随机器人1移动。
于一实施例中,驱动模块12包括左驱动模块120及右驱动模块122。左驱动模块120连接驱动左轮140并可连动驱动左轮140转动。右驱动模块122连接驱动右轮142并可连动驱动右轮142转动。
影像撷取模块16用以拍摄目标物(如欲追踪的使用者)及其周遭环境。
于一实施例中,影像撷取模块16包括用以产生影像(如后述基准影像或对比影像)信号的影像感测器及用以使可见光照射影像感测器的镜头模块。
于一实施例中,跟随机器人1更包括电性连接控制模块10的人机界面18(如指示灯、蜂鸣器、喇叭、按键或显示器),人机界面18用以接受使用者操作或发出信息。
于一实施例中,跟随机器人1更包括电性连接控制模块10的连接模块20(如Wi-Fi无线模块、蓝牙无线模块或USB有线模块)。连接模块20用以有线或无线连接外部装置3(如使用者的智能手机、平板电脑或穿戴式装置)并进行通讯。更进一步地,外部装置3的非暂态记忆体中储存有应用程序30,当外部装置3执行应用程序30,可与连接模块20自动建立连接。
于一实施例中,跟随机器人1更包括电性连接控制模块10的记忆模块22,记忆模块22用以储存数据(如后述的基准影像及对比影像)。
于一实施例中,跟随机器人1更包括电性连接控制模块10的电池模块24。电池模块24安装在于乘载板(如图2A所示的乘载板28)下,并透过电线提供跟随机器人1的各元件运作所需电力。
于一实施例中,跟随机器人1更包括电性连接控制模块10的距离感测模块26(如超音波感测器、激光测距仪或3D摄影机)。距离感测模块26用以感测跟随机器人与目标物之间的距离。
续请同时参阅图2A及图2B,图2A为本发明第二实施例的跟随机器人的俯视示意图,图2B为本发明第二实施例的跟随机器人的仰视示意视图。
如图所示,本实施例的跟随机器人1为电动滑板,并于正前方设置有影像撷取模块16及距离感测模块26。于本实施例中,跟随机器人1为前驱架构,即驱动左轮140及驱动右轮142设置于前方,用以平衡的二连动轮144-146设置于后方。
于本实施例中,左驱动模块120包括左马达1200、左皮带1202及左驱动杆1204。左驱动轮140包括左连动杆1400。左皮带1202套设于左驱动杆1204及左连动杆1400而可带动左连动杆1400跟随左驱动杆1204转动,使左驱动轮140转动。右驱动模块122包括右马达1220、右皮带1222及右驱动杆1224。右驱动轮142包括右连动杆1420。右皮带1222套设于右驱动杆1224及右连动杆1420而可带动右连动杆1420跟随右驱动杆1224转动,使右驱动轮142转动。
续请参阅图3,为本发明第一实施例的追踪目标物的方法的流程图。本发明各实施例的追踪目标物的方法可由图1至图2B所示的任一跟随机器人1来加以实现。
于图3的实施例中,跟随机器人1的记忆模块22为非暂态电脑可读媒体,并储存有电脑软件,例如为应用程序或固件。前述电脑软件记录有电脑可执行的程序码,当控制模块10执行电脑软件后,可控制跟随机器人1执行本发明各实施例的追踪目标物的方法的各步骤。
本实施例的追踪目标物的方法包括以下步骤。
步骤S100:控制模块10控制跟随机器人1进入自动跟随模式以开始跟随目标物。于一实施例中,控制模块10是于经由人机界面18接受使用者的跟随操作或经由连接模块20自外部装置3接收跟随指令时,控制跟随机器人1进入自动跟随模式
步骤S102:控制模块10经由影像撷取模块16拍摄目标物以获得一张对比影像(如第一张对比影像)。
于一实施例中,本发明是假设目标物持续位于跟随机器人1正前方。于此假设下,影像撷取模块16不须额外执行目标物识别并依识别结果来变换取景角度及镜头焦段,即可以固定的取景角度及镜头焦段直接对跟随机器人1正前方的场景进行拍摄,而使所获得的对比影像包括目标物的影像。
步骤S104:控制模块10于所拍摄的对比影像中决定对应目标物的多个取样粒子(如3000个取样粒子,取样粒子的数量可依使用者需求或对比影像的尺寸任意调整)。
值得一提的是,前述取样粒子是本发明为了于所拍摄的对比影像中追踪目标物而定义的虚拟粒子,各取样粒子是对应影像中的特定实体物件(如使用者、桌脚、宠物或其他实体物件)的部分。因此,相同的取样粒子于不同张对比影像中的位置可能相同(实体物件未移动)或不同(实体物件移动)。并且,各取样粒子的尺寸可为一或多个像素,不加以限定。
于一实施例中,于第一次决定取样粒子(如当前的对比影像是第一张对比影像)时,控制模块10是对对比影像执行目标物识别处理以于对比影像中识别出目标物的影像。接着,控制模块10于所识别的目标物的影像的内部或边缘设定多个取样粒子。藉此,初次决定的多个取样粒子便可准确对应目标物的影像,而可有效提升自动跟随初期的预测方向的准确度。
于一实施例中,于第一次决定取样粒子时,控制模块10是于对比影像中乱数决定多个位置并设定为多个取样粒子的位置。由于不须执行目标物识别处理,本发明可有效提升自动跟随初期的执行速度。
于一实施例中,于第二次(含)以后决定取样粒子时,控制模块10是将各取样粒子前次的预测位置(即步骤S106所计算的预测位置)作为各取样粒子的当前位置。
步骤S106:控制模块10依据各取样粒子于当前的对比影像的当前位置及当前速度计算各取样粒子于下一张对比影像的预测位置。
于一实施例中,各取样粒子可使用一组状态向量来加以表示。举例来说,第i个取样粒子的状态向量为[xi,vi],其中xi表示各取样粒子于对比影像中的位置,其可以坐标(xi,yi)表示,vi为各取样粒子的当前速度,其可以速度分量(vxi,vyi)表示。
于一实施例中,控制模块10是依据下列式(一)来计算各取样粒子的预测位置。
xt+1=xt+(vt+a)Δt………………………………式(一)
其中,xt+1为各取样粒子于下一张对比影像的预测位置;xt为各取样粒子于当前的对比影像的当前位置;vt为各取样粒子的当前速度;a为各取样粒子的加速度;Δt为当前的对比影像与下一张对比影像的拍摄时间差。
举例来说,若影像撷取模块16是以30FPS(frames per second,即每秒拍摄30张影像)的速度撷取对比影像(即Δt为1/30)。取样粒子于第一张对比影像的位置xt为(3,3),当前速度vt为(0,0),加速度为(60,0),则此取样粒子于第一张对比影像的位置xt+1为(5,3)。
藉此,本发明可有效计算出各取样粒子于下一张对比影像的预测位置。
步骤S108:控制模块10依据所算出的各取样粒子的预测位置决定对应的预测方向,并控制跟随机器人1的驱动模块12朝所决定的预测方向移动。
步骤S110:控制模块10对多个取样粒子进行重新取样,以淘汰所对应的实体物件并非目标物的取样粒子,进而提升后续决定的预测方向的精确度。具体而言,控制模块10自记忆模块22读取一张先前拍摄的基准影像,比较基准影像与当前的对比影像的差异,再依据差异对多个取样粒子进行重新取样。
于一实施例中,控制模块10仅会对部分的取样粒子(如仅对100个取样粒子进行重新取样)进行重新取样。举例来说,控制模块10可依据两张影像的差异判断并删除所对应的实体物件并非目标物的取样粒子,并随机或依据预设规则新增新的取样粒子。
于一实施例中,于每次重新取样时,控制模块10是删除预设数量的取样粒子,并新增相同的预设数量的新的取样粒子。藉此,本发明可使取样粒子的数量维持定值(如3000个),由于计算预测位置的所需时间与取样粒子的数量有关,本发明经由令取样粒子的数量维持定值可使计算预测位置的所需时间维持稳定。
步骤S112:控制模块10将当前的对比影像设定为新的基准影像并储存于记忆体22。藉此,后续的重新取样处理是依据拍摄时间或拍摄顺相近的两张影像的差异进行重新取样。
步骤S114:控制模块10判断是否停止跟随,即跟随机器人1是否离开自动跟随模式。于一实施例中,控制模块10是于经由人机界面18接受使用者的停止跟随操作或经由连接模块20自外部装置3接收停止跟随指令时,控制跟随机器人1离开自动跟随模式。
若控制模块10判断尚未停止跟随,则再次执行步骤S102至步骤S112以拍摄新的对比影像(如第二张对比影像)并依据新的对比影像执行自动跟随。
经由依据取样粒子的预测位置及依据影像差异进行重新取样,本发明可有效提升追踪目标物的分析速度及稳定性。
经由拍摄对比影像并依据取样粒子的预测位置控制跟随机器人1移动,本发明可有效实现即时跟随,并可使跟随机器人不需配置信号发射器。
续请同时参阅图3及图4,图4为本发明第二实施例的追踪目标物的方法的部分流程图。于图4的实施例中,控制模块10可对所拍摄的对比影像进行预处理以降低机体偏移及极端亮度所造成的影响,而使依据预处理后的对比影像所决定的预测方向具有更高的精确度。相较于图3的实施例,图4的实施例于步骤S102及步骤S104之间更包括以下步骤。
由于跟随机器人1于拍摄各对比影像期间是持续移动以跟随目标物,形成基准影像与对比影像之间的差异的原因有二,其一为目标物(及环境中其他实体物件)移动而改变其于影像撷取模块16的取景画面中的位置,另一为跟随机器人1移动而导致影像撷取模块16的取景画面偏移。为避免后者影响所决定的预测方向的精确度,本发明提出了一种移动补偿功能(步骤S20至步骤S22),可计算前述取景画面偏移量并进行影像补偿。
步骤S20:控制模块10依据基准影像及当前的对比影像计算影像撷取模块16的机体偏移。
请一并参考图9A及图9B,图9A为本发明的移动补偿功能的第一示意图,图9B为本发明的移动补偿功能的第一示意图。于一实施例中,步骤S20更包括以下步骤。
步骤S200:控制模块10取得静态实体物件(如书桌、椅子、柜子、建物或位置固定的实体物件)的影像于基准影像中的基准位置。
举例来说,如图9A所示,控制模块10可对基准影像40执行影像辨识处理以于基准影像40中识别静态实体物件(以书桌为例)的影像50,并记录影像50的位置。
步骤S202:控制模块10识别相同的静态实体物件的影像于对比影像中的对比位置。
举例来说,如图9B所示,控制模块10可对当前的对比影像42执行影像辨识处理以于对比影像42中识别相同的书桌的影像50’,并记录影像50’的位置。
步骤S204:控制模块10依据静态实体物件的影像于基准影像中的基准位置及静态实体物件的影像于对比影像中的对比位置计算影像撷取模块16的机体偏移。
举例来说,如图9A及图9B所示,控制模块10依据影像50的位置及影像50’的位置计算机体偏移S。
步骤S22:控制模块10依据所算出的机体偏移校正当前的对比影像。
于一实施例中,控制模块10是依据所算出的机体偏移对对比影像执行影像偏移(shift)处理或影像旋转(rotate)处理以使静态实体物件的影像于处理后的对比影像的位置与于基准影像的位置相符。
本发明可有效实现移动补偿功能,并提升预测方向的精确度。
本发明更提出了一种极端亮度滤除功能(步骤S24至步骤S26),可滤除对比影像中高亮度(如高光,glaze)的区域及低亮度(如阴影,shadow)的区域。
步骤S24:控制模块10对对比影像执行高光过滤处理以过滤对比影像的高亮度区域。
于一实施例中,控制模块10是滤除对比影像中像素值大于高光预设值(以8位元灰阶影像为例,高光预设值可为200)的像素。
步骤S26:控制模块10对对比影像执行阴影过滤除处理以过滤对比影像的低亮度区域。
于一实施例中,控制模块10是滤除对比影像中像素值小于阴影预设值(以8位元灰阶影像为例,阴影预设值可为100)的像素。
值得一提的是,当控制模块10执行步骤S104来决定取样粒子时,会自动排除于步骤S24-S26被过滤的区域,即不会有任何取样粒子被设定在过滤的区域。
本发明可有效实现极端亮度滤除功能,并提升预测方向的精确度。
续请同时参阅图3及图5,图5为本发明第三实施例的追踪目标物的方法的部分流程图。由于依据影像撷取模块16所拍摄的单一2D对比影像并无法准确估算跟随机器人1与目标物之间的实际距离(即3D空间中的距离)。图5的实施例提供了一种距离调整功能,跟随机器人1是使用距离感测模块26来感测跟随机器人1与目标物之间的实际距离,并据以控制跟随机器人1的直线速度以使跟随机器人1与目标物保持适当距离。
相较于图3的实施例,图5的实施例的追踪目标物的方法更包括以下步骤。
步骤S30:控制模块10经由距离感测模块26感测跟随机器人1与目标物之间的当前距离。
步骤S32:控制模块10判断最新计算的多个取样粒子的多个预测位置是否位于对比影像的预设区域(如中央区域)。
具体而言,若预测位置位于对比影像的两侧,则表示目标物接下来可能朝跟随机器人1的两侧移动(如目标物转弯),而非朝跟随机器人1的正前方移动。于此情况下,若跟随机器人1持续于直线上移动将偏离目标物的移动轨迹,并使目标物离开影像撷取装置16的取景画面,而导致跟随失败。
若控制模块10判断预测位置位于对比影像的预设区域时,则执行步骤S34。否则,控制模块10再次执行步骤S30。
步骤S34:控制模块10依据所感测的当前距离控制跟随机器人1的驱动模块12加速或减速,以接近或远离目标物。
于一实施例中,控制模块10自记忆模块22读取一组预设距离,并对当前距离与预设距离进行比较。若当前距离小于预设距离,则控制模块10控制驱动模块12加速以缩短当前距离;若当前距离大于预设距离,则控制模块10控制驱动模块12减速以增加当前距离。藉此,本发明可有效使跟随机器人1与目标物保持固定的预设距离。
于一实施例中,步骤S30-S34是与步骤S100-S114可平行执行,即跟随机器人1可执行步骤S100-S114来实现自动跟随功能,并同时执行步骤S30-S34来实现距离调整功能。
于一实施例中,控制模块10亦可不执行步骤S32,而直接依据当前距离控制驱动模块12加速或减速。
续请同时参阅图3及图6,图6为本发明第四实施例的追踪目标物的方法的部分流程图。图6的实施例是用来进一步说明如何计算各取样粒子的当前速度。相较于图3的实施例,图6的实施例的追踪目标物的方法的步骤S106更包括以下步骤。
步骤S40:控制模块10判断初始化是否完成。具体而言,若控制模块10判断所拍摄的对比影像小于预设张数(如两张)时,判定初始化未完成,并执行步骤S46。若控制模块10判断所拍摄的对比影像不小于预设张数时,则判定初始化已完成,并执行步骤S42。
以预设张数为1张为例,若当前的对比影像为第一张对比影像,则控制模块10执行步骤S46以设定取样粒子的初始速度。若当前的对比影像并非第一张对比影像(如第二张对比影像、第三张对比影像、第四张对比影像...),则控制模块10执行步骤S42以计算新的当前速度。
步骤S42:控制模块10执行随机值产生处理以产生多个随机值,并将多个取样粒子的多个当前速度分别加上所产生的多个随机值以获得多个取样粒子的多个新的当前速度。
于一实施例中,所产生的随机值小于当前速度。
值得一提的是,步骤S42是将随机值作为白噪点(white noise),以模拟各取样粒子的速度变化。
步骤S44:控制模块10依据各取样粒子的当前位置、当前速度及基准影像及对比影像之间的拍摄时间差计算各取样粒子的预测位置。具体而言,控制模块10是依据前述式(一)计算各取样粒子的预测位置。接着,控制模块10执行步骤S108。
若控制模块10于步骤S40判断判定初始化未完成,则执行步骤S46:控制模块10取得初始速度(如0)并作为当前速度的初始值。
本发明可有效模拟各取样粒子的速度变化,而可有效提升预测方向的精确度。
续请同时参阅图3、图7及图10。图7为本发明第五实施例的追踪目标物的方法的部分流程图,图10为本发明的计算正确机率的示意图。于图7的实施例中,控制模块10是依据基准影像与对比影像间的差异计算各取样粒子的正确机率,并依据正确机率来对取样粒子进行重新取样。相较于图3的实施例,图7的实施例的追踪目标物的方法的步骤S110包括以下步骤。
步骤S50:控制模块10比较基准影像与对比影像并产生差异影像。
于一实施例中,控制模块10是对基准影像与对比影像执行相减处理以产生差异影像,其中差异影像与对比影像是具有相同尺寸。并且,控制模块10还可对差异影像执行二值化处理来获得黑白的差异影像,即差异影像的各像素的像素值为0或1(即差异点像素)。
步骤S52:控制模块10依据差异影像计算各取样粒子属于目标物的正确机率。
于一实施例中,步骤S52包括以下步骤。
步骤S520:控制模块10判断各取样粒子于差异影像的当前位置,并各取样粒子的当前位置于差异影像中设定各取样粒子的统计区域。
于一实施例中,统计区域是涵盖各取样粒子的当前位置周围特定数量的像素,如8邻(8-Neighborhoods)或4邻(4-Neighborhoods),但不以此限定。
步骤S522:控制模块10计算各取样粒子的统计区域内所有像素的数量以获得区域像素总量。
以统计区域是8邻为例,区域像素总量为9(包括取样粒子的当前位置的像素)。以统计区域是4邻为例,区域像素总量为5。
步骤S524:控制模块10计算各取样粒子的统计区域内多个差异点像素(如像素值为1的像素)的数量以获得区域差异点总量。
步骤S526:控制模块10计算各取样粒子所对应的区域差异点总量及区域像素总量的比值,并作为各取样粒子属于目标物的正确机率。
举例来说,如图10所示,于差异影像中,取样粒子60-64所对应的区域像素总量皆为9,取样粒子60所对应的区域差异点总量(即像素值为1的像素数量)为7,取样粒子62所对应的区域差异点总量为5,取样粒子64所对应的区域差异点总量为1。因此,取样粒子60的正确机率为取样粒子62的正确机率为取样粒子64的正确机率为
接着,控制模块执行步骤S54:控制模块10依据各取样粒子的正确机率对多个取样粒子进行重新取样。
于一实施例中,步骤S54包括以下步骤。
步骤S540:控制模块10删除正确机率低的取样粒子。
于一实施例中,控制模块10删除正确机率最低的预设数量的取样粒子(如正确机率前300低的取样粒子)。
步骤S542:控制模块10于正确机率高的取样粒子的周围进行再取样以增加新的取样粒子。于一实施例中,所增加的取样粒子的数量是与步骤S540所删除的取样粒子的数量相同。藉此,取样粒子的数量可维持定值。
如图10所示,以删除1个取样粒子并新增1个取样粒子为例,控制模块10可删除正确率最低的取样粒子64,并于正确率最高的取样粒子60周围增加取样粒子66。
接着,控制模块10执行步骤S112。
续请同时参阅图3及图8,图8为本发明第六实施例的追踪目标物的方法的部分流程图。于图8的实施例中,本发明更提出一种转向跟随功能。具体而言,控制模块10可依据多个取样粒子的预测位置来判断目标物是否转向,并于判定目标物转向时控制跟随机器人1转向以持续跟随目标物。
相较图3的实施例的,图8的追踪目标物的方法的步骤S108更包括以下步骤。
步骤S60:控制模块10分析多个取样粒子的多个预测位置于对比影像中的分布。
若大部分的预测位置分布于对比影像的左半边,则控制模块10判定目标物欲左转,并执行步骤S62;若大部分的预测位置分布于对比影像的右半边,则控制模块10判定目标物欲右转,并执行步骤S62;若大部分的预测位置分布于对比影像的中间,则控制模块10判定目标物欲直行,并执行步骤S64。
步骤S62:控制模块10将预测方向设定为偏左,并控制驱动左轮的转速小于驱动右轮的转速,而使跟随机器人1朝左方偏移。
于一实施例中,控制模块10调整左驱动模块120的左马达1200的转速及右驱动模块的右马达1220的转速,以使驱动左轮140的转速低于驱动右轮142的转速,而使跟随机器人1逐渐朝左方偏移。
步骤S64:控制模块10将预测方向设定为偏右,并控制驱动右轮的转速小于驱动左轮的转速,而使跟随机器人1逐渐朝右方偏移。
于一实施例中,控制模块10调整左驱动模块120的左马达1200的转速及右驱动模块的右马达1220的转速,以使驱动左轮140的转速高于驱动右轮142的转速,而使跟随机器人1逐渐朝右方偏移。
步骤S66:控制模块10将预测方向设定为直行,并控制驱动右轮的转速等于驱动左轮的转速,而使跟随机器人1直行。
于一实施例中,控制模块10调整左驱动模块120的左马达1200的转速及右驱动模块的右马达1220的转速,以使驱动左轮140的转速等于驱动右轮142的转速,而使跟随机器人1维持直行。
本发明可有效实现转向跟随功能,而可于目标物转向时持续进行跟随。并且,本发明经由令两个驱动轮之间产生转速差,可在不须额外设置转向机构的条件下使跟随机器人1具有左偏及右偏功能,进而降低跟随机器人1的制造成本及装置体积。
续请同时参阅图11A至图12C,图11A为本发明的第一张对比影像与取样粒子变化的示意图,图11B为本发明的第二张对比影像与取样粒子变化的示意图,图11C为本发明的第三张对比影像与取样粒子变化的示意图,图11D为本发明的第四张对比影像与取样粒子变化的示意图,图12A为本发明的第一张对比影像与第二张对比影像的差异影像与取样粒子变化的示意图,图12B为本发明的第二张对比影像与第三张对比影像的差异影像与取样粒子变化的示意图,图12C为本发明的第三张对比影像与第四张对比影像的差异影像与取样粒子变化的示意图。图11A至图12C是用以示例性说明本发明如何使取样粒子的位置可对应目标物的位置。于本例子中,取样粒子的数量为5个,目标物为使用者的脚。
请先参考图11A,跟随机器人1拍摄第一张对比影像,并于第一张对比影像上随机决定5个取样粒子Q1-Q5。由于取样粒子Q1-Q5是随机决定的,仅有取样粒子Q3-Q5是对应目标物(即使用者的脚)。接着,跟随机器人1将第一张对比影像设定为基准影像。
接着,如图11B所示,跟随机器人1拍摄第二张对比影像,于第二张对比影像上决定取样粒子Q1-Q5的位置,计算各取样粒子Q1-Q5的预测位置,并依据预测位置移动。
接着执行重新取样,跟随机器人1依据第二张对比影像及当前的基准影像(即第一张对比影像)产生第一张差异影像(如图12A所示)。跟随机器人1依据第一张差异影像决定各取样粒子Q1-Q5的正确机率,并删除正确机率最低的取样粒子Q1(即最可能未对应目标物的取样粒子),并于正确机率最高的取样粒子Q5(即最可能对应目标物的取样粒子)周围增加新的取样粒子Q6以完成重新取样(如图11B所示)。接着,跟随机器人1将第二张对比影像设定为新的基准影像。
接着,如图11C所示,跟随机器人1拍摄第三张对比影像,于第三张对比影像上决定取样粒子Q2-Q6的位置,并计算各取样粒子Q2-Q6的预测位置,并依据预测位置移动。
接着执行重新取样,跟随机器人1依据第三张对比影像及当前的基准影像(即第二张对比影像)产生第二张差异影像(如图12B所示)。跟随机器人1依据第二张差异影像决定各取样粒子Q2-Q6的正确机率,并删除正确机率最低的取样粒子Q2,并于正确机率最高的取样粒子Q5周围增加新的取样粒子Q7以完成重新取样(如图11C所示)。接着,跟随机器人1将第三张对比影像设定为新的基准影像。
接着,如图11D所示,跟随机器人1拍摄第四张对比影像,于第四张对比影像上决定取样粒子Q3-Q7的位置,并计算各取样粒子Q3-Q7的预测位置,并依据预测位置移动。
接着执行重新取样,跟随机器人1依据第四张对比影像及当前的基准影像(即第三张对比影像)产生第三张差异影像(如图12C所示)。跟随机器人1依据第二张差异影像决定各取样粒子Q3-Q7的正确机率,并删除正确机率最低的取样粒子Q6,并于正确机率最高的取样粒子Q5周围增加新的取样粒子Q8以完成重新取样(如图11D所示)。接着,跟随机器人1将第四张对比影像设定为新的基准影像。
本发明可有效追踪目标物的影像,并可使跟随机器人1有效随目标物。
当然,本发明还可有其它多种实施例,在不背离本发明精神及其实质的情况下,熟悉本领域的技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。

Claims (10)

1.一种追踪目标物的方法,用来使一跟随机器人自动跟随一目标物,其特征在于,包括:
a)于该跟随机器人拍摄该目标物以获得一对比影像;
b)于该对比影像决定对应该目标物的多个取样粒子;
c)依据各该取样粒子的一当前位置及一当前速度计算各该取样粒子的一预测位置;
d)控制该跟随机器人朝对应该多个预测位置的一预测方向移动;
e)依据一基准影像及该对比影像之间的差异对该多个取样粒子进行重新取样,并将该对比影像设定为新的该基准影像;及
f)重复执行该步骤a至该步骤e,直到停止跟随。
2.如权利要求1所述的追踪目标物的方法,其特征在于,于该步骤a之后,该步骤b之前包括:
g1)依据该基准影像及该对比影像计算一机体偏移;及
g2)依据该机体偏移校正该对比影像。
3.如权利要求2所述的追踪目标物的方法,其特征在于,该步骤g1更包括:
g11)取得一静态实体物件的影像于该基准影像中的一基准位置;
g12)识别该静态实体物件的影像于该对比影像中的一对比位置;及
g13)依据该基准位置及该对比位置计算该机体偏移。
4.如权利要求1所述的追踪目标物的方法,其特征在于,于该步骤a之后,该步骤b之前包括:
h1)对该对比影像执行一高光过滤处理以过滤该对比影像的一高亮度区域;及
h2)对该对比影像执行一阴影过滤除处理以过滤该对比影像的一低亮度区域。
5.如权利要求1所述的追踪目标物的方法,其特征在于,该步骤c包括:
c1)将该当前速度加上一随机值以作为新的该当前速度,其中该当前速度的初始值为0;及
c2)依据各该取样粒子的该当前位置、该当前速度及该基准影像及该对比影像之间的一拍摄时间差计算各该取样粒子的该预测位置。
6.如权利要求1所述的追踪目标物的方法,其特征在于,该步骤e包括:
e1)比较该基准影像与该对比影像并产生一差异影像;
e2)依据该差异影像计算各该取样粒子属于该目标物的一正确机率;
e3)依据该多个取样粒子的该多个正确机率对该多个取样粒子进行重新取样;及
e4)将该对比影像设定为新的该基准影像。
7.如权利要求6所述的追踪目标物的方法,其特征在于,该差异影像包括多个差异点像素,该步骤e2包括:
e21)依据各该取样粒子的该当前位置于该差异影像上设定各该取样粒子的一统计区域;
e22)计算各该统计区域内所有像素的数量以获得一区域像素总量;
e23)计算各该统计区域内该多个差异点像素的数量以获得一区域差异点总量;及
e24)计算该区域差异点总量及该区域像素总量的一比值,并作为该正确机率。
8.如权利要求6所述的追踪目标物的方法,其特征在于,该步骤e3包括:
e31)删除该正确机率低的该取样粒子;及
e32)于该正确机率高的该取样粒子的周围增加新的该取样粒子。
9.如权利要求1所述的追踪目标物的方法,其特征在于,该步骤d包括:
d1)于该多个取样粒子的该多个预测位置位于该对比影像的左半边时,控制该跟随机器人的一驱动左轮的转速小于该跟随机器人的一驱动右轮的转速;及
d2)于该多个取样粒子的该多个预测位置位于该对比影像的右半边时,控制该跟随机器人的该驱动右轮的转速小于该跟随机器人的该驱动左轮的转速。
10.如权利要求1所述的追踪目标物的方法,其特征在于,更包括:
i1)经由该跟随机器人的一距离感测模块感测该跟随机器人与该目标物之间的一当前距离;及
i2)于该多个预测位置位于该对比影像的一预设区域时,依据该当前距离控制该跟随机器人加速或减速,以接近或远离该目标物。
CN201710499219.4A 2017-06-27 2017-06-27 追踪目标物的方法 Pending CN109144043A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201710499219.4A CN109144043A (zh) 2017-06-27 2017-06-27 追踪目标物的方法
US15/836,441 US10399229B2 (en) 2017-06-27 2017-12-08 Method of tracking target object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710499219.4A CN109144043A (zh) 2017-06-27 2017-06-27 追踪目标物的方法

Publications (1)

Publication Number Publication Date
CN109144043A true CN109144043A (zh) 2019-01-04

Family

ID=64691877

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710499219.4A Pending CN109144043A (zh) 2017-06-27 2017-06-27 追踪目标物的方法

Country Status (2)

Country Link
US (1) US10399229B2 (zh)
CN (1) CN109144043A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111290380A (zh) * 2020-02-06 2020-06-16 四川长虹电器股份有限公司 一种人眼视域内智能前行行李箱系统

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11423196B2 (en) * 2018-11-28 2022-08-23 Toyota Research Institute, Inc. Systems and methods for predicting responses of a particle to a stimulus
KR20200087361A (ko) 2019-01-03 2020-07-21 삼성전자주식회사 이동 로봇 및 그 구동 방법
CN110766709B (zh) * 2019-10-30 2021-03-30 成都理工大学 基于图像识别的滑坡颗粒堆积特征识别方法
CN112991255B (zh) * 2019-12-16 2023-11-28 信扬科技(佛山)有限公司 机器人平衡判定装置及机器人平衡判定方法
CN111496798B (zh) * 2020-05-18 2022-06-14 北京配天技术有限公司 机器人传送带跟踪方法、设备及存储装置
CN112817549B (zh) * 2021-01-28 2024-02-06 卡莱特云科技股份有限公司 一种信号图层的调整方法及装置
KR20230007877A (ko) * 2021-07-06 2023-01-13 한국전자통신연구원 Uwb 및 주행기록계 기반 상대 위치 추정을 이용하는 로봇의 목표물 추종 방법 및 장치
CN114237249A (zh) * 2021-12-17 2022-03-25 北京云迹科技股份有限公司 用于机器人引领过程中的控制方法、装置和引领机器人

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7003136B1 (en) * 2002-04-26 2006-02-21 Hewlett-Packard Development Company, L.P. Plan-view projections of depth image data for object tracking
US20070127774A1 (en) * 2005-06-24 2007-06-07 Objectvideo, Inc. Target detection and tracking from video streams
CN102270348A (zh) * 2011-08-23 2011-12-07 中国科学院自动化研究所 基于视频流的对变形手势进行跟踪的方法
CN103002196A (zh) * 2011-09-09 2013-03-27 联咏科技股份有限公司 预测移动向量的估测方法
CN103456003A (zh) * 2012-05-31 2013-12-18 三星Sds株式会社 对象跟踪装置及方法以及错误特征点剔除装置及方法
US20150229906A1 (en) * 2012-09-19 2015-08-13 Follow Inspiration Unipessoal, Lda Self tracking system and its operation method
CN105450907A (zh) * 2014-07-31 2016-03-30 北京展讯高科通信技术有限公司 智能终端及其视频稳像系统模型参数的标定方法及装置
CN105741321A (zh) * 2016-01-31 2016-07-06 华南理工大学 基于跟踪点分布的视频目标运动趋势分析方法
CN106275035A (zh) * 2016-08-05 2017-01-04 湖南格兰博智能科技有限责任公司 一种智能跟随购物车
CN106444763A (zh) * 2016-10-20 2017-02-22 泉州市范特西智能科技有限公司 基于视觉传感器智能自动跟随方法、系统及行李箱
CN106558063A (zh) * 2015-09-16 2017-04-05 韩华泰科株式会社 估计视频中的运动的方法和设备及稳定视频的方法和设备
CN106651920A (zh) * 2016-10-19 2017-05-10 北京邮电大学 基于机器视觉的移动控制方法、装置及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101907548B1 (ko) * 2016-12-23 2018-10-12 한국과학기술연구원 휴먼 추종을 위한 이동로봇의 주행 및 탐색방법

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7003136B1 (en) * 2002-04-26 2006-02-21 Hewlett-Packard Development Company, L.P. Plan-view projections of depth image data for object tracking
US20070127774A1 (en) * 2005-06-24 2007-06-07 Objectvideo, Inc. Target detection and tracking from video streams
CN102270348A (zh) * 2011-08-23 2011-12-07 中国科学院自动化研究所 基于视频流的对变形手势进行跟踪的方法
CN103002196A (zh) * 2011-09-09 2013-03-27 联咏科技股份有限公司 预测移动向量的估测方法
CN103456003A (zh) * 2012-05-31 2013-12-18 三星Sds株式会社 对象跟踪装置及方法以及错误特征点剔除装置及方法
US20150229906A1 (en) * 2012-09-19 2015-08-13 Follow Inspiration Unipessoal, Lda Self tracking system and its operation method
CN105450907A (zh) * 2014-07-31 2016-03-30 北京展讯高科通信技术有限公司 智能终端及其视频稳像系统模型参数的标定方法及装置
CN106558063A (zh) * 2015-09-16 2017-04-05 韩华泰科株式会社 估计视频中的运动的方法和设备及稳定视频的方法和设备
CN105741321A (zh) * 2016-01-31 2016-07-06 华南理工大学 基于跟踪点分布的视频目标运动趋势分析方法
CN106275035A (zh) * 2016-08-05 2017-01-04 湖南格兰博智能科技有限责任公司 一种智能跟随购物车
CN106651920A (zh) * 2016-10-19 2017-05-10 北京邮电大学 基于机器视觉的移动控制方法、装置及系统
CN106444763A (zh) * 2016-10-20 2017-02-22 泉州市范特西智能科技有限公司 基于视觉传感器智能自动跟随方法、系统及行李箱

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111290380A (zh) * 2020-02-06 2020-06-16 四川长虹电器股份有限公司 一种人眼视域内智能前行行李箱系统

Also Published As

Publication number Publication date
US10399229B2 (en) 2019-09-03
US20180370037A1 (en) 2018-12-27

Similar Documents

Publication Publication Date Title
CN109144043A (zh) 追踪目标物的方法
CN107580717B (zh) 从图像序列中的纹理重建
CN107101620B (zh) 测量子系统和测量系统
CN101068344B (zh) 物体检测装置
CN109544620B (zh) 图像处理方法和装置、计算机可读存储介质和电子设备
CN106688227B (zh) 多摄像装置、多摄像方法
CN107852447A (zh) 基于设备运动和场景距离使电子设备处的曝光和增益平衡
CN106910206B (zh) 一种目标跟踪方法及装置
CN106796718A (zh) 用于高效深度图像变换的方法和设备
CN110248097A (zh) 追焦方法、装置、终端设备、计算机可读存储介质
CN107404615B (zh) 图像录制方法及电子设备
CN102857690B (zh) 追踪装置、追踪方法、摄像装置以及摄像方法
CN102342090A (zh) 图像拍摄设备、操作员监视设备、测量到面部的距离的方法和程序
CN110225226B (zh) 一种视觉跟踪系统及方法
CN109670421B (zh) 一种疲劳状态检测方法和装置
CN113838098B (zh) 一种针对远距离高速运动目标的智能跟踪拍摄系统
US11882380B2 (en) Systems and methods for generating time-lapse videos
CN113132612B (zh) 一种图像稳像处理方法、终端拍摄方法、介质及系统
CN104902182A (zh) 一种实现连续自动对焦的方法和装置
CN104519278A (zh) 图像处理装置以及图像处理方法
CN106488116A (zh) 摄像装置
CN105493147A (zh) 用于跟踪显示器上的对象的系统、装置及方法
CN112207821B (zh) 视觉机器人的目标搜寻方法及机器人
CN107852458A (zh) 视频帧处理
CN108603933A (zh) 用于融合具有不同分辨率的传感器输出的系统和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190104

WD01 Invention patent application deemed withdrawn after publication