CN110103241B - 照明机器人、照明机器人控制方法及控制装置 - Google Patents

照明机器人、照明机器人控制方法及控制装置 Download PDF

Info

Publication number
CN110103241B
CN110103241B CN201910510213.1A CN201910510213A CN110103241B CN 110103241 B CN110103241 B CN 110103241B CN 201910510213 A CN201910510213 A CN 201910510213A CN 110103241 B CN110103241 B CN 110103241B
Authority
CN
China
Prior art keywords
module
illumination
robot
control
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910510213.1A
Other languages
English (en)
Other versions
CN110103241A (zh
Inventor
王菲菲
王国贞
王丽佳
张金红
陈旭凤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hebei Qihuai Information Technology Co ltd
Original Assignee
Hebei College of Industry and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hebei College of Industry and Technology filed Critical Hebei College of Industry and Technology
Priority to CN201910510213.1A priority Critical patent/CN110103241B/zh
Publication of CN110103241A publication Critical patent/CN110103241A/zh
Application granted granted Critical
Publication of CN110103241B publication Critical patent/CN110103241B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Abstract

本发明适用于机器人技术领域,尤其涉及一种照明机器人、照明机器人控制方法及控制装置,提供了一种照明机器人包括:机器人本体和设置于所述机器人本体上的控制模块、照明模块、驱动模块、传感器模块和电源模块;所述传感器模块用于采集目标物体信息,并将所述目标物体信息传输给所述控制模块,所述控制模块根据所述目标物体信息控制所述照明模块发出照明光,并控制所述驱动模块驱动所述照明机器人对目标物体进行跟随,从而实现对目标物体的跟随照明。在夜晚光照不足的情况下当用户起夜时自动打开照明并跟随,解决了用户夜晚起夜开关灯繁琐不便的问题。

Description

照明机器人、照明机器人控制方法及控制装置
技术领域
本发明属于机器人技术领域,尤其涉及一种照明机器人、照明机器人控制方法及控制装置。
背景技术
对于独居用户来说,夜间照明不足容易导致用户摔倒,用户夜间活动开关灯不便,且需要打开多个电灯开关,较繁琐,且普通电灯光线太亮影响用户的再次入睡。而小夜灯等装置需要持续点亮,影响用户睡眠,同时浪费资源。
发明内容
有鉴于此,本发明实施例提供了一种照明机器人,以解决现有技术中用户起夜时夜间照明不便的问题。
本发明实施例的第一方面提供了一种照明机器人,包括:机器人本体和设置于所述机器人本体上的控制模块、照明模块、驱动模块、传感器模块和电源模块;
所述传感器模块用于采集目标物体信息,并将所述目标物体信息传输给所述控制模块;
所述控制模块根据所述目标物体信息控制所述照明模块发出照明光,并控制所述驱动模块驱动所述照明机器人对目标物体进行跟随;
所述电源模块用于为机器人本体及各模块供电。
本发明实施例的第二方面提供了一种照明机器人控制方法,包括:
获取所述照明机器人与第一目标之间的距离,当所述距离发生变化时,则生成第一控制指令并发送给照明模块,所述第一控制指令用于控制所述照明模块启动照明;
获取周围环境的深度图像,根据所述深度图像对环境中的目标物体进行识别并判断,若目标物体在移动,则生成第二控制指令并发送给驱动模块,所述第二控制指令用于控制所述驱动模块驱动所述照明机器人对所述目标物体进行跟随。
本发明实施例的第三方面提供了一种照明机器人控制装置,包括:
启动模块,用于根据所述照明机器人与所述第一目标之间的距离控制所述照明机器人启动照明;
跟随模块,用于根据周围环境的深度图像控制所述照明机器人实现对目标物体的跟随。
本发明实施例的第四方面提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如本发明实施例第二方面所述的照明机器人控制方法的步骤。
本发明实施例公开一种照明机器人,包括机器人本体和设置于所述机器人本体上的控制模块、照明模块、驱动模块、传感器模块和电源模块;所述传感器模块采集目标物体信息,并将所述目标物体信息传输给所述控制模块,控制模块根据所述目标物体信息控制所述照明模块发出照明光,并控制所述驱动模块驱动所述照明机器人对目标物体进行跟随,实现对目标物体的跟随照明。可在用户起夜过程中持续对用户进行跟随照明,解决用户夜间起夜开关灯繁琐不便的问题。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的照明机器人的系统结构示意图;
图2是本发明实施例提供的照明机器人控制方法的实现流程示意图;
图3是本发明又一实施例提供的照明机器人控制方法的实现流程示意图;
图4是本发明实施例提供的照明机器人控制装置的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
参见图1,本发明一实施例提供了一种照明机器人1,包括:机器人本体10和设置于所述机器人本体10上的控制模块11、照明模块12、驱动模块13、传感器模块14和电源模块15。所述传感器模块14用于采集目标物体信息,并将所述目标物体信息传输给所述控制模块11。所述控制模块11根据所述目标物体信息控制所述照明模块12发出照明光,并控制所述驱动模块13驱动所述照明机器人1对目标物体进行跟随。所述电源模块15用于为机器人本体10及各模块供电。
所述传感器模块14采集到目标物体信息并将所述信息发送给控制模块11,控制模块11根据所述目标物体信息生成控制指令发送给照明模块12启动照明及驱动模块13驱动照明机器人对目标物体进行跟随照明,在用户起夜时为用户提供持续的跟随照明。
一些实施例中,所述传感器模块14可以包括视觉传感器和测距传感器,所述测距传感器用于检测目标物体与所述照明机器人1之间的距离,所述视觉传感器用于获取周围环境的深度图像。
一些实施例中,所述测距传感器可以为雷达测距传感器、红外测距传感器及超声波测距传感器等。
一些实施例中,所述视觉传感器可以为Kinect传感器,Kinect传感器主要由深度摄像机和RGB摄像机来获取外界的三维信息,可快速获取物体的深度图像,数据量丰富,实时性好,精确度较高。
例如所述距离传感器检测照明机器人1与前方障碍物之间的距离,当所述距离发生改变时,说明有物体经过照明机器人1和前方障碍物之间,该物体可能为目标物体。此时,视觉传感器获取周围环境的深度图像并发送给控制模块11,控制模块11对所述深度图像进行处理识别所述物体是否为目标物体,若所述物体为目标物体,则根据所述深度图像控制所述驱动模块13驱动照明机器人1对目标物体进行跟随。
一些实施例中,所述驱动模块13可以包括驱动轮和驱动控制单元。所述驱动轮设置在机器人本体10的底部,可带动所述机器人本体10运行,所述驱动控制单元接收所述控制模块11发送的驱动指令,并根据所述驱动指令控制所述驱动轮的运动方向和速度,进而控制所述照明机器人1的运动方向和速度。
一些实施例中,所述照明模块12可以包括照明灯体和照明控制单元。所述照明灯体可以发出光线为目标物体进行照明,所述照明控制单元用于根据控制模块11的指令控制所述照明灯体发光。
一些实施例中,所述照明机器人1还可以包括感光模块,所述感光模块与所述控制模块11连接,用于检测当前环境光线的强弱,并将检测结果传输给所述控制模块11,所述控制模块11根据所述检测结果控制所述照明模块12发出的照明光的强度。一些实施例中,所述感光模块包括光敏传感器。例如,当光敏传感器检测到周围环境光线较强时,控制模块11控制所述照明模块12发出的照明光的强度相应变弱;当光敏传感器检测到周围环境光线较弱时,控制模块11控制所述照明灯发出的照明光的强度相应变强。根据环境光线灵活调节照明光的强弱,满足照明需求,同时节约电能资源。
参见图2,本发明一实施例提供了一种照明机器人控制方法,适用于以上实施例中的照明机器人1,包括:
步骤S201,获取所述照明机器人1与第一目标之间的距离,当所述距离发生变化时,则生成第一控制指令并发送给照明模块12,所述第一控制指令用于控制所述照明模块12启动照明。
其中,所述第一目标为照明机器人1前方的障碍物,例如可以为床头柜、墙壁等。
获取照明机器人1与前方障碍物之间的距离,当所述距离发生变化时,说明有物体经过照明机器人1与前方障碍物之间,所述物体为疑似目标物体。此时控制模块11生成第一控制指令并发送给照明模块12启动照明。
步骤S202,获取周围环境的深度图像,根据所述深度图像对环境中的目标物体进行识别并判断,若目标物体在移动时,则生成第二控制指令并发送给驱动模块13,所述第二控制指令用于控制所述驱动模块13驱动所述照明机器人1对所述目标物体进行跟随。
获取周围环境的深度图像,根据所述深度图像对环境中的物体进行识别并判断,判断所述物体是否为目标物体。若所述物体为目标物体,且所述目标物体在移动则生成第二控制指令发送给驱动模块13驱动所述照明机器人1对所述目标物体进行跟随。所述周围环境的深度图像通过传感器模块14获取,进一步的,通过视觉传感器获取所述周围环境的深度图像,例如,所述视觉传感器可以为Kinect视觉传感器。
一些实施例中,对所述目标物体进行跟随的具体步骤可以包括:
1)对所述深度图像进行处理,判断所述图像中是否存在目标物体,若存在,则提取目标物体的特征点;
2)将当前帧深度图像和下一帧深度图像进行灰度值比较,预估当前帧深度图像中的目标物体的特征点在下一帧深度图像中的位置;
3)过滤位置不变的特征点,剩余特征点集即为目标物体的位置。
一些实施例中,上述步骤可采用均值漂移算法或自适应均值漂移算法实现:
均值漂移算法又可称为meanshift算法,算法思想为确定位置后标定质心和感兴趣区域,应用meanshift算法进行迭代,找到meanshift向量,完成跟踪。meanshift的作用可以把需要搜索的位置一直向颜色发生变化最明显的的方向慢慢移动,最终会有两次移动的距离非常的小,到达我们想要的位置,并且把这个位置作为一个新的起始点。
meanshift算法就是在这些点中随意的选取一个位置,并把这个位置当作需要的圆心,画一个R大小的圆,在这个圆当中,会有许多的点,这些点与圆心都具有一个向量,把这些向量加在一起(注意是向量相加),我们得到一个最终的向量,这个向量用箭头来表示,它就是我们需要的meanshift向量。然后再以这个meanshift向量的终点作为下一个圆的圆心,继续重复上述过程,会得到另一个meanshift向量;接下来一直进行这个重复的步骤,这样就会出现一系列的meanshift向量,再把得到的meanshift向量依次连接在一起,就是我们进行视觉跟踪的路线。
meanshift算法缺乏必要的模型更新,整个跟随过程中跟踪窗口的大小保持不变,当目标存在尺寸变化时会导致尺度定位不准确。因此,可以采用自适应均值漂移算法进行跟随。
自适应均值漂移算法又可称为CamShift算法,CamShift算法是meanshift算法进一步提升,可以实现对每一帧都进行meanshift计算,然后将当前的计算的结果作为下一个meanshift算法的起始位置。
具体步骤分5步:
1)将整个图像设为搜寻区域;
2)初始化搜索窗口的大小和位置;
3)计算搜索窗口内的彩色概率分布,此区域的大小比搜索窗口稍微大一点;
4)运行meanshift,获得搜索窗口新的位置和大小;
5)在下一帧视频图像中,用第三步获得的值初始化搜索窗口的位置和大小。跳转到第三步继续运行。
一些实施例中,参见图3,所述一种照明机器人控制方法,还可以包括步骤S203:
步骤S203,获取周围环境的深度图像,根据所述深度图像对周围环境中的目标物体进行识别并判断,若在预设时间内未识别到目标物体或在预设时间内目标物体位置不变,则生成第三控制指令并发送给照明模块12,所述第三控制指令用于控制所述照明模块12关闭照明。
获取周围环境的深度图像,根据所述深度图像对周围环境中的目标物体进行识别,若在预设时间内未识别到目标物体,例如用户已经上床,或在预设时间内目标物体位置不变,例如用户已经达到预定地点,则生成第三控制指令发送给照明模块12,控制照明模块12关闭照明。
一些实施例中,所述预设时间可以为5min。
所述照明机器人1可在用户上床或到达预定地点时自动关闭照明,不影响用户休息,节约能源。
一些实施例中,采用视觉传感器获取周围环境的深度图像及采用测距传感器获取照明机器人1与第一目标之间的距离,则:
所述步骤S201之后还可以包括,生成第五控制指令发送给传感器模块14,启动视觉传感器,关闭测距传感器。
所述步骤S203之后还可以包括:生成第六控制指令并发送给传感器模块14,关闭视觉传感器,启动测距传感器。
上述视觉传感器与测距传感器不同时打开,节约资源,提高了照明机器人1的待机时间。
例如,所述照明机器1对用户进行跟随照明的具体流程为:
测距传感器持续检测照明机器人1与测距传感器前方障碍物之间的第一距离,当用户下床时经过照明机器人1与前方障碍物之间,所述第一距离发生变化,此时启动照明,关闭测距传感器,启动视觉传感器;
视觉传感器获取当前环境的深度图像并将所述图像传输给控制模块11进行分析,当当前环境的深度图像中存在目标物体,且目标物体在移动时,则控制模块11控制照明机器人1对目标进行跟随照明;
当用户如厕时,根据所述视觉传感器获取的深度图像检测到所述目标物体保持静止,且时间小于5min,照明模块12持续照明;
当用户如厕完毕回到床上后,根据视觉传感器获取的深度图像检测不到目标物体,5min后关闭照明,启动测距传感器,关闭视觉传感器,等待下一次跟随照明。
一些实施例中,所述照明机器人控制方法,还可以包括:
获取周围环境的光线信息,并根据所述光线信息生成第四控制指令发送给照明模块12,所述第四控制指令用于控制所述照明模块12对照明光的亮度进行调节。
可根据周围环境光线灵活的对照明光的强度进行调节,满足日常照明的需求,同时节约资源。
对应于上文实施例所述的照明机器人控制方法,图1示出了本发明实施例提供的照明机器人的系统结构示意图。为了便于说明,仅示出了与本实施例相关的部分。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
参见图4,本发明实施例提供了一种照明机器人控制装置4,包括:
启动模块41,用于根据所述照明机器人与所述第一目标之间的距离控制所述照明机器人启动照明;
跟随模块42,用于根据周围环境的深度图像控制所述照明机器人实现对目标物体的跟随。
本发明实施例还提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现如照明机器人控制方法的各实施例中的步骤,例如图2所示的步骤S201至步骤S202。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的照明机器人、照明机器人控制方法及控制装置,可以通过其它的方式实现。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (5)

1.一种照明机器人控制方法,适用于照明机器人,其特征在于,
所述照明机器人包括:机器人本体和设置于所述机器人本体上的控制模块、照明模块、驱动模块、传感器模块和电源模块;
所述传感器模块用于采集目标物体信息,并将所述目标物体信息传输给所述控制模块;
所述控制模块根据所述目标物体信息控制所述照明模块发出照明光,并控制所述驱动模块驱动所述照明机器人对目标物体进行跟随;
所述电源模块用于为机器人本体及各模块供电;
所述照明机器人还包括:与所述控制模块连接的感光模块;所述感光模块用于检测当前环境光线的强弱,并将检测结果传输给所述控制模块,所述控制模块根据所述检测结果控制所述照明模块发出的照明光的强度;
所述传感器模块包括:视觉传感器和测距传感器;
所述测距传感器用于检测所述照明机器人与前方障碍物之间的距离;
所述视觉传感器用于获取周围环境的深度图像;
所述照明机器人控制方法包括:
获取所述照明机器人与前方障碍物之间的距离,当所述距离发生变化时,则生成第一控制指令并发送给照明模块,所述第一控制指令用于控制所述照明模块启动照明;
生成第五控制指令发送给传感器模块,启动视觉传感器,关闭测距传感器;
获取周围环境的深度图像,根据所述深度图像对环境中的目标物体进行识别并判断,若目标物体在移动,则生成第二控制指令并发送给驱动模块,所述第二控制指令用于控制所述驱动模块驱动所述照明机器人对所述目标物体进行跟随;
获取周围环境的光线信息,并根据所述光线信息生成第四控制指令发送给照明模块,所述第四控制指令用于控制所述照明模块对照明光的亮度进行调节;
生成第六控制指令并发送给传感器模块,关闭视觉传感器,启动测距传感器。
2.如权利要求1所述的照明机器人控制方法,其特征在于,所述驱动模块包括:驱动轮和驱动控制单元;
所述驱动轮设置于所述机器人本体的底部,用于带动所述机器人本体运行;
所述驱动控制单元接收所述控制模块发送的驱动指令,并根据所述驱动指令控制所述驱动轮的运动方向和速度。
3.如权利要求1所述的照明机器人控制方法,其特征在于,所述照明模块包括:照明灯体和照明控制单元;
所述照明控制单元用于根据所述控制模块的指令控制所述照明灯体发光。
4.如权利要求1所述的照明机器人控制方法,其特征在于,所述照明机器人控制方法还包括:
获取周围环境的深度图像,根据所述深度图像对环境中的目标物体进行识别并判断,若在预设时间内未识别到目标物体或在预设时间内目标物体位置不变,则生成第三控制指令并发送给照明模块,所述第三控制指令用于控制所述照明模块关闭照明。
5.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至4任一项所述的照明机器人控制方法的步骤。
CN201910510213.1A 2019-06-13 2019-06-13 照明机器人、照明机器人控制方法及控制装置 Active CN110103241B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910510213.1A CN110103241B (zh) 2019-06-13 2019-06-13 照明机器人、照明机器人控制方法及控制装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910510213.1A CN110103241B (zh) 2019-06-13 2019-06-13 照明机器人、照明机器人控制方法及控制装置

Publications (2)

Publication Number Publication Date
CN110103241A CN110103241A (zh) 2019-08-09
CN110103241B true CN110103241B (zh) 2021-08-27

Family

ID=67494924

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910510213.1A Active CN110103241B (zh) 2019-06-13 2019-06-13 照明机器人、照明机器人控制方法及控制装置

Country Status (1)

Country Link
CN (1) CN110103241B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111820822B (zh) * 2020-07-30 2022-03-08 广东睿住智能科技有限公司 扫地机器人及其照明方法和计算机可读存储介质
CN112659133A (zh) * 2020-12-31 2021-04-16 软控股份有限公司 一种基于机器视觉的抓胶方法、装置及设备
CN113911025A (zh) * 2021-11-09 2022-01-11 集度科技有限公司 一种车辆控制方法、装置、电子设备、车辆及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103428951A (zh) * 2012-05-25 2013-12-04 深圳富泰宏精密工业有限公司 照明装置亮度调节系统
CN106054897A (zh) * 2016-07-18 2016-10-26 旗瀚科技有限公司 一种可以进行人体跟随的机器人
CN107645807A (zh) * 2017-11-16 2018-01-30 成都伟嘉斯特科技有限公司 一种感应物体移动提供夜间照明的机器人
CN108235542A (zh) * 2018-01-05 2018-06-29 深圳市沃特沃德股份有限公司 辅助照明方法、装置和设备
CN108673501A (zh) * 2018-05-17 2018-10-19 中国科学院深圳先进技术研究院 一种机器人的目标跟随方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN205510509U (zh) * 2016-04-19 2016-08-24 河南师范大学 自适应可调节台灯

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103428951A (zh) * 2012-05-25 2013-12-04 深圳富泰宏精密工业有限公司 照明装置亮度调节系统
CN106054897A (zh) * 2016-07-18 2016-10-26 旗瀚科技有限公司 一种可以进行人体跟随的机器人
CN107645807A (zh) * 2017-11-16 2018-01-30 成都伟嘉斯特科技有限公司 一种感应物体移动提供夜间照明的机器人
CN108235542A (zh) * 2018-01-05 2018-06-29 深圳市沃特沃德股份有限公司 辅助照明方法、装置和设备
CN108673501A (zh) * 2018-05-17 2018-10-19 中国科学院深圳先进技术研究院 一种机器人的目标跟随方法及装置

Also Published As

Publication number Publication date
CN110103241A (zh) 2019-08-09

Similar Documents

Publication Publication Date Title
CN110103241B (zh) 照明机器人、照明机器人控制方法及控制装置
US11561322B2 (en) Use of thermopiles to detect human location
US10747995B2 (en) Pupil tracking device
CA2774974C (en) Real time hand tracking, pose classification, and interface control
KR102567525B1 (ko) 이동 로봇 시스템, 이동 로봇 및 이동 로봇 시스템의 제어 방법
US10399229B2 (en) Method of tracking target object
US20180088057A1 (en) Status determining robot, status determining system, status determining method, and non-transitory recording medium
US11574740B2 (en) Electronic device and method for suppressing vision loss
US20220060622A1 (en) Environmental Model Maintenance Using Event-Based Vision Sensors
US20200338744A1 (en) Mobile robot performing multiple detections using image frames of same optical sensor
CN108367436B (zh) 针对三维空间中的对象位置和范围的主动相机移动确定
KR102627014B1 (ko) 전자 장치 및 제스처 인식 방법
US20210016449A1 (en) Mobile robot performing multiple detections using image frames of same optical sensor
US20210114215A1 (en) Robot and method for controlling the same
US20180307302A1 (en) Electronic device and method for executing interactive functions
CN110892449A (zh) 图像处理方法及装置、移动设备
WO2021065608A1 (ja) データ処理装置、データ処理方法、ロボット
CN113872287A (zh) 充电设备、自移动设备、充电方法、系统及存储介质
CN112861839A (zh) 用于洗碗机的方法、装置以及洗碗机
KR20220021581A (ko) 로봇 및 이의 제어 방법
US20240041296A1 (en) System with a dishwasher, method, and computer program product
US20210325890A1 (en) Robot and map update method using the same
US20240119709A1 (en) Method of training object recognition model by using spatial information and computing device for performing the method
WO2021256223A1 (ja) 物体検知システム及び物体検知方法
Ji et al. Robot laser shooting game based on object recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230619

Address after: No. 1904, Building 4, Block B, Liudongzhuang Mansion, Chang'an District, Shijiazhuang City, Hebei Province 050011

Patentee after: Hebei Qihuai Information Technology Co.,Ltd.

Address before: 050091 no.626, Hongqi Street, Shijiazhuang City, Hebei Province

Patentee before: HEBEI College OF INDUSTRY AND TECHNOLOGY

TR01 Transfer of patent right