CN110209063A - 一种智能设备控制方法和装置 - Google Patents
一种智能设备控制方法和装置 Download PDFInfo
- Publication number
- CN110209063A CN110209063A CN201910489426.0A CN201910489426A CN110209063A CN 110209063 A CN110209063 A CN 110209063A CN 201910489426 A CN201910489426 A CN 201910489426A CN 110209063 A CN110209063 A CN 110209063A
- Authority
- CN
- China
- Prior art keywords
- scene
- image
- scene areas
- personnel
- smart machine
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000001514 detection method Methods 0.000 claims description 22
- 230000033001 locomotion Effects 0.000 claims description 16
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 238000013527 convolutional neural network Methods 0.000 claims description 10
- 230000004927 fusion Effects 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 8
- 238000005516 engineering process Methods 0.000 description 9
- 230000003993 interaction Effects 0.000 description 7
- 238000010276 construction Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 239000010410 layer Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000004886 process control Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B15/00—Systems controlled by a computer
- G05B15/02—Systems controlled by a computer electric
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/20—Pc systems
- G05B2219/26—Pc applications
- G05B2219/2642—Domotique, domestic, home control, automation, smart house
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Manufacturing & Machinery (AREA)
- Quality & Reliability (AREA)
- Studio Devices (AREA)
Abstract
本发明提供了一种智能设备控制方法和装置,其中,该方法包括:一种智能设备控制方法,包括:获取场景区域图像;从场景区域图像中确定出人员所在的场景子区域;将人员所在的场景子区域的智能设备打开。通过本发明实施例提供的智能设备控制方法和装置,无需人员对智能设备的开闭进行控制,就可以将人员所在的场景子区域的智能设备自动打开,操作简单方便。
Description
技术领域
本发明涉及自动控制技术领域,具体而言,涉及一种智能设备控制方法和装置。
背景技术
目前,智能设备被广泛的运用于办公区域、图书馆、咖啡厅等各种公共场所。现有的公共空间建设中,对于智能设备本身的设计已经比较完善,然而在设计中却往往忽略了与使用者之间的交互。
相关技术中,智能设备一般是作为单独的个体只提供一个区域内的开关功能或仅是通过电脑编程控制灯光的演示,大多数智能设备也仅是可以通过手机屏幕的触摸式交互来进行远程控制。
智能设备无法在人员到达智能设备服务覆盖的区域时自动打开。
发明内容
为解决上述问题,本发明实施例的目的在于提供一种智能设备控制方法和装置。
第一方面,本发明实施例提供了一种智能设备控制方法,包括:
获取场景区域图像;
从所述场景区域图像中确定出人员所在的场景子区域;
将人员所在的场景子区域的智能设备打开。
第二方面,本发明实施例还提供了一种智能设备控制装置,包括:
获取模块,用于获取场景区域图像;
处理模块,用于从所述场景区域图像中确定出人员所在的场景子区域;
控制模块,用于将人员所在的场景子区域的智能设备打开。
本发明实施例上述第一方面至第二方面提供的方案中,通过获取到的场景区域图像;从场景区域图像中确定出人员所在的场景子区域后,将人员所在的场景子区域的智能设备打开,与相关技术中大多数智能设备也仅是可以通过手机屏幕的触摸式交互来进行远程控制相比,无需人员对智能设备的开闭进行控制,就可以将人员所在的场景子区域的智能设备自动打开,操作简单方便。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本发明实施例1所提供的一种智能设备控制方法的流程图;
图2示出了本发明实施例2所提供的一种智能设备控制装置的结构示意图。
具体实施方式
在本发明的描述中,需要理解的是,术语″中心″、″纵向″、″横向″、″长度″、″宽度″、″厚度″、″上″、″下″、″前″、″后″、″左″、″右″、″竖直″、″水平″、″顶″、″底″″内″、″外″、″顺时针″、″逆时针″等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语″第一″、″第二″仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有″第一″、″第二″的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,″多个″的含义是两个或两个以上,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语″安装″、″相连″、″连接″、″固定″等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
目前,智能设备被广泛的运用于办公区域、图书馆、咖啡厅等各种公共场所。现有的公共空间建设中,对于智能设备本身的设计已经比较完善,然而在设计中却往往忽略了与使用者之间的交互。
智能设备交互系统一般可以分为两类:基于传感器的系统,基于手机的远程控制交互系统。基于传感器的系统主要使用单个、多个传统传感器如运动传感器(红外传感器)检测传感器前固定的一片区域的人员活动情况,根据传感器结果从而控制智能设备。基于手机的远程控制交互系统主要利用了蓝牙,无线保真(Wireless Fidelity,WIFI)或者全球定位系统(GlobalPositioning System,GPS)技术,允许用户在手机终端上对智能设备进行远程操作。现有技术主要存在一些缺点诸如:稳定性不高,感知视野小。
相关技术中,智能设备一般是作为单独的个体只提供一个区域内的开关功能或仅是通过电脑编程控制,大多数智能设备也仅是可以通过手机屏幕的触摸式交互来进行远程控制。
智能设备无法在人员到达智能设备所发出的灯光覆盖的区域时自动打开。
基于此,本实施例提出一种智能设备控制方法和装置,从场景区域图像中确定出人员所在的场景子区域后,将人员所在的场景子区域的智能设备打开,无需人员对智能设备的开闭进行控制,就可以将人员所在的场景子区域的智能设备自动打开,操作简单方便。
实施例1
本实施例提出一种智能设备控制方法,该方法的执行主体是服务器。
所述服务器,可以是现有的任何能够对图像进行处理,根据图像的处理结果对智能设备进行控制的计算设备,这里不再一一赘述。
参见图1所示的智能设备控制方法的流程图,本实施例提出一种智能设备控制方法,包括以下具体步骤:
步骤100、获取场景区域图像。
在上述步骤100中,服务器可以通过与服务器自身连接的摄像头获取场景区域图像。
所述场景区域,是指办公区域、图书馆、咖啡厅等各种公共场所。
所述摄像头,安装在办公区域、图书馆、咖啡厅等各种公共场所中,用于采集不同场景区域的图像。所以,工作人员可以分别将不同的场景区域通过标识的方式标记出来,并将不同的场景区域中的各场景区域的场景区域标识输入到拍摄该场景区域标识对应场景区域图像的摄像头中,使得摄像头拍摄的场景区域图像均带有所拍摄的场景区域的场景区域标识。
所述摄像头,携带有所拍摄的场景区域的场景区域标识。
各场景区域中均设有多个智能设备,每个智能设备在发光时均可以覆盖场景区域中的部分区域,该部分区域就是场景区域中的一个场景子区域。所以,每个场景区域均包括:多个场景子区域。
为了在人们经过场景子区域时,让对该场景子区域进行照明的智能设备能够自动启动照明,服务器中存储有场景区域标识与多个场景子区域标识的对应关系。
为了方便对场景子区域内的人员进行识别,所述人员所在的场景子区域,包括:具有运动中的人员的运动区域和具有静止不动人员的静止区域。
所述运动中的人员,是指在场景子区域内行走或者奔跑的人。
所述静止不动人员,是指在场景子区域内站立或者坐着的人。
步骤102、从所述场景区域图像中确定出人员所在的场景子区域。
为了确定出人员所在的场景子区域,上述步骤102可以执行以下步骤(1)至步骤(2):
(1)对所述场景区域图像进行预处理;
(2)从进行完预处理的场景区域图像中分别确定出运动区域和静止区域,将确定出的运动区域和静止区域作为人员所在的场景子区域。
在上述步骤(1)中,图像预处理步骤包括但不限于:压缩(裁剪)、转换色彩空间、以及降噪。
在上述步骤(2)中,为了从进行完预处理的场景区域图像中确定出运动区域,可以执行以下具体步骤(1)至步骤(3):
(1)利用前景提取算法对进行完预处理的场景区域图像进行处理,得到所述场景区域图像中的运动人员区域,并计算得到所述运动人员区域占所述场景区域图像中各场景子区域图像的所占比例;
(2)将运动人员区域占场景子区域图像的所占比例大于第一预设比例阈值的场景子区域图像确定为所述场景区域图像的候选运动区域;
(3)对所述候选运动区域中的非运动区域进行过滤,得到场景区域图像中的运动区域。
在上述步骤(1)中,利用前景提取算法对进行完预处理的场景区域图像进行处理,可以得到各场景子区域图像中的运动人员区域。
然后,可以根据运动人员区域的像素值计算得到运动人员区域的面积大小,从而得到各场景子区域标识与子区域内运动人员区域面积的对应关系。其中,根据运动人员区域的像素值计算得到运动人员区域的面积大小的过程采用现有技术完成,本实施例中不再赘述。
服务器中存储有每个场景区域中的各场景子区域的面积,以场景区域标识、场景子区域标识和子区域面积的对应关系的方式存储。
所以,基于场景区域标识和场景子区域标识从场景区域标识、场景子区域标识和子区域面积的对应关系中查询出场景子区域标识对应的场景子区域的面积大小,然后将该场景子区域标识对应的子区域内运动人员区域面积除以场景子区域的面积,就可以计算得到所述场景区域图像中的各场景子区域图像中的运动人员区域占各场景子区域图像的所占比例。
前景提取算法即高斯混合模型(Mixture of Gaussians,MoG)算法,用于提取出当前场景中的运动区域。前景提取算法的原理是使用多个高斯模型的加权混合来模拟场景区域的特性。这样一旦已知这个场景区域,入侵物体就能通过标出场景图像中不符合场景区域的部分来检测到图像中的运动区域。
在上述步骤(3)中,服务器基于现有技术中的检测框分值技术对所述候选运动区域中的非运动区域进行过滤,具体过程本实施例中不再赘述。
为了从进行完预处理的场景区域图像中确定出静止区域,可以执行以下具体步骤(1)至步骤(4):
(1)通过深度卷积神经网络对进行完预处理的场景区域图像进行处理,确定出场景区域中的候选静止区域;
(2)将所述场景区域图像分别添加至以第一频率采集的第一场景区域图像集合和以第二频率采集的第二场景区域图像集合中;其中,所述第一频率高于第二频率;
(3)将分别添加了所述场景区域图像的第一场景区域图像集合中的图像和第二场景区域图像集合中的图像进行融合,得到具有候选静止区域的融合检测图像;
(4)将所述融合检测图像中图像面积与检测框面积的面积比例大于第二预设比例阈值的候选静止区域确定为静止区域。
在上述步骤(1)中,通过深度卷积神经网络对进行完预处理的场景区域图像进行处理的过程为现有技术,本实施例中不再赘述。
这里,服务器可以将进行完预处理的场景区域图像送入已经训练好的深度卷积神经网络模型来获取到当前场景区域中每个人的头部定位检测框以及这些检测框的分类得分。
卷积神经网络仿造生物的视知觉机制构建,其隐含层内的卷积核参数共享和层间连接的稀疏性使得卷积神经网络能够以较小的计算量对数据进行特征提取。卷积神经网络能够检测出场景中所有的可能目标。
在上述步骤(2)中,第一场景区域图像集合和第二场景区域图像集合分别存储在服务器中。
在一个实施方式中,第一频率可以是任何大于1的频率。第二频率可以是0到1之间的任意频率。
在上述步骤(3)中,场景区域中的摄像头的位置固定,场景纵深并不是很大,所以在场景区域中的检测框大小其实是只在一定的范围内变动的,使用卷积神经网络可以过滤掉那些肯定不是目标的特别小或者特别大的物体,服务器通过对卷积神经网络中检测场景区域时使用的最大和最小的检测框,来确定这两个相应的阈值然后进行大小滤波。然后,服务器使用了MoG算法中的背景减除器,对以第一频率采集的第一场景区域图像集合和以第二频率采集的第二场景区域图像集合中的图像进行融合,得到具有候选静止区域的融合检测图像。
得到具有候选静止区域的融合检测图像的过程为采用MoG算法的现有技术,本实施例中不再赘述。
在上述步骤(4)中,根据候选静止区域的像素值,计算候选静止区域的面积。
服务器在计算得到候选静止区域的面积后,从服务器自身中取出存储的检测框面积,然后将候选静止区域的面积除以检测框面积,计算得到候选静止区域的面积与检测框面积的面积比例。
步骤104、将人员所在的场景子区域的智能设备打开。
为了将人员所在的场景子区域的智能设备打开,上述步骤104包括以下步骤(1)至步骤(3):
(1)获取所述场景区域图像携带的场景区域标识,并根据所述场景区域标识得到所述场景区域标识对应的场景区域中人员所在的场景子区域的标识;
(2)获取所述人员所在的场景子区域的标识关联的智能设备标识,并根据获取到的所述智能设备标识生成智能设备打开指令;
(3)将所述智能设备打开指令发送到所述智能设备标识对应的智能设备上,将人员所在的场景子区域的智能设备打开。
在上述步骤(1)中,在获取到场景区域标识后,就可以根据获取到的场景区域标识查询出与所述场景区域标识对应的场景子区域的标识和场景子区域的面积;然后根据确定出的人员所在的场景子区域的面积从与所述场景区域标识对应的场景子区域的标识和场景子区域的面积中查询出与人员所在的场景子区域的面积相同的场景子区域的标识,并将查询出的场景子区域的标识作为所述场景区域标识对应的场景区域中人员所在的场景子区域的标识。
所述智能设备,包括但不限于:智能灯具、智能电视、智能空调、智能风扇以及智能音箱。
综上所述,本实施例提出一种智能设备控制方法,通过获取到的场景区域图像;从场景区域图像中确定出人员所在的场景子区域后,将人员所在的场景子区域的智能设备打开,与相关技术中大多数智能设备也仅是可以通过手机屏幕的触摸式交互来进行远程控制相比,无需人员对智能设备的开闭进行控制,就可以将人员所在的场景子区域的智能设备自动打开,操作简单方便。
实施例2
参见图2所示的智能设备控制装置的结构示意图,本实施例提出一种智能设备控制装置,用于执行上述实施例1提出的智能设备控制方法,该智能设备控制装置包括:
获取模块200,用于获取场景区域图像;
处理模块202,用于从所述场景区域图像中确定出人员所在的场景子区域;
控制模块204,用于将人员所在的场景子区域的智能设备打开。
所述人员所在的场景子区域,包括:具有运动中的人员的运动区域和具有静止不动人员的静止区域;
具体地,所述处理模块,具体用于:
对所述场景区域图像进行预处理;
从进行完预处理的场景区域图像中分别确定出运动区域和静止区域,将确定出的运动区域和静止区域作为人员所在的场景子区域。
具体地,所述处理模块,用于从进行完预处理的场景区域图像中确定出运动区域,包括:
利用前景提取算法对进行完预处理的场景区域图像进行处理,得到所述场景区域图像中的运动人员区域,并计算得到所述运动人员区域占所述场景区域图像中各场景子区域图像的所占比例;
将运动人员区域占场景子区域图像的所占比例大于第一预设比例阈值的场景子区域图像确定为所述场景区域图像的候选运动区域;
对所述候选运动区域中的非运动区域进行过滤,得到场景区域图像中的运动区域。
具体地,所述处理模块,用于从进行完预处理的场景区域图像中确定出静止区域,包括:
通过深度卷积神经网络对进行完预处理的场景区域图像进行处理,确定出场景区域中的候选静止区域;
将所述场景区域图像分别添加至以第一频率采集的第一场景区域图像集合和以第二频率采集的第二场景区域图像集合中;其中,所述第一频率高于第二频率;
将分别添加了所述场景区域图像的第一场景区域图像集合中的图像和第二场景区域图像集合中的图像进行融合,得到具有候选静止区域的融合检测图像;
将所述融合检测图像中图像面积与检测框面积的面积比例大于第二预设比例阈值的候选静止区域确定为静止区域。
所述场景区域图像携带有场景区域标识;
具体地,控制模块,具体用于:
获取所述场景区域图像携带的场景区域标识,并根据所述场景区域标识得到所述场景区域标识对应的场景区域中人员所在的场景子区域的标识;
获取所述人员所在的场景子区域的标识关联的智能设备标识,并根据获取到的所述智能设备标识生成智能设备打开指令;
将所述智能设备打开指令发送到所述智能设备标识对应的智能设备上,将人员所在的场景子区域的智能设备打开。
综上所述,本实施例提出一种智能设备控制装置,通过获取到的场景区域图像;从场景区域图像中确定出人员所在的场景子区域后,将人员所在的场景子区域的智能设备打开,与相关技术中大多数智能设备也仅是可以通过手机屏幕的触摸式交互来进行远程控制相比,无需人员对智能设备的开闭进行控制,就可以将人员所在的场景子区域的智能设备自动打开,操作简单方便。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (10)
1.一种智能设备控制方法,其特征在于,包括:
获取场景区域图像;
从所述场景区域图像中确定出人员所在的场景子区域;
将人员所在的场景子区域的智能设备打开。
2.根据权利要求1所述的方法,其特征在于,所述人员所在的场景子区域,包括:具有运动中的人员的运动区域和具有静止不动人员的静止区域;
从所述场景区域图像中确定出人员所在的场景子区域,包括:
对所述场景区域图像进行预处理;
从进行完预处理的场景区域图像中分别确定出运动区域和静止区域,将确定出的运动区域和静止区域作为人员所在的场景子区域。
3.根据权利要求2所述的方法,其特征在于,从进行完预处理的场景区域图像中确定出运动区域,包括:
利用前景提取算法对进行完预处理的场景区域图像进行处理,得到所述场景区域图像中的运动人员区域,并计算得到所述运动人员区域占所述场景区域图像中各场景子区域图像的所占比例;
将运动人员区域占场景子区域图像的所占比例大于第一预设比例阈值的场景子区域图像确定为所述场景区域图像的候选运动区域;
对所述候选运动区域中的非运动区域进行过滤,得到场景区域图像中的运动区域。
4.根据权利要求2所述的方法,其特征在于,从进行完预处理的场景区域图像中确定出静止区域,包括:
通过深度卷积神经网络对进行完预处理的场景区域图像进行处理,确定出场景区域中的候选静止区域;
将所述场景区域图像分别添加至以第一频率采集的第一场景区域图像集合和以第二频率采集的第二场景区域图像集合中;其中,所述第一频率高于第二频率;
将分别添加了所述场景区域图像的第一场景区域图像集合中的图像和第二场景区域图像集合中的图像进行融合,得到具有候选静止区域的融合检测图像;
将所述融合检测图像中图像面积与检测框面积的面积比例大于第二预设比例阈值的候选静止区域确定为静止区域。
5.根据权利要求1所述的方法,其特征在于,所述场景区域图像携带有场景区域标识;
将人员所在的场景子区域的智能设备打开,包括:
获取所述场景区域图像携带的场景区域标识,并根据所述场景区域标识得到所述场景区域标识对应的场景区域中人员所在的场景子区域的标识;
获取所述人员所在的场景子区域的标识关联的智能设备标识,并根据获取到的所述智能设备标识生成智能设备打开指令;
将所述智能设备打开指令发送到所述智能设备标识对应的智能设备上,将人员所在的场景子区域的智能设备打开。
6.一种智能设备控制装置,其特征在于,包括:
获取模块,用于获取场景区域图像;
处理模块,用于从所述场景区域图像中确定出人员所在的场景子区域;
控制模块,用于将人员所在的场景子区域的智能设备打开。
7.根据权利要求6所述的装置,其特征在于,所述人员所在的场景子区域,包括:具有运动中的人员的运动区域和具有静止不动人员的静止区域;
所述处理模块,具体用于:
对所述场景区域图像进行预处理;
从进行完预处理的场景区域图像中分别确定出运动区域和静止区域,将确定出的运动区域和静止区域作为人员所在的场景子区域。
8.根据权利要求7所述的装置,其特征在于,所述处理模块,用于从进行完预处理的场景区域图像中确定出运动区域,包括:
利用前景提取算法对进行完预处理的场景区域图像进行处理,得到所述场景区域图像中的运动人员区域,并计算得到所述运动人员区域占所述场景区域图像中各场景子区域图像的所占比例;
将运动人员区域占场景子区域图像的所占比例大于第一预设比例阈值的场景子区域图像确定为所述场景区域图像的候选运动区域;
对所述候选运动区域中的非运动区域进行过滤,得到场景区域图像中的运动区域。
9.根据权利要求7所述的装置,其特征在于,所述处理模块,用于从进行完预处理的场景区域图像中确定出静止区域,包括:
通过深度卷积神经网络对进行完预处理的场景区域图像进行处理,确定出场景区域中的候选静止区域;
将所述场景区域图像分别添加至以第一频率采集的第一场景区域图像集合和以第二频率采集的第二场景区域图像集合中;其中,所述第一频率高于第二频率;
将分别添加了所述场景区域图像的第一场景区域图像集合中的图像和第二场景区域图像集合中的图像进行融合,得到具有候选静止区域的融合检测图像;
将所述融合检测图像中图像面积与检测框面积的面积比例大于第二预设比例阈值的候选静止区域确定为静止区域。
10.根据权利要求6所述的装置,其特征在于,所述场景区域图像携带有场景区域标识;
控制模块,具体用于:
获取所述场景区域图像携带的场景区域标识,并根据所述场景区域标识得到所述场景区域标识对应的场景区域中人员所在的场景子区域的标识;
获取所述人员所在的场景子区域的标识关联的智能设备标识,并根据获取到的所述智能设备标识生成智能设备打开指令;
将所述智能设备打开指令发送到所述智能设备标识对应的智能设备上,将人员所在的场景子区域的智能设备打开。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2019104365680 | 2019-05-23 | ||
CN201910436568 | 2019-05-23 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110209063A true CN110209063A (zh) | 2019-09-06 |
Family
ID=67791271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910489426.0A Pending CN110209063A (zh) | 2019-05-23 | 2019-06-06 | 一种智能设备控制方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110209063A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050157204A1 (en) * | 2004-01-16 | 2005-07-21 | Sony Computer Entertainment Inc. | Method and apparatus for optimizing capture device settings through depth information |
CN101587338A (zh) * | 2009-06-16 | 2009-11-25 | 北京中星微电子有限公司 | 电器设备控制方法及系统 |
CN102982558A (zh) * | 2012-11-28 | 2013-03-20 | 无锡港湾网络科技有限公司 | 运动目标检测方法及装置 |
CN106778650A (zh) * | 2016-12-26 | 2017-05-31 | 深圳极视角科技有限公司 | 基于多类型信息融合的场景自适应行人检测方法和系统 |
CN106844722A (zh) * | 2017-02-09 | 2017-06-13 | 北京理工大学 | 基于Kinect设备的合影系统及方法 |
CN107734267A (zh) * | 2017-09-11 | 2018-02-23 | 广东欧珀移动通信有限公司 | 图像处理方法和装置 |
-
2019
- 2019-06-06 CN CN201910489426.0A patent/CN110209063A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050157204A1 (en) * | 2004-01-16 | 2005-07-21 | Sony Computer Entertainment Inc. | Method and apparatus for optimizing capture device settings through depth information |
CN101587338A (zh) * | 2009-06-16 | 2009-11-25 | 北京中星微电子有限公司 | 电器设备控制方法及系统 |
CN102982558A (zh) * | 2012-11-28 | 2013-03-20 | 无锡港湾网络科技有限公司 | 运动目标检测方法及装置 |
CN106778650A (zh) * | 2016-12-26 | 2017-05-31 | 深圳极视角科技有限公司 | 基于多类型信息融合的场景自适应行人检测方法和系统 |
CN106844722A (zh) * | 2017-02-09 | 2017-06-13 | 北京理工大学 | 基于Kinect设备的合影系统及方法 |
CN107734267A (zh) * | 2017-09-11 | 2018-02-23 | 广东欧珀移动通信有限公司 | 图像处理方法和装置 |
Non-Patent Citations (1)
Title |
---|
焦会英: "基于卷积神经网络的稀疏目标场景下智能视频人数统计方法", 《电子技术与软件工程》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20150021526A (ko) | 데이터베이스 생성 및 업데이트를 위한 심도 기반 추적을 이용하는 자기 학습 얼굴 인식 기법 | |
CN110705357A (zh) | 人脸识别方法和人脸识别装置 | |
CN102892007B (zh) | 促进多个摄像机间颜色平衡同步和获得跟踪的方法和系统 | |
CN111503991B (zh) | 一种识别冰箱食材存取位置的方法及冰箱 | |
CN107992819A (zh) | 一种车辆属性结构化特征的确定方法与装置 | |
US9672632B2 (en) | Device and method for camera driven background subtraction | |
CN107292223A (zh) | 一种实时手势检测的在线验证方法及系统 | |
CN112633313B (zh) | 一种网络终端的不良信息识别方法及局域网终端设备 | |
JP7085812B2 (ja) | 画像処理装置およびその制御方法 | |
CN112070053B (zh) | 背景图像的自更新方法、装置、设备及存储介质 | |
JP2018169831A (ja) | 画像比較装置 | |
CN108806146A (zh) | 一种安防监控动态目标锁定追踪方法及系统 | |
Serrano-Cuerda et al. | Robust human detection and tracking in intelligent environments by information fusion of color and infrared video | |
Zaharescu et al. | Multi-scale multi-feature codebook-based background subtraction | |
KR101924715B1 (ko) | 디바이스 제어를 위한 적외선 시그널링의 자동 설정을 가능하게 하는 기법 | |
CN108805073A (zh) | 一种安防监控动态目标优化锁定追踪方法及系统 | |
JP6080572B2 (ja) | 通行物体検出装置 | |
CN109658523A (zh) | 利用ar增强现实应用实现车辆各功能使用说明的方法 | |
CN110209063A (zh) | 一种智能设备控制方法和装置 | |
CN108810464A (zh) | 一种智能人身识别图像优化跟踪传输方法及系统 | |
CN111062311B (zh) | 一种基于深度级可分离卷积网络的行人手势识别与交互方法 | |
DE112020003765T5 (de) | Überwachte Einrichtung eines Steuervorrichtungs mit Bildgeber | |
EP4089649A1 (en) | Neuromorphic cameras for aircraft | |
CN109727218B (zh) | 一种完整图形提取方法 | |
CN113780262A (zh) | 人脸识别智能光照补偿方法、装置、设备及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190906 |
|
RJ01 | Rejection of invention patent application after publication |