CN112770053B - 一种物联网设备协同联动方法 - Google Patents

一种物联网设备协同联动方法 Download PDF

Info

Publication number
CN112770053B
CN112770053B CN202110008446.9A CN202110008446A CN112770053B CN 112770053 B CN112770053 B CN 112770053B CN 202110008446 A CN202110008446 A CN 202110008446A CN 112770053 B CN112770053 B CN 112770053B
Authority
CN
China
Prior art keywords
video
internet
night vision
equipment
perception capability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110008446.9A
Other languages
English (en)
Other versions
CN112770053A (zh
Inventor
请求不公布姓名
许振斌
佘丰客
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhuhai Hengqin Yingshi Technology Research And Development Co ltd
Original Assignee
Zhuhai Hengqin Yingshi Technology Research And Development Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhuhai Hengqin Yingshi Technology Research And Development Co ltd filed Critical Zhuhai Hengqin Yingshi Technology Research And Development Co ltd
Priority to CN202110008446.9A priority Critical patent/CN112770053B/zh
Publication of CN112770053A publication Critical patent/CN112770053A/zh
Application granted granted Critical
Publication of CN112770053B publication Critical patent/CN112770053B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Telephonic Communication Services (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本发明提供了一种物联网设备协同联动方法,属于物联网技术领域,本发明提供的方法通过物联网设备在区域的位置和时刻建立物联网设备感知能力模型,并根据物联网设备感知能力模型建立物联网设备子感知能力矩阵,构造目标函数同时采用KM算法使用户选取的目标子区域的感知能力分值最大,如果目标子区域的感知能力分值没有满足用户的需求,则只需要调节物联网设备在区域的位置和时刻,即可得到目标子区域的感知能力分值,直到满足用户的需求;本发明利用KM算法调度物联网设备,可以使物联网系统获得最好的感知能力,实现物联网设备的互相协作,保证了用户关心区域的整体信息的获取,提高物联网系统的可靠性,降低了物联网系统的建设成本。

Description

一种物联网设备协同联动方法
技术领域
本发明属于物联网技术领域,更具体地说,是涉及一种物联网设备协同联动方法。
背景技术
现有物联网设备具有很多类型的模块,不同物联网设备之间模块的感应范围和可靠性是不一样的,并且安装在室外的物联网设备容易出现某一模块出现异常,无法工作的情况,因此需要通过不同物联网设备之间的协作,充分利用模块的数据采集范围与能力,提高整个系统的可靠性。
为了提高整个系统在关注区域的覆盖范围和可靠性,现有的技术手段只能通过增加物联网设备的方式,来扩大数据采集范围与能力,但是这种方式会提高整个物联网系统的冗余度,进而降低数据的采集精度,也大大提高了系统的建设成本。
发明内容
本发明的目的在于提供一种物联网设备协同联动方法,旨在解决现有的技术手段仅仅通过增加物联网设备的方式,来扩大数据采集范围与能力,而导致的数据的采集精度低和物联网系统建设成本高的问题。
为实现上述目的,本发明采用的技术方案是:一种物联网设备协同联动方法,其特征在于,包括:
步骤1:建立区域;将所述区域划分为若干个子区域;在所述区域内设置物联网设备;
步骤2:根据所述物联网设备在所述区域内的位置和时刻建立物联网设备感知能力模型;
步骤3:获取所述物联网设备在所述区域内的当前位置和当前时刻;
步骤4:根据所述当前位置、所述当前时刻以及所述物联网设备感知能力模型建立物联网设备子感知能力矩阵;
步骤5:选取用户关注的所述子区域为目标子区域;
步骤6:构造目标函数同时采用KM算法使所述目标子区域的感知能力分值最大;
步骤7:判断所述目标子区域的感知能力分值是否大于或者等于感知能力阈值,生成第一判断结果;
步骤8:若所述第一判断结果为所述目标子区域的感知能力分值大于或者等于所述感知能力阈值,则完成物联网设备之间的协同联动,物联网设备开机工作;
步骤9:若所述第一判断结果为所述目标子区域的感知能力分值小于所述感知能力阈值,则重新调整所述物联网设备在所述区域内的所述位置和所述时刻,返回所述步骤4。
优选的,所述在所述区域内设置物联网设备,包括:
所述物联网设备包括音频设备、普通视频设备和红外/夜视视频设备;各所述物联网设备的感知范围覆盖多个子区域。
优选的,所述步骤2:根据所述物联网设备在所述区域内的位置和时刻建立物联网设备感知能力模型,包括:
步骤2.1:根据物联网设备在所述区域内的位置和时刻得到物联网设备感知能力的影响系数;
步骤2.2:根据所述物联网设备感知能力的影响系数建立所述物联网设备感知能力模型;所述物联网设备感知能力模型包括音频设备感知能力模型、普通视频设备感知能力模型和红外/夜视视频设备感知能力模型。
优选的,所述物联网设备感知能力模型为:
p=T(d,t)·R(d,a)·δ(d,a)
其中,p代表物联网设备感知能力分值,T(d,t)代表物联网设备d在时刻t下感知能力的影响系数,R(d,a)代表物联网设备d与子区域a的距离对感知能力的影响系数,δ(d,a)表示物联网设备d与子区域a之间的遮挡对感知能力的影响系数。
优选的,所述音频设备感知能力模型包括:
p音频=T音频(d音频,t)·R音频(d音频,a音频)·δ音频(d音频,a音频)
Figure BDA0002884025890000031
Figure BDA0002884025890000032
Figure BDA0002884025890000033
其中,p音频代表音频设备的感知能力分值,T音频(d音频,t)代表音频设备d音频在时刻t下感知能力的影响系数,R音频(d音频,a音频)代表音频设备d音频与子区域a音频的距离对感知能力的影响系数,δ音频(d音频,a音频)表示音频设备d音频与子区域a音频之间的遮挡对感知能力的影响系数,r1为音频设备d音频到子区域a音频之间的距离,R1为音频设备的拾音范围。
优选的,所述普通视频设备感知能力模型包括:
p视频=T视频(d视频,t)·R视频(d视频,a视频)·δ视频(d视频,a视频)
Figure BDA0002884025890000034
Figure BDA0002884025890000035
Figure BDA0002884025890000036
其中,p视频代表普通视频设备的感知能力分值,T视频(d视频,t)代表普通视频设备d视频在时刻t下感知能力的影响系数,R视频(d视频,a视频)代表普通视频设备d视频与子区域a视频的距离对感知能力的影响系数,δ视频(d视频,a视频)表示普通视频设备d视频与子区域a视频之间的遮挡对感知能力的影响系数,r2为普通视频设备d视频到子区域a视频之间的距离,R2为普通视频设备的监控范围,θ1是普通视频设备的摄像头与子区域a视频之间的夹角,Θ1是普通视频设备的摄像头监控有效半角度。
优选的,所述红外/夜视视频设备感知能力模型包括:
p夜视=T夜视(d夜视,t)·R夜视(d夜视,a夜视)·δ夜视(d夜视,a夜视)
Figure BDA0002884025890000041
Figure BDA0002884025890000042
Figure BDA0002884025890000043
其中,p夜视代表红外/夜视视频设备的感知能力分值,T夜视(d夜视,t)代表红外/夜视视频设备d夜视在时刻t下感知能力的影响系数,R夜视(d夜视,a夜视)代表红外/夜视视频设备d夜视与子区域a夜视的距离对感知能力的影响系数,δ夜视(d夜视,a夜视)表示红外/夜视视频设备d夜视与子区域a夜视之间的遮挡对感知能力的影响系数,r3为红外/夜视视频设备d夜视到子区域a夜视之间的距离,R3为红外/夜视视频设备的监控范围,θ2是红外/夜视视频设备的摄像头与子区域a夜视之间的夹角,Θ2是红外/夜视视频设备的摄像头监控有效半角度。
优选的,所述感知能力阈值为0.7。
本发明提供的物联网设备协同联动方法的有益效果在于:与现有技术相比,本发明可以通过物联网设备在区域的位置和时刻建立物联网设备感知能力模型,并根据物联网设备感知能力模型建立物联网设备子感知能力矩阵,构造目标函数同时采用KM算法使用户选取的目标子区域的感知能力分值最大,如果目标子区域的感知能力分值没有满足用户的需求,则只需要调节物联网设备在区域的位置和时刻,即可重新计算得到目标子区域的感知能力分值,直到满足用户的需求;本发明利用KM算法调度物联网设备,可以使物联网系统获得最好的感知能力,实现物联网设备的互相协作,保证了用户关心区域的整体信息的获取,提高物联网系统的可靠性,降低了物联网系统的建设成本。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的物联网设备协同联动方法的流程图;
图2为本发明实施例提供的物联网设备子感知能力矩阵示意图;
图3为本发明实施例提供的KM算法匹配流程示意图;
图4为本发明实施例提供的物联网设备协同联动工作流程图;
图5为本发明实施例提供的第一物联网设备协同联动方法的示例图;
图6为本发明实施例提供的第二物联网设备协同联动方法的示例图。
具体实施方式
为了使本发明所要解决的技术问题、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明的目的在于提供一种物联网设备协同联动方法,旨在解决现有的技术手段仅仅通过增加物联网设备的方式,来扩大数据采集范围与能力,而导致的数据的采集精度低和物联网系统建设成本高的问题。
请参阅图1,为实现上述目的,本发明采用的技术方案是:一种物联网设备协同联动方法,包括:
步骤1:建立区域,将区域划分为若干个子区域,在区域内设置物联网设备;
物联网设备包括音频设备、普通视频设备和红外/夜视视频设备;物联网设备的感知范围覆盖多个子区域;
在实际应用中,本发明的区域、子区域、物联网设备遵循以下原则:
一.区域:某一大规模的物理空间,需要监控或者采集数据的目标区域。
二.子区域:区域根据物联网设备的分布范围、管理的需要或其他要求,划分为若干子区域,每个子区域具有以下特点:
a.每个子区域具有唯一标识符;
b.子区域之间可以有重叠;
c.所有子区域的集合必须完全覆盖区域。
三.物联网设备:分布于区域内的若干物联网设备。它们具有以下特点:
a.每一个物联网设备具有唯一设备ID,即通过物联网设备ID可以获得它对应的唯一空间位置,以及其覆盖的对应区域;
b.每一个物联网设备具有若干感知模块;
c.每一个物联网设备的感知模块都能够覆盖若干子区域;
d.子区域可以不被物联网设备覆盖,如果是用户的主观意愿出现这种情况,我们称这一类子区域为“不关心区域”;
e.对于某些具备动作能力的物联网设备,可以通过动作,变更其感知模块所能够感知的范围;
f.每一种物联网设备都有自己的若干种状态。比如摄像头/麦克风有不同的朝向、红外摄像头/夜视摄像头有对应的工作时间段;
g.每一个物联网设备完成任务的能力,被定义为感知能力。比如摄像头的对某一区域的感知能力,极大的受到现场的影响。麦克风对某一区域的感知能力受到距离的影响很大;
h.每一个物联网设备在不同状态下有不同的感知能力。比如摄像头在白天某一区域的感知能力分值是0.9,夜里对这一区域的感知能力分值是0.1。红外摄像头对同一区域白天的感知能力分值是0.2,夜里对这一区域的感知能力分值是0.7;当一个区域的感知能力分值大于或者等于0.7的时候,我们认为这是一个受良好监控的区域。
四.感知模块:每一个物联网设备都具有若干感知模块,比如摄像头拾像模块和拾音模块。每个感知模块都有以下特点:
a.每个感知模块都有唯一的模块ID;
b.每个感知模块都只属于一个物联网设备;
c.同一个物联网设备可以包含若干相同的感知模块;
d.每一个感知模块都有其适应时间、空间;
e.每一个感知模块在不同时间、空间下的感知能力不一致。比如摄像头在晚上和白天对同一区域的感知能力不一样、同一拾音设备对不同子区域的感知能力也不一样。
五.地图:一份区域及其子区域、物联网设备及其模块之间的对应关系的集合,它包含了:
a.每一个子区域与区域在空间位置上的对应关系;
b.不同子区域之间的相对位置关系;
c.每一个感知模块与子区域之间,在某一时刻的感知能力的对应关系;
d.地图上存储了所有子区域和对应物联网设备的空间坐标[x,y,z]。
六.区域管理者:存在一个区域管理者,管理区域内的所有设备以及其中发生的事件。并且可以根据设定的规则,根据现场的情况采取动作,比如驱动现场可动作设备。
a.调度:根据感知模块与子区域之间在某一时刻的感知能力的对应关系,采用算法,生成由哪一台设备的哪一个感知模块来采集特定区域的计划;以保证现场子区域有尽可能高的覆盖率和感知能力;定义协作过程为:通过对不同设备分配不同任务,来使得关心区域的感知能力分数满足用户的需求,或者达到最优;
b.数据收集、处理、存储和管理:对于感知模块采集到的数据可以进行处理,提取关心的信息,并将这些信息进行存储和管理;
生成日志:对区域内发生的各个事件可以生成日志,方便用户查询和追溯。
步骤2:根据物联网设备在区域内的位置和时刻建立物联网设备感知能力模型;
具体的,步骤2:根据所述物联网设备在所述区域内的位置和时刻建立物联网设备感知能力模型,包括:
步骤2.1:根据物联网设备在所述区域内的位置和时刻得到物联网设备感知能力的影响系数;
步骤2.2:根据所述物联网设备感知能力的影响系数建立所述物联网设备感知能力模型;所述物联网设备感知能力模型包括音频设备感知能力模型、普通视频设备感知能力模型和红外/夜视视频设备感知能力模型。
物联网设备感知能力模型为:
p=T(d,t)·R(d,a)·δ(d,a)   (1)
其中,p代表物联网设备感知能力分值,T(d,t)代表物联网设备d在时刻t下感知能力的影响系数,与区域无关,R(d,a)代表物联网设备d与子区域a的距离对感知能力的影响系数,与时间、状态无关,δ(d,a)表示物联网设备d与子区域a之间的遮挡对感知能力的影响系数。通常遮挡状态随着区域建设时已相对固定,在系统初期可通过建表的方式确定。
音频设备感知能力模型包括:
Figure BDA0002884025890000081
式中t是24小时制时间所对应的时刻,其中,p音频代表音频设备的感知能力分值,T音频(d音频,t)代表音频设备d音频在时刻t下感知能力的影响系数,R音频(d音频,a音频)代表音频设备d音频与子区域a音频的距离对感知能力的影响系数,δ音频(d音频,a音频)表示音频设备d音频与子区域a音频之间的遮挡对感知能力的影响系数,r1为音频设备d音频到子区域a音频之间的距离,R1为音频设备的拾音范围,音频设备可选择R1=10m。e=2.718为自然对数。
普通视频设备感知能力模型包括:
Figure BDA0002884025890000091
其中,p视频代表普通视频设备的感知能力分值,T视频(d视频,t)代表普通视频设备d视频在时刻t下感知能力的影响系数,R视频(d视频,a视频)代表普通视频设备d视频与子区域a视频的距离对感知能力的影响系数,δ视频(d视频,a视频)表示普通视频设备d视频与子区域a视频之间的遮挡对感知能力的影响系数,r2为普通视频设备d视频到子区域a视频之间的距离,R2为普通视频设备的监控范围,θ1是普通视频设备的摄像头与子区域a视频之间的夹角,Θ1是普通视频设备的摄像头监控有效半角度,与摄像头本身参数相关。
红外/夜视视频设备感知能力模型包括:
Figure BDA0002884025890000092
其中,p夜视代表红外/夜视视频设备的感知能力分值,T夜视(d夜视,t)代表红外/夜视视频设备d夜视在时刻t下感知能力的影响系数,R夜视(d夜视,a夜视)代表红外/夜视视频设备d夜视与子区域a夜视的距离对感知能力的影响系数,δ夜视(d夜视,a夜视)表示红外/夜视视频设备d夜视与子区域a夜视之间的遮挡对感知能力的影响系数,r3为红外/夜视视频设备d夜视到子区域a夜视之间的距离,R3为红外/夜视视频设备的监控范围,θ2是红外/夜视视频设备的摄像头与子区域a夜视之间的夹角,Θ2是红外/夜视视频设备的摄像头监控有效半角度。一般视频设备(普通或者红外/夜视视频设备)的有效范围R2和R3一般可以选择25m,Θ1和Θ2通常可以取30度。
步骤3:获取物联网设备在区域内的当前位置和当前时刻;
具体的,获取当前时刻t,通过地图获得当前物联网设备的坐标[xd,yd,zd]以及摄像头设备夹角θd(区域管理者可以进行驱动),子区域的坐标[xa,ya,za]。
步骤4:根据当前位置、当前时刻以及物联网设备感知能力模型建立物联网设备子感知能力矩阵;
进一步的,采用以下公式计算得到物联网设备与子区域之间的距离:
Figure BDA0002884025890000101
采用以下公式计算普通视频设备或者红外/夜视视频设备摄像头与子区域之间的夹角:
Figure BDA0002884025890000102
其中,遮挡状态δ,可通过现场实际情况来确定;
采用公式(2)-(6)计算音频设备、普通视频设备和红外/夜视视频设备之间的感知能力矩阵;
请参考图2,选择子区域[a1,a2,a3,...,aI]与设备[d1,d2,d3,...,dJ]配对组合,生成子感知能力矩阵。构造配对矩阵P[I,J],其中每一个值Pij=p(ai,bj),i∈[1,...,I],j∈[1,...,J]。
步骤5:选取用户关注的子区域为目标子区域;
步骤6:构造目标函数同时采用KM算法使目标子区域的感知能力分值最大;
下面对这一过程进行进一步描述:构造目标函数为子区域上的感知能力,匹配过程为使子区域上的感知能力最大;采用KM算法计算子感知能力矩阵得到感知能力最大的匹配对。具体的,请参考图3,假设用户关注子区域a1、a2、a3的状态,通过计算子感知能力矩阵,得到设备d1、d2、d3可以覆盖这三个区域。通过KM匹配算法计算得到a1-d1、a2-d2、a3-d3的匹配关系可以获得最佳的感知能力,因此用户选择从d1设备获得a1区域的数据,从d2设备获取a2区域的数据,d3区域获取a3区域的数据。
步骤7:判断目标子区域的感知能力分值是否大于或者等于感知能力阈值,生成第一判断结果;
步骤8:若第一判断结果为目标子区域的感知能力分值大于或者等于感知能力阈值,则完成物联网设备之间的协同联动,物联网设备开机工作;
步骤9:若第一判断结果为目标子区域的感知能力分值小于感知能力阈值,则重新调整物联网设备在区域内的位置和时刻,返回根据物联网设备在区域内的位置和时刻建立物联网设备感知能力模型的步骤。感知能力阈值优选为0.7。
在实际应用中,由于时刻和物联网系统状态不断发生变化,比如设备可能出现异常,而导致某一区域的信号丢失,因此整体的以及关注区域的感知能力会不断发生变化,因此需要不断重新计算现场的感知能力矩阵。
请参考图4,通过检查目标子区域的感知能力分值是否满足感知能力的要求,既目标子区域的感知能力分值分数要均大于或者等于0.7;
如果满足,即完成物联网设备之间的匹配,可以从摄像头获取视频文件,从音频设备获取音频;
如果不满足,检查是否已遍历所有设备的状态;
如果可以调整,则调整物联网设备的位置和时刻重新进行步骤2-9,直至物联网设备满足条件;
如果仍不能满足条件,且物联网设备状态已无法调整,说明目标子区域没有条件获取到信息。需要采取其他方法,可以通过更换更广角、感知能力更强的物联网设备,移除遮挡物或者增加新的设备等方法。
下面结合实施例对本发明的技术方案和技术效果进行进一步说明:
实施例1:
请参考图5,某一物联网设备A具有拾像模块d2和拾音模块d1,另一物联网设备B具有拾像模块d3,拾音模块的覆盖范围大于其拾像模块。
a.有一子区域a1在拾音模块d1的范围中,识别到异常声响,有人高呼救命;
b.物联网设备A将异常声响发送到区域管理者,区域管理者将关注区域设置为a1;
c.区域管理者根据当前状态,计算物联网系统在区域a1上的感知能力矩阵,发现物联网设备A的拾像模块d2无法覆盖子区域a1;
d.区域管理者根据调度算法计算,得到物联网设备B的拾像模块d3在子区域a1上能获得最高的感知能力分值;
区域管理者获取拾像模块d3在子区域a1下的图像,进行数据处理与分析。
实施例2:
请参考图6,某一物联网设备d1,另一物联网设备d2。
a.它们均可覆盖子区域a2、a3;
b.区域管理者通过物联网设备d1在地图的位置,计算d1在子区域a2上的感知能力分值0.8,在子区域a3上的感知能力分值0.5;
c.区域管理者通过物联网设备d2在地图的位置,计算d2在子区域a2上的感知能力分值0.6,在子区域a3上的感知能力分值0.9;
d.区域管理者通过调度策略,计算得到d1检测子区域a2,d2检测子区域a3可以获得整体区域下最高的检测能力分数;
区域管理者采用d1对子区域a2进行数据采集。
本发明通过物联网设备在区域的位置和时刻建立物联网设备感知能力模型,并根据物联网设备感知能力模型建立物联网设备子感知能力矩阵,构造目标函数同时采用KM算法使用户选取的目标子区域的感知能力分值最大,如果目标子区域的感知能力分值没有满足用户的需求,则只需要调节物联网设备在区域的位置和时刻,即可重新计算得到目标子区域的感知能力分值,直到满足用户的需求;本发明利用KM算法调度物联网设备,可以使物联网系统获得最好的感知能力,实现物联网设备的互相协作,保证了用户关心区域的整体信息的获取,提高物联网系统的可靠性,降低了物联网系统的建设成本。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发的保护范围之内。

Claims (4)

1.一种物联网设备协同联动方法,其特征在于,包括:
步骤1:建立区域;将所述区域划分为若干个子区域;在所述区域内设置物联网设备;所述物联网设备包括音频设备、普通视频设备和红外/夜视视频设备;各所述物联网设备的感知范围覆盖多个子区域;
步骤2:根据所述物联网设备在所述区域内的位置和时刻建立物联网设备感知能力模型;
所述步骤2:根据所述物联网设备在所述区域内的位置和时刻建立物联网设备感知能力模型,包括:
步骤2.1:根据物联网设备在所述区域内的位置和时刻得到物联网设备感知能力的影响系数;所述物联网设备感知能力模型为:
p=T(d,t)·R(d,a)·δ(d,a)
其中,p代表物联网设备感知能力分值,T(d,t)代表物联网设备d在时刻t下感知能力的影响系数,R(d,a)代表物联网设备d与子区域a的距离对感知能力的影响系数,δ(d,a)表示物联网设备d与子区域a之间的遮挡对感知能力的影响系数;
步骤2.2:根据所述物联网设备感知能力的影响系数建立所述物联网设备感知能力模型;所述物联网设备感知能力模型包括音频设备感知能力模型、普通视频设备感知能力模型和红外/夜视视频设备感知能力模型;其中,所述音频设备感知能力模型包括:
p音频=T音频(d音频,t)·R音频(d音频,a音频)·δ音频(d音频,a音频)
Figure FDA0003638337750000011
Figure FDA0003638337750000012
Figure FDA0003638337750000013
其中,p音频代表音频设备的感知能力分值,T音频(d音频,t)代表音频设备d音频在时刻t下感知能力的影响系数,R音频(d音频,a音频)代表音频设备d音频与子区域a音频的距离对感知能力的影响系数,δ音频(d音频,a音频)表示音频设备d音频与子区域a音频之间的遮挡对感知能力的影响系数,r1为音频设备d音频到子区域a音频之间的距离,R1为音频设备的拾音范围;
步骤3:获取所述物联网设备在所述区域内的当前位置和当前时刻;
步骤4:根据所述当前位置、所述当前时刻以及所述物联网设备感知能力模型建立物联网设备子感知能力矩阵;
步骤5:选取用户关注的所述子区域为目标子区域;
步骤6:构造目标函数同时采用KM算法使所述目标子区域的感知能力分值最大;
步骤7:判断所述目标子区域的感知能力分值是否大于或者等于感知能力阈值,生成第一判断结果;
步骤8:若所述第一判断结果为所述目标子区域的感知能力分值大于或者等于所述感知能力阈值,则完成物联网设备之间的协同联动,物联网设备开机工作;
步骤9:若所述第一判断结果为所述目标子区域的感知能力分值小于所述感知能力阈值,则重新调整所述物联网设备在所述区域内的所述位置和所述时刻,返回所述步骤4。
2.如权利要求1所述的物联网设备协同联动方法,其特征在于,所述普通视频设备感知能力模型包括:
p视频=T视频(d视频,t)·R视频(d视频,a视频)·δ视频(d视频,a视频)
Figure FDA0003638337750000021
Figure FDA0003638337750000022
Figure FDA0003638337750000023
其中,p视频代表普通视频设备的感知能力分值,T视频(d视频,t)代表普通视频设备d视频在时刻t下感知能力的影响系数,R视频(d视频,a视频)代表普通视频设备d视频与子区域a视频的距离对感知能力的影响系数,δ视频(d视频,a视频)表示普通视频设备d视频与子区域a视频之间的遮挡对感知能力的影响系数,r2为普通视频设备d视频到子区域a视频之间的距离,R2为普通视频设备的监控范围,θ1是普通视频设备的摄像头与子区域a视频之间的夹角,Θ1是普通视频设备的摄像头监控有效半角度。
3.如权利要求1所述的物联网设备协同联动方法,其特征在于,所述红外/夜视视频设备感知能力模型包括:
p夜视=T夜视(d夜视,t)·R夜视(d夜视,a夜视)·δ夜视(d夜视,a夜视)
Figure FDA0003638337750000031
Figure FDA0003638337750000032
Figure FDA0003638337750000033
其中,p夜视代表红外/夜视视频设备的感知能力分值,T夜视(d夜视,t)代表红外/夜视视频设备d夜视在时刻t下感知能力的影响系数,R夜视(d夜视,a夜视)代表红外/夜视视频设备d夜视与子区域a夜视的距离对感知能力的影响系数,δ夜视(d夜视,a夜视)表示红外/夜视视频设备d夜视与子区域a夜视之间的遮挡对感知能力的影响系数,r3为红外/夜视视频设备d夜视到子区域a夜视之间的距离,R3为红外/夜视视频设备的监控范围,θ2是红外/夜视视频设备的摄像头与子区域a夜视之间的夹角,Θ2是红外/夜视视频设备的摄像头监控有效半角度。
4.如权利要求1所述的物联网设备协同联动方法,其特征在于,所述感知能力阈值为0.7。
CN202110008446.9A 2021-01-05 2021-01-05 一种物联网设备协同联动方法 Active CN112770053B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110008446.9A CN112770053B (zh) 2021-01-05 2021-01-05 一种物联网设备协同联动方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110008446.9A CN112770053B (zh) 2021-01-05 2021-01-05 一种物联网设备协同联动方法

Publications (2)

Publication Number Publication Date
CN112770053A CN112770053A (zh) 2021-05-07
CN112770053B true CN112770053B (zh) 2023-04-07

Family

ID=75699271

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110008446.9A Active CN112770053B (zh) 2021-01-05 2021-01-05 一种物联网设备协同联动方法

Country Status (1)

Country Link
CN (1) CN112770053B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3385868A1 (en) * 2017-04-05 2018-10-10 Microsoft Technology Licensing, LLC Title disambiguation in a social network taxonomy
CN111368910A (zh) * 2020-03-03 2020-07-03 重庆邮电大学 一种物联网设备协同感知方法
CN111770190A (zh) * 2020-07-06 2020-10-13 夏正键 基于5g、物联网模式的区块链分布式实时消防监控警报系统
CN112004204A (zh) * 2020-08-12 2020-11-27 河海大学常州校区 工业物联网中基于分层处理的高维数据异常检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3385868A1 (en) * 2017-04-05 2018-10-10 Microsoft Technology Licensing, LLC Title disambiguation in a social network taxonomy
CN111368910A (zh) * 2020-03-03 2020-07-03 重庆邮电大学 一种物联网设备协同感知方法
CN111770190A (zh) * 2020-07-06 2020-10-13 夏正键 基于5g、物联网模式的区块链分布式实时消防监控警报系统
CN112004204A (zh) * 2020-08-12 2020-11-27 河海大学常州校区 工业物联网中基于分层处理的高维数据异常检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
物联网移动感知中的社会关系认知模型;安健等;《计算机学报》;20120615(第06期);全文 *

Also Published As

Publication number Publication date
CN112770053A (zh) 2021-05-07

Similar Documents

Publication Publication Date Title
US20220215748A1 (en) Automated camera response in a surveillance architecture
CN101883131B (zh) 一种环境数据采集器
US20070296813A1 (en) Intelligent monitoring system and method
CN1298601A (zh) 自动确定对应于电视会议参加者的预置位置
CN103685906A (zh) 一种控制方法、控制装置及控制设备
CN104394364A (zh) 球机声音定位跟踪方法
CN110718227A (zh) 一种基于多模态交互的分布式物联网设备协同方法及其系统
CN116781864B (zh) 基于物联网数据采集的工厂经营状态远程监控系统及方法
CN112770053B (zh) 一种物联网设备协同联动方法
CN108566533A (zh) 一种安防系统调度方法和安防系统
CN109361969B (zh) 一种音频设备及其音量调节方法、装置、设备、介质
CN109286790B (zh) 一种基于声源定位的定向监听系统及其监听方法
CN105848061A (zh) 一种控制方法及电子设备
CN106564059A (zh) 一种家庭机器人系统
CN111932619A (zh) 结合图像识别和语音定位的麦克风跟踪系统及方法
CN110798665A (zh) 车载可视化指挥调度方法及相关设备
CN108140124B (zh) 提示信息确定方法、装置、电子设备
CN214151438U (zh) 一种基于5g通讯的监控系统
CN113894783A (zh) 机器人的交互方法、装置、设备及计算机可读存储介质
CN114179107B (zh) 一种桌面机器人智能健康管理系统及方法
CN112866639B (zh) 一种巡逻警戒方法及设备
CN116343445B (zh) 一种物联网设备安全保护系统及方法
CN111866599A (zh) 一种质差的定界方法、装置及设备
CN113365017B (zh) 一种声音采集方法、装置及设备
CN103347150A (zh) 一种视频侦测式监控数字摄录仪及其动态侦测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20230315

Address after: Room 2102, No. 16, Huaxia Road, Tianhe District, Guangzhou City, Guangdong Province, 510630

Applicant after: Zhuhai Hengqin Yingshi Technology Research and Development Co.,Ltd.

Address before: Room 1616, office building, Fuli center, 63 East Third Ring Middle Road, Chaoyang District, Beijing 100022

Applicant before: Beijing family intelligent technology Co.,Ltd.

GR01 Patent grant
GR01 Patent grant