CN112800834B - 一种基于跪拜行为识别来定位炫彩射灯的方法及系统 - Google Patents

一种基于跪拜行为识别来定位炫彩射灯的方法及系统 Download PDF

Info

Publication number
CN112800834B
CN112800834B CN202011560402.9A CN202011560402A CN112800834B CN 112800834 B CN112800834 B CN 112800834B CN 202011560402 A CN202011560402 A CN 202011560402A CN 112800834 B CN112800834 B CN 112800834B
Authority
CN
China
Prior art keywords
channel
alpha
scale
residual error
significance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011560402.9A
Other languages
English (en)
Other versions
CN112800834A (zh
Inventor
阮秀凯
岳虹宇
蔡启博
闫正兵
蒋义钐
崔桂华
李�杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Zhicai Technology Co ltd
Wenzhou Jingcai Optoelectronics Co ltd
Original Assignee
Zhejiang Zhicai Technology Co ltd
Wenzhou Jingcai Optoelectronics Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Zhicai Technology Co ltd, Wenzhou Jingcai Optoelectronics Co ltd filed Critical Zhejiang Zhicai Technology Co ltd
Priority to CN202011560402.9A priority Critical patent/CN112800834B/zh
Publication of CN112800834A publication Critical patent/CN112800834A/zh
Application granted granted Critical
Publication of CN112800834B publication Critical patent/CN112800834B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于跪拜行为识别来定位炫彩射灯的方法,包括获取跪拜者的人体姿态图像;使用预先设置的多尺度融合网络,对跪拜者的人体姿态图像进行识别,并在识别出指定位置有相应的跪拜行为时,打开指定位置对应的射灯,以及同步播放预置的佛乐。实施本发明,不仅能适用于信徒跪拜行为识别来增加信众在礼佛时与寺庙地互动性,还能解决传统基于深度卷积神经网络的人体姿态估计方法使用多尺度融合网络时,存在隐藏层对图像特征利用不完全的问题,提高了识别精度。

Description

一种基于跪拜行为识别来定位炫彩射灯的方法及系统
技术领域
本发明涉及人体姿态识别技术领域,尤其涉及一种基于跪拜行为识别来定位炫彩射灯的方法及系统。
背景技术
随着深度学习的发展,人体的检测由最初用一个矩形框将人的轮廓框出逐步发展到姿态估计,或称姿态识别,即识别具体部件的关键点。人体姿态估计在现实生活中已广泛应用到游戏、动画制作和行为识别等多个领域。在行为识别领域,通过分析人体关键点的模式,可以预测人体正在进行的行为,比如举手、抱拳、跪拜等。
目前,前沿的人体姿态估计均基于深度卷积神经网络。深度卷积神经网络以其自动学习特征的优势,在图像大数据处理任务中始终占据主要地位。人体姿态估计深度网络的输入为图片或视频,输出为人体关键点坐标或关键点热图。当输出为关键点热图时,根据热图在不同位置的响应大小可以得到最终关键点的位置坐标。
现如今很多寺庙都建有万佛墙,寺庙里的万佛墙数量一般在500-10000之间,且佛像数量众多。但是,现有的基于深度卷积神经网络的人体姿态估计方法很少用于信徒跪拜行为识别来增加信众在礼佛时与寺庙进行更好地互动,而且该方法使用多尺度融合网络时存在隐藏层对图像特征利用不完全的问题,有必要进一步提高。
发明内容
本发明实施例所要解决的技术问题在于,提供一种基于跪拜行为识别来定位炫彩射灯的方法及系统,不仅能适用于信徒跪拜行为识别来增加信众在礼佛时与寺庙地互动性,还能解决传统基于深度卷积神经网络的人体姿态估计方法使用多尺度融合网络时,存在隐藏层对图像特征利用不完全的问题,提高了识别精度。
为了解决上述技术问题,本发明实施例提供了一种基于跪拜行为识别来定位炫彩射灯的方法,所述方法包括以下步骤:
步骤S1、获取跪拜者的人体姿态图像;
步骤S2、使用预先设置的多尺度融合网络,对所述跪拜者的人体姿态图像进行识别,并在识别出指定位置有相应的跪拜行为时,打开指定位置对应的射灯,以及同步播放预置的佛乐。
其中,所述多尺度融合网络是由预先定义的基础残差结构和瓶颈残差结构融合并扩展而成的。
其中,所述基础残差结构的设计步骤具体如下:
(1.1)确定基础残差结构的连接方式:
Figure GDA0003648332410000021
其中,x∈Rw×h×m代表残差结构的输入;α∈Rm代表有界通道显著系数,0≤αi≤Cbb;Cbb代表基础残差结构中大于0的一个常数;
(1.2)对x进行一系列卷积操作,得到深层特征
Figure GDA0003648332410000022
其中
Figure GDA0003648332410000023
(1.3)将有界通道显著系数α与x进行通道域对应相乘,得到具有通道显著性特征的浅层特征γ(α,x);其中,γ(α,x)∈Rw×h×m,且所有显著性系数的初始化为1;
同时,在基础残差结构的显著性系数αori初始化和每一次反向传播更新后,都要经过边界裁剪得到α,而当前α则成为下一次训练的αori
(1.4)输出基础残差结构xe,即利用浅层网络特征增强深层特征。
其中,所述瓶颈残差结构的设计步骤具体如下:
(2.1)确定瓶颈残差结构的连接方式:
Figure GDA0003648332410000024
其中,x∈Rw×h×m代表残差结构的输入;
Figure GDA0003648332410000025
代表有界通道显著系数,0≤αi≤Cbn;Cbn代表瓶颈残差结构中大于0的一个常数;
(2.2)对x进行一系列卷积操作,得到深层特征
Figure GDA0003648332410000031
其中
Figure GDA0003648332410000032
(2.3)对x进行卷积操作,使得θ(x)具有和
Figure GDA0003648332410000033
相同的维度;
(2.4)将有界通道显著系数α与θ(x)进行通道域对应相乘,得到具有通道显著性特征的浅层特征γ(α,θ(x));其中,
Figure GDA0003648332410000034
且所有显著性系数的初始化为1;
同时,在瓶颈残差结构的显著性系数αori初始化和每一次反向传播更新后,都要经过边界裁剪得到α,而当前α则成为下一次训练的αori
(2.5)输出瓶颈残差结构xe,即利用浅层网络特征增强深层特征。
其中,所述基础残差结构和所述瓶颈残差结构进行融合的设计步骤具体如下:
(3.1)确定两个尺度的融合方式:
Figure GDA0003648332410000035
Figure GDA0003648332410000036
其中,xi代表第i个尺度分支的输入,
Figure GDA0003648332410000037
Figure GDA0003648332410000038
代表有界通道显著系数,0≤αi~j≤Cfc,且Cfc代表多尺度融合模块中用于通道显著性的大于0的一个常数;βi~j∈R1代表有界尺度显著系数,0≤βi~j≤Cfs,且Cfs代表多尺度融合模块中用于尺度显著性的大于0的一个常数;
Figure GDA0003648332410000039
代表融合后的第j个尺度;
Figure GDA00036483324100000310
代表对
Figure GDA00036483324100000311
进行通道注意力检测,作用方式为将αi~j
Figure GDA00036483324100000312
进行通道域对应相乘。
(3.2)对xi进行一系列卷积操作和尺度变换,得到
Figure GDA00036483324100000313
用于与第j个尺度进行信息融合产生
Figure GDA00036483324100000314
其中,
Figure GDA00036483324100000315
(3.3)对αi~j
Figure GDA00036483324100000316
进行通道域对应相乘,即注意力检测。
其中,所述基础残差结构和所述瓶颈残差结构融合后拓展至多尺度融合结构的设计步骤如下:
(4.1)确定多尺度融合结构中的图像通道的显著性检测方式:
Figure GDA0003648332410000041
Figure GDA0003648332410000042
其中,
Figure GDA0003648332410000043
代表加入通道显著性检测后的第j个通道,且
Figure GDA0003648332410000044
(4.2)可将βj~i与αj~i合并:
Figure GDA0003648332410000045
其中,
Figure GDA0003648332410000046
融合了通道显著性和尺度显著性,0≤ωj~i≤Cfs*Cfc
(4.3)将公式简化为:
Figure GDA0003648332410000047
即,得到最终的多尺度融合网络。
本发明实施例还提供了一种基于跪拜行为识别来定位炫彩射灯的系统,包括:
获取单元,用于获取跪拜者的人体姿态图像;
识别定位单元,用于使用预先设置的多尺度融合网络,对所述跪拜者的人体姿态图像进行识别,并在识别出指定位置有相应的跪拜行为时,打开指定位置对应的射灯,以及同步播放预置的佛乐。
其中,所述多尺度融合网络是由预先定义的基础残差结构和瓶颈残差结构融合并扩展而成的。
实施本发明实施例,具有如下有益效果:
1、本发明基于多尺度融合网络对跪拜者的人体姿态进行识别,用以定位射灯以及同步播放预置的佛乐,适用于信徒跪拜行为识别来增加信众在礼佛时与寺庙地互动性,提升用户体验性;
2、本发明的多尺度融合网络由基础残差结构和瓶颈残差结构融合并扩展而成的,能解决传统基于深度卷积神经网络的人体姿态估计方法使用多尺度融合网络时,存在隐藏层对图像特征利用不完全的问题,提高了识别精度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,根据这些附图获得其他的附图仍属于本发明的范畴。
图1为本发明实施例提供的一种基于跪拜行为识别来定位炫彩射灯的方法的流程图;
图2为图1步骤S2中基础残差结构的逻辑结构示意图;
图3为图2基础残差结构中通道注意力模块的作用方式应用图;
图4为图1步骤S2中瓶颈残差结构的逻辑结构示意图;
图5为图4瓶颈残差结构中通道注意力模块的作用方式应用图;
图6为图1步骤S2中基础残差结构和瓶颈残差结构融合并拓展至多尺度融合网络的逻辑结构示意图;
图7为本发明实施例提供的一种基于跪拜行为识别来定位炫彩射灯的系统的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述。
如图1所示,为本发明实施例中,提供的一种基于跪拜行为识别来定位炫彩射灯的方法,所述方法包括以下步骤:
步骤S1、获取跪拜者的人体姿态图像;
步骤S2、使用预先设置的多尺度融合网络,对所述跪拜者的人体姿态图像进行识别,并在识别出指定位置有相应的跪拜行为时,打开指定位置对应的射灯,以及同步播放预置的佛乐。
具体过程为,在步骤S1中,通过摄像头对跪拜者的人体姿态进行拍摄,并接收摄像头传输过来的人体姿态图像。
在步骤S2中,首先预先设置多尺度融合网络,该多尺度融合网络是由预先定义的基础残差结构和瓶颈残差结构融合并扩展而成的。
第一步、构建如图2所示的基础残差结构,其设计步骤具体如下:
(1.1)确定基础残差结构的连接方式:
Figure GDA0003648332410000061
其中,x∈Rw×h×m代表残差结构的输入;α∈Rm代表有界通道显著系数,0≤αi≤Cbb;Cbb代表基础残差结构中大于0的一个常数;
(1.2)对x进行一系列卷积操作,得到深层特征
Figure GDA0003648332410000062
其中
Figure GDA0003648332410000063
(1.3)将有界通道显著系数α与x进行通道域对应相乘,得到具有通道显著性特征的浅层特征γ(α,x);其中,γ(α,x)∈Rw×h×m,且所有显著性系数的初始化为1;
同时,在基础残差结构的显著性系数αori初始化和每一次反向传播更新后,都要经过边界裁剪得到α,而当前α则成为下一次训练的αori,作用方式如图3所示;
(1.4)输出基础残差结构xe,即利用浅层网络特征增强深层特征。
第二步、构建如图4所示的瓶颈残差结构,其设计步骤具体如下:
(2.1)确定瓶颈残差结构的连接方式:
Figure GDA0003648332410000064
其中,x∈Rw×h×m代表残差结构的输入;
Figure GDA0003648332410000065
代表有界通道显著系数,0≤αi≤Cbn;Cbn代表瓶颈残差结构中大于0的一个常数;
(2.2)对x进行一系列卷积操作,得到深层特征
Figure GDA0003648332410000066
其中
Figure GDA0003648332410000067
(2.3)对x进行卷积操作,使得θ(x)具有和
Figure GDA0003648332410000068
相同的维度;
(2.4)将有界通道显著系数α与θ(x)进行通道域对应相乘,得到具有通道显著性特征的浅层特征γ(α,θ(x));其中,
Figure GDA0003648332410000071
且所有显著性系数的初始化为1;
同时,在瓶颈残差结构的显著性系数αori初始化和每一次反向传播更新后,都要经过边界裁剪得到α,而当前α则成为下一次训练的αori,作用方式如图5所示;
(2.5)输出瓶颈残差结构xe,即利用浅层网络特征增强深层特征。
第三步、使基础残差结构和瓶颈残差结构进行融合,其设计步骤具体如下:
(3.1)确定两个尺度的融合方式:
Figure GDA0003648332410000072
Figure GDA0003648332410000073
其中,xi代表第i个尺度分支的输入,
Figure GDA0003648332410000074
Figure GDA0003648332410000075
代表有界通道显著系数,0≤αi~j≤Cfc,且Cfc代表多尺度融合模块中用于通道显著性的大于0的一个常数;βi~j∈R1代表有界尺度显著系数,0≤βi~j≤Cfs,且Cfs代表多尺度融合模块中用于尺度显著性的大于0的一个常数;
Figure GDA0003648332410000076
代表融合后的第j个尺度;
Figure GDA0003648332410000077
代表对
Figure GDA0003648332410000078
进行通道注意力检测,作用方式为将αi~j
Figure GDA0003648332410000079
进行通道域对应相乘。
(3.2)对xi进行一系列卷积操作和尺度变换,得到
Figure GDA00036483324100000710
用于与第j个尺度进行信息融合产生
Figure GDA00036483324100000711
其中,
Figure GDA00036483324100000712
(3.3)对αi~j
Figure GDA00036483324100000713
进行通道域对应相乘,即注意力检测。
第四步、将上述基础残差结构和瓶颈残差结构融合后,拓展至多尺度融合结构,其设计步骤如下:
(4.1)确定多尺度融合结构中的图像通道的显著性检测方式:
Figure GDA0003648332410000081
Figure GDA0003648332410000082
其中,
Figure GDA0003648332410000083
代表加入通道显著性检测后的第j个通道,且
Figure GDA0003648332410000084
(4.2)可将βj~i与αj~i合并:
Figure GDA0003648332410000085
其中,
Figure GDA0003648332410000086
融合了通道显著性和尺度显著性,0≤ωj~i≤Cfs*Cfc
(4.3)将公式简化为:
Figure GDA0003648332410000087
即,得到最终的多尺度融合网络,如图6所示。
最后,在识别出指定位置有相应的跪拜行为时,打开指定位置对应的射灯,以及同步播放预置的佛乐。
应当说明的是,对人体姿态图像进行识别的同时,会通过人体姿态图像来提取跪拜者的周边环境图像,用以判定跪拜者的地理位置坐标,从而进一步确定跪拜者所跪拜位置对应的射灯。或者,还可以通过指定位置布置的红外感应器、温度感应器等感应触发来得到跪拜者的地理位置坐标,即触发感应的红外感应器或温度感应器的布置位置。
可以理解的是,地理位置坐标与射灯的映射关系应预先设置在相应的数据库中,且该数据库中还通过射灯关联有预先设置的佛乐。鉴于上述关联关系和映射关系的设置及应用属于常用技术手段,在此不再一一赘述。
如图7所示,为本发明实施例中,提供的一种基于跪拜行为识别来定位炫彩射灯的系统,包括:
获取单元110,用于获取跪拜者的人体姿态图像;
识别定位单元120,用于使用预先设置的多尺度融合网络,对所述跪拜者的人体姿态图像进行识别,并在识别出指定位置有相应的跪拜行为时,打开指定位置对应的射灯,以及同步播放预置的佛乐。
其中,所述多尺度融合网络是由预先定义的基础残差结构和瓶颈残差结构融合并扩展而成的。
实施本发明实施例,具有如下有益效果:
1、本发明基于多尺度融合网络对跪拜者的人体姿态进行识别,用以定位射灯以及同步播放预置的佛乐,适用于信徒跪拜行为识别来增加信众在礼佛时与寺庙地互动性,提升用户体验性;
2、本发明的多尺度融合网络由基础残差结构和瓶颈残差结构融合并扩展而成的,能解决传统基于深度卷积神经网络的人体姿态估计方法使用多尺度融合网络时,存在隐藏层对图像特征利用不完全的问题,提高了识别精度。
值得注意的是,上述系统实施例中,所包括的各个单元只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,所述的程序可以存储于一计算机可读取存储介质中,所述的存储介质,如ROM/RAM、磁盘、光盘等。
以上所揭露的仅为本发明较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。

Claims (2)

1.一种基于跪拜行为识别来定位炫彩射灯的方法,其特征在于,所述方法包括以下步骤:
步骤S1、获取跪拜者的人体姿态图像;
步骤S2、使用预先设置的多尺度融合网络,对所述跪拜者的人体姿态图像进行识别,并在识别出指定位置有相应的跪拜行为时,打开指定位置对应的射灯,以及同步播放预置的佛乐;
所述多尺度融合网络是由预先定义的基础残差结构和瓶颈残差结构融合并扩展而成的;
所述基础残差结构的设计步骤具体如下:
(1.1)确定基础残差结构的连接方式:
Figure FDA0003648332400000011
其中,x∈Rw×h×m代表残差结构的输入;α∈Rm代表有界通道显著系数,0≤αk≤Cbb;Cbb代表基础残差结构中大于0的一个常数;
(1.2)对x进行一系列卷积操作,得到深层特征
Figure FDA0003648332400000012
其中
Figure FDA0003648332400000013
(1.3)将有界通道显著系数α与x进行通道域对应相乘,得到具有通道显著性特征的浅层特征γ(α,x);其中,γ(α,x)∈Rw×h×m,且所有显著性系数的初始化为1;
同时,在基础残差结构的显著性系数αori初始化和每一次反向传播更新后,都要经过边界裁剪得到α,而当前α则成为下一次训练的αori
(1.4)输出基础残差结构xe,即利用浅层网络特征增强深层特征;
所述瓶颈残差结构的设计步骤具体如下:
(2.1)确定瓶颈残差结构的连接方式:
Figure FDA0003648332400000014
其中,x∈Rw×h×m代表残差结构的输入;
Figure FDA0003648332400000015
代表有界通道显著系数,0≤αk1≤Cbn;Cbn代表瓶颈残差结构中大于0的一个常数;
(2.2)对x进行一系列卷积操作,得到深层特征
Figure FDA0003648332400000021
其中
Figure FDA0003648332400000022
(2.3)对x进行卷积操作,使得θ(x)具有和
Figure FDA0003648332400000023
相同的维度;
(2.4)将有界通道显著系数α与θ(x)进行通道域对应相乘,得到具有通道显著性特征的浅层特征γ(α,θ(x));其中,
Figure FDA0003648332400000024
且所有显著性系数的初始化为1;
同时,在瓶颈残差结构的显著性系数αori初始化和每一次反向传播更新后,都要经过边界裁剪得到α,而当前α则成为下一次训练的αori’
(2.5)输出瓶颈残差结构xe,即利用浅层网络特征增强深层特征;
所述基础残差结构和所述瓶颈残差结构进行融合的设计步骤具体如下:
(3.1)确定两个尺度的融合方式:
Figure FDA0003648332400000025
Figure FDA0003648332400000026
其中,xi代表第i个尺度分支的输入,
Figure FDA0003648332400000027
Figure FDA0003648332400000028
Figure FDA0003648332400000029
代表有界通道显著系数,0≤αi~j≤Cfc,且Cfc代表多尺度融合模块中用于通道显著性的大于0的一个常数;βi~j∈R1代表有界尺度显著系数,0≤βi~j≤Cfs,且Cfs代表多尺度融合模块中用于尺度显著性的大于0的一个常数;
Figure FDA00036483324000000210
代表融合后的第j个尺度;
Figure FDA00036483324000000211
代表对
Figure FDA00036483324000000212
进行通道注意力检测,作用方式为将αi~j
Figure FDA00036483324000000213
进行通道域对应相乘;
(3.2)对xi进行一系列卷积操作和尺度变换,得到
Figure FDA00036483324000000214
用于与第j个尺度进行信息融合产生
Figure FDA00036483324000000215
其中,
Figure FDA00036483324000000216
(3.3)对αi~j
Figure FDA00036483324000000217
进行通道域对应相乘,即注意力检测;
所述基础残差结构和所述瓶颈残差结构融合后拓展至多尺度融合结构的设计步骤如下:
(4.1)确定多尺度融合结构中的图像通道的显著性检测方式:
Figure FDA0003648332400000031
Figure FDA0003648332400000032
其中,
Figure FDA0003648332400000033
代表加入通道显著性检测后的第j个通道,且
Figure FDA0003648332400000034
(4.2)可将βj~i与αj~i合并:
Figure FDA0003648332400000035
其中,
Figure FDA0003648332400000036
融合了通道显著性和尺度显著性,0≤ωj~i≤Cfs*Cfc
(4.3)将公式简化为:
Figure FDA0003648332400000037
即,得到最终的多尺度融合网络。
2.一种基于跪拜行为识别来定位炫彩射灯的系统,其特征在于,包括:
获取单元,用于获取跪拜者的人体姿态图像;
识别定位单元,用于使用预先设置的多尺度融合网络,对所述跪拜者的人体姿态图像进行识别,并在识别出指定位置有相应的跪拜行为时,打开指定位置对应的射灯,以及同步播放预置的佛乐;所述多尺度融合网络是由预先定义的基础残差结构和瓶颈残差结构融合并扩展而成的;
所述基础残差结构的设计步骤具体如下:
(1.1)确定基础残差结构的连接方式:
Figure 1
其中,x∈Rw×h×m代表残差结构的输入;α∈Rm代表有界通道显著系数,0≤αk≤Cbb;Cbb代表基础残差结构中大于0的一个常数;
(1.2)对x进行一系列卷积操作,得到深层特征
Figure FDA0003648332400000041
其中
Figure FDA0003648332400000042
(1.3)将有界通道显著系数α与x进行通道域对应相乘,得到具有通道显著性特征的浅层特征γ(α,x);其中,γ(α,x)∈Rw×h×m,且所有显著性系数的初始化为1;
同时,在基础残差结构的显著性系数αori初始化和每一次反向传播更新后,都要经过边界裁剪得到α,而当前α则成为下一次训练的αori
(1.4)输出基础残差结构xe,即利用浅层网络特征增强深层特征;
所述瓶颈残差结构的设计步骤具体如下:
(2.1)确定瓶颈残差结构的连接方式:
Figure FDA0003648332400000043
其中,x∈Rw×h×m代表残差结构的输入;
Figure FDA0003648332400000044
代表有界通道显著系数,0≤αk1≤Cbn;Cbn代表瓶颈残差结构中大于0的一个常数;
(2.2)对x进行一系列卷积操作,得到深层特征
Figure FDA0003648332400000045
其中
Figure FDA0003648332400000046
(2.3)对x进行卷积操作,使得θ(x)具有和
Figure FDA0003648332400000047
相同的维度;
(2.4)将有界通道显著系数α与θ(x)进行通道域对应相乘,得到具有通道显著性特征的浅层特征γ(α,θ(x));其中,
Figure FDA0003648332400000048
且所有显著性系数的初始化为1;
同时,在瓶颈残差结构的显著性系数αori初始化和每一次反向传播更新后,都要经过边界裁剪得到α,而当前α则成为下一次训练的αori’
(2.5)输出瓶颈残差结构xe,即利用浅层网络特征增强深层特征;
所述基础残差结构和所述瓶颈残差结构进行融合的设计步骤具体如下:
(3.1)确定两个尺度的融合方式:
Figure FDA0003648332400000049
Figure FDA00036483324000000410
其中,xi代表第i个尺度分支的输入,
Figure FDA00036483324000000411
Figure FDA0003648332400000051
Figure FDA0003648332400000052
代表有界通道显著系数,0≤αi~j≤Cfc,且Cfc代表多尺度融合模块中用于通道显著性的大于0的一个常数;βi~j∈R1代表有界尺度显著系数,0≤βi~j≤Cfs,且Cfs代表多尺度融合模块中用于尺度显著性的大于0的一个常数;
Figure FDA0003648332400000053
代表融合后的第j个尺度;
Figure FDA0003648332400000054
代表对
Figure FDA0003648332400000055
进行通道注意力检测,作用方式为将αi~j
Figure FDA0003648332400000056
进行通道域对应相乘;
(3.2)对xi进行一系列卷积操作和尺度变换,得到
Figure FDA0003648332400000057
用于与第j个尺度进行信息融合产生
Figure FDA0003648332400000058
其中,
Figure FDA0003648332400000059
(3.3)对αi~j
Figure FDA00036483324000000510
进行通道域对应相乘,即注意力检测;
所述基础残差结构和所述瓶颈残差结构融合后拓展至多尺度融合结构的设计步骤如下:
(4.1)确定多尺度融合结构中的图像通道的显著性检测方式:
Figure FDA00036483324000000511
Figure FDA00036483324000000512
其中,
Figure FDA00036483324000000513
代表加入通道显著性检测后的第j个通道,且
Figure FDA00036483324000000514
(4.2)可将βj~i与αj~i合并:
Figure FDA00036483324000000515
其中,
Figure FDA00036483324000000516
融合了通道显著性和尺度显著性,0≤ωj~i≤Cfs*Cfc
(4.3)将公式简化为:
Figure FDA00036483324000000517
即,得到最终的多尺度融合网络。
CN202011560402.9A 2020-12-25 2020-12-25 一种基于跪拜行为识别来定位炫彩射灯的方法及系统 Active CN112800834B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011560402.9A CN112800834B (zh) 2020-12-25 2020-12-25 一种基于跪拜行为识别来定位炫彩射灯的方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011560402.9A CN112800834B (zh) 2020-12-25 2020-12-25 一种基于跪拜行为识别来定位炫彩射灯的方法及系统

Publications (2)

Publication Number Publication Date
CN112800834A CN112800834A (zh) 2021-05-14
CN112800834B true CN112800834B (zh) 2022-08-12

Family

ID=75804209

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011560402.9A Active CN112800834B (zh) 2020-12-25 2020-12-25 一种基于跪拜行为识别来定位炫彩射灯的方法及系统

Country Status (1)

Country Link
CN (1) CN112800834B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114783059B (zh) * 2022-04-20 2022-10-25 浙江东昊信息工程有限公司 一种基于深度相机的寺庙香客参拜管理方法和系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104408711A (zh) * 2014-10-30 2015-03-11 西北工业大学 一种基于多尺度区域融合的显著区域检测方法
CN106295564A (zh) * 2016-08-11 2017-01-04 南京理工大学 一种邻域高斯结构和视频特征融合的动作识别方法
CN109299659A (zh) * 2018-08-21 2019-02-01 中国农业大学 一种基于rgb相机和深度学习的人体姿态识别方法与系统
CN110059582A (zh) * 2019-03-28 2019-07-26 东南大学 基于多尺度注意力卷积神经网络的驾驶员行为识别方法
CN110363140A (zh) * 2019-07-15 2019-10-22 成都理工大学 一种基于红外图像的人体动作实时识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113569798B (zh) * 2018-11-16 2024-05-24 北京市商汤科技开发有限公司 关键点检测方法及装置、电子设备和存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104408711A (zh) * 2014-10-30 2015-03-11 西北工业大学 一种基于多尺度区域融合的显著区域检测方法
CN106295564A (zh) * 2016-08-11 2017-01-04 南京理工大学 一种邻域高斯结构和视频特征融合的动作识别方法
CN109299659A (zh) * 2018-08-21 2019-02-01 中国农业大学 一种基于rgb相机和深度学习的人体姿态识别方法与系统
CN110059582A (zh) * 2019-03-28 2019-07-26 东南大学 基于多尺度注意力卷积神经网络的驾驶员行为识别方法
CN110363140A (zh) * 2019-07-15 2019-10-22 成都理工大学 一种基于红外图像的人体动作实时识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Dynamic Multiscale Graph Neural Networks for 3D Skeleton-Based Human Motion Prediction;Maosen Li.et.;《2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)》;20200805;第214-223页 *
多尺度输入3D卷积融合双流模型的行为识别方法;宋立飞等;《计算机辅助设计与图形学学报》;20181130;第30卷(第11期);第2074-2083页 *

Also Published As

Publication number Publication date
CN112800834A (zh) 2021-05-14

Similar Documents

Publication Publication Date Title
Vazquez et al. Virtual and real world adaptation for pedestrian detection
TWI654539B (zh) 虛擬實境交互方法、裝置與系統
CN111401410B (zh) 一种基于改进级联神经网络的交通标志检测方法
CN110021051A (zh) 一种基于生成对抗网络通过文本指导的人物图像生成方法
CN110796018B (zh) 一种基于深度图像和彩色图像的手部运动识别方法
CN110503076B (zh) 基于人工智能的视频分类方法、装置、设备和介质
CN111563502A (zh) 图像的文本识别方法、装置、电子设备及计算机存储介质
Laraba et al. Dance performance evaluation using hidden Markov models
CN104199834A (zh) 从信息载体表面交互式获取远程资源并输出的方法及系统
Rusiñol et al. Augmented songbook: an augmented reality educational application for raising music awareness
CN111104930B (zh) 视频处理方法、装置、电子设备及存储介质
CN113177559B (zh) 结合广度和密集卷积神经网络的图像识别方法、系统、设备及介质
CN112364712A (zh) 一种基于人体姿态的坐姿识别方法、系统及计算机可读存储介质
CN112800834B (zh) 一种基于跪拜行为识别来定位炫彩射灯的方法及系统
CN115221842B (zh) 一种基于小样本数据集的字体风格迁移方法、系统及设备
Li et al. Improved-storygan for sequential images visualization
CN110069655B (zh) 一种私人相册的人脸搜索方法
US11823433B1 (en) Shadow removal for local feature detector and descriptor learning using a camera sensor sensitivity model
CN113378852A (zh) 关键点检测方法、装置、电子设备及存储介质
CN116485943A (zh) 图像生成方法、电子设备及存储介质
CN116052108A (zh) 基于Transformer的交通场景小样本目标检测方法及装置
Kerdvibulvech et al. Guitarist fingertip tracking by integrating a Bayesian classifier into particle filters
Kerdvibulvech et al. Markerless guitarist fingertip detection using a bayesian classifier and a template matching for supporting guitarists
CN116824631B (zh) 一种姿态估计方法及系统
JP4303490B2 (ja) 画像と文書のマッチング方法及び装置並びにマッチングプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant