CN116844572A - 一种基于聚类和机器学习的城市噪声地图构建方法 - Google Patents

一种基于聚类和机器学习的城市噪声地图构建方法 Download PDF

Info

Publication number
CN116844572A
CN116844572A CN202311119309.8A CN202311119309A CN116844572A CN 116844572 A CN116844572 A CN 116844572A CN 202311119309 A CN202311119309 A CN 202311119309A CN 116844572 A CN116844572 A CN 116844572A
Authority
CN
China
Prior art keywords
noise
clustering
machine learning
urban
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311119309.8A
Other languages
English (en)
Other versions
CN116844572B (zh
Inventor
刘君
李永
李静林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Equipment Intelligent Computing Chip And System Application Beijing Engineering Research Center Co ltd
Original Assignee
Beijing Shengchuan Chuangshi Technology Development Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Shengchuan Chuangshi Technology Development Co ltd filed Critical Beijing Shengchuan Chuangshi Technology Development Co ltd
Priority to CN202311119309.8A priority Critical patent/CN116844572B/zh
Publication of CN116844572A publication Critical patent/CN116844572A/zh
Application granted granted Critical
Publication of CN116844572B publication Critical patent/CN116844572B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H11/00Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by detecting changes in electric or magnetic properties
    • G01H11/06Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by detecting changes in electric or magnetic properties by electric means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

本发明公开了一种基于聚类和机器学习的城市噪声地图构建方法,涉及城市噪声监测领域,包括如下步骤:城市平面图被划分成三角形区域,每个区域的顶端都设置有噪声传感器;通过声源定位法确定噪声源位置并计算噪声的实际分贝数;对指定时刻的噪声进行聚类并通过人工进行识别;这些数据被用于训练机器学习模型,从而实现噪声的自动识别;噪声及其类型被标记在城市地图上,形成动态的噪声分布地图,其中,不同类型的噪声以不同颜色表示,而噪声的分贝数通过颜色深度来展现。本发明有效整合了声学和机器学习技术,实现了对城市噪声的高效和准确监测。

Description

一种基于聚类和机器学习的城市噪声地图构建方法
技术领域
本发明涉及城市噪声监测领域,更具体地说,涉及一种基于聚类和机器学习的城市噪声地图构建方法。
背景技术
随着城市化进程的加速,城市噪声污染问题越来越受到人们的关注。传统的噪声监测方式多依赖于固定的噪声监测点,但这种方法由于监测点数量有限,很难全面、准确地获取城市各个区域的噪声数据。此外,这种监测方式也无法对噪声的类型进行识别,为噪声治理带来了一定的困难。
解决这种方法的途径包括增加监测点数量、采用移动监测等,但这些方法要么成本较高、要么实际操作起来困难。因此,如何在保证监测准确性的同时,降低成本,成为了噪声监测领域亟待解决的问题。同时,如何能够智能化识别噪声的类别,也是一个待解决的问题。
发明内容
本发明要解决的技术问题是提供一种基于聚类和机器学习的城市噪声地图构建方法,以解决背景技术中提到的问题。
为了达到上述目的,本发明采取以下技术方案:
一种基于聚类和机器学习的城市噪声地图构建方法,包括如下步骤:
S1:将城市平面图划分为一系列三角形区域,每个三角形区域的三个顶端处均设置有噪声传感器,每个噪声传感器均包含麦克风;形成三角形的三个噪声传感器用于检测该三角形区域内形成的噪声;
S2:任一三角形区域内,根据三个噪声传感器对同一噪声的检测时间,利用声源定位法确定噪声源的位置,并基于所述位置和检测到的分贝数计算噪声的实际分贝数;
S3:选取一个或多个特定时刻检测到的所有噪声,并对这些噪声进行聚类;
S4:对聚类后的每种类型的噪声进行人工识别,确定并标记每一类噪声的类型;
S5:采用S3中的噪声作为输入,采用S4中人工识别的标记作为标签,训练一个机器学习模型,使其能够根据噪声内容识别出噪声的类型;
S6:对于任意时刻检测到的所有噪声,首先执行聚类,然后将噪声输入到S5中的机器学习模型中进行类型识别;
S7:对于任一时刻的任一噪声,根据S2中计算出的该噪声的位置将其标记在城市地图上,根据S6中机器学习模型识别的噪声类型采取对应的标记颜色,根据S2中得到的该噪声实际分贝数采取对应的颜色深度,最终得到一张随着时间变化的城市噪声分布地图;
其中,同一类型的噪声采用相同的颜色标记;
其中,噪声的实际分贝数越大,对应的标记颜色深度越深。
在一些实施例中,S2中所述声源定位法具体包括以下步骤:
计算三个噪声传感器对同一噪声检测到的时间差,包括第一噪声传感器与第二噪声传感器检测到的时间差Δt1,以及第一噪声传感器与第三传感器检测到的时间差Δt2;
将对应时间差乘以声速得到对应的距离差Δd1和Δd2;
以Δd1为双曲线距离差,以第一噪声传感器和第二噪声传感器为双曲线焦点,画出一条双曲线;
以Δd2为双曲线距离差,以第一噪声传感器和第三噪声传感器为双曲线焦点,画一条双曲线;
取两条双曲线的交点作为该噪声对应的位置。
在一些实施例中,所述实际分贝数定义为在距离声源为参考距离dS下测量到的分贝数。
在一些实施例中,所述参考距离设为1米。
在一些实施例中,所述实际分贝数LA的计算公式为:
其中,LT是噪声传感器检测到的分贝数;
dS为参考距离;
dA是噪声源到噪声传感器的实际距离;
log表示对数。
在一些实施例中,发生于一个三角形区域内的噪声的实际分贝数,由该三角形区域顶点处的三个噪声传感器对应计算的三个实际分贝数平均后获得。
在一些实施例中,对噪声数据进行聚类的过程包括:
从每一个噪声样本中提取特征;所述特征包括时域特征、频域特征和Mel频率倒谱系数;
对所有特征进行标准化和归一化操作;
选择聚类算法;
选择类簇数量;
使用所选的聚类算法和参数对提取的特征进行聚类。
本发明相对于现有技术的优点在于,首先通过城市平面图的三角形划分,结合设置于每个三角形顶点上的噪声传感器,能够精确地捕捉到每个区域内的噪声源及其噪声级别。这一方法的应用,只需要采用三个噪声传感器,就可以测量一整块区域内的噪声,这使得噪声传感器的分布数量无需太多即可对声源位置进行准确定位。随后,利用聚类技术和人工识别的组合,将不同类型的噪声进行分类和标记,从而为噪声地图上的噪声类型提供了明确的依据。最后,通过机器学习模型的训练,能够实现对实时检测到的噪声的自动分类,提高了噪声地图更新的效率。最终形成的城市噪声地图,不仅展示了噪声的分布情况,还能准确地标注出各种噪声的类型、分贝数,为城市管理者提供了更为详细和准确的噪声数据,有助于制定更有针对性的噪声治理策略。
附图说明
图1是本发明方法的流程示意图。
图2是本发明对城市平面图进行三角形区域切割的示意图。
具体实施方式
下面结合附图对本发明的具体实施方式作描述。
如图1所示为本发明总体流程图,本发明一种基于聚类和机器学习的城市噪声地图构建方法,包括如下步骤:
S1:如图2所示,将城市平面图划分为一系列三角形区域,每个三角形区域的三个顶端处均设置有噪声传感器,每个噪声传感器均包含麦克风;形成三角形的三个噪声传感器用于检测该三角形区域内形成的噪声;
S2:任一三角形区域内,根据三个噪声传感器对同一噪声的检测时间,利用声源定位法确定噪声源的位置,并基于所述位置和检测到的分贝数计算噪声的实际分贝数;
S3:选取一个或多个特定时刻检测到的所有噪声,并对这些噪声进行聚类;
S4:对聚类后的每种类型的噪声进行人工识别,确定并标记每一类噪声的类型;类型可以包括施工声音、车流声音、飞机飞行声音等等。根据聚类结果可以更加精细地进行分类。
S5:采用S3中的噪声作为输入,采用S4中人工识别的标记作为标签,训练一个机器学习模型,使其能够根据噪声内容识别出噪声的类型;
S6:对于任意时刻检测到的所有噪声,首先执行聚类,然后将噪声输入到S5中的机器学习模型中进行类型识别;
S7:对于任一时刻的任一噪声,根据S2中计算出的该噪声的位置将其标记在城市地图上,根据S6中机器学习模型识别的噪声类型采取对应的标记颜色,根据S2中得到的该噪声实际分贝数采取对应的颜色深度,最终得到一张随着时间变化的城市噪声分布地图;
其中,同一类型的噪声采用相同的颜色标记;
其中,噪声的实际分贝数越大,对应的标记颜色深度越深。
在一些实施例中,S2中所述声源定位法具体包括以下步骤:
计算三个噪声传感器对同一噪声检测到的时间差,包括第一噪声传感器与第二噪声传感器检测到的时间差Δt1,以及第一噪声传感器与第三传感器检测到的时间差Δt2;
将对应时间差乘以声速得到对应的距离差Δd1和Δd2;
以Δd1为双曲线距离差,以第一噪声传感器和第二噪声传感器为双曲线焦点,画出一条双曲线;
以Δd2为双曲线距离差,以第一噪声传感器和第三噪声传感器为双曲线焦点,画一条双曲线;
取两条双曲线的交点作为该噪声对应的位置。
在一些实施例中,所述实际分贝数定义为在距离声源为参考距离dS下测量到的分贝数。
在一些实施例中,所述参考距离设为1米。
在一些实施例中,所述实际分贝数LA的计算公式为:
其中,LT是噪声传感器检测到的分贝数;
dS为参考距离;
dA是噪声源到噪声传感器的实际距离;
log表示对数。
在一些实施例中,发生于一个三角形区域内的噪声的实际分贝数,由该三角形区域顶点处的三个噪声传感器对应计算的三个实际分贝数平均后获得。
在一些实施例中,对噪声数据进行聚类的过程包括:
从每一个噪声样本中提取特征;所述特征包括时域特征、频域特征和Mel频率倒谱系数;
对所有特征进行标准化和归一化操作;
选择聚类算法;K均值、层次聚类、DBSCAN等均可;
选择类簇数量;这可以通过方法如肘部法则、轮廓系数等来确定;
使用所选的聚类算法和参数对提取的特征进行聚类。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (7)

1.一种基于聚类和机器学习的城市噪声地图构建方法,其特征在于,包括如下步骤:
S1:将城市平面图划分为一系列三角形区域,每个三角形区域的三个顶端处均设置有噪声传感器,每个噪声传感器均包含麦克风;形成三角形的三个噪声传感器用于检测该三角形区域内形成的噪声;
S2:任一三角形区域内,根据三个噪声传感器对同一噪声的检测时间,利用声源定位法确定噪声源的位置,并基于所述位置和检测到的分贝数计算噪声的实际分贝数;
S3:选取一个或多个特定时刻检测到的所有噪声,并对这些噪声进行聚类;
S4:对聚类后的每种类型的噪声进行人工识别,确定并标记每一类噪声的类型;
S5:采用S3中的噪声作为输入,采用S4中人工识别的标记作为标签,训练一个机器学习模型,使其能够根据噪声内容识别出噪声的类型;
S6:对于任意时刻检测到的所有噪声,首先执行聚类,然后将噪声输入到S5中的机器学习模型中进行类型识别;
S7:对于任一时刻的任一噪声,根据S2中计算出的该噪声的位置将其标记在城市地图上,根据S6中机器学习模型识别的噪声类型采取对应的标记颜色,根据S2中得到的该噪声实际分贝数采取对应的颜色深度,最终得到一张随着时间变化的城市噪声分布地图;
其中,同一类型的噪声采用相同的颜色标记;
其中,噪声的实际分贝数越大,对应的标记颜色深度越深。
2.根据权利要求1所述基于聚类和机器学习的城市噪声地图构建方法,其特征在于,S2中所述声源定位法具体包括以下步骤:
计算三个噪声传感器对同一噪声检测到的时间差,包括第一噪声传感器与第二噪声传感器检测到的时间差Δt1,以及第一噪声传感器与第三传感器检测到的时间差Δt2;
将对应时间差乘以声速得到对应的距离差Δd1和Δd2;
以Δd1为双曲线距离差,以第一噪声传感器和第二噪声传感器为双曲线焦点,画出一条双曲线;
以Δd2为双曲线距离差,以第一噪声传感器和第三噪声传感器为双曲线焦点,画一条双曲线;
取两条双曲线的交点作为该噪声对应的位置。
3.根据权利要求1所述基于聚类和机器学习的城市噪声地图构建方法,其特征在于,所述实际分贝数定义为在距离声源为参考距离dS下测量到的分贝数。
4.根据权利要求3所述基于聚类和机器学习的城市噪声地图构建方法,其特征在于,所述参考距离设为1米。
5.根据权利要求3或4所述基于聚类和机器学习的城市噪声地图构建方法,其特征在于,所述实际分贝数LA的计算公式为:
其中,LT是噪声传感器检测到的分贝数;
dS为参考距离;
dA是噪声源到噪声传感器的实际距离;
log表示对数。
6.根据权利要求5所述基于聚类和机器学习的城市噪声地图构建方法,其特征在于,发生于一个三角形区域内的噪声的实际分贝数,由该三角形区域顶点处的三个噪声传感器对应计算的三个实际分贝数平均后获得。
7.根据权利要求1所述基于聚类和机器学习的城市噪声地图构建方法,其特征在于,对噪声数据进行聚类的过程包括:
从每一个噪声样本中提取特征;所述特征包括时域特征、频域特征和Mel频率倒谱系数;
对所有特征进行标准化和归一化操作;
选择聚类算法;
选择类簇数量;
使用所选的聚类算法和参数对提取的特征进行聚类。
CN202311119309.8A 2023-09-01 2023-09-01 一种基于聚类和机器学习的城市噪声地图构建方法 Active CN116844572B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311119309.8A CN116844572B (zh) 2023-09-01 2023-09-01 一种基于聚类和机器学习的城市噪声地图构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311119309.8A CN116844572B (zh) 2023-09-01 2023-09-01 一种基于聚类和机器学习的城市噪声地图构建方法

Publications (2)

Publication Number Publication Date
CN116844572A true CN116844572A (zh) 2023-10-03
CN116844572B CN116844572B (zh) 2024-03-15

Family

ID=88174646

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311119309.8A Active CN116844572B (zh) 2023-09-01 2023-09-01 一种基于聚类和机器学习的城市噪声地图构建方法

Country Status (1)

Country Link
CN (1) CN116844572B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012020973A2 (ko) * 2010-08-09 2012-02-16 서울시립대학교 산학협력단 유비쿼터스-시티 미들웨어를 사용하여 소음을 온라인 가시화하는 장치 및 방법
CN103176167A (zh) * 2013-03-21 2013-06-26 徐华中 一种基于锁相放大器的强干扰下声源定位方法
CN103337248A (zh) * 2013-05-17 2013-10-02 南京航空航天大学 一种基于时间序列核聚类的机场噪声事件识别方法
CN103956101A (zh) * 2014-05-21 2014-07-30 首都师范大学 一种基于建筑表面噪音模型的噪音地图构建方法
CN111933175A (zh) * 2020-08-06 2020-11-13 北京中电慧声科技有限公司 一种基于噪声场景识别的活动语音检测方法及系统
CN113489514A (zh) * 2021-07-05 2021-10-08 国网湖南省电力有限公司 基于自组织映射神经网络的电力线通信噪声识别方法及装置
CN114387987A (zh) * 2021-12-31 2022-04-22 中建科技集团有限公司 生态噪声源的测量方法、装置、终端及存储介质
CN114745465A (zh) * 2022-03-24 2022-07-12 马斌斌 智能手机交互式噪声自先验感知分析系统
CN114754863A (zh) * 2022-04-21 2022-07-15 安徽悟芯智能科技有限公司 基于ai的环境噪声监测控制系统
CN114822215A (zh) * 2022-05-11 2022-07-29 中海环境科技(上海)股份有限公司 一种基于移动大数据的噪声地图绘制方法及系统
CN116011307A (zh) * 2021-10-21 2023-04-25 成都大象分形智能科技有限公司 基于获取并识别噪声全景分布模型的信号分析方法及系统

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012020973A2 (ko) * 2010-08-09 2012-02-16 서울시립대학교 산학협력단 유비쿼터스-시티 미들웨어를 사용하여 소음을 온라인 가시화하는 장치 및 방법
CN103176167A (zh) * 2013-03-21 2013-06-26 徐华中 一种基于锁相放大器的强干扰下声源定位方法
CN103337248A (zh) * 2013-05-17 2013-10-02 南京航空航天大学 一种基于时间序列核聚类的机场噪声事件识别方法
CN103956101A (zh) * 2014-05-21 2014-07-30 首都师范大学 一种基于建筑表面噪音模型的噪音地图构建方法
CN111933175A (zh) * 2020-08-06 2020-11-13 北京中电慧声科技有限公司 一种基于噪声场景识别的活动语音检测方法及系统
CN113489514A (zh) * 2021-07-05 2021-10-08 国网湖南省电力有限公司 基于自组织映射神经网络的电力线通信噪声识别方法及装置
CN116011307A (zh) * 2021-10-21 2023-04-25 成都大象分形智能科技有限公司 基于获取并识别噪声全景分布模型的信号分析方法及系统
CN114387987A (zh) * 2021-12-31 2022-04-22 中建科技集团有限公司 生态噪声源的测量方法、装置、终端及存储介质
CN114745465A (zh) * 2022-03-24 2022-07-12 马斌斌 智能手机交互式噪声自先验感知分析系统
CN114754863A (zh) * 2022-04-21 2022-07-15 安徽悟芯智能科技有限公司 基于ai的环境噪声监测控制系统
CN114822215A (zh) * 2022-05-11 2022-07-29 中海环境科技(上海)股份有限公司 一种基于移动大数据的噪声地图绘制方法及系统

Also Published As

Publication number Publication date
CN116844572B (zh) 2024-03-15

Similar Documents

Publication Publication Date Title
Carlos et al. Evaluation of detection approaches for road anomalies based on accelerometer readings—Addressing who’s who
CN109444813A (zh) 一种基于bp和dnn双神经网络的rfid室内定位方法
CN110120218A (zh) 基于gmm-hmm的高速公路大型车辆识别方法
CN106123897A (zh) 基于多特征的室内融合定位方法
CN105260709A (zh) 基于图像处理的水表检定方法、装置及系统
CN109060821A (zh) 基于激光检测的隧道病害检测方法及隧道病害检测装置
CN110536257B (zh) 一种基于深度自适应网络的室内定位方法
CN105260710A (zh) 基于图像处理的水表检定方法、装置及系统
CN105718912B (zh) 一种基于深度学习的车辆特征物检测方法
CN112163461A (zh) 一种基于多模态融合的水下目标识别方法
CN112150804B (zh) 一种基于MaskRCNN算法的城市多类型交叉口识别方法
CN105300482A (zh) 基于图像处理的水表检定方法、装置及系统
CN112463898B (zh) 一种结合速度与噪声监测数据的噪声地图更新方法
CN109060820A (zh) 基于激光检测的隧道病害检测方法及隧道病害检测装置
CN112364706A (zh) 一种基于类不平衡的小样本轴承故障诊断方法
CN103456029B (zh) 一种抗相似颜色和光照变化干扰的Mean Shift跟踪方法
CN116308958A (zh) 基于移动终端的碳排放在线检测预警系统及方法
CN113051653A (zh) 一种基于多维度数据分析的城市规划道路修建施工评估管理系统
CN116844572B (zh) 一种基于聚类和机器学习的城市噪声地图构建方法
CN110867075A (zh) 一种评估雨天条件下道路测速仪对驾驶人员反应行为影响的方法
WO2022150999A1 (zh) 一种检测轮胎异常的方法和装置
CN108287845A (zh) 一种道路信息自动提取方法和装置、及混合导航系统
CN113345443A (zh) 基于梅尔频率倒谱系数的海洋哺乳动物发声检测识别方法
CN109061558A (zh) 一种基于深度学习的声音碰撞检测及声源定位方法
CN102664018B (zh) 基于径向基函数统计模型的演唱评分方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Li Yong

Inventor before: Liu Jun

Inventor before: Li Yong

Inventor before: Li Jinglin

CB03 Change of inventor or designer information
TA01 Transfer of patent application right

Effective date of registration: 20240207

Address after: 101, Floor 2 to 4, Building 1, Yard 42, Minzhuang Road, Haidian District, Beijing, 100093

Applicant after: Equipment intelligent computing chip and system application Beijing Engineering Research Center Co.,Ltd.

Country or region after: China

Address before: Room 501, unit 6, floor 5, building 13, longtengyuan Second District, Huilongguan town, Changping District, Beijing 102208 (residential building)

Applicant before: BEIJING SHENGCHUAN CHUANGSHI TECHNOLOGY DEVELOPMENT CO.,LTD.

Country or region before: China

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant