CN101470897B - 基于音视频融合策略的敏感影片检测方法 - Google Patents

基于音视频融合策略的敏感影片检测方法 Download PDF

Info

Publication number
CN101470897B
CN101470897B CN2007103042063A CN200710304206A CN101470897B CN 101470897 B CN101470897 B CN 101470897B CN 2007103042063 A CN2007103042063 A CN 2007103042063A CN 200710304206 A CN200710304206 A CN 200710304206A CN 101470897 B CN101470897 B CN 101470897B
Authority
CN
China
Prior art keywords
sensitive
video
audio
sound
fragment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2007103042063A
Other languages
English (en)
Other versions
CN101470897A (zh
Inventor
胡卫明
左海强
吴偶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renmin Zhongke Beijing Intelligent Technology Co ltd
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN2007103042063A priority Critical patent/CN101470897B/zh
Publication of CN101470897A publication Critical patent/CN101470897A/zh
Application granted granted Critical
Publication of CN101470897B publication Critical patent/CN101470897B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明是一种基于音视频融合策略的敏感视频检测方法,包括步骤:建立敏感声音的混合高斯模型,音频数据的分离、加窗、以及特征提取,敏感声音片段的定位及其敏感程度输出,敏感片断视频图像帧的检测,基于贝叶斯的音视频融合决策等。本发明结合了音频和视频两个模态的信息来过滤敏感视频,大大降低了采用单一模态可能出现的不确定性,显著提高了识别效率。本发明可以用来检测互联网上的视频流以及音像制品中是否包含敏感内容,亦可以用来对网络视频聊天室进行监控,一旦发现色情表演即进行阻断。

Description

基于音视频融合策略的敏感影片检测方法
技术领域
本发明涉及计算机应用技术领域,特别涉及敏感影片检测方法。
背景技术
近年来,伴随着计算机尤其是互联网技术的迅猛发展,敏感信息(主要包括色情小说、图像和影片)的内容和传播方式也发生了显著的变化,人们现在可以足不出户轻而易举地浏览到大量的这类内容。敏感信息的广泛传播和易获取性对广大未成年人有着巨大的伤害,容易影响青少年的身心健康并促使诱发青少年犯罪。和敏感文本及图像内容相比,敏感影片的危害性更大,因为它的场景更逼真,多媒体所带来的感官刺激更强烈。如何充分的利用多媒体敏感影片中的多模态信息是本发明的关键内容。
目前检测敏感影片已存在的技术主要是针对影片中视频图像帧的检测,如专利:CN01124484.4——色情影片的过滤系统及方法、CN02157117.1——敏感视频检测方法和CN200410033540.6——基于运动肤色分割的敏感视频检测方法。判断视频图像帧是否为敏感图像主要依赖的是图像中的肤色信息,而肤色检测在图像背景较为复杂或图象质量较差时往往缺乏鲁棒性,导致误检率较高。通常,影片中都包含两个主要的模态信息:音频信息和视频信息。虽然采用单一模态信息可以对影片进行分类,但分类效果的好坏取决于影片的场景,如视频的光照和音频中的噪声。更加鲁棒的算法是能够将两个模态的信息进行融合。在敏感影片中这两个模态的信息往往是密切相关的,采用多模态融合的方法可以消除单一模态中的不确定性。事实上,我们人类自身在处理大多数问题时就是充分地利用了多模态融合方法,我们往往会把眼睛看到的、耳朵听到的,或触觉感受到的等多方面的信息综合起来对一事物进行判断。更进一步,音频的处理速度往往要明显高于视频的处理速度,通过音频分析可以快速定位影片中的敏感片断,再对该片段进行视频分析进而显著提高影片的处理速度。
发明内容
本发明的目的是提供一种基于音视频融合策略的敏感影片检测方法,亦可用来对当前兴起的网络视频聊天室进行监控。
根据本发明的目的,提出一种敏感影片的检测方法,包括步骤:
通过敏感声音模型建立模块,建立敏感声音的混合高斯模型;
通过音视频分离模块,实现音视频数据的分离和加窗;
通过特征提取模块,实现音频特征提取;
通过分类融合模块,实现敏感声音片段的定位及敏感程度输出;
通过分类融合模块,实现敏感片断视频图像帧的检测,
通过分类融合模块,基于贝叶斯的音视频融合决策,将音频检测结果和视频检测结果相融合,对影片的敏感性做出综合决策。
进一步,所述的建立敏感声音的混合高斯模型包括:
收集敏感声音片段样本,建立敏感声音训练集和测试集;
对敏感声音训练集中的敏感声音片段提取13维梅尔频率倒谱参数(MFCC)特征,包括12维MFCC系数以及能量项,并以其均值向量作为该声音片段的特征;
采用期望最大(EM)算法得到混合高斯模型的各个参数,包括高斯个数、各个高斯的中心和协方差矩阵。
进一步,所述的建立敏感声音的混合高斯模型步骤是独立的离线的过程,只需进行一次,得到的模型参数存储到数据文件中。
进一步,所述敏感片断视频图像帧的检测是指,在与检测到敏感声音片断相同的时间轴区间上截取相应的视频图像帧集合,并对视频图像帧集合的敏感性进行检测。
进一步,所述的敏感声音片段的定位及其敏感程度输出包括:
计算声音片段与训练得到的混合高斯模型各高斯中心的马氏距离,并求其最小值dm;
按照如下公式,计算音频片段的敏感程度:
Figure S2007103042063D00031
其中,θd是一个阈值,当dm<θd时,该声音片断被认为是敏感声音,否则为非敏感声音。
进一步,所述的基于贝叶斯的音视频融合决策过程是采用音频片段的敏感程度来作为与之相应的视频片断敏感与否的先验信息。
附图说明
图1为本发明的系统结构框图。
具体实施方式
下面将结合附图对本发明加以详细说明,应指出的是,所描述的实施例仅旨在便于对本发明的理解,而对其不起任何限定作用。
本发明的执行环境由以下四个模块组构成:一、敏感声音模型建立模块,该模块的功能是对敏感声音样本进行学习,得到模型参数数据。二、音视频分离模块,该模块的功能是将影片中的音频数据和视频数据相分离。三、特征提取模块,该模块的功能是分别对音频和视频提取其特征。四、分类融合模块,该模块的功能是对音频和视频特征进行分类,并将分类结果进行融合,对影片的敏感性进行综合决策。本发明的整体框架见图1。
下面详细给出本发明技术方案中所涉及的各个步骤细节问题的说明。
步骤一:建立敏感声音的混合高斯模型,此步骤是对敏感声音样本进行学习,得到敏感声音的统计特征,此步骤是由一独立的敏感声音模型建立模块完成,是一个离线的过程,只需进行一次,得到的模型参数存储到数据文件中。收集大量敏感声音片段样本,其中一部分作为训练集,另一部分作为测试集。对敏感声音训练集中的敏感声音片段提取13维梅尔频率倒谱参数(MFCC)特征,这样一段声音数据就被表示为13维MFCC特征空间中的一系列点组成,为了计算的简单快速我们取这一些列点的均值向量作为该段语音的特征向量,因此每段声音就被映射到13维MFCC特征空间中的一个点。在此基础上建立敏感声音的混合高斯模型,对于语音向量x(维数为d,本文中d=13),采用混合高斯模型描述其分布为:
p ( x ; μ k , Σ k , π k ) = Σ k = 1 m π k p k ( x ) , πk≥0, Σ k = 1 m π k = 1 , - - - ( 1 )
p k ( x ) = 1 ( 2 π ) d / 2 | Σ k | 1 / 2 exp { - 1 2 ( x - μ k ) T Σ k - 1 ( x - μ k ) } , - - - ( 2 )
其中m是混合高斯的个数,pk是高斯分布密度函数,μk为高斯中心,∑k为协方差矩阵,πk是第k个高斯的权重。我们采用期望最大算法(EM算法)求取上述混合高斯模型各参数的最大似然估计。
给定高斯个数m和样本集{xi,i=1...N},有:
L ( x , θ ) = log p ( x , θ ) = Σ i = 1 N log ( Σ k = 1 m π k p k ( x ) ) → max θ ∈ Θ - - - ( 3 )
Θ = { ( μ k , Σ k , π k ) : μ k ∈ R d , Σ k = Σ k T > 0 , Σ k ∈ R d × d , π k ≥ 0 , Σ k = 1 m π k = 1 } - - - ( 4 )
期望最大算法提供了一种迭代估计参数Θ的方法,它包括求期望阶段(E阶段)和最大化阶段(M阶段)。
在求期望阶段:
α ki = π k p k ( x ; μ k , Σ k ) Σ j = 1 m π j p k ( x ; μ j , Σ j ) - - - ( 5 )
其中,αki为样本i在当前的参数估计下,属于第k个高斯的概率。
在最大化阶段:
π k = 1 N Σ i = 1 N α ki , μ k = Σ i = 1 N α ki x i Σ i = 1 N α ki , Σ k = Σ i = 1 N α ki ( x i - μ k ) ( x i - μ k ) T Σ i = 1 N α ki - - - ( 6 )
当相邻两次迭代的目标函数之差的绝对值小于某一设定值时,迭代收敛,得到混合高斯模型参数的一组估计值。
步骤二:音频数据的分离、加窗、以及特征提取,此步骤首先读取影片文件,将音视频数据分离开,并对音频数据进行特征提取。对待分类影片根据其不同的压缩格式和编码方式自动选用相应的解码器对音频数据和视频数据解码。这一过程我们采用微软公司的DirectShow系统完成,DirectShow系统根据数据源的不同,创建相应结构的解码器组件。对解码后的音频数据进行加窗(窗口宽度一般取0.5-2.0秒)并进行特征提取,特征提取方式和建立敏感声音的混合高斯模型所用的特征提取方式相同,即提取13维梅尔频率倒谱参数(MFCC)特征,并以其均值向量作为该声音窗口的特征。
步骤三:敏感声音片段的定位及敏感程度输出,此步骤在上一步音频特征提取完成后,计算当前声音片断与之前学习得到的敏感声音模型数据的相似性,若相似则标记当前片断为敏感声音片断。计算当前声音窗口的特征向量与先前训练得到的敏感声音的混合高斯模型的马氏距离,若该距离小于某一阈值则标记该声音窗口为敏感声音窗口。空间中两个点x,y的马氏距离定义为:
d ( x , y ) = ( x - y ) T Σ - 1 ( x - y ) - - - ( 7 )
窗口继续向前滑动并保持50%的重叠。一系列连续的敏感声音窗口构成一敏感声音片断。为了将音频识别结果和视频识别结果相融合,我们首先将敏感声音片段的敏感程度(以Lt表示)转化成类似概率的形式输出。转换方法如下:
其中,dm为声音片段与敏感声音混合高斯模型各高斯中心的马氏距离的最小值,θd是一个阈值。这样离高斯中心越近的点其输出的敏感程度越高,反之则越低。
步骤四:敏感片断视频图像帧的检测,该步骤在上一步检测到敏感声音片断的基础上,在相同的时间轴区间上截取相应的视频图像帧集合,并对视频图像帧集合的敏感性进行检测。一旦敏感声音片断被检测到,则从视频数据中截取相应时间轴区间的图像帧。基于躯干轮廓特征的敏感图像检测算法被用来检测这些图像帧,由于相邻图像帧之间的差别一般比较小,我们只选取其中的关键帧进行检测。
步骤五:基于贝叶斯的音视频融合决策,在上述步骤完成的基础上,将音频检测结果和视频检测结果相融合,对影片的敏感性做出综合决策。首先,统计敏感视频图像帧识别算法的两类分类错误概率:把一幅正常图像误分为敏感图像的概率p1以及把一幅敏感图像误分为正常图像的概率p2。假定被分割出的视频片断共有N幅关键帧,我们首先引入一个强的先验:这N幅关键帧图像要么全为敏感,要么全为正常。假定敏感图像检测算法对这N幅关键帧图像的识别结果为:r=(N1幅关键帧图像是敏感的,N2幅关键帧图像是正常的),我们令S=(N幅关键帧图像全是敏感的),
Figure 2007103042063_0
S=(N幅关键帧图像全是正常的),则有:
p ( r | S ) = ( 1 - p 2 ) N 1 ( p 2 ) N 2 , - - - ( 9 )
p ( r | ⫬ S ) = ( p 1 ) N 1 ( 1 - p 1 ) N 2 . - - - ( 10 )
根据贝叶斯公式我们可以得到:
p ( S | r ) = p ( r | S ) × p ( S ) p ( r ) , - - - ( 11 )
p ( ⫬ S | r ) = p ( r | ⫬ S ) × p ( ⫬ S ) p ( r ) · - - - ( 12 )
我们引入一个因子f,定义为公式(11)、(12)中的两个后验概率之比:
f = p ( S | r ) p ( ⫬ S | r ) = p ( r | S ) × p ( S ) p ( r | ⫬ S ) × p ( ⫬ S ) = ( 1 - p 2 ) N 1 ( p 2 ) N 2 ( p 1 ) N 1 ( 1 - p 1 ) N 2 × p ( S ) p ( ⫬ S ) · - - - ( 13 )
如果因子f≥1,则影片被认为是敏感的。余下的问题是估计公式(13)中的两个先验概率p(S)和p(
Figure 2007103042063_1
S)。与这些视频图像帧相应的音频片断可以提供一些先验的信息,因而,我们采用先前得到的音频片断敏感程度Lt来替代p(S),相应地,p(
Figure 2007103042063_2
S)由1-Lt所替代。于是我们得到:
f = ( 1 - p 2 ) N 1 ( p 2 ) N 2 ( p 1 ) N 1 ( 1 - p 2 ) N 2 × L t 1 - L t + ϵ , - - - ( 14 )
其中ε是一个足够小的正数。为了避免出现被零除的情况,将公式(14)改写为对数形式:
F=[N1log(1-p2)+N2log(p2)+log(Lt)]-[N1log(p1)+N2log(1-p1)+log(1-Lt+ε)].    (15)
若因子F≥0,则影片被认为是敏感的。否则,上述过程继续进行直到最后一个敏感声音片断及其对应的视频片断被检测。若音频中未发现敏感声音片断,则只有视频检测器被单独使用。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内,因此,本发明的保护范围应该以权利要求书的保护范围为准。

Claims (5)

1.一种基于音视频融合策略的敏感视频检测方法,其特征在于,包括步骤:
通过敏感声音模型建立模块,建立敏感声音的混合高斯模型;
通过音视频分离模块,实现音视频数据的分离和加窗;
通过特征提取模块,实现音频特征提取;
通过分类融合模块,实现敏感声音片段的定位及敏感程度输出;
通过分类融合模块,实现敏感片断视频图像帧的检测,
通过分类融合模块,基于贝叶斯的音视频融合决策,将音频检测结果和视频检测结果相融合,对影片的敏感性做出综合决策;所述音视频融合决策的融合算法由基于贝叶斯规则确定:
F=[N1log(1-p2)+N2log(p2)+log(Lt)]
   -[N1log(p1)+N2log(1-p1)+log(1-Lt+ε)],
式中,统计敏感视频图像帧识别算法的两类分类错误概率:把一幅正常图像误分为敏感图像的概率为p1,把一幅敏感图像误分为正常图像的概率为p2,假定被分割出的视频片断共有N幅关键帧,假定敏感图像检测算法对这N幅关键帧图像的识别结果为:N1幅关键帧图像是敏感的,N2幅关键帧图像是正常的;
Lt是音频片段的敏感程度;ε是一个足够小的正数;若因子F≥0,则影片被认为是敏感的;
所述的敏感声音片段的定位及其敏感程度输出包括:
计算声音片段与训练得到的混合高斯模型各高斯中心的马氏距离,并求其最小值dm;
按照如下公式,计算音频片段的敏感程度:
Figure FSB00000384938100011
其中,θd是一个阈值,当dm<θd时,该声音片断被认为是敏感声音,否则为非敏感声音。
2.根据权利要求1所述的方法,其特征在于,所述的建立敏感声音的混合高斯模型包括:
收集敏感声音片段样本,建立敏感声音训练集和测试集;
对敏感声音训练集中的敏感声音片段提取13维梅尔频率倒谱参数(MFCC)特征,包括12维MFCC系数以及能量项,并以其均值向量作为该声音片段的特征;
采用期望最大算法得到混合高斯模型的各个参数,包括高斯个数、各个高斯的中心和协方差矩阵。
3.根据权利要求1所述的方法,其特征在于,所述的建立敏感声音的混合高斯模型步骤是独立的离线的过程,只需进行一次,得到的模型参数存储到数据文件中。
4.根据权利要求1所述的方法,其特征在于,所述敏感片断视频图像帧的检测是指,在与检测到敏感声音片断相同的时间轴区间上截取相应的视频图像帧集合,并对视频图像帧集合的敏感性进行检测。
5.根据权利要求1所述的方法,其特征在于,所述的基于贝叶斯的音视频融合决策过程是采用音频片段的敏感程度来作为与之相应的视频片断敏感与否的先验信息。
CN2007103042063A 2007-12-26 2007-12-26 基于音视频融合策略的敏感影片检测方法 Active CN101470897B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2007103042063A CN101470897B (zh) 2007-12-26 2007-12-26 基于音视频融合策略的敏感影片检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2007103042063A CN101470897B (zh) 2007-12-26 2007-12-26 基于音视频融合策略的敏感影片检测方法

Publications (2)

Publication Number Publication Date
CN101470897A CN101470897A (zh) 2009-07-01
CN101470897B true CN101470897B (zh) 2011-04-20

Family

ID=40828350

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2007103042063A Active CN101470897B (zh) 2007-12-26 2007-12-26 基于音视频融合策略的敏感影片检测方法

Country Status (1)

Country Link
CN (1) CN101470897B (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101819638B (zh) * 2010-04-12 2012-07-11 中国科学院计算技术研究所 色情检测模型建立方法和色情检测方法
CN102014295B (zh) * 2010-11-19 2012-11-28 嘉兴学院 一种网络敏感视频检测方法
CN103390409A (zh) * 2012-05-11 2013-11-13 鸿富锦精密工业(深圳)有限公司 电子装置及其侦测色情音频的方法
CN103049530B (zh) * 2012-12-22 2015-12-23 深圳先进技术研究院 深入融合视频审查方法和系统
CN103336832A (zh) * 2013-07-10 2013-10-02 中国科学院自动化研究所 基于质量元数据的视频分类器构造方法
CN106601243B (zh) * 2015-10-20 2020-11-06 阿里巴巴集团控股有限公司 一种视频文件识别方法及装置
CN105631015A (zh) * 2015-12-31 2016-06-01 宁波领视信息科技有限公司 一种智能多媒体播放器
CN107241617A (zh) * 2016-03-29 2017-10-10 北京新媒传信科技有限公司 视频文件的识别方法及装置
CN107896335B (zh) * 2017-12-06 2019-12-31 重庆智韬信息技术中心 基于大数据技术的视频检测和评级方法
CN110222719B (zh) * 2019-05-10 2021-09-24 中国科学院计算技术研究所 一种基于多帧音视频融合网络的人物识别方法及系统
CN110222523B (zh) * 2019-06-26 2021-10-15 新华网(北京)科技有限公司 检测方法、装置、系统及计算机可读存储介质
CN110909224B (zh) * 2019-11-22 2022-06-10 浙江大学 一种基于人工智能的敏感数据自动分类识别方法及系统
CN110956211B (zh) * 2019-11-29 2023-06-20 华南农业大学 一种畜禽养殖场中基于多模态信息融合的方法
CN111461235B (zh) 2020-03-31 2021-07-16 合肥工业大学 音视频数据处理方法、系统、电子设备及存储介质
CN111783789A (zh) * 2020-06-30 2020-10-16 青海民族大学 一种图像敏感信息识别方法
CN111931866B (zh) * 2020-09-21 2021-01-01 平安科技(深圳)有限公司 医疗数据处理方法、装置、设备及存储介质
CN115695852B (zh) * 2022-12-30 2023-03-28 成都华栖云科技有限公司 一种基于多模态信息融合的视频镜头自动挑选组合方法

Also Published As

Publication number Publication date
CN101470897A (zh) 2009-07-01

Similar Documents

Publication Publication Date Title
CN101470897B (zh) 基于音视频融合策略的敏感影片检测方法
Foggia et al. Reliable detection of audio events in highly noisy environments
CN105405439B (zh) 语音播放方法及装置
CN111950497B (zh) 一种基于多任务学习模型的ai换脸视频检测方法
CN108962229B (zh) 一种基于单通道、无监督式的目标说话人语音提取方法
JP2011188342A (ja) 情報処理装置、情報処理方法及びプログラム
WO2016155047A1 (zh) 低信噪比声场景下声音事件的识别方法
CN103985381A (zh) 一种基于参数融合优化决策的音频索引方法
CN111488487B (zh) 一种面向全媒体数据的广告检测方法及检测系统
JP2008527397A (ja) オーディオ分類器の訓練データセットを改良する方法およびデータを分類する方法
Jiang et al. Video segmentation with the support of audio segmentation and classification
CN107358947A (zh) 说话人重识别方法及系统
CN108597501A (zh) 一种基于残差网络和双向门控循环单元的视听语音模型
Wang et al. Audio event detection and classification using extended R-FCN approach
CN115512259A (zh) 一种基于多模态的短视频审核方法
CN115129934A (zh) 一种多模态视频理解方法
Hasan et al. Multi-modal highlight generation for sports videos using an information-theoretic excitability measure
Jeon et al. CutPaste-Based Anomaly Detection Model using Multi Scale Feature Extraction in Time Series Streaming Data.
Boril et al. Automatic excitement-level detection for sports highlights generation.
CN111914803B (zh) 一种唇语关键词检测方法、装置、设备及存储介质
CN116434759A (zh) 一种基于srs-cl网络的说话人识别方法
Mohammed et al. Overlapped music segmentation using a new effective feature and random forests
Hasan et al. Incremental learning of human activity models from videos
CN114495946A (zh) 声纹聚类方法、电子设备和存储介质
JP2010038943A (ja) 音響信号処理装置及び方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20191202

Address after: 250101 2F, Hanyu Jingu new media building, high tech Zone, Jinan City, Shandong Province

Patentee after: Renmin Zhongke (Shandong) Intelligent Technology Co.,Ltd.

Address before: 100080 Zhongguancun East Road, Beijing, No. 95, No.

Patentee before: Institute of Automation, Chinese Academy of Sciences

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20200311

Address after: Room 201, 2 / F, Hanyu Jingu new media building, no.7000, Jingshi Road, Jinan City, Shandong Province, 250000

Patentee after: Renmin Zhongke (Jinan) Intelligent Technology Co.,Ltd.

Address before: 250101 2F, Hanyu Jingu new media building, high tech Zone, Jinan City, Shandong Province

Patentee before: Renmin Zhongke (Shandong) Intelligent Technology Co.,Ltd.

TR01 Transfer of patent right
CP03 Change of name, title or address

Address after: 100176 1401, 14th floor, building 8, No. 8 courtyard, No. 1 KEGU street, Beijing Economic and Technological Development Zone, Daxing District, Beijing (Yizhuang group, high-end industrial area, Beijing Pilot Free Trade Zone)

Patentee after: Renmin Zhongke (Beijing) Intelligent Technology Co.,Ltd.

Address before: Room 201, 2 / F, Hangu Jinggu new media building, 7000 Jingshi Road, Jinan City, Shandong Province

Patentee before: Renmin Zhongke (Jinan) Intelligent Technology Co.,Ltd.

CP03 Change of name, title or address