CN109637554A - 基于cdr的mclp语音去混响方法 - Google Patents

基于cdr的mclp语音去混响方法 Download PDF

Info

Publication number
CN109637554A
CN109637554A CN201910038726.7A CN201910038726A CN109637554A CN 109637554 A CN109637554 A CN 109637554A CN 201910038726 A CN201910038726 A CN 201910038726A CN 109637554 A CN109637554 A CN 109637554A
Authority
CN
China
Prior art keywords
mclp
signal
voice
cdr
method based
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910038726.7A
Other languages
English (en)
Inventor
周城旭
王冬霞
何冲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Liaoning University of Technology
Tianjin University of Technology and Education China Vocational Training Instructor Training Center
Original Assignee
Liaoning University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Liaoning University of Technology filed Critical Liaoning University of Technology
Priority to CN201910038726.7A priority Critical patent/CN109637554A/zh
Publication of CN109637554A publication Critical patent/CN109637554A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/12Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02082Noise filtering the noise being echo, reverberation of the speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

本发明公开了基于CDR的MCLP语音去混响方法,包括:步骤一、在单声源的封闭声学环境中,建立多个全向麦克风的均匀线性阵列;计算第m个麦克风接收到的语音信号;并且对所述语音信号进行处理后得到处理后的语音信号;步骤二、在第m个麦克风接收到的语音中选择第i路信号作为参考信号,计算得到MCLP语音信号为;并且对所述MCLP语音进行代数换算后得到处理后的MCLP语音信号;并且对所述MCLP语音的初始化值进行确定。

Description

基于CDR的MCLP语音去混响方法
技术领域
本发明涉及语音信号处理领域,具体涉及基于CDR的MCLP语音去混响方法。
背景技术
在一些相对封闭的声学环境中使用免提电话、电话会议、助听器、语音控制系统等通信系统时,麦克风采集到的信号往往会受到混响的影响导致语音的清晰度、可读懂度等降低、进而影响通信系统的整体功能。因此研究如何去除语音混响即语音去混响也显得愈发重要。
经过多年的发展,人们提出了诸多去混响方法。主要包括基于多通道均衡的去混响方法、基于谱估计和空间滤波器相结合的去混响方法以及基于概率模型的去混响方法。在实际应用中,多通道均衡的去混响方法易受到房间冲激响应估计准确性等的影响,且计算量大;利用波束形成的单通道维纳滤波器去混响处理需要估计目标信号方向角等参数;多通道线性预测去混响方法会出现目标信号协方差等于零的情况,当情况严重时会导致输出信号失真。
谱减法自提出以来就获得了学者们的深入研究和广泛应用,在MCLP去混响方法中,目标信号谱方差的初始化严重影响去混响的优劣,因此如何对其进行初始化也变得愈发重要。
发明内容
本发明设计开发了基于CDR的MCLP语音去混响方法,本发明将基于相干扩散功率比(Coherent-to-Diffuse power Ratio,CDR)的双通道语音谱减法应用到多通道线性预测(MCLP)去混响中对目标信号进行初始化,从而解决提高语音去混响性能的问题。
本发明提供的技术方案为:
基于CDR的MCLP语音去混响方法,包括如下步骤:
步骤一、在单声源的封闭声学环境中,建立多个全向麦克风的均匀线性阵列;
计算第m个麦克风接收到的语音信号为
并且对所述语音信号进行处理后得到处理后的语音信号为
式中,dm(k,n)为期望信号,b为离散时间,s(b)为时域内的纯净语音,vm(b)为背景噪声,rm(l)为声源与第m个麦克风之间的房间冲击响应,长度为Lr,Rm(k,l)为时频域内的房间冲激响应,Lh为帧数,n∈{1,...,N}为帧指数,k∈{1,...,K}为频带指数,τ为线性延迟;
步骤二、在第m个麦克风接收到的语音中选择第i路信号作为参考信号,计算得到MCLP语音信号为
并且对所述MCLP语音进行代数换算后得到处理后的MCLP语音信号为
其中,所述MCLP语音的初始化值为
式中,
优选的是,在所述步骤二中,所述代数换算包括:
xi(k)=[xi(k,1),...,xi(k,N)]T
di(k)=[di(k,1),...,di(k,N)]T
gm(k)=[gm(k,0),...,gm(k,Lg-1)]T
优选的是,在所述步骤二中,
式中,α为平滑参数。
优选的是,在所述步骤二中,所述初始化值能够通过自回归系数g(k)计算得到:
优选的是,在所述步骤二中,目标信号
优选的是,在所述步骤二中,目标信号协方差
式中,尺度参数γ>0,形状参数0<P≤2。
本发明与现有技术相比较所具有的有益效果:
1、基于CDR的MCLP语音去混响方法既可以实现较好的去混响效果,也不需要估计任何参数;在中度、重度混响条件下,混响语音谱的谱分布布满整个时频域,稀疏性比较差。相对于麦克风阵列采集信号所对应的混响语音谱,SMCLP方法的去混响语音谱的谱分布稀疏性得到了明显的提高;
2、在各种混响条件下,相对于混响语音,无论是去混响参数FWSegSNR或PESQ,SMCLP方法性能参数提高明显优于经典算法,在一定程度上可以进一步提高语音的去混响性能;
3、要求的设备简单,只需4个全向麦克风,实现方便价格低廉;可以应用于电话会议、助听器等现实生活中。
附图说明
图1为本发明所述的T60=250ms语音信号谱。
图2为本发明所述的T60=500ms语音信号谱。
图3为本发明所述的T60=700ms语音信号谱。
图4为本发明所述的FWSegSNR曲线图。
图5为本发明所述的PESQ曲线图。
具体实施方式
下面结合附图对本发明做进一步的详细说明,以令本领域技术人员参照说明书文字能够据以实施。
本发明提供了基于CDR的MCLP语音去混响方法,包括如下步骤:
步骤一、建立混响信号的声学模型
单声源的封闭声学环境中,由M个全向麦克风组成的均匀线性阵列,则第m个麦克风接收到的语音信号的表达式为
式中,b表示离散时间,s(b)表示时域内的纯净语音,vm(b)表示背景噪声,rm(l)表示声源与第m个麦克风之间的房间冲激响应(RIR),长度为Lr
故式(1)时频域表达式为
式中,n∈{1,...,N}表示帧指数,k∈{1,...,K}表示频带指数,em(k,n)表示模型误差,Rm(k,l)表示时频域内的房间冲激响应(RIR),Lh为帧数;
仅考虑混响对语音信号的影响即假设em(k,n)=0。令dm(kn,)表示第m个麦克风直达波和早期反射波之和,则式(2)可以进一步表示为
式中,τ的表示线性延迟;
步骤二、建立MCLP去混响方法
在MCLP去混响方法中将dm(k,n)作为期望信号并进行重构,选择一路信号作为参考信号如m=i,gm(k,l)表示长度为Lg的线性预测系数,等式右边的第二项为后期混响,则式(3)的MCLP表达式为
进行代数换算,令
xi(k)=[xi(k,1),...,xi(k,N)]T
di(k)=[di(k,1),...,di(k,N)]T
gm(k)=[gm(k,0),...,gm(k,Lg-1)]T
则(5)式的矩阵表达式为
Xτ(k)=[X1,τ(k),...,XM,τ(k)]
则MCLP矩阵表达式为
x1(k)=d1(k)+Xτ(k)g(k) (7)
步骤三、基于CDR的协方差初始化
假设麦克风阵列采集到的语音信号为
xm(k,n)=dm(k,n)+rm(k,n) (8)
式中,dm(k,n)表示期望信号,rm(k,n)表示后期混响部分并假设两者互不相干;
在理论上,各相干函数的值虽然为复数,但CDR仍然是为实值;在本实施例中,CDR(k,n)的求解方法如下:
Tx(k)可以写为:
在该方法式(10)中,信号自功率谱或者互功率谱均采用递归平均的方法来求即
式中,α为平滑参数;
对式(8)利用递归方法进行处理,即利用前一帧的信号和当前帧信号来求当前帧信号功率谱密度,则
由于dm(k,n)和rm(k,n)互不相干,故
所以
|xm(k,n)|2=|dm(k,n)|2+|r(k,n)|2 (13)
因此
目标信号的协方差采用递归平均方法得到,则
利用一种复广义高斯先验概率模型(CGG),协方差为的超高斯先验模型即可以得到自回归系数g(k)的表达式,利用一种递归平均的方法来估计目标信号的协方差,作为MCLP语音去混响算法的初始化值。
对于自回归矢量的求解是最小二乘(LS)优化问题,具体如下所示:
λ(k)=[λ(k,1),...,λ(k,N)]T (18)
联合上式(7)和式(16)即可求得自回归矢量g(k)的优化解
假设第i+1次g(k)的迭代值也就是式(19)的结果为固定值,那么目标信号d1(k)第i+1次的迭代值便可由上式(7)得到即
在CGG数学模型下,第i+1次的迭代优化协方差为
式中,尺度参数γ>0,形状参数0<P≤2。
根据式(21)可知,虽然协方差λ(k,n)的估计值仅仅依赖于尺度参数和形状参数,但是根据自回归矢量的估计表达式(19)和目标信号d1(k)的估计表达式(20)可知,其相对于协方差具有尺度不变性,因此式(21)可以进一步表示为如下形式
将协方差写为向量的形式
实施例
仿真环境为阵列由M=4路全向麦克风组成的均匀线阵。麦克风之间的间距为8cm,声源到阵列中心为2m,采样频率为16kHz。短时傅里叶变换的帧长为64ms,帧移为16ms,窗函数选择汉明窗;Lg=8,τ=2;实验选取了经典三种方法即MCLP和IRLS与SMCLP进行了性能比较和分析,图1、图2和图3分别是在轻度、中度和重度混响即混响时间T60=250ms、T60=500ms和T60=700ms时,麦克风接收信号和各算法去混响后信号的语谱图,图4和图5分别为各混响条件下的FWSegSNR和PESQ实验结果曲线图。结果表明,SMCLP方法性能参数提高明显优于IRLS、MCLP两种方法,SMCLP去混响方法在一定程度上可以进一步提高语音的去混响性能。
尽管本发明的实施方案已公开如上,但其并不仅仅限于说明书和实施方式中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围所限定的一般概念下,本发明并不限于特定的细节和这里示出与描述的图例。

Claims (6)

1.基于CDR的MCLP语音去混响方法,其特征在于,包括如下步骤:
步骤一、在单声源的封闭声学环境中,建立多个全向麦克风的均匀线性阵列;
计算第m个麦克风接收到的语音信号为
并且对所述语音信号进行处理后得到处理后的语音信号为
式中,dm(k,n)为期望信号,b为离散时间,s(b)为时域内的纯净语音,vm(b)为背景噪声,rm(l)为声源与第m个麦克风之间的房间冲击响应,长度为Lr,Rm(k,l)为时频域内的房间冲激响应,Lh为帧数,n∈{1,...,N}为帧指数,k∈{1,...,K}为频带指数,τ为线性延迟;
步骤二、在第m个麦克风接收到的语音中选择第i路信号作为参考信号,计算得到MCLP语音信号为
并且对所述MCLP语音进行代数换算后得到处理后的MCLP语音信号为
其中,所述MCLP语音的初始化值为
式中,
2.如权利要求1所述的基于CDR的MCLP语音去混响方法,其特征在于,在所述步骤二中,所述代数换算包括:
xi(k)=[xi(k,1),...,xi(k,N)]T
di(k)=[di(k,1),...,di(k,N)]T
gm(k)=[gm(k,0),...,gm(k,Lg-1)]T
3.如权利要求1所述的基于CDR的MCLP语音去混响方法,其特征在于,在所述步骤二中,
式中,α为平滑参数。
4.如权利要求1所述的基于CDR的MCLP语音去混响方法,其特征在于,在所述步骤二中,所述初始化值能够通过自回归系数g(k)计算得到:
5.如权利要求1所述的基于CDR的MCLP语音去混响方法,其特征在于,在所述步骤二中,目标信号
6.如权利要求1所述的基于CDR的MCLP语音去混响方法,其特征在于,在所述步骤二中,目标信号协方差
式中,尺度参数γ>0,形状参数0<P≤2。
CN201910038726.7A 2019-01-16 2019-01-16 基于cdr的mclp语音去混响方法 Pending CN109637554A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910038726.7A CN109637554A (zh) 2019-01-16 2019-01-16 基于cdr的mclp语音去混响方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910038726.7A CN109637554A (zh) 2019-01-16 2019-01-16 基于cdr的mclp语音去混响方法

Publications (1)

Publication Number Publication Date
CN109637554A true CN109637554A (zh) 2019-04-16

Family

ID=66060976

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910038726.7A Pending CN109637554A (zh) 2019-01-16 2019-01-16 基于cdr的mclp语音去混响方法

Country Status (1)

Country Link
CN (1) CN109637554A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111192569A (zh) * 2020-03-30 2020-05-22 深圳市友杰智新科技有限公司 双麦语音特征提取方法、装置、计算机设备和存储介质
CN111933170A (zh) * 2020-07-20 2020-11-13 歌尔科技有限公司 语音信号的处理方法、装置、设备及存储介质
CN113160842A (zh) * 2021-03-06 2021-07-23 西安电子科技大学 一种基于mclp的语音去混响方法及系统
CN113362808A (zh) * 2021-06-02 2021-09-07 云知声智能科技股份有限公司 一种目标方向语音提取方法、装置、电子设备和存储介质
CN113449255A (zh) * 2021-06-15 2021-09-28 电子科技大学 一种改进的稀疏约束下环境分量相位角估计方法、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108154885A (zh) * 2017-12-15 2018-06-12 重庆邮电大学 一种使用qr-rls算法对多通道语音信号去混响方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108154885A (zh) * 2017-12-15 2018-06-12 重庆邮电大学 一种使用qr-rls算法对多通道语音信号去混响方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
何冲: "基于NMF的MCLP语音去混响方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111192569A (zh) * 2020-03-30 2020-05-22 深圳市友杰智新科技有限公司 双麦语音特征提取方法、装置、计算机设备和存储介质
CN111192569B (zh) * 2020-03-30 2020-07-28 深圳市友杰智新科技有限公司 双麦语音特征提取方法、装置、计算机设备和存储介质
CN111933170A (zh) * 2020-07-20 2020-11-13 歌尔科技有限公司 语音信号的处理方法、装置、设备及存储介质
CN111933170B (zh) * 2020-07-20 2024-03-29 歌尔科技有限公司 语音信号的处理方法、装置、设备及存储介质
CN113160842A (zh) * 2021-03-06 2021-07-23 西安电子科技大学 一种基于mclp的语音去混响方法及系统
CN113160842B (zh) * 2021-03-06 2024-04-09 西安电子科技大学 一种基于mclp的语音去混响方法及系统
CN113362808A (zh) * 2021-06-02 2021-09-07 云知声智能科技股份有限公司 一种目标方向语音提取方法、装置、电子设备和存储介质
CN113362808B (zh) * 2021-06-02 2023-03-21 云知声智能科技股份有限公司 一种目标方向语音提取方法、装置、电子设备和存储介质
CN113449255A (zh) * 2021-06-15 2021-09-28 电子科技大学 一种改进的稀疏约束下环境分量相位角估计方法、设备及存储介质

Similar Documents

Publication Publication Date Title
CN109637554A (zh) 基于cdr的mclp语音去混响方法
Saruwatari et al. Blind source separation based on a fast-convergence algorithm combining ICA and beamforming
CN106251877B (zh) 语音声源方向估计方法及装置
Vaseghi Multimedia signal processing: theory and applications in speech, music and communications
Yoshioka et al. Generalization of multi-channel linear prediction methods for blind MIMO impulse response shortening
CN107993670A (zh) 基于统计模型的麦克风阵列语音增强方法
Omologo et al. Environmental conditions and acoustic transduction in hands-free speech recognition
CN109830245A (zh) 一种基于波束成形的多说话者语音分离方法及系统
Koldovsky et al. Time-domain blind separation of audio sources on the basis of a complete ICA decomposition of an observation space
CN110517701B (zh) 一种麦克风阵列语音增强方法及实现装置
CN112151059A (zh) 面向麦克风阵列的通道注意力加权的语音增强方法
EP2592846A1 (en) Method and apparatus for processing signals of a spherical microphone array on a rigid sphere used for generating an Ambisonics representation of the sound field
Gunel et al. Acoustic source separation of convolutive mixtures based on intensity vector statistics
CN110223708B (zh) 基于语音处理的语音增强方法及相关设备
CN105869651A (zh) 基于噪声混合相干性的双通道波束形成语音增强方法
Niwa et al. Post-filter design for speech enhancement in various noisy environments
McCowan et al. Robust speech recognition using near-field superdirective beamforming with post-filtering
Aroudi et al. Dbnet: Doa-driven beamforming network for end-to-end reverberant sound source separation
CN110111802A (zh) 基于卡尔曼滤波的自适应去混响方法
Lleida et al. Robust continuous speech recognition system based on a microphone array
CN115424627A (zh) 基于卷积循环网络和wpe算法的语音增强混合处理方法
CN115713943A (zh) 基于复空间角中心高斯混合聚类模型和双向长短时记忆网络的波束成形语音分离方法
Wang et al. Two-stage enhancement of noisy and reverberant microphone array speech for automatic speech recognition systems trained with only clean speech
Zhu et al. Sound source localization through optimal peak association in reverberant environments
Aroudi et al. DBNET: DOA-driven beamforming network for end-to-end farfield sound source separation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20230710

Address after: 121001, 169 street, Guta District, Liaoning, Jinzhou

Applicant after: LIAONING University OF TECHNOLOGY

Applicant after: TIANJIN University OF TECHNOLOGY AND EDUCATION (CHINA VOCATIONAL TRAINING INSTRUCTOR TRAINING CENTER)

Address before: 121001, 169 street, Guta District, Liaoning, Jinzhou

Applicant before: LIAONING University OF TECHNOLOGY