KR102426020B1 - 한 화자의 적은 음성 데이터로 감정 운율을 담은 음성 합성 방법 및 장치 - Google Patents

한 화자의 적은 음성 데이터로 감정 운율을 담은 음성 합성 방법 및 장치 Download PDF

Info

Publication number
KR102426020B1
KR102426020B1 KR1020200105049A KR20200105049A KR102426020B1 KR 102426020 B1 KR102426020 B1 KR 102426020B1 KR 1020200105049 A KR1020200105049 A KR 1020200105049A KR 20200105049 A KR20200105049 A KR 20200105049A KR 102426020 B1 KR102426020 B1 KR 102426020B1
Authority
KR
South Korea
Prior art keywords
speaker
emotional
voice
data
encoder
Prior art date
Application number
KR1020200105049A
Other languages
English (en)
Other versions
KR20220023381A (ko
Inventor
이수영
조성재
김태호
박세직
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020200105049A priority Critical patent/KR102426020B1/ko
Publication of KR20220023381A publication Critical patent/KR20220023381A/ko
Application granted granted Critical
Publication of KR102426020B1 publication Critical patent/KR102426020B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Machine Translation (AREA)

Abstract

한 화자의 적은 음성 데이터로 감정 운율을 담은 음성 합성 방법 및 장치가 제시된다. 일 실시예에 따른 전자 장치로 구현되는 음성 합성 장치를 이용한 음성 합성 방법은, 화자 음성의 특징을 추출하는 화자 인코더(speaker encoder)를 다량의 다화자 데이터를 통해 학습시키는 단계; 텍스트 인코더(text encoder), 운율 인코더(prosody encoder) 및 잔차 인코더(residual encoder) 중 적어도 어느 하나 이상을 상기 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터 중 적어도 어느 하나 이상을 통해 학습시키는 단계; 학습된 상기 텍스트 인코더, 상기 운율 인코더 및 상기 잔차 인코더 중 적어도 어느 하나 이상을 통해 상기 감정 음성 데이터의 감정 운율의 표현을 찾는 단계; 및 중립 화자 데이터의 화자의 목소리 표현을 상기 화자 인코더의 출력값으로 하고, 합성을 원하는 상기 감정 운율의 표현을 선별하여 합성시켜, 상기 중립 화자 데이터의 화자의 감정 음성을 출력하는 단계를 포함하여 이루어질 수 있다.

Description

한 화자의 적은 음성 데이터로 감정 운율을 담은 음성 합성 방법 및 장치{Method and apparatus for Speech Synthesis Containing Emotional Rhymes with Scarce Speech Data of a Single Speaker}
아래의 실시예들은 음성 합성 방법에 관한 것으로, 더욱 상세하게는 한 화자의 적은 음성 데이터로 감정 운율을 담은 음성 합성 방법 및 장치에 관한 것이다.
음성 합성 기술은 인공지능을 통한 대화형 사용자 인터페이스 구현을 위한 핵심 기술로서, 인간이 발화하는 것과 같은 소리를 컴퓨터나 기계를 통하여 만들어내는 것이다. 기존의 음성 합성은 고정 합성 단위(Fixed Length Unit)인 단어, 음절, 음소를 조합하여 파형을 만들어내는 방식(1세대), 말뭉치를 이용한 가변 합성 단위 연결 방식(2세대)에서, 3세대 모델로 발전하였다. 3세대 모델은 음성인식을 위한 음향모델링에 주로 사용하는 HMM(Hidden Markov Model)방식을 음성 합성에 적용하여, 적절한 크기의 데이터베이스를 이용한 고품질 음성 합성을 구현하였다.
텍스트 음성 합성(Text-to-Speech; TTS)은 문자열을 음성으로 변환하는 작업을 의미한다. 현재 다양한 사람의 목소리, 감정을 포함시킨 감정 음성 합성 등 다양한 음성 변화를 반영한 음성 합성이 가능하다. 하지만, 음성 합성을 가능하게 하기 위해서 각 감정 별로 사람의 음성을 녹음하여 이용해야 하는 어려움이 있다. 또한, 중립 음성만 녹음된 화자의 음성과, 감정 음성이 녹음된 화자의 음성을 활용해 중립 감정의 화자의 목소리를 감정적으로 변화시키는 연구가 진행되고 있다. 하지만, 현재 감정이 매우 약하게 표현이 된다.
특히, 개인 사용자가 자신의 음성으로 음성 합성이 되도록 하는 음성 합성기를 구축하고자 할 때, 음성 합성기의 성능을 높이기 위해서는 많은 수의 문장에 대한 발화 데이터가 확보되어야 하는데, 개인 사용자는 그 특성상 많은 수의 문장에 대한 발화 데이터를 확보하는 데에 한계가 존재할 수밖에 없다.
Shen, Jonathan, et al. "Natural TTS synthesis by conditioning wavenet on mel spectrogram predictions." 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) . IEEE, 2018. Skerry-Ryan, R. J., et al. "Towards End-to-End Prosody Transfer for Expressive Speech Synthesis with Tacotron." International Conference on Machine Learning . 2018. Wang, Yuxuan, et al. "Style Tokens: Unsupervised Style Modeling, Control and Transfer in End-to-End Speech Synthesis." International Conference on Machine Learning . 2018. Sutskever, Ilya, Oriol Vinyals, and Quoc V. Le. "Sequence to sequence learning with neural networks." Advances in neural information processing systems . 2014. Bahdanau, Dzmitry, Kyunghyun Cho, and Yoshua Bengio. "Neural machine translation by jointly learning to align and translate." arXiv preprint arXiv:1409.0473 (2014). Arik, Sercan, et al. "Neural voice cloning with a few samples." Advances in Neural Information Processing Systems . 2018. Jia, Ye, et al. "Transfer learning from speaker verification to multispeaker text-to-speech synthesis." Advances in neural information processing systems . 2018.
실시예들은 한 화자의 적은 음성 데이터로 감정 운율을 담은 음성 합성 방법 및 장치에 관하여 기술하며, 보다 구체적으로 한 화자의 적은 음성 데이터를 이용하여 감정 운율 표현을 합성함에 따라 감정 음성을 제공하는 기술을 제공한다.
실시예들은 소량의 중립 화자 데이터로부터 제공되는 한 화자의 음성에 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터로부터 획득한 감정 운율을 담은 감정 음성을 합성하여 출력하는 음성 합성 방법 및 장치를 제공하는데 있다.
일 실시예에 따른 전자 장치로 구현되는 음성 합성 장치를 이용한 음성 합성 방법은, 화자 음성의 특징을 추출하는 화자 인코더(speaker encoder)를 다량의 다화자 데이터를 통해 학습시키는 단계; 텍스트 인코더(text encoder), 운율 인코더(prosody encoder) 및 잔차 인코더(residual encoder) 중 적어도 어느 하나 이상을 상기 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터 중 적어도 어느 하나 이상을 통해 학습시키는 단계; 학습된 상기 텍스트 인코더, 상기 운율 인코더 및 상기 잔차 인코더 중 적어도 어느 하나 이상을 통해 상기 감정 음성 데이터의 감정 운율의 표현을 찾는 단계; 및 중립 화자 데이터의 화자의 목소리 표현을 상기 화자 인코더의 출력값으로 하고, 합성을 원하는 상기 감정 운율의 표현을 선별하여 합성시켜, 상기 중립 화자 데이터의 화자의 감정 음성을 출력하는 단계를 포함하여 이루어질 수 있다.
상기 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터 중 적어도 어느 하나 이상을 통해 학습시키는 단계는, 상기 텍스트 인코더(text encoder), 상기 운율 인코더(prosody encoder) 및 상기 잔차 인코더(residual encoder)를 각각 상기 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터를 활용하여 학습시킬 수 있다.
상기 감정 음성 데이터의 감정 운율의 표현을 찾는 단계는, 학습된 상기 텍스트 인코더, 상기 운율 인코더 및 상기 잔차 인코더를 통해 감정 운율의 표현이 상기 운율 인코더(prosody encoder)로 어떻게 표현되는지 감정 음성 데이터의 샘플을 입력으로 넣어 통계적 표현을 찾을 수 있다.
상기 중립 화자 데이터의 화자의 감정 음성을 출력하는 단계는, 학습된 상기 텍스트 인코더, 상기 운율 인코더 및 상기 잔차 인코더의 일부를 중립 화자 데이터를 통해 적응시켜, 상기 중립 화자 데이터의 화자의 목소리 표현을 찾아내는 단계; 및 상기 중립 화자 데이터의 화자의 목소리 표현을 상기 화자 인코더의 출력값에 넣고, 합성을 원하는 감정 운율의 표현을 상기 감정 음성 데이터의 감정 운율의 표현을 찾는 단계에서 선별하여 넣어, 상기 중립 화자 데이터의 화자의 감정 음성을 출력하는 단계를 포함하여 이루어질 수 있다.
상기 중립 화자 데이터의 화자의 감정 음성을 출력하는 단계는, 상기 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터를 이용하여 학습된 상기 텍스트 인코더, 상기 운율 인코더 및 상기 잔차 인코더에서 감정 운율의 표현을 찾음에 따라 소량의 상기 중립 화자 데이터를 이용하여 한 화자의 음성으로 감정 운율을 담은 감정 음성을 합성하여 출력할 수 있다.
상기 중립 화자 데이터의 화자의 감정 음성을 출력하는 단계는, 소량의 상기 중립 화자 데이터로부터 제공되는 한 화자의 음성에 상기 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터로부터 획득한 감정 운율을 담은 감정 음성을 합성하여 출력할 수 있다.
다른 실시예에 따른 음성 합성 장치는, 화자 음성의 특징을 추출하는 화자 인코더(speaker encoder)를 다량의 다화자 데이터를 통해 학습시키고, 텍스트 인코더(text encoder), 운율 인코더(prosody encoder) 및 잔차 인코더(residual encoder) 중 적어도 어느 하나 이상을 상기 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터 중 적어도 어느 하나 이상을 통해 학습시키는 학습부; 학습된 상기 텍스트 인코더, 상기 운율 인코더 및 상기 잔차 인코더 중 적어도 어느 하나 이상을 통해 상기 감정 음성 데이터의 감정 운율의 표현을 찾는 감정 운율 표현부; 및 중립 화자 데이터의 화자의 목소리 표현을 상기 화자 인코더의 출력값으로 하고, 합성을 원하는 상기 감정 운율의 표현을 선별하여 합성시켜, 상기 중립 화자 데이터의 화자의 감정 음성을 출력하는 감정 음성 합성부를 포함하여 이루어질 수 있다.
학습부는 상기 텍스트 인코더(text encoder), 상기 운율 인코더(prosody encoder) 및 상기 잔차 인코더(residual encoder)를 각각 상기 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터를 활용하여 학습시킬 수 있다.
상기 감정 운율 표현부는, 학습된 상기 텍스트 인코더, 상기 운율 인코더 및 상기 잔차 인코더를 통해 감정 운율의 표현이 상기 운율 인코더(prosody encoder)로 어떻게 표현되는지 감정 음성 데이터의 샘플을 입력으로 넣어 통계적 표현을 찾을 수 있다.
상기 감정 음성 합성부는, 학습된 상기 텍스트 인코더, 상기 운율 인코더 및 상기 잔차 인코더의 일부를 중립 화자 데이터를 통해 적응시켜, 상기 중립 화자 데이터의 화자의 목소리 표현을 찾아내고, 상기 중립 화자 데이터의 화자의 목소리 표현을 상기 화자 인코더의 출력값에 넣고, 합성을 원하는 감정 운율의 표현을 선별하여 넣어, 상기 중립 화자 데이터의 화자의 감정 음성을 출력할 수 있다.
상기 감정 음성 합성부는, 상기 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터를 이용하여 학습된 상기 텍스트 인코더, 상기 운율 인코더 및 상기 잔차 인코더에서 감정 운율의 표현을 찾음에 따라 소량의 상기 중립 화자 데이터를 이용하여 한 화자의 음성으로 감정 운율을 담은 감정 음성을 합성하여 출력할 수 있다.
상기 감정 음성 합성부는, 소량의 상기 중립 화자 데이터로부터 제공되는 한 화자의 음성에 상기 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터로부터 획득한 감정 운율을 담은 감정 음성을 합성하여 출력할 수 있다.
실시예들에 따르면 소량의 중립 화자 데이터로부터 제공되는 한 화자의 음성에 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터로부터 획득한 감정 운율을 담은 감정 음성을 합성하여 출력하는 음성 합성 방법 및 장치를 제공할 수 있다.
실시예들에 따르면 일반인의 음성 등 한 화자의 적은 음성 데이터를 이용하여 감정 운율 표현을 담은 감정 음성을 제공함으로써, 짧은 시간 내에 원하는 사람의 목소리를 합성할 수 있을 뿐 아니라 짧은 시간 내에 음성에 감정 운율의 표현을 합성하여 감정 음성을 제공하는 음성 합성 방법 및 장치를 제공할 수 있다.
도 1은 일 실시예들에 따른 전자 장치를 도시하는 도면이다.
도 2는 일 실시예에 따른 한 화자의 적은 음성 데이터로 감정 운율을 담은 음성 합성 장치를 나타내는 블록도이다.
도 3은 일 실시예에 따른 한 화자의 적은 음성 데이터로 감정 운율을 담은 음성 합성 방법을 나타내는 흐름도이다.
도 4는 일 실시예에 따른 음성 합성 장치와 데이터셋의 동작을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 음성 합성 방법 및 데이터셋의 활용을 설명하기 위한 도면이다.
이하, 첨부된 도면을 참조하여 실시예들을 설명한다. 그러나, 기술되는 실시예들은 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명되는 실시예들에 의하여 한정되는 것은 아니다. 또한, 여러 실시예들은 당해 기술분야에서 평균적인 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위해서 제공되는 것이다. 도면에서 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.
현재 음성 합성 기술은 다양한 사람의 목소리 및 감정을 포함시킨 다양한 음성 변화를 반영한 음성 합성이 가능하나, 각 감정 별로 사람의 음성을 녹음하여 이용해야 하는 어려움이 있다.
한 화자의 음성으로 감정 운율을 담은 음성을 합성하기 위해서는 그 화자의 감정 운율을 담은 음성이 다량으로 필요하지만, 소량의 음성으로 그 화자의 음성과 감정 운율을 합성하기 어렵다. 또한, 새로운 화자의 음성을 모델이 학습하기 위해서는 모델이 다양한 화자의 목소리를 사전에 학습되어 있어야 한다. 기존에 학습된 목소리를 합성하는데 품질 하락이 없고 새로운 화자의 음성을 합성할 수 있어야 한다.
아래의 실시예들은 한 화자의 적은 음성 데이터로 감정 운율을 담은 음성 합성 방법에 관한 것으로, 한 화자의 적은 음성 데이터를 이용하여 감정 운율 표현을 합성함에 따라 감정 음성을 제공하는 기술을 제공한다. 실시예들은 소량의 중립 화자 데이터로부터 제공되는 한 화자의 음성에 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터로부터 획득한 감정 운율을 담은 감정 음성을 합성하여 출력할 수 있다.
도 1은 일 실시예들에 따른 전자 장치를 도시하는 도면이다.
도 1을 참조하면, 일 실시예들에 따른 전자 장치(100)는 입력 모듈(110), 출력 모듈(120), 메모리(130) 또는 프로세서(140) 중 적어도 어느 하나 이상을 포함할 수 있다.
입력 모듈(110)은 전자 장치(100)의 구성 요소에 사용될 명령 또는 데이터를 전자 장치(100)의 외부로부터 수신할 수 있다. 입력 모듈(110)은, 사용자가 전자 장치(100)에 직접적으로 명령 또는 데이터를 입력하도록 구성되는 입력 장치 또는 외부 전자 장치와 유선 또는 무선으로 통신하여 명령 또는 데이터를 수신하도록 구성되는 통신 장치 중 적어도 어느 하나를 포함할 수 있다. 예를 들면, 입력 장치는 마이크로폰(microphone), 마우스(mouse), 키보드(keyboard) 또는 카메라(camera) 중 적어도 어느 하나를 포함할 수 있다. 예를 들면, 통신 장치는 유선 통신 장치 또는 무선 통신 장치 중 적어도 어느 하나를 포함하며, 무선 통신 장치는 근거리 통신 장치 또는 원거리 통신 장치 중 적어도 어느 하나를 포함할 수 있다.
출력 모듈(120)은 전자 장치(100)의 외부로 정보를 제공할 수 있다. 출력 모듈(120)은 정보를 청각적으로 출력하도록 구성되는 오디오 출력 장치, 정보를 시각적으로 출력하도록 구성되는 표시 장치 또는 외부 전자 장치와 유선 또는 무선으로 통신하여 정보를 전송하도록 구성되는 통신 장치 중 적어도 어느 하나를 포함할 수 있다. 예를 들면, 통신 장치는 유선 통신 장치 또는 무선 통신 장치 중 적어도 어느 하나를 포함하며, 무선 통신 장치는 근거리 통신 장치 또는 원거리 통신 장치 중 적어도 어느 하나를 포함할 수 있다.
메모리(130)는 전자 장치(100)의 구성 요소에 의해 사용되는 데이터를 저장할 수 있다. 데이터는 프로그램 또는 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 예를 들면, 메모리(130)는 휘발성 메모리 또는 비휘발성 메모리 중 적어도 어느 하나를 포함할 수 있다.
프로세서(140)는 메모리(130)의 프로그램을 실행하여, 전자 장치(100)의 구성 요소를 제어할 수 있고, 데이터 처리 또는 연산을 수행할 수 있다. 이 때 프로세서(140)는 음성 합성부 및 음성 인식부를 포함하여 이루어질 수 있고, 실시예에 따라 학습부 및 미세 조정부를 더 포함할 수 있다. 이를 통해 프로세서(140)는 음성 감정 인식 및 합성의 반복 학습을 수행할 수 있다.
도 2는 일 실시예에 따른 한 화자의 적은 음성 데이터로 감정 운율을 담은 음성 합성 장치를 나타내는 블록도이다.
도 2를 참조하면, 일 실시예에 따른 한 화자의 적은 음성 데이터로 감정 운율을 담은 음성 합성 장치(200)는 학습부(210), 감정 운율 표현부(220) 및 감정 음성 합성부(230)를 포함하여 이루어질 수 있다. 여기서, 한 화자의 적은 음성 데이터로 감정 운율을 담은 음성 합성 장치(200)는 도 1의 프로세서(140)에 포함할 수 있다.
학습부(210)는 화자 음성의 특징을 추출하는 화자 인코더(speaker encoder)를 다량의 다화자 데이터를 통해 학습시키고, 텍스트 인코더(text encoder), 운율 인코더(prosody encoder) 및 잔차 인코더(residual encoder) 중 적어도 어느 하나 이상을 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터 중 적어도 어느 하나 이상을 통해 학습시킬 수 있다.
감정 운율 표현부(220)는 학습된 텍스트 인코더, 운율 인코더 및 잔차 인코더 중 적어도 어느 하나 이상을 통해 감정 음성 데이터의 감정 운율의 표현을 찾을 수 있다.
감정 음성 합성부(230)는 중립 화자 데이터의 화자의 목소리 표현을 화자 인코더의 출력값으로 하고, 합성을 원하는 감정 운율의 표현을 선별하여 합성시켜, 중립 화자 데이터의 화자의 감정 음성을 출력할 수 있다.
여기에서는 텍스트 음성 합성(Text-to-Speech; TTS)을 사용하는 접근법을 채택하고 있다. 텍스트 음성 합성(TTS)은 텍스트 또는 음성 정보를 음성 파형으로 변환하는 작업이며, 풍부한 seq2seq 기반 연구가 활발하게 진행되었다. 텍스트 음성 합성(TTS)은 음성 변환(Voice Conversion; VC)과 매우 관련이 깊은 작업이다. 음성 변환과 텍스트 음성 합성(TTS)은 입력 도메인만 다를 뿐, 음성 정보를 음향 형상으로 변환하는 디코더의 역할은 매우 동일하다. 텍스트 음성 합성(TTS)의 임베딩 공간은 음성 정보와 높은 상관관계가 있으며, 음성 변환은 멀티태스크 학습을 통해 텍스트 음성 합성(TTS)와 가까운 임베딩 공간을 학습할 것으로 기대된다. 본 실시예에서는 성능 향상을 위해 텍스트 음성 합성(TTS)을 음성 변환에 음성 정보를 제공하는 데 활용한다.
실시예들에 따르면, 이러한 작업을 감정적 음성 변환으로 확장할 수 있다. 스타일 참조 음성을 고려할 때 스타일 인코더는 감정 정보만을 추출하고 언어적 내용을 제거한다. 스타일 인코더는 언어적 내용에 관계없이 감정을 추출하도록 설계되어 있어 복수의 입력 스타일 도메인을 처리할 수 있다. 또한 추출된 감정이 디코더에 주입되면 다양한 감정을 생성할 수 있다. 따라서 제안된 모델은 다대다의 감정적 음성 합성을 처리할 수 있다.
음성 변환(VC)은 언어적 내용을 보존하면서 사람의 목소리를 다른 스타일로 바꾸는 작업이다. 음성 변환(VC)은 시퀀스 대 시퀀스(seq2seq) 모델을 기반으로 할 수 있다. 또한, 텍스트 음성 합성(TTS) 모듈을 이용한 멀티태스크 학습을 이용하여 음성 합성을 수행할 수 있다. seq2seq 기반 텍스트 음성 합성(TTS) 모듈의 임베딩(embedding)은 텍스트에 대한 풍부한 정보를 가지고 있다. 텍스트 음성 합성(TTS) 디코더의 역할은 내장 공간을 음성 변환(VC)과 같은 음성으로 변환하는 것이다. 제안된 모델에서, 전체 네트워크는 음성 변환(VC)과 텍스트 음성 합성(TTS) 모듈의 손실을 최소화하도록 학습된다. 음성 변환(VC)은 더 많은 언어 정보를 포착하고 멀티태스크 학습에 의해 학습 안정성을 보존할 것으로 기대된다.
예를 들어, 음성 합성부(310)에서의 음성 합성 방법은 입력 음성의 페어가 언어 내용을 전달하는 언어의 로그 멜 스펙트로그램(Mel spectrogram) 및 스타일 참조 음성의 로그 멜 스펙트로그램(Mel spectrogram)일 경우, 음성 변환(VC)을 수행하는 단계, 입력 음성의 페어가 원-핫(one-hot) 대표 텍스트 및 스타일 참조 음성의 로그 멜 스펙트로그램(Mel spectrogram)일 경우, 텍스트 음성 합성(TTS)을 수행하는 단계, 언어 내용을 전달하는 언어의 로그 멜 스펙트로그램 및 원-핫(one-hot) 대표 텍스트 모두 동일한 공간에 매핑된 후 멜 스펙트로그램으로 디코딩되는 단계, 및 디코딩된 멜 스펙트로그램으로부터 전처리부를 통해 선형 스펙트럼을 획득하는 단계를 포함할 수 있다. 실시예들에 따르면 스타일 참조 음성을 고려할 때 스타일 인코더는 감정 정보만을 추출하고 언어적 내용을 제거하며, 언어적 내용에 관계없이 감정을 추출하도록 설계되어 복수의 입력 스타일 도메인을 처리하고, 추출된 감정이 디코더에 주입되면 다양한 감정을 생성함으로써 다대다의 감정적 음성 변환을 처리한다.
실시예들에 따르면 일반인의 목소리를 쉽게 합성할 수 있다. 예를 들어 대화 에이전트의 목소리가 성우의 것이 아니라 친근한 지인의 것으로 음성을 제공하면, 친숙한 대화가 가능하여 에이전트와 심리적 거리가 줄어들 수 있다.
또한, 실시예들에 따르면 음성에 감정 운율 표현을 담을 수 있다. 예를 들어 대화 에이전트의 음성이 상황에 적당한 감정을 담아 표현된다면, 대화가 자연스럽게 느껴져 에이전트와 심리적 거리가 줄어들 수 있다.
또한, 일반인이 긴 시간 동안 음성 녹음을 하기 어렵기 때문에 짧은 시간의 음성 녹음을 이용하여 그 사람의 목소리를 합성해야 한다. 실시예들에 따르면 짧은 시간 내에 원하는 사람의 목소리를 합성할 수 있다.
또한, 일반인이 감정을 풍부하게 운율에 담아 내기 어렵기 때문에 연기자들이 표현한 감정 운율을 일반인의 음성에 전이시켜 합성할 필요가 있다. 실시예들에 따르면 짧은 시간 내에 음성에 감정 운율의 표현을 합성하여 감정 음성을 제공할 수 있다.
또한, 일반적으로 한 화자의 음성으로 감정 운율을 담은 음성을 합성하기 위해서는 그 화자의 감정 운율을 담은 음성이 다량으로 필요하다. 실시예들에 따르면 소량의 중립 화자 데이터로부터 제공되는 한 화자의 음성에 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터로부터 획득한 감정 운율을 담은 감정 음성을 합성하여 출력할 수 있다.
아래에서 일 실시예에 따른 한 화자의 적은 음성 데이터로 감정 운율을 담은 음성 합성 장치에 대해 보다 상세히 설명한다.
도 3은 일 실시예에 따른 한 화자의 적은 음성 데이터로 감정 운율을 담은 음성 합성 방법을 나타내는 흐름도이다.
도 3을 참조하면, 일 실시예에 따른 전자 장치로 구현되는 음성 합성 장치를 이용한 음성 합성 방법은, 화자 음성의 특징을 추출하는 화자 인코더(speaker encoder)를 다량의 다화자 데이터를 통해 학습시키는 단계(S110), 텍스트 인코더(text encoder), 운율 인코더(prosody encoder) 및 잔차 인코더(residual encoder) 중 적어도 어느 하나 이상을 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터 중 적어도 어느 하나 이상을 통해 학습시키는 단계(S120), 학습된 텍스트 인코더, 운율 인코더 및 잔차 인코더 중 적어도 어느 하나 이상을 통해 감정 음성 데이터의 감정 운율의 표현을 찾는 단계(S130), 및 중립 화자 데이터의 화자의 목소리 표현을 화자 인코더의 출력값으로 하고, 합성을 원하는 감정 운율의 표현을 선별하여 합성시켜, 중립 화자 데이터의 화자의 감정 음성을 출력하는 단계(S140)를 포함하여 이루어질 수 있다.
아래에서 일 실시예에 따른 한 화자의 적은 음성 데이터로 감정 운율을 담은 음성 합성 방법의 각 단계를 예를 들어 설명한다.
일 실시예에 따른 한 화자의 적은 음성 데이터로 감정 운율을 담은 음성 합성 방법은 도 2에서 설명한 일 실시예에 따른 한 화자의 적은 음성 데이터로 감정 운율을 담은 음성 합성 장치를 예를 들어 보다 상세히 설명할 수 있다. 앞에서 설명한 바와 같이, 일 실시예에 따른 한 화자의 적은 음성 데이터로 감정 운율을 담은 음성 합성 장치(200)는 학습부(210), 감정 운율 표현부(220) 및 감정 음성 합성부(230)를 포함하여 이루어질 수 있다. 여기서, 비특허문헌 4의 Seq2Seq와 비특허문헌 5의 attention 기제 기반 비특허문헌 1의 Tacotron 2를 통해 음성을 합성할 수 있다.
단계(S110)에서, 학습부(210)는 TTS(Text to Speech) 모델 중 Tacotron 2를 사용하여 화자 음성의 특징을 추출하는 화자 인코더(speaker encoder)를 다량의 다화자 데이터를 통해 학습시킬 수 있다. 여기서, 다량의 다화자 데이터의 텍스트 또는 음성 정보가 Tacotron 2 기반 화자 인코더에 입력되어, 화자 음성의 특징, 즉 화자 음성 식별 요소를 추출할 수 있다.
단계(S120)에서, 학습부(210)는 텍스트 인코더(text encoder), 운율 인코더(prosody encoder) 중 적어도 어느 하나 이상을 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터 중 적어도 어느 하나 이상을 통해 학습시킬 수 있다. 특히, 학습부(210)는 Tacotron 2 기반 텍스트 인코더(text encoder) 및 운율 인코더(prosody encoder)를 각각 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터를 활용하여 학습시킬 수 있다. 여기서, 텍스트 인코더, 운율 인코더는 Tacotron 2 기반 인코더 구조를 사용하며, 텍스트 또는 음성 정보를 입력하여 운율을 지닌 데이터셋을 통한 운율 음성 특징을 추출할 수 있다.
단계(S130)에서, 감정 운율 표현부(220)는 학습된 텍스트 인코더 및 운율 인코더 중 적어도 어느 하나 이상을 통해 감정 음성 데이터의 감정 운율의 표현을 찾을 수 있다. 예를 들어, 감정 운율 표현부(220)는 학습된 텍스트 인코더 및 운율 인코더를 통해 감정 운율의 표현이 운율 인코더(prosody encoder)로 어떻게 표현되는지 감정 음성 데이터의 샘플을 입력으로 넣어 통계적 표현을 찾을 수 있다. 즉, 비특허문헌 2 및 3의 방법을 통해 운율 인코더에 감정 음성 데이터의 샘플을 입력으로 넣어 통계적 표현을 찾음으로써, 감정 운율의 표현이 운율 인코더(prosody encoder)로 어떻게 표현되는지 확인할 수 있다.
여기서, 비특허문헌 2 및 3의 방법을 통해 화자 음성 식별(speaker’s voice identity) 요소와 감정 운율(emotional prosody) 요소를 추출할 수 있다.
단계(S140)에서, 감정 음성 합성부(230)는 중립 화자 데이터의 화자의 목소리 표현을 화자 인코더의 출력값으로 하고, 합성을 원하는 감정 운율의 표현을 선별하여 합성시켜, 중립 화자 데이터의 화자의 감정 음성을 출력할 수 있다. 보다 구체적으로, 감정 음성 합성부(230)는 학습된 텍스트 인코더 및 운율 인코더의 일부를 중립 화자 데이터를 통해 적응시켜, 중립 화자 데이터의 화자의 목소리 표현을 찾아낼 수 있다. 여기서, 감정 음성 합성부(230)는 비특허문헌 6 및 7의 방법을 통해 Tacotron 2를 통해 음성을 합성할 수 있는 음성 합성 장치를 한 화자의 적은 음성데이터에 적응시킬 수 있다.
삭제
그리고 감정 음성 합성부(230)는 중립 화자 데이터의 화자의 목소리 표현을 화자 인코더의 출력값에 넣고, 합성을 원하는 감정 운율의 표현을 감정 음성 데이터의 감정 운율의 표현을 찾는 단계에서 선별하여 넣어, 중립 화자 데이터의 화자의 감정 음성을 출력할 수 있다. 여기서, 감정 음성 합성부(230)는 비특허문헌 2 및 3의 방법을 통해 음성에 운율을 전이(prosody transfer)시킬 수 있다.
감정 음성 합성부(230)는 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터를 이용하여 학습된 텍스트 인코더, 운율 인코더 및 잔차 인코더에서 감정 운율의 표현을 찾음에 따라 소량의 중립 화자 데이터를 이용하여 한 화자의 음성으로 감정 운율을 담은 감정 음성을 합성하여 출력할 수 있다. 즉, 감정 음성 합성부(230)는 소량의 중립 화자 데이터로부터 제공되는 한 화자의 음성에 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터로부터 획득한 감정 운율을 담은 감정 음성을 합성하여 출력할 수 있다.
실시예들에 따르면 일반인의 음성 등 한 화자의 적은 음성 데이터를 이용하여 감정 운율 표현을 담은 감정 음성을 제공함으로써, 짧은 시간 내에 원하는 사람의 목소리를 합성할 수 있을 뿐 아니라 짧은 시간 내에 음성에 감정 운율의 표현을 합성하여 감정 음성을 제공할 수 있다.
도 4는 일 실시예에 따른 음성 합성 장치와 데이터셋의 동작을 설명하기 위한 도면이다.
도 4를 참조하면, 일 실시예에 따른 음성 합성 장치(400)와 데이터셋의 동작을 나타내며, 음성 합성 장치(400)의 구성 요소별 입력과 출력에 대한 도식을 나타낸다.
음성 합성 장치(400)는 다량의 다화자 데이터(DB1, 401)를 학습하여 화자 음성의 특징, 즉 화자 음성 식별 요소를 추출할 수 있다. 보다 구체적으로, 음성 합성 장치(400)는 화자 음성의 특징을 추출하는 화자 인코더(speaker encoder, 430)를 다량의 다화자 데이터(DB1, 401)를 통해 학습시킬 수 있다.
그리고, 음성 합성 장치(400)는 다량의 표현이 풍부한 운율을 지닌 데이터셋을 통한 운율 음성 특징을 추출할 수 있다. 보다 구체적으로, 음성 합성 장치(400)는 텍스트 인코더(text encoder, 410), 운율 인코더(prosody encoder, 420) 및 잔차 인코더(residual encoder, 440)를 다량의 다화자 데이터(DB1, 401), 다량의 표현 음성 데이터(DB2, 402) 및 감정 음성 데이터(DB3, 403)를 통해 학습시킬 수 있다.
여기서, 다량의 다화자 데이터(DB1, 401), 다량의 표현 음성 데이터(DB2, 402), 감정 음성 데이터(DB3, 403) 및 소량의 중립 화자 데이터(DB4, 404)로부터 텍스트(411) 및 음성(412) 정보를 제공 받을 수 있다. 텍스트 인코더(410)의 경우 텍스트(411) 정보를 활용할 수 있고, 화자 인코더(430), 운율 인코더(420) 및 잔차 인코더(440)의 경우 음성(412) 정보를 활용할 수 있다.
음성 합성 장치(400)는 학습된 텍스트 인코더(410), 운율 인코더(420) 및 잔차 인코더(440)를 통해 감정 음성 데이터의 감정 운율의 표현을 찾을 수 있다. 그리고 소량의 중립 화자 데이터(DB4, 404)의 화자의 목소리 표현을 화자 인코더의 출력값으로 하고, 합성을 원하는 감정 운율의 표현을 선별하여 합성시켜, 소량의 중립 화자 데이터(DB4, 404)의 화자의 감정 음성(413)을 출력할 수 있다.
여기서, 텍스트 음성 합성(TTS)은 문자열을 입력으로 받아 음성 신호를 출력하는 모듈을 의미하며, 문자열은 음소, 음절 등 다양한 형태의 단위로 입력이 가능하다. 입력은 원 핫 벡터(one-hot vector)의 형태로 치환한 뒤, 캐릭터 임베딩(Character embedding)으로 매핑(mapping)될 수 있다. 매핑된 임베딩(embedding)은 텍스트 인코더(410)를 통해 텍스트 임베딩(text embedding)으로 변환되고, 텍스트 임베딩은 CNN 혹은 RNN 디코더(decoder)를 이용해 멜 스펙트로그램(Mel spectrogram)의 형태로 변환될 수 있다. 이 때, 디코더는 매 디코딩 타임 스텝(decoding time step)마다 어텐션(attention)을 이용해 텍스트 임베딩 중 어떤 텍스트에 집중할 지를 결정하게 된다. 추론된 멜 스펙트로그램(Mel spectrogram)과 정답 멜 스펙트로그램(Mel spectrogram) 사이의 L2 거리 손실(distance loss)을 이용해 텍스트 음성 합성(TTS)을 구성하는 모듈들의 파라미터가 업데이트될 수 있다. 멜 스펙트로그램(Mel spectrogram)은 보코더(vocoder)를 통해 음성 신호로 변환되며, 이 때 보코더는 trainable 할 수도, rule based 일 수도 있다.
도 5는 일 실시예에 따른 음성 합성 방법 및 데이터셋의 활용을 설명하기 위한 도면이다.
도 5를 참조하면, 일 실시예에 따른 음성 합성 방법 및 데이터셋의 활용을 나타내며, 앞에서 설명한 음성 합성 장치를 통해 수행될 수 있다. 먼저, 음성 합성 장치는 화자의 특징을 잡아내는 화자 인코더(speaker encoder)를 DB1(401), 즉 다량의 화자 데이터를 통해 학습할 수 있다(510).
또한, 음성 합성 장치는 세 가지 데이터셋(DB1(401), DB2(402), DB3(403))을 활용해 학습할 수 있다(520).
그리고, 두 번째 절차(520)를 통해 학습된 음성 합성 장치 모델을 통해 감정 운율의 표현이 운율 인코더(prosody encoder)로 어떻게 표현되는지 DB3(403)의 샘플을 입력으로 넣어 통계적 표현을 찾을 수 있다(530).
또한, DB4(404)를 통해 학습된 음성 합성 장치 모델의 일부를 적응시켜 DB4(404)의 화자의 목소리 표현을 찾아낼 수 있다(540). DB4(404) 화자의 목소리 표현을 화자 인코더의 출력값에 넣고, 합성을 원하는 감정 표현을 세 번째 절차(530)에서 선별하여 넣어, DB4(404) 화자의 감정 음성을 출력할 수 있다(550).
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (12)

  1. 전자 장치로 구현되는 TTS(Text to Speech) 모델인 Tacotron 2 기반 음성 합성 장치를 이용한 음성 합성 방법에 있어서,
    화자 음성의 특징을 추출하는 화자 인코더(speaker encoder)를 다량의 다화자 데이터를 통해 학습시키는 단계;
    텍스트 인코더(text encoder) 및 운율 인코더(prosody encoder) 중 적어도 어느 하나 이상을 상기 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터 중 적어도 어느 하나 이상을 통해 학습시키는 단계;
    학습된 상기 텍스트 인코더 및 상기 운율 인코더 중 적어도 어느 하나 이상을 통해 상기 감정 음성 데이터의 감정 운율의 표현을 찾는 단계; 및
    중립 화자 데이터의 화자의 목소리 표현을 상기 화자 인코더의 출력값으로 하고, 합성을 원하는 상기 감정 운율의 표현을 선별하여 합성시켜, 상기 중립 화자 데이터의 화자의 감정 음성을 출력하는 단계
    를 포함하고,
    상기 감정 음성 데이터의 감정 운율의 표현을 찾는 단계는,
    학습된 상기 텍스트 인코더 및 상기 운율 인코더를 통해 감정 운율의 표현이 상기 운율 인코더(prosody encoder)로 어떻게 표현되는지 감정 음성 데이터의 샘플을 입력으로 넣어 통계적 표현을 찾으며,
    상기 중립 화자 데이터의 화자의 감정 음성을 출력하는 단계는,
    학습된 상기 텍스트 인코더 및 상기 운율 인코더의 일부를 중립 화자 데이터를 통해 적응시켜, 상기 중립 화자 데이터의 화자의 목소리 표현을 찾아내는 단계; 및
    상기 중립 화자 데이터의 화자의 목소리 표현을 상기 화자 인코더의 출력값에 넣고, 합성을 원하는 감정 운율의 표현을 상기 감정 음성 데이터의 감정 운율의 표현을 찾는 단계에서 선별하여 넣어, 상기 중립 화자 데이터의 화자의 감정 음성을 출력하는 단계
    를 포함하는, 음성 합성 방법.
  2. 제1항에 있어서,
    상기 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터 중 적어도 어느 하나 이상을 통해 학습시키는 단계는,
    상기 텍스트 인코더(text encoder) 및 상기 운율 인코더(prosody encoder)를 각각 상기 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터를 활용하여 학습시키는 것
    을 특징으로 하는, 음성 합성 방법.
  3. 삭제
  4. 삭제
  5. 제1항에 있어서,
    상기 중립 화자 데이터의 화자의 감정 음성을 출력하는 단계는,
    상기 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터를 이용하여 학습된 상기 텍스트 인코더 및 상기 운율 인코더에서 감정 운율의 표현을 찾음에 따라 소량의 상기 중립 화자 데이터를 이용하여 한 화자의 음성으로 감정 운율을 담은 감정 음성을 합성하여 출력하는 것
    을 특징으로 하는, 음성 합성 방법.
  6. 제1항에 있어서,
    상기 중립 화자 데이터의 화자의 감정 음성을 출력하는 단계는,
    소량의 상기 중립 화자 데이터로부터 제공되는 한 화자의 음성에 상기 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터로부터 획득한 감정 운율을 담은 감정 음성을 합성하여 출력하는 것
    을 특징으로 하는, 음성 합성 방법.
  7. TTS(Text to Speech) 모델인 Tacotron 2 기반 음성 합성 장치에 있어서,
    화자 음성의 특징을 추출하는 화자 인코더(speaker encoder)를 다량의 다화자 데이터를 통해 학습시키고, 텍스트 인코더(text encoder) 및 운율 인코더(prosody encoder) 중 적어도 어느 하나 이상을 상기 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터 중 적어도 어느 하나 이상을 통해 학습시키는 학습부;
    학습된 상기 텍스트 인코더 및 상기 운율 인코더 중 적어도 어느 하나 이상을 통해 상기 감정 음성 데이터의 감정 운율의 표현을 찾는 감정 운율 표현부; 및
    중립 화자 데이터의 화자의 목소리 표현을 상기 화자 인코더의 출력값으로 하고, 합성을 원하는 상기 감정 운율의 표현을 선별하여 합성시켜, 상기 중립 화자 데이터의 화자의 감정 음성을 출력하는 감정 음성 합성부
    를 포함하고,
    상기 감정 운율 표현부는,
    학습된 상기 텍스트 인코더 및 상기 운율 인코더를 통해 감정 운율의 표현이 상기 운율 인코더(prosody encoder)로 어떻게 표현되는지 감정 음성 데이터의 샘플을 입력으로 넣어 통계적 표현을 찾으며,
    상기 감정 음성 합성부는,
    학습된 상기 텍스트 인코더 및 상기 운율 인코더의 일부를 중립 화자 데이터를 통해 적응시켜, 상기 중립 화자 데이터의 화자의 목소리 표현을 찾아내고, 상기 중립 화자 데이터의 화자의 목소리 표현을 상기 화자 인코더의 출력값에 넣고, 합성을 원하는 감정 운율의 표현을 선별하여 넣어, 상기 중립 화자 데이터의 화자의 감정 음성을 출력하는 것
    을 특징으로 하는, 음성 합성 장치.
  8. 제7항에 있어서,
    상기 학습부는,
    상기 텍스트 인코더(text encoder) 및 상기 운율 인코더(prosody encoder)를 각각 상기 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터를 활용하여 학습시키는 것
    을 특징으로 하는, 음성 합성 장치.
  9. 삭제
  10. 삭제
  11. 제7항에 있어서,
    상기 감정 음성 합성부는,
    상기 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터를 이용하여 학습된 상기 텍스트 인코더 및 상기 운율 인코더에서 감정 운율의 표현을 찾음에 따라 소량의 상기 중립 화자 데이터를 이용하여 한 화자의 음성으로 감정 운율을 담은 감정 음성을 합성하여 출력하는 것
    을 특징으로 하는, 음성 합성 장치.
  12. 제7항에 있어서,
    상기 감정 음성 합성부는,
    소량의 상기 중립 화자 데이터로부터 제공되는 한 화자의 음성에 상기 다량의 다화자 데이터, 다량의 표현 음성 데이터 및 감정 음성 데이터로부터 획득한 감정 운율을 담은 감정 음성을 합성하여 출력하는 것
    을 특징으로 하는, 음성 합성 장치.
KR1020200105049A 2020-08-21 2020-08-21 한 화자의 적은 음성 데이터로 감정 운율을 담은 음성 합성 방법 및 장치 KR102426020B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200105049A KR102426020B1 (ko) 2020-08-21 2020-08-21 한 화자의 적은 음성 데이터로 감정 운율을 담은 음성 합성 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200105049A KR102426020B1 (ko) 2020-08-21 2020-08-21 한 화자의 적은 음성 데이터로 감정 운율을 담은 음성 합성 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20220023381A KR20220023381A (ko) 2022-03-02
KR102426020B1 true KR102426020B1 (ko) 2022-07-29

Family

ID=80815511

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200105049A KR102426020B1 (ko) 2020-08-21 2020-08-21 한 화자의 적은 음성 데이터로 감정 운율을 담은 음성 합성 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102426020B1 (ko)

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Jiang, Dan-ning, et al. "Prosody analysis and modeling for emotional speech synthesis." ICASSP 2005, Vol. 1, 2005.*
Skerry-Ryan, R. J., et al. "Towards end-to-end prosody transfer for expressive speech synthesis with tacotron." international conference on machine learning, PMLR, 2018.*
Songxiang Liu et al., ‘Voice Conversion Across Arbitrary Speakers based on a Single Target-Speaker Utterance’, Interspeech 2018, September 2018.*

Also Published As

Publication number Publication date
KR20220023381A (ko) 2022-03-02

Similar Documents

Publication Publication Date Title
EP3994683B1 (en) Multilingual neural text-to-speech synthesis
CN111837178B (zh) 语音处理系统和处理语音信号的方法
JP7142333B2 (ja) 多言語テキスト音声合成方法
JP7436709B2 (ja) 非発話テキストおよび音声合成を使う音声認識
KR102677459B1 (ko) 2-레벨 스피치 운율 전송
JP6802005B2 (ja) 音声認識装置、音声認識方法及び音声認識システム
JP2022107032A (ja) 機械学習を利用したテキスト音声合成方法、装置およびコンピュータ読み取り可能な記憶媒体
CN111276120B (zh) 语音合成方法、装置和计算机可读存储介质
CN108899009B (zh) 一种基于音素的中文语音合成系统
JP6846237B2 (ja) 音声合成装置及びプログラム
CN106971709A (zh) 统计参数模型建立方法和装置、语音合成方法和装置
CN108231062A (zh) 一种语音翻译方法及装置
CN113470622B (zh) 一种可将任意语音转换成多个语音的转换方法及装置
US20220157329A1 (en) Method of converting voice feature of voice
KR101424193B1 (ko) 타 언어권 화자음성에 대한 음성인식 시스템의 성능 향상을위한 비직접적 데이터 기반 발음변이 모델링 시스템 및방법
Shin et al. Text-driven emotional style control and cross-speaker style transfer in neural tts
CN116312471A (zh) 语音迁移、语音交互方法、装置、电子设备及存储介质
Wu et al. Multilingual text-to-speech training using cross language voice conversion and self-supervised learning of speech representations
JP6594251B2 (ja) 音響モデル学習装置、音声合成装置、これらの方法及びプログラム
KR102426020B1 (ko) 한 화자의 적은 음성 데이터로 감정 운율을 담은 음성 합성 방법 및 장치
Qian et al. A survey of technologies for automatic Dysarthric speech recognition
KR102277205B1 (ko) 오디오 변환 장치 및 방법
CN114446278A (zh) 语音合成方法及装置、设备以及存储介质
KR102382191B1 (ko) 음성 감정 인식 및 합성의 반복 학습 방법 및 장치
CN113192483B (zh) 一种文本转换为语音的方法、装置、存储介质和设备

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right