KR20210122204A - 대화 감정 스타일의 예측 방법, 장치, 전자 기기, 저장 매체 및 컴퓨터 프로그램 제품 - Google Patents

대화 감정 스타일의 예측 방법, 장치, 전자 기기, 저장 매체 및 컴퓨터 프로그램 제품 Download PDF

Info

Publication number
KR20210122204A
KR20210122204A KR1020210080352A KR20210080352A KR20210122204A KR 20210122204 A KR20210122204 A KR 20210122204A KR 1020210080352 A KR1020210080352 A KR 1020210080352A KR 20210080352 A KR20210080352 A KR 20210080352A KR 20210122204 A KR20210122204 A KR 20210122204A
Authority
KR
South Korea
Prior art keywords
conversation
dialogue
style
role
text
Prior art date
Application number
KR1020210080352A
Other languages
English (en)
Other versions
KR102564689B1 (ko
Inventor
정린 판
지에 바이
이 왕
Original Assignee
베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 filed Critical 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드
Publication of KR20210122204A publication Critical patent/KR20210122204A/ko
Application granted granted Critical
Publication of KR102564689B1 publication Critical patent/KR102564689B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06K9/6256
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Machine Translation (AREA)

Abstract

본 출원은 대화 감정 스타일의 예측 방법, 장치, 전자 기기 및 저장 매체를 개시하였고, 자연 언어 처리, 스마트 음성 및 딥 러닝 등 인공지능 분야에 관한 것이며, 상기 방법은, 처리될 대화가 있는 텍스트로부터 대화의 콘텍스트를 획득하는 단계; 대화의 화자인 대화의 역할의 역할 정보를 획득하는 단계; 및 획득된 콘텍스트 및 역할 정보에 따라 대화의 감정 스타일을 예측하는 단계;를 포함할 수 있다. 본 출원에 따른 방안을 응용하면, 예측 결과의 정확성 등을 향상시킬 수 있다.

Description

대화 감정 스타일의 예측 방법, 장치, 전자 기기, 저장 매체 및 컴퓨터 프로그램 제품{METHOD AND APPARATUS FOR PREDICTING EMOTION STYLE OF DIALOGUE, ELECTRONIC DEVICE, STORAGE MEDIUM, AND COMPUTER PROGRAM PRODUCT}
본 출원은 인공지능 분야에 관한 것으로, 특히 자연 언어 처리, 스마트 음성 및 딥 러닝 분야의 대화 감정 스타일의 예측 방법, 장치, 전자 기기 및 저장 매체에 관한 것이다.
다중 감정 스타일의 음성 소설은 시중에서 점점 많은 관심을 받고 있으며, 상응하게, 소설 중의 각 대화의 감정 스타일에 대해 라벨링(즉 예측)할 필요가 있다.
현재에는, 일반적으로 대화의 콘텍스트로부터 직접 감정 스타일을 추출하는 방법을 적용하지만, 정확성이 비교적 낮다.
예를 들면, 아래의 문장
「 …
"(나도 매우 슬프다)”
(장삼은 슬퍼하고 있는 이사(李四)를 성의없이 위로한다).
… 」에 대해,
현재의 처리 방법에 따르면, 직접 "나도 매우 슬프다”, "위로한다" 또는 "슬퍼하고 있는 이사(李四)"로부터 감정 스타일을 잘못 추출하기 매우 쉬우므로, 예측 결과가 정확하지 않게 된다.
본 출원은 대화 감정 스타일의 예측 방법, 장치, 전자 기기 및 저장 매체를 제공한다.
상기 대화 감정 스타일의 예측 방법은,
처리될 대화가 있는 텍스트로부터 상기 대화의 콘텍스트를 획득하는 단계;
상기 대화의 화자인 상기 대화의 역할의 역할 정보를 획득하는 단계; 및
상기 콘텍스트 및 상기 역할 정보에 따라 상기 대화의 감정 스타일을 예측하는 단계;를 포함한다.
상기 대화 감정 스타일의 예측 장치는,
처리될 대화가 있는 텍스트로부터 상기 대화의 콘텍스트를 획득하기 위한 제1 획득 모듈;
상기 대화의 화자인 상기 대화의 역할의 역할 정보를 획득하기 위한 제2 획득 모듈; 및
상기 콘텍스트 및 상기 역할 정보에 따라 상기 대화의 감정 스타일을 예측하기 위한 예측 모듈;을 포함한다.
상기 전자 기기는,
적어도 하나의 프로세서; 및
상기 적어도 하나의 프로세서와 통신 연결되는 메모리;를 포함하되,
상기 메모리에는 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령어가 저장되어 있고, 상기 명령어는 상기 적어도 하나의 프로세서에 의해 실행되어, 상기 적어도 하나의 프로세서로 하여금 상기와 같은 방법을 수행할 수 있게 한다.
컴퓨터 명령어가 저장되어 있는 비휘발성 컴퓨터 판독가능 저장 매체에 있어, 컴퓨터로 하여금 상기와 같은 방법을 수행하게 하기 위한 컴퓨터 명령어가 저장되어 있다.
상기 출원에서의 일 실시예는 아래와 같은 장점 또는 유익한 효과를 갖는다. 대화의 콘텍스트 및 대화의 역할 정보 등을 결합하여 대화의 감정 스타일을 예측함으로써, 예측 결과의 정확성을 향상시킬 수 있다.
본 부분에서 설명된 내용은 본 개시 실시예의 핵심 특징 또는 중요한 특징을 알리기 위한 것이 아니며, 본 개시의 범위를 제한하기 위한 것도 아님을 이해해야 한다. 본 개시의 다른 특징은 아래의 설명 부분을 통해 쉽게 이해될 것이다.
도면은 본 방안을 더 잘 이해하기 위한 것이며, 본 출원을 한정하기 위한 것은 아니다. 그 중:
도1은 본 출원에 따른 대화 감정 스타일의 예측 방법의 제1 실시예의 흐름도이고;
도2는 본 출원에 따른 대화 감정 스타일의 예측 방법의 제2 실시예의 흐름도이고;
도3은 본 출원에 따른 대화 감정 스타일의 예측 장치(30)의 실시예의 구조의 예시도이고;
도4는 본 출원 실시예에 따른 상기 방법의 전자 기기의 블록도이다.
아래 도면을 결합하여 본 출원의 예시적인 실시예에 대해 설명한다. 이해를 돕기 위해, 상기 설명에는 본 출원 실시예의 다양한 세부사항을 포함하며, 이를 오직 예시적인 것으로 간주해야 한다. 따라서, 당업자는 본 출원의 범위 및 사상을 벗어나는 것이 없이, 여기에서 설명되는 실시예에 대해 다양한 변경 및 수정을 진행할 수 있음을 인식해야 한다. 마찬가지로, 명확하고 간명한 설명을 위해, 아래의 설명에서 공지의 기능 및 구조에 대한 설명은 생략한다.
또한, 본문 중의 용어 "및/또는"은 관련 대상의 관련 관계를 설명하기 위한 것일 뿐이고, 3가지 관계가 존재할 수 있음을 의미하며, 예를 들면, A 및/또는 B는, A만 단독으로 존재하는 경우, A와 B가 동시에 존재하는 경우, B만 단독으로 존재하는 경우 이 3가지 경우를 의미할 수 있음을 이해해야 한다. 또한, 본문에서 문자 부호 "/"는, 일반적으로 앞뒤의 관련 대상이 "또는"의 관계임을 의미한다.
도1은 본 출원에 따른 대화 감정 스타일의 예측 방법의 제1 실시예의 흐름도이다. 도1에서 도시된 바와 같이, 상기 방법은 아래와 같은 구체적인 실현 방식을 포함한다.
단계101에서, 처리될 대화가 있는 텍스트로부터 대화의 콘텍스트를 획득한다.
단계102에서, 대화의 역할 정보를 획득하며, 여기서 역할은 대화의 화자이다.
단계103에서, 획득된 콘텍스트 및 역할 정보에 따라 대화의 감정 스타일을 예측한다.
상기 방법 실시예에서는, 대화의 콘텍스트 및 대화의 역할 정보 등을 결합하여 대화의 감정 스타일을 예측함으로써, 예측 결과의 정확성이 기존의 방법에 비해 향상될 수 있음을 알 수 있다. 또한 상기 텍스트는 소설, 뉴스, 대본 등과 같은 임의의 형태의 텍스트일 수 있어, 보편적 적용성을 갖는다.
실제적인 응용 과정에서, 처리될 텍스트, 즉 처리될 대화가 있는 텍스트에 대해, 텍스트 중의 대화를 순회(traversal)하여, 순회된 각 대화를 각각 처리될 대화로 할 수 있다. 상기 순회에 대해 구체적으로 어떠한 순서를 적용할지는 한정하지 않으며, 예를 들어, 처음부터 끝까지의 순서에 따라 순회를 진행할 수 있다.
또한, 아래 방식을 적용하여 텍스트 중의 대화를 인식할 수 있다. 즉, 인용부호에 둘러싸인 텍스트 내용을 대화로 하며, 및/또는, 임의의 텍스트 내용에 대해, 사전에 훈련하여 얻은 분류 모델을 이용하여 해당 텍스트 내용이 대화인지를 결정한다.
상기 2가지의 대화를 인식하는 방식은 각각 별도로 사용할 수 있고, 결합하여 사용할 수도 있다. 예를 들면, 인용부호에 둘러싸인 어느 한 텍스트 내용에 대해, 추가적으로 분류 모델을 이용하여 해당 텍스트 내용이 대화인지를 결정할 수 있으며, 이렇게 이중 인식을 통해, 인식 결과의 정확성 등을 향상시킬 수 있다.
상기 대화를 인식하는 방식은 예시일 뿐이고, 본 출원의 기술방안을 한정하기 위한 것은 아니며, 실제 응용에서 임의의 실행 가능한 실현 방식을 적용할 수 있다. 예를 들면, 상기 인용부호는 대화를 의미하는 다른 형태의 부호 등 일 수 있다.
처리될 대화에 대해, 대화가 있는 텍스트로부터 대화의 콘텍스트를 획득할 수 있다. 대화의 콘텍스트를 어떻게 획득하는지에 대해서는 마찬가지로 한정하지 않는다. 예를 들면, 대화 이전의 M 구절의 텍스트 내용(M 구절)과 대화 이후의 N 구절의 텍스트 내용을 각각 대화의 윗문장과 아래문장으로 하여, 대화의 콘텍스트를 획득할 수 있다. 여기서 M과 N은 모두 양의 정수이며, 값은 동일할 수 있고, 서로 다를 수도 있으며, 구체적인 값은 모두 실제 수요에 따라 결정할 수 있다. 대화의 윗문장, 대화 및 대화의 아래문장은 내용이 연속적인 한 단락의 텍스트 내용이다.
대화의 콘텍스트를 획득하는 외에, 대화의 역할 정보, 즉 대화의 화자 정보를 더 획득할 수 있다. 예를 들면, 인공으로 라벨링된 대화의 역할 정보를 획득하거나, 또는, 사전에 훈련하여 얻은 역할 예측 모델을 이용하여 예측된 대화의 역할 정보를 획득할 수 있다. 구체적으로 어떠한 방법을 적용할지는 실제 수요에 따라 결정할 수 있어, 유연하고 편리하다. 하지만 인건비 등의 절감을 위해, 바람직하게는 후자의 방법을 적용할 수 있다.
예를 들면, 아래의 문장
「 …
"(나도 매우 슬프다).”
(장삼(蠟三)은 슬퍼하고 있는 이사(李四)를 성의없이 위로한다).
… 」에 대해,
그중 "나도 매우 슬프다”라는 대화에 대응되는 역할 정보는 바로 "장삼(蠟三)”이다.
역할 예측 모델은 사전에 훈련하여 얻은 것일 수 있으며, 상기 모델을 이용하여 서로 다른 대화에 각각 대응되는 역할 정보를 예측할 수 있다.
어떠한 방식으로든, 대화의 역할 정보를 획득한 후, 획득된 콘텍스트 및 역할 정보에 따라 추가적으로 대화의 감정 스타일을 예측할 수 있다.
구체적으로, 대화의 콘텍스트, 대화의 역할 정보 및 대화를 포함하는 입력 정보를 생성하여, 입력 정보를 사전에 훈련하여 얻은 감정 스타일 예측 모델에 입력함으로써, 예측된 대화의 감정 스타일을 획득할 수 있다.
입력 정보의 구체적인 형태에 대해서는 한정하지 않는다. 예를 들면, 상기 "나도 매우 슬프다”의 대화에 대해, 대화의 윗문장, 대화 및 대화의 아래문장으로 구성된 텍스트 내용을 획득하고, 사전에 설정된 방식에 따라 그중의 역할 정보(일반적으로 대화의 콘텍스트에 나타남) "장삼(蠟三)"을 마킹하여, 대화의 콘텍스트, 대화의 역할 정보 및 대화를 포함하는 입력 정보를 획득할 수 있다.
상기 사전에 설정된 방식이 구체적으로 어떠한 방법인지는 마찬가지로 한정하지 않는다. 예를 들면, "장삼(蠟三)"의 위치에 대해 특정된 표기를 하거나, 또는 "장삼(蠟三)"의 이전과 이후에 각각 하나의 특정된 문자 부호 등을 삽입할 수 있다.
입력 정보를 획득한후, 상기 입력 정보를 감정 스타일 예측 모델에 입력하여, 예측된 대화의 감정 스타일을 획득할 수 있다. 감정 스타일 예측 모델은 대화가 서로 다른 감정 스타일에 속하는 확률값을 각각 계산하여, 값이 가장 큰 확률값에 대응되는 감정 스타일을 예측된 대화의 감정 스타일로 할 수 있다.
기존의 방식에 비해, 본 출원의 상기 방식은 모델로 하여금 더 많은 정보를 획득할 수 있게 할 수 있으며, 예를 들면, 화자가 "장삼(蠟三)"임이 명확하게 된 후, 모델은 "장삼(蠟三)" 근처의 콘텍스트에 더 집중하여, 더 큰 확률을 가지고 "성의없이"로부터 감정 스타일을 추출할 수 있으므로, 예측된 감정 스타일의 정확성 등을 향상시킬 수 있다.
상기에서 설명한 바와 같이, 감정 스타일 예측 모델은 사전에 훈련하여 얻은 것일 수 있다. 구체적으로, 훈련 샘플을 생성할 수 있으며, 훈련 샘플마다 각각 텍스트 중의 한 구절의 대화에 대응될 수 있으며, 상기 훈련 샘플에는, 대화에 대응되는 입력 정보 및 라벨이 포함될 수 있으며, 라벨은 대화의 감정 스타일이고, 대화에 대응되는 입력 정보는 상기의 대화의 콘텍스트, 대화의 역할 정보 및 대화를 포함하는 입력 정보를 의미하며, 나아가 훈련 샘플을 이용하여 감정 스타일 예측 모델을 훈련하여 얻을 수 있다.
상기 설명에 기반하여, 도2는 본 출원에 따른 대화 감정 스타일 예측 방법의 제2 실시예의 흐름도이다. 도2에서 도시된 바와 같이, 상기 방법은 아래와 같은 구체적인 실현 방식을 포함한다.
단계201에서, 처음부터 끝까지의 순서에 따라 소설 중의 대화를 순회한다.
본 실시예에서, 처리될 텍스트를 소설로 가정한다.
또한, 인용부호에 둘러싸인 텍스트 내용이 대화인 것으로 할 수 있으며, 및/또는, 임의의 텍스트 내용에 대해, 사전에 훈련하여 얻은 분류 모델을 이용하여 해당 텍스트 내용이 대화인지를 결정할 수 있다.
단계202에서, 순회된 대화 각각에 대해, 각각 202~207와 같은 처리를 진행한다.
단계203에서, 대화의 콘텍스트를 획득한다.
예를 들면, 대화 이전의 M 구절의 텍스트 내용과 대화 이후의 N 구절의 텍스트 내용을 각각 대화의 윗문장과 아래문장으로 하여, 대화의 콘텍스트를 획득할 수 있다. 여기서 M과 N은 모두 양의 정수이며, 값은 동일할 수 있고, 서로 다를 수도 있다.
단계204에서, 대화의 역할 정보를 획득하며, 여기서 역할은 대화의 화자이다.
예를 들면, 인공으로 라벨링된 대화의 역할 정보를 획득하거나, 또는, 사전에 훈련하여 얻은 역할 예측 모델을 이용하여 예측된 대화의 역할 정보를 획득할 수 있다.
단계205에서, 대화의 콘텍스트, 대화의 역할 정보 및 대화를 포함하는 입력 정보를 생성한다.
역할 정보가 대화의 콘텍스트에 나타난다고 가정하면, 대화의 윗문장, 대화 및 대화의 아래문장으로 구성된 텍스트 내용을 획득하여, 사전에 설정된 방식에 따라 그 중의 역할 정보에 대해 마킹함으로써, 대화의 콘텍스트, 대화의 역할 정보 및 대화를 포함하는 입력 정보를 획득할 수 있다.
단계206에서, 입력 정보를 사전에 훈련하여 얻은 감정 스타일 예측 모델에 입력하여, 예측된 대화의 감정 스타일을 획득한다.
사전에 훈련 샘플을 생성할 수 있으며, 훈련 샘플마다 각각 텍스트 중의 한 구절의 대화에 대응될 수 있으며, 상기 훈련 샘플에는, 대화에 대응되는 입력 정보 및 라벨이 포함될 수 있다. 라벨은 대화의 감정 스타일이다. 나아가, 훈련 샘플을 이용하여 감정 스타일 예측 모델을 훈련하여 얻을 수 있다.
단계207에서, 예측된 감정 스타일을 대화에 라벨링한다.
단계208에서, 다음 대화가 존재하는지를 결정하며, 만약 다음 대화가 존재한다면, 다음 대화에 대해 단계203를 반복하여 수행하고, 만약 다음 대화가 존재하지 않는다면, 단계209를 수행한다.
단계209에서, 라벨링된 소설을 출력하고, 흐름을 종료한다.
상기 방법의 실시예는 대화 각각에 대해, 그 역할 정보를 각각 획득하여, 콘텍스트와 함께 입력 정보를 생성하며, 즉 대화의 역할 정보를 모델의 입력에 추가함으로써, 예측 결과의 정확성을 향상시키며, 또한 상기 방법은 매우 신속하고 고효율적이고, 일반적으로 몇분이면 수천 단락의 소설을 라벨링할 수 있으며, 이는 산업화된 대화 감정 스타일의 예측 방안이다.
설명해야 할 것은, 상기의 각 방법의 실시예에 대해, 간단하게 설명하기 위해, 상기 방법을 모두 일련의 동작의 조합으로 표현하였지만, 당업자라면, 본 출원에 의하면 어떤 단계는 다른 순서를 적용하거나 또는 동시에 진행할 수 있으므로, 본 출원은 설명된 동작 순서의 제한을 받지 않음을 알아야 한다. 또한, 명세서에서 설명한 실시예는 모두 바람직한 실시예로서, 관련된 동작 및 모듈은 본 출원에서 반드시 필요한 것은 아님을 역시 당업자는 알아야 한다. 또한, 어느 한 실시예에서 상세하게 설명하지 않은 부분은 다른 실시예에서의 관련 설명을 참조할 수 있다.
이상은 방법 실시예에 대한 설명이고, 아래는 장치 실시예를 통해 본 출원에 따른 방안에 대해 추가적으로 설명한다.
도3은 본 출원에 따른 대화 감정 스타일 예측 장치(30)의 실시예의 구조의 예시도이다. 도3에 도시된 바와 같이, 상기 대화 감정 스타일 예측 장치(30)는 제1 획득 모듈(301), 제2 획득 모듈(302) 및 예측 모듈(303)을 포함한다.
제1 획득 모듈(301)은, 처리될 대화가 있는 텍스트로부터 대화의 콘텍스트를 획득하기 위한 것이다.
제2 획득 모듈(302)은, 대화의 역할 정보를 획득하기 위한 것이며, 여기서 역할은 대화의 화자이다.
예측 모듈(303)은, 획득된 콘텍스트 및 역할 정보에 따라 대화의 감정 스타일을 예측하기 위한 것이다.
여기서, 제1 획득 모듈(301)은 텍스트 중의 대화를 순회하여, 순회된 각 대화를 각각 처리될 대화로 할 수 있다. 상기 순회에 대해 구체적으로 어떠한 순서를 적용할지는 한정하지 않으며, 예를 들어, 처음부터 끝까지의 순서에 따라 순회를 진행할 수 있다.
제1 획득 모듈(301)은 아래 방식을 적용하여 텍스트 중의 대화를 인식할 수도 있다. 즉, 인용부호에 둘러싸인 텍스트 내용을 대화로 하며, 및/또는, 임의의 텍스트 내용에 대해 사전에 훈련하여 얻은 분류 모델을 이용하여 해당 텍스트 내용이 대화인지를 결정한다. 상기 대화를 인식하는 2가지의 방식은 각각 별도로 사용할 수 있고, 결합하여 사용할 수도 있으며, 예를 들면, 인용부호에 둘러싸인 어느 한 단락의 텍스트 내용에 대해, 추가적으로 분류 모델을 이용하여 해당 텍스트 내용이 대화인지를 결정할 수 있다.
또한, 처리될 대화에 대해, 제1 획득 모듈(301)은 대화 이전의 M 구절의 텍스트 내용과 대화 이후의 N 구절의 텍스트 내용을 각각 대화의 윗문장과 아래문장으로 하여, 대화의 콘텍스트를 획득할 수 있다. 여기서 M과 N은 모두 양의 정수이며, 값은 동일할 수 있고, 서로 다를 수도 있다.
대화의 역할 정보가 획득된 경우, 제2 획득 모듈(301)은 인공으로 라벨링된 대화의 역할 정보를 획득하거나, 또는, 사전에 훈련하여 얻은 역할 예측 모델을 이용하여, 예측된 대화의 역할 정보를 예측할 수 있다.
추가적으로, 대화의 콘텍스트 및 역할 정보가 획득된 후, 예측 모듈(303)은 대화의 콘텍스트 및 역할 정보에 따라 대화의 감정 스타일을 예측할 수 있다. 구체적으로, 대화의 콘텍스트, 대화의 역할 정보 및 대화를 포함하는 입력 정보를 생성하여, 입력 정보를 사전에 훈련하여 얻은 감정 스타일 예측 모델에 입력함으로써, 예측된 대화의 감정 스타일을 획득할 수 있다.
예를 들면, 역할 정보가 대화의 콘텍스트에 나타난다고 가정하면, 대화의 윗문장, 대화 및 대화의 아래문장으로 구성된 텍스트 내용을 획득하고, 사전에 설정된 방식에 따라 그 중의 역할 정보에 대해 마킹함으로써, 대화의 콘텍스트, 대화의 역할 정보 및 대화를 포함하는 입력 정보를 획득할 수 있다.
상응하게, 도3에 도시된 장치에는 훈련 샘플을 생성하기 위한 전처리 모듈(300)을 더 포함될 수 있다. 여기서, 훈련 샘플마다 각각 텍스트 중의 한 구절의 대화에 대응될 수 있으며, 상기 훈련 샘플에는, 대화에 대응되는 입력 정보 및 라벨이 포함될 수 있으며, 라벨은 대화의 감정 스타일이며, 훈련 샘플을 이용하여 감정 스타일 예측 모델을 훈련하여 얻을 수 있다.
도3에 도시된 장치 실시예의 구체적인 작동 흐름은 상기 방법 실시예 중 관련 설명을 참조하기 바라며, 여기에서 반복하여 설명하지 않는다.
상술한 바와 같이, 본 출원의 장치 실시예에 따른 방안을 적용하면, 대화의 콘텍스트 및 대화의 역할 정보 등을 결합하여 대화의 감정 스타일을 예측하므로, 예측 결과의 정확성 등을 향상시킬 수 있다.
본 출원에 따른 방안은 인공지능 분야에 응용될 수 있으며, 특히 자연 언어 처리, 스마트 음성 및 딥 러닝 등 분야에 관한 것이다.
인공지능은 컴퓨터로 하여금 사람의 일부 사고 과정과 지능적 행위(예를 들면, 학습, 추리, 사고, 계획 등 )등을 모방하게 하는 것을 연구하는 학과이며, 하드웨어 분야의 기술도 존재하고 소프트웨어 분야의 기술도 존재한다. 인공지능 하드웨어 기술은 일반적으로 센서, 인공지능 전용 칩, 클라우드 컴퓨팅, 분산 저장, 빅 데이터 처리 등과 같은 기술을 포함하며, 인공지능 소프트웨어 기술은 주로 컴퓨터 비전 기술, 음성 인식 기술, 자연 언어 처리 기술 및 머신 러닝/딥 러닝, 빅 데이터 처리 기술, 지식 그래프 기술 등 몇가지 큰 방향의 기술을 포함한다.
본 출원의 실시예에 따라, 본 출원은 전자 기기 및 판독가능 저장 매체를 더 제공한다.
도4에서 도시된 바와 같이, 본 출원 실시예에 따른 방법의 전자 기기의 블록도이다. 전자 기기는 랩톱 컴퓨터, 데스크톱 컴퓨터, 워크 스테이션, 개인 휴대 정보 단말기, 서버, 블레이드 서버, 메인 프레임 컴퓨터 및 기타 적합한 컴퓨터 등 다양한 형태의 디지털 컴퓨터를 의미한다. 전자 기기는 개인 디지털 프로세서, 셀룰러 전화, 스마트 폰, 웨어러블 디바이스 및 기타 유형의 컴퓨팅 장치 등 다양한 형태의 이동 장치를 의미할 수도 있다. 본 문장에 개시된 부품, 이들의 연결과 관계 및 이들의 기능은 오직 예시일 뿐이고, 본 문장에서 설명 및/또는 요구된 본 출원의 실현을 제한하는 것은 아니다.
도4에서 도시된 바와 같이, 상기 전자 기기는 적어도 하나의 프로세서(Y01), 메모리(Y02) 및 각 부품을 연결하기 위한 인터페이스를 포함한다. 상기 인터페이스는 고속 인터페이스 및 저속 인터페이스를 포함한다. 각 부품은 서로 다른 버스를 이용하여 상호 연결되며, 또한 공동 메인보드에 장착되거나, 또는 수요에 따라 다른 방식으로 장착될 수 있다. 프로세서는 전자 기기 내에서 실행되는 명령어에 대해 처리할 수 있으며, 상기 명령어는 외부 입력/출력 장치(예를 들면, 인터페이스에 커플링된 디스플레이 장치)에 그래픽 유저 인터페이스의 그래픽 정보가 디스플레이되도록, 메모리내 또는 메모리상에 저장된 명령어를 포함한다. 다른 일 실시형태에서, 만약 필요하면, 복수의 프로세서 및/또는 복수의 버스를 복수의 메모리와 함께 사용할 수 있다. 마찬가지로, 복수의 전자 기기를 연결할 수 있으며, 각 기기에서는 일부 필요한 동작을 제공한다(예를 들면, 서버 어레이, 블레이드 서버 그룹 또는 멀티 프로세서 시스템으로 함). 도4에서는 프로세서(Y01)가 하나인 것을 일예로 한다.
메모리(Y02)는 본 출원에 의해 제공되는 비휘발성 컴퓨터 판독가능 저장 매체이다. 여기서, 상기 메모리에는 하나 이상의 프로세서에 의해 실행 가능한 명령어가 저장되어 있어, 상기 하나 이상의 프로세서로 하여금 본 출원에 의해 제공되는 방법을 수행하게 한다. 본 출원의 비휘발성 컴퓨터 판독가능 저장 매체는 컴퓨터 명령어를 저장하고, 상기 컴퓨터 명령어는 컴퓨터로 하여금 본 출원에 의해 제공되는 방법을 수행하게 하기 위한 것이다.
메모리(Y02)는 비휘발성 컴퓨터 판독가능 저장 매체로서, 비휘발성 소프트웨어 프로그램, 비휘발성 컴퓨터 실행 가능 프로그램 및 모듈을 저장하는데 사용될 수 있으며, 예를 들면, 본 출원 실시예의 방법에 대응되는 프로그램 명령어/모듈을 저장할 수 있다. 프로세서(Y01)는 메모리(Y02)에 저장된 비휘발성 소프트웨어 프로그램, 명령어 및 모듈에 대한 실행을 통해, 서버의 다양한 기능 애플리케이션 및 데이터 처리를 실행한다. 즉, 상기 프로세서(Y01)는 상기 방법 실시예의 방법을 실현한다.
메모리(Y02)는 프로그램 저장 영역과 데이터 저장 영역을 포함할 수 있다. 여기서, 프로그램 저장 영역에는 오에스(OS) 및 적어도 하나의 기능에 수요되는 애플리케이션이 저장될 수 있으며, 데이터 저장 영역에는 전자 기기의 사용에 의해 생성된 데이터 등이 저장될 수 있다. 또한, 메모리(Y02)는 고속 랜덤 액세스 메모리(RAM)를 포함할 수 있고, 비휘발성 메모리를 더 포함할 수 있으며, 예를 들면, 적어도 하나의 자기 디스크 저장 장치, 플래시 메모리 장치 또는 기타 비휘발성 솔리드 스테이트 저장 장치를 포함할 수 있다. 일부 실시예에서, 메모리(Y02)는 프로세서(Y01)에 상대적으로 원격 설치되는 메모리를 선택적으로 포함할 수 있다. 이러한 원격 메모리는 네트워크를 통해 전자 기기에 연결될 수 있다. 상기 네트워크의 실시예는 인터넷, 인트라넷, 블록체인 네트워크, 근거리 통신망, 이동 통신망 및 그 조합을 포함하지만 이에 제한되는 것은 아니다.
전자 기기는 입력 장치(Y03) 및 출력 장치(Y04)를 더 포함할 수 있다. 프로세서(Y01), 메모리(Y02), 입력 장치(Y03) 및 출력 장치(Y04)는 버스 또는 기타 방식을 통해 연결될 수 있다. 도4에서는 버스를 통한 연결을 예로 든다.
입력 장치(Y03)는 입력되는 숫자 및 문자 부호 정보를 수신하고, 전자 기기의 사용자 설정 및 기능 제어와 관련된 키 신호 입력을 생성할 수 있으며, 터치 스크린, 키패드, 마우스, 트랙 패드, 터치 패드, 포인팅 스틱, 하나 이상의 마우스 버튼, 트랙 볼, 조이스틱 등 입력 장치를 예로 들 수 있다. 출력 장치(Y04)는 디스플레이 장치, 보조 조명 장치 및 촉각 피드백 장치(예를 들면, 진동모터) 등을 포함할 수 있다. 상기 디스플레이 장치는 액정 디스플레이, 발광 다이오드 디스플레이 및 플라즈마 디스플레이를 포함할 수 있지만, 이에 제한되는 것은 아니다. 일부 실시형태에서, 디스플레이 장치는 터치 스크린일 수 있다.
여기에서 설명한 시스템 및 기술의 다양한 실시형태는 디지털 전자 회로 시스템, 집적 회로 시스템, 전용 집적 회로, 컴퓨터 하드웨어, 펌웨어, 소프트웨어 및/또는 이들의 조합에서 실현될 수 있다. 상기 다양한 실시형태는 다음과 같은 내용을 포함할 수 있다. 하나 이상의 컴퓨터 프로그램에서 실시되고, 상기 하나 이상의 컴퓨터 프로그램은 프로그래밍 가능한 적어도 하나의 프로세서를 포함하는 프로그래밍 가능한 시스템에서 실행 및/또는 해석될 수 있다. 상기 프로그래밍 가능한 프로세서는 전용 또는 범용 프로그래밍 가능한 프로세서일 수 있으며, 저장 시스템, 적어도 하나의 입력 장치 및 적어도 하나의 출력 장치로부터 데이터 및 명령어를 수신하며, 또한 상기 저장 시스템, 적어도 하나의 입력 장치 및 적어도 하나의 출력 장치에 데이터 및 명령어를 전송할 수 있다.
이러한 컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 애플리케이션 또는 코드라고도 함)은 프로그래밍 가능 프로세서의 기계 명령어를 포함하며, 또한 고급 프로세스 및/또는 객체 지향 프로그래밍 언어, 및/또는 어셈블리/기계 언어를 이용하여, 상기 컴퓨터 프로그램을 실시한다. 예를 들면, 본 문장에서 사용된 용어 "기계 판독가능 매체" 및 "컴퓨터 판독가능 매체"는 기계 명령어 및/또는 데이터를 프로그래밍 가능 프로세서에 제공하기 위한 임의의 컴퓨터 프로그램 제품, 기기 및/또는 장치(예를 들면, 자기 디스크, 광학 디스크, 메모리, 프로그램 가능 로직 디바이스)를 말하며, 기계 판독가능 신호인 기계 명령어를 수신하는 기계 판독가능 매체를 포함한다. 용어 "기계 판독가능 신호"는 기계 명령어 및/또는 데이터를 프로그래밍 가능한 프로세서에 제공하기 위한 임의의 신호를 말한다.
사용자와의 인터랙션을 제공하기 위해, 여기에서 설명하는 시스템과 기술을 컴퓨터에서 실행할 수 있다. 상기 컴퓨터는 사용자에게 정보를 표시하기 위한 디스플레이 장치(예를 들면, 음극선관 또는 액정 디스플레이 모니터) 및 키보드, 포인팅 장치(예를 들면, 마우스 또는 트랙 볼)를 포함한다. 사용자는 상기 키보드 및 포인팅 장치를 통해 입력을 컴퓨터에 제공한다. 기타 종류의 장치는 사용자와의 인터랙션을 제공하기 위해 사용될 수도 있다. 예를 들면, 사용자에게 제공하는 피드백은 임의의 형태의 센싱 피드백(예를 들면, 시각 피드백, 청각 피드백 또는 촉각 피드백)일 수 있으며, 또한 사용자로부터의 입력은 임의의 형태(소리 입력, 음성 입력 또는 촉각 입력을 포함)로 수신될 수 있다.
여기에서 설명하는 시스템 및 기술을 백그라운드 부품을 포함하는 계산 시스템(예를 들면, 데이터 서버), 또는 미들웨어 부품을 포함하는 계산 시스템(예를 들면, 애플리케이션 서버), 또는 프론트 부품을 포함하는 계산 시스템(예를 들면, 그래픽 유저 인터페이스 또는 웹 브라우저를 구비하는 사용자 컴퓨터, 사용자는 상기 그래픽 유저 인터페이스 또는 웹 브라우저를 통해 여기에서 설명하는 시스템 및 기술의 실시형태와 인터랙션을 진행할 수 있음), 또는 상기 백그라운드 부품, 미들웨어 부품 또는 프론트 부품의 임의의 조합을 포함하는 계산 시스템에서 실행할 수 있다. 임의의 형태 또는 매체의 디지털 데이터 통신(예를 들면, 통신 네트워크)을 통해 시스템의 부품을 서로 연결할 수 있다. 통신 네트워크의 예시는 근거리 통신망, 광대역 통신망, 블록체인 네트워크, 및 인터넷을 포함한다.
컴퓨터 시스템은 클라이언트 및 서버를 포함한다. 클라이언트 및 서버는 일반적으로 서로 멀리 떨어져 있으며, 통신망을 통해 인터랙션을 진행한다. 해당 컴퓨터에서 실행되고, 또한 서로 클라이언트-서버 관계를 갖는 컴퓨터 프로그램을 통해 클라이언트 및 서버의 관계를 생성한다. 서버는 클라우드 서버일 수 있으며, 클라우드 컴퓨팅 서버 또는 클라우드 호스트라고도 한다. 상기 서버는 클라우드 컴퓨팅 서비스 체계에서의 호스트 제품으로서, 종래의 물리 호스트와 VPS 서비스에 존재하는 관리 난이도가 크고 업무 확장성이 약한 결함을 해결한다.
상기의 다양한 형태의 프로세스를 이용하여, 단계를 다시 순서 배열, 추가 또는 삭제할 수 있음을 이해해야 한다. 예를 들면, 본 출원에 기재된 각 단계는 병행하여 실행할 수 있고, 순서대로 실행할 수도 있으며, 서로 다른 순서로 실행할 수도 있는데, 본 출원에 의해 개시되는 기술방안이 기대하는 결과를 실현할 수만 있다면, 이에 대해 제한하지 않는다.
상기 구체적인 실시형태는 본 출원 보호 범위에 대해 제한하지 않는다. 당업자는 설계 요구와 기타 요인에 따라 다양한 수정, 조합, 서브 조합 및 대체를 진행할 수 있음을 이해해야 한다. 본 출원의 사상 및 원칙 내에서 진행되는 수정, 균등한 교체 및 개선 등은 모두 본 출원의 보호 범위에 포함되어야 한다.

Claims (15)

  1. 처리될 대화가 있는 텍스트로부터 상기 대화의 콘텍스트를 획득하는 단계;
    상기 대화의 화자인 상기 대화의 역할의 역할 정보를 획득하는 단계; 및
    상기 콘텍스트 및 상기 역할 정보에 따라 상기 대화의 감정 스타일을 예측하는 단계;를 포함하는 대화 감정 스타일의 예측 방법.
  2. 청구항 1에 있어서,
    상기 텍스트 중의 대화를 순회하여, 순회된 각 대화를 각각 상기 처리될 대화로 하는 단계를 더 포함하는 대화 감정 스타일의 예측 방법.
  3. 청구항 1에 있어서,
    인용부호에 둘러싸인 텍스트 내용을 대화로 하는 단계; 및
    임의의 텍스트 내용에 대해, 사전에 훈련하여 얻은 분류 모델을 이용하여 상기 텍스트 내용이 대화인지를 결정하는 단계; 중 적어도 하나의 단계를 더 포함하는 대화 감정 스타일의 예측 방법.
  4. 청구항 1에 있어서,
    상기 대화의 역할 정보를 획득하는 단계는,
    인공으로 라벨링된 상기 대화의 역할 정보를 획득하는 단계; 또는
    사전에 훈련하여 얻은 역할 예측 모델을 이용하여 예측된 상기 대화의 역할 정보를 획득하는 단계;를 포함하는 대화 감정 스타일의 예측 방법.
  5. 청구항 1에 있어서,
    상기 콘텍스트 및 상기 역할 정보에 따라 상기 대화의 감정 스타일을 예측하는 단계는,
    상기 콘텍스트, 상기 역할 정보 및 상기 대화를 포함하는 입력 정보를 생성하는 단계; 및
    상기 입력 정보를 사전에 훈련하여 얻은 감정 스타일 예측 모델에 입력하여, 예측된 상기 대화의 감정 스타일을 획득하는 단계;를 포함하는 대화 감정 스타일의 예측 방법.
  6. 청구항 5에 있어서,
    훈련 샘플을 생성하는 단계; 및
    상기 훈련 샘플을 이용하여 상기 감정 스타일 예측 모델을 훈련하여 얻는 단계;를 더 포함하며,
    훈련 샘플마다 각각 텍스트 중의 한 구절의 대화에 대응되고, 상기 훈련 샘플은 상기 대화에 대응되는 상기 입력 정보 및 라벨을 포함하며, 상기 라벨은 상기 대화의 감정 스타일인 대화 감정 스타일의 예측 방법.
  7. 처리될 대화가 있는 텍스트로부터 상기 대화의 콘텍스트를 획득하기 위한 제1 획득 모듈;
    상기 대화의 화자인 상기 대화의 역할의 역할 정보를 획득하기 위한 제2 획득 모듈; 및
    상기 콘텍스트 및 상기 역할 정보에 따라 상기 대화의 감정 스타일을 예측하기 위한 예측 모듈;을 포함하는 대화 감정 스타일의 예측 장치.
  8. 청구항 7에 있어서,
    상기 제1 획득 모듈은 상기 텍스트 중의 대화를 순회하여, 순회된 각 대화를 각각 상기 처리될 대화로 하는 대화 감정 스타일의 예측 장치.
  9. 청구항 7에 있어서,
    상기 제1 획득 모듈은 추가적으로 인용부호에 둘러싸인 텍스트 내용을 대화로 하며, 및 임의의 텍스트 내용에 대해, 사전에 훈련하여 얻은 분류 모델을 이용하여 상기 텍스트 내용이 대화인지를 결정하는 것 중 적어도 하나를 수행하기 위한 것인 대화 감정 스타일의 예측 장치.
  10. 청구항 7에 있어서,
    상기 제2 획득 모듈은 인공으로 라벨링된 상기 대화의 역할 정보를 획득하거나, 또는, 사전에 훈련하여 얻은 역할 예측 모델을 이용하여, 예측한 상기 대화의 역할 정보를 획득하는 대화 감정 스타일의 예측 장치.
  11. 청구항 7에 있어서,
    상기 예측 모듈은 상기 콘텍스트, 상기 역할 정보 및 상기 대화를 포함하는 입력 정보를 생성하고, 상기 입력 정보를 사전에 훈련하여 얻은 감정 스타일 예측 모델에 입력함으로써, 예측된 상기 대화의 감정 스타일을 획득하는 대화 감정 스타일의 예측 장치.
  12. 청구항 11에 있어서,
    훈련 샘플을 생성하기 위한 전처리 모듈을 더 포함하되, 훈련 샘플마다 각각 텍스트 중의 한 구절의 대화에 대응되고, 상기 훈련 샘플은 상기 대화에 대응되는 상기 입력 정보 및 라벨을 포함하고, 상기 라벨은 상기 대화의 감정 스타일이며, 상기 감정 스타일 예측 모델은 상기 훈련 샘플을 이용하여 훈련하여 얻는 것인 대화 감정 스타일의 예측 장치.
  13. 적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신 연결되는 메모리;를 포함하되,
    상기 메모리에는 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령어가 저장되어 있고, 상기 명령어는 상기 적어도 하나의 프로세서에 의해 실행되어, 상기 적어도 하나의 프로세서로 하여금 청구항 1 내지 6 중 어느 한 항의 상기 방법을 수행할 수 있게 하는 전자 기기.
  14. 컴퓨터로 하여금 청구항 1 내지 6 중 어느 한 항의 상기 방법을 수행하게 하기 위한 컴퓨터 명령어가 저장된 비휘발성 컴퓨터 판독가능 저장 매체.
  15. 프로세서에 의해 실행될 때 청구항 1 내지 6 중 어느 한 항의 방법을 구현하는 컴퓨터 프로그램을 포함하는 컴퓨터 프로그램 제품.
KR1020210080352A 2020-10-14 2021-06-21 대화 감정 스타일의 예측 방법, 장치, 전자 기기, 저장 매체 및 컴퓨터 프로그램 제품 KR102564689B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011098145.1 2020-10-14
CN202011098145.1A CN112270168B (zh) 2020-10-14 2020-10-14 对白情感风格预测方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
KR20210122204A true KR20210122204A (ko) 2021-10-08
KR102564689B1 KR102564689B1 (ko) 2023-08-08

Family

ID=74337136

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210080352A KR102564689B1 (ko) 2020-10-14 2021-06-21 대화 감정 스타일의 예측 방법, 장치, 전자 기기, 저장 매체 및 컴퓨터 프로그램 제품

Country Status (4)

Country Link
US (1) US20220027575A1 (ko)
JP (1) JP7246437B2 (ko)
KR (1) KR102564689B1 (ko)
CN (1) CN112270168B (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113066473A (zh) * 2021-03-31 2021-07-02 建信金融科技有限责任公司 一种语音合成方法、装置、存储介质及电子设备
CN112989822B (zh) * 2021-04-16 2021-08-27 北京世纪好未来教育科技有限公司 识别对话中句子类别的方法、装置、电子设备和存储介质
CN114970561B (zh) * 2022-05-27 2023-08-01 华东师范大学 一种性格加强的对话情感预测模型及其构建方法
CN116383365B (zh) * 2023-06-01 2023-09-08 广州里工实业有限公司 一种基于智能制造的学习资料生成方法、系统及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0772888A (ja) * 1993-09-01 1995-03-17 Matsushita Electric Ind Co Ltd 情報処理装置
JP2012198277A (ja) * 2011-03-18 2012-10-18 Toshiba Corp 文書読み上げ支援装置、文書読み上げ支援方法および文書読み上げ支援プログラム
KR20190085883A (ko) * 2018-01-11 2019-07-19 네오사피엔스 주식회사 다중 언어 텍스트-음성 합성 모델을 이용한 음성 번역 방법 및 시스템
CN110534131A (zh) * 2019-08-30 2019-12-03 广州华多网络科技有限公司 一种音频播放方法及系统

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08248971A (ja) * 1995-03-09 1996-09-27 Hitachi Ltd テキスト朗読読み上げ装置
CN101669090A (zh) * 2007-04-26 2010-03-10 福特全球技术公司 情绪提示系统和方法
US8374873B2 (en) * 2008-08-12 2013-02-12 Morphism, Llc Training and applying prosody models
US20120137367A1 (en) * 2009-11-06 2012-05-31 Cataphora, Inc. Continuous anomaly detection based on behavior modeling and heterogeneous information analysis
US20110172873A1 (en) * 2010-01-08 2011-07-14 Ford Global Technologies, Llc Emotive advisory system vehicle maintenance advisor
US8400332B2 (en) * 2010-02-09 2013-03-19 Ford Global Technologies, Llc Emotive advisory system including time agent
US20120130717A1 (en) * 2010-11-19 2012-05-24 Microsoft Corporation Real-time Animation for an Expressive Avatar
US9093081B2 (en) * 2013-03-10 2015-07-28 Nice-Systems Ltd Method and apparatus for real time emotion detection in audio interactions
US9177318B2 (en) * 2013-04-22 2015-11-03 Palo Alto Research Center Incorporated Method and apparatus for customizing conversation agents based on user characteristics using a relevance score for automatic statements, and a response prediction function
US10594638B2 (en) * 2015-02-13 2020-03-17 International Business Machines Corporation Point in time expression of emotion data gathered from a chat session
JP2017009826A (ja) * 2015-06-23 2017-01-12 トヨタ自動車株式会社 グループ状態判定装置およびグループ状態判定方法
US9881003B2 (en) 2015-09-23 2018-01-30 Google Llc Automatic translation of digital graphic novels
US20170154637A1 (en) * 2015-11-29 2017-06-01 International Business Machines Corporation Communication pattern monitoring and behavioral cues
US10831796B2 (en) * 2017-01-15 2020-11-10 International Business Machines Corporation Tone optimization for digital content
CN107103900B (zh) * 2017-06-06 2020-03-31 西北师范大学 一种跨语言情感语音合成方法及系统
US10983753B2 (en) * 2017-06-09 2021-04-20 International Business Machines Corporation Cognitive and interactive sensor based smart home solution
CN108874972B (zh) * 2018-06-08 2021-10-19 合肥工业大学 一种基于深度学习的多轮情感对话方法
CN108735200B (zh) * 2018-06-27 2020-05-29 北京灵伴即时智能科技有限公司 一种说话人自动标注方法
US10922492B2 (en) * 2018-06-29 2021-02-16 Adobe Inc. Content optimization for audiences
CN109101487A (zh) 2018-07-11 2018-12-28 广州杰赛科技股份有限公司 对话角色区分方法、装置、终端设备及存储介质
CN109299267B (zh) * 2018-10-16 2022-04-01 山西大学 一种文本对话的情绪识别与预测方法
CN110222184A (zh) * 2019-06-13 2019-09-10 广东工业大学 一种文本的情感信息识别方法及相关装置
WO2021134177A1 (zh) * 2019-12-30 2021-07-08 深圳市优必选科技股份有限公司 说话内容的情感标注方法、装置、设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0772888A (ja) * 1993-09-01 1995-03-17 Matsushita Electric Ind Co Ltd 情報処理装置
JP2012198277A (ja) * 2011-03-18 2012-10-18 Toshiba Corp 文書読み上げ支援装置、文書読み上げ支援方法および文書読み上げ支援プログラム
KR20190085883A (ko) * 2018-01-11 2019-07-19 네오사피엔스 주식회사 다중 언어 텍스트-음성 합성 모델을 이용한 음성 번역 방법 및 시스템
CN110534131A (zh) * 2019-08-30 2019-12-03 广州华多网络科技有限公司 一种音频播放方法及系统

Also Published As

Publication number Publication date
JP7246437B2 (ja) 2023-03-27
CN112270168B (zh) 2023-11-24
CN112270168A (zh) 2021-01-26
KR102564689B1 (ko) 2023-08-08
US20220027575A1 (en) 2022-01-27
JP2021152957A (ja) 2021-09-30

Similar Documents

Publication Publication Date Title
US11769480B2 (en) Method and apparatus for training model, method and apparatus for synthesizing speech, device and storage medium
KR102497945B1 (ko) 텍스트 인식 처리 방법, 장치, 전자 기기 및 저장매체
CN111859994B (zh) 机器翻译模型获取及文本翻译方法、装置及存储介质
KR20210122204A (ko) 대화 감정 스타일의 예측 방법, 장치, 전자 기기, 저장 매체 및 컴퓨터 프로그램 제품
JP7113097B2 (ja) テキストエンティティの語義記述処理方法、装置及び機器
CN111241819B (zh) 词向量生成方法、装置及电子设备
CN111428514A (zh) 语义匹配方法、装置、设备以及存储介质
KR102630243B1 (ko) 구두점 예측 방법 및 장치
CN111709252B (zh) 基于预训练的语义模型的模型改进方法及装置
CN112434492B (zh) 文本标注方法、装置及电子设备
CN111079945B (zh) 端到端模型的训练方法及装置
CN113220836A (zh) 序列标注模型的训练方法、装置、电子设备和存储介质
JP2022151649A (ja) 音声認識モデルのトレーニング方法、装置、機器、および記憶媒体
CN112509552A (zh) 语音合成方法、装置、电子设备和存储介质
KR20210157342A (ko) 언어 모델의 훈련 방법, 장치, 전자 기기 및 판독 가능 기록 매체
CN111127191B (zh) 风险评估方法及装置
CN111680517A (zh) 用于训练模型的方法、装置、设备以及存储介质
CN111177339A (zh) 对话生成方法、装置、电子设备及存储介质
CN111666387A (zh) 对话生成方法、装置、电子设备及存储介质
CN112270169B (zh) 对白角色预测方法、装置、电子设备及存储介质
CN112289305A (zh) 韵律预测方法、装置、设备以及存储介质
CN112309368A (zh) 韵律预测方法、装置、设备以及存储介质
CN111475614B (zh) 知识推理对话方法、装置、电子设备和存储介质
CN115757788A (zh) 一种文本润色方法、装置及存储介质
CN113553863B (zh) 文本生成方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant