KR20190069992A - 음성 발화 양식을 이용한 발화자 감정인식 방법 및 시스템 - Google Patents
음성 발화 양식을 이용한 발화자 감정인식 방법 및 시스템 Download PDFInfo
- Publication number
- KR20190069992A KR20190069992A KR1020170170416A KR20170170416A KR20190069992A KR 20190069992 A KR20190069992 A KR 20190069992A KR 1020170170416 A KR1020170170416 A KR 1020170170416A KR 20170170416 A KR20170170416 A KR 20170170416A KR 20190069992 A KR20190069992 A KR 20190069992A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- value
- length
- speech
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Machine Translation (AREA)
Abstract
Description
도 2는 본 발명의 일 실시예에 따른, 배일런스-어라우절 감상 모델을 나타낸 예시도이다.
도 3은 본 발명의 일 실시예에 따른, 웃음 발생 빈도/길이 모듈(103a)을 이용한, 특징 요소를 추출하는 과정을 나타낸 동작 흐름도이다.
도 4는 본 발명의 일 실시예에 따른, 휴지 발생 길이 모듈(103b)을 이용한, 특징 요소를 추출하는 과정을 나타낸 동작 흐름도이다.
도 5는 본 발명의 일 실시예에 따른, 말겹침 발생 빈도 모듈(103c)을 이용한, 특징 요소를 추출하는 과정을 나타낸 동작 흐름도이다.
도 6은 본 발명의 일 실시예에 따른, 대화 반응 발생 빈도/길이 모듈(103d)을 이용한, 특징 요소를 추출하는 과정을 나타낸 동작 흐름도이다.
도 7은 본 발명의 일 실시예에 따른, 음성 발화 양식에 따른 발화자의 감정인식 방법을 나타낸 동작 흐름도이다.
103a: 웃음 발생빈도/길이 모듈 103b: 휴지 발생길이 모듈
103c: 말겹침 발생빈도 모듈
103d: 대화 반응 발생빈도/길이 모듈
104: 감정 판단 모듈
105: 감정 분류 모델
Claims (11)
- 음성 발화 양식에 따른 발화자의 감정인식 방법에 있어서,
(a) 제 1 사용자의 음성 신호, 상기 제 1 사용자 및 상기 제 1 사용자와 서로 다른 제 2 사용자 간 대화 음성 신호를 수신하는 단계;
(b) 상기 제 1 사용자의 음성 신호에서 제 1 특징 요소를 추출하고, 상기 대화 음성 신호에서 제 2 특징 요소를 추출하는 단계; 및
(c) 상기 제 1 특징 요소 및 제 2 특징 요소에 기초하여 상기 제 1 사용자의 감정을 판단하는 단계;
를 포함하고,
상기 제 1 특징 요소는 웃음 빈도수, 웃음 길이 및 휴지기를 포함하고,
상기 제 2 특징 요소는 상기 제 1 사용자 및 제 2 사용자의 말겹침 빈도수 및 길이, 대화 반응 횟수 및 대화 반응 길이를 포함하는 것인, 음성 발화 양식에 따른 발화자의 감정인식 방법. - 제 1 항에 있어서,
상기 (c) 단계는
상기 특징 요소들에 기초하여 배일런스(valence)-어라우절(arousal) 감정 모델 상의 배일런스 값 및 어라우절 값을 결정하여 상기 제 1 사용자의 감정을 판단하는 것인, 음성 발화 양식에 따른 발화자의 감정인식 방법. - 제 3 항에 있어서,
상기 (c) 단계는
상기 특징 요소들에 기초하여, 상기 제 1 사용자의 배일런스 값을 포지티브 배일런스(positive valence) 또는 네거티브 배일런스(negative valence) 중 어느 하나에 해당하는 값으로 결정하고, 상기 제 1 사용자의 어라우절 값을 하이 어라우절(high arousal) 또는 로우 어라우절(low arousal) 중 어느 하나에 해당하는 값으로 결정하는 것인, 음성 발화 양식에 따른 발화자의 감정인식 방법. - 제 3 항에 있어서,
상기 (b) 단계는
상기 제 1 특징 요소 중 웃음 빈도수 및 웃음 길이에 기초하여 상기 배일런스 값을 결정하고, 상기 제 1 특징 요소 중 휴지기에 기초하여 상기 어라우절 값을 결정하는 것인, 음성 발화 양식에 따른 발화자의 감정인식 방법. - 제 5 항에 있어서,
상기 (b) 단계는
상기 웃음 빈도수가 기 설정된 기준 웃음 빈도수인 경우, 상기 배일런스 값을 중립 값으로 결정하고, 상기 웃음 빈도수가 상기 기준 웃음 빈도수를 초과하는 경우, 초과하는 정도에 기초하여 상기 배일런스 값을 포지티브 배일런스 값을 결정하는 것인, 음성 발화 양식에 따른 발화자의 감정인식 방법. - 제 5 항에 있어서,
상기 (b) 단계는
상기 휴지기가 기 설정된 기준 휴지 길이인 경우, 상기 어라우절 값을 중립 값으로 결정하고, 상기 휴지기가 상기 기준 휴지 길이보다 짧다면, 상기 휴지기의 길이에 기초하여 하이 어라우절 값을 결정하고, 상기 기준 휴지 길이보다 길다면 상기 휴지기의 길이에 기초하여 로우 어라우절 값을 결정하는 것인, 음성 발화 양식에 따른 발화자의 감정인식 방법. - 제 3 항에 있어서,
상기 (b) 단계는
상기 제 2 특징 요소 중 말겹침 빈도수 및 길이에 기초하여 배일런스 및 어라우절 값을 결정하고, 상기 제 2 특징 요소 중 대화 반응의 빈도수 및 반응 시간에 기초하여 상기 배일런스 값을 결정하는 것인, 음성 발화 양식에 따른 발화자의 감정인식 방법. - 제 8 항에 있어서,
상기 (b) 단계는
상기 말겹침 빈도수 및 길이에 기초하여, 네거티브 배일런스 및 하이 어라우절을 결정하는 것인, 음성 발화 양식에 따른 발화자의 감정인식 방법. - 제 8 항에 있어서,
상기 (b) 단계는
상기 대화 반응 횟수 및 길이가 기 설정된 기준 대화 반응 횟수 및 길이인 경우, 상기 어라우절 값을 중립 값으로 결정하고,
상기 대화 반응의 횟수가 기 설정된 기준 이상이며 길이가 기 설정된 기준 이하이면, 상기 대화 반응 횟수 및 길이에 기초하여, 하이 어라우절 값을 결정하는 것인, 음성 발화 양식에 따른 발화자의 감정인식 방법. - 음성 발화 양식에 따른 발화자의 감정인식을 제공하는 서버에 있어서,
음성 발화 양식에 따른 발화자의 감정인식 방법을 수행하기 위한 프로그램이 기록된 메모리; 및
상기 프로그램을 실행하기 위한 프로세서;를 포함하며,
상기 프로세서는, 상기 프로그램의 실행에 의해,
(a) 제 1 사용자의 음성 신호, 상기 제 1 사용자 및 상기 제 1 사용자와 서로 다른 제 2 사용자 간 대화 음성 신호를 수신하는 단계;
(b) 상기 음성 신호에서 제 1 특징 요소를 추출하고, 상기 대화 음성 신호에서 제 2 특징 요소를 추출하는 단계; 및
(c) 상기 제 1 특징 요소 및 제 2 특징 요소에 기초하여 상기 제 1 사용자의 감정을 판단하는 단계;
를 실행하는, 서버. - 제 1 항 내지 제 9 항 중 어느 한 항에 따른 음성 발화 양식에 따른 발화자의 감정인식 방법을 수행하는 프로그램이 기록 된 컴퓨터 판독가능 기록 매체.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170170416A KR102019470B1 (ko) | 2017-12-12 | 2017-12-12 | 음성 발화 양식을 이용한 발화자 감정인식 방법 및 시스템 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170170416A KR102019470B1 (ko) | 2017-12-12 | 2017-12-12 | 음성 발화 양식을 이용한 발화자 감정인식 방법 및 시스템 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190069992A true KR20190069992A (ko) | 2019-06-20 |
KR102019470B1 KR102019470B1 (ko) | 2019-09-06 |
Family
ID=67103633
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170170416A Expired - Fee Related KR102019470B1 (ko) | 2017-12-12 | 2017-12-12 | 음성 발화 양식을 이용한 발화자 감정인식 방법 및 시스템 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102019470B1 (ko) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111833854A (zh) * | 2020-01-08 | 2020-10-27 | 北京嘀嘀无限科技发展有限公司 | 一种人机交互方法与终端、计算机可读存储介质 |
KR20210135901A (ko) * | 2020-05-06 | 2021-11-16 | (주)아이티공간 | 음성에 기초한 어린이의 감정 컨디션 검출방법 |
KR20210135902A (ko) * | 2020-05-06 | 2021-11-16 | (주)아이티공간 | 음성에 기초한 어린이의 감정 컨디션 검출 시스템 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102334580B1 (ko) | 2021-04-15 | 2021-12-06 | 동국대학교 산학협력단 | 사용자 음성 및 그래프 신경망 기반의 감정인식 장치 및 그 방법 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090034052A (ko) * | 2007-10-02 | 2009-04-07 | 동국대학교 산학협력단 | 감정정보 추출 장치 및 방법 |
KR20100094182A (ko) * | 2009-02-18 | 2010-08-26 | 삼성전자주식회사 | 음성 신호를 이용한 감정 인식 장치 및 방법 |
KR20110017559A (ko) * | 2009-08-14 | 2011-02-22 | 에스케이 텔레콤주식회사 | 감정 분석 방법 및 장치 |
JP2011237957A (ja) * | 2010-05-10 | 2011-11-24 | Seiko Epson Corp | 満足度算出装置、満足度算出方法およびプログラム |
KR20140050130A (ko) | 2012-10-17 | 2014-04-29 | 삼성전자주식회사 | 액정표시장치 |
KR20170083391A (ko) * | 2016-01-08 | 2017-07-18 | 한국전자통신연구원 | 음성 인식 시스템에서의 발화 검증 장치 및 그 방법 |
-
2017
- 2017-12-12 KR KR1020170170416A patent/KR102019470B1/ko not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090034052A (ko) * | 2007-10-02 | 2009-04-07 | 동국대학교 산학협력단 | 감정정보 추출 장치 및 방법 |
KR20100094182A (ko) * | 2009-02-18 | 2010-08-26 | 삼성전자주식회사 | 음성 신호를 이용한 감정 인식 장치 및 방법 |
KR20110017559A (ko) * | 2009-08-14 | 2011-02-22 | 에스케이 텔레콤주식회사 | 감정 분석 방법 및 장치 |
JP2011237957A (ja) * | 2010-05-10 | 2011-11-24 | Seiko Epson Corp | 満足度算出装置、満足度算出方法およびプログラム |
KR20140050130A (ko) | 2012-10-17 | 2014-04-29 | 삼성전자주식회사 | 액정표시장치 |
KR20170083391A (ko) * | 2016-01-08 | 2017-07-18 | 한국전자통신연구원 | 음성 인식 시스템에서의 발화 검증 장치 및 그 방법 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111833854A (zh) * | 2020-01-08 | 2020-10-27 | 北京嘀嘀无限科技发展有限公司 | 一种人机交互方法与终端、计算机可读存储介质 |
KR20210135901A (ko) * | 2020-05-06 | 2021-11-16 | (주)아이티공간 | 음성에 기초한 어린이의 감정 컨디션 검출방법 |
KR20210135902A (ko) * | 2020-05-06 | 2021-11-16 | (주)아이티공간 | 음성에 기초한 어린이의 감정 컨디션 검출 시스템 |
Also Published As
Publication number | Publication date |
---|---|
KR102019470B1 (ko) | 2019-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11545139B2 (en) | System and method for determining the compliance of agent scripts | |
Mariooryad et al. | Compensating for speaker or lexical variabilities in speech for emotion recognition | |
US9875739B2 (en) | Speaker separation in diarization | |
Lee et al. | Modeling mutual influence of interlocutor emotion states in dyadic spoken interactions. | |
CN112102850B (zh) | 情绪识别的处理方法、装置、介质及电子设备 | |
US9202466B2 (en) | Spoken dialog system using prominence | |
JP6246636B2 (ja) | パターン識別装置、パターン識別方法およびプログラム | |
KR20190069992A (ko) | 음성 발화 양식을 이용한 발화자 감정인식 방법 및 시스템 | |
KR102217917B1 (ko) | 음성대화 시스템, 음성대화 방법 및 프로그램 | |
CN113707154A (zh) | 模型训练方法、装置、电子设备和可读存储介质 | |
CN117636872A (zh) | 音频处理方法、装置、电子设备和可读存储介质 | |
Prylipko et al. | Application of image processing methods to filled pauses detection from spontaneous speech | |
Neiberg et al. | Online detection of vocal listener responses with maximum latency constraints | |
JP2010282404A (ja) | 対話処理装置、対話処理方法、及び対話処理プログラム | |
CN106531158A (zh) | 一种应答语音的识别方法及装置 | |
Gamage et al. | Modeling variable length phoneme sequences—A step towards linguistic information for speech emotion recognition in wider world | |
An et al. | An investigation into explainable audio hate speech detection | |
Hamandouche | Speech Detection for noisy audio files | |
CN119207485A (zh) | 对话轮次结束判断方法、装置、电子设备、介质和车辆 | |
Valbonesi et al. | Temporal correlation of speech and gestures focal points | |
JP2021170088A (ja) | 対話装置、対話システム及び対話方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20171212 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20190215 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20190820 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20190902 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20190903 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20220830 Start annual number: 4 End annual number: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20230828 Start annual number: 5 End annual number: 5 |
|
PC1903 | Unpaid annual fee |
Termination category: Default of registration fee Termination date: 20250613 |