KR20160142949A - 컨택 센터를 위한 감성 분석 장치 및 그 방법 - Google Patents

컨택 센터를 위한 감성 분석 장치 및 그 방법 Download PDF

Info

Publication number
KR20160142949A
KR20160142949A KR1020150078768A KR20150078768A KR20160142949A KR 20160142949 A KR20160142949 A KR 20160142949A KR 1020150078768 A KR1020150078768 A KR 1020150078768A KR 20150078768 A KR20150078768 A KR 20150078768A KR 20160142949 A KR20160142949 A KR 20160142949A
Authority
KR
South Korea
Prior art keywords
emotion
emotional
consultation
index
data
Prior art date
Application number
KR1020150078768A
Other languages
English (en)
Inventor
황민철
이양우
김혜진
이정년
김영주
김종화
조영호
Original Assignee
(주)감성과학연구센터
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)감성과학연구센터 filed Critical (주)감성과학연구센터
Priority to KR1020150078768A priority Critical patent/KR20160142949A/ko
Publication of KR20160142949A publication Critical patent/KR20160142949A/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 발명은 상담의 감성 분석을 이용한 감성 분석 방법에 관한 것이다.
본 발명에 따르면, 감성 분석 방법은 상담에 대한 음성 데이터를 입력받는 단계, 상기 음성 데이터를 문자 데이터로 변환하는 단계, 감성 크롤링(crawling) 알고리즘을 통해 상기 문자 데이터를 필터링하여 감성 어휘를 추출하는 단계, 상기 음성 데이터로부터 음성의 빠르기, 크기, 분위기, 높낮이 및 음높이와 같은 물리적 속성을 추출하는 단계, 상기 감성 어휘와 상기 물리적 속성을 매핑(mapping)하여 감성 문맥 정보 및 감정 정보를 생성하는 단계, 상기 감성 문맥 정보 및 상기 감정 정보를 분석하여 상기 상담에 대한 공감 지수 및 감성 지수를 생성하는 단계, 상기 공감 지수 및 상기 감성 지수를 이용하여 상기 상담에 대한 업무 처리 결과를 생성하는 단계, 그리고 상기 업무 처리 결과를 출력하는 단계를 포함한다.
이와 같이 본 발명에 따르면, 고객과 상담원의 상담 중 공감 정도 및 감성의 공유 정도를 데이터화하여 이를 제공할 수 있으며, 제공된 데이터에 기반하여 상담이 얼마나 잘 이루어졌는지를 객관적으로 평가할 수 있다. 또한 이러한 객관적 평가를 기반으로 상담의 방법이나 형식 계발하여 사업에 접목할 수 있으며, 특히 고객을 상담하는 업무의 경우 업무 효율이 크게 향상될 수 있다.

Description

컨택 센터를 위한 감성 분석 장치 및 그 방법{EMOTION ANALYSIS APPARATUS FOR THE CONTACT CENTER AND METHOD THEREOF}
본 발명은 컨택 센터를 위한 감성 분석 장치 및 그 방법에 관한 것으로서, 더욱 상세하게는 음성의 물리적 속성과 상담 내용의 감성 어휘를 이용하여 고객 상담 내용을 분석하고, 이를 통해 업무 처리 결과를 생성하는 방법에 관한 것이다.
최근 산업은 제조업에서 서비스업으로 급속도로 변화해가고 있다. 이러한 산업 배경 속에 서비스업의 특성상 고객의 불만이나 불편사항을 얼마나 잘 해소할 수 있는가는 사업의 성공 여부를 판단하는 잣대가 되고 있으며, 컨택 센터에 대한 요구와 위상이 높아지고 있다.
컨택 센터란 고객의 다양한 문의에 전문적으로 대응하는 업무를 맡는 서비스 센터를 의미하며, 콜센터, CS센터 및 텔레마케팅 센터 등과 유사한 의미로 사용된다. 과거 단순 전화 업무만을 맡던 콜센터의 개념이 아닌, 고객 관계 관리(CRM)의 개념이 추가되면서 문자서비스, 온라인 상담, 팩스, 이메일 문의 대응 등 고객이 기업에 접촉할 수 있는 다양한 접점을 활용하여 서비스를 제공한다.
하지만, 기술과 IT의 발달로 고객은 대면 방식의 마케팅 활동을 접할 기회가 줄어가며, 무인화 서비스가 증가함으로써 사람간의 소통 및 관계가 소홀해져 가는 현실에서 이러한 컨택 센터의 고객관리는 한계를 나타내고 있다.
사람을 포함한 모든 사회적 동물은 관계 속에서 생존과 번식을 추구하며, 사회적 연결고리를 유지하고 형성하는데 공감은 도움을 준다. 공감은 사람들이 비슷한 정서를 느꼈을 때나 자신들의 관심사를 공유하며 연대감을 가지게 도와 준다. 또한 사람은 다양한 감성변화를 가지며, 사회 관계에서 시시각각 변하는 감성의 변화를 얼마나 잘 공유하는지는 사람 사이의 유대감을 강하게 한다.
즉, 사람 사이의 관계는 사람 사이에 공감을 얼마나 잘 이끌어 내는가 그리고 감성의 공유를 얼마나 잘 이루어 내는가가 핵심이 되며, 감성을 공유하고자 하는 다양한 방법에 대하여 연구가 진행되고 있다.
하지만 아직 사람의 감성을 인식 및 분석하여 생성된 정보를 비즈니스 모델이나 컨택 센터의 사업에 직접적으로 제공하는 기술은 많지 않은 것이 현 실정이다.
본 발명의 배경이 되는 기술은 등록특허 제10-1167179호(2012.07.24공고)에 개시되어 있다.
본 발명이 이루고자 하는 기술적 과제는 음성의 물리적 속성과 상담 내용의 감성 어휘를 이용하여 고객 상담 내용을 분석하고, 이를 통해 업무 처리 결과를 생성하는 방법을 제공하기 위한 것이다.
이러한 기술적 과제를 이루기 위한 본 발명의 실시예에 따르면 감성 분석 방법은 상담에 대한 음성 데이터를 입력받는 단계, 상기 음성 데이터를 문자 데이터로 변환하는 단계, 감성 크롤링(crawling) 알고리즘을 통해 상기 문자 데이터를 필터링하여 감성 어휘를 추출하는 단계, 상기 음성 데이터로부터 음성의 빠르기, 크기, 분위기, 높낮이 및 음높이와 같은 물리적 속성을 추출하는 단계, 상기 감성 어휘와 상기 물리적 속성을 매핑(mapping)하여 감성 문맥 정보 및 감정 정보를 생성하는 단계, 상기 감성 문맥 정보 및 상기 감정 정보를 분석하여 상기 상담에 대한 공감 지수 및 감성 지수를 생성하는 단계, 상기 공감 지수 및 상기 감성 지수를 이용하여 상기 상담에 대한 업무 처리 결과를 생성하는 단계, 그리고 상기 업무 처리 결과를 출력하는 단계를 포함한다.
본 발명의 다른 실시예에 따른 감성 분석 장치는 상담에 대한 음성 데이터를 입력받는 입력부, 상기 음성 데이터를 문자 데이터로 변환하는 변환부, 감성 크롤링(crawling) 알고리즘을 통해 상기 문자 데이터를 필터링하여 감성 어휘를 추출하고, 상기 음성 데이터로부터 음성의 빠르기, 크기, 분위기, 높낮이 및 음높이와 같은 물리적 속성을 추출하는 추출부, 상기 감성 어휘와 상기 물리적 속성을 매핑(mapping)하여 감성 문맥 정보 및 감정 정보를 생성하는 매핑부, 상기 감성 문맥 정보 및 상기 감정 정보를 분석하여 상기 상담에 대한 공감 지수 및 감성 지수를 생성하고, 상기 공감 지수 및 상기 감성 지수를 이용하여 상기 상담에 대한 업무 처리 결과를 생성하는 생성부, 그리고 상기 업무 처리 결과를 출력하는 출력부를 포함한다.
이와 같이 본 발명에 따르면, 고객과 상담원의 상담 중 공감 정도 및 감성의 공유 정도를 데이터화하여 이를 제공할 수 있으며, 제공된 데이터에 기반하여 상담이 얼마나 잘 이루어졌는지를 객관적으로 평가할 수 있다. 또한 이러한 객관적 평가를 기반으로 상담의 방법이나 형식 계발하여 사업에 접목할 수 있으며, 특히 고객을 상담하는 업무의 경우 업무 효율이 크게 향상될 수 있다.
도 1은 본 발명의 실시예에 따른 감성 분석 장치를 이용한 시스템도이다.
도 2는 본 발명의 실시예에 따른 감성 분석 장치(100)의 구성도이다.
도 3은 본 발명의 실시예에 따른 감성 분석 방법을 나타낸 순서도이다.
도 4는 본 발명을 설명하기 위한 도면이다.
도 5는 러셀(Russell)의 원형 모델(Circumplex model)을 나타난 도면이다.
도 6은 레셀의 원형 모델에 기초한 본 발명의 9가지 감성 영역을 나타낸 도면이다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.
그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.
먼저, 도 1을 통해 본 발명의 실시예에 따른 감성 분석 시스템에 대하여 살펴본다. 도 1은 본 발명의 실시예에 따른 감성 분석 장치를 이용한 시스템도이다.
도 1에서 보는 바와 같이, 고객은 요구 및 문의 사항 등이 있을 경우 상담원과 통화 연결한다. 이때, 상담원의 단말기(200)는 고객과 상담원의 상담을 녹음하며, 상담 녹음 방식은 디지털 방식 및 아날로그 방식 중 적어도 하나를 포함한다.
고객과 상담원의 상담이 종료된 후, 상담 내용이 녹음된 음성 데이터는 감성 분석 장치(100)로 전송된다. 그리고, 감성 분석 장치(100)는 전송받은 음성 데이터를 이용하여 상담원의 업무 처리 결과를 생성한다.
그 후 생성된 업무 처리 결과는 상담원에게 전송되며, 상담원의 업무에 대한 자기 계발 프로세스 등에 이용될 수 있다. 또한 생성된 업무 처리 결과는 상담원의 매니저에 전송될 수 있으며, 매니저의 상담원의 교육이나 상담원의 배치와 같은 매니징 프로세스에 이용될 수 있다.
이하에서는 도 2를 통해 본 발명의 실시예에 따른 감성 분석 장치(100)의 구성에 대하여 살펴본다. 도 2는 본 발명의 실시예에 따른 감성 분석 장치의 구성도이다.
각 구성에 대하여 구체적으로 살펴보면, 입력부(110)는 상담 내용에 대한 음성 데이터(voice data)를 입력 받는다. 이때, 음성 데이터는 고객과 상담원의 상담 내용이 녹음된 자료를 의미하며, 아날로그 데이터 형식뿐만 아니라 MP3, M4A, OGG 및 FLAG 등과 같은 디지털 데이터 형식을 포함한다. 또한, 음성 데이터는 음성이 포함된 영상 데이터도 포함하며, AVI, WMV, MP4 및 MPG 등과 같은 파일 형식으로 입력될 수 있다.
그리고, 입력부(110)는 외부 단말기로부터 음성 데이터를 입력받을 수 있을 뿐 만 아니라 감성 분석 장치(100)에 포함된 녹음 장치를 이용하여 녹음된 음성 데이터를 입력 받을 수도 있다. 여기서, 외부 단말기는 데스크탑 컴퓨터, 테블릿 컴퓨터, 노트북 컴퓨터, PDA(Personal digital assistant) 및 휴대폰 등을 포함한다.
다음으로, 변환부(120)는 입력받은 음성 데이터를 문자 데이터(text data)로 변환한다. 이때, 변환부(120)는 기 저장된 문자 변환 알고리즘을 이용하여 음성 데이터를 문자 데이터로 변환한다.
다음으로, 추출부(130)는 문자 데이터로부터 감성 어휘를 추출한다. 이때, 추출부(130)는 감성 크롤링 소프트웨어(Crawling Software)와 같은 데이터 크롤링(Date\a Crawling) 알고리즘을 이용하여 문자 데이터로부터 감성 어휘를 추출할 수 있다.
또한, 추출부(130)는 음성 데이터로부터 음성의 물리적 속성에 대한 정보를 추출한다. 이때 물리적 속성은 상담시 고객과 상담원의 음성의 빠르기, 크기, 분위기, 높낮이 및 음높이 등을 포함한다.
다음으로, 매핑부(140)는 감성 어휘와 물리적 속성을 매핑(mapping)시켜, 감성 문맥(context) 정보와 감정(emotion) 정보를 생성한다. 이때, 매핑부(140)는 육하원칙에 따라 감성 문맥 정보를 생성하고, 감성 어휘와 상담 속 음성의 물리적 속성을 이용하여 감정 정보를 생성한다.
다음으로, 생성부(150)는 상담의 감성 문맥 정보 및 감정 정보를 분석하여 상담의 공감 지수 및 감성 지수를 생성한다. 여기서, 공감 지수는 고객과 상담원의 공감대가 어느 정도 형성되었는지를 판단하는 지표로서, 생성부(150)는 고객 및 상담원의 음성의 물리적 속성을 정량적으로 분석 및 비교하여 공감 지수를 생성한다. 그리고 감성 지수는 고객과 상담원의 감성의 유사 정도를 판단하는 지표로서, 생성부(150)는 고객과 상담원이 사용한 감성 어휘를 이용하여 고객과 상담원의 감성의 동기화 정도를 정성적으로 분석 및 비교하여 감성 지수를 생성한다.
또한, 생성부(150)는 공감 지수 및 감성 지수를 이용하여 업무 처리 결과를 생성한다. 여기서 업무 처리 결과란 고객과 상담원의 상담 시 공감대가 얼마나 형성되었는지, 그리고 감성 동기화가 어떻게 이루어졌는지 등에 대한 평가 정보를 의미한다.
다음으로, 출력부(160)는 업무 처리 결과를 제공한다. 출력부(160)는 외부 단말기와 접속하여 업무 처리 결과를 외부 단말기를 통해 출력할 수 있으며, 감성 분석 장치(100)에 포함된 출력 장치를 이용하여 업무 처리 결과를 출력할 수도 있다.
이하에서는, 도 3 내지 도 6을 통해 본 발명의 실시예에 따른 감성 분석 방법에 대하여 살펴본다. 도 3은 본 발명의 실시예에 따른 감성 분석 방법을 나타낸 순서도이고, 도 4는 본 발명을 설명하기 위한 도면이다.
먼저, 감성 분석 장치(100)는 상담 내용에 대한 음성 데이터를 수신하고(S310), 음성 데이터를 문자 데이터로 변환한다(S320). 이때 음성 데이터는 상담의 시작부터 종료시까지 상담 내용이 녹음된 자료이며, 문자 데이터는 음성 데이터의 음성을 문자화한 자료이다.
예를 들어 고객 상담의 경우, 도 4에서 보는 바와 같이, 상담원이 고객과 통화 연결되어 상담한 내용은 녹음되어 음성 데이터로 저장되고, 저장된 음성 데이터는 변환 알고리즘을 이용하여 문자 데이터(text data)로 변환된다.
그러면, 감성 분석 장치(100)는 변환된 문자 데이터를 필터링하여 감성 어휘를 추출한다(S330). 즉, 도 4에서 보는 바와 같이, 감성 분석 장치(100)는 감성 크롤링 소프트웨어(crawling software)를 이용한 필터링을 통해 문자 데이터(text data)로부터 감성 어휘를 추출한다. 예를 들어, 감성 분석 장치(100)는 상담 내용 속에 청각적 감성 어휘로서 '편안한' 및 '불편한'이나 공간적 감성 어휘로서 '좁은' 및 '넓은'과 같은 단어를 필터링하여 추출한다.
그리고, 감성 분석 장치(100)는 음성 데이터로부터 상담 속 음성의 물리적 속성을 추출한다(S340). 즉, 도 4에서 보는 바와 같이 감성 분석 장치(100)는 음성 데이터로부터 고객과 상담원의 음성의 빠르기, 크기, 분위기, 높낮이 및 음높이 등에 대한 정보를 추출한다.
그러면, 감성 분석 장치(100)는 S330단계에서 추출한 감성 어휘와 S340단계에서 추출한 물리적 속성을 매핑(mapping)시켜 감성 문맥(context) 정보 및 감정(emotion) 정보를 생성한다(S350).
먼저, 감성 문맥 정보는 육하원칙에 따라 생성되며, 감성 분석 장치(100)는 '누가(who)', '언제(when)', '무엇을(what)', '왜(why)', '어떻게(how)' 및 '어디서(where)'에 대한 감성 문맥 정보를 생성한다.
육하원칙에 따라 생성된 감성 문맥 정보에 대하여 구체적으로 살펴보면, '누가(who)'에 대한 감성 문맥 정보는 고객과 상담원에 대한 정보를 의미한다. 예를 들면, 고객의 성별, 연령대, 거주지 및 직업 그리고 상담원의 성별 및 이름 등이 '누가(who)'에 대한 감성 문맥 정보에 해당한다.
그리고, '언제(when)'에 대한 감성 문맥 정보는 상담의 시간대 및 상담이 지속된 시간 등에 대한 정보를 의미한다.
그리고, '어디서(where)'에 대한 감성 문맥 정보는 고객과 상담원의 통화 장소에 대한 정보를 의미한다. 예를 들어 고객이 통화하는 장소가 회사인 경우 '회사'가 감성 문맥 정보에 해당하고, 상담원이 통화를 하는 위치가 창가나 구석자리인 경우 '창가' 또는 '구석자리'가 '어디서(where)'에 대한 감성 문맥 정보에 해당한다.
그리고, '어떻게(how)'에 대한 감성 문맥 정보는 고객과 상담원의 상담 기법에 대한 정보를 의미한다. 즉, 상담 중 고객 및 상담원의 대화의 추임새, 호응, 억양, 발음, 뉘앙스, 호흡 및 발성 그리고 부정형 및 명령형 사용 정도 등이 '어떻게(how)'에 대한 감성 문맥 정보에 해당한다.
그리고 '왜(why)'에 대한 감성 문맥 정보는 상담이 진행된 이유에 대한 정보를 의미한다. 예를 들어, 고객이 '전화한 이유'나 상담원이 '그러한 대응을 한 이유' 등이 '왜(why)'에 대한 감성 문맥 정보에 해당한다.
다음으로 감정(emotion) 정보에 대하여 구체적으로 살펴보면, 감정 정보는 상담 속에 포함된 감성 어휘 및 상담 속 음성의 물리적 속성에 대한 정보를 의미한다. 즉, 고객 및 상담원이 사용한 감성 어휘와 고객 및 상담원 음성의 빠르기, 크기, 분위기, 높낮이 및 음높이 등과 같은 물리적 속성을 고려하여 각 상담자에 대한 감정 정보를 생성한다.
S350단계에서 감성 문맥 정보 및 감정 정보를 생성한 후, 감성 분석 장치(100)는 이를 분석하여 상담의 공감 지수 및 감성 지수를 생성한다(S360). 이때, 공감 지수와 감성 지수는 도 4에서 보는 바와 같이 분석 소프트웨어와 같은 분석 알고리즘을 통해 생성될 수 있다.
먼저, 도 5 및 도 6을 통해 감성 지수에 대하여 구체적으로 살펴본다. 도 5는 러셀(Russell)의 원형 모델(Circumplex model)을 나타난 도면이고, 도 6은 레셀의 원형 모델에 기초한 본 발명의 9가지 감성 영역을 나타낸 도면이다.
감성지수는 상담이자 간의 감성의 동기화 정도를 의미하며, 고객 및 상담원이 사용한 감성적 어휘의 유사 정도를 비교하여 생성된다. 본 발명에서는 러셀의 원형 모델에 기초한 9가지 감성 영역으로 감성 지수를 나타낸다.
러셀의 원형 모델에 대해 살펴보면, 러셀은 도 5에서 도시된 바와 같이 감성 차원들은 서로 독립적이 아니라 체계적인 틀 안에서 연관성이 존재하기 때문에 원의 순서로 배열되는 2차원(Bipolar)으로 체계화해야 한다고 주장하였다. 러셀은 이 방법을 통해 쾌(Pleasantness)-불쾌(Unpleasantness)와 각성(Arousal)-이완(Sleep)의 두 차원이 감성 어휘들 간의 유사성에 대한 분산의 대부분을 차지하고, 모든 감성을 설명하는 차원들은 2차원 이며, 모든 감성 어휘들은 2차원 공간의 원의 경계에 따라 배치되는 것을 증명하였고, 감성은 감성 간의 상관관계를 고려하여 2차원으로 정의되어야 한다고 주장하였다.
본 발명에서는 도 6에서 나타난 바와 같이 러셀의 원형 모델을 응용하여 감성을 9가지 영역으로 구분한다. 즉, 9가지 감성 영역은 각성, 이완, 쾌, 불쾌, 각성-쾌, 각성-불쾌, 이완-쾌, 이완-불쾌 및 중립으로 표현되며, 감성 분석 장치(100)는 고객과 상담원의 감성 어휘를 비교하여 상기 9가지 감성 영역 중 하나를 선택하여 감성 지수를 생성한다.
다음으로, 공감 지수에 대하여 구체적으로 살펴보면, 공감 지수는 고객과 상담원의 공감 정도를 나타내는 지표로서, 공감 지수가 높을수록 상담의 공감대가 넓다는 것을 의미한다.
공감 지수를 생성하기 위하여, 감성 분석 장치(100)는 고객 및 상담원 음성에 대한 물리적 속성의 표준편차를 산출하여 비교한다. 이때, 물리적 속성은 음성의 빠르기, 크기, 분위기, 높낮이 및 음높이 등을 포함하며, 표준편차는 물리적 속성 중 적어도 하나에 대하여 산출된다.
구체적으로, 감성 분석 장치(100)는 상담 시작 당시 고객 및 상담원 음성의 물리적 속성에 대한 표준편차와 상담 진행 후 고객 및 상담원 음성의 물리적 속성에 대한 표준편차의 합을 비교하게 된다. 비교 결과 상담 시작 당시 고객 및 상담원 음성의 물리적 속성에 대한 표준편차보다 상담 진행 후 고객 및 상담원 음성의 물리적 속성에 대한 표준편차의 합이 작아진 경우 고객과 상담원의 공감대가 넓어진 것으로 판단하여 공감 지수를 산출하며, 커진 경우 고객과 상담원의 공감대가 좁아진 것으로 판단하여 공감 지수를 산출한다.
상담 진행후
음성 크기
상담 시작 당시
음성 크기

공감정도


(A+B)SD
< ASD
< BSD

크다
> ASD
> BSD

작다
예를 들어, 표 1과 같이 고객(A)과 상담원(B)이 있고, 음성의 물리적 속성 중 음성 크기를 이용하여 공감 지수를 산출한다고 가정한다. 이때, 상담 시작 당시 고객(A)의 음성 크기의 표준편차는 4이고 상담원(B)의 음성 크기의 표준편차는 2라고 할 때, 상담 진행 후 고객(A)과 상담원(B)의 음성 크기의 합의 표준편차가 5라고 한다면 공감 지수는 낮게 산출되며, 합이 1이라고 한다면 공감 지수는 높게 산출된다.
S360단계에서 공감 지수와 감성 지수를 산출한 후, 감성 분석 장치(100)는 이를 이용하여 업무 처리 결과를 생성한다(S370).
여기서, 업무 처리 결과는 상담원이 고객과의 상담에서 얼마나 공감대를 형성하였는지, 그리고 고객의 감성을 자극하였는지, 고객 상담에서 상담원이 고객과 높은 공감대를 형성한 이유는 무엇인지 등에 대한 결과를 의미한다. 예를 들어 부정형의 사용의 적게 함으로써 고객과의 공감대를 넓혔다든지, 음성의 크기를 작게 함으로써 감성을 동기화 하였다든지 하는 것이 업무 처리 결과로 생성된다.
감성 분석 장치(100)는 생성된 업무 처리 결과를 출력한다(S380). 업무 처리 결과는 도 4에서 보는 바와 같이 상담원에 제공되어 상담원의 업무 자기 계발 프로세스에 이용될 수 있으며, 매니저에게 제공되어 상담원의 평가나 소속 배치 등과 같은 매니징 프로세스에 이용될 수 있다.
이와 같이 본 발명의 실시예에 따르면, 고객과 상담원의 상담 중 공감 정도 및 감성의 공유 정도를 데이터화하여 이를 제공할 수 있으며, 제공된 데이터에 기반하여 상담이 얼마나 잘 이루어졌는지를 객관적으로 평가할 수 있다. 또한 이러한 객관적 평가를 기반으로 상담의 방법이나 형식 계발하여 사업에 접목할 수 있으며, 특히 고객을 상담하는 업무의 경우 업무 효율이 크게 향상될 수 있다.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.
100 : 감성 분석 장치 110 : 입력부
120 : 변환부 130 : 추출부
140 : 매핑부 150 : 생성부
160 : 출력부

Claims (2)

  1. 컨택 센터를 위한 감성 분석 방법에 있어서,
    고객과의 상담 내용에 대한 음성 데이터를 입력받는 단계,
    상기 음성 데이터를 문자 데이터로 변환하는 단계,
    감성 크롤링(crawling) 알고리즘을 통해 상기 문자 데이터를 필터링하여 감성 어휘를 추출하는 단계,
    상기 음성 데이터로부터 음성의 빠르기, 크기, 분위기, 높낮이 및 음높이와 같은 물리적 속성을 추출하는 단계,
    상기 감성 어휘와 상기 물리적 속성을 매핑(mapping)하여 감성 문맥 정보 및 감정 정보를 생성하는 단계,
    상기 감성 문맥 정보 및 상기 감정 정보를 분석하여 상기 상담에 대한 공감 지수 및 감성 지수를 생성하는 단계,
    상기 공감 지수 및 상기 감성 지수를 이용하여 상기 상담에 대한 업무 처리 결과를 생성하는 단계, 그리고
    상기 업무 처리 결과를 출력하는 단계를 포함하는 감성 분석 방법.
  2. 컨택 센터를 위한 감성 분석 장치에 있어서,
    고객과의 상담 내용에 대한 음성 데이터를 입력받는 입력부,
    상기 음성 데이터를 문자 데이터로 변환하는 변환부,
    감성 크롤링(crawling) 알고리즘을 통해 상기 문자 데이터를 필터링하여 감성 어휘를 추출하고, 상기 음성 데이터로부터 음성의 빠르기, 크기, 분위기, 높낮이 및 음높이와 같은 물리적 속성을 추출하는 추출부,
    상기 감성 어휘와 상기 물리적 속성을 매핑(mapping)하여 감성 문맥 정보 및 감정 정보를 생성하는 매핑부,
    상기 감성 문맥 정보 및 상기 감정 정보를 분석하여 상기 상담에 대한 공감 지수 및 감성 지수를 생성하고, 상기 공감 지수 및 상기 감성 지수를 이용하여 상기 상담에 대한 업무 처리 결과를 생성하는 생성부, 그리고
    상기 업무 처리 결과를 출력하는 출력부를 포함하는 감성 분석 장치.
KR1020150078768A 2015-06-03 2015-06-03 컨택 센터를 위한 감성 분석 장치 및 그 방법 KR20160142949A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150078768A KR20160142949A (ko) 2015-06-03 2015-06-03 컨택 센터를 위한 감성 분석 장치 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150078768A KR20160142949A (ko) 2015-06-03 2015-06-03 컨택 센터를 위한 감성 분석 장치 및 그 방법

Publications (1)

Publication Number Publication Date
KR20160142949A true KR20160142949A (ko) 2016-12-14

Family

ID=57575376

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150078768A KR20160142949A (ko) 2015-06-03 2015-06-03 컨택 센터를 위한 감성 분석 장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR20160142949A (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107767038A (zh) * 2017-10-01 2018-03-06 上海量科电子科技有限公司 基于语音的支付评价方法、客户端及系统
CN111370030A (zh) * 2020-04-03 2020-07-03 龙马智芯(珠海横琴)科技有限公司 语音情感检测方法与装置、存储介质、电子设备
KR20230018048A (ko) 2021-07-29 2023-02-07 경북대학교 산학협력단 테이블 균형맞춤 로봇을 위한 인터액티브 강화학습 방법, 이를 수행하기 위한 기록 매체 및 장치
KR20240051673A (ko) 2022-10-13 2024-04-22 경북대학교 산학협력단 표정 피드백을 이용하는 딥강화학습 기반 협력로봇 및 딥강화학습 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107767038A (zh) * 2017-10-01 2018-03-06 上海量科电子科技有限公司 基于语音的支付评价方法、客户端及系统
CN111370030A (zh) * 2020-04-03 2020-07-03 龙马智芯(珠海横琴)科技有限公司 语音情感检测方法与装置、存储介质、电子设备
KR20230018048A (ko) 2021-07-29 2023-02-07 경북대학교 산학협력단 테이블 균형맞춤 로봇을 위한 인터액티브 강화학습 방법, 이를 수행하기 위한 기록 매체 및 장치
KR20240051673A (ko) 2022-10-13 2024-04-22 경북대학교 산학협력단 표정 피드백을 이용하는 딥강화학습 기반 협력로봇 및 딥강화학습 방법

Similar Documents

Publication Publication Date Title
CN108737667B (zh) 语音质检方法、装置、计算机设备及存储介质
US9824691B1 (en) Automated population of electronic records
US10755712B2 (en) Automated execution of computer software based upon determined empathy of a communication participant
US9053096B2 (en) Language translation based on speaker-related information
CN111009233A (zh) 语音处理方法、装置、电子设备及存储介质
US20200152304A1 (en) Systems And Methods For Intelligent Voice-Based Journaling And Therapies
Vitevitch et al. Processing of indexical information requires time: Evidence from change deafness
WO2021010744A1 (ko) 음성 인식 기반의 세일즈 대화 분석 방법 및 장치
US20200160278A1 (en) Cognitive scribe and meeting moderator assistant
US11616740B2 (en) Invoking chatbot in online communication session
DE102012022733A1 (de) Mit einem Suchmaschinendienst kombiniertes Werbesystem und Verfahren zu dessen Durchführung
KR20160142949A (ko) 컨택 센터를 위한 감성 분석 장치 및 그 방법
US20210271864A1 (en) Applying multi-channel communication metrics and semantic analysis to human interaction data extraction
US11114092B2 (en) Real-time voice processing systems and methods
CN116762125A (zh) 环境协作智能系统和方法
US11322139B2 (en) Presentation of indications with respect to questions of a communication session
US10410655B2 (en) Estimating experienced emotions
WO2021172039A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN114138960A (zh) 用户意图识别方法、装置、设备及介质
Lehner et al. Web-based assessment of communication-related parameters in dysarthria: Development and implementation of the KommPaS web app
US20180342240A1 (en) System and method for assessing audio files for transcription services
WO2019003395A1 (ja) コールセンター会話内容表示システム、方法及びプログラム
US20200125647A1 (en) Determination of biorhythms through video journal services
JP2023076430A (ja) プログラム、情報処理システム及び情報処理方法
CN114462376A (zh) 基于rpa和ai的庭审笔录生成方法、装置、设备及介质