KR102512285B1 - 상담 노동자를 위한 스트레스 대응 시스템 및 방법 - Google Patents

상담 노동자를 위한 스트레스 대응 시스템 및 방법 Download PDF

Info

Publication number
KR102512285B1
KR102512285B1 KR1020200121632A KR20200121632A KR102512285B1 KR 102512285 B1 KR102512285 B1 KR 102512285B1 KR 1020200121632 A KR1020200121632 A KR 1020200121632A KR 20200121632 A KR20200121632 A KR 20200121632A KR 102512285 B1 KR102512285 B1 KR 102512285B1
Authority
KR
South Korea
Prior art keywords
word
customer terminal
voice
central server
voice data
Prior art date
Application number
KR1020200121632A
Other languages
English (en)
Other versions
KR20220039041A (ko
Inventor
박종수
Original Assignee
주식회사 반디아이씨티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 반디아이씨티 filed Critical 주식회사 반디아이씨티
Priority to KR1020200121632A priority Critical patent/KR102512285B1/ko
Priority to PCT/KR2020/017259 priority patent/WO2022059852A1/ko
Publication of KR20220039041A publication Critical patent/KR20220039041A/ko
Application granted granted Critical
Publication of KR102512285B1 publication Critical patent/KR102512285B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M21/02Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis for inducing sleep or relaxation, e.g. by direct nerve stimulation, hypnosis, analgesia
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0027Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the hearing sense

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Biomedical Technology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Anesthesiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Signal Processing (AREA)
  • Primary Health Care (AREA)
  • Developmental Disabilities (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Social Psychology (AREA)
  • Hematology (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Educational Technology (AREA)
  • Pain & Pain Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 발명은 상담 노동자를 위한 스트레스 대응 시스템에 관한 것으로서, 상담원과의 상담을 진행하는 고객이 소지하고 있는 고객 단말, 고객과의 상담 응대를 위해 상담원이 착용하고 있는 장치로서, 상담 연결된 고객 단말로부터 수신한 음성 신호를 출력하는 음성출력부와, 상담원의 음성을 입력받아 전기 신호로 변환하여 상기 고객 단말에 전송하기 위한 음성입력부를 구비하고 있는 헤드셋 장치 및 상기 고객 단말 및 상기 헤드셋 장치로부터 음성신호를 수집하고, 수집된 음성신호를 분석하여 스트레스 지수를 산출하고, 산출된 스트레스 지수에 따라 미리 정해진 스트레스에 대응하기 위한 음성 신호를 상기 고객 단말에 출력하도록 하는 중앙 서버를 포함한다.
본 발명에 의하면, 콜센터 등에서의 상담 업무 시에 고객에게 경고하거나, 흥분도를 낮춰주는 소리를 제공함으로써, 상담 노동자의 스트레스 발생을 직접적으로 예방할 수 있는 효과가 있다.

Description

상담 노동자를 위한 스트레스 대응 시스템 및 방법{Stress response system and method for counseling worker}
본 발명은 콜센터 등에서 근무하는 상담 노동자의 스트레스를 경감시키기 위한 기술에 관한 것이다.
서비스 산업의 국가 경제 의존도가 높아지고 주도적인 산업으로 발전하면서 콜센터 산업은 지속적으로 성장세를 보이고 있으며, '2017 컨택센터 산업총람'에 따르면 2012년부터 2016년까지 콜센터에 종사하는 상담원 수는 약 7.8% 성장하였고, 사용 기업까지 포함하면 약 40만명이 넘는 것으로 나타났다.
콜센터 종사자의 업무는 고객의 관점에서 다양한 업무를 쉽고, 간편하게 도움을 주는 서비스를 제공하는 것이다. 콜센터는 고객과의 상호 작용과 소통을 통하여 고객이 제품을 구매하는 프로세스에서 문의 사항이나 클레임을 접수한다. 이처럼, 고객은 쉽고 간단하고 편리하게 콜센터에 전화를 걸어 콜센터 상담원이나 ARS를 통해 사용에 대한 상세한 설명을 들 수 있고, 제품이나 서비스 구매 후 상품 배달이 지연 또는 취소되는 경우에는 콜센터 상담원이 미리 상품의 배달 지연 여부나 취소과정을 알려줌으로써, 기다리는 번거로움을 최소화할 수 있는 서비스를 제공한다. 또한, 콜센터에 전화, 또는 다른 채널로 상품을 구입한 후 사용방법의 질문이 있는 경우 전문적인 상담원과 일대일 컨택을 통해 자세한 설명을 들을 수도 있고, 사용에 대한 불편함과 문제점을 전달할 수도 받을 수도 있다.
이러한 콜센터는 최근 기업에 대한 급속히 성장·발전하고 있으며, 기존의 콜센터가 아닌 고객과의 접점의 용어로서 컨택센터로서의 용어로 변경되어 사용하고 있으며, 업무에 대한 비중도 늘어나고 있으며 과거의 사용계정을 통하여 상담원에게 신속하게 필요로 하는 정보를 제공할 수 있다.
그러나, 콜센터 상담원들은 상담과정에서 감정적으로 고통을 당할 수 있는 감정노동자이며, 국내의 경우 감정노동자의 고통을 방치한 사업주는 관련 법안에 따라 중징계를 피할 수 없다.
고용노동부는 지난해 10월 18일부터 고객 응대 근로자 건강장해 방지 보호조치를 담은 '산업안전 보건법 시행령·시행규칙 일부개정안'을 국내 전 사업장에 시행 중이다. 즉, 폭언·성희롱 등 고객 갑질로 인한 감정노동자의 사직·자살사례가 증가하자 피해예방 및 사후조치를 의무화했으며, 사업주는 감정노동자에게 건강장애 발생 시, 위험장소에서 즉각 벗어날 수 있도록 업무를 일시 중단·전환 해야하고, 업무 복귀 전 신체적·정신적 안정을 취할 수 있도록 충분한 휴식시간을 줘야한다.
최근 콜센터를 비롯한 서비스 산업에서 일하는 감정노동자들이 겪는 스트레스와 과도한 감정적 부담이 사회적 이슈로 떠오르고 있는 가운데, 지난 3월 '금융회사 감정노동자 보호법'이 국회 본회의를 통과하면서 소비자 인식 개선뿐만 아니라 국가 및 기업도 감정노동자들의 업무환경 개선 및 직무 스트레스 관리에 보다 적극적으로 나서야 한다는 요구가 높아지고 있다.
예를 들어, 콜센터 상담 전문회사인 H사의 경우, 8,000여명의 종사자 중 87%가 여성으로 20대 27%, 30대 37%, 40대 25% 기타 11%로 구성되고 있으며, 특히 30대, 40대는 경력단절 여성으로 육아 등을 위해 휴직 또는 퇴직 후 재입사를 통한 여성으로써 구나 손쉽게 재취업을 할 수 있는 직종으로 알려져 있으나, 업무의 특성으로 인하여 업무 중 퇴사하는 비중이 업무에 따라 월 2~11% 이상으로 많은 차이를 나타내고 있으며, 이를 통해 현재 콜센터 업계에서는 퇴직률 방어가 각 기업의 최고의 관심사로써 이는 각 기업의 비용을 절감하는 중요한 요소이다.
이들 중 대부분은 업무 부적응의 이유로 퇴사를 하고 있지만 대부분 직원들의 퇴사 사유는 고객들에 대한 스트레스가 가장 많은 것으로 파악되며, H사의 경우 연간 5,000여 명을 채용하고 있으나 전체 직원 수가 8,000여명인 것을 감안하면, 기업의 인재를 보호하고 유지하기 위해 스트레스로 이직하는 직원 수가 20~30%가 감소하면 각 기업에서 연간 수백 명에서 수천 명의 채용, 교육, 효율성 및 고용유지 및 제고 효과가 있다.
대부분의 감정노동 종사 근로자는 장시간 동안 같은 일을 반복하고 정해진 공간, 고정된 위치 안에서 대기하면서 있어야 하는 경우가 많으며 근무시간 동안 손님 응대를 위해 계속 긴장된 상태(교감신경이 흥분된 상태)를 유지해야 한다. 그리고, 근무시간 동안은 계속해서 스트레스 반응을 보이며 심장은 평소보다 더 빨리 뛰고 혈압은 높게 유지되며, 스트레스 호르몬은 계속해서 분비되고 이런 스트레스 상태에서 자주 또는 강한 감정노동을 하거나 적절히 해소할 방안을 찾지 못한다면 신체건강 이상이 초래될 수 있다.
또한, 감정노동이 직무스트레스 요인의 하나로 스트레스 반응을 유발하여 건강에 영향을 미친다는 점을 생각할 때, 지금까지 직무스트레스의 건강 영향으로 알려져 있는 작업 관련성 뇌심혈관계질환, 근골격계질환, 소화기질환 등의 다양한 건강문제를 유발할 수 있다는 문제점이 있다.
대한민국 등록특허 10-2061725
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 콜센터 등에서 근무하는 상담 노동자의 스트레스를 경감시킬 수 있도록 대응하는 시스템 방법을 제공하는데 그 목적이 있다.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
이와 같은 목적을 달성하기 위한 본 발명은 상담 노동자를 위한 스트레스 대응 시스템에 관한 것으로서, 상담원과의 상담을 진행하는 고객이 소지하고 있는 고객 단말, 고객과의 상담 응대를 위해 상담원이 착용하고 있는 장치로서, 상담 연결된 고객 단말로부터 수신한 음성 신호를 출력하는 음성출력부와, 상담원의 음성을 입력받아 전기 신호로 변환하여 상기 고객 단말에 전송하기 위한 음성입력부를 구비하고 있는 헤드셋 장치 및 상기 고객 단말 및 상기 헤드셋 장치로부터 음성신호를 수집하고, 수집된 음성신호를 분석하여 스트레스 지수를 산출하고, 산출된 스트레스 지수에 따라 미리 정해진 스트레스에 대응하기 위한 음성 신호를 상기 고객 단말에 출력하도록 하는 중앙 서버를 포함한다.
상기 중앙 서버는 상기 고객 단말 및 상기 헤드셋 장치로부터 수집한 음성신호에서 데시벨, 옥타브, 발화 속도, 공명 주파수 정보를 포함하는 목소리 데이터와, 단어 정보를 포함하는 음성 데이터를 구분하고, 목소리 데이터와 음성 데이터를 각각 분석하여 스트레스 지수를 산출할 수 있다.
상기 중앙 서버는 상기 고객 단말의 목소리 데이터에서 데시벨, 옥타브, 발화 속도를 각각의 미리 정해진 기준치와 비교하는 방식으로 분석할 수 있다.
상기 중앙 서버는 상기 고객 단말 및 상기 헤드셋 장치로부터 수집한 목소리 데이터에서 고객의 공명 주파수와 상담원의 공명 주파수가 중복되는지 여부를 확인하는 방식으로 분석할 수 있다.
상기 중앙 서버는 상기 고객 단말의 음성 데이터에서 감정을 나타내는 단어인 감정어를 추출하고, 추출된 감정어를 미리 저장된 감정어 등급과 비교하여 등급을 부여하는 방식으로 분석할 수 있다.
상기 중앙 서버는 상기 고객 단말의 음성 데이터에서 욕설 및 비속어를 포함하는 공격적인 단어인 공격어를 추출하고, 추출된 공격어의 존재 여부를 확인하는 방식으로 분석할 수 있다.
본 발명에 의하면, 콜센터 등에서의 상담 업무 시에 고객에게 경고하거나, 흥분도를 낮춰주는 소리를 제공함으로써, 상담 노동자의 스트레스 발생을 직접적으로 예방할 수 있는 효과가 있다. 이로써, 보다 안정적인 근무환경을 제고하고, 상담 노동자의 정신 건강을 보호할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 상담 노동자를 위한 스트레스 대응 시스템의 구성을 개념적으로 도시한 것이다.
도 2는 본 발명의 일 실시 예에 따른 상담 노동자를 위한 스트레스 대응 방법을 보여주는 흐름도이다.
도 3은 본 발명의 일 실시 예에 따른 상담 노동자를 위한 스트레스 대응 방법에서 스트레스 지수를 산출하는 과정을 도시한 흐름도이다.
도 4는 본 발명의 일 실시 예에 따른 감정어 등급을 예시한 도표이다.
도 5는 본 발명의 일 실시 예에 따른 공격어를 예시한 도표이다.
도 6은 본 발명의 일 실시 예에서 스트레스 정도에 따른 음성출력을 예시한 도표이다.
도 7은 본 발명의 일 실시 예에 따른 공격어에 설정된 거리 정보를 예시한 도표이다.
본 명세서에서 개시된 실시 예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 개시에서 제안하고자 하는 실시 예는 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 당해 기술분야에서 통상의 지식을 가진 자에게 실시 예들의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시 예에 대해 구체적으로 설명하기로 한다.
본 명세서에서 사용되는 용어는 개시된 실시 예들의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 명세서의 상세한 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 명세서의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 본 발명의 일 실시 예에 따른 상담 노동자를 위한 스트레스 대응 시스템의 구성을 개념적으로 도시한 것이다.
도 1을 참조하면, 본 발명의 상담 노동자를 위한 스트레스 대응 시스템은 헤드셋 장치(100), 중앙 서버(200), 고객 단말(300)을 포함한다.
본 발명에서 헤드셋 장치(100), 중앙 서버(200), 고객 단말(300)은 유무선 네트워크를 통해 통신할 수 있다.
헤드셋 장치(100)는 고객과의 상담 응대를 위해 상담원이 착용하고 있는 장치로서, 상담 연결된 고객 단말(300)로부터 수신한 음성 신호를 출력하는 음성출력부와, 상담원의 음성을 입력받아 전기 신호로 변환하여 고객 단말(300)에 전송하기 위한 음성입력부를 구비하고 있다.
고객 단말(300)은 상담원과의 상담을 진행하는 고객이 소지하고 있는 단말이다. 예를 들어, 고객 단말(300)은 통신망을 통해 통신가능한 핸드폰, 휴대폰, 스마트폰, 태블릿 PC 등을 포함하는 이동통신 단말기와, 유선 전화기, 인터넷 전화기 등을 포함하는 개념일 수 있다.
중앙 서버(200)는 고객 단말(300) 및 헤드셋 장치(100)로부터 음성신호를 수집하고, 수집된 음성신호를 분석하여 스트레스 지수를 산출하고, 산출된 스트레스 지수에 따라 미리 정해진 스트레스에 대응하기 위한 음성 신호를 고객 단말(300)에 출력하도록 한다.
본 발명의 일 실시예에서 중앙 서버(200)는 고객 단말(300) 및 헤드셋 장치(100)로부터 수집한 음성신호에서 데시벨, 옥타브, 발화 속도, 공명 주파수 정보를 포함하는 목소리 데이터와, 단어 정보를 포함하는 음성 데이터를 구분하고, 목소리 데이터와 음성 데이터를 각각 분석하여 스트레스 지수를 산출할 수 있다.
중앙 서버(200)는 고객 단말(300)의 목소리 데이터에서 데시벨, 옥타브, 발화 속도를 각각의 미리 정해진 기준치와 비교하는 방식으로 분석할 수 있다.
중앙 서버(200)는 고객 단말(300) 및 헤드셋 장치(100)로부터 수집한 목소리 데이터에서 고객의 공명 주파수와 상담원의 공명 주파수가 중복되는지 여부를 확인하는 방식으로 분석할 수 있다.
중앙 서버(200)는 고객 단말(300)의 음성 데이터에서 감정을 나타내는 단어인 감정어를 추출하고, 추출된 감정어를 미리 저장된 감정어 등급과 비교하여 등급을 부여하는 방식으로 분석할 수 있다. 감정어는 기본적으로 화자의 감정을 나타내는 단어인데, 화자의 감정은 긍정, 부정, 중립으로 분류할 수 있고, 감정어 등급이 부여된 감정어는 부정적 감정으로 분류된 감정어이다. 도 4에 도시된 것과 같이, 감정어의 등급이 높아질수록 부정적 감정의 정도가 커지는 것으로 설정할 수 있다.
중앙 서버(200)는 고객 단말(300)의 음성 데이터에서 욕설 및 비속어를 포함하는 공격적인 단어인 공격어를 추출하고, 추출된 공격어의 존재 여부를 확인하는 방식으로 분석할 수 있다. 공격어는 X팔, XX년 등과 같은 비속어와 청자로 하여금 강압적인 감정을 느끼도록 하는 똑바로, 꺼져, 책임자 등과 같은 비예의(非禮儀) 단어와 문구를 포함할 수 있다.
본 발명의 일 실시예에서 중앙 서버(200)는 데이터베이스(210)를 포함하는 개념일 수 있다.
도 2는 본 발명의 일 실시 예에 따른 상담 노동자를 위한 스트레스 대응 방법을 보여주는 흐름도이다.
도 2를 참조하면, 중앙 서버(200)는 고객 단말(300) 및 헤드셋 장치(100)로부터 음성신호를 수집하고(S201), 수집된 음성신호를 목소리 데이터와 음성 데이터로 분류한다(S203). 여기서 목소리 데이터는 데시벨, 옥타브, 발화 속도, 공명 주파수 정보를 포함하고, 음성 데이터는 단어 정보를 포함한다.
그리고, 중앙 서버(200)는 고객 단말(300)의 목소리 데이터에서 데시벨, 옥타브, 발화 속도를 각각의 미리 정해진 기준치와 비교하는 방식으로 분석한다(S205).
그리고, 중앙 서버(200)는 고객 단말 및 상기 헤드셋 장치로부터 수집한 목소리 데이터에서 고객의 공명 주파수와 상담원의 공명 주파수가 중복되는지 여부를 확인하는 방식으로 분석한다(S207).
그리고, 중앙 서버(200)는 고객 단말(300)의 음성 데이터에서 감정을 나타내는 단어인 감정어를 추출하고(S209), 추출된 감정어를 미리 저장된 감정어 등급과 비교하여 등급을 부여하는 방식으로 분석한다(S211).
그리고, 중앙 서버(200)는 고객 단말(300)의 음성 데이터에서 욕설 및 비속어를 포함하는 공격적인 단어인 공격어를 추출하고(S209), 추출된 공격어의 존재 여부를 확인하는 방식으로 분석한다(S213).
본 발명에서 목소리 데이터의 유효 정보는 데시벨, 옥타브, 발화 속도, 공명 주파수 정보를 포함한다.
그리고, 음성 데이터의 유효 정보는 감정어(속상하다, 힘들다, 짜증난다, 화난다 등), 공격어(똑바로, 바꿔, 책임자, X팔 등)로 분류할 수 있다.
목소리 데이터의 유효정보를 분석하는 과정을 다음과 같다.
먼저 데시벨, 옥타브, 발화 속도 각각의 기준치를 설정한다. 그리고, 목소리 데이터의 데시벨, 옥타브, 발화 속도 중 2개 이상의 정보가 기준치 이상인지 여부를 확인한다.
그리고, 고객 단말(300)로부터 수신한 고객 목소리 데이터의 공명주파수와 헤드셋 장치(100)로부터 수신한 상담원 목소리 데이터의 공명주파수가 중복되는지 여부를 확인한다. 가령, 개인의 고유하게 가지고 있는 공명 주파수를 분석하여, 고객이 상담원의 말을 끊고 있는지(안 듣고 있는지)를 판단하는 것이다.
음성 데이터의 유효정보를 분석하는 과정은 다음과 같다.
음성 데이터에서 추출된 감정어가 기저장된 감정어 등급에 따라 등급을 부여한다. 그리고, 감정어 등급의 평균이 미리 정해진 기준치 이상인지를 판단한다.
도 4는 본 발명의 일 실시 예에 따른 감정어 등급을 예시한 도표이다.
도 4의 예시를 참조하면, 본 발명에서 감정어는 속상하다, 힘들다, 짜증난다, 화난다 등의 감정을 표현한 단어를 말한다.
도 4의 실시예에서 감정어 별 등급이 예시되어 있는데, '속상하다, 속상해, 속상하니까' 등은 1등급, '힘들다, 힘들어, 힘드니까' 등은 2등급, '짜증난다, 짜증나, 짜증나게, 짜증나니까' 등은 3등급, '화난다, 화나게, 화나, 화나니까, 빡친다' 등은 4등급으로 분류된다.
예를 들어, 기준치가 2이고, 추출된 감정어가 '힘들다(2등급)', '화나(3등급)'라고 하면, 감정어 등급의 평균은 2.5가 된다. 이러한 2.5의 감정어 등급의 평균은 기준치인 2이상으로 판단되어 스트레스 지수를 산출하게 된다.
중앙 서버(200)는 음성 데이터에서 공격어가 존재하는지 여부를 판단한다.
도 5는 본 발명의 일 실시 예에 따른 공격어를 예시한 도표이다.
도 5의 도표에서는 데이터베이스(210)에 저장된 공격어를 예시한 것으로서, 똑바로, 똑바르게, 제대로, 바꿔, 꺼져, 니가, 너가, 책임자, X팔, XX년 등의 공격어를 예시하고 있으며, 이 외에도 다양한 공격어를 설정할 수 있음은 당연하다.
본 발명에서 중앙 서버(200)에서 스트레스 지수를 판단하는 방식을 예시하면 다음과 같다.
조건1: 데시벨, 옥타브, 발화 속도 중 2개 이상의 정보가 기준치 이상인가?
조건2: 고객의 공명주파수와 상담노동자의 공명주파수가 중복되는가?
조건3: 추출된 감정어 등급의 평균이 기준치 이상인가?
조건4: 공격어가 존재하는가?
중앙 서버(200)는 상기 조건1 내지 조건3 중에서 해당하는 조건의 개수를 확인하여 1개면 1단계(양호), 2개면 2단계(주의), 3개면 3단계(경고)로 스트레스 지수를 산출한다.
그리고, 조건4에 해당하면 스트레스 지수를 한 단계 높인다. 즉, 조건4에 해당하면, 1단계(양호)의 경우 2단계(주의)로 높이고, 2단계(주의)의 경우 3단계(경고)로 높이고, 3단계(주의)의 경우 4단계(회선 차단)로 높인다.
중앙 서버(200)는 산출된 스트레스 지수에 따라 해당하는 음성 메시지를 고객 단말(300)에 출력하도록 한다.
도 6은 본 발명의 일 실시 예에서 스트레스 정도에 따른 음성출력을 예시한 도표이다.
도 6의 예시에서 1단계(양호)의 경우 고객 단말(300)에 음성을 출력하지 않고, 2단계(주의)의 경우 고객 단말(300)에 '고객님, 흥분을 가라앉혀 주시기 바랍니다'라는 음성을 출력한다.
그리고, 3단계(경고)의 경우 고객 단말(300)에 '고객님, 지속적으로 흥분을 가라앉히지 않으시면 자동적으로 응대가 종료됩니다.'라는 음성을 출력한다.
그리고, 4단계(회선 차단)의 경우 고객 단말(300)에 '고객님, 회선이 차단되며, 향후 3개월간 고객 센터 이용이 불가합니다.'라는 음성을 출력한다.
도 3은 본 발명의 일 실시 예에 따른 상담 노동자를 위한 스트레스 대응 방법에서 스트레스 지수를 산출하는 과정을 도시한 흐름도이다.
도 3을 참조하면, 중앙 서버(200)는 목소리 데이터가 입력되면(S301), 목소리 데이터를 시간 단위로 분할한다(S303).
그리고, 중앙 서버(200)는 입력된 목소리 데이터의 데시벨, 옥타브, 발화 속도값과 기준값을 비교하여 비교값을 산출한다(S305, S307).
그리고, 중앙 서버(200)는 입력된 목소리 데이터에서 고객의 공명 주파수와 상담 노동자의 공명 주파수의 중복도를 판단하여 중복도를 산출한다(S309, S311).
그리고, 중앙 서버(200)는 산출된 비교값과 중복도를 이용하여 목소리 특성에 따른 스트레스 지수를 산출한다(S313).
그리고, 중앙 서버(200)는 음성 데이터가 입력되면(S315), 음성 데이터를 시간 단위로 분할한다(S317).
그리고, 중앙 서버(200)는 분할된 음성 데이터를 텍스트 데이터로 변환한다(S319).
그리고, 중앙 서버(200)는 텍스트 데이터를 문장 단위로 분리한다(S321).
그리고, 중앙 서버(200)는 문장 내 각 단어를 식별한다(S323).
그리고, 중앙 서버(200)는 각 단어 사이의 거리 정보를 추출한다(S325).
여기서, 감정어들/공격어들 간의 거리 정보는 감정어들/공격어들 사이에 존재하는 문자 또는 단어의 갯수 또는 감정어들/공격어들 사이의 시간 간격일 수 있다.
그리고, 중앙 서버(200)는 감정어 또는 공격어가 사전에 설정되어 저장되어 있는 데이터베이스(210)에 대상 단어가 존재하는지 여부를 확인한다(S327).
그리고, 중앙 서버(200)는 대상 단어가 감정어 또는 공격어가 저장된 데이터베이스(210)에 존재하면, 거리정보를 이용하여 감정어 또는 공격어의 스트레스 지수를 산출한다(S329).
여기서, 감정어/공격어는 미리 데이터베이스(210)에 저장되어 있다. 본 발명에서 중앙 서버(200)는 데이터베이스(210)를 참조하여 텍스트 데이터에 감정어/공격어가 존재하는지를 판별하고, 감정어/공격어가 존재하는 경우 해당 감정어/공격어에 대한 리스트를 생성한다. 감정어/공격어 리스트는 검출된 감정어/공격어 사이의 거리 정보를 포함한다.
여기에서, 거리 정보라 함은 감정어들/공격어들 사이에 존재하는 문자 또는 단어의 갯수, 감정어들/공격어들 사이의 시간 간격 등과 같은 정보 중의 어느 하나로 구성될 수 있다. 또는, 이들의 조합에 의해 구성될 수도 있다.
그리고, 중앙 서버(200)는 목소리 특성 스트레스 지수와 감정어 또는 공격어의 스트레스 지수를 종합하여 최종 스트레스 지수를 산출한다(S331).
도 7은 본 발명의 일 실시 예에 따른 공격어에 설정된 거리 정보를 예시한 도표이다.
도 7의 도표에서 중앙 서버(200)가 텍스트 데이터로부터 순차적으로 공격어인 "XX년, 똑바로, X팔, 책임자, 바꿔"의 순서로 검출하였음을 알 수 있다. 이 때, 각각의 공격어들의 거리 정보는 "3, 8, 5, 4"로 나타나 있는데, 여기서 각각의 숫자는 공격어들 사이의 단어의 갯수인 경우이다. 즉, "XX년"과 "똑바로"사이에 3개의 단어가 존재하고, "똑바로"와 "X팔"사이에는 8개의 단어가 존재한다.
이와 같이, 공격어 리스트는 공격어들과 각 공격어들 사이의 거리 정보를 포함하도록 구성된다.
중앙 서버(200)는 생성된 공격어 리스트에 기초하여 공격어 스트레스 지수를 판단하는데, 공격어 리스트에 포함된 공격어와 공격어들간의 거리 정보에 기초하여 공격어 스트레스 지수를 산출한다.
도 3에서 S315~S319의 음성 데이터를 텍스트 데이터로 변환하는 과정에 있어서, 지능형 서버(intelligent server)를 이용할 수 있다.
지능형 서버는 텍스트 데이터에 기초하여 감정어 DB, 공격어 DB를 생성할 수 있다.
감정어 DB, 공격어 DB는 인공지능(Artificial Intelligent, AI)에 의해 생성될 수 있으며, 여기서 인공지능 시스템은 룰 베이스 시스템(rule-based system), 신경망 베이스 시스템(neural network-based system, 예: 피드포워드 신경망(feedforward neural network, FNN), 순환 신경망(recurrent neural network, RNN))일 수 있다.
감정어 DB 및 공격어 DB는 미리 정의된 집합일 수 있고, 사용자의 요청에 의해 실시간으로 생성될 수도 있다.
지능형 서버는 프론트 엔드(front end), 자연어 플랫폼(natual language platform), 캡슐 데이터베이스(capsule DB), 실행 엔진(execution engine), 엔드 사용자 인터페이스(end user interface), 매니지먼트 플랫폼(management platform), 빅 데이터 플랫폼(big data platform), 또는 분석 플랫폼(analytic platform)을 포함할 수 있다.
여기서 프론트 엔드는 사용자 단말로부터 음성 데이터 수신하는 부분이다.
그리고, 자연어 플랫폼은 음성 데이터를 텍스트 데이터로 변환하는 자동 음성 인식 모듈, 문법적 분석, 의미적 분석을 수행하여 사용자 의도를 파악하는 자연어 이해 모듈, 자연어 이해 모듈에서 결정된 의도 및 파라미터를 이용하여 집합체를 생성하는 플래너 모듈로 구성된다.
그리고, 캡슐 데이터베이스는 복수의 도메인에 대응되는 복수의 컨셉과 동작들의 관계에 대한 정보를 저장하는 데이터베이스로서, 음성 입력에 대응되는 복수의 DB가 있는 경우, 하나의 DB를 결정하기 위한 기준 정보를 포함할 수 있다. 예를 들어, 복수의 도메인으로부터 수신된 음성 데이터를 이용하여 감정어 DB, 공격어 DB에 대해 저장된 경우, 하나의 음성 데이터를 분석하여 각각의 분할된 음성 DB가 감정어 DB인지 공격어 DB인지 결정하기 위한 기준 정보를 생성할 수 있다.
실행 엔진은 결과값을 산출하고, 빅데이터 플랫폼은 데이터 수집 및 저장 기능을 수행한다.
도 3에서 S321~S325의 텍스트 데이터에서 단어를 식별하여 거리정보를 추출하는 과정은 지도학습(Supervised Learning)을 이용할 수 있다.
지도학습은 크게 기호적 학습(symbolic learning)과 통계 기반 학습(statistical-based learning)으로 나눌 수 있다.
기호적 학습 방법은 표식이 부착된 말뭉치로부터 규칙을 추출하거나 분류절차를 학습한 후, 표식이 붙지 않은 말뭉치에 적용하며, 결정 트리(decision tree), 변형 기반 오류에 의한 학습(transformation-based error driven learning), 선형 분리기(linear separator), 사례 기반 학습(instance-based learning) 등이 이용될 수 있다.
통계 기반 학습 방법은 학습 말뭉치 내에서 확률 변수(속성)를 추출하고, 여러 문맥에 걸쳐 관찰되는 확률 변수들 간의 확률 분포를 결정하는 모델을 구축하며, 대표적으로 나이브 베이스 분류기(naive Bayes classifier), 최대 엔트로피(maximum entropy principle), 마코프 모델(Markov model) 등이 있다.
마코프 모델을 이용한 통계적 품사 태깅, 변형 기반 오류에 의한 학습을 적용한 변형 기반 태깅은 여러가지 자연언어의 중의성 문제 중 품사 태깅 문제의 해결에 효율적인 지도학습이다.
마코프 모델을 한국어의 특성에 맞게 변형한 방법이 이용될 수 있으며, 한국어의 어절과 어절 간의 전이 관계를 형태소 uni-gram을 이용하여 추정하는 방법 등이 이용될 수 있다.
확률적 구문 분석은 확률자유문맥문법(PCFG)을 이용하여 확률 값이 명기된 문맥자유문법(CFG) 규칙을 추출할 수 있다.
그 외에도, 최대 엔트로피 통계적 결합범주문법(Maximum Entropy Statistical Combinatory Categorical Grammar)의 결합범주문법(CCG) 구문 분석기는 무한의존구문(unbounded dependencies)과 국부적 기능-논항(function-argument) 구조를 표현하고 있으며, CCG 어휘 태그 및 어휘 의존구조가 부착된 말뭉치를 이용하여 학습한다. 여기서, 의존구조는 자질로서 표현되며 시스템은 표식이 달린 표준 말뭉치로부터 가장 확률이 높은 의존구조들의 집합으로 표현되는 모델을 계산할 수 있다.
도 3에서 S313, S329, S331에 있어서, 인공지능 기술을 이용한 목소리 특성 스트레스 지수와, 감정어/공격어 스트레스 지수를 합하여 최종 스트레스 지수를 산출하는 과정에 대해 설명하면 다음과 같다.
본 발명에서 중앙 서버(200)는 감정어/공격어 및 거리 정보를 이용하여 기계학습을 통해 스트레스 지수 모델을 생성하고, 목소리 특성 데이터를 이용하여 기계학습을 통해 스트레스 지수 모델을 생성한다.
감정어/공격어 및 거리 정보에 기초한 스트레스 지수 모델링과 목소리 특성 데이터에 기초한 스트레스 지수 모델링을 통하여 스트레스 지수를 산출한 후, 최종 스트레스 지수 산출시, 이전에 수신된 데이터를 참조하여 기준값을 설정할 수 있다.
스트레스 지수 산출시, 딥러닝, 결정 트리(decision tree), 나이브 베이즈 분류(naive bayes classification), 최소자승회귀(ordinary least squares regression), 로지스틱 회귀(logistic regression), 앙상블 메소드(ensemble method), 서포트 벡터 머신(support vector machine; SVM) 등과 같은 다양한 알고리즘에 기초하여 기계학습을 수행할 수 있다.
이상 본 발명을 몇 가지 바람직한 실시 예를 사용하여 설명하였으나, 이들 실시 예는 예시적인 것이며 한정적인 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 다양한 변화와 수정을 가할 수 있음을 이해할 것이다.
100 헤드셋 장치 200 중앙 서버
300 고객 단말

Claims (12)

  1. 상담원과의 상담을 진행하는 고객이 소지하고 있는 고객 단말;
    고객과의 상담 응대를 위해 상담원이 착용하고 있는 장치로서, 상담 연결된 고객 단말로부터 수신한 음성 신호를 출력하는 음성출력부와, 상담원의 음성을 입력받아 전기 신호로 변환하여 상기 고객 단말에 전송하기 위한 음성입력부를 구비하고 있는 헤드셋 장치; 및
    상기 고객 단말 및 상기 헤드셋 장치로부터 음성신호를 수집하고, 수집된 음성신호를 분석하여 스트레스 지수를 산출하고, 산출된 스트레스 지수에 따라 미리 정해진 스트레스에 대응하기 위한 음성 신호를 상기 고객 단말에 출력하도록 하는 중앙 서버를 포함하고,
    상기 중앙 서버는 상기 고객 단말 및 상기 헤드셋 장치로부터 수집한 음성신호에서 데시벨, 옥타브, 발화 속도, 공명 주파수 정보를 포함하는 목소리 데이터와, 단어 정보를 포함하는 음성 데이터를 구분하고, 목소리 데이터와 음성 데이터를 각각 분석하여 스트레스 지수를 산출하고,
    상기 중앙 서버는 상기 고객 단말의 목소리 데이터에서 데시벨, 옥타브, 발화 속도를 각각의 미리 정해진 기준치와 비교하는 방식으로 분석하고,
    상기 중앙 서버는 상기 고객 단말 및 상기 헤드셋 장치로부터 수집한 목소리 데이터에서 고객의 공명 주파수와 상담원의 공명 주파수가 중복되는지 여부를 확인하는 방식으로 분석하고,
    상기 중앙 서버는 상기 고객 단말의 음성 데이터에서 감정을 나타내는 단어인 감정어를 추출하고, 추출된 감정어를 미리 저장된 감정어 등급과 비교하여 등급을 부여하는 방식으로 분석하고,
    상기 중앙 서버는 상기 고객 단말의 음성 데이터에서 욕설 및 비속어를 포함하는 공격적인 단어인 공격어를 추출하고, 추출된 공격어의 존재 여부를 확인하는 방식으로 분석하며,
    상기 중앙 서버는,
    조건1: 데시벨, 옥타브, 발화 속도 중 2개 이상의 정보가 기준치 이상인가?
    조건2: 고객의 공명주파수와 상담노동자의 공명주파수가 중복되는가?
    조건3: 추출된 감정어 등급의 평균이 기준치 이상인가?
    조건4: 공격어가 존재하는가?
    의 상기 조건1 내지 조건3 중에서 해당하는 조건의 개수를 확인하여 1개면 1단계(양호), 2개면 2단계(주의), 3개면 3단계(경고)로 스트레스 지수를 산출하고, 상기 조건4에 해당하면 스트레스 지수를 한 단계씩 높이며,
    이때, 상기 조건 4에 해당하면, 1단계(양호)의 경우 2단계(주의)로 높이고, 2단계(주의)의 경우 3단계(경고)로 높이고, 3단계(주의)의 경우 4단계(회선 차단)로 높인고,
    상기 중앙 서버는 산출된 스트레스 지수에 따라 해당하는 음성 메시지를 고객 단말(300)에 출력하도록 하되, 1단계(양호)의 경우 상기 고객 단말에 음성을 출력하지 않고, 2단계(주의)의 경우 상기 고객 단말에 '고객님, 흥분을 가라앉혀 주시기 바랍니다'라는 음성을 출력하고, 3단계(경고)의 경우 상기 고객 단말에 '고객님, 지속적으로 흥분을 가라앉히지 않으시면 자동적으로 응대가 종료됩니다.'라는 음성을 출력하고, 4단계(회선 차단)의 경우 상기 고객 단말에 '고객님, 회선이 차단되며, 향후 3개월간 고객 센터 이용이 불가합니다.'라는 음성을 출력하며,
    감정어들 또는 공격어들 사이에 존재하는 문자 또는 단어의 갯수, 감정어들 또는 공격어들 사이의 시간 간격과 같은 정보 중의 어느 하나로 구성되거나, 또는 이들의 조합에 의해 구성되는 것을 거리 정보라고 할 때,
    상기 중앙 서버는 상기 스트레스 지수를 산출함에 있어서,
    상기 중앙 서버는 상기 고객 단말의 목소리 데이터가 입력되면, 목소리 데이터를 시간 단위로 분할하고, 목소리 데이터의 데시벨, 옥타브, 발화 속도를 각각의 미리 정해진 기준치와 비교하여 비교값을 산출하고, 상기 고객 단말 및 상기 헤드셋 장치로부터 수집한 목소리 데이터에서 고객의 공명 주파수와 상담원의 공명 주파수의 중복도를 판단하여 중복도를 산출하고, 산출된 비교값과 중복도를 이용하여 목소리 특성에 따른 스트레스 지수를 산출하고,
    상기 중앙 서버는 상기 고객 단말의 음성 데이터가 입력되면, 음성 데이터를 시간 단위로 분할하고, 분할된 음성 데이터를 텍스트 데이터로 변환하고, 텍스트 데이터를 문장 단위로 분리하고, 문장 내 각 단어를 식별하고, 각 단어 사이의 거리 정보를 추출하고, 감정어를 나타내는 단어인 감정어와 욕설 및 비속어를 포함하는 공격적인 단어인 공격어가 저장된 데이터베이스에 대상 단어가 존재하는지 여부를 확인하고, 대상 단어가 상기 데이터베이스에 존재하면, 추출한 거리정보를 이용하여 감정어 또는 공격어의 스트레스 지수를 산출하고,
    상기 중앙 서버는 상기 목소리 특성에 따른 스트레스 지수와 상기 감정어 또는 공격어의 스트레스 지수를 종합하여 최종 스트레스 지수를 산출하는 것을 특징으로 하는 상담 노동자를 위한 스트레스 대응 시스템.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 고객이 소지하고 있는 고객 단말, 상담원이 착용하고 있는 헤드셋 장치 및 중앙 서버를 포함하는 스트레스 대응 시스템에서의 스트레스 대응 방법에서,
    상기 중앙 서버에서 고객 단말 및 상기 헤드셋 장치로부터 음성신호를 수집하는 단계;
    상기 중앙 서버에서 수집된 음성신호를 분석하여 스트레스 지수를 산출하는 단계; 및
    상기 중앙 서버에서 산출된 스트레스 지수에 따라 미리 정해진 스트레스에 대응하기 위한 음성 신호를 상기 고객 단말에 출력하도록 하는 단계를 포함하고,
    상기 중앙 서버는 상기 고객 단말 및 상기 헤드셋 장치로부터 수집한 음성신호에서 데시벨, 옥타브, 발화 속도, 공명 주파수 정보를 포함하는 목소리 데이터와, 단어 정보를 포함하는 음성 데이터를 구분하고, 목소리 데이터와 음성 데이터를 각각 분석하여 스트레스 지수를 산출하고,
    상기 중앙 서버는 상기 고객 단말의 목소리 데이터에서 데시벨, 옥타브, 발화 속도를 각각의 미리 정해진 기준치와 비교하는 방식으로 분석하고,
    상기 중앙 서버는 상기 고객 단말 및 상기 헤드셋 장치로부터 수집한 목소리 데이터에서 고객의 공명 주파수와 상담원의 공명 주파수가 중복되는지 여부를 확인하는 방식으로 분석하고,
    상기 중앙 서버는 상기 고객 단말의 음성 데이터에서 감정을 나타내는 단어인 감정어를 추출하고, 추출된 감정어를 미리 저장된 감정어 등급과 비교하여 등급을 부여하는 방식으로 분석하고,
    상기 중앙 서버는 상기 고객 단말의 음성 데이터에서 욕설 및 비속어를 포함하는 공격적인 단어인 공격어를 추출하고, 추출된 공격어의 존재 여부를 확인하는 방식으로 분석하며,
    상기 중앙 서버는,
    조건1: 데시벨, 옥타브, 발화 속도 중 2개 이상의 정보가 기준치 이상인가?
    조건2: 고객의 공명주파수와 상담노동자의 공명주파수가 중복되는가?
    조건3: 추출된 감정어 등급의 평균이 기준치 이상인가?
    조건4: 공격어가 존재하는가?
    의 상기 조건1 내지 조건3 중에서 해당하는 조건의 개수를 확인하여 1개면 1단계(양호), 2개면 2단계(주의), 3개면 3단계(경고)로 스트레스 지수를 산출하고, 상기 조건4에 해당하면 스트레스 지수를 한 단계씩 높이며,
    이때, 상기 조건 4에 해당하면, 1단계(양호)의 경우 2단계(주의)로 높이고, 2단계(주의)의 경우 3단계(경고)로 높이고, 3단계(주의)의 경우 4단계(회선 차단)로 높인고,
    상기 중앙 서버는 산출된 스트레스 지수에 따라 해당하는 음성 메시지를 고객 단말(300)에 출력하도록 하되, 1단계(양호)의 경우 상기 고객 단말에 음성을 출력하지 않고, 2단계(주의)의 경우 상기 고객 단말에 '고객님, 흥분을 가라앉혀 주시기 바랍니다'라는 음성을 출력하고, 3단계(경고)의 경우 상기 고객 단말에 '고객님, 지속적으로 흥분을 가라앉히지 않으시면 자동적으로 응대가 종료됩니다.'라는 음성을 출력하고, 4단계(회선 차단)의 경우 상기 고객 단말에 '고객님, 회선이 차단되며, 향후 3개월간 고객 센터 이용이 불가합니다.'라는 음성을 출력하며,
    감정어들 또는 공격어들 사이에 존재하는 문자 또는 단어의 갯수, 감정어들 또는 공격어들 사이의 시간 간격과 같은 정보 중의 어느 하나로 구성되거나, 또는 이들의 조합에 의해 구성되는 것을 거리 정보라고 할 때,
    상기 중앙 서버는 상기 스트레스 지수를 산출함에 있어서,
    상기 중앙 서버는 상기 고객 단말의 목소리 데이터가 입력되면, 목소리 데이터를 시간 단위로 분할하고, 목소리 데이터의 데시벨, 옥타브, 발화 속도를 각각의 미리 정해진 기준치와 비교하여 비교값을 산출하고, 상기 고객 단말 및 상기 헤드셋 장치로부터 수집한 목소리 데이터에서 고객의 공명 주파수와 상담원의 공명 주파수의 중복도를 판단하여 중복도를 산출하고, 산출된 비교값과 중복도를 이용하여 목소리 특성에 따른 스트레스 지수를 산출하고,
    상기 중앙 서버는 상기 고객 단말의 음성 데이터가 입력되면, 음성 데이터를 시간 단위로 분할하고, 분할된 음성 데이터를 텍스트 데이터로 변환하고, 텍스트 데이터를 문장 단위로 분리하고, 문장 내 각 단어를 식별하고, 각 단어 사이의 거리 정보를 추출하고, 감정어를 나타내는 단어인 감정어와 욕설 및 비속어를 포함하는 공격적인 단어인 공격어가 저장된 데이터베이스에 대상 단어가 존재하는지 여부를 확인하고, 대상 단어가 상기 데이터베이스에 존재하면, 추출한 거리정보를 이용하여 감정어 또는 공격어의 스트레스 지수를 산출하고,
    상기 중앙 서버는 상기 목소리 특성에 따른 스트레스 지수와 상기 감정어 또는 공격어의 스트레스 지수를 종합하여 최종 스트레스 지수를 산출하는 것을 특징으로 하는 상담 노동자를 위한 스트레스 대응 방법.
  8. 삭제
  9. 삭제
  10. 삭제
  11. 삭제
  12. 삭제
KR1020200121632A 2020-09-21 2020-09-21 상담 노동자를 위한 스트레스 대응 시스템 및 방법 KR102512285B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200121632A KR102512285B1 (ko) 2020-09-21 2020-09-21 상담 노동자를 위한 스트레스 대응 시스템 및 방법
PCT/KR2020/017259 WO2022059852A1 (ko) 2020-09-21 2020-11-30 상담 노동자를 위한 스트레스 대응 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200121632A KR102512285B1 (ko) 2020-09-21 2020-09-21 상담 노동자를 위한 스트레스 대응 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20220039041A KR20220039041A (ko) 2022-03-29
KR102512285B1 true KR102512285B1 (ko) 2023-03-22

Family

ID=80776881

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200121632A KR102512285B1 (ko) 2020-09-21 2020-09-21 상담 노동자를 위한 스트레스 대응 시스템 및 방법

Country Status (2)

Country Link
KR (1) KR102512285B1 (ko)
WO (1) WO2022059852A1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101795593B1 (ko) * 2016-09-19 2017-11-08 주식회사 부뜰정보시스템 전화상담원 보호 장치 및 그 방법

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010054568A (ja) * 2008-08-26 2010-03-11 Oki Electric Ind Co Ltd 感情識別装置、感情識別方法およびプログラム
KR20190061585A (ko) * 2017-11-28 2019-06-05 주식회사 위드마인드 음성 데이터 기반의 감정인식 시스템 및 그 동작 방법
KR102061725B1 (ko) 2018-01-05 2020-01-02 주식회사 옴니씨앤에스 정신 건강을 진단하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
KR20200025532A (ko) * 2018-08-30 2020-03-10 주민성 음성 데이터 기반의 감정 인식 시스템 및 그 응용 방법
KR20200005753A (ko) * 2020-01-06 2020-01-16 효성아이티엑스(주) 고객 응대용 감정 분석 장치
KR102212123B1 (ko) * 2020-06-15 2021-02-05 주식회사 켄트피엘티 상담원의 스트레스 모니터링 시스템

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101795593B1 (ko) * 2016-09-19 2017-11-08 주식회사 부뜰정보시스템 전화상담원 보호 장치 및 그 방법

Also Published As

Publication number Publication date
KR20220039041A (ko) 2022-03-29
WO2022059852A1 (ko) 2022-03-24

Similar Documents

Publication Publication Date Title
US10909152B2 (en) Predicting intent of a user from anomalous profile data
US10741176B2 (en) Customizing responses to users in automated dialogue systems
US8687792B2 (en) System and method for dialog management within a call handling system
CN102623011B (zh) 信息处理装置、信息处理方法及信息处理系统
US9483582B2 (en) Identification and verification of factual assertions in natural language
US20060095251A1 (en) System and method for computer analysis of computer generated communications to produce indications and warning of dangerous behavior
KR20190109614A (ko) 계층적으로 사용자 표현을 이해하고 답변을 생성하는 대화형 상담 챗봇 장치 및 방법
KR101795593B1 (ko) 전화상담원 보호 장치 및 그 방법
AU2019219717B2 (en) System and method for analyzing partial utterances
KR20200125526A (ko) 인공 신경망을 이용한 상담 서비스 품질 보증 방법과 상기 방법을 수행할 수 있는 컴퓨터 프로그램
US12002454B2 (en) Method and apparatus for intent recognition and intent prediction based upon user interaction and behavior
US11563852B1 (en) System and method for identifying complaints in interactive communications and providing feedback in real-time
US20200046285A1 (en) Detection of a sign of cognitive decline focusing on change in topic similarity over conversations
CN112182220A (zh) 基于深度学习的客服预警分析方法、系统、设备及介质
KR20230140722A (ko) 챗봇 기반의 인공지능 심리상담 방법 및 장치
CN114186041A (zh) 一种答案输出方法
KR102512285B1 (ko) 상담 노동자를 위한 스트레스 대응 시스템 및 방법
JP2017211586A (ja) 心理分析装置、心理分析方法、およびプログラム
US11763803B1 (en) System, method, and computer program for extracting utterances corresponding to a user problem statement in a conversation between a human agent and a user
Trujillo et al. Design of emergency call record support system applying natural language processing techniques
KR101890704B1 (ko) 음성 인식과 언어 모델링을 이용한 간편 메시지 출력장치 및 출력방법
CN113239164A (zh) 多轮对话流程构建方法、装置、计算机设备及存储介质
US11966709B2 (en) Apparatus and methods to contextually decipher and analyze hidden meaning in communications
Srinarong et al. A development of personality recognition model from conversation voice in call center context
KR102103563B1 (ko) 챗봇을 이용한 사용자 명령어의 태깅처리 시스템

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right