KR101243766B1 - 음성 신호를 이용하여 사용자의 성격을 판단하는 시스템 및 방법 - Google Patents

음성 신호를 이용하여 사용자의 성격을 판단하는 시스템 및 방법 Download PDF

Info

Publication number
KR101243766B1
KR101243766B1 KR1020110071863A KR20110071863A KR101243766B1 KR 101243766 B1 KR101243766 B1 KR 101243766B1 KR 1020110071863 A KR1020110071863 A KR 1020110071863A KR 20110071863 A KR20110071863 A KR 20110071863A KR 101243766 B1 KR101243766 B1 KR 101243766B1
Authority
KR
South Korea
Prior art keywords
user
personality
voice signal
signal
determining
Prior art date
Application number
KR1020110071863A
Other languages
English (en)
Other versions
KR20130011002A (ko
Inventor
권순일
Original Assignee
세종대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세종대학교산학협력단 filed Critical 세종대학교산학협력단
Priority to KR1020110071863A priority Critical patent/KR101243766B1/ko
Publication of KR20130011002A publication Critical patent/KR20130011002A/ko
Application granted granted Critical
Publication of KR101243766B1 publication Critical patent/KR101243766B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

음성 신호를 이용하여 사용자의 성격을 판단하는 시스템 및 방법이 제공된다. 음성 신호를 이용하여 사용자의 성격을 판단하는 시스템은, 사용자의 음성 신호를 수신하는 음성 신호 수신부; 상기 수신된 음성 신호의 특성을 측정하는 신호 특성 측정부; 및 상기 측정된 음성 신호의 특성에 기초하여 상기 사용자의 성격을 판단하는 사용자 성격 판단부;를 포함하며, 상기 신호 특성 측정부는, 상기 음성 신호에 포함된 묵음 구간의 길이를 측정하고, 상기 사용자 성격 판단부는 상기 측정된 묵음 구간의 길이에 기초하여 상기 사용자의 성격을 판단한다.

Description

음성 신호를 이용하여 사용자의 성격을 판단하는 시스템 및 방법 {SYSTEM AND METHOD FOR DECIDING USER’S PERSONALITY USING VOICE SIGNAL}
본 발명은 음성 신호를 이용하여 사용자의 성격을 판단하는 시스템 및 방법에 관한 것으로서, 보다 상세하게는, 사용자의 음성 신호의 신호 특성에 기초하여 사용자의 성격을 판단하는 시스템 및 방법에 관한 것이다.
최근 로봇 산업, 게임 산업, 그리고 교육 산업들과 관련하여 기능성 콘텐츠 시장은 매년 급성장을 이루고 있으며, 산업적으로뿐만 아니라 연구에 있어서도 도전 할만한 매력을 가지고 있는 분야이다. 하지만 기능성 콘텐츠에 활용되는 인터페이스와 관련된 원천과 응용 기술이 모두 취약하다. 이러한 난관을 극복하고 기능성 콘텐츠 신조류를 이용한 동반 성장을 위해서는 신개념 인터페이스 및 이를 적용한 콘텐츠 기획에 대한 집중적인 연구가 필요하다.
수십 년간 음성 신호가 포함하고 있는 말을 문자로 바꾸는 일인 음성 인식에 관한 연구와 말이 포함하고 있는 의미를 분석하는 자연어 처리 분야의 연구가 꾸준히 지속되어 왔고, 앞으로도 발전의 여지가 많다. 음성 신호에는 언어의 의미적 요소뿐만 아니라 화자, 즉 말하는 사람의 감정 같은 심리상태나 성격 등이 포함되어 있다. 특히 현실 공간과 가상 공간을 연결하기 위하여 가상 공간에서 현실의 상황을 정보화하고 이를 활용하여 사용자 중심의 지능화된 서비스를 제공하는 기술에 있어서, 사용자의 취향이나 감성을 효율적이고 정확하게 인지하기 위해서 인간의 사고 및 감성 정보를 추출 및 처리하는 기술이 요구된다.
한편, 선행 기술로서, 미국공개특허 제2008/0177540호에는 “Method and apparatus for recognizing reacting to user personality in accordance with speech recognition system”이라는 명칭의 발명이 개시되어 있는 바, 기설정된 단계의 질의에 대한 사용자의 답변 스피치를 형태학 및 구문론에 기초하여 분석하고 사용자의 성격을 판단하는 기술에 관한 것이다.
하지만, 상술한 선행 기술은 사용자의 음성 신호의 의미를 해석하여 사용자의 성격을 판단하고 있어, 사용자 성격의 판단에 복잡한 알고리즘이 필요하며 많은 리소스 자원이 낭비되는 문제가 있었다.
따라서, 사용자 음성 신호의 신호적 특성을 이용하여 효율적이면서도 정확하게 사용자의 성격을 판단할 수 있는 사용자 성격 판단 기술이 요구되고 있다.
본 발명의 일부 실시예는 사용자의 음성 신호에 포함된 언어적 정보를 사용하지 않고 사용자의 음성 신호의 신호적 특성을 이용하여 사용자의 성격을 판단할 수 있는, 사용자 성격 판단 시스템 및 방법을 제공한다.
또한, 본 발명의 일 실시예는 사용자의 음성 신호에 포함된 묵음 구간의 길이를 이용하여 사용자의 성격을 판단할 수 있는, 사용자 성격 판단 시스템 및 방법을 제공한다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면은, 사용자의 음성 신호를 수신하는 음성 신호 수신부; 상기 수신된 음성 신호의 특성을 측정하는 신호 특성 측정부; 및 상기 측정된 음성 신호의 특성에 기초하여 상기 사용자의 성격을 판단하는 사용자 성격 판단부;를 포함하며, 상기 신호 특성 측정부는, 상기 음성 신호에 포함된 묵음 구간의 길이를 측정하고, 상기 사용자 성격 판단부는 상기 측정된 묵음 구간의 길이에 기초하여 상기 사용자의 성격을 판단하는 것인, 사용자 성격 판단 시스템을 제공할 수 있다.
또한, 본 발명의 제 2 측면은, 사용자의 음성 신호를 수신하는 단계; 상기 수신된 음성 신호의 신호 특성을 측정하는 단계; 및 상기 측정된 특성에 기초하여 사용자의 성격을 판단하는 단계;를 포함하며, 상기 신호 특성을 측정하는 단계는 상기 수신된 음성 신호의 신호 세기 및 피치의 변화율을 측정하며, 상기 사용자의 성격을 판단하는 단계는 상기 측정된 신호 세기 및 피치의 변화율에 기초하여 사용자의 성격을 판단하는 것인, 사용자 성격 판단 방법을 제공할 수 있다.
전술한 본 발명의 과제 해결 수단에 의하면, 사용자의 음성 신호의 신호 특성을 이용하여 사용자의 음성을 해석하지 않더라도 효과적으로 사용자의 성격을 판단할 수 있다.
또한, 전술한 본 발명의 과제 해결 수단에 의하면, 사용자의 음성 신호에 포함된 묵음 구간에 관한 정보를 이용하여 사용자의 성격을 보다 정확하게 판단할 수 있다.
도 1은 본 발명의 일 실시예에 따른, 음성 신호를 이용하여 사용자의 성격을 판단하는 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 신호 특성 측정부의 세부 구성도이다.
도 3은 본 발명의 일 실시예에 따른 음성 신호를 이용한 사용자 성격 판단 방법의 세부 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 5-fold cross validation을 수행하여 예측력을 비교한 결과를 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 실험 결과에서 가장 높은 성능을 보인 F11 feature set에서 다룬 전체 음성 중 묵음 비율을 비교하여 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 실험 결과 중 F12 feature set에서 다루어진 일정 길이 이상의 묵음 구간의 발견 횟수를 비교한 도면이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른, 음성 신호를 이용하여 사용자의 성격을 판단하는 시스템의 구성도이다.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 음성 신호를 이용한 사용자 성격 판단 시스템은, 음성 신호 수신부(100), 신호 특성 측정부(200), 사용자 성격 판단부(300) 및 제어부(400)를 포함한다.
음성 신호 수신부(100)는 사용자의 음성 신호를 수신한다. 음성 신호 수신부(100)는 마이크 등의 장치를 통하여 사용자의 음성을 수신할 수도 있으나, 이에 제한되지 않으며, 외부 서버 또는 장치로부터 수집된 사용자의 음성 신호를 수신할 수도 있다.
또한, 음성 신호 수신부(100)는 사용자에게 질의를 제공하고 제공된 질의에 응답되는 사용자의 답변 음성을 수신할 수도 있다.
신호 특성 측정부(200)는 수신된 사용자의 음성 신호의 신호 특성을 측정한다. 신호 특성 측정부(200)는 사용자의 음성 신호의 언어적 특성(예를 들어, 음성의 의미)을 제외하고 비언어적인 특성을 측정할 수 있다. 신호 특성 측정부(200)는 사용자 음성 신호로부터 스피치 레이트(speech rate, 말의 빠르기), 피치의 변화 정도, 음성 신호의 세기 및 묵음 구간 중 적어도 하나 이상을 측정할 수 있다. 신호 특성 측정부(200)가 음성 신호의 특성을 측정하는 구체적인 방법에 관하여는 도2에서 보다 상세히 설명하기로 한다.
사용자 성격 판단부(300)는 측정된 사용자 음성 신호의 특성에 기초하여 사용자의 성격을 판단한다. 사용자 성격 판단부(300)는 사용자 음성 신호로부터 측정된 스피치 레이트(speech rate, 말의 빠르기), 피치의 변화 정도, 음성 신호의 세기 및 묵음 구간을 이용하여 사용자의 성격이 외향적인 성격인지 내향적인 성격인지를 판단할 수 있다.
사용자 성격 판단부(300)는 스피치 레이트 값에 기초하여 사용자의 말의 빠르기가 기 설정된 수치 이상인 경우에 외향적인 성격으로 판단할 수 있다.
또한, 사용자 성격 판단부(300)는 사용자 음성의 피치의 변화 정도에 기초하여 사용자의 성격을 판단할 수 있다. 이 경우, 사용자 성격 판단부(300)는 음성 피치의 절대 값을 고려하기 보다는 음성 피치의 평균값에 대한 상대적인 변화율을 이용하여 사용자의 성격을 판단할 수 있다. 예를 들어, 사용자 성격 판단부(300)는 음성 피치의 변화율이 평균 값에 비하여 기 설정된 수치 이상인 경우에 사용자가 외향적인 성격인 것으로 판단할 수 있다.
또한, 사용자 성격 판단부(300)는 사용자 음성의 신호 세기의 변화 정도에 기초하여 사용자의 성격을 판단할 수 있다. 이 경우, 사용자 성격 판단부(300)는 음성 신호 세기의 절대 값을 고려하기 보다는 음성 신호 세기의 평균값에 대한 상대적인 변화율을 이용하여 사용자의 성격을 판단할 수 있다. 예를 들어, 사용자 성격 판단부(300)는 음성 신호 세기의 변화율이 평균 값에 비하여 기 설정된 수치 이상인 경우에 사용자가 외향적인 성격인 것으로 판단할 수 있다.
또한, 사용자 성격 판단부(300)는 사용자 음성에 포함된 묵음 구간의 길이, 비율 및 장묵음(long silence interval) 발견 횟수에 기초하여 사용자의 성격을 판단할 수 있다. 사용자 성격 판단부(300)는 음성 신호 중에서 묵음 구간의 길이가 기 설정된 시간 이상으로 오랫동안 지속되거나 그 편차가 기 설정된 수치 이상인 경우에 내향적인 성격으로 판단할 수 있다. 또한, 사용자 성격 판단부(300)는 전체 음성 중에서 묵음 구간이 차지하는 비율이 기 설정된 수치 이상인 경우에 내향적인 성격으로 판단할 수 있다. 또한, 사용자 성격 판단부(300)는 일정 시간 이상의 묵음 구간이 발생한 횟수가 기 설정된 수치 이상인 경우에 사용자의 성격을 판단할 수 있다. 또한, 사용자 성격 판단부(300)가 사용자의 성격을 판단하는 기준은 다양한 실험에 의해 결정되어 설정될 수 있다.
제어부(400)는 사용자 성격 판단 시스템이 사용자의 음성 신호로부터 측정된 신호 특성에 기초하여 사용자의 성격을 판단할 수 있도록 음성 신호 수신부(100), 신호 특성 측정부(200), 및 사용자 성격 판단부(300)를 제어한다.
또한, 본 발명의 일 실시예에 따른 사용자 성격 판단 시스템은 별도의 장치로 구현되어 사용자로부터의 음성을 직접 수신하고 녹음할 수 있으나, 이에 제한되지 않으며, 별도의 서버로 구현되어 다양한 사용자 단말 또는 외부 서버로부터 사용자의 음선 신호를 수신할 수도 있다.
이하, 도 2를 참조하여 본 발명의 일 실시예에 따른 신호 특성 측정부(200)에 대하여 설명하기로 한다.
도 2는 본 발명의 일 실시예에 따른 신호 특성 측정부(200)의 세부 구성도이다.
도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 신호 특성 측정부(200)는 스피치 레이트 측정부(210), 피치 변화 측정부(220), 음성 크기 측정부(230), 및 묵음 구간 측정부(240)를 포함한다.
스피치 레이트 측정부(210)는 사용자의 음성 신호로부터 사용자의 스피치 레이트(speech rate, 말의 빠르기)를 측정한다. 스피치 레이트 측정부(210)는 단위시간 당 사용자가 얼마나 많은 단어 또는 음절을 말하였는지를 측정할 수 있다. 또한, 스피치 레이트 측정부(210)는 사용자가 어떤 의미의 말을 하였는지에 대한 언어적인 정보를 사용하지 않고, 비언어적 단서로써 발성된 음성 신호만을 가지고 말의 빠르기를 측정할 수 있다. 스피치 레이트 측정부(210)는, 예를 들어, i)입력신호를 반파 정류한 후 저역 필터를 통과시킨 후 100Hz로 Downsampling을 실시하고, ii)1초에서 2초 사이 길이의 윈도우를 75% 이상 겹친 움직임으로 신호에 적용하고, iii)이산 푸리에 변환(DFT)을 통해 단기 스펙트럼을 구하고, iv)스펙트럴 모멘트(Spectral Moment)를 계산하는 과정을 통하여, 사용자의 음성 신호로부터 말의 빠르기를 측정할 수 있다.
피치 변화 측정부(220)는 사용자의 음성 신호로부터 음성 피치의 변화를 측정한다. 피치 변화 측정부(220)는 음성 신호에서 W 길이의 데이터를 가지고 d 길이의 지연 간격마다 자기상관(autocorrelation) 계산을 수행할 수 있으며, 계산 결과 값들 중 반복적인 피크의 주기를 피치로 정할 수 있으며, 음성 신호에서의 피치의 변화 정도를 측정할 수 있다.
음성 크기 측정부(230)는 사용자의 음성 신호로부터 음성 신호의 세기를 측정한다. 음성 크기 측정부(230)는 음성 신호에 대한 에너지 스펙트럼을 분석함으로써 음성 신호의 세기를 측정할 수 있다.
묵음 구간 측정부(240)는 사용자의 음성 신호로부터 묵음 구간을 측정한다. 묵음 구간 측정부(240)는 배경 잡음만이 존재하는 음성 구간의 에너지 값에 기초하여 문턱치(Threshold) 값을 결정할 수 있으며, 문턱치 값 이하의 에너지를 갖는 구간을 묵음 구간으로 판단할 수 있다.
또한, 묵음 구간 측정부(240)는 사용자의 음성 신호를 묵음 구간과 유음 구간으로 구분하고, 각각의 길이를 계산하여 아래 [수학식 1]과 같이 변환할 수 있다.
Figure 112011055913245-pat00001
v: 유음 구간의 길이, s: 무음 구간의 길이
또한, 묵음 구간 측정부(240)는 위와 같이 변환된 데이터로부터, 예를 들어, 아래의 3가지 정보를 추출할 수 있다.
첫째, 묵음 구간 측정부(240)는 유음 구간과 묵음 구간의 길이가 얼마나 오랫동안 지속되고 그 편차가 얼마나 큰지에 관한 정보를 추출할 수 있다. 이와 관련하여, 묵음 구간 측정부(240)는, 아래 [수학식 2]와 같이, 유음/묵음 구간 길이의 평균값과 표준 편차를 산출할 수 있다.
Figure 112011055913245-pat00002
둘째, 묵음 구간 측정부(240)는 전체 음성 중에서 묵음 구간이 차지하는 비율을 아래의 [수학식 3]과 같이 산출할 수 있다.
Figure 112011055913245-pat00003
셋째, 묵음 구간 측정부(240)는 일정 시간 이상의 묵음 구간과 유음 구간의 발생 횟수를 추출할 수 있다. 묵음 구간 측정부(240)는, 예를 들어, 묵음 구간은 2초 이상 지속된 경우의 발생 횟수를 합산하고, 유음 구간은 3초 이상 지속된 경우의 발생 횟수를 합산할 수 있다.
이하, 도 3을 참조하여 본 발명의 일 실시예에 따른, 음성 신호를 이용한 사용자 성격 판단 방법에 대하여 설명하기로 한다.
도 3은 본 발명의 일 실시예에 따른 음성 신호를 이용한 사용자 성격 판단 방법의 세부 흐름도이다.
단계 S300은 사용자의 음성 신호를 수신하는 단계이다. 단계 S300에서는 마이크 등의 장치를 통하여 사용자의 음성을 수신할 수도 있으나, 이에 제한되지 않으며, 외부 서버 또는 장치로부터 수집된 사용자의 음성 신호를 수신할 수도 있다. 또한, 단계 S300에서는 사용자에게 질의를 제공하고 제공된 질의에 응답되는 사용자의 답변 음성을 수신할 수도 있다.
단계 S302는 사용자 음성 신호로부터 스피치 레이트를 측정하는 단계이다. 단위시간 당 사용자가 얼마나 많은 단어 또는 음절을 말하였는지를 측정할 수 있다. 또한, 단계 S302에서는 사용자가 어떤 의미의 말을 하였는지에 대한 언어적인 정보를 사용하지 않고, 비언어적 단서로써 발성된 음성 신호만을 가지고 말의 빠르기를 측정할 수 있다.
단계 S304는 사용자 음성 신호로부터 피치의 변화를 측정할 수 있다. 단계 S304에서는 음성 신호에서 W 길이의 데이터를 가지고 d 길이의 지연 간격마다 자기상관(autocorrelation) 계산을 수행할 수 있으며, 계산 결과 값들 중 반복적인 피크의 주기를 피치로 정할 수 있으며, 음성 신호에서의 피치의 변화 정도를 측정할 수 있다.
단계 S306은 사용자의 음성 신호로부터 음성의 크기를 측정하는 단계이다. 단계 S306에서는 음성 신호에 대한 에너지 스펙트럼을 분석함으로써 음성 신호의 세기를 측정할 수 있다.
단계 S308은 사용자의 음성 신호로부터 묵음 구간에 관한 정보를 측정하는 단계이다. 단계 S308에서는, 배경 잡음만이 존재하는 음성 구간의 에너지 값에 기초하여 문턱치(Threshold) 값을 결정할 수 있으며, 문턱치 값 이하의 에너지를 갖는 구간을 묵음 구간으로 판단할 수 있다. 또한, 단계 S308에서는 유음 구간과 묵음 구간이 얼마나 오랫동안 지속되고 그 편차가 얼마인지에 관한 정보, 전체 음성 중에서 묵음 구간이 차지하는 비율, 일정 시간 이상의 묵음 구간과 유음 구간의 발생 횟수를 산출할 수 있다.
단계 S310은 사용자의 음성 신호의 특성에 기초하여 사용자의 성격을 판단하는 단계이다. 단계 S310에서는 사용자 음성 신호로부터 측정된 스피치 레이트(speech rate, 말의 빠르기), 피치의 변화 정도, 음성 신호의 세기 및 묵음 구간에 관한 정보를 이용하여 사용자의 성격이 외향적인 성격인지 내향적인 성격인지를 판단할 수 있다.
또한, 단계 S310에서는, 스피치 레이트 값에 기초하여 사용자의 말의 빠르기가 기 설정된 수치 이상인 경우에 외향적인 성격으로 판단할 수 있다.
또한, 단계 S310에서는, 사용자 음성의 피치의 변화 정도에 기초하여 사용자의 성격을 판단할 수 있다. 이 경우, 음성 피치의 절대 값을 고려하기 보다는 음성 피치의 평균값에 대한 상대적인 변화율을 이용하여 사용자의 성격을 판단할 수 있다. 예를 들어, 사용자 성격 판단부(300)는 음성 피치의 변화율이 기 설정된 수치 이상인 경우에 외향적인 성격으로 판단할 수 있다.
또한, 단계 S310에서는, 사용자 음성의 신호 세기의 변화 정도에 기초하여 사용자의 성격을 판단할 수 있다. 이 경우, 음성 신호 세기의 절대 값을 고려하기 보다는 음성 신호 세기의 평균값에 대한 상대적인 변화율을 이용하여 사용자의 성격을 판단할 수 있다. 예를 들어, 사용자 성격 판단부(300)는 음성 신호 세기의 변화율이 기 설정된 수치 이상인 경우에 외향적인 성격으로 판단할 수 있다.
또한, 단계 S310에서는, 사용자 음성에 포함된 묵음 구간의 길이, 비율 및 장묵음(long silence interval) 발견 횟수에 기초하여 사용자의 성격을 판단할 수 있다. 예를 들어, 음성 신호 중에서 묵음 구간의 길이가 기 설정된 시간 이상으로 오랫동안 지속되거나 그 편차가 기 설정된 수치 이상인 경우에 내향적인 성격으로 판단할 수 있다. 또한, 전체 음성 중에서 묵음 구간이 차지하는 비율이 기 설정된 수치 이상인 경우에 외향적인 성격으로 판단할 수 있다. 또한, 일정 시간 이상의 묵음 구간이 발생한 횟수가 기 설정된 수치 이상인 경우에 사용자의 성격을 판단할 수 있다.
실험 결과
사용자의 성격과 음성 신호 특성과의 상관성을 분석해보기 위해 우선 1차 테스트로 사용자가 외향적인지 내향적인지를 판단하기 위한 기준 문항을 마련하여 성격 검사를 실시하였다. 이 검사는 10가지 문항으로 구성된 온라인 설문 조사를 통해 이루어졌다. 설문 조사의 참가 자격은 20세에서 29세 사이의 남녀 대학생이었고, 총 138명의 학생들 중 1점부터 5점에 해당되는 내향성 학생들 20명과 8점부터 10점의 외향성 학생들 20명을 선발하였고, 이후 2차 테스트를 실시하였다.
40명의 학생들에게 실시된 2차 테스트는 음성녹음을 위해 질의응답의 인터뷰 방식으로 진행하였다. 질문자가 실험자에게 가족과 일상생활에 관련된 5가지씩 두 번에 걸쳐 준비된 질문을 하고 실험대상 학생이 대답하게 하였고, 자연스러운 대화와 글을 읽을 때의 다른 점을 분석하기 위해 약 30초정도 길이 정도의 글을 두 가지로 만들어서 읽어보도록 하였다. 그리하여 총 160개, 약 280분 길이의 음성 데이터 set으로 실험하였다. 모든 음성 데이터는 16khz의 샘플링 주파수와 mono 채널, 16bits로 양자화 되었다. 데이터 녹음은 조용한 실험실 환경에서 이루어졌다.
또한, 획득된 음성 데이터로부터 모두 12개의 feature set을 추출하였다. 실험 type에 따라 Reading 과 Q&A로 나누었고, 각각의 type에서 과거의 연구에서 주로 사용되었던 음성 특성인 말의 빠르기(Speech Rate), Fundamental frequency(f0), Energy를 우선적으로 추출하였고, 이번 연구에서 중점적 분석대상인 Silence와 관련된 특성으로 묵음 구간의 길이, 비율, 장묵음 (long silence interval) 발견 횟수 등 3가지 feature를 구성하였다.
Figure 112011055913245-pat00004
[표 1]은 이번 실험에서 이용한 12가지의 feature set와 각각의 의미를 설명한 표이다. 각각의 feature set은 변수 별로 0부터 1사이의 값으로 정규화(normalization) 하였다. C-SVC에서 데이터를 정규화 하는 목적은 값이 큰 변수가 작은 변수들을 압도하여 더 큰 영향력을 행사하는 것을 막기 위함이다. 정규화를 통해 각각의 변수가 동등하게 target variable에 영향을 미치도록 하였다.
C-SVC를 이용한 실험에서 사전에 필요한 것은 kernel function을 선택하는 것과, parameter값을 결정하는 일이다. Linear kernel 을 이용할 경우에는 Penalty parameter인 C만을 결정하면 되지만, 이번 실험에서는 Nonlinear kenel 인 RBF를 이용하기 때문에, 값도 결정되어야 했다. C와 의 최적 값을 찾기 위해, -10부터 10까지 1씩 증가시키는 grid search 방법을 통해 각각의 feature set 별로 최적 값을 탐색하였으며, 최적 값은 C=25, =22 으로 탐색되었다.
도 4는 본 발명의 일 실시예에 따른 총 12개의 feature set 에 대해 5-fold cross validation을 수행하여 예측력을 비교한 결과를 도시한 도면이다.
전체적으로 Reading과 Q&A로 나누어 보면 평균적으로 각각 65.4%와 69.0%로 나타났고, 이는 Q&A에서 발화자의 성격이 더 반영이 되는 것으로 분석할 수 있다. Feature 측면에서는 Reading과 Q&A와 관계없이 Energy의 통계치가 평균 72.5%로 높은 정확도를 보였는데, 이는 기대한 것처럼 외향적인 사람이 목소리가 크다고 분석할 수 있다. 하지만 이는 물리적으로 목소리가 클 수도 있지만 심리적으로 적극적인 발화 행태에 기인한 것으로 생각할 수도 있겠다. 이 실험에서 발화자의 성격이 가장 잘 반영된 것으로는 F11인 Q/A 시 전체 구간 중 묵음 구간의 비율로 accuracy가 76.25%로 가장 높게 나왔으며, Q&A의 silence 관련 feature들인 F10, F11, F12가 높은 정확도를 보여주었다.
결론적으로 Q&A와 같은 자연스러운 대화 시에 묵음과 관련된 여러 가지 통계 자료가 발화자의 성격을 가장 잘 반영하였다. Reading은 모든 피실험자가 동일한 script를 읽게 되어 피실험자의 성향이 반영될 여지가 많지 않지만, Q&A 실험에서는 피실험자의 응답이 모두 다르게 나올 뿐만 아니라 사용자의 성격적인 성향이 질문에 대한 응답이라는 행태 속에 반영이 되는 것으로 분석되었다. 특히 sound/ silence 길이와 비율에 영향을 미치게 됨을 실험 결과를 통해 알 수 있었다.
도 5는 앞선 실험 결과에서 가장 높은 성능을 보인 F11 feature set에서 다룬 전체 음성 중 묵음 비율을 비교하여 도시한 도면이다.
Reading 실험에서는 내향/외향과 상관없이 거의 비슷한 묵음 비율을 보였지만, Q&A 실험에서는 외향적 피실험자들의 묵음 비율이 내향적인 피실험자의 묵음 비율과 많이 차이가 나는 것을 볼 수 있었다. 이는 피실험자에게 주어지는 자유도(Degree of Freedom)가 높은 Q&A 실험에서 외향적인 사람은 말의 비중이 상대적으로 높고, 내향적인 사람은 말을 하지 않는 시간이 상대적으로 길다는 것을 알 수 있었다. 이러한 특성이 내향적/외향적 사람을 구분해내는 예측변수로 중요한 역할을 한다는 것을 이번 실험을 통해 알 수 있다.
도 6은 F12 feature set에서 다루어진 일정 길이 이상의 묵음 구간의 발견 횟수를 비교한 그림이다. 본 실험에서는 2초 이상 묵음이 지속된 경우의 횟수를 사용자별로 합산 하였다. 좌측은 외향적 피실험자들의 묵음 구간의 발견 횟수이고, 우측은 내향적 피시험자들의 묵음 구간 발견 횟수이다. 외향적 그룹은 대부분 0에서 3회까지가 대부분이어서 평균 값은 1.1회로 나왔고, 내향적 그룹은 3회 이상 발견된 경우가 많아 평균값은 3.2회로 나왔다. 이는 내향적인 사람들이 외향적인 사람들에 비해 장시간 말을 하지 않는 횟수가 많음을 의미하며, 머뭇거림의 또 다른 지표로써 성격을 구분하는 중요한 변수로 이용될 수 있음을 보여준다.
위와 같은 실험 결과에서 알 수 있는 바와 같이, 본 발명의 일 실시예에 따른 사용자 성격 판단 시스템 밍 방법에서는 사용자의 음성을 언어적으로 분석하지 않더라도 사용자의 음성 신호로부터 스피치 레이트, 피치 변화, 음성 크기 및 묵음 구간을 측정하고 이용함으로써 사용자의 성격을 보다 정확하게 판단할 수가 있다.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (12)

  1. 음성 신호를 이용하여 사용자의 성격을 판단하는 시스템에 있어서,
    사용자의 음성 신호를 수신하는 음성 신호 수신부;
    상기 수신된 음성 신호의 특성을 측정하는 신호 특성 측정부; 및
    상기 측정된 음성 신호의 특성에 기초하여 상기 사용자의 성격을 판단하는 사용자 성격 판단부;
    를 포함하며,
    상기 신호 특성 측정부는, 상기 음성 신호에 포함된 묵음 구간의 길이를 측정하며,
    상기 사용자 성격 판단부는, 상기 측정된 묵음 구간의 길이에 기초하여 상기 사용자의 성격을 판단하는 것인, 사용자 성격 판단 시스템.
  2. 제 1 항에 있어서,
    상기 사용자 성격 판단부는, 상기 음성 신호의 전체 구간 중 상기 묵음 구간이 차지하는 비율에 기초하여 상기 사용자의 성격을 판단하는 것인, 사용자 성격 판단 시스템.
  3. 제 1 항에 있어서,
    상기 사용자 성격 판단부는, 상기 음성 신호에서 기 설정된 수치 이상의 길이를 갖는 묵음 구간의 개수에 기초하여 상기 사용자의 성격을 판단하는 것인, 사용자 성격 판단 시스템.
  4. 제 1 항에 있어서,
    상기 신호 특성 측정부는 상기 음성 신호로부터 사용자의 말의 빠르기를 측정하며, 상기 사용자 성격 판단부는 상기 측정된 사용자의 말의 빠르기에 기초하여 상기 사용자의 성격을 판단하는 것인, 사용자 성격 판단 시스템.
  5. 제 1 항에 있어서,
    상기 신호 특성 측정부는 상기 음성 신호로부터 피치의 변화 값 및 신호 세기의 변화 값을 측정하고, 상기 사용자 성격 판단부는 상기 측정된 피치 변화 값 및 신호 세기 변화 값의 변화율에 기초하여 상기 사용자의 성격을 판단하는 것인, 사용자 성격 판단 시스템.
  6. 제 1 항에 있어서,
    상기 사용자 성격 판단부는, 상기 사용자의 성격을 외향적인 성격과 내향적인 성격으로 구분하여 판단하는 것인, 사용자 성격 판단 시스템.
  7. 사용자 성격 판단 시스템이 사용자의 음성 신호에 기초하여 사용자의 성격을 판단하는 방법에 있어서,
    사용자의 음성 신호를 수신하는 단계;
    상기 수신된 음성 신호의 신호 특성을 측정하는 단계; 및
    상기 측정된 특성에 기초하여 사용자의 성격을 판단하는 단계;
    를 포함하며,
    상기 신호 특성을 측정하는 단계는 상기 수신된 음성 신호의 신호 세기 및 피치의 변화율을 측정하며, 상기 수신된 음성 신호에 포함된 묵음 구간의 길이를 측정하고,
    상기 사용자의 성격을 판단하는 단계는 상기 측정된 신호 세기, 상기 측정된 피치의 변화율, 및 상기 측정된 묵음 구간의 길이에 기초하여 사용자의 성격을 판단하는 것인, 사용자 성격 판단 방법.
  8. 삭제
  9. 제 7 항에 있어서,
    상기 사용자의 성격을 판단하는 단계는, 상기 음성 신호의 전체 구간 중 상기 묵음 구간이 차지하는 비율에 기초하여 상기 사용자의 성격을 판단하는 것인, 사용자 성격 판단 방법.
  10. 제 7 항에 있어서,
    상기 사용자의 성격을 판단하는 단계는, 상기 음성 신호에서 기 설정된 수치 이상의 길이를 갖는 묵음 구간의 개수에 기초하여 상기 사용자의 성격을 판단하는 것인, 사용자 성격 판단 방법.
  11. 제 7 항에 있어서,
    상기 신호 특성을 측정하는 단계는, 상기 음성 신호로부터 사용자의 말의 빠르기를 측정하며, 상기 사용자 성격을 판단하는 단계는 상기 측정된 사용자의 말의 빠르기에 기초하여 상기 사용자의 성격을 판단하는 것인, 사용자 성격 판단 방법.
  12. 제 7 항에 있어서,
    상기 사용자의 성격을 판단하는 단계는, 상기 사용자의 성격을 외향적인 성격과 내향적인 성격으로 구분하여 판단하는 것인, 사용자 성격 판단 방법.
KR1020110071863A 2011-07-20 2011-07-20 음성 신호를 이용하여 사용자의 성격을 판단하는 시스템 및 방법 KR101243766B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110071863A KR101243766B1 (ko) 2011-07-20 2011-07-20 음성 신호를 이용하여 사용자의 성격을 판단하는 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110071863A KR101243766B1 (ko) 2011-07-20 2011-07-20 음성 신호를 이용하여 사용자의 성격을 판단하는 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20130011002A KR20130011002A (ko) 2013-01-30
KR101243766B1 true KR101243766B1 (ko) 2013-03-15

Family

ID=47840048

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110071863A KR101243766B1 (ko) 2011-07-20 2011-07-20 음성 신호를 이용하여 사용자의 성격을 판단하는 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR101243766B1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101418903B1 (ko) * 2013-03-08 2014-07-11 세종대학교산학협력단 사용자 성격 맞춤형 학습 도구 제공 장치 및 방법
KR102319013B1 (ko) * 2020-01-31 2021-10-29 한국과학기술원 대화문 발화 성격 인식 방법 및 시스템
KR102464190B1 (ko) * 2020-11-05 2022-11-09 한국과학기술원 대화 상대와 사용자의 성격 정보를 고려한 대화 상대에 대한 신뢰 정도 예측 시스템 및 그 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002023524A1 (fr) * 2000-09-13 2002-03-21 A.G.I.Inc. Procédé de reconnaissance d'émotion, procédé de création de sensibilité, dispositif, et logiciel
KR20080052129A (ko) * 2006-12-06 2008-06-11 한국전자통신연구원 화자의 음성 특징 정보를 이용한 화자 정보 획득 시스템 및그 방법
KR20080086791A (ko) * 2007-03-23 2008-09-26 엘지전자 주식회사 음성 기반 감정 인식 시스템
KR20100088461A (ko) * 2009-01-30 2010-08-09 삼성전자주식회사 음성 신호를 이용한 감정 인식 장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002023524A1 (fr) * 2000-09-13 2002-03-21 A.G.I.Inc. Procédé de reconnaissance d'émotion, procédé de création de sensibilité, dispositif, et logiciel
KR20080052129A (ko) * 2006-12-06 2008-06-11 한국전자통신연구원 화자의 음성 특징 정보를 이용한 화자 정보 획득 시스템 및그 방법
KR20080086791A (ko) * 2007-03-23 2008-09-26 엘지전자 주식회사 음성 기반 감정 인식 시스템
KR20100088461A (ko) * 2009-01-30 2010-08-09 삼성전자주식회사 음성 신호를 이용한 감정 인식 장치 및 방법

Also Published As

Publication number Publication date
KR20130011002A (ko) 2013-01-30

Similar Documents

Publication Publication Date Title
EP3160334B1 (en) Speech-based assessment of a patient's state-of-mind
Ramakrishnan Recognition of emotion from speech: A review
US10573307B2 (en) Voice interaction apparatus and voice interaction method
Islam et al. A robust speaker identification system using the responses from a model of the auditory periphery
US8326610B2 (en) Producing phonitos based on feature vectors
Gillick et al. Robust Laughter Detection in Noisy Environments.
Hirson et al. Speech fundamental frequency over the telephone and face-to-face: Some implications for forensic phonetics 1
Ghaemmaghami et al. Noise robust voice activity detection using features extracted from the time-domain autocorrelation function
Dubey et al. Bigear: Inferring the ambient and emotional correlates from smartphone-based acoustic big data
Solomon et al. Objective methods for reliable detection of concealed depression
López-Pabón et al. Cepstral analysis and Hilbert-Huang transform for automatic detection of Parkinson’s disease
Wood Social context influences the acoustic properties of laughter
Chenchah et al. A bio-inspired emotion recognition system under real-life conditions
Pao et al. Combining acoustic features for improved emotion recognition in mandarin speech
Stefanus et al. GMM based automatic speaker verification system development for forensics in Bahasa Indonesia
KR101243766B1 (ko) 음성 신호를 이용하여 사용자의 성격을 판단하는 시스템 및 방법
Vergyri et al. Speech-based assessment of PTSD in a military population using diverse feature classes
US9754593B2 (en) Sound envelope deconstruction to identify words and speakers in continuous speech
Harrison Variability of formant measurements
Zouhir et al. A bio-inspired feature extraction for robust speech recognition
Nandwana et al. Analysis and identification of human scream: implications for speaker recognition.
Varela et al. Combining pulse-based features for rejecting far-field speech in a HMM-based voice activity detector
Karhila et al. HMM-based speech synthesis adaptation using noisy data: Analysis and evaluation methods
Montalvão et al. Is masking a relevant aspect lacking in MFCC? A speaker verification perspective
KR102319101B1 (ko) 쉰목소리 잡음 제거시스템

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170209

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee