KR20070042595A - 사용자의 감정상태에 따른 통화배경음 출력방법 - Google Patents

사용자의 감정상태에 따른 통화배경음 출력방법 Download PDF

Info

Publication number
KR20070042595A
KR20070042595A KR1020050098382A KR20050098382A KR20070042595A KR 20070042595 A KR20070042595 A KR 20070042595A KR 1020050098382 A KR1020050098382 A KR 1020050098382A KR 20050098382 A KR20050098382 A KR 20050098382A KR 20070042595 A KR20070042595 A KR 20070042595A
Authority
KR
South Korea
Prior art keywords
user
background sound
call
call background
emotional state
Prior art date
Application number
KR1020050098382A
Other languages
English (en)
Other versions
KR100743037B1 (ko
Inventor
김형수
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020050098382A priority Critical patent/KR100743037B1/ko
Publication of KR20070042595A publication Critical patent/KR20070042595A/ko
Application granted granted Critical
Publication of KR100743037B1 publication Critical patent/KR100743037B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/16Communication-related supplementary services, e.g. call-transfer or call-hold
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/20Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Child & Adolescent Psychology (AREA)
  • Psychiatry (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Telephonic Communication Services (AREA)

Abstract

본 발명은 전화통화시 사용자 또는 사용자의 통화 상대방에게 출력되는 통화배경음에 관한 것으로 특히, 사용자의 감정상태에 따라 통화배경음을 변경하여 출력하는 방법에 관한 것이다.
본 발명은 감정상태에 따른 통화배경음을 지정하는 통화배경음 지정단계; 통화시에 사용자의 음성을 전화기의 송화기로 입력하는 음성입력단계; 상기 음성입력단계에서 입력된 음성의 특성을 분석하는 음성분석단계; 상기 음성분석단계에서 분석한 음성의 특성을 이용하여 상기 사용자의 감정상태를 판단하는 감정상태판단단계; 및 상기 감정상태판단단계에서 판단한 사용자의 감정상태에 따른 상기 통화배경음 지정단계에서 지정된 통화배경음을 전화기의 수화기로 감정상태 판단의 대상인 사용자 또는 사용자의 통화 상대방에게 출력하는 통화배경음 출력단계를 포함하는 것을 특징으로 한다.
본 발명에 의하면 사용자의 감정상태에 따라 다양한 통화배경음을 사용자나 상대방에게 출력하여 통화의 즐거움을 더해줄 수 있는 이점이 있다.
통화배경음, 음성, 감정상태

Description

사용자의 감정상태에 따른 통화배경음 출력방법{A Method For Playing Background Music According to Emotional State of Caller}
도 1은 본 발명이 적용되는 전화기의 구조를 나타내는 블럭도.
도 2는 본 발명에 사용되는 장치들의 구성도.
본 발명은 전화통화시 사용자 또는 사용자의 통화 상대방에게 출력되는 통화배경음에 관한 것으로 특히, 사용자의 감정상태에 따라 통화배경음을 변경하여 출력하는 방법에 관한 것이다.
통화배경음이란 전화통화를 하는 경우 사용자의 음성신호 외에 사용자에게 출력되는 음악이나 효과음 등의 음향을 말한다. 현재 이동통신 서비스 업체에서 이러한 통화배경음 서비스를 실시하고 있다.
현재 실시되고 있는 통화배경음 서비스는 사용자가 지정한 배경음을 사용자와 통화하는 상대방에게 들려주는 방식으로 되어 있다. 상대방에게 통화배경음을 출력하려면 사용자가 미리 이러한 서비스를 이용할 것으로 신청하고 출력될 통화배경음을 지정해 두어야 한다. 그리고 서비스를 신청한 사용자가 통화를 하기 전에 일정한 명령을 입력하여 전화를 걸면 통화시에 통화배경음이 통화 상대방에게 출력된다.
통화도중 전화기의 일정한 버튼을 눌러 통화배경음의 음량을 조절하거나 정지시키는 기능도 있고, 여러 개의 통화배경음을 지정해 둔 경우 통화도중 전화기의 일정한 버튼을 눌러 다음 통화배경음이나 이전의 통화배경음을 출력하게 하는 기능도 있다.
그러나, 이와 같은 종래의 통화배경음 서비스에서는 사용자의 감정상태에 따라 다른 통화배경음을 출력하는 기능은 없다.
본 발명은 상기와 같은 종래기술의 문제점을 해결하기 위해 창안된 것이다. 즉, 본 발명은 통화시 사용자에게 출력되는 통화배경음을 사용자의 감정상태에 따라 변경하는 방법을 제안하는 것을 목적으로 한다.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 사용자의 감정상태에 따른 통화배경음 출력방법은 감정상태에 따른 통화배경음을 지정하는 통화배경음 지정단계; 통화시에 사용자의 음성을 전화기의 송화기로 입력하는 음성입력단계; 상기 음성입력단계에서 입력된 음성의 특성을 분석하는 음성분석단계; 상기 음성분석단계에서 분석한 음성의 특성을 이용하여 상기 사용자의 감정상태를 판단하는 감정상태판단단계; 및 상기 감정상태판단단계에서 판단한 사용자의 감정상태에 따른 상기 통화배경음 지정단계에서 지정된 통화배경음을 전화기의 수화기로 감정상태 판 단의 대상인 사용자 또는 사용자의 통화 상대방에게 출력하는 통화배경음 출력단계를 포함하는 것을 특징으로 한다.
여기서, 상기 통화배경음 지정단계에서 지정되는 통화배경음은 감정상태를 조절하는 데 도움이 되는 음악이고, 상기 통화배경음으로 지정된 음악이 상기 통화배경음 출력단계에서 통화배경음으로 감정상태 판단의 대상인 사용자에게 출력되는 것을 특징으로 하거나,
상기 통화배경음 지정단계에서 지정되는 통화배경음은 감정상태를 표현하는 음악이고, 상기 통화배경음으로 지정된 음악이 상기 통화배경음 출력단계에서 통화배경음으로 사용자의 통화 상대방에게 출력되는 것을 특징으로 할 수 있다.
또한, 상기 음성분석단계에서 분석되고 상기 감정상태판단단계에서 이용되는 음성의 특성은 음성의 피치, 에너지, 포먼트, 주파수인 것을 특징으로 하며,
상기 통화배경음 출력단계에서, 감정상태 판단의 대상인 사용자 또는 사용자의 통화 상대방에게 출력되는 통화배경음은 감정상태 판단의 대상인 사용자의 전화기, 사용자의 통화 상대방의 전화기, 본 발명에 따른 서비스 제공자의 서버 중 어느 하나에 저장되어 있는 것을 특징으로 한다.
상기 통화배경음 출력단계에서 감정상태 판단의 대상인 사용자와 사용자의 통화 상대방 모두에게 통화배경음이 출력되는 것을 특징으로 할 수도 있다.
본 발명은 전화통화시 사용자의 감정상태를 분석하여 사용자의 감정상태에 따라 다른 통화배경음을 출력하는 것을 기본적인 기술적 사상으로 한다.
본 발명은 크게 사용자의 감정상태를 판단하는 부분과 판단된 사용자의 감정 상태에 따라 통화배경음을 출력하는 부분으로 구성된다.
먼저, 사용자의 감정상태를 판단하는 부분에 대해 설명한다.
인간의 생리현상을 통해 인간의 감정상태를 판단하는 방법이 다수 제안되어 있으나 전화통화시에 전화기(유선 전화기, 무선 전화기, 이동통신 단말기 등 모든 종류의 전화기를 포함)에서 사용자의 감정상태를 판단하는 가장 용이한 방법은 음성을 분석하는 것이므로 본 발명에서는 사용자의 음성을 분석하여 사용자의 감정상태를 파악하는 방법을 제안한다.
음성을 통해 감정상태를 파악하는 방법 중에는 각 감정상태에 따른 음성을 연령별, 성별로 수집하여 분석한 음성의 특성치를 이용하는 방법이 있다. 이 방법은 불특정 다수인의 감정상태에 따른 음성을 수집하여 각 감정에 따라 수집한 음성의 특성치 패턴을 분석하여 데이터베이스화하여 두고 감정상태를 판단하는 대상이 되는 사람의 음성의 특성치를 상기 분석된 패턴과 비교하여 음성을 입력한 사람의 감정상태를 분석하는 방법이다. 본 발명에는 이러한 방법을 통해 음성으로 감정상태를 판단한다.
이때 사용하는 음성의 특성치에는 음성의 피치(pitch), 에너지(energy), 포먼트(formant), 주파수(frequency) 등이 있을 수 있다. 불특정 다수인의 음성을 통해 특성치의 패턴을 분석하는 과정에서 불특정 다수인을 연령대, 성별 등으로 분류하여 감정상태에 따른 음성의 피치, 에너지, 포먼트, 주파수 등을 통해 음성 특성치의 패턴을 분석한다. 이렇게 분석한 음성 특성치의 패턴은 데이터베이스화되어 감정상태을 판단하는 기준으로 사용된다. 특성치 데이터베이스를 만드는 경우 음성 의 특성치는 연령대, 성별이 분류되어 저장된다. 예를 들어, '기쁨'이라는 감정에 대해 10대 남성의 특성치, 10대 여성의 특성치, 20대 남성의 특성치, 20대 여성의 특성치, 30대 남성의 특성치, 30대 여성의 특성치 등의 정보가 데이터베이스에 저장된다. 감정상태를 판단할 때 여기에 해당하는 특성치를 가진 음성이 입력되는 경우 음성 입력자의 감정상태를 '기쁨'으로 판단한다.
이하, 본 발명에 적용되는 전화기의 구조를 통해 본 발명에 대해 설명한다. 도 1은 본 발명이 적용되는 전화기의 구조를 나타내는 블럭도이다.
본 발명에 적용되는 전화기(110)는 통신망 연결부(111), 제어부(112), 메모리(113), 음성출력부(114), 음성입력부(115), 음성분석부(116) 및 사용자 인터페이스(117)를 포함하여 구성된다.
도 1에 나타난 전화기의 구성요소는 본 발명을 설명하는 데 필요한 부분만 도시한 것이므로, 도 1에 나타나 있지 않은 부분도 전화기를 구성하는데 필요한 구성요소이면 본 발명에 적용되는 전화기의 구성요소로 포함될 수 있다.
상기 통신망 연결부(111)는 전화기의 본래 기능인 통화 음성신호를 통신망(120)으로 전송하는 역할을 한다. 도 1의 전화기(110)가 PSTN(Public Switched Telephone Network) 등 공중통신망을 이용하는 전화기인 경우에는 통신망연결부(111)에는 전화선이 연결되는 부분이고 전화기(110)가 CDMA(Code Division Multiple Access) 등 이동통신망을 이용하는 이동통신 단말기인 경우에는 통신망연결부(110)는 무선주파수를 송수신하는 무선주파수 송수신부이다.
상기 통신망 연결부(111)는 제어부(112)와 연결되어 있어 수신한 신호를 제 어부(112)로 전송하거나 송신할 신호를 제어부(112)로부터 전송받는다. 특히 본 발명에서는 사용자의 감정상태에 대한 정보를 송수신하거나 통화배경음 데이터를 송수신하는 역할을 한다.
상기 제어부(112)는 전화기(110)를 구성하는 모든 부분과 연결되고 전화기(110)의 전반적인 동작을 제어하는 역할을 한다. 본 발명에서는 사용자의 음성을 통해 사용자의 감정상태를 분석하고 필요한 정보들을 통신망(120)을 통해 송수신하도록 제어하는 역할을 한다.
상기 메모리(113)는 제어부(112)에 연결되어 있고 전화기에서 사용하는 각종 정보를 저장해 두는 저장공간이다. 본 발명에서는 통화배경음 데이터, 감정상태에 따른 음성 특성치 데이터베이스 등이 저장되어 있을 수 있다.
상기 음성출력부(114)는 사용자에게 사용자의 통화 상대방의 음성을 출력하는 부분으로 수화기(도시되지 않음)를 포함한다. 사용자의 통화 상대방의 음성신호는 통신망(120)을 통해 전화기(110)의 통신망연결부(111)에 도달하여 제어부(112)를 거쳐 음성출력부(114)에서 사용자에게 출력된다. 본 발명에서는 사용자의 통화 상대방의 음성 외에 통화배경음을 출력하는 역할도 담당한다.
상기 음성입력부(115)는 사용자의 음성을 입력받는 부분으로 송화기(도시되지 않음)를 포함한다. 사용자의 음성은 음성입력부(115)로 입력되어 제어부(112)를 거쳐 통신망연결부(111)를 통해 통신망(120)으로 전송된다. 본 발명에서는 사용자의 음성을 통해 감정상태를 분석하기 위해 음성을 입력받는 역할도 한다.
상기 음성분석부(116)는 음성입력부(115)로 입력되는 사용자의 음성을 분석 하는 역할을 한다. 음성분석부(116)에서 사용자의 음성의 피치, 에너지, 포먼트, 주파수 등을 측정한다. 이렇게 측정된 사용자의 음성에 대한 정보는 제어부(112)로 전송되고 제어부(112)에서는 메모리(113)에 저장되어 있는 감정상태에 따른 음성 특성치 데이터베이스와 비교하여 사용자의 현재 감정상태를 판단한다. 도 1에서는 음성분석부(116)를 제어부(112)와 별도의 구성요소로 도시하였지만 제어부(112)에 내장될 수도 있다.
상기 사용자 인터페이스(117)는 전화기(110)에서 사용자의 명령을 입력받고 사용자에게 전화기(110)의 정보를 표시하는 역할을 하는 부분이다. 사용자 인터페이스(117)에는 전화번호를 입력받는 키패드, 전화기의 상태를 표시하는 디스플레이창 등이 포함될 수 있다.
이하, 도 1 및 도 2를 참조하여 본 발명의 동작에 대해 설명한다.
도 2는 본 발명에 사용되는 장치들의 구성도를 나타낸다.
본 발명은 통화중에 적용되는 것이므로 두 개의 전화기가 있어야 한다. 도 2를 보면 감정상태 판단의 대상인 사용자의 전화기(110)와 사용자의 통화 상대방의 전화기(130)가 나타나 있다. 두 전화기(110, 130)는 통신망(120)을 통해 통화를 위한 호가 설정되어 있는 상태이다. 그리고 도 2에는 본 발명에 따른 서비스를 제공하는 업체(이하 '서비스 제공자')의 서버(140)가 통신망(120)에 연결되어 있다.
사용자의 감정상태를 판단하기 위해서는 먼저 음성입력부(115)에서 사용자의 음성을 입력받아야 한다. 사용자의 음성을 입력하는 방법은 통상적으로 전화통화를 하는 경우와 마찬가지로 사용자가 음성입력부(115)의 송화기로 음성을 출력하는 것 이다.
상기 음성입력부(115)로 입력된 사용자의 음성은 제어부(112), 통신망연결부(111), 통신망(120)을 통해 사용자의 통화 상대방에게 전송되고, 또한 음성분석부(116)로 입력된다.
상기 음성분석부(116)에서는 입력된 사용자의 음성에서 피치, 에너지, 포먼트, 주파수 등의 특성치를 분석하여 그 특성치를 제어부(112)로 전송한다.
상기 제어부(112)에서는 사용자 음성의 특성치(피치, 에너지, 포먼트, 주파수 등)를 감정상태에 따른 음성 특성치 데이터베이스와 비교하여 동일 또는 유사한 음성특성이 어느 것인지 확인하고 그러한 음성특성에 해당하는 감정상태가 무엇인지 확인한다. 감정상태에 따른 음성 특성치 데이터베이스는 메모리(113)에 저장되어 있다.
사용자의 감정상태를 판단한 제어부(112)에서는 사용자 또는 사용자의 통화 상대방에게 통화배경음을 출력하기 위한 동작을 한다.
본 발명에서는 감정상태 판단대상인 사용자에게 통화배경음을 출력하거나 사용자의 통화 상대방에게 통화배경음을 출력한다. 감정상태 판단대상인 사용자에게 통화배경음을 출력하는 경우는 통화배경음의 저장위치에 따라 제1 실시예, 제2 실시예, 제3 실시예로 나누어지며, 사용자의 통화 상대방에게 통화배경음을 출력하는 경우는 통화배경음의 저장위치에 따라 제4 실시예, 제5 실시예, 제6 실시예로 나누어진다.
먼저, 해당 감정상태에 있는 것으로 판단된 사용자 자신에게 통화배경음을 출력하는 경우는 어디에 저장된 통화배경음이 감정상태 판단 대상인 사용자에게 출력되느냐에 따라 동작이 달라진다.
사용자 전화기(110)에 통화배경음이 저장되어 있는 경우(제1 실시예), 서비스 제공자의 서버(140)에 통화배경음이 저장되어 있는 경우(제2 실시예), 사용자의 통화 상대방의 전화기(130)에 통화배경음이 저장되어 있는 경우(제3 실시예)가 있을 수 있다.
첫 번째로 감정상태 판단 대상인 사용자 전화기(110)에 통화배경음이 저장되어 있다면, 제어부(112)에서는 메모리(113)에서 통화배경음에 대한 데이터를 읽어들여 음성출력부(114)를 통해 사용자에게 통화배경음을 출력한다.(제1 실시예)
두 번째로 서비스 제공자의 서버(140)에 통화배경음이 저장되어 있다면, 제어부(112)에서는 통화연결부(111)와 통신망(120)을 통해 사용자의 감정상태에 대한 정보를 서비스 제공자의 서버(140)에 전송하고 서비스 제공자의 서버(140)에서는 그 감정상태에 해당하는 통화배경음을 사용자의 전화기(110)에 전송하여 사용자에게 통화배경음을 출력한다.(제2 실시예)
세 번째로 사용자의 통화 상대방의 전화기(130)에 통화배경음이 저장되어 있다면, 제어부(112)에서는 통화연결부(111), 통신망(120)을 통해 사용자의 감정상태에 대한 정보를 상대방 전화기(130)로 전송하고 상대방 전화기(130)에서는 그 감정상태에 해당하는 통화배경음을 감정상태 판단대상인 사용자의 전화기(110)로 전송하여 전화기(110)에서 사용자에게 수신한 통화배경음을 출력한다.(제3 실시예)
다음으로, 사용자의 감정상태에 따라 다른 통화배경음을 사용자의 통화 상대 방에게 출력하는 경우도 어디에 저장된 통화배경음이 사용자의 통화 상대방에게 출력되느냐에 따라 동작이 달라진다.
이 경우도 사용자 전화기(110)에 통화배경음이 저장되어 있는 경우(제4 실시예), 서비스 제공자의 서버(140)에 통화배경음이 저장되어 있는 경우(제5 실시예), 사용자의 통화 상대방의 전화기(130)에 통화배경음이 저장되어 있는 경우(제6 실시예)가 있을 수 있다.
첫 번째로 감정상태를 판단한 사용자 전화기(110)에 통화배경음이 저장되어 있다면, 제어부(112)에서는 메모리(113)에서 통화배경음에 대한 데이터를 읽어들여 통신망연결부(111)를 통해 통신망(120)으로 전송하고 사용자의 통화 상대방의 전화기(130)에서 이러한 통화배경음 데이터를 수신하여 사용자의 통화 상대방에게 통화배경음을 출력한다.(제4 실시예)
두 번째로 서비스 제공자의 서버(140)에 통화배경음이 저장되어 있다면, 제어부(112)에서는 통화연결부(111), 통신망(120)을 통해 사용자의 감정상태에 대한 정보를 서비스 제공자의 서버(140)에 전송하고 서비스 제공자의 서버(140)에서는 그 감정상태에 해당하는 통화배경음을 사용자의 통화 상대방의 전화기(130)에 전송하여 사용자의 통화 상대방의 전화기(130)에서 사용자의 통화 상대방에게 통화배경음을 출력한다.(제5 실시예)
세 번째로 사용자의 통화 상대방의 전화기(130)에 통화배경음이 저장되어 있다면, 제어부(112)에서는 통화연결부(111), 통신망(120)을 통해 사용자의 감정상태에 대한 정보를 상대방 전화기(130)로 전송하고 상대방 전화기(130)에서는 그 감정 상태에 해당하는 통화배경음을 사용자의 통화 상대방에게 출력한다.(제6 실시예)
감정상태에 따라 출력되는 통화배경음이 감정상태 판단의 대상이 된 사용자에게 출력되는 경우(제1 실시예, 제2 실시예, 제3 실시예의 경우)는 통화배경음이 해당 감정상태를 조절하는데 도움이 되는 음악일 수 있다. 그리고 감정상태에 따라 출력되는 통화배경음이 사용자의 통화 상대방에게 출력되는 경우(제4 실시예, 제5 실시예, 제6 실시예의 경우)는 통화배경음이 해당 감정상태를 표현하는 음악일 수 있다.
그러나, 통화배경음은 위와 같은 음악에 한정되는 것이 아니고 사용자가 어떤 감정상태에는 어떠한 음악이나 효과음을 출력할 것인지를 설정할 수 있다. 통화배경음이 전화기(110, 130)에 저장되어 있는 경우(제1 실시예, 제3 실시예, 제4 실시예, 제6 실시예의 경우)에 이러한 설정은 전화기의 제어를 통해 이루어질 수 있으며, 통화배경음이 서비스 제공자의 서버(140)에 저장되어 있는 경우(제2 실시예, 제5 실시예의 경우)에 이러한 설정은 무선인터넷을 통한 제어로 이루어질 수 있다. 즉, 사용자가 무선인터넷에 접속하여 감정상태에 따른 음악을 설정하는 것이다.
이상에서는 제어부(112)에서 사용자의 감정상태를 판단하는 경우에 대해 설명하였지만 이와 달리 감정상태를 판단하는 것은 서비스 제공자의 서버(140)에서 이루어질 수도 있다. 이 경우는 전화기(110)에서 음성의 특성치를 분석하여 그 정보를 서비스 제공자의 서버(140)에 전송하고 서버(140)에 저장된 데이터베이스와 비교를 통해 사용자의 감정상태를 판단한다.
이상의 설명에서는 감정상태 판단의 대상인 사용자나 상대방 중 어느 한 명 에게 감정상태에 따른 통화배경음을 출력하는 경우에 대해 설명하였지만, 사용자 두 명 모두에게 통화배경음을 출력하도록 구현할 수도 있다. 이 경우에도 통화배경음의 저장위치에 따라 제7 실시예, 제8 실시예, 제9 실시예로 나누어진다.
이 경우도 사용자 전화기(110)에 통화배경음이 저장되어 있는 경우(제7 실시예), 서비스 제공자의 서버(140)에 통화배경음이 저장되어 있는 경우(제8 실시예), 사용자의 통화 상대방의 전화기(130)에 통화배경음이 저장되어 있는 경우(제9 실시예)가 있을 수 있다.
첫 번째로 감정상태 판단 대상인 사용자 전화기(110)에 통화배경음이 저장되어 있다면, 제어부(112)에서는 메모리(113)에서 통화배경음에 대한 데이터를 읽어들여 음성출력부(114)를 통해 사용자에게 통화배경음을 출력하고, 통신망연결부 (111)를 통해 통신망(120)으로 전송한 후 사용자의 통화 상대방의 전화기(130)에서 이러한 통화배경음 데이터를 수신하여 사용자의 통화 상대방에게 통화배경음을 출력한다.(제7 실시예)
두 번째로 서비스 제공자의 서버(140)에 통화배경음이 저장되어 있다면, 제어부(112)에서는 통화연결부(111)와 통신망(120)을 통해 사용자의 감정상태에 대한 정보를 서비스 제공자의 서버(140)에 전송하고 서비스 제공자의 서버(140)에서는 그 감정상태에 해당하는 통화배경음을 사용자의 전화기(110) 및 사용자의 통화 상대방의 전화기(130)에 전송하여 사용자와 사용자의 통화 상대방에게 통화배경음을 출력한다.(제8 실시예)
세 번째로 사용자의 통화 상대방의 전화기(130)에 통화배경음이 저장되어 있 다면, 제어부(112)에서는 통화연결부(111), 통신망(120)을 통해 사용자의 감정상태에 대한 정보를 상대방 전화기(130)로 전송하고 상대방 전화기(130)에서는 그 감정상태에 해당하는 통화배경음을 감정상태 판단대상인 사용자의 전화기(110)로 전송하여 전화기(110)에서 사용자에게 수신한 통화배경음을 출력한다. 그리고 상대방 전화기(130)에서도 그 감정상태에 해당하는 통화배경음을 사용자의 통화 상대방에게 출력한다.(제9 실시예)
이상으로, 본 발명에 따른 사용자의 감정상태에 따른 통화배경음 출력방법에 대해 살펴보았다. 본 명세서에서는 본 발명이 개별적인 실시예를 통해 설명되었지만, 본 발명의 범위는 본 출원서에 설명된 부분에 한정되지 않고 명세서와 첨부된 청구항들에서 설명되는 기술적 사상에 속하는 모든 변형된 형태와 수정된 형태를 포함한다.
본 발명에 의하면 사용자의 감정상태에 따라 다양한 통화배경음을 사용자나 상대방에게 출력하여 통화의 즐거움을 더해줄 수 있는 이점이 있다.

Claims (6)

  1. 감정상태에 따른 통화배경음을 지정하는 통화배경음 지정단계;
    통화시에 사용자의 음성을 전화기의 송화기로 입력하는 음성입력단계;
    상기 음성입력단계에서 입력된 음성의 특성을 분석하는 음성분석단계;
    상기 음성분석단계에서 분석한 음성의 특성을 이용하여 상기 사용자의 감정상태를 판단하는 감정상태판단단계; 및
    상기 감정상태판단단계에서 판단한 사용자의 감정상태에 따른 상기 통화배경음 지정단계에서 지정된 통화배경음을 전화기의 수화기로 감정상태 판단의 대상인 사용자 또는 사용자의 통화 상대방에게 출력하는 통화배경음 출력단계를 포함하는 것을 특징으로 하는 사용자의 감정상태에 따른 통화배경음 출력방법.
  2. 청구항 1에 있어서,
    상기 통화배경음 지정단계에서 지정되는 통화배경음은 감정상태를 조절하는 데 도움이 되는 음악이고,
    상기 통화배경음으로 지정된 음악이 상기 통화배경음 출력단계에서 통화배경음으로 감정상태 판단의 대상인 사용자에게 출력되는 것을 특징으로 하는 사용자의 감정상태에 따른 통화배경음 출력방법.
  3. 청구항 1에 있어서,
    상기 통화배경음 지정단계에서 지정되는 통화배경음은 감정상태를 표현하는 음악이고,
    상기 통화배경음으로 지정된 음악이 상기 통화배경음 출력단계에서 통화배경음으로 사용자의 통화 상대방에게 출력되는 것을 특징으로 하는 사용자의 감정상태에 따른 통화배경음 출력방법.
  4. 청구항 1에 있어서,
    상기 음성분석단계에서 분석되고 상기 감정상태판단단계에서 이용되는 음성의 특성은 음성의 피치, 에너지, 포먼트, 주파수인 것을 특징으로 하는 사용자의 감정상태에 따른 통화배경음 출력방법.
  5. 청구항 1에 있어서, 상기 통화배경음 출력단계에서,
    감정상태 판단의 대상인 사용자 또는 사용자의 통화 상대방에게 출력되는 통화배경음은 감정상태 판단의 대상인 사용자의 전화기, 사용자의 통화 상대방의 전화기, 본 발명에 따른 서비스 제공자의 서버 중 어느 하나에 저장되어 있는 것을 특징으로 하는 사용자의 감정상태에 따른 통화배경음 출력방법.
  6. 청구항 1 내지 청구항 5 중 어느 한 항에 있어서,
    상기 통화배경음 출력단계에서 감정상태 판단의 대상인 사용자와 사용자의 통화 상대방 모두에게 통화배경음이 출력되는 것을 특징으로 하는 사용자의 감정상 태에 따른 통화배경음 출력방법.
KR1020050098382A 2005-10-19 2005-10-19 사용자의 감정상태에 따른 통화배경음 출력방법 KR100743037B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050098382A KR100743037B1 (ko) 2005-10-19 2005-10-19 사용자의 감정상태에 따른 통화배경음 출력방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050098382A KR100743037B1 (ko) 2005-10-19 2005-10-19 사용자의 감정상태에 따른 통화배경음 출력방법

Publications (2)

Publication Number Publication Date
KR20070042595A true KR20070042595A (ko) 2007-04-24
KR100743037B1 KR100743037B1 (ko) 2007-07-26

Family

ID=38177347

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050098382A KR100743037B1 (ko) 2005-10-19 2005-10-19 사용자의 감정상태에 따른 통화배경음 출력방법

Country Status (1)

Country Link
KR (1) KR100743037B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100792990B1 (ko) * 2006-08-25 2008-01-08 (주) 엘지텔레콤 이동통신망에서의 통화중 감정분석 서비스장치 및 방법
US8781138B2 (en) 2007-09-13 2014-07-15 Samsung Electronics Co., Ltd. Method for outputting background sound and mobile communication terminal using the same

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106657638A (zh) * 2016-12-23 2017-05-10 宇龙计算机通信科技(深圳)有限公司 基于通话内容的通信方法、通信装置和终端

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040052973A (ko) * 2004-05-19 2004-06-23 최철 감성전화기

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100792990B1 (ko) * 2006-08-25 2008-01-08 (주) 엘지텔레콤 이동통신망에서의 통화중 감정분석 서비스장치 및 방법
US8781138B2 (en) 2007-09-13 2014-07-15 Samsung Electronics Co., Ltd. Method for outputting background sound and mobile communication terminal using the same

Also Published As

Publication number Publication date
KR100743037B1 (ko) 2007-07-26

Similar Documents

Publication Publication Date Title
US8958852B2 (en) System and method for user profiling from gathering user data through interaction with a wireless communication device
US8892171B2 (en) System and method for user profiling from gathering user data through interaction with a wireless communication device
KR100678212B1 (ko) 휴대단말기의 감정정보 제어방법
CN107566658A (zh) 通话方法、装置、存储介质及移动终端
WO2011151502A1 (en) Enhanced context awareness for speech recognition
CN101485188A (zh) 用于提供语音分析服务的方法和系统及其装置
CN101848278A (zh) 手机系统及其情景模式切换方法
CN108449502A (zh) 语音通话数据处理方法、装置、存储介质及移动终端
CN108449506A (zh) 语音通话数据处理方法、装置、存储介质及移动终端
CN108172237A (zh) 语音通话数据处理方法、装置、存储介质及移动终端
KR100743037B1 (ko) 사용자의 감정상태에 따른 통화배경음 출력방법
Möller et al. INSPIRE: Evaluation of a smart-home system for infotainment management and device control
CN109151148A (zh) 通话内容的记录方法、装置、终端及计算机可读存储介质
CN108449497A (zh) 语音通话数据处理方法、装置、存储介质及移动终端
KR20110106844A (ko) 통신 네트워크의 노드 사이에서의 대화 음성 품질 평가 방법, 통신 네트워크의 노드 사이에서의 음성 품질 테스트 방법 및 통신 네트워크의 노드 사이에서의 대화 음성 품질 테스트 장치
KR100689521B1 (ko) 이동통신 단말기에서 아바타 표시방법
KR20000018143A (ko) 인터넷과 핸드폰을 이용한 일정관리방법
CN108173740A (zh) 一种语音通信的方法和装置
JP2010258687A (ja) 無線通信装置
KR101094612B1 (ko) 모바일 음성변조 시스템 및 음성변조가 가능한 단말
CN108449504A (zh) 语音通话数据检测方法、装置、存储介质及移动终端
CN103780477B (zh) 信息推送方法和服务器
JP4232453B2 (ja) 通話音声のテキスト変換システム
Raake et al. Telecommunications Aplications
EP2693429A1 (en) System and method for analyzing voice communications

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20130624

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140624

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150624

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160624

Year of fee payment: 10