KR101715291B1 - 음성 데이터 제공 서버 및 사용자 단말 - Google Patents

음성 데이터 제공 서버 및 사용자 단말 Download PDF

Info

Publication number
KR101715291B1
KR101715291B1 KR1020150130854A KR20150130854A KR101715291B1 KR 101715291 B1 KR101715291 B1 KR 101715291B1 KR 1020150130854 A KR1020150130854 A KR 1020150130854A KR 20150130854 A KR20150130854 A KR 20150130854A KR 101715291 B1 KR101715291 B1 KR 101715291B1
Authority
KR
South Korea
Prior art keywords
voice data
user
data
emotion state
voice
Prior art date
Application number
KR1020150130854A
Other languages
English (en)
Inventor
이재욱
Original Assignee
주식회사 라스퍼트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 라스퍼트 filed Critical 주식회사 라스퍼트
Priority to KR1020150130854A priority Critical patent/KR101715291B1/ko
Application granted granted Critical
Publication of KR101715291B1 publication Critical patent/KR101715291B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Abstract

본 발명은 음성 데이터의 제공을 위한 서버와 단말에 대한 것으로, 본 발명 따른 음성 데이터 제공 서버는 데이터에 대한 응답으로 사용자의 음성 데이터를 입력 받는 데이터 입력부; 상기 입력 받은 음성 데이터를 분석하여 상기 음성 데이터의 상기 원 데이터에 대한 사용자의 감정 상태를 판단하는 감정 상태 판단부; 및 상기 판단된 감정 상태를 미리 결정된 기준에 따른 단계로 구분하여 상기 음성 데이터를 상기 구분된 단계에 따라 시각적 표시 방법을 결정하는 표시 결정부를 포함한다. 본 발명의 구성에 따르면, 오디오 음성파일의 감성을 시각적으로 표현하고 여러 개로 분산된 오디오 음성파일을 한 번에 전달하고 제어할 수 있다. 따라서 사용자가 개별 오디오 음성파일을 일일이 직접 듣기 전에 사용자의 기호에 따라 들을지 말지를 결정할 수 있기 때문에 불필요한 시간낭비를 현저히 줄일 수 있다.

Description

음성 데이터 제공 서버 및 사용자 단말{Server and User equipment for providing voice data}
본 발명은 음성 데이터의 제공을 위한 서버와 단말에 대한 것이다.
현재 아마존의 오더블(audible)은 성우가 직접 책 내용을 읽어서 오디오 포맷으로 저장한 오디오북을 제공한다. 우마노(Umano) 같은 서비스는 인터넷 뉴스 기사를 사람이 직접 읽어 오디오 포맷으로 저장한 후 스트리밍으로 콘텐츠를 전달한다. 단순히 정보전달에 음성을 활용하고 있다.
또한 이동통신단말기에서 문자 메시지 또는 SNS 메시지를 보낼 때 자신의 목소리를 녹음해서 상대방에게 전달하는 방식도 제공되며, 나아가 인터넷에 존재하는 뉴스 기사와 텍스트가 아닌 음성으로 댓글을 작성하고 이를 통해 기존의 일관되고 건조한 댓글의 양식에서 벗어나 작성한 사람의 말투를 그대로 생동감 있게 제공하는 방법이 선행문헌(한국공개특허 10-2008-0042208(공개일 2008.05.15))에 개시되어 있다. 다만, 이러한 방법은 사용자는 저장된 오디오 음성파일을 직접 듣기 전까지 해당 음성파일이 어떤 감성을 담고 있는지 알 수 없는 문제점이 있다.
따라서, 익명성이 보장되는 인터넷 상에서 일부 네티즌들이 익명성을 악용하여 개인의 사생활을 험담하거나, 모독, 비방하는 등의 악성 댓글을 음성으로 올리는 경우 상대방에게 보다 큰 상처를 주는 부작용이 발생할 수 있다.
본 발명은 전술한 종래기술의 문제점을 해결하기 위하여, 오디오 음성파일을 분석해서 작성자의 감정 상태를 먼저 분석하고 해당 오디오 음성파일의 감성을 시각적으로 조절하고 용이하게 전달할 수 있는 장치 및 방법을 제공하는 데 그 목적이 있다.
상기 기술적 과제를 해결하기 위한 본 실시예에 따른 음성 데이터 제공 서버는 데이터에 대한 응답으로 사용자의 음성 데이터를 입력 받는 데이터 입력부; 상기 입력 받은 음성 데이터를 분석하여 상기 음성 데이터의 상기 원 데이터에 대한 사용자의 감정 상태를 판단하는 감정 상태 판단부; 및 상기 판단된 감정 상태를 미리 결정된 기준에 따른 단계로 구분하여 상기 음성 데이터를 상기 구분된 단계에 따라 시각적 표시 방법을 결정하는 표시 결정부를 포함한다.
상기 표시 결정부는, 상기 구분된 단계에 따라 상기 음성 데이터를 색상을 달리하여 상기 시각적 표시 방법을 결정하는 것이 바람직하다.
상기 표시 결정부는, 상기 구분된 단계에 따라 상기 음성 데이터에 대한 이모티콘을 생성하여 상기 시각적 표시 방법을 결정하는 것이 바람직하다.
상기 음성 데이터 제공 서버는, 상기 시각적 표시 방법이 결정된 상기 음성 데이터를 사용자 단말에 제공하는 제공부를 더 포함한다.
상기 제공부는, 상기 음성 데이터의 제공에 대한 사용자 피드백을 수신하고, 상기 사용자 피드백에 따라 상기 음성 데이터를 리스트화하여 상기 사용자에게 제공하는 것이 바람직하다.
상기 기술적 과제를 해결하기 위한 본 실시예에 따른 음성 데이터 제공 사용자 단말은 원 데이터에 대한 응답으로 사용자의 음성 데이터를 분석하여 결정된 감정 상태에 따른 시각적 표시 방법으로 상기 음성 데이터 또는 상기 음성 데이터의 리스트를 표시하는 디스플레이부; 및 상기 리스트를 통해 선택된 음성 데이터 또는 상기 사용자의 감정 상태의 단계 선택에 대응되는 상기 음성 데이터를 제공하는 음성 데이터 제공부를 포함한다.
상기 디스플레이부는 상기 원 데이터에 대한 응답 중 음성 정보를 포함하는 것으로 추출된 음성 데이터 또는 음성 데이터의 리스트를 표시하는 것이 바람직하다.
상기 음성 데이터 제공부는 상기 감정 상태의 단계 선택에 대응되는 복수의 음성 데이터를 연속으로 제공하는 것이 바람직하다.
상기 감정 상태 판단부는, 상기 입력 받은 음성 데이터를 저장하는 단계; 상기 저장하는 단계의 저장 과정에서 상기 음성 데이터에 대하여 수행된 감정상태 판별 정보를 입력 받는 단계; 저장된 상기 음성 데이터와, 판별된 상기 감정상태 판별 정보를 데이터베이스화 하는 단계; 일정 수준이상의 데이터베이스가 축적되면 감정상태 별로 음성 데이터의 소리 크기, 소리 폭, 특정 단어 포함 여부 및 사용자 정보 중 적어도 어느 하나를 포함하는 부가 정보를 추출하는 단계; 입력된 음성 데이터와 각 감정상태별 음성 데이터를 매칭하는 단계; 및 매칭 결과를 반복적으로 학습하는 기계학습 단계를 수행하는 것이 바람직하다.
본 발명의 구성에 따르면, 오디오 음성파일의 감성을 시각적으로 표현하고 여러 개로 분산된 오디오 음성파일을 한 번에 전달하고 제어할 수 있다. 따라서 사용자가 개별 오디오 음성파일을 일일이 직접 듣기 전에 사용자의 기호에 따라 들을지 말지를 결정할 수 있기 때문에 불필요한 시간낭비를 현저히 줄일 수 있다.
나아가, 뉴스 기사와 관련된 당사자의 경우 필요로 하는 감정 상태의 음성파일을 취사 선택하여 들을 수 있으므로 악의의 음성파일을 모르고 청취함에 따른 감정의 상처로부터 자신을 보호할 수 있으며, 긍정적인 의사의 음성파일을 듣고 용기를 얻거나 자신감을 되 찾을 수 있는 간접적인 효과가 있다.
도 1은 본 발명의 일실시예에 따른 음성 데이터 제공 시스템을 나타내는 도이다.
도 2는 본 발명의 일실시예에 따른 음성 데이터 제공 서버를 나타내는 도이다.
도 3은 본 발명의 일실시예에 따른 음성 데이터 제공 사용자 단말을 나타내는 도이다.
도 4 및 도 5는 본 발명의 일실시예에 따른 음성 데이터 제공 예를 나타내는 도이다.
도 6은 본 발명의 일실시예에 따른 음성 데이터 제공 방법을 통한 서비스 예를 나타내는 도이다.
이하의 내용은 단지 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 발명의 원리를 구현하고 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시예들은 원칙적으로, 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와같이 특별히 열거된 실시예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다.
또한, 발명을 설명함에 있어서 발명과 관련된 공지 기술에 대한 구체적인 설명이 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하에는 첨부한 도면을 참조하여 본 발명의 바람직한 실시예에 대해 상세하게 설명한다.
도 1은 본 발명의 일실시예에 따른 음성 데이터 제공 시스템을 나타내는 도이다.
도 1을 참조하면, 본 실시예에 따른 음성 데이터 제공 시스템은 마이크(10), 음성 데이터 제공 서버(100), 사용자 단말(200)로 구성될 수 있다.
본 실시예에서 마이크(10)는 사용자가 음성 데이터를 녹음하기 위한 수단으로 별도의 마이크(10) 구성 외에 스마트폰이나 태블릿 PC등에 내장되는 마이크 장치를 포함할 수 있다. 즉, 입력되는 음성을 컴퓨터 상에서 처리 가능한 데이터로 변환할 수 있는 모든 수단을 포함한다.
본 실시예에서 사용자는 마이크(10)를 통해 뉴스 기사나, 광고, 등의 다양한 네트워크 상에 존재하는 정보를 원 데이터로 이에 대한 감정이나 반응을 음성 데이터로 기록할 수 있다.
이때 기록되는 음성 데이터는 네트워크를 통해 음성 데이터 제공 서버(100)로 전달되고, 음성 데이터 제공 서버(100)는 이를 처리하여 사용자 단말(200)을 통해 제공할 수 있다.
본 실시예에서 음성 데이터 제공 서버(100)는 사용자가 입력한 음성 데이터를 수신하고, 이에 포함되는 사용자의 감정 상태, 즉 원 데이터에 대한 감정 상태를 판단하고 이를 통해 사용자 단말(200)에 음성 데이터 또는 음성 데이터의 리스트를 표시하는 방법을 결정한다.
본 실시예에서 사용자 단말(200)은 음성 데이터 제공 서버(100)에서 결정되는 표시 방법에 따라 음성 데이터 또는 음성 데이터의 리스트를 사용자에게 표시하고, 사용자는 이를 통해 듣고자 하는 음성 데이터를 선택하여 청취할 수 있게 된다.
따라서, 본 실시예에서 사용자는 원 데이터에 대한 사용자들의 감정 상태를 미리 파악하고, 감정 상태를 인지한 상태에서 음성 데이터를 선택 및 청취하게 되므로 자신에게 필요한 데이터 만을 취사 선택하여 획득할 수 있다.
이하 도 2를 참조하여, 본 실시예에 따른 음성 데이터 제공 서버(100)에 대하여 보다 상세히 설명한다.
도 2를 참조하면, 본 실시예에 따른 음성 데이터 제공 서버(100)는 데이터 입력부(110), 감정 상태 판단부(120), 표시 결정부(130), 제공부(140)를 포함한다.
데이터 입력부(110)는 원 데이터에 대한 응답으로 사용자의 음성 데이터를 입력 받는다.
상술한 바와 같이 본 실시예에서 원 데이터는 인터넷 뉴스, 광고 등의 네트워크 상에 존재하는 다양한 정보를 포함하고, 사용자는 이에 대한 자신의 느낌이나 감정 등을 응답으로 음성 데이터를 입력한다.
이때의 느낌이나 감정은 댓글이나, 리트윗과 같은 다양한 방법을 통해 작성될 수 있으며, 본 실시예에서는 마이크(10)를 통해 입력되는 음성 댓글 또는 리트윗과 함께 작성되는 음성 코멘트 등을 포함할 수 있다.
본 실시예에서 데이터 입력부(110)는 음성 데이터를 입력 받고, 이를 감정 상태 판단부(120)로 전달한다. 이때 데이터 입력부(110)는 입력되는 음성 데이터를 실시간으로 수집하여 감정 상태 판단부(120)로 전달할 수 있으며, 또는 원 데이터의 카테고리에 따라 주기적으로 데이터를 수집하여 한번에 전달하도록 하는 것도 가능하다.
예를 들어, 인터넷 뉴스 기사와 같은 경우 댓글의 글자수나 데이터 크기가 제한될 수 있으므로, 카테고리로 분류하여 음성 데이터를 수집하여 전달하는 것이 감정 상태 판단부(120)의 처리 효율에 도움이 될 수 있다.
따라서, 이때의 카테고리는 원 데이터의 종류 또는 응답으로서 음성 데이터의 제한 크기에 따라서 구분될 수 있다.
본 실시예에서 감정 상태 판단부(120)는 입력 받은 음성 데이터를 분석하여 상기 음성 데이터의 상기 원 데이터에 대한 사용자의 감정 상태를 판단한다.
즉, 감정 상태 판단부(120)는 데이터 입력부(110)에서 전달 받은 음성 데이터를 분석하여 사용자의 감정 상태를 분석한다. 감정 상태의 분석을 위하여 음성 데이터에 포함되는 단어나 억양 등의 정보를 이용할 수 있다. 또한, 추가적인 정보로 사용자의 신상 정보로서, 나이, 성별, 직업, 관심사 등의 정보를 이용하여 감정 상태를 분석하는 것도 가능하다.
나아가, 사용자 각각의 댓글을 분석한 내용을 데이터베이스화하여 확률 모델을 구성하고 이에 따라 감정 상태의 분석 정확도를 높이는 것도 가능하다.
본 실시예에서 감정 상태 판단부(120)는 상술한 분석 내용의 반복학습을 통한 기계적 분석 또는 사람이 직접 듣고 분석한 결과 정보를 입력 받고 이를 통해 감정 상태를 판단한다.
본 실시예에서 표시 결정부(130)는 판단된 감정 상태를 미리 결정된 기준에 따른 단계로 구분하여 상기 음성 데이터를 상기 구분된 단계에 따라 시각적 표시 방법을 결정한다.
본 실시예에서 미리 결정된 기준은 예를 들어 감정 상태를 강한 부정, 부정, 긍정, 강한 긍정의 4단계로 구분하는 것일 수 있으며, 표시 결정부(130)는 구분된 상태에 따라 다른 시각적 표시 방법을 결정한다.
예를 들어, 표 1을 참조하면, 본 실시예에서 표시 결정부(130)는 강한 부정은 빨간색, 부정은 검정색, 긍정은 파란색, 강한 긍정은 초록색으로 표시하도록 하는 기준에 따라 음성 데이터를 표시하도록 표시 방법을 결정할 수 있다.
강한 부정 빨간색
부정 검은색
긍정 파란색
강한 긍정 초록색
또한, 본 실시예에서 표시 결정부(130)는 구분된 단계에 따라 상기 음성 데이터에 대한 이모티콘을 생성하여 상기 시각적 표시 방법을 결정할 수 있다.
즉, 부정으로 판단된 음성 데이터의 경우는 화난 표정을 하고 있는 이모티콘을 생성하도록 할 수 있으며, 반대로 긍정의 경우 밝은 표정을 하고 있는 이모티콘을 생성하도록 결정할 수 도 있다.
이상의 예시에서는 감정 상태를 긍정과 부정으로 구분하고 있으나, 다양한 사람의 감정상태에 따라 다른 시각적 표시 방법을 결정하는 것도 가능하다. 예로 슬픔의 경우에는 노란색이나, 울고 있는 이모티콘을 결정할 수 있다.
본 실시예에서 제공부(140)는 시각적 표시 방법이 결정된 상기 음성 데이터를 사용자 단말(200)에 제공한다. 즉, 음성 데이터 제공 서버(100)는 음성 데이터에 대하여 판단된 감정 상태를 사용자에게 표시하기 위하여 이를 사용자 단말(200)로 전송한다.
사용자 단말(200)은 수신된 음성 데이터 제공 서버(100)의 데이터를 이용하여 사용자에게 음성 데이터 자체 또는 음성 데이터의 요약 정보로서 리스트를 제공할 수 있다.
나아가, 본 실시예에서 제공부(140)는 음성 데이터의 제공에 대한 사용자 피드백을 수신하고, 상기 사용자 피드백에 따라 상기 음성 데이터를 리스트화하여 상기 사용자에게 제공하는 것도 가능하다.
즉, 본 실시예에서 음성 데이터 제공 서버(100)는 사용자 단말(200)을 통해 제공한 음성 데이터의 사용자 평가를 수신하고 이를 반영하여 다시 사용자 단말(200)에 제공하는 음성 데이터를 결정할 수 있다. 예를 들어 다수의 사용자가 특정 음성 데이터에 대하여 '좋아요'와 같은 긍정적 평가를 할 경우 이에 해당하는 음성 데이터를 우선하여 제공하거나 추천할 수 있으며, 데이터 리스트로 제공하는 경우 상위에 랭크 될 수 있도록 결정할 수 있다.
또한, 본 실시예에서 음성 데이터 제공 서버(100)는 사용자 단말(200)을 통해 사용자다 듣고자 하는 감정 상태의 단계를 결정한 경우 이에 해당하는 감정 상태를 가지는 음성 데이터 만을 사용자 단말(200)에 리스트로 제공하는 것도 가능하다.
이하, 도 3을 참조하여 본 실시예에 따른 사용자 단말(200)에 대하여 설명한다.
본 실시예에서 사용자 단말(200)은 디스플레이부(210)와, 음성 데이터 제공부(220)를 포함한다.
본 실시예에서 디스플레이부(210)는 시각적으로 데이터를 표시하는 장치이다. 나아가 디스플레이부(210)는 터치패널과 함께 입력 부로서의 기능도 함께 수행할 수 있다. 이를 통해 사용자 단말(200)은 사용자의 입력을 인식하고 음성 데이터 제공 서버(100)에 전달하여 사용자 친화적인 정보를 제공할 수 있다.
본 실시예에서 디스플레이부(210)는 원 데이터에 대한 응답으로 사용자의 음성 데이터를 분석하여 결정된 감정 상태에 따른 시각적 표시 방법으로 상기 음성 데이터 또는 상기 음성 데이터의 리스트를 표시한다.
이에 대하여 도 4를 참조하여 설명한다.
도 4는 표 1에 따른 기준으로 결정된 표시 방법에 따라 음성 데이터를 사용자 단말(200)의 디스플레이부(210)로 표시하는 예를 나타낸다.
도 4에 따르면, 별도의 감정상태를 요약하는 텍스트 정보를 결정된 색상으로 표시하여 사용자에게 음성 데이터에 포함된 녹음자의 감정 상태를 사용자에게 인지시킨다. 예를 들어, 강한 부정의 경우는 '빨간색'이라는 텍스트를 빨간색으로 표시하여 사용자에게 이에 대응되는 음성 데이터는 강한 부정의 감정 상태를 가지는 데이터인 것을 인지시킨다.
경우에 따라서, 디스플레이부(210)가 흑백으로 작동될 수 있으므로, '빨간색'이라는 텍스트 정보를 함께 제공하여 빨간색임을 인지할 수 없는 경우에도 텍스트 자체의 의미를 통해 사용자가 감정 상태를 인지하도록 할 수 있다.
반대로, 강한 긍정의 경우는 텍스트로 '초록색'을 초록색의 색상으로 표시할 수 있다.
또한, 본 실시예에서는 제공되는 음성 데이터의 파형 정보를 함께 제공하여 사용자로 하여금 음성 데이터의 억양을 예상하도록 하고, 이를 통해 감정 상태를 추가적으로 인지할 수 있도록 할 수 있다.
나아가, 디스플레이부(210)는 원 데이터에 대한 응답 중 음성 정보를 포함하는 것으로 추출된 음성 데이터 또는 음성 데이터의 리스트를 표시한다. 예를 들어 문자, 이미지, 영상과 같은 미디어는 제외하고 음성 댓글 만을 필터링하여 표시할 수 있다.
본 실시예에서 음성 데이터 제공부(220)는 리스트를 통해 선택된 음성 데이터 또는 상기 사용자의 감정 상태의 단계 선택에 대응되는 상기 음성 데이터를 제공한다.
예를 들어, 사용자가 음성 댓글 중에서 듣고 싶은 하나 혹은 여러 감성단계(예, 강한 긍정, 강한 긍정&긍정, 강한 긍정&긍정&부정 등)를 선택하는 경우(도 5 참조) 선택된 감성단계에 맞는 음성 댓글만을 필터링하여 연속으로 재생할 수 있다.
따라서, 본 실시예에서 음성 데이터 제공부(220)는 스피커 또는 이어폰과 같은 수단의 라인입력이 가능한 구성으로 구현될 수 있다.
또한, 음성 데이터를 연속으로 재생하는 경우에는 필터링 된 음성 데이터를 감정 상태 별로 묶거나, 원 데이터의 종류, 녹음자의 신상 정보를 통해 카테고리화 하여 연속으로 재생하여 청취하는 사용자가 복수의 음성 데이터 간의 이질감을 느끼는 것을 최소화 하는 것도 가능하다.
이상의 본 발명의 구성에 따르면, 오디오 음성파일의 감성을 시각적으로 표현하고 여러 개로 분산된 오디오 음성파일을 한 번에 전달하고 제어할 수 있다. 따라서 사용자가 개별 오디오 음성파일을 일일이 직접 듣기 전에 사용자의 기호에 따라 들을지 말지를 결정할 수 있기 때문에 불필요한 시간낭비를 현저히 줄일 수 있다.
나아가, 뉴스 기사와 관련된 당사자의 경우 필요로 하는 감정 상태의 음성파일을 취사 선택하여 들을 수 있으므로 악의의 음성파일을 모르고 청취함에 따른 감정의 상처로부터 자신을 보호할 수 있으며, 긍정적인 의사의 음성파일을 듣고 용기를 얻거나 자신감을 되 찾을 수 있는 간접적인 효과가 있다.
이하, 도 6을 참조하여 상술한 본 실시예에 따른 음성 데이터 제공 방법을 통한 서비스 예를 설명한다.
도 6은 본 실시예에 따른 음성 데이터 제공 방법으로 시각적 표시 방법이 결정된 음성 데이터를 사용자가 인식하기 쉬운 이미지로 표시하여, 음성 데이터의 작성 주체와 원 데이터와 관련된 주체간의 상호 교류가 가능하도록 하는 서비스를 나타낸다.
즉, 도 6을 참조하면, 음성 데이터를 작성하는 사용자는 단말을 이용하여 음성 데이터를 작성하고, 이를 입력 받은 음성 데이터 제공 서버는 상술한 방법을 통해 감정 상태를 판단하고 이에 따른 시각적 표시 방법을 결정한다.
또한, 음성 데이터를 작성하는 사용자의 경우 자신의 단말을 통해 자신이 작성한 음성 데이터가 채택되고 이하에서 설명하는 뽑기 도구와 같은 가상의 장치에 포함되었음을 피드백 받을 수 있다. 이때 채택되는 음성 데이터는 음성 데이터 제공 서버 자체의 기준에 따라 선별될 수 있다. 그 기준은 감정 상태에 따라 설정하거나, 욕설 등의 내용이 포함되는 경우로 선별할 수 있다.
이를 통해 1차적으로 음성 데이터의 사용자는 음성 데이터 작성에 대한 피드백을 받는다.
본 실시예에서 시각적 표시 방법은 색상 뿐만 아니라, 색상을 소정의 크기를 갖는 이미지 객체인 구로 형상화한다. 나아가, 이때의 구의 크기는 그 색상과 연관될 수 있다. 즉, 색상과 연관된다는 것은 감정 상태와 구의 크기가 연관된다는 것을 의미한다.
예를 들어, 색상에 따라 다른 크기를 가지도록 할 수 있으며 또는 음성 데이터의 크기에 따라 달라지는 것도 가능하다. 또한, 음성 데이터의 생성 시간에 따라 시간이 지날수록 크기가 줄어 들게 하는 가변적 크기를 갖도록 하는 것도 가능하다.
본 실시예에서 시각적 표시 방법이 결정된 음성 데이터는 도 6에 따른 뽑기 도구와 같은 형태로 제공될 수 있다.
즉, 상술한 실시예에서 음성 데이터 제공 사용자 단말의 디스플레이부는 도 6과 같은 뽑기 도구를 통해 내부에 색상을 갖는 구로 형상화된 음성 데이터를 시각적으로 표시하는 것도 가능하다.
이때, 음성 데이터 제공 사용자 단말을 사용하는 사용자는 음성 데이터의 원 데이터와 관련된 주체일 수 있으며, 예를 들어 연예 기사의 경우 관련된 연예인이거나, 스포츠 기사인 경우는 관련된 스포츠 스타일 수 있다.
즉, 원 데이터와 관련된 주체는 디스플레이부를 통해 표시되는 뽑기 도구를 클릭하거나, 터치하여 실행시키고 이에 따라서 뽑히는 구에 대응되는 음성 데이터를 음성 데이터 제공부로 제공 받을 수 있다.
또한, 본 실시예에서 음성 데이터의 시각적 표시 방법은 색상 뿐만 아니라 그 크기를 결정하였으므로, 예를 들어, 뽑기 도구에서 뽑히는 음성 데이터의 확률은 크기가 작을수록 높아진다.
따라서, 매우 긍정인 감정 상태를 가지는 음성 데이터의 구의 크기가 가장 작을 경우 뽑히는 확률이 다른 감정 상태에 따른 구보다 크게 되고, 이에 따라서 음성 데이터의 작성자는 자신이 작성한 음성 데이터가 상대적으로 원 데이터의 관련 주체에게 제공될 확률이 높다는 보상 심리를 갖게 된다.
이를 통해 음성 데이터의 작성자는 가능한 매우 긍정으로 인식되기 위한 감정상태의 음성 데이터를 작성하려 할 수 있다.
이후에, 실제로 원 데이터와 관련된 주체가 색상을 갖는 구를 통해 음성 데이터를 제공 받는 경우 이에 대한 확인을 음성 데이터의 작성자에게 제공하고 이를 통해 2차적인 피드백을 받을 수 있다.
나아가, 원 데이터와 관련된 주체 역시 추가적인 음성 데이터를 제공 받기 위한 기회를 얻기 위해서는 이전에 추출된 음성 데이터에 대한 응답을 작성자의 단말을 통해 제공하거나, 또는 기타 보상의 행위를 수행하도록 하는 것도 가능하다.
따라서, 원 데이터의 관련 주체로서 연예인이나 스포츠 스타의 경우 자신이 제공 받은 음성 데이터로 응원의 메시지를 전달 받은 경우 또 다른 응원의 메시지를 전달 받고 싶어 할 수 있고, 이를 위해서 음성 데이터의 작성자인 자신의 팬들에게 응답을 제공하는 선순환을 가져올 수 있다.
나아가, 도 6에서 예시되는 뽑기 도구를 통합하여 음성 데이터 제공 서버는 제공하는 것도 가능하며 이때, 각각의 뽑기 도구에 포함된 구의 개수가 전체 서비스 사용자에게 시각적으로 노출되게 할 수 있다.
즉, 뽑기 도구는 원 데이터 또는 원 데이터의 관련 주체를 단위로 구성되므로, 자연스럽게 원데이터의 관련 주체인 연예인에 따라 그 포함된 음성 데이터의 수가 달라지고, 연예인의 팬들에 대하여 음성 데이터 작성에 경쟁을 유발하는 효과를 가져올 수도 있다.
즉, 본 실시예에 따른 서비스는 음성 데이터 작성자와, 원 데이터 관련 주체 간의 상호간의 교류 및 음성 데이터 작성자 간의 상호간의 경쟁심리를 통해 서로 긍정적인 음성 데이터의 작성 의지를 고취시키고, 이를 통해 서비스를 더욱 활성화 시킬 수 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다.
따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (11)

  1. 원 데이터에 대한 응답으로 사용자의 음성 데이터를 입력 받는 데이터 입력부;
    상기 입력 받은 음성 데이터를 분석하여 상기 음성 데이터의 상기 원 데이터에 대한 사용자의 감정 상태를 판단하는 감정 상태 판단부; 및
    상기 판단된 감정 상태를 미리 결정된 기준에 따른 단계로 구분하여 상기 음성 데이터를 상기 구분된 단계에 따라 시각적 표시 방법을 결정하는 표시 결정부를 포함하고,
    상기 감정 상태 판단부는,
    상기 입력 받은 음성 데이터를 저장하는 단계;
    상기 저장하는 단계의 저장 과정에서 상기 음성 데이터에 대하여 수행된 감정상태 판별 정보를 입력 받는 단계;
    저장된 상기 음성 데이터와, 판별된 상기 감정상태 판별 정보를 데이터베이스화 하는 단계;
    일정 수준이상의 데이터베이스가 축적되면 감정상태 별로 음성 데이터의 소리 크기, 소리 폭, 특정 단어 포함 여부 및 사용자 정보 중 적어도 어느 하나를 포함하는 부가 정보를 추출하는 단계;
    입력된 음성 데이터와 각 감정상태별 음성 데이터를 매칭하는 단계; 및
    매칭 결과를 반복적으로 학습하는 기계학습 단계를 수행하는 것을 특징으로 하는 음성 데이터 제공 서버
  2. 제 1 항에 있어서,
    상기 표시 결정부는,
    상기 구분된 단계에 따라 상기 음성 데이터를 색상을 달리하여 상기 시각적 표시 방법을 결정하는 것을 특징으로 하는 음성 데이터 제공 서버
  3. 제 1 항에 있어서,
    상기 표시 결정부는,
    상기 구분된 단계에 따라 상기 음성 데이터에 대한 이모티콘을 생성하여 상기 시각적 표시 방법을 결정하는 것을 특징으로 하는 음성 데이터 제공 서버
  4. 제 1 항에 있어서,
    상기 음성 데이터 제공 서버는,
    상기 시각적 표시 방법이 결정된 상기 음성 데이터를 사용자 단말에 제공하는 제공부를 더 포함하는 것을 특징으로 하는 음성 데이터 제공 서버
  5. 제 4 항에 있어서,
    상기 제공부는,
    상기 음성 데이터의 제공에 대한 사용자 피드백을 수신하고, 상기 사용자 피드백에 따라 상기 음성 데이터를 리스트화하여 상기 사용자에게 제공하는 것을 특징으로 하는 음성 데이터 제공 서버
  6. 원 데이터에 대한 응답으로 사용자의 음성 데이터를 분석하여 결정된 감정 상태에 따른 시각적 표시 방법으로 상기 음성 데이터 또는 상기 음성 데이터의 리스트를 표시하는 디스플레이부; 및
    상기 리스트를 통해 선택된 음성 데이터 또는 상기 사용자의 감정 상태의 단계 선택에 대응되는 상기 음성 데이터를 제공하는 음성 데이터 제공부를 포함하고,
    상기 음성 데이터는, 상기 원 데이터에 대한 응답 중 음성 정보를 포함하는 것으로 추출된 것을 특징으로 하는 음성 데이터 제공 사용자 단말
  7. 삭제
  8. 제 6 항에 있어서,
    상기 음성 데이터 제공부는 상기 감정 상태의 단계 선택에 대응되는 복수의 음성 데이터를 연속으로 제공하는 것을 특징으로 하는 음성 데이터 제공 사용자 단말
  9. 원 데이터에 대한 응답으로 사용자의 음성 데이터를 분석하여 결정된 감정 상태에 따른 시각적 표시 방법으로 상기 음성 데이터의 집합에서 특정 음성 데이터를 추출하기 위한 이미지화된 사용자 인터페이스로 표시하는 디스플레이부; 및
    상기 추출되는 특정 음성 데이터를 제공하는 음성 데이터 제공부를 포함하는 것을 특징으로 하는 음성 데이터 제공 사용자 단말
  10. 제 9 항에 있어서,
    상기 디스플레이부는 상기 음성 데이터를 상기 감정 상태에 따른 색상 및 상기 음성 데이터의 관련 정보에 따른 크기를 갖는 이미지 객체로 형성화하여, 상기 이미지 객체가 담긴 뽑기 도구로 표시하고,
    상기 음성 데이터 제공부는 상기 뽑기 도구에서 추출되는 상기 이미지 객체에 대응되는 상기 특정 음성 데이터를 제공하는 것을 특징으로 하는 음성 데이터 제공 사용자 단말
  11. 삭제
KR1020150130854A 2015-09-16 2015-09-16 음성 데이터 제공 서버 및 사용자 단말 KR101715291B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150130854A KR101715291B1 (ko) 2015-09-16 2015-09-16 음성 데이터 제공 서버 및 사용자 단말

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150130854A KR101715291B1 (ko) 2015-09-16 2015-09-16 음성 데이터 제공 서버 및 사용자 단말

Publications (1)

Publication Number Publication Date
KR101715291B1 true KR101715291B1 (ko) 2017-03-13

Family

ID=58411669

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150130854A KR101715291B1 (ko) 2015-09-16 2015-09-16 음성 데이터 제공 서버 및 사용자 단말

Country Status (1)

Country Link
KR (1) KR101715291B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060098178A (ko) * 2005-03-10 2006-09-18 에스케이 텔레콤주식회사 커뮤니티 사이트에 음성 메시지를 등록하는 방법 및 이를위한 시스템
KR20080042208A (ko) * 2006-11-09 2008-05-15 이정미 음성 댓글
KR20130065846A (ko) * 2011-12-02 2013-06-20 삼성전자주식회사 사용자 감정 공유 장치 및 방법
KR20130083035A (ko) * 2011-12-28 2013-07-22 공병구 욕설과 칭찬 등의 감정 표현 및 그 정도를 인지하고 사이버상의 캐릭터에 그 영향을 표현하는 것

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060098178A (ko) * 2005-03-10 2006-09-18 에스케이 텔레콤주식회사 커뮤니티 사이트에 음성 메시지를 등록하는 방법 및 이를위한 시스템
KR20080042208A (ko) * 2006-11-09 2008-05-15 이정미 음성 댓글
KR20130065846A (ko) * 2011-12-02 2013-06-20 삼성전자주식회사 사용자 감정 공유 장치 및 방법
KR20130083035A (ko) * 2011-12-28 2013-07-22 공병구 욕설과 칭찬 등의 감정 표현 및 그 정도를 인지하고 사이버상의 캐릭터에 그 영향을 표현하는 것

Similar Documents

Publication Publication Date Title
US10212593B2 (en) Context-related arrangements
US10095918B2 (en) System and method for interpreting interpersonal communication
US11128997B1 (en) Complex computing network for improving establishment and broadcasting of audio communication among mobile computing devices and providing descriptive operator management for improving user experience
US20220070626A1 (en) Complex computing network for improving establishment and broadcasting of audio communication among mobile computing devices
CN108847214A (zh) 语音处理方法、客户端、装置、终端、服务器和存储介质
US11165911B1 (en) Complex computing network for improving establishment and broadcasting of audio communication among mobile computing devices and for improving speaker-listener engagement using audio conversation control
US11102452B1 (en) Complex computing network for customizing a visual representation for use in an audio conversation on a mobile application
US11228873B1 (en) Complex computing network for improving establishment and streaming of audio communication among mobile computing devices and for handling dropping or adding of users during an audio conversation on a mobile application
US20220070011A1 (en) Complex computing network for improving streaming of audio conversations and displaying of visual representations on a mobile application
US11265685B1 (en) Complex computing network for establishing audio communication between users on a mobile application
US11297469B2 (en) Complex computing network for generating and handling a waitlist associated with a speaker in an audio conversation on a mobile application
CN112653902A (zh) 说话人识别方法、装置及电子设备
US11196867B1 (en) Complex computing network for improving establishment and broadcasting of audio communication among mobile computing devices and for improving switching from listening mode to conversation mode on a mobile application
US11146688B1 (en) Complex computing network for initiating and extending audio conversations among mobile device users on a mobile application
US10986469B1 (en) Complex computing network for handling dropping of users during an audio conversation on a mobile application
JP2008005175A (ja) 情報配信装置、情報配信方法およびプログラム
US9906485B1 (en) Apparatus and method for coordinating live computer network events
JP2023540536A (ja) マルチモーダルゲームビデオの要約
JP2023540537A (ja) メタデータによるマルチモーダルゲームビデオの要約
US11864066B2 (en) Complex computing network for improving establishment and streaming of audio communication among mobile computing devices
JP6367748B2 (ja) 認識装置、映像コンテンツ提示システム
KR101715291B1 (ko) 음성 데이터 제공 서버 및 사용자 단말
JP2015146550A (ja) 情報処理装置、情報処理方法、及びプログラム
US11894938B2 (en) Executing scripting for events of an online conferencing service
CN109547853A (zh) 一种视频播放控制方法以及控制装置

Legal Events

Date Code Title Description
GRNT Written decision to grant