KR102312993B1 - 인공신경망을 이용한 대화형 메시지 구현 방법 및 그 장치 - Google Patents

인공신경망을 이용한 대화형 메시지 구현 방법 및 그 장치 Download PDF

Info

Publication number
KR102312993B1
KR102312993B1 KR1020200071862A KR20200071862A KR102312993B1 KR 102312993 B1 KR102312993 B1 KR 102312993B1 KR 1020200071862 A KR1020200071862 A KR 1020200071862A KR 20200071862 A KR20200071862 A KR 20200071862A KR 102312993 B1 KR102312993 B1 KR 102312993B1
Authority
KR
South Korea
Prior art keywords
speaker
call data
data
information
user terminal
Prior art date
Application number
KR1020200071862A
Other languages
English (en)
Inventor
이참솔
이현종
정주영
Original Assignee
주식회사 리턴제로
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 리턴제로 filed Critical 주식회사 리턴제로
Priority to KR1020200071862A priority Critical patent/KR102312993B1/ko
Priority to PCT/KR2020/008643 priority patent/WO2021251539A1/ko
Application granted granted Critical
Publication of KR102312993B1 publication Critical patent/KR102312993B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/18Artificial neural networks; Connectionist approaches
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72436User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. SMS or e-mail
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/725Cordless telephones

Abstract

대화형 메시지 구현 방법 및 그 장치가 제공된다. 본 발명의 일 실시예에 따른 대화형 메시지 구현 방법 사용자 단말로부터 제1 화자의 사용자 정보를 획득하는 단계, 제1 화자의 음성 데이터 및 제2 화자의 음성 데이터를 포함하는 통화 데이터를 획득하는 단계, 상기 통화 데이터를 인공신경망에 입력하여 음소 단위의 특징을 추출하고, 상기 추출된 음소 단위의 특징을 이용하여 상기 통화 데이터에 포함된 음성 데이터를 화자 별로 분리하는 단계, 상기 통화 데이터에 포함된 화자 별 음성 데이터에 대한 텍스트를 추출하는 단계, 상기 제1 화자의 사용자 정보를 기초로 상기 추출된 텍스트를 시계열 순서의 대화형 메시지로 구현하는 단계를 포함할 수 있다.

Description

인공신경망을 이용한 대화형 메시지 구현 방법 및 그 장치{ Method and apparatus for implementing interactive message using artificial neural network }
본 발명은 인공신경망을 이용하여 통화 데이터를 분석하여 대화형 메시지를 구현하는 방법 및 그 장치에 관한 것이다. 보다 상세하게는 녹음 데이터로부터 텍스트를 추출하고 화자 정보를 부가하여 대화형 메시지를 구현 및 제공할 수 있는 대화형 메시지 구현 방법, 장치 및 프로그램에 관한 것이다.
음성 인식(Speech Recognition)이란 사람이 말하는 음성 언어를 컴퓨터가 해석해 그 내용을 문자 데이터로 전환하는 처리를 말한다. STT(Speech-to-Text)라고도 하며, 키보드 대신 문자를 입력하는 방식으로 주목을 받고 있다. 음성 인식은 로봇, 텔레매틱스 등 음성으로 기기제어, 정보검색이 필요한 경우에 다양하게 응용될 수 있다. 대표적인 알고리즘은 HMM(Hidden Markov Model)으로서, 다양한 화자들이 발성한 음성들을 통계적으로 모델링하여 음향모델을 구성하며 말뭉치 수집을 통하여 언어모델을 구성할 수 있다. 또한, 미리 기록해 둔 음성 패턴과 비교해 개인 인증 등의 용도로 사용하기도 하는데 이를 화자 인식이라고 할 수 있다.
한편, 사용자 단말에는 녹음 어플리케이션이 포함될 수 있다. 녹음 어플리케이션은 외부의 사운드를 수집하여 녹음하기도 하지만, 사용자 단말의 사용자와 타자와의 통화 내용을 녹음하기도 한다. 녹음된 통화 내용은 사용자 단말에 저장되어 사용자가 통화 내용을 다시 듣기 위해 사용할 수 있다.
전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
본 발명의 실시예들은 마커 정보가 유실되는 경우에도 충분한 양의 데이터 확보를 확보할 수 있는 물체의 3차원 모델 데이터 생성 방법 및 그 장치를 제공한다.
본 발명은 통화 내용을 자동적으로 대화형 메시지로 변환하는 것을 일 목적으로 한다.
또한, 본 발명은 통화 내용을 대화형 메시지로 문서화하고, 대화형 메시지에 발화 내용, 화자 정보, 발화 시간 정보를 표시하는 것을 다른 목적으로 한다.
본 발명의 일 실시예에 따르면 컴퓨팅 장치에 의해 수행되는 대화형 메시지 구현 방법은 사용자 단말로부터 제1 화자의 사용자 정보를 획득하는 단계, 제1 화자의 음성 데이터 및 제2 화자의 음성 데이터를 포함하는 통화 데이터를 획득하는 단계, 상기 통화 데이터를 인공신경망에 입력하여 음소 단위의 특징을 추출하고, 상기 추출된 음소 단위의 특징을 이용하여 상기 통화 데이터에 포함된 음성 데이터를 화자 별로 분리하는 단계, 상기 통화 데이터에 포함된 화자 별 음성 데이터에 대한 텍스트를 추출하는 단계, 상기 제1 화자의 사용자 정보를 기초로 상기 추출된 텍스트를 시계열 순서의 대화형 메시지로 구현하는 단계를 포함할 수 있다.
일 실시예에서 상기 음성 데이터를 화자 별로 분리하는 단계는, 상기 인공신경망에 상기 사용자 정보를 더 입력하여 상기 음소 단위의 특징을 추출하고, 상기 추출된 음소 단위의 특징을 이용하여 상기 통화 데이터에 포함된 음성 데이터를 화자 별로 분리하는 단계를 포함할 수 있다.
일 실시예에서 상기 제1 화자의 사용자 정보는, 상기 제1 화자의 음성 특성 정보, 상기 제1 화자의 개인 정보 및 상기 제1 화자의 사용자 단말 이용 정보를 포함할 수 있다.
일 실시예에서 상기 제1 화자의 음성 특성 정보는, 상기 제1 화자의 사투리 지역 정보 및 상기 제1 화자의 사투리 사용 빈도 정보를 포함하고, 상기 제1 화자의 개인 정보는, 상기 제1 화자의 직업 정보를 포함하고, 상기 제1 화자의 사용자 단말 이용 정보는, 상기 사용자 단말의 로그 데이터를 기초로 생성될 수 있다.
일 실시예에서 상기 통화 데이터를 획득하는 단계는, 제1 시점의 상기 제1 화자의 음성 데이터 및 상기 제2 화자의 음성 데이터를 포함하는 제1 통화 데이터를 획득하는 단계 및 제2 시점의 상기 제1 화자의 음성 데이터 및 상기 제2 화자의 음성 데이터를 포함하는 제2 통화 데이터를 획득하는 단계를 포함하고, 상기 통화 데이터에 대한 대화형 메시지로 구현하는 단계는, 상기 제1 시점 및 상기 제2 시점 간의 간격이 지정된 기준보다 짧은 경우, 상기 제1 통화 데이터 및 상기 제2 통화 데이터를 하나의 대화형 메시지로 구현하는 단계를 포함할 수 있다.
일 실시예에서 상기 통화 데이터에 대한 대화형 메시지로 구현하는 단계는, 상기 제1 시점 및 상기 제2 시점의 간격이 지정된 기준보다 긴 경우, 상기 제1 통화 데이터 및 상기 제2 통화 데이터를 각각 별개의 대화형 메시지 형태로 구현하는 단계 및 상기 구현된 상기 제1 통화 데이터 및 상기 제2 통화 데이터와 대응되는 대화형 메시지를 리스트 형태로 상기 사용자 단말의 디스플레이에 표시하는 단계를 포함할 수 있다.
일 실시예에서 상기 대화형 메시지를 상기 사용자 단말의 디스플레이에 표시하는 단계 및 상기 디스플레이의 GUI 영역은 복수의 메시지 UI객체를 포함하고, 제1 메시지 UI객체에 대한 사용자 입력에 응답하여 상기 제1 메시지 UI객체에 대응되는 음성 데이터를 재생하는 단계를 더 포함할 수 있다.
일 실시예에서 상기 통화 데이터를 획득하는 단계는, 제1 화자의 음성 데이터 및 제2 화자의 음성 데이터를 포함하는 제1 통화 데이터를 획득하는 단계 및 제1 화자의 음성 데이터 및 제3 화자의 음성 데이터를 포함하는 제3 통화 데이터를 획득하는 단계를 포함하고, 상기 대화형 메시지로 구현하는 단계는, 상기 제1 통화 데이터에 대응되는 대화형 메시지 및 상기 제3 통화 데이터에 대응되는 대화형 메시지를 리스트 형태로 상기 사용자 단말의 디스플레이에 표시하는 단계를 포함할 수 있다.
일 실시예에서 상기 추출된 음소 단위의 특징을 이용하여 상기 통화 데이터에 포함된 음성 데이터를 화자 별로 분리하는 단계는, 상기 통화 데이터를 화자가 변경되는 시점을 기준으로 분리하고, 상기 분리된 구간마다 화자 정보를 부가하는 단계를 포함할 수 있다.
본 발명의 다른 실시예에 따른 대화형 메시지 구형 장치는 프로세서를 포함하고, 상기 프로세서는, 사용자 단말로부터 제1 화자의 사용자 정보를 획득하고, 제1 화자의 음성 데이터 및 제2 화자의 음성 데이터를 포함하는 통화 데이터를 획득하고, 상기 통화 데이터를 인공신경망에 입력하여 음소 단위의 특징을 추출하고 상기 추출된 음소 단위의 특징을 이용하여 상기 통화 데이터에 포함된 음성 데이터를 화자 별로 분리하고, 상기 통화 데이터에 포함된 화자 별 음성 데이터에 대한 텍스트를 추출하며, 상기 제1 화자의 사용자 정보를 기초로 상기 추출된 텍스트를 시계열 순서의 대화형 메시지로 구현할 수 있다.
일 실시예에서 상기 프로세서는, 상기 인공신경망에 상기 사용자 정보를 더 입력하여 상기 음소 단위의 특징을 추출하고, 상기 추출된 음소 단위의 특징을 이용하여 상기 통화 데이터에 포함된 음성 데이터를 화자 별로 분리할 수 있다.
일 실시예에서 상기 제1 화자의 사용자 정보는, 상기 제1 화자의 음성 특성 정보, 상기 제1 화자의 개인 정보 및 상기 제1 화자의 사용자 단말 이용 정보를 포함할 수 있다.
일 실시예에서 상기 제1 화자의 음성 특성 정보는, 상기 제1 화자의 사투리 지역 정보 및 상기 제1 화자의 사투리 사용 빈도 정보를 포함하고, 상기 제1 화자의 개인 정보는, 상기 제1 화자의 직업 정보를 포함하고, 상기 제1 화자의 사용자 단말 이용 정보는, 상기 사용자 단말의 로그 데이터를 기초로 생성될 수 있다.
일 실시예에서 상기 프로세서는, 제1 시점의 상기 제1 화자의 음성 데이터 및 상기 제2 화자의 음성 데이터를 포함하는 제1 통화 데이터를 획득하고, 제2 시점의 상기 제1 화자의 음성 데이터 및 상기 제2 화자의 음성 데이터를 포함하는 제2 통화 데이터를 획득하고, 상기 제1 시점 및 상기 제2 시점 간의 간격이 지정된 기준보다 짧은 경우, 상기 제1 통화 데이터 및 상기 제2 통화 데이터를 하나의 대화형 메시지로 구현할 수 있다.
일 실시예에서 상기 프로세서는, 상기 제1 시점 및 상기 제2 시점의 간격이 지정된 기준보다 긴 경우 상기 제1 통화 데이터 및 상기 제2 통화 데이터를 각각 별개의 대화형 메시지 형태로 구현하고, 상기 구현된 상기 제1 통화 데이터 및 상기 제2 통화 데이터와 대응되는 대화형 메시지를 리스트 형태로 상기 사용자 단말의 디스플레이에 표시할 수 있다.
일 실시예에서 상기 프로세서는, 상기 대화형 메시지를 상기 사용자 단말의 디스플레이에 표시하고, 상기 디스플레이의 GUI 영역은 복수의 메시지 UI객체를 포함하고, 제1 메시지 UI객체에 대한 사용자 입력에 응답하여 상기 제1 메시지 UI객체에 대응되는 음성 데이터를 재생할 수 있다.
일 실시예에서 상기 프로세서는, 제1 화자의 음성 데이터 및 제2 화자의 음성 데이터를 포함하는 제1 통화 데이터를 획득하고, 제1 화자의 음성 데이터 및 제3 화자의 음성 데이터를 포함하는 제3 통화 데이터를 획득하고, 상기 제1 통화 데이터에 대응되는 대화형 메시지 및 상기 제3 통화 데이터에 대응되는 대화형 메시지를 리스트 형태로 상기 사용자 단말의 디스플레이에 표시할 수 있다.
일 실시예에서 상기 프로세서는, 상기 통화 데이터를 화자가 변경되는 시점을 기준으로 분리하고, 상기 분리된 구간마다 화자 정보를 부가할 수 있다.
도 1은 본 발명의 일 실시예에 따른 대화형 메시지 구현 방법을 포함하는 대화형 메시지 구현 시스템의 예를 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 대화형 메시지 구현 장치의 구성 및 동작을 설명하기 위한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 대화형 메시지 구현 방법의 순서도이다.
도 4는 본 발명의 일 실시예에 따라 복수의 통화 데이터가 리스트 형태로 표시된 사용자 단말 GUI의 일 예시도이다.
도 5는 본 발명의 일 실시예에 따라 대화형 메시지가 표시된 사용자 단말 GUI의 일 예시도이다.
도 6은 본 발명의 일 실시예에 따라 동일한 화자들의 복수의 통화 데이터가 표시된 사용자 단말 GUI의 일 예시도이다.
도 7은 본 발명의 일 실시예에 따라 사용자 입력에 응답하여 음성 데이터를 출력하는 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따라 대화형 메시지 내에서 검색을 수행하는 방법을 설명하기 위한 도면이다.
도 9 내지 도 10은 본 발명의 일 실시예에 따라 통화 데이터와 관련된 정보를 제공하는 방법을 설명하기 위한 도면이다.
도 11 내지 도 13은 본 발명의 일 실시예에 따라 화자 별 사용자 정보를 설명하기 위한 도면이다.
도 14는 본 발명의 일 실시예에 따라 텍스트를 추출하는 방법을 설명하기 위한 도면이다.
도 15는 본 발명의 일 실시예에 따라 통화 데이터를 분석하는 방법을 설명하기 위한 도면이다.
도 16은 본 발명의 일 실시예에 따라 통화 데이터를 화자 별로 분리하는 방법을 설명하기 위한 도면이다.
도 17은 도 16에 따라 화자 별로 분리된 대화형 데이터를 출력하는 방법을 설명하기 위한 도면이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.
본 발명에서 개시하는 인공 지능(artificial intelligence, AI)은 인공적인 지능 또는 이를 만들 수 있는 방법론을 연구하는 분야를 의미할 수 있고, 기계 학습(machine learning)은 인공지능 기술의 한 분야로서 컴퓨팅 장치가 데이터를 통해 학습하여 특정 대상 혹은 조건을 이해할 수 있게 하거나 데이터의 패턴을 찾아내 분류하는 기술적 방식으로써 컴퓨터가 데이터를 분석할 수 있게 하는 알고리즘일 수 있다. 본 발명에서 개시하는 기계 학습은 인공지능 모델을 학습하기 위한 동작 방법을 포함하는 의미로서 이해될 수 있다.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 대화형 메시지 구현 방법을 포함하는 대화형 메시지 구현 시스템의 예를 도시한 도면이다. 도 1의 네트워크 환경은 복수의 사용자 단말들(111, 112, 113, 114) 및 적어도 하나의 서버(100) 및 네트워크를 포함하는 예를 도시하고 있다. 다만, 도시된 대화형 메시지 구현 시스템의 하드웨어 구성 및 네트워크 환경은 본 발명의 이해를 용이하게 하기 위한 일 예시일 뿐, 사용자 단말의 수나 서버의 수가 도시된 바에 한정되는 것은 아님에 유의한다.
본 발명의 몇몇 실시예에 따른 대화형 메시지 구현 시스템은 적어도 하나의 사용자 단말(110) 및 대화형 메시지 구현 서버(100)를 포함할 수 있다. 일 실시예에서 대화형 메시지 구현 서버(100)는 적어도 하나의 사용자 단말(110)로부터 둘 이상의 화자의 음성 데이터를 포함하는 통화 데이터를 획득할 수 있다. 이후 대화형 메시지 구현 서버(100)는 상술한 통화 데이터를 텍스트로 변환하여 사용자 단말에 전송할 수 있다.
일 실시예에서 사용자 단말(110)은 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 복수의 사용자 단말들의 예를 들면, 스마트폰(smart phone), 휴대폰, 네비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC 등이 있다. 일례로 특정 사용자 단말(111)은 무선 또는 유선 통신 방식을 이용하여 네트워크를 통해 다른 사용자 단말들(112, 113, 114) 및/또는 서버(100)와 통신할 수 있다.
통신 방식은 제한되지 않으며, 네트워크가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.
서버(100) 각각은 사용자 단말들(111, 112, 113, 114)과 네트워크를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다.
일례로, 서버(100)는 네트워크를 통해 접속한 적어도 하나의 사용자 단말(110)로 어플리케이션의 설치를 위한 파일을 제공할 수 있다. 이 경우 해당 사용자 단말은 서버(100)로부터 제공된 파일을 이용하여 어플리케이션을 설치할 수 있다. 또한 사용자 단말(110)은 해당 사용자 단말이 포함하는 운영체제(Operating System, OS) 및 적어도 하나의 프로그램(일례로 브라우저나 설치된 어플리케이션)의 제어에 따라 서버(100)에 접속하여 서버(100)가 제공하는 서비스나 컨텐츠를 제공받을 수 있다. 예를 들어, 특정 사용자 단말(111)이 어플리케이션의 제어에 따라 네트워크를 통해 서비스 요청 메시지를 서버(100)로 전송하면, 서버(100)는 서비스 요청 메시지에 대응하는 코드를 특정 사용자 단말(111)로 전송할 수 있고, 상술한 사용자 단말(111)은 어플리케이션의 제어에 따라 코드에 따른 화면을 구성하여 표시함으로써 사용자에게 컨텐츠를 제공할 수 있다.
도 2는 본 발명의 일 실시예에 따른 대화형 메시지 구현 장치의 구성 및 동작을 설명하기 위한 블록도이다.
도 2에서는 본 발명의 일 실시예에 따른 대화형 메시지 구현 방법을 수행하는 사용자 단말 1(111), 사용자 단말 2(112) 및 대화형 메시지 구형 대화형 메시지 구현 서버(100)의 내부 구성에 대하여 상세히 설명한다.
일 실시예에서 대화형 메시지 구현하는 사용자 단말1 (111), 사용자 단말 2(112) 및 대화형 메시지 구현 서버(100)는 메모리(201, 211, 101), 프로세서(202, 212, 102), 입출력 인터페이스(204, 214, 104) 및 통신 모듈(203, 213, 103)을 포함할 수 있다.
메모리(201, 211, 101)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리(201, 211, 101)에는 사용자 단말 1(111), 사용자 단말 2(112) 및 대화형 메시지 구현 서버(100)를 제어하기 위한 프로그램 코드 및 설정, 통화 데이터 및 변환된 텍스트가 일시적 또는 영구적으로 저장될 수 있다.
프로세서(202, 212, 102)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(201, 211, 101) 또는 통신 모듈(203, 213, 103)에 의해 프로세서(202, 212, 103)로 제공될 수 있다. 예를 들어 프로세서(202, 212, 103))는 메모리(201, 211, 101)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
통신 모듈(203, 213, 103)은 네트워크를 통해 대화형 메시지 구현 서버(100)와 통신하기 위한 기능을 제공할 수 있다. 일례로, 사용자 단말 1(111)의 프로세서(202)가 메모리(201)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신 모듈(203)의 제어에 따라 네트워크를 통해 대화형 메시지 구현 서버(100)로 전달될 수 있다. 역으로, 대화형 메시지 구현 서버(100)의 프로세서(102)의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 네트워크를 거쳐 통신 모듈(213)을 통해 사용자 단말 2(112)로 수신될 수 있다. 예를 들어 통신 모듈(203, 213)을 통해 수신된 대화형 메시지 구현 서버(100)의 제어 신호나 명령 등은 프로세서(202, 212)나 메모리(201, 211)로 전달될 수 있고, 컨텐츠나 파일 등은 사용자 단말 1(111) 및 사용자 단말 2(112)이 더 포함할 수 있는 저장 매체로 저장될 수 있다.
또한, 통신 모듈(203, 213, 103)은 대화형 메시지 구현 서버(100)와 네트워크를 통해 통신할 수 있다. 통신 방식은 제한되지 않지만, 네트워크는 근거리 무선통신망일 수 있다. 예를 들어, 네트워크는 블루투스(Bluetooth), BLE(Bluetooth Low Energy), Wifi 통신망일 수 있다.
입출력 인터페이스(204, 214, 104)는 입출력 장치와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 어플리케이션의 통신 세션을 표시하기 위한 디스플레이와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(204, 214, 104)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 보다 구체적인 예로, 사용자 단말 1(111)의 프로세서(202)는 메모리(201)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어서 대화형 메시지 구현 서버(100)나 사용자 단말 2(112)가 제공하는 데이터를 이용하여 구성되는 서비스 화면이나 컨텐츠가 입출력 인터페이스(204)를 통해 디스플레이에 표시될 수 있다.
또한, 다른 실시예들에서 사용자 단말 1(111), 사용자 단말 2(112)는 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 사용자 단말 1(111) 및 사용자 단말 2(112)은 사용자 단말의 내부 구성요소들에 전력을 공급하는 배터리 및 충전 장치를 포함할 수 있고, 상술한 입출력 장치 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다.
도 3은 본 발명의 일 실시예에 따른 대화형 메시지 구현 방법의 순서도이다.
단계 S110에서 대화형 메시지 구현 장치는 사용자 단말로부터 제1 화자의 사용자 정보를 획득할 수 있다. 일 실시예에서 제1 화자의 사용자 정보는, 1 화자의 음성 특성 정보, 제1 화자의 개인 정보 및 제1 화자의 사용자 단말 이용 정보를 포함할 수 있다. 일 실시예에서 제1 화자의 음성 특성 정보는, 1 화자의 사투리 지역 정보 및 제1 화자의 사투리 사용 빈도 정보를 포함하고, 1 화자의 개인 정보는, 1 화자의 직업 정보를 포함하고, 제1 화자의 사용자 단말 이용 정보는, 사용자 단말의 로그 데이터를 기초로 생성될 수 있다. 제1 화자는 사용자 단말의 사용자로, 이하 본 발명의 이해를 용이하게 하기 위해 제1 화자는 사용자로 기재될 수 있음에 유의한다.
단계 S120에서 대화형 메시지 구현 장치는 제1 화자의 음성 데이터 및 제2 화자의 음성 데이터를 포함하는 통화 데이터를 획득할 수 있다. 통화 데이터의 형식은 제한되지 않는다. 예를 들어 통화 데이터는 제1 화자 및 제2 화자간 통화 녹음 데이터일 수 있고, 외부 서버에서 수신한 음성 데이터일 수도 있다.
단계 S130에서 대화형 메시지 구현 장치는 통화 데이터를 인공신경망에 입력하여 음소 단위의 특징을 추출할 수 있다. 보다 구체적으로 일 실시예에 따른 대화형 메시지 구현 장치는 통화 데이터를 지정된 기준의 샘플링 레이트로 샘플링을 수행하는 전처리 과정을 수행할 수 있고, 이후 전처리 과정을 거친 통화 데이터를 인공신경망에 입력하여 음소 단위의 특징의 추출할 수 있다.
단계 S140에서 대화형 메시지 구현 장치는 추출된 음소 단위의 특징을 이용하여 통화 데이터에 포함된 음성 데이터를 화자 별로 분리할 수 있다. 일 실시예에서 대화형 메시지 구현 장치는 인공신경망에 사용자 정보를 더 입력하여 음소 단위의 특징을 추출하고, 추출된 음소 단위의 특징을 이용하여 통화 데이터에 포함된 음성 데이터를 화자 별로 분리할 수 있다.
보다 구체적으로 대화형 메시지 구현 장치의 인공신경망은 군집화 알고리즘을 이용하여 추출된 음소 단위의 특징(d-vector)을 기초로 화자 분리를 수행할 수 있다. 본 실시예에서 대화형 메시지 구현 장치는 화자별로 분리된 목소리 중 여러 통화에서 반복적으로 나타나는 목소리를 제1 화자의 음성 데이터로 인식할 수 있다.
이후, 본 발명의 몇몇 실시예에 따른 대화형 메시지 구현 장치는 통화 데이터를 화자가 변경되는 시점을 기준으로 분리하고, 분리된 구간마다 화자 정보를 부가할 수 있다. 보다 상세한 설명은 이하 관련 도면에서 후술한다.
단계 S150에서 대화형 메시지 구현 장치는 통화 데이터에 포함된 화자 별 음성 데이터에 대한 텍스트를 추출할 수 있다. 음성 데이터의 형식은 한정되지 않으나, 일 실시예에 따른 음성 데이터는 오디오 형식의 데이터일 수 있다. 이 경우, 대화형 메시지 구현 장치는 ASR (Automatic Speech Recognition)을 통해 휴대폰에 저장되어 있는 음성 녹음 파일을 텍스트 파일로 전사할 수 있다. 다만 이는 오디오 형식의 데이터를 텍스트로 변환하기 위한 일 예시일 뿐, 본 발명의 몇몇 실시예에 따른 텍스트 추출 방법이 이에 한정되는 것은 아님에 유의한다.
단계 S160에서 대화형 메시지 구현 장치는 제1 화자의 사용자 정보를 기초로 추출된 텍스트를 시계열 순서의 대화형 메시지로 구현할 수 있다.
일 실시예에서 대화형 메시지 구현 장치는 제1 시점의 제1 화자의 음성 데이터 및 제2 화자의 음성 데이터를 포함하는 제1 통화 데이터를 획득하고, 제2 시점의 제1 화자의 음성 데이터 및 제2 화자의 음성 데이터를 포함하는 제2 통화 데이터를 획득할 수 있다. 이후, 일 실시예에 따른 대화형 메시지 구현 장치는 상술한 제1 시점 및 제2 시점 간의 간격이 지정된 기준보다 짧은 경우, 제1 통화 데이터 및 제2 통화 데이터를 하나의 대화형 메시지로 구현할 수 있다.
선택적 실시예에서 대화형 메시지 구현 장치는 상술한 제1 시점 및 제2 시점의 간격이 지정된 기준보다 긴 경우, 제1 통화 데이터 및 제2 통화 데이터를 각각 별개의 대화형 메시지 형태로 구현할 수 있다. 이 경우 대화형 메시지 구현 장치는 구현된 제1 통화 데이터 및 제2 통화 데이터와 대응되는 대화형 메시지를 리스트 형태로 사용자 단말의 디스플레이에 표시할 수 있다.
보다 상세한 설명은 관련 도면에서 상세히 후술한다.
도 4는 본 발명의 일 실시예에 따라 복수의 통화 데이터가 리스트 형태로 표시된 사용자 단말 GUI의 일 예시도이다.
본 발명의 몇몇 실시예에 따른 대화형 메시지 구현 장치는 제1 화자의 음성 데이터 및 제2 화자의 음성 데이터를 포함하는 제1 통화 데이터를 획득하고, 제1 화자의 음성 데이터 및 제3 화자의 음성 데이터를 포함하는 제3 통화 데이터를 획득할 수 있다. 이 경우 대화형 메시지 구현 장치는 상술한 제1 통화 데이터에 대응되는 대화형 메시지 및 제3 통화 데이터에 대응되는 대화형 메시지를 리스트 형태로 사용자 단말의 디스플레이에 표시할 수 있다.
도시된 바를 참조하면, 사용자 단말(110)의 사용자인 제1 화자는 제3 화자인 "김상욱", 제4 화자인 "010-8360-0000" 및 제5 화자인 "박소영"과의 통화 데이터 각각에 대응되는 대화형 메시지를 리스트 형태로 디스플레이에 출력할 수 있다.
본 발명의 다른 실시예에 따르면, 대화형 메시지 구현 장치는 소정의 조건을 만족하는 사용자 단말에 대하여 지정된 시점의 통화 데이터에 대응되는 대화형 메시지를 확인하기 위한 사용자 권한을 부여할 수 있다. 이 경우 소정의 조건을 만족하는 사용자 단말에 한하여 상술한 대화형 메시지가 출력될 수 있다. 예를 들어, 과거 일정 기간(예를 들어, 5일)에 해당하는 통화 데이터에 대응되는 대화형 메시지는 모든 사용자 단말에서 확인될 수 있으나, 지정된 기준보다 긴 기간(예를 들어, 과거 90일 혹은 2년)의 통화 데이터에 대응되는 대화형 메시지는 소정의 조건을 만족하는 사용자 단말에 한하여 확인될 수 있다.
도시된 바를 참조하면, 해당 사용자 단말(110)의 사용자가 권한이 없는 경우, 5일 이내의 통화 데이터에 대응되는 대화형 메시지 리스트(115)의 경우 확인할 수 있지만, 5일 이전의 통화 데이터에 대응되는 대화형 메시지 리스트(116)의 경우 확인할 수 있다.
도 5는 본 발명의 일 실시예에 따라 대화형 메시지가 표시된 사용자 단말 GUI의 일 예시도이다.
일 실시예에서 대화형 메시지 구현 장치는 제1 화자의 사용자 정보를 기초로 추출된 텍스트를 시계열 순서의 대화형 메시지로 구현할 수 있다. 본 발명의 몇몇 실시예에 따라 사용자 단말의 디스플레이에 출력되는 대화형 메시지의 UI 구성 방식은 한정되지 않는다. 예를 들어, 도시된 바를 참조할 때, 대화형 메시지는 사용자 단말(110)의 디스플레이에 스크롤 가능한 복수의 UI 객체 형태로 출력될 수 있다. 통화 데이터에 포함된 각각의 발화 내용은 말풍선에 담겨서 화자에 따라 우측(126) 또는 좌측(125)에 표시될 수 있다.
또한, 본 발명의 일 실시예에 따른 사용자 단말(110)은 도시된 바를 참조하면 통화 일자(124), 제2 화자의 정보(121)를 더 표시할 수 있다. 뿐만 아니라 해당 대화형 메시지에서 특정 문구를 검색할 수 있는 UI객체(122) 및 제2 화자와의 다른 통화 데이터에 대응되는 대화형 메시지 확인을 위한 UI객체(123)를 더 포함할 수 있다.
도 6은 본 발명의 일 실시예에 따라 동일한 화자들의 복수의 통화 데이터가 표시된 사용자 단말 GUI의 일 예시도이다.
본 발명의 일 실시예에서 대화형 메시지 구현 장치는 제1 시점의 제1 화자의 음성 데이터 및 제2 화자의 음성 데이터를 포함하는 제1 통화 데이터를 획득하고, 제2 시점의 제1 화자의 음성 데이터 및 제2 화자의 음성 데이터를 포함하는 제2 통화 데이터를 획득할 수 있다. 이후, 일 실시예에 따른 대화형 메시지 구현 장치는 상술한 제1 시점 및 제2 시점 간의 간격이 지정된 기준보다 짧은 경우, 제1 통화 데이터 및 제2 통화 데이터를 하나의 대화형 메시지로 구현할 수 있다. 도 5는 본 실시예에서 제1 통화 데이터 및 제2 통화 데이터를 하나의 대화형 메시지로 출력하는 경우를 도시한 도면이다.
선택적 실시예에서 대화형 메시지 구현 장치는 상술한 제1 시점 및 제2 시점의 간격이 지정된 기준보다 긴 경우, 제1 통화 데이터 및 제2 통화 데이터를 각각 별개의 대화형 메시지 형태로 구현할 수 있다. 이 경우 대화형 메시지 구현 장치는 구현된 제1 통화 데이터 및 제2 통화 데이터와 대응되는 대화형 메시지를 리스트 형태로 사용자 단말의 디스플레이에 표시할 수 있다. 도 6은 본 실시예에서 제1 통화 데이터 및 제2 통화 데이터 각각에 대응되는 대화형 메시지가 리스트 형태(130)로 표시된 경우를 도시한 도면이다. 이 경우, 사용자 단말(110)에는 동일한 상대와 통화한 다수의 대화형 메시기가 시간순으로 표시될 수 있다. 도시된 바를 참조할 때, 본 실시예에 따른 사용자 단말(110)의 디스플레이 일 영역에는 동일한 상대와 통화한 복수의 대화형 메시지가 표시될 수 있고, 특정 대화형 메시지에 대한 사용자 입력을 통해 해당 대화형 메시지에 대한 데이터만 확인하는 페이지로 전환될 수 있다.
도 7은 본 발명의 일 실시예에 따라 사용자 입력에 응답하여 음성 데이터를 출력하는 방법을 설명하기 위한 도면이다.
일 실시예에 따른 사용자 단말(110) 디스플레이의 GUI 영역은 복수의 메시지 UI객체를 포함하고, 제1 메시지 UI객체에 대한 사용자 입력에 응답하여 제1 메시지 UI객체에 대응되는 음성 데이터를 재생할 수 있다. 예를 들어 대화형 메시지를 표시하는 사용자 단말의 GUI의 각 메시지 UI객체는 말풍선 형태로 생성될 수 있고, 각각의 말풍선에는 특정 화자의 발화 내용이 텍스트로 표시될 수 있다. 이 경우 사용자 단말(110)은 특정 말풍선(140)에 대한 사용자 입력에 응답하여 말풍선 내의 텍스트 부분에 대응되는 음성 데이터를 재생할 수 있다.
다른 실시예에서 사용자 단말(110)은 별도의 UI객체에 대한 사용자 입력 또는 별도의 사용자 제스처 입력에 응답하여 통화 데이터 전체를 재생할 수 있다. 또한 사용자 단말(110)은 '건너뛰기'를 수행하기 위한 UI객체에 대한 사용자 입력 또는 사용자 제스처 입력에 응답하여 이전 말풍선/다음 말풍선 혹은 이전 통화/다음 통화를 재생할 수도 있다.
도 8은 본 발명의 일 실시예에 따라 대화형 메시지 내에서 검색을 수행하는 방법을 설명하기 위한 도면이다.
일 실시예에 따른 사용자 단말(110)은 검색 기능을 통해 통화 내용 중 했던 특정 키워드나 문장을 찾아서 해당 통화의 해당 부분으로 디스플레이의 출력 영역을 이동할 수 있다. 도시된 바를 참조할 때, 사용자 단말(110)은 검색 영역(150)에 사용자가 검색어 '요르단'을 입력하는 것에 응답하여, '요르단'을 포함하는 발화 내용에 대응되는 메시지 UI객체(151)를 표시하도록 디스플레이의 출력 영역을 변경할 수 있다.
 도시되지는 않았으나 다른 실시예에 따른 사용자 단말(110)은 "화면 캡쳐" 또는 "대화 내용 내보내기"를 수행하기 위한 UI객체에 대한 사용자 입력을 수신하는 것에 응답하여, 특정 통화 데이터에 해당하는 스크린 샷 이미지, 영상 또는 텍스트를 사용자 단말(110)의 별도 저장 공간에 저장할 수 있다.
 또 다른 실시예에서 사용자 단말(110)은 소정의 사용자 입력에 응답하여 특정 통화 데이터에 대응되는 대화형 메시지를 삭제하거나 특정 상대방과의 통화 데이터에 대한 대화형 메시지를 생성하지 않을 수 있다.
도 9 내지 도 10은 본 발명의 일 실시예에 따라 통화 데이터와 관련된 정보를 제공하는 방법을 설명하기 위한 도면이다.
도 9를 참조할 때, 일 실시예에서 대화형 메시지 구현 장치는 인공신경망에 사용자 정보를 더 입력하여 음소 단위의 특징을 추출하고, 추출된 음소 단위의 특징을 이용하여 통화 데이터에 포함된 음성 데이터를 화자 별로 분리할 수 있다. 본 실시예에서 대화형 메시지 구현 장치는 화자 별로 분리한 음성 데이터 각각에 대한 정확도 정보를 더 생성할 수 있다. 이 경우, 대화형 메시지 구현 장치는 음성 데이터 각각에 대한 정확도가 임계값 미만인 경우, 사용자 단말에 정확도가 낮음을 알리는 정보를 더 전달할 수 있다. 이 경우 사용자 단말(110)은 디스플레이에 화자 별 구분의 정확도가 낮음을 알리는 팝업(160)을 더 표시할 수 있다.
일 실시예에서 사용자 단말(110)은 화자 변 분리된 음성 데이터를 포함하는 대화형 메시지에 대한 사용자의 피드백 정보를 더 수신할 수 있다. 사용자 단말(110)로부터 상술한 사용자의 피드백 정보를 수신한 대화형 메시지 구현 장치는 사용자의 피드백 정보를 이용하여 인공신경망의 강화학습을 수행할 수도 있다. 이를 통해 대화형 메시지 구현 장치의 인공신경망의 정확도가 점점 더 향상될 수 있음은 물론이다.
도 10을 참조할 때, 일 실시예에 따른 사용자 단말(110)은 해당 통화 데이터의 상대방과 수행한 다른 통화 데이터와 관련된 정보를 더 표시할 수 있다. 즉, 본 발명의 몇몇 실시예에 따른 대화형 메시지 구현 장치는 특정 통화 데이터와 사용자 및 상대방 정보를 쌍을 이루어 저장 및 관리할 수 있다. 또한 대화형 메시지 구현 장치는 각각의 통화 데이터에 대하여 통화 시간 정보를 더 포함하여 저장 및 관리할 수 있다. 이를 통해 대화형 메시지 구현 장치는 사용자 단말(110)의 요청에 따라 다양한 형태로 통화 데이터를 정렬 및 그룹화 하여 제공할 수 있다.
도시된 바를 참조하면, 대화형 메시지 구현 장치는 사용자 단말(110)의 요청에 응답하여 특정 상대방('강혜지')과의 다른 통화 데이터와 관련된 정보를 더 전달할 수 있다. 이후 특정 상대방과의 다른 통화 데이터와 관련된 정보를 수신한 사용자 단말(110)은 디스플레이의 별도의 영역 또는 팝업창을 통해 해당 내용(170)을 출력할 수 있다.
도 11 내지 도 13은 본 발명의 일 실시예에 따라 화자 별 사용자 정보를 설명하기 위한 도면이다.
일 실시예에서 대화형 메시지 구현 장치는 사용자 단말로부터 제1 화자의 사용자 정보를 획득할 수 있다. 일 실시예에서 제1 화자의 사용자 정보는, 1 화자의 음성 특성 정보, 제1 화자의 개인 정보 및 제1 화자의 사용자 단말 이용 정보를 포함할 수 있다. 일 실시예에서 제1 화자의 음성 특성 정보는, 1 화자의 사투리 지역 정보 및 제1 화자의 사투리 사용 빈도 정보를 포함하고, 1 화자의 개인 정보는, 1 화자의 직업 정보를 포함하고, 제1 화자의 사용자 단말 이용 정보는, 사용자 단말의 로그 데이터를 기초로 생성될 수 있다. 이후, 대화형 메시지 구현 장치는 인공신경망에 사용자 정보를 더 입력하여 음소 단위의 특징을 추출하고, 추출된 음소 단위의 특징을 이용하여 통화 데이터에 포함된 음성 데이터를 화자 별로 분리할 수 있다.
도 11에 도시된 바를 참조하면 사용자 단말(110)은 사용자로부터 사투리 사용 여부(310)와 관련된 정보를 획득할 수 있다. 일 실시예에서 사용자가 사투리를 사용하지 않는 경우, 사용자 단말(110)은 사용자의 사투리와 관련된 추가 정보를 획득하지 않을 수 있다. 선택적 실시예에서 사용자가 사투리를 사용하는 경우, 사용자 단말(110)은 사용자의 사투리와 관련된 추가 정보를 더 획득할 수 있다.
보다 구체적으로, 도 12에 도시된 바를 참조할 때 사용자가 사투리를 사용하는 경우 사용자 단말(110)은 사투리 지역(320) 정보를 더 획득할 수 있고, 도 13에 도시된 바를 참조할 때 사용자 단말(110)은 사용자의 사투리 빈도 정보 또는 사투리 세기 정보(330)와 관련된 정보를 더 획득할 수 있다.
한편, 일 실시예에 따른 사용자 단말(110)은 사용자의 직업 정보를 포함하는 해당 사용자의 개인 정보를 더 획득할 수 있다. 대화형 메시지 구현 장치는 상술한 사용자의 개인 정보를 더 이용하여 사용자의 통화 데이터를 텍스트로 변환할 수 있다. 동일한 직업을 갖는 복수의 사용자의 통화 데이터는 유사한 단어를 사용할 확률이 높으므로, 이를 통해 대화형 메시지 구현의 정확도가 향상될 수 있다.
또한, 대화형 메시지 구현 장치는 사용자의 사용자 단말 이용 정보를 더 이용하여 사용자의 통화 데이터를 텍스트로 변환할 수 있다. 사용자 단말 이용 정보를 이용함으로써 대화형 메시지 구현 장치는 사용자의 최근 관심 정보와 관련된 데이터를 획득할 수 있고, 이를 통해 대화형 매시지 구현의 정확도를 향상시킬 수 있다.
도 14는 본 발명의 일 실시예에 따라 텍스트를 추출하는 방법을 설명하기 위한 도면이다.
도 14를 참조하면, 제1 화자(511) 및 제2 화자(512)의 통화내용을 녹음한 통화 데이터(52)로 생성할 수 있다. 이때, 통화 데이터(52)는 제1 화자(511)의 사용자 단말(511') 내에 존재하는 본 발명의 대화형 메시지 구현 장치에 의해 생성될 수 있다. 또한, 대화형 메시지 구현 장치는 녹음 데이터로부터 텍스트를 추출한다. 예를 들어, 대화형 메시지 구현 장치는 음성 인식 기능을 이용하여 통화 데이터(52)로부터 텍스트 파일(53)을 생성할 수 있다. 예를 들어, 추출된 텍스트 파일(53)의 내용은 "오늘 뭐해? 나는 오늘 공원에 갈꺼야. 같이 갈래?~(후략)" 일 수 있다.
다음으로, 대화형 메시지 구현 장치는 통화 데이터를 변환한 텍스트를 화자 별로 섹셔닝(sectioning)할 수 있다. 이때, 대화형 메시지 구현 장치는 통화 데이터의 음성을 분석하여 통화 데이터를 화자가 변경되는 시점을 기준으로 섹셔닝하고, 통화 데이터의 각 섹셔닝된 구간마다 화자 정보를 부가할 수 있다. 즉, 각 섹셔닝된 통화 데이터들에 대하여, 제1 화자가 발화한 것인지, 혹은 제2 화자가 발화한 것인지에 대한 정보를 부가하여 대화형 메시지를 생성할 수 있다.
도 15는 본 발명의 일 실시예에 따라 통화 데이터를 분석하는 방법을 설명하기 위한 도면이다.
도 15을 참조하면, 먼저 대화형 메시지 구현 장치는 통화 데이터의 음성을 분석하여 화자가 바뀌는 시점을 기준으로 통화 데이터를 섹셔닝할 수 있다. 보다 상세히, 도 15의 실시예에서는 10초(s)짜리 통화 데이터(61)를 생성하고, 생성된 통화 데이터(61)를 분석하여 3.2s, 5.4s, 8s, 9.8s 에 화자가 변경된 것으로 판단할 수 있다. 또한, 화자가 변경된 시간에 따라, 대화형 메시지 구현 장치는 통화 데이터를 [0, 3.2s]의 제1 구간(a1), [3.2s, 5.4s]의 제2 구간(b1), [5.4s, 8s]의 제3 구간(a2), [8s, 9.8s]의 제4 구간(b2), [9.8s, 10s]의 제5 구간(a3)으로 섹셔닝할 수 있다. 도 15의 실시예를 참조하면, 섹셔닝된 제1 구간(a1), 제3 구간(a2) 및 제5 구간(a3)은 제1 화자인 화자 A 가, 섹셔닝된 제2 구간(b1) 및 제4 구간(b2)은 제2 화자인 화자 B가 발화한 것으로 판단할 수 있다.
한편, 본 발명의 일 실시예에 따른 대화형 메시지 구현 장치는 통화 데이터의 음성을 분석하여 대화형 메시지를 생성할 때, 통화 데이터의 시간 별 음성 소스(source)를 참조하여 생성할 수 잇다. 통화 데이터의 시간 별 음성 소스는 상기 사용자 단말의 입력 장치의 수신 신호 혹은 출력 장치의 제어 신호일 수 있다. 즉, 통화 데이터의 음성 소스란, 통화 데이터를 생성할 때 통화 데이터에 포함된 음성이 사용자 단말의 어떤 기능을 사용하여 획득되었는지에 관한 것이다. 예를 들어, 통화 데이터를 생성할 때, 사용자 단말의 사용자의 발화 내용은 사용자 단말의 마이크와 같은 입력 장치로부터 직접, 혹은 입력 장치를 제어하는 신호로부터 획득될 수 있다. 혹은, 대화 상대방의 발화 내용은 사용자 단말의 스피커와 같은 출력 장치에서 직접, 혹은 출력 장치를 제어하는 신호로부터 획득할 수 있다. 따라서, 본 발명의 일 실시예에 따르면 통화 데이터를 생성할 때 해당 음성을 획득한 소스를 이용하면 화자 정보를 얻을 수 있다.
보다 구체적으로, 본 발명의 일 실시예에 따른 통화 데이터는 제1 화자와 제2 화자 간의 통화에 기인한 것이며 제1 화자의 사용자 단말이 생성하는 것일 수 있다. 따라서, 제1 화자의 사용자 단말은 제1 화자의 발화 음성으로 사용자 단말의 마이크와 같은 입력 장치의 수신 신호(즉, 마이크가 획득한 음성을 신호로 변환한 수신 신호)와, 제2 화자의 발화 음성으로 사용자 단말의 스피커의 제어 신호(즉, 스피커가 음성을 출력하도록 제어하는 제어 신호)를 결합하여 통화 데이터를 생성할 수 있다.
이때, 본 발명의 일 실시예에 따른 대화형 메시지 구현 장치는 사용자 단말의 입력 장치의 수신 신호가 기 설정된 수치 이상인 시간 구간은 제1 화자가 발화한 것으로 판단하고, 사용자 단말의 출력 장치의 제어 신호가 기 설정된 수치 이상인 시간 구간은 제2 화자가 발화한 것으로 판단할 수 있다. 입력 장치의 수신 신호가 큰 경우 본인이 발화하고 있을 가능성이 높고, 출력 장치의 제어 신호가 큰 경우 상대방이 발화하고 있을 가능성이 높기 때문이다. 이와 같이 통화 데이터가 생성되는 소스의 특성을 이용하여 통화 데이터를 섹셔닝하고 화자를 판단하는 경우, 음성의 특성 혹은 패턴을 이용해서 화자를 판단하는 경우보다 쉽고 용이하게 대화형 메시지를 생성할 수 있다.
상술한 바와 같이, 대화형 메시지 구현 장치는 통화 데이터를 섹셔닝하고, 섹셔닝된 구간마다 화자 정보를 부가하여 대화형 메시지를 생성할 수 있다. 본 발명의 일 실시예에 따른 대화형 메시지 구현 장치는 통화 데이터의 각 섹셔닝된 구간에 대응하는 텍스트의 부분을 추출하고, 화자 정보를 대응하는 텍스트의 부분에 매칭하여 상기 텍스트를 화자 별로 섹셔닝할 수 있다. 즉, 통화 데이터의 발화 내용이 텍스트로 추출되었으므로, 대화형 메시지 구현 장치는 섹셔닝된 구간과 매칭되도록 텍스트 역시 섹셔닝하고, 대응되는 화자 정보를 부가함으로써 텍스트를 화자 별로 섹셔닝할 수 있다.
도 16은 본 발명의 일 실시예에 따라 통화 데이터를 화자 별로 분리하는 방법을 설명하기 위한 도면이다.
도 16은 도 14 및 도 15에 계속되는 실시예로서, 동일한 설명은 생략하기로 한다. 도 16을 참조하면, 각 메시지의 텍스트들이 통화 데이터의 섹셔닝된 구간들에 대응하도록 1번 내지 6번 텍스트로 섹셔닝될 수 있다. 보다 상세히, 1번 텍스트는 "오늘 뭐해? 나는 오늘 공원에 갈꺼야. 같이 갈래?" 로서, 통화 데이터의 섹셔닝된 구간 [0, 3.2]에 대응한다. 따라서, 대응하는 섹셔닝된 구간의 화자 정보에 따라 화자 A 가 발화한 내용이라 판단할 수 있다. 마찬가지의 방법으로, 2번 텍스트는 "몇시에 출발할지 알려줘. 오후면 좋겠어"고, 통화 데이터의 섹셔닝된 구간[3.2, 5.4]에 대응하며, 화자 B 가 발화한 내용이라 판단할 수 있다. 이와 같은 방법으로, 각 섹셔닝된 텍스트들에 화자 정보가 부가될 수 있다.
다음으로, 대화형 메시지 구현 장치는 화자 별로 섹셔닝된 텍스트를 시간 순서대로 대화형 메시지로 구현할 수 있다. 보다 상세히, 대화형 메시지란, 서로 주고받는 상황을 알 수 있도록 메시지를 순차적으로, 발화 단위마다 표시한 인터렉션(interaction) 메시지이다. 예를 들어, 채팅 혹은 문자메시지 대화 등이 대화형 메시지라 할 수 있다. 본 발명의 일 실시예에 따르면, 통화 데이터로부터 대화형 메시지를 구현함으로써, 통화 내용을 텍스트로 구현하되 보다 용이하게 내용을 파악하도록 할 수 있다.
보다 상세히, 대화형 메시지 구현 장치는 제1 화자 및 제2 화자의 발화 내용을 글상자를 이용하여 표시할 수 있다. 이때, 하나의 글상자 속에 들어가는 텍스트는 상술한 화자 별로 섹셔닝된 텍스트일 수 있다. 예를 들어, 하나의 글상자 속에 상술한 도 16의 1번 텍스트가 표시되고, 다른 글상자 속에 상술한 도 16의 2번 텍스트가 표시될 수 있다. 이때, 대화형 메시지 구현 장치는 각 텍스트에 대응하는 발화가 이루어진 순서대로 글상자를 순차적으로 표시할 수 있다. 즉, 1번 내지 5번 텍스트에 대응하는 제1 내지 제5 글상자를 위에서부터 순차적으로 표시할 수 있다. 또한, 글상자 모양은 사각형 모양, 원모양, 말풍선 모양 등 다양하게 설정될 수 잇다.
또한, 대화형 메시지 구현 장치는 대화형 메시지를 구현할 때 제1 화자와 제2 화자가 명확히 드러나도록 사용자 인터페이스를 생성할 수 있다. 본 발명의 일 실시예에 따르면, 대화형 메시지 구현 장치는 대화형 메시지 구현 장치가 포함된 사용자 단말의 사용자의 발화 내용에 대응하는 글상자를 오른쪽에 정렬하고, 타 사용자의 발화 내용에 대응하는 글상자를 왼쪽에 정렬할 수 있다. 즉, 제1 화자의 발화에 대응하는 글상자를 오른쪽 기준으로 정렬하고, 제2 화자의 발화에 대응하는 글상자를 왼쪽 기준으로 정렬할 수 있다.
또한, 대화형 메시지 구현 장치는 대화형 메시지를 구현할 때 제1 화자 또는 제2 화자의 정보를 표시할 수 있다. 또한, 제1 화자 또는 제2 화자의 정보를 대응하는 각 섹셔닝된 텍스트에 대응하도록 표시할 수 있다. 예를 들어, 각 화자의 발화에 대응하는 글상자 옆에 각 화자의 사진 및 전화번호를 표시할 수 있다. 이로 인해, 대화형 메시지 구현 시 각 화자가 발화한 내용이 화자가 문자 메시지를 보낸 것처럼 표시할 수 있으며, 화자들의 정보를 보다 용이하게 파악할 수 있다.
본 발명의 일 실시예에 따르면, 대화형 메시지 구현 장치는 화자 정보를 표시하기 위해 사용자 단말에 저장된 주소록 정보를 이용하여, 화자의 사진, 이름 및 전화번호를 획득할 수 있다. 이때, 주소록 데이터와 화자와의 매칭은 전화번호를 이용하여 수행할 수 있다. 즉, 본 발명의 일 실시예에 따르면 통화 데이터는 전화 통화로부터 생성될 수 있으므로, 전화 통화의 상대방 전화번호 정보를 주소록 전화번호와 매칭하여 화자 정보를 획득할 수 있다. 예를 들어, 제2 화자의 전화번호와 사용자 단말에 저장된 주소록 전화번호를 매칭하여 상기 제2 화자 정보를 획득할 수 있다. 혹은, 본 발명의 대화형 메시지 구현 장치가 포함된 사용자 단말의 사용자가 제1 화자인 경우, 본인인 제1 화자의 정보는 표현할 필요가 없으므로 제2 화자의 정보만 표현할 수도 있다.
도 17은 도 16에 따라 화자 별로 분리된 대화형 데이터를 출력하는 방법을 설명하기 위한 도면이다.
도 17 은 도 14 내지 도 16의 연속된 실시예로써, 중복되는 내용은 설명을 생략하기로 한다. 먼저, 1번 텍스트인 "오늘 뭐해? 나는 오늘 공원에 갈꺼야. 같이 갈래?" 는 제1 글상자(71)에 표시될 수 있다. 마찬가지로, 2번 텍스트인 "몇시에 출발할지 알려줘. 오후면 좋겠어."는 제2 글상자(72)에 표시될 수 있다. 동일한 방법으로, 3번 내지 5번 텍스트가 제3 내지 제5 글상자(73~75)에 표시될 수 있다. 도 8 의 실시예에서는, 제1 내지 제5 글상자(71~75)의 모양이 말풍선 모양일 수 있다.
또한, 도 17의 실시예에서는 어느 화자가 발화한 내용인지 직관적으로 알 수 있도록, 제1 화자(화자 A)의 발화 내용은 오른쪽에 정렬되고, 제2 화자(화자 B)의 발화 내용은 왼쪽에 정렬될 수 있다. 더불어, 발화 내용들을 포함하는 글상자는 시간 순서대로 위에서부터 순차적으로 표시될 수 있다.
또한, 도 17의 실시예에서, 제2 화자(B)의 정보가 대화형 메시지에 포함될 수 있다. 보다 상세히, 사용자 사진(77) 및 이름과 전화번호(78)와 같은 화자 정보가 제2 화자에 대응하는 글상자(72, 74) 옆에 표시될 수 있다. 상술한 바와 같이, 제2 화자의 정보는 도 17의 대화형 메시지를 생성한 대화형 메시지 생성 장치가 포함된 사용자 단말, 즉 제1 화자의 사용자 단말에 저장된 주소록 정보로부터 추출할 수 있다. 대화형 메시지 구현 장치는 통화 상대방인 제2 화자의 전화번호를 주소록의 전화번호와 매칭하여, 제2 화자 정보를 획득할 수 있다.
더불어, 도 17의 실시예에 따르면, 대화형 메시지는 글상자 주변부에 발화 시간(76)을 추가적으로 기재할 수 있다. 발화 시간(76)이란, 해당 글상자에 대응하는 섹셔닝된 통화 데이터의 종료 시간을 수 있다. 즉, 도 17의 예시에서, 제1 섹셔닝 구간("오늘 뭐해? 나는 오늘 공원에 갈꺼야. 같이 갈래?")에 대응하는 실제 발화 시간이 2018년 7월 30일 오후 1시 20분 53초에서 56.2초인 경우, 해당 글상자에 대응하는 발화 시간은 2018년 7월 20일 오후 1시 20분 56.2초이며, 해당 발화 시간 정보가 글상자 주변부에 기재될 수 있다.
상술한 바와 같은 본원 발명의 실시예에 의해, 통화 내용을 자동적으로 대화형 메시지로 변환하는 대화형 메시지 생성 장치가 제공될 수 있다.
또한, 본 발명의 일 실시예에 의해, 통화 내용을 텍스트로 제공함으로써, 녹음된 내용을 다시 재생하지 않아도 통화 내용을 자동적으로 문서화할 수 있다.
또한, 본 발명의 일 실시예에 의해, 통화 내용을 직관적으로 인식할 수 있는 대화형 메시지를 제공할 수 있으며, 대화형 메시지로부터 발화 내용, 화자 정보, 발화 시간의 정보를 획득할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (19)

  1. 컴퓨팅 장치에 의해 수행되는 대화형 메시지 구현 방법에 있어서,
    사용자 단말로부터 제1 화자의 사용자 정보를 획득하는 단계;
    제1 화자의 음성 데이터 및 제2 화자의 음성 데이터를 포함하는 통화 데이터를 획득하는 단계;
    상기 통화 데이터를 인공신경망에 입력하여 음소 단위의 특징을 추출하고, 상기 추출된 음소 단위의 특징을 이용하여 상기 통화 데이터에 포함된 음성 데이터를 화자 별로 분리하는 단계;
    상기 통화 데이터에 포함된 화자 별 음성 데이터에 대한 텍스트를 추출하는 단계;
    상기 제1 화자의 사용자 정보를 기초로 상기 추출된 텍스트를 시계열 순서의 대화형 메시지로 구현하는 단계;
    상기 통화 데이터를 획득하는 단계는,
    제1 화자의 음성 데이터 및 제2 화자의 음성 데이터를 포함하는 제1 통화 데이터를 획득하는 단계; 및
    제1 화자의 음성 데이터 및 제3 화자의 음성 데이터를 포함하는 제3 통화 데이터를 획득하는 단계를 포함하고,
    상기 대화형 메시지로 구현하는 단계는,
    상기 제1 통화 데이터에 대응되는 대화형 메시지 및 상기 제3 통화 데이터에 대응되는 대화형 메시지를 리스트 형태로 상기 사용자 단말의 디스플레이에 표시하는 단계;
    를 포함하는 대화형 메시지 구현 방법.
  2. 제1 항에 있어서,
    상기 음성 데이터를 화자 별로 분리하는 단계는,
    상기 인공신경망에 상기 사용자 정보를 더 입력하여 상기 음소 단위의 특징을 추출하고, 상기 추출된 음소 단위의 특징을 이용하여 상기 통화 데이터에 포함된 음성 데이터를 화자 별로 분리하는 단계;
    를 포함하는 대화형 메시지 구현 방법.
  3. 제1 항에 있어서,
    상기 제1 화자의 사용자 정보는,
    상기 제1 화자의 음성 특성 정보, 상기 제1 화자의 개인 정보 및 상기 제1 화자의 사용자 단말 이용 정보를 포함하는,
    대화형 메시지 구현 방법.
  4. 제3 항에 있어서,
    상기 제1 화자의 음성 특성 정보는,
    상기 제1 화자의 사투리 지역 정보 및 상기 제1 화자의 사투리 사용 빈도 정보를 포함하고,
    상기 제1 화자의 개인 정보는,
    상기 제1 화자의 직업 정보를 포함하고,
    상기 제1 화자의 사용자 단말 이용 정보는,
    상기 사용자 단말의 로그 데이터를 기초로 생성된,
    대화형 메시지 구현 방법.
  5. 제1 항에 있어서,
    상기 통화 데이터를 획득하는 단계는,
    제1 시점의 상기 제1 화자의 음성 데이터 및 상기 제2 화자의 음성 데이터를 포함하는 제1 통화 데이터를 획득하는 단계; 및
    제2 시점의 상기 제1 화자의 음성 데이터 및 상기 제2 화자의 음성 데이터를 포함하는 제2 통화 데이터를 획득하는 단계를 포함하고,
    상기 통화 데이터에 대한 대화형 메시지로 구현하는 단계는,
    상기 제1 시점 및 상기 제2 시점 간의 간격이 지정된 기준보다 짧은 경우, 상기 제1 통화 데이터 및 상기 제2 통화 데이터를 하나의 대화형 메시지로 구현하는 단계;를 포함하는,
    대화형 메시지 구현 방법.
  6. 제5 항에 있어서,
    상기 통화 데이터에 대한 대화형 메시지로 구현하는 단계는,
    상기 제1 시점 및 상기 제2 시점의 간격이 지정된 기준보다 긴 경우, 상기 제1 통화 데이터 및 상기 제2 통화 데이터를 각각 별개의 대화형 메시지 형태로 구현하는 단계; 및
    상기 구현된 상기 제1 통화 데이터 및 상기 제2 통화 데이터와 대응되는 대화형 메시지를 리스트 형태로 상기 사용자 단말의 디스플레이에 표시하는 단계를 포함하는,
    대화형 메시지 구현 방법.
  7. 제1 항에 있어서,
    상기 대화형 메시지를 상기 사용자 단말의 디스플레이에 표시하는 단계; 및
    상기 디스플레이의 GUI 영역은 복수의 메시지 UI객체를 포함하고, 제1 메시지 UI객체에 대한 사용자 입력에 응답하여 상기 제1 메시지 UI객체에 대응되는 음성 데이터를 재생하는 단계;를 더 포함하는,
    대화형 메시지 구현 방법.
  8. 삭제
  9. 제1 항에 있어서,
    상기 추출된 음소 단위의 특징을 이용하여 상기 통화 데이터에 포함된 음성 데이터를 화자 별로 분리하는 단계는,
    상기 통화 데이터를 화자가 변경되는 시점을 기준으로 분리하고, 상기 분리된 구간마다 화자 정보를 부가하는 단계를 포함하는,
    대화형 메시지 구현 방법.
  10. 프로세서;를 포함하고,
    상기 프로세서는,
    사용자 단말로부터 제1 화자의 사용자 정보를 획득하고, 제1 화자의 음성 데이터 및 제2 화자의 음성 데이터를 포함하는 통화 데이터를 획득하고, 상기 통화 데이터를 인공신경망에 입력하여 음소 단위의 특징을 추출하고 상기 추출된 음소 단위의 특징을 이용하여 상기 통화 데이터에 포함된 음성 데이터를 화자 별로 분리하고, 상기 통화 데이터에 포함된 화자 별 음성 데이터에 대한 텍스트를 추출하며, 상기 제1 화자의 사용자 정보를 기초로 상기 추출된 텍스트를 시계열 순서의 대화형 메시지로 구현하며,제1 화자의 음성 데이터 및 제2 화자의 음성 데이터를 포함하는 제1 통화 데이터를 획득하고, 제1 화자의 음성 데이터 및 제3 화자의 음성 데이터를 포함하는 제3 통화 데이터를 획득하고, 상기 제1 통화 데이터에 대응되는 대화형 메시지 및 상기 제3 통화 데이터에 대응되는 대화형 메시지를 리스트 형태로 상기 사용자 단말의 디스플레이에 표시하는,
    대화형 메시지 구현 장치.
  11. 제10 항에 있어서,
    상기 프로세서는,
    상기 인공신경망에 상기 사용자 정보를 더 입력하여 상기 음소 단위의 특징을 추출하고, 상기 추출된 음소 단위의 특징을 이용하여 상기 통화 데이터에 포함된 음성 데이터를 화자 별로 분리하는,
    대화형 메시지 구현 장치.
  12. 제10 항에 있어서,
    상기 제1 화자의 사용자 정보는,
    상기 제1 화자의 음성 특성 정보, 상기 제1 화자의 개인 정보 및 상기 제1 화자의 사용자 단말 이용 정보를 포함하는,
    대화형 메시지 구현 장치.
  13. 제12 항에 있어서,
    상기 제1 화자의 음성 특성 정보는,
    상기 제1 화자의 사투리 지역 정보 및 상기 제1 화자의 사투리 사용 빈도 정보를 포함하고,
    상기 제1 화자의 개인 정보는,
    상기 제1 화자의 직업 정보를 포함하고,
    상기 제1 화자의 사용자 단말 이용 정보는,
    상기 사용자 단말의 로그 데이터를 기초로 생성된,
    대화형 메시지 구현 장치.
  14. 제10 항에 있어서,
    상기 프로세서는,
    제1 시점의 상기 제1 화자의 음성 데이터 및 상기 제2 화자의 음성 데이터를 포함하는 제1 통화 데이터를 획득하고, 제2 시점의 상기 제1 화자의 음성 데이터 및 상기 제2 화자의 음성 데이터를 포함하는 제2 통화 데이터를 획득하고, 상기 제1 시점 및 상기 제2 시점 간의 간격이 지정된 기준보다 짧은 경우, 상기 제1 통화 데이터 및 상기 제2 통화 데이터를 하나의 대화형 메시지로 구현하는,
    대화형 메시지 구현 장치
  15. 제14 항에 있어서,
    상기 프로세서는,
    상기 제1 시점 및 상기 제2 시점의 간격이 지정된 기준보다 긴 경우 상기 제1 통화 데이터 및 상기 제2 통화 데이터를 각각 별개의 대화형 메시지 형태로 구현하고, 상기 구현된 상기 제1 통화 데이터 및 상기 제2 통화 데이터와 대응되는 대화형 메시지를 리스트 형태로 상기 사용자 단말의 디스플레이에 표시하는,
    대화형 메시지 구현 장치.
  16. 제10 항에 있어서,
    상기 프로세서는,
    상기 대화형 메시지를 상기 사용자 단말의 디스플레이에 표시하고, 상기 디스플레이의 GUI 영역은 복수의 메시지 UI객체를 포함하고, 제1 메시지 UI객체에 대한 사용자 입력에 응답하여 상기 제1 메시지 UI객체에 대응되는 음성 데이터를 재생하는,
    대화형 메시지 구현 장치.
  17. 삭제
  18. 제10 항에 있어서,
    상기 프로세서는,
    상기 통화 데이터를 화자가 변경되는 시점을 기준으로 분리하고, 상기 분리된 구간마다 화자 정보를 부가하는,
    대화형 메시지 구현 장치.
  19. 제 1 항 내지 제 7 항 및 제 9 항 중 어느 한 항에 따른 방법을 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 기록된 컴퓨터 프로그램.
KR1020200071862A 2020-06-12 2020-06-12 인공신경망을 이용한 대화형 메시지 구현 방법 및 그 장치 KR102312993B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200071862A KR102312993B1 (ko) 2020-06-12 2020-06-12 인공신경망을 이용한 대화형 메시지 구현 방법 및 그 장치
PCT/KR2020/008643 WO2021251539A1 (ko) 2020-06-12 2020-07-02 인공신경망을 이용한 대화형 메시지 구현 방법 및 그 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200071862A KR102312993B1 (ko) 2020-06-12 2020-06-12 인공신경망을 이용한 대화형 메시지 구현 방법 및 그 장치

Publications (1)

Publication Number Publication Date
KR102312993B1 true KR102312993B1 (ko) 2021-10-13

Family

ID=78115038

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200071862A KR102312993B1 (ko) 2020-06-12 2020-06-12 인공신경망을 이용한 대화형 메시지 구현 방법 및 그 장치

Country Status (2)

Country Link
KR (1) KR102312993B1 (ko)
WO (1) WO2021251539A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230169692A (ko) 2022-06-09 2023-12-18 주식회사 스캐터랩 인공지능을 이용하여 동영상을 시청하면서 동영상에 대해 대화하는 방법 및 장치
KR20230171269A (ko) 2022-06-13 2023-12-20 주식회사 스캐터랩 인공지능을 이용하여 진행 중인 게임 이벤트에 기반하여 메시지를 출력하는 방법 및 장치
KR20240019453A (ko) 2022-08-04 2024-02-14 주식회사 스캐터랩 인공지능과의 대화 시 선물하기 기능을 제공하는 방법 및 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0217419B2 (ko) * 1978-09-01 1990-04-20 Kuronesu Ag Heruman Kuronsederu Mas Fab
KR20160035884A (ko) * 2014-09-24 2016-04-01 삼성전자주식회사 회의 진행 장치 및 회의 진행 방법
KR101795593B1 (ko) * 2016-09-19 2017-11-08 주식회사 부뜰정보시스템 전화상담원 보호 장치 및 그 방법
JP6517419B1 (ja) 2018-10-31 2019-05-22 株式会社eVOICE 対話要約生成装置、対話要約生成方法およびプログラム
KR20190143116A (ko) * 2018-06-20 2019-12-30 주식회사 샤우터 대화 자동 저장 장치 및 방법
KR20200011198A (ko) * 2018-07-24 2020-02-03 주식회사 리턴제로 대화형 메시지 구현 방법, 장치 및 프로그램

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9460722B2 (en) * 2013-07-17 2016-10-04 Verint Systems Ltd. Blind diarization of recorded calls with arbitrary number of speakers
JP6873935B2 (ja) * 2018-02-06 2021-05-19 Kddi株式会社 テキスト分析装置、テキスト分析方法及びテキスト分析プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0217419B2 (ko) * 1978-09-01 1990-04-20 Kuronesu Ag Heruman Kuronsederu Mas Fab
KR20160035884A (ko) * 2014-09-24 2016-04-01 삼성전자주식회사 회의 진행 장치 및 회의 진행 방법
KR101795593B1 (ko) * 2016-09-19 2017-11-08 주식회사 부뜰정보시스템 전화상담원 보호 장치 및 그 방법
KR20190143116A (ko) * 2018-06-20 2019-12-30 주식회사 샤우터 대화 자동 저장 장치 및 방법
KR20200011198A (ko) * 2018-07-24 2020-02-03 주식회사 리턴제로 대화형 메시지 구현 방법, 장치 및 프로그램
JP6517419B1 (ja) 2018-10-31 2019-05-22 株式会社eVOICE 対話要約生成装置、対話要約生成方法およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230169692A (ko) 2022-06-09 2023-12-18 주식회사 스캐터랩 인공지능을 이용하여 동영상을 시청하면서 동영상에 대해 대화하는 방법 및 장치
KR20230171269A (ko) 2022-06-13 2023-12-20 주식회사 스캐터랩 인공지능을 이용하여 진행 중인 게임 이벤트에 기반하여 메시지를 출력하는 방법 및 장치
KR20240019453A (ko) 2022-08-04 2024-02-14 주식회사 스캐터랩 인공지능과의 대화 시 선물하기 기능을 제공하는 방법 및 장치

Also Published As

Publication number Publication date
WO2021251539A1 (ko) 2021-12-16

Similar Documents

Publication Publication Date Title
KR102582291B1 (ko) 감정 정보 기반의 음성 합성 방법 및 장치
JP6771805B2 (ja) 音声認識方法、電子機器、及びコンピュータ記憶媒体
KR102312993B1 (ko) 인공신경망을 이용한 대화형 메시지 구현 방법 및 그 장치
US11189277B2 (en) Dynamic gazetteers for personalized entity recognition
CN110517689B (zh) 一种语音数据处理方法、装置及存储介质
WO2017054122A1 (zh) 语音识别系统及方法、客户端设备及云端服务器
WO2022105861A1 (zh) 用于识别语音的方法、装置、电子设备和介质
CN108428446A (zh) 语音识别方法和装置
US20190221208A1 (en) Method, user interface, and device for audio-based emoji input
KR20160030168A (ko) 음성 인식 방법, 장치 및 시스템
KR20200011198A (ko) 대화형 메시지 구현 방법, 장치 및 프로그램
CN110047481A (zh) 用于语音识别的方法和装置
CN106713111B (zh) 一种添加好友的处理方法、终端及服务器
CN111916088B (zh) 一种语音语料的生成方法、设备及计算机可读存储介质
CN112669842A (zh) 人机对话控制方法、装置、计算机设备及存储介质
KR20190093962A (ko) 화자 인식을 수행하기 위한 음성 신호 처리 방법 및 그에 따른 전자 장치
US10866948B2 (en) Address book management apparatus using speech recognition, vehicle, system and method thereof
JP2019185737A (ja) 検索方法及びそれを用いた電子機器
KR102536944B1 (ko) 음성 신호 처리 방법 및 장치
US11615787B2 (en) Dialogue system and method of controlling the same
CN111768789B (zh) 电子设备及其语音发出者身份确定方法、装置和介质
CN109887490A (zh) 用于识别语音的方法和装置
TWM578858U (zh) 跨通路人工智慧對話式平台
KR102642617B1 (ko) 인공 지능을 이용한 음성 합성 장치, 음성 합성 장치의 동작 방법 및 컴퓨터로 판독 가능한 기록 매체
CN112037772A (zh) 基于多模态的响应义务检测方法、系统及装置

Legal Events

Date Code Title Description
GRNT Written decision to grant