KR20200011198A - 대화형 메시지 구현 방법, 장치 및 프로그램 - Google Patents

대화형 메시지 구현 방법, 장치 및 프로그램 Download PDF

Info

Publication number
KR20200011198A
KR20200011198A KR1020180086014A KR20180086014A KR20200011198A KR 20200011198 A KR20200011198 A KR 20200011198A KR 1020180086014 A KR1020180086014 A KR 1020180086014A KR 20180086014 A KR20180086014 A KR 20180086014A KR 20200011198 A KR20200011198 A KR 20200011198A
Authority
KR
South Korea
Prior art keywords
speaker
text
recording data
interactive message
message
Prior art date
Application number
KR1020180086014A
Other languages
English (en)
Inventor
이참솔
이현종
정주영
Original Assignee
주식회사 리턴제로
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 리턴제로 filed Critical 주식회사 리턴제로
Priority to KR1020180086014A priority Critical patent/KR20200011198A/ko
Publication of KR20200011198A publication Critical patent/KR20200011198A/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/30Transportation; Communications
    • G06Q50/50
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]

Abstract

본 발명의 일 실시예에 따르면 2 이상의 화자의 발화 내용을 녹음하여 녹음 데이터를 생성하는 녹음 데이터 생성부; 상기 녹음 데이터로부터 상기 발화 내용의 텍스트를 추출하는 텍스트 추출부; 상기 녹음 데이터의 음성을 분석하여 음성 분석 정보를 생성하고, 상기 음성 분석 정보를 이용하여 상기 텍스트를 상기 화자 별로 섹셔닝(sectioning)하는 화자 인식부; 상기 화자 별로 섹셔닝된 텍스트를 시간 순서대로 대화형 메시지로 구현하는 메시지 구현부; 를 포함하는 대화형 메시지 구현 장치가 제공된다.

Description

대화형 메시지 구현 방법, 장치 및 프로그램{METHOD, APPARATUS AND COMPUTER PROGRAM FOR PROVIDING INTERACTION MESSAGE}
본 발명은 대화형 메시지 구현 방법, 장치 및 프로그램에 관한 것으로, 보다 상세하게는 녹음 데이터로부터 텍스트를 추출하고 화자 정보를 부가하여 대화형 메시지를 구현 및 제공할 수 있는 대화형 메시지 구현 방법, 장치 및 프로그램에 관한 것이다.
음성 인식(Speech Recognition)이란 사람이 말하는 음성 언어를 컴퓨터가 해석해 그 내용을 문자 데이터로 전환하는 처리를 말한다. STT(Speech-to-Text)라고도 한며, 키보드 대신 문자를 입력하는 방식으로 주목을 받고 있다. 음성 인식은 로봇, 텔레매틱스 등 음성으로 기기제어, 정보검색이 필요한 경우에 다양하게 응용될 수 있다. 대표적인 알고리즘은 HMM(Hidden Markov Model)으로서, 다양한 화자들이 발성한 음성들을 통계적으로 모델링하여 음향모델을 구성하며 말뭉치 수집을 통하여 언어모델을 구성할 수 있다. 또한, 미리 기록해 둔 음성 패턴과 비교해 개인 인증 등의 용도로 사용하기도 하는데 이를 화자 인식이라고 할 수 있다.
한편, 사용자 단말에는 녹음 어플리케이션이 포함될 수 있다. 녹음 어플리케이션은 외부의 사운드를 수집하여 녹음하기도 하지만, 사용자 단말의 사용자와 타자와의 통화 내용을 녹음하기도 한다. 녹음된 통화 내용은 사용자 단말에 저장되어 사용자가 통화 내용을 다시 듣기 위해 사용할 수 있다.
본 발명은 통화 내용을 자동적으로 대화형 메시지로 변환하는 것을 일 목적으로 한다.
또한, 본 발명은 통화 내용을 대화형 메시지로 문서화하고, 대화형 메시지에 발화 내용, 화자 정보, 발화 시간 정보를 표시하는 것을 다른 목적으로 한다.
본 발명의 일 실시예에 따르면, 2 이상의 화자의 발화 내용을 녹음하여 녹음 데이터를 생성하는 녹음 데이터 생성부; 상기 녹음 데이터로부터 상기 발화 내용의 텍스트를 추출하는 텍스트 추출부; 상기 녹음 데이터의 음성을 분석하여 음성 분석 정보를 생성하고, 상기 음성 분석 정보를 이용하여 상기 텍스트를 화자 별로 섹셔닝(sectioning)하는 화자 인식부; 상기 화자 별로 섹셔닝된 텍스트를 시간 순서대로 대화형 메시지로 구현하는 메시지 구현부; 를 포함하는 대화형 메시지 구현 장치가 제공된다.
본 발명에 있어서, 상기 녹음 데이터 생성부는 2 이상의 발화 내용을 실시간으로 녹음 데이터로 생성하고, 상기 메시지 구현부는 실시간으로 상기 녹음 데이터로부터 상기 대화형 메시지를 구현할 수 있다.
본 발명에 있어서, 상기 음성 분석 정보는, 상기 녹음 데이터를 화자가 변경되는 시점을 기준으로 섹셔닝하고, 상기 녹음 데이터의 각 섹셔닝된 구간마다 화자 정보를 부가한 것일 수 있다.
본 발명에 있어서, 상기 화자 인식부는 상기 녹음 데이터의 각 섹셔닝된 구간에 대응하는 상기 텍스트의 부분을 추출하고, 상기 화자 정보를 상기 대응하는 텍스트의 부분에 매칭하여 상기 텍스트를 화자 별로 섹셔닝할 수 있다.
본 발명에 있어서, 상기 대화형 메시지는 하나 이상의 글상자를 포함하고, 상기 글상자 각각에는 상기 화자 별로 섹셔닝된 텍스트가 삽입될 수 있다.
본 발명에 있어서, 상기 대화형 메시지에 포함된 하나 이상의 글상자는 말풍선 모양일 수 있다.
본 발명에 있어서, 상기 대화형 메시지는, 상기 대화형 메시지 구현 장치가 포함된 사용자 단말의 사용자의 발화 내용에 대응하는 글상자를 오른쪽에 정렬하고, 타 사용자의 발화 내용에 대응하는 글상자를 왼쪽에 정렬할 수 있다.
본 발명에 있어서, 상기 2 이상의 화자의 발화 내용은 제1 화자와 제2 화자 간의 통화에 의해 생성되는 것으로, 상기 제1 화자는 상기 대화형 메시지 구현 장치가 포함된 사용자 단말의 사용자이고, 상기 제2 화자는 상기 통화의 상대일 수 있다.
본 발명에 있어서, 상기 텍스트 추출부는 상기 녹음 데이터의 노이즈를 제거한 후 상기 발화 내용의 텍스트를 추출할 수 있다.
본 발명의 다른 실시예에 따르면, 2 이상의 화자의 발화 내용을 녹음하여 녹음 데이터를 생성하는 녹음 데이터 생성 단계; 상기 녹음 데이터로부터 상기 발화 내용의 텍스트를 추출하는 텍스트 추출 단계; 상기 녹음 데이터의 음성을 분석하여 음성 분석 정보를 생성하고, 상기 음성 분석 정보를 이용하여 상기 텍스트를 화자 별로 섹셔닝(sectioning)하는 화자 인식 단계; 상기 화자 별로 섹셔닝된 텍스트를 시간 순서대로 대화형 메시지로 구현하는 메시지 구현 단계; 를 포함하는 대화형 메시지 구현 방법이 제공된다.
본 발명에 있어서, 상기 녹음 데이터 생성 단계는 2 이상의 발화 내용을 실시간으로 녹음 데이터로 생성하고, 상기 메시지 구현 단계는 실시간으로 상기 녹음 데이터로부터 상기 대화형 메시지를 구현할 수 있다.
본 발명에 있어서, 상기 화자 인식 단계는 상기 녹음 데이터의 각 섹셔닝된 구간에 대응하는 상기 텍스트의 부분을 추출하고, 상기 화자 정보를 상기 대응하는 텍스트의 부분에 매칭하여 상기 텍스트를 화자 별로 섹셔닝할 수 있다.
본 발명에 있어서, 상기 텍스트 추출 단계는 상기 녹음 데이터의 노이즈를 제거한 후 상기 발화 내용의 텍스트를 추출할 수 있다.
본 발명의 따른 방법을 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 기록된 컴퓨터 프로그램이 제공된다.
본 발명에 의하면, 통화 내용을 자동적으로 대화형 메시지로 변환하는 대화형 메시지 구현 장치를 제공할 수 있다.
또한, 본 발명에 의하면, 대화형 메시지로부터 발화 내용, 화자 정보, 발화 시간의 정보를 획득할 수 있으므로 녹음 데이터를 재생하지 않아도 통화 내용을 직관적으로 인식할 수 있다.
도 1 은 본 발명의 일 실시예에 따른 네트워크 환경의 예를 도시한 도면이다.
도 2 는 본 발명의 일 실시예에 있어서, 사용자 단말 및 서버의 내부 구성을 설명하기 위한 블록도이다.
도 3 은 본 발명의 일 실시예에 따른 프로세서의 내부 구성을 나타낸 것이다.
도 4 는 본 발명의 일 실시예에 따른 대화형 메시지 구현 방법을 시계열적으로 나타낸 도면이다.
도 5 는 본 발명의 일 실시예에 따른 텍스트 추출을 설명하기 위한 것이다.
도 6 은 본 발명의 일 실시예에 따라 음성 분석 정보를 생성하는 과정을 설명한 도면이다.
도 7 은 본 발명의 일 실시예에 따라 텍스트가 섹셔닝된 예시이다.
도 8 은 본 발명의 일 실시예에 따른 대화형 메시지를 나타낸 것이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.
도 1 은 본 발명의 일 실시예에 따른 네트워크 환경의 예를 도시한 도면이다.
도 1의 네트워크 환경은 복수의 제1 사용자 단말들(111, 112, 113, 114), 제2 사용자 단말들(121, 122, 123, 124), 복수의 서버들(150, 160) 및 네트워크(170)를 포함하는 예를 나타내고 있다. 이러한 도 1은 발명의 설명을 위한 일례로 제1 및 제2 사용자 단말의 수나 서버의 수가 도 1과 같이 한정되는 것은 아니다.
복수의 제1 사용자 단말들(111, 112, 113, 114) 또는 제2 사용자 단말들(121, 122, 123, 124)은 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 복수의 사용자 단말들의 예를 들면, 스마트폰(smart phone), 휴대폰, 네비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC 등이 있다. 일례로 사용자 단말 1(111)은 무선 또는 유선 통신 방식을 이용하여 네트워크(170)를 통해 다른 사용자 단말들(112, 113, 114, 121, 122, 131, 141) 및/또는 서버(150, 160)와 통신할 수 있다.
통신 방식은 제한되지 않으며, 네트워크(170)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(170)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(170)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.
서버(150, 160) 각각은 복수의 제1 사용자 단말들(111, 112, 113, 114) 또는 제2 사용자 단말들(121, 122, 123, 124)과 네트워크(170)를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다.
일례로, 서버(160)는 네트워크(170)를 통해 접속한 사용자 단말 1(111) 로 어플리케이션의 설치를 위한 파일을 제공할 수 있다. 이 경우 사용자 단말 1(111)은 서버(160)로부터 제공된 파일을 이용하여 어플리케이션을 설치할 수 있다. 또한 사용자 단말 1(111)이 포함하는 운영체제(Operating System, OS) 및 적어도 하나의 프로그램(일례로 브라우저나 설치된 어플리케이션)의 제어에 따라 서버(150)에 접속하여 서버(150)가 제공하는 서비스나 컨텐츠를 제공받을 수 있다. 예를 들어, 사용자 단말1(111)이 어플리케이션의 제어에 따라 네트워크(170)를 통해 서비스 요청 메시지를 서버(150)로 전송하면, 서버(150)는 서비스 요청 메시지에 대응하는 코드를 사용자 단말 1(111)로 전송할 수 있고, 사용자 단말 1(111)은 어플리케이션의 제어에 따라 코드에 따른 화면을 구성하여 표시함으로써 사용자에게 컨텐츠를 제공할 수 있다.
도 2 는 본 발명의 일 실시예에 있어서, 제1 사용자 단말, 제2 사용자 단말 및 서버의 내부 구성을 설명하기 위한 블록도이다.
도 2에서는 제1 및 제2 사용자 단말에 대한 통합적인 예로서 제1 사용자 단말(110) 및 제2 사용자 단말(120) 그리고 하나의 서버에 대한 예로서 서버(150)의 내부 구성을 설명한다.
제1 사용자 단말(110), 제2 사용자 단말(120)과 서버(150)는 메모리(211, 221, 251), 프로세서(212, 222, 252), 통신 모듈(213, 223, 253) 그리고 입출력 인터페이스(214, 224, 254)를 포함할 수 있다. 메모리(211, 221, 251)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리(211, 221, 251)에는 운영체제와 적어도 하나의 프로그램 코드(일례로 사용자 단말 1(111)에 설치되어 구동되는 브라우저나 상술한 어플리케이션 등을 위한 코드)가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 드라이브 메커니즘(drive mechanism)을 이용하여 메모리(211, 221, 251)와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 통신 모듈(213, 223, 253)을 통해 메모리(211, 221, 251)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템(일례로 상술한 서버(160))이 네트워크(170)를 통해 제공하는 파일들에 의해 설치되는 프로그램(일례로 상술한 어플리케이션)에 기반하여 메모리(211, 221, 251)에 로딩될 수 있다.
프로세서(212, 222, 252)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(211, 221, 251) 또는 통신 모듈(213, 223, 253)에 의해 프로세서(212, 222, 252)로 제공될 수 있다. 예를 들어 프로세서(212, 222, 252)는 메모리(211, 221, 251)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
통신 모듈(213, 223, 253)은 네트워크(170)를 통해 제1 사용자 단말(110) 또는 제2 사용자 단말(120)과 서버(150)가 서로 통신하기 위한 기능을 제공할 수 있으며, 다른 사용자 단말 또는 다른 서버(일례로 서버(160))와 통신하기 위한 기능을 제공할 수 있다. 일례로, 제1 사용자 단말(110)의 프로세서(212)가 메모리(211)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청(일례로 지인들에 의한 추천 컨텐츠 제공 요청)이 통신 모듈(213)의 제어에 따라 네트워크(170)를 통해 서버(150)로 전달될 수 있다. 역으로, 서버(150)의 프로세서(252)의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 통신 모듈(223)과 네트워크(170)를 거쳐 제1 사용자 단말(110)의 통신 모듈(213)을 통해 제1 사용자 단말(110)로 수신될 수 있다. 예를 들어 통신 모듈(213)을 통해 수신된 서버(150)의 제어 신호나 명령 등은 프로세서(212)나 메모리(211)로 전달될 수 있고, 컨텐츠나 파일 등은 제1 사용자 단말(110)이 더 포함할 수 있는 저장 매체로 저장될 수 있다.
입출력 인터페이스(214, 224, 254)는 입출력 장치(215)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 마이크 등의 장치를, 그리고 출력 장치는 스피커 혹은 어플리케이션의 통신 세션을 표시하기 위한 디스플레이와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(214)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 보다 구체적인 예로, 제1 사용자 단말(110)의 프로세서(212)는 메모리(211)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어서 서버(150)나 제2 사용자 단말(120)이 제공하는 데이터를 이용하여 구성되는 서비스 화면이나 컨텐츠가 입출력 인터페이스(214)를 통해 디스플레이에 표시될 수 있다.
또한, 다른 실시예들에서 제1 사용자 단말(110), 제2 사용자 단말(120) 및 서버(150)는 도 2 의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 제1 사용자 단말(110) 또는 제2 사용자 단말(120)은 상술한 입출력 장치(215) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다.
이하의 명세서에서는, 편의를 위하여 제1 사용자 단말(110)과 제2 사용자 단말(120)이 유무선 통신망을 이용하여 통화 가능한 것으로 가정하며, 제1 사용자 단말(110)을 사용자 단말이라 칭하기로 한다. 더불어, 이하의 명세서에서 사용자 단말에 의해 구현되는 기능들은 서버(150)에서 동일하게 구현될 수 있다. 예를 들어, 본 발명의 일 실시예에 따른 대화형 메시지 구현 장치는 서버에서도 동일하게 구현될 수 있다. 이하에서는, 설명의 편의를 위하여 사용자 단말에서 구현되는 본 발명의 일 실시예에 따른 대화형 메시지 구현 장치, 방법 및 프로그램에 대해 살펴보기로 한다.
도 3 은 본 발명의 일 실시예에 따른 사용자 단말의 프로세서의 내부 구성을 나타낸 것이다.
프로세서(212)는 통화 기능을 구현하는 통화 어플리케이션 및 대화형 메시지를 생성하는 메시지 구현 어플리케이션을 포함할 수 잇다. 프로세서(212) 내에서 본 발명의 일 실시예에 따른 대화형 메시지 구현 기능을 수행하는 구성은 도 3 에 도시된 바와 같이 녹음 데이터 생성부(310), 텍스트 추출부(320), 화자 인식부(330) 및 메시지 구현부(340)를 포함할 수 있다. 실시예에 따라 프로세서(212)의 구성요소들은 선택적으로 프로세서(212)에 포함되거나 제외될 수도 있다. 또한, 실시예에 따라 프로세서(212)의 구성요소들은 프로세서(212)의 기능의 표현을 위해 분리 또는 병합될 수도 있다.
여기서, 프로세서(212)의 구성요소들은 사용자 단말 1(110)에 저장된 프로그램 코드가 제공하는 명령(일례로, 사용자 단말 1(110)에서 구동된 웹 브라우저가 제공하는 명령)에 따라 프로세서(212)에 의해 수행되는 프로세서(212)의 서로 다른 기능들(different functions)의 표현들일 수 있다.
이러한 프로세서(212) 및 프로세서(212)의 구성요소들은 도 4 의 대화형 메시지 구현 방법이 포함하는 단계들(S1 내지 S4)을 수행하도록 사용자 단말을 제어할 수 있다. 예를 들어, 프로세서(212) 및 프로세서(212)의 구성요소들은 메모리(211)가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다.
도 4 는 본 발명의 일 실시예에 따른 대화형 메시지 구현 방법을 시계열적으로 나타낸 도면이다. 이하에서는, 도 3 및 도 4 를 함께 참조하여 본 발명의 대화형 메시지 구현 방법, 시스템 및 컴퓨터 프로그램을 구체적으로 살펴보기로 한다.
먼저, 녹음 데이터 생성부(310)는 2 이상의 화자의 발화 내용을 녹음하여 녹음 데이터를 생성한다(S1). 발화 내용이란, 제1 사용자와 제2 사용자 간의 대화 내용일 수 있다. 본 발명의 일 실시예에 따르면, 2 이상의 화자의 발화 내용은 제1 화자와 제2 화자 간의 통화에 의해 생성되는 것으로, 제1 화자는 대화형 메시지 구현 장치가 포함된 제1 사용자 단말(110)의 사용자이고, 제2 화자는 상기 통화의 상대방인 제2 사용자 단말(120)의 사용자일 수 있다.
즉, 본 발명의 일 실시예에 따른 녹음 데이터 생성부(310)는 제1 사용자와 제2 사용자 간의 통화 내용으로부터 실시간으로 녹음 데이터를 생성할 수 있다. 즉, 녹음 데이터는 통화 중에 실시간으로 생성되는 것일 수 있다. 또한, 녹음 데이터 생성부(310)는 사용자 단말에서 통화가 시작되면 자동적으로 녹음을 시작하여 녹음 데이터를 생성하고, 통화가 종료되면 자동적으로 녹음을 종료하여 완성된 녹음 데이터를 생성할 수 있다. 혹은, 녹음 데이터 생성부(310)는 녹음 시간 기준으로 기설정된 일정 시간마다 녹음 데이터를 생성할 수 있다. 예를 들어, 제1 사용자가 제2 사용자와 13분간 통화를 한 경우, 5분, 5분, 3분으로 끊어서 녹음 데이터를 생성할 수 잇다.
다음으로, 텍스트 추출부(320)는 녹음 데이터로부터 발화 내용의 텍스트를 추출할 수 있다(S3). 보다 상세히, 텍스트 추출부(320)는 녹음 데이터에 존재하는 발화 내용을 인식하여 텍스트 형시으로 변환할 수 있다. 이를 위해, 텍스트 추출부(320)는 자동 음성 인식(Automatic Speech Recognition) 기술을 이용할 수 있다.
한편, 텍스트 추출부(320)는 녹음 데이터로부터 발화 내용의 텍스트를 추출하기 전, 노이즈를 제거할 수 있다. 노이즈는 발화 내용이 아닌 외부의 소리에 해당하는 것으로, 텍스트 추출부(320)는 노이즈를 제거하여 음성 인식의 정확도를 높일 수 있다.
도 5 는 본 발명의 일 실시예에 따른 텍스트 추출을 설명하기 위한 것이다.
도 5 를 참조하면, 제1 화자(511) 및 제2 화자(512)의 통화내용을 녹음한 녹음 데이터(52)로 생성할 수 있다. 이때, 녹음 데이터(53)는 제1 화자(511)의 사용자 단말(511') 내에 존재하는 본 발명의 대화형 메시지 구현 장치에 의해 생성될 수 있다. 또한, 텍스트 추출부(320)는 녹음 데이터로부터 텍스트를 추출한다. 예를 들어, 텍스트 추출부(320)는 음성 인식 기능을 이용하여 녹음 데이터(52)로부터 텍스트 파일(53)을 생성할 수 있다. 예를 들어, 추출된 텍스트 파일(53)의 내용은 "오늘 뭐해? 나는 오늘 공원에 갈꺼야. 같이 갈래?~(후략)" 일 수 있다.
다음으로, 화자 인식부(330)는 녹음 데이터의 음성을 분석하여 음성 분석 정보를 생성하고, 생성된 음성 분석 정보를 이용하여 텍스트를 화자 별로 섹셔닝(sectioning)할 수 있다. 이때, 화자 인식부(330)는 녹음 데이터의 음성을 분석하여 녹음 데이터를 화자가 변경되는 시점을 기준으로 섹셔닝하고, 녹음 데이터의 각 섹셔닝된 구간마다 화자 정보를 부가하여 음성 분석 정보를 생성할 수 있다. 즉, 각 섹셔닝된 녹음 데이터들에 대하여, 제1 화자가 발화한 것인지, 혹은 제2 화자가 발화한 것인지에 대한 정보를 부가하여 음성 분석 정보를 생성할 수 있다.
도 6 은 본 발명의 일 실시예에 따라 음성 분석 정보를 생성하는 과정을 설명한 도면이다.
도 6 을 참조하면, 먼저 화자 인식부(330)는 녹음 데이터의 음성을 분석하여 화자가 바뀌는 시점을 기준으로 녹음 데이터를 섹셔닝할 수 있다. 보다 상세히, 도 6 의 실시예에서는 10초(s)짜리 녹음 데이터(61)를 생성하고, 생성된 녹음 데이터(61)를 분석하여 3.2s, 5.4s, 8s, 9.8s 에 화자가 변경된 것으로 판단할 수 있다. 또한, 화자가 변경된 시간에 따라, 화자 인식부(330)는 녹음 데이터를 [0, 3.2s]의 제1 구간(a1), [3.2s, 5.4s]의 제2 구간(b1), [5.4s, 8s]의 제3 구간(a2), [8s, 9.8s]의 제4 구간(b2), [9.8s, 10s]의 제5 구간(a3)으로 섹셔닝할 수 있다. 도 6 의 실시예를 참조하면, 섹셔닝된 제1 구간(a1), 제3 구간(a2) 및 제5 구간(a3)은 제1 화자인 화자 A 가, 섹셔닝된 제2 구간(b1) 및 제4 구간(b2)는 제2 화자인 화자 B가 발화한 것으로 판단할 수 있다.
한편, 본 발명의 일 실시예에 따른 화자 인식부(330)는 녹음 데이터의 음성을 분석하여 음성 분석 정보를 생성할 때, 녹음 데이터의 시간 별 음성 소스(source)를 참조하여 생성할 수 잇다. 녹음 데이터의 시간 별 음성 소스는 상기 사용자 단말의 입력 장치의 수신 신호 혹은 출력 장치의 제어 신호일 수 있다. 즉, 녹음 데이터의 음성 소스란, 녹음 데이터를 생성할 때 녹음 데이터에 포함된 음성이 사용자 단말의 어떤 기능을 사용하여 획득되었는지에 관한 것이다. 예를 들어, 녹음 데이터를 생성할 때, 사용자 단말의 사용자의 발화 내용은 사용자 단말의 마이크와 같은 입력 장치로부터 직접, 혹은 입력 장치를 제어하는 신호로부터 획득될 수 있다. 혹은, 대화 상대방의 발화 내용은 사용자 단말의 스피커와 같은 출력 장치에서 직접, 혹은 출력 장치를 제어하는 신호로부터 획득할 수 있다. 따라서, 본 발명의 일 실시예에 따르면 녹음 데이터를 생성할 때 해당 음성을 획득한 소스를 이용하면 화자 정보를 얻을 수 있다.
보다 구체적으로, 본 발명의 일 실시예에 따른 녹음 데이터는 제1 화자와 제2 화자 간의 통화에 기인한 것이며 제1 화자의 사용자 단말이 생성하는 것일 수 있다. 따라서, 제1 화자의 사용자 단말은 제1 화자의 발화 음성으로 사용자 단말의 마이크와 같은 입력 장치의 수신 신호(즉, 마이크가 획득한 음성을 신호로 변환한 수신 신호)와, 제2 화자의 발화 음성으로 사용자 단말의 스피커의 제어 신호(즉, 스피커가 음성을 출력하도록 제어하는 제어 신호)를 결합하여 녹음 데이터를 생성할 수 있다.
이때, 본 발명의 일 실시예에 따른 화자 인식부(330)는 사용자 단말의 입력 장치의 수신 신호가 기설정된 수치 이상인 시간 구간은 제1 화자가 발화한 것으로 판단하고, 사용자 단말의 출력 장치의 제어 신호가 기설정된 수치 이상인 시간 구간은 제2 화자가 발화한 것으로 판단할 수 있다. 입력 장치의 수신 신호가 큰 경우 본인이 발화하고 있을 가능성이 높고, 출력 장치의 제어 신호가 큰 경우 상대방이 발화하고 있을 가능성이 높기 때문이다. 이와 같이 녹음 데이터가 생성되는 소스의 특성을 이용하여 녹음 데이터를 섹셔닝하고 화자를 판단하는 경우, 음성의 특성 혹은 패턴을 이용해서 화자를 판단하는 경우보다 쉽고 용이하게 음성 분석 정보를 생성할 수 있다.
또한, 화자 인식부(330)는 음성 분석 정보를 이용하여 텍스트를 화자 별로 섹셔닝할 수 있다. 상술한 바와 같이, 화자 인식부(330)는 녹음 데이터를 섹셔닝하고, 섹셔닝된 구간마다 화자 정보를 부가하여 음성 분석 정보를 생성할 수 있다. 본 발명의 일 실시예에 따른 화자 인식부(330)는 녹음 데이터의 각 섹셔닝된 구간에 대응하는 텍스트의 부분을 추출하고, 화자 정보를 대응하는 텍스트의 부분에 매칭하여 상기 텍스트를 화자 별로 섹셔닝할 수 있다. 즉, 녹음 데이터의 발화 내용이 텍스트로 추출되었으므로, 화자 인식부(330)는 섹셔닝된 구간과 매칭되도록 텍스트 역시 섹셔닝하고, 대응되는 화자 정보를 부가함으로써 텍스트를 화자 별로 섹셔닝할 수 있다.
도 7 은 본 발명의 일 실시예에 따라 텍스트가 섹셔닝된 예시이다.
도 7 은 도 5 및 도 6 에 계속되는 실시예로서, 동일한 설명은 생략하기로 한다. 도 7 을 참조하면, 녹음 메시지의 텍스트들이 녹음 데이터의 섹셔닝된 구간들에 대응하도록 1번 내지 6번 텍스트로 섹셔닝될 수 있다. 보다 상세히, 1번 텍스트는 "오늘 뭐해? 나는 오늘 공원에 갈꺼야. 같이 갈래?" 로서, 녹음 데이터의 섹셔닝된 구간 [0, 3.2] 에 대응한다. 따라서, 대응하는 섹셔닝된 구간의 화자 정보에 따라 화자 A 가 발화한 내용이라 판단할 수 있다. 마찬가지의 방법으로, 2번 텍스트는 "몇시에 출발할지 알려줘. 오후면 좋겠어"고, 녹음 데이터의 섹셔닝된 구간[3.2, 5.4]에 대응하며, 화자 B 가 발화한 내용이라 판단할 수 있다. 이와 같은 방법으로, 각 섹셔닝된 텍스트들에 화자 정보가 부가될 수 있다.
다음으로, 메시지 구현부(340)는 화자 별로 섹셔닝된 텍스트를 시간 순서대로 대화형 메시지로 구현할 수 있다(S4). 보다 상세히, 대화형 메시지란, 서로 주고받는 상황을 알 수 있도록 메시지를 순차적으로, 발화 단위마다 표시한 인터렉션(interaction) 메시지이다. 예를 들어, 채팅 혹은 문자메시지 대화 등이 대화형 메시지라 할 수 있다. 본 발명의 일 실시예에 따르면, 녹음 데이터로부터 대화형 메시지를 구현함으로써, 통화 내용을 텍스트로 구현하되 보다 용이하게 내용을 파악하도록 할 수 있다.
보다 상세히, 메시지 구현부(340)는 제1 화자 및 제2 화자의 발화 내용을 글상자를 이용하여 표시할 수 있다. 이때, 하나의 글상자 속에 들어가는 텍스트는 상술한 화자 별로 섹셔닝된 텍스트일 수 있다. 예를 들어, 하나의 글상자 속에 상술한 도 7 의 1번 텍스트가 표시되고, 다른 글상자 속에 상술한 도 7 의 2번 텍스트가 표시될 수 있다. 이때, 메시지 구현부(340)는 각 텍스트에 대응하는 발화가 이루어진 순서대로 글상자를 순차적으로 표시할 수 있다. 즉, 1번 내지 5번 텍스트에 대응하는 제1 내지 제5 글상자를 위에서부터 순차적으로 표시할 수 있다. 또한, 글상자 모양은 사각형 모양, 원모양, 말풍선 모양 등 다양하게 설정될 수 잇다.
또한, 메시지 구현부(340)는 대화형 메시지를 구현할 때 제1 화자와 제2 화자가 명확히 드러나도록 사용자 인터페이스를 생성할 수 있다. 본 발명의 일 실시예에 따르면, 메시지 구현부(340)는 대화형 메시지 구현 장치가 포함된 사용자 단말의 사용자의 발화 내용에 대응하는 글상자를 오른쪽에 정렬하고, 타 사용자의 발화 내용에 대응하는 글상자를 왼쪽에 정렬할 수 있다. 즉, 제1 화자의 발화에 대응하는 글상자를 오른쪽 기준으로 정렬하고, 제2 화자의 발화에 대응하는 글상자를 왼쪽 기준으로 정렬할 수 있다.
또한, 메시지 구현부(340)는 대화형 메시지를 구현할 때 제1 화자 또는 제2 화자의 정보를 표시할 수 있다. 또한, 제1 화자 또는 제2 화자의 정보를 대응하는 각 섹셔닝된 텍스트에 대응하도록 표시할 수 있다. 예를 들어, 각 화자의 발화에 대응하는 글상자 옆에 각 화자의 사진 및 전화번호를 표시할 수 있다. 이로 인해, 대화형 메시지 구현 시 각 화자가 발화한 내용이 화자가 문자 메시지를 보낸 것처럼 표시할 수 있으며, 화자들의 정보를 보다 용이하게 파악할 수 있다.
본 발명의 일 실시예에 따르면, 메시지 구현부(340)는 화자 정보를 표시하기 위해 사용자 단말에 저장된 주소록 정보를 이용하여, 화자의 사진, 이름 및 전화번호를 획득할 수 있다. 이때, 주소록 데이터와 화자와의 매칭은 전화번호를 이용하여 수행할 수 있다. 즉, 본 발명의 일 실시예에 따르면 녹음 데이터는 전화 통화로부터 생성될 수 있으므로, 전화 통화의 상대방 전화번호 정보를 주소록 전화번호와 매칭하여 화자 정보를 획득할 수 있다. 예를 들어, 제2 화자의 전화번호와 사용자 단말에 저장된 주소록 전화번호를 매칭하여 상기 제2 화자 정보를 획득할 수 있다. 혹은, 본 발명의 대화형 메시지 구현 장치가 포함된 사용자 단말의 사용자가 제1 화자인 경우, 본인인 제1 화자의 정보는 표현할 필요가 없으므로 제2 화자의 정보만 표현할 수도 있다.
도 8 은 본 발명의 일 실시예에 따른 대화형 메시지를 나타낸 것이다.
도 8 은 도 5 내지 도 7 의 연속된 실시예로써, 중복되는 내용은 설명을 생략하기로 한다. 먼저, 1번 텍스트인 "오늘 뭐해? 나는 오늘 공원에 갈꺼야. 같이 갈래?" 는 제1 글상자(71)에 표시될 수 있다. 마찬가지로, 2번 텍스트인 "몇시에 출발할지 알려줘. 오후면 좋겠어."는 제2 글상자(72)에 표시될 수 있다. 동일한 방법으로, 3번 내지 5번 텍스트가 제3 내지 제5 글상자(73~75)에 표시될 수 있다. 도 8 의 실시예에서는, 제1 내지 제5 글상자(71~75)의 모양이 말풍선 모양일 수 있다.
또한, 도 8 의 실시예에서는 어느 화자가 발화한 내용인지 직관적으로 알 수 있도록, 제1 화자(화자 A)의 발화 내용은 오른쪽에 정렬되고, 제2 화자(화자 B)의 발화 내용은 왼쪽에 정렬될 수 있다. 더불어, 발화 내용들을 포함하는 글상자는 시간 순서대로 위에서부터 순차적으로 표시될 수 있다.
또한, 도 8 의 실시예에서, 제2 화자(B)의 정보가 대화형 메시지에 포함될 수 있다. 보다 상세히, 사용자 사진(77) 및 이름과 전화번호(78)와 같은 화자 정보가 제2 화자에 대응하는 글상자(72, 74) 옆에 표시될 수 있다. 상술한 바와 같이, 제2 화자의 정보는 도 8 의 대화형 메시지를 생성한 대화형 메시지 생성 장치가 포함된 사용자 단말, 즉 제1 화자의 사용자 단말에 저장된 주소록 정보로부터 추출할 수 있다. 메시지 구현부(340)는 통화 상대방인 제2 화자의 전화번호를 주소록의 전화번호와 매칭하여, 제2 화자 정보를 획득할 수 있다.
더불어, 도 8 의 실시예에 따르면, 대화형 메시지는 글상자 주변부에 발화 시간(76)을 추가적으로 기재할 수 있다. 발화 시간(76)이란, 해당 글상자에 대응하는 섹셔닝된 녹음 데이터의 종료 시간을 수 있다. 즉, 도 8 의 예시에서, 제1 섹셔닝 구간("오늘 뭐해? 나는 오늘 공원에 갈꺼야. 같이 갈래?")에 대응하는 실제 발화 시간이 2018년 7월 30일 오후 1시 20분 53초에서 56.2초인 경우, 해당 글상자에 대응하는 발화 시간은 2018년 7월 20일 오후 1시 20분 56.2초이며, 해당 발화 시간 정보가 글상자 주변부에 기재될 수 있다.
상술한 바와 같은 본원 발명의 실시예에 의해, 통화 내용을 자동적으로 대화형 메시지로 변환하는 대화형 메시지 생성 장치가 제공될 수 있다.
또한, 본 발명의 일 실시에에 의해, 통화 내용을 텍스트로 제공함으로써, 녹음된 내용을 다시 재생하지 않아도 통화 내용을 자동적으로 문서화할 수 있다.
또한, 본 발명의 일 실시예에 의해, 통화 내용을 직관적으로 인식할 수 있는 대화형 메시지를 제공할 수 있으며, 대화형 메시지로부터 발화 내용, 화자 정보, 발화 시간의 정보를 획득할 수 있다.
이상 설명된 본 발명에 따른 실시예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항과 한정된 실시예 및 도면에 의하여 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐, 본 발명이 상기 실시예에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정과 변경을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.

Claims (19)

  1. 2 이상의 화자의 발화 내용을 녹음하여 녹음 데이터를 생성하는 녹음 데이터 생성부;
    상기 녹음 데이터로부터 상기 발화 내용의 텍스트를 추출하는 텍스트 추출부;
    상기 녹음 데이터의 음성을 분석하여 음성 분석 정보를 생성하고, 상기 음성 분석 정보를 이용하여 상기 텍스트를 화자 별로 섹셔닝(sectioning)하는 화자 인식부;
    상기 화자 별로 섹셔닝된 텍스트를 시간 순서대로 대화형 메시지로 구현하는 메시지 구현부;
    를 포함하는 대화형 메시지 구현 장치.
  2. 제 1 항에 있어서,
    상기 녹음 데이터 생성부는 2 이상의 발화 내용을 실시간으로 녹음 데이터로 생성하고, 상기 메시지 구현부는 실시간으로 상기 녹음 데이터로부터 상기 대화형 메시지를 구현하는, 대화형 메시지 구현 장치.
  3. 제 1 항에 있어서,
    상기 음성 분석 정보는, 상기 녹음 데이터를 화자가 변경되는 시점을 기준으로 섹셔닝하고, 상기 녹음 데이터의 각 섹셔닝된 구간마다 화자 정보를 부가한 것인, 대화형 메시지 구현 장치.
  4. 제 3 항에 있어서,
    상기 화자 인식부는 상기 녹음 데이터의 각 섹셔닝된 구간에 대응하는 상기 텍스트의 부분을 추출하고, 상기 화자 정보를 상기 대응하는 텍스트의 부분에 매칭하여 상기 텍스트를 화자 별로 섹셔닝하는, 대화형 메시지 구현 장치.
  5. 제 4 항에 있어서,
    상기 대화형 메시지는 하나 이상의 글상자를 포함하고, 상기 글상자 각각에는 상기 화자 별로 섹셔닝된 텍스트가 삽입되는, 대화형 메시지 구현 장치.
  6. 제 1 항에 있어서,
    상기 대화형 메시지에 포함된 하나 이상의 글상자는 말풍선 모양인, 대화형 메시지 구현 장치.
  7. 제 1 항에 있어서,
    상기 대화형 메시지는, 상기 대화형 메시지 구현 장치가 포함된 사용자 단말의 사용자의 발화 내용에 대응하는 글상자를 오른쪽에 정렬하고, 타 사용자의 발화 내용에 대응하는 글상자를 왼쪽에 정렬하는, 대화형 메시지 구현 장치.
  8. 제 1 항에 있어서,
    상기 2 이상의 화자의 발화 내용은 제1 화자와 제2 화자 간의 통화에 의해 생성되는 것으로, 상기 제1 화자는 상기 대화형 메시지 구현 장치가 포함된 사용자 단말의 사용자이고, 상기 제2 화자는 상기 통화의 상대방인, 대화형 메시지 구현 장치.
  9. 제 1 항에 있어서,
    상기 텍스트 추출부는 상기 녹음 데이터의 노이즈를 제거한 후 상기 발화 내용의 텍스트를 추출하는, 대화형 메시지 구현 장치.
  10. 2 이상의 화자의 발화 내용을 녹음하여 녹음 데이터를 생성하는 녹음 데이터 생성 단계;
    상기 녹음 데이터로부터 상기 발화 내용의 텍스트를 추출하는 텍스트 추출 단계;
    상기 녹음 데이터의 음성을 분석하여 음성 분석 정보를 생성하고, 상기 음성 분석 정보를 이용하여 상기 텍스트를 화자 별로 섹셔닝(sectioning)하는 화자 인식 단계;
    상기 화자 별로 섹셔닝된 텍스트를 시간 순서대로 대화형 메시지로 구현하는 메시지 구현 단계;
    를 포함하는 대화형 메시지 구현 방법.
  11. 제 10 항에 있어서,
    상기 녹음 데이터 생성 단계는 2 이상의 발화 내용을 실시간으로 녹음 데이터로 생성하고, 상기 메시지 구현 단계는 실시간으로 상기 녹음 데이터로부터 상기 대화형 메시지를 구현하는, 대화형 메시지 구현 방법.
  12. 제 10 항에 있어서,
    상기 음성 분석 정보는, 상기 녹음 데이터를 화자가 변경되는 시점을 기준으로 섹셔닝하고, 상기 녹음 데이터의 각 섹셔닝된 구간마다 화자 정보를 부가한 것인, 대화형 메시지 구현 방법.
  13. 제 12 항에 있어서,
    상기 화자 인식 단계는 상기 녹음 데이터의 각 섹셔닝된 구간에 대응하는 상기 텍스트의 부분을 추출하고, 상기 화자 정보를 상기 대응하는 텍스트의 부분에 매칭하여 상기 텍스트를 화자 별로 섹셔닝하는, 대화형 메시지 구현 방법.
  14. 제 13 항에 있어서,
    상기 대화형 메시지는 하나 이상의 글상자를 포함하고, 상기 글상자 각각에는 상기 화자 별로 섹셔닝된 텍스트가 삽입되는, 대화형 메시지 구현 방법.
  15. 제 10 항에 있어서,
    상기 대화형 메시지에 포함된 하나 이상의 글상자는 말풍선 모양인, 대화형 메시지 구현 방법.
  16. 제 10 항에 있어서,
    상기 대화형 메시지는, 상기 대화형 메시지 구현 방법이 구현되는 사용자 단말의 사용자의 발화 내용에 대응하는 글상자를 오른쪽에 정렬하고, 타 사용자의 발화 내용에 대응하는 글상자를 왼쪽에 정렬하는, 대화형 메시지 구현 방법.
  17. 제 10 항에 있어서,
    상기 2 이상의 화자의 발화 내용은 제1 화자와 제2 화자 간의 통화에 의해 생성되는 것으로, 상기 제1 화자는 상기 대화형 메시지 구현 방법이 구현된 사용자 단말의 사용자이고, 상기 제2 화자는 상기 통화의 상대방인, 대화형 메시지 구현 방법.
  18. 제 10 항에 있어서,
    상기 텍스트 추출 단계는 상기 녹음 데이터의 노이즈를 제거한 후 상기 발화 내용의 텍스트를 추출하는, 대화형 메시지 구현 방법.
  19. 제 10 항 내지 제 18 항 중 어느 한 항에 따른 방법을 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 기록된 컴퓨터 프로그램.
KR1020180086014A 2018-07-24 2018-07-24 대화형 메시지 구현 방법, 장치 및 프로그램 KR20200011198A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180086014A KR20200011198A (ko) 2018-07-24 2018-07-24 대화형 메시지 구현 방법, 장치 및 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180086014A KR20200011198A (ko) 2018-07-24 2018-07-24 대화형 메시지 구현 방법, 장치 및 프로그램

Publications (1)

Publication Number Publication Date
KR20200011198A true KR20200011198A (ko) 2020-02-03

Family

ID=69627070

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180086014A KR20200011198A (ko) 2018-07-24 2018-07-24 대화형 메시지 구현 방법, 장치 및 프로그램

Country Status (1)

Country Link
KR (1) KR20200011198A (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102208387B1 (ko) * 2020-03-10 2021-01-28 주식회사 엘솔루 음성 대화 재구성 방법 및 장치
KR102312993B1 (ko) * 2020-06-12 2021-10-13 주식회사 리턴제로 인공신경망을 이용한 대화형 메시지 구현 방법 및 그 장치
WO2021256614A1 (ko) * 2020-06-16 2021-12-23 주식회사 마인즈랩 화자가 표지된 텍스트 생성 방법
KR20220026945A (ko) * 2020-08-26 2022-03-07 주식회사 카카오엔터프라이즈 음향 신호를 사용자 인터페이스에 시각적으로 표시하는 사용자 인터페이싱 방법 및 장치
KR20220026958A (ko) * 2020-08-26 2022-03-07 주식회사 카카오엔터프라이즈 음향 신호를 사용자 인터페이스에 시각적으로 표시하는 사용자 인터페이싱 방법 및 장치

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102208387B1 (ko) * 2020-03-10 2021-01-28 주식회사 엘솔루 음성 대화 재구성 방법 및 장치
CN113450772A (zh) * 2020-03-10 2021-09-28 语享路有限责任公司 语音对话重构方法及装置
CN113450772B (zh) * 2020-03-10 2024-03-26 语享路有限责任公司 语音对话重构方法及装置
KR102312993B1 (ko) * 2020-06-12 2021-10-13 주식회사 리턴제로 인공신경망을 이용한 대화형 메시지 구현 방법 및 그 장치
WO2021251539A1 (ko) * 2020-06-12 2021-12-16 주식회사 리턴제로 인공신경망을 이용한 대화형 메시지 구현 방법 및 그 장치
WO2021256614A1 (ko) * 2020-06-16 2021-12-23 주식회사 마인즈랩 화자가 표지된 텍스트 생성 방법
KR20210155866A (ko) * 2020-06-16 2021-12-24 주식회사 마인즈랩 화자가 표지된 텍스트 생성 방법
KR20220026945A (ko) * 2020-08-26 2022-03-07 주식회사 카카오엔터프라이즈 음향 신호를 사용자 인터페이스에 시각적으로 표시하는 사용자 인터페이싱 방법 및 장치
KR20220026958A (ko) * 2020-08-26 2022-03-07 주식회사 카카오엔터프라이즈 음향 신호를 사용자 인터페이스에 시각적으로 표시하는 사용자 인터페이싱 방법 및 장치

Similar Documents

Publication Publication Date Title
US11520471B1 (en) Systems and methods for identifying a set of characters in a media file
US11430442B2 (en) Contextual hotwords
Reddy et al. Speech to text conversion using android platform
KR20200011198A (ko) 대화형 메시지 구현 방법, 장치 및 프로그램
JP6588637B2 (ja) 個別化されたエンティティ発音の学習
US9542956B1 (en) Systems and methods for responding to human spoken audio
KR101418163B1 (ko) 컨텍스트 정보를 이용한 음성 인식 복구
CN101366075B (zh) 话音控制式无线通信装置系统的控制中心
CN100578614C (zh) 用语音应用语言标记执行的语义对象同步理解
CN110998720A (zh) 话音数据处理方法及支持该方法的电子设备
CN108305626A (zh) 应用程序的语音控制方法和装置
CN110603584A (zh) 设备上的多用户认证
WO2022105861A1 (zh) 用于识别语音的方法、装置、电子设备和介质
CN106796787A (zh) 在自然语言处理中使用先前对话行为进行的语境解释
KR102312993B1 (ko) 인공신경망을 이용한 대화형 메시지 구현 방법 및 그 장치
JP7113047B2 (ja) 人工知能基盤の自動応答方法およびシステム
CN107808007A (zh) 信息处理方法和装置
JP7365985B2 (ja) 音声を認識するための方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム
CN112927674B (zh) 语音风格的迁移方法、装置、可读介质和电子设备
CN111916088B (zh) 一种语音语料的生成方法、设备及计算机可读存储介质
KR101989127B1 (ko) 번역 장치, 번역 방법 및 번역 컴퓨터 프로그램
KR20190115405A (ko) 검색 방법 및 이 방법을 적용하는 전자 장치
CN108711428B (zh) 指令执行方法、装置、存储介质及电子设备
US20140067398A1 (en) Method, system and processor-readable media for automatically vocalizing user pre-selected sporting event scores
KR102376552B1 (ko) 음성 합성 장치 및 음성 합성 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application