KR102376058B1 - 대화록 서비스를 제공하는 컴퓨팅 장치 - Google Patents

대화록 서비스를 제공하는 컴퓨팅 장치 Download PDF

Info

Publication number
KR102376058B1
KR102376058B1 KR1020200085692A KR20200085692A KR102376058B1 KR 102376058 B1 KR102376058 B1 KR 102376058B1 KR 1020200085692 A KR1020200085692 A KR 1020200085692A KR 20200085692 A KR20200085692 A KR 20200085692A KR 102376058 B1 KR102376058 B1 KR 102376058B1
Authority
KR
South Korea
Prior art keywords
voice data
data
voice
sub
speaker
Prior art date
Application number
KR1020200085692A
Other languages
English (en)
Other versions
KR20220007453A (ko
Inventor
이지화
조홍식
Original Assignee
(주)액션파워
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)액션파워 filed Critical (주)액션파워
Priority to KR1020200085692A priority Critical patent/KR102376058B1/ko
Priority to KR1020210186666A priority patent/KR102647512B1/ko
Publication of KR20220007453A publication Critical patent/KR20220007453A/ko
Application granted granted Critical
Publication of KR102376058B1 publication Critical patent/KR102376058B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Telephonic Communication Services (AREA)

Abstract

전술한 과제를 해결하기 위한 본 개시의 일 실시예에서, 하나 이상의 프로세서들에 의해 실행 가능한 컴퓨턴 판독가능 저장 매체에 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 상기 하나 이상의 프로세서로 하여금 이하의 동작들을 수행하도록 하며, 상기 동작들은: 제 1 사용자 단말로부터 제 1 음성 데이터를 수신하고, 제 2 사용자 단말로부터 제 2 음성 데이터를 수신하는 동작, 상기 제 1 음성 데이터와 상기 제 2 음성 데이터에 기초하여 통합 음성 데이터를 생성하는 동작 및 상기 통합 음성 데이터를 음성 인식 모델을 이용하여 대화록을 생성하는 동작 을 포함할 수 있다.

Description

대화록 서비스를 제공하는 컴퓨팅 장치{COMPUTING DEVICE FOR PROVIDING DIALOGUES SERVICES}
본 개시는 대화록 서비스를 제공하는 컴퓨팅 장치에 관한 발명으로, 보다 구체적으로, 복수의 사용자간 대화 내용을 포함하는 음성 파일에 기초하여 대화록 서비스를 제공하는 컴퓨팅 장치에 관한 것이다.
오늘날, 직장인들은 회사 내/외부 임직원과 빈번하게 회의를 진행한다. 회의 과정에서 회의 내용에 대한 회의록을 작성하는 것은 조직과 개인의 업무 효율면에서 많은 도움이 된다. 다만, 회의 진행 중 회의록을 작성하기 위해서는 별도의 속기사를 필요로 하므로, 추가적인 비용이 발생할 수 있으며, 속기사의 역량에 따라 회의록의 질이 달라질 수 있다.
한편, 최근 들어 알파고 등과 같은 이슈에 따라 인공지능에 대한 시장 수요가 증가하고 있으며, 컴퓨터 기술의 발전으로 처리할 수 있는 정보량이 늘어남에 따라 인공지능이 빠른 속도로 진화하고 있다. 또한, 인공지능이 빠른 속도로 진화함에 따라 인공 신경망을 활용한 음성 인식의 정확도가 높아지고 있다.
이에 따라, 대한민국 공개특허 제10-2008-0037402호(2008.04.30)에서는 단일 채널로 입력되는 음성파일에 대하여 주파수 대역을 기준으로 복수의 화자를 분리하는 알고리즘은 통해 화자를 분리하여 텍스트화 함으로써, 자동으로 회의록을 작성하는 시스템을 개시하고 있다.
본 개시는 전술한 배경 기술에 대응하여 안출된 것으로, 복수의 사용자간 대화 내용을 포함하는 음성파일에 기초하여 대화록 서비스를 제공하는 컴퓨팅 장치를 제공하기 위한 것이다.
전술한 과제를 해결하기 위한 본 개시의 일 실시예에 따라, 하나 이상의 프로세서들에 의해 실행 가능한 컴퓨터 판독가능 매체에 저장된 컴퓨터 프로그램이 개시된다. 상기 컴퓨터 프로그램은 상기 하나 이상의 프로세서들로 하여금 이하의 동작들을 수행하도록 하며, 상기 동작들은: 제 1 사용자 단말로부터 제 1 음성 데이터를 수신하고, 제 2 사용자 단말로부터 제 2 음성 데이터를 수신하는 동작, 상기 제 1 음성 데이터와 상기 제 2 음성 데이터에 기초하여 통합 음성 데이터를 생성하는 동작 및 상기 통합 음성 데이터를 음성 인식 모델을 이용하여 대화록을 생성하는 동작을 포함할 수 있다.
대안적으로, 상기 제 1 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 1 음성 데이터 서브 데이터로 분할하고, 그리고 상기 제 2 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 2 음성 데이터 서브 데이터로 분할하는 동작 및 상기 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별하는 동작을 더 포함할 수 있다.
대안적으로, 상기 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별하는 동작은, 제 1 사용자 단말과 제 2 사용자 단말의 네트워크 패킷 교환을 통한 상기 제 1 음성 데이터와 상기 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화 하는 동작 또는 상기 제 1 음성 데이터 서브 데이터와 상기 제 2 음성 데이터 서브 데이터의 유사도에 기초하여 제 1 음성 데이터와 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화 하는 동작 중 적어도 하나를 포함할 수 있다.
대안적으로, 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 기초하여 중첩 구간을 식별하는 동작을 더 포함할 수 있다.
대안적으로, 상기 제 1 음성 데이터와 제 2 음성 데이터에 기초하여 통합 음성 데이터를 생성하는 동작은, 상기 통합 음성 데이터에 대한 인식률을 높이기 위해 각각의 음성 데이터에 대한 전처리를 수행하는 동작을 포함하고, 상기 전처리는 하나 이상의 음성 데이터 각각에 포함된 신호 크기에 대한 표준화 또는 주파수 필터링 중 적어도 하나를 포함할 수 있다.
대안적으로, 상기 제 1 음성 데이터와 제 2 음성 데이터에 기초하여 통합 음성 데이터를 생성하는 동작은, 상기 제 1 음성 데이터와 상기 제 2 음성 데이터 각각의 음성 신호 크기에 기초하여 화자를 구분하는 동작 또는 상기 제 1 음성 데이터와 상기 제 2 음성 데이터에 기초하여 통계적 음향 모델을 통해 화자를 구분하는 동작 중 적어도 하나를 포함할 수 있다.
대안적으로, 상기 제 1 음성 데이터와 상기 제 2 음성 데이터 각각의 음성 신호 크기에 기초하여 화자를 구분하여 상기 통합 음성 데이터를 생성하는 동작은, 상기 제 1 음성 데이터에 기초한 제 1 음성 데이터 프레임과 상기 제 2 음성 데이터에 기초한 제 2 음성 데이터 프레임 각각의 음성 신호 크기 비교를 통해 화자를 구분하는 동작을 포함할 수 있다.
대안적으로, 통계적 음향 모델을 통해 화자를 구분하여 상기 통합 음성 데이터를 생성하는 동작은, 인접 프레임의 화자 정보에 기초하여 현재 시점 프레임의 화자를 구분하는 동작 또는 상기 제 1 음성 데이터 와 상기 제 2 음성 데이터 각각의 화자의 발화 시간 비율에 기초하여 화자를 구분하는 동작 중 적어도 하나를 포함할 수 있다.
대안적으로, 상기 제 1 음성 데이터 와 상기 제 2 음성 데이터 각각의 화자의 발화 시간 비율에 기초하여 화자를 구분하는 동작은, 중첩구간 식별시, 중첩구간을 제외한 프레임의 화자에 기초하여 화자별 발화 시간 비율을 연산하여 화자를 구분하는 동작 또는 중첩구간 식별시, 중첩구간 프레임의 이전 프레임에 대한 화자별 발화 시간 비율에 기초하여 화자를 구분하는 동작을 포함할 수 있다.
대안적으로, 중첩구간 식별시, 중첩구간 프레임의 이전 프레임에 대한 화자별 발화 시간 비율에 기초하여 화자를 구분하는 동작은, 상기 중첩구간 프레임의 이전 프레임이 음성 데이터의 사전결정된 비율 이상인 경우에 수행될 수 있다.
본 개시의 다른 실시예에서 대화록 서비스를 제공하는 방법이 개시된다. 상기 방법은, 대화록 서비스를 제공하기 위한 방법으로서, 제 1 사용자 단말로부터 제 1 음성 데이터를 수신하고, 제 2 사용자 단말로부터 제 2 음성 데이터를 수신하는 방법, 상기 제 1 음성 데이터와 상기 제 2 음성 데이터에 기초하여 통합 음성 데이터를 생성하는 방법 및 상기 통합 음성 데이터를 음성 인식 모델을 이용하여 대화록을 생성하는 방법을 포함할 수 있다.
본 개시의 또 다른 실시예에서 대화록 서비스를 제공하는 서버로서, 하나 이상의 코어를 포함하는 서버 프로세서, 상기 프로세서에서 실행 가능한 프로그램 코드들을 저장하는 서버 메모리 및 하나 이상의 사용자 단말과 데이터를 송수신하는 서버 네트워크부를 포함하고, 그리고 상기 프로세서는, 제 1 사용자 단말로부터 제 1 음성 데이터를 수신하고, 제 2 사용자 단말로부터 제 2 음성 데이터를 수신하고,상기 제 1 음성 데이터 와 상기 제 2 음성 데이터에 기초하여 통합 음성 데이터를 생성하고, 그리고 상기 통합 음성 데이터를 음성 인식 모델을 이용하여 대화록을 생성할 수 있다.
본 개시는 복수의 사용자간 대화 내용을 포함하는 음성파일에 기초하여 대화록 서비스를 제공하는 컴퓨팅 장치를 제공할 수 있다.
다양한 양상들이 이제 도면들을 참조로 기재되며, 여기서 유사한 참조 번호들은 총괄적으로 유사한 구성요소들을 지칭하는데 이용된다. 이하의 실시예에서, 설명 목적을 위해, 다수의 특정 세부사항들이 하나 이상의 양상들의 총체적 이해를 제공하기 위해 제시된다. 그러나, 그러한 양상(들)이 이러한 구체적인 세부사항들 없이 실시될 수 있음은 명백할 것이다.
도 1은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 전체적인 시스템을 나타낸 개념도를 도시한다.
도 2는 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하는 컴퓨팅 장치의 블록 구성도를 도시한다.
도 3은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 순서도를 도시한다.
도 4는 본 개시의 일 실시예에 따른 사용자 목록 표시 화면 및 대화 목록 표시 화면을 포함하는 사용자 인터페이스의 예시도를 도시한다.
도 5는 본 개시의 일 실시예에 따른 대화방을 개설하는 과정 및 복수의 사용자를 포함하는 대화방에 대한 사용자 인터페이스의 예시도를 도시한다.
도 6은 본 개시의 일 실시예에 따른 사용자가 수행한 하나 이상의 대화 목록 중 특정 대화에 대한 사용자 단말의 선택 입력에 대응하여 대화록 표시 화면 제공하는 사용자 인터페이스의 예시도를 도시한다.
도 7은 본 개시의 일 실시예에 따른 음성 인식 결과 및 키워드에 대한 사용자의 선택 입력에 대응하여 음성 데이터의 특정 시점을 재생하는 화면이 표시된 사용자 인터페이스의 예시도를 도시한다.
도 8은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 수단을 도시한다.
도 9는 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 모듈을 도시한다.
도 10은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 로직을 도시한다.
도 11은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 회로를 도시한다.
도 12은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하는 컴퓨팅 장치의 블록 구성도를 도시한다.
도 13는 본 개시의 일 실시예에 따른 제 1 음성 데이터와 제 2 음성 데이터의 시작 시점과 종료 시점을 동기화하는 예시도를 도시한다.
도 14는 본 개시의 일 실시예에 따른 화자를 구분하는 과정의 예시도를 도시한다.
도 15은 본 개시의 일 실시예에 따른 통계적 음향 모델을 통한 화자를 구분하는 과정의 예시도를 도시한다.
도 16은 본 개시의 일 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 간략하고 일반적인 개략도를 도시한다.
다양한 실시예들이 이제 도면을 참조하여 설명된다. 본 명세서에서, 다양한 설명들이 본 개시의 이해를 제공하기 위해서 제시된다. 그러나, 이러한 실시예들은 이러한 구체적인 설명 없이도 실행될 수 있음이 명백하다.
본 명세서에서 사용되는 용어 "컴포넌트", "모듈", "시스템" 등은 컴퓨터-관련 엔티티, 하드웨어, 펌웨어, 소프트웨어, 소프트웨어 및 하드웨어의 조합, 또는 소프트웨어의 실행을 지칭한다. 예를 들어, 컴포넌트는 프로세서상에서 실행되는 처리과정(procedure), 프로세서, 객체, 실행 스레드, 프로그램, 및/또는 컴퓨터일 수 있지만, 이들로 제한되는 것은 아니다. 예를 들어, 컴퓨팅 장치에서 실행되는 애플리케이션 및 컴퓨팅 장치 모두 컴포넌트일 수 있다. 하나 이상의 컴포넌트는 프로세서 및/또는 실행 스레드 내에 상주할 수 있다. 일 컴포넌트는 하나의 컴퓨터 내에 로컬화 될 수 있다. 일 컴포넌트는 2개 이상의 컴퓨터들 사이에 분배될 수 있다. 또한, 이러한 컴포넌트들은 그 내부에 저장된 다양한 데이터 구조들을 갖는 다양한 컴퓨터 판독가능한 매체로부터 실행할 수 있다. 컴포넌트들은 예를 들어 하나 이상의 데이터 패킷들을 갖는 신호(예를 들면, 로컬 시스템, 분산 시스템에서 다른 컴포넌트와 상호작용하는 하나의 컴포넌트로부터의 데이터 및/또는 신호를 통해 다른 시스템과 인터넷과 같은 네트워크를 통해 전송되는 데이터)에 따라 로컬 및/또는 원격 처리들을 통해 통신할 수 있다.
더불어, 용어 "또는"은 배타적 "또는"이 아니라 내포적 "또는"을 의미하는 것으로 의도된다. 즉, 달리 특정되지 않거나 문맥상 명확하지 않은 경우에, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는 것으로 의도된다. 즉, X가 A를 이용하거나; X가 B를 이용하거나; 또는 X가 A 및 B 모두를 이용하는 경우, "X는 A 또는 B를 이용한다"가 이들 경우들 어느 것으로도 적용될 수 있다. 또한, 본 명세서에 사용된 "및/또는"이라는 용어는 열거된 관련 아이템들 중 하나 이상의 아이템의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다.
또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하는 것으로 이해되어야 한다. 다만, "포함한다" 및/또는 "포함하는"이라는 용어는, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. 또한, 달리 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 본 명세서와 청구범위에서 단수는 일반적으로 "하나 또는 그 이상"을 의미하는 것으로 해석되어야 한다.
당업자들은 추가적으로 여기서 개시된 실시예들과 관련되어 설명된 다양한 예시 적 논리적 블록들, 구성들, 모듈들, 회로들, 수단들, 로직들, 및 알고리즘 단계들이 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양쪽 모두의 조합들로 구현될 수 있음을 인식해야 한다. 하드웨어 및 소프트웨어의 상호교환성을 명백하게 예시하기 위해, 다양한 예시 적 컴포넌트들, 블록들, 구성들, 수단들, 로직들, 모듈들, 회로들, 및 단계들은 그들의 기능성 측면에서 일반적으로 위에서 설명되었다. 그러한 기능성이 하드웨어로 또는 소프트웨어로서 구현되는지 여부는 전반적인 시스템에 부과된 특정 어플리케이션(application) 및 설계 제한들에 달려 있다. 숙련된 기술자들은 각각의 특정 어플리케이션들을 위해 다양한 방법들로 설명된 기능성을 구현할 수 있다. 다만, 그러한 구현의 결정들이 본 개시내용의 영역을 벗어나게 하는 것으로 해석되어서는 안된다.
도 1은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 전체적인 시스템을 나타낸 개념도를 도시한다.
본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100) 및 하나 이상의 사용자 단말(10)은 무선 및/또는 유선을 통한 상호 연결을 통해 데이터를 전송할 수 있고, 그리고 수신할 수 있다. 본 개시의 컴퓨팅 장치는 전자 형태의 데이터를 연산할 수 있는 모든 종류의 컴퓨팅 장치를 포함할 수 있으며, 예를 들어, 퍼스널 컴퓨터, 서버 컴퓨터 등의 일반 컴퓨팅 장치 및 모바일 단말(스마트폰(smartphone), 테블릿(tablet)) 등의 제한된 연산 능력을 가진 컴퓨팅 장치 등을 포함할 수 있다.
본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 복수의 사용자간 대화 내용을 포함하는 음성 데이터에 기초하여 대화록 서비스를 제공할 수 있다. 구체적으로, 컴퓨팅 장치(100)는 하나 이상의 사용자 단말(10) 각각으로부터 하나 이상의 음성 데이터를 수신하고, 상기 수신한 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 텍스트화 함으로써, 복수의 사용자 간 수행된 대화 내용에 대한 대화록을 생성할 수 있다. 이때, 하나 이상의 사용자 단말(10)은 PC(personal computer), 노트북(note book), 모바일 단말기(mobile terminal), 스마트 폰(smart phone), 태블릿 PC(tablet pc) 등을 포함할 수 있으며, 유/무선 네트워크에 접속할 수 있는 모든 종류의 단말을 포함할 수 있다.
또한, 컴퓨팅 장치(100)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각에 기초하여 텍스트화된 대화록을 제공할 수 있다. 이 경우, 텍스트화된 대화록은 대화에 참여한 복수의 사용자의 음성 데이터를 텍스트화 한 것으로, 복수의 사용자가 참여한 대화에 대한 음성 데이터를 텍스트화하여 시간 및 화자 별로 구분하여 나열한 것일 수 있다. 이에 따라, 복수의 사용자들은 복수의 사용자 간 대화(또는 회의) 진행 시, 별도의 속기사를 통해 대화록을 작성하거나 본인이 직접 대화록을 작성할 필요가 없이, 단순 복수의 사용자의 대화 내용을 포함하는 음성 데이터를 통해 복수의 사용자 간 대화 내용을 포함하는 텍스트화된 대화록을 제공받을 수 있다.
또한, 컴퓨팅 장치(100)는 대화록을 포함하는 사용자 인터페이스를 하나 이상의 사용자 단말에 제공할 수 있다. 이 경우, 사용자 인터페이스는 대화에 참여한 하나 이상의 사용자 각각에 대한 정보, 하나 이상의 사용자의 대화 내용이 시간별 및 화자별 로 분류되어 채팅창 형태로 기록된 대화록, 대화록들의 편집, 관리 및 검색 등의 활용도를 제고하기 위한 다양한 UI(User Interfaces)/UX(User Experience)를 포함하여 본 개시의 컴퓨팅 장치(100)를 이용하는 복수의 사용자에게 편의성을 제공할 수 있다.
본 개시에서 컴퓨팅 장치(100)가 하나 이상의 사용자 단말(10)로 대화록 서비스를 제공하는 과정 및 대화록을 포함하는 사용자 인터페이스에 대한 구체적인 설명은 이하의 도면들을 참조하여 후술하도록 한다.
도 2는 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하는 컴퓨팅 장치의 블록 구성도를 도시한다.
도 2에 도시된 대화록 서비스를 제공하는 컴퓨팅 장치(100)의 컴포넌트들은 예시적인 것이다. 도 2에 도시된 컴포넌트 중 일부만이 대화록 서비스를 제공하는 컴퓨팅 장치(100)를 구성할 수도 있으며, 도 2에 도시된 컴포넌트 이외에 추가적인 컴포넌트(들)가 상기 대화록 서비스를 제공하는 컴퓨팅 장치(100)에 포함될 수도 있다.
도 2에 도시된 바와 같이, 대화록 서비스를 제공하는 컴퓨팅 장치(100)는 프로세서(110), 메모리(120) 및 네트워크부(130)를 포함할 수 있다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 음성 데이터를 수신할 수 있다. 이 경우, 프로세서(110)가 수신하는 음성 데이터는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 것으로, 하나 이상이 존재할 수 있다. 예를 들어, 3명의 사용자가 대화를 진행하는 경우, 3명의 사용자 각각이 소지한 3개의 사용자 단말 각각으로부터 3개의 음성 데이터를 수신할 수 있다. 즉, 프로세서(110)는 하나의 사용자 단말을 통해 하나의 음성 데이터를 수신하는 것이 아닌, 복수의 사용자 각각이 소지한 하나 이상의 사용자 단말(10)로부터 하나 이상의 음성 데이터를 수신할 수 있다. 전술한 대화를 진행하는 사용자의 수 및 이에 대응하는 사용자 단말의 수에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각에 대하여 전처리를 수행할 수 있다. 프로세서(110)는 음성 데이터에 대한 인식률을 높이기 위한 전처리를 수행할 수 있다. 이때, 프로세서(110)가 하나 이상의 음성 데이터 각각에 대하여 수행하는 전처리는 노이즈 제거에 대한 전처리 및 발화 구간에서의 발화 크기에 기초하여 화자를 분리하는 전처리를 포함할 수 있다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각의 노이즈를 제거할 수 있다. 하나 이상의 음성 데이터 각각의 노이즈를 제거하는 것은, 상기 하나 이상의 음성 데이터에 포함된 노이즈를 제거하기 위한 것일 수 있다. 보다 구체적으로, 프로세서(110)는 하나 이상의 음성 데이터 각각에 포함된 신호의 크기와 사전 결정된 기준 신호의 크기의 비교에 기초하여 하나 이상의 음성 데이터 각각에 포함된 신호의 크기를 표준화할 수 있다. 프로세서(110)는 하나 이상의 사용자 단말(10)로부터 수신한 음성 데이터 각각에 포함된 신호의 크기가 사전 결정된 기준 신호 미만인 경우, 해당 신호의 크기를 크게 조정하고, 그리고 하나 이상의 사용자 단말(10)로부터 수신한 음성 데이터 각각에 포함된 신호의 크기가 사전 결정된 기준 신호 이상인 경우, 해당 신호의 크기를 작게(즉, clipping되지 않게)조정하는 Audio Signal compression Normalization을 수행할 수 있다. 전술한 노이즈 제거 동작은 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 하나 이상의 음성 데이터 각각에 포함된 음성의 파형을 분석하여, 발화 이외의 소리를 제거할 수 있다. 보다 구체적으로 프로세서(110)는 음성 데이터의 주파수를 분석하여 적어도 하나의 특정 주파수를 제거할 수 있다. 프로세서(110)가 수신하는 하나 이상의 음성 데이터 각각은 주파수가 균일한 백색 노이즈, 주파수가 불규칙한 랜덤 주파수 노이즈 또는 녹음 장치나 신호처리 과정에 따라 발생하는 다양한 노이즈를 포함할 수 있다. 즉, 프로세서(110)는 하나 이상의 음성 데이터 각각에 포함된 다양한 주파수를 갖는 잡음에 대하여 전처리를 수행할 수 있다. 구체적으로, 프로세서(110)는 하나 이상의 음성 데이터 각각에 포함된 잡음의 종류를 판별하기 위해 SVM(Supporting Vector Machine)과 같은 기계학습 알고리즘을 이용하여 분류하고, 각각의 상이한 주파수를 포함하는 잡음 각각에 대응하는 잡음 제거 알고리즘을 통해 노이즈를 제거할 수 있다. 전술한 잡음 제거 알고리즘은 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 하나 이상의 음성 데이터 각각에 대하여 하나 이상의 발화 구간을 식별할 수 있다. 프로세서(110)는 음성 데이터에 포함된 하나 이상의 발화를 식별할 수 있다. 구체적으로, 프로세서(110)는 음성 데이터에 존재하는 하나 이상의 묵음 구간을 기준으로 사용자의 발화 구간을 식별할 수 있다. 예를 들어, 프로세서(110)는 음성 데이터에 포함된 제 1 묵음 구간과 제 2 묵음 구간 사이를 사용자의 제 1 발화 구간으로 식별할 수 있으며, 제 2 묵음 구간과 제 3 묵음 구간 사이를 사용자의 제 2 발화 구간으로 식별할 수 있다. 즉, 하나 이상의 사용자의 대화 내용을 포함하는 음성 데이터에서 상기 하나 이상의 사용자의 음성(즉, 말소리)이 인지되지 않는 시점(예를 들어, 일정 크기 이하의 소리만이 감지되는 시점 등)을 식별하고, 상기 식별된 시점(즉, 묵음 구간)을 기준으로 하나 이상의 사용자의 발화 구간을 식별할 수 있다. 전술한 사용자의 발화 구간에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 음성 데이터에 포함된 하나 이상의 발화 구간 각각에서 하나 이상의 사용자 각각의 음성 식별할 수 있다. 또한, 프로세서(110)는 상기 식별된 하나 이상의 사용자 각각의 음성 중 음성의 크기가 사전 결정된 크기 이상을 가지는 발화를 음성 데이터에 대응하는 특정 화자로 결정할 수 있다. 보다 구체적으로, 프로세서(110)는 음성 데이터에 포함된 하나 이상의 사용자의 음성 중 특정 사용자의 음성의 크기가 사전 결정된 크기 이상인 경우, 상기 음성 데이터에 대응하는 특정 화자로 결정할 수 있다. 예를 들어, 제 1 사용자 단말로부터 2명의 사용자(A 사용자 및 B 사용자)의 음성을 포함하는 음성 데이터를 수신한 경우, 프로세서(110)는 A 사용자의 음성의 크기가 사전 결정된 크기 이상임을 판별하여, 상기 A 사용자를 제 1 사용자 단말로부터 수신한 음성 데이터에 대응하는 특정 화자로 결정할 수 있다. 즉, 본 개시에서 사용자 단말은 각각의 사용자의 음성을 수집하기 위하여 각각의 사용자에게 배치된 단말일 수 있으므로, 프로세서(110)는 수신된 음성 데이터에서 특정 크기 이상의 발화가 해당 음성 데이터가 수집된 사용자 단말의 사용자의 발화인 것으로 판단할 수 있다. 또한, 프로세서(110)는 음성 데이터에 포함된 하나 이상의 사용자 각각의 음성의 크기 비교에 기초하여 음성 데이터에 대응하는 특정 화자를 결정할 수도 있다. 예를 들어, 제 1 사용자 단말로부터 2명의 사용자(A 사용자 및 B 사용자)의 음성을 포함하는 음성 데이터를 수신한 경우, 프로세서(110)는 음성 데이터에 포함된 2명의 사용자의 음성 중 B 사용자의 음성의 크기가 A 사용자의 음성의 크기 보다 큰 것으로 판별하여 상기 B 사용자를 제 1 사용자 단말로부터 수신한 음성 데이터에 대응하는 특정 화자로 결정할 수 있다. 전술한 하나 이상의 사용자 및 하나 이상의 사용자 각각의 음성의 크기에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 사용자 단말(10)로부터 수신한 음성 데이터에서 특정 화자의 음성을 제외한 다른 음성을 제거할 수 있다. 보다 구체적으로, 프로세서(110)는 음성 데이터에 대응되는 특정 화자를 결정한 경우, 음성 데이터에서 상기 특정 화자의 음성을 제외한 다른 사용자의 음성을 제거할 수 있다. 예를 들어, 음성 데이터가 A 사용자 및 B 사용자의 음성을 포함하고, 상기 A 사용자가 상기 음성 데이터에 대응하는 특정 화자로 결정된 경우, 프로세서(110)는 상기 음성 데이터에서 B 사용자의 음성을 제거할 수 있다. 즉, 프로세서(110)는 음성 데이터에서 다른 사용자(예컨대, B 사용자)의 음성을 제거함으로써, 특정 화자(예컨대, A 사용자)의 음성을 보다 명확히 분리할 수 있다. 전술한 음성 데이터에 대응하는 사용자에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. 이에 따라, 추후 음성 데이터에 기초하여 대화록 작성 시 화자 각각에 대한 분리가 정확해질 수 있어, 보다 정확도 높은 대화록을 생성할 수 있다.
또한, 프로세서(110)는 하나 이상의 음성 데이터 각각에 대응하는 특정 화자를 판별하고, 각각의 음성 데이터에서 판별된 특정 화자의 음성을 제외한 다른 음성을 제거한 경우, 상기 특정 화자를 하나 이상의 사용자 단말의 식별 정보 각각과 매칭하여 저장할 수 있다. 예를 들어, 제 1 음성 데이터 대응하는 특정 화자로 결정된 A 사용자를 A 사용자 단말의 식별 정보와 매칭할 수 있으며, 제 2 음성 데이터 대응하는 특정 화자로 결정된 B 사용자를 B 사용자 단말의 식별 정보와 매칭하여 저장할 수 있다. 이에 따라, 하나 이상의 사용자 단말 각각으로부터 수신한 하나 이상의 음성 데이터 각각에 대응하는 화자를 판별하고, 각각의 사용자 단말에 각각의 화자를 매칭함으로써 대화를 수행한 복수의 화자 각각을 보다 정확하게 분리시킬 수 있다. 전술한 음성 데이터와 그에 대응하는 사용자 단말에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 음성 데이터를 발화 구간에 기초하여 하나 이상의 음성 데이터 서브 데이터로 분할할 수 있다. 예를 들어, A 사용자 단말을 통해 제 1 음성 데이터를 수신한 경우, 프로세서(110)는 제 1 음성 데이터에서 식별된 하나 이상의 발화 구간을 기준으로 상기 제 1 음성 데이터를 하나 이상의 음성 데이터 서브 데이터로 분할할 수 있다. 보다 구체적인 예를 들어, 프로세서(110)는 제 1 음성 데이터에서 식별된 발화 구간이 5개인 경우, 상기 식별된 5개의 발화 구간 각각에 대응하여 상기 제 1 음성 데이터를 5개의 음성 데이터 서브 데이터로 분할할 수 있다. 전술한 음성 데이터의 하나 이상의 음성 데이터 서브 데이터 수에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각에 통일된 시점을 부여할 수 있다.
구체적으로, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각에 글로벌 시간 정보를 태그할 수 있다. 이 경우, 글로벌 시간 정보는 복수의 사용자 단말 각각으로부터 수신한 복수의 음성 데이터 각각에 적용되는 시간 정보일 수 있다. 보다 구체적으로, 글로벌 시간 정보는, 복수의 음성 데이터 각각의 선후 관계를 명확하게 하기 위해 부여된 기준이 되는 시간 정보일 수 있다. 예를 들어, 글로벌 시간 정보는 컴퓨팅 장치의 시간 정보에 기초하여 결정되는 시간 정보일 수 있다. 글로벌 시간 정보를 결정하는 방식은 예시일 뿐이며 본 개시는 이에 제한되지 않는다. 로컬 시간 정보는, 음성 데이터 각각에 적용되는 시간 정보일 수 있다. 즉, 로컬 시간 정보는 음성 데이터의 시작으로부터 경과 시간에 관한 정보(예를 들어, 8분 동안의 음성 데이터의 경우, 32초 지점, 40초 지점 등)일 수 있다. 로컬 시간 정보에 관한 전술한 기재는 예시일 뿐이며, 본 개시는 이에 제한되지 않는다. 즉, 복수의 사용자 단말(10) 각각으로부터 복수의 음성 데이터를 수신하는 경우, 프로세서(110)는 복수의 음성 데이터 각각에 글로벌 시간 정보를 매칭하여 저장함으로써, 복수의 음성 데이터 각각에서 발화 구간에 따라 분할된 하나 이상의 음성 데이터 서브 데이터의 선후 관계를 명확하게 판별할 수 있다. 예를 들어, 2개의 사용자 단말(A 사용자 단말 및 B 사용자 단말)을 통해 2개의 음성 데이터(제 1 음성 데이터 및 제 2 음성 데이터)를 수신한 경우, 상기 2개의 음성 데이터에 포함된 각각의 발화의 선후관계는 각각의 음성 데이터의 로컬 시간 정보 만으로는 파악하기 어려울 수 있다. 즉, 각각의 음성 데이터의 녹음 시작 시점이 서로 상이한 경우, 프로세서(110)는 로컬 시간 정보 만으로는 복수의 음성 데이터에 포함된 각각의 발화의 선후 관계를 명확하게 파악하기 어려울 수 있다. 예를 들어, A 사용자 단말로부터 수신한 제 1 음성 데이터는 11시 10분부터 11시 20분까지에 대한 음성 데이터(즉, 10분 동안의 음성 데이터)일 수 있으며, B 사용자 단말을 통해 수신한 제 2 음성 데이터는 11시 12분부터 11시 20분까지에 대한 음성 데이터(즉, 8분 동안의 음성 데이터)일 수 있어, 각각의 음성 데이터의 시작 시점이 서로 상이하여, 동일한 로컬 시간 정보를 가진 시점의 발화도 실제로는 서로 상이한 시점의 발화일 수 있다. 이에 따라, 각각에 음성 데이터에 포함된 음성 데이터 서브 데이터의 선후 관계가 명확하게 식별되지 않아 각각의 음성 데이터를 통한 대화록 생성에 문제를 유발할 수 있기 때문에, 프로세서(110)는 제 1 음성 데이터 및 제 2 음성 데이터 각각에 글로벌 시간 정보를 매칭(즉, 발화 구간 각각에 대응하는 현재 시간을 표시)하여 각각의 데이터의 시점을 통일시킴으로써, 제 1 음성 데이터 및 제 2 음성 데이터 각각에서 발화 구간에 따라 분할된 하나 이상의 음성 데이터 서브 데이터의 선후 관계를 명확하게 구분할 수 있다. 전술한 사용자 단말의 수, 음성 데이터의 수 및 각각의 음성 데이터의 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 복수의 음성 데이터 각각의 경과 시간에 기초하여 음성 데이터에 포함된 발화의 선후 관계를 결정할 수 있다. 프로세서(110)는 복수의 음성 데이터 모두에 적용되는 기준 시점을 결정하고, 기준 시점으로부터 경과 시간에 기초하여 복수의 음성 데이터에 포함된 발화의 선후 관계를 결정할 수 있다. 예를 들어, 프로세서(110)는 복수의 음성 데이터 중 가장 먼저 녹음이 시작된 음성 데이터의 시작 시점을 기준 시점으로 결정하고, 다른 음성 데이터에 기준 시점을 기초로 하여 경과 시간을 결정함으로써, 복수의 음성데이터에 포함된 복수의 발화의 선후관계를 결정할 수 있다. 구체적으로, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각이 최초 생성된 시점을 기록하고, 하나 이상의 음성 데이터 각각에 기록된 최초 시점을 기준으로 각각의 음성 데이터의 진행 시간을 식별함으로써, 하나 이상의 음성 데이터 각각에 포함된 하나 이상의 음성 데이터 서브 데이터의 선후 관계를 판별하도록 통일된 시점을 부여할 수 있다.
보다 구체적으로, 프로세서(110)는 가장 먼저 녹음이 시작된 음성 데이터의 녹음 시작 시점과 이후에 녹음이 시작된 음성 데이터의 녹음 시작 시점의 차이 만큼 이후에 녹음이 시작된 음성 데이터에 묵음 구간을 해당 음성 데이터의 시작 전에 부가할 수 있다. 즉, 프로세서(110)는 복수의 음성 데이터에 적용되는 기준 시점(본 예시에서, 최초로 녹음이 시작된 음성 데이터의 녹음 시작 시간 등)을 매칭하고 기준 시점으로부터 각각의 음성 데이터의 차이를 각각의 음성 데이터에 반영하여 발화의 선후 관계를 결정할 수 있다. 예를 들어, 제 1 음성 데이터의 녹음 시작 후 제 2 음성 데이터가 5초 뒤 녹음이 시작 된 경우, 프로세서(110)는 음성 데이터의 생성에 대한 기준 시간(예를 들어, 컴퓨팅 장치의 시간)에 기초하여 이를 판단할 수 있으며, 제 2 음성 데이터의 녹음 시작 전에 5초의 묵음 구간을 부여함으로써, 제 1 음성 데이터 및 제 2 음성 데이터의 진행 시간이 실제 발화 시간과 일치하도록 할 수 있다. 전술한 기재는 예시일 뿐이며, 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 가장 먼저 녹음이 시작된 음성 데이터의 녹음 시작 시점과 이후에 녹음이 시작된 음성 데이터의 녹음 시작 시점의 차이만큼 이후에 녹음이 시작된 음성 데이터의 진행 시간에 부가하여 발화의 선후 관계를 판단할 수 있다. 예를 들어, 제 1 음성 데이터의 녹음 시작 후 제 2 음성 데이터가 5초 뒤 녹음이 시작 된 경우, 제 2 음성 데이터의 녹음 시작으로부터 10초에 위치하는 발화는 제 1 음성 데이터의 녹음 시작으로부터 15초에 위치하는 발화일 수 있다. 따라서, 프로세서(110)는 제 2 음성 데이터에 제 1 음성 데이터와 시작 시간의 차이만큼의 시간을 진행 시간에 부가하여 각각의 음성 데이터에 포함된 각각의 발화의 선후관계를 결정할 수 있다. 전술한 기재는 예시일 뿐이며, 본 개시는 이에 제한되지 않는다.
전술한 바와 같이 프로세서(110)는 음성 데이터에 글로벌 시간 정보를 매칭하여 저장하거나, 기준 시점으로부터 경과 시간에 관한 정보를 매칭하여 저장함으로써, 음성 데이터에 포함된 복수의 발화의 선후관계를 판단할 수 있다.
전술한 사용자 단말의 수, 음성 데이터의 수 및 각각의 음성 데이터의 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
이하에서 기재되는 음성 데이터에 대한 설명에서 시작 시점 및 종료 시점은 음성 데이터의 글로벌 시간 정보 및 기준 시점 정보 중 적어도 하나에 기초하여 하나 이상의 음성 데이터 각각에 포함된 하나 이상의 음성 데이터 서브 데이터 각각의 선후 관계를 구분하기 위해 하나 이상의 음성 데이터 각각에 부여된 통일된 시점에 기초한 것이다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별할 수 있다. 구체적으로, 프로세서(110)는 음성 데이터를 상기 음성 데이터에 포함된 발화 구간에 기초하여 분할한 하나 이상의 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별할 수 있다. 예를 들어, 음성 데이터가 2개의 발화 구간에 대응하여 2개의 음성 데이터 서브 데이터(음성 데이터 제 1 서브 데이터 및 음성 데이터 제 2 서브 데이터)로 분할된 경우, 프로세서(110)는 음성 데이터 제 1 서브 데이터의 시작 시점 및 종료 시점을 3초 및 32초로 각각 식별하고, 그리고 음성 데이터 제 2 서브 데이터의 시작 시점 및 종료 시점을 1분 10초 및 1분 52초로 각각 식별할 수 있다. 전술한 음성 데이터 서브 데이터의 시작 시점 및 종료 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 제 1 사용자 단말과 제 2 사용자 단말의 네트워크 패킷 교환을 통한 제 1 음성 데이터와 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화할 수 있다. 구체적으로, 프로세서(110)는 제 1 사용자 단말과 제 2 사용자 단말의 네트워크 패킷 교환을 통해 제 1 사용자 단말과 제 2 사용자 단말의 시작 시간 및 종료 시간의 오차를 측정하여 보정할 수 있다. 제 1 사용자 단말과 제 2 사용자 단말의 시간은 기본적으로 네트워크 타임 프로토콜(NETWORK TIME PROTOCOL)서버 동기화 될 수 있다. 제 1 사용자 단말과 제 2 사용자 단말의 보다 정확한 시간 동기화를 위해, 각각의 단말의 시작 시간과 종료 시간의 정보를 통계 분석 필터를 통해 처리하여 제 1 사용자 단말과 제 2 사용자 단말의 시간을 동기화할 수 있다. 통계 분석 필터는 상기 시작 시간과 종료시간의 비교 결과에 기초하여, 네트워크 상의 시간 차이를 연산할 수 있다. 통계 분석 필터는 연산 된 네트워크 상의 시간 차이에 기초하여, 상기 서술한 시간 동기화를 수행할 수 있다.
도 13는 본 개시의 일 실시예에 따른 제 1 음성 데이터와 제 2 음성 데이터의 시작 시점과 종료 시점을 동기화하는 예시도를 도시한다.
또한, 본 개시의 일 실시예에 따르면, 프로세서(110)는 제 1 음성 데이터 서브 데이터와 제 2 음성 데이터 서브 데이터의 유사도에 기초하여 제 1 음성 데이터와 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화할 수 있다. 구체적으로, 제 1 음성 데이터(1310)와 제 2 음성 데이터(1320)에 기초한 각각의 음성 데이터 서브 데이터의 시간 지연을 측정하여 보정할 수 있다. 제 1 음성 데이터 서브 데이터와 제 2 음성 데이터 서브 데이터 간에 유사한 신호(1311, 1321)를 탐색하고, 유사한 신호를 기준으로 시간 지연을 측정하여 제 1 음성 데이터와 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화할 수 있다. 이때, 음성 신호 분석에는 FFT(FAST FOURIER TRANSFORM), MFCC(MEL-FREQUENCY CEPSTRAL COEFFICIENTS)등 다양한 특징추출 알고리즘들이 활용될 수 있다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 통합 음성 데이터를 음성 인식 모델을 통해 음성 인식 결과로 변환하여 대화록을 생성할 수 있다. 이 경우, 통합 음성 데이터는 각각의 사용자 단말로부터 수신된 제 1 음성 데이터 및 제 2 음성 데이터에 기초하여 생성될 수 있다. 또한, 프로세서(110)는 제 1 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 1 음성 데이터 서브 데이터로 분할하고, 그리고 제 2 음성 데이터 서브 데이터를 발화 구간에 기초하여 하나 이상의 제 2 음성 데이터 서브 데이터로 분할할 수 있다. 예를 들어, 제 1 음성 데이터에서 식별된 발화 구간이 3개인 경우, 프로세서(110)는 제 1 음성 데이터를 3개의 발화 구간에 기초하여 제 1 음성 데이터 제 1 서브 데이터, 제 1 음성 데이터 제 2 서브 데이터 및 제 1 음성 데이터 제 3 서브 데이터로 각각 분할할 수 있다. 다른 예를 들어, 제 2 음성 데이터에서 식별된 발화 구간이 2개인 경우, 프로세서(110)는 제 2 음성 데이터를 2개의 발화 구간에 기초하여 제 2 음성 데이터 제 1 서브 데이터, 제 2 음성 데이터 제 2 서브 데이터로 각각 분할할 수 있다. 전술한 제 1 음성 데이터 및 제 2 음성 데이터가 포함하는 발화 구간의 구체적인 수치에 대한 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
도 14는 본 개시의 일 실시예에 따른 음성 신호 크기에 기초하여 화자를 분리하는 예시도를 도시한다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 제 1 음성 데이터와 제 2 음성 데이터에 기초하여 통합 음성 데이터를 생성할 수 있다. 구체적으로, 프로세서(110)는 제 1 음성 데이터와 제 2 음성 데이터 각각의 음성 신호 크기에 기초하여 화자를 구분하고, 분리된 화자 정보에 기초하여 통합 음성 데이터를 생성할 수 있다. 프로세서(110)는 제 1 음성 데이터와 제 2 음성 데이터 각각의 프레임에 대한 음성 신호 세기를 계산하여 제 1 음성 데이터 프레임과 제 2 음성 데이터 프레임 각각의 음성 신호 크기 비교를 통해 화자를 구분할 수 있다. 예를 들어, 프로세서(110)는 0초~20초 구간의 제 1 음성 데이터 프레임과 제 2 음성 데이터 프레임(1421) 각각의 음성 신호 크기를 비교할 수 있다. 프로세서(110)는 음성 신호 크기가 더 큰 제 2 음성 데이터 프레임(1421)을 화자로 구분할 수 있다. 프로세서(110)는 0~25초 구간의 화자를 제 2 사용자로 결정할 수 있다. 프로세서(110)는 25초~63초 구간의 제 1 음성 데이터 프레임(1411)과 제 2 음성 데이터 프레임 각각의 음성 신호 크기를 비교할 수 있다. 프로세서(110)는 음성 신호 크기가 더 큰 제 1 음성 데이터 프레임(1411)을 화자로 구분하여 25초~63초 구간의 화자를 제 1 사용자로 결정할 수 있다. 프로세서(110)는 63초~80초 구간의 제 1 음성 데이터 프레임과 제 2 음성 데이터 프레임(1422) 각각의 음성 신호 크기를 비교하여 음성 신호 크기가 더 큰 제 2 음성 데이터 프레임(1422)을 63초~80초 구간의 화자로 구분할 수 있다. 프로세서(110)는 63초~80초 구간의 화자를 제 2 사용자로 결정할 수 있다. 프로세서(110)는 각각의 구간에 대한 화자를 구분하여 통합 음성 데이터(1430)를 생성할 수 있다. 본 개시에서 음성 데이터 프레임은 음성 데이터에서 화자를 판단하기 위한 음성 데이터의 사전 결정된 시간 구간이 될 수 있다. 전술한 음성 데이터에 기초하여 화자를 구분하여 통합 음성 데이터를 생성하는 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
도 15은 본 개시의 일 실시예에 따른 통계적 음향 모델을 통한 화자를 구분하는 과정의 예시도를 도시한다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 제 1 음성 데이터와 제 2 음성 데이터에 기초하여 통계적 음향 모델을 통해 화자를 구분할 수 있다.
보다 구체적으로, 프로세서(110)는 인접 프레임의 화자 정보에 기초하여 현재 시점 프레임의 화자를 구분할 수 있다. 예를 들어, 현재 시점 프레임(1520)의 화자 정보를 구분할 때, 이전 시점 프레임(1510)의 화자가 화자 A로 결정되어 있는 경우, 현재 시점 프레임(1520)의 화자가 이전 시점 프레임(1510)의 화자인 화자 A가 될 확률이 보다 높을 수 있다. 따라서, 통계적 음향 모델에 이전 시점 프레임(1510)의 화자 정보를 반영하여, 현재 시점 프레임(1520)의 화자를 결정하여 통합 음성 데이터를 생성할 수 있다. 또한, 프로세서(110)는 현재 시점 이후 프레임(1530)의 화자 정보가 결정되어 있는 경우, 현재 시점 이후 프레임(1530)의 화자 정보를 통계적 음향 모델에 반영하여, 현재 시점 프레임(1520)의 화자를 결정하여 통합 음성 데이터를 생성할 수 있다. 또한, 프로세서(110)는 인접 프레임에서의 화자와, 현재 프레임에서의 음성 신호의 크기에 기초하여 결정된 화자를 비교하여 현재 시점 프레임의 화자를 결정할 수 있다. 예를 들어, 프로세서(110)는 이전 시점 프레임(1510)에서의 화자가 A이고, 현재 시점 프레임(1520)에서의 음성 신호의 크기에 기초하여 결정된 화자가 B이고, 현재 시점 이후 프레임(1530)의 화자가 A인 경우, 통계적인 정보에 기초하여 현재 시점 프레임(1520)에서의 화자는 A이고, B의 음성 신호가 큰 것은 노이즈로 처리할 수도 있다. 전술한 인접한 프레임에 기초하여 화자를 구분하는 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 제 1 음성 데이터와 제 2 음성 데이터 각각의 화자의 발화 시간 비율에 기초하여 화자를 구분할 수 있다. 보다 구체적으로, 프로세서(110)는 하나 이상의 제 1 음성 데이터 서브 데이터와 제 2 음성 데이터 서브 데이터 각각의 시작 시점과 종료 시점에 기초하여 중첩구간을 식별하였을 경우, 중첩 구간을 제외한 프레임의 화자에 기초하여 화자별 발화 시간 비율을 연산하여 화자를 구분할 수 있다. 프로세서(110)는 중첩된 구간을 제외한 제 1 음성 데이터의 발화 시간과 중첩된 구간을 제외한 제 2 음성 데이터의 발화 시간의 비율을 연산하여 발화 시간 비율이 큰 음성 데이터를 결정할 수 있다. 프로세서(110)는 발화 시간 비율이 큰 것으로 결정된 음성 데이터의 화자가 중첩 구간 프레임의 화자가 될 확률이 높다고 판단할 수 있다. 프로세서(110)는 통계적 음향 모델을 통해 연산된 하나 이상의 음성 데이터의 발화 시간 비율에 기초하여, 중첩 구간의 화자를 구분할 수 있다. 예를 들어, 프로세서(110)는 제 1 음성 데이터의 중첩된 구간이외의 발화 시간과 제 2 음성 데이터의 중첩구간이외의 발화 시간의 비율이 7대3일 수 있다. 프로세서(110)는 통계적 음향 모델을 이용하여 해당 비율을 반영하여 중첩구간 프레임의 화자를 제 1 음성 데이터의 화자로 결정할 수 있다. 전술한 중첩 구간에서의 화자를 구분하는 예시는 예시일 뿐, 본 개시에 제한되지 않는다.
또한, 프로세서(110)는 중첩 구간 프레임의 이전 프레임에 대한 화자별 발화 시간 비율에 기초하여 화자를 구분할 수 있다. 보다 구체적으로, 프로세서(110)는 식별된 중첩구간이 사전 결정된 시간 비율 이후의 프레임인 경우, 중첩구간 이전 시점까지의 화자별 발화 시간 비율에 기초하여 통계적 음향 모델을 통해 중첩 구간 프레임의 화자를 구분할 수 있다. 예를 들어, 프로세서(110)는 제 1 사용자 단말과 제 2 사용자 단말의 30분 동안 대화에서 중첩 구간 프레임의 시작 시점이 14분10초일 수 있다. 사전 결정된 시간 비율이 20퍼센트라고 할 때, 중첩 구간 프레임은 사전 결정된 시간 비율에 해당하는 6분 이후의 시점일 수 있다. 중첩 구간 프레임 이전 시점인 14분 10초까지의 제 1 사용자 단말과 제 2 사용자 단말 각각의 음성 데이터의 발화 시간 비율이 7대 3 일 수 있다. 프로세서(110)는 중첩 구간 프레임 이전 시점까지의 발화 비율에 기초하여 통계적 음향 모델을 통해 제 1 사용자 단말의 화자를 중첩 구간 프레임의 화자로 결정할 수 있다. 전술한 화자 결정 방법에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 통합 음성 데이터를 음성 인식 모델을 이용하여 대화록을 생성할 수 있다. 프로세서(110)는 제 1 사용자 단말로부터 수신된 제 1 음성 데이터와 제 2 사용자 단말로부터 수신된 제 2 음성 데이터에 기초하여 통합 음성 데이터를 생성할 수 있다. 프로세서(110)는 생성된 통합 음성 데이터를 음성 인식 모델을 이용하여 대화록을 생성할 수 있다. 구체적으로, 프로세서(110)는 제 1 음성 데이터와 제 2 음성 데이터를 믹스 다운하여 통합 음성 데이터를 생성할 수 있다. 제 1 음성 데이터와 제 2 음성 데이터를 믹스 다운할 때, 프로세서(110)는 제 1 음성 데이터와 제 2 음성 데이터의 각각의 프레임별 화자 정보를 기초로 통합 음성 데이터의 프레임의 화자를 결정할 수 있다. 또한, 프로세서(110)는 통합 음성 데이터를 음성 인식 모델을 통해 연산함으로써, 텍스트 형태의 대화록을 생성할 수 있다. 이 경우, 음성 인식 모델은 사용자가 말하는 음성 언어를 문자 데이터로 전환하는 모델일 수 있다. 음성 인식 모델은 학습 데이터를 통해 사전 학습된 하나 이상의 네트워크 함수를 포함할 수 있다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 음성 데이터 서브 데이터 각각을 음성 인식 모델의 입력으로 하여 하나 이상의 음성 데이터 서브 데이터 각각에 대응하는 하나 이상의 음성 인식 서브 결과를 출력할 수 있다. 이 경우, 음성 인식 모델은 사용자가 말하는 음성 언어를 문자 데이터로의 전환을 수행하는 모델로, 학습 데이터를 통해 사전 학습된 하나 이상의 네트워크 함수를 포함할 수 있다. 또한, 프로세서(110)는 하나 이상의 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 상기 대화록 상에서 하나 이상의 음성 인식 서브 결과 각각의 순서를 결정할 수 있다. 구체적인 예를 들어, 프로세서(110)는 음성 데이터 제 1 서브 데이터 및 음성 데이터 제 2 서브 데이터 각각을 음성 인식 모델에 입력하여 음성 인식 제 1 서브 결과 및 음성 인식 제 2 서브 결과를 출력할 수 있다. 프로세서(110)는 음성 인식 제 1 서브 결과의 출력에 기초한 음성 데이터 제 1 서브 데이터의 시작 시점 및 종료 시점을 3초 및 32초로 각각 식별하고, 그리고 음성 인식 제 2 서브 결과의 출력에 기초한 음성 데이터 제 2 서브 데이터의 시작 시점 및 종료 시점을 1분 10초 및 1분 52초로 각각 식별할 수 있다. 프로세서(110)는 판단된 시점 정보에 기초하여 음성 인식 제 1 서브 결과와 음성 인식 제 2 서브 결과의 대화록 상에서의 순서를 결정할 수 있다. 즉, 프로세서(110)는 하나 이상의 음성 인식 서브 결과를 상기 하나 이상의 음성 인식 서브 결과 각각에 대응하는 음성 데이터 서브 데이터의 시작 시점 및 종료 시점을 식별하고, 그리고 상기 식별된 시작 시점 및 종료 시점 중 적어도 하나에 기초하여 하나 이상의 음성 인식 서브 결과 각각이 대화록에서 표시되는 순서를 결정할 수 있다. 즉, 대화록에서 하나 이상의 음성 인식 서브 결과는 시작 시점 및 종료 시점에 따라 순서대로 배치될 수 있다. 예를 들어, 음성 인식 제 1 서브 결과의 시작 시점이 음성 인식 제 2 서브 결과의 시작 시점보다 빠른 경우, 프로세서(110)는 음성 인식 제 1 서브 결과가 대화록에서 음성 인식 제 2 서브 결과보다 먼저 표시되도록 순서를 결정할 수 있다. 다른 예를 들어, 음성 인식 제 2 서브 결과의 종료 시점이 제 1 음성 인식 결과의 종료 시점보다 빠른 경우, 프로세서(110)는 음성 인식 제 2 서브 결과가 대화록에서 음성 인식 제 1 서브 결과보다 먼저 표시되도록 순서를 결정할 수도 있다. 전술한 음성 인식 제 1 서브 결과 및 음성 인식 제 2 서브 결과에 대응하는 시작 시점 및 종료 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성할 수 있다. 이 경우, 하나 이상의 음성 데이터는 각각의 사용자 단말로부터 수신된 제 1 음성 데이터 및 제 2 음성 데이터를 포함할 수 있다. 또한, 프로세서(110)는 제 1 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 1 음성 데이터 서브 데이터로 분할하고, 그리고 제 2 음성 데이터 서브 데이터를 발화 구간에 기초하여 하나 이상의 제 2 음성 데이터 서브 데이터로 분할할 수 있다. 예를 들어, 제 1 음성 데이터에서 식별된 발화 구간이 3개인 경우, 프로세서(110)는 제 1 음성 데이터를 3개의 발화 구간에 기초하여 제 1 음성 데이터 제 1 서브 데이터, 제 1 음성 데이터 제 2 서브 데이터 및 제 1 음성 데이터 제 3 서브 데이터로 각각 분할할 수 있다. 다른 예를 들어, 제 2 음성 데이터에서 식별된 발화 구간이 2개인 경우, 프로세서(110)는 제 2 음성 데이터를 2개의 발화 구간에 기초하여 제 2 음성 데이터 제 1 서브 데이터, 제 2 음성 데이터 제 2 서브 데이터로 각각 분할할 수 있다. 전술한 제 1 음성 데이터 및 제 2 음성 데이터가 포함하는 발화 구간의 구체적인 수치에 대한 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 하나 이상의 제 1 음성 데이터 서브 데이터 및 하나 이상의 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별할 수 있다. 예를 들어, 제 1 음성 데이터가 3개의 발화 구간에 기초하여 제 1 음성 데이터 제 1 서브 데이터, 제 1 음성 데이터 제 2 서브 데이터 및 제 1 음성 데이터 제 3 서브 데이터로 분할되고, 제 2 음성 데이터가 2개의 발화 구간에 기초하여 제 2 음성 데이터 제 1 서브 데이터 및 제 2 음성 데이터 제 2 서브 데이터로 분할된 경우, 프로세서(110)는 상기 5 개의 음성 데이터 서브 데이터의 시작 시점을 각각 10초(제 1 음성 데이터 제 1 서브 데이터), 21초(제 1 음성 데이터 제 2 서브 데이터), 32초(제 1 음성 데이터 제 3 서브 데이터), 17초(제 2 음성 데이터 제 1 서브 데이터) 및 25초(제 2 음성 데이터 제 2 서브 데이터)로 식별할 수 있다. 전술한 음성 데이터 서브 데이터의 시작 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 하나 이상의 제 1 음성 데이터 서브 데이터 및 하나 이상의 제 2 음성 데이터 서브 데이터를 음성 인식 모델의 입력으로 하여 각각의 서브 데이터 각각에 대응하는 하나 이상의 제 1 음성 인식 서브 결과 및 하나 이상의 제 2 음성 인식 서브 결과를 출력할 수 있다. 예를 들어, 음성 인식 모델에 제 1 음성 데이터 제 1 서브 데이터가 입력된 경우, 제 1 음성 인식 제 1 서브 결과를 출력할 수 있으며, 제 2 음성 데이터 제 1 서브 데이터를 입력된 경우, 제 2 음성 인식 제 2 서브 결과를 출력할 수 있다.
또한, 프로세서(110)는 하나 이상의 제 1 음성 인식 서브 결과 및 하나 이상의 제 2 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 대화록 상에서 하나 이상의 제 1 음성 인식 서브 결과 및 하나 이상의 제 2 음성 인식 서브 결과 각각이 표시되는 순서를 결정할 수 있다. 구체적인 예를 들어, 전술한 예시에서 제 1 음성 인식 제 1 서브 결과, 제 1 음성 인식 제 2 서브 결과, 제 1 음성 인식 제 3 서브 결과, 제 2 음성 인식 제 1 서브 결과 및 제 2 음성 인식 제 2 서브 결과 각각이 제 1 음성 데이터 제 1 서브 데이터, 제 1 음성 데이터 제 2 서브 데이터, 제 1 음성 데이터 제 3 서브 데이터, 제 2 음성 데이터 제 1 서브 데이터 및 제 2 음성 데이터 서브 데이터에 기초하여 생성될 수 있다. 프로세서(110)는 상기 5개 음성 인식 서브 결과 생성에 기초가 된 상기 5개의 음성 데이터 서브 데이터의 시작 시점을 각각 10초(제 1 음성 데이터 제 1 서브 데이터), 21초(제 1 음성 데이터 제 2 서브 데이터), 32초(제 1 음성 데이터 제 3 서브 데이터), 17초(제 2 음성 데이터 제 1 서브 데이터) 및 25초(제 2 음성 데이터 제 2 서브 데이터)로 식별할 수 있다. 또한, 프로세서(110)는 상기 식별된 시작 시점에 기초하여 5개의 음성 인식 서브 결과이 대화록에서 표시되는 순서를 결정할 수 있다. 즉, 대화록에는 제 1 음성 인식 제 1 서브 결과(10초), 제 2 음성 인식 제 1 서브 결과(17초), 제 1 음성 인식 제 2 서브 결과(21초), 제 2 음성 인식 제 2 서브 결과(25초), 제 1 음성 인식 제 3 서브 결과(32초) 순으로 배치될 수 있다.
또한, 프로세서(110)는 하나 이상의 제 1 음성 인식 서브 결과 및 하나 이상의 제 2 음성 인식 서브 결과 각각의 결정된 순서 및 하나 이상의 사용자 단말(10) 각각의 식별 정보에 기초하여 대화록을 생성할 수 있다. 예를 들어, 프로세서(110)는 하나 이상의 제 1 음성 인식 서브 결과 각각에 매칭된 제 1 사용자 단말의 식별 정보에 기초하여 화자를 식별할 수 있다. 또한 프로세서(110)는 하나 이상의 제 2 음성 인식 서브 결과 각각에 매칭된 제 2 사용자 단말의 식별 정보에 기초하여 화자를 식별할 수 있다. 이에 따라, 각각의 음성 인식 서브 결과는 각각의 사용자 단말의 식별 정보에 기초하여 채팅창의 형태로 대화록에 기록될 수 있다. 즉, 프로세서(110)는 발화자 각각(예를 들어, 제 1 사용자 단말을 사용하는 제 1 사용자 및 제 2 사용자 단말을 사용하는 제 2 사용자)이 분리된 대화록을 생성할 수 있다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 제 1 음성 데이터 서브 데이터 및 하나 이상의 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 기초하여 복수의 사용자의 발화의 중첩 구간을 식별할 수 있다. 이때, 제 1 음성 데이터 서브 데이터는 제 1 사용자 단말을 통해 수신한 제 1 음성 데이터에 포함되는 것이며, 제 2 음성 데이터 서브 데이터는 제 2 사용자 단말을 통해 수신한 제 2 음성 데이터에 포함되는 것으로, 각각이 상이한 사용자 단말로부터 수신한 음성 데이터에 기초하여 생성된 것일 수 있다. 구체적으로, 프로세서(110)는 각각이 상이한 단말로부터 수신한 제 1 음성 데이터 및 제 2 음성 데이터를 각각의 발화 구간에 기초하여 분할한 하나 이상의 제 1 음성 데이터 서브 데이터 및 하나 이상의 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 통해 각각의 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터가 시간적으로 중첩되는지 여부를 식별할 수 있다. 즉, 프로세서(110)는 각각의 음성 데이터에서 복수의 사용자의 복수의 발화 중 발화가 중첩되는 구간을 식별할 수 있다. 예를 들어, 제 1 사용자 단말을 통해 수신한 제 1 음성 데이터에 포함된 제 1 음성 데이터 제 1 서브 데이터, 제 1 음성 데이터 제 2 서브 데이터 및 제 1 음성 데이터 제 3 서브 데이터 각각의 시작 및 종료 시점이 각각 10~15초, 21~28초, 32~35초이며 제 2 사용자 단말을 통해 수신한 제 2 음성 데이터에 포함된 제 2 음성 데이터 제 1 서브 데이터, 제 2 음성 데이터 제 2 서브 데이터 각각의 시작 및 종료 시점이 각각 17~20초, 25~31초인 경우, 프로세서(110)는 제 1 음성 데이터 제 2 서브 데이터와 제 2 음성 데이터 제 2 서브 데이터가 중첩됨을 식별하여 25초에서 28초까지를 중첩 구간으로 식별할 수 있다. 전술한 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과 각각의 시작 시점 및 종료 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 중첩 구간이 식별된 경우, 중첩 구간에 대응하는 음성 인식 서브 결과의 순서를 결정할 수 있다. 이하의 예시에서 제 1 음성 인식 서브 결과는 제 1 사용자 단말로부터 수신된 제 1 음성 데이터에 포함된 제 1 음성 데이터의 서브 데이터 중 하나에 대한 음성 인식 서브 결과이고, 제 2 음성 인식 서브 결과는 제 2 사용자 단말로부터 수신된 제 2 음성 데이터에 포함된 제 2 음성 데이터의 서브 데이터 중 하나에 대한 음성 인식 서브 결과일 수 있다. 프로세서(110)는 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과가 서로 중첩되는 시간의 발화임을 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터의 시간 정보에 기초하여 식별할 수 있다. 이 경우, 프로세서(110)는 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과의 대화록 상에서의 순서를 사전 결정된 기준에 따라 결정할 수 있다. 예를 들어, 프로세서(110)는 제 1 음성 인식 서브 결과의 기초가 된 제 1 음성 데이터 서브 데이터의 시작 시간이 제 2 음성 데이터 서브 데이터의 시작 시간보다 빠른 경우, 대화록 상에서 제 1 음성 인식 서브 결과를 제 2 음성 인식 서브 결과보다 먼저 배치할 수 있다.
또한, 프로세서(110)는 중첩 구간에 대응하는 음성 인식 서브 결과 중 적어도 하나를 분할할 수도 있다. 구체적으로, 프로세서(110)는 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과 각각의 출력에 기초가 된 제 1 음성 데이터 서브 세트 및 제 2 음성 데이터 서브 세트 각각의 시작 시점 및 종료 시점에 기초하여 발화에 중첩이 식별되는 경우, 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과 중 적어도 하나의 서브 결과를 분할할 것을 결정할 수 있다. 보다 구체적으로, 프로세서(110)는 제 1 음성 인식 서브 결과의 기초가 된 제 1 음성 데이터 서브 데이터의 시작 및 종료 시간 사이에 제 2 음성 데이터 서브 데이터가 시작되는 경우, 제 1 음성 인식 서브 결과를 제 2 음성 데이터 서브 데이터의 시작 시간에 기초하여 분할할 수 있다. 예를 들어, 제 1 음성 데이터 서브데이터가 10초짜리 발화를 포함한 데이터인 경우에, 제 1 음성 데이터 서브 데이터의 발화 시작 후 5초 뒤에 제 2 음성 데이터 서브데이터의 발화가 시작된 경우라고 가정할 수 있다. 이 경우, 프로세서(110)는 제 1 음성 데이터 서브데이터의 10초간 발화에 대한 음성 인식 결과인 제 1 음성 인식 서브 결과를 5초를 기준으로 분할하여 대화록 상에 배치할 수 있다. 즉, 본 예시에서 프로세서(110)는 대화록 상에서 제 1 음성 인식 서브 결과의 0초에서 5초 사이의 구간의 제 1 텍스트, 제 2 음성 인식 서브 결과의 텍스트, 제 1 음성 인식 서브 결과의 5초에서 10초 사이 구간의 제 2 텍스트를 순서대로 배치할 수 있다. 전술한 음성 데이터 서브 데이터의 시간 및 분할에 관련한 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 중첩 구간이 식별된 경우 각각의 음성 인식 서브 결과를 의미에 기초하여 분할할 수도 있다. 프로세서(110)는 음성 인식 서브 결과에 대한 자연어 처리에 기초하여 음성 인식 서브 결과의 분할 지점을 결정할 수 있다. 또한, 프로세서(110)는 중첩 구간에 대응하는 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과 각각을 통계적 언어 모델을 기반으로 각 음성 인식 서브 결과에 포함된 단어들의 조합 확률을 분석함으로써, 각 음성 인식 서브 결과에 대한 문장에서의 끝 지점을 판정할 수 있다. 이때, 통계적 언어 모델은, 문장의 확률을 계산하거나, 또는 이전 단어들이 입력된 경우, 다음 단어가 나올 확률에 대한 계산이 가능한 모델일 수 있으며, 단어들의 조합이 얼마나 적절한지, 또는 해당 문장이 얼마나 적합한지를 판정할 수 있는 모델일 수 있다. 또한, 프로세서(110)는 각각의 음성 인식 서브 결과에 판정된 끝 지점에 기초하여 음성 인식 서브 결과의 분할 여부를 결정할 수 있다. 예를 들어, 제 1 음성 데이터 서브 데이터의 시작 시점 및 종료 시점이 각각 5초 및 20초로 식별되고, 제 2 음성 데이터 서브 데이터의 시작 시점 및 종료 시점이 각각 12초 및 18초로 식별된 경우(즉, 12초에서 18초사이의 6초간의 발화의 중첩 구간이 식별된 경우), 프로세서(110)는 제 1 음성 인식 서브 결과를 통계적 언어 모델의 입력으로 하여 제 1 음성 인식 서브 결과에 포함된 각각의 단어 및 각각의 단어의 복수의 조합에 대한 적합도를 출력함으로써, 제 1 음성 인식 서브 결과에 대한 문장에서의 끝 지점을 판정할 수 있다. 또한, 프로세서(110)는 제 1 음성 인식 서버 결과에서 끝 지점이 판정된 경우, 상기 제 1 음성 인식 서브 결과를 분할할 것을 결정할 수 있다. 보다 구체적인 예를 들어, 전술한 중첩 구간을 포함하는 음성 데이터의 발화를, "저작권 관련 상담을 받고 싶어 찾아 뵙게 (저작권 관련이요?) 되었습니다. 네 맞습니다." 로 가정한다. 전술한 가정에서 괄호 내의 발화는 제 2 화자(즉, 제 2 음성 데이터로부터 인식된 발화)이고, 괄호 밖의 발화는 제 1 화자(즉, 제 1 음성 데이터로부터 인식된 발화)일 수 있다. 통계적 언어 모델은 이 경우, 제 1 음성 인식 서브 결과에 포함된 단어 각각이 '저작권', '관련', '상담을', '받고', '싶어', '찾아', '뵙게', '되었습니다', '네', '맞습니다.'를 인식하고, '되었습니다' 와 '네' 라는 단어들의 조합 적합도를 보다 낮게 출력할 수 있으며, 이에 따라, 프로세서(110)는 '되었습니다'를 문장에서의 끝지점으로 판정할 수 있다. 또한, 프로세서(110)는 제 1 음성 인식 서브 결과에서 판정된 문장에서의 끝 지점에 기초하여 상기 제 1 음성 인식 서브 결과를 분할할 것을 결정할 수 있다. 전술한, 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과 중 적어도 하나에 대한 분할이 결정된 경우, 중첩 구간에 대응하는 음성 인식 서브 결과를 분할할 수 있다. 구체적인 예를 들어, 제 1 음성 데이터 서브 데이터의 시작 시점 및 종료 시점이 각각 5초 및 20초로 식별되고, 제 2 음성 데이터 서브 데이터의 시작 시점 및 종료 시점이 각각 12초 및 18초로 식별되어 중첩 구간 존재함이 식별되고, 그리고 제 1 음성 인식 서브 결과에 포함된 단어 각각이 '저작권', '관련', '상담을', '받고', '싶어', '찾아', '뵙게', '되었습니다', '네', '맞습니다.'이며, 제 2 음성 인식 서브 결과에 포함된 단어 각각이 '저작권' 및 '관련이요?'인 경우, 프로세서(110)는 통계적 언어 모델에서 출력된 단어들의 조합에 대한 적합도에 기초하여 제 1 음성 인식 서브 결과의 '되었습니다'를 상기 제 1 음성 인식 서브 결과에 대한 문장에서의 끝 지점으로 판정할 수 있다. 또한, 프로세서(110)는 제 1 음성 인식 서브 결과에서 판정된 끝 지점에 기초하여 상기 제 1 음성 인식 서브 결과를 '저작권 관련 상담을 받고 싶어 찾아 뵙게 되었습니다' 및 '네 맞습니다'로 분할할 수 있다. 다시 말해, 프로세서(110)는 제 1 음성 인식 서브 결과에 대응하는 시작 시점과 종료 시점 사이에 다른 사용자의 발화에 기초하여 출력된 제 2 음성 인식 서브 결과가 존재하는 것을 식별(즉, 중첩 구간을 식별)하고, 중첩 구간에서의 음성 인식 서브 결과에 포함된 단어의 의미를 파악함으로써, 각각의 음성 인식 서브 결과의 선후관계가 명확히 표시되도록 음성 인식 서브 결과를 분할할 수 있다. 즉, 프로세서(110)는 제 2 음성 인식 서브 결과에 포함된 단어(즉, “저작권 관련이요?”)가 제 1 음성 인식 서브 결과의 사이에 배치되도록 상기 제 1 음성 인식 서브 결과를 “저작권 관련 상담을 받고 싶어 찾아 뵙게 되었습니다” 및 “네 맞습니다”로 분할할 수 있다. 전술한 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 대한 구체적인 기재와 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
본 개시는 전술한 바와 같이, 2개의 음성 데이터를 각각의 사용자 단말로부터 수신하여 2개의 음성 데이터로부터 출력된 하나 이상의 음성 인식 결과의 순서를 결정하고, 2개의 음성 데이터를 수신한 2개의 사용자 단말의 식별 정보에 기초하여 대화록을 생성할 수 있으나, 본 개시의 프로세스들을 통해 2개 이상의 복수의 음성 데이터를 수신하여 대화록을 생성할 수도 있음이, 당 업계의 통상의 기술자에게 자명하게 인지될 수 있다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 대화록에 대응하는 키워드를 결정할 수 있다. 구체적으로, 프로세서(110)는 하나 이상의 음성 인식 결과의 의미 분석 결과, 하나 이상의 음성 인식 결과에 포함된 단어 별 반복 횟수 및 사전 결정된 대화 주제 중 적어도 하나에 기초하여 대화록에 대한 하나 이상의 키워드를 결정할 수 있다.
프로세서(110)는 하나 이상의 음성 인식 결과에 대한 의미 분석 결과에 기초하여 대화록에 대한 하나 이상의 키워드를 결정할 수 있다. 보다 구체적으로, 프로세서(110)는 하나 이상의 음성 인식 결과 각각에 포함된 하나 이상의 단어 각각의 의미의 중요도에 기초하여 하나 이상의 키워드를 결정할 수 있다. 예를 들어, 음성 인식 결과에 포함된 단어 각각이 '저작권', '관련', '상담을', '받고', '싶어', '찾아', '뵙게', '되었습니다'인 경우, 상기 프로세서(110)는 '저작권' 또는 '상담을'의 의미가 비교적 중요도가 높은 것으로 판단하여 '저작권' 또는 '상담'을 키워드로써 결정할 수 있다. 전술한 음성 인식 결과에 포함되는 하나 이상의 단어 및 상기 하나 이상의 단어 각각의 중요도에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 하나 이상의 음성 인식 결과 각각에 포함된 단어 별 반복 횟수에 기초하여 대화록에 대한 하나 이상의 키워드를 결정할 수 있다. 구체적으로, 프로세서(110)는 음성 인식 결과에 포함된 하나 이상의 단어 각각의 반복 횟수(즉, 중복 횟수)를 식별하고, 반복 횟수가 높은 단어를 대화록에 대한 키워드로써 결정할 수 있다.
또한, 프로세서(110)는 사전 결정된 대화 주제에 기초하여 키워드를 결정할 수 있다. 보다 구체적으로, 프로세서(110)는 음성인식 결과에 대한 의미 분석으로부터 대화의 주제를 결정하거나, 사용자 단말(10)로부터 대화 주제를 수신할 수 있으며, 상기 수신한 대화 주제에 대응하여 키워드를 결정할 수 있다. 예를 들어, 사용자 단말(10)로부터 '저작권'을 대화 주제로서 수신한 경우, 프로세서(110)는 상기 주제(즉, 저작권)와 관련된 '침해', '고소' 및 '친고죄' 등을 키워드로써 결정할 수 있다. 이 경우, 복수의 대화 주제 각각에 대응하여 하나 이상의 키워드가 메모리(120)에 사전 저장될 수 있다. 전술한 대화 주제 및 대화 주제에 대응하는 키워드에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 음성 인식 결과에서 하나 이상의 키워드의 위치를 식별할 수 있다. 구체적으로, 프로세서(110)는 대화록에 포함된 하나 이상의 음성 인식 결과 중 하나 이상의 키워드 각각의 대화록 상에서의 위치 및 음성 데이터 상에서의 위치 중 적어도 하나를 식별할 수 있다. 또한, 프로세서(110)는 대화록에 포함된 하나 이상의 음성 인식 결과에서 하나 이상의 키워드 각각의 위치를 식별하고, 상기 하나 이상의 키워드 각각에 대응하는 음성 데이터 서브 데이터를 재생할 수 있다. 자세히 설명하면, 프로세서(110)는 하나 이상의 음성 데이터 각각을 음성 인식 모델의 입력으로 하여 출력된 하나 이상의 음성 인식 결과를 통해 생성된 대화록에서 키워드를 식별하고, 그리고 식별된 키워드에 대응하여 상기 식별된 키워드를 포함하는 음성 데이터 서브 데이터를 재생할 수 있다. 즉, 프로세서(110)는 사용자 단말(10)로부터 수신한 음성 데이터 중 특정 키워드에 대응하는 부분만을 대화록에서 식별하여 음성 인식 결과로써 제공할 수 있으며, 상기 식별된 음성 인식 결과에 대응하는 음성 데이터 서브 데이터 구간을 재생시킬 수 있어, 사용자에게 편의성을 제공할 수 있다. 다시 말해, 사용자는 대화록에서 중요한 특정 부분만을 제공받을 수 있으며, 녹음 데이터(즉, 음성 데이터)에서 해당 특정 부분에 대응하는 구간을 재생하도록 하는 재생 화면을 제공받을 수 있으므로, 대화록을 전부 읽어보거나 녹음 데이터를 모두 들을 필요없이 필요에 따라 특정 중요 부분(즉, 키워드)만을 탐색할 수 있어, 요지 파악에 편의성을 제공받을 수 있다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 음성 데이터에 기초하여 생성된 대화록을 포함하는 사용자 인터페이스를 하나 이상의 사용자 단말로 제공할 수 있다.
프로세서(110)가 하나 이상의 사용자 단말(10)로 제공하는 사용자 인터페이스에 대한 구체적인 설명은 도 4 내지 도 7을 참조하여 후술하도록 한다.
도 4는 본 개시의 일 실시예에 따른 사용자 목록 표시 화면 및 대화 목록 표시 화면을 포함하는 사용자 인터페이스의 예시도를 도시한다.
사용자 인터페이스는 사용자 단말(10)의 디스플레이 수단에 표시될 수 있다.
프로세서(110)가 생성하여 하나 이상의 사용자 단말(10)로 제공한 사용자 인터페이스는 도 4의 (a)에 도시된 바와 같이, 대화록 서비스를 이용하는 사용자의 프로필 정보(310), 상기 사용자가 등록한 다른 사용자들의 목록, 등록한 다른 사용자들의 접속 상태 여부에 대한 접속 표시 정보(320) 및 다른 사용자들 추가 등록을 위한 등록 요청 버튼(330)을 표시하는 사용자 목록 표시 화면(340)을 제공할 수 있다. 다만, 해당 사용자 목록 표시 화면에 표시된 정보들은 필수적인 요소들은 아니므로, 추가적인 정보가 사용자 목록 표시 정보에 더 포함될 수도 있다.
사용자 인터페이스에 포함된 사용자 목록 표시 화면(340)은 사용자의 프로필 정보(310)를 표시할 수 있다. 예를 들어, 사용자 인터페이스에 표시된 사용자의 프로필 정보는 사용자의 이름, 회사명, 직위, 연락처 등에 관련한 정보를 포함할 수 있다. 또한, 사용자 인터페이스에 포함된 사용자 목록 표시 화면(340)은 사용자가 친구로 등록한 하나 이상의 다른 사용자의 목록을 표시할 수 있으며, 하나 이상의 다른 사용자의 목록 각각에 대응하여 하나 이상의 다른 사용자의 접속 상태를 나타내는 접속 표시 정보(320)를 표시할 수 있다. 예를 들어, 도 4에 도시된 바와 같이, 사용자 인터페이스는 사용자가 등록한 '최원혁'이라는 다른 사용자를 사용자 목록 표시 화면에 표시할 수 있으며, '최원혁'의 현재 접속 상태를 나타내는 접속 표시 정보를 함께 표시할 수 있다. 보다 구체적인 예를 들어, 하나 이상의 다른 사용자 중 '최원혁'에 대응하는 사용자 단말이 컴퓨팅 장치(100)에 접속하지 않은 경우, 사용자 인터페이스는 해당 사용자를 참조번호 321과 같은 접속 표시 정보를 나타낼 수 있으며, '장태빈' 및 '김선형' 각각에 대응하는 사용자 단말들이 컴퓨팅 장치(100)에 접속한 경우, 사용자 인터페이스는 참조번호 322 및 323과 같은 접속 표시 정보를 나타낼 수 있다. 사용자 인터페이스에 포함된 사용자 목록 표시 화면에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
또한, 사용자 인터페이스에 포함된 사용자 목록 표시 화면(340)은 추가적으로 다른 사용자를 등록하기 위한 친구 추가 버튼(330)을 표시할 수 있으며, 프로세서(110)는 사용자 단말(10)로부터 해당 친구 추가 버튼(330)에 대한 선택 입력을 수신하는 경우, 대화 또는 회의를 진행하고자 하는 다른 사용자 고유 ID를 입력 받을 수 있는 ID 입력 창을 제공하도록 하는 제어 신호를 사용자 단말로 전송할 것을 결정할 수 있다. 또한, 사용자 단말(10)로부터 해당 ID 입력 창을 통해 다른 사용자의 ID에 대한 정보를 수신하는 경우, 프로세서(110)는 다른 사용자와 회의 또는 대화를 진행할 수 있도록, 다른 사용자의 정보(예컨대, ID)를 사용자 목록 표시 화면(340)에 추가하여 표시하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다.
또한, 사용자 인터페이스는 사용자가 다른 사용자들과 수행한 하나 이상의 대화가 표시된 대화 목록 표시 화면(350)을 포함할 수 있다. 구체적으로, 사용자 인터페이스는 대화 목록 표시 화면(350)에 대한 사용자의 선택 입력에 기초하여 다른 사용자들과 수행한 하나 이상의 대화 각각의 명칭을 표시하는 화면을 제공할 수 있다. 이때, 사용자 인터페이스에 포함된 대화 목록 표시 화면(350)은, 사용자가 수행한 하나 이상의 대화 항목(370), 대화 내용 검색 버튼(360) 및 대화방을 개설하기 위한 대화방 개설 버튼(390)을 포함할 수 있다.
사용자 인터페이스에 포함된 대화 목록 표시 화면(350)은, 사용자가 하나 이상의 다른 사용자 각각과 수행한 하나 이상의 대화 각각의 명칭을 정렬하여 표시할 수 있다. 이 경우, 하나 이상의 대화에 대한 목록은 도 4에 도시된 바와 같이 IR 미팅(371), 주간 회의(372), OO회사 미팅(373), OOO님 인터뷰(374), OOO님 상담(375) 및 전체 회의(376)와 같이 정렬되어 표시될 수 있다. 또한, 각각의 대화에 대한 명칭은 대화방 개설 시 사용자 단말로부터 수신한 선택 입력에 기초하여 생성된 것 일 수 있으며, 각각의 대화에 대한 의미 분석 결과로서 생성되거나 또는 각각의 대화에서 결정된 키워드에 기초하여 생성된 것 일 수도 있다.
또한, 사용자 인터페이스에 포함된 대화 목록 표시 화면(350)은 사용자가 수행한 하나 이상의 대화 각각에 대응하여 하나 이상의 시점 정보를 표시할 수 있다. 예를 들어, 도 4에 도시된 바와 같이, 사용자가 수행한 대화의 명칭이 IR 미팅(371)인 경우, 상기 IR 미팅(371)에 대응하여 '2018.10.03. 14:00'라는 시점 정보를 표시할 수 있다. 또한, 대화 목록 표시 화면에 표시된 하나 이상의 대화 각각의 명칭은 시점 정보에 기초하여 내림차순 또는 오름차순으로 정렬될 수 있다.
또한, 사용자 인터페이스에 포함된 대화 목록 표시 화면(350)은 사용자가 수행한 하나 이상의 대화 중 특정 대화를 검색하기 위한 대화 검색 버튼(360)을 표시할 수 있다. 대화 목록 표시 화면(350)을 통해 사용자 단말(10)로부터 대화 검색 버튼에 대한 선택 입력을 수신한 경우, 프로세서(110)는 숫자 또는 텍스트를 입력 받는 검색 창을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 또한, 사용자 단말(10)로부터 상기 검색 창에 숫자 또는 텍스트에 대한 정보를 수신하는 경우, 프로세서(110)는 사용자 단말(10)로부터 수신한 숫자 또는 텍스트에 대한 정보에 대응하는 대화를 검색하여 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 이때, 프로세서(110)가 사용자 단말(10)로부터 수신하는 선택 입력은 대화의 명칭, 대화의 시점 정보 및 대화에 포함된 하나 이상의 사용자에 대한 정보 중 적어도 하나에 대한 정보일 수 있다. 즉, 프로세서(110)는 대화의 명칭, 대화의 시점 정보 및 대화에 포함된 하나 이상의 사용자에 대한 정보(예컨대, 대화를 수행한 하나 이상의 사용자 각각에 ID 정보 등)에 기초하여 하나 이상의 대화 중 특정 대화에 대한 검색을 수행할 수 있다.
또한, 사용자 인터페이스에 포함된 대화 목록 표시 화면(350)에 표시된 하나 이상의 대화 명칭 중 특정 대화 명칭에 대하여 사용자 단말로부터 선택 입력을 수신하는 경우, 프로세서(110)는 상기 사용자 단말의 선택 입력에 기초하여 해당 대화 명칭에 대응하는 대화록 표시 화면을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 사용자가 수행한 하나 이상의 대화 명칭 중 특정 대화 명칭에 대한 사용자 단말의 선택 입력에 기초하여 사용자 단말로 제공하는 대화록 표시 화면에 대한 구체적인 설명은 도 6을 참조하여 후술하도록 한다.
또한, 사용자 인터페이스에 포함된 대화 목록 표시 화면(350)은 사용자가 하나 이상의 다른 사용자와 대화방을 개설하기 위하여 사용자 단말(10)로부터 선택 입력을 수신하는 대화방 개설 버튼을 포함할 수 있다. 또한, 대화방 개설 버튼에 대한 선택 입력을 사용자 단말(10)로부터 수신하는 경우, 프로세서(110)는 하나 이상의 다른 사용자를 대화방에 포함시키기 위한 사용자 선택 입력 화면을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 사용자 인터페이스에 포함된 사용자 선택 입력 화면 및 사용자 선택 입력 화면에 대한 사용자 단말의 선택 입력에 기초하여 개설된 대화방에 대한 구체적인 설명은 도 5를 참조하여 후술하도록 한다.
도 5는 본 개시의 일 실시예에 따른 대화방을 개설하는 과정 및 복수의 사용자를 포함하는 대화방에 대한 사용자 인터페이스의 예시도를 도시한다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 대화방 개설 버튼(도 4의 참조 번호 390)에 대한 사용자 단말(10)의 선택 입력에 대응하여 하나 이상의 다른 사용자를 대화방에 포함시키기 위한 사용자 선택 입력 화면을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 이때, 사용자 선택 입력 화면은 도 5에 도시된 바와 같이, 사용자가 등록한 하나 이상의 다른 사용자의 목록을 표시할 수 있으며, 상기 하나 이상의 다른 사용자 각각에 대응하여 상기 하나 이상의 다른 사용자를 선택하기 위한 선택 버튼을 포함할 수 있다. 보다 구체적인 예를 들어, 도 5를 참조하면, 사용자가 상기 사용자가 등록한 하나 이상의 다른 사용자 중 '장태빈', '김선형' 및 '변기훈'라는 아이디를 가진 다른 사용자를 포함하는 대화방을 개설하고자 하는 경우, '장태빈', '김선형' 및 '변기훈'에 각각 대응하는 선택 버튼 각각(참조번호 422, 423, 424)을 선택 입력하고, 선택 완료에 대한 버튼을 선택 입력할 수 있다. 다시 말해, 프로세서(110)는 사용자 단말로부터 사용자 선택 입력 화면을 통해 하나 이상의 다른 사용자 각각에 대한 선택 입력(참조번호 422, 423, 444)과 선택 완료에 대한 확인 버튼(430)에 대한 선택 입력에 대응하여 대화방을 개설하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 전술한 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 사용자와 하나 이상의 다른 사용자와의 새로운 대화방이 개설된 경우, 대화방 표시 화면을 제공하도록 하는 제어 신호를 사용자 단말로 전송할 것을 결정할 수 있다. 예를 들어, 프로세서(110)는 도 5의 (a)와 같이 하나 이상의 다른 사용자('장태빈', '김선형' 및 '변기훈')에 대한 사용자 단말의 선택 입력을 수신한 경우, 도 5의 (b)와 같은 대화방 표시 화면을 제공할 수 있다. 이 경우, 대화방 표시 화면은, 도 5의 (b)에 도시된 바와 같이, 대화방이 개설된 시점 정보를 표시할 수 있으며, 상기 대화방에 포함된 사용자들의 정보(예컨대, 사용자의 ID 정보('장태빈', '김선형' 및 '변기훈'))를 표시할 수 있다. 전술한 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
또한, 사용자 인터페이스에 포함된 대화방 표시 화면은 대화방에 포함된 하나 이상의 사용자 각각으로부터 하나 이상의 음성 데이터를 수신하기 위한 녹음 시작 버튼(440)을 포함할 수 있다. 또한, 사용자 단말로부터 대화방 표시 화면에 표시된 녹음 시작 버튼에 대한 선택 입력을 수신하는 경우, 프로세서(110)는 해당 선택 입력을 수신하는 시점을 기초로 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터를 수신할 수 있다.
또한, 사용자 인터페이스에 포함된 대화방 표시 화면은 대화방에 포함된 하나 이상의 사용자 각각으로부터 수신한 하나 이상의 음성 데이터에 기초하여 생성된 하나 이상의 음성 인식 결과를 시간별 및 화자별로 정렬하여 표시할 수 있다. 사용자 각각으로부터 수신한 하나 이상의 음성 데이터에 기초하여 생성된 하나 이상의 음성 인식 결과를 시간별 및 화자별로 정렬하여 표시하는 구성은 앞서 도 2를 통해 구체적으로 설명한 것으로 중복 설명은 생략하도록 한다. 사용자 인터페이스는 사용자 본인의 단말로부터 수신된 음성 데이터에 기초하여 출력된 음성 인식 결과를 대화방 표시 화면의 일측면에 표시하고, 그리고 하나 이상의 다른 사용자 단말로부터 수신된 각각의 음성 데이터에 기초하여 출력된 음성 인식 결과는 대화방 표시 화면의 다른 일 측면에 표시할 수 있다. 예를 들어, 도 5의 (b)에 도시된 바와 같이, 특정 사용자(450)의 음성 데이터를 통해 출력된 음성 인식 결과는 상기 특정 사용자(450)에 대응하여 대화방 표시 화면의 왼쪽에 배치(451)하고, 특정 사용자를 제외한 하나 이상의 다른 사용자(460)의 음성 데이터를 통해 출력된 음성 인식 결과는 대화방 표시 화면의 오른쪽에 배치(461)할 수 있다. 즉, 사용자 인터페이스는 사용자가 대화 내용을 용이하게 파악하도록 복수의 사용자가 간 대화 기록을 채팅창 형태로 나타냄으로써, 텍스트에 대한 가독성을 확보하여 사용자에게 편의성을 제공할 수 있다.
또한, 사용자 단말로부터 대화록 목록 표시 화면(350)에 표시된 하나 이상의 대화 명칭 중 특정 대화 명칭에 대한 선택 입력을 수신하는 경우, 프로세서(110)는 대화록 표시 화면을 제공하도록 하는 제어 신호를 사용자 단말로 전송할 것을 결정할 수 있다. 대화록 표시 화면에 대한 구체적은 설명은 도 6을 참조하여 후술하도록 한다.
도 6은 본 개시의 일 실시예에 따른 사용자가 수행한 하나 이상의 대화 목록 중 특정 대화에 대한 사용자 단말의 선택 입력에 대응하여 대화록 표시 화면 제공하는 사용자 인터페이스의 예시도를 도시한다.
사용자 인터페이스에 포함된 대화 목록 표시 화면(350)에 표시된 하나 이상의 대화 명칭 중 특정 대화 명칭에 대하여 사용자 단말로부터 선택 입력을 수신하는 경우, 프로세서(110)는 사용자 단말의 선택 입력에 기초하여 해당 대화 명칭에 대응하는 대화록 표시 화면을 제공하도록 하는 제어 신호를 사용자 단말로 전송할 것을 결정할 수 있다. 구체적인 예를 들어, 도 6의 (a)에 도시된 바와 같이, 대화 목록 표시 화면에 표시된 하나 이상의 대화 명칭 중 '서비스 기획 회의'에 해당하는 대화 명칭에 대한 선택 입력(510)을 사용자 단말(10)로부터 수신하는 경우, 프로세서(110)는 '서비스 기획 회의'에 대응하는 대화록 표시 화면을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 수 있다. 이 경우, 대화록 표시 화면은 도 6의 (b)와 같은 항목들을 포함할 수 있다. 보다 구체적으로, 대화록 표시 화면은, 대화를 수행한 하나 이상의 사용자 각각에 대한 정보(530), 상기 대화방에 관련한 하나 이상의 키워드에 관한 정보(540), 시간별 및 화자별로 나열된 하나 이상의 음성 인식 결과에 대한 정보(550) 및 음성 인식 결과에 대응하는 음성 구간 재생하는 음성 재생 화면(560)을 포함할 수 있다. 전술한 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 사용자 단말(10)로부터 대화록 표시 화면(350)에 표시된 하나 이상의 키워드 및 하나 이상의 음성 인식 결과 중 적어도 하나에 대한 선택 입력을 수신하는 경우, 해당 선택 입력에 대응하여 음성 데이터를 재생할 수 있다.
프로세서(110)가 사용자 단말(10)로부터 하나 이상의 키워드 및 하나 이상의 음성 인식 결과에 대한 선택 입력에 기초하여 음성 데이터를 재생하는 것에 대한 구체적인 설명은 도 7을 참조하여 후술하도록 한다.
도 7은 본 개시의 일 실시예에 따른 음성 인식 결과 및 키워드에 대한 사용자의 선택 입력에 대응하여 음성 데이터의 특정 시점을 재생하는 화면이 표시된 사용자 인터페이스의 예시도를 도시한다.
사용자 인터페이스는 대화록 표시 화면에 하나 이상의 음성 인식 결과를 표시할 수 있으며, 프로세서(110)는 하나 이상의 음성 인식 결과 중 적어도 하나의 음성 인식 결과에 대한 사용자 단말로부터의 선택 입력에 대응하여 해당 음성 인식 결과의 생성 시점에 음성 데이터를 재생하도록 하는 음성 재생 화면(630)을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 구체적인 예를 들어, 도 7에 도시된 바와 같이, 대화록 표시 화면은 참조번호 611, 612 및 613과 같이 하나 이상의 음성 인식 결과를 표시할 수 있다. 이 경우, 사용자 단말(10)로부터 참조번호 612에 대한 선택 입력을 수신하는 경우, 프로세서(110)는 해당 음성 인식 결과에 대응하는 음성 데이터의 발화 구간을 시작점으로 하는 음성 데이터 서브 데이터를 재생시키는 음성 재생 화면(630)을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 즉, 프로세서(110)는 하나 이상의 음성 인식 결과를 포함하는 대화록을 제공할 수 있으며, 대화록에서 사용자 단말(10)을 통해 특정 음성 인식 결과에 대한 선택 입력에 대응하여 해당 음성 데이터 서브 데이터를 재생시킬 수 있다. 이에 따라, 사용자는 하나 이상의 다른 사용자와 수행한 대화를 텍스트 형태 및 음성의 형태로 모두 제공받을 수 있다. 더불어, 음성 파일은 특정 구간에 대한 내용 파악이 어렵기 때문에 사용자는 대화록에 표시된 하나 이상의 음성 인식 결과(즉, 텍스트)를 통해 대화 내용에서 특정 구간을 빠르게 식별하고 해당 특정 구간에 대응하는 음성 데이터 서브 데이터를 재생시킬 수 있어, 수행한 대화에 대하여 내용 파악이 용이해질 수 있다.
또한, 프로세서(110)는 사용자 단말(10)로부터 하나 이상의 키워드 중 특정 키워드에 대한 선택 입력에 대응하여 해당 키워드와 매칭된 하나 이상의 음성 인식 결과의 생성 시점의 음성 데이터 서브 데이터를 재생하도록 하는 음성 재생 화면(630)을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 이 경우, 하나 이상의 키워드의 위치는 하나 이상의 음성 인식 결과 각각에서 식별될 수 있으며, 특정 키워드는 대화록에 포함된 하나 이상의 음성 인식 결과 중 하나 이상의 위치에서 식별될 수 있다. 이에 따라, 프로세서(110)는 식별된 키워드의 위치를 음성 재생 화면(630)에 하나 이상 표시할 수 있다. 보다 구체적인 예를 들어, 도 7에 도시된 바와 같이 대화록 표시 화면에 표시된 하나 이상의 키워드가 '법률', '상담' 및 '저작권'을 포함하며, 사용자 단말(10)로부터 특정 '저작권'에 대한 선택 입력을 수신하는 경우, 프로세서(110)는 해당 키워드에 대응하는 구간의 음성 데이터 서브 데이터를 재생하도록 하는 음성 재생 화면(630)을 제공하도록 하는 제어 신호를 사용자 단말(10)로 제공할 수 있으며, 상기 음성 재생 화면(630)에는 음성 데이터에서 '저작권'(즉, 사용자가 선택한 키워드)에 대응하는 구간을 하나 이상 표시할 수 있다. 즉, 프로세서(110)는 사용자가 특정 키워드에 대응하는 구간을 용이하게 탐색할 수 있도록 음성 재생 화면(630)에 키워드가 존재하는 구간(즉, 음성 데이터 서브 데이터)을 각각 표시할 수 있다. 이에 따라, 사용자는 다른 사용자와 수행한 대화 내용을 포함하는 음성 데이터에서 특정 키워드에 대응하는 구간을 용이하게 재생할 수 있어, 특정 내용 탐색을 용이하게 수행할 수 있다.
본 개시의 일 실시예에 따르면, 사용자 인터페이스는 사용자 단말로부터 대화록에 포함된 하나 이상의 음성 인식 결과에 대한 수정 요청을 입력 받는 텍스트 편집 화면을 포함할 수 있다. 또한, 프로세서(110)는 사용자 단말(10)로부터 대화록에 포함된 하나 이상의 음성 인식 결과 중 특정 음성 인식 결과에 대한 수정 요청을 수신하는 경우, 음성 인식 모델이 해당 음성 인식 결과에 대응하는 음성 인식 결과를 출력하도록 상기 음성 인식 모델을 보정할 수 있다. 이때, 음성 인식 모델은 STT(Speech to text) 알고리즘을 활용하여 하나 이상의 음성 데이터 서브 데이터 각각에 대응하는 음성 인식 결과를 출력할 수 있다. 즉, 프로세서(110)는 사용자 단말(10)로부터 수신한 음성 인식 결과에 대한 수정 요청에 대응하는 피드백을 STT 알고리즘에 반영함으로써, STT알고리즘의 성능을 증진시킬 수 있다.
본 개시의 일 실시예에 따르면, 메모리(120)는 프로세서(110)에서 실행가능한 프로그램 코드, 하나 이상의 사용자 단말 각각에 대한 식별 정보, 음성 데이터를 입력으로 하여 음성 인식 결과를 출력하는 음성 인식 모델에 관한 정보 및 자연어 처리에 관한 알고리즘 등에 관련된 정보들을 저장할 수 있다. 예를 들어, 사용자 인터페이스를 통해 사용자 단말로부터 수신하는 하나 이상의 음성 인식 결과를 수정하기 위한 수정 요청에 대한 정보들을 저장할 수 있다.
본 개시의 일 실시예에 따르면, 메모리(120)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 컴퓨팅 장치(100)는 인터넷(internet) 상에서 상기 메모리의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다. 전술한 메모리에 대한 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
본 개시의 일 실시예에 따르면, 네트워크부(130)는 하나 이상의 사용자 단말(10)과 정보를 전송할 수 있고, 그리고 수신할 수 있다. 보다 구체적으로, 네트워크부(130)는 네트워크 접속을 위한 유/무선 인터넷 모듈을 포함할 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. 유선 인터넷 기술로는 XDSL(Digital Subscriber Line), FTTH(Fibers to the home), PLC(Power Line Communication) 등이 이용될 수 있다.
또한, 네트워크부(130)는 근거리 통신 모듈을 포함하여, 사용자 단말과 비교적 근거리에 위치하고 근거리 통신 모듈을 포함한 전자 장치와 데이터를 송수신할 수 있다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.
도 12는 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 순서도를 도시한다.
컴퓨팅 장치(100)는 제 1 사용자 단말로부터 제 1 음성 데이터를 수신하고, 제 2 사용자 단말로부터 제 2 음성 데이터를 수신(1210)할 수 있다. 컴퓨팅 장치(100)는 통합 음성 데이터에 대한 인식률을 높이기 위해 각각의 음성 데이터에 대한 전처리를 수행할 수 있다. 전처리는 하나 이상의 음성 데이터 각각에 포함된 신호 크기에 대한 표준화 또는 주파수 필터링 중 적어도 하나를 포함할 수 있다.
컴퓨팅 장치(100)는 상기 제 1 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 1 음성 데이터 서브 데이터로 분할 수 있고, 그리고 제 2 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 2 음성 데이터 서브 데이터로 분할할 수 있다. 그리고 컴퓨팅 장치(100)는 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별할 수 있다.
컴퓨팅 장치(100)는 제 1 사용자 단말과 제 2 사용자 단말의 네트워크 패킷 교환을 통한 제 1 음성 데이터와 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화할 수 있다. 또는 컴퓨팅 장치(100)는 제 1 음성 데이터 서브 데이터와 상기 제 2 음성 데이터 서브 데이터의 유사도에 기초하여 제 1 음성 데이터와 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화할 수 있다.
컴퓨팅 장치(100)는 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 기초하여 중첩 구간을 식별할 수 있다.
컴퓨팅 장치(100)는 제 1 음성 데이터와 상기 제 2 음성 데이터 각각의 음성 신호 크기에 기초하여 화자를 구분할 수 있다. 또는 컴퓨팅 장치(100)는 제 1 음성 데이터와 제 2 음성 데이터에 기초하여 통계적 음향 모델을 통해 화자를 구분할 수 있다. 컴퓨팅 장치(100)는 제 1 음성 데이터에 기초한 제 1 음성 데이터 프레임과 상기 제 2 음성 데이터에 기초한 제 2 음성 데이터 프레임 각각의 음성 신호 크기 비교를 통해 화자를 구분할 수 있다.
컴퓨팅 장치(100)는 인접 프레임의 화자 정보에 기초하여 현재 시점 프레임의 화자를 구분할 수 있다. 컴퓨팅 장치(100)는 상기 제 1 음성 데이터 와 상기 제 2 음성 데이터 각각의 화자의 발화 시간 비율에 기초하여 화자를 구분 중 적어도 하나를 포함할 수 있다.
컴퓨팅 장치(100)는 중첩구간 식별시, 중첩구간을 제외한 프레임의 화자에 기초하여 화자별 발화 시간 비율을 연산하여 화자를 구분할 수 있다. 또는, 컴퓨팅 장치(100)는 중첩구간이 사전 결정된 시간비율 이후의 프레임인 경우, 중첩구간 식별시, 중첩구간 프레임의 이전 프레임에 대한 화자별 발화 시간 비율에 기초하여 화자를 구분할 수 있다. 즉, 컴퓨팅 장치(100)는 중첩구간이 식별된 경우, 중첩 구간의 이전 프레임이 음성 데이터의 사전결정된 비율 이상일 때, 이전 프레임에 대한 화자 분리 결과를 참고하여 중첩구간에 대한 화자 분리를 수행할 수 있다. 컴퓨팅 장치(100)는 중첩 구간의 이전 프레임이 음성 데이터의 사전결정된 비율 이상일 때, 이전 프레임들에 대한 화자 분리 결과를 참고하여 중첩구간에 대한 화자 분리를 수행함으로써, 중첩 구간의 이전 프레임들에 대한 화자 분리 결과가 통계적 의의를 가지는 경우에 이를 활용할 수 있다.
컴퓨팅 장치(100)는 제 1 음성 데이터와 제 2 음성 데이터에 기초하여 통합 음성 데이터를 생성(1220)할 수 있다.
컴퓨팅 장치(100)는 통합 음성 데이터를 음성 인식 모델을 이용하여 대화록을 생성(1230)할 수 있다.
도 3은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 순서도를 도시한다.
본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신할 수 있다(210). 이 경우, 컴퓨팅 장치(100)가 수신하는 음성 데이터는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 것으로, 하나 이상이 존재할 수 있다.
본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성할 수 있다(220).
컴퓨팅 장치(100)는 하나 이상의 음성 데이터 각각에 대하여 하나 이상의 발화 구간을 식별할 수 있다. 컴퓨팅 장치(100)는 음성 데이터에 포함된 하나 이상의 발화를 식별할 수 있다. 구체적으로, 컴퓨팅 장치(100)는 음성 데이터에 존재하는 하나 이상의 묵음 구간을 기준으로 사용자의 발화 구간을 식별할 수 있다. 또한, 컴퓨팅 장치(100)는 음성 데이터를 발화 구간에 기초하여 하나 이상의 음성 데이터 서브 데이터로 분할할 수 있다.
또한, 컴퓨팅 장치(100)는 음성 데이터에 포함된 하나 이상의 발화 구간 각각에서 하나 이상의 사용자 각각의 음성 식별할 수 있다. 또한, 컴퓨팅 장치(100)는 상기 식별된 하나 이상의 사용자 각각의 음성 중 음성의 크기가 사전 결정된 크기 이상을 가지는 발화를 음성 데이터에 대응하는 특정 화자로 결정할 수 있다. 또한, 컴퓨팅 장치(100)는 음성 데이터에 대응하는 특정 화자를 사용자 단말의 식별 정보와 매칭하여 저장할 수 있다.
또한, 컴퓨팅 장치(100)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각에 통일된 시점을 부여할 수 있다.
또한, 컴퓨팅 장치(100)는 하나 이상의 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별할 수 있다. 구체적으로, 컴퓨팅 장치(100)는 음성 데이터를 상기 음성 데이터에 포함된 발화 구간에 기초하여 분할한 하나 이상의 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별할 수 있다.
또한, 컴퓨팅 장치(100)는 하나 이상의 음성 데이터 서브 데이터 각각을 음성 인식 모델의 입력으로 하여 하나 이상의 음성 데이터 서브 데이터 각각에 대응하는 하나 이상의 음성 인식 서브 결과를 출력할 수 있다. 이 경우, 음성 인식 모델은 사용자가 말하는 음성 언어를 문자 데이터로의 전환을 수행하는 모델로, 학습 데이터를 통해 사전 학습된 하나 이상의 네트워크 함수를 포함할 수 있다. 또한, 컴퓨팅 장치(100)는 하나 이상의 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 상기 대화록 상에서 하나 이상의 음성 인식 서브 결과 각각의 순서를 결정할 수 있다.
또한, 컴퓨팅 장치(100)는 하나 이상의 음성 인식 서브 결과 각각의 순서에 기초하여 대화록을 생성할 수 있다.
본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 대화록을 포함하는 사용자 인터페이스를 생성하여 하나 이상의 사용자 단말로 제공할 수 있다(230).
도 8은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 수단을 도시한다.
본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 대화록 서비스를 제공하기 위해서, 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신하기 위한 수단(710), 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하기 위한 수단(720) 및 상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공하기 위한 수단(730)을 포함할 수 있다.
대안적으로, 상기 하나 이상의 음성 데이터 각각에 포함된 신호의 크기를 사전 결정된 기준 신호의 크기와의 비교에 기초하여 상기 하나 이상의 음성 데이터 각각에 포함된 신호의 크기를 표준화하기 위한 수단 및 상기 하나 이상의 음성 데이터 각각에 포함된 주파수를 분석하여 적어도 하나의 특정 주파수를 제거하기 위한 수단을 더 포함할 수 있다.
대안적으로, 상기 음성 데이터에 포함된 하나 이상의 묵음 구간에 기초하여 하나 이상의 발화 구간을 식별하기 위한 수단 및 상기 음성 데이터에 포함된 하나 이상의 발화 구간에서의 발화 음성의 크기에 기초하여 화자를 분리하기 위한 수단을 더 포함할 수 있다.
대안적으로, 상기 하나 이상의 음성 데이터 각각에 포함된 하나 이상의 발화 구간 에서의 발화 크기에 기초하여 화자를 분리하기 위한 수단은, 상기 음성 데이터에 포함된 하나 이상의 발화 중 사전 결정된 크기 이상의 발화 음성의 크기를 가지는 발화를 상기 음성 데이터에 대응하는 특정 화자로 결정하기 위한 수단, 상기 음성 데이터에서 상기 결정된 특정 화자의 음성을 제외한 다른 음성을 제거하기 위한 수단 및 상기 특정 화자를 상기 음성 데이터를 전송한 사용자 단말의 식별 정보와 매칭하여 저장하기 위한 수단을 포함할 수 있다.
대안적으로, 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하기 위한 수단은, 상기 음성 데이터를 발화 구간에 기초하여 하나 이상의 음성 데이터 서브 데이터로 분할하기 위한 수단, 상기 하나 이상의 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별하기 위한 수단, 상기 하나 이상의 음성 데이터 서브 데이터 각각을 상기 음성 인식 모델의 입력으로 하여 상기 하나 이상의 음성 데이터 서브 데이터 각각에 대응하는 하나 이상의 음성 인식 서브 결과를 출력하기 위한 수단 및 상기 하나 이상의 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 상기 하나 이상의 음성 인식 서브 결과 각각의 상기 대화록 상에서의 순서를 결정하기 위한 수단을 포함할 수 있다.
대안적으로, 상기 하나 이상의 음성 데이터는 각각의 사용자 단말로부터 수신된 제 1 음성 데이터 및 제 2 음성 데이터를 포함하며, 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하기 위한 수단은, 상기 제 1 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 1 음성 데이터 서브 데이터로 분할하고, 그리고 상기 제 2 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 2 음성 데이터 서브 데이터로 분할하기 위한 수단, 상기 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별하기 위한 수단, 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터를 상기 음성 인식 모델의 입력으로 하여 각각의 서브 데이터 각각에 대응하는 하나 이상의 제 1 음성 인식 서브 결과 및 하나 이상의 제 2 음성 인식 서브 결과를 출력하기 위한 수단, 상기 하나 이상의 제 1 음성 인식 서브 결과 및 상기 하나 이상의 제 2 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 상기 하나 이상의 제 1 음성 인식 서브 결과 및 상기 하나 이상의 제 2 음성 인식 서브 결과 각각의 상기 대화록 상에서의 순서를 결정하기 위한 수단 및 상기 결정된 순서 및 상기 하나 이상의 사용자 단말 각각의 식별 정보에 기초하여 대화록을 생성하기 위한 수단을 포함할 수 있다.
대안적으로, 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터를 상기 음성 인식 모델의 입력으로 하여 각각의 서브 데이터에 대응하는 하나 이상의 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과를 출력하기 위한 수단은, 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 기초하여 중첩 구간을 식별하기 위한 수단, 상기 중첩 구간이 식별된 경우, 상기 중첩 구간에 대응하는 제 1 음성 인식 서브 결과 및 상기 제 2 음성 인식 서브 결과 중 적어도 하나에 대한 분할 여부를 결정하기 위한 수단 및 상기 분할이 결정된 경우, 상기 중첩 구간에 대응하는 음성 인식 서브 결과를 분할하기 위한 수단을 포함할 수 있다.
대안적으로, 상기 중첩 구간이 식별된 경우, 상기 중첩 구간에 대응하는 제 1 음성 인식 서브 결과 및 상기 제 2 음성 인식 서브 결과 중 적어도 하나에 대한 분할 여부를 결정하기 위한 수단은, 상기 중첩 구간에 대응하는 음성 인식 결과에 대하여 통계적 언어 모델을 통해 상기 음성 인식 결과의 분할 여부를 결정하기 위한 수단을 포함할 수 있다.
대안적으로, 상기 하나 이상의 음성 인식 결과의 의미 분석 결과, 상기 하나 이상의 음성 인식 결과에 포함된 단어 별 반복 횟수 및 사전 결정된 대화 주제 중 적어도 하나에 기초하여 상기 대화록에 대한 하나 이상의 키워드를 결정하기 위한 수단 및 상기 하나 이상의 음성 인식 결과에서 상기 하나 이상의 키워드 각각의 위치를 식별하기 위한 수단을 더 포함할 수 있다.
대안적으로, 상기 사용자 인터페이스는, 사용자의 프로필, 상기 사용자가 등록한 하나 이상의 다른 사용자 목록, 상기 사용자가 추가 사용자를 등록하기 위한 등록 요청 버튼 및 상기 하나 이상의 다른 사용자 각각에 대한 접속 여부를 표시하는 사용자 목록 표시 화면을 포함하고, 그리고 상기 사용자가 참여한 하나 이상의 대화 각각의 명칭에 대한 정보, 상기 하나 이상의 대화 중 특정 대화를 검색하기 위한 대화 검색 버튼 및 하나 이상의 다른 사용자와 대화방을 개설하기 위한 대화방 개설 버튼을 표시하는 대화 목록 표시 화면을 포함할 수 있다.
대안적으로, 상기 프로세서는, 사용자 단말로부터 상기 대화방 개설 버튼에 대한 선택 입력을 수신하는 경우, 상기 하나 이상의 다른 사용자를 대화방에 포함시키기 위한 사용자 선택 입력 화면을 제공하도록 하는 제어 신호를 상기 사용자 단말로 전송할 것을 결정하기 위한 수단을 더 포함할 수 있다.
대안적으로, 상기 프로세서는, 사용자 단말로부터 상기 사용자가 참여한 하나 이상의 대화방 목록 중 특정 대화방에 대한 선택 입력을 수신하는 경우, 상기 특정 대화방에 대응하는 대화록 및 하나 이상의 키워드를 포함하는 대화록 표시 화면을 제공하도록 하는 제어 신호를 상기 사용자 단말로 전송할 것을 결정하기 위한 수단을 더 포함할 수 있다.
대안적으로, 상기 프로세서는, 상기 사용자 단말로부터 상기 하나 이상의 키워드 중 특정 키워드에 대한 선택 입력을 수신하는 경우, 해당 키워드에 대응하는 음성 인식 결과를 검색하고, 그리고 상기 검색된 음성 인식 결과의 생성에 기초한 음성 데이터의 발화 구간을 재생하기 위한 키워드 재생 화면을 제공하도록 하는 제어 신호를 상기 사용자 단말로 전송할 것을 결정하기 위한 수단을 더 포함할 수 있다.
대안적으로, 상기 사용자 인터페이스는, 새로운 대화방이 개설된 경우, 상기 대화방에 포함된 하나 이상의 사용자 각각으로부터 음성 데이터를 수신하기 위한 녹음 시작 버튼 및 상기 대화방에 포함된 하나 이상의 사용자 각각으로부터 수신한 하나 이상의 음성 데이터에 기초하여 생성된 하나 이상의 음성 인식 결과를 표시하는 대화록 표시 화면을 포함할 수 있다.
대안적으로, 상기 사용자 인터페이스는, 사용자 단말로부터 상기 대화록에 포함된 하나 이상의 음성 인식 결과에 대한 수정 요청을 입력 받는 텍스트 편집 화면을 포함하고, 그리고 상기 프로세서는, 상기 사용자 단말로부터 상기 텍스트 편집 화면을 통해 상기 대화록에 포함된 하나 이상의 음성 인식 결과에 대한 수정 요청을 수신하는 경우, 상기 음성 인식 모델이 상기 수정 요청에 대응하는 음성 인식 결과를 출력하도록 상기 음성 인식 모델을 보정하기 위한 수단을 더 포함할 수 있다.
도 9는 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 모듈을 도시한다.
본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 대화록 서비스를 제공하기 위해서, 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신하기 위한 모듈(810), 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하기 위한 모듈(820) 및 상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공하기 위한 모듈(830)을 포함할 수 있다.
도 10은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 로직을 도시한다.
본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 대화록 서비스를 제공하기 위해서, 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신하기 위한 로직(910), 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하기 위한 로직(920) 및 상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공하기 위한 로직(930)을 포함할 수 있다.
도 11은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 회로를 도시한다.
본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 대화록 서비스를 제공하기 위해서, 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신하기 위한 회로(1010), 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하기 위한 회로(1020) 및 상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공하기 위한 회로(1030)를 포함할 수 있다.
당업자들은 추가적으로 여기서 개시된 실시예들과 관련되어 설명된 다양한 예시적 논리적 블록들, 구성들, 모듈들, 회로들, 수단들, 로직들, 및 알고리즘 단계들이 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양쪽 모두의 조합들로 구현될 수 있음을 인식해야 한다. 하드웨어 및 소프트웨어의 상호교환성을 명백하게 예시하기 위해, 다양한 예시적 컴포넌트들, 블록들, 구성들, 수단들, 로직들, 모듈들, 회로들, 및 단계들은 그들의 기능성 측면에서 일반적으로 위에서 설명되었다. 그러한 기능성이 하드웨어로 또는 소프트웨어로서 구현되는지 여부는 전반적인 시스템에 부과된 특정 어플리케이션(application) 및 설계 제한들에 달려 있다. 숙련된 기술자들은 각각의 특정 어플리케이션들을 위해 다양한 방법들로 설명된 기능성을 구현할 수 있으나, 그러한 구현의 결정들이 본 개시내용의 영역을 벗어나게 하는 것으로 해석되어서는 안된다.
도 16는 본 개시의 일 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 간략하고 일반적인 개략도를 도시한다.
본 개시가 일반적으로 하나 이상의 컴퓨터 상에서 실행될 수 있는 컴퓨터 실행가능 명령어와 관련하여 전술되었지만, 당업자라면 본 개시가 기타 프로그램 모듈들과 결합되어 및/또는 하드웨어와 소프트웨어의 조합으로서 구현될 수 있다는 것을 잘 알 것이다.
일반적으로, 프로그램 모듈은 특정의 태스크를 수행하거나 특정의 추상 데이터 유형을 구현하는 루틴, 프로그램, 컴포넌트, 데이터 구조, 기타 등등을 포함한다. 또한, 당업자라면 본 개시의 방법이 단일-프로세서 또는 멀티프로세서 컴퓨터 시스템, 미니컴퓨터, 메인프레임 컴퓨터는 물론 퍼스널 컴퓨터, 핸드헬드 컴퓨팅 장치, 마이크로프로세서-기반 또는 프로그램가능 가전 제품, 기타 등등(이들 각각은 하나 이상의 연관된 장치와 연결되어 동작할 수 있음)을 비롯한 다른 컴퓨터 시스템 구성으로 실시될 수 있다는 것을 잘 알 것이다.
본 개시의 설명된 실시예들은 또한 어떤 태스크들이 통신 네트워크를 통해 연결되어 있는 원격 처리 장치들에 의해 수행되는 분산 컴퓨팅 환경에서 실시될 수 있다. 분산 컴퓨팅 환경에서, 프로그램 모듈은 로컬 및 원격 메모리 저장 장치 둘다에 위치할 수 있다.
컴퓨터는 통상적으로 다양한 컴퓨터 판독가능 매체를 포함한다. 컴퓨터에 의해 액세스 가능한 매체는 그 어떤 것이든지 컴퓨터 판독가능 매체가 될 수 있고, 이러한 컴퓨터 판독가능 매체는 휘발성 및 비휘발성 매체, 일시적(transitory) 및 비일시적(non-transitory) 매체, 이동식 및 비-이동식 매체를 포함한다. 제한이 아닌 예로서, 컴퓨터 판독가능 매체는 컴퓨터 판독가능 저장 매체 및 컴퓨터 판독가능 전송 매체를 포함할 수 있다. 컴퓨터 판독가능 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보를 저장하는 임의의 방법 또는 기술로 구현되는 휘발성 및 비휘발성 매체, 일시적 및 비-일시적 매체, 이동식 및 비이동식 매체를 포함한다. 컴퓨터 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 기타 메모리 기술, CD-ROM, DVD(digital video disk) 또는 기타 광 디스크 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 장치 또는 기타 자기 저장 장치, 또는 컴퓨터에 의해 액세스될 수 있고 원하는 정보를 저장하는 데 사용될 수 있는 임의의 기타 매체를 포함하지만, 이에 한정되지 않는다.
컴퓨터 판독가능 전송 매체는 통상적으로 반송파(carrier wave) 또는 기타 전송 메커니즘(transport mechanism)과 같은 피변조 데이터 신호(modulated data signal)에 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터등을 구현하고 모든 정보 전달 매체를 포함한다. 피변조 데이터 신호라는 용어는 신호 내에 정보를 인코딩하도록 그 신호의 특성들 중 하나 이상을 설정 또는 변경시킨 신호를 의미한다. 제한이 아닌 예로서, 컴퓨터 판독가능 전송 매체는 유선 네트워크 또는 직접 배선 접속(direct-wired connection)과 같은 유선 매체, 그리고 음향, RF, 적외선, 기타 무선 매체와 같은 무선 매체를 포함한다. 상술된 매체들 중 임의의 것의 조합도 역시 컴퓨터 판독가능 전송 매체의 범위 안에 포함되는 것으로 한다.
컴퓨터(1102)를 포함하는 본 개시의 여러가지 측면들을 구현하는 예시적인 환경(1100)이 나타내어져 있으며, 컴퓨터(1102)는 처리 장치(1104), 시스템 메모리(1106) 및 시스템 버스(1108)를 포함한다. 시스템 버스(1108)는 시스템 메모리(1106)(이에 한정되지 않음)를 비롯한 시스템 컴포넌트들을 처리 장치(1104)에 연결시킨다. 처리 장치(1104)는 다양한 상용 프로세서들 중 임의의 프로세서일 수 있다. 듀얼 프로세서 및 기타 멀티프로세서 아키텍처도 역시 처리 장치(1104)로서 이용될 수 있다.
시스템 버스(1108)는 메모리 버스, 주변장치 버스, 및 다양한 상용 버스 아키텍처 중 임의의 것을 사용하는 로컬 버스에 추가적으로 상호 연결될 수 있는 몇가지 유형의 버스 구조 중 임의의 것일 수 있다. 시스템 메모리(1106)는 판독 전용 메모리(ROM)(2110) 및 랜덤 액세스 메모리(RAM)(2112)를 포함한다. 기본 입/출력 시스템(BIOS)은 ROM, EPROM, EEPROM 등의 비휘발성 메모리(2110)에 저장되며, 이 BIOS는 시동 중과 같은 때에 컴퓨터(1102) 내의 구성요소들 간에 정보를 전송하는 일을 돕는 기본적인 루틴을 포함한다. RAM(2112)은 또한 데이터를 캐싱하기 위한 정적 RAM 등의 고속 RAM을 포함할 수 있다.
컴퓨터(1102)는 또한 내장형 하드 디스크 드라이브(HDD)(2114)(예를 들어, EIDE, SATA)이 내장형 하드 디스크 드라이브(2114)는 또한 적당한 섀시(도시 생략) 내에서 외장형 용도로 구성될 수 있음), 자기 플로피 디스크 드라이브(FDD)(2116)(예를 들어, 이동식 디스켓(2118)으로부터 판독을 하거나 그에 기록을 하기 위한 것임), 및 광 디스크 드라이브(1120)(예를 들어, CD-ROM 디스크(1122)를 판독하거나 DVD 등의 기타 고용량 광 매체로부터 판독을 하거나 그에 기록을 하기 위한 것임)를 포함한다. 하드 디스크 드라이브(2114), 자기 디스크 드라이브(2116) 및 광 디스크 드라이브(1120)는 각각 하드 디스크 드라이브 인터페이스(1124), 자기 디스크 드라이브 인터페이스(1126) 및 광 드라이브 인터페이스(1128)에 의해 시스템 버스(1108)에 연결될 수 있다. 외장형 드라이브 구현을 위한 인터페이스(1124)는 USB(Universal Serial Bus) 및 IEEE 1394 인터페이스 기술 중 적어도 하나 또는 그 둘 다를 포함한다.
이들 드라이브 및 그와 연관된 컴퓨터 판독가능 매체는 데이터, 데이터 구조, 컴퓨터 실행가능 명령어, 기타 등등의 비휘발성 저장을 제공한다. 컴퓨터(1102)의 경우, 드라이브 및 매체는 임의의 데이터를 적당한 디지털 형식으로 저장하는 것에 대응한다. 상기에서의 컴퓨터 판독가능 매체에 대한 설명이 HDD, 이동식 자기 디스크, 및 CD 또는 DVD 등의 이동식 광 매체를 언급하고 있지만, 당업자라면 집 드라이브(zip drive), 자기 카세트, 플래쉬 메모리 카드, 카트리지, 기타 등등의 컴퓨터에 의해 판독가능한 다른 유형의 매체도 역시 예시적인 운영 환경에서 사용될 수 있으며 또 임의의 이러한 매체가 본 개시의 방법들을 수행하기 위한 컴퓨터 실행가능 명령어를 포함할 수 있다는 것을 잘 알 것이다.
운영 체제(2130), 하나 이상의 애플리케이션 프로그램(2132), 기타 프로그램 모듈(2134) 및 프로그램 데이터(2136)를 비롯한 다수의 프로그램 모듈이 드라이브 및 RAM(2112)에 저장될 수 있다. 운영 체제, 애플리케이션, 모듈 및/또는 데이터의 전부 또는 그 일부분이 또한 RAM(2112)에 캐싱될 수 있다. 본 개시가 여러가지 상업적으로 이용 가능한 운영 체제 또는 운영 체제들의 조합에서 구현될 수 있다는 것을 잘 알 것이다.
사용자는 하나 이상의 유선/무선 입력 장치, 예를 들어, 키보드(2138) 및 마우스(1140) 등의 포인팅 장치를 통해 컴퓨터(1102)에 명령 및 정보를 입력할 수 있다. 기타 입력 장치(도시 생략)로는 마이크, IR 리모콘, 조이스틱, 게임 패드, 스타일러스 펜, 터치 스크린, 기타 등등이 있을 수 있다. 이들 및 기타 입력 장치가 종종 시스템 버스(1108)에 연결되어 있는 입력 장치 인터페이스(1142)를 통해 처리 장치(1104)에 연결되지만, 병렬 포트, IEEE 1394 직렬 포트, 게임 포트, USB 포트, IR 인터페이스, 기타 등등의 기타 인터페이스에 의해 연결될 수 있다.
모니터(1144) 또는 다른 유형의 디스플레이 장치도 역시 비디오 어댑터(1146) 등의 인터페이스를 통해 시스템 버스(1108)에 연결된다. 모니터(1144)에 부가하여, 컴퓨터는 일반적으로 스피커, 프린터, 기타 등등의 기타 주변 출력 장치(도시 생략)를 포함한다.
컴퓨터(1102)는 유선 및/또는 무선 통신을 통한 원격 컴퓨터(들)(1148) 등의 하나 이상의 원격 컴퓨터로의 논리적 연결을 사용하여 네트워크화된 환경에서 동작할 수 있다. 원격 컴퓨터(들)(1148)는 워크스테이션, 컴퓨팅 디바이스 컴퓨터, 라우터, 퍼스널 컴퓨터, 휴대용 컴퓨터, 마이크로프로세서-기반 오락 기기, 피어 장치 또는 기타 통상의 네트워크 노드일 수 있으며, 일반적으로 컴퓨터(1102)에 대해 기술된 구성요소들 중 다수 또는 그 전부를 포함하지만, 간략함을 위해, 메모리 저장 장치(1150)만이 도시되어 있다. 도시되어 있는 논리적 연결은 근거리 통신망(LAN)(1152) 및/또는 더 큰 네트워크, 예를 들어, 원거리 통신망(WAN)(1154)에의 유선/무선 연결을 포함한다. 이러한 LAN 및 WAN 네트워킹 환경은 사무실 및 회사에서 일반적인 것이며, 인트라넷 등의 전사적 컴퓨터 네트워크(enterprise-wide computer network)를 용이하게 해주며, 이들 모두는 전세계 컴퓨터 네트워크, 예를 들어, 인터넷에 연결될 수 있다.
LAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 유선 및/또는 무선 통신 네트워크 인터페이스 또는 어댑터(1156)를 통해 로컬 네트워크(1152)에 연결된다. 어댑터(1156)는 LAN(1152)에의 유선 또는 무선 통신을 용이하게 해줄 수 있으며, 이 LAN(1152)은 또한 무선 어댑터(1156)와 통신하기 위해 그에 설치되어 있는 무선 액세스 포인트를 포함하고 있다. WAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 모뎀(1158)을 포함할 수 있거나, WAN(1154) 상의 통신 컴퓨팅 디바이스에 연결되거나, 또는 인터넷을 통하는 등, WAN(1154)을 통해 통신을 설정하는 기타 수단을 갖는다. 내장형 또는 외장형 및 유선 또는 무선 장치일 수 있는 모뎀(1158)은 직렬 포트 인터페이스(1142)를 통해 시스템 버스(1108)에 연결된다. 네트워크화된 환경에서, 컴퓨터(1102)에 대해 설명된 프로그램 모듈들 또는 그의 일부분이 원격 메모리/저장 장치(1150)에 저장될 수 있다. 도시된 네트워크 연결이 예시적인 것이며 컴퓨터들 사이에 통신 링크를 설정하는 기타 수단이 사용될 수 있다는 것을 잘 알 것이다.
컴퓨터(1102)는 무선 통신으로 배치되어 동작하는 임의의 무선 장치 또는 개체, 예를 들어, 프린터, 스캐너, 데스크톱 및/또는 휴대용 컴퓨터, PDA(portable data assistant), 통신 위성, 무선 검출가능 태그와 연관된 임의의 장비 또는 장소, 및 전화와 통신을 하는 동작을 한다. 이것은 적어도 Wi-Fi 및 블루투스 무선 기술을 포함한다. 따라서, 통신은 종래의 네트워크에서와 같이 미리 정의된 구조이거나 단순하게 적어도 2개의 장치 사이의 애드혹 통신(ad hoc communication)일 수 있다.
Wi-Fi(Wireless Fidelity)는 유선 없이도 인터넷 등으로의 연결을 가능하게 해준다. Wi-Fi는 이러한 장치, 예를 들어, 컴퓨터가 실내에서 및 실외에서, 즉 기지국의 통화권 내의 아무 곳에서나 데이터를 전송 및 수신할 수 있게 해주는 셀 전화와 같은 무선 기술이다. Wi-Fi 네트워크는 안전하고 신뢰성 있으며 고속인 무선 연결을 제공하기 위해 IEEE 802.11(a,b,g, 기타)이라고 하는 무선 기술을 사용한다. 컴퓨터를 서로에, 인터넷에 및 유선 네트워크(IEEE 802.3 또는 이더넷을 사용함)에 연결시키기 위해 Wi-Fi가 사용될 수 있다. Wi-Fi 네트워크는 비인가 2.4 및 5 GHz 무선 대역에서, 예를 들어, 11Mbps(802.11a) 또는 54 Mbps(802.11b) 데이터 레이트로 동작하거나, 양 대역(듀얼 대역)을 포함하는 제품에서 동작할 수 있다.
본 개시의 기술 분야에서 통상의 지식을 가진 자는 정보 및 신호들이 임의의 다양한 상이한 기술들 및 기법들을 이용하여 표현될 수 있다는 것을 이해할 것이다. 예를 들어, 위의 설명에서 참조될 수 있는 데이터, 지시들, 명령들, 정보, 신호들, 비트들, 심볼들 및 칩들은 전압들, 전류들, 전자기파들, 자기장들 또는 입자들, 광학장들 또는 입자들, 또는 이들의 임의의 결합에 의해 표현될 수 있다.
본 개시의 기술 분야에서 통상의 지식을 가진 자는 여기에 개시된 실시예들과 관련하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 프로세서들, 수단들, 회로들 및 알고리즘 단계들이 전자 하드웨어, (편의를 위해, 여기에서 "소프트웨어"로 지칭되는) 다양한 형태들의 프로그램 또는 설계 코드 또는 이들 모두의 결합에 의해 구현될 수 있다는 것을 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 호환성을 명확하게 설명하기 위해, 다양한 예시적인 컴포넌트들, 블록들, 모듈들, 회로들 및 단계들이 이들의 기능과 관련하여 위에서 일반적으로 설명되었다. 이러한 기능이 하드웨어 또는 소프트웨어로서 구현되는지 여부는 특정한 애플리케이션 및 전체 시스템에 대하여 부과되는 설계 제약들에 따라 좌우된다. 본 개시의 기술 분야에서 통상의 지식을 가진 자는 각각의 특정한 애플리케이션에 대하여 다양한 방식들로 설명된 기능을 구현할 수 있으나, 이러한 구현 결정들은 본 개시의 범위를 벗어나는 것으로 해석되어서는 안 될 것이다.
여기서 제시된 다양한 실시예들은 방법, 장치, 또는 표준 프로그래밍 및/또는 엔지니어링 기술을 사용한 제조 물품(article)으로 구현될 수 있다. 용어 "제조 물품"은 임의의 컴퓨터-판독가능 장치로부터 액세스 가능한 컴퓨터 프로그램, 캐리어, 또는 매체(media)를 포함한다. 예를 들어, 컴퓨터-판독가능 매체는 자기 저장 장치(예를 들면, 하드 디스크, 플로피 디스크, 자기 스트립, 등), 광학 디스크(예를 들면, CD, DVD, 등), 스마트 카드, 및 플래쉬 메모리 장치(예를 들면, EEPROM, 카드, 스틱, 키 드라이브, 등)를 포함하지만, 이들로 제한되는 것은 아니다. 또한, 여기서 제시되는 다양한 저장 매체는 정보를 저장하기 위한 하나 이상의 장치 및/또는 다른 기계-판독가능한 매체를 포함한다.
제시된 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조는 예시적인 접근들의 일례임을 이해하도록 한다. 설계 우선순위들에 기반하여, 본 개시의 범위 내에서 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조가 재배열될 수 있다는 것을 이해하도록 한다. 첨부된 방법 청구항들은 샘플 순서로 다양한 단계들의 엘리먼트들을 제공하지만 제시된 특정한 순서 또는 계층 구조에 한정되는 것을 의미하지는 않는다.
제시된 실시예들에 대한 설명은 임의의 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 개시는 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.

Claims (11)

  1. 하나 이상의 프로세서들에 의해 실행 가능한 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 상기 하나 이상의 프로세서로 하여금 이하의 동작들을 수행하도록 하며, 상기 동작들은;
    제 1 사용자 단말로부터 제 1 음성 데이터를 수신하고, 제 2 사용자 단말로부터 제 2 음성 데이터를 수신하는 동작;
    상기 제 1 음성 데이터와 상기 제 2 음성 데이터의 화자 발화 시간 비율에 기초하여 화자를 구분하는 방식을 사용하여 통합 음성 데이터를 생성하는 동작; 및
    상기 통합 음성 데이터를 음성 인식 모델을 이용하여 대화록을 생성하는 동작;
    을 포함하는,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
  2. 제 1 항에 있어서,
    상기 제 1 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 1 음성 데이터 서브 데이터로 분할하고, 그리고 상기 제 2 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 2 음성 데이터 서브 데이터로 분할하는 동작; 및
    상기 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별하는 동작;
    을 더 포함하는,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
  3. 제 2 항에 있어서,
    상기 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별하는 동작은,
    상기 제 1 사용자 단말과 상기 제 2 사용자 단말의 네트워크 패킷 교환을 통한 상기 제 1 음성 데이터와 상기 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화 하는 동작; 또는
    상기 제 1 음성 데이터 서브 데이터와 상기 제 2 음성 데이터 서브 데이터의 유사도에 기초하여 제 1 음성 데이터와 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화 하는 동작;
    중 적어도 하나를 포함하는,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
  4. 제 1 항에 있어서,
    제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 기초하여 중첩 구간을 식별하는 동작;
    을 더 포함하는
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
  5. 제 1 항에 있어서,
    상기 제 1 사용자 단말로부터 제 1 음성 데이터를 수신하고, 제 2 사용자 단말로부터 제 2 음성 데이터를 수신하는 동작은,
    상기 통합 음성 데이터에 대한 인식률을 높이기 위해 각각의 음성 데이터에 대한 전처리를 수행하는 동작;
    을 포함하고, 그리고
    상기 전처리는,
    하나 이상의 음성 데이터 각각에 포함된 신호 크기에 대한 표준화 또는 주파수 필터링 중 적어도 하나를 포함하는,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
  6. 제 1 항에 있어서,
    상기 통합 음성 데이터를 생성하는 동작은,
    상기 제 1 음성 데이터와 상기 제 2 음성 데이터 각각의 음성 신호 크기에 기초하여 화자를 구분하는 방식; 또는
    상기 제 1 음성 데이터와 상기 제 2 음성 데이터에 기초하여 통계적 음향 모델을 통해 화자를 구분하는 방식;
    중 적어도 하나를 추가적으로 사용하여 상기 통합 음성 데이터를 생성하는 동작;
    을 포함하는,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
  7. 제 6 항에 있어서,
    상기 제 1 음성 데이터와 상기 제 2 음성 데이터 각각의 음성 신호 크기에 기초하여 화자를 구분하는 방식은,
    상기 제 1 음성 데이터에 기초한 제 1 음성 데이터 프레임과 상기 제 2 음성 데이터에 기초한 제 2 음성 데이터 프레임 각각의 음성 신호 크기 비교를 통해 화자를 구분하는 동작;
    을 포함하는,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
  8. 제 6 항에 있어서,
    상기 통계적 음향 모델을 통해 화자를 구분하는 방식은,
    인접 프레임의 화자 정보에 기초하여 현재 시점 프레임의 화자를 구분하는 동작을 포함하는,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
  9. 제 1 항에 있어서,
    상기 제 1 음성 데이터와 상기 제 2 음성 데이터의 화자 발화 시간 비율에 기초하여 화자를 구분하는 방식은,
    중첩구간 식별시, 중첩구간을 제외한 프레임의 화자에 기초하여 화자별 발화 시간 비율을 연산하여 중첩구간에 대한 화자를 구분하는 동작; 또는
    중첩구간 식별시, 중첩구간 프레임의 이전 프레임에 대한 화자별 발화 시간 비율에 기초하여 중첩구간의 화자를 구분하는 동작;
    중 적어도 하나를 포함하고, 그리고
    상기 중첩구간 식별시, 중첩구간 프레임의 이전 프레임에 대한 화자별 발화 시간 비율에 기초하여 화자를 구분하는 동작은,
    상기 중첩구간 프레임의 이전 프레임이 음성 데이터의 사전결정된 비율 이상인 경우에 수행되는,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
  10. 대화록 서비스를 제공하기 위한 방법으로서,
    제 1 사용자 단말로부터 제 1 음성 데이터를 수신하고, 제 2 사용자 단말로부터 제 2 음성 데이터를 수신하는 단계;
    상기 제 1 음성 데이터와 상기 제 2 음성 데이터의 화자 발화 시간 비율에 기초하여 화자를 구분하는 방식을 사용하여 통합 음성 데이터를 생성하는 단계; 및
    상기 통합 음성 데이터를 음성 인식 모델을 이용하여 대화록을 생성하는 단계;
    를 포함하는,
    대화록 서비스를 제공하기 위한 방법.
  11. 대화록 서비스를 제공하기 위한 서버로서,
    하나 이상의 코어를 포함하는 서버 프로세서;
    상기 서버 프로세서에서 실행가능한 프로그램 코드들을 저장하는 서버 메모리; 및
    하나 이상의 사용자 단말과 데이터를 송수신하는 서버 네트워크부;
    를 포함하고, 그리고
    상기 서버 프로세서는,
    제 1 사용자 단말로부터 제 1 음성 데이터를 수신하고, 제 2 사용자 단말로부터 제 2 음성 데이터를 수신하고,
    상기 제 1 음성 데이터와 상기 제 2 음성 데이터의 화자 발화 시간 비율에 기초하여 화자를 구분하는 방식을 사용하여 통합 음성 데이터를 생성하고, 그리고
    상기 통합 음성 데이터를 음성 인식 모델을 이용하여 대화록을 생성하는,
    대화록 서비스를 제공하는 서버.
KR1020200085692A 2020-07-10 2020-07-10 대화록 서비스를 제공하는 컴퓨팅 장치 KR102376058B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200085692A KR102376058B1 (ko) 2020-07-10 2020-07-10 대화록 서비스를 제공하는 컴퓨팅 장치
KR1020210186666A KR102647512B1 (ko) 2020-07-10 2021-12-24 멀티채널 음성 데이터에 기초하여 회의록을 생성하는 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200085692A KR102376058B1 (ko) 2020-07-10 2020-07-10 대화록 서비스를 제공하는 컴퓨팅 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210186666A Division KR102647512B1 (ko) 2020-07-10 2021-12-24 멀티채널 음성 데이터에 기초하여 회의록을 생성하는 방법

Publications (2)

Publication Number Publication Date
KR20220007453A KR20220007453A (ko) 2022-01-18
KR102376058B1 true KR102376058B1 (ko) 2022-03-18

Family

ID=80052180

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200085692A KR102376058B1 (ko) 2020-07-10 2020-07-10 대화록 서비스를 제공하는 컴퓨팅 장치
KR1020210186666A KR102647512B1 (ko) 2020-07-10 2021-12-24 멀티채널 음성 데이터에 기초하여 회의록을 생성하는 방법

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210186666A KR102647512B1 (ko) 2020-07-10 2021-12-24 멀티채널 음성 데이터에 기초하여 회의록을 생성하는 방법

Country Status (1)

Country Link
KR (2) KR102376058B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101592518B1 (ko) * 2014-08-27 2016-02-05 경북대학교 산학협력단 음성 신호의 동기화를 기반으로 한 온라인 회의 방법, 온라인 회의를 위한 음성 신호 동기화 처리 장치 및 이를 수행하기 위한 기록 매체
JP2017167318A (ja) * 2016-03-16 2017-09-21 株式会社アドバンスト・メディア 議事録生成装置、及び議事録生成プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5751143B2 (ja) * 2011-11-15 2015-07-22 コニカミノルタ株式会社 議事録作成支援装置、議事録作成支援システム、および、議事録作成用プログラム
KR102097710B1 (ko) * 2014-11-20 2020-05-27 에스케이텔레콤 주식회사 대화 분리 장치 및 이에서의 대화 분리 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101592518B1 (ko) * 2014-08-27 2016-02-05 경북대학교 산학협력단 음성 신호의 동기화를 기반으로 한 온라인 회의 방법, 온라인 회의를 위한 음성 신호 동기화 처리 장치 및 이를 수행하기 위한 기록 매체
JP2017167318A (ja) * 2016-03-16 2017-09-21 株式会社アドバンスト・メディア 議事録生成装置、及び議事録生成プログラム

Also Published As

Publication number Publication date
KR20220007574A (ko) 2022-01-18
KR20220007453A (ko) 2022-01-18
KR102647512B1 (ko) 2024-03-14

Similar Documents

Publication Publication Date Title
KR102208954B1 (ko) 대화록 서비스를 제공하는 컴퓨팅 장치
US10977299B2 (en) Systems and methods for consolidating recorded content
US7788095B2 (en) Method and apparatus for fast search in call-center monitoring
US8412530B2 (en) Method and apparatus for detection of sentiment in automated transcriptions
US9245523B2 (en) Method and apparatus for expansion of search queries on large vocabulary continuous speech recognition transcripts
US8306814B2 (en) Method for speaker source classification
WO2019148586A1 (zh) 多人发言中发言人识别方法以及装置
US20160171100A1 (en) Voice Search System, Voice Search Method, and Computer-Readable Storage Medium
US9711167B2 (en) System and method for real-time speaker segmentation of audio interactions
US10909971B2 (en) Detection of potential exfiltration of audio data from digital assistant applications
KR102389995B1 (ko) 자연발화 음성 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102540177B1 (ko) 화자 간 중첩되는 음성을 분리하여 대화록 서비스를 제공하는 방법
KR102376058B1 (ko) 대화록 서비스를 제공하는 컴퓨팅 장치
US11302334B2 (en) Method for associating a device with a speaker in a gateway, corresponding computer program, computer and apparatus
US20240054990A1 (en) Computing device for providing dialogues services
US11632345B1 (en) Message management for communal account
KR102408455B1 (ko) 음성 인식 학습을 위한 음성 데이터 합성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102395399B1 (ko) 음성 인식 학습을 위한 음성 데이터 분해 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
US20240312477A1 (en) Multichannel Audio Speech Classification
KR102378895B1 (ko) 음성 인식을 위한 호출어 학습 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102621954B1 (ko) 관련 지식 유무에 따라 대화모델을 운용하는 대화 방법 및 시스템
CN108831473A (zh) 一种音频处理方法及装置
CN113407768B (zh) 声纹检索方法、装置、系统、服务器及存储介质
CN113051902A (zh) 语音数据脱敏方法、电子设备及计算机可读存储介质
Cardaioli et al. For Your Voice Only: Exploiting Side Channels in Voice Messaging for Environment Detection

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant