KR102647512B1 - Method for generating meeting minutes based on multi channel voice data - Google Patents

Method for generating meeting minutes based on multi channel voice data Download PDF

Info

Publication number
KR102647512B1
KR102647512B1 KR1020210186666A KR20210186666A KR102647512B1 KR 102647512 B1 KR102647512 B1 KR 102647512B1 KR 1020210186666 A KR1020210186666 A KR 1020210186666A KR 20210186666 A KR20210186666 A KR 20210186666A KR 102647512 B1 KR102647512 B1 KR 102647512B1
Authority
KR
South Korea
Prior art keywords
voice data
voice
data
sub
subdata
Prior art date
Application number
KR1020210186666A
Other languages
Korean (ko)
Other versions
KR20220007574A (en
Inventor
이지화
조홍식
Original Assignee
주식회사 액션파워
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 액션파워 filed Critical 주식회사 액션파워
Priority to KR1020210186666A priority Critical patent/KR102647512B1/en
Publication of KR20220007574A publication Critical patent/KR20220007574A/en
Application granted granted Critical
Publication of KR102647512B1 publication Critical patent/KR102647512B1/en

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Telephonic Communication Services (AREA)

Abstract

전술한 과제를 해결하기 위한 본 개시의 일 실시예에서, 하나 이상의 프로세서들에 의해 실행 가능한 컴퓨턴 판독가능 저장 매체에 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 상기 하나 이상의 프로세서로 하여금 이하의 동작들을 수행하도록 하며, 상기 동작들은: 제 1 사용자 단말로부터 제 1 음성 데이터를 수신하고, 제 2 사용자 단말로부터 제 2 음성 데이터를 수신하는 동작, 상기 제 1 음성 데이터와 상기 제 2 음성 데이터에 기초하여 통합 음성 데이터를 생성하는 동작 및 상기 통합 음성 데이터를 음성 인식 모델을 이용하여 대화록을 생성하는 동작 을 포함할 수 있다.In one embodiment of the present disclosure for solving the above-described problem, a computer program stored in a computer-readable storage medium executable by one or more processors, wherein the computer program causes the one or more processors to perform the following operations The operations include: receiving first voice data from a first user terminal and receiving second voice data from a second user terminal, integrated voice based on the first voice data and the second voice data. It may include generating data and generating a conversation log using the integrated voice data using a voice recognition model.

Description

멀티채널 음성 데이터에 기초하여 회의록을 생성하는 방법{METHOD FOR GENERATING MEETING MINUTES BASED ON MULTI CHANNEL VOICE DATA}{METHOD FOR GENERATING MEETING MINUTES BASED ON MULTI CHANNEL VOICE DATA}

본 개시는 대화록 서비스를 제공하는 컴퓨팅 장치에 관한 발명으로, 보다 구체적으로, 복수의 사용자간 대화 내용을 포함하는 음성 파일에 기초하여 대화록 서비스를 제공하는 컴퓨팅 장치에 관한 것이다.The present disclosure relates to a computing device that provides a conversation record service, and more specifically, to a computing device that provides a conversation record service based on a voice file containing conversation content between a plurality of users.

오늘날, 직장인들은 회사 내/외부 임직원과 빈번하게 회의를 진행한다. 회의 과정에서 회의 내용에 대한 회의록을 작성하는 것은 조직과 개인의 업무 효율면에서 많은 도움이 된다. 다만, 회의 진행 중 회의록을 작성하기 위해서는 별도의 속기사를 필요로 하므로, 추가적인 비용이 발생할 수 있으며, 속기사의 역량에 따라 회의록의 질이 달라질 수 있다.Today, office workers frequently hold meetings with executives inside and outside the company. Writing minutes of the meeting contents during the meeting process is very helpful in terms of work efficiency for organizations and individuals. However, since a separate stenographer is required to take minutes during a meeting, additional costs may be incurred, and the quality of the minutes may vary depending on the stenographer's capabilities.

한편, 최근 들어 알파고 등과 같은 이슈에 따라 인공지능에 대한 시장 수요가 증가하고 있으며, 컴퓨터 기술의 발전으로 처리할 수 있는 정보량이 늘어남에 따라 인공지능이 빠른 속도로 진화하고 있다. 또한, 인공지능이 빠른 속도로 진화함에 따라 인공 신경망을 활용한 음성 인식의 정확도가 높아지고 있다.Meanwhile, market demand for artificial intelligence has recently been increasing due to issues such as AlphaGo, and artificial intelligence is evolving at a rapid pace as the amount of information that can be processed increases with the development of computer technology. Additionally, as artificial intelligence evolves at a rapid pace, the accuracy of voice recognition using artificial neural networks is increasing.

이에 따라, 대한민국 공개특허 제10-2008-0037402호(2008.04.30)에서는 단일 채널로 입력되는 음성파일에 대하여 주파수 대역을 기준으로 복수의 화자를 분리하는 알고리즘은 통해 화자를 분리하여 텍스트화 함으로써, 자동으로 회의록을 작성하는 시스템을 개시하고 있다.Accordingly, in Republic of Korea Patent Publication No. 10-2008-0037402 (April 30, 2008), an algorithm for separating a plurality of speakers based on the frequency band for a voice file input through a single channel is used to separate speakers and convert them into text, A system for automatically recording meeting minutes is being launched.

본 개시는 전술한 배경 기술에 대응하여 안출된 것으로, 복수의 사용자간 대화 내용을 포함하는 음성파일에 기초하여 대화록 서비스를 제공하는 컴퓨팅 장치를 제공하기 위한 것이다.The present disclosure has been made in response to the above-described background technology, and is intended to provide a computing device that provides a conversation record service based on a voice file containing conversation content between a plurality of users.

전술한 과제를 해결하기 위한 본 개시의 일 실시예에 따라, 하나 이상의 프로세서들에 의해 실행 가능한 컴퓨터 판독가능 매체에 저장된 컴퓨터 프로그램이 개시된다. 상기 컴퓨터 프로그램은 상기 하나 이상의 프로세서들로 하여금 이하의 동작들을 수행하도록 하며, 상기 동작들은: 제 1 사용자 단말로부터 제 1 음성 데이터를 수신하고, 제 2 사용자 단말로부터 제 2 음성 데이터를 수신하는 동작, 상기 제 1 음성 데이터와 상기 제 2 음성 데이터에 기초하여 통합 음성 데이터를 생성하는 동작 및 상기 통합 음성 데이터를 음성 인식 모델을 이용하여 대화록을 생성하는 동작을 포함할 수 있다.According to one embodiment of the present disclosure for solving the above-described problem, a computer program stored in a computer-readable medium executable by one or more processors is disclosed. The computer program causes the one or more processors to perform the following operations, which include: receiving first voice data from a first user terminal and receiving second voice data from a second user terminal; The method may include generating integrated voice data based on the first voice data and the second voice data, and generating a conversation record using the integrated voice data using a voice recognition model.

대안적으로, 상기 제 1 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 1 음성 데이터 서브 데이터로 분할하고, 그리고 상기 제 2 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 2 음성 데이터 서브 데이터로 분할하는 동작 및 상기 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별하는 동작을 더 포함할 수 있다.Alternatively, dividing the first voice data into one or more first voice data subdata based on a speech interval, and dividing the second voice data into one or more second voice data subdata based on a speech interval It may further include an operation of identifying a start point and an end point of each of the first voice data subdata and the second voice data subdata.

대안적으로, 상기 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별하는 동작은, 제 1 사용자 단말과 제 2 사용자 단말의 네트워크 패킷 교환을 통한 상기 제 1 음성 데이터와 상기 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화 하는 동작 또는 상기 제 1 음성 데이터 서브 데이터와 상기 제 2 음성 데이터 서브 데이터의 유사도에 기초하여 제 1 음성 데이터와 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화 하는 동작 중 적어도 하나를 포함할 수 있다.Alternatively, the operation of identifying the start point and end point of each of the first voice data subdata and the second voice data subdata may include the first voice data through network packet exchange between the first user terminal and the second user terminal. An operation of synchronizing the start and end points of data and the second voice data or the start points of the first voice data and the second voice data based on the similarity of the first voice data sub-data and the second voice data sub-data and may include at least one of the operations of synchronizing the end point.

대안적으로, 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 기초하여 중첩 구간을 식별하는 동작을 더 포함할 수 있다.Alternatively, the method may further include identifying an overlap section based on the start and end points of each of the first voice data subdata and the second voice data subdata.

대안적으로, 상기 제 1 음성 데이터와 제 2 음성 데이터에 기초하여 통합 음성 데이터를 생성하는 동작은, 상기 통합 음성 데이터에 대한 인식률을 높이기 위해 각각의 음성 데이터에 대한 전처리를 수행하는 동작을 포함하고, 상기 전처리는 하나 이상의 음성 데이터 각각에 포함된 신호 크기에 대한 표준화 또는 주파수 필터링 중 적어도 하나를 포함할 수 있다.Alternatively, the operation of generating integrated voice data based on the first voice data and the second voice data includes performing preprocessing on each voice data to increase the recognition rate for the integrated voice data; , the preprocessing may include at least one of standardization or frequency filtering for the signal size included in each of the one or more voice data.

대안적으로, 상기 제 1 음성 데이터와 제 2 음성 데이터에 기초하여 통합 음성 데이터를 생성하는 동작은, 상기 제 1 음성 데이터와 상기 제 2 음성 데이터 각각의 음성 신호 크기에 기초하여 화자를 구분하는 동작 또는 상기 제 1 음성 데이터와 상기 제 2 음성 데이터에 기초하여 통계적 음향 모델을 통해 화자를 구분하는 동작 중 적어도 하나를 포함할 수 있다.Alternatively, the operation of generating integrated voice data based on the first voice data and the second voice data includes the operation of distinguishing speakers based on the voice signal size of each of the first voice data and the second voice data. Alternatively, it may include at least one of an operation of distinguishing speakers through a statistical acoustic model based on the first voice data and the second voice data.

대안적으로, 상기 제 1 음성 데이터와 상기 제 2 음성 데이터 각각의 음성 신호 크기에 기초하여 화자를 구분하여 상기 통합 음성 데이터를 생성하는 동작은, 상기 제 1 음성 데이터에 기초한 제 1 음성 데이터 프레임과 상기 제 2 음성 데이터에 기초한 제 2 음성 데이터 프레임 각각의 음성 신호 크기 비교를 통해 화자를 구분하는 동작을 포함할 수 있다.Alternatively, the operation of generating the integrated voice data by distinguishing a speaker based on the voice signal size of each of the first voice data and the second voice data includes a first voice data frame based on the first voice data and It may include an operation of distinguishing speakers by comparing voice signal sizes of each second voice data frame based on the second voice data.

대안적으로, 통계적 음향 모델을 통해 화자를 구분하여 상기 통합 음성 데이터를 생성하는 동작은, 인접 프레임의 화자 정보에 기초하여 현재 시점 프레임의 화자를 구분하는 동작 또는 상기 제 1 음성 데이터 와 상기 제 2 음성 데이터 각각의 화자의 발화 시간 비율에 기초하여 화자를 구분하는 동작 중 적어도 하나를 포함할 수 있다.Alternatively, the operation of generating the integrated speech data by distinguishing speakers through a statistical acoustic model may include distinguishing the speaker of the current frame based on speaker information of adjacent frames, or the operation of distinguishing the speaker of the current frame based on speaker information of adjacent frames, or The voice data may include at least one operation of distinguishing speakers based on the speech time ratio of each speaker.

대안적으로, 상기 제 1 음성 데이터 와 상기 제 2 음성 데이터 각각의 화자의 발화 시간 비율에 기초하여 화자를 구분하는 동작은, 중첩구간 식별시, 중첩구간을 제외한 프레임의 화자에 기초하여 화자별 발화 시간 비율을 연산하여 화자를 구분하는 동작 또는 중첩구간 식별시, 중첩구간 프레임의 이전 프레임에 대한 화자별 발화 시간 비율에 기초하여 화자를 구분하는 동작을 포함할 수 있다.Alternatively, the operation of distinguishing speakers based on the ratio of each speaker's speech time between the first voice data and the second voice data may include, when identifying an overlapping section, utterance for each speaker based on the speaker in the frame excluding the overlapping section. An operation of distinguishing speakers by calculating a time ratio or, when identifying an overlapped section, may include an operation of distinguishing speakers based on the speech time ratio of each speaker to the previous frame of the overlapped section frame.

대안적으로, 중첩구간 식별시, 중첩구간 프레임의 이전 프레임에 대한 화자별 발화 시간 비율에 기초하여 화자를 구분하는 동작은, 상기 중첩구간 프레임의 이전 프레임이 음성 데이터의 사전결정된 비율 이상인 경우에 수행될 수 있다.Alternatively, when identifying an overlapping section, the operation of distinguishing speakers based on the ratio of speech time for each speaker to the previous frame of the overlapping section frame is performed when the previous frame of the overlapping section frame is greater than or equal to a predetermined ratio of voice data. It can be.

본 개시의 다른 실시예에서 대화록 서비스를 제공하는 방법이 개시된다. 상기 방법은, 대화록 서비스를 제공하기 위한 방법으로서, 제 1 사용자 단말로부터 제 1 음성 데이터를 수신하고, 제 2 사용자 단말로부터 제 2 음성 데이터를 수신하는 방법, 상기 제 1 음성 데이터와 상기 제 2 음성 데이터에 기초하여 통합 음성 데이터를 생성하는 방법 및 상기 통합 음성 데이터를 음성 인식 모델을 이용하여 대화록을 생성하는 방법을 포함할 수 있다.In another embodiment of the present disclosure, a method for providing a conversation record service is disclosed. The method is a method for providing a conversation record service, comprising receiving first voice data from a first user terminal and receiving second voice data from a second user terminal, the first voice data and the second voice It may include a method of generating integrated voice data based on data and a method of generating a conversation record using the integrated voice data using a voice recognition model.

본 개시의 또 다른 실시예에서 대화록 서비스를 제공하는 서버로서, 하나 이상의 코어를 포함하는 서버 프로세서, 상기 프로세서에서 실행 가능한 프로그램 코드들을 저장하는 서버 메모리 및 하나 이상의 사용자 단말과 데이터를 송수신하는 서버 네트워크부를 포함하고, 그리고 상기 프로세서는, 제 1 사용자 단말로부터 제 1 음성 데이터를 수신하고, 제 2 사용자 단말로부터 제 2 음성 데이터를 수신하고,상기 제 1 음성 데이터 와 상기 제 2 음성 데이터에 기초하여 통합 음성 데이터를 생성하고, 그리고 상기 통합 음성 데이터를 음성 인식 모델을 이용하여 대화록을 생성할 수 있다.A server that provides a conversation service in another embodiment of the present disclosure, comprising a server processor including one or more cores, a server memory storing program codes executable on the processor, and a server network unit transmitting and receiving data to and from one or more user terminals. And the processor receives first voice data from a first user terminal, receives second voice data from a second user terminal, and integrates voice data based on the first voice data and the second voice data. Data can be generated, and a conversation record can be created using the integrated voice data using a voice recognition model.

본 개시는 복수의 사용자간 대화 내용을 포함하는 음성파일에 기초하여 대화록 서비스를 제공하는 컴퓨팅 장치를 제공할 수 있다.The present disclosure can provide a computing device that provides a conversation record service based on a voice file containing conversation content between a plurality of users.

다양한 양상들이 이제 도면들을 참조로 기재되며, 여기서 유사한 참조 번호들은 총괄적으로 유사한 구성요소들을 지칭하는데 이용된다. 이하의 실시예에서, 설명 목적을 위해, 다수의 특정 세부사항들이 하나 이상의 양상들의 총체적 이해를 제공하기 위해 제시된다. 그러나, 그러한 양상(들)이 이러한 구체적인 세부사항들 없이 실시될 수 있음은 명백할 것이다.
도 1은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 전체적인 시스템을 나타낸 개념도를 도시한다.
도 2는 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하는 컴퓨팅 장치의 블록 구성도를 도시한다.
도 3은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 순서도를 도시한다.
도 4는 본 개시의 일 실시예에 따른 사용자 목록 표시 화면 및 대화 목록 표시 화면을 포함하는 사용자 인터페이스의 예시도를 도시한다.
도 5는 본 개시의 일 실시예에 따른 대화방을 개설하는 과정 및 복수의 사용자를 포함하는 대화방에 대한 사용자 인터페이스의 예시도를 도시한다.
도 6은 본 개시의 일 실시예에 따른 사용자가 수행한 하나 이상의 대화 목록 중 특정 대화에 대한 사용자 단말의 선택 입력에 대응하여 대화록 표시 화면 제공하는 사용자 인터페이스의 예시도를 도시한다.
도 7은 본 개시의 일 실시예에 따른 음성 인식 결과 및 키워드에 대한 사용자의 선택 입력에 대응하여 음성 데이터의 특정 시점을 재생하는 화면이 표시된 사용자 인터페이스의 예시도를 도시한다.
도 8은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 수단을 도시한다.
도 9는 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 모듈을 도시한다.
도 10은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 로직을 도시한다.
도 11은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 회로를 도시한다.
도 12은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하는 컴퓨팅 장치의 블록 구성도를 도시한다.
도 13는 본 개시의 일 실시예에 따른 제 1 음성 데이터와 제 2 음성 데이터의 시작 시점과 종료 시점을 동기화하는 예시도를 도시한다.
도 14는 본 개시의 일 실시예에 따른 화자를 구분하는 과정의 예시도를 도시한다.
도 15은 본 개시의 일 실시예에 따른 통계적 음향 모델을 통한 화자를 구분하는 과정의 예시도를 도시한다.
도 16은 본 개시의 일 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 간략하고 일반적인 개략도를 도시한다.
Various aspects will now be described with reference to the drawings, where like reference numerals are used to collectively refer to like elements. In the following examples, for purposes of explanation, numerous specific details are set forth to provide a comprehensive understanding of one or more aspects. However, it will be clear that such aspect(s) may be practiced without these specific details.
Figure 1 shows a conceptual diagram illustrating an overall system for providing a conversation record service related to an embodiment of the present disclosure.
FIG. 2 shows a block diagram of a computing device providing a conversation record service related to an embodiment of the present disclosure.
Figure 3 shows a flowchart for providing a conversation record service related to an embodiment of the present disclosure.
Figure 4 shows an example of a user interface including a user list display screen and a conversation list display screen according to an embodiment of the present disclosure.
Figure 5 shows an example of a process for opening a chat room and a user interface for a chat room including a plurality of users according to an embodiment of the present disclosure.
Figure 6 shows an example of a user interface that provides a conversation log display screen in response to a user terminal's selection input for a specific conversation among one or more conversation lists performed by the user according to an embodiment of the present disclosure.
FIG. 7 illustrates an example of a user interface displaying a screen that reproduces a specific point in time of voice data in response to a voice recognition result and a user's selection input for a keyword according to an embodiment of the present disclosure.
Figure 8 illustrates means for providing a conversation record service related to one embodiment of the present disclosure.
Figure 9 illustrates a module for providing a conversation record service related to an embodiment of the present disclosure.
Figure 10 shows logic for providing a conversation record service related to an embodiment of the present disclosure.
Figure 11 shows a circuit for providing a conversation record service related to an embodiment of the present disclosure.
Figure 12 shows a block diagram of a computing device providing a conversation record service related to an embodiment of the present disclosure.
FIG. 13 illustrates an example of synchronizing the start and end points of first and second voice data according to an embodiment of the present disclosure.
Figure 14 shows an example of a process for distinguishing speakers according to an embodiment of the present disclosure.
Figure 15 shows an example of a process for distinguishing speakers through a statistical acoustic model according to an embodiment of the present disclosure.
Figure 16 shows a brief, general schematic diagram of an example computing environment in which embodiments of the present disclosure may be implemented.

다양한 실시예들이 이제 도면을 참조하여 설명된다. 본 명세서에서, 다양한 설명들이 본 개시의 이해를 제공하기 위해서 제시된다. 그러나, 이러한 실시예들은 이러한 구체적인 설명 없이도 실행될 수 있음이 명백하다.Various embodiments are now described with reference to the drawings. In this specification, various descriptions are presented to provide an understanding of the disclosure. However, it is clear that these embodiments may be practiced without these specific descriptions.

본 명세서에서 사용되는 용어 "컴포넌트", "모듈", "시스템" 등은 컴퓨터-관련 엔티티, 하드웨어, 펌웨어, 소프트웨어, 소프트웨어 및 하드웨어의 조합, 또는 소프트웨어의 실행을 지칭한다. 예를 들어, 컴포넌트는 프로세서상에서 실행되는 처리과정(procedure), 프로세서, 객체, 실행 스레드, 프로그램, 및/또는 컴퓨터일 수 있지만, 이들로 제한되는 것은 아니다. 예를 들어, 컴퓨팅 장치에서 실행되는 애플리케이션 및 컴퓨팅 장치 모두 컴포넌트일 수 있다. 하나 이상의 컴포넌트는 프로세서 및/또는 실행 스레드 내에 상주할 수 있다. 일 컴포넌트는 하나의 컴퓨터 내에 로컬화 될 수 있다. 일 컴포넌트는 2개 이상의 컴퓨터들 사이에 분배될 수 있다. 또한, 이러한 컴포넌트들은 그 내부에 저장된 다양한 데이터 구조들을 갖는 다양한 컴퓨터 판독가능한 매체로부터 실행할 수 있다. 컴포넌트들은 예를 들어 하나 이상의 데이터 패킷들을 갖는 신호(예를 들면, 로컬 시스템, 분산 시스템에서 다른 컴포넌트와 상호작용하는 하나의 컴포넌트로부터의 데이터 및/또는 신호를 통해 다른 시스템과 인터넷과 같은 네트워크를 통해 전송되는 데이터)에 따라 로컬 및/또는 원격 처리들을 통해 통신할 수 있다.As used herein, the terms “component,” “module,” “system,” and the like refer to a computer-related entity, hardware, firmware, software, a combination of software and hardware, or an implementation of software. For example, a component may be, but is not limited to, a process running on a processor, a processor, an object, a thread of execution, a program, and/or a computer. For example, both an application running on a computing device and the computing device can be a component. One or more components may reside within a processor and/or thread of execution. A component may be localized within one computer. A component may be distributed between two or more computers. Additionally, these components can execute from various computer-readable media having various data structures stored thereon. Components can transmit signals, for example, with one or more data packets (e.g., data and/or signals from one component interacting with other components in a local system, a distributed system, to other systems and over a network such as the Internet). Depending on the data being transmitted, they may communicate through local and/or remote processes.

더불어, 용어 "또는"은 배타적 "또는"이 아니라 내포적 "또는"을 의미하는 것으로 의도된다. 즉, 달리 특정되지 않거나 문맥상 명확하지 않은 경우에, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는 것으로 의도된다. 즉, X가 A를 이용하거나; X가 B를 이용하거나; 또는 X가 A 및 B 모두를 이용하는 경우, "X는 A 또는 B를 이용한다"가 이들 경우들 어느 것으로도 적용될 수 있다. 또한, 본 명세서에 사용된 "및/또는"이라는 용어는 열거된 관련 아이템들 중 하나 이상의 아이템의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다.Additionally, the term “or” is intended to mean an inclusive “or” and not an exclusive “or.” That is, unless otherwise specified or clear from context, “X utilizes A or B” is intended to mean one of the natural implicit substitutions. That is, either X uses A; X uses B; Or, if X uses both A and B, “X uses A or B” can apply to either of these cases. Additionally, the term “and/or” as used herein should be understood to refer to and include all possible combinations of one or more of the related listed items.

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하는 것으로 이해되어야 한다. 다만, "포함한다" 및/또는 "포함하는"이라는 용어는, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. 또한, 달리 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 본 명세서와 청구범위에서 단수는 일반적으로 "하나 또는 그 이상"을 의미하는 것으로 해석되어야 한다.Additionally, the terms “comprise” and/or “comprising” should be understood to mean that the corresponding feature and/or element is present. However, the terms “comprise” and/or “comprising” should be understood as not excluding the presence or addition of one or more other features, elements and/or groups thereof. Additionally, unless otherwise specified or the context is clear to indicate a singular form, the singular terms herein and in the claims should generally be construed to mean “one or more.”

당업자들은 추가적으로 여기서 개시된 실시예들과 관련되어 설명된 다양한 예시 적 논리적 블록들, 구성들, 모듈들, 회로들, 수단들, 로직들, 및 알고리즘 단계들이 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양쪽 모두의 조합들로 구현될 수 있음을 인식해야 한다. 하드웨어 및 소프트웨어의 상호교환성을 명백하게 예시하기 위해, 다양한 예시 적 컴포넌트들, 블록들, 구성들, 수단들, 로직들, 모듈들, 회로들, 및 단계들은 그들의 기능성 측면에서 일반적으로 위에서 설명되었다. 그러한 기능성이 하드웨어로 또는 소프트웨어로서 구현되는지 여부는 전반적인 시스템에 부과된 특정 어플리케이션(application) 및 설계 제한들에 달려 있다. 숙련된 기술자들은 각각의 특정 어플리케이션들을 위해 다양한 방법들로 설명된 기능성을 구현할 수 있다. 다만, 그러한 구현의 결정들이 본 개시내용의 영역을 벗어나게 하는 것으로 해석되어서는 안된다.Those skilled in the art will additionally recognize that the various illustrative logical blocks, components, modules, circuits, means, logic, and algorithm steps described in connection with the embodiments disclosed herein may be implemented using electronic hardware, computer software, or a combination of both. It must be recognized that it can be implemented with To clearly illustrate the interchangeability of hardware and software, various illustrative components, blocks, configurations, means, logics, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented in hardware or software will depend on the specific application and design constraints imposed on the overall system. A skilled technician can implement the described functionality in a variety of ways for each specific application. However, such implementation decisions should not be construed as causing a departure from the scope of the present disclosure.

도 1은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 전체적인 시스템을 나타낸 개념도를 도시한다.Figure 1 shows a conceptual diagram illustrating an overall system for providing a conversation record service related to an embodiment of the present disclosure.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100) 및 하나 이상의 사용자 단말(10)은 무선 및/또는 유선을 통한 상호 연결을 통해 데이터를 전송할 수 있고, 그리고 수신할 수 있다. 본 개시의 컴퓨팅 장치는 전자 형태의 데이터를 연산할 수 있는 모든 종류의 컴퓨팅 장치를 포함할 수 있으며, 예를 들어, 퍼스널 컴퓨터, 서버 컴퓨터 등의 일반 컴퓨팅 장치 및 모바일 단말(스마트폰(smartphone), 테블릿(tablet)) 등의 제한된 연산 능력을 가진 컴퓨팅 장치 등을 포함할 수 있다. According to one embodiment of the present disclosure, the computing device 100 and one or more user terminals 10 may transmit and receive data through interconnection through wireless and/or wired. The computing device of the present disclosure may include all types of computing devices capable of calculating data in electronic form, for example, general computing devices such as personal computers and server computers, and mobile terminals (smartphones, It may include computing devices with limited computing capabilities, such as tablets.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 복수의 사용자간 대화 내용을 포함하는 음성 데이터에 기초하여 대화록 서비스를 제공할 수 있다. 구체적으로, 컴퓨팅 장치(100)는 하나 이상의 사용자 단말(10) 각각으로부터 하나 이상의 음성 데이터를 수신하고, 상기 수신한 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 텍스트화 함으로써, 복수의 사용자 간 수행된 대화 내용에 대한 대화록을 생성할 수 있다. 이때, 하나 이상의 사용자 단말(10)은 PC(personal computer), 노트북(note book), 모바일 단말기(mobile terminal), 스마트 폰(smart phone), 태블릿 PC(tablet pc) 등을 포함할 수 있으며, 유/무선 네트워크에 접속할 수 있는 모든 종류의 단말을 포함할 수 있다.According to an embodiment of the present disclosure, the computing device 100 may provide a conversation record service based on voice data including conversation content between a plurality of users. Specifically, the computing device 100 receives one or more voice data from each of one or more user terminals 10, and converts each of the one or more voice data into text through a voice recognition model, thereby You can create a transcript of the conversation content. At this time, the one or more user terminals 10 may include a personal computer (PC), a notebook (note book), a mobile terminal, a smart phone, a tablet PC, etc. /Can include all types of terminals that can access a wireless network.

또한, 컴퓨팅 장치(100)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각에 기초하여 텍스트화된 대화록을 제공할 수 있다. 이 경우, 텍스트화된 대화록은 대화에 참여한 복수의 사용자의 음성 데이터를 텍스트화 한 것으로, 복수의 사용자가 참여한 대화에 대한 음성 데이터를 텍스트화하여 시간 및 화자 별로 구분하여 나열한 것일 수 있다. 이에 따라, 복수의 사용자들은 복수의 사용자 간 대화(또는 회의) 진행 시, 별도의 속기사를 통해 대화록을 작성하거나 본인이 직접 대화록을 작성할 필요가 없이, 단순 복수의 사용자의 대화 내용을 포함하는 음성 데이터를 통해 복수의 사용자 간 대화 내용을 포함하는 텍스트화된 대화록을 제공받을 수 있다.Additionally, the computing device 100 may provide a text-based conversation log based on one or more voice data received from each of the one or more user terminals 10. In this case, the textual conversation log is a text conversion of voice data of a plurality of users who participated in the conversation. The voice data of the conversation in which a plurality of users participated may be converted into text and listed separately by time and speaker. Accordingly, when conducting a conversation (or meeting) between multiple users, multiple users do not need to write a conversation record through a separate stenographer or write the conversation record themselves, but simply voice data containing the contents of the conversation between multiple users. You can receive text conversation logs containing conversations between multiple users.

또한, 컴퓨팅 장치(100)는 대화록을 포함하는 사용자 인터페이스를 하나 이상의 사용자 단말에 제공할 수 있다. 이 경우, 사용자 인터페이스는 대화에 참여한 하나 이상의 사용자 각각에 대한 정보, 하나 이상의 사용자의 대화 내용이 시간별 및 화자별 로 분류되어 채팅창 형태로 기록된 대화록, 대화록들의 편집, 관리 및 검색 등의 활용도를 제고하기 위한 다양한 UI(User Interfaces)/UX(User Experience)를 포함하여 본 개시의 컴퓨팅 장치(100)를 이용하는 복수의 사용자에게 편의성을 제공할 수 있다.Additionally, the computing device 100 may provide a user interface including a conversation log to one or more user terminals. In this case, the user interface provides information about each of one or more users participating in the conversation, a conversation log in which the conversation contents of one or more users are categorized by time and speaker and recorded in the form of a chat window, and the utility of editing, management, and search of the conversation records. Convenience can be provided to a plurality of users using the computing device 100 of the present disclosure, including various UI (User Interfaces)/UX (User Experience) to improve.

본 개시에서 컴퓨팅 장치(100)가 하나 이상의 사용자 단말(10)로 대화록 서비스를 제공하는 과정 및 대화록을 포함하는 사용자 인터페이스에 대한 구체적인 설명은 이하의 도면들을 참조하여 후술하도록 한다.In the present disclosure, a detailed description of the process by which the computing device 100 provides a conversation record service to one or more user terminals 10 and the user interface including the conversation record will be described later with reference to the drawings below.

도 2는 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하는 컴퓨팅 장치의 블록 구성도를 도시한다.FIG. 2 shows a block diagram of a computing device providing a conversation record service related to an embodiment of the present disclosure.

도 2에 도시된 대화록 서비스를 제공하는 컴퓨팅 장치(100)의 컴포넌트들은 예시적인 것이다. 도 2에 도시된 컴포넌트 중 일부만이 대화록 서비스를 제공하는 컴퓨팅 장치(100)를 구성할 수도 있으며, 도 2에 도시된 컴포넌트 이외에 추가적인 컴포넌트(들)가 상기 대화록 서비스를 제공하는 컴퓨팅 장치(100)에 포함될 수도 있다.The components of the computing device 100 that provides the conversation record service shown in FIG. 2 are exemplary. Only some of the components shown in FIG. 2 may constitute the computing device 100 that provides the conversation record service, and additional component(s) in addition to the components shown in FIG. 2 may be included in the computing device 100 that provides the conversation record service. may be included.

도 2에 도시된 바와 같이, 대화록 서비스를 제공하는 컴퓨팅 장치(100)는 프로세서(110), 메모리(120) 및 네트워크부(130)를 포함할 수 있다.As shown in FIG. 2, the computing device 100 that provides a conversation service may include a processor 110, a memory 120, and a network unit 130.

본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 음성 데이터를 수신할 수 있다. 이 경우, 프로세서(110)가 수신하는 음성 데이터는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 것으로, 하나 이상이 존재할 수 있다. 예를 들어, 3명의 사용자가 대화를 진행하는 경우, 3명의 사용자 각각이 소지한 3개의 사용자 단말 각각으로부터 3개의 음성 데이터를 수신할 수 있다. 즉, 프로세서(110)는 하나의 사용자 단말을 통해 하나의 음성 데이터를 수신하는 것이 아닌, 복수의 사용자 각각이 소지한 하나 이상의 사용자 단말(10)로부터 하나 이상의 음성 데이터를 수신할 수 있다. 전술한 대화를 진행하는 사용자의 수 및 이에 대응하는 사용자 단말의 수에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.According to one embodiment of the present disclosure, the processor 110 may receive voice data from each of one or more user terminals 10. In this case, the voice data that the processor 110 receives is received from each of one or more user terminals 10, and there may be more than one. For example, when three users are having a conversation, three pieces of voice data can be received from each of three user terminals owned by each of the three users. That is, the processor 110 may receive one or more voice data from one or more user terminals 10 owned by each of a plurality of users, rather than receiving one voice data through one user terminal. The specific description of the number of users conducting the above conversation and the number of user terminals corresponding thereto is only an example, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각에 대하여 전처리를 수행할 수 있다. 프로세서(110)는 음성 데이터에 대한 인식률을 높이기 위한 전처리를 수행할 수 있다. 이때, 프로세서(110)가 하나 이상의 음성 데이터 각각에 대하여 수행하는 전처리는 노이즈 제거에 대한 전처리 및 발화 구간에서의 발화 크기에 기초하여 화자를 분리하는 전처리를 포함할 수 있다.According to an embodiment of the present disclosure, the processor 110 may perform preprocessing on one or more voice data received from each of the one or more user terminals 10. The processor 110 may perform preprocessing to increase the recognition rate of voice data. At this time, the preprocessing that the processor 110 performs on each of the one or more voice data may include preprocessing for noise removal and preprocessing for separating speakers based on the speech size in the speech section.

본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각의 노이즈를 제거할 수 있다. 하나 이상의 음성 데이터 각각의 노이즈를 제거하는 것은, 상기 하나 이상의 음성 데이터에 포함된 노이즈를 제거하기 위한 것일 수 있다. 보다 구체적으로, 프로세서(110)는 하나 이상의 음성 데이터 각각에 포함된 신호의 크기와 사전 결정된 기준 신호의 크기의 비교에 기초하여 하나 이상의 음성 데이터 각각에 포함된 신호의 크기를 표준화할 수 있다. 프로세서(110)는 하나 이상의 사용자 단말(10)로부터 수신한 음성 데이터 각각에 포함된 신호의 크기가 사전 결정된 기준 신호 미만인 경우, 해당 신호의 크기를 크게 조정하고, 그리고 하나 이상의 사용자 단말(10)로부터 수신한 음성 데이터 각각에 포함된 신호의 크기가 사전 결정된 기준 신호 이상인 경우, 해당 신호의 크기를 작게(즉, clipping되지 않게)조정하는 Audio Signal compression Normalization을 수행할 수 있다. 전술한 노이즈 제거 동작은 예시일 뿐이며 본 개시는 이에 제한되지 않는다. According to an embodiment of the present disclosure, the processor 110 may remove noise from each of one or more voice data received from each of one or more user terminals 10. Removing noise from each of the one or more voice data may be to remove noise included in the one or more voice data. More specifically, the processor 110 may standardize the size of the signal included in each of the one or more voice data based on a comparison between the size of the signal included in each of the one or more voice data and the size of a predetermined reference signal. If the size of the signal included in each voice data received from one or more user terminals 10 is less than a predetermined reference signal, the processor 110 adjusts the size of the corresponding signal to be large, and then receives the signal from the one or more user terminals 10. If the size of the signal included in each received voice data is greater than or equal to a predetermined reference signal, Audio Signal Compression Normalization can be performed to adjust the size of the signal to be smaller (i.e., to prevent clipping). The noise removal operation described above is only an example and the present disclosure is not limited thereto.

또한, 프로세서(110)는 하나 이상의 음성 데이터 각각에 포함된 음성의 파형을 분석하여, 발화 이외의 소리를 제거할 수 있다. 보다 구체적으로 프로세서(110)는 음성 데이터의 주파수를 분석하여 적어도 하나의 특정 주파수를 제거할 수 있다. 프로세서(110)가 수신하는 하나 이상의 음성 데이터 각각은 주파수가 균일한 백색 노이즈, 주파수가 불규칙한 랜덤 주파수 노이즈 또는 녹음 장치나 신호처리 과정에 따라 발생하는 다양한 노이즈를 포함할 수 있다. 즉, 프로세서(110)는 하나 이상의 음성 데이터 각각에 포함된 다양한 주파수를 갖는 잡음에 대하여 전처리를 수행할 수 있다. 구체적으로, 프로세서(110)는 하나 이상의 음성 데이터 각각에 포함된 잡음의 종류를 판별하기 위해 SVM(Supporting Vector Machine)과 같은 기계학습 알고리즘을 이용하여 분류하고, 각각의 상이한 주파수를 포함하는 잡음 각각에 대응하는 잡음 제거 알고리즘을 통해 노이즈를 제거할 수 있다. 전술한 잡음 제거 알고리즘은 예시일 뿐이며 본 개시는 이에 제한되지 않는다. Additionally, the processor 110 may analyze the waveform of the voice included in each piece of one or more voice data and remove sounds other than speech. More specifically, the processor 110 may analyze the frequencies of voice data and remove at least one specific frequency. Each of the one or more voice data received by the processor 110 may include white noise with a uniform frequency, random frequency noise with an irregular frequency, or various noises generated depending on the recording device or signal processing process. That is, the processor 110 may perform preprocessing on noise with various frequencies included in each of one or more voice data. Specifically, the processor 110 classifies each of the one or more voice data using a machine learning algorithm such as SVM (Supporting Vector Machine) to determine the type of noise contained in each of the noises containing different frequencies. Noise can be removed through a corresponding noise removal algorithm. The noise removal algorithm described above is only an example and the present disclosure is not limited thereto.

또한, 프로세서(110)는 하나 이상의 음성 데이터 각각에 대하여 하나 이상의 발화 구간을 식별할 수 있다. 프로세서(110)는 음성 데이터에 포함된 하나 이상의 발화를 식별할 수 있다. 구체적으로, 프로세서(110)는 음성 데이터에 존재하는 하나 이상의 묵음 구간을 기준으로 사용자의 발화 구간을 식별할 수 있다. 예를 들어, 프로세서(110)는 음성 데이터에 포함된 제 1 묵음 구간과 제 2 묵음 구간 사이를 사용자의 제 1 발화 구간으로 식별할 수 있으며, 제 2 묵음 구간과 제 3 묵음 구간 사이를 사용자의 제 2 발화 구간으로 식별할 수 있다. 즉, 하나 이상의 사용자의 대화 내용을 포함하는 음성 데이터에서 상기 하나 이상의 사용자의 음성(즉, 말소리)이 인지되지 않는 시점(예를 들어, 일정 크기 이하의 소리만이 감지되는 시점 등)을 식별하고, 상기 식별된 시점(즉, 묵음 구간)을 기준으로 하나 이상의 사용자의 발화 구간을 식별할 수 있다. 전술한 사용자의 발화 구간에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. Additionally, the processor 110 may identify one or more speech sections for each of one or more voice data. Processor 110 may identify one or more utterances included in voice data. Specifically, the processor 110 may identify the user's speech section based on one or more silent sections present in voice data. For example, the processor 110 may identify the period between the first and second silent sections included in the voice data as the user's first speech section, and between the second and third silent sections may be identified as the user's first speech section. It can be identified as the second ignition section. That is, in voice data containing the conversation content of one or more users, identify the point in time when the voice (i.e., speech sound) of the one or more users is not recognized (for example, the point in time when only sounds below a certain level are detected, etc.) , One or more user's speech sections can be identified based on the identified time point (i.e., silent section). The detailed description of the user's speech section described above is only an example, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따르면, 프로세서(110)는 음성 데이터에 포함된 하나 이상의 발화 구간 각각에서 하나 이상의 사용자 각각의 음성 식별할 수 있다. 또한, 프로세서(110)는 상기 식별된 하나 이상의 사용자 각각의 음성 중 음성의 크기가 사전 결정된 크기 이상을 가지는 발화를 음성 데이터에 대응하는 특정 화자로 결정할 수 있다. 보다 구체적으로, 프로세서(110)는 음성 데이터에 포함된 하나 이상의 사용자의 음성 중 특정 사용자의 음성의 크기가 사전 결정된 크기 이상인 경우, 상기 음성 데이터에 대응하는 특정 화자로 결정할 수 있다. 예를 들어, 제 1 사용자 단말로부터 2명의 사용자(A 사용자 및 B 사용자)의 음성을 포함하는 음성 데이터를 수신한 경우, 프로세서(110)는 A 사용자의 음성의 크기가 사전 결정된 크기 이상임을 판별하여, 상기 A 사용자를 제 1 사용자 단말로부터 수신한 음성 데이터에 대응하는 특정 화자로 결정할 수 있다. 즉, 본 개시에서 사용자 단말은 각각의 사용자의 음성을 수집하기 위하여 각각의 사용자에게 배치된 단말일 수 있으므로, 프로세서(110)는 수신된 음성 데이터에서 특정 크기 이상의 발화가 해당 음성 데이터가 수집된 사용자 단말의 사용자의 발화인 것으로 판단할 수 있다. 또한, 프로세서(110)는 음성 데이터에 포함된 하나 이상의 사용자 각각의 음성의 크기 비교에 기초하여 음성 데이터에 대응하는 특정 화자를 결정할 수도 있다. 예를 들어, 제 1 사용자 단말로부터 2명의 사용자(A 사용자 및 B 사용자)의 음성을 포함하는 음성 데이터를 수신한 경우, 프로세서(110)는 음성 데이터에 포함된 2명의 사용자의 음성 중 B 사용자의 음성의 크기가 A 사용자의 음성의 크기 보다 큰 것으로 판별하여 상기 B 사용자를 제 1 사용자 단말로부터 수신한 음성 데이터에 대응하는 특정 화자로 결정할 수 있다. 전술한 하나 이상의 사용자 및 하나 이상의 사용자 각각의 음성의 크기에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. According to an embodiment of the present disclosure, the processor 110 may identify the voice of one or more users in each of one or more speech sections included in voice data. Additionally, the processor 110 may determine an utterance whose voice level is greater than a predetermined level among the voices of each of the identified one or more users as a specific speaker corresponding to the voice data. More specifically, if the volume of a specific user's voice among the voices of one or more users included in the voice data is greater than or equal to a predetermined volume, the processor 110 may determine a specific speaker corresponding to the voice data. For example, when voice data including the voices of two users (user A and user B) is received from the first user terminal, the processor 110 determines that the volume of user A's voice is greater than a predetermined volume and , User A may be determined as a specific speaker corresponding to voice data received from the first user terminal. That is, in the present disclosure, the user terminal may be a terminal deployed to each user in order to collect the voice of each user, so the processor 110 may detect an utterance of a certain size or more in the received voice data by the user for whom the voice data was collected. It can be determined that this is an utterance from the user of the terminal. Additionally, the processor 110 may determine a specific speaker corresponding to the voice data based on a comparison of the volume of each user's voice included in the voice data. For example, when voice data including the voices of two users (user A and user B) is received from the first user terminal, the processor 110 selects user B's voice among the voices of the two users included in the voice data. By determining that the volume of voice is greater than that of user A, user B can be determined as a specific speaker corresponding to voice data received from the first user terminal. The above-described specific description of one or more users and the volume of each user's voice is merely an example, and the present disclosure is not limited thereto.

또한, 프로세서(110)는 사용자 단말(10)로부터 수신한 음성 데이터에서 특정 화자의 음성을 제외한 다른 음성을 제거할 수 있다. 보다 구체적으로, 프로세서(110)는 음성 데이터에 대응되는 특정 화자를 결정한 경우, 음성 데이터에서 상기 특정 화자의 음성을 제외한 다른 사용자의 음성을 제거할 수 있다. 예를 들어, 음성 데이터가 A 사용자 및 B 사용자의 음성을 포함하고, 상기 A 사용자가 상기 음성 데이터에 대응하는 특정 화자로 결정된 경우, 프로세서(110)는 상기 음성 데이터에서 B 사용자의 음성을 제거할 수 있다. 즉, 프로세서(110)는 음성 데이터에서 다른 사용자(예컨대, B 사용자)의 음성을 제거함으로써, 특정 화자(예컨대, A 사용자)의 음성을 보다 명확히 분리할 수 있다. 전술한 음성 데이터에 대응하는 사용자에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. 이에 따라, 추후 음성 데이터에 기초하여 대화록 작성 시 화자 각각에 대한 분리가 정확해질 수 있어, 보다 정확도 높은 대화록을 생성할 수 있다.Additionally, the processor 110 may remove voices other than those of a specific speaker from voice data received from the user terminal 10. More specifically, when the processor 110 determines a specific speaker corresponding to voice data, the processor 110 may remove voices of other users other than the voice of the specific speaker from the voice data. For example, if voice data includes the voices of user A and user B, and the user A is determined to be a specific speaker corresponding to the voice data, the processor 110 may remove the voice of user B from the voice data. You can. That is, the processor 110 can more clearly separate the voice of a specific speaker (eg, user A) by removing the voice of another user (eg, user B) from the voice data. The specific description of the user corresponding to the above-described voice data is only an example, and the present disclosure is not limited thereto. Accordingly, when creating a conversation record based on voice data in the future, the separation of each speaker can be more accurate, and a conversation record with higher accuracy can be generated.

또한, 프로세서(110)는 하나 이상의 음성 데이터 각각에 대응하는 특정 화자를 판별하고, 각각의 음성 데이터에서 판별된 특정 화자의 음성을 제외한 다른 음성을 제거한 경우, 상기 특정 화자를 하나 이상의 사용자 단말의 식별 정보 각각과 매칭하여 저장할 수 있다. 예를 들어, 제 1 음성 데이터 대응하는 특정 화자로 결정된 A 사용자를 A 사용자 단말의 식별 정보와 매칭할 수 있으며, 제 2 음성 데이터 대응하는 특정 화자로 결정된 B 사용자를 B 사용자 단말의 식별 정보와 매칭하여 저장할 수 있다. 이에 따라, 하나 이상의 사용자 단말 각각으로부터 수신한 하나 이상의 음성 데이터 각각에 대응하는 화자를 판별하고, 각각의 사용자 단말에 각각의 화자를 매칭함으로써 대화를 수행한 복수의 화자 각각을 보다 정확하게 분리시킬 수 있다. 전술한 음성 데이터와 그에 대응하는 사용자 단말에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.In addition, the processor 110 determines a specific speaker corresponding to each of one or more voice data, and when voices other than the voice of the determined specific speaker are removed from each voice data, the processor 110 identifies the specific speaker in one or more user terminals. It can be saved by matching each piece of information. For example, user A, determined as a specific speaker corresponding to the first voice data, may be matched with identification information of user terminal A, and user B determined as a specific speaker corresponding to the second voice data may be matched with identification information of user terminal B. You can save it. Accordingly, by determining the speaker corresponding to each of the one or more voice data received from each of the one or more user terminals and matching each speaker to each user terminal, it is possible to more accurately separate each of the plurality of speakers who conducted the conversation. . The detailed description of the above-described voice data and the corresponding user terminal is only an example, and the present disclosure is not limited thereto.

또한, 프로세서(110)는 음성 데이터를 발화 구간에 기초하여 하나 이상의 음성 데이터 서브 데이터로 분할할 수 있다. 예를 들어, A 사용자 단말을 통해 제 1 음성 데이터를 수신한 경우, 프로세서(110)는 제 1 음성 데이터에서 식별된 하나 이상의 발화 구간을 기준으로 상기 제 1 음성 데이터를 하나 이상의 음성 데이터 서브 데이터로 분할할 수 있다. 보다 구체적인 예를 들어, 프로세서(110)는 제 1 음성 데이터에서 식별된 발화 구간이 5개인 경우, 상기 식별된 5개의 발화 구간 각각에 대응하여 상기 제 1 음성 데이터를 5개의 음성 데이터 서브 데이터로 분할할 수 있다. 전술한 음성 데이터의 하나 이상의 음성 데이터 서브 데이터 수에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.Additionally, the processor 110 may divide the voice data into one or more voice data sub-data based on the speech section. For example, when first voice data is received through user terminal A, the processor 110 divides the first voice data into one or more voice data subdata based on one or more speech sections identified in the first voice data. It can be divided. For a more specific example, when there are five speech sections identified in the first voice data, the processor 110 divides the first voice data into five voice data sub-data corresponding to each of the five identified speech sections. can do. The specific description of the number of one or more voice data subdata of the voice data described above is only an example, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각에 통일된 시점을 부여할 수 있다.According to an embodiment of the present disclosure, the processor 110 may assign a unified viewpoint to each of one or more voice data received from each of one or more user terminals 10.

구체적으로, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각에 글로벌 시간 정보를 태그할 수 있다. 이 경우, 글로벌 시간 정보는 복수의 사용자 단말 각각으로부터 수신한 복수의 음성 데이터 각각에 적용되는 시간 정보일 수 있다. 보다 구체적으로, 글로벌 시간 정보는, 복수의 음성 데이터 각각의 선후 관계를 명확하게 하기 위해 부여된 기준이 되는 시간 정보일 수 있다. 예를 들어, 글로벌 시간 정보는 컴퓨팅 장치의 시간 정보에 기초하여 결정되는 시간 정보일 수 있다. 글로벌 시간 정보를 결정하는 방식은 예시일 뿐이며 본 개시는 이에 제한되지 않는다. 로컬 시간 정보는, 음성 데이터 각각에 적용되는 시간 정보일 수 있다. 즉, 로컬 시간 정보는 음성 데이터의 시작으로부터 경과 시간에 관한 정보(예를 들어, 8분 동안의 음성 데이터의 경우, 32초 지점, 40초 지점 등)일 수 있다. 로컬 시간 정보에 관한 전술한 기재는 예시일 뿐이며, 본 개시는 이에 제한되지 않는다. 즉, 복수의 사용자 단말(10) 각각으로부터 복수의 음성 데이터를 수신하는 경우, 프로세서(110)는 복수의 음성 데이터 각각에 글로벌 시간 정보를 매칭하여 저장함으로써, 복수의 음성 데이터 각각에서 발화 구간에 따라 분할된 하나 이상의 음성 데이터 서브 데이터의 선후 관계를 명확하게 판별할 수 있다. 예를 들어, 2개의 사용자 단말(A 사용자 단말 및 B 사용자 단말)을 통해 2개의 음성 데이터(제 1 음성 데이터 및 제 2 음성 데이터)를 수신한 경우, 상기 2개의 음성 데이터에 포함된 각각의 발화의 선후관계는 각각의 음성 데이터의 로컬 시간 정보 만으로는 파악하기 어려울 수 있다. 즉, 각각의 음성 데이터의 녹음 시작 시점이 서로 상이한 경우, 프로세서(110)는 로컬 시간 정보 만으로는 복수의 음성 데이터에 포함된 각각의 발화의 선후 관계를 명확하게 파악하기 어려울 수 있다. 예를 들어, A 사용자 단말로부터 수신한 제 1 음성 데이터는 11시 10분부터 11시 20분까지에 대한 음성 데이터(즉, 10분 동안의 음성 데이터)일 수 있으며, B 사용자 단말을 통해 수신한 제 2 음성 데이터는 11시 12분부터 11시 20분까지에 대한 음성 데이터(즉, 8분 동안의 음성 데이터)일 수 있어, 각각의 음성 데이터의 시작 시점이 서로 상이하여, 동일한 로컬 시간 정보를 가진 시점의 발화도 실제로는 서로 상이한 시점의 발화일 수 있다. 이에 따라, 각각에 음성 데이터에 포함된 음성 데이터 서브 데이터의 선후 관계가 명확하게 식별되지 않아 각각의 음성 데이터를 통한 대화록 생성에 문제를 유발할 수 있기 때문에, 프로세서(110)는 제 1 음성 데이터 및 제 2 음성 데이터 각각에 글로벌 시간 정보를 매칭(즉, 발화 구간 각각에 대응하는 현재 시간을 표시)하여 각각의 데이터의 시점을 통일시킴으로써, 제 1 음성 데이터 및 제 2 음성 데이터 각각에서 발화 구간에 따라 분할된 하나 이상의 음성 데이터 서브 데이터의 선후 관계를 명확하게 구분할 수 있다. 전술한 사용자 단말의 수, 음성 데이터의 수 및 각각의 음성 데이터의 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.Specifically, the processor 110 may tag each of one or more voice data received from each of one or more user terminals 10 with global time information. In this case, the global time information may be time information applied to each of a plurality of voice data received from each of a plurality of user terminals. More specifically, global time information may be time information that serves as a standard provided to clarify the sequential relationship between each of a plurality of voice data. For example, global time information may be time information determined based on time information of a computing device. The method of determining global time information is only an example and the present disclosure is not limited thereto. Local time information may be time information applied to each voice data. That is, the local time information may be information about the elapsed time from the start of voice data (for example, in the case of voice data for 8 minutes, the 32-second point, the 40-second point, etc.). The foregoing description of local time information is merely an example, and the present disclosure is not limited thereto. That is, when receiving a plurality of voice data from each of the plurality of user terminals 10, the processor 110 matches and stores global time information to each of the plurality of voice data, according to the speech section in each of the plurality of voice data. The sequential relationship of one or more divided voice data subdata can be clearly determined. For example, when two pieces of voice data (first voice data and second voice data) are received through two user terminals (user terminal A and user terminal B), each utterance included in the two voice data It may be difficult to determine the precedence relationship using only the local time information of each voice data. That is, if the recording start time of each voice data is different, it may be difficult for the processor 110 to clearly determine the sequential relationship of each utterance included in the plurality of voice data using only local time information. For example, the first voice data received from user terminal A may be voice data for the period from 11:10 to 11:20 (i.e., voice data for 10 minutes), and the first voice data received through user terminal B may be voice data for 11:10 to 11:20. The second voice data may be voice data for 11:12 to 11:20 (i.e., voice data for 8 minutes), so that the start time of each voice data is different from each other, and the same local time information is used. Utterances from different viewpoints may actually be utterances from different viewpoints. Accordingly, since the sequential relationship of the voice data sub-data included in each voice data is not clearly identified, which may cause problems in generating conversation records through each voice data, the processor 110 may use the first voice data and the second voice data. 2 By matching the global time information to each voice data (i.e., displaying the current time corresponding to each speech section) and unifying the timing of each data, each of the first voice data and the second voice data is divided according to the speech section. The sequential relationship of one or more voice data subdata can be clearly distinguished. The above-described specific description of the number of user terminals, the number of voice data, and the timing of each voice data is only an example, and the present disclosure is not limited thereto.

또한, 프로세서(110)는 복수의 음성 데이터 각각의 경과 시간에 기초하여 음성 데이터에 포함된 발화의 선후 관계를 결정할 수 있다. 프로세서(110)는 복수의 음성 데이터 모두에 적용되는 기준 시점을 결정하고, 기준 시점으로부터 경과 시간에 기초하여 복수의 음성 데이터에 포함된 발화의 선후 관계를 결정할 수 있다. 예를 들어, 프로세서(110)는 복수의 음성 데이터 중 가장 먼저 녹음이 시작된 음성 데이터의 시작 시점을 기준 시점으로 결정하고, 다른 음성 데이터에 기준 시점을 기초로 하여 경과 시간을 결정함으로써, 복수의 음성데이터에 포함된 복수의 발화의 선후관계를 결정할 수 있다. 구체적으로, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각이 최초 생성된 시점을 기록하고, 하나 이상의 음성 데이터 각각에 기록된 최초 시점을 기준으로 각각의 음성 데이터의 진행 시간을 식별함으로써, 하나 이상의 음성 데이터 각각에 포함된 하나 이상의 음성 데이터 서브 데이터의 선후 관계를 판별하도록 통일된 시점을 부여할 수 있다. Additionally, the processor 110 may determine the sequential relationship of utterances included in the voice data based on the elapsed time of each of the plurality of voice data. The processor 110 may determine a reference point applied to all of the plurality of voice data, and determine the precedence relationship of the utterances included in the plurality of voice data based on the elapsed time from the reference point. For example, the processor 110 determines the start time of the voice data that started recording first among the plurality of voice data as the reference point, and determines the elapsed time based on the reference point in other voice data, thereby determining the plurality of voices. The sequential relationship of multiple utterances included in the data can be determined. Specifically, the processor 110 records the time when each of the one or more voice data received from each of the one or more user terminals 10 is first generated, and records each voice data based on the first time recorded in each of the one or more voice data. By identifying the progress time of , a unified viewpoint can be provided to determine the sequential relationship of one or more voice data sub-data included in each of one or more voice data.

보다 구체적으로, 프로세서(110)는 가장 먼저 녹음이 시작된 음성 데이터의 녹음 시작 시점과 이후에 녹음이 시작된 음성 데이터의 녹음 시작 시점의 차이 만큼 이후에 녹음이 시작된 음성 데이터에 묵음 구간을 해당 음성 데이터의 시작 전에 부가할 수 있다. 즉, 프로세서(110)는 복수의 음성 데이터에 적용되는 기준 시점(본 예시에서, 최초로 녹음이 시작된 음성 데이터의 녹음 시작 시간 등)을 매칭하고 기준 시점으로부터 각각의 음성 데이터의 차이를 각각의 음성 데이터에 반영하여 발화의 선후 관계를 결정할 수 있다. 예를 들어, 제 1 음성 데이터의 녹음 시작 후 제 2 음성 데이터가 5초 뒤 녹음이 시작 된 경우, 프로세서(110)는 음성 데이터의 생성에 대한 기준 시간(예를 들어, 컴퓨팅 장치의 시간)에 기초하여 이를 판단할 수 있으며, 제 2 음성 데이터의 녹음 시작 전에 5초의 묵음 구간을 부여함으로써, 제 1 음성 데이터 및 제 2 음성 데이터의 진행 시간이 실제 발화 시간과 일치하도록 할 수 있다. 전술한 기재는 예시일 뿐이며, 본 개시는 이에 제한되지 않는다. More specifically, the processor 110 adds a silence section to the voice data that started recording later by the difference between the recording start time of the voice data that started recording first and the recording start time of the voice data that started recording later. It can be added before starting. That is, the processor 110 matches the reference point applied to the plurality of voice data (in this example, the recording start time of the voice data where recording first started, etc.) and calculates the difference between each voice data from the reference point to each voice data. You can determine the sequence of utterances by reflecting them. For example, if recording of the second voice data begins 5 seconds after the start of recording of the first voice data, the processor 110 records the recording at the reference time (e.g., the time of the computing device) for the generation of the voice data. This can be determined based on this, and by providing a silence period of 5 seconds before the start of recording the second voice data, the progress time of the first voice data and the second voice data can be made to match the actual speech time. The foregoing description is merely an example, and the present disclosure is not limited thereto.

또한, 프로세서(110)는 가장 먼저 녹음이 시작된 음성 데이터의 녹음 시작 시점과 이후에 녹음이 시작된 음성 데이터의 녹음 시작 시점의 차이만큼 이후에 녹음이 시작된 음성 데이터의 진행 시간에 부가하여 발화의 선후 관계를 판단할 수 있다. 예를 들어, 제 1 음성 데이터의 녹음 시작 후 제 2 음성 데이터가 5초 뒤 녹음이 시작 된 경우, 제 2 음성 데이터의 녹음 시작으로부터 10초에 위치하는 발화는 제 1 음성 데이터의 녹음 시작으로부터 15초에 위치하는 발화일 수 있다. 따라서, 프로세서(110)는 제 2 음성 데이터에 제 1 음성 데이터와 시작 시간의 차이만큼의 시간을 진행 시간에 부가하여 각각의 음성 데이터에 포함된 각각의 발화의 선후관계를 결정할 수 있다. 전술한 기재는 예시일 뿐이며, 본 개시는 이에 제한되지 않는다.In addition, the processor 110 adds the difference between the recording start time of the voice data that started recording first and the recording start time of the voice data that started recording later, to the progress time of the voice data that started recording later, and determines the sequential relationship of the utterance. can be judged. For example, if recording of the second voice data starts 5 seconds after the start of recording of the first voice data, the utterance located 10 seconds from the start of recording of the second voice data is 15 seconds from the start of recording of the first voice data. It may be an utterance located at the beginning. Accordingly, the processor 110 can determine the precedence relationship of each utterance included in each voice data by adding a time equal to the difference between the first voice data and the start time to the second voice data to the progress time. The foregoing description is merely an example, and the present disclosure is not limited thereto.

전술한 바와 같이 프로세서(110)는 음성 데이터에 글로벌 시간 정보를 매칭하여 저장하거나, 기준 시점으로부터 경과 시간에 관한 정보를 매칭하여 저장함으로써, 음성 데이터에 포함된 복수의 발화의 선후관계를 판단할 수 있다. As described above, the processor 110 can determine the precedence relationship of a plurality of utterances included in the voice data by matching and storing global time information to voice data or matching and storing information about elapsed time from a reference point. there is.

전술한 사용자 단말의 수, 음성 데이터의 수 및 각각의 음성 데이터의 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.The above-described specific description of the number of user terminals, the number of voice data, and the timing of each voice data is only an example, and the present disclosure is not limited thereto.

이하에서 기재되는 음성 데이터에 대한 설명에서 시작 시점 및 종료 시점은 음성 데이터의 글로벌 시간 정보 및 기준 시점 정보 중 적어도 하나에 기초하여 하나 이상의 음성 데이터 각각에 포함된 하나 이상의 음성 데이터 서브 데이터 각각의 선후 관계를 구분하기 위해 하나 이상의 음성 데이터 각각에 부여된 통일된 시점에 기초한 것이다.In the description of the voice data described below, the start time and end time are based on at least one of global time information and reference time information of the voice data, and the sequential relationship between each of the one or more voice data sub-data included in each of the one or more voice data. It is based on a unified viewpoint assigned to each of one or more voice data to distinguish.

본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별할 수 있다. 구체적으로, 프로세서(110)는 음성 데이터를 상기 음성 데이터에 포함된 발화 구간에 기초하여 분할한 하나 이상의 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별할 수 있다. 예를 들어, 음성 데이터가 2개의 발화 구간에 대응하여 2개의 음성 데이터 서브 데이터(음성 데이터 제 1 서브 데이터 및 음성 데이터 제 2 서브 데이터)로 분할된 경우, 프로세서(110)는 음성 데이터 제 1 서브 데이터의 시작 시점 및 종료 시점을 3초 및 32초로 각각 식별하고, 그리고 음성 데이터 제 2 서브 데이터의 시작 시점 및 종료 시점을 1분 10초 및 1분 52초로 각각 식별할 수 있다. 전술한 음성 데이터 서브 데이터의 시작 시점 및 종료 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. According to an embodiment of the present disclosure, the processor 110 may identify the start point and end point of each of one or more voice data subdata. Specifically, the processor 110 may identify the start point and end point of each of one or more voice data sub-data divided from voice data based on the speech section included in the voice data. For example, when the voice data is divided into two voice data sub-data (voice data first sub-data and voice data second sub-data) corresponding to two speech sections, the processor 110 divides the voice data into the first voice data sub-data. The start and end points of the data can be identified as 3 seconds and 32 seconds, respectively, and the start and end points of the second sub-data of the voice data can be identified as 1 minute 10 seconds and 1 minute 52 seconds, respectively. The detailed description of the start and end points of the voice data sub-data described above is only an example, and the present disclosure is not limited thereto.

또한, 프로세서(110)는 제 1 사용자 단말과 제 2 사용자 단말의 네트워크 패킷 교환을 통한 제 1 음성 데이터와 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화할 수 있다. 구체적으로, 프로세서(110)는 제 1 사용자 단말과 제 2 사용자 단말의 네트워크 패킷 교환을 통해 제 1 사용자 단말과 제 2 사용자 단말의 시작 시간 및 종료 시간의 오차를 측정하여 보정할 수 있다. 제 1 사용자 단말과 제 2 사용자 단말의 시간은 기본적으로 네트워크 타임 프로토콜(NETWORK TIME PROTOCOL)서버 동기화 될 수 있다. 제 1 사용자 단말과 제 2 사용자 단말의 보다 정확한 시간 동기화를 위해, 각각의 단말의 시작 시간과 종료 시간의 정보를 통계 분석 필터를 통해 처리하여 제 1 사용자 단말과 제 2 사용자 단말의 시간을 동기화할 수 있다. 통계 분석 필터는 상기 시작 시간과 종료시간의 비교 결과에 기초하여, 네트워크 상의 시간 차이를 연산할 수 있다. 통계 분석 필터는 연산 된 네트워크 상의 시간 차이에 기초하여, 상기 서술한 시간 동기화를 수행할 수 있다.Additionally, the processor 110 may synchronize the start and end times of the first voice data and the second voice data through network packet exchange between the first user terminal and the second user terminal. Specifically, the processor 110 may measure and correct errors in the start and end times of the first user terminal and the second user terminal through network packet exchange between the first user terminal and the second user terminal. The times of the first user terminal and the second user terminal can be basically synchronized with the NETWORK TIME PROTOCOL server. For more accurate time synchronization of the first user terminal and the second user terminal, the start time and end time information of each terminal is processed through a statistical analysis filter to synchronize the times of the first user terminal and the second user terminal. You can. The statistical analysis filter can calculate the time difference on the network based on the comparison result of the start time and end time. The statistical analysis filter can perform the time synchronization described above based on the calculated time difference on the network.

도 13는 본 개시의 일 실시예에 따른 제 1 음성 데이터와 제 2 음성 데이터의 시작 시점과 종료 시점을 동기화하는 예시도를 도시한다.FIG. 13 illustrates an example of synchronizing the start and end points of first voice data and second voice data according to an embodiment of the present disclosure.

또한, 본 개시의 일 실시예에 따르면, 프로세서(110)는 제 1 음성 데이터 서브 데이터와 제 2 음성 데이터 서브 데이터의 유사도에 기초하여 제 1 음성 데이터와 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화할 수 있다. 구체적으로, 제 1 음성 데이터(1310)와 제 2 음성 데이터(1320)에 기초한 각각의 음성 데이터 서브 데이터의 시간 지연을 측정하여 보정할 수 있다. 제 1 음성 데이터 서브 데이터와 제 2 음성 데이터 서브 데이터 간에 유사한 신호(1311, 1321)를 탐색하고, 유사한 신호를 기준으로 시간 지연을 측정하여 제 1 음성 데이터와 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화할 수 있다. 이때, 음성 신호 분석에는 FFT(FAST FOURIER TRANSFORM), MFCC(MEL-FREQUENCY CEPSTRAL COEFFICIENTS)등 다양한 특징추출 알고리즘들이 활용될 수 있다.In addition, according to an embodiment of the present disclosure, the processor 110 determines the start and end points of the first voice data and the second voice data based on the similarity between the first voice data sub-data and the second voice data sub-data. You can synchronize. Specifically, the time delay of each voice data subdata based on the first voice data 1310 and the second voice data 1320 can be measured and corrected. Search for similar signals (1311, 1321) between the first voice data sub-data and the second voice data sub-data, and measure the time delay based on the similar signals to determine the start and end points of the first voice data and the second voice data. can be synchronized. At this time, various feature extraction algorithms such as FFT (FAST FOURIER TRANSFORM) and MFCC (MEL-FREQUENCY CEPSTRAL COEFFICIENTS) can be used to analyze voice signals.

본 개시의 일 실시예에 따르면, 프로세서(110)는 통합 음성 데이터를 음성 인식 모델을 통해 음성 인식 결과로 변환하여 대화록을 생성할 수 있다. 이 경우, 통합 음성 데이터는 각각의 사용자 단말로부터 수신된 제 1 음성 데이터 및 제 2 음성 데이터에 기초하여 생성될 수 있다. 또한, 프로세서(110)는 제 1 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 1 음성 데이터 서브 데이터로 분할하고, 그리고 제 2 음성 데이터 서브 데이터를 발화 구간에 기초하여 하나 이상의 제 2 음성 데이터 서브 데이터로 분할할 수 있다. 예를 들어, 제 1 음성 데이터에서 식별된 발화 구간이 3개인 경우, 프로세서(110)는 제 1 음성 데이터를 3개의 발화 구간에 기초하여 제 1 음성 데이터 제 1 서브 데이터, 제 1 음성 데이터 제 2 서브 데이터 및 제 1 음성 데이터 제 3 서브 데이터로 각각 분할할 수 있다. 다른 예를 들어, 제 2 음성 데이터에서 식별된 발화 구간이 2개인 경우, 프로세서(110)는 제 2 음성 데이터를 2개의 발화 구간에 기초하여 제 2 음성 데이터 제 1 서브 데이터, 제 2 음성 데이터 제 2 서브 데이터로 각각 분할할 수 있다. 전술한 제 1 음성 데이터 및 제 2 음성 데이터가 포함하는 발화 구간의 구체적인 수치에 대한 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.According to an embodiment of the present disclosure, the processor 110 may generate a conversation log by converting integrated voice data into voice recognition results through a voice recognition model. In this case, integrated voice data may be generated based on the first voice data and second voice data received from each user terminal. Additionally, the processor 110 divides the first voice data into one or more first voice data subdata based on the speech section, and divides the second voice data subdata into one or more second voice data subdata based on the speech section. It can be divided into For example, when there are three speech sections identified in the first voice data, the processor 110 divides the first voice data into first voice data first sub-data and first voice data second based on the three speech sections. It can be divided into sub data, first voice data, and third sub data, respectively. For another example, when there are two speech sections identified in the second voice data, the processor 110 divides the second voice data into second voice data first sub-data and second voice data first based on the two speech sections. Each can be divided into 2 sub data. The description of specific values of speech sections included in the above-described first voice data and second voice data is only an example, and the present disclosure is not limited thereto.

도 14는 본 개시의 일 실시예에 따른 음성 신호 크기에 기초하여 화자를 분리하는 예시도를 도시한다.Figure 14 shows an example of separating speakers based on voice signal size according to an embodiment of the present disclosure.

*본 개시의 일 실시예에 따르면, 프로세서(110)는 제 1 음성 데이터와 제 2 음성 데이터에 기초하여 통합 음성 데이터를 생성할 수 있다. 구체적으로, 프로세서(110)는 제 1 음성 데이터와 제 2 음성 데이터 각각의 음성 신호 크기에 기초하여 화자를 구분하고, 분리된 화자 정보에 기초하여 통합 음성 데이터를 생성할 수 있다. 프로세서(110)는 제 1 음성 데이터와 제 2 음성 데이터 각각의 프레임에 대한 음성 신호 세기를 계산하여 제 1 음성 데이터 프레임과 제 2 음성 데이터 프레임 각각의 음성 신호 크기 비교를 통해 화자를 구분할 수 있다. 예를 들어, 프로세서(110)는 0초~20초 구간의 제 1 음성 데이터 프레임과 제 2 음성 데이터 프레임(1421) 각각의 음성 신호 크기를 비교할 수 있다. 프로세서(110)는 음성 신호 크기가 더 큰 제 2 음성 데이터 프레임(1421)을 화자로 구분할 수 있다. 프로세서(110)는 0~25초 구간의 화자를 제 2 사용자로 결정할 수 있다. 프로세서(110)는 25초~63초 구간의 제 1 음성 데이터 프레임(1411)과 제 2 음성 데이터 프레임 각각의 음성 신호 크기를 비교할 수 있다. 프로세서(110)는 음성 신호 크기가 더 큰 제 1 음성 데이터 프레임(1411)을 화자로 구분하여 25초~63초 구간의 화자를 제 1 사용자로 결정할 수 있다. 프로세서(110)는 63초~80초 구간의 제 1 음성 데이터 프레임과 제 2 음성 데이터 프레임(1422) 각각의 음성 신호 크기를 비교하여 음성 신호 크기가 더 큰 제 2 음성 데이터 프레임(1422)을 63초~80초 구간의 화자로 구분할 수 있다. 프로세서(110)는 63초~80초 구간의 화자를 제 2 사용자로 결정할 수 있다. 프로세서(110)는 각각의 구간에 대한 화자를 구분하여 통합 음성 데이터(1430)를 생성할 수 있다. 본 개시에서 음성 데이터 프레임은 음성 데이터에서 화자를 판단하기 위한 음성 데이터의 사전 결정된 시간 구간이 될 수 있다. 전술한 음성 데이터에 기초하여 화자를 구분하여 통합 음성 데이터를 생성하는 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.*According to an embodiment of the present disclosure, the processor 110 may generate integrated voice data based on the first voice data and the second voice data. Specifically, the processor 110 may distinguish speakers based on the audio signal size of each of the first voice data and the second voice data and generate integrated voice data based on the separated speaker information. The processor 110 may calculate the voice signal strength for each frame of the first voice data and the second voice data and distinguish the speaker by comparing the voice signal strength of the first voice data frame and the second voice data frame. For example, the processor 110 may compare the voice signal sizes of each of the first voice data frame and the second voice data frame 1421 in the period of 0 seconds to 20 seconds. The processor 110 may distinguish the second voice data frame 1421, which has a larger voice signal size, as the speaker. The processor 110 may determine the speaker in the 0 to 25 second period as the second user. The processor 110 may compare the voice signal size of each of the first voice data frame 1411 and the second voice data frame in the period of 25 seconds to 63 seconds. The processor 110 may classify the first voice data frame 1411, which has a larger voice signal, into speakers and determine the speaker in the 25 to 63 second period as the first user. The processor 110 compares the voice signal sizes of each of the first voice data frame and the second voice data frame 1422 in the period of 63 seconds to 80 seconds and selects the second voice data frame 1422, which has a larger voice signal size, at number 63. It can be classified into speakers ranging from 1 to 80 seconds. The processor 110 may determine the speaker from 63 seconds to 80 seconds as the second user. The processor 110 may generate integrated voice data 1430 by distinguishing speakers for each section. In the present disclosure, a voice data frame may be a predetermined time interval of voice data for determining a speaker in the voice data. The description of generating integrated voice data by distinguishing speakers based on the above-described voice data is only an example and the present disclosure is not limited thereto.

도 15은 본 개시의 일 실시예에 따른 통계적 음향 모델을 통한 화자를 구분하는 과정의 예시도를 도시한다.Figure 15 shows an example of a process for distinguishing speakers through a statistical acoustic model according to an embodiment of the present disclosure.

본 개시의 일 실시예에 따르면, 프로세서(110)는 제 1 음성 데이터와 제 2 음성 데이터에 기초하여 통계적 음향 모델을 통해 화자를 구분할 수 있다. According to an embodiment of the present disclosure, the processor 110 may distinguish speakers through a statistical acoustic model based on the first voice data and the second voice data.

보다 구체적으로, 프로세서(110)는 인접 프레임의 화자 정보에 기초하여 현재 시점 프레임의 화자를 구분할 수 있다. 예를 들어, 현재 시점 프레임(1520)의 화자 정보를 구분할 때, 이전 시점 프레임(1510)의 화자가 화자 A로 결정되어 있는 경우, 현재 시점 프레임(1520)의 화자가 이전 시점 프레임(1510)의 화자인 화자 A가 될 확률이 보다 높을 수 있다. 따라서, 통계적 음향 모델에 이전 시점 프레임(1510)의 화자 정보를 반영하여, 현재 시점 프레임(1520)의 화자를 결정하여 통합 음성 데이터를 생성할 수 있다. 또한, 프로세서(110)는 현재 시점 이후 프레임(1530)의 화자 정보가 결정되어 있는 경우, 현재 시점 이후 프레임(1530)의 화자 정보를 통계적 음향 모델에 반영하여, 현재 시점 프레임(1520)의 화자를 결정하여 통합 음성 데이터를 생성할 수 있다. 또한, 프로세서(110)는 인접 프레임에서의 화자와, 현재 프레임에서의 음성 신호의 크기에 기초하여 결정된 화자를 비교하여 현재 시점 프레임의 화자를 결정할 수 있다. 예를 들어, 프로세서(110)는 이전 시점 프레임(1510)에서의 화자가 A이고, 현재 시점 프레임(1520)에서의 음성 신호의 크기에 기초하여 결정된 화자가 B이고, 현재 시점 이후 프레임(1530)의 화자가 A인 경우, 통계적인 정보에 기초하여 현재 시점 프레임(1520)에서의 화자는 A이고, B의 음성 신호가 큰 것은 노이즈로 처리할 수도 있다. 전술한 인접한 프레임에 기초하여 화자를 구분하는 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.More specifically, the processor 110 may distinguish the speaker of the current frame based on speaker information of adjacent frames. For example, when distinguishing speaker information of the current viewpoint frame 1520, if the speaker of the previous viewpoint frame 1510 is determined to be speaker A, the speaker of the current viewpoint frame 1520 is the speaker of the previous viewpoint frame 1510. The probability that it will be speaker A may be higher. Therefore, by reflecting the speaker information of the previous viewpoint frame 1510 in the statistical acoustic model, the speaker of the current viewpoint frame 1520 can be determined to generate integrated voice data. In addition, when the speaker information of the frame 1530 after the current point is determined, the processor 110 reflects the speaker information of the frame 1530 after the current point in the statistical acoustic model to identify the speaker in the frame 1520 of the current point. By deciding, you can create integrated voice data. Additionally, the processor 110 may determine the speaker of the current frame by comparing the speaker in the adjacent frame with the speaker determined based on the size of the voice signal in the current frame. For example, the processor 110 determines that the speaker in the previous frame 1510 is A, the speaker determined based on the size of the voice signal in the current frame 1520 is B, and the speaker in the frame 1530 after the current frame is B. If the speaker is A, based on statistical information, the speaker at the current frame 1520 is A, and B's large voice signal may be treated as noise. The description of distinguishing speakers based on adjacent frames described above is only an example and the present disclosure is not limited thereto.

또한, 프로세서(110)는 제 1 음성 데이터와 제 2 음성 데이터 각각의 화자의 발화 시간 비율에 기초하여 화자를 구분할 수 있다. 보다 구체적으로, 프로세서(110)는 하나 이상의 제 1 음성 데이터 서브 데이터와 제 2 음성 데이터 서브 데이터 각각의 시작 시점과 종료 시점에 기초하여 중첩구간을 식별하였을 경우, 중첩 구간을 제외한 프레임의 화자에 기초하여 화자별 발화 시간 비율을 연산하여 화자를 구분할 수 있다. 프로세서(110)는 중첩된 구간을 제외한 제 1 음성 데이터의 발화 시간과 중첩된 구간을 제외한 제 2 음성 데이터의 발화 시간의 비율을 연산하여 발화 시간 비율이 큰 음성 데이터를 결정할 수 있다. 프로세서(110)는 발화 시간 비율이 큰 것으로 결정된 음성 데이터의 화자가 중첩 구간 프레임의 화자가 될 확률이 높다고 판단할 수 있다. 프로세서(110)는 통계적 음향 모델을 통해 연산된 하나 이상의 음성 데이터의 발화 시간 비율에 기초하여, 중첩 구간의 화자를 구분할 수 있다. 예를 들어, 프로세서(110)는 제 1 음성 데이터의 중첩된 구간이외의 발화 시간과 제 2 음성 데이터의 중첩구간이외의 발화 시간의 비율이 7대3일 수 있다. 프로세서(110)는 통계적 음향 모델을 이용하여 해당 비율을 반영하여 중첩구간 프레임의 화자를 제 1 음성 데이터의 화자로 결정할 수 있다. 전술한 중첩 구간에서의 화자를 구분하는 예시는 예시일 뿐, 본 개시에 제한되지 않는다.Additionally, the processor 110 may distinguish speakers based on the ratio of each speaker's speech time between the first voice data and the second voice data. More specifically, when the processor 110 identifies an overlapping section based on the start and end time of each of one or more first voice data subdata and one or more second voice data subdata, the processor 110 uses the overlapping section based on the speaker of the frame excluding the overlapping section. Thus, speakers can be distinguished by calculating the speech time ratio for each speaker. The processor 110 may calculate the ratio of the speech time of the first voice data excluding the overlapping section to the speech time of the second voice data excluding the overlapping section and determine voice data with a large speech time ratio. The processor 110 may determine that the speaker of the voice data determined to have a large speech time ratio has a high probability of being the speaker of the overlapping section frame. The processor 110 may distinguish speakers in the overlapping section based on the speech time ratio of one or more voice data calculated through a statistical acoustic model. For example, the processor 110 may have a ratio of speech time other than the overlapping section of the first voice data to speech time other than the overlapping section of the second voice data of 7 to 3. The processor 110 may determine the speaker of the overlapping section frame as the speaker of the first voice data by reflecting the corresponding ratio using a statistical acoustic model. The example of distinguishing speakers in the above-described overlapping section is only an example and is not limited to the present disclosure.

또한, 프로세서(110)는 중첩 구간 프레임의 이전 프레임에 대한 화자별 발화 시간 비율에 기초하여 화자를 구분할 수 있다. 보다 구체적으로, 프로세서(110)는 식별된 중첩구간이 사전 결정된 시간 비율 이후의 프레임인 경우, 중첩구간 이전 시점까지의 화자별 발화 시간 비율에 기초하여 통계적 음향 모델을 통해 중첩 구간 프레임의 화자를 구분할 수 있다. 예를 들어, 프로세서(110)는 제 1 사용자 단말과 제 2 사용자 단말의 30분 동안 대화에서 중첩 구간 프레임의 시작 시점이 14분10초일 수 있다. 사전 결정된 시간 비율이 20퍼센트라고 할 때, 중첩 구간 프레임은 사전 결정된 시간 비율에 해당하는 6분 이후의 시점일 수 있다. 중첩 구간 프레임 이전 시점인 14분 10초까지의 제 1 사용자 단말과 제 2 사용자 단말 각각의 음성 데이터의 발화 시간 비율이 7대 3 일 수 있다. 프로세서(110)는 중첩 구간 프레임 이전 시점까지의 발화 비율에 기초하여 통계적 음향 모델을 통해 제 1 사용자 단말의 화자를 중첩 구간 프레임의 화자로 결정할 수 있다. 전술한 화자 결정 방법에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.Additionally, the processor 110 may distinguish speakers based on the ratio of speech time for each speaker to the previous frame of the overlapping section frame. More specifically, if the identified overlap section is a frame after a predetermined time ratio, the processor 110 can distinguish speakers in the overlap section frame through a statistical acoustic model based on the rate of speech time for each speaker up to the point before the overlap section. You can. For example, the processor 110 may set the start point of the overlapping section frame at 14 minutes and 10 seconds in a conversation between the first user terminal and the second user terminal for 30 minutes. Assuming that the predetermined time ratio is 20 percent, the overlapping interval frame may be a point in time after 6 minutes corresponding to the predetermined time ratio. The speech time ratio of each voice data of the first user terminal and the second user terminal up to 14 minutes and 10 seconds before the overlap section frame may be 7 to 3. The processor 110 may determine the speaker of the first user terminal as the speaker of the overlapping section frame through a statistical acoustic model based on the speech rate up to the point before the overlapping section frame. The detailed description of the speaker determination method described above is only an example and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따르면, 프로세서(110)는 통합 음성 데이터를 음성 인식 모델을 이용하여 대화록을 생성할 수 있다. 프로세서(110)는 제 1 사용자 단말로부터 수신된 제 1 음성 데이터와 제 2 사용자 단말로부터 수신된 제 2 음성 데이터에 기초하여 통합 음성 데이터를 생성할 수 있다. 프로세서(110)는 생성된 통합 음성 데이터를 음성 인식 모델을 이용하여 대화록을 생성할 수 있다. 구체적으로, 프로세서(110)는 제 1 음성 데이터와 제 2 음성 데이터를 믹스 다운하여 통합 음성 데이터를 생성할 수 있다. 제 1 음성 데이터와 제 2 음성 데이터를 믹스 다운할 때, 프로세서(110)는 제 1 음성 데이터와 제 2 음성 데이터의 각각의 프레임별 화자 정보를 기초로 통합 음성 데이터의 프레임의 화자를 결정할 수 있다. 또한, 프로세서(110)는 통합 음성 데이터를 음성 인식 모델을 통해 연산함으로써, 텍스트 형태의 대화록을 생성할 수 있다. 이 경우, 음성 인식 모델은 사용자가 말하는 음성 언어를 문자 데이터로 전환하는 모델일 수 있다. 음성 인식 모델은 학습 데이터를 통해 사전 학습된 하나 이상의 네트워크 함수를 포함할 수 있다. According to an embodiment of the present disclosure, the processor 110 may generate a conversation record using integrated voice data using a voice recognition model. The processor 110 may generate integrated voice data based on first voice data received from the first user terminal and second voice data received from the second user terminal. The processor 110 may generate a conversation record using the generated integrated voice data using a voice recognition model. Specifically, the processor 110 may mix down the first voice data and the second voice data to generate integrated voice data. When mixing down the first voice data and the second voice data, the processor 110 may determine the speaker of the frame of the integrated voice data based on speaker information for each frame of the first voice data and the second voice data. . Additionally, the processor 110 can generate a conversation log in text form by calculating integrated voice data through a voice recognition model. In this case, the voice recognition model may be a model that converts the voice language spoken by the user into text data. A speech recognition model may include one or more network functions pre-trained through training data.

본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 음성 데이터 서브 데이터 각각을 음성 인식 모델의 입력으로 하여 하나 이상의 음성 데이터 서브 데이터 각각에 대응하는 하나 이상의 음성 인식 서브 결과를 출력할 수 있다. 이 경우, 음성 인식 모델은 사용자가 말하는 음성 언어를 문자 데이터로의 전환을 수행하는 모델로, 학습 데이터를 통해 사전 학습된 하나 이상의 네트워크 함수를 포함할 수 있다. 또한, 프로세서(110)는 하나 이상의 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 상기 대화록 상에서 하나 이상의 음성 인식 서브 결과 각각의 순서를 결정할 수 있다. 구체적인 예를 들어, 프로세서(110)는 음성 데이터 제 1 서브 데이터 및 음성 데이터 제 2 서브 데이터 각각을 음성 인식 모델에 입력하여 음성 인식 제 1 서브 결과 및 음성 인식 제 2 서브 결과를 출력할 수 있다. 프로세서(110)는 음성 인식 제 1 서브 결과의 출력에 기초한 음성 데이터 제 1 서브 데이터의 시작 시점 및 종료 시점을 3초 및 32초로 각각 식별하고, 그리고 음성 인식 제 2 서브 결과의 출력에 기초한 음성 데이터 제 2 서브 데이터의 시작 시점 및 종료 시점을 1분 10초 및 1분 52초로 각각 식별할 수 있다. 프로세서(110)는 판단된 시점 정보에 기초하여 음성 인식 제 1 서브 결과와 음성 인식 제 2 서브 결과의 대화록 상에서의 순서를 결정할 수 있다. 즉, 프로세서(110)는 하나 이상의 음성 인식 서브 결과를 상기 하나 이상의 음성 인식 서브 결과 각각에 대응하는 음성 데이터 서브 데이터의 시작 시점 및 종료 시점을 식별하고, 그리고 상기 식별된 시작 시점 및 종료 시점 중 적어도 하나에 기초하여 하나 이상의 음성 인식 서브 결과 각각이 대화록에서 표시되는 순서를 결정할 수 있다. 즉, 대화록에서 하나 이상의 음성 인식 서브 결과는 시작 시점 및 종료 시점에 따라 순서대로 배치될 수 있다. 예를 들어, 음성 인식 제 1 서브 결과의 시작 시점이 음성 인식 제 2 서브 결과의 시작 시점보다 빠른 경우, 프로세서(110)는 음성 인식 제 1 서브 결과가 대화록에서 음성 인식 제 2 서브 결과보다 먼저 표시되도록 순서를 결정할 수 있다. 다른 예를 들어, 음성 인식 제 2 서브 결과의 종료 시점이 제 1 음성 인식 결과의 종료 시점보다 빠른 경우, 프로세서(110)는 음성 인식 제 2 서브 결과가 대화록에서 음성 인식 제 1 서브 결과보다 먼저 표시되도록 순서를 결정할 수도 있다. 전술한 음성 인식 제 1 서브 결과 및 음성 인식 제 2 서브 결과에 대응하는 시작 시점 및 종료 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.According to an embodiment of the present disclosure, the processor 110 may use each of one or more voice data sub-data as input to a voice recognition model and output one or more voice recognition sub-results corresponding to each of the one or more voice data sub-data. . In this case, the voice recognition model is a model that converts the voice language spoken by the user into text data, and may include one or more network functions pre-trained through training data. In addition, the processor 110 may determine the order of each of the one or more voice recognition sub-results in the conversation log based on the start and end points identified in each voice data sub-data that is the basis of the one or more voice recognition sub-results. . For a specific example, the processor 110 may input first voice data sub-data and second voice data sub-data into a voice recognition model and output a first voice recognition sub-result and a second voice recognition sub-result. The processor 110 identifies the start and end times of the first sub-data of voice data based on the output of the voice recognition first sub-result as 3 seconds and 32 seconds, respectively, and the voice data based on the output of the voice recognition second sub-result. The start and end times of the second sub data can be identified as 1 minute 10 seconds and 1 minute 52 seconds, respectively. The processor 110 may determine the order of the first voice recognition sub-result and the second voice recognition sub-result in the conversation record based on the determined viewpoint information. That is, the processor 110 identifies a start point and an end point of voice data sub-data corresponding to each of the one or more voice recognition sub-results, and at least one of the identified start points and end points. Based on this, the order in which each of one or more voice recognition sub-results is displayed in the conversation log can be determined. That is, in the conversation log, one or more voice recognition sub-results may be arranged in order according to the start time and end time. For example, if the start time of the first sub-result of speech recognition is earlier than the start time of the second sub-result of speech recognition, the processor 110 displays the first sub-result of speech recognition before the second sub-result of speech recognition in the conversation log. You can decide the order as much as possible. For another example, if the end time of the second voice recognition sub-result is earlier than the end time of the first voice recognition result, the processor 110 displays the second voice recognition sub-result before the first voice recognition sub-result in the conversation log. You can also decide the order if possible. The specific description of the start and end points corresponding to the above-described first sub-result of voice recognition and second sub-result of voice recognition is only an example, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성할 수 있다. 이 경우, 하나 이상의 음성 데이터는 각각의 사용자 단말로부터 수신된 제 1 음성 데이터 및 제 2 음성 데이터를 포함할 수 있다. 또한, 프로세서(110)는 제 1 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 1 음성 데이터 서브 데이터로 분할하고, 그리고 제 2 음성 데이터 서브 데이터를 발화 구간에 기초하여 하나 이상의 제 2 음성 데이터 서브 데이터로 분할할 수 있다. 예를 들어, 제 1 음성 데이터에서 식별된 발화 구간이 3개인 경우, 프로세서(110)는 제 1 음성 데이터를 3개의 발화 구간에 기초하여 제 1 음성 데이터 제 1 서브 데이터, 제 1 음성 데이터 제 2 서브 데이터 및 제 1 음성 데이터 제 3 서브 데이터로 각각 분할할 수 있다. 다른 예를 들어, 제 2 음성 데이터에서 식별된 발화 구간이 2개인 경우, 프로세서(110)는 제 2 음성 데이터를 2개의 발화 구간에 기초하여 제 2 음성 데이터 제 1 서브 데이터, 제 2 음성 데이터 제 2 서브 데이터로 각각 분할할 수 있다. 전술한 제 1 음성 데이터 및 제 2 음성 데이터가 포함하는 발화 구간의 구체적인 수치에 대한 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. According to an embodiment of the present disclosure, the processor 110 may generate a conversation record by converting each of one or more voice data into one or more voice recognition results through a voice recognition model. In this case, the one or more voice data may include first voice data and second voice data received from each user terminal. Additionally, the processor 110 divides the first voice data into one or more first voice data subdata based on the speech section, and divides the second voice data subdata into one or more second voice data subdata based on the speech section. It can be divided into For example, when there are three speech sections identified in the first voice data, the processor 110 divides the first voice data into first voice data first sub-data and first voice data second based on the three speech sections. It can be divided into sub data, first voice data, and third sub data, respectively. For another example, when there are two speech sections identified in the second voice data, the processor 110 divides the second voice data into second voice data first sub-data and second voice data first based on the two speech sections. Each can be divided into 2 sub data. The description of specific values of speech sections included in the above-described first voice data and second voice data is only an example, and the present disclosure is not limited thereto.

또한, 프로세서(110)는 하나 이상의 제 1 음성 데이터 서브 데이터 및 하나 이상의 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별할 수 있다. 예를 들어, 제 1 음성 데이터가 3개의 발화 구간에 기초하여 제 1 음성 데이터 제 1 서브 데이터, 제 1 음성 데이터 제 2 서브 데이터 및 제 1 음성 데이터 제 3 서브 데이터로 분할되고, 제 2 음성 데이터가 2개의 발화 구간에 기초하여 제 2 음성 데이터 제 1 서브 데이터 및 제 2 음성 데이터 제 2 서브 데이터로 분할된 경우, 프로세서(110)는 상기 5 개의 음성 데이터 서브 데이터의 시작 시점을 각각 10초(제 1 음성 데이터 제 1 서브 데이터), 21초(제 1 음성 데이터 제 2 서브 데이터), 32초(제 1 음성 데이터 제 3 서브 데이터), 17초(제 2 음성 데이터 제 1 서브 데이터) 및 25초(제 2 음성 데이터 제 2 서브 데이터)로 식별할 수 있다. 전술한 음성 데이터 서브 데이터의 시작 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.Additionally, the processor 110 may identify the start time and end time of each of one or more first voice data subdata and one or more second voice data subdata. For example, the first voice data is divided into first voice data first sub-data, first voice data second sub-data, and first voice data third sub-data based on three speech sections, and the second voice data When is divided into second voice data first sub-data and second voice data second sub-data based on two speech sections, the processor 110 sets the start time of the five voice data sub-data to 10 seconds each ( 1st voice data 1st sub data), 21 seconds (1st voice data 2nd sub data), 32 seconds (1st voice data 3rd sub data), 17 seconds (2nd voice data 1st sub data) and 25 seconds. It can be identified by seconds (second voice data, second sub data). The detailed description of the start point of the voice data sub-data described above is only an example, and the present disclosure is not limited thereto.

또한, 프로세서(110)는 하나 이상의 제 1 음성 데이터 서브 데이터 및 하나 이상의 제 2 음성 데이터 서브 데이터를 음성 인식 모델의 입력으로 하여 각각의 서브 데이터 각각에 대응하는 하나 이상의 제 1 음성 인식 서브 결과 및 하나 이상의 제 2 음성 인식 서브 결과를 출력할 수 있다. 예를 들어, 음성 인식 모델에 제 1 음성 데이터 제 1 서브 데이터가 입력된 경우, 제 1 음성 인식 제 1 서브 결과를 출력할 수 있으며, 제 2 음성 데이터 제 1 서브 데이터를 입력된 경우, 제 2 음성 인식 제 2 서브 결과를 출력할 수 있다.In addition, the processor 110 uses one or more first voice data sub-data and one or more second voice data sub-data as input to the voice recognition model, and generates one or more first voice recognition sub-results corresponding to each sub-data and one or more first voice recognition sub-data and one or more first voice recognition sub-data corresponding to each sub-data. The above second voice recognition sub-results can be output. For example, when first voice data first sub-data is input to the voice recognition model, the first voice recognition first sub-result may be output, and when second voice data first sub-data is input, the second voice recognition model may output the first sub-data. The voice recognition second sub result can be output.

또한, 프로세서(110)는 하나 이상의 제 1 음성 인식 서브 결과 및 하나 이상의 제 2 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 대화록 상에서 하나 이상의 제 1 음성 인식 서브 결과 및 하나 이상의 제 2 음성 인식 서브 결과 각각이 표시되는 순서를 결정할 수 있다. 구체적인 예를 들어, 전술한 예시에서 제 1 음성 인식 제 1 서브 결과, 제 1 음성 인식 제 2 서브 결과, 제 1 음성 인식 제 3 서브 결과, 제 2 음성 인식 제 1 서브 결과 및 제 2 음성 인식 제 2 서브 결과 각각이 제 1 음성 데이터 제 1 서브 데이터, 제 1 음성 데이터 제 2 서브 데이터, 제 1 음성 데이터 제 3 서브 데이터, 제 2 음성 데이터 제 1 서브 데이터 및 제 2 음성 데이터 서브 데이터에 기초하여 생성될 수 있다. 프로세서(110)는 상기 5개 음성 인식 서브 결과 생성에 기초가 된 상기 5개의 음성 데이터 서브 데이터의 시작 시점을 각각 10초(제 1 음성 데이터 제 1 서브 데이터), 21초(제 1 음성 데이터 제 2 서브 데이터), 32초(제 1 음성 데이터 제 3 서브 데이터), 17초(제 2 음성 데이터 제 1 서브 데이터) 및 25초(제 2 음성 데이터 제 2 서브 데이터)로 식별할 수 있다. 또한, 프로세서(110)는 상기 식별된 시작 시점에 기초하여 5개의 음성 인식 서브 결과이 대화록에서 표시되는 순서를 결정할 수 있다. 즉, 대화록에는 제 1 음성 인식 제 1 서브 결과(10초), 제 2 음성 인식 제 1 서브 결과(17초), 제 1 음성 인식 제 2 서브 결과(21초), 제 2 음성 인식 제 2 서브 결과(25초), 제 1 음성 인식 제 3 서브 결과(32초) 순으로 배치될 수 있다.In addition, the processor 110 may perform one or more first voice recognition sub-results in the conversation record based on the start and end points identified in each voice data sub-data that is the basis of one or more first voice recognition sub-results and one or more second voice recognition sub-results. The order in which each of the first voice recognition sub-result and one or more second voice recognition sub-results are displayed may be determined. For a specific example, in the above example, the first sub-result of voice recognition, the second sub-result of first voice recognition, the third sub-result of first voice recognition, the first sub-result of second voice recognition, and the second sub-result of voice recognition. Each of the two sub results is based on the first voice data first subdata, the first voice data second subdata, the first voice data third subdata, the second voice data first subdata, and the second voice data subdata. can be created. The processor 110 sets the start time of the five voice data sub-data, which are the basis for generating the five voice recognition sub-results, to 10 seconds (first voice data first sub-data) and 21 seconds (first voice data first sub-data), respectively. 2 subdata), 32 seconds (first voice data, third subdata), 17 seconds (second voice data, first subdata), and 25 seconds (second voice data, second subdata). Additionally, the processor 110 may determine the order in which the five voice recognition sub-results are displayed in the conversation log based on the identified start point. That is, the conversation log contains the first sub-result of voice recognition (10 seconds), the first sub-result of second voice recognition (17 seconds), the second sub-result of first voice recognition (21 seconds), and the second sub-result of second voice recognition. It may be arranged in the following order: result (25 seconds), first voice recognition third sub-result (32 seconds).

또한, 프로세서(110)는 하나 이상의 제 1 음성 인식 서브 결과 및 하나 이상의 제 2 음성 인식 서브 결과 각각의 결정된 순서 및 하나 이상의 사용자 단말(10) 각각의 식별 정보에 기초하여 대화록을 생성할 수 있다. 예를 들어, 프로세서(110)는 하나 이상의 제 1 음성 인식 서브 결과 각각에 매칭된 제 1 사용자 단말의 식별 정보에 기초하여 화자를 식별할 수 있다. 또한 프로세서(110)는 하나 이상의 제 2 음성 인식 서브 결과 각각에 매칭된 제 2 사용자 단말의 식별 정보에 기초하여 화자를 식별할 수 있다. 이에 따라, 각각의 음성 인식 서브 결과는 각각의 사용자 단말의 식별 정보에 기초하여 채팅창의 형태로 대화록에 기록될 수 있다. 즉, 프로세서(110)는 발화자 각각(예를 들어, 제 1 사용자 단말을 사용하는 제 1 사용자 및 제 2 사용자 단말을 사용하는 제 2 사용자)이 분리된 대화록을 생성할 수 있다.Additionally, the processor 110 may generate a conversation record based on the determined order of each of the one or more first voice recognition sub-results and one or more second voice recognition sub-results and the identification information of each of the one or more user terminals 10. For example, the processor 110 may identify the speaker based on the identification information of the first user terminal matched to each of one or more first voice recognition sub-results. Additionally, the processor 110 may identify the speaker based on the identification information of the second user terminal matched to each of one or more second voice recognition sub-results. Accordingly, each voice recognition sub-result can be recorded in the conversation log in the form of a chat window based on the identification information of each user terminal. That is, the processor 110 may generate a conversation log in which each speaker (eg, a first user using a first user terminal and a second user using a second user terminal) is separated.

본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 제 1 음성 데이터 서브 데이터 및 하나 이상의 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 기초하여 복수의 사용자의 발화의 중첩 구간을 식별할 수 있다. 이때, 제 1 음성 데이터 서브 데이터는 제 1 사용자 단말을 통해 수신한 제 1 음성 데이터에 포함되는 것이며, 제 2 음성 데이터 서브 데이터는 제 2 사용자 단말을 통해 수신한 제 2 음성 데이터에 포함되는 것으로, 각각이 상이한 사용자 단말로부터 수신한 음성 데이터에 기초하여 생성된 것일 수 있다. 구체적으로, 프로세서(110)는 각각이 상이한 단말로부터 수신한 제 1 음성 데이터 및 제 2 음성 데이터를 각각의 발화 구간에 기초하여 분할한 하나 이상의 제 1 음성 데이터 서브 데이터 및 하나 이상의 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 통해 각각의 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터가 시간적으로 중첩되는지 여부를 식별할 수 있다. 즉, 프로세서(110)는 각각의 음성 데이터에서 복수의 사용자의 복수의 발화 중 발화가 중첩되는 구간을 식별할 수 있다. 예를 들어, 제 1 사용자 단말을 통해 수신한 제 1 음성 데이터에 포함된 제 1 음성 데이터 제 1 서브 데이터, 제 1 음성 데이터 제 2 서브 데이터 및 제 1 음성 데이터 제 3 서브 데이터 각각의 시작 및 종료 시점이 각각 10~15초, 21~28초, 32~35초이며 제 2 사용자 단말을 통해 수신한 제 2 음성 데이터에 포함된 제 2 음성 데이터 제 1 서브 데이터, 제 2 음성 데이터 제 2 서브 데이터 각각의 시작 및 종료 시점이 각각 17~20초, 25~31초인 경우, 프로세서(110)는 제 1 음성 데이터 제 2 서브 데이터와 제 2 음성 데이터 제 2 서브 데이터가 중첩됨을 식별하여 25초에서 28초까지를 중첩 구간으로 식별할 수 있다. 전술한 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과 각각의 시작 시점 및 종료 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.According to an embodiment of the present disclosure, the processor 110 creates overlapping sections of utterances of a plurality of users based on the start and end points of each of one or more first voice data subdata and one or more second voice data subdata. can be identified. At this time, the first voice data subdata is included in the first voice data received through the first user terminal, and the second voice data subdata is included in the second voice data received through the second user terminal, Each may be generated based on voice data received from different user terminals. Specifically, the processor 110 divides the first voice data and the second voice data received from different terminals into one or more first voice data sub-data and one or more second voice data sub-data divided based on each speech section. It is possible to identify whether the first voice data sub-data and the second voice data sub-data overlap in time through the start and end points of each data. That is, the processor 110 can identify a section in which utterances of a plurality of utterances from a plurality of users overlap in each voice data. For example, the start and end of each of the first voice data first subdata, the first voice data second subdata, and the first voice data third subdata included in the first voice data received through the first user terminal. The time points are 10 to 15 seconds, 21 to 28 seconds, and 32 to 35 seconds, respectively, and are included in the second voice data received through the second user terminal. Second voice data first subdata, second voice data second subdata When each start and end time is 17 to 20 seconds and 25 to 31 seconds, respectively, the processor 110 identifies that the first voice data second sub data and the second voice data second sub data overlap, and the second voice data second sub data overlaps from 25 seconds to 28 seconds. Up to second can be identified as an overlapping section. The detailed description of the start and end points of each of the above-described first and second voice recognition sub-results is merely an example, and the present disclosure is not limited thereto.

또한, 프로세서(110)는 중첩 구간이 식별된 경우, 중첩 구간에 대응하는 음성 인식 서브 결과의 순서를 결정할 수 있다. 이하의 예시에서 제 1 음성 인식 서브 결과는 제 1 사용자 단말로부터 수신된 제 1 음성 데이터에 포함된 제 1 음성 데이터의 서브 데이터 중 하나에 대한 음성 인식 서브 결과이고, 제 2 음성 인식 서브 결과는 제 2 사용자 단말로부터 수신된 제 2 음성 데이터에 포함된 제 2 음성 데이터의 서브 데이터 중 하나에 대한 음성 인식 서브 결과일 수 있다. 프로세서(110)는 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과가 서로 중첩되는 시간의 발화임을 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터의 시간 정보에 기초하여 식별할 수 있다. 이 경우, 프로세서(110)는 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과의 대화록 상에서의 순서를 사전 결정된 기준에 따라 결정할 수 있다. 예를 들어, 프로세서(110)는 제 1 음성 인식 서브 결과의 기초가 된 제 1 음성 데이터 서브 데이터의 시작 시간이 제 2 음성 데이터 서브 데이터의 시작 시간보다 빠른 경우, 대화록 상에서 제 1 음성 인식 서브 결과를 제 2 음성 인식 서브 결과보다 먼저 배치할 수 있다. Additionally, when an overlapping section is identified, the processor 110 may determine the order of voice recognition sub-results corresponding to the overlapping section. In the following example, the first voice recognition sub-result is a voice recognition sub-result for one of the sub-data of the first voice data included in the first voice data received from the first user terminal, and the second voice recognition sub-result is the first voice recognition sub-result. 2 It may be a voice recognition sub-result for one of the sub-data of the second voice data included in the second voice data received from the user terminal. The processor 110 may identify that the first voice recognition sub-result and the second voice recognition sub-result are utterances of overlapping times based on time information of the first voice data sub-data and the second voice data sub-data. In this case, the processor 110 may determine the order of the first voice recognition sub-result and the second voice recognition sub-result in the conversation log according to a predetermined standard. For example, if the start time of the first voice data sub-data that is the basis of the first voice recognition sub-result is earlier than the start time of the second voice data sub-data, the processor 110 may select the first voice recognition sub-result in the conversation log. can be placed before the second voice recognition sub-result.

또한, 프로세서(110)는 중첩 구간에 대응하는 음성 인식 서브 결과 중 적어도 하나를 분할할 수도 있다. 구체적으로, 프로세서(110)는 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과 각각의 출력에 기초가 된 제 1 음성 데이터 서브 세트 및 제 2 음성 데이터 서브 세트 각각의 시작 시점 및 종료 시점에 기초하여 발화에 중첩이 식별되는 경우, 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과 중 적어도 하나의 서브 결과를 분할할 것을 결정할 수 있다. 보다 구체적으로, 프로세서(110)는 제 1 음성 인식 서브 결과의 기초가 된 제 1 음성 데이터 서브 데이터의 시작 및 종료 시간 사이에 제 2 음성 데이터 서브 데이터가 시작되는 경우, 제 1 음성 인식 서브 결과를 제 2 음성 데이터 서브 데이터의 시작 시간에 기초하여 분할할 수 있다. 예를 들어, 제 1 음성 데이터 서브데이터가 10초짜리 발화를 포함한 데이터인 경우에, 제 1 음성 데이터 서브 데이터의 발화 시작 후 5초 뒤에 제 2 음성 데이터 서브데이터의 발화가 시작된 경우라고 가정할 수 있다. 이 경우, 프로세서(110)는 제 1 음성 데이터 서브데이터의 10초간 발화에 대한 음성 인식 결과인 제 1 음성 인식 서브 결과를 5초를 기준으로 분할하여 대화록 상에 배치할 수 있다. 즉, 본 예시에서 프로세서(110)는 대화록 상에서 제 1 음성 인식 서브 결과의 0초에서 5초 사이의 구간의 제 1 텍스트, 제 2 음성 인식 서브 결과의 텍스트, 제 1 음성 인식 서브 결과의 5초에서 10초 사이 구간의 제 2 텍스트를 순서대로 배치할 수 있다. 전술한 음성 데이터 서브 데이터의 시간 및 분할에 관련한 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다. Additionally, the processor 110 may divide at least one of the voice recognition sub-results corresponding to the overlapping section. Specifically, the processor 110 is based on the start and end points of each of the first voice data subset and the second voice data subset, which are based on the output of each of the first voice recognition sub-result and the second voice recognition sub-result. Thus, when an overlap in the utterance is identified, it may be determined to split at least one of the first voice recognition sub-result and the second voice recognition sub-result. More specifically, if the second voice data sub-data starts between the start and end times of the first voice data sub-data that is the basis of the first voice recognition sub-result, the processor 110 generates the first voice recognition sub-result. It can be divided based on the start time of the second voice data subdata. For example, if the first voice data subdata is data including a 10-second utterance, it can be assumed that the utterance of the second voice data subdata starts 5 seconds after the start of the utterance of the first voice data subdata. there is. In this case, the processor 110 may divide the first voice recognition sub-result, which is a voice recognition result for a 10-second utterance of the first voice data subdata, into segments based on 5 seconds and place them on the conversation log. That is, in this example, the processor 110 selects the first text in the interval between 0 and 5 seconds of the first voice recognition sub-result, the text of the second voice recognition sub-result, and 5 seconds of the first voice recognition sub-result in the conversation log. The second text in the section between 10 seconds can be arranged in order. The description regarding the time and division of voice data sub-data described above is only an example and the present disclosure is not limited thereto.

또한, 프로세서(110)는 중첩 구간이 식별된 경우 각각의 음성 인식 서브 결과를 의미에 기초하여 분할할 수도 있다. 프로세서(110)는 음성 인식 서브 결과에 대한 자연어 처리에 기초하여 음성 인식 서브 결과의 분할 지점을 결정할 수 있다. 또한, 프로세서(110)는 중첩 구간에 대응하는 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과 각각을 통계적 언어 모델을 기반으로 각 음성 인식 서브 결과에 포함된 단어들의 조합 확률을 분석함으로써, 각 음성 인식 서브 결과에 대한 문장에서의 끝 지점을 판정할 수 있다. 이때, 통계적 언어 모델은, 문장의 확률을 계산하거나, 또는 이전 단어들이 입력된 경우, 다음 단어가 나올 확률에 대한 계산이 가능한 모델일 수 있으며, 단어들의 조합이 얼마나 적절한지, 또는 해당 문장이 얼마나 적합한지를 판정할 수 있는 모델일 수 있다. 또한, 프로세서(110)는 각각의 음성 인식 서브 결과에 판정된 끝 지점에 기초하여 음성 인식 서브 결과의 분할 여부를 결정할 수 있다. 예를 들어, 제 1 음성 데이터 서브 데이터의 시작 시점 및 종료 시점이 각각 5초 및 20초로 식별되고, 제 2 음성 데이터 서브 데이터의 시작 시점 및 종료 시점이 각각 12초 및 18초로 식별된 경우(즉, 12초에서 18초사이의 6초간의 발화의 중첩 구간이 식별된 경우), 프로세서(110)는 제 1 음성 인식 서브 결과를 통계적 언어 모델의 입력으로 하여 제 1 음성 인식 서브 결과에 포함된 각각의 단어 및 각각의 단어의 복수의 조합에 대한 적합도를 출력함으로써, 제 1 음성 인식 서브 결과에 대한 문장에서의 끝 지점을 판정할 수 있다. 또한, 프로세서(110)는 제 1 음성 인식 서버 결과에서 끝 지점이 판정된 경우, 상기 제 1 음성 인식 서브 결과를 분할할 것을 결정할 수 있다. 보다 구체적인 예를 들어, 전술한 중첩 구간을 포함하는 음성 데이터의 발화를, "저작권 관련 상담을 받고 싶어 찾아 뵙게 (저작권 관련이요?) 되었습니다. 네 맞습니다." 로 가정한다. 전술한 가정에서 괄호 내의 발화는 제 2 화자(즉, 제 2 음성 데이터로부터 인식된 발화)이고, 괄호 밖의 발화는 제 1 화자(즉, 제 1 음성 데이터로부터 인식된 발화)일 수 있다. 통계적 언어 모델은 이 경우, 제 1 음성 인식 서브 결과에 포함된 단어 각각이 '저작권', '관련', '상담을', '받고', '싶어', '찾아', '뵙게', '되었습니다', '네', '맞습니다.'를 인식하고, '되었습니다' 와 '네' 라는 단어들의 조합 적합도를 보다 낮게 출력할 수 있으며, 이에 따라, 프로세서(110)는 '되었습니다'를 문장에서의 끝지점으로 판정할 수 있다. 또한, 프로세서(110)는 제 1 음성 인식 서브 결과에서 판정된 문장에서의 끝 지점에 기초하여 상기 제 1 음성 인식 서브 결과를 분할할 것을 결정할 수 있다. 전술한, 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. Additionally, the processor 110 may divide each voice recognition sub-result based on meaning when an overlapping section is identified. The processor 110 may determine a division point of the voice recognition sub-result based on natural language processing of the voice recognition sub-result. In addition, the processor 110 analyzes the combination probability of words included in each of the first and second voice recognition sub-results corresponding to the overlapping section based on a statistical language model, thereby The end point in the sentence for the voice recognition sub result can be determined. At this time, the statistical language model may be a model that can calculate the probability of a sentence, or calculate the probability of the next word appearing when previous words are input, how appropriate the combination of words is, or how long the sentence is. It may be a model that can determine whether it is suitable. Additionally, the processor 110 may determine whether to divide the voice recognition sub-results based on the end point determined for each voice recognition sub-result. For example, if the start and end points of the first voice data sub-data are identified as 5 seconds and 20 seconds, respectively, and the start and end points of the second voice data sub-data are identified as 12 seconds and 18 seconds, respectively (i.e. , when an overlapping section of 6 seconds of speech between 12 and 18 seconds is identified), the processor 110 uses the first voice recognition sub-result as an input to the statistical language model and By outputting the degree of suitability for the words and multiple combinations of each word, the ending point in the sentence for the first voice recognition sub-result can be determined. Additionally, when an end point is determined in the first voice recognition server result, the processor 110 may determine to divide the first voice recognition sub-result. For a more specific example, an utterance of voice data containing the above-mentioned overlapping section would be, "I came to see you because I wanted to consult about copyright (copyright-related?). Yes, that's right." Assume: In the above-described assumption, the utterance within the parentheses may be from the second speaker (i.e., the utterance recognized from the second speech data), and the utterance outside the parentheses may be from the first speaker (i.e., the utterance recognized from the first speech data). In this case, the statistical language model said that each of the words included in the first speech recognition sub-result was 'copyright', 'related', 'consultation', 'receiving', 'want', 'find', 'see you', and ' ', 'Yes', and 'That's correct' can be recognized, and the suitability of the combination of the words 'It has been done' and 'Yes' can be output at a lower level. Accordingly, the processor 110 can set 'It has been' at the end of the sentence. It can be judged by point. Additionally, the processor 110 may determine to divide the first voice recognition sub-result based on the ending point in the sentence determined in the first voice recognition sub-result. The above-described specific description of the start and end points of each of the first voice data subdata and the second voice data subdata is only an example, and the present disclosure is not limited thereto.

또한, 프로세서(110)는 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과 중 적어도 하나에 대한 분할이 결정된 경우, 중첩 구간에 대응하는 음성 인식 서브 결과를 분할할 수 있다. 구체적인 예를 들어, 제 1 음성 데이터 서브 데이터의 시작 시점 및 종료 시점이 각각 5초 및 20초로 식별되고, 제 2 음성 데이터 서브 데이터의 시작 시점 및 종료 시점이 각각 12초 및 18초로 식별되어 중첩 구간 존재함이 식별되고, 그리고 제 1 음성 인식 서브 결과에 포함된 단어 각각이 '저작권', '관련', '상담을', '받고', '싶어', '찾아', '뵙게', '되었습니다', '네', '맞습니다.'이며, 제 2 음성 인식 서브 결과에 포함된 단어 각각이 '저작권' 및 '관련이요?'인 경우, 프로세서(110)는 통계적 언어 모델에서 출력된 단어들의 조합에 대한 적합도에 기초하여 제 1 음성 인식 서브 결과의 '되었습니다'를 상기 제 1 음성 인식 서브 결과에 대한 문장에서의 끝 지점으로 판정할 수 있다. 또한, 프로세서(110)는 제 1 음성 인식 서브 결과에서 판정된 끝 지점에 기초하여 상기 제 1 음성 인식 서브 결과를 '저작권 관련 상담을 받고 싶어 찾아 뵙게 되었습니다' 및 '네 맞습니다'로 분할할 수 있다. 다시 말해, 프로세서(110)는 제 1 음성 인식 서브 결과에 대응하는 시작 시점과 종료 시점 사이에 다른 사용자의 발화에 기초하여 출력된 제 2 음성 인식 서브 결과가 존재하는 것을 식별(즉, 중첩 구간을 식별)하고, 중첩 구간에서의 음성 인식 서브 결과에 포함된 단어의 의미를 파악함으로써, 각각의 음성 인식 서브 결과의 선후관계가 명확히 표시되도록 음성 인식 서브 결과를 분할할 수 있다. 즉, 프로세서(110)는 제 2 음성 인식 서브 결과에 포함된 단어(즉, “저작권 관련이요?”)가 제 1 음성 인식 서브 결과의 사이에 배치되도록 상기 제 1 음성 인식 서브 결과를 “저작권 관련 상담을 받고 싶어 찾아 뵙게 되었습니다” 및 “네 맞습니다”로 분할할 수 있다. 전술한 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 대한 구체적인 기재와 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. Additionally, when the processor 110 determines division of at least one of the first voice recognition sub-result and the second voice recognition sub-result, the processor 110 may divide the voice recognition sub-result corresponding to the overlapping section. For a specific example, the start and end points of the first voice data sub-data are identified as 5 seconds and 20 seconds, respectively, and the start and end points of the second voice data sub-data are identified as 12 seconds and 18 seconds, respectively, creating an overlapping section. The existence was identified, and each of the words included in the first voice recognition sub-result were 'copyright', 'related', 'consultation', 'receiving', 'want', 'find', 'see', and ' ', 'Yes', 'That's right.', and if each of the words included in the second voice recognition sub-result is 'Copyright' and 'Related?', the processor 110 uses a combination of words output from the statistical language model. Based on the degree of suitability, 'was' of the first voice recognition sub-result may be determined as the end point in the sentence for the first voice recognition sub-result. In addition, the processor 110 may divide the first voice recognition sub-result into 'I came to see you because I wanted to receive copyright-related consultation' and 'Yes, that's right' based on the end point determined in the first voice recognition sub-result. . In other words, the processor 110 identifies that a second voice recognition sub-result output based on another user's utterance exists between the start and end points corresponding to the first voice recognition sub-result (i.e., an overlapping section). identification), and by identifying the meaning of words included in the voice recognition sub-results in the overlapping section, the voice recognition sub-results can be divided so that the precedence relationship of each voice recognition sub-result is clearly displayed. That is, the processor 110 categorizes the first voice recognition sub-result as “copyright-related” so that the words included in the second voice recognition sub-result (i.e., “Copyright-related?”) are placed between the first voice recognition sub-results. It can be divided into “I came to see you because I wanted to get counseling” and “Yes, that’s right.” The specific description of the start and end points of each of the above-described first voice data sub-data and second voice data sub-data and the specific description of the first voice recognition sub-result and the second voice recognition sub-result are only examples. The disclosure is not limited thereto.

본 개시는 전술한 바와 같이, 2개의 음성 데이터를 각각의 사용자 단말로부터 수신하여 2개의 음성 데이터로부터 출력된 하나 이상의 음성 인식 결과의 순서를 결정하고, 2개의 음성 데이터를 수신한 2개의 사용자 단말의 식별 정보에 기초하여 대화록을 생성할 수 있으나, 본 개시의 프로세스들을 통해 2개 이상의 복수의 음성 데이터를 수신하여 대화록을 생성할 수도 있음이, 당 업계의 통상의 기술자에게 자명하게 인지될 수 있다. As described above, the present disclosure is to receive two voice data from each user terminal, determine the order of one or more voice recognition results output from the two voice data, and determine the order of the two user terminals that received the two voice data. A conversation record can be generated based on identification information, but it will be apparent to those skilled in the art that a conversation record can also be generated by receiving two or more pieces of voice data through the processes of the present disclosure.

본 개시의 일 실시예에 따르면, 프로세서(110)는 대화록에 대응하는 키워드를 결정할 수 있다. 구체적으로, 프로세서(110)는 하나 이상의 음성 인식 결과의 의미 분석 결과, 하나 이상의 음성 인식 결과에 포함된 단어 별 반복 횟수 및 사전 결정된 대화 주제 중 적어도 하나에 기초하여 대화록에 대한 하나 이상의 키워드를 결정할 수 있다. According to one embodiment of the present disclosure, the processor 110 may determine a keyword corresponding to the conversation log. Specifically, the processor 110 may determine one or more keywords for the conversation record based on at least one of a semantic analysis result of one or more voice recognition results, the number of repetitions for each word included in the one or more voice recognition results, and a predetermined conversation topic. there is.

프로세서(110)는 하나 이상의 음성 인식 결과에 대한 의미 분석 결과에 기초하여 대화록에 대한 하나 이상의 키워드를 결정할 수 있다. 보다 구체적으로, 프로세서(110)는 하나 이상의 음성 인식 결과 각각에 포함된 하나 이상의 단어 각각의 의미의 중요도에 기초하여 하나 이상의 키워드를 결정할 수 있다. 예를 들어, 음성 인식 결과에 포함된 단어 각각이 '저작권', '관련', '상담을', '받고', '싶어', '찾아', '뵙게', '되었습니다'인 경우, 상기 프로세서(110)는 '저작권' 또는 '상담을'의 의미가 비교적 중요도가 높은 것으로 판단하여 '저작권' 또는 '상담'을 키워드로써 결정할 수 있다. 전술한 음성 인식 결과에 포함되는 하나 이상의 단어 및 상기 하나 이상의 단어 각각의 중요도에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. The processor 110 may determine one or more keywords for the conversation log based on a semantic analysis result of one or more voice recognition results. More specifically, the processor 110 may determine one or more keywords based on the importance of the meaning of one or more words included in each of one or more voice recognition results. For example, if each word included in the voice recognition result is 'copyright', 'related', 'consultation', 'receiving', 'want', 'find', 'meet', and 'was', the processor (110) determines that the meaning of 'copyright' or 'consultation' is relatively high in importance, so 'copyright' or 'consultation' can be decided as the keyword. The specific description of one or more words included in the above-described voice recognition result and the importance of each of the one or more words is merely an example, and the present disclosure is not limited thereto.

또한, 프로세서(110)는 하나 이상의 음성 인식 결과 각각에 포함된 단어 별 반복 횟수에 기초하여 대화록에 대한 하나 이상의 키워드를 결정할 수 있다. 구체적으로, 프로세서(110)는 음성 인식 결과에 포함된 하나 이상의 단어 각각의 반복 횟수(즉, 중복 횟수)를 식별하고, 반복 횟수가 높은 단어를 대화록에 대한 키워드로써 결정할 수 있다.Additionally, the processor 110 may determine one or more keywords for the conversation log based on the number of repetitions for each word included in each of one or more voice recognition results. Specifically, the processor 110 may identify the number of repetitions (i.e., number of repetitions) of each of one or more words included in the voice recognition result, and determine a word with a high number of repetitions as a keyword for the conversation log.

또한, 프로세서(110)는 사전 결정된 대화 주제에 기초하여 키워드를 결정할 수 있다. 보다 구체적으로, 프로세서(110)는 음성인식 결과에 대한 의미 분석으로부터 대화의 주제를 결정하거나, 사용자 단말(10)로부터 대화 주제를 수신할 수 있으며, 상기 수신한 대화 주제에 대응하여 키워드를 결정할 수 있다. 예를 들어, 사용자 단말(10)로부터 '저작권'을 대화 주제로서 수신한 경우, 프로세서(110)는 상기 주제(즉, 저작권)와 관련된 '침해', '고소' 및 '친고죄' 등을 키워드로써 결정할 수 있다. 이 경우, 복수의 대화 주제 각각에 대응하여 하나 이상의 키워드가 메모리(120)에 사전 저장될 수 있다. 전술한 대화 주제 및 대화 주제에 대응하는 키워드에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. Additionally, processor 110 may determine keywords based on predetermined conversation topics. More specifically, the processor 110 may determine the topic of conversation from semantic analysis of the voice recognition result, or may receive the topic of conversation from the user terminal 10, and determine keywords in response to the received topic of conversation. there is. For example, when receiving 'copyright' as a conversation topic from the user terminal 10, the processor 110 uses keywords such as 'infringement', 'complaint', and 'crime' related to the topic (i.e., copyright). You can decide. In this case, one or more keywords may be pre-stored in the memory 120 to correspond to each of the plurality of conversation topics. The specific description of the above-described conversation topics and keywords corresponding to the conversation topics are only examples, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 음성 인식 결과에서 하나 이상의 키워드의 위치를 식별할 수 있다. 구체적으로, 프로세서(110)는 대화록에 포함된 하나 이상의 음성 인식 결과 중 하나 이상의 키워드 각각의 대화록 상에서의 위치 및 음성 데이터 상에서의 위치 중 적어도 하나를 식별할 수 있다. 또한, 프로세서(110)는 대화록에 포함된 하나 이상의 음성 인식 결과에서 하나 이상의 키워드 각각의 위치를 식별하고, 상기 하나 이상의 키워드 각각에 대응하는 음성 데이터 서브 데이터를 재생할 수 있다. 자세히 설명하면, 프로세서(110)는 하나 이상의 음성 데이터 각각을 음성 인식 모델의 입력으로 하여 출력된 하나 이상의 음성 인식 결과를 통해 생성된 대화록에서 키워드를 식별하고, 그리고 식별된 키워드에 대응하여 상기 식별된 키워드를 포함하는 음성 데이터 서브 데이터를 재생할 수 있다. 즉, 프로세서(110)는 사용자 단말(10)로부터 수신한 음성 데이터 중 특정 키워드에 대응하는 부분만을 대화록에서 식별하여 음성 인식 결과로써 제공할 수 있으며, 상기 식별된 음성 인식 결과에 대응하는 음성 데이터 서브 데이터 구간을 재생시킬 수 있어, 사용자에게 편의성을 제공할 수 있다. 다시 말해, 사용자는 대화록에서 중요한 특정 부분만을 제공받을 수 있으며, 녹음 데이터(즉, 음성 데이터)에서 해당 특정 부분에 대응하는 구간을 재생하도록 하는 재생 화면을 제공받을 수 있으므로, 대화록을 전부 읽어보거나 녹음 데이터를 모두 들을 필요없이 필요에 따라 특정 중요 부분(즉, 키워드)만을 탐색할 수 있어, 요지 파악에 편의성을 제공받을 수 있다.According to one embodiment of the present disclosure, the processor 110 may identify the location of one or more keywords in one or more voice recognition results. Specifically, the processor 110 may identify at least one of a location in the conversation record and a location in the voice data of one or more keywords among one or more voice recognition results included in the conversation record. Additionally, the processor 110 may identify the location of each of one or more keywords in one or more voice recognition results included in the conversation log and reproduce voice data sub-data corresponding to each of the one or more keywords. In detail, the processor 110 uses each of one or more voice data as input to a voice recognition model, identifies keywords in the conversation log generated through one or more voice recognition results output, and uses the identified keywords in response to the identified keywords. Voice data subdata containing keywords can be played. That is, the processor 110 can identify only the part of the voice data received from the user terminal 10 that corresponds to a specific keyword from the conversation log and provide it as a voice recognition result, and the voice data sub-subset corresponding to the identified voice recognition result. Data sections can be regenerated, providing convenience to users. In other words, the user can be provided with only certain important parts of the conversation log, and can be provided with a playback screen that allows the user to play the section corresponding to that specific part in the recorded data (i.e. voice data), so they can read the entire conversation log or record it. Instead of having to listen to all of the data, you can search only certain important parts (i.e. keywords) as needed, providing convenience in understanding the gist.

본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 음성 데이터에 기초하여 생성된 대화록을 포함하는 사용자 인터페이스를 하나 이상의 사용자 단말로 제공할 수 있다.According to an embodiment of the present disclosure, the processor 110 may provide a user interface including a conversation log generated based on voice data received from each of the one or more user terminals 10 to one or more user terminals.

프로세서(110)가 하나 이상의 사용자 단말(10)로 제공하는 사용자 인터페이스에 대한 구체적인 설명은 도 4 내지 도 7을 참조하여 후술하도록 한다.A detailed description of the user interface provided by the processor 110 to one or more user terminals 10 will be described later with reference to FIGS. 4 to 7.

도 4는 본 개시의 일 실시예에 따른 사용자 목록 표시 화면 및 대화 목록 표시 화면을 포함하는 사용자 인터페이스의 예시도를 도시한다.Figure 4 shows an example of a user interface including a user list display screen and a conversation list display screen according to an embodiment of the present disclosure.

사용자 인터페이스는 사용자 단말(10)의 디스플레이 수단에 표시될 수 있다. The user interface may be displayed on the display means of the user terminal 10.

프로세서(110)가 생성하여 하나 이상의 사용자 단말(10)로 제공한 사용자 인터페이스는 도 4의 (a)에 도시된 바와 같이, 대화록 서비스를 이용하는 사용자의 프로필 정보(310), 상기 사용자가 등록한 다른 사용자들의 목록, 등록한 다른 사용자들의 접속 상태 여부에 대한 접속 표시 정보(320) 및 다른 사용자들 추가 등록을 위한 등록 요청 버튼(330)을 표시하는 사용자 목록 표시 화면(340)을 제공할 수 있다. 다만, 해당 사용자 목록 표시 화면에 표시된 정보들은 필수적인 요소들은 아니므로, 추가적인 정보가 사용자 목록 표시 정보에 더 포함될 수도 있다.As shown in (a) of FIG. 4, the user interface generated by the processor 110 and provided to one or more user terminals 10 includes profile information 310 of a user using the chat book service, other users registered by the user, A user list display screen 340 may be provided that displays a list of users, connection display information 320 about the connection status of other registered users, and a registration request button 330 for additional registration of other users. However, since the information displayed on the user list display screen is not essential elements, additional information may be included in the user list display information.

사용자 인터페이스에 포함된 사용자 목록 표시 화면(340)은 사용자의 프로필 정보(310)를 표시할 수 있다. 예를 들어, 사용자 인터페이스에 표시된 사용자의 프로필 정보는 사용자의 이름, 회사명, 직위, 연락처 등에 관련한 정보를 포함할 수 있다. 또한, 사용자 인터페이스에 포함된 사용자 목록 표시 화면(340)은 사용자가 친구로 등록한 하나 이상의 다른 사용자의 목록을 표시할 수 있으며, 하나 이상의 다른 사용자의 목록 각각에 대응하여 하나 이상의 다른 사용자의 접속 상태를 나타내는 접속 표시 정보(320)를 표시할 수 있다. 예를 들어, 도 4에 도시된 바와 같이, 사용자 인터페이스는 사용자가 등록한 '최원혁'이라는 다른 사용자를 사용자 목록 표시 화면에 표시할 수 있으며, '최원혁'의 현재 접속 상태를 나타내는 접속 표시 정보를 함께 표시할 수 있다. 보다 구체적인 예를 들어, 하나 이상의 다른 사용자 중 '최원혁'에 대응하는 사용자 단말이 컴퓨팅 장치(100)에 접속하지 않은 경우, 사용자 인터페이스는 해당 사용자를 참조번호 321과 같은 접속 표시 정보를 나타낼 수 있으며, '장태빈' 및 '김선형' 각각에 대응하는 사용자 단말들이 컴퓨팅 장치(100)에 접속한 경우, 사용자 인터페이스는 참조번호 322 및 323과 같은 접속 표시 정보를 나타낼 수 있다. 사용자 인터페이스에 포함된 사용자 목록 표시 화면에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.The user list display screen 340 included in the user interface may display the user's profile information 310. For example, the user's profile information displayed on the user interface may include information related to the user's name, company name, position, contact information, etc. Additionally, the user list display screen 340 included in the user interface may display a list of one or more other users registered as friends by the user, and may display the connection status of one or more other users corresponding to each of the one or more other users' list. Connection indication information 320 may be displayed. For example, as shown in Figure 4, the user interface may display another user named 'Wonhyuk Choi' registered by the user on the user list display screen, and may display connection display information indicating the current connection status of 'Wonhyuk Choi'. can be displayed together. For a more specific example, if the user terminal corresponding to 'Choi Won-hyuk' among one or more other users is not connected to the computing device 100, the user interface may display connection indication information for that user, such as reference number 321. When user terminals corresponding to 'Taebin Jang' and 'Seonhyeong Kim' respectively access the computing device 100, the user interface may display connection display information such as reference numerals 322 and 323. The specific description of the user list display screen included in the user interface is only an example, and the present disclosure is not limited thereto.

또한, 사용자 인터페이스에 포함된 사용자 목록 표시 화면(340)은 추가적으로 다른 사용자를 등록하기 위한 친구 추가 버튼(330)을 표시할 수 있으며, 프로세서(110)는 사용자 단말(10)로부터 해당 친구 추가 버튼(330)에 대한 선택 입력을 수신하는 경우, 대화 또는 회의를 진행하고자 하는 다른 사용자 고유 ID를 입력 받을 수 있는 ID 입력 창을 제공하도록 하는 제어 신호를 사용자 단말로 전송할 것을 결정할 수 있다. 또한, 사용자 단말(10)로부터 해당 ID 입력 창을 통해 다른 사용자의 ID에 대한 정보를 수신하는 경우, 프로세서(110)는 다른 사용자와 회의 또는 대화를 진행할 수 있도록, 다른 사용자의 정보(예컨대, ID)를 사용자 목록 표시 화면(340)에 추가하여 표시하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. In addition, the user list display screen 340 included in the user interface may additionally display an add friend button 330 for registering other users, and the processor 110 may display the add friend button from the user terminal 10 ( When receiving a selection input for 330), it may be determined to transmit a control signal to the user terminal to provide an ID input window where the unique ID of another user who wishes to conduct a conversation or meeting can be input. In addition, when receiving information about another user's ID through the corresponding ID input window from the user terminal 10, the processor 110 provides the other user's information (e.g., ID ) may be determined to be transmitted to the user terminal 10 to add and display the user list display screen 340.

또한, 사용자 인터페이스는 사용자가 다른 사용자들과 수행한 하나 이상의 대화가 표시된 대화 목록 표시 화면(350)을 포함할 수 있다. 구체적으로, 사용자 인터페이스는 대화 목록 표시 화면(350)에 대한 사용자의 선택 입력에 기초하여 다른 사용자들과 수행한 하나 이상의 대화 각각의 명칭을 표시하는 화면을 제공할 수 있다. 이때, 사용자 인터페이스에 포함된 대화 목록 표시 화면(350)은, 사용자가 수행한 하나 이상의 대화 항목(370), 대화 내용 검색 버튼(360) 및 대화방을 개설하기 위한 대화방 개설 버튼(390)을 포함할 수 있다. Additionally, the user interface may include a conversation list display screen 350 that displays one or more conversations that the user has conducted with other users. Specifically, the user interface may provide a screen that displays the name of each of one or more conversations conducted with other users based on the user's selection input on the conversation list display screen 350. At this time, the conversation list display screen 350 included in the user interface may include one or more conversation items 370 performed by the user, a conversation content search button 360, and a chat room opening button 390 for opening a chat room. You can.

사용자 인터페이스에 포함된 대화 목록 표시 화면(350)은, 사용자가 하나 이상의 다른 사용자 각각과 수행한 하나 이상의 대화 각각의 명칭을 정렬하여 표시할 수 있다. 이 경우, 하나 이상의 대화에 대한 목록은 도 4에 도시된 바와 같이 IR 미팅(371), 주간 회의(372), OO회사 미팅(373), OOO님 인터뷰(374), OOO님 상담(375) 및 전체 회의(376)와 같이 정렬되어 표시될 수 있다. 또한, 각각의 대화에 대한 명칭은 대화방 개설 시 사용자 단말로부터 수신한 선택 입력에 기초하여 생성된 것 일 수 있으며, 각각의 대화에 대한 의미 분석 결과로서 생성되거나 또는 각각의 대화에서 결정된 키워드에 기초하여 생성된 것 일 수도 있다. The conversation list display screen 350 included in the user interface can sort and display the names of one or more conversations that the user has conducted with each of one or more other users. In this case, the list of one or more conversations includes IR meeting (371), weekly meeting (372), OO company meeting (373), OOO interview (374), OOO consultation (375), and It may be displayed aligned with the general meeting 376. Additionally, the name for each conversation may be generated based on a selection input received from the user terminal when opening a chat room, generated as a result of semantic analysis for each conversation, or based on keywords determined in each conversation. It may have been created.

또한, 사용자 인터페이스에 포함된 대화 목록 표시 화면(350)은 사용자가 수행한 하나 이상의 대화 각각에 대응하여 하나 이상의 시점 정보를 표시할 수 있다. 예를 들어, 도 4에 도시된 바와 같이, 사용자가 수행한 대화의 명칭이 IR 미팅(371)인 경우, 상기 IR 미팅(371)에 대응하여 '2018.10.03. 14:00'라는 시점 정보를 표시할 수 있다. 또한, 대화 목록 표시 화면에 표시된 하나 이상의 대화 각각의 명칭은 시점 정보에 기초하여 내림차순 또는 오름차순으로 정렬될 수 있다.Additionally, the conversation list display screen 350 included in the user interface may display one or more viewpoint information corresponding to each of one or more conversations performed by the user. For example, as shown in FIG. 4, if the name of the conversation performed by the user is IR meeting 371, '2018.10.03. Time information such as '14:00' can be displayed. Additionally, the names of each of one or more conversations displayed on the conversation list display screen may be sorted in descending or ascending order based on viewpoint information.

또한, 사용자 인터페이스에 포함된 대화 목록 표시 화면(350)은 사용자가 수행한 하나 이상의 대화 중 특정 대화를 검색하기 위한 대화 검색 버튼(360)을 표시할 수 있다. 대화 목록 표시 화면(350)을 통해 사용자 단말(10)로부터 대화 검색 버튼에 대한 선택 입력을 수신한 경우, 프로세서(110)는 숫자 또는 텍스트를 입력 받는 검색 창을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 또한, 사용자 단말(10)로부터 상기 검색 창에 숫자 또는 텍스트에 대한 정보를 수신하는 경우, 프로세서(110)는 사용자 단말(10)로부터 수신한 숫자 또는 텍스트에 대한 정보에 대응하는 대화를 검색하여 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 이때, 프로세서(110)가 사용자 단말(10)로부터 수신하는 선택 입력은 대화의 명칭, 대화의 시점 정보 및 대화에 포함된 하나 이상의 사용자에 대한 정보 중 적어도 하나에 대한 정보일 수 있다. 즉, 프로세서(110)는 대화의 명칭, 대화의 시점 정보 및 대화에 포함된 하나 이상의 사용자에 대한 정보(예컨대, 대화를 수행한 하나 이상의 사용자 각각에 ID 정보 등)에 기초하여 하나 이상의 대화 중 특정 대화에 대한 검색을 수행할 수 있다. Additionally, the conversation list display screen 350 included in the user interface may display a conversation search button 360 for searching a specific conversation among one or more conversations performed by the user. When receiving a selection input for a conversation search button from the user terminal 10 through the conversation list display screen 350, the processor 110 sends a control signal to the user terminal ( 10) You can decide what to transmit. In addition, when information about numbers or text is received in the search window from the user terminal 10, the processor 110 searches for and provides a conversation corresponding to the information about the numbers or text received from the user terminal 10. It may be decided to transmit a control signal to the user terminal 10. At this time, the selection input that the processor 110 receives from the user terminal 10 may be information about at least one of the name of the conversation, information on the time of the conversation, and information about one or more users included in the conversation. That is, the processor 110 specifies a specific message among one or more conversations based on the name of the conversation, information on the time of the conversation, and information about one or more users included in the conversation (e.g., ID information for each of the one or more users who performed the conversation, etc.). You can perform a search for conversations.

또한, 사용자 인터페이스에 포함된 대화 목록 표시 화면(350)에 표시된 하나 이상의 대화 명칭 중 특정 대화 명칭에 대하여 사용자 단말로부터 선택 입력을 수신하는 경우, 프로세서(110)는 상기 사용자 단말의 선택 입력에 기초하여 해당 대화 명칭에 대응하는 대화록 표시 화면을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 사용자가 수행한 하나 이상의 대화 명칭 중 특정 대화 명칭에 대한 사용자 단말의 선택 입력에 기초하여 사용자 단말로 제공하는 대화록 표시 화면에 대한 구체적인 설명은 도 6을 참조하여 후술하도록 한다. In addition, when receiving a selection input from the user terminal for a specific conversation name among one or more conversation names displayed on the conversation list display screen 350 included in the user interface, the processor 110 operates based on the selection input from the user terminal. It may be determined to transmit a control signal to the user terminal 10 to provide a conversation log display screen corresponding to the conversation name. A detailed description of the conversation log display screen provided to the user terminal based on the user terminal's selection input for a specific conversation name among one or more conversation names performed by the user will be described later with reference to FIG. 6.

또한, 사용자 인터페이스에 포함된 대화 목록 표시 화면(350)은 사용자가 하나 이상의 다른 사용자와 대화방을 개설하기 위하여 사용자 단말(10)로부터 선택 입력을 수신하는 대화방 개설 버튼을 포함할 수 있다. 또한, 대화방 개설 버튼에 대한 선택 입력을 사용자 단말(10)로부터 수신하는 경우, 프로세서(110)는 하나 이상의 다른 사용자를 대화방에 포함시키기 위한 사용자 선택 입력 화면을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 사용자 인터페이스에 포함된 사용자 선택 입력 화면 및 사용자 선택 입력 화면에 대한 사용자 단말의 선택 입력에 기초하여 개설된 대화방에 대한 구체적인 설명은 도 5를 참조하여 후술하도록 한다.Additionally, the conversation list display screen 350 included in the user interface may include a chat room opening button that receives a selection input from the user terminal 10 in order for the user to open a chat room with one or more other users. In addition, when receiving a selection input for the chat room opening button from the user terminal 10, the processor 110 sends a control signal to the user terminal 10 to provide a user selection input screen for including one or more other users in the chat room. ) can be decided to transmit. A detailed description of the user selection input screen included in the user interface and the chat room established based on the user terminal's selection input to the user selection input screen will be described later with reference to FIG. 5.

도 5는 본 개시의 일 실시예에 따른 대화방을 개설하는 과정 및 복수의 사용자를 포함하는 대화방에 대한 사용자 인터페이스의 예시도를 도시한다. Figure 5 shows an example of a process for opening a chat room and a user interface for a chat room including a plurality of users according to an embodiment of the present disclosure.

본 개시의 일 실시예에 따르면, 프로세서(110)는 대화방 개설 버튼(도 4의 참조 번호 390)에 대한 사용자 단말(10)의 선택 입력에 대응하여 하나 이상의 다른 사용자를 대화방에 포함시키기 위한 사용자 선택 입력 화면을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 이때, 사용자 선택 입력 화면은 도 5에 도시된 바와 같이, 사용자가 등록한 하나 이상의 다른 사용자의 목록을 표시할 수 있으며, 상기 하나 이상의 다른 사용자 각각에 대응하여 상기 하나 이상의 다른 사용자를 선택하기 위한 선택 버튼을 포함할 수 있다. 보다 구체적인 예를 들어, 도 5를 참조하면, 사용자가 상기 사용자가 등록한 하나 이상의 다른 사용자 중 '장태빈', '김선형' 및 '변기훈'라는 아이디를 가진 다른 사용자를 포함하는 대화방을 개설하고자 하는 경우, '장태빈', '김선형' 및 '변기훈'에 각각 대응하는 선택 버튼 각각(참조번호 422, 423, 424)을 선택 입력하고, 선택 완료에 대한 버튼을 선택 입력할 수 있다. 다시 말해, 프로세서(110)는 사용자 단말로부터 사용자 선택 입력 화면을 통해 하나 이상의 다른 사용자 각각에 대한 선택 입력(참조번호 422, 423, 444)과 선택 완료에 대한 확인 버튼(430)에 대한 선택 입력에 대응하여 대화방을 개설하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 전술한 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다. According to one embodiment of the present disclosure, the processor 110 selects the user to include one or more other users in the chat room in response to the selection input of the user terminal 10 on the chat room opening button (reference number 390 in FIG. 4). It may be determined to transmit a control signal for providing an input screen to the user terminal 10. At this time, the user selection input screen may display a list of one or more other users registered by the user, as shown in FIG. 5, and a selection button for selecting the one or more other users corresponding to each of the one or more other users. may include. For a more specific example, referring to Figure 5, when a user wants to open a chat room that includes other users with the IDs of 'Taebin Jang', 'Seonhyeong Kim', and 'Kihoon Byun' among one or more other users registered by the user. , you can select and enter the selection buttons (reference numbers 422, 423, and 424) corresponding to 'Taebin Jang', 'Seonhyeong Kim', and 'Kihoon Byeon' respectively, and select and enter the button to complete the selection. In other words, the processor 110 receives a selection input for each of one or more other users through a user selection input screen from the user terminal (reference numbers 422, 423, 444) and a selection input for the confirmation button 430 for selection completion. In response, it may be determined to transmit a control signal for opening a chat room to the user terminal 10. The foregoing description is merely an example and the present disclosure is not limited thereto.

또한, 프로세서(110)는 사용자와 하나 이상의 다른 사용자와의 새로운 대화방이 개설된 경우, 대화방 표시 화면을 제공하도록 하는 제어 신호를 사용자 단말로 전송할 것을 결정할 수 있다. 예를 들어, 프로세서(110)는 도 5의 (a)와 같이 하나 이상의 다른 사용자('장태빈', '김선형' 및 '변기훈')에 대한 사용자 단말의 선택 입력을 수신한 경우, 도 5의 (b)와 같은 대화방 표시 화면을 제공할 수 있다. 이 경우, 대화방 표시 화면은, 도 5의 (b)에 도시된 바와 같이, 대화방이 개설된 시점 정보를 표시할 수 있으며, 상기 대화방에 포함된 사용자들의 정보(예컨대, 사용자의 ID 정보('장태빈', '김선형' 및 '변기훈'))를 표시할 수 있다. 전술한 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.Additionally, the processor 110 may determine to transmit a control signal for providing a chat room display screen to the user terminal when a new chat room between the user and one or more other users is opened. For example, when the processor 110 receives a selection input from a user terminal for one or more other users ('Taebin Jang', 'Seonhyeong Kim', and 'Kihoon Byeon') as shown in (a) of FIG. 5, the processor 110 selects A chat room display screen such as (b) can be provided. In this case, as shown in (b) of FIG. 5, the chat room display screen may display information on when the chat room was opened, and information on users included in the chat room (e.g., user ID information ('Taebin Jang') ', 'Kim Seon-hyung' and 'Byun Ki-hoon')) can be displayed. The foregoing description is merely an example and the present disclosure is not limited thereto.

또한, 사용자 인터페이스에 포함된 대화방 표시 화면은 대화방에 포함된 하나 이상의 사용자 각각으로부터 하나 이상의 음성 데이터를 수신하기 위한 녹음 시작 버튼(440)을 포함할 수 있다. 또한, 사용자 단말로부터 대화방 표시 화면에 표시된 녹음 시작 버튼에 대한 선택 입력을 수신하는 경우, 프로세서(110)는 해당 선택 입력을 수신하는 시점을 기초로 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터를 수신할 수 있다. Additionally, the chat room display screen included in the user interface may include a recording start button 440 for receiving one or more voice data from each of one or more users included in the chat room. In addition, when receiving a selection input for the recording start button displayed on the chat room display screen from the user terminal, the processor 110 may receive one or more voice data from each of one or more user terminals based on the time of receiving the selection input. You can.

또한, 사용자 인터페이스에 포함된 대화방 표시 화면은 대화방에 포함된 하나 이상의 사용자 각각으로부터 수신한 하나 이상의 음성 데이터에 기초하여 생성된 하나 이상의 음성 인식 결과를 시간별 및 화자별로 정렬하여 표시할 수 있다. 사용자 각각으로부터 수신한 하나 이상의 음성 데이터에 기초하여 생성된 하나 이상의 음성 인식 결과를 시간별 및 화자별로 정렬하여 표시하는 구성은 앞서 도 2를 통해 구체적으로 설명한 것으로 중복 설명은 생략하도록 한다. 사용자 인터페이스는 사용자 본인의 단말로부터 수신된 음성 데이터에 기초하여 출력된 음성 인식 결과를 대화방 표시 화면의 일측면에 표시하고, 그리고 하나 이상의 다른 사용자 단말로부터 수신된 각각의 음성 데이터에 기초하여 출력된 음성 인식 결과는 대화방 표시 화면의 다른 일 측면에 표시할 수 있다. 예를 들어, 도 5의 (b)에 도시된 바와 같이, 특정 사용자(450)의 음성 데이터를 통해 출력된 음성 인식 결과는 상기 특정 사용자(450)에 대응하여 대화방 표시 화면의 왼쪽에 배치(451)하고, 특정 사용자를 제외한 하나 이상의 다른 사용자(460)의 음성 데이터를 통해 출력된 음성 인식 결과는 대화방 표시 화면의 오른쪽에 배치(461)할 수 있다. 즉, 사용자 인터페이스는 사용자가 대화 내용을 용이하게 파악하도록 복수의 사용자가 간 대화 기록을 채팅창 형태로 나타냄으로써, 텍스트에 대한 가독성을 확보하여 사용자에게 편의성을 제공할 수 있다. Additionally, the chat room display screen included in the user interface may display one or more voice recognition results generated based on one or more voice data received from each of one or more users included in the chat room, sorted by time and speaker. The configuration of sorting and displaying one or more voice recognition results generated based on one or more voice data received from each user by time and speaker has been specifically explained with reference to FIG. 2, and redundant explanation will be omitted. The user interface displays the voice recognition results output based on voice data received from the user's own terminal on one side of the chat room display screen, and the voice output based on voice data received from one or more other user terminals. The recognition results may be displayed on another side of the chat room display screen. For example, as shown in (b) of FIG. 5, the voice recognition result output through voice data of a specific user 450 is placed on the left side of the chat room display screen corresponding to the specific user 450 (451). ), and the voice recognition result output through the voice data of one or more other users (460) excluding the specific user can be placed (461) on the right side of the chat room display screen. In other words, the user interface can provide convenience to the user by ensuring readability of the text by displaying the conversation history between multiple users in the form of a chat window so that the user can easily understand the content of the conversation.

또한, 사용자 단말로부터 대화록 목록 표시 화면(350)에 표시된 하나 이상의 대화 명칭 중 특정 대화 명칭에 대한 선택 입력을 수신하는 경우, 프로세서(110)는 대화록 표시 화면을 제공하도록 하는 제어 신호를 사용자 단말로 전송할 것을 결정할 수 있다. 대화록 표시 화면에 대한 구체적은 설명은 도 6을 참조하여 후술하도록 한다.In addition, when receiving a selection input for a specific conversation name among one or more conversation names displayed on the conversation list display screen 350 from the user terminal, the processor 110 may transmit a control signal to provide a conversation list display screen to the user terminal. can decide A detailed description of the conversation log display screen will be described later with reference to FIG. 6.

도 6은 본 개시의 일 실시예에 따른 사용자가 수행한 하나 이상의 대화 목록 중 특정 대화에 대한 사용자 단말의 선택 입력에 대응하여 대화록 표시 화면 제공하는 사용자 인터페이스의 예시도를 도시한다.Figure 6 shows an example of a user interface that provides a conversation log display screen in response to a user terminal's selection input for a specific conversation among one or more conversation lists performed by the user according to an embodiment of the present disclosure.

사용자 인터페이스에 포함된 대화 목록 표시 화면(350)에 표시된 하나 이상의 대화 명칭 중 특정 대화 명칭에 대하여 사용자 단말로부터 선택 입력을 수신하는 경우, 프로세서(110)는 사용자 단말의 선택 입력에 기초하여 해당 대화 명칭에 대응하는 대화록 표시 화면을 제공하도록 하는 제어 신호를 사용자 단말로 전송할 것을 결정할 수 있다. 구체적인 예를 들어, 도 6의 (a)에 도시된 바와 같이, 대화 목록 표시 화면에 표시된 하나 이상의 대화 명칭 중 '서비스 기획 회의'에 해당하는 대화 명칭에 대한 선택 입력(510)을 사용자 단말(10)로부터 수신하는 경우, 프로세서(110)는 '서비스 기획 회의'에 대응하는 대화록 표시 화면을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 수 있다. 이 경우, 대화록 표시 화면은 도 6의 (b)와 같은 항목들을 포함할 수 있다. 보다 구체적으로, 대화록 표시 화면은, 대화를 수행한 하나 이상의 사용자 각각에 대한 정보(530), 상기 대화방에 관련한 하나 이상의 키워드에 관한 정보(540), 시간별 및 화자별로 나열된 하나 이상의 음성 인식 결과에 대한 정보(550) 및 음성 인식 결과에 대응하는 음성 구간 재생하는 음성 재생 화면(560)을 포함할 수 있다. 전술한 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.When receiving a selection input from the user terminal for a specific conversation name among one or more conversation names displayed on the conversation list display screen 350 included in the user interface, the processor 110 selects the corresponding conversation name based on the selection input from the user terminal. It may be determined to transmit a control signal to the user terminal to provide a chat log display screen corresponding to . For a specific example, as shown in (a) of FIG. 6, a selection input 510 for a conversation name corresponding to 'service planning meeting' among one or more conversation names displayed on the conversation list display screen is entered at the user terminal 10. ), the processor 110 may transmit a control signal to the user terminal 10 to provide a conversation log display screen corresponding to the 'service planning meeting'. In this case, the chat log display screen may include items such as (b) in FIG. 6. More specifically, the chat record display screen includes information 530 about each of one or more users who conducted a conversation, information 540 about one or more keywords related to the chat room, and one or more voice recognition results listed by time and speaker. It may include information 550 and a voice playback screen 560 that plays a voice section corresponding to the voice recognition result. The foregoing description is merely an example and the present disclosure is not limited thereto.

또한, 프로세서(110)는 사용자 단말(10)로부터 대화록 표시 화면(350)에 표시된 하나 이상의 키워드 및 하나 이상의 음성 인식 결과 중 적어도 하나에 대한 선택 입력을 수신하는 경우, 해당 선택 입력에 대응하여 음성 데이터를 재생할 수 있다. In addition, when the processor 110 receives a selection input for at least one of one or more keywords and one or more voice recognition results displayed on the chat log display screen 350 from the user terminal 10, the processor 110 generates voice data in response to the selection input. can be played.

프로세서(110)가 사용자 단말(10)로부터 하나 이상의 키워드 및 하나 이상의 음성 인식 결과에 대한 선택 입력에 기초하여 음성 데이터를 재생하는 것에 대한 구체적인 설명은 도 7을 참조하여 후술하도록 한다. A detailed description of how the processor 110 reproduces voice data based on the selection input of one or more keywords and one or more voice recognition results from the user terminal 10 will be described later with reference to FIG. 7.

도 7은 본 개시의 일 실시예에 따른 음성 인식 결과 및 키워드에 대한 사용자의 선택 입력에 대응하여 음성 데이터의 특정 시점을 재생하는 화면이 표시된 사용자 인터페이스의 예시도를 도시한다. FIG. 7 illustrates an example of a user interface displaying a screen that reproduces a specific point in time of voice data in response to a voice recognition result and a user's selection input for a keyword according to an embodiment of the present disclosure.

사용자 인터페이스는 대화록 표시 화면에 하나 이상의 음성 인식 결과를 표시할 수 있으며, 프로세서(110)는 하나 이상의 음성 인식 결과 중 적어도 하나의 음성 인식 결과에 대한 사용자 단말로부터의 선택 입력에 대응하여 해당 음성 인식 결과의 생성 시점에 음성 데이터를 재생하도록 하는 음성 재생 화면(630)을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 구체적인 예를 들어, 도 7에 도시된 바와 같이, 대화록 표시 화면은 참조번호 611, 612 및 613과 같이 하나 이상의 음성 인식 결과를 표시할 수 있다. 이 경우, 사용자 단말(10)로부터 참조번호 612에 대한 선택 입력을 수신하는 경우, 프로세서(110)는 해당 음성 인식 결과에 대응하는 음성 데이터의 발화 구간을 시작점으로 하는 음성 데이터 서브 데이터를 재생시키는 음성 재생 화면(630)을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 즉, 프로세서(110)는 하나 이상의 음성 인식 결과를 포함하는 대화록을 제공할 수 있으며, 대화록에서 사용자 단말(10)을 통해 특정 음성 인식 결과에 대한 선택 입력에 대응하여 해당 음성 데이터 서브 데이터를 재생시킬 수 있다. 이에 따라, 사용자는 하나 이상의 다른 사용자와 수행한 대화를 텍스트 형태 및 음성의 형태로 모두 제공받을 수 있다. 더불어, 음성 파일은 특정 구간에 대한 내용 파악이 어렵기 때문에 사용자는 대화록에 표시된 하나 이상의 음성 인식 결과(즉, 텍스트)를 통해 대화 내용에서 특정 구간을 빠르게 식별하고 해당 특정 구간에 대응하는 음성 데이터 서브 데이터를 재생시킬 수 있어, 수행한 대화에 대하여 내용 파악이 용이해질 수 있다. The user interface may display one or more voice recognition results on a conversation log display screen, and the processor 110 may display the corresponding voice recognition result in response to a selection input from the user terminal for at least one voice recognition result among the one or more voice recognition results. It may be determined to transmit a control signal to the user terminal 10 to provide a voice playback screen 630 that plays voice data at the time of creation. For a specific example, as shown in FIG. 7, the conversation log display screen may display one or more voice recognition results as indicated by reference numbers 611, 612, and 613. In this case, when receiving a selection input for reference number 612 from the user terminal 10, the processor 110 reproduces voice data sub-data starting from the speech section of the voice data corresponding to the voice recognition result. It may be determined to transmit a control signal for providing the playback screen 630 to the user terminal 10. That is, the processor 110 may provide a conversation record including one or more voice recognition results, and play the corresponding voice data sub-data in response to a selection input for a specific voice recognition result through the user terminal 10 in the conversation record. You can. Accordingly, a user can receive a conversation conducted with one or more other users in both text and voice form. In addition, because it is difficult to identify the content of a specific section in a voice file, the user can quickly identify a specific section in the conversation through one or more voice recognition results (i.e. text) displayed in the conversation log and provide voice data corresponding to that specific section. Data can be reproduced, making it easier to understand the content of the conversation being conducted.

또한, 프로세서(110)는 사용자 단말(10)로부터 하나 이상의 키워드 중 특정 키워드에 대한 선택 입력에 대응하여 해당 키워드와 매칭된 하나 이상의 음성 인식 결과의 생성 시점의 음성 데이터 서브 데이터를 재생하도록 하는 음성 재생 화면(630)을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 이 경우, 하나 이상의 키워드의 위치는 하나 이상의 음성 인식 결과 각각에서 식별될 수 있으며, 특정 키워드는 대화록에 포함된 하나 이상의 음성 인식 결과 중 하나 이상의 위치에서 식별될 수 있다. 이에 따라, 프로세서(110)는 식별된 키워드의 위치를 음성 재생 화면(630)에 하나 이상 표시할 수 있다. 보다 구체적인 예를 들어, 도 7에 도시된 바와 같이 대화록 표시 화면에 표시된 하나 이상의 키워드가 '법률', '상담' 및 '저작권'을 포함하며, 사용자 단말(10)로부터 특정 '저작권'에 대한 선택 입력을 수신하는 경우, 프로세서(110)는 해당 키워드에 대응하는 구간의 음성 데이터 서브 데이터를 재생하도록 하는 음성 재생 화면(630)을 제공하도록 하는 제어 신호를 사용자 단말(10)로 제공할 수 있으며, 상기 음성 재생 화면(630)에는 음성 데이터에서 '저작권'(즉, 사용자가 선택한 키워드)에 대응하는 구간을 하나 이상 표시할 수 있다. 즉, 프로세서(110)는 사용자가 특정 키워드에 대응하는 구간을 용이하게 탐색할 수 있도록 음성 재생 화면(630)에 키워드가 존재하는 구간(즉, 음성 데이터 서브 데이터)을 각각 표시할 수 있다. 이에 따라, 사용자는 다른 사용자와 수행한 대화 내용을 포함하는 음성 데이터에서 특정 키워드에 대응하는 구간을 용이하게 재생할 수 있어, 특정 내용 탐색을 용이하게 수행할 수 있다.In addition, the processor 110 is configured to reproduce voice data sub-data at the time of generating one or more voice recognition results matching the keyword in response to a selection input for a specific keyword among one or more keywords from the user terminal 10. It may be determined to transmit a control signal for providing the screen 630 to the user terminal 10. In this case, the location of one or more keywords may be identified in each of the one or more voice recognition results, and a specific keyword may be identified in one or more locations among the one or more voice recognition results included in the conversation log. Accordingly, the processor 110 may display one or more locations of the identified keywords on the voice playback screen 630. For a more specific example, as shown in FIG. 7, one or more keywords displayed on the chat log display screen include 'law', 'counseling', and 'copyright', and selection of a specific 'copyright' from the user terminal 10 When receiving an input, the processor 110 may provide a control signal to the user terminal 10 to provide a voice playback screen 630 that plays voice data subdata of a section corresponding to the keyword, The audio playback screen 630 may display one or more sections corresponding to 'copyright' (i.e., a keyword selected by the user) in the audio data. That is, the processor 110 may display each section (i.e., voice data subdata) in which a keyword exists on the voice playback screen 630 so that the user can easily search for a section corresponding to a specific keyword. Accordingly, the user can easily reproduce a section corresponding to a specific keyword in voice data including the content of a conversation conducted with another user, and thus can easily search for specific content.

본 개시의 일 실시예에 따르면, 사용자 인터페이스는 사용자 단말로부터 대화록에 포함된 하나 이상의 음성 인식 결과에 대한 수정 요청을 입력 받는 텍스트 편집 화면을 포함할 수 있다. 또한, 프로세서(110)는 사용자 단말(10)로부터 대화록에 포함된 하나 이상의 음성 인식 결과 중 특정 음성 인식 결과에 대한 수정 요청을 수신하는 경우, 음성 인식 모델이 해당 음성 인식 결과에 대응하는 음성 인식 결과를 출력하도록 상기 음성 인식 모델을 보정할 수 있다. 이때, 음성 인식 모델은 STT(Speech to text) 알고리즘을 활용하여 하나 이상의 음성 데이터 서브 데이터 각각에 대응하는 음성 인식 결과를 출력할 수 있다. 즉, 프로세서(110)는 사용자 단말(10)로부터 수신한 음성 인식 결과에 대한 수정 요청에 대응하는 피드백을 STT 알고리즘에 반영함으로써, STT알고리즘의 성능을 증진시킬 수 있다.According to an embodiment of the present disclosure, the user interface may include a text editing screen that receives a request for modification of one or more voice recognition results included in the conversation log from the user terminal. In addition, when the processor 110 receives a request to modify a specific voice recognition result among one or more voice recognition results included in the conversation log from the user terminal 10, the voice recognition model generates a voice recognition result corresponding to the voice recognition result. The voice recognition model can be corrected to output . At this time, the voice recognition model may utilize the STT (Speech to Text) algorithm to output a voice recognition result corresponding to each of one or more voice data subdata. That is, the processor 110 can improve the performance of the STT algorithm by reflecting feedback corresponding to a request for correction of the voice recognition result received from the user terminal 10 into the STT algorithm.

본 개시의 일 실시예에 따르면, 메모리(120)는 프로세서(110)에서 실행가능한 프로그램 코드, 하나 이상의 사용자 단말 각각에 대한 식별 정보, 음성 데이터를 입력으로 하여 음성 인식 결과를 출력하는 음성 인식 모델에 관한 정보 및 자연어 처리에 관한 알고리즘 등에 관련된 정보들을 저장할 수 있다. 예를 들어, 사용자 인터페이스를 통해 사용자 단말로부터 수신하는 하나 이상의 음성 인식 결과를 수정하기 위한 수정 요청에 대한 정보들을 저장할 수 있다.According to an embodiment of the present disclosure, the memory 120 includes a program code executable on the processor 110, identification information for each of one or more user terminals, and a voice recognition model that outputs a voice recognition result by inputting voice data. Information related to natural language processing and algorithms for natural language processing can be stored. For example, information about a modification request for modifying one or more voice recognition results received from a user terminal through a user interface may be stored.

본 개시의 일 실시예에 따르면, 메모리(120)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 컴퓨팅 장치(100)는 인터넷(internet) 상에서 상기 메모리의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다. 전술한 메모리에 대한 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.According to an embodiment of the present disclosure, the memory 120 is a flash memory type, hard disk type, multimedia card micro type, or card type memory (e.g. (e.g. SD or -Only Memory), and may include at least one type of storage medium among magnetic memory, magnetic disk, and optical disk. The computing device 100 may operate in connection with web storage that performs the storage function of the memory on the Internet. The description of the memory described above is merely an example, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따르면, 네트워크부(130)는 하나 이상의 사용자 단말(10)과 정보를 전송할 수 있고, 그리고 수신할 수 있다. 보다 구체적으로, 네트워크부(130)는 네트워크 접속을 위한 유/무선 인터넷 모듈을 포함할 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. 유선 인터넷 기술로는 XDSL(Digital Subscriber Line), FTTH(Fibers to the home), PLC(Power Line Communication) 등이 이용될 수 있다.According to one embodiment of the present disclosure, the network unit 130 can transmit and receive information to and from one or more user terminals 10. More specifically, the network unit 130 may include a wired/wireless Internet module for network connection. Wireless Internet technologies include Wireless LAN (WLAN) (Wi-Fi), Wireless Broadband (Wibro), World Interoperability for Microwave Access (Wimax), and High Speed Downlink Packet Access (HSDPA). Wired Internet technologies include Digital Subscriber Line (XDSL), Fibers to the home (FTTH), and Power Line Communication (PLC).

또한, 네트워크부(130)는 근거리 통신 모듈을 포함하여, 사용자 단말과 비교적 근거리에 위치하고 근거리 통신 모듈을 포함한 전자 장치와 데이터를 송수신할 수 있다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.In addition, the network unit 130 includes a short-range communication module, is located relatively close to the user terminal, and can transmit and receive data with an electronic device including a short-range communication module. Short range communication technologies include Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), and ZigBee.

도 12는 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 순서도를 도시한다.Figure 12 shows a flowchart for providing a conversation record service related to an embodiment of the present disclosure.

컴퓨팅 장치(100)는 제 1 사용자 단말로부터 제 1 음성 데이터를 수신하고, 제 2 사용자 단말로부터 제 2 음성 데이터를 수신(1210)할 수 있다. 컴퓨팅 장치(100)는 통합 음성 데이터에 대한 인식률을 높이기 위해 각각의 음성 데이터에 대한 전처리를 수행할 수 있다. 전처리는 하나 이상의 음성 데이터 각각에 포함된 신호 크기에 대한 표준화 또는 주파수 필터링 중 적어도 하나를 포함할 수 있다.The computing device 100 may receive first voice data from the first user terminal and receive second voice data from the second user terminal (1210). The computing device 100 may perform preprocessing on each voice data to increase the recognition rate of the integrated voice data. Preprocessing may include at least one of standardization or frequency filtering for the signal size included in each of the one or more voice data.

컴퓨팅 장치(100)는 상기 제 1 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 1 음성 데이터 서브 데이터로 분할 수 있고, 그리고 제 2 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 2 음성 데이터 서브 데이터로 분할할 수 있다. 그리고 컴퓨팅 장치(100)는 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별할 수 있다.The computing device 100 may divide the first voice data into one or more first voice data subdata based on the speech section, and divide the second voice data into one or more second voice data subdata based on the speech section. It can be divided. Additionally, the computing device 100 may identify the start and end points of each of the first voice data subdata and the second voice data subdata.

컴퓨팅 장치(100)는 제 1 사용자 단말과 제 2 사용자 단말의 네트워크 패킷 교환을 통한 제 1 음성 데이터와 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화할 수 있다. 또는 컴퓨팅 장치(100)는 제 1 음성 데이터 서브 데이터와 상기 제 2 음성 데이터 서브 데이터의 유사도에 기초하여 제 1 음성 데이터와 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화할 수 있다.The computing device 100 may synchronize the start and end times of the first voice data and the second voice data through network packet exchange between the first user terminal and the second user terminal. Alternatively, the computing device 100 may synchronize the start and end points of the first voice data and the second voice data based on the similarity between the first voice data sub-data and the second voice data sub-data.

컴퓨팅 장치(100)는 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 기초하여 중첩 구간을 식별할 수 있다.The computing device 100 may identify an overlap section based on the start and end points of each of the first voice data subdata and the second voice data subdata.

컴퓨팅 장치(100)는 제 1 음성 데이터와 상기 제 2 음성 데이터 각각의 음성 신호 크기에 기초하여 화자를 구분할 수 있다. 또는 컴퓨팅 장치(100)는 제 1 음성 데이터와 제 2 음성 데이터에 기초하여 통계적 음향 모델을 통해 화자를 구분할 수 있다. 컴퓨팅 장치(100)는 제 1 음성 데이터에 기초한 제 1 음성 데이터 프레임과 상기 제 2 음성 데이터에 기초한 제 2 음성 데이터 프레임 각각의 음성 신호 크기 비교를 통해 화자를 구분할 수 있다.The computing device 100 may distinguish speakers based on the audio signal size of each of the first voice data and the second voice data. Alternatively, the computing device 100 may distinguish speakers through a statistical acoustic model based on the first voice data and the second voice data. The computing device 100 may distinguish speakers through comparison of voice signal sizes of a first voice data frame based on the first voice data and a second voice data frame based on the second voice data.

컴퓨팅 장치(100)는 인접 프레임의 화자 정보에 기초하여 현재 시점 프레임의 화자를 구분할 수 있다. 컴퓨팅 장치(100)는 상기 제 1 음성 데이터 와 상기 제 2 음성 데이터 각각의 화자의 발화 시간 비율에 기초하여 화자를 구분 중 적어도 하나를 포함할 수 있다.The computing device 100 may distinguish the speaker of the current frame based on speaker information of adjacent frames. The computing device 100 may include at least one of classifying speakers based on the ratio of the speaker's speech time for each of the first voice data and the second voice data.

컴퓨팅 장치(100)는 중첩구간 식별시, 중첩구간을 제외한 프레임의 화자에 기초하여 화자별 발화 시간 비율을 연산하여 화자를 구분할 수 있다. 또는, 컴퓨팅 장치(100)는 중첩구간이 사전 결정된 시간비율 이후의 프레임인 경우, 중첩구간 식별시, 중첩구간 프레임의 이전 프레임에 대한 화자별 발화 시간 비율에 기초하여 화자를 구분할 수 있다. 즉, 컴퓨팅 장치(100)는 중첩구간이 식별된 경우, 중첩 구간의 이전 프레임이 음성 데이터의 사전결정된 비율 이상일 때, 이전 프레임에 대한 화자 분리 결과를 참고하여 중첩구간에 대한 화자 분리를 수행할 수 있다. 컴퓨팅 장치(100)는 중첩 구간의 이전 프레임이 음성 데이터의 사전결정된 비율 이상일 때, 이전 프레임들에 대한 화자 분리 결과를 참고하여 중첩구간에 대한 화자 분리를 수행함으로써, 중첩 구간의 이전 프레임들에 대한 화자 분리 결과가 통계적 의의를 가지는 경우에 이를 활용할 수 있다. When identifying an overlapping section, the computing device 100 may distinguish speakers by calculating the speech time ratio for each speaker based on the speakers in the frame excluding the overlapping section. Alternatively, when the overlapping section is a frame after a predetermined time ratio, the computing device 100 may distinguish speakers based on the speech time ratio of each speaker with respect to the previous frame of the overlapping section frame when identifying the overlapping section. That is, when an overlapping section is identified, the computing device 100 may perform speaker separation for the overlapping section by referring to the speaker separation result for the previous frame when the previous frame of the overlapping section is more than a predetermined rate of voice data. there is. When the previous frame of the overlapping section is more than a predetermined ratio of voice data, the computing device 100 performs speaker separation for the overlapping section by referring to the speaker separation results for the previous frames, thereby providing information on the previous frames of the overlapping section. This can be used when the speaker separation results have statistical significance.

컴퓨팅 장치(100)는 제 1 음성 데이터와 제 2 음성 데이터에 기초하여 통합 음성 데이터를 생성(1220)할 수 있다. The computing device 100 may generate integrated voice data based on the first voice data and the second voice data (1220).

컴퓨팅 장치(100)는 통합 음성 데이터를 음성 인식 모델을 이용하여 대화록을 생성(1230)할 수 있다.The computing device 100 may generate a conversation log using integrated voice data using a voice recognition model (1230).

도 3은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 순서도를 도시한다.Figure 3 shows a flowchart for providing a conversation record service related to an embodiment of the present disclosure.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신할 수 있다(210). 이 경우, 컴퓨팅 장치(100)가 수신하는 음성 데이터는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 것으로, 하나 이상이 존재할 수 있다.According to one embodiment of the present disclosure, computing device 100 may receive one or more voice data, the voice data including one or more utterances for each user, from each of one or more user terminals (210). . In this case, the voice data received by the computing device 100 is received from each of one or more user terminals 10, and there may be more than one.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성할 수 있다(220). According to an embodiment of the present disclosure, the computing device 100 may generate a conversation record by converting each of one or more voice data into one or more voice recognition results through a voice recognition model (220).

컴퓨팅 장치(100)는 하나 이상의 음성 데이터 각각에 대하여 하나 이상의 발화 구간을 식별할 수 있다. 컴퓨팅 장치(100)는 음성 데이터에 포함된 하나 이상의 발화를 식별할 수 있다. 구체적으로, 컴퓨팅 장치(100)는 음성 데이터에 존재하는 하나 이상의 묵음 구간을 기준으로 사용자의 발화 구간을 식별할 수 있다. 또한, 컴퓨팅 장치(100)는 음성 데이터를 발화 구간에 기초하여 하나 이상의 음성 데이터 서브 데이터로 분할할 수 있다.The computing device 100 may identify one or more speech sections for each of one or more voice data. Computing device 100 may identify one or more utterances included in voice data. Specifically, the computing device 100 may identify the user's speech section based on one or more silent sections present in voice data. Additionally, the computing device 100 may divide voice data into one or more voice data subdata based on the speech section.

또한, 컴퓨팅 장치(100)는 음성 데이터에 포함된 하나 이상의 발화 구간 각각에서 하나 이상의 사용자 각각의 음성 식별할 수 있다. 또한, 컴퓨팅 장치(100)는 상기 식별된 하나 이상의 사용자 각각의 음성 중 음성의 크기가 사전 결정된 크기 이상을 가지는 발화를 음성 데이터에 대응하는 특정 화자로 결정할 수 있다. 또한, 컴퓨팅 장치(100)는 음성 데이터에 대응하는 특정 화자를 사용자 단말의 식별 정보와 매칭하여 저장할 수 있다.Additionally, the computing device 100 may identify the voice of one or more users in each of one or more speech sections included in voice data. Additionally, the computing device 100 may determine an utterance whose voice level is greater than or equal to a predetermined level among the voices of each of the identified one or more users as a specific speaker corresponding to the voice data. Additionally, the computing device 100 may store a specific speaker corresponding to voice data by matching it with identification information of the user terminal.

또한, 컴퓨팅 장치(100)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각에 통일된 시점을 부여할 수 있다.Additionally, the computing device 100 may assign a unified viewpoint to each of the one or more voice data received from each of the one or more user terminals 10.

또한, 컴퓨팅 장치(100)는 하나 이상의 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별할 수 있다. 구체적으로, 컴퓨팅 장치(100)는 음성 데이터를 상기 음성 데이터에 포함된 발화 구간에 기초하여 분할한 하나 이상의 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별할 수 있다.Additionally, the computing device 100 may identify the start time and end time of each of one or more voice data subdata. Specifically, the computing device 100 may identify the start time and end time of each of one or more voice data sub-data that is divided into voice data based on an utterance section included in the voice data.

또한, 컴퓨팅 장치(100)는 하나 이상의 음성 데이터 서브 데이터 각각을 음성 인식 모델의 입력으로 하여 하나 이상의 음성 데이터 서브 데이터 각각에 대응하는 하나 이상의 음성 인식 서브 결과를 출력할 수 있다. 이 경우, 음성 인식 모델은 사용자가 말하는 음성 언어를 문자 데이터로의 전환을 수행하는 모델로, 학습 데이터를 통해 사전 학습된 하나 이상의 네트워크 함수를 포함할 수 있다. 또한, 컴퓨팅 장치(100)는 하나 이상의 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 상기 대화록 상에서 하나 이상의 음성 인식 서브 결과 각각의 순서를 결정할 수 있다.Additionally, the computing device 100 may use each of the one or more voice data sub-data as input to a voice recognition model and output one or more voice recognition sub-results corresponding to each of the one or more voice data sub-data. In this case, the voice recognition model is a model that converts the voice language spoken by the user into text data, and may include one or more network functions pre-trained through training data. Additionally, the computing device 100 may determine the order of each of the one or more voice recognition sub-results in the conversation log based on the start and end points identified in each voice data sub-data that is the basis of the one or more voice recognition sub-results. there is.

또한, 컴퓨팅 장치(100)는 하나 이상의 음성 인식 서브 결과 각각의 순서에 기초하여 대화록을 생성할 수 있다. Additionally, the computing device 100 may generate a conversation log based on the order of each of one or more voice recognition sub-results.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 대화록을 포함하는 사용자 인터페이스를 생성하여 하나 이상의 사용자 단말로 제공할 수 있다(230).According to an embodiment of the present disclosure, the computing device 100 may generate a user interface including a conversation log and provide the user interface to one or more user terminals (230).

도 8은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 수단을 도시한다.Figure 8 illustrates means for providing a conversation record service related to one embodiment of the present disclosure.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 대화록 서비스를 제공하기 위해서, 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신하기 위한 수단(710), 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하기 위한 수단(720) 및 상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공하기 위한 수단(730)을 포함할 수 있다.According to one embodiment of the present disclosure, the computing device 100 collects one or more voice data from each of one or more user terminals, where the voice data includes one or more utterances for each user, in order to provide a conversation record service. means for receiving (710), means (720) for generating a conversation record by converting each of the one or more voice data into one or more voice recognition results through a voice recognition model, and generating a user interface including the conversation record to generate the one or more voice data. It may include means 730 for providing the information to the user terminal.

대안적으로, 상기 하나 이상의 음성 데이터 각각에 포함된 신호의 크기를 사전 결정된 기준 신호의 크기와의 비교에 기초하여 상기 하나 이상의 음성 데이터 각각에 포함된 신호의 크기를 표준화하기 위한 수단 및 상기 하나 이상의 음성 데이터 각각에 포함된 주파수를 분석하여 적어도 하나의 특정 주파수를 제거하기 위한 수단을 더 포함할 수 있다.Alternatively, means for standardizing the magnitude of a signal included in each of the one or more voice data based on a comparison of the magnitude of the signal included in each of the one or more voice data with the magnitude of a predetermined reference signal, and means for standardizing the magnitude of the signal included in each of the one or more voice data, and It may further include means for analyzing the frequencies included in each voice data and removing at least one specific frequency.

대안적으로, 상기 음성 데이터에 포함된 하나 이상의 묵음 구간에 기초하여 하나 이상의 발화 구간을 식별하기 위한 수단 및 상기 음성 데이터에 포함된 하나 이상의 발화 구간에서의 발화 음성의 크기에 기초하여 화자를 분리하기 위한 수단을 더 포함할 수 있다.Alternatively, means for identifying one or more speech sections based on one or more silent sections included in the speech data and separating speakers based on the loudness of speech in the one or more speech sections included in the speech data. Additional means may be included.

대안적으로, 상기 하나 이상의 음성 데이터 각각에 포함된 하나 이상의 발화 구간 에서의 발화 크기에 기초하여 화자를 분리하기 위한 수단은, 상기 음성 데이터에 포함된 하나 이상의 발화 중 사전 결정된 크기 이상의 발화 음성의 크기를 가지는 발화를 상기 음성 데이터에 대응하는 특정 화자로 결정하기 위한 수단, 상기 음성 데이터에서 상기 결정된 특정 화자의 음성을 제외한 다른 음성을 제거하기 위한 수단 및 상기 특정 화자를 상기 음성 데이터를 전송한 사용자 단말의 식별 정보와 매칭하여 저장하기 위한 수단을 포함할 수 있다. Alternatively, the means for separating speakers based on the utterance size in one or more utterance sections included in each of the one or more speech data may include the size of the speech voice of a predetermined size or more among the one or more utterances included in the speech data. Means for determining an utterance having a specific speaker corresponding to the voice data, means for removing voices other than the voice of the determined specific speaker from the voice data, and a user terminal that transmitted the voice data as the specific speaker. It may include means for matching and storing identification information.

대안적으로, 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하기 위한 수단은, 상기 음성 데이터를 발화 구간에 기초하여 하나 이상의 음성 데이터 서브 데이터로 분할하기 위한 수단, 상기 하나 이상의 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별하기 위한 수단, 상기 하나 이상의 음성 데이터 서브 데이터 각각을 상기 음성 인식 모델의 입력으로 하여 상기 하나 이상의 음성 데이터 서브 데이터 각각에 대응하는 하나 이상의 음성 인식 서브 결과를 출력하기 위한 수단 및 상기 하나 이상의 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 상기 하나 이상의 음성 인식 서브 결과 각각의 상기 대화록 상에서의 순서를 결정하기 위한 수단을 포함할 수 있다.Alternatively, the means for generating a conversation record by converting each of the one or more voice data into one or more voice recognition results through a voice recognition model may include dividing the voice data into one or more voice data sub-data based on an utterance section. means for identifying a start point and an end point of each of the one or more voice data subdata, and corresponding to each of the one or more voice data subdata by using each of the one or more voice data subdata as an input to the voice recognition model. means for outputting one or more voice recognition sub-results, and each of the one or more voice recognition sub-results based on a start point and an end point identified in each voice data sub-data on which the one or more voice recognition sub-results are based. It may include means for determining the order in the conversation log.

대안적으로, 상기 하나 이상의 음성 데이터는 각각의 사용자 단말로부터 수신된 제 1 음성 데이터 및 제 2 음성 데이터를 포함하며, 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하기 위한 수단은, 상기 제 1 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 1 음성 데이터 서브 데이터로 분할하고, 그리고 상기 제 2 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 2 음성 데이터 서브 데이터로 분할하기 위한 수단, 상기 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별하기 위한 수단, 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터를 상기 음성 인식 모델의 입력으로 하여 각각의 서브 데이터 각각에 대응하는 하나 이상의 제 1 음성 인식 서브 결과 및 하나 이상의 제 2 음성 인식 서브 결과를 출력하기 위한 수단, 상기 하나 이상의 제 1 음성 인식 서브 결과 및 상기 하나 이상의 제 2 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 상기 하나 이상의 제 1 음성 인식 서브 결과 및 상기 하나 이상의 제 2 음성 인식 서브 결과 각각의 상기 대화록 상에서의 순서를 결정하기 위한 수단 및 상기 결정된 순서 및 상기 하나 이상의 사용자 단말 각각의 식별 정보에 기초하여 대화록을 생성하기 위한 수단을 포함할 수 있다. Alternatively, the one or more voice data includes first voice data and second voice data received from each user terminal, and each of the one or more voice data is converted into one or more voice recognition results through a voice recognition model. The means for generating a conversation record divides the first voice data into one or more first voice data sub-data based on the speech section, and divides the second voice data into one or more second voice data sub-data based on the speech section. means for dividing into data, means for identifying a start point and an end point of each of the first voice data subdata and the second voice data subdata, the first voice data subdata and the second voice data subdata means for outputting one or more first voice recognition sub-results and one or more second voice recognition sub-results corresponding to each sub-data as input to the voice recognition model, the one or more first voice recognition sub-results and the Each of the one or more first voice recognition sub-results and the one or more second voice recognition sub-results based on start and end points identified in each voice data sub-data that is the basis of the one or more second voice recognition sub-results It may include means for determining an order in the conversation log and means for generating a conversation log based on the determined order and identification information of each of the one or more user terminals.

대안적으로, 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터를 상기 음성 인식 모델의 입력으로 하여 각각의 서브 데이터에 대응하는 하나 이상의 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과를 출력하기 위한 수단은, 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 기초하여 중첩 구간을 식별하기 위한 수단, 상기 중첩 구간이 식별된 경우, 상기 중첩 구간에 대응하는 제 1 음성 인식 서브 결과 및 상기 제 2 음성 인식 서브 결과 중 적어도 하나에 대한 분할 여부를 결정하기 위한 수단 및 상기 분할이 결정된 경우, 상기 중첩 구간에 대응하는 음성 인식 서브 결과를 분할하기 위한 수단을 포함할 수 있다.Alternatively, the first voice data sub-data and the second voice data sub-data are input to the voice recognition model, and one or more first voice recognition sub-results and one or more second voice recognition sub-results corresponding to each sub-data are generated. The means for outputting means for identifying an overlapping section based on the start time and end time of each of the first voice data subdata and the second voice data subdata, and when the overlapping section is identified, the overlap Means for determining whether to divide at least one of the first voice recognition sub-result and the second voice recognition sub-result corresponding to the section, and when the division is determined, dividing the voice recognition sub-result corresponding to the overlapping section It may include means for

대안적으로, 상기 중첩 구간이 식별된 경우, 상기 중첩 구간에 대응하는 제 1 음성 인식 서브 결과 및 상기 제 2 음성 인식 서브 결과 중 적어도 하나에 대한 분할 여부를 결정하기 위한 수단은, 상기 중첩 구간에 대응하는 음성 인식 결과에 대하여 통계적 언어 모델을 통해 상기 음성 인식 결과의 분할 여부를 결정하기 위한 수단을 포함할 수 있다.Alternatively, when the overlapping section is identified, means for determining whether to divide at least one of the first voice recognition sub-result and the second voice recognition sub-result corresponding to the overlapping section includes: It may include means for determining whether to divide the voice recognition result through a statistical language model for the corresponding voice recognition result.

대안적으로, 상기 하나 이상의 음성 인식 결과의 의미 분석 결과, 상기 하나 이상의 음성 인식 결과에 포함된 단어 별 반복 횟수 및 사전 결정된 대화 주제 중 적어도 하나에 기초하여 상기 대화록에 대한 하나 이상의 키워드를 결정하기 위한 수단 및 상기 하나 이상의 음성 인식 결과에서 상기 하나 이상의 키워드 각각의 위치를 식별하기 위한 수단을 더 포함할 수 있다.Alternatively, determining one or more keywords for the conversation record based on at least one of a result of semantic analysis of the one or more voice recognition results, a repetition count for each word included in the one or more voice recognition results, and a predetermined conversation topic. It may further include means for identifying the location of each of the one or more keywords in the one or more voice recognition results.

대안적으로, 상기 사용자 인터페이스는, 사용자의 프로필, 상기 사용자가 등록한 하나 이상의 다른 사용자 목록, 상기 사용자가 추가 사용자를 등록하기 위한 등록 요청 버튼 및 상기 하나 이상의 다른 사용자 각각에 대한 접속 여부를 표시하는 사용자 목록 표시 화면을 포함하고, 그리고 상기 사용자가 참여한 하나 이상의 대화 각각의 명칭에 대한 정보, 상기 하나 이상의 대화 중 특정 대화를 검색하기 위한 대화 검색 버튼 및 하나 이상의 다른 사용자와 대화방을 개설하기 위한 대화방 개설 버튼을 표시하는 대화 목록 표시 화면을 포함할 수 있다. Alternatively, the user interface may include a user interface that displays a user's profile, a list of one or more other users registered by the user, a registration request button for the user to register additional users, and whether the user has access to each of the one or more other users. It includes a list display screen, and information about the name of each of one or more conversations in which the user participates, a conversation search button for searching a specific conversation among the one or more conversations, and a chat room opening button for opening a chat room with one or more other users. It may include a conversation list display screen that displays.

대안적으로, 상기 프로세서는, 사용자 단말로부터 상기 대화방 개설 버튼에 대한 선택 입력을 수신하는 경우, 상기 하나 이상의 다른 사용자를 대화방에 포함시키기 위한 사용자 선택 입력 화면을 제공하도록 하는 제어 신호를 상기 사용자 단말로 전송할 것을 결정하기 위한 수단을 더 포함할 수 있다. Alternatively, when receiving a selection input for the chat room opening button from the user terminal, the processor sends a control signal to the user terminal to provide a user selection input screen for including the one or more other users in the chat room. It may further include means for determining what to transmit.

대안적으로, 상기 프로세서는, 사용자 단말로부터 상기 사용자가 참여한 하나 이상의 대화방 목록 중 특정 대화방에 대한 선택 입력을 수신하는 경우, 상기 특정 대화방에 대응하는 대화록 및 하나 이상의 키워드를 포함하는 대화록 표시 화면을 제공하도록 하는 제어 신호를 상기 사용자 단말로 전송할 것을 결정하기 위한 수단을 더 포함할 수 있다. Alternatively, when receiving a selection input for a specific chat room from the list of one or more chat rooms in which the user participates from the user terminal, the processor provides a chat log display screen including a chat log corresponding to the specific chat room and one or more keywords. It may further include means for determining whether to transmit a control signal to the user terminal.

대안적으로, 상기 프로세서는, 상기 사용자 단말로부터 상기 하나 이상의 키워드 중 특정 키워드에 대한 선택 입력을 수신하는 경우, 해당 키워드에 대응하는 음성 인식 결과를 검색하고, 그리고 상기 검색된 음성 인식 결과의 생성에 기초한 음성 데이터의 발화 구간을 재생하기 위한 키워드 재생 화면을 제공하도록 하는 제어 신호를 상기 사용자 단말로 전송할 것을 결정하기 위한 수단을 더 포함할 수 있다. Alternatively, when receiving a selection input for a specific keyword among the one or more keywords from the user terminal, the processor searches for a voice recognition result corresponding to the keyword, and based on the generation of the searched voice recognition result, It may further include means for determining whether to transmit a control signal to the user terminal to provide a keyword playback screen for reproducing an utterance section of voice data.

대안적으로, 상기 사용자 인터페이스는, 새로운 대화방이 개설된 경우, 상기 대화방에 포함된 하나 이상의 사용자 각각으로부터 음성 데이터를 수신하기 위한 녹음 시작 버튼 및 상기 대화방에 포함된 하나 이상의 사용자 각각으로부터 수신한 하나 이상의 음성 데이터에 기초하여 생성된 하나 이상의 음성 인식 결과를 표시하는 대화록 표시 화면을 포함할 수 있다. Alternatively, when a new chat room is opened, the user interface may include a recording start button for receiving voice data from each of the one or more users included in the chat room, and one or more buttons to receive voice data from each of the one or more users included in the chat room. It may include a conversation log display screen that displays one or more voice recognition results generated based on voice data.

대안적으로, 상기 사용자 인터페이스는, 사용자 단말로부터 상기 대화록에 포함된 하나 이상의 음성 인식 결과에 대한 수정 요청을 입력 받는 텍스트 편집 화면을 포함하고, 그리고 상기 프로세서는, 상기 사용자 단말로부터 상기 텍스트 편집 화면을 통해 상기 대화록에 포함된 하나 이상의 음성 인식 결과에 대한 수정 요청을 수신하는 경우, 상기 음성 인식 모델이 상기 수정 요청에 대응하는 음성 인식 결과를 출력하도록 상기 음성 인식 모델을 보정하기 위한 수단을 더 포함할 수 있다. Alternatively, the user interface includes a text editing screen that receives a request for modification of one or more voice recognition results included in the conversation log from a user terminal, and the processor displays the text editing screen from the user terminal. When receiving a request for modification of one or more voice recognition results included in the conversation log, the device may further include means for calibrating the voice recognition model so that the voice recognition model outputs a voice recognition result corresponding to the modification request. You can.

도 9는 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 모듈을 도시한다.Figure 9 illustrates a module for providing a conversation record service related to an embodiment of the present disclosure.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 대화록 서비스를 제공하기 위해서, 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신하기 위한 모듈(810), 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하기 위한 모듈(820) 및 상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공하기 위한 모듈(830)을 포함할 수 있다.According to one embodiment of the present disclosure, the computing device 100 collects one or more voice data from each of one or more user terminals, where the voice data includes one or more utterances for each user, in order to provide a conversation record service. A module 810 for receiving, a module 820 for generating a conversation record by converting each of the one or more voice data into one or more voice recognition results through a voice recognition model, and a user interface including the conversation record to generate the one It may include a module 830 for providing to the above user terminals.

도 10은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 로직을 도시한다.Figure 10 shows logic for providing a conversation record service related to an embodiment of the present disclosure.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 대화록 서비스를 제공하기 위해서, 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신하기 위한 로직(910), 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하기 위한 로직(920) 및 상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공하기 위한 로직(930)을 포함할 수 있다.According to one embodiment of the present disclosure, the computing device 100 collects one or more voice data from each of one or more user terminals, where the voice data includes one or more utterances for each user, in order to provide a conversation record service. Logic 910 for receiving, logic 920 for generating a conversation record by converting each of the one or more voice data into one or more voice recognition results through a voice recognition model, and generating a user interface including the conversation record to It may include logic 930 for providing to the above user terminals.

도 11은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 회로를 도시한다. Figure 11 shows a circuit for providing a conversation record service related to an embodiment of the present disclosure.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 대화록 서비스를 제공하기 위해서, 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신하기 위한 회로(1010), 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하기 위한 회로(1020) 및 상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공하기 위한 회로(1030)를 포함할 수 있다.According to one embodiment of the present disclosure, the computing device 100 collects one or more voice data from each of one or more user terminals, where the voice data includes one or more utterances for each user, in order to provide a conversation record service. A circuit 1010 for receiving, a circuit 1020 for generating a conversation log by converting each of the one or more voice data into one or more voice recognition results through a voice recognition model, and a user interface including the conversation record to generate the one It may include a circuit 1030 for providing information to the above user terminal.

당업자들은 추가적으로 여기서 개시된 실시예들과 관련되어 설명된 다양한 예시적 논리적 블록들, 구성들, 모듈들, 회로들, 수단들, 로직들, 및 알고리즘 단계들이 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양쪽 모두의 조합들로 구현될 수 있음을 인식해야 한다. 하드웨어 및 소프트웨어의 상호교환성을 명백하게 예시하기 위해, 다양한 예시적 컴포넌트들, 블록들, 구성들, 수단들, 로직들, 모듈들, 회로들, 및 단계들은 그들의 기능성 측면에서 일반적으로 위에서 설명되었다. 그러한 기능성이 하드웨어로 또는 소프트웨어로서 구현되는지 여부는 전반적인 시스템에 부과된 특정 어플리케이션(application) 및 설계 제한들에 달려 있다. 숙련된 기술자들은 각각의 특정 어플리케이션들을 위해 다양한 방법들로 설명된 기능성을 구현할 수 있으나, 그러한 구현의 결정들이 본 개시내용의 영역을 벗어나게 하는 것으로 해석되어서는 안된다.Those skilled in the art will additionally recognize that the various illustrative logical blocks, components, modules, circuits, means, logic, and algorithm steps described in connection with the embodiments disclosed herein may be implemented using electronic hardware, computer software, or a combination of both. It must be recognized that it can be implemented with To clearly illustrate the interchangeability of hardware and software, various illustrative components, blocks, configurations, means, logics, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented in hardware or software will depend on the specific application and design constraints imposed on the overall system. Skilled artisans may implement the described functionality in varying ways for each particular application, but such implementation decisions should not be interpreted as causing a departure from the scope of the present disclosure.

도 16는 본 개시의 일 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 간략하고 일반적인 개략도를 도시한다.Figure 16 shows a brief, general schematic diagram of an example computing environment in which embodiments of the present disclosure may be implemented.

본 개시가 일반적으로 하나 이상의 컴퓨터 상에서 실행될 수 있는 컴퓨터 실행가능 명령어와 관련하여 전술되었지만, 당업자라면 본 개시가 기타 프로그램 모듈들과 결합되어 및/또는 하드웨어와 소프트웨어의 조합으로서 구현될 수 있다는 것을 잘 알 것이다.Although the disclosure has been described generally in the context of computer-executable instructions that can be executed on one or more computers, those skilled in the art will appreciate that the disclosure can be combined with other program modules and/or implemented as a combination of hardware and software. will be.

일반적으로, 프로그램 모듈은 특정의 태스크를 수행하거나 특정의 추상 데이터 유형을 구현하는 루틴, 프로그램, 컴포넌트, 데이터 구조, 기타 등등을 포함한다. 또한, 당업자라면 본 개시의 방법이 단일-프로세서 또는 멀티프로세서 컴퓨터 시스템, 미니컴퓨터, 메인프레임 컴퓨터는 물론 퍼스널 컴퓨터, 핸드헬드 컴퓨팅 장치, 마이크로프로세서-기반 또는 프로그램가능 가전 제품, 기타 등등(이들 각각은 하나 이상의 연관된 장치와 연결되어 동작할 수 있음)을 비롯한 다른 컴퓨터 시스템 구성으로 실시될 수 있다는 것을 잘 알 것이다.Typically, program modules include routines, programs, components, data structures, etc. that perform specific tasks or implement specific abstract data types. Additionally, those skilled in the art will understand that the methods of the present disclosure are applicable to single-processor or multiprocessor computer systems, minicomputers, mainframe computers, as well as personal computers, handheld computing devices, microprocessor-based or programmable consumer electronics, and the like (each of which may be It will be appreciated that the system may be implemented with other computer system configurations, including those capable of operating in conjunction with one or more associated devices.

본 개시의 설명된 실시예들은 또한 어떤 태스크들이 통신 네트워크를 통해 연결되어 있는 원격 처리 장치들에 의해 수행되는 분산 컴퓨팅 환경에서 실시될 수 있다. 분산 컴퓨팅 환경에서, 프로그램 모듈은 로컬 및 원격 메모리 저장 장치 둘다에 위치할 수 있다.The described embodiments of the disclosure can also be practiced in distributed computing environments where certain tasks are performed by remote processing devices that are linked through a communications network. In a distributed computing environment, program modules may be located in both local and remote memory storage devices.

컴퓨터는 통상적으로 다양한 컴퓨터 판독가능 매체를 포함한다. 컴퓨터에 의해 액세스 가능한 매체는 그 어떤 것이든지 컴퓨터 판독가능 매체가 될 수 있고, 이러한 컴퓨터 판독가능 매체는 휘발성 및 비휘발성 매체, 일시적(transitory) 및 비일시적(non-transitory) 매체, 이동식 및 비-이동식 매체를 포함한다. 제한이 아닌 예로서, 컴퓨터 판독가능 매체는 컴퓨터 판독가능 저장 매체 및 컴퓨터 판독가능 전송 매체를 포함할 수 있다. 컴퓨터 판독가능 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보를 저장하는 임의의 방법 또는 기술로 구현되는 휘발성 및 비휘발성 매체, 일시적 및 비-일시적 매체, 이동식 및 비이동식 매체를 포함한다. 컴퓨터 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 기타 메모리 기술, CD-ROM, DVD(digital video disk) 또는 기타 광 디스크 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 장치 또는 기타 자기 저장 장치, 또는 컴퓨터에 의해 액세스될 수 있고 원하는 정보를 저장하는 데 사용될 수 있는 임의의 기타 매체를 포함하지만, 이에 한정되지 않는다.Computers typically include a variety of computer-readable media. Computer-readable media can be any medium that can be accessed by a computer, and such computer-readable media includes volatile and non-volatile media, transitory and non-transitory media, removable and non-transitory media. Includes removable media. By way of example, and not limitation, computer-readable media may include computer-readable storage media and computer-readable transmission media. Computer-readable storage media refers to volatile and non-volatile media, transient and non-transitory media, removable and non-removable, implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Includes media. Computer storage media includes RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROM, digital video disk (DVD) or other optical disk storage, magnetic cassette, magnetic tape, magnetic disk storage or other magnetic storage devices; or any other medium that can be accessed by a computer and used to store desired information.

컴퓨터 판독가능 전송 매체는 통상적으로 반송파(carrier wave) 또는 기타 전송 메커니즘(transport mechanism)과 같은 피변조 데이터 신호(modulated data signal)에 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터등을 구현하고 모든 정보 전달 매체를 포함한다. 피변조 데이터 신호라는 용어는 신호 내에 정보를 인코딩하도록 그 신호의 특성들 중 하나 이상을 설정 또는 변경시킨 신호를 의미한다. 제한이 아닌 예로서, 컴퓨터 판독가능 전송 매체는 유선 네트워크 또는 직접 배선 접속(direct-wired connection)과 같은 유선 매체, 그리고 음향, RF, 적외선, 기타 무선 매체와 같은 무선 매체를 포함한다. 상술된 매체들 중 임의의 것의 조합도 역시 컴퓨터 판독가능 전송 매체의 범위 안에 포함되는 것으로 한다.A computer-readable transmission medium typically implements computer-readable instructions, data structures, program modules, or other data on a modulated data signal, such as a carrier wave or other transport mechanism. Includes all information delivery media. The term modulated data signal refers to a signal in which one or more of the characteristics of the signal have been set or changed to encode information within the signal. By way of example, and not limitation, computer-readable transmission media includes wired media such as a wired network or direct-wired connection, and wireless media such as acoustic, RF, infrared, and other wireless media. Combinations of any of the above are also intended to be included within the scope of computer-readable transmission media.

컴퓨터(1102)를 포함하는 본 개시의 여러가지 측면들을 구현하는 예시적인 환경(1100)이 나타내어져 있으며, 컴퓨터(1102)는 처리 장치(1104), 시스템 메모리(1106) 및 시스템 버스(1108)를 포함한다. 시스템 버스(1108)는 시스템 메모리(1106)(이에 한정되지 않음)를 비롯한 시스템 컴포넌트들을 처리 장치(1104)에 연결시킨다. 처리 장치(1104)는 다양한 상용 프로세서들 중 임의의 프로세서일 수 있다. 듀얼 프로세서 및 기타 멀티프로세서 아키텍처도 역시 처리 장치(1104)로서 이용될 수 있다.An example environment 1100 is shown that implements various aspects of the present disclosure, including a computer 1102, which includes a processing unit 1104, a system memory 1106, and a system bus 1108. do. System bus 1108 couples system components, including but not limited to system memory 1106, to processing unit 1104. Processing unit 1104 may be any of a variety of commercially available processors. Dual processors and other multiprocessor architectures may also be used as processing unit 1104.

시스템 버스(1108)는 메모리 버스, 주변장치 버스, 및 다양한 상용 버스 아키텍처 중 임의의 것을 사용하는 로컬 버스에 추가적으로 상호 연결될 수 있는 몇가지 유형의 버스 구조 중 임의의 것일 수 있다. 시스템 메모리(1106)는 판독 전용 메모리(ROM)(2110) 및 랜덤 액세스 메모리(RAM)(2112)를 포함한다. 기본 입/출력 시스템(BIOS)은 ROM, EPROM, EEPROM 등의 비휘발성 메모리(2110)에 저장되며, 이 BIOS는 시동 중과 같은 때에 컴퓨터(1102) 내의 구성요소들 간에 정보를 전송하는 일을 돕는 기본적인 루틴을 포함한다. RAM(2112)은 또한 데이터를 캐싱하기 위한 정적 RAM 등의 고속 RAM을 포함할 수 있다.System bus 1108 may be any of several types of bus structures that may further be interconnected to a memory bus, peripheral bus, and local bus using any of a variety of commercial bus architectures. System memory 1106 includes read only memory (ROM) 2110 and random access memory (RAM) 2112. The basic input/output system (BIOS) is stored in non-volatile memory 2110, such as ROM, EPROM, and EEPROM, and is a basic input/output system that helps transfer information between components within the computer 1102, such as during startup. Contains routines. RAM 2112 may also include high-speed RAM, such as static RAM, for caching data.

컴퓨터(1102)는 또한 내장형 하드 디스크 드라이브(HDD)(2114)(예를 들어, EIDE, SATA)이 내장형 하드 디스크 드라이브(2114)는 또한 적당한 섀시(도시 생략) 내에서 외장형 용도로 구성될 수 있음), 자기 플로피 디스크 드라이브(FDD)(2116)(예를 들어, 이동식 디스켓(2118)으로부터 판독을 하거나 그에 기록을 하기 위한 것임), 및 광 디스크 드라이브(1120)(예를 들어, CD-ROM 디스크(1122)를 판독하거나 DVD 등의 기타 고용량 광 매체로부터 판독을 하거나 그에 기록을 하기 위한 것임)를 포함한다. 하드 디스크 드라이브(2114), 자기 디스크 드라이브(2116) 및 광 디스크 드라이브(1120)는 각각 하드 디스크 드라이브 인터페이스(1124), 자기 디스크 드라이브 인터페이스(1126) 및 광 드라이브 인터페이스(1128)에 의해 시스템 버스(1108)에 연결될 수 있다. 외장형 드라이브 구현을 위한 인터페이스(1124)는 USB(Universal Serial Bus) 및 IEEE 1394 인터페이스 기술 중 적어도 하나 또는 그 둘 다를 포함한다.Computer 1102 may also include an internal hard disk drive (HDD) 2114 (e.g., EIDE, SATA). Internal hard disk drive 2114 may also be configured for external use within a suitable chassis (not shown). ), a magnetic floppy disk drive (FDD) 2116 (e.g., for reading from or writing to a removable diskette 2118), and an optical disk drive 1120 (e.g., a CD-ROM disk) (1122) or for reading from or writing to other high-capacity optical media such as DVDs). Hard disk drive 2114, magnetic disk drive 2116, and optical disk drive 1120 are connected to system bus 1108 by hard disk drive interface 1124, magnetic disk drive interface 1126, and optical drive interface 1128, respectively. ) can be connected to. The interface 1124 for implementing an external drive includes at least one or both of Universal Serial Bus (USB) and IEEE 1394 interface technologies.

이들 드라이브 및 그와 연관된 컴퓨터 판독가능 매체는 데이터, 데이터 구조, 컴퓨터 실행가능 명령어, 기타 등등의 비휘발성 저장을 제공한다. 컴퓨터(1102)의 경우, 드라이브 및 매체는 임의의 데이터를 적당한 디지털 형식으로 저장하는 것에 대응한다. 상기에서의 컴퓨터 판독가능 매체에 대한 설명이 HDD, 이동식 자기 디스크, 및 CD 또는 DVD 등의 이동식 광 매체를 언급하고 있지만, 당업자라면 집 드라이브(zip drive), 자기 카세트, 플래쉬 메모리 카드, 카트리지, 기타 등등의 컴퓨터에 의해 판독가능한 다른 유형의 매체도 역시 예시적인 운영 환경에서 사용될 수 있으며 또 임의의 이러한 매체가 본 개시의 방법들을 수행하기 위한 컴퓨터 실행가능 명령어를 포함할 수 있다는 것을 잘 알 것이다.These drives and their associated computer-readable media provide non-volatile storage of data, data structures, computer-executable instructions, and the like. For computer 1102, drive and media correspond to storing any data in a suitable digital format. Although the description of computer-readable media above refers to removable optical media such as HDDs, removable magnetic disks, and CDs or DVDs, those skilled in the art will also recognize removable optical media such as zip drives, magnetic cassettes, flash memory cards, cartridges, etc. It will be appreciated that other types of computer-readable media, such as the like, may also be used in the example operating environment and that any such media may contain computer-executable instructions for performing the methods of the present disclosure.

운영 체제(2130), 하나 이상의 애플리케이션 프로그램(2132), 기타 프로그램 모듈(2134) 및 프로그램 데이터(2136)를 비롯한 다수의 프로그램 모듈이 드라이브 및 RAM(2112)에 저장될 수 있다. 운영 체제, 애플리케이션, 모듈 및/또는 데이터의 전부 또는 그 일부분이 또한 RAM(2112)에 캐싱될 수 있다. 본 개시가 여러가지 상업적으로 이용 가능한 운영 체제 또는 운영 체제들의 조합에서 구현될 수 있다는 것을 잘 알 것이다.A number of program modules may be stored in the drive and RAM 2112, including an operating system 2130, one or more application programs 2132, other program modules 2134, and program data 2136. All or portions of the operating system, applications, modules and/or data may also be cached in RAM 2112. It will be appreciated that the present disclosure may be implemented on various commercially available operating systems or combinations of operating systems.

사용자는 하나 이상의 유선/무선 입력 장치, 예를 들어, 키보드(2138) 및 마우스(1140) 등의 포인팅 장치를 통해 컴퓨터(1102)에 명령 및 정보를 입력할 수 있다. 기타 입력 장치(도시 생략)로는 마이크, IR 리모콘, 조이스틱, 게임 패드, 스타일러스 펜, 터치 스크린, 기타 등등이 있을 수 있다. 이들 및 기타 입력 장치가 종종 시스템 버스(1108)에 연결되어 있는 입력 장치 인터페이스(1142)를 통해 처리 장치(1104)에 연결되지만, 병렬 포트, IEEE 1394 직렬 포트, 게임 포트, USB 포트, IR 인터페이스, 기타 등등의 기타 인터페이스에 의해 연결될 수 있다.A user may enter commands and information into computer 1102 through one or more wired/wireless input devices, such as a keyboard 2138 and a pointing device such as mouse 1140. Other input devices (not shown) may include microphones, IR remote controls, joysticks, game pads, stylus pens, touch screens, etc. These and other input devices are connected to the processing unit 1104 through an input device interface 1142, which is often connected to the system bus 1108, but may also include a parallel port, an IEEE 1394 serial port, a game port, a USB port, an IR interface, It can be connected by other interfaces, etc.

모니터(1144) 또는 다른 유형의 디스플레이 장치도 역시 비디오 어댑터(1146) 등의 인터페이스를 통해 시스템 버스(1108)에 연결된다. 모니터(1144)에 부가하여, 컴퓨터는 일반적으로 스피커, 프린터, 기타 등등의 기타 주변 출력 장치(도시 생략)를 포함한다.A monitor 1144 or other type of display device is also connected to system bus 1108 through an interface, such as a video adapter 1146. In addition to monitor 1144, computers typically include other peripheral output devices (not shown) such as speakers, printers, etc.

컴퓨터(1102)는 유선 및/또는 무선 통신을 통한 원격 컴퓨터(들)(1148) 등의 하나 이상의 원격 컴퓨터로의 논리적 연결을 사용하여 네트워크화된 환경에서 동작할 수 있다. 원격 컴퓨터(들)(1148)는 워크스테이션, 컴퓨팅 디바이스 컴퓨터, 라우터, 퍼스널 컴퓨터, 휴대용 컴퓨터, 마이크로프로세서-기반 오락 기기, 피어 장치 또는 기타 통상의 네트워크 노드일 수 있으며, 일반적으로 컴퓨터(1102)에 대해 기술된 구성요소들 중 다수 또는 그 전부를 포함하지만, 간략함을 위해, 메모리 저장 장치(1150)만이 도시되어 있다. 도시되어 있는 논리적 연결은 근거리 통신망(LAN)(1152) 및/또는 더 큰 네트워크, 예를 들어, 원거리 통신망(WAN)(1154)에의 유선/무선 연결을 포함한다. 이러한 LAN 및 WAN 네트워킹 환경은 사무실 및 회사에서 일반적인 것이며, 인트라넷 등의 전사적 컴퓨터 네트워크(enterprise-wide computer network)를 용이하게 해주며, 이들 모두는 전세계 컴퓨터 네트워크, 예를 들어, 인터넷에 연결될 수 있다.Computer 1102 may operate in a networked environment using logical connections to one or more remote computers, such as remote computer(s) 1148, via wired and/or wireless communications. Remote computer(s) 1148 may be a workstation, computing device computer, router, personal computer, portable computer, microprocessor-based entertainment device, peer device, or other conventional network node, and is generally connected to computer 1102. For simplicity, only memory storage device 1150 is shown, although it includes many or all of the components described. The logical connections depicted include wired/wireless connections to a local area network (LAN) 1152 and/or a larger network, such as a wide area network (WAN) 1154. These LAN and WAN networking environments are common in offices and companies and facilitate enterprise-wide computer networks, such as intranets, all of which can be connected to a worldwide computer network, such as the Internet.

LAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 유선 및/또는 무선 통신 네트워크 인터페이스 또는 어댑터(1156)를 통해 로컬 네트워크(1152)에 연결된다. 어댑터(1156)는 LAN(1152)에의 유선 또는 무선 통신을 용이하게 해줄 수 있으며, 이 LAN(1152)은 또한 무선 어댑터(1156)와 통신하기 위해 그에 설치되어 있는 무선 액세스 포인트를 포함하고 있다. WAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 모뎀(1158)을 포함할 수 있거나, WAN(1154) 상의 통신 컴퓨팅 디바이스에 연결되거나, 또는 인터넷을 통하는 등, WAN(1154)을 통해 통신을 설정하는 기타 수단을 갖는다. 내장형 또는 외장형 및 유선 또는 무선 장치일 수 있는 모뎀(1158)은 직렬 포트 인터페이스(1142)를 통해 시스템 버스(1108)에 연결된다. 네트워크화된 환경에서, 컴퓨터(1102)에 대해 설명된 프로그램 모듈들 또는 그의 일부분이 원격 메모리/저장 장치(1150)에 저장될 수 있다. 도시된 네트워크 연결이 예시적인 것이며 컴퓨터들 사이에 통신 링크를 설정하는 기타 수단이 사용될 수 있다는 것을 잘 알 것이다.When used in a LAN networking environment, computer 1102 is connected to local network 1152 through wired and/or wireless communication network interfaces or adapters 1156. Adapter 1156 may facilitate wired or wireless communication to LAN 1152, which also includes a wireless access point installed thereon for communicating with wireless adapter 1156. When used in a WAN networking environment, the computer 1102 may include a modem 1158 or be connected to a communicating computing device on the WAN 1154 or to establish communications over the WAN 1154, such as over the Internet. Have other means. Modem 1158, which may be internal or external and a wired or wireless device, is coupled to system bus 1108 via serial port interface 1142. In a networked environment, program modules described for computer 1102, or portions thereof, may be stored in remote memory/storage device 1150. It will be appreciated that the network connections shown are exemplary and that other means of establishing a communications link between computers may be used.

컴퓨터(1102)는 무선 통신으로 배치되어 동작하는 임의의 무선 장치 또는 개체, 예를 들어, 프린터, 스캐너, 데스크톱 및/또는 휴대용 컴퓨터, PDA(portable data assistant), 통신 위성, 무선 검출가능 태그와 연관된 임의의 장비 또는 장소, 및 전화와 통신을 하는 동작을 한다. 이것은 적어도 Wi-Fi 및 블루투스 무선 기술을 포함한다. 따라서, 통신은 종래의 네트워크에서와 같이 미리 정의된 구조이거나 단순하게 적어도 2개의 장치 사이의 애드혹 통신(ad hoc communication)일 수 있다.Computer 1102 may be associated with any wireless device or object deployed and operating in wireless communications, such as a printer, scanner, desktop and/or portable computer, portable data assistant (PDA), communications satellite, wirelessly detectable tag. Performs actions to communicate with any device or location and telephone. This includes at least Wi-Fi and Bluetooth wireless technologies. Accordingly, communication may be a predefined structure as in a conventional network or may simply be ad hoc communication between at least two devices.

Wi-Fi(Wireless Fidelity)는 유선 없이도 인터넷 등으로의 연결을 가능하게 해준다. Wi-Fi는 이러한 장치, 예를 들어, 컴퓨터가 실내에서 및 실외에서, 즉 기지국의 통화권 내의 아무 곳에서나 데이터를 전송 및 수신할 수 있게 해주는 셀 전화와 같은 무선 기술이다. Wi-Fi 네트워크는 안전하고 신뢰성 있으며 고속인 무선 연결을 제공하기 위해 IEEE 802.11(a,b,g, 기타)이라고 하는 무선 기술을 사용한다. 컴퓨터를 서로에, 인터넷에 및 유선 네트워크(IEEE 802.3 또는 이더넷을 사용함)에 연결시키기 위해 Wi-Fi가 사용될 수 있다. Wi-Fi 네트워크는 비인가 2.4 및 5 GHz 무선 대역에서, 예를 들어, 11Mbps(802.11a) 또는 54 Mbps(802.11b) 데이터 레이트로 동작하거나, 양 대역(듀얼 대역)을 포함하는 제품에서 동작할 수 있다.Wi-Fi (Wireless Fidelity) allows connection to the Internet, etc. without wires. Wi-Fi is a wireless technology, like cell phones, that allows these devices, such as computers, to send and receive data indoors and outdoors, anywhere within the coverage area of a base station. Wi-Fi networks use wireless technology called IEEE 802.11 (a,b,g, etc.) to provide secure, reliable, and high-speed wireless connections. Wi-Fi can be used to connect computers to each other, the Internet, and wired networks (using IEEE 802.3 or Ethernet). Wi-Fi networks can operate in the unlicensed 2.4 and 5 GHz wireless bands, for example, at data rates of 11 Mbps (802.11a) or 54 Mbps (802.11b), or in products that include both bands (dual band). there is.

본 개시의 기술 분야에서 통상의 지식을 가진 자는 정보 및 신호들이 임의의 다양한 상이한 기술들 및 기법들을 이용하여 표현될 수 있다는 것을 이해할 것이다. 예를 들어, 위의 설명에서 참조될 수 있는 데이터, 지시들, 명령들, 정보, 신호들, 비트들, 심볼들 및 칩들은 전압들, 전류들, 전자기파들, 자기장들 또는 입자들, 광학장들 또는 입자들, 또는 이들의 임의의 결합에 의해 표현될 수 있다.Those skilled in the art will understand that information and signals may be represented using any of a variety of different technologies and techniques. For example, data, instructions, commands, information, signals, bits, symbols and chips that may be referenced in the above description include voltages, currents, electromagnetic waves, magnetic fields or particles, optical fields. It can be expressed by particles or particles, or any combination thereof.

본 개시의 기술 분야에서 통상의 지식을 가진 자는 여기에 개시된 실시예들과 관련하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 프로세서들, 수단들, 회로들 및 알고리즘 단계들이 전자 하드웨어, (편의를 위해, 여기에서 "소프트웨어"로 지칭되는) 다양한 형태들의 프로그램 또는 설계 코드 또는 이들 모두의 결합에 의해 구현될 수 있다는 것을 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 호환성을 명확하게 설명하기 위해, 다양한 예시적인 컴포넌트들, 블록들, 모듈들, 회로들 및 단계들이 이들의 기능과 관련하여 위에서 일반적으로 설명되었다. 이러한 기능이 하드웨어 또는 소프트웨어로서 구현되는지 여부는 특정한 애플리케이션 및 전체 시스템에 대하여 부과되는 설계 제약들에 따라 좌우된다. 본 개시의 기술 분야에서 통상의 지식을 가진 자는 각각의 특정한 애플리케이션에 대하여 다양한 방식들로 설명된 기능을 구현할 수 있으나, 이러한 구현 결정들은 본 개시의 범위를 벗어나는 것으로 해석되어서는 안 될 것이다.Those skilled in the art will understand that the various illustrative logical blocks, modules, processors, means, circuits and algorithm steps described in connection with the embodiments disclosed herein may be used in electronic hardware, (for convenience) It will be understood that the implementation may be implemented by various forms of program or design code (referred to herein as “software”) or a combination of both. To clearly illustrate this interoperability of hardware and software, various illustrative components, blocks, modules, circuits and steps have been described above generally with respect to their functionality. Whether this functionality is implemented as hardware or software depends on the specific application and design constraints imposed on the overall system. A person skilled in the art of this disclosure may implement the described functionality in various ways for each specific application, but such implementation decisions should not be construed as departing from the scope of this disclosure.

여기서 제시된 다양한 실시예들은 방법, 장치, 또는 표준 프로그래밍 및/또는 엔지니어링 기술을 사용한 제조 물품(article)으로 구현될 수 있다. 용어 "제조 물품"은 임의의 컴퓨터-판독가능 장치로부터 액세스 가능한 컴퓨터 프로그램, 캐리어, 또는 매체(media)를 포함한다. 예를 들어, 컴퓨터-판독가능 매체는 자기 저장 장치(예를 들면, 하드 디스크, 플로피 디스크, 자기 스트립, 등), 광학 디스크(예를 들면, CD, DVD, 등), 스마트 카드, 및 플래쉬 메모리 장치(예를 들면, EEPROM, 카드, 스틱, 키 드라이브, 등)를 포함하지만, 이들로 제한되는 것은 아니다. 또한, 여기서 제시되는 다양한 저장 매체는 정보를 저장하기 위한 하나 이상의 장치 및/또는 다른 기계-판독가능한 매체를 포함한다. The various embodiments presented herein may be implemented as a method, apparatus, or article of manufacture using standard programming and/or engineering techniques. The term “article of manufacture” includes a computer program, carrier, or media accessible from any computer-readable device. For example, computer-readable media include magnetic storage devices (e.g., hard disks, floppy disks, magnetic strips, etc.), optical disks (e.g., CDs, DVDs, etc.), smart cards, and flash memory. Includes, but is not limited to, devices (e.g., EEPROM, cards, sticks, key drives, etc.). Additionally, various storage media presented herein include one or more devices and/or other machine-readable media for storing information.

제시된 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조는 예시적인 접근들의 일례임을 이해하도록 한다. 설계 우선순위들에 기반하여, 본 개시의 범위 내에서 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조가 재배열될 수 있다는 것을 이해하도록 한다. 첨부된 방법 청구항들은 샘플 순서로 다양한 단계들의 엘리먼트들을 제공하지만 제시된 특정한 순서 또는 계층 구조에 한정되는 것을 의미하지는 않는다.It is to be understood that the specific order or hierarchy of steps in the processes presented is an example of illustrative approaches. It is to be understood that the specific order or hierarchy of steps in processes may be rearranged within the scope of the present disclosure, based on design priorities. The appended method claims present elements of the various steps in a sample order but are not meant to be limited to the particular order or hierarchy presented.

제시된 실시예들에 대한 설명은 임의의 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 개시는 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.The description of the presented embodiments is provided to enable any person skilled in the art to make or use the present disclosure. Various modifications to these embodiments will be apparent to those skilled in the art, and the general principles defined herein may be applied to other embodiments without departing from the scope of the disclosure. Thus, the present disclosure is not limited to the embodiments presented herein but is to be interpreted in the broadest scope consistent with the principles and novel features presented herein.

Claims (11)

하나 이상의 프로세서들에 의해 실행 가능한 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 상기 하나 이상의 프로세서로 하여금 이하의 동작들을 수행하도록 하며, 상기 동작들은;
제 1 사용자 단말에 기초하여 제 1 음성 데이터를 획득하고, 제 2 사용자 단말에 기초하여 제 2 음성 데이터를 획득하는 동작;
상기 제 1 음성 데이터를 하나 이상의 제 1 음성 데이터 서브 데이터로 분할하고, 그리고 상기 제 2 음성 데이터를 하나 이상의 제 2 음성 데이터 서브 데이터로 분할하는 동작;
상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별하는 동작;
상기 식별된 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 기초하여 상기 제 1 음성 데이터와 상기 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화 하는 동작; 및
상기 동기화된 제 1 음성 데이터와 상기 동기화된 제 2 음성 데이터에 기초하여 통합 음성 데이터를 생성하는 동작;
을 포함하고,
상기 식별된 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 기초하여 상기 제 1 음성 데이터와 상기 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화 하는 동작은,
상기 제 1 음성 데이터 서브 데이터와 상기 제 2 음성 데이터 서브 데이터의 유사도에 기초하여 상기 제 1 음성 데이터와 상기 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화 하는 동작을 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
A computer program stored on a computer-readable storage medium executable by one or more processors, the computer program causing the one or more processors to perform the following operations, the operations comprising:
Obtaining first voice data based on a first user terminal and acquiring second voice data based on a second user terminal;
dividing the first voice data into one or more first voice data subdata, and dividing the second voice data into one or more second voice data subdata;
identifying a start point and an end point of each of the first voice data subdata and the second voice data subdata;
Synchronizing the start and end points of the first voice data and the second voice data based on the identified start and end points of each of the first voice data sub-data and the second voice data sub-data; and
generating integrated voice data based on the synchronized first voice data and the synchronized second voice data;
Including,
The operation of synchronizing the start and end points of the first voice data and the second voice data based on the identified start and end points of each of the first voice data sub-data and the second voice data sub-data. ,
Comprising the operation of synchronizing the start and end points of the first voice data and the second voice data based on the similarity of the first voice data subdata and the second voice data subdata,
A computer program stored on a computer-readable storage medium.
제 1 항에 있어서,
상기 제 1 음성 데이터를 하나 이상의 제 1 음성 데이터 서브 데이터로 분할하고, 그리고 상기 제 2 음성 데이터를 하나 이상의 제 2 음성 데이터 서브 데이터로 분할하는 동작은,
상기 제 1 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 1 음성 데이터 서브 데이터로 분할하고, 그리고 상기 제 2 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 2 음성 데이터 서브 데이터로 분할하는 동작;
을 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
According to claim 1,
The operation of dividing the first voice data into one or more first voice data subdata and dividing the second voice data into one or more second voice data subdata includes:
dividing the first voice data into one or more first voice data subdata based on a speech section, and dividing the second voice data into one or more second voice data subdata based on a speech section;
Including,
A computer program stored on a computer-readable storage medium.
제 1 항에 있어서,
상기 식별된 상기 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 기초하여 상기 제 1 음성 데이터와 상기 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화 하는 동작은,
상기 제 1 사용자 단말과 상기 제 2 사용자 단말의 네트워크 패킷 교환에 기초하여 상기 제 1 음성 데이터와 상기 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화 하는 동작;
을 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
According to claim 1,
The operation of synchronizing the start and end points of the first voice data and the second voice data based on the start and end points of each of the identified first voice data sub-data and the second voice data sub-data,
Synchronizing the start and end points of the first voice data and the second voice data based on network packet exchange between the first user terminal and the second user terminal;
Including,
A computer program stored on a computer-readable storage medium.
제 1 항에 있어서,
상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별하는 동작은,
상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 기초하여 중첩 구간을 식별하는 동작;
을 더 포함하는
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
According to claim 1,
The operation of identifying the start and end points of each of the first voice data subdata and the second voice data subdata includes:
identifying an overlapping section based on the start and end points of each of the first voice data subdata and the second voice data subdata;
containing more
A computer program stored on a computer-readable storage medium.
제 1 항에 있어서,
상기 제 1 사용자 단말에 기초하여 제 1 음성 데이터를 획득하고, 제 2 사용자 단말에 기초하여 제 2 음성 데이터를 획득하는 동작은,
상기 통합 음성 데이터에 대한 인식률을 높이기 위해 각각의 음성 데이터에 대한 전처리를 수행하는 동작;
을 포함하고, 그리고
상기 전처리는,
하나 이상의 음성 데이터 각각에 포함된 신호 크기에 대한 표준화 또는 주파수 필터링 중 적어도 하나를 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
According to claim 1,
The operation of acquiring first voice data based on the first user terminal and acquiring second voice data based on the second user terminal,
An operation of performing preprocessing on each voice data to increase the recognition rate of the integrated voice data;
Contains and
The preprocessing is,
Comprising at least one of normalization or frequency filtering for the signal size included in each of the one or more voice data,
A computer program stored on a computer-readable storage medium.
제 1 항에 있어서,
상기 동기화된 제 1 음성 데이터와 상기 동기화된 제 2 음성 데이터에 기초하여 통합 음성 데이터를 생성하는 동작은,
상기 동기화된 제 1 음성 데이터와 상기 동기화된 제 2 음성 데이터 각각의 음성 신호 크기에 기초하여 화자를 구분하는 동작; 또는
상기 동기화된 제 1 음성 데이터와 상기 동기화된 제 2 음성 데이터에 기초하여 통계적 음향 모델을 통해 화자를 구분하는 동작;
중 적어도 하나를 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
According to claim 1,
The operation of generating integrated voice data based on the synchronized first voice data and the synchronized second voice data includes:
distinguishing speakers based on audio signal sizes of each of the synchronized first voice data and the synchronized second voice data; or
distinguishing speakers through a statistical acoustic model based on the synchronized first voice data and the synchronized second voice data;
Containing at least one of
A computer program stored on a computer-readable storage medium.
제 6 항에 있어서,
상기 동기화된 제 1 음성 데이터와 상기 동기화된 제 2 음성 데이터 각각의 음성 신호 크기에 기초하여 화자를 구분하여 상기 통합 음성 데이터를 생성하는 동작은,
상기 동기화된 제 1 음성 데이터에 기초한 제 1 음성 데이터 프레임과 상기 동기화된 제 2 음성 데이터에 기초한 제 2 음성 데이터 프레임 각각의 음성 신호 크기 비교를 통해 화자를 구분하는 동작;
을 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
According to claim 6,
The operation of generating the integrated voice data by distinguishing speakers based on the voice signal size of each of the synchronized first voice data and the synchronized second voice data includes:
An operation of distinguishing speakers by comparing voice signal sizes of a first voice data frame based on the synchronized first voice data and a second voice data frame based on the synchronized second voice data;
Including,
A computer program stored on a computer-readable storage medium.
제 6 항에 있어서,
상기 통계적 음향 모델을 통해 화자를 구분하여 상기 통합 음성 데이터를 생성하는 동작은,
인접 프레임의 화자 정보에 기초하여 현재 시점 프레임의 화자를 구분하는 동작; 또는
상기 동기화된 제 1 음성 데이터와 상기 동기화된 제 2 음성 데이터 각각의 화자의 발화 시간 비율에 기초하여 화자를 구분하는 동작;
중 적어도 하나를 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
According to claim 6,
The operation of generating the integrated voice data by distinguishing speakers through the statistical acoustic model includes:
An operation of distinguishing speakers of the current frame based on speaker information of adjacent frames; or
An operation of distinguishing speakers based on a ratio of speech times of each speaker of the synchronized first voice data and the synchronized second voice data;
Containing at least one of
A computer program stored on a computer-readable storage medium.
제 8 항에 있어서,
상기 동기화된 제 1 음성 데이터와 상기 동기화된 제 2 음성 데이터 각각의 화자의 발화 시간 비율에 기초하여 화자를 구분하는 동작은,
중첩구간 식별시, 중첩구간을 제외한 프레임의 화자에 기초하여 화자별 발화 시간 비율을 연산하여 중첩구간에 대한 화자를 구분하는 동작; 또는
중첩구간 식별시, 중첩구간 프레임의 이전 프레임에 대한 화자별 발화 시간 비율에 기초하여 중첩구간의 화자를 구분하는 동작;
중 적어도 하나를 포함하고, 그리고
상기 중첩구간 식별시, 중첩구간 프레임의 이전 프레임에 대한 화자별 발화 시간 비율에 기초하여 화자를 구분하는 동작은,
상기 중첩구간 프레임의 이전 프레임이 음성 데이터의 사전결정된 비율 이상인 경우에 수행되는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
According to claim 8,
The operation of distinguishing speakers based on the speech time ratio of each speaker of the synchronized first voice data and the synchronized second voice data includes,
When identifying an overlapping section, calculating the speech time ratio for each speaker based on the speakers in the frame excluding the overlapping section and distinguishing the speakers for the overlapping section; or
When identifying an overlapping section, an operation of distinguishing speakers in the overlapping section based on the ratio of speech time for each speaker to the previous frame of the overlapping section frame;
contains at least one of, and
When identifying the overlapping section, the operation of distinguishing speakers based on the ratio of speech time for each speaker to the previous frame of the overlapping section frame is,
Performed when the previous frame of the overlapping section frame is more than a predetermined ratio of voice data,
A computer program stored on a computer-readable storage medium.
통합 음성 데이터 획득 서비스를 제공하기 위한 방법으로서,
제 1 사용자 단말에 기초하여 제 1 음성 데이터를 획득하고, 제 2 사용자 단말에 기초하여 제 2 음성 데이터를 획득하는 방법;
상기 제 1 음성 데이터를 하나 이상의 제 1 음성 데이터 서브 데이터로 분할하고, 그리고 상기 제 2 음성 데이터를 하나 이상의 제 2 음성 데이터 서브 데이터로 분할하는 방법;
상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별하는 방법;
상기 식별된 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 기초하여 상기 제 1 음성 데이터와 상기 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화 하는 방법; 및
상기 동기화된 제 1 음성 데이터와 상기 동기화된 제 2 음성 데이터에 기초하여 통합 음성 데이터를 생성하는 방법;
을 포함하고,
상기 식별된 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 기초하여 상기 제 1 음성 데이터와 상기 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화 하는 방법은,
상기 제 1 음성 데이터 서브 데이터와 상기 제 2 음성 데이터 서브 데이터의 유사도에 기초하여 상기 제 1 음성 데이터와 상기 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화 하는 방법을 포함하는,
통합 음성 데이터 획득 서비스를 제공하기 위한 방법.
As a method for providing an integrated voice data acquisition service,
A method of obtaining first voice data based on a first user terminal and obtaining second voice data based on a second user terminal;
a method of dividing the first voice data into one or more first voice data subdata, and dividing the second voice data into one or more second voice data subdata;
a method for identifying start and end points of each of the first voice data subdata and the second voice data subdata;
A method of synchronizing start and end points of the first voice data and the second voice data based on the identified start and end points of each of the first voice data sub-data and the second voice data sub-data; and
a method of generating integrated voice data based on the synchronized first voice data and the synchronized second voice data;
Including,
A method of synchronizing the start and end points of the first voice data and the second voice data based on the start and end points of each of the identified first voice data sub-data and the second voice data sub-data. ,
Comprising a method of synchronizing the start and end points of the first voice data and the second voice data based on the similarity of the first voice data subdata and the second voice data subdata,
Method for providing integrated voice data acquisition service.
통합 음성 데이터 획득 서비스를 제공하기 위한 서버로서,
하나 이상의 코어를 포함하는 서버 프로세서;
상기 서버 프로세서에서 실행가능한 프로그램 코드들을 저장하는 서버 메모리; 및
하나 이상의 사용자 단말과 데이터를 송수신하는 서버 네트워크부;
를 포함하고, 그리고
상기 서버 프로세서는,
제 1 사용자 단말에 기초하여 제 1 음성 데이터를 획득하고, 제 2 사용자 단말에 기초하여 제 2 음성 데이터를 획득하고;
상기 제 1 음성 데이터를 하나 이상의 제 1 음성 데이터 서브 데이터로 분할하고, 그리고 상기 제 2 음성 데이터를 하나 이상의 제 2 음성 데이터 서브 데이터로 분할하고;
상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별하고;
상기 식별된 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 기초하여 상기 제 1 음성 데이터와 상기 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화 하고; 그리고
상기 동기화된 제 1 음성 데이터와 상기 동기화된 제 2 음성 데이터에 기초하여 통합 음성 데이터를 생성하고,
상기 식별된 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 기초하여 상기 제 1 음성 데이터와 상기 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화 하는 과정은,
상기 제 1 음성 데이터 서브 데이터와 상기 제 2 음성 데이터 서브 데이터의 유사도에 기초하여 상기 제 1 음성 데이터와 상기 제 2 음성 데이터의 시작 시점 및 종료 시점을 동기화 하는 과정을 포함하는,
통합 음성 데이터 획득 서비스를 제공하는 서버.


A server for providing an integrated voice data acquisition service,
A server processor including one or more cores;
a server memory storing program codes executable on the server processor; and
A server network unit that transmits and receives data to and from one or more user terminals;
Contains and
The server processor is,
Obtain first voice data based on the first user terminal, and obtain second voice data based on the second user terminal;
dividing the first voice data into one or more first voice data subdata, and dividing the second voice data into one or more second voice data subdata;
identify start and end points of each of the first voice data subdata and the second voice data subdata;
synchronize the start and end points of the first voice data and the second voice data based on the identified start and end points of each of the first voice data sub-data and the second voice data sub-data; and
Generating integrated voice data based on the synchronized first voice data and the synchronized second voice data,
The process of synchronizing the start and end points of the first voice data and the second voice data based on the identified start and end points of each of the first voice data sub-data and the second voice data sub-data. ,
Comprising the process of synchronizing the start and end points of the first voice data and the second voice data based on the similarity between the first voice data subdata and the second voice data subdata,
A server that provides integrated voice data acquisition services.


KR1020210186666A 2020-07-10 2021-12-24 Method for generating meeting minutes based on multi channel voice data KR102647512B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210186666A KR102647512B1 (en) 2020-07-10 2021-12-24 Method for generating meeting minutes based on multi channel voice data

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200085692A KR102376058B1 (en) 2020-07-10 2020-07-10 Computing device for providing dialogues services
KR1020210186666A KR102647512B1 (en) 2020-07-10 2021-12-24 Method for generating meeting minutes based on multi channel voice data

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200085692A Division KR102376058B1 (en) 2020-07-10 2020-07-10 Computing device for providing dialogues services

Publications (2)

Publication Number Publication Date
KR20220007574A KR20220007574A (en) 2022-01-18
KR102647512B1 true KR102647512B1 (en) 2024-03-14

Family

ID=80052180

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200085692A KR102376058B1 (en) 2020-07-10 2020-07-10 Computing device for providing dialogues services
KR1020210186666A KR102647512B1 (en) 2020-07-10 2021-12-24 Method for generating meeting minutes based on multi channel voice data

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020200085692A KR102376058B1 (en) 2020-07-10 2020-07-10 Computing device for providing dialogues services

Country Status (1)

Country Link
KR (2) KR102376058B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013105374A (en) * 2011-11-15 2013-05-30 Konica Minolta Holdings Inc Minutes creation support device, minutes creation support system, and program for minutes creation
KR101592518B1 (en) * 2014-08-27 2016-02-05 경북대학교 산학협력단 The method for online conference based on synchronization of voice signal and the voice signal synchronization process device for online conference and the recoding medium for performing the method
JP2017167318A (en) * 2016-03-16 2017-09-21 株式会社アドバンスト・メディア Minute generation device and minute generation program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102097710B1 (en) * 2014-11-20 2020-05-27 에스케이텔레콤 주식회사 Apparatus and method for separating of dialogue

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013105374A (en) * 2011-11-15 2013-05-30 Konica Minolta Holdings Inc Minutes creation support device, minutes creation support system, and program for minutes creation
KR101592518B1 (en) * 2014-08-27 2016-02-05 경북대학교 산학협력단 The method for online conference based on synchronization of voice signal and the voice signal synchronization process device for online conference and the recoding medium for performing the method
JP2017167318A (en) * 2016-03-16 2017-09-21 株式会社アドバンスト・メディア Minute generation device and minute generation program

Also Published As

Publication number Publication date
KR20220007453A (en) 2022-01-18
KR102376058B1 (en) 2022-03-18
KR20220007574A (en) 2022-01-18

Similar Documents

Publication Publication Date Title
KR102208954B1 (en) Coputer device for providing dialogues services
US10977299B2 (en) Systems and methods for consolidating recorded content
JP4619623B2 (en) Voice message processing system and method
JP2020184085A (en) Response to remote media sorting query using classifier model and context parameter
EP2252995B1 (en) Method and apparatus for voice searching for stored content using uniterm discovery
WO2015008162A2 (en) Systems and methods for textual content creation from sources of audio that contain speech
US9947320B2 (en) Script compliance in spoken documents based on number of words between key terms
US20090150152A1 (en) Method and apparatus for fast search in call-center monitoring
US10909971B2 (en) Detection of potential exfiltration of audio data from digital assistant applications
US20150193199A1 (en) Tracking music in audio stream
US10242330B2 (en) Method and apparatus for detection and analysis of first contact resolution failures
JP5779032B2 (en) Speaker classification apparatus, speaker classification method, and speaker classification program
KR102540177B1 (en) Method for providing transcript service by seperating overlapping voices between speakers
US11538461B1 (en) Language agnostic missing subtitle detection
KR102647512B1 (en) Method for generating meeting minutes based on multi channel voice data
US11302334B2 (en) Method for associating a device with a speaker in a gateway, corresponding computer program, computer and apparatus
US20240054990A1 (en) Computing device for providing dialogues services
JP2015200913A (en) Speaker classification device, speaker classification method and speaker classification program
US11632345B1 (en) Message management for communal account
CN111582708A (en) Medical information detection method, system, electronic device and computer-readable storage medium
CN113407768B (en) Voiceprint retrieval method, voiceprint retrieval device, voiceprint retrieval system, voiceprint retrieval server and storage medium
WO2023235029A1 (en) Multichannel audio speech classification
JP2017161787A (en) Speech response detection method, speech response detection program, and speech response detection device

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant