KR102208954B1 - Coputer device for providing dialogues services - Google Patents

Coputer device for providing dialogues services Download PDF

Info

Publication number
KR102208954B1
KR102208954B1 KR1020190003888A KR20190003888A KR102208954B1 KR 102208954 B1 KR102208954 B1 KR 102208954B1 KR 1020190003888 A KR1020190003888 A KR 1020190003888A KR 20190003888 A KR20190003888 A KR 20190003888A KR 102208954 B1 KR102208954 B1 KR 102208954B1
Authority
KR
South Korea
Prior art keywords
data
voice data
voice
sub
speech
Prior art date
Application number
KR1020190003888A
Other languages
Korean (ko)
Other versions
KR102208954B9 (en
KR20200087514A (en
Inventor
이지화
조홍식
Original Assignee
(주)액션파워
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)액션파워 filed Critical (주)액션파워
Priority to KR1020190003888A priority Critical patent/KR102208954B1/en
Publication of KR20200087514A publication Critical patent/KR20200087514A/en
Priority to KR1020210009389A priority patent/KR102540177B1/en
Application granted granted Critical
Publication of KR102208954B1 publication Critical patent/KR102208954B1/en
Publication of KR102208954B9 publication Critical patent/KR102208954B9/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Operations Research (AREA)
  • Telephonic Communication Services (AREA)

Abstract

전술한 과제를 해결하기 위한 본 개시의 일 실시예에서, 하나 이상의 프로세서들에 의해 실행 가능한 컴퓨턴 판독가능 저장 매체에 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 상기 하나 이상의 프로세서로 하여금 이하의 동작들을 수행하도록 하며, 상기 동작들은: 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신하는 동작, 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하는 동작 및 상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공하는 동작을 포함할 수 있다.In an embodiment of the present disclosure for solving the above-described problem, as a computer program stored in a computer-readable storage medium executable by one or more processors, the computer program causes the one or more processors to perform the following operations. The operations include: receiving one or more voice data from each of one or more user terminals, the voice data including one or more utterances for each user, each of the one or more voice data using a voice recognition model. Through the conversion to one or more voice recognition results, the operation of generating a conversation record and generating a user interface including the conversation record and providing the user interface to the one or more user terminals may be included.

Description

대화록 서비스를 제공하는 컴퓨팅 장치{COPUTER DEVICE FOR PROVIDING DIALOGUES SERVICES}A computing device that provides conversation log service {COPUTER DEVICE FOR PROVIDING DIALOGUES SERVICES}

본 개시는 대화록 서비스를 제공하는 컴퓨팅 장치에 관한 발명으로, 보다 구체적으로, 복수의 사용자간 대화 내용을 포함하는 음성 파일에 기초하여 대화록 서비스를 제공하는 컴퓨팅 장치에 관한 것이다.The present disclosure relates to a computing device that provides a chat log service, and more particularly, to a computing device that provides a chat log service based on a voice file including chat contents between a plurality of users.

오늘날, 직장인들은 회사 내/외부 임직원과 빈번하게 회의를 진행한다. 회의 과정에서 회의 내용에 대한 회의록을 작성하는 것은 조직과 개인의 업무 효율면에서 많은 도움이 된다. 다만, 회의 진행 중 회의록을 작성하기 위해서는 별도의 속기사를 필요로 하므로, 추가적인 비용이 발생할 수 있으며, 속기사의 역량에 따라 회의록의 질이 달라질 수 있다.Today, office workers frequently hold meetings with employees inside and outside the company. In the course of meetings, making minutes for meeting content is very helpful in terms of work efficiency of the organization and individuals. However, since a separate stenographer is required to write minutes while the meeting is in progress, additional costs may be incurred, and the quality of the minutes may vary depending on the capabilities of the stenographer.

한편, 최근 들어 알파고 등과 같은 이슈에 따라 인공지능에 대한 시장 수요가 증가하고 있으며, 컴퓨터 기술의 발전으로 처리할 수 있는 정보량이 늘어남에 따라 인공지능이 빠른 속도로 진화하고 있다. 또한, 인공지능이 빠른 속도로 진화함에 따라 인공 신경망을 활용한 음성 인식의 정확도가 높아지고 있다.On the other hand, in recent years, the market demand for artificial intelligence is increasing according to issues such as AlphaGo, and artificial intelligence is evolving at a rapid pace as the amount of information that can be processed increases with the development of computer technology. In addition, as artificial intelligence evolves at a rapid pace, the accuracy of speech recognition using artificial neural networks is increasing.

이에 따라, 대한민국 공개특허 제10-2008-0037402호(2008.04.30)에서는 단일 채널로 입력되는 음성파일에 대하여 주파수 대역을 기준으로 복수의 화자를 분리하는 알고리즘은 통해 화자를 분리하여 텍스트화 함으로써, 자동으로 회의록을 작성하는 시스템을 개시하고 있다.Accordingly, in Korean Patent Laid-Open No. 10-2008-0037402 (2008.04.30), an algorithm for separating a plurality of speakers based on a frequency band for a voice file input through a single channel is performed by separating speakers through text, A system for automatically taking minutes of meetings is being launched.

다만, 종래 기술은 단일 채널로 입력되는 음성파일을 주파수 대역을 통해 화자를 분리하는 과정에서 말소리가 겹치거나, 외부 환경에 따라 발생하는 잡음 등으로 인해 정확한 화자분리가 이뤄지지 않을 수 있다. 즉, 종래 기술은 복수의 화자에 대응하는 텍스트 파일이 부정확할 수 있어, 시스템을 이용하는 복수의 사용자에게 잘못된 정보를 제공할 우려가 있다.However, in the prior art, in the process of separating a speaker through a frequency band from a voice file input through a single channel, accurate speaker separation may not be achieved due to overlapping speech sounds or noise generated by an external environment. That is, in the prior art, a text file corresponding to a plurality of speakers may be inaccurate, and there is a concern that incorrect information may be provided to a plurality of users using the system.

본 개시는 전술한 배경 기술에 대응하여 안출된 것으로, 복수의 사용자간 대화 내용을 포함하는 음성파일에 기초하여 대화록 서비스를 제공하는 컴퓨팅 장치를 제공하기 위한 것이다.The present disclosure is conceived in response to the above-described background technology, and is to provide a computing device that provides a conversation record service based on a voice file including conversation contents between a plurality of users.

전술한 과제를 해결하기 위한 본 개시의 일 실시예에, 하나 이상의 프로세서들에 의해 실행 가능한 컴퓨터 판독가능 매체에 저장된 컴퓨터 프로그램이 개시된다. 상기 컴퓨터 프로그램은 상기 하나 이상의 프로세서들로 하여금 이하의 동작들을 수행하도록 하며, 상기 동작들은: 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신하는 동작, 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하는 동작 및 상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공하는 동작을 포함할 수 있다.In one embodiment of the present disclosure for solving the above-described problem, a computer program stored in a computer-readable medium executable by one or more processors is disclosed. The computer program causes the one or more processors to perform the following operations, the operations being: one or more voice data from each of one or more user terminals, the voice data including one or more utterances for each user- Receiving an operation, an operation of converting each of the one or more speech data into one or more speech recognition results through a speech recognition model to generate a conversation record, and an operation of generating a user interface including the conversation record and providing it to the one or more user terminals It may include.

대안적으로, 상기 하나 이상의 음성 데이터 각각에 포함된 신호의 크기를 사전 결정된 기준 신호의 크기와의 비교에 기초하여 상기 하나 이상의 음성 데이터 각각에 포함된 신호의 크기를 표준화하는 동작 및 상기 하나 이상의 음성 데이터 각각에 포함된 주파수를 분석하여 적어도 하나의 특정 주파수를 제거하는 동작을 더 포함할 수 있다.Alternatively, the operation of normalizing the size of a signal included in each of the one or more voice data based on a comparison of the size of a signal included in each of the one or more voice data with a size of a predetermined reference signal, and the one or more voice The operation of removing at least one specific frequency by analyzing frequencies included in each of the data may be further included.

대안적으로, 상기 음성 데이터에 포함된 하나 이상의 묵음 구간에 기초하여 하나 이상의 발화 구간을 식별하는 동작 및 상기 음성 데이터에 포함된 하나 이상의 발화 구간에서의 발화 음성의 크기에 기초하여 화자를 분리하는 동작을 더 포함할 수 있다.Alternatively, an operation of identifying one or more speech sections based on one or more silent sections included in the voice data, and an action of separating a speaker based on the size of the spoken speech in one or more speech sections included in the voice data It may further include.

대안적으로, 상기 하나 이상의 음성 데이터 각각에 포함된 하나 이상의 발화 구간 에서의 발화 크기에 기초하여 화자를 분리하는 동작은, 상기 음성 데이터에 포함된 하나 이상의 발화 중 사전 결정된 크기 이상의 발화 음성의 크기를 가지는 발화를 상기 음성 데이터에 대응하는 특정 화자로 결정하는 동작, 상기 음성 데이터에서 상기 결정된 특정 화자의 음성을 제외한 다른 음성을 제거하는 동작 및 상기 특정 화자를 상기 음성 데이터를 전송한 사용자 단말의 식별 정보와 매칭하여 저장하는 동작을 포함할 수 있다. Alternatively, the operation of separating a speaker based on a speech size in one or more speech sections included in each of the one or more speech data includes the size of a speech speech having a predetermined size or more among one or more speeches included in the speech data. An operation of determining an utterance as a specific speaker corresponding to the voice data, an operation of removing voices other than the determined specific speaker's voice from the voice data, and identification information of the user terminal that transmitted the voice data to the specific speaker Matching with and storing may be included.

대안적으로, 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하는 동작은, 상기 음성 데이터를 발화 구간에 기초하여 하나 이상의 음성 데이터 서브 데이터로 분할하는 동작, 상기 하나 이상의 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별하는 동작, 상기 하나 이상의 음성 데이터 서브 데이터 각각을 상기 음성 인식 모델의 입력으로 하여 상기 하나 이상의 음성 데이터 서브 데이터 각각에 대응하는 하나 이상의 음성 인식 서브 결과를 출력하는 동작 및 상기 하나 이상의 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 상기 하나 이상의 음성 인식 서브 결과 각각의 상기 대화록 상에서의 순서를 결정하는 동작을 포함할 수 있다.Alternatively, the operation of generating a conversation record by converting each of the one or more speech data into one or more speech recognition results through a speech recognition model is an operation of dividing the speech data into one or more speech data sub-data based on a speech section. , An operation of identifying a start point and an end point of each of the one or more voice data sub-data, and one or more corresponding to each of the one or more voice data sub-data by using each of the one or more voice data sub-data as an input of the voice recognition model An operation of outputting a speech recognition sub-result and a start time and an end time identified in each of the voice data sub-data that are the basis of the one or more voice recognition sub-results on the conversation log of each of the one or more voice recognition sub-results. It may include an operation of determining the order.

대안적으로, 상기 하나 이상의 음성 데이터는 각각의 사용자 단말로부터 수신된 제 1 음성 데이터 및 제 2 음성 데이터를 포함하며, 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하는 동작은, 상기 제 1 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 1 음성 데이터 서브 데이터로 분할하고, 그리고 상기 제 2 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 2 음성 데이터 서브 데이터로 분할하는 동작, 상기 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별하는 동작, 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터를 상기 음성 인식 모델의 입력으로 하여 각각의 서브 데이터 각각에 대응하는 하나 이상의 제 1 음성 인식 서브 결과 및 하나 이상의 제 2 음성 인식 서브 결과를 출력하는 동작, 상기 하나 이상의 제 1 음성 인식 서브 결과 및 상기 하나 이상의 제 2 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 상기 하나 이상의 제 1 음성 인식 서브 결과 및 상기 하나 이상의 제 2 음성 인식 서브 결과 각각의 상기 대화록 상에서의 순서를 결정하는 동작 및 상기 결정된 순서 및 상기 하나 이상의 사용자 단말 각각의 식별 정보에 기초하여 대화록을 생성하는 동작을 포함할 수 있다. Alternatively, the one or more voice data includes first voice data and second voice data received from each user terminal, and converts each of the one or more voice data into one or more voice recognition results through a voice recognition model. The operation of generating a conversation record may include dividing the first voice data into one or more first voice data sub-data based on a speech section, and dividing the second voice data into one or more second voice data sub-data based on the speech section Dividing the first voice data sub-data and the second voice data sub-data into a start time and an end time of each of the first voice data sub-data and the second voice data sub-data, the voice recognition of the first voice data sub-data and the second voice data sub-data Outputting one or more first voice recognition sub-results and one or more second voice-recognition sub-results corresponding to each sub-data as an input of a model, the one or more first voice recognition sub-results, and the one or more second The at least one first speech recognition sub result and the at least one second speech recognition sub result on the conversation log based on the start time and end time identified in each of the voice data sub data that are the basis of the voice recognition sub result. It may include an operation of determining an order and an operation of generating a conversation record based on the determined order and identification information of each of the one or more user terminals.

대안적으로, 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터를 상기 음성 인식 모델의 입력으로 하여 각각의 서브 데이터에 대응하는 하나 이상의 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과를 출력하는 동작은, 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 기초하여 중첩 구간을 식별하는 동작, 상기 중첩 구간이 식별된 경우, 상기 중첩 구간에 대응하는 제 1 음성 인식 서브 결과 및 상기 제 2 음성 인식 서브 결과 중 적어도 하나에 대한 분할 여부를 결정하는 동작 및 상기 분할이 결정된 경우, 상기 중첩 구간에 대응하는 음성 인식 서브 결과를 분할하는 동작을 포함할 수 있다.Alternatively, one or more first voice recognition sub-results and second voice-recognition sub-results corresponding to each sub-data by using the first voice data sub-data and the second voice data sub-data as inputs of the voice recognition model The outputting of the first voice data sub-data and the second voice data sub-data is an operation of identifying an overlapping section based on a start time and an end time of each of the first voice data sub-data, and when the overlapping section is identified, the overlapping section Determining whether to divide at least one of the corresponding first voice recognition sub-result and the second voice recognition sub-result, and if the division is determined, dividing the voice recognition sub-result corresponding to the overlapping section can do.

대안적으로, 상기 중첩 구간이 식별된 경우, 상기 중첩 구간에 대응하는 제 1 음성 인식 서브 결과 및 상기 제 2 음성 인식 서브 결과 중 적어도 하나에 대한 분할 여부를 결정하는 동작은, 상기 중첩 구간에 대응하는 음성 인식 결과에 대하여 통계적 언어 모델을 통해 상기 음성 인식 결과의 분할 여부를 결정하는 동작을 포함할 수 있다.Alternatively, when the overlapping section is identified, the operation of determining whether to divide at least one of the first voice recognition sub-result and the second voice recognition sub-result corresponding to the overlapping section corresponds to the overlapping section. It may include an operation of determining whether to divide the speech recognition result through a statistical language model with respect to the speech recognition result.

대안적으로, 상기 하나 이상의 음성 인식 결과의 의미 분석 결과, 상기 하나 이상의 음성 인식 결과에 포함된 단어 별 반복 횟수 및 사전 결정된 대화 주제 중 적어도 하나에 기초하여 상기 대화록에 대한 하나 이상의 키워드를 결정하는 동작 및 상기 하나 이상의 음성 인식 결과에서 상기 하나 이상의 키워드 각각의 위치를 식별하는 동작을 더 포함할 수 있다.Alternatively, determining one or more keywords for the conversation log based on at least one of a result of semantic analysis of the one or more speech recognition results, the number of repetitions for each word included in the one or more speech recognition results, and a predetermined conversation topic. And identifying a location of each of the one or more keywords in the one or more speech recognition results.

대안적으로, 상기 사용자 인터페이스는, 사용자의 프로필, 상기 사용자가 등록한 하나 이상의 다른 사용자 목록, 상기 사용자가 추가 사용자를 등록하기 위한 등록 요청 버튼 및 상기 하나 이상의 다른 사용자 각각에 대한 접속 여부를 표시하는 사용자 목록 표시 화면을 포함하고, 그리고 상기 사용자가 참여한 하나 이상의 대화 각각의 명칭에 대한 정보, 상기 하나 이상의 대화 중 특정 대화를 검색하기 위한 대화 검색 버튼 및 하나 이상의 다른 사용자와 대화방을 개설하기 위한 대화방 개설 버튼을 표시하는 대화 목록 표시 화면을 포함할 수 있다. Alternatively, the user interface may include a user's profile, a list of one or more other users registered by the user, a registration request button for the user to register an additional user, and a user indicating whether to access each of the one or more other users Including a list display screen, and information on the names of each of the one or more conversations the user participated in, a conversation search button for searching for a specific conversation among the one or more conversations, and a chat room opening button for opening a chat room with one or more other users It may include a conversation list display screen that displays.

대안적으로, 상기 프로세서는, 사용자 단말로부터 상기 대화방 개설 버튼에 대한 선택 입력을 수신하는 경우, 상기 하나 이상의 다른 사용자를 대화방에 포함시키기 위한 사용자 선택 입력 화면을 제공하도록 하는 제어 신호를 상기 사용자 단말로 전송할 것을 결정하는 동작을 더 포함할 수 있다. Alternatively, the processor, when receiving a selection input for the chat room opening button from the user terminal, sends a control signal to the user terminal to provide a user selection input screen for including the one or more other users in the chat room. It may further include an operation of determining to transmit.

대안적으로, 상기 프로세서는, 사용자 단말로부터 상기 사용자가 참여한 하나 이상의 대화방 목록 중 특정 대화방에 대한 선택 입력을 수신하는 경우, 상기 특정 대화방에 대응하는 대화록 및 하나 이상의 키워드를 포함하는 대화록 표시 화면을 제공하도록 하는 제어 신호를 상기 사용자 단말로 전송할 것을 결정하는 동작을 더 포함할 수 있다. Alternatively, when receiving a selection input for a specific chat room from a list of one or more chat rooms in which the user participates from a user terminal, the processor provides a chat log display screen including a chat log and one or more keywords corresponding to the specific chat room. It may further include an operation of determining to transmit a control signal to be performed to the user terminal.

대안적으로, 상기 프로세서는, 상기 사용자 단말로부터 상기 하나 이상의 키워드 중 특정 키워드에 대한 선택 입력을 수신하는 경우, 해당 키워드에 대응하는 음성 인식 결과를 검색하고, 그리고 상기 검색된 음성 인식 결과의 생성에 기초한 음성 데이터의 발화 구간을 재생하기 위한 키워드 재생 화면을 제공하도록 하는 제어 신호를 상기 사용자 단말로 전송할 것을 결정하는 동작을 더 포함할 수 있다. Alternatively, the processor, when receiving a selection input for a specific keyword among the one or more keywords from the user terminal, searches for a speech recognition result corresponding to the keyword, and based on the generation of the searched speech recognition result. The method may further include determining to transmit a control signal to the user terminal to provide a keyword playback screen for reproducing the speech section of the voice data.

대안적으로, 상기 사용자 인터페이스는, 새로운 대화방이 개설된 경우, 상기 대화방에 포함된 하나 이상의 사용자 각각으로부터 음성 데이터를 수신하기 위한 녹음 시작 버튼 및 상기 대화방에 포함된 하나 이상의 사용자 각각으로부터 수신한 하나 이상의 음성 데이터에 기초하여 생성된 하나 이상의 음성 인식 결과를 표시하는 대화록 표시 화면을 포함할 수 있다. Alternatively, when a new chat room is opened, the user interface includes a recording start button for receiving voice data from each of one or more users included in the chat room, and one or more buttons received from each of one or more users included in the chat room. It may include a conversation log display screen that displays one or more voice recognition results generated based on voice data.

대안적으로, 상기 사용자 인터페이스는, 사용자 단말로부터 상기 대화록에 포함된 하나 이상의 음성 인식 결과에 대한 수정 요청을 입력 받는 텍스트 편집 화면을 포함하고, 그리고 상기 프로세서는, 상기 사용자 단말로부터 상기 텍스트 편집 화면을 통해 상기 대화록에 포함된 하나 이상의 음성 인식 결과에 대한 수정 요청을 수신하는 경우, 상기 음성 인식 모델이 상기 수정 요청에 대응하는 음성 인식 결과를 출력하도록 상기 음성 인식 모델을 보정하는 동작을 더 포함할 수 있다. Alternatively, the user interface includes a text editing screen for receiving a request for modification of one or more speech recognition results included in the conversation log from a user terminal, and the processor displays the text editing screen from the user terminal. When receiving a request to modify one or more speech recognition results included in the conversation log through, the operation of correcting the speech recognition model so that the speech recognition model outputs a speech recognition result corresponding to the modification request. have.

본 개시의 다른 실시예에서 대화록 서비스를 제공하는 방법이 개시된다. 상기 방법은, 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신하는 단계, 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하는 단계 및 상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공하는 단계를 포함할 수 있다.In another embodiment of the present disclosure, a method of providing a conversation log service is disclosed. The method includes receiving one or more voice data from each of one or more user terminals, the voice data including one or more utterances for each user, each of the one or more voice data through a speech recognition model. It may include converting into a speech recognition result and generating a conversation log, and generating a user interface including the conversation log and providing the user interface to the one or more user terminals.

본 개시의 또 다른 실시예에서 대화록 서비스를 제공하는 서버로서, 하나 이상의 코어를 포함하는 서버 프로세서, 상기 프로세서에서 실행 가능한 프로그램 코드들을 저장하는 서버 메모리 및 하나 이상의 사용자 단말과 데이터를 송수신하는 서버 네트워크부를 포함하고, 그리고 상기 프로세서는, 상기 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신하고, 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하고, 그리고 상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공할 수 있다.In another embodiment of the present disclosure, as a server providing a conversation log service, a server processor including one or more cores, a server memory storing program codes executable in the processor, and a server network unit for transmitting and receiving data with one or more user terminals. And the processor receives one or more voice data from each of the one or more user terminals, the voice data including one or more utterances for each user, and converts each of the one or more voice data into a voice recognition model Through the conversion into one or more voice recognition results, a conversation record may be generated, and a user interface including the conversation record may be generated and provided to the one or more user terminals.

본 개시는 복수의 사용자간 대화 내용을 포함하는 음성파일에 기초하여 대화록 서비스를 제공하는 컴퓨팅 장치를 제공할 수 있다.The present disclosure may provide a computing device that provides a conversation record service based on a voice file including conversation contents between a plurality of users.

다양한 양상들이 이제 도면들을 참조로 기재되며, 여기서 유사한 참조 번호들은 총괄적으로 유사한 구성요소들을 지칭하는데 이용된다. 이하의 실시예에서, 설명 목적을 위해, 다수의 특정 세부사항들이 하나 이상의 양상들의 총체적 이해를 제공하기 위해 제시된다. 그러나, 그러한 양상(들)이 이러한 구체적인 세부사항들 없이 실시될 수 있음은 명백할 것이다.
도 1은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 전체적인 시스템을 나타낸 개념도를 도시한다.
도 2는 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하는 컴퓨팅 장치의 블록 구성도를 도시한다.
도 3은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 순서도를 도시한다.
도 4는 본 개시의 일 실시예에 따른 사용자 목록 표시 화면 및 대화 목록 표시 화면을 포함하는 사용자 인터페이스의 예시도를 도시한다.
도 5는 본 개시의 일 실시예에 따른 대화방을 개설하는 과정 및 복수의 사용자를 포함하는 대화방에 대한 사용자 인터페이스의 예시도를 도시한다.
도 6은 본 개시의 일 실시예에 따른 사용자가 수행한 하나 이상의 대화 목록 중 특정 대화에 대한 사용자 단말의 선택 입력에 대응하여 대화록 표시 화면 제공하는 사용자 인터페이스의 예시도를 도시한다.
도 7은 본 개시의 일 실시예에 따른 음성 인식 결과 및 키워드에 대한 사용자의 선택 입력에 대응하여 음성 데이터의 특정 시점을 재생하는 화면이 표시된 사용자 인터페이스의 예시도를 도시한다.
도 8은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 수단을 도시한다.
도 9는 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 모듈을 도시한다.
도 10은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 로직을 도시한다.
도 11은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 회로를 도시한다.
도 12는 본 개시의 일 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 간략하고 일반적인 개략도를 도시한다.
Various aspects are now described with reference to the drawings, where like reference numbers are used collectively to refer to like elements. In the examples that follow, for illustrative purposes, a number of specific details are presented to provide a thorough understanding of one or more aspects. However, it will be apparent that such aspect(s) may be practiced without these specific details.
1 is a conceptual diagram illustrating an overall system for providing a conversation log service according to an embodiment of the present disclosure.
FIG. 2 is a block diagram of a computing device providing a conversation log service according to an embodiment of the present disclosure.
3 is a flow chart for providing a chat log service related to an embodiment of the present disclosure.
4 is a diagram illustrating an exemplary user interface including a user list display screen and a conversation list display screen according to an embodiment of the present disclosure.
5 is a diagram illustrating a process of opening a chat room and a user interface for a chat room including a plurality of users according to an embodiment of the present disclosure.
6 is a diagram illustrating an exemplary user interface for providing a conversation log display screen in response to a selection input of a user terminal for a specific conversation among one or more conversation lists performed by a user according to an embodiment of the present disclosure.
7 is a diagram illustrating an exemplary user interface in which a screen for reproducing a specific time point of voice data is displayed in response to a user's selection input for a voice recognition result and a keyword according to an embodiment of the present disclosure.
8 shows a means for providing a chat log service related to an embodiment of the present disclosure.
9 illustrates a module for providing a chat log service related to an embodiment of the present disclosure.
10 is a diagram illustrating logic for providing a chat log service related to an embodiment of the present disclosure.
11 illustrates a circuit for providing a conversation log service related to an embodiment of the present disclosure.
12 shows a simplified and general schematic diagram of an exemplary computing environment in which embodiments of the present disclosure may be implemented.

다양한 실시예들이 이제 도면을 참조하여 설명된다. 본 명세서에서, 다양한 설명들이 본 개시의 이해를 제공하기 위해서 제시된다. 그러나, 이러한 실시예들은 이러한 구체적인 설명 없이도 실행될 수 있음이 명백하다.Various embodiments are now described with reference to the drawings. In this specification, various descriptions are presented to provide an understanding of the present disclosure. However, it is clear that these embodiments may be implemented without this specific description.

본 명세서에서 사용되는 용어 "컴포넌트", "모듈", "시스템" 등은 컴퓨터-관련 엔티티, 하드웨어, 펌웨어, 소프트웨어, 소프트웨어 및 하드웨어의 조합, 또는 소프트웨어의 실행을 지칭한다. 예를 들어, 컴포넌트는 프로세서상에서 실행되는 처리과정(procedure), 프로세서, 객체, 실행 스레드, 프로그램, 및/또는 컴퓨터일 수 있지만, 이들로 제한되는 것은 아니다. 예를 들어, 컴퓨팅 장치에서 실행되는 애플리케이션 및 컴퓨팅 장치 모두 컴포넌트일 수 있다. 하나 이상의 컴포넌트는 프로세서 및/또는 실행 스레드 내에 상주할 수 있다. 일 컴포넌트는 하나의 컴퓨터 내에 로컬화 될 수 있다. 일 컴포넌트는 2개 이상의 컴퓨터들 사이에 분배될 수 있다. 또한, 이러한 컴포넌트들은 그 내부에 저장된 다양한 데이터 구조들을 갖는 다양한 컴퓨터 판독가능한 매체로부터 실행할 수 있다. 컴포넌트들은 예를 들어 하나 이상의 데이터 패킷들을 갖는 신호(예를 들면, 로컬 시스템, 분산 시스템에서 다른 컴포넌트와 상호작용하는 하나의 컴포넌트로부터의 데이터 및/또는 신호를 통해 다른 시스템과 인터넷과 같은 네트워크를 통해 전송되는 데이터)에 따라 로컬 및/또는 원격 처리들을 통해 통신할 수 있다.The terms "component", "module", "system" and the like as used herein refer to computer-related entities, hardware, firmware, software, a combination of software and hardware, or execution of software. For example, a component may be, but is not limited to, a process executed on a processor, a processor, an object, an execution thread, a program, and/or a computer. For example, both an application running on a computing device and a computing device may be components. One or more components may reside within a processor and/or thread of execution. A component can be localized on a single computer. A component can be distributed between two or more computers. In addition, these components can execute from a variety of computer readable media having various data structures stored therein. Components can be, for example, via a signal with one or more data packets (e.g., data from one component interacting with another component in a local system, a distributed system, and/or a signal through another system and a network such as the Internet. Depending on the data being transmitted), it may communicate via local and/or remote processes.

더불어, 용어 "또는"은 배타적 "또는"이 아니라 내포적 "또는"을 의 미하는 것으로 의도된다. 즉, 달리 특정되지 않거나 문맥상 명확하지 않은 경우에, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는 것으로 의도된다. 즉, X가 A를 이용하거나; X가 B를 이용하거나; 또는 X가 A 및 B 모두를 이용하는 경우, "X는 A 또는 B를 이용한다"가 이들 경우들 어느 것으로도 적용될 수 있다. 또한, 본 명세서에 사용된 "및/또는"이라는 용어는 열거된 관련 아이템들 중 하나 이상의 아이템의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다.In addition, the term “or” is intended to mean an inclusive “or” rather than an exclusive “or”. That is, unless specified otherwise or is not clear from the context, "X employs A or B" is intended to mean one of the natural inclusive substitutions. That is, X uses A; X uses B; Or, when X uses both A and B, “X uses A or B” can be applied to either of these cases. In addition, the term "and/or" as used herein should be understood to refer to and include all possible combinations of one or more of the listed related items.

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하는 것으로 이해되어야 한다. 다만, "포함한다" 및/또는 "포함하는"이라는 용어는, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. 또한, 달리 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 본 명세서와 청구범위에서 단수는 일반적으로 "하나 또는 그 이상"을 의미하는 것으로 해석되어야 한다.In addition, the terms "comprising" and/or "comprising" are to be understood as meaning that the corresponding features and/or components are present. However, it is to be understood that the terms "comprising" and/or "comprising" do not exclude the presence or addition of one or more other features, elements, and/or groups thereof. Further, unless otherwise specified or when the context is not clear as indicating a singular form, the singular in the specification and claims should be interpreted as meaning "one or more" in general.

당업자들은 추가적으로 여기서 개시된 실시예들과 관련되어 설명된 다양한 예시 적 논리적 블록들, 구성들, 모듈들, 회로들, 수단들, 로직들, 및 알고리즘 단계들이 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양쪽 모두의 조합들로 구현될 수 있음을 인식해야 한다. 하드웨어 및 소프트웨어의 상호교환성을 명백하게 예시하기 위해, 다양한 예시 적 컴포넌트들, 블록들, 구성들, 수단들, 로직들, 모듈들, 회로들, 및 단계들은 그들의 기능성 측면에서 일반적으로 위에서 설명되었다. 그러한 기능성이 하드웨어로 또는 소프트웨어로서 구현되는지 여부는 전반적인 시스템에 부과된 특정 어플리케이션(application) 및 설계 제한들에 달려 있다. 숙련된 기술자들은 각각의 특정 어플리케이션들을 위해 다양한 방법들로 설명된 기능성을 구현할 수 있다. 다만, 그러한 구현의 결정들이 본 개시내용의 영역을 벗어나게 하는 것으로 해석되어서는 안된다.Those of skill in the art would further describe the various illustrative logical blocks, configurations, modules, circuits, means, logics, and algorithm steps described in connection with the embodiments disclosed herein, including electronic hardware, computer software, or a combination of both. It should be recognized that it can be implemented as To clearly illustrate the interchangeability of hardware and software, various illustrative components, blocks, configurations, means, logics, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented in hardware or as software depends on the specific application and design restrictions imposed on the overall system. Skilled technicians can implement the described functionality in various ways for each particular application. However, such implementation decisions should not be interpreted as causing a departure from the scope of the present disclosure.

도 1은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 전체적인 시스템을 나타낸 개념도를 도시한다.1 is a conceptual diagram illustrating an overall system for providing a chat log service related to an embodiment of the present disclosure.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100) 및 하나 이상의 사용자 단말(10)은 무선 및/또는 유선을 통한 상호 연결을 통해 데이터를 전송할 수 있고, 그리고 수신할 수 있다. 본 개시의 컴퓨팅 장치는 전자 형태의 데이터를 연산할 수 있는 모든 종류의 컴퓨팅 장치를 포함할 수 있으며, 예를 들어, 퍼스널 컴퓨터, 서버 컴퓨터 등의 일반 컴퓨팅 장치 및 모바일 단말(스마트폰(smartphone), 테블릿(tablet)) 등의 제한된 연산 능력을 가진 컴퓨팅 장치 등을 포함할 수 있다. According to an embodiment of the present disclosure, the computing device 100 and one or more user terminals 10 may transmit and receive data through wireless and/or wired interconnection. The computing device of the present disclosure may include all kinds of computing devices capable of calculating data in electronic form, and for example, general computing devices such as personal computers and server computers, and mobile terminals (smartphones, It may include a computing device having limited computing power, such as a tablet.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 복수의 사용자간 대화 내용을 포함하는 음성 데이터에 기초하여 대화록 서비스를 제공할 수 있다. 구체적으로, 컴퓨팅 장치(100)는 하나 이상의 사용자 단말(10) 각각으로부터 하나 이상의 음성 데이터를 수신하고, 상기 수신한 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 텍스트화함으로써, 복수의 사용자 간 수행된 대화 내용에 대한 대화록을 생성할 수 있다. 이때, 하나 이상의 사용자 단말(10)은 PC(personal computer), 노트북(note book), 모바일 단말기(mobile terminal), 스마트 폰(smart phone), 태블릿 PC(tablet pc) 등을 포함할 수 있으며, 유/무선 네트워크에 접속할 수 있는 모든 종류의 단말을 포함할 수 있다.According to an embodiment of the present disclosure, the computing device 100 may provide a conversation log service based on voice data including conversation contents between a plurality of users. Specifically, the computing device 100 receives one or more voice data from each of the one or more user terminals 10, and converts each of the received one or more voice data into text through a voice recognition model, You can create a conversation log for conversation content. At this time, the one or more user terminals 10 may include a personal computer (PC), a notebook (note book), a mobile terminal, a smart phone, a tablet PC, and the like. /Can include all types of terminals that can access the wireless network.

또한, 컴퓨팅 장치(100)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각에 기초하여 텍스트화된 대화록을 제공할 수 있다. 이 경우, 텍스트화된 대화록은 대화에 참여한 복수의 사용자의 음성 데이터를 텍스트화 한 것으로, 복수의 사용자가 참여한 대화에 대한 음성 데이터를 텍스트화하여 시간 및 화자 별로 구분하여 나열한 것일 수 있다. 이에 따라, 복수의 사용자들은 복수의 사용자 간 대화(또는 회의) 진행 시, 별도의 속기사를 통해 대화록을 작성하거나 본인이 직접 대화록을 작성할 필요가 없이, 단순 복수의 사용자의 대화 내용을 포함하는 음성 데이터를 통해 복수의 사용자 간 대화 내용을 포함하는 텍스트화된 대화록을 제공받을 수 있다.In addition, the computing device 100 may provide a texted conversation log based on each of the one or more voice data received from each of the one or more user terminals 10. In this case, the texted conversation log is a textualization of voice data of a plurality of users who participated in the conversation, and may be arranged by dividing by time and speaker by converting voice data on conversations in which the plurality of users participated. Accordingly, when a conversation (or meeting) between multiple users is conducted, a plurality of users do not need to write a conversation log through a separate stenographer or write a conversation log by themselves, and simply voice data including the conversation contents of a plurality of users. Through this, a textual conversation log including conversation contents between a plurality of users may be provided.

또한, 컴퓨팅 장치(100)는 대화록을 포함하는 사용자 인터페이스를 하나 이상의 사용자 단말에 제공할 수 있다. 이 경우, 사용자 인터페이스는 대화에 참여한 하나 이상의 사용자 각각에 대한 정보, 하나 이상의 사용자의 대화 내용이 시간별 및 화자별 로 분류되어 채팅창 형태로 기록된 대화록, 대화록들의 편집, 관리 및 검색 등의 활용도를 제고하기 위한 다양한 UI(User Interfaces)/UX(User Experience)를 포함하여 본 개시의 컴퓨팅 장치(100)를 이용하는 복수의 사용자에게 편의성을 제공할 수 있다.In addition, the computing device 100 may provide a user interface including a conversation log to one or more user terminals. In this case, the user interface provides information on each of the one or more users who participated in the conversation, and the conversation contents of one or more users are classified by time and speaker and recorded in the form of a chat window. Convenience may be provided to a plurality of users who use the computing device 100 of the present disclosure, including various user interfaces (UIs)/user experiences (UXs) to improve.

본 개시에서 컴퓨팅 장치(100)가 하나 이상의 사용자 단말(10)로 대화록 서비스를 제공하는 과정 및 대화록을 포함하는 사용자 인터페이스에 대한 구체적인 설명은 이하의 도면들을 참조하여 후술하도록 한다.In the present disclosure, a detailed description of a process in which the computing device 100 provides a chat log service to one or more user terminals 10 and a user interface including the chat log will be described later with reference to the following drawings.

도 2는 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하는 컴퓨팅 장치의 블록 구성도를 도시한다.FIG. 2 is a block diagram of a computing device providing a conversation log service according to an embodiment of the present disclosure.

도 2에 도시된 대화록 서비스를 제공하는 컴퓨팅 장치(100)의 컴포넌트들은 예시적인 것이다. 도 2에 도시된 컴포넌트 중 일부만이 대화록 서비스를 제공하는 컴퓨팅 장치(100)를 구성할 수도 있으며, 도 2에 도시된 컴포넌트 이외에 추가적인 컴포넌트(들)가 상기 대화록 서비스를 제공하는 컴퓨팅 장치(100)에 포함될 수도 있다.Components of the computing device 100 providing the conversation log service shown in FIG. 2 are exemplary. Only some of the components shown in FIG. 2 may constitute the computing device 100 providing the chat log service, and additional component(s) other than the component shown in FIG. 2 may be added to the computing device 100 providing the chat log service. May be included.

도 2에 도시된 바와 같이, 대화록 서비스를 제공하는 컴퓨팅 장치(100)는 프로세서(110), 메모리(120) 및 네트워크부(130)를 포함할 수 있다.As shown in FIG. 2, the computing device 100 providing a conversation log service may include a processor 110, a memory 120, and a network unit 130.

본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 음성 데이터를 수신할 수 있다. 이 경우, 프로세서(110)가 수신하는 음성 데이터는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 것으로, 하나 이상이 존재할 수 있다. 예를 들어, 3명의 사용자가 대화를 진행하는 경우, 3명의 사용자 각각이 소지한 3개의 사용자 단말 각각으로부터 3개의 음성 데이터를 수신할 수 있다. 즉, 프로세서(110)는 하나의 사용자 단말을 통해 하나의 음성 데이터를 수신하는 것이 아닌, 복수의 사용자 각각이 소지한 하나 이상의 사용자 단말(10)로부터 하나 이상의 음성 데이터를 수신할 수 있다. 전술한 대화를 진행하는 사용자의 수 및 이에 대응하는 사용자 단말의 수에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.According to an embodiment of the present disclosure, the processor 110 may receive voice data from each of one or more user terminals 10. In this case, the voice data received by the processor 110 is received from each of the one or more user terminals 10, and one or more may exist. For example, when three users conduct a conversation, three voice data may be received from each of three user terminals held by each of the three users. That is, the processor 110 may receive one or more voice data from one or more user terminals 10 each possessed by a plurality of users, rather than receiving one voice data through one user terminal. The detailed description of the number of users conducting the above-described conversation and the number of user terminals corresponding thereto is only an example, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각에 대하여 전처리를 수행할 수 있다. 프로세서(110)는 음성 데이터에 대한 인식률을 높이기 위한 전처리를 수행할 수 있다. 이때, 프로세서(110)가 하나 이상의 음성 데이터 각각에 대하여 수행하는 전처리는 노이즈 제거에 대한 전처리 및 발화 구간에서의 발화 크기에 기초하여 화자를 분리하는 전처리를 포함할 수 있다.According to an embodiment of the present disclosure, the processor 110 may perform preprocessing on each of one or more voice data received from each of the one or more user terminals 10. The processor 110 may perform pre-processing to increase a recognition rate for voice data. In this case, the preprocessing performed by the processor 110 on each of the one or more voice data may include preprocessing for removing noise and preprocessing for separating speakers based on the speech size in the speech section.

본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각의 노이즈를 제거할 수 있다. 하나 이상의 음성 데이터 각각의 노이즈를 제거하는 것은, 상기 하나 이상의 음성 데이터에 포함된 노이즈를 제거하기 위한 것일 수 있다. 보다 구체적으로, 프로세서(110)는 하나 이상의 음성 데이터 각각에 포함된 신호의 크기와 사전 결정된 기준 신호의 크기의 비교에 기초하여 하나 이상의 음성 데이터 각각에 포함된 신호의 크기를 표준화할 수 있다. 프로세서(110)는 하나 이상의 사용자 단말(10)로부터 수신한 음성 데이터 각각에 포함된 신호의 크기가 사전 결정된 기준 신호 미만인 경우, 해당 신호의 크기를 크게 조정하고, 그리고 하나 이상의 사용자 단말(10)로부터 수신한 음성 데이터 각각에 포함된 신호의 크기가 사전 결정된 기준 신호 이상인 경우, 해당 신호의 크기를 작게(즉, clipping되지 않게)조정하는 Audio Signal compression Normalization을 수행할 수 있다. 전술한 노이즈 제거 동작은 예시일 뿐이며 본 개시는 이에 제한되지 않는다. According to an embodiment of the present disclosure, the processor 110 may remove noise from each of one or more voice data received from each of the one or more user terminals 10. Removing noise from each of the one or more voice data may be for removing noise included in the one or more voice data. More specifically, the processor 110 may standardize the size of a signal included in each of the one or more voice data based on a comparison between the size of a signal included in each of the one or more voice data and a size of a predetermined reference signal. When the size of a signal included in each of the voice data received from one or more user terminals 10 is less than a predetermined reference signal, the processor 110 increases the size of the corresponding signal, and When the size of a signal included in each of the received voice data is greater than or equal to a predetermined reference signal, audio signal compression normalization may be performed to adjust the size of the corresponding signal to be small (ie, not to be clipping). The noise removal operation described above is only an example, and the present disclosure is not limited thereto.

또한, 프로세서(110)는 하나 이상의 음성 데이터 각각에 포함된 음성의 파형을 분석하여, 발화 이외의 소리를 제거할 수 있다. 보다 구체적으로 프로세서(110)는 음성 데이터의 주파수를 분석하여 적어도 하나의 특정 주파수를 제거할 수 있다. 프로세서(110)가 수신하는 하나 이상의 음성 데이터 각각은 주파수가 균일한 백색 노이즈, 주파수가 불규칙한 랜덤 주파수 노이즈 또는 녹음 장치나 신호처리 과정에 따라 발생하는 다양한 노이즈를 포함할 수 있다. 즉, 프로세서(110)는 하나 이상의 음성 데이터 각각에 포함된 다양한 주파수를 갖는 잡음에 대하여 전처리를 수행할 수 있다. 구체적으로, 프로세서(110)는 하나 이상의 음성 데이터 각각에 포함된 잡음의 종류를 판별하기 위해 SVM(Supporting Vector Machine)과 같은 기계학습 알고리즘을 이용하여 분류하고, 각각의 상이한 주파수를 포함하는 잡음 각각에 대응하는 잡음 제거 알고리즘을 통해 노이즈를 제거할 수 있다. 전술한 잡음 제거 알고리즘은 예시일 뿐이며 본 개시는 이에 제한되지 않는다. In addition, the processor 110 may remove sounds other than speech by analyzing a waveform of a voice included in each of one or more voice data. More specifically, the processor 110 may remove at least one specific frequency by analyzing the frequency of the voice data. Each of the one or more voice data received by the processor 110 may include white noise having a uniform frequency, random frequency noise having an irregular frequency, or various noises generated according to a recording device or a signal processing process. That is, the processor 110 may perform preprocessing on noise having various frequencies included in each of one or more voice data. Specifically, the processor 110 classifies using a machine learning algorithm such as SVM (Supporting Vector Machine) in order to determine the type of noise included in each of one or more voice data, and each noise including different frequencies Noise can be removed through a corresponding noise reduction algorithm. The aforementioned noise reduction algorithm is only an example, and the present disclosure is not limited thereto.

또한, 프로세서(110)는 하나 이상의 음성 데이터 각각에 대하여 하나 이상의 발화 구간을 식별할 수 있다. 프로세서(110)는 음성 데이터에 포함된 하나 이상의 발화를 식별할 수 있다. 구체적으로, 프로세서(110)는 음성 데이터에 존재하는 하나 이상의 묵음 구간을 기준으로 사용자의 발화 구간을 식별할 수 있다. 예를 들어, 프로세서(110)는 음성 데이터에 포함된 제 1 묵음 구간과 제 2 묵음 구간 사이를 사용자의 제 1 발화 구간으로 식별할 수 있으며, 제 2 묵음 구간과 제 3 묵음 구간 사이를 사용자의 제 2 발화 구간으로 식별할 수 있다. 즉, 하나 이상의 사용자의 대화 내용을 포함하는 음성 데이터에서 상기 하나 이상의 사용자의 음성(즉, 말소리)이 인지되지 않는 시점(예를 들어, 일정 크기 이하의 소리만이 감지되는 시점 등)을 식별하고, 상기 식별된 시점(즉, 묵음 구간)을 기준으로 하나 이상의 사용자의 발화 구간을 식별할 수 있다. 전술한 사용자의 발화 구간에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. In addition, the processor 110 may identify one or more speech sections for each of the one or more voice data. The processor 110 may identify one or more utterances included in the voice data. Specifically, the processor 110 may identify the user's speech section based on one or more silent sections present in the voice data. For example, the processor 110 may identify between the first silent section and the second silent section included in the voice data as the user's first speech section, and between the second silent section and the third silent section. It can be identified as a second speech section. That is, in the voice data including the conversation contents of one or more users, a point in time at which the voice of the one or more users (i.e., speech) is not recognized (for example, a point in time when only sound of a certain size or less is detected) is identified, and , It is possible to identify one or more user's speech sections based on the identified time point (ie, silent section). The detailed description of the above-described user's speech section is only an example, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따르면, 프로세서(110)는 음성 데이터에 포함된 하나 이상의 발화 구간 각각에서 하나 이상의 사용자 각각의 음성 식별할 수 있다. 또한, 프로세서(110)는 상기 식별된 하나 이상의 사용자 각각의 음성 중 음성의 크기가 사전 결정된 크기 이상을 가지는 발화를 음성 데이터에 대응하는 특정 화자로 결정할 수 있다. 보다 구체적으로, 프로세서(110)는 음성 데이터에 포함된 하나 이상의 사용자의 음성 중 특정 사용자의 음성의 크기가 사전 결정된 크기 이상인 경우, 상기 음성 데이터에 대응하는 특정 화자로 결정할 수 있다. 예를 들어, 제 1 사용자 단말로부터 2명의 사용자(A 사용자 및 B 사용자)의 음성을 포함하는 음성 데이터를 수신한 경우, 프로세서(110)는 A 사용자의 음성의 크기가 사전 결정된 크기 이상임을 판별하여, 상기 A 사용자를 제 1 사용자 단말로부터 수신한 음성 데이터에 대응하는 특정 화자로 결정할 수 있다. 즉, 본 개시에서 사용자 단말은 각각의 사용자의 음성을 수집하기 위하여 각각의 사용자에게 배치된 단말일 수 있으므로, 프로세서(110)는 수신된 음성 데이터에서 특정 크기 이상의 발화가 해당 음성 데이터가 수집된 사용자 단말의 사용자의 발화인 것으로 판단할 수 있다. 또한, 프로세서(110)는 음성 데이터에 포함된 하나 이상의 사용자 각각의 음성의 크기 비교에 기초하여 음성 데이터에 대응하는 특정 화자를 결정할 수도 있다. 예를 들어, 제 1 사용자 단말로부터 2명의 사용자(A 사용자 및 B 사용자)의 음성을 포함하는 음성 데이터를 수신한 경우, 프로세서(110)는 음성 데이터에 포함된 2명의 사용자의 음성 중 B 사용자의 음성의 크기가 A 사용자의 음성의 크기 보다 큰 것으로 판별하여 상기 B 사용자를 제 1 사용자 단말로부터 수신한 음성 데이터에 대응하는 특정 화자로 결정할 수 있다. 전술한 하나 이상의 사용자 및 하나 이상의 사용자 각각의 음성의 크기에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. According to an embodiment of the present disclosure, the processor 110 may identify each voice of one or more users in each of one or more speech sections included in the voice data. In addition, the processor 110 may determine, as a specific speaker corresponding to the voice data, a speech having a voice size equal to or greater than a predetermined size among the identified voices of each of the one or more users. More specifically, the processor 110 may determine a specific speaker corresponding to the voice data when the size of a specific user's voice among one or more user voices included in the voice data is equal to or greater than a predetermined size. For example, when receiving voice data including voices of two users (user A and user B) from the first user terminal, the processor 110 determines that the voice of user A is equal to or greater than a predetermined size. , The user A may be determined as a specific speaker corresponding to the voice data received from the first user terminal. That is, in the present disclosure, since the user terminal may be a terminal disposed to each user in order to collect the voice of each user, the processor 110 is the user for which the corresponding voice data is collected when an utterance of a specific size or more It can be determined that it is the utterance of the user of the terminal. Also, the processor 110 may determine a specific speaker corresponding to the voice data based on a comparison of the sizes of voices of one or more users included in the voice data. For example, when voice data including the voices of two users (user A and user B) is received from the first user terminal, the processor 110 is the voice of user B among the voices of two users included in the voice data. It is determined that the volume of the voice is greater than that of the user A, and the user B may be determined as a specific speaker corresponding to the voice data received from the first user terminal. The detailed description of the loudness of the voices of one or more users and one or more users described above is only an example, and the present disclosure is not limited thereto.

또한, 프로세서(110)는 사용자 단말(10)로부터 수신한 음성 데이터에서 특정 화자의 음성을 제외한 다른 음성을 제거할 수 있다. 보다 구체적으로, 프로세서(110)는 음성 데이터에 대응되는 특정 화자를 결정한 경우, 음성 데이터에서 상기 특정 화자의 음성을 제외한 다른 사용자의 음성을 제거할 수 있다. 예를 들어, 음성 데이터가 A 사용자 및 B 사용자의 음성을 포함하고, 상기 A 사용자가 상기 음성 데이터에 대응하는 특정 화자로 결정된 경우, 프로세서(110)는 상기 음성 데이터에서 B 사용자의 음성을 제거할 수 있다. 즉, 프로세서(110)는 음성 데이터에서 다른 사용자(예컨대, B 사용자)의 음성을 제거함으로써, 특정 화자(예컨대, A 사용자)의 음성을 보다 명확히 분리할 수 있다. 전술한 음성 데이터에 대응하는 사용자에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. 이에 따라, 추후 음성 데이터에 기초하여 대화록 작성 시 화자 각각에 대한 분리가 정확해질 수 있어, 보다 정확도 높은 대화록을 생성할 수 있다.In addition, the processor 110 may remove voices other than the voice of a specific speaker from voice data received from the user terminal 10. More specifically, when determining a specific speaker corresponding to the voice data, the processor 110 may remove the voice of a user other than the voice of the specific speaker from the voice data. For example, if the voice data includes the voices of user A and user B, and the user A is determined as a specific speaker corresponding to the voice data, the processor 110 may remove the voice of user B from the voice data. I can. That is, the processor 110 may more clearly separate the voice of a specific speaker (eg, user A) by removing the voice of another user (eg, user B) from the voice data. A detailed description of a user corresponding to the above-described voice data is only an example, and the present disclosure is not limited thereto. Accordingly, when a conversation record is written based on the voice data later, the separation of each speaker can be accurately performed, and a conversation record with higher accuracy can be generated.

또한, 프로세서(110)는 하나 이상의 음성 데이터 각각에 대응하는 특정 화자를 판별하고, 각각의 음성 데이터에서 판별된 특정 화자의 음성을 제외한 다른 음성을 제거한 경우, 상기 특정 화자를 하나 이상의 사용자 단말의 식별 정보 각각과 매칭하여 저장할 수 있다. 예를 들어, 제 1 음성 데이터 대응하는 특정 화자로 결정된 A 사용자를 A 사용자 단말의 식별 정보와 매칭할 수 있으며, 제 2 음성 데이터 대응하는 특정 화자로 결정된 B 사용자를 B 사용자 단말의 식별 정보와 매칭하여 저장할 수 있다. 이에 따라, 하나 이상의 사용자 단말 각각으로부터 수신한 하나 이상의 음성 데이터 각각에 대응하는 화자를 판별하고, 각각의 사용자 단말에 각각의 화자를 매칭함으로써 대화를 수행한 복수의 화자 각각을 보다 정확하게 분리시킬 수 있다. 전술한 음성 데이터와 그에 대응하는 사용자 단말에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.In addition, the processor 110 determines a specific speaker corresponding to each of the one or more voice data, and when removing other voices other than the voice of a specific speaker determined from each of the voice data, the specific speaker is identified by one or more user terminals. Each piece of information can be matched and stored. For example, user A determined as a specific speaker corresponding to the first voice data may be matched with identification information of user A terminal, and user B determined as a specific speaker corresponding to the second voice data is matched with identification information of user B You can save it. Accordingly, a speaker corresponding to each of the one or more voice data received from each of the one or more user terminals is determined, and each speaker is matched to each user terminal, thereby more accurately separating each of the plurality of speakers having a conversation. . The detailed description of the above-described voice data and a user terminal corresponding thereto is only an example, and the present disclosure is not limited thereto.

또한, 프로세서(110)는 음성 데이터를 발화 구간에 기초하여 하나 이상의 음성 데이터 서브 데이터로 분할할 수 있다. 예를 들어, A 사용자 단말을 통해 제 1 음성 데이터를 수신한 경우, 프로세서(110)는 제 1 음성 데이터에서 식별된 하나 이상의 발화 구간을 기준으로 상기 제 1 음성 데이터를 하나 이상의 음성 데이터 서브 데이터로 분할할 수 있다. 보다 구체적인 예를 들어, 프로세서(110)는 제 1 음성 데이터에서 식별된 발화 구간이 5개인 경우, 상기 식별된 5개의 발화 구간 각각에 대응하여 상기 제 1 음성 데이터를 5개의 음성 데이터 서브 데이터로 분할할 수 있다. 전술한 음성 데이터의 하나 이상의 음성 데이터 서브 데이터 수에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.Also, the processor 110 may divide the voice data into one or more voice data sub-data based on the speech section. For example, when receiving the first voice data through the user terminal A, the processor 110 converts the first voice data into one or more voice data sub-data based on one or more speech sections identified in the first voice data. Can be divided. For a more specific example, when there are 5 speech intervals identified in the first speech data, the processor 110 divides the first speech data into 5 speech data sub-data corresponding to each of the identified 5 speech intervals. can do. The detailed description of the number of one or more voice data sub-data of the above-described voice data is only an example, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각에 통일된 시점을 부여할 수 있다.According to an embodiment of the present disclosure, the processor 110 may assign a unified viewpoint to each of one or more voice data received from each of the one or more user terminals 10.

구체적으로, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각에 글로벌 시간 정보를 태그할 수 있다. 이 경우, 글로벌 시간 정보는 복수의 사용자 단말 각각으로부터 수신한 복수의 음성 데이터 각각에 적용되는 시간 정보일 수 있다. 보다 구체적으로, 글로벌 시간 정보는, 복수의 음성 데이터 각각의 선후 관계를 명확하게 하기 위해 부여된 기준이 되는 시간 정보일 수 있다. 예를 들어, 글로벌 시간 정보는 컴퓨팅 장치의 시간 정보에 기초하여 결정되는 시간 정보일 수 있다. 글로벌 시간 정보를 결정하는 방식은 예시일 뿐이며 본 개시는 이에 제한되지 않는다. 로컬 시간 정보는, 음성 데이터 각각에 적용되는 시간 정보일 수 있다. 즉, 로컬 시간 정보는 음성 데이터의 시작으로부터 경과 시간에 관한 정보(예를 들어, 8분 동안의 음성 데이터의 경우, 32초 지점, 40초 지점 등)일 수 있다. 로컬 시간 정보에 관한 전술한 기재는 예시일 뿐이며, 본 개시는 이에 제한되지 않는다. 즉, 복수의 사용자 단말(10) 각각으로부터 복수의 음성 데이터를 수신하는 경우, 프로세서(110)는 복수의 음성 데이터 각각에 글로벌 시간 정보를 매칭하여 저장함으로써, 복수의 음성 데이터 각각에서 발화 구간에 따라 분할된 하나 이상의 음성 데이터 서브 데이터의 선후 관계를 명확하게 판별할 수 있다. 예를 들어, 2개의 사용자 단말(A 사용자 단말 및 B 사용자 단말)을 통해 2개의 음성 데이터(제 1 음성 데이터 및 제 2 음성 데이터)를 수신한 경우, 상기 2개의 음성 데이터에 포함된 각각의 발화의 선후관계는 각각의 음성 데이터의 로컬 시간 정보 만으로는 파악하기 어려울 수 있다. 즉, 각각의 음성 데이터의 녹음 시작 시점이 서로 상이한 경우, 프로세서(110)는 로컬 시간 정보 만으로는 복수의 음성 데이터에 포함된 각각의 발화의 선후 관계를 명확하게 파악하기 어려울 수 있다. 예를 들어, A 사용자 단말로부터 수신한 제 1 음성 데이터는 11시 10분부터 11시 20분까지에 대한 음성 데이터(즉, 10분 동안의 음성 데이터)일 수 있으며, B 사용자 단말을 통해 수신한 제 2 음성 데이터는 11시 12분부터 11시 20분까지에 대한 음성 데이터(즉, 8분 동안의 음성 데이터)일 수 있어, 각각의 음성 데이터의 시작 시점이 서로 상이하여, 동일한 로컬 시간 정보를 가진 시점의 발화도 실제로는 서로 상이한 시점의 발화일 수 있다. 이에 따라, 각각에 음성 데이터에 포함된 음성 데이터 서브 데이터의 선후 관계가 명확하게 식별되지 않아 각각의 음성 데이터를 통한 대화록 생성에 문제를 유발할 수 있기 때문에, 프로세서(110)는 제 1 음성 데이터 및 제 2 음성 데이터 각각에 글로벌 시간 정보를 매칭(즉, 발화 구간 각각에 대응하는 현재 시간을 표시)하여 각각의 데이터의 시점을 통일시킴으로써, 제 1 음성 데이터 및 제 2 음성 데이터 각각에서 발화 구간에 따라 분할된 하나 이상의 음성 데이터 서브 데이터의 선후 관계를 명확하게 구분할 수 있다. 전술한 사용자 단말의 수, 음성 데이터의 수 및 각각의 음성 데이터의 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.Specifically, the processor 110 may tag global time information on each of one or more voice data received from each of the one or more user terminals 10. In this case, the global time information may be time information applied to each of a plurality of voice data received from each of a plurality of user terminals. More specifically, the global time information may be time information that serves as a reference given to clarify the relationship between the plurality of voice data. For example, the global time information may be time information determined based on time information of the computing device. The method of determining global time information is only an example, and the present disclosure is not limited thereto. The local time information may be time information applied to each voice data. That is, the local time information may be information about an elapsed time from the start of the voice data (eg, in the case of voice data for 8 minutes, a 32 second point, a 40 second point, etc.). The foregoing description of local time information is only an example, and the present disclosure is not limited thereto. That is, when receiving a plurality of voice data from each of a plurality of user terminals 10, the processor 110 matches and stores global time information with each of the plurality of voice data, thereby It is possible to clearly determine the relationship between the sub-data of one or more divided voice data. For example, when two voice data (first voice data and second voice data) are received through two user terminals (user terminal A and user terminal B), each speech included in the two voice data It may be difficult to grasp the precedence relationship of each voice data only with local time information. That is, when the recording start time points of the respective voice data are different from each other, the processor 110 may be difficult to clearly grasp the precedence and subsequent relationship of each utterance included in the plurality of voice data using only local time information. For example, the first voice data received from user A may be voice data for 11:10 to 11:20 (that is, voice data for 10 minutes), and received through user terminal B. The second voice data may be voice data from 11:12 to 11:20 (i.e., voice data for 8 minutes), so that the start points of each voice data are different from each other, so that the same local time information is provided. The utterances at the point of excitation may actually be utterances at different points in time. Accordingly, since the precedence relationship between the voice data sub-data included in each voice data is not clearly identified, it may cause a problem in generating a conversation log through each voice data, so that the processor 110 2 By matching global time information to each voice data (i.e., displaying the current time corresponding to each speech section) and unifying the time point of each data, it is divided according to the speech section in each of the first voice data and the second voice data. It is possible to clearly distinguish between the preceding and following relations of one or more voice data sub-data. The above-described detailed description of the number of user terminals, the number of voice data, and the time point of each voice data are only examples, and the present disclosure is not limited thereto.

또한, 프로세서(110)는 복수의 음성 데이터 각각의 경과 시간에 기초하여 음성 데이터에 포함된 발화의 선후 관계를 결정할 수 있다. 프로세서(110)는 복수의 음성 데이터 모두에 적용되는 기준 시점을 결정하고, 기준 시점으로부터 경과 시간에 기초하여 복수의 음성 데이터에 포함된 발화의 선후 관계를 결정할 수 있다. 예를 들어, 프로세서(110)는 복수의 음성 데이터 중 가장 먼저 녹음이 시작된 음성 데이터의 시작 시점을 기준 시점으로 결정하고, 다른 음성 데이터에 기준 시점을 기초로 하여 경과 시간을 결정함으로써, 복수의 음성데이터에 포함된 복수의 발화의 선후관계를 결정할 수 있다. 구체적으로, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각이 최초 생성된 시점을 기록하고, 하나 이상의 음성 데이터 각각에 기록된 최초 시점을 기준으로 각각의 음성 데이터의 진행 시간을 식별함으로써, 하나 이상의 음성 데이터 각각에 포함된 하나 이상의 음성 데이터 서브 데이터의 선후 관계를 판별하도록 통일된 시점을 부여할 수 있다. Also, the processor 110 may determine a pre-and-after relationship of speech included in the speech data based on the elapsed time of each of the plurality of speech data. The processor 110 may determine a reference point in time applied to all of the plurality of voice data, and determine a precedence relationship between speech included in the plurality of voice data based on an elapsed time from the reference point in time. For example, the processor 110 determines the start time of the voice data from which recording is started first among the plurality of voice data as a reference time point, and determines the elapsed time based on the reference time point in other voice data, It is possible to determine the predecessor relationship of a plurality of utterances included in the data. Specifically, the processor 110 records a time when each of the one or more voice data received from each of the one or more user terminals 10 is initially generated, and each voice data based on the first time recorded in each of the one or more voice data. By identifying the progress time of the one or more voice data, a unified time point may be given to determine a precedence relationship between one or more voice data sub data included in each of the one or more voice data.

보다 구체적으로, 프로세서(110)는 가장 먼저 녹음이 시작된 음성 데이터의 녹음 시작 시점과 이후에 녹음이 시작된 음성 데이터의 녹음 시작 시점의 차이 만큼 이후에 녹음이 시작된 음성 데이터에 묵음 구간을 해당 음성 데이터의 시작 전에 부가할 수 있다. 즉, 프로세서(110)는 복수의 음성 데이터에 적용되는 기준 시점(본 예시에서, 최초로 녹음이 시작된 음성 데이터의 녹음 시작 시간 등)을 매칭하고 기준 시점으로부터 각각의 음성 데이터의 차이를 각각의 음성 데이터에 반영하여 발화의 선후 관계를 결정할 수 있다. 예를 들어, 제 1 음성 데이터의 녹음 시작 후 제 2 음성 데이터가 5초 뒤 녹음이 시작 된 경우, 프로세서(110)는 음성 데이터의 생성에 대한 기준 시간(예를 들어, 컴퓨팅 장치의 시간)에 기초하여 이를 판단할 수 있으며, 제 2 음성 데이터의 녹음 시작 전에 5초의 묵음 구간을 부여함으로써, 제 1 음성 데이터 및 제 2 음성 데이터의 진행 시간이 실제 발화 시간과 일치하도록 할 수 있다. 전술한 기재는 예시일 뿐이며, 본 개시는 이에 제한되지 않는다. More specifically, the processor 110 determines the silence section to the voice data from which recording has been started, as much as the difference between the recording start point of the voice data where recording is first started and the recording start point of the voice data from which the recording has started. Can be added before starting. That is, the processor 110 matches the reference time point applied to the plurality of voice data (in this example, the recording start time of the voice data at which recording was first started, etc.), and determines the difference between each voice data from the reference time point. By reflecting it, you can determine the relationship between the utterances before and after. For example, if the recording of the second voice data is started 5 seconds after the recording of the first voice data is started, the processor 110 is at a reference time (for example, the time of the computing device) for the generation of voice data. This can be determined based on this, and by giving a 5-second silent period before the start of recording of the second voice data, the progress time of the first voice data and the second voice data may coincide with the actual speech time. The foregoing description is only an example, and the present disclosure is not limited thereto.

또한, 프로세서(110)는 가장 먼저 녹음이 시작된 음성 데이터의 녹음 시작 시점과 이후에 녹음이 시작된 음성 데이터의 녹음 시작 시점의 차이 만큼 이후에 녹음이 시작된 음성 데이터의 진행 시간에 부가하여 발화의 선후 관계를 판단할 수 있다. 예를 들어, 제 1 음성 데이터의 녹음 시작 후 제 2 음성 데이터가 5초 뒤 녹음이 시작 된 경우, 제 2 음성 데이터의 녹음 시작으로부터 10초에 위치하는 발화는 제 1 음성 데이터의 녹음 시작으로부터 15초에 위치하는 발화일 수 있다. 따라서, 프로세서(110)는 제 2 음성 데이터에 제 1 음성 데이터와 시작 시간의 차이 만큼의 시간을 진행 시간에 부가하여 각각의 음성 데이터에 포함된 각각의 발화의 선후관계를 결정할 수 있다. 전술한 기재는 예시일 뿐이며, 본 개시는 이에 제한되지 않는다.In addition, the processor 110 adds to the progression time of the voice data from which recording is started later, as much as the difference between the recording start point of the voice data where the recording is started first and the recording start point of the voice data from which the recording is started later, in addition to the pre- and post relationship of the speech Can judge. For example, if recording of the second voice data is started 5 seconds after the start of recording of the first voice data, a speech located 10 seconds from the start of recording of the second voice data is 15 seconds from the start of recording of the first voice data. It may be an utterance located in seconds. Accordingly, the processor 110 may determine a precedence relationship between each speech included in each speech data by adding a time equal to the difference between the first speech data and the start time to the second speech data to the progress time. The foregoing description is only an example, and the present disclosure is not limited thereto.

전술한 바와 같이 프로세서(110)는 음성 데이터에 글로벌 시간 정보를 매칭하여 저장하거나, 기준 시점으로부터 경과 시간에 관한 정보를 매칭하여 저장함으로써, 음성 데이터에 포함된 복수의 발화의 선후관계를 판단할 수 있다. As described above, the processor 110 may match and store global time information with voice data, or match and store information on elapsed time from a reference point in time, thereby determining the predecessor relationship of a plurality of speeches included in the voice data have.

전술한 사용자 단말의 수, 음성 데이터의 수 및 각각의 음성 데이터의 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.The above-described detailed description of the number of user terminals, the number of voice data, and the time point of each voice data are only examples, and the present disclosure is not limited thereto.

이하에서 기재되는 음성 데이터에 대한 설명에서 시작 시점 및 종료 시점은 음성 데이터의 글로벌 시간 정보 및 기준 시점 정보 중 적어도 하나에 기초하여 하나 이상의 음성 데이터 각각에 포함된 하나 이상의 음성 데이터 서브 데이터 각각의 선후 관계를 구분하기 위해 하나 이상의 음성 데이터 각각에 부여된 통일된 시점에 기초한 것이다.In the description of the voice data described below, the start point and the end point are based on at least one of global time information and reference point information of the voice data, and a precedence relationship between each of the one or more voice data sub-data included in each of the one or more voice data. It is based on a unified point of view assigned to each of one or more voice data in order to distinguish between them.

본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별할 수 있다. 구체적으로, 프로세서(110)는 음성 데이터를 상기 음성 데이터에 포함된 발화 구간에 기초하여 분할한 하나 이상의 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별할 수 있다. 예를 들어, 음성 데이터가 2개의 발화 구간에 대응하여 2개의 음성 데이터 서브 데이터(음성 데이터 제 1 서브 데이터 및 음성 데이터 제 2 서브 데이터)로 분할된 경우, 프로세서(110)는 음성 데이터 제 1 서브 데이터의 시작 시점 및 종료 시점을 3초 및 32초로 각각 식별하고, 그리고 음성 데이터 제 2 서브 데이터의 시작 시점 및 종료 시점을 1분 10초 및 1분 52초로 각각 식별할 수 있다. 전술한 음성 데이터 서브 데이터의 시작 시점 및 종료 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. According to an embodiment of the present disclosure, the processor 110 may identify a start time and an end time of each of one or more voice data sub-data. Specifically, the processor 110 may identify a start time and an end time of each of the one or more voice data sub-data divided by the voice data based on the speech section included in the voice data. For example, when voice data is divided into two voice data sub-data (speech data first sub-data and voice data second sub-data) corresponding to two speech sections, the processor 110 The start time and end time of the data may be identified as 3 seconds and 32 seconds, respectively, and the start time and end time of the second sub data of the voice data may be identified as 1 minute 10 seconds and 1 minute 52 seconds, respectively. The detailed description of the start time and end time of the above-described voice data sub-data is only an example, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 음성 데이터 서브 데이터 각각을 음성 인식 모델의 입력으로 하여 하나 이상의 음성 데이터 서브 데이터 각각에 대응하는 하나 이상의 음성 인식 서브 결과를 출력할 수 있다. 이 경우, 음성 인식 모델은 사용자가 말하는 음성 언어를 문자 데이터로의 전환을 수행하는 모델로, 학습 데이터를 통해 사전 학습된 하나 이상의 네트워크 함수를 포함할 수 있다. 또한, 프로세서(110)는 하나 이상의 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 상기 대화록 상에서 하나 이상의 음성 인식 서브 결과 각각의 순서를 결정할 수 있다. 구체적인 예를 들어, 프로세서(110)는 음성 데이터 제 1 서브 데이터 및 음성 데이터 제 2 서브 데이터 각각을 음성 인식 모델에 입력하여 음성 인식 제 1 서브 결과 및 음성 인식 제 2 서브 결과를 출력할 수 있다. 프로세서(110)는 음성 인식 제 1 서브 결과의 출력에 기초한 음성 데이터 제 1 서브 데이터의 시작 시점 및 종료 시점을 3초 및 32초로 각각 식별하고, 그리고 음성 인식 제 2 서브 결과의 출력에 기초한 음성 데이터 제 2 서브 데이터의 시작 시점 및 종료 시점을 1분 10초 및 1분 52초로 각각 식별할 수 있다. 프로세서(110)는 판단된 시점 정보에 기초하여 음성 인식 제 1 서브 결과와 음성 인식 제 2 서브 결과의 대화록 상에서의 순서를 결정할 수 있다. 즉, 프로세서(110)는 하나 이상의 음성 인식 서브 결과를 상기 하나 이상의 음성 인식 서브 결과 각각에 대응하는 음성 데이터 서브 데이터의 시작 시점 및 종료 시점을 식별하고, 그리고 상기 식별된 시작 시점 및 종료 시점 중 적어도 하나에 기초하여 하나 이상의 음성 인식 서브 결과 각각이 대화록에서 표시되는 순서를 결정할 수 있다. 즉, 대화록에서 하나 이상의 음성 인식 서브 결과는 시작 시점 및 종료 시점에 따라 순서대로 배치될 수 있다. 예를 들어, 음성 인식 제 1 서브 결과의 시작 시점이 음성 인식 제 2 서브 결과의 시작 시점보다 빠른 경우, 프로세서(110)는 음성 인식 제 1 서브 결과가 대화록에서 음성 인식 제 2 서브 결과보다 먼저 표시되도록 순서를 결정할 수 있다. 다른 예를 들어, 음성 인식 제 2 서브 결과의 종료 시점이 제 1 음성 인식 결과의 종료 시점보다 빠른 경우, 프로세서(110)는 음성 인식 제 2 서브 결과가 대화록에서 음성 인식 제 1 서브 결과보다 먼저 표시되도록 순서를 결정할 수도 있다. 전술한 음성 인식 제 1 서브 결과 및 음성 인식 제 2 서브 결과에 대응하는 시작 시점 및 종료 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.According to an embodiment of the present disclosure, the processor 110 may output one or more voice recognition sub-results corresponding to each of the one or more voice data sub-data by using each of the one or more voice data sub-data as an input of the voice recognition model. . In this case, the speech recognition model is a model for converting a speech language spoken by a user into text data, and may include one or more network functions pre-trained through the training data. In addition, the processor 110 may determine the order of each of the one or more voice recognition sub-results in the conversation log based on a start time and an end time identified in each voice data sub-data that are the basis of one or more voice recognition sub-results . For a specific example, the processor 110 may input each of the first voice data sub-data and the second voice data sub-data into the voice recognition model to output the first voice recognition sub result and the second voice recognition sub result. The processor 110 identifies the start time and end time of the voice data first sub data based on the output of the voice recognition first sub result as 3 seconds and 32 seconds, respectively, and the voice data based on the output of the voice recognition second sub result The start and end times of the second sub data may be identified as 1 minute 10 seconds and 1 minute 52 seconds, respectively. The processor 110 may determine an order of the first voice recognition sub result and the second voice recognition sub result in the conversation log based on the determined time information. That is, the processor 110 identifies the start time and end time of the voice data sub-data corresponding to each of the one or more voice recognition sub-results, and at least one of the identified start time and end time An order in which each of the one or more voice recognition sub-results is displayed in the conversation log may be determined based on one. That is, one or more voice recognition sub-results in the conversation log may be arranged in order according to a start time point and an end time point. For example, if the start time of the speech recognition first sub result is earlier than the start time of the voice recognition second sub result, the processor 110 displays the first sub result of speech recognition before the second sub result of speech recognition in the conversation log. You can decide the order if possible. For another example, when the end point of the second voice recognition sub result is earlier than the end point of the first voice recognition result, the processor 110 displays the second voice recognition result before the first voice recognition sub result in the conversation log. You can also decide the order if possible. The detailed description of the start time and end time corresponding to the above-described speech recognition first sub-result and speech recognition second sub-result are examples only, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성할 수 있다. 이 경우, 하나 이상의 음성 데이터는 각각의 사용자 단말로부터 수신된 제 1 음성 데이터 및 제 2 음성 데이터를 포함할 수 있다. 또한, 프로세서(110)는 제 1 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 1 음성 데이터 서브 데이터로 분할하고, 그리고 제 2 음성 데이터 서브 데이터를 발화 구간에 기초하여 하나 이상의 제 2 음성 데이터 서브 데이터로 분할할 수 있다. 예를 들어, 제 1 음성 데이터에서 식별된 발화 구간이 3개인 경우, 프로세서(110)는 제 1 음성 데이터를 3개의 발화 구간에 기초하여 제 1 음성 데이터 제 1 서브 데이터, 제 1 음성 데이터 제 2 서브 데이터 및 제 1 음성 데이터 제 3 서브 데이터로 각각 분할할 수 있다. 다른 예를 들어, 제 2 음성 데이터에서 식별된 발화 구간이 2개인 경우, 프로세서(110)는 제 2 음성 데이터를 2개의 발화 구간에 기초하여 제 2 음성 데이터 제 1 서브 데이터, 제 2 음성 데이터 제 2 서브 데이터로 각각 분할할 수 있다. 전술한 제 1 음성 데이터 및 제 2 음성 데이터가 포함하는 발화 구간의 구체적인 수치에 대한 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. According to an embodiment of the present disclosure, the processor 110 may generate a conversation log by converting each of one or more voice data into one or more voice recognition results through a voice recognition model. In this case, the one or more voice data may include first voice data and second voice data received from each user terminal. Further, the processor 110 divides the first voice data into one or more first voice data sub data based on the speech section, and divides the second voice data sub data into one or more second voice data sub data based on the speech section. Can be divided into For example, when there are three speech intervals identified in the first speech data, the processor 110 uses the first speech data as the first speech data, first sub data, and the first speech data, based on the three speech intervals. It may be divided into sub data and first voice data and third sub data, respectively. For another example, when there are two speech intervals identified in the second speech data, the processor 110 applies the second speech data to the second speech data, first sub data, and the second speech data, based on the two speech intervals. Each can be divided into 2 sub-data. The description of specific values of the speech section included in the above-described first voice data and second voice data is only an example, and the present disclosure is not limited thereto.

또한, 프로세서(110)는 하나 이상의 제 1 음성 데이터 서브 데이터 및 하나 이상의 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별할 수 있다. 예를 들어, 제 1 음성 데이터가 3개의 발화 구간에 기초하여 제 1 음성 데이터 제 1 서브 데이터, 제 1 음성 데이터 제 2 서브 데이터 및 제 1 음성 데이터 제 3 서브 데이터로 분할되고, 제 2 음성 데이터가 2개의 발화 구간에 기초하여 제 2 음성 데이터 제 1 서브 데이터 및 제 2 음성 데이터 제 2 서브 데이터로 분할된 경우, 프로세서(110)는 상기 5 개의 음성 데이터 서브 데이터의 시작 시점을 각각 10초(제 1 음성 데이터 제 1 서브 데이터), 21초(제 1 음성 데이터 제 2 서브 데이터), 32초(제 1 음성 데이터 제 3 서브 데이터), 17초(제 2 음성 데이터 제 1 서브 데이터) 및 25초(제 2 음성 데이터 제 2 서브 데이터)로 식별할 수 있다. 전술한 음성 데이터 서브 데이터의 시작 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.In addition, the processor 110 may identify a start point and an end point of each of the one or more first voice data sub-data and the one or more second voice data sub-data. For example, the first voice data is divided into first voice data, first sub data, first voice data, second sub data, and first voice data, and third sub data, based on three speech sections, and the second voice data When is divided into second voice data first sub-data and second voice data second sub-data based on two speech intervals, the processor 110 sets the starting points of the five voice data sub-data for 10 seconds ( First audio data, first sub data), 21 seconds (first audio data, second sub data), 32 seconds (first audio data, third sub data), 17 seconds (second audio data, first sub data) and 25 It can be identified by second (second voice data, second sub data). The detailed description of the starting point of the voice data sub-data is only an example, and the present disclosure is not limited thereto.

또한, 프로세서(110)는 하나 이상의 제 1 음성 데이터 서브 데이터 및 하나 이상의 제 2 음성 데이터 서브 데이터를 음성 인식 모델의 입력으로 하여 각각의 서브 데이터 각각에 대응하는 하나 이상의 제 1 음성 인식 서브 결과 및 하나 이상의 제 2 음성 인식 서브 결과를 출력할 수 있다. 예를 들어, 음성 인식 모델에 제 1 음성 데이터 제 1 서브 데이터가 입력된 경우, 제 1 음성 인식 제 1 서브 결과를 출력할 수 있으며, 제 2 음성 데이터 제 1 서브 데이터를 입력된 경우, 제 2 음성 인식 제 2 서브 결과를 출력할 수 있다.In addition, the processor 110 uses one or more first voice data sub-data and one or more second voice data sub-data as inputs of the voice recognition model, and one or more first voice recognition sub-results corresponding to each of the sub-data and one The above second voice recognition sub result may be output. For example, when the first sub-data of the first voice data is input to the voice recognition model, the first sub-result of the first voice recognition may be output, and if the first sub-data of the second voice data is input, the second The second sub result of speech recognition may be output.

또한, 프로세서(110)는 하나 이상의 제 1 음성 인식 서브 결과 및 하나 이상의 제 2 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 대화록 상에서 하나 이상의 제 1 음성 인식 서브 결과 및 하나 이상의 제 2 음성 인식 서브 결과 각각이 표시되는 순서를 결정할 수 있다. 구체적인 예를 들어, 전술한 예시에서 제 1 음성 인식 제 1 서브 결과, 제 1 음성 인식 제 2 서브 결과, 제 1 음성 인식 제 3 서브 결과, 제 2 음성 인식 제 1 서브 결과 및 제 2 음성 인식 제 2 서브 결과 각각이 제 1 음성 데이터 제 1 서브 데이터, 제 1 음성 데이터 제 2 서브 데이터, 제 1 음성 데이터 제 3 서브 데이터, 제 2 음성 데이터 제 1 서브 데이터 및 제 2 음성 데이터 서브 데이터에 기초하여 생성될 수 있다. 프로세서(110)는 상기 5개 음성 인식 서브 결과 생성에 기초가 된 상기 5개의 음성 데이터 서브 데이터의 시작 시점을 각각 10초(제 1 음성 데이터 제 1 서브 데이터), 21초(제 1 음성 데이터 제 2 서브 데이터), 32초(제 1 음성 데이터 제 3 서브 데이터), 17초(제 2 음성 데이터 제 1 서브 데이터) 및 25초(제 2 음성 데이터 제 2 서브 데이터)로 식별할 수 있다. 또한, 프로세서(110)는 상기 식별된 시작 시점에 기초하여 5개의 음성 인식 서브 결과이 대화록에서 표시되는 순서를 결정할 수 있다. 즉, 대화록에는 제 1 음성 인식 제 1 서브 결과(10초), 제 2 음성 인식 제 1 서브 결과(17초), 제 1 음성 인식 제 2 서브 결과(21초), 제 2 음성 인식 제 2 서브 결과(25초), 제 1 음성 인식 제 3 서브 결과(32초) 순으로 배치될 수 있다.In addition, the processor 110 may provide one or more presentations on the conversation log based on the start time and end time identified in each of the voice data sub-data that are the basis of the one or more first voice recognition sub-results and the one or more second voice recognition sub-results. An order in which each of the first voice recognition sub-result and one or more second voice recognition sub-results are displayed may be determined. For a specific example, in the above example, the first voice recognition first sub result, the first voice recognition second sub result, the first voice recognition third sub result, the second voice recognition first sub result, and the second voice recognition second Each of the two sub-results is based on the first voice data, the first sub data, the first voice data, the second sub data, the first voice data, the third sub data, the second voice data, the first sub data, and the second voice data sub data. Can be created. The processor 110 sets the starting points of the five voice data sub-data based on the generation of the five voice recognition sub-results, respectively, for 10 seconds (first voice data first sub data) and 21 seconds (first voice data first sub data). 2 sub data), 32 seconds (first voice data, third sub data), 17 seconds (second voice data, first sub data), and 25 seconds (second voice data, second sub data). Also, the processor 110 may determine an order in which the five voice recognition sub-results are displayed in the conversation log based on the identified start time point. That is, in the conversation log, the first voice recognition first sub result (10 seconds), the second voice recognition first sub result (17 seconds), the first voice recognition second sub result (21 seconds), and the second voice recognition second sub result. Results (25 seconds) may be arranged in the order of the first voice recognition third sub-result (32 seconds).

또한, 프로세서(110)는 하나 이상의 제 1 음성 인식 서브 결과 및 하나 이상의 제 2 음성 인식 서브 결과 각각의 결정된 순서 및 하나 이상의 사용자 단말(10) 각각의 식별 정보에 기초하여 대화록을 생성할 수 있다. 예를 들어, 프로세서(110)는 하나 이상의 제 1 음성 인식 서브 결과 각각에 매칭된 제 1 사용자 단말의 식별 정보에 기초하여 화자를 식별할 수 있다. 또한 프로세서(110)는 하나 이상의 제 2 음성 인식 서브 결과 각각에 매칭된 제 2 사용자 단말의 식별 정보에 기초하여 화자를 식별할 수 있다. 이에 따라, 각각의 음성 인식 서브 결과는 각각의 사용자 단말의 식별 정보에 기초하여 채팅창의 형태로 대화록에 기록될 수 있다. 즉, 프로세서(110)는 발화자 각각(예를 들어, 제 1 사용자 단말을 사용하는 제 1 사용자 및 제 2 사용자 단말을 사용하는 제 2 사용자)이 분리된 대화록을 생성할 수 있다.Also, the processor 110 may generate a conversation log based on the determined order of each of the one or more first voice recognition sub-results and the one or more second voice recognition sub-results, and identification information of each of the one or more user terminals 10. For example, the processor 110 may identify a speaker based on the identification information of the first user terminal matched with each of the one or more first voice recognition sub-results. In addition, the processor 110 may identify the speaker based on identification information of the second user terminal matched with each of the one or more second voice recognition sub-results. Accordingly, each voice recognition sub-result may be recorded in the chat log in the form of a chat window based on the identification information of each user terminal. That is, the processor 110 may generate a separate conversation log for each talker (eg, a first user using a first user terminal and a second user using a second user terminal).

본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 제 1 음성 데이터 서브 데이터 및 하나 이상의 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 기초하여 복수의 사용자의 발화의 중첩 구간을 식별할 수 있다. 이때, 제 1 음성 데이터 서브 데이터는 제 1 사용자 단말을 통해 수신한 제 1 음성 데이터에 포함되는 것이며, 제 2 음성 데이터 서브 데이터는 제 2 사용자 단말을 통해 수신한 제 2 음성 데이터에 포함되는 것으로, 각각이 상이한 사용자 단말로부터 수신한 음성 데이터에 기초하여 생성된 것일 수 있다. 구체적으로, 프로세서(110)는 각각이 상이한 단말로부터 수신한 제 1 음성 데이터 및 제 2 음성 데이터를 각각의 발화 구간에 기초하여 분할한 하나 이상의 제 1 음성 데이터 서브 데이터 및 하나 이상의 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 통해 각각의 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터가 시간적으로 중첩되는지 여부를 식별할 수 있다. 즉, 프로세서(110)는 각각의 음성 데이터에서 복수의 사용자의 복수의 발화 중 발화가 중첩되는 구간을 식별할 수 있다. 예를 들어, 제 1 사용자 단말을 통해 수신한 제 1 음성 데이터에 포함된 제 1 음성 데이터 제 1 서브 데이터, 제 1 음성 데이터 제 2 서브 데이터 및 제 1 음성 데이터 제 3 서브 데이터 각각의 시작 및 종료 시점이 각각 10~15초, 21~28초, 32~35초이며 제 2 사용자 단말을 통해 수신한 제 2 음성 데이터에 포함된 제 2 음성 데이터 제 1 서브 데이터, 제 2 음성 데이터 제 2 서브 데이터 각각의 시작 및 종료 시점이 각각 17~20초, 25~31초인 경우, 프로세서(110)는 제 1 음성 데이터 제 2 서브 데이터와 제 2 음성 데이터 제 2 서브 데이터가 중첩됨을 식별하여 25초에서 28초까지를 중첩 구간으로 식별할 수 있다. 전술한 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과 각각의 시작 시점 및 종료 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.According to an embodiment of the present disclosure, the processor 110 determines an overlapping section of the utterances of a plurality of users based on a start time and an end time of each of one or more first voice data sub-data and one or more second voice data sub-data. Can be identified. At this time, the first voice data sub-data is included in the first voice data received through the first user terminal, and the second voice data sub-data is included in the second voice data received through the second user terminal, Each may be generated based on voice data received from different user terminals. Specifically, the processor 110 divides the first voice data and the second voice data received from different terminals on the basis of each speech section, and at least one first voice data sub-data and one or more second voice data sub-data. Whether each of the first voice data sub-data and the second voice data sub-data are temporally overlapped may be identified through the start time and end time of each data. That is, the processor 110 may identify a section in which the utterances overlap among the plurality of utterances of a plurality of users in each voice data. For example, start and end of each of the first voice data, the first sub data, the first voice data, the second sub data, and the first voice data, the third sub data included in the first voice data received through the first user terminal. The time points are 10 to 15 seconds, 21 to 28 seconds, and 32 to 35 seconds, respectively, and the second voice data included in the second voice data received through the second user terminal First sub data, second voice data and second sub data When each start and end time is 17 to 20 seconds and 25 to 31 seconds, respectively, the processor 110 identifies that the second sub data of the first voice data and the second sub data of the second voice data overlap, so that from 25 seconds to 28 seconds. Up to seconds can be identified as overlapping intervals. The detailed description of the start time and end time of each of the above-described first voice recognition sub result and the second voice recognition sub result are only examples, and the present disclosure is not limited thereto.

또한, 프로세서(110)는 중첩 구간이 식별된 경우, 중첩 구간에 대응하는 음성 인식 서브 결과의 순서를 결정할 수 있다. 이하의 예시에서 제 1 음성 인식 서브 결과는 제 1 사용자 단말로부터 수신된 제 1 음성 데이터에 포함된 제 1 음성 데이터의 서브 데이터 중 하나에 대한 음성 인식 서브 결과이고, 제 2 음성 인식 서브 결과는 제 2 사용자 단말로부터 수신된 제 2 음성 데이터에 포함된 제 2 음성 데이터의 서브 데이터 중 하나에 대한 음성 인식 서브 결과일 수 있다. 프로세서(110)는 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과가 서로 중첩되는 시간의 발화임을 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터의 시간 정보에 기초하여 식별할 수 있다. 이 경우, 프로세서(110)는 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과의 대화록 상에서의 순서를 사전 결정된 기준에 따라 결정할 수 있다. 예를 들어, 프로세서(110)는 제 1 음성 인식 서브 결과의 기초가 된 제 1 음성 데이터 서브 데이터의 시작 시간이 제 2 음성 데이터 서브 데이터의 시작 시간보다 빠른 경우, 대화록 상에서 제 1 음성 인식 서브 결과를 제 2 음성 인식 서브 결과보다 먼저 배치할 수 있다. Also, when the overlapping section is identified, the processor 110 may determine an order of the speech recognition sub-results corresponding to the overlapping section. In the following example, the first voice recognition sub result is a voice recognition sub result of one of the sub data of the first voice data included in the first voice data received from the first user terminal, and the second voice recognition sub result is the second voice recognition sub result. 2 It may be a voice recognition sub result of one of the sub data of the second voice data included in the second voice data received from the user terminal. The processor 110 may identify that the first voice recognition sub-result and the second voice recognition sub-result are utterances of times overlapping each other based on time information of the first voice data sub-data and the second voice data sub-data. In this case, the processor 110 may determine the order of the first voice recognition sub-result and the second voice recognition sub-result in the conversation log according to a predetermined criterion. For example, if the start time of the first voice data sub data, which is the basis of the first voice recognition sub result, is earlier than the start time of the second voice data sub data, the processor 110 May be placed before the second voice recognition sub result.

또한, 프로세서(110)는 중첩 구간에 대응하는 음성 인식 서브 결과 중 적어도 하나를 분할할 수도 있다. 구체적으로, 프로세서(110)는 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과 각각의 출력에 기초가 된 제 1 음성 데이터 서브 세트 및 제 2 음성 데이터 서브 세트 각각의 시작 시점 및 종료 시점에 기초하여 발화에 중첩이 식별되는 경우, 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과 중 적어도 하나의 서브 결과를 분할할 것을 결정할 수 있다. 보다 구체적으로, 프로세서(110)는 제 1 음성 인식 서브 결과의 기초가 된 제 1 음성 데이터 서브 데이터의 시작 및 종료 시간 사이에 제 2 음성 데이터 서브 데이터가 시작되는 경우, 제 1 음성 인식 서브 결과를 제 2 음성 데이터 서브 데이터의 시작 시간에 기초하여 분할할 수 있다. 예를 들어, 제 1 음성 데이터 서브데이터가 10초짜리 발화를 포함한 데이터인 경우에, 제 1 음성 데이터 서브 데이터의 발화 시작 후 5초 뒤에 제 2 음성 데이터 서브데이터의 발화가 시작된 경우라고 가정할 수 있다. 이 경우, 프로세서(110)는 제 1 음성 데이터 서브데이터의 10초간 발화에 대한 음성 인식 결과인 제 1 음성 인식 서브 결과를 5초를 기준으로 분할하여 대화록 상에 배치할 수 있다. 즉, 본 예시에서 프로세서(110)는 대화록 상에서 제 1 음성 인식 서브 결과의 0초에서 5초 사이의 구간의 제 1 텍스트, 제 2 음성 인식 서브 결과의 텍스트, 제 1 음성 인식 서브 결과의 5초에서 10초 사이 구간의 제 2 텍스트를 순서대로 배치할 수 있다. 전술한 음성 데이터 서브 데이터의 시간 및 분할에 관련한 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다. Also, the processor 110 may divide at least one of the speech recognition sub-results corresponding to the overlapping section. Specifically, the processor 110 is based on the start time and end time of each of the first subset of speech data and the second subset of speech data that are based on the output of each of the first speech recognition sub-result and the second speech recognition sub-result. Thus, when overlapping of the speech is identified, it may be determined to divide at least one of the first speech recognition sub-result and the second speech recognition sub-result. More specifically, when the second voice data sub-data starts between the start and end times of the first voice data sub-data, which is the basis of the first voice recognition sub-result, the processor 110 determines the first voice recognition sub-result. The second voice data may be divided based on the start time of the sub data. For example, if the first voice data sub-data is data including a 10-second speech, it may be assumed that the second voice data sub-data starts to utter five seconds after the first voice data sub-data starts to utter. have. In this case, the processor 110 may divide the first voice recognition sub-result, which is the voice recognition result for the speech of the first voice data sub-data for 10 seconds, based on 5 seconds and arrange them on the conversation log. That is, in this example, the processor 110 is the first text in a section between 0 seconds and 5 seconds of the first voice recognition sub result in the conversation log, the text of the second voice recognition sub result, and 5 seconds of the first voice recognition sub result. The second text in the interval between 10 seconds can be placed in order. The description of the time and division of the voice data sub-data described above is only an example, and the present disclosure is not limited thereto.

또한, 프로세서(110)는 중첩 구간이 식별된 경우 각각의 음성 인식 서브 결과를 의미에 기초하여 분할할 수도 있다. 프로세서(110)는 음성 인식 서브 결과에 대한 자연어 처리에 기초하여 음성 인식 서브 결과의 분할 지점을 결정할 수 있다. 또한, 프로세서(110)는 중첩 구간에 대응하는 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과 각각을 통계적 언어 모델을 기반으로 각 음성 인식 서브 결과에 포함된 단어들의 조합 확률을 분석함으로써, 각 음성 인식 서브 결과에 대한 문장에서의 끝 지점을 판정할 수 있다. 이때, 통계적 언어 모델은, 문장의 확률을 계산하거나, 또는 이전 단어들이 입력된 경우, 다음 단어가 나올 확률에 대한 계산이 가능한 모델일 수 있으며, 단어들의 조합이 얼마나 적절한지, 또는 해당 문장이 얼마나 적합한지를 판정할 수 있는 모델일 수 있다. 또한, 프로세서(110)는 각각의 음성 인식 서브 결과에 판정된 끝 지점에 기초하여 음성 인식 서브 결과의 분할 여부를 결정할 수 있다. 예를 들어, 제 1 음성 데이터 서브 데이터의 시작 시점 및 종료 시점이 각각 5초 및 20초로 식별되고, 제 2 음성 데이터 서브 데이터의 시작 시점 및 종료 시점이 각각 12초 및 18초로 식별된 경우(즉, 12초에서 18초사이의 6초간의 발화의 중첩 구간이 식별된 경우), 프로세서(110)는 제 1 음성 인식 서브 결과를 통계적 언어 모델의 입력으로하여 제 1 음성 인식 서브 결과에 포함된 각각의 단어 및 각각의 단어의 복수의 조합에 대한 적합도를 출력함으로써, 제 1 음성 인식 서브 결과에 대한 문장에서의 끝 지점을 판정할 수 있다. 또한, 프로세서(110)는 제 1 음성 인식 서버 결과에서 끝 지점이 판정된 경우, 상기 제 1 음성 인식 서브 결과를 분할할 것을 결정할 수 있다. 보다 구체적인 예를 들어, 전술한 중첩 구간을 포함하는 음성 데이터의 발화를, "저작권 관련 상담을 받고 싶어 찾아 뵙게 (저작권 관련이요?) 되었습니다. 네 맞습니다." 로 가정한다. 전술한 가정에서 괄호 내의 발화는 제 2 화자(즉, 제 2 음성 데이터로부터 인식된 발화)이고, 괄호 밖의 발화는 제 1 화자(즉, 제 1 음성 데이터로부터 인식된 발화)일 수 있다. 통계적 언어 모델은 이 경우, 제 1 음성 인식 서브 결과에 포함된 단어 각각이 '저작권', '관련', '상담을', '받고', '싶어', '찾아', '뵙게', '되었습니다', '네', '맞습니다.'를 인식하고, '되었습니다' 와 '네' 라는 단어들의 조합 적합도를 보다 낮게 출력할 수 있으며, 이에 따라, 프로세서(110)는 '되었습니다'를 문장에서의 끝지점으로 판정할 수 있다. 또한, 프로세서(110)는 제 1 음성 인식 서브 결과에서 판정된 문장에서의 끝 지점에 기초하여 상기 제 1 음성 인식 서브 결과를 분할할 것을 결정할 수 있다. 전술한, 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. In addition, when the overlapping section is identified, the processor 110 may divide each voice recognition sub-result based on meaning. The processor 110 may determine a division point of the speech recognition sub-result based on natural language processing on the speech recognition sub-result. In addition, the processor 110 analyzes the combination probability of words included in the respective speech recognition sub-results based on the statistical language model for each of the first speech recognition sub-result and the second speech recognition sub-result corresponding to the overlapping section. It is possible to determine the end point in the sentence for the speech recognition sub-result. At this time, the statistical language model may be a model capable of calculating the probability of a sentence, or a probability of a next word appearing when previous words are input, and how appropriate is a combination of words, or how much a corresponding sentence is. It may be a model that can determine whether it is appropriate. Also, the processor 110 may determine whether to divide the speech recognition sub-results based on the determined end point of each speech recognition sub-result. For example, when the start and end times of the first voice data sub-data are identified as 5 seconds and 20 seconds, respectively, and the start and end times of the second voice data sub-data are identified as 12 seconds and 18 seconds, respectively (i.e. , When an overlapping section of speech for 6 seconds between 12 seconds and 18 seconds is identified), the processor 110 uses the first speech recognition sub result as an input of the statistical language model, and each included in the first speech recognition sub result. It is possible to determine the end point in the sentence for the first speech recognition sub-result by outputting the word of s and the suitability for a plurality of combinations of each word. Also, when the end point is determined from the result of the first voice recognition server, the processor 110 may determine to divide the first voice recognition sub result. For a more specific example, the speech of the voice data including the above-described overlapping section, "I want to see you (copyright related?) because I want to receive a copyright-related consultation. Yes, that is correct." Is assumed. In the above-described assumption, the utterance in parentheses may be the second speaker (ie, the utterance recognized from the second voice data), and the utterance outside the parenthesis may be the first speaker (ie, the utterance recognized from the first voice data). Statistical linguistic model in this case, each of the words included in the first speech recognition sub-result was'copyright','related','counseling','receiving','wanting','seeking','seeing', and'seeking'. ','yes','yes' can be recognized, and the combination of the words'was' and'yes' can be output to a lower fit, and accordingly, the processor 110 indicates'was' at the end of the sentence. Can be judged by points. Also, the processor 110 may determine to divide the first voice recognition sub-result based on an end point in the sentence determined in the first voice recognition sub-result. The detailed description of the start time and end time of each of the first voice data sub-data and the second voice data sub-data described above is only an example, and the present disclosure is not limited thereto.

또한, 프로세서(110)는 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과 중 적어도 하나에 대한 분할이 결정된 경우, 중첩 구간에 대응하는 음성 인식 서브 결과를 분할할 수 있다. 구체적인 예를 들어, 제 1 음성 데이터 서브 데이터의 시작 시점 및 종료 시점이 각각 5초 및 20초로 식별되고, 제 2 음성 데이터 서브 데이터의 시작 시점 및 종료 시점이 각각 12초 및 18초로 식별되어 중첩 구간 존재함이 식별되고, 그리고 제 1 음성 인식 서브 결과에 포함된 단어 각각이 '저작권', '관련', '상담을', '받고', '싶어', '찾아', '뵙게', '되었습니다', '네', '맞습니다.'이며, 제 2 음성 인식 서브 결과에 포함된 단어 각각이 '저작권' 및 '관련이요?'인 경우, 프로세서(110)는 통계적 언어 모델에서 출력된 단어들의 조합에 대한 적합도에 기초하여 제 1 음성 인식 서브 결과의 '되었습니다'를 상기 제 1 음성 인식 서브 결과에 대한 문장에서의 끝 지점으로 판정할 수 있다. 또한, 프로세서(110)는 제 1 음성 인식 서브 결과에서 판정된 끝 지점에 기초하여 상기 제 1 음성 인식 서브 결과를 '저작권 관련 상담을 받고 싶어 찾아 뵙게 되었습니다' 및 '네 맞습니다'로 분할할 수 있다. 다시 말해, 프로세서(110)는 제 1 음성 인식 서브 결과에 대응하는 시작 시점과 종료 시점 사이에 다른 사용자의 발화에 기초하여 출력된 제 2 음성 인식 서브 결과가 존재하는 것을 식별(즉, 중첩 구간을 식별)하고, 중첩 구간에서의 음성 인식 서브 결과에 포함된 단어의 의미를 파악함으로써, 각각의 음성 인식 서브 결과의 선후관계가 명확히 표시되도록 음성 인식 서브 결과를 분할할 수 있다. 즉, 프로세서(110)는 제 2 음성 인식 서브 결과에 포함된 단어(즉, “저작권 관련이요?”)가 제 1 음성 인식 서브 결과의 사이에 배치되도록 상기 제 1 음성 인식 서브 결과를 “저작권 관련 상담을 받고 싶어 찾아 뵙게 되었습니다” 및 “네 맞습니다”로 분할할 수 있다. 전술한 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 대한 구체적인 기재와 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. Also, when it is determined that at least one of the first voice recognition sub-result and the second voice recognition sub-result is determined, the processor 110 may divide the voice recognition sub-result corresponding to the overlapping section. For a specific example, the start and end times of the first voice data sub-data are identified as 5 seconds and 20 seconds, respectively, and the start and end times of the second voice data sub-data are identified as 12 seconds and 18 seconds, respectively, Existence was identified, and each of the words included in the first voice recognition sub-result was'copyright','related','counseling','receiving','wanting','finding','seeing','see' When','yes','correct', and each of the words included in the second voice recognition sub-result is'copyright' and'relevant?', the processor 110 is a combination of words output from the statistical language model. Based on the suitability for,'it' of the first voice recognition sub-result may be determined as an end point in the sentence for the first voice recognition sub-result. In addition, the processor 110 may divide the first voice recognition sub result into'I want to receive copyright-related counseling' and'Yes, I am right' based on the end point determined from the first voice recognition sub result. . In other words, the processor 110 identifies that the second voice recognition sub-result, which is output based on the utterance of another user, exists between the start time and the end time corresponding to the first voice recognition sub-result (that is, the overlapping section). Identification) and grasping the meaning of the words included in the speech recognition sub-result in the overlapping section, the speech recognition sub-result can be divided so that the precedence relationship of each speech recognition sub-result is clearly displayed. That is, the processor 110 converts the first voice recognition sub-result to “copyright-related” so that the words included in the second voice recognition sub-result (that is, “copyright related?”) are placed between the first voice recognition sub results. It can be divided into “I’m here to meet you for consultation” and “Yes, that’s right”. The detailed description of the start time and end time of each of the above-described first voice data sub data and the second voice data sub data, and the specific description of the first voice recognition sub result and the second voice recognition sub result are only examples. The disclosure is not limited thereto.

본 개시는 전술한 바와 같이, 2개의 음성 데이터를 각각의 사용자 단말로부터 수신하여 2개의 음성 데이터로부터 출력된 하나 이상의 음성 인식 결과의 순서를 결정하고, 2개의 음성 데이터를 수신한 2개의 사용자 단말의 식별 정보에 기초하여 대화록을 생성할 수 있으나, 본 개시의 프로세스들을 통해 2개 이상의 복수의 음성 데이터를 수신하여 대화록을 생성할 수도 있음이, 당 업계의 통상의 기술자에게 자명하게 인지될 수 있다. As described above, the present disclosure determines the order of one or more voice recognition results output from the two voice data by receiving two voice data from each user terminal, and the two user terminals receiving the two voice data. Although the conversation record may be generated based on the identification information, it may be obvious to a person skilled in the art that the conversation record may be generated by receiving two or more pieces of voice data through the processes of the present disclosure.

본 개시의 일 실시예에 따르면, 프로세서(110)는 대화록에 대응하는 키워드를 결정할 수 있다. 구체적으로, 프로세서(110)는 하나 이상의 음성 인식 결과의 의미 분석 결과, 하나 이상의 음성 인식 결과에 포함된 단어 별 반복 횟수 및 사전 결정된 대화 주제 중 적어도 하나에 기초하여 대화록에 대한 하나 이상의 키워드를 결정할 수 있다. According to an embodiment of the present disclosure, the processor 110 may determine a keyword corresponding to the conversation log. Specifically, the processor 110 may determine one or more keywords for the conversation log based on at least one of a semantic analysis result of one or more speech recognition results, a number of repetitions for each word included in the one or more speech recognition results, and a predetermined conversation topic. have.

프로세서(110)는 하나 이상의 음성 인식 결과에 대한 의미 분석 결과에 기초하여 대화록에 대한 하나 이상의 키워드를 결정할 수 있다. 보다 구체적으로, 프로세서(110)는 하나 이상의 음성 인식 결과 각각에 포함된 하나 이상의 단어 각각의 의미의 중요도에 기초하여 하나 이상의 키워드를 결정할 수 있다. 예를 들어, 음성 인식 결과에 포함된 단어 각각이 '저작권', '관련', '상담을', '받고', '싶어', '찾아', '뵙게', '되었습니다'인 경우, 상기 프로세서(110)는 '저작권' 또는 '상담을'의 의미가 비교적 중요도가 높은 것으로 판단하여 '저작권' 또는 '상담'을 키워드로써 결정할 수 있다. 전술한 음성 인식 결과에 포함되는 하나 이상의 단어 및 상기 하나 이상의 단어 각각의 중요도에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. The processor 110 may determine one or more keywords for the conversation log based on a result of semantic analysis of the one or more speech recognition results. More specifically, the processor 110 may determine one or more keywords based on the importance of the meaning of each of the one or more words included in each of the one or more speech recognition results. For example, if each of the words included in the speech recognition result is'copyright','related','consultation','receive','want','find','see you','been', the processor (110) may determine that the meaning of'copyright' or'counseling' is of relatively high importance, and thus'copyright' or'counseling' as a keyword. One or more words included in the above-described speech recognition result and a detailed description of the importance of each of the one or more words are only examples, and the present disclosure is not limited thereto.

또한, 프로세서(110)는 하나 이상의 음성 인식 결과 각각에 포함된 단어 별 반복 횟수에 기초하여 대화록에 대한 하나 이상의 키워드를 결정할 수 있다. 구체적으로, 프로세서(110)는 음성 인식 결과에 포함된 하나 이상의 단어 각각의 반복 횟수(즉, 중복 횟수)를 식별하고, 반복 횟수가 높은 단어를 대화록에 대한 키워드로써 결정할 수 있다.Also, the processor 110 may determine one or more keywords for the conversation log based on the number of repetitions for each word included in each of the one or more speech recognition results. Specifically, the processor 110 may identify the number of repetitions (ie, the number of duplicates) of each of one or more words included in the speech recognition result, and determine a word having a high repetition number as a keyword for the conversation log.

또한, 프로세서(110)는 사전 결정된 대화 주제에 기초하여 키워드를 결정할 수 있다. 보다 구체적으로, 프로세서(110)는 음성인식 결과에 대한 의미 분석으로부터 대화의 주제를 결정하거나, 사용자 단말(10)로부터 대화 주제를 수신할 수 있으며, 상기 수신한 대화 주제에 대응하여 키워드를 결정할 수 있다. 예를 들어, 사용자 단말(10)로부터 '저작권'을 대화 주제로서 수신한 경우, 프로세서(110)는 상기 주제(즉, 저작권)와 관련된 '침해', '고소' 및 '친고죄' 등을 키워드로써 결정할 수 있다. 이 경우, 복수의 대화 주제 각각에 대응하여 하나 이상의 키워드가 메모리(120)에 사전 저장될 수 있다. 전술한 대화 주제 및 대화 주제에 대응하는 키워드에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. Also, the processor 110 may determine a keyword based on a predetermined conversation topic. More specifically, the processor 110 may determine a topic of conversation from a semantic analysis of the result of speech recognition, or receive a topic of conversation from the user terminal 10, and determine a keyword in response to the received topic. have. For example, when receiving a'copyright' as a conversation topic from the user terminal 10, the processor 110 uses'infringement','complaint', and'confession' related to the topic (i.e. You can decide. In this case, one or more keywords may be pre-stored in the memory 120 corresponding to each of the plurality of conversation topics. The detailed description of the above-described conversation topic and keywords corresponding to the conversation topic is merely an example, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 음성 인식 결과에서 하나 이상의 키워드의 위치를 식별할 수 있다. 구체적으로, 프로세서(110)는 대화록에 포함된 하나 이상의 음성 인식 결과 중 하나 이상의 키워드 각각의 대화록 상에서의 위치 및 음성 데이터 상에서의 위치 중 적어도 하나를 식별할 수 있다. 또한, 프로세서(110)는 대화록에 포함된 하나 이상의 음성 인식 결과에서 하나 이상의 키워드 각각의 위치를 식별하고, 상기 하나 이상의 키워드 각각에 대응하는 음성 데이터 서브 데이터를 재생할 수 있다. 자세히 설명하면, 프로세서(110)는 하나 이상의 음성 데이터 각각을 음성 인식 모델의 입력으로 하여 출력된 하나 이상의 음성 인식 결과를 통해 생성된 대화록에서 키워드를 식별하고, 그리고 식별된 키워드에 대응하여 상기 식별된 키워드를 포함하는 음성 데이터 서브 데이터를 재생할 수 있다. 즉, 프로세서(110)는 사용자 단말(10)로부터 수신한 음성 데이터 중 특정 키워드에 대응하는 부분만을 대화록에서 식별하여 음성 인식 결과로써 제공할 수 있으며, 상기 식별된 음성 인식 결과에 대응하는 음성 데이터 서브 데이터 구간을 재생시킬 수 있어, 사용자에게 편의성을 제공할 수 있다. 다시 말해, 사용자는 대화록에서 중요한 특정 부분만을 제공받을 수 있으며, 녹음 데이터(즉, 음성 데이터)에서 해당 특정 부분에 대응하는 구간을 재생하도록 하는 재생 화면을 제공받을 수 있으므로, 대화록을 전부 읽어보거나 녹음 데이터를 모두 들을 필요없이 필요에 따라 특정 중요 부분(즉, 키워드)만을 탐색할 수 있어, 요지 파악에 편의성을 제공받을 수 있다.According to an embodiment of the present disclosure, the processor 110 may identify locations of one or more keywords in one or more speech recognition results. Specifically, the processor 110 may identify at least one of a position on the chat log and a position on the voice data of each of one or more keywords among one or more speech recognition results included in the chat log. In addition, the processor 110 may identify the position of each of the one or more keywords in the result of one or more speech recognition included in the conversation log, and reproduce the voice data sub-data corresponding to each of the one or more keywords. In detail, the processor 110 identifies a keyword in the conversation log generated through one or more speech recognition results output by using each of the one or more speech data as an input of the speech recognition model, and the identified keyword in response to the identified keyword. Audio data sub-data including keywords can be reproduced. That is, the processor 110 may identify only a portion of the voice data received from the user terminal 10 corresponding to a specific keyword in the conversation log and provide it as a voice recognition result, and the voice data subsidiary corresponding to the identified voice recognition result Since the data section can be reproduced, convenience can be provided to the user. In other words, the user can only be provided with an important specific part of the chat log, and a playback screen that allows the user to play the section corresponding to that specific part of the recorded data (i.e., voice data) can be provided. It is possible to search only specific important parts (ie, keywords) as needed without having to listen to all the data, so that convenience can be provided to grasp the point.

본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 음성 데이터에 기초하여 생성된 대화록을 포함하는 사용자 인터페이스를 하나 이상의 사용자 단말로 제공할 수 있다.According to an embodiment of the present disclosure, the processor 110 may provide a user interface including a conversation log generated based on voice data received from each of the one or more user terminals 10 to one or more user terminals.

프로세서(110)가 하나 이상의 사용자 단말(10)로 제공하는 사용자 인터페이스에 대한 구체적인 설명은 도 4 내지 도 7을 참조하여 후술하도록 한다.A detailed description of the user interface provided by the processor 110 to one or more user terminals 10 will be described later with reference to FIGS. 4 to 7.

도 4는 본 개시의 일 실시예에 따른 사용자 목록 표시 화면 및 대화 목록 표시 화면을 포함하는 사용자 인터페이스의 예시도를 도시한다.4 is a diagram illustrating an exemplary user interface including a user list display screen and a conversation list display screen according to an embodiment of the present disclosure.

사용자 인터페이스는 사용자 단말(10)의 디스플레이 수단에 표시될 수 있다. The user interface may be displayed on the display means of the user terminal 10.

프로세서(110)가 생성하여 하나 이상의 사용자 단말(10)로 제공한 사용자 인터페이스는 도 4의 (a)에 도시된 바와 같이, 대화록 서비스를 이용하는 사용자의 프로필 정보(310), 상기 사용자가 등록한 다른 사용자들의 목록, 등록한 다른 사용자들의 접속 상태 여부에 대한 접속 표시 정보(320) 및 다른 사용자들 추가 등록을 위한 등록 요청 버튼(330)을 표시하는 사용자 목록 표시 화면(340)을 제공할 수 있다. 다만, 해당 사용자 목록 표시 화면에 표시된 정보들은 필수적인 요소들은 아니므로, 추가적인 정보가 사용자 목록 표시 정보에 더 포함될 수도 있다.The user interface generated by the processor 110 and provided to the one or more user terminals 10 includes profile information 310 of a user using the conversation log service, as shown in FIG. 4A, and other users registered by the user A user list display screen 340 may be provided to display a list of users, access display information 320 regarding whether other registered users are connected, and a registration request button 330 for additional registration of other users. However, since the information displayed on the corresponding user list display screen is not essential, additional information may be further included in the user list display information.

사용자 인터페이스에 포함된 사용자 목록 표시 화면(340)은 사용자의 프로필 정보(310)를 표시할 수 있다. 예를 들어, 사용자 인터페이스에 표시된 사용자의 프로필 정보는 사용자의 이름, 회사명, 직위, 연락처 등에 관련한 정보를 포함할 수 있다. 또한, 사용자 인터페이스에 포함된 사용자 목록 표시 화면(340)은 사용자가 친구로 등록한 하나 이상의 다른 사용자의 목록을 표시할 수 있으며, 하나 이상의 다른 사용자의 목록 각각에 대응하여 하나 이상의 다른 사용자의 접속 상태를 나타내는 접속 표시 정보(320)를 표시할 수 있다. 예를 들어, 도 4에 도시된 바와 같이, 사용자 인터페이스는 사용자가 등록한 '최원혁'이라는 다른 사용자를 사용자 목록 표시 화면에 표시할 수 있으며, '최원혁'의 현재 접속 상태를 나타내는 접속 표시 정보를 함께 표시할 수 있다. 보다 구체적인 예를 들어, 하나 이상의 다른 사용자 중 '최원혁'에 대응하는 사용자 단말이 컴퓨팅 장치(100)에 접속하지 않은 경우, 사용자 인터페이스는 해당 사용자를 참조번호 321과 같은 접속 표시 정보를 나타낼 수 있으며, '장태빈' 및 '김선형' 각각에 대응하는 사용자 단말들이 컴퓨팅 장치(100)에 접속한 경우, 사용자 인터페이스는 참조번호 322 및 323과 같은 접속 표시 정보를 나타낼 수 있다. 사용자 인터페이스에 포함된 사용자 목록 표시 화면에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.The user list display screen 340 included in the user interface may display the user's profile information 310. For example, the user's profile information displayed on the user interface may include information related to the user's name, company name, position, and contact information. In addition, the user list display screen 340 included in the user interface may display a list of one or more other users registered as friends by the user, and the connection status of one or more other users corresponding to each list of one or more other users. The indicated connection indication information 320 may be displayed. For example, as shown in FIG. 4, the user interface may display another user named'Choi Wonhyuk' registered by the user on the user list display screen, and access display information indicating the current connection status of'Choi Wonhyuk' Can be displayed together. For a more specific example, when a user terminal corresponding to'Choi Won-hyuk' among one or more other users does not access the computing device 100, the user interface may indicate access indication information such as reference number 321 for the user. When user terminals corresponding to each of'Taebin Jang' and'Seonhyung Kim' access the computing device 100, the user interface may indicate access indication information such as 322 and 323. The detailed description of the user list display screen included in the user interface is only an example, and the present disclosure is not limited thereto.

또한, 사용자 인터페이스에 포함된 사용자 목록 표시 화면(340)은 추가적으로 다른 사용자를 등록하기 위한 친구 추가 버튼(330)을 표시할 수 있으며, 프로세서(110)는 사용자 단말(10)로부터 해당 친구 추가 버튼(330)에 대한 선택 입력을 수신하는 경우, 대화 또는 회의를 진행하고자 하는 다른 사용자 고유 ID를 입력 받을 수 있는 ID 입력 창을 제공하도록 하는 제어 신호를 사용자 단말로 전송할 것을 결정할 수 있다. 또한, 사용자 단말(10)로부터 해당 ID 입력 창을 통해 다른 사용자의 ID에 대한 정보를 수신하는 경우, 프로세서(110)는 다른 사용자와 회의 또는 대화를 진행할 수 있도록, 다른 사용자의 정보(예컨대, ID)를 사용자 목록 표시 화면(340)에 추가하여 표시하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. In addition, the user list display screen 340 included in the user interface may additionally display a friend add button 330 for registering another user, and the processor 110 may provide a corresponding friend add button from the user terminal 10 ( When a selection input for 330) is received, it may be determined to transmit a control signal to the user terminal to provide an ID input window through which a unique ID of another user who intends to conduct a conversation or conference can be input. In addition, when receiving information about another user's ID from the user terminal 10 through the corresponding ID input window, the processor 110 allows the other user's information (e.g., ID ) May be added to the user list display screen 340 to transmit a control signal for display to the user terminal 10.

또한, 사용자 인터페이스는 사용자가 다른 사용자들과 수행한 하나 이상의 대화가 표시된 대화 목록 표시 화면(350)을 포함할 수 있다. 구체적으로, 사용자 인터페이스는 대화 목록 표시 화면(350)에 대한 사용자의 선택 입력에 기초하여 다른 사용자들과 수행한 하나 이상의 대화 각각의 명칭을 표시하는 화면을 제공할 수 있다. 이때, 사용자 인터페이스에 포함된 대화 목록 표시 화면(350)은, 사용자가 수행한 하나 이상의 대화 항목(370), 대화 내용 검색 버튼(360) 및 대화방을 개설하기 위한 대화방 개설 버튼(390)을 포함할 수 있다. In addition, the user interface may include a conversation list display screen 350 on which one or more conversations performed by a user with other users are displayed. Specifically, the user interface may provide a screen displaying the names of each of one or more conversations performed with other users based on a user's selection input on the conversation list display screen 350. In this case, the conversation list display screen 350 included in the user interface includes one or more conversation items 370 performed by the user, a conversation content search button 360, and a chat room opening button 390 for opening a chat room. I can.

사용자 인터페이스에 포함된 대화 목록 표시 화면(350)은, 사용자가 하나 이상의 다른 사용자 각각과 수행한 하나 이상의 대화 각각의 명칭을 정렬하여 표시할 수 있다. 이 경우, 하나 이상의 대화에 대한 목록은 도 4에 도시된 바와 같이 IR 미팅(371), 주간 회의(372), OO회사 미팅(373), OOO님 인터뷰(374), OOO님 상담(375) 및 전체 회의(376)와 같이 정렬되어 표시될 수 있다. 또한, 각각의 대화에 대한 명칭은 대화방 개설 시 사용자 단말로부터 수신한 선택 입력에 기초하여 생성된 것 일 수 있으며, 각각의 대화에 대한 의미 분석 결과로서 생성되거나 또는 각각의 대화에서 결정된 키워드에 기초하여 생성된 것 일 수도 있다. The conversation list display screen 350 included in the user interface may arrange and display the names of each of one or more conversations performed by a user with each of one or more other users. In this case, the list of one or more conversations, as shown in Figure 4, IR meeting 371, weekly meeting 372, OO company meeting 373, OOO's interview 374, OOO's consultation 375, and It can be displayed aligned with the entire conference 376. In addition, the name of each conversation may be generated based on a selection input received from the user terminal when opening a chat room, and may be generated as a result of semantic analysis for each conversation or based on a keyword determined in each conversation. It may have been created.

또한, 사용자 인터페이스에 포함된 대화 목록 표시 화면(350)은 사용자가 수행한 하나 이상의 대화 각각에 대응하여 하나 이상의 시점 정보를 표시할 수 있다. 예를 들어, 도 4에 도시된 바와 같이, 사용자가 수행한 대화의 명칭이 IR 미팅(371)인 경우, 상기 IR 미팅(371)에 대응하여 '2018.10.03. 14:00'라는 시점 정보를 표시할 수 있다. 또한, 대화 목록 표시 화면에 표시된 하나 이상의 대화 각각의 명칭은 시점 정보에 기초하여 내림차순 또는 오름차순으로 정렬될 수 있다.Also, the conversation list display screen 350 included in the user interface may display one or more viewpoint information corresponding to each one or more conversations performed by the user. For example, as illustrated in FIG. 4, when the name of the conversation performed by the user is the IR meeting 371, the '2018.10.03. 14:00' can be displayed. Also, the names of each of the one or more conversations displayed on the conversation list display screen may be arranged in descending or ascending order based on viewpoint information.

또한, 사용자 인터페이스에 포함된 대화 목록 표시 화면(350)은 사용자가 수행한 하나 이상의 대화 중 특정 대화를 검색하기 위한 대화 검색 버튼(360)을 표시할 수 있다. 대화 목록 표시 화면(350)을 통해 사용자 단말(10)로부터 대화 검색 버튼에 대한 선택 입력을 수신한 경우, 프로세서(110)는 숫자 또는 텍스트를 입력 받는 검색 창을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 또한, 사용자 단말(10)로부터 상기 검색 창에 숫자 또는 텍스트에 대한 정보를 수신하는 경우, 프로세서(110)는 사용자 단말(10)로부터 수신한 숫자 또는 텍스트에 대한 정보에 대응하는 대화를 검색하여 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 이때, 프로세서(110)가 사용자 단말(10)로부터 수신하는 선택 입력은 대화의 명칭, 대화의 시점 정보 및 대화에 포함된 하나 이상의 사용자에 대한 정보 중 적어도 하나에 대한 정보일 수 있다. 즉, 프로세서(110)는 대화의 명칭, 대화의 시점 정보 및 대화에 포함된 하나 이상의 사용자에 대한 정보(예컨대, 대화를 수행한 하나 이상의 사용자 각각에 ID 정보 등)에 기초하여 하나 이상의 대화 중 특정 대화에 대한 검색을 수행할 수 있다. In addition, the conversation list display screen 350 included in the user interface may display a conversation search button 360 for searching for a specific conversation among one or more conversations performed by the user. When a selection input for a conversation search button is received from the user terminal 10 through the conversation list display screen 350, the processor 110 transmits a control signal to provide a search window for inputting a number or text. 10) can decide to send. In addition, when receiving information on numbers or texts from the user terminal 10 in the search window, the processor 110 searches for and provides a conversation corresponding to the information on numbers or texts received from the user terminal 10 It may be determined to transmit a control signal to be performed to the user terminal 10. In this case, the selection input that the processor 110 receives from the user terminal 10 may be information on at least one of a name of a conversation, information about a time point of the conversation, and information on one or more users included in the conversation. That is, the processor 110 may specify one or more conversations based on the name of the conversation, information about the time point of the conversation, and information on one or more users included in the conversation (eg, ID information for each of the one or more users who have performed the conversation) You can search for conversations.

또한, 사용자 인터페이스에 포함된 대화 목록 표시 화면(350)에 표시된 하나 이상의 대화 명칭 중 특정 대화 명칭에 대하여 사용자 단말로부터 선택 입력을 수신하는 경우, 프로세서(110)는 상기 사용자 단말의 선택 입력에 기초하여 해당 대화 명칭에 대응하는 대화록 표시 화면을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 사용자가 수행한 하나 이상의 대화 명칭 중 특정 대화 명칭에 대한 사용자 단말의 선택 입력에 기초하여 사용자 단말로 제공하는 대화록 표시 화면에 대한 구체적인 설명은 도 6을 참조하여 후술하도록 한다. In addition, when receiving a selection input from a user terminal for a specific conversation name among one or more conversation names displayed on the conversation list display screen 350 included in the user interface, the processor 110 is based on the selection input of the user terminal. It may be determined to transmit a control signal for providing a conversation log display screen corresponding to the corresponding conversation name to the user terminal 10. A detailed description of the conversation log display screen provided to the user terminal based on a selection input by the user terminal for a specific conversation name among one or more conversation names performed by the user will be described later with reference to FIG. 6.

또한, 사용자 인터페이스에 포함된 대화 목록 표시 화면(350)은 사용자가 하나 이상의 다른 사용자와 대화방을 개설하기 위하여 사용자 단말(10)로부터 선택 입력을 수신하는 대화방 개설 버튼을 포함할 수 있다. 또한, 대화방 개설 버튼에 대한 선택 입력을 사용자 단말(10)로부터 수신하는 경우, 프로세서(110)는 하나 이상의 다른 사용자를 대화방에 포함시키기 위한 사용자 선택 입력 화면을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 사용자 인터페이스에 포함된 사용자 선택 입력 화면 및 사용자 선택 입력 화면에 대한 사용자 단말의 선택 입력에 기초하여 개설된 대화방에 대한 구체적인 설명은 도 5를 참조하여 후술하도록 한다.In addition, the conversation list display screen 350 included in the user interface may include a chat room opening button for receiving a selection input from the user terminal 10 in order for a user to open a chat room with one or more other users. In addition, when receiving a selection input for the chat room opening button from the user terminal 10, the processor 110 provides a control signal for providing a user selection input screen for including one or more other users in the chat room. ) To send. A detailed description of a chat room opened based on a user selection input screen included in the user interface and a selection input of a user terminal for the user selection input screen will be described later with reference to FIG. 5.

도 5는 본 개시의 일 실시예에 따른 대화방을 개설하는 과정 및 복수의 사용자를 포함하는 대화방에 대한 사용자 인터페이스의 예시도를 도시한다. 5 is a diagram illustrating a process of opening a chat room and a user interface for a chat room including a plurality of users according to an embodiment of the present disclosure.

본 개시의 일 실시예에 따르면, 프로세서(110)는 대화방 개설 버튼(도 4의 참조 번호 390)에 대한 사용자 단말(10)의 선택 입력에 대응하여 하나 이상의 다른 사용자를 대화방에 포함시키기 위한 사용자 선택 입력 화면을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 이때, 사용자 선택 입력 화면은 도 5에 도시된 바와 같이, 사용자가 등록한 하나 이상의 다른 사용자의 목록을 표시할 수 있으며, 상기 하나 이상의 다른 사용자 각각에 대응하여 상기 하나 이상의 다른 사용자를 선택하기 위한 선택 버튼을 포함할 수 있다. 보다 구체적인 예를 들어, 도 5를 참조하면, 사용자가 상기 사용자가 등록한 하나 이상의 다른 사용자 중 '장태빈', '김선형' 및 '변기훈'라는 아이디를 가진 다른 사용자를 포함하는 대화방을 개설하고자 하는 경우, '장태빈', '김선형' 및 '변기훈'에 각각 대응하는 선택 버튼 각각(참조번호 422, 423, 424)을 선택 입력하고, 선택 완료에 대한 버튼을 선택 입력할 수 있다. 다시 말해, 프로세서(110)는 사용자 단말로부터 사용자 선택 입력 화면을 통해 하나 이상의 다른 사용자 각각에 대한 선택 입력(참조번호 422, 423, 444)과 선택 완료에 대한 확인 버튼(430)에 대한 선택 입력에 대응하여 대화방을 개설하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 전술한 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다. According to an embodiment of the present disclosure, the processor 110 selects a user for including one or more other users in the chat room in response to a selection input of the user terminal 10 for a chat room opening button (reference numeral 390 in FIG. 4). It may be determined to transmit a control signal for providing an input screen to the user terminal 10. In this case, the user selection input screen may display a list of one or more other users registered by the user, and a selection button for selecting the one or more other users corresponding to each of the one or more other users, as shown in FIG. 5. It may include. For a more specific example, referring to FIG. 5, when a user wants to open a chat room including other users with IDs'Taebin Jang','Seonhyung Kim' and'Kihoon Byun' among one or more other users registered by the user ,'Taebin Jang','Seonhyung Kim' and'Kihun Byun', respectively, each of the corresponding selection buttons (reference numbers 422, 423, 424) can be selected and input, and a button for selection completion can be selected and input. In other words, the processor 110 responds to the selection input for each of one or more other users (reference numbers 422, 423, 444) and the confirmation button 430 for selection completion through the user selection input screen from the user terminal. In response, a control signal for opening a chat room may be determined to be transmitted to the user terminal 10. The foregoing description is only an example, and the present disclosure is not limited thereto.

또한, 프로세서(110)는 사용자와 하나 이상의 다른 사용자와의 새로운 대화방이 개설된 경우, 대화방 표시 화면을 제공하도록 하는 제어 신호를 사용자 단말로 전송할 것을 결정할 수 있다. 예를 들어, 프로세서(110)는 도 5의 (a)와 같이 하나 이상의 다른 사용자('장태빈', '김선형' 및 '변기훈')에 대한 사용자 단말의 선택 입력을 수신한 경우, 도 5의 (b)와 같은 대화방 표시 화면을 제공할 수 있다. 이 경우, 대화방 표시 화면은, 도 5의 (b)에 도시된 바와 같이, 대화방이 개설된 시점 정보를 표시할 수 있으며, 상기 대화방에 포함된 사용자들의 정보(예컨대, 사용자의 ID 정보('장태빈', '김선형' 및 '변기훈'))를 표시할 수 있다. 전술한 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.In addition, when a new chat room between the user and one or more other users is opened, the processor 110 may determine to transmit a control signal for providing a chat room display screen to the user terminal. For example, when the processor 110 receives a selection input of a user terminal for one or more other users ('Taebin Jang','Seonhyung Kim' and'Kihoon Byun') as shown in FIG. The chat room display screen as shown in (b) can be provided. In this case, the chat room display screen may display information about the time when the chat room was opened, as shown in (b) of FIG. 5, and information of users included in the chat room (eg, user ID information (' ','Kim Sun-hyung' and'Byeon Ki-hoon')) can be displayed. The foregoing description is only an example, and the present disclosure is not limited thereto.

또한, 사용자 인터페이스에 포함된 대화방 표시 화면은 대화방에 포함된 하나 이상의 사용자 각각으로부터 하나 이상의 음성 데이터를 수신하기 위한 녹음 시작 버튼(440)을 포함할 수 있다. 또한, 사용자 단말로부터 대화방 표시 화면에 표시된 녹음 시작 버튼에 대한 선택 입력을 수신하는 경우, 프로세서(110)는 해당 선택 입력을 수신하는 시점을 기초로 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터를 수신할 수 있다. In addition, the chat room display screen included in the user interface may include a recording start button 440 for receiving one or more voice data from each of one or more users included in the chat room. In addition, when receiving a selection input for the recording start button displayed on the chat room display screen from the user terminal, the processor 110 may receive one or more voice data from each of the one or more user terminals based on the time when the selection input is received. I can.

또한, 사용자 인터페이스에 포함된 대화방 표시 화면은 대화방에 포함된 하나 이상의 사용자 각각으로부터 수신한 하나 이상의 음성 데이터에 기초하여 생성된 하나 이상의 음성 인식 결과를 시간별 및 화자별로 정렬하여 표시할 수 있다. 사용자 각각으로부터 수신한 하나 이상의 음성 데이터에 기초하여 생성된 하나 이상의 음성 인식 결과를 시간별 및 화자별로 정렬하여 표시하는 구성은 앞서 도 2를 통해 구체적으로 설명한 것으로 중복 설명은 생략하도록 한다. 사용자 인터페이스는 사용자 본인의 단말로부터 수신된 음성 데이터에 기초하여 출력된 음성 인식 결과를 대화방 표시 화면의 일측면에 표시하고, 그리고 하나 이상의 다른 사용자 단말로부터 수신된 각각의 음성 데이터에 기초하여 출력된 음성 인식 결과는 대화방 표시 화면의 다른 일 측면에 표시할 수 있다. 예를 들어, 도 5의 (b)에 도시된 바와 같이, 특정 사용자(450)의 음성 데이터를 통해 출력된 음성 인식 결과는 상기 특정 사용자(450)에 대응하여 대화방 표시 화면의 왼쪽에 배치(451)하고, 특정 사용자를 제외한 하나 이상의 다른 사용자(460)의 음성 데이터를 통해 출력된 음성 인식 결과는 대화방 표시 화면의 오른쪽에 배치(461)할 수 있다. 즉, 사용자 인터페이스는 사용자가 대화 내용을 용이하게 파악하도록 복수의 사용자가 간 대화 기록을 채팅창 형태로 나타냄으로써, 텍스트에 대한 가독성을 확보하여 사용자에게 편의성을 제공할 수 있다. In addition, the chat room display screen included in the user interface may display one or more voice recognition results generated based on one or more voice data received from each of one or more users included in the chat room, arranged by time and by speaker. The configuration in which one or more voice recognition results generated based on one or more voice data received from each user are sorted and displayed by time and by speaker has been described in detail with reference to FIG. 2, and redundant descriptions will be omitted. The user interface displays the voice recognition result output based on the voice data received from the user's own terminal on one side of the chat room display screen, and the voice output based on each voice data received from one or more other user terminals. The recognition result may be displayed on the other side of the chat room display screen. For example, as shown in (b) of FIG. 5, the voice recognition result output through the voice data of a specific user 450 is placed on the left side of the chat room display screen in response to the specific user 450 (451 ), and the voice recognition result output through voice data of one or more other users 460 except for a specific user may be disposed 461 on the right side of the chat room display screen. That is, the user interface can provide convenience to the user by securing the readability of the text by displaying the conversation history of a plurality of users in the form of a chat window so that the user can easily grasp the conversation content.

또한, 사용자 단말로부터 대화록 목록 표시 화면(350)에 표시된 하나 이상의 대화 명칭 중 특정 대화 명칭에 대한 선택 입력을 수신하는 경우, 프로세서(110)는 대화록 표시 화면을 제공하도록 하는 제어 신호를 사용자 단말로 전송할 것을 결정할 수 있다. 대화록 표시 화면에 대한 구체적은 설명은 도 6을 참조하여 후술하도록 한다.In addition, when receiving a selection input for a specific conversation name among one or more conversation names displayed on the conversation log list display screen 350 from the user terminal, the processor 110 transmits a control signal for providing the conversation log display screen to the user terminal. Can decide. A detailed description of the conversation log display screen will be described later with reference to FIG. 6.

도 6은 본 개시의 일 실시예에 따른 사용자가 수행한 하나 이상의 대화 목록 중 특정 대화에 대한 사용자 단말의 선택 입력에 대응하여 대화록 표시 화면 제공하는 사용자 인터페이스의 예시도를 도시한다.6 is a diagram illustrating an exemplary user interface for providing a conversation log display screen in response to a selection input of a user terminal for a specific conversation among one or more conversation lists performed by a user according to an embodiment of the present disclosure.

사용자 인터페이스에 포함된 대화 목록 표시 화면(350)에 표시된 하나 이상의 대화 명칭 중 특정 대화 명칭에 대하여 사용자 단말로부터 선택 입력을 수신하는 경우, 프로세서(110)는 사용자 단말의 선택 입력에 기초하여 해당 대화 명칭에 대응하는 대화록 표시 화면을 제공하도록 하는 제어 신호를 사용자 단말로 전송할 것을 결정할 수 있다. 구체적인 예를 들어, 도 6의 (a)에 도시된 바와 같이, 대화 목록 표시 화면에 표시된 하나 이상의 대화 명칭 중 '서비스 기획 회의'에 해당하는 대화 명칭에 대한 선택 입력(510)을 사용자 단말(10)로부터 수신하는 경우, 프로세서(110)는 '서비스 기획 회의'에 대응하는 대화록 표시 화면을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 수 있다. 이 경우, 대화록 표시 화면은 도 6의 (b)와 같은 항목들을 포함할 수 있다. 보다 구체적으로, 대화록 표시 화면은, 대화를 수행한 하나 이상의 사용자 각각에 대한 정보(530), 상기 대화방에 관련한 하나 이상의 키워드에 관한 정보(540), 시간별 및 화자별로 나열된 하나 이상의 음성 인식 결과에 대한 정보(550) 및 음성 인식 결과에 대응하는 음성 구간 재생하는 음성 재생 화면(560)을 포함할 수 있다. 전술한 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.When receiving a selection input from a user terminal for a specific conversation name among one or more conversation names displayed on the conversation list display screen 350 included in the user interface, the processor 110 determines the corresponding conversation name based on the selection input of the user terminal. It may be determined to transmit a control signal for providing a conversation log display screen corresponding to the user terminal. For a specific example, as shown in (a) of FIG. 6, a selection input 510 for a conversation name corresponding to a'service planning meeting' among one or more conversation names displayed on the conversation list display screen is input to the user terminal 10. ), the processor 110 may transmit a control signal to the user terminal 10 to provide a conversation log display screen corresponding to the'service planning meeting'. In this case, the conversation log display screen may include items as shown in (b) of FIG. 6. More specifically, the conversation log display screen includes information 530 on each of one or more users who have performed a conversation, information on one or more keywords related to the chat room 540, and one or more speech recognition results listed by time and speaker. A voice reproduction screen 560 for reproducing information 550 and a voice section corresponding to a voice recognition result may be included. The foregoing description is only an example, and the present disclosure is not limited thereto.

또한, 프로세서(110)는 사용자 단말(10)로부터 대화록 표시 화면(350)에 표시된 하나 이상의 키워드 및 하나 이상의 음성 인식 결과 중 적어도 하나에 대한 선택 입력을 수신하는 경우, 해당 선택 입력에 대응하여 음성 데이터를 재생할 수 있다. In addition, when receiving a selection input for at least one of one or more keywords and one or more speech recognition results displayed on the conversation log display screen 350 from the user terminal 10, the processor 110 Can play.

프로세서(110)가 사용자 단말(10)로부터 하나 이상의 키워드 및 하나 이상의 음성 인식 결과에 대한 선택 입력에 기초하여 음성 데이터를 재생하는 것에 대한 구체적인 설명은 도 7을 참조하여 후술하도록 한다. A detailed description of how the processor 110 reproduces voice data based on a selection input for one or more keywords and one or more voice recognition results from the user terminal 10 will be described later with reference to FIG. 7.

도 7은 본 개시의 일 실시예에 따른 음성 인식 결과 및 키워드에 대한 사용자의 선택 입력에 대응하여 음성 데이터의 특정 시점을 재생하는 화면이 표시된 사용자 인터페이스의 예시도를 도시한다. 7 is a diagram illustrating an exemplary user interface in which a screen for reproducing a specific time point of voice data is displayed in response to a user's selection input for a voice recognition result and a keyword according to an embodiment of the present disclosure.

사용자 인터페이스는 대화록 표시 화면에 하나 이상의 음성 인식 결과를 표시할 수 있으며, 프로세서(110)는 하나 이상의 음성 인식 결과 중 적어도 하나의 음성 인식 결과에 대한 사용자 단말로부터의 선택 입력에 대응하여 해당 음성 인식 결과의 생성 시점에 음성 데이터를 재생하도록 하는 음성 재생 화면(630)을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 구체적인 예를 들어, 도 7에 도시된 바와 같이, 대화록 표시 화면은 참조번호 611, 612 및 613과 같이 하나 이상의 음성 인식 결과를 표시할 수 있다. 이 경우, 사용자 단말(10)로부터 참조번호 612에 대한 선택 입력을 수신하는 경우, 프로세서(110)는 해당 음성 인식 결과에 대응하는 음성 데이터의 발화 구간을 시작점으로 하는 음성 데이터 서브 데이터를 재생시키는 음성 재생 화면(630)을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 즉, 프로세서(110)는 하나 이상의 음성 인식 결과를 포함하는 대화록을 제공할 수 있으며, 대화록에서 사용자 단말(10)을 통해 특정 음성 인식 결과에 대한 선택 입력에 대응하여 해당 음성 데이터 서브 데이터를 재생시킬 수 있다. 이에 따라, 사용자는 하나 이상의 다른 사용자와 수행한 대화를 텍스트 형태 및 음성의 형태로 모두 제공받을 수 있다. 더불어, 음성 파일은 특정 구간에 대한 내용 파악이 어렵기 때문에 사용자는 대화록에 표시된 하나 이상의 음성 인식 결과(즉, 텍스트)를 통해 대화 내용에서 특정 구간을 빠르게 식별하고 해당 특정 구간에 대응하는 음성 데이터 서브 데이터를 재생시킬 수 있어, 수행한 대화에 대하여 내용 파악이 용이해질 수 있다. The user interface may display one or more voice recognition results on the conversation log display screen, and the processor 110 responds to a selection input from the user terminal for at least one voice recognition result among the one or more voice recognition results. It may be determined to transmit a control signal to the user terminal 10 to provide a voice reproducing screen 630 for reproducing voice data at the generation point of For a specific example, as shown in FIG. 7, the conversation log display screen may display one or more voice recognition results, such as 611, 612, and 613. In this case, when receiving a selection input for reference number 612 from the user terminal 10, the processor 110 reproduces the voice data sub-data starting from the speech section of the voice data corresponding to the voice recognition result. It may be determined to transmit a control signal for providing the playback screen 630 to the user terminal 10. That is, the processor 110 may provide a conversation log including one or more voice recognition results, and in the conversation log, play the corresponding voice data sub-data in response to a selection input for a specific voice recognition result through the user terminal 10. I can. Accordingly, a user can receive a conversation performed with one or more other users in both a text form and a voice form. In addition, since it is difficult to grasp the contents of a specific section in the voice file, the user can quickly identify a specific section in the conversation content through one or more speech recognition results (i.e., text) displayed in the conversation log and serve the voice data corresponding to the specific section. Since data can be reproduced, it is possible to easily grasp the contents of the conversation performed.

또한, 프로세서(110)는 사용자 단말(10)로부터 하나 이상의 키워드 중 특정 키워드에 대한 선택 입력에 대응하여 해당 키워드와 매칭된 하나 이상의 음성 인식 결과의 생성 시점의 음성 데이터 서브 데이터를 재생하도록 하는 음성 재생 화면(630)을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 이 경우, 하나 이상의 키워드의 위치는 하나 이상의 음성 인식 결과 각각에서 식별될 수 있으며, 특정 키워드는 대화록에 포함된 하나 이상의 음성 인식 결과 중 하나 이상의 위치에서 식별될 수 있다. 이에 따라, 프로세서(110)는 식별된 키워드의 위치를 음성 재생 화면(630)에 하나 이상 표시할 수 있다. 보다 구체적인 예를 들어, 도 7에 도시된 바와 같이 대화록 표시 화면에 표시된 하나 이상의 키워드가 '법률', '상담' 및 '저작권'을 포함하며, 사용자 단말(10)로부터 특정 '저작권'에 대한 선택 입력을 수신하는 경우, 프로세서(110)는 해당 키워드에 대응하는 구간의 음성 데이터 서브 데이터를 재생하도록 하는 음성 재생 화면(630)을 제공하도록 하는 제어 신호를 사용자 단말(10)로 제공할 수 있으며, 상기 음성 재생 화면(630)에는 음성 데이터에서 '저작권'(즉, 사용자가 선택한 키워드)에 대응하는 구간을 하나 이상 표시할 수 있다. 즉, 프로세서(110)는 사용자가 특정 키워드에 대응하는 구간을 용이하게 탐색할 수 있도록 음성 재생 화면(630)에 키워드가 존재하는 구간(즉, 음성 데이터 서브 데이터)을 각각 표시할 수 있다. 이에 따라, 사용자는 다른 사용자와 수행한 대화 내용을 포함하는 음성 데이터에서 특정 키워드에 대응하는 구간을 용이하게 재생할 수 있어, 특정 내용 탐색을 용이하게 수행할 수 있다.In addition, the processor 110 reproduces the voice data sub-data at the time of generating one or more voice recognition results matched with the corresponding keyword in response to a selection input for a specific keyword among one or more keywords from the user terminal 10 It may be determined to transmit a control signal for providing the screen 630 to the user terminal 10. In this case, the positions of one or more keywords may be identified in each of one or more speech recognition results, and a specific keyword may be identified in one or more positions among one or more speech recognition results included in the conversation log. Accordingly, the processor 110 may display one or more locations of the identified keywords on the voice reproduction screen 630. For a more specific example, as shown in FIG. 7, one or more keywords displayed on the conversation log display screen include'law','counseling' and'copyright', and selection for a specific'copyright' from the user terminal 10 When receiving an input, the processor 110 may provide a control signal to the user terminal 10 to provide a voice reproduction screen 630 for reproducing the voice data sub-data of the section corresponding to the keyword, One or more sections corresponding to “copyright” (ie, a keyword selected by the user) in the voice data may be displayed on the voice playback screen 630. That is, the processor 110 may display a section (ie, voice data sub-data) in which the keyword exists on the voice reproduction screen 630 so that the user can easily search for a section corresponding to a specific keyword. Accordingly, the user can easily reproduce a section corresponding to a specific keyword in the voice data including the content of the conversation performed with another user, and thus can easily perform a search for specific content.

본 개시의 일 실시예에 따르면, 사용자 인터페이스는 사용자 단말로부터 대화록에 포함된 하나 이상의 음성 인식 결과에 대한 수정 요청을 입력 받는 텍스트 편집 화면을 포함할 수 있다. 또한, 프로세서(110)는 사용자 단말(10)로부터 대화록에 포함된 하나 이상의 음성 인식 결과 중 특정 음성 인식 결과에 대한 수정 요청을 수신하는 경우, 음성 인식 모델이 해당 음성 인식 결과에 대응하는 음성 인식 결과를 출력하도록 상기 음성 인식 모델을 보정할 수 있다. 이때, 음성 인식 모델은 STT(Speech to text) 알고리즘을 활용하여 하나 이상의 음성 데이터 서브 데이터 각각에 대응하는 음성 인식 결과를 출력할 수 있다. 즉, 프로세서(110)는 사용자 단말(10)로부터 수신한 음성 인식 결과에 대한 수정 요청에 대응하는 피드백을 STT 알고리즘에 반영함으로써, STT알고리즘의 성능을 증진시킬 수 있다.According to an embodiment of the present disclosure, the user interface may include a text editing screen for receiving a request for correction of one or more speech recognition results included in a conversation log from a user terminal. In addition, when the processor 110 receives a request to modify a specific speech recognition result among one or more speech recognition results included in the conversation log from the user terminal 10, the speech recognition model is The speech recognition model can be corrected to output. In this case, the speech recognition model may output a speech recognition result corresponding to each of one or more speech data sub-data by using a speech to text (STT) algorithm. That is, the processor 110 may improve the performance of the STT algorithm by reflecting the feedback corresponding to the request to modify the speech recognition result received from the user terminal 10 to the STT algorithm.

본 개시의 일 실시예에 따르면, 메모리(120)는 프로세서(110)에서 실행가능한 프로그램 코드, 하나 이상의 사용자 단말 각각에 대한 식별 정보, 음성 데이터를 입력으로 하여 음성 인식 결과를 출력하는 음성 인식 모델에 관한 정보 및 자연어 처리에 관한 알고리즘 등에 관련된 정보들을 저장할 수 있다. 예를 들어, 사용자 인터페이스를 통해 사용자 단말로부터 수신하는 하나 이상의 음성 인식 결과를 수정하기 위한 수정 요청에 대한 정보들을 저장할 수 있다.According to an embodiment of the present disclosure, the memory 120 is configured to input a program code executable by the processor 110, identification information for each of one or more user terminals, and voice data to a speech recognition model that outputs a speech recognition result. It is possible to store information related to information about the natural language processing algorithm and the like. For example, information on a modification request for modifying one or more speech recognition results received from a user terminal through a user interface may be stored.

본 개시의 일 실시예에 따르면, 메모리(120)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 컴퓨팅 장치(100)는 인터넷(internet) 상에서 상기 메모리의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다. 전술한 메모리에 대한 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.According to an embodiment of the present disclosure, the memory 120 is a flash memory type, a hard disk type, a multimedia card micro type, and a card type memory (for example, For example, SD or XD memory), RAM (Random Access Memory, RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read) -Only Memory), a magnetic memory, a magnetic disk, and an optical disk. The computing device 100 may operate in connection with a web storage that performs a storage function of the memory on the Internet. The description of the above-described memory is only an example, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따르면, 네트워크부(130)는 하나 이상의 사용자 단말(10)과 정보를 전송할 수 있고, 그리고 수신할 수 있다. 보다 구체적으로, 네트워크부(130)는 네트워크 접속을 위한 유/무선 인터넷 모듈을 포함할 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. 유선 인터넷 기술로는 XDSL(Digital Subscriber Line), FTTH(Fibers to the home), PLC(Power Line Communication) 등이 이용될 수 있다.According to an embodiment of the present disclosure, the network unit 130 may transmit and receive information with one or more user terminals 10. More specifically, the network unit 130 may include a wired/wireless Internet module for network access. As a wireless Internet technology, WLAN (Wireless LAN) (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), and the like may be used. As a wired Internet technology, XDSL (Digital Subscriber Line), FTTH (Fibers to the Home), PLC (Power Line Communication), etc. may be used.

또한, 네트워크부(130)는 근거리 통신 모듈을 포함하여, 사용자 단말과 비교적 근거리에 위치하고 근거리 통신 모듈을 포함한 전자 장치와 데이터를 송수신할 수 있다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.In addition, the network unit 130 may include a short range communication module and may be located relatively close to the user terminal and transmit and receive data to and from an electronic device including a short range communication module. As short range communication technology, Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), ZigBee, and the like may be used.

도 3은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 순서도를 도시한다.3 is a flowchart for providing a chat log service according to an embodiment of the present disclosure.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신할 수 있다(210). 이 경우, 컴퓨팅 장치(100)가 수신하는 음성 데이터는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 것으로, 하나 이상이 존재할 수 있다.According to an embodiment of the present disclosure, the computing device 100 may receive one or more voice data from each of one or more user terminals, the voice data including one or more utterances for each user (210). . In this case, the voice data received by the computing device 100 is received from each of the one or more user terminals 10, and one or more may exist.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성할 수 있다(220). According to an embodiment of the present disclosure, the computing device 100 may generate a conversation log by converting each of one or more voice data into one or more voice recognition results through a voice recognition model (220).

컴퓨팅 장치(100)는 하나 이상의 음성 데이터 각각에 대하여 하나 이상의 발화 구간을 식별할 수 있다. 컴퓨팅 장치(100)는 음성 데이터에 포함된 하나 이상의 발화를 식별할 수 있다. 구체적으로, 컴퓨팅 장치(100)는 음성 데이터에 존재하는 하나 이상의 묵음 구간을 기준으로 사용자의 발화 구간을 식별할 수 있다. 또한, 컴퓨팅 장치(100)는 음성 데이터를 발화 구간에 기초하여 하나 이상의 음성 데이터 서브 데이터로 분할할 수 있다.The computing device 100 may identify one or more speech sections for each of the one or more voice data. The computing device 100 may identify one or more speeches included in the voice data. Specifically, the computing device 100 may identify the user's speech section based on one or more silent sections present in the voice data. In addition, the computing device 100 may divide the voice data into one or more voice data sub-data based on the speech section.

또한, 컴퓨팅 장치(100)는 음성 데이터에 포함된 하나 이상의 발화 구간 각각에서 하나 이상의 사용자 각각의 음성 식별할 수 있다. 또한, 컴퓨팅 장치(100)는 상기 식별된 하나 이상의 사용자 각각의 음성 중 음성의 크기가 사전 결정된 크기 이상을 가지는 발화를 음성 데이터에 대응하는 특정 화자로 결정할 수 있다. 또한, 컴퓨팅 장치(100)는 음성 데이터에 대응하는 특정 화자를 사용자 단말의 식별 정보와 매칭하여 저장할 수 있다.In addition, the computing device 100 may identify each voice of one or more users in each of one or more speech sections included in the voice data. In addition, the computing device 100 may determine, as a specific speaker corresponding to the speech data, a speech having a volume equal to or greater than a predetermined size among the identified voices of each of the one or more users. In addition, the computing device 100 may match and store a specific speaker corresponding to the voice data with identification information of the user terminal.

또한, 컴퓨팅 장치(100)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각에 통일된 시점을 부여할 수 있다.In addition, the computing device 100 may assign a unified viewpoint to each of the one or more voice data received from each of the one or more user terminals 10.

또한, 컴퓨팅 장치(100)는 하나 이상의 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별할 수 있다. 구체적으로, 컴퓨팅 장치(100)는 음성 데이터를 상기 음성 데이터에 포함된 발화 구간에 기초하여 분할한 하나 이상의 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별할 수 있다.In addition, the computing device 100 may identify a start point and an end point of each of one or more voice data sub-data. Specifically, the computing device 100 may identify a start time point and an end time point of each of the one or more voice data sub-data divided by the voice data based on the speech section included in the voice data.

또한, 컴퓨팅 장치(100)는 하나 이상의 음성 데이터 서브 데이터 각각을 음성 인식 모델의 입력으로 하여 하나 이상의 음성 데이터 서브 데이터 각각에 대응하는 하나 이상의 음성 인식 서브 결과를 출력할 수 있다. 이 경우, 음성 인식 모델은 사용자가 말하는 음성 언어를 문자 데이터로의 전환을 수행하는 모델로, 학습 데이터를 통해 사전 학습된 하나 이상의 네트워크 함수를 포함할 수 있다. 또한, 컴퓨팅 장치(100)는 하나 이상의 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 상기 대화록 상에서 하나 이상의 음성 인식 서브 결과 각각의 순서를 결정할 수 있다.In addition, the computing device 100 may output one or more voice recognition sub-results corresponding to each of the one or more voice data sub-data by using each of the one or more voice data sub-data as an input of the voice recognition model. In this case, the speech recognition model is a model for converting a speech language spoken by a user into text data, and may include one or more network functions pre-trained through the training data. In addition, the computing device 100 may determine the order of each of the one or more voice recognition sub-results in the conversation log based on the start time and the end time identified in each voice data sub-data that are the basis of one or more voice recognition sub-results. have.

또한, 컴퓨팅 장치(100)는 하나 이상의 음성 인식 서브 결과 각각의 순서에 기초하여 대화록을 생성할 수 있다. Also, the computing device 100 may generate a conversation log based on the order of each of one or more voice recognition sub-results.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 대화록을 포함하는 사용자 인터페이스를 생성하여 하나 이상의 사용자 단말로 제공할 수 있다(230).According to an embodiment of the present disclosure, the computing device 100 may generate a user interface including a conversation log and provide it to one or more user terminals (230).

도 8은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 수단을 도시한다.8 shows a means for providing a chat log service related to an embodiment of the present disclosure.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 대화록 서비스를 제공하기 위해서, 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신하기 위한 수단(710), 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하기 위한 수단(720) 및 상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공하기 위한 수단(730)을 포함할 수 있다.According to an embodiment of the present disclosure, in order to provide a chat log service, the computing device 100 includes one or more voice data from each of one or more user terminals, the voice data including one or more utterances for each user. Means for receiving (710), means (720) for converting each of the one or more voice data into one or more voice recognition results through a voice recognition model to generate a conversation record, and a user interface including the conversation record It may include a means 730 for providing to the above user terminal.

대안적으로, 상기 하나 이상의 음성 데이터 각각에 포함된 신호의 크기를 사전 결정된 기준 신호의 크기와의 비교에 기초하여 상기 하나 이상의 음성 데이터 각각에 포함된 신호의 크기를 표준화하기 위한 수단 및 상기 하나 이상의 음성 데이터 각각에 포함된 주파수를 분석하여 적어도 하나의 특정 주파수를 제거하기 위한 수단을 더 포함할 수 있다.Alternatively, means for normalizing the size of a signal included in each of the one or more voice data based on a comparison of the size of a signal included in each of the one or more voice data with a size of a predetermined reference signal, and the one or more It may further include a means for removing at least one specific frequency by analyzing the frequencies included in each of the voice data.

대안적으로, 상기 음성 데이터에 포함된 하나 이상의 묵음 구간에 기초하여 하나 이상의 발화 구간을 식별하기 위한 수단 및 상기 음성 데이터에 포함된 하나 이상의 발화 구간에서의 발화 음성의 크기에 기초하여 화자를 분리하기 위한 수단을 더 포함할 수 있다.Alternatively, means for identifying at least one speech section based on one or more silent sections included in the voice data, and separating a speaker based on the size of the spoken voice in at least one speech section included in the voice data It may further include means for.

대안적으로, 상기 하나 이상의 음성 데이터 각각에 포함된 하나 이상의 발화 구간 에서의 발화 크기에 기초하여 화자를 분리하기 위한 수단은, 상기 음성 데이터에 포함된 하나 이상의 발화 중 사전 결정된 크기 이상의 발화 음성의 크기를 가지는 발화를 상기 음성 데이터에 대응하는 특정 화자로 결정하기 위한 수단, 상기 음성 데이터에서 상기 결정된 특정 화자의 음성을 제외한 다른 음성을 제거하기 위한 수단 및 상기 특정 화자를 상기 음성 데이터를 전송한 사용자 단말의 식별 정보와 매칭하여 저장하기 위한 수단을 포함할 수 있다. Alternatively, the means for separating a speaker based on a speech size in one or more speech sections included in each of the one or more speech data includes a size of a speech speech having a predetermined size or more among the one or more speeches included in the speech data Means for determining a speech having a specific speaker corresponding to the voice data, means for removing voices other than the determined specific speaker's voice from the voice data, and a user terminal for transmitting the voice data to the specific speaker It may include means for matching and storing the identification information of.

대안적으로, 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하기 위한 수단은, 상기 음성 데이터를 발화 구간에 기초하여 하나 이상의 음성 데이터 서브 데이터로 분할하기 위한 수단, 상기 하나 이상의 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별하기 위한 수단, 상기 하나 이상의 음성 데이터 서브 데이터 각각을 상기 음성 인식 모델의 입력으로 하여 상기 하나 이상의 음성 데이터 서브 데이터 각각에 대응하는 하나 이상의 음성 인식 서브 결과를 출력하기 위한 수단 및 상기 하나 이상의 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 상기 하나 이상의 음성 인식 서브 결과 각각의 상기 대화록 상에서의 순서를 결정하기 위한 수단을 포함할 수 있다.Alternatively, the means for generating a conversation record by converting each of the one or more speech data into one or more speech recognition results through a speech recognition model comprises: dividing the speech data into one or more speech data sub-data based on the speech section. Means for identifying a start time and an end time of each of the one or more voice data sub-data, and corresponding to each of the one or more voice data sub-data by using each of the one or more voice data sub-data as inputs of the voice recognition model Means for outputting one or more speech recognition sub-results, and each of the one or more speech recognition sub-results based on a start time and an end time identified in each of the voice data sub-data on which the one or more voice recognition sub-results are based. It may comprise means for determining the order in the conversation log.

대안적으로, 상기 하나 이상의 음성 데이터는 각각의 사용자 단말로부터 수신된 제 1 음성 데이터 및 제 2 음성 데이터를 포함하며, 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하기 위한 수단은, 상기 제 1 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 1 음성 데이터 서브 데이터로 분할하고, 그리고 상기 제 2 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 2 음성 데이터 서브 데이터로 분할하기 위한 수단, 상기 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별하기 위한 수단, 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터를 상기 음성 인식 모델의 입력으로 하여 각각의 서브 데이터 각각에 대응하는 하나 이상의 제 1 음성 인식 서브 결과 및 하나 이상의 제 2 음성 인식 서브 결과를 출력하기 위한 수단, 상기 하나 이상의 제 1 음성 인식 서브 결과 및 상기 하나 이상의 제 2 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 상기 하나 이상의 제 1 음성 인식 서브 결과 및 상기 하나 이상의 제 2 음성 인식 서브 결과 각각의 상기 대화록 상에서의 순서를 결정하기 위한 수단 및 상기 결정된 순서 및 상기 하나 이상의 사용자 단말 각각의 식별 정보에 기초하여 대화록을 생성하기 위한 수단을 포함할 수 있다. Alternatively, the one or more voice data includes first voice data and second voice data received from each user terminal, and converts each of the one or more voice data into one or more voice recognition results through a voice recognition model. The means for generating the conversation record comprises: dividing the first voice data into one or more first voice data sub-data based on the speech section, and dividing the second voice data into one or more second voice data sub-data based on the speech section Means for dividing into data, means for identifying a start time and an end time of each of the first voice data sub data and the second voice data sub data, the first voice data sub data and the second voice data sub data Means for outputting at least one first speech recognition sub result and at least one second speech recognition sub result corresponding to each of the sub data as an input of the speech recognition model, the at least one first speech recognition sub result, and the Each of the one or more first voice recognition sub-results and the one or more second voice recognition sub-results based on the start and end times identified in each of the voice data sub-data on which the one or more second voice recognition sub-results are based. And means for determining an order on the chat log, and means for generating a chat log based on the determined order and identification information of each of the one or more user terminals.

대안적으로, 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터를 상기 음성 인식 모델의 입력으로 하여 각각의 서브 데이터에 대응하는 하나 이상의 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과를 출력하기 위한 수단은, 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 기초하여 중첩 구간을 식별하기 위한 수단, 상기 중첩 구간이 식별된 경우, 상기 중첩 구간에 대응하는 제 1 음성 인식 서브 결과 및 상기 제 2 음성 인식 서브 결과 중 적어도 하나에 대한 분할 여부를 결정하기 위한 수단 및 상기 분할이 결정된 경우, 상기 중첩 구간에 대응하는 음성 인식 서브 결과를 분할하기 위한 수단을 포함할 수 있다.Alternatively, one or more first voice recognition sub-results and second voice-recognition sub-results corresponding to each sub-data by using the first voice data sub-data and the second voice data sub-data as inputs of the voice recognition model The means for outputting is means for identifying an overlapping section based on a start time and an end time of each of the first voice data sub-data and the second voice data sub-data, when the overlapping section is identified, the overlapping A means for determining whether to divide at least one of the first voice recognition sub-result and the second voice recognition sub-result corresponding to a section, and if the division is determined, dividing the voice recognition sub-result corresponding to the overlapping section It may include means for.

대안적으로, 상기 중첩 구간이 식별된 경우, 상기 중첩 구간에 대응하는 제 1 음성 인식 서브 결과 및 상기 제 2 음성 인식 서브 결과 중 적어도 하나에 대한 분할 여부를 결정하기 위한 수단은, 상기 중첩 구간에 대응하는 음성 인식 결과에 대하여 통계적 언어 모델을 통해 상기 음성 인식 결과의 분할 여부를 결정하기 위한 수단을 포함할 수 있다.Alternatively, when the overlapping section is identified, means for determining whether to divide at least one of the first voice recognition sub-result and the second voice recognition sub-result corresponding to the overlapping section is in the overlapping section. It may include means for determining whether to divide the speech recognition result with respect to the corresponding speech recognition result through a statistical language model.

대안적으로, 상기 하나 이상의 음성 인식 결과의 의미 분석 결과, 상기 하나 이상의 음성 인식 결과에 포함된 단어 별 반복 횟수 및 사전 결정된 대화 주제 중 적어도 하나에 기초하여 상기 대화록에 대한 하나 이상의 키워드를 결정하기 위한 수단 및 상기 하나 이상의 음성 인식 결과에서 상기 하나 이상의 키워드 각각의 위치를 식별하기 위한 수단을 더 포함할 수 있다.Alternatively, for determining one or more keywords for the conversation log based on at least one of a result of semantic analysis of the one or more speech recognition results, the number of repetitions for each word included in the one or more speech recognition results, and a predetermined conversation topic. It may further comprise means and means for identifying the location of each of the one or more keywords in the one or more speech recognition results.

대안적으로, 상기 사용자 인터페이스는, 사용자의 프로필, 상기 사용자가 등록한 하나 이상의 다른 사용자 목록, 상기 사용자가 추가 사용자를 등록하기 위한 등록 요청 버튼 및 상기 하나 이상의 다른 사용자 각각에 대한 접속 여부를 표시하는 사용자 목록 표시 화면을 포함하고, 그리고 상기 사용자가 참여한 하나 이상의 대화 각각의 명칭에 대한 정보, 상기 하나 이상의 대화 중 특정 대화를 검색하기 위한 대화 검색 버튼 및 하나 이상의 다른 사용자와 대화방을 개설하기 위한 대화방 개설 버튼을 표시하는 대화 목록 표시 화면을 포함할 수 있다. Alternatively, the user interface may include a user's profile, a list of one or more other users registered by the user, a registration request button for the user to register an additional user, and a user indicating whether to access each of the one or more other users Including a list display screen, and information on the names of each of the one or more conversations the user participated in, a conversation search button for searching for a specific conversation among the one or more conversations, and a chat room opening button for opening a chat room with one or more other users It may include a conversation list display screen that displays.

대안적으로, 상기 프로세서는, 사용자 단말로부터 상기 대화방 개설 버튼에 대한 선택 입력을 수신하는 경우, 상기 하나 이상의 다른 사용자를 대화방에 포함시키기 위한 사용자 선택 입력 화면을 제공하도록 하는 제어 신호를 상기 사용자 단말로 전송할 것을 결정하기 위한 수단을 더 포함할 수 있다. Alternatively, the processor, when receiving a selection input for the chat room opening button from the user terminal, sends a control signal to the user terminal to provide a user selection input screen for including the one or more other users in the chat room. It may further comprise means for determining what to transmit.

대안적으로, 상기 프로세서는, 사용자 단말로부터 상기 사용자가 참여한 하나 이상의 대화방 목록 중 특정 대화방에 대한 선택 입력을 수신하는 경우, 상기 특정 대화방에 대응하는 대화록 및 하나 이상의 키워드를 포함하는 대화록 표시 화면을 제공하도록 하는 제어 신호를 상기 사용자 단말로 전송할 것을 결정하기 위한 수단을 더 포함할 수 있다. Alternatively, when receiving a selection input for a specific chat room from a list of one or more chat rooms in which the user participates from a user terminal, the processor provides a chat log display screen including a chat log and one or more keywords corresponding to the specific chat room. It may further comprise means for deciding to transmit to the user terminal a control signal for causing.

대안적으로, 상기 프로세서는, 상기 사용자 단말로부터 상기 하나 이상의 키워드 중 특정 키워드에 대한 선택 입력을 수신하는 경우, 해당 키워드에 대응하는 음성 인식 결과를 검색하고, 그리고 상기 검색된 음성 인식 결과의 생성에 기초한 음성 데이터의 발화 구간을 재생하기 위한 키워드 재생 화면을 제공하도록 하는 제어 신호를 상기 사용자 단말로 전송할 것을 결정하기 위한 수단을 더 포함할 수 있다. Alternatively, the processor, when receiving a selection input for a specific keyword among the one or more keywords from the user terminal, searches for a speech recognition result corresponding to the keyword, and based on the generation of the searched speech recognition result. It may further include means for determining to transmit a control signal to the user terminal to provide a keyword reproduction screen for reproducing the speech section of the voice data.

대안적으로, 상기 사용자 인터페이스는, 새로운 대화방이 개설된 경우, 상기 대화방에 포함된 하나 이상의 사용자 각각으로부터 음성 데이터를 수신하기 위한 녹음 시작 버튼 및 상기 대화방에 포함된 하나 이상의 사용자 각각으로부터 수신한 하나 이상의 음성 데이터에 기초하여 생성된 하나 이상의 음성 인식 결과를 표시하는 대화록 표시 화면을 포함할 수 있다. Alternatively, when a new chat room is opened, the user interface includes a recording start button for receiving voice data from each of one or more users included in the chat room, and one or more buttons received from each of one or more users included in the chat room. It may include a conversation log display screen that displays one or more voice recognition results generated based on voice data.

대안적으로, 상기 사용자 인터페이스는, 사용자 단말로부터 상기 대화록에 포함된 하나 이상의 음성 인식 결과에 대한 수정 요청을 입력 받는 텍스트 편집 화면을 포함하고, 그리고 상기 프로세서는, 상기 사용자 단말로부터 상기 텍스트 편집 화면을 통해 상기 대화록에 포함된 하나 이상의 음성 인식 결과에 대한 수정 요청을 수신하는 경우, 상기 음성 인식 모델이 상기 수정 요청에 대응하는 음성 인식 결과를 출력하도록 상기 음성 인식 모델을 보정하기 위한 수단을 더 포함할 수 있다. Alternatively, the user interface includes a text editing screen for receiving a request for modification of one or more speech recognition results included in the conversation log from a user terminal, and the processor displays the text editing screen from the user terminal. When receiving a request for modification of one or more voice recognition results included in the conversation log through, means for correcting the voice recognition model so that the voice recognition model outputs a voice recognition result corresponding to the modification request. I can.

도 9는 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 모듈을 도시한다.9 illustrates a module for providing a chat log service related to an embodiment of the present disclosure.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 대화록 서비스를 제공하기 위해서, 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신하기 위한 모듈(810), 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하기 위한 모듈(820) 및 상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공하기 위한 모듈(830)을 포함할 수 있다.According to an embodiment of the present disclosure, in order to provide a chat log service, the computing device 100 includes one or more voice data from each of one or more user terminals, the voice data including one or more utterances for each user. A module 810 for receiving, a module 820 for generating a conversation record by converting each of the one or more voice data into one or more voice recognition results through a voice recognition model, and a user interface including the conversation record It may include a module 830 for providing to the above user terminal.

도 10은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 로직을 도시한다.10 is a diagram illustrating logic for providing a chat log service related to an embodiment of the present disclosure.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 대화록 서비스를 제공하기 위해서, 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신하기 위한 로직(910), 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하기 위한 로직(920) 및 상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공하기 위한 로직(930)을 포함할 수 있다.According to an embodiment of the present disclosure, in order to provide a chat log service, the computing device 100 includes one or more voice data from each of one or more user terminals, the voice data including one or more utterances for each user. A logic 910 for receiving, a logic 920 for generating a conversation record by converting each of the one or more voice data into one or more voice recognition results through a voice recognition model, and a user interface including the conversation record. It may include a logic 930 for providing to the above user terminal.

도 11은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 회로를 도시한다. 11 illustrates a circuit for providing a conversation log service related to an embodiment of the present disclosure.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 대화록 서비스를 제공하기 위해서, 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신하기 위한 회로(1010), 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하기 위한 회로(1020) 및 상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공하기 위한 회로(1030)를 포함할 수 있다.According to an embodiment of the present disclosure, in order to provide a chat log service, the computing device 100 includes one or more voice data from each of one or more user terminals, the voice data including one or more utterances for each user. A circuit 1010 for receiving, a circuit 1020 for generating a conversation record by converting each of the one or more voice data into one or more voice recognition results through a voice recognition model, and a user interface including the conversation record. A circuit 1030 for providing to the above user terminal may be included.

당업자들은 추가적으로 여기서 개시된 실시예들과 관련되어 설명된 다양한 예시적 논리적 블록들, 구성들, 모듈들, 회로들, 수단들, 로직들, 및 알고리즘 단계들이 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양쪽 모두의 조합들로 구현될 수 있음을 인식해야 한다. 하드웨어 및 소프트웨어의 상호교환성을 명백하게 예시하기 위해, 다양한 예시적 컴포넌트들, 블록들, 구성들, 수단들, 로직들, 모듈들, 회로들, 및 단계들은 그들의 기능성 측면에서 일반적으로 위에서 설명되었다. 그러한 기능성이 하드웨어로 또는 소프트웨어로서 구현되는지 여부는 전반적인 시스템에 부과된 특정 어플리케이션(application) 및 설계 제한들에 달려 있다. 숙련된 기술자들은 각각의 특정 어플리케이션들을 위해 다양한 방법들로 설명된 기능성을 구현할 수 있으나, 그러한 구현의 결정들이 본 개시내용의 영역을 벗어나게 하는 것으로 해석되어서는 안된다.Those of skill in the art would further describe the various illustrative logical blocks, configurations, modules, circuits, means, logics, and algorithm steps described in connection with the embodiments disclosed herein, including electronic hardware, computer software, or a combination of both. It should be recognized that it can be implemented as To clearly illustrate the interchangeability of hardware and software, various illustrative components, blocks, configurations, means, logics, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented in hardware or as software depends on the specific application and design restrictions imposed on the overall system. Skilled artisans may implement the described functionality in varying ways for each particular application, but such implementation decisions should not be interpreted as causing a departure from the scope of the present disclosure.

도 12는 본 개시의 일 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 간략하고 일반적인 개략도를 도시한다.12 shows a simplified and general schematic diagram of an exemplary computing environment in which embodiments of the present disclosure may be implemented.

본 개시가 일반적으로 하나 이상의 컴퓨터 상에서 실행될 수 있는 컴퓨터 실행가능 명령어와 관련하여 전술되었지만, 당업자라면 본 개시가 기타 프로그램 모듈들과 결합되어 및/또는 하드웨어와 소프트웨어의 조합으로서 구현될 수 있다는 것을 잘 알 것이다.While the present disclosure has generally been described above with respect to computer-executable instructions that can be executed on one or more computers, those skilled in the art will appreciate that the present disclosure may be implemented in combination with other program modules and/or as a combination of hardware and software. will be.

일반적으로, 프로그램 모듈은 특정의 태스크를 수행하거나 특정의 추상 데이터 유형을 구현하는 루틴, 프로그램, 컴포넌트, 데이터 구조, 기타 등등을 포함한다. 또한, 당업자라면 본 개시의 방법이 단일-프로세서 또는 멀티프로세서 컴퓨터 시스템, 미니컴퓨터, 메인프레임 컴퓨터는 물론 퍼스널 컴퓨터, 핸드헬드 컴퓨팅 장치, 마이크로프로세서-기반 또는 프로그램가능 가전 제품, 기타 등등(이들 각각은 하나 이상의 연관된 장치와 연결되어 동작할 수 있음)을 비롯한 다른 컴퓨터 시스템 구성으로 실시될 수 있다는 것을 잘 알 것이다.Generally, program modules include routines, programs, components, data structures, etc. that perform particular tasks or implement particular abstract data types. Further, to those skilled in the art, the method of the present disclosure is not limited to single-processor or multiprocessor computer systems, minicomputers, mainframe computers, as well as personal computers, handheld computing devices, microprocessor-based or programmable household appliances, etc. It will be appreciated that it may be implemented with other computer system configurations, including one or more associated devices).

본 개시의 설명된 실시예들은 또한 어떤 태스크들이 통신 네트워크를 통해 연결되어 있는 원격 처리 장치들에 의해 수행되는 분산 컴퓨팅 환경에서 실시될 수 있다. 분산 컴퓨팅 환경에서, 프로그램 모듈은 로컬 및 원격 메모리 저장 장치 둘다에 위치할 수 있다.The described embodiments of the present disclosure may also be practiced in a distributed computing environment where certain tasks are performed by remote processing devices that are connected through a communication network. In a distributed computing environment, program modules may be located in both local and remote memory storage devices.

컴퓨터는 통상적으로 다양한 컴퓨터 판독가능 매체를 포함한다. 컴퓨터에 의해 액세스 가능한 매체는 그 어떤 것이든지 컴퓨터 판독가능 매체가 될 수 있고, 이러한 컴퓨터 판독가능 매체는 휘발성 및 비휘발성 매체, 일시적(transitory) 및 비일시적(non-transitory) 매체, 이동식 및 비-이동식 매체를 포함한다. 제한이 아닌 예로서, 컴퓨터 판독가능 매체는 컴퓨터 판독가능 저장 매체 및 컴퓨터 판독가능 전송 매체를 포함할 수 있다. 컴퓨터 판독가능 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보를 저장하는 임의의 방법 또는 기술로 구현되는 휘발성 및 비휘발성 매체, 일시적 및 비-일시적 매체, 이동식 및 비이동식 매체를 포함한다. 컴퓨터 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 기타 메모리 기술, CD-ROM, DVD(digital video disk) 또는 기타 광 디스크 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 장치 또는 기타 자기 저장 장치, 또는 컴퓨터에 의해 액세스될 수 있고 원하는 정보를 저장하는 데 사용될 수 있는 임의의 기타 매체를 포함하지만, 이에 한정되지 않는다.Computers typically include a variety of computer-readable media. Computer-readable media can be any computer-readable media, including volatile and non-volatile media, transitory and non-transitory media, removable and non-transitory media. Includes removable media. By way of example, and not limitation, computer-readable media may include computer-readable storage media and computer-readable transmission media. Computer-readable storage media include volatile and nonvolatile media, transitory and non-transitory media, removable and non-removable media implemented in any method or technology for storing information such as computer-readable instructions, data structures, program modules or other data. Includes the medium. Computer storage media include RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROM, digital video disk (DVD) or other optical disk storage device, magnetic cassette, magnetic tape, magnetic disk storage device, or other magnetic storage device, Or any other medium that can be accessed by a computer and used to store desired information.

컴퓨터 판독가능 전송 매체는 통상적으로 반송파(carrier wave) 또는 기타 전송 메커니즘(transport mechanism)과 같은 피변조 데이터 신호(modulated data signal)에 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터등을 구현하고 모든 정보 전달 매체를 포함한다. 피변조 데이터 신호라는 용어는 신호 내에 정보를 인코딩하도록 그 신호의 특성들 중 하나 이상을 설정 또는 변경시킨 신호를 의미한다. 제한이 아닌 예로서, 컴퓨터 판독가능 전송 매체는 유선 네트워크 또는 직접 배선 접속(direct-wired connection)과 같은 유선 매체, 그리고 음향, RF, 적외선, 기타 무선 매체와 같은 무선 매체를 포함한다. 상술된 매체들 중 임의의 것의 조합도 역시 컴퓨터 판독가능 전송 매체의 범위 안에 포함되는 것으로 한다.Computer-readable transmission media typically implement computer-readable instructions, data structures, program modules or other data on a modulated data signal such as a carrier wave or other transport mechanism. Includes all information transmission media. The term modulated data signal refers to a signal in which one or more of the characteristics of the signal is set or changed to encode information in the signal. By way of example, and not limitation, computer-readable transmission media include wired media such as a wired network or direct-wired connection, and wireless media such as acoustic, RF, infrared, and other wireless media. Combinations of any of the above-described media are also intended to be included within the scope of computer-readable transmission media.

컴퓨터(1102)를 포함하는 본 개시의 여러가지 측면들을 구현하는 예시적인 환경(1100)이 나타내어져 있으며, 컴퓨터(1102)는 처리 장치(1104), 시스템 메모리(1106) 및 시스템 버스(1108)를 포함한다. 시스템 버스(1108)는 시스템 메모리(1106)(이에 한정되지 않음)를 비롯한 시스템 컴포넌트들을 처리 장치(1104)에 연결시킨다. 처리 장치(1104)는 다양한 상용 프로세서들 중 임의의 프로세서일 수 있다. 듀얼 프로세서 및 기타 멀티프로세서 아키텍처도 역시 처리 장치(1104)로서 이용될 수 있다.An exemplary environment 1100 is shown that implements various aspects of the present disclosure, including a computer 1102, which includes a processing device 1104, a system memory 1106, and a system bus 1108. do. System bus 1108 couples system components, including but not limited to, system memory 1106 to processing device 1104. The processing unit 1104 may be any of a variety of commercially available processors. Dual processors and other multiprocessor architectures may also be used as processing unit 1104.

시스템 버스(1108)는 메모리 버스, 주변장치 버스, 및 다양한 상용 버스 아키텍처 중 임의의 것을 사용하는 로컬 버스에 추가적으로 상호 연결될 수 있는 몇가지 유형의 버스 구조 중 임의의 것일 수 있다. 시스템 메모리(1106)는 판독 전용 메모리(ROM)(2110) 및 랜덤 액세스 메모리(RAM)(2112)를 포함한다. 기본 입/출력 시스템(BIOS)은 ROM, EPROM, EEPROM 등의 비휘발성 메모리(2110)에 저장되며, 이 BIOS는 시동 중과 같은 때에 컴퓨터(1102) 내의 구성요소들 간에 정보를 전송하는 일을 돕는 기본적인 루틴을 포함한다. RAM(2112)은 또한 데이터를 캐싱하기 위한 정적 RAM 등의 고속 RAM을 포함할 수 있다.The system bus 1108 may be any of several types of bus structures that may be additionally interconnected to a memory bus, a peripheral bus, and a local bus using any of a variety of commercial bus architectures. System memory 1106 includes read-only memory (ROM) 2110 and random access memory (RAM) 2112. The basic input/output system (BIOS) is stored in nonvolatile memory 2110 such as ROM, EPROM, EEPROM, etc. This BIOS is a basic input/output system that helps transfer information between components in the computer 1102, such as during startup. Includes routines. RAM 2112 may also include high speed RAM, such as static RAM, for caching data.

컴퓨터(1102)는 또한 내장형 하드 디스크 드라이브(HDD)(2114)(예를 들어, EIDE, SATA)이 내장형 하드 디스크 드라이브(2114)는 또한 적당한 섀시(도시 생략) 내에서 외장형 용도로 구성될 수 있음), 자기 플로피 디스크 드라이브(FDD)(2116)(예를 들어, 이동식 디스켓(2118)으로부터 판독을 하거나 그에 기록을 하기 위한 것임), 및 광 디스크 드라이브(1120)(예를 들어, CD-ROM 디스크(1122)를 판독하거나 DVD 등의 기타 고용량 광 매체로부터 판독을 하거나 그에 기록을 하기 위한 것임)를 포함한다. 하드 디스크 드라이브(2114), 자기 디스크 드라이브(2116) 및 광 디스크 드라이브(1120)는 각각 하드 디스크 드라이브 인터페이스(1124), 자기 디스크 드라이브 인터페이스(1126) 및 광 드라이브 인터페이스(1128)에 의해 시스템 버스(1108)에 연결될 수 있다. 외장형 드라이브 구현을 위한 인터페이스(1124)는 USB(Universal Serial Bus) 및 IEEE 1394 인터페이스 기술 중 적어도 하나 또는 그 둘 다를 포함한다.The computer 1102 also has an internal hard disk drive (HDD) 2114 (e.g., EIDE, SATA), and the internal hard disk drive 2114 can also be configured for external use within a suitable chassis (not shown). ), a magnetic floppy disk drive (FDD) 2116 (for example, to read from or write to a removable diskette 2118), and an optical disk drive 1120 (e.g., a CD-ROM disk (For reading 1122) or for reading from or writing to other high-capacity optical media such as DVDs). The hard disk drive 2114, the magnetic disk drive 2116 and the optical disk drive 1120 are each connected to the system bus 1108 by the hard disk drive interface 1124, the magnetic disk drive interface 1126 and the optical drive interface 1128. ) Can be connected. The interface 1124 for implementing an external drive includes at least one or both of USB (Universal Serial Bus) and IEEE 1394 interface technologies.

이들 드라이브 및 그와 연관된 컴퓨터 판독가능 매체는 데이터, 데이터 구조, 컴퓨터 실행가능 명령어, 기타 등등의 비휘발성 저장을 제공한다. 컴퓨터(1102)의 경우, 드라이브 및 매체는 임의의 데이터를 적당한 디지털 형식으로 저장하는 것에 대응한다. 상기에서의 컴퓨터 판독가능 매체에 대한 설명이 HDD, 이동식 자기 디스크, 및 CD 또는 DVD 등의 이동식 광 매체를 언급하고 있지만, 당업자라면 집 드라이브(zip drive), 자기 카세트, 플래쉬 메모리 카드, 카트리지, 기타 등등의 컴퓨터에 의해 판독가능한 다른 유형의 매체도 역시 예시적인 운영 환경에서 사용될 수 있으며 또 임의의 이러한 매체가 본 개시의 방법들을 수행하기 위한 컴퓨터 실행가능 명령어를 포함할 수 있다는 것을 잘 알 것이다.These drives and their associated computer readable media provide non-volatile storage of data, data structures, computer executable instructions, and the like. In the case of computer 1102, drives and media correspond to storing any data in a suitable digital format. Although the description of the computer-readable medium above refers to a removable optical medium such as a HDD, a removable magnetic disk, and a CD or DVD, those skilled in the art may use a zip drive, a magnetic cassette, a flash memory card, a cartridge, etc. It will be appreciated that other types of computer-readable media, such as the like, may also be used in the exemplary operating environment, and that any such media may contain computer-executable instructions for performing the methods of the present disclosure.

운영 체제(2130), 하나 이상의 애플리케이션 프로그램(2132), 기타 프로그램 모듈(2134) 및 프로그램 데이터(2136)를 비롯한 다수의 프로그램 모듈이 드라이브 및 RAM(2112)에 저장될 수 있다. 운영 체제, 애플리케이션, 모듈 및/또는 데이터의 전부 또는 그 일부분이 또한 RAM(2112)에 캐싱될 수 있다. 본 개시가 여러가지 상업적으로 이용 가능한 운영 체제 또는 운영 체제들의 조합에서 구현될 수 있다는 것을 잘 알 것이다.A number of program modules, including an operating system 2130, one or more application programs 2132, other program modules 2134, and program data 2136, may be stored in the drive and RAM 2112. All or part of the operating system, applications, modules, and/or data may also be cached in RAM 2112. It will be appreciated that the present disclosure may be implemented in a number of commercially available operating systems or combinations of operating systems.

사용자는 하나 이상의 유선/무선 입력 장치, 예를 들어, 키보드(2138) 및 마우스(1140) 등의 포인팅 장치를 통해 컴퓨터(1102)에 명령 및 정보를 입력할 수 있다. 기타 입력 장치(도시 생략)로는 마이크, IR 리모콘, 조이스틱, 게임 패드, 스타일러스 펜, 터치 스크린, 기타 등등이 있을 수 있다. 이들 및 기타 입력 장치가 종종 시스템 버스(1108)에 연결되어 있는 입력 장치 인터페이스(1142)를 통해 처리 장치(1104)에 연결되지만, 병렬 포트, IEEE 1394 직렬 포트, 게임 포트, USB 포트, IR 인터페이스, 기타 등등의 기타 인터페이스에 의해 연결될 수 있다.A user may input commands and information into the computer 1102 through one or more wired/wireless input devices, for example, a pointing device such as a keyboard 2138 and a mouse 1140. Other input devices (not shown) may include a microphone, IR remote control, joystick, game pad, stylus pen, touch screen, and the like. Although these and other input devices are often connected to the processing unit 1104 through an input device interface 1142 that is connected to the system bus 1108, a parallel port, IEEE 1394 serial port, game port, USB port, IR interface, Can be connected by other interfaces such as etc.

모니터(1144) 또는 다른 유형의 디스플레이 장치도 역시 비디오 어댑터(1146) 등의 인터페이스를 통해 시스템 버스(1108)에 연결된다. 모니터(1144)에 부가하여, 컴퓨터는 일반적으로 스피커, 프린터, 기타 등등의 기타 주변 출력 장치(도시 생략)를 포함한다.A monitor 1144 or other type of display device is also connected to the system bus 1108 through an interface such as a video adapter 1146. In addition to the monitor 1144, the computer generally includes other peripheral output devices (not shown) such as speakers, printers, etc.

컴퓨터(1102)는 유선 및/또는 무선 통신을 통한 원격 컴퓨터(들)(1148) 등의 하나 이상의 원격 컴퓨터로의 논리적 연결을 사용하여 네트워크화된 환경에서 동작할 수 있다. 원격 컴퓨터(들)(1148)는 워크스테이션, 컴퓨팅 디바이스 컴퓨터, 라우터, 퍼스널 컴퓨터, 휴대용 컴퓨터, 마이크로프로세서-기반 오락 기기, 피어 장치 또는 기타 통상의 네트워크 노드일 수 있으며, 일반적으로 컴퓨터(1102)에 대해 기술된 구성요소들 중 다수 또는 그 전부를 포함하지만, 간략함을 위해, 메모리 저장 장치(1150)만이 도시되어 있다. 도시되어 있는 논리적 연결은 근거리 통신망(LAN)(1152) 및/또는 더 큰 네트워크, 예를 들어, 원거리 통신망(WAN)(1154)에의 유선/무선 연결을 포함한다. 이러한 LAN 및 WAN 네트워킹 환경은 사무실 및 회사에서 일반적인 것이며, 인트라넷 등의 전사적 컴퓨터 네트워크(enterprise-wide computer network)를 용이하게 해주며, 이들 모두는 전세계 컴퓨터 네트워크, 예를 들어, 인터넷에 연결될 수 있다.Computer 1102 may operate in a networked environment using logical connections to one or more remote computers, such as remote computer(s) 1148 via wired and/or wireless communication. The remote computer(s) 1148 may be a workstation, a computing device computer, a router, a personal computer, a portable computer, a microprocessor-based entertainment device, a peer device, or other common network node, and is generally connected to the computer 1102. Although it includes many or all of the components described for simplicity, only memory storage device 1150 is shown. The logical connections shown include wired/wireless connections to a local area network (LAN) 1152 and/or to a larger network, eg, a wide area network (WAN) 1154. Such LAN and WAN networking environments are common in offices and companies, and facilitate an enterprise-wide computer network such as an intranet, all of which can be connected to a worldwide computer network, for example the Internet.

LAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 유선 및/또는 무선 통신 네트워크 인터페이스 또는 어댑터(1156)를 통해 로컬 네트워크(1152)에 연결된다. 어댑터(1156)는 LAN(1152)에의 유선 또는 무선 통신을 용이하게 해줄 수 있으며, 이 LAN(1152)은 또한 무선 어댑터(1156)와 통신하기 위해 그에 설치되어 있는 무선 액세스 포인트를 포함하고 있다. WAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 모뎀(1158)을 포함할 수 있거나, WAN(1154) 상의 통신 컴퓨팅 디바이스에 연결되거나, 또는 인터넷을 통하는 등, WAN(1154)을 통해 통신을 설정하는 기타 수단을 갖는다. 내장형 또는 외장형 및 유선 또는 무선 장치일 수 있는 모뎀(1158)은 직렬 포트 인터페이스(1142)를 통해 시스템 버스(1108)에 연결된다. 네트워크화된 환경에서, 컴퓨터(1102)에 대해 설명된 프로그램 모듈들 또는 그의 일부분이 원격 메모리/저장 장치(1150)에 저장될 수 있다. 도시된 네트워크 연결이 예시적인 것이며 컴퓨터들 사이에 통신 링크를 설정하는 기타 수단이 사용될 수 있다는 것을 잘 알 것이다.When used in a LAN networking environment, the computer 1102 is connected to the local network 1152 via a wired and/or wireless communication network interface or adapter 1156. Adapter 1156 may facilitate wired or wireless communication to LAN 1152, which also includes a wireless access point installed therein to communicate with wireless adapter 1156. When used in a WAN networking environment, the computer 1102 may include a modem 1158, connected to a communications computing device on the WAN 1154, or through the Internet, to establish communications over the WAN 1154. Have other means. The modem 1158, which may be an internal or external and a wired or wireless device, is connected to the system bus 1108 through a serial port interface 1142. In a networked environment, program modules described for the computer 1102 or portions thereof may be stored in the remote memory/storage device 1150. It will be appreciated that the network connections shown are exemplary and other means of establishing communication links between computers may be used.

컴퓨터(1102)는 무선 통신으로 배치되어 동작하는 임의의 무선 장치 또는 개체, 예를 들어, 프린터, 스캐너, 데스크톱 및/또는 휴대용 컴퓨터, PDA(portable data assistant), 통신 위성, 무선 검출가능 태그와 연관된 임의의 장비 또는 장소, 및 전화와 통신을 하는 동작을 한다. 이것은 적어도 Wi-Fi 및 블루투스 무선 기술을 포함한다. 따라서, 통신은 종래의 네트워크에서와 같이 미리 정의된 구조이거나 단순하게 적어도 2개의 장치 사이의 애드혹 통신(ad hoc communication)일 수 있다.Computer 1102 is associated with any wireless device or entity deployed and operated in wireless communication, e.g., a printer, scanner, desktop and/or portable computer, portable data assistant (PDA), communication satellite, wireless detectable tag. It operates to communicate with any equipment or place and phone. This includes at least Wi-Fi and Bluetooth wireless technologies. Thus, the communication may be a predefined structure as in a conventional network or may simply be ad hoc communication between at least two devices.

Wi-Fi(Wireless Fidelity)는 유선 없이도 인터넷 등으로의 연결을 가능하게 해준다. Wi-Fi는 이러한 장치, 예를 들어, 컴퓨터가 실내에서 및 실외에서, 즉 기지국의 통화권 내의 아무 곳에서나 데이터를 전송 및 수신할 수 있게 해주는 셀 전화와 같은 무선 기술이다. Wi-Fi 네트워크는 안전하고 신뢰성 있으며 고속인 무선 연결을 제공하기 위해 IEEE 802.11(a,b,g, 기타)이라고 하는 무선 기술을 사용한다. 컴퓨터를 서로에, 인터넷에 및 유선 네트워크(IEEE 802.3 또는 이더넷을 사용함)에 연결시키기 위해 Wi-Fi가 사용될 수 있다. Wi-Fi 네트워크는 비인가 2.4 및 5 GHz 무선 대역에서, 예를 들어, 11Mbps(802.11a) 또는 54 Mbps(802.11b) 데이터 레이트로 동작하거나, 양 대역(듀얼 대역)을 포함하는 제품에서 동작할 수 있다.Wi-Fi (Wireless Fidelity) allows you to connect to the Internet, etc. without wires. Wi-Fi is a wireless technology such as a cell phone that allows such devices, for example computers, to transmit and receive data indoors and outdoors, ie anywhere within the coverage area of a base station. Wi-Fi networks use a wireless technology called IEEE 802.11 (a,b,g, etc.) to provide a secure, reliable and high-speed wireless connection. Wi-Fi can be used to connect computers to each other, to the Internet, and to a wired network (using IEEE 802.3 or Ethernet). Wi-Fi networks can operate in unlicensed 2.4 and 5 GHz radio bands, for example at 11 Mbps (802.11a) or 54 Mbps (802.11b) data rates, or in products that include both bands (dual band). have.

본 개시의 기술 분야에서 통상의 지식을 가진 자는 정보 및 신호들이 임의의 다양한 상이한 기술들 및 기법들을 이용하여 표현될 수 있다는 것을 이해할 것이다. 예를 들어, 위의 설명에서 참조될 수 있는 데이터, 지시들, 명령들, 정보, 신호들, 비트들, 심볼들 및 칩들은 전압들, 전류들, 전자기파들, 자기장들 또는 입자들, 광학장들 또는 입자들, 또는 이들의 임의의 결합에 의해 표현될 수 있다.Those of ordinary skill in the art of the present disclosure will understand that information and signals may be represented using any of a variety of different technologies and techniques. For example, data, instructions, commands, information, signals, bits, symbols and chips that may be referenced in the above description are voltages, currents, electromagnetic waves, magnetic fields or particles, optical fields. Or particles, or any combination thereof.

본 개시의 기술 분야에서 통상의 지식을 가진 자는 여기에 개시된 실시예들과 관련하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 프로세서들, 수단들, 회로들 및 알고리즘 단계들이 전자 하드웨어, (편의를 위해, 여기에서 "소프트웨어"로 지칭되는) 다양한 형태들의 프로그램 또는 설계 코드 또는 이들 모두의 결합에 의해 구현될 수 있다는 것을 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 호환성을 명확하게 설명하기 위해, 다양한 예시적인 컴포넌트들, 블록들, 모듈들, 회로들 및 단계들이 이들의 기능과 관련하여 위에서 일반적으로 설명되었다. 이러한 기능이 하드웨어 또는 소프트웨어로서 구현되는지 여부는 특정한 애플리케이션 및 전체 시스템에 대하여 부과되는 설계 제약들에 따라 좌우된다. 본 개시의 기술 분야에서 통상의 지식을 가진 자는 각각의 특정한 애플리케이션에 대하여 다양한 방식들로 설명된 기능을 구현할 수 있으나, 이러한 구현 결정들은 본 개시의 범위를 벗어나는 것으로 해석되어서는 안 될 것이다.A person of ordinary skill in the art of the present disclosure includes various exemplary logical blocks, modules, processors, means, circuits and algorithm steps described in connection with the embodiments disclosed herein, electronic hardware, (convenience). For the sake of clarity, it will be appreciated that it may be implemented by various forms of program or design code or a combination of both (referred to herein as "software"). To clearly illustrate this interchangeability of hardware and software, various illustrative components, blocks, modules, circuits and steps have been described above generally in terms of their functionality. Whether such functionality is implemented as hardware or software depends on the particular application and design constraints imposed on the overall system. A person of ordinary skill in the art of the present disclosure may implement the described functions in various ways for each particular application, but such implementation decisions should not be interpreted as causing a departure from the scope of the present disclosure.

여기서 제시된 다양한 실시예들은 방법, 장치, 또는 표준 프로그래밍 및/또는 엔지니어링 기술을 사용한 제조 물품(article)으로 구현될 수 있다. 용어 "제조 물품"은 임의의 컴퓨터-판독가능 장치로부터 액세스 가능한 컴퓨터 프로그램, 캐리어, 또는 매체(media)를 포함한다. 예를 들어, 컴퓨터-판독가능 매체는 자기 저장 장치(예를 들면, 하드 디스크, 플로피 디스크, 자기 스트립, 등), 광학 디스크(예를 들면, CD, DVD, 등), 스마트 카드, 및 플래쉬 메모리 장치(예를 들면, EEPROM, 카드, 스틱, 키 드라이브, 등)를 포함하지만, 이들로 제한되는 것은 아니다. 또한, 여기서 제시되는 다양한 저장 매체는 정보를 저장하기 위한 하나 이상의 장치 및/또는 다른 기계-판독가능한 매체를 포함한다. The various embodiments presented herein may be implemented as a method, apparatus, or article of manufacture using standard programming and/or engineering techniques. The term “article of manufacture” includes a computer program, carrier, or media accessible from any computer-readable device. For example, computer-readable media include magnetic storage devices (e.g., hard disks, floppy disks, magnetic strips, etc.), optical disks (e.g., CD, DVD, etc.), smart cards, and flash memory. Devices (eg, EEPROM, card, stick, key drive, etc.), but is not limited to these. In addition, the various storage media presented herein include one or more devices and/or other machine-readable media for storing information.

제시된 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조는 예시적인 접근들의 일례임을 이해하도록 한다. 설계 우선순위들에 기반하여, 본 개시의 범위 내에서 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조가 재배열될 수 있다는 것을 이해하도록 한다. 첨부된 방법 청구항들은 샘플 순서로 다양한 단계들의 엘리먼트들을 제공하지만 제시된 특정한 순서 또는 계층 구조에 한정되는 것을 의미하지는 않는다.It is to be understood that the specific order or hierarchy of steps in the presented processes is an example of exemplary approaches. Based on the design priorities, it is to be understood that within the scope of the present disclosure a specific order or hierarchy of steps in processes may be rearranged. The appended method claims provide elements of the various steps in a sample order, but are not meant to be limited to the specific order or hierarchy presented.

제시된 실시예들에 대한 설명은 임의의 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 개시는 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.The description of the presented embodiments is provided to enable any person skilled in the art to make or use the present disclosure. Various modifications to these embodiments will be apparent to those of ordinary skill in the art, and general principles defined herein may be applied to other embodiments without departing from the scope of the present disclosure. Thus, the present disclosure is not limited to the embodiments presented herein, but is to be interpreted in the widest scope consistent with the principles and novel features presented herein.

Claims (17)

하나 이상의 프로세서들에 의해 실행 가능한 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 상기 하나 이상의 프로세서로 하여금 이하의 동작들을 수행하도록 하며, 상기 동작들은:
하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신하는 동작;
상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하는 동작; 및
상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공하는 동작;
을 포함하고, 그리고
상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하는 동작은,
상기 하나 이상의 음성 데이터의 시간 정보에 기초하여 발화의 중첩 구간을 식별하고, 중첩 구간의 음성 인식 결과를 통계적 언어 모델을 이용하여 분석함으로써, 상기 음성 인식 결과를 화자 별로 분할하는 동작;
을 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
A computer program stored in a computer-readable storage medium executable by one or more processors, the computer program causing the one or more processors to perform the following operations, the operations:
Receiving one or more voice data from each of one or more user terminals, the voice data including one or more utterances for each user;
Converting each of the one or more voice data into one or more voice recognition results through a voice recognition model to generate a conversation record; And
Generating a user interface including the conversation log and providing it to the one or more user terminals;
Contains, and
The operation of converting each of the one or more voice data into one or more voice recognition results through a voice recognition model to generate a conversation record,
Dividing the speech recognition result for each speaker by identifying an overlapping section of speech based on time information of the one or more speech data and analyzing the speech recognition result of the overlapping section by using a statistical language model;
Containing,
A computer program stored on a computer-readable storage medium.
제 1 항에 있어서,
상기 하나 이상의 음성 데이터 각각에 포함된 신호의 크기를 사전 결정된 기준 신호의 크기와의 비교에 기초하여 상기 하나 이상의 음성 데이터 각각에 포함된 신호의 크기를 표준화하는 동작; 및
상기 하나 이상의 음성 데이터 각각에 포함된 주파수를 분석하여 적어도 하나의 특정 주파수를 제거하는 동작;
을 더 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
Standardizing the size of a signal included in each of the one or more voice data based on a comparison of the size of a signal included in each of the one or more voice data with a predetermined size of a reference signal; And
Removing at least one specific frequency by analyzing a frequency included in each of the one or more voice data;
Further comprising,
A computer program stored on a computer-readable storage medium.
제 1 항에 있어서,
상기 음성 데이터에 포함된 하나 이상의 묵음 구간에 기초하여 하나 이상의 발화 구간을 식별하는 동작; 및
상기 음성 데이터에 포함된 하나 이상의 발화 구간에서의 발화 음성의 크기에 기초하여 화자를 분리하는 동작;
을 더 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
Identifying one or more speech sections based on one or more silent sections included in the voice data; And
Separating a speaker based on the size of the spoken speech in one or more speech sections included in the speech data;
Further comprising,
A computer program stored on a computer-readable storage medium.
제 3 항에 있어서,
상기 하나 이상의 음성 데이터 각각에 포함된 하나 이상의 발화 구간 에서의 발화 크기에 기초하여 화자를 분리하는 동작은,
상기 음성 데이터에 포함된 하나 이상의 발화 중 사전 결정된 크기 이상의 발화 음성의 크기를 가지는 발화를 상기 음성 데이터에 대응하는 특정 화자로 결정하는 동작;
상기 음성 데이터에서 상기 결정된 특정 화자의 음성을 제외한 다른 음성을 제거하는 동작; 및
상기 특정 화자를 상기 음성 데이터를 전송한 사용자 단말의 식별 정보와 매칭하여 저장하는 동작;
을 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 3,
The operation of separating a speaker based on a speech size in one or more speech sections included in each of the one or more speech data,
Determining, as a specific speaker corresponding to the speech data, a speech having a size of an uttered speech equal to or greater than a predetermined size among at least one speech included in the speech data;
Removing voices other than the determined specific speaker's voice from the voice data; And
Matching and storing the specific speaker with identification information of a user terminal that has transmitted the voice data;
Containing,
A computer program stored on a computer-readable storage medium.
제 1 항에 있어서,
상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하는 동작은,
상기 음성 데이터를 발화 구간에 기초하여 하나 이상의 음성 데이터 서브 데이터로 분할하는 동작;
상기 하나 이상의 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별하는 동작;
상기 하나 이상의 음성 데이터 서브 데이터 각각을 상기 음성 인식 모델의 입력으로 하여 상기 하나 이상의 음성 데이터 서브 데이터 각각에 대응하는 하나 이상의 음성 인식 서브 결과를 출력하는 동작; 및
상기 하나 이상의 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 상기 하나 이상의 음성 인식 서브 결과 각각의 상기 대화록 상에서의 순서를 결정하는 동작;
을 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
The operation of converting each of the one or more voice data into one or more voice recognition results through a voice recognition model to generate a conversation record,
Dividing the voice data into one or more voice data sub-data based on a speech section;
Identifying a start time and an end time of each of the one or more voice data sub-data;
Outputting one or more voice recognition sub-results corresponding to each of the one or more voice data sub-data by using each of the one or more voice data sub-data as an input of the voice recognition model; And
Determining an order of each of the one or more voice recognition sub-results in the conversation log based on a start time and an end time point identified in each of the voice data sub-data on which the one or more voice recognition sub-results are based;
Containing,
A computer program stored on a computer-readable storage medium.
제 1 항에 있어서,
상기 하나 이상의 음성 데이터는 각각의 사용자 단말로부터 수신된 제 1 음성 데이터 및 제 2 음성 데이터를 포함하며,
상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하는 동작은,
상기 제 1 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 1 음성 데이터 서브 데이터로 분할하고, 그리고 상기 제 2 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 2 음성 데이터 서브 데이터로 분할하는 동작;
상기 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별하는 동작;
상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터를 상기 음성 인식 모델의 입력으로 하여 각각의 서브 데이터 각각에 대응하는 하나 이상의 제 1 음성 인식 서브 결과 및 하나 이상의 제 2 음성 인식 서브 결과를 출력하는 동작;
상기 하나 이상의 제 1 음성 인식 서브 결과 및 상기 하나 이상의 제 2 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 상기 하나 이상의 제 1 음성 인식 서브 결과 및 상기 하나 이상의 제 2 음성 인식 서브 결과 각각의 상기 대화록 상에서의 순서를 결정하는 동작; 및
상기 결정된 순서 및 상기 하나 이상의 사용자 단말 각각의 식별 정보에 기초하여 대화록을 생성하는 동작;
을 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
The one or more voice data includes first voice data and second voice data received from each user terminal,
The operation of converting each of the one or more voice data into one or more voice recognition results through a voice recognition model to generate a conversation record,
Dividing the first voice data into one or more first voice data sub-data based on a speech section, and dividing the second voice data into one or more second voice data sub-data based on a speech section;
Identifying a start time point and an end time point of each of the first voice data sub-data and the second voice data sub-data;
Using the first voice data sub-data and the second voice data sub-data as inputs of the voice recognition model, one or more first voice recognition sub-results and one or more second voice recognition sub-results corresponding to each of the sub-data are obtained. Outputting;
The one or more first voice recognition sub-results and the one or more first voice recognition sub-results based on a start time and an end time identified in each voice data sub-data based on the one or more first voice recognition sub-results and Determining an order of each of the one or more second voice recognition sub-results on the conversation log; And
Generating a conversation log based on the determined order and identification information of each of the one or more user terminals;
Containing,
A computer program stored on a computer-readable storage medium.
제 6 항에 있어서,
상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터를 상기 음성 인식 모델의 입력으로 하여 각각의 서브 데이터에 대응하는 하나 이상의 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과를 출력하는 동작은,
상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 기초하여 중첩 구간을 식별하는 동작;
상기 중첩 구간이 식별된 경우, 상기 중첩 구간에 대응하는 제 1 음성 인식 서브 결과 및 상기 제 2 음성 인식 서브 결과 중 적어도 하나에 대한 분할 여부를 결정하는 동작; 및
상기 분할이 결정된 경우, 상기 중첩 구간에 대응하는 음성 인식 서브 결과를 분할하는 동작;
을 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 6,
Outputting one or more first voice recognition sub-results and second voice-recognition sub-results corresponding to each sub-data by using the first voice data sub-data and the second voice data sub-data as inputs of the voice recognition model silver,
Identifying an overlapping section based on a start time point and an end time point of each of the first voice data sub-data and the second voice data sub-data;
Determining whether to divide at least one of the first voice recognition sub-result and the second voice recognition sub-result corresponding to the overlapping section when the overlapping section is identified; And
If the division is determined, dividing the speech recognition sub-result corresponding to the overlapping section;
Containing,
A computer program stored on a computer-readable storage medium.
삭제delete 제 1 항에 있어서,
상기 하나 이상의 음성 인식 결과의 의미 분석 결과, 상기 하나 이상의 음성 인식 결과에 포함된 단어 별 반복 횟수 및 사전 결정된 대화 주제 중 적어도 하나에 기초하여 상기 대화록에 대한 하나 이상의 키워드를 결정하는 동작; 및
상기 하나 이상의 음성 인식 결과에서 상기 하나 이상의 키워드 각각의 위치를 식별하는 동작;
을 더 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
Determining one or more keywords for the conversation log based on at least one of a result of semantic analysis of the one or more speech recognition results, a number of repetitions for each word included in the one or more speech recognition results, and a predetermined conversation topic; And
Identifying a location of each of the one or more keywords in the one or more speech recognition results;
Further comprising,
A computer program stored on a computer-readable storage medium.
제 1 항에 있어서,
상기 사용자 인터페이스는,
사용자의 프로필, 상기 사용자가 등록한 하나 이상의 다른 사용자 목록, 상기 사용자가 추가 사용자를 등록하기 위한 등록 요청 버튼 및 상기 하나 이상의 다른 사용자 각각에 대한 접속 여부를 표시하는 사용자 목록 표시 화면을 포함하고, 그리고
상기 사용자가 참여한 하나 이상의 대화 각각의 명칭에 대한 정보, 상기 하나 이상의 대화 중 특정 대화를 검색하기 위한 대화 검색 버튼 및 하나 이상의 다른 사용자와 대화방을 개설하기 위한 대화방 개설 버튼을 표시하는 대화 목록 표시 화면을 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
The user interface,
A user profile, a list of one or more other users registered by the user, a registration request button for registering an additional user by the user, and a user list display screen indicating whether access to each of the one or more other users, and
A conversation list display screen displaying information on the names of each of the one or more conversations the user has participated in, a conversation search button for searching for a specific conversation among the one or more conversations, and a chat room opening button for opening a chat room with one or more other users. Included,
A computer program stored on a computer-readable storage medium.
제 10 항에 있어서,
상기 프로세서는,
사용자 단말로부터 상기 대화방 개설 버튼에 대한 선택 입력을 수신하는 경우, 상기 하나 이상의 다른 사용자를 대화방에 포함시키기 위한 사용자 선택 입력 화면을 제공하도록 하는 제어 신호를 상기 사용자 단말로 전송할 것을 결정하는 동작;
을 더 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 10,
The processor,
When receiving a selection input for the chat room opening button from the user terminal, determining to transmit a control signal to the user terminal to provide a user selection input screen for including the one or more other users in the chat room;
Further comprising,
A computer program stored on a computer-readable storage medium.
제 10 항에 있어서,
상기 프로세서는,
사용자 단말로부터 상기 사용자가 참여한 하나 이상의 대화방 목록 중 특정 대화방에 대한 선택 입력을 수신하는 경우, 상기 특정 대화방에 대응하는 대화록 및 하나 이상의 키워드를 포함하는 대화록 표시 화면을 제공하도록 하는 제어 신호를 상기 사용자 단말로 전송할 것을 결정하는 동작;
을 더 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 10,
The processor,
When receiving a selection input for a specific chat room from a list of one or more chat rooms in which the user participates from a user terminal, a control signal for providing a chat log display screen including a chat log and one or more keywords corresponding to the specific chat room is transmitted to the user terminal Determining to send to;
Further comprising,
A computer program stored on a computer-readable storage medium.
제 12 항에 있어서,
상기 프로세서는,
상기 사용자 단말로부터 상기 하나 이상의 키워드 중 특정 키워드에 대한 선택 입력을 수신하는 경우, 해당 키워드에 대응하는 음성 인식 결과를 검색하고, 그리고 상기 검색된 음성 인식 결과의 생성에 기초한 음성 데이터의 발화 구간을 재생하기 위한 키워드 재생 화면을 제공하도록 하는 제어 신호를 상기 사용자 단말로 전송할 것을 결정하는 동작;
을 더 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 12,
The processor,
When receiving a selection input for a specific keyword among the one or more keywords from the user terminal, searching for a speech recognition result corresponding to the keyword, and reproducing a speech section of speech data based on the generation of the searched speech recognition result Determining to transmit a control signal for providing a keyword playback screen for the user terminal;
Further comprising,
A computer program stored on a computer-readable storage medium.
제 1 항에 있어서,
상기 사용자 인터페이스는,
새로운 대화방이 개설된 경우, 상기 대화방에 포함된 하나 이상의 사용자 각각으로부터 음성 데이터를 수신하기 위한 녹음 시작 버튼 및 상기 대화방에 포함된 하나 이상의 사용자 각각으로부터 수신한 하나 이상의 음성 데이터에 기초하여 생성된 하나 이상의 음성 인식 결과를 표시하는 대화록 표시 화면을 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
The user interface,
When a new chat room is opened, a recording start button for receiving voice data from each of the one or more users included in the chat room and one or more generated based on one or more voice data received from each of the one or more users included in the chat room Including a conversation log display screen for displaying a speech recognition result,
A computer program stored on a computer-readable storage medium.
제 1 항에 있어서,
상기 사용자 인터페이스는,
사용자 단말로부터 상기 대화록에 포함된 하나 이상의 음성 인식 결과에 대한 수정 요청을 입력 받는 텍스트 편집 화면을 포함하고, 그리고
상기 프로세서는,
상기 사용자 단말로부터 상기 텍스트 편집 화면을 통해 상기 대화록에 포함된 하나 이상의 음성 인식 결과에 대한 수정 요청을 수신하는 경우, 상기 음성 인식 모델이 상기 수정 요청에 대응하는 음성 인식 결과를 출력하도록 상기 음성 인식 모델을 보정하는 동작;
을 더 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
The user interface,
A text editing screen for receiving a request for modification of one or more speech recognition results included in the conversation log from a user terminal, and
The processor,
When receiving a request to modify one or more voice recognition results included in the conversation log from the user terminal through the text editing screen, the voice recognition model so that the voice recognition model outputs a voice recognition result corresponding to the modification request The operation of correcting;
Further comprising,
A computer program stored on a computer-readable storage medium.
대화록 서비스를 제공하기 위한 방법으로서,
하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터-상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함-를 수신하는 단계;
상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하는 단계; 및
상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공하는 단계;
를 포함하고, 그리고
상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하는 단계는,
상기 하나 이상의 음성 데이터의 시간 정보에 기초하여 발화의 중첩 구간을 식별하고, 중첩 구간의 음성 인식 결과를 통계적 언어 모델을 이용하여 분석함으로써, 상기 음성 인식 결과를 화자 별로 분할하는 단계;
를 포함하는,
대화록 서비스를 제공하기 위한 방법.
As a method for providing a conversation log service,
Receiving one or more voice data from each of one or more user terminals, wherein the voice data includes one or more utterances for each user;
Converting each of the one or more voice data into one or more voice recognition results through a voice recognition model to generate a conversation record; And
Generating a user interface including the conversation log and providing it to the one or more user terminals;
Contains, and
Converting each of the one or more voice data into one or more voice recognition results through a voice recognition model to generate a conversation log,
Dividing the speech recognition result for each speaker by identifying an overlapping section of the speech based on time information of the one or more speech data, and analyzing the speech recognition result of the overlapping section by using a statistical language model;
Containing,
Method for providing conversation log service.
대화록 서비스를 제공하기 위한 서버로서,
하나 이상의 코어를 포함하는 서버 프로세서;
상기 서버 프로세서에서 실행가능한 프로그램 코드들을 저장하는 서버 메모리; 및
하나 이상의 사용자 단말과 데이터를 송수신하는 서버 네트워크부;
를 포함하고, 그리고
상기 서버 프로세서는,
하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터-상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함-를 수신하고,
상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하고, 상기 하나 이상의 음성 데이터의 시간 정보에 기초하여 발화의 중첩 구간을 식별하고, 중첩 구간의 음성 인식 결과를 통계적 언어 모델을 이용하여 분석함으로써, 상기 음성 인식 결과를 화자 별로 분할하여 대화록을 생성하고, 그리고
상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공하는,
대화록 서비스를 제공하는 서버.
As a server to provide conversation log service,
A server processor including one or more cores;
A server memory storing program codes executable in the server processor; And
A server network unit for transmitting and receiving data to and from one or more user terminals;
Contains, and
The server processor,
Receiving one or more voice data from each of one or more user terminals, wherein the voice data includes one or more utterances for each user,
Each of the one or more speech data is converted into one or more speech recognition results through a speech recognition model, an overlapping section of speech is identified based on time information of the one or more speech data, and the speech recognition result of the overlapping section is a statistical language model By analyzing using, the speech recognition result is divided for each speaker to generate a conversation record, and
Generating a user interface including the conversation log and providing it to the one or more user terminals,
Server that provides chat log service.
KR1020190003888A 2019-01-11 2019-01-11 Coputer device for providing dialogues services KR102208954B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190003888A KR102208954B1 (en) 2019-01-11 2019-01-11 Coputer device for providing dialogues services
KR1020210009389A KR102540177B1 (en) 2019-01-11 2021-01-22 Method for providing transcript service by seperating overlapping voices between speakers

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190003888A KR102208954B1 (en) 2019-01-11 2019-01-11 Coputer device for providing dialogues services

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210009389A Division KR102540177B1 (en) 2019-01-11 2021-01-22 Method for providing transcript service by seperating overlapping voices between speakers

Publications (3)

Publication Number Publication Date
KR20200087514A KR20200087514A (en) 2020-07-21
KR102208954B1 true KR102208954B1 (en) 2021-01-28
KR102208954B9 KR102208954B9 (en) 2021-08-23

Family

ID=71832943

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190003888A KR102208954B1 (en) 2019-01-11 2019-01-11 Coputer device for providing dialogues services

Country Status (1)

Country Link
KR (1) KR102208954B1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102472921B1 (en) * 2020-08-26 2022-12-01 주식회사 카카오엔터프라이즈 User interfacing method for visually displaying acoustic signal and apparatus thereof
KR102474690B1 (en) * 2020-09-02 2022-12-06 주식회사 제윤 Apparatus for taking minutes and method thereof
KR102395697B1 (en) * 2020-10-13 2022-05-09 주식회사 한글과컴퓨터 Video conference system server which is able to take minutes of a video conference and the operating method thereof
KR102480479B1 (en) * 2020-11-30 2022-12-23 주식회사 마인즈랩 Method for audio content pre-processing for transcription
KR20220139189A (en) * 2021-04-07 2022-10-14 네이버 주식회사 Method and system for providing speech-to-text recording generated based on information after speech recording
KR102583434B1 (en) * 2021-07-28 2023-09-27 주식회사 씨앤에이아이 Method and system for evaluating quality of voice counseling
KR102540178B1 (en) * 2022-09-08 2023-06-05 (주)액션파워 Method for edit speech recognition results

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160026317A (en) * 2014-08-29 2016-03-09 삼성전자주식회사 Method and apparatus for voice recording
KR102097710B1 (en) * 2014-11-20 2020-05-27 에스케이텔레콤 주식회사 Apparatus and method for separating of dialogue

Also Published As

Publication number Publication date
KR102208954B9 (en) 2021-08-23
KR20200087514A (en) 2020-07-21

Similar Documents

Publication Publication Date Title
KR102208954B1 (en) Coputer device for providing dialogues services
US11018885B2 (en) Summarization system
US10977299B2 (en) Systems and methods for consolidating recorded content
CN106663430B (en) Keyword detection for speaker-independent keyword models using user-specified keywords
US7788095B2 (en) Method and apparatus for fast search in call-center monitoring
JP4854259B2 (en) Centralized method and system for clarifying voice commands
JP4619623B2 (en) Voice message processing system and method
US8412530B2 (en) Method and apparatus for detection of sentiment in automated transcriptions
US10489451B2 (en) Voice search system, voice search method, and computer-readable storage medium
US10956480B2 (en) System and method for generating dialogue graphs
CN110149805A (en) Double-directional speech translation system, double-directional speech interpretation method and program
JP5731998B2 (en) Dialog support device, dialog support method, and dialog support program
US7624010B1 (en) Method of and system for improving accuracy in a speech recognition system
US20210295823A1 (en) Inline responses to video or voice messages
KR102540177B1 (en) Method for providing transcript service by seperating overlapping voices between speakers
US20230163988A1 (en) Computer-implemented system and method for providing an artificial intelligence powered digital meeting assistant
US20240054990A1 (en) Computing device for providing dialogues services
KR102647512B1 (en) Method for generating meeting minutes based on multi channel voice data
US20230169272A1 (en) Communication framework for automated content generation and adaptive delivery
US11632345B1 (en) Message management for communal account
JP6244731B2 (en) Information processing apparatus and information processing program
CN113241061B (en) Method and device for processing voice recognition result, electronic equipment and storage medium
KR102621954B1 (en) Conversation method and system for operating conversation models according to the presence or absence of related knowledge
US20230402041A1 (en) Individual recognition using voice detection
CN113051902A (en) Voice data desensitization method, electronic device and computer-readable storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
G170 Re-publication after modification of scope of protection [patent]