KR20230102475A - Method for summarizing minutes for an online meeting - Google Patents

Method for summarizing minutes for an online meeting Download PDF

Info

Publication number
KR20230102475A
KR20230102475A KR1020210192646A KR20210192646A KR20230102475A KR 20230102475 A KR20230102475 A KR 20230102475A KR 1020210192646 A KR1020210192646 A KR 1020210192646A KR 20210192646 A KR20210192646 A KR 20210192646A KR 20230102475 A KR20230102475 A KR 20230102475A
Authority
KR
South Korea
Prior art keywords
meeting
face
conference
minutes
intention
Prior art date
Application number
KR1020210192646A
Other languages
Korean (ko)
Inventor
김준수
정동진
오서현
Original Assignee
(주) 엔에이치엔다이퀘스트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 엔에이치엔다이퀘스트 filed Critical (주) 엔에이치엔다이퀘스트
Priority to KR1020210192646A priority Critical patent/KR20230102475A/en
Publication of KR20230102475A publication Critical patent/KR20230102475A/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Abstract

회의 유형에 기초하여 비대면 회의의 회의록을 자동으로 요약하는 방법이 제공된다. 본 발명의 일 실시예에 따른 비대면 회의의 회의록 요약 방법은, 소정의 회의 유형의 비대면 회의에 대해서 회의 중의 음성을 TTS 변환한 회의 텍스트 내의 사용자 발화를 자연어 처리하여 사용자 의도를 기계가 이해할 수 있는 의미 구조로 변환하는 발화이해단계; 상기 발화이해단계에서 변환된 사용자 발화의 의미 구조를 기반으로 상기 회의 유형에 따라 최적의 키워드를 추출하고 대화를 관리하는 대화관리단계; 및 상기 대화관리단계에서 생성된 정보를 바탕으로 상기 회의 유형에 따른 요약 템플릿에 따라 요약문을 생성하는 요약생성단계를 구비한다.A method of automatically summarizing minutes of a non-face-to-face meeting based on the type of meeting is provided. In the method for summarizing meeting minutes of a non-face-to-face meeting according to an embodiment of the present invention, for a non-face-to-face meeting of a predetermined type, a user's intention can be understood by a machine by natural language processing of user utterances in a meeting text obtained by TTS conversion of audio during a meeting. Speech understanding step of converting into a semantic structure; a conversation management step of extracting an optimal keyword according to the conference type based on the semantic structure of the user's speech converted in the speech understanding step and managing the conversation; and a summary generating step of generating a summary according to a summary template according to the conference type based on the information generated in the conversation management step.

Description

비대면 회의의 회의록 요약 방법 {Method for summarizing minutes for an online meeting}Method for summarizing minutes for an online meeting}

본 발명은 비대면 회의의 회의록 요약 방법에 관한 것으로서, 더욱 상세하게는 회의 유형에 기초하여 비대면 회의의 회의록을 자동으로 요약하는 방법에 관한 것이다.The present invention relates to a method for summarizing minutes of a non-face-to-face meeting, and more particularly, to a method for automatically summarizing minutes of a non-face-to-face meeting based on a meeting type.

팬데믹 이후 비대면 화상회의가 급증하고 있으며, 이를 위한 다양한 화상회의 솔루션들이 등장하고 있다. 일부 솔루션들은 화상회의에서 기록된 내용을 편집하여 영상, 음성 및 텍스트가 포함된 멀티미디어 회의록을 생성할 수 있게 되었다.Since the pandemic, non-face-to-face video conferencing is rapidly increasing, and various video conferencing solutions for this are emerging. Some solutions are now capable of editing transcripts from video conferences to create multimedia meeting minutes that include video, audio and text.

종래의 화상 회의 시스템을 통한 회의록 생성 과정을 보면, 회의 시작부터 종료까지의 영상 및 음성을 각각 녹화, 녹음하여 회의록 생성에 필요한 자료를 수집하고, 수집된 데이터를 종류별로 저장한다. 저장된 데이터는 시간을 기준으로 취합되며, 사용자는 취합된 데이터에서 발언 내용, 키워드 등을 편집하여 회의록을 생성한다.Looking at the process of generating meeting minutes through a conventional video conferencing system, video and audio from the start to the end of a meeting are recorded and recorded, respectively, to collect data necessary for generating meeting minutes, and the collected data is stored by type. The stored data is collected based on time, and the user creates meeting minutes by editing remarks and keywords from the collected data.

한편, 이러한 기본적인 기능 이외에도 회의록 작성과 관련하여 다양한 기능을 추가하려는 시도가 있었다. Meanwhile, in addition to these basic functions, attempts have been made to add various functions related to meeting minutes.

등록특허 10-2061291호는, 참여자의 기준 성량 데이터와 음향신호의 성량을 분석하여 회의 참여자들을 식별해서 발언 내용을 기록하는 구성을 제안하고 있다. Registered Patent No. 10-2061291 proposes a configuration in which conference participants are identified by analyzing the volume data of the participant's standard volume and the volume of the acoustic signal, and the content of the speech is recorded.

등록특허 10-1290439호는 회의록에서 중요 문장을 추출하고 이들 문장간의 관계를 파악하여 트리 구조의 회의록 요약본을 생성한다. 구체적으로는, 회의록에서 회의 진행자의 발언 문장에 기초하여 회의 주제별로 문장을 분리하여 주제 문장의 집합을 생성하고, 생성된 주제 문장 집합에서 문장에 사용된 단어에 기초하여 주제 문장과 그 이외의 문장 사이의 유사도를 산출하고 그에 따라 상기 중요 문장을 추출한다. 이후, 추출된 중요 문장의 종속 관계에 따라 중요 문장을 트리 구조로 표현한다. 그러나, 회의 진행자가 별도로 없거나 구분하기 어려운 회의의 경우에는 적용이 어렵다. 또한, 회의 진행자가 있는 경우라 하더라도 주제에 관한 발언이 회의 진행자가 아닌 참여자에게서 나오는 경우에는 적용이 어렵다. Patent Registration No. 10-1290439 extracts important sentences from meeting minutes and identifies the relationship between these sentences to create a summary of meeting minutes in a tree structure. Specifically, a set of subject sentences is generated by separating sentences by subject of the meeting based on the speeches of the meeting moderator in the meeting minutes, and the subject sentence and other sentences are based on the words used in the sentence in the generated subject sentence set. The similarity between the sentences is calculated and the important sentences are extracted accordingly. Thereafter, the important sentences are expressed in a tree structure according to the subordinate relationship of the extracted important sentences. However, it is difficult to apply in the case of a meeting where there is no separate meeting host or it is difficult to distinguish. In addition, even in the case where there is a meeting moderator, it is difficult to apply when remarks on the subject come from participants other than the meeting moderator.

본 발명은 비대면 회의의 회의록을 자동으로 요약하는 방법을 제공하는 것을 목적으로 한다. 본 발명의 다른 목적은 회의 진행자가 없거나 구분하기 어려운 경우에도 회의록을 요약할 수 있는 방법을 제공하는 것이다. 본 발명의 다른 목적은 다양한 유형의 회의에 적용할 수 있는 비대면 회의의 회의록 요약 방법을 제공하는 것이다.An object of the present invention is to provide a method for automatically summarizing meeting minutes of a non-face-to-face meeting. Another object of the present invention is to provide a method for summarizing meeting minutes even when there is no meeting moderator or it is difficult to distinguish them. Another object of the present invention is to provide a method for summarizing meeting minutes of a non-face-to-face meeting that can be applied to various types of meetings.

본 발명의 일 실시예에 따른 비대면 회의의 회의록 요약 방법은, 소정의 회의 유형의 비대면 회의에 대해서 회의 중의 음성을 TTS 변환한 회의 텍스트 내의 사용자 발화를 자연어 처리하여 사용자 의도를 기계가 이해할 수 있는 의미 구조로 변환하는 발화이해단계; 상기 발화이해단계에서 변환된 사용자 발화의 의미 구조를 기반으로 상기 회의 유형에 따라 최적의 키워드를 추출하고 대화를 관리하는 대화관리단계; 및 상기 대화관리단계에서 생성된 정보를 바탕으로 상기 회의 유형에 따른 요약 템플릿에 따라 요약문을 생성하는 요약생성단계를 구비한다.In the method for summarizing meeting minutes of a non-face-to-face meeting according to an embodiment of the present invention, for a non-face-to-face meeting of a predetermined type, a user's intention can be understood by a machine by natural language processing of user utterances in a meeting text obtained by TTS conversion of audio during a meeting. Speech understanding step of converting into a semantic structure; a conversation management step of extracting an optimal keyword according to the conference type based on the semantic structure of the user's speech converted in the speech understanding step and managing the conversation; and a summary generating step of generating a summary according to a summary template according to the conference type based on the information generated in the conversation management step.

일 실시예에서, 본 발명의 비대면 회의의 회의록 요약 방법은 비대면 회의 서버에서 수행될 수 있다. 비대면 회의 서버는, 회의 개설자로부터 회의 유형, 회의 시작 시간, 회의 소요 시간을 포함하는 회의 정보를 입력받고 회의에 참가할 수 있는 초대 코드를 생성하는 단계; 회의가 시작되면 TTS(Text to Speech) 기능을 사용하여 회의 음성을 텍스트로 변환하는 단계; 상기 텍스트 내의 사용자 발화를 자연어 처리하여 사용자 의도를 기계가 이해할 수 있는 의미 구조로 변환하는 발화이해단계; 상기 발화이해단계에서 변환된 사용자 발화의 의미 구조를 기반으로 상기 회의 유형에 따라 최적의 키워드를 추출하고 대화를 관리하는 대화관리단계; 및 상기 대화관리단계에서 생성된 정보를 바탕으로 상기 회의 유형에 따른 요약 템플릿에 따라 요약문을 생성하는 요약생성단계를 수행하여 비대면 회의의 회의록을 요약한다.In one embodiment, the method for summarizing meeting minutes of a non-face-to-face meeting of the present invention may be performed in a non-face-to-face conference server. The non-face-to-face conference server receives conference information including the conference type, conference start time, and duration of the conference from the conference originator and generates an invitation code to participate in the conference; converting the conference voice into text using a Text to Speech (TTS) function when the conference starts; an utterance understanding step of converting the user's intention into a semantic structure that can be understood by a machine by natural language processing of the user's utterance in the text; a conversation management step of extracting an optimal keyword according to the conference type based on the semantic structure of the user's speech converted in the speech understanding step and managing the conversation; And based on the information generated in the conversation management step, a summary generating step of generating a summary according to a summary template according to the conference type is performed to summarize the meeting minutes of the non-face-to-face meeting.

발화이해단계는, 사용자 발화 문장의 형태소를 파악하는 형태소 분석 단계와, 각 형태소에 상응하는 개체명을 검색하여 사용자 발화 문장의 개체명을 식별하고 추출하는 개체명 추출 단계와, 형태소, 개체명 식별 정보를 사용하여 화행분석을 통해 행위 정보를 분석하여 사용자 발화 문장의 의도를 식별하는 화행 및 의도 분석 단계를 포함할 수 있다. The speech understanding step includes a morpheme analysis step of identifying morphemes of sentences spoken by a user, an entity name extraction step of identifying and extracting entity names of user-spoken sentences by searching entity names corresponding to each morpheme, and identifying morphemes and entity names. A dialogue act and intention analysis step of identifying an intention of a sentence spoken by a user by analyzing action information through dialogue act analysis using the information may be included.

대화관리단계는, 상기 회의 유형에 따라 정의되는 의미적 구성요소를 재조합하는 요약 개체 추출 단계와, 회의 유형에 따라 마련되어 있는 복수의 대화 시나리오를 통해 다자간의 발화의 흐름에 따른 진행 또는 처리과정을 수행하는 문맥기반 대화 구조화 단계를 포함할 수 있다. 상기 의미적 구성요소는 추출된 개체명, 화행 및 의도의 조합으로 구성될 수 있으며, 상기 개체명, 화행, 의도는 상기 회의 유형에 따라 정의된다.In the dialogue management step, a summary object extraction step of recombining semantic components defined according to the conference type and a plurality of dialogue scenarios prepared according to the conference type are performed according to the flow of multilateral speech. A context-based dialogue structuring step may be included. The semantic component may be composed of a combination of the extracted entity name, dialogue act, and intention, and the entity name, dialogue act, and intention are defined according to the conference type.

상기 요약생성단계는, 상기 회의 유형에 따라 회의록을 구성하는 요소와 단위를 조정하고, 문맥단위로 분석된 주제와 내용을 집계하고 상기 회의 유형에 대응되는 템플릿 포맷에 맞춰 출력하는 자동 요약 모델을 적용하여 수행될 수 있다. 자동 요약 모델은 발화의 문맥 단위로 주제와 내용을 집계하여 상기 템플릿 포맷에 맞춰 출력한다.The summary generation step applies an automatic summary model that adjusts the elements and units constituting the meeting minutes according to the meeting type, aggregates the topics and contents analyzed in each context, and outputs them in accordance with the template format corresponding to the meeting type. can be performed by The automatic summary model aggregates topics and contents in units of contexts of utterances and outputs them according to the template format.

상기 화행 및 의도 분석 단계에서 의도/화행 지식베이스가 사용될 수 있다. 의도/화행 지식베이스는, 의도/화행 학습데이터와, 상기 요약생성단계 이후에 미추출 또는 오추출된 자동 요약 실패 데이터를 통해 오류 보정 학습을 진행하여 구축 강화될 수 있다.In the dialogue act and intention analysis step, an intention/dialogue act knowledge base may be used. The intention/dialogue act knowledge base may be constructed and strengthened by conducting error correction learning through intention/dialogue act learning data and automatic summary failure data that has not been extracted or incorrectly extracted after the summarization step.

일 실시예에서, 상기 발화이해단계, 상기 대화관리단계, 및 상기 요약생성단계는 회의 진행 도중에 순차적으로 수행될 수 있다. 다른 실시예에서 상기 발화이해단계, 상기 대화관리단계, 및 상기 요약생성단계 중의 적어도 일부는 회의 종료 후에 수행될 수 있다. In one embodiment, the speech understanding step, the dialogue management step, and the summary generation step may be sequentially performed during the conference. In another embodiment, at least a part of the speech understanding step, the dialog management step, and the summary generating step may be performed after the conference ends.

본 발명에 따르면 회의 유형에 따라 최적의 키워드를 추출하고 대화를 관리하여 회의 유형에 따른 요약 템플릿에 따라 요약문을 생성하므로 다양한 유형의 회의에 대해서 효율적으로 회의록 요약을 생성할 수 있다. 또한 본 발명에 따르면 회의 유형에 따라 의도, 화행 및 문맥 전이 관계 등을 고려하여 키워드를 선정하고 요약문을 추출하여 보다 정확하게 회의록 요약을 생성할 수 있다.According to the present invention, since optimal keywords are extracted according to conference types, conversations are managed, and summaries are generated according to summary templates according to conference types, meeting summary summaries can be efficiently generated for various types of conferences. In addition, according to the present invention, a summary of meeting minutes can be generated more accurately by selecting keywords in consideration of intention, dialogue act, and context transition relationship according to the type of meeting and extracting summary text.

도 1은 본 발명의 비대면 회의의 회의록 요약 방법을 설명하기 위한 네트워크 다이아그램이다.
도 2는 비대면 회의의 과정에서 본 발명의 방법이 적용되는 한가지 예를 설명하는 흐름도이다.
도 3은 회의록 요약 과정을 보여주는 흐름도이다.
도 4는 발화이해단계에서의 동작을 보여주는 흐름도이다.
도 5는 대화관리단계에서의 동작을 보여주는 흐름도이다.
도 6는 비대면 회의에 접속할 때의 화면예이다.
도 7은 회의록 요약 도중의 화면예이다.
도 8은 완성된 회의록 요약의 한가지 예이다.
도 9은 시나리오의 한가지 예이다.
도 10는 심리상담 유형의 회의의 화행분석 결과의 한가지 예를 보여준다.
1 is a network diagram for explaining a method of summarizing meeting minutes of a non-face-to-face meeting of the present invention.
2 is a flowchart illustrating one example in which the method of the present invention is applied in the course of a non-face-to-face meeting.
3 is a flow chart showing a meeting minutes summary process.
4 is a flowchart showing operations in the speech understanding step.
5 is a flowchart showing operations in the dialog management step.
6 is an example of a screen when accessing a non-face-to-face conference.
7 is an example of a screen in the middle of summarizing meeting minutes.
8 is an example of a completed meeting minutes summary.
9 is an example of a scenario.
10 shows an example of a dialogue act analysis result of a psychological counseling type meeting.

이하, 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 비대면 회의의 회의록 요약 방법을 설명하기 위한 네트워크 다이아그램이다.1 is a network diagram for explaining a method of summarizing meeting minutes of a non-face-to-face meeting of the present invention.

회의참여자 중의 한 명이 비대면 회의 서버(20)에 접속하여 회의를 개설한다. 본 발명에서는 회의 개설시에 회의의 유형을 설정할 수 있다. 회의 개설자가 개설된 회의에 접속할 수 있는 링크를 회의참여자들에게 전송하면, 회의참여자들은 개인용 컴퓨터, 태블릿 PC, 스마트폰 등의 단말(30a, .., 30n)을 사용하여 해당 링크를 통해 비대면 회의 서버(20)에 접속한다. One of the conference participants connects to the non-face-to-face conference server 20 and establishes a conference. In the present invention, a conference type can be set when opening a conference. When the meeting creator sends a link to access the opened meeting to the meeting participants, the meeting participants use terminals 30a, .., 30n such as personal computers, tablet PCs, and smartphones to connect non-face-to-face through the link. Connect to the conference server (20).

회의가 시작되면 회의록 작성장치(10)는 회의를 동영상 녹화 또는 오디오 녹음 등의 방법으로 기록하고, 회의 음성을 TTS(Text to Speech) 기능을 이용하여 텍스트로 변환한다. 변환된 텍스트는 형태소 분석, 개체명 추출, 화행 및 의도 분석 등을 거치게 되며, 회의록 작성장치(10)는 설정된 회의 유형에 따라 회의록 요약을 생성한다. 회의록 요약 생성 과정은 회의 진행 도중에 순차적으로 수행될 수도 있고, 회의 종료 후에 일괄적으로 수행될 수도 있다. 한편, 도 1에는 회의록 작성장치(10)가 비대면 회의 서버(20)와는 별도의 장치로 도시되어 있지만, 비대면 회의 서버(20) 내에서 동작하는 프로그램으로서 구현하는 것도 가능하다.When a meeting starts, the meeting record maker 10 records the meeting by video recording or audio recording, and converts the meeting voice into text using a Text to Speech (TTS) function. The converted text undergoes morpheme analysis, object name extraction, dialogue act and intention analysis, etc., and the meeting minutes writing device 10 generates a meeting minutes summary according to the set meeting type. The process of generating a summary of meeting minutes may be performed sequentially during the meeting or may be performed collectively after the meeting ends. On the other hand, although the meeting minutes preparation device 10 is shown as a separate device from the non-face-to-face conference server 20 in FIG. 1, it is also possible to implement it as a program that operates within the non-face-to-face conference server 20.

도 2는 비대면 회의의 과정에서 본 발명의 방법이 적용되는 한가지 예를 설명하는 흐름도이다.2 is a flowchart illustrating one example in which the method of the present invention is applied in the course of a non-face-to-face meeting.

회의개설자는 비대면 회의 서버(20)에 접속하여 회의를 개설한다. 이때의 화면예가 도 6에 도시되어 있다. 본 발명에서는 회의 개설시에 회의의 유형을 설정할 수 있다. 회의개설자는 도 6의 (a) 화면에서 회의 유형 선택 버튼(61)을 선택하여 회의 유형을 설정한다(단계 S10). 회의 유형 선택 버튼(61)을 누르면 도 6의 (b)와 같이 선택 가능한 회의 유형 리스트(63)가 표시된다. 이 화면에서 회의 개설자가 하나의 유형을 선택하면 이 회의에 대해서는 선택된 유형에 따라 회의록 요약이 작성된다. The conference establishment establishes a conference by accessing the non-face-to-face conference server 20 . An example of the screen at this time is shown in FIG. 6 . In the present invention, a conference type can be set when opening a conference. The conference organizer sets the conference type by selecting the conference type selection button 61 on the screen (a) of FIG. 6 (step S10). When the conference type selection button 61 is pressed, a selectable conference type list 63 is displayed as shown in FIG. 6(b). On this screen, if the meeting organizer selects one type, a meeting minutes summary is created for this meeting according to the selected type.

회의개설자는 회의명을 회의명 입력란(62)에 입력한다. 한편, 도 6에는 도시되어 있지 않지만, 회의 개설시에 회의명 이외에도 회의 시작 시간, 회의 소요 시간 등의 정보도 함께 입력한다(단계 S20). 회의개설자는 회의정보를 입력한 후에 초대 코드 복사 버튼(64)을 눌러서 초대 코드를 복사하여 회의참여자들에게 전달한다. 회의 시작 시간 부근에 회의개설자가 회의 시작 버튼(65)을 누르면 회의가 시작된다(단계 S30). The meeting organizer inputs the meeting name into the meeting name input field 62 . Meanwhile, although not shown in FIG. 6 , information such as the start time of the meeting and the duration of the meeting is also input in addition to the meeting name when establishing the meeting (step S20). After inputting conference information, the conference organizer presses the invitation code copy button 64 to copy the invitation code and deliver it to conference participants. When the meeting initiator presses the meeting start button 65 near the meeting start time, the meeting starts (step S30).

회의가 시작되면 비대면 회의 서버(20)는 진행되는 회의의 영상을 녹화하거나 음성대화를 녹음하고, TTS(Text to Speech) 기능을 사용하여 음성을 텍스트로 변환한다(단계 S40). 회의 개설자 또는 회의 참여자의 선택에 의해, 변환된 텍스트를 이용하여 회의 주의 화면에 회의 대화 내용을 자막으로 표시되도록 구성하는 것도 가능하다.When the conference starts, the non-face-to-face conference server 20 records a video or voice conversation of the ongoing conference, and converts the voice into text using a Text to Speech (TTS) function (step S40). It is also possible to display the conversation contents of the conference as subtitles on the main screen of the conference using the converted text according to the selection of the conference organizer or the conference participant.

회의가 종료되면 녹화 또는 녹음 파일과 TTS 변환된 텍스트를 파일로 저장한다(단계 S50). 그리고 저장된 파일을 이용하여 회의록 요약을 생성하고 도 8과 같은 회의록 요약 내용을 회의참석자에게 제시하여 수정할 수 있도록 한다(단계 S60). 실시예에 따라서는, 회의록 요약 생성 과정이 회의 진행 도중에 순차적으로 수행될 수도 있다. 이 경우에는 도 7에 도시된 예와 같이 회의가 진행되어감에 따라 회의참여자의 발언 내용의 요지가 회의록 요약 템플릿에 추가되어 간다. 생성된 요약문을 검토할 때에 녹음 테이프 모양의 아이콘(71)을 클릭하여 녹음된 내용을 재생시킬 수 있도록 구성할 수도 있다. 또한, 도 8의 요약문에서 요약된 부분을 클릭하여 해당 부분의 녹음된 내용을 재생시킬 수 있도록 구성하는 것도 가능하다.When the meeting ends, the recorded or recorded file and the TTS-converted text are saved as files (step S50). Then, a summary of the meeting minutes is generated using the stored file, and the summary of the meeting minutes as shown in FIG. 8 is presented to the meeting attendees so that they can be modified (step S60). Depending on the embodiment, the process of generating a summary of meeting minutes may be sequentially performed during a meeting. In this case, as the meeting progresses, as shown in the example shown in FIG. 7, the gist of the meeting participant's remarks is added to the meeting minutes summary template. When reviewing the generated summary, it may be configured to reproduce the recorded contents by clicking the icon 71 in the shape of a recording tape. In addition, it is also possible to configure the recorded contents of the corresponding part to be reproduced by clicking on the summarized part in the summary of FIG. 8 .

다음으로, 도 3 내지 도 5를 참조하여 회의록 요약 생성 과정에 대해 상세히 설명한다. 도 3은 회의록 요약 과정을 보여주는 흐름도이고, 도 4는 발화이해단계에서의 동작을 보여주는 흐름도이며, 도 5는 대화관리단계에서의 동작을 보여주는 흐름도이다.Next, with reference to FIGS. 3 to 5 , a process of generating a meeting minutes summary will be described in detail. 3 is a flow chart showing the process of summarizing meeting minutes, FIG. 4 is a flow chart showing operations in the speech understanding stage, and FIG. 5 is a flowchart showing operations in the dialogue management stage.

회의록 요약 생성 과정은 발화이해단계(S100), 대화관리단계(S200), 요약생성단계(S300)의 3단계를 거치게 되며, 자연어 분석, 화행 및 의도 분석, 회의 유형에 따른 요약 개체 추출 등을 수행하여 회의록 요약문을 자동 생성한다.The process of generating a summary of meeting minutes goes through three steps: understanding speech (S100), managing dialogue (S200), and generating summary (S300), and performing natural language analysis, dialogue act and intention analysis, summary object extraction according to meeting type, etc. automatically generate a summary of meeting minutes.

발화이해단계(S100)는 회의 중의 음성을 TTS 변환한 회의 텍스트 내의 사용자 발화를 자연어 처리하여 사용자 의도를 기계가 이해할 수 있는 의미 구조로 변환하는 단계이다. 발화이해단계(S100)는 텍스트로 변환된 회의 내용을 대상으로 형태소 분석, 개체명 식별, 화행(speech act) 분석, 의도 분석 등의 자연어 처리를 수행한다.The speech understanding step (S100) is a step of converting the user's intention into a semantic structure that can be understood by a machine by natural language processing of the user's speech in the conference text obtained by TTS conversion of the voice during the conference. In the speech understanding step (S100), natural language processing such as morpheme analysis, object name identification, speech act analysis, and intention analysis is performed on the conference content converted into text.

발화이해단계(S100)는 도 4에 도시된 것처럼, 형태소 분석 단계(S110)와, 개체명 추출 단계(S120)와, 화행 및 의도 분석 단계(S130)를 포함한다.As shown in FIG. 4, the speech understanding step (S100) includes a morpheme analysis step (S110), an object name extraction step (S120), and a dialogue act and intention analysis step (S130).

형태소 분석 단계(S110)에서는 입력된 문장을 음절 단위로 분리한다. 형태소는 수많은 문법 단위들로 구성되어 있는 문장을 어휘적이든 문법적이든 의미를 전제하는 가장 작은 단위를 의미한다. 형태소 분석 단계(S110)에서는 사용자 발화 문장을 더 이상 쪼개면 어떠한 의미도 갖지 못할 때까지 분석하여 사용자 발화 문장의 형태소를 파악한다. 형태소 분석 과정에서 품사 태깅에 모호성이 존재하지 않는 경우를 사전으로 구축한 기분석 사전, 복합 명사를 모아놓은 복합 명사 사전 등과 같이 자연어 처리를 위한 NLP(Natural Language Processing) 지식베이스가 사용될 수 있다. 형태소 분석 방법으로는 예를 들면 등록특허 10-1997783, 등록특허 10-1358614 등에 기재된 방법이 사용될 수 있으며, 본 발명은 특정 형태소 분석 방법에 한정되지 않는다. In the morpheme analysis step (S110), the input sentence is separated into syllable units. A morpheme is the smallest unit that presupposes a meaning, whether lexical or grammatical, in a sentence composed of numerous grammatical units. In the morpheme analysis step (S110), the morpheme of the user-spoken sentence is identified by analyzing the user-spoken sentence until it no longer has any meaning. In the process of morpheme analysis, a natural language processing (NLP) knowledge base for natural language processing, such as a dictionary constructed as a dictionary for cases where there is no ambiguity in part-of-speech tagging and a compound noun dictionary that collects compound nouns, can be used. As the morpheme analysis method, for example, methods described in Registered Patent No. 10-1997783 and Registered Patent No. 10-1358614 may be used, and the present invention is not limited to a specific morpheme analysis method.

개체명 추출 단계(S120)에서는 개체명 사전에서 분석된 각 형태소에 상응하는 개체명을 검색하여 사용자 발화 문장의 개체명을 식별하고 추출한다. 개체명 추출에 개체명 추출 패턴을 활용할 수도 있다. 기 분석된 각 형태소에 동일한 의미를 가진 문장 형태들을 표현한 어문패턴(LSP: Lexico Syntactic Pattern)을 적용하여 사용자 발화 문장의 의미를 분석할 수 있다. 이러한 어문패턴은 상용자 발화 문장의 컨셉에 따라 개체명, 의미 자질, 어휘 및 품사 태그에 대한 정보 중 적어도 하나 이상을 포함하여 구성될 수 있다. 개체명을 식별하고 추출 방법으로는 예를 들면 한국등록특허 제0829401호, 등록특허 10-2175539 등에 기재된 방법이 사용될 수 있으며, 본 발명은 특정 개체명 추출 방법에 한정되지 않는다. In the entity name extraction step (S120), the entity name of the user's spoken sentence is identified and extracted by searching the entity name corresponding to each morpheme analyzed in the entity name dictionary. Entity name extraction patterns can also be used for entity name extraction. It is possible to analyze the meaning of a sentence spoken by a user by applying a linguistic pattern (LSP: Lexico Syntactic Pattern) expressing sentence types having the same meaning to each pre-analyzed morpheme. These grammatical patterns may include at least one or more of information about entity names, semantic features, vocabularies, and parts of speech tags according to the concept of a sentence spoken by a user. Methods described in Korean Patent Registration No. 0829401 and Korean Patent Registration No. 10-2175539 may be used as a method for identifying and extracting entity names, and the present invention is not limited to a specific entity name extraction method.

화행 및 의도 분석 단계(S130)에서는, 실시간으로 처리되는 형태소, 개체명식별 정보를 사용하여 의도 및 화행 지식베이스을 기반으로 학습된 화행분석을 통해 질문, 진술, 요청 등 말의 행위 정보를 분석한다. 이는 회의구성요소를 결정짓는 회의 요약의 중요한 단서 정보가 된다. 의도분석은 대상 정보를 나타내는 개체명과 행위를 나타내는 화행분석 결과를 기반으로 대상과 행위가 결합된 발화 의도를 명확하게 식별하게 된다. 화행 및 의도 분석 방법으로는, 예를 들면 등록특허 10-2285232, 공개특허 10-2019-0061706 등에 기재된 방법이 사용될 수 있으며, 본 발명은 특정 화행 및 의도 분석 방법에 한정되지 않는다. In the dialogue act and intention analysis step (S130), speech act information such as questions, statements, and requests is analyzed through the dialogue act analysis learned based on the intention and dialogue act knowledge base using morphemes and entity identification information processed in real time. This becomes an important clue information in the meeting summary that determines the components of the meeting. Intent analysis clearly identifies the utterance intention in which the object and action are combined based on the entity name representing the target information and the dialogue act analysis result representing the action. As a dialogue act and intention analysis method, methods described in Patent Registration 10-2285232 and Patent Publication 10-2019-0061706 may be used, and the present invention is not limited to a specific dialogue act and intention analysis method.

대화관리단계(S200)는 앞서 해석된 사용자 발화의 의미구조를 기반으로 선택된 회의 유형에 따라 최적의 키워드를 추출하고 대화를 관리하는 단계이다. 회의 유형은 예를 들면 정보 전달 유형, 문제 해결 유형, 이해 조정 유형 등과 같이 회의의 목적에 따라 구분될 수 있다. 또는, 의사결정 회의, 진도 점검 회의, 정기 회의, 상담, 종교 모임, 강의 등과 같이 보다 구체적인 회의 형식이나 목적에 따라 구분될 수도 있다. 대화관리단계(S200)에서는 현재의 사용자 발화와 그 전까지의 사용자와의 대화로부터 획득한 정보를 유지하여 활용함으로써 단순 키워드 출현 빈도에 의존하는 기존의 요약 알고리즘들의 문제점을 해소할 수 있다.The dialogue management step (S200) is a step of extracting an optimal keyword according to the selected conference type based on the previously analyzed semantic structure of the user's utterance and managing the conversation. Meeting types can be classified according to the purpose of the meeting, for example information transfer type, problem solving type, understanding coordination type, etc. Alternatively, it may be classified according to a more specific meeting format or purpose, such as decision-making meetings, progress monitoring meetings, regular meetings, consultations, religious gatherings, lectures, and the like. In the dialog management step (S200), the problems of existing summary algorithms that depend on simple keyword appearance frequency can be solved by maintaining and utilizing information obtained from the current user's utterance and conversations with the previous user.

도 5는 대화관리단계(S200)를 좀더 세분하여 보여준다. 대화관리단계(S200)는 요약 개체 추출 단계(S210)와 문맥기반 대화 구조화 단계(S220)를 포함할 수 있다.5 further subdivides the dialog management step (S200). The dialog management step (S200) may include a summary entity extraction step (S210) and a context-based dialog structure step (S220).

회의를 구성하는 다양한 의미적 구성요소는 추출된 개체명과 화행 및 의도의 조합으로 구성되며, 요약 개체 추출 단계(S210)에서는 이러한 의미적 구성요소를 재조합한다. 구성요소는 회의 유형에 따라 별도로 정의될 수 있다.Various semantic components constituting the meeting are composed of a combination of the extracted entity name, dialogue act, and intention, and in the summary entity extraction step (S210), these semantic components are recombined. Components can be defined separately according to the conference type.

예를 들어, 상담 유형의 회의인 경우에 의도는 상담하고자 하는 내용을 기준으로 다음과 같이 분류될 수 있다.For example, in the case of a consultation type meeting, the intention can be classified as follows based on the contents to be consulted.

의도 분류 (상담 분류)Intent Classification (Consultation Classification) 건강문제>본인>병력Health problem > person > medical history 건강문제>가족>병력Health problems > family > medical history 인간관계>가족>부모>불화Relationships>Family>Parents>Discord 인간관계>가족>부부>불화Human relationship>Family>Couple>Discord 인간관계>타인>친구>불화Relationships > Others > Friends > Discord 직장문제>인간관계>불화Work problems>Interpersonal relationships>Discord ......

표 2는 상담 유형의 회의에 대해서 개체명을 정의한 예이다.Table 2 is an example of defining object names for a consultation type conference.

키워드keyword 개체명entity name 유사어synonym 간병인caregiver 인물>신분person > identity 아빠dad 인물>신분>가족Person>Status>Family 아버지, 아버님father, father 엄마mom 인물>신분>가족Person>Status>Family 어머니, 어머님mother, mother 언니sister 인물>신분>가족Person>Status>Family 회사company 조직group 팀장Team Leader 인물>신분>회사Person>Status>Company ......

표 3는 상담 유형의 회의에 대해서 화행을 정의한 예이다.Table 3 is an example of defining dialogue acts for a consultation type meeting.

키워드keyword 유사어Synonym 감정유형Emotion type 걱정worry 고민worry 부정감정negative emotions 무섭다scary 두렵다afraid 부정감정negative emotions 창피Shame 부정감정negative emotions 만족하다satisfied 긍정감정positive emotions 만족도 높아Satisfaction is high 만족도 올라Satisfaction goes up 긍정감정positive emotions 바란다hope 바라다hope 긍정감정_소망positive emotion_hope ......

도 10은 상담 유형의 회의인 경우에 추출된 개체와 화행 및 의도를 조합한 예를 보여주고 있다. 도 10에서 (a)는 회의 중의 발화로부터 의도, 개체명, 화행을 추출한 결과를 보여주고 있으며, (b)는 피상담자의 발화를 트리플 형태(주어, 목적어, 술어)로 표현한 예를 보여주고 있다.10 shows an example of combining an extracted object, dialogue act, and intention in the case of a consultation type conference. In FIG. 10, (a) shows the result of extracting intention, object name, and dialogue act from utterances during a meeting, and (b) shows an example of expressing the counselee's utterance in a triple form (subject, object, predicate).

문맥기반 대화 구조화 단계(S220)는 설정된 회의 유형에 따라 마련되어 있는 복수의 대화 시나리오를 통해 다자간의 발화의 흐름에 따른 진행 또는 처리과정을 수행하는 것으로서, 이러한 과정을 통해 다수의 대화가 결합된 의미 블록을 생성하게 된다. In the context-based dialogue structuring step (S220), progress or processing is performed according to the flow of multilateral speech through a plurality of dialogue scenarios prepared according to the set conference type, and through this process, a semantic block in which a plurality of conversations are combined will create

도 9는 다음 회의 일정 수립에 관한 대화 시나리오의 한가지 예를 보여준다. 예를 들어, "다음 회의는 화요일 오후 2시로 잡을까요?"라는 발화(90)가 있다면, 이는 다음 회의 일정 제안(91)의 개시로 볼 수 있다. 따라서, 이러한 발언에 대해서는 도 9와 같은 대화 시나리오를 통해 다자간의 발화의 흐름을 처리한다. 즉, 다음 회의 일정 제안을 위한 발화(90) 이후에 긍정의 발화가 있었다면 제안된 회의일정을 수락하고(92), 부정의 발화가 있었다면 제안된 회의일정을 거부한다(93).9 shows an example of a dialog scenario regarding scheduling the next meeting. For example, if there is an utterance 90 saying, "Shall we hold the next meeting at 2:00 PM on Tuesday?" Accordingly, the flow of multilateral utterances is processed through the conversation scenario shown in FIG. 9 for these utterances. That is, if there is a positive utterance after the utterance to propose the next meeting schedule (90), the proposed meeting schedule is accepted (92), and if there is a negative utterance, the proposed meeting schedule is rejected (93).

요약생성단계(S300)에서는 앞선 단계에서 사용자의 의도에 맞춰 찾아진 정보를 바탕으로 회의 유형별 요약 템플릿에 따라 요약 개체 배열 및 화행에 따른 질의 응답 등 계량화된 틀에 맞추어 요약문을 생성한다. 요약문에는 향후 처리해야할 주제나 약속 등의 정보가 포함될 수 있다. 요약생성단계(S300)에서는 회의 유형에 따라 회의록을 구성하는 요소와 단위를 조정하고, 문맥단위로 분석된 주제와 내용을 집계하고 템플릿 포맷에 맞춰 출력하는 자동 요약 모델이 적용될 수 있다. 실시예에 따라서는, 템플릿 포맷에 맞춰 출력되는 내용은 이전 단계에서 도출한 의도, 개체명, 화행을 나타내는 키워드만이 사용될 수 있다.In the summary generation step (S300), based on the information found according to the user's intention in the previous step, a summary is generated according to a quantified frame such as summary object arrangement and question and answer according to dialogue act according to the summary template for each conference type. The summary may include information such as topics or commitments to be addressed in the future. In the summary generating step (S300), an automatic summary model may be applied that adjusts the elements and units constituting the minutes according to the type of the meeting, aggregates the topics and contents analyzed in each context, and outputs them according to the template format. Depending on the embodiment, only the keywords representing the intent, object name, and dialog act derived in the previous step may be used for content output according to the template format.

도 7은 주간회의 유형의 요약 템플릿의 한가지 예를 보여주고 있다. 도 7의 주간회의 요약 템플릿은 회의록을 구성하는 요소로 안건, 주요 발언내용, 결정사항, 미결/신규사항, 다음 회의 정보를 포함하고 있다. 다른 예로서, 요약 템플릿은 안건, 주요 발언내용, 결정사항, 문의사항, 요청사항, 의견, 진술 등의 요소를 포함할 수 있다. 또 다른 예로서, 월간보고 요약 템플릿은 월간 실적보고, 문제점 보고, 해결방안, 지시사항 등의 요소를 포함할 수 있다. 이와 같이 회의의 유형에 따라 적절한 요약 템플릿을 사용하여 회의록을 요약함으로써 보다 정확하면서도 간결한 요약문을 생성할 수 있다. 7 shows an example of a weekly meeting type summary template. The weekly meeting summary template of FIG. 7 is an element constituting meeting minutes and includes agenda, main remarks, decisions, pending/new matters, and next meeting information. As another example, the summary template may include elements such as agenda, key remarks, decisions, inquiries, requests, opinions, and statements. As another example, the monthly report summary template may include elements such as monthly performance report, problem report, solution, and instructions. In this way, a more accurate and concise summary can be created by summarizing the meeting minutes using an appropriate summary template according to the type of meeting.

자동 요약 모델은 발화의 문맥 단위로 주제와 내용을 집계하여 템플릿 포맷에 맞춰 출력한다. The automatic summary model aggregates topics and contents in units of context of utterances and outputs them according to the template format.

예를 들어 안건, 주요 발언내용, 결정사항, 문의사항, 요청사항, 의견, 진술 등의 요소를 포함하는 요약 템플릿의 경우에, "엔진 코팅이라고 하시면은 어떤 거 말씀하시는 거죠?"라는 발화는 문의하는 발화이므로 "문의사항" 요소에 대응시켜서, 문의사항 칸에 "엔진코팅"이라고 출력할 수 있다. For example, in the case of a summary template containing elements such as agenda, key remarks, decisions, inquiries, requests, opinions, statements, etc., the utterance "What do you mean when you say engine coating?" Since it is an utterance that says "inquiry", it can be output as "engine coating" in the inquiry column.

같은 요약 템플릿의 경우에 다른 예로, "로그데이터 받아서 한번 확인해 보고 다음에 문제가 있는지 확인 하도록 하겠습니다"라는 발화는 "하겠습니다"로부터 결정사항에 관한 것으로 판단하여, 결정사항 칸에 "로그데이터, 한번 확인, 문제, 확인" 등과 같이 해당 문장의 키워드를 출력할 수 있다.As another example in the case of the same summary template, the utterance "I will receive log data and check it once and check if there is a problem next time" is judged to be related to a decision from "I will", and "Check log data, once Keywords of the sentence, such as ", problem, check", etc., can be output.

다른 예로, "데이터 좀 부탁드리겠습니다"라는 발화는 "부탁드리겠습니다"로부터 요청사항에 관한 것으로 판단하여, 요청사항 칸에 "데이터"를 출력할 수 있다.As another example, the utterance "I would like some data" may be judged to be related to the request from "please", and "data" may be output in the request field.

다른 예로, "올해 내로 완료하기는 좀 어렵지 않을까 생각됩니다"라는 바라화는 "생각됩니다"라는 단어로부터 의견을 개진하는 발화로 판단하여, 의견 칸에 "올해, 완료, 좀어렵지 않을까"를 출력할 수 있다.As another example, the barahwa "I think it will be difficult to complete within this year" is judged to be an utterance expressing an opinion from the word "I think", and output "this year, it will be completed, it will be difficult" in the comment column. can

또 다른 예로, "지금 말씀하신 사업은 2021년 4월 18일부터 시작한 사업인데 이 사안도 방통위가 계속 검토 중이에요"라는 발화는, "중이에요"로부터 현재 사실을 진술할 것으로 판단하여 진술 칸에 "사업, 2021년 4월 18일부터 시작, 방통위, 검토중"과 같이 출력할 수 있다.As another example, the utterance "The business you just mentioned started on April 18, 2021, and the KCC is still reviewing this matter" is judged to state the current facts from "I'm in the middle" and entered the statement It can be output like "Business, starting from April 18, 2021, Korea Communications Commission, under review".

한편, 발화이해단계(S100)에서 분석되지 않거나 또는 오분석되는 어휘에 대해서는 자연어처리 학습 방법에 따라 NLP 지식베이스의 사전을 개선하는 과정을 거칠수 있다. 또한, NLP 지식베이스를 바탕으로 기계학습 및 규칙기반의 의도/화행 학습을 진행할 수 있다. 의도/화행 학습데이터와, 요약생성단계 이후에 미추출 또는 오추출된 자동 요약 실패 데이터를 통해 오류 보정 학습을 진행하고, 의도/화행 지식베이스를 구축 강화할 수 있다.Meanwhile, for words that are not analyzed or misanalyzed in the speech understanding step (S100), a process of improving the dictionary of the NLP knowledge base may be performed according to the natural language processing learning method. In addition, based on the NLP knowledge base, machine learning and rule-based intention/dialogue act learning can be performed. Error correction learning can be performed through intent/dialogue act learning data and automatic summary failure data that has not been extracted or mis-extracted after the summary generation step, and the intention/dialogue act knowledge base can be built and strengthened.

일 실시예에서, 자동 요약 데이터에 대한 사용자 첨삭 과정을 검증으로 판단하고 유형화 과정을 통해 오분석 또는 실패 데이터를 수집하고, 자연언어분석의 어떤 단계의 품질 문제인지를 식별하고 수정할 수 있도록 할 수 있다. 이러한 과정을 거침으로써 딥러닝 기반의 기계학습을 병행하는 의도 및 화행 분석기의 학습 데이터를 확보할 수 있다.In one embodiment, the user's correction process for the automatic summary data is determined as verification, misanalysis or failure data is collected through the typing process, and it is possible to identify and correct the quality problem at which stage of the natural language analysis. . By going through this process, it is possible to secure the learning data of the intention and dialog act analyzer that uses machine learning based on deep learning.

이상, 본 발명을 몇가지 예를 들어 설명하였으나, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터 또는 프로세서가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터 또는 프로세서에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. In the above, the present invention has been described with several examples, but even if all components constituting an embodiment of the present invention are combined or described as operating in combination, the present invention is not necessarily limited to these embodiments. Within the scope of the object of the present invention, all of the components may be selectively combined with one or more to operate. In addition, although all of the components may be implemented as a single independent piece of hardware, some or all of the components are selectively combined to perform some or all of the combined functions in one or a plurality of hardware. It may be implemented as a computer program having. Codes and code segments constituting the computer program may be easily inferred by a person skilled in the art. Such a computer program may implement an embodiment of the present invention by being stored in a computer or processor-readable storage medium, read and executed by a computer or processor.

이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재할 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. Terms such as "comprise", "comprise" or "having" described above mean that the corresponding component may be present unless otherwise stated, and therefore do not exclude other components. It should be construed that it may further include other components.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an example of the technical idea of the present invention, and various modifications and variations can be made to those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed according to the claims below, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.

10 회의록 작성장치,
20 비대면 회의 서버,
30a~30n 회의 참여자 단말.
10 Meeting minutes writing device,
20 contactless conference servers;
30a~30n Conference participant terminal.

Claims (14)

소정의 회의 유형의 비대면 회의에 대해서 회의 중의 음성을 TTS 변환한 회의 텍스트 내의 사용자 발화를 자연어 처리하여 사용자 의도를 기계가 이해할 수 있는 의미 구조로 변환하는 발화이해단계;
상기 발화이해단계에서 변환된 사용자 발화의 의미 구조를 기반으로 상기 회의 유형에 따라 최적의 키워드를 추출하고 대화를 관리하는 대화관리단계; 및
상기 대화관리단계에서 생성된 정보를 바탕으로 상기 회의 유형에 따른 요약 템플릿에 따라 요약문을 생성하는 요약생성단계;
를 구비하는 비대면 회의의 회의록 요약 방법.
For a non-face-to-face conference of a predetermined conference type, a speech understanding step of converting user intention into a semantic structure that can be understood by a machine by natural language processing of user speech in a conference text obtained by TTS conversion of voice during a conference;
a conversation management step of extracting an optimal keyword according to the conference type based on the semantic structure of the user's speech converted in the speech understanding step and managing the conversation; and
a summary generating step of generating a summary sentence according to a summary template according to the conference type based on the information generated in the conversation management step;
A method for summarizing the meeting minutes of a non-face-to-face meeting having a.
제1항에 있어서, 상기 발화이해단계는
사용자 발화 문장의 형태소를 파악하는 형태소 분석 단계와,
각 형태소에 상응하는 개체명을 검색하여 사용자 발화 문장의 개체명을 식별하고 추출하는 개체명 추출 단계와,
형태소, 개체명 식별 정보를 사용하여 화행분석을 통해 행위 정보를 분석하여 사용자 발화 문장의 의도를 식별하는 화행 및 의도 분석 단계
를 포함하는, 비대면 회의의 회의록 요약 방법.
The method of claim 1, wherein the speech understanding step
A morpheme analysis step of identifying morphemes of a sentence spoken by a user;
An entity name extraction step of searching entity names corresponding to each morpheme to identify and extract entity names of user-spoken sentences;
Dialogue act and intention analysis step of identifying the intention of the user's spoken sentence by analyzing the behavior information through dialogue act analysis using morpheme and object name identification information
Including, how to summarize the meeting minutes of the non-face-to-face meeting.
제2항에 있어서, 상기 대화관리단계는
상기 회의 유형에 따라 정의되는 의미적 구성요소를 재조합하는 요약 개체 추출 단계와,
회의 유형에 따라 마련되어 있는 복수의 대화 시나리오를 통해 다자간의 발화의 흐름에 따른 진행 또는 처리과정을 수행하는 문맥기반 대화 구조화 단계
를 포함하는, 비대면 회의의 회의록 요약 방법.
The method of claim 2, wherein the dialogue management step
A summary entity extraction step of recombining semantic components defined according to the conference type;
A context-based dialogue structuring step that proceeds or processes according to the flow of multilateral speech through a plurality of dialogue scenarios prepared according to the type of conference.
Including, how to summarize the meeting minutes of the non-face-to-face meeting.
제3항에 있어서,
상기 의미적 구성요소는 추출된 개체명, 화행 및 의도의 조합으로 구성되며,
상기 개체명, 화행, 의도는 상기 회의 유형에 따라 정의되는,
비대면 회의의 회의록 요약 방법.
According to claim 3,
The semantic component is composed of a combination of the extracted entity name, dialogue act, and intention,
The object name, dialogue act, and intention are defined according to the conference type,
How to summarize the minutes of a face-to-face meeting.
제3항에 있어서,
상기 요약생성단계는, 상기 회의 유형에 따라 회의록을 구성하는 요소와 단위를 조정하고, 문맥단위로 분석된 주제와 내용을 집계하고 상기 회의 유형에 대응되는 템플릿 포맷에 맞춰 출력하는 자동 요약 모델을 적용하여 수행되는, 비대면 회의의 회의록 요약 방법.
According to claim 3,
The summary generation step applies an automatic summary model that adjusts the elements and units constituting the meeting minutes according to the meeting type, aggregates the topics and contents analyzed in each context, and outputs them in accordance with the template format corresponding to the meeting type. A method of summarizing the minutes of a non-face-to-face meeting, which is performed by
제5항에 있어서,
상기 자동 요약 모델은 발화의 문맥 단위로 주제와 내용을 집계하여 상기 템플릿 포맷에 맞춰 출력하는, 비대면 회의의 회의록 요약 방법.
According to claim 5,
The automatic summary model summarizes meeting minutes of a non-face-to-face meeting by aggregating topics and contents in context units of utterances and outputting them according to the template format.
제2항 내지 제6항 중 어느 한 항에 있어서,
상기 화행 및 의도 분석 단계에서 의도/화행 지식베이스가 사용되며,
의도/화행 학습데이터와, 상기 요약생성단계 이후에 미추출 또는 오추출된 자동 요약 실패 데이터를 통해 오류 보정 학습을 진행하여 의도/화행 지식베이스를 구축 강화하는,
비대면 회의의 회의록 요약 방법.
According to any one of claims 2 to 6,
In the dialogue act and intention analysis step, the intention/dialogue act knowledge base is used,
Constructing and strengthening the intention / dialogue act knowledge base by conducting error correction learning through intention / dialogue act learning data and automatic summary failure data that is not extracted or misextracted after the summary generation step,
How to summarize the minutes of a face-to-face meeting.
비대면 회의 서버에서의 비대면 회의의 회의록 요약 방법에 있어서,
회의 개설자로부터 회의 유형, 회의 시작 시간, 회의 소요 시간을 포함하는 회의 정보를 입력받고 회의에 참가할 수 있는 초대 코드를 생성하는 단계;
회의가 시작되면 TTS(Text to Speech) 기능을 사용하여 회의 음성을 텍스트로 변환하는 단계;
상기 텍스트 내의 사용자 발화를 자연어 처리하여 사용자 의도를 기계가 이해할 수 있는 의미 구조로 변환하는 발화이해단계;
상기 발화이해단계에서 변환된 사용자 발화의 의미 구조를 기반으로 상기 회의 유형에 따라 최적의 키워드를 추출하고 대화를 관리하는 대화관리단계; 및
상기 대화관리단계에서 생성된 정보를 바탕으로 상기 회의 유형에 따른 요약 템플릿에 따라 요약문을 생성하는 요약생성단계;
를 구비하는 비대면 회의의 회의록 요약 방법.
In the method of summarizing minutes of a non-face-to-face meeting in a non-face-to-face conference server,
receiving conference information including a conference type, a start time, and a duration of the conference from a conference organizer and generating an invitation code to participate in the conference;
converting the conference voice into text using a Text to Speech (TTS) function when the conference starts;
an utterance understanding step of converting the user's intention into a semantic structure that can be understood by a machine by natural language processing of the user's utterance in the text;
a conversation management step of extracting an optimal keyword according to the conference type based on the semantic structure of the user's speech converted in the speech understanding step and managing the conversation; and
a summary generating step of generating a summary sentence according to a summary template according to the conference type based on the information generated in the conversation management step;
A method for summarizing the minutes of a non-face-to-face meeting having a.
제8항에 있어서, 상기 발화이해단계는
사용자 발화 문장의 형태소를 파악하는 형태소 분석 단계와,
각 형태소에 상응하는 개체명을 검색하여 사용자 발화 문장의 개체명을 식별하고 추출하는 개체명 추출 단계와,
형태소, 개체명 식별 정보를 사용하여 화행분석을 통해 행위 정보를 분석하여 사용자 발화 문장의 의도를 식별하는 화행 및 의도 분석 단계
를 포함하는, 비대면 회의의 회의록 요약 방법.
The method of claim 8, wherein the speech understanding step
A morpheme analysis step of identifying morphemes of a sentence spoken by a user;
An entity name extraction step of searching entity names corresponding to each morpheme to identify and extract entity names of user-spoken sentences;
Dialogue act and intention analysis step of identifying the intention of the user's spoken sentence by analyzing the behavior information through dialogue act analysis using morpheme and object name identification information
Including, how to summarize the meeting minutes of the non-face-to-face meeting.
제9항에 있어서, 상기 대화관리단계는
상기 회의 유형에 따라 정의되는 의미적 구성요소를 재조합하는 요약 개체 추출 단계와,
회의 유형에 따라 마련되어 있는 복수의 대화 시나리오를 통해 다자간의 발화의 흐름에 따른 진행 또는 처리과정을 수행하는 문맥기반 대화 구조화 단계
를 포함하는, 비대면 회의의 회의록 요약 방법.
10. The method of claim 9, wherein the dialogue management step
A summary entity extraction step of recombining semantic components defined according to the conference type;
A context-based dialogue structuring step that proceeds or processes according to the flow of multilateral speech through a plurality of dialogue scenarios prepared according to the type of conference.
Including, how to summarize the meeting minutes of the non-face-to-face meeting.
제10항에 있어서,
상기 의미적 구성요소는 추출된 개체명, 화행 및 의도의 조합으로 구성되며,
상기 개체명, 화행, 의도는 상기 회의 유형에 따라 정의되는,
비대면 회의의 회의록 요약 방법.
According to claim 10,
The semantic component is composed of a combination of the extracted entity name, dialogue act, and intention,
The object name, dialogue act, and intention are defined according to the conference type,
How to summarize the minutes of a face-to-face meeting.
제10항에 있어서,
상기 요약생성단계는, 상기 회의 유형에 따라 회의록을 구성하는 요소와 단위를 조정하고, 문맥단위로 분석된 주제와 내용을 집계하고 상기 회의 유형에 대응되는 템플릿 포맷에 맞춰 출력하는 자동 요약 모델을 적용하여 수행되는, 비대면 회의의 회의록 요약 방법.
According to claim 10,
The summary generation step applies an automatic summary model that adjusts the elements and units constituting the meeting minutes according to the meeting type, aggregates the topics and contents analyzed in each context, and outputs them in accordance with the template format corresponding to the meeting type. A method of summarizing the minutes of a non-face-to-face meeting, which is performed by
제10항 내지 제12항 중 어느 한 항에 있어서,
상기 화행 및 의도 분석 단계에서 의도/화행 지식베이스가 사용되며,
의도/화행 학습데이터와, 상기 요약생성단계 이후에 미추출 또는 오추출된 자동 요약 실패 데이터를 통해 오류 보정 학습을 진행하여 의도/화행 지식베이스를 구축 강화하는,
비대면 회의의 회의록 요약 방법.
According to any one of claims 10 to 12,
In the dialogue act and intention analysis step, the intention/dialogue act knowledge base is used,
Constructing and strengthening the intention / dialogue act knowledge base by conducting error correction learning through intention / dialogue act learning data and automatic summary failure data that is not extracted or misextracted after the summary generation step,
How to summarize the minutes of a face-to-face meeting.
제9항 내지 제12항 중 어느 한 항에 있어서,
상기 발화이해단계, 상기 대화관리단계, 및 상기 요약생성단계는 회의 진행 도중에 순차적으로 수행되는,
비대면 회의의 회의록 요약 방법.
According to any one of claims 9 to 12,
The speech understanding step, the dialogue management step, and the summary generation step are sequentially performed during the conference.
How to summarize the minutes of a face-to-face meeting.
KR1020210192646A 2021-12-30 2021-12-30 Method for summarizing minutes for an online meeting KR20230102475A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210192646A KR20230102475A (en) 2021-12-30 2021-12-30 Method for summarizing minutes for an online meeting

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210192646A KR20230102475A (en) 2021-12-30 2021-12-30 Method for summarizing minutes for an online meeting

Publications (1)

Publication Number Publication Date
KR20230102475A true KR20230102475A (en) 2023-07-07

Family

ID=87154297

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210192646A KR20230102475A (en) 2021-12-30 2021-12-30 Method for summarizing minutes for an online meeting

Country Status (1)

Country Link
KR (1) KR20230102475A (en)

Similar Documents

Publication Publication Date Title
US8407049B2 (en) Systems and methods for conversation enhancement
RU2391791C2 (en) Machine training
US11823074B2 (en) Intelligent communication manager and summarizer
US20120321062A1 (en) Telephonic Conference Access System
KR102445519B1 (en) System and method for manufacturing conversational intelligence service providing chatbot
US20200137224A1 (en) Comprehensive log derivation using a cognitive system
JPH08106298A (en) Device and method for conversation processing
US20240087573A1 (en) Automatic extraction of conversation highlights
JP2019003319A (en) Interactive business support system and interactive business support program
Reece et al. The CANDOR corpus: Insights from a large multimodal dataset of naturalistic conversation
EP4187463A1 (en) An artificial intelligence powered digital meeting assistant
JP2008011272A (en) Conference system and control method, program, and storage medium
KR20230102475A (en) Method for summarizing minutes for an online meeting
CN114328867A (en) Intelligent interruption method and device in man-machine conversation
CN114360678A (en) Information processing method, device, equipment and storage medium
James et al. V-ROOM: a virtual meeting system with intelligent structured summarisation
CN113010866A (en) Intelligent interaction method and system based on personal database
JP2007265131A (en) Dialog information extraction device, dialog information extraction method, and program
US20230230589A1 (en) Extracting engaging questions from a communication session
US20230230588A1 (en) Extracting filler words and phrases from a communication session
Ranganathan et al. A Study Of Dialog Summarization Across Datasets And Domains
CN113111658B (en) Method, device, equipment and storage medium for checking information
TWI722715B (en) Modularized system of an intelligent voice assistance and operating method thereof
JP7231171B1 (en) Processing operation support device and program
KR20230153868A (en) Representative keyword extraction method for online conference summary