KR20220122100A - Conference assistance system according to the type of multiple languages - Google Patents

Conference assistance system according to the type of multiple languages Download PDF

Info

Publication number
KR20220122100A
KR20220122100A KR1020210026293A KR20210026293A KR20220122100A KR 20220122100 A KR20220122100 A KR 20220122100A KR 1020210026293 A KR1020210026293 A KR 1020210026293A KR 20210026293 A KR20210026293 A KR 20210026293A KR 20220122100 A KR20220122100 A KR 20220122100A
Authority
KR
South Korea
Prior art keywords
unit
text
speakers
meeting
assistance system
Prior art date
Application number
KR1020210026293A
Other languages
Korean (ko)
Inventor
박서현
이용재
Original Assignee
박서현
이용재
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박서현, 이용재 filed Critical 박서현
Priority to KR1020210026293A priority Critical patent/KR20220122100A/en
Publication of KR20220122100A publication Critical patent/KR20220122100A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/109Time management, e.g. calendars, reminders, meetings or time accounting
    • G06Q10/1093Calendar-based scheduling for persons or groups
    • G06Q10/1095Meeting or appointment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/109Time management, e.g. calendars, reminders, meetings or time accounting
    • G06Q10/1091Recording time for administrative or management purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • G10L17/14Use of phonemic categorisation or speech recognition prior to speaker recognition or verification

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Tourism & Hospitality (AREA)
  • Data Mining & Analysis (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Educational Administration (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Game Theory and Decision Science (AREA)
  • Telephonic Communication Services (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

The present invention relates to a conference assistance system according to the type of multilanguage and, more specifically, to a conference assistance system capable of storing conference schedules from multiple speakers and storing and classifying minutes as an automatically created text. In accordance with one embodiment of the present invention, the conference assistance system includes: a voice signal input unit into which voice signals generated from a plurality of speakers are inputted; a text conversion unit converting the voice signals inputted from the voice signal input unit, into a text; a word extraction unit extracting a specific word from the conversation text converted through the text conversion unit; a storage unit inputting and storing scheduling information from the specific word extracted by the word extraction unit; and an output unit outputting the scheduling information stored in the storage unit.

Description

다중언어의 종류에 따른 회의보조 시스템{Conference assistance system according to the type of multiple languages}Conference assistance system according to the type of multiple languages

본 발명은 다중언어의 종류에 따른 회의보조 시스템에 관한 것으로, 보다 상세하게는 다수의 화자로부터 회의스케줄을 저장하고 회의록이 자동 생성되는 생성하는 텍스트로 저장하고 이를 구분하는 회의보조 시스템에 관한 것이다.The present invention relates to a conference assistance system according to the types of multiple languages, and more particularly, to a conference assistance system for storing meeting schedules from a plurality of speakers and automatically generating meeting minutes as generated text and distinguishing them.

본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.Unless otherwise indicated herein, the material described in this section is not prior art to the claims of this application, and inclusion in this section is not an admission that it is prior art.

많은 기업들이 상호 협업을 진행하기 위하여 선행되는 필수요소는 바로 회의 스케줄을 잡는 것이다. 단순히 국내 기업들끼리의 회의 스케줄뿐만 아니라 다국적 기업과의 회의 스케줄을 잡고 조정하는 것은 현재 하나의 업무로 자리잡았으며, 스케줄링을 위해서는 기업의 대표자 또는 스케줄링 업무 담당자가 타기업과 직접 통화하여 상호 적절한 스케줄을 조정하고 이를 회의 참석자에게 전달하여 스케줄링이 이루어져 왔다.A prerequisite for many companies to promote mutual collaboration is to schedule a meeting. Not only meeting schedules between domestic companies, but also meeting schedules with multinational companies has become one of the current tasks. Scheduling has been made by adjusting the schedule and delivering it to the meeting attendees.

그러나 최근 자동화 시스템의 발전과 함께 회의 스케줄을 잡거나 조정하고 이를 자동으로 스케줄러에 저장해줄 수 있는 자동화 시스템에 대한 수요도 증가하고 있다.However, with the recent development of the automation system, the demand for an automation system that can schedule or adjust a meeting schedule and automatically store it in the scheduler is also increasing.

이에 대한 일 실시예로, 대한민국 공개특허 제10-2019-0004526호에서는 "회의 스케줄링 방법, 전자장치 및 시스템"을 개시하고 있는데, 보다 상세하게는 "제1 단말로부터 수신된 회의 예약정보와 관련된 과거 회의내역에서 참여자 리스트를 추출하여 제1 단말로 전송하는 단계, 제1 단말로부터 수신된 참여자 리스트에 포함된 적어도 하나의 참여자에 대한 선택신호에 따라 적어도 하나의 참여자에 대한 일정을 기반으로 생성된 일정 리스트를 제1 단말로 전송하는 단계, 제1 단말로부터 수신된 일정 리스트에 포함된 적어도 하나의 일정에 대한 선택신호에 따라 적어도 하나의 참여자에 대응하는 적어도 하나의 제2 단말로 적어도 하나의 일정에 대한 투표를 요청하는 단계 및 적어도 하나의 제2 단말로부터 수신된 투표 결과에 따라 회의 스케줄링을 수행하는 단계를 포함한다" 라고 개시되어 있다.As an example of this, Korean Patent Laid-Open No. 10-2019-0004526 discloses "Meeting Scheduling Method, Electronic Device and System", and in more detail, "Past related to conference reservation information received from the first terminal" extracting a participant list from the meeting history and transmitting it to the first terminal; a schedule generated based on the schedule for at least one participant according to a selection signal for at least one participant included in the participant list received from the first terminal Transmitting the list to the first terminal, at least one schedule to at least one second terminal corresponding to the at least one participant according to a selection signal for at least one schedule included in the schedule list received from the first terminal It includes the steps of requesting a vote for the second terminal and performing meeting scheduling according to the voting result received from the at least one second terminal."

1. 한국 특허공개 제10-2019-0004526호호(2019.01.14 공개)1. Korean Patent Publication No. 10-2019-0004526 (published on Jan. 14, 2019)

본 발명에서는 다수의 화자로부터 회의일정을 자동으로 생성해주고 회의록을 자동 작성해줄 수 있는 회의보조 시스템을 제공하고자 한다.An object of the present invention is to provide a meeting assistance system capable of automatically generating a meeting schedule from a plurality of speakers and automatically creating meeting minutes.

또한, 상술한 바와 같은 기술적 과제들로 한정되지 않으며, 이하의 설명으로부터 또 다른 기술적 과제가 도출될 수도 있음은 자명하다.In addition, it is not limited to the technical problems as described above, and it is obvious that another technical problem may be derived from the following description.

본 발명의 일 실시예에 따른 회의보조 시스템은, 복수의 화자로부터 발생되는 음성신호가 입력되는 음성신호입력부와, 상기 음성신호입력부로부터 입력된 음성신호를 텍스트로 변환하는 텍스트변환부와, 상기 텍스트변환부를 통해 변환된 대화 텍스트로부터 특정단어를 추출하는 단어추출부와, 상기 단어추출부로부터 추출된 특정단어로부터 스케줄링 정보를 입력하고 저장하는 저장부 및 상기 저장부에 저장된 스케줄링 정보를 출력하는 출력부를 포함한다.A conference assistance system according to an embodiment of the present invention includes a voice signal input unit to which voice signals generated from a plurality of speakers are input, a text converter for converting the voice signals input from the voice signal input unit into text, and the text A word extraction unit for extracting a specific word from the conversation text converted through the conversion unit, a storage unit for inputting and storing scheduling information from the specific word extracted from the word extraction unit, and an output unit for outputting the scheduling information stored in the storage unit include

본 발명의 바람직한 특징에 따르면, 상기 단어추출부가 추출하는 특정단어는, 날짜, 시간, 장소, 주제, 인원, 미팅방식 중에 선택된 어느 하나 이상의 단어로 이루어지는 것을 특징으로 한다.According to a preferred feature of the present invention, the specific word extracted by the word extraction unit is characterized in that it consists of any one or more words selected from among date, time, place, subject, number of people, and meeting method.

본 발명의 바람직한 특징에 따르면, 상기 출력부에서 출력하는 스케줄링 정보는, 사용자의 휴대단말기에 설치된 스케줄러에 자동 저장되고, 상기 스케줄러에는 장소와 주제, 인원, 미팅방식에 대한 상세정보가 함께 제공되는 것을 특징으로 한다.According to a preferred feature of the present invention, the scheduling information output from the output unit is automatically stored in a scheduler installed in the user's mobile terminal, and the scheduler is provided with detailed information on place, subject, number of people, and meeting method. characterized.

본 발명의 바람직한 특징에 따르면, 미팅이 이루어진 후, 복수의 화자로부터 발생되는 음성신호를 상기 텍스트변환부를 통해 텍스트로 변환하여 회의록을 생성하는 회의록생성부를 포함하는 것을 특징으로 한다.According to a preferred feature of the present invention, after the meeting is made, it is characterized in that it comprises a meeting minutes generator for generating the minutes by converting the voice signals generated from the plurality of speakers into text through the text conversion unit.

본 발명의 바람직한 특징에 따르면, 상기 회의록생성부로부터 생성된 회의록은 스케줄러에 자동 저장되는 것을 특징으로 한다.According to a preferred feature of the present invention, the minutes generated by the minutes generator are automatically stored in the scheduler.

본 발명의 바람직한 특징에 따르면, 상기 회의록생성부는, 상기 음성신호입력부로부터 입력된 복수의 화자의 음성 주파수를 각각 추출하고, 주파수 대역을 분석하여 복수의 화자를 구분하는 화자구분부와, 상기 화자구분부로부터 구분된 화자들간의 대화를 STT를 활용하여 텍스트로 변환하는 STT변환부 및 상기 STT변환부를 통해 구분된 화자들간의 대화 텍스트를 시계열적으로 나열하는 회의내용나열부를 포함하는 것을 특징으로 한다.According to a preferred feature of the present invention, the meeting minutes generating unit includes a speaker classification unit that extracts voice frequencies of a plurality of speakers input from the voice signal input unit, respectively, and analyzes frequency bands to classify the plurality of speakers; It is characterized in that it comprises an STT conversion unit that converts the dialogue between the speakers separated from the part into text by using STT and a meeting contents listing unit that lists the dialogue texts between the speakers separated through the STT conversion unit in time series.

본 발명의 바람직한 특징에 따르면, 상기 회의내용나열부를 통해 출력된 대화 텍스트는 회의 종료 후 음성대화에 포함되어 저장되되, 복수의 화자가 구분되어 제공되는 상기 대화 텍스트를 시계열적으로 나열하여 출력부를 통해 사용자들의 휴대단말기로 제공되는 것을 특징으로 한다.According to a preferred feature of the present invention, the dialogue text output through the conference content listing unit is stored after being included in the voice dialogue after the conference is over, and the dialogue text provided by a plurality of speakers is arranged in time series through the output unit. It is characterized in that it is provided to users' mobile terminals.

본 발명의 바람직한 특징에 따르면, 상기 화자구분부는, 상기 음성신호입력부를 통해 복수의 화자로부터 다중언어가 입력되는 경우 언어의 종류에 따라 화자들을 선분류하고, 분류된 화자들간의 음성 주파수를 추출 및 주파수 대역을 분석하여 화자를 후분류하는 것을 특징으로 한다.According to a preferred feature of the present invention, the speaker classification unit pre-classifies speakers according to the type of language when multiple languages are input from a plurality of speakers through the voice signal input unit, and extracts and It is characterized in that the speaker is post-classified by analyzing the frequency band.

본 발명의 바람직한 특징에 따르면, 상기 분류된 화자들간의 대화 텍스트로부터 기 설정된 언어가 아닌 언어로 인식되는 경우, 해당 언어를 기 설정된 언어로 번역하여 대화 텍스트와 함께 제공해주는 것을 특징으로 한다.According to a preferred feature of the present invention, when a language other than a preset language is recognized from the conversation text between the classified speakers, the language is translated into a preset language and provided together with the dialog text.

본 발명의 바람직한 특징에 따르면, 상기 STT변환부를 통해 변환된 화자들간의 대화 텍스트중에서 반복 사용된 단어를 추출하고, 상기 추출된 단어를 카테고리화하여 저장하는 것을 특징으로 한다.According to a preferred feature of the present invention, it is characterized in that repeatedly used words are extracted from the dialogue text between the speakers converted through the STT conversion unit, and the extracted words are categorized and stored.

본 발명의 바람직한 특징에 따르면, 상기 대화 텍스트를 머신러닝시켜 반복 사용되는 단어를 추출하고, 상기 추출된 단어를 카테고리화하여 저장하는 것을 특징으로 한다.According to a preferred feature of the present invention, it is characterized in that a word repeatedly used is extracted by machine learning the dialogue text, and the extracted word is categorized and stored.

본 발명의 실시예에 의하면, 회의 스케줄을 자동으로 생성해주고 회의 종료시 회의록이 자동으로 작성되어 스케줄러에 저장되도록 함으로써 회의스케줄과 내용을 보다 쉽게 관리할 수 있다는 장점이 있다.According to the embodiment of the present invention, there is an advantage in that the meeting schedule and contents can be more easily managed by automatically generating the meeting schedule and automatically creating and storing the meeting minutes at the end of the meeting in the scheduler.

또한, 본 발명의 실시예에 의하면, 다수의 화자로부터 발생되는 대화를 화자별로 구분하여 텍스트로 저장되어 실시간으로 화자들의 휴대단말기 등을 통해 구분된 대화내용을 제공해줌으로써, 원하는 단어나 문장을 쉽게 찾아볼 수 있다는 장점이 있다.In addition, according to an embodiment of the present invention, conversations generated from a plurality of speakers are divided by speaker and stored as text, and the divided conversation contents are provided in real time through the speakers' mobile terminals, etc., so that a desired word or sentence can be easily found It has the advantage of being able to see.

본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.The effects of the present invention are not limited to the above effects, and it should be understood to include all effects that can be inferred from the configuration of the invention described in the detailed description or claims of the present invention.

도 1은 본 발명의 일 실시예에 따른 회의보조 시스템의 개념도.
도 2는 본 발명의 일 실시예에 따른 회의보조 시스템의 블럭도.
도 3 및 도 4는 본 발명의 일 실시예에 따른 회의보조 시스템의 상세블럭도.
1 is a conceptual diagram of a conference assistance system according to an embodiment of the present invention.
Figure 2 is a block diagram of a conference assistance system according to an embodiment of the present invention.
3 and 4 are detailed block diagrams of a conference assistance system according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 바람직한 실시예에 따른 회의보조 시스템의 구성, 동작 및 작용효과에 대하여 살펴본다. 참고로, 이하 도면에서, 각 구성요소는 편의 및 명확성을 위하여 생략되거나 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 반영하는 것은 아니다. 또한, 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭하며 개별 도면에서 동일 구성에 대한 도면 부호는 생략하기로 한다.Hereinafter, with reference to the accompanying drawings, the configuration, operation and effect of the conference assistance system according to a preferred embodiment will be described. For reference, in the following drawings, each component is omitted or schematically illustrated for convenience and clarity, and the size of each component does not reflect the actual size. In addition, the same reference numerals refer to the same components throughout the specification, and reference numerals for the same components in individual drawings will be omitted.

본 발명의 일 실시예에 따른 회의보조 시스템(100)은, 복수의 화자로부터 발생되는 음성신호가 입력되는 음성신호입력부(110)와, 상기 음성신호입력부(110)로부터 입력된 음성신호를 텍스트로 변환하는 텍스트변환부(120)와, 상기 텍스트변환부(120)를 통해 변환된 대화 텍스트로부터 특정단어를 추출하는 단어추출부(130)와, 상기 단어추출부(130)로부터 추출된 특정단어로부터 스케줄링 정보를 입력하고 저장하는 저장부(140) 및 상기 저장부(140)에 저장된 스케줄링 정보를 출력하는 출력부(150)를 포함한다.The conference assistance system 100 according to an embodiment of the present invention includes a voice signal input unit 110 to which voice signals generated from a plurality of speakers are input, and a voice signal input from the voice signal input unit 110 to text. A text conversion unit 120 for converting, a word extraction unit 130 for extracting a specific word from the conversation text converted through the text conversion unit 120, and a specific word extracted from the word extraction unit 130 and a storage unit 140 for inputting and storing scheduling information, and an output unit 150 for outputting scheduling information stored in the storage unit 140 .

우선, 복수의 화자로부터 발생되는 음성신호가 입력되는 음성신호입력부(110)를 포함할 수 있다. 상기 음성신호입력부(110)는 사용자의 휴대단말기를 통해 복수의 화자가 서로 대화를 진행하는 경우 대화로부터 발생되는 음성신호가 음성신호입력부(110)를 통해 입력된다. 여기서, 상기 음성신호입력부(110)는 다양한 주파수를 포함하는 음성신호 입력이 가능하도록 이루어지며, 음성신호가 입력되면 음성 신호를 데이터 값으로 변환하게 된다.First, it may include a voice signal input unit 110 to which voice signals generated from a plurality of speakers are input. In the voice signal input unit 110 , when a plurality of speakers communicate with each other through the user's portable terminal, a voice signal generated from the conversation is input through the voice signal input unit 110 . Here, the voice signal input unit 110 is configured to be able to input a voice signal including various frequencies, and when the voice signal is input, the voice signal is converted into a data value.

다음으로, 상기 음성신호입력부(110)로부터 입력받은 음성신호는 텍스트변환부(120)에 의해 텍스트로 변환된다. 상기 텍스트변환부(120)는 Speech-to-Text 방식을 통해 음성을 문자로 변환해주는 구성으로, 음성데이터의 발음이나 억양, 길이 등의 정보를 분석하여 이를 문자정보로 변환해준다.Next, the voice signal input from the voice signal input unit 110 is converted into text by the text conversion unit 120 . The text conversion unit 120 is configured to convert speech into text through a speech-to-text method, and analyzes information such as pronunciation, intonation, and length of speech data and converts it into text information.

또한, 상기 텍스트변환부(120)를 통해 변환된 대화 텍스트로부터 특정단어를 추출하는 단어추출부(130)를 포함한다. 상기 단어추출부(130)는 다수의 화자들간의 대화 및 그 대화에 대한 음성정보로부터 변환된 문자 데이터에서 기 설정된 특정단어를 추출하게 된다. 여기서, 상기 특정단어는 날짜, 시간, 장소, 주제, 인원, 미팅방식 중에 선택된 어느 하나 이상의 단어로 이루어지는 것을 특징으로 한다. 예를 들어, 두 명의 화자가 서로 대화하면서 회의 스케줄을 잡는 경우에, 날짜와 시간 및 회의장소를 언급하는 경우 텍스트변환부(120)에 의해 변환된 텍스트로부터 상기 단어를 추출하여 회의정보를 획득하게 된다. 해당 회의정보에는 날짜나 시간, 장소뿐만 아니라 회의주제와 회의에 참석하는 인원수, 미팅방식이 온라인인지 오프라인인지 등에 대한 정보까지도 함께 추출할 수 있으며, 기 설정된 특정단어가 "온라인 미팅"이라고 설정된 경우 해당 단어를 언급하여 회의 스케줄을 잡는다면 온라인 미팅방식으로 스케줄링이 이루어지게 된다.In addition, it includes a word extraction unit 130 for extracting a specific word from the conversation text converted through the text conversion unit 120. The word extraction unit 130 extracts a preset specific word from the text data converted from the dialogue between a plurality of speakers and voice information for the dialogue. Here, the specific word is characterized in that it consists of any one or more words selected from the date, time, place, subject, number, and meeting method. For example, when two speakers schedule a meeting while talking to each other, when referring to the date, time, and meeting place, the word is extracted from the text converted by the text conversion unit 120 to obtain meeting information. do. In the corresponding meeting information, not only the date, time and place, but also information on the topic of the meeting, the number of people attending the meeting, whether the meeting method is online or offline, etc. can be extracted together. If you schedule a meeting by mentioning the word, the scheduling is done in an online meeting method.

다음으로, 상기 단어추출부(130)로부터 추출된 특정단어로부터 스케줄링 정보를 입력하고 저장하는 저장부(140) 및 상기 저장부(140)에 저장된 스케줄링 정보를 출력하는 출력부(150)를 포함한다. 전술한 회의정보에 관한 특정단어를 추출한 경우, 해당 정보로부터 스케줄링 정보를 저장부(140)에 입력 및 저장하게 되는데, 상기 저장부(140)에는 회의시간이나 장소, 주제 등 회의정보에 관련된 정보가 간단하고 명확하게 표기되어 저장될 수 있으며, 이렇게 저장된 스케줄링 정보는 출력부(150)를 통해 출력하게 된다. 상기 출력부(150)는 사용자의 휴대단말기 등과 같이 디스플레이 기기를 포함한 그 어떤 장치도 가능하며, 상기 출력부(150)를 통해 출력되는 스케줄링 정보는 사용자의 휴대단말기에 설치된 달력이나 스케줄러를 통해 출력될 수 있다.Next, it includes a storage unit 140 for inputting and storing scheduling information from a specific word extracted from the word extraction unit 130 , and an output unit 150 for outputting scheduling information stored in the storage unit 140 . . When a specific word related to the above-mentioned meeting information is extracted, scheduling information is input and stored in the storage unit 140 from the information. It can be simply and clearly marked and stored, and the stored scheduling information is output through the output unit 150 . The output unit 150 may be any device including a display device, such as a user's portable terminal, and the scheduling information output through the output unit 150 may be output through a calendar or scheduler installed in the user's portable terminal. can

본 발명의 바람직한 특징에 따르면, 상기 출력부(150)에서 출력하는 스케줄링 정보는, 사용자의 휴대단말기에 설치된 스케줄러에 자동 저장되고, 상기 스케줄러에는 장소와 주제, 인원, 미팅방식에 대한 상세정보가 함께 제공되는 것을 특징으로 한다.According to a preferred feature of the present invention, the scheduling information output from the output unit 150 is automatically stored in a scheduler installed in the user's mobile terminal, and the scheduler includes detailed information about place, subject, number of people, and meeting method together. characterized in that it is provided.

상기 스케줄링 정보는 회의날짜와 시간, 장소, 주제 등 회의와 관련된 모든 정보가 포함된 정보일 수 있으며, 이러한 상세정보가 사용자의 휴대단말기에 설치된 스케줄러에 자동 저장되어 제공해줌으로써 회의 일정을 유선으로 상호 협의함과 동시에 사용자의 휴대단말기의 스케줄러를 통해 협의된 스케줄사항을 바로 확인할 수 있다는 장점이 있다.The scheduling information may be information that includes all information related to the meeting, such as meeting date, time, place, and topic, and the detailed information is automatically stored in the scheduler installed in the user's mobile terminal and provided so that the meeting schedule can be mutually negotiated over the wire. At the same time, there is an advantage that the negotiated schedule can be checked immediately through the scheduler of the user's portable terminal.

본 발명의 바람직한 특징에 따르면, 미팅이 이루어진 후, 복수의 화자로부터 발생되는 음성신호를 상기 텍스트변환부(120)를 통해 텍스트로 변환하여 회의록을 생성하는 회의록생성부(200)를 포함하는 것을 특징으로 한다.According to a preferred feature of the present invention, after the meeting is made, the voice signal generated from a plurality of speakers is converted into text through the text conversion unit 120, and a meeting minutes generating unit 200 for generating the meeting minutes is characterized. do it with

전술한 회의보조 시스템(100)을 통해 회의일정에 대한 내용을 스케줄러로 저장한 이후, 실제 회의가 이루어진 후 회의에서 다뤄진 내용 등을 회의록으로 저장할 필요가 있다. 하지만, 회의에 참석한 모든 사람들이 회의중에 나온 모든 대화내용을 기록하고 정리하는 것은 쉽지 않아, 이를 자동으로 기록해서 저장해주는 시스템에 대한 필요성이 있었다. 그에 따라, 상기 회의록생성부(200)는 회의 중에 복수의 화자로부터 발생되는 음성신호를 상기 텍스트변환부(120)를 통해 텍스트로 변환하여 회의록을 생성하게 된다. After the contents of the meeting schedule are stored in the scheduler through the above-described meeting assistance system 100 , it is necessary to store the contents discussed in the meeting as minutes after the actual meeting is made. However, it is not easy for everyone who attended the meeting to record and organize all the conversations that occurred during the meeting, so there was a need for a system that automatically records and stores them. Accordingly, the meeting minutes generating unit 200 converts the voice signals generated from a plurality of speakers during the meeting into text through the text converting unit 120 to generate the meeting minutes.

또한, 본 발명의 바람직한 특징에 따르면, 상기 회의록생성부(200)로부터 생성된 회의록은 스케줄러에 자동 저장되는 것을 특징으로 한다. 상기 회의록생성부(200)는 다수의 화자로부터 언급된 내용들을 텍스트변환부(120)를 통해 변환된 대화 텍스트를 통해 생성된 회의록이 스케줄러에 자동 저장될 수 있도록 함으로써, 휴대단말기에 설치된 스케줄 관련 어플리케이션이나 스케줄러를 통해 특정 날짜에 이루어진 회의에 대한 스케줄을 확인하고, 해당 회의에서 다뤄진 내용을 녹음된 회의록을 통해 확인할 수 있게 된다.In addition, according to a preferred feature of the present invention, the minutes generated by the minutes generation unit 200 is characterized in that automatically stored in the scheduler. The meeting minutes generation unit 200 allows the minutes generated through the conversation text converted through the text conversion unit 120 to be automatically stored in the scheduler for the contents mentioned by a plurality of speakers, so that the schedule-related application installed in the mobile terminal Alternatively, you can check the schedule for a meeting on a specific date through the scheduler, and check the contents of the meeting through the recorded meeting minutes.

본 발명의 바람직한 특징에 따르면, 상기 회의록생성부(200)는, 상기 음성신호입력부(110)로부터 입력된 복수의 화자의 음성 주파수를 각각 추출하고, 주파수 대역을 분석하여 복수의 화자를 구분하는 화자구분부(210)와, 상기 화자구분부(210)로부터 구분된 화자들간의 대화를 STT를 활용하여 텍스트로 변환하는 STT변환부(220) 및 상기 STT변환부(220)를 통해 구분된 화자들간의 대화 텍스트를 시계열적으로 나열하는 회의내용나열부(230)를 포함하는 것을 특징으로 한다.According to a preferred feature of the present invention, the meeting minutes generating unit 200 extracts voice frequencies of a plurality of speakers input from the voice signal input unit 110, respectively, and analyzes frequency bands to distinguish the plurality of speakers. The division unit 210, the STT conversion unit 220 that converts the conversation between the speakers separated from the speaker division unit 210 into text using STT, and the STT conversion unit 220 between the divided speakers It is characterized in that it includes a meeting contents listing unit 230 that lists the dialogue text in time series.

우선, 상기 음성신호입력부(110)를 통해 입력된 음성신호는 데이터값으로 변환되어 저장되고, 이를 기초로 하여 화자구분부(210)에서 복수의 화자의 음성 주파수를 각각 추출하여 주파수 대역을 분석하여 복수의 화자를 구분하게 된다. 상기 화자구분부(210)는 음성신호입력부(110)를 통해 입력된 음성신호의 음성 주파수를 추출하여 주파수 대역을 분석하는데, 이는 음의 길이나 피치, 파워 등의 요소들로부터 주파수 대역을 분석함으로써 화자를 구분할 수 있다. 상기 방식을 통해 복수의 화자를 상호 구분하게 되고, 이렇게 구분된 화자들간의 대화는 STT변환부(220)를 통해 텍스트로 변환된다.First, the voice signal input through the voice signal input unit 110 is converted into a data value and stored. Based on this, the speaker classification unit 210 extracts the voice frequencies of a plurality of speakers, respectively, and analyzes the frequency band. Distinguish between multiple speakers. The speaker classification unit 210 extracts the voice frequency of the voice signal input through the voice signal input unit 110 and analyzes the frequency band, which is by analyzing the frequency band from factors such as sound length, pitch, and power. speaker can be distinguished. Through the above method, a plurality of speakers are distinguished from each other, and the conversation between the divided speakers is converted into text through the STT conversion unit 220 .

상기 STT변환부(220)는 Speech-to-Text를 통해 음성을 문자로 변환해주는 구성으로, 음성데이터의 발음이나 억양, 길이 등의 정보를 분석하여 이를 문자정보로 변환해준다. 상기 화자구분부(210)로부터 화자가 구분된 대화는 STT변환부(220)를 통해 대화를 문자로 변환하여 이를 문장으로 나열하여 제공하게 된다. 마지막으로, 상기 STT변환부(220)를 통해 구분된 화자들간의 대화 텍스트를 시계열적으로 나열하는 회의내용나열부(230)를 포함한다. 상기 회의내용나열부(230)는 사용자의 휴대단말기 등과 같이 디스플레이장치를 통해 여러명의 화자가 서로 구분된 상태에서 각 화자가 언급한 내용이 대화 텍스트로 변환되어 시계열적으로 나열된 회의내용이 제공될 수 있다.The STT conversion unit 220 is configured to convert speech into text through Speech-to-Text, and analyzes information such as pronunciation, intonation, and length of speech data and converts it into text information. The dialogue in which the speaker is separated from the speaker classification unit 210 converts the dialogue into text through the STT conversion unit 220, and is provided by arranging it as a sentence. Finally, the STT conversion unit 220 includes a conference content listing unit 230 that lists the dialogue texts between the speakers in time series. The meeting contents list unit 230 converts the contents mentioned by each speaker into dialogue text in a state where several speakers are separated from each other through a display device such as a user's portable terminal, so that the meeting contents listed in time series can be provided. have.

본 발명의 바람직한 특징에 따르면, 상기 회의내용나열부(230)를 통해 출력된 대화 텍스트는 회의 종료 후 음성대화에 포함되어 저장되되, 복수의 화자가 구분되어 제공되는 상기 대화 텍스트를 시계열적으로 나열하여 출력부(150)를 통해 사용자들의 휴대단말기로 제공되는 것을 특징으로 한다.According to a preferred feature of the present invention, the dialogue text output through the conference content listing unit 230 is included in the voice dialogue after the conference is ended and stored, and the dialogue text provided by a plurality of speakers is arranged in time series. Thus, it is characterized in that it is provided to users' portable terminals through the output unit 150 .

상기 출력부(140)를 통해 휴대단말기로 제공되는 대화 텍스트는 음성녹음된 파일에 함께 포함되어 저장될 수 있으며, 회의가 종료된 이후 해당 음성파일을 다시 재생하게 되면 녹음된 대화내용이 재생됨과 동시에, 대화내용에 매칭되는 대화 텍스트가 휴대단말기 화면을 통해 함께 제공된다. 여기서 제공되는 대화 텍스트는 복수의 화자가 구분되어 각 화자가 언급한 대화내용에 대응하는 대화 텍스트가 구분되고 시계열적으로 나열되어 출력이 이루어진다.Conversation text provided to the portable terminal through the output unit 140 may be included and stored in the voice recorded file, and when the corresponding voice file is played back after the meeting is over, the recorded conversation content is played back and at the same time , a dialogue text matching the contents of the conversation is provided together through the screen of the mobile terminal. The dialogue text provided here is divided into a plurality of speakers, the dialogue text corresponding to the dialogue contents mentioned by each speaker is divided, and the dialogue text is arranged in time series to output.

본 발명의 바람직한 특징에 따르면, 상기 화자구분부(210)는, 상기 음성신호입력부(110)를 통해 복수의 화자로부터 다중언어가 입력되는 경우 언어의 종류에 따라 화자들을 선분류하고, 분류된 화자들간의 음성 주파수를 추출 및 주파수 대역을 분석하여 화자를 후분류하는 것을 특징으로 한다.According to a preferred feature of the present invention, the speaker classification unit 210 pre-classifies the speakers according to the type of language when multiple languages are input from a plurality of speakers through the voice signal input unit 110, and the classified speakers It is characterized in that the speaker is post-classified by extracting the voice frequency between them and analyzing the frequency band.

상기 음성신호입력부(110)를 통해 복수의 화자로부터 음성신호가 입력될 수 있는데, 국제회의와 같이 여러 국가에 거주중인 서로 다른 국적의 사람들이 본 발명을 통해 회의가 이루어지는 경우, 복수의 화자로부터 한국어와 영어, 일어, 중국어 등과 같이 다중언어가 입력될 수 있다. 이렇게 다중언어가 입력되는 경우, 우선적으로 언어의 종류에 따라 화자들을 선분류하는 작업이 이루어질 수 있는데, 예를 들어 한국어를 사용하는 사람들과 영어를 사용하는 사람들, 일어를 사용하는 사람들로 구성된 그룹원이 그룹회의를 진행하는 경우에 있어서, 입력되는 음성신호로부터 다중언어임을 인식한 화자구분부(210)는 우선 언어의 종류에 따라 화자들을 선분류하고(한국어, 영어, 일어별로), 이렇게 분류된 화자들간의 음성 주파수를 추출하고 주파수 대역을 분석하여 선분류된 화자들을 다시 각 화자별로 구분하는 후분류 작업이 이루어지게 된다. 이렇게 화자를 구분하게 되면, 다국적 대화가 이루어지는 경우에 있어서, 우선 언어의 종류에 따라 화자간 구분이 우선적으로 이루어지면서, 이후 사용자의 필요에 따라, 특정 언어에 대한 대화내용만을 추출하여 검색 및 확인할 수 있다는 장점이 있다.A voice signal may be input from a plurality of speakers through the voice signal input unit 110. When a meeting is held through the present invention between people of different nationalities residing in various countries, such as in an international conference, Korean from a plurality of speakers and multiple languages such as English, Japanese, and Chinese can be input. When multiple languages are input in this way, the task of pre-classifying the speakers according to the type of language can be done first. In the case of conducting this group meeting, the speaker classification unit 210, which recognizes that there are multiple languages from the input voice signal, first pre-classifies the speakers according to the type of language (by Korean, English, and Japanese), After extracting the voice frequencies between the speakers and analyzing the frequency bands, the pre-classified speakers are again classified for each speaker, followed by a post-classification operation. When the speakers are divided in this way, in the case of multinational conversations, the division between speakers is first made according to the type of language, and then, according to the needs of the user, only the conversation contents for a specific language can be extracted and searched and checked. There is an advantage that

본 발명의 바람직한 특징에 따르면, 상기 분류된 화자들간의 대화 텍스트로부터 기 설정된 언어가 아닌 언어로 인식되는 경우, 해당 언어를 기 설정된 언어로 번역하여 대화 텍스트와 함께 제공해주는 것을 특징으로 한다.According to a preferred feature of the present invention, when a language other than a preset language is recognized from the conversation text between the classified speakers, the language is translated into a preset language and provided together with the dialog text.

회의가 종료된 이후에, 상기 회의내용나열부(230)로부터 출력부(150)를 통해 사용자의 휴대단말기로 회의록이 제공되는데, 특정 회의내용을 검색하거나 다시 확인하기 위하여 회의내용 텍스트를 찾는 경우 모국어가 아닐 때에는 검색에 한계가 존재하게 된다. 그에 따라, 사용자의 휴대단말기를 통해 특정 언어를 기 설정하고 해당 언어가 아닌 언어가 상기 음성신호입력부(110)를 통해 입력되어 인식된 경우, 해당 언어를 기 설정된 언어로 번역하여 번역된 대화 텍스트가 함께 제공될 수 있다. 상기 번역된 대화 텍스트는 회의가 종료된 이후 녹음파일이 재생되면서 해당 언어에 대한 대화 텍스트와 함께 번역된 대화 텍스트까지 제공해주어 대화내용을 보다 용이하게 검색할 수 있게 된다.After the meeting ends, the meeting minutes are provided from the meeting contents listing unit 230 to the user's mobile terminal through the output unit 150. If not, there is a limit to the search. Accordingly, when a specific language is preset through the user's mobile terminal and a language other than the corresponding language is input through the voice signal input unit 110 and recognized, the translated dialogue text is translated into the preset language may be provided together. The translated dialogue text provides the translated dialogue text along with the dialogue text for the corresponding language while the recorded file is played after the meeting is ended, so that the contents of the conversation can be more easily searched.

본 발명의 바람직한 특징에 따르면, 상기 STT변환부(220)를 통해 변환된 화자들간의 대화 텍스트중에서 반복 사용된 단어를 추출하고, 상기 추출된 단어를 카테고리화하여 저장하는 저장부를 더 포함하는 것을 특징으로 한다.According to a preferred feature of the present invention, it further comprises a storage unit for extracting repeatedly used words from the dialogue text between the speakers converted through the STT conversion unit 220, and categorizing and storing the extracted words. do it with

상기 대화 텍스트로부터 회의내용이 녹음된 파일을 카테고리별로 구분하여 저장할 필요가 있다. 예를 들어, 자주 언급되는 단어나 주제를 중심으로 카테고리화 하여 저장하는 경우, 상기 STT변환부(220)를 통해 변환된 화자들간의 대화 텍스트로부터 반복 사용된 단어(예를 들어, 특정 장소나 이름 등)를 추출하고, 추출된 반복 사용된 단어를 카테고리화하여 저장할 수 있다. 그에 따라, 회의가 종료된 이후 녹음파일과 함께 저장된 대화 텍스트를 검색하려는 경우, 다수의 녹음파일 중에서 카테고리화 되어서 분류된 녹음파일을 보다 쉽게 찾아서 원하는 대화 텍스트를 검색할 수 있다는 장점이 있다.It is necessary to classify and store the files in which the meeting contents are recorded from the conversation text by category. For example, when categorizing and storing frequently mentioned words or topics, words repeatedly used from the conversation text between the speakers converted through the STT conversion unit 220 (eg, a specific place or name) etc.), and categorizes and stores the extracted repeatedly used words. Accordingly, if you want to search the conversation text stored together with the recorded file after the meeting is over, there is an advantage in that it is possible to more easily find the classified recorded file among a plurality of recorded files to search for the desired dialogue text.

본 발명의 바람직한 특징에 따르면, 상기 대화 텍스트를 머신러닝시켜 반복 사용되는 단어를 추출하고, 상기 추출된 단어를 카테고리화하여 저장하는 것을 특징으로 한다.According to a preferred feature of the present invention, it is characterized in that a word repeatedly used is extracted by machine learning the dialogue text, and the extracted word is categorized and stored.

상기 대화 텍스트로부터 반복 사용되는 단어로부터 카테고리화할 때 보다 정확하고 빠르게 카테고리화하기 위하여, 머신러닝 기능을 활용할 수 있다. 머신러닝 기능은 데이터를 분석하고 자체적으로 학습한 정보를 바탕으로 결정을 내리기 위해 학습한 내용을 적용하는 알고리즘으로 정의되며, 본 발명에서는 다수의 대화로부터 출력되는 대화 텍스트를 분석하고 자체적인 학습을 통해 자주 사용되는 단어를 추출하여, 이렇게 추출된 단어를 카테고리화하여 저장할 수 있다. 머신러닝 기능을 통해 자주 사용되는 단어를 보다 정확하게 빠르게 추출하여 카테고리로 저장됨으로써 사용자가 원하는 대화 텍스트를 보다 빠르고 쉽게 찾을 수 있다는 장점이 있다.When categorizing from words that are repeatedly used from the dialogue text, a machine learning function may be utilized to more accurately and quickly categorize. The machine learning function is defined as an algorithm that analyzes data and applies what it learns to make a decision based on self-learning information. By extracting frequently used words, it is possible to categorize and store the extracted words. It has the advantage that users can find the conversation text they want faster and easier by extracting frequently used words more accurately and quickly through the machine learning function and storing them as categories.

이상 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명하였지만, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해되어야 하고, 본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Although the preferred embodiment of the present invention has been described with reference to the accompanying drawings, the embodiments described in the present specification and the configuration shown in the drawings are only the most preferred embodiment of the present invention and represent all of the technical spirit of the present invention. Therefore, it should be understood that there may be various equivalents and modifications that can be substituted for them at the time of filing the present application. Therefore, the embodiments described above are to be understood as illustrative and not restrictive in all respects, and the scope of the present invention is indicated by the following claims rather than the detailed description, and the meaning and scope of the claims and their All changes or modifications derived from the concept of equivalents should be construed as being included in the scope of the present invention.

100 : 회의보조 시스템
110 : 음성신호입력부
120 : 텍스트변환부
130 : 단어추출부
140 : 저장부
150 : 출력부
200 : 회의록생성부
210 : 화자구분부
220 : STT변환부
230 : 회의내용나열부
100: meeting assistance system
110: voice signal input unit
120: text conversion unit
130: word extraction unit
140: storage
150: output unit
200: meeting minutes generating unit
210: speaker division
220: STT conversion unit
230: meeting contents list part

Claims (9)

복수의 화자로부터 발생되는 음성신호가 입력되는 음성신호입력부;
상기 음성신호입력부로부터 입력된 음성신호를 텍스트로 변환하는 텍스트변환부;
상기 텍스트변환부를 통해 변환된 대화 텍스트로부터 특정단어를 추출하는 단어추출부;
상기 단어추출부로부터 추출된 특정단어로부터 스케줄링 정보를 입력하고 저장하는 저장부; 및
상기 저장부에 저장된 스케줄링 정보를 출력하는 출력부;
를 포함하는 회의보조 시스템.
a voice signal input unit to which voice signals generated from a plurality of speakers are input;
a text converting unit converting the voice signal input from the voice signal input unit into text;
a word extraction unit for extracting a specific word from the conversation text converted through the text conversion unit;
a storage unit for inputting and storing scheduling information from the specific word extracted from the word extraction unit; and
an output unit for outputting the scheduling information stored in the storage unit;
Meeting assistance system that includes.
제1항에 있어서,
상기 단어추출부가 추출하는 특정단어는,
날짜, 시간, 장소, 주제, 인원, 미팅방식 중에 선택된 어느 하나 이상의 단어로 이루어지는 것을 특징으로 하는 회의보조 시스템.
According to claim 1,
The specific word extracted by the word extraction unit is,
Meeting assistance system, characterized in that it consists of any one or more words selected from date, time, place, subject, number of people, and meeting method.
제1항에 있어서,
상기 출력부에서 출력하는 스케줄링 정보는,
사용자의 휴대단말기에 설치된 스케줄러에 자동 저장되고, 상기 스케줄러에는 장소와 주제, 인원, 미팅방식에 대한 상세정보가 함께 제공되는 것을 특징으로 하는 회의보조 시스템.
According to claim 1,
The scheduling information output from the output unit is,
It is automatically stored in a scheduler installed in the user's mobile terminal, and the scheduler is provided with detailed information on place, subject, number of people, and meeting method.
제3항에 있어서,
미팅이 이루어진 후, 복수의 화자로부터 발생되는 음성신호를 상기 텍스트변환부를 통해 텍스트로 변환하여 회의록을 생성하는 회의록생성부를 포함하는 것을 특징으로 하는 회의보조 시스템.
4. The method of claim 3,
After the meeting is made, the meeting assistant system comprising a meeting minutes generator for generating the minutes by converting the voice signals generated by the plurality of speakers into text through the text conversion unit.
제4항에 있어서,
상기 회의록생성부로부터 생성된 회의록은 스케줄러에 자동 저장되는 것을 특징으로 하는 회의보조 시스템.
5. The method of claim 4,
The meeting minutes generated by the meeting minutes generator are automatically stored in the scheduler.
제4항에 있어서,
상기 회의록생성부는,
상기 음성신호입력부로부터 입력된 복수의 화자의 음성 주파수를 각각 추출하고, 주파수 대역을 분석하여 복수의 화자를 구분하는 화자구분부와,
상기 화자구분부로부터 구분된 화자들간의 대화를 STT를 활용하여 텍스트로 변환하는 STT변환부 및
상기 STT변환부를 통해 구분된 화자들간의 대화 텍스트를 시계열적으로 나열하는 회의내용나열부를 포함하는 것을 특징으로 하는 회의보조 시스템.
5. The method of claim 4,
The meeting minutes generating unit,
a speaker classification unit for extracting voice frequencies of a plurality of speakers input from the voice signal input unit, respectively, and analyzing frequency bands to classify the plurality of speakers;
an STT conversion unit that converts the conversation between the speakers separated from the speaker classification unit into text using STT; and
Conference assistance system, characterized in that it comprises a meeting contents listing unit for chronologically listing the dialogue texts between the speakers divided through the STT conversion unit.
제6항에 있어서,
상기 회의내용나열부를 통해 출력된 대화 텍스트는 회의 종료 후 음성대화에 포함되어 저장되되,
복수의 화자가 구분되어 제공되는 상기 대화 텍스트를 시계열적으로 나열하여 출력부를 통해 사용자들의 휴대단말기로 제공되는 것을 특징으로 하는 회의보조 시스템.
7. The method of claim 6,
Conversation text output through the conference contents listing unit is stored in the voice conversation after the end of the conference,
A conference assistance system, characterized in that the dialogue text provided by a plurality of speakers is arranged in time series and provided to users' portable terminals through an output unit.
제6항에 있어서,
상기 화자구분부는, 상기 음성신호입력부를 통해 복수의 화자로부터 다중언어가 입력되는 경우 언어의 종류에 따라 화자들을 선분류하고, 분류된 화자들간의 음성 주파수를 추출 및 주파수 대역을 분석하여 화자를 후분류하는 것을 특징으로 하는 회의보조 시스템.
7. The method of claim 6,
The speaker classification unit, when multiple languages are input from a plurality of speakers through the voice signal input unit, pre-classifies speakers according to the type of language, extracts voice frequencies between the classified speakers, and analyzes the frequency band to select the speakers. Meeting assistance system, characterized in that the classification.
제8항에 있어서,
상기 분류된 화자들간의 대화 텍스트로부터 기 설정된 언어가 아닌 언어로 인식되는 경우, 해당 언어를 기 설정된 언어로 번역하여 대화 텍스트와 함께 제공해주는 것을 특징으로 하는 회의보조 시스템.
9. The method of claim 8,
When a language other than a preset language is recognized from the classified conversation text between the speakers, the conference assistance system is translated into a preset language and provided together with the conversation text.
KR1020210026293A 2021-02-26 2021-02-26 Conference assistance system according to the type of multiple languages KR20220122100A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210026293A KR20220122100A (en) 2021-02-26 2021-02-26 Conference assistance system according to the type of multiple languages

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210026293A KR20220122100A (en) 2021-02-26 2021-02-26 Conference assistance system according to the type of multiple languages

Publications (1)

Publication Number Publication Date
KR20220122100A true KR20220122100A (en) 2022-09-02

Family

ID=83280982

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210026293A KR20220122100A (en) 2021-02-26 2021-02-26 Conference assistance system according to the type of multiple languages

Country Status (1)

Country Link
KR (1) KR20220122100A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190004526A (en) 2017-07-04 2019-01-14 주식회사 케이티 Method, Electronic Apparatus and System for Scheduling of Conference

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190004526A (en) 2017-07-04 2019-01-14 주식회사 케이티 Method, Electronic Apparatus and System for Scheduling of Conference

Similar Documents

Publication Publication Date Title
US10679134B2 (en) Automated ontology development
JP6819988B2 (en) Speech interaction device, server device, speech interaction method, speech processing method and program
US20110172989A1 (en) Intelligent and parsimonious message engine
US20070124142A1 (en) Voice enabled knowledge system
Gardner-Bonneau et al. Human factors and voice interactive systems
US20190221208A1 (en) Method, user interface, and device for audio-based emoji input
US20180226073A1 (en) Context-based cognitive speech to text engine
EP2680165A1 (en) System and method to peform textual queries on voice communications
JP6795668B1 (en) Minutes creation system
Gibbon et al. Spoken language system and corpus design
Ngueajio et al. Hey asr system! why aren’t you more inclusive? automatic speech recognition systems’ bias and proposed bias mitigation techniques. a literature review
KR102548365B1 (en) Method for generating conference record automatically and apparatus thereof
CN113627194B (en) Information extraction method and device, and communication message classification method and device
Dyriv et al. The user's psychological state identification based on Big Data analysis for person's electronic diary
KR102279505B1 (en) Voice diary device
KR20220122100A (en) Conference assistance system according to the type of multiple languages
KR20220122101A (en) A conference assistant system that can categorize and store conversation text
KR20220121457A (en) A conference assistant system
KR102666822B1 (en) Conference assistant apparatus
Hegdepatil et al. Business intelligence based novel marketing strategy approach using automatic speech recognition and text summarization
US11699430B2 (en) Using speech to text data in training text to speech models
Bisser et al. Introduction to the microsoft conversational ai platform
JP2019207647A (en) Interactive business assistance system
CN114328867A (en) Intelligent interruption method and device in man-machine conversation
CN114661864A (en) Psychological consultation method and device based on controlled text generation and terminal equipment

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application