KR20230018260A - Method and application of meaningful keyword extraction from speech conversion text data - Google Patents

Method and application of meaningful keyword extraction from speech conversion text data Download PDF

Info

Publication number
KR20230018260A
KR20230018260A KR1020210100234A KR20210100234A KR20230018260A KR 20230018260 A KR20230018260 A KR 20230018260A KR 1020210100234 A KR1020210100234 A KR 1020210100234A KR 20210100234 A KR20210100234 A KR 20210100234A KR 20230018260 A KR20230018260 A KR 20230018260A
Authority
KR
South Korea
Prior art keywords
data
text
voice
keyword
voice data
Prior art date
Application number
KR1020210100234A
Other languages
Korean (ko)
Inventor
차영래
전용진
박종원
김병수
Original Assignee
(주)네오플로우
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)네오플로우 filed Critical (주)네오플로우
Priority to KR1020210100234A priority Critical patent/KR20230018260A/en
Publication of KR20230018260A publication Critical patent/KR20230018260A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3334Selection or weighting of terms from queries, including natural language queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/109Font handling; Temporal or kinetic typography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Telephonic Communication Services (AREA)

Abstract

The present invention relates to a method and application for extracting meaningful keywords from voice conversion text data. More specifically, the method and application for extracting meaningful keywords from voice conversion text data can analyze received voice data to convert the data into text so as to be displayable.

Description

음성 변환 Text Data에서 의미 있는 키워드 추출 방법과 활용{Method and application of meaningful keyword extraction from speech conversion text data}Method and application of meaningful keyword extraction from speech conversion text data}

본 발명은 음성 변환 Text Data에서 의미 있는 키워드 추출 방법과 활용에 관한 것으로서, 더욱 상세하게는 입력받은 음성 데이터를 분석하여 텍스트로 변환하여 키워드를 추출하는 방법과 활용에 관한 것이다.The present invention relates to a method for extracting meaningful keywords from voice conversion text data and its utilization, and more particularly, to a method and utilization of extracting keywords by analyzing and converting input voice data into text.

일반적인 음성 데이터의 텍스트 변환(STT : Speech To Text) 기술은 녹취된 음성 또는 실시간으로 재생되는 음성 데이터가 입력되면, 상기 입력되는 음성 데이터의 발음, 억양, 길이를 분석하여, 단어와 문장을 생성하는 기술을 말한다.Speech To Text (STT) technology of general voice data generates words and sentences by analyzing the pronunciation, intonation, and length of the input voice data when recorded voice or voice data reproduced in real time is input. say technology.

그러나 음성 데이터의 경우, 말하는 사람의 발음, 억양이 다르며, 말하는 사람의 주변 환경에 따라 음성에 잡음이 끼어 정확한 발음을 인식하고 분석하기까지 많은 어려움이 따른다.However, in the case of voice data, the speaker's pronunciation and accent are different, and noise is added to the voice depending on the speaker's surrounding environment, resulting in many difficulties in recognizing and analyzing accurate pronunciation.

이러한 음성 데이터의 인식율을 높이기 위해서는 다양한 발음, 억양에 대한 수많은 샘플 데이터가 저장된 데이터베이스가 필요하며, 잘못 인식된 음성 데이터에 대해 피드백 가능한 교정 시스템이 필요하다.In order to increase the recognition rate of such voice data, a database in which numerous sample data for various pronunciations and intonations are stored is required, and a correction system capable of providing feedback on erroneously recognized voice data is required.

한편, 이러한 STT는 전화를 이용한 콜센서 또는 설문조사에 적용되어 많은 효과를 볼 수 있지만, 데이터베이스의 초기 구축비용과, 주기적인 음성 데이터의 업데이트에 많은 비용과 기술력이 필요하여, 널리 사용되지 못하고 있는 것이 실정이다.On the other hand, although this STT can be applied to a call sensor or survey using a telephone and has many effects, it is not widely used due to the initial construction cost of the database and the high cost and technology required for periodic updating of voice data. is the situation.

따라서, 이러한 문제점을 해결할 수 있는 새로운 방법이 필요하게 되었다.Therefore, there is a need for a new method capable of solving these problems.

본 발명은 입력받은 음성 데이터를 분석하여 텍스트로 변환하여 표시 가능한 음성 변환 Text Data에서 의미 있는 키워드 추출 방법과 활용을 제공하는 것을 목적으로 한다.An object of the present invention is to provide a method for extracting a meaningful keyword from voice conversion text data that can be displayed by analyzing input voice data and converting it into text and using the same.

또한, 본 발명은 클라우드 기반으로 동작되어 데이터베이스의 사용 및 음성 데이터 업데이트가 용이한 음성 변환 Text Data에서 의미 있는 키워드 추출 방법과 활용을 제공하는 것을 목적으로 한다.In addition, an object of the present invention is to provide a method for extracting meaningful keywords from voice conversion text data, which operates on a cloud basis and facilitates database use and voice data update.

또한, 본 발명은 음성 데이터 및 텍스트 데이터의 대한 변환 오류 신호에 따라 미리 구축된 데이터베이스를 기초로 텍스트 데이터를 수정하여 다시 제공함으로써 데이터의 정확성을 높일 수 있도록 하는 음성 변환 Text Data에서 의미 있는 키워드 추출 방법과 활용을 제공하는 것을 목적으로 한다.In addition, the present invention is a method for extracting meaningful keywords from voice conversion text data that improves the accuracy of the data by correcting and reproviding text data based on a pre-constructed database according to conversion error signals for voice data and text data. It aims to provide and utilize.

본 발명의 바람직한 일실시예에 따르면, 사용자 단말, 고객사 서버 및 클라우드 서버를 포함하는 클라우드 기반의 음성 데이터 텍스트 변환 시스템에 있어서, 음성 데이터를 녹취하여 상기 고객사 서버에 제공하고, 상기 고객사 서버로부터 음성 데이터 및 텍스트 데이터를 수신하고, 변환 오류 발견 시 변환 오류 신호를 상기 고객사 서버에 제공하는 사용자 단말; 상기 사용자 단말 또는 상기 클라우드 서버로부터 음성 데이터를 수신하면, 상기 음성 데이터를 변환하여 텍스트 데이터를 생성한 후 상기 음성 데이터 및 상기 텍스트 데이터를 매칭시켜 저장하고, 상기 사용자 단말로부터 변환 오류 신호를 수신하면, 상기 변환 오류 신호에 해당하는 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 상기 클라우드 서버에 제공하고, 상기 변환 오류 신호에 대한 응답으로 수정 데이터를 수신하여 저장하는 고객사 서버; 및 사용자에 의한 변환 오류 신호에 따라 상기 고객사 서버로부터 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 수신하고, 미리 생성된 데이터베이스를 기초로 상기 음성 데이터 및 상기 텍스트 데이터 중 적어도 하나의 데이터를 수정하여 수정 데이터를 생성하고, 상기 수정 데이터를 상기 고객사 서버에 제공하는 클라우드 서버를 포함하는 것을 특징으로 한다.According to a preferred embodiment of the present invention, in a cloud-based voice data-to-text conversion system including a user terminal, a customer server, and a cloud server, voice data is recorded and provided to the customer server, and voice data is provided from the customer server. and a user terminal receiving text data and providing a conversion error signal to the customer server when a conversion error is detected. When voice data is received from the user terminal or the cloud server, text data is generated by converting the voice data, the voice data and the text data are matched and stored, and a conversion error signal is received from the user terminal, a customer server that provides at least one of voice data and text data corresponding to the conversion error signal to the cloud server, and receives and stores corrected data in response to the conversion error signal; and receiving at least one of voice data and text data from the client company server according to a conversion error signal by the user, and modifying and correcting at least one of the voice data and the text data based on a pre-generated database. It is characterized in that it includes a cloud server that generates data and provides the correction data to the customer company server.

본 발명의 다른 일실시예에 따르면, 상기 고객사 서버는 상기 음성 데이터를 기초로 변환된 텍스트 데이터 상에 사용자가 미리 설정한 키워드가 존재하면, 키워드가 포함된 텍스트 데이터를 디스플레이 모듈을 통해 표시할 수 있는 것을 특징으로 한다.According to another embodiment of the present invention, the customer server may display text data including the keyword through the display module, if a keyword previously set by the user exists in the text data converted based on the voice data. It is characterized by having

본 발명의 다른 일실시예에 따르면, 상기 고객사 서버는 상기 음성 데이터를 기초로 변환된 텍스트 데이터 상에 사용자가 미리 설정한 키워드가 존재하면 상기 키워드가 포함된 텍스트 데이터를 하이라이트 처리하고, 상기 음성 데이터 상에 사용자가 미리 설정한 키워드가 존재하면, 키워드가 포함된 음성 데이터를 하이라이트 처리하는 것을 특징으로 한다.According to another embodiment of the present invention, if a keyword preset by a user exists in the text data converted based on the voice data, the customer server highlights text data including the keyword, and the voice data If there is a keyword set in advance by the user in the image, voice data including the keyword is highlighted.

본 발명의 다른 일실시예에 따르면, 상기 클라우드 서버는 단어 사전 데이터베이스를 이용하여 각각의 단어를 서로 다른 높낮이, 길이, 억양 및 발음으로 구현하여 음성 키워드를 생성한 후 상기 음성 키워드를 기초로 텍스트 키워드를 생성하고, 상기 음성 키워드 및 상기 텍스트 키워드 각각을 해당 단어를 참조 데이터로서 매칭시켜 저장하여 데이터베이스를 생성하는 것을 특징으로 한다.According to another embodiment of the present invention, the cloud server generates voice keywords by implementing each word with different pitches, lengths, intonations, and pronunciations using a word dictionary database, and then generates text keywords based on the voice keywords. and generating a database by matching each of the voice keyword and the text keyword with a corresponding word as reference data and storing them.

본 발명의 또 다른 일실시예에 따르면, 상기 클라우드 서버는 상기 데이터베이스를 기초로 고객사 서버로부터 수신된 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터 상에 상기 음성 키워드 또는 텍스트 키워드가 존재하는지 여부를 확인한 후 상기 확인 결과에 따라 상기 음성 키워드 또는 상기 텍스트 키워드에 해당하는 참조 데이터를 기초로 상기 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 수정하여 수정 데이터를 생성하는 것을 특징으로 한다.According to another embodiment of the present invention, the cloud server checks whether the voice keyword or text keyword exists on at least one of voice data and text data received from the customer server based on the database, and then According to the confirmation result, at least one of the voice data and text data is modified based on reference data corresponding to the voice keyword or the text keyword to generate modified data.

본 발명의 또 다른 일실시예에 따르면, 사용자 단말이 음성 데이터를 녹취하여 고객사 서버 또는 클라우드 서버에 제공하는 단계; 상기 고객사 서버 또는 클라우드 서버가 상기 음성 데이터를 텍스트 데이터로 변환한 후 음성 데이터 및 텍스트 데이터를 저장하는 단계; 상기 사용자 단말이 상기 고객사 서버에 접속하여 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 이용하는 과정에서 변환 오류 발견 시 변환 오류 신호를 상기 고객사 서버에 제공하는 단계; 상기 고객사 서버가 상기 변환 오류 신호를 수신하면, 상기 변환 오류 신호에 해당하는 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 상기 클라우드 서버에 제공하는 단계; 및 상기 클라우드 서버가 미리 생성된 데이터베이스를 기초로 상기 음성 데이터 및 상기 텍스트 데이터 중 적어도 하나의 데이터를 수정하여 수정 데이터를 생성한 후 상기 고객사 서버에 제공하는 단계를 포함하는 것을 특징으로 한다.According to another embodiment of the present invention, the user terminal recording the voice data and providing it to the customer company server or cloud server; converting the voice data into text data by the customer company server or the cloud server and then storing the voice data and text data; providing a conversion error signal to the customer server when a conversion error is detected in a process in which the user terminal accesses the customer server and uses at least one of voice data and text data; When the customer server receives the conversion error signal, providing at least one of voice data and text data corresponding to the conversion error signal to the cloud server; and generating modified data by modifying at least one of the voice data and the text data based on a previously generated database by the cloud server, and providing the corrected data to the customer company server.

본 발명의 또 다른 일실시예에 따르면, 상기 고객사 서버 또는 클라우드 서버가 상기 음성 데이터를 텍스트 데이터로 변환한 후 음성 데이터 및 텍스트 데이터를 저장하는 단계는 상기 고객사 서버가 상기 음성 데이터를 기초로 변환된 텍스트 데이터 상에 사용자가 미리 설정한 키워드가 존재하면, 키워드가 포함된 텍스트 데이터를 디스플레이 모듈을 통해 표시하는 단계를 포함하는 것을 특징으로 한다.According to another embodiment of the present invention, the step of storing the voice data and text data after the customer company server or the cloud server converts the voice data into text data includes the conversion of the customer company server based on the voice data. and displaying, through a display module, text data including the keyword if a keyword preset by a user exists on the text data.

본 발명의 또 다른 일실시예에 따르면, 상기 고객사 서버 또는 클라우드 서버가 상기 음성 데이터를 텍스트 데이터로 변환한 후 음성 데이터 및 텍스트 데이터를 저장하는 단계는 상기 고객사 서버가 상기 음성 데이터를 기초로 변환된 텍스트 데이터 상에 사용자가 미리 설정한 키워드가 존재하면 상기 키워드가 포함된 텍스트 데이터를 하이라이트 처리하는 단계; 및 상기 고객사 서버가 상기 음성 데이터 상에 사용자가 미리 설정한 키워드가 존재하면, 키워드가 포함된 음성 데이터를 하이라이트 처리하는 단계를 포함하는 것을 특징으로 한다.According to another embodiment of the present invention, the step of storing the voice data and text data after the customer company server or the cloud server converts the voice data into text data includes the conversion of the customer company server based on the voice data. highlighting text data including the keyword when a keyword preset by a user exists on the text data; and highlighting, by the client company server, the voice data including the keyword if a keyword preset by a user exists in the voice data.

본 발명의 또 다른 일실시예에 따르면, 상기 클라우드 서버가 단어 사전 데이터베이스를 이용하여 각각의 단어를 서로 다른 높낮이, 길이, 억양 및 발음으로 구현하여 음성 키워드를 생성한 후 상기 음성 키워드를 기초로 텍스트 키워드를 생성하는 단계; 및 상기 클라우드 서버가 상기 음성 키워드 및 상기 텍스트 키워드 각각을 해당 단어를 참조 데이터로서 매칭시켜 저장하여 데이터베이스를 생성하는 단계를 포함하는 것을 특징으로 한다.According to another embodiment of the present invention, the cloud server generates voice keywords by implementing each word with different pitches, lengths, intonations, and pronunciations using a word dictionary database, and then text text based on the voice keywords. generating keywords; and generating, by the cloud server, a database by matching and storing the voice keyword and the text keyword as reference data.

본 발명의 또 다른 일실시예에 따르면, 상기 음성 데이터 및 상기 텍스트 데이터 중 적어도 하나의 데이터를 수정하여 수정 데이터를 생성한 후 상기 고객사 서버에 제공하는 단계는 상기 클라우드 서버가 상기 데이터베이스를 기초로 고객사 서버로부터 수신된 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터 상에 상기 음성 키워드 또는 텍스트 키워드가 존재하는지 여부를 확인하는 단계; 및 상기 확인 결과에 따라 상기 음성 키워드 또는 상기 텍스트 키워드에 해당하는 참조 데이터를 기초로 상기 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 수정하여 수정 데이터를 생성하는 단계를 포함하는 것을 특징으로 한다.According to another embodiment of the present invention, the step of modifying at least one of the voice data and the text data to generate corrected data and providing the corrected data to the customer server is the step in which the cloud server determines the customer company based on the database. checking whether the voice keyword or the text keyword exists in at least one of voice data and text data received from a server; and generating modified data by modifying at least one of the voice data and text data based on reference data corresponding to the voice keyword or the text keyword according to a result of the confirmation.

한편 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 함으로써 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다.On the other hand, the present invention is not limited to the embodiments disclosed below and can be implemented in various different forms, but only the present embodiments make the disclosure of the present invention complete, so that common knowledge in the art to which the present invention belongs It is provided to fully inform the holder of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numbers designate like elements throughout the specification.

본 발명은 입력받은 음성 데이터를 분석하여 텍스트로 변환하여 표시 가능한 음성 변환 Text Data에서 의미 있는 키워드 추출 방법과 활용을 제공할 수 있다.The present invention can analyze input voice data, convert it into text, and provide a method and application for extracting meaningful keywords from displayable voice converted text data.

또한, 클라우드 기반으로 동작되어 데이터베이스의 사용 및 음성 데이터 업데이트가 용이한 음성 변환 Text Data에서 의미 있는 키워드 추출 방법과 활용을 제공할 수 있다.In addition, it is possible to provide a method for extracting meaningful keywords from text data converted into voices, which is operated based on the cloud, and which makes it easy to use the database and update the voice data.

또한, 음성 데이터 및 텍스트 데이터의 대한 변환 오류 신호에 따라 미리 구축된 데이터베이스를 기초로 텍스트 데이터를 수정하여 다시 제공함으로써 데이터의 정확성을 높일 수 있도록 하는 음성 변환 Text Data에서 의미 있는 키워드 추출 방법과 활용을 제공할 수 있다.In addition, a method and application of extracting meaningful keywords from voice conversion text data that enhances the accuracy of data by modifying and reproviding text data based on a pre-built database according to conversion error signals for voice data and text data. can provide

도 1은 본 발명의 일 실시예에 따른 클라우드 기반의 음성 데이터 텍스트 변환 시스템을 설명하기 위한 네트워크 구성도.1 is a network configuration diagram illustrating a cloud-based voice data-to-text conversion system according to an embodiment of the present invention.

이하에서는 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 클라우드 기반의 음성 데이터 텍스트 변환 시스템을 설명하기 위한 네트워크 구성도이고, 도 2는 본 발명에 따른 클라우드 기반의 음성 데이터 텍스트 변환 방법의 일 실시예를 설명하기 위한 도면이며, 도 3은 본 발명에 따른 클라우드 기반의 음성 데이터 텍스트 변환 방법의 다른 일 실시예를 설명하기 위한 도면이고, 도 4는 본 발명에 따른 클라우드 기반의 음성 데이터 텍스트 변환 방법의 또 다른 일 실시예를 설명하기 위한 도면이며, 도 5는 본 발명에 따른 클라우드 기반의 음성 데이터 텍스트 변환 방법의 또 다른 일 실시예를 설명하기 위한 도면이다.1 is a network configuration diagram for explaining a cloud-based voice data-to-text conversion system according to an embodiment of the present invention, and FIG. 2 is a diagram illustrating an embodiment of a cloud-based voice data-to-text conversion method according to the present invention. 3 is a diagram for explaining another embodiment of a cloud-based voice data-to-text conversion method according to the present invention, and FIG. 4 is another example of a cloud-based voice data-to-text conversion method according to the present invention. 5 is a diagram for explaining another embodiment of a cloud-based voice data-to-text conversion method according to the present invention.

도 1은 본 발명의 일 실시예에 따른 클라우드 기반의 음성 데이터 텍스트 변환 시스템을 설명하기 위한 네트워크 구성도이다.1 is a network configuration diagram illustrating a cloud-based voice data-to-text conversion system according to an embodiment of the present invention.

도 1을 참조하면, 클라우드 기반의 음성 데이터 텍스트 변환 시스템은 클라우드 서버(100), 고객사 서버(200)및 사용자 단말(300)을 포함한다.Referring to FIG. 1 , the cloud-based voice data-to-text conversion system includes a cloud server 100, a customer server 200, and a user terminal 300.

클라우드 서버(100)는 고객사 서버(200)로부터 음성 데이터를 수신한 후 처리한다.The cloud server 100 receives and processes voice data from the customer server 200 .

일 실시예에서, 클라우드 서버(100)는 고객사 서버(200)로부터 음성 데이터를 수신하면, 음성 데이터를 저장한다.In one embodiment, when the cloud server 100 receives voice data from the customer company server 200, it stores the voice data.

클라우드 서버(100)는 사용자에 의한 음성 오류 신고에 따라 고객사 서버(200)로부터 음성 데이터 및 음성 데이터를 기초로 생성된 텍스트 데이터 중 적어도 하나의 데이터를 수신하고, 미리 생성된 데이터베이스를 기초로 고객사 서버(200)로부터 수신된 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 수정하여 수정 데이터를 생성하고, 수정 데이터를 고객사 서버(200)에 제공한다.The cloud server 100 receives at least one of voice data and text data generated based on the voice data from the customer company server 200 according to a voice error report by the user, and based on a pre-generated database, the customer company server At least one of the voice data and text data received from (200) is corrected to generate corrected data, and the corrected data is provided to the customer server (200).

이를 위해, 클라우드 서버(100)는 키워드 별 참조 데이터가 저장되어 있는 데이터베이스를 포함하고 있다. 키워드는 음성 또는 텍스트일 수 있으며, 참조 데이터는 텍스트로 구현될 수 있다.To this end, the cloud server 100 includes a database in which reference data for each keyword is stored. Keywords may be voice or text, and reference data may be implemented as text.

예를 들어, 클라우드 서버(100)는 키워드가 음성으로 구현되고 참조 데이터가 텍스트로 구현된 데이터베이스를 포함하는 경우, 음성 키워드는 “시울, 소울, 소울, 시이울, 소오울” 등과 같은 음성으로 구현되고, 참조 데이터는 “서울”과 같은 텍스트로 구현될 수 있다.For example, when the cloud server 100 includes a database in which keywords are implemented as voice and reference data are implemented as text, the voice keyword is implemented as voice such as "Siul, Soul, Soul, Sioul, Soul", etc. and reference data can be implemented as text such as “Seoul”.

다른 예를 들어, 클라우드 서버(100)가 키워드가 텍스트로 구현되고 참조 데이터가 텍스트로 구현된 데이터베이스를 포함하는 경우, 텍스트 키워드는 “시울, 소울, 시이울, 소오울”과 같은 텍스트로 구현되고, 참조 데이터는 “서울” 등과 같은 텍스트로 구현될 수 있다.For another example, if the cloud server 100 includes a database in which keywords are implemented in text and reference data is implemented in text, the text keyword is implemented in text such as “Siul, Soul, Siul, Soul” , reference data can be implemented as text such as “Seoul”.

상기와 같이, 클라우드 서버(100)는 단어 사전 데이터베이스를 이용하여 각각의 단어를 서로 다른 높낮이, 길이, 억양 및 발음으로 구현하여 음성 키워드를 생성한 후 상기 음성 키워드를 기초로 텍스트 키워드를 생성한다. 그런 다음, 클라우드 서버(100)는 음성 키워드 및 상기 텍스트 키워드 각각을 해당 단어를 참조 데이터로서 매칭시켜 저장하여 데이터베이스를 생성한다.As described above, the cloud server 100 generates voice keywords by implementing each word with different pitches, lengths, intonations, and pronunciations using the word dictionary database, and then generates text keywords based on the voice keywords. Then, the cloud server 100 creates a database by matching the voice keyword and the text keyword with corresponding words as reference data and storing them.

즉, 클라우드 서버(100)는 단어가 텍스트인 경우, 텍스트 키워드 및 참조 데이터를 매칭시켜 저장하여 데이터베이스를 생성하고, 단어를 표준 음성으로 변환하여 생성한 음성 키워드 및 참조 데이터를 매칭시켜 저장하여 데이터베이스를 생성한다.That is, when the word is text, the cloud server 100 creates a database by matching and storing text keywords and reference data, converts the word into a standard voice, matches and stores the generated voice keyword and reference data, and stores the database. generate

이와 같은 과정을 통해 데이터베이스를 생성하는 이유는, 동일한 단어라도 발화하는 사용자마다 서로 다른 높낮이, 길이, 억양 및 발음으로 다른 음성으로 발화될 수 있기 때문이다.The reason why the database is created through such a process is that even the same word can be uttered in different voices with different pitches, lengths, intonations, and pronunciations for each uttering user.

이하에서는, 클라우드 서버(100)가 고객사 서버(200)로부터 수신된 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 이용하여 수정 데이터를 생성하는 과정을 설명하기로 한다.Hereinafter, a process in which the cloud server 100 generates correction data using at least one of voice data and text data received from the customer server 200 will be described.

클라우드 서버(100)가 미리 생성된 데이터베이스를 기초로 고객사 서버(200)로부터 수신된 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 수정하여 수정 데이터를 생성하는 과정을 설명하기로 한다.A process of generating corrected data by correcting at least one of voice data and text data received from the customer company server 200 based on a pre-generated database by the cloud server 100 will be described.

일 실시예에서, 클라우드 서버(100)는 데이터베이스를 기초로 고객사 서버(200)로부터 수신된 텍스트 데이터 상에 텍스트 키워드가 존재하는지 여부를 확인한다.In one embodiment, the cloud server 100 checks whether a text keyword exists in the text data received from the customer company server 200 based on the database.

만일, 클라우드 서버(100)는 데이터베이스를 기초로 고객사 서버(200)로부터 수신된 텍스트 데이터 상에 텍스트 키워드가 존재하면, 데이터베이스에서 텍스트 키워드에 해당하는 참조 데이터를 추출한 후 참조 데이터를 이용하여 텍스트 데이터를 수정하여 수정 데이터를 생성할 수 있다.If a text keyword exists in the text data received from the client company server 200 based on the database, the cloud server 100 extracts reference data corresponding to the text keyword from the database and converts the text data using the reference data. Modifications can be made to create modified data.

예를 들어, 클라우드 서버(100)는 고객사 서버(200)로부터 수신된 텍스트 데이터가“시울에서는 무엇을 하나요?”인 경우, 데이터베이스에서 텍스트 키워드“시울”에 해당하는 참조 데이터 “서울”을 기초로 텍스트 데이터를 수정하여 수정 데이터 “서울에서는 무엇을 하나요?”를 생성할 수 있다.For example, if the text data received from the client company server 200 is "What do you do in Seoul?", the cloud server 100, based on the reference data "Seoul" corresponding to the text keyword "Seoul" in the database The text data can be corrected to generate the corrected data “What do you do in Seoul?”

다른 일 실시예에서, 클라우드 서버(100)는 데이터베이스를 기초로 고객사 서버(200)로부터 수신된 음성 데이터상에 음성 키워드가 존재하는지 여부를 확인한다.In another embodiment, the cloud server 100 checks whether a voice keyword exists in the voice data received from the customer company server 200 based on the database.

만일, 클라우드 서버(100)는 음성 데이터 상에 음성 키워드가 존재하면, 데이터베이스에서 음성 키워드에 해당하는 참조 데이터를 추출한 후 참조 데이터를 기초로 텍스트 데이터를 수정하여 수정 데이터를 생성할 수 있다.If there is a voice keyword in the voice data, the cloud server 100 may extract reference data corresponding to the voice keyword from the database and modify text data based on the reference data to generate corrected data.

예를 들어, 클라우드 서버(100)는 고객사 서버(200)로부터 수신된 음성 데이터가 “소오울은 말이지?”인 경우, 데이터베이스에서 음성 키워드 “소오울”에 해당하는 참조 데이터 “서울”을 기초로 텍스트 데이터를 수정하여 수정 데이터 “서울은 말이지?”를 생성할 수 있다.For example, when the voice data received from the client company server 200 is "Soul?", the cloud server 100 based on reference data "Seoul" corresponding to the voice keyword "Soul" in the database. By modifying the text data, the modified data “Seoul?” can be generated.

상기의 실시예에서, 클라우드 서버(100)는 고객사 서버(200)로부터 수신된 음성 데이터 상에 데이터베이스에 미리 저장된 텍스트 키워드 또는 음성 키워드가 존재하지 않는 경우, 데이터베이스를 참조로 음성 데이터 또는 텍스트 데이터 상에 유사 키워드가 존재하는지 여부를 확인한다.In the above embodiment, the cloud server 100, when there is no text keyword or voice keyword pre-stored in the database on the voice data received from the customer server 200, on the voice data or text data with reference to the database Check whether similar keywords exist.

예를 들어, 클라우드 서버(100)는 고객사 서버(200)로부터 수신된 음성 데이터가 “시우우우울은 어떻게 가나요?”이고 데이터베이스에 미리 저장된 음성 키워드가 존재하지 않으면, 데이터베이스에서 음성 키워드 “시울”을 유사 키워드라고 판단한다.For example, if the voice data received from the client company server 200 is “how is Siwoo woo wooul going?” and there is no pre-stored voice keyword in the database, the cloud server 100 outputs the voice keyword “Siwool” from the database. is judged as a similar keyword.

만일, 클라우드 서버(100)는 데이터베이스를 참조로 음성 데이터 또는 텍스트 데이터 상에 유사 키워드가 존재하면, 유사 키워드를 이용하여 텍스트 데이터를 수정한 후 수정 데이터를 생성한다.If a similar keyword exists in the voice data or text data with reference to the database, the cloud server 100 corrects the text data using the similar keyword and then generates correction data.

그런 다음, 클라우드 서버(100)는 음성 데이터 또는 텍스트 데이터 상에서 유사 키워드와 매칭되는 데이터를 이용하여 데이터베이스를 갱신한다.Then, the cloud server 100 updates the database using data matched with similar keywords on voice data or text data.

예를 들어, 클라우드 서버(100)는 고객사 서버(200)로부터 수신된 음성 데이터를 기초로 생성된 텍스트 데이터가 “시우우우울은 어떻게 가나요?”이고 유사 키워드가 “시울”인 경우, 유사 키워드 “시울”과 매칭되는 텍스트 데이터 “시우우우울”을 이용하여 데이터베이스를 갱신한다.For example, the cloud server 100 generates a similar keyword when the text data generated based on the voice data received from the customer server 200 is “how is Siwoo woo wooul going?” and the similar keyword is “Siwool”. The database is updated using the text data “Siwoouuul” that matches “siwool”.

따라서, 원래의 데이터베이스에 음성 키워드“시울, 소울, 시이울, 소오울”및 참조 데이터“서울”이 저장되어 있는 경우, 음성 키워드 “시우우우울, 시울, 소울, 시이울, 소오울”및 참조 데이터“서울”로 데이터베이스가 갱신된다.Therefore, if the original database stores the voice keyword "Siwool, Soul, Sioul, Soul" and the reference data "Seoul", the voice keyword "Seoul, Soul, Sioul, Soul, Sioul, Soul" and reference data The database is updated with the data “Seoul”.

상기와 같이, 클라우드 서버(100)는 사용자에 의한 음성 오류 신고에 따라 고객사 서버(200)로부터 음성 데이터가 수집될 때마다 데이터베이스를 갱신함으로써 수정 데이터를 생성할 때 좀더 정확한 데이터를 생성할 수 있다.As described above, the cloud server 100 may generate more accurate data when generating correction data by updating the database whenever voice data is collected from the customer server 200 according to a voice error report by the user.

고객사 서버(200)는 사용자 단말(300) 또는 클라우드 서버(100)로부터 음성 데이터를 수신하면, 음성 데이터를 텍스트 데이터로 변환한 후 음성 데이터 및 텍스트 데이터를 저장한다. 이때, 텍스트 데이터는 음성 데이터를 기초로 생성된 대화 내용, 음성 데이터의 재생 시간 등을 포함한다.When receiving voice data from the user terminal 300 or the cloud server 100, the customer company server 200 converts the voice data into text data and then stores the voice data and text data. In this case, the text data includes conversation contents generated based on the voice data, reproduction time of the voice data, and the like.

또한, 고객사 서버(200)는 사용자의 요청에 따라 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 사용자 단말(300)에 제공한다. 이때, 고객사 서버(200)는 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 표시할 때 옵션 기능을 추가시켜 표시한다.In addition, the client company server 200 provides at least one of voice data and text data to the user terminal 300 according to a user's request. At this time, the client company server 200 adds and displays an optional function when displaying at least one of voice data and text data.

일 실시예에서, 고객사 서버(200)는 음성 데이터를 기초로 변환된 텍스트 데이터 상에 사용자가 미리 설정한 키워드가 존재하면, 키워드가 포함된 텍스트 데이터를 디스플레이 모듈을 통해 표시할 수 있다.In one embodiment, the customer server 200 may display the text data including the keyword through the display module, if a keyword previously set by the user exists in the text data converted based on the voice data.

다른 일 실시예에서, 고객사 서버(200)는 음성 데이터를 기초로 변환된 텍스트 데이터 상에 사용자가 미리 설정한 키워드가 존재하면, 상기 키워드가 포함된 텍스트 데이터를 하이라이트 처리할 수 있다. 여기서, 하이라이트 처리는 볼드, 밑줄, 형광펜 효과 등의 시각적으로 부각시키는 효과 일 수 있다.In another embodiment, the client company server 200 may highlight the text data including the keyword if a keyword preset by the user exists in the text data converted based on the voice data. Here, the highlight process may be a visually prominent effect such as bold, underline, or highlighter effect.

또 다른 일 실시예에서, 고객사 서버(200)는 음성 데이터 상에 사용자가 미리 설정한 키워드가 존재하면, 키워드가 포함된 음성 데이터를 하이라이트 처리할 수 있다. 여기에서, 하이라이트 처리는 비프음, 노이즈, 음성 변조 등의 청각적으로 부각시키는 효과일 수 있다. 이는 녹취된 통화 내용 중 이름이나 전화번호, 주민등록번호 등의 개인정보가 포함되는 경우, 해당 텍스트를 변조하는 역할을 한다.In another embodiment, the client company server 200 may highlight the voice data including the keyword if a keyword previously set by the user exists in the voice data. Here, the highlight processing may be an effect that audibly highlights a beep sound, noise, voice modulation, or the like. This plays the role of falsifying the text when personal information such as name, phone number, or resident registration number is included among recorded conversations.

고객사 서버(200)는 사용자 단말(300)로부터 변환 오류 신호를 수신하면, 미리 저장된 데이터 중 변환 오류 신호에 해당하는 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 클라우드 서버(100)에 제공한다.When receiving the conversion error signal from the user terminal 300, the customer server 200 provides at least one of voice data and text data corresponding to the conversion error signal among pre-stored data to the cloud server 100.

이와 같은 이유는, 사용자에 의한 음성 오류 신고에 따라 음성 오류에 해당하는 음성 데이터를 클라우드 서버(100)에 제공함으로써, 클라우드 서버(100)로 하여금 텍스트 데이터를 수정하여 새로운 음성 데이터를 생성할 수 있도록 하기 위해서이다.The reason for this is to provide voice data corresponding to a voice error to the cloud server 100 according to a voice error report by a user so that the cloud server 100 can modify text data and generate new voice data. It is to do.

사용자 단말(300)은 음성 데이터를 녹취하여 상기 고객사 서버에 제공한다.The user terminal 300 records voice data and provides it to the customer server.

사용자 단말(300)은 고객사 서버(200)에 접속하여 텍스트 키워드를 이용하여 음성 데이터를 검색한 후 고객사서버(200)로부터 텍스트 키워드에 해당하는 음성 데이터를 수신할 수 있다.The user terminal 300 may connect to the client company server 200, search for voice data using a text keyword, and then receive voice data corresponding to the text keyword from the client company server 200.

이때, 사용자 단말(300)은 고객사 서버(200)로부터 텍스트 키워드에 해당하는 음성 데이터 및 텍스트 데이터를 수신하고, 변환 오류 확인 시 변환 오류 신호를 상기 고객사 서버(200)에 제공한다.At this time, the user terminal 300 receives voice data and text data corresponding to the text keyword from the client company server 200 and provides a conversion error signal to the client company server 200 when a conversion error is confirmed.

예를 들어, 녹취된 음성 신호는 “클라우드 기반의 음성 데이터를 텍스트로 변환하는 기술입니다.”이고, 음성데이터 매치에 의해 변환된 텍스트가 “큰나무 등기 반의 음성 데이터를 텍스쳐로 변경하는 기술입니다.”이면, 사용자는 신고 버튼을 눌러, 변환 오류 신호를 상기 고객사 서버(200)에 제공한다.For example, the recorded voice signal is “a technology that converts cloud-based voice data into text”, and the text converted by voice data match is “a technology that converts voice data of the big tree registration board into texture. ”, the user presses the report button to provide a conversion error signal to the customer server 200.

도 2는 본 발명에 따른 클라우드 기반의 음성 데이터 텍스트 변환 방법의 일 실시예를 설명하기 위한 흐름도이다.2 is a flowchart illustrating an embodiment of a cloud-based voice data-to-text conversion method according to the present invention.

도 2를 참조하면, 사용자 단말(300)은 음성 데이터를 녹취하여 고객사 서버(200)에 제공한다(단계 S210). 고객사 서버(200)는 음성 데이터를 텍스트 데이터로 변환한 후 음성 데이터 및 텍스트 데이터를 저장한다(단계S220). 고객사 서버(200)는 음성 데이터를 클라우드 서버(100)에 제공한다(단계 S230).Referring to FIG. 2 , the user terminal 300 records voice data and provides it to the customer server 200 (step S210). The customer company server 200 converts the voice data into text data and then stores the voice data and text data (step S220). The customer company server 200 provides voice data to the cloud server 100 (step S230).

사용자 단말(300)은 고객사 서버(200)에 접속하여 텍스트 키워드를 이용하여 음성 데이터를 검색한 후(단계S235) 고객사 서버(200)로부터 텍스트 키워드에 해당하는 음성 데이터 및 텍스트 데이터를 수신한다(단계S240).The user terminal 300 accesses the client company server 200, searches for voice data using a text keyword (step S235), and then receives voice data and text data corresponding to the text keyword from the client company server 200 (step S235). S240).

사용자 단말(300)은 변환 오류 발견 시 변환 오류 신호를 상기 고객사 서버(200)에 제공한다(단계 S250). 고객사 서버(200)는 변환 오류 신호에 해당하는 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 상기 클라우드 서버(100)에 제공한다(단계 S260).When a conversion error is detected, the user terminal 300 provides a conversion error signal to the customer server 200 (step S250). The customer company server 200 provides at least one of voice data and text data corresponding to the conversion error signal to the cloud server 100 (step S260).

클라우드 서버(100)는 미리 생성된 데이터베이스를 기초로 상기 음성 데이터 및 상기 텍스트 데이터 중 적어도 하나의 데이터를 수정하여 수정 데이터를 생성한다(단계 S270). 클라우드 서버(100)는 수정 데이터를 고객사 서버에 제공한다(단계 S280).The cloud server 100 generates corrected data by correcting at least one of the voice data and the text data based on a pre-generated database (step S270). The cloud server 100 provides the correction data to the customer company server (step S280).

도 3은 본 발명에 따른 클라우드 기반의 음성 데이터 텍스트 변환 방법의 다른 일 실시예를 설명하기 위한 흐름도이다.3 is a flowchart for explaining another embodiment of a cloud-based voice data-to-text conversion method according to the present invention.

도 3을 참조하면, 클라우드 서버(100)는 단어 사전 데이터베이스를 이용하여 각각의 단어를 서로 다른 높낮이, 길이, 억양 및 발음으로 구현하여 음성 키워드를 생성한다(단계 S310). 클라우드 서버(100)는 음성 키워드를 기초로 텍스트 키워드를 생성한다(단계 S320).Referring to FIG. 3 , the cloud server 100 generates voice keywords by implementing each word with different pitches, lengths, intonations, and pronunciations using a word dictionary database (step S310). The cloud server 100 generates text keywords based on voice keywords (step S320).

클라우드 서버(100)는 텍스트 키워드 및 해당 단어를 참조 데이터로서 매칭시켜 저장하여 데이터베이스를 생성한다(단계 S330). 클라우드 서버(100)는 단어를 표준 음성으로 변환하여 생성한 음성 키워드 및 해당 단어를 참조 데이터로서 매칭시켜 저장하여 데이터베이스를 생성한다.(단계 S340).The cloud server 100 creates a database by matching and storing text keywords and corresponding words as reference data (step S330). The cloud server 100 creates a database by matching and storing a voice keyword generated by converting a word into a standard voice and the corresponding word as reference data (step S340).

이와 같은 과정을 통해 데이터베이스를 생성하는 이유는, 동일한 단어라도 발화하는 사용자마다 서로 다른 높낮이, 길이, 억양 및 발음으로 다른 음성으로 발화될 수 있기 때문이다.The reason why the database is created through such a process is that even the same word can be uttered in different voices with different pitches, lengths, intonations, and pronunciations for each uttering user.

도 4는 본 발명에 따른 클라우드 기반의 음성 데이터 텍스트 변환 방법의 또 다른 일 실시예를 설명하기 위한 흐름도이다.4 is a flowchart illustrating another embodiment of a cloud-based voice data-to-text conversion method according to the present invention.

도 4를 참조하면, 클라우드 서버(100)는 데이터베이스를 기초로 고객사 서버(200)로부터 수신된 텍스트 데이터상에 텍스트 키워드가 존재하는지 여부를 확인한다(단계 S410).Referring to FIG. 4 , the cloud server 100 checks whether a text keyword exists in the text data received from the customer company server 200 based on the database (step S410).

클라우드 서버(100)는 데이터베이스를 기초로 고객사 서버(200)로부터 수신된 텍스트 데이터 상에 텍스트 키워드가 존재하면(단계 S420), 데이터베이스에서 텍스트 키워드에 해당하는 참조 데이터를 추출한다(단계 S430).The cloud server 100 extracts reference data corresponding to the text keyword from the database when a text keyword exists in the text data received from the customer server 200 based on the database (step S420).

클라우드 서버(100)는 참조 데이터를 이용하여 텍스트 데이터를 수정하여 수정 데이터를 생성할 수 있다(단계S440).The cloud server 100 may generate corrected data by correcting the text data using the reference data (step S440).

예를 들어, 클라우드 서버(100)는 고객사 서버(200)로부터 수신된 텍스트 데이터가“시울에서는 무엇을 하나요?”인 경우, 데이터베이스에서 텍스트 키워드“시울”에 해당하는 참조 데이터 “서울”을 기초로 텍스트 데이터를 수정하여 수정 데이터 “서울에서는 무엇을 하나요?”를 생성할 수 있다.For example, if the text data received from the client company server 200 is "What do you do in Seoul?", the cloud server 100, based on the reference data "Seoul" corresponding to the text keyword "Seoul" in the database The text data can be corrected to generate the corrected data “What do you do in Seoul?”

도 5는 본 발명에 따른 클라우드 기반의 음성 데이터 텍스트 변환 방법의 또 다른 일 실시예를 설명하기 위한 흐름도이다.5 is a flowchart for explaining another embodiment of a cloud-based voice data-to-text conversion method according to the present invention.

도 5를 참조하면, 클라우드 서버(100)는 데이터베이스를 기초로 고객사 서버(200)로부터 수신된 음성 데이터 상에 음성 키워드가 존재하는지 여부를 확인한다(단계 S510).Referring to FIG. 5 , the cloud server 100 checks whether a voice keyword exists in the voice data received from the customer company server 200 based on the database (step S510).

클라우드 서버(100)는 데이터베이스를 기초로 고객사 서버(200)로부터 수신된 음성 데이터 상에 음성 키워드가 존재하면(단계 S520), 데이터베이스에서 음성 키워드에 해당하는 참조 데이터를 추출한다(단계 S530).The cloud server 100 extracts reference data corresponding to the voice keyword from the database when a voice keyword exists in the voice data received from the customer company server 200 (step S520) based on the database (step S530).

클라우드 서버(100)는 참조 데이터를 이용하여 텍스트 데이터를 수정하여 수정 데이터를 생성할 수 있다(단계S540).The cloud server 100 may generate corrected data by correcting the text data using the reference data (step S540).

예를 들어, 클라우드 서버(100)는 고객사 서버(200)로부터 수신된 음성 데이터가 “시우우우울은 어떻게가나요?”이고 데이터베이스에 미리 저장된 음성 키워드가 존재하지 않으면, 데이터베이스에서 음성 키워드 “시울”을 유사 키워드라고 판단한다.For example, if the voice data received from the client company server 200 is “how is Siwoo woo wooul?” and there is no pre-stored voice keyword in the database, the cloud server 100 determines the voice keyword “Siwool” in the database. is judged as a similar keyword.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.As described above, the present invention has been described by the limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art in the field to which the present invention belongs can make various modifications and transformation is possible Therefore, the spirit of the present invention should be grasped only by the claims described below, and all equivalent or equivalent modifications thereof will be said to belong to the scope of the spirit of the present invention.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.As described above, the present invention has been described by the limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art in the field to which the present invention belongs can make various modifications and transformation is possible Therefore, the spirit of the present invention should be grasped only by the claims described below, and all equivalent or equivalent modifications thereof will be said to belong to the scope of the spirit of the present invention.

한편 본 명세서에 개시된 기술에 관한 설명은 단지 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 개시된 기술의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 개시된 기술의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 개시된 기술에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.On the other hand, since the description of the technology disclosed in this specification is merely an embodiment for structural or functional description, the scope of rights of the disclosed technology should not be construed as being limited by the embodiment described in the text. That is, since the embodiment can be changed in various ways and can have various forms, it should be understood that the scope of rights of the disclosed technology includes equivalents capable of realizing the technical idea. In addition, since the object or effect presented in the disclosed technology does not mean that a specific embodiment should include all of them or only such effects, the scope of rights of the disclosed technology should not be construed as being limited thereto.

또한 본 발명에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다. “제1”, “제2” 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소로 제1 구성요소로 명명될 수 있다.In addition, the meaning of terms described in the present invention should be understood as follows. Terms such as “first” and “second” are used to distinguish one component from another, and the scope of rights should not be limited by these terms. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element.

나아가 어떤 구성요소가 다른 구성요소에 “연결되어”있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어”있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 “~사이에”와 “~사이에” 또는 “~에 이웃하는”과 “~에 직접 이웃하는” 등도 마찬가지로 해석되어야 한다.Furthermore, it should be understood that when a component is referred to as being “connected” to another component, it may be directly connected to the other component, but other components may exist in the middle. On the other hand, when an element is referred to as being “directly connected” to another element, it should be understood that no intervening element exists. Meanwhile, other expressions describing the relationship between components, such as “between” and “between” or “adjacent to” and “directly adjacent to” should be interpreted similarly.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, “포함하다”또는 “가지다” 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions should be understood to include plural expressions unless the context clearly dictates otherwise, and terms such as “comprise” or “have” refer to the described feature, number, step, operation, component, part, or It should be understood that it is intended to indicate that a combination exists, and does not preclude the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.

100: 클라우드 서버 200: 고객사 서버
300: 사용자 단말
100: cloud server 200: customer company server
300: user terminal

Claims (1)

음성 데이터의 녹취가 가능한 사용자 단말(300);
상기 사용자 단말(300)에 연결되어 녹취된 음성 데이터 및 상기 음성 데이터를 텍스트로 변환시킨 텍스트 데이터를 저장하는 고객사 서버(200);와
상기 고객사 서버(200)에 연결되며 음성 오류 신고가 접수되는 경우 고객사 서버(200)로부터 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 전달받아, 참조 데이터가 저장된 데이터베이스(50)를 기초로 상기 음성 데이터 및 상기 텍스트 데이터 중 적어도 하나의 데이터를 수정한 수정 데이터를 생성하여 고객사 서버(200)에 제공하는 클라우드 서버(100)를 포함하여 구성되는 음성 변환 Text Data에서 의미 있는 키워드 추출 방법과 활용에 있어서,
상기 클라우드 서버(100)는 단어 사전 데이터베이스를 이용하여 각각의 단어를 서로 다른 높낮이, 길이, 억양 및 발음으로 구현하여 음성 키워드와 텍스트 키워드를 생성하고, 상기 음성 키워드 및 텍스트 키워드 각각의 단어를 데이터베이스(50)에 참조 데이터로 매칭시켜 음성 또는 텍스트로 형태로 저장하고,
상기 고객사 서버(200)는 사용자 단말(300) 또는 클라우드 서버(100)로부터 음성 데이터가 수신되면 상기 음성 데이터를 기초로 생성되는 대화 내용과 음성 데이터의 재생 시간을 텍스트 데이터로 변환하고 음성 데이터에 매칭시켜 저장하되, 음성 데이터를 기초로 변환된 텍스트 데이터 상에 사용자가 미리 설정한 키워드가 존재하는 경우 상기 키워드를 하이라이트 처리하도록 구성되고,
고객사 서버(200)로부터 수신된 텍스트 데이터 상에 텍스트 키워드가 존재하면, 데이터베이스(50)에서 텍스트 키워드에 해당하는 참조 데이터를 추출한 후 텍스트 데이터를 수정하도록 구성되는 것을 특징으로 하는 음성 변환 Text Data에서 의미 있는 키워드 추출 방법과 활용.
A user terminal 300 capable of recording voice data;
A customer server 200 that is connected to the user terminal 300 and stores recorded voice data and text data obtained by converting the voice data into text;
Connected to the customer server 200 and receiving at least one of voice data and text data from the customer server 200 when a voice error report is received, based on the database 50 in which reference data is stored, the voice data And a cloud server 100 that generates correction data by correcting at least one of the text data and provides it to the customer server 200. In the method and utilization of extracting meaningful keywords from speech conversion text data,
The cloud server 100 generates voice keywords and text keywords by implementing each word with different pitches, lengths, accents, and pronunciations using a word dictionary database, and stores each word of the voice keyword and text keyword in a database ( 50) is matched with reference data and stored in the form of voice or text,
When voice data is received from the user terminal 300 or the cloud server 100, the customer server 200 converts the conversation content and the playback time of the voice data generated based on the voice data into text data and matches the voice data. and store it, but if there is a keyword preset by the user on the text data converted based on the voice data, the keyword is configured to be highlighted,
If there is a text keyword in the text data received from the customer server 200, it means in the speech conversion text data, characterized in that it is configured to modify the text data after extracting reference data corresponding to the text keyword from the database 50 How to extract keywords and how to use them.
KR1020210100234A 2021-07-29 2021-07-29 Method and application of meaningful keyword extraction from speech conversion text data KR20230018260A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210100234A KR20230018260A (en) 2021-07-29 2021-07-29 Method and application of meaningful keyword extraction from speech conversion text data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210100234A KR20230018260A (en) 2021-07-29 2021-07-29 Method and application of meaningful keyword extraction from speech conversion text data

Publications (1)

Publication Number Publication Date
KR20230018260A true KR20230018260A (en) 2023-02-07

Family

ID=85221658

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210100234A KR20230018260A (en) 2021-07-29 2021-07-29 Method and application of meaningful keyword extraction from speech conversion text data

Country Status (1)

Country Link
KR (1) KR20230018260A (en)

Similar Documents

Publication Publication Date Title
KR101211796B1 (en) Apparatus for foreign language learning and method for providing foreign language learning service
US8290775B2 (en) Pronunciation correction of text-to-speech systems between different spoken languages
JP4466666B2 (en) Minutes creation method, apparatus and program thereof
US8027836B2 (en) Phonetic decoding and concatentive speech synthesis
JP6819988B2 (en) Speech interaction device, server device, speech interaction method, speech processing method and program
US8712779B2 (en) Information retrieval system, information retrieval method, and information retrieval program
WO2020145439A1 (en) Emotion information-based voice synthesis method and device
US9349367B2 (en) Records disambiguation in a multimodal application operating on a multimodal device
US10325599B1 (en) Message response routing
US20060235694A1 (en) Integrating conversational speech into Web browsers
US20100217591A1 (en) Vowel recognition system and method in speech to text applictions
US20130253932A1 (en) Conversation supporting device, conversation supporting method and conversation supporting program
JPWO2007108500A1 (en) Speech recognition system, speech recognition method, and speech recognition program
JP2014106523A (en) Voice input corresponding device and voice input corresponding program
US20060069563A1 (en) Constrained mixed-initiative in a voice-activated command system
US20190341059A1 (en) Automatically identifying speakers in real-time through media processing with dialog understanding supported by ai techniques
JP2023503718A (en) voice recognition
JP5160594B2 (en) Speech recognition apparatus and speech recognition method
JP2013050742A (en) Speech recognition device and speech recognition method
KR20230018260A (en) Method and application of meaningful keyword extraction from speech conversion text data
KR102267579B1 (en) System of cloud-based conversion speech source to text and method performing the same
JP2003162524A (en) Language processor
JP2008022493A (en) Reception support system and its program
KR102610360B1 (en) Method for providing labeling for spoken voices, and apparatus implementing the same method
JP3526549B2 (en) Speech recognition device, method and recording medium