KR20230018260A - Method and application of meaningful keyword extraction from speech conversion text data - Google Patents
Method and application of meaningful keyword extraction from speech conversion text data Download PDFInfo
- Publication number
- KR20230018260A KR20230018260A KR1020210100234A KR20210100234A KR20230018260A KR 20230018260 A KR20230018260 A KR 20230018260A KR 1020210100234 A KR1020210100234 A KR 1020210100234A KR 20210100234 A KR20210100234 A KR 20210100234A KR 20230018260 A KR20230018260 A KR 20230018260A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- text
- voice
- keyword
- voice data
- Prior art date
Links
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 45
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000000605 extraction Methods 0.000 title 1
- 238000012937 correction Methods 0.000 claims description 7
- 239000011295 pitch Substances 0.000 claims description 7
- 238000005516 engineering process Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 241000422846 Sequoiadendron giganteum Species 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/3332—Query translation
- G06F16/3334—Selection or weighting of terms from queries, including natural language queries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/103—Formatting, i.e. changing of presentation of documents
- G06F40/109—Font handling; Temporal or kinetic typography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
본 발명은 음성 변환 Text Data에서 의미 있는 키워드 추출 방법과 활용에 관한 것으로서, 더욱 상세하게는 입력받은 음성 데이터를 분석하여 텍스트로 변환하여 키워드를 추출하는 방법과 활용에 관한 것이다.The present invention relates to a method for extracting meaningful keywords from voice conversion text data and its utilization, and more particularly, to a method and utilization of extracting keywords by analyzing and converting input voice data into text.
일반적인 음성 데이터의 텍스트 변환(STT : Speech To Text) 기술은 녹취된 음성 또는 실시간으로 재생되는 음성 데이터가 입력되면, 상기 입력되는 음성 데이터의 발음, 억양, 길이를 분석하여, 단어와 문장을 생성하는 기술을 말한다.Speech To Text (STT) technology of general voice data generates words and sentences by analyzing the pronunciation, intonation, and length of the input voice data when recorded voice or voice data reproduced in real time is input. say technology.
그러나 음성 데이터의 경우, 말하는 사람의 발음, 억양이 다르며, 말하는 사람의 주변 환경에 따라 음성에 잡음이 끼어 정확한 발음을 인식하고 분석하기까지 많은 어려움이 따른다.However, in the case of voice data, the speaker's pronunciation and accent are different, and noise is added to the voice depending on the speaker's surrounding environment, resulting in many difficulties in recognizing and analyzing accurate pronunciation.
이러한 음성 데이터의 인식율을 높이기 위해서는 다양한 발음, 억양에 대한 수많은 샘플 데이터가 저장된 데이터베이스가 필요하며, 잘못 인식된 음성 데이터에 대해 피드백 가능한 교정 시스템이 필요하다.In order to increase the recognition rate of such voice data, a database in which numerous sample data for various pronunciations and intonations are stored is required, and a correction system capable of providing feedback on erroneously recognized voice data is required.
한편, 이러한 STT는 전화를 이용한 콜센서 또는 설문조사에 적용되어 많은 효과를 볼 수 있지만, 데이터베이스의 초기 구축비용과, 주기적인 음성 데이터의 업데이트에 많은 비용과 기술력이 필요하여, 널리 사용되지 못하고 있는 것이 실정이다.On the other hand, although this STT can be applied to a call sensor or survey using a telephone and has many effects, it is not widely used due to the initial construction cost of the database and the high cost and technology required for periodic updating of voice data. is the situation.
따라서, 이러한 문제점을 해결할 수 있는 새로운 방법이 필요하게 되었다.Therefore, there is a need for a new method capable of solving these problems.
본 발명은 입력받은 음성 데이터를 분석하여 텍스트로 변환하여 표시 가능한 음성 변환 Text Data에서 의미 있는 키워드 추출 방법과 활용을 제공하는 것을 목적으로 한다.An object of the present invention is to provide a method for extracting a meaningful keyword from voice conversion text data that can be displayed by analyzing input voice data and converting it into text and using the same.
또한, 본 발명은 클라우드 기반으로 동작되어 데이터베이스의 사용 및 음성 데이터 업데이트가 용이한 음성 변환 Text Data에서 의미 있는 키워드 추출 방법과 활용을 제공하는 것을 목적으로 한다.In addition, an object of the present invention is to provide a method for extracting meaningful keywords from voice conversion text data, which operates on a cloud basis and facilitates database use and voice data update.
또한, 본 발명은 음성 데이터 및 텍스트 데이터의 대한 변환 오류 신호에 따라 미리 구축된 데이터베이스를 기초로 텍스트 데이터를 수정하여 다시 제공함으로써 데이터의 정확성을 높일 수 있도록 하는 음성 변환 Text Data에서 의미 있는 키워드 추출 방법과 활용을 제공하는 것을 목적으로 한다.In addition, the present invention is a method for extracting meaningful keywords from voice conversion text data that improves the accuracy of the data by correcting and reproviding text data based on a pre-constructed database according to conversion error signals for voice data and text data. It aims to provide and utilize.
본 발명의 바람직한 일실시예에 따르면, 사용자 단말, 고객사 서버 및 클라우드 서버를 포함하는 클라우드 기반의 음성 데이터 텍스트 변환 시스템에 있어서, 음성 데이터를 녹취하여 상기 고객사 서버에 제공하고, 상기 고객사 서버로부터 음성 데이터 및 텍스트 데이터를 수신하고, 변환 오류 발견 시 변환 오류 신호를 상기 고객사 서버에 제공하는 사용자 단말; 상기 사용자 단말 또는 상기 클라우드 서버로부터 음성 데이터를 수신하면, 상기 음성 데이터를 변환하여 텍스트 데이터를 생성한 후 상기 음성 데이터 및 상기 텍스트 데이터를 매칭시켜 저장하고, 상기 사용자 단말로부터 변환 오류 신호를 수신하면, 상기 변환 오류 신호에 해당하는 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 상기 클라우드 서버에 제공하고, 상기 변환 오류 신호에 대한 응답으로 수정 데이터를 수신하여 저장하는 고객사 서버; 및 사용자에 의한 변환 오류 신호에 따라 상기 고객사 서버로부터 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 수신하고, 미리 생성된 데이터베이스를 기초로 상기 음성 데이터 및 상기 텍스트 데이터 중 적어도 하나의 데이터를 수정하여 수정 데이터를 생성하고, 상기 수정 데이터를 상기 고객사 서버에 제공하는 클라우드 서버를 포함하는 것을 특징으로 한다.According to a preferred embodiment of the present invention, in a cloud-based voice data-to-text conversion system including a user terminal, a customer server, and a cloud server, voice data is recorded and provided to the customer server, and voice data is provided from the customer server. and a user terminal receiving text data and providing a conversion error signal to the customer server when a conversion error is detected. When voice data is received from the user terminal or the cloud server, text data is generated by converting the voice data, the voice data and the text data are matched and stored, and a conversion error signal is received from the user terminal, a customer server that provides at least one of voice data and text data corresponding to the conversion error signal to the cloud server, and receives and stores corrected data in response to the conversion error signal; and receiving at least one of voice data and text data from the client company server according to a conversion error signal by the user, and modifying and correcting at least one of the voice data and the text data based on a pre-generated database. It is characterized in that it includes a cloud server that generates data and provides the correction data to the customer company server.
본 발명의 다른 일실시예에 따르면, 상기 고객사 서버는 상기 음성 데이터를 기초로 변환된 텍스트 데이터 상에 사용자가 미리 설정한 키워드가 존재하면, 키워드가 포함된 텍스트 데이터를 디스플레이 모듈을 통해 표시할 수 있는 것을 특징으로 한다.According to another embodiment of the present invention, the customer server may display text data including the keyword through the display module, if a keyword previously set by the user exists in the text data converted based on the voice data. It is characterized by having
본 발명의 다른 일실시예에 따르면, 상기 고객사 서버는 상기 음성 데이터를 기초로 변환된 텍스트 데이터 상에 사용자가 미리 설정한 키워드가 존재하면 상기 키워드가 포함된 텍스트 데이터를 하이라이트 처리하고, 상기 음성 데이터 상에 사용자가 미리 설정한 키워드가 존재하면, 키워드가 포함된 음성 데이터를 하이라이트 처리하는 것을 특징으로 한다.According to another embodiment of the present invention, if a keyword preset by a user exists in the text data converted based on the voice data, the customer server highlights text data including the keyword, and the voice data If there is a keyword set in advance by the user in the image, voice data including the keyword is highlighted.
본 발명의 다른 일실시예에 따르면, 상기 클라우드 서버는 단어 사전 데이터베이스를 이용하여 각각의 단어를 서로 다른 높낮이, 길이, 억양 및 발음으로 구현하여 음성 키워드를 생성한 후 상기 음성 키워드를 기초로 텍스트 키워드를 생성하고, 상기 음성 키워드 및 상기 텍스트 키워드 각각을 해당 단어를 참조 데이터로서 매칭시켜 저장하여 데이터베이스를 생성하는 것을 특징으로 한다.According to another embodiment of the present invention, the cloud server generates voice keywords by implementing each word with different pitches, lengths, intonations, and pronunciations using a word dictionary database, and then generates text keywords based on the voice keywords. and generating a database by matching each of the voice keyword and the text keyword with a corresponding word as reference data and storing them.
본 발명의 또 다른 일실시예에 따르면, 상기 클라우드 서버는 상기 데이터베이스를 기초로 고객사 서버로부터 수신된 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터 상에 상기 음성 키워드 또는 텍스트 키워드가 존재하는지 여부를 확인한 후 상기 확인 결과에 따라 상기 음성 키워드 또는 상기 텍스트 키워드에 해당하는 참조 데이터를 기초로 상기 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 수정하여 수정 데이터를 생성하는 것을 특징으로 한다.According to another embodiment of the present invention, the cloud server checks whether the voice keyword or text keyword exists on at least one of voice data and text data received from the customer server based on the database, and then According to the confirmation result, at least one of the voice data and text data is modified based on reference data corresponding to the voice keyword or the text keyword to generate modified data.
본 발명의 또 다른 일실시예에 따르면, 사용자 단말이 음성 데이터를 녹취하여 고객사 서버 또는 클라우드 서버에 제공하는 단계; 상기 고객사 서버 또는 클라우드 서버가 상기 음성 데이터를 텍스트 데이터로 변환한 후 음성 데이터 및 텍스트 데이터를 저장하는 단계; 상기 사용자 단말이 상기 고객사 서버에 접속하여 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 이용하는 과정에서 변환 오류 발견 시 변환 오류 신호를 상기 고객사 서버에 제공하는 단계; 상기 고객사 서버가 상기 변환 오류 신호를 수신하면, 상기 변환 오류 신호에 해당하는 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 상기 클라우드 서버에 제공하는 단계; 및 상기 클라우드 서버가 미리 생성된 데이터베이스를 기초로 상기 음성 데이터 및 상기 텍스트 데이터 중 적어도 하나의 데이터를 수정하여 수정 데이터를 생성한 후 상기 고객사 서버에 제공하는 단계를 포함하는 것을 특징으로 한다.According to another embodiment of the present invention, the user terminal recording the voice data and providing it to the customer company server or cloud server; converting the voice data into text data by the customer company server or the cloud server and then storing the voice data and text data; providing a conversion error signal to the customer server when a conversion error is detected in a process in which the user terminal accesses the customer server and uses at least one of voice data and text data; When the customer server receives the conversion error signal, providing at least one of voice data and text data corresponding to the conversion error signal to the cloud server; and generating modified data by modifying at least one of the voice data and the text data based on a previously generated database by the cloud server, and providing the corrected data to the customer company server.
본 발명의 또 다른 일실시예에 따르면, 상기 고객사 서버 또는 클라우드 서버가 상기 음성 데이터를 텍스트 데이터로 변환한 후 음성 데이터 및 텍스트 데이터를 저장하는 단계는 상기 고객사 서버가 상기 음성 데이터를 기초로 변환된 텍스트 데이터 상에 사용자가 미리 설정한 키워드가 존재하면, 키워드가 포함된 텍스트 데이터를 디스플레이 모듈을 통해 표시하는 단계를 포함하는 것을 특징으로 한다.According to another embodiment of the present invention, the step of storing the voice data and text data after the customer company server or the cloud server converts the voice data into text data includes the conversion of the customer company server based on the voice data. and displaying, through a display module, text data including the keyword if a keyword preset by a user exists on the text data.
본 발명의 또 다른 일실시예에 따르면, 상기 고객사 서버 또는 클라우드 서버가 상기 음성 데이터를 텍스트 데이터로 변환한 후 음성 데이터 및 텍스트 데이터를 저장하는 단계는 상기 고객사 서버가 상기 음성 데이터를 기초로 변환된 텍스트 데이터 상에 사용자가 미리 설정한 키워드가 존재하면 상기 키워드가 포함된 텍스트 데이터를 하이라이트 처리하는 단계; 및 상기 고객사 서버가 상기 음성 데이터 상에 사용자가 미리 설정한 키워드가 존재하면, 키워드가 포함된 음성 데이터를 하이라이트 처리하는 단계를 포함하는 것을 특징으로 한다.According to another embodiment of the present invention, the step of storing the voice data and text data after the customer company server or the cloud server converts the voice data into text data includes the conversion of the customer company server based on the voice data. highlighting text data including the keyword when a keyword preset by a user exists on the text data; and highlighting, by the client company server, the voice data including the keyword if a keyword preset by a user exists in the voice data.
본 발명의 또 다른 일실시예에 따르면, 상기 클라우드 서버가 단어 사전 데이터베이스를 이용하여 각각의 단어를 서로 다른 높낮이, 길이, 억양 및 발음으로 구현하여 음성 키워드를 생성한 후 상기 음성 키워드를 기초로 텍스트 키워드를 생성하는 단계; 및 상기 클라우드 서버가 상기 음성 키워드 및 상기 텍스트 키워드 각각을 해당 단어를 참조 데이터로서 매칭시켜 저장하여 데이터베이스를 생성하는 단계를 포함하는 것을 특징으로 한다.According to another embodiment of the present invention, the cloud server generates voice keywords by implementing each word with different pitches, lengths, intonations, and pronunciations using a word dictionary database, and then text text based on the voice keywords. generating keywords; and generating, by the cloud server, a database by matching and storing the voice keyword and the text keyword as reference data.
본 발명의 또 다른 일실시예에 따르면, 상기 음성 데이터 및 상기 텍스트 데이터 중 적어도 하나의 데이터를 수정하여 수정 데이터를 생성한 후 상기 고객사 서버에 제공하는 단계는 상기 클라우드 서버가 상기 데이터베이스를 기초로 고객사 서버로부터 수신된 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터 상에 상기 음성 키워드 또는 텍스트 키워드가 존재하는지 여부를 확인하는 단계; 및 상기 확인 결과에 따라 상기 음성 키워드 또는 상기 텍스트 키워드에 해당하는 참조 데이터를 기초로 상기 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 수정하여 수정 데이터를 생성하는 단계를 포함하는 것을 특징으로 한다.According to another embodiment of the present invention, the step of modifying at least one of the voice data and the text data to generate corrected data and providing the corrected data to the customer server is the step in which the cloud server determines the customer company based on the database. checking whether the voice keyword or the text keyword exists in at least one of voice data and text data received from a server; and generating modified data by modifying at least one of the voice data and text data based on reference data corresponding to the voice keyword or the text keyword according to a result of the confirmation.
한편 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 함으로써 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다.On the other hand, the present invention is not limited to the embodiments disclosed below and can be implemented in various different forms, but only the present embodiments make the disclosure of the present invention complete, so that common knowledge in the art to which the present invention belongs It is provided to fully inform the holder of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numbers designate like elements throughout the specification.
본 발명은 입력받은 음성 데이터를 분석하여 텍스트로 변환하여 표시 가능한 음성 변환 Text Data에서 의미 있는 키워드 추출 방법과 활용을 제공할 수 있다.The present invention can analyze input voice data, convert it into text, and provide a method and application for extracting meaningful keywords from displayable voice converted text data.
또한, 클라우드 기반으로 동작되어 데이터베이스의 사용 및 음성 데이터 업데이트가 용이한 음성 변환 Text Data에서 의미 있는 키워드 추출 방법과 활용을 제공할 수 있다.In addition, it is possible to provide a method for extracting meaningful keywords from text data converted into voices, which is operated based on the cloud, and which makes it easy to use the database and update the voice data.
또한, 음성 데이터 및 텍스트 데이터의 대한 변환 오류 신호에 따라 미리 구축된 데이터베이스를 기초로 텍스트 데이터를 수정하여 다시 제공함으로써 데이터의 정확성을 높일 수 있도록 하는 음성 변환 Text Data에서 의미 있는 키워드 추출 방법과 활용을 제공할 수 있다.In addition, a method and application of extracting meaningful keywords from voice conversion text data that enhances the accuracy of data by modifying and reproviding text data based on a pre-built database according to conversion error signals for voice data and text data. can provide
도 1은 본 발명의 일 실시예에 따른 클라우드 기반의 음성 데이터 텍스트 변환 시스템을 설명하기 위한 네트워크 구성도.1 is a network configuration diagram illustrating a cloud-based voice data-to-text conversion system according to an embodiment of the present invention.
이하에서는 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 클라우드 기반의 음성 데이터 텍스트 변환 시스템을 설명하기 위한 네트워크 구성도이고, 도 2는 본 발명에 따른 클라우드 기반의 음성 데이터 텍스트 변환 방법의 일 실시예를 설명하기 위한 도면이며, 도 3은 본 발명에 따른 클라우드 기반의 음성 데이터 텍스트 변환 방법의 다른 일 실시예를 설명하기 위한 도면이고, 도 4는 본 발명에 따른 클라우드 기반의 음성 데이터 텍스트 변환 방법의 또 다른 일 실시예를 설명하기 위한 도면이며, 도 5는 본 발명에 따른 클라우드 기반의 음성 데이터 텍스트 변환 방법의 또 다른 일 실시예를 설명하기 위한 도면이다.1 is a network configuration diagram for explaining a cloud-based voice data-to-text conversion system according to an embodiment of the present invention, and FIG. 2 is a diagram illustrating an embodiment of a cloud-based voice data-to-text conversion method according to the present invention. 3 is a diagram for explaining another embodiment of a cloud-based voice data-to-text conversion method according to the present invention, and FIG. 4 is another example of a cloud-based voice data-to-text conversion method according to the present invention. 5 is a diagram for explaining another embodiment of a cloud-based voice data-to-text conversion method according to the present invention.
도 1은 본 발명의 일 실시예에 따른 클라우드 기반의 음성 데이터 텍스트 변환 시스템을 설명하기 위한 네트워크 구성도이다.1 is a network configuration diagram illustrating a cloud-based voice data-to-text conversion system according to an embodiment of the present invention.
도 1을 참조하면, 클라우드 기반의 음성 데이터 텍스트 변환 시스템은 클라우드 서버(100), 고객사 서버(200)및 사용자 단말(300)을 포함한다.Referring to FIG. 1 , the cloud-based voice data-to-text conversion system includes a
클라우드 서버(100)는 고객사 서버(200)로부터 음성 데이터를 수신한 후 처리한다.The
일 실시예에서, 클라우드 서버(100)는 고객사 서버(200)로부터 음성 데이터를 수신하면, 음성 데이터를 저장한다.In one embodiment, when the
클라우드 서버(100)는 사용자에 의한 음성 오류 신고에 따라 고객사 서버(200)로부터 음성 데이터 및 음성 데이터를 기초로 생성된 텍스트 데이터 중 적어도 하나의 데이터를 수신하고, 미리 생성된 데이터베이스를 기초로 고객사 서버(200)로부터 수신된 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 수정하여 수정 데이터를 생성하고, 수정 데이터를 고객사 서버(200)에 제공한다.The
이를 위해, 클라우드 서버(100)는 키워드 별 참조 데이터가 저장되어 있는 데이터베이스를 포함하고 있다. 키워드는 음성 또는 텍스트일 수 있으며, 참조 데이터는 텍스트로 구현될 수 있다.To this end, the
예를 들어, 클라우드 서버(100)는 키워드가 음성으로 구현되고 참조 데이터가 텍스트로 구현된 데이터베이스를 포함하는 경우, 음성 키워드는 “시울, 소울, 소울, 시이울, 소오울” 등과 같은 음성으로 구현되고, 참조 데이터는 “서울”과 같은 텍스트로 구현될 수 있다.For example, when the
다른 예를 들어, 클라우드 서버(100)가 키워드가 텍스트로 구현되고 참조 데이터가 텍스트로 구현된 데이터베이스를 포함하는 경우, 텍스트 키워드는 “시울, 소울, 시이울, 소오울”과 같은 텍스트로 구현되고, 참조 데이터는 “서울” 등과 같은 텍스트로 구현될 수 있다.For another example, if the
상기와 같이, 클라우드 서버(100)는 단어 사전 데이터베이스를 이용하여 각각의 단어를 서로 다른 높낮이, 길이, 억양 및 발음으로 구현하여 음성 키워드를 생성한 후 상기 음성 키워드를 기초로 텍스트 키워드를 생성한다. 그런 다음, 클라우드 서버(100)는 음성 키워드 및 상기 텍스트 키워드 각각을 해당 단어를 참조 데이터로서 매칭시켜 저장하여 데이터베이스를 생성한다.As described above, the
즉, 클라우드 서버(100)는 단어가 텍스트인 경우, 텍스트 키워드 및 참조 데이터를 매칭시켜 저장하여 데이터베이스를 생성하고, 단어를 표준 음성으로 변환하여 생성한 음성 키워드 및 참조 데이터를 매칭시켜 저장하여 데이터베이스를 생성한다.That is, when the word is text, the
이와 같은 과정을 통해 데이터베이스를 생성하는 이유는, 동일한 단어라도 발화하는 사용자마다 서로 다른 높낮이, 길이, 억양 및 발음으로 다른 음성으로 발화될 수 있기 때문이다.The reason why the database is created through such a process is that even the same word can be uttered in different voices with different pitches, lengths, intonations, and pronunciations for each uttering user.
이하에서는, 클라우드 서버(100)가 고객사 서버(200)로부터 수신된 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 이용하여 수정 데이터를 생성하는 과정을 설명하기로 한다.Hereinafter, a process in which the
클라우드 서버(100)가 미리 생성된 데이터베이스를 기초로 고객사 서버(200)로부터 수신된 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 수정하여 수정 데이터를 생성하는 과정을 설명하기로 한다.A process of generating corrected data by correcting at least one of voice data and text data received from the
일 실시예에서, 클라우드 서버(100)는 데이터베이스를 기초로 고객사 서버(200)로부터 수신된 텍스트 데이터 상에 텍스트 키워드가 존재하는지 여부를 확인한다.In one embodiment, the
만일, 클라우드 서버(100)는 데이터베이스를 기초로 고객사 서버(200)로부터 수신된 텍스트 데이터 상에 텍스트 키워드가 존재하면, 데이터베이스에서 텍스트 키워드에 해당하는 참조 데이터를 추출한 후 참조 데이터를 이용하여 텍스트 데이터를 수정하여 수정 데이터를 생성할 수 있다.If a text keyword exists in the text data received from the
예를 들어, 클라우드 서버(100)는 고객사 서버(200)로부터 수신된 텍스트 데이터가“시울에서는 무엇을 하나요?”인 경우, 데이터베이스에서 텍스트 키워드“시울”에 해당하는 참조 데이터 “서울”을 기초로 텍스트 데이터를 수정하여 수정 데이터 “서울에서는 무엇을 하나요?”를 생성할 수 있다.For example, if the text data received from the
다른 일 실시예에서, 클라우드 서버(100)는 데이터베이스를 기초로 고객사 서버(200)로부터 수신된 음성 데이터상에 음성 키워드가 존재하는지 여부를 확인한다.In another embodiment, the
만일, 클라우드 서버(100)는 음성 데이터 상에 음성 키워드가 존재하면, 데이터베이스에서 음성 키워드에 해당하는 참조 데이터를 추출한 후 참조 데이터를 기초로 텍스트 데이터를 수정하여 수정 데이터를 생성할 수 있다.If there is a voice keyword in the voice data, the
예를 들어, 클라우드 서버(100)는 고객사 서버(200)로부터 수신된 음성 데이터가 “소오울은 말이지?”인 경우, 데이터베이스에서 음성 키워드 “소오울”에 해당하는 참조 데이터 “서울”을 기초로 텍스트 데이터를 수정하여 수정 데이터 “서울은 말이지?”를 생성할 수 있다.For example, when the voice data received from the
상기의 실시예에서, 클라우드 서버(100)는 고객사 서버(200)로부터 수신된 음성 데이터 상에 데이터베이스에 미리 저장된 텍스트 키워드 또는 음성 키워드가 존재하지 않는 경우, 데이터베이스를 참조로 음성 데이터 또는 텍스트 데이터 상에 유사 키워드가 존재하는지 여부를 확인한다.In the above embodiment, the
예를 들어, 클라우드 서버(100)는 고객사 서버(200)로부터 수신된 음성 데이터가 “시우우우울은 어떻게 가나요?”이고 데이터베이스에 미리 저장된 음성 키워드가 존재하지 않으면, 데이터베이스에서 음성 키워드 “시울”을 유사 키워드라고 판단한다.For example, if the voice data received from the
만일, 클라우드 서버(100)는 데이터베이스를 참조로 음성 데이터 또는 텍스트 데이터 상에 유사 키워드가 존재하면, 유사 키워드를 이용하여 텍스트 데이터를 수정한 후 수정 데이터를 생성한다.If a similar keyword exists in the voice data or text data with reference to the database, the
그런 다음, 클라우드 서버(100)는 음성 데이터 또는 텍스트 데이터 상에서 유사 키워드와 매칭되는 데이터를 이용하여 데이터베이스를 갱신한다.Then, the
예를 들어, 클라우드 서버(100)는 고객사 서버(200)로부터 수신된 음성 데이터를 기초로 생성된 텍스트 데이터가 “시우우우울은 어떻게 가나요?”이고 유사 키워드가 “시울”인 경우, 유사 키워드 “시울”과 매칭되는 텍스트 데이터 “시우우우울”을 이용하여 데이터베이스를 갱신한다.For example, the
따라서, 원래의 데이터베이스에 음성 키워드“시울, 소울, 시이울, 소오울”및 참조 데이터“서울”이 저장되어 있는 경우, 음성 키워드 “시우우우울, 시울, 소울, 시이울, 소오울”및 참조 데이터“서울”로 데이터베이스가 갱신된다.Therefore, if the original database stores the voice keyword "Siwool, Soul, Sioul, Soul" and the reference data "Seoul", the voice keyword "Seoul, Soul, Sioul, Soul, Sioul, Soul" and reference data The database is updated with the data “Seoul”.
상기와 같이, 클라우드 서버(100)는 사용자에 의한 음성 오류 신고에 따라 고객사 서버(200)로부터 음성 데이터가 수집될 때마다 데이터베이스를 갱신함으로써 수정 데이터를 생성할 때 좀더 정확한 데이터를 생성할 수 있다.As described above, the
고객사 서버(200)는 사용자 단말(300) 또는 클라우드 서버(100)로부터 음성 데이터를 수신하면, 음성 데이터를 텍스트 데이터로 변환한 후 음성 데이터 및 텍스트 데이터를 저장한다. 이때, 텍스트 데이터는 음성 데이터를 기초로 생성된 대화 내용, 음성 데이터의 재생 시간 등을 포함한다.When receiving voice data from the
또한, 고객사 서버(200)는 사용자의 요청에 따라 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 사용자 단말(300)에 제공한다. 이때, 고객사 서버(200)는 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 표시할 때 옵션 기능을 추가시켜 표시한다.In addition, the
일 실시예에서, 고객사 서버(200)는 음성 데이터를 기초로 변환된 텍스트 데이터 상에 사용자가 미리 설정한 키워드가 존재하면, 키워드가 포함된 텍스트 데이터를 디스플레이 모듈을 통해 표시할 수 있다.In one embodiment, the
다른 일 실시예에서, 고객사 서버(200)는 음성 데이터를 기초로 변환된 텍스트 데이터 상에 사용자가 미리 설정한 키워드가 존재하면, 상기 키워드가 포함된 텍스트 데이터를 하이라이트 처리할 수 있다. 여기서, 하이라이트 처리는 볼드, 밑줄, 형광펜 효과 등의 시각적으로 부각시키는 효과 일 수 있다.In another embodiment, the
또 다른 일 실시예에서, 고객사 서버(200)는 음성 데이터 상에 사용자가 미리 설정한 키워드가 존재하면, 키워드가 포함된 음성 데이터를 하이라이트 처리할 수 있다. 여기에서, 하이라이트 처리는 비프음, 노이즈, 음성 변조 등의 청각적으로 부각시키는 효과일 수 있다. 이는 녹취된 통화 내용 중 이름이나 전화번호, 주민등록번호 등의 개인정보가 포함되는 경우, 해당 텍스트를 변조하는 역할을 한다.In another embodiment, the
고객사 서버(200)는 사용자 단말(300)로부터 변환 오류 신호를 수신하면, 미리 저장된 데이터 중 변환 오류 신호에 해당하는 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 클라우드 서버(100)에 제공한다.When receiving the conversion error signal from the
이와 같은 이유는, 사용자에 의한 음성 오류 신고에 따라 음성 오류에 해당하는 음성 데이터를 클라우드 서버(100)에 제공함으로써, 클라우드 서버(100)로 하여금 텍스트 데이터를 수정하여 새로운 음성 데이터를 생성할 수 있도록 하기 위해서이다.The reason for this is to provide voice data corresponding to a voice error to the
사용자 단말(300)은 음성 데이터를 녹취하여 상기 고객사 서버에 제공한다.The
사용자 단말(300)은 고객사 서버(200)에 접속하여 텍스트 키워드를 이용하여 음성 데이터를 검색한 후 고객사서버(200)로부터 텍스트 키워드에 해당하는 음성 데이터를 수신할 수 있다.The
이때, 사용자 단말(300)은 고객사 서버(200)로부터 텍스트 키워드에 해당하는 음성 데이터 및 텍스트 데이터를 수신하고, 변환 오류 확인 시 변환 오류 신호를 상기 고객사 서버(200)에 제공한다.At this time, the
예를 들어, 녹취된 음성 신호는 “클라우드 기반의 음성 데이터를 텍스트로 변환하는 기술입니다.”이고, 음성데이터 매치에 의해 변환된 텍스트가 “큰나무 등기 반의 음성 데이터를 텍스쳐로 변경하는 기술입니다.”이면, 사용자는 신고 버튼을 눌러, 변환 오류 신호를 상기 고객사 서버(200)에 제공한다.For example, the recorded voice signal is “a technology that converts cloud-based voice data into text”, and the text converted by voice data match is “a technology that converts voice data of the big tree registration board into texture. ”, the user presses the report button to provide a conversion error signal to the
도 2는 본 발명에 따른 클라우드 기반의 음성 데이터 텍스트 변환 방법의 일 실시예를 설명하기 위한 흐름도이다.2 is a flowchart illustrating an embodiment of a cloud-based voice data-to-text conversion method according to the present invention.
도 2를 참조하면, 사용자 단말(300)은 음성 데이터를 녹취하여 고객사 서버(200)에 제공한다(단계 S210). 고객사 서버(200)는 음성 데이터를 텍스트 데이터로 변환한 후 음성 데이터 및 텍스트 데이터를 저장한다(단계S220). 고객사 서버(200)는 음성 데이터를 클라우드 서버(100)에 제공한다(단계 S230).Referring to FIG. 2 , the
사용자 단말(300)은 고객사 서버(200)에 접속하여 텍스트 키워드를 이용하여 음성 데이터를 검색한 후(단계S235) 고객사 서버(200)로부터 텍스트 키워드에 해당하는 음성 데이터 및 텍스트 데이터를 수신한다(단계S240).The
사용자 단말(300)은 변환 오류 발견 시 변환 오류 신호를 상기 고객사 서버(200)에 제공한다(단계 S250). 고객사 서버(200)는 변환 오류 신호에 해당하는 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 상기 클라우드 서버(100)에 제공한다(단계 S260).When a conversion error is detected, the
클라우드 서버(100)는 미리 생성된 데이터베이스를 기초로 상기 음성 데이터 및 상기 텍스트 데이터 중 적어도 하나의 데이터를 수정하여 수정 데이터를 생성한다(단계 S270). 클라우드 서버(100)는 수정 데이터를 고객사 서버에 제공한다(단계 S280).The
도 3은 본 발명에 따른 클라우드 기반의 음성 데이터 텍스트 변환 방법의 다른 일 실시예를 설명하기 위한 흐름도이다.3 is a flowchart for explaining another embodiment of a cloud-based voice data-to-text conversion method according to the present invention.
도 3을 참조하면, 클라우드 서버(100)는 단어 사전 데이터베이스를 이용하여 각각의 단어를 서로 다른 높낮이, 길이, 억양 및 발음으로 구현하여 음성 키워드를 생성한다(단계 S310). 클라우드 서버(100)는 음성 키워드를 기초로 텍스트 키워드를 생성한다(단계 S320).Referring to FIG. 3 , the
클라우드 서버(100)는 텍스트 키워드 및 해당 단어를 참조 데이터로서 매칭시켜 저장하여 데이터베이스를 생성한다(단계 S330). 클라우드 서버(100)는 단어를 표준 음성으로 변환하여 생성한 음성 키워드 및 해당 단어를 참조 데이터로서 매칭시켜 저장하여 데이터베이스를 생성한다.(단계 S340).The
이와 같은 과정을 통해 데이터베이스를 생성하는 이유는, 동일한 단어라도 발화하는 사용자마다 서로 다른 높낮이, 길이, 억양 및 발음으로 다른 음성으로 발화될 수 있기 때문이다.The reason why the database is created through such a process is that even the same word can be uttered in different voices with different pitches, lengths, intonations, and pronunciations for each uttering user.
도 4는 본 발명에 따른 클라우드 기반의 음성 데이터 텍스트 변환 방법의 또 다른 일 실시예를 설명하기 위한 흐름도이다.4 is a flowchart illustrating another embodiment of a cloud-based voice data-to-text conversion method according to the present invention.
도 4를 참조하면, 클라우드 서버(100)는 데이터베이스를 기초로 고객사 서버(200)로부터 수신된 텍스트 데이터상에 텍스트 키워드가 존재하는지 여부를 확인한다(단계 S410).Referring to FIG. 4 , the
클라우드 서버(100)는 데이터베이스를 기초로 고객사 서버(200)로부터 수신된 텍스트 데이터 상에 텍스트 키워드가 존재하면(단계 S420), 데이터베이스에서 텍스트 키워드에 해당하는 참조 데이터를 추출한다(단계 S430).The
클라우드 서버(100)는 참조 데이터를 이용하여 텍스트 데이터를 수정하여 수정 데이터를 생성할 수 있다(단계S440).The
예를 들어, 클라우드 서버(100)는 고객사 서버(200)로부터 수신된 텍스트 데이터가“시울에서는 무엇을 하나요?”인 경우, 데이터베이스에서 텍스트 키워드“시울”에 해당하는 참조 데이터 “서울”을 기초로 텍스트 데이터를 수정하여 수정 데이터 “서울에서는 무엇을 하나요?”를 생성할 수 있다.For example, if the text data received from the
도 5는 본 발명에 따른 클라우드 기반의 음성 데이터 텍스트 변환 방법의 또 다른 일 실시예를 설명하기 위한 흐름도이다.5 is a flowchart for explaining another embodiment of a cloud-based voice data-to-text conversion method according to the present invention.
도 5를 참조하면, 클라우드 서버(100)는 데이터베이스를 기초로 고객사 서버(200)로부터 수신된 음성 데이터 상에 음성 키워드가 존재하는지 여부를 확인한다(단계 S510).Referring to FIG. 5 , the
클라우드 서버(100)는 데이터베이스를 기초로 고객사 서버(200)로부터 수신된 음성 데이터 상에 음성 키워드가 존재하면(단계 S520), 데이터베이스에서 음성 키워드에 해당하는 참조 데이터를 추출한다(단계 S530).The
클라우드 서버(100)는 참조 데이터를 이용하여 텍스트 데이터를 수정하여 수정 데이터를 생성할 수 있다(단계S540).The
예를 들어, 클라우드 서버(100)는 고객사 서버(200)로부터 수신된 음성 데이터가 “시우우우울은 어떻게가나요?”이고 데이터베이스에 미리 저장된 음성 키워드가 존재하지 않으면, 데이터베이스에서 음성 키워드 “시울”을 유사 키워드라고 판단한다.For example, if the voice data received from the
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.As described above, the present invention has been described by the limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art in the field to which the present invention belongs can make various modifications and transformation is possible Therefore, the spirit of the present invention should be grasped only by the claims described below, and all equivalent or equivalent modifications thereof will be said to belong to the scope of the spirit of the present invention.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.As described above, the present invention has been described by the limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art in the field to which the present invention belongs can make various modifications and transformation is possible Therefore, the spirit of the present invention should be grasped only by the claims described below, and all equivalent or equivalent modifications thereof will be said to belong to the scope of the spirit of the present invention.
한편 본 명세서에 개시된 기술에 관한 설명은 단지 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 개시된 기술의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 개시된 기술의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 개시된 기술에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.On the other hand, since the description of the technology disclosed in this specification is merely an embodiment for structural or functional description, the scope of rights of the disclosed technology should not be construed as being limited by the embodiment described in the text. That is, since the embodiment can be changed in various ways and can have various forms, it should be understood that the scope of rights of the disclosed technology includes equivalents capable of realizing the technical idea. In addition, since the object or effect presented in the disclosed technology does not mean that a specific embodiment should include all of them or only such effects, the scope of rights of the disclosed technology should not be construed as being limited thereto.
또한 본 발명에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다. “제1”, “제2” 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소로 제1 구성요소로 명명될 수 있다.In addition, the meaning of terms described in the present invention should be understood as follows. Terms such as “first” and “second” are used to distinguish one component from another, and the scope of rights should not be limited by these terms. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element.
나아가 어떤 구성요소가 다른 구성요소에 “연결되어”있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어”있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 “~사이에”와 “~사이에” 또는 “~에 이웃하는”과 “~에 직접 이웃하는” 등도 마찬가지로 해석되어야 한다.Furthermore, it should be understood that when a component is referred to as being “connected” to another component, it may be directly connected to the other component, but other components may exist in the middle. On the other hand, when an element is referred to as being “directly connected” to another element, it should be understood that no intervening element exists. Meanwhile, other expressions describing the relationship between components, such as “between” and “between” or “adjacent to” and “directly adjacent to” should be interpreted similarly.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, “포함하다”또는 “가지다” 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions should be understood to include plural expressions unless the context clearly dictates otherwise, and terms such as “comprise” or “have” refer to the described feature, number, step, operation, component, part, or It should be understood that it is intended to indicate that a combination exists, and does not preclude the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.
100: 클라우드 서버 200: 고객사 서버
300: 사용자 단말100: cloud server 200: customer company server
300: user terminal
Claims (1)
상기 사용자 단말(300)에 연결되어 녹취된 음성 데이터 및 상기 음성 데이터를 텍스트로 변환시킨 텍스트 데이터를 저장하는 고객사 서버(200);와
상기 고객사 서버(200)에 연결되며 음성 오류 신고가 접수되는 경우 고객사 서버(200)로부터 음성 데이터 및 텍스트 데이터 중 적어도 하나의 데이터를 전달받아, 참조 데이터가 저장된 데이터베이스(50)를 기초로 상기 음성 데이터 및 상기 텍스트 데이터 중 적어도 하나의 데이터를 수정한 수정 데이터를 생성하여 고객사 서버(200)에 제공하는 클라우드 서버(100)를 포함하여 구성되는 음성 변환 Text Data에서 의미 있는 키워드 추출 방법과 활용에 있어서,
상기 클라우드 서버(100)는 단어 사전 데이터베이스를 이용하여 각각의 단어를 서로 다른 높낮이, 길이, 억양 및 발음으로 구현하여 음성 키워드와 텍스트 키워드를 생성하고, 상기 음성 키워드 및 텍스트 키워드 각각의 단어를 데이터베이스(50)에 참조 데이터로 매칭시켜 음성 또는 텍스트로 형태로 저장하고,
상기 고객사 서버(200)는 사용자 단말(300) 또는 클라우드 서버(100)로부터 음성 데이터가 수신되면 상기 음성 데이터를 기초로 생성되는 대화 내용과 음성 데이터의 재생 시간을 텍스트 데이터로 변환하고 음성 데이터에 매칭시켜 저장하되, 음성 데이터를 기초로 변환된 텍스트 데이터 상에 사용자가 미리 설정한 키워드가 존재하는 경우 상기 키워드를 하이라이트 처리하도록 구성되고,
고객사 서버(200)로부터 수신된 텍스트 데이터 상에 텍스트 키워드가 존재하면, 데이터베이스(50)에서 텍스트 키워드에 해당하는 참조 데이터를 추출한 후 텍스트 데이터를 수정하도록 구성되는 것을 특징으로 하는 음성 변환 Text Data에서 의미 있는 키워드 추출 방법과 활용.A user terminal 300 capable of recording voice data;
A customer server 200 that is connected to the user terminal 300 and stores recorded voice data and text data obtained by converting the voice data into text;
Connected to the customer server 200 and receiving at least one of voice data and text data from the customer server 200 when a voice error report is received, based on the database 50 in which reference data is stored, the voice data And a cloud server 100 that generates correction data by correcting at least one of the text data and provides it to the customer server 200. In the method and utilization of extracting meaningful keywords from speech conversion text data,
The cloud server 100 generates voice keywords and text keywords by implementing each word with different pitches, lengths, accents, and pronunciations using a word dictionary database, and stores each word of the voice keyword and text keyword in a database ( 50) is matched with reference data and stored in the form of voice or text,
When voice data is received from the user terminal 300 or the cloud server 100, the customer server 200 converts the conversation content and the playback time of the voice data generated based on the voice data into text data and matches the voice data. and store it, but if there is a keyword preset by the user on the text data converted based on the voice data, the keyword is configured to be highlighted,
If there is a text keyword in the text data received from the customer server 200, it means in the speech conversion text data, characterized in that it is configured to modify the text data after extracting reference data corresponding to the text keyword from the database 50 How to extract keywords and how to use them.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210100234A KR20230018260A (en) | 2021-07-29 | 2021-07-29 | Method and application of meaningful keyword extraction from speech conversion text data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210100234A KR20230018260A (en) | 2021-07-29 | 2021-07-29 | Method and application of meaningful keyword extraction from speech conversion text data |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230018260A true KR20230018260A (en) | 2023-02-07 |
Family
ID=85221658
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210100234A KR20230018260A (en) | 2021-07-29 | 2021-07-29 | Method and application of meaningful keyword extraction from speech conversion text data |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230018260A (en) |
-
2021
- 2021-07-29 KR KR1020210100234A patent/KR20230018260A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101211796B1 (en) | Apparatus for foreign language learning and method for providing foreign language learning service | |
US8290775B2 (en) | Pronunciation correction of text-to-speech systems between different spoken languages | |
JP4466666B2 (en) | Minutes creation method, apparatus and program thereof | |
US8027836B2 (en) | Phonetic decoding and concatentive speech synthesis | |
JP6819988B2 (en) | Speech interaction device, server device, speech interaction method, speech processing method and program | |
US8712779B2 (en) | Information retrieval system, information retrieval method, and information retrieval program | |
WO2020145439A1 (en) | Emotion information-based voice synthesis method and device | |
US9349367B2 (en) | Records disambiguation in a multimodal application operating on a multimodal device | |
US10325599B1 (en) | Message response routing | |
US20060235694A1 (en) | Integrating conversational speech into Web browsers | |
US20100217591A1 (en) | Vowel recognition system and method in speech to text applictions | |
US20130253932A1 (en) | Conversation supporting device, conversation supporting method and conversation supporting program | |
JPWO2007108500A1 (en) | Speech recognition system, speech recognition method, and speech recognition program | |
JP2014106523A (en) | Voice input corresponding device and voice input corresponding program | |
US20060069563A1 (en) | Constrained mixed-initiative in a voice-activated command system | |
US20190341059A1 (en) | Automatically identifying speakers in real-time through media processing with dialog understanding supported by ai techniques | |
JP2023503718A (en) | voice recognition | |
JP5160594B2 (en) | Speech recognition apparatus and speech recognition method | |
JP2013050742A (en) | Speech recognition device and speech recognition method | |
KR20230018260A (en) | Method and application of meaningful keyword extraction from speech conversion text data | |
KR102267579B1 (en) | System of cloud-based conversion speech source to text and method performing the same | |
JP2003162524A (en) | Language processor | |
JP2008022493A (en) | Reception support system and its program | |
KR102610360B1 (en) | Method for providing labeling for spoken voices, and apparatus implementing the same method | |
JP3526549B2 (en) | Speech recognition device, method and recording medium |