KR102181583B1 - System for voice recognition of interactive robot and the method therof - Google Patents
System for voice recognition of interactive robot and the method therof Download PDFInfo
- Publication number
- KR102181583B1 KR102181583B1 KR1020180171954A KR20180171954A KR102181583B1 KR 102181583 B1 KR102181583 B1 KR 102181583B1 KR 1020180171954 A KR1020180171954 A KR 1020180171954A KR 20180171954 A KR20180171954 A KR 20180171954A KR 102181583 B1 KR102181583 B1 KR 102181583B1
- Authority
- KR
- South Korea
- Prior art keywords
- voice
- data
- text
- unit
- voice recognition
- Prior art date
Links
- 238000000034 method Methods 0.000 title abstract description 28
- 230000002452 interceptive effect Effects 0.000 title 1
- 230000002889 sympathetic effect Effects 0.000 claims abstract description 75
- 230000004044 response Effects 0.000 claims abstract description 48
- 238000006243 chemical reaction Methods 0.000 claims abstract description 14
- 230000005540 biological transmission Effects 0.000 claims abstract description 9
- 238000000605 extraction Methods 0.000 claims abstract description 7
- 239000000284 extract Substances 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 239000008186 active pharmaceutical agent Substances 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 235000021178 picnic Nutrition 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/003—Controls for manipulators by means of an audio-responsive input
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Theoretical Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Automation & Control Theory (AREA)
- General Health & Medical Sciences (AREA)
- Toys (AREA)
- Telephonic Communication Services (AREA)
Abstract
본 발명은 음성인식 교감형 로봇, 교감형 로봇 음성인식 시스템 및 그 방법을 개시한다. 본 발명의 일실시례에 따른 교감형 로봇의 음성인식 시스템은, 외부 단말로부터 전송되는 음성 데이터를 수신하는 음성 데이터 수신부, 상기 음성 데이터를 텍스트로 변환하는 텍스트 변환부, 상기 변환된 텍스트로부터 키워드를 추출하는 키워드 추출부, 상기 추출된 키워드에 대응하는 응답 텍스트를 기저장된 메타데이터로부터 추출하는 응답 텍스트 생성부, 상기 응답 텍스트를 음성 데이터로 변환하는 음성 변환부, 및 상기 변환된 음성 데이터를 상기 외부 단말로 송신하는 송신부를 포함할 수 있다.
본 발명의 일실시례에 따른 교감형 로봇은, 버튼 조작을 통해 음성 입력을 개시하기 위한 명령을 입력받는 음성인식 버튼부, 사용자로부터 발화되는 음성을 입력받는 음성 입력부, 상기 입력된 음성의 녹음 데이터를 PCM data 형태로 외부 시스템에 전송하는 음성 전송부 및 상기 외부 시스템으로부터의 응답 데이터를 수신하고 출력하는 음성 출력부를 포함한다.The present invention discloses a voice recognition sympathetic robot, a sympathetic robot voice recognition system, and a method thereof. The voice recognition system of a sympathetic robot according to an embodiment of the present invention includes a voice data receiving unit receiving voice data transmitted from an external terminal, a text conversion unit converting the voice data into text, and a keyword from the converted text. A keyword extraction unit for extracting, a response text generation unit for extracting a response text corresponding to the extracted keyword from pre-stored metadata, a voice conversion unit for converting the response text into speech data, and the converted speech data to the external It may include a transmitter for transmitting to the terminal.
The sympathetic robot according to an embodiment of the present invention includes a voice recognition button part receiving a command for starting a voice input through button manipulation, a voice input part receiving a voice uttered from a user, and recording data of the input voice. And a voice transmission unit for transmitting the PCM data to an external system and a voice output unit for receiving and outputting response data from the external system.
Description
본 발명은 음성인식 교감형 로봇, 교감형 로봇의 음성인식 시스템 및 그 방법에 관한 것으로, 보다 상세하게는 교감형 로봇을 통해 사용자의 음성을 인식하고, 상응하는 이벤트를 생성하는 시스템 및 그 방법에 관한 것이다.The present invention relates to a voice recognition sympathetic robot, a voice recognition system and a method for the sympathetic robot, and more particularly, to a system and method for recognizing a user's voice through a sympathetic robot and generating a corresponding event. About.
사용자와 교감이 가능한 로봇, 인형 등은 유아나 어린이가 가지고 놀면서 신체 운동 발달 및 기능을 숙달하고, 상상력이나 창의력 개발을 통해 지능 발달 등 교육적으로 중요한 역할을 하기 때문에, 관련하여 교감형 로봇 또는 인형 기술 개발이 크게 관심을 받고 있다.Robots, dolls, etc. that can communicate with users play an important role in education, such as development of physical movements and functions, and development of intelligence through the development of imagination or creativity. Technology development is receiving great attention.
다만, 기존의 로봇 또는 인형은 제한된 소리를 출력하거나, 동작이 없으므로 사용자로 하여금 지속적으로 새로운 관심과 흥미를 끌어내기 어려운 한계가 있었다.However, since the existing robot or doll outputs a limited sound or does not have a motion, it is difficult to continuously draw new interest and interest from the user.
따라서, 사용자의 소리를 인식하여 응답하되, 사용자의 음성입력으로부터 사용자의 의도를 파악하고 이에 상응하는 응답을 표현할 수 있는 로봇 및 음성인식 시스템에 관한 연구가 필요하다.Accordingly, there is a need for a study on a robot and a speech recognition system capable of recognizing and responding to the user's voice, but identifying the user's intention from the user's voice input and expressing a corresponding response.
선행기술문헌 : 한국등록특허 제10-1791942호Prior art literature: Korean Patent Registration No. 10-1791942
본 발명은 음성인식 교감형 로봇을 통해 사용자의 음성을 입력받고 이를 서버에 송신하여 서버에서 사용자의 음성을 분석하고 상응하는 응답 음성을 출력하도록 함으로써, 음성인식 교감형 로봇의 처리능력을 최소화하고, 비용을 절감할 수 있는 음성인식 교감형 로봇, 교감형 로봇 음성인식 시스템 및 그 방법을 제공한다.The present invention minimizes the processing power of the voice recognition sympathetic robot by receiving the user's voice through the voice recognition sympathetic robot and transmitting it to the server to analyze the user's voice and output the corresponding response voice, It provides a voice recognition sympathetic robot, a sympathetic robot voice recognition system, and a method that can reduce cost.
본 발명은 음성인식 교감형 로봇에 입력되는 음성을 서버로 전송하여 처리하되, MTU(Maximum Transmission Unit) 단위를 조정하여 데이터를 분할 전송함으로써, 상대적으로 낮은 사양의 하드웨어를 사용하면서도 고속의 음성인식이 가능해지는 음성인식 교감형 로봇, 교감형 로봇 음성인식 시스템 및 그 방법을 제공한다.The present invention transmits and processes the voice input to the voice recognition sympathetic robot to the server, but by adjusting the MTU (Maximum Transmission Unit) unit to divide and transmit data, high-speed voice recognition is possible while using relatively low-spec hardware. It provides a voice recognition sympathetic robot, a sympathetic robot voice recognition system, and a method thereof.
본 발명은 무선통신을 통해 서버에 접속되어 각 사용자에 특화된 음성을 분석하여 그에 상응하는 음성을 출력함으로써, 개별 사용자의 언어습관 등 특성에 부합하여 보다 정확한 음성인식이 가능한 음성인식 교감형 로봇, 교감형 로봇 음성인식 시스템 및 그 방법을 제공한다.The present invention is connected to a server through wireless communication, analyzes a voice specific to each user, and outputs a corresponding voice, so that a voice recognition sympathetic robot capable of more accurate voice recognition according to characteristics such as language habits of individual users, Provides a robotic voice recognition system and method thereof.
본 발명은 입력된 음성을 텍스트로 변환하고 상기 텍스트로부터 키워드를 추출하되, 추출된 키워드의 유사어, 카테고리 속성을 추출함으로써, 상기 유사어와 카테고리 속성에 대응하는 응답 텍스트를 보다 효과적으로 생성할 수 있는 음성인식 교감형 로봇, 교감형 로봇 음성인식 시스템 및 그 방법을 제공한다.The present invention converts the input voice into text and extracts a keyword from the text, but by extracting the similar word and category attribute of the extracted keyword, speech recognition capable of more effectively generating a response text corresponding to the similar word and category attribute A sympathetic robot, a sympathetic robot voice recognition system, and a method thereof are provided.
본 발명의 일실시례에 따른 교감형 로봇의 음성인식 시스템은, 외부 단말로부터 전송되는 음성 데이터를 수신하는 음성 데이터 수신부, 상기 음성 데이터를 텍스트로 변환하는 텍스트 변환부, 상기 변환된 텍스트로부터 키워드를 추출하는 키워드 추출부, 상기 추출된 키워드에 대응하는 응답 텍스트를 기저장된 메타데이터로부터 추출하는 응답 텍스트 생성부, 상기 응답 텍스트를 음성 데이터로 변환하는 음성 변환부, 및 상기 변환된 음성 데이터를 상기 외부 단말로 송신하는 송신부를 포함할 수 있다.The voice recognition system of a sympathetic robot according to an embodiment of the present invention includes a voice data receiving unit receiving voice data transmitted from an external terminal, a text conversion unit converting the voice data into text, and a keyword from the converted text. A keyword extraction unit for extracting, a response text generation unit for extracting a response text corresponding to the extracted keyword from pre-stored metadata, a voice conversion unit for converting the response text into speech data, and the converted speech data to the external It may include a transmitter for transmitting to the terminal.
본 발명의 일측에 따르면, 상기 외부 단말의 사용자를 식별하는 고유 키(primary key)를 수신하고, 상기 고유 키에 대응하는 설정값을 독출하는 사용자 관리부를 더 포함할 수 있다.According to an aspect of the present invention, it may further include a user management unit for receiving a primary key identifying a user of the external terminal and reading a setting value corresponding to the unique key.
본 발명의 일측에 따르면, 상기 키워드 추출부는, 상기 변환된 텍스트에 존재하는 다수의 명사를 추출하고, 상기 명사의 유사어 셋(set)을 생성하고, 상기 추출된 명사의 카테고리를 기설정된 카테고리에 매칭하여, 추출된 키워드마다 유사어 셋과 카테고리 속성을 부여할 수 있다.According to an aspect of the present invention, the keyword extraction unit extracts a plurality of nouns present in the converted text, generates a set of similar words of the noun, and matches the extracted noun category to a preset category. Thus, a similar word set and category attribute may be assigned to each extracted keyword.
본 발명의 일측에 따르면, 상기 응답 텍스트 생성부는, 상기 추출된 각각의 키워드의 유사어 셋과 카테고리 속성에 대응하여 연관된 질문 리스트 셋(set)을 각각 추출하고, 상기 질문 리스트 간의 공통 질문을 추출하여 상기 응답 텍스트를 생성할 수 있다.According to an aspect of the present invention, the response text generation unit extracts a set of related question lists corresponding to a set of similar words and a category attribute of each of the extracted keywords, and extracts a common question between the question lists, Response text can be generated.
본 발명의 일실시례에 따른 교감형 로봇은, 버튼 조작을 통해 음성 입력을 개시하기 위한 명령을 입력받는 음성인식 버튼부, 사용자로부터 발화되는 음성을 입력받는 음성 입력부, 상기 입력된 음성의 녹음 데이터를 PCM data 형태로 외부 시스템에 전송하는 음성 전송부 및 상기 외부 시스템으로부터의 응답 데이터를 수신하고 출력하는 음성 출력부를 포함한다.The sympathetic robot according to an embodiment of the present invention includes a voice recognition button part receiving a command for starting a voice input through button manipulation, a voice input part receiving a voice uttered from a user, and recording data of the input voice. And a voice transmission unit for transmitting the PCM data to an external system and a voice output unit for receiving and outputting response data from the external system.
본 발명의 일측에 따르면, 상기 출력부는, 음성코덱의 각 레지스터의 딜레이 값이 0인지 확인하고, 0이 아닌 경우에는 음성 코덱의 설정동작 대기를 위한 딜레이 함수를 콜하여 각 레지스터의 딜레이 값에 상응하는 대기시간을 부여할 수 있다.According to one aspect of the present invention, the output unit checks whether the delay value of each register of the voice codec is 0, and if it is not 0, it corresponds to the delay value of each register by calling a delay function for waiting for the setting operation of the voice codec. You can give it a waiting time.
본 발명의 일실시례에 따른 교감형 로봇의 음성인식 방법은, 외부 단말로부터 전송되는 음성 데이터를 수신하는 단계, 상기 음성 데이터를 텍스트로 변환하는 단계, 상기 변환된 텍스트로부터 키워드를 추출하는 단계, 상기 추출된 키워드에 대응하는 응답 텍스트를 기저장된 메타데이터로부터 추출하는 단계, 상기 응답 텍스트를 음성 데이터로 변환하는 단계 및 상기 변환된 음성 데이터를 상기 외부 단말로 송신하는 단계를 포함한다.The voice recognition method of a sympathetic robot according to an embodiment of the present invention includes the steps of receiving voice data transmitted from an external terminal, converting the voice data into text, extracting keywords from the converted text, And extracting a response text corresponding to the extracted keyword from pre-stored metadata, converting the response text into voice data, and transmitting the converted voice data to the external terminal.
본 발명의 일실시례에 따르면, 음성인식 교감형 로봇을 통해 사용자의 음성을 입력받고 이를 서버에 송신하여 서버에서 사용자의 음성을 분석하고 상응하는 응답 음성을 출력하도록 함으로써, 음성인식 교감형 로봇의 처리능력을 최소화하고, 비용을 절감할 수 있는 음성인식 교감형 로봇, 교감형 로봇 음성인식 시스템 및 그 방법이 제공된다.According to an embodiment of the present invention, by receiving a user's voice through a voice recognition sympathetic robot and transmitting it to a server, the server analyzes the user's voice and outputs a corresponding response voice. A voice recognition sympathetic robot, a sympathetic robot voice recognition system, and a method thereof that can minimize processing power and reduce costs are provided.
본 발명의 일실시례에 따르면, 음성인식 교감형 로봇에 입력되는 음성을 서버로 전송하여 처리하되, MTU(Maximum Transmission Unit) 단위를 조정하여 데이터를 분할 전송함으로써, 상대적으로 낮은 사양의 하드웨어를 사용하면서도 고속의 음성인식이 가능해지는 음성인식 교감형 로봇, 교감형 로봇 음성인식 시스템 및 그 방법이 제공된다.According to an embodiment of the present invention, the voice input to the voice recognition sympathetic robot is transmitted to a server and processed, but data is divided and transmitted by adjusting the MTU (Maximum Transmission Unit) unit, so that relatively low-spec hardware is used. A voice recognition sympathetic robot, a sympathetic robot voice recognition system, and a method thereof that enable high-speed voice recognition are provided.
본 발명의 일실시례에 따르면, 무선통신을 통해 서버에 접속되어 각 사용자에 특화된 음성을 분석하여 그에 상응하는 음성을 출력함으로써, 개별 사용자의 언어습관 등 특성에 부합하여 보다 정확한 음성인식이 가능한 음성인식 교감형 로봇, 교감형 로봇 음성인식 시스템 및 그 방법이 제공된다.According to an embodiment of the present invention, by connecting to a server through wireless communication, analyzing a voice specific to each user and outputting a corresponding voice, more accurate voice recognition is possible in accordance with characteristics such as language habits of individual users. A sympathetic robot, a sympathetic robot voice recognition system, and a method thereof are provided.
본 발명의 일실시례에 따르면, 입력된 음성을 텍스트로 변환하고 상기 텍스트로부터 키워드를 추출하되, 추출된 키워드의 유사어, 카테고리 속성을 추출함으로써, 상기 유사어와 카테고리 속성에 대응하는 응답 텍스트를 보다 효과적으로 생성할 수 있는 음성인식 교감형 로봇, 교감형 로봇 음성인식 시스템 및 그 방법이 제공된다.According to an embodiment of the present invention, by converting the input voice into text and extracting a keyword from the text, and extracting the similar word and category attribute of the extracted keyword, the response text corresponding to the similar word and the category attribute is more effectively A voice recognition sympathetic robot, a sympathetic robot voice recognition system, and a method thereof that can be generated are provided.
도 1은 본 발명의 실시예에 따른 음성인식 교감형 로봇을 통해 음성을 인식받고, 이를 교감형 로봇 음성인식 시스템으로 전달하여 음성인식에 대한 이벤트를 발생시키기 위한 시스템과 로봇 전체 구성을 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 교감형 로봇 음성인식 시스템의 세부구성을 나타낸 블록도이다.
도 3은 본 발명의 실시예에 따른 음성인식 교감형 로봇의 세부구성을 나타낸 블록도이다.
도 4는 본 발명의 실시예에 따른 교감형 로봇 음성인식 방법의 흐름을 나타낸 동작흐름도이다.1 is a diagram showing a system for generating an event for voice recognition by receiving a voice through a voice recognition sympathetic robot according to an embodiment of the present invention and transmitting the voice to the sympathetic robot voice recognition system and the overall configuration of the robot .
2 is a block diagram showing a detailed configuration of a sympathetic robot voice recognition system according to an embodiment of the present invention.
3 is a block diagram showing a detailed configuration of a voice recognition sympathetic robot according to an embodiment of the present invention.
4 is an operation flow diagram showing the flow of a sympathetic robot voice recognition method according to an embodiment of the present invention.
이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명의 실시예들을 상세하게 설명한다. 다만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.Hereinafter, embodiments of the present invention will be described in detail with reference to the contents described in the accompanying drawings. However, the present invention is not limited or limited by the embodiments. The same reference numerals in each drawing indicate the same member.
종래에 로봇, 인형 등을 통해 사용자의 음성을 인식하고 이에 대한 응답 메시지를 출력하는 기술은 사용자의 음성을 통해 사용자 질문의 의도를 정확하게 파악하지 못하였으며, 이에 따라 응답 메시지 또한 단순한 메시지들로 이루어지는 등의 문제점이 있었다.Conventionally, the technology of recognizing a user's voice through a robot or a doll and outputting a response message to it has not been able to accurately grasp the intention of a user's question through the user's voice. There was a problem.
본 발명은 상기 종래 기술의 문제점을 해결하기 위해 고안된 발명으로, 본 발명의 구성을 아래에 상세하게 설명한다.The present invention is an invention devised to solve the problems of the prior art, and the configuration of the present invention will be described in detail below.
도 1은 본 발명의 실시예에 따른 음성인식 교감형 로봇을 통해 음성을 인식받고, 이를 교감형 로봇 음성인식 시스템으로 전달하여 음성인식에 대한 이벤트를 발생시키기 위한 시스템과 로봇 전체 구성을 나타낸 도면이다.1 is a diagram showing a system for generating an event for voice recognition by receiving a voice through a voice recognition sympathetic robot according to an embodiment of the present invention and transmitting the voice to the sympathetic robot voice recognition system and the overall configuration of the robot .
도 1을 참고하면, 연결된 스마트 기기(300)으로 음성인식 교감형 로봇(200)이 에이전트 서버와 통신을 하기 위한 절차를 마련한 뒤 음성인식 교감형 로봇(200)을 통해 사용자가 인사, 질문, 감정표현 메시지 등을 음성을 통해 입력하면, 상기 입력된 음성 데이터는 로봇 음성인식 시스템(100)으로 전송할 수 있다.Referring to FIG. 1, after preparing a procedure for the voice recognition
이후, 로봇 음성인식 시스템(100)은 상기 음성 데이터를 텍스트로 변환하고, 키워드를 추출하여, 추출된 키워드에 상응하는 응답 텍스트를 생성하고, 이를 음성인식 교감형 로봇(200)에 송신하면, 음성인식 교감형 로봇(200)은 스피커 등을 통해 이를 출력하여 상기 사용자와 교감할 수 있다.Thereafter, the robot
이때, 사용자는 음성인식 교감형 로봇(200)을 통해 음성을 입력할 수 있으며, 응답 음성을 음성인식 교감형 로봇(200)을 통하여 확인할 수 있다.At this time, the user may input a voice through the voice recognition
이하에서는 음성을 입력하고 이에 대응하는 응답 텍스트를 생성하기 위한 세부절차와 구성을 보다 상세하게 설명한다.Hereinafter, detailed procedures and configurations for inputting voice and generating a response text corresponding thereto will be described in more detail.
도 2는 본 발명의 실시예에 따른 교감형 로봇 음성인식 시스템의 세부구성을 나타낸 블록도이다.2 is a block diagram showing a detailed configuration of a sympathetic robot voice recognition system according to an embodiment of the present invention.
도 2를 참고하면, 교감형 로봇 음성인식 시스템(100)은 음성 데이터 수신부(110), 텍스트 변환부(120), 키워드 추출부(130), 응답 텍스트 생성부(140), 음성 변환부(150) 및 송신부(160)를 포함한다.Referring to FIG. 2, the sympathetic robot
음성 데이터 수신부(110)는 외부 단말로부터 전송되는 음성 데이터를 수신할 수 있다. 즉, 교감형 로봇(200) 또는 이와 연결된 스마트 기기(300)를 통해 사용자의 음성이 인식되면, 음성 데이터 수신부(110)는 이를 전송받아 수신할 수 있다.The
이때, 수신하는 음성 데이터는 PCM data를 포함한 다양한 형태의 데이터일 수 있다.At this time, the received voice data may be various types of data including PCM data.
일례로, 상기 교감형 로봇(200)은 Artik053을 사용할 수 있는데, 상기 Artik053에서 사용자의 음성이 인식되면 이는 상기 음성 데이터 수신부(110)로 전송되고, 이 과정에서 전송되는 음성 데이터가 설정된 MTU 값 이상이 되면, 여러 개의 패킷으로 분할되어 전송되도록 하여, 상기와 같이 상대적으로 낮은 사양의 하드웨어(ex. Artik053)를 사용하는 교감형 로봇(200)을 통해서도 고속의 음성인식이 지원될 수 있다.As an example, the
또한, Artik053과 같은 저사양 하드웨어에서는 API 서비스를 사용하기 위한 SDK를 설치할 수 없으므로 상기와 같이 음성 데이터를 작은 단위의 패킷으로 나누어 전달 받으면 기존 STT API에서 마이크 입력으로 처리되던 부분을 상기와 같이 통신을 통해 전달 받은 음성 데이터를 받아오는 형식으로 변환하여 사용할 수 있고, 이를 통해 본 발명의 일실시례와 같은 저사양 하드웨어에서도 음성을 텍스트로 신속히 변환하는 스트리밍 서비스를 제공할 수 있다.In addition, since the SDK for using the API service cannot be installed on low-end hardware such as Artik053, if the voice data is divided into small packets as described above and transmitted, the part processed as microphone input in the existing STT API is communicated as above. The received voice data can be converted into a received format and used, and through this, a streaming service for quickly converting voice into text can be provided even in low-end hardware such as an embodiment of the present invention.
상기 음성 데이터를 수신한 이후 텍스트 변환부(120)는 상기 음성 데이터를 텍스트로 변환할 수 있다. 이때, 교감형 로봇 음성인식 시스템(100)은 개별 사용마다 언어습관 등이 다르므로, 개별 사용자의 특성에 맞도록 상기 외부 단말의 사용자를 식별하는 고유 키(primary key)를 수신하고, 상기 고유 키에 대응하는 설정값을 독출하기 위해 사용자 관리부를 더 포함할 수 있다.After receiving the voice data, the
즉, 사용자마다 음성인식 및 텍스트 변환을 위한 설정값을 달리하여 개별 사용자에게 최적화된 음성인식 및 텍스트 변환 과정을 진행함으로써, 사용자 맞춤형 음성인식이 이루어질 수 있다.That is, by varying set values for voice recognition and text conversion for each user and performing a process of voice recognition and text conversion optimized for individual users, user-customized voice recognition can be achieved.
한편, 음성을 텍스트로 변환하기 위한 STT(Speech to Text) 과정에서는 클라우드를 통해 지원되는 API 등을 사용할 수 있으며, 120개 이상의 언어와 방언을 인식하고, 머신러닝 기술을 사용하여 실시간 스트리밍 또는 사전 녹음 오디오를 처리할 수 있다. Meanwhile, in the STT (Speech to Text) process for converting speech to text, you can use APIs supported through the cloud, recognize more than 120 languages and dialects, and use machine learning technology to real-time streaming or pre-recording. Audio can be processed.
상기에서 음성 데이터가 텍스트로 변환되면, 키워드 추출부(130)는 상기 변환된 텍스트로부터 핵심 키워드를 추출할 수 있다.When the voice data is converted into text in the above, the
이를 위해, 상기 변환된 텍스트에 존재하는 다수의 명사를 추출하고, 상기 명사의 유사어 셋(set)을 생성하고, 상기 추출된 명사의 카테고리를 기설정된 카테고리에 매칭하여, 추출된 키워드마다 유사어 셋과 카테고리 속성을 부여할 수 있다.To this end, a plurality of nouns present in the converted text are extracted, a similar word set of the noun is generated, and the extracted noun category is matched with a preset category, Category attribute can be assigned.
일례로, 사용자가 입력한 문장이 "내일 소풍 갈거야"인 경우, 상기 문장에 포함된 명사인 '내일', 과 '소풍'을 추출하고, '내일'의 유사어인 'tomorrow', '다음날', '이튿날' 등의 유사어 셋(set)을 추출하며, '내일'은 시간을 나타내는 단어이므로 카테고리 속성으로 '시간 단어'를 부여할 수 있다. As an example, if the sentence entered by the user is "I'm going on a picnic tomorrow", the nouns'tomorrow' and'excursion' included in the sentence are extracted, and'tomorrow','next day', which are similar words for'tomorrow' , And'the next day', etc., a set of similar words is extracted, and'tomorrow' is a word representing time, so'time word' can be assigned as a category attribute.
또한, '소풍'의 경우에도 유사어인 'picnic', '나들이', '야유회' 등의 유사어 셋(set)을 추출하고, '소풍'은 야외에서의 행동을 나타내는 단어이므로 카테고리 속성으로 '야외행동 단어'를 부여할 수 있다.Also, in the case of'excursion', a set of similar words such as'picnic','outing', and'outing party', which are similar words, is extracted, and'excursion' is a word representing outdoor behavior, so'outdoor behavior' as a category attribute. You can give it a word.
따라서, 상기 키워드에 대한 유사어 셋과 카테고리 속성을 이용하여 하기에서 설명될 응답 텍스트 생성부(140)에서 사용자의 의도를 보다 정확하게 파악하여 그에 상응하는 응답 텍스트를 도출하도록 할 수 있다.Accordingly, by using the similar word set and category attribute for the keyword, the
따라서, 이와 연관하여 응답 텍스트 생성부(140)는 상기 추출된 키워드에 대응하는 응답 텍스트를 기저장된 메타데이터로부터 추출할 수 있다. Accordingly, in connection with this, the
이를 위해 응답 텍스트 생성부(140)는, 상기 추출된 각각의 키워드의 유사어 셋과 카테고리 속성에 대응하여 연관된 질문 리스트 셋(set)을 각각 추출하고, 상기 질문 리스트 간의 공통 질문을 추출하여 상기 응답 텍스트를 생성할 수 있다.To this end, the response
일례로, 추출된 키워드 '내일'과 관련된 질문 리스트 셋에 질문이 5개 포함되고, '소풍'과 관련된 질문 리스트 셋에 질문이 7개 포함된 경우, 상기 두 질문 리스트 셋에 내용이 최대한 중첩되는 질문을 하나 추출하고, 이를 사용자에게 응답할 텍스트로 결정할 수 있다. As an example, if 5 questions are included in a question list set related to the extracted keyword'tomorrow' and 7 questions are included in a question list set related to'excursion', the contents overlap as much as possible in the two question list sets. You can extract a question and decide it as a text to answer to the user.
이에 따라 음성 변환부(150)는 상기 결정된 응답 텍스트를 음성 데이터로 변환할 수 있다.Accordingly, the
여기서, 텍스트를 음성 변환하기 위한 TTS(Text to Speech) 과정에서는 딥러닝 기술을 사용하여 실제 사람의 음성처럼 소리를 합성하고, 다양한 언어, 음성을 설정할 수 있으며, 상기 사용자의 설정값에 따라 사용자의 언어습관과 유사한 형태로 음성을 생성할 수 있고, 사용자 지정어휘 또는 저장된 용어(회사 이름, 두문자어, 외래어, 신조어 등)에 따라 특정 단어의 발음을 반영하여 생성할 수 있다. Here, in the TTS (Text to Speech) process for converting text to speech, a deep learning technology is used to synthesize sounds like a real human voice, and various languages and voices can be set, and the user's Voices can be generated in a form similar to language habits, and can be generated by reflecting pronunciation of specific words according to user-specified words or stored terms (company name, acronyms, foreign words, new words, etc.).
송신부(160)는 상기 변환된 음성 데이터를 상기 외부 단말로 송신할 수 있다. 이때, 송신되는 데이터는 MP3 형식을 포함한 다양한 형식의 음성 데이터로 송신할 수 있다.The
상기와 같이, 교감형 로봇 음성인식 시스템을 사용하여 음성을 인식하고 이에 상응하는 응답 텍스트를 생성함으로써, 개별 사용자 맞춤형 음성인식 및 응답 텍스트 생성이 가능하며, 사용자의 의도를 보다 정확하게 파악하여 이에 부합하는 응답을 제공할 수 있는 효과가 발생할 수 있다.As described above, by recognizing the voice using the sympathetic robot voice recognition system and generating the corresponding response text, individual user-customized voice recognition and response text can be generated, and the user's intention is more accurately identified and Effects can occur that can provide a response.
이하에서는 음성인식 교감형 로봇을 통해 음성을 입력받고 이를 교감형 로봇 음성인식 시스템에 전송하며, 교감형 로봇 음성인식 시스템으로부터 응답 텍스트(음성 변환된 데이터)를 수신하여 출력하는 구성을 보다 상세하게 설명한다.Hereinafter, a configuration in which a voice is input through a voice recognition sympathetic robot, transmits it to a sympathetic robot voice recognition system, and a configuration for receiving and outputting a response text (voice converted data) from the sympathetic robot voice recognition system will be described in more detail. do.
도 3은 본 발명의 실시예에 따른 음성인식 교감형 로봇의 세부구성을 나타낸 블록도이다. 이때, 음성인식 교감형 로봇(200)은 일례로 ARTIK053 보드를 내장할 수 있다.3 is a block diagram showing a detailed configuration of a voice recognition sympathetic robot according to an embodiment of the present invention. At this time, the voice recognition
도 3을 참고하면, 음성인식 교감형 로봇(200)은 음성인식 버튼부(210), 음성 입력부(220), 음성 전송부(230) 및 음성 출력부(240)를 포함할 수 있다.Referring to FIG. 3, the voice recognition
음성인식 버튼부(210)는 버튼 조작을 통해 음성 입력을 개시하기 위한 명령을 입력받을 수 있다. 즉, 종래의 경우 스마트 스피커 등을 통해 소리를 감지하는 것으로 음성입력을 개시하나, 본 발명의 일실시례에서는 사용자가 버튼을 조작하여야만 음성 입력을 개시하므로, 사용자의 적극적인 동작을 통해 음성입력을 개시하기 전까지는 사용자들의 음성대화를 모니터링 하지 않으므로, 사용자의 의도와 무관하게 대화내용이 녹음되고 제3자에게 유출되지 않도록 관리될 수 있다.The voice
상기 버튼은 교감형 로봇의 손 부분에 위치하여, 버튼의 조작시 로봇의 손을 잡는 감성을 제공함으로써, 사용자가 로봇과 보다 교감을 느끼도록 설정할 수 있다.The button is located on the hand part of the sympathetic robot, and by providing the sensibility to hold the robot's hand when the button is operated, the user can be set to feel more sympathetic with the robot.
음성 입력부(220)는 사용자로부터 발화되는 음성을 입력받으며, 상기 음성인식 버튼을 통해 음성입력이 개시되면, 마이크 입력 등을 통해 사용자의 음성을 입력받을 수 있다.The
음성 전송부(230)는 상기 입력된 음성의 녹음 데이터를 PCM data 형태로 외부 시스템에 전송할 수 있다. 즉, PCM data 형태로 데이터를 전송함으로써, 보다 효과적이고 손실없이 데이터를 전송할 수 있다.The
한편, 음성 전송은 네트워크 인터페이스에서 세그먼트 없이 보낼 수 있는 최대 데이터그램 크기 값이며, 패킷이 한번에 보낼 수 있는 최대 크기인 MTU size를 590으로 설정 하여 전송할 수 있고, 보내는 데이터가 MTU 값 이상이 되면 여러 개의 패킷으로 분할되어 전송될 수 있어 보다 효과적으로 데이터 전송이 가능해질 수 있다.On the other hand, voice transmission is the maximum datagram size value that can be sent without a segment on the network interface, and it can be transmitted by setting the MTU size, which is the maximum size that a packet can send at one time, to 590. Since it can be divided into packets and transmitted, data can be transmitted more effectively.
음성 출력부(240)는 상기 외부 시스템으로부터 음성 데이터 형태의 응답 데이터를 수신하면 스피커 등의 출력장치를 통해 사용자가 인식할 수 있도록 응답 데이터를 출력할 수 있다.When receiving response data in the form of voice data from the external system, the
한편, 상기 음성 출력부(240)는 음성 출력을 위해 사용되는 코덱 셋팅시 발생하는 지연을 최소화하기 위해 하기의 방법을 사용할 수 있다.Meanwhile, the
코텍 사용전의 코덱 레지스터 설정과정에서 코덱의 설정동작을 기다리기 위해 delay 함수를 콜(call)하여 script[i].delay 만큼의 대기시간을 가지는데, 실제로는 script[i].delay 값은 0인 경우가 많다. 따라서, script[i].delay 함수 자체를 콜하는 시간에 따른 지연을 방지하고자 각 레지스터의 script[i].delay 값이 0인지 확인하고, 0이 아닌 경우에만 음성 코덱의 설정동작 대기를 위한 script[i].delay 함수를 콜하여 각 레지스터의 딜레이 값에 상응하는 대기시간을 부여할 수 있다. 여기서, script[i]의 멤버는 레지스터 주소이며, script[i].delay는 각 레지스터의 딜레이 값에 해당한다.In the process of setting the codec register before using the codec, the delay function is called to wait for the codec setting operation to have a waiting time as much as script[i].delay. Actually, if the value of script[i].delay is 0, the delay function is called. There are many. Therefore, to prevent the delay according to the time of calling the script[i].delay function itself, check whether the script[i].delay value of each register is 0, and only if it is not 0, the script for waiting for the setting operation of the voice codec By calling the [i].delay function, a waiting time corresponding to the delay value of each register can be given. Here, the member of script[i] is the register address, and script[i].delay corresponds to the delay value of each register.
상기와 같이 본 발명의 일실시례에 따른 교감형 로봇을 통해 음성인식 교감형 로봇의 처리능력을 최소화하고, 비용을 절감할 수 있는 장치가 제공될 수 있다.As described above, through the sympathetic robot according to an embodiment of the present invention, a device capable of minimizing the processing power of the voice recognition sympathetic robot and reducing costs may be provided.
도 4는 본 발명의 실시예에 따른 교감형 로봇 음성인식 방법의 흐름을 나타낸 동작흐름도이다.4 is an operation flow diagram showing the flow of a sympathetic robot voice recognition method according to an embodiment of the present invention.
한편, 하기에서는 음성인식 교감형 로봇(200)은 ARTIK053 보드를 내장하고, 소켓통신을 통해 교감형 로봇의 음성인식 시스템(100)과 통신하는 것을 일례로 설명한다.Meanwhile, in the following description, the voice recognition
이를 위해 단계(410)에서는 외부 단말로부터 전송되는 음성 데이터를 수신할 수 있다. To this end, in
즉, ARTIK053 보드와의 소켓통신으로 Client(ARITK053)가 교감형 로봇의 음성인식 시스템(100) Server에 접속하게 되면, 사용자 구분을 위한 User_info_check()가 실행되며, 사용자는 고유 값을 갖는 primary key를 통해 구분될 수 있다.That is, when the client (ARITK053) connects to the
Client 정보를 action_thread() 호출과 함께 넘겨주면 해당 client socket을 이용하여, google_cloud_streaming() 동작으로 사용자의 음성 데이터(PCM data)를 server로 가져올 수 있다. If the client information is passed along with the action_thread() call, the user's voice data (PCM data) can be imported to the server using the google_cloud_streaming() operation using the corresponding client socket.
다음으로 단계(420)에서는 상기 음성 데이터를 텍스트로 변환할 수 있다. 이때, Google cloud streaming Speech To Text API를 통해서 text로 변환할 수 있다.Next, in
단계(430)에서는 상기 변환된 텍스트로부터 키워드를 추출할 수 있고, 단계(440)에서는 상기 추출된 키워드에 대응하는 응답 텍스트를 기저장된 메타데이터로부터 추출할 수 있다.In
단계(450)에서는 상기 응답 텍스트를 음성 데이터로 변환할 수 있고, 단계(460)에서는 상기 변환된 음성 데이터를 상기 외부 단말로 송신할 수 있다.In
이를 위해 응답 text는 AWS Polly Text To Speech API를 이용하여 1-Chenal, Mono, 22050HZ의 mp3 file로 생성되고 해당 mp3 file을 FFmpeg module를 사용하여 2-Channel Stereo 44000HZ로 변환 및 ARTIK053 보드에게 전달하는 과정이 진행될 수 있다.For this, the response text is created as 1-Chenal, Mono, 22050HZ mp3 file using AWS Polly Text To Speech API, and the corresponding mp3 file is converted to 2-Channel Stereo 44000HZ using FFmpeg module and delivered to the ARTIK053 board. Can proceed.
상기와 같이 본 발명의 일실시례에 따르면, 음성인식 교감형 로봇을 통해 사용자의 음성을 입력받고 이를 서버에 송신하여 서버에서 사용자의 음성을 분석하고 상응하는 응답 음성을 출력하도록 함으로써, 음성인식 교감형 로봇의 처리능력을 최소화하고, 비용을 절감할 수 있는 음성인식 교감형 로봇, 교감형 로봇 음성인식 시스템 및 그 방법이 제공된다.As described above, according to an embodiment of the present invention, by receiving the user's voice through the voice recognition sympathetic robot and sending it to the server, the server analyzes the user's voice and outputs a corresponding response voice, Provided are a voice recognition sympathetic robot, a sympathetic robot voice recognition system, and a method for minimizing the processing power of the robot type and reducing costs.
본 발명의 일실시례에 따르면, 무선통신을 통해 서버에 접속되어 각 사용자에 특화된 음성을 분석하여 그에 상응하는 음성을 출력함으로써, 개별 사용자의 언어습관 등 특성에 부합하여 보다 정확한 음성인식이 가능한 음성인식 교감형 로봇, 교감형 로봇 음성인식 시스템 및 그 방법이 제공된다.According to an embodiment of the present invention, by connecting to a server through wireless communication, analyzing a voice specific to each user and outputting a corresponding voice, more accurate voice recognition is possible in accordance with characteristics such as language habits of individual users. A sympathetic robot, a sympathetic robot voice recognition system, and a method thereof are provided.
본 발명의 일실시례에 따르면, 입력된 음성을 텍스트로 변환하고 상기 텍스트로부터 키워드를 추출하되, 추출된 키워드의 유사어, 카테고리 속성을 추출함으로써, 상기 유사어와 카테고리 속성에 대응하는 응답 텍스트를 보다 효과적으로 생성할 수 있는 음성인식 교감형 로봇, 교감형 로봇 음성인식 시스템 및 그 방법이 제공된다.According to an embodiment of the present invention, by converting the input voice into text and extracting a keyword from the text, and extracting the similar word and category attribute of the extracted keyword, the response text corresponding to the similar word and the category attribute is more effectively A voice recognition sympathetic robot, a sympathetic robot voice recognition system, and a method thereof that can be generated are provided.
또한, 본 발명의 일실시례에 따르면, 저사양 하드웨어를 이용하여 전력소모가 적고 가벼워 휴대가 용이해지고, 초기비용을 현저히 낮출 수 있으며, 사용자가 이동중에도 고속 음성인식 서비스를 제공받을 수 있는 효과가 발생될 수 있다.In addition, according to an embodiment of the present invention, low power consumption and light weight are used to facilitate portability, significantly lower initial cost, and allow users to receive high-speed voice recognition services while on the move. Can be.
또한 본 발명의 일실시례에 따른, 교감형 로봇 음성인식 방법은 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.In addition, the sympathetic robot voice recognition method according to an embodiment of the present invention may be recorded in a computer-readable medium including program instructions for performing operations implemented by various computers. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The medium may be a program instruction specially designed and configured for the present invention, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
이상과 같이 본 발명의 일실시례는 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명의 일실시례는 상기 설명된 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 일실시례는 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.As described above, although an embodiment of the present invention has been described by a limited embodiment and drawings, an embodiment of the present invention is not limited to the above-described embodiment, which is a common knowledge in the field to which the present invention belongs. Anyone who has it can make various modifications and variations from these substrates. Accordingly, one embodiment of the present invention should be grasped only by the claims set forth below, and all equivalent or equivalent modifications thereof will be said to belong to the scope of the inventive concept.
100: 교감형 로봇 음성인식 시스템
110: 음성 데이터 수신부
120: 텍스트 변환부
130: 키워드 추출부
140: 응답 텍스트 생성부
150: 음성 변환부
160: 송신부
200: 교감형 로봇
210: 음성인식 버튼부
220: 음성 입력부
230: 음성 전송부
240: 음성 출력부100: sympathetic robot voice recognition system
110: voice data receiver
120: text conversion unit
130: keyword extraction unit
140: response text generator
150: voice conversion unit
160: transmitter
200: sympathetic robot
210: voice recognition button unit
220: voice input unit
230: voice transmission unit
240: audio output unit
Claims (7)
상기 음성 데이터를 텍스트로 변환하는 텍스트 변환부;
상기 변환된 텍스트로부터 키워드를 추출하는 키워드 추출부;
상기 추출된 키워드에 대응하는 응답 텍스트를 기저장된 메타데이터로부터 추출하는 응답 텍스트 생성부;
상기 응답 텍스트를 음성 데이터로 변환하는 음성 변환부;
상기 변환된 음성 데이터를 상기 외부 단말로 송신하는 송신부; 및
상기 외부 단말의 사용자를 식별하는 고유 키(primary key)를 수신하고, 상기 고유 키에 대응하는 설정값을 독출하는 사용자 관리부
를 포함하고,
상기 키워드 추출부는,
상기 변환된 텍스트에 존재하는 다수의 명사를 추출하고,
상기 명사의 유사어 셋(set)을 생성하고, 상기 추출된 명사의 카테고리를 기설정된 카테고리에 매칭하여,
추출된 키워드마다 유사어 셋과 카테고리 속성을 부여하고,
상기 응답 텍스트 생성부는,
상기 추출된 각각의 키워드의 유사어 셋과 카테고리 속성에 대응하여 연관된 질문 리스트 셋(set)을 각각 추출하고, 상기 질문 리스트 간의 공통 질문을 추출하여 상기 응답 텍스트를 생성하며,
상기 외부단말은,
버튼 조작을 통해 음성 입력을 개시하기 위한 명령을 입력받는 음성인식 버튼부;
사용자로부터 발화되는 음성을 입력받는 음성 입력부;
상기 입력된 음성의 녹음 데이터를 PCM data 형태로 외부 시스템에 전송하되, 기설정된 MTU 단위로 데이터를 분할하여 전송하는 음성 전송부; 및
상기 외부 시스템으로부터의 응답 데이터를 수신하고 출력하는 음성 출력부;
를 포함하고,
상기 출력부는,
상기 응답 데이터 내에 포함된 음성코덱의 각 레지스터의 딜레이 값이 0인지 확인하고, 0이 아닌 경우에는 음성코덱의 설정동작 대기를 위한 딜레이 함수를 콜하여 각 레지스터의 딜레이 값에 상응하는 대기시간을 부여하는 것을 특징으로 하는 교감형 로봇의 음성인식 시스템.A voice data receiving unit for receiving voice data transmitted from an external terminal;
A text conversion unit converting the voice data into text;
A keyword extraction unit for extracting a keyword from the converted text;
A response text generator for extracting a response text corresponding to the extracted keyword from pre-stored metadata;
A voice conversion unit converting the response text into voice data;
A transmitter for transmitting the converted voice data to the external terminal; And
User management unit for receiving a primary key identifying a user of the external terminal and reading a set value corresponding to the unique key
Including,
The keyword extraction unit,
Extracting a plurality of nouns present in the converted text,
Generate a set of similar words of the noun, and match the extracted category of the noun with a preset category,
For each extracted keyword, a similar word set and category attribute are assigned,
The response text generation unit,
Each extracted question list set corresponding to the similar word set and category attribute of each of the extracted keywords is extracted, and the response text is generated by extracting a common question between the question lists,
The external terminal,
A voice recognition button unit receiving a command for starting voice input through button manipulation;
A voice input unit receiving a voice spoken by a user;
A voice transmission unit that transmits the recorded data of the input voice to an external system in the form of PCM data, and divides and transmits the data in a predetermined MTU unit; And
An audio output unit for receiving and outputting response data from the external system;
Including,
The output unit,
Check if the delay value of each register of the voice codec included in the response data is 0, and if it is not 0, call a delay function to wait for the setting operation of the voice codec to give a waiting time corresponding to the delay value of each register. Voice recognition system of a sympathetic robot, characterized in that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180171954A KR102181583B1 (en) | 2018-12-28 | 2018-12-28 | System for voice recognition of interactive robot and the method therof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180171954A KR102181583B1 (en) | 2018-12-28 | 2018-12-28 | System for voice recognition of interactive robot and the method therof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200081925A KR20200081925A (en) | 2020-07-08 |
KR102181583B1 true KR102181583B1 (en) | 2020-11-20 |
Family
ID=71601148
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180171954A KR102181583B1 (en) | 2018-12-28 | 2018-12-28 | System for voice recognition of interactive robot and the method therof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102181583B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112131365A (en) * | 2020-09-22 | 2020-12-25 | 平安科技(深圳)有限公司 | Data processing method, device, equipment and medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018021953A (en) * | 2016-08-01 | 2018-02-08 | トヨタ自動車株式会社 | Voice interactive device and voice interactive method |
KR101832816B1 (en) * | 2016-12-12 | 2018-02-27 | 동국대학교 산학협력단 | Apparatus and method for generating answer for question |
-
2018
- 2018-12-28 KR KR1020180171954A patent/KR102181583B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018021953A (en) * | 2016-08-01 | 2018-02-08 | トヨタ自動車株式会社 | Voice interactive device and voice interactive method |
KR101832816B1 (en) * | 2016-12-12 | 2018-02-27 | 동국대학교 산학협력단 | Apparatus and method for generating answer for question |
Also Published As
Publication number | Publication date |
---|---|
KR20200081925A (en) | 2020-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102108500B1 (en) | Supporting Method And System For communication Service, and Electronic Device supporting the same | |
KR101211796B1 (en) | Apparatus for foreign language learning and method for providing foreign language learning service | |
CN111128126A (en) | Multi-language intelligent voice conversation method and system | |
KR20190075800A (en) | Intelligent personal assistant interface system | |
KR102056330B1 (en) | Apparatus for interpreting and method thereof | |
US11776541B2 (en) | Communicating announcements | |
CN109543021B (en) | Intelligent robot-oriented story data processing method and system | |
JP2013164515A (en) | Voice translation device, voice translation method, and voice translation program | |
JP2011504624A (en) | Automatic simultaneous interpretation system | |
CN110992955A (en) | Voice operation method, device, equipment and storage medium of intelligent equipment | |
KR102312993B1 (en) | Method and apparatus for implementing interactive message using artificial neural network | |
JP2000207170A (en) | Device and method for processing information | |
KR20190115405A (en) | Search method and electronic device using the method | |
JP2018045190A (en) | Voice interaction system and voice interaction method | |
TWI695281B (en) | Translation system, translation method, and translation device | |
KR102181583B1 (en) | System for voice recognition of interactive robot and the method therof | |
KR101959439B1 (en) | Method for interpreting | |
JP6448950B2 (en) | Spoken dialogue apparatus and electronic device | |
KR20200051173A (en) | System for providing topics of conversation in real time using intelligence speakers | |
KR101207435B1 (en) | Interactive speech recognition server, interactive speech recognition client and interactive speech recognition method thereof | |
KR102536944B1 (en) | Method and apparatus for speech signal processing | |
US11790913B2 (en) | Information providing method, apparatus, and storage medium, that transmit related information to a remote terminal based on identification information received from the remote terminal | |
KR102056329B1 (en) | Method for interpreting | |
US11024303B1 (en) | Communicating announcements | |
CN109243424A (en) | One key voiced translation terminal of one kind and interpretation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |