KR102213177B1 - Apparatus and method for recognizing speech in robot - Google Patents
Apparatus and method for recognizing speech in robot Download PDFInfo
- Publication number
- KR102213177B1 KR102213177B1 KR1020180067997A KR20180067997A KR102213177B1 KR 102213177 B1 KR102213177 B1 KR 102213177B1 KR 1020180067997 A KR1020180067997 A KR 1020180067997A KR 20180067997 A KR20180067997 A KR 20180067997A KR 102213177 B1 KR102213177 B1 KR 102213177B1
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- feature vector
- motion information
- feature
- input
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 239000013598 vector Substances 0.000 claims abstract description 142
- 238000013507 mapping Methods 0.000 claims abstract description 52
- 238000013528 artificial neural network Methods 0.000 claims description 35
- 238000012549 training Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 7
- 238000012360 testing method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/003—Controls for manipulators by means of an audio-responsive input
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Manipulator (AREA)
Abstract
로봇에서의 음성인식 장치 및 방법이 제시된다. 일 실시예에 따른 로봇에서의 음성인식 방법은, 로봇의 동작 정보와 마이크로폰으로 입력된 잡음이 포함된 음성 데이터로부터 각각 입력 특징 벡터를 추출하는 단계; 추출된 각각의 상기 입력 특징 벡터를 결합(concatenate)하는 단계; 및 상기 결합된 입력 특징 벡터를 특징 매핑 모델과 음향 모델을 통해 학습시키는 단계를 포함하고, 상기 결합된 입력 특징 벡터를 특징 매핑 모델과 음향 모델을 통해 학습시켜 상기 로봇의 동작 시 발생되는 소음 환경에서 음성인식을 수행할 수 있다. An apparatus and method for speech recognition in a robot are presented. According to an exemplary embodiment, a method for recognizing a voice in a robot includes: extracting input feature vectors from voice data including motion information of the robot and noise input through a microphone; Concatenating each of the extracted input feature vectors; And learning the combined input feature vector through a feature mapping model and an acoustic model, and learning the combined input feature vector through a feature mapping model and an acoustic model in a noise environment generated during operation of the robot. Voice recognition can be performed.
Description
아래의 실시예들은 로봇에서의 음성인식 장치 및 방법에 관한 것으로, 더욱 상세하게는, 로봇 내부의 모터 동작 상태를 보조 정보로 활용함으로써 잡음 환경에서도 강인한 음성인식이 가능한 음성인식 장치 및 방법에 관한 것이다. The following embodiments relate to a speech recognition apparatus and method in a robot, and more particularly, to a speech recognition apparatus and method capable of robust speech recognition even in a noisy environment by using the motor operation state inside the robot as auxiliary information. .
최근 로봇산업의 성장과 함께 음성인식 기술은 로봇과 사람과의 의사소통을 가능하게 해주는 가장 빠르고 강력한 수단으로 사용되고 있다. 음성인식 기술은 미리 수집된 음성 데이터로부터 각 음소별 확률을 미리 학습하고, 이후 입력된 음성 데이터가 어느 음소에 가장 가까운지를 판단하여 이로부터 음소열을 추정하는 방식을 사용한다. With the recent growth of the robot industry, voice recognition technology is being used as the fastest and most powerful means of enabling communication between robots and humans. The speech recognition technology uses a method of pre-learning the probability of each phoneme from previously collected speech data, and then determining which phoneme the input speech data is closest to, and then estimating a phoneme sequence therefrom.
이 때, 사용하는 각 음소별 확률 모델을 음향 모델이라고 부르며, 음향 모델은 음성인식 기술의 성능을 좌우하는 중요한 요소 중에 하나이다. 음성인식 시스템에서 성능을 좌우하는 중요한 요소인 음향 모델의 잡음(노이즈) 강인성은 중요한 이슈로, 이는 음성인식 시스템의 성능이 훈련 환경과 실제 환경 사이의 차이에 기인하여 심각하게 저하되기 때문이다. At this time, the probability model for each phoneme used is called an acoustic model, and the acoustic model is one of the important factors that influence the performance of speech recognition technology. The noise (noise) robustness of the acoustic model, an important factor influencing the performance of the speech recognition system, is an important issue, because the performance of the speech recognition system is seriously degraded due to the difference between the training environment and the actual environment.
종래에는 빅데이터의 수집이 용이해짐에 따라 딥러닝(Deep learning)을 사용하여 강인한 음성인식을 위한 전처리로써 사용하고 있다. 잡음이 혼합된 입력으로부터 깨끗한 음성신호를 추정하여 구하기 위한 심화 신경망(Deep Neural Network, DNN) 모델을 훈련하여 왜곡된 신호로부터 깨끗한 신호로 매핑한다. Conventionally, as the collection of big data becomes easier, deep learning is used as a preprocessing for robust voice recognition. A deep neural network (DNN) model is trained to estimate and obtain a clean speech signal from an input mixed with noise, and map it from a distorted signal to a clean signal.
그러나, 상기 심화 신경망(DNN) 기반의 특징 향상 모델들은 마이크로폰 입력으로부터 얻을 수 있는 정보인 음성 정보만을 활용하여 모델을 훈련시키며 외부 환경에 강인한 음성인식만을 위해 개발되어 왔다. 그러나 실제 로봇이 음성인식을 하는 환경에서는 사용자의 명령에 따라 로봇이 몸체를 움직이면서 발생하는 소음이나 모터 및 팬이 동작하는 소음이 함께 존재하여 음성인식의 성능을 저하시키는 원인이 된다. However, the deep neural network (DNN)-based feature enhancement models have been developed only for robust voice recognition in external environments by training the model using only voice information, which is information obtained from a microphone input. However, in an environment in which a robot actually recognizes voice, noise generated when the robot moves the body according to a user's command, or noise from the motor and fan is present, which degrades the performance of voice recognition.
한국공개번호 10-2016-0032536호는 이러한 신호처리 알고리즘이 통합된 심층 신경망 기반의 음성인식 장치 및 이의 학습 방법에 관한 것으로, 신호처리 알고리즘이 통합된 심층 신경망 기반의 음성인식 장치 및 이의 학습방법에 관한 기술을 기재하고 있다.Korea Publication No. 10-2016-0032536 relates to a deep neural network-based speech recognition device in which such a signal processing algorithm is integrated and a learning method thereof. It describes the related technology.
실시예들은 로봇에서의 음성인식 장치 및 방법에 관하여 기술하며, 보다 구체적으로 로봇 내부의 모터 동작 상태를 보조 정보로 활용함으로써 잡음 환경에서도 강인한 음성인식이 가능한 음성인식 기술을 제공한다. The embodiments describe a voice recognition apparatus and method in a robot, and more specifically, a voice recognition technology capable of robust voice recognition even in a noisy environment is provided by using the motor operation state inside the robot as auxiliary information.
실시예들은 로봇에서 자체적으로 얻을 수 있는 동작 상태 정보를 음성인식 모델 학습시에 보조 정보로 활용하여 훈련 환경과 실제 환경간의 불일치를 최소화하는 로봇에서의 음성인식 장치 및 방법을 제공하는데 있다. Embodiments provide an apparatus and method for speech recognition in a robot that minimizes discrepancy between a training environment and an actual environment by using motion state information that can be obtained by the robot itself as auxiliary information when learning a voice recognition model.
일 실시예에 따른 로봇에서의 음성인식 방법은, 로봇의 동작 정보와 마이크로폰으로 입력된 잡음이 포함된 음성 데이터로부터 각각 입력 특징 벡터를 추출하는 단계; 추출된 각각의 상기 입력 특징 벡터를 결합(concatenate)하는 단계; 및 상기 결합된 입력 특징 벡터를 특징 매핑 모델과 음향 모델을 통해 학습시키는 단계를 포함하고, 상기 결합된 입력 특징 벡터를 특징 매핑 모델과 음향 모델을 통해 학습시켜 상기 로봇의 동작 시 발생되는 소음 환경에서 음성인식을 수행할 수 있다. According to an exemplary embodiment, a method for recognizing a voice in a robot includes: extracting input feature vectors from voice data including motion information of the robot and noise input through a microphone; Concatenating each of the extracted input feature vectors; And learning the combined input feature vector through a feature mapping model and an acoustic model, and learning the combined input feature vector through a feature mapping model and an acoustic model in a noise environment generated during operation of the robot. Voice recognition can be performed.
상기 로봇의 동작 정보와 마이크로폰으로 입력된 잡음이 포함된 음성 데이터로부터 입력 특징 벡터를 추출하는 단계는, 상기 마이크로폰으로 입력된 잡음이 포함된 음성 데이터로부터 특징 벡터를 추출하는 단계; 및 상기 로봇의 동작 정보를 전달 받아 원핫(one-hot) 인코딩(encoding)하는 단계를 포함할 수 있다. Extracting an input feature vector from voice data including motion information of the robot and noise input through a microphone may include: extracting a feature vector from voice data including noise input through the microphone; And receiving the motion information of the robot and performing one-hot encoding.
상기 추출된 각각의 상기 입력 특징 벡터를 결합하는 단계는, 상기 잡음이 포함된 음성 데이터로부터 추출된 음성 특징 벡터열 및 상기 로봇의 동작 정보로부터 원핫 인코딩된 동작 정보 벡터열을 하나의 입력 벡터열로 결합할 수 있다. The step of combining the extracted respective input feature vectors may include: a sequence of voice feature vectors extracted from the noise-containing voice data and a sequence of motion information vectors one-hot encoded from motion information of the robot into one input vector sequence. Can be combined.
상기 결합된 입력 특징 벡터를 특징 매핑 모델과 음향 모델을 통해 학습시키는 단계는, 상기 결합된 입력 특징 벡터를 잡음이 포함되지 않은 음성의 특징 벡터를 추정하는 심화 신경망(Deep Neural Network, DNN)인 상기 특징 매핑 모델을 통해 학습시키는 단계; 및 상기 특징 매핑 모델을 통해 학습된 결과와 상기 로봇의 동작 정보로부터 원핫 인코딩된 동작 정보 벡터열을 결합시켜 향상된 입력 특징 벡터를 추출하는 단계를 포함할 수 있다. The training of the combined input feature vector through a feature mapping model and an acoustic model includes the combined input feature vector being a deep neural network (DNN) estimating a feature vector of speech that does not contain noise. Learning through a feature mapping model; And extracting an improved input feature vector by combining a result learned through the feature mapping model with a one-hot-encoded motion information vector sequence from motion information of the robot.
상기 결합된 입력 특징 벡터를 특징 매핑 모델과 음향 모델을 통해 학습시키는 단계는, 추출된 상기 향상된 입력 특징 벡터를 음소열을 추정하는 심화 신경망인 상기 음향 모델을 통해 학습시키는 단계를 더 포함할 수 있다. The training of the combined input feature vector through a feature mapping model and an acoustic model may further include training the extracted enhanced input feature vector through the acoustic model, which is a deep neural network for estimating a phonetic sequence. .
상기 특징 매핑 모델과 상기 음향 모델을 통해 추정된 음소열로부터 언어 모델을 통해 단어열을 추정하여 음성을 인식하는 단계를 더 포함할 수 있다. The method may further include recognizing a speech by estimating a word sequence through a language model from the phoneme sequence estimated through the feature mapping model and the acoustic model.
여기서, 상기 로봇의 동작 정보는, 상기 로봇의 내부 모터의 온(on)/오프(off) 상태, 내부 팬의 온(on)/오프(off) 상태 및 로봇 몸체의 움직임 정보 중 적어도 어느 하나 이상일 수 있다. Here, the motion information of the robot may be at least one of an on/off state of an internal motor of the robot, an on/off state of an internal fan, and motion information of the robot body. I can.
다른 실시예에 따른 로봇에서의 음성인식 장치는, 로봇의 동작 정보와 마이크로폰으로 입력된 잡음이 포함된 음성 데이터로부터 각각 입력 특징 벡터를 추출하여, 추출된 각각의 상기 입력 특징 벡터를 결합(concatenate)하고, 상기 결합된 입력 특징 벡터를 특징 매핑 모델과 음향 모델을 통해 학습시켜 상기 로봇의 동작 시 발생되는 소음 환경에서 음성인식을 수행할 수 있다. The speech recognition apparatus in a robot according to another embodiment extracts each input feature vector from voice data including motion information of the robot and noise input through a microphone, and concatenates the extracted input feature vectors. And, by learning the combined input feature vector through a feature mapping model and an acoustic model, speech recognition may be performed in a noise environment generated when the robot is operated.
상기 마이크로폰으로 입력된 잡음이 포함된 음성 데이터로부터 특징 벡터를 추출하는 특징 추출부; 및 상기 로봇의 동작 정보를 전달 받아 원핫(one-hot) 인코딩(encoding)하는 원핫 인코딩부를 포함할 수 있다. A feature extraction unit for extracting a feature vector from speech data including noise input to the microphone; And a one-hot encoding unit receiving the motion information of the robot and performing one-hot encoding.
상기 특징 추출부에서 상기 잡음이 포함된 음성 데이터로부터 추출된 음성 특징 벡터열 및 상기 원핫 인코딩부에서 상기 로봇의 동작 정보로부터 원핫 인코딩된 동작 정보 벡터열을 하나의 입력 벡터열로 결합하는 제1 특징 벡터 결합부를 더 포함할 수 있다. A first feature that combines a speech feature vector sequence extracted from the noise-containing voice data by the feature extraction unit and a motion information vector sequence that is one-hot encoded from the motion information of the robot in the one-hot encoding unit into one input vector sequence It may further include a vector combining unit.
상기 제1 특징 벡터 결합부에서 상기 결합된 입력 특징 벡터를 잡음이 포함되지 않은 음성의 특징 벡터를 추정하는 심화 신경망(Deep Neural Network, DNN)인 상기 특징 매핑 모델을 통해 학습시키는 특징 매핑부; 및 상기 특징 매핑 모델을 통해 학습된 결과와 상기 원핫 인코딩부에서 상기 로봇의 동작 정보로부터 원핫 인코딩된 동작 정보 벡터열을 결합시켜 향상된 입력 특징 벡터를 추출하는 제2 특징 벡터 결합부를 더 포함할 수 있다. A feature mapping unit that trains the combined input feature vector by the first feature vector combiner through the feature mapping model, which is a deep neural network (DNN) for estimating a feature vector of speech without noise; And a second feature vector combiner for extracting an improved input feature vector by combining a result learned through the feature mapping model with a motion information vector sequence one-hot encoded from motion information of the robot in the one-hot encoding unit. .
상기 향상된 입력 특징 벡터로부터 단어열을 추정하여 음성을 인식하는 음성인식부를 더 포함할 수 있다.It may further include a speech recognition unit for recognizing speech by estimating a word sequence from the improved input feature vector.
상기 음성인식부는, 상기 향상된 입력 특징 벡터를 심화 신경망인 상기 음향 모델을 통해 학습시켜 음소열을 추정하는 음향 모델부를 포함할 수 있다.The speech recognition unit may include an acoustic model unit for estimating a phoneme sequence by learning the enhanced input feature vector through the acoustic model, which is a deep neural network.
상기 음향 모델부로부터 추정된 상기 음소열로부터 상기 단어열을 추정하는 언어 모델부를 더 포함할 수 있다.A language modeling unit for estimating the word sequence from the phoneme sequence estimated from the acoustic model unit may be further included.
여기서, 상기 로봇의 동작 정보는, 상기 로봇의 내부 모터의 온(on)/오프(off) 상태, 내부 팬의 온(on)/오프(off) 상태 및 로봇 몸체의 움직임 정보 중 적어도 어느 하나 이상일 수 있다. Here, the motion information of the robot may be at least one of an on/off state of an internal motor of the robot, an on/off state of an internal fan, and motion information of the robot body. I can.
실시예들에 따르면 로봇 내부의 모터 동작 상태를 보조 정보로 활용함으로써 잡음 환경에서도 강인한 음성인식이 가능한 로봇에서의 음성인식 장치 및 방법을 제공할 수 있다.According to embodiments, it is possible to provide a speech recognition apparatus and method in a robot capable of robust speech recognition even in a noisy environment by using the motor operation state inside the robot as auxiliary information.
실시예들에 따르면 로봇에서 자체적으로 얻을 수 있는 동작 상태 정보를 음성인식 모델 학습시에 보조 정보로 활용하여 훈련 환경과 실제 환경간의 불일치를 최소화하는 로봇에서의 음성인식 장치 및 방법을 제공할 수 있다. According to embodiments, it is possible to provide a speech recognition apparatus and method in a robot that minimizes discrepancy between a training environment and an actual environment by using motion state information that can be obtained by the robot itself as auxiliary information when learning a voice recognition model. .
도 1은 일 실시예에 따른 로봇이 사용자의 명령에 따라 동작하며 소음을 발생시키는 예를 나타내는 도면이다.
도 2는 일 실시예에 따른 로봇에서의 음성인식 방법의 구성을 개략적으로 나타내는 도면이다.
도 3은 일 실시예에 따른 로봇에서의 음성인식 장치의 블록도를 나타내는 도면이다.
도 4는 일 실시예에 따른 음성 데이터의 특징 벡터 및 로봇의 동작 정보의 결합을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 향상된 음성 데이터의 특징 벡터 및 로봇의 동작 정보의 결합을 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 단어열의 생성을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 로봇에서의 음성인식 장치의 성능을 설명하기 위한 도면이다.1 is a diagram illustrating an example in which a robot according to an exemplary embodiment operates according to a user's command and generates noise.
2 is a diagram schematically showing the configuration of a voice recognition method in a robot according to an embodiment.
3 is a block diagram of a speech recognition apparatus in a robot according to an exemplary embodiment.
4 is a diagram for explaining a combination of a feature vector of voice data and motion information of a robot according to an embodiment.
FIG. 5 is a diagram for describing a combination of a feature vector of improved voice data and motion information of a robot according to an exemplary embodiment.
6 is a diagram illustrating generation of a word sequence according to an exemplary embodiment.
7 is a diagram illustrating the performance of a speech recognition device in a robot according to an exemplary embodiment.
이하, 첨부된 도면을 참조하여 실시예들을 설명한다. 그러나, 기술되는 실시예들은 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명되는 실시예들에 의하여 한정되는 것은 아니다. 또한, 여러 실시예들은 당해 기술분야에서 평균적인 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위해서 제공되는 것이다. 도면에서 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.Hereinafter, embodiments will be described with reference to the accompanying drawings. However, the described embodiments may be modified in various forms, and the scope of the present invention is not limited by the embodiments described below. In addition, various embodiments are provided to more completely explain the present invention to those of ordinary skill in the art. In the drawings, the shapes and sizes of elements may be exaggerated for clearer explanation.
도 1은 일 실시예에 따른 로봇이 사용자의 명령에 따라 동작하며 소음을 발생시키는 예를 나타내는 도면이다.1 is a diagram illustrating an example in which a robot according to an exemplary embodiment operates according to a user's command and generates noise.
본 실시예에서는 로봇에서 자체적으로 얻을 수 있는 동작 상태 정보를 음성인식 모델 학습시에 보조 정보로 활용하여 훈련 환경과 실제 환경간의 불일치를 최소화하는 음성인식장치 및 방법을 제공하는 것을 그 목적으로 한다. An object of the present embodiment is to provide a speech recognition apparatus and method for minimizing inconsistency between a training environment and an actual environment by using motion state information obtained by the robot itself as auxiliary information during speech recognition model learning.
도 1을 참조하면, 일 실시예에 따른 로봇이 사용자의 명령에 따라 동작하며 소음을 발생시키는 예를 나타내는 것으로, 사람의 명령에 따라 상호작용하는 로봇의 경우 모터 및 팬소음과 함께 로봇이 움직이면서 발생하는 소음과 같은 내부 소음이 존재한다. 잡음 종류를 추정하기 어려운 외부 배경 잡음과는 달리, 이러한 로봇의 내부 소음 종류는 로봇의 동작 정보를 통해 충분히 얻을 수 있는 정보이기 때문에 심화 신경망(Deep Neural Network, DNN)의 훈련 및 테스트시에 활용이 가능하다.1, a robot according to an embodiment shows an example in which a robot operates according to a user's command and generates noise.In the case of a robot that interacts according to a human command, it is generated when the robot moves together with motor and fan noise. There is an internal noise, such as the noise that makes. Unlike external background noise, where it is difficult to estimate the noise type, the internal noise type of such a robot is information that can be sufficiently obtained through the motion information of the robot, so it can be used for training and testing of a deep neural network (DNN). It is possible.
도 2는 일 실시예에 따른 로봇에서의 음성인식 방법의 구성을 개략적으로 나타내는 도면이다. 2 is a diagram schematically showing the configuration of a voice recognition method in a robot according to an embodiment.
도 2를 참조하면, 일 실시예에 따른 로봇에서의 음성인식 방법의 구성을 개략적으로 나타내며, 이를 참조하여 로봇에서의 음성인식 방법을 설명한다. Referring to FIG. 2, a configuration of a voice recognition method in a robot according to an embodiment is schematically shown, and a voice recognition method in a robot will be described with reference to this.
일 실시예에 따른 로봇에서의 음성인식 방법은, 로봇의 동작 정보(202)와 마이크로폰으로 입력된 잡음이 포함된 음성 데이터(201)로부터 각각 입력 특징 벡터를 추출하는 단계, 추출된 각각의 입력 특징 벡터를 결합(concatenate)하는 단계, 및 결합된 입력 특징 벡터를 특징 매핑 모델(231)과 음향 모델(232)을 통해 학습시키는 단계를 포함하고, 결합된 입력 특징 벡터를 특징 매핑 모델(231)과 음향 모델(232)을 통해 학습시켜 로봇의 동작 시 발생되는 소음 환경에서 음성인식을 수행할 수 있다. 여기서, 특징 매핑 모델(231)과 음향 모델(232)은 심화 신경망(DNN) 학습(부)(230)이 될 수 있다. The speech recognition method in a robot according to an embodiment includes the steps of extracting input feature vectors from the
여기서, 로봇의 동작 정보(202)는 로봇의 내부 모터의 온(on)/오프(off) 상태, 내부 팬의 온(on)/오프(off) 상태 및 로봇 몸체의 움직임 정보 중 적어도 어느 하나 이상일 수 있다. Here, the
실시예들에 따르면 로봇에서 자체적으로 얻을 수 있는 동작 상태 정보를 음성인식 모델의 학습시에 보조 정보로 활용하여 훈련 환경과 실제 환경간의 불일치를 최소화하는 로봇에서의 음성인식 장치 및 방법을 제공할 수 있다.According to embodiments, it is possible to provide a speech recognition apparatus and method in a robot that minimizes discrepancy between the training environment and the actual environment by using motion state information obtained by the robot itself as auxiliary information when learning a speech recognition model. have.
아래에서는 일 실시예에 따른 로봇에서의 음성인식 방법을 하나의 예를 들어 보다 구체적으로 설명한다. Hereinafter, a voice recognition method in a robot according to an exemplary embodiment will be described in more detail with an example.
먼저, 일 실시예에 따른 로봇에서의 음성인식 방법은 후술할 일 실시예에 따른 로봇에서의 음성인식 장치를 이용하여 구체적으로 설명할 수 있다. 여기서, 일 실시예에 따른 로봇에서의 음성인식 장치는 특징 추출부, 원핫 인코딩부, 제1 특징 벡터 결합부, 특징 매핑부, 제2 특징 벡터 결합부 및 음성인식부를 포함하여 이루어질 수 있다. 여기서, 음성인식부는 음향 모델(232)부 및 언어 모델부를 포함할 수 있다. First, a voice recognition method in a robot according to an embodiment may be described in detail using a voice recognition apparatus in a robot according to an embodiment to be described later. Here, the speech recognition apparatus in the robot according to an embodiment may include a feature extraction unit, a one-hot encoding unit, a first feature vector combining unit, a feature mapping unit, a second feature vector combining unit, and a speech recognition unit. Here, the speech recognition unit may include an acoustic model 232 unit and a language model unit.
먼저, 로봇의 동작 정보(202)와 마이크로폰으로 입력된 잡음이 포함된 음성 데이터(201)로부터 각각 입력 특징 벡터를 추출할 수 있다. First, each input feature vector may be extracted from the
보다 구체적으로, 특징 벡터 추출부는 마이크로폰으로 입력된 잡음이 포함된 음성 데이터(201)로부터 특징 벡터를 추출할 수 있다. 그리고 원핫 인코딩부는 로봇의 동작 정보(202)를 전달 받아 원핫 인코딩할 수 있다. More specifically, the feature vector extractor may extract a feature vector from the speech data 201 including noise input through the microphone. In addition, the one-hot encoding unit may receive the
다음으로, 추출된 각각의 입력 특징 벡터를 결합할 수 있다.Next, each of the extracted input feature vectors can be combined.
보다 구체적으로, 제1 특징 벡터 결합부는 잡음이 포함된 음성 데이터(201)로부터 추출된 음성 특징 벡터열 및 로봇의 동작 정보(202)로부터 원핫 인코딩된 동작 정보 벡터열을 하나의 입력 벡터열로 결합할 수 있다. More specifically, the first feature vector combiner combines the voice feature vector sequence extracted from the noise-containing voice data 201 and the motion information vector sequence one-hot encoded from the
그 다음, 결합된 입력 특징 벡터를 특징 매핑 모델(231)과 음향 모델(232)을 통해 학습시킬 수 있다. 여기서, 특징 매핑 모델(231)과 음향 모델(232)은 심화 신경망으로 이루어질 수 있으며, 예컨대 적층된(stacked) 심화 신경망으로 이루어져 깨끗한 음성 특징을 추정할 수 있다. 이와 같이 결합된 입력 특징 벡터를 특징 매핑 모델(231)과 음향 모델(232)을 통해 학습시켜 로봇의 동작 시 발생되는 소음 환경에서 음성인식을 수행할 수 있으며, 단일 심화 신경망을 이용하는 것보다 적층된 심화 신경망을 이용함으로써 음성인식 성능을 높일 수 있다. Then, the combined input feature vectors may be trained through the feature mapping model 231 and the acoustic model 232. Here, the feature mapping model 231 and the acoustic model 232 may be formed of a deep neural network, for example, a stacked deep neural network to estimate a clean speech feature. By learning the combined input feature vectors as described above through the feature mapping model 231 and the acoustic model 232, speech recognition can be performed in a noisy environment generated during the operation of the robot, and it is stacked rather than using a single deep neural network. Voice recognition performance can be improved by using a deep neural network.
보다 구체적으로, 특징 매핑부는 결합된 입력 특징 벡터를 잡음이 포함되지 않은 음성의 특징 벡터를 추정하는 심화 신경망인 특징 매핑 모델(231)을 통해 학습시킬 수 있다. 그리고 제2 특징 벡터 결합부는 특징 매핑 모델(231)을 통해 향상된 입력 특징 벡터를 추출할 수 있다. 이 때, 제2 특징 벡터 결합부는 특징 매핑 모델(231)을 통해 학습된 결과와 로봇의 동작 정보(202)로부터 원핫 인코딩된 동작 정보 벡터열을 하나의 입력 벡터열로 결합할 수 있다. More specifically, the feature mapping unit may train the combined input feature vector through the feature mapping model 231, which is a deep neural network that estimates feature vectors of speech without noise. In addition, the second feature vector combiner may extract an improved input feature vector through the feature mapping model 231. In this case, the second feature vector combiner may combine the result of learning through the feature mapping model 231 and the motion information vector sequence one-hot encoded from the
그리고, 음성인식부의 음향 모델(232)부는 추출된 향상된 입력 특징 벡터를 음소열(203)을 추정하는 심화 신경망인 음향 모델(232)을 통해 학습시킬 수 있다. 또한, 음성인식부의 언어 모델부는 특징 매핑 모델(231)과 음향 모델(232)을 통해 추정된 음소열(203)로부터 언어 모델을 통해 단어열을 추정하여 음성을 인식할 수 있다. In addition, the acoustic model 232 of the speech recognition unit may train the extracted enhanced input feature vector through the acoustic model 232 which is a deep neural network that estimates the phoneme sequence 203. In addition, the language model unit of the speech recognition unit may recognize a speech by estimating a word sequence through the language model from the phoneme sequence 203 estimated through the feature mapping model 231 and the acoustic model 232.
도 3은 일 실시예에 따른 로봇에서의 음성인식 장치의 블록도를 나타내는 도면이다. 3 is a block diagram of a speech recognition apparatus in a robot according to an exemplary embodiment.
도 3을 참조하면, 일 실시예에 따른 로봇에서의 음성인식 장치는 로봇의 동작 정보(302)와 마이크로폰으로 입력된 잡음이 포함된 음성 데이터(301)로부터 각각 입력 특징 벡터를 추출하여, 추출된 각각의 입력 특징 벡터를 결합(concatenate)하고, 결합된 입력 특징 벡터(303)를 특징 매핑 모델과 음향 모델을 통해 학습시켜 로봇의 동작 시 발생되는 소음 환경에서 음성인식을 수행할 수 있다. 3, the speech recognition apparatus in the robot according to an embodiment extracts input feature vectors from the
여기서, 로봇의 동작 정보(302)는 로봇의 내부 모터의 온(on)/오프(off) 상태, 내부 팬의 온(on)/오프(off) 상태 및 로봇 몸체의 움직임 정보 중 적어도 어느 하나 이상일 수 있다. 또한, 로봇의 동작 정보(302)는 동작 속도에 따라 모터 등에 의해 잡음이 달라질 수 있으므로, 동작 속도를 포함할 수 있다. Here, the
이러한 일 실시예에 따른 로봇에서의 음성인식 장치는 특징 추출부(310), 원핫 인코딩부(320), 제1 특징 벡터 결합부(330), 특징 매핑부(340), 제2 특징 벡터 결합부(350) 및 음성인식부(360)를 포함하여 이루어질 수 있다. 여기서, 음성인식부(360)는 음향 모델부(361) 및 언어 모델부(362)를 포함할 수 있다. The speech recognition apparatus in the robot according to this embodiment includes a feature extraction unit 310, a one-hot encoding unit 320, a first feature vector combining unit 330, a
특징 추출부(310)는 잡음이 포함된 음성으로부터 특징을 추출하는 것으로, 마이크로폰으로 입력된 잡음이 포함된 음성 데이터(301)로부터 특징 벡터를 추출할 수 있다. The feature extraction unit 310 extracts features from speech containing noise, and may extract a feature vector from
원핫 인코딩부(320)는 로봇의 동작 정보(302)를 원핫(one-hot) 인코딩(encoding)하는 것으로, 로봇의 동작 정보(302)를 전달 받아 원핫 인코딩할 수 있다. The one-hot encoding unit 320 performs one-hot encoding on the
제1 특징 벡터 결합부(330)는 음성 정보를 담고 있는 특징 벡터와 로봇 정보를 담고 있는 벡터의 결합시킬 수 있다. 이러한 제1 특징 벡터 결합부(330)는 특징 추출부(310)에서 잡음이 포함된 음성 데이터(301)로부터 추출된 음성 특징 벡터열 및 원핫 인코딩부(320)에서 로봇의 동작 정보(302)로부터 원핫 인코딩된 동작 정보 벡터열을 하나의 입력 벡터열로 결합할 수 있다. The first feature vector combiner 330 may combine a feature vector containing voice information and a vector containing robot information. The first feature vector combining unit 330 includes a speech feature vector sequence extracted from the
특징 매핑부(340) 제1 특징 벡터 결합부(330)에서 결합된 입력 특징 벡터(303)를 잡음이 포함되지 않은 음성의 특징 벡터를 추정하는 심화 신경망인 특징 매핑 모델을 통해 학습시킬 수 있다. The
또한, 제2 특징 벡터 결합부(350)는 특징 매핑 모델을 통해 학습된 결과와 원핫 인코딩부(320)에서 로봇의 동작 정보(302)로부터 원핫 인코딩된 동작 정보 벡터열을 결합시켜 향상된 입력 특징 벡터(304)를 추출할 수 있다. In addition, the second feature vector combiner 350 combines the result of learning through the feature mapping model and the motion information vector sequence one-hot encoded from the
그리고 음성인식부(360)는 잡음 데이터로부터 깨끗한 음성을 추정하기 위한 것으로, 향상된 입력 특징 벡터(304)로부터 단어열(305)을 추정하여 음성을 인식할 수 있다.Further, the
여기서, 음성인식부(360)는 음향 모델부(361) 및 언어 모델부(362)를 포함할 수 있다. Here, the
음향 모델부(361)는 향상된 입력 특징 벡터(304)를 심화 신경망인 음향 모델을 통해 학습시켜 음소열을 추정할 수 있다.The acoustic model unit 361 may estimate the phoneme sequence by learning the improved
언어 모델부(362)는 음향 모델부(361)로부터 추정된 음소열로부터 단어열(305)을 추정할 수 있다. The
도 4는 일 실시예에 따른 음성 데이터의 특징 벡터 및 로봇의 동작 정보(302)의 결합을 설명하기 위한 도면이다. FIG. 4 is a diagram for explaining a combination of a feature vector of voice data and
도 4를 참조하면, 추출된 음성 특징 벡터와 로봇 동작 정보를 담고 있는 원핫(one-hot) 벡터를 결합할 수 있다. Referring to FIG. 4, the extracted voice feature vector and a one-hot vector containing robot motion information may be combined.
특징 추출부(310)는 입력되는 음성 데이터를 다른 형태의 신호로 변환시키는 과정을 수행하는 부분이다. 입력되는 음성 파형을 음성 파형의 특징을 가지는 축약된 다른 형식의 신호로 변환할 수 있는데, 필요한 특징 신호만을 추출하고 필요하지 않은 정보는 배제시켜 신호를 축약시킬 수 있다. 이렇게 축약된 신호를 특징 벡터라고 한다. 즉, 특징 추출부(310)는 마이크로폰의 입력인 음성 데이터로부터 특징 벡터를 추출한다. The feature extraction unit 310 is a part that performs a process of converting input voice data into a signal of another type. The input voice waveform can be converted into a signal of another abbreviated format having features of the voice waveform, and the signal can be abbreviated by extracting only the necessary feature signal and excluding unnecessary information. This abbreviated signal is called a feature vector. That is, the feature extraction unit 310 extracts a feature vector from voice data that is input from the microphone.
그리고, 원핫 인코딩부(320)는 로봇의 동작 정보(302)를 전달 받아 원핫 인코딩할 수 있고, 제1 특징 벡터 결합부(330)를 통해 음성 정보를 담고 있는 특징 벡터와 로봇 정보를 담고 있는 벡터의 결합시킴으로써, 잡음이 포함된 음성 데이터(301)로부터 추출된 음성 특징 벡터열 및 원핫 인코딩부(320)에서 로봇의 동작 정보(302)로부터 원핫 인코딩된 동작 정보 벡터열을 하나의 입력 벡터열로 결합할 수 있다.In addition, the one-hot encoding unit 320 may receive the
도 5는 일 실시예에 따른 향상된 음성 데이터의 특징 벡터 및 로봇의 동작 정보(302)의 결합을 설명하기 위한 도면이다. 5 is a diagram for explaining a combination of a feature vector of improved voice data and
도 5를 참조하면, 도 4에서 결합된 특징 벡터를 입력으로 특징 매핑부(340)로부터 향상된 특징 벡터를 구하고, 제2 특징 벡터 결합부(350)에서 향상된 특징 벡터와 로봇의 동작 정보(302)를 결합할 수 있다. Referring to FIG. 5, an improved feature vector is obtained from the
특징 매핑부(340)는 심화 신경망을 사용하여 학습한다. 특징 매핑부(340)에서는 로봇 내부 소음이 섞인 음성 데이터로부터 추출된 특징 벡터와 로봇의 동작 정보(302)가 포함된 벡터를 연결하여 입력으로 한다. 연결된 입력 특징 벡터로부터 깨끗한 음성의 특징을 추정하도록 설계된다. The
하기의 수학식 1과 같이, 특징 매핑 심화 신경망의 출력과 원하는 타겟인 깨끗한 음성 간의 평균 제곱 오차를 최소화함으로써 심화 신경망이 학습된다.As shown in Equation 1 below, the deep neural network is trained by minimizing the mean square error between the output of the feature mapping deep neural network and the desired target clean speech.
[수학식 1] [Equation 1]
여기서, 는 f 번째 프레임에 대해 심화 신경망으로 추정한 잡음이 제거된 특징이고, 는 기준이 되는 깨끗한 특징이다. 와 는 모두 차원의 크기를 갖는 특징 벡터다. 그리고 W는 가중치 값 k는 균일화 가중치 계수, F는 mini-batch 프레임 크기를 나타낸다here, Is the feature from which the noise estimated by the deep neural network is removed for the f- th frame, Is a standard clean feature. Wow Is all It is a feature vector of dimension size. And W is the weight value k is the equalization weight coefficient, F is the mini-batch frame size.
도 6은 일 실시예에 따른 단어열(305)의 생성을 설명하기 위한 도면이다. 6 is a diagram illustrating generation of a
도 6을 참조하면, 도 5의 결합된 특징 벡터를 입력으로 음성인식 모델을 통해 단어열(305)을 생성할 수 있다. Referring to FIG. 6, a
음성인식부(360)는 음향 모델부(361)와 언어 모델부(362)로 구성되며, 특징 벡터 데이터에 대하여 그 유사도에 대한 분석을 통해, 음성 데이터에 대한 단어열(305)을 식별할 수 있다.The
음향 모델부(361)는 심화 신경망을 사용하여 학습할 수 있다. 음향 모델부(361)는 음성인식부(360)에서 단어를 인식하기 위해서 필요한 음향 모델을 생성하는 부분으로서 사용자가 발음하는 단어를 음소 단위로 인식하여 모델링하는 부분이다. The acoustic model unit 361 may be trained using a deep neural network. The acoustic model unit 361 is a portion for generating an acoustic model necessary for the
이 때, 음향 모델부(361)에서는 특징 매핑부(340)의 출력인 향상된 특징 벡터와 로봇의 동작 정보(302)가 포함된 벡터를 하나로 연결하여 입력으로 하며, 연결된 특징 벡터로부터 음소열을 추정할 수 있다.In this case, the acoustic model unit 361 connects the enhanced feature vector output of the
언어 모델부(362)는 주어진 문장 내에서 각 단어들 사이의 관계를 찾아내고 이를 음성인식에 반영하는 역할을 담당하는 부분이다. 특히, 여러 단어가 순서대로 주어진 경우 그 다음에 나타나는 단어는 앞 단어와 연관성이 크다는 것에 착안한다. 이러한 언어 모델은 일반적인 통계모델을 사용할 수 있다.The
실시예들에 따르면 특징 매핑 네트워크와 음향 모델 네트워크 학습 및 테스트시에 마이크로폰으로부터 얻을 수 있는 음성 데이터 정보 외에 로봇의 동작 정보(302)를 보조 정보를 활용함으로써 내부 동작 소음에서도 강인한 음성인식을 가능하게 한다. According to embodiments, in addition to the voice data information obtained from the microphone during the learning and testing of the feature mapping network and the acoustic model network, the
도 7은 일 실시예에 따른 로봇에서의 음성인식 장치의 성능을 설명하기 위한 도면이다.7 is a diagram illustrating the performance of a speech recognition device in a robot according to an exemplary embodiment.
도 7을 참조하면, 일 실시예에 따른 로봇에서의 음성인식 장치의 성능을 설명하기 위해 스펙트럼 그래프를 비교한다. 여기서, (a)는 원본인 잡음이 없는 깨끗한 음성 신호를 나타내고, (b)는 마이크로폰의 입력 음성 신호(5dB에서의 잡음 상태)를 나타내며, (c)는 단일 심화 신경망(DNN) 기반 알고리즘으로 강화한 결과이고, (d) 적층된 심화 신경망(DNN) 기반 알고리즘으로 강화한 결과이다. Referring to FIG. 7, spectrum graphs are compared to describe the performance of a speech recognition device in a robot according to an exemplary embodiment. Here, (a) represents the original noise-free clear speech signal, (b) represents the microphone's input speech signal (noise state at 5 dB), and (c) represents the single deep neural network (DNN)-based algorithm. It is the result, and (d) it is the result of reinforcement with the stacked deep neural network (DNN) based algorithm
여기서, 적층된 심화 신경망(DNN) 기반 알고리즘은 앞에서 설명한 심화 신경망(DNN)으로 이루어진 특징 매핑 모델과 음향 모델을 통해 깨끗한 음성 특징을 추정한 결과이다. 적층된 심화 신경망(DNN) 기반 알고리즘을 이용하는 경우, 단일 심화 신경망(DNN) 기반 알고리즘을 이용하는 경우보다 음성인식 성능을 높일 수 있다. Here, the stacked deep neural network (DNN)-based algorithm is the result of estimating clean speech features through the feature mapping model and acoustic model consisting of the deep neural network (DNN) described above. When a stacked deep neural network (DNN)-based algorithm is used, speech recognition performance can be improved than when a single deep neural network (DNN)-based algorithm is used.
표 1은 일 실시예에 따른 로봇에서의 음성인식 장치의 성능의 예를 나타낸다. Table 1 shows an example of the performance of a speech recognition device in a robot according to an embodiment.
[표 1][Table 1]
표 1을 참조하면, TIMIT 데이터셋의 음소(phone) 오류율(PER) 성능을 나타내는 것으로, 모델을 보조 정보(로봇의 동작 정보)의 특징이 없는 경우와 보조 정보의 특징이 있는 경우로, 나누어 각각 3 가지 모델, 즉 (1) 특징 매핑이 없는 모델(X), (2) 단일 심화 신경망(DNN) 기반 특징 매핑이 있는 모델, (3) 적층된 모델 심화 신경망(DNN) 기반 특징 매핑이 있는 모델로 구분하여 성능을 비교하였다.Referring to Table 1, it shows the phonetic error rate (PER) performance of the TIMIT dataset, and the model is divided into cases without the features of auxiliary information (robot motion information) and cases with the features of auxiliary information, respectively. Three models: (1) model without feature mapping (X), (2) model with single deep neural network (DNN)-based feature mapping, (3) stacked model model with deep neural network (DNN)-based feature mapping And compared the performance.
결과적으로, 보조 정보(로봇의 동작 정보)를 사용하는 모델의 성능은 기존 모델의 모든 모델보다 우수하다. 그리고 보조 정보를 사용하는 경우, 적층된 심화 신경망(DNN)을 사용하는 형상 매핑 모델이 최고의 성능을 보였다. 따라서 모터 등의 로봇 동작 정보가 관련 특징이 될 수 있다.As a result, the performance of the model using auxiliary information (robot motion information) is superior to all models of the existing model. In addition, when using auxiliary information, the shape mapping model using a stacked deep neural network (DNN) showed the best performance. Therefore, robot motion information such as a motor may be a related feature.
이상과 같이 실시예들에 따른 음성인식 방식을 이용하여 로봇의 동작 상태를 음성인식 모델 학습시에 활용할 수 있으며, 배경 잡음뿐만 아니라 로봇 내부에서 발생하는 소음이 존재하는 상황에서도 강인한 음성인식을 가능하게 할 수 있다. As described above, by using the speech recognition method according to the embodiments, the operation state of the robot can be utilized when learning the speech recognition model, and robust speech recognition is possible even in the presence of noise generated inside the robot as well as background noise. can do.
이러한 로봇에서의 음성인식 장치 및 방법은 소셜 로봇에서의 음성인식 기술, 인공지능 스피커에서의 음성인식 기술 등에 적용이 가능하다. Such a speech recognition device and method in a robot can be applied to a speech recognition technology in a social robot and a speech recognition technology in an artificial intelligence speaker.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the devices and components described in the embodiments include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It can be implemented using one or more general purpose computers or special purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to behave as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. Can be embodyed. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler but also high-level language codes that can be executed by a computer using an interpreter or the like.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited embodiments and drawings, various modifications and variations are possible from the above description by those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and claims and equivalents fall within the scope of the claims to be described later.
Claims (15)
추출된 각각의 상기 입력 특징 벡터를 결합(concatenate)하는 단계; 및
상기 결합된 입력 특징 벡터를 특징 매핑 모델과 음향 모델을 통해 학습시키는 단계
를 포함하고,
상기 로봇의 동작 정보와 마이크로폰으로 입력된 잡음이 포함된 음성 데이터로부터 입력 특징 벡터를 추출하는 단계는,
상기 마이크로폰으로 입력된 잡음이 포함된 음성 데이터로부터 특징 벡터를 추출하는 단계; 및
상기 로봇의 동작 정보를 전달 받아 원핫(one-hot) 인코딩(encoding)하는 단계
를 포함하며,
상기 추출된 각각의 상기 입력 특징 벡터를 결합하는 단계는,
상기 잡음이 포함된 음성 데이터로부터 추출된 음성 특징 벡터열 및 상기 로봇의 동작 정보로부터 원핫 인코딩된 동작 정보 벡터열을 하나의 입력 벡터열로 결합하고,
상기 결합된 입력 특징 벡터를 특징 매핑 모델과 음향 모델을 통해 학습시키는 단계는,
상기 결합된 입력 특징 벡터를 잡음이 포함되지 않은 음성의 특징 벡터를 추정하는 심화 신경망(Deep Neural Network, DNN)인 상기 특징 매핑 모델을 통해 학습시키는 단계; 및
상기 특징 매핑 모델을 통해 학습된 결과와 상기 로봇의 동작 정보로부터 원핫 인코딩된 동작 정보 벡터열을 결합시켜 향상된 입력 특징 벡터를 추출하는 단계
를 포함하고,
상기 결합된 입력 특징 벡터를 특징 매핑 모델과 음향 모델을 통해 학습시켜 상기 로봇의 동작 시 발생되는 소음 환경에서 음성인식을 수행하는, 로봇에서의 음성인식 방법. Extracting input feature vectors from speech data including motion information of the robot and noise input through the microphone;
Concatenating each of the extracted input feature vectors; And
Learning the combined input feature vector through a feature mapping model and an acoustic model
Including,
Extracting an input feature vector from voice data including motion information of the robot and noise input through a microphone,
Extracting a feature vector from speech data including noise input to the microphone; And
Receiving the motion information of the robot and performing one-hot encoding
Including,
Combining the extracted respective input feature vectors,
Combine the voice feature vector sequence extracted from the noise-containing voice data and the motion information vector sequence one-hot encoded from the motion information of the robot into one input vector sequence,
The step of learning the combined input feature vector through a feature mapping model and an acoustic model,
Training the combined input feature vector through the feature mapping model, which is a deep neural network (DNN) that estimates a feature vector of a speech without noise; And
Extracting an improved input feature vector by combining the result learned through the feature mapping model with a one-hot-encoded motion information vector sequence from motion information of the robot
Including,
A speech recognition method in a robot, wherein the combined input feature vector is learned through a feature mapping model and an acoustic model to perform speech recognition in a noisy environment generated during operation of the robot.
상기 결합된 입력 특징 벡터를 특징 매핑 모델과 음향 모델을 통해 학습시키는 단계는,
추출된 상기 향상된 입력 특징 벡터를 음소열을 추정하는 심화 신경망인 상기 음향 모델을 통해 학습시키는 단계
를 더 포함하는, 로봇에서의 음성인식 방법.The method of claim 1,
The step of learning the combined input feature vector through a feature mapping model and an acoustic model,
Learning the extracted enhanced input feature vector through the acoustic model, which is a deep neural network for estimating a phonetic sequence
A method for speech recognition in a robot further comprising a.
상기 특징 매핑 모델과 상기 음향 모델을 통해 추정된 음소열로부터 언어 모델을 통해 단어열을 추정하여 음성을 인식하는 단계
를 더 포함하는, 로봇에서의 음성인식 방법. The method according to claim 1 or 5,
Recognizing a speech by estimating a word sequence through a language model from the phoneme sequence estimated through the feature mapping model and the acoustic model
A method for speech recognition in a robot further comprising a.
상기 로봇의 동작 정보는,
상기 로봇의 내부 모터의 온(on)/오프(off) 상태, 내부 팬의 온(on)/오프(off) 상태 및 로봇 몸체의 움직임 정보 중 적어도 어느 하나 이상인 것
을 특징으로 하는, 로봇에서의 음성인식 방법.The method of claim 1,
The motion information of the robot,
At least one of at least one of an on/off state of the robot's internal motor, an on/off state of an internal fan, and motion information of the robot body
Characterized in, the voice recognition method in the robot.
상기 로봇의 동작 정보를 전달 받아 원핫(one-hot) 인코딩(encoding)하는 원핫 인코딩부
를 포함하고,
상기 특징 추출부에서 상기 잡음이 포함된 음성 데이터로부터 추출된 음성 특징 벡터열 및 상기 원핫 인코딩부에서 상기 로봇의 동작 정보로부터 원핫 인코딩된 동작 정보 벡터열을 하나의 입력 벡터열로 결합하는 제1 특징 벡터 결합부
상기 제1 특징 벡터 결합부에서 상기 결합된 입력 특징 벡터를 잡음이 포함되지 않은 음성의 특징 벡터를 추정하는 심화 신경망(Deep Neural Network, DNN)인 상기 특징 매핑 모델을 통해 학습시키는 특징 매핑부; 및
상기 특징 매핑 모델을 통해 학습된 결과와 상기 원핫 인코딩부에서 상기 로봇의 동작 정보로부터 원핫 인코딩된 동작 정보 벡터열을 결합시켜 향상된 입력 특징 벡터를 추출하는 제2 특징 벡터 결합부
를 더 포함하고,
상기 로봇의 동작 정보와 마이크로폰으로 입력된 잡음이 포함된 음성 데이터로부터 각각 입력 특징 벡터를 추출하여, 추출된 각각의 상기 입력 특징 벡터를 결합(concatenate)하고, 상기 결합된 입력 특징 벡터를 특징 매핑 모델과 음향 모델을 통해 학습시켜 상기 로봇의 동작 시 발생되는 소음 환경에서 음성인식을 수행하는, 로봇 내에 구현된 음성인식 장치. A feature extracting unit for extracting a feature vector from speech data including noise input through a microphone configured in the robot; And
One-hot encoding unit that receives the motion information of the robot and performs one-hot encoding
Including,
A first feature that combines a speech feature vector sequence extracted from the noise-containing voice data by the feature extraction unit and a motion information vector sequence that is one-hot encoded from the motion information of the robot in the one-hot encoding unit into one input vector sequence Vector joiner
A feature mapping unit that trains the combined input feature vector by the first feature vector combiner through the feature mapping model, which is a deep neural network (DNN) for estimating a feature vector of speech without noise; And
A second feature vector combiner for extracting an improved input feature vector by combining the result learned through the feature mapping model with a motion information vector sequence one-hot encoded from motion information of the robot in the one-hot encoding section
Including more,
Each input feature vector is extracted from the motion information of the robot and the voice data including noise input to the microphone, and the extracted input feature vectors are concatenated, and the combined input feature vector is used as a feature mapping model. A speech recognition device implemented in a robot that performs speech recognition in a noisy environment generated during operation of the robot by learning through an acoustic model.
상기 향상된 입력 특징 벡터로부터 단어열을 추정하여 음성을 인식하는 음성인식부
를 더 포함하는, 로봇 내에 구현된 음성인식 장치.The method of claim 8,
Speech recognition unit for recognizing speech by estimating a word sequence from the enhanced input feature vector
A voice recognition device implemented in the robot further comprising a.
상기 음성인식부는,
상기 향상된 입력 특징 벡터를 심화 신경망인 상기 음향 모델을 통해 학습시켜 음소열을 추정하는 음향 모델부
를 포함하는, 로봇 내에 구현된 음성인식 장치.The method of claim 12,
The voice recognition unit,
An acoustic model unit for estimating a phoneme sequence by learning the enhanced input feature vector through the acoustic model, which is a deep neural network
Including a voice recognition device implemented in the robot.
상기 음향 모델부로부터 추정된 상기 음소열로부터 상기 단어열을 추정하는 언어 모델부
를 더 포함하는, 로봇 내에 구현된 음성인식 장치. The method of claim 13,
Language model unit for estimating the word sequence from the phoneme sequence estimated from the acoustic model unit
A voice recognition device implemented in the robot further comprising a.
상기 로봇의 동작 정보는,
상기 로봇의 내부 모터의 온(on)/오프(off) 상태, 내부 팬의 온(on)/오프(off) 상태 및 로봇 몸체의 움직임 정보 중 적어도 어느 하나 이상인 것
을 특징으로 하는, 로봇 내에 구현된 음성인식 장치.The method of claim 8,
The motion information of the robot,
At least one of at least one of an on/off state of the robot's internal motor, an on/off state of an internal fan, and motion information of the robot body
Characterized in, the voice recognition device implemented in the robot.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180067997A KR102213177B1 (en) | 2018-06-14 | 2018-06-14 | Apparatus and method for recognizing speech in robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180067997A KR102213177B1 (en) | 2018-06-14 | 2018-06-14 | Apparatus and method for recognizing speech in robot |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190141350A KR20190141350A (en) | 2019-12-24 |
KR102213177B1 true KR102213177B1 (en) | 2021-02-05 |
Family
ID=69022204
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180067997A KR102213177B1 (en) | 2018-06-14 | 2018-06-14 | Apparatus and method for recognizing speech in robot |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102213177B1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102227624B1 (en) * | 2020-03-09 | 2021-03-15 | 주식회사 퍼즐에이아이 | Voice Authentication Apparatus Using Watermark Embedding And Method Thereof |
CN113643694B (en) * | 2021-08-17 | 2024-07-05 | 科大讯飞股份有限公司 | Speech recognition method, device, electronic equipment and storage medium |
CN113707133B (en) * | 2021-10-28 | 2022-02-18 | 南京南大电子智慧型服务机器人研究院有限公司 | Service robot voice output gain acquisition method based on sound environment perception |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100576803B1 (en) * | 2003-12-11 | 2006-05-10 | 한국전자통신연구원 | Speech Recognition Method and Device by Integrating Audio, Visual and Contextual Features Based on Neural Networks |
KR101844932B1 (en) | 2014-09-16 | 2018-04-03 | 한국전자통신연구원 | Signal process algorithm integrated deep neural network based speech recognition apparatus and optimization learning method thereof |
KR20180049787A (en) * | 2016-11-03 | 2018-05-11 | 삼성전자주식회사 | Electric device, method for control thereof |
-
2018
- 2018-06-14 KR KR1020180067997A patent/KR102213177B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20190141350A (en) | 2019-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6993353B2 (en) | Neural network-based voiceprint information extraction method and device | |
KR102294638B1 (en) | Combined learning method and apparatus using deepening neural network based feature enhancement and modified loss function for speaker recognition robust to noisy environments | |
Bahl et al. | Maximum mutual information estimation of hidden Markov model parameters for speech recognition | |
WO2019191554A1 (en) | Adaptive permutation invariant training with auxiliary information for monaural multi-talker speech recognition | |
US10726326B2 (en) | Learning of neural network | |
KR102213177B1 (en) | Apparatus and method for recognizing speech in robot | |
KR20170030923A (en) | Apparatus and method for generating an acoustic model, Apparatus and method for speech recognition | |
KR101665882B1 (en) | Apparatus and method for speech synthesis using voice color conversion and speech dna codes | |
Yoo et al. | A highly adaptive acoustic model for accurate multi-dialect speech recognition | |
KR102305672B1 (en) | Method and apparatus for speech end-point detection using acoustic and language modeling knowledge for robust speech recognition | |
JP2018194828A (en) | Multi-view vector processing method and apparatus | |
KR102410850B1 (en) | Method and apparatus for extracting reverberant environment embedding using dereverberation autoencoder | |
CN113674733A (en) | Method and apparatus for speaking time estimation | |
WO2016181468A1 (en) | Pattern recognition device, pattern recognition method and program | |
CN113646834A (en) | Automatic speech recognition confidence classifier | |
Hwang et al. | End-to-end speech endpoint detection utilizing acoustic and language modeling knowledge for online low-latency speech recognition | |
KR102192342B1 (en) | Method and device for multimodal character identification on multiparty dialogues | |
KR102520240B1 (en) | Apparatus and method for data augmentation using non-negative matrix factorization | |
KR102203991B1 (en) | Method and apparatus for speech endpoint detection based on jointly trained deep neural networks for combining acoustic embedding with context of automatic speech recognition | |
JP6062273B2 (en) | Pattern recognition apparatus, pattern recognition method, and pattern recognition program | |
JP7095756B2 (en) | Voice feature extraction device, voice feature extraction method, and program | |
JP2016162437A (en) | Pattern classification device, pattern classification method and pattern classification program | |
JP2018081294A (en) | Acoustic model learning device, voice recognition device, acoustic model learning method, voice recognition method, and program | |
JP6324647B1 (en) | Speaker adaptation device, speech recognition device, and speech recognition method | |
JP5647159B2 (en) | Prior distribution calculation device, speech recognition device, prior distribution calculation method, speech recognition method, program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |