KR20190060028A - Neural network device for speaker recognition, and operation method of the same - Google Patents

Neural network device for speaker recognition, and operation method of the same Download PDF

Info

Publication number
KR20190060028A
KR20190060028A KR1020170157507A KR20170157507A KR20190060028A KR 20190060028 A KR20190060028 A KR 20190060028A KR 1020170157507 A KR1020170157507 A KR 1020170157507A KR 20170157507 A KR20170157507 A KR 20170157507A KR 20190060028 A KR20190060028 A KR 20190060028A
Authority
KR
South Korea
Prior art keywords
neural network
speech signal
speaker
information
trained
Prior art date
Application number
KR1020170157507A
Other languages
Korean (ko)
Other versions
KR102486395B1 (en
Inventor
박상하
김남수
김형용
강성찬
김재흥
윤용섭
이충호
홍혁기
Original Assignee
삼성전자주식회사
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 서울대학교산학협력단 filed Critical 삼성전자주식회사
Priority to KR1020170157507A priority Critical patent/KR102486395B1/en
Priority to US16/134,529 priority patent/US11094329B2/en
Publication of KR20190060028A publication Critical patent/KR20190060028A/en
Application granted granted Critical
Publication of KR102486395B1 publication Critical patent/KR102486395B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/18Artificial neural networks; Connectionist approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/06Decision making techniques; Pattern matching strategies
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/04Training, enrolment or model building

Abstract

Provided are a method for generating a second neural network capable of generating a second neural network by adding at least one layer to a first neural network with a voice separation function and having voice separation and speaker recognition functions at the same time by training a second neural network and a neural network device therefor.

Description

화자 인식을 위한 뉴럴 네트워크 장치, 및 그 동작 방법 {Neural network device for speaker recognition, and operation method of the same}[0001] The present invention relates to a neural network apparatus for speaker recognition,

본 개시는 화자 인식을 위한 뉴럴 네트워크 장치, 및 그 동작 방법에 관한 것이다.The present disclosure relates to a neural network device for speaker recognition and an operation method thereof.

뉴럴 네트워크(neural network)는 생물학적 뇌를 모델링한 컴퓨터 과학적 아키텍쳐(computational architecture)를 참조한다. 최근 뉴럴 네트워크(neural network) 기술이 발전함에 따라, 다양한 종류의 전자 시스템에서 뉴럴 네트워크 장치를 사용하여 입력 데이터를 분석하고 유효한 정보를 추출하는 연구가 활발히 진행되고 있다.A neural network refers to a computational architecture that models a biological brain. Recently, with the development of neural network technology, various kinds of electronic systems have been actively studied for analyzing input data and extracting valid information using a neural network device.

특히, 뉴럴 네트워크를 이용한 다양한 기법들이 음성 인식 분야에 적용되어, 음성 인식 또는 화자 인식의 성능이 향상되고 있다.In particular, various techniques using a neural network have been applied to the speech recognition field, and the performance of speech recognition or speaker recognition has been improved.

화자 인식을 위한 뉴럴 네트워크 장치, 및 그 동작 방법을 제공하는데 있다. 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 이하의 실시예들로부터 또 다른 기술적 과제들이 유추될 수 있다.A neural network device for speaker recognition, and an operation method thereof. The technical problem to be solved by this embodiment is not limited to the above-mentioned technical problems, and other technical problems can be deduced from the following embodiments.

일 측면에 따라, 화자 인식을 위한 뉴럴 네트워크 장치는, 하나 이상의 명령어(instruction)를 저장하는 메모리; 및 하나 이상의 명령어를 실행함으로써, 제 1 뉴럴 네트워크를 훈련시켜, 혼합 음성 신호를 개별 음성 신호들로 분리하도록 훈련된 제 1 뉴럴 네트워크를 생성하고, 훈련된 제 1 뉴럴 네트워크에 적어도 하나의 레이어를 부가하여 제 2 뉴럴 네트워크를 생성하고, 제 2 뉴럴 네트워크를 훈련시켜, 혼합 음성 신호를 개별 음성 신호들로 분리하고, 개별 음성 신호들 각각에 대한 화자를 인식하도록 훈련된 제 2 뉴럴 네트워크를 생성하는, 프로세서를 포함할 수 있다.According to an aspect, a neural network device for speaker recognition comprises: a memory for storing one or more instructions; And executing one or more instructions to generate a first neural network trained to train the first neural network to separate the mixed speech signal into individual speech signals and to add at least one layer to the trained first neural network Generating a second neural network trained to train a second neural network, separating the mixed speech signal into individual speech signals, and generating a second neural network trained to recognize a speaker for each of the individual speech signals, Processor.

다른 측면에 따라, 화자 인식을 위한 뉴럴 네트워크 장치의 동작 방법은, 제 1 뉴럴 네트워크를 훈련시켜, 혼합 음성 신호를 개별 음성 신호들로 분리하도록 훈련된 제 1 뉴럴 네트워크를 생성하는 단계; 훈련된 제 1 뉴럴 네트워크에 적어도 하나의 레이어를 부가하여 제 2 뉴럴 네트워크를 생성하는 단계; 및 제 2 뉴럴 네트워크를 훈련시켜, 혼합 음성 신호를 개별 음성 신호들로 분리하고 개별 음성 신호들 각각에 대한 화자를 인식하도록 훈련된 제 2 뉴럴 네트워크를 생성하는 단계를 포함할 수 있다.According to another aspect, a method of operating a neural network device for speaker recognition comprises: training a first neural network to generate a first neural network trained to separate a mixed speech signal into individual speech signals; Adding at least one layer to the trained first neural network to create a second neural network; And training the second neural network to separate the mixed speech signal into separate speech signals and to create a second neural network trained to recognize the speaker for each of the individual speech signals.

또 다른 측면에 따라, 뉴럴 네트워크 장치의 동작 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체가 제공된다.According to another aspect, there is provided a computer-readable recording medium having recorded thereon a program for implementing a method of operating a neural network device.

본 실시예들에 따르면, 뉴럴 네트워크 장치는 음성 분리를 위한 첫 번째 훈련과, 음성 분리 및 화자 인식을 위한 두 번째 훈련을 뉴럴 네트워크에 대해 연속적으로 수행하는 바, 높은 성능으로 다수의 화자를 인식할 수 있는 뉴럴 네트워크를 생성할 수 있다.According to the present embodiments, the neural network apparatus continuously performs the first training for voice separation and the second training for voice separation and speaker recognition on the neural network, and recognizes a plurality of speakers with high performance A neural network can be created.

또한, 본 실시예들에 따르면, 뉴럴 네트워크 장치는, 음성 분리 및 화자 인식 기능을 동시에 갖는 뉴럴 네트워크를 이용하는 바, 음성 분리 및 화자 인식에 소요되는 시간을 줄일 수 있어, 실시간 동작 환경에서도 작동 가능할 수 있다.Further, according to the present embodiments, the neural network apparatus uses a neural network having both a speech separation function and a speaker recognition function, and it can reduce the time required for speech separation and speaker recognition, have.

도 1은 일 실시예에 따른 뉴럴 네트워크 장치의 하드웨어 구성을 도시한 블록도이다.
도 2는 프로세서가 제 1 뉴럴 네트워크를 훈련시키는 실시예를 나타낸다.
도 3은 프로세서가 제 2 뉴럴 네트워크를 훈련시키는 실시예를 나타낸다.
도 4는 프로세서가 화자를 등록하는 실시예를 나타낸다.
도 5는 프로세서가 적어도 하나의 음성 신호에 대한 적어도 하나의 화자를 인식하는 실시예를 나타낸다.
도 6은 다른 실시예에 따른 뉴럴 네트워크 장치의 하드웨어 구성을 도시한 블록도이다.
도 7은 일 실시예에 따라, 뉴럴 네트워크 장치의 동작 방법을 설명하기 위한 도면이다.
도 8은 다른 실시예에 따라, 뉴럴 네트워크 장치의 동작 방법을 설명하기 위한 도면이다.
1 is a block diagram illustrating a hardware configuration of a neural network device according to an embodiment.
2 shows an embodiment in which a processor trains a first neural network;
3 shows an embodiment in which a processor trains a second neural network;
4 shows an embodiment in which a processor registers a speaker.
Figure 5 shows an embodiment in which the processor recognizes at least one speaker for at least one speech signal.
6 is a block diagram showing a hardware configuration of a neural network device according to another embodiment.
7 is a diagram for explaining a method of operating a neural network device according to an embodiment.
8 is a diagram for explaining a method of operating a neural network device according to another embodiment.

본 실시예들에서 사용되는 용어는 본 실시예들에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 기술분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 임의로 선정된 용어도 있으며, 이 경우 해당 실시예의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서, 본 실시예들에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 실시예들의 전반에 걸친 내용을 토대로 정의되어야 한다.Although the terms used in the present embodiments have been selected in consideration of the functions in the present embodiments and are currently available in common terms, they may vary depending on the intention or the precedent of the technician working in the art, the emergence of new technology . Also, in certain cases, there are arbitrarily selected terms, and in this case, the meaning will be described in detail in the description part of the embodiment. Therefore, the terms used in the embodiments should be defined based on the meaning of the terms, not on the names of simple terms, and on the contents of the embodiments throughout.

실시예들에 대한 설명들에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 그 중간에 다른 구성요소를 사이에 두고 전기적으로 연결되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In the descriptions of the embodiments, when a part is connected to another part, it includes not only a case where the part is directly connected but also a case where the part is electrically connected with another part in between . Also, when a component includes an element, it is understood that the element may include other elements, not the exclusion of any other element unless specifically stated otherwise.

본 실시예들에서 사용되는 "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.It should be noted that the terms such as " comprising " or " comprising ", as used in these embodiments, should not be construed as necessarily including the various elements or steps described in the specification, Some steps may not be included, or may be interpreted to include additional components or steps.

하기 실시예들에 대한 설명은 권리범위를 제한하는 것으로 해석되지 말아야 하며, 해당 기술분야의 당업자가 용이하게 유추할 수 있는 것은 실시예들의 권리범위에 속하는 것으로 해석되어야 할 것이다. 이하 첨부된 도면들을 참조하면서 오로지 예시를 위한 실시예들을 상세히 설명하기로 한다.The following description of the embodiments should not be construed as limiting the scope of the present invention and should be construed as being within the scope of the embodiments of the present invention. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Exemplary embodiments will now be described in detail with reference to the accompanying drawings.

도 1은 일 실시예에 따른 뉴럴 네트워크 장치의 하드웨어 구성을 도시한 블록도이다.1 is a block diagram illustrating a hardware configuration of a neural network device according to an embodiment.

화자 인식용 뉴럴 네트워크 장치(10)(이하, 설명의 편의상 뉴럴 네트워크 장치(10)라고 한다.)는 PC(personal computer), 서버 디바이스, 모바일 디바이스, 임베디드 디바이스 등의 다양한 종류의 디바이스들로 구현될 수 있고, 구체적인 예로서 뉴럴 네트워크를 이용한 음성 인식, 화자 인식, 영상 인식, 영상 분류 등을 수행하는 스마트폰, 태블릿 디바이스, AR(Augmented Reality) 디바이스, IoT(Internet of Things) 디바이스, 자율주행 자동차, 로보틱스, 의료기기 등에 해당될 수 있으나, 이에 제한되지 않는다. 나아가서, 뉴럴 네트워크 장치(10)는 위와 같은 디바이스에 탑재되는 전용 하드웨어 가속기(HW accelerator)에 해당될 수 있고, 뉴럴 네트워크 장치(10)는 뉴럴 네트워크 구동을 위한 전용 모듈인 NPU(neural processing unit), TPU(Tensor Processing Unit), Neural Engine 등과 같은 하드웨어 가속기일 수 있으나, 이에 제한되지 않는다.The speaker recognition neural network apparatus 10 (hereinafter, referred to as a neural network apparatus 10 for convenience of explanation) may be implemented with various types of devices such as a PC (personal computer), a server device, a mobile device, and an embedded device A smart phone, a tablet device, an Augmented Reality (AR) device, an Internet of Things (IO) device, an autonomous mobile device, a mobile phone, Robots, medical devices, and the like, but are not limited thereto. Further, the neural network device 10 may correspond to a dedicated hardware accelerator (HW accelerator) mounted on the device. The neural network device 10 may include a neural processing unit (NPU), which is a dedicated module for driving a neural network, TPU (Tensor Processing Unit), Neural Engine, and the like.

도 1을 참고하면, 뉴럴 네트워크 장치(10)는 프로세서(110) 및 메모리(120)를 포함한다. 도 1에 도시된 뉴럴 네트워크 장치(10)에는 본 실시예들와 관련된 구성요소들만이 도시되어 있다. 따라서, 뉴럴 네트워크 장치(10)에는 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음은 당해 기술분야의 통상의 기술자에게 자명하다.Referring to FIG. 1, a neural network device 10 includes a processor 110 and a memory 120. Only the components associated with these embodiments are shown in the neural network device 10 shown in Fig. Accordingly, it is apparent to those skilled in the art that the neural network device 10 may further include general components other than the components shown in FIG.

프로세서(110)는 뉴럴 네트워크 장치(10)를 실행하기 위한 전반적인 기능들을 제어하는 역할을 한다. 예를 들어, 프로세서(110)는 뉴럴 네트워크 장치(10) 내의 메모리(120)에 저장된 하나 이상의 명령어 또는 프로그램들을 실행함으로써, 뉴럴 네트워크 장치(10)를 전반적으로 제어한다. 프로세서(110)는 뉴럴 네트워크 장치(10) 내에 구비된 CPU(central processing unit), GPU(graphics processing unit), AP(application processor) 등으로 구현될 수 있으나, 이에 제한되지 않는다.The processor 110 serves to control overall functions for executing the neural network device 10. [ For example, processor 110 generally controls neural network device 10 by executing one or more instructions or programs stored in memory 120 in neural network device 10. [ The processor 110 may be implemented by a central processing unit (CPU), a graphics processing unit (GPU), an application processor (AP), or the like, which are provided in the neural network device 10, but the present invention is not limited thereto.

메모리(120)는 뉴럴 네트워크 장치(10) 내에서 처리되는 각종 데이터들을 저장하는 하드웨어로서, 예를 들어, 메모리(120)는 뉴럴 네트워크 장치(10)에서 처리된 데이터들 및 처리될 데이터들을 저장할 수 있다. 또한, 메모리(120)는 뉴럴 네트워크 장치(10)에 의해 구동될 애플리케이션들, 드라이버들 등을 저장할 수 있다. 메모리(120)는 DRAM(dynamic random access memory), SRAM(static random access memory) 등과 같은 RAM(random access memory), ROM(read-only memory), EEPROM(electrically erasable programmable read-only memory), CD-ROM, 블루레이 또는 다른 광학 디스크 스토리지, HDD(hard disk drive), SSD(solid state drive), 또는 플래시 메모리를 포함할 수 있다.The memory 120 is a hardware for storing various data processed in the neural network device 10. For example, the memory 120 may store data processed in the neural network device 10 and data to be processed have. The memory 120 may also store applications, drivers, etc., to be driven by the neural network device 10. The memory 120 may be a random access memory (RAM), a read-only memory (ROM), an electrically erasable programmable read-only memory (EEPROM), a dynamic random access memory (DRAM) ROM, Blu-ray or other optical disk storage, a hard disk drive (HDD), a solid state drive (SSD), or a flash memory.

프로세서(110)는, 제 1 뉴럴 네트워크를 훈련시켜, 혼합 음성 신호를 개별 음성 신호들로 분리하도록 훈련된 제 1 뉴럴 네트워크를 생성할 수 있다. 혼합 음성 신호는, 화자들의 동시 발화로 인해 화자들의 음성 신호들이 혼합 또는 중첩된 신호를 의미할 수 있다. 또한, 혼합 음성 신호는, 화자들의 음성 신호들과 잡음 신호가 혼합 또는 중첩된 신호를 의미할 수 있다. 따라서, 프로세서(110)에 의해 훈련된 제 1 뉴럴 네트워크는, 혼합 음성 신호를, 화자들의 개별 음성 신호들로 분리할 수 있다. 또한, 프로세서(110)에 의해 훈련된 제 1 뉴럴 네트워크는, 혼합 음성 신호를 적어도 하나의 화자의 개별 음성 신호와 잡음 신호로 분리할 수 있다.The processor 110 may generate a first neural network trained to train the first neural network and separate the mixed speech signal into separate speech signals. The mixed speech signal may mean a signal in which the speech signals of the speakers are mixed or superimposed due to the simultaneous utterance of the speakers. In addition, the mixed speech signal may mean a signal in which speech signals of the speakers and the noise signal are mixed or overlapped. Thus, the first neural network trained by the processor 110 may separate the mixed speech signal into individual speech signals of the speakers. In addition, the first neural network trained by the processor 110 may separate the mixed speech signal into separate speech signals and noise signals of at least one speaker.

제 1 뉴럴 네트워크를 훈련시키는 과정에서, 프로세서(110)는, 제 1 뉴럴 네트워크에 대한 입력 정보로써, 혼합 음성 신호를 획득할 수 있고, 제 1 뉴럴 네트워크에 대한 출력 정보로써, 혼합 음성 신호 내의 개별 음성 신호들을 획득할 수 있다. 일 예에 따라, 프로세서(110)는, 제 1 뉴럴 네트워크에 대한 입력 정보 및 출력 정보를 메모리(120)로부터 획득할 수 있다. 다른 예에 따라, 프로세서(110)는, 제 1 뉴럴 네트워크에 대한 입력 정보 및 출력 정보를 뉴럴 네트워크 장치 내 음향 센서로부터 획득할 수 있다.In the course of training the first neural network, the processor 110 may obtain a mixed speech signal as input information to the first neural network, and as output information to the first neural network, Voice signals can be obtained. According to one example, the processor 110 may obtain input and output information for the first neural network from the memory 120. According to another example, the processor 110 may obtain input and output information for the first neural network from the acoustic sensors in the neural network device.

프로세서(110)는 제 1 뉴럴 네트워크에 대한 입력 정보로써, 복수의 화자들의 혼합 음성 신호를 획득할 수 있고, 제 1 뉴럴 네트워크에 대한 출력 정보로써, 복수의 화자들 각각의 개별 음성 신호를 획득할 수 있다. 이어서, 프로세서(110)는 획득된 입력 정보 및 출력 정보에 따라 제 1 뉴럴 네트워크를 훈련시킬 수 있고, 훈련된 제 1 뉴럴 네트워크는 혼합 음성 신호를 개별 음성 신호들로 분리할 수 있다. 보다 구체적인 실시예는 이하 도 2에서 살펴보기로 한다.The processor 110 may obtain a mixed voice signal of a plurality of speakers as input information for the first neural network and may acquire a separate voice signal of each of a plurality of speakers as output information for the first neural network . The processor 110 may then train the first neural network according to the obtained input information and output information, and the trained first neural network may separate the mixed speech signal into separate speech signals. A more specific embodiment will be described below with reference to FIG.

따라서, 프로세서(110)는 기 전술된 훈련 과정을 통해 음성 분리 기능을 갖는 제 1 뉴럴 네트워크를 생성할 수 있다. 또한, 기 전술된 훈련 과정 이외에도 당업자에게 알려진 훈련 과정을 통해, 프로세서(110)는 음성 분리 기능을 갖는 제 1 뉴럴 네트워크를 생성할 수 있다.Accordingly, the processor 110 can generate a first neural network having a speech separation function through the above-described training process. In addition, through the training process known to those skilled in the art, in addition to the above-described training process, the processor 110 can generate a first neural network having a speech separation function.

프로세서(110)는 훈련된 제 1 뉴럴 네트워크에 적어도 하나의 레이어를 부가하여 제 2 뉴럴 네트워크를 생성할 수 있다. 구체적인 실시예로, 프로세서(110)는 훈련된 제 1 뉴럴 네트워크의 출력 레이어를 제거하고, 적어도 하나의 히든 레이어와 출력 레이어를 연결시켜, 제 2 뉴럴 네트워크를 생성할 수 있다.The processor 110 may add at least one layer to the trained first neural network to create a second neural network. In a specific embodiment, the processor 110 may remove the output layer of the trained first neural network and connect the at least one hidden layer and the output layer to create a second neural network.

프로세서(110)는, 제 2 뉴럴 네트워크를 훈련시켜, 혼합 음성 신호를 개별 음성 신호들로 분리하고 개별 음성 신호들 각각에 대한 화자를 인식하도록 훈련된 제 2 뉴럴 네트워크를 생성할 수 있다. 따라서, 프로세서(110)에 의해 훈련된 제 2 뉴럴 네트워크는, 혼합 음성 신호를 화자들의 개별 음성 신호들로 분리할 수 있고, 분리된 개별 음성 신호들 각각에 대한 화자를 인식할 수 있다. 또한, 프로세서(110)에 의해 훈련된 제 2 뉴럴 네트워크는, 혼합 음성 신호를 화자들의 적어도 하나의 개별 음성 신호와 잡음 신호로 분리할 수 있고, 분리된 적어도 하나의 개별 음성 신호에 대한 화자를 인식할 수 있다. Processor 110 may train a second neural network to create a second neural network trained to separate the mixed speech signal into individual speech signals and to recognize the speaker for each of the individual speech signals. Thus, the second neural network trained by the processor 110 can separate the mixed speech signal into individual speech signals of the speakers, and can recognize the speaker for each of the separated individual speech signals. The second neural network trained by the processor 110 may also separate the mixed speech signal into at least one individual speech signal and a noise signal of the speakers and recognize a speaker for the separated at least one individual speech signal can do.

제 2 뉴럴 네트워크를 훈련시키는 과정에서, 프로세서(110)는, 제 2 뉴럴 네트워크에 대한 입력 정보로써, 혼합 음성 신호를 획득할 수 있고, 제 2 뉴럴 네트워크에 대한 출력 정보로써, 혼합 음성 신호 내의 개별 음성 신호들 각각에 대한 화자 식별 정보를 획득할 수 있다. 화자 식별 정보는, 멀티 클래스 분류(multi class classification)을 위해, 개별 음성 신호들 각각에 대한 화자가 라벨링되는 멀티 클래스 라벨(multi class label)일 수 있다. 일 예에 따라, 프로세서(110)는, 제 2 뉴럴 네트워크에 대한 입력 정보 및 출력 정보를 메모리(120)로부터 획득할 수 있다. 다른 예에 따라, 프로세서(110)는, 제 2 뉴럴 네트워크에 대한 입력 정보 및 출력 정보를 뉴럴 네트워크 장치 내 음향 센서로부터 획득할 수 있다.In the course of training the second neural network, the processor 110 may obtain a mixed speech signal as input information to the second neural network, and as output information to the second neural network, Speaker identification information for each of the voice signals can be obtained. The speaker identification information may be a multi class label, in which a speaker for each of the individual voice signals is labeled, for multi class classification. According to one example, the processor 110 may obtain input and output information for the second neural network from the memory 120. [ According to another example, the processor 110 may obtain input and output information for the second neural network from the acoustic sensors in the neural network device.

프로세서(110)는 제 2 뉴럴 네트워크에 대한 입력 정보로써, 복수의 화자들의 혼합 음성 신호를 획득할 수 있고, 제 2 뉴럴 네트워크에 대한 출력 정보로써, 복수의 화자들의 개별 음성 신호들 각각에 대한 화자 식별 정보를 획득할 수 있다. 이어서, 프로세서(110)는 획득된 입력 정보 및 출력 정보에 따라 제 2 뉴럴 네트워크를 훈련시킬 수 있고, 훈련된 제 2 뉴럴 네트워크는 혼합 음성 신호를 개별 음성 신호들로 분리하고, 개별 음성 신호들 각각에 대한 화자를 인식할 수 있다. 또한, 훈련 과정에서 출력 정보가 복수의 화자들이 라벨링되는 멀티 클래스 라벨(multi class label)인 바, 훈련된 제 2 뉴럴 네트워크는 멀티 클래스 분류(multi class classification)가 가능한 화자 인식 기능을 가질 수 있다. 보다 구체적인 실시예는 이하 도 3에서 살펴보기로 한다.The processor 110 is capable of obtaining a mixed speech signal of a plurality of speakers as input information to a second neural network and as output information to the second neural network, Identification information can be obtained. Then, the processor 110 may train the second neural network according to the obtained input information and output information, the trained second neural network separates the mixed speech signal into individual speech signals, and each of the individual speech signals The speaker can be recognized. In addition, since the output information is a multi class label in which a plurality of speakers are labeled in the training process, the trained second neural network can have a speaker recognition function capable of multi class classification. A more specific embodiment will be described below with reference to FIG.

따라서, 뉴럴 네트워크 장치(10)는 음성 분리 기능을 갖는 제 1 뉴럴 네트워크에 적어도 하나의 레이어를 부가하여 제 2 뉴럴 네트워크를 생성할 수 있고, 제 2 뉴럴 네트워크를 훈련시켜, 음성 분리 및 화자 인식 기능을 동시에 갖는 제 2 뉴럴 네트워크를 생성할 수 있다. 또한, 뉴럴 네트워크 장치(10)는 음성 분리를 위한 첫 번째 훈련과, 음성 분리 및 화자 인식을 위한 두 번째 훈련을 뉴럴 네트워크에 대해 연속적으로 수행하는 바, 뉴럴 네트워크는 화자의 인식률을 높이는 방향으로 음성 분리가 이루어지도록 학습하게 된다. 따라서, 뉴럴 네트워크 장치(10)는 높은 성능으로 다수의 화자를 인식할 수 있는 뉴럴 네트워크를 생성할 수 있다.Accordingly, the neural network apparatus 10 can generate a second neural network by adding at least one layer to a first neural network having a speech separating function, train the second neural network, Can be generated at the same time. In addition, the neural network apparatus 10 continuously performs the first training for voice separation and the second training for voice separation and speaker recognition for the neural network. In the neural network, So that the separation is performed. Accordingly, the neural network apparatus 10 can generate a neural network capable of recognizing a plurality of speakers with high performance.

프로세서(110)는 훈련된 제 2 뉴럴 네트워크를 이용하여 화자를 등록할 수 있다. 구체적으로, 프로세서(110)는 화자의 음성 신호를 획득할 수 있다. 이어서, 프로세서(110)는 훈련된 제 2 뉴럴 네트워크를 이용하여, 화자의 음성 신호에 대한 화자 인식용 특징 정보를 획득할 수 있다. 예를 들어, 프로세서(110)는, 화자의 음성 신호에 대한 정보가 입력된 훈련된 제 2 뉴럴 네트워크의 마지막 히든 레이어의 출력 벡터를 추출하여, 화자의 음성 신호에 대한 화자 인식용 특징 정보를 획득할 수 있다. 또한, 화자의 음성 신호에 대한 정보가 복수의 프레임들의 형태로 훈련된 제 2 뉴럴 네트워크에 입력되는 경우, 프로세서(110)는, 복수의 프레임들마다, 제 2 뉴럴 네트워크의 마지막 히든 레이어의 출력 벡터를 추출할 수 있고, 복수의 프레임들의 출력 벡터들의 평균 벡터값을, 화자 인식용 특징 정보로써 획득할 수 있다.The processor 110 may register the speaker using the trained second neural network. Specifically, the processor 110 may obtain the speech signal of the speaker. The processor 110 may then use the trained second neural network to obtain feature information for speaker recognition of the speech signal of the speaker. For example, the processor 110 extracts the output vector of the last hidden layer of the trained second neural network, in which the information on the speaker's speech signal is input, and obtains feature information for speaker recognition of the speaker's speech signal can do. When the information on the speech signal of the speaker is input to the second neural network trained in the form of a plurality of frames, the processor 110 calculates, for each of the plurality of frames, the output vector of the last hidden layer of the second neural network And the average vector value of the output vectors of the plurality of frames can be obtained as the feature information for speaker recognition.

이어서, 프로세서(110)는 화자의 식별 정보와 화자 인식용 특징 정보를 함께 메모리(120)에 저장하여, 화자를 등록할 수 있다. 보다 구체적인 실시예는 이하 도 4에서 살펴보기로 한다.Then, the processor 110 may store the speaker identification information and the speaker recognition feature information together in the memory 120 to register the speaker. A more specific embodiment will be described below with reference to FIG.

프로세서(110)는 훈련된 제 2 뉴럴 네트워크를 이용하여 혼합 음성 신호에 대한 적어도 하나의 화자를 인식할 수 있다. The processor 110 may recognize at least one speaker for the mixed speech signal using the trained second neural network.

먼저, 프로세서(110)는 혼합 음성 신호를 획득할 수 있다. 이어서, 프로세서(110)는 훈련된 제 2 뉴럴 네트워크를 이용하여, 혼합 음성 신호에 포함된 적어도 하나의 개별 음성 신호에 대한 화자 인식용 특징 정보를 획득할 수 있다. 구체적으로, 프로세서(110)가 혼합 음성 신호에 대한 정보를 훈련된 제 2 뉴럴 네트워크에 입력하는 경우, 훈련된 제 2 뉴럴 네트워크는, 혼합 음성 신호를 적어도 하나의 개별 음성 신호로 분리하고, 적어도 하나의 개별 음성 신호의 화자를 인식하는 과정을 거친다. 이 경우, 프로세서(110)는, 훈련된 제 2 뉴럴 네트워크의 마지막 히든 레이어의 출력 벡터를 추출하여, 혼합 음성 신호에 포함된 적어도 하나의 개별 음성 신호에 대한 화자 인식용 특징 정보를 획득할 수 있다.First, the processor 110 may obtain a mixed speech signal. The processor 110 may then use the trained second neural network to obtain feature information for speaker recognition of at least one individual speech signal included in the mixed speech signal. Specifically, when the processor 110 inputs information about the mixed speech signal to the trained second neural network, the trained second neural network separates the mixed speech signal into at least one individual speech signal, A speaker of the individual voice signal of the speaker is recognized. In this case, the processor 110 may extract the output vector of the last hidden layer of the trained second neural network to obtain feature information for speaker recognition of at least one individual speech signal included in the mixed speech signal .

이어서, 프로세서(110)는 적어도 하나의 개별 음성 신호에 대한 화자 인식용 특징 정보와, 기 등록된 화자 인식용 특징 정보를 비교하여, 혼합 음성 신호에 포함된 적어도 하나의 개별 음성 신호에 대한 적어도 하나의 화자를 인식할 수 있다. 구체적으로, 프로세서(110)는 특징 정보 간의 유사도를 판단하는 방법으로, cosine similarity, PLDA(Probabilistic Linear Discriminant Analysis) 등을 방법을 이용할 수 있다. 따라서, 프로세서(110)는 혼합 음성 신호가 어떤 화자들의 개별 음성 신호들이 혼합되었는지 여부를 인식할 수 있다. 보다 구체적인 실시예는, 이하 도 5에서 살펴보기로 한다.The processor 110 then compares feature information for speaker recognition for at least one individual speech signal with previously registered feature information for speaker recognition to determine at least one of at least one individual speech signal included in the mixed speech signal Can recognize the speaker of. Specifically, the processor 110 may determine a degree of similarity between feature information by using cosine similarity, probabilistic linear discriminant analysis (PLDA), or the like. Thus, the processor 110 may recognize whether the mixed speech signal is a mixture of individual speech signals of certain speakers. A more specific embodiment will be described below with reference to FIG.

따라서, 뉴럴 네트워크 장치(10)는, 음성 분리 및 화자 인식 기능을 동시에 갖는 뉴럴 네트워크를 이용하는 바, 음성 분리 및 화자 인식에 소요되는 시간을 줄일 수 있어, 실시간 동작 환경에서도 작동 가능할 수 있다.Therefore, the neural network apparatus 10 uses the neural network having the speech separation and the speaker recognition function at the same time, and it can reduce the time required for speech separation and speaker recognition, and can operate in a real-time operating environment.

도 2는 프로세서가 제 1 뉴럴 네트워크를 훈련시키는 실시예를 나타낸다.2 shows an embodiment in which a processor trains a first neural network;

프로세서(110)는 입력 레이어, 히든 레이어 1 내지 3, 및 출력 레이어를 포함하는 제 1 뉴럴 네트워크(201)를 생성할 수 있다. 도 2에서는, 제 1 뉴럴 네트워크의 예시로써 딥(deep) 뉴럴 네트워크를 도시하였으나, 이에 한정되지 않는다. 또한, 제 1 뉴럴 네트워크는, 딥 뉴럴 네트워크의 변형으로써, 컨벌루션(convolution) 뉴럴 네트워크, 또는 리커런트 뉴럴 네트워크(recurrent neural network)가 될 수 있으며, 그 밖의 다른 딥 뉴럴 네트워크의 변형인 뉴럴 네트워크가 될 수 있다. 또한, 도 2 내지 5의 뉴럴 네트워크의 각 레이어를 구성하는 노드의 개수, 히든 레이어의 개수 등은 일 예시일 뿐, 이에 한정되지 않는다.The processor 110 may generate a first neural network 201 including an input layer, hidden layers 1 to 3, and an output layer. In FIG. 2, a deep neural network is shown as an example of the first neural network, but it is not limited thereto. The first neural network may also be a convolution neural network or a recurrent neural network as a modification of the deep neural network and may be a neural network that is a variation of other deep neural networks . The number of nodes constituting each layer of the neural network shown in Figs. 2 to 5, the number of hidden layers, and the like are merely examples, but the present invention is not limited thereto.

프로세서(110)는 제 1 뉴럴 네트워크(201)가 혼합 음성 신호를 개별 음성 신호들로 분리하도록 제 1 뉴럴 네트워크(201)를 훈련시킬 수 있다. 구체적으로, 제 1 뉴럴 네트워크(201)를 훈련시키는 과정에서, 프로세서(110)는, 제 1 뉴럴 네트워크(201)에 대한 입력 정보로써, 혼합 음성 신호(210)에 대한 정보를 획득할 수 있고, 프로세서(110)는 제 1 뉴럴 네트워크(201)에 대한 출력 정보로써, 개별 음성 신호들(212,214)에 대한 정보를 획득할 수 있다. 구체적인 실시예로, 프로세서(110)는 혼합 음성 신호(210)의 특징(feature)을 제 1 뉴럴 네트워크(201)의 입력 레이어의 값으로써 설정할 수 있으며, 개별 음성 신호들(212,214) 각각의 특징을 제 1 뉴럴 네트워크(201)의 출력 레이어의 값으로써 설정할 수 있다. 예를 들어, 프로세서(110)는 혼합 음성 신호(210) 및 개별 음성 신호들(212,214)의 주파수 대역별 로그 에너지(log energy) 및 파워(power) 등을 이용하여 혼합 음성 신호(210) 및 개별 음성 신호들(212,214)의 특징을 추출할 수 있다.The processor 110 may train the first neural network 201 so that the first neural network 201 separates the mixed speech signal into separate speech signals. Specifically, in the course of training the first neural network 201, the processor 110 may obtain information about the mixed speech signal 210 as input information to the first neural network 201, The processor 110 may obtain information about the individual voice signals 212 and 214 as output information for the first neural network 201. [ The processor 110 may set the feature of the mixed speech signal 210 as the value of the input layer of the first neural network 201 and determine the characteristics of each of the individual speech signals 212, Can be set as the value of the output layer of the first neural network (201). For example, the processor 110 may use the log energy and power per frequency band of the mixed speech signal 210 and the individual speech signals 212 and 214 to generate the mixed speech signal 210 and the individual The characteristics of the voice signals 212 and 214 can be extracted.

따라서, 프로세서(110)는, 혼합 음성 신호(210) 및 개별 음성 신호들(212,214)를 통해 제 1 뉴럴 네트워크(201)를 훈련시킬 수 있다. 다시 말해, 제 1 뉴럴 네트워크(201)는, 프로세서(110)에 의한 훈련을 통해, 혼합 음성 신호(210)가 개별 음성 신호들(212,214)로 분리된다는 학습을 할 수 있다. Thus, the processor 110 may train the first neural network 201 through the mixed speech signal 210 and the individual speech signals 212,214. In other words, the first neural network 201 can learn through training by the processor 110 that the mixed speech signal 210 is separated into the individual speech signals 212, 214.

마찬가지로, 프로세서(110)는 혼합 음성 신호(220) 및 개별 음성 신호들(222,224)를 통해 제 1 뉴럴 네트워크(201)를 훈련시킬 수 있으며, 프로세서(110)는 혼합 음성 신호(230) 및 개별 음성 신호들(232,234)을 통해 제 1 뉴럴 네트워크(201)를 훈련시킬 수 있다. 또한, 프로세서(110)는 혼합 음성 신호들(210,220,230) 및 개별 음성 신호들(212,214,222,224,232,234)을 통해 제 1 뉴럴 네트워크(201)를 훈련시킬 수 있다. 따라서, 프로세서(110)에 의해 훈련된 제 1 뉴럴 네트워크(203)는, 혼합 음성 신호를 개별 음성 신호들로 분리할 수 있다.The processor 110 may train the first neural network 201 through the mixed speech signal 220 and the separate speech signals 222 and 224 and the processor 110 may generate the mixed speech signal 230 and the separate speech May train the first neural network 201 through the signals 232, 234. In addition, the processor 110 may train the first neural network 201 through the mixed speech signals 210, 220, 230 and the individual speech signals 212, 214, 222, 224, 232, 234. Thus, the first neural network 203 trained by the processor 110 may separate the mixed speech signal into separate speech signals.

도 3은 프로세서가 제 2 뉴럴 네트워크를 훈련시키는 실시예를 나타낸다.3 shows an embodiment in which a processor trains a second neural network;

프로세서(110)는 도 2의 훈련된 제 1 뉴럴 네트워크(203)에 적어도 하나의 레이어를 부가하여 제 2 뉴럴 네트워크(301)를 생성할 수 있다. 도 3에서 도시된 바와 같이, 프로세서(110)는 훈련된 제 1 뉴럴 네트워크(203)의 출력 레이어를 제거함과 동시에, 훈련된 제 1 뉴럴 네트워크(203)에 새로운 2개의 히든 레이어(히든 레이어 4 및 5) 및 새로운 출력 레이어를 연결시켜, 제 2 뉴럴 네트워크(301)를 생성할 수 있다.The processor 110 may add at least one layer to the trained first neural network 203 of FIG. 2 to create a second neural network 301. As shown in Figure 3, the processor 110 removes the output layer of the trained first neural network 203 and simultaneously adds two new hidden layers (hidden layers 4 and 5) to the trained first neural network 203, 5 and a new output layer may be concatenated to create a second neural network 301.

이어서, 프로세서(110)는 제 2 뉴럴 네트워크(301)가 혼합 음성 신호를 개별 음성 신호들로 분리하고, 개별 음성 신호들에 대한 화자를 인식하도록 제 2 뉴럴 네트워크(301)를 훈련시킬 수 있다.The processor 110 may then train the second neural network 301 such that the second neural network 301 separates the mixed speech signal into separate speech signals and recognizes the speaker for individual speech signals.

구체적으로, 제 2 뉴럴 네트워크(301)를 훈련시키는 과정에서, 프로세서(110)는, 제 2 뉴럴 네트워크(301)에 대한 입력 정보로써, 혼합 음성 신호(210)에 대한 정보를 획득할 수 있다. 또한, 프로세서(110)는 제 2 뉴럴 네트워크(301)에 대한 출력 정보로써, 개별 음성 신호들(212,214) 각각에 대한 화자 식별 정보(312,314)를 획득할 수 있다. 다시 말해, 프로세서(110)는 개별 음성 신호들(212,214) 각각이 제 1 화자 및 제 2 화자에 의해 발화되었다는 화자 식별 정보(312,314)를 획득할 수 있다. 따라서, 프로세서(110)는, 혼합 음성 신호(210)에 대한 정보, 및 개별 음성 신호들(212,214)에 대한 화자 식별 정보(312,314)을 통해 제 2 뉴럴 네트워크(301)를 훈련시킬 수 있다. 다시 말해, 제 2 뉴럴 네트워크(301)는, 프로세서(110)에 의한 훈련을 통해, 혼합 음성 신호(210)가 개별 음성 신호들(212,214)로 분리될 수 있고, 분리된 개별 음성 신호들(212,214) 각각에 대한 화자를 인식하는 학습을 할 수 있다.Specifically, in the course of training the second neural network 301, the processor 110 may obtain information about the mixed speech signal 210 as input information to the second neural network 301. [ In addition, the processor 110 may obtain speaker identification information 312, 314 for each of the individual voice signals 212, 214 as output information for the second neural network 301. In other words, the processor 110 may obtain the speaker identification information 312, 314 that each of the individual speech signals 212, 214 has been uttered by the first and second speakers. Thus, the processor 110 may train the second neural network 301 via information about the mixed speech signal 210 and speaker identification information 312, 214 for the individual speech signals 212, 214. In other words, the second neural network 301, through training by the processor 110, can separate the mixed speech signal 210 into separate speech signals 212,214 and separate separate speech signals 212,214 ) Can learn to recognize each speaker.

마찬가지로, 프로세서(110)는 혼합 음성 신호(220), 및 개별 음성 신호들(222,224)에 대한 화자 식별 정보(322,324)를 통해 제 2 뉴럴 네트워크(301)를 훈련시킬 수 있다. 또한, 프로세서(110)는 혼합 음성 신호(230), 및 개별 음성 신호들(232,234)에 대한 화자 식별 정보(332,334)를 통해 제 2 뉴럴 네트워크(301)를 훈련시킬 수 있다. 또한, 프로세서(110)는 혼합 음성 신호들(210,220,230), 개별 음성 신호들(212,214,222,224,232,234)에 대한 화자 식별 정보(312,314,322,324,332,334)을 통해 제 2 뉴럴 네트워크(301)를 훈련시킬 수 있다. 따라서, 프로세서(110)에 의해 훈련된 제 2 뉴럴 네트워크(303)는 혼합 음성 신호를 개별 음성 신호들로 분리할 수 있으며, 개별 음성 신호들에 대한 화자를 인식할 수 있다. 도 3에서는, 제 2 뉴럴 네트워크(301)의 입력 정보가 도 2의 제 1 뉴럴 네트워크(201)의 입력 정보와 동일한 입력 정보로 도시되었으나, 이에 한정되지 않고, 도 2의 제 1 뉴럴 네트워크의 입력 정보와 다른 입력 정보이어도 무방하다.Likewise, the processor 110 may train the second neural network 301 through the mixed speech signal 220 and the speaker identification information 322,324 for the individual speech signals 222,224. The processor 110 may also train the second neural network 301 through the mixed speech signal 230 and the speaker identification information 332 and 334 for the individual speech signals 232 and 234. The processor 110 may also train the second neural network 301 through the speaker identification information 312, 314, 322, 324, 332, 334 for the mixed speech signals 210, 220, 230 and the individual speech signals 212, 214, 222, Thus, the second neural network 303 trained by the processor 110 can separate the mixed speech signal into individual speech signals, and can recognize the speaker for individual speech signals. In FIG. 3, the input information of the second neural network 301 is shown as the same input information as the input information of the first neural network 201 of FIG. 2. However, the input information of the second neural network 301 of FIG. Information and other input information.

도 4는 프로세서가 화자를 등록하는 실시예를 나타낸다.4 shows an embodiment in which a processor registers a speaker.

프로세서(110)는 훈련된 제 2 뉴럴 네트워크(303)를 이용하여 화자를 등록할 수 있다.The processor 110 may register the speaker using the trained second neural network 303.

등록 과정에서, 먼저 프로세서(110)는 화자의 음성 신호(401)를 획득할 수 있다. 이어서, 프로세서(110)는 훈련된 제 2 뉴럴 네트워크(303)를 이용하여, 화자의 음성 신호(401)에 대한 화자 인식용 특징 정보(403)를 획득할 수 있다. 구체적으로, 프로세서(110)는, 화자의 음성 신호(401)에 대한 정보가 입력된 훈련된 제 2 뉴럴 네트워크(303)의 마지막 히든 레이어의 출력 벡터를 추출하여, 화자의 음성 신호(401)에 대한 화자 인식용 특징 정보(403)를 획득할 수 있다.In the registration process, the processor 110 may first obtain the speaker's voice signal 401. The processor 110 may then use the trained second neural network 303 to obtain feature information 403 for speaker recognition of the speech signal 401 of the speaker. Specifically, the processor 110 extracts the output vector of the last hidden layer of the trained second neural network 303 into which the information on the speaker's voice signal 401 is input, and outputs the output vector to the speaker's voice signal 401 It is possible to acquire feature information 403 for speaker recognition.

이어서, 프로세서(110)는 화자 인식용 특징 정보(403) 및 화자의 식별 정보(405)를 함께 메모리(120)에 저장하여, 화자를 등록할 수 있고, 등록 리스트를 업데이트할 수 있다.The processor 110 may then store the speaker identification feature information 403 and the speaker identification information 405 together in the memory 120 to register the speaker and update the registration list.

도 5는 프로세서가 적어도 하나의 음성 신호에 대한 적어도 하나의 화자를 인식하는 실시예를 나타낸다.Figure 5 shows an embodiment in which the processor recognizes at least one speaker for at least one speech signal.

프로세서(110)는 혼합 음성 신호(501)를 획득할 수 있다. 이어서, 프로세서(110)는 훈련된 제 2 뉴럴 네트워크(303)를 이용하여, 혼합 음성 신호(501)에 포함된 개별 음성 신호들(503,505)에 대한 화자 인식용 특징 정보(507,509)을 획득할 수 있다. 구체적으로, 혼합 음성 신호(501)에 대한 정보가 훈련된 제 2 뉴럴 네트워크(303)에 입력되는 경우, 훈련된 제 2 뉴럴 네트워크(303)는 혼합 음성 신호(501)를 개별 음성 신호들(503,505)로 분리하고 개별 음성 신호들(503,505)의 화자를 인식하는 과정을 거치므로, 훈련된 제 2 뉴럴 네트워크(303)의 마지막 히든 레이어의 출력 벡터에는 개별 음성 신호들(503,505) 각각에 대한 화자 인식용 특징 정보(507,509)가 포함될 수 있다. 따라서, 프로세서(110)는 훈련된 제 2 뉴럴 네트워크(303)의 마지막 히든 레이어의 출력 벡터를 추출하여, 개별 음성 신호들(503,505) 각각에 대한 화자 인식용 특징 정보(507,509)를 획득할 수 있다.The processor 110 may obtain the mixed speech signal 501. The processor 110 may then use the trained second neural network 303 to obtain characteristic information 507,509 for speaker recognition of the individual speech signals 503,505 contained in the mixed speech signal 501 have. Specifically, when information on the mixed speech signal 501 is input to the trained second neural network 303, the trained second neural network 303 transmits the mixed speech signal 501 to the individual speech signals 503 and 505 The output vector of the last hidden layer of the trained second neural network 303 includes a speaker recognition for each of the individual speech signals 503 and 505, And feature information 507 and 509 for use by the user. Thus, the processor 110 may extract the output vector of the last hidden layer of the trained second neural network 303 to obtain feature information 507,509 for speaker recognition for each of the individual speech signals 503,505 .

이어서, 프로세서(110)는, 획득된 화자 인식용 특징 정보(507) 및 화자 인식용 특징 정보(509) 각각과, 기 등록된 화자 인식용 특징 정보(510)를 비교할 수 있다. 구체적으로, 프로세서(110)는, 기 등록된 화자 인식용 특징 정보(510) 중에서, 화자 인식용 특징 정보(507)와 가장 유사도가 높은 화자 인식용 특징 정보를 확인할 수 있다. 이어서, 프로세서(110)는, 화자 인식용 특징 정보(507)와 가장 유사도가 높은 화자 인식용 특징 정보에 대응되는 화자(512)를, 개별 음성 신호(503)에 대한 화자로 인식할 수 있다. 마찬가지로, 프로세서(110)는, 기 등록된 화자 인식용 특징 정보(510) 중에서, 화자 인식용 특징 정보(509)와 가장 유사도가 높은 화자 인식용 특징 정보에 대응되는 화자(514)를, 개별 음성 신호(505)에 대한 화자로 인식할 수 있다.Subsequently, the processor 110 can compare the acquired feature information for speaker recognition 507 and feature information for speaker recognition 509 with previously registered feature information for speaker recognition 510, respectively. Specifically, the processor 110 can identify the feature information for speaker recognition, which has the highest degree of similarity with the feature information 507 for speaker recognition, among the feature information 510 for speaker recognition previously registered. The processor 110 can recognize the speaker 512 corresponding to the speaker recognition feature information having the highest degree of similarity to the speaker recognition feature information 507 as a speaker for the individual sound signal 503. [ Likewise, the processor 110 converts the speaker 514 corresponding to the speaker recognition feature information having the highest degree of similarity to the speaker recognition feature information 509 among the previously registered speaker recognition feature information 510, It can be recognized as a speaker for the signal 505.

따라서, 프로세서(110)는 혼합 음성 신호(501)에 포함된 개별 음성 신호들(503,505)에 대한 화자들(512,514)을 인식할 수 있다. 다시 말해, 프로세서(110)는 혼합 음성 신호(501)가 화자들(512,514)의 개별 음성 신호들(503,505)이 혼합된 음성 신호라는 것을 인식할 수 있다.Thus, the processor 110 can recognize the speakers 512, 514 for the individual voice signals 503, 505 included in the mixed voice signal 501. [ In other words, the processor 110 may recognize that the mixed speech signal 501 is a mixed speech signal of the individual speech signals 503, 505 of the speakers 512, 514.

도 6은 다른 실시예에 따른 뉴럴 네트워크 장치의 하드웨어 구성을 도시한 블록도이다.6 is a block diagram showing a hardware configuration of a neural network device according to another embodiment.

뉴럴 네트워크 장치(10)는 도 1의 프로세서(110) 및 메모리(120) 이외에도 음향 센서(130)를 더 포함할 수 있다.The neural network device 10 may further include an acoustic sensor 130 in addition to the processor 110 and the memory 120 of FIG.

음향 센서(130)는 광대역 마이크로폰, 공진기 마이크로폰, 협대역 공진기 마이크로폰 어레이 중 적어도 하나를 포함할 수 있다.The acoustic sensor 130 may include at least one of a wideband microphone, a resonator microphone, and a narrowband resonator microphone array.

음향 센서(130)는 화자의 음성 신호를 센싱할 수 있다. 이어서, 프로세서(110)는, 훈련된 제 2 뉴럴 네트워크를 이용하여, 센싱된 화자의 음성 신호에 대한 화자 인식용 특징 정보를 획득할 수 있다. 이어서, 프로세서(110)는, 획득된 화자 인식용 특징 정보를 화자의 식별 정보와 함께 저장하여, 화자를 등록할 수 있다.The acoustic sensor 130 can sense the speech signal of the speaker. The processor 110 may then use the trained second neural network to obtain feature information for speaker recognition of the speech signal of the sensed speaker. Subsequently, the processor 110 can register the speaker by storing the acquired feature information for speaker recognition together with the identification information of the speaker.

음향 센서(130)는 혼합 음성 신호를 센싱할 수 있다. 이어서, 프로세서(110)는, 훈련된 제 2 뉴럴 네트워크를 이용하여, 센싱된 혼합 음성 신호에 포함된 적어도 하나의 개별 음성 신호에 대한 화자 인식용 특징 정보를 획득할 수 있다. 이어서, 프로세서(110)는 적어도 하나의 개별 음성 신호에 대한 화자 인식용 특징 정보와, 기 등록된 적어도 하나의 화자에 대한 특징 정보를 비교하여, 혼합 음성 신호에 대한 적어도 하나의 화자를 인식할 수 있다.The acoustic sensor 130 may sense the mixed voice signal. The processor 110 may then use the trained second neural network to obtain feature information for speaker recognition of at least one individual speech signal contained in the sensed mixed speech signal. The processor 110 then compares the feature information for speaker recognition of at least one individual speech signal with the feature information for at least one previously registered speaker to recognize at least one speaker for the mixed speech signal have.

도 7은 일 실시예에 따라, 뉴럴 네트워크 장치의 동작 방법을 설명하기 위한 도면이다.7 is a diagram for explaining a method of operating a neural network device according to an embodiment.

도 7에 도시된 방법은, 도 1 및 도 6의 뉴럴 네트워크 장치(10)의 각 구성요소에 의해 수행될 수 있고, 중복되는 설명에 대해서는 생략한다.The method shown in Fig. 7 can be performed by the respective components of the neural network apparatus 10 of Figs. 1 and 6, and redundant explanations are omitted.

단계 710에서, 뉴럴 네트워크 장치(10)는, 제 1 뉴럴 네트워크를 훈련시켜, 혼합 음성 신호를 개별 음성 신호들로 분리하도록 훈련된 제 1 뉴럴 네트워크를 생성할 수 있다.At step 710, the neural network device 10 may generate a first neural network trained to train the first neural network and separate the mixed speech signal into separate speech signals.

뉴럴 네트워크 장치(10)는, 복수의 화자들의 혼합 음성 신호에 대한 정보를 제 1 뉴럴 네트워크에 대한 입력 정보로써 획득할 수 있고, 복수의 화자들 각각의 개별 음성 신호에 대한 정보를 상기 제 1 뉴럴 네트워크에 대한 출력 정보로써 획득할 수 있다. 따라서, 뉴럴 네트워크 장치(10)는 제 1 뉴럴 네트워크에 대한 입력 정보 및 출력 정보를 통해, 상기 제 1 뉴럴 네트워크를 훈련시킬 수 있고, 훈련된 제 1 뉴럴 네트워크를 생성할 수 있다.The neural network apparatus 10 can acquire information on a mixed speech signal of a plurality of speakers as input information for a first neural network and can transmit information on individual speech signals of a plurality of speakers to the first neural network Can be obtained as output information for the network. Thus, the neural network device 10 can train the first neural network and generate the trained first neural network, via input information and output information to the first neural network.

단계 720에서, 뉴럴 네트워크 장치(10)는, 훈련된 제 1 뉴럴 네트워크에 적어도 하나의 레이어를 부가하여 제 2 뉴럴 네트워크를 생성할 수 있다.At step 720, the neural network device 10 may add at least one layer to the trained first neural network to create a second neural network.

뉴럴 네트워크 장치(10)는 훈련된 제 1 뉴럴 네트워크의 출력 레이어를 제거하고, 적어도 하나의 히든 레이어 및 출력 레이어를 연결시켜, 제 2 뉴럴 네트워크를 생성할 수 있다.The neural network device 10 may remove the output layer of the trained first neural network and connect at least one hidden layer and output layer to create a second neural network.

단계 730에서, 뉴럴 네트워크 장치(10)는, 제 2 뉴럴 네트워크를 훈련시켜, 혼합 음성 신호를 개별 음성 신호들로 분리하고 개별 음성 신호들 각각에 대한 화자를 인식하도록 훈련된 제 2 뉴럴 네트워크를 생성할 수 있다.At step 730, the neural network device 10 generates a second neural network trained to train the second neural network, to separate the mixed speech signal into individual speech signals and to recognize the speaker for each of the individual speech signals can do.

뉴럴 네트워크 장치(10)는, 복수의 화자들의 혼합 음성 신호에 대한 정보를 상기 제 2 뉴럴 네트워크에 대한 입력 정보로써 획득할 수 있고, 상기 복수의 화자들 각각의 개별 음성 신호에 대한 화자 식별 정보를 출력 정보로써 획득할 수 있다. 따라서, 뉴럴 네트워크 장치(10)는 제 2 뉴럴 네트워크에 대한 입력 정보 및 출력 정보를 통해 상기 제 2 뉴럴 네트워크를 훈련시킬 수 있고, 훈련된 제 2 뉴럴 네트워크를 생성할 수 있다.The neural network apparatus 10 can acquire information on a mixed speech signal of a plurality of speakers as input information to the second neural network, and can acquire speaker identification information on individual speech signals of the plurality of speakers Can be obtained as output information. Thus, the neural network device 10 can train the second neural network and generate the trained second neural network through input information and output information to the second neural network.

도 8은 다른 실시예에 따라, 뉴럴 네트워크 장치의 동작 방법을 설명하기 위한 도면이다.8 is a diagram for explaining a method of operating a neural network device according to another embodiment.

도 8에 도시된 방법은, 도 1 및 도 6의 뉴럴 네트워크 장치(10)의 각 구성요소에 의해 수행될 수 있고, 중복되는 설명에 대해서는 생략한다.The method shown in Fig. 8 can be performed by each element of the neural network apparatus 10 of Figs. 1 and 6, and redundant description is omitted.

단계 810에서, 뉴럴 네트워크 장치(10)는, 제 1 뉴럴 네트워크를 훈련시켜, 혼합 음성 신호를 개별 음성 신호들로 분리하도록 훈련된 제 1 뉴럴 네트워크를 생성할 수 있다.At step 810, the neural network device 10 may generate a first neural network trained to train the first neural network and separate the mixed speech signal into separate speech signals.

단계 820에서, 뉴럴 네트워크 장치(10)는, 훈련된 제 1 뉴럴 네트워크에 적어도 하나의 레이어를 부가하여 제 2 뉴럴 네트워크를 생성할 수 있다.In step 820, the neural network device 10 may add at least one layer to the trained first neural network to create a second neural network.

단계 830에서, 뉴럴 네트워크 장치(10)는, 제 2 뉴럴 네트워크를 훈련시켜, 혼합 음성 신호를 개별 음성 신호들로 분리하고 개별 음성 신호들 각각에 대한 화자를 인식하도록 훈련된 제 2 뉴럴 네트워크를 생성할 수 있다.At step 830, the neural network device 10 generates a second neural network trained to train the second neural network, to separate the mixed speech signal into individual speech signals and to recognize the speaker for each of the individual speech signals can do.

단계 840에서, 뉴럴 네트워크 장치(10)는 혼합 음성 신호를 획득할 수 있다. 구체적으로, 뉴럴 네트워크 장치(10)는 음향 센서를 통해 혼합 음성 신호를 센싱할 수 있다.In step 840, the neural network device 10 may obtain a mixed speech signal. Specifically, the neural network device 10 can sense the mixed speech signal through the acoustic sensor.

단계 850에서, 뉴럴 네트워크 장치(10)는, 훈련된 제 2 뉴럴 네트워크를 이용하여, 획득된 혼합 음성 신호에 대한 적어도 하나의 화자를 인식할 수 있다.At step 850, the neural network device 10 may recognize at least one speaker for the obtained mixed speech signal using the trained second neural network.

뉴럴 네트워크 장치(10)는, 훈련된 제 2 뉴럴 네트워크를 이용하여, 획득된 혼합 음성 신호에 포함된 적어도 하나의 개별 음성 신호에 대한 화자 인식용 특징 정보를 획득할 수 있다. 이어서, 뉴럴 네트워크 장치(10)는, 적어도 하나의 개별 음성 신호에 대한 화자 인식용 특징 정보와, 기 등록된 화자 인식용 특징 정보를 비교하여, 상기 센싱된 혼합 음성 신호에 대한 적어도 하나의 화자를 인식할 수 있다. 뉴럴 네트워크 장치(10)는, 획득된 혼합 음성 신호에 대한 정보가 입력된 상태의 훈련된 제 2 뉴럴 네트워크의 마지막 히든 레이어의 출력 벡터를 추출하여, 적어도 하나의 개별 음성 신호에 대한 화자 인식용 특징 정보를 획득할 수 있다.The neural network device 10 can acquire speaker recognition feature information for at least one individual speech signal included in the obtained mixed speech signal using the trained second neural network. Next, the neural network device 10 compares feature information for speaker recognition of at least one individual voice signal with pre-registered feature information for speaker recognition to determine at least one speaker for the sensed mixed speech signal Can be recognized. The neural network device 10 extracts the output vector of the last hidden layer of the trained second neural network in which the information on the obtained mixed speech signal is inputted and outputs a speech recognition characteristic for at least one individual speech signal Information can be obtained.

또한, 뉴럴 네트워크 장치(10)는, 화자의 음성 신호를 획득할 수 있다. 구체적으로, 뉴럴 네트워크 장치(10)는, 음향 센서를 통해, 화자의 음성 신호를 센싱할 수 있다. 이어서, 뉴럴 네트워크 장치(10)는, 훈련된 제 2 뉴럴 네트워크를 이용하여, 화자의 음성 신호에 대한 화자 인식용 특징 정보를 획득할 수 있다. 이어서, 뉴럴 네트워크 장치(10)는, 획득된 화자 인식용 특징 정보를 상기 화자의 식별 정보와 함께 저장하여, 화자를 등록할 수 있다.Further, the neural network device 10 can acquire the speech signal of the speaker. Specifically, the neural network device 10 can sense a speech signal of a speaker through an acoustic sensor. Then, the neural network device 10 can acquire speaker recognition feature information on the speech signal of the speaker using the trained second neural network. Then, the neural network device 10 can store the obtained speaker identification information together with the identification information of the speaker to register the speaker.

상기 살펴 본 실시 예들에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다. The apparatus according to the above embodiments may include a processor, a memory for storing and executing program data, a permanent storage such as a disk drive, a communication port for communicating with an external device, a touch panel, a key, The same user interface device, and the like. Methods implemented with software modules or algorithms may be stored on a computer readable recording medium as computer readable codes or program instructions executable on the processor. Here, the computer-readable recording medium may be a magnetic storage medium such as a read-only memory (ROM), a random-access memory (RAM), a floppy disk, a hard disk, ), And a DVD (Digital Versatile Disc). The computer-readable recording medium may be distributed over networked computer systems so that computer readable code can be stored and executed in a distributed manner. The medium is readable by a computer, stored in a memory, and executable on a processor.

본 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. "매커니즘", "요소", "수단", "구성"과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.This embodiment may be represented by functional block configurations and various processing steps. These functional blocks may be implemented in a wide variety of hardware and / or software configurations that perform particular functions. For example, embodiments may include integrated circuit components such as memory, processing, logic, look-up tables, etc., that may perform various functions by control of one or more microprocessors or other control devices Can be employed. Similar to how components may be implemented with software programming or software components, the present embodiments may be implemented in a variety of ways, including C, C ++, Java (" Java), an assembler, and the like. Functional aspects may be implemented with algorithms running on one or more processors. In addition, the present embodiment can employ conventional techniques for electronic environment setting, signal processing, and / or data processing. Terms such as "mechanism", "element", "means", "configuration" may be used broadly and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in conjunction with a processor or the like.

본 실시 예에서 설명하는 특정 실행들은 예시들로서, 어떠한 방법으로도 기술적 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. The specific implementations described in this embodiment are illustrative and do not in any way limit the scope of the invention. For brevity of description, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of such systems may be omitted. Also, the connections or connecting members of the lines between the components shown in the figures are illustrative of functional connections and / or physical or circuit connections, which may be replaced or additionally provided by a variety of functional connections, physical Connection, or circuit connections.

본 명세서(특히 특허청구범위에서)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 한정되는 것은 아니다. 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 기술적 사상을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.In this specification (particularly in the claims), the use of the terms " above " and similar indication words may refer to both singular and plural. In addition, when a range is described, it includes the individual values belonging to the above range (unless there is a description to the contrary), and the individual values constituting the above range are described in the detailed description. Finally, if there is no explicit description or contradiction to the steps constituting the method, the steps may be performed in an appropriate order. It is not necessarily limited to the description order of the above steps. The use of all examples or exemplary terms (e. G., The like) is merely intended to be illustrative of technical ideas and is not to be limited in scope by the examples or the illustrative terminology, except as by the appended claims. It will also be appreciated by those skilled in the art that various modifications, combinations, and alterations may be made depending on design criteria and factors within the scope of the appended claims or equivalents thereof.

Claims (19)

화자 인식을 위한 뉴럴 네트워크 장치에 있어서,
하나 이상의 명령어(instruction)를 저장하는 메모리; 및
상기 하나 이상의 명령어를 실행함으로써, 제 1 뉴럴 네트워크를 훈련시켜, 혼합 음성 신호를 개별 음성 신호들로 분리하도록 훈련된 제 1 뉴럴 네트워크를 생성하고,
상기 훈련된 제 1 뉴럴 네트워크에 적어도 하나의 레이어를 부가하여 제 2 뉴럴 네트워크를 생성하고,
상기 제 2 뉴럴 네트워크를 훈련시켜, 혼합 음성 신호를 개별 음성 신호들로 분리하고 상기 개별 음성 신호들 각각에 대한 화자를 인식하도록 훈련된 제 2 뉴럴 네트워크를 생성하는, 프로세서를 포함하는, 뉴럴 네트워크 장치.
A neural network device for speaker recognition,
A memory for storing one or more instructions; And
Generating a first neural network trained to train the first neural network to separate the mixed speech signal into separate speech signals,
Adding at least one layer to the trained first neural network to generate a second neural network,
And trained the second neural network to separate the mixed speech signal into separate speech signals and generate a second neural network trained to recognize the speaker for each of the individual speech signals. .
제 1 항에 있어서,
상기 프로세서는,
복수의 화자들의 혼합 음성 신호에 대한 정보를 상기 제 1 뉴럴 네트워크에 대한 입력 정보로써 획득하고,
상기 복수의 화자들 각각의 개별 음성 신호에 대한 정보를 상기 제 1 뉴럴 네트워크에 대한 출력 정보로써 획득하고,
상기 제 1 뉴럴 네트워크에 대한 입력 정보 및 출력 정보를 통해, 상기 제 1 뉴럴 네트워크를 훈련시키는, 뉴럴 네트워크 장치.
The method according to claim 1,
The processor comprising:
Acquiring information on a mixed speech signal of a plurality of speakers as input information for the first neural network,
Acquiring information on individual speech signals of each of the plurality of speakers as output information for the first neural network,
And trains the first neural network through input information and output information to the first neural network.
제 1 항에 있어서,
상기 프로세서는,
복수의 화자들의 혼합 음성 신호에 대한 정보를 상기 제 2 뉴럴 네트워크에 대한 입력 정보로써 획득하고,
상기 복수의 화자들 각각의 개별 음성 신호에 대한 화자 식별 정보를 출력 정보로써 획득하고,
상기 제 2 뉴럴 네트워크에 대한 입력 정보 및 출력 정보를 통해 상기 제 2 뉴럴 네트워크를 훈련시키는, 뉴럴 네트워크 장치.
The method according to claim 1,
The processor comprising:
Acquiring information on a mixed speech signal of a plurality of speakers as input information for the second neural network,
Acquiring speaker identification information of individual speech signals of each of the plurality of speakers as output information,
And trains the second neural network through input information and output information to the second neural network.
제 1 항에 있어서,
상기 프로세서는,
상기 훈련된 제 1 뉴럴 네트워크의 출력 레이어를 제거하고, 적어도 하나의 히든 레이어 및 출력 레이어를 연결시켜, 상기 제 2 뉴럴 네트워크를 생성하는, 뉴럴 네트워크 장치.
The method according to claim 1,
The processor comprising:
Remove the output layer of the trained first neural network and connect at least one hidden layer and output layer to create the second neural network.
제 1 항에 있어서,
혼합 음성 신호를 센싱하는 음향 센서;를 더 포함하고,
상기 프로세서는,
상기 훈련된 제 2 뉴럴 네트워크를 이용하여, 상기 센싱된 혼합 음성 신호에 대한 적어도 하나의 화자를 인식하는, 뉴럴 네트워크 장치.
The method according to claim 1,
And an acoustic sensor for sensing the mixed voice signal,
The processor comprising:
And using the trained second neural network to recognize at least one speaker for the sensed mixed speech signal.
제 5 항에 있어서,
상기 프로세서는,
상기 훈련된 제 2 뉴럴 네트워크를 이용하여, 상기 센싱된 혼합 음성 신호에 포함된 적어도 하나의 개별 음성 신호에 대한 화자 인식용 특징 정보를 획득하고,
상기 적어도 하나의 개별 음성 신호에 대한 화자 인식용 특징 정보와, 기 등록된 화자 인식용 특징 정보를 비교하여, 상기 센싱된 혼합 음성 신호에 대한 적어도 하나의 화자를 인식하는, 뉴럴 네트워크 장치.
6. The method of claim 5,
The processor comprising:
Acquiring feature information for speaker recognition of at least one individual speech signal included in the sensed mixed speech signal using the trained second neural network,
And compares feature information for speaker recognition of the at least one individual speech signal with previously registered feature information for speaker recognition to recognize at least one speaker for the sensed mixed speech signal.
제 6 항에 있어서,
상기 프로세서는,
상기 센싱된 혼합 음성 신호에 대한 정보가 입력된 상기 훈련된 제 2 뉴럴 네트워크의 마지막 히든 레이어의 출력 벡터를 추출하여, 상기 적어도 하나의 개별 음성 신호에 대한 화자 인식용 특징 정보를 획득하는, 뉴럴 네트워크 장치.
The method according to claim 6,
The processor comprising:
Extracting an output vector of a last hidden layer of the trained second neural network into which the information about the sensed mixed speech signal is input and acquiring feature information for speaker recognition of the at least one individual speech signal, Device.
제 5 항에 있어서,
상기 음향 센서는,
광대역 마이크로폰, 공진기 마이크로폰, 협대역 공진기 마이크로폰 어레이 중 적어도 하나를 포함하는, 뉴럴 네트워크 장치.
6. The method of claim 5,
The acoustic sensor comprises:
A wideband microphone, a resonator microphone, and a narrowband resonator microphone array.
제 1 항에 있어서,
화자의 음성 신호를 센싱하는 음향 센서;를 더 포함하고,
상기 프로세서는,
상기 훈련된 제 2 뉴럴 네트워크를 이용하여, 상기 화자의 음성 신호에 대한 화자 인식용 특징 정보를 획득하고, 상기 획득된 화자 인식용 특징 정보를 상기 화자의 식별 정보와 함께 저장하여, 상기 화자를 등록하는, 뉴럴 네트워크 장치.
The method according to claim 1,
And an acoustic sensor for sensing a speech signal of the speaker,
The processor comprising:
Acquiring characteristic information for speaker recognition of the speech signal of the speaker using the trained second neural network, storing the acquired characteristic information for speaker recognition together with identification information of the speaker, A neural network device.
화자 인식을 위한 뉴럴 네트워크 장치의 동작 방법에 있어서,
제 1 뉴럴 네트워크를 훈련시켜, 혼합 음성 신호를 개별 음성 신호들로 분리하도록 훈련된 제 1 뉴럴 네트워크를 생성하는 단계;
상기 훈련된 제 1 뉴럴 네트워크에 적어도 하나의 레이어를 부가하여 제 2 뉴럴 네트워크를 생성하는 단계; 및
상기 제 2 뉴럴 네트워크를 훈련시켜, 혼합 음성 신호를 개별 음성 신호들로 분리하고 상기 개별 음성 신호들 각각에 대한 화자를 인식하도록 훈련된 제 2 뉴럴 네트워크를 생성하는 단계를 포함하는, 동작 방법.
A method of operating a neural network device for speaker recognition,
Training a first neural network to generate a first neural network trained to separate the mixed speech signal into individual speech signals;
Adding at least one layer to the trained first neural network to create a second neural network; And
Training the second neural network to separate the mixed speech signal into separate speech signals and to create a second neural network trained to recognize the speaker for each of the individual speech signals.
제 10 항에 있어서,
상기 훈련된 제 1 뉴럴 네트워크를 생성하는 단계는,
복수의 화자들의 혼합 음성 신호에 대한 정보를 상기 제 1 뉴럴 네트워크에 대한 입력 정보로써 획득하는 단계;
상기 복수의 화자들 각각의 개별 음성 신호에 대한 정보를 상기 제 1 뉴럴 네트워크에 대한 출력 정보로써 획득하는 단계; 및
상기 제 1 뉴럴 네트워크에 대한 입력 정보 및 출력 정보를 통해, 상기 제 1 뉴럴 네트워크를 훈련시키는 단계를 포함하는, 동작 방법.
11. The method of claim 10,
Wherein generating the trained first neural network comprises:
Obtaining information on a mixed speech signal of a plurality of speakers as input information for the first neural network;
Obtaining information on individual speech signals of each of the plurality of speakers as output information for the first neural network; And
And training the first neural network through input information and output information for the first neural network.
제 10 항에 있어서,
상기 훈련된 제 2 뉴럴 네트워크를 생성하는 단계는,
복수의 화자들의 혼합 음성 신호에 대한 정보를 상기 제 2 뉴럴 네트워크에 대한 입력 정보로써 획득하는 단계;
상기 복수의 화자들 각각의 개별 음성 신호에 대한 화자 식별 정보를 출력 정보로써 획득하는 단계; 및
상기 제 2 뉴럴 네트워크에 대한 입력 정보 및 출력 정보를 통해 상기 제 2 뉴럴 네트워크를 훈련시키는 단계를 포함하는, 동작 방법.
11. The method of claim 10,
Wherein generating the trained second neural network comprises:
Obtaining information on a mixed speech signal of a plurality of speakers as input information for the second neural network;
Obtaining speaker identification information for individual speech signals of each of the plurality of speakers as output information; And
And training the second neural network via input information and output information for the second neural network.
제 10 항에 있어서,
상기 제 2 뉴럴 네트워크를 생성하는 단계는,
상기 훈련된 제 1 뉴럴 네트워크의 출력 레이어를 제거하고, 적어도 하나의 히든 레이어 및 출력 레이어를 연결시켜, 상기 제 2 뉴럴 네트워크를 생성하는, 동작 방법.
11. The method of claim 10,
Wherein the generating the second neural network comprises:
Removing the output layer of the trained first neural network and connecting at least one hidden layer and output layer to generate the second neural network.
제 10 항에 있어서,
혼합 음성 신호를 획득하는 단계; 및
상기 훈련된 제 2 뉴럴 네트워크를 이용하여, 상기 획득된 혼합 음성 신호에 대한 적어도 하나의 화자를 인식하는 단계를 더 포함하는, 동작 방법.
11. The method of claim 10,
Obtaining a mixed speech signal; And
Further comprising using the trained second neural network to recognize at least one speaker for the obtained mixed speech signal.
제 14 항에 있어서,
상기 적어도 하나의 화자를 인식하는 단계는,
상기 훈련된 제 2 뉴럴 네트워크를 이용하여, 상기 획득된 혼합 음성 신호에 포함된 적어도 하나의 개별 음성 신호에 대한 화자 인식용 특징 정보를 획득하는 단계; 및
상기 적어도 하나의 개별 음성 신호에 대한 화자 인식용 특징 정보와, 기 등록된 화자 인식용 특징 정보를 비교하여, 상기 획득된 혼합 음성 신호에 대한 적어도 하나의 화자를 인식하는 단계를 포함하는, 동작 방법.
15. The method of claim 14,
Wherein recognizing the at least one speaker comprises:
Obtaining feature information for speaker recognition of at least one individual speech signal included in the obtained mixed speech signal using the trained second neural network; And
Comparing the feature information for speaker recognition of the at least one individual speech signal with previously registered feature information for speaker recognition and recognizing at least one speaker for the obtained mixed speech signal .
제 15 항에 있어서,
상기 적어도 하나의 개별 음성 신호에 대한 화자 인식용 특징 정보를 획득하는 단계는,
상기 센싱된 혼합 음성 신호에 대한 정보가 입력된 상기 훈련된 제 2 뉴럴 네트워크의 마지막 히든 레이어의 출력 벡터를 추출하여, 상기 적어도 하나의 개별 음성 신호에 대한 화자 인식용 특징 정보를 획득하는, 동작 방법.
16. The method of claim 15,
Wherein the step of obtaining feature information for speaker recognition of the at least one individual speech signal comprises:
Extracting an output vector of a last hidden layer of the trained second neural network into which the information about the sensed mixed speech signal is input to obtain characteristic information for speaker recognition of the at least one individual speech signal, .
제 14 항에 있어서,
상기 혼합 음성 신호를 획득하는 단계는,
광대역 마이크로폰, 공진기 마이크로폰, 협대역 공진기 마이크로폰 어레이 중 적어도 하나를 이용하여, 상기 혼합 음성 신호를 센싱하는 단계를 포함하는, 동작 방법.
15. The method of claim 14,
Wherein the step of acquiring the mixed speech signal comprises:
Sensing the mixed speech signal using at least one of a wideband microphone, a resonator microphone, and a narrowband resonator microphone array.
제 10 항에 있어서,
화자의 음성 신호를 획득하는 단계;
상기 훈련된 제 2 뉴럴 네트워크를 이용하여, 상기 화자의 음성 신호에 대한 화자 인식용 특징 정보를 획득하는 단계; 및
상기 획득된 화자 인식용 특징 정보를 상기 화자의 식별 정보와 함께 저장하여, 상기 화자를 등록하는 단계를 더 포함하는, 동작 방법.
11. The method of claim 10,
Obtaining a speech signal of a speaker;
Acquiring feature information for speaker recognition of the speech signal of the speaker using the trained second neural network; And
And registering the speaker by storing the acquired speaker recognition feature information together with the identification information of the speaker.
제 10 항 내지 18 항 중에 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.A computer-readable recording medium storing a program for causing a computer to execute the method according to any one of claims 10 to 18.
KR1020170157507A 2017-11-23 2017-11-23 Neural network device for speaker recognition, and operation method of the same KR102486395B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170157507A KR102486395B1 (en) 2017-11-23 2017-11-23 Neural network device for speaker recognition, and operation method of the same
US16/134,529 US11094329B2 (en) 2017-11-23 2018-09-18 Neural network device for speaker recognition, and method of operation thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170157507A KR102486395B1 (en) 2017-11-23 2017-11-23 Neural network device for speaker recognition, and operation method of the same

Publications (2)

Publication Number Publication Date
KR20190060028A true KR20190060028A (en) 2019-06-03
KR102486395B1 KR102486395B1 (en) 2023-01-10

Family

ID=66532455

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170157507A KR102486395B1 (en) 2017-11-23 2017-11-23 Neural network device for speaker recognition, and operation method of the same

Country Status (2)

Country Link
US (1) US11094329B2 (en)
KR (1) KR102486395B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10750281B2 (en) 2018-12-03 2020-08-18 Samsung Electronics Co., Ltd. Sound source separation apparatus and sound source separation method
KR20210146825A (en) * 2020-05-27 2021-12-06 보리 주식회사 Method and system for analyzing language development disorder and behavior development disorder by processing video information input to the camera and audio information input to the microphone in real time
KR20210147985A (en) * 2020-05-29 2021-12-07 보리 주식회사 Method and system for analyzing fluency using big data
US11264036B2 (en) 2018-12-31 2022-03-01 Samsung Electronics Co., Ltd. Neural network device for speaker recognition and operating method of the same

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10055667B2 (en) * 2016-08-03 2018-08-21 X Development Llc Generating a model for an object encountered by a robot
US11893999B1 (en) * 2018-05-13 2024-02-06 Amazon Technologies, Inc. Speech based user recognition
JP2019211627A (en) * 2018-06-05 2019-12-12 日本電信電話株式会社 Model learning device, method and program
US10635939B2 (en) * 2018-07-06 2020-04-28 Capital One Services, Llc System, method, and computer-accessible medium for evaluating multi-dimensional synthetic data using integrated variants analysis
US20200042825A1 (en) * 2018-08-02 2020-02-06 Veritone, Inc. Neural network orchestration
US10726830B1 (en) * 2018-09-27 2020-07-28 Amazon Technologies, Inc. Deep multi-channel acoustic modeling
US11114103B2 (en) 2018-12-28 2021-09-07 Alibaba Group Holding Limited Systems, methods, and computer-readable storage media for audio signal processing
US10803875B2 (en) * 2019-02-08 2020-10-13 Nec Corporation Speaker recognition system and method of using the same
US11017783B2 (en) * 2019-03-08 2021-05-25 Qualcomm Incorporated Speaker template update with embedding vectors based on distance metric
KR20200119377A (en) 2019-03-25 2020-10-20 삼성전자주식회사 Method and apparatus for implementing neural network for identifying speaker
US20200394994A1 (en) * 2019-06-12 2020-12-17 Nvidia Corporation Invertible neural network to synthesize audio signals
CN110444223B (en) * 2019-06-26 2023-05-23 平安科技(深圳)有限公司 Speaker separation method and device based on cyclic neural network and acoustic characteristics
US11900246B2 (en) * 2019-09-02 2024-02-13 Samsung Electronics Co., Ltd. Method and apparatus for recognizing user based on on-device training
US10916241B1 (en) * 2019-12-30 2021-02-09 Capital One Services, Llc Theme detection for object-recognition-based notifications
US11610412B2 (en) * 2020-09-18 2023-03-21 Ford Global Technologies, Llc Vehicle neural network training
CN113077796A (en) * 2021-03-17 2021-07-06 山东师范大学 Speaker identification method and system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130138436A1 (en) * 2011-11-26 2013-05-30 Microsoft Corporation Discriminative pretraining of deep neural networks
US20170178666A1 (en) * 2015-12-21 2017-06-22 Microsoft Technology Licensing, Llc Multi-speaker speech separation
KR20170119152A (en) * 2016-04-18 2017-10-26 한양대학교 산학협력단 Ensemble of Jointly Trained Deep Neural Network-based Acoustic Models for Reverberant Speech Recognition and Method for Recognizing Speech using the same

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100596558B1 (en) 2004-09-07 2006-07-05 학교법인연세대학교 Transformation method of Speech Feature Vector for Speaker Recognition
US9230550B2 (en) 2013-01-10 2016-01-05 Sensory, Incorporated Speaker verification and identification using artificial neural network-based sub-phonetic unit discrimination
US20160189730A1 (en) * 2014-12-30 2016-06-30 Iflytek Co., Ltd. Speech separation method and system
US20180018973A1 (en) * 2016-07-15 2018-01-18 Google Inc. Speaker verification

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130138436A1 (en) * 2011-11-26 2013-05-30 Microsoft Corporation Discriminative pretraining of deep neural networks
US20170178666A1 (en) * 2015-12-21 2017-06-22 Microsoft Technology Licensing, Llc Multi-speaker speech separation
KR20170119152A (en) * 2016-04-18 2017-10-26 한양대학교 산학협력단 Ensemble of Jointly Trained Deep Neural Network-based Acoustic Models for Reverberant Speech Recognition and Method for Recognizing Speech using the same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
김대현 외, '깊은 신경망 특징 기반 화자 검증 시스템의 성능 비교', 말소리와 음성과학 제7권 제4호, 2015.12. *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10750281B2 (en) 2018-12-03 2020-08-18 Samsung Electronics Co., Ltd. Sound source separation apparatus and sound source separation method
US11264036B2 (en) 2018-12-31 2022-03-01 Samsung Electronics Co., Ltd. Neural network device for speaker recognition and operating method of the same
KR20210146825A (en) * 2020-05-27 2021-12-06 보리 주식회사 Method and system for analyzing language development disorder and behavior development disorder by processing video information input to the camera and audio information input to the microphone in real time
KR20210147985A (en) * 2020-05-29 2021-12-07 보리 주식회사 Method and system for analyzing fluency using big data

Also Published As

Publication number Publication date
KR102486395B1 (en) 2023-01-10
US20190156837A1 (en) 2019-05-23
US11094329B2 (en) 2021-08-17

Similar Documents

Publication Publication Date Title
KR20190060028A (en) Neural network device for speaker recognition, and operation method of the same
KR102654874B1 (en) Neural network device for speaker recognition, and operation method of the same
US11776530B2 (en) Speech model personalization via ambient context harvesting
US10235994B2 (en) Modular deep learning model
US10068588B2 (en) Real-time emotion recognition from audio signals
US10923137B2 (en) Speech enhancement and audio event detection for an environment with non-stationary noise
CN106469552B (en) Speech recognition apparatus and method
JP7242520B2 (en) visually aided speech processing
EP3113176B1 (en) Speech recognition
CN108492830B (en) Voiceprint recognition method and device, computer equipment and storage medium
Oh et al. Target speech feature extraction using non-parametric correlation coefficient
US9947323B2 (en) Synthetic oversampling to enhance speaker identification or verification
KR20210052036A (en) Apparatus with convolutional neural network for obtaining multiple intent and method therof
KR20210050884A (en) Registration method and apparatus for speaker recognition
CN107112011A (en) Cepstrum normalized square mean for audio feature extraction
US20230335148A1 (en) Speech Separation Method, Electronic Device, Chip, and Computer-Readable Storage Medium
CN113409827B (en) Voice endpoint detection method and system based on local convolution block attention network
CN116631380B (en) Method and device for waking up audio and video multi-mode keywords
KR102220964B1 (en) Method and device for audio recognition
KR20160055059A (en) Method and apparatus for speech signal processing
CN115691539A (en) Two-stage voice separation method and system based on visual guidance
US11600262B2 (en) Recognition device, method and storage medium
KR20190141350A (en) Apparatus and method for recognizing speech in robot
US9495978B2 (en) Method and device for processing a sound signal
KR20150054445A (en) Sound recognition device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant