KR20160134019A - 인공 신경망의 하향식 선택적 주의집중 트레이닝 방법 - Google Patents

인공 신경망의 하향식 선택적 주의집중 트레이닝 방법 Download PDF

Info

Publication number
KR20160134019A
KR20160134019A KR1020150067380A KR20150067380A KR20160134019A KR 20160134019 A KR20160134019 A KR 20160134019A KR 1020150067380 A KR1020150067380 A KR 1020150067380A KR 20150067380 A KR20150067380 A KR 20150067380A KR 20160134019 A KR20160134019 A KR 20160134019A
Authority
KR
South Korea
Prior art keywords
output
artificial neural
neural network
data
selective attention
Prior art date
Application number
KR1020150067380A
Other languages
English (en)
Other versions
KR102154676B1 (ko
Inventor
이수영
동서연
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020150067380A priority Critical patent/KR102154676B1/ko
Publication of KR20160134019A publication Critical patent/KR20160134019A/ko
Application granted granted Critical
Publication of KR102154676B1 publication Critical patent/KR102154676B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Abstract

본 발명은 인간의 두뇌에서 일어나는 선택적 주의 집중의 능력을 공학적으로 구현하고, 이를 인식기에 적용하여 정밀도를 임의로 높이기 위해 다층 퍼셉트론 네트워크 기반 인공 신경망의 학습 수행을 통해 획득된 시냅스별 연결 강도에 대응하는 복수의 가중치를 기설정된 가중치 값을 기반으로 고정하고, 다수의 뉴런으로 구성된 입력층에 훈련 패턴을 제시하여 훈련 패턴에 대응되는 인공 신경망 내의 연산 을 수행하고 복수의 도메인별 데이터에 대응하는 입력 벡터에 대한 출력을 산출한 후 산출된 출력을 통해 도메인별 정책 기반 데이터 인식률을 비교하여 인식률이 가장 높은 데이터의 해당 출력에 가중치를 부여하여 하향식(top-down) 선택적 주의집중 기반 시냅스별 트레이닝을 수행함으로써 복수의 후보자 클래스에 대하여 주의 집중의 정도를 새로운 인식 척도로 정의하여 기존의 하나의 후보자 클래스에 대한 인식시스템에 비하여 우수한 인식 결과를 출력 가능할 뿐만 아니라, 가중합을 통해 구현 가능한 최고 속도를 떨어뜨리지 않고 연산의 정밀도(precision)를 임의로 높일 수 있고, 이러한 하향식 선택적 주의 집중의 다층 퍼셉트론은 생물학적으로 선택적 주의집중의 메커니즘을 모델링하는 것과 동시에 이를 이용하여 대용량 범용 신경망 컴퓨터의 구현이 가능할 뿐만 아니라 소형 반도체에도 집적이 가능하여 다양한 인공 신경망 응용 분야에 적용 가능한 기술을 제공하고자 한다.

Description

인공 신경망의 하향식 선택적 주의집중 트레이닝 방법{METHOD FOR TRAINING TOP-DOWN SELECTIVE ATTENTION IN ARTIFICIAL NEURAL NETWORKS}
본 발명은 시냅스 회로를 포함하는 인공 신경망에 관한 것으로, 특히 음성과 영상 융합을 이용한 화자 의도 인식을 위한 하향식 선택적 주의집중에 관한 것이다.
인공 신경망(ANN)은 컴퓨터 비전, 자동 음성 인식, 자연어 처리, 음성 인식 등 다양한 작업들에서 첨단의 성과를 보여주었고, 특정 작업들에서는 그 성능이 인간에 비견될 수 있을 정도로 되었다. 딥 뉴럴 네트워크(deep neural networks)와 같은 대규모의 인공 신경망은 종종 수백만이나 수십억의 신경세포 간 시냅스 연결을 포함한다.
인공 신경망에서는 생물학적인 뉴런의 기능을 단순화시킨 인공 뉴런을 사용하게 된다. 그리고, 연결강도를 갖는 연결선을 통해 상호 연결시켜 인간의 인지작용이나 학습과정을 수행하게 된다. 이러한 인공 신경망은 지도 학습과 비지도 학습으로 나눌 수 있다. 지도학습이란 입력 데이터와 그에 대응하는 출력 데이터를 함께 신경망에 넣고, 입력 데이터에 대응하는 출력 데이터가 출력되도록 연결선들의 연결강도를 갱신시키는 방법이다. 대표적인 학습 알고리즘으로는 델타규칙(Delta Rule)과 오류 역전파 학습(Backpr opagation Learning)이 있다.
최근, 인지과학 기반의 선택적 주의집중을 공학적으로 모사하여 실제의 음성인식이나 문자인식에 도움을 주고자 시도되고 있으나, 실제 인식에 이용하기는 복잡한 소프트웨어 혹은 하드웨어 구현의 용이치 않은 문제점이 있다.
이를 해결하기 위해 시도되고 있는 몇 가지 방식 중 대표적이라 할 수 있는 방식이 다층 퍼셉트론 방식으로써, 일정 패턴의 반복된 학습을 통해 추후 입력되는 정보의 인식 또는 판단을 수행하게 되는 방식이나, 이러한 다층 퍼셉트론 방식에 따른 인공 신경망에서는 일정시간 반복 학습한 특정 패턴에 대해서는 빠른 적응력을 보이는 반면, 학습된 패턴과 상이한 입력에 대하여는 인식 성능이 저하되는 문제가 있다.
대한민국 공개특허 제10-2014-0141778호
따라서 본 발명은 입력층에 주의 집중의 정도를 또 다른 가중치의 형태로 반영하는 구조를 추가하여 기존의 하나의 후보자 클래스에 대한 인식시스템에 비하여 우수한 인식 결과를 출력 가능한 기술을 제공하고자 한다.
본 발명의 일 견지에 따르면, 다층 퍼셉트론 네트워크 기반 인공 신경망의 학습 수행을 통해 획득된 시냅스별 연결 강도에 대응하는 복수의 가중치를 기설정된 가중치 값을 기반으로 고정하고, 다수의 뉴런으로 구성된 입력층에 훈련 패턴을 제시하는 과정과, 제시된 상기 훈련 패턴에 대응되는 인공 신경망 내의 연산 수행을 수행하여 복수의 도메인별 데이터에 대응하는 입력 벡터에 대한 출력을 산출하는 과정과, 산출된 출력을 통해 도메인별 정책 기반 데이터 인식률을 비교하여 인식률이 최우선하는 데이터의 해당 출력에 가중치를 부여하여 하향식(top-down) 선택적 주의집중 기반 시냅스별 트레이닝을 수행하는 과정을 포함한다.
본 발명은 복수의 후보자 클래스에 대하여 주의 집중의 정도를 새로운 인식 척도로 정의하여 기존의 하나의 후보자 클래스에 대한 인식시스템에 비하여 우수한 인식 결과를 출력 가능한 효과가 있다.
또한, 본 발명은 가중합을 통해 구현 가능한 최고 속도를 떨어뜨리지 않고 연산의 정밀도(precision)를 임의로 높일 수 있는 효과가 있다.
그리고, 본 발명은 이러한 하향식 선택적 주의 집중의 다층 퍼셉트론은 생물학적으로 선택적 주의집중의 메커니즘을 모델링하는 것과 동시에 이를 이용하여 대용량 범용 신경망 컴퓨터의 구현이 가능할 뿐만 아니라 소형 반도체에도 집적이 가능하여 다양한 인공 신경망 응용 분야에 적용 가능한 효과가 발생한다.
도 1은 본 발명의 일 실시 예에 따른 하향식 선택적 주의집중 트레이닝 방법이 적용된 인공 신경망을 개략적으로 보인 구조.
도 2는 본 발명의 일 실시 예에 따른 인공 신경망의 하향식 선택적 주의집중 트레이닝 방법에 관한 전체 흐름도.
도 3은 본 발명의 일 실시 예에 따른 인공 신경망의 하향식 선택적 주의집중 트레이닝 방법이 적용된 블록도.
도 4는 본 발명의 일 실시 예에 따른 하향식 선택적 주의 집중 트레이닝 방법에 있어서, 음성과 영상 데이터 각각의 선택적 주의 집중을 이용한 출력 수준의 융합 방법의 흐름도.
이하 본 발명에 따른 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명에서는 구체적인 구성 소자 등과 같은 특정 사항들이 나타나고 있는데 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐 이러한 특정 사항들이 본 발명의 범위 내에서 소정의 변형이나 혹은 변경이 이루어질 수 있음은 이 기술 분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다.
본 발명은 인공 신경망에 관한 것으로, 보다 상세하게는 인간의 두뇌에서 일어나는 선택적 주의 집중의 능력을 공학적으로 구현하고, 이를 인식기에 적용하여 정밀도를 임의로 높이기 위해 다층 퍼셉트론 네트워크 기반 인공 신경망의 학습 수행을 통해 획득된 시냅스별 연결 강도에 대응하는 복수의 가중치를 기설정된 가중치 값을 기반으로 고정하고, 고정된 상태에서 다수의 뉴런으로 구성된 입력층에 훈련 패턴을 제시하여 훈련 패턴에 대응되는 인공 신경망 내의 연산 수행을 수행하고 복수의 도메인별 데이터에 대응하는 입력 벡터에 대한 출력을 산출한 후 산출된 출력을 통해 도메인별 정책 기반 데이터 인식률을 비교하여 인식률이 가장 높은 데이터의 해당 출력에 가중치를 부여하여 하향식(top-down) 선택적 주의집중 기반 시냅스별 트레이닝을 수행함으로써 복수의 후보자 클래스에 대하여 주의 집중의 정도를 새로운 인식 척도로 정의하여 기존의 하나의 후보자 클래스에 대한 인식시스템에 비하여 우수한 인식 결과를 출력 가능할 뿐만 아니라, 가중합을 통해 구현 가능한 최고 속도를 떨어뜨리지 않고 연산의 정밀도(precision)를 임의로 높일 수 있고, 이러한 하향식 선택적 주의 집중의 다층 퍼셉트론은 생물학적으로 선택적 주의집중의 메커니즘을 모델링하는 것과 동시에 이를 이용하여 대용량 범용 신경망 컴퓨터의 구현이 가능할 뿐만 아니라 소형 반도체에도 집적이 가능하여 다양한 인공 신경망 응용 분야에 적용 가능한 기술을 제공하고자 한다.
한편, 본 발명을 설명함에 있어, 하기에서의 '신경 세포' 및 뉴런'의 용어는 같은 의미로 혼용하여 사용하기로 한다.
이하, 본 발명의 일 실시 예에 따른 인공 신경망의 하향식 선택적 주의집중 트레이닝 방법에 관해 도 1 내지 도 4를 참조하여 자세히 살펴보기로 한다.
우선, 도 1은 본 발명의 일 실시 예에 따른 하향식 선택적 주의집중 트레이닝 방법이 적용된 인공 신경망을 개략적으로 보인 것으로, 도 1을 참조하면 인공 신경망 내의 뉴런들은 외부로부터 입력 값을 받아들이는 입력 뉴런들과 처리한 결과를 외부로 전달하는 역할을 하는 출력 뉴런들, 그리고 나머지 은닉 뉴런들로 구분할 수 있다. 이에 따라, 인공 신경망은 다층 신경망으로 입력층(input layer), 출력층(output layer), 하나 이상의 은닉층(hidden layer)으로 구성되며, 각 층은 다수의 유닛 혹은 뉴런으로 구성된다.
본 발명이 적용된 인공 신경망은 기트레이닝된 인공 신경망으로부터 하향식 주의집중(210)이 추가된 다층 퍼셉트론 네트워크는 입력층에 주의 집중의 정도를 또 다른 가중치의 형태로 반영하는 구조가 추가된다.
이로써 하향식 선택적 주의 집중의 다층 퍼셉트론은 생물학적으로 선택적 주으집중의 메커니즘을 모델링하는 것과 동시에 이를 이용하여 복수의 후보자 클래스에 대하여 주의 집중의 정도를 새로운 인식 척도로 정의하여 기존의 하나의 클래스에 대한 인식 시스템에 비하여 우수한 인식 결과를 갖게 한다.
보다 상세하게는 도 2를 참조하여 설명하도록 한다.
도 2는 본 발명의 일 실시 예에 따른 인공 신경망의 하향식 선택적 주의집중 트레이닝 방법에 관한 전체 흐름도이다.
먼저, 도 2의 동작을 설명하기에 앞서, 본 발명이 적용된 인공 신경망의 전반적인 동작을 개략적으로 살펴보면, 인간두뇌 세포구조를 공학적으로 모델링한 인공 신경망(Artificial Neural Network)이란 연결선으로 연결된 수많은 인공 뉴런들을 이용하여 생물학적인 시스템의 계산 능력을 모방하는 소프트웨어나 하드웨어로 구현된 연산모델을 나타낸다. 이러한 인공 신경망에서는 생물학적인 뉴런의 기능을 단순화시킨 인공 뉴런을 사용하게 되며, 연결 강도를 갖는 연결선 즉, 시냅스를 통해 상호 연결시켜 인간의 인지작용이나 학습과정을 수행하게 된다. 이때, 연결 강도는 시냅스가 갖는 속성값으로, 연결 가중치라고도 한다.
인간의 뇌는 뉴런이라는 신경의 기본 단위로 구성되어 있으며, 이들 사이의 각각의 밀도 있는 연결 형태에 따라 정보를 암호화하거나 해독하게 된다. 이러한 생물학적 뉴런 구조를 모방하여 인공 신경망에서는 생물학적인 뉴런의 기능을 단순화시켜 인공 뉴런을 사용하게 된다. 그리고 연결 강도를 가지는 연결선을 통해 상호 연결시켜 학습과정을 수행하게 된다.
인공 신경망의 학습이란 학습용 데이터를 이용하여 학습용 입력 데이터를 인공 신경망의 입력층에 입력시켰을 때, 입력 데이터에 대한 학습용 출력 데이터가 인공 신경망의 출력층으로부터 출력되도록 인공 신경망을 학습시키는 동작으로 예를 들어, 사람 얼굴을 검출하는 신호를 통해 얼굴을 인식하고자 하는 경우, 다양한 사람의 얼굴을 보여 주면서 얼굴 인식 알고리즘 관련 인공 신경망을 생성하되, 상기 다양한 사람의 얼굴을 보여 주면서 사람의 얼굴임을 인식시키는 동작이 학습용 입력 데이터가 입력되는 트레이닝 동작이 될 수 있다.
본 발명의 실시 예에 따른 인공 신경망은 상술된 바와 같이 인간 두뇌 세포 구조를 공학적으로 모델링한 것으로, 이를 기반으로, 도 2를 살펴보면 먼저, 210 과정에서는 다층 퍼셉트론 네트워크 기반 인공 신경망의 학습 수행을 통해 획득된 시냅스별 연결 강도에 대응하는 복수의 가중치를 기설정된 가중치 값을 기반으로 고정하고, 212 과정에서 다수의 뉴런으로 구성된 입력층에 훈련 패턴을 제시한다.
기존의 다층 퍼셉트론과 오차 역전파법이 주어진 입력에 대하여 네트워크의 가중치를 변화시켜 원하는 인식의 기능을 하던 것에 반하여, 본 발명의 하향식 선택적 주의 집중 방법은 일반적인 다층 퍼셉트론과 동일한 방법으로 가중치를 미리 학습시키고, 가중치의 값은 고정시킨 상태에서 테스트 입력이 들어올 때마다 출력층의 오차가 최소가 되도록 현재의 입력 패턴을 학습시킴으로써 원래의 입력 중 네트워크가 원하는 입력만을 선택적으로 받아들이는 기능을 가지게 한다.
214 과정에서는 제시된 상기 훈련 패턴에 대응되는 인공 신경망 내의 연산 수행을 수행하여 복수의 도메인별 데이터에 대응하는 입력 벡터에 대한 출력을 산출한다.
여기서, 상기 복수의 도메인별 데이터에 대응하는 입력 벡터에 대응하는 후보자 클라스별 인식률은 하기의 수학식 1을 통해 산출되고, 산출된 후보자 클라스별 가장 높은 값에 해당하는 후보자 클라스에 대응되는 서로 다른 도메인별 데이터가 통합된 DLF (Decision Level Fusion)기반 출력을 획득한다.
Figure pat00001
216 과정에서는 산출된 출력을 통해 도메인별 정책 기반 데이터 인식률을 비교하고, 비교 결과 218 과정에서 가장 높은 인식률을 선정한다.
이후, 220 과정에서는 가장 높은 데이터의 해당 출력에 가중치를 부여하여 222 과정에서 하향식(top-down) 선택적 주의집중 기반 시냅스별 트레이닝을 수행한다.
이때, 상기 시냅스별 트레이닝 수행은, 상기 인공 신경망 내 입력층, 은닉층 및 출력층 사이의 연결선들의 연결강도에 대응하는 가중치가 고정된 상태로 도메인별 데이터에 대응하는 입력 벡터에 대한 출력 결과를 로컬 디시전(local decision)에서 하향식 선택적 주의집중을 통해 최우선순위에 해당하는 출력 결과를 데이터별 후보자 클래스에서 선정하고, 선정된 후보자 클래스에 기설정된 가중치를 부여하여 최종 인식 결과로 선택한다.
이러한 214 내지 222 과정의 동작을 도 3 내지 도 4를 참조하여 상세히 살펴보도록 한다.
우선, 본 발명에 해당하는 인공 신경망 기술분야에서는 기존의 음성과 얼굴 영상의 두 가지 감각 정보를 융합하는 방법이 결정 수준 융합(decision level fusion, DLF)과 특징 수준 융합(feature level fusion, FLF) 두 가지로 나누어진다 [3]. 서로 다른 도메인의 두 데이터로부터 하나의 출력을 얻기 위해서는 FLF 방법으로는 음성과 영상의 데이터가 같은 포맷으로 통일이 되어야 한다는 어려움이 있었다. 반면, DLF 방법은 서로 다른 도메인의 데이터로부터 동일한 포맷의 출력을 얻고 나서 그 출력으로부터 통합된 최종 출력을 얻는 것이기 때문에 음성은 음성에 최적화된 인식 방법을 사용하여 출력을 얻고, 영상은 영상에 맞는 방법으로 출력을 얻을 수 있다. 즉, 각자의 출력을 얻기 전까지는 인식 방법이 서로 달라져도 상관이 없다는 큰 장점이 있다.
음성에서 추출된 특징 벡터
Figure pat00002
를 입력으로 하는 하향식 주의집중 인식기는 화자의 의도가 무엇인지를 출력
Figure pat00003
로 나타내고, 동일한 방법으로 영상에서 추출된 특징 벡터
Figure pat00004
는 출력
Figure pat00005
를 내보낸다. 이 두 가지 출력을 가지고 출력수준의 융합(DLF)을 하는데, 도 3에 도시된 바와 같이 DF block(312)이 그 역할을 담당한다. 융합하기 이전의 단일 모델에서의 인식률을 기반으로, 인식률이 더 높은 인식기의 출력에 더 큰 가중치를 부여함으로써 신뢰도를 바탕으로 한 융합 결과를 도출하게 된다. C개의 후보자 클래스에 대해 각각의 척도를 D로 계산하되, 가장 높은 값을 가지는 후보자 클래스로 최종 인식 결과를 도출해낸다. 음성 인식기의 단일 모델 인식률을
Figure pat00006
, 영상 인식기의 단일 모델 인식률을
Figure pat00007
라고 하면, i번째 클래스에 대한 최종 출력
Figure pat00008
는 수학식 1로 구할 수 있다.
도 4는 본 발명의 일 실시 예에 따른 하향식 선택적 주의 집중 트레이닝 방법에 있어서, 음성과 영상 데이터 각각의 선택적 주의 집중을 이용한 출력 수준의 융합 방법의 흐름도이다.
도 4를 참조하면, 도시된 바와 같이 인공 신경망은 다층 신경망으로 입력층(input layer, 410), 출력층(output layer, 416), 하나 이상의 은닉층(hidden layer, 414)으로 구성되며, 각 층은 다수의 유닛 혹은 뉴런으로 구성된다. 상기 입력층(410)과 은닉층(414) 사이에 주의집중층(412)이 연결되며, 상기 출력층(416)으로부터 출력된 서로 다른 도메인별 데이터 관련 출력값을 수신하는 로컬 디시전(local decision, 418), DLF 기반 최종 출력이 획득되는 융합된 결정(fused decision, 420)을 포함한다.
각 층의 뉴런은 수정 가능한 연결 가중치로 다른 층의 뉴런과 연결되어 있으며, 도 4에 도시된 바와 같이, 입력 벡터(
Figure pat00009
)들이 입력층의 각 입력 뉴런에 제시되면
Figure pat00010
형태의 가중합을 통해 뉴런 간 연결 강도에 따른 서로 다른 도메인별 출력 신호
Figure pat00011
,
Figure pat00012
를 연산하여 출력한다.
본 발명에서는 음성(Audio)과 영상(Video) 각각으로부터 하향식 선택적 주의 집중 방법을 사용하되, 출력은 화자의 의도를 인식할 수 있게 DLF까지 구현된 인식 시스템을 제안한다.
도 4에 도시된 바와 같이, 음성(Audio)과 영상(Video) 각각의 입력에 대한 다층 퍼셉트론 네트워크가 있고, 하향식 주의 집중을 이용하여 local decision(418)을 출력으로 내보내면, 이를 가중치를 부여하여 합산하는 방식으로 출력수준의 융합을 사용하여 fused decision(420)을 내린다. 이 fused decision값은 C개의 후보자에 대하여 하나씩 나오는 값이며, 가장 높은 값의 decision값을 가진 후보자를 최종 인식 결과로 선택하게 된다.
상기와 같이 본 발명에 따른 인공 신경망의 하향식 선택적 주의집중 트레이닝 방법에 관한 동작이 이루어질 수 있으며, 한편 상기한 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나 여러 가지 변형이 본 발명의 범위를 벗어나지 않고 실시될 수 있다. 따라서 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 청구범위와 청구범위의 균등한 것에 의하여 정하여져야 할 것이다.
[참고문헌]
[1] C.-H. Lee, and S.-Y. Lee, “Noise-robust speech recognition using top-down selective attention with an HMM classifier,” IEEE Signal Processing Letters, vol. 14, no. 7, pp. 489-491, 2007.
[2] B.T. Kim and S.Y. Lee, “Sequential recognition of superimposed patterns with top-down selective attention,” Neurocomputing, vol. 58-60, pp. 633-640, 2004.
[3] C.G.M. Snoek, M. Worring, A.W.M. Smeulders, ”Early versus late fusion in semantic video analysis,” In: ACM International Conference on Multimedia, pp. 399-402. Singapore (2005).
410: 입력층 412: 주의집중 층
414: 은닉층 416: 출력층
418: 로컬 디시전 420: 융합된 결정

Claims (3)

  1. 다층 퍼셉트론 네트워크 기반 인공 신경망의 학습 수행을 통해 획득된 시냅스별 연결 강도에 대응하는 복수의 가중치를 기설정된 가중치 값을 기반으로 고정하고, 다수의 뉴런으로 구성된 입력층에 훈련 패턴을 제시하는 과정과,
    제시된 상기 훈련 패턴에 대응되는 인공 신경망 내의 연산 수행을 수행하여 복수의 도메인별 데이터에 대응하는 입력 벡터에 대한 출력을 산출하는 과정과,
    산출된 출력을 통해 도메인별 정책 기반 데이터 인식률을 비교하여 인식률이 최우선하는 데이터의 해당 출력에 가중치를 부여하여 하향식(top-down) 선택적 주의집중 기반 시냅스별 트레이닝을 수행하는 과정을 포함함을 특징으로 하는 인공 신경망의 하향식 선택적 주의집중 트레이닝 방법.
  2. 제1항에 있어서,
    상기 복수의 도메인별 데이터에 대응하는 입력 벡터에 대응하는 후보자 클라스별 인식률은 하기의 수학식을 통해 산출되고, 산출된 후보자 클라스별 가장 높은 값에 해당하는 후보자 클라스에 대응되는 서로 다른 도메인별 데이터가 통합된 DLF (Decision Level Fusion)기반 출력을 획득함을 특징으로 하는 인공 신경망의 하향식 선택적 주의집중 트레이닝 방법.
    Figure pat00013
  3. 제1항에 있어서, 상기 시냅스별 트레이닝을 수행하는 과정은,
    상기 인공 신경망 내 입력층, 은닉층 및 출력층 사이의 연결선들의 연결강도에 대응하는 가중치가 고정된 상태로 도메인별 데이터에 대응하는 입력 벡터에 대한 출력 결과를 로컬 디시전(local decision)에서 하향식 선택적 주의집중을 통해 최우선순위에 해당하는 출력 결과를 데이터별 후보자 클래스에서 선정하고, 선정된 후보자 클래스에 기설정된 가중치를 부여하여 최종 인식 결과로 선택함을 특징으로 하는 인공 신경망의 하향식 선택적 주의집중 트레이닝 방법.
KR1020150067380A 2015-05-14 2015-05-14 인공 신경망의 하향식 선택적 주의집중 트레이닝 방법 KR102154676B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150067380A KR102154676B1 (ko) 2015-05-14 2015-05-14 인공 신경망의 하향식 선택적 주의집중 트레이닝 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150067380A KR102154676B1 (ko) 2015-05-14 2015-05-14 인공 신경망의 하향식 선택적 주의집중 트레이닝 방법

Publications (2)

Publication Number Publication Date
KR20160134019A true KR20160134019A (ko) 2016-11-23
KR102154676B1 KR102154676B1 (ko) 2020-09-10

Family

ID=57541373

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150067380A KR102154676B1 (ko) 2015-05-14 2015-05-14 인공 신경망의 하향식 선택적 주의집중 트레이닝 방법

Country Status (1)

Country Link
KR (1) KR102154676B1 (ko)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108564005A (zh) * 2018-03-26 2018-09-21 电子科技大学 一种基于卷积神经网络的人体跌倒辨识方法
CN108923809A (zh) * 2018-06-13 2018-11-30 Oppo广东移动通信有限公司 一种耳道杂物提示方法及相关产品
KR20190016332A (ko) * 2017-08-08 2019-02-18 주식회사 만도 딥 러닝 기반 자율 주행 차량, 딥 러닝 기반 자율 주행 제어 장치 및 딥 러닝 기반 자율 주행 제어 방법
KR20190040144A (ko) 2019-03-28 2019-04-17 (주)쎄미하우 딥러닝 소자를 포함하는 반도체 시스템
WO2019088313A1 (ko) * 2017-10-30 2019-05-09 (주)한국플랫폼서비스기술 딥러닝을 이용한 암호화 방법
KR20190125694A (ko) * 2018-04-30 2019-11-07 연세대학교 산학협력단 학습 및 추론 장치 및 그 방법
WO2020154452A1 (en) * 2019-01-23 2020-07-30 Molecular Devices, Llc Image analysis system and method of using the image analysis system
CN113222044A (zh) * 2021-05-25 2021-08-06 合肥工业大学 一种基于三元注意力和尺度关联融合的宫颈液基细胞分类方法
CN114818665A (zh) * 2022-04-22 2022-07-29 电子科技大学 一种基于bert+bilstm+crf与xgboost模型的多意图识别方法和系统
US11544479B2 (en) 2019-02-01 2023-01-03 Electronics And Telecommunications Research Institute Method and apparatus for constructing translation model installed on a terminal on the basis of a pre-built reference model

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102619356B1 (ko) 2021-10-25 2023-12-28 서울대학교산학협력단 단위 시냅스를 위한 커패시터 소자, 단위 시냅스 및 커패시터 기반의 시냅스 어레이
KR102653745B1 (ko) * 2023-06-02 2024-04-02 라이프앤사이언스주식회사 최적화된 연산속도를 가지는 교육용 로봇제어기

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010047163A (ko) * 1999-11-18 2001-06-15 박종섭 다층퍼셉트론 신경망회로의 학습방법
KR100327486B1 (ko) * 2000-03-10 2002-03-13 윤종용 스테이트별 가중치를 적용한 음성 인식 장치 및 방법
KR100576501B1 (ko) * 2003-07-30 2006-05-10 주식회사 팬택 상태 확률 보정 방법
KR20110027916A (ko) * 2009-09-11 2011-03-17 연세대학교 산학협력단 퍼셉트론 인공신경망의 가중치 부여 장치와 이를 이용한 탐지 장치, 탐지 시스템 및 탐지 방법
KR101326914B1 (ko) * 2005-11-15 2013-11-11 베르나데트 가너 신경망 훈련 방법
KR20140141778A (ko) 2013-05-30 2014-12-11 삼성전자주식회사 Stdp 동작을 위한 시냅스 회로 및 시냅스 회로를 포함하는 뉴로모픽 시스템

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010047163A (ko) * 1999-11-18 2001-06-15 박종섭 다층퍼셉트론 신경망회로의 학습방법
KR100327486B1 (ko) * 2000-03-10 2002-03-13 윤종용 스테이트별 가중치를 적용한 음성 인식 장치 및 방법
KR100576501B1 (ko) * 2003-07-30 2006-05-10 주식회사 팬택 상태 확률 보정 방법
KR101326914B1 (ko) * 2005-11-15 2013-11-11 베르나데트 가너 신경망 훈련 방법
KR20110027916A (ko) * 2009-09-11 2011-03-17 연세대학교 산학협력단 퍼셉트론 인공신경망의 가중치 부여 장치와 이를 이용한 탐지 장치, 탐지 시스템 및 탐지 방법
KR20140141778A (ko) 2013-05-30 2014-12-11 삼성전자주식회사 Stdp 동작을 위한 시냅스 회로 및 시냅스 회로를 포함하는 뉴로모픽 시스템

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
선택적 주의집중에 의한 인공시각 및 청각시스템 연구. 한국과학기술원. 이수영. 1998.* *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190016332A (ko) * 2017-08-08 2019-02-18 주식회사 만도 딥 러닝 기반 자율 주행 차량, 딥 러닝 기반 자율 주행 제어 장치 및 딥 러닝 기반 자율 주행 제어 방법
WO2019088313A1 (ko) * 2017-10-30 2019-05-09 (주)한국플랫폼서비스기술 딥러닝을 이용한 암호화 방법
CN108564005B (zh) * 2018-03-26 2022-03-15 电子科技大学 一种基于卷积神经网络的人体跌倒辨识方法
CN108564005A (zh) * 2018-03-26 2018-09-21 电子科技大学 一种基于卷积神经网络的人体跌倒辨识方法
KR20190125694A (ko) * 2018-04-30 2019-11-07 연세대학교 산학협력단 학습 및 추론 장치 및 그 방법
CN108923809A (zh) * 2018-06-13 2018-11-30 Oppo广东移动通信有限公司 一种耳道杂物提示方法及相关产品
CN108923809B (zh) * 2018-06-13 2020-03-06 Oppo广东移动通信有限公司 一种耳道杂物提示方法及相关产品
WO2020154452A1 (en) * 2019-01-23 2020-07-30 Molecular Devices, Llc Image analysis system and method of using the image analysis system
US11645752B2 (en) 2019-01-23 2023-05-09 Molecular Devices, Llc Image analysis system and method of using the image analysis system
US11544479B2 (en) 2019-02-01 2023-01-03 Electronics And Telecommunications Research Institute Method and apparatus for constructing translation model installed on a terminal on the basis of a pre-built reference model
KR20190040144A (ko) 2019-03-28 2019-04-17 (주)쎄미하우 딥러닝 소자를 포함하는 반도체 시스템
CN113222044B (zh) * 2021-05-25 2022-03-08 合肥工业大学 一种基于三元注意力和尺度关联融合的宫颈液基细胞分类方法
CN113222044A (zh) * 2021-05-25 2021-08-06 合肥工业大学 一种基于三元注意力和尺度关联融合的宫颈液基细胞分类方法
CN114818665A (zh) * 2022-04-22 2022-07-29 电子科技大学 一种基于bert+bilstm+crf与xgboost模型的多意图识别方法和系统

Also Published As

Publication number Publication date
KR102154676B1 (ko) 2020-09-10

Similar Documents

Publication Publication Date Title
KR20160134019A (ko) 인공 신경망의 하향식 선택적 주의집중 트레이닝 방법
US11687770B2 (en) Recurrent multimodal attention system based on expert gated networks
Shenoy et al. Multilogue-net: A context aware rnn for multi-modal emotion detection and sentiment analysis in conversation
JP7337953B2 (ja) 音声認識方法及び装置、ニューラルネットワークの訓練方法及び装置、並びにコンピュータープログラム
O'Connor et al. Real-time classification and sensor fusion with a spiking deep belief network
JP7213358B2 (ja) アイデンティティ検証方法、アイデンティティ検証装置、コンピュータ機器、及びコンピュータプログラム
CN105810193B (zh) 训练语言模型的方法和设备及识别语言的方法和设备
CN112466298B (zh) 语音检测方法、装置、电子设备和存储介质
Hughes et al. Recurrent neural networks for voice activity detection
US11651214B2 (en) Multimodal data learning method and device
Hong et al. Sentiment analysis with deeply learned distributed representations of variable length texts
JP2016157426A (ja) ニューラルネットワークの学習方法及び装置、及び認識方法及び装置
CN107112005A (zh) 深度神经支持向量机
CN111144124B (zh) 机器学习模型的训练方法、意图识别方法及相关装置、设备
Ku et al. A study of the Lamarckian evolution of recurrent neural networks
Partila et al. Pattern recognition methods and features selection for speech emotion recognition system
Sarvepalli Deep learning in neural networks: the science behind an artificial brain
CN116070169A (zh) 模型训练方法、装置、电子设备及存储介质
KR100306848B1 (ko) 신경회로망을 이용한 선택적 주의집중 방법
Yang et al. Group behavior recognition using attention-and graph-based neural networks
Wu et al. Acoustic to articulatory mapping with deep neural network
CN113763979A (zh) 音频降噪、音频降噪模型的处理方法、装置、设备和介质
Lin et al. Speaker diarization as a fully online learning problem in minivox
Rajapakshe et al. A novel policy for pre-trained deep reinforcement learning for speech emotion recognition
KR20210060146A (ko) 딥 뉴럴 네트워크 모델을 이용한 데이터 처리 방법 및 장치, 딥 뉴럴 네트워크 모델을 학습시키는 학습 방법 및 장치

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right