KR20170044102A - 데이터에 대한 지식-그래프 바이어싱된 분류 - Google Patents

데이터에 대한 지식-그래프 바이어싱된 분류 Download PDF

Info

Publication number
KR20170044102A
KR20170044102A KR1020177004013A KR20177004013A KR20170044102A KR 20170044102 A KR20170044102 A KR 20170044102A KR 1020177004013 A KR1020177004013 A KR 1020177004013A KR 20177004013 A KR20177004013 A KR 20177004013A KR 20170044102 A KR20170044102 A KR 20170044102A
Authority
KR
South Korea
Prior art keywords
knowledge
graph
objects
weights
metric
Prior art date
Application number
KR1020177004013A
Other languages
English (en)
Inventor
솜뎁 마줌다르
레건 블라이스 토월
사친 수바쉬 탈라티
데이비드 조나단 줄리안
벤카타 스레칸타 레디 안나푸레디
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20170044102A publication Critical patent/KR20170044102A/ko

Links

Images

Classifications

    • G06N3/0427
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • G06N7/005
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

오브젝트를 분류하는 방법은 다수의 오브젝트들에 대해 다수의 신뢰 값들을 적용하는 단계를 포함한다. 방법은 또한, 다수의 신뢰 값들에 기초하여 메트릭을 결정하는 단계를 포함한다. 방법은, 메트릭이 임계치를 초과할 때 지식-그래프에 기초하여 다수의 오브젝트들로부터 제 1 오브젝트의 분류를 결정하는 단계를 더 포함한다.

Description

데이터에 대한 지식-그래프 바이어싱된 분류{KNOWLEDGE-GRAPH BIASED CLASSIFICATION FOR DATA}
관련 출원에 대한 상호 참조
이 출원은 2014년 8월 19일 출원된 "KNOWLEDGE-GRAPH BIASED CLASSIFICATION FOR DATA" 라는 제목의 미국 가특허출원 제 62/039,329 호에 대해 35 U.S.C. § 119(e) 의 이익을 주장하고, 그것의 개시는 참조에 의해 그 전체가 본원에 명시적으로 통합된다.
기술 분야
본 개시물의 특정 양태들은 일반적으로 신경 시스템 엔지니어링에 관한 것이고, 보다 구체적으로는, 지식-그래프 바이어싱된 분류에 관한 것이다.
상호연결된 인공 뉴런들의 그룹 (즉, 뉴런 모델들) 을 포함할 수도 있는 인공 신경 네트워크는 계산 디바이스이거나 계산 디바이스에 의해 수행될 방법을 표현한다. 인공 신경 네트워크들은 생물학적 신경 네트워크들에 대응하는 구조 및/또는 기능을 가질 수도 있다. 그러나, 인공 신경 네트워크들은 소정의 애플리케이션들에 대해 혁신적이고 유용한 계산 기법들을 제공할 수도 있는데, 종래의 계산 기법들은 복잡하거나, 비현실적이거나, 부적합하다. 인공 신경 네트워크들은, 관찰들로부터 함수를 추론할 수 있기 때문에, 이러한 네트워크들은, 종래의 기법들에 의한 태스크 (task) 또는 데이터의 복잡성이 함수의 설계를 힘들게 만드는 애플리케이션들에서 특히 유용하다. 데이터 및/또는 네트워크 아키텍처의 복잡성에 따라, 신경 네트워크는 오브젝트 (object) 인식을 위해 패턴들의 동시발생들 (co-occurrences) 을 이용하지 않을 수도 있다. 따라서, 지식-그래프 바이어싱에 기초하여 데이터에서 오브젝트들을 분류하기 위해 뇌신경형 수신기를 제공하는 것이 바람직하다.
본 개시의 하나의 양태에서, 오브젝트를 분류하는 방법은 다수의 오브젝트들에 대해 다수의 신뢰 값들 (confidence values) 을 적용하는 단계를 포함한다. 방법은 또한, 다수의 신뢰 값들에 기초하여 메트릭을 결정하는 단계를 포함한다. 방법은, 메트릭이 임계치를 초과할 때 지식-그래프 (knowledge-graph) 에 기초하여 다수의 오브젝트들로부터 제 1 오브젝트의 분류를 결정하는 단계를 더 포함한다.
본 개시의 다른 양태는, 다수의 오브젝트들에 대해 다수의 신뢰 값들을 적용하는 수단을 포함하는 장치에 지향된다. 장치는 또한, 다수의 신뢰 값들에 기초하여 메트릭을 결정하는 수단을 포함한다. 장치는, 메트릭이 임계치를 초과할 때 지식-그래프에 기초하여 다수의 오브젝트들로부터 제 1 오브젝트의 분류를 결정하는 수단을 더 포함한다.
본 개시의 또 다른 양태에서, 오브젝트를 분류하기 위한 컴퓨터 프로그램 제품이 개시된다. 컴퓨터 프로그램 제품은, 비일시적 프로그램 코드가 그 위에 기록된 비일시적 (non-transitory) 컴퓨터 판독가능 매체를 갖는다. 프로그램 코드는 다수의 오브젝트들에 대해 다수의 신뢰 값들을 적용하기 위한 프로그램 코드를 포함한다. 프로그램 코드는 또한, 다수의 신뢰 값들에 기초하여 메트릭을 결정하기 위한 프로그램 코드를 포함한다. 프로그램 코드는, 메트릭이 임계치를 초과할 때 지식-그래프에 기초하여 다수의 오브젝트들로부터 제 1 오브젝트의 분류를 결정하기 위한 프로그램 코드를 더 포함한다.
본 개시의 또 다른 양태는, 메모리 및 그 메모리에 커플링된 하나 이상의 프로세서들을 갖는, 오브젝트를 분류하기 위한 장치에 지향된다. 프로세서(들)는 다수의 오브젝트들에 대해 복수의 신뢰 값들을 적용하도록 구성된다. 프로세서(들)는 또한, 다수의 신뢰 값들에 기초하여 메트릭을 결정하도록 구성된다. 프로세서(들)는, 메트릭이 임계치를 초과할 때 지식-그래프에 기초하여 다수의 오브젝트들로부터 제 1 오브젝트의 분류를 결정하도록 더 구성된다.
본 개시의 추가적인 특징들 및 이점들은 이하 설명될 것이다. 본 개시는 본 개시의 동일한 목적들을 수행하기 위해 다른 구조들을 변형 또는 설계하기 위한 기초로서 쉽게 이용될 수도 있음이 당해 기술분야에서 통상의 지식을 가진 자 (이하, '통상의 기술자' 라 함) 에 의해 이해되어야 한다. 이러한 균등적 구성들은 첨부된 청구항들에서 전개되는 바와 같은 본 개시의 교시들로부터 벗어나지 않음이 통상의 기술자에 의해 또한 인식되어야 한다. 본 개시의 특징인 것으로 믿어지는 창의적인 특징들은, 추가적인 목적들 및 이점들과 함께, 그것의 조직 및 동작 방법 양자로서, 첨부 도면들과 관련되어 고려될 때 이하의 설명으로부터 더 잘 이해될 것이다. 하지만, 도면들의 각각은 오직 예시 및 설명의 목적을 위해 제공되고, 본 개시의 제한들의 정의로서 의도되지 아니함이 분명하게 이해되어야 한다.
본 개시물의 특징들, 속성, 및 이점들은, 도면들과 연계하여 보는 경우, 하기에 제시된 상세한 설명으로부터 보다 분명해질 것이며, 도면들에서, 유사한 도면 부호들은 그에 대응하는 것을 식별한다.
도 1 은 본 개시의 특정 양태들에 따른 일 예시적인 뉴런들의 네트워크를 예시한다.
도 2 는 본 개시의 특정 양태들에 따른 계산 네트워크 (신경 시스템 또는 신경 네트워크) 의 프로세싱 유닛 (뉴런) 의 일 예를 예시한다.
도 3 은 본 개시의 특정 양태들에 따른 스파이크-타이밍 종속 가소성 (STDP) 곡선의 일 예를 예시한다.
도 4 는 본 개시의 특정 양태들에 따른 뉴런 모델의 거동을 정의하기 위한 양의 체제 및 음의 체제의 일 예를 예시한다.
도 5 는 오브젝트 인식 시스템에 의한 프로세싱을 위해 캡처된 이미지의 일 예를 예시한다.
도 6 은 본 개시의 일 양태에 따른 지식-그래프의 일 예를 예시한다.
도 7 은 본 개시의 특정 양태들에 따른 범용 프로세서를 이용하여 신경 네트워크를 설계하는 일 예시적인 구현을 예시한다.
도 8 은 본 개시의 특정 양태들에 따른, 메모리가 개별 분산된 프로세싱 유닛들과 인터페이싱될 수도 있는, 신경 네트워크를 설계하는 일 예시적인 구현을 예시한다.
도 9 는 본 개시의 특정 양태들에 따른, 분산된 메모리들 및 분산된 프로세싱 유닛들에 기초하여 신경 네트워크를 설계하는 일 예시적인 구현을 예시한다.
도 10 은 본 개시의 특정 양태들에 따른 신경 네트워크의 일 예시적인 구현을 예시한다.
도 11 은 본 개시의 일 양태에 따라 오브젝트를 분류하는 방법을 예시하는 흐름도이다.
첨부된 도면들과 연계하여 하기에 설명되는 상세한 설명은, 여러 구성들의 설명으로서 의도된 것이며 본원에서 설명되는 개념들이 실시될 수도 있는 구성들만을 나타내도록 의도된 것은 아니다. 상세한 설명은 여러 개념들의 완전한 이해를 제공하기 위한 목적으로 특정 세부사항들을 포함한다. 그러나, 이들 개념들이 이들 특정 세부사항들 없이 실시될 수도 있음이 통상의 기술자에게는 명백할 것이다. 일부 사례들에서, 이러한 개념들을 모호하게 하는 것을 방지하기 위해 공지의 구조들 및 컴포넌트들이 블록도의 형태로 도시된다.
독립적으로 또는 본 개시물의 임의의 다른 양태들과 결합하여 구현되는지 여부에 따라, 본 사상들에 기초하여, 통상의 기술자는 본 개시물의 범위가 본원에 개시된 개시물들의 임의의 양태를 커버하고자 함을 이해해야할 것이다. 예를 들어, 제시된 임의의 개수의 양태들을 이용하여 장치가 구현될 수도 있거나 방법이 실시될 수도 있다. 또한, 본 개시물의 범위는 본원에 제시된 개시의 다양한 양태들에 더해 또는 그 외에 다른 구조, 기능성, 또는 구조와 기능성을 이용하여 실시되는 그러한 장치 또는 방법을 커버하고자 한다. 개시된 개시물의 임의의 양태는 청구항의 하나 이상의 요소들에 의해 구체화될 수도 있다.
단어 "예시적인" 은 본원에서 "일 예, 사례, 또는 실례의 역할을 하는" 것을 의미하기 위해 사용된다. "예시적" 으로 본원에서 설명된 임의의 실시형태는 반드시 다른 실시형태들보다 바람직하거나 이로운 것으로 해석될 필요는 없다.
특정 양태들이 본원에서 설명되지만, 이러한 양태들의 많은 변형예들 및 치환예들이 본 개시물의 범위 내에 속한다. 바람직한 양태들의 일부 이익들 및 이점들이 언급되었지만, 본 개시물의 범위는 특정 이익들, 이용들, 또는 목적들로 제한되고자 하지 않는다. 오히려, 본 개시의 양태들은 상이한 기술들, 시스템 구성들, 네트워크들, 및 프로토콜들에 널리 적용되고자 하며, 본 개시의 양태들 중 일부는 도면들에서 그리고 다음의 바람직한 양태들의 설명에서 예로서 예시된다. 상세한 설명 및 도면들은 제한하는 것이기 보다는 단지 본 개시물의 예시일 뿐이며, 본 개시물의 범위는 첨부된 청구항들 및 그의 등가물들에 의해 정의된다.
예시적인 신경 시스템, 트레이닝, 및 동작
도 1 은 본 개시물의 특정 양태들에 따른 다수의 레벨들의 뉴런 (neuron) 들을 갖는 일 예시적인 인공 신경 시스템 (100) 을 도시한다. 신경 시스템 (100) 은 시냅스 연결들 (104) (즉, 피드-포워드 연결들) 의 네트워크를 통해 다른 레벨의 뉴런들 (106) 에 접속되는 일 레벨의 뉴런들 (102) 을 가질 수도 있다. 단순함을 위해, 오직 2 개의 레벨들의 뉴런들만이 도 1 에 도시되나, 보다 적거나 보다 많은 레벨들의 뉴런들이 신경 시스템에 존재할 수도 있다. 뉴런들 중 일부 뉴런은 측면 연결들을 통해 동일한 계층의 다른 뉴런들에 연결될 수도 있음에 유의해야 한다. 또한, 뉴런들 중 일부는 피드백 연결들을 통해 이전 계층의 뉴런에 다시 연결될 수도 있다.
도 1 에 도시된 바와 같이, 레벨 (102) 에서의 각각의 뉴런은 이전 레벨의 뉴런들 (도 1 에 도시 생략) 에 의해 생성될 수도 있는 입력 신호 (108) 를 수신할 수도 있다. 신호 (108) 는 레벨 (102) 의 뉴런의 입력 전류를 나타낼 수도 있다. 이러한 전류는 뉴런 막에 축적되어 막 전위 (membrane potential) 를 충전할 수도 있다. 막 전위가 임계 값에 도달하는 경우, 뉴런은 다음 레벨의 뉴런들 (예를 들어, 레벨 106) 로 전달되도록 발화되어 출력 스파이크를 생성할 수도 있다. 일부 모델링 접근법들에서, 뉴런은 다음 레벨의 뉴런들로 신호를 계속 전달할 수도 있다. 이러한 신호는 통상적으로 막 전위의 함수이다. 그러한 거동은 하기에 설명된 것들과 같은 아날로그 및 디지털 구현들을 포함하여, 하드웨어 및/또는 소프트웨어로 에뮬레이션 또는 시뮬레이션될 수 있다.
생물학적 뉴런들에서, 뉴런이 발화하는 경우에 생성된 출력 스파이크는 활동 전위라고 지칭된다. 이러한 전기 신호는 상대적으로 빠르고, 과도하고, 신경 자극적이며, 100 mV 의 진폭 및 약 1 ms 의 지속기간을 갖는다. 일련의 연결된 뉴런들을 갖는 신경 시스템의 특정 실시형태 (예를 들어, 도 1 에서 일 레벨의 뉴런들에서 다른 레벨의 뉴런들로의 스파이크들의 전달) 에서, 모든 활동 전위는 기본적으로 동일한 진폭 및 지속기간을 가지고, 따라서, 신호에서의 정보는 진폭에 의해서 보다는, 주파수 및 스파이크들의 수, 또는 스파이크들의 시간에 의해서만 나타내어질 수도 있다. 활동 전위에 의해 이송되는 정보는 스파이크, 스파이킹된 뉴런, 및 다른 스파이크나 스파이크들에 대한 스파이크의 시간에 의해 결정될 수도 있다. 스파이크의 중요성은, 하기에 설명된 바와 같이, 뉴런들 사이의 연결에 적용된 가중치에 의해 결정될 수도 있다.
일 레벨의 뉴런들로부터 다른 레벨의 뉴런들로의 스파이크들의 전달은, 도 1 에 도시된 바와 같이, 시냅스 연결들 (또는 간략하게 "시냅스들 (synapses)") 의 네트워크 (104) 를 통해 달성될 수도 있다. 시냅스들 (104) 에 대해, 레벨 102 의 뉴런들은 시냅스-전 뉴런들이라고 여겨질 수도 있고, 레벨 106 의 뉴런들은 시냅스-후 뉴런들로 여겨질 수도 있다. 시냅스들 (104) 은 레벨 102 뉴런들로부터 출력 신호들 (즉, 스파이크들) 을 수신하며, 조정가능한 시냅스 가중치들 (
Figure pct00001
) 에 따라 그러한 신호들을 스케일링할 수도 있으며, 여기서 P 는 레벨 102 와 레벨 106 의 뉴런들 사이의 시냅스 연결들의 전체 개수이고, i 는 뉴런 레벨의 표시자이다. 도 1 의 예에서, i 는 뉴런 레벨 102 를 나타내고 i+1 은 뉴런 레벨 106 을 나타낸다. 또한, 스케일링된 신호들은 레벨 106 에서의 각각의 뉴런의 입력 신호로서 결합될 수도 있다. 레벨 106 에서의 매 뉴런은 대응하는 결합된 입력 신호에 기초하여 출력 스파이크들 (110) 을 생성할 수도 있다. 출력 스파이크들 (110) 은 다른 시냅스 연결들의 네트워크 (도 1 에 도시 생략) 를 이용하여 다른 레벨의 뉴런들로 전달될 수도 있다.
생물학적 시냅스들은 시냅스-후 뉴런들에서 흥분성 또는 억제성 (과분극) 활동들을 중재할 수 있고 또한 신경 신호들을 증폭시키는 역할을 할 수 있다. 흥분성 신호들은 막 전위를 탈분극한다 (즉, 휴지 전위에 대해 막 전위를 증가시킨다). 임계치 위로 막 전위를 탈분극하도록 소정의 시간 기간 내에 충분한 흥분성 신호들이 수신되면, 활동 전위가 시냅스-후 뉴런에서 발생한다. 반면에, 억제 신호들은 일반적으로 막 전위를 과분극한다 (즉, 낮춘다). 억제 신호들은, 충분히 강하다면, 흥분성 신호들의 합에 반대로 작용하여 막 전위가 임계치에 도달하는 것을 방지할 수 있다. 시냅스 흥분에 반대로 작용하는 것에 더해, 시냅스 억제는 자발적 활성 뉴런들에 대해 강력한 제어를 발휘할 수 있다. 자발적 활성 뉴런은, 예를 들어, 그것의 동역학 또는 피드백으로 인해, 추가적인 입력 없이 스파이크하는 뉴런을 지칭한다. 이러한 뉴런들에서 활동 전위들의 자발적 생성을 억압함으로써, 시냅스 억제는 뉴런에서 발화하는 패턴을 형성할 수 있으며, 이는 일반적으로 조각 (sculpturing) 이라고 지칭된다. 다양한 시냅스들 (104) 은, 원하는 거동에 따라, 흥분성 시냅스 또는 억제 시냅스의 임의의 조합으로 작용할 수도 있다.
신경 시스템 (100) 은 범용 프로세서, 디지털 신호 프로세서 (digital signal processor; DSP), 주문형 반도체 (application specific integrated circuit; ASIC), 필드 프로그램가능 게이트 어레이 (field programmable gate array; FPGA) 혹은 다른 프로그램가능한 로직 디바이스 (programmable logic device; PLD), 이산 게이트 혹은 트랜지스터 로직, 이산 하드웨어 컴포넌트들, 프로세서에 의해 실행되는 소프트웨어 모듈, 또는 그것들의 임의의 조합에 의해 에뮬레이션될 수도 있다. 신경 시스템 (100) 은 전기 회로에 의해 에뮬레이션되고, 이미지 및 패턴 인식, 머신 러닝, 모터 제어 등과 같은 광범위한 애플리케이션들에 활용될 수도 있다. 신경 시스템 (100) 에서 각각의 뉴런은 뉴런 회로로서 구현될 수도 있다. 출력 스파이크를 개시하는 임계 값으로 충전되는 뉴런 막은, 예를 들어, 뉴런 막을 통해 흐르는 전류를 통합하는 커패시터로서 구현될 수도 있다.
일 양태에서, 커패시터는 뉴런 회로의 전류 통합 디바이스로서 제거될 수도 있고, 보다 작은 멤리스터 (memristor) 소자가 커패시터 대신에 이용될 수도 있다. 이러한 접근법은 뉴런 회로들, 뿐만 아니라 전류 통합기들로서 대형 커패시터들이 활용되는 다양한 다른 애플리케이션들에 적용될 수도 있다. 또한, 시냅스들 (104) 의 각각은 멤리스터 소자에 기초하여 구현될 수도 있으며, 여기서 시냅스 가중치 변화들은 멤리스터 저항의 변화들과 관련될 수도 있다. 나노미터 피처 크기의 멤리스터들로, 뉴런 회로 및 시냅스들의 영역이 실질적으로 감소될 수도 있으며, 이는 매우 큰 크기의 신경 시스템 하드웨어 구현예의 구현을 보다 실현가능하게 할 수도 있다.
신경 시스템 (100) 을 에뮬레이션하는 신경 프로세서의 기능은 시냅스 연결들의 가중치들에 의존할 수도 있으며, 이는 뉴런들 사이의 연결들의 강도들을 제어할 수도 있다. 시냅스 가중치들은 전력 다운된 후에 프로세서의 기능을 보호하기 위해 비휘발성 메모리에 저장될 수도 있다. 일 양태에서, 시냅스 가중치 메모리는 메인 신경 프로세서 칩과는 별도인 외부 칩에 구현될 수도 있다. 시냅스 가중치 메모리는 대체가능한 메모리 카드로서 신경 프로세서 칩과는 별도로 패키징될 수도 있다. 이는 신경 프로세서에 다양한 기능들을 제공할 수도 있으며, 여기서 특정 기능은 신경 프로세서에 현재 접속된 메모리 카드에 저장된 시냅스 가중치들에 기초할 수도 있다.
도 2 는 본 개시물의 특정 양태들에 따른 계산 네트워크 (예를 들어, 신경 시스템, 또는 신경 네트워크) 의 프로세싱 유닛 (예를 들어, 뉴런 또는 뉴런 회로) (202) 의 일 예시적인 도면 (200) 을 도시한다. 예를 들어, 뉴런 (202) 은 도 1 로부터의 레벨 102 및 레벨 106 의 뉴런들 중 임의의 뉴런에 대응할 수도 있다. 뉴런 (202) 은 다수의 입력 신호들 (2041-204N) 을 수신할 수도 있으며, 다수의 입력 신호들은 신경 시스템의 외부의 신호들, 또는 동일한 신경 시스템의 다른 뉴런들에 의해 생성된 신호들, 또는 양자 모두일 수도 있다. 입력 신호는 전류, 컨덕턴스, 전압, 실수값 및/또는 복소수 값일 수도 있다. 입력 신호는 고정-소수점 또는 부동-소수점 표현을 갖는 수치 값을 포함할 수도 있다. 이러한 입력 신호들은 조정가능한 시냅스 가중치들 (2061-206N(W1-WN)) 에 따라 신호들을 스케일링하는 시냅스 연결들을 통해 뉴런 (202) 에 전달될 수도 있으며, 여기서 N 은 뉴런 (202) 의 입력 연결들의 전체 개수일 수도 있다.
뉴런 (202) 은 스케일링된 입력 신호들을 결합하고 결합되어진 스케일링된 입력들을 이용해 출력 신호 (208) (즉, 신호 Y) 를 생성할 수도 있다. 출력 신호 (208) 는 전류, 컨덕턴스, 전압, 실수값 및/또는 복소수 값일 수도 있다. 출력 신호는 고정-소수점 또는 부동-소수점 표현을 갖는 수치 값일 수도 있다. 출력 신호 (208) 는 그 다음에 동일한 신경 시스템의 다른 뉴런들에 입력 신호로서, 또는 동일한 뉴런 (202) 에 입력 신호로서, 또는 신경 시스템의 출력으로서 전달될 수도 있다.
프로세싱 유닛 (뉴런) (202) 은 전기 회로에 의해 에뮬레이션될 수도 있고, 프로세싱 유닛의 입력 및 출력 연결들은 시냅스 회로들을 갖는 전기 연결부들에 의해 에뮬레이션될 수도 있다. 프로세싱 유닛 (202) 및 프로세싱 유닛의 입력 및 출력 연결들은 또한 소프트웨어 코드에 의해 에뮬레이션될 수도 있다. 프로세싱 유닛 (202) 이 또한 전기 회로에 의해 에뮬레이션될 수도 있는 반면, 프로세싱 유닛의 입력 및 출력 연결들은 소프트웨어 코드에 의해 에뮬레이션될 수도 있다. 일 양태에서, 계산 네트워크에서 프로세싱 유닛 (202) 은 아날로그 전기 회로일 수도 있다. 다른 양태에서, 프로세싱 유닛 (202) 은 디지털 전기 회로일 수도 있다. 또 다른 양태에서, 프로세싱 유닛 (202) 은 아날로그 및 디지털 컴포넌트들 양자 모두를 갖는 혼합-신호 전기 회로를 포함할 수도 있다. 계산 네트워크는 앞서 언급된 형태들 중 임의의 형태로 프로세싱 유닛들을 포함할 수도 있다. 그러한 프로세싱 유닛들을 이용하는 계산 네트워크 (신경 시스템 또는 신경 네트워크) 는 광범위한 애플리케이션들, 예컨대, 이미지 및 패턴 인식, 머신 러닝, 모터 제어 등에 활용될 수도 있다.
신경 네트워크를 트레이닝하는 과정 중에, 시냅스 가중치들 (예를 들어, 도 1 로부터의 가중치들 (
Figure pct00002
) 및/또는 도 2 로부터의 가중치들 (2061-206N)) 은 랜덤 값들로 초기화되고 학습 규칙에 따라 증가되거나 감소될 수도 있다. 학습 규칙의 예들은, 이로 제한되지는 않으나, 스파이크-타이밍-종속-가소성 (spike-timing-dependent plasticity; STDP) 학습 규칙, Hebb 규칙, Oja 규칙, BCM (Bienenstock-Copper-Munro) 규칙 등을 포함한다는 것을 통상의 기술자는 이해할 것이다. 특정 양태들에서, 가중치들은 2 개의 값들 중 하나로 결정하거나 수렴할 수도 있다 (즉, 가중치들의 양봉 분배). 이러한 결과는 각각의 시냅스 가중치에 대한 비트들의 수를 감소시키고, 시냅스 가중치들을 저장하는 메모리로부터의/메모리로의 판독 및 기록의 속도를 증가시키고, 시냅스 메모리의 전력 및/또는 프로세서 소비를 감소시키는데 활용될 수도 있다.
시냅스 유형
신경 네트워크들의 하드웨어 및 소프트웨어 모델들에서, 시냅스 관련 함수들의 프로세싱은 시냅스 유형에 기초할 수 있다. 시냅스 유형들은 비소성 시냅스들 (가중치 및 지연의 변화 없음), 가소성 시냅스들 (가중치가 변할 수도 있다), 구조적 지연 가소성 시냅스들 (가중치 및 지연이 변할 수도 있다), 완전 가소성 시냅스들 (가중치, 지연, 및 연결성이 변할 수도 있다), 및 그들의 변형들 (예를 들어, 지연은 변할 수도 있으나, 가중치 또는 입력에서는 변화가 없을 수도 있다) 일 수도 있다. 다수의 유형들의 이점은 프로세싱이 세분될 수 있다는 것이다. 예를 들어, 비소성 시냅스들은 가소성 기능들이 실행되는 것 (또는 그러한 기능들이 완료되기를 기다리는 것) 을 이용하지 않을 수도 있다. 유사하게, 지연 및 가중치 가소성은, 차례 차례로 또는 병렬로, 함께 또는 별도로 동작할 수도 있는 동작들로 세분될 수도 있다. 상이한 유형들의 시냅스들은 적용되는 상이한 가소성 유형들의 각각에 대해 상이한 룩업 테이블들 또는 공식들 및 파라미터들을 가질 수도 있다. 따라서, 방법들은 시냅스의 유형에 대한 관련 테이블들, 공식들, 또는 파라미터들에 액세스할 것이다.
스파이크-타이밍 종속 구조 가소성이 시냅스 가소성과 독립적으로 실행될 수도 있다는 사실의 추가적인 의미들이 있다. 구조 가소성 (즉, 지연 변화의 양) 이 전-후 스파이크 시간 차이의 직접적인 함수일 수도 있기 때문에, 구조적 가소성은 가중치 크기에 변화가 없는 경우 (예를 들어, 가중치가 최소 또는 최대 값에 도달한 경우, 또는 일부 다른 이유로 인해 변하지 않은 경우) 일지라도 구조 가소성이 실행될 수도 있다. 대안으로, 구조적 가소성은 가중치 변화 양의 함수로 또는 가중치들 혹은 가중치 변화들의 한계들과 관련되는 조건들에 기초하여 설정될 수도 있다. 예를 들어, 시냅스 지연은 가중치 변화가 발생하는 경우에만, 또는 가중치가 제로에 도달하나 최고 값에 있지 않은 경우에만 변할 수도 있다. 그러나, 이러한 프로세스들이 병렬로 되어 메모리 액세스들의 수 및 중첩을 감소시킬 수 있도록 독립적인 기능들을 가지는 것이 이로울 수 있다.
시냅스 가소성의 결정
신경 가소성 (또는 간단하게 "가소성") 은 새로운 정보, 감각 자극, 개발, 손상, 또는 장애에 응답하여 시냅스 연결들 및 거동을 변화시키는 뇌에서의 뉴런들 및 신경 네트워크들의 능력이다. 가소성은 생물학 뿐만 아니라 컴퓨터 신경 과학 및 신경 네트워크들에서의 학습 및 기억에 있어 중요하다. (예를 들어, Hebb 의 이론에 따른) 시냅스 가소성, 스파이크-타이밍-종속 가소성 (STDP), 비-시냅스 가소성, 활동-종속 가소성, 구조 가소성, 및 항상성 가소성과 같은 다양한 형태들의 가소성이 연구되었다.
STDP 는 뉴런들 사이의 시냅스 연결들의 강도를 조정하는 학습 프로세스이다. 연결 강도들은 특정 뉴런의 출력 및 수신된 입력 스파이크들의 상대적 타이밍 (즉, 활동 전위) 에 기초하여 조정된다. STDP 프로세스 하에서, 장기 강화 (long-term potentiation; LTP) 는 소정의 뉴런에 대한 입력 스파이크가, 평균적으로, 그 뉴런의 출력 스파이크 바로 전에 발생하려고 하면 발생할 수도 있다. 그 다음에, 그 특정 입력은 다소 더 강하게 된다. 반면에, 입력 스파이크가, 평균적으로, 출력 스파이크 바로 후에 발생하려고 하면, 장기 저하 (long-term depression; LTD) 가 발생할 수도 있다. 그 다음에, 그 특정 입력은 다소 약하게 되고, 따라서, 명칭이 "스파이크-타이밍-종속 가소성" 이다. 결과적으로, 시냅스-후 뉴런의 흥분을 야기할 수도 있는 입력들은 장래에 기여할 가능성이 더 크게 되고, 한편 시냅스-후 스파이크를 야기하지 않는 입력들은 장래에 기여할 가능성이 더 작아지게 된다. 프로세스는 연결들의 초기 셋트의 서브셋트가 남아있을 때까지 계속되고, 한편 모든 다른 것들의 영향은 사소한 레벨로 감소된다.
뉴런은 일반적으로 그것의 입력들 중 많은 입력이 짧은 기간 내에 발생하는 경우에 출력 스파이크를 생성하기 때문에 (즉, 출력을 야기하기에 충분하게 누적된다), 통상적으로 남아있는 입력들의 서브셋트는 시간에 상관되는 경향이 있는 것들을 포함한다. 또한, 출력 스파이크 전에 발생하는 입력들이 강화되기 때문에, 가장 빠른 충분한 상관의 누적 표시를 제공하는 입력들이 결국 뉴런에 대한 최종 입력이 될 수도 있다.
STDP 학습 규칙은 시냅스-전 뉴런의 스파이크 시간 (t pre ) 과 시냅스-후 뉴런의 스파이크 시간 (t post ) 사이의 시간 차이의 함수 (즉, t = t post - t pre ) 로서 시냅스-전 뉴런을 시냅스-후 뉴런에 연결하는 시냅스의 시냅스 가중치에 효과적으로 적응될 수도 있다. 통상적인 STDP 의 공식은 시간 차이가 양 (positive) 이면 (시냅스-전 뉴런이 시냅스-후 뉴런 전에 발화한다) 시냅스 가중치를 증가시키고 (즉, 시냅스를 강력하게 하고), 시간 차이가 음 (negative) 이면 (시냅스-후 뉴런이 시냅스-전 뉴런 전에 발화한다) 시냅스 가중치를 감소시키는 (즉, 시냅스를 억제하는) 것이다.
STDP 프로세스에서, 시간 경과에 따른 시냅스 가중치의 변화는 통상적으로 다음에서 주어진 지수함수형 감쇠 (exponential decay) 를 이용하여 달성된다:
Figure pct00003
, (1)
여기서
Figure pct00004
Figure pct00005
은 각각 양 및 음의 시간 차이에 대한 시간 상수들이고,
Figure pct00006
Figure pct00007
은 대응하는 스케일링 크기들이고,
Figure pct00008
는 양의 시간 차이 및/또는 음의 시간 차이에 적용될 수도 있는 오프셋이다.
도 3 은 STDP 에 따른 시냅스-전 스파이크와 시냅스-후 스파이크의 상대적 타이밍의 함수로서 시냅스 가중치 변화의 일 예시적인 도면 (300) 을 도시한다. 시냅스-전 뉴런이 시냅스-후 뉴런 전에 발화하면, 그래프 (300) 의 302 부분에서 도시된 바와 같이, 대응하는 시냅스 가중치가 증가될 수도 있다. 이러한 가중치 증가는 시냅스의 LTP 라고 지칭될 수 있다. LTP 의 양이 시냅스-전 스파이크 시간과 시냅스-후 스파이크 시간 사이의 차이의 함수로서 거의 기하급수적으로 감소할 수도 있다는 것이 그래프 부분 302 로부터 관찰될 수 있다. 그래프 (300) 의 부분 304 에 도시된 바와 같이, 역순 (reverse order) 의 발화는 시냅스 가중치를 감소시켜, 시냅스의 LTD 를 야기할 수도 있다.
도 3 에서의 그래프 (300) 에 도시된 바와 같이, 음의 오프셋 (
Figure pct00009
) 이 STDP 그래프의 LTP (원인) 부분 302 에 적용될 수도 있다. x-축의 교차 지점 (306) (y=0) 은 계층 i-1 로부터의 원인 입력들에 대한 상관관계를 고려하여 최대 시간 지연과 일치하게 구성될 수도 있다. 프레임-기반 입력 (즉, 스파이크들 또는 펄스들을 포함하는 특정 지속기간의 프레임의 형태인 입력) 의 경우에, 오프셋 값 (
Figure pct00010
) 은 프레임 경계를 반영하도록 계산될 수 있다. 프레임에서의 제 1 입력 스파이크 (펄스) 는 직접적으로 시냅스-후 전위에 의해 모델링됨으로써 또는 신경 상태에 대한 영향의 관점에서 시간이 경과함에 따라 감쇠하는 것으로 고려될 수도 있다. 프레임에서의 제 2 입력 스파이크 (펄스) 가 특정 시간 프레임과 상관되거나 관련있다고 고려되면, 관련 시간들에서의 값이 상이할 수도 있도록 (일 프레임보다 큰 것에 대해서는 음, 그리고 일 프레임보다 작은 것에 대해서는 양) 프레임 전후의 관련 시간들은 해당 시간 프레임 경계에서 분리되고 STDP 곡선의 하나 이상의 부분들을 오프셋함으로써 가소성의 면에서 상이하게 취급될 수도 있다. 예를 들어, 음의 오프셋 (
Figure pct00011
) 은 프레임보다 큰 전-후 시간에서 곡선이 실제로 제로 아래로 가고 따라서 LTP 대신에 LTD 의 부분이도록 LTP 를 오프셋하도록 설정될 수도 있다.
뉴런 모델들 및 동작
유용한 스파이킹 뉴런 모델을 설계하기 위한 몇몇 일반적인 원리들이 있다. 훌륭한 뉴런 모델은 2 개의 계산 체제들: 일치 검출 및 함수적 계산의 측면에서 풍부한 잠재적 거동을 가질 수도 있다. 또한, 훌륭한 뉴런 모델은 시간 코딩을 가능하게 하도록 2 개의 요소들을 가져야 한다: 입력들의 도착 시간은 출력 시간에 영향을 주고 일치 검출은 좁은 시간 윈도우를 가질 수 있다. 마지막으로, 계산상으로 매력있도록, 훌륭한 뉴런 모델은 연속적인 시간에서의 폐쇄형 솔루션 및 근처의 어트랙터들 및 안장 점들을 포함하는 안정적인 거동을 가질 수도 있다. 다시 말해서, 유용한 뉴런 모델은 실용적이고, 풍부하고, 사실적이고, 생물학적으로-일정한 거동들을 모델링하는데 이용되는 것뿐만 아니라 엔지니어 및 역 엔지니어 신경 회로들에서 이용될 수 있는 것이다.
뉴런 모델은 입력 도착, 출력 스파이크와 같은 이벤트들, 또는 내부적이거나 외부적인 다른 이벤트에 의존할 수도 있다. 풍부한 거동 레퍼토리를 달성하기 위해서는, 복잡한 거동들을 보일 수 있는 상태 머신이 바람직할 수도 있다. (만약 있다면) 입력 기여와 별도인, 이벤트 자체의 발생이 상태 머신에 영향을 주고 이벤트에 후속하는 동역학을 제약할 수 있다면, 시스템의 장래 상태는 상태 및 입력의 함수일 뿐만 아니라, 상태, 이벤트, 및 입력의 함수이다.
일 양태에서, 뉴런 (n) 은 다음의 동역학에 의해 통제되는 막 전압 (
Figure pct00012
) 을 갖는 스파이킹 누출-통합-및-발화 뉴런으로 모델링될 수도 있다:
Figure pct00013
, (2)
여기서
Figure pct00014
Figure pct00015
는 파라미터들이고,
Figure pct00016
은 시냅스-전 뉴런 (m) 을 시냅스-후 뉴런 (n) 에 연결하는 시냅스에 대한 시냅스 가중치이고,
Figure pct00017
은 뉴런 (n) 의 세포체 (soma) 에 도착할 때까지
Figure pct00018
에 따라 수지상 (dendritic) 또는 축삭 (axonal) 지연될 수도 있는 뉴런 (m) 의 스파이킹 출력이다.
시냅스-후 뉴런에 대한 충분한 입력이 확립된 때로부터 시냅스-후 뉴런이 실제로 발화할 때까지 지연이 있다는 것에 유의해야 한다. Izhikevich 의 단순 모델과 같은 동적 스파이크 뉴런 모델에서, 탈분극화 임계치 (
Figure pct00019
) 와 피크 스파이크 전압 (
Figure pct00020
) 사이에 차이가 있으면 시간 지연이 초래될 수도 있다. 예를 들어, 단순 모델에서, 전압 및 복구에 대한 미분 방정식들의 쌍에 의해 뉴런 세포체 동역학들이 통제될 수 있다, 즉:
Figure pct00021
, (3)
Figure pct00022
, (4)
여기서, v 는 막 전위이고, u 는 막 복구 변수이고, k 는 막 전위 (v) 의 시간 스케일을 설명하는 파라미터이고, a 는 복구 변수 u 의 시간 스케일을 설명하는 파라미터이고, b 는 막 전위 (v) 의 하위-임계 변동들에 대한 복구 변수 u 의 민감도를 설명하는 파라미터이고, v r 은 막 휴지상태 전위이고, I 는 시냅스 전류이고, C 는 막의 커패시턴스이다. 이러한 모델에 따르면, 뉴런은
Figure pct00023
인 경우에 스파이킹하는 것으로 정의된다.
Hunzinger 콜드 (Cold) 모델
Hunzinger 콜드 뉴런 모델은 풍부하며 다양한 신경 거동들을 복제할 수 있는 최소 이중-체제 스파이킹 선형 동적 모델이다. 모델의 1- 또는 2-차원 선형 동역학은 2 개의 체제들을 가질 수 있으며, 여기서 시간 상수 (및 연결) 는 체제에 의존할 수 있다. 하위-임계 체제에서, 규칙에 의해 음인 시간 상수는 일반적으로 생물학적으로-일관성있는 선형 방식으로 휴지상태로 셀을 반환하도록 작동하는 누설 채널 동역학을 나타낸다. 규칙에 의해 양인 상위-임계 체제에서 시간 상수는 일반적으로 셀이 스파이킹하도록 구동하나 스파이크-생성에서 지연을 초래하는 누설 방지 채널 동역학을 반영한다.
도 4 에 도시된 바와 같이, 모델 (400) 의 동역학은 2 개 (또는 그 보다 많은) 체제들로 나누어질 수도 있다. 이러한 체제들은 (LIF 뉴런 모델과 혼동되지 않게, 누설-통합-및-발화 (leaky-integrate-and-fire; LIF) 체제라고도 상호교환가능하게 지칭되는) 임의 체제 (402) 및 (ALIF 뉴런 모델과 혼동되지 않게, 누설-방지-통합-및-발화 (anti-leaky-integrate-and-fire; ALIF) 체제라고도 상호교환가능하게 지칭되는) 양의 체제 (404) 라고 불릴 수도 있다. 음의 체제 (402) 에서, 상태는 장래 이벤트 시에 휴지상태 (v _ ) 쪽으로 향하는 경향이 있다. 이러한 음의 체제에서, 모델은 일반적으로 시간 입력 검출 속성들 및 다른 하위-임계 거동을 보인다. 양의 체제 (404) 에서, 상태는 스파이킹 이벤트 (v s ) 쪽으로 향하는 경향이 있다. 이러한 양의 체제에서, 모델은 후속하는 입력 이벤트들에 따라 스파이킹하는데 지연을 초래하는 것과 같은 계산 속성들을 보인다. 이러한 2 개의 체제들로의 동역학의 이벤트들 및 분리의 면에서의 동역학의 공식은 모델의 기본적인 특성들이다.
(상태들 (vu) 에 대한) 선형 이중-체제 양방향-차원 동역학은 다음과 같은 규칙에 의해 정의될 수도 있다:
Figure pct00024
(5)
Figure pct00025
(6)
여기서
Figure pct00026
r 은 연결에 대한 선형 변환 변수들이다.
심볼
Figure pct00027
는, 특정 체제에 대한 관계를 논의하거나 표현하는 경우, 각각 음의 체제 및 양의 체제에 대해 부호 "-" 또는 "+" 를 갖는 심볼
Figure pct00028
를 대체하도록 규칙에 따라 동역학 체제를 지칭하기 위해 본원에서 이용된다.
모델 상태는 막 전위 (전압) v 및 복구 전류 (recovery current) u 에 의해 정의된다. 기본 형태에서, 체제는 기본적으로 모델 상태에 의해 결정된다. 미묘하지만 중요한 정확도 및 일반 정의의 양태들이 있으나, 지금은, 전압 (v) 이 임계치 (v + ) 보다 높은 경우 양의 체제 (404) 에 있고 그렇지 않으면 음의 체제 (402) 에 있는 모델을 고려한다.
체제-의존적인 시간 상수는 음의 체제 시간 상수인
Figure pct00029
및 양의 체제 시간 상수인
Figure pct00030
를 포함한다. 복구 전류 시간 상수 (
Figure pct00031
) 는 통상적으로 체제와 독립적이다. 편의를 위해, 음의 체제 시간 상수 (
Figure pct00032
) 는 통상적으로 감쇠를 반영하도록 음의 양 (negative quantity) 으로 명시되어 전압 진전에 대한 동일한 표현이 양의 체제에 대해 이용될 수도 있으며, 여기서 지수 및
Figure pct00033
는 일반적으로 양이며
Figure pct00034
도 그럴 것이다.
2 개의 상태 엘리먼트들의 동역학은 무연속변이 (null-cline) 들로부터 상태들을 오프셋하는 변환들에 의한 이벤트들에서 연결될 수도 있으며, 여기서 변환 변수들은 다음과 같다:
Figure pct00035
(7)
Figure pct00036
(8)
여기서
Figure pct00037
Figure pct00038
은 파라미터들이다.
Figure pct00039
에 대한 2 개의 값들은 2 개의 체제들에 대한 기준 전압들에 대한 베이스이다. 파라미터
Figure pct00040
는 베이스 전압이고, 막 전위는 일반적으로 음의 체제에서
Figure pct00041
쪽으로 감쇠한다. 파라미터
Figure pct00042
는 음의 체제에 대한 베이스 전압이고, 막 전위는 양의 체제에서 일반적으로
Figure pct00043
로부터 멀어지는 경향이 있다.
vu 에 대한 무연속변이들은 각각 변환 변수들
Figure pct00044
r 의 음으로 주어진다. 파라미터
Figure pct00045
u 무연속변이의 경사도를 제어하는 스케일 인자이다. 파라미터
Figure pct00046
은 통상적으로
Figure pct00047
와 동일하게 설정된다. 파라미터
Figure pct00048
는 양 체제들에서 v 무연속변이들의 경사도를 제어하는 저항 값이다.
Figure pct00049
시간-상수 파라미터들은 각각의 체제에서 별도로 기하급수적 감쇠들 뿐만 아니라 무연속변이 경사도들도 제어한다.
모델은 전압 (v) 이 값 (
Figure pct00050
) 에 도달하는 경우에 스파이킹하도록 정의될 수도 있다. 후속하여, 상태는 (스파이크 이벤트와 동일한 것일 수도 있는) 리셋 이벤트에서 리셋될 수도 있다:
Figure pct00051
(9)
Figure pct00052
(10)
여기서
Figure pct00053
Figure pct00054
는 파라미터들이다. 리셋 전압 (
Figure pct00055
) 은 통상적으로
Figure pct00056
로 설정된다.
순간적인 연결의 원리에 의해, (단일 지수 항을 갖는) 상태 뿐만 아니라 특정 상태에 도달하기 위해 시간에 대해 폐쇄 형태 해가 가능하다. 폐쇄 형태 상태 해들은 다음과 같다:
Figure pct00057
(11)
Figure pct00058
(12)
따라서, 모델 상태는 입력 (시냅스-전 스파이크) 또는 출력 (시냅스-후 스파이크) 과 같은 이벤트들 시에만 업데이트될 수도 있다. 동작들은 또한 (입력 또는 출력이 있는지 여부에 상관없이) 임의의 특정 시간에 수행될 수도 있다.
또한, 순간적인 연결 원리에 의해, 반복적 기법들 또는 수치 방법들 (예를 들어, Euler 수치 방법) 없이도 특정 상태에 도달하기 위한 시간이 미리 결정될 수도 있도록 시냅스-후 스파이크의 시간이 예상될 수도 있다. 이전 전압 상태 (
Figure pct00059
) 를 고려하면, 전압 상태 (
Figure pct00060
) 에 도달되기까지의 시간 지연은 다음과 같이 주어진다:
Figure pct00061
(13)
전압 상태 (
Figure pct00062
) 가
Figure pct00063
에 도달하는 시점에 스파이크가 발생하는 것으로 정의되면, 전압이 주어진 상태 (
Figure pct00064
) 에 있는 시간에서부터 측정된 바와 같은 스파이크가 발생하기 전까지의 시간의 양 또는 상대적 지연에 대한 폐쇄형 해는 다음과 같다:
Figure pct00065
(14)
여기서
Figure pct00066
은 통상적으로 파라미터
Figure pct00067
로 설정되나, 다른 변형들이 가능할 수도 있다.
모델 동역학의 위의 정의들은 모델이 양의 체제 또는 음의 체제에 있는지 여부에 의존한다. 언급된 바와 같이, 연결 및 체제 (
Figure pct00068
) 는 이벤트들 시에 계산될 수도 있다. 상태 전파의 목적으로, 체제 및 연결 (변환) 변수들은 마지막 (이전) 이벤트의 시점에서의 상태에 기초하여 정의될 수도 있다. 스파이크 출력 시간을 후속하여 예상하기 위한 목적으로, 체제 및 연결 변수는 다음 (현재) 이벤트 시점에서의 상태에 기초하여 정의될 수도 있다.
콜드 모델, 및 시뮬레이션, 에뮬레이션, 시간 모델을 실행하는 여러 가지의 가능한 구현들이 있다. 이는, 예를 들어, 이벤트-업데이트, 단계-이벤트 업데이트, 및 단계-업데이트 모드들을 포함한다. 이벤트 업데이트는 (특정 순간들에서) 이벤트들 또는 "이벤트 업데이트" 에 기초하여 상태들이 업데이트되는 업데이트이다. 단계 업데이트는 모델이 간격들 (예를 들어, 1 ms) 에서 업데이트되는 경우의 업데이트이다. 이는 반드시 반복적인 방법들 또는 수치 방법들을 이용할 필요는 없다. 이벤트-기반 구현이 또한 오직 단계들에서 또는 단계들 사이에서 이벤트가 발생하는 경우에만 모델을 업데이트함으로써 또는 "단계-이벤트" 업데이트에 의해 단계-기반 시뮬레이터에서 제한된 시간 분해능에서 가능하다.
심각하게 노이즈가 있는 데이터에 대한 강건성을 위한 지식-그래프 바이어싱 된 분류
종래의 오브젝트 인식 시스템은 이미지 전처리 (preprocessing) 스테이지, 피처 (feature) 추출 스테이지, 및 분류 스테이지를 포함한다. 구체적으로, 종래의 오브젝트 인식 시스템에서, 이미지 전처리 스테이지는 이미지 및 그 이미지 내의 세그먼트 (segment) 피처들을 전처리하도록 특정된다.
본원에서, 세그멘테이션 (segmentation) 은 이미지에서 오브젝트들 주위의 경계들을 결정하는 것을 지칭한다. 예를 들어, 이미지는 의자, 책상, 및 램프를 포함할 수도 있다. 이들 오브젝트들의 각각은 세그먼트화될 수도 있다. 전술한 오브젝트들의 각각에 대한 세그먼트는, 예를 들어, 그 오브젝트에 속하는 모든 픽셀을 둘러싸는 가장 작은 직사각형일 수도 있다.
이미지 전처리 후에, 피처 추출 스테이지는 전처리된 이미지로부터 피처들을 추출한다. 본원에서, 피처들은 얼굴들, 모니터들, 키보드들, 및/또는 사진 찍힐 수도 있는 다른 오브젝트들과 같은, 오브젝트들로서 지칭될 수도 있다. 더욱이, 피처들을 추출한 후에, 분류기 (classifier) 는 추출된 피처들을 분류할 수도 있다. 즉, 분류는 하나 이상의 가능한 클래스들을 각각의 추출된 오브젝트에 적용한다. 본원에서 클래스들은 라벨들 또는 카테고리들로서 지칭될 수도 있음에 또한 유의하여야 한다. 추가적으로, 또는 대안적으로, 분류기는 추출된 피처들에 기초하여 전체 이미지 또는 이미지의 서브셋트들을 분류하도록 특정된다. 예를 들어, 이미지는 노을로서 분류될 수도 있다.
도 5 는 오브젝트 인식 시스템을 통해 분류될 수도 있는 이미지 (500) 의 일 예를 예시한다. 도 5 에서 도시된 바와 같이, 이미지 (500) 는 PC 모니터 (506), 키보드 (504), 및 마우스 (502) 를 포함한다. 따라서, 종래의 오브젝트 인식 시스템의 스테이지들에 기초하여, 추출된 오브젝트들은 PC 모니터 (506), 키보드 (504), 및 마우스 (502) 이다. 일 예로서, 추출된 PC 모니터 오브젝트에 대한 추론된 클래스들은 PC 모니터, TV, 및/또는 윈도우일 수도 있다. 다른 예로서, 추출된 키보드 오브젝트에 대한 추론된 클래스들은 키보드, 트레이, 및 플레이스매트일 수도 있다.
또한, 분류는 각각의 오브젝트로부터 추론된 하나 이상의 클래스들에 대해 신뢰 메트릭을 제공한다. 신뢰 메트릭은 네트워크에 제공된 트레이닝 (training) 에 기초할 수도 있다. 본원에서, 신뢰 메트릭은 신뢰도, 신뢰 점수, 및/또는 신뢰 값으로서 지칭될 수도 있다. 하나의 예에서, 피처 추출기로부터 추출된 오브젝트는 PC 모니터일 수도 있고, PC 모니터에 대한 분류기 출력은 PC 모니터: 50%, TV: 40%, 윈도우: 10% 일 수도 있다. 즉, 네트워크는 오브텍트가 PC 모니터일 50% 신뢰도, 오브젝트가 TV 일 40% 신뢰도, 및 오브젝트가 윈도우일 10% 신뢰도를 갖는다. 이 예에서, PC 모니터, TV, 및 윈도우는 이미지로부터 추출된 오브젝트로부터 추출된 클래스들이다.
추가적으로, 하나의 구성에서, 최고 신뢰도와 그 다음 최고 신뢰도 사이의 차이는 혼동 (confusion) 메트릭으로서 사용될 수도 있다. 구체적으로, 이 구성에서, 혼동 메트릭, 혼동은 2 개의 신뢰도 메트릭들 사이의 차이에 대해 역으로 상관된다. 즉, 2 개의 신뢰 점수들 사이의 낮은 차이는 높은 혼동을 초래한다. 예를 들어, 이전의 예에서, PC 모니터 (50%) 및 TV (40%) 에 대한 신뢰도 메트릭들 사이의 차이는 PC 모니터 (50%) 및 윈도우 (10%) 에 대한 신뢰도 메트릭들 사이의 차이보다 적다. 따라서, 이전의 예에서, 추출된 오브텍트가 PC 모니터인지 또는 윈도우인지 여부에 관한 혼동에 비해, 추출된 오브젝트가 PC 모니터인지 또는 TV 인지 여부에 관해 더 큰 혼동이 존재한다.
하나의 구성에서, 주어진 오브젝트에 대해, 내림차순으로, 각각의 예측된 클래스 (class) 에 대한 신뢰도들은 k 개의 예측들에 대해 P1, P2, ..., Pk 이다. 추가적으로, 또는 대안적으로, 혼동 메트릭은 다음과 같이 결정될 수도 있다:
분류기 혼동 값 = P1-P2 (15)
분류기 혼동 값 = (P1-P2)/(P1+P2) (16)
분류기 혼동 값 = P1/메디안(P1, P2, ..., Pk) (17)
분류기 혼동 값 = P1/평균(P1, P2, ..., Pk) (18)
식 (15) 내지 식 (18) 에서, 분류기 혼동 값은 혼동에 대해 역으로 상관된다. 즉, 더 낮은 분류기 혼동 값은 높은 혼동을 나타낼 수도 있다.
이전에 논의된 바와 같이, 메트릭들은 네트워크에 대해 제공된 트레이닝에 기초할 수도 있다. 따라서, 일부 경우들에서, 네트워크가 오브젝트에 대해 트레이닝되지 않은 경우에 오브젝트에 대해 낮은 신뢰도가 주어질 수도 있다. 추가적으로, 또는 대안적으로, 잘못된 클래스는 최고 신뢰 점수를 받을 수도 있다. 일부 경우들에서, 낮은 이미지 품질, 폐색, 오브젝트의 불량 세그멘테이션, 및/또는 다른 팩터들은 높은 신뢰 메트릭이 클래스에 부정확하게 할당되는 것을 야기할 수도 있다. 예를 들어, 도 5 에서 도시된 바와 같이, PC 모니터의 오직 부분적 이미지만이 캡처된다. 따라서, 도 5 의 예에서, 오브젝트 인식 시스템은, PC 모니터와 같은 정확한 클래스에 할당된 신뢰도에 비해, 윈도우와 같은 잘못된 클래스에 더 높은 신뢰도를 할당할 수도 있다.
표 1 은 이미지로부터 추출된 오브젝트에 대해 추론된 클래스들에 할당된 신뢰도들의 예를 제공한다. 이 예에서, 표 1 의 신뢰 메트릭들은, PC 모니터 (506) 가 이미지에서 부분적으로 보이는 도 5 의 예에 기초할 수도 있다. 표 1 에서 나타낸 바와 같이, 모니터에 대한 분류기 출력은 윈도우: 40%, 모니터: 35%, TV: 25% 이다. 즉, 네트워크는 추출된 PC 모니터 오브젝트가 윈도우, 모니터, 또는 TV 중 어느 일방이라고 추론한다. 또한, 네트워크는, 추출된 PC 모니터 오브젝트가 윈도우일 40% 신뢰도, 추출된 PC 모니터 오브젝트가 모니터일 35% 신뢰도, 및 추출된 PC 모니터 오브젝트가 TV 일 25% 신뢰도를 갖는다.
진짜 오브젝트 추론 1 추론 2 추론 3
모니터 윈도우 - 40% 모니터 - 35% TV - 25%
CPU CPU - 80% 박스 - 15% 토스터 - 5%
마우스 마우스 - 90% 벌레 - 10%
키보드 키보드 - 70% 트레이 - 20% 플레이스매트- 10%
표 1 에 있어서, 네트워크는, 다른 3 개의 오브젝트들이 CPU (도 5 에서는 미도시), 마우스, 및 키보드인 고도의 신뢰가 존재할 때 추출된 PC 모니터 오브젝트가 PC 모니터인 가능성을 고려하지 않았다. 따라서, 표 1 의 예에서, 오브젝트가 윈도우인 신뢰도는 오브젝트가 모니터인 신뢰도에 비해 더 크다.
대부분의 경우들에서, 인간 관찰자는 이미지의 가려지지 않은 오브젝트들과 오브젝트의 연관에 기초하여 이미지에서 가려진 오브젝트를 정확하게 결정할 수도 있다. 예를 들어, 인간 관찰자는 CPU, 마우스, 및/또는 키보드와 같은 가려지지 않은 오브젝트들과 모니터들의 연관에 기초하여 가려진 모니터를 인식할 수도 있다. 연관 지식은 통상적으로 다른 오브젝트들과 발생하는 오브젝트들에 대한 연관적인 맵들에 기초한다.
본 개시의 양태들은 환경에서의 다른 오브젝트들의 공존의 가능성을 나타내는 지식-그래프들을 생성하는 것에 지향된다. 추가적으로, 본 개시의 양태들은 또한, 지식-그래프에 기초하여 분류기의 출력을 바이어싱 (biasing) 하는 것에 지향된다. 또한, 본 개시의 양태들은 추가적으로, 분류기의 출력에 기초하여 기존의 지식-그래프를 업데이트하는 것에 지향된다.
종래의 시스템들은 베이지안 빌리프 네트워크들 (Bayesian belief networks) 을 구축할 수도 있음에 유의하여야 한다. 예를 들어, 계층적 데이터베이스들은 영어 어휘 사전으로부터 도출된 지식-그래프들 상에서 구축될 수도 있다. 더욱이, 다른 종래의 시스템들은 오랜 사용으로 분류 결과들을 향상시킨다. 여전히, 종래의 시스템들은 네트워크의 트레이닝 동안 동적으로 학습되는 지식-그래프 기반 분류 시스템을 이용하지 않는다.
본 개시의 양태들은 분류기를 병렬적 폴링 메커니즘 (parallel polling mechanism) 으로부터 디커플링 (decoupling) 함으로써 유연성 (flexibility) 을 제공한다. 추가적으로, 또는 대안적으로, 병렬적 폴링 메커니즘은 분류기에 커플링되어 지식-그래프 출력에 기초하여 분류기 가중치들을 수정하도록 한다.
하나의 구성에서, 지식-그래프 기반 분류 시스템은 카메라로부터 가려지고/거나 외면된 사람들 (또는 오브젝트들) 을 태그한다. 일부 경우들에서, 사용자는 친구들 및/또는 가족들과 같이 특정 그룹으로부터의 하나 이상의 개인들과 사진들을 찍는 경향이 있을 수도 있다. 시간에 걸쳐, 지식-그래프는 사용자를 특정 개인들과 연관시킨다. 즉, 지식-그래프는 오랜 시간 동안 찍힌 사진들에 기초하여 특정 개인들과 연관을 바이어싱시킨다. 따라서, 하나의 구성에서, 연관에 기초하여, 그룹 이미지에서의 특정 개인은, 특정 개인의 이미지에서의 다른 개인들과의 연관에 대한 지식-그래프 바이어스 (bias) 에 따라 태그된다. 보다 구체적으로, 비록 개인의 이미지가 가려지고/거나 노이즈가 있을 때에도 개인은 태그될 수도 있다.
다른 구성에서, 지식-그래프 기반 분류 시스템은 헤드-마운티드 디스플레이와 같은 이미지 캡처 디바이스를 통해 캡처된 고속 이동 이미지들을 태그한다. 헤드-마운티드 디스플레이와 같은 일부 이미지 캡처링 디바이스들의 성질로 인해, 일부 캡처된 이미지들은 카메라의 뷰 (view) 내에 부분적으로 있을 수도 있고 및/또는 오직 작은 기간 동안 카메라의 뷰 내에 있을 수도 있다. 즉, 캡처된 이미지들의 일부는 구도가 잘 맞지 않을 수도 있다.
따라서, 이러한 구성에서, 이미지 캡처링 디바이스의 뷰 내에 및/또는 이미지 캡처링 디바이스의 뷰 외부에 부분적으로 있는 오브젝트들에 대한 가능성 있는 태그 (tag) 들이 지식-그래프에 의해 획득된다. 이미지 캡처링 디바이스의 뷰 내에 있지 않은 오브젝트는 사용자의 상대적인 환경에 존재할 수도 있음에 유의하여야 한다. 지식-그래프는 가능성있는 오브젝트 클래스들의 검색 공간을 감소시키기 위해 이미지 캡처링 디바이스에 대해 특정될 수도 있다. 본 개시의 양태들은 헤드-마운티드 디스플레이들에 제한되지 아니하고, 다른 이미지 캡처링 디바이스들에 대해 또한 고려된다.
또 다른 구성에서, 지식-그래프 기반 분류 시스템은 사진에 포함할 사람들을 제시한다. 구체적으로, 지식-그래프는 캡처된 이미지들에서 통상적으로 나타나는 사람들의 그룹들의 그래프들을 구축할 수도 있다. 따라서, 하나의 구성에서, 그룹 사진을 프레이밍 (framing) 하는 동안, 지식-그래프는 지식-그래프 정보에 기초하여 사진에 포함되어야만 하는 다른 개인들에 대한 맥락적 정보를 제공한다.
일부 경우들에서, 어떤 클래스들은 분류기에 의해 식별되지 않을 수도 있다. 따라서, 하나의 구성에서, 지식-그래프 기반 분류 시스템은 오브젝트-태깅 애플리케이션에서 가능성있는 클래스들의 리스트를 제시한다. 즉, 지식-그래프는 사용자가 추출된 오브젝트에 정확한 클래스를 적용하는 것을 도울 수도 있다. 예를 들어, 얼굴 태깅 (tagging) 애플리케이션에서, 하나 이상의 얼굴들은 낮은 신뢰도를 자질 수도 있거나 세그먼트화되지 않을 수도 있다. 따라서, 이 예에서, 지식-그래프는 사용자가 특정 개인과 연관시킬 수 있는 가능한 명칭들의 리스트를 제공한다. 더욱이, 분류기는 사용자-태그된 이미지들로부터 트레이닝될 수도 있고 및/또는 지식-그래프는 사용자-태그된 이미지들에 기초하여 업데이트될 수도 있다.
도 6 은 본 개시의 양태에 기초한 지식-그래프의 일 예를 예시한다. 도 6 에서 도시된 바와 같이, 각 오브젝트는 다른 오브젝트와 연관된다. 이 예에서, 도 6 에 도시된 바와 같이, 보다 두꺼운 선들은 보다 강한 공존의 가능성들을 나타낸다. 예를 들어, 도 6 에 도시된 바와 같이, 모니터는, 윈도우와의 공존의 확률에 비해 마우스와의 공존의 더 강한 가능성을 갖는다. 다른 예에서, 도 6 에서 도시된 바와 같이, DVD 는 윈도우와의 공존의 확률에 비해 TV 와의 공존의 더 강한 가능성을 갖는다.
하나의 구성에서, 지식-그래프는 쌍형 발생 확률들의 매트릭스로서 표현된다. 예를 들어, 도 6 의 지식-그래프는 표 2 의 지식-그래프 매트릭스 knowledge-graph matrix; KGM) 로서 코딩될 수도 있다.
모니터 TV 윈도우 DVD 마우스
모니터 1 0 0.2 0.4 0.9
TV 0 1 0.6 0.9 0.7
윈도우 0.2 0.6 1 0.6 0
DVD 0.4 0.9 0.6 1 0
마우스 0.9 0.7 0 0 1
표 2 에서 나타낸 바와 같이, 열 및 행의 각각의 교차점은 2 개의 오브젝트들의 발생 확률을 나타낸다. 예를 들어, 표 2 에서 나타낸 바와 같이, 모니터는 TV 와의 발생의 제로 확률, 윈도우와의 발생의 0.2 확률, DVD 와의 발생의 0.4 확률, 마우스와의 발생의 0.9 확률을 갖는다.
이하에서 제공된 의사-코드는 외부 입력 없이 초기 데이터베이스로부터 지식-그래프를 생성하기 위한 일 예이다. 즉, 지식-그래프는 획득된 이미지들에 기초하여 트레이닝될 수도 있다. 본 예에서, Ai 는 이미지들을 가리키고, L1...LN 은 클래스들 또는 오브젝트들을 가리키며, F 는 (Li, Lj) 에 의해 정의된 주어진 매트릭스 로케이션에 대한 증분의 양을 가리킨다. 하나의 구성에서, F 는 상수 스칼라 값이다.
지식-그래프 매트릭스 (KGM) 의 모든 엘리먼트들을 초기화
각각의 {데이터베이스에서의 이미지, A i} 에 대해
오브젝트들 L1, L2, ..., LN 의 라벨 인덱스들을 취득
매트릭스 엔트리들 (L i , L j ), {0< i, j < =N} 을 F 만큼 증분
이 구성에서, 각 이미지는 클래스들의 면에서 주해된다고 가정된다. 또한, 각 클래스는 고유 인덱스를 갖는다고 가정된다. 예를 들어, 자동차와 같은 클래스는 7 의 인덱스를 가지고, 신호등과 같은 다른 클래스는 31 의 인덱스를 갖는다. 따라서, 2 개의 클래스들의 매트릭스 엘리먼트들 (7, 31) 및 (31, 7) 은 자동차 및 신호등과 같은 2 개의 클래스들의 공존의 가능성을 포함한다. 공존은 또한 공동-발생으로서 지칭될 수도 있고, 그 역도 성립된다.
본 개시의 양태들은 대칭적 지식-그래프 매트릭스를 초래하는, 비-지향성 그래프를 가정함에 유의하여야 한다. 또한, 본 개시의 양태들은 또한 시간적 시퀀스에 대해 고려된다. 즉, 일부 경우들에서, n-튜플 모델들을 갖는 스피치/오디오 날짜와 같이, 출현의 순서는 공존 가능성을 결정하기 위해 사용된다. 다른 구성에서, 지식-그래프 매트릭스의 차원수는 2 보다 더 커서, 차원들은 한 번에 2 개보다 많은 오브젝트들에 대한 동시발생 통계를 캡처하고 및/또는 GPS 로케이션 및/또는 시각과 같은 다른 환경적 팩터들을 다수의 오브젝트들의 동시발생 통계에 연관시킨다.
이전의 예에 기초하여, 매트릭스 엘리먼트 (7, 31) 는, 비디오와 같은 하나 이상의 이미지들에서 신호등과 같은 다른 오브젝트에 의해 추종되는 자동차와 같은 하나의 오브젝트의 확률을 나타낼 수도 있다. 추가적으로, 매트릭스 엘리먼트 (31, 7) 는 비디오와 같은 하나 이상의 이미지들에서 자동차와 같은 다른 오브젝트에 의해 추종되는 신호등과 같은 하나의 오브젝트의 확률을 나타낼 수도 있다. 지향된 그래프 (directed graph) 의 본 예에서, 동시발생들 사이의 시간을 나타내기 위해 제 3 차원이 추가될 수도 있다. 예를 들어, 매트릭스 엘리먼트 (7, 31, 10) 는 비디오 세그먼트에서 서로 10 시간 단위들 내에서 신호등에 의해 추종되는 자동차의 확률을 나타낼 수도 있다. 시간 단위들은 초, 분, 시간, 또는 임의의 다른 시간 단위들일 수도 있다.
본 예에서, 병렬적 득점 시스템이 주어진 클래스에 대해 특정된다. 즉, 오브젝트가 시스템에 대해 제시될 때, 최상위 k 개의 예측된 클래스들에 대한 신뢰 메트릭들 P1, P2, ... Pk 이 오브젝트에 대해 특정된다. 예를 들어, 이전에 논의된 바와 같이, 표 1 에서, 모니터 오브젝트에 대한 신뢰 메트릭과 같은 메트릭은 40% (P1), 35% (P2), 및 25% (P3) 일 수도 있다.
하나의 구성에서, 시스템은 최대 신뢰 메트릭 P1 을 갖는 오브젝트를 결정한다. 예를 들어, 표 1 에 기초하여, 마우스는 최대 신뢰 메트릭 (90%) 을 갖는다. 또한, 마우스, CPU, 키보드, 및 모니터와 같은 이미지에서의 각 오브젝트에 대해, 시스템은 메트릭을 결정한다. 하나의 구성에서, 시스템은 클래스들의 신뢰도들의 차이에 기초하여 혼동 메트릭을 결정한다. 혼동 메트릭은 다음의 식에 기초할 수도 있다:
분류기 혼동 값 = 1/(P1-P2) (19)
표 1 에 나타낸 바와 같이, 시스템은 모니터가 윈도우인 40% 신뢰도 및 모니터가 모니터인 35% 신뢰도를 갖는다. 따라서, 식 (15) 에 기초하여, 혼동 메트릭은 20% 이다. 즉, 혼동 메트릭은 2 개의 신뢰 메트릭들 사이의 차이를 1 의 값을 갖는 분자에 대해 나눈 몫이다.
이 구성에서, 높은 혼동 메트릭은 진짜 오브젝트가 2 개의 추론된 클래스들 중 하나인지 여부에 관해 혼동이 존재함을 나타낸다. 따라서, 이미지에서의 오브젝트에 대해, 혼동 메트릭이 임계치 미만인 경우에, 예측된 클래스는 정확한 클래스로서 수용된다. 더욱이, 오브젝트에 대한 혼동 메트릭이 임계치보다 더 큰 경우에, 시스템은 최고 신뢰도를 갖는 클래스에 대해 오브젝트에 대한 예측된 클래스들을 결합하는 확률을 결정한다.
본 예에서, 임계치는 10% 일 수도 있다. 따라서, 표 1 에 있어서, 모니터에 대한 분류기 혼동은 20% 이기 때문에, 시스템은 윈도우와 같은 최고 신뢰 값을 갖는 예측된 클래스를 정확한 클래스로서 수용하지 않는다. 따라서, 시스템은 마우스와 같은 최고 신뢰도 P1 를 갖는 오브젝트에 대해 모니터와 같은 오브젝트에 대한 예측된 클래스들을 결합하는 확률을 결정한다.
결합들은 표 2 의 지식-그래프 매트릭스 확률들 W1, W2, ... Wk 에 기초할 수도 있다. 지식-그래프 매트릭스 확률들을 결정한 후에, 오브젝트의 신뢰 메트릭들 P1, P2, ... Pk 과 지식-그래프 매트릭스 확률들 W1, W2, ... Wk 의 곱에 기초하여 가중된 신뢰도가 결정된다. 최종적으로, 오브젝트에 대한 예측된 클래스들의 가중된 신뢰도 메트릭들이 최고 가중된 신뢰도를 갖는 예측된 클래스를 선택하기 위해 사용된다.
본 예에서, 표 2 에 기초하여, 최고 신뢰도를 갖는 오브젝트가 마우스일 때, 윈도우에 대한 가중치 (W1) 는 0 이고 모니터에 대한 가중치 (W2) 는 0.9 이다. 표 2 로부터의 지식-그래프 매트릭스는 모니터에 대한 클래스들의 가중된 신뢰 점수를 결정한다. 예를 들어, 모니터에 대해, 윈도우 클래스의 가중된 신뢰도는 원래의 신뢰도 P1 (40%) 와 가중치 W1 (0) 의 곱이다. 추가적으로, 모니터 클래스의 가중된 신뢰도는 원래의 신뢰도 P2 (35%) 와 가중치 W2 (0.9) 의 곱이다. 표 1 및 표 2 에 기초한 가중된 신뢰도는 표 3 에 나타낸다.
진짜 오브젝트 추론 1 추론 2 추론 3
모니터 윈도우 - 0% 모니터 - 32% TV - 17%
이 예에서, 윈도우, 모니터 및 TV 에 대한 신뢰도는 마우스를 윈도우에, 마우스를 모니터에, 그리고 마우스를 TV 에 연계하는 지식-그래프 매트릭스 확률들로 가중된다. 새로운 신뢰 점수들에 기초하여, 모니터가 최고 가중된 신뢰도를 가지기 때문에, 모니터가 이제 승리 클래스로 고려된다.
즉, 분류기의 출력은 지식-그래프 매트릭스에서 제공된 가중치들에 기초하여 바이어싱된다. 예를 들어, 표 2 에 나타낸 바와 같이, 마우스는 TV 또는 윈도우와 공존하기보다는 모니터와 공존할 가능성이 더 크다. 따라서, 마우스/모니터 관계는 마우스/윈도우 관계 및 마우스/TV 관계에 비해 더 큰 가중치가 주어진다. 지식-그래프 매트릭스에서 제공된 가중치들은 시스템의 트레이닝에 기초할 수도 있다.
하나의 구성에서, 심층 컨볼루션 네트워크 (DCN) 분류기의 출력은 또한 지식-그래프 매트릭스를 증강시킨다. 이 구성에서, 분류기의 출력에 기초하여, 시스템은 임계치보다 적은 혼동을 갖는 모든 오브젝트들을 선택하고, 그 선택된 오브젝트들로부터 지식-그래프 매트릭스를 구축한다.
예를 들어, 표 1 은 CPU, 마우스, 및 키보드가 낮은 혼동 메트릭들을 갖는 것을 나타낸다. 따라서, CPU, 마우스, 및 키보드와 같은 엔트리들은 쌍 형태로 오브젝트 라벨들을 연결함으로써 지식-그래프 매트릭스에서 엔트리들을 증분시킬 수도 있다. 증분 양은 고정적일 수도 있고 또는 쌍 참가자 클래스 라벨들에 대한 혼동의 양의 함수일 수도 있다. 즉, 임계치 미만의 혼동을 갖는 오브젝트들은 지식-그래프 매트릭스의 가중치들을 업데이트할 수도 있다. 즉, 시스템은 지식-그래프 매트릭스의 가중치들을 업데이트함으로써 트레이닝될 수도 있다.
대안적으로, 또는 추가적으로, 사용자는 추론이 부정확할 때 오브젝트에 할당된 클래스를 정정할 수도 있다. 이 구성에서, 정확한 클래스는 100% 의 신뢰도를 할당받고, 정정된 오브젝트의 클래스를 다른 오브젝트들에 연결하는 지식-그래프 매트릭스에서의 대응하는 엔트리들은 증분된다. 다른 구성에서, 지식-그래프 매트릭스는 누설 업데이트들 (leaky updates) 과 같이 부정적인 상관들로 업데이트된다.
누설 업데이트들은 시간에 걸친 연관성의 손실을 고려하여 시간에 걸친 지식-그래프 매트릭스의 각각의 엘리먼트에 대한 감쇠를 명시한다. 예를 들어, 사람이 친구들의 어떤 그룹의 멤버들과 연관되지 않는 경우에, 지식-그래프 매트릭스는 지식-그래프 매트릭스에서의 대응하는 엔트리들을 감소시킴으로써 시간에 걸친 연관의 손실을 반영할 것이다.
이전에 논의된 바와 같이, 다중 차원적 지식-그래프 매트릭스들에 대해 공간적 상관들이 또한 사용될 수도 있다. 하나의 양태에서, 오브젝트들의 공간적 분리를 나타내기 위해 제 3 또는 제 4 차원과 같은 다른 차원이 명시될 수도 있다. 예를 들어, 엘리먼트 (7, 31, 10) 는 서로 10 거리 단위들 내의 자동차 및 신호등의 동시발생의 확률을 나타낼 수도 있다. 거리 단위들은 피트, 인치, 미터, 또는 임의의 다른 측정 단위일 수도 있다.
따라서, 본 개시의 양태들에 기초하여, 지식-그래프 매트릭스는 초기 데이터셋트를 이용하고, 또한 상이한 오브젝트 클래스들의 동시발생의 확률에 기초하여 미래 이미지들을 적응시킨다. 하나의 구성에서, 오브젝트들이 신뢰도에 대해 라벨링될 때 오브젝트들의 공간적 및/또는 시간적 관계들이 고려된다. 더욱이, 본 개시의 양태들은 또한 스피치 및/또는 비디오에 대해 적용될 수도 있다. 예를 들어, 비디오 프레임들은 이전의 프레임의 콘텐츠들에 기초하여 재증식될 수도 있다.
하나의 구성에서, 피처 추출은 심층 컨볼루션 네트워크로서 구현된다. 이 구성에서, 통합된 심층 컨볼루션 네트워크 지식-그래프 매트릭스는 심층 컨볼루션 네트워크의 최상위 층에서의 모든 노드들을 가소성 시냅스들과 접속시킴으로써 특정된다. 즉, 각 노드는 클래스를 나타내고 그 노드의 활성화는 어떤 클래스의 확률이다. 지식-그래프가 학습될 때, 동시발생하는 오브젝트들의 노드들 사이의 시냅스들은 강화되고 비-동시발생 오브젝트들의 노드들 사이의 시냅스들은 약화된다. 측방 시냅스들은 다른 활성화된 오브젝트 노드들에 기초하여 오브젝트의 노드에 입력을 부가한다. 구체적으로, 지식-그래프 매트릭스는 심층 컨볼루션 네트워크의 출력 층에서의 측방 접속들을 통해 구현된다. 시냅스들의 가소성은 사용자가 지식-그래프 매트릭스를 업데이트하거나 시간에 걸쳐 새로운 오브젝트 동시발생들이 학습되는 것을 허용한다. 하나의 구성에서, 시냅스들의 2 개의 분리된 셋트들이 제공되고, 하나는 지식-그래프 매트릭스에 대한 것이고 하나는 분류기에 대한 것이다.
본 개시의 양태들은 노이즈의 존재에서 분류 네트워크의 성능을 향상시키고, 가능한 출력 클래스들을 미리가져오고 검색-공간을 감소시킴으로써 분류의 레이턴시를 감소시키며, 새로운 사용자 경험들을 가능하게 한다.
도 7 은 본 개시의 특정 양태들에 따라 범용 프로세서 (702) 를 이용하여 지식-그래프 연관에 기초한 전술된 오브젝트 분류의 일 예시적인 구현 (700) 을 예시한다. 변수들 (신경 신호들), 시냅스 가중치들, 계산 네트워크 (신경 네트워크) 와 연관된 시스템 파라미터들, 지연들, 및 주파수 빈 정보는 메모리 블록 (704) 에 저장될 수도 있고, 한편 범용 프로세서 (702) 에서 실행되는 명령들은 프로그램 메모리 (706) 로부터 로딩될 수도 있다. 본 개시의 일 양태에서, 범용 프로세서 (702) 내로 로딩된 명령들은, 상이한 오브젝트 클래스들의 동시발생의 쌍형 확률들 (pair-wise probabilities) 을 계산하는 지식-그래프를 구축하는 것, 노이즈의 존재 하에 오브젝트 분류 시스템의 성능을 증대시키기 위해 지식-그래프를 이용하는 것, 및/또는 분류기의 출력으로부터의 또는 사용자 생성된 태그들로부터의 새로운 데이터로 지식-그래프를 적응시키는 것을 위한 코드를 포함할 수도 있다.
도 8 은 상술한 지식-그래프 연관에 기초한 오브젝트 분류의 일 예시적인 구현 (800) 을 예시하며, 여기서 메모리 (802) 는 본 개시의 특정 양태들에 따라 계산 네트워크 (신경 네트워크) 의 개개의 (분산된) 프로세싱 유닛들 (신경 프로세서들) (808) 과 상호접속 네트워크 (804) 를 통해 인터페이싱될 수 있다. 변수들 (신경 신호들), 시냅스 가중치들, 계산 네트워크 (신경 네트워크) 지연들과 연관된 시스템 파라미터들, 주파수 빈 정보, 지식-그래프 연관은 메모리 (802) 에 저장될 수도 있고, 상호접속 네트워크 (804) 의 접속(들)을 통해 메모리 (802) 로부터 각각의 프로세싱 유닛 (신경 프로세서) (808) 내로 로딩될 수도 있다. 본 개시의 일 양태에서, 프로세싱 유닛 (808) 은, 상이한 오브젝트 클래스들의 동시발생의 쌍형 확률들을 계산하는 지식-그래프를 구축하고, 노이즈의 존재 하에 오브젝트 분류 시스템의 성능을 증대시키기 위해 지식-그래프를 이용하며, 및/또는 분류기의 출력으로부터의 또는 사용자 생성된 태그들로부터의 새로운 데이터로 지식-그래프를 적응시키도록 구성될 수도 있다.
도 9 는 지식-그래프 연관에 기초한 전술한 오브젝트 분류의 일 예시적인 구현 (700) 을 예시한다. 도 9 에 도시된 바와 같이, 하나의 메모리 뱅크 (902) 는 계산 네트워크 (신경 네트워크) 의 하나의 프로세싱 유닛 (904) 과 직접적으로 인터페이싱될 수도 있다. 각각의 메모리 뱅크 (902) 는 변수들 (신경 신호들), 시냅스 가중치들, 및/또는 대응하는 프로세싱 유닛 (신경 프로세서) (904) 지연들과 연관된 시스템 파라미터들, 주파수 빈 정보, 및 지식-그래프 연관을 저장할 수도 있다. 본 개시의 일 양태에서, 프로세싱 유닛 (904) 은, 상이한 오브젝트 클래스들의 동시발생의 쌍형 확률들을 계산하는 지식-그래프를 구축하도록, 노이즈의 존재 하에 오브젝트 분류 시스템의 성능을 증대시키기 위해 지식-그래프를 이용하도록, 및/또는 분류기의 출력으로부터의 또는 사용자 생성된 태그들로부터의 새로운 데이터로 지식-그래프를 적응시키도록 구성될 수도 있다.
도 10 은 본 개시의 특정 양태들에 따른 신경 네트워크 (1000) 의 일 예시적인 구현을 예시한다. 도 10 에 도시된 바와 같이, 신경 네트워크 (1000) 는 본원에서 설명된 방법들의 다양한 동작들을 수행할 수도 있는 다수의 로컬 프로세싱 유닛들 (1002) 을 가질 수도 있다. 각각의 로컬 프로세싱 유닛 (1002) 은 로컬 상태 메모리 (1004) 및 신경 네트워크의 파라미터들을 저장하는 로컬 파라미터 메모리 (1006) 를 포함할 수도 있다. 또한, 로컬 프로세싱 유닛 (1002) 은 로컬 모델 프로그램을 저장하기 위한 로컬 (뉴런) 모델 프로그램 (local model program; LMP) 메모리 (10010), 로컬 학습 프로그램을 저장하기 위한 로컬 학습 프로그램 (local learning program; LLP) 메모리 (1010), 및 로컬 접속 메모리 (1013) 를 가질 수도 있다. 또한, 도 10 에 도시된 바와 같이, 각각의 로컬 프로세싱 유닛 (1002) 은 로컬 프로세싱 유닛 (1002) 의 로컬 메모리들에 대한 구성들을 제공하기 위한 구성 프로세서 유닛 (1014) 과, 그리고 로컬 프로세싱 유닛들 (1002) 사이의 라우팅을 제공하는 라우팅 접속 프로세싱 유닛 (1016) 과 인터페이싱될 수도 있다.
하나의 구성에서, 뉴런 모델은 지식-그래프 연관에 기초하여 오브젝트를 분류하도록 구성된다. 뉴런 모델은 적용하는 수단, 및 결정하는 수단을 포함한다. 하나의 양태에서, 적용하는 수단, 및/또는 결정하는 수단은 인용된 기능들을 수행하도록 구성된 범용 프로세서 (702), 프로그램 메모리 (706), 메모리 블록 (704), 메모리 (802), 상호접속 네트워크 (804), 프로세싱 유닛들 (808), 프로세싱 유닛 (904), 로컬 프로세싱 유닛들 (1002), 및 또는 라우팅 접속 프로세싱 유닛들 (1016) 일 수도 있다. 다른 구성에서, 전술한 수단은 전술한 수단에 의해 인용된 기능들을 수행하도록 구성된 임의의 모듈 또는 임의의 장치일 수도 있다.
본 개시물의 특정 양태들에 따르면, 각각의 로컬 프로세싱 유닛 (1002) 은 원하는 신경 네트워크의 하나 이상의 기능적 피처들에 기초하여 신경 네트워크의 파라미터들을 결정하고, 결정된 파라미터들이 더 적응되고, 튜닝되고, 업데이트됨으로써 원하는 기능적 특징들을 향해 하나 이상의 기능적 특징들을 개발하도록 구성될 수도 있다.
도 11 은 오브젝트들 분류를 위한 방법 (1100) 을 예시한다. 블록 (1102) 에서, 오브젝트 분류기는 오브젝트들에 하나 이상의 신뢰 점수들을 적용한다. 즉, 각 오브젝트는 하나 이상의 신뢰 점수들과 연관된다. 또한, 블록 (1104) 에서, 오브젝트 분류기는 신뢰 점수들에 기초하여 메트릭을 결정한다. 마지막으로, 블록 (1106) 에서, 오브젝트 분류기는, 메트릭이 임계치 초과일 때 지식-그래프에 기초하여 제 1 오브젝트의 분류를 결정한다.
상술된 방법들의 다양한 동작들은 대응하는 기능들을 수행할 수 있는 임의의 적합한 수단으로 수행될 수도 있다. 수단은 주문형 집적 회로 (ASIC), 또는 프로세서를 포함하여 다양한 하드웨어 및/또는 소프트웨어 컴포넌트(들) 및/또는 모듈(들)을 포함하나, 이로 제한되지는 않는다. 일반적으로, 도면들에 대응하는 동작들이 있는 경우, 이러한 동작들은 대응하는 상대 수단 플러스 동일한 번호를 갖는 기능 컴포넌트들을 가질 수도 있다.
본원에서 이용되는 바와 같이, 용어 "결정하기" 는 매우 다양한 액션들을 포괄한다. 예를 들어, "결정하기" 는 산출하기, 계산하기, 프로세싱하기, 도출하기, 조사하기, 검색하기 (예를 들어, 테이블, 데이터베이스, 또는 다른 데이터 구조에서 검색하기), 확인하기 등을 포함할 수도 있다. 또한, "결정하기" 는 수신하기 (예를 들어, 정보 수신하기), 액세스하기 (예를 들어, 메모리 내의 데이터에 액세스하기) 등을 포함할 수도 있다. 또한, "결정하기" 는 해결하기, 선택하기, 고르기, 설정하기 등을 포함할 수도 있다.
본원에서 이용되는 바와 같이, 아이템들의 리스트 중 "그 중 적어도 하나" 를 지칭하는 구절은 단일 구성부를 포함하여, 이러한 아이템들의 임의의 조합을 지칭한다. 예로서, "a, b, 또는 c" 중의 적어도 하나" 는 a, b, c, a-b, a-c, b-c, 및 a-b-c 를 포함하고자 한다.
본원 개시물과 연계하여 설명된 다양한 예증적인 논리 블록들, 모듈들, 및 회로들은 본원에서 개시된 기능들을 수행하도록 디자인된 범용 프로세서, 디지털 신호 프로세서 (DSP), 주문형 반도체 (ASIC), 필드 프로그램가능한 게이트 어레이 (FPGA) 또는 다른 프로그램가능한 로직 디바이스 (PLD), 이산 게이트 또는 트랜지스터 로직, 이산 하드웨어 컴포넌트들, 또는 이들의 임의의 조합에 의해 구현되거나 수행될 수도 있다. 범용 프로세서는 마이크로프로세서일 수도 있으나, 대안으로, 프로세서는 임의의 상업적으로 이용가능한 프로세서, 제어기, 마이크로제어기, 또는 상태 머신일 수도 있다. 프로세서는 또한 컴퓨팅 디바이스들의 조합, 예를 들어, DSP 와 마이크로프로세서의 조합, 복수의 마이크로프로세서들, DSP 코어와 연계한 하나 이상의 마이크로프로세서들, 또는 임의의 다른 그러한 구성으로 구현될 수도 있다.
본 개시물과 연계하여 설명된 방법의 단계들 또는 알고리즘은 하드웨어에서, 프로세서에 의해 실행되는 소프트웨어 모듈에서, 또는 이들 양자의 조합에서 직접적으로 구현될 수도 있다. 소프트웨어 모듈은 공지된 임의의 형태의 저장 매체 내에 있을 수도 있다. 이용될 수도 저장 매체들의 일부 예들은, 랜덤 액세스 메모리 (random access memory; RAM), 판독 전용 메모리 (read only memory; ROM), 플래시 메모리, 소거가능한 프로그램가능 판독 전용 메모리 (erasable programmable read-only memory; EPROM), 전기적으로 소거가능한 프로그램가능 판독 전용 메모리 (electrically erasable programmable read-only memory; EEPROM), 레지스터들, 하드 디스크, 이동식 디스크, CD-ROM 등을 포함한다. 소프트웨어 모듈은 단일 명령 또는 많은 명령들을 포함할 수도 있고, 상이한 프로그램들 사이에서 여러 상이한 코드 세그먼트들에 걸쳐, 그리고 다수의 저장 매체들에 걸쳐 분배될 수도 있다. 저장 매체는 프로세서에 연결되어, 프로세서가 저장 매체로부터 정보를 판독하거나 저장 매체에 정보를 기록할 수 있다. 대안에서, 저장 매체는 프로세서에 통합될 수도 있다.
본원에 개시된 방법들은 설명된 방법을 달성하기 위한 하나 이상의 단계들 또는 액션들을 포함한다. 방법 단계들 및/또는 액션들은 청구항들의 범위를 벗어나지 않으면서 서로 상호 교환될 수도 있다. 다시 말해, 단계들 또는 액션들에 대한 특정 순서가 명시되지 않는 한, 특정 단계들 및/또는 액션들의 순서 및/또는 이용은 청구항들의 범위로부터 벗어남이 없이 수정될 수도 있다.
설명된 기능들은 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의의 조합으로 구현될 수도 있다. 하드웨어에서 구현된다면, 일 예시적인 하드웨어 구성은 디바이스에서의 프로세싱 시스템을 포함할 수도 있다. 프로세싱 시스템은 버스 아키텍쳐로 구현될 수도 있다. 버스는 프로세싱 시스템 및 전체 설계 제약들의 특정 애플리케이션들에 따라 임의의 개수의 상호접속하는 버스들 및 브리지들을 포함할 수도 있다. 버스는 프로세서, 머신-판독가능 매체들, 및 버스 인터페이스를 포함하여 다양한 회로들을 함께 링크할 수도 있다. 버스 인터페이스는 다른 것들 중에서 네트워크 어댑터를 버스를 통해 프로세싱 시스템에 연결하는데 이용될 수도 있다. 네트워크 어댑터는 신호 프로세싱 기능들을 구현하는데 이용될 수도 있다. 특정 양태들에서, 사용자 인터페이스 (예를 들어, 키보드, 디스플레이, 마우스, 조이스틱 등) 가 또한 버스에 연결될 수도 있다. 버스는 또한 다양한 다른 회로들, 예컨대, 타이밍 소스들, 주변기기들, 전압 조절기들, 전력 관리 회로들 등을 링크할 수도 있으며, 이는 공지되어 있으므로, 더 이상 설명되지 않을 것이다.
프로세서는 컴퓨터 판독가능 매체 상에 저장된 소프트웨어의 실행을 포함하여 버스 및 범용 프로세싱을 관리하는 역할을 할 수도 있다. 프로세서는 하나 이상의 범용 및/또는 특수-목적용 프로세서들로 구현될 수도 있다. 예들은 마이크로프로세서들, 마이크로제어기들, DSP 제어기들, 및 소프트웨어를 실행할 수 있는 다른 회로부를 포함한다. 소프트웨어는 소프트웨어, 펌웨어, 미들웨어, 마이크로코드, 하드웨어 서술 언어, 또는 다른 것으로 지칭되더라도, 명령들, 데이터, 또는 이들의 임의의 조합을 의미하는 것으로 광범위하게 해석될 수 있다. 머신-판독가능 매체들은, 예로서, 랜덤 액세스 메모리 (RAM), 플래시 메모리, 판독 전용 메모리 (ROM), 프로그램가능한 판독 전용 메모리 (PROM), 소거가능한 프로그램가능 판독 전용 메모리 (EPROM), 전기적으로 소거가능한 프로그램가능 판독 전용 메모리 (EEPROM), 레지스터들, 자기 디스크들, 광학 디스크들, 하드 드라이브들, 또는 임의의 다른 적합한 저장 매체, 또는 이들의 임의의 조합을 포함할 수도 있다. 머신-판독가능 매체들은 컴퓨터-프로그램 제품으로 구체화될 수도 있다. 컴퓨터-프로그램 제품은 패키징 재료들을 포함할 수도 있다.
하드웨어 구현에서, 머신-판독가능 매체들은 프로세서와 별개인 프로세싱 시스템의 일부일 수도 있다. 그러나, 머신-판독가능 매체들, 또는 이의 임의의 부분은 프로세싱 시스템의 외부에 있을 수도 있음을 통상의 기술자는 쉽게 이해할 것이다. 예로서, 머신-판독가능 매체들은 송신 라인, 데이터에 의해 변조된 반송파, 및/또는 디바이스와 별도인 컴퓨터 제품을 포함할 수도 있으며, 이 모두는 버스 인터페이스를 통해 프로세서에 의해 액세스가능하게 될 수도 있다. 대안으로, 또는 이에 더해, 머신-판독가능 매체들, 또는 이들의 임의의 부분은 프로세서에 통합될 수도 있으며, 그러한 경우에는 캐시 및/또는 범용 레지스터 파일들과 함께 있을 수도 있다. 논의된 다양한 컴포넌트들이 로컬 컴포넌트와 같이 특정 위치를 갖는 것으로 설명되었으나, 그것들은 또한 소정의 컴포넌트들이 분산 컴퓨팅 시스템의 일부로서 구성되는 것과 같이 다양한 방식들로 구성될 수도 있다.
프로세싱 시스템은 프로세서 기능성을 제공하는 하나 이상의 마이크로프로세서들 및 적어도 일부분의 머신-판독가능 매체들을 제공하는 외부 메모리로 구현될 수도 있으며, 모두 외부 버스 아키텍쳐를 통해 다른 지원하는 회로부와 함께 링크된다. 대안으로, 프로세싱 시스템은 뉴런 모델들 및 본원에서 설명된 신경 시스템들의 모델들을 구현하기 위한 하나 이상의 뉴로모픽 프로세서들을 포함할 수도 있다. 다른 대안으로서, 프로세싱 시스템은 프로세서를 갖는 주문형 반도체 (ASIC), 버스 인터페이스, 사용자 인터페이스, 지원 회로부, 및 단일 칩 내에 통합되는 적어도 일부분의 머신-판독가능 매체들로, 또는 하나 이상의 필드 프로그램가능 게이트 어레이 (FPGA) 들, 프로그램가능 로직 디바이스 (PLD) 들, 제어기들, 상태 머신들, 게이트 로직, 이상 하드웨어 컴포넌트들, 또는 임의의 다른 적합한 회로부, 또는 본 개시물을 통해 설명된 다양한 기능성을 수행할 수 있는 회로들의 임의의 조합으로 구현될 수도 있다. 특정 응용 및 전체 시스템에 부과되는 전체 설계 제약들에 따라 본 개시물에 걸쳐 제시된 설명된 기능성을 가장 잘 구현하기 위한 방법을 통상의 기술자는 인지할 것이다.
머신-판독가능 매체들은 다수의 소프트웨어 모듈들을 포함할 수도 있다. 소프트웨어 모듈들은, 프로세서에 의해 실행되는 경우, 프로세싱 시스템으로 하여금 다양한 기능들을 수행하게 하는 명령들을 포함한다. 소프트웨어 모듈들은 송신 모듈 및 수신 모듈을 포함할 수도 있다. 각각의 소프트웨어 모듈은 단일 저장 디바이스에 있을 수도 있거나 다수의 저장 디바이스들에 걸쳐 분산될 수도 있다. 예로서, 소프트웨어 모듈은 트리거링 이벤트가 발생하는 경우 하드웨어 드라이브로부터 RAM 으로 로딩될 수도 있다. 소프트웨어 모듈의 실행 중에, 프로세서는 액세스 속도를 증가시키기 위해 명령들의 일부를 캐시 내로 로딩할 수도 있다. 하나 이상의 캐시 라인들은 그러면 프로세서에 의한 실행을 위해 범용 레지스터 파일 내로 로딩될 수도 있다. 하기에서 소프트웨어 모듈의 기능성을 언급하는 경우, 그러한 기능성은 해당 소프트웨어 모듈로부터 명령들을 실행하는 경우 프로세서에 의해 구현된다는 것이 이해될 것이다.
소프트웨어로 구현된다면, 기능들은 하나 이상의 명령들 또는 코드로서 컴퓨터 판독가능 매체 상에 저장되거나 전송될 수도 있다. 컴퓨터-판독가능 매체들은 한 장소에서 다른 장소로 컴퓨터 프로그램의 전송을 가능하게 하는 임의의 매체를 포함하여 컴퓨터 저장 매체들 및 통신 매체들 양자 모두를 포함한다. 저장 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 이용가능한 매체일 수도 있다. 비제한적인 예로서, 이러한 컴퓨터-판독가능 매체들은 RAM, ROM, EEPROM, CD-ROM 또는 다른 광학 디스크 스토리지, 자기 디스크 스토리지 또는 다른 자기 스토리지 디바이스들, 또는 요구되는 프로그램 코드를 명령들 또는 데이터 구조들의 형태로 이송 또는 저장하기 위해 사용될 수 있고 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다. 또한, 임의의 연결부는 컴퓨터-판독가능 매체라고 적절히 지칭된다. 예를 들어, 소프트웨어가 동축 케이블, 광섬유 케이블, 연선, 디지털 가입자 회선 (DSL), 또는 적외선 (IR), 무선, 및 마이크로파와 같은 무선 기술들을 사용하여 웹사이트, 서버, 또는 다른 원격 소스로부터 전송된다면, 동축 케이블, 광섬유 케이블, 연선, DSL, 또는 적외선, 무선, 및 마이크로파와 같은 무선 기술들은 매체의 정의 내에 포함된다. 본원에서 사용된 디스크 (disk) 와 디스크 (disc) 는, 컴팩트 디스크 (CD), 레이저 디스크, 광학 디스크, 디지털 다기능 디스크 (DVD), 플로피디스크 및 블루레이? 디스크를 포함하며, 여기서 디스크 (disk) 는 통상 자기적으로 데이터를 재생하고, 디스크 (disc) 는 레이저를 이용하여 광학적으로 데이터를 재생한다. 따라서, 일부 양태들에서, 컴퓨터-판독가능 매체들은 비일시적 컴퓨터-판독가능 매체들 (예를 들어, 유형의 매체들) 을 포함할 수도 있다. 또한, 다른 양태들에 있어서, 컴퓨터-판독가능 매체들은 일시적 컴퓨터-판독가능 매체들 (예를 들어, 신호) 을 포함할 수도 있다. 위의 조합들도 컴퓨터-판독가능 매체들의 범위 내에 포함되어야 한다.
따라서, 특정 양태들은 본원에 제시된 동작들을 수행하는 컴퓨터 프로그램 제품을 포함할 수도 있다. 예를 들어, 이러한 컴퓨터 프로그램 제품은 저장된 (및/또는 인코딩된) 명령들을 갖는 컴퓨터 판독가능 매체를 포함할 수도 있으며, 명령들은 본원에 설명된 동작들을 수행하기 위해 하나 이상의 프로세서들에 의해 실행가능할 수도 있다. 특정 양태들에 있어서, 컴퓨터 프로그램 제품은 패키징 재료를 포함할 수도 있다.
또한, 본원에 설명된 방법들 및 기법들을 수행하는 모듈들 및/또는 다른 적절한 수단은 다운로드될 수도 있고/있거나, 그렇지 않으면 가능한 적용가능한 사용자 단말 및/또는 기지국에 의해 획득될 수도 있다. 예를 들어, 본원에서 설명된 방법들을 수행하기 위한 수단의 전송을 용이하게 하기 위한 서버에 디바이스가 연결될 수도 있다. 대안으로, 본원에 설명된 다양한 방법들이 저장 수단 (예를 들어, RAM, ROM, 물리적 컴팩트 디스크 (CD) 나 플로피 디스크와 같은 물리적 저장 매체 등) 을 통해 제공될 수도 있어, 사용자 단말 및/또는 기지국은 디바이스에 연결할 시에 또는 디바이스에 저장 수단을 제공할 시에 다양한 방법들을 획득할 수 있다. 또한, 본원에서 설명된 방법들 및 기술들을 디바이스에 제공하기 위해 임의의 다른 적절한 기술들이 활용될 수 있다.
청구항들은 위에서 예시된 정확한 구성 및 컴포넌트들로 제한되지 않는 것으로 이해되어야 한다. 청구항의 범위를 벗어나지 않으면서, 본원에서 설명된 시스템들, 방법들, 및 장치들의 배치, 동작 및 세부사항들에서 다양한 수정예들, 변경예들, 및 변형예들이 이루어질 수도 있다.

Claims (24)

  1. 오브젝트를 분류하는 방법으로서,
    복수의 오브젝트들에 대해 복수의 신뢰 값들을 적용하는 단계;
    상기 복수의 신뢰 값들에 적어도 부분적으로 기초하여 메트릭을 결정하는 단계; 및
    상기 메트릭이 임계치를 초과할 때 지식-그래프에 적어도 부분적으로 기초하여 상기 복수의 오브젝트들의 제 1 오브젝트의 분류를 결정하는 단계를 포함하는, 오브젝트를 분류하는 방법.
  2. 제 1 항에 있어서,
    상기 지식-그래프는 상기 제 1 오브젝트가 적어도 제 2 오브젝트와 연관되는 가능성에 적어도 부분적으로 기초하여 결정된 가중치들을 포함하는, 오브젝트를 분류하는 방법.
  3. 제 2 항에 있어서,
    상기 분류는 상기 지식-그래프의 상기 가중치들을 이용한 상기 제 1 오브젝트에 대한 상기 복수의 신뢰 값들의 바이어싱에 적어도 부분적으로 기초하여 결정되는, 오브젝트를 분류하는 방법.
  4. 제 2 항에 있어서,
    상기 지식-그래프의 상기 가중치들을 상기 복수의 오브젝트들 중 최대 신뢰 값을 갖는 오브젝트와 연관시키는 단계를 더 포함하는, 오브젝트를 분류하는 방법.
  5. 제 2 항에 있어서,
    상기 지식-그래프의 상기 가중치들은 오브젝트들의 학습된 관계들에 적어도 부분적으로 기초하는, 오브젝트를 분류하는 방법.
  6. 제 5 항에 있어서,
    상기 임계치 미만의 혼동 값을 갖는 상기 복수의 오브젝트들로부터의 오브젝트들의 관계들의 학습에 적어도 부분적으로 기초하여 상기 지식-그래프의 상기 가중치들을 업데이트하는 단계를 더 포함하는, 오브젝트를 분류하는 방법.
  7. 제 5 항에 있어서,
    사용자 입력에 적어도 부분적으로 기초하여 상기 지식-그래프의 상기 가중치들을 업데이트하는 단계를 더 포함하는, 오브젝트를 분류하는 방법.
  8. 제 2 항에 있어서,
    상기 지식-그래프의 상기 가중치들은, 상기 제 1 오브젝트가 상기 제 2 오브젝트에 대해 상대적으로 나타나는 때의 순서에 적어도 부분적으로 기초하는, 오브젝트를 분류하는 방법.
  9. 제 1 항에 있어서,
    상기 지식-그래프는 심층 컨볼루션 네트워크 (deep convolutional network; DCN) 와 통합되는, 오브젝트를 분류하는 방법.
  10. 제 1 항에 있어서,
    상기 메트릭은 각각의 예측된 클래스에 대한 신뢰 값들에 적어도 부분적으로 기초하는 혼동 메트릭인, 오브젝트를 분류하는 방법.
  11. 제 1 항에 있어서,
    상기 복수의 오브젝트들은 적어도 이미지, 비디오, 오디오, 또는 이들의 조합에서 캡처되는, 오브젝트를 분류하는 방법.
  12. 오브젝트를 분류하기 위한 장치로서,
    상기 장치는,
    메모리 유닛; 및
    상기 메모리 유닛에 커플링된 적어도 하나의 프로세서를 포함하고,
    상기 적어도 하나의 프로세서는,
    복수의 오브젝트들에 대해 복수의 신뢰 값들을 적용하도록;
    상기 복수의 신뢰 값들에 적어도 부분적으로 기초하여 메트릭을 결정하도록; 그리고
    상기 메트릭이 임계치를 초과할 때 지식-그래프에 적어도 부분적으로 기초하여 상기 복수의 오브젝트들의 제 1 오브젝트의 분류를 결정하도록 구성되는, 오브젝트를 분류하기 위한 장치.
  13. 제 12 항에 있어서,
    상기 지식-그래프는 상기 제 1 오브젝트가 적어도 제 2 오브젝트와 연관되는 가능성에 적어도 부분적으로 기초하여 결정된 가중치들을 포함하는, 오브젝트를 분류하기 위한 장치.
  14. 제 13 항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 지식-그래프의 상기 가중치들을 이용한 상기 제 1 오브젝트에 대한 상기 복수의 신뢰 값들의 바이어싱에 적어도 부분적으로 기초하여 상기 분류를 결정하도록 더 구성되는, 오브젝트를 분류하기 위한 장치.
  15. 제 13 항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 지식-그래프의 상기 가중치들을 상기 복수의 오브젝트들 중 최대 신뢰 값을 갖는 오브젝트와 연관시키도록 더 구성되는, 오브젝트를 분류하기 위한 장치.
  16. 제 13 항에 있어서,
    상기 지식-그래프의 상기 가중치들은 오브젝트들의 학습된 관계들에 적어도 부분적으로 기초하는, 오브젝트를 분류하기 위한 장치.
  17. 제 16 항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 임계치 미만의 혼동 값을 갖는 상기 복수의 오브젝트들로부터의 오브젝트들의 관계들의 학습에 적어도 부분적으로 기초하여 상기 지식-그래프의 상기 가중치들을 업데이트하도록 더 구성되는, 오브젝트를 분류하기 위한 장치.
  18. 제 16 항에 있어서,
    상기 적어도 하나의 프로세서는, 사용자 입력에 적어도 부분적으로 기초하여 상기 지식-그래프의 상기 가중치들을 업데이트하도록 더 구성되는, 오브젝트를 분류하기 위한 장치.
  19. 제 13 항에 있어서,
    상기 지식-그래프의 상기 가중치들은, 상기 제 1 오브젝트가 상기 제 2 오브젝트에 대해 상대적으로 나타나는 때의 순서에 적어도 부분적으로 기초하는, 오브젝트를 분류하기 위한 장치.
  20. 제 12 항에 있어서,
    상기 지식-그래프는 심층 컨볼루션 네트워크 (deep convolutional network; DCN) 와 통합되는, 오브젝트를 분류하기 위한 장치.
  21. 제 12 항에 있어서,
    상기 메트릭은 각각의 예측된 클래스에 대한 신뢰도들에 적어도 부분적으로 기초하는 혼동 메트릭인, 오브젝트를 분류하기 위한 장치.
  22. 제 12 항에 있어서,
    상기 복수의 오브젝트들은 적어도 이미지, 비디오, 오디오, 또는 이들의 조합에서 캡처되는, 오브젝트를 분류하기 위한 장치.
  23. 오브젝트를 분류하기 위한 컴퓨터 프로그램 제품으로서,
    상기 컴퓨터 프로그램 제품은, 프로그램 코드가 기록된 비일시적 컴퓨터 판독가능 매체를 포함하며,
    상기 프로그램 코드는 프로세서에 의해 실행되고,
    상기 프로그램 코드는,
    복수의 오브젝트들에 대해 복수의 신뢰 값들을 적용하기 위한 프로그램 코드;
    상기 복수의 신뢰 값들에 적어도 부분적으로 기초하여 메트릭을 결정하기 위한 프로그램 코드; 및
    상기 메트릭이 임계치를 초과할 때 지식-그래프에 적어도 부분적으로 기초하여 상기 복수의 오브젝트들의 제 1 오브젝트의 분류를 결정하기 위한 프로그램 코드를 포함하는, 비일시적 컴퓨터 판독가능 매체를 포함하는 컴퓨터 프로그램 제품.
  24. 오브젝트를 분류하기 위한 장치로서,
    복수의 오브젝트들에 대해 복수의 신뢰 값들을 적용하는 수단;
    상기 복수의 신뢰 값들에 적어도 부분적으로 기초하여 메트릭을 결정하는 수단; 및
    상기 메트릭이 임계치를 초과할 때 지식-그래프에 적어도 부분적으로 기초하여 상기 복수의 오브젝트들의 제 1 오브젝트의 분류를 결정하는 수단을 포함하는, 오브젝트를 분류하기 위한 장치.
KR1020177004013A 2014-08-19 2015-07-28 데이터에 대한 지식-그래프 바이어싱된 분류 KR20170044102A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201462039329P 2014-08-19 2014-08-19
US62/039,329 2014-08-19
US14/528,890 US10474949B2 (en) 2014-08-19 2014-10-30 Knowledge-graph biased classification for data
US14/528,890 2014-10-30
PCT/US2015/042488 WO2016028446A1 (en) 2014-08-19 2015-07-28 Knowledge-graph biased classification for data

Publications (1)

Publication Number Publication Date
KR20170044102A true KR20170044102A (ko) 2017-04-24

Family

ID=55348579

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177004013A KR20170044102A (ko) 2014-08-19 2015-07-28 데이터에 대한 지식-그래프 바이어싱된 분류

Country Status (9)

Country Link
US (1) US10474949B2 (ko)
EP (2) EP3937087A1 (ko)
JP (1) JP2017531240A (ko)
KR (1) KR20170044102A (ko)
CN (1) CN106663221B (ko)
BR (1) BR112017003023A2 (ko)
SG (1) SG11201610934SA (ko)
TW (1) TW201626293A (ko)
WO (1) WO2016028446A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11829851B2 (en) 2018-03-13 2023-11-28 Sony Corporation Information processor, mobile device, and method and program thereof
US11995539B2 (en) 2017-06-09 2024-05-28 Samsung Electronics Co., Ltd. Electronic apparatus and method for re-learning trained model

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9536293B2 (en) * 2014-07-30 2017-01-03 Adobe Systems Incorporated Image assessment using deep convolutional neural networks
US9953425B2 (en) 2014-07-30 2018-04-24 Adobe Systems Incorporated Learning image categorization using related attributes
US20160203137A1 (en) * 2014-12-17 2016-07-14 InSnap, Inc. Imputing knowledge graph attributes to digital multimedia based on image and video metadata
US10078651B2 (en) * 2015-04-27 2018-09-18 Rovi Guides, Inc. Systems and methods for updating a knowledge graph through user input
US10726337B1 (en) * 2015-04-30 2020-07-28 Hrl Laboratories, Llc Method and apparatus for emulation of neuromorphic hardware including neurons and synapses connecting the neurons
CN109478241B (zh) * 2016-05-13 2022-04-12 努门塔公司 执行推理的计算机实现的方法、存储介质及计算设备
CN109564636B (zh) * 2016-05-31 2023-05-02 微软技术许可有限责任公司 使用一个神经网络来训练另一个神经网络
US11188823B2 (en) 2016-05-31 2021-11-30 Microsoft Technology Licensing, Llc Training a neural network using another neural network
US10380480B2 (en) 2016-05-31 2019-08-13 Microsoft Technology Licensing, Llc Changeover from one neural network to another neural network
US11194860B2 (en) * 2016-07-11 2021-12-07 Baidu Usa Llc Question generation systems and methods for automating diagnosis
US10949737B2 (en) 2016-07-13 2021-03-16 Samsung Electronics Co., Ltd. Method for neural network and apparatus performing same method
US10606849B2 (en) 2016-08-31 2020-03-31 International Business Machines Corporation Techniques for assigning confidence scores to relationship entries in a knowledge graph
US10607142B2 (en) 2016-08-31 2020-03-31 International Business Machines Corporation Responding to user input based on confidence scores assigned to relationship entries in a knowledge graph
US9767408B1 (en) 2016-09-16 2017-09-19 International Business Machines Corporation Multi-memristive synapse with clock-arbitrated weight update
US9785885B1 (en) 2016-09-16 2017-10-10 International Business Machines Corporation Arbitration schema based on a global clock
JP6886869B2 (ja) * 2017-06-09 2021-06-16 川崎重工業株式会社 動作予測システム及び動作予測方法
US10628699B2 (en) * 2017-06-13 2020-04-21 Samsung Electronics Co., Ltd. Event-based image feature extraction
US11334692B2 (en) 2017-06-29 2022-05-17 International Business Machines Corporation Extracting a knowledge graph from program source code
CN107526769A (zh) * 2017-07-10 2017-12-29 北京百度网讯科技有限公司 基于人工智能的照片处理方法及装置、设备及可读介质
US10540390B1 (en) 2017-08-07 2020-01-21 Amazon Technologies, Inc. Image-based item identification
US20190080245A1 (en) * 2017-09-08 2019-03-14 Niantic, Inc. Methods and Systems for Generation of a Knowledge Graph of an Object
US10725982B2 (en) 2017-11-20 2020-07-28 International Business Machines Corporation Knowledge graph node expiration
CN108171255A (zh) * 2017-11-22 2018-06-15 广东数相智能科技有限公司 基于图像识别的图片联想强度评分方法及装置
US11205114B2 (en) * 2018-03-19 2021-12-21 Intel Corporation Multi-layer neural networks using symmetric tensors
CN108536861B (zh) * 2018-04-19 2022-03-18 中国科学院重庆绿色智能技术研究院 一种医疗指南的交互式培训方法及其系统
US10776337B2 (en) 2018-07-06 2020-09-15 International Business Machines Corporation Multi-dimensional knowledge index and application thereof
CN109063021B (zh) * 2018-07-12 2021-10-15 浙江大学 一种能够编码关系语义多样性结构的知识图谱分布式表示方法
CN109189937B (zh) 2018-08-22 2021-02-09 创新先进技术有限公司 一种特征关系推荐方法及装置、一种计算设备及存储介质
US10803182B2 (en) 2018-12-03 2020-10-13 Bank Of America Corporation Threat intelligence forest for distributed software libraries
US11354351B2 (en) * 2019-01-31 2022-06-07 Chooch Intelligence Technologies Co. Contextually generated perceptions
US11403328B2 (en) 2019-03-08 2022-08-02 International Business Machines Corporation Linking and processing different knowledge graphs
KR102079970B1 (ko) * 2019-04-30 2020-04-07 (주)에스투더블유랩 지식 그래프를 이용하여 사이버 시큐리티를 제공하는 방법, 장치 및 컴퓨터 프로그램
US11308365B2 (en) * 2019-06-13 2022-04-19 Expedia, Inc. Image classification system
CN110362689A (zh) * 2019-06-21 2019-10-22 深圳壹账通智能科技有限公司 一种风险评估方法、装置、存储介质和服务器
CN110363583B (zh) * 2019-07-02 2023-08-04 北京淇瑀信息科技有限公司 一种基于位置信息创建用户消费行为标签的方法、装置和电子设备
US11379733B2 (en) 2019-07-10 2022-07-05 International Business Machines Corporation Detecting and predicting object events from images
DE102019119087A1 (de) * 2019-07-15 2021-01-21 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Komponentenbasierte verarbeitung von eingangsgrössen
CN110765317B (zh) * 2019-09-18 2024-03-01 上海合合信息科技股份有限公司 一种企业受益人运算系统及方法
CN111177400B (zh) * 2019-12-05 2023-07-25 国网能源研究院有限公司 基于知识图谱的设备、业务及数据的关联显示方法和装置
US11176137B2 (en) 2020-02-19 2021-11-16 Bank Of America Corporation Query processing platform for performing dynamic cluster compaction and expansion
WO2021171208A1 (en) 2020-02-24 2021-09-02 Thales Canada Inc. Method for semantic object detection with knowledge graph
CN111367961B (zh) * 2020-02-27 2023-03-28 西安交通大学 基于图卷积神经网络的时序数据事件预测方法、系统及其应用
CN111522967B (zh) * 2020-04-27 2023-09-15 北京百度网讯科技有限公司 知识图谱构建方法、装置、设备以及存储介质
CN111753330B (zh) * 2020-06-18 2023-08-29 百度在线网络技术(北京)有限公司 数据泄露主体的确定方法、装置、设备和可读存储介质
CN111743574B (zh) * 2020-07-12 2023-04-07 西北工业大学 乳腺癌超声影像高置信实体关系的知识图谱构建方法
CN114641811B (zh) * 2020-10-16 2023-03-28 维萨国际服务协会 用于用户网络活动异常检测的系统、方法和计算机程序产品
CN112417457B (zh) * 2020-11-16 2022-02-08 中国电子科技集团公司第三十研究所 一种基于大数据的敏感数据还原检测的方法与系统
CN112417456B (zh) * 2020-11-16 2022-02-08 中国电子科技集团公司第三十研究所 一种基于大数据的结构化敏感数据还原检测的方法
US11544508B2 (en) * 2020-11-23 2023-01-03 Nielsen Consumer Llc Methods, systems, articles of manufacture, and apparatus to recalibrate confidences for image classification
US11907269B2 (en) * 2020-12-01 2024-02-20 International Business Machines Corporation Detecting non-obvious relationships between entities from visual data sources
CN113516156A (zh) * 2021-04-13 2021-10-19 浙江工业大学 一种基于多源信息融合的细粒度图像分类方法
CN113408611B (zh) * 2021-06-18 2022-05-10 电子科技大学 一种基于延迟机制的多层图像分类方法
CN114691896B (zh) * 2022-05-31 2022-09-13 浙江大学 一种知识图谱数据清洗方法及装置
CN115168603B (zh) * 2022-06-27 2023-04-07 天翼爱音乐文化科技有限公司 一种彩铃业务流程自动反馈应答方法、装置及存储介质
CN115543402B (zh) * 2022-11-21 2023-03-24 北京大学 一种基于代码提交的软件知识图谱增量更新方法
CN115860152B (zh) * 2023-02-20 2023-06-27 南京星耀智能科技有限公司 一种面向人物军事知识发现的跨模态联合学习方法
CN117332282B (zh) * 2023-11-29 2024-03-08 之江实验室 一种基于知识图谱的事件匹配的方法及装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7181062B2 (en) * 2002-08-30 2007-02-20 Lockheed Martin Corporation Modular classification architecture for a pattern recognition application
EP1413973A1 (en) * 2002-10-22 2004-04-28 Thomson Licensing S.A. Method and apparatus for automatically calculating confidence values of data classification
US7848566B2 (en) 2004-10-22 2010-12-07 Carnegie Mellon University Object recognizer and detector for two-dimensional images using bayesian network based classifier
US8732025B2 (en) 2005-05-09 2014-05-20 Google Inc. System and method for enabling image recognition and searching of remote content on display
JP4640155B2 (ja) 2005-12-15 2011-03-02 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN101187985B (zh) 2006-11-17 2012-02-01 东软集团股份有限公司 确定对象分类器分类边界的方法及装置
JP4755632B2 (ja) 2007-08-15 2011-08-24 ヤフー株式会社 アイテム認識装置及びアイテム認識方法
TWI354904B (en) 2008-01-25 2011-12-21 Yun Ken Method of classifying documents automatically, com
JP5800494B2 (ja) 2010-11-19 2015-10-28 キヤノン株式会社 特定領域選択装置、特定領域選択方法及びプログラム
JP5929896B2 (ja) 2011-03-17 2016-06-08 日本電気株式会社 画像認識システム、画像認識方法および画像認識用プログラム
US9916538B2 (en) 2012-09-15 2018-03-13 Z Advanced Computing, Inc. Method and system for feature detection
CN103207879B (zh) 2012-01-17 2016-03-30 阿里巴巴集团控股有限公司 图像索引的生成方法及设备
CN103699663B (zh) * 2013-12-27 2017-02-08 中国科学院自动化研究所 一种基于大规模知识库的热点事件挖掘方法
CN103699687B (zh) * 2014-01-03 2017-02-01 复旦大学 一种基于枚举的网络实体爬取方法
US20150310862A1 (en) * 2014-04-24 2015-10-29 Microsoft Corporation Deep learning for semantic parsing including semantic utterance classification

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11995539B2 (en) 2017-06-09 2024-05-28 Samsung Electronics Co., Ltd. Electronic apparatus and method for re-learning trained model
US11829851B2 (en) 2018-03-13 2023-11-28 Sony Corporation Information processor, mobile device, and method and program thereof

Also Published As

Publication number Publication date
US10474949B2 (en) 2019-11-12
EP3183695A1 (en) 2017-06-28
EP3937087A1 (en) 2022-01-12
CN106663221A (zh) 2017-05-10
US20160055409A1 (en) 2016-02-25
SG11201610934SA (en) 2017-03-30
CN106663221B (zh) 2019-11-29
JP2017531240A (ja) 2017-10-19
TW201626293A (zh) 2016-07-16
BR112017003023A2 (pt) 2017-12-12
WO2016028446A1 (en) 2016-02-25

Similar Documents

Publication Publication Date Title
KR20170044102A (ko) 데이터에 대한 지식-그래프 바이어싱된 분류
US9558442B2 (en) Monitoring neural networks with shadow networks
US10043112B2 (en) Photo management
US20150278680A1 (en) Training, recognition, and generation in a spiking deep belief network (dbn)
US20150269481A1 (en) Differential encoding in neural networks
US20150269482A1 (en) Artificial neural network and perceptron learning using spiking neurons
US20150206048A1 (en) Configuring sparse neuronal networks
US20150170028A1 (en) Neuronal diversity in spiking neural networks and pattern classification
US20140143193A1 (en) Method and apparatus for designing emergent multi-layer spiking networks
US20150212861A1 (en) Value synchronization across neural processors
US20150278641A1 (en) Invariant object representation of images using spiking neural networks
US20150242745A1 (en) Event-based inference and learning for stochastic spiking bayesian networks
US20150317557A1 (en) Temporal spike encoding for temporal learning
US20150278685A1 (en) Probabilistic representation of large sequences using spiking neural network
US20140351186A1 (en) Spike time windowing for implementing spike-timing dependent plasticity (stdp)
US9652711B2 (en) Analog signal reconstruction and recognition via sub-threshold modulation
WO2015069614A1 (en) Implementing synaptic learning using replay in spiking neural networks
US20150112909A1 (en) Congestion avoidance in networks of spiking neurons
US9542645B2 (en) Plastic synapse management
JP6219509B2 (ja) シナプス遅延を動的に割り当てることおおよび検査すること
US9269045B2 (en) Auditory source separation in a spiking neural network
WO2015127106A1 (en) Stochastic delay plasticity
US20150213356A1 (en) Method for converting values into spikes
Ahmad Mitigating catastrophic forgetting in incremental learning