KR101889451B1 - 트레이닝 데이터를 위한 가중치 이득 평가기 - Google Patents

트레이닝 데이터를 위한 가중치 이득 평가기 Download PDF

Info

Publication number
KR101889451B1
KR101889451B1 KR1020167015353A KR20167015353A KR101889451B1 KR 101889451 B1 KR101889451 B1 KR 101889451B1 KR 1020167015353 A KR1020167015353 A KR 1020167015353A KR 20167015353 A KR20167015353 A KR 20167015353A KR 101889451 B1 KR101889451 B1 KR 101889451B1
Authority
KR
South Korea
Prior art keywords
function
target
data
module
machine learning
Prior art date
Application number
KR1020167015353A
Other languages
English (en)
Other versions
KR20160083111A (ko
Inventor
야세르 사이드 아부-모스타파
카를로스 로베르토 곤잘레스
Original Assignee
캘리포니아 인스티튜트 오브 테크놀로지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 캘리포니아 인스티튜트 오브 테크놀로지 filed Critical 캘리포니아 인스티튜트 오브 테크놀로지
Publication of KR20160083111A publication Critical patent/KR20160083111A/ko
Application granted granted Critical
Publication of KR101889451B1 publication Critical patent/KR101889451B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N99/005
    • G06F15/18

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Machine Translation (AREA)
  • Feedback Control In General (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Image Analysis (AREA)
  • Debugging And Monitoring (AREA)

Abstract

머신 러닝 환경에서 트레이닝 데이터에 대한 가중치의 적용에 연관되는 가중치 이득을 결정하는 데에 효과가 있는 방법 및 시스템에 관한 기술이 일반적으로 설명된다. 일 예시에서, 장치는 트레이닝 데이터에 기초하여 제1 함수를 결정할 수 있고, 트레이닝 데이터는 트레이닝 입력값 및 트레이닝 레이블을 포함한다. 장치는 트레이닝 데이터에 대한 가중치의 적용에 기초하는 가중 트레이닝 데이터에 기초하여 제2 함수를 결정할 수 있다. 장치는 타겟 데이터에 기초하여 제3 함수를 결정할 수 있으며, 타겟 데이터는 타겟 함수에 기초하여 생성된다. 타겟 데이터는 트레이닝 레이블과 상이한 타겟 레이블을 포함할 수 있다. 장치는 타겟 데이터에 대한 가중치의 적용의 결과인 가중 타겟 데이터에 기초하여 제4 함수를 결정할 수 있다. 장치는 제1, 제2, 제3 및 제4 함수에 기초하여 가중치 이득을 결정할 수 있다.

Description

트레이닝 데이터를 위한 가중치 이득 평가기{WEIGHT BENEFIT EVALUATOR FOR TRAINING DATA}
본 출원은 2013년 11월 22일 출원된 미국 가출원 61/907,504, 2014년 6월 20일 출원된 미국 가출원 62/015,133, 및 2014년 8월 5일 출원된 미국 출원 14/451,859를 우선권 주장하며, 이 출원들 전체가 여기에 참조로 포함된다. 본 출원은 2014년 8월 5일에 출원된 머신 러닝에서의 가중치의 생성(GENERATION OF WEIGHTS IN MACHINE LEARNING)이라는 표제의 출원 번호 14/451,870, 2014년 8월 5일에 출원된 머신 러닝에서의 가중치 생성(WEIGHT GENERATION IN MACHINE LEARNING)이라는 표제의 출원 번호 14/451,899, 및 2014년 8월 5일에 출원된 머신 러닝에서의 대안적인 트레이닝 분산 데이터(ALTERNATIVE TRAINING DISTRIBUTION DATA IN MACHINE LEARNING)이라는 표제의 출원 번호 14/451,935에 관련된다.
머신 러닝(machine learning) 환경에서, 트레이닝 입력값(training input value)과 트레이닝 레이블(training label)을 포함하는 트레이닝 데이터가 학습 함수(learned function)를 결정하는 데에 사용될 수 있다. 학습 함수는 트레이닝 입력값과 트레이닝 레이블 사이의 관계를 나타내는 데에 효과가 있을 수 있다. 학습 함수는 머신 러닝 시스템에 배치(deploy)될 수 있다. 머신 러닝 시스템은 테스트 입력값을 수신할 수 있고 학습 함수를 테스트 입력값에 적용하여 테스트 레이블을 산출할 수 있으며, 여기서 테스트 입력값과 테스트 레이블은 테스트 데이터로 형성될 수 있다.
일부 예시에서, 머신 러닝 환경에서 트레이닝 데이터와 연관되는 가중치 이득(weight benefit)을 결정하기 위한 방법이 일반적으로 설명된다. 방법은 장치에 의하여 트레이닝 데이터에 기초하여 제1 함수를 결정하는 단계를 포함할 수 있으며, 트레이닝 데이터는 트레이닝 입력값 및 트레이닝 레이블을 포함할 수 있다. 방법은 장치에 의하여 트레이닝 데이터에 가중치의 집합을 적용하여 가중 트레이닝 데이터(weighted training data)를 생성하는 단계를 또한 포함할 수 있다. 방법은 장치에 의하여 가중 트레이닝 데이터에 기초하여 제2 함수를 결정하는 단계를 또한 포함할 수 있다. 방법은 장치에 의하여 타겟 함수(target function)에 기초하여 타겟 데이터를 생성하는 단계를 또한 포함할 수 있다. 타겟 데이터는 트레이닝 레이블과 상이한 타겟 레이블을 포함할 수 있다. 방법은 장치에 의하여 타겟 데이터에 기초하여 제3 함수를 결정하는 단계를 또한 포함할 수 있다. 방법은 장치에 의하여 타겟 데이터에 가중치의 집합을 적용하여 가중 타겟 데이터를 생성하는 단계를 또한 포함할 수 있다. 방법은 장치에 의하여 가중 타겟 데이터에 기초하여 제4 함수를 결정하는 단계를 또한 포함할 수 있다. 방법은 장치에 의하여 제1, 제2, 제3 및 제4 함수에 기초하여 가중치 이득을 결정하는 단계를 또한 포함할 수 있다. 가중치 이득은 트레이닝 데이터에 가중치의 집합을 적용하기 위한 이득에 연관될 수 있다.
일부 예시에서, 머신 러닝 환경에서 트레이닝 데이터와 연관되는 가중치 이득을 결정하는 데에 효과가 있는 시스템이 일반적으로 설명된다. 시스템은 메모리를 포함할 수 있다. 메모리는 트레이닝 데이터를 저장하도록 구성될 수 있다. 트레이닝 데이터는 트레이닝 입력값 및 트레이닝 레이블을 포함할 수 있다. 메모리는 또한 가중치의 집합을 저장하도록 구성될 수 있다. 시스템은 또한 메모리와 통신하도록 구성되는 타겟 함수 생성 모듈을 포함할 수 있다. 타겟 함수 생성 모듈은 타겟 함수에 기초하여 타겟 데이터를 생성하도록 구성될 수 있다. 타겟 데이터는 트레이닝 레이블과 상이한 타겟 레이블을 포함할 수 있다. 타겟 함수 생성 모듈은 또한 메모리에 타겟 데이터를 저장하도록 구성될 수 있다. 시스템은 또한 타겟 함수 생성 모듈 및 메모리와 통신하도록 구성되는 프로세싱 모듈을 포함할 수 있다. 프로세싱 모듈은 트레이닝 데이터에 가중치의 집합을 적용하여 가중 트레이닝 데이터를 생성하도록 구성될 수 있다. 프로세싱 모듈은 또한 타겟 데이터에 가중치의 집합을 적용하여 가중 타겟 데이터를 생성하도록 구성될 수 있다. 프로세싱 모듈은 또한 메모리에 가중 트레이닝 데이터 및 가중 타겟 데이터를 저장하도록 구성될 수 있다. 시스템은 또한 타겟 함수 생성 모듈, 프로세싱 모듈 및 메모리와 통신하도록 구성되는 머신 러닝 모듈을 포함할 수 있다. 머신 러닝 모듈은 트레이닝 데이터에 기초하여 제1 함수를 결정하도록 구성될 수 있다. 머신 러닝 모듈은 또한 가중 트레이닝 데이터에 기초하여 제2 함수를 결정하도록 구성될 수 있다. 머신 러닝 모듈은 또한 타겟 데이터에 기초하여 제3 함수를 결정하도록 구성될 수 있다. 머신 러닝 모듈은 또한 가중 타겟 데이터에 기초하여 제4 함수를 결정하도록 구성될 수 있다. 시스템은 또한 타겟 함수 생성 모듈, 프로세싱 모듈, 머신 러닝 모듈 및 메모리와 통신하도록 구성되는 평가 모듈을 포함할 수 있다. 평가 모듈은 제1, 제2, 제3 및 제4 함수에 기초하여 가중치 이득을 결정하도록 구성될 수 있다. 가중치 이득은 트레이닝 데이터에 가중치의 집합을 적용하기 위한 이득에 연관될 수 있다.
일부 예시에서, 머신 러닝 환경에서 트레이닝 데이터에 연관되는 가중치 이득을 결정하기 위한 방법이 일반적으로 설명된다. 방법은 제1 장치에 의하여 제2 장치로부터 제1 함수를 수신하는 단계를 포함할 수 있다. 제1 함수는 트레이닝 데이터에 기초할 수 있다. 트레이닝 데이터는 트레이닝 입력값 및 트레이닝 레이블을 포함할 수 있다. 방법은 제1 장치에 의하여 제2 장치로부터 가중치의 집합을 수신하는 단계를 또한 포함할 수 있다. 방법은 제1 장치에 의하여 제2 장치로부터 제2 함수를 수신하는 단계를 또한 포함할 수 있다. 제2 함수는 가중 트레이닝 데이터에 기초할 수 있다. 가중 트레이닝 데이터는 가중치의 집합에 기초할 수 있다. 방법은 제1 장치에 의하여 타겟 함수에 기초하여 타겟 데이터를 생성하는 단계를 또한 포함할 수 있다. 타겟 데이터는 트레이닝 레이블과 상이한 타겟 레이블을 포함할 수 있다. 방법은 제1 장치에 의하여 타겟 데이터에 기초하여 제3 함수를 결정하는 단계를 또한 포함할 수 있다. 방법은 제1 장치에 의하여 타겟 데이터에 가중치의 집합을 적용하여 가중 타겟 데이터를 생성하는 단계를 또한 포함할 수 있다. 방법은 제1 장치에 의하여 가중 타겟 데이터에 기초하여 제4 함수를 결정하는 단계를 또한 포함할 수 있다. 방법은 제1 장치에 의하여 제1, 제2, 제3 및 제4 함수에 기초하여 가중치 이득을 결정하는 단계를 또한 포함할 수 있다. 가중치 이득은 트레이닝 데이터에 가중치의 집합을 적용하기 위한 이득에 연관될 수 있다.
이상의 요약은 단지 예시적인 것으로서 어떠한 방식으로든 제한적으로 의도된 것이 아니다. 이하의 상세한 설명과 도면을 참조함으로써, 위에서 설명된 예시적인 양태들, 실시예들 및 특징들에 더하여, 추가적인 양태들, 실시예들 및 특징들이 명확해질 것이다.
본 개시의 전술한 특징들 및 다른 특징들은 첨부 도면과 함께, 다음의 설명 및 첨부된 청구범위로부터 더욱 명확해질 것이다. 이들 도면은 본 개시에 따른 단지 몇 개의 실시예들을 묘사할 뿐이고, 따라서 그 범위를 제한하는 것으로 간주되어서는 안될 것임을 이해하면서, 본 개시는 첨부 도면을 사용하여 더 구체적이고 상세하게 설명될 것이다.
도 1은 트레이닝 데이터를 위한 가중치 이득 평가기를 구현하는 데에 이용될 수 있는 예시적인 시스템을 도시하고,
도 2는 인공 학습 함수(artificial learned function) 및 인공 가중 함수(artificial weighted function)의 결정에 관련하여 더 상세히 도 1의 예시적인 시스템을 도시하고,
도 3은 가중치 이득의 결정에 관련하여 더 상세히 도 1의 예시적인 시스템을 도시하고,
도 4는 트레이닝 데이터를 위한 가중치 이득 평가기를 구현하기 위한 예시적인 프로세스에 관한 흐름도를 도시하고,
도 5는 트레이닝 데이터를 위한 가중치 이득 평가기를 구현하는 데에 이용될 수 있는 예시적인 컴퓨터 프로그램 제품을 도시하고,
도 6은 트레이닝 데이터를 위한 가중치 이득 평가기를 구현하도록 배열되는 예시적인 컴퓨팅 장치를 도시하는 블록도이며,
모두 여기에서 설명되는 적어도 일부 실시예에 따라 배열된다.
이하의 상세한 설명에서, 여기의 일부를 이루는 첨부 도면에 대한 참조가 이루어진다. 문맥에서 달리 지시하고 있지 않은 한, 도면에서 유사한 부호는 통상적으로 유사한 컴포넌트를 나타낸다. 상세한 설명, 도면 및 청구범위에서 설명되는 예시적인 실시예들은 제한적으로 여겨지지 않는다. 여기에서 제시되는 대상의 범위 또는 사상에서 벗어나지 않으면서 다른 실시예가 이용될 수 있고 다른 변경이 이루어질 수 있다. 여기에서 일반적으로 설명되고 도면에 도시되는 본 개시의 양태들이 다양한 다른 구성들로 배열, 대체, 조합, 분리 및 설계될 수 있음과 이 모두가 여기에서 명시적으로 고려됨이 기꺼이 이해될 것이다.
본 개시는 일반적으로, 그 중에서도 특히, 트레이닝 데이터를 위한 가중치 이득 평가기에 관련되는 방법, 기기, 시스템, 장치 및 컴퓨터 프로그램 제품에 관한 것이다.
간단히 말해, 머신 러닝 환경에서 트레이닝 데이터에 대한 가중치의 집합의 적용에 연관되는 가중치 이득을 결정하는 데에 효과가 있는 방법 및 시스템에 관한 기술이 일반적으로 설명된다. 예를 들어, 가중치는 트레이닝 데이터의 일부 포인트(point)가 다른 포인트보다 더 기여하게 하여 상이한 학습 함수의 생성을 야기하도록 하는 데에 사용될 수 있다. 일 예시에서, 장치는 트레이닝 데이터에 기초하여 제1 함수를 결정할 수 있으며, 트레이닝 데이터는 트레이닝 입력값 및 트레이닝 레이블을 포함한다. 예를 들어, 트레이닝 데이터는 사용자 프로필(예컨대, 나이, 성별, 소득) 및 레이블(예컨대, 영화 등급)일 수 있다. 제1 함수는 트레이닝 입력값과 트레이닝 레이블 사이의 관계를 나타내는 데에 효과가 있을 수 있다. 예를 들어, 제1 함수는 사용자 프로필과 영화 등급 사이의 관계를 나타낼 수 있다. 장치는 트레이닝 데이터에 대한 가중치의 적용에 기초하는 가중 트레이닝 데이터에 기초하여 제2 함수를 결정할 수 있다. 제2 함수는 가중치가 트레이닝 데이터에 적용된 후에 생성될 수 있다. 제2 함수의 작용은 여기에서 논의되는 바와 같이 제1 함수에 비교될 수 있다. 장치는 타겟 데이터에 기초하여 제3 함수를 결정할 수 있으며, 타겟 데이터는 타겟 함수에 기초하여 생성된다. 타겟 함수는 가중치로 및 가중치 없이 생성된 함수를 비교하는 데에 사용될 수 있다. 타겟 데이터는 트레이닝 레이블과 상이한 타겟 레이블을 포함할 수 있다. 장치는 타겟 데이터에 대한 가중치의 적용의 결과일 수 있는 가중 타겟 데이터에 기초하여 제4 함수를 결정할 수 있다. 장치는 제1, 제2, 제3 및 제4 함수에 기초하여 가중치 이득을 결정할 수 있다. 예를 들어, 장치는 가중치가 적용되어야 할지 여부를 결정할 수 있다.
도 1은 여기에 설명되는 적어도 일부 실시예에 따라 배열되는, 트레이닝 데이터를 위한 가중치 이득 평가기를 구현하는 데에 이용될 수 있는 예시적인 시스템을 도시한다. 아래에서 더 상세히 설명될 바와 같이, 시스템(100)은 머신 러닝 시스템으로서 구현될 수 있다. 시스템(100)은 ((xi, yi)로 표시되는) 트레이닝 데이터(160)에 기초하여 (g로 표시되는) 학습 함수(162)를 결정하도록 구현될 수 있다. 트레이닝 데이터(160)의 예시는 사용자 프로필(예컨대, 나이, 성별, 소득) 및 레이블(예컨대, 영화 등급)일 수 있다. 학습 함수(162)의 예시는 입력값으로 테스트 사용자 프로필을 수신하고 출력으로 테스트 영화 등급을 생성하는 함수일 수 있다. 트레이닝 데이터(160)는 각각의 포인트 i에서의 트레이닝 입력값(xi)과 (yi로 표시되는) 트레이닝 레이블을 포함하는 짝 데이터(paired data)의 집합에 연관될 수 있다. 시스템(100)은 ((xwi, ywi)로 표시되는) 가중 트레이닝 데이터(180)에 기초하여 (gw로 표시되는) 가중 함수(172)를 결정하도록 더 구현될 수 있다. 가중 트레이닝 데이터(180)는 트레이닝 데이터(160)에 대한 (wi로 표시되는) 가중치(170)의 집합("가중치")의 적용의 결과일 수 있다. 가중치(170)의 집합은 트레이닝 데이터(160)의 (트레이닝 입력값과 트레이닝 레이블을 포함하는) 소정의 포인트를, 트레이닝 데이터(160)의 소정의 포인트와 상이한 다른 포인트보다 더 가중할 수 있다. 예를 들어, 소정의 포인트에는 더 높은 가중치가 주어질 수 있어 가중 함수(172)의 생성에 더 기여할 수 있다. 시스템(100)은 가중치 이득(152)을 결정하도록 더 구현될 수 있으며, 가중치 이득(152)은 트레이닝 데이터(160)에 가중치(170)의 집합을 적용하기 위한 이득에 연관될 수 있다.
일 예시에서, 시스템(100)은 컴퓨팅 장치(102)로 구현될 수 있으며, 컴퓨팅 장치(102)는 컴퓨터 또는 서버일 수 있다. 컴퓨팅 장치(102)는 프로세싱 모듈(110), 머신 러닝 모듈(120), 타겟 함수 생성 모듈(130), 연산 모듈(140), 및/또는 평가 모듈(150)을 포함할 수 있다. 프로세싱 모듈(110), 머신 러닝 모듈(120), 타겟 함수 생성 모듈(130), 연산 모듈(140), 및/또는 평가 모듈(150)은 서로 통신하도록 구성될 수 있다. 컴퓨팅 장치(102)는 프로세싱 모듈(110), 머신 러닝 모듈(120), 타겟 함수 생성 모듈(130), 연산 모듈(140), 및/또는 평가 모듈(150)과 통신하도록 구성되는 메모리(104)를 더 포함할 수 있다. 일부 예시에서, 컴퓨팅 장치(102)의 각각의 모듈은 FPGA(Field Programmable Gate Array), SoC(System on Chip) 등과 같은 집적 회로를 포함하는 임베디드 시스템(embedded system) 또는 하드웨어 컴포넌트일 수 있다. 일부 예시에서, 제1 모듈은 제2 모듈 상에 임베드될 수 있다. 예를 들어, 연산 모듈(140)은 타겟 함수 생성 모듈(130) 상에 임베드될 수 있다. 일부 예시에서, 프로세싱 모듈(110), 머신 러닝 모듈(120), 타겟 함수 생성 모듈(130), 연산 모듈(140), 및/또는 평가 모듈(150)은 컴퓨팅 장치(102)의 프로세서의 컴포넌트일 수 있다.
메모리(104)는 머신 러닝 명령어(122), 적어도 하나의 (hj로 표시되는) 인공 함수(artificial function)(166), 트레이닝 데이터(160), 및/또는 가중치(170)를 저장하도록 구성될 수 있다. 머신 러닝 명령어(122)는 학습 함수(162)와 같은 학습 함수 및/또는 가중 함수(172) 등의 생성을 용이하게 하는 데에 효과가 있는 명령어를 포함할 수 있다. 머신 러닝 명령어(122)는 타겟 함수 생성 모듈(130), 연산 모듈(140), 및/또는 평가 모듈(150)의 동작에 연관되는 명령어를 더 포함할 수 있다. 일부 예시에서, 머신 러닝 명령어(122)는 머신 러닝 모듈(120)에 저장될 수 있다. 인공 함수(166)는 이하에서 설명되는 바와 같이 시스템(100)의 구현에 의해 이전에 생성된 함수일 수 있다.
트레이닝 데이터(160)는 트레이닝 입력값(xi) 및 트레이닝 레이블(yi)을 포함하는 짝 데이터의 집합에 연관될 수 있다. 트레이닝 입력값(xi)은 벡터의 집합일 수 있으며, 각각의 벡터는 하나 이상의 좌표에 대응할 수 있다. 가중치(170)의 집합은 프로세싱 모듈(110)에 의해서와 같이 트레이닝 데이터(160)에 적용될 수 있는 벡터의 집합일 수 있다. 트레이닝 데이터(160)에 대한 가중치(170)의 적용의 결과로서, 가중 트레이닝 데이터(180)가 생성될 수 있다. 가중 트레이닝 데이터(180)는 가중 트레이닝 입력값(xwi) 및 가중 트레이닝 레이블(ywi)을 포함하는 짝 데이터의 집합에 연관될 수 있다. 일부 예시에서, 가중치(170)의 집합은 컴퓨팅 장치(102)에서 다른 컴퓨팅 장치로부터 수신될 수 있다. 일부 예시에서, 컴퓨팅 장치(102)는 가중치(170)를 생성하도록 구성되는 가중치 생성 모듈(106)을 더 포함할 수 있다. 일부 예시에서, 프로세싱 모듈(110)은 머신 러닝 모듈(120), 타겟 함수 생성 모듈(130), 연산 모듈(140) 및 평가 모듈(150)과 같은 컴퓨팅 장치(102) 내 하나 시아의 모듈의 동작을 제어하도록 더 구성될 수 있다. 프로세싱 모듈(110)은 평가 모듈(150)로부터 가중치 이득(152)을 수신하고, 응답으로 가중치(170)를 트레이닝 데이터(160)에 적용할지 여부를 결정하도록 더 구성될 수 있다. 가중치 이득(152)은 "적용하라" 또는 "적용하지 말라", 또는 "0" 및 "1", 또는 "A" 및 "not A" 등과 같은 이진 데이터(binary data)일 수 있다.
타겟 함수 생성 모듈(130)은 (아래에서 설명되는) 인공 함수(166) 및 트레이닝 데이터(160)를 사용하여 (fj로 표시되는) 타겟 함수(168)를 생성하도록 구성될 수 있다. 일부 예시에서, 연산 모듈(140)은 타겟 함수 생성 모듈(130)에 의한 타겟 함수(168)의 생성을 용이하게 하기 위한 특정 동작을 수행하도록 구성될 수 있다. 예를 들어, 연산 모듈(140)은 시스템(100)의 구현 동안 큰 데이터세트(dataset)의 비교와 같은 복잡한 계산(complex computation)을 수행하도록 구성될 수 있다.
머신 러닝 모듈(120)은 트레이닝 데이터(160)에 기초하여 학습 함수(162)를 결정하도록 구성될 수 있다. 학습 함수(162)의 결정은 트레이닝 입력값(xi)과 트레이닝 레이블(yi) 사이의 관계를 결정하는 것을 포함할 수 있다. 학습 함수(162)는 트레이닝 입력값(xi)과 트레이닝 레이블(yi) 사이의 관계를 나타내는 데에 효과가 있을 수 있다. 머신 러닝 모듈(120)은 가중 트레이닝 데이터(180)에 기초하여 가중 함수(172)를 결정하도록 더 구성될 수 있다. 가중 함수(172)의 결정은 가중 트레이닝 입력값(xwi)과 가중 트레이닝 레이블(ywi) 사이의 관계를 결정하는 것을 포함할 수 있다. 가중 함수(172)는 가중 트레이닝 입력값(xwi)과 가중 트레이닝 레이블(ywi) 사이의 관계를 나타내는 데에 효과가 있을 수 있다. 아래에서 더 상세히 설명될 바와 같이, 머신 러닝 모듈(120)은 인공 함수(166) 및 타겟 함수(168)에 기초하여 (gj로 표시되는) 인공 학습 함수(164) 및 (gwj로 표시되는) 인공 가중 함수(174)를 결정하도록 구성될 수 있다. 평가 모듈(150)은 학습 함수(162), 가중 함수(172), 인공 학습 함수(164) 및 인공 가중 함수(174)에 기초하여 가중치 이득(152)을 결정할 수 있다.
도 2는 여기에서 설명되는 적어도 일부 실시예에 따라 배열되는, 인공 학습 함수 및 인공 가중 함수의 결정에 관련하여 더 상세히 도 1의 예시적인 시스템(100)을 도시한다. 도 2는 도 1의 시스템(100)과 실질적으로 유사하며 더 상세하다. 도 1의 컴포넌트와 동일하게 식별된 도 2의 컴포넌트는 명확성의 목적을 위해 다시 설명되지 않을 것이다.
아래에서 더 상세히 설명될 바와 같이, 타겟 함수 생성 모듈(130)은 (메모리(104) 내의) 트레이닝 데이터(160)에 기초하고 (메모리(104) 내의) 인공 함수(166)에 기초하여 하나 이상의 타겟 함수(168)를 생성할 수 있다(동작 {210, 211, 212, 213}을 참조하여 설명됨). 타겟 함수(168)의 생성 후에, 타겟 함수 생성 모듈(130)은 트레이닝 데이터(160)에 기초하고 타겟 함수(168)에 기초하여 타겟 데이터(230)를 생성할 수 있다. 프로세싱 모듈(110)은 가중치(170)를 타겟 데이터(230)에 적용하여 가중 타겟 데이터(232)를 생성할 수 있다(동작 {214, 215}). 머신 러닝 모듈(120)은 타겟 데이터(230)에 기초하여 인공 학습 함수(164)를 결정할 수 있다(동작 {216}). 머신 러닝 모듈(120)은 가중 타겟 데이터(232)에 기초하여 인공 가중 함수(174)를 더 결정할 수 있다.
동작 210에서, 타겟 함수 생성 모듈(130)은 메모리(104)로부터 인공 함수(166)를 회수(retrieve)할 수 있다. 일 예시에서, 프로세싱 모듈(110)은 메모리(104) 내에 저장된 하나보다 많은 인공 함수 중에서 다수의 인공 함수(166)를 선택하도록 타겟 함수 생성 모듈(130)을 지시하도록 구성될 수 있다. 인공 함수(166)의 선택은 머신 러닝 명령어(122)에 기초할 수 있다. 일 예시에서, 머신 러닝 명령어(122)의 출력 및 최종 요구되는 학습 함수는 ax3 + bx2 + cx + d와 같은 4차 다항식에 의해 표현되는 모델을 따르는 함수일 수 있다. 프로세싱 모듈(110)은 머신 러닝 명령어(122) 내 명령어에 기초하여 계수 a, b, c, d에 대한 값과 같은 파라미터의 집합을 랜덤으로 선택할 수 있다. 특정 선택 j에 대하여, 프로세싱 모듈(110)이 a=1, b=3, c=7, d=12를 선택하면, j번째 인공 함수(166)는 x3 + 3x2 + 7x+ 12일 것이다.
다수의 인공 함수(166)의 선택 후에, 타겟 함수(168)의 생성은 동작 210에서 동작 211로 계속할 수 있다. 동작 211에서, 타겟 함수 생성 모듈(130)은 트레이닝 데이터(160)의 트레이닝 입력값 xi를 선택된 수의 인공 함수(166)에 적용할 수 있다. 인공 함수(166)에 대한 트레이닝 입력값 xi의 적용은 인공 데이터(220)의 생성을 야기할 수 있다. 인공 데이터(220)는 (xi, hj(xi))에 의해 표시되는 짝 데이터의 하나 이상의 집합을 포함할 수 있으며, 여기서 i는 트레이닝 데이터(160)의 포인트에 대응하고 j는 선택된 인공 함수에 대응한다. 짝 데이터의 집합의 수는 선택된 인공 함수(166)의 수에 상당할 수 있다. 인공 데이터(220)의 각각의 집합에서의 포인트의 수는 트레이닝 데이터(160)의 포인트의 수와 같을 수 있다. 예를 들어, 트레이닝 데이터(160)는 100개의 포인트(예컨대, i = 1, 2, ...100, 및 (xi, yi) = (x1, y1), (x2, y2), ...(x100, y100))를 포함할 수 있다. 프로세싱 모듈(110)은 10개의 인공 함수(166)를 선택하기 위해 10개의 파라미터의 집합을 선택할 수 있다. 타겟 함수 생성 모듈(130)은 10개의 인공 데이터(220)의 집합 중 각각의 집합이 100개의 포인트를 포함할 수 있도록 10개의 대응하는 인공 함수에 기초하여 10개의 인공 데이터(220)의 집합을 생성할 수 있다.
인공 데이터(220)의 생성 후에, 타겟 함수(168)의 생성은 동작 211에서 동작 212로 계속할 수 있다. 동작 212에서, 타겟 함수 생성 모듈(130)은 트레이닝 데이터(160) 및 인공 데이터(220)를 연산 모듈(140)로 전송할 수 있다. 연산 모듈(140)은 트레이닝 데이터(160)의 평균(mean)일 수 있는 트레이닝 평균(240)을 결정할 수 있다. 연산 모듈(140)은 트레이닝 데이터(160)의 표준편차(standard deviation)일 수 있는 트레이닝 표준편차(242)를 더 결정할 수 있다. 연산 모듈(140)은 (mj로 표시되는) 다수의 인공 평균(250)을 더 결정할 수 있으며, 각각의 인공 평균은 인공 데이터(220)의 특정 집합의 평균일 수 있다. 예를 들어, 인공 평균 m1은 j = 1에서의 인공 데이터(220)의 집합의 인공 평균일 수 있다. 연산 모듈(140)은 (dj로 표시되는) 다수의 인공 표준편차(252)를 더 결정할 수 있으며, 각각의 인공 표준편차는 인공 데이터(220)의 특정 집합의 표준편차일 수 있다. 예를 들어, 인공 표준편차 d1은 j = 1에서의 인공 데이터(220)의 집합의 표준편차일 수 있다. 연산 모듈(140)은 트레이닝 평균(240), 트레이닝 표준편차(242), 인공 평균(250), 및 인공 표준편차(252)를 타겟 함수 생성 모듈(130)로 전송할 수 있다. 일부 예시에서, 연산 모듈(140)이 타겟 함수 생성 모듈(130)의 컴포넌트일 수 있는 경우, 타겟 함수 생성 모듈(130)이 트레이닝 평균(240), 트레이닝 표준편차(242), 인공 평균(250), 및 인공 표준편차(252)를 결정할 수 있다.
트레이닝 평균(240), 트레이닝 표준편차(242), 인공 평균(250), 및 인공 표준편차(252)의 생성 후에, 타겟 함수(168)의 생성은 동작 212에서 동작 213으로 계속할 수 있다. 동작 213에서, 타겟 함수 생성 모듈은 인공 데이터(220), 트레이닝 평균(240), 트레이닝 표준편차(242), 인공 평균(250), 및 인공 표준편차(252)에 기초하여 다수의 타겟 함수(168)를 생성할 수 있다. 타겟 함수(168)의 수는 선택된 인공 함수(166)의 수 또는 인공 데이터(220)의 집합의 수에 상당할 수 있다. 예를 들어, 타겟 함수 f2는 j = 2에서의 인공 데이터(220)의 집합 또는 인공 함수 h2에 기초할 수 있다. 타겟 함수 f2는 j = 2에서의 인공 데이터(220), 트레이닝 평균(240), 트레이닝 표준편차(242), 인공 평균(250) m2, 및 인공 표준편차(252) d2에 기초하여 생성될 수 있다.
일부 예시에서, 타겟 함수 생성 모듈(130)은 트레이닝 평균(240), 트레이닝 표준편차(242), 인공 평균(250), 및 인공 표준편차(252)에 부호 함수(sign function)를 적용함으로써 다수의 타겟 함수(168)를 생성할 수 있다. 일부 예시에서, 타겟 함수 생성 모듈(130)은 트레이닝 평균(240), 트레이닝 표준편차(242), 인공 평균(250), 및 인공 표준편차(252)에 라운드 함수(round function)를 적용함으로써 타겟 함수(168)를 생성할 수 있다. 일부 예시에서, 타겟 함수 생성 모듈(130)은 트레이닝 평균(240), 트레이닝 표준편차(242), 인공 평균(250), 및 인공 표준편차(252)에 근접 수 함수(nearest number function)를 적용함으로써 타겟 함수(168)를 생성할 수 있다. 타겟 함수 생성 모듈(130)은 트레이닝 평균(240), 트레이닝 표준편차(242), 인공 평균(250), 및 인공 표준편차(252)에, 머신 러닝 명령어(122)에 기초하여 선택될 수 있는 다양한 다른 함수를 적용함으로써 타겟 함수(168)를 생성할 수 있다. 일부 예시에서, 타겟 함수(168)는 가우스 잡음(Gaussian noise)과 같은 잡음 파라미터에 더 기초할 수 있다.
타겟 함수(168)의 생성 후에, 타겟 함수 생성 모듈(130)은 타겟 데이터(230) 및 가중 타겟 데이터(232)를 생성할 수 있다. 동작 214에서, 타겟 함수 생성 모듈(130)은 트레이닝 데이터(160)의 트레이닝 입력값 xi를 각각의 타겟 함수(168)에 적용하여 타겟 데이터(230)를 생성할 수 있다. 타겟 데이터(230)는 (xi, fj(xi))로 표시되는 짝 데이터의 하나 이상의 집합을 포함할 수 있으며, 타겟 데이터(230)의 짝 데이터의 집합의 수는 타겟 함수(168)의 수에 상당할 수 있다. 타겟 데이터(230)의 각각의 집합의 포인트의 수는 트레이닝 데이터(160)의 포인트의 수와 같을 수 있다. 예를 들어, 타겟 함수 생성 모듈(130)이 10개의 타겟 함수(168)를 생성한 경우, 타겟 데이터(230)에는 타겟 데이터의 10개의 집합이 존재한다. 타겟 데이터(230)의 생성 후에, 동작 215에서, 프로세싱 모듈(110)은 트레이닝 데이터(160)에 가중치(170)의 집합을 적용하여 가중 타겟 데이터(232)를 생성할 수 있다. 가중 타겟 데이터(232)는 (xi, fwj(xi))로 표시되는 짝 데이터의 하나 이상의 집합을 포함할 수 있으며, 가중 타겟 데이터(232)의 짝 데이터의 집합의 수는 타겟 함수(168)의 수에 상당할 수 있다. 가중 타겟 데이터(232)의 각각의 집합의 포인트의 수는 트레이닝 데이터(160)의 포인트의 수와 같을 수 있다.
타겟 데이터(230) 및 가중 타겟 데이터(232)의 생성 후에, 머신 러닝 모듈(120)은 다수의 인공 학습 함수(164)를 결정할 수 있고 다수의 인공 가중 함수(174)를 결정할 수 있다. 머신 러닝 모듈(120)은 특정 타겟 데이터(230)에 기초하여 특정 인공 학습 함수(164)를 결정할 수 있다. 예를 들어, 머신 러닝 모듈(120)은 집합 j = 2에서 타겟 데이터 (xi, f2(xi))에 기초하여 인공 학습 함수 g2를 결정할 수 있다. 인공 학습 함수(164)의 수는 타겟 데이터(230)의 타겟 데이터의 집합의 수에 상당할 수 있다. 머신 러닝 모듈(120)은 특정 가중 타겟 데이터(232)에 기초하여 특정 인공 가중 함수(174)를 더 결정할 수 있다. 인공 가중 함수(174)의 수는 가중 타겟 데이터(232)의 가중 타겟 데이터의 집합의 수에 상당할 수 있다.
도 3은 여기에서 설명되는 적어도 일부 실시예에 따라 배열되는, 가중치 이득의 결정에 관하여 더 상세히 도 1의 예시적인 시스템(100)을 도시한다. 도 3은 도 1의 시스템(100)과 실질적으로 유사하며 더 상세하다. 도 1의 컴포넌트와 동일하게 식별된 도 3의 컴포넌트는 명확성의 목적을 위해 다시 설명되지 않을 것이다.
아래에서 더 상세히 설명될 바와 같이, 머신 러닝 모듈(120)은 테스트 입력값(302)의 집합을 학습 함수(162), 가중 함수(172), 하나 이상의 인공 학습 함수(164), 및 하나 이상의 인공 가중 함수(174)에 적용할 수 있다(동작 {310}). 적용의 결과로서, 머신 러닝 모듈(120)은 테스트 데이터(304), 가중 테스트 데이터(305), 인공 테스트 데이터(306), 및 인공 가중 테스트 데이터(307)를 생성할 수 있다(동작 {310}). 연산 모듈(140)은 테스트 데이터(304), 가중 테스트 데이터(305), 인공 테스트 데이터(306), 및 인공 가중 테스트 데이터(307)에 기초하여 평가값(evaluation value)(340)을 결정할 수 있다(동작 {311, 312}). 평가 모듈(150)은 평가값(340)에 기초하여 가중치 이득(152)을 생성할 수 있다(동작 {313, 314, 315}).
동작 310에서, 머신 러닝 모듈(120)은 테스트 입력값(302)을 학습 함수(162)에 적용하여 테스트 데이터(304)를 생성할 수 있다. 테스트 입력값(302)은 (si로 표시되는) 벡터의 집합일 수 있으며 시스템(100)의 외부의 장치로부터 수신될 수 있다. 테스트 데이터(304)는 테스트 입력값(302) si 및 생성된 테스트 레이블 g(si)를 포함하는 ((si, g(si))로 표시되는) 짝 데이터의 집합에 연관될 수 있다. 학습 함수(162)는 테스트 입력값(302)과 생성된 테스트 레이블 g(si) 사이의 관계를 정의하는 데에 효과가 있을 수 있다. 머신 러닝 모듈(120)은 테스트 입력값(302)을 가중 함수(172)에 더 적용하여 가중 테스트 데이터(305)를 생성할 수 있다. 가중 테스트 데이터(305)는 테스트 입력값(302) si 및 생성된 가중 테스트 레이블 gw(si)을 포함하는 ((si, gw(si))로 표시되는) 짝 데이터의 집합에 연관될 수 있다. 가중 함수(172)는 테스트 입력값(302)과 가중 테스트 레이블 gw(si) 사이의 관계를 정의하는 데에 효과가 있을 수 있다.
머신 러닝 모듈(120)은 테스트 입력값(302)을 인공 학습 함수(164) 중 각각의 인공 학습 함수 gj에 더 적용하여 ((si, gj(si))로 표시되는) 인공 테스트 데이터(306)의 하나 이상의 집합을 생성할 수 있다. 인공 테스트 데이터(306)의 각각의 집합은 테스트 입력값(302) si 및 대응하는 인공 테스트 레이블 gj(si)을 포함하는 짝 데이터의 집합에 연관될 수 있다. 예를 들어, 머신 러닝 모듈(120)은 테스트 입력값(302)을 인공 학습 함수 g2에 적용하여 인공 테스트 데이터 (si, g2(si))의 집합을 생성할 수 있다. 인공 학습 함수(164)는 테스트 입력값(302)과 인공 테스트 레이블 gj(si) 사이의 관계를 정의하는 데에 효과가 있을 수 있다. 머신 러닝 모듈(120)은 테스트 입력값(302)을 인공 가중 함수(174) 중 각각의 인공 가중 함수에 더 적용하여 ((si, gwj(si))로 표시되는) 인공 가중 테스트 데이터(307)를 생성할 수 있다. 인공 가중 테스트 데이터(307)의 각각의 집합은 테스트 입력값(302) si 및 해당하는 인공 가중 테스트 레이블 gwj(si)을 포함하는 짝 데이터의 집합에 연관될 수 있다. 인공 가중 함수(174)는 테스트 입력값(302)과 인공 가중 테스트 레이블 gwj(si) 사이의 관계를 정의하는 데에 효과가 있을 수 있다.
동작 311에서, 연산 모듈(140)은 학습 함수(162)와 가중 함수(172) 사이의 기대값(expected value)(320)을 결정할 수 있다. 학습 함수(162)와 가중 함수(172) 사이의 기대값(320)의 예시는
Figure 112016055444733-pct00001
일 수 있으며, 여기서 g는 학습 함수(162)를 표시하고 gw는 가중 함수(172)를 표시한다.
일 예시에서, 연산 모듈(140)은 테스트 입력값(302)을 사용하여
Figure 112018000398621-pct00002
와 같은 기대값(320)을 결정할 수 있으며, 여기서 si는 테스트 입력값(302)이고, g(si)는 테스트 레이블 ti이며, gw(si)는 가중 테스트 레이블 twi이다.
유사하게, 연산 모듈(140)은 각각의 j번째 인공 학습 함수(164)와 각각의 j번째 타겟 함수(168) 사이의 기대값(322)을 더 결정할 수 있다. 연산 모듈(140)은 각각의 j번째 인공 가중 함수(174)와 각각의 j번째 타겟 함수(168) 사이의 기대값(324)을 더 결정할 수 있다. 연산 모듈(140)은 각각의 j번째 인공 학습 함수(164)와 각각의 j번째 인공 가중 함수(174) 사이의 기대값(326)을 더 결정할 수 있다. 연산 모듈(140)은 테스트 입력값(302)을 사용하여 기대값(322, 324, 326)을 결정할 수 있다.
동작 312에서, 연산 모듈(140)은 (Tj로 표시되는) 다수의 평가값(340)을 결정할 수 있다. 평가값(340)은
Figure 112016055536375-pct00003
와 같이 기대값(322, 324, 326)에 기초할 수 있으며, 여기서
Figure 112016055536375-pct00004
는 기대값(322)을 표시하고,
Figure 112016055536375-pct00014
는 기대값(324)을 표시하며,
Figure 112016055536375-pct00006
는 기대값(326)을 표시한다.
동작 313에서, 평가 모듈(150)은 평가값(340) 중 각각의 값을 기대값(320)과 비교할 수 있다. 기대값(320)과 평가값(340)의 비교의 예시는 조건(342)
Figure 112016055444733-pct00007
에 기초할 수 있다.
평가 모듈(150)은 평가값(340) 중 얼마나 많은 값이 조건(342)을 만족하는지 셈으로써 카운트(count)(350)를 결정할 수 있다. 예를 들어, 평가값(340) 중 37개의 값이 조건(342)을 만족하는 경우, 카운트(350)는 "37"의 값이 될 것이다. 동작 314에서, 평가 모듈(150)은 카운트(350)를 임계값(360)과 비교할 수 있으며, 임계값(360)은 머신 러닝 명령어(122)에 의해 정의될 수 있고 메모리(104)에 저장될 수 있다. 일 예시에서, 임계값(360)은 트레이닝 데이터(160)의 포인트의 수의 절반일 수 있다. 예를 들어, 트레이닝 데이터(160)가 100개의 포인트를 포함하는 경우 임계값(360)은 "50"의 값일 수 있다.
동작 315에서, 평가 모듈(150)은 카운트(350)와 임계값(360)의 비교에 기초하여 가중치 이득(152)을 결정할 수 있다. 평가 모듈(150)은 카운트(350)와 임계값(360)의 비교에 기초하여 가중치 이득(152)에 값을 할당할 수 있다. 일 예시에서, 카운트(350)가 "37"이고 임계값이 "50"인 경우, 평가 모듈(150)은 가중치 이득(152)에 "1"의 값 또는 "A"("apply")를 할당할 수 있다. 유사하게, 카운트(350)가 "71"이고 임계값이 "50"인 경우, 평가 모듈(150)은 가중치 이득(152)에 "0"의 값 또는 "not A"("do not apply")를 할당할 수 있다. 평가 모듈(150)은 가중치 이득(152)을 프로세싱 모듈(110)로 전송할 수 있다. 프로세싱 모듈(110)은 가중치 이득(152)의 값에 기초하여 트레이닝 데이터(160)에 가중치(170)를 적용할지 여부를 결정할 수 있다. 프로세싱 모듈(110)은 가중치 이득(152)의 값에 기초하여 학습 함수(162)를 배치할지 가중 함수(172)를 배치할지 여부를 머신 러닝 모듈(120)에 더 지시할 수 있다.
다른 가능한 이점 중에서, 본 개시에 따른 시스템은 머신 러닝 시스템의 성능을 개선할 수 있다. 일부 예시에서, 가중 트레이닝 데이터로부터 결정되는 가중 함수는 가중치가 부여되지 않은 트레이닝 데이터로부터 결정되는 함수보다 더 정확한 것으로 간주될 수 있다. 그러나, 가중 트레이닝 데이터는 샘플 손실을 야기할 수 잇으며, 가중 함수의 생성을 의도치 않게 손상시킬 수 있다. 본 개시에 따른 시스템은 트레이닝 데이터에 대한 가중치의 적용이 머신 러닝 시스템의 성능에 이득이 되거나 손상이 될 수 있는지 여부를 결정하기 위한 방법을 제공할 수 있다.
도 4는 여기에 제시되는 적어도 일부 실시예에 따라 배열되는, 트레이닝 데이터를 위한 가중치 이득 평가기를 구현하기 위한 예시적인 프로세스를 위한 흐름도를 도시한다. 도 4의 프로세스는 예컨대 위에서 논의된 시스템(100)을 사용하여 구현될 수 있다. 예시적인 프로세스는 블록(S2, S4, S6, S8, S10, S12, S14 및/또는 S16) 중 하나 이상에 의해 도시된 하나 이상의 동작, 작용 또는 기능을 포함할 수 있다. 별개의 블록으로 도시되어 있으나, 요구되는 구현에 따라 다양한 블록들이 추가적인 블록들로 분할되거나 더 적은 블록들로 조합되거나 제거될 수 있다.
프로세싱은 블록 S2 "트레이닝 데이터에 기초하여 제1 함수를 결정"에서 시작할 수 있다. 블록 S2에서, 장치는 트레이닝 데이터에 기초하여 제1 함수를 결정할 수 있다. 트레이닝 데이터는 트레이닝 입력값 및 트레이닝 레이블을 포함할 수 있다.
프로세싱은 블록 S2에서 블록 S4 "트레이닝 데이터에 가중치의 집합을 적용하여 가중 트레이닝 데이터를 생성"으로 계속할 수 있다. 블록 S4에서, 장치는 트레이닝 데이터에 가중치의 집합을 적용하여 가중 트레이닝 데이터를 생성할 수 있다.
프로세싱은 블록 S4에서 블록 S6 "가중 트레이닝 데이터에 기초하여 제2 함수를 결정"으로 계속할 수 있다. 블록 S6에서, 장치는 가중 트레이닝 데이터에 기초하여 제2 함수를 결정할 수 있다.
프로세싱은 블록 S6에서 블록 S8 "타겟 함수에 기초하여 타겟 데이터를 생성"으로 계속할 수 있다. 블록 S8에서, 장치는 타겟 함수에 기초하여 타겟 데이터를 생성할 수 있다. 타겟 함수는 트레이닝 레이블과 상이한 타겟 레이블을 포함할 수 있다. 장치는 타겟 함수를 생성할 수 있다. 일 예시에서, 장치는 인공 함수를 생성하기 위한 파라미터의 집합을 결정할 수 있다. 장치는 인공 함수와 트레이닝 입력값을 사용하여 인공 데이터를 더 생성할 수 있다. 인공 데이터는 트레이닝 입력값 및 인공 레이블을 포함할 수 있다. 장치는 트레이닝 데이터와 연관되는 제1 평균을 더 결정할 수 있다. 장치는 트레이닝 데이터와 연관되는 제1 표준편차를 더 결정할 수 있다. 장치는 인공 데이터와 연관되는 제2 평균을 더 결정할 수 있다. 장치는 인공 데이터와 연관되는 제2 표준편차를 더 결정할 수 있다. 장치는 제1 평균, 제1 표준편차, 제2 평균, 및 제2 표준편차에 기초하여 타겟 함수를 더 생성할 수 있다. 일부 예시에서, 타겟 함수는 잡음 파라미터에 기초할 수 있다.
프로세싱은 블록 S8에서 블록 S10 "타겟 데이터에 기초하여 제3 함수를 결정"으로 계속할 수 있다. 블록 S10에서, 장치는 타겟 데이터에 기초하여 제3 함수를 결정할 수 있다.
프로세싱은 블록 S10에서 블록 S12 "타겟 데이터에 가중치의 집합을 적용하여 가중 타겟 데이터를 생성"으로 계속할 수 있다. 블록 S12에서, 장치는 타겟 데이터에 가중치의 집합을 적용하여 가중 타겟 데이터를 생성할 수 있다.
프로세싱은 블록 S12에서 블록 S14 "가중 타겟 데이터에 기초하여 제4 함수를 결정"으로 계속할 수 있다. 블록 S14에서, 장치는 가중 타겟 데이터에 기초하여 제4 함수를 결정할 수 있다.
프로세싱은 블록 S14에서 블록 S16 "제1, 제2, 제3, 및 제4 함수에 기초하여 가중치 이득을 결정"으로 계속할 수 있다. 블록 S16에서, 장치는 제1, 제2, 제3, 및 제4 함수에 기초하여 가중치 이득을 결정할 수 있다. 가중치 이득은 트레이닝 데이터에 가중치의 집합을 적용하기 위한 이득에 연관될 수 있다. 일부 예시에서, 장치는 제1 기대값, 제2 기대값, 제3 기대값, 및 제4 기대값을 결정할 수 있다. 제1 기대값은 제1 함수와 제2 함수 사이의 기대값일 수 있다. 제2 기대값은 제3 함수와 타겟 함수 사이의 기대값일 수 있다. 제3 기대값은 제3 함수와 타겟 함수 사이의 기대값일 수 있다. 제4 기대값은 제3 함수와 제4 함수 사이의 기대값일 수 있다. 가중치 이득의 결정은 제1, 제2 제3, 및 제4 기대값에 기초할 수 있다. 일부 예시에서, 제1, 제2, 제3, 및 제4 기대값은 제1, 제2, 제3, 및 제4 함수에 대한 테스트 입력값의 적용에 기초할 수 있다.
일부 예시에서, 장치는 제2, 제3, 및 제4 기대값을 사용하여 평가값을 더 결정할 수 있다. 장치는 평가값을 제1 기대값과 더 비교할 수 있다. 장치는 제1 기대값과 평가값의 비교에 기초하여 카운트를 더 결정할 수 있다. 장치는 카운트를 임계값과 더 비교할 수 있다. 가중치 이득의 결정은 카운트의 임계값과의 비교에 기초할 수 있다.
도 5는 여기에 설명되는 적어도 일부 실시예에 따라 배열되는, 트레이닝 데이터를 위한 가중치 이득 평가기를 구현하는 데에 이용될 수 있는 예시적인 컴퓨터 프로그램 제품을 도시한다. 프로그램 제품(500)은 신호 포함 매체(signal bearing medium)(502)를 포함할 수 있다. 신호 포함 매체(502)는, 예컨대 프로세서에 의해 실행되는 경우 도 1 내지 4에 관하여 앞서 설명된 기능을 제공할 수 있는 하나 이상의 명령어(504)를 포함할 수 있다. 따라서, 예를 들어, 시스템(100)을 참조하면, 컴퓨팅 장치(102)는 매체(502)에 의해 시스템(100)으로 전달되는 명령어(504)에 응답하여 도 5에 도시된 블록 중 하나 이상을 착수할 수 있다.
일부 구현예에서, 신호 포함 매체(502)는 하드 디스크 드라이브, CD(Compact Disc), DVD(Digital Video Disk), 디지털 테이프, 메모리 등과 같은 컴퓨터 판독 가능 매체(506)를 포함할 수 있으나, 이에 제한되지는 않는다. 일부 구현예에서, 신호 포함 매체(502)는 메모리, 읽기/쓰기(R/W) CD, R/W DVD 등과 같은 기록 가능 매체(508)를 포함할 수 있으나, 이에 제한되지는 않는다. 일부 구현예에서, 신호 포함 매체(502)는 디지털 및/또는 아날로그 통신 매체(예컨대, 광섬유 케이블, 도파관(waveguide), 유선 통신 링크, 무선 통신 링크 등)와 같은 통신 매체(510)를 포함할 수 있으나, 이에 제한되지는 않는다. 따라서, 예를 들어, 프로그램 제품(500)은, 신호 포함 매체(502)가 무선 통신 매체(510)(예컨대, IEEE 802.11 표준에 따르는 무선 통신 매체)에 의해 전달되는 RF 신호 포함 매체(502)에 의하여 시스템(100)의 하나 이상의 모듈로 전달될 수 있다.
도 6은 여기에서 설명되는 적어도 일부 실시예에 따라 배열되는, 트레이닝 데이터를 위한 가중치 이득 평가기를 구현하도록 배열되는 예시적인 컴퓨팅 장치를 도시하는 블록도이다. 매우 기본적인 구성(basic configuration)(602)에서, 컴퓨팅 장치(600)는 전형적으로 하나 이상의 프로세서(604) 및 시스템 메모리(606)를 포함한다. 메모리 버스(608)가 프로세서(604)와 시스템 메모리(606) 사이의 통신을 위해 사용될 수 있다.
요구되는 구성에 따라, 프로세서(604)는 마이크로프로세서(μP), 마이크로컨트롤러(μC), 디지털 신호 프로세서(DSP) 또는 그 임의의 조합을 포함하는 임의의 유형일 수 있지만, 이에 한정되는 것은 아니다. 프로세서(604)는 레벨 1 캐시(610) 및 레벨 2 캐시(612)와 같은 하나 이상의 레벨의 캐싱, 프로세서 코어(614) 및 레지스터(616)를 포함할 수 있다. 예시적인 프로세서 코어(614)는 ALU(arithmetic logic unit), FPU(floating point unit), DSP 코어(digital signal processing core), 또는 그 임의의 조합을 포함할 수 있다. 예시적인 메모리 컨트롤러(618)는 또한 프로세서(604)와 사용될 수 있거나, 또는 일부 구현예에서, 메모리 컨트롤러(618)는 프로세서(604)의 내부 부품일 수 있다.
요구되는 구성에 따라, 시스템 메모리(606)는 (RAM과 같은) 휘발성 메모리, (ROM, 플래시 메모리 등과 같은) 비휘발성 메모리, 또는 그 임의의 조합을 포함하나 이에 한정되지 않는 임의의 유형일 수 있다. 시스템 메모리(606)는 운영 체제(620), 하나 이상의 애플리케이션(622) 및 프로그램 데이터(624)를 포함할 수 있다. 애플리케이션(622)은 도 1 내지 4의 시스템(100)에 관하여 앞서 설명된 것을 포함하여 여기에 설명된 기능을 수행하도록 배열되는 가중치 이득 평가 알고리즘(626)을 포함할 수 있다. 프로그램 데이터(624)는 여기에서 설명된 바와 같은 트레이닝 데이터를 위한 가중치 이득 평가기의 구현에 유용할 수 있는 가중치 이득 평가 데이터(628)를 포함할 수 있다. 일부 실시예에서, 트레이닝 데이터를 위한 가중치 이득 평가기의 구현이 제공될 수 있도록 애플리케이션(622)은 운영 체제(620) 상에서 프로그램 데이터(624)와 동작하도록 배열될 수 있다. 이러한 설명된 기본 구성(602)은 내부 파선 내의 컴포넌트들에 의해 도 6에 도시된다.
컴퓨팅 장치(600)는 추가적인 특징 또는 기능, 및 기본 구성(602)과 임의의 요구되는 장치와 인터페이스 사이의 통신을 용이하게 하기 위한 추가적인 인터페이스를 가질 수 있다. 예를 들어, 버스/인터페이스 컨트롤러(630)는 저장 인터페이스 버스(634)를 통한 기본 구성(602)과 하나 이상의 데이터 저장 장치(632) 간의 통신을 용이하게 하는 데에 사용될 수 있다. 데이터 저장 장치(632)는 분리형 저장 장치(636), 비분리형 저장 장치(638), 또는 그 조합일 수 있다. 분리형 저장 장치 및 비분리형 저장 장치의 예로는, 몇 가지 말하자면, 플렉서블 디스크 드라이브 및 하드 디스크 드라이브(HDD)와 같은 자기 디스크 장치, 컴팩트 디스크(CD) 드라이브 또는 디지털 다기능 디스크(DVD) 드라이브와 같은 광 디스크 드라이브, 고체 상태 드라이브(solid state drive(SSD)) 및 테이프 드라이브를 포함한다. 예시적인 컴퓨터 저장 매체는, 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성의, 분리형 및 비분리형 매체를 포함할 수 있다.
시스템 메모리(606), 분리형 저장 장치(636) 및 비분리형 저장 장치(638)는 컴퓨터 저장 매체의 예시이다. 컴퓨터 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 다른 메모리 기술, CD-ROM, 디지털 다기능 디스크(DVD) 또는 다른 광학 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 장치 또는 다른 자기 저장 장치, 또는 원하는 정보를 저장하는 데에 사용될 수 있고 컴퓨팅 장치(600)에 의해 액세스될 수 있는 임의의 다른 매체를 포함하지만, 이에 한정되는 것은 아니다. 임의의 그러한 컴퓨터 저장 매체는 컴퓨팅 장치(600)의 일부일 수 있다.
컴퓨팅 장치(600)는 버스/인터페이스 컨트롤러(630)를 통한 다양한 인터페이스 장치(예컨대, 출력 장치(642), 주변 인터페이스(644) 및 통신 장치(646))로부터 기본 구성(602)으로의 통신을 용이하게 하기 위한 인터페이스 버스(640)도 포함할 수 있다. 예시적인 출력 장치(642)는 그래픽 처리 유닛(648) 및 오디오 처리 유닛(650)을 포함하며, 이는 하나 이상의 A/V 포트(652)를 통해 디스플레이 또는 스피커와 같은 다양한 외부 장치로 통신하도록 구성될 수 있다. 예시적인 주변 인터페이스(644)는 직렬 인터페이스 컨트롤러(654) 또는 병렬 인터페이스 컨트롤러(656)를 포함하며, 이는 하나 이상의 I/O 포트(658)를 통해 입력 장치(예컨대, 키보드, 마우스, 펜, 음성 입력 장치, 터치 입력 장치 등) 또는 다른 주변 장치(예컨대, 프린터, 스캐너 등)와 같은 외부 장치와 통신하도록 구성될 수 있다. 예시적인 통신 장치(646)는 네트워크 컨트롤러(660)를 포함하며, 이는 하나 이상의 통신 포트(664)를 통해 네트워크 통신 링크 상에서의 하나 이상의 다른 컴퓨팅 장치(662)와의 통신을 용이하게 하도록 배열될 수 있다.
네트워크 통신 링크는 통신 매체의 일례일 수 있다. 통신 매체는 전형적으로 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파 또는 다른 전송 메커니즘 같은 변조된 데이터 신호 내의 다른 데이터에 의해 구현될 수 있고, 임의의 정보 전달 매체를 포함할 수 있다. "변조된 데이터 신호"는 신호 내에 정보를 인코딩하기 위한 방식으로 설정되거나 변경된 특성 중 하나 이상을 갖는 신호일 수 있다. 제한적인지 않은 예시로서, 통신 매체는 유선 네트워크 또는 직접 유선 접속과 같은 유선 매체, 및 음향(acoustic), 무선 주파수(RF), 마이크로파(microwave), 적외선(IR) 및 다른 무선 매체와 같은 무선 매체를 포함할 수 있다. 여기에서 사용되는 컴퓨터 판독 가능 매체라는 용어는 저장 매체 및 통신 매체 둘 다를 포함할 수 있다.
컴퓨팅 장치(600)는 휴대 전화, PDA(personal data assistant), 개인용 미디어 플레이어 장치, 무선 웹-워치(web-watch) 장치, 개인용 헤드셋 장치, 특수 용도 장치, 또는 위 기능 중 임의의 것을 포함하는 하이브리드(hybrid) 장치와 같은 소형 폼 팩터(small-form factor)의 휴대용 (또는 모바일) 전자 장치의 일부로서 구현될 수 있다. 컴퓨팅 장치(600)는 또한 랩탑 컴퓨터 및 랩탑이 아닌 컴퓨터 구성을 모두 포함하는 개인용 컴퓨터로서 구현될 수 있다.
본 개시는 다양한 태양의 예시로서 의도된 본 출원에 기술된 특정 실시예들에 제한되지 않을 것이다. 당업자에게 명백할 바와 같이, 많은 수정과 변형이 그 사상과 범위를 벗어나지 않으면서 이루어질 수 있다. 여기에 열거된 것들에 더하여, 본 개시의 범위 안에서 기능적으로 균등한 방법과 장치가 위의 설명으로부터 당업자에게 명백할 것이다. 그러한 수정과 변형은 첨부된 청구항의 범위에 들어가도록 의도된 것이다. 본 개시는 첨부된 청구항의 용어에 의해서만, 그러한 청구항에 부여된 균등물의 전 범위와 함께, 제한될 것이다. 본 개시가 물론 다양할 수 있는 특정 방법, 시약, 화합물, 조성 또는 생물학적 시스템에 제한되지 않는 것으로 이해될 것이다. 또한, 여기에서 사용된 용어는 단지 특정 실시예들을 설명하기 위한 목적이고, 제한하는 것으로 의도되지 않음이 이해될 것이다.
여기에서 실질적으로 임의의 복수 및/또는 단수의 용어의 사용에 대하여, 당업자는 맥락 및/또는 응용에 적절하도록, 복수를 단수로 및/또는 단수를 복수로 해석할 수 있다. 다양한 단수/복수의 치환은 명확성을 위해 여기에서 명시적으로 기재될 수 있다.
당업자라면, 일반적으로 여기에 사용되며 특히 첨부된 청구범위(예를 들어, 첨부된 청구범위 본문)에 사용된 용어들이 일반적으로 "개방적(open)" 용어로 의도됨을 이해할 것이다(예를 들어, 용어 "포함하는"은 "포함하지만 이에 제한되지 않는"으로, 용어 "갖는"는 "적어도 갖는"으로, 용어 "포함하다"는 "포함하지만 이에 제한되지 않는다" 등으로 해석되어야 한다). 또한, 당업자라면, 도입된 청구항의 기재사항의 특정 수가 의도된 경우, 그러한 의도가 청구항에 명시적으로 기재될 것이며, 그러한 기재사항이 없는 경우, 그러한 의도가 없음을 이해할 것이다. 예를 들어, 이해를 돕기 위해, 이하의 첨부된 청구범위는 "적어도 하나" 및 "하나 이상" 등의 도입 구절의 사용을 포함하여 청구항 기재사항을 도입할 수 있다. 그러나, 그러한 구절의 사용이, 부정관사 "하나"("a" 또는 "an")에 의한 청구항 기재사항의 도입이, 그러한 하나의 기재사항을 포함하는 실시예로, 그러한 도입된 청구항 기재사항을 포함하는 임의의 특정 청구항을 제한함을 암시하는 것으로 해석되어서는 안되며, 동일한 청구항이 도입 구절인 "하나 이상" 또는 "적어도 하나" 및 "하나"("a" 또는 "an")와 같은 부정관사를 포함하는 경우에도 마찬가지로 해석되어야 한다(예를 들어, "하나"는 "적어도 하나" 또는 "하나 이상"을 의미하는 것으로 해석되어야 한다). 이는 청구항 기재사항을 도입하기 위해 사용된 정관사의 경우에도 적용된다. 또한, 도입된 청구항 기재사항의 특정 수가 명시적으로 기재되는 경우에도, 당업자라면 그러한 기재가 전형적으로 적어도 기재된 수를 의미하도록 해석되어야 함을 이해할 것이다(예를 들어, 다른 수식어가 없이 "두 개의 기재사항"을 단순히 기재한 것은, 적어도 두 개의 기재사항 또는 두 개 이상의 기재사항을 의미한다). 또한, "A, B 및 C 등 중의 적어도 하나"와 유사한 규칙이 사용된 경우에는, 일반적으로 그러한 해석은 당업자가 그 규칙을 이해할 것이라는 전제가 의도된 것이다(예를 들어, "A, B 및 C 중의 적어도 하나를 갖는 시스템"은, A만을 갖거나, B만을 갖거나, C만을 갖거나, A 및 B를 함께 갖거나, A 및 C를 함께 갖거나, B 및 C를 함께 갖거나, A, B 및 C를 함께 갖는 시스템 등을 포함하지만 이에 제한되지 않는다). "A, B 또는 C 등 중의 적어도 하나"와 유사한 규칙이 사용된 경우에는, 일반적으로 그러한 해석은 당업자가 그 규칙을 이해할 것이라는 전제가 의도된 것이다(예를 들어, "A, B 또는 C 중의 적어도 하나를 갖는 시스템"은, A만을 갖거나, B만을 갖거나, C만을 갖거나, A 및 B를 함께 갖거나, A 및 C를 함께 갖거나, B 및 C를 함께 갖거나, A, B 및 C를 함께 갖는 시스템 등을 포함하지만 이에 제한되지 않는다). 또한 당업자라면, 실질적으로 임의의 이접 접속어(disjunctive word) 및/또는 두 개 이상의 대안적인 용어들을 나타내는 구절은, 그것이 상세한 설명, 청구범위 또는 도면에 있는지와 상관없이, 그 용어들 중의 하나, 그 용어들 중의 어느 하나, 또는 그 용어들 두 개 모두를 포함하는 가능성을 고려하는 것으로 이해되어야 함을 이해할 것이다. 예를 들어, "A 또는 B"라는 구절은 "A" 또는 "B" 또는 "A 및 B"의 가능성을 포함하는 것으로 이해될 것이다.
또한, 개시의 특징 또는 양태가 마쿠시(Markush) 그룹으로 기술되는 경우, 개시는 마쿠시 그룹의 임의의 개별 요소 또는 요소들의 하위 그룹의 면에서도 설명됨을 당업자는 인식할 것이다.
당업자에게 이해될 것과 같이, 서면의 설명을 제공하는 측면에서와 같은 임의의 그리고 모든 목적에서, 여기에 개시되어 있는 모든 범위는 임의의 그리고 모든 가능한 하위범위와 그러한 하위범위의 조합을 또한 포함한다. 임의의 열거된 범위는 적어도 1/2, 1/3, 1/4, 1/5, 1/10 등으로 나누어지는 동일한 범위를 충분히 설명하고 실시가능하게 하는 것으로서 쉽게 인식될 수 있다. 제한하지 않는 예시로서, 여기서 논의되는 각각의 범위는 하위 1/3, 중앙 1/3, 상위 1/3 등으로 나누어질 수 있다. 또한, "까지", "적어도", "초과", "미만" 등과 같은 모든 언어가 기재된 수를 포함하며, 전술한 하위범위로 후속적으로 나누어질 수 있는 범위를 지칭함이 당업자에게 이해되어야 한다. 마지막으로, 범위는 각각의 개별 요소를 포함함이 이해되어야 한다. 따라서, 예를 들어, 1-3개의 셀을 갖는 그룹은 1, 2 또는 3개의 셀을 갖는 그룹들을 지칭한다. 유사하게, 1-5개의 셀을 갖는 그룹은 1, 2, 3, 4 또는 5개의 셀을 갖는 그룹을 지칭하는 등이다.
다양한 양태 및 실시예가 여기에 개시되었으나, 다른 양태 및 실시예가 당업자에게 명백할 것이다. 여기에서 개시된 다양한 양태 및 실시예는 예시의 목적이고 제한하려고 의도된 것이 아니며, 진정한 범위와 사상은 이하의 청구범위에서 나타난다.

Claims (21)

  1. 트레이닝 데이터(training data)와 연관되는 가중치 이득(weight benefit)에 기초하여 머신 러닝 시스템을 동작하기 위한 방법으로서,
    장치의 머신 러닝 모듈에 의하여, 상기 트레이닝 데이터에 기초하여 제1 함수를 결정하는 단계 - 상기 트레이닝 데이터는 트레이닝 입력값 및 트레이닝 레이블(label)을 포함함 -;
    상기 장치의 프로세싱 모듈에 의하여, 상기 트레이닝 데이터에 가중치의 집합을 적용하여 가중(weighted) 트레이닝 데이터를 생성하는 단계;
    상기 장치의 상기 머신 러닝 모듈에 의하여, 상기 가중 트레이닝 데이터에 기초하여 제2 함수를 결정하는 단계;
    상기 장치의 타겟 함수 생성 모듈에 의하여, 타겟 함수에 기초하여 타겟 데이터를 생성하는 단계 - 상기 타겟 데이터는 상기 트레이닝 레이블과 상이한 타겟 레이블을 포함함 -;
    상기 장치의 상기 머신 러닝 모듈에 의하여, 상기 타겟 데이터에 기초하여 제3 함수를 결정하는 단계;
    상기 장치의 상기 프로세싱 모듈에 의하여, 상기 타겟 데이터에 상기 가중치의 집합을 적용하여 가중 타겟 데이터를 생성하는 단계;
    상기 장치의 상기 머신 러닝 모듈에 의하여, 상기 가중 타겟 데이터에 기초하여 제4 함수를 결정하는 단계;
    상기 장치의 평가 모듈에 의하여, 상기 제1, 제2, 제3, 및 제4 함수에 기초하여 상기 가중치 이득을 결정하는 단계 - 상기 가중치 이득은 상기 트레이닝 데이터에 상기 가중치의 집합을 적용하기 위한 이득에 연관됨 -;
    상기 장치의 상기 프로세싱 모듈에 의하여, 상기 가중치 이득에 기초하여, 상기 트레이닝 데이터에 상기 가중치의 집합을 적용할 것인지 여부를 결정하는 단계;
    상기 장치의 상기 프로세싱 모듈에 의하여, 상기 트레이닝 데이터에 상기 가중치의 집합을 적용할 것인지 여부의 결정에 기초하여, 상기 제1 함수 및 상기 제2 함수 중에서 특정한 함수를 배치하도록 상기 머신 러닝 모듈에 명령하는 단계;
    상기 장치의 상기 머신 러닝 모듈에 의하여, 상기 제1 함수가 상기 머신 러닝 시스템에서 상기 제2 함수보다 향상된 성능을 가져온다고 결정되는 경우, 상기 제1 함수를 상기 머신 러닝 시스템에 배치하는 단계 - 상기 제1 함수는 상기 가중치의 집합이 적용되지 않은 상기 트레이닝 데이터에 기초함 -;
    상기 장치의 상기 머신 러닝 모듈에 의하여, 상기 제2 함수가 상기 머신 러닝 시스템에서 상기 제1 함수보다 향상된 성능을 가져온다고 결정되는 경우, 상기 머신 러닝 시스템으로, 상기 가중 트레이닝 데이터에 기초하는 상기 제2 함수를 배치하는 단계;
    상기 머신 러닝 시스템에서 입력값을 수신하는 단계; 및
    향상된 정확도(accuracy)로 상기 머신 러닝 시스템의 출력을 생성하도록 배치된 특정한 함수에 상기 머신 러닝 시스템에서 수신된 상기 입력값을 적용함으로써 상기 머신 러닝 시스템을 동작하는 단계
    를 포함하고,
    상기 특정한 함수의 배치는 상기 가중치의 집합의 사용이 상기 향상된 정확도를 가져올 것인지 여부에 따라 상기 머신 러닝 시스템이 상기 가중치의 집합을 사용하거나 사용하지 않도록 함으로써 상기 향상된 정확도를 제공하여 상기 머신 러닝 시스템의 성능에 이득이 되도록 구성되는 것인, 방법.
  2. 제1항에 있어서,
    상기 장치의 연산 모듈에 의하여, 상기 제1 함수와 상기 제2 함수 사이의 제1 기대값(expected value)을 결정하는 단계;
    상기 장치의 상기 연산 모듈에 의하여, 상기 제3 함수와 상기 타겟 함수 사이의 제2 기대값을 결정하는 단계 - 상기 타겟 함수는 상기 트레이닝 데이터에 기초함 -;
    상기 장치의 상기 연산 모듈에 의하여, 상기 제4 함수와 상기 타겟 함수 사이의 제3 기대값을 결정하는 단계; 및
    상기 장치의 상기 연산 모듈에 의하여, 상기 제3 함수와 상기 제4 함수 사이의 제4 기대값을 결정하는 단계
    를 더 포함하고,
    상기 가중치 이득의 결정은 상기 제1, 제2, 제3, 및 제4 기대값에 기초하는 것인, 방법.
  3. 제2항에 있어서,
    상기 제1, 제2, 제3, 및 제4 기대값은 각각의, 상기 제1, 제2, 제3, 및 제4 함수에 대한 테스트 입력값의 적용에 기초하는 것인, 방법.
  4. 제2항에 있어서,
    상기 장치의 상기 평가 모듈에 의하여, 상기 제2, 제3, 및 제4 기대값을 사용하여 평가값(evaluation value)을 결정하는 단계;
    상기 장치의 상기 평가 모듈에 의하여, 상기 평가값을 상기 제1 기대값과 비교하는 단계;
    상기 장치의 상기 평가 모듈에 의하여, 상기 제1 기대값과 상기 평가값의 상기 비교에 기초하여 카운트(count)를 결정하는 단계; 및
    상기 장치의 상기 평가 모듈에 의하여, 상기 카운트를 임계값과 비교하는 단계
    를 더 포함하고,
    상기 가중치 이득의 상기 결정은 상기 임계값과 상기 카운트의 상기 비교에 기초하는 것인, 방법.
  5. 제2항에 있어서,
    상기 가중 타겟 데이터의 생성은 상기 타겟 함수에 기초하는 것인, 방법.
  6. 제1항에 있어서,
    상기 장치의 상기 타겟 함수 생성 모듈에 의하여, 인공 함수(artificial function)를 생성하기 위한 파라미터의 집합을 결정하는 단계;
    상기 장치의 상기 타겟 함수 생성 모듈에 의하여, 상기 인공 함수 및 상기 트레이닝 입력값을 사용하여 인공 데이터를 생성하는 단계 - 상기 인공 데이터는 상기 트레이닝 입력값 및 인공 레이블을 포함함 -;
    상기 장치의 상기 타겟 함수 생성 모듈에 의하여, 상기 트레이닝 데이터 및 상기 인공 데이터에 기초하여 상기 타겟 함수를 생성하는 단계;
    상기 장치의 상기 타겟 함수 생성 모듈에 의하여, 상기 제1 함수와 상기 제2 함수 사이의 제1 기대값을 결정하는 단계;
    상기 장치의 상기 타겟 함수 생성 모듈에 의하여, 상기 제3 함수와 상기 타겟 함수 사이의 제2 기대값을 결정하는 단계;
    상기 장치의 상기 타겟 함수 생성 모듈에 의하여, 상기 제4 함수와 상기 타겟 함수 사이의 제3 기대값을 결정하는 단계; 및
    상기 장치의 상기 타겟 함수 생성 모듈에 의하여, 상기 제3 함수와 상기 제4 함수 사이의 제4 기대값을 결정하는 단계
    를 더 포함하고,
    상기 가중치 이득의 결정은 상기 제1, 제2, 제3, 및 제4 기대값에 기초하는 것인, 방법.
  7. 제6항에 있어서,
    상기 타겟 함수의 생성은,
    상기 장치의 상기 타겟 함수 생성 모듈에 의하여, 상기 트레이닝 데이터에 연관되는 제1 평균을 결정하는 단계;
    상기 장치의 상기 타겟 함수 생성 모듈에 의하여, 상기 트레이닝 데이터에 연관되는 제1 표준편차를 결정하는 단계;
    상기 장치의 상기 타겟 함수 생성 모듈에 의하여, 상기 인공 데이터에 연관되는 제2 평균을 결정하는 단계; 및
    상기 장치의 상기 타겟 함수 생성 모듈에 의하여, 상기 인공 데이터에 연관되는 제2 표준편차를 결정하는 단계
    를 포함하고,
    상기 타겟 함수는 상기 제1 평균, 상기 제1 표준편차, 상기 제2 평균, 및 상기 제2 표준편차에 기초하는 것인, 방법.
  8. 제7항에 있어서,
    상기 타겟 함수는 잡음(noise) 파라미터에 기초하는 것인, 방법.
  9. 제7항에 있어서,
    상기 타겟 함수는,
    상기 제1 평균, 상기 제1 표준편차, 상기 제2 평균, 및 상기 제2 표준편차에 대한 부호 함수(sign function);
    상기 제1 평균, 상기 제1 표준편차, 상기 제2 평균, 및 상기 제2 표준편차에 대한 라운드 함수(round function); 또는
    상기 제1 평균, 상기 제1 표준편차, 상기 제2 평균, 및 상기 제2 표준편차에 대한 근접 수 함수(nearest number function)
    중 하나의 적용에 기초하는 것인, 방법.
  10. 트레이닝 데이터와 연관되는 가중치 이득에 기초하여 동작하도록 구성되는 머신 러닝 시스템으로서,
    상기 트레이닝 데이터를 저장하고, 그리고 가중치의 집합을 저장하도록 구성되는 메모리 - 상기 트레이닝 데이터는 트레이닝 입력값 및 트레이닝 레이블을 포함함 -;
    상기 메모리와 통신하도록 구성되고, 타겟 함수에 기초하여 타겟 데이터를 생성하고, 그리고 상기 타겟 데이터를 상기 메모리에 저장하도록 구성되는 타겟 함수 생성 모듈 - 상기 타겟 데이터는 상기 트레이닝 레이블과 상이한 타겟 레이블을 포함함 -;
    상기 타겟 함수 생성 모듈 및 상기 메모리와 통신하도록 구성되고, 상기 트레이닝 데이터에 상기 가중치의 집합을 적용하여 가중 트레이닝 데이터를 생성하고, 상기 타겟 데이터에 상기 가중치의 집합을 적용하여 가중 타겟 데이터를 생성하고, 그리고 상기 가중 트레이닝 데이터 및 상기 가중 타겟 데이터를 상기 메모리에 저장하도록 구성되는 프로세싱 모듈;
    상기 타겟 함수 생성 모듈, 상기 프로세싱 모듈 및 상기 메모리와 통신하도록 구성되고, 상기 트레이닝 데이터에 기초하여 제1 함수를 결정하고, 상기 가중 트레이닝 데이터에 기초하여 제2 함수를 결정하고, 상기 타겟 데이터에 기초하여 제3 함수를 결정하고, 그리고 상기 가중 타겟 데이터에 기초하여 제4 함수를 결정하도록 구성되는 머신 러닝 모듈; 및
    상기 타겟 함수 생성 모듈, 상기 프로세싱 모듈, 상기 머신 러닝 모듈 및 상기 메모리와 통신하도록 구성되고, 상기 제1, 제2, 제3, 및 제4 함수에 기초하여 상기 가중치 이득을 결정하도록 구성되는 평가 모듈
    을 포함하고,
    상기 가중치 이득은 상기 트레이닝 데이터에 상기 가중치의 집합을 적용하기 위한 이득에 연관되고,
    상기 프로세싱 모듈은 상기 제1 함수 및 상기 제2 함수 중에서 특정한 함수를 배치하도록 상기 머신 러닝 모듈에 명령하도록 더 구성되고,
    상기 머신 러닝 모듈은,
    상기 제1 함수가 상기 머신 러닝 시스템에서 상기 제2 함수보다 향상된 성능을 가져온다고 결정되는 경우, 상기 제1 함수를 상기 머신 러닝 시스템에 배치하고 - 상기 제1 함수는 상기 가중치의 집합이 적용되지 않은 상기 트레이닝 데이터에 기초함 -;
    상기 제2 함수가 상기 머신 러닝 시스템에서 상기 제1 함수보다 향상된 성능을 가져온다고 결정되는 경우, 상기 머신 러닝 시스템으로, 상기 가중 트레이닝 데이터에 기초하는 상기 제2 함수를 배치하고; 그리고
    향상된 정확도로 상기 머신 러닝 시스템의 출력을 생성하도록 배치된 특정한 함수에 상기 머신 러닝 시스템에서 수신된 입력값의 적용에 의하여 상기 머신 러닝 시스템을 동작하도록 더 구성되고,
    상기 특정한 함수의 배치는 상기 머신 러닝 시스템의 성능에 이득이 되도록 구성되는 것인, 머신 러닝 시스템.
  11. 제10항에 있어서,
    상기 타겟 함수 생성 모듈, 상기 프로세싱 모듈, 상기 머신 러닝 모듈, 상기 평가 모듈 및 상기 메모리와 통신하도록 구성되는 연산 모듈을 더 포함하고,
    상기 연산 모듈은,
    상기 제1 함수와 상기 제2 함수 사이의 제1 기대값을 결정하고;
    상기 타겟 함수를 상기 메모리로부터 회수(retrieve)하고 - 상기 타겟 함수는 상기 트레이닝 데이터에 기초함 -;
    상기 제3 함수와 상기 타겟 함수 사이의 제2 기대값을 결정하고;
    상기 제4 함수와 상기 타겟 함수 사이의 제3 기대값을 결정하고;
    상기 제3 함수와 상기 제4 함수 사이의 제4 기대값을 결정하고; 그리고
    상기 제1, 제2, 제3, 및 제4 기대값을 상기 평가 모듈로 전송하도록 구성되고,
    상기 평가 모듈은 상기 제1, 제2, 제3, 및 제4 기대값에 기초하여 상기 가중치 이득을 결정하도록 구성되는 것인, 머신 러닝 시스템.
  12. 제11항에 있어서,
    상기 평가 모듈은,
    상기 제1, 제2, 제3, 및 제4 기대값을 수신하고;
    상기 제2, 제3, 및 제4 기대값을 사용하여 평가값을 결정하고;
    상기 평가값을 상기 제1 기대값과 비교하고;
    상기 제1 기대값과 상기 평가값의 상기 비교에 기초하여 카운트를 결정하고; 그리고
    상기 카운트를 임계값과 비교하도록 더 구성되고,
    상기 가중치 이득의 상기 결정은 상기 임계값과 상기 카운트의 상기 비교에 기초하는 것인, 머신 러닝 시스템.
  13. 제11항에 있어서,
    상기 프로세싱 모듈은 상기 타겟 함수를 사용하여 상기 가중 타겟 데이터를 생성하도록 구성되는 것인, 머신 러닝 시스템.
  14. 제10항에 있어서,
    상기 타겟 함수 생성 모듈은,
    인공 함수를 생성하기 위한 파라미터의 집합을 결정하고;
    상기 인공 함수 및 상기 트레이닝 입력값을 사용하여 인공 데이터를 생성하고 - 상기 인공 데이터는 상기 트레이닝 입력값 및 인공 레이블을 포함함 -;
    상기 트레이닝 데이터 및 상기 인공 데이터에 기초하여 상기 타겟 함수를 생성하고;
    상기 제1 함수와 상기 제2 함수 사이의 제1 기대값을 결정하고;
    상기 제3 함수와 상기 타겟 함수 사이의 제2 기대값을 결정하고;
    상기 제4 함수와 상기 타겟 함수 사이의 제3 기대값을 결정하고; 그리고
    상기 제3 함수와 상기 제4 함수 사이의 제4 기대값을 결정하도록 더 구성되고,
    상기 평가 모듈은 상기 제1, 제2, 제3, 및 제4 기대값에 기초하여 상기 가중치 이득을 결정하도록 구성되는, 머신 러닝 시스템.
  15. 제14항에 있어서,
    상기 타겟 함수 생성 모듈은,
    상기 트레이닝 데이터에 연관되는 제1 평균을 결정하고;
    상기 트레이닝 데이터에 연관되는 제1 표준편차를 결정하고;
    상기 인공 데이터에 연관되는 제2 평균을 결정하고; 그리고
    상기 인공 데이터에 연관되는 제2 표준편차를 결정하도록 더 구성되고,
    상기 타겟 함수는 상기 제1 평균, 상기 제1 표준편차, 상기 제2 평균 및 상기 제2 표준편차에 기초하는 것인, 머신 러닝 시스템.
  16. 트레이닝 데이터에 연관되는 가중치 이득에 기초하여 머신 러닝 시스템을 동작하기 위한 방법으로서,
    제1 장치에서 제2 장치로부터 상기 트레이닝 데이터에 기초하는 제1 함수를 수신하는 단계 - 상기 트레이닝 데이터는 트레이닝 입력값 및 트레이닝 레이블을 포함함 -;
    상기 제1 장치에서 상기 제2 장치로부터 가중치의 집합을 수신하는 단계;
    상기 제1 장치에서 상기 제2 장치로부터 가중 트레이닝 데이터에 기초하는 제2 함수를 수신하는 단계 - 상기 가중 트레이닝 데이터는 상기 가중치의 집합에 기초함 -;
    상기 제1 장치의 타겟 함수 생성 모듈에 의하여, 타겟 함수에 기초하여 타겟 데이터를 생성하는 단계 - 상기 타겟 데이터는 상기 트레이닝 레이블과 상이한 타겟 레이블을 포함함 -;
    상기 제1 장치의 머신 러닝 모듈에 의하여, 상기 타겟 데이터에 기초하여 제3 함수를 결정하는 단계;
    상기 제1 장치의 프로세싱 모듈에 의하여, 상기 타겟 데이터에 상기 가중치의 집합을 적용하여 가중 타겟 데이터를 생성하는 단계;
    상기 제1 장치의 상기 머신 러닝 모듈에 의하여, 상기 가중 타겟 데이터에 기초하여 제4 함수를 결정하는 단계;
    상기 장치의 평가 모듈에 의하여, 상기 제1, 제2, 제3, 및 제4 함수에 기초하여 상기 가중치 이득을 결정하는 단계 - 상기 가중치 이득은 상기 트레이닝 데이터에 상기 가중치의 집합을 적용하기 위한 이득에 연관됨 -;
    상기 제1 장치의 상기 프로세싱 모듈에 의하여, 상기 가중치 이득에 기초하여, 상기 트레이닝 데이터에 상기 가중치의 집합을 적용할 것인지 여부를 결정하는 단계;
    상기 제1 장치의 상기 프로세싱 모듈에 의하여, 상기 트레이닝 데이터에 상기 가중치의 집합을 적용할 것인지 여부의 결정에 기초하여, 상기 제1 함수 및 상기 제2 함수 중에서 특정한 함수를 배치하도록 상기 제1 장치의 상기 머신 러닝 모듈에 명령하는 단계;
    상기 제1 장치의 상기 머신 러닝 모듈에 의하여, 상기 제1 함수가 상기 머신 러닝 시스템에서 상기 제2 함수보다 향상된 성능을 가져온다고 결정되는 경우, 상기 제1 함수를 상기 머신 러닝 시스템에 배치하는 단계 - 상기 제1 함수는 상기 가중치의 집합이 적용되지 않은 상기 트레이닝 데이터에 기초함 -;
    상기 제1 장치의 상기 머신 러닝 모듈에 의하여, 상기 제2 함수가 상기 머신 러닝 시스템에서 상기 제1 함수보다 향상된 성능을 가져온다고 결정되는 경우, 상기 머신 러닝 시스템으로, 상기 가중 트레이닝 데이터에 기초하는 상기 제2 함수를 배치하는 단계; 및
    향상된 정확도로 상기 머신 러닝 시스템의 출력을 생성하도록 배치된 특정한 함수에 상기 머신 러닝 시스템에서 수신된 입력값을 적용함으로써 상기 머신 러닝 시스템을 동작하는 단계
    를 포함하고,
    상기 특정한 함수의 배치는 상기 머신 러닝 시스템의 성능에 이득이 되도록 구성되는 것인, 방법.
  17. 제16항에 있어서,
    상기 제1 장치의 연산 모듈에 의하여, 상기 제1 함수와 상기 제2 함수 사이의 제1 기대값을 결정하는 단계;
    상기 제1 장치의 상기 연산 모듈에 의하여, 상기 제3 함수와 상기 타겟 함수 사이의 제2 기대값을 결정하는 단계;
    상기 제1 장치의 상기 연산 모듈에 의하여, 상기 제4 함수와 상기 타겟 함수 사이의 제3 기대값을 결정하는 단계; 및
    상기 제1 장치의 상기 연산 모듈에 의하여, 상기 제3 함수와 상기 제4 함수 사이의 제4 기대값을 결정하는 단계
    를 더 포함하고,
    상기 가중치 이득의 결정은 상기 제1, 제2, 제3, 및 제4 기대값에 기초하는 것인, 방법.
  18. 제17항에 있어서,
    상기 제1, 제2, 제3, 및 제4 기대값은 각각의, 상기 제1, 제2, 제3, 및 제4 함수에 대한 테스트 입력값의 적용에 기초하는 것인, 방법.
  19. 제17항에 있어서,
    상기 제1 장치의 상기 평가 모듈에 의하여, 상기 제2, 제3, 및 제4 기대값을 사용하여 평가값을 결정하는 단계;
    상기 제1 장치의 상기 평가 모듈에 의하여, 상기 평가값을 상기 제1 기대값과 비교하는 단계;
    상기 제1 장치의 상기 평가 모듈에 의하여, 상기 제1 기대값과 상기 평가값의 상기 비교에 기초하여 카운트를 결정하는 단계; 및
    상기 제1 장치의 상기 평가 모듈에 의하여, 상기 카운트를 임계값과 비교하는 단계
    를 더 포함하고,
    상기 가중치 이득의 상기 결정은 상기 임계값과 상기 카운트의 상기 비교에 기초하는 것인, 방법.
  20. 제16항에 있어서,
    상기 제1 장치의 상기 타겟 함수 생성 모듈에 의하여, 인공 함수를 생성하기 위한 파라미터의 집합을 결정하는 단계;
    상기 제1 장치의 상기 타겟 함수 생성 모듈에 의하여, 상기 인공 함수 및 상기 트레이닝 입력값을 사용하여 인공 데이터를 생성하는 단계 - 상기 인공 데이터는 상기 트레이닝 입력값 및 인공 레이블을 포함함 -;
    상기 제1 장치의 상기 타겟 함수 생성 모듈에 의하여, 상기 트레이닝 데이터에 연관되는 제1 평균을 결정하는 단계;
    상기 제1 장치의 상기 타겟 함수 생성 모듈에 의하여, 상기 트레이닝 데이터에 연관되는 제1 표준편차를 결정하는 단계;
    상기 제1 장치의 상기 타겟 함수 생성 모듈에 의하여, 상기 인공 데이터에 연관되는 제2 평균을 결정하는 단계;
    상기 제1 장치의 상기 타겟 함수 생성 모듈에 의하여, 상기 인공 데이터에 연관되는 제2 표준편차를 결정하는 단계; 및
    상기 제1 장치의 상기 타겟 함수 생성 모듈에 의하여, 상기 제1 평균, 상기 제1 표준편차, 상기 제2 평균, 및 상기 제2 표준편차를 사용하여 상기 타겟 함수를 생성하는 단계
    를 더 포함하는 방법.
  21. 제1항에 있어서,
    상기 제2 함수를 결정하는 단계는 가중 트레이닝 입력값 및 가중 트레이닝 레이블 사이의 관계를 결정하는 단계를 포함하고,
    상기 가중 트레이닝 입력값은 사용자 프로필과 연관되고, 그리고 상기 가중 트레이닝 레이블은 영화 등급(movie rating)과 연관되는 것인, 방법.
KR1020167015353A 2013-11-22 2014-11-21 트레이닝 데이터를 위한 가중치 이득 평가기 KR101889451B1 (ko)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201361907504P 2013-11-22 2013-11-22
US61/907,504 2013-11-22
US201462015133P 2014-06-20 2014-06-20
US62/015,133 2014-06-20
US14/451,859 2014-08-05
US14/451,859 US10558935B2 (en) 2013-11-22 2014-08-05 Weight benefit evaluator for training data
PCT/US2014/066805 WO2015077555A2 (en) 2013-11-22 2014-11-21 Weight benefit evaluator for training data

Publications (2)

Publication Number Publication Date
KR20160083111A KR20160083111A (ko) 2016-07-11
KR101889451B1 true KR101889451B1 (ko) 2018-08-17

Family

ID=53180398

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167015353A KR101889451B1 (ko) 2013-11-22 2014-11-21 트레이닝 데이터를 위한 가중치 이득 평가기

Country Status (5)

Country Link
US (2) US10558935B2 (ko)
EP (1) EP3072060A4 (ko)
JP (1) JP6276857B2 (ko)
KR (1) KR101889451B1 (ko)
WO (1) WO2015077555A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210015176A (ko) 2019-08-01 2021-02-10 박상훈 트레이닝 완성도를 평가하기 위한 장치 및 방법

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10535014B2 (en) 2014-03-10 2020-01-14 California Institute Of Technology Alternative training distribution data in machine learning
US9858534B2 (en) 2013-11-22 2018-01-02 California Institute Of Technology Weight generation in machine learning
US9953271B2 (en) 2013-11-22 2018-04-24 California Institute Of Technology Generation of weights in machine learning
US10558935B2 (en) * 2013-11-22 2020-02-11 California Institute Of Technology Weight benefit evaluator for training data
EP4220464A1 (en) 2017-03-22 2023-08-02 Visa International Service Association Privacy-preserving machine learning
CN107832852B (zh) * 2017-11-14 2021-03-02 深圳码隆科技有限公司 数据处理学习方法、系统以及电子设备
WO2019141905A1 (en) * 2018-01-19 2019-07-25 Nokia Technologies Oy An apparatus, a method and a computer program for running a neural network
JP6950647B2 (ja) * 2018-08-28 2021-10-13 株式会社豊田中央研究所 データ判定装置、方法、及びプログラム
US10977445B2 (en) * 2019-02-01 2021-04-13 International Business Machines Corporation Weighting features for an intent classification system
US11861467B2 (en) * 2020-03-05 2024-01-02 Qualcomm Incorporated Adaptive quantization for execution of machine learning models
US11379748B2 (en) 2020-06-15 2022-07-05 Bank Of America Corporation System for threshold detection using learning reinforcement

Family Cites Families (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2167748A1 (en) * 1995-02-09 1996-08-10 Yoav Freund Apparatus and methods for machine learning hypotheses
US6119083A (en) 1996-02-29 2000-09-12 British Telecommunications Public Limited Company Training process for the classification of a perceptual signal
US6373483B1 (en) 1997-01-13 2002-04-16 Silicon Graphics, Inc. Method, system and computer program product for visually approximating scattered data using color to represent values of a categorical variable
US6594586B1 (en) * 1997-10-28 2003-07-15 California Institute Of Technology Incorporation of contextual information in object identification
US6453307B1 (en) 1998-03-03 2002-09-17 At&T Corp. Method and apparatus for multi-class, multi-label information categorization
ID28800A (id) 1998-05-01 2001-07-05 Barnhill Technologies Llc Sebelum-pemrosesan dan pusat pemrosesan untuk meningkatkan penemuan pengetahuan menggunakan mesin vektor penyanggah
US7318051B2 (en) * 2001-05-18 2008-01-08 Health Discovery Corporation Methods for feature selection in a learning machine
WO2003040949A1 (en) 2001-11-07 2003-05-15 Biowulf Technologies, Llc Pre-processed Feature Ranking for a support Vector Machine
US6789069B1 (en) * 1998-05-01 2004-09-07 Biowulf Technologies Llc Method for enhancing knowledge discovered from biological data using a learning machine
US6850873B1 (en) 1999-09-29 2005-02-01 Eric T Bax Using validation by inference to select a hypothesis function
US7970718B2 (en) 2001-05-18 2011-06-28 Health Discovery Corporation Method for feature selection and for evaluating features identified as significant for classifying data
US6701311B2 (en) 2001-02-07 2004-03-02 International Business Machines Corporation Customer self service system for resource search and selection
US6876955B1 (en) 2001-12-28 2005-04-05 Fannie Mae Method and apparatus for predicting and reporting a real estate value based on a weighted average of predicted values
JP2005044330A (ja) 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
JP2005107743A (ja) * 2003-09-29 2005-04-21 Nec Corp 学習システム
US7356187B2 (en) * 2004-04-12 2008-04-08 Clairvoyance Corporation Method and apparatus for adjusting the model threshold of a support vector machine for text classification and filtering
US7426497B2 (en) * 2004-08-31 2008-09-16 Microsoft Corporation Method and apparatus for analysis and decomposition of classifier data anomalies
US7480667B2 (en) 2004-12-24 2009-01-20 Microsoft Corporation System and method for using anchor text as training data for classifier-based search systems
US7689520B2 (en) * 2005-02-25 2010-03-30 Microsoft Corporation Machine learning system and method for ranking sets of data using a pairing cost function
US7877383B2 (en) * 2005-04-27 2011-01-25 Microsoft Corporation Ranking and accessing definitions of terms
US7472096B2 (en) * 2005-07-18 2008-12-30 Microsoft Corporation Training a learning system with arbitrary cost functions
US7561158B2 (en) 2006-01-11 2009-07-14 International Business Machines Corporation Method and apparatus for presenting feature importance in predictive modeling
EP1818746A1 (en) 2006-02-10 2007-08-15 ALSTOM Technology Ltd Method of condition monitoring
US8001121B2 (en) * 2006-02-27 2011-08-16 Microsoft Corporation Training a ranking function using propagated document relevance
US8019763B2 (en) * 2006-02-27 2011-09-13 Microsoft Corporation Propagating relevance from labeled documents to unlabeled documents
US7617164B2 (en) * 2006-03-17 2009-11-10 Microsoft Corporation Efficiency of training for ranking systems based on pairwise training with aggregated gradients
AU2006201210A1 (en) 2006-03-23 2007-10-11 Canon Information Systems Research Australia Pty Ltd Motion characterisation
US7720830B2 (en) * 2006-07-31 2010-05-18 Microsoft Corporation Hierarchical conditional random fields for web extraction
US20080169975A1 (en) 2007-01-12 2008-07-17 Young Paul Yee Process for generating spatially continuous wind profiles from wind profiler measurements
US8005771B2 (en) 2007-10-04 2011-08-23 Siemens Corporation Segment-based change detection method in multivariate data stream
US20090132515A1 (en) * 2007-11-19 2009-05-21 Yumao Lu Method and Apparatus for Performing Multi-Phase Ranking of Web Search Results by Re-Ranking Results Using Feature and Label Calibration
US8175384B1 (en) 2008-03-17 2012-05-08 Adobe Systems Incorporated Method and apparatus for discriminative alpha matting
JP2009282685A (ja) 2008-05-21 2009-12-03 Sony Corp 情報処理装置、情報処理方法、およびプログラム
WO2010030794A1 (en) 2008-09-10 2010-03-18 Digital Infuzion, Inc. Machine learning methods and systems for identifying patterns in data
JP2010092266A (ja) 2008-10-08 2010-04-22 Nec Corp 学習装置、学習方法及びプログラム
US20100169243A1 (en) * 2008-12-27 2010-07-01 Kibboko, Inc. Method and system for hybrid text classification
US9189472B2 (en) * 2009-03-30 2015-11-17 Touchtype Limited System and method for inputting text into small screen devices
US20120290316A1 (en) 2009-11-27 2012-11-15 New Ideas Company Pty Ltd Method and System for Consumer Centred Care Management
CA2805446C (en) 2010-07-29 2016-08-16 Exxonmobil Upstream Research Company Methods and systems for machine-learning based simulation of flow
US8924314B2 (en) * 2010-09-28 2014-12-30 Ebay Inc. Search result ranking using machine learning
US8504392B2 (en) * 2010-11-11 2013-08-06 The Board Of Trustees Of The Leland Stanford Junior University Automatic coding of patient outcomes
US20120271821A1 (en) 2011-04-20 2012-10-25 Microsoft Corporation Noise Tolerant Graphical Ranking Model
US8798984B2 (en) * 2011-04-27 2014-08-05 Xerox Corporation Method and system for confidence-weighted learning of factored discriminative language models
US20120330971A1 (en) * 2011-06-26 2012-12-27 Itemize Llc Itemized receipt extraction using machine learning
JP5568183B2 (ja) * 2011-07-25 2014-08-06 インターナショナル・ビジネス・マシーンズ・コーポレーション 情報識別方法、プログラム及びシステム
US20130066452A1 (en) 2011-09-08 2013-03-14 Yoshiyuki Kobayashi Information processing device, estimator generating method and program
US9916538B2 (en) * 2012-09-15 2018-03-13 Z Advanced Computing, Inc. Method and system for feature detection
US8873813B2 (en) * 2012-09-17 2014-10-28 Z Advanced Computing, Inc. Application of Z-webs and Z-factors to analytics, search engine, learning, recognition, natural language, and other utilities
US20130097103A1 (en) 2011-10-14 2013-04-18 International Business Machines Corporation Techniques for Generating Balanced and Class-Independent Training Data From Unlabeled Data Set
US9031897B2 (en) 2012-03-23 2015-05-12 Nuance Communications, Inc. Techniques for evaluation, building and/or retraining of a classification model
US8788439B2 (en) * 2012-12-21 2014-07-22 InsideSales.com, Inc. Instance weighted learning machine learning model
US20140180738A1 (en) 2012-12-21 2014-06-26 Cloudvu, Inc. Machine learning for systems management
WO2014110167A2 (en) 2013-01-08 2014-07-17 Purepredictive, Inc. Integrated machine learning for a data management product
WO2014151351A1 (en) * 2013-03-15 2014-09-25 The Echo Nest Corporation Demographic and media preference prediction using media content data analysis
US9489373B2 (en) 2013-07-12 2016-11-08 Microsoft Technology Licensing, Llc Interactive segment extraction in computer-human interactive learning
US9679258B2 (en) 2013-10-08 2017-06-13 Google Inc. Methods and apparatus for reinforcement learning
US10558935B2 (en) 2013-11-22 2020-02-11 California Institute Of Technology Weight benefit evaluator for training data
US9953271B2 (en) * 2013-11-22 2018-04-24 California Institute Of Technology Generation of weights in machine learning
US9858534B2 (en) * 2013-11-22 2018-01-02 California Institute Of Technology Weight generation in machine learning
US10535014B2 (en) * 2014-03-10 2020-01-14 California Institute Of Technology Alternative training distribution data in machine learning
US10262272B2 (en) 2014-12-07 2019-04-16 Microsoft Technology Licensing, Llc Active machine learning
US20170011307A1 (en) 2015-07-07 2017-01-12 California Institute Of Technology Alternative training distribution based on density modification

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Sugiyama, Masashi, et al. "Direct importance estimation with model selection and its application to covariate shift adaptation." Advances in neural information processing systems. 2008.

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210015176A (ko) 2019-08-01 2021-02-10 박상훈 트레이닝 완성도를 평가하기 위한 장치 및 방법

Also Published As

Publication number Publication date
EP3072060A4 (en) 2017-08-09
JP2017500637A (ja) 2017-01-05
WO2015077555A2 (en) 2015-05-28
EP3072060A2 (en) 2016-09-28
US20150206065A1 (en) 2015-07-23
US20160379140A1 (en) 2016-12-29
WO2015077555A3 (en) 2015-10-29
JP6276857B2 (ja) 2018-02-07
KR20160083111A (ko) 2016-07-11
US10558935B2 (en) 2020-02-11

Similar Documents

Publication Publication Date Title
KR101889451B1 (ko) 트레이닝 데이터를 위한 가중치 이득 평가기
KR101868830B1 (ko) 머신 러닝에서의 가중치 생성
KR101933916B1 (ko) 머신 러닝에서의 대안 트레이닝 분포 데이터
KR101868829B1 (ko) 머신 러닝에서의 가중치의 생성
US20220108178A1 (en) Neural network method and apparatus
CN106776673B (zh) 多媒体文档概括
KR102170199B1 (ko) 비교 세트를 사용한 입력 예시들 분류
CN109313720B (zh) 具有稀疏访问的外部存储器的增强神经网络
KR101982674B1 (ko) 밀도 수정에 기초한 대체 트레이닝 분포
CN108875776A (zh) 模型训练方法和装置、业务推荐的方法和装置、电子设备
CN105761102B (zh) 一种预测用户购买商品行为的方法和装置
CN113535912B (zh) 基于图卷积网络和注意力机制的文本关联方法及相关设备
CN112052865A (zh) 用于生成神经网络模型的方法和装置
CN114049530A (zh) 混合精度神经网络量化方法、装置及设备
Gaihua et al. Instance segmentation convolutional neural network based on multi-scale attention mechanism
US20190095782A1 (en) Calculation device for and calculation method of performing convolution
WO2023082278A1 (en) Apparatus and method for reinforcement learning based post-training sparsification
JP6676894B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN111563159A (zh) 文本排序方法及装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right