KR20160084456A - 머신 러닝에서의 가중치 생성 - Google Patents

머신 러닝에서의 가중치 생성 Download PDF

Info

Publication number
KR20160084456A
KR20160084456A KR1020167015549A KR20167015549A KR20160084456A KR 20160084456 A KR20160084456 A KR 20160084456A KR 1020167015549 A KR1020167015549 A KR 1020167015549A KR 20167015549 A KR20167015549 A KR 20167015549A KR 20160084456 A KR20160084456 A KR 20160084456A
Authority
KR
South Korea
Prior art keywords
distribution
training
processor
frequency
comparison value
Prior art date
Application number
KR1020167015549A
Other languages
English (en)
Other versions
KR101868830B1 (ko
Inventor
야세르 사이드 아부-모스타파
카를로스 로베르토 곤잘레스
Original Assignee
캘리포니아 인스티튜트 오브 테크놀로지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 캘리포니아 인스티튜트 오브 테크놀로지 filed Critical 캘리포니아 인스티튜트 오브 테크놀로지
Publication of KR20160084456A publication Critical patent/KR20160084456A/ko
Application granted granted Critical
Publication of KR101868830B1 publication Critical patent/KR101868830B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N99/005
    • G06F15/18
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06K9/6228
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N5/025Extracting rules from data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)
  • Complex Calculations (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Abstract

머신 러닝 환경에 관련한 시스템, 장치 및 방법에 관한 기술이 일반적으로 설명된다. 일부 예시에서, 프로세서는 트레이닝 데이터의 트레이닝 분포를 식별할 수 있다. 프로세서는 테스트 데이터의 테스트 분포에 대한 정보를 식별할 수 있다. 프로세서는 트레이닝 데이터 및 테스트 데이터의 좌표를 식별할 수 있다. 프로세서는 좌표에 대해 테스트 분포와 트레이닝 분포 사이의 차이를 결정할 수 있다. 프로세서는 차이에 기초하여 가중치를 결정할 수 있다. 가중치가 트레이닝 분포에 적용되는 경우 가중치는 트레이닝 분포가 테스트 분포에 일치하게 하도록 적응될 수 있다.

Description

머신 러닝에서의 가중치 생성{WEIGHT GENERATION IN MACHINE LEARNING}
본 출원은 2013년 11월 22일에 출원된 미국 가출원 61/907,499, 2014년 6월 20일에 출원된 미국 가출원 62/015,200 및 2014년 8월 5일에 출원된 미국 출원 14/451,899를 우선권 주장하며, 이 출원들 전체가 여기에 참조로서 포함된다. 본 출원은 2014년 8월 5일에 출원된 트레이닝 데이터를 위한 가중치 이득 평가기(WEIGHT BENEFIT EVALUATOR FOR TRAINING DATA)라는 표제의 출원 번호 14/451,859, 2014년 8월 5일에 출원된 머신 러닝에서의 가중치의 생성(GENERATION OF WEIGHTS IN MACHINE LEARNING)이라는 표제의 출원 번호 14/451,870, 및 머신 러닝에서의 대안적인 트레이닝 분포 데이터(ALTERNATIVE TRAINING DISTRIBUTION DATA IN MACHINE LEARNING)라는 표제의 출원 번호 14/451,935에 관련된다.
여기에서 달리 명시되지 않는 한, 본 섹션에서 설명되는 내용은 본 출원에서 청구범위에 대한 종래 기술이 아니며, 본 섹션에 포함함으로써 선행 기술로 인정되지 않는다.
머신 러닝(machine learning)은 데이터로부터 학습(learn)하고 데이터에 기초하여 일반화(generalization)를 하기 위해 데이터로 훈련(train)될 수 있는 시스템을 수반한다. 훈련된 머신 러닝 시스템은 입력을 취하고 출력 또는 레이블(label)을 예측할 수 있다. 일부 예시에서, 머신 러닝 기술은 분류(classification) 또는 회귀(regression) 문제를 해결함으로써 출력을 예측할 수 있다. 머신 러닝 시스템은 데이터로 학습 알고리즘을 훈련하는 것에 기초하여 데이터를 분류, 추천(recommendation), 및/또는 다양한 결과를 예측하는 데에 효과가 있을 수 있다.
일부 예시에서, 머신 러닝 환경에서의 방법이 일반적으로 설명된다. 다양한 예시에서, 방법은 프로세서에 의하여 트레이닝 데이터(training data)의 트레이닝 분포(training distribution)를 식별하는 단계를 포함할 수 있다. 또 다른 예시에서, 방법은 프로세서에 의하여 테스트 데이터(test data)의 테스트 분포(test distribution)에 대한 정보를 식별하는 단계를 또한 포함할 수 있다. 다른 예시에서, 방법은 프로세서에 의하여 트레이닝 데이터 및 테스트 데이터의 좌표(coordinate)를 식별하는 단계를 또한 포함할 수 있다. 또 다른 예시에서, 방법은 프로세서에 의하여 좌표에 대해 테스트 분포와 트레이닝 분포 사이의 차이를 결정하는 단계를 또한 포함할 수 있다. 다른 예시에서, 방법은 프로세서에 의하여 차이에 기초하여 가중치를 결정하는 단계를 또한 포함할 수 있다. 일부 예시에서, 가중치가 트레이닝 분포에 적용되는 경우 가중치는 트레이닝 분포가 테스트 분포에 일치하도록 하게 적응될 수 있다.
일부 예시에서, 트레이닝 데이터를 위한 가중치를 결정하기 위한 방법이 일반적으로 설명된다. 방법은 프로세서에 의하여 트레이닝 데이터의 제1 포인트(point)를 식별하는 단계를 포함할 수 있다. 다양한 다른 예시에서, 방법은 프로세서에 의하여 테스트 데이터에 대한 정보를 식별하는 단계를 또한 포함할 수 있다. 테스트 데이터는 제2 포인트를 포함할 수 있다. 다른 예시에서, 방법은 프로세서에 의하여 제1 및 제2 포인트의 좌표를 식별하는 단계를 또한 포함할 수 있다. 일부 예시에서, 좌표는 좌표 공간 내 값의 범위를 포함할 수 있다. 다양한 다른 예시에서, 방법은 프로세서에 의하여 좌표 공간 내 값의 범위를 빈(bin)으로 분할하는 단계를 또한 포함할 수 있다. 일부 예시에서, 각각의 빈은 값의 범위의 부분집합을 정의할 수 있다. 다른 예시에서, 방법은 프로세서에 의하여 제1 빈도(frequency)를 결정하는 단계를 또한 포함할 수 있다. 예를 들어, 제1 빈도는 특정 빈 내에 위치되는 제1 포인트의 제1 백분율에 관련할 수 있다. 다양한 예시에서, 방법은 프로세서에 의하여 제2 빈도를 결정하는 단계를 또한 포함할 수 있다. 제2 빈도는 특정 빈 내에 위치되는 제2 포인트의 제2 백분율에 관련할 수 있다. 일부 다른 예시에서, 방법은 프로세서에 의하여 제1 빈도와 제2 빈도를 비교하는 단계를 더 포함할 수 있다. 추가의 예시에서, 방법은 프로세서에 의하여 제1 및 제2 빈도의 비교에 적어도 부분적으로 기초하여 트레이닝 데이터를 위한 가중치를 결정하는 단계를 포함할 수 있다.
일부 다른 예시에서, 컴퓨팅 장치가 일반적으로 설명된다. 일부 예시에서, 컴퓨팅 장치는 프로세서 및 프로세서와 통신하도록 구성되는 메모리를 포함할 수 있다. 다른 예시에서, 메모리는 트레이닝 데이터를 저장하는 데에 효과가 있을 수 있다. 다양한 예시에서, 트레이닝 데이터는 제1 포인트를 포함할 수 있다. 일부 예시에서, 메모리는 테스트 데이터를 저장하는 데에 효과가 있을 수 있다. 테스트 데이터는 제2 포인트를 포함할 수 있다. 일부 다른 예시에서, 프로세서는 제1 및 제2 포인트의 좌표를 식별하는 데에 효과가 있을 수 있다. 다양한 예시에서, 좌표는 좌표 공간 내 값의 범위를 포함할 수 있다. 일부 추가적인 예시에서, 프로세서는 좌표 공간 내 값의 범위를 빈으로 분할하는 데에 효과가 있을 수 있다. 일부 예시에서, 각각의 빈은 값의 범위의 부분집합을 정의할 수 있다. 일부 예시에서, 프로세서는 제1 빈도를 결정하는 데에 효과가 있을 수 있다. 제1 빈도는 특정 빈 내에 위치되는 제1 포인트의 제1 백분율에 관련할 수 있다. 추가의 예시에서, 프로세서는 제2 빈도를 결정하는 데에 효과가 있을 수 있다. 일부 경우에, 제2 빈도는 특정 빈 내에 위치되는 제2 포인트의 제2 백분율에 관련할 수 있다. 다양한 다른 예시에서, 프로세서는 제1 빈도와 제2 빈도를 비교하는 데에 더 효과가 있을 수 있다. 다른 예시에서, 프로세서는 제1 및 제2 빈도의 비교에 적어도 부분적으로 기초하여 트레이닝 데이터를 위한 가중치를 결정하는 데에 더 효과가 있을 수 있다. 일부 예시에서, 메모리는 가중치를 저장하는 데에 더 효과가 있을 수 있다.
이상의 요약은 단지 예시적인 것으로서 어떠한 방식으로든 제한적으로 의도된 것이 아니다. 이하의 상세한 설명과 도면을 참조함으로써, 위에서 설명된 예시적인 양태들, 실시예들 및 특징들에 더하여, 추가적인 양태들, 실시예들 및 특징들이 명확해질 것이다.
본 개시의 전술한 특징들 및 다른 특징들은 첨부 도면과 함께, 다음의 설명 및 첨부된 청구범위로부터 더욱 명확해질 것이다. 이들 도면은 본 개시에 따른 단지 몇 개의 실시예들을 묘사할 뿐이고, 따라서 그 범위를 제한하는 것으로 간주되어서는 안될 것임을 이해하면서, 본 개시는 첨부 도면을 사용하여 더 구체적이고 상세하게 설명될 것이다.
도 1은 머신 러닝에서의 가중치 생성을 구현하는 데에 이용될 수 있는 예시적인 시스템을 도시하고,
도 2는 가중치 생성 모듈에 관련하여 더 상세히 도 1의 예시적인 시스템을 도시하고,
도 3은 머신 러닝에서의 가중치 생성을 구현하기 위한 예시적인 프로세스에 관한 흐름도를 도시하고,
도 4는 머신 러닝에서의 가중치 생성을 구현하는 데에 이용될 수 있는 예시적인 컴퓨터 프로그램 제품을 도시하고,
도 5는 머신 러닝에서의 가중치 생성을 구현하도록 배열되는 예시적인 컴퓨팅 장치를 도시하는 블록도이며,
모두 여기에 설명되는 적어도 일부 실시예에 따라 배열된다.
이하의 상세한 설명에서, 여기의 일부를 이루는 첨부 도면에 대한 참조가 이루어진다. 문맥에서 달리 지시하고 있지 않은 한, 도면에서 유사한 부호는 통상적으로 유사한 컴포넌트를 나타낸다. 상세한 설명, 도면 및 청구범위에서 설명되는 예시적인 실시예들은 제한적으로 여겨지지 않는다. 여기에서 제시되는 대상의 범위 또는 사상에서 벗어나지 않으면서 다른 실시예가 이용될 수 있고 다른 변경이 이루어질 수 있다. 여기에서 일반적으로 설명되고 도면에 도시되는 본 개시의 양태들은 다양한 다른 구성들로 배열, 대체, 조합, 분리 및 설계될 수 있다.
본 개시는 일반적으로, 그 중에서도 특히, 머신 러닝에서의 가중치 생성에 관련되는 방법, 기기, 시스템, 장치 및 컴퓨터 프로그램 제품에 관한 것이다.
간단히 말해, 머신 러닝 환경에 관련한 시스템, 장치 및 방법에 관한 기술이 일반적으로 설명된다. 일부 예시에서, 프로세서는 트레이닝 데이터의 트레이닝 분포를 식별할 수 있다. 예를 들어, 트레이닝 데이터는 어떠한 입력 또는 출력의 확률을 반영하는 확률 분포를 따르는 포인트의 집합을 포함할 수 있다. 프로세서는 테스트 데이터의 테스트 분포에 대한 정보를 식별할 수 있다. 프로세서는 트레이닝 데이터 및 테스트 데이터의 좌표를 식별할 수 있다. 예를 들어, 좌표는 사용자에 의해 등급 매겨진 다수의 영화일 수 있다. 프로세서는, 좌표에 대하여, 영화의 인기의 차이와 같은 테스트 분포와 트레이닝 분포 사이의 차이를 결정할 수 있다. 프로세서는 차이에 기초하여 가중치를 결정할 수 있다. 가중치는, 가중치가 트레이닝 분포에 적용되는 경우 트레이닝 분포가 테스트 분포에 일치하게 하도록 적응될 수 있다.
도 1은 여기에 설명되는 적어도 일부 실시예에 따라 배열되는, 머신 러닝 시스템에서의 가중치 생성을 구현하는 데에 이용될 수 있는 예시적인 시스템(100)을 도시한다. 도시된 바와 같이, 시스템(100)은 컴퓨팅 장치(102)를 포함할 수 있다. 컴퓨팅 장치(102)는 모두 서로 통신하도록 구성되는 프로세싱 모듈(104), 메모리(106), 가중치 생성 모듈(108), 및 머신 러닝 모듈(110)을 포함할 수 있다. 프로세싱 모듈(104)은 하드웨어일 수 있고 하나 이상의 명령어를 실행하도록 구성될 수 있다. 예를 들어, 프로세싱 모듈(104)은 메모리(106)에 저장된 하나 이상의 명령어를 실행하도록 구성될 수 있다. 메모리(106)는 하나 이상의 머신 러닝 알고리즘(114)을 저장하는 데에 더 효과가 있을 수 있다. 머신 러닝 알고리즘(114)은 머신 러닝 모듈(110)에 의해 실행되는 경우 함수(116)를 산출하는 데에 효과가 있는 명령어 및/또는 명령어의 집합을 포함할 수 있다.
아래에서 더 상세히 논의되는 바와 같이, 머신 러닝 모듈(110)은 함수(116)를 생성 또는 훈련하기 위하여 트레이닝 데이터(118) 및 하나 이상의 머신 러닝 알고리즘(114)을 사용하는 데에 효과가 있을 수 있다. 함수(116)의 예시는 신용 평점(credit score)을 결정하기 위한 함수일 수 있다. 일부 예시에서, 트레이닝 데이터(118)는 하나 이상의 포인트(130)를 포함할 수 있다. 포인트(130)는 연관되는 입력(122a) 및 출력(124a)의 집합을 포함할 수 있다. 예를 들어, 소득 X 및 부채 Y의 입력이 신용 평점 Z를 낳을 수 있다. 일부 예시에서, 트레이닝 데이터(118)의 트레이닝 분포가 프로세싱 모듈(104)에 의해 식별될 수 있다. 다양한 다른 예시에서, 프로세싱 모듈(104)은 트레이닝 데이터(118)의 포인트(130)를 식별하는 데에 효과가 있을 수 있다. 트레이닝 데이터(118)는 메모리(106)에 저장될 수 있다. 트레이닝 데이터(118)의 포인트(130)는 특정 트레이닝 분포를 따를 수 있다. 예를 들어, 트레이닝 분포는 시간의 제1 인스턴스(instance)에서 소득 레벨의 범위를 나타낼 수 있다. 일부 예시에서, 트레이닝 분포는 확률 분포일 수 있다. 트레이닝 데이터(118)는 함수(116)의 생성 이전일 수 있는 시간의 인스턴스에 생성될 수 있다. 일부 예시에서, 함수(116)는 함수(116)에 제공되는 테스트 데이터(120)의 입력(122b)에 기초하여 (예컨대 결정, 분류, 예측 및/또는 추천과 같은) 출력(124b)을 결정하는 데에 효과가 있을 수 있다. 일부 예시에서, 출력(124b)은 "레이블"로 지칭될 수 있다.
테스트 데이터(120)는 특정 테스트 분포를 따를 수 있는 다수의 포인트(131)를 포함할 수 있다. 예를 들어, 테스트 분포는 시간의 제2 인스턴스에서의 소득 레벨의 범위를 나타낼 수 있다. 일부 예시에서, 테스트 데이터(120)는 트레이닝 데이터(118)가 생성되는 시간의 인스턴스보다 나중인 시간의 인스턴스에 생성될 수 있다. 일부 예시에서, 테스트 분포는 확률 분포일 수 있다. 테스트 데이터(120)의 테스트 분포는 트레이닝 데이터(118)의 트레이닝 분포와 상이할 수 있다. 일부 예시에서, 테스트 데이터(120)의 함수(116)로의 입력 전에 테스트 데이터(120)의 테스트 분포에 대한 일부 정보가 알려질 수 있다. 예를 들어, 인구조사(census) 데이터와 같은 공개적으로 이용가능한 정보가 트레이닝 및 테스트 데이터 사이의 소득 또는 인구의 변화를 나타내기 위해 접근될 수 있다. 일부 예시에서, 테스트 데이터(120)의 테스트 분포에 대한 정보는 프로세싱 모듈(104)에 의해 식별될 수 있다. 일부 예시에서, 테스트 분포에 대한 정보는 테스트 분포의 평균 및/또는 표준편차와 같은 통계를 포함할 수 있다. 또한, 테스트 분포에 대한 정보는 테스트 분포의 예상(projection)의 추정(estimation)을 포함할 수 있다. 예를 들어, 좌표에 따르는 포인트(131)의 히스토그램(histogram)은 좌표에 따르는 테스트 분포의 예상의 추정을 낳을 수 있다. 테스트 데이터(120) 및/또는 테스트 데이터(120)에 대한 정보는 메모리(106)에 저장될 수 있다.
가중치 생성 모듈(108)은 트레이닝 데이터(118)의 각각의 포인트(130)에 대한 가중치(112)를 결정 및/또는 계산하는 데에 효과가 있을 수 있다. 가중치(112)는 트레이닝 데이터(118)의 포인트(130)에 적용될 수 있어, 가중치(112)의 적용 후에 트레이닝 데이터(118)의 포인트(130)는 테스트 데이터(120)의 확률 분포에 유사, 매치 및/또는 일치하는 확률 분포를 따를 수 있다. 가중치(112)는 트레이닝 분포가 테스트 분포에 일치하게 하도록 적응될 수 있다. 머신 러닝 모듈(110)은 가중치 생성 모듈(108)로부터 가중치(112)를 수신할 수 있다. 머신 러닝 알고리즘(114)은 가중치(112) 및/또는 트레이닝 데이터(118)를 사용하여 가중 함수(weighted function)(132)를 생성할 수 있다. 가중 함수(132)는 가중 함수(132)에 대한 입력(122c)의 적용에 기초하여 (예컨대, 결정, 분류, 예측 및/또는 추천과 같은) 출력 또는 레이블(124c)을 결정하는 데에 효과가 있을 수 있다. 일부 예시에서, 같은 입력 값이 함수(116)와 가중 함수(132)에 적용되더라도 가중 함수(132)에 의해 생성되는 일부 레이블은 함수(116)에 의해 생성되는 레이블과 상이할 수 있다.
도 2는 여기에 설명되는 적어도 일부 실시예에 따라 배열되는, 가중치 생성 모듈에 관련되어 더 상세히 도 1의 예시적인 시스템(100)을 도시한다. 도 2는 도 1의 시스템(100)과 실질적으로 유사하며 더 상세하다. 도 1의 컴포넌트와 동일하게 식별된 도 2의 컴포넌트는 명확성 및 간결성의 목적을 위해 다시 설명되지 않을 것이다.
일부 예시에서, 아래에서 더 상세히 설명되는 바와 같이, 가중치 생성 모듈(108)은 메모리(106)로부터 또는 다른 소스로부터 트레이닝 데이터(118)를 수신할 수 있다. 가중치 생성 모듈(108)은 트레이닝 데이터(118)의 (예컨대, 2101 …210n을 포함하는) 하나 이상의 좌표(210)를 식별 및/또는 선택할 수 있다. 좌표(210)는, 예를 들어, 포인트(130)의 하나 이상의 파라미터 또는 차원일 수 있다. 좌표(210) 각각은 좌표 공간 내 값의 범위를 포함할 수 있다. 좌표 공간은, 예를 들어, 특정 좌표(210)에 대한 유클리드(Euclidean) 또는 다른 기하 공간일 수 있다. 예를 들어, 머신 러닝 모듈(110)이 신용 평점의 생성에 관련할 경우, 좌표(210)는 소득, 부채 등에 관련할 수 있다. 가중치 생성 모듈(108)은 각각의 좌표 공간의 값의 범위를 하나 이상의 빈으로 분할할 수 있다. 각각의 빈은 각각의 좌표에 대한 값의 범위의 부분집합을 정의할 수 있다. 예를 들어, 가중치 생성 모듈(108)은 각각의 식별 및/또는 선택된 좌표(210)를 (예를 들어 "빈 1", "빈 2", "빈 3" 등과 같은) 하나 이상의 빈으로 분할할 수 있다.
이하의 상세한 논의를 더 요약하자면, 가중치 생성 모듈(108)은 각각의 식별된 선택된 좌표(210)를 따라 포인트(130)에 대한 각각의 값을 결정할 수 있다. 가중치 생성 모듈(108)은 각각의 좌표(210)에 대해 각각의 빈 내에 위치되는 다수의 포인트(130, 131)의 빈도를 결정할 수 있다. 빈도는, 예를 들어, 특정 좌표(210)에 대한 포인트(130)의 총 수에 대한 특정 빈 내에 위치되는 포인트(130)의 백분율일 수 있다. 가중치(112)는 각각의 좌표에 대해 각각의 빈에 위치되는 포인트(130)의 빈도에 기초하고, 테스트 데이터(120)의 포인트에 대한 정보에 기초하여, 트레이닝 데이터(118)의 각각의 포인트(130)에 대하여 선택될 수 있다. 머신 러닝 모듈(110)은 가중치(112) 및/또는 트레이닝 데이터(118)에 기초하여 가중 함수(132)를 산출할 수 있다.
트레이닝 데이터(118)의 입력(122a)은 하나 이상의 파라미터를 포함할 수 있는 벡터일 수 있다. 머신 러닝 알고리즘(114)이 사용자에게 영화를 추천하기 위한 함수를 산출하도록 설계된 예시에서, 입력(122a)의 일부 예시적인 파라미터는 사용자의 나이, 연봉, 사용자에 의해 평가된 영화의 수, 사용자가 사는 장소 등을 포함할 수 있다. 가중치 생성 모듈(108)은 (좌표 2101, 2102,…, 210n을 포함하는) 좌표(210)로서 파라미터 중 하나 이상을 선택할 수 있다. 가중치 생성 모듈(180)은 좌표 별로 포인트(130)의 각각의 포인트를 시험(examining)함으로써 포인트(130)를 평가(evaluate)하는 데에 효과가 있을 수 있다. 각각의 좌표(210)는 ("빈 1", "빈 2", "빈 3" 등과 같은) 다수의 빈으로 분할될 수 있다. 선택된 좌표(210)가 연봉인 예시에서, 빈 1은 $0 - $25,000 범위일 수 있고, 빈 2는 $25,000 - $50,000 범위일 수 있고, 빈 3은 $50,000 - $75,000 범위일 수 있는 등이다. 각각의 포인트(130)는 연봉에 관련되는 파라미터를 포함할 수 있다. 포인트(130)의 각각의 포인트의 위치는 연봉 좌표(210)를 따라 결정될 수 있다. 예를 들어, 포인트(130) 중 제1 포인트는 $42,000의 연봉 파라미터 값을 포함할 수 있다. 따라서, 제1 포인트는 빈 2에 위치될 수 있다. 각각의 빈 내에 위치되는 포인트(130)의 수는 가중치 생성 모듈(108)에 의해 결정될 수 있으며, 포인트(130)의 총 수로 나누어져 각각의 빈에 대한 빈도를 산출할 수 있다. 이하에서 더 상세히 설명될 바와 같이, 가중치(112)는 테스트 분포에 대해 계산된 빈도와 트레이닝 분포에 대해 계산된 빈도 사이의 차이에 기초하여 결정 및/또는 계산될 수 있다.
가중치 생성 모듈(108)은 수학식 1을 사용하여 가중치(112)를 생성할 수 있다.
Figure pct00001
여기에서
Figure pct00002
는 포인트(130) 중 특정 포인트 i에 대한 가중치(예컨대, 가중치(112) 중 한 가중치)일 수 있다.
Figure pct00003
는 (예를 들어 "빈 1", "빈 2", "빈 3", 및/또는 "빈 4"와 같은) 특정 빈에서의 테스트 데이터(120)의 포인트(131)의 수와 특정 빈에서의 트레이닝 데이터(118)의 포인트(130)의 수의 가중 합(weighted sum)의 차이가 특정 빈에서의 트레이닝 데이터(118)의 포인트의 수로 나누어진 양을 나타낼 수 있다. 일부 예시에서,
Figure pct00004
는 (좌표(210)의) 각각의 좌표 c에 대해 계산될 수 있다. C는 식별 및/또는 선택된 좌표(210)의 총 수를 나타낼 수 있다.
Figure pct00005
는 포인트(130)의 특정 포인트 i가 어떠한 빈에 속하는지 결정할 수 있는 함수일 수 있다.
가중치 생성 모듈(108)은 수학식 2를 사용하여
Figure pct00006
에 대한 값을 결정할 수 있다.
Figure pct00007
Figure pct00008
는 좌표(210) 중 특정 좌표 c의 빈 각각의 트레이닝 데이터(118)의 포인트(130)의 현재 카운트 수를 나타내는 벡터일 수 있다.
Figure pct00009
는 특정 좌표 c에 대한 빈의 현재 카운트 수를 나타낼 수 있다.
Figure pct00010
은 트레이닝 데이터(118)의 포인트(130)의 수를 나타낼 수 있다.
Figure pct00011
는 포인트(130)의 총 수에 대한, 좌표(210) 중 특정 좌표 c에 대한 (예를 들어 "빈 1", "빈 2", "빈 3", "빈 4" 등과 같은) 특정 빈에 출현하는 테스트 데이터(120)의 포인트의 빈도를 나타낼 수 있다.
Figure pct00012
를 결정하기 위해 가중치 생성 모듈(108)에 의해 반복적인(iterative) 프로세스가 사용될 수 있다. 일부 예시에서, 모든
Figure pct00013
는 0 또는 일부 다른 값으로 초기화될 수 있다. 첫번째 비교 값
Figure pct00014
가 수학식 2를 사용하여 각각의 좌표의 각각의 빈에 대해 식별될 수 있다.
Figure pct00015
의 계산된 값은 수학식 2에 반복적으로 연결되어 차이 값을 산출할 수 있다.
Figure pct00016
의 값은
Figure pct00017
의 수렴 값이 도달될 때까지 반복적으로 갱신될 수 있다.
Figure pct00018
의 수렴 값은 트레이닝 데이터(118)의 각각의 포인트(130)에 대한 가중치(112)를 산출하기 위해 수학식 1에서 사용될 수 있다. 일부 예시에서, 수학식 2를 반복하는 동안 사용되는
Figure pct00019
의 값은 수학식 3에 따라 이전의 반복에서 사용된 값의 차이의 부분(fraction)에 기초할 수 있다.
Figure pct00020
여기에서
Figure pct00021
Figure pct00022
를 계산하기 위해 수학식 2의 이전 반복 동안 사용되는
Figure pct00023
의 값일 수 있다. 수학식 3은
Figure pct00024
Figure pct00025
를 사용하여
Figure pct00026
를 계산할 수 있으며, 이는 수학식 2의 후속의 반복에서 사용될 수 있다.
Figure pct00027
는 수학식 2를 반복할 때
Figure pct00028
의 새로운 값(예컨대,
Figure pct00029
)이
Figure pct00030
의 이전의 값(예컨대,
Figure pct00031
)에 의존하는 정도를 제어하는 데에 사용되는 변수일 수 있다.
다른 잠재적인 이점들 가운데, 본 개시에 따라 배열되는 머신 러닝에서의 가중치 생성은 테스트 및 트레이닝 분포의 단순화된 매칭을 허용하여 머신 러닝 시스템의 예측 능력을 향상시킬 수 있다. 또한, 좌표 별로 다수의 빈을 선택함으로써, 본 개시에 따르는 머신 러닝에서의 가중치 생성은 트레이닝 데이터 세트와 테스트 데이터 세트 사이의 차이를 설명할 수 있고, 이는 유한한 샘플 사이즈의 효과에 기인한다. 변화하는 견해, 트렌드, 패션 등의 결과로서 시간의 흐름에 따라 발생할 수 있는 트레이닝 데이터와 테스트 데이터 사이의 변화가 식별될 수 있다. 일부 예시에서, 그러한 변화를 고려하는 것은 더 좋은 예측 능력을 가지는 머신 러닝 시스템을 낳을 수 있다. 추천 시스템 또는 주식 시장과 같은 시계열(time series)의 예측은 설명되는 시스템으로부터 이익을 얻을 수 있다.
도 3은 여기에 설명되는 적어도 일부 실시예에 따라 배열되는, 머신 러닝에서의 가중치 생성을 구현하기 위한 예시적인 프로세스에 대한 흐름도를 도시한다. 일부 예시에서, 도 3의 프로세스는 위에서 논의되고 머신 러닝을 위한 가중치를 생성하는 데에 사용될 수 있는 시스템(100)을 사용하여 구현될 수 있다. 예시적인 프로세스는 블록(S2, S4, S6, S8 및/또는 S10 등) 중 하나 이상에 의해 도시된 하나 이상의 동작, 작용 또는 기능을 포함할 수 있다. 별개의 블록으로 도시되어 있으나, 특정 구현에 따라 다양한 블록들이 추가적인 블록들로 분할되거나 더 적은 블록들로 조합되거나 제거될 수 있다. 블록들은 다른 동작, 작용 또는 기능을 나타내는 추가적인 블록들로 보충될 수 있다. 도 3의 프로세스는 위에서 설명된 프로세싱 모듈(104)과 같은 프로세서에 의해 또는 머신 러닝 모듈(110)과 같은 머신 러닝 모듈에 의해 사용될 수 있다.
프로세싱은 블록 S2 "프로세서에 의하여 트레이닝 데이터의 트레이닝 분포를 식별"에서 시작할 수 있다. 블록 S2에서, 프로세서는 트레이닝 데이터의 트레이닝 분포를 식별할 수 있다.
프로세싱은 블록 S2에서 블록 S4 "프로세서에 의하여 테스트 데이터의 테스트 분포에 대한 정보를 식별"로 계속할 수 있다. 블록 S4에서, 프로세서는 테스트 데이터의 테스트 분포에 대한 정보를 식별할 수 있다. 일 예시에서, 트레이닝 데이터는 시간의 제1 인스턴스에 생성될 수 있고 테스트 데이터는 시간의 제2 인스턴스에 생성될 수 있다. 시간의 제2 인스턴스는 시간의 제1 인스턴스보다 나중일 수 있다.
프로세싱은 블록 S4에서 블록 S6 "프로세서에 의하여 트레이닝 데이터 및 테스트 데이터의 좌표를 식별"로 계속할 수 있다. 블록 S6에서, 프로세서는 트레이닝 데이터 및 테스트 데이터의 좌표를 식별할 수 있다. 일부 예시에서, 좌표 공간 내 값의 범위는 다수의 빈으로 분할될 수 있다. 예를 들어, 좌표(210)는 도 2에 도시된 바와 같이 "빈 1", "빈 2", "빈 3" 등과 같은 하나 이상의 빈으로 분할될 수 있다.
프로세싱은 블록 S6에서 블록 S8 "프로세서에 의하여 좌표에 대해 테스트 분포와 트레이닝 분포 사이의 차이를 결정"으로 계속할 수 있다. 블록 S8에서, 프로세서는 좌표에 대해 테스트 분포와 트레이닝 분포 사이의 차이를 결정할 수 있다.
프로세싱은 블록 S8에서 블록 S10 "프로세서에 의하여 차이에 기초하여 가중치를 결정 - 가중치가 트레이닝 분포에 적용되는 경우 가중치는 트레이닝 분포가 테스트 분포에 일치하게 하도록 적응될 수 있음 -"으로 계속할 수 있다. 블록 S10에서, 프로세서는 차이에 기초하여 가중치를 결정할 수 있다. 가중치는, 가중치가 트레이닝 분포에 적용되는 경우 트레이닝 분포가 테스트 분포에 일치하게 하도록 적응될 수 있다. 예를 들어, 가중치와 트레이닝 데이터는 머신 러닝 알고리즘에 적용되어 가중 함수를 생성할 수 있다. 테스트 데이터는 입력으로서 가중 함수에 적용될 수 있다. 일 예시에서, 테스트 데이터의 가중 함수에 대한 적용에 응답하여 레이블이 생성될 수 있다. 일부 예시에서, 레이블은 추천, 분류, 예측 및/또는 결정 중 적어도 하나를 포함할 수 있다. 일부 예시에서, 가중치를 결정하는 것은 트레이닝 분포와 테스트 분포 사이의 차이를 반복적으로 결정하는 것을 포함할 수 있다. 일부 추가적인 예시에서, 가중치는 트레이닝 분포와 테스트 분포 사이의 차이의 수렴 값에 기초하여 결정될 수 있다. 일부 다른 예시에서, 가중치를 결정하는 것은 빈 내에 위치되는 제1 및 제2 포인트의 수에 더 기초할 수 있다. 다른 예시에서, 가중치는 트레이닝 분포의 특정 포인트를 테스트 분포의 특정 포인트에 일치시키는 데에 효과가 있을 수 있다.
도 4는 여기에 설명되는 적어도 일부 실시예에 따라 배열되는, 머신 러닝에서의 가중치 생성을 구현하는 데에 이용될 수 있는 예시적인 컴퓨터 프로그램 제품(400)을 도시한다. 프로그램 제품(400)은 신호 포함 매체(signal bearing medium)(402)를 포함할 수 있다. 신호 포함 매체(402)는, 예컨대 프로세서에 의한 실행에 응답하여 도 1 내지 3에 관하여 앞서 설명된 기능 또는 특징을 제공할 수 있는 하나 이상의 명령어(404)를 포함할 수 있다. 따라서, 예를 들어, 시스템(100)을 참조하면, 프로세싱 모듈(104) 및/또는 머신 러닝 모듈(110)은 매체(402)에 의해 시스템(100)으로 전달되는 명령어(404)에 응답하여 도 4에 도시된 블록 중 하나 이상을 착수할 수 있다. 일부 예시에서, 명령어(404)는 메모리(106)와 같은 메모리에 저장될 수 있다.
일부 구현예에서, 신호 포함 매체(402)는 하드 디스크 드라이브, CD(Compact Disc), DVD(Digital Video Disk), 디지털 테이프, 메모리 등과 같은 컴퓨터 판독 가능 매체(406)를 포함할 수 있으나, 이에 제한되지는 않는다. 일부 구현예에서, 신호 포함 매체(402)는 메모리, 읽기/쓰기(R/W) CD, R/W DVD 등과 같은 기록 가능 매체(408)를 포함할 수 있으나, 이에 제한되지는 않는다. 일부 구현예에서, 신호 포함 매체(402)는 디지털 및/또는 아날로그 통신 매체(예컨대, 광섬유 케이블, 도파관(waveguide), 유선 통신 링크, 무선 통신 링크 등)와 같은 통신 매체(410)를 포함할 수 있으나, 이에 제한되지는 않는다. 따라서, 예를 들어, 프로그램 제품(400)은, 신호 포함 매체(402)가 무선 통신 매체(410)(예컨대, IEEE 802.11 표준에 따르는 무선 통신 매체)에 의해 전달되는 RF 신호 포함 매체(402)에 의하여 시스템(100)의 하나 이상의 모듈로 전달될 수 있다.
도 5는 여기에 설명되는 적어도 일부 실시예에 따라 배열되는, 머신 러닝에서의 가중치 생성을 구현하도록 배열되는 예시적인 컴퓨팅 장치(500)를 도시하는 블록도이다. 매우 기본적인 구성(basic configuration)(502)에서, 컴퓨팅 장치(500)는 전형적으로 (예컨대, 프로세싱 모듈(104)과 같은) 하나 이상의 프로세서(504) 및 (예컨대, 메모리(106)와 같은) 시스템 메모리(506)를 포함한다. 메모리 버스(508)가 프로세서(504)와 시스템 메모리(506) 사이의 통신을 위해 사용될 수 있다.
요구되는 구성에 따라, 프로세서(504)는 마이크로프로세서(μP), 마이크로컨트롤러(μC), 디지털 신호 프로세서(DSP) 또는 그 임의의 조합을 포함하는 임의의 유형일 수 있지만, 이에 한정되는 것은 아니다. 프로세서(504)는 레벨 1 캐시(510) 및 레벨 2 캐시(512)와 같은 하나 이상의 레벨의 캐싱, 프로세서 코어(514) 및 레지스터(516)를 포함할 수 있다. 예시적인 프로세서 코어(514)는 ALU(arithmetic logic unit), FPU(floating point unit), DSP 코어(digital signal processing core), 또는 그 임의의 조합을 포함할 수 있다. 예시적인 메모리 컨트롤러(518)는 또한 프로세서(504)와 사용될 수 있거나, 또는 일부 구현예에서, 메모리 컨트롤러(518)는 프로세서(504)의 내부 부품일 수 있다.
요구되는 구성에 따라, 시스템 메모리(506)는 (RAM과 같은) 휘발성 메모리, (ROM, 플래시 메모리 등과 같은) 비휘발성 메모리, 또는 그 임의의 조합을 포함하나 이에 한정되지 않는 임의의 유형일 수 있다. 시스템 메모리(506)는 운영 체제(520), 하나 이상의 애플리케이션(522) 및 프로그램 데이터(524)를 포함할 수 있다. 애플리케이션(522)은 시스템(100)에 관련되어 도 1-4에 관하여 설명된 것을 포함하여 여기에 설명된 기능 및 동작을 수행하도록 배열되는 머신 러닝에서의 가중치 생성 알고리즘(526)을 포함할 수 있다. 프로그램 데이터(524)는 여기에서 설명된 바와 같은 머신 러닝에서의 가중치 생성을 구현하는 데에 유용할 수 있는 머신 러닝에서의 가중치 생성 데이터(528)를 포함할 수 있다. 일부 실시예에서, 머신 러닝에서의 가중치 생성이 제공될 수 있도록 애플리케이션(522)은 프로그램 데이터(524) 및/또는 운영 체제(520)와 협력하여 동작하도록 배열될 수 있다. 이러한 설명된 기본 구성(502)은 내부 파선 내의 컴포넌트들에 의해 도 5에 도시된다.
컴퓨팅 장치(500)는 추가적인 특징 또는 기능, 및 기본 구성(502)과 임의의 요구되는 장치와 인터페이스 사이의 통신을 용이하게 하기 위한 추가적인 인터페이스를 가질 수 있다. 예를 들어, 버스/인터페이스 컨트롤러(530)는 저장 인터페이스 버스(534)를 통한 기본 구성(502)과 하나 이상의 데이터 저장 장치(532) 간의 통신을 용이하게 하는 데에 사용될 수 있다. 데이터 저장 장치(532)는 분리형 저장 장치(536), 비분리형 저장 장치(538), 또는 그 조합일 수 있다. 분리형 저장 장치 및 비분리형 저장 장치의 예로는, 몇 가지 말하자면, 플렉서블 디스크 드라이브 및 하드 디스크 드라이브(HDD)와 같은 자기 디스크 장치, 컴팩트 디스크(CD) 드라이브 또는 디지털 다기능 디스크(DVD) 드라이브와 같은 광 디스크 드라이브, 고체 상태 드라이브(solid state drive(SSD)) 및 테이프 드라이브를 포함한다. 예시적인 컴퓨터 저장 매체는, 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성의, 분리형 및 비분리형 매체를 포함할 수 있다.
시스템 메모리(506), 분리형 저장 장치(536) 및 비분리형 저장 장치(538)는 컴퓨터 저장 매체의 예시이다. 컴퓨터 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 다른 메모리 기술, CD-ROM, 디지털 다기능 디스크(DVD) 또는 다른 광학 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 장치 또는 다른 자기 저장 장치, 또는 원하는 정보를 저장하는 데에 사용될 수 있고 컴퓨팅 장치(500)에 의해 액세스될 수 있는 임의의 다른 매체를 포함하지만, 이에 한정되는 것은 아니다. 임의의 그러한 컴퓨터 저장 매체는 컴퓨팅 장치(500)의 일부일 수 있다.
컴퓨팅 장치(500)는 버스/인터페이스 컨트롤러(530)를 통한 다양한 인터페이스 장치(예컨대, 출력 장치(542), 주변 인터페이스(544) 및 통신 장치(546))로부터 기본 구성(502)으로의 통신을 용이하게 하기 위한 인터페이스 버스(540)도 포함할 수 있다. 예시적인 출력 장치(542)는 그래픽 처리 유닛(548) 및 오디오 처리 유닛(550)을 포함하며, 이는 하나 이상의 A/V 포트(552)를 통해 디스플레이 또는 스피커와 같은 다양한 외부 장치로 통신하도록 구성될 수 있다. 예시적인 주변 인터페이스(544)는 직렬 인터페이스 컨트롤러(554) 또는 병렬 인터페이스 컨트롤러(556)를 포함하며, 이는 하나 이상의 I/O 포트(558)를 통해 입력 장치(예컨대, 키보드, 마우스, 펜, 음성 입력 장치, 터치 입력 장치 등) 또는 다른 주변 장치(예컨대, 프린터, 스캐너 등)와 같은 외부 장치와 통신하도록 구성될 수 있다. 예시적인 통신 장치(546)는 네트워크 컨트롤러(560)를 포함하며, 이는 하나 이상의 통신 포트(564)를 통해 네트워크 통신 링크 상에서의 하나 이상의 다른 컴퓨팅 장치(562)와의 통신을 용이하게 하도록 배열될 수 있다.
네트워크 통신 링크는 통신 매체의 일례일 수 있다. 통신 매체는 전형적으로 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파 또는 다른 전송 메커니즘 같은 변조된 데이터 신호 내의 다른 데이터에 의해 구현될 수 있고, 임의의 정보 전달 매체를 포함할 수 있다. "변조된 데이터 신호"는 신호 내에 정보를 인코딩하기 위한 방식으로 설정되거나 변경된 특성 중 하나 이상을 갖는 신호일 수 있다. 제한적인지 않은 예시로서, 통신 매체는 유선 네트워크 또는 직접 유선 접속과 같은 유선 매체, 및 음향(acoustic), 무선 주파수(RF), 마이크로파(microwave), 적외선(IR) 및 다른 무선 매체와 같은 무선 매체를 포함할 수 있다. 여기에서 사용되는 컴퓨터 판독 가능 매체라는 용어는 저장 매체 및 통신 매체 둘 다를 포함할 수 있다.
컴퓨팅 장치(500)는 휴대 전화, PDA(personal data assistant), 개인용 미디어 플레이어 장치, 무선 웹-워치(web-watch) 장치, 개인용 헤드셋 장치, 특수 용도 장치, 또는 위 기능 중 임의의 것을 포함하는 하이브리드(hybrid) 장치와 같은 소형 폼 팩터(small-form factor)의 휴대용 (또는 모바일) 전자 장치의 일부로서 구현될 수 있다. 컴퓨팅 장치(500)는 또한 랩탑 컴퓨터 및 랩탑이 아닌 컴퓨터 구성을 모두 포함하는 개인용 컴퓨터로서 구현될 수 있다.
본 개시는 다양한 태양의 예시로서 의도된 본 출원에 기술된 특정 실시예들에 제한되지 않을 것이다. 당업자에게 명백할 바와 같이, 많은 수정과 변형이 그 사상과 범위를 벗어나지 않으면서 이루어질 수 있다. 여기에 열거된 것들에 더하여, 본 개시의 범위 안에서 기능적으로 균등한 방법과 장치가 위의 설명으로부터 당업자에게 명백할 것이다. 그러한 수정과 변형은 첨부된 청구항의 범위에 들어가도록 의도된 것이다. 본 개시는 첨부된 청구항의 용어에 의해서만, 그러한 청구항에 부여된 균등물의 전 범위와 함께, 제한될 것이다. 본 개시가 물론 다양할 수 있는 특정 방법, 시약, 화합물, 조성 또는 생물학적 시스템에 제한되지 않는 것으로 이해될 것이다. 또한, 여기에서 사용된 용어는 단지 특정 실시예들을 설명하기 위한 목적이고, 제한하는 것으로 의도되지 않음이 이해될 것이다.
여기에서 실질적으로 임의의 복수 및/또는 단수의 용어의 사용에 대하여, 당업자는 맥락 및/또는 응용에 적절하도록, 복수를 단수로 및/또는 단수를 복수로 해석할 수 있다. 다양한 단수/복수의 치환은 명확성을 위해 여기에서 명시적으로 기재될 수 있다.
당업자라면, 일반적으로 여기에 사용되며 특히 첨부된 청구범위(예를 들어, 첨부된 청구범위 본문)에 사용된 용어들이 일반적으로 "개방적(open)" 용어로 의도됨을 이해할 것이다(예를 들어, 용어 "포함하는"은 "포함하지만 이에 제한되지 않는"으로, 용어 "갖는"는 "적어도 갖는"으로, 용어 "포함하다"는 "포함하지만 이에 제한되지 않는다" 등으로 해석되어야 한다). 또한, 당업자라면, 도입된 청구항의 기재사항의 특정 수가 의도된 경우, 그러한 의도가 청구항에 명시적으로 기재될 것이며, 그러한 기재사항이 없는 경우, 그러한 의도가 없음을 이해할 것이다. 예를 들어, 이해를 돕기 위해, 이하의 첨부된 청구범위는 "적어도 하나" 및 "하나 이상" 등의 도입 구절의 사용을 포함하여 청구항 기재사항을 도입할 수 있다. 그러나, 그러한 구절의 사용이, 부정관사 "하나"("a" 또는 "an")에 의한 청구항 기재사항의 도입이, 그러한 하나의 기재사항을 포함하는 실시예로, 그러한 도입된 청구항 기재사항을 포함하는 임의의 특정 청구항을 제한함을 암시하는 것으로 해석되어서는 안되며, 동일한 청구항이 도입 구절인 "하나 이상" 또는 "적어도 하나" 및 "하나"("a" 또는 "an")와 같은 부정관사를 포함하는 경우에도 마찬가지로 해석되어야 한다(예를 들어, "하나"는 "적어도 하나" 또는 "하나 이상"을 의미하는 것으로 해석되어야 한다). 이는 청구항 기재사항을 도입하기 위해 사용된 정관사의 경우에도 적용된다. 또한, 도입된 청구항 기재사항의 특정 수가 명시적으로 기재되는 경우에도, 당업자라면 그러한 기재가 전형적으로 적어도 기재된 수를 의미하도록 해석되어야 함을 이해할 것이다(예를 들어, 다른 수식어가 없이 "두 개의 기재사항"을 단순히 기재한 것은, 적어도 두 개의 기재사항 또는 두 개 이상의 기재사항을 의미한다). 또한, "A, B 및 C 등 중의 적어도 하나"와 유사한 규칙이 사용된 경우에는, 일반적으로 그러한 해석은 당업자가 그 규칙을 이해할 것이라는 전제가 의도된 것이다(예를 들어, "A, B 및 C 중의 적어도 하나를 갖는 시스템"은, A만을 갖거나, B만을 갖거나, C만을 갖거나, A 및 B를 함께 갖거나, A 및 C를 함께 갖거나, B 및 C를 함께 갖거나, A, B 및 C를 함께 갖는 시스템 등을 포함하지만 이에 제한되지 않는다). "A, B 또는 C 등 중의 적어도 하나"와 유사한 규칙이 사용된 경우에는, 일반적으로 그러한 해석은 당업자가 그 규칙을 이해할 것이라는 전제가 의도된 것이다(예를 들어, "A, B 또는 C 중의 적어도 하나를 갖는 시스템"은, A만을 갖거나, B만을 갖거나, C만을 갖거나, A 및 B를 함께 갖거나, A 및 C를 함께 갖거나, B 및 C를 함께 갖거나, A, B 및 C를 함께 갖는 시스템 등을 포함하지만 이에 제한되지 않는다). 또한 당업자라면, 실질적으로 임의의 이접 접속어(disjunctive word) 및/또는 두 개 이상의 대안적인 용어들을 나타내는 구절은, 그것이 상세한 설명, 청구범위 또는 도면에 있는지와 상관없이, 그 용어들 중의 하나, 그 용어들 중의 어느 하나, 또는 그 용어들 두 개 모두를 포함하는 가능성을 고려하는 것으로 이해되어야 함을 이해할 것이다. 예를 들어, "A 또는 B"라는 구절은 "A" 또는 "B" 또는 "A 및 B"의 가능성을 포함하는 것으로 이해될 것이다.
당업자에게 이해될 것과 같이, 서면의 설명을 제공하는 측면에서와 같은 임의의 그리고 모든 목적에서, 여기에 개시되어 있는 모든 범위는 임의의 그리고 모든 가능한 하위범위와 그러한 하위범위의 조합을 또한 포함한다. 임의의 열거된 범위는 적어도 1/2, 1/3, 1/4, 1/5, 1/10 등으로 나누어지는 동일한 범위를 충분히 설명하고 실시가능하게 하는 것으로서 쉽게 인식될 수 있다. 제한하지 않는 예시로서, 여기서 논의되는 각각의 범위는 하위 1/3, 중앙 1/3, 상위 1/3 등으로 나누어질 수 있다. 또한, "까지", "적어도", "초과", "미만" 등과 같은 모든 언어가 기재된 수를 포함하며, 전술한 하위범위로 후속적으로 나누어질 수 있는 범위를 지칭함이 당업자에게 이해되어야 한다. 마지막으로, 범위는 각각의 개별 요소를 포함함이 이해되어야 한다. 따라서, 예를 들어, 1-3개의 셀을 갖는 그룹은 1, 2 또는 3개의 셀을 갖는 그룹들을 지칭한다. 유사하게, 1-5개의 셀을 갖는 그룹은 1, 2, 3, 4 또는 5개의 셀을 갖는 그룹을 지칭하는 등이다.
다양한 양태 및 실시예가 여기에 개시되었으나, 다른 양태 및 실시예가 가능하다. 여기에서 개시된 다양한 양태 및 실시예는 예시의 목적이고 제한하려고 의도된 것이 아니며, 진정한 범위와 사상은 이하의 청구범위에서 나타난다.

Claims (20)

  1. 머신 러닝 환경에서의 방법으로서,
    프로세서에 의하여 트레이닝 데이터(training data)의 트레이닝 분포(training distribution)를 식별하는 단계;
    상기 프로세서에 의하여 테스트 데이터(test data)의 테스트 분포(test distribution)에 대한 정보를 식별하는 단계;
    상기 프로세서에 의하여 상기 트레이닝 데이터 및 상기 테스트 데이터의 좌표를 식별하는 단계;
    상기 프로세서에 의하여 상기 좌표에 대해 상기 테스트 분포와 상기 트레이닝 분포 사이의 차이를 결정하는 단계; 및
    상기 프로세서에 의하여 상기 차이에 기초하여 가중치를 결정하는 단계
    를 포함하고,
    상기 가중치는, 상기 가중치가 상기 트레이닝 분포에 적용되는 경우 상기 트레이닝 분포가 상기 테스트 분포에 일치(conform)하게 하도록 적응되는,
    방법.
  2. 제1항에 있어서,
    상기 트레이닝 분포 및 상기 가중치에 기초하여 함수를 생성하는 단계;
    상기 테스트 데이터를 상기 함수에 입력으로서 적용하는 단계; 및
    상기 테스트 데이터의 상기 함수에 대한 상기 적용에 응답하여 레이블(label)을 생성하는 단계
    를 더 포함하는 방법.
  3. 제2항에 있어서,
    상기 레이블은 추천, 분류, 예측 및 결정 중 적어도 하나를 포함하는, 방법.
  4. 제1항에 있어서,
    상기 트레이닝 데이터는 제1 시간의 인스턴스(instance in time)에 생성되고,
    상기 테스트 데이터는 제2 시간의 인스턴스에 생성되며,
    상기 제2 시간의 인스턴스는 상기 제1 시간의 인스턴스보다 나중인,
    방법.
  5. 제1항에 있어서,
    상기 가중치를 결정하는 단계는 상기 트레이닝 분포와 상기 테스트 분포 사이의 차이를 반복적으로(iteratively) 결정하는 단계를 더 포함하고,
    상기 가중치는 상기 트레이닝 분포와 상기 테스트 분포 사이의 상기 차이의 수렴 값(convergent value)에 기초하여 결정되는,
    방법.
  6. 제1항에 있어서,
    상기 트레이닝 데이터는 다수의 포인트(point)를 포함하고,
    상기 좌표는 좌표 공간 내 값의 범위를 포함하며,
    상기 방법은 상기 좌표 공간 내 상기 값의 범위를 빈(bin)으로 분할하는 단계를 더 포함하고,
    상기 가중치를 결정하는 단계는 상기 트레이닝 데이터의 상기 포인트의 수와 상기 빈의 수에 더 기초하는,
    방법.
  7. 제1항에 있어서,
    상기 테스트 데이터 및 상기 트레이닝 데이터는 각각 제1 및 제2 포인트를 포함하고,
    상기 좌표는 좌표 공간 내 값의 범위를 포함하며,
    상기 방법은 상기 좌표 공간 내 상기 값의 범위를 빈으로 분할하는 단계를 더 포함하고,
    상기 가중치를 결정하는 단계는 상기 빈에 위치되는 상기 제1 및 제2 포인트의 수에 더 기초하는,
    방법.
  8. 트레이닝 데이터를 위한 가중치를 결정하기 위한 방법으로서, 프로세서에 의하여,
    상기 트레이닝 데이터의 제1 포인트를 식별하는 단계;
    테스트 데이터에 대한 정보를 식별하는 단계 - 상기 테스트 데이터는 제2 포인트를 포함함 -;
    상기 제1 및 제2 포인트의 좌표를 식별하는 단계 - 상기 좌표는 좌표 공간 내 값의 범위를 포함함 -;
    상기 좌표 공간 내 상기 값의 범위를 빈으로 분할하는 단계 - 각각의 빈은 상기 값의 범위의 부분집합을 정의함 -;
    제1 빈도를 결정하는 단계 - 상기 제1 빈도는 특정 빈 내에 위치되는 상기 제1 포인트의 제1 백분율에 관련함 -;
    제2 빈도를 결정하는 단계 - 상기 제2 빈도는 상기 특정 빈 내에 위치되는 상기 제2 포인트의 제2 백분율에 관련함 -;
    상기 제1 빈도와 상기 제2 빈도를 비교하는 단계; 및
    상기 제1 및 제2 빈도의 상기 비교에 적어도 부분적으로 기초하여 상기 트레이닝 데이터를 위한 상기 가중치를 결정하는 단계
    를 포함하는 방법.
  9. 제8항에 있어서,
    상기 제1 포인트는 트레이닝 분포를 따르고,
    상기 제2 포인트는 테스트 분포를 따르며,
    상기 가중치는 상기 트레이닝 분포에서의 특정 포인트를 상기 테스트 분포에서의 특정 포인트에 일치시키는 데에 효과가 있는,
    방법.
  10. 제8항에 있어서,
    상기 제1 및 제2 빈도를 비교하는 단계는,
    제1 비교 값을 식별하는 단계;
    각각의 빈과 좌표에서 상기 테스트 데이터와 상기 트레이닝 데이터의 빈도 값을 비교하여 차이 값을 산출하는 단계;
    상기 차이 값에 기초하여 상기 제1 비교 값을 갱신하여 제2 비교 값을 산출하는 단계; 및
    상기 제2 비교 값이 수렴할 때까지, 상기 제1 비교 값을 식별하는 단계, 각각의 빈과 좌표에서 상기 테스트 데이터와 상기 트레이닝 데이터의 빈도 값을 비교하여 차이 값을 산출하는 단계, 및 상기 차이 값에 기초하여 상기 제1 비교 값을 갱신하여 제2 비교 값을 산출하는 단계를 반복적으로 되풀이하는 단계
    를 포함하는, 방법.
  11. 제10항에 있어서,
    상기 차이 값에 기초하여 상기 제1 비교 값을 갱신하여 제2 비교 값을 산출하는 단계는 상기 제1 비교 값에 상기 차이 값의 부분(fraction)을 더하여 상기 제2 비교 값을 산출하는 단계를 포함하는, 방법.
  12. 제8항에 있어서,
    상기 가중치를 결정하는 단계는 상기 제1 포인트의 수와 상기 빈의 수에 더 기초하는, 방법.
  13. 제8항에 있어서,
    상기 가중치를 결정하는 단계는 상기 빈에 위치되는 상기 제1 및 제2 포인트의 수에 더 기초하는, 방법.
  14. 프로세서; 및
    상기 프로세서와 통신하도록 구성되는 메모리
    를 포함하고,
    상기 메모리는 제1 포인트를 포함하는 트레이닝 데이터를 저장하는 데에 효과가 있고,
    상기 메모리는 제2 포인트를 포함하는 테스트 데이터를 저장하는 데에 더 효과가 있으며,
    상기 프로세서는,
    상기 제1 및 제2 포인트의 좌표를 식별 - 상기 좌표는 좌표 공간 내 값의 범위를 포함함 -;
    상기 좌표 공간 내 상기 값의 범위를 빈으로 분할 - 각각의 빈은 상기 값의 범위의 부분집합을 정의함 -;
    제1 빈도를 결정 - 상기 제1 빈도는 특정 빈 내에 위치되는 상기 제1 포인트의 제1 백분율에 관련함 -;
    제2 빈도를 결정 - 상기 제2 빈도는 상기 특정 빈 내에 위치되는 상기 제2 포인트의 제2 백분율에 관련함 -;
    상기 제1 빈도와 상기 제2 빈도를 비교; 및
    상기 제1 및 제2 빈도의 상기 비교에 적어도 부분적으로 기초하여 상기 트레이닝 데이터를 위한 가중치를 결정
    하는 데에 효과가 있고,
    상기 메모리는 상기 가중치를 저장하는 데에 더 효과가 있는,
    컴퓨팅 장치.
  15. 제14항에 있어서,
    상기 제1 포인트는 트레이닝 분포를 따르고,
    상기 제2 포인트는 테스트 분포를 따르며,
    상기 가중치는 상기 트레이닝 분포에서의 특정 포인트를 상기 테스트 분포에서의 특정 포인트에 일치시키는 데에 효과가 있는,
    컴퓨팅 장치.
  16. 제14항에 있어서,
    상기 프로세서는,
    제1 비교 값을 식별;
    각각의 빈과 좌표에서 상기 테스트 데이터와 상기 트레이닝 데이터의 빈도 값을 비교하여 차이 값을 산출;
    상기 차이 값에 기초하여 상기 제1 비교 값을 갱신하여 제2 비교 값을 산출;
    상기 제2 비교 값이 수렴할 때까지, 상기 제1 비교 값을 식별, 각각의 빈과 좌표에서 상기 테스트 데이터와 상기 트레이닝 데이터의 빈도 값을 비교하여 차이 값을 산출, 및 상기 차이 값에 기초하여 상기 제1 비교 값을 갱신하여 제2 비교 값을 산출을 반복적으로 되풀이; 및
    상기 수렴한 제2 비교 값을 상기 메모리에 저장
    하는 데에 더 효과가 있는,
    컴퓨팅 장치.
  17. 제16항에 있어서,
    상기 프로세서는 상기 제1 비교 값에 상기 차이 값의 부분을 더함으로써, 상기 차이 값에 기초하여 상기 제1 비교 값을 갱신하여 제2 비교 값을 산출하는 데에 더 효과가 있는, 컴퓨팅 장치.
  18. 제14항에 있어서,
    머신 러닝 모듈을 더 포함하고,
    상기 프로세서는 상기 머신 러닝 모듈에 상기 가중치 및 상기 트레이닝 데이터를 전송하는 데에 더 효과가 있고,
    응답하여, 상기 머신 러닝 모듈은,
    상기 프로세서로부터 상기 가중치 및 상기 트레이닝 데이터를 수신;
    상기 가중치 및 상기 트레이닝 데이터에 적어도 부분적으로 기초하여 함수를 생성; 및
    상기 함수를 상기 메모리에 저장
    하는 데에 효과가 있는,
    컴퓨팅 장치.
  19. 제14항에 있어서,
    상기 프로세서는 상기 제1 포인트의 수와 상기 빈의 수에 기초하여 상기 가중치를 결정하는 데에 효과가 있는, 컴퓨팅 장치.
  20. 제14항에 있어서,
    상기 프로세서는 상기 빈에 위치되는 상기 제1 및 제2 포인트의 수에 기초하여 상기 가중치를 결정하는 데에 더 효과가 있는, 컴퓨팅 장치.
KR1020167015549A 2013-11-22 2014-11-21 머신 러닝에서의 가중치 생성 KR101868830B1 (ko)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201361907499P 2013-11-22 2013-11-22
US61/907,499 2013-11-22
US201462015200P 2014-06-20 2014-06-20
US62/015,200 2014-06-20
US14/451,899 US9858534B2 (en) 2013-11-22 2014-08-05 Weight generation in machine learning
US14/451,899 2014-08-05
PCT/US2014/066816 WO2015077564A2 (en) 2013-11-22 2014-11-21 Weight generation in machine learning

Publications (2)

Publication Number Publication Date
KR20160084456A true KR20160084456A (ko) 2016-07-13
KR101868830B1 KR101868830B1 (ko) 2018-07-19

Family

ID=53180399

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167015549A KR101868830B1 (ko) 2013-11-22 2014-11-21 머신 러닝에서의 가중치 생성

Country Status (5)

Country Link
US (2) US9858534B2 (ko)
EP (1) EP3072072A4 (ko)
JP (1) JP6212216B2 (ko)
KR (1) KR101868830B1 (ko)
WO (1) WO2015077564A2 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102093080B1 (ko) * 2019-12-06 2020-04-27 주식회사 애자일소다 레이블 데이터 및 비레이블 데이터를 이용한 생성적 적대 신경망 기반의 분류 시스템 및 방법
KR20200049273A (ko) * 2018-10-31 2020-05-08 주식회사 메디치소프트 머신러닝을 위한 학습데이터 세트의 구성 방법 및 장치
WO2021112335A1 (ko) * 2019-12-06 2021-06-10 주식회사 애자일소다 생성적 적대 신경망 기반의 분류 시스템 및 방법

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10558935B2 (en) * 2013-11-22 2020-02-11 California Institute Of Technology Weight benefit evaluator for training data
US9858534B2 (en) 2013-11-22 2018-01-02 California Institute Of Technology Weight generation in machine learning
US10535014B2 (en) 2014-03-10 2020-01-14 California Institute Of Technology Alternative training distribution data in machine learning
US9953271B2 (en) 2013-11-22 2018-04-24 California Institute Of Technology Generation of weights in machine learning
US10291485B2 (en) * 2015-10-19 2019-05-14 Nec Corporation System and method for fault-tolerant parallel learning over non-iid data
CN107229518B (zh) * 2016-03-26 2020-06-30 阿里巴巴集团控股有限公司 一种分布式集群训练方法和装置
US11049190B2 (en) 2016-07-15 2021-06-29 Intuit Inc. System and method for automatically generating calculations for fields in compliance forms
US10725896B2 (en) 2016-07-15 2020-07-28 Intuit Inc. System and method for identifying a subset of total historical users of a document preparation system to represent a full set of test scenarios based on code coverage
US10579721B2 (en) 2016-07-15 2020-03-03 Intuit Inc. Lean parsing: a natural language processing system and method for parsing domain-specific languages
US11222266B2 (en) 2016-07-15 2022-01-11 Intuit Inc. System and method for automatic learning of functions
US10140277B2 (en) 2016-07-15 2018-11-27 Intuit Inc. System and method for selecting data sample groups for machine learning of context of data fields for various document types and/or for test data generation for quality assurance systems
US11620554B2 (en) 2016-08-08 2023-04-04 Koninklijke Philips N.V. Electronic clinical decision support device based on hospital demographics
CN107491533A (zh) * 2017-08-22 2017-12-19 安徽简道科技有限公司 基于大数据的证券资讯个性化服务系统
WO2019235614A1 (ja) * 2018-06-07 2019-12-12 日本電気株式会社 関係性分析装置、関係性分析方法および記録媒体
US11163956B1 (en) 2019-05-23 2021-11-02 Intuit Inc. System and method for recognizing domain specific named entities using domain specific word embeddings
US11783128B2 (en) 2020-02-19 2023-10-10 Intuit Inc. Financial document text conversion to computer readable operations
US10839269B1 (en) * 2020-03-20 2020-11-17 King Abdulaziz University System for fast and accurate visual domain adaptation
US11543981B2 (en) 2020-06-12 2023-01-03 Western Digital Technologies, Inc. Data storage device self-configuring based on customer prediction model
US11379748B2 (en) 2020-06-15 2022-07-05 Bank Of America Corporation System for threshold detection using learning reinforcement

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090091443A1 (en) * 2007-10-04 2009-04-09 Siemens Corporate Research, Inc. Segment-Based Change Detection Method in Multivariate Data Stream

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2167748A1 (en) 1995-02-09 1996-08-10 Yoav Freund Apparatus and methods for machine learning hypotheses
US6119083A (en) 1996-02-29 2000-09-12 British Telecommunications Public Limited Company Training process for the classification of a perceptual signal
US6373483B1 (en) 1997-01-13 2002-04-16 Silicon Graphics, Inc. Method, system and computer program product for visually approximating scattered data using color to represent values of a categorical variable
US6594586B1 (en) 1997-10-28 2003-07-15 California Institute Of Technology Incorporation of contextual information in object identification
US6453307B1 (en) 1998-03-03 2002-09-17 At&T Corp. Method and apparatus for multi-class, multi-label information categorization
US7318051B2 (en) 2001-05-18 2008-01-08 Health Discovery Corporation Methods for feature selection in a learning machine
CA2330878C (en) 1998-05-01 2011-03-01 Barnhill Technologies, Llc Pre-processing and post-processing for enhancing knowledge discovery using support vector machines
WO2003040949A1 (en) 2001-11-07 2003-05-15 Biowulf Technologies, Llc Pre-processed Feature Ranking for a support Vector Machine
US6789069B1 (en) 1998-05-01 2004-09-07 Biowulf Technologies Llc Method for enhancing knowledge discovered from biological data using a learning machine
US6850873B1 (en) 1999-09-29 2005-02-01 Eric T Bax Using validation by inference to select a hypothesis function
US7970718B2 (en) 2001-05-18 2011-06-28 Health Discovery Corporation Method for feature selection and for evaluating features identified as significant for classifying data
US6701311B2 (en) 2001-02-07 2004-03-02 International Business Machines Corporation Customer self service system for resource search and selection
US20030105638A1 (en) * 2001-11-27 2003-06-05 Taira Rick K. Method and system for creating computer-understandable structured medical data from natural language reports
US6876955B1 (en) 2001-12-28 2005-04-05 Fannie Mae Method and apparatus for predicting and reporting a real estate value based on a weighted average of predicted values
JP2005107743A (ja) 2003-09-29 2005-04-21 Nec Corp 学習システム
US7356187B2 (en) 2004-04-12 2008-04-08 Clairvoyance Corporation Method and apparatus for adjusting the model threshold of a support vector machine for text classification and filtering
US7426497B2 (en) 2004-08-31 2008-09-16 Microsoft Corporation Method and apparatus for analysis and decomposition of classifier data anomalies
US7480667B2 (en) 2004-12-24 2009-01-20 Microsoft Corporation System and method for using anchor text as training data for classifier-based search systems
US7689520B2 (en) 2005-02-25 2010-03-30 Microsoft Corporation Machine learning system and method for ranking sets of data using a pairing cost function
US7877383B2 (en) 2005-04-27 2011-01-25 Microsoft Corporation Ranking and accessing definitions of terms
US7472096B2 (en) 2005-07-18 2008-12-30 Microsoft Corporation Training a learning system with arbitrary cost functions
US7561158B2 (en) 2006-01-11 2009-07-14 International Business Machines Corporation Method and apparatus for presenting feature importance in predictive modeling
EP1818746A1 (en) 2006-02-10 2007-08-15 ALSTOM Technology Ltd Method of condition monitoring
US8019763B2 (en) 2006-02-27 2011-09-13 Microsoft Corporation Propagating relevance from labeled documents to unlabeled documents
US8001121B2 (en) 2006-02-27 2011-08-16 Microsoft Corporation Training a ranking function using propagated document relevance
US7617164B2 (en) 2006-03-17 2009-11-10 Microsoft Corporation Efficiency of training for ranking systems based on pairwise training with aggregated gradients
AU2006201210A1 (en) 2006-03-23 2007-10-11 Canon Information Systems Research Australia Pty Ltd Motion characterisation
US7720830B2 (en) 2006-07-31 2010-05-18 Microsoft Corporation Hierarchical conditional random fields for web extraction
US20080169975A1 (en) 2007-01-12 2008-07-17 Young Paul Yee Process for generating spatially continuous wind profiles from wind profiler measurements
US20090132515A1 (en) 2007-11-19 2009-05-21 Yumao Lu Method and Apparatus for Performing Multi-Phase Ranking of Web Search Results by Re-Ranking Results Using Feature and Label Calibration
US8175384B1 (en) 2008-03-17 2012-05-08 Adobe Systems Incorporated Method and apparatus for discriminative alpha matting
JP2009282685A (ja) 2008-05-21 2009-12-03 Sony Corp 情報処理装置、情報処理方法、およびプログラム
WO2010030794A1 (en) 2008-09-10 2010-03-18 Digital Infuzion, Inc. Machine learning methods and systems for identifying patterns in data
US20100169243A1 (en) 2008-12-27 2010-07-01 Kibboko, Inc. Method and system for hybrid text classification
US9189472B2 (en) 2009-03-30 2015-11-17 Touchtype Limited System and method for inputting text into small screen devices
AU2010324517A1 (en) 2009-11-27 2012-06-14 New Ideas Company Pty Ltd Method and system for consumer centred care management
CA2805446C (en) 2010-07-29 2016-08-16 Exxonmobil Upstream Research Company Methods and systems for machine-learning based simulation of flow
US8924314B2 (en) 2010-09-28 2014-12-30 Ebay Inc. Search result ranking using machine learning
US8504392B2 (en) 2010-11-11 2013-08-06 The Board Of Trustees Of The Leland Stanford Junior University Automatic coding of patient outcomes
US20120271821A1 (en) 2011-04-20 2012-10-25 Microsoft Corporation Noise Tolerant Graphical Ranking Model
US8798984B2 (en) 2011-04-27 2014-08-05 Xerox Corporation Method and system for confidence-weighted learning of factored discriminative language models
US20120330971A1 (en) 2011-06-26 2012-12-27 Itemize Llc Itemized receipt extraction using machine learning
DE112012003110T5 (de) 2011-07-25 2014-04-10 International Business Machines Corp. Verfahren, Programmprodukt und System zur Datenidentifizierung
US20130066452A1 (en) 2011-09-08 2013-03-14 Yoshiyuki Kobayashi Information processing device, estimator generating method and program
US8873813B2 (en) 2012-09-17 2014-10-28 Z Advanced Computing, Inc. Application of Z-webs and Z-factors to analytics, search engine, learning, recognition, natural language, and other utilities
US9916538B2 (en) 2012-09-15 2018-03-13 Z Advanced Computing, Inc. Method and system for feature detection
US9031897B2 (en) 2012-03-23 2015-05-12 Nuance Communications, Inc. Techniques for evaluation, building and/or retraining of a classification model
US8788439B2 (en) 2012-12-21 2014-07-22 InsideSales.com, Inc. Instance weighted learning machine learning model
US20140180738A1 (en) 2012-12-21 2014-06-26 Cloudvu, Inc. Machine learning for systems management
US10423889B2 (en) 2013-01-08 2019-09-24 Purepredictive, Inc. Native machine learning integration for a data management product
EP2883173A1 (en) 2013-03-15 2015-06-17 The Echo Nest Corporation Demographic and media preference prediction using media content data analysis
US9679258B2 (en) 2013-10-08 2017-06-13 Google Inc. Methods and apparatus for reinforcement learning
US9953271B2 (en) 2013-11-22 2018-04-24 California Institute Of Technology Generation of weights in machine learning
US10558935B2 (en) 2013-11-22 2020-02-11 California Institute Of Technology Weight benefit evaluator for training data
US10535014B2 (en) 2014-03-10 2020-01-14 California Institute Of Technology Alternative training distribution data in machine learning
US9858534B2 (en) 2013-11-22 2018-01-02 California Institute Of Technology Weight generation in machine learning
US20170011307A1 (en) 2015-07-07 2017-01-12 California Institute Of Technology Alternative training distribution based on density modification

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090091443A1 (en) * 2007-10-04 2009-04-09 Siemens Corporate Research, Inc. Segment-Based Change Detection Method in Multivariate Data Stream

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Sugiyama, Masashi, et al. "Direct importance estimation with model selection and its application to covariate shift adaptation." Advances in neural information processing systems. 2008.* *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200049273A (ko) * 2018-10-31 2020-05-08 주식회사 메디치소프트 머신러닝을 위한 학습데이터 세트의 구성 방법 및 장치
KR102093080B1 (ko) * 2019-12-06 2020-04-27 주식회사 애자일소다 레이블 데이터 및 비레이블 데이터를 이용한 생성적 적대 신경망 기반의 분류 시스템 및 방법
WO2021112335A1 (ko) * 2019-12-06 2021-06-10 주식회사 애자일소다 생성적 적대 신경망 기반의 분류 시스템 및 방법

Also Published As

Publication number Publication date
WO2015077564A2 (en) 2015-05-28
EP3072072A2 (en) 2016-09-28
US20180121832A1 (en) 2018-05-03
JP6212216B2 (ja) 2017-10-11
KR101868830B1 (ko) 2018-07-19
JP2017500638A (ja) 2017-01-05
US20150206067A1 (en) 2015-07-23
EP3072072A4 (en) 2017-08-02
US9858534B2 (en) 2018-01-02
WO2015077564A3 (en) 2015-11-19

Similar Documents

Publication Publication Date Title
KR101868830B1 (ko) 머신 러닝에서의 가중치 생성
KR101868829B1 (ko) 머신 러닝에서의 가중치의 생성
KR101933916B1 (ko) 머신 러닝에서의 대안 트레이닝 분포 데이터
KR101889451B1 (ko) 트레이닝 데이터를 위한 가중치 이득 평가기
CN106776673B (zh) 多媒体文档概括
CN109313720B (zh) 具有稀疏访问的外部存储器的增强神经网络
US8965814B1 (en) Selection of most effective machine learning kernel from a training set of documents
CN109783490B (zh) 数据融合方法、装置、计算机设备及存储介质
EP2428926A2 (en) Rating prediction device, rating prediction method, and program
KR101982674B1 (ko) 밀도 수정에 기초한 대체 트레이닝 분포
CN107644051A (zh) 用于同类实体分组的系统和方法
CN111611390B (zh) 一种数据处理方法及装置
CN115409111A (zh) 命名实体识别模型的训练方法和命名实体识别方法
CN116109907B (zh) 目标检测方法、装置、电子设备及存储介质
CN108229572B (zh) 一种参数寻优方法及计算设备
JP6676894B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR20220169215A (ko) 사업장의 매출 상승을 위한 전략 추천 방법 및 그 장치
CN114547448A (zh) 数据处理、模型训练方法、装置、设备、存储介质及程序
CN114579757A (zh) 一种基于知识图谱辅助的文本处理方法和装置
CN118013031A (zh) 提示词的确定方法、装置、计算机设备以及存储介质
Jovanovich Review of Large-Scale Coordinate Descent Algorithms for Multi-class Classification with Memory Constraints

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant