KR102554905B1 - 학습데이터 모집단에서 최종학습데이터셋을 도출하는 방법, 컴퓨팅장치 및 컴퓨터-판독가능 매체 - Google Patents

학습데이터 모집단에서 최종학습데이터셋을 도출하는 방법, 컴퓨팅장치 및 컴퓨터-판독가능 매체 Download PDF

Info

Publication number
KR102554905B1
KR102554905B1 KR1020230060200A KR20230060200A KR102554905B1 KR 102554905 B1 KR102554905 B1 KR 102554905B1 KR 1020230060200 A KR1020230060200 A KR 1020230060200A KR 20230060200 A KR20230060200 A KR 20230060200A KR 102554905 B1 KR102554905 B1 KR 102554905B1
Authority
KR
South Korea
Prior art keywords
data
learning
learning data
final
deriving
Prior art date
Application number
KR1020230060200A
Other languages
English (en)
Inventor
강바롬
김남길
전문휘
Original Assignee
셀렉트스타 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 셀렉트스타 주식회사 filed Critical 셀렉트스타 주식회사
Priority to KR1020230060200A priority Critical patent/KR102554905B1/ko
Application granted granted Critical
Publication of KR102554905B1 publication Critical patent/KR102554905B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은 학습데이터 모집단에서 최종학습데이터셋을 도출하는 방법, 컴퓨팅장치 및 컴퓨터-판독가능 매체로서, 더욱 자세하게는, 1 이상의 프로세서 및 1 이상의 메모리를 포함하는 컴퓨터장치에 입력된 복수의 학습데이터셋에 대해 복수의 군집으로 분할한 뒤 간 군집 별 대표데이터를 도출하여 최종학습데이터셋을 도출함으로써, 다량의 낮은 질을 가지는 학습데이터로 기계학습모델을 학습시키기보다 개발자가 필요로 하는 커버리지를 가지는 높은 질의 학습데이터를 학습시켜 보다 효율적으로 기계학습모델의 성능을 높일 수 있는, 학습데이터 모집단에서 최종학습데이터셋을 도출하는 방법, 컴퓨팅장치 및 컴퓨터-판독가능 매체에 관한 것이다.

Description

학습데이터 모집단에서 최종학습데이터셋을 도출하는 방법, 컴퓨팅장치 및 컴퓨터-판독가능 매체 {The Method, Computing Apparatus, And Computer-Readable Medium To Derive The Final-Learning-Data-Set From The Learning-Data-Population}
본 발명은 학습데이터 모집단에서 최종학습데이터셋을 도출하는 방법, 컴퓨팅장치 및 컴퓨터-판독가능 매체로서, 더욱 자세하게는, 1 이상의 프로세서 및 1 이상의 메모리를 포함하는 컴퓨터장치에 입력된 복수의 학습데이터셋에 대해 복수의 군집으로 분할한 뒤 간 군집 별 대표데이터를 도출하여 최종학습데이터셋을 도출함으로써, 다량의 낮은 질을 가지는 학습데이터로 기계학습모델을 학습시키기보다 개발자가 필요로 하는 커버리지를 가지는 높은 질의 학습데이터를 학습시켜 보다 효율적으로 기계학습모델의 성능을 높일 수 있는, 학습데이터 모집단에서 최종학습데이터셋을 도출하는 방법, 컴퓨팅장치 및 컴퓨터-판독가능 매체에 관한 것이다.
기계학습(machine learning)이란 인공지능을 구현하는 하나의 방법으로 대량의 데이터를 입력받아 수학적 최적화와 통계분석 기법을 통해 스스로 학습하여 빅데이터를 분석하거나 가공해서 새로운 정보를 얻어 내거나 미래를 예측하는 기술이다. 대부분의 기계학습은 다수의 파라미터(parameter)로 구성된 모델을 이용하고, 주어진 데이터나 경험을 통해 파라미터를 최적화하는 방식으로 학습한다. 학습 문제의 형태에 따라 지도형 기계학습(supervised learning), 비지도형 기계학습(unsupervised learning), 강화형 기계학습(reinforcement learning) 등으로 구분될 수 있다.
더 구체적으로, 기계학습에 사용되는 기계학습모델은 학습용 데이터를 학습하고 검증용 데이터로 학습에 대한 검증을 수행하고, 테스트용 데이터로 해당 모델의 성능을 테스트하는 방식을 통해 개발/보완된다. 다시 말해, 상기 학습용 데이터와 상기 검증용 데이터는 해당 데이터의 레이블링(labeling)정보와 속성(feature)정보를 모두 포함하고, 상기 테스트용 데이터는 속성정보만을 가지고 있어, 상기 기계학습모델은 속성정보만을 가지고 해당 데이터의 레이블(label)을 예측하는 방식으로 테스트되었다.
한편, 이와 같은 인공지능 기술이 활발히 발전함에 따라 기계학습모델을 학습시키는 학습데이터의 질(quality)과 커버리지(coverage)의 중요성도 점차 대두되고 있다. 즉, 종래의 기계학습모델들은 최대한 많은 학습데이터를 학습하는 방식으로 성능을 올렸지만, 최근의 기계학습모델들은 성능이 충분히 올라왔기 때문에 무분별하게 많은 학습데이터를 학습시키는 것보다는 다량의 학습데이터 중에서 필요한 데이터, 예를 들어, 비가 오는 노을 녘에서의 자율주행관련 데이터와 같이 선별되고 정제된 데이터를 추출하여 기계학습모델을 학습시키는 것이 보다 효율적이다.
다시 말해, 최근의 데이터 중심의 인공지능 기술은, 분석결과의 정확도가 떨어지는 엣지 케이스(Edge Case)를 발견하여 관련된 데이터를 데이터셋으로 더 구축함으로써 해당 학습모델의 성능을 높일 수 있으며, 이와 같은 방식으로 학습모델의 성능을 높이기 위해서는 모델학습에 사용될 수 있는 학습데이터셋의 커버리지를 분석하여 Data Split(train-validation-test)에 따른 데이터 분포 확인을 통해 그 적절성을 확인하는 것이 중요하다. 위와 같은 목적을 수행하기 위하여 적절한 학습데이터셋의 사용자가 용이하게 도출할 수 있는 기술의 필요성이 요구되고 있다.
본 발명은 학습데이터 모집단에서 최종학습데이터셋을 도출하는 방법, 컴퓨팅장치 및 컴퓨터-판독가능 매체로서, 더욱 자세하게는, 1 이상의 프로세서 및 1 이상의 메모리를 포함하는 컴퓨터장치에 입력된 복수의 학습데이터셋에 대해 복수의 군집으로 분할한 뒤 간 군집 별 대표데이터를 도출하여 최종학습데이터셋을 도출함으로써, 다량의 낮은 질을 가지는 학습데이터로 기계학습모델을 학습시키기보다 개발자가 필요로 하는 커버리지를 가지는 높은 질의 학습데이터를 학습시켜 보다 효율적으로 기계학습모델의 성능을 높일 수 있는, 학습데이터 모집단에서 최종학습데이터셋을 도출하는 방법, 컴퓨팅장치 및 컴퓨터-판독가능 매체를 제공하는 것을 목적으로 한다.
상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예에서는, 1 이상의 프로세서 및 1 이상의 메모리를 포함하는 컴퓨팅장치에서 수행되는 학습데이터 모집단에서 최종학습데이터셋을 도출하는 방법으로서, 복수의 학습데이터를 포함하는 학습데이터 모집단을 입력받고 상기 학습데이터 각각의 특징벡터를 도출하는 특징벡터도출단계; 상기 특징벡터 및 입력된 큐레이션설정정보에 기초하여 상기 학습데이터 모집단을 복수의 군집으로 분할하는 군집분할단계; 상기 복수의 군집 각각에 대하여 군집별 대표데이터를 도출하되, 도출되는 복수의 군집별 대표데이터 간의 거리의 총합이 최대가 되도록 하는 대표데이터도출단계; 및 도출된 복수의 대표데이터를 최종학습데이터셋으로 결정하는 최종학습데이터셋도출단계;를 포함하는, 최종학습데이터셋을 도출하는 방법을 제공한다.
본 발명의 일 실시예에서는, 상기 군집분할단계는, 상기 큐레이션설정정보에 기초하여 상기 대표데이터의 개수를 결정하고, 결정된 대표데이터의 개수에 따라 분할되는 군집의 개수를 결정할 수 있다.
본 발명의 일 실시예에서는, 상기 군집분할단계는, 결정된 군집의 개수만큼 임의의 벡터를 가지는 센터포인트를 결정하는 제1센터포인트결정단계; 상기 복수의 학습데이터 각각이 자신과 최근접한 센터포인트에 귀속되는 제1학습데이터귀속단계; 결정된 복수의 센터포인트 각각에 대하여, 센터포인트에 귀속된 학습데이터들의 특징벡터의 평균값을 산출하고, 상기 특징벡터의 평균값에 기초하여 센터포인트를 재결정하는 제2센터포인트결정단계; 상기 복수의 학습데이터 각각이 자신과 최근접한 재결정된 센터포인트에 귀속되는 제2학습데이터귀속단계; 및 상기 제2센터포인트결정단계와 상기 제2학습데이터귀속단계를 반복수행하되, 재결정되는 센터포인트의 위치의 변화가 없는 경우, 해당 센터포인트를 최종센터포인트로 결정하는 최종센터포인트결정단계;를 포함하는 군집결정단계를 포함하고, 상기 군집결정단계는, 상기 최종센터포인트에 귀속된 복수의 학습데이터들을 하나의 군집으로 결정할 수 있다.
본 발명의 일 실시예에서는, 상기 대표데이터도출단계는, 2 이상의 자연수 n에 대하여, 상기 군집분할단계에서 n 개의 군집이 생성되었을 때, 상기 n 개의 군집 각각에 대해 임의의 후보학습데이터를 추출하고, n 개의 후보학습데이터 각각 사이의 거리를 모두 합한 값이 최대가 되는 후보학습데이터를 각각의 군집의 대표데이터로 산출할 수 있다.
본 발명의 일 실시예에서는, 학습데이터 간의 거리는 각각의 학습데이터의 특징벡터에 기초하여 코사인시밀러리티 방식으로 산출된 거리에 의하여 결정될 수 있다.
본 발명의 일 실시예에서는, 상기 최종학습데이터셋을 도출하는 방법은, 대표데이터로 도출된 학습데이터의 특징벡터 및 대표데이터로 도출되지 않은 학습데이터의 특징벡터를 3 이하의 차원으로 축소하는 차원축소단계; 및 차원이 축소된 대표데이터로 도출된 학습데이터, 및 차원이 축소된 대표데이터로 도출되지 않은 학습데이터의 특징벡터를 시각적으로 구분하여 3 이하의 차원의 평면 상에 표시하는 최종학습데이터시각화단계;를 더 포함할 수 있다.
상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예에서는, 1 이상의 프로세서 및 1 이상의 메모리를 포함하고, 학습데이터 모집단에서 최종학습데이터셋을 도출하는 방법을 수행하는 컴퓨팅장치로서, 복수의 학습데이터를 포함하는 학습데이터 모집단을 입력받고 상기 학습데이터 각각의 특징벡터를 도출하는 특징벡터도출부; 상기 특징벡터 및 입력된 큐레이션설정정보에 기초하여 상기 학습데이터 모집단을 복수의 군집으로 분할하는 군집분할부; 상기 복수의 군집 각각에 대하여 군집별 대표데이터를 도출하되, 도출되는 복수의 군집별 대표데이터 간의 거리의 총합이 최대가 되도록 하는 대표데이터도출부; 및 도출된 복수의 대표데이터를 최종학습데이터셋으로 결정하는 최종학습데이터셋도출부;를 포함하는, 컴퓨팅장치를 제공한다.
상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예에서는, 1 이상의 프로세서 및 1 이상의 메모리를 포함하는 컴퓨팅장치에서 수행되는 학습데이터 모집단에서 최종학습데이터셋을 도출하는 방법을 구현하기 위한 컴퓨터-판독가능 매체로서, 상기 컴퓨터-판독가능 매체는, 상기 컴퓨팅장치로 하여금 이하의 단계들을 수행하도록 하는 컴퓨터 실행가능 명령어들을 포함하고, 상기 이하의 단계들은: 복수의 학습데이터를 포함하는 학습데이터 모집단을 입력받고 상기 학습데이터 각각의 특징벡터를 도출하는 특징벡터도출단계; 상기 특징벡터 및 입력된 큐레이션설정정보에 기초하여 상기 학습데이터 모집단을 복수의 군집으로 분할하는 군집분할단계; 상기 복수의 군집 각각에 대하여 군집별 대표데이터를 도출하되, 도출되는 복수의 군집별 대표데이터 간의 거리의 총합이 최대가 되도록 하는 대표데이터도출단계; 및 도출된 복수의 대표데이터를 최종학습데이터셋으로 결정하는 최종학습데이터셋도출단계;를 포함하는, 컴퓨터-판독가능 매체를 제공한다.
본 발명의 일 실시예에 따르면, 보다 효율적인 알고리즘을 채택함으로써 종래기술보다 적은 연산부하와 빠른 속도로 최종학습데이터셋을 도출할 수 있는 효과를 발휘할 수 있다.
본 발명의 일 실시예에 따르면, 도출된 최종학습데이터셋을 기계학습모델에 학습시켰을 때, 해당 최종학습데이터셋의 학습데이터 모집단을 모두 학습시켰을 때보다 향상된 학습효율을 보이는 효과를 발휘할 수 있다.
본 발명의 일 실시예에 따르면, 데이터들의 특징정보벡터에 따라 해당 데이터의 위치가 결정되고, 입력되는 큐레이션설정정보에 따라 군집의 수가 결정되는 방식을 통해 학습데이터 모집단이 복수의 군집으로 분할되기 때문에 높은 퀄리티의 최종학습데이터셋을 도출할 수 있는 효과를 발휘할 수 있다.
본 발명의 일 실시예에 따르면, 군집별 대표데이터를 도출하는 데 있어서, 각각의 대표데이터 간의 거리가 가장 멀도록 하여 대표데이터를 도출함으로써, 최종학습데이터셋의 커버리지를 확보할 수 있는 효과를 발휘할 수 있다.
본 발명의 일 실시예에 따르면, 디스플레이레이어에 매핑되어 표시되는 1 이상의 서로 다른 종류의 그래픽엘리먼트를 통해 사용자가 각 데이터의 종류에 따른 분포를 직관적으로 파악할 수 있는 효과를 발휘할 수 있다.
본 발명의 일 실시예에 따르면, 데이터 중심의 인공지능 기술에 사용되는 모델의 성능향상에 필요한 학습데이터를 효율적으로 기획할 수 있는 효과를 발휘할 수 있다.
도 1은 본 발명의 일 실시예에 따른 학습데이터 모집단에서 최종학습데이터셋을 도출하는 방법의 수행단계를 개략적으로 도시한다.
도 2는 본 발명의 일 실시예에 따른 컴퓨팅장치의 내부구성을 개략적으로 도시한다.
도 3은 본 발명의 일 실시예에 따른 피처 임베딩 모델로 사용되는 기계학습모델의 구성을 개략적으로 도시한다.
도 4는 본 발명의 일 실시예에 따른 학습데이터 모집단의 분포를 개략적으로 도시한다.
도 5는 본 발명의 일 실시예에 따른 군집분할단계의 수행과정을 개략적으로 도시한다.
도 6 및 도 7은 본 발명의 일 실시예에 따른 군집결정단계의 수행단계를 개략적으로 도시한다.
도 8은 본 발명의 일 실시예에 따른 최종센터포인트가 결정되었을 때의 군집분할의 구성을 개략적으로 도시한다.
도 9 내지 도 11은 본 발명의 일 실시예에 따른 대표데이터도출단계의 수행과정을 개략적으로 도시한다.
도 12는 본 발명의 일 실시예에 따른 최종학습데이터셋을 도출한 뒤 각각의 데이터를 차원축소하여 사용자에게 시각화하여 출력되는 화면을 개략적으로 도시한다.
도 13은 본 발명의 일 실시예에 따른 컴퓨팅장치의 내부 구성을 개략적으로 도시한다.
이하에서는, 다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나 이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.
또한, 다양한 양상들 및 특징들이 다수의 디바이스들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있는 시스템에 의하여 제시될 것이다. 다양한 시스템들이, 추가적인 장치들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있다는 점 그리고/또는 도면들과 관련하여 논의된 장치들, 컴포넌트들, 모듈들 등 전부를 포함하지 않을 수도 있다는 점 또한 이해되고 인식되어야 한다.
본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다. 아래에서 사용되는 용어들 '~부', '컴포넌트', '모듈', '시스템', '인터페이스' 등은 일반적으로 컴퓨터 관련 엔티티(computer-related entity)를 의미하며, 예를 들어, 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어를 의미할 수 있다.
또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.
또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
또한, 본 발명의 실시예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하에서 언급되는 “사용자단말”은 네트워크를 통해 서버나 타 단말에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신장치로서, 스마트폰(Smart Phone), 태블릿 PC(Tablet PC), PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말 등과 같은 모든 종류의 핸드헬드 (Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, "네트워크"는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN) 또는 부가가치 통신망(Value Added Network; VAN) 등과 같은 유선네트워크나 이동 통신망(mobile radio communication network) 또는 위성 통신망 등과 같은 모든 종류의 무선 네트워크로 구현될 수 있다.
도 1은 본 발명의 일 실시예에 따른 학습데이터 모집단에서 최종학습데이터셋을 도출하는 방법의 수행단계를 개략적으로 도시하고, 도 2는 본 발명의 일 실시예에 따른 컴퓨팅장치(1000)의 내부구성을 개략적으로 도시한다.
도 1 내지 도 2에 도시된 바와 같이, 1 이상의 프로세서 및 1 이상의 메모리를 포함하는 컴퓨팅장치(1000)에서 수행되는 학습데이터 모집단에서 최종학습데이터셋을 도출하는 방법으로서, 복수의 학습데이터를 포함하는 학습데이터 모집단을 입력받고 상기 학습데이터 각각의 특징벡터를 도출하는 특징벡터도출단계(S100); 상기 특징벡터 및 입력된 큐레이션설정정보에 기초하여 상기 학습데이터 모집단을 복수의 군집으로 분할하는 군집분할단계(S200); 상기 복수의 군집 각각에 대하여 군집별 대표데이터를 도출하되, 도출되는 복수의 군집별 대표데이터 간의 거리의 총합이 최대가 되도록 하는 대표데이터도출단계(S300); 및 도출된 복수의 대표데이터를 최종학습데이터셋으로 결정하는 최종학습데이터셋도출단계(S400);를 포함한다.
구체적으로, 본 발명의 학습데이터 모집단에서 최종학습데이터셋을 도출하는 방법은 도 2에 도시된 컴퓨팅장치(1000)에서 수행된다. 본 발명의 일 실시예에 따르면, 상기 컴퓨팅장치(1000)는 전술한 사용자단말(미도시)을 포함하고, 상기 사용자단말은 자신의 화면을 통해 학습데이터를 시각적으로 표시하는 인터페이스를 표시하며, 해당 사용자는 상기 사용자단말의 화면에 표시되는 인터페이스에 대한 선택입력 등의 사용자입력을 수행함으로써 상기 인터페이스를 조작할 수 있다. 이를 통해 상기 사용자단말은 사용자가 원하는 조건에 해당하는 학습데이터를 상기 사용자단말의 화면에 표시함으로써, 사용자에게 복수의 학습데이터의 특징정보에 따른 분포를 직관적이고 시각적으로 표시하는 서비스를 제공할 수 있다.
한편, 본 발명의 다른 실시예에 따르면, 상기 컴퓨팅장치(1000)는 서비스서버를 포함하고, 상기 서비스서버는 사용자단말로 학습데이터를 시각적으로 표시하는 인터페이스를 제공하며, 상기 사용자단말로부터 상기 인터페이스에 대한 선택입력을 수신하여, 상기 선택입력에 상응하는 상호작용, 인터페이스, 및 서비스를 사용자단말로 송신할 수 있고, 이를 통해 상기 사용자단말은 사용자가 원하는 조건에 해당하는 학습데이터를 상기 사용자단말의 화면에 표시함으로써, 사용자에게 복수의 학습데이터의 특징정보에 따른 분포를 직관적이고 시각적으로 표시하는 서비스를 제공할 수 있다.
도 2를 참고하여, 상기 컴퓨팅장치(1000)의 특징벡터도출부(1100)는, 학습데이터 모집단을 입력받아 학습데이터 각각의 특징벡터를 도출하는 특징벡터도출단계(S100)를 수행한다. 더 구체적으로, 상기 학습데이터 모집단은 복수의 학습데이터를 포함하는 학습데이터셋(learning data set)을 의미하고, 상기 복수의 학습데이터 각각은 로우데이터(RAW DATA) 및 해당 로우데이터에 대한 1 이상의 속성정보를 포함한다. 상기 로우데이터의 형태는 이미지, 텍스트, 비디오, 오디오 등에 해당할 수 있으며, 상기 속성정보는, 본 발명의 일 실시예로서 해당 로우데이터가 생성될 때 생성되는 생성정보를 포함한다. 예를 들어, 상기 생성정보는 해당 로우데이터의 이름, 생성날짜, 생성위치, 및 데이터 크기와 같이 로우데이터 자체에 대한 표면적인 정보를 포함한다. 상기 생성정보는 시스템에서 자동적으로 생성되는 것이 바람직하나, 사람이 직접 설정할 수 있다.
또한, 상기 속성정보는 본 발명의 다른 실시예로서, 해당 로우데이터에 대한 분석결과에 기초하여 생성되는 분석정보를 더 포함한다. 상기 분석결과를 생성하는 주체는 사람에 해당할 수도 있고, 기계학습모델(2100)에 해당할 수 있다. 상기 분석정보의 예로는 해당 데이터의 레이블링 데이터 및 메트릭(metric) 데이터 등이 있다.
상기 특징벡터도출부(1100)는 전술한 바와 같은 복수의 학습데이터를 포함하는 학습데이터 모집단을 입력받으면, 복수의 학습데이터 각각의 로우데이터를 상기 컴퓨터장치에 저장된 기계학습모델(2100)에 입력하여 특징벡터를 도출한다. 상기 특징벡터는 K(K는 자연수) 개의 차원을 가진다. 다시 말해, 상기 특징벡터는 K 개의 성분을 가지며, 성분의 개수가 차원의 개수에 해당하는 것으로 이해될 수 있다. 상기 기계학습모델(2100)에 대한 추가적인 설명은 도 3에 대한 설명에서 후술하도록 한다.
도 2 및 도 4를 참고하여, 상기 컴퓨팅장치(1000)의 군집분할부(1200)는 상기 특징벡터 및 입력된 큐레이션설정정보에 기초하여 상기 학습데이터 모집단을 복수의 군집으로 분할하는 군집분할단계(S200)를 수행한다. 더 구체적으로, 큐레이션설정정보가 상기 군집분할부(1200)로 입력되면, 상기 군집분할부(1200)는 추출할 대표데이터의 개수를 결정하고, 결정된 대표데이터의 개수에 따라 분할할 군집의 개수를 결정한다.
본 발명의 일 실시예에 따르면, 학습데이터 모집단에 포함되는 학습데이터의 수가 5000 개이고, 입력받은 큐레이션설정정보에 포함된 대표데이터의 개수가 500 개인 경우, 상기 군집분할부(1200)는 상기 5000 개의 학습데이터 모집단을 500 개의 군집으로 분할한다. 이 때, 각 군집에 포함되는 학습데이터의 수는 동일하지 않을 수 있다.
한편, 본 발명의 다른 실시예에 따르면, 큐레이션설정정보에는 대표데이터의 개수와 관련된 정보가 아닌 대표데이터의 비율과 관련된 정보가 포함될 수 있다. 예를 들어, 학습데이터 모집단에 포함되는 학습데이터의 수가 6000 개이고, 입력받은 큐레이션설정정보에 포함된 비율 정보가 10%인 경우, 상기 군집분할부(1200)는 상기 6000 개의 학습데이터 모집단을 600 개의 군집으로 분할한다.
상기 컴퓨팅장치(1000)의 대표데이터도출부(1300)는 상기 군집분할단계(S200)에서 분할된 복수의 군집 각각에 대하여 군집별 대표데이터를 도출하되, 도출되는 복수의 군집별 대표데이터 간의 거리의 총합이 최대가 되도록 하는 대표데이터도출단계(S300)를 수행한다. 다시 말해, 상기 군집분할단계(S200)에서 학습데이터 모집단을 10개의 군집으로 분할하는 경우, 상기 대표데이터도출단계(S300)는 10개의 군집 각각에 대하여 대표데이터를 도출하여 총 10개의 대표데이터를 도출할 수 있다. 다만, 이 때 도출되는 대표데이터 간의 거리의 총합이 최대가 되도록 대표데이터를 도출하는 것을 기술적 특징으로 한다. 상기 대표데이터도출단계(S300)에 대한 보다 상세한 설명은 이하에서 서술하도록 한다.
복수의 대표데이터가 도출된 이후, 상기 컴퓨팅장치(1000)의 최종학습데이터셋도출부(1400)는, 상기 복수의 대표데이터를 최종학습데이터셋으로 결정하는 최종학습데이터셋도출단계(S400)를 수행한다. 도출된 최종학습데이터셋은 시각화되어 사용자에게 제공될 수 있으며, 바람직하게는 상기 학습데이터 모집단에 속한 학습데이터 중 최종학습데이터셋으로 결정된 학습데이터;와 최종학습데이터셋으로 결정되지 않은 학습데이터;는 서로 상이한 시각적특성을 가지는 그래픽엘리먼트로 시각화될 수 있다.
도 2에 도시된 바와 같이 상기 컴퓨팅장치(1000)는 DB(2000)를 포함할 수 있다. 상기 DB(2000)는 상기 컴퓨팅장치(1000) 내부에 위치하여, 상기 특징벡터도출부(1100), 상기 군집분할부(1200), 상기 대표데이터도출부(1300), 및 상기 최종학습데이터셋도출부(1400)와 같이 구비될 수 있으나, 본 발명의 다른 실시예에 따르면, 상기 컴퓨팅장치(1000)와 직접적 혹은 간접적으로 연결되는 외부의 장치에 구비될 수 있다.
상기 DB(2000)에는 본 발명의 학습데이터 모집단에서 최종학습데이터셋을 도출하는 방법을 수행하기 위하여 컴퓨팅장치(1000)에서 도출되거나, 혹은 상기 컴퓨팅장치(1000)가 사용자단말과 같이 외부의 구성요소로부터 수신한 정보들이 저장될 수 있다.
예를 들어, 상기 DB(2000)에는 사용자단말로부터 제공받은 학습데이터 모집단; 상기 특징벡터도출부(1100)에서 상기 학습데이터 모집단에 포함된 N (N은 2 이상의 자연수)개의 학습데이터 각각에 대한 특징벡터를 도출하기 위하여 사용하는 피처 임베딩 모델; 상기 특징벡터도출부(1100)에서 도출된 특징벡터; 및 상기 최종학습데이터셋도출부(1400)에서 도출된 M (M은 N미만의 자연수)개의 최종학습데이터셋;이 저장될 수 있다.
도 3은 본 발명의 일 실시예에 따른 피처 임베딩 모델로 사용되는 기계학습모델(2100)의 구성을 개략적으로 도시한다.
구체적으로, 전술한 바와 같이, 상기 특징벡터도출부(1100)는 기계학습모델(2100)을 이용하여 입력된 학습데이터 각각에 대하여 K 개의 차원을 가지는 특징벡터를 도출할 수 있으며, 도 3에 도시된 본 발명의 기계학습모델(2100)은 피처 임베딩 모델의 형태를 가지는 입출력 모델을 포함할 수 있다. 다시 말해, 상기 피처 임베딩 모델은 어떠한 데이터를 입력받고, 그 결과로 K 개의 차원을 갖는 특징정보를 도출하는 기계학습된 모델로 이해될 수 있다.
상기 기계학습모델(2100)은 도 1에 도시된 컴퓨팅장치(1000) 혹은 상기 컴퓨팅장치(1000)가 접속된 서버시스템에 포함되며, 상기 기계학습모델(2100)은 인코더(2110) 및 디코더(2120)를 포함할 수 있다. 상기 인코더(2110)는 상기 기계학습모델(2100)에 입력된 데이터를 취합, 압축하는 역할을 수행하고, 상기 디코더(2120)는 상기 인코더(2110)에서 압축된 데이터를 풀어내는 역할을 수행하여 상기 디코더(2120)에서 도출된 데이터가 상기 기계학습모델(2100)의 출력(도 3에서 결과값)에 해당할 수 있다.
예를 들어, 상기 기계학습모델(2100)에 강아지가 포함되어 있는 이미지가 입력되는 경우에, 상기 인코더(2110)는 해당 이미지를 입력받아, 해당 이미지에 대한 정보를 벡터형태의 특징정보로 출력하고, 상기 디코더(2120)는 상기 인코더(2110)의 출력을 입력받아, 상기 특징정보에 포함되어 있는 값들에 기초하여 해당 이미지가 강아지에 대한 이미지인지를 판단하는 정보(도 3에서 결과값)를 출력할 수 있다.
한편, 상기 기계학습모델(2100)은 학습데이터를 사용하여 입력되는 데이터에 대한 정보들을 대표할 수 있는 특징정보를 인코더(2110)에서 출력할 수 있도록 학습될 수 있으며, 여기서 본 발명의 피처 임베딩 모델은 상기 학습된 기계학습모델(2100)의 인코더(2110)에 해당할 수 있다.
도 4는 본 발명의 일 실시예에 따른 학습데이터 모집단의 분포를 개략적으로 도시한다.
개략적으로, 도 4는 특징벡터도출단계(S100) 이후 학습데이터 모집단에 포함되는 복수의 학습데이터를 각각의 특징벡터에 따라 2차원 평면 위에 특정 그래픽엘리먼트(도 4에서는 회색점)로 시각화하여 표시한 화면을 도시한다.
구체적으로, 상기 복수의 학습데이터 각각의 특징벡터는 K 개의 차원을 가지기 때문에 K 차원의 공간 상에 배치되는 것이 바람직하나, 설명의 편의를 위해 2차원 평면으로 차원 축소하여 표시하고, 마찬가지로 이하의 설명에서는 2차원으로 차원 축소된 학습데이터 모집단에 대해서 최종학습데이터셋을 도출하는 방법에 대해 설명하도록 한다. 한편, 실제 본 발명에서는 상기 복수의 학습데이터 각각이 차원 축소되지 않은 상태 즉, K 차원의 특징벡터를 가지는 학습데이터에 대해서 군집분할단계(S200), 대표데이터도출단계(S300), 및 최종학습데이터셋도출단계(S400)가 수행된다.
도 4에 도시된 화면에서, 각각의 점들의 위치는 자신의 특징벡터에 따라 결정되기 때문에 서로 가까운 위치에 위치하는 학습데이터들은 서로 비슷한 특징벡터, 다시 말해 유사한 속성정보를 가진 학습데이터일 확률이 높다. 즉, 서로 다른 학습데이터 간의 거리가 가까울수록 서로 유사한 학습데이터일 확률이 높으며, 서로 다른 학습데이터 간의 거리가 멀수록 서로 상이한 학습데이터일 확률이 높다. 이하에서는, 전술한 기술적 특징을 이용하여 복수의 학습데이터에 대해 효율적으로 최종학습데이터셋을 도출하는 방법에 대해 설명하도록 한다.
도 5는 본 발명의 일 실시예에 따른 군집분할단계(S200)의 수행과정을 개략적으로 도시하고, 도 6 및 도 7은 본 발명의 일 실시예에 따른 군집결정단계의 수행단계를 개략적으로 도시하며, 도 8은 본 발명의 일 실시예에 따른 최종센터포인트가 결정되었을 때의 군집분할의 구성을 개략적으로 도시한다.
도 5 내지 도 8에 도시된 바와 같이, 상기 군집분할단계(S200)는, 결정된 군집의 개수만큼 임의의 벡터를 가지는 센터포인트를 결정하는 제1센터포인트결정단계(S210); 상기 복수의 학습데이터 각각이 자신과 최근접한 센터포인트에 귀속되는 제1학습데이터귀속단계(S220); 결정된 복수의 센터포인트 각각에 대하여, 센터포인트에 귀속된 학습데이터들의 특징벡터의 평균값을 산출하고, 상기 특징벡터의 평균값에 기초하여 센터포인트를 재결정하는 제2센터포인트결정단계(S230); 상기 복수의 학습데이터 각각이 자신과 최근접한 재결정된 센터포인트에 귀속되는 제2학습데이터귀속단계(S240); 및 상기 제2센터포인트결정단계(S230)와 상기 제2학습데이터귀속단계(S240)를 반복수행하되, 재결정되는 센터포인트의 위치의 변화가 없는 경우(S250), 해당 센터포인트를 최종센터포인트로 결정하는 최종센터포인트결정단계(S260);를 포함하는 군집결정단계를 포함하고, 상기 군집결정단계는, 상기 최종센터포인트에 귀속된 복수의 학습데이터들을 하나의 군집으로 결정한다.
구체적으로, 도 5는 도 4에 도시된 학습데이터 모집단에 대해 군할분집단계를 수행하여 6개의 군집으로 분할한 상태를 개략적으로 도시한다. 도 5에 도시된 바와 같이 제1군집 내지 제6군집(G1 내지 G6)에 포함되는 학습데이터의 개수는 상이할 수 있다. 도 1에 대한 설명을 참고하여, 상기 군집분할단계(S200)는 입력된 큐레이션설정정보에 기초하여 결정된 군집의 개수로 학습데이터 모집단을 분할하며, 이 때 군집분할부(1200)는 각각의 특징벡터를 기반으로 임의의 분할 방식을 통해 상기 학습데이터 모집단을 분할한다. 상기 군집분할부(1200)에 의하여 상기 학습데이터 모집단이 복수의 군집으로 분할되면, 이후 상기 군집분할부(1200)는 임의의 방식으로 분할된 복수의 군집을 조정하여 최종 군집을 결정하는 군집결정단계를 수행한다.
상기 군집분할부(1200)에 의하여, 도 5에 도시된 바와 같이, 각각의 군집별로 임의의 벡터를 센터포인트(도 5에서 진한 검정 포인트)로 결정하는 제1센터포인트결정단계(S210)가 수행된다. 도 5에 도시된 바와 같이 상기 제1센터포인트결정단계(S210)를 통해 결정되는 센터포인트들의 특징벡터는 특정 학습데이터의 위치로 한정되지 않으며, 본 발명의 일 실시예에 따르면, 임의로 설정된 군집의 중앙부 혹은 무게중심에 해당하는 위치로 결정될 수 있다.
이후, 상기 군집분할부(1200)는, 도 5에 표시되는 복수의 학습데이터 각각이 자신과 최근접한 센터포인트에 귀속되도록 하는 제1학습데이터귀속단계(S220)를 수행한다. 다시 말해, 상기 제1학습데이터귀속단계(S220)에 의하여, 상기 복수의 학습데이터 각각은 자신과 가장 가까운 센터포인트를 탐색하고, 해당 센터포인트에 귀속된다. 이 때 귀속 기준이 되는 센터포인트는 처음에 임의로 분할된 자신이 속한 군집의 센터포인트가 아닐 수 있다.
더 구체적으로 상기 복수의 학습데이터 각각은 자신의 인근에 위치하는 소정의 센터포인트; 혹은 결정된 모든 센터포인트;와의 거리를 산출하여 가장 가까운 거리에 위치하는 센터포인트에 귀속된다. 이 때 산출되는 거리는 두 지점 각각의 벡터에 기초하여 산출된 코사인시밀러리티(Cosine Similarity)에 의하여 결정되는 것이 바람직하다. 혹은, 본 발명의 다른 실시예로서 두 지점 사이의 거리는 유클리디안 거리(Euclidean Distance)에 해당될 수 있다. 도 7의 (a)는 상기 제1학습데이터귀속단계(S220)를 마친 후의 제2군집(G2)과 제3군집(G3)의 센터포인트 및 귀속된 학습데이터를 도시한다.
이후, 상기 군집분할부(1200)는, 결정된 복수의 센터포인트 각각에 귀속된 학습데이터들의 특징벡터의 평균값을 산출하고, 상기 특징벡터의 평균값에 기초하여 센터포인트를 재결정하는 제2센터포인트결정단계(S230)를 수행한다. 도 7의 (b)를 참고하여, 제2군집(G2)에 포함되는 학습데이터들의 특징벡터의 평균값을 도출하여 제2군집(G2)의 센터포인트를 재결정하고, 제3군집(G3)에 포함되는 학습데이터들의 특징벡터의 평균값을 도출하여 제3군집(G3)의 센터포인트를 재결정한다.
이후, 상기 군집분할부(1200)는, 도 7의 (b)에 표시된 복수의 학습데이터 각각이 자신과 최근접한 센터포인트에 귀속되도록 하는 제2학습데이터귀속단계(S240)를 수행한다. 이 때의 센터포인트는 상기 제2센터포인트결정단계(S230)에서 재결정된 센터포인트를 의미하며, 상기 제2학습데이터귀속단계(S240)의 수행결과를 도 7의 (c)에 도시한다.
도 7의 (c)에 도시된 군집과 도 7의 (a)에 도시된 군집을 비교해보면, 서로 상이한 것을 확인할 수 있다. 더 상세하게는, 도 7의 (a)에 도시된 군집보다 도 7의 (c)에 도시된 군집이 유사한 속성정보를 가지는 학습데이터끼리 더 잘 분류된 결과라고 이해될 수 있으며, 상기 제2센터포인트결정단계(S230) 및 상기 제2학습데이터귀속단계(S240)가 거듭 수행됨으로써 상기 군집분할부(1200)는 할당된 군집분할개수 내에서 가장 유사한 속성정보를 가지는 학습데이터끼리 분류할 수 있다.
이와 같이, 상기 군집분할부(1200)는 재결정되는 센터포인트의 위치변화가 없을 때까지 상기 제2센터포인트결정단계(S230) 및 상기 제2학습데이터귀속단계(S240)를 반복적으로 수행하며, 상기 재결정되는 센터포인트의 위치변화가 없는 경우(S250), 반복수행되던 제2센터포인트결정단계(S230)와 제2학습데이터귀속단계(S240)를 종료하고, 해당 센터포인트를 최종센터포인트로 결정하는 최종센터포인트결정단계(S260)를 수행한다.
한편, 전술한 바와 같이 재결정되는 센터포인트의 위치변화가 없는 경우 최종센터포인트결정단계(S260)를 수행하는 것이 바람직하나, 본 발명의 일 실시예에 따르면, 재결정되는 센터포인트의 위치변화가 기설정된 범위 이내인 경우, 예를 들어 재결정되는 센터포인트의 위치변화가 5% 이내인 경우 상기 군집분할부(1200)는 최종센터포인트결정단계(S260)를 수행할 수 있다.
도 8은 최종센터포인트결정단계(S260)가 완료된 이후 최종 결정된 군집을 도시하며, 이하에서는 도 8에 도시된 학습데이터에 대해 수행되는 대표데이터도출단계(S300) 및 최종학습데이터셋도출단계(S400)에 대해 설명하도록 한다.
도 9 내지 도 11은 본 발명의 일 실시예에 따른 대표데이터도출단계(S300)의 수행과정을 개략적으로 도시한다.
도 9 내지 도 11에 도시된 바와 같이, 상기 대표데이터도출단계(S300)는, 2 이상의 자연수 n에 대하여, 상기 군집분할단계(S200)에서 n 개의 군집이 생성되었을 때, 상기 n 개의 군집 각각에 대해 임의의 후보학습데이터를 추출하고, n 개의 후보학습데이터 각각 사이의 거리를 모두 합한 값이 최대가 되는 후보학습데이터를 각각의 군집의 대표데이터로 산출한다.
또한, 학습데이터 간의 거리는 각각의 학습데이터의 특징벡터에 기초하여 코사인시밀러리티 방식으로 산출된 거리에 의하여 결정된다.
구체적으로, 도 9에 도시된 바와 같이, 대표데이터도출부(1300)는 상기 군집분할단계(S200)에서 최종 결정된 복수의 군집 각각에 대하여 임의의 학습데이터를 하나씩 선정한다. 상기 임의의 학습데이터들은 해당 군집의 대표데이터로 도출될 수 있는 후보학습데이터로서, 후술되는 조건을 충족하는 경우 해당 군집의 대표데이터로 도출될 수 있다.
특정 군집의 대표데이터로 도출되기 위해서는 다른 군집들의 대표데이터와 가장 거리가 먼 학습데이터에 해당해야 한다. 다시 말해, 다른 군집들의 대표데이터와 가장 적게 유사한 속성정보를 가져야 상기 특정 군집의 대표데이터로 도출될 수 있다. 본 발명의 대표데이터도출부(1300)는 전술한 조건을 최대한 충족하는 대표데이터를 복수의 군집별로 하나씩 도출할 수 있으며, 이하에서는 상기 조건을 충족시키는 학습데이터를 도출하는 방법의 일 예에 대해 서술하도록 한다.
도 9에 도시된 바와 같이, 상기 대표데이터도출부(1300)는 복수의 군집(G1` 내지 G6`) 각각에 대하여 제1후보학습데이터 내지 제6후보학습데이터(V1 내지 V6)를 선정하며, 후보학습데이터를 선정하는 방식은 공지의 기술을 활용한 어떠한 형태로도 가능하다.
상기 제1후보학습데이터 내지 제6후보학습데이터(V1 내지 V6)를 선정하면, 도 10을 참고하여, 각각의 후보학습데이터 간의 거리를 도출한다. d12는 제1후보학습데이터(V1) 및 제2후보학습데이터(V2) 사이의 거리를 의미하고, d36은 제3후보학습데이터(V3) 및 제6후보학습데이터(V6) 사이의 거리를 의미한다. 이후 상기 대표데이터도출부(1300)는 제1후보학습데이터 내지 제6후보학습데이터(V1 내지 V6) 각각의 거리의 총합 D를 산출한다. 총 n 개의 후보학습데이터가 결정된 경우, 상기 총합 D는 하기 [수학식 1]과 같은 식을 통해 도출될 수 있다.
[수학식 1]
Figure 112023051612644-pat00001
즉, 상기 대표데이터도출부(1300)는 복수의 군집 각각에 포함되는 모든 학습데이터 중 군집별로 하나의 후보학습데이터를 선택하여 상기 [수학식 1]을 이용하여 상기 총합 D를 산출하고, 상기 총합 D가 가장 큰 경우의 후보학습데이터들을 대표데이터로 결정할 수 있다.
도 11에서 X 표시가 된 학습데이터들은 상기 [수학식 1]을 통해 산출된 총합 D가 가장 크게 도출된 후보학습데이터셋으로서 상기 대표데이터도출부(1300)는 상기 X 표시가 된 학습데이터들을 각 군집별 대표데이터로 결정한다. 이후 상기 최종학습데이터셋도출부(1400)는 도출된 복수의 군집별 대표데이터를 최종학습데이터셋으로 결정하는 최종학습데이터셋도출단계(S400)를 수행한다.
한편, 본 발명의 다른 실시예에 따르면, 전술하지 않은 방식이 아닌 방식으로 가장 거리가 먼 군집별 대표데이터를 결정하여 최종학습데이터셋을 도출할 수 있다.
종래 기술에서는 임의로 군집을 분할하거나 임의로 대표데이터를 추출하는 방식을 통해 대표데이터를 도출하였다. 그러나 본 발명의 군집분할단계(S200) 내지 최종학습데이터도출단계는 전술한 방식과 규칙을 사용함으로써 종래 기술에 비해 적은 연산량으로 최종학습데이터셋을 도출할 수 있으며, 도출된 최종학습데이터셋을 이용하여 인공지능을 학습시킨 경우에 종래 기술로 도출된 학습데이터를 학습한 인공지능에 비하여 보다 우수한 성능을 발휘하는 것을 확인할 수 있었다.
도 12는 본 발명의 일 실시예에 따른 최종학습데이터셋을 도출한 뒤 각각의 데이터를 차원축소하여 사용자에게 시각화하여 출력되는 화면을 개략적으로 도시한다.
도 12에 도시된 바와 같이, 본 발명의 최종학습데이터셋을 도출하는 방법은, 대표데이터로 도출된 학습데이터의 특징벡터 및 대표데이터로 도출되지 않은 학습데이터의 특징벡터를 3 이하의 차원으로 축소하는 차원축소단계; 및 차원이 축소된 대표데이터로 도출된 학습데이터, 및 차원이 축소된 대표데이터로 도출되지 않은 학습데이터의 특징벡터를 시각적으로 구분하여 3 이하의 차원의 평면 상에 표시하는 최종학습데이터시각화단계;를 더 포함한다.
구체적으로, 최종학습데이터셋도출부(1400)는 결정된 최종학습데이터셋을 시각화하여 사용자단말의 디스플레이 등에 표시할 수 있다. 본 명세서에서는 전술한 군집분할단계(S200), 대표데이터도출단계(S300) 및 최종학습데이터셋도출단계(S400)는 설명을 위해 학습데이터들을 2차원으로 차원 축소하여 도시한 도면을 기준으로 설명하였으나 실제 본 발명에서는 K 차원에서 상기 군집분할단계(S200) 내지 상기 최종학습데이터셋도출단계(S400)가 수행된 이후에 차원 축소된 뒤 도 12와 같이 시각화되어 표시되는 것이 바람직하다.
상기 컴퓨팅장치(1000)는 대표데이터로 도출된 학습데이터의 특징벡터 및 대표데이터로 도출되지 않은 학습데이터의 특징벡터를 3 이하의 차원으로 축소하는 차원축소단계를 수행하는 차원축소부(미도시)를 더 포함한다. 더 구체적으로 상기 차원축소단계는 K 개의 특징벡터의 차원을 3 이하의 차원으로 축소한다. 이를 위하여, 상기 차원축소단계는 종래의 벡터의 차원을 축소하기 위해 사용하는 t-distributed Stochastic Neighbor Embedding(T-SNE), Principal Component Analysis(PCA) 등의 다양한 기법 가운데 어느 하나의 기법을 사용하여 복수의 학습데이터들 각각의 특징정보의 차원을 3 이하의 차원으로 축소한다.
상기 차원축소단계에서는 최대한 손실이 없도록 K 개의 차원을 갖는 특징벡터의 차원을 3 이하의 차원으로 축소하고, 이와 같이 차원이 축소된 특징벡터는 도 12에 도시된 바와 같이 3 이하의 차원의 공간 상의 특정 위치에 학습데이터를 시각적으로 표시하기 위하여 사용될 수 있다.
추가적으로, 상기 컴퓨팅장치(1000)는 차원이 축소된 대표데이터로 도출된 학습데이터; 및 차원이 축소된 대표데이터로 도출되지 않은 학습데이터;의 특징벡터를 시각적으로 구분하여 3 이하의 차원의 평면 상에 표시하는 최종학습데이터시각화단계를 수행하는 최종학습데이터시각화부를 더 포함한다. 예를 들어, 도 12에 도시된 바와 같이, 최종학습데이터시각화단계는 대표데이터로 도출된 학습데이터는 진한 검정 포인트로 표시하고, 대표데이터로 도출되지 않은 학습데이터는 회색 포인트로 표시하는 것과 같이 서로 시각적으로 구분될 수 있는 상이한 그래픽엘리먼트로 학습데이터를 시각화한다.
본 발명의 일 실시예에 따르면, 도 12에 도시된 화면은 사용자단말의 디스플레이에 표시될 수 있으며, 상기 사용자단말은 사용자입력을 수신하여 상기 최종학습데이터시각화부로 전달하고, 상기 최종학습데이터시각화부는 상기 사용자입력에 상응하는 정보를 사용자단말로 송신하여, 상기 사용자단말로 하여금 최종학습데이터셋만을 3 이하의 차원의 평면 상에 표시하게 할 수 있다. 이를 통해, 사용자가 직관적으로 큐레이션된 학습데이터와 큐레이션되지 않은 학습데이터를 구분할 수 있고, 최종학습데이터셋의 커버리지를 용이하게 확보할 수 있는 효과를 발휘할 수 있다.
도 13은 본 발명의 일 실시예에 따른 컴퓨팅장치(11000)의 내부 구성을 개략적으로 도시한다.
상술한 도 1에 대한 설명에서 서술된 컴퓨팅장치(1000)는 도 13에 도시된 컴퓨팅장치(11000)의 구성요소들을 포함할 수 있다.
도 13에 도시된 바와 같이, 컴퓨팅장치(11000)는 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripheral interface)(11300), 입/출력 서브시스템(I/O subsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 적어도 포함할 수 있다. 이때, 컴퓨팅장치(11000)는 도 2에 도시된 서비스서버(1000)에 해당될 수 있다.
메모리(11200)는 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅장치(11000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그 밖에 다양한 데이터를 포함할 수 있다.
이때, 프로세서(11100)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11100)에 의해 제어될 수 있다.
주변장치 인터페이스(11300)는 컴퓨팅장치(11000)의 입력 및/또는 출력 주변장치를 프로세서(11100) 및 메모리 (11200)에 결합시킬 수 있다. 프로세서(11100)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅장치(11000)를 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.
입/출력 서브시스템은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서 등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.
전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.
통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅장치와 통신을 가능하게 할 수 있다.
또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅장치와 통신을 가능하게 할 수도 있다.
이러한 도 13의 실시예는, 컴퓨팅장치(11000)의 일례일 뿐이고, 컴퓨팅장치(11000)는 도 13에 도시된 일부 컴포넌트가 생략되거나, 도 13에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅장치는 도 13에 도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(11600)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅장치(11000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 애플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.
본 발명의 실시예에 따른 방법들은 다양한 컴퓨팅장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 애플리케이션으로 구성될 수 있다. 본 발명이 적용되는 애플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 컴퓨팅장치(11000)에 설치될 수 있다. 일 예로, 파일 배포 시스템은 컴퓨팅장치(11000)의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅장치 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
본 발명의 일 실시예에 따르면, 학습데이터셋에 포함된 복수의 학습데이터 중 사용자가 원하는 속성정보에 해당하는 학습데이터를 그래픽엘리먼트로 특정좌표에 매핑하여 화면에 표시함으로써, 사용자가 원하는 커버리지의 학습데이터들을 사용자에게 직관적으로 제공할 수 있는 효과를 발휘할 수 있다.
본 발명의 일 실시예에 따르면, 디스플레이레이어에 매핑되어 표시되는 1 이상의 서로 다른 종류의 그래픽엘리먼트를 통해, 특정 학습모델의 학습에 사용된 데이터의 분포, 검증에 사용된 데이터의 분포, 및 테스트에 사용된 데이터의 분포 각각을 직관적으로 파악할 수 있고, 이를 통해 각각의 데이터 간의 인과관계를 분석할 수 있는 효과를 발휘할 수 있다.
본 발명의 일 실시예에 따르면, 사용자가 원하는 대로 쿼리에 해당하는 속성정보의 조건을 설정할 수 있어, 어떤 속성정보를 가진 데이터가 학습모델의 성능을 떨어뜨리는지 용이하게 확인할 수 있고, 이를 통해 학습모델의 성능을 효율적으로 향상시킬 수 있는 효과를 발휘할 수 있다.
본 발명의 일 실시예에 따르면, 데이터 중심의 인공지능 기술에 사용되는 모델의 성능향상에 필요한 학습데이터를 효율적으로 기획할 수 있는 효과를 발휘할 수 있다.
본 발명의 일 실시예에 따르면, 3 이하의 차원의 공간이 표시되는 디스플레이레이어에는 차원이 축소된 특징정보를 기반으로 상기 공간 상에 매핑되는 그래픽엘리먼트가 표시되고, 사용자가 상기 공간 상에서 어느 하나의 그래픽엘리먼트를 선택하는 경우에, 해당 그래픽엘리먼트에 대한 학습데이터에 대한 정보가 화면에 표시되어, 디스플레이레이어 상에서 선택된 학습데이터를 사용자가 용이하게 확인할 수 있는 효과를 발휘할 수 있다.
본 발명의 일 실시예에 따르면, 보다 효율적인 알고리즘을 채택함으로써 종래기술보다 적은 연산부하와 빠른 속도로 최종학습데이터셋을 도출할 수 있는 효과를 발휘할 수 있다.
본 발명의 일 실시예에 따르면, 도출된 최종학습데이터셋을 기계학습모델에 학습시켰을 때, 해당 최종학습데이터셋의 학습데이터 모집단을 모두 학습시켰을 때보다 향상된 학습효율을 보이는 효과를 발휘할 수 있다.
본 발명의 일 실시예에 따르면, 데이터들의 특징정보벡터에 따라 해당 데이터의 위치가 결정되고, 입력되는 큐레이션설정정보에 따라 군집의 수가 결정되는 방식을 통해 학습데이터 모집단이 복수의 군집으로 분할되기 때문에 높은 퀄리티의 최종학습데이터셋을 도출할 수 있는 효과를 발휘할 수 있다.
본 발명의 일 실시예에 따르면, 군집별 대표데이터를 도출하는 데 있어서, 각각의 대표데이터 간의 거리가 가장 멀도록 하여 대표데이터를 도출함으로써, 최종학습데이터셋의 커버리지를 확보할 수 있는 효과를 발휘할 수 있다.
본 발명의 일 실시예에 따르면, 디스플레이레이어에 매핑되어 표시되는 1 이상의 서로 다른 종류의 그래픽엘리먼트를 통해 사용자가 각 데이터의 종류에 따른 분포를 직관적으로 파악할 수 있는 효과를 발휘할 수 있다.
본 발명의 일 실시예에 따르면, 데이터 중심의 인공지능 기술에 사용되는 모델의 성능향상에 필요한 학습데이터를 효율적으로 기획할 수 있는 효과를 발휘할 수 있다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (8)

1 이상의 프로세서 및 1 이상의 메모리를 포함하는 컴퓨팅장치에서 수행되는 학습데이터 모집단에서 최종학습데이터셋을 도출하는 방법으로서,
복수의 학습데이터를 포함하는 학습데이터 모집단을 입력받고 상기 학습데이터 각각의 특징벡터를 도출하는 특징벡터도출단계;
상기 특징벡터 및 입력된 큐레이션설정정보에 기초하여 상기 학습데이터 모집단을 복수의 군집으로 분할하는 군집분할단계;
상기 복수의 군집 각각에 대하여 군집별 대표데이터를 도출하되, 도출되는 복수의 군집별 대표데이터 간의 거리의 총합이 최대가 되도록 하는 대표데이터도출단계; 및
도출된 복수의 대표데이터를 최종학습데이터셋으로 결정하는 최종학습데이터셋도출단계;를 포함하는, 최종학습데이터셋을 도출하는 방법.
청구항 1에 있어서,
상기 군집분할단계는,
상기 큐레이션설정정보에 기초하여 상기 대표데이터의 개수를 결정하고, 결정된 대표데이터의 개수에 따라 분할되는 군집의 개수를 결정하는, 최종학습데이터셋을 도출하는 방법.
청구항 1에 있어서,
상기 군집분할단계는,
결정된 군집의 개수만큼 임의의 벡터를 가지는 센터포인트를 결정하는 제1센터포인트결정단계;
상기 복수의 학습데이터 각각이 자신과 최근접한 센터포인트에 귀속되는 제1학습데이터귀속단계;
결정된 복수의 센터포인트 각각에 대하여, 센터포인트에 귀속된 학습데이터들의 특징벡터의 평균값을 산출하고, 상기 특징벡터의 평균값에 기초하여 센터포인트를 재결정하는 제2센터포인트결정단계;
상기 복수의 학습데이터 각각이 자신과 최근접한 재결정된 센터포인트에 귀속되는 제2학습데이터귀속단계; 및
상기 제2센터포인트결정단계와 상기 제2학습데이터귀속단계를 반복수행하되, 재결정되는 센터포인트의 위치의 변화가 없는 경우, 해당 센터포인트를 최종센터포인트로 결정하는 최종센터포인트결정단계;를 포함하는 군집결정단계를 포함하고,
상기 군집결정단계는,
상기 최종센터포인트에 귀속된 복수의 학습데이터들을 하나의 군집으로 결정하는, 최종학습데이터셋을 도출하는 방법.
청구항 1에 있어서,
상기 대표데이터도출단계는,
2 이상의 자연수 n에 대하여, 상기 군집분할단계에서 n 개의 군집이 생성되었을 때, 상기 n 개의 군집 각각에 대해 임의의 후보학습데이터를 추출하고, n 개의 후보학습데이터 각각 사이의 거리를 모두 합한 값이 최대가 되는 후보학습데이터를 각각의 군집의 대표데이터로 산출하는, 최종학습데이터셋을 도출하는 방법.
청구항 4에 있어서,
학습데이터 간의 거리는 각각의 학습데이터의 특징벡터에 기초하여 코사인시밀러리티 방식으로 산출된 거리에 의하여 결정되는, 최종학습데이터셋을 도출하는 방법.
청구항 1에 있어서,
상기 최종학습데이터셋을 도출하는 방법은,
대표데이터로 도출된 학습데이터의 특징벡터 및 대표데이터로 도출되지 않은 학습데이터의 특징벡터를 3 이하의 차원으로 축소하는 차원축소단계; 및
차원이 축소된 대표데이터로 도출된 학습데이터, 및 차원이 축소된 대표데이터로 도출되지 않은 학습데이터의 특징벡터를 시각적으로 구분하여 3 이하의 차원의 평면 상에 표시하는 최종학습데이터시각화단계;를 더 포함하는, 최종학습데이터셋을 도출하는 방법.
1 이상의 프로세서 및 1 이상의 메모리를 포함하고, 학습데이터 모집단에서 최종학습데이터셋을 도출하는 방법을 수행하는 컴퓨팅장치로서,
복수의 학습데이터를 포함하는 학습데이터 모집단을 입력받고 상기 학습데이터 각각의 특징벡터를 도출하는 특징벡터도출부;
상기 특징벡터 및 입력된 큐레이션설정정보에 기초하여 상기 학습데이터 모집단을 복수의 군집으로 분할하는 군집분할부;
상기 복수의 군집 각각에 대하여 군집별 대표데이터를 도출하되, 도출되는 복수의 군집별 대표데이터 간의 거리의 총합이 최대가 되도록 하는 대표데이터도출부; 및
도출된 복수의 대표데이터를 최종학습데이터셋으로 결정하는 최종학습데이터셋도출부;를 포함하는, 컴퓨팅장치.
1 이상의 프로세서 및 1 이상의 메모리를 포함하는 컴퓨팅장치에서 수행되는 학습데이터 모집단에서 최종학습데이터셋을 도출하는 방법을 구현하기 위한 컴퓨터-판독가능 매체로서,
상기 컴퓨터-판독가능 매체는, 상기 컴퓨팅장치로 하여금 이하의 단계들을 수행하도록 하는 컴퓨터 실행가능 명령어들을 포함하고,
상기 이하의 단계들은:
복수의 학습데이터를 포함하는 학습데이터 모집단을 입력받고 상기 학습데이터 각각의 특징벡터를 도출하는 특징벡터도출단계;
상기 특징벡터 및 입력된 큐레이션설정정보에 기초하여 상기 학습데이터 모집단을 복수의 군집으로 분할하는 군집분할단계;
상기 복수의 군집 각각에 대하여 군집별 대표데이터를 도출하되, 도출되는 복수의 군집별 대표데이터 간의 거리의 총합이 최대가 되도록 하는 대표데이터도출단계; 및
도출된 복수의 대표데이터를 최종학습데이터셋으로 결정하는 최종학습데이터셋도출단계;를 포함하는, 컴퓨터-판독가능 매체.
KR1020230060200A 2023-05-10 2023-05-10 학습데이터 모집단에서 최종학습데이터셋을 도출하는 방법, 컴퓨팅장치 및 컴퓨터-판독가능 매체 KR102554905B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230060200A KR102554905B1 (ko) 2023-05-10 2023-05-10 학습데이터 모집단에서 최종학습데이터셋을 도출하는 방법, 컴퓨팅장치 및 컴퓨터-판독가능 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230060200A KR102554905B1 (ko) 2023-05-10 2023-05-10 학습데이터 모집단에서 최종학습데이터셋을 도출하는 방법, 컴퓨팅장치 및 컴퓨터-판독가능 매체

Publications (1)

Publication Number Publication Date
KR102554905B1 true KR102554905B1 (ko) 2023-07-12

Family

ID=87163759

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230060200A KR102554905B1 (ko) 2023-05-10 2023-05-10 학습데이터 모집단에서 최종학습데이터셋을 도출하는 방법, 컴퓨팅장치 및 컴퓨터-판독가능 매체

Country Status (1)

Country Link
KR (1) KR102554905B1 (ko)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002287803A (ja) * 2001-03-27 2002-10-04 Denso Corp 製品の製造プロセスにおける特性調整方法
KR20200075704A (ko) * 2018-12-13 2020-06-26 수아랩 (쑤저우) 씨오., 엘티디 어노말리 디텍션
KR20210112837A (ko) * 2020-03-06 2021-09-15 숭실대학교산학협력단 임베딩 및 적응형 클러스터링 기반 지식 그래프의 오류 트리플 검출 방법 및 장치
KR20210130395A (ko) * 2020-04-22 2021-11-01 한국전력공사 k-평균 군집화와 주성분 분석을 이용한 주거 부하 특성 분석 방법
KR102368396B1 (ko) * 2021-11-18 2022-02-28 한국해양과학기술원 K-평균 군집화 알고리즘을 이용한 주기변동 랜덤신호의 정렬방법 및 이를 이용한 내연기관의 이상진단 시스템 및 방법
US20230102185A1 (en) * 2021-09-24 2023-03-30 Qualcomm Incorporated Machine learning-based integrated circuit test case selection for timing analysis
KR20230054167A (ko) * 2021-10-15 2023-04-24 주식회사 솔리드웨어 기계학습모델의 생성 방법 및 그 장치

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002287803A (ja) * 2001-03-27 2002-10-04 Denso Corp 製品の製造プロセスにおける特性調整方法
KR20200075704A (ko) * 2018-12-13 2020-06-26 수아랩 (쑤저우) 씨오., 엘티디 어노말리 디텍션
KR20210112837A (ko) * 2020-03-06 2021-09-15 숭실대학교산학협력단 임베딩 및 적응형 클러스터링 기반 지식 그래프의 오류 트리플 검출 방법 및 장치
KR20210130395A (ko) * 2020-04-22 2021-11-01 한국전력공사 k-평균 군집화와 주성분 분석을 이용한 주거 부하 특성 분석 방법
US20230102185A1 (en) * 2021-09-24 2023-03-30 Qualcomm Incorporated Machine learning-based integrated circuit test case selection for timing analysis
KR20230054167A (ko) * 2021-10-15 2023-04-24 주식회사 솔리드웨어 기계학습모델의 생성 방법 및 그 장치
KR102368396B1 (ko) * 2021-11-18 2022-02-28 한국해양과학기술원 K-평균 군집화 알고리즘을 이용한 주기변동 랜덤신호의 정렬방법 및 이를 이용한 내연기관의 이상진단 시스템 및 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TAO LI et al. "Normalization-Based Validity Index of Adaptive K-Means Clustering for Multi-Solution Application". Digital Object Identifier 10.1109/ACCESS.2020.2964763. date of publication January 8, *

Similar Documents

Publication Publication Date Title
Yas et al. Comprehensive insights into evaluation and benchmarking of real-time skin detectors: Review, open issues & challenges, and recommended solutions
US11823391B2 (en) Utilizing soft classifications to select input parameters for segmentation algorithms and identify segments of three-dimensional digital models
US20210390458A1 (en) Data analytics methods for spatial data, and related systems and devices
CN109657805A (zh) 超参数确定方法、装置、电子设备及计算机可读介质
US20210374279A1 (en) Differentially private dataset generation and modeling for knowledge graphs
US11645441B1 (en) Machine-learning based clustering for clock tree synthesis
US11580420B2 (en) Determining feature impact within machine learning models using prototypes across analytical spaces
US20220129794A1 (en) Generation of counterfactual explanations using artificial intelligence and machine learning techniques
US20150302022A1 (en) Data deduplication method and apparatus
CN115699041A (zh) 利用专家模型的可扩展迁移学习
Wu et al. Semi-supervised multi-label collective classification ensemble for functional genomics
Panja et al. A hybrid tuple selection pipeline for smartphone based Human Activity Recognition
KR102554905B1 (ko) 학습데이터 모집단에서 최종학습데이터셋을 도출하는 방법, 컴퓨팅장치 및 컴퓨터-판독가능 매체
Hughes et al. A largest empty hypersphere metaheuristic for robust optimisation with implementation uncertainty
Chen et al. Uncertainty measurement and attribute reduction algorithm based on kernel similarity rough set model
EP4339832A1 (en) Method for constructing ai integrated model, and inference method and apparatus of ai integrated model
US20230162518A1 (en) Systems for Generating Indications of Relationships between Electronic Documents
US11676050B2 (en) Systems and methods for neighbor frequency aggregation of parametric probability distributions with decision trees using leaf nodes
Ergul et al. DOPGA: A new fitness assignment scheme for multi-objective evolutionary algorithms
CN114037060A (zh) 预训练模型的生成方法、装置、电子设备以及存储介质
Liwei Predictive analysis of machine learning error classification based on bayesian network
US11244099B1 (en) Machine-learning based prediction method for iterative clustering during clock tree synthesis
US20240135047A1 (en) Systems and methods for improving a design of article using expert emulation
JP6363305B2 (ja) 情報処理システムおよび情報処理方法
WO2024046283A1 (zh) 任务调度方法、模型生成方法、以及电子设备

Legal Events

Date Code Title Description
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant