KR102579908B1 - 비지도 대조 학습을 통해 데이터를 분류할 수 있는 방법, 컴퓨터 장치, 및 컴퓨터 프로그램 - Google Patents

비지도 대조 학습을 통해 데이터를 분류할 수 있는 방법, 컴퓨터 장치, 및 컴퓨터 프로그램 Download PDF

Info

Publication number
KR102579908B1
KR102579908B1 KR1020210098157A KR20210098157A KR102579908B1 KR 102579908 B1 KR102579908 B1 KR 102579908B1 KR 1020210098157 A KR1020210098157 A KR 1020210098157A KR 20210098157 A KR20210098157 A KR 20210098157A KR 102579908 B1 KR102579908 B1 KR 102579908B1
Authority
KR
South Korea
Prior art keywords
similarity matrix
data
generating
learning
similarity
Prior art date
Application number
KR1020210098157A
Other languages
English (en)
Other versions
KR20230016537A (ko
Inventor
최성재
강재욱
박우명
고동현
Original Assignee
네이버 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버 주식회사 filed Critical 네이버 주식회사
Priority to KR1020210098157A priority Critical patent/KR102579908B1/ko
Priority to JP2022117697A priority patent/JP7353435B2/ja
Publication of KR20230016537A publication Critical patent/KR20230016537A/ko
Application granted granted Critical
Publication of KR102579908B1 publication Critical patent/KR102579908B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N5/025Extracting rules from data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

비지도 대조 학습을 통해 데이터를 분류할 수 있는 방법, 컴퓨터 장치, 및 컴퓨터 프로그램이 개시된다. 데이터 분류 방법은, 주어진 데이터의 문맥 표현(contextual representation)에 대한 제1 유사도 행렬을 생성하는 단계; 상기 문맥 표현을 보완한 보조 표현(auxiliary representation)에 대한 제2 유사도 행렬을 생성하는 단계; 상기 제1 유사도 행렬과 상기 제2 유사도 행렬을 결합하여 제3 유사도 행렬을 생성하는 단계; 및 상기 제3 유사도 행렬을 이용한 대조 학습(contrastive learning)을 통해 데이터 분류를 위한 모델 학습을 수행하는 단계를 포함한다.

Description

비지도 대조 학습을 통해 데이터를 분류할 수 있는 방법, 컴퓨터 장치, 및 컴퓨터 프로그램{METHOD, COMPUTER DEVICE, AND COMPUTER PROGRAM TO CLASSIFY DATA USING UNSUPERVISED CONTRASTIVE LEARING}
아래의 설명은 데이터 분류를 위한 비지도 대조 클러스터링(unsupervised contrastive clustering) 기술에 관한 것이다.
최근 딥러닝의 발전으로 NLP(natural language processing) 작업 성과 또한 크게 향상되고 있다.
NLP 모델을 구축하기 위한 대부분의 접근방식은 지도 학습(supervised learning) 방식에 의존하고 있으며, 최소 수천 개의 레이블 데이터셋(labeled datasets)을 필요로 한다.
새로운 도메인에 대해 대화 시스템(dialogue system)을 구축하기 위해서는 의도(intent) 설계부터 데이터 수집, 모델 학습 등에 이르기까지 막대한 설계 비용이 필요하다.
대부분의 상황에서 로그 데이터는 충분한 반면에, 어떤 의도가 존재하고 어떤 데이터가 특정 의도를 갖는지 레이블링에 대한 정보가 부족한 경우가 많다.
의도 발굴은 레이블이 없는 데이터(unlabeled data)에서 의도 분류를 위한 새로운 범주를 찾는 문제에 관한 것이다.
의도 발굴 문제는 레이블링 데이터를 사용하지 않는 비지도 방법과 소량의 레이블링 데이터를 사용하는 준지도 방법(semi-supervised method)으로 접근할 수 있다.
이때, 표현 학습(representation learning)에 기반한 방법의 경우 클러스터링 촉진 목표를 포함하고 있지 않기 때문에 클러스터링을 위한 적절한 표현을 구축하기 어렵다.
그리고, 오프라인 클러스터링 방법은 파라미터 업데이트 단계와 클러스터 할당 단계 사이를 번갈아 가며 모델을 학습하기 때문에 학습 불안정성과 표현 부정에 노출될 우려가 있다.
또한, 대조 클러스터링 방법은 데이터 증강(data augmentation) 기술에 따라 크게 달라진다. 비전 영역과 달리 텍스트 영역의 데이터 증강은 문장의 의미를 왜곡하고 레이블 또한 바뀔 수 있기 때문에 모델 성능이 저하될 수 있다.
레이블이 없는 데이터를 학습할 수 있는 기술을 제공한다.
유사성에 기반한 비지도 대조 클러스터링을 통해 데이터를 분류할 수 있는 기술을 제공한다.
컴퓨터 장치에서 실행되는 데이터 분류 방법에 있어서, 상기 컴퓨터 장치는 메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고, 상기 데이터 분류 방법은, 상기 적어도 하나의 프로세서에 의해, 주어진 데이터의 문맥 표현(contextual representation)에 대한 제1 유사도 행렬을 생성하는 단계; 상기 적어도 하나의 프로세서에 의해, 상기 문맥 표현을 보완한 보조 표현(auxiliary representation)에 대한 제2 유사도 행렬을 생성하는 단계; 상기 적어도 하나의 프로세서에 의해, 상기 제1 유사도 행렬과 상기 제2 유사도 행렬을 결합하여 제3 유사도 행렬을 생성하는 단계; 및 상기 적어도 하나의 프로세서에 의해, 상기 제3 유사도 행렬을 이용한 대조 학습(contrastive learning)을 통해 데이터 분류를 위한 모델 학습을 수행하는 단계를 포함하는 데이터 분류 방법을 제공한다.
일 측면에 따르면, 상기 모델 학습을 수행하는 단계는, 레이블이 없는 데이터 분류를 위해 데이터 인스턴스 간의 유사성을 기초로 포지티브 샘플(positive sample)을 추출하여 데이터 증강(data augmentation) 없이 상기 대조 학습을 수행할 수 있다.
다른 측면에 따르면, 상기 모델 학습을 수행하는 단계는, 상기 제3 유사도 행렬에 대해 행 단위(row-wise)로 포지티브 샘플과 네거티브 샘플(negative sample)을 선택하는 단계; 및 상기 포지티브 샘플과 상기 네거티브 샘플에 대해 교차 엔트로피 손실(cross entropy loss)을 적용하여 상기 대조 학습을 수행하는 단계를 포함할 수 있다.
또 다른 측면에 따르면, 상기 제1 유사도 행렬을 생성하는 단계는, PLM(pretrained language model)을 통해 상기 데이터를 인코딩함으로써 조밀한 문맥 표현(dense contextual representation)을 추출하는 단계를 포함할 수 있다.
또 다른 측면에 따르면, 상기 제1 유사도 행렬을 생성하는 단계는, 상기 문맥 표현에 대한 벡터의 내적(dot product)을 사용하여 상기 제1 유사도 행렬을 생성하는 단계를 포함할 수 있다.
또 다른 측면에 따르면, 상기 제2 유사도 행렬을 생성하는 단계는, 데이터의 순서와 관계없이 데이터의 존재를 나타내는 희소 표현으로 상기 보조 표현을 생성하는 단계를 포함할 수 있다.
또 다른 측면에 따르면, 상기 제2 유사도 행렬을 생성하는 단계는, 텍스트 유형의 데이터가 주어지는 경우 TF-IDF(Term Frequency-Inverse Document Frequency)를 이용하여 상기 보조 표현을 생성하는 단계를 포함할 수 있다.
또 다른 측면에 따르면, 상기 제2 유사도 행렬을 생성하는 단계는, 이미지 유형의 데이터가 주어지는 경우 이미지에 대한 뎁스 맵(depth map) 또는 피처 맵(feature map)을 이용하여 상기 보조 표현을 생성하는 단계를 포함할 수 있다.
또 다른 측면에 따르면, 상기 제3 유사도 행렬을 생성하는 단계는, 상기 제1 유사도 행렬의 표준 편차와 상기 제2 유사도 행렬의 평균을 이용하여 상기 제1 유사도 행렬과 상기 제2 유사도 행렬 간의 스케일 조정을 위한 하이퍼 파라미터를 결정하는 단계를 포함할 수 있다.
또 다른 측면에 따르면, 상기 제3 유사도 행렬을 생성하는 단계는, 학습 진행에 따라 상기 제2 유사도 행렬에 대한 감쇄(decay) 계수를 설정하는 단계를 포함할 수 있다.
상기 제1항 내지 제10항 중 어느 한 항의 데이터 분류 방법을 상기 컴퓨터 장치에 실행시키기 위해 컴퓨터 판독가능한 기록 매체에 저장되는 컴퓨터 프로그램을 제공한다.
컴퓨터 장치에 있어서, 메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 주어진 데이터의 문맥 표현에 대한 제1 유사도 행렬을 생성하는 과정; 상기 문맥 표현을 보완한 보조 표현에 대한 제2 유사도 행렬을 생성하는 과정; 상기 제1 유사도 행렬과 상기 제2 유사도 행렬을 결합하여 제3 유사도 행렬을 생성하는 과정; 및 상기 제3 유사도 행렬을 이용한 대조 학습을 통해 데이터 분류를 위한 모델 학습을 수행하는 과정을 처리하는 컴퓨터 장치를 제공한다.
본 발명의 실시예들에 따르면, 미니 배치(mini-batch)에서의 쌍별 유사성에 기반한 비지도 대조 클러스터링을 적용함으로써 데이터 의미 왜곡 문제를 해결할 수 있다.
본 발명의 실시예들에 따르면, 입력으로 주어진 데이터에 대한 희소 표현(sparse representation)인 보조 표현(auxiliary representation)을 사용함으로써 데이터 증강을 사용하지 않는 대조 학습에 의한 노이즈 중첩 문제를 완화할 수 있다.
도 1은 본 발명의 일실시예에 있어서 컴퓨터 장치의 내부 구성의 일례를 설명하기 위한 블록도이다.
도 2는 본 발명의 일실시예에 따른 컴퓨터 장치가 수행할 수 있는 데이터 분류 방법의 예를 도시한 흐름도이다.
도 3은 본 발명의 일실시예에 있어서 문맥 표현에 대한 유사도 행렬을 생성하는 과정의 예시를 도시한 것이다.
도 4는 본 발명의 일실시예에 있어서 보조 표현에 대한 유사도 행렬을 생성하는 과정의 예시를 도시한 것이다.
도 5는 본 발명의 일실시예에 있어서 대조 학습을 위한 최종 유사도 행렬을 생성하는 과정의 예시를 도시한 것이다.
도 6은 본 발명의 일실시예에 있어서 유사도 행렬을 이용한 대조 학습 과정의 예시를 도시한 것이다.
도 7은 본 발명의 일실시예에 있어서 비지도 대조 학습으로 학습된 PLM을 이용한 클러스터링 과정의 예시를 도시한 것이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
본 발명의 실시예들은 유사성에 기반한 비지도 대조 클러스터링 기술에 관한 것이다. 본 명세서에서, 샘플은 전체 데이터에서 학습과 평가를 위해 샘플링된 데이터를 의미하고, 인스턴스(instance)는 대조 학습에 있어 클러스터를 이루지 않고 별개의 레이블로 구분되는 데이터를 지칭하기 위하여 사용될 수 있다. 다만 이는 결국 데이터를 처리 단계에 따라 지칭하는 용어일 뿐 엄밀하게 구분되는 것은 아니며, 데이터로 통칭할 수 있다.
본 명세서에서 구체적으로 개시되는 것들을 포함하는 실시예들은 데이터 증강으로 인한 의미 왜곡 문제를 피하기 위해 미니 배치에서 쌍별 유사성을 활용할 수 있고, 의사 레이블(pseudo label)로 인한 학습 불안정을 피하기 위해 보조 표현을 사용할 수 있다.
도 1은 본 발명의 일실시예에 따른 컴퓨터 장치의 예를 도시한 블록도이다. 예를 들어, 본 발명의 실시예들에 따른 데이터 분류 시스템은 도 1을 통해 도시된 컴퓨터 장치(100)에 의해 구현될 수 있다.
도 1에 도시된 바와 같이 컴퓨터 장치(100)는 본 발명의 실시예들에 따른 데이터 분류 방법을 실행하기 위한 구성요소로서, 메모리(110), 프로세서(120), 통신 인터페이스(130) 그리고 입출력 인터페이스(140)를 포함할 수 있다.
메모리(110)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM과 디스크 드라이브와 같은 비소멸성 대용량 기록장치는 메모리(110)와는 구분되는 별도의 영구 저장 장치로서 컴퓨터 장치(100)에 포함될 수도 있다. 또한, 메모리(110)에는 운영체제와 적어도 하나의 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(110)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 메모리(110)로 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 인터페이스(130)를 통해 메모리(110)에 로딩될 수도 있다. 예를 들어, 소프트웨어 구성요소들은 네트워크(160)를 통해 수신되는 파일들에 의해 설치되는 컴퓨터 프로그램에 기반하여 컴퓨터 장치(100)의 메모리(110)에 로딩될 수 있다.
프로세서(120)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(110) 또는 통신 인터페이스(130)에 의해 프로세서(120)로 제공될 수 있다. 예를 들어, 프로세서(120)는 메모리(110)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
통신 인터페이스(130)는 네트워크(160)를 통해 컴퓨터 장치(100)가 다른 장치와 서로 통신하기 위한 기능을 제공할 수 있다. 일례로, 컴퓨터 장치(100)의 프로세서(120)가 메모리(110)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이나 명령, 데이터, 파일 등이 통신 인터페이스(130)의 제어에 따라 네트워크(160)를 통해 다른 장치들로 전달될 수 있다. 역으로, 다른 장치로부터의 신호나 명령, 데이터, 파일 등이 네트워크(160)를 거쳐 컴퓨터 장치(100)의 통신 인터페이스(130)를 통해 컴퓨터 장치(100)로 수신될 수 있다. 통신 인터페이스(130)를 통해 수신된 신호나 명령, 데이터 등은 프로세서(120)나 메모리(110)로 전달될 수 있고, 파일 등은 컴퓨터 장치(100)가 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다.
통신 방식은 제한되지 않으며, 네트워크(160)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들 간의 근거리 유선/무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(160)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(160)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.
입출력 인터페이스(140)는 입출력 장치(150)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 마이크, 키보드, 카메라 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(140)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(150)는 컴퓨터 장치(100)와 하나의 장치로 구성될 수도 있다.
또한, 다른 실시예들에서 컴퓨터 장치(100)는 도 1의 구성요소들보다 더 적은 혹은 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 컴퓨터 장치(100)는 상술한 입출력 장치(150) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다.
본 실시예에서는 데이터 분류를 위한 새로운 클러스터링 프레임워크를 제안한다.
본 발명에 따른 데이터 분류 방법은 새로운 E2E(end to end) 비지도 클러스터링 방법으로, 데이터 인스턴스 간의 유사성을 활용하여 포지티브 샘플(positive sample)을 추출함으로써 데이터 증강 없이 대조 학습을 수행할 수 있다.
또한, 본 실시예에서는 적절한 포지티브 샘플을 추출하도록 모델을 가이드하는 보조 표현을 사용함으로써 조밀한 문맥 표현(dense contextual representation)만을 사용할 때 발생하는 초기 학습 단계에서의 불안정성을 완화할 수 있다.
도 2는 본 발명의 일실시예에 따른 컴퓨터 장치가 수행할 수 있는 데이터 분류 방법의 예를 도시한 흐름도이다.
본 실시예에 따른 데이터 분류 방법은 앞서 설명한 컴퓨터 장치(100)에 의해 수행될 수 있다. 이 경우, 컴퓨터 장치(100)의 프로세서(120)는 메모리(110)가 포함하는 운영체제의 코드나 적어도 하나의 프로그램의 코드에 따른 제어 명령(instruction)을 실행하도록 구현될 수 있다. 여기서, 프로세서(120)는 컴퓨터 장치(100)에 저장된 코드가 제공하는 제어 명령에 따라 컴퓨터 장치(100)가 도 2의 데이터 분류 방법이 포함하는 단계들(S210 내지 S230)을 수행하도록 컴퓨터 장치(100)를 제어할 수 있다.
도 2를 참조하면, 단계(S210)에서 프로세서(120)는 주어진 입력 데이터를 조밀한 문맥 표현으로 인코딩함과 아울러 학습 불안정성을 보완하는 보조 표현을 구성할 수 있다. 모델이 충분히 학습되지 않은 상태에서 포지티브 샘플을 추출하기 위해 유사성 기반 의사 레이블을 사용하는 것은 의사 레이블이 올바르게 선택되지 않을 수 있고 잘못된 레이블 선택으로 인한 노이즈가 학습 과정 중 누적되기 때문에 매우 불안정하다. 이러한 문제를 완화시키기 위해 본 실시예에서는 넓은 카테고리에 보충할 수 있는 표현으로, 순서와 상관없이 데이터의 존재를 나타내는 보조 표현을 사용할 수 있다.
단계(S220)에서 프로세서(120)는 문맥 표현과 보조 표현에 대한 유사도 행렬(similarity matrix)을 생성할 수 있다. 프로세서(120)는 문맥 표현과 보조 표현에서 한 쌍의 인스턴스가 동일한 클러스터에 속하는지 여부를 나타내는 유사도 행렬을 생성할 수 있다. 프로세서(120)는 배치의 데이터 인스턴스를 사용하여 유사도 행렬을 구축할 수 있다.
단계(S230)에서 프로세서(120)는 단계(S220)에서 생성된 유사도 행렬의 각 행에서 포지티브 샘플을 선택하고 대조 손실(contrastive loss)로 대화 시스템을 위한 모델을 학습할 수 있다. 프로세서(120)는 유사도 행렬에 대해 행 단위(row-wise)로 가장 값이 높은 데이터를 포지티브 샘플로 선택하고 나머지 데이터를 네거티브 샘플(negative sample)로 선택하여 교차 엔트로피 손실(cross entropy loss)을 적용하여 PLM(pretrained language model)을 학습할 수 있다.
본 실시예에서는 데이터 증강을 사용하지 않는 대조 학습을 적용함으로써 데이터 증강으로 인한 의미 왜곡 문제를 피할 수 있고, 적절한 포지티브 샘플을 추출하도록 모델을 가이드하는 보조 표현을 사용함으로써 데이터 증강 없이 대조 학습을 수행함에 따라 발생할 수 있는 노이즈 중첩 문제를 완화시킬 수 있다.
프로세서(120)는 학습 이후 학습된 PLM에서 주어진 입력 데이터에 대한 표현을 추출하여 다양한 클러스터링 알고리즘을 적용함으로써 해당 표현에 대한 분류(레이블링)를 수행할 수 있다. 프로세서(120)는 학습된 모델에서 PLM만을 이용하여 입력 데이터를 인코딩하고 K-mean 클러스터링이나 응집(agglomerative) 클러스터링 등을 적용하여 클러스터링(데이터 분류)을 수행할 수 있다.
데이터 분류가 필요한 태스크의 일 예로는, 특정 데이터(예를 들면 고객센터에서의 질의)가 어떤 의도(intent)를 갖는지를 분류하는 것이다. 본 발명에 따른 데이터 분류를 위한 비지도 대조 학습은 이러한 태스크를 해결하는데 적절하게 사용될 수 있으며, 세부 과정은 다음과 같다.
도 3은 본 발명의 일실시예에 있어서 문맥 표현에 대한 유사도 행렬을 생성하는 과정의 예시를 도시한 것이다.
도 3을 참조하면, 프로세서(120)는 데이터의 높은 수준의 의미 피처(semantic feature)를 추출하기 위해 PLM(30)을 사용한다. 프로세서(120)는 N개의 샘플 과 특수 토큰(예를 들어, [CLS], [SEP] 등)을 이용하여 PLM(30)의 입력을 구성한다.
PLM(30)은 수학식 1과 같은 피처 를 출력한다.
[수학식 1]
여기서, [CLS]는 문장 전체를 나타내고, [SEP]는 각각의 문장을 구분하는 특수 토큰이다. 의 토큰 집합을 의미하고, M은 토큰의 수를 의미한다. 그리고, 는 [CLS] 토큰에 대응하는 마지막 은닉 상태 벡터(last hidden state vector)를 의미한다.
본 실시예에 따른 클러스터링 방법에서는 의미 왜곡을 유발할 수 있는 데이터 증강을 사용하지 않고 대조 학습을 적용하는 것으로 목표로 한다. 프로세서(120)는 PLM(30)을 활용하여 입력으로 들어온 문장을 인코딩하고 벡터의 내적(dot product)을 사용하여 유사도 행렬(310)을 생성할 수 있다.
의 조밀한 문맥 표현이라 하자. 프로세서(120)는 인스턴스 쌍이 동일한 클러스터(예를 들면, 동일한 의도)에 속하는지 여부를 나타내는 유사도 행렬(310)을 계산할 수 있다. 문맥 표현에 대한 유사도 행렬(310)은 수학식 2와 같이 정의될 수 있다.
[수학식 2]
여기서, 는 동일한 인스턴스가 포지티브 쌍으로 선택되는 것을 막기 위한 무한수(infinite number)를 의미한다. 는 N×N 차원을 가진 유사도 행렬을 나타내고, 사이의 유사성을 나타낸다. 본 실시예에서는 유사도 함수로 정규화 및 차원성 감소가 없는 표현의 내적을 사용한다.
자신을 제외하고 와 가장 유사한 샘플은 포지티브 샘플로 나타내고 나머지 샘플은 네거티브 샘플로 나타낸다. 본 실시예에서는 수학식 3과 같이 정의된 교차 엔트로피 손실을 사용한다.
[수학식 3]
여기서, 인 경우 1을 출력하고 그 외 0을 출력하는 지시 함수(indicator function)를 의미하고, 는 모델이 예측하기 어려운 하드 네거티브들에서 학습하는 데에 도움이 되는 확률 조절 파라미터(temperature parameter)를 의미한다.
인스턴스 레벨의 대조 학습과 달리, 본 발명은 수학식 2와 수학식 3의 결과로서 동일한 의도를 가진 데이터 인스턴스를 명시적으로 그룹화함으로써 클러스터링에 적합한 피처를 학습할 수 있다.
도 4는 본 발명의 일실시예에 있어서 보조 표현에 대한 유사도 행렬을 생성하는 과정의 예시를 도시한 것이다.
본 발명에 따른 비지도 대조 학습은 데이터 증강 기반 대조 학습보다 유리하다. 데이터 증강 기반 대조 학습은 의미적 유사성에 관계없이 다른 인스턴스를 밀어내는 반면, 본 발명에 따른 비지도 대조 학습은 의미적 유사성을 고려하여 서로 다른 인스턴스를 함께 그룹화할 수 있다.
파인 튜닝(fine tuning)이 이루어 지지 않은 데이터 표현(representation)들 간의 유사성만을 사용하여 레이블이 없는 데이터에서 포지티브 샘플을 추출하는 것은 한계가 있다. PLM(30)은 타겟 도메인에 대해 충분한 학습이 이루어지지 않은 학습 초기에 인스턴스를 충분히 표현하지 못한 벡터를 출력할 수 있다. 이로 인해 유사도 계산뿐만 아니라 샘플 선택이 잘못 이루어질 수 있다. 초기 단계에 포지티브 샘플이 잘못 선택되면 학습에 노이즈가 포함될 수 있고 학습 진행에 따라 지속적으로 노이즈가 누적되어 모델 성능이 저하될 수 있다.
이러한 문제를 완화하기 위해 본 실시예에서는 PLM(30)을 통해 인코딩된 문맥 표현을 보완할 수 있는 보조 표현을 사용할 수 있다. 일례로, 프로세서(120)는 단어의 순서를 무시하고 단어의 유무(존재 또는 부재)와 데이터셋 내 단어의 중요성에 초점을 두는 희소 단어 표현을 적용하여 보조 표현을 생성할 수 있다. 보조 표현을 위해서는 텍스트 유형의 데이터인 경우 BoW(bag of words), TF-IDF(Term Frequency - Inverse Document Frequency) 등을 사용할 수 있고, 일례로 유니그램(unigram) TF-IDF를 사용할 수 있다.
본 실시예에서는 데이터 분류 대상을 텍스트 데이터로 설명하고 있으나, 이에 한정되는 것은 아니며, 예를 들어 이미지의 경우 보조 표현은 딥러닝 방법론을 대신하여 뎁스 맵(depth map)이나 이미지 간 피처 맵(feature map) 등 이미지로부터 유사도 행렬을 구성하는데 필요한 피처를 추출할 수 있는 다양한 기법을 적용할 수 있다. 다시 말해, 딥러닝 기반 유사도 행렬과 딥러닝 이외에 이미지에 특화된 방법론으로 구성한 새로운 유사도 행렬을 결합하여 이미지 클러스터링을 목적으로 하는 대조 학습에 적용할 수 있다.
보조 표현은 단어 빈도를 비교함으로써 의미론적 의미(semantic meaning)와는 무관하게 인스턴스 간의 유사성을 명시적으로 나타낼 수 있다. 단어 빈도에 기초한 유사성은 학습 초기 단계에서 적절한 포지티브 샘플을 선택하도록 모델을 가이드할 수 있으며, 그 결과 보조 표현은 학습 초기 단계에서 노이즈를 줄일 수 있다.
보조 표현은 수학식 4와 같이 정의될 수 있다.
[수학식 4]
여기서, 는 단어 크기를 의미한다. 의 보조 표현이라 한다.
보조 표현에 대한 유사도 행렬(420)은 수학식 5와 같이 정의될 수 있다.
[수학식 5]
여기서, 는 동일한 인스턴스가 포지티브 쌍으로 선택하는 것을 막기 위한 무한수를 의미한다. 는 N×N 차원을 가진 유사도 행렬을 나타내고, 사이의 유사성을 나타낸다.
도 5는 본 발명의 일실시예에 있어서 대조 학습을 위한 최종 유사도 행렬을 생성하는 과정의 예시를 도시한 것이다.
도 5를 참조하면, 프로세서(120)는 문맥 표현에 대한 유사도 행렬(310)과 보조 표현에 대한 유사도 행렬(420)을 결합하여 대조 학습을 위한 최종 유사도 행렬(530)을 생성할 수 있다. 일례로, 프로세서(120)는 문맥 표현에 대한 유사도 행렬(310)과 보조 표현에 대한 유사도 행렬(420) 중 적어도 하나에 적절한 값을 곱해 스케일을 맞춘 후 두 유사도 행렬(310)(420)을 더하여 최종 유사도 행렬(530)을 구성할 수 있다.
일례로, 최종 유사도 행렬(530)은 수학식 6과 같이 정의될 수 있다.
[수학식 6]
여기서, 은 문맥 표현에 대한 유사도 행렬(310) 와 보조 표현에 대한 유사도 행렬(420) 간의 스케일 조정을 위한 하이퍼 파라미터를 의미한다.
프로세서(120)는 에 곱하여 의 스케일을 조정한 후 와 더하는 방식으로 최종 유사도 행렬(530)을 생성할 수 있다.
프로세서(120)는 학습 시마다 를 계산할 수 있으며, 이때 는 수학식 7과 같이 정의될 수 있다.
[수학식 7]
여기서, 의 표준 편차(standard deviation)를 의미하고, 의 평균 값을 의미한다.
프로세서(120)는 보조 표현의 영향을 줄이기 위해 보조 표현에 대한 학습율을 감소시키기 위한 감쇄(decay) 계수를 스케일 조정 파라미터 에 곱한 후 보조 표현에 대한 유사도 행렬(420) 에 반영할 수 있다.
다시 말해, 감쇄 계수는 학습이 진행됨에 따라 점차적으로 보조 표현의 영향력을 줄여가며 PLM(30) 자체를 학습시키는 것을 목적으로 한다. 예를 들어, 감쇄 계수의 초기 값은 1로 설정될 수 있고, 모든 데이터 셋에 대해 1 에포크(epoch) 학습이 진행되면 0.9씩 줄일 수 있다.
도 6은 본 발명의 일실시예에 있어서 유사도 행렬을 이용한 대조 학습 과정의 예시를 도시한 것이다.
도 6을 참조하면, 프로세서(120)는 최종 유사도 행렬(530)에 대해 행 단위로 가장 값이 높은 데이터를 포지티브 샘플로 선택하고 나머지 데이터를 네거티브 샘플로 선택한 후 모델에 대한 대조 학습을 진행할 수 있다. 다시 말해, 프로세서(120)는 각 데이터 인스턴스에 대해 포지티브 샘플을 추출한 다음 대조 손실을 적용할 수 있다. 포지티브 샘플과는 가까워지도록, 네거티브 샘플과는 멀어지도록 학습함으로써 포지티브 쌍으로 선택된 배치에서 다른 인스턴스에 더 가까이 가져오면 클러스터 내 거리뿐만 아니라 클러스터 간의 거리까지 고려할 수 있다. 대조 학습에는 교차 엔트로피 손실을 사용할 수 있으나, 이에 한정되는 것은 아니다.
도 7은 본 발명의 일실시예에 있어서 비지도 대조 학습으로 학습된 PLM을 이용한 클러스터링 과정의 예시를 도시한 것이다.
도 7을 참조하면, 프로세서(120)는 클러스터링에 적합한 특징을 학습하여 동일한 레이블(예를 들어, 의도)을 가진 인스턴스를 그룹화하는 클러스터링을 진행할 수 있다. 프로세서(120)는 주어진 입력 데이터에 대해 학습된 PLM(30)에서 표현을 추출하여 다양한 클러스터링 알고리즘을 적용함으로써 해당 표현을(예를 들어, 해당 표현이 어떤 의도에 해당하는지를) 분류할 수 있다.
예를 들어, K-mean 클러스터링 알고리즘은 수학식 8의 비용 함수를 최적화하는 알고리즘 중 하나가 될 수 있다.
[수학식 8]
여기서, K는 미리 정의된 클러스터 수를 의미하고, 는 0이 아닌 요소가 하나만 있는 할당 벡터(assignment vector)를 의미한다. 의 j번째 요소를 나타내며, W의 k번째 열은 k번째 클러스터의 센트로이드(centroid)를 나타낸다.
이처럼 본 발명의 실시예들에 따르면, 데이터 인스턴스 간의 유사성을 활용하여 포지티브 샘플을 추출함으로써 데이터 증강을 사용하지 않고 비지도 대조 학습을 수행할 수 있다.
그리고, 본 발명의 실시예들에 따르면, 적절한 포지티브 샘플을 추출하도록 모델을 가이드하는 보다 넓은 카테고리의 희소 표현(보조 표현)을 조밀한 문맥 표현과 함께 입력 표현으로 사용함으로써 문맥 표현만을 사용할 때 발생하는 초기 학습 단계에서의 불안정성을 완화시킬 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (14)

  1. 컴퓨터 장치에서 실행되는 데이터 분류 방법에 있어서,
    상기 컴퓨터 장치는 메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고,
    상기 데이터 분류 방법은,
    상기 적어도 하나의 프로세서에 의해, 주어진 데이터를 인코딩한 문맥 표현(contextual representation)에서 인스턴스(instance) 쌍 별 유사성을 나타내는 제1 유사도 행렬을 생성하는 단계;
    상기 적어도 하나의 프로세서에 의해, 상기 문맥 표현을 보완한 보조 표현(auxiliary representation)에서 인스턴스 쌍 별 유사성을 나타내는 제2 유사도 행렬을 생성하는 단계;
    상기 적어도 하나의 프로세서에 의해, 상기 제1 유사도 행렬과 상기 제2 유사도 행렬을 결합하여 제3 유사도 행렬을 생성하는 단계; 및
    상기 적어도 하나의 프로세서에 의해, 상기 제3 유사도 행렬을 이용한 대조 학습(contrastive learning)을 통해 데이터 분류를 위한 모델 학습을 수행하는 단계
    를 포함하는 데이터 분류 방법.
  2. 제1항에 있어서,
    상기 모델 학습을 수행하는 단계는,
    레이블이 없는 데이터 분류를 위해 데이터 간의 유사성을 기초로 포지티브 샘플(positive sample)을 추출하여 상기 대조 학습을 수행하는 것
    을 특징으로 하는 데이터 분류 방법.
  3. 제1항에 있어서,
    상기 모델 학습을 수행하는 단계는,
    상기 제3 유사도 행렬에 대해 행 단위(row-wise)로 포지티브 샘플과 네거티브 샘플(negative sample)을 선택하는 단계; 및
    상기 포지티브 샘플과 상기 네거티브 샘플에 대해 교차 엔트로피 손실(cross entropy loss)을 적용하여 상기 대조 학습을 수행하는 단계
    를 포함하는 데이터 분류 방법.
  4. 제1항에 있어서,
    상기 제1 유사도 행렬을 생성하는 단계는,
    PLM(pretrained language model)을 통해 상기 데이터를 인코딩함으로써 조밀한 문맥 표현(dense contextual representation)을 추출하는 단계
    를 포함하는 데이터 분류 방법.
  5. 제1항에 있어서,
    상기 제1 유사도 행렬을 생성하는 단계는,
    상기 문맥 표현에 대한 벡터의 내적(dot product)을 사용하여 상기 제1 유사도 행렬을 생성하는 단계
    를 포함하는 데이터 분류 방법.
  6. 제1항에 있어서,
    상기 제2 유사도 행렬을 생성하는 단계는,
    데이터의 순서와 관계없이 데이터의 존재를 나타내는 희소 표현으로 상기 보조 표현을 생성하는 단계
    를 포함하는 데이터 분류 방법.
  7. 제1항에 있어서,
    상기 제2 유사도 행렬을 생성하는 단계는,
    텍스트 유형의 데이터가 주어지는 경우 TF-IDF(Term Frequency-Inverse Document Frequency)를 이용하여 상기 보조 표현을 생성하는 단계
    를 포함하는 데이터 분류 방법.
  8. 제1항에 있어서,
    상기 제2 유사도 행렬을 생성하는 단계는,
    이미지 유형의 데이터가 주어지는 경우 이미지에 대한 뎁스 맵(depth map) 또는 피처 맵(feature map)을 이용하여 상기 보조 표현을 생성하는 단계
    를 포함하는 데이터 분류 방법.
  9. 제1항에 있어서,
    상기 제3 유사도 행렬을 생성하는 단계는,
    상기 제1 유사도 행렬의 표준 편차와 상기 제2 유사도 행렬의 평균을 이용하여 상기 제1 유사도 행렬과 상기 제2 유사도 행렬 간의 스케일 조정을 위한 하이퍼 파라미터를 결정하는 단계
    를 포함하는 데이터 분류 방법.
  10. 제9항에 있어서,
    상기 제3 유사도 행렬을 생성하는 단계는,
    학습 진행에 따라 상기 제2 유사도 행렬에 대한 감쇄(decay) 계수를 설정하는 단계
    를 포함하는 데이터 분류 방법.
  11. 제1항 내지 제10항 중 어느 한 항의 데이터 분류 방법을 상기 컴퓨터 장치에 실행시키기 위해 컴퓨터 판독가능한 기록 매체에 저장되는 컴퓨터 프로그램.
  12. 컴퓨터 장치에 있어서,
    메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서
    를 포함하고,
    상기 적어도 하나의 프로세서는,
    주어진 데이터를 인코딩한 문맥 표현에서 인스턴스 쌍 별 유사성을 나타내는 제1 유사도 행렬을 생성하는 과정;
    상기 문맥 표현을 보완한 보조 표현에서 인스턴스 쌍 별 유사성을 나타내는 제2 유사도 행렬을 생성하는 과정;
    상기 제1 유사도 행렬과 상기 제2 유사도 행렬을 결합하여 제3 유사도 행렬을 생성하는 과정; 및
    상기 제3 유사도 행렬을 이용한 대조 학습을 통해 데이터 분류를 위한 모델 학습을 수행하는 과정
    을 처리하는 컴퓨터 장치.
  13. 제12항에 있어서,
    상기 적어도 하나의 프로세서는,
    레이블이 없는 데이터 분류를 위해 데이터 간의 유사성을 기초로 포지티브 샘플을 추출하여 상기 대조 학습을 수행하는 것
    을 특징으로 하는 컴퓨터 장치.
  14. 제12항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 제3 유사도 행렬에 대해 행 단위로 포지티브 샘플과 네거티브 샘플을 선택하는 단계; 및
    상기 포지티브 샘플과 상기 네거티브 샘플에 대해 교차 엔트로피 손실을 적용하여 상기 대조 학습을 수행하는 것
    을 특징으로 하는 컴퓨터 장치.
KR1020210098157A 2021-07-26 2021-07-26 비지도 대조 학습을 통해 데이터를 분류할 수 있는 방법, 컴퓨터 장치, 및 컴퓨터 프로그램 KR102579908B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210098157A KR102579908B1 (ko) 2021-07-26 2021-07-26 비지도 대조 학습을 통해 데이터를 분류할 수 있는 방법, 컴퓨터 장치, 및 컴퓨터 프로그램
JP2022117697A JP7353435B2 (ja) 2021-07-26 2022-07-25 教師なし対照学習によってデータを分類する方法、コンピュータ装置、およびコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210098157A KR102579908B1 (ko) 2021-07-26 2021-07-26 비지도 대조 학습을 통해 데이터를 분류할 수 있는 방법, 컴퓨터 장치, 및 컴퓨터 프로그램

Publications (2)

Publication Number Publication Date
KR20230016537A KR20230016537A (ko) 2023-02-02
KR102579908B1 true KR102579908B1 (ko) 2023-09-18

Family

ID=85157822

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210098157A KR102579908B1 (ko) 2021-07-26 2021-07-26 비지도 대조 학습을 통해 데이터를 분류할 수 있는 방법, 컴퓨터 장치, 및 컴퓨터 프로그램

Country Status (2)

Country Link
JP (1) JP7353435B2 (ko)
KR (1) KR102579908B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117688412B (zh) * 2024-02-02 2024-05-07 中国人民解放军海军青岛特勤疗养中心 一种用于骨科护理的智能数据处理系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6059904B2 (ja) 2012-08-08 2017-01-11 ユニ・チャーム株式会社 吸収性物品の包装品の製造装置、及び製造方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
정지수 등., 문서 유사도를 통한 관련 문서 분류 시스템 연구, 방송공학회논문지 제24권 제1호, 77-86pages (2019.1)

Also Published As

Publication number Publication date
KR20230016537A (ko) 2023-02-02
JP7353435B2 (ja) 2023-09-29
JP2023017740A (ja) 2023-02-07

Similar Documents

Publication Publication Date Title
US11797822B2 (en) Neural network having input and hidden layers of equal units
EP3467723B1 (en) Machine learning based network model construction method and apparatus
US20240013055A1 (en) Adversarial pretraining of machine learning models
CN111753081B (zh) 基于深度skip-gram网络的文本分类的系统和方法
US20210141798A1 (en) Dialogue system, a method of obtaining a response from a dialogue system, and a method of training a dialogue system
US20150095017A1 (en) System and method for learning word embeddings using neural language models
US9633002B1 (en) Systems and methods for coreference resolution using selective feature activation
KR102465571B1 (ko) 문서 데이터의 주제어 분류를 수행하는 기법
CN107357895B (zh) 一种基于词袋模型的文本表示的处理方法
KR102458457B1 (ko) 문서 데이터 검색 기법
US20220222526A1 (en) Methods And Systems For Improved Deep-Learning Models
US20230342559A1 (en) Systems and methods for contextualized and quantized soft prompts for natural language understanding
KR102579908B1 (ko) 비지도 대조 학습을 통해 데이터를 분류할 수 있는 방법, 컴퓨터 장치, 및 컴퓨터 프로그램
US11900070B2 (en) Producing explainable rules via deep learning
WO2021158409A1 (en) Interpreting convolutional sequence model by learning local and resolution-controllable prototypes
US20230108177A1 (en) Hardware-Aware Progressive Training Of Machine Learning Models
US20240028827A1 (en) Method for identify a word corresponding to a target word in text information
KR102615073B1 (ko) 유사도 검색을 위한 신경 해싱
US20220343072A1 (en) Non-lexicalized features for language identity classification using subword tokenization
Quazi et al. Text Classification and Categorization through Deep Learning
KR102492277B1 (ko) 멀티모달 정보를 이용한 질의응답 수행 방법
KR102498063B1 (ko) 계층적 언어 정보를 이용한 음성 인식 방법
US11749260B1 (en) Method for speech recognition with grapheme information
WO2023059439A1 (en) Hardware-aware progressive training of machine learning models
US20240005913A1 (en) Method for recognizing the voice of audio containing foreign languages

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant