KR20210053704A - 학습 데이터 마련 장치 및 이를 이용한 학습 데이터 마련 방법 - Google Patents

학습 데이터 마련 장치 및 이를 이용한 학습 데이터 마련 방법 Download PDF

Info

Publication number
KR20210053704A
KR20210053704A KR1020190139648A KR20190139648A KR20210053704A KR 20210053704 A KR20210053704 A KR 20210053704A KR 1020190139648 A KR1020190139648 A KR 1020190139648A KR 20190139648 A KR20190139648 A KR 20190139648A KR 20210053704 A KR20210053704 A KR 20210053704A
Authority
KR
South Korea
Prior art keywords
data
learning
artificial intelligence
augmented
processor
Prior art date
Application number
KR1020190139648A
Other languages
English (en)
Other versions
KR102277002B1 (ko
Inventor
김창현
정원진
조남규
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020190139648A priority Critical patent/KR102277002B1/ko
Publication of KR20210053704A publication Critical patent/KR20210053704A/ko
Application granted granted Critical
Publication of KR102277002B1 publication Critical patent/KR102277002B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Machine Translation (AREA)

Abstract

일 실시예에 따른 학습 데이터 마련 장치는 프로세서와, 상기 프로세서에 의해 실행 가능한 적어도 하나의 명령어를 저장하는 메모리를 포함한다. 상기 명령어가 실행되면 상기 프로세서는 사전에 마련된 원본 데이터 중 일부를, 복수 개의 서로 상이한 값을 갖는 하이퍼 파라미터 각각을 이용해서 증강시키는 단계와, 상기 증강된 결과물인 증강 데이터를 이용해서 소정의 인공지능 장치에 대한 사전 학습이 완료되면, 상기 복수 개의 하이퍼 파라미터마다 각각 획득된 상기 사전 학습이 완료된 인공지능 장치에 대한 검증 결과에 기초해서, 상기 복수 개의 하이퍼 파라미터 중에서 일부를 선택하는 단계와, 상기 선택된 일부의 하이퍼 파라미터를 이용해서 상기 사전에 마련된 원본 데이터 중 나머지를 증강시키는 단계를 포함하여 수행한다.

Description

학습 데이터 마련 장치 및 이를 이용한 학습 데이터 마련 방법 {APPARATUS FOR OBTAINING LEARNING DATA AND METHOD FOR OBTAINING LEARNING DATA USING THE SAME}
본 발명은 학습 데이터 마련 장치 및 이를 이용한 학습 데이터 마련 방법에 관한 것이다.
머신 러닝과 같은 학습 기법을 채용함에 있어서, 학습 데이터는 충분한 양으로 확보되어야 한다. 다만, 여러가지 이유로 학습 데이터를 충분하게 확보하는 것이 원활하지 않을 수 있다.
이에, 사전에 주어진 소량의 학습용 원본 데이터를 증강(augmentation)시켜서 증강 데이터를 확보한 뒤, 원본 데이터에 증강 데이터까지 합쳐서 학습에 이용하는 기술들이 등장하고 있다. 예컨대 원본 이미지에 노이즈를 추가해서 증강 데이터를 확보하는 방안 또는 원본 이미지에 occlusion이나 inpainting 등을 적용해서 증강 데이터를 확보하는 방안 등이 이에 포함될 수 있다.
한국공개특허공보, 10-2019-0069109호 (2019.06.19. 공개)
음원 추정(music continuation) 서비스 또는 음원 주석(music transcription) 서비스 등을 제공하는 장치를 머신 러닝 등을 이용해 학습시키는 과정에서는, 충분한 양의 음원 데이터가 확보될 수 있어야 한다. 만약 확보 가능한 음원 데이터의 양이 충분하지 않다면, 전술한 '증강'을 통해 증강 데이터를 확보해서 학습에 이용하는 방안을 고려해볼 수 있다.
이 때, 이러한 증강 데이터는 그 레이블(label)이 원본 데이터와 상이하도록 생성되거나 또는 동일하도록 생성될 수 있다. 실험적으로, 음원 추정 서비스 또는 음원 주석 서비스 등을 제공하는 장치를 학습시킬 때, 원본 데이터와 레이블이 상이한 증강 데이터를 학습에 이용하는 경우가 그렇지 않은 경우보다 학습된 결과물의 정확도가 높다.
이에, 본 발명의 해결하고자 하는 과제는, 원본 데이터와 상이한 레이블을 갖는 증강 데이터를 확보하는 방안을 제공하는 것을 포함할 수 있다.
또한, 이렇게 확보된 증강 데이터를 이용해서 예컨대 음원 추정 서비스나 음원 주석 서비스를 제공하는 인공지능 장치를 기술을 제공하는 것을 포함할 수 있다.
다만, 본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
일 실시예에 따른 학습 데이터 마련 장치는 프로세서와, 상기 프로세서에 의해 실행 가능한 적어도 하나의 명령어를 저장하는 메모리를 포함한다. 상기 명령어가 실행되면 상기 프로세서는 사전에 마련된 원본 데이터 중 일부를, 복수 개의 서로 상이한 값을 갖는 하이퍼 파라미터 각각을 이용해서 증강시키는 단계와, 상기 증강된 결과물인 증강 데이터를 이용해서 소정의 인공지능 장치에 대한 사전 학습이 완료되면, 상기 복수 개의 하이퍼 파라미터마다 각각 획득된 상기 사전 학습이 완료된 인공지능 장치에 대한 검증 결과에 기초해서, 상기 복수 개의 하이퍼 파라미터 중에서 일부를 선택하는 단계와, 상기 선택된 일부의 하이퍼 파라미터를 이용해서 상기 사전에 마련된 원본 데이터 중 나머지를 증강시키는 단계를 포함하여 수행한다.
일 실시예에 따른 학습 데이터 마련 방법은 학습 데이터 마련 장치가 수행한다. 이러한 방법은 사전에 마련된 원본 데이터 중 일부를, 복수 개의 서로 상이한 값을 갖는 하이퍼 파라미터 각각을 이용해서 증강시키는 단계와, 상기 증강된 결과물인 증강 데이터를 이용해서 소정의 인공지능 장치에 대한 사전 학습이 완료되면, 상기 복수 개의 하이퍼 파라미터마다 각각 획득된 상기 사전 학습이 완료된 인공지능 장치에 대한 검증 결과에 기초해서, 상기 복수 개의 하이퍼 파라미터 중에서 일부를 선택하는 단계와, 상기 선택된 일부의 하이퍼 파라미터를 이용해서 상기 사전에 마련된 원본 데이터 중 나머지를 증강시키는 단계를 포함하여 수행된다.
일 실시예에 따르면, 원본 데이터의 확보 가능한 개수가 충분하지 않은 경우에도, 원본 데이터로부터 증강 데이터를 확보해서 인공지능 장치의 학습에 이용하는 것이 가능하다. 이 때 이렇게 확보되는 증강 데이터는, 원본 데이터와 레이블이 상이할 수 있다. 따라서, 이렇게 확보된 증강 데이터에 기초해서 인공지능 장치가 학습될 경우, 학습된 결과물의 정확도가 향상될 수 있다.
도 1은 일 실시예에 따른 학습 데이터 마련 장치를 포함하는 시스템에 대한 개략적인 구성도이다.
도 2는 도 1에 도시된 학습 데이터 마련 장치에 대한 개략적인 구성도이다.
도 3는 일 실시예에 따라 하이퍼 파라미터의 값이 결정되는 과정 중 일부를 예시적으로 나타낸 도면이다.
도 4는 일 실시예에 따라 수행 가능한 학습 데이터 마련 방법에 대한 순서도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 일 실시예에 따른 학습 데이터 마련 장치(100)를 포함하는 시스템(10)에 대한 개략적인 구성도이다. 도 1을 참조하면, 시스템(10)은 학습 데이터 마련 장치(100), 데이터베이스(database, DB)(200) 및 인공지능 장치(300)를 포함한다. 다만, 도 1에 도시된 구성도는 예시적인 것에 불과하다. 예컨대 DB(200)는 학습 데이터 마련 장치(100) 내에 포함되도록 구현될 수 있고, 또는 학습 데이터 마련 장치(100)가 인공지능 장치(300) 내에 포함되도록 구현될 수도 있다. 다만, 이하에서는 도 1에 도시된 것과 같이 시스템(10)이 구성되는 것을 전제로 설명하기로 한다.
먼저, 데이터베이스(200)는 소정의 데이터를 저장한다. 예컨대 데이터베이스(200)는 머신 러닝과 같은 학습 기법에 사용되는 원본 데이터 등을 저장할 수 있다.
다음으로, 인공지능 장치(300)에 대해 살펴보도록 한다. 이러한 인공지능 장치(300)는 소정의 기능을 수행하도록 고안된 장치이며, 예컨대 개인용 컴퓨터, 서버 또는 스마트폰과 같은 스마트 기기일 수 있으나 이에 한정되는 것은 아니다.
이러한 인공지능 장치(300)가 수행할 수 있는 기능에는 다양한 것들이 포함될 수 있다. 예컨대 음원의 일부가 주어졌을 때 음원의 나머지를 추측하는 음원 추정(music continuation)이나, 또는 음원에 대한 해석 결과를 토대로 해당 음원에 대한 주석(transcription)을 생성해서 제공하는 음원 주석(music transcription) 서비스 등이 인공지능 장치(300)가 수행할 수 있는 기능의 예시가 될 수 있으며, 다만 이에 한정되는 것만은 아니다.
이러한 인공지능 장치(300)는, 인공지능 기법 중 하나인 머신 러닝 기법에 따라 학습된 것일 수 있다. 여기서 머신 러닝 기법이란, 소정의 결과를 도출하도록 기계(머신)를 학습 내지 훈련시키는 기법을 지칭하며, 예컨대 복수 개의 신경망(neural network) 등으로 구성된 딥러닝이 이러한 머신 러닝 기법에 포함될 수 있다.
학습 과정에 대해 간단히 살펴보면, 먼저, 입력과 정답으로 구성된 학습 데이터가 복수 개 마련된다. 이렇게 마련된 복수 개의 학습 데이터 중 입력은, 학습이 수행되지 않은 모델에 입력된다. 모델은, 이러한 입력에 대해 소정의 연산을 수행한 뒤, 결과를 출력한다. 이렇게 출력된 결과는 전술한 학습 데이터 중 정답과 비교된다. 비교 결과(즉, 정답과 출력된 결과 간의 차이 = 오차)에 기초해서, 전술한 모델에 포함된 내부 파라미터들의 값이 결정된다.
한편, 원하는 정확도의 결과를 제공하도록 인공지능 장치(300)를 학습시키기 위해서는, 충분한 양의 원본 데이터가 확보될 수 있어야 한다. 그러나 상황에 따라 확보 가능한 원본 데이터의 양은 충분하지 못할 수 있다.
이 때, 도 1에 도시된 일 실시예에 따른 학습 데이터 마련 장치(100)는 원본 데이터를 증강시켜서 증강 데이터를 생성한 뒤, 이러한 증강 데이터를 인공지능 장치(300)의 학습에 제공할 수 있다. 이 경우, 실시예에 따라 증강 데이터는 원본 데이터와 레이블(label)이 상이할 수 있다. 이하에서는 이러한 학습 데이터 마련 장치(100)에 대해 보다 자세하게 살펴보기로 한다.
도 2는 일 실시예에 따른 학습 데이터 마련 장치(100)에 대한 개략적인 구성도이다. 도 2를 참조하면, 학습 데이터 마련 장치(100)는 메모리(110)와 프로세서(120)를 포함한다. 다만, 도 2에 도시된 구성도는 예시적인 것에 불과하므로, 본 발명의 사상이 도 2에 도시된 것으로 한정 해석되는 것은 아니다.
메모리(110)는 다양한 종류의 데이터를 저장하도록 구성된다. 이러한 메모리에는 예컨대 학습시키는 주체에 의해 그 값이 정해지는 하이퍼 파라미터 또는 학습 과정에서 자동적으로 그 값이 정해지는 가중치와 같은 파라미터 등이 저장될 수 있다.
아울러, 이러한 메모리(110)에는 다양한 기능을 수행하도록 프로그램된 명령어가 저장된다. 이러한 명령어는, 프로세서(120)로 하여금 증강 데이터를 생성하도록 구현된 것을 포함할 수 있다.
프로세서(120)는 전술한 메모리(110)에 저장된 명령어를 실행시켜서, 이하에서 설명될 다양한 단계 내지 동작 등이 수행되도록 할 수 있다. 이러한 프로세서(120)는 CPU, GPU 또는 FPGA와 같은 처리 장치 등을 포함할 수 있으나 이에 한정되는 것만은 아니다.
프로세서(120)에 대해 보다 자세하게 살펴보기로 한다.
프로세서(120)는 원본 데이터 중 일부를 선별할 수 있다. 보다 구체적으로 살펴보면, 프로세서(120)는 데이터베이스(200)로부터 적어도 두 개의 원본 데이터를 획득할 수 있다. 프로세서(120)는 이렇게 획득된 원본 데이터를, 미리 정해진 제1 확률맵(first preset probability)에 기초해서 학습용/검증용/테스트용으로 분류시킬 수 있다. 이 후, 프로세서(120)는 학습용으로 분류된 원본 데이터 중 일부를 랜덤 셔플링 등의 방식을 통해서 선별할 수 있다.
이 때 제1 확률맵은 학습 데이터 마련 장치(100)를 관리하는 관리자에 의해 주어진 것일 수 있는데, 예컨대 학습용:검증용:테스트용 = 6:2:2 또는 8:1:1일 수 있으나 이에 한정되는 것은 아니다.
프로세서(120)는, 선별된 원본 데이터의 증강과 관련된 하이퍼 파라미터의 값을 설정할 수 있다. 이하에서는 원본 데이터가 음원 데이터라고 가정하기로 한다. 그러면, 하이퍼 파라미터에는 다음과 같은 종류가 포함될 수 있다.
- 음원 데이터를 구성하는 음의 높낮이(pitch)에 관한 파라미터
- 음원 데이터를 구성하는 음의 빠르기(tempo)에 관한 파라미터
이 때, 음의 높낮이에 관한 파라미터를 조정해서 원본인 음원 데이터를 증강시키는 방식에는 두 가지가 존재한다. 첫번 째 방식은 이조(key translation, KT)이고, 두번 째 방식은 전조(key change, KC)이다. 이조는 원본인 음원 데이터의 처음부터 끝까지 음의 높낮이를 조정하는 것을 지칭한다. 반면 전조는 원본인 음원 데이터의 일부 구간에서만 음의 높낮이를 조정하는 것을 지칭한다.
이렇게 원본인 음원 데이터에 대한 음의 높낮이 또는 빠르기를 전술한 파라미터를 이용해서 조정하면, 원본 데이터와 레이블(label)이 상이한 증강 데이터가 확보될 수 있다.
프로세서(120)는, 선별된 음원 데이터 중 이조 방식으로 조정해서 변조시킬 음원 데이터의 개수(이하, KT)와, 전조 방식으로 조정해서 변조시킬 음원 데이터의 개수(이하 KC) 및 빠르기를 조정해서 변조시킬 음원 데이터의 개수(TT) 간의 비율을, 전술한 하이퍼 파라미터의 값으로서 설정할 수 있다. 즉, 프로세서(120)는 KT:KC:TT = a:b:c (단, a+b+c의 합은 1)로 설정할 수 있다. 이 때, 이러한 KT, KC 및 TT의 비율은 제2 확률맵(second preset probability)이라고 지칭될 수 있다.
이러한 제2 확률맵은 다양한 방식에 의해 설정 가능하다. 첫번 째 방식은, 임의로 고정된 비율을 설정하는 것이다. 두번 째 방식은, KT와 KC 및 TT 각각이 가질 수 있는 값의 전체 range를 KT와 KC 및 TT 마다 일정한 구간으로 나눈 뒤, 각 구간 중 최적의 구간을 선택하고, 다시 최적의 구간으로 선택된 구간을 일정한 구간으로 나눈 뒤 이 중 최적의 구간을 선택하는 과정을 반복하는 방식이다.
여기서, 각 구간 중 최적의 구간을 선택한다는 것은, 1) 각 구간에 대응하는 하이퍼 파라미터를 이용해서 각 구간마다 음원 데이터를 증강시킨 뒤, 2) 증강된 결과물인 증강 데이터를 이용해서 인공지능 장치(300)를 사전 학습(pre-training)시키고, 3) 사전 학습된 인공지능 장치(300)의 정확도를 검증용 데이터를 이용해서 평가해서, 4) 그 중 가장 높은 정확도를 갖게 만드는 구간을 최적의 구간으로 선택하는 것을 지칭한다.
이 때, 최적의 구간으로 선택된 구간을 일정한 구간으로 다시 나눌지 여부는, 4) 가장 높은 정확도를 갖게 만드는 구간에서의 정확도가 소정의 기준에 부합되는지 여부에 따라 결정될 수 있다.
한편, 3)에서 사전 학습된 인공지능 장치(30)의 정확도를 검증용 데이터를 이용해서 평가한다는 것에 대해 살펴보기로 한다. 전술한 바와 같이 원본 데이터 중 일부는 제1 확률맵에 따라 검증용으로 분류된다. 이러한 검증용 데이터 역시 입력과 정답으로 구성된다. 학습이 완료된 모델의 입력단에 입력에 제공되고 그에 따른 결과가 출력되었을 때, 이러한 결과와 정답이 비교된다. 결과와 정답 간의 비교 결과, 즉 결과와 정답 간의 차이가 소정의 기준 미만이면 모델의 정확도가 높은 것이므로 해당 모델은 학습이 제대로 된 것으로 평가되고, 그렇지 않다면 모델의 정확도가 낮은 것이므로 해당 모델은 학습이 제대로 되지 않은 것으로 평가된다.
여기서 결과와 정답 간의 차이는 다음의 수학식 1에 따른 cross entropy loss function에 의해 계산될 수 있으며, 다만 이에 한정되는 것은 아니다.
[수학식 1]
Figure pat00001
여기서
Figure pat00002
은 정답(true label)을 나타내고 그 값은 0 또는 1일 수 있다. 아울러,
Figure pat00003
은 입력에 따른 결과, 즉 logistic function으로부터의 predicted output을 나타낸다.
한편, 프로세서(120)는 제2 확률맵에서의 비율 이외에도, 이조나 전조를 할 때 높이거나 낮출 음의 높낮이의 정도, 전조가 적용될 구간에 대한 정보, 음원의 템포에 대한 정보를 하이퍼 파라미터로서 설정할 수도 있으며, 이를 하이퍼 파라미터의 값 선택 과정이라고 한다. 예컨대 이조에 대한 정도가 +5이면 5도를 높이는 것이고, 전조에 대한 정도가 -3이면서 30이면, 음원 데이터의 전체 구간 중 30%가 되는 지점부터 3도를 낮추는 것이며, 템포에 대해 1.2이면 원래의 음원의 빠르기보다 20% 늘어나도록 하는 것을 나타낸다.
이러한 하이퍼 파라미터의 값 선택 과정은 다양한 방식에 의해 수행 가능하다. 첫번 째 방식은, 임의로 고정된 값을 설정하는 것이다. 두번 째 방식은, 각각의 하이퍼 파라미터가 가질 수 있는 값의 전체 range를 일정한 구간으로 나눈 뒤, 각 구간 중 최적의 구간을 선택하고, 다시 최적의 구간으로 선택된 구간을 일정한 구간으로 나눈 뒤 이 중 최적의 구간을 선택하는 과정을 반복하는 방식이다. 이 때 각각의 구간 중 인접한 구간은 서로 간에 범위가 일부분에서는 겹쳐질 수 있다. 예컨대, 전체 range가 [0,1.0]이라면, [0,0.8], [0.1,0.9], [0.2,1.0]과 같이 인접한 구간은 서로 간에 범위가 일부분에서 겹쳐질 수 있다.
한편, 하이퍼 파라미터의 값 선택 과정에서 최적의 구간을 선택한다는 것은, 전술한 제2 확률맵에서 최적의 구간을 선택하는 것과 동일한 방식에 의해 수행될 수 있다.
도 3는 일 실시예에 따라 제2 확률맵 및 하이퍼 파라미터의 값 선택 과정이 예시적으로 도시되어 있다. 도 3의 왼쪽에 도시되어 있는 제2 확률맵을 참조하면, epoch1에 대해 살펴보면, KT:KC:TT가 [1,0,0]부터 [0,1,0] 그리고 [0,0,1]인 구간의 사이에서 복수 개의 구간으로 나누어져 있다.
만약 epoch1에서 [1/3,1/3,1/3]인 구간에서 가장 정확도가 높았다면, epoch2에서는 [1/3,1/3,1/3]인 구간을 중심으로, 상한으로는 해당 구간과 바로 인접해있는 [1/3,2/3,0]인 구간이 설정되고 하한으로는 해당 구간과 바로 인접해있는 [0,1,0]인 구간이 설정되어서 이들 사이가 다시 복수 개의 구간으로 나누어진다. 그리고 epoch2에서 이렇게 복수 개의 구간으로 나누어진 각각의 구간에서의 하이퍼 파라미터에 기초해서 원본 데이터가 증강되어 증강 데이터가 확보되고, 이렇게 확보된 증강 데이터에 기초해서 학습된 인공지능 장치(300)의 정확도가 검증되어서, 그 검증된 결과에 기초해서 증강이 종료될지 아니면 계속하여 증강될 필요가 있는지가 결정된다.
이는 도 3의 오른쪽에 도시되어 있는 하이퍼 파라미터의 값 선택 과정에서도 동일하며, 다만, 도 3의 오른쪽에 도시되어 있는 하이퍼 파라미터의 값 선택 과정에서는, 하이퍼 파라미터의 값 선택 시 인접한 구간끼리 서로 겹쳐지는, 즉 중복되는 구간이 있도록 선택될 수 있다는 것이 제2 확률맵에 대한 것과 상이하다.
여기서, '정확도'를 검증한다는 것은 정확도를 산출한다는 것을 의미하며, 이러한 정확도는 f1 measure에 따르는 것일 수 있다. 이하의 수학식 2는 f1 measure에 따랐을 때의 정확도를 산출하는 하나의 예시를 나타내며, 다만 정확도의 검출 내지 산출이 이러한 f1 measure 또는 수학식 2에 의해 한정되는 것만은 아니다.
[수학식 2]
정확도(accuracy) =
Figure pat00004
여기서, TP는 True Positive, FP는 False Positive, TN은 True Negative, FN은 False Negative을 가리킨다.
다시 도 2를 참조하면, 프로세서(120)는 제2 확률맵 및 하이퍼 파라미터의 값 선택 과정의 수행 결과를 이용해서, 원본 데이터를 증강시켜서 증강 데이터를 확보할 수 있다. 아울러, 이렇게 확보된 증강 데이터를 원본 데이터와 함께 이용해서, 인공지능 장치(300)를 학습시킬 수 있다.
이상에서 살펴본 바와 같이, 일 실시예에 따르면 원본 데이터의 확보 가능한 개수가 충분하지 않은 경우에도, 원본 데이터로부터 증강 데이터를 확보해서 인공지능 장치의 학습에 이용할 수 있다. 이 때 이렇게 확보되는 증강 데이터는, 원본 데이터와 레이블이 상이할 수 있다. 따라서, 이렇게 확보된 증강 데이터에 기초해서 인공지능 장치가 학습될 경우, 학습된 결과물의 정확도가 향상될 수 있다.
도 4는 일 실시예에 따라 수행 가능한 학습 데이터 마련 방법에 대한 예시적인 순서도이다. 다만, 도 4에 도시된 순서도는 예시적인 것에 불과하므로, 일 실시예에 따른 학습 데이터 마련 방법이 도 4에 도시된 것으로 한정 해석되는 것은 아니다. 예컨대 학습 데이터 마련 방법은 도 4에 도시된 것과 상이한 순서로 수행될 수 있으며, 도 4에 도시되지 않은 단계가 추가로 수행되거나 또는 도 4에 도시된 단계 중 일부가 수행되지 않을 수도 있다.
도 4를 참조하면, 프로세서(120)는 데이터베이스(200)로부터 적어도 두 개의 원본 데이터를 획득할 수 있다(S200).
프로세서(120)는 이렇게 획득된 원본 데이터를 중 일부를 선별할 수 있다(S200). 구체적으로 살펴보면, 프로세서(120)는 미리 정해진 제1 확률맵(first preset probability)에 기초해서, S100에서 획득된 원본 데이터를 학습용/검증용/테스트용으로 분류시킬 수 있다. 프로세서(120)는 학습용으로 분류된 원본 데이터 중 일부를 랜덤 셔플링 등의 방식을 통해서 선별할 수 있다.
이 때 제1 확률맵은 학습 데이터 마련 장치(100)를 관리하는 관리자에 의해 주어진 것일 수 있는데, 예컨대 학습용:검증용:테스트용 = 6:2:2 또는 8:1:1일 수 있으나 이에 한정되는 것은 아니다.
프로세서(120)는, 선별된 원본 데이터의 증강과 관련된 하이퍼 파라미터의 값을 복수 개 설정할 수 있다(S210). 하이퍼 파라미터의 값을 복수 개 설정하는 과정에 대해서는 앞서 설명된 부분을 원용하기로 한다.
프로세서(120)는 값이 설정된 하이퍼 파라미터 각각을 이용해서, S200에서 선별된 원본 데이터 중 일부를 각각 증강시킨다(S220). 증강된 결과물은 증강 데이터이고, 이 과정에서 원본 데이터가 음원 데이터라면 증강 데이터는 원본 데이터와 레이블이 상이할 수 있다.
그러면, 프로세서(120)는 S220에서 증강된 증강 데이터 각각을 이용해서 인공지능 장치(300)를 사전 학습(pre-training)시킨 뒤, 그 정확도를 검증할 수 있다(S240). 정확도를 검증하는 방안에 대해서는 전술한 바를 원용하기로 한다. 예컨대, 프로세서(120)는 제1 증강 데이터를 이용해서 학습된 인공지능 장치(300)에 대한 정확도를 검증할 수 있고, 제2 증강 데이터를 이용해서 학습된 인공지능 장치(300)에 대한 정확도를 검증할 수 있다. 검증 과정에서는 검증 데이터가 사용될 수 있다. 여기서 제1 증강 데이터란, S210에서 값이 설정된 하이퍼 파라미터 중 제1 하이퍼 파라미터를 기초로 원본 데이터가 증강된 것을 지칭하고, 제2 증강 데이터란, S210에서 값이 설정된 하이퍼 파라미터 중 제2 하이퍼 파라미터를 기초로 원본 데이터가 증강된 것을 지칭하며, 여기서 제1 하이퍼 파라미터와 제2 하이퍼 파라미터는 서로 상이한 값을 가질 수 있다.
S240에서 정확도가 검증된 각 결과에 대해, 가장 정확도가 높은 인공지능 장치(300)에 대한 정확도가 기준에 부합되는지 여부를, 프로세서(120)는 판단한다(S250). S250의 판단 결과 가장 정확도가 높은 인공지능 장치(300)에 대한 정확도가 기준에 부합된다면, 프로세서(120)는 해당 인공지능 장치(300)의 학습에 이용된 해당하는 하이퍼 파라미터에 기초해서, 원본 데이터 중 나머지를 증강시킨다(S300). 아울러, S300에서 증강된 증강 데이터에 기초해서, 프로세서(120)는 인공지능 장치(300)를 학습시키며, 이로써 학습은 종료되게 된다.
그러나, S250의 판단 결과 가장 정확도가 높은 인공지능 장치(300)에 대한 정확도가 기준에 부합되지 않는다면, 프로세서(120)는 하이퍼 파라미터의 값을 새로이 마련한다(S260). 이 때에는, S240에서 가장 정확도가 높은 인공지능 장치(300)의 학습에 이용된 증강 데이터가 있을 때, 이러한 증강 데이터와 관련된 하이퍼 파라미터의 값이 S260에서의 새로운 하이퍼 파라미터의 값 생성에 이용될 수 있다.
이후에는 다시 S220부터 그 다음의 단계들이 순차적으로 수행될 수 있다.
이상에서 살펴본 바와 같이, 일 실시예에 따르면 원본 데이터의 확보 가능한 개수가 충분하지 않은 경우에도, 원본 데이터로부터 증강 데이터를 확보해서 인공지능 장치의 학습에 이용할 수 있다. 이 때 이렇게 확보되는 증강 데이터는, 원본 데이터와 레이블이 상이할 수 있다. 따라서, 이렇게 확보된 증강 데이터에 기초해서 인공지능 장치가 학습될 경우, 학습된 결과물의 정확도가 향상될 수 있다.
아울러, 전술한 다양한 실시예들에 따른 방법은 이러한 방법의 각 단계를 수행하도록 프로그램된 컴퓨터 판독가능한 기록매체에 저장된 컴퓨터 프로그램의 형태로 구현 가능하고, 또한 이러한 방법의 각 단계를 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독가능한 기록매체의 형태로 구현될 수도 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다
일 실시예에 따르면 원본 데이터의 확보 가능한 개수가 충분하지 않은 경우에도, 원본 데이터로부터 증강 데이터를 확보해서 인공지능 장치의 학습에 이용할 수 있다. 이 때 이렇게 확보되는 증강 데이터는, 원본 데이터와 레이블이 상이할 수 있다. 따라서, 이렇게 확보된 증강 데이터에 기초해서 인공지능 장치가 학습될 경우, 학습된 결과물의 정확도가 향상될 수 있다.
100: 학습 데이터 마련 장치

Claims (10)

  1. 프로세서와,
    상기 프로세서에 의해 실행 가능한 적어도 하나의 명령어를 저장하는 메모리를 포함하며, 상기 명령어가 실행되면 상기 프로세서는,
    사전에 마련된 원본 데이터 중 일부를, 복수 개의 서로 상이한 값을 갖는 하이퍼 파라미터 각각을 이용해서 증강시키고,
    상기 증강된 결과물인 증강 데이터를 이용해서 소정의 인공지능 장치에 대한 사전 학습이 완료되면, 상기 복수 개의 하이퍼 파라미터마다 각각 획득된 상기 사전 학습이 완료된 인공지능 장치에 대한 검증 결과에 기초해서, 상기 복수 개의 하이퍼 파라미터 중에서 일부를 선택하며,
    상기 선택된 일부의 하이퍼 파라미터를 이용해서 상기 사전에 마련된 원본 데이터 중 나머지를 증강시키는
    학습 데이터 마련 장치.
  2. 제 1 항에 있어서,
    상기 프로세서는,
    상기 원본 데이터 중 검증용으로 분류된 데이터 중에서 입력에 해당하는 데이터를 상기 사전 학습이 완료된 인공지능 장치의 입력단에 제공하고,
    상기 검증용으로 분류된 데이터 중 정답에 해당하는 데이터를 상기 사전 학습이 완료된 인공지능 장치가 출력한 결과와 비교하고,
    상기 비교의 결과를 토대로 상기 사전 학습이 완료된 인공지능 장치에 대한 검증 결과를 도출하는
    학습 데이터 마련 장치.
  3. 제 2 항에 있어서,
    상기 검증 결과의 도출에는
    f1-measure에 따른 방식이 이용되는
    학습 데이터 마련 장치.
  4. 제 1 항에 있어서,
    상기 원본 데이터는 음원 데이터를 포함하고,
    상기 하이퍼 파라미터는,
    상기 음원 데이터를 구성하는 음의 높낮이(pitch)에 관한 파라미터 또는 상기 음의 빠르기(tempo)에 관한 파라미터를 포함하는
    학습 데이터 마련 장치.
  5. 제 4 항에 있어서,
    상기 하이퍼 파라미터는,
    상기 음원 데이터를 증강시키는 과정에서 상기 높낮이가 상기 음원 데이터에 반영되는 정도와 상기 빠르기가 상기 음원 데이터에 반영되는 정도 간의 비율 및 상기 높낮이가 상기 음원 데이터에 반영되는 수치와 상기 빠르기가 상기 음원 데이터에 반영되는 수치를 포함하는
    학습 데이터 마련 장치.
  6. 제 4 항에 있어서,
    상기 하이퍼 파라미터는,
    상기 높낮이에 관한 파라미터 또는 상기 음의 빠르기에 관한 파라미터가, 상기 증강 과정에서 상기 음원 데이터에 적용될 구간에 관한 파라미터를 더 포함하는
    학습 데이터 마련 장치.
  7. 제 1 항에 있어서,
    상기 프로세서는,
    상기 복수 개의 하이퍼 파라미터마다 각각 획득된 검증 결과 중에서, 정확도가 가장 높은 검증 결과가 기 정의된 기준에 부합되지 않는 경우, 상기 정확도가 가장 높은 검증 결과에 대응하는 하이퍼 파라미터에 기초해서 상기 복수 개의 하이퍼 파라미터의 값 각각을 새로이 설정하고,
    상기 원본 데이터 중 일부를 상기 새로이 값이 설정된 복수 개의 하이퍼 파라미터 각각을 이용해서 증강시키며,
    상기 새로이 값이 설정된 복수 개의 하이퍼 파라미터 각각을 이용해서 증강시키는 단계가 수행된 결과물인 증강 데이터를 이용해서, 상기 인공지능 장치에 대한 사전 학습이 완료되면, 상기 새로이 값이 설정된 복수 개의 하이퍼 파라미터마다 각각 획득된 상기 사전 학습이 완료된 인공지능 장치에 대한 검증 결과에 기초해서, 상기 새로이 값이 설정된 복수 개의 하이퍼 파라미터 중에서 일부를 선택하는
    학습 데이터 마련 장치.
  8. 학습 데이터 마련 장치가 수행하는 학습 데이터 마련 방법으로서,
    사전에 마련된 원본 데이터 중 일부를, 복수 개의 서로 상이한 값을 갖는 하이퍼 파라미터 각각을 이용해서 증강시키는 단계와,
    상기 증강된 결과물인 증강 데이터를 이용해서 소정의 인공지능 장치에 대한 사전 학습이 완료되면, 상기 복수 개의 하이퍼 파라미터마다 각각 획득된 상기 사전 학습이 완료된 인공지능 장치에 대한 검증 결과에 기초해서, 상기 복수 개의 하이퍼 파라미터 중에서 일부를 선택하는 단계와,
    상기 선택된 일부의 하이퍼 파라미터를 이용해서 상기 사전에 마련된 원본 데이터 중 나머지를 증강시키는 단계를 포함하여 수행하는
    학습 데이터 마련 방법.
  9. 제 8 항에 따른 방법을 상기 프로세서가 수행하도록 프로그램된 명령어를 저장하는
    컴퓨터 판독가능한 기록매체에 저장된 컴퓨터 프로그램.
  10. 제 8 항에 따른 방법을 상기 프로세서가 수행하도록 프로그램된 명령어를 저장하는
    컴퓨터 프로그램에 저장된 컴퓨터 판독가능한 기록매체
KR1020190139648A 2019-11-04 2019-11-04 학습 데이터 마련 장치 및 이를 이용한 학습 데이터 마련 방법 KR102277002B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190139648A KR102277002B1 (ko) 2019-11-04 2019-11-04 학습 데이터 마련 장치 및 이를 이용한 학습 데이터 마련 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190139648A KR102277002B1 (ko) 2019-11-04 2019-11-04 학습 데이터 마련 장치 및 이를 이용한 학습 데이터 마련 방법

Publications (2)

Publication Number Publication Date
KR20210053704A true KR20210053704A (ko) 2021-05-12
KR102277002B1 KR102277002B1 (ko) 2021-07-13

Family

ID=75918854

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190139648A KR102277002B1 (ko) 2019-11-04 2019-11-04 학습 데이터 마련 장치 및 이를 이용한 학습 데이터 마련 방법

Country Status (1)

Country Link
KR (1) KR102277002B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017058930A (ja) * 2015-09-16 2017-03-23 日本電信電話株式会社 学習データ生成装置、学習装置、画像評価装置、学習データ生成方法、学習方法、画像評価方法及び画像処理プログラム
KR20180059335A (ko) * 2016-11-24 2018-06-04 한국전자통신연구원 지식 증강을 위한 선순환 자가 학습 방법 및 그 장치
JP2018109996A (ja) * 2017-01-03 2018-07-12 韓國電子通信研究院Electronics and Telecommunications Research Institute 継続的学習のためのデータメタスケーリング装置及び方法
KR20190069109A (ko) 2017-12-11 2019-06-19 한양대학교 에리카산학협력단 에너지 공급망의 이상징후 검출을 위한 데이터 증강 및 학습 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017058930A (ja) * 2015-09-16 2017-03-23 日本電信電話株式会社 学習データ生成装置、学習装置、画像評価装置、学習データ生成方法、学習方法、画像評価方法及び画像処理プログラム
KR20180059335A (ko) * 2016-11-24 2018-06-04 한국전자통신연구원 지식 증강을 위한 선순환 자가 학습 방법 및 그 장치
JP2018109996A (ja) * 2017-01-03 2018-07-12 韓國電子通信研究院Electronics and Telecommunications Research Institute 継続的学習のためのデータメタスケーリング装置及び方法
KR20190069109A (ko) 2017-12-11 2019-06-19 한양대학교 에리카산학협력단 에너지 공급망의 이상징후 검출을 위한 데이터 증강 및 학습 장치

Also Published As

Publication number Publication date
KR102277002B1 (ko) 2021-07-13

Similar Documents

Publication Publication Date Title
CN109145099B (zh) 基于人工智能的问答方法和装置
JP6382354B2 (ja) ニューラルネットワーク及びニューラルネットワークのトレーニング方法
US11455523B2 (en) Risk evaluation method, computer-readable recording medium, and information processing apparatus
US10997965B2 (en) Automated voice processing testing system and method
EP3443450A1 (en) Two-stage training of a spoken dialogue system
RU2015155633A (ru) Системы и способы создания и реализации агента или системы с искусственным интеллектом
JP2023523029A (ja) 画像認識モデル生成方法、装置、コンピュータ機器及び記憶媒体
CN110348352B (zh) 一种人脸图像年龄迁移网络的训练方法、终端和存储介质
CN110969243B (zh) 防止隐私泄漏的对抗生成网络的训练方法及装置
CN111062486B (zh) 一种评价数据的特征分布和置信度的方法及装置
EP3501024B1 (en) Systems, apparatuses, and methods for speaker verification using artificial neural networks
JP2020086539A (ja) 逐次学習プログラム、逐次学習装置および逐次学習方法
CN116956116A (zh) 文本的处理方法和装置、存储介质及电子设备
CN109255389B (zh) 一种装备评价方法、装置、设备及可读存储介质
WO2021228152A1 (zh) 分类模型信息输出
CN110866609B (zh) 解释信息获取方法、装置、服务器和存储介质
US11966851B2 (en) Construction of a machine learning model
KR102277002B1 (ko) 학습 데이터 마련 장치 및 이를 이용한 학습 데이터 마련 방법
WO2022252694A1 (zh) 神经网络优化方法及其装置
CN112541446B (zh) 一种生物特征库更新方法、装置及电子设备
KR102506429B1 (ko) 상담 업무 분석 및 전달 시스템의 제어 방법
KR102235048B1 (ko) 학습 기반의 음악 자동 생성 장치 및 그 방법
CN109840501B (zh) 一种图像处理方法及装置、电子设备、存储介质
CN112908304B (zh) 一种提高语音识别精准性的方法和装置
WO2023062750A1 (ja) データ生成方法、データ生成プログラム及び情報処理装置

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant