KR20220084136A - 학습 지원 장치, 학습 장치, 학습 지원 방법 및 학습 지원 프로그램 - Google Patents
학습 지원 장치, 학습 장치, 학습 지원 방법 및 학습 지원 프로그램 Download PDFInfo
- Publication number
- KR20220084136A KR20220084136A KR1020227016503A KR20227016503A KR20220084136A KR 20220084136 A KR20220084136 A KR 20220084136A KR 1020227016503 A KR1020227016503 A KR 1020227016503A KR 20227016503 A KR20227016503 A KR 20227016503A KR 20220084136 A KR20220084136 A KR 20220084136A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- teacher
- label
- distance
- candidate data
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 56
- 238000004364 calculation method Methods 0.000 claims abstract description 46
- 238000009795 derivation Methods 0.000 claims abstract description 39
- 238000011156 evaluation Methods 0.000 claims description 44
- 230000008859 change Effects 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 10
- 230000002950 deficient Effects 0.000 description 163
- 238000012545 processing Methods 0.000 description 67
- 238000013528 artificial neural network Methods 0.000 description 63
- 230000008569 process Effects 0.000 description 26
- 210000002569 neuron Anatomy 0.000 description 24
- 230000000694 effects Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 12
- 238000013459 approach Methods 0.000 description 8
- WBMKMLWMIQUJDP-STHHAXOLSA-N (4R,4aS,7aR,12bS)-4a,9-dihydroxy-3-prop-2-ynyl-2,4,5,6,7a,13-hexahydro-1H-4,12-methanobenzofuro[3,2-e]isoquinolin-7-one hydrochloride Chemical compound Cl.Oc1ccc2C[C@H]3N(CC#C)CC[C@@]45[C@@H](Oc1c24)C(=O)CC[C@@]35O WBMKMLWMIQUJDP-STHHAXOLSA-N 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000003607 modifier Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G06N3/0454—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06395—Quality analysis or management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Resources & Organizations (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- Educational Administration (AREA)
- Quality & Reliability (AREA)
- Marketing (AREA)
- Entrepreneurship & Innovation (AREA)
- General Business, Economics & Management (AREA)
- Development Economics (AREA)
- Medical Informatics (AREA)
- Operations Research (AREA)
- Game Theory and Decision Science (AREA)
- Educational Technology (AREA)
- Primary Health Care (AREA)
- Image Analysis (AREA)
Abstract
학습 지원 장치는, 대상 데이터를 제 1 라벨 및 제 2 라벨 중 어느 하나로 분류하도록 교사 데이터를 이용하여 학습된 모델과, 제 1 라벨이 부여된 제 1 데이터 및 제 2 라벨이 부여된 제 2 데이터를 갖는 교사 데이터에 근거하여, 교사 데이터의 특징량을 교사 데이터마다 도출함과 아울러, 제 1 라벨 및 제 2 라벨 중 어느 하나가 각각 부여된 적어도 1개의 교사 후보 데이터와 모델에 근거하여 교사 후보 데이터의 특징량을 교사 후보 데이터마다 도출하는 도출부와, 교사 후보 데이터와 제 1 데이터의 거리, 및, 교사 후보 데이터와 제 2 데이터의 거리 중 적어도 한쪽을 교사 후보 데이터마다 산출하는 산출부와, 거리에 근거하여 교사 후보 데이터 중에서 교사 데이터로서 추가하는 데이터를 선택하는 선택부를 구비한다.
Description
본 개시는, 학습 지원 장치, 학습 장치, 학습 지원 방법 및 학습 지원 프로그램에 관한 것이다.
특허 문헌 1은, 뉴럴 네트워크와 필터 계수를 포함하는 모델을 이용하여 화상을 식별하는 장치를 개시한다. 모델은, 샘플 화상을 뉴럴 네트워크의 입력층으로부터 입력하고, 중간층에 있어서 필터 계수에 근거하는 필터 처리를 행하고, 출력층에 있어서 인식 결과로서 샘플 화상의 분류를 나타내는 정보(클래스 ID)를 출력한다. 모델은, 정해(正解)의 클래스 ID가 부여된 화상인 교사 화상을 이용하여 미리 학습된다. 구체적으로는, 교사 화상을 입력한 뉴럴 네트워크가 정해의 클래스 ID를 출력하도록, 필터 계수가 설정된다. 또한, 이 장치는, 모델에 의해 식별된 클래스 ID를 화상과 함께 유저에게 제시하고, 유저에 의해 클래스 ID가 수정된 경우에는, 클래스 ID 수정 후의 화상을 모델에 재학습시킨다.
그런데, 모델이 용이하게 식별할 수 없는 화상은, 뉴럴 네트워크의 파라미터의 결정에의 공헌도가 높고, 학습 효과가 높은 교사 데이터가 될 수 있다. 그 때문에, 모델이 용이하게 식별할 수 없는 화상을 이용하여 모델을 재학습하는 것에 의해, 높은 학습 효율을 실현할 수 있다. 그렇지만, 특허 문헌 1에 기재된 장치는, 유저에 의해 클래스 ID가 수정된 화상을 모델에 재학습시키고 있지만, 실제는 모델이 정답으로 하고 있는 화상 중에도 근소한 차이로 우연히 정해 클래스로 분류된 화상이 포함되어 있을 가능성이 있다. 이러한 화상은, 모델이 용이하게 식별할 수 없는 화상이라고 말할 수 있지만, 재학습하는 후보에서 제외되어 버린다. 이 때문에, 특허 문헌 1에 기재된 장치는, 모델을 효율적으로 학습할 수 없을 우려가 있다.
본 개시는, 모델의 학습을 적절히 지원할 수 있는 학습 지원 장치, 학습 장치, 학습 지원 방법 및 학습 지원 프로그램을 제공하는 것을 목적으로 한다.
본 개시에 따른 학습 지원 장치는, 제 1 라벨이 부여된 제 1 데이터 및 제 2 라벨이 부여된 제 2 데이터를 갖는 교사 데이터를 취득하는 교사 데이터 취득부와, 제 1 라벨 및 제 2 라벨 중 어느 하나가 각각 부여된 적어도 1개의 교사 후보 데이터를 취득하는 교사 후보 데이터 취득부와, 대상 데이터를 제 1 라벨 및 제 2 라벨 중 어느 하나로 분류하도록 교사 데이터를 이용하여 학습된 모델과, 교사 데이터에 근거하여, 미리 정해진 차원의 특징 공간으로 표현되는 교사 데이터의 특징량을 교사 데이터마다 도출함과 아울러, 모델과 적어도 1개의 교사 후보 데이터에 근거하여 특징 공간으로 표현되는 교사 후보 데이터의 특징량을 교사 후보 데이터마다 도출하는 도출부와, 교사 데이터의 특징량과 적어도 1개의 교사 후보 데이터의 특징량에 근거하여, 교사 후보 데이터와 제 1 데이터의 특징 공간에 있어서의 거리인 제 1 거리, 및, 교사 후보 데이터와 제 2 데이터의 특징 공간에 있어서의 거리인 제 2 거리 중 적어도 한쪽을 교사 후보 데이터마다 산출하는 산출부와, 산출부에 의해 산출된 교사 후보 데이터마다의 거리에 근거하여, 적어도 1개의 교사 후보 데이터 중에서 교사 데이터로서 추가하는 데이터를 선택하는 선택부를 구비한다.
본 개시의 여러 가지의 측면 및 실시 형태에 의하면, 모델의 학습을 적절히 지원할 수 있다.
[도 1] 도 1은, 실시 형태에 따른 학습 장치 및 학습 지원 장치의 기능의 일례를 나타내는 블럭도이다.
[도 2] 도 2는, 도 1에 나타내는 장치의 하드웨어 구성을 나타내는 블럭도이다.
[도 3] 도 3은, 학습부에 있어서 이용되는 뉴럴 네트워크의 모식도이다.
[도 4] 도 4는, 뉴럴 네트워크에 의해 연산된 특징량의 분포를 나타내는 도면이다.
[도 5] 도 5는, 우량품 거리 및 불량품 거리의 요소를 나타내는 설명도이다.
[도 6] 도 6은, 우량품 거리 및 불량품 거리의 요소를 나타내는 설명도이다.
[도 7] 도 7은, 우량품 거리 및 불량품 거리의 요소를 나타내는 설명도이다.
[도 8] 도 8은, 학습 장치 및 학습 지원 장치에 있어서의 학습 지원 방법의 흐름도이다.
[도 9] 도 9는, 학습 처리의 흐름도이다.
[도 10] 도 10(a)~도 10(d)는, 표시부에 표시되는 화면예를 나타내는 도면이다.
[도 2] 도 2는, 도 1에 나타내는 장치의 하드웨어 구성을 나타내는 블럭도이다.
[도 3] 도 3은, 학습부에 있어서 이용되는 뉴럴 네트워크의 모식도이다.
[도 4] 도 4는, 뉴럴 네트워크에 의해 연산된 특징량의 분포를 나타내는 도면이다.
[도 5] 도 5는, 우량품 거리 및 불량품 거리의 요소를 나타내는 설명도이다.
[도 6] 도 6은, 우량품 거리 및 불량품 거리의 요소를 나타내는 설명도이다.
[도 7] 도 7은, 우량품 거리 및 불량품 거리의 요소를 나타내는 설명도이다.
[도 8] 도 8은, 학습 장치 및 학습 지원 장치에 있어서의 학습 지원 방법의 흐름도이다.
[도 9] 도 9는, 학습 처리의 흐름도이다.
[도 10] 도 10(a)~도 10(d)는, 표시부에 표시되는 화면예를 나타내는 도면이다.
이하, 도면을 참조하여, 본 개시의 실시 형태에 대해 설명한다. 또한, 이하의 설명에 있어서, 동일 또는 상당 요소에는 동일 부호를 부여하고, 중복하는 설명을 생략한다.
[학습 지원 장치의 기능 구성]
도 1은, 실시 형태에 따른 학습 장치 및 학습 지원 장치의 기능의 일례를 나타내는 블럭도이다. 도 1에 나타나는 학습 장치(10)는, 모델 M1을 학습하는 장치이다. 모델 M1은, 뉴럴 네트워크와 파라미터를 포함하는 구조를 가진다. 뉴럴 네트워크는, 복수의 뉴런을 결합시킨 구조를 가진다. 일례로서 뉴럴 네트워크는, 복수의 뉴런이 그룹화된 층을 늘어 놓은 계층형의 다층 뉴럴 네트워크이어도 좋다. 뉴럴 네트워크는, 뉴런의 개수 및 결합 관계로 정의된다. 뉴런 간 또는 층 간의 결합 강도는, 파라미터(가중 계수(weighting factor) 등)를 이용하여 정의된다. 뉴럴 네트워크에서는, 데이터가 입력되고, 복수의 뉴런의 연산 결과 및 파라미터에 근거하여, 데이터의 특징이 해로서 출력된다. 학습 장치(10)는, 목적으로 하는 능력을 획득할 수 있도록 모델 M1의 파라미터를 학습하는 학습부(11)를 가진다. 학습이란, 파라미터를 최적치로 조정하는 것이다. 뉴럴 네트워크의 자세한 것은 후술한다.
학습 장치(10)의 학습 결과는, 처리 장치(12)에 있어서 활용된다. 처리 장치(12)는, 학습 장치(10)가 학습 대상으로 하는 모델 M1과 동일한 뉴럴 네트워크 및 파라미터를 갖는 모델 M2를 동작 가능한 실행 환경을 가진다. 모델 M2는, 모델 M1과 동일한 모델이며, 모델 M1이 마스터(오리지널)가 된다. 처리 장치(12)에서는, 모델 M2에 대상 데이터 D1이 입력되고, 모델 M2로부터 결과가 출력된다. 대상 데이터 D1이란, 처리 장치(12)의 목적을 달성하기 위해서 처리되는 데이터이며, 예를 들면, 화상 데이터, 음성 데이터, 그래프 데이터 등이다. 대상 데이터 D1은 후술하는 라벨을 부여하기 전의 데이터이다. 처리 장치(12)의 목적은, 인식(분류), 판정 등이다. 처리 장치(12)는, 학습 장치(10)로부터 물리적 또는 논리적으로 분리되어 있어도 좋고, 학습 장치(10)에 통합되고, 학습 장치(10)와 물리적 또는 논리적으로 일체화해도 좋다.
처리 장치(12)의 모델 M2는, 대상 데이터 D1의 내용을 인식하고, 인식 결과 R1로서 라벨을 출력한다. 라벨이란, 미리 설정된 카테고리를 식별하는 정보이며, 대상 데이터 D1을 분류 또는 판별하기 위해서 이용된다. 대상 데이터 D1이 화상 데이터인 경우, 라벨은, 예를 들면 피사체의 종류(인물, 탈것(vehicle), 동물 등), 피사체의 품질(우량품, 불량품 등)로 할 수 있다. 처리 장치(12)는, 출력한 라벨을 대상 데이터 D1에 부여해도 좋다. 부여란, 관련 짓는 것을 의미하고, 예를 들면 대상 데이터 D1과 라벨의 관계성을 테이블 등에 기록하는 것이어도 좋고, 라벨이 포함되도록 대상 데이터 D1의 속성 정보를 변경하는 것이어도 좋고, 대상 데이터 그 자체에 라벨을 삽입하는 것이어도 좋다.
이하에서는, 처리 장치(12)의 모델 M2가, 전자 부품을 피사체로 하는 대상 데이터 D1을 입력하고, 전자 부품의 품질에 관한 라벨을 출력하는 경우를 일례로 하여 설명한다. 이 경우, 학습 장치(10)의 학습부(11)는, 처리 장치(12)의 모델 M2가 대상 데이터 D1의 라벨을 정확하게 판별할 수 있도록, 모델 M1의 뉴럴 네트워크의 파라미터를 학습한다.
학습부(11)는, 교사 데이터 D2에 근거하여 모델 M1을 학습한다. 교사 데이터 D2란, 대상 데이터 D1과 동일 형식의 데이터(여기에서는 화상 데이터)이며, 올바른 라벨이 미리 부여된다. 예를 들면, 교사 데이터 D2에는, 피사체인 전자 부품이 외관 품질 기준을 만족시키는 것을 나타내는 우량품 라벨(제 1 라벨의 일례), 피사체인 전자 부품이 외관 품질 기준을 만족시키지 않는 것을 나타내는 불량품 라벨(제 2 라벨의 일례) 중 어느 하나가 에너테이터(작업자) 등에 의해 올바르게 부여된다. 이 때문에, 교사 데이터 D2는, 우량품 라벨이 부여된 우량품 데이터(제 1 데이터의 일례), 및 불량품 라벨이 부여된 불량품 데이터(제 2 데이터의 일례)를 가진다.
학습부(11)는, 교사 데이터 D2인 우량품 데이터 및 불량품 데이터에 근거하여, 우량품 데이터의 특징 및 불량품 데이터의 특징을 모델 M1의 뉴럴 네트워크에 학습시킨다. 모델 M1은, 입력한 교사 데이터 D2에 대해서, 우량품에 속할 확률을 나타내는 스코어(이하 「우량품 스코어」라고 한다)와, 불량품에 속할 확률을 나타내는 스코어(이하 「불량품 스코어」라고 한다)를 출력한다. 본 실시 형태에서는, 우량품 스코어 및 불량품 스코어는, 각각 0.0~1.0의 범위의 값이 되고, 우량품 스코어와 불량품 스코어의 합계는 1.0이 되도록 설정된다. 학습부(11)는, 우량품 라벨이 부여된 우량품 데이터에 대해서는, 우량품 스코어가 1.0에 근접하고, 또한, 불량품 스코어가 0.0에 근접하도록, 모델 M1의 뉴럴 네트워크의 파라미터를 조정한다. 한편, 학습부(11)는, 불량품 라벨이 부여된 불량품 데이터에 대해서는, 우량품 스코어가 0.0에 근접하고, 또한, 불량품 스코어가 1.0에 근접하도록, 모델 M1의 뉴럴 네트워크의 파라미터를 조정한다. 이것에 의해, 모델 M1은 대상 데이터 D1을 우량품 라벨 및 불량품 라벨 중 어느 하나로 분류하는 능력을 획득한다. 학습부(11)에 의해 학습된 파라미터는, 처리 장치(12)로 출력되고, 처리 장치(12)의 모델 M2의 파라미터가 갱신된다. 이것에 의해, 처리 장치(12)의 모델 M2도, 대상 데이터 D1을 우량품 라벨 및 불량품 라벨 중 어느 하나로 분류하는 능력을 획득한다.
학습 지원 장치(20)는, 학습 장치(10)의 학습을 지원한다. 학습 지원 장치(20)는, 교사 후보 데이터 D3 중에서 모델 M1의 재학습을 위한 추가 교사 데이터 D4를 선택한다. 교사 후보 데이터 D3은, 교사 데이터 D2와 동일 형식의 데이터(여기에서는 화상 데이터)이며, 에너테이터(작업자) 등에 의해 라벨이 미리 부여된다.
학습 지원 장치(20)는, 교사 데이터 취득부(21), 교사 후보 데이터 취득부(22), 도출부(23), 산출부(24), 및 선택부(25)를 구비한다.
교사 데이터 취득부(21)는, 우량품 라벨이 부여된 우량품 데이터 및 불량품 라벨이 부여된 불량품 데이터를 갖는 교사 데이터 D2를 취득한다. 교사 데이터 D2는, 학습부(11)에 의해 학습 완료의 데이터이다. 교사 후보 데이터 취득부(22)는, 우량품 라벨 및 불량품 라벨 중 어느 하나가 각각 부여된 적어도 1개의 교사 후보 데이터 D3을 취득한다. 교사 후보 데이터 D3은, 1 또는 복수의 데이터로 구성된다. 교사 후보 데이터 D3은, 우량품 라벨이 부여된 데이터만으로 구성되어도 좋고, 불량품 라벨이 부여된 데이터만으로 구성되어도 좋다. 이하에서는, 교사 후보 데이터 D3은, 우량품 라벨이 부여된 데이터 및 불량품 라벨이 부여된 데이터의 쌍방이 포함되어 있는 복수의 데이터로 한다.
교사 데이터 취득부(21) 및 교사 후보 데이터 취득부(22)는, 도시하지 않은 데이터 서버 등으로부터 통신을 통하여 교사 데이터 D2 또는 교사 후보 데이터 D3을 취득해도 좋고, 학습 지원 장치(20)에 접속 가능한 외부 기억 매체나 학습 지원 장치(20)가 구비하는 기억 매체를 참조하여, 교사 데이터 D2 또는 교사 후보 데이터 D3을 취득해도 좋다. 교사 데이터 취득부(21) 및 교사 후보 데이터 취득부(22)는, 카메라 등에 의해 얻어진 데이터에 유저가 라벨을 부여한 데이터를 취득해도 좋다.
도출부(23)는, 학습부(11)에 있어서 학습된 모델 M1과, 교사 데이터 D2에 근거하여, 미리 정해진 차원의 특징 공간으로 표현되는 특징량을 교사 데이터 D2마다 산출한다. 미리 정해진 차원의 특징 공간은, 방대한 차원의 특징량을 연산 용이로 하기 위해서 이용되는 변환용의 특징 공간이다. 이 때문에, 특징 공간의 차원은, 2차원이어도 좋고, 3차원이어도 좋다.
특징량은, 화상의 특징을 표현한 벡터이며, 화상을 입력한 모델 M1의 뉴럴 네트워크의 계산 과정에서 추출된다. 도출부(23)는, 교사 데이터 D2마다 특징량을 추출하도록 학습 장치(10)를 동작시키고, 학습 장치(10)로부터 특징량을 취득해도 좋다. 혹은, 도출부(23)는, 모델 M1과 동일한 모델 M3을 준비하고, 학습 지원 장치(20)에 있어서 교사 데이터 D2마다 특징량을 산출해도 좋다. 모델 M3은, 모델 M1을 마스터(오리지널)로 하는 모델이다.
도출부(23)는, 학습부(11)에 있어서 학습된 모델 M1과, 적어도 1개의 교사 후보 데이터 D3에 근거하여, 교사 데이터 D2의 특징량을 넣은 특징 공간과 동일한 차원의 특징 공간으로 표현되는 특징량을 교사 후보 데이터 D3마다 산출한다. 교사 후보 데이터 D3 각각의 특징의 추출은, 교사 데이터 D2와 마찬가지로, 학습 장치(10)로 하여금 실행하게 해도 좋고, 모델 M1과 동일한 모델 M3을 준비하고, 학습 지원 장치(20)에 있어서 교사 데이터 D2마다 특징량을 산출해도 좋다.
산출부(24)는, 특징 공간에 있어서 교사 데이터 D2와 교사 후보 데이터 D3의 거리를 산출한다. 구체적으로는, 산출부(24)는, 교사 데이터 D2의 특징량과 교사 후보 데이터 D3의 특징량에 근거하여, 교사 후보 데이터 D3과 우량품 데이터의 특징 공간에 있어서의 거리인 우량품 거리(제 1 거리의 일례)를 교사 후보 데이터 D3마다 산출한다. 산출부(24)는, 교사 데이터 D2의 특징량과 교사 후보 데이터 D3의 특징량에 근거하여, 교사 후보 데이터 D3과 불량품 데이터의 특징 공간에 있어서의 거리인 불량품 거리(제 2 거리의 일례)를 교사 후보 데이터 D3마다 산출한다. 산출부(24)는, 우량품 거리 및 불량품 거리 중 적어도 한쪽을 산출해도 좋다. 즉, 산출부(24)는, 우량품 거리만을 산출해도 좋고, 불량품 거리만을 산출해도 좋다. 산출부(24)는, 교사 후보 데이터 D3마다, 우량품 거리 및 불량품 거리를 이용하여 평가치를 산출해도 좋다. 우량품 거리, 불량품 거리 및 평가치의 상세한 설명 및 산출 방법에 대해서는 후술한다.
선택부(25)는, 산출부(24)에 있어서 산출된 교사 후보 데이터 D3마다의 거리에 근거하여, 적어도 1개의 교사 후보 데이터 D3 중에서 교사 데이터 D2로서 추가하는 데이터(추가 교사 데이터 D4)를 선택한다. 선택부(25)는, 교사 후보 데이터 D3마다의 거리로서, 우량품 거리만을 이용하여도 좋고, 불량품 거리만을 이용하여도 좋다. 본 실시 형태에서는, 선택부(25)는, 교사 후보 데이터 D3마다의 우량품 거리 및 불량품 거리의 쌍방에 근거하여, 추가 교사 데이터 D4를 선택한다. 선택부(25)는, 거리(우량품 거리 및 불량품 거리 중 적어도 한쪽)에 근거하여, 추가 교사 데이터 D4가 존재하지 않는다고 판정한 경우, 후술의 표시부(26)로 하여금 해당 판정 결과를 표시하게 한다. 판정의 기준에 대해서는 후술한다.
선택부(25)가 추가 교사 데이터 D4를 선택하는 방법으로서, 이하의 3개의 방법이 예시된다. 제 1 방법에서는, 선택부(25)는, 불량품 라벨이 부여된 교사 후보 데이터의 우량품 거리가 짧을수록 해당 교사 후보 데이터가 적어도 1개의 교사 후보 데이터 중에서 선택될 확률을 높인다고 하는 방법이다. 제 2 방법에서는, 선택부(25)는, 우량품 라벨이 부여된 교사 후보 데이터의 불량품 거리가 짧을수록 해당 교사 후보 데이터가 적어도 1개의 교사 후보 데이터 D3 중에서 선택될 확률을 높이는 방법이다. 제 3 방법에서는, 선택부(25)는, 교사 후보 데이터 D3마다의 평가치에 근거하여, 추가 교사 데이터 D4를 선택하는 방법이다. 선택부(25)는, 상술의 3개의 방법 중 어느 하나 또는 이들 조합을 채용할 수 있다. 각 방법의 상세한 것에 대하여는 후술한다.
학습 지원 장치(20)는, 표시부(26), 입력부(27), 및, 변경부(28)를 구비할 수 있다.
표시부(26)는, 선택부(25)에서 선택된 추가 교사 데이터 D4를 표시한다. 표시부(26)는, 추가 교사 데이터 D4의 화상뿐만이 아니라, 추가 교사 데이터 D4에 부여되어 있는 라벨, 우량품 거리, 불량품 거리, 평가치, 교사 후보 데이터 수 등을 표시해도 좋다. 표시부(26)는, 특징량을 소정의 차원의 공간에 플롯한 그래프를 표시해도 좋다. 표시부(26)는, 교사 데이터 D2와 추가 교사 데이터 D4를 비교 표시할 수 있도록 해도 좋다. 추가 교사 데이터 D4가 표시부(26)에 의해 가시화되는 것에 의해, 유저에 있어서는, 추가 교사 데이터 D4의 품질의 편차의 확인이나 라벨, 우량품 거리, 불량품 거리, 평가치 또는 교사 후보 데이터 수의 확인이 용이하게 된다.
표시부(26)는, 선택부(25)가 거리에 근거하여 추가 교사 데이터 D4가 존재하지 않다고 판정한 경우, 선택부(25)의 제어에 의해, 추가 교사 데이터 D4가 존재하지 않다는 취지를 나타내는 판정 결과를 표시한다. 선택부(25)는, 표시부(26)로 하여금 판정 결과를 화면 표시하게 하는 것으로, 추가 교사 데이터가 존재하지 않는 것을 유저에게 통지할 수 있다. 유저는, 모델 M1에 대해서 학습시키는 추가 교사 데이터 D4가 없는 것을 인식할 수 있고, 가중 계수 등의 파라미터의 학습을 종료시킬지 여부를 용이하게 판정할 수 있다. 표시부(26)는, 도시하지 않은 스피커에 의한 알람 음의 출력 등과 조합하여 유저에게 판정 결과를 통지해도 좋다.
입력부(27)는, 유저 조작의 입력을 접수한다. 유저 조작이란, 입력부(27)를 작동시키는 유저에 의한 동작이며, 일례로서, 선택 조작 또는 입력 조작이다.
변경부(28)는, 표시부(26)에 표시되어 있는 추가 교사 데이터 D4에 부여되어 있는 라벨을 변경하기 위한 유저 조작이 입력부(27)를 통하여 입력된 경우, 추가 교사 데이터 D4에 부여되어 있는 라벨을 변경한다. 변경부(28)는, 추가 교사 데이터 D4에 미리 부여된 라벨에 오류가 없는가를 유저에게 확인시키는 화면을 표시부(26)로 하여금 표시하게 한다. 유저가 추가 교사 데이터 D4의 라벨에 오류가 있다고 판단한 경우, 유저는, 입력부(27)를 통하여 변경부(28)에 의해 추가 교사 데이터 D4의 라벨을 우량품 라벨로부터 불량품 라벨로, 또는 불량품 라벨로부터 우량품 라벨로 변경시킬 수가 있다.
[학습 지원 장치의 하드웨어 구성]
도 2는, 도 1에 나타내는 장치의 하드웨어 구성을 나타내는 블럭도이다. 도 2에 나타내는 바와 같이, 학습 지원 장치(20)는, CPU(Central Processing Unit)(301)와, RAM(Random Access Memory)(302)와, ROM(Read Only Memory)(303)과, 그래픽 콘트롤러(304)와, 보조 기억 장치(305)와, 외부 접속 인터페이스(이하 인터페이스는 「I/F」라고 적는다)(306)와, 네트워크 I/F(307)와, 버스(308)를 포함하는 통상의 컴퓨터 시스템으로서 구성된다.
CPU(301)는, 연산 회로로 되고, 학습 지원 장치(20)를 총괄 제어한다. CPU(301)는, ROM(303) 또는 보조 기억 장치(305)에 기억된 프로그램을 RAM(302)에 판독한다. CPU(301)는, RAM(302)에 판독된 프로그램에 있어서의 여러 가지의 처리를 실행한다. ROM(303)은, 학습 지원 장치(20)의 제어에 이용되는 시스템 프로그램 등을 기억한다. 그래픽 콘트롤러(304)는, 표시부(26)로 하여금 표시하게 하기 위한 화면을 생성한다. 보조 기억 장치(305)는 기억 장치로서의 기능을 가진다. 보조 기억 장치(305)는, 여러 가지의 처리를 실행하는 어플리케이션 프로그램 등을 기억한다. 보조 기억 장치(305)는, 일례로서, HDD(Hard Disk Drive), SSD(Solid State Drive) 등에 의해 구성된다. 외부 접속 I/F(306)는, 학습 지원 장치(20)에 여러 가지의 기기를 접속하기 위한 인터페이스이다. 외부 접속 I/F(306)는, 일례로서, 학습 지원 장치(20), 디스플레이, 키보드, 마우스 등을 접속시킨다. 네트워크 I/F(307)는, CPU(301)의 제어에 근거하여, 학습 지원 장치(20) 등과 네트워크를 통하여 통신을 행한다. 상술의 각 구성부는, 버스(308)를 통하여, 통신 가능하게 접속된다.
학습 지원 장치(20)는, 상술 이외의 하드웨어를 가질 수 있다. 학습 지원 장치(20)는, 일례로서 GPU(Graphics Processing Unit), FPGA(Field-Programmable Gate Array), DSP(Digital Signal Processor) 등을 구비해도 좋다. 학습 지원 장치(20)는, 하드웨어로서 1개의 하우징에 수납되어 있을 필요는 없고, 몇개의 장치에 분리되어 있어도 좋다.
도 1에 나타나는 학습 지원 장치(20)의 기능은, 도 2에 나타나는 하드웨어에 의해 실현된다. 교사 데이터 취득부(21), 교사 후보 데이터 취득부(22), 도출부(23), 산출부(24), 선택부(25) 및 변경부(28)는, CPU(301)가 RAM(302), ROM(303) 또는 보조 기억 장치(305)에 저장된 프로그램을 실행하고, RAM(302), ROM(303) 혹은 보조 기억 장치(305)에 기억된 데이터, 또는, 외부 접속 I/F(306) 혹은 네트워크 I/F를 통하여 취득된 데이터를 처리하는 것으로 실현된다. 표시부(26)는, 디스플레이 장치이다. 입력부(27)는, 마우스, 키보드, 터치 패널 등이다. 변경부(28)의 기능은, 그래픽 콘트롤러(304)를 또한 이용하여 실현될 수 있다. 도 1에 나타나는 처리 장치(12) 및 학습 장치(10)도, 도 2에 나타나는 하드웨어의 일부 또는 전부에 의해 구성된다.
[뉴럴 네트워크의 상세]
모델 M1~M3의 뉴럴 네트워크를 개설한다. 도 3은, 뉴럴 네트워크의 모식도이다. 도 3에 나타나는 바와 같이, 뉴럴 네트워크(400)는, 이른바 계층형 뉴럴 네트워크이며, 원으로 나타내는 다수의 인공 뉴런(노드)이 계층을 형성하면서 연결되어 있다. 계층형 뉴럴 네트워크는, 입력용의 인공 뉴런, 처리용의 인공 뉴런 및 출력용의 인공 뉴런을 구비한다.
데이터(401)는, 뉴럴 네트워크의 처리 대상이다. 데이터(401)는, 입력층(402)에 있어서의 입력용의 인공 뉴런으로 취득된다. 입력용의 인공 뉴런은, 병렬 배치되는 것으로 입력층(402)을 형성한다. 데이터(401)는, 처리용의 인공 뉴런에 분배된다. 뉴럴 네트워크에서 교환되는 신호 그 자체를 스코어라고 한다. 스코어는 수치이다.
처리용의 인공 뉴런은, 입력용의 인공 뉴런에 접속된다. 처리용의 인공 뉴런은, 병렬 배치되는 것으로 중간층(403)을 형성한다. 중간층(403)은, 복수의 층이어도 좋다. 또한, 중간층(403)을 구비한 3계층 이상의 뉴럴 네트워크를 딥 뉴럴 네트워크라고 한다.
뉴럴 네트워크는, 이른바 컨벌루션 뉴럴 네트워크이어도 좋다. 컨벌루션 뉴럴 네트워크는, 컨벌루션 층과 풀링층이 교대로 연결되어 구성되는 딥 뉴럴 네트워크이다. 컨벌루션층과 풀링층에서 순차 처리가 행해지는 것에 의해, 데이터(401)인 화상은 에지 등의 특징을 유지하면서 축소된다. 컨벌루션 뉴럴 네트워크를 화상 해석에 응용한 경우, 이 추출된 특징에 근거하여 화상의 분류를 고정밀도로 행할 수 있다.
출력용의 인공 뉴런은, 외부에 스코어를 출력한다. 도 3의 예에서는, 우량품 스코어와 불량품 스코어가 출력용의 인공 뉴런으로부터 출력된다. 즉, 출력층(404)에는, 우량품 스코어를 출력하기 위한 인공 뉴런과, 불량품 스코어를 출력하기 위한 인공 뉴런의 2개의 인공 뉴런이 준비되어 있다. 출력층(404)은, 출력(405)으로서, 외부에 우량품 스코어 및 불량품 스코어를 출력한다. 본 실시 형태에서는, 우량품 스코어와 불량품 스코어는, 각각 0.0~1.0의 범위의 값이 되고, 우량품 스코어와 불량품 스코어의 합계는 1.0이 되도록 설정되어 있다. 후술의 학습 처리(S510)에 있어서, 우량품 라벨이 부여된 교사 데이터인 우량품 데이터에 대해서는, 우량품 스코어가 1.0, 불량품 스코어가 0.0에 근접하도록, 뉴럴 네트워크(400)의 학습이 행해진다. 한편, 불량품 라벨이 부여된 교사 데이터인 불량품 데이터에 대해서는, 우량품 스코어가 0.0에, 불량품 스코어가 1.0에 근접하도록, 뉴럴 네트워크(400)의 학습이 행된다.
[도출부에 의한 특징량의 도출]
도출부(23)는, 일례로서, 상술한 학습 완료 뉴럴 네트워크(400)를 포함하는 모델 M3을 이용하여, 교사 데이터 D2마다 미리 정해진 차원의 특징 공간으로 표현되는 특징량을 도출한다. 도출부(23)는, 교사 후보 데이터 취득부(22)에 의해 취득된 교사 데이터 D2를 데이터(401)로서 뉴럴 네트워크(400)의 입력층(402)에 입력한다. 중간층(403) 내의 처리용의 인공 뉴런은, 학습된 가중 계수를 이용하여 입력을 처리하고, 출력을 다른 뉴런에 전달한다. 도출부(23)는, 복수의 중간층(403)으로부터 선택된 1층의 연산 결과를 특징량으로서 취득한다. 일례로서, 도출부(23)는, 복수의 중간층(403) 중 출력층(404)에 스코어를 전달하는 층(출력층(404)의 1단 전의 층)의 연산 결과를 특징 공간에 투사하고, 특징량으로 한다. 이와 같이, 도출부(23)는, 학습 완료 모델 M3과 교사 데이터 D2를 이용하여 특징량을 도출한다.
또, 도출부(23)는, 상술한 학습 완료의 뉴럴 네트워크(400)를 포함하는 모델 M3을 이용하여, 교사 후보 데이터 D3마다 미리 정해진 차원의 특징 공간으로 표현되는 특징량을 도출한다. 도출부(23)는, 교사 후보 데이터 취득부(22)에 의해 취득된 교사 후보 데이터 D3을 데이터(401)로서 뉴럴 네트워크(400)의 입력층(402)에 입력한다. 중간층(403) 내의 처리용의 인공 뉴런은, 학습된 가중 계수를 이용하여 입력을 처리하고, 출력을 다른 뉴런에 전달한다. 도출부(23)는, 복수의 중간층(403)으로부터 선택된 1층의 연산 결과를 특징량으로서 취득한다. 일례로서 도출부(23)는, 복수의 중간층(403) 중 출력층(404)에 스코어를 전달하는 층(출력층(404)의 1단 전의 층)의 연산 결과를 특징 공간에 투사하고, 특징량으로 한다. 이와 같이, 도출부(23)는, 학습 완료의 모델 M3과 교사 후보 데이터 D3을 이용하여 특징량을 도출한다.
도출부(23)는, 특징량을 추출하도록 학습 장치(10)를 동작시키고, 학습 장치(10)로부터 특징량을 취득해도 좋다. 이 경우, 학습 장치(10)는, 모델 M1을 이용하여 상술한 수법과 동일한 수법으로 특징량을 산출한다.
도 4는, 뉴럴 네트워크에 의해 연산된 특징량의 분포를 나타내는 도면이다. 도 4에 나타나는 그래프는, 2차원 공간에 투사된 교사 데이터 D2의 특징량 및 교사 후보 데이터 D3의 특징량을 나타내고, 횡축이 제 1 주성분, 종축이 제 2 주성분이다. 도 4에 나타나는 바와 같이, 우량품 라벨이 부여된 교사 데이터 D2인 우량품 데이터의 특징량(701)과 불량품 라벨이 부여된 교사 데이터 D2인 불량품 데이터의 특징량(702)은, 각각 점군을 형성하고, 점군의 사이에 경계면이 존재한다. 도 4에 나타나는 그래프에는, 도출부(23)에 의해 추출된 우량품 라벨이 부여된 교사 후보 데이터 D3의 특징량(703) 및 불량품 라벨이 부여된 교사 후보 데이터 D3의 특징량(704)도 포함한다. 교사 후보 데이터 D3은, 경계면에 관계없이 플롯되어 있다.
[산출부에 의한 우량품 거리 및 불량품 거리의 산출]
산출부(24)는, 교사 후보 데이터 D3마다, 대응하는 특징량에 근거하여, 교사 후보 데이터 D3과 우량품 데이터의 특징 공간에 있어서의 거리인 우량품 거리를 산출한다. 우량품 거리 및 불량품 거리의 표현에 이용되는 「거리」에는, 일례로서, 특징 공간에 투사된 데이터 간의 유클리드 거리를 이용할 수 있다. 특징 공간에 있어서의 거리를 산출할 수 있으면, 유클리드 거리에 한정되지 않고, 마하라노비스 거리 등도 이용할 수 있다. 교사 데이터 D2 중 하나의 데이터인 교사 데이터 k와 교사 후보 데이터 D3 중 하나의 데이터인 교사 후보 데이터 s의 거리는, 예를 들면 이하의 식 1로 산출된다.
[수 1]
여기서, q(k,i)는 교사 데이터 k의 특징 공간인 어느 차원 i에 있어서의 좌표이며, p(s,i)는 교사 후보 데이터 s의 특징 공간인 어느 차원 i에 있어서의 좌표이다. d(k,s)는 교사 데이터 k와 교사 후보 데이터 s의 거리이며, qk의 벡터는, 교사 데이터 k의 특징 공간의 좌표 데이터의 집합이며, pk의 벡터는, 교사 후보 데이터 s의 특징 공간의 좌표 데이터의 집합이다. 또한, k는 교사 데이터의 데이터 수(m+n:m 및 n은 정수) 이하의 정수이며, i는 미리 정해진 차원의 수(j) 이하(j는 정수)의 정수이며, s는 교사 후보 데이터의 데이터 수(t) 이하(t는 정수)의 정수이다.
교사 후보 데이터 s로부터 우량품 데이터 OK 중 하나의 데이터인 우량품 데이터 OKg까지의 거리를 d(OKg,s)로 하면, d(OKg,s)는 식 1을 이용하여 이하의 식 2와 같이 나타내진다. 또한, OKg 중, OK는 우량품을 나타내는 부호이며, g는, 우량품 데이터 OK의 데이터 수(m) 이하의 정수이다.
[수 2]
q(OKg,i)는 교사 데이터 D2 중 우량품 데이터 OKg의 특징 공간인 어느 차원 i에 있어서의 좌표이며, qOKg의 벡터는, 우량품 데이터 OKg의 특징 공간의 좌표 데이터의 집합이다.
교사 후보 데이터 s와 각 우량품 데이터 OK의 거리의 집합을 d(OK,s)의 벡터로 하면, d(OK,s)의 벡터는 식 2를 이용하여 이하의 식 3과 같이 나타내진다.
[수 3]
교사 후보 데이터 s에 있어서의 우량품 거리 E(OK,s)는, 예를 들면, d(OK,s)의 벡터의 요소 중에서 최소치이다. 즉, 우량품 거리 E(OK,s)는, 교사 후보 데이터 s와 각 우량품 데이터 OK의 거리의 집합인 d(OK,s)의 벡터의 요소 중, 최소치이다. 우량품 거리 E(OK,s)는, 식 3을 이용하여 이하의 식 4와 같이 나타내진다. 이때, 우량품 거리 E(OK,s)가 작을수록, 특징 공간 내에 있어서, 교사 후보 데이터 s가 우량품 데이터 OK 중 어느 하나의 근처에 위치하는 것을 나타낸다.
[수 4]
교사 후보 데이터 s에 있어서의 우량품 거리 E(OK,s)는, 예를 들면, d(OK,s)의 벡터의 요소 중에서 작은 쪽으로부터 a개의 요소를 추출하고, a개의 요소의 평균치로 해도 좋다. a는, 자연수이며, 예를 들면 3이다. 이 경우의 우량품 거리 E(OK,s)는, 식 3을 이용하여 이하의 식 5와 같이 나타내진다. 이때, 우량품 거리 E(OK,s)가 작을수록, 특징 공간 내에 있어서, 교사 후보 데이터 s가 복수(a개)의 우량품 데이터 OK의 근처에 위치하는 것을 나타내고, 교사 후보 데이터 s가 우량품 데이터 OK의 집단(우량품 클러스터)에 가까운 것을 나타낸다.
[수 5]
또, 산출부(24)는, 교사 후보 데이터 D3마다, 대응하는 특징량에 근거하여, 교사 후보 데이터 D3과 불량품 데이터의 특징 공간에 있어서의 거리인 불량품 거리를 산출한다. 교사 후보 데이터 s로부터 불량품 데이터 NG 중 불량품 데이터 NGh까지의 거리를 d(NGh,s)로 하면, d(NGh,s)는 식 1을 이용하여 이하의 식 6과 같이 나타내진다. 또한, NGh 중, NG는 불량품을 나타내는 부호이며, h는, 불량품 데이터 NG의 데이터 수(n) 이하의 정수이다.
[수 6]
또한, q(NGh,i)는 교사 데이터 중, 불량품 데이터 NGh의 특징 공간인 어느 차원 i에 있어서의 좌표이며, qNGh의 벡터는, 불량품 데이터 NGh의 특징 공간의 좌표 데이터의 집합이다. 도 5는, 우량품 거리 및 불량품 거리의 요소를 나타내는 설명도이다. 도 5에 나타나는 바와 같이, 교사 데이터 D2 및 교사 후보 데이터 s에 대해서 d(OKk,s) 및 d(NGk,s)가 산출된다.
교사 후보 데이터 s와 각 불량품 데이터 NG의 거리의 집합을 d(NG,s)의 벡터로 하면, d(NG,s)의 벡터는 식 6을 이용하여 이하의 식 7과 같이 나타내진다. 도 6은, 우량품 거리 및 불량품 거리의 요소를 나타내는 설명도이다. 도 6에는, 어느 교사 후보 데이터 s+1에 대한 d(OK,s+1)의 벡터 및 d(NG,s+1)의 벡터가 나타나 있다.
[수 7]
교사 후보 데이터 s에 있어서의 불량품 거리 E(NG,s)는, 예를 들면, d(NG,s)의 벡터의 요소 중에서 최소치이다. 즉, 불량품 거리 E(NG,s)는, 교사 후보 데이터 s와 각 불량품 데이터 NG의 거리 중, 최소치이다. 불량품 거리 E(NG,s)는, 식 7을 이용하여 이하의 식 8과 같이 나타내진다. 이때, 불량품 거리 E(NG,s)가 작을수록, 특징 공간 내에 있어서, 교사 후보 데이터 s가 불량품 데이터 NG 중 어느 하나의 근처에 위치하는 것을 나타낸다. 도 7은, 우량품 거리 및 불량품 거리를 나타내는 설명도이다. 도 7에는, 교사 후보 데이터 s+1에 있어서의 우량품 데이터 OK로부터의 거리의 최소치 및 불량품 데이터 NG로부터의 거리의 최소치가, 각각 우량품 거리 E(OK,s+1) 및 불량품 거리 E(NG,s+1)인 것이 나타나 있다.
[수 8]
교사 후보 데이터 s에 있어서의 불량품 거리 E(NG,s)는, 예를 들면, d(NG,s)의 벡터의 요소 중에서 작은 쪽으로부터 a개의 요소를 추출하고, a개의 요소의 평균치로 해도 좋다. 이 경우의 불량품 거리 E(NG,s)는, 식 7을 이용하여 이하의 식 9와 같이 나타내진다. 이때, 불량품 거리 E(NG,s)가 작을수록, 특징 공간 내에 있어서, 교사 후보 데이터 s가 복수(a개)의 불량품 데이터 NG의 근처에 위치하는 것을 나타내고, 교사 후보 데이터 s가 불량품 데이터 NG의 집단(불량품 클러스터)에 가까운 것을 나타낸다.
[수 9]
또, 산출부(24)는, 산출된 우량품 거리 E(OK,s) 및 불량품 거리 E(NG,s)를 이용하여 교사 후보 데이터 s에 있어서의 평가치 Es를 산출한다. 평가치 Es는, 예를 들면, 우량품 거리 E(OK,s)를 불량품 거리 E(NG,s)로 나눈 값이며, 이하의 식 10과 같이 나타내진다.
[수 10]
예를 들면, 평가치 Es가 1보다 작을수록, 불량품 거리 E(NG,s)보다 우량품 거리 E(OK,s) 가 작고, 교사 후보 데이터 s가 불량품 클러스터보다 우량품 클러스터에 가까운 데이터인 것을 나타낸다. 따라서, 해당 교사 후보 데이터 s가 불량품 라벨을 갖는 데이터인 경우, 평가치 Es가 작을수록, 해당 교사 후보 데이터 s는, 현단계의 교사 데이터 D2의 학습 결과로는 모델 M1, M2, M3에 있어서 우량품 라벨 또는 불량품 라벨로 분류하는 것이 어려운 데이터이며, 모델 M1, M2, M3에 있어서는 학습 효과가 높은 데이터인 것을 나타낸다.
한편으로, 예를 들면, 평가치 Es가 1보다 클수록, 우량품 거리 E(OK,s)보다 불량품 거리 E(NG,s)가 작고, 교사 후보 데이터 s가 우량품 클러스터보다 불량품 클러스터에 가까운 데이터인 것을 나타낸다. 따라서, 해당 교사 후보 데이터 s가 우량품 라벨을 갖는 데이터인 경우, 평가치 Es가 클수록, 해당 교사 후보 데이터 s는, 현단계의 교사 데이터 D2의 학습 결과로는 모델 M1, M2, M3에 있어서 우량품 라벨 또는 불량품 라벨로 분류하는 것이 어려운 데이터이며, 모델 M1, M2, M3에 있어서는 학습 효과가 높은 데이터인 것을 나타낸다.
또한, 평가치는, 불량품 거리 E(NG,s)를 우량품 거리 E(OK,s)로 나눈 값이라도 좋다. 이 경우, 상기의 판정은 거꾸로 된다. 즉, 평가치 Es가 1보다 클수록, 불량품 거리 E(NG,s)보다 우량품 거리 E(OK,s)가 작고, 교사 후보 데이터 s가 불량품 클러스터보다 우량품 클러스터에 가까운 데이터인 것을 나타낸다. 또한, 평가치 Es가 1보다 작을수록, 우량품 거리 E(OK,s)보다 불량품 거리 E(NG,s)가 작고, 교사 후보 데이터 s가 우량품 클러스터보다 불량품 클러스터에 가까운 데이터인 것을 나타낸다. 또, 평가치는, 상기와 같이 나누어 얻어진 값에 대해서 소정의 연산 처리를 실시한 값으로 해도 좋다.
[선택부에 의한 교사 후보 데이터의 선택 방법]
선택부(25)는, 산출부(24)에 있어서 산출된 우량품 거리 E(OK,s), 불량품 거리 E(NG,s) 및 평가치 Es 중 적어도 1개에 근거하여, 교사 후보 데이터 D3 중에서 추가 교사 데이터 D4를 선택한다. 여기서, 뉴럴 네트워크(400)에 있어서의 가중 계수의 학습으로서, 뉴럴 네트워크(400)가 용이하게 식별할 수 없는 교사 후보 데이터 s는 학습 효과가 높고, 학습에 필요로 하는 시간을 단축시킬 수가 있다. 이 때문에, 선택부(25)는, 학습 효과의 고저에 근거하여 교사 후보 데이터 D3 중에서 교사 데이터 D2로서 추가하는 데이터(추가 교사 데이터 D4)를 선택하는 것이 요구되고 있다.
최초로, 선택부(25)에 있어서, 불량품 라벨이 부여된 교사 후보 데이터 각각의 우량품 거리 E(OK,s)가 짧을수록 해당 교사 후보 데이터가 적어도 1개의 교사 후보 데이터 D3 중에서 선택될 확률을 높이는 방법을 설명한다. 여기서, 선택부(25)는, 우량품 거리 E(OK,s)가 소정의 임계치보다 작은 경우에, 우량품 거리 E(OK,s)가 짧은 불량품 라벨이 부여된 교사 후보 데이터일수록 교사 후보 데이터 D3 중에서 선택될 확률을 올린다. 예를 들면, 선택부(25)는, 우량품 거리 E(OK,s)가 소정의 임계치보다 작고, 또한, 불량품 라벨을 갖는 교사 후보 데이터를, 미리 정해진 추가 교사 데이터 D4의 상한 수까지 우량품 거리 E(OK,s)가 가까운 순서로 선택한다. 도 4에는, 도출부(23)에 의해 추출된 불량품 라벨이 부여된 교사 후보 데이터의 특징량(705)이 2차원 공간에 투영되어 있다. 우량품 라벨을 갖는 우량품 데이터 OK(우량품 클러스터)에 가깝고, 불량품 라벨을 갖는 교사 후보 데이터는, 교사 데이터 D2를 적용하여 처리를 행한 단계의 뉴럴 네트워크(400)가 용이하게 식별할 수 없는 것을 나타내고 있다. 이와 같이, 선택부(25)가 위에서 설명한 바와 같이 추가 교사 데이터 D4를 선택하는 것으로, 뉴럴 네트워크(400)에 있어서는 학습 효과가 높은 추가 교사 데이터 D4를 선택할 수 있다. 또한, 선택부(25)는, 교사 후보 데이터 D3 모두가 소정의 임계치 이상의 우량품 거리 E(OK,s)를 갖는 데이터만인 경우, 추가 교사 데이터 D4가 존재하지 않다고 판정하고, 표시부(26)로 하여금 해당 판정 결과를 표시하게 한다. 선택부(25)는, 소정의 임계치 미만의 우량품 거리 E(OK,s)를 갖는 교사 후보 데이터 D3의 데이터 수가 어느 임계치 이하가 된 경우에 추가 교사 데이터 D4가 존재하지 않다고 판정하고, 표시부(26)로 하여금 해당 판정 결과를 표시하게 하여도 좋다.
또, 선택부(25)에 있어서, 우량품 라벨이 부여된 교사 후보 데이터 각각의 불량품 거리 E(NG,s)가 짧을수록 해당 교사 후보 데이터가 적어도 1개의 교사 후보 데이터 D3 중에서 선택될 확률을 높이는 방법을 설명한다. 여기서, 선택부(25)는, 불량품 거리 E(NG,s)가 소정의 임계치보다 작은 경우에, 불량품 거리 E(NG,s)가 짧은 우량품 라벨이 부여된 교사 후보 데이터일수록 교사 후보 데이터 D3 중에서 선택될 확률을 높인다. 예를 들면, 선택부(25)는, 불량품 거리 E(NG,s)가 소정의 임계치보다 작고, 또한, 우량품 라벨을 갖는 교사 후보 데이터를, 미리 정해진 추가 교사 데이터 D4의 상한 수까지 불량품 거리 E(NG,s)가 가까운 순서로 선택한다. 도 4에는, 도출부(23)에 의해 추출된 우량품 라벨이 부여된 교사 후보 데이터의 특징량(706)이 2차원 공간에 투영되어 있다. 불량품 라벨을 갖는 불량품 데이터 NG(불량품 클러스터)에 가깝고, 우량품 라벨을 갖는 교사 후보 데이터는, 교사 데이터 D2를 적용하여 처리를 행한 단계의 뉴럴 네트워크(400)가 용이하게 식별할 수 없는 것을 나타내고 있다. 이와 같이, 선택부(25)가 상술한 바와 같이 추가 교사 데이터 D4를 선택하는 것으로, 뉴럴 네트워크(400)에 있어서는 학습 효과가 높은 추가 교사 데이터 D4를 선택할 수 있다. 또한, 선택부(25)는, 교사 후보 데이터 D3 모두가 소정의 임계치 이상의 불량품 거리 E(NG,s)를 갖는 데이터만인 경우, 추가 교사 데이터 D4가 존재하지 않다고 판정하고, 표시부(26)로 하여금 해당 판정 결과를 표시하게 한다. 선택부(25)는, 소정의 임계치 미만의 불량품 거리 E(NG,s)를 갖는 교사 후보 데이터 D3의 데이터 수가 어느 임계치 이하가 된 경우에 추가 교사 데이터 D4가 존재하지 않다고 판정하고, 표시부(26)로 하여금 해당 판정 결과를 표시하게 해도 좋다.
또, 선택부(25)에 있어서, 교사 후보 데이터마다의 평가치 Es에 근거하여, 추가 교사 데이터 D4를 선택하는 방법을 설명한다. 선택부(25)는, 예를 들면, 우량품 라벨을 갖는 각 교사 후보 데이터 s의 평가치 Es가 클수록 해당 교사 후보 데이터가 적어도 1개의 교사 후보 데이터 D3 중에서 선택될 확률을 높인다. 예를 들면, 선택부(25)는, 우량품 라벨을 갖는 교사 후보 데이터를, 미리 정해진 추가 교사 데이터 D4의 상한 수까지 평가치 Es가 큰 순서로 선택한다. 평가치 Es가 큰 교사 후보 데이터 s는, 평가치 Es가 작은 교사 후보 데이터 s와 비교하여, 도 7에 나타내는 바와 같이, 우량품 라벨을 갖는 우량품 데이터 OK까지의 거리가 긴 경우, 및 불량품 라벨을 갖는 불량품 데이터 NG까지의 거리가 짧은 경우 중 적어도 어느 한쪽에 해당한다. 이 때문에, 우량품 라벨을 갖는 교사 후보 데이터는, 교사 데이터 D2를 적용하여 처리를 행한 단계의 뉴럴 네트워크(400)가 용이하게 식별할 수 없는 것을 나타내고 있다. 또, 평가치 Es가 1보다 큰 것은, 교사 후보 데이터 s가 우량품 클러스터보다 불량품 클러스터에 가까운 데이터인 것을 나타낸다. 이와 같이, 선택부(25)는, 예를 들면, 평가치 Es가 큰 순서로, 평가치 Es가 1보다 크고, 또한, 우량품 라벨을 갖는 교사 후보 데이터를 추가 교사 데이터 D4로서 선택하는 것으로, 뉴럴 네트워크(400)에 있어서는 학습 효과가 높은 추가 교사 데이터 D4를 선택할 수 있다. 또한, 선택부(25)는, 교사 후보 데이터 D3의 모두가 소정의 임계치 미만의 평가치 Es를 갖는 데이터뿐인 경우, 추가 교사 데이터 D4가 존재하지 않다고 판정하고, 표시부(26)로 하여금 해당 판정 결과를 표시하게 한다. 선택부(25)는, 소정의 임계치 이상의 평가치 Es를 갖는 교사 후보 데이터 D3의 데이터 수가 어느 임계치 이하가 된 경우에 추가 교사 데이터 D4가 존재하지 않다고 판정하고, 표시부(26)로 하여금 해당 판정 결과를 표시하게 해도 좋다.
또한, 선택부(25)는, 예를 들면, 불량품 라벨을 갖는 각 교사 후보 데이터 s의 평가치 Es가 작을수록 해당 교사 후보 데이터가 적어도 1개의 교사 후보 데이터 D3 중에서 선택되는 확률을 높여도 좋다. 예를 들면, 선택부(25)는, 불량품 라벨을 갖는 교사 후보 데이터를, 미리 정해진 추가 교사 데이터 D4의 상한 수까지 평가치 Es가 작은 순서로 선택한다. 평가치 Es가 작은 교사 후보 데이터 s는, 평가치 Es가 큰 교사 후보 데이터 s와 비교하여, 불량품 라벨을 갖는 불량품 데이터 NG까지의 거리가 긴 경우, 및 우량품 라벨을 갖는 우량품 데이터 OK까지의 거리가 짧은 경우 중 적어도 어느 한쪽에 해당한다. 이 때문에, 불량품 라벨을 갖는 교사 후보 데이터는, 교사 데이터 D2를 적용하여 처리를 행한 단계의 뉴럴 네트워크(400)가 용이하게 식별할 수 없는 것을 나타내고 있다. 또, 평가치 Es가 1보다 작은 것은, 교사 후보 데이터 s가 불량품 클러스터보다 우량품 클러스터에 가까운 데이터인 것을 나타낸다. 이와 같이, 선택부(25)는, 예를 들면, 평가치 Es가 작은 순서로, 불량품 라벨을 갖는 교사 후보 데이터를 추가 교사 데이터 D4로서 선택하는 것으로, 뉴럴 네트워크(400)에 있어서는 학습 효과가 높은 추가 교사 데이터 D4를 선택할 수 있다. 또한, 선택부(25)는, 교사 후보 데이터 D3 모두가 소정의 임계치 이상의 평가치 Es를 갖는 데이터만인 경우, 추가 교사 데이터 D4가 존재하지 않다고 판정하고, 표시부(26)로 하여금 해당 판정 결과를 표시하게 한다. 선택부(25)는, 소정의 임계치 미만의 평가치 Es를 갖는 교사 후보 데이터 D3의 데이터 수가 어느 임계치 이하가 된 경우에 추가 교사 데이터 D4가 존재하지 않다고 판정하고, 표시부(26)로 하여금 해당 판정 결과를 표시하게 해도 좋다. 또, 선택부(25)는, 평가치 Es의 산출 방법에 맞추어, 적이 대소 관계를 전환하여 추가 교사 데이터 D4를 선택한다.
[학습 장치 및 학습 시선 장치의 동작]
도 8은, 학습 방법 및 학습 지원 방법의 흐름도이다. 학습 지원 장치(20)에 의한 학습 지원 방법은, 취득 처리(S500, 제 1 공정의 일례)와, 도출 처리(S520, 제 2 공정의 일례)와, 산출 처리(S530, 제 3 공정의 일례)와, 선택 처리(S540, 제 4 공정의 일례)를 가진다. 학습 지원 방법은, 표시 처리(S560)와, 입력 판정 처리(S570)와, 변경 처리(S580)와, 통지 처리(S590)를 가져도 좋다. 학습 장치(10)에 의한 학습 방법은, 학습 처리(S510)를 가진다(도 9 참조).
최초로, 학습 지원 장치(20)의 교사 데이터 취득부(21)는, 취득 처리(S500)로서, 예를 들면 데이터 서버로부터 우량품 라벨이 부여된 우량품 데이터 OK, 및 불량품 라벨이 부여된 불량품 데이터 NG를 갖는 교사 데이터 D2를 취득한다. 학습 지원 장치(20)의 교사 후보 데이터 취득부(22)는, 취득 처리(S500)로서, 예를 들면 데이터 서버로부터 우량품 라벨 및 불량품 라벨 중 어느 하나가 각각 부여된 적어도 1개의 교사 후보 데이터 D3을 취득한다.
학습 장치(10)의 학습부(11)는, 학습 처리(S510)로서, 교사 데이터 D2를 학습하여, 모델 M1의 뉴럴 네트워크(400)에 있어서의 가중 계수를 조정한다. 도 9는, 학습 처리의 흐름도이다. 학습부(11)는, 연산 처리(S512)로서, 교사 데이터 D2를 모델 M1의 뉴럴 네트워크(400)에 학습시킨다. 이 연산 처리(S512)에서는, 교사 데이터 D2에 대해, 우량품 스코어와 불량품 스코어가 뉴럴 네트워크(400)로부터 출력된다. 학습부(11)는, 오차 연산 처리(S513)로서, 교사 데이터 D2에 부여되어 있던 라벨과, 해당 교사 데이터 D2에 대해 출력된 스코어의 오차를 산출한다. 학습부(11)는, 역 전달 처리(S904)로서, 오차 연산 처리(S513)에서 산출된 오차를 이용하여, 뉴럴 네트워크(400)의 중간층(403)의 가중 계수를 조정한다. 학습부(11)는, 임계치 판정 처리(S515)로서, 오차 연산 처리(S513)에서 산출된 오차는 소정의 임계치를 하회하는지 여부를 판정한다. 오차가 소정의 임계치를 하회하지 않다고 판정된 경우(S515:NO), 다시 S512~S515의 처리가 반복된다. 오차가 소정의 임계치를 하회한다고 판정된 경우(S515:YES), 완료 판정 처리(S906)로 이행한다.
연산 처리(S512)~임계치 판정 처리(S515)의 구체예로서, 우량품 라벨 「1」이 부여되어 있는 우량품 데이터 OK가 입력된 유스 케이스에 대해 설명한다. 이 교사 데이터 D2에 대해서 연산 처리(S512)가 처음으로 실시된 경우, 우량품 스코어와 불량품 스코어로서, 예를 들면 각각 「0.9」와 「0.1」의 값이 모델 M1의 뉴럴 네트워크(400)로부터 출력된다. 그 다음에, 오차 연산 처리(S513)에서는, 우량품 라벨 「1」과, 우량품 스코어 「0.9」의 차 「0.1」이 산출된다. 또한, 불량품 라벨이 부여되어 있는 불량품 데이터 NG의 경우, 불량품 스코어와의 차가 산출된다. 그 다음에, 오차 전달 처리(S514)에서는, 오차 연산 처리(S513)에서 산출되는 오차가 보다 작아지도록, 모델 M1의 뉴럴 네트워크(400)의 중간층(403)의 가중 계수가 조정된다. 임계치 판정 처리(S515)에 있어서, 오차 연산 처리(S513)에서 산출되는 오차가 소정의 임계치를 하회한다고 판정될 때까지 가중 계수의 조정이 반복되는 것에 의해, 모델 M1의 뉴럴 네트워크(400)의 기계 학습이 행해지고, 모델 M1은, 대상 데이터를 우량품 라벨 및 불량품 라벨 중 어느 하나로 분류하는 능력을 획득한다.
그 다음에, 완료 판정 처리(S516)에 있어서, 모든 교사 데이터 D2에 대해 처리가 완료되었는지 여부를 판정한다. 모든 교사 데이터 D2에 대해 처리가 완료되어 있지 않다고 판정된 경우(S516:NO), 다시 S511~S516의 처리가 반복된다. 모든 교사 데이터 D2에 대해 처리가 완료되었다고 판정된 경우(S516:YES), 도 9의 흐름도가 종료하고, 도 8의 흐름도로 돌아온다.
학습 지원 장치(20)의 도출부(23)는, 도출 처리(S520)로서, 교사 데이터 D2 및 교사 후보 데이터 D3 각각의 특징량을 도출한다. 도출부(23)는, 학습 장치(10)에 의해 학습된 모델 M1을 학습 지원 장치(20)의 모델 M3에 카피하고, 모델 M3을 이용하여 교사 데이터 D2 및 교사 후보 데이터 D3 각각의 특징량을 도출한다. 또한, 도출부(23)는, 교사 후보 데이터 D3을 학습 장치(10)에 출력하고, 학습 장치(10)에 교사 데이터 D2 및 교사 후보 데이터 D3 각각의 특징량을 도출시켜도 좋다. 도출부(23)는, 학습된 뉴럴 네트워크(400)와 교사 데이터 D2에 근거하여, 미리 정해진 차원의 특징 공간으로 표현되는 특징량을 교사 데이터 D2마다 도출한다. 도출부(23)는, 학습된 뉴럴 네트워크(400)와 교사 후보 데이터 D3에 근거하여, 미리 정해진 차원의 특징 공간으로 표현되는 특징량을 교사 후보 데이터 D3마다 도출한다.
산출부(24)는, 산출 처리(S530)로서, 교사 데이터 D2의 특징량과 적어도 1개의 교사 후보 데이터 D3의 특징량에 근거하여, 교사 후보 데이터 D3마다, 우량품 거리 E(OK,s), 및, 불량품 거리 E(NG,s) 중 적어도 한쪽을 산출한다. 산출부(24)는, 모든 교사 후보 데이터 D3에 대한 우량품 거리 E(OK,s), 및, 불량품 거리 E(NG,s) 중 적어도 한쪽을 산출한다(s는 1 내지 t까지의 정수). 또, 산출부(24)는, 산출 처리(S530)로서 우량품 거리 E(OK,s), 및, 불량품 거리 E(NG,s)에 근거하여, 평가치 Es를 산출한다. 산출부(24)는, 모든 교사 후보 데이터 D3에 대한 평가치 Es를 산출한다.
선택부(25)는, 선택 처리(S540)로서, 산출 처리(S530)에서 산출된 우량품 거리 E(OK,s), 불량품 거리 E(NG,s), 및 평가치 Es 중 적어도 1개에 근거하여, 교사 후보 데이터 D3 중에서 추가 교사 데이터 D4를 선택한다. 선택부(25)는, 우량품 거리 E(OK,s), 불량품 거리 E(NG,s), 및 평가치 Es 중, 미리 정해진 지표를 이용하여, 교사 후보 데이터 D3 중에서 추가 교사 데이터 D4를 선택한다. 선택부(25)는, 우량품 거리 E(OK,s), 불량품 거리 E(NG,s), 및 평가치 Es의 각각의 값에 대해, 예를 들면 가중치 부여를 행하고, 조합하여 사용해도 좋다.
선택부(25)는, 종료 판정 처리(S550)로서, 나머지의 교사 후보 데이터 D3 중에서 교사 데이터 D2로서 추가하는 추가 교사 데이터 D4가 존재하는지 여부를 판정한다. 추가 교사 데이터 D4가 존재하지 않는 경우란, 나머지의 교사 후보 데이터 D3가 존재하지 않는 경우, 또는 선택부(25)에 의해 이용되는 우량품 거리 E(OK,s), 불량품 거리 E(NG,s), 및 평가치 Es가 미리 정해진 각 임계치 이상 혹은 각 임계치 미만인 경우 등이다. 추가 교사 데이터 D4가 존재하지 않다고 판정된 경우(S550:추가 교사 데이터가 부존재), 통지 처리(S590)로 이행한다. 추가 교사 데이터 D4가 존재한다고 판정된 경우(S550:추가 교사 데이터가 존재), 표시 처리(S560)로 이행한다.
선택부(25)에 의해 추가 교사 데이터 D4가 존재한다고 판정된 경우(S550:추가 교사 데이터가 존재), 표시부(26)는, 표시 처리(S560)로서, 선택부(25)에서 선택된 추가 교사 데이터 D4를 표시한다. 유저는, 표시부(26)에 표시된 추가 교사 데이터 D4를 확인할 수 있다.
도 10(a)~도 10(d)는, 표시 처리(S560)에 있어서, 표시부(26)에 표시되는 화면(610), (620), (630), (640)의 일례를 나타내는 도면이다. 도 10(a)~도 10(d)에서는, 추가 교사 데이터 D4의 피사체가 전자 부품인 예가 나타나 있고, 추가 교사 데이터 D41 및 D42는 우량품 라벨이 부여된 데이터를 화상화한 것이고, 추가 교사 데이터 D43 및 D44는 불량품 라벨이 부여된 데이터를 화상화한 것이다.
다시 도 8을 참조한다. 변경부(28)는, 입력 판정 처리(S570)로서, 표시부(26)에서 표시되어 있는 추가 교사 데이터 D4에 부여되어 있는 라벨을 변경하기 위한 유저 조작이 입력부(27)를 통하여 입력되었는지 여부를 판정한다. 표시부(26)에서 표시되어 있는 추가 교사 데이터 D4에 부여되어 있는 라벨을 변경하기 위한 유저 조작이 입력부(27)를 통하여 입력되었다고 판정된 경우(S570:YES), 변경 처리(S580)로 이행한다. 표시부(26)에서 표시되어 있는 추가 교사 데이터 D4에 부여되어 있는 라벨을 변경하기 위한 유저 조작이 입력부(27)를 통하여 입력되어 있지 않다고 판정된 경우(S570:NO), 선택부(25)는 추가 교사 데이터 D4를 교사 데이터 D2에 추가하고, 다시 S500~S570의 처리가 반복된다.
도 10(a) 및 도 10(b)의 추가 교사 데이터 D41 및 D42는, 피사체의 외연 형상은 우량품 데이터의 특징과 일치하고 있었지만, 피사체 전체의 색감이 불량품 데이터의 특징에 가까웠기 때문에, 각각 불량품 거리가 짧게 산출된 데이터의 일례이다. 일례로서 유저가, 피사체의 색감을 허용할 수 있다고 판단한 경우, 유저는, 입력부(27)를 통하여 입력 영역(611)을 눌러 내리는 것에 의해, 추가 교사 데이터 D41에 부여된 우량품 라벨이 유지된다. 한편, 일례로서, 유저가, 피사체의 색감을 허용할 수 없다고 판단한 경우, 유저는, 입력부(27)를 통하여 입력 영역(612)을 눌러 내리는 것에 의해, 변경부(28)에 의해, 추가 교사 데이터 D42에 부여된 우량품 라벨이 불량품 라벨로 변경된다.
도 10(c) 및 도 10(d)의 추가 교사 데이터 D43 및 D44는, 피사체 주요부의 색감이 불량품 데이터의 특징과 일치하고 있었지만, 피사체의 외연 형상이 우량품 데이터의 특징에 가까웠기 때문에, 각각 우량품 거리가 짧게 산출된 데이터의 일례이다. 일례로서, 유저가, 피사체 주요부에 결함 개소(614)가 포함되어 있다고 판단한 경우, 유저는, 입력부(27)를 통하여 입력 영역(611)을 눌러 내리는 것에 의해, 추가 교사 데이터 D43에 부여된 불량품 라벨이 유지된다. 한편, 일례로서, 유저가, 피사체 주요부에 결함 개소가 포함되어 있지 않다고 판단한 경우, 유저는, 입력부(27)를 통하여 입력 영역(612)을 눌러 내리는 것에 의해, 변경부(28)에 의해, 추가 교사 데이터 D44에 부여된 불량품 라벨이 우량품 라벨로 변경된다. 또, 유저가, 추가 교사 데이터 D4에 우량품 라벨을 부여해야 할지, 불량품 라벨을 부여해야 할 지가 판단이 애매한 경우, 유저는, 입력 영역(613)을 눌러 내릴 수도 있다. 이 경우, 변경부(28)는, 이 추가 교사 데이터 D4가, 교사 데이터 D2에 추가되는 것을 해제해도 좋다.
변경부(28)는, 변경 처리(S580)로서, 추가 교사 데이터 D4에 부여되어 있는 라벨을 변경한다. 변경부(28)는, 유저 조작에 근거하여, 추가 교사 데이터 D4에 부여되어 있는 라벨을 변경한다. 변경 후, 선택부(25)는 선택된 추가 교사 데이터 D4를 교사 데이터 D2에 추가한다. 그리고, 다시 S500~S570의 처리가 반복된다.
선택부(25)에 의해 교사 데이터 D2로서 선택 가능한 교사 후보 데이터 D3가 존재하지 않다고 판정된 경우(S550:추가 교사 데이터가 부존재), 선택부(25)는, 통지 처리(S590)로서, 추가 교사 데이터 D4가 존재하지 않다는 취지를, 표시부(26)를 통하여 유저에게 통지한다. 선택부(25)는, 소정의 시간, 표시부(26)의 화면 표시를 제어하여 추가 교사 데이터 D4가 존재하지 않다는 취지를 유저에게 통지하고, 소정의 시간 경과 후, 도 8의 흐름도를 종료한다.
[프로그램]
학습 지원 장치(20)로서 기능시키기 위한 학습 지원 프로그램을 설명한다. 학습 지원 프로그램은, 메인 모듈, 취득 모듈, 도출 모듈, 산출 모듈 및 선택 모듈을 구비하고 있다. 메인 모듈은, 장치를 총괄적으로 제어하는 부분이다. 취득 모듈, 도출 모듈, 산출 모듈 및 선택 모듈을 실행시키는 것에 의해 실현되는 기능은, 상술한 학습 지원 장치(20)의 교사 데이터 취득부(21), 교사 후보 데이터 취득부(22), 도출부(23), 산출부(24) 및 선택부(25)의 기능과 각각 같다.
[실시 형태의 요약]
본 실시 형태의 학습 지원 장치(20)에 의하면, 교사 데이터 취득부(21) 및 교사 후보 데이터 취득부(22)는, 교사 데이터 D2 및 교사 후보 데이터 D3을 취득한다. 도출부(23)는, 교사 데이터 D2를 이용하여 학습된 모델 M3에 근거하여, 특징량을 교사 데이터 D2마다, 및, 교사 후보 데이터 D3마다 도출한다. 산출부(24)는, 교사 후보 데이터 D3마다, 우량품 거리 E(OK,s) 및 불량품 거리 E(NG,s) 중 적어도 한쪽을 산출한다. 선택부(25)는, 산출부(24)에 의해 산출된 거리(우량품 거리 E(OK,s) 및 불량품 거리 E(NG,s) 중 적어도 한쪽)에 근거하여, 교사 후보 데이터 D3 중에서 추가 교사 데이터 D4를 선택한다. 모델 M1, M2, M3의 일례인 뉴럴 네트워크(400)에 있어서의 가중 계수의 학습으로서, 뉴럴 네트워크(400)가 용이하게 식별할 수 없는 교사 후보 데이터 D3은 학습 효과가 높고, 학습에 필요로 하는 시간을 단축시킬 수가 있다. 이 때문에, 선택부(25)는, 학습 효과의 고저에 근거하여 교사 후보 데이터 D3 중에서 교사 데이터 D2로서 추가하는 데이터를 선택하는 것이 요구된다. 학습 효과가 높은 교사 후보 데이터 D3이란, 특징 공간에 있어서 우량품 데이터 OK에 근접하는, 불량품 라벨이 부여된 교사 후보 데이터, 또는, 특징 공간에 있어서 불량품 데이터 NG에 근접하는, 우량품 라벨이 부여된 교사 후보 데이터이다. 선택부(25)가, 산출부(24)에 의해 산출된 우량품 거리 E(OK,s) 및 불량품 거리 E(NG,s) 중 적어도 한쪽을 지표로 하는 것에 의해, 학습 효과의 고저에 근거하여 교사 후보 데이터 D3 중에서 교사 데이터 D2로서 추가하는 데이터를 선택하는 처리의 효율성을 향상시킬 수가 있다. 따라서, 이 학습 지원 장치(20)는, 모델 M1의 학습을 적절히 지원할 수 있다. 또한, 학습 지원 방법 및 학습 지원 프로그램도 상기와 같은 효과가 얻어진다.
학습 장치(10)는, 선택부(25)에 의해 선택된 학습 효과가 높은 교사 데이터 D2를 이용하여, 모델 M1(뉴럴 네트워크(400)에 있어서의 가중 계수)의 효율적인 학습을 행할 수 있다.
선택부(25)는, 불량품 라벨이 부여된 교사 후보 데이터의 우량품 거리 E(OK,s)가 짧을수록 해당 교사 후보 데이터가 적어도 1개의 교사 후보 데이터 D3 중에서 선택될 확률을 높인다. 이 경우, 선택부(25)는, 특징 공간에 있어서 우량품 데이터 OK에 근접하는, 불량품 라벨이 부여된 학습 효과가 높은 교사 후보 데이터를 교사 데이터 D2로서 취득할 수 있다.
선택부(25)는, 우량품 라벨이 부여된 교사 후보 데이터 D3의 불량품 거리 E(NG,s)가 짧을수록 해당 교사 후보 데이터가 적어도 1개의 교사 후보 데이터 중에서 선택될 확률을 높인다. 이 경우, 선택부(25)는, 특징 공간에 있어서 불량품 데이터 NG에 근접하는, 우량품 라벨이 부여된 학습 효과가 높은 교사 후보 데이터 D3을 교사 데이터 D2로서 취득할 수 있다.
선택부(25)는, 교사 후보 데이터 D3마다, 우량품 거리 E(OK,s) 및 불량품 거리 E(NG,s)를 이용하여 산출된 평가치 Es에 근거하여 적어도 1개의 교사 후보 데이터 D3 중에서 추가 교사 데이터 D4를 선택한다. 선택부(25)는, 우량품 거리 E(OK,s) 및 불량품 거리 E(NG,s)의 쌍방을 이용하는 것으로, 뉴럴 네트워크(400)에 대해서 학습 효과가 높은 교사 후보 데이터 D3을 교사 데이터 D2로서 선택하는 처리의 효율성을 향상시킬 수가 있다.
학습 장치(10) 및 학습 지원 장치(20)는, 선택부(25)에서 선택된 교사 후보 데이터 D3을 표시하는 표시부(26)를 더 구비하는 것에 의해, 유저는 학습 효과가 높은 교사 후보 데이터 D3을 인식할 수 있다.
또, 학습 지원 장치(20)는, 유저 조작의 입력을 접수하는 입력부(27)와, 입력부(27)에, 표시부(26)에 표시되어 있는 교사 후보 데이터 D3에 부여되어 있는 라벨을 변경하기 위한 유저 조작이 입력된 경우, 교사 후보 데이터 D3에 부여되어 있는 라벨을 변경하는 변경부(28)를 더 구비한다. 이것에 의해, 유저는, 표시부(26)를 확인하면서 교사 후보 데이터 D3에 미리 부여된 우량품 라벨 또는 불량품 라벨의 수정을 행할 수 있다.
또, 선택부(25)는, 거리에 근거하여, 적어도 1개의 교사 후보 데이터 D3 중에서 교사 데이터 D2로서 추가하는 데이터(추가 교사 데이터 D4)가 존재하지 않다고 판정한 경우, 표시부(26)로 하여금 해당 판정 결과를 표시하게 한다. 이 경우, 뉴럴 네트워크(400)에 대해서 학습시키는 추가 교사 데이터 D4가 없는 것을 유저가 인식할 수 있고, 가중 계수의 학습을 종료시킬지 여부를 용이하게 판정할 수 있다.
이상, 본 개시의 실시 형태에 대해 설명했지만, 본 개시는, 상술한 실시 형태로 한정되는 것은 아니다. 상술의 실시 형태에서는, 학습 장치(10)와 학습 지원 장치(20)가 물리적 또는 논리적으로 분리된 구성에 대해 설명했지만, 학습 장치(10)와 학습 지원 장치(20)는 통합되고, 물리적 또는 논리적으로 일체화되어도 좋다. 즉, 학습 장치(10)는, 학습 지원 장치(20)를 포함하는 구성이어도 좋다.
학습 지원 장치(20)의 각 구성 요소는, 구성 요소 각각의 기능에 대응하는 장치가 통신 네트워크를 통하여 접속된 집합체로서 구성되어도 좋다.
학습 지원 장치(20)가 표시부(26)를 구비하고 있지 않은 경우, 학습 지원 방법은 표시 처리(S560)를 실시하지 않아도 좋다. 학습 지원 장치(20)가 입력부(27) 및 변경부(28)를 구비하고 있지 않은 경우, 학습 지원 방법은, 입력 판정 처리(S570)를 실시하지 않아도 좋다.
10…학습 장치, 11…학습부, 20…학습 지원 장치, 21…교사 데이터 취득부, 22…교사 후보 데이터 취득부, 23…도출부, 24…산출부, 25…선택부, 26…표시부, 27…입력부, 28…변경부, 400…뉴럴 네트워크
Claims (10)
- 제 1 라벨이 부여된 제 1 데이터 및 제 2 라벨이 부여된 제 2 데이터를 갖는 교사 데이터를 취득하는 교사 데이터 취득부와,
상기 제 1 라벨 및 상기 제 2 라벨 중 어느 하나가 각각 부여된 적어도 1개의 교사 후보 데이터를 취득하는 교사 후보 데이터 취득부와,
대상 데이터를 상기 제 1 라벨 및 상기 제 2 라벨 중 어느 하나로 분류하도록 상기 교사 데이터를 이용하여 학습된 모델과, 상기 교사 데이터에 근거하여, 미리 정해진 차원의 특징 공간으로 표현되는 상기 교사 데이터의 특징량을 상기 교사 데이터마다 도출함과 아울러, 상기 모델과 상기 적어도 1개의 교사 후보 데이터에 근거하여 상기 특징 공간으로 표현되는 상기 교사 후보 데이터의 특징량을 상기 교사 후보 데이터마다 도출하는 도출부와,
상기 교사 데이터의 상기 특징량과 상기 적어도 1개의 교사 후보 데이터의 특징량에 근거하여, 상기 교사 후보 데이터와 상기 제 1 데이터의 상기 특징 공간에 있어서의 거리인 제 1 거리, 및, 상기 교사 후보 데이터와 상기 제 2 데이터의 상기 특징 공간에 있어서의 상기 거리인 제 2 거리 중 적어도 한쪽을 상기 교사 후보 데이터마다 산출하는 산출부와,
상기 산출부에 의해 산출된 상기 교사 후보 데이터마다의 상기 거리에 근거하여, 상기 적어도 1개의 교사 후보 데이터 중에서 상기 교사 데이터로서 추가하는 데이터를 선택하는 선택부
를 구비하는 학습 지원 장치. - 제 1 항에 있어서,
상기 선택부는, 상기 제 2 라벨이 부여된 상기 교사 후보 데이터의 상기 제 1 거리가 짧을수록 해당 교사 후보 데이터가 상기 적어도 1개의 교사 후보 데이터 중에서 선택될 확률을 높이는 학습 지원 장치. - 제 1 항에 있어서,
상기 선택부는, 상기 제 1 라벨이 부여된 상기 교사 후보 데이터의 상기 제 2 거리가 짧을수록 해당 교사 후보 데이터가 상기 적어도 1개의 교사 후보 데이터 중에서 선택될 확률을 높이는 학습 지원 장치. - 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
상기 산출부는, 상기 교사 후보 데이터마다, 상기 제 1 거리 및 상기 제 2 거리를 이용하여 평가치를 산출하고,
상기 선택부는, 상기 교사 후보 데이터마다의 상기 평가치에 근거하여, 상기 적어도 1개의 교사 후보 데이터 중에서 상기 교사 데이터로서 추가하는 데이터를 선택하는 학습 지원 장치. - 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
상기 선택부에서 선택된 상기 데이터를 표시하는 표시부를 더 구비하는 학습 지원 장치. - 제 5 항에 있어서,
유저 조작의 입력을 접수하는 입력부와,
상기 입력부에, 상기 표시부에서 표시되어 있는 상기 데이터에 부여되어 있는 라벨을 변경하기 위한 유저 조작이 입력된 경우, 상기 데이터에 부여되어 있는 라벨을 변경하는 변경부
를 더 구비하는 학습 지원 장치. - 제 5 항에 있어서,
상기 선택부는, 상기 제 1 거리 및 상기 제 2 거리에 근거하여, 상기 적어도 1개의 교사 후보 데이터 중에서 상기 교사 데이터로서 추가하는 데이터가 존재하지 않다고 판정한 경우, 상기 표시부로 하여금 해당 판정 결과를 표시하게 하는 학습 지원 장치. - 제 1 라벨이 부여된 제 1 데이터 및 제 2 라벨이 부여된 제 2 데이터를 갖는 교사 데이터를 취득하는 교사 데이터 취득부와,
상기 제 1 라벨 및 상기 제 2 라벨 중 어느 하나가 각각 부여된 적어도 1개의 교사 후보 데이터를 취득하는 교사 후보 데이터 취득부와,
대상 데이터를 상기 제 1 라벨 및 상기 제 2 라벨 중 어느 하나로 분류하도록 상기 교사 데이터를 이용하여 학습된 모델과, 상기 교사 데이터에 근거하여, 미리 정해진 차원의 특징 공간으로 표현되는 상기 교사 데이터의 특징량을 상기 교사 데이터마다 도출함과 아울러, 상기 모델과 상기 적어도 1개의 교사 후보 데이터에 근거하여 상기 특징 공간으로 표현되는 특징량을 상기 교사 후보 데이터마다 도출하는 도출부와,
상기 교사 데이터의 상기 특징량과 상기 적어도 1개의 교사 후보 데이터의 특징량에 근거하여, 상기 교사 후보 데이터와 상기 제 1 데이터의 상기 특징 공간에 있어서의 거리인 제 1 거리, 및, 상기 교사 후보 데이터와 상기 제 2 데이터의 상기 특징 공간에 있어서의 상기 거리인 제 2 거리 중 적어도 한쪽을 상기 교사 후보 데이터마다 산출하는 산출부와,
상기 산출부에 의해 산출된 상기 교사 후보 데이터마다의 상기 거리에 근거하여, 상기 적어도 1개의 교사 후보 데이터 중에서 상기 교사 데이터로서 추가하는 데이터를 선택하는 선택부와,
상기 선택부에 의해 선택된 상기 데이터를 이용하여 상기 모델을 학습하는 학습부
를 구비하는 학습 장치. - 제 1 라벨이 부여된 제 1 데이터, 및 제 2 라벨이 부여된 제 2 데이터를 갖는 교사 데이터, 및, 상기 제 1 라벨 및 상기 제 2 라벨 중 어느 하나가 각각 부여된 적어도 1개의 교사 후보 데이터를 취득하는 제 1 공정과,
대상 데이터를 상기 제 1 라벨 및 상기 제 2 라벨 중 어느 하나로 분류하도록 상기 교사 데이터를 이용하여 학습된 모델과, 상기 교사 데이터에 근거하여, 미리 정해진 차원의 특징 공간으로 표현되는 상기 교사 데이터의 특징량을 상기 교사 데이터마다 도출함과 아울러, 상기 모델과 상기 적어도 1개의 교사 후보 데이터에 근거하여 상기 특징 공간으로 표현되는 상기 교사 후보 데이터의 특징량을 상기 교사 후보 데이터마다 도출하는 제 2 공정과,
상기 교사 데이터의 상기 특징량과 상기 적어도 1개의 교사 후보 데이터의 특징량에 근거하여, 상기 교사 후보 데이터와 상기 제 1 데이터의 상기 특징 공간에 있어서의 거리인 제 1 거리, 및, 상기 교사 후보 데이터와 상기 제 2 데이터의 상기 특징 공간에 있어서의 상기 거리인 제 2 거리 중 적어도 한쪽을 상기 교사 후보 데이터마다 산출하는 제 3 공정과,
상기 제 3 공정에 있어서 산출된 상기 교사 후보 데이터마다의 상기 거리에 근거하여, 상기 적어도 1개의 교사 후보 데이터 중에서 상기 교사 데이터로서 추가하는 데이터를 선택하는 제 4 공정
을 구비하는 학습 지원 방법. - 컴퓨터를, 청구항 1 내지 청구항 7 중 어느 한 항에 기재된 학습 지원 장치로서 기능시키기 위한 학습 지원 프로그램.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JPJP-P-2019-233202 | 2019-12-24 | ||
JP2019233202A JP7298825B2 (ja) | 2019-12-24 | 2019-12-24 | 学習支援装置、学習装置、学習支援方法及び学習支援プログラム |
PCT/JP2020/047527 WO2021132099A1 (ja) | 2019-12-24 | 2020-12-18 | 学習支援装置、学習装置、学習支援方法及び学習支援プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220084136A true KR20220084136A (ko) | 2022-06-21 |
Family
ID=76574672
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020227016503A KR20220084136A (ko) | 2019-12-24 | 2020-12-18 | 학습 지원 장치, 학습 장치, 학습 지원 방법 및 학습 지원 프로그램 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220405605A1 (ko) |
JP (1) | JP7298825B2 (ko) |
KR (1) | KR20220084136A (ko) |
CN (1) | CN114616573A (ko) |
WO (1) | WO2021132099A1 (ko) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117597697A (zh) * | 2021-07-07 | 2024-02-23 | 三菱电机株式会社 | 数据处理装置以及数据处理方法 |
CN113743446A (zh) * | 2021-07-15 | 2021-12-03 | 上海朋熙半导体有限公司 | 模型训练数据处理方法、装置、计算机设备和存储介质 |
WO2023047545A1 (ja) * | 2021-09-24 | 2023-03-30 | ファナック株式会社 | 追加学習データ選定装置及びコンピュータ読み取り可能な記録媒体 |
JP7502808B2 (ja) | 2022-06-24 | 2024-06-19 | 株式会社 東京ウエルズ | 学習装置、学習方法及び学習プログラム |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016143354A (ja) | 2015-02-04 | 2016-08-08 | エヌ・ティ・ティ・コムウェア株式会社 | 学習装置、学習方法、およびプログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6118752B2 (ja) | 2014-03-28 | 2017-04-19 | セコム株式会社 | 学習データ生成装置 |
JP6306528B2 (ja) | 2015-03-03 | 2018-04-04 | 株式会社日立製作所 | 音響モデル学習支援装置、音響モデル学習支援方法 |
US20160350336A1 (en) | 2015-05-31 | 2016-12-01 | Allyke, Inc. | Automated image searching, exploration and discovery |
US10878320B2 (en) | 2015-07-22 | 2020-12-29 | Qualcomm Incorporated | Transfer learning in neural networks |
JP6969468B2 (ja) | 2018-03-22 | 2021-11-24 | 沖電気工業株式会社 | 画像処理装置、画像処理方法、プログラムおよび画像処理システム |
JP7153477B2 (ja) | 2018-06-13 | 2022-10-14 | 日本放送協会 | 情報判定モデル学習装置およびそのプログラム |
-
2019
- 2019-12-24 JP JP2019233202A patent/JP7298825B2/ja active Active
-
2020
- 2020-12-18 CN CN202080074603.XA patent/CN114616573A/zh active Pending
- 2020-12-18 KR KR1020227016503A patent/KR20220084136A/ko unknown
- 2020-12-18 WO PCT/JP2020/047527 patent/WO2021132099A1/ja active Application Filing
- 2020-12-18 US US17/776,889 patent/US20220405605A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016143354A (ja) | 2015-02-04 | 2016-08-08 | エヌ・ティ・ティ・コムウェア株式会社 | 学習装置、学習方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN114616573A (zh) | 2022-06-10 |
JP7298825B2 (ja) | 2023-06-27 |
WO2021132099A1 (ja) | 2021-07-01 |
US20220405605A1 (en) | 2022-12-22 |
JP2021103344A (ja) | 2021-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20220084136A (ko) | 학습 지원 장치, 학습 장치, 학습 지원 방법 및 학습 지원 프로그램 | |
US10832128B2 (en) | Transfer learning apparatus, transfer learning system, transfer learning method, and recording medium | |
US10762391B2 (en) | Learning device, learning method, and storage medium | |
US9886669B2 (en) | Interactive visualization of machine-learning performance | |
WO2020019612A1 (zh) | 医疗影像处理方法及装置、电子设备及存储介质 | |
KR102127153B1 (ko) | 사이클 gan과 세그맨테이션을 사용한 깊이 추정 방법 및 시스템 | |
CN112085041B (zh) | 神经网络的训练方法、训练装置和电子设备 | |
EP3598288A1 (en) | System and method for generating photorealistic synthetic images based on semantic information | |
JP6722351B2 (ja) | 学習装置、画像認識装置、学習方法及びプログラム | |
CN111783505A (zh) | 伪造人脸的识别方法、装置和计算机可读存储介质 | |
JP2015087903A (ja) | 情報処理装置及び情報処理方法 | |
CN113111968B (zh) | 图像识别模型训练方法、装置、电子设备和可读存储介质 | |
US11335107B2 (en) | Generating file name using machine-learned model that relearns | |
TWI443601B (zh) | 擬真臉部動畫系統及其方法 | |
CN109739869B (zh) | 模型运行报告生成方法及系统 | |
WO2019176989A1 (ja) | 検査システム、識別システム、及び学習データ生成装置 | |
WO2021097156A1 (en) | Occlusion-aware indoor scene analysis | |
CN115861400B (zh) | 目标对象检测方法、训练方法、装置以及电子设备 | |
CN110945537A (zh) | 训练装置、识别装置、训练方法、识别方法和程序 | |
KR20230068941A (ko) | 딥러닝 학습 기법을 이용하는 유사도 기반 클러스터링 장치 및 그 방법 | |
CN111414930A (zh) | 深度学习模型训练方法及装置、电子设备及存储介质 | |
CN113240699A (zh) | 图像处理方法及装置,模型的训练方法及装置,电子设备 | |
CN115953330A (zh) | 虚拟场景图像的纹理优化方法、装置、设备和存储介质 | |
JP2006260410A (ja) | 画像処理アルゴリズムの評価装置、生成装置、評価方法、生成方法、コンピュータをその評価装置として機能させるためのプログラム、およびコンピュータをその生成装置として機能させるためのプログラム | |
CN116630138B (zh) | 图像处理方法、装置、电子设备和计算机可读存储介质 |