KR102265573B1 - 인공지능 기반 입시 수학 학습 커리큘럼 재구성 방법 및 시스템 - Google Patents

인공지능 기반 입시 수학 학습 커리큘럼 재구성 방법 및 시스템 Download PDF

Info

Publication number
KR102265573B1
KR102265573B1 KR1020200126842A KR20200126842A KR102265573B1 KR 102265573 B1 KR102265573 B1 KR 102265573B1 KR 1020200126842 A KR1020200126842 A KR 1020200126842A KR 20200126842 A KR20200126842 A KR 20200126842A KR 102265573 B1 KR102265573 B1 KR 102265573B1
Authority
KR
South Korea
Prior art keywords
learning
training
server
neural network
data
Prior art date
Application number
KR1020200126842A
Other languages
English (en)
Inventor
강기원
차주현
김윤강
Original Assignee
주식회사 팀기원매스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 팀기원매스 filed Critical 주식회사 팀기원매스
Priority to KR1020200126842A priority Critical patent/KR102265573B1/ko
Application granted granted Critical
Publication of KR102265573B1 publication Critical patent/KR102265573B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06K9/00442
    • G06K9/62
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Strategic Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Marketing (AREA)
  • Data Mining & Analysis (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

일실시에에 따르면, 입시 수학 학습 커리큘럼 재구성 시스템에 의해 수행되는, 인공지능을 기반으로 한 입시 수학 학습 커리큘럼을 재구성 하는 방법에 있어서, 작년 주요 입시 시험 및 모의 시험의 해설 텍스트를 획득하는 단계; 상기 해설 텍스트에 기초하여, 숫자, 연산 기호, 한글 글자, 알파벳 및 로마자를 포함하는 수식을 지시하는 값들 중 상기 연산 기호를 통해 판단되어 상기 연산 기호의 전후방에 연속으로 위치하는 상기 수식을 지시하는 값들 중 가장 마지막 값을 기준으로 구분된 수식을 분류하고, 상기 연산 기호를 포함하지 않는 숫자, 한글 글자, 알파벳 및 로마자를 해설 문장으로 분류하는 단계; 상기 해설 문장에 기초하여, 범위를 지시하기 적합한 단어들을 데이터베이스로부터 검색하여, 문제의 해설이 포함하는 범위를 추론할 수 있는 단어들을 통해 범위 추론 단어를 추출하는 단계; 상기 수식에 기초하여, 상기 수식에 대한 다차원의 벡터로, one-hot 벡터 및 실수 벡터 중 어느 하나의 형태로 정의된 제1 연산 벡터를 생성하는 단계; 상기 범위 추론 단어에 기초하여, 상기 범위 추론 단어의 가중 합이 적용된 다차원의 벡터로, one-hot 벡터 및 실수 벡터 중 어느 하나의 형태로 정의된 제2 연산 벡터를 생성하는 단계; 상기 해설 텍스트를 입력으로 문항 범위를 획득할 수 있도록 미리 학습된 제1 인공 신경망 및 제2 인공 신경망에 각각 상기 제1 연산 벡터 및 상기 제2 연산 벡터를 입력하는 단계; 상기 제1 인공 신경망 및 상기 제2 인공 신경망으로부터 각각 제1 출력 및 제2 출력을 획득하는 단계; 상기 제1 출력 및 제2 출력에 기초하여, 상기 문항 범위를 획득하는 단계; 상기 해설 텍스트에 기초하여, 분석 객체들을 식별하고, 상기 식별된 분석 객체들을 종류 별로 추출하는 단계; 상기 추출된 분석 객체들에 기초하여, 좌표계가 있는 도형을 그래프 객체로 분류하고, 연속적으로 이어지는 사각형이 있는 도형을 표 객체로 분류하고, 좌표계가 없고 연속적으로 이어지는 사각형이 없는 도형을 도형 객체로 분류하고, 상기 그래프 객체, 상기 도형 객체 및 상기 표 객체를 제외한 나머지를 해설 객체로 분류하여, 상기 분석 객체들을 상기 해설 객체, 상기 그래프 객체, 상기 도형 객체 및 상기 표 객체 중 어느 하나로 각각 분류하는 단계; 상기 해설 객체, 상기 그래프 객체, 상기 도형 객체 및 상기 표 객체에 기초하여, 상기 해설 객체, 상기 그래프 객체, 상기 도형 객체 및 상기 표 객체에 대응하는 제3 연산 벡터를 생성하는 단계; 상기 해설 텍스트로부터 각 요구 학습 능력-상기 요구 학습 능력은 수학 문제를 푸는 데에 요구되는 학습 능력을 분류한 것으로서 암산력, 문제이해력, 추론능력, 암기력 및 공간지각능력을 포함하고 학습 능력들의 종류에 따라 5단계로 구분된 난이도를 포함함-을 분류하고 상기 요구 학습 능력의 난이도를 평가할 수 있도록 미리 학습된 제3 인공 신경망에 상기 제3 연산 벡터를 적용하여 제3 출력을 획득하는 단계; 상기 요구 학습 능력을 설명하는 변수들로 설계되고 상기 요구 학습 능력의 난이도에 따라 이산적으로 설계된 상기 제3 출력에 기초하여, 상기 요구 학습 능력의 종류 중 어느 하나로 분류된 상기 해설 텍스트에 대응하는 상기 요구 학습 능력을 획득하는 단계; 무작위 풀이 과정 표본-상기 무작위 풀이 과정 표본은 무작위로 추출한 100명의 사람으로부터 획득한 주요 입시 시험 및 모의 시험의 풀이 과정을 포함함-의 풀이 과정 이미지를 획득하고, 상기 풀이 과정 이미지에 기초하여, 텍스트를 식별하는 시각적인 요소를 추출하고 상기 추출된 시각적인 요소를 특징으로 정의하고 상기 정의된 특징으로부터 텍스트를 식별하는 이미지 처리를 통해 상기 풀이 과정 이미지로부터 텍스트 정보를 획득하고, 상기 텍스트 정보에 기초하여, 상기 무작위 풀이 과정 표본의 대상자가 직접 푼 풀이 과정 중에 풀이가 틀린 부분의 문항 범위인 틀린 문항 범위 및 상기 무작위 풀이 과정 표본의 대상자가 직접 푼 풀이 과정 중에 풀이가 틀린 부분에서의 요구 학습 능력인 부족 학습 능력을 획득하는 단계; 상기 틀린 문항 범위, 상기 부족 학습 능력, 상기 문항 범위 및 상기 요구 학습 능력에 기초하여, 상기 틀린 문항 범위 및 상기 부족 학습 능력을 통해 학생들의 학습 수준을 평가하여, 상기 평가된 학습 수준에 따라 세부 문항 범위 별로 보충 학습 필요 점수를 산출하고, 상기 문항 범위 및 상기 요구 학습 능력을 통해 시험 출제 가능성을 평가하여, 상기 평가된 시험 출제 가능성에 따라 세부 문항 범위 별로 심화 학습 필요 점수를 산출하는 단계; 및 상기 틀린 문항 범위, 상기 부족 학습 능력, 상기 문항 범위 및 상기 요구 학습 능력 사이의 연관 관계를 고려하여, 상기 보충 학습 필요 점수 및 상기 심화 학습 필요 점수를 합산한 점수가 높은 순으로 세부 문항 범위의 우선 순위를 설정하여 수학 학습 커리큘럼을 생성하는 단계를 포함하는, 인공지능 기반 입시 수학 학습 커리큘럼 재구성 방법이 제공된다.

Description

인공지능 기반 입시 수학 학습 커리큘럼 재구성 방법 및 시스템{METHOD AND SYSTEM FOR RECONSTRUCTING MATHEMATICS LEARNING CURRICULUM BASED ON ARTIFICIAL INTELLIGENCE}
아래 실시예들은 인공지능 기반 입시 수학 학습 커리큘럼 재구성 방법 및 시스템에 관한 것이다.
입시 수학 학습의 커리큘럼은 대부분 교과서의 순서를 그대로 따른다. 본인들만의 수학 학습 커리큘럼을 가진 곳들의 경우도 대부분 강사의 재량에 따라 커리큘럼이 정해지기 때문에 실제 입시를 제대로 반영하지 못한다. 따라서 지난 입시 시험 및 모의고사들로부터 정보를 추출하고, 학생들이 실제로 어려워하는 영역을 분석해 수학 학습의 커리큘럼을 짤 수 있는 인공지능을 이용한 방법의 연구가 요구된다.
KR 20100128696 A KR 101180235 B1 KR 101977038 B1 KR 101568028 B1
실시예들은 지난 입시 시험 및 모의 시험으로부터 실제적으로 학습에 필요한 정보를 추출하고자 한다.
실시예들은 학습에 필요한 능력을 세분화하여 보다 구체적인 학습 커리큘럼을 제공하고자 한다.
실시예들은 학습자들의 실제 풀이 과정으로부터 학습자들을 위한 맞춤형 학습 커리큘럼을 제공하고자 한다.
일실시예에 따르면, 입시 수학 학습 커리큘럼 재구성 시스템에 의해 수행되는, 인공지능을 기반으로 한 입시 수학 학습 커리큘럼을 재구성 하는 방법에 있어서, 작년 주요 입시 시험 및 모의 시험의 해설 텍스트를 획득하는 단계; 상기 해설 텍스트에 기초하여, 숫자, 연산 기호, 한글 글자, 알파벳 및 로마자를 포함하는 수식을 지시하는 값들 중 상기 연산 기호를 통해 판단되어 상기 연산 기호의 전후방에 연속으로 위치하는 상기 수식을 지시하는 값들 중 가장 마지막 값을 기준으로 구분된 수식을 분류하고, 상기 연산 기호를 포함하지 않는 숫자, 한글 글자, 알파벳 및 로마자를 해설 문장으로 분류하는 단계; 상기 해설 문장에 기초하여, 범위를 지시하기 적합한 단어들을 데이터베이스로부터 검색하여, 문제의 해설이 포함하는 범위를 추론할 수 있는 단어들을 통해 범위 추론 단어를 추출하는 단계; 상기 수식에 기초하여, 상기 수식에 대한 다차원의 벡터로, one-hot 벡터 및 실수 벡터 중 어느 하나의 형태로 정의된 제1 연산 벡터를 생성하는 단계; 상기 범위 추론 단어에 기초하여, 상기 범위 추론 단어의 가중 합이 적용된 다차원의 벡터로, one-hot 벡터 및 실수 벡터 중 어느 하나의 형태로 정의된 제2 연산 벡터를 생성하는 단계; 상기 해설 텍스트를 입력으로 문항 범위를 획득할 수 있도록 미리 학습된 제1 인공 신경망 및 제2 인공 신경망에 각각 상기 제1 연산 벡터 및 상기 제2 연산 벡터를 입력하는 단계; 상기 제1 인공 신경망 및 상기 제2 인공 신경망으로부터 각각 제1 출력 및 제2 출력을 획득하는 단계; 상기 제1 출력 및 제2 출력에 기초하여, 상기 문항 범위를 획득하는 단계; 상기 해설 텍스트에 기초하여, 분석 객체들을 식별하고, 상기 식별된 분석 객체들을 종류 별로 추출하는 단계; 상기 추출된 분석 객체들에 기초하여, 좌표계가 있는 도형을 그래프 객체로 분류하고, 연속적으로 이어지는 사각형이 있는 도형을 표 객체로 분류하고, 좌표계가 없고 연속적으로 이어지는 사각형이 없는 도형을 도형 객체로 분류하고, 상기 그래프 객체, 상기 도형 객체 및 상기 표 객체를 제외한 나머지를 해설 객체로 분류하여, 상기 분석 객체들을 상기 해설 객체, 상기 그래프 객체, 상기 도형 객체 및 상기 표 객체 중 어느 하나로 각각 분류하는 단계; 상기 해설 객체, 상기 그래프 객체, 상기 도형 객체 및 상기 표 객체에 기초하여, 상기 해설 객체, 상기 그래프 객체, 상기 도형 객체 및 상기 표 객체에 대응하는 제3 연산 벡터를 생성하는 단계; 상기 해설 텍스트로부터 각 요구 학습 능력-상기 요구 학습 능력은 수학 문제를 푸는 데에 요구되는 학습 능력을 분류한 것으로서 암산력, 문제이해력, 추론능력, 암기력 및 공간지각능력을 포함하고 학습 능력들의 종류에 따라 5단계로 구분된 난이도를 포함함-을 분류하고 상기 요구 학습 능력의 난이도를 평가할 수 있도록 미리 학습된 제3 인공 신경망에 상기 제3 연산 벡터를 적용하여 제3 출력을 획득하는 단계; 상기 요구 학습 능력을 설명하는 변수들로 설계되고 상기 요구 학습 능력의 난이도에 따라 이산적으로 설계된 상기 제3 출력에 기초하여, 상기 요구 학습 능력의 종류 중 어느 하나로 분류된 상기 해설 텍스트에 대응하는 상기 요구 학습 능력을 획득하는 단계; 무작위 풀이 과정 표본-상기 무작위 풀이 과정 표본은 무작위로 추출한 100명의 사람으로부터 획득한 주요 입시 시험 및 모의 시험의 풀이 과정을 포함함-의 풀이 과정 이미지를 획득하고, 상기 풀이 과정 이미지에 기초하여, 텍스트를 식별하는 시각적인 요소를 추출하고 상기 추출된 시각적인 요소를 특징으로 정의하고 상기 정의된 특징으로부터 텍스트를 식별하는 이미지 처리를 통해 상기 풀이 과정 이미지로부터 텍스트 정보를 획득하고, 상기 텍스트 정보에 기초하여, 상기 무작위 풀이 과정 표본의 대상자가 직접 푼 풀이 과정 중에 풀이가 틀린 부분의 문항 범위인 틀린 문항 범위 및 상기 무작위 풀이 과정 표본의 대상자가 직접 푼 풀이 과정 중에 풀이가 틀린 부분에서의 요구 학습 능력인 부족 학습 능력을 획득하는 단계; 상기 틀린 문항 범위, 상기 부족 학습 능력, 상기 문항 범위 및 상기 요구 학습 능력에 기초하여, 상기 틀린 문항 범위 및 상기 부족 학습 능력을 통해 학생들의 학습 수준을 평가하여, 상기 평가된 학습 수준에 따라 세부 문항 범위 별로 보충 학습 필요 점수를 산출하고, 상기 문항 범위 및 상기 요구 학습 능력을 통해 시험 출제 가능성을 평가하여, 상기 평가된 시험 출제 가능성에 따라 세부 문항 범위 별로 심화 학습 필요 점수를 산출하는 단계; 및 상기 틀린 문항 범위, 상기 부족 학습 능력, 상기 문항 범위 및 상기 요구 학습 능력 사이의 연관 관계를 고려하여, 상기 보충 학습 필요 점수 및 상기 심화 학습 필요 점수를 합산한 점수가 높은 순으로 세부 문항 범위의 우선 순위를 설정하여 수학 학습 커리큘럼을 생성하는 단계를 포함하며, 상기 제1 인공 신경망은, 상기 문항 범위에 따라 레이블링된 제1 트레이닝 해설 텍스트들에서 분류된 수식들에 기초하여 제1 트레이닝 연산 벡터들이 생성되고, 상기 제1 트레이닝 연산 벡터들을 통해 제1 트레이닝 출력들이 획득되면, 상기 제1 트레이닝 출력들과 상기 제1 트레이닝 해설 텍스트들 및 상기 제1 트레이닝 해설 텍스트들에 대응하는 문항 범위에 기초하여 정의된 제1 레이블들의 차이에 기초하여 학습되고, 상기 제2 인공 신경망은 상기 제1 트레이닝 해설 텍스트들에서 분류된 해설 문장들에 기초하여 범위 추론 단어들이 추출되고, 상기 범위 추론 단어들에 기초하여 제2 트레이닝 연산 벡터들이 생성되고, 상기 제2 트레이닝 연산 벡터들을 통해 제2 트레이닝 출력들이 획득되면, 상기 제2 트레이닝 출력들과 상기 제1 트레이닝 해설 텍스트들 및 상기 제1 트레이닝 해설 텍스트들에 대응하는 문항 범위에 기초하여 정의된 제2 레이블들의 차이에 기초하여 학습되고, 상기 제3 인공 신경망은 상기 요구 학습 능력에 따라 레이블링된 제2 트레이닝 해설 텍스트들에 기초하여 분석 객체들이 식별되고, 상기 분석 객체들에 기초하여 해설 객체들, 그래프 객체들, 도형 객체들 및 표 객체들이 각각 분류되고, 상기 해설 객체들, 상기 그래프 객체들, 상기 도형 객체들 및 상기 표 객체들에 기초하여 제3 트레이닝 연산 벡터들이 생성되고, 상기 제3 트레이닝 연산 벡터들을 통해 제3 트레이닝 출력들이 획득되면, 상기 제3 트레이닝 출력들과 상기 제2 트레이닝 해설 텍스트들 및 상기 제2 트레이닝 해설 텍스트들에 대응하는 요구 학습 능력에 기초하여 정의된 제3 레이블들의 차이에 기초하여 학습되는, 인공지능 기반 입시 수학 학습 커리큘럼 재구성 방법이 제공된다.
상기 틀린 문항 범위 및 상기 부족 학습 능력을 획득하는 단계는 상기 풀이 과정 이미지 내 적어도 하나의 숫자 및 문자를 포함하는 풀이 그룹 객체를 배경으로부터 분리하는 단계; 상기 풀이 그룹 객체의 공백에 기초하여 풀이 객체들을 식별하는 단계; 상기 풀이 객체들의 외관 특징들, 패턴 특징들 및 두께 특징들을 추출하는 단계; 상기 추출된 외관 특징들, 패턴 특징들 및 두께 특징들에 기초하여 제4 연산 벡터를 생성하는 단계; 상기 제4 연산 벡터를 미리 학습된 제4 인공 신경망에 적용하여 제4 출력을 획득하는 단계; 및 상기 제4 출력에 기초하여 텍스트 정보를 획득하는 단계를 포함하며, 상기 제4 인공 신경망은 상기 제4 연산 벡터를 입력으로 하는 병렬적 구성의 제1 내지 제3 컨볼루션 신경망; 및 상기 제1 내지 제3 컨볼루션 신경망의 출력을 비교하여 최적화된 텍스트 정보를 출력하는 제1 뉴럴 네트워크를 포함하고, 상기 텍스트 정보에 따라 레이블링된 트레이닝 풀이 과정 이미지들에 기초하여 외관 특징들, 패턴 특징들 및 두께 특징들이 각각 분류되고, 상기 외관 특징들, 상기 패턴 특징들 및 상기 두께 특징들에 기초하여 제4 트레이닝 연산 벡터들이 생성되고, 상기 제4 트레이닝 연산 벡터들을 통해 제4 트레이닝 출력들이 획득되면, 상기 제4 트레이닝 출력들과 상기 트레이닝 풀이 과정 이미지들 및 상기 트레이닝 풀이 과정 이미지들에 대응하는 텍스트 정보에 기초하여 정의된 제4 레이블들의 차이에 기초하여 학습될 수 있다.
상기 인공지능 기반 입시 수학 학습 커리큘럼 재구성 방법은, 상기 수학 학습 커리큘럼에 따라 학습이 진행되면, 상기 시스템에 포함된 학습 데이터 통합 관리 서버에서, 상기 시스템에 포함된 학습 데이터 통합 관리 단말로부터 학습 데이터를 수신하는 단계; 상기 학습 데이터 통합 관리 서버에서, 상기 학습 데이터로부터 식별자, 학습 시간 및 학습 범위를 포함하는 학습 통합 타겟 데이터를 추출하는 단계; 상기 학습 데이터 통합 관리 서버에서, 상기 학습 데이터 통합 관리 서버, 통합 데이터베이스 서버, 웹(web) 서버, 앱(app) 서버 및 관리자 서버를 포함하는 상기 시스템의 데이터 처리 히스토리에 기초하여 데이터 처리 효율을 지표화한 시스템 관리 효율 지수의 목표 값인 목표 시스템 관리 효율 지수를 획득하는 단계; 상기 학습 데이터 통합 관리 서버에서, 상기 학습 통합 타겟 데이터 및 상기 목표 시스템 관리 효율 지수를 제2 뉴럴 네트워크에 적용하여, 상기 학습 통합 관리 데이터의 매칭 서버, UI 노출도, 저장소, 접근 권한 및 조회 속도에 대응하는 설정 값들에 기초하여 설계된 제1 학습 데이터 통합 전략을 생성하는 단계; 상기 학습 데이터 통합 관리 서버에서, 상기 제1 학습 데이터 통합 전략을 상기 통합 데이터베이스 서버, 상기 웹(web) 서버, 상기 앱(app) 서버 및 상기 관리자 서버로 전송하는 단계; 상기 학습 데이터 통합 관리 서버에서, 상기 제1 학습 데이터 통합 전략에 따라 상기 학습 통합 타겟 데이터를 처리한 상기 통합 데이터베이스 서버, 상기 웹(web) 서버, 상기 앱(app) 서버 및 상기 관리자 서버로부터 쿼리 키워드, 보안 공격 정보, 요청 유저 정보, 요청 서버 정보, 요청 빈도 정보 및 유저 만족도 정보를 포함하는 서버 처리 히스토리 정보를 수신하는 단계; 상기 학습 데이터 통합 관리 서버에서, 상기 서버 처리 히스토리 정보 내 상기 통합 데이터베이스 서버, 상기 웹(web) 서버, 상기 앱(app) 서버 및 상기 관리자 서버 각각에 대응하는 쿼리 키워드, 보안 공격 정보, 요청 유저 정보, 요청 서버 정보, 요청 빈도 정보, 유저 만족도 정보에 기초하여, 상기 학습 데이터 처리 시스템의 총 데이터 조회 속도 지수, 총 유저 만족도 지수, 총 접근 경로 길이 지수 및 총 보안성 지수의 총 합계와 총 데이터 요청 쿼리 수를 생성하는 단계; 상기 학습 데이터 통합 관리 서버에서, 상기 생성된 총 합계 및 상기 총 데이터 요청 쿼리 수에 기초하여, 현재 시스템 관리 효율 지수를 생성하는 단계; 상기 학습 데이터 통합 관리 서버에서, 상기 학습 통합 타겟 데이터, 상기 목표 시스템 관리 효율 지수 및 상기 현재 시스템 관리 효율 지수를 제3 뉴럴 네트워크에 적용하여 제2 학습 데이터 통합 전략을 생성하는 단계; 상기 학습 데이터 통합 관리 서버에서, 상기 제2 학습 데이터 통합 전략을 상기 통합 데이터베이스 서버, 상기 웹(web) 서버, 상기 앱(app) 서버 및 상기 관리자 서버로 전송하는 단계; 상기 학습 데이터 통합 관리 서버에서, 상기 제2 학습 데이터 통합 전략에 따라 상기 학습 통합 타겟 데이터를 처리한 상기 통합 데이터베이스 서버, 상기 웹(web) 서버, 상기 앱(app) 서버 및 상기 관리자 서버로부터 제2 서버 처리 히스토리 정보를 수신하는 단계; 및 상기 학습 데이터 통합 관리 서버에서, 상기 제2 서버 처리 히스토리 정보에 기초하여 제2 현재 시스템 관리 효율 지수를 생성하고, 상기 제2 현재 시스템 관리 효율 지수와 상기 제3 뉴럴 네트워크를 이용하여 상기 제2 학습 데이터 통합 전략을 갱신하는 단계를 더 포함하며, 상기 제2 뉴럴 네트워크는 트레이닝 학습 통합 타겟 데이터들 및 트레이닝 목표 시스템 관리 효율 지수들로부터 생성되는 제1 트레이닝 학습 데이터 통합 전략들 및 제7 레이블들 차이에 기초하여 학습되고, 상기 제3 뉴럴 네트워크는 트레이닝 학습 통합 타겟 데이터들, 트레이닝 목표 시스템 관리 효율 지수들 및 트레이닝 현재 시스템 관리 효율 지수들로부터 생성되는 제2 트레이닝 학습 데이터 통합 전략들 및 제8 레이블들 차이에 기초하여 학습될 수 있다.
상기 틀린 문항 범위 및 상기 부족 학습 능력을 획득하는 단계는 상기 텍스트 정보에 기초하여, 누락된 풀이-상기 누락된 풀이는 상기 무작위 풀이 과정 표본의 풀이 과정에 누락된 풀이 과정을 의미하며, 이는 상기 무작위 풀이 과정 표본을 풀이한 대상들이 암산한 내용을 포함함-를 생성하는 단계; 상기 누락된 풀이를 추가한 텍스트 정보에 기초하여, 제5 연산 벡터를 생성하는 단계; 상기 제5 연산 벡터를 제5 인공 신경망에 입력하는 단계; 상기 제5 인공 신경망으로부터 제5 출력을 획득하는 단계; 및 상기 제5 출력에 기초하여, 상기 틀린 문항 범위 및 부족 학습 능력을 획득하는 단계를 포함하며, 상기 제5 인공 신경망은 상기 틀린 문항 범위 및 상기 부족 학습 능력에 따라 레이블링된 트레이닝 텍스트 정보들에 기초하여 누락된 풀이들이 생성되고, 상기 누락된 풀이들을 추가한 상기 트레이닝 텍스트 정보들에 기초하여 제5 트레이닝 연산 벡터들이 생성되고, 상기 제5 트레이닝 연산 벡터들을 통해 제5 트레이닝 출력들이 획득되면, 상기 제5 트레이닝 출력들과 상기 트레이닝 텍스트 정보들 및 상기 트레이닝 텍스트 정보들에 대응하는 틀린 문항 범위, 부족 학습 능력에 기초하여 정의된 제5 레이블들의 차이에 기초하여 학습될 수 있다.
상기 수학 학습 커리큘럼을 생성하는 단계는 상기 틀린 문항 범위, 상기 부족 학습 능력, 상기 문항 범위 및 상기 요구 학습 능력을 획득하는 단계; 상기 틀린 문항 범위, 상기 부족 학습 능력, 상기 문항 범위 및 상기 요구 학습 능력에 기초하여, 제6 연산 벡터를 생성하는 단계; 상기 제6 연산 벡터를 미리 학습된 제6 인공 신경망에 적용하여 제6 출력을 획득하는 단계; 및 상기 제6 출력에 기초하여 수학 학습 커리큘럼을 생성하는 단계를 포함하며, 상기 제6 인공 신경망은 상기 수학 학습 커리큘럼에 따라 레이블링된 트레이닝 틀린 문항 범위들, 트레이닝 부족 학습 능력들, 트레이닝 문항 범위들 및 트레이닝 요구 학습 능력들에 기초하여 제6 트레이닝 연산 벡터들이 생성되고, 상기 제6 트레이닝 연산 벡터들을 통해 제6 트레이닝 출력들이 획득되면, 상기 제6 트레이닝 출력들과 상기 트레이닝 틀린 문항 범위들, 상기 트레이닝 부족 학습 능력들, 상기 트레이닝 문항 범위들, 상기 트레이닝 요구 학습 능력들, 상기 트레이닝 틀린 문항 범위들에 대응하는 수학 학습 커리큘럼, 상기 트레이닝 부족 학습 능력들에 대응하는 수학 학습 커리큘럼, 상기 트레이닝 문항 범위들에 대응하는 수학 학습 커리큘럼 및 상기 트레이닝 요구 학습 능력들에 대응하는 수학 학습 커리큘럼에 기초하여 정의된 제6 레이블들의 차이에 기초하여 학습될 수 있다.
실시예들은 지난 입시 시험 및 모의 시험으로부터 실제적으로 학습에 필요한 정보를 추출할 수 있다.
실시예들은 학습에 필요한 능력을 세분화하여 보다 구체적인 학습 커리큘럼을 제공할 수 있다.
실시예들은 학습자들의 실제 풀이 과정으로부터 학습자들을 위한 맞춤형 학습 커리큘럼을 제공할 수 있다.
도 1은 일실시예에 따른 인공지능 기반 입시 수학 학습 커리큘럼 재구성 방법을 설명하기 위한 순서도이다.
도 2은 일실시예에 따른 문항 범위를 획득하는데 채용되는 인공 신경망을 설명하기 위한 도면이다.
도 3는 일실시예에 따른 문항 범위를 획득하는데 채용되는 학습 방법을 설명하기 위한 도면이다.
도 4는 일실시예에 따른 요구 학습 능력을 획득하는데 채용되는 인공 신경망을 설명하기 위한 도면이다.
도 5는 일실시예에 따른 요구 학습 능력을 설명하기 위한 도면이다.
도 6은 일실시예에 따른 요구 학습 능력을 획득하는데 채용되는 학습 방법을 설명하기 위한 도면이다.
도 7은 일실시예에 따른 풀이 과정 이미지를 처리하는데 채용되는 인공 신경망을 설명하기 위한 도면이다.
도 8은 일실시예에 따른 풀이 과정 이미지를 처리하는데 채용되는 인공 신경망을 설명하기 위한 도면이다.
도 9는 일실시예에 따른 풀이 과정 이미지를 처리하는데 채용되는 학습 방법을 설명하기 위한 도면이다.
도 10은 일실시예에 따른 텍스트 정보를 처리하는데 채용되는 인공 신경망을 설명하기 위한 도면이다.
도 11은 일실시예에 따른 텍스트 정보를 처리하는데 채용되는 학습 방법을 설명하기 위한 도면이다.
도 12는 일실시예에 따른 수학 학습 커리큘럼을 생성하는데 채용되는 인공 신경망을 설명하기 위한 도면이다.
도 13은 일실시예에 따른 수학 학습 커리큘럼을 생성하는데 채용되는 학습 방법을 설명하기 위한 도면이다.
도 14는 일실시예에 따른 학습 데이터를 통합하여 관리하는 방법을 설명하기 위한 도면이다.
도 15는 일실시예에 따른 제2 학습 데이터 통합 전략을 갱신하는 과정을 설명하기 위한 도면이다.
도 16은 일실시예에 따른 제2 뉴럴 네트워크 및 제3 뉴럴 네트워크의 학습을 설명하기 위한 도면이다.
도 17은 일실시예에 따른 시스템에 포함된 제어 장치의 구성의 예시도이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.
도 1은 일실시예에 따른 인공지능 기반 입시 수학 학습 커리큘럼 재구성 방법을 설명하기 위한 순서도이다.
도 1을 참조하면, 인공지능을 기반으로 한 입시 수학 학습 커리큘럼의 재구성 방법에 있어서, 입시 수학 학습 커리큘럼 재구성을 위한 시스템(이하, 시스템)은 작년 주요 입시 시험 및 모의 시험의 해설 텍스트를 획득할 수 있다(101). 시스템은 인공지능 기반 입시 수학 학습 커리큘럼 재구성 방법을 수행하는 시스템으로서, 예를 들어 하드웨어 모듈, 소프트웨어 모듈 또는 이들의 조합으로 구현된 다양한 장치들을 통해 구성될 수 있다.
일실시예에 따르면, 시스템 내에는 서버가 포함되어 구현될 수 있으며, 서버는 시스템 내에 포함된 단말과 통신할 수 있고, 필요한 정보를 데이터베이스로부터 열람하여 판단 동작에 채용하고, 판단의 결과물을 기반으로 데이터베이스를 갱신할 수 있다. 시스템에 의해 수행되는 동작은 서버 및 단말 중 어느 하나를 통해 수행될 수도 있지만, 서버 및 단말의 상호작용에 의해 수행될 수도 있다. 서버 및 단말은 전자 장치를 포함할 수 있다.
일실시예에 따르면, 전자 장치는 통신 기능을 갖춘 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들자면, 전자 장치는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
일실시예에 따르면, 전자 장치는 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛, 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller’s machine) 또는 상점의 POS(point of sales) 중 적어도 하나를 포함할 수 있다.
일실시예에 따르면, 전자 장치는 통신 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 일실시예에에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 일실시예에 따른 전자 장치는 플렉서블 장치일 수 있다. 또한, 일실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다. 다양한 실시예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
일실시예에 따른 전자 장치는 프로세서, 메모리, 사용자 인터페이스 및 통신 인터페이스를 포함하고, 다른 전자 장치와 네트워크를 통해 연결될 수 있다. 통신 인터페이스는 유, 무선 네트워크 또는 유선 직렬 통신 등을 통하여 소정 거리 이내의 다른 전자 장치와 데이터를 송수신할 수 있다. 네트워크는 일실시예에 따른 전자 장치와 다양한 개체들(entities) 간의 유, 무선 통신을 가능하게 한다. 전자 장치는 네트워크를 통해 다양한 개체들과 통신할 수 있고, 네트워크는 표준 통신 기술 및/또는 프로토콜들을 사용할 수 있다. 이때, 네트워크(network)는 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network) 등을 포함하나 이에 한정되지 않으며, 정보를 송, 수신할 수 있는 다른 종류의 네트워크가 될 수도 있음을 통신 기술 분야의 통상의 지식을 가진 자라면 알 수 있다.
일실시예에 따른 휴대용 단말기는 통신 기능이 포함된 전자 장치일 수 있다. 예를 들면, 전자 장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크톱 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 스마트카(smart car) 또는 스마트 와치(smartwatch)중 적어도 하나를 포함할 수 있다.
일실시예에 따르면, 작년 주요 입시 시험 및 모의 시험은 수학 능력 시험 및 기타 주관 기관에서 실시하는 주요 시험들을 의미할 수 있으며, 해설 텍스트는 주관 기관이 제공한 해설 텍스트일 수 있으나, 이에 국한하지 않는다. 해설 텍스트는 숫자, 문자, 표, 도형, 그래프 등을 포함할 수 있으며, 하나의 문제에 대해 최소한 하나 이상의 해설 텍스트가 제공될 수 있다. 해설 텍스트는 한글, 워드 및 pdf 등 디지털 장비를 통해 제공된 자료일 수 있으나, 이에 국한하지 않는다.
일실시예에 따르면, 시스템은 해설 텍스트에 기초하여, 문항 범위를 획득할 수 있다(102).
일실시예에 따르면, 시스템은 해설 텍스트를 제1 및 제2 인공 신경망에 입력하여 문항 범위를 획득할 수 있다. 제1 및 제2 인공 신경망은 해설 텍스트를 입력으로, 문항 범위를 획득할 수 있도록 미리 학습됐을 수 있다.
일실시예에 따른 문항 범위는 해당 시험에 해당하는 범위를 의미하는 것일 수 있으며, 이는 해당 시험의 주관 기관이 제시하는 범위의 세분화된 정보일 수 있다. 예를 들어, 수학 능력 시험의 경우 ‘가형’과 ‘나형’으로 구분된 시험에 따라 그 범위가 다를 수 있는데, ‘가형’은 ‘수학1’, ‘미적분’, ‘확률과 통계’를 ‘나형’은 ‘수학1’, ‘수학2’, ‘확률과 통계’를 포함할 수 있다. 문항 범위은 세부 문항 범위로 구분될 수 있으며, 예를 들어, 세부 문항 범위에는 ‘지수와 로그’, ‘행렬’, ‘수열’, ‘수열의 극한’, ‘지수함수와 로그함수’, ‘순열과 조합’, ‘확률’, ‘확률분포와 통계적 추정’, ‘방정식과 부등식’, ‘삼각함수와 극형식’, ‘미분법’, ‘적분법’, ‘이차곡선’, ‘공간도형과 공간좌표’, ‘벡터’, ‘여러 가지 함수의 극한과 도함수’, ‘여러 가지 함수의 미분’, ‘도함수의 활용’, ‘여러 가지 함수의 부정적분’, ‘정적분’, ‘정적분의 활용’, ‘순열과 조합’, ‘확률’, ‘통계’ 등이 포함될 수 있으나, 이에 국한하지 않는다. 문항 범위 및 세부 문항 범위는 주관 기관에 따라 달라질 수 있으며, 인공지능 기반 입시 수학 학습 커리큘럼 재구성 방법을 사용하는 사용자에 따라 그 범위 세부가 결정될 수 있다.
일실시예에 따르면, 문항 범위는 하나의 문제에서도 풀이의 내용에 따라 하나 이상으로 결정될 수 있으며, 풀이의 방법에 따라서도 하나 이상으로 결정될 수 있다. 문항 범위는 해설 텍스트의 세부 내용을 바탕으로 결정될 수 있다. 문항 범위를 획득하는 자세한 방법은 도 2 및 도 3을 참조하여 후술한다.
일실시예에 따르면, 시스템은 해설 텍스트에 기초하여, 요구 학습 능력을 획득할 수 있다(103).
일실시예에 따르면, 시스템은 해설 텍스트에 기초하여, 문제를 풀기 위해 필요한 능력을 미리 정해진 데이터베이스로부터 획득해 세분화할 수 있다. 일반적인 요구 학습 능력은 암산력, 문제이해력, 추론능력, 암기력 및 공간지각능력을 포함하는 다섯 가지로 구분될 수 있으며 최소한 하나 이상이 반드시 포함될 수 있다. 각각의 요구 학습 능력은 다시 다섯 단계로 구분될 수 있으며, 해당 해설 텍스트로부터 풀이의 난이도를 평가해 요구 학습 능력의 난이도를 결정할 수 있다. 요구 학습 능력을 획득하는 자세한 방법은 도 4 및 도 6을 참조하여 후술한다.
일실시예에 따르면, 시스템은 무작위 풀이 과정 표본의 풀이 과정 이미지에 기초하여, 틀린 문항 범위 및 부족 학습 능력을 획득할 수 있다(104).
일실시예에 따르면, 시스템은 이미지 처리를 수행할 수 있는데, 이미지의 획득은 전자 장치 및 휴대용 단말을 통해 획득할 수 있다.
일실시예에 따른 무작위 풀이 과정 표본은 무작위로 추출한 100명의 사람으로부터 획득한 주요 입시 시험 및 모의 시험의 풀이 과정을 포함할 수 있다. 무작위 풀이 과정 표본은 작년 입시 시험 및 모의 시험을 치른 학습자들 중 100명을 무작위로 선출해 획득한 것일 수 있으며, 연령에 상관 없이 실제 시험을 치른 것과 동일한 풀이를 복원해 생성될 수 있다. 또한 무작위 풀이 과정 표본은 작년 주요 입시 시험 및 모의 시험을 당해 입시생들을 대상으로 치러 획득된 것일 수 있다. 무작위 풀이 과정 표본의 대상은 해당 문제들에 대해 자신의 풀이 과정을 최대한 상세히 작성하도록 지시 받을 수 있으며, 시스템은 해당 풀이 과정을 이미지 처리하여 틀린 문항 범위 및 부족 학습 능력을 획득할 수 있다. 틀린 문항 범위는 무작위 풀이 과정 표본의 대상자가 직접 푼 풀이 과정 중에 풀이가 틀린 부분의 문항 범위를 의미하는 것으로, 이는 답이 맞았더라도 그 풀이가 틀린 경우를 함께 포함할 수 있다. 부족 학습 능력은 무작위 풀이 과정 표본의 대상자가 직접 푼 풀이 과정 중에 풀이가 틀린 부분에서의 요구 학습 능력을 의미하는 것일 수 있다. 무작위 풀이 과정 표본으로부터 획득한 틀린 문항 범위와 부족 학습 능력은 학생들의 일반적인 학습 수준을 평가할 수 있는 척도로 사용될 수 있으며, 수학 학습 커리큘럼을 재구성하는 데 사용될 수 있다. 무작위 풀이 과정 표본의 처리 방법에 대한 자세한 설명은 도 7 내지 도 11을 참조하여 후술한다.
일실시예에 따르면, 시스템은 틀린 문항 범위, 부족 학습 능력, 문항 범위 및 요구 학습 능력에 기초하여, 수학 학습 커리큘럼을 생성할 수 있다(105).
일실시예에 따르면, 시스템은 앞서 획득한 틀린 문항 범위, 부족 학습 능력, 문항 범위 및 요구 학습 능력으로부터 미리 학습된 인공 신경망을 통해 수학 학습 커리큘럼을 생성할 수 있다. 틀린 문항 범위 및 부족 학습 능력은 학생들의 현주소를 평가하고, 필요한 학습의 내용을 판단하는 지표로 사용될 수 있으며, 문항 범위 및 요구 학습 능력은 실제 출제될 가능성을 기준으로 판단하는 지표로 사용될 수 있다. 수학 학습 커리큘럼 생성의 방법에 대한 자세한 내용은 도 12 내지 도 13을 참조하여 후술한다.
도 2는 일실시예에 따른 문항 범위(230)를 획득하는데 채용되는 인공 신경망을 설명하기 위한 도면이다.
일실시예에 따르면, 시스템은 해설 텍스트(201)에 기초하여, 수식(202) 및 해설 문장(203)을 분류할 수 있다. 수식(202)은 숫자, 연산 기호, ‘ㄱ’, ‘ㄴ’ 이나 ‘가’, ‘나’ 와 같은 한글 글자, 알파벳, 로마자 등의 수식(202)을 지시하는 값들을 포함할 수 있다. 수식(202)의 판단은 연산 기호를 통해 판단될 수 있으며, 해당 연산 기호의 전후방에 연속으로 위치하는 수식(202)을 지시하는 값들 중 가장 마지막 값을 기준으로 구분할 수 있다. 해설 문장(203)은 연산 기호를 포함하지 않는 숫자, 한글 글자, 알파벳, 로마자 등일 수 있다. 예를 들면, ‘위 식에서 f(x) = ax + b 이므로, 직선의 그래프를 그릴 수 있다’라는 해설 텍스트(201)가 있다면, ‘f(x) = ax + b’는 수식(202)이 될 수 있고, 그 외의 ‘위 식에서 이므로, 직선의 그래프를 그릴 수 있다’는 해설 문장(203)이 될 수 있다.
일실시예에 따르면, 시스템은 해설 문장(203)에 기초하여, 범위 추론 단어(204)를 추출할 수 있다. 범위 추론 단어(204)는 해당 문제의 해설이 포함하는 모든 범위를 추론할 수 있는 단어들로서, 범위를 지시하기 적합한 단어들을 데이터베이스로부터 검색하여 모두 포함시킬 수 있다. 범위 추론 단어(204)의 예로는 ‘이차 함수’, ‘그래프’, ‘행렬’, ‘로그’ 등이 있을 수 있으나 이에 국한하지 않는다.
일실시예에 따르면, 시스템은 수식(202)에 기초하여, 제1 연산 벡터(210)를 생성할 수 있다.
일실시예에 따르면, 제1 연산 벡터(210)는 해설 텍스트(201)로부터 획득한 수식(202)에 대한 다차원의 벡터일 수 있다. 제1 연산 벡터(210)는 one-hot 벡터, 실수 벡터 등 설계 의도에 따라 다양한 형태로 정의될 수 있다. 연산 벡터 생성 시 접속 요청 패킷 내 다양한 변수들에 각각 가중치들이 적용될 수 있다. 가중치들은 인공 신경망의 학습 시 최적화될 수 있다.
일실시예에 따르면, 시스템은 범위 추론 단어(204)에 기초하여, 제2 연산 벡터(220)를 생성할 수 있다.
제2 연산 벡터(220)는 범위 추론 단어(204)의 가중 합이 적용된 다차원의 벡터일 수 있는데, 가중 합에 적용되는 가중치들은 데이터베이스 내에 저장되어 있는 각 범위 추론 단어(204)의 지시 정확도에 따라 조정될 수 있다. 여기서, 벡터는 one-hot 벡터, 실수 벡터 등 설계 의도에 따라 다양한 형태로 정의될 수 있다. 연산 벡터 생성 시 접속 요청 패킷 내 다양한 변수들에 각각 가중치들이 적용될 수 있다. 가중치들은 인공 신경망의 학습 시 최적화될 수 있다.
일실시예에 따르면, 시스템은 제1 연산 벡터(210) 및 제2 연산 벡터(220)를 제1 인공 신경망(211) 및 제2 인공 신경망(221)에 각각 입력할 수 있다. 제1 연산 벡터(210) 및 제2 연산 벡터(220)는 제1 인공 신경망(211) 및 제2 인공 신경망(221)의 입력 레이어에 대응할 수 있다.
일실시예에 따르면, 시스템은 제1 연산 벡터(210) 및 제2 연산 벡터(220)가 각각 인가된 제1 인공 신경망(211) 및 제2 인공 신경망(221)으로부터 생성된 제1 출력(212) 및 제2 출력(222)을 획득할 수 있다. 제1 출력(212) 및 제2 출력(222)은 제1 인공 신경망(211) 및 제2 인공 신경망(221)의 출력 레이어에 각각 대응할 수 있다. 시스템은 제1 출력(212) 및 제2 출력(222)에 기초하여, 문항 범위(230)를 획득할 수 있다. 제1 출력(212) 및 제2 출력(222)은 수식(202) 및 범위 추론 단어(204)로부터 계산된 문항 범위(230)를 지시할 수 있다. 시스템은 제1 출력(212) 및 제2 출력(222)으로부터 획득된 문항 범위(230)들 중 중복되는 문항 범위(230)를 제외하여, 문항 범위(230)를 획득할 수 있다.
일실시예에 따르면, 시스템은 해설 텍스트(201)로부터 문항 범위(230)를 획득하기 위해 인공 신경망을 학습시킬 수 있다. 문항 범위(230)를 획득하는 방법의 학습과 관련된 내용은 도 3을 참조하여 후술한다.
도 3은 일실시예에 따른 문항 범위를 획득하는데 채용되는 학습 방법을 설명하기 위한 도면이다.
일실시예에 따르면, 학습 장치는 해설 텍스트로부터 문항 범위를 획득하는데 필요한 정보를 추정하기 위한 인공 신경망을 학습시킬 수 있다. 학습 장치는 시스템과 다른 별개의 주체일 수 있지만, 이에 제한되는 것은 아니다.
일실시예에 따르면, 인공 신경망은 트레이닝 샘플들이 입력되는 입력 레이어와 트레이닝 출력들을 출력하는 출력 레이어를 포함하고, 트레이닝 출력들과 레이블들 사이의 차이에 기초하여 학습될 수 있다. 여기서, 레이블들은 제1 트레이닝 해설 텍스트들(301) 및 해설 텍스트들에 대응하는 문항 범위에 기초하여 정의될 수 있다. 인공 신경망은 복수의 노드들의 그룹으로 연결되어 있고, 연결된 노드들 사이의 가중치들과 노드들을 활성화시키는 활성화 함수에 의해 정의된다.
학습 장치는 GD(Gradient Decent) 기법 또는 SGD(Stochastic Gradient Descent) 기법을 이용하여 인공 신경망을 학습시킬 수 있다. 학습 장치는 인공 신경망의 출력들 및 레이블들 의해 설계된 손실 함수를 이용할 수 있다.
학습 장치는 미리 정의된 손실 함수(loss function)를 이용하여 트레이닝 에러를 계산할 수 있다. 손실 함수는 레이블, 출력 및 파라미터를 입력 변수로 미리 정의될 수 있고, 여기서 파라미터는 인공 신경망 내 가중치들에 의해 설정될 수 있다. 예를 들어, 손실 함수는 MSE(Mean Square Error) 형태, 엔트로피(entropy) 형태 등으로 설계될 수 있는데, 손실 함수가 설계되는 실시예에는 다양한 기법 또는 방식이 채용될 수 있다.
학습 장치는 역전파(backpropagation) 기법을 이용하여 트레이닝 에러에 영향을 주는 가중치들을 찾아낼 수 있다. 여기서, 가중치들은 인공 신경망 내 노드들 사이의 관계들이다. 학습 장치는 역전파 기법을 통해 찾아낸 가중치들을 최적화시키기 위해 레이블들 및 출력들을 이용한 SGD 기법을 이용할 수 있다. 예를 들어, 학습 장치는 레이블들, 출력들 및 가중치들에 기초하여 정의된 손실 함수의 가중치들을 SGD 기법을 이용하여 갱신할 수 있다.
일실시예에 따르면, 학습 장치는 문항 범위에 따라 레이블링된 제1 트레이닝 해설 텍스트들(301)을 획득할 수 있다. 학습 장치는 제1 트레이닝 해설 텍스트들(301)에 각각 미리 레이블링된 정보를 획득할 수 있는데, 제1 트레이닝 해설 텍스트들(301)은 미리 분류된 문항 범위들에 따라 레이블링될 수 있다. 제1 트레이닝 해설 텍스트들(301), 제1 레이블들(313) 및 제2 레이블들(323)은 작년 입시 시험 및 모의 시험을 제외한 10년 동안의 최신 문제들과 이에 대한 학습 지도자의 세부 문항 범위 분류에 대한 맵핑으로 생성될 수 있다.
일실시예에 따르면, 학습 장치는 제1 트레이닝 해설 텍스트들(301)의 수식들(302) 및 해설 문장들(303)을 분류하고, 해설 문장들(303)에 기초하여 범위 추론 단어들(304)을 추출할 수 있다. 학습 장치는 수식들(302) 및 범위 추론 단어들(304)에 기초하여, 제1 트레이닝 연산 벡터들(310) 및 제2 트레이닝 연산 벡터들(320)을 각각 생성할 수 있다.
일실시예에 따르면, 학습 장치는 제1 트레이닝 연산 벡터들(310) 및 제2 트레이닝 연산 벡터들(320)을 제1 인공 신경망(311) 및 제2 인공 신경망(321)에 각각 적용하여 제1 트레이닝 출력들(312) 및 제2 트레이닝 출력들(322)을 획득할 수 있다. 학습 장치는 제1 트레이닝 출력들(312), 제2 트레이닝 출력들(322), 제1 레이블들(313) 및 제2 레이블들(323)에 기초하여 제1 인공 신경망(311) 및 제2 인공 신경망(321)을 학습시킬 수 있다. 학습 장치는 제1 트레이닝 출력들(312)에 대응하는 트레이닝 에러들을 계산하고, 그 트레이닝 에러들을 최소화하기 위해 제1 인공 신경망(311) 및 제2 인공 신경망(321) 내 노드들의 연결 관계를 최적화하여 제1 인공 신경망(311) 및 제2 인공 신경망(321)을 학습시킬 수 있다. 시스템은 학습이 완료된 제1 인공 신경망(311) 및 제2 인공 신경망(321)을 이용하여 해설 텍스트로부터 문항 범위를 획득할 수 있다.
일실시예에 따르면, 제1 인공 신경망(311)은 문항 범위에 따라 레이블링된 제1 트레이닝 해설 텍스트들(301)에서 수식들(302)이 분류되고 분류된 수식들(302)에 기초하여 제1 트레이닝 연산 벡터들(310)이 생성되고 제1 트레이닝 연산 벡터들(310)을 통해 제1 트레이닝 출력들(312)이 획득되면, 제1 트레이닝 출력들(312)과 제1 레이블들(313)의 차이에 기초하여 학습될 수 있다. 여기서, 제1 트레이닝 출력들(312)은 제1 트레이닝 연산 벡터들(310)을 제1 인공 신경망(311)에 적용하여 획득될 수 있으며, 제1 레이블들(313)은 제1 트레이닝 해설 텍스트들(301) 및 제1 트레이닝 해설 텍스트들(301)에 대응하는 문항 범위에 기초하여 정의될 수 있다.
일실시예에 따르면, 제2 인공 신경망(321)은 문항 범위에 따라 레이블링된 제1 트레이닝 해설 텍스트들(301)에서 해설 문장들(303)이 분류되고 분류된 해설 문장들(303)에 기초하여 범위 추론 단어들(304)이 추출되고 범위 추론 단어들(304)에 기초하여 제2 트레이닝 연산 벡터들(320)이 생성되고 상기 제2 트레이닝 연산 벡터들(320)을 통해 제2 트레이닝 출력들(322)이 획득되면, 제2 트레이닝 출력들(322)과 제2 레이블들(323)의 차이에 기초하여 학습될 수 있다. 여기서, 제2 트레이닝 출력들(322)은 제2 트레이닝 연산 벡터들(320)을 제2 인공 신경망(321)에 적용하여 획득될 수 있으며, 제2 레이블들(323)은 제1 트레이닝 해설 텍스트들(301) 및 제1 트레이닝 해설 텍스트들(301)에 대응하는 문항 범위에 기초하여 정의될 수 있다.
도 4는 일실시예에 따른 요구 학습 능력(420)을 획득하는데 채용되는 인공 신경망을 설명하기 위한 도면이다.
일실시예에 따르면, 시스템은 해설 텍스트(401)에 기초하여, 분석 객체들을 식별하고, 식별된 분석 객체들을 종류 별로 추출할 수 있다. 시스템은 추출된 분석 객체들에 기초하여 분석 객체들을 해설 객체(402), 그래프 객체(403), 도형 객체(404) 및 표 객체(405) 중 어느 하나로 각각 분류할 수 있다.
일실시예에 따른, 그래프는 2차원 내지 3차원의 좌표계에 표현된 그래프를 의미하는 것일 수 있다. 그래프의 모양은 직선, 곡선, 원, 타원 및 쌍곡선 등이 있을 수 있으나, 이에 국한하지 않는다. 그래프를 나누는 기준은 좌표계의 유무로 판단할 수 있다. 도형은 삼각형, 사각형, 오각형, 육각형을 비롯한 N각형과 원, 타원 등이 있을 수 있으나 이에 국한하지 않는다. 도형은 좌표계가 없는 도형을 의미하는 것일 수 있다. 표는 행과 열로 이루어진 표를 의미하는 것으로, 행이나 열의 수와 무관할 수 있다. 표는 연속적으로 이어지는 사각형 형태가 일반적이며, 연속성의 유무로 도형과 구분할 수 있으나, 이에 국한하지 않는다. 해설은 그래프, 도형, 표를 제외한 나머지를 의미하는 것일 수 있다. 해설 텍스트(401)의 분석 객체는 해설 객체(402), 그래프 객체(403), 도형 객체(404) 및 표 객체(405) 중 적어도 어느 하나를 반드시 포함할 수 있다.
일실시예에 따르면, 시스템은 식별된 해설 객체(402), 그래프 객체(403), 도형 객체(404) 및 표 객체(405)에 대응하는 제3 연산 벡터(410)를 생성할 수 있다. 시스템은 제3 연산 벡터(410)를 미리 학습된 제3 인공 신경망(411)로 적용하여 제3 출력(412)을 획득할 수 있다. 시스템은 제3 출력(412)에 기초하여 해설 텍스트(401)에 대응하는 요구 학습 능력(420)을 획득할 수 있는데, 제3 출력(412)은 요구 학습 능력(420)을 설명하는 변수들로 설계될 수 있다. 또한, 제3 출력(412)은 요구 학습 능력(420)의 난이도에 따라 이산적으로 설계될 수 있는데, 예를 들어 제3 인공 신경망(411)의 출력 레이어의 출력 노드들은 각각 요구 학습 능력(420)에 대응하고, 출력 노드들은 각 요구 학습 능력(420)의 난이도들을 각각 출력할 수 있다. 이하 도 6을 참조하여 제3 인공 신경망(411)의 학습 내용이 후술된다.
도 5는 일실시예에 따른 요구 학습 능력을 설명하기 위한 도면이다.
일실시예에 따른 요구 학습 능력은 수학 문제를 푸는 데에 요구되는 학습 능력을 분류한 것으로서, 암산력, 문제이해력, 추론능력, 암기력 및 공간지각능력을 포함할 수 있다. 해설 텍스트는 요구 학습 능력 중 어느 하나로 반드시 분류되고, 요구 학습 능력의 종류에 따른 난이도를 5단계로 나눠서 포함할 수 있다.
일실시예에 따르면, 암산력은 계산기구나 필산을 통하지 않고 머리로 계산할 수 있는 능력을 의미하는 것으로서, 해설 텍스트 중 해설 객체 내에 포함된 수식 및 해설의 계산에서 암산력의 평가를 위한 수식 및 해설로 인정되는 것을 구분하여 결정할 수 있다. 문제이해력은 문제를 해석하는 능력을 의미하는 것으로서, 문제와 각 분석 객체들의 관계를 통해 판단될 수 있다. 추론능력은 문제의 해석에 따라 풀이를 결정하는 능력을 의미하는 것으로서, 문제와 각 분석 객체들의 관계를 통해 판단될 수 있다. 암기력은 수식 및 해설 중 기존에 알고 있어야만 풀 수 있는 지식의 정도를 나타내는 능력으로서, 수식 및 해설 중 앞선 풀이 과정으로부터 도출되지 않는 내용들로부터 판단될 수 있다. 공간지각능력은 그래프 객체 및 도형 객체에 대한 풀이에 주로 사용되는 능력으로, 그래프 객체 및 도형 객체의 회전이나 이동에 따른 변화로부터 판단될 수 있다.
일실시예에 따르면, 제3 인공 신경망은 해설 텍스트로부터 각 요구 학습 능력을 분류하고, 각 요구 학습 능력의 난이도를 평가할 수 있다. 난이도의 평가는 제3 인공 신경망이 미리 학습된 정보에 의해 결정될 수 있으며, 학습에는 학습자 및 학습 지도자의 평가, 주관 기관의 평가 내용이 포함될 수 있다. 각각의 문제는 5개의 요구 학습 능력 중 최소한 하나 이상을 포함할 수 있으며, 복수의 요구 학습 능력이 선택될 수 있다. 해당 문제의 요구 학습 능력의 난이도는 각 요구 학습 능력 내에서 가장 높은 난이도를 최종적인 난이도로 선정할 수 있다.
도 6은 일실시예에 따른 요구 학습 능력을 획득하는데 채용되는 학습 방법을 설명하기 위한 도면이다.
일실시예에 따르면, 학습 장치는 해설 텍스트로부터 요구 학습 능력을 획득하는데 필요한 정보를 추정하기 위한 인공 신경망을 학습시킬 수 있다. 학습 장치는 시스템과 다른 별개의 주체일 수 있지만, 이에 제한되는 것은 아니고, 상술한 학습 방법과 중복되는 내용은 생략된다.
일실시예에 따르면, 학습 장치는 요구 학습 능력에 따라 레이블링된 제2 트레이닝 해설 텍스트들(601)을 획득할 수 있다. 학습 장치는 제2 트레이닝 해설 텍스트들(601)에 각각 미리 레이블링된 정보를 획득할 수 있는데, 제2 트레이닝 해설 텍스트들(601)은 미리 분류된 요구 학습 능력에 따라 레이블링될 수 있다. 제2 트레이닝 해설 텍스트들(601) 및 제3 레이블들(613)은 작년 주요 입시 시험 및 모의 시험을 제외한 10년의 시험들의 제2 트레이닝 해설 텍스트들(601)과 이에 대응하는 주관 기관 및 학습 지도자들의 평가에 의한 요구 학습 능력들이 포함될 수 있다.
일실시예에 따르면, 학습 장치는 제2 트레이닝 해설 텍스트들(601)에 기초하여, 분석 객체들을 식별하고, 분석 객체들에 기초하여 해설 객체들(602), 그래프 객체들(603), 도형 객체들(604) 및 표 객체들(605)을 각각 분류할 수 있다. 학습 장치는 해설 객체들(602), 그래프 객체들(603), 도형 객체들(604) 및 표 객체들(605)에 기초하여, 제3 트레이닝 연산 벡터들(610)을 생성 할 수 있다.
일실시예에 따르면, 학습 장치는 제3 트레이닝 연산 벡터들(610)을 제3 인공 신경망(611)에 적용하여 제3 트레이닝 출력들(612)을 획득할 수 있다. 학습 장치는 제3 트레이닝 출력들(612)과 제3 레이블들(613)에 기초하여 제3 인공 신경망(611)를 학습시킬 수 있다. 학습 장치는 제3 트레이닝 출력들(612)에 대응하는 트레이닝 에러들을 계산하고, 그 트레이닝 에러들을 최소화하기 위해 제3 인공 신경망(611) 내 노드들의 연결 관계를 최적화하여 제3 인공 신경망(611)을 학습시킬 수 있다. 시스템은 학습이 완료된 제3 인공 신경망(611)을 이용하여 해설 텍스트로부터 요구 학습 능력을 획득할 수 있다.
일실시예에 따르면, 제3 인공 신경망(611)은 요구 학습 능력에 따라 레이블링된 제2 트레이닝 해설 텍스트들(601)에 기초하여 분석 객체들이 식별되고 분석 객체들에 기초하여 해설 객체들(602), 그래프 객체들(603), 도형 객체들(604) 및 표 객체들(605)이 각각 분류되고 해설 객체들(602), 그래프 객체들(603), 도형 객체들(604) 및 표 객체들(605)에 기초하여 제3 트레이닝 연산 벡터들(610)이 생성되고 제3 트레이닝 연산 벡터들(610)을 통해 제3 트레이닝 출력들(612)이 획득되면, 제3 트레이닝 출력들(612) 및 제3 레이블들(613)의 차이에 기초하여 학습될 수 있다. 여기서, 제3 트레이닝 출력들(612)은 제3 트레이닝 연산 벡터들(610)을 제3 인공 신경망(611)에 적용하여 획득될 수 있으며, 제3 레이블들(613)은 제2 트레이닝 해설 텍스트들(601) 및 제2 트레이닝 해설 텍스트들(601)에 대응하는 요구 학습 능력에 기초하여 정의될 수 있다.
도 7은 일실시예에 따른 풀이 과정 이미지(701)를 처리하는데 채용되는 인공 신경망을 설명하기 위한 도면이다.
일실시예에 따르면, 시스템은 틀린 문항 범위 및 부족 학습 능력을 획득할 수 있다. 이 과정을 위해 시스템은 무작위 풀이 과정 표본의 풀이 과정 이미지(701)를 획득할 수 있고, 풀이 과정 이미지(701)에 기초하여, 텍스트 정보(710)를 획득할 수 있고, 텍스트 정보(710)에 기초하여, 틀린 문항 범위 및 부족 학습 능력을 획득할 수 있다.
일실시예에 따르면, 시스템은 무작위 풀이 과정 표본을 통해 획득한 풀이 과정 이미지(701)로부터 텍스트 정보(710)를 획득할 수 있다. 시스템은 텍스트를 식별하는 시각적인 요소를 추출하고, 추출된 시각적인 요소를 특징으로 정의하고, 그 특징으로부터 텍스트를 식별하는 이미지 처리 과정을 수행할 수 있다.
도 7을 참조하면, 시스템은 풀이 과정 이미지(701)를 획득할 수 있다. 상술한 바와 같이, 풀이 과정 이미지(701)는 무작위 풀이 과정 표본을 촬영한 사진 또는 이에 상응하는 기록물의 이미지일 수 있다.
일실시예에 따르면, 시스템은 풀이 과정 이미지(701) 내 적어도 하나의 풀이 텍스트를 포함하는 풀이 그룹 객체(702)를 배경으로부터 분리할 수 있다. 시스템은 풀이 과정 이미지(701)에서 풀이 텍스트와 관련 있는 영역과 나머지 영역을 분류할 수 있다. 시스템은 이미지 상의 풀이 텍스트의 외관, 패턴 및 두께를 기초로 픽셀 별로 텍스트 인지 여부를 판단할 수 있다. 예를 들어, 시스템은 관심 영역과 나머지 영역을 분류하는 분류기를 통해 풀이 과정 이미지(701)로부터 풀이 그룹 객체(702)를 분류할 수 있다.
일실시예에 따르면, 시스템은 풀이 그룹 객체(702)의 공백에 기초하여 풀이 객체(703)들을 식별할 수 있다. 시스템은 풀이 그룹 객체(702)에서 개별 적인 풀이 텍스트의 이미지가 확보되는 개별 풀이 객체(703)를 식별하기 위해, 각 풀이 텍스트의 공백의 상대적 크기를 판단할 수 있다. 상대적 크기는 해당 풀이 과정 이미지(701) 상의 풀이가 사람마다 다를 수 있는 차이를 고려하여, 개별 사람의 특성을 고려하여 상대적인 개념을 도입한 것일 수 있다.
일실시예에 따르면, 시스템은 기 학습된 인공 신경망으로 적용하기 위한 특징을 풀이 객체(703)들로부터 추출할 수 있다. 시스템은 텍스트를 시각적으로 구분하는데 주요한 요인인 개별 단위의 풀이 객체(703)의 외관, 패턴 및 두께를 변수로 인공 신경망이 분류하도록 미리 학습시키고, 기 학습된 인공 신경망으로 풀이 객체(703)로부터 추출된 특징을 적용하여 풀이 과정 이미지(701)로부터 텍스트 정보(710)를 생성할 수 있다.
일실시예에 따르면, 시스템은 풀이 객체(703)들의 외관 특징들(704)을 추출할 수 있다. 시스템은 풀이 객체(703)들의 테두리를 추출하여 외관 특징들(704)을 생성할 수 있다. 시스템은 풀이 객체(703)들과 배경 영역을 분리하는 픽셀들의 위치에 기반하여 외관 특징들(704)을 생성할 수 있다.
일실시예에 따르면, 시스템은 풀이 객체(703)들의 패턴 특징들(705)을 추출할 수 있다. 시스템은 풀이 객체(703)들 내에 있는 곡률 정보를 추출하고, 추출된 정보를 기반으로 패턴 특징들(705)을 생성할 수 있다. 시스템은 곡률 정보를 추출하기 위한 필터를 풀이 객체(703)들 별로 적용할 수 있고, 필터링 된 값을 기반으로 패턴 특징들(705)을 생성할 수 있다.
일실시예에 따르면, 시스템은 풀이 객체(703)들의 두께 특징들(706)을 추출할 수 있다. 시스템은 풀이 객체(703)들 내에 있는 픽세들의 결합 두께를 획득하고, 그 결합 두께로부터 획의 방향 및 강도 등을 추출하고, 추출된 값들을 기반으로 두께 특징들(706)을 생성할 수 있다. 시스템이 두께 특징들(706)을 추출하는 방식에는 다양한 기법이 채용될 수 있다.
일실시예에 따르면, 시스템은 외관 특징들(704), 패턴 특징들(705) 및 두께 특징들(706)에 기초하여 제4 연산 벡터(707)를 생성할 수 있다. 제4 연산 벡터(707)는 외관 특징들(704), 패턴 특징들(705) 및 두께 특징들(706)의 가중 합이 적용된 다차원의 벡터일 수 있는데, 가중 합에 적용되는 가중치들은 각 특징들이 평균에서 멀어질수록 커지도록 조정될 수 있다. 여기서, 벡터는 one-hot 벡터, 실수 벡터 등 설계 의도에 따라 다양한 형태로 정의될 수 있다. 연산 벡터 생성 시 접속 요청 패킷 내 다양한 변수들에 각각 가중치들이 적용될 수 있다. 가중치들은 인공 신경망의 학습 시 최적화될 수 있다.
일실시예에 따르면, 시스템은 제4 연산 벡터(707)를 기 학습된 제4 인공 신경망(708)으로 인가할 수 있다. 제4 연산 벡터(707)는 제4 인공 신경망(708)의 입력 레이어에 대응할 수 있다.
일실시예에 따르면, 시스템은 제4 연산 벡터(707)가 인가된 제4 인공 신경망(708)으로부터 생성된 제4 출력(709)을 획득할 수 있다. 제4 출력(709)은 제4 인공 신경망(708)의 출력 레이어에 대응할 수 있다. 시스템은 제4 출력(709)에 기초하여 풀이 과정 이미지(701)에 대응하는 텍스트 정보(710)를 획득할 수 있다. 텍스트 정보(710)의 값은 텍스트를 분류하는 식별 정보로 표현되거나, 텍스트의 특성 별로 등급화되어 표현되는 이산적이거나 연속된 값으로 표현될 수 있다.
일실시예에 따르면, 시스템은 제4 출력(709)에 기초하여 디지털 텍스트 값을 포함하는 텍스트 정보(710)를 생성할 수 있다. 시스템은 식별 정보로부터 데이터베이스를 조회하여 각 텍스트에 따라 다른 텍스트 정보(710)의 특성을 적용할 수 있다. 시스템은 풀이 과정 이미지(701)로부터 텍스트 정보(710)를 식별하기 위해 인공 신경망을 학습시킬 수 있는데, 예를 들어 영상 처리에 활용되는 컨볼루션 신경망 및 뉴럴 네트워크를 채용할 수 있다. 풀이 과정 이미지(701) 처리를 위한 학습과 관련된 내용은 도 9를 참조하여 후술된다.
도 8은 일실시예에 따른 풀이 과정 이미지를 처리하는데 채용되는 인공 신경망을 설명하기 위한 도면이다.
도 8을 참조하면, 제4 인공 신경망은 제4 연산 벡터를 입력으로 하는 병렬적 구성의 제1 내지 제3 컨볼루션 신경망(810, 820, 830); 및 제1 내지 제3 컨볼루션 신경망(810, 820, 830)의 출력을 비교하여 최적화된 텍스트 정보를 출력하는 제1 뉴럴 네트워크(840)를 포함할 수 있다.
일실시예에 따르면, 시스템은 풀이 과정 이미지를 제1 내지 제3 컨볼루션 신경망(810, 820, 830)에 적절한 형태로 인코딩할 수 있다. 시스템은 풀이 과정 이미지로부터 외관 특징들, 패턴 특징들 및 두께 특징들을 추출해 제4 벡터 형태로 가중 합하는 방식으로 제4 연산 벡터를 인코딩해 생성할 수 있다.
일실시예에 따르면, 제1 내지 제3 컨볼루션 신경망(810, 820, 830)은 제4 연산 벡터(801)를 바탕으로 특징 추출 신경망과 분류 신경망을 통해 얼굴의 구조들을 분류할 수 있다. 특징 추출 신경망은 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조정되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 제1 내지 제3 컨볼루션 신경망(810, 820, 830)에 따라 각각 4X4, 9X9, 16X16 행렬을 사용할 수 있으나, 이에 국한하지 않는다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행될 수 있다. 분류 신경망은 은닉층과 출력층을 가지고 있다. 인공지능 기반 입시 수학 학습 커리큘럼 재구성 방법을 위한 제1 내지 제3 컨볼루션 신경망(810, 820, 830)에서는 은닉층이 3개~5개 사이에 존재하며, 각 은닉층의 노드 또한 80~140개로 지정할 수 있으며, 컨볼루션 신경망의 종류에 따라 서로 다른 값으로 지정될 수 있다. 제1 내지 제3 컨볼루션 신경망(810, 820, 830)의 풀링 계층의 연산, 은닉층의 수 및 은닉층 노드의 수는 모두 서로 다른 값을 가질 수 있으며, 이는 서로 다른 구조를 가지면서 동일한 속도 및 성능을 유지하고, 동일한 테스트 데이터에 대해 서로 다른 변수의 영향을 받도록 하기 위함일 수 있다. 은닉층의 활성함수는 주로 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나, 이에 한정하지 않는다. 제1 내지 제3 컨볼루션 신경망(810, 820, 830)의 출력층 노드는 텍스트 정보가 포함해야 하는 숫자, 연산 기호, 한글 글자, 로마자 등을 지시할 수 있으며, 제1 내지 제3 컨볼루션 신경망(810, 820, 830)의 출력은 모두 동일한 형태이나, 그 값은 모두 다를 수 있다.
일실시예에 따른 제1 뉴럴 네트워크(840)는 제1 내지 제3 컨볼루션 신경망(810, 820, 830)의 출력들을 종합해 이를 비교, 분석 및 통합하는 기능을 수행할 수 있다. 제1 뉴럴 네트워크(840)는 제1 내지 제3 컨볼루션 신경망(810, 820, 830)의 출력으로부터 단순히 이를 평균화 하거나, 다수결에 따라 결정되는 방식이 아닌, 최적화 분석을 통한 통합을 수행하도록 할 수 있다. 최적화 분석은 각 텍스트 정보의 합리성 판단을 하는 것을 의미할 수 있다. 합리성 판단은 수식이 완성형인지 여부 및 알파벳이나 한글 글자의 자음이나 모음 하나를 포함한 자음을 제외한 단어들이 사전에 등재된 것인지 여부 등을 통해 판단할 수 있으나, 이에 국한하지 않는다.
일실시예에 따르면, 제1 뉴럴 네트워크(840)의 은닉층은 3개 이상 존재하며, 각 은닉층의 노드는 80개로 지정하나 경우에 따라 그 이상 또는 이하로 정할 수 있다. 은닉층 노드의 수는 학습을 최적화하고, 연산 오류를 최소화할 수 있는 수일 수 있다. 은닉층의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 제1 뉴럴 네트워크(840)는 은닉층을 통해 제1 내지 제3 컨볼루션 신경망(810, 820, 830)의 출력들을 통합한 최적화된 텍스트 정보를 찾을 수 있다. 제1 뉴럴 네트워크(840)의 출력층은 텍스트 정보가 포함해야 하는 숫자, 연산 기호, 한글 글자, 로마자등 을 지시할 수 있으나, 이에 국한하지 않는다.
도 9는 일실시예에 따른 풀이 과정 이미지를 처리하는데 채용되는 학습 방법을 설명하기 위한 도면이다.
일실시예에 따르면, 학습 장치는 풀이 과정 이미지로부터 텍스트 정보를 획득하는데 필요한 정보를 추정하기 위한 인공 신경망을 학습시킬 수 있다. 학습 장치는 시스템과 다른 별개의 주체일 수 있지만, 이에 제한되는 것은 아니고, 상술한 학습 방법과 중복되는 내용은 생략된다.
일실시예에 따르면, 학습 장치는 레이블링된 트레이닝 풀이 과정 이미지들(901)을 획득할 수 있다. 학습 장치는 트레이닝 풀이 과정 이미지들에 각각 미리 레이블링된 정보를 획득할 수 있는데, 트레이닝 풀이 과정 이미지들은 미리 분류된 텍스트 정보에 따라 레이블링될 수 있다. 레이블드 트레이닝 풀이 과정 이미지들(901) 및 제4 레이블들(908)은 문자, 숫자, 알파벳 및 로마자 등을 포함하는 10만 개의 샘플 이미지들과 이에 대응하는 학습자 및 학습 지도자들의 확인에 의한 텍스트 정보들이 포함될 수 있다.
일실시예에 따르면, 학습 장치는 트레이닝 풀이 과정 이미지들(901)에 기초하여, 외관 특징들(902), 패턴 특징들(903) 및 두께 특징들(904)을 각각 분류할 수 있다. 학습 장치는 외관 특징들(902), 패턴 특징들(903) 및 두께 특징들(904)에 기초하여, 제4 트레이닝 연산 벡터들(905)을 생성 할 수 있다.
일실시예에 따르면, 학습 장치는 제4 트레이닝 연산 벡터들(905)을 제4 인공 신경망(906)에 적용하여 제4 트레이닝 출력들(907)을 획득할 수 있다. 학습 장치는 제4 트레이닝 출력들(907)과 제4 레이블들(908)에 기초하여 제4 인공 신경망(906)을 학습시킬 수 있다. 학습 장치는 제4 트레이닝 출력들(907)에 대응하는 트레이닝 에러들을 계산하고, 그 트레이닝 에러들을 최소화하기 위해 제4 인공 신경망(906) 내 노드들의 연결 관계를 최적화하여 제4 인공 신경망(906)을 학습시킬 수 있다. 시스템은 학습이 완료된 제4 인공 신경망(906)을 이용하여 풀이 과정 이미지로부터 텍스트 정보를 획득할 수 있다.
일실시예에 따르면, 제4 인공 신경망(906)은 텍스트 정보에 따라 레이블링된 트레이닝 풀이 과정 이미지들(901)에 기초하여 외관 특징들(902), 패턴 특징들(903) 및 두께 특징들(904)이 각각 분류되고 외관 특징들(902), 패턴 특징들(903) 및 두께 특징들(904)에 기초하여 제4 트레이닝 연산 벡터들(905)이 생성되고 제4 트레이닝 연산 벡터들(905)을 통해 제4 트레이닝 출력들(907)이 획득되면, 제4 트레이닝 출력들(907) 및 제4 레이블들(908)의 차이에 기초하여 학습될 수 있다. 여기서, 제4 트레이닝 출력들(907)은 제4 트레이닝 연산 벡터들(905)을 제4 인공 신경망(906)에 적용하여 획득될 수 있으며, 제4 레이블들(908)은 트레이닝 풀이 과정 이미지들(901) 및 트레이닝 풀이 과정 이미지들(901)에 대응하는 텍스트 정보에 기초하여 정의될 수 있다.
도 10은 일실시예에 따른 텍스트 정보(1001)를 처리하는데 채용되는 인공 신경망을 설명하기 위한 도면이다.
일실시예에 따르면, 시스템은 텍스트 정보(1001)에 기초하여, 누락된 풀이(1002)를 생성할 수 있다. 누락된 풀이(1002)는 무작위 풀이 과정 표본의 풀이 과정에 누락된 풀이(1002) 과정을 의미하며, 이는 무작위 풀이 과정 표본을 풀이한 대상들이 암산한 내용을 포함할 수 있다. 도 10을 참조하면, 예를 들어 ‘y=ax+b’라는 식으로부터 a 및 b를 추론하는 과정에서, 조건인 ‘x=3’일 때 ‘y=4’와 ‘x=4’일 때 ‘y=7’을 대입하여, ‘7=4a+b’와 ‘4=3a+b’라는 식을 도출할 수 있다. 이 때 대상들이 중간 과정을 암산으로 생략하고, ‘a=3’, ‘b=-5’라는 답을 구했다면, 여기에는 ‘7=4a+b’에서 ‘4=3a+b’를 빼 나오는 ‘3=a’라는 계산과, 이를 대입한 ‘7=12+b’라는 식을 통해 구하는 ‘b=-5’라는 계산을 누락된 풀이(1002)로 볼 수 있다.
일실시예에 따르면, 시스템은 누락된 풀이를 추가한 텍스트 정보(1003)에 기초하여, 제5 연산 벡터(1004)를 생성할 수 있다.
일실시예에 따르면, 제5 연산 벡터(1004)는 누락된 풀이를 추가한 텍스트 정보(1003)에 대한 다차원의 벡터일 수 있다. 제5 연산 벡터(1004)는 one-hot 벡터, 실수 벡터 등 설계 의도에 따라 다양한 형태로 정의될 수 있다. 연산 벡터 생성 시 접속 요청 패킷 내 다양한 변수들에 각각 가중치들이 적용될 수 있다. 가중치들은 인공 신경망의 학습 시 최적화될 수 있다.
일실시예에 따르면, 시스템은 제5 연산 벡터(1004)를 제5 인공 신경망(1005)에 각각 입력할 수 있다. 제5 연산 벡터(1004)는 제5 인공 신경망(1005)의 입력 레이어에 대응할 수 있다.
일실시예에 따르면, 시스템은 제5 연산 벡터(1004)가 인가된 제5 인공 신경망(1005)으로부터 생성된 제5 출력(1006)을 획득할 수 있다. 제5 출력(1006)은 제5 인공 신경망(1005)의 출력 레이어에 각각 대응할 수 있다. 시스템은 제5 출력(1006)에 기초하여, 틀린 문항 범위(1007) 및 부족 학습 능력(1008)을 획득할 수 있다. 틀린 문항 범위(1007)는 무작위 풀이 과정 표본의 대상자가 직접 푼 풀이 과정 중에 풀이가 틀린 부분의 문항 범위를 의미하는 것으로, 이는 답이 맞았더라도 그 풀이가 틀린 경우를 함께 포함할 수 있다. 부족 학습 능력(1008)은 무작위 풀이 과정 표본의 대상자가 직접 푼 풀이 과정 중에 풀이가 틀린 부분에서의 요구 학습 능력을 의미하는 것일 수 있다. 무작위 풀이 과정 표본으로부터 획득한 틀린 문항 범위(1007)와 부족 학습 능력(1008)은 학생들의 일반적인 학습 수준을 평가할 수 있는 척도로 사용될 수 있으며, 수학 학습 커리큘럼을 재구성하는 데 사용될 수 있다.
일실시예에 따르면, 제5 출력(1006)은 누락된 풀이를 추가한 텍스트 정보(1003)로부터 계산된 틀린 문항 범위(1007) 및 부족 학습 능력(1008)을 지시할 수 있다. 시스템은 누락된 풀이를 추가한 텍스트 정보(1003)로부터 틀린 문항 범위(1007) 및 부족 학습 능력(1008)을 획득하기 위해 인공 신경망을 학습시킬 수 있다. 틀린 문항 범위(1007) 및 부족 학습 능력(1008)을 획득하는 방법의 학습과 관련된 내용은 도 11을 참조하여 후술한다.
도 11은 일실시예에 따른 텍스트 정보를 처리하는데 채용되는 학습 방법을 설명하기 위한 도면이다.
일실시예에 따르면, 학습 장치는 텍스트 정보로부터 틀린 문항 범위 및 부족 학습 능력을 획득하는데 필요한 정보를 추정하기 위한 인공 신경망을 학습시킬 수 있다. 학습 장치는 시스템과 다른 별개의 주체일 수 있지만, 이에 제한되는 것은 아니고, 상술한 학습 방법과 중복되는 내용은 생략된다.
일실시예에 따르면, 학습 장치는 틀린 문항 범위 및 부족 학습 능력에 따라 레이블링된 트레이닝 텍스트 정보들(1101)을 획득할 수 있다. 학습 장치는 트레이닝 텍스트 정보들(1101)에 각각 미리 레이블링된 정보를 획득할 수 있는데, 트레이닝 텍스트 정보들(1101)은 미리 분류된 틀린 문항 범위들 및 부족 학습 능력들에 따라 레이블링될 수 있다. 트레이닝 텍스트 정보들(1101) 및 제5 레이블들은 작년 주요 입시 시험 및 모의 시험을 제외한 10년의 시험들에 대한 무작위 풀이 과정 표본의 트레이닝 텍스트 정보들(1101)과 이에 대응하는 주관 기관 및 학습 지도자들의 평가에 의한 틀린 문항 범위들 및 부족 학습 능력들이 포함될 수 있다.
일실시예에 따르면, 학습 장치는 트레이닝 텍스트 정보들(1101)에 기초하여, 누락된 풀이들(1102)을 생성하고, 누락된 풀이들(1102)을 추가한 트레이닝 텍스트 정보들(1101)에 기초하여, 제5 트레이닝 연산 벡터들(1103)을 생성 할 수 있다.
일실시예에 따르면, 학습 장치는 제5 트레이닝 연산 벡터들(1103)을 제5 인공 신경망(1104)에 적용하여 제5 트레이닝 출력들(1105)을 획득할 수 있다. 학습 장치는 제5 트레이닝 출력들(1105)과 제5 레이블들(1106)에 기초하여 제5 인공 신경망(1104)를 학습시킬 수 있다. 학습 장치는 제5 트레이닝 출력들(1105)에 대응하는 트레이닝 에러들을 계산하고, 그 트레이닝 에러들을 최소화하기 위해 제5 인공 신경망(1104) 내 노드들의 연결 관계를 최적화하여 제5 인공 신경망(1104)을 학습시킬 수 있다. 시스템은 학습이 완료된 제5 인공 신경망(1104)을 이용하여 텍스트 정보로부터 틀린 문항 범위 및 부족 학습 능력을 획득할 수 있다.
일실시예에 따르면, 제5 인공 신경망(1104)은 틀린 문항 범위 및 부족 학습 능력에 따라 레이블링된 트레이닝 텍스트 정보들(1101)에 기초하여 누락된 풀이들(1102)이 생성되고 누락된 풀이들(1102)을 추가한 트레이닝 텍스트 정보들(1101)에 기초하여 제5 트레이닝 연산 벡터들(1103)이 생성되고 제5 트레이닝 연산 벡터들(1103)을 통해 제5 트레이닝 출력들(1105)이 획득되면, 제5 트레이닝 출력들(1105) 및 제5 레이블들(1106)의 차이에 기초하여 학습될 수 있다. 여기서, 제5 트레이닝 출력들(1105)은 제5 트레이닝 연산 벡터들(1103)을 제5 인공 신경망(1104)에 적용하여 획득될 수 있으며, 제5 레이블들(1106)은 트레이닝 텍스트 정보들(1101) 및 트레이닝 텍스트 정보들(1101)에 대응하는 틀린 문항 범위 및 부족 학습 능력에 기초하여 정의될 수 있다.
도 12는 일실시예에 따른 수학 학습 커리큘럼(1208)을 생성하는데 채용되는 인공 신경망을 설명하기 위한 도면이다.
일실시예에 따르면, 시스템은 틀린 문항 범위(1201), 부족 학습 능력(1202), 문항 범위(1203) 및 요구 학습 능력(1204)에 기초하여 카테고리를 획득할 수 있다. 여기서, 틀린 문항 범위(1201), 부족 학습 능력(1202), 문항 범위(1203) 및 요구 학습 능력(1204)는 각각 도 2, 도 4 및 도 10을 참조하여 상술된 기법에 의해 생성될 수 있다.
일실시예에 따르면, 시스템은 틀린 문항 범위(1201), 부족 학습 능력(1202), 문항 범위(1203) 및 요구 학습 능력(1204)에 기초하여 제6 연산 벡터(1205)를 생성할 수 있다. 시스템은 제6 연산 벡터(1205)를 미리 학습된 제6 인공 신경망(1206)에 적용하여 제6 출력(1207)을 획득할 수 있다. 시스템은 제6 출력(1207)에 기초하여 수학 학습 커리큘럼(1208)을 생성할 수 있다.
일실시예에 따르면, 시스템은 틀린 문항 범위(1201) 및 부족 학습 능력(1202)을 통해 학생들의 학습 수준을 평가하여, 평가된 학습 수준에 따라 세부 문항 범위 별로 보충 학습 필요 점수를 산출할 수 있다.
예를 들어, 세부 문항 범위에 ‘지수와 로그’, ‘행렬’, ‘수열’ 등이 있는 경우, 시스템은 학생들의 학습 수준에 대한 평가 결과를 기초로, 세부 문항 범위 별로 틀린 문제의 빈도 수를 확인하여, ‘지수와 로그’ 범위에 대한 보충 학습 필요 점수 100점, ‘행렬’ 범위에 대한 보충 학습 필요 점수 90점, ‘수열’ 범위에 대한 보충 학습 필요 점수 80점을 산출할 수 있다.
시스템은 문항 범위(1203) 및 요구 학습 능력(1204)을 통해 시험 출제 가능성을 평가하여, 평가된 시험 출제 가능성에 따라 세부 문항 범위 별로 심화 학습 필요 점수를 산출할 수 있다.
예를 들어, 세부 문항 범위에 ‘지수와 로그’, ‘행렬’, ‘수열’ 등이 있는 경우, 시스템은 시험 출제 가능성에 대한 평가 결과를 기초로, 세부 문항 범위 별로 시험에 출제된 문제의 빈도 수를 확인하여, ‘지수와 로그’ 범위에 대한 심화 학습 필요 점수 100점, ‘행렬’ 범위에 대한 심화 학습 필요 점수 90점, ‘수열’ 범위에 대한 심화 학습 필요 점수 80점을 산출할 수 있다.
시스템은 틀린 문항 범위(1201), 부족 학습 능력(1202), 문항 범위(1203) 및 요구 학습 능력(1204) 사이의 연관 관계를 고려하여, 보충 학습 필요 점수 및 심화 학습 필요 점수를 합산한 점수가 높은 순으로 세부 문항 범위의 우선 순위를 설정하여 수학 학습 커리큘럼(1208)을 생성할 수 있다.
예를 들어, 세부 문항 범위에 ‘지수와 로그’, ‘행렬’, ‘수열’ 등이 있는 경우, ‘지수와 로그’ 범위에 대해 보충 학습 필요 점수 및 심화 학습 필요 점수를 합산한 점수가 200점으로 확인되고, ‘행렬’ 범위에 대해 보충 학습 필요 점수 및 심화 학습 필요 점수를 합산한 점수가 180점으로 확인되고, ‘수열’ 범위에 대해 보충 학습 필요 점수 및 심화 학습 필요 점수를 합산한 점수가 160점으로 확인되면, 시스템은 합산한 점수에 따라 ‘지수와 로그’ 범위, ‘행렬’ 범위, ‘수열’ 범위 순으로 설정된 수학 학습 커리큘럼(1208)을 생성할 수 있다.
수학 학습 커리큘럼(1208)은 수학 학습을 위한 교재의 목차, 교육의 우선 순위 및 교육의 중요 등을 판단하는 자료로 사용될 수 있으나, 이에 국한하지 않는다. 시스템은 틀린 문항 범위(1201), 부족 학습 능력(1202), 문항 범위(1203) 및 요구 학습 능력(1204) 사이의 연관 관계를 고려하여 수학 학습 커리큘럼(1208)을 딥 러닝을 통해 추정할 수 있다. 이하 도 13을 참조하여 제6 인공 신경망(1206)의 학습 내용이 후술된다.
도 13은 일실시예에 따른 수학 학습 커리큘럼을 생성하는데 채용되는 학습 방법을 설명하기 위한 도면이다.
일실시예에 따르면, 학습 장치는 틀린 문항 범위, 부족 학습 능력, 문항 범위 및 요구 학습 능력에 따른 수학 학습 커리큘럼을 추정하기 위한 인공 신경망을 학습시킬 수 있다. 학습 장치는 시스템과 다른 별개의 주체일 수 있지만, 이에 제한되는 것은 아니고, 상술한 학습 방법과 중복되는 내용은 생략된다.
일실시예에 따르면, 학습 장치는 수학 학습 커리큘럼에 따라 레이블링된 트레이닝 틀린 문항 범위들(1301), 트레이닝 부족 학습 능력들(1302), 트레이닝 문항 범위들(1303) 및 트레이닝 요구 학습 능력들(1304)을 획득할 수 있다. 학습 장치는 트레이닝 틀린 문항 범위들(1301), 트레이닝 부족 학습 능력들(1302), 트레이닝 문항 범위들(1303) 및 트레이닝 요구 학습 능력들(1304)에 각각 미리 레이블링된 정보를 획득할 수 있는데, 트레이닝 틀린 문항 범위들(1301), 트레이닝 부족 학습 능력들(1302), 트레이닝 문항 범위들(1303) 및 트레이닝 요구 학습 능력들(1304)은 미리 분류된 수학 학습 커리큘럼들에 따라 레이블링될 수 있다. 트레이닝 틀린 문항 범위들(1301), 트레이닝 부족 학습 능력들(1302), 트레이닝 문항 범위들(1303), 트레이닝 요구 학습 능력들(1304) 및 제6 레이블들(1308)은 작년 주요 입시 시험 및 모의 시험을 제외한 10년의 시험들에 대한 틀린 문항 범위들, 부족 학습 능력들, 문항 범위들 및 요구 학습 능력들과 이에 대응하는 주관 기관 및 학습 지도자들의 평가에 의한 수학 학습 커리큘럼이 포함될 수 있다.
일실시예에 따르면, 학습 장치는 트레이닝 틀린 문항 범위들(1301), 트레이닝 부족 학습 능력들(1302), 트레이닝 문항 범위들(1303) 및 트레이닝 요구 학습 능력들(1304)에 기초하여 제6 트레이닝 연산 벡터들(1305)을 생성할 수 있다. 학습 장치는 제6 트레이닝 연산 벡터들(1305)을 제6 인공 신경망(1306)에 적용하여 제6 트레이닝 출력들(1307)을 획득할 수 있다. 학습 장치는 제6 트레이닝 출력들(1307)과 제6 레이블들(1308)에 기초하여 제6 인공 신경망(1306)을 학습시킬 수 있다. 학습 장치는 제6 트레이닝 출력들(1307)에 대응하는 트레이닝 에러들을 계산하고, 그 트레이닝 에러들을 최소화하기 위해 제6 인공 신경망(1306) 내 노드들의 연결 관계를 최적화하여 제6 인공 신경망(1306)을 학습시킬 수 있다. 시스템은 학습이 완료된 제6 인공 신경망(1306)을 이용하여 틀린 문항 범위, 부족 학습 능력, 문항 범위 및 요구 학습 능력에 적합한 수학 학습 커리큘럼을 판단할 수 있다.
일실시예에 따르면, 제6 인공 신경망(1306)은 수학 학습 커리큘럼에 따라 레이블링된 트레이닝 틀린 문항 범위들(1301), 트레이닝 부족 학습 능력들(1302), 트레이닝 문항 범위들(1303) 및 트레이닝 요구 학습 능력들(1304)에 기초하여 제6 트레이닝 연산 벡터들(1305)이 생성되고 제6 트레이닝 연산 벡터들(1305)을 통해 제6 트레이닝 출력들(1307)이 획득되면, 제6 트레이닝 출력들(1307) 및 제6 레이블들(1308)의 차이에 기초하여 학습될 수 있다. 여기서, 제6 트레이닝 출력들(1307)은 제6 트레이닝 연산 벡터들(1305)을 제6 인공 신경망(1306)에 적용하여 획득될 수 있으며, 제6 레이블들(1308)은 트레이닝 틀린 문항 범위들(1301), 트레이닝 부족 학습 능력들(1302), 트레이닝 문항 범위들(1303), 트레이닝 요구 학습 능력들(1304), 트레이닝 틀린 문항 범위들(1301)에 대응하는 수학 학습 커리큘럼, 트레이닝 부족 학습 능력들(1302)에 대응하는 수학 학습 커리큘럼, 트레이닝 문항 범위들(1303)에 대응하는 수학 학습 커리큘럼 및 트레이닝 요구 학습 능력들(1304)에 대응하는 수학 학습 커리큘럼에 기초하여 정의될 수 있다.
도 14는 일실시예에 따른 학습 데이터를 통합하여 관리하는 방법을 설명하기 위한 도면이다.
일실시예에 따르면, 시스템은 학습 데이터 통합 관리 단말, 학습 데이터 통합 관리 서버, 통합 데이터베이스 서버, 통합 데이터베이스 스토리지, 웹(web) 데이터베이스 스토리지, 웹 데이터베이스 서버, 웹 서버, 웹 단말, 앱(app) 데이터베이스 스토리지, 앱 데이터베이스 서버, 앱 서버, 앱 단말, 인트라넷(intranet) 데이터베이스 스토리지, 관리자 데이터베이스 스토리지, 관리자 데이터베이스 서버, 관리자 서버 및 관리자 단말을 포함할 수 있다. 시스템 내 서버들을 포함하는 개체들은 네트워크로 연결되어 유무선 통신을 통해 데이터를 교환할 수 있다.
학습 데이터 통합 관리 서버는 다수의 사용자 단말 이외에 다른 서버들과 연결될 수 있으며, 예를 들어, 통합 데이터베이스 서버, 웹 데이터베이스 서버, 웹 서버, 앱 데이터베이스 서버, 앱 서버, 관리자 데이터베이스 서버, 관리자 서버 등과 네트워크로 연결되어 유무선 통신을 통해 데이터를 교환할 수 있다.
일실시예에 따르면, 통합 데이터베이스 서버는 통합 데이터베이스 스토리지와 연결되어 있고, 웹 데이터베이스 서버는 웹 데이터베이스 스토리지와 연결되어 있고, 앱 데이터베이스 서버는 앱 데이터베이스 스토리지와 연결되어 있고, 관리자 데이터베이스 서버는 관리자 데이터베이스 스토리지와 연결되어 있을 수 있다.
웹 서버는 웹 데이터베이스 서버 및 웹 단말과 연결될 수 있고, 앱 서버는 앱 데이터베이스 서버 및 앱 단말과 연결될 수 있고, 관리자 서버는 관리자 데이터베이스 서버 및 관리자 단말과 연결될 수 있다.
웹 서버는 웹 단말과 통신하여 웹 단말로부터 수신하는 입력을 처리하고, 웹 데이터베이스 서버는 웹 기능과 관련하여 처리되는 데이터의 데이터베이스를 구현하고, 데이터베이스 처리와 관련된 명령을 수행하고, 데이터를 웹 데이터베이스 스토리지에 저장할 수 있다.
앱 서버는 앱 단말과 통신하여 앱 단말로부터 수신하는 입력을 처리하고, 앱 데이터베이스 서버는 앱 기능과 관련하여 처리되는 데이터의 데이터베이스를 구현하고, 데이터베이스 처리와 관련된 명령을 수행하고, 데이터를 앱 데이터베이스 스토리지에 저장할 수 있다.
관리자 서버는 관리자 단말과 통신하여 관리자 단말로부터 수신하는 입력을 처리하고, 관리자 데이터베이스 서버는 관리자 기능과 관련하여 처리되는 데이터의 데이터베이스를 구현하고, 데이터베이스 처리와 관련된 명령을 수행하고, 데이터를 관리자 데이터베이스 스토리지에 저장할 수 있다.
웹 데이터베이스 서버, 앱 데이터베이스 서버, 관리자 데이터베이스 서버와 각각의 스토리지들은 통합되어 구현될 수도 있지만, 독립된 개체로 동작하는 경우 시스템에서 처리되는 데이터의 통합 관리 방식에 따라 시스템의 데이터 처리 효율이 달라 질 수 있다.
학습 데이터 통합 관리 서버는 통합 데이터베이스 스토리지에 저장된 학습 데이터로부터 학습 통합 타겟 데이터를 추출할 수 있으며, 학습 통합 타겟 데이터로부터 데이터 처리 효율을 높이기 위한 정보를 추출하고, 추출된 정보에 따라 학습 통합 타겟 데이터를 처리하기 위한 전략을 생성할 수 있다. 데이터 처리 효율을 위한 정보를 추출하고, 학습 통합 타겟 데이터를 처리하기 위한 전략을 생성하는 실시예는 후술된다.
일실시예에 따르면, 학습 데이터 통합 관리 서버는 학습 데이터를 통합으로 관리하는 방법을 수행할 수 있다. 학습 데이터 통합 관리 서버는 통합 관리의 타겟이 되는 학습 통합 타겟 데이터를 처리할 수 있고, 소프트웨어 모듈, 하드웨어 모듈 또는 이들의 조합으로 구현될 수 있다. 학습 데이터 통합 관리 서버는 통합 데이터베이스 서버와 연동하여 데이터베이스 관련 정보를 처리할 수 있고, 통합 데이터베이스 서버에 의해 데이터베이스화된 데이터는 통합 데이터베이스 스토리지에 저장될 수 있다.
시스템 내 데이터들은 각각의 서버들에 의해 처리될 수 있는데, 시스템의 전체 효율을 높이기 위한 데이터의 관리 및 통합과 관련된 명령은 학습 데이터 통합 관리 서버에 의해 처리될 수 있고, 학습 데이터 통합 관리 서버에 의해 처리되는 데이터의 데이터베이스 처리는 통합 데이터베이스 서버에 의해 처리될 수 있다.
일실시예에 따르면, 시스템 내 서버들은 인공지능을 이용하여 학습 데이터 통합 관리를 위한 정보를 생성할 수 있다. 각각의 서버들은 학습된 모듈을 포함할 수 있고, 데이터 처리 히스토리와 새롭게 입력되는 트레이닝 샘플들을 활용하여 인공지능 모델을 학습시킬 수 있다. 인공지능 모델과 관련된 내용은 후술된다.
S1401 단계에서, 학습 데이터 통합 관리 서버는 학습 데이터 통합 관리 단말로부터 학습 데이터를 수신할 수 있다. 학습 데이터는 학습 활동에 의해 생성된 데이터로서, 예를 들어, 수학 학습 커리큘럼에 따라 학습이 진행되면, 학습 활동에 의해 생성되는 데이터를 포함할 수 있으며, 시스템 내 서버들은 이러한 데이터를 각 서버 기능 별로 처리하고, 데이터베이스화할 수 있다. 사용자는 학습 데이터 통합 관리 단말을 이용하여 학습 활동과 관련된 정보를 입력할 수 있고, 학습 데이터 통합 관리 단말은 사용자의 입력에 기초하여 학습 데이터를 학습 데이터 통합 관리 장치로 전송할 수 있다. 학습 데이터는 사용자 입력뿐만 아니라 학습과 관련된 정보가 갱신됨에 따라 시스템 내 처리 규약에 의해 주기적 또는 비주기적으로 생성될 수 있다.
S1402 단계에서, 학습 데이터 통합 관리 서버는 학습 데이터로부터 학습 통합 타겟 데이터를 추출할 수 있다. 학습 통합 타겟 데이터는 학습 데이터로부터 추출된 데이터로서 시스템내 서버들의 처리 효율을 높이기 위한 통합 관리의 타겟이 되는 데이터이다.
학습 데이터 통합 관리 서버에 의해 추출되는 학습 통합 타겟 데이터는 식별자, 학습 시간 및 학습 범위에 대한 정보를 포함할 수 있다. 식별자는 학습 통합 타겟 데이터를 식별하기 위한 정보를 포함할 수 있다. 학습 시간은 실제로 학습을 수행한 시간으로, 예를 들어, 온라인 강의를 통해 학습을 수행한 시간이 측정되어, 학습 시간에 대한 정보가 생성될 수 있다. 학습 범위는 학습 시간에 대응하여 어떠한 범위에 대한 학습을 수행하였는지에 대한 정보를 포함할 수 있다. 예를 들어, 수학 학습 커리큘럼이 생성되면, 수학 학습 커리큘럼에는 우선 순위에 따라 세부 문항 범위 별로 순서가 미리 정해져 있는데, 학습 범위는 여러 세부 문항 범위 중 어느 세부 문항 범위에 대한 학습을 수행하였는지에 대한 정보를 포함할 수 있다.
S1403 단계에서, 학습 데이터 통합 관리 서버는 시스템의 데이터 처리 효율을 지표화한 시스템 관리 효율 지수의 목표 값인 목표 시스템 관리 효율 지수를 획득할 수 있다. 상술한 바와 같이, 시스템은 학습 데이터 통합 관리 서버, 통합 데이터베이스 서버, 웹(web) 서버, 앱(app) 서버 및 관리자 서버를 포함할 수 있다. 시스템 관리 효율 지수는 시스템의 데이터 처리 효율을 지표화한 지수인데, 시스템 내 개체들이 데이터를 처리함에 따라 발생하는 데이터 처리 히스토리에 기초하여 지표화된 값일 수 있고, 시스템 관리 효율 지수의 목표 값은 시스템의 하드웨어 성능과 처리하는 데이터 양과 유형에 기초하여 설정될 수 있다.
일실시예에 따르면, 학습 데이터 통합 관리 서버는 시스템 관리 효율 지수를 시스템의 총 데이터 조회 속도 지수, 총 유저 만족도 지수, 총 접근 경로 길이 지수 및 총 보안성 지수와 총 데이터 요청 쿼리 수에 기초하여 시스템 관리 효율 지수를 정의할 수 있다. 학습 데이터 통합 관리 서버는 수학식 1과 같이 시스템 관리 효율 지수를 정의할 수 있다.
Figure 112020103888701-pat00001
학습 데이터 통합 관리 서버는 시스템 내 서버들의 데이터 처리에 의해 발생하는 데이터 처리 히스토리 정보를 획득할 수 있고, 데이터 처리 히스토리 정보는 쿼리 키워드, 보안 공격 정보, 요청 유저 정보, 요청 서버 정보, 요청 빈도 정보 및 유저 만족도 정보를 포함할 수 있다. 학습 데이터 통합 관리 서버는 쿼리 키워드, 요청 서버 정보 및 요청 빈도 정보에 기초하여 총 데이터 조회 속도 지수를 생성할 수 있다. 학습 데이터 통합 관리 서버는 요청된 정보에 응답하여 데이터를 조회하는데 걸리는 시간에 기초하여 데이터 조회 속도 지수를 생성할 수 있고, 요청된 정보들에 대응하는 데이터 조회 속도 지수들에 기초하여 총 데이터 조회 속도 지수를 생성할 수 있다. 총 데이터 조회 속도 지수가 높을수록 데이터 조회 속도가 빠른 것으로 정의될 수 있다. 학습 데이터 통합 관리 서버는 총 데이터 조회 속도 지수가 높도록 데이터 통합 관리를 수행하므로, 데이터 처리에 의해 발생하는 데이터 조회 속도 성능이 우수한 데이터 통합 관리를 수행할 수 있다.
학습 데이터 통합 관리 서버는 시스템 내 서버들의 데이터 처리에 의해 발생하는 유저 만족도 정보를 획득하고, 획득된 정보에 기초하여 총 유저 만족도 지수를 생성할 수 있다. 총 유저 만족도 지수가 높을수록 유저의 만족도가 높은 것으로 정의될 수 있다. 유저 만족도 정보는 사용자에 의해 입력된 값에 기초하여 생성될 수 있다. 학습 데이터 통합 관리 서버는 총 유저 만족도 지수가 높도록 데이터 통합 관리를 수행하므로, 데이터 처리 및 응답에 대한 유저 만족도가 높은 데이터 통합 관리를 수행할 수 있다.
학습 데이터 통합 관리 서버는 시스템 내 서버들의 데이터 처리에 의해 발생하는 쿼리 키워드, 요청 서버 정보 및 요청 빈도 정보에 기초하여 총 접근 경로 길이 지수를 생성할 수 있다. 학습 데이터 통합 관리 서버는 요청된 정보에 응답하여 데이터를 조회하는데 접근하는 단계들을 경로로 정의하고, 그 단계들의 길이의 합에 기초하여 총 접근 경로 길이 지수를 생성할 수 있다. 총 접근 경로 길이 지수가 높을수록 접근 경로가 짧은 것으로 정의될 수 있다. 학습 데이터 통합 관리 서버는 총 접근 경로 길이 지수가 높도록 데이터 통합 관리를 수행하므로, 빈도수가 높은 데이터의 접근 경로를 짧게 데이터 통합 관리를 수행할 수 있다. 접근 경로는 시스템 내 물리적인 하드웨어 장치들의 단계들로 표현될 수 있고, 유저가 데이터를 접근하는데 필요한 UX 횟수로 정의될 수도 있다.
학습 데이터 통합 관리 서버는 시스템 내 서버들의 데이터 처리에 의해 발생하는 쿼리 키워드, 보안 공격 정보, 요청 유저 정보, 요청 서버 정보 및 요청 빈도 정보를 획득하고, 획득된 정보에 기초하여 총 보안성 지수를 생성할 수 있다. 학습 데이터 통합 관리 서버는 요청된 정보에 응답하여 데이터를 조회하거나 처리하는데 발생하는 보안 공격 횟수, 보안 공격 유형, 보안 공격 강도 및 보안 공격 주체에 기초하여 총 보안성 지수를 생성할 수 있다. 총 보안성 지수가 높을수록 보안 공격에 강한 것으로 정의될 수 있다. 학습 데이터 통합 관리 서버는 총 보안성 지수가 높도록 데이터 통합 관리를 수행하므로, 데이터 처리에 의해 발생하는 보안 공격에 강인한 데이터 통합 관리를 수행할 수 있다.
S1404 단계에서, 학습 데이터 통합 관리 서버는 학습 통합 타겟 데이터 및 목표 시스템 관리 효율 지수를 제2 뉴럴 네트워크에 적용하여 제1 학습 데이터 통합 전략을 생성할 수 있다. 제2 뉴럴 네트워크의 출력에 기초하여 생성되는 제1 학습 데이터 통합 전략은 학습 통합 타겟 데이터의 매칭 서버, UI 노출도, 저장소, 접근 권한 및 조회 속도에 대응하는 설정 값들에 기초하여 설계될 수 있다. 매칭 서버는 시스템 내 상술한 서버들 중 매칭되는 적어도 하나의 서버이고, UI 노출도는 시스템 내 특정 서버의 플랫폼 또는 프로그램의 UI에 의해 유저에게 노출되는 정도이고, 저장소는 시스템 내 상술한 스토리지들 중 적어도 하나의 스토리지이고, 접근 권한은 데이터에 접근할 수 있는 권한으로서 유저들 또는 접근 서버들 별로 차별적으로 제공되도록 설정될 수 있고, 조회 속도는 학습 통합 타겟 데이터를 조회하는 속도로서, 접근 경로의 길이나 데이터베이스 서버의 처리 알고리즘에 다른 속도로 설정될 수 있다.
일실시예에 따르면, 학습 데이터 통합 관리 서버는 딥러닝을 기반으로 학습 통합 타겟 데이터에 따른 매칭 서버, UI 노출도, 저장소, 접근 권한 및 조회 속도에 대응하는 설정 값들을 포함하는 제1 학습 데이터 통합 전략을 생성할 수 있다.
일실시예에 따르면, 학습 데이터 통합 관리 서버는 학습 통합 타겟 데이터 및 목표 시스템 관리 효율 지수에 기초하여 제1 입력 벡터를 생성할 수 있다. 여기서, 벡터는 one-hot 벡터, 실수 벡터 등 설계 의도에 따라 다양한 형태로 정의될 수 있다. 제1 입력 벡터 생성 시 학습 통합 타겟 데이터 및 목표 시스템 관리 효율 지수 내 다양한 변수들에 각각 가중치들이 적용될 수 있다. 여기서, 가중치들은 제2 뉴럴 네트워크의 학습 시 최적화될 수 있다. 학습 데이터 통합 관리 서버는 제1 입력 벡터를 기 학습된 제2 뉴럴 네트워크로 인가할 수 있다. 제1 입력 벡터는 제2 뉴럴 네트워크의 입력 레이어에 대응할 수 있다.
학습 데이터 통합 관리 서버는 제1 입력 벡터가 인가된 제2 뉴럴 네트워크로부터 생성된 제1 출력 벡터를 획득할 수 있다. 제1 출력 벡터는 제2 뉴럴 네트워크의 출력 레이어에 대응할 수 있다. 학습 데이터 통합 관리 서버는 제1 출력 벡터에 기초하여 학습 통합 타겟 데이터에 따른 매칭 서버, UI 노출도, 저장소, 접근 권한 및 조회 속도에 대응하는 설정 값들을 포함하는 제1 학습 데이터 통합 전략을 생성할 수 있다. 제1 학습 데이터 통합 전략 내 설정 값들은 복수의 분류들과 같이 이산화되어 표현되거나 연속된 값으로 표현될 수 있다. 뉴럴 네트워크의 학습과 관련된 내용은 도 16을 참조하여 후술된다.
S1405 단계에서, 학습 데이터 통합 관리 서버는 제2 뉴럴 네트워크에 의해 생성된 제1 학습 데이터 통합 전략을 통합 데이터베이스 서버, 웹(web) 서버, 앱(app) 서버 및 관리자 서버로 전송할 수 있다. 통합 데이터베이스 서버, 웹(web) 서버, 앱(app) 서버 및 관리자 서버는 제1 학습 데이터 통합 전략에 기초하여, 학습 통합 타겟 데이터를 처리할 수 있다. 예를 들어, 통합 데이터베이스 서버, 웹(web) 서버, 앱(app) 서버 및 관리자 서버는 제1 학습 데이터 통합 전략에 기초하여 학습 통합 타겟 데이터에 대응하는 매칭 서버 및 저장소를 판단할 수 있고, 매칭 서버 및 저장소에 대응하는 서버는 해당 학습 통합 타겟 데이터를 처리하고, 대응 데이터베이스 처리 서버와 스토리지를 활용하여 해당 학습 통합 타겟 데이터를 저장할 수 있다. 예를 들어, 통합 데이터베이스 서버, 웹(web) 서버, 앱(app) 서버 및 관리자 서버는 제1 학습 데이터 통합 전략에 기초하여 학습 통합 타겟 데이터에 대응하는 UI 노출도를 판단할 수 있고, 매칭 서버 및 저장소에 대응하는 서버는 해당 학습 통합 타겟 데이터를 제1 학습 데이터 통합 전략에 따른 UI 노출도에 기초하여 대응 플랫폼 또는 프로그램에 해당 학습 통합 타겟 데이터를 노출시킬 수 있다. 예를 들어, 통합 데이터베이스 서버, 웹(web) 서버, 앱(app) 서버 및 관리자 서버는 제1 학습 데이터 통합 전략에 기초하여 학습 통합 타겟 데이터에 대응하는 접근 권한 및 조회 속도를 판단할 수 있고, 매칭 서버 및 저장소에 대응하는 서버는 해당 학습 통합 타겟 데이터를 제1 학습 데이터 통합 전략에 따른 접근 권한 및 조회 속도에 기초하여 해당 학습 통합 타겟 데이터를 처리할 수 있다.
S1406 단계에서, 학습 데이터 통합 관리 서버는 제1 학습 데이터 통합 전략에 따라 학습 통합 타겟 데이터를 처리한 통합 데이터베이스 서버, 웹(web) 서버, 앱(app) 서버 및 관리자 서버로부터 서버 처리 히스토리 정보를 수신할 수 있다. 학습 통합 타겟 데이터를 처리한 통합 데이터베이스 서버, 웹(web) 서버, 앱(app) 서버 및 관리자 서버에 의해 생성되는 서버 처리 히스토리 정보는 쿼리 키워드, 보안 공격 정보, 요청 유저 정보, 요청 서버 정보, 요청 빈도 정보 및 유저 만족도 정보를 포함할 수 있다. 학습 데이터 통합 관리 서버는 서버 처리 히스토리 정보에 기초하여 현재 시스템 관리 효율 지수를 생성하고, 생성된 현재 시스템 관리 효율 지수에 기초하여 학습 데이터 통합 전략을 갱신할 수 있다. 학습 데이터 통합 관리 서버는 학습 통합 타겟 데이터를 처리하기 위한 제1 학습 데이터 통합 전략을 생성하고, 생성된 제1 학습 데이터 통합 전략에 따라 학습 통합 타겟 데이터를 처리함에 따라 획득된 지표에 기초하여 새로운 학습 데이터 통합 전략인 제2 학습 데이터 통합 전략을 생성하여, 시스템의 데이터 처리 효율을 지속적으로 개선하는 전략을 생성할 수 있고, 이에 따라 시스템의 데이터 처리 효율과 관련된 성능을 높일 수 있다. 제2 학습 데이터 통합 전략과 관련된 내용은 도 15를 참조하여 후술된다.
도 15는 일실시예에 따른 제2 학습 데이터 통합 전략을 갱신하는 과정을 설명하기 위한 도면이다.
일실시예에 따르면, 학습 데이터 통합 관리 서버는 제1 학습 데이터 통합 전략에 따라 학습 통합 타겟 데이터를 처리한 통합 데이터베이스 서버, 웹(web) 서버, 앱(app) 서버 및 관리자 서버로부터 수신한 서버 처리 히스토리 정보에 기초하여 현재 시스템 관리 효율 지수를 생성할 수 있다. 학습 데이터 통합 관리 서버는 서버 처리 히스토리 정보 내 통합 데이터베이스 서버, 웹(web) 서버, 앱(app) 서버 및 관리자 서버 각각에 대응하는 쿼리 키워드, 보안 공격 정보, 요청 유저 정보, 요청 서버 정보, 요청 빈도 정보, 유저 만족도 정보에 기초하여, 시스템의 총 데이터 조회 속도 지수, 총 유저 만족도 지수, 총 접근 경로 길이 지수 및 총 보안성 지수의 총 합계와 총 데이터 요청 쿼리 수를 생성할 수 있다. 학습 데이터 통합 관리 서버는 생성된 총 합계 및 총 데이터 요청 쿼리 수에 기초하여, 현재 시스템 관리 효율 지수를 생성할 수 있다. 현재 시스템 관리 효율 지수는 상술한 제1 학습 데이터 통합 전략에 따라 학습 통합 타겟 데이터를 처리하는 시스템의 데이터 처리 효율일 수 있다.
일실시예에 따르면, 학습 데이터 통합 관리 서버는 학습 통합 타겟 데이터, 목표 시스템 관리 효율 지수 및 현재 시스템 관리 효율 지수를 제3 뉴럴 네트워크에 적용하여 제2 학습 데이터 통합 전략을 생성할 수 있다. 제3 뉴럴 네트워크의 출력에 기초하여 생성되는 제2 학습 데이터 통합 전략은 학습 통합 타겟 데이터의 매칭 서버, UI 노출도, 저장소, 접근 권한 및 조회 속도에 대응하는 설정 값들에 기초하여 설계될 수 있으며 제1 학습 데이터 통합 전략을 갱신하는 정보일 수 있다.
일실시예에 따르면, 학습 데이터 통합 관리 서버는 딥러닝을 기반으로 학습 통합 타겟 데이터에 따른 매칭 서버, UI 노출도, 저장소, 접근 권한 및 조회 속도에 대응하는 설정 값들을 포함하는 제2 학습 데이터 통합 전략을 생성할 수 있다.
일실시예에 따르면, 학습 데이터 통합 관리 서버는 학습 통합 타겟 데이터, 목표 시스템 관리 효율 지수 및 현재 시스템 관리 효율 지수에 기초하여 제2 입력 벡터를 생성할 수 있다. 여기서, 벡터는 one-hot 벡터, 실수 벡터 등 설계 의도에 따라 다양한 형태로 정의될 수 있다. 제2 입력 벡터 생성 시 학습 통합 타겟 데이터, 목표 시스템 관리 효율 지수 및 현재 시스템 관리 효율 지수 내 다양한 변수들에 각각 가중치들이 적용될 수 있다. 여기서, 가중치들은 제3 뉴럴 네트워크의 학습 시 최적화될 수 있다. 학습 데이터 통합 관리 서버는 제2 입력 벡터를 기 학습된 제3 뉴럴 네트워크로 인가할 수 있다. 제2 입력 벡터는 제3 뉴럴 네트워크의 입력 레이어에 대응할 수 있다.
학습 데이터 통합 관리 서버는 제2 입력 벡터가 인가된 제3 뉴럴 네트워크로부터 생성된 제2 출력 벡터를 획득할 수 있다. 제2 출력 벡터는 제3 뉴럴 네트워크의 출력 레이어에 대응할 수 있다. 학습 데이터 통합 관리 서버는 제2 출력 벡터에 기초하여 학습 통합 타겟 데이터에 따른 매칭 서버, UI 노출도, 저장소, 접근 권한 및 조회 속도에 대응하는 설정 값들을 포함하는 제2 학습 데이터 통합 전략을 생성할 수 있다. 제2 학습 데이터 통합 전략 내 설정 값들은 복수의 분류들과 같이 이산화되어 표현되거나 연속된 값으로 표현될 수 있다. 뉴럴 네트워크의 학습과 관련된 내용은 도 16을 참조하여 후술된다.
일실시예에 따르면, 학습 데이터 통합 관리 서버는 제2 학습 데이터 통합 전략을 통합 데이터베이스 서버, 웹(web) 서버, 앱(app) 서버 및 관리자 서버로 전송할 수 있다. 학습 데이터 통합 관리 서버는 제2 학습 데이터 통합 전략에 따라 학습 통합 타겟 데이터를 처리한 통합 데이터베이스 서버, 웹(web) 서버, 앱(app) 서버 및 관리자 서버로부터 제2 서버 처리 히스토리 정보를 수신할 수 있다. 학습 데이터 통합 관리 서버는 제2 서버 처리 히스토리 정보에 기초하여 제2 현재 시스템 관리 효율 지수를 생성하고, 생성된 제2 현재 시스템 관리 효율 지수와 제3 뉴럴 네트워크를 이용하여 제2 학습 데이터 통합 전략을 갱신할 수 있다. 학습 데이터 통합 관리 서버는 학습 통합 타겟 데이터들에 대응하는 매칭 서버, UI 노출도, 저장소, 접근 권한 및 조회 속도에 대응하는 설정 값들(1501)을 지속적으로 갱신하여 시스템에 최적화된 데이터 통합 관리 전략을 제공할 수 있다.
도 16은 일실시예에 따른 제2 뉴럴 네트워크 및 제3 뉴럴 네트워크의 학습을 설명하기 위한 도면이다.
제2 뉴럴 네트워크 및 제3 뉴럴 네트워크는 트레이닝 샘플들이 입력되는 입력 레이어와 트레이닝 출력들을 출력하는 출력 레이어를 포함하고, 트레이닝 출력들과 레이블들 사이의 차이에 기초하여 학습될 수 있다. 여기서, 레이블들은 학습 통합 타겟 데이터 및 목표 시스템 관리 효율 지수에 따른 학습 데이터 통합 전략들; 및 학습 통합 타겟 데이터, 목표 시스템 관리 효율 지수 및 현재 시스템 관리 효율 지수에 따른 학습 데이터 통합 전략들에 기초하여 정의될 수 있다.
예를 들어, 제7 레이블들은 학습 통합 타겟 데이터 및 목표 시스템 관리 효율 지수에 따른 학습 데이터 통합 전략들에 기초하여 정의되고, 제8 레이블들은 학습 통합 타겟 데이터, 목표 시스템 관리 효율 지수 및 현재 시스템 관리 효율 지수에 따른 학습 데이터 통합 전략들에 기초하여 정의될 수 있다.
제2 뉴럴 네트워크 및 제3 뉴럴 네트워크는 복수의 노드들의 그룹으로 연결되어 있고, 연결된 노드들 사이의 가중치들과 노드들을 활성화시키는 활성화 함수에 의해 정의된다.
도 16을 참조하면, 학습 장치는 트레이닝 학습 통합 타겟 데이터들(1603) 및 트레이닝 목표 시스템 관리 효율 지수들(1604)을 제2 뉴럴 네트워크(1601)로 적용할 수 있다. 제2 뉴럴 네트워크(1601)는 트레이닝 학습 통합 타겟 데이터들(1603) 및 트레이닝 목표 시스템 관리 효율 지수들(1604)에 기초하여 생성된 입력 벡터들에 대응하는 입력 레이어를 포함할 수 있고, 입력 레이어는 복수의 노드들로 구성될 수 있다. 제2 뉴럴 네트워크(1601)는 제1 트레이닝 학습 데이터 통합 전략들(1605)을 생성할 수 있다. 제2 뉴럴 네트워크(1601)는 제1 트레이닝 학습 데이터 통합 전략들(1605)에 대응하는 출력 벡터들에 대응하는 출력 레이어를 포함할 수 있고, 출력 레이어는 복수의 노드들로 구성될 수 있다. 학습 장치는 제1 트레이닝 학습 데이터 통합 전략들(1605) 및 제7 레이블들 사이의 차이에 기초하여 제2 뉴럴 네트워크(1601)를 학습시킬 수 있다.
도 16을 참조하면, 학습 장치는 트레이닝 학습 통합 타겟 데이터들(1603), 트레이닝 목표 시스템 관리 효율 지수들(1604) 및 트레이닝 현재 시스템 관리 효율 지수들(1606)을 제3 뉴럴 네트워크(1602)로 적용할 수 있다. 제3 뉴럴 네트워크(1602)는 트레이닝 학습 통합 타겟 데이터들(1603), 트레이닝 목표 시스템 관리 효율 지수들(1604) 및 트레이닝 현재 시스템 관리 효율 지수들(1606)에 기초하여 생성된 입력 벡터들에 대응하는 입력 레이어를 포함할 수 있고, 입력 레이어는 복수의 노드들로 구성될 수 있다. 제3 뉴럴 네트워크(1602)는 제2 트레이닝 학습 데이터 통합 전략들(1607)을 생성할 수 있다. 제3 뉴럴 네트워크(1602)는 제2 트레이닝 학습 데이터 통합 전략들(1607)에 대응하는 출력 벡터들에 대응하는 출력 레이어를 포함할 수 있고, 출력 레이어는 복수의 노드들로 구성될 수 있다. 학습 장치는 제2 트레이닝 학습 데이터 통합 전략들(1607) 및 제8 레이블들 사이의 차이에 기초하여 제3 뉴럴 네트워크(1602)를 학습시킬 수 있다.
학습 장치는 GD(Gradient Decent) 기법 또는 SGD(Stochastic Gradient Descent) 기법을 이용하여 뉴럴 네트워크를 학습시킬 수 있다. 학습 장치는 뉴럴 네트워크의 출력들 및 레이블들 의해 설계된 손실 함수를 이용할 수 있다.
학습 장치는 미리 정의된 손실 함수(loss function)을 이용하여 트레이닝 에러를 계산할 수 있다. 손실 함수는 레이블, 출력 및 파라미터를 입력 변수로 미리 정의될 수 있고, 여기서 파라미터는 뉴럴 네트워크 내 가중치들에 의해 설정될 수 있다. 예를 들어, 손실 함수는 MSE(Mean Square Error) 형태, 엔트로피(entropy) 형태 등으로 설계될 수 있는데, 손실 함수가 설계되는 실시예에는 다양한 기법 또는 방식이 채용될 수 있다.
학습 장치는 역전파(backpropagation) 기법을 이용하여 트레이닝 에러에 영향을 주는 가중치들을 찾아낼 수 있다. 여기서, 가중치들은 뉴럴 네트워크 내 노드들 사이의 관계들이다. 학습 장치는 역전파 기법을 통해 찾아낸 가중치들을 최적화시키기 위해 레이블들 및 출력들을 이용한 SGD 기법을 이용할 수 있다. 예를 들어, 학습 장치는 레이블들, 출력들 및 가중치들에 기초하여 정의된 손실 함수의 가중치들을 SGD 기법을 이용하여 갱신할 수 있다.
도 17은 일실시예에 따른 시스템에 포함된 제어 장치의 구성의 예시도이다.
일실시예에 따르면, 제어 장치는 시스템에 의해 수행되는 동작을 수행할 수 있다. 제어 장치(1701)는 프로세서(1702) 및 메모리(1703)를 포함한다. 프로세서(1702)는 도 1 내지 도 16을 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 16을 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 제어 장치(1701)를 이용하는 자 또는 단체는 도 1 내지 도 16을 참조하여 전술된 방법들 일부 또는 전부와 관련된 서비스를 제공할 수 있다.
메모리(1703)는 전술된 방법들과 관련된 정보를 저장하거나 전술된 방법들을 구현하는 프로그램을 저장할 수 있다. 메모리(1703)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.
프로세서(1702)는 프로그램을 실행하고, 제어 장치(1701)를 제어할 수 있다. 프로세서(1702)에 의하여 실행되는 프로그램의 코드는 메모리(1703)에 저장될 수 있다. 제어 장치(1701)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.
제어 장치(1701)는 인공 신경망을 학습시키거나, 학습된 인공 신경망을 이용하는데 사용될 수 있다. 메모리(1703)는 학습 중인 또는 학습된 인공 신경망을 포함할 수 있다. 프로세서(1702)는 메모리(1703)에 저장된 인공 신경망 알고리즘을 학습시키거나 실행시킬 수 있다. 인공 신경망을 학습시키는 제어 장치(1701)와 학습된 인공 신경망을 이용하는 제어 장치(1701)는 동일할 수도 있고 개별적일 수도 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.

Claims (5)

  1. 입시 수학 학습 커리큘럼 재구성 시스템에 의해 수행되는, 인공지능을 기반으로 한 입시 수학 학습 커리큘럼을 재구성 하는 방법에 있어서,
    작년 주요 입시 시험 및 모의 시험의 해설 텍스트를 획득하는 단계;
    상기 해설 텍스트에 기초하여, 숫자, 연산 기호, 한글 글자, 알파벳 및 로마자를 포함하는 수식을 지시하는 값들 중 상기 연산 기호를 통해 판단되어 상기 연산 기호의 전후방에 연속으로 위치하는 상기 수식을 지시하는 값들 중 가장 마지막 값을 기준으로 구분된 수식을 분류하고, 상기 연산 기호를 포함하지 않는 숫자, 한글 글자, 알파벳 및 로마자를 해설 문장으로 분류하는 단계;
    상기 해설 문장에 기초하여, 범위를 지시하는데 사용되는 단어들을 데이터베이스로부터 검색하여, 문제의 해설이 포함하는 범위를 추론할 수 있는 단어들을 통해 범위 추론 단어를 추출하는 단계;
    상기 수식에 기초하여, 상기 수식에 대한 다차원의 벡터로, one-hot 벡터 및 실수 벡터 중 어느 하나의 형태로 정의된 제1 연산 벡터를 생성하는 단계;
    상기 범위 추론 단어에 기초하여, 상기 범위 추론 단어의 가중 합이 적용된 다차원의 벡터로, one-hot 벡터 및 실수 벡터 중 어느 하나의 형태로 정의된 제2 연산 벡터를 생성하는 단계;
    상기 해설 텍스트를 입력으로 문항 범위를 획득할 수 있도록 미리 학습된 제1 인공 신경망 및 제2 인공 신경망에 각각 상기 제1 연산 벡터 및 상기 제2 연산 벡터를 입력하는 단계;
    상기 제1 인공 신경망 및 상기 제2 인공 신경망으로부터 각각 제1 출력 및 제2 출력을 획득하는 단계;
    상기 제1 출력 및 제2 출력에 기초하여, 상기 문항 범위를 획득하는 단계;
    상기 해설 텍스트에 기초하여, 분석 객체들을 식별하고, 상기 식별된 분석 객체들을 종류 별로 추출하는 단계;
    상기 추출된 분석 객체들에 기초하여, 좌표계가 있는 도형을 그래프 객체로 분류하고, 연속적으로 이어지는 사각형이 있는 도형을 표 객체로 분류하고, 좌표계가 없고 연속적으로 이어지는 사각형이 없는 도형을 도형 객체로 분류하고, 상기 그래프 객체, 상기 도형 객체 및 상기 표 객체를 제외한 나머지를 해설 객체로 분류하여, 상기 분석 객체들을 상기 해설 객체, 상기 그래프 객체, 상기 도형 객체 및 상기 표 객체 중 어느 하나로 각각 분류하는 단계;
    상기 해설 객체, 상기 그래프 객체, 상기 도형 객체 및 상기 표 객체에 기초하여, 상기 해설 객체, 상기 그래프 객체, 상기 도형 객체 및 상기 표 객체에 대응하는 제3 연산 벡터를 생성하는 단계;
    상기 해설 텍스트로부터 각 요구 학습 능력-상기 요구 학습 능력은 수학 문제를 푸는 데에 요구되는 학습 능력을 분류한 것으로서 암산력, 문제이해력, 추론능력, 암기력 및 공간지각능력을 포함하고 학습 능력들의 종류에 따라 5단계로 구분된 난이도를 포함함-을 분류하고 상기 요구 학습 능력의 난이도를 평가할 수 있도록 미리 학습된 제3 인공 신경망에 상기 제3 연산 벡터를 적용하여 제3 출력을 획득하는 단계;
    상기 요구 학습 능력을 설명하는 변수들로 설계되고 상기 요구 학습 능력의 난이도에 따라 이산적으로 설계된 상기 제3 출력에 기초하여, 상기 요구 학습 능력의 종류 중 어느 하나로 분류된 상기 해설 텍스트에 대응하는 상기 요구 학습 능력을 획득하는 단계;
    무작위 풀이 과정 표본-상기 무작위 풀이 과정 표본은 무작위로 추출한 100명의 사람으로부터 획득한 주요 입시 시험 및 모의 시험의 풀이 과정을 포함함-의 풀이 과정 이미지를 획득하고, 상기 풀이 과정 이미지에 기초하여, 텍스트를 식별하는 시각적인 요소를 추출하고 상기 추출된 시각적인 요소를 특징으로 정의하고 상기 정의된 특징으로부터 텍스트를 식별하는 이미지 처리를 통해 상기 풀이 과정 이미지로부터 텍스트 정보를 획득하고, 상기 텍스트 정보에 기초하여, 상기 무작위 풀이 과정 표본의 대상자가 직접 푼 풀이 과정 중에 풀이가 틀린 부분의 문항 범위인 틀린 문항 범위 및 상기 무작위 풀이 과정 표본의 대상자가 직접 푼 풀이 과정 중에 풀이가 틀린 부분에서의 요구 학습 능력인 부족 학습 능력을 획득하는 단계;
    상기 틀린 문항 범위, 상기 부족 학습 능력, 상기 문항 범위 및 상기 요구 학습 능력에 기초하여, 상기 틀린 문항 범위 및 상기 부족 학습 능력을 통해 학생들의 학습 수준을 평가하여, 상기 평가된 학습 수준에 따라 세부 문항 범위 별로 보충 학습 필요 점수를 산출하고, 상기 문항 범위 및 상기 요구 학습 능력을 통해 시험 출제 가능성을 평가하여, 상기 평가된 시험 출제 가능성에 따라 세부 문항 범위 별로 심화 학습 필요 점수를 산출하는 단계;
    상기 틀린 문항 범위, 상기 부족 학습 능력, 상기 문항 범위 및 상기 요구 학습 능력 사이의 연관 관계를 고려하여, 상기 보충 학습 필요 점수 및 상기 심화 학습 필요 점수를 합산한 점수가 높은 순으로 세부 문항 범위의 우선 순위를 설정하여 수학 학습 커리큘럼을 생성하는 단계;
    상기 수학 학습 커리큘럼에 따라 학습이 진행되면, 상기 시스템에 포함된 학습 데이터 통합 관리 서버에서, 상기 시스템에 포함된 학습 데이터 통합 관리 단말로부터 학습 데이터를 수신하는 단계;
    상기 학습 데이터 통합 관리 서버에서, 상기 학습 데이터로부터 식별자, 학습 시간 및 학습 범위를 포함하는 학습 통합 타겟 데이터를 추출하는 단계;
    상기 학습 데이터 통합 관리 서버에서, 상기 학습 데이터 통합 관리 서버, 통합 데이터베이스 서버, 웹(web) 서버, 앱(app) 서버 및 관리자 서버를 포함하는 상기 시스템의 데이터 처리 히스토리에 기초하여 데이터 처리 효율을 지표화한 시스템 관리 효율 지수의 목표 값인 목표 시스템 관리 효율 지수를 획득하는 단계;
    상기 학습 데이터 통합 관리 서버에서, 상기 학습 통합 타겟 데이터 및 상기 목표 시스템 관리 효율 지수를 제2 뉴럴 네트워크에 적용하여, 상기 학습 통합 관리 데이터의 매칭 서버, UI 노출도, 저장소, 접근 권한 및 조회 속도에 대응하는 설정 값들에 기초하여 설계된 제1 학습 데이터 통합 전략을 생성하는 단계;
    상기 학습 데이터 통합 관리 서버에서, 상기 제1 학습 데이터 통합 전략을 상기 통합 데이터베이스 서버, 상기 웹(web) 서버, 상기 앱(app) 서버 및 상기 관리자 서버로 전송하는 단계;
    상기 학습 데이터 통합 관리 서버에서, 상기 제1 학습 데이터 통합 전략에 따라 상기 학습 통합 타겟 데이터를 처리한 상기 통합 데이터베이스 서버, 상기 웹(web) 서버, 상기 앱(app) 서버 및 상기 관리자 서버로부터 쿼리 키워드, 보안 공격 정보, 요청 유저 정보, 요청 서버 정보, 요청 빈도 정보 및 유저 만족도 정보를 포함하는 서버 처리 히스토리 정보를 수신하는 단계;
    상기 학습 데이터 통합 관리 서버에서, 상기 서버 처리 히스토리 정보 내 상기 통합 데이터베이스 서버, 상기 웹(web) 서버, 상기 앱(app) 서버 및 상기 관리자 서버 각각에 대응하는 쿼리 키워드, 보안 공격 정보, 요청 유저 정보, 요청 서버 정보, 요청 빈도 정보, 유저 만족도 정보에 기초하여, 상기 학습 데이터 처리 시스템의 총 데이터 조회 속도 지수, 총 유저 만족도 지수, 총 접근 경로 길이 지수 및 총 보안성 지수의 총 합계와 총 데이터 요청 쿼리 수를 생성하는 단계;
    상기 학습 데이터 통합 관리 서버에서, 상기 생성된 총 합계 및 상기 총 데이터 요청 쿼리 수에 기초하여, 현재 시스템 관리 효율 지수를 생성하는 단계;
    상기 학습 데이터 통합 관리 서버에서, 상기 학습 통합 타겟 데이터, 상기 목표 시스템 관리 효율 지수 및 상기 현재 시스템 관리 효율 지수를 제3 뉴럴 네트워크에 적용하여 제2 학습 데이터 통합 전략을 생성하는 단계;
    상기 학습 데이터 통합 관리 서버에서, 상기 제2 학습 데이터 통합 전략을 상기 통합 데이터베이스 서버, 상기 웹(web) 서버, 상기 앱(app) 서버 및 상기 관리자 서버로 전송하는 단계;
    상기 학습 데이터 통합 관리 서버에서, 상기 제2 학습 데이터 통합 전략에 따라 상기 학습 통합 타겟 데이터를 처리한 상기 통합 데이터베이스 서버, 상기 웹(web) 서버, 상기 앱(app) 서버 및 상기 관리자 서버로부터 제2 서버 처리 히스토리 정보를 수신하는 단계; 및
    상기 학습 데이터 통합 관리 서버에서, 상기 제2 서버 처리 히스토리 정보에 기초하여 제2 현재 시스템 관리 효율 지수를 생성하고, 상기 제2 현재 시스템 관리 효율 지수와 상기 제3 뉴럴 네트워크를 이용하여 상기 제2 학습 데이터 통합 전략을 갱신하는 단계를 포함하며,
    상기 틀린 문항 범위 및 상기 부족 학습 능력을 획득하는 단계는
    상기 풀이 과정 이미지 내 적어도 하나의 숫자 및 문자를 포함하는 풀이 그룹 객체를 배경으로부터 분리하는 단계;
    상기 풀이 그룹 객체의 공백에 기초하여 풀이 객체들을 식별하는 단계;
    상기 풀이 객체들의 외관 특징들, 패턴 특징들 및 두께 특징들을 추출하는 단계;
    상기 추출된 외관 특징들, 패턴 특징들 및 두께 특징들에 기초하여 제4 연산 벡터를 생성하는 단계;
    상기 제4 연산 벡터를 미리 학습된 제4 인공 신경망에 적용하여 제4 출력을 획득하는 단계; 및
    상기 제4 출력에 기초하여 텍스트 정보를 획득하는 단계를 포함하며,
    상기 제1 인공 신경망은,
    상기 문항 범위에 따라 레이블링된 제1 트레이닝 해설 텍스트들에서 분류된 수식들에 기초하여 제1 트레이닝 연산 벡터들이 생성되고, 상기 제1 트레이닝 연산 벡터들을 통해 제1 트레이닝 출력들이 획득되면,
    상기 제1 트레이닝 출력들과
    상기 제1 트레이닝 해설 텍스트들 및 상기 제1 트레이닝 해설 텍스트들에 대응하는 문항 범위에 기초하여 정의된 제1 레이블들의 차이에 기초하여 학습되고,
    상기 제2 인공 신경망은
    상기 제1 트레이닝 해설 텍스트들에서 분류된 해설 문장들에 기초하여 범위 추론 단어들이 추출되고, 상기 범위 추론 단어들에 기초하여 제2 트레이닝 연산 벡터들이 생성되고, 상기 제2 트레이닝 연산 벡터들을 통해 제2 트레이닝 출력들이 획득되면,
    상기 제2 트레이닝 출력들과
    상기 제1 트레이닝 해설 텍스트들 및 상기 제1 트레이닝 해설 텍스트들에 대응하는 문항 범위에 기초하여 정의된 제2 레이블들의 차이에 기초하여 학습되고,
    상기 제3 인공 신경망은
    상기 요구 학습 능력에 따라 레이블링된 제2 트레이닝 해설 텍스트들에 기초하여 분석 객체들이 식별되고, 상기 분석 객체들에 기초하여 해설 객체들, 그래프 객체들, 도형 객체들 및 표 객체들이 각각 분류되고, 상기 해설 객체들, 상기 그래프 객체들, 상기 도형 객체들 및 상기 표 객체들에 기초하여 제3 트레이닝 연산 벡터들이 생성되고, 상기 제3 트레이닝 연산 벡터들을 통해 제3 트레이닝 출력들이 획득되면,
    상기 제3 트레이닝 출력들과
    상기 제2 트레이닝 해설 텍스트들 및 상기 제2 트레이닝 해설 텍스트들에 대응하는 요구 학습 능력에 기초하여 정의된 제3 레이블들의 차이에 기초하여 학습되고,
    상기 제4 인공 신경망은
    상기 제4 연산 벡터를 입력으로 하는 병렬적 구성의 제1 내지 제3 컨볼루션 신경망; 및
    상기 제1 내지 제3 컨볼루션 신경망의 출력을 비교하여 최적화된 텍스트 정보를 출력하는 제1 뉴럴 네트워크를 포함하고,
    상기 텍스트 정보에 따라 레이블링된 트레이닝 풀이 과정 이미지들에 기초하여 외관 특징들, 패턴 특징들 및 두께 특징들이 각각 분류되고, 상기 외관 특징들, 상기 패턴 특징들 및 상기 두께 특징들에 기초하여 제4 트레이닝 연산 벡터들이 생성되고, 상기 제4 트레이닝 연산 벡터들을 통해 제4 트레이닝 출력들이 획득되면,
    상기 제4 트레이닝 출력들과
    상기 트레이닝 풀이 과정 이미지들 및 상기 트레이닝 풀이 과정 이미지들에 대응하는 텍스트 정보에 기초하여 정의된 제4 레이블들의 차이에 기초하여 학습되고,
    상기 제2 뉴럴 네트워크는 트레이닝 학습 통합 타겟 데이터들 및 트레이닝 목표 시스템 관리 효율 지수들로부터 생성되는 제1 트레이닝 학습 데이터 통합 전략들 및 제7 레이블들 차이에 기초하여 학습되고,
    상기 제3 뉴럴 네트워크는 트레이닝 학습 통합 타겟 데이터들, 트레이닝 목표 시스템 관리 효율 지수들 및 트레이닝 현재 시스템 관리 효율 지수들로부터 생성되는 제2 트레이닝 학습 데이터 통합 전략들 및 제8 레이블들 차이에 기초하여 학습되는,
    인공지능 기반 입시 수학 학습 커리큘럼 재구성 방법.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서,
    상기 틀린 문항 범위 및 상기 부족 학습 능력을 획득하는 단계는
    상기 텍스트 정보에 기초하여, 누락된 풀이-상기 누락된 풀이는 상기 무작위 풀이 과정 표본의 풀이 과정에 누락된 풀이 과정을 의미하며, 이는 상기 무작위 풀이 과정 표본을 풀이한 대상들이 암산한 내용을 포함함-를 생성하는 단계;
    상기 누락된 풀이를 추가한 텍스트 정보에 기초하여, 제5 연산 벡터를 생성하는 단계;
    상기 제5 연산 벡터를 제5 인공 신경망에 입력하는 단계;
    상기 제5 인공 신경망으로부터 제5 출력을 획득하는 단계; 및
    상기 제5 출력에 기초하여, 상기 틀린 문항 범위 및 부족 학습 능력을 획득하는 단계를 포함하며,
    상기 제5 인공 신경망은
    상기 틀린 문항 범위 및 상기 부족 학습 능력에 따라 레이블링된 트레이닝 텍스트 정보들에 기초하여 누락된 풀이들이 생성되고, 상기 누락된 풀이들을 추가한 상기 트레이닝 텍스트 정보들에 기초하여 제5 트레이닝 연산 벡터들이 생성되고, 상기 제5 트레이닝 연산 벡터들을 통해 제5 트레이닝 출력들이 획득되면,
    상기 제5 트레이닝 출력들과
    상기 트레이닝 텍스트 정보들 및 상기 트레이닝 텍스트 정보들에 대응하는 틀린 문항 범위, 부족 학습 능력에 기초하여 정의된 제5 레이블들의 차이에 기초하여 학습되는,
    인공지능 기반 입시 수학 학습 커리큘럼 재구성 방법.
  5. 제1항에 있어서,
    상기 수학 학습 커리큘럼을 생성하는 단계는
    상기 틀린 문항 범위, 상기 부족 학습 능력, 상기 문항 범위 및 상기 요구 학습 능력을 획득하는 단계;
    상기 틀린 문항 범위, 상기 부족 학습 능력, 상기 문항 범위 및 상기 요구 학습 능력에 기초하여, 제6 연산 벡터를 생성하는 단계;
    상기 제6 연산 벡터를 미리 학습된 제6 인공 신경망에 적용하여 제6 출력을 획득하는 단계; 및
    상기 제6 출력에 기초하여 수학 학습 커리큘럼을 생성하는 단계를 포함하며,
    상기 제6 인공 신경망은
    상기 수학 학습 커리큘럼에 따라 레이블링된 트레이닝 틀린 문항 범위들, 트레이닝 부족 학습 능력들, 트레이닝 문항 범위들 및 트레이닝 요구 학습 능력들에 기초하여 제6 트레이닝 연산 벡터들이 생성되고, 상기 제6 트레이닝 연산 벡터들을 통해 제6 트레이닝 출력들이 획득되면,
    상기 제6 트레이닝 출력들과
    상기 트레이닝 틀린 문항 범위들, 상기 트레이닝 부족 학습 능력들, 상기 트레이닝 문항 범위들, 상기 트레이닝 요구 학습 능력들, 상기 트레이닝 틀린 문항 범위들에 대응하는 수학 학습 커리큘럼, 상기 트레이닝 부족 학습 능력들에 대응하는 수학 학습 커리큘럼, 상기 트레이닝 문항 범위들에 대응하는 수학 학습 커리큘럼 및 상기 트레이닝 요구 학습 능력들에 대응하는 수학 학습 커리큘럼에 기초하여 정의된 제6 레이블들의 차이에 기초하여 학습되는,
    인공지능 기반 입시 수학 학습 커리큘럼 재구성 방법.
KR1020200126842A 2020-09-29 2020-09-29 인공지능 기반 입시 수학 학습 커리큘럼 재구성 방법 및 시스템 KR102265573B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200126842A KR102265573B1 (ko) 2020-09-29 2020-09-29 인공지능 기반 입시 수학 학습 커리큘럼 재구성 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200126842A KR102265573B1 (ko) 2020-09-29 2020-09-29 인공지능 기반 입시 수학 학습 커리큘럼 재구성 방법 및 시스템

Publications (1)

Publication Number Publication Date
KR102265573B1 true KR102265573B1 (ko) 2021-06-16

Family

ID=76602621

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200126842A KR102265573B1 (ko) 2020-09-29 2020-09-29 인공지능 기반 입시 수학 학습 커리큘럼 재구성 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR102265573B1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113704610A (zh) * 2021-08-27 2021-11-26 华中师范大学 一种基于学习成长数据的学习风格画像生成方法及系统
CN115830405A (zh) * 2023-02-13 2023-03-21 国信蓝桥教育科技股份有限公司 一种标签化的用户能力画像分析方法及系统
KR20230075281A (ko) 2021-11-22 2023-05-31 주식회사 필드유 인공지능 기반의 사용자 맞춤형 입시 코디네이터 서비스 제공 장치 및 방법
WO2023106474A1 (ko) * 2021-12-09 2023-06-15 홍진아 터치 감응식 전자장치 기반 시험문제 풀이의 분석을 통한 사용자 맞춤형 학습 서비스 제공 방법 및 장치
CN116501972A (zh) * 2023-05-06 2023-07-28 兰州柒禾网络科技有限公司 基于大数据在线服务的内容推送方法及ai智能推送系统
KR20240055909A (ko) 2022-08-05 2024-04-30 신병묵 인공지능 기반 교육 커리큘럼 제공 방법, 장치 및 시스템

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100128696A (ko) 2009-05-29 2010-12-08 (주)오성교육 인터넷을 이용한 원격 교육 방법및 그 교재서버와 데이터베이스의 구동 원리
KR101180235B1 (ko) 2010-09-30 2012-09-05 최병서 사용자 맞춤형 온오프라인 계산력 수학교육방법
KR101568028B1 (ko) 2013-07-26 2015-11-11 박주섭 사용자의 학습 수준 및 학습 성향에 따라 재구성이 가능한 디지털 수학학습 장치 및 방법
KR101671693B1 (ko) * 2015-11-27 2016-11-25 주하영 오답 및 문제 분석 정보의 재가공을 통한 맞춤형 학습 서비스 방법
KR20180104460A (ko) * 2017-03-13 2018-09-21 비트루브 주식회사 학습을 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
KR101977038B1 (ko) 2017-12-18 2019-05-10 이쿠얼키 주식회사 가이드 기반 문제해결을 통한 수학학습 시스템 및 그 방법
KR101986721B1 (ko) * 2019-03-27 2019-06-10 월드버텍 주식회사 신경망 기반 기계번역 및 셈뭉치를 이용한 수학문제 개념유형 예측 서비스 제공 방법
KR102040400B1 (ko) * 2018-04-27 2019-11-27 김인철 머신러닝을 이용한 사용자 맞춤형 문제 제공 시스템 및 방법

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100128696A (ko) 2009-05-29 2010-12-08 (주)오성교육 인터넷을 이용한 원격 교육 방법및 그 교재서버와 데이터베이스의 구동 원리
KR101180235B1 (ko) 2010-09-30 2012-09-05 최병서 사용자 맞춤형 온오프라인 계산력 수학교육방법
KR101568028B1 (ko) 2013-07-26 2015-11-11 박주섭 사용자의 학습 수준 및 학습 성향에 따라 재구성이 가능한 디지털 수학학습 장치 및 방법
KR101671693B1 (ko) * 2015-11-27 2016-11-25 주하영 오답 및 문제 분석 정보의 재가공을 통한 맞춤형 학습 서비스 방법
KR20180104460A (ko) * 2017-03-13 2018-09-21 비트루브 주식회사 학습을 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
KR101977038B1 (ko) 2017-12-18 2019-05-10 이쿠얼키 주식회사 가이드 기반 문제해결을 통한 수학학습 시스템 및 그 방법
KR102040400B1 (ko) * 2018-04-27 2019-11-27 김인철 머신러닝을 이용한 사용자 맞춤형 문제 제공 시스템 및 방법
KR101986721B1 (ko) * 2019-03-27 2019-06-10 월드버텍 주식회사 신경망 기반 기계번역 및 셈뭉치를 이용한 수학문제 개념유형 예측 서비스 제공 방법

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113704610A (zh) * 2021-08-27 2021-11-26 华中师范大学 一种基于学习成长数据的学习风格画像生成方法及系统
CN113704610B (zh) * 2021-08-27 2024-03-05 华中师范大学 一种基于学习成长数据的学习风格画像生成方法及系统
KR20230075281A (ko) 2021-11-22 2023-05-31 주식회사 필드유 인공지능 기반의 사용자 맞춤형 입시 코디네이터 서비스 제공 장치 및 방법
WO2023106474A1 (ko) * 2021-12-09 2023-06-15 홍진아 터치 감응식 전자장치 기반 시험문제 풀이의 분석을 통한 사용자 맞춤형 학습 서비스 제공 방법 및 장치
KR20240055909A (ko) 2022-08-05 2024-04-30 신병묵 인공지능 기반 교육 커리큘럼 제공 방법, 장치 및 시스템
CN115830405A (zh) * 2023-02-13 2023-03-21 国信蓝桥教育科技股份有限公司 一种标签化的用户能力画像分析方法及系统
CN115830405B (zh) * 2023-02-13 2023-09-22 国信蓝桥教育科技股份有限公司 一种标签化的用户能力画像分析方法及系统
CN116501972A (zh) * 2023-05-06 2023-07-28 兰州柒禾网络科技有限公司 基于大数据在线服务的内容推送方法及ai智能推送系统
CN116501972B (zh) * 2023-05-06 2024-01-05 广州市巨应信息科技有限公司 基于大数据在线服务的内容推送方法及ai智能推送系统

Similar Documents

Publication Publication Date Title
KR102265573B1 (ko) 인공지능 기반 입시 수학 학습 커리큘럼 재구성 방법 및 시스템
CN111523621B (zh) 图像识别方法、装置、计算机设备和存储介质
CN112270196B (zh) 实体关系的识别方法、装置及电子设备
Bouchacourt et al. Disco nets: Dissimilarity coefficients networks
WO2019015246A1 (zh) 图像特征获取
US11763174B2 (en) Learning material recommendation method, learning material recommendation device, and learning material recommendation program
CN104537252B (zh) 用户状态单分类模型训练方法和装置
WO2022188773A1 (zh) 文本分类方法、装置、设备、计算机可读存储介质及计算机程序产品
CN110866469B (zh) 一种人脸五官识别方法、装置、设备及介质
CN112069329B (zh) 文本语料的处理方法、装置、设备及存储介质
CN111401105B (zh) 一种视频表情识别方法、装置及设备
CN112148831B (zh) 图文混合检索方法、装置、存储介质、计算机设备
Lee et al. Fair selective classification via sufficiency
CN111428448A (zh) 文本生成方法、装置、计算机设备及可读存储介质
CN115222443A (zh) 客户群体划分方法、装置、设备及存储介质
CN114416929A (zh) 实体召回模型的样本生成方法、装置、设备及存储介质
Costa et al. Automatic classification of computational thinking skills in elementary school math questions
CN113705159A (zh) 商户名称的标注方法、装置、设备及存储介质
CN112836754A (zh) 一种面向图像描述模型泛化能力评估方法
CN109033078B (zh) 语句类别识别方法及装置、存储介质、处理器
CN110069783B (zh) 一种答题内容评测方法及装置
CN114022698A (zh) 一种基于二叉树结构的多标签行为识别方法及装置
Lippmann Understanding and Applying Deep Learning
CN118396803B (zh) 一种基于人工智能的智慧教育系统
CN110059180A (zh) 文章作者身份识别及评估模型训练方法、装置及存储介质

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant