KR102656024B1 - 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템 및 추천 방법 - Google Patents

외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템 및 추천 방법 Download PDF

Info

Publication number
KR102656024B1
KR102656024B1 KR1020220133559A KR20220133559A KR102656024B1 KR 102656024 B1 KR102656024 B1 KR 102656024B1 KR 1020220133559 A KR1020220133559 A KR 1020220133559A KR 20220133559 A KR20220133559 A KR 20220133559A KR 102656024 B1 KR102656024 B1 KR 102656024B1
Authority
KR
South Korea
Prior art keywords
data
learning
similarity
speech
foreign language
Prior art date
Application number
KR1020220133559A
Other languages
English (en)
Inventor
김성준
한정섭
Original Assignee
주식회사 위씨테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 위씨테크 filed Critical 주식회사 위씨테크
Priority to KR1020220133559A priority Critical patent/KR102656024B1/ko
Application granted granted Critical
Publication of KR102656024B1 publication Critical patent/KR102656024B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본 발명의 목적은 외국어 학습자의 단어 암기의 효율성과 효과를 증대시킴과 아울러 외국어 학습자의 지식 추적을 통해, 학습된 AI 모델이 외국어 학습자에게 정확한 단어를 추천하도록 하는 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템 및 추천 방법을 제공하는 것이다.
상기 목적을 달성하기 위해, 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템은, 사용자가 요하는 제 1 데이터가 입력되는 입력부; 및 상기 입력부로부터 입력된 제 1 데이터가 벡터로 변환되고, 변환된 상기 제 1 데이터에 의거하여 상기 제 1 데이터와 유사한 제 2 데이터를 추천하는 서버;를 포함하는 것을 특징으로 한다.

Description

외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템 및 추천 방법{SYSTEM AND METHOD FOR RECOMMENDING SIMILAR PROBLEM BASED ON DEEP LEARNING TO IMPROVE LEARNING ACCOMPLISHMENT DEGREE OF FOREIGN LANGUAGE LEARNER}
본 발명은 유사 문제 추천 시스템 및 추천 방법에 관한 것으로, 특히 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템 및 추천 방법에 관한 것이다.
최근 다양한 국적의 외국인들이 학업 또는 취업 목적으로 한국어를 배우고 있다.
기존의 한국어 학습 방법으로는 외국인이 한국어를 학습하기 위해 한국어 교육을 대상으로 하는 사교육 학원이나, EBS 교육 프로그램을 통한 학습, 한국어 능력 시험 홈페이지를 이용하여 기출 문제를 풀거나 관련 자료를 수집하여 학습하는 방식이 있다.
그러나, 점차 한국어를 교육받는 외국인의 수가 증가하고 있고 그에 따라 한국어 학습이나 수준에 대한 수요도 증가함으로써 기존의 방법만으로는 많은 비용과 시간이 소비됨에 따라 외국인들이 한국어 학습에 대비할 수 있는 효율성과 피드백의 지원에 한계가 있다.
특히 한국어 학습에 대한 수요가 점차 증가하고 있는 나라인 필리핀, 베트남, 네팔, 인도네시아, 캄보디아 등에서의 한국어 교육은 각 나라 현지인들에게 생소할 수밖에 없는 방식으로 진행되고 있다는 문제가 있다.
현재는 각 나라에 자리 잡고 있는 사교육 학원에서의 한국어 교육은 체계적이지 않은 경우가 많으며, 제공되는 한국어 교육 콘텐츠도 외국인 사용자의 니즈(needs)가 반영되지 않은 상태로 단지 언어로서의 구조 및 단어들의 의미를 가르치기 위해 구성되어 있다.
이러한 종래의 한국어 교육 콘텐츠는 딱딱하게 진행되어 사용자의 흥미를 유발하지 못하여 학습 능률을 저해하는 문제가 있다.
따라서, 외국인들에게는 제 2 외국어인 한국어를 공부하는 데 있어서, 단어의 습득, 또는 단어를 암기하기 위해, 사용자에게 가장 중요한 문제는 사용자가 효과적으로 어휘를 암기할 수 있는 방법을 찾는 것이다.
예를 들어, 학생들이 자주 직면하는 문제는 다음과 같을 수 있다.
첫째로, 사용자는 플래시 카드를 만들고 사용하기 위해 모르는 단어를 어플에 수동으로 입력(또는 종이에 쓰기)해야 하는 노력이 요구될 수 있다.
또한, 둘째로, 사용자가 모르는 단어나 알고리즘을 사용하는 인터페이스를 자동으로 추천하는 시스템은 구현되는 것이 어렵다.
그러나, 기존의 학계 또는 산업계에 있어서, AI(Artificial Intelligence)를 이용하여, 이러한 사용자들의 부담을 덜어주기 위한, 노력이 많지 않은 문제점이 있었다.
국내 등록특허공보 제10-2353906호
상기한 바와 같은 종래의 문제점을 해결하기 위한 본 발명의 목적은 외국어 학습자의 단어 암기의 효율성과 효과를 증대시킴과 아울러 외국어 학습자의 지식 추적을 통해, 학습된 AI 모델이 외국어 학습자에게 정확한 단어를 추천하도록 하는 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템 및 추천 방법을 제공하는 것이다.
상기 목적을 달성하기 위해, 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템은, 사용자가 요하는 제 1 데이터가 입력되는 입력부; 및 상기 입력부로부터 입력된 제 1 데이터가 벡터로 변환되고, 변환된 상기 제 1 데이터에 의거하여 상기 제 1 데이터와 유사한 제 2 데이터를 추천하는 서버;를 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템에서, 상기 서버는, 상기 제 1 데이터를 수신하여 벡터로 변환하는 수신부; 변환된 상기 제 1 데이터에 대해 미리 정해진 값 이상으로 유사도가 높은 제 2 데이터를 검색하는 검색부; 및 상기 제 2 데이터와, 상기 제 1 데이터에 대한 유사도가 함께 저장되는 DB;를 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템에서, 상기 유사도는 상기 제 1 데이터와 상기 제 2 데이터에 대해, (동일 단어) / (동일 단어 + 상이한 단어)의 백분율인 것을 특징으로 한다.
또한, 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템에서, 상기 서버는, 상기 DB로부터 상기 제 1 데이터와 유사도가 높은 순서로 상기 제 2 데이터를 추출하는 추출부; 및 상기 제 1 데이터와 상기 제 2 데이터의 유사도를 학습하여 예측하는 학습부;를 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템에서, 상기 서버는, 상기 학습부에 의해 예측된 상기 제 2 데이터와 상기 제 2 데이터의 유사도가 출력되는 출력부;를 포함하는 것을 특징으로 한다.
한편, 상기 목적을 달성하기 위해, 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 방법은, 사용자가 요하는 제 1 데이터가 입력부에 의해 입력되는 단계; 입력된 제 1 데이터가 서버에 의해 벡터로 변환되는 단계; 및 변환된 상기 제 1 데이터에 의거하여 상기 서버에 의해 상기 제 1 데이터와 유사한 제 2 데이터가 추천되는 단계;를 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 방법에서, 상기 서버는, 상기 제 1 데이터를 수신하여 벡터로 변환하는 수신부; 변환된 상기 제 1 데이터에 대해 미리 정해진 값 이상으로 유사도가 높은 제 2 데이터를 검색하는 검색부; 및 상기 제 2 데이터와, 상기 제 1 데이터에 대한 유사도가 함께 저장되는 DB;를 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 방법에서, 상기 유사도는 상기 제 1 데이터와 상기 제 2 데이터에 대해, (동일 단어) / (동일 단어 + 상이한 단어)의 백분율인 것을 특징으로 한다.
또한, 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 방법에서, 상기 서버는, 상기 DB로부터 상기 제 1 데이터와 유사도가 높은 순서로 상기 제 2 데이터를 추출하는 추출부; 및 상기 제 1 데이터와 상기 제 2 데이터의 유사도를 학습하여 예측하는 학습부;를 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 방법에서, 상기 서버는, 상기 학습부에 의해 예측된 상기 제 2 데이터와 상기 제 2 데이터의 유사도가 출력되는 출력부;를 포함하는 것을 특징으로 한다.
기타 실시 예의 구체적인 사항은 "발명을 실시하기 위한 구체적인 내용" 및 첨부 "도면"에 포함되어 있다.
본 발명의 이점 및/또는 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 각종 실시 예를 참조하면 명확해질 것이다.
그러나 본 발명은 이하에서 개시되는 각 실시 예의 구성만으로 한정되는 것이 아니라 서로 다른 다양한 형태로도 구현될 수도 있으며, 단지 본 명세서에서 개시한 각각의 실시 예는 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구범위의 각 청구항의 범주에 의해 정의될 뿐임을 알아야 한다.
본 발명에 의하면, 외국어 학습자의 단어 암기의 효율성과 효과를 증대시킴과 아울러 외국어 학습자의 지식 추적을 통해, 학습된 AI 모델이 외국어 학습자에게 정확한 단어를 추천하도록 하는 효과가 있다.
도 1은 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템의 구성을 나타내는 블록도.
도 2는 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템에서, 서버의 구성을 나타내는 블록도.
도 3은 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 방법의 전체 흐름을 나타내는 플로우 차트.
본 발명을 상세하게 설명하기 전에, 본 명세서에서 사용된 용어나 단어는 통상적이거나 사전적인 의미로 무조건 한정하여 해석되어서는 아니 되며, 본 발명의 발명자가 자신의 발명을 가장 최선의 방법으로 설명하기 위해서 각종 용어의 개념을 적절하게 정의하여 사용할 수 있고, 더 나아가 이들 용어나 단어는 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 함을 알아야 한다.
즉, 본 명세서에서 사용된 용어는 본 발명의 바람직한 실시 예를 설명하기 위해서 사용되는 것일 뿐이고, 본 발명의 내용을 구체적으로 한정하려는 의도로 사용된 것이 아니며, 이들 용어는 본 발명의 여러 가지 가능성을 고려하여 정의된 용어임을 알아야 한다.
또한, 본 명세서에서, 단수의 표현은 문맥상 명확하게 다른 의미로 지시하지 않는 이상, 복수의 표현을 포함할 수 있으며, 유사하게 복수로 표현되어 있다고 하더라도 단수의 의미를 포함할 수 있음을 알아야 한다.
본 명세서의 전체에 걸쳐서 어떤 구성 요소가 다른 구성 요소를 "포함"한다고 기재하는 경우에는, 특별히 반대되는 의미의 기재가 없는 한 임의의 다른 구성 요소를 제외하는 것이 아니라 임의의 다른 구성 요소를 더 포함할 수도 있다는 것을 의미할 수 있다.
더 나아가서, 어떤 구성 요소가 다른 구성 요소의 "내부에 존재하거나, 연결되어 설치된다"라고 기재한 경우에는, 이 구성 요소가 다른 구성 요소와 직접적으로 연결되어 있거나 접촉하여 설치되어 있을 수 있고, 일정한 거리를 두고 이격되어 설치되어 있을 수도 있으며, 일정한 거리를 두고 이격되어 설치되어 있는 경우에 대해서는 해당 구성 요소를 다른 구성 요소에 고정 내지 연결하기 위한 제 3의 구성 요소 또는 수단이 존재할 수 있으며, 이 제 3의 구성 요소 또는 수단에 대한 설명은 생략될 수도 있음을 알아야 한다.
반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결"되어 있다거나, 또는 "직접 접속"되어 있다고 기재되는 경우에는, 제 3의 구성 요소 또는 수단이 존재하지 않는 것으로 이해하여야 한다.
마찬가지로, 각 구성 요소 간의 관계를 설명하는 다른 표현들, 즉 " ~ 사이에"와 "바로 ~ 사이에", 또는 " ~ 에 이웃하는"과 " ~ 에 직접 이웃하는" 등도 마찬가지의 취지를 가지고 있는 것으로 해석되어야 한다.
또한, 본 명세서에서 "일면", "타면", "일측", "타측", "제 1", "제 2" 등의 용어는, 사용된다면, 하나의 구성 요소에 대해서 이 하나의 구성 요소가 다른 구성 요소로부터 명확하게 구별될 수 있도록 하기 위해서 사용되며, 이와 같은 용어에 의해서 해당 구성 요소의 의미가 제한적으로 사용되는 것은 아님을 알아야 한다.
또한, 본 명세서에서 "상", "하", "좌", "우" 등의 위치와 관련된 용어는, 사용된다면, 해당 구성 요소에 대해서 해당 도면에서의 상대적인 위치를 나타내고 있는 것으로 이해하여야 하며, 이들의 위치에 대해서 절대적인 위치를 특정하지 않는 이상은, 이들 위치 관련 용어가 절대적인 위치를 언급하고 있는 것으로 이해하여서는 아니된다.
또한, 본 명세서에서는 각 도면의 각 구성 요소에 대해서 그 도면 부호를 명기함에 있어서, 동일한 구성 요소에 대해서는 이 구성 요소가 비록 다른 도면에 표시되더라도 동일한 도면 부호를 가지고 있도록, 즉 명세서 전체에 걸쳐 동일한 참조 부호는 동일한 구성 요소를 지시하고 있다.
본 명세서에 첨부된 도면에서 본 발명을 구성하는 각 구성 요소의 크기, 위치, 결합 관계 등은 본 발명의 사상을 충분히 명확하게 전달할 수 있도록 하기 위해서 또는 설명의 편의를 위해서 일부 과장 또는 축소되거나 생략되어 기술되어 있을 수 있고, 따라서 그 비례나 축척은 엄밀하지 않을 수 있다.
또한, 이하에서, 본 발명을 설명함에 있어서, 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 구성, 예를 들어, 종래 기술을 포함하는 공지 기술에 대해 상세한 설명은 생략될 수도 있다.
이하, 본 발명의 실시 예에 대해 관련 도면들을 참조하여 상세히 설명하기로 한다.
도 1은 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템의 구성을 나타내는 블록도이다.
도 1을 참조하면, 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템(1000)은 입력부(100)와, 서버(200)를 포함한다.
여기서, 입력부(100)는 사용자가 요하는 제 1 데이터가 입력된다.
이러한 입력부(100)로는 PC, 노트북, 핸드폰, 스마트폰, 스마트북, E-북, 스마트 패드 등 사용자가 문장을 입력할 수 있는 모든 장치를 포괄하는 개념으로 이해될 수 있다.
또한, 사용자가 입력하는 문장은 본 실시예에서는 설명의 용이함을 위해 한글로 설명하지만 이에 한정되는 것은 아니며, 한글, 영어, 일어 등 다양한 나라의 언어를 포함할 수도 있다.
상술한 입력부(100)는 통신부(도시 생략)와, 애플리케이션(예를 들어, 앱 등)을 포함할 수 있다.
서버(200)는 입력부(100)로부터 입력된 제 1 데이터가 벡터로 변환되고, 변환된 제 1 데이터에 의거하여 제 1 데이터와 유사한 제 2 데이터를 추천한다.
여기서, 입력부(100)의 통신부와 서버(200)는 유선 통신 또는 무선 통신으로 데이터를 전송할 수 있다.
특히, 무선 통신으로는 블루투스(Bluetooth) 모듈, 와이파이(Wi-fi) 모듈, 와이브로(Wireless Broadband) 모듈 외에도, GSM(Global System For Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(Universal Mobile Telecommunications System), TDMA(Time Division Multiple Access), LTE(Long Term Evolution) 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.
또한, 좀 더 상세하게는 본 애플리케이션(120)은 후술하는 서버(200)의 콘텐츠 제공부(290)로부터 다양한 한글 학습 콘텐츠를 제공받아 사용자가 한글 학습을 수행할 수 있도록 하게 된다.
또한, 애플리케이션이 구동됨으로써, 사용자는 원하는 언어의 단어, 문장, 문단 등을 입력할 수 있게 된다.
상술한 서버(200)에 대해, 도 2를 참조하여 좀 더 상세히 설명하도록 한다.
도 2는 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템에서, 서버의 구성을 나타내는 블록도이다.
도 2를 참조하면, 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템(1000)에서 서버(200)는 수신부(210)와, 검색부(220)와, DB(230)와, 추출부(240)와, 학습부(250)와, 출력부(260)를 포함한다.
수신부(210)는 입력부(100)로부터 제 1 데이터를 수신하여 벡터로 변환한다.
여기서, 제 1 데이터는 사용자가 원하는 언어의 단어, 문장, 문단 등 일 수 있다.
이와 같이 수신되는 제 1 데이터는 다음과 같이 벡터로 변환된다.
예를 들어, "I love you."라는 문장을 만들기 위해서는 "I"와, "love"와 "you"이라는 3개의 단어가 필요로 하고 이를 백터화하기 위해 "I"에는 숫자 1이라는 자리수를 부여하고, "you"에는 숫자 2라는 자리수를 부여하며, "love"에는 숫자 100이라는 자리수를 부여한다.
이와 같이 부여된 숫자를 백터화할 경우, [0, 1, 1, 0, 0, 0, …, 1]이라는 1차원 백터로 변환된다.
여기서, 0자리 숫자는 0이고, "I"를 나타내는 1자리 숫자 위치에 1이 기재되고, "you"를 나타내는 2자리 숫자 위치에 1이 기재되며, "love"를 나타내는 100자리 숫자에 1이 기재된다.
이외의 나머지 자리수에는 0이 기재된다.
좀 더 상세히 설명하면, 3자리 숫자부터 99자리 숫자까지는 0이 기재된다.
즉, 자리수가 부여된 단어인 "I"와, "you"와, "love"는 각각 숫자 1이 기재되고, 나머지 자리에는 모두 0이 기재된다.
따라서, 1차원 벡터에는 사용자가 요하는 문장에서 각각의 단어에 자리수가 부여되고, 자리수가 부여된 단어들에는 숫자 1이 기재되고, 나머지 자리수에는 모두 숫자 0이 기재된다.
마찬가지로, "He love her."이라는 문장을 만들기 위해서는 "He"와, "love"와, "her"이라는 3개의 단어가 필요로 하고 이를 백터화하기 위해 "He"에는 숫자 3이라는 자리수를 부여하고, "her"에는 숫자 4라는 자리수를 부여하며, "love"에는 숫자 100이라는 자리수를 부여한다.
즉, 제 1 데이터를 벡터화하기 위해서는, 제 1 데이터의 각각의 단어들에 대해 각각의 자리수를 부여함으로써, 사용자가 요하는 단어나, 문장이나, 문단 등을 1차원 벡터화하게 된다.
다음, 검색부(220)는 수신부(210)에 의해 변환된 제 1 데이터에 대해 미리 정해진 값 이상으로 유사도가 높은 제 2 데이터를 후술하는 DB(230)로부터 검색한다.
DB(230)는 제 2 데이터와, 제 1 데이터에 대한 제 2 데이터의 유사도가 함께 저장된다.
이와 같은 제 1 데이터에 대한 제 2 데이터의 유사도는 다음과 같이 2개의 실시예로 계산될 수 있다.
제 1 실시예에 따르면, 상술한 바와 같이, 예를 들어 제 1 데이터는 "I love you."라는 문장으로, 제 2 데이터는 "He love her."라는 문장으로 설명하도록 한다.
제 1 데이터인 "I love you."를 벡터화하면, 제 1 데이터는 [0, 1, 1, 0, 0, 0, …, 1]이라는 벡터로 변환된다.
마찬가지로, 제 2 데이터인 "He love her."은 [0, 0, 0, 1, 1, 0, 0, 0, …, 1]이라는 벡터로 변환되어 있다.
여기서, 제 1 데이터에 대한 제 2 데이터의 유사도를 계산시에는 벡터의 크기 계산인 RMS(Root Means Square) 방식을 이용할 수 있다.
즉, 제 2 데이터 벡터와, 제 1 데이터 벡터 사이의 크기에 의한 유사도는 하기 수식 1에 의해 계산된다.
[수식 1]
{(0 - 0)2 + (0 - 1)2 + (0 - 1)2 + (1 - 0)2 + (1 - 0)2 + (0 - 0)2 + (0 - 0)2 + … + (1-1)2}1/2 = 2
즉, 제 2 데이터인 "He love her."와, 제 1 데이터인 "I love you."는 그 사이의 크기가 2이며, 제 2 데이터는 제 1 데이터에 대해 2의 유사도를 가진다.
이와 같은 방식은 제 1 데이터와 제 2 데이터 사이의 크기가 작을수록 서로 가깝거나 유사한 유사도를 가진다.
즉, DB(230)에 저장되어 있는 단어가 예를 들어 1000만개일 경우, 벡터 계산을 위해 1000만개 모두의 단어에 각각 숫자가 부여된다.
그런데, DB(230)에 1000만개의 번호가 부여된 1000만개의 단어가 저장되어 있을 경우, 사용자로부터 1개의 단어(제 1 데이터)에 대한 요청(입력부(100)로부터의 입력)이 발생하면, 서버(200)는 1개의 단어에 대해 DB(230)에 저장되어 있는 1000만개의 단어와 각각 벡터 계산(상기 제 1 데이터의 [0, 1, 1, 0, 0, 0, …, 1] 벡터와, DB에 저장되어 있는 1000만개의 단어에 대한 벡터의 RMS 계산)을 수행하여 벡터 거리가 짧은 단어(가장 유사도가 높은 단어)를 찾아야만 한다.
이와 같은 방식은 복잡한 벡터 계산으로 인해 서버(200)의 연산량을 증가시키며, 이와 같은 벡터 계산 방식으로 인해 오히려 유사 문제 추천 시스템의 성능을 악화시킬 수 있다.
또한, 1개의 문장에서 사용되는 단어의 숫자가 적기 때문에 실제 단어를 의미하는 자리수인 1은 많지 않고 블랭크 수인 0이 많기 때문에, 유사 단어와의 실제 벡터 계산을 수행시 많은 자리수가 0으로 채워지며 실제 값은 소수 값으로 이루어질 수도 있음으로써, 유사도를 판별하기가 용이하지 않을 수 있다.
따라서, 제 2 실시예에서는, 상술한 유사도가 벡터로 변환된 제 1 데이터와 DB에 저장되어 있는 제 2 데이터에 대해, (동일 단어) / (동일 단어 + 상이한 단어)의 백분율일 수 있다.
여기서, 동일 단어 또는 공통 단어는 교집합으로 표현되고, (동일 단어(공통 단어) + 상이한 단어(비공통 단어))는 합집합으로 표현된다.
이와 같이 백분율을 이용하는 방식은 다음과 같다.
제 1 데이터인 "I love you."와, 제 2 데이터인 "He love her."에서, 교집합 / 합집합을 이용한다.
즉, "I love you."와, "He love her."에서 교집합인 공통 단어는 "love"이다.
마찬가지로, "I love you."와, "He love her."에서 합집합인 공통 단어 + 비공통 단어는 "I"와, "love"와, "you"와, "He"와, "her"이다.
즉, "I love you."와, "He love her."에서 합집합은 5 이다.
따라서, 교집합 / 합집합은 1 / 5 = 0.2 이다.
이와 같은 교집합 / 합집합을 백분율화하면, (1 / 5) × 100 = 20 %이다.
따라서, 제 1 데이터인 "I love you."와, 제 2 데이터인 "He love her." 사이의 유사도는 20% 이다.
이와 같은 방식으로 유사도가 높을수록 제 1 데이터와, 제 2 데이터 사이의 유사성이 높아지게 된다.
제 2 실시예에 따른 유사도의 계산 방식에 따라, 제 1 데이터와 유사한 제 2 데이터를 검색하여 추출하는 계산량이 제 1 실시예에 비해 대폭 감소하게 된다.
또한, DB(230)에, 제 1 데이터에 대한 유사도와 함께 제 2 데이터를 미리 저장해 놓으면, 제 1 데이터와 유사한 제 2 데이터를 검색하여 추출하는 계산량을 더욱 감소시킬 수 있다.
또한, 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템(1000)에서, 제 1 데이터와 제 2 데이터를 벡터로 변환시 품사에 따라 분류하는 방식을 더 포함할 수 있다.
즉, 벡터로 변환되는 제 1 데이터를 명사, 동사, 형용사, 부사 등의 품사로 분류하고, 제 1 데이터에 대한 유사도를 갖는 제 2 데이터도 명사, 동사, 형용사 부사 등의 품사로 분류하여 서로 같은 품사끼리 매칭하는 방식이다.
만약, 제 1 데이터가 동사일 경우, 제 1 데이터에 대한 유사도를 갖는 제 2 데이터를 명사, 형용사, 부사 등을 제외한 동사들 중에서만 제 2 데이터의 유사도를 계산하는 것이다.
이와 같은 방식으로 제 2 데이터의 유사도를 계산할 경우, 앞서 설명한 방식보다 더욱 적은 계산량만을 수행하기 때문에, 서버(200)의 부하가 감소할 수 있는 효과가 있다.
게다가, 상술한 바와 같이 제 1 데이터 또는 제 2 데이터를 품사별로 분류한 상태에서, 각각의 품사끼리의 유사어를 이용하여 유사도를 미리 계산할 수 있다.
즉, 제 1 데이터가 명사인 "선박"일 경우, 제 2 데이터에서 명사인 "선박"과 유사 단어인 "선박", "보트", "배", "ship", "vessel", "boat", "tank" 등을 분류해 놓고, 상기 제 1 데이터인 "선박"에 대해 제 2 데이터인 "선박"과 유사 단어인 "선박", "보트", "배", "ship", "vessel", "boat", "tank" 등에 대한 유사도만을 계산하는 것이다.
이와 같은 방식으로 제 2 데이터의 유사도를 계산할 경우, 앞서 설명한 방식보다 한층 더 적은 계산량만을 수행하기 때문에, 서버(200)의 부하가 감소할 수 있는 효과가 있다.
다음, 추출부(240)는 DB(230)로부터 제 1 데이터와 유사도가 높은 순서로 제 2 데이터를 추출한다.
이와같이 높은 순서 순으로 추출부(240)가 제 2 데이터를 추출하고, 추출된 데이터를 후술하는 출력부(260)를 통해 사용자에게 제공함으로써, 사용자(외국어 학습자)의 학습 성취도를 향상시킬 수 있는 효과가 있다.
학습부(250)는 제 1 데이터와 제 2 데이터의 유사도를 학습하여 예측한다.
좀 더 바람직하게는 제 1 데이터에 대한 제 2 데이터의 유사도를 학습하여 예측한다.
이러한 학습부(250)는 수신부(210)에 의해 수신되어 벡터로 변환된 제 1 데이터와 유사한 제 2 데이터의 유사도를 학습한다.
즉, 학습부(250)의 입력값은 벡터로 변환된 단어, 문장, 문단 등의 제 1 데이터이다.
또한, 학습부(250)의 출력값은 제 1 데이터에 대한 제 2 데이터의 유사도 값이다.
이와 같은 학습부(250)는 수신부(210)에 의해 벡터로 변환된 새로운 제 1 데이터에 대한 제 2 데이터의 유사도 값을 학습하고 예측한다.
학습부(250)는 수신부(210)에 의해 벡터로 변환된 제 1 데이터로부터 데이터 셋을 생성하고, 생성된 데이터 셋을 기반으로 기계 학습 또는 지도 학습을 수행하여 인공 지능 모델을 생성하는 유닛인 것이 바람직하다.
학습부(250)에서는 먼저 수신부(210)에 의해 벡터로 변환된 제 1 데이터로부터 생성된 데이터 셋을 사용하여 인공 지능 모델을 생성한 후, 생성된 인공 지능 모델을 DB(230)에 저장할 수 있다.
학습부(250)에는 인공 지능에 사용되는 알고리즘이 저장되어 있고, 이러한 알고리즘은 예를 들어, 인공 신경망(Artificial Neural Networks) 또는 퍼지 신경망(Fuzzy Neural Networks)을 사용하는 것이 바람직하다.
특히, 학습부(250)에는 자연어 처리를 위한 알고리즘이 저장되어 있는 것이 바람직하다.
인공 신경망은 구조 및 기능에 따라 여러 종류로 구분되며, 가장 일반적인 인공 신경망은 한 개의 입력층과 출력층 사이에 다수의 은닉층(Hidden Layer)이 있는 다층 퍼셉트론(Multilayer Perceptron)이다.
인공 신경망은 학습부(250)를 통해 구현될 수 있으며, 기초 컴퓨팅 단위인 뉴런 여러 개가 가중된 링크(Weighted Link)로 연결된 형태로서, 가중된 링크(Weighted Link)는 주어진 환경에 적응할 수 있도록 가중치를 조정할 수 있다.
인공 신경망은 자기 조직화 지도(SOM: Self-Organizing Map), 순환 신경망(RNN: Recurrent Neural Network), 콘볼루션 신경망(CNN: Convolutional Neural Network)과 같은 다양한 모델을 포함하며, 이에 한정되지 않는다.
퍼지 신경망은 규칙들을 언어적으로 표현하거나 지식 베이스에 새로운 규칙을 갱신하는데 신경망의 학습 능력을 이용하는 시스템이다.
본 발명에서 퍼지 신경망을 사용할 경우, 규칙들은 교집합 / (합집합 - 교집합)을 백분율화, 제 1 데이터를 명사, 동사, 형용사, 부사 등의 품사로 분류하고, 제 1 데이터에 대한 유사도를 갖는 제 2 데이터도 명사, 동사, 형용사 부사 등의 품사로 분류하여 서로 같은 품사끼리 매칭 등이며, 학습된 패턴과 실제 패턴을 비교하여 예측하는 예측값 등을 산출하는 데에 정의되어 사용될 수 있다.
출력부(260)는 학습부(250)에 의해 학습되고 예측된 제 2 데이터와, 제 1 데이터에 대한 제 2 데이터의 유사도가 출력된다.
이와 같이 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템(1000)에 의하면, 외국어 학습자의 단어 암기의 효율성과 효과를 증대시킴과 아울러 외국어 학습자의 지식 추적을 통해, 학습된 AI 모델이 외국어 학습자에게 정확한 단어를 추천하도록 하는 효과가 있다.
한편, 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템(1000)은 후술하는 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 방법에 의해 구현될 수 있다.
도 3은 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 방법의 전체 흐름을 나타내는 플로우 차트이다.
본 실시예에서는, 상술한 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템(1000)과 동일한 구성에 대해서는 그 자세한 설명을 생략하도록 하고, 유사도의 구성과, 학습부(250)의 구성에 대해서만 상세히 설명하도록 한다.
도 3을 참조하면, 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 방법은 3개의 단계를 포함할 수 있다.
제 1 단계(S100)에서는, 사용자가 요하는 제 1 데이터가 입력부(100)에 의해 입력된다.
제 2 단계(S200)에서는, 입력부(100)에 의해 입력된 제 1 데이터가 서버(200)에 의해 벡터로 변환된다.
제 3 단계(S300)에서는, 변환된 제 1 데이터에 의거하여 서버(200)에 의해 제 1 데이터와 유사한 제 2 데이터가 추천된다.
여기서, 서버(200)는 수신부(210)와, 검색부(220)와, DB(230)와, 추출부(240)와, 학습부(250)와, 출력부(260)를 포함한다.
수신부(210)는 입력부(100)로부터 제 1 데이터를 수신하여 벡터로 변환한다.
검색부(220)는 수신부(210)에 의해 변환된 제 1 데이터에 대해 미리 정해진 값 이상으로 유사도가 높은 제 2 데이터를 후술하는 DB로부터 검색한다.
DB(230)는 제 2 데이터와, 제 1 데이터에 대한 제 2 데이터의 유사도가 함께 저장된다.
여기서, 상술한 유사도는 벡터로 변환된 제 1 데이터와 DB에 저장되어 있는 제 2 데이터에 대해, (동일 단어) / (동일 단어 + 상이한 단어)의 백분율일 수 있다.
여기서, 동일 단어 또는 공통 단어는 교집합으로 표현되고, (동일 단어(공통 단어) + 상이한 단어(비공통 단어))는 합집합으로 표현된다.
이와 같이 백분율을 이용하는 방식은 다음과 같다.
제 1 데이터인 "I love you."와, 제 2 데이터인 "He love her."에서, 교집합 / 합집합을 이용한다.
즉, "I love you."와, "He love her."에서 교집합인 공통 단어는 "love"이다.
마찬가지로, "I love you."와, "He love her."에서 합집합인 공통 단어 + 비공통 단어는 "I"와, "love"와, "you"와, "He"와, "her"이다.
즉, "I love you."와, "He love her."에서 합집합은 5 이다.
따라서, 교집합 / 합집합은 1 / 5 = 0.2 이다.
이와 같은 교집합 / 합집합을 백분율화하면, (1 / 5) × 100 = 20 %이다.
따라서, 제 1 데이터인 "I love you."와, 제 2 데이터인 "He love her." 사이의 유사도는 20% 이다.
이와 같은 방식으로 유사도가 높을수록 제 1 데이터와, 제 2 데이터 사이의 유사성이 높아지게 된다.
제 2 실시예에 따른 유사도의 계산 방식에 따라, 제 1 데이터와 유사한 제 2 데이터를 검색하여 추출하는 계산량이 제 1 실시예에 비해 대폭 감소하게 된다.
또한, DB(230)에, 제 1 데이터에 대한 유사도와 함께 제 2 데이터를 미리 저장해 놓으면, 제 1 데이터와 유사한 제 2 데이터를 검색하여 추출하는 계산량을 더욱 감소시킬 수 있다.
또한, 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템(1000)에서, 제 1 데이터와 제 2 데이터를 벡터로 변환시 품사에 따라 분류하는 방식을 더 포함할 수 있다.
즉, 벡터로 변환되는 제 1 데이터를 명사, 동사, 형용사, 부사 등의 품사로 분류하고, 제 1 데이터에 대한 유사도를 갖는 제 2 데이터도 명사, 동사, 형용사 부사 등의 품사로 분류하여 서로 같은 품사끼리 매칭하는 방식이다.
만약, 제 1 데이터가 동사일 경우, 제 1 데이터에 대한 유사도를 갖는 제 2 데이터를 명사, 형용사, 부사 등을 제외한 동사들 중에서만 제 2 데이터의 유사도를 계산하는 것이다.
이와 같은 방식으로 제 2 데이터의 유사도를 계산할 경우, 앞서 설명한 방식보다 더욱 적은 계산량만을 수행하기 때문에, 서버(200)의 부하가 감소할 수 있는 효과가 있다.
게다가, 상술한 바와 같이 제 1 데이터 또는 제 2 데이터를 품사별로 분류한 상태에서, 각각의 품사끼리의 유사어를 이용하여 유사도를 미리 계산할 수 있다.
즉, 제 1 데이터가 명사인 "선박"일 경우, 제 2 데이터에서 명사인 "선박"과 유사 단어인 "선박", "보트", "배", "ship", "vessel", "boat", "tank" 등을 분류해 놓고, 상기 제 1 데이터인 "선박"에 대해 제 2 데이터인 "선박"과 유사 단어인 "선박", "보트", "배", "ship", "vessel", "boat", "tank" 등에 대한 유사도만을 계산하는 것이다.
이와 같은 방식으로 제 2 데이터의 유사도를 계산할 경우, 앞서 설명한 방식보다 한층 더 적은 계산량만을 수행하기 때문에, 서버(200)의 부하가 감소할 수 있는 효과가 있다.
추출부(240)는 DB(230)로부터 제 1 데이터와 유사도가 높은 순서로 제 2 데이터를 추출한다.
학습부(250)는 제 1 데이터와 제 2 데이터의 유사도를 학습하여 예측한다.
좀 더 바람직하게는 제 1 데이터에 대한 제 2 데이터의 유사도를 학습하여 예측한다.
이러한 학습부(250)는 수신부(210)에 의해 수신되어 벡터로 변환된 제 1 데이터와 유사한 제 2 데이터의 유사도를 학습한다.
즉, 학습부(250)의 입력값은 벡터로 변환된 단어, 문장, 문단 등의 제 1 데이터이다.
또한, 학습부(250)의 출력값은 제 1 데이터에 대한 제 2 데이터의 유사도 값이다.
이와 같은 학습부(250)는 수신부(210)에 의해 벡터로 변환된 새로운 제 1 데이터에 대한 제 2 데이터의 유사도 값을 학습하고 예측한다.
학습부(250)는 수신부(210)에 의해 벡터로 변환된 제 1 데이터로부터 데이터 셋을 생성하고, 생성된 데이터 셋을 기반으로 기계 학습 또는 지도 학습을 수행하여 인공 지능 모델을 생성하는 유닛인 것이 바람직하다.
학습부(250)에서는 먼저 수신부(210)에 의해 벡터로 변환된 제 1 데이터로부터 생성된 데이터 셋을 사용하여 인공 지능 모델을 생성한 후, 생성된 인공 지능 모델을 DB(230)에 저장할 수 있다.
학습부(250)에는 인공 지능에 사용되는 알고리즘이 저장되어 있고, 이러한 알고리즘은 예를 들어, 인공 신경망(Artificial Neural Networks) 또는 퍼지 신경망(Fuzzy Neural Networks)을 사용하는 것이 바람직하다.
특히, 학습부(250)에는 자연어 처리를 위한 알고리즘이 저장되어 있는 것이 바람직하다.
인공 신경망은 구조 및 기능에 따라 여러 종류로 구분되며, 가장 일반적인 인공 신경망은 한 개의 입력층과 출력층 사이에 다수의 은닉층(Hidden Layer)이 있는 다층 퍼셉트론(Multilayer Perceptron)이다.
인공 신경망은 학습부(250)를 통해 구현될 수 있으며, 기초 컴퓨팅 단위인 뉴런 여러 개가 가중된 링크(Weighted Link)로 연결된 형태로서, 가중된 링크(Weighted Link)는 주어진 환경에 적응할 수 있도록 가중치를 조정할 수 있다.
인공 신경망은 자기 조직화 지도(SOM: Self-Organizing Map), 순환 신경망(RNN: Recurrent Neural Network), 콘볼루션 신경망(CNN: Convolutional Neural Network)과 같은 다양한 모델을 포함하며, 이에 한정되지 않는다.
퍼지 신경망은 규칙들을 언어적으로 표현하거나 지식 베이스에 새로운 규칙을 갱신하는데 신경망의 학습 능력을 이용하는 시스템이다.
본 발명에서 퍼지 신경망을 사용할 경우, 규칙들은 교집합 / (합집합 - 교집합)을 백분율화, 제 1 데이터를 명사, 동사, 형용사, 부사 등의 품사로 분류하고, 제 1 데이터에 대한 유사도를 갖는 제 2 데이터도 명사, 동사, 형용사 부사 등의 품사로 분류하여 서로 같은 품사끼리 매칭 등이며, 학습된 패턴과 실제 패턴을 비교하여 예측하는 예측값 등을 산출하는 데에 정의되어 사용될 수 있다.
출력부(260)는 학습부(250)에 의해 학습되고 예측된 제 2 데이터와, 제 1 데이터에 대한 제 2 데이터의 유사도가 출력된다.
이와 같이 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템(1000)에 의하면, 외국어 학습자의 단어 암기의 효율성과 효과를 증대시킴과 아울러 외국어 학습자의 지식 추적을 통해, 학습된 AI 모델이 외국어 학습자에게 정확한 단어를 추천하도록 하는 효과가 있다.
이와 같이 본 발명에 따른 본 발명에 따른 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 방법에 의하면, 외국어 학습자의 단어 암기의 효율성과 효과를 증대시킴과 아울러 외국어 학습자의 지식 추적을 통해, 학습된 AI 모델이 외국어 학습자에게 정확한 단어를 추천하도록 하는 효과가 있다.
한편, 본 발명의 상기 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다.
컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.
또한 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이와 같이 본 발명에 의하면, 외국어 학습자의 단어 암기의 효율성과 효과를 증대시킴과 아울러 외국어 학습자의 지식 추적을 통해, 학습된 AI 모델이 외국어 학습자에게 정확한 단어를 추천하도록 하는 효과가 있다.
이상, 일부 예를 들어서 본 발명의 바람직한 여러 가지 실시 예에 대해서 설명하였지만, 본 "발명을 실시하기 위한 구체적인 내용" 항목에 기재된 여러 가지 다양한 실시 예에 관한 설명은 예시적인 것에 불과한 것이며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 이상의 설명으로부터 본 발명을 다양하게 변형하여 실시하거나 본 발명과 균등한 실시를 행할 수 있다는 점을 잘 이해하고 있을 것이다.
또한, 본 발명은 다른 다양한 형태로 구현될 수 있기 때문에 본 발명은 상술한 설명에 의해서 한정되는 것이 아니며, 이상의 설명은 본 발명의 개시 내용이 완전해지도록 하기 위한 것으로 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이며, 본 발명은 청구범위의 각 청구항에 의해서 정의될 뿐임을 알아야 한다.
100 : 입력부
200 : 서버
210 : 수신부
220 : 검색부
230 : DB
240 : 추출부
250 : 학습부
260 : 출력부
1000 : 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템

Claims (10)

  1. 사용자가 요하는 제 1 데이터가 입력되는 입력부; 및
    상기 입력부로부터 입력된 제 1 데이터가 벡터로 변환되고, 변환된 상기 제 1 데이터에 의거하여 상기 제 1 데이터와 유사한 제 2 데이터를 추천하는 서버;를 포함하며,
    상기 서버는,
    상기 제 1 데이터를 수신하여 벡터로 변환하는 수신부;
    변환된 상기 제 1 데이터에 대해 미리 정해진 값 이상으로 유사도가 높은 제 2 데이터를 검색하는 검색부;
    상기 제 2 데이터와, 상기 제 1 데이터에 대한 유사도가 함께 저장되는 DB; 및
    상기 제 1 데이터와 상기 제 2 데이터의 유사도를 학습하여 예측하는 학습부;를 포함하고,
    상기 유사도는 상기 제 1 데이터와 상기 제 2 데이터에 대해, (동일 단어) / (동일 단어 + 상이한 단어)의 백분율이며,
    벡터로 변환되는 상기 제 1 데이터를 품사별로 분류하고, 상기 제 1 데이터에 대한 유사도를 갖는 상기 제 2 데이터도 품사별로 분류하여 서로 같은 품사끼리 매칭하고,
    서로 매칭된 품사에 대해서만 상기 유사도를 계산하며,
    상기 제 1 데이터와, 상기 제 2 데이터를 품사별로 분류한 상태에서, 각각의 품사끼리의 유사어를 이용하여 유사도를 미리 계산하고,
    상기 학습부는,
    상기 수신부에 의해 벡터로 변환된 제 1 데이터로부터 데이터 셋을 생성하고, 생성된 데이터 셋을 기반으로 기계 학습 또는 지도 학습을 수행하여 인공 지능 모델을 생성한 후, 생성된 인공 지능 모델을 상기 DB에 저장하며, 인공 지능에 사용되는 알고리즘이 저장되어 있고, 상기 알고리즘은 인공 신경망 또는 퍼지 신경망을 사용하며,
    상기 인공 신경망은 한 개의 입력층과 출력층 사이에 다수의 은닉층이 있는 다층 퍼셉트론으로, 기초 컴퓨팅 단위인 뉴런 여러 개가 가중된 링크로 연결된 형태로서, 가중된 링크는 주어진 환경에 적응할 수 있도록 가중치를 조정할 수 있고,
    상기 퍼지 신경망은 규칙들을 언어적으로 표현하거나 지식 베이스에 새로운 규칙을 갱신하는데 신경망의 학습 능력을 이용하고, 상기 퍼지 신경망의 규칙들은 (동일 단어) / (동일 단어 + 상이한 단어)의 백분율이며, 제 1 데이터를 명사, 동사, 형용사, 부사의 품사로 분류하고, 제 1 데이터에 대한 유사도를 갖는 제 2 데이터도 명사, 동사, 형용사 부사의 품사로 분류하여 서로 같은 품사끼리 매칭하고, 학습된 패턴과 실제 패턴을 비교하여 예측하는 예측값을 산출하는 것으로 정의되는 것을 특징으로 하는,
    외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템.
  2. 삭제
  3. 삭제
  4. 제 1 항에 있어서,
    상기 서버는,
    상기 DB로부터 상기 제 1 데이터와 유사도가 높은 순서로 상기 제 2 데이터를 추출하는 추출부;를 포함하는 것을 특징으로 하는,
    외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템.
  5. 제 4 항에 있어서,
    상기 서버는,
    상기 학습부에 의해 예측된 상기 제 2 데이터와 상기 제 2 데이터의 유사도가 출력되는 출력부;를 포함하는 것을 특징으로 하는,
    외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템.
  6. 사용자가 요하는 제 1 데이터가 입력부에 의해 입력되는 단계;
    입력된 제 1 데이터가 서버에 의해 벡터로 변환되는 단계; 및
    변환된 상기 제 1 데이터에 의거하여 상기 서버에 의해 상기 제 1 데이터와 유사한 제 2 데이터가 추천되는 단계;를 포함하며,
    상기 서버는,
    상기 제 1 데이터를 수신하여 벡터로 변환하는 수신부;
    변환된 상기 제 1 데이터에 대해 미리 정해진 값 이상으로 유사도가 높은 제 2 데이터를 검색하는 검색부;
    상기 제 2 데이터와, 상기 제 1 데이터에 대한 유사도가 함께 저장되는 DB; 및
    상기 제 1 데이터와 상기 제 2 데이터의 유사도를 학습하여 예측하는 학습부;를 포함하고,
    상기 유사도는 상기 제 1 데이터와 상기 제 2 데이터에 대해, (동일 단어) / (동일 단어 + 상이한 단어)의 백분율이며,
    벡터로 변환되는 상기 제 1 데이터를 품사별로 분류하고, 상기 제 1 데이터에 대한 유사도를 갖는 상기 제 2 데이터도 품사별로 분류하여 서로 같은 품사끼리 매칭하고,
    서로 매칭된 품사에 대해서만 상기 유사도를 계산하며,
    상기 제 1 데이터와, 상기 제 2 데이터를 품사별로 분류한 상태에서, 각각의 품사끼리의 유사어를 이용하여 유사도를 미리 계산하고,
    상기 학습부는,
    상기 수신부에 의해 벡터로 변환된 제 1 데이터로부터 데이터 셋을 생성하고, 생성된 데이터 셋을 기반으로 기계 학습 또는 지도 학습을 수행하여 인공 지능 모델을 생성한 후, 생성된 인공 지능 모델을 상기 DB에 저장하며, 인공 지능에 사용되는 알고리즘이 저장되어 있고, 상기 알고리즘은 인공 신경망 또는 퍼지 신경망을 사용하며,
    상기 인공 신경망은 한 개의 입력층과 출력층 사이에 다수의 은닉층이 있는 다층 퍼셉트론으로, 기초 컴퓨팅 단위인 뉴런 여러 개가 가중된 링크로 연결된 형태로서, 가중된 링크는 주어진 환경에 적응할 수 있도록 가중치를 조정할 수 있고,
    상기 퍼지 신경망은 규칙들을 언어적으로 표현하거나 지식 베이스에 새로운 규칙을 갱신하는데 신경망의 학습 능력을 이용하고, 상기 퍼지 신경망의 규칙들은 (동일 단어) / (동일 단어 + 상이한 단어)의 백분율이며, 제 1 데이터를 명사, 동사, 형용사, 부사의 품사로 분류하고, 제 1 데이터에 대한 유사도를 갖는 제 2 데이터도 명사, 동사, 형용사 부사의 품사로 분류하여 서로 같은 품사끼리 매칭하고, 학습된 패턴과 실제 패턴을 비교하여 예측하는 예측값을 산출하는 것으로 정의되는 것을 특징으로 하는,
    외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 방법.
  7. 삭제
  8. 삭제
  9. 제 6 항에 있어서,
    상기 서버는,
    상기 DB로부터 상기 제 1 데이터와 유사도가 높은 순서로 상기 제 2 데이터를 추출하는 추출부;를 포함하는 것을 특징으로 하는,
    외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 방법.
  10. 제 9 항에 있어서,
    상기 서버는,
    상기 학습부에 의해 예측된 상기 제 2 데이터와 상기 제 2 데이터의 유사도가 출력되는 출력부;를 포함하는 것을 특징으로 하는,
    외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 방법.
KR1020220133559A 2022-10-17 2022-10-17 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템 및 추천 방법 KR102656024B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220133559A KR102656024B1 (ko) 2022-10-17 2022-10-17 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템 및 추천 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220133559A KR102656024B1 (ko) 2022-10-17 2022-10-17 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템 및 추천 방법

Publications (1)

Publication Number Publication Date
KR102656024B1 true KR102656024B1 (ko) 2024-04-11

Family

ID=90666742

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220133559A KR102656024B1 (ko) 2022-10-17 2022-10-17 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템 및 추천 방법

Country Status (1)

Country Link
KR (1) KR102656024B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180111002A (ko) * 2017-03-30 2018-10-11 주식회사 마이소사이어티 다문화 구성원을 위한 대안 단어 추천 방법, 장치 및 컴퓨터 프로그램
KR20200011155A (ko) * 2018-07-24 2020-02-03 주식회사 아이포트폴리오 유사 답안 제공 시스템 및 이의 운용 방법
KR20200123544A (ko) * 2019-04-22 2020-10-30 넷마블 주식회사 동의어 추출 방법
KR102353906B1 (ko) 2019-02-01 2022-01-20 주식회사 메디오피아테크 유사도에 기반한 문제 추천 방법 및 문제 추천 서버

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180111002A (ko) * 2017-03-30 2018-10-11 주식회사 마이소사이어티 다문화 구성원을 위한 대안 단어 추천 방법, 장치 및 컴퓨터 프로그램
KR20200011155A (ko) * 2018-07-24 2020-02-03 주식회사 아이포트폴리오 유사 답안 제공 시스템 및 이의 운용 방법
KR102353906B1 (ko) 2019-02-01 2022-01-20 주식회사 메디오피아테크 유사도에 기반한 문제 추천 방법 및 문제 추천 서버
KR20200123544A (ko) * 2019-04-22 2020-10-30 넷마블 주식회사 동의어 추출 방법

Similar Documents

Publication Publication Date Title
CN110287494A (zh) 一种基于深度学习bert算法的短文本相似匹配的方法
CN110991195B (zh) 机器翻译模型训练方法、装置及存储介质
CN110674272A (zh) 一种问题答案确定方法及相关装置
Gombert et al. Coding energy knowledge in constructed responses with explainable NLP models
Borade et al. Automated grading of essays: a review
Sakhapara et al. Subjective answer grader system based on machine learning
Wang et al. A prompt-independent and interpretable automated essay scoring method for Chinese second language writing
Vijaya Shetty et al. Essay scoring systems using ai and feature extraction: A review
Bosco et al. Deepeva: a deep neural network architecture for assessing sentence complexity in italian and english languages
Riza et al. Automatic generation of short-answer questions in reading comprehension using NLP and KNN
Kondurkar et al. Modern applications with a focus on training chatgpt and gpt models: Exploring generative ai and nlp
Glushkova et al. Danetqa: a yes/no question answering dataset for the Russian language
KR102251554B1 (ko) 지문의 난이도 조정을 통하여 교육용 외국어 지문을 생성하는 방법
Herwanto et al. UKARA: A fast and simple automatic short answer scoring system for Bahasa Indonesia
Zampieri et al. Multiword expression features for automatic hate speech detection
Flanagan et al. Automatic vocabulary study map generation by semantic context and learning material analysis
KR102656024B1 (ko) 외국어 학습자의 학습 성취도 향상을 위한 딥러닝 기반의 유사 문제 추천 시스템 및 추천 방법
Lima et al. Automatic evaluation of textual cohesion in essays
Saha et al. Adopting computer-assisted assessment in evaluation of handwritten answer books: An experimental study
KR20230069872A (ko) 학습용 웹페이지를 이용하여 사용자의 어휘 수준에 적합한 외국어 번역 및 학습 서비스 제공 장치, 방법 및 프로그램
Vanga et al. Autograder: A Feature-Based Quantitative Essay Grading System Using BERT
Bonthu et al. SPRAG: building and benchmarking a Short Programming-Related Answer Grading dataset
Zeng et al. Generalizable Automatic Short Answer Scoring via Prototypical Neural Network
Singh et al. Computer application for assessing subjective answers using AI
Zhou et al. Transformer-based automated content-standards alignment: A pilot study

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant