KR102336790B1 - 상호작용적 교육 플랫폼 및 장치 - Google Patents
상호작용적 교육 플랫폼 및 장치 Download PDFInfo
- Publication number
- KR102336790B1 KR102336790B1 KR1020190176696A KR20190176696A KR102336790B1 KR 102336790 B1 KR102336790 B1 KR 102336790B1 KR 1020190176696 A KR1020190176696 A KR 1020190176696A KR 20190176696 A KR20190176696 A KR 20190176696A KR 102336790 B1 KR102336790 B1 KR 102336790B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- learning
- information
- interactive
- education
- Prior art date
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 134
- 238000004458 analytical method Methods 0.000 claims abstract description 48
- 238000011156 evaluation Methods 0.000 claims description 48
- 238000000034 method Methods 0.000 claims description 22
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 238000011017 operating method Methods 0.000 claims 1
- 230000003993 interaction Effects 0.000 abstract description 8
- 230000000694 effects Effects 0.000 abstract description 7
- 239000003086 colorant Substances 0.000 description 21
- 238000009795 derivation Methods 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008140 language development Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
- G06Q50/2057—Career enhancement or continuing education service
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Tourism & Hospitality (AREA)
- Strategic Management (AREA)
- General Physics & Mathematics (AREA)
- Human Resources & Organizations (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Marketing (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
본 발명은 상호작용적 교육 플랫폼과 플랫폼이 탑재된 장치에 관한 것이다. 본 발명에 따른 상호작용적 교육 플랫폼 및 장치는 사용자 정보를 수집하는 수집부; 상기 수집부에 수집된 상기 사용자 정보에 기반하여 사용자의 교육 컨텐츠 소비 패턴과 상기 사용자의 능력 수준 정보를 분석하는 분석부; 상기 교육 컨텐츠 소비 패턴 및 상기 사용자의 능력 수준 정보에 기반하여 복수의 대화형 학습 엔진들 중에서 상기 사용자에게 맞춤형 교육 컨텐츠를 제공하는 대화형 학습 엔진을 선택하는 매칭부; 및 상기 선택된 대화형 학습 엔진에서 제공하는 상기 맞춤형 교육 컨텐츠를 디스플레이 하는 표시 장치를 포함한다. 본 발명의 일 실시 예에 따르면, 피교육자와의 상호작용을 통해 피교육자의 수준을 평가하고, 평가된 수준에 따라 맞춤형 교육 컨텐츠를 제공하여 학습 효과를 크게 향상시킬 수 있다. 아울러, 본 발명의 일 실시 예에 따르면, 캐릭터와 게임 형태로 교육 컨텐츠를 제공하여 피교육자와의 상호작용을 향상시킬 수 있다.
Description
본 발명은 상호작용적 교육 플랫폼과 플랫폼이 탑재된 장치에 관한 것이다.
최근 기존의 대량 생산, 대량 소비 패턴에서 탈피하여 개인의 특성에 따라 맞춤 생산, 맞춤 소비를 제공하는 개인 맞춤형 서비스가 증가하고 있다.
이러한 개인 맞춤형 서비스는 빅데이터의 활용과 맞물려 더욱 활발해지고 있다. 빅데이터는 서비스 제공자로 하여금 기존의 마켓 세그먼테이션(Market Segmentation)적 접근에서 탈피하여, 개인 맞춤형 서비스를 제공할 수 있도록 돕고 있다.
육아, 교육 시장에서도 이러한 개인 맞춤형 서비스의 필요성이 커지고 있다. 기존에는 아이들의 특성을 고려하지 않고 획일적인 컨텐츠를 제공하였기 때문에, 컨텐츠 제공에 따른 효과가 상대적으로 떨어졌다. 이에 따라, 아이들의 개별적인 특징에 맞는 맞춤형 컨텐츠를 제공할 수 있는 서비스의 필요성이 커지고 있다.
본 발명은 피교육자와의 상호작용을 통해 맞춤형 교육 컨텐츠를 제공할 수 있는 교육 플랫폼과 교육 플랫폼을 탑재한 장치를 제공하는데 목적이 있다.
본 발명에 따른 상호작용적 교육 플랫폼 장치는, 사용자 정보를 수집하는 수집부; 상기 수집부에 수집된 상기 사용자 정보에 기반하여 사용자의 교육 컨텐츠 소비 패턴과 상기 사용자의 능력 수준 정보를 분석하는 분석부; 상기 교육 컨텐츠 소비 패턴 및 상기 사용자의 능력 수준 정보에 기반하여 복수의 대화형 학습 엔진들 중에서 상기 사용자에게 맞춤형 교육 컨텐츠를 제공하는 대화형 학습 엔진을 선택하는 매칭부; 및 상기 선택된 대화형 학습 엔진에서 제공하는 상기 맞춤형 교육 컨텐츠를 디스플레이 하는 표시 장치를 포함한다.
일 실시 예에 있어서, 상기 사용자 정보는 상기 사용자의 발음 학습 결과 정보, 쓰기 학습 결과 정보, 읽기 학습 결과 정보, 및 E-book 학습 결과 정보 중에서 적어도 하나를 포함한다.
일 실시 예에 있어서, 상기 발음 학습 결과 정보는 상기 분석부에 의해 학습 영역이 음소교육, 단어교육 및 문장교육으로 분리되며, 상기 분석부는, 상기 학습 영역별 학습 결과를 평가하고, 상기 평가된 학습 결과를 기반으로 종합 학습 결과를 도출하고, 상기 매칭부는, 상기 도출된 종합 학습결과를 기반하여 상기 대화형 학습 엔진을 매칭하고, 상기 매칭된 대화형 학습 엔진을 상기 사용자에 맞게 커스터마이징 한다.
일 실시 예에 있어서, 상기 발음 학습 결과 정보는 사용자의 음성입력을 통한 학습이며, 상기 분석부는, 상기 발음 학습 결과 정보에 기반하여 음소인식 평균값을 계산하고, 상기 음소인식 평균값에 상응하는 RGB 값을 결정하고, 상기 RGB 값에 매칭되는 이미지 정보를 결정하고, 상기 표시 장치는, 상기 RGB 값에 매칭되는 상기 이미지 정보를 디스플레이 한다.
일 실시 예에 있어서, 상기 쓰기 학습 결과 정보는 상기 분석부에 의해학습 영역이 철자교육, 단어교육 및 받아쓰기교육으로 분리되며, 상기 분석부는, 상기 학습 영역별 학습 결과를 평가하고, 상기 평가된 학습 결과를 기반으로 종합 학습 결과를 도출하고, 상기 매칭부는, 상기 도출된 종합 학습결과를 기반하여 상기 대화형 학습 엔진을 매칭하고, 상기 매칭된 대화형 학습 엔진을 상기 사용자에 맞게 커스터마이징 한다.
일 실시 예에 있어서, 상기 읽기 학습 결과 정보는 상기 분석부에 의해 학습 영역이 음소교육, 단어교육 및 문장교육으로 분리되며, 상기 분석부는 상기 학습 영역별 학습 결과를 평가하고, 상기 평가된 학습 결과를 기반으로 종합 학습 결과를 도출하고, 상기 매칭부는, 상기 도출된 종합 학습결과를 기반하여 상기 대화형 학습 엔진을 매칭하고, 상기 매칭된 대화형 학습 엔진을 상기 사용자에 맞게 커스터마이징 한다.
일 실시 예에 있어서, 상기 E-book 학습 결과 정보는 상기 분석부에 의해 학습 영역이 독해(상)교육, 독해(중)교육 및 독해(하)교육으로 분리되며, 상기 분석부는, 상기 학습 영역별 학습 결과를 평가하고, 상기 평가된 학습 결과를 기반으로 종합 학습 결과를 도출하고, 상기 매칭부는, 상기 도출된 종합 학습결과를 기반하여 상기 대화형 학습 엔진을 매칭하고, 상기 매칭된 대화형 학습 엔진을 상기 사용자에 맞게 커스터마이징 한다.
일 실시 예에 있어서, 상기 사용자 정보는 사용자 ID 정보를 포함하고, 상기 사용자 ID 정보는 상기 사용자가 교육 컨텐츠를 사용할 때 수집된다.
일 실시 예에 있어서, 상기 대화형 학습 엔진은 상기 사용자에게 상기 맞춤형 교육 컨텐츠가 제공되는 과정에서 발생하는 상기 사용자의 피드백 정보를 수신한다.
일 실시 예에 있어서, 상호작용적 교육 플랫폼은 사용자 정보를 수집하는 단계; 수집한 상기 사용자 정보를 기반하여 사용자의 교육 컨텐츠 소비 패턴과 상기 사용자의 능력 수준 정보를 분석하는 단계; 상기 분석하는 단계는, 교육 영역별로 분리하는 단계; 상기 교육 영역별로 분리된 상기 사용자 정보를 기 설정된 평가 기준과 비교하여 교육 영역별 학습 평가를 산출하는 단계; 상기 교육 영역별 학습 평가를 종합하여 종합 학습 평가를 도출하는 단계; 를 포함하고, 상기 종합 학습 평가를 기초로 대화형 학습 엔진을 매칭하는 단계; 및 상기 대화형 학습 엔진을 상기 사용자 정보를 기초로 커스터마이징하는 단계를 포함한다.
일 실시 예에 있어서, 상기 사용자 정보는 상기 사용자의 발음 학습 결과 정보, 쓰기 학습 결과 정보, 읽기 학습 결과 정보, 및 E-book 학습 결과 정보 중에서 적어도 하나를 포함한다.
일 실시 예에 있어서, 상기 발음 학습 결과 정보는 사용자의 음성입력을 통한 학습이며, 상기 분석하는 단계는, 상기 발음 학습 결과 정보에 기반하여 음소인식 평균값을 계산하는 단계; 상기 음소인식 평균값에 상응하는 RGB 값을 결정하는 단계; 상기 RGB 값에 매칭되는 이미지 정보를 결정하는 단계; 및 상기 RGB 값에 매칭되는 상기 이미지 정보를 디스플레이 한다.
본 발명의 일 실시 예에 따르면, 피교육자와의 상호작용을 통해 피교육자의 수준을 평가하고, 평가된 수준에 따라 맞춤형 교육 컨텐츠를 제공하여 학습 효과를 크게 향상시킬 수 있다.
아울러, 본 발명의 일 실시 예에 따르면, 캐릭터와 게임 형태로 교육 컨텐츠를 제공하여 피교육자와의 상호작용을 향상시킬 수 있다.
도 1은 본 발명의 일 실시 예에 따른 상호작용적 교육 플랫폼과 사용자의 관계를 나타낸 것이다.
도 2는 본 발명의 일 실시 예에 따른 상호작용적 교육 플랫폼의 작동 방법을 나타낸 순서도이다.
도 3a 내지 도 3b는 본 발명의 일 실시 예에 따른 상호작용적 교육 플랫폼의 작동 방법을 나타낸 순서도이다.
도 4a 내지 도 4d는 본 발명의 일 실시 예에 따른 상호작용적 교육 플랫폼의 작동 예시이다.
도 5a 내지 도 5c는 본 발명의 다른 실시 예에 따른 상호작용적 교육 플랫폼의 작동 예시이다.
도 6a 내지 도 6e은 본 발명의 또 다른 실시 예에 따른 상호작용적 교육 플랫폼의 작동 예시이다.
도 2는 본 발명의 일 실시 예에 따른 상호작용적 교육 플랫폼의 작동 방법을 나타낸 순서도이다.
도 3a 내지 도 3b는 본 발명의 일 실시 예에 따른 상호작용적 교육 플랫폼의 작동 방법을 나타낸 순서도이다.
도 4a 내지 도 4d는 본 발명의 일 실시 예에 따른 상호작용적 교육 플랫폼의 작동 예시이다.
도 5a 내지 도 5c는 본 발명의 다른 실시 예에 따른 상호작용적 교육 플랫폼의 작동 예시이다.
도 6a 내지 도 6e은 본 발명의 또 다른 실시 예에 따른 상호작용적 교육 플랫폼의 작동 예시이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
이하, 첨부한 도면들을 참조하여 본 발명의 바람직한 실시 예를 보다 상세하게 설명하고자 한다.
본 발명의 일 실시 예에 따른 상호작용적 교육 플랫폼은 피교육자와의 상호작용을 통해 피교육자의 수준을 평가하고, 평가된 수준에 따라 맞춤형 교육 컨텐츠를 제공하여 학습 효과를 크게 향상시킬 수 있다.
도 1은 본 발명의 일 실시 예에 따른 상호작용적 교육 플랫폼(10)과 사용자(20)의 관계를 나타낸 것이다.
도 1에 따르면, 본 발명의 일 실시 예에 따른 상호작용적 교육 플랫폼(10)은 사용자(20)와 상호작용하는 형태로 교육 컨텐츠를 제공한다.
상호작용적 교육 플랫폼(10)은 사용자(20)에게 교육 컨텐츠를 제공하는 동시에, 제공된 교육 컨텐츠에 대한 사용자(20)의 반응을 기록하고 분석한다.
상호작용적 교육 플랫폼(10)은 웹 상에 제공되는 웹 플랫폼이거나, 어플리케이션 형태로 제공되는 플랫폼일 수 있다. 상호작용적 교육 플랫폼(10)은 컨텐츠를 출력 가능한 표시 장치를 통해 사용자(20)와 상호작용할 수 있다. 예를 들어, 상호작용적 교육 플랫폼(10)은 PC, 스마트폰, 태블릿 PC, 랩 탑, VR 표시 장치, AR 표시 장치 등의 표시 장치에 제공될 수 있다.
사용자(20)는 상호작용적 교육 플랫폼(10)을 이용하는 사람으로, 상호작용적 교육 플랫폼(10)에서 제공하는 컨텐츠 소비자이다. 사용자(20)의 나이, 성별에는 제한이 없다.
이상에서 본 발명의 일 실시 예에 따른 상호작용적 교육 플랫폼(10)과 사용자(20)의 관계에 대하여 간략하게 살펴보았다. 이하에서는 상호작용적 교육 플랫폼(10)의 작동 방법에 대하여 더 자세히 살펴보고자 한다.
도 2는 본 발명의 일 실시 예에 따른 상호작용적 교육 플랫폼(10)의 구성을 나타낸 도면이다.
도 2에 나타낸 것과 같이, 본 발명의 실시 예에 따른 상호작용적 교육 플랫폼(10)는 표시 장치(110), 수집부(120), 분석부(130), 매칭부(140) 를 포함한다.
표시 장치(110)는 상호작용적 교육 플랫폼(10)을 사용자(20)에게 제공하는 장치이다.
수집부(120)는 상호작용적 교육 플랫폼(10)이 제공된 표시 장치(110)에 입력되는 정보를 수집하거나, 사용자 정보가 기록된 데이터베이스로부터 사용자 정보를 불러올 수 있다. 표시 장치(110)에 입력되는 정보는 사용자(20)가 표시 장치(110)를 터치하면서 발생하는 터치 입력 정보, 표시 장치(110)에 제공된 카메라를 이용하여 촬영한 사용자 영상 정보 등 다양한 종류일 수 있다.
사용자 정보는 사용자(20)의 학습과 관련된 전반적인 정보이다. 예를 들어, 사용자 정보는 사용자 ID 정보와 사용자 학습 정보를 포함할 수 있다.
사용자 ID 정보는 사용자(20)의 나이, 성별, 사용자(20)가 입력한 사용자 학습 수준 등 사용자(20)의 신원과 관련된 정보일 수 있다. 사용자 ID 정보는 사용자(20)가 최초로 상호작용적 교육 플랫폼(10)을 사용할 때 수집한 후, 이후 데이터베이스로부터 불러오는 형태로 이용될 수 있다. 따라서, 사용자(20)가 상호작용적 교육 플랫폼(10)을 이용할 때마다 사용자 ID 정보를 새롭게 수집하지 않을 수 있다.
사용자 학습 정보는 사용자(20)가 상호작용적 교육 플랫폼(10)을 이용하면서 발생하는 데이터일 수 있다. 예를 들어, 사용자 학습 정보는 사용자(20)가 제공된 교육 컨텐츠를 이용하는 패턴, 이용 시간, 이용 횟수, 교육 컨텐츠에서 제공된 퀴즈 등에 대한 정답률 등을 포함할 수 있다.
분석부(130)는 사용자(20)의 교육 컨텐츠 소비 패턴을 분석하고, 교육 컨텐츠에 대한 사용자(20)의 능력 수준을 분석할 수 있다. 분석부(130)는 앞서 수집한 사용자 정보를 토대로 수행된다. 특히, 분석부(130)는 사용자 학습 정보뿐만 아니라 사용자 ID 정보를 고려하여 수행될 수 있다. 이에 따라, 보다 사용자 맞춤형 분석이 이루어질 수 있다. 예를 들어, 사용자 학습 정보 중 교육 컨텐츠에서 제공된 퀴즈 등에 대한 정답률이 유사하더라도, 사용자 ID 정보를 고려했을 때 상대적으로 어린 사용자(20)와 상대적으로 나이가 많은 사용자(20)에 대하여 다르게 사용자 정보 분석이 수행될 수 있다.
분석부(130)가 이와 같이 사용자 ID 정보와 사용자 학습 정보를 모두 고려하여 수행되기 때문에, 사용자 정보 분석이 보다 정확하게 이루어질 수 있다.
분석부(130)의 사용자 정보 분석에 대한 더 자세한 내용은 후술하고자 한다.
매칭부(140)는 대화형 학습 엔진(141)을 포함하며, 사용자 정보 분석 후 사용자(20)와 대화형 학습 엔진(141)을 매칭한다.
대화형 학습 엔진(141) 매칭은 분석된 사용자 정보를 기초로 하여 이루어질 수 있다. 예를 들어, 사용자 정보 분석 후 얻은 사용자(20)의 학습 수준에 따라서 다른 대화형 학습 엔진(141)을 매칭할 수 있다.
대화형 학습 엔진(141)은 사용자(20)와 상호작용할 수 있으며, 학습 수준별로 서로 다른 데이터를 포함할 수 있다. 예를 들어, 학습 수준이 가장 높은 대화형 학습 엔진에 포함된 교육 컨텐츠 데이터와 학습 수준이 가장 낮은 대화형 학습 엔진에 포함된 교육 컨텐츠 데이터는 서로 다를 수 있다.
대화형 학습 엔진(141)은 분석된 사용자 정보에 기초하여 사용자(20)에게 교육 컨텐츠를 제공하고, 제공된 교육 컨텐츠를 사용자(20)가 소비하는 중 발생하는 피드백 정보를 수집한다. 수집된 피드백 정보는 대화형 학습 엔진에 바로 전달되거나, 분석부(130)의 사용자 정보 분석을 거쳐 대화형 학습 엔진(141)으로 전달될 수 있다. 예를 들어, 읽기 교육 컨텐츠, 쓰기 교육 컨텐츠 등에서 발생한 사용자(20)의 읽기 음성 피드백 정보, 쓰기 터치 피드백 정보 등은 대화형 학습 엔진(141)으로 바로 전달되고, 대화형 학습 엔진(141)은 이에 대한 적절한 결과 컨텐츠를 제공할 수 있다. 이에 비해, 사용자 학습 패턴, 사용자(20)가 특정 컨텐츠를 소비한 시간과 같은 피드백 정보들은 분석부(130)를 거쳐 대화형 학습 엔진(141)으로 전달될 수 있다.
대화형 학습 엔진(141)은 캐릭터 정보를 포함할 수 있다. 사용자(20)는 상호작용적 교육 플랫폼(10)과 소통함에 있어서, 대화형 학습 엔진(141)에 포함된 캐릭터와 상호작용할 수 있다. 사용자(20)가 캐릭터를 통해 상호작용적 교육 플랫폼(10)을 이용함으로써, 사용자(20)의 교육 컨텐츠에 대한 거부감을 줄일 수 있다.
본 발명의 일 실시 예에 따르면, 사용자(20)의 정보를 분석하고 분석된 사용자 정보를 바탕으로 사용자(20)에게 맞는 대화형 학습 엔진 매칭이 가능하기 때문에, 학습 수준별 교육 컨텐츠 제공이 가능하다. 또한, 캐릭터를 이용하여 교육 컨텐츠를 제공하기 때문에, 교육 컨텐츠에 대한 사용자(20)의 거부감을 줄일 수 있다.
이상에서는 본 발명의 일 실시 예에 따른 상호작용적 교육 플랫폼의 기본적인 구성에 대하여 살펴보았다. 이하에서는 상호작용적 교육 플랫폼 작동 방법에 대하여 살펴보고자 한다.
도 3은 본 발명의 일 실시 예에 따른 상호작용적 교육 플랫폼의 작동 방법을 나타낸 순서도이다.
도 3a에 따르면, 본 발명의 일 실시 예에 따른 상호작용적 교육 플랫폼은 먼저 사용자 정보를 수집한다(S100).
사용자 정보는 사용자(20)의 학습과 관련된 전반적인 정보이다. 예를 들어, 사용자 정보는 사용자 ID 정보와 사용자 학습 정보를 포함할 수 있다.
사용자 ID 정보는 사용자(20)의 나이, 성별, 사용자(20)가 입력한 사용자 학습 수준 등 사용자(20)의 신원과 관련된 정보일 수 있다. 사용자 ID 정보는 사용자(20)가 최초로 상호작용적 교육 플랫폼을 사용할 때 수집한 후, 이후 데이터베이스로부터 불러오는 형태로 이용될 수 있다. 따라서, 사용자(20)가 상호작용적 교육 플랫폼을 이용할 때마다 사용자 ID 정보를 새롭게 수집하지 않을 수 있다.
사용자 학습 정보는 사용자(20)가 상호작용적 교육 플랫폼을 이용하면서 발생하는 데이터일 수 있다. 예를 들어, 사용자 학습 정보는 사용자(20)가 제공된 교육 컨텐츠를 이용하는 패턴, 이용 시간, 이용 횟수, 교육 컨텐츠에서 제공된 퀴즈 등에 대한 정답률 등을 포함할 수 있다.
사용자 정보 수집(S100)은 상호작용적 교육 플랫폼이 제공된 표시 장치(110)에 입력되는 정보를 수집하거나, 사용자 정보가 기록된 데이터베이스로부터 사용자 정보를 불러오는 방식으로 수행될 수 있다. 표시 장치(110)에 입력되는 정보는 사용자(20)가 표시 장치(110)를 터치하면서 발생하는 터치 입력 정보, 표시 장치(110)에 제공된 카메라를 이용하여 촬영한 사용자 영상 정보 등 다양한 종류일 수 있다.
상호작용적 교육 플랫폼은 사용자 정보 수집 후, 사용자 정보를 분석한다(S200).
사용자 정보 분석은 사용자(20)의 교육 컨텐츠 소비 패턴을 분석하고, 교육 컨텐츠에 대한 사용자(20)의 능력 수준을 분석하기 위해 수행될 수 있다. 사용자 정보 분석은 앞서 수집한 사용자 정보를 토대로 수행된다. 특히, 사용자 정보 분석은 사용자 학습 정보뿐만 아니라 사용자 ID 정보를 고려하여 수행될 수 있다. 이에 따라, 보다 사용자 맞춤형 분석이 이루어질 수 있다. 예를 들어, 사용자 학습 정보 중 교육 컨텐츠에서 제공된 퀴즈 등에 대한 정답률이 유사하더라도, 사용자 ID 정보를 고려했을 때 상대적으로 어린 사용자(20)와 상대적으로 나이가 많은 사용자(20)에 대하여 다르게 사용자 정보 분석이 수행될 수 있다.
사용자 정보 분석이 이와 같이 사용자 ID 정보와 사용자 학습 정보를 모두 고려하여 수행되기 때문에, 사용자 정보 분석이 보다 정확하게 이루어질 수 있다.
사용자 정보 분석에 대한 더 자세한 내용은 후술하고자 한다.
상호작용적 교육 플랫폼은 사용자 정보 분석 후 대화형 학습 엔진을 매칭한다(S300).
대화형 학습 엔진 매칭(S300)은 분석된 사용자 정보를 기초로 하여 이루어질 수 있다. 예를 들어, 사용자 정보 분석 후 얻은 사용자(20)의 학습 수준에 따라서 다른 대화형 학습 엔진을 매칭할 수 있다.
대화형 학습 엔진은 사용자(20)와 상호작용할 수 있으며, 학습 수준별로 서로 다른 데이터를 포함할 수 있다. 예를 들어, 학습 수준이 가장 높은 대화형 학습 엔진에 포함된 교육 컨텐츠 데이터와 학습 수준이 가장 낮은 대화형 학습 엔진에 포함된 교육 컨텐츠 데이터는 서로 다를 수 있다.
대화형 학습 엔진(141)은 분석된 사용자 정보에 기초하여 사용자(20)에게 교육 컨텐츠를 제공하고, 제공된 교육 컨텐츠를 사용자(20)가 소비하는 중 발생하는 피드백 정보를 수집한다. 수집된 피드백 정보는 대화형 학습 엔진(141)에 바로 전달되거나, 사용자 정보 분석 단계(S200)를 거쳐 대화형 학습 엔진(141)으로 전달될 수 있다. 예를 들어, 읽기 교육 컨텐츠, 쓰기 교육 컨텐츠 등에서 발생한 사용자(20)의 읽기 음성 피드백 정보, 쓰기 터치 피드백 정보 등은 대화형 학습 엔진(141)으로 바로 전달되고, 대화형 학습 엔진(141)은 이에 대한 적절한 결과 컨텐츠를 제공할 수 있다. 이에 비해, 사용자 학습 패턴, 사용자(20)가 특정 컨텐츠를 소비한 시간과 같은 피드백 정보들은 사용자 정보 분석 단계(S200)를 거쳐 대화형 학습 엔진(141)으로 전달될 수 있다.
이상에서는 본 발명의 일 실시 예에 따른 상호작용적 교육 플랫폼의 기본적인 작동 방법에 대하여 살펴보았다. 이하에서는 보다 구체적인 상호작용적 교육 플랫폼 작동 방법에 대하여 살펴보고자 한다.
도 2 및 도 3b에 따르면, 분석부(130)의 사용자 정보 분석 단계(S200)는 영역별 학습 정보 분리 단계(S210), 영역별 학습 결과 평가 단계(S220), 종합 학습 결과 도출 단계(S230)를 포함한다.
영역별 학습 정보 분리 단계(S210)에서는 사용자 정보 수집 단계(S100)에서 수집된 사용자 정보 중 사용자 학습 정보를 학습 영역에 따라 분리한다. 예를 들어, 사용자 학습 정보는 읽기 교육, 쓰기 교육, 수리 교육 등 교육 영역에 따라 분리될 수 있다. 아울러, 교육 영역에 따라 분리된 사용자 학습 정보는 다시 각 영역에서 평가하고자 하는 교육 항목에 따라 분리될 수 있다. 예를 들어, 읽기 교육 관련 정보로 분리된 사용자 학습 정보는 다시 음소에 관련된 정보, 단어에 관련된 정보, 문장에 관련된 정보로 분리될 수 있다.
영역별 학습 정보 분리 단계(S210)에서 사용자 학습 정보를 세분화하기 때문에, 보다 정밀한 사용자 학습 수준 분석이 가능하다.
영역별 학습 정보 분리(S210) 이후 영역별 학습 결과 평가(S220)가 이루어진다. 영역별 학습 결과 평가(S220)는 각각의 교육 영역 및 교육 항목 별로 이루어질 수 있다.
영역별 학습 결과 평가 단계(S220)에서는 분리된 사용자 학습 정보를 사용자 ID 정보를 고려하여 기 설정된 평가 기준과 비교할 수 있다. 평가 기준은 각 교육 영역 및 교육 항목별로 정리된 바람직한 정답 값일 수 있으며, 평가 기준과 사용자 학습 정보를 비교하여, 사용자(20)의 교육 컨텐츠 성취도 및 사용자 학습 수준을 확인할 수 있다.
영역별 학습 결과 평가 단계(S220)에서 학습 결과 평가는 기 설정된 척도로 이루어질 수 있다. 예를 들어, 학습 결과 평가는 상술한 평가 기준과의 일치도에 따라 1~100까지의 숫자 팩터로 나타나거나, 통과(Pass)/실패(Fail)의 이분적 팩터로 나타나거나, 우수(O)/보통(△)/미달(X)의 삼분적 팩터로 나타날 수 있다. 학습 결과 평가의 결과 값은 교육 영역 및 교육 항목에 따라 달리 설정될 수 있다.
영역별 학습 결과 평가(S220) 이후 종합 학습 결과 도출(S230)이 이루어진다. 종합 학습결과 도출(S230)은 영역별 학습 결과를 모으고, 이를 토대로 대화형 학습 엔진과 매칭(S300)하기 위한 파라미터를 만드는 것을 의미할 수 있다.
종합 학습 결과 도출(S230)에서는 예를 들어, 영역별 학습 결과 평가(S220)에서 도출된 결과를 점수화하고, 점수별로 구간을 나눌 수 있다. 이때, 영역별 학습 결과 평가(S220)에서 도출된 결과는 기설정된 가중치를 받아 점수화될 수 있다. 영역별 학습 결과 평가값에 부여되는 가중치는 사용자 ID 정보에 따라 다를 수 있다. 예를 들어, 가중치는 사용자(20)의 나이에 따라 달라질 수 있다. 구체적으로, 사용자(20)가 어린이인 경우 언어 발달의 단계를 고려하여, 영역별 학습 결과 평가값에 부여하는 가중치를 다르게 설정할 수 있다.
매칭부(140)의 대화형 학습 엔진 매칭 단계(S300)는 종합 학습 결과별 대화형 학습 엔진 매칭 단계(S310) 및 대화형 학습 엔진 커스터마이징 단계(S320)를 포함할 수 있다.
종합 학습 결과별 대화형 학습 엔진 매칭(S310)은 종합 학습 결과 도출(230)에서 산출된 점수화된 결과를 토대로, 대화형 학습 엔진(141)을 매칭하는 것일 수 있다. 예를 들어, 점수별로 나누어진 구간에 따라, 서로 다른 대화형 학습 엔진(141)을 매칭할 수 있다. 이에 따라서 수준별로 대화형 학습 엔진(141)을 매칭하는 것이 가능하다.
대화형 학습 엔진 커스터마이징 단계(S320)는 매칭된 대화형 학습 엔진(141)을 사용자(20)에 맞게 커스터마이징 하는 것을 의미한다. 대화형 학습 엔진(141)은 종합 학습 결과 도출(230)에서 산출된 점수화된 결과를 토대로 점수 구간별로 매칭되기 때문에, 사용자(20)의 학습 수준을 정확하게 반영하는 것은 아닐 수 있다. 예를 들어, 같은 점수 구간에 속하더라도 서로 강세와 약세를 보이는 교육 항목이 다를 수 있다. 어떤 사용자(20)는 발음 학습 중에서도 음소에 대한 학습 수준이 높고, 문장에 대한 학습 수준이 낮을 수 있으며, 다른 사용자(20)는 발음 학습 중 음소에 대한 학습 수준은 낮고 문장에 대한 학습 수준은 높을 수 있다.
대화형 학습 엔진 커스터마이징 단계(S320)에서는 매칭된 대화형 학습 엔진(141)을 커스터마이징 하여 사용자(20)가 약세를 보이는 교육 항목에 대한 집중적인 교육이 이루어질 수 있도록 할 수 있다. 예를 들어, 같은 대화형 학습 엔진이라도 음소에 대한 학습 수준이 낮은 사용자(20)에게는 음소 교육에 대한 컨텐츠를 쉽게, 그리고 더 많이 제공할 수 있다. 반대로, 문장에 대한 학습 수준이 낮은 사용자(20)에게는 문장 교육에 대한 컨텐츠를 쉽게, 그리고 더 많이 제공할 수 있다.
대화형 학습 엔진 커스터마이징(S320)은 따라서 영역별 학습 결과 평가 단계(S220)에서 산출된 교육 영역별, 교육 항목별 평가값을 기초로 이루어질 수 있다.
본 발명의 일 실시 예에 따르면, 사용자 정보를 세분화하여 평가하고, 세분화된 정보를 바탕으로 대화형 학습 엔진 매칭 및 커스터마이징이 이루어지기 때문에 사용자 맞춤형 교육 컨텐츠 제공이 가능하다.
이상에서는 본 발명의 일 실시 예에 따른 상호작용적 교육 플랫폼 작동 방법에 대하여 살펴보았다. 이하에서는 교육 영역별로 상호작용적 교육 플랫폼이 구현되는 예시에 대하여 자세히 살펴보고자 한다.
도 4a 내지 도 4d는 본 발명의 일 실시 예에 따른 상호작용적 교육 플랫폼의 작동 예시이다.
도 4a에 따르면, 발음 학습 교육 영역에 대한 상호작용적 교육 플랫폼 작동 방법을 볼 수 있다.
도 2 및 도 4a에 따르면, 먼저 수집부(120)는 발음 학습 결과를 수집한다(S100). 발음 학습 결과는 상호작용적 교육 플랫폼이 탑재된 디바이스에 녹음된 음성 파일 형태로 제공될 수 있다. 발음 학습 결과는 한국어, 영어, 중국어, 프랑스어, 일본어, 독일어 등 다양한 언어에 대한 학습 결과일 수 있다.
수집된 발음 학습 결과는 분석부(130)의 영역별 학습 정보 분리 단계(S210)에서 교육 항목 별로 분리된다. 예를 들어, 발음 학습 결과는 음소, 단어, 및 문장에 대한 교육 항목으로 분리될 수 있다.
교육 항목 별로 분리된 발음 학습 결과는 영역별 학습 결과 평가 단계(S220)에서 우수(O)/보통(△)/미달(X)의 삼분적 팩터로 평가될 수 있다. 평가는 기 설정된 평가 기준과의 일치도를 분석하는 형태로 이루어질 수 있다. 특히, 본 발명의 일 실시 예에 따르면 음소 단위로 평가 기준과 발음 학습 결과를 비교할 수 있어서, 데이터 분석의 정확도가 매우 높다.
교육 항목 별로 평가된 학습 결과 평가값은 종합 학습 결과 도출 단계(S230)에서 종합되고 점수로 환산된다. 이때, 각 교육 항목별 평가값을 종합하여 다양한 조합의 평가 결과를 도출할 수 있다. 예를 들어, 음소, 단어, 및 문장에 대한 교육 항목에 대하여 우수(O)/보통(△)/미달(X)로 평가하는 경우 총 27가지의 종합 평가 결과가 존재할 수 있다. 종합 학습 결과 도출 단계(S230)에서는 우수(O)/보통(△)/미달(X)의 각 평가 값을 점수로 환산한다. 환산된 종합 점수는 구간별로 나뉘어 관리될 수 있다. 예를 들어 환산된 종합 점수를 6개의 구간으로 나누어 관리할 수 있다. 다만, 교육 항목 별 평가 방법 및 환산된 종합 점수를 나누어 관리하는 방법은 앞서 서술한 예시와 달라질 수 있다.
매칭부(140)의 종합 학습 결과별 대화형 학습 엔진 매칭 단계(S310)에서는 앞서 나뉜 구간별로 서로 다른 대화형 학습 엔진을 매칭할 수 있다. 이에 따라, 사용자(20)의 학습 수준에 따라 서로 다른 대화형 학습 엔진이 매칭될 수 있다.
도 4b에 따르면, 쓰기 학습 교육 영역에 대한 상호작용적 교육 플랫폼 작동 방법을 볼 수 있다.
도 2 및 도 4b에 따르면, 먼저 수집부(120)는 쓰기 학습 결과를 수집한다(S100). 쓰기 학습 결과는 상호작용적 교육 플랫폼이 탑재된 디바이스에 기록된 터치 입력 정보로 제공될 수 있다. 쓰기 학습 결과는 한국어, 영어, 중국어, 프랑스어, 일본어, 독일어 등 다양한 언어에 대한 학습 결과일 수 있다.
수집된 쓰기 학습 결과는 분석부(130)의 영역별 학습 정보 분리 단계(S210)에서 교육 항목 별로 분리된다. 예를 들어, 쓰기 학습 결과는 철자, 단어, 및 받아쓰기에 대한 교육 항목으로 분리될 수 있다.
교육 항목 별로 분리된 발음 학습 결과는 영역별 학습 결과 평가 단계(S220)에서 통과(pass)/실패(fail)의 이분적 팩터로 평가될 수 있다. 평가는 기 설정된 평가 기준과의 일치도를 분석하는 형태로 이루어질 수 있다.
교육 항목 별로 평가된 학습 결과 평가값은 종합 학습 결과 도출 단계(S230)에서 종합되고 점수로 환산된다. 이때, 각 교육 항목별 평가값을 종합하여 다양한 조합의 평가 결과를 도출할 수 있다. 예를 들어, 철자, 단어, 및 받아쓰기에 대한 교육 항목에 대하여 통과(pass)/실패(fail)로 평가하는 경우 총 8가지의 종합 평가 결과가 존재할 수 있다. 종합 학습 결과 도출 단계(S230)에서는 통과(pass)/실패(fail)의 각 평가 값을 점수로 환산한다. 환산된 종합 점수는 구간별로 나뉘어 관리될 수 있다. 예를 들어 환산된 종합 점수를 3개의 구간으로 나누어 관리할 수 있다. 다만, 교육 항목 별 평가 방법 및 환산된 종합 점수를 나누어 관리하는 방법은 앞서 서술한 예시와 달라질 수 있다.
매칭부(140)의 종합 학습 결과별 대화형 학습 엔진 매칭 단계(S310)에서는 앞서 나뉜 구간별로 서로 다른 대화형 학습 엔진을 매칭할 수 있다. 이에 따라, 사용자(20)의 학습 수준에 따라 서로 다른 대화형 학습 엔진이 매칭될 수 있다.
도 4c와 도 4d에 따르면, 읽기 학습 교육 영역과 E-Book 학습에 대한 상호작용적 교육 플랫폼 작동 방법을 볼 수 있다.
도 4c와 도 4d에 도시된 읽기 학습과 E-Book 학습에 대하여도 앞서 서술한 발음 학습 또는 쓰기 학습과 유사한 방법이 도입될 수 있다. 예를 들어, 수집된 학습 결과는 음소/단어/문장 또는 독해 능력 등의 교육 항목으로 나뉘고, 이를 바탕으로 각각의 교육 항목에 대한 평가 값을 기록, 종합하여 사용자(20)에게 맞는 대화형 학습 엔진이 매칭될 수 있다.
본 발명의 일 실시 예에 따르면, 피교육자와의 상호작용을 통해 피교육자의 수준을 평가하고, 평가된 수준에 따라 맞춤형 교육 컨텐츠를 제공하여 학습 효과를 크게 향상시킬 수 있다.
도 5는 본 발명의 일 실시 예에 따른 상호작용적 교육 플랫폼이 적용된 어플리케이션의 예시이다.
도 5a에 따르면, 어플리케이션의 구조 및 동작 순서를 확인할 수 있다.
도 5a에 따르면, 먼저 사용자(20)가 어플리케이션을 구동하면, 표시 장치(110)는 초기 화면상에 동영상, 음악 등 미디어 프로그램인 Chant play 및 다양한 게임 종류를 디스플레이 한다. 또한, 표시 장치(110)는 수준별 게임 모드를 선택하기 위한 다양한 난이도를 제공한다. 사용자(20)가 플레이 하기 위한 특정 게임과 난이도를 선택하면, 해당 게임 및 난이도에 맞추어 게임이 실행된다.
예를 들어, 게임 종류는 음성을 통해 출력되는 색상의 명칭과 표시 장치(110)에 디스플레이 된 색상의 명칭이 일치하는 영역을 찾는 Color Choice가 있다. Color Choice 게임의 난이도는 easy모드 및 hard모드가 존재할 수 있다. easy모드에서 표시 장치(110)는 red, yellow, green, blue, purple, pink 등의 색상에 관련된 텍스트가 입력된 영역을 디스플레이 할 수 있다. 그러면, 사용자(20)는 표시 장치(110)에서 출력되는 음성과 동일한 색상 영역을 터치하여 정답을 맞추는 게임일 수 있다. hard모드에서 표시 장치(110)는 red, yellow, green, blue, purple, pink 등의 색상 관련 텍스트 및 각 색상에 맞는 이미지를 디스플레이 하며, 표시 장치(110)에서 출력되는 음성과 동일한 색상 영역을 가지는 텍스트 및 이미지를 터치하여 정답을 맞추는 게임일 수 있다. 사용자(20)가 정답 영역 이외의 화면을 터치할 경우, 표시 장치(110)는 해당 시퀀스 출력음을 반복 재생한다. 사용자(20)가 정답 영역을 선택한 경우, 해당 텍스트 및 이미지의 영역이 확장되며 정답에 해당되는 영역이 확대되면서 화면의 중앙으로 이동한다. 이 경우, 화면의 이미지는 반복되는 움직임을 가지는 이미지일 수 있다. 또한, 표시 장치(110)는 정답을 알리는 효과음을 출력하며, 효과음은 텍스트 및 이미지 영역이 확대되는 동시에 출력이 시작될 수 있다. 표시 장치(110)에 디스플레이 되는 텍스트 및 이미지 영역은 위치가 랜덤하게 변경될 수 있다. 정답을 맞춘 영역은 터치에 반응 하지 않으며, 되돌아가기 버튼 선택 시, 정답 또는 오답의 결과 표시가 삭제되며 시퀀스의 처음부터 다시 시작하게 된다. 다만, 이는 예시적인 것이며, 본 출원의 기술적 사상은 이에 한정되지 않음이 이해될 것이다.
그리고, 또 다른 게임 종류는 표시 장치(110)에 디스플레이 된 색상 또는 이미지에 일치하는 색상을 사용자(20)가 표시 장치(110)에 음성 입력하여 정답을 맞추는 Speaking Colors 이 있다. 또한, 난이도는 사용자(20)가 각 게임 별 easy모드 또는 hard모드로 선택하여 실행할 수 있다. easy모드의 Speaking Colors 게임을 이용하는 사용자(20)는 분석부(130)에 의해 2단계의 레벨로 평가될 수 있고, hard모드의 Speaking Colors 게임을 이용하는 사용자(20)는 분석부(130)에 의해 4단계의 레벨로 평가될 수 있다. Speaking Colors 게임에 관한 내용은 도 5c에서 후술하고자 한다.
도 5b에 따르면, 게임의 전체적인 실행 과정을 알 수 있다. 먼저 사용자(20)가 게임을 실행하여 정답 또는 오답을 입력하는 과정이 실행된다. 사용자(20)가 정답 또는 오답을 입력 후 next 선택 시, 정답 또는 오답의 결과가 저장되고, 다음 시퀀스로 이동한다. 다음 시퀀스로 이동 후 저장된 정답 또는 오답의 결과가 출력되고, 해당 시퀀스의 정답 또는 오답을 입력하는 과정이 실행된다. 사용자(20)가 정답 또는 오답을 입력 후 previous 선택 시, 저장된 정답 또는 오답의 결과가 출력되는 과정으로 이동한 후 이전 시퀀스의 정답 또는 오답을 입력하는 과정이 실행된다. 사용자(20)가 정답 또는 오답을 입력 후 close 선택 시, 결과값이 디폴트 되며, 게임은 초기 화면으로 되돌아 간다.
이하에서, 게임 모드 동작 과정을 더 구체적으로 설명한다.
도 5c에 따르면, 게임 모드 중 하나인 Speaking Colors의 실행 과정을 확인할 수 있다. 먼저 사용자(20)가 초기 화면에서 Speaking Colors을 실행(S400)하면, 표시 장치(110)는 화면에 색상 및 이미지를 디스플레이(S410) 한다. 사용자(20)가 표시 장치(110)에 디스플레이된 이미지의 색상에 대한 음성(S420)을 입력하면, 분석부(130)가 인식된 음성을 기반으로 음소인식 평균값을 계산(S430)한다. 음소인식 평균값이 정답 값의 범위(여기서 정답 값의 범위는 정답 색 코드로 표현될 수 있다) 내에 속하면, 분석부(130)는 음소인식 평균값에 상응하는 RGB값을 결정(S430)한다. 음소인식 평균값이 정답 값의 범위(여기서 정답 값의 범위는 정답 색 코드로 표현될 수 있다) 내에 속하지 않으면, 사용자(20)가 음성 인식을 하는 과정으로 되돌아간다(S450). 표시 장치(110)는, 결정된 RGB값에 매칭되는 이미지 정보를 디스플레이하고 다음 단계로 이동한다(S460).
예를 들어, 사용자(20)가 Speaking Colors 게임을 실행하면, 표시 장치(110)는 red, yellow, green, blue, purple, pink 등의 색상 중 적어도 하나의 색상 및 해당 색상과 동일한 이미지를 디스플레이 한다. 그러면, 사용자(20)는 표시 장치(110)를 터치 후 음성인식을 실행할 수 있다. 표시 장치(110)에 디스플레이 된 색상 및 이미지는, 분석부(130)가 계산한 음소인식 평균값이 정답 값의 범위(여기서 정답 값의 범위는 정답 색 코드로 표현될 수 있다) 내에 속할 때까지 활성화 된다. 표시 장치(110)에 음성인식 된 음소인식 평균값이 정답 값의 범위(여기서 정답 값의 범위는 정답 색 코드로 표현될 수 있다) 내에 속하지 않을 경우, 표시 장치(110)에 디스플레이 된 이미지는 좌우로 움직이는 모션을 가질 수 있다. 표시 장치(110)에 음성인식 된 음소인식 평균값이 정답 값의 범위(여기서 정답 값의 범위는 정답 색 코드로 표현될 수 있다) 내에 속할 경우, 표시 장치(110)는 기 설정된 음소인식 평균값과 일치하는 RGB값의 색상을 디스플레이 하게 된다. 기 설정된 음소인식 평균값 및 RGB값은 다음 표 1에서 확인할 수 있다.
[표 1]
표 1은 Speaking Colors 게임의 음소인식 평균값 및 음소인식 평균값에 해당하는 RGB값을 나타내는 예시이다.
표 1은 본 발명의 설명의 편의를 위한 것으로, 본 발명의 기술적 사상은 이에 제한되지 않는다.
표 1에 따르면, Speaking Colors 게임의 게임 모드 별, 색상 별 음소인식 평균값 및 해당 RGB값을 확인할 수 있다.
예를 들어, 사용자(20)가 Speaking Colors 게임의 hard모드를 플레이 할 때, 사용자(20)의 red 발음에 대한 음소인식 평균값이 56점이 계산 된다면, 표시 장치(110)는 기 설정된 음소인식 평균값 51-75에 상응하는 RGB값 255.125.125의 색상을 출력할 것이다. 음소인식 평균값이 56점 이면, 표시 장치는 정답 단계의 결과가 아니기 때문에 재시도 버튼을 디스플레이 할 것이다. 또한 Speaking Colors 게임의 hard모드를 플레이 할 때, blue 발음의 음소인식 평균값이 89점이 나온다면, 표시 장치(110)는 RGB값 0.0.190에 해당하는 색상을 출력할 것이다. 음소인식 평균값이 89점이면, 정답 단계의 결과에 해당되기 때문에 다음 단계로 이동할 수 있다. Speaking Colors 게임의 easy 모드의 경우에도, 사용자(20)가 pink 발음의 음소인식 평균값이 40점이 나온다면, 표시 장치(110)는 RGB값 245.195.235에 해당하는 색상을 출력하고, 재시도 버튼을 활성화 할 수 있다. 또한, 사용자(20)가 재시도 하여, 음소인식 평균값이 51점 이상에 해당된다면, 표시 장치(110)는 RGB값 235.65.200 에 해당하는 pink 색상을 출력할 수 있다. 사용자(20)가 기 설정된 정답 단계의 음소인식 평균값을 달성할 경우, 표시 장치(110)의 화면은 해당 색상으로 채워질 수 있다. 또한, 표시 장치(110)에 캐릭터가 디스플레이 되어 해당 단계의 성공을 표현할 수 있다. 다만, 이는 예시적인 것이며, 본 출원의 기술적 사상은 이에 한정되지 않음이 이해될 것이다.
도 6는 본 발명의 일 실시 예에 따른 상호작용적 교육 플랫폼이 적용된 어플리케이션의 실행 예시이다.
도 6a에 따르면, 어플리케이션의 실행 초기 화면을 확인할 수 있다.
도 6a에 따르면, 초기 화면은 가로모드를 지원하며, 좌우로 화면을 swipe 할 수 있다. 화면의 좌우 이동은 메뉴의 왼쪽 처음부터 오른쪽 끝까지 이동할 수 있다. 초기 화면 상에서 보여지는 메뉴는 Color Choice -Easy-, Color Choice -Hard-, Chant Play, Speaking Colors -Easy-, Chant Rhythm, Recording, Color Plate -Easy-, Color Plate -Hard-등이 디스플레이 될 수 있다.
도 6b에 따르면, Color Choice 게임의 실행 화면을 확인할 수 있다.
사용자(20)가 다시 시작(501)영역 선택 시 모든 정답 또는 오답 결과가 디폴트 되며, CLOSE(502) 영역 선택 시 초기 화면으로 복귀한다. 또한, 표시 장치(110)는 MOVE(503) 영역에서 좌우로 움직이는 이미지를 디스플레이 할 수 있다. 사용자(20)가 표시 장치(110)에서 출력된 출력음의 정답과 다른 영역을 터치 한 경우 또는 사용자(20)가 약 2초 동안 표시 장치(110)에 대한 터치가 없는 경우, 표시 장치(110)는 사용자(20)가 화면을 CLOSE 하기 전까지 출력음을 1초 단위로 반복 재생 할 수 있다.
도 6c에 따르면, Speaking Colors 게임의 실행 화면을 확인할 수 있다.
표시 장치(110)에 색상과 이미지가 디스플레이 되고, 사용자(20)가 표시 장치(110)에 음성입력을 실시한다.
예를 들어, 표시 장치(110)에 사과모양의 이미지와 빨간색의 색상이 디스플레이 되면, 사용자(20)는 표시 장치(110)에 red라는 음성입력을 실시한다. 그러면, 분석부(130)는 사용자(20)가 입력한 음성을 기반으로 음소인식 평균값을 계산한다. 음소인식 평균값이 정답 값의 범위(여기서 정답 값의 범위는 정답 색 코드로 표현될 수 있다) 내에 속하면, 분석부(130)는 음소인식 평균값에 상응하는 RGB값을 결정한다. 그리고, 표시 장치(110)는 분석부(130)에 의해 결정된 RGB값에 상응하는 이미지 정보를 출력한다.
도 6d는 Speaking Colors -Hard-의 플레이 화면이다. 표시 장치(110)는 사용자(20)의 음소인식 평균값이 2단계인 상태를 디스플레이 한 화면이다.
도 6e는 사용자(20)가 Speaking Colors 게임을 플레이 하는 중, 사용자(20)의 음소인식 평균값이 정답 단계를 달성하여 다음 단계로 이동하기 전 출력되는 화면이다. 다만, 이는 예시적인 것이며, 본 출원의 기술적 사상은 이에 한정되지 않음이 이해될 것이다.
본 발명의 일 실시 예에 따르면 사용자(20)의 수준별로 대화형 학습 엔진(410)을 매칭하여 학습 효과를 높일 수 있다. 아울러, 학습 결과를 평가함에 있어서, 음소 단위로 평가 기준과의 부합도를 산출함으로써, 정확한 학습 결과 평가가 가능하다.
이상에서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자 또는 해당 기술 분야에 통상의 지식을 갖는 자라면, 후술될 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허청구범위에 의해 정하여져야만 할 것이다.
10 : 상호작용적 교육 플랫폼
20 : 사용자
110 : 표시 장치
120 : 수집부
130 : 분석부
140 : 매칭부
141 : 대화형 학습엔진
20 : 사용자
110 : 표시 장치
120 : 수집부
130 : 분석부
140 : 매칭부
141 : 대화형 학습엔진
Claims (13)
- 사용자 정보를 수집하는 수집부;
상기 수집부에 수집된 상기 사용자 정보에 기반하여 사용자의 교육 컨텐츠 소비 패턴과 상기 사용자의 능력 수준 정보를 분석하는 분석부;
상기 교육 컨텐츠 소비 패턴 및 상기 사용자의 능력 수준 정보에 기반하여 복수의 대화형 학습 엔진들 중에서 상기 사용자에게 맞춤형 교육 컨텐츠를 제공하는 대화형 학습 엔진을 선택하는 매칭부; 및
상기 선택된 대화형 학습 엔진에서 제공하는 상기 맞춤형 교육 컨텐츠를 디스플레이하는 표시 장치를 포함하며,
상기 사용자 정보는,
사용자 ID 정보 및 사용자 학습 정보를 포함하고,
상기 사용자 학습 정보는 상기 사용자의 발음 학습 결과 정보, 쓰기 학습 결과 정보, 읽기 학습 결과 정보, 및 E-book 학습 결과 정보 중에서 적어도 하나를 포함하며,
상기 발음 학습 결과 정보는 사용자의 음성입력을 통한 학습이고,
상기 분석부는,
상기 발음 학습 결과 정보의 학습 영역을 음소교육, 단어교육 및 문장교육으로 분리하고,
상기 발음 학습 결과 정보에 기반하여 상기 음성입력에 대한 음소인식 평균값을 계산하고,
상기 음소인식 평균값에 상응하는 RGB 값을 결정하고,
상기 RGB 값에 매칭되는 이미지 정보를 결정하고,
상기 표시 장치는,
상기 RGB 값에 매칭되는 상기 이미지 정보를 디스플레이 하는, 상호작용적 교육 플랫폼 장치. - 제1항에 있어서,
상기 사용자 ID 정보는,
상기 사용자의 나이, 성별 및 상기 사용자가 입력한 사용자 학습 수준을 포함하고,
상기 사용자 학습 수준은 상기 사용자가 교육 컨텐츠를 사용할 때 수집되는, 상호작용적 교육 플랫폼 장치. - 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 제1항에 있어서,
상기 대화형 학습 엔진은 상기 사용자에게 상기 맞춤형 교육 컨텐츠가 제공되는 과정에서 발생하는 상기 사용자의 피드백 정보를 수신하는, 상호작용적 교육 플랫폼 장치. - 수집부가 사용자 정보를 수집하는 단계;
상기 수집한 사용자 정보를 기반하여 분석부를 통해 사용자의 교육 컨텐츠 소비 패턴과 상기 사용자의 능력 수준 정보를 분석하는 단계;
매칭부가 종합 학습 평가를 기초로 대화형 학습 엔진을 매칭하는 단계; 및
상기 매칭부가 상기 대화형 학습 엔진을 상기 사용자 정보를 기초로 커스터마이징하는 단계를 포함하고,
상기 분석하는 단계는, 교육 영역별로 분리하는 단계;
상기 교육 영역별로 분리된 상기 사용자 정보를 기 설정된 평가 기준과 비교하여 교육 영역별 학습 평가를 산출하는 단계;
상기 교육 영역별 학습 평가를 종합하여 상기 종합 학습 평가를 도출하는 단계; 를 포함하며,
상기 사용자 정보는,
사용자 ID 정보 및 사용자 학습 정보를 포함하고,
상기 사용자 학습 정보는 상기 사용자의 발음 학습 결과 정보, 쓰기 학습 결과 정보, 읽기 학습 결과 정보, 및 E-book 학습 결과 정보 중에서 적어도 하나를 포함하며,
상기 발음 학습 결과 정보는 사용자의 음성입력을 통한 학습이고
상기 분석하는 단계는,
상기 발음 학습 결과 정보에 기반하여 상기 음성입력에 대한 음소인식 평균값을 계산하는 단계;
상기 음소인식 평균값에 상응하는 RGB 값을 결정하는 단계;
상기 RGB 값에 매칭되는 이미지 정보를 결정하는 단계; 및
상기 RGB 값에 매칭되는 상기 이미지 정보를 디스플레이 하는, 상호작용적 교육 플랫폼 동작 방법. - 제10항에 있어서,
상기 사용자 ID 정보는,
상기 사용자의 나이, 성별 및 상기 사용자가 입력한 사용자 학습 수준을 포함하고,
상기 사용자 학습 수준은 상기 사용자가 교육 컨텐츠를 사용할 때 수집되는, 상호작용적 교육 플랫폼 동작 방법. - 삭제
- 삭제
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20180172157 | 2018-12-28 | ||
KR1020180172157 | 2018-12-28 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200083335A KR20200083335A (ko) | 2020-07-08 |
KR102336790B1 true KR102336790B1 (ko) | 2021-12-08 |
Family
ID=71601020
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190176696A KR102336790B1 (ko) | 2018-12-28 | 2019-12-27 | 상호작용적 교육 플랫폼 및 장치 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102336790B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102676947B1 (ko) | 2023-11-10 | 2024-06-21 | 주식회사 포디랜드 | 놀이 활동 분석을 통한 아이 성향 및 교육 정보 제공 플랫폼 시스템 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102344724B1 (ko) * | 2021-03-12 | 2022-01-04 | 주식회사 노스트라에이아이 | 인공지능 모델을 통해 학생의 학습을 관리하는 전자 장치, 및 학습 관리 방법 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100456331B1 (ko) * | 2001-11-03 | 2004-11-10 | 이종희 | 멀티에이전트를 이용한 학습자중심의 학습코스 스케줄링시스템 및 방법 |
KR101248283B1 (ko) * | 2011-02-24 | 2013-03-27 | 한국과학기술원 | 스마트 학습 에이전트 시스템 및 이를 이용한 학습 관리 방법 |
KR101523258B1 (ko) * | 2013-05-08 | 2015-05-28 | 문지원 | 모바일 리딩 컨텐츠 제공 시스템 |
KR20160111275A (ko) * | 2015-03-16 | 2016-09-26 | 최병선 | 외국어 학습 시스템 및 외국어 학습 방법 |
-
2019
- 2019-12-27 KR KR1020190176696A patent/KR102336790B1/ko active IP Right Grant
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102676947B1 (ko) | 2023-11-10 | 2024-06-21 | 주식회사 포디랜드 | 놀이 활동 분석을 통한 아이 성향 및 교육 정보 제공 플랫폼 시스템 |
Also Published As
Publication number | Publication date |
---|---|
KR20200083335A (ko) | 2020-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106548773B (zh) | 基于人工智能的儿童用户搜索方法及装置 | |
US10580319B2 (en) | Interactive multimedia story creation application | |
CN101223571B (zh) | 音质变化部位确定装置及音质变化部位确定方法 | |
US6634886B2 (en) | Amusement system having type practice function, typing practice system, and computer readable storage medium | |
US20160307464A1 (en) | System and method for providing scalable educational content | |
JP7120637B2 (ja) | 学習支援システム、学習支援システムの制御方法及び学習支援プログラム | |
KR102336790B1 (ko) | 상호작용적 교육 플랫폼 및 장치 | |
CN103080991A (zh) | 基于音乐的语言学习方法及使用该方法的学习装置 | |
US20090239201A1 (en) | Phonetic pronunciation training device, phonetic pronunciation training method and phonetic pronunciation training program | |
EP1132443A2 (en) | Method for producing water based coating compositions | |
JP5586754B1 (ja) | 情報処理装置及びその制御方法、コンピュータプログラム | |
WO2017200101A1 (ja) | 情報処理装置及びその制御方法、コンピュータプログラム | |
CN112053595B (zh) | 由计算机实现的训练系统 | |
CN113038053A (zh) | 一种数据合成方法、装置、电子设备以及存储介质 | |
CN106920428B (zh) | 一种基于阿拉伯数字和汉字的综合认知方法及系统 | |
KR20010080567A (ko) | 대화형 시뮬레이터를 이용한 훈련 장치 및 방법 | |
WO2020116280A1 (ja) | 学習支援装置、学習支援方法および記録媒体 | |
US20230282130A1 (en) | Reading level determination and feedback | |
Mahajan | Toward automated critique for student-created interactive narrative projects | |
JP7135372B2 (ja) | 学習支援装置、学習支援方法およびプログラム | |
CN110046354A (zh) | 诵读引导方法、装置、设备及存储介质 | |
JP2003210835A (ja) | キャラクター選択システム、キャラクター選択装置、キャラクター選択方法、プログラム及び記録媒体 | |
KR102659886B1 (ko) | 가상 현실 및 ai 인식 영어 학습 시스템 | |
KR102460272B1 (ko) | 모국어 문자기반 원 사이클 온라인 외국어 학습 시스템 및 그 방법 | |
JP7118389B2 (ja) | 言語学習装置及び言語学習方法並びに言語学習用プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) |