KR20230038823A - Learning management system using big data and artificial intelligence capable of personal care through mentoring - Google Patents

Learning management system using big data and artificial intelligence capable of personal care through mentoring Download PDF

Info

Publication number
KR20230038823A
KR20230038823A KR1020210121381A KR20210121381A KR20230038823A KR 20230038823 A KR20230038823 A KR 20230038823A KR 1020210121381 A KR1020210121381 A KR 1020210121381A KR 20210121381 A KR20210121381 A KR 20210121381A KR 20230038823 A KR20230038823 A KR 20230038823A
Authority
KR
South Korea
Prior art keywords
learner
learning
cycle
information
period
Prior art date
Application number
KR1020210121381A
Other languages
Korean (ko)
Inventor
신철우
Original Assignee
주식회사 퍼스트존
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 퍼스트존 filed Critical 주식회사 퍼스트존
Priority to KR1020210121381A priority Critical patent/KR20230038823A/en
Publication of KR20230038823A publication Critical patent/KR20230038823A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • G06Q50/2057Career enhancement or continuing education service
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9035Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9038Presentation of query results

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Educational Administration (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

The present invention relates to a customized learning method and system based on big data and artificial intelligence. A server for the education receives age information of a learner from at least one among the web, an external server, and a terminal; determines a first cycle corresponding to the age information among a pre-stored learning life cycle; and enables the first learning area information related to the first cycle to be received from at least one among the web, the external server, and the terminal. Therefore, the present invention is capable of providing a seamless learning experience.

Description

멘토링을 통해 개인 케어 가능한 빅데이터 및 인공지능을 이용한 학습 관리 시스템{Learning management system using big data and artificial intelligence capable of personal care through mentoring}Learning management system using big data and artificial intelligence capable of personal care through mentoring}

본 발명은 빅데이터 및 인공지능 기반의 맞춤형 학습 방법 및 시스템에 관한 것이다.The present invention relates to a customized learning method and system based on big data and artificial intelligence.

개인용 컴퓨터, 노트북, 휴대폰 등과 같은 단말기는 다양한 기능을 수행할 수 있도록 구성될 수 있다. 그러한다양한 기능들의 예로 데이터 및 음성 통신 기능, 카메라를 통해 사진이나 동영상을 촬영하는 기능, 음성 저장기능, 스피커 시스템을 통한 음악 파일의 재생 기능, 이미지나 비디오의 디스플레이 기능 등이 있다. 일부 단말기는 게임을 실행할 수 있는 추가적 기능을 포함하고, 다른 일부 단말기는 멀티미디어 기기로서 구현되기도 한다. 더욱이 최근의 단말기는 방송이나 멀티캐스트(multicast) 신호를 수신하여 비디오나 텔레비전 프로그램을시청할 수 있다.Terminals such as personal computers, laptops, and mobile phones may be configured to perform various functions. Examples of such various functions include a data and voice communication function, a function of taking pictures or videos through a camera, a function of recording voice, a function of playing music files through a speaker system, and a function of displaying images or videos. Some terminals include an additional function for playing games, and some terminals are implemented as multimedia devices. Moreover, recent terminals can watch video or television programs by receiving broadcast or multicast signals.

일반적으로 단말기는 이동 가능 여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mount terminal)로 나뉠 수 있다. In general, terminals can be divided into mobile/portable terminals and stationary terminals according to whether or not they are movable. Again, the mobile terminal may be divided into a handheld terminal and a vehicle mount terminal depending on whether the user can directly carry the mobile terminal.

이와 같은 단말기(terminal)는 기능이 다양화됨에 따라 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. As the functions of such a terminal diversify, for example, it is in the form of a multimedia player equipped with complex functions such as taking pictures or videos, playing music or video files, playing games, and receiving broadcasts. is being implemented

이러한 단말기의 기능 지지 및 증대를 위해, 단말기의 구조적인 부분 및/또는 소프트웨어적인 부분을 개량하는것이 고려될 수 있다. In order to support and increase the functions of such a terminal, it may be considered to improve the structural part and/or the software part of the terminal.

이러한 단말을 통해 제공되는 컨텐츠를 기초로 사용자들에 대한 교육이 빈번하게 수행되고 있다. Education for users is frequently performed based on contents provided through such terminals.

단, 현재 적용되는 방법 및 시스템에서는 교육 컨텐츠만을 일방향으로 사용자들에게 제공할 뿐이고, 학습 이벤 트에 따른 사용자의 피드백을 반영한 교육은 이루어지지 못하다는 문제점이 있다. However, currently applied methods and systems have a problem in that only educational contents are provided to users in one direction, and education reflecting user feedback according to learning events is not performed.

본 발명은 상기 종래의 문제점을 해소하기 위해, 빅데이터 및 인공지능 기반의 맞춤형 학습 방법 및 시스템을사용자에게 제공하고자 한다.The present invention aims to provide users with a customized learning method and system based on big data and artificial intelligence in order to solve the above conventional problems.

구체적으로 본 발명은 교육 기회 평등 및 학습 효과 향상을 위한 인공지능(AI) 기반의 맞춤형 학습 플랫폼(Adaptive Learning Platform, ALP1))을 제안하고, 이를 통한 고품질 교육 서비스의 가격 파괴와 글로벌 경쟁력을 보유한 교육 서비스를 제공하고자 한다.Specifically, the present invention proposes an artificial intelligence (AI)-based adaptive learning platform (ALP1) for equalization of educational opportunities and improvement of learning effects, through which price destruction of high-quality educational services and education with global competitiveness want to provide a service.

상술한 과제를 실현하기 위한 본 발명의 일예와 관련된 웹, 외부 서버 및 단말과 네트워크를 구축한 교육용 서버를 이용하는, 빅데이터 및 인공지능 기반의 맞춤형 학습 방법에 있어서, 상기 교육용 서버가, 상기 웹, 외부서버 및 단말 중 적어도 하나로부터 학습자의 나이 정보를 수신하는 제 1 단계; 상기 교육용 서버가, 미리 저장된 학습 생애 주기 중 상기 나이 정보에 대응하는 제 1 주기를 결정하는 제 2 단계; 상기 교육용 서버가, 상기웹, 외부 서버 및 단말 중 적어도 하나로부터 상기 제 1 주기와 관련된 제 1 학습 영역 정보를 수신하는 제 3단계; 상기 교육용 서버가, 상기 학습자와 관련된 제 1 학습자 정보를 수집하는 제 4 단계; 상기 교육용서버가, 상기 제 1 학습 영역 정보 및 상기 제 1 학습자 정보를 기초로 결정된 제 1 교육 컨텐츠를 상기 학습자에게 제공하는 제 5 단계; 상기 교육용 서버가, 상기 제 1 교육 컨텐츠와 관련된 상기 학습자의 제 2 학습자 정보를 누적하여 수집하는 제 6 단계; 상기 제 1 주기가 종료하는 경우, 상기 교육용 서버가 상기 미리 저장된 학습 생애 주기 중 제 2 주기와 관련된 제 2 학습 영역 정보를 수신하는 제 7 단계; 및 상기 교육용 서버가, 상기제 2 학습 영역 정보 및 상기 누적된 제 2 학습자 정보를 기초로 결정된 제 2 교육 컨텐츠를 상기 학습자에게제공하는 제 8 단계;를 포함할 수 있다.In the big data and artificial intelligence-based customized learning method using an educational server in which a network is built with a web, an external server, and a terminal related to an example of the present invention for realizing the above object, the educational server comprises the web, A first step of receiving age information of a learner from at least one of an external server and a terminal; a second step of determining, by the education server, a first cycle corresponding to the age information among pre-stored learning life cycles; a third step of receiving, by the education server, first learning area information related to the first period from at least one of the web, an external server, and a terminal; a fourth step of collecting, by the education server, first learner information related to the learner; a fifth step of providing, by the education server, first educational content determined on the basis of the first learning area information and the first learner information to the learner; a sixth step of accumulating and collecting, by the educational server, second learner information of the learner related to the first educational content; a seventh step of receiving, by the education server, second learning area information related to a second period of the previously stored learning life period when the first period ends; and an eighth step of providing, by the education server, second educational content determined based on the second learning area information and the accumulated second learner information to the learner.

구체적으로, 본 발명은 플랫폼을 통해, 역량/적성/관심에 따라 맞춤형으로 구성되는 개인 맞춤형 학습 환경(Personalized Learning Environment, PLE)에서 AI 튜터가 촉진자(facilitator) 역할을 수행하면서 끊김 없는학습경험을 제공할 수 있다.Specifically, the present invention provides an uninterrupted learning experience while an AI tutor serves as a facilitator in a Personalized Learning Environment (PLE) that is customized according to competency/aptitude/interest through a platform can do.

또한, 본 발명은 국제 표준 기반의 데이터 수집체계와 클라우드 기반 빅데이터 분석 기술과 학습 분석이 가능하고, 교과별 성적과 학습 습관에 대한 데이터 분석 결과를 토대로 AI를 이용한 추론 결과를 사용자에게 제공할수 있다. In addition, the present invention enables an international standard-based data collection system and cloud-based big data analysis technology and learning analysis, and can provide users with inference results using AI based on data analysis results on grades and learning habits for each subject.

또한, 본 발명은 e포트폴리오 서비스 구축을 통해, 학기 단위의 활동을 포함해서 전 학습 기간에 대한 학습 포트폴리오와 적성/성향/관심 분야에 대한 성장기록을 하는 것이 가능하다. In addition, the present invention makes it possible to record a learning portfolio for the entire learning period, including semester-level activities, and growth records for aptitude/disposition/interest fields through the construction of an ePortfolio service.

또한, 본 발명은 AI 튜터(가정교사) 인터페이스를 통해, NUI/NUX 기반의 AI 튜터가 음성인식, 챗봇, 학습 네비게이터 기능을 수행하는 학습 에이전트 기술을 사용자에게 제공할 수 있다. In addition, the present invention can provide users with learning agent technology through which an NUI/NUX-based AI tutor performs voice recognition, chatbot, and learning navigator functions through an AI tutor (tutor) interface.

도 1은 본 발명과 관련하여, 초중고 학생들의 사교육비 변화 추이를 설명하는 도면이다.
도 2는 본 발명과 관련하여, 연도별 1인당 월평균 사교육비와 학교급별 1인당 월평균 사교육비를 설명하기 위한도면이다.
도 3은 본 발명과 관련하여 실감 콘텐츠를 통한 맞춤형 학습 플랫폼의 필요성을 설명하기 위한 도면이다.
도 4는 본 발명과 관련하여 기존의 교육 현황 및 한계점을 설명하기 위한 도면이다.
도 5는 본 발명을 통한 교육 개선 방향성 및 본 발명이 제안하는 기술을 설명하기 위한 도면이다.
1 is a view illustrating changes in private education expenses of elementary, middle and high school students in relation to the present invention.
2 is a diagram for explaining the average monthly private education expenses per person for each year and the average monthly private education expenses per person for each school level in relation to the present invention.
3 is a diagram for explaining the necessity of a customized learning platform through sensory content in relation to the present invention.
4 is a diagram for explaining the existing educational status and limitations in relation to the present invention.
5 is a diagram for explaining the direction of education improvement through the present invention and the technology proposed by the present invention.

도 5는 본 발명을 통한 교육 개선 방향성 및 본 발명이 제안하는 기술을 설명하기 위한 도면이다. 도 5를 참조하면, 본 발명에서는, 소통을 중시하는 Digital Native 세대의 니즈에 맞춰, 효율적 교육 제공과 학습 흥미 고취를 위한 실감형 서비스를 개발하고, 이를 미래세대에게 전 방위적 채널로 제공하고자 한다.5 is a diagram for explaining the direction of education improvement through the present invention and the technology proposed by the present invention. Referring to FIG. 5, in the present invention, in line with the needs of the Digital Native generation, who value communication, an immersive service is developed to provide efficient education and inspire learning interest, and provide it to future generations as an omnidirectional channel. .

즉, 소통 가능한 실감형 교육 서비스를 통해, Digital Native 세대의 학습 흥미도 및 학업 성취도를 제고하고,4차 산업 기술을 융합시킴으로써, 서비스 전달 채널을 학교, 기관, 학생 및 학부모에게 제공할 수 있는 맞춤 학습 플랫폼을 구축하고자 한다. In other words, through communicative realistic educational services, it is possible to enhance the learning interest and academic achievement of the Digital Native generation and to provide service delivery channels to schools, institutions, students and parents by converging the 4th industrial technology. We want to build a learning platform.

도 6은 본 발명이 제안하는 AI인공지능 기반의 맞춤형 학습 플랫폼을 설명하는 도면이다. 도 6을 참조하면, 본 발명에서는 교육 기회 평등 및 학습 효과 향상을 위한 AI인공지능 기반의 맞춤형 학습 플랫폼(Adaptive Learning Platform, ALP)을 제안하고, 이를 통한 고품질 교육 서비스의 가격 파괴와 글로벌 경쟁력을 보유한 교육 서비스를 제공하고자 한다. 6 is a diagram explaining the AI-based customized learning platform proposed by the present invention. Referring to FIG. 6, the present invention proposes an AI artificial intelligence-based adaptive learning platform (ALP) for equalization of educational opportunities and improvement of learning effects, through which price destruction of high-quality educational services and global competitiveness To provide educational services.

즉, 1) 최소의 가격으로 양질의 교육 서비스/콘텐츠를 제공함으로써, 교육 기회를 평등하게 제공하고, 2) 학습흥미 고취 및 집중이 가능한 학습 환경을 제공함으로써, 몰입감 있는 학습경험을 제공하며, 3) 지속적인 학습을통한 학업 성취도를 제고함으로써, 학습 성과를 향상시키고자 한다. That is, 1) providing equal educational opportunities by providing quality educational services/contents at a minimum price, 2) providing an immersive learning experience by providing a learning environment that encourages learning interest and concentration, and 3 ) To improve learning outcomes by improving academic achievement through continuous learning.

본 발명에서는 상기 목적을 달성하기 위해, 교육용 빅데이터 기술, 인공지능 기술, 실감형 콘텐츠, AI 튜터 (가정교사)를 통한 학생 지도 등을 활용할 수 있으며, 이를 통해 AI인공지능 기반의 맞춤형 학습 플랫폼(AdaptiveLearning Platform, ALP)을 구축할 수 있다. In the present invention, in order to achieve the above object, it is possible to utilize educational big data technology, artificial intelligence technology, realistic content, and student guidance through AI tutors (tutors), through which AI artificial intelligence-based customized learning platform (AdaptiveLearning Platform, ALP) can be built.

본 발명에 따른 기대 효과로는, 저비용 고효율, 정확한 학생 데이터 이해, 끊김없는 학습경험 제공, 몰입감 있는 학습경험 제공, 역량 기반 학습 경험 제공, 국제표준과 글로벌향 서비스 제공 등을 들 수 있다. 한편, 도 7은 본 발명이 제안하는 AI인공지능 기반의 맞춤형 학습 플랫폼을 기초로 교육 서비스를 제공하는 시나리오를 설명하는 도면이다. Expected effects according to the present invention include low cost and high efficiency, accurate understanding of student data, provision of seamless learning experience, provision of immersive learning experience, provision of competency-based learning experience, provision of international standard and global service, and the like. Meanwhile, FIG. 7 is a diagram illustrating a scenario in which an education service is provided based on an artificial intelligence-based customized learning platform proposed by the present invention.

도 7을 참조하면, 본 발명에서는, 학생의 생애 주기에 맞춰 실감형 AI 튜터(가정교사)가 학생을 지속 관리하고,각종 학습과 평가 등을 통해 축적된 교육 빅데이터를 학생별 e포트폴리오에 반영하여 학생의 성장을 지속적으모니터링 할 수 있다. Referring to FIG. 7, in the present invention, realistic AI tutors (tutors) continuously manage students according to the student's life cycle, and reflect educational big data accumulated through various learning and evaluation in the e-portfolio for each student. Student growth can be continuously monitored.

즉, 유아, 초등(저), 초등(고), 둥등, 고등 및 성인의 전체 학습 생애주기에 맞추어 축적된 교육 빅데이터를 학생별 e포트폴리오에 반영하여 학생의 성장을 지속적으로 모니터링하게 된다. In other words, education big data accumulated in accordance with the entire learning lifecycle of infants, elementary school (low), elementary school (high), middle school, high school, and adults is reflected in the e-portfolio for each student to continuously monitor student growth.

본 발명에 따른 학습 AI 가정교사는 연령별 특성/성향에 맞춘 AI 튜터 관리가 가능하고, 도 7에 도시된 것과 같이, 학습 영역, 수집 데이터를 거쳐 상호 작용방식으로 AI 튜터 관리가 적용된다. The learning AI tutor according to the present invention can manage AI tutors according to characteristics/inclinations by age, and as shown in FIG. 7, AI tutor management is applied in an interactive way through the learning area and collected data.

학습 분석 시스템 및 서비스 Learning analysis system and service

다음으로, 본 발명과 관련된 학습 분석 방법 및 시스템을 설명하고자 한다. 구체적으로 본 발명은 데이터 수집 체계를 기준으로, 문항 반응 모델을 수립하고, 머신 러닝을 적용하여 성취수준(역량)에 따라 개인화된 학습 경로와 컨텐츠/자원을 제공하며, 학습자, 교사 및 학부모에 구체적이고 개인화된 피드백(처방)을 제공하고, 학습자의 학습 성과를 진단하여 문제점을 조기에 발견 및 해소할 수 있는 학습분석 방법 및 시스템을 제안하고자 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 도 8은 본 발명의 일 실시예와 관련된 학습 분석 시스템의 블록 구성도(block diagram)를 도시한 것이다. Next, a learning analysis method and system related to the present invention will be described. Specifically, the present invention establishes an item response model based on the data collection system, applies machine learning to provide personalized learning paths and contents/resources according to achievement level (competency), and provides specific information to learners, teachers, and parents. This study aims to propose a learning analysis method and system that can provide personalized feedback (prescription), diagnose learners' learning performance, and find and solve problems early. The suffixes "module" and "unit" for components used in the following description are given or used together in consideration of ease of writing the specification, and do not have meanings or roles that are distinct from each other by themselves. 8 shows a block diagram of a learning analysis system related to an embodiment of the present invention.

도 8을 참조하면, 학습 분석 시스템(10)은 단말(100)과 서버(200)를 포함할 수 있다. 먼저, 단말(100)은 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. Referring to FIG. 8 , the learning analysis system 10 may include a terminal 100 and a server 200 . First, the terminal 100 includes a wireless communication unit 110, an audio/video (A/V) input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, a memory 160, and an interface. A unit 170, a control unit 180, and a power supply unit 190 may be included.

단, 도 8에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 학습 분석 시스템이 구현될 수도 있다. However, since the components shown in FIG. 8 are not essential, a learning analysis system having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다. Hereinafter, the above components are examined in turn.

무선 통신부(110)는 학습 분석 시스템과 무선 통신 시스템 사이 또는 기기와 기기가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. The wireless communication unit 110 may include one or more modules enabling wireless communication between the learning analysis system and the wireless communication system or between the device and the network in which the device is located.

예를 들어, 무선 통신부(110)는 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다. For example, the wireless communication unit 110 may include a mobile communication module 112, a wireless internet module 113, a short-distance communication module 114, and a location information module 115.

방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The broadcast reception module 111 receives a broadcast signal and/or broadcast-related information from an external broadcast management server through a broadcast channel.

상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may refer to a server that generates and transmits a broadcast signal and/or broadcast-related information or a server that receives and transmits a previously generated broadcast signal and/or broadcast-related information to a terminal. The broadcast signal includes not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a TV broadcast signal or a broadcast signal in which a data broadcast signal is combined with a radio broadcast signal.

상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다.상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에의해 수신될 수 있다. The broadcast-related information may refer to information related to a broadcasting channel, a broadcasting program, or a broadcasting service provider. The broadcasting-related information may also be provided through a mobile communication network. In this case, it can be received by the mobile communication module 112.

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic ServiceGuide) 등의 형태로 존재할 수 있다. The broadcast related information may exist in various forms. For example, it may exist in the form of an Electronic Program Guide (EPG) of Digital Multimedia Broadcasting (DMB) or an Electronic Service Guide (ESG) of Digital Video Broadcast-Handheld (DVB-H).

상기 방송 수신 모듈(111)은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMBS(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital VideoBroadcast-Handheld), DVB-CBMS, OMA-BCAST, ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다. The broadcast receiving module 111 may, for example, use Digital Multimedia Broadcasting-Terrestrial (DMB-T), Digital Multimedia Broadcasting-Satellite (DMBS), Media Forward Link Only (MediaFLO), and Digital Video Broadcasting-Handheld (DVB-H). , DVB-CBMS, OMA-BCAST, ISDB-T (Integrated Services Digital Broadcast-Terrestrial), etc. can be used to receive digital broadcasting signals. Of course, the broadcast receiving module 111 may be configured to be suitable for other broadcasting systems as well as the above-described digital broadcasting system.

방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다. 이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한형태의 데이터를 포함할 수 있다. 무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 단말(100)에 내장되거나 외장될 수있다. Broadcast signals received through the broadcast receiving module 111 and/or broadcast related information may be stored in the memory 160 . The mobile communication module 112 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network. The radio signal may include a voice call signal, a video call signal, or various types of data according to text/multimedia message transmission/reception. The wireless Internet module 113 refers to a module for wireless Internet access, and may be built into or external to the terminal 100 .

상기 무선 인터넷의 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(WorldInteroperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. 근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 상기 근거리 통신(short range communication)의기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared DataAssociation), UWB(Ultra-Wideband), ZigBee 등이 이용될 수 있다. As the technology of the wireless Internet, WLAN (Wireless LAN) (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), and the like can be used. The short-distance communication module 114 refers to a module for short-distance communication. As the short range communication technology, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra-Wideband (UWB), ZigBee, and the like may be used.

위치 정보 모듈(115)은 단말(100)의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다. 현재 기술에 의하면, 상기 GPS모듈(115)은 3개 이상의 위성으로부터 떨어진 거리 정보와 정확한 시간 정보를 산출한 다음 상기 산출된 정보에 삼각법을 적용함으로써, 위도, 경도, 및 고도에따른 3차원의 현 위치 정보를 정확히 산출할 수 있다. 현재, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법이 널리 사용되고있다. 또한, GPS 모듈(115)은 현 위치를 실시간으로 계속 산출함으로써 속도 정보를 산출할 수 있다. The location information module 115 is a module for acquiring the location of the terminal 100, and a representative example thereof is a Global Positioning System (GPS) module. According to the current technology, the GPS module 115 calculates distance information and accurate time information from three or more satellites, and then applies trigonometry to the calculated information to obtain a three-dimensional current according to latitude, longitude, and altitude. Location information can be accurately calculated. Currently, a method of calculating location and time information using three satellites and correcting an error in the calculated location and time information using another satellite is widely used. In addition, the GPS module 115 may calculate speed information by continuously calculating the current location in real time.

도 8을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는카메라(121)와 마이크(122) 등이 포함될 수 있다.Referring to FIG. 8 , an audio/video (A/V) input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122.

카메라(121)는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을처리하고, 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다. 카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수있다. The camera 121 processes an image frame such as a still image or moving image obtained by an image sensor in a photographing mode, and the processed image frame may be displayed on the display unit 151 . The image frames processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110 .

카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다. Two or more cameras 121 may be provided according to the use environment.

마이크(122)는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력 받아전기적인 음성 데이터로 처리한다. The microphone 122 receives an external sound signal through a microphone in a recording mode, a voice recognition mode, and the like, and processes it into electrical voice data.

처리된 음성 데이터는 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될수 있다. The processed voice data may be converted into a form transmittable to a mobile communication base station through the mobile communication module 112 and then output.

마이크(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음제거 알고리즘이 구현될 수 있다. Various noise removal algorithms for removing noise generated in the process of receiving an external sound signal may be implemented in the microphone 122 .

다음으로, 사용자 입력부(130)는 사용자가 학습 분석 시스템의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치등으로 구성될 수 있다. Next, the user input unit 130 generates input data for the user to control the operation of the learning analysis system. The user input unit 130 may include a key pad, a dome switch, a touch pad (static pressure/capacity), a jog wheel, and a jog switch.

센싱부(140)는 학습 분석 시스템의 개폐 상태, 학습 분석 시스템의 위치, 사용자 접촉 유무, 학습 분석 시스템의 방위, 학습 분석 시스템의 가속/감속 등과 같이 학습 분석 시스템의 현 상태를 감지하여 학습 분석 시스템의동작을 제어하기 위한 센싱 신호를 발생시킨다. The sensing unit 140 detects the current state of the learning analysis system, such as the opening/closing state of the learning analysis system, the location of the learning analysis system, whether or not there is a user contact, the orientation of the learning analysis system, and the acceleration/deceleration of the learning analysis system. It generates a sensing signal to control the operation of the machine.

센싱부(140)는 전원 공급부(190)의 전원 공 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. The sensing unit 140 may sense whether or not the power supply unit 190 supplies power and whether or not the interface unit 170 is connected to an external device.

한편, 출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153), 햅틱 모듈(154) 및 프로젝터 모듈(155), 헤드업 디스플레이(headupdisplay, HUD), 헤드 마운티드 디스플레이(head mounted display, HMD) 등이 포함될 수 있다. On the other hand, the output unit 150 is for generating an output related to sight, hearing or touch, and includes the display unit 151, the sound output module 152, the alarm unit 153, the haptic module 154, and the projector. A module 155, a head-up display (HUD), a head mounted display (HMD), and the like may be included.

디스플레이부(151)는 학습 분석 시스템에서 처리되는 정보를 표시(출력)한다. 디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thinfilm transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode,OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할수 있다. The display unit 151 displays (outputs) information processed by the learning analysis system. The display unit 151 may include a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. ), and at least one of a 3D display.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는학습 분석 시스템 바디의 디스플레이부(151)가 차지하는 영역을 통해 학습 분석 시스템 바디의 후방에 위치한사물을 볼 수 있다. Some of these displays may be of a transparent type or a light transmission type so that the outside can be seen through them. This may be referred to as a transparent display, and a representative example of the transparent display is TOLED (Transparent OLED) and the like. A rear structure of the display unit 151 may also be configured as a light transmissive structure. With this structure, the user can view objects located behind the body of the learning analysis system through the area occupied by the display unit 151 of the body of the learning analysis system.

학습 분석 시스템의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 학습 분석 시스템에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각배치될 수도 있다. Depending on the implementation form of the learning analysis system, two or more display units 151 may exist. For example, in the learning analysis system, a plurality of display units may be spaced apart or integrally disposed on one surface, or may be respectively disposed on different surfaces.

디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부( 151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. When the display unit 151 and a sensor for detecting a touch operation (hereinafter referred to as a 'touch sensor') form a mutual layer structure (hereinafter referred to as a 'touch screen'), the display unit 151 may be used in addition to an output device. It can also be used as an input device. The touch sensor may have the form of, for example, a touch film, a touch sheet, or a touch pad. The touch sensor is a pressure applied to a specific area of the display unit 151 or a pressure applied to a specific area of the display unit 151. It may be configured to convert a change in capacitance or the like into an electrical input signal. The touch sensor may be configured to detect not only the touched position and area, but also the pressure upon touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다. When there is a touch input to the touch sensor, the corresponding signal(s) are sent to the touch controller. The touch controller processes the signal(s) and then transmits corresponding data to the controller 180. Thus, the controller 180 can know which area of the display unit 151 has been touched.

상기 근접 센서(141)는 상기 터치스크린에 의해 감싸지는 학습 분석 시스템의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. The proximity sensor 141 may be disposed in an inner area of the learning analysis system surrounded by the touch screen or near the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object existing in the vicinity without mechanical contact by using the force of an electromagnetic field or infrared rays. Proximity sensors have a longer lifespan than contact sensors, and their utilization is also high.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다. Examples of the proximity sensor include a transmissive photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, an infrared proximity sensor, and the like. When the touch screen is capacitive, the proximity of the pointer is detected by a change in electric field according to the proximity of the pointer. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치contact touch)"라고 칭한다. 상기 터치스크린 상에서포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해수직으로 대응되는 위치를 의미한다. Hereinafter, for convenience of explanation, an act of approaching the touch screen without contacting the pointer to recognize that the pointer is located on the touch screen is referred to as a "proximity touch", and the touch An act of actually touching a pointer on the screen is referred to as "contact touch". The position at which the pointer touches on the touch screen means a position at which the pointer vertically corresponds to the touch screen when the pointer is touched.

상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도,근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor detects a proximity touch and a proximity touch pattern (eg, proximity touch distance, proximity touch direction, proximity touch speed, proximity touch time, proximity touch position, proximity touch movement state, etc.). Information corresponding to the detected proximity touch operation and proximity touch pattern may be output on the touch screen.

음향 출력 모듈(152)은 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. The audio output module 152 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a recording mode, a voice recognition mode, a broadcast reception mode, and the like.

음향 출력 모듈(152)은 학습 분석 시스템에서 수행되는 기능과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다. The sound output module 152 also outputs sound signals related to functions performed in the learning analysis system. The sound output module 152 may include a receiver, a speaker, a buzzer, and the like.

알람부(153)는 학습 분석 시스템의 이벤트 발생을 알리기 위한 신호를 출력한다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한신호를 출력할 수도 있다. The alarm unit 153 outputs a signal for notifying the occurrence of an event in the learning analysis system. The alarm unit 153 may output a signal to notify occurrence of an event in a form other than a video signal or an audio signal, for example, vibration.

상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151,152)은 알람부(153)의 일부로 분류될 수도 있다. The video signal or audio signal may be output through the display unit 151 or the audio output module 152, so they 151 and 152 may be classified as part of the alarm unit 153.

햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. A haptic module 154 generates various tactile effects that a user can feel. A representative example of the tactile effect generated by the haptic module 154 is vibration. The strength and pattern of vibration generated by the haptic module 154 can be controlled.

예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. For example, different vibrations may be synthesized and output or sequentially output.

햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. 햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 학습 분석 시스템의 구성태양에 따라 2개 이상이 구비될 수 있다. In addition to vibration, the haptic module 154 responds to stimuli such as pin arrays vertically moving with respect to the contact skin surface, air blowing force or suction force through a nozzle or suction port, rubbing against the skin surface, electrode contact, and electrostatic force. It is possible to generate various tactile effects, such as the effect of heat absorption and the effect of reproducing the feeling of coolness and warmth using an element capable of absorbing heat or generating heat. The haptic module 154 not only transmits a tactile effect through direct contact, but also can be implemented so that a user can feel a tactile effect through a muscle sense such as a finger or an arm. Two or more haptic modules 154 may be provided according to the configuration of the learning analysis system.

프로젝터 모듈(155)은, 학습 분석 시스템을 이용하여 이미지 프로젝트(project) 기능을 수행하기 위한 구성요소로서, 제어부(180)의 제어 신호에 따라 디스플레이부(151)상에 디스플레이되는 영상과 동일하거나 적어도 일부 가 다른 영상을 외부 스크린 또는 벽에 디스플레이할 수 있다. The projector module 155 is a component for performing an image project function using the learning analysis system, and is the same as or at least the same as the image displayed on the display unit 151 according to the control signal of the controller 180. Some may display other images on external screens or walls.

구체적으로, 프로젝터 모듈(155)은, 영상을 외부로 출력하기 위한 빛(일 예로서, 레이저 광)을 발생시키는 광원(미도시), 광원에 의해 발생한 빛을 이용하여 외부로 출력할 영상을 생성하기 위한 영상 생성 수단 (미도시),및 영상을 일정 초점 거리에서 외부로 확대 출력하기 위한 렌즈(미도시)를 포함할 수 있다. 또한, 프로젝터 모듈(155)은, 렌즈 또는 모듈 전체를 기계적으로 움직여 영상 투사 방향을 조절할 수 있는 장치(미도시)를 포함할수 있다.Specifically, the projector module 155 generates an image to be output to the outside using a light source (not shown) that generates light (eg, laser light) for outputting an image to the outside and light generated by the light source. It may include an image generating unit (not shown) for generating an image, and a lens (not shown) for enlarging and outputting an image to the outside at a certain focal distance. In addition, the projector module 155 may include a lens or a device (not shown) capable of adjusting an image projection direction by mechanically moving the entire module.

프로젝터 모듈(155)은 디스플레이 수단의 소자 종류에 따라 CRT(Cathode Ray Tube) 모듈, LCD(Liquid CrystalDisplay) 모듈 및 DLP(Digital Light Processing) 모듈 등으로 나뉠 수 있다. 특히, DLP 모듈은, 광원에서 발생한 빛이 DMD(Digital Micromirror Device) 칩에 반사됨으로써 생성된 영상을 확대 투사하는 방식으로 프로젝터 모듈(151)의 소형화에 유리할 수 있다. The projector module 155 may be divided into a cathode ray tube (CRT) module, a liquid crystal display (LCD) module, and a digital light processing (DLP) module according to the type of element of the display unit. In particular, the DLP module may be advantageous in reducing the size of the projector module 151 by magnifying and projecting an image generated by reflecting light generated from a light source to a digital micromirror device (DMD) chip.

바람직하게, 프로젝터 모듈(155)은, 학습 분석 시스템의 측면, 정면 또는 배면에 길이 방향으로 구비될 수있다. 물론, 프로젝터 모듈(155)은, 필요에 따라 학습 분석 시스템의 어느 위치에라도 구비될 수 있음은 당연하다. Preferably, the projector module 155 may be provided in the longitudinal direction on the side, front or rear of the learning analysis system. Of course, it is natural that the projector module 155 may be provided at any location in the learning analysis system as needed.

또한, 헤드업 디스플레이(head-up display, HUD, 156)는 차량 등에서 차량 현재 속도, 연료 잔량, 내비게이션길안내 정보 등을 운전자 바로 앞 유리창 부분에 그래픽 이미지로 투영해주는 장치를 의미한다. In addition, a head-up display (HUD) 156 refers to a device that projects the current speed of the vehicle, the amount of remaining fuel, navigation information, etc. as a graphic image on a portion of the windshield right in front of the driver.

또한, 헤드 마운티드 디스플레이(head mounted display, HMD, 157)는 가상 현실(Virtual reality) 정보를 출력할 수 있는 대표적인 장치이다. In addition, a head mounted display (HMD) 157 is a representative device capable of outputting virtual reality information.

가상 현실(Virtual reality)이란 컴퓨터를 통해 어떤 특정한 환경이나 상황을 입체감있는 3D 컨텐츠로제작하여, 그 3D 컨텐츠를 사용하는 사람이 마치 실제 주변 상황, 환경과 상호작용하고 있는 것처럼 만들어 주는 인간-컴퓨터 사이의 인터페이스 등을 총칭한다. Virtual reality is a human-computer interaction that creates a certain environment or situation as 3D content with a three-dimensional effect through a computer, and makes it as if a person using the 3D content is interacting with the real surrounding situation or environment. interfaces, etc.

일반적으로 사람이 지각하는 입체감은 관찰하는 물체의 위치에 따른 수정체의 두께 변화 정도, 양쪽 눈과 대상물과의 각도 차이, 그리고 좌우 눈에 보이는 대상물의 위치 및 형태의 차이, 대상물의 운동에 따라 생기는시차, 그 밖에 각종 심리 및 기억에 의한 효과 등이 복합적으로 작용하여 생긴다. In general, the three-dimensional effect perceived by humans is the degree of change in the thickness of the lens according to the position of the object being observed, the difference in angle between both eyes and the object, the difference in the position and shape of the object seen by the left and right eyes, and parallax caused by the motion of the object. , and other various psychological and memory effects, etc.

그 중 사람이 입체감을 느끼는 가장 중요한 요인은, 사람의 두 눈이 가로 방향으로 약 6.5㎝가량 떨어져 있음으로써, 나타나게 되는 양안 시차(binocular disparity)이다. 즉, 양안 시차에 의해 대상물에 대한 각도 차이를가지고 바라보게 되고, 이 차이로 인해 각각의 눈에 들어오는 이미지가 서로 다른 상을 갖게 되며 이 두 영상이망막을 통해 뇌로 전달되면 뇌는 이 두 개의 정보를 정확히 서로 융합하여 본래의 3D 입체 영상을 느낄 수 있는것이다. Among them, the most important factor for a person to feel a three-dimensional effect is binocular disparity that appears when the two eyes of a person are separated by about 6.5 cm in a horizontal direction. In other words, due to binocular parallax, you look at an object with a difference in angle, and due to this difference, images entering each eye have different images. When these two images are transmitted to the brain through the retina, the brain converts these two information is precisely fused with each other to feel the original 3D stereoscopic image.

이러한 입체감있는 3D 컨텐츠들은 이미 여러 미디어 분야에 두루 이용되어 소비자들로부터 호평을 받아오고 있다. 예를 들어 3D 영화, 3D 게임 및 체험 디스플레이와 같은 것들이 대표적이다. These three-dimensional 3D contents have already been widely used in various media fields and have been well received by consumers. For example, 3D movies, 3D games, and experiential displays are representative.

이와 같이 가상 현실 기술 3D 컨텐츠들의 보편화와 더불어, 더욱 몰입도 높은 가상 현실 서비스를 제공할 수 있는 기술의 개발이 다각적으로 요구되고 있다. In this way, along with the generalization of virtual reality technology 3D contents, the development of a technology capable of providing a more immersive virtual reality service is required in various ways.

일반적으로 이미지 디스플레이 장치는 눈과 매우 근접한 위치에서 발생하는 영상광을 정밀한 광학 장치를 이용하여 먼 거리에 가상의 대형화면이 구성될 수 있도록 초점을 형성함으로써 사용자로 하여금 확대된 허상을 볼수 있도록 하는 화상 표시 장치를 말한다. 또한, 이미지 디스플레이 장치는, 주위 환경은 볼 수 없고 디스플레이 소자에서 발산된 영상광만을 볼 수 있는밀폐형(See-close)과, 윈도우를 통해 주위 환경을 볼 수 있으면서도 디스플레이 소자에서 발산된 영상광을 동시에 볼 수 있는 투과식(See-through)으로 나뉠 수 있다. In general, an image display device is an image that allows a user to see an enlarged virtual image by forming a focus so that a virtual large screen can be configured at a distance using a precise optical device for image light generated at a position very close to the eye. refers to the display device. In addition, the image display device is a see-close type in which the surrounding environment cannot be seen and only the image light emitted from the display element can be seen, and the image light emitted from the display element can be simultaneously viewed while the surrounding environment can be seen through a window. It can be divided into see-through.

본 발명에 따른 헤드 마운티드 디스플레이(head mounted display, HMD, 157)란 안경처럼 머리에 착용하여 멀티미디어 컨텐츠를 제공받을 수 있도록 하는 각종디지털 디바이스를 말한다. 디지털 디바이스의 경량화 및 소량화추세에 따라, 다양한 웨어러블 컴퓨터(Wearable Computer)가 개발되고 있으며, HMD 또한 널리 사용되고 있다. A head mounted display (HMD, 157) according to the present invention refers to various digital devices worn on the head like glasses to receive multimedia contents. According to the trend of light weight and small size of digital devices, various wearable computers are being developed, and HMDs are also widely used.

HMD(157)는 단순한 디스플레이 기능을 넘어 증강 현실 기술, N 스크린 기술 등과 조합되어 유저에게 다양한 편의를 제공할 수 있다.The HMD 157 can provide various conveniences to the user by being combined with augmented reality technology, N-screen technology, etc. beyond a simple display function.

예를 들어, HMD(157)에 마이크와 스피커가 장착되는 경우, 유저는 HMD(157)를 착용한 상태에서, 전화 통화를 수행할 수 있다. 또한, 예를 들어, HMD(157)에 원적외선 카메라(122)가 장착되는 경우, 유저는 HMD(157)를 착용한__ 트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다. For example, when a microphone and a speaker are mounted on the HMD 157, the user can make a phone call while wearing the HMD 157. In addition, for example, when the far-infrared camera 122 is mounted on the HMD 157, the user wears the HMD 157 __ controllers (micro-controllers), microprocessors, for performing other functions. It may be implemented using at least one of the electrical units. In some cases, the embodiments described herein may be implemented by the controller 180 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.According to software implementation, embodiments such as procedures and functions described in this specification may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein. The software code may be implemented as a software application written in any suitable programming language. The software code may be stored in the memory 160 and executed by the controller 180.

또한, 서버(200)는 데이터 베이스를 구축하여, 단말(100)과 정보를 교환할 수 있다. 이때, 서버(200)와 단말(100) 간에는 근거리 통신 또는 원거리 통신이 적용될 수 있다. 여기서 이용될 수 있는 상기 무선 통신 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband),Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. In addition, the server 200 may build a database and exchange information with the terminal 100 . At this time, short-distance communication or long-distance communication may be applied between the server 200 and the terminal 100 . As the wireless communication technology that can be used here, WLAN (Wireless LAN) (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), etc. may be used. there is.

또한, 근거리 통신(short range communication)의 기술로는 블루투스(Bluetooth), RFID(Radio FrequencyIdentification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra-Wideband), ZigBee 등이 이용될수 있다. In addition, as a short range communication technology, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra-Wideband (UWB), ZigBee, and the like may be used.

도 9는 본 발명에 따른 학습 분석 시스템의 구성 요소 및 서비스를 설명하는 방법을 함께 도시한 것이다. 도 9를 참조하면, 서버(200), 데이터 수집/저장부(181), 데이터 분석부(182) 및 대시보드부(183) 등이 수행하는서비스 플로우가 구체적으로 도시된다. Figure 9 shows a method for explaining the components and services of the learning analysis system according to the present invention. Referring to FIG. 9 , a service flow performed by the server 200, the data collection/storage unit 181, the data analysis unit 182, and the dashboard unit 183 is illustrated in detail.

먼저, 서버(200)는 데이터 베이스를 구축할 수 있다(S10) First, the server 200 may build a database (S10)

다음으로, 데이터 수집/저장부(181)의 EC2(Batch Server)는 일 단위 배치 작업으로서, 문항과 코스 정보 메타데이터를 수집하게 된다(S11). 또한, 데이터 수집/저장부(181)의 RDS(Aurora)는 Caliper 데이터 변환에 필요한 메타데이터를 저장한다(S12). 또한, API Gateway(210)로부터 데이터 수집/저장부(181)의 Kinesis는 Home-Learn Lambda Stream을 생성하는데,즉, 분석이 필요한 다른 서비스가 들어오면 새로운 스트림을 생성한다(S14). 또한, Lambda는 Store_Raw_Data 기능을 제공하는데, Raw Data를 저장하고, 필요한 경우, 이벤트 발생 시간을 교정하는 역할을 한다(S15). Next, EC2 (Batch Server) of the data collection/storage unit 181 collects items and course information metadata as a daily batch job (S11). In addition, RDS (Aurora) of the data collection/storage unit 181 stores metadata required for Caliper data conversion (S12). In addition, Kinesis of the data collection/storage unit 181 from the API Gateway 210 creates a Home-Learn Lambda Stream, that is, a new stream is created when another service requiring analysis comes in (S14). In addition, Lambda provides the Store_Raw_Data function, which stores raw data and, if necessary, corrects the event occurrence time (S15).

또한, S3(Data Lake)는 hl-analyticsraw-data를 수집하고(S16), Lambda로 전달하게 된다(S17). 이후, Lambda는 데이터 수집/저장부(181)의 RDS(Aurora)와 교류하고, 지속적인 Lambda 함수 호출 실패시 SQS로자료를 전달하게 된다(S18). In addition, S3 (Data Lake) collects hl-analyticsraw-data (S16) and delivers it to Lambda (S17). Thereafter, the Lambda communicates with RDS (Aurora) of the data collection/storage unit 181, and transmits the data to SQS when continuous Lambda function calls fail (S18).

또한, S3(hl-analyticsraw-data)를 통해, JSON 파일 인 Caliper 데이터를 저장한다(S19). 또한, S3(hl-analyticsraw-data)는 EC2와 자료를 교환하고, EC2는 분석 성능 향상을 위한 파일을 Merge한다(S20). 예를 들어, 10분 단위로 파일의 Merge가 수행될 수 있다. 또한, Lambda와 연계하여, S3(hl-analyticsraw-data)는 이미지/긴 텍스트 데이터가 들어오는 경우, 이미지/텍스트 파일로 저장하는 기능을 제공한다(S21). In addition, Caliper data, which is a JSON file, is saved through S3 (hl-analyticsraw-data) (S19). Also, S3 (hl-analyticsraw-data) exchanges data with EC2, and EC2 merges files to improve analysis performance (S20). For example, merging of files may be performed in units of 10 minutes. In addition, in conjunction with Lambda, S3 (hl-analyticsraw-data) provides a function to save image/long text data as an image/text file (S21).

또한, Lambda와 연계하여, S3(hl-analyticsraw-data)는 변환에 실패한 raw data를 저장하는 것도 가능하다(임시 bucket, S22)). 이후, 실행에 관련된 모니터링(S23), SNS 알림 비스(S24), Slack(S25)의 과정이 순차적으로 수행될 수 있다. 한편, 데이터 분석부(182)는 Glue가 (1) Caliper Data로부터 데이터 카탈로그를 생성하고(예를 들어, 3시간 단위), (2) 데이터 ETL 작업 후 Redshift로 삽입(예를 들어, 1일 단위 / 6시간 단위)하는 기능을 제공한다(S26). 또한, Redshift(Data Warehouse)는 Athena에 대해 웹에서 데이터 조회가 가능하도록 할 수 있다(S27, S28). 또한, Step Functions인 Lambda는 Redshift(Data Warehouse)와 통신하고, 일/주/월 단위 데이터를 분석함으로 써, 배치 작업을 수행한다(S29).이후, RDS(MySQL)가 분석하는 데이터베이스(DB) 로서의 역할을 제공한다(S30). 나아가 대시보드부(183)는 디스플레이부(151)와 연동하여 동작하는데, 먼저, 대시보드 DB인 RDS (MySQL)로 데이터가 전달되고(S31), EC2 (WAS)가 이를 통신하여 수신 및 피드백하며(S32), 웹인 EC2와 이에 대한 데이터를 통신하게 된다(S33). In addition, in conjunction with Lambda, S3 (hl-analyticsraw-data) can also store raw data that failed conversion (temporary bucket, S22)). Thereafter, the processes of monitoring (S23), SNS notification service (S24), and Slack (S25) related to execution may be sequentially performed. Meanwhile, in the data analysis unit 182, Glue (1) creates a data catalog from Caliper Data (eg, 3 hour units), (2) inserts data into Redshift after ETL work (eg, 1 day unit) / 6 hour unit) is provided (S26). In addition, Redshift (Data Warehouse) can enable Athena to search for data on the web (S27, S28). In addition, Lambda, which is Step Functions, communicates with Redshift (Data Warehouse) and analyzes daily/weekly/monthly data to perform batch work (S29). Then, RDS (MySQL) analyzes database (DB) Provides a role as (S30). Furthermore, the dashboard unit 183 operates in conjunction with the display unit 151. First, data is transmitted to the dashboard DB, RDS (MySQL) (S31), and EC2 (WAS) communicates with it to receive and feedback, (S32), it communicates data with EC2, which is the web, (S33).

Claims (1)

웹, 외부 서버 및 단말과 네트워크를 구축한 빅데이터 및 인공지능 기반의 교육용 서버에 있어서,
상기 교육용 서버는,
상기 웹, 외부 서버 및 단말 중 적어도 하나로부터 학습자의 나이 정보를 수신하고,
미리 저장된 학습 생애 주기 중 상기 나이 정보에 대응하는 제 1 주기를 결정하며,
상기 웹, 외부 서버 및 단말 중 적어도 하나로부터 상기 제 1 주기와 관련된 제 1 학습 영역 정보를 수신하고,
상기 학습자와 관련된 제 1 학습자 정보를 수집하며,
상기 제 1 학습 영역 정보 및 상기 제 1 학습자 정보를 기초로 결정된 제 1 교육 컨텐츠를 상기 학습자에게 제공하고,
상기 제 1 교육 컨텐츠와 관련된 상기 학습자의 제 2 학습자 정보를 누적하여 수집하며,
상기 제 1 주기가 종료하는 경우, 상기 미리 저장된 학습 생애 주기 중 제 2 주기와 관련된 제 2 학습 영역 정보를 수신하고,
상기 제 2 학습 영역 정보 및 상기 누적된 제 2 학습자 정보를 기초로 결정된 제 2 교육 컨텐츠를 상기 학습자에게 제공하며,
상기 미리 저장된 학습 생애 주기는, 유아 주기, 초등 주기, 중등 주기 및 고등 주기를 포함하고,
상기 초등 주기는 미리 지정된 학년을 기준으로 낮은 학년에 대한 제 1 초등 주기와 상기 기준보다 높은 학년에대한 제 2 초등 주기로 구분되며,
상기 제 1 주기가 유아 주기인 경우, 상기 제 1 학습 영역 정보는, 상기 학습자의 창의력 및 커뮤니케이션과 관련된 것이고,
상기 제 1 학습자 정보는, 창의력 지표와 관련된 것이며,
상기 제 1 교육 컨텐츠는 상기 학습자의 창의력 및 학습 습관과 관련되고,
상기 제 1 주기가 초등 주기인 경우,
상기 제 1 학습 영역 정보는, 상기 학습자의 창의력, 사고력, 자기관리 및 커뮤니케이션과 관련된 것이고,
상기 제 1 학습자 정보는, 학습, 성향, 지능 및 적성과 관련된 것이며,
상기 제 1 주기가 상기 제 1 초등 주기인 경우에는, 상기 제 1 교육 컨텐츠는 상기 학습자의 사고력 및 학습 선호도에 관한 것이고,
상기 제 1 주기가 상기 제 2 초등 주기인 경우에는, 상기 제 1 교육 컨텐츠는 상기 학습자의 교과 이해도 및 학습 성향에 관한 것이며,
상기 제 1 주기가 중등 주기인 경우,
상기 제 1 학습 영역 정보는, 상기 학습자의 창의력, 사고력, 자기관리 및 커뮤니케이션과 관련된 것이고,
상기 제 1 학습자 정보는, 학습, 성향, 지능, 적성 및 진로와 관련된 것이며,
상기 제 1 교육 컨텐츠는 상기 학습자의 교과 이해도 및 핵심 역량에 관한 것이고,
상기 제 1 주기가 고등 주기인 경우,
상기 제 1 학습 영역 정보는, 상기 학습자의 창의력, 사고력, 자기관리, 비판적 사고능력 및 커뮤니케이션과 관련된 것이고,
상기 제 1 학습자 정보는, 학습, 성향, 지능, 적성, 진로 및 진학과 관련된 것이며,
상기 제 1 교육 컨텐츠는 상기 학습자의 수항 능력, 적성 및 진로에 관한 것을 특징으로 하는 교육용 서버.
In the big data and artificial intelligence-based educational server that builds a network with the web, external server, and terminal,
The educational server,
Receiving age information of a learner from at least one of the web, an external server, and a terminal;
determining a first period corresponding to the age information among pre-stored learning life periods;
Receiving first learning area information related to the first period from at least one of the web, an external server, and a terminal;
Collecting first learner information related to the learner;
Providing first educational content determined based on the first learning area information and the first learner information to the learner;
Accumulate and collect second learner information of the learner related to the first educational content;
When the first period ends, receiving second learning area information related to a second period of the previously stored learning life period;
Providing second educational content determined based on the second learning area information and the accumulated second learner information to the learner;
The pre-stored learning life cycle includes an infant cycle, an elementary cycle, a middle school cycle, and a high school cycle;
The elementary cycle is divided into a first elementary cycle for a lower grade based on a pre-specified grade and a second elementary cycle for a grade higher than the criteria,
When the first period is an infant period, the first learning area information is related to the creativity and communication of the learner,
The first learner information is related to creativity index,
The first educational content is related to creativity and learning habits of the learner,
When the first cycle is an elementary cycle,
The first learning area information is related to the learner's creativity, thinking ability, self-management and communication,
The first learner information is related to learning, disposition, intelligence, and aptitude,
When the first period is the first elementary period, the first educational content relates to the learner's thinking ability and learning preference,
When the first cycle is the second elementary school cycle, the first educational content relates to the learner's subject understanding and learning propensity,
When the first cycle is a middle cycle,
The first learning area information is related to the learner's creativity, thinking ability, self-management and communication,
The first learner information is related to learning, disposition, intelligence, aptitude and career,
The first educational content relates to the learner's subject understanding and core competencies,
When the first cycle is a higher cycle,
The first learning area information is related to creativity, thinking ability, self-management, critical thinking ability and communication of the learner,
The first learner information is related to learning, inclination, intelligence, aptitude, career, and advancement,
The first educational content is an educational server, characterized in that about the ability, aptitude and career of the learner.
KR1020210121381A 2021-09-13 2021-09-13 Learning management system using big data and artificial intelligence capable of personal care through mentoring KR20230038823A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210121381A KR20230038823A (en) 2021-09-13 2021-09-13 Learning management system using big data and artificial intelligence capable of personal care through mentoring

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210121381A KR20230038823A (en) 2021-09-13 2021-09-13 Learning management system using big data and artificial intelligence capable of personal care through mentoring

Publications (1)

Publication Number Publication Date
KR20230038823A true KR20230038823A (en) 2023-03-21

Family

ID=85801412

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210121381A KR20230038823A (en) 2021-09-13 2021-09-13 Learning management system using big data and artificial intelligence capable of personal care through mentoring

Country Status (1)

Country Link
KR (1) KR20230038823A (en)

Similar Documents

Publication Publication Date Title
US9952433B2 (en) Wearable device and method of outputting content thereof
US9618747B2 (en) Head mounted display for viewing and creating a media file including omnidirectional image data and corresponding audio data
US9223138B2 (en) Pixel opacity for augmented reality
KR102009034B1 (en) Informative Method using Learning Analysis and System
JP6433914B2 (en) Autostereoscopic augmented reality display
CN102479052B (en) Mobile terminal and operation control method thereof
CN106716303B (en) Stablize the movement of interaction ray
EP3714318B1 (en) Position tracking system for head-mounted displays that includes sensor integrated circuits
CN104216118A (en) Head Mounted Display With Remote Control
US11378802B2 (en) Smart eyeglasses
CN103294260A (en) Touch sensitive user interface
CN111131904B (en) Video playing method and head-mounted electronic equipment
WO2014204905A1 (en) Virtual object orientation and visualization
JP2014529098A (en) Wearable device having input / output structure
KR20140116880A (en) Three dimensional display system
CN103324427A (en) Electronic device and method of controlling the same
KR20130038660A (en) Mobile terminal and method for controlling the same
KR102218210B1 (en) Smart glasses capable of processing virtual objects
KR102218207B1 (en) Smart glasses capable of processing virtual objects
KR102269833B1 (en) Smart glasses
JP3225817U (en) Electronic products with 3D display devices
US20230046155A1 (en) Dynamic widget placement within an artificial reality display
US20140118250A1 (en) Pointing position determination
KR20230038823A (en) Learning management system using big data and artificial intelligence capable of personal care through mentoring
KR102191433B1 (en) Smart glasses