KR20220052030A - System for enhancing online learning ability using eye tracking - Google Patents

System for enhancing online learning ability using eye tracking Download PDF

Info

Publication number
KR20220052030A
KR20220052030A KR1020200135886A KR20200135886A KR20220052030A KR 20220052030 A KR20220052030 A KR 20220052030A KR 1020200135886 A KR1020200135886 A KR 1020200135886A KR 20200135886 A KR20200135886 A KR 20200135886A KR 20220052030 A KR20220052030 A KR 20220052030A
Authority
KR
South Korea
Prior art keywords
eye tracking
communication
present
learning ability
user
Prior art date
Application number
KR1020200135886A
Other languages
Korean (ko)
Inventor
김창화
Original Assignee
(주)이루미에듀테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)이루미에듀테크 filed Critical (주)이루미에듀테크
Priority to KR1020200135886A priority Critical patent/KR20220052030A/en
Publication of KR20220052030A publication Critical patent/KR20220052030A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Social Psychology (AREA)
  • Tourism & Hospitality (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Economics (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

A system for improving an online learning ability using a gaze tracking technology comprises: a photographing device that photographs the pupils of a user and an educational material for which the user is looking at; and a gaze tracking part that extracts a location and direction of the pupil of the user for the educational material from an image photographed by the photographing device, and measures the location on the educational material. Therefore, the present invention is capable of diagnosing a learning ability of a student.

Description

시선추적 기술을 활용한 온라인 학습능력 향상 시스템{SYSTEM FOR ENHANCING ONLINE LEARNING ABILITY USING EYE TRACKING}Online learning ability improvement system using eye tracking technology {SYSTEM FOR ENHNCING ONLINE LEARNING ABILITY USING EYE TRACKING}

이하의 실시예들은 시선추적 기술을 활용한 온라인 학습능력 향상 시스템에 관한 것이다.The following embodiments relate to an online learning ability improvement system using eye tracking technology.

최근 사회적으로 보건 안전 문제가 대두됨에 따라 일선 교육 현장에서 비대면 온라인 수업을 통해 정규 교육을 실시하고 있다. 기존 대면 교육으로부터 갑작스러운 전환으로 인하여 교사와 학생들 모두 상당한 혼란을 겪고 있는 실정이다.As health and safety issues have recently emerged in society, regular education is being conducted through non-face-to-face online classes at frontline education sites. Due to the sudden shift from the existing face-to-face education, both teachers and students are experiencing considerable confusion.

온라인 수업 관련 시스템의 구축이 신속하게 진행되어 수업 진행은 가능하게 되었으나, 기존 대면 교육과 같은 교육 효과를 거두고 있지 못하고 있는 상황에서 온라인 수업의 질적 개선 방안에 대한 요구가 늘고 있다.The establishment of the online class-related system has progressed quickly, making it possible to proceed with the class, but in a situation where the educational effect of the existing face-to-face education is not being achieved, there is an increasing demand for measures to improve the quality of online classes.

특히, 비대면으로 수업이 진행됨에 따라 학생이 수업 내용을 이해하고 있는지, 집중을 하여 수강하고 있는지 등 교사와 학생 간 의사소통 및 피드백이 원활하게 이루어지고 있지 않다.In particular, as classes are conducted non-face-to-face, communication and feedback between teachers and students are not being conducted smoothly, such as whether the students understand the content of the class and whether they are taking the class with concentration.

따라서, 비대면 수업 환경에서도 교사와 학생 간에 원활한 의사소통 및 피드백을 통해 교육 효과를 개선할 수 있는 방안이 요구된다.Therefore, there is a need for a method to improve the educational effect through smooth communication and feedback between teachers and students even in a non-face-to-face class environment.

한국 특허 공개 공보 제10-2012-0127790호Korean Patent Publication No. 10-2012-0127790

본 발명은 상술한 바와 같은 문제점을 해결하기 위한 것으로, 사용자의 눈동자와, 사용자가 보고 있는 교육자료를 촬영하는 촬영 장치와, 촬영 장치에 의해 촬영된 이미지에서 교육자료에 대한 사용자의 눈동자 위치 및 방향을 추출하여 교육자료 상의 위치를 측정하는 시선 추적부를 포함하는 시선추적 기술을 활용한 온라인 학습능력 향상 시스템을 제공함에 그 목적이 있다.The present invention is to solve the above-described problems, the user's pupil, a photographing device for photographing the educational material that the user is looking at, and the user's pupil position and direction with respect to the educational material in the image photographed by the photographing device It aims to provide an online learning ability improvement system using eye tracking technology that includes an eye tracking unit that extracts and measures a location on educational materials.

본 발명의 과제는 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 시선추적 기술을 활용한 온라인 학습능력 향상 시스템은 사용자의 눈동자와, 사용자가 보고 있는 교육자료를 촬영하는 촬영 장치와, 촬영 장치에 의해 촬영된 이미지에서 교육자료에 대한 사용자의 눈동자 위치 및 방향을 추출하여 교육자료 상의 위치를 측정하는 시선 추적부를 포함한다.The online learning ability improvement system using the eye tracking technology according to an embodiment of the present invention for solving the above problems is a photographing device for photographing the user's pupils, the educational material that the user is looking at, and It includes a gaze tracking unit for measuring the position on the educational material by extracting the location and direction of the user's pupil with respect to the educational material from the image.

본 발명에 의하면, 시선추적과 교육자료의 분석을 통해, 학생의 학습능력을 실시간으로 체크할 수 있으며, 이를 바탕으로 학생의 학습능력을 진단하거나, 학생에 따라 맞춤형 교육을 제공할 수 있다. According to the present invention, it is possible to check the student's learning ability in real time through eye tracking and analysis of educational data, and based on this, it is possible to diagnose the student's learning ability or provide customized education according to the student.

다만, 본 발명의 효과들은 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 시선추적 기술을 활용한 온라인 학습능력 향상 시스템의 예시적인 기능별 구성도이다.
도 2 내지 도 4는 본 발명의 일 실시예에 따른 시선추적 기술을 활용한 온라인 학습능력 향상 시스템의 예시적인 실시 과정을 도시한다.
도 5는 본 발명의 일 실시예에 따른 시선추적 기술을 활용한 온라인 학습능력 향상 시스템의 개략적인 구성도이다.
1 is an exemplary configuration diagram for each function of an online learning ability improvement system using eye tracking technology according to an embodiment of the present invention.
2 to 4 show an exemplary implementation process of an online learning ability improvement system using an eye tracking technology according to an embodiment of the present invention.
5 is a schematic configuration diagram of an online learning ability improvement system using eye tracking technology according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in a variety of different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention belongs It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims.

본 발명의 실시예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In the embodiments of the present invention, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. have meaning Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in an embodiment of the present invention, an ideal or excessively formal meaning is not interpreted as

본 발명의 실시예를 설명하기 위한 도면에 개시된 형상, 크기, 비율, 각도, 개수 등은 예시적인 것이므로 본 발명이 도시된 사항에 한정되는 것은 아니다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다. 본 명세서 상에서 언급된 '포함한다', '갖는다', '이루어진다' 등이 사용되는 경우 '~만'이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성 요소를 단수로 표현한 경우에 특별히 명시적인 기재 사항이 없는 한 복수를 포함하는 경우를 포함한다.The shapes, sizes, proportions, angles, numbers, etc. disclosed in the drawings for explaining the embodiments of the present invention are illustrative and the present invention is not limited to the illustrated matters. In addition, in describing the present invention, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. When 'including', 'having', 'consisting', etc. mentioned in this specification are used, other parts may be added unless 'only' is used. When a component is expressed in the singular, cases including the plural are included unless otherwise explicitly stated.

구성 요소를 해석함에 있어서, 별도의 명시적 기재가 없더라도 오차 범위를 포함하는 것으로 해석한다.In interpreting the components, it is construed as including an error range even if there is no separate explicit description.

위치 관계에 대한 설명일 경우, 예를 들어, '~상에', '~상부에', '~하부에', '~옆에' 등으로 두 부분의 위치 관계가 설명되는 경우, '바로' 또는 '직접'이 사용되지 않는 이상 두 부분 사이에 하나 이상의 다른 부분이 위치할 수도 있다.In the case of a description of the positional relationship, for example, when the positional relationship of two parts is described as 'on', 'on', 'on', 'beside', etc., 'right' Alternatively, one or more other parts may be positioned between two parts unless 'directly' is used.

소자(elements) 또는 층이 다른 소자 또는 층"위(on)"로 지칭되는 것은 다른 소자 바로 위에 또는 중간에 다른 층 또는 다른 소자를 개재한 경우를 모두 포함한다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Reference to an element or layer “on” another element or layer includes any intervening layer or other element directly on or in the middle of another element. Like reference numerals refer to like elements throughout.

도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 도시된 것이며, 본 발명이 도시된 구성의 크기 및 두께에 반드시 한정되는 것은 아니다.The size and thickness of each component shown in the drawings are illustrated for convenience of description, and the present invention is not necessarily limited to the size and thickness of the illustrated component.

본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.Each feature of the various embodiments of the present invention may be partially or wholly combined or combined with each other, and as those skilled in the art will fully understand, technically various interlocking and driving are possible, and each embodiment may be implemented independently of each other, It may be possible to implement together in a related relationship.

이하, 첨부된 도면을 참고로 하여 본 발명에 따른 시선추적 기술을 활용한 온라인 학습능력 향상 시스템에 대해 설명하기로 한다.Hereinafter, an online learning ability improvement system using the eye tracking technology according to the present invention will be described with reference to the accompanying drawings.

시선추적 기술을 활용한 온라인 학습능력 향상 시스템은 사용자의 눈동자와, 사용자가 보고 있는 교육자료를 촬영하는 촬영 장치와, 촬영 장치에 의해 촬영된 이미지에서 교육자료에 대한 사용자의 눈동자 위치 및 방향을 추출하여 교육자료 상의 위치를 측정하는 시선 추적부를 포함한다.The online learning ability improvement system using eye tracking technology extracts the user's pupil position and direction with respect to the educational material from the user's pupil, a photographing device that captures the educational material that the user is looking at, and the image captured by the photographing device to include an eye tracking unit that measures the position on the educational material.

시선추적 기술을 활용한 온라인 학습능력 향상 시스템은 학생의 시선을 촬영하는 카메라와 같은 시선추적장치와, 교육자료를 제공하는 디스플레이 장치를 포함할 수 있다. 카메라는 단말기의 기본 카메라 또는 별도의 촬영 장치일 수 있다. 시선추적장치는 태블릿, 스마트폰, PC 등의 단말기에 구비된 카메라로도 가능하며, 별도의 측정장치를 추가하여 시선추적의 정확도를 더 높일 수 있다. 별도의 시선추적 장치는 3개의 카메라로 구성될 수 있으며, 중앙의 메인 카메라를 통해 시선을 추적하고, 양측에 보조 카메라를 통해 보정을 수행하여, 시선추적의 정밀성을 높일 수 있다.The online learning ability improvement system using eye tracking technology may include an eye tracking device such as a camera that captures a student's gaze, and a display device that provides educational materials. The camera may be a basic camera of the terminal or a separate photographing device. The eye tracking device can also be used with a camera provided in terminals such as tablets, smartphones, and PCs, and the accuracy of eye tracking can be further increased by adding a separate measurement device. The separate eye tracking device may consist of three cameras, and the gaze tracking precision can be improved by tracking the gaze through the central main camera and performing correction through the auxiliary cameras on both sides.

시선추적 기술을 활용하여 단말기의 카메라 위치, 디스플레이 상의 교육자료 위치, 온라인 수업을 시청하는 학생의 시선 위치 3가지 위치를 측정 및 분석하여 학생의 시선이 교육자료 상의 어느 지점에 얼마동안 머무르는지 시간을 측정하고, 시선의 이동을 벡터 분석하여 데이터를 획득할 수 있다.Using eye tracking technology, we measure and analyze three positions: the camera position of the terminal, the position of the educational material on the display, and the position of the student's gaze watching the online class to determine where and for how long the student's gaze stays on the educational material. Data can be obtained by measuring and vector analysis of the movement of the gaze.

단말기의 카메라 위치는 고정된 상태이고, 미리 준비된 교육자료 상의 텍스트, 이미지 등도 역시 미리 설정된 위치 포인트 값이 존재하므로, 학생의 눈동자를 삼각측법 등을 통해 추적하여 정확하게 측정할 수 있다. 학생의 시선이 특정 포인트에 머무르는 시간, 이동 속도 등을 벡터값으로 하여 실시간 측정할 수 있다.The camera position of the terminal is in a fixed state, and since texts and images on pre-prepared educational materials also have preset position point values, it is possible to accurately measure the pupils' pupils by tracking them through triangulation. Real-time measurements can be made by using vector values such as the time the student's gaze stays at a specific point, and the speed of movement.

교육자료는 이미 문자가 어디에 배치되어 있는지, 어느 부분이 중요한지, 어느 부분이 어려운 부분인지, 어느 부분에서 어느 부분으로 도약해야 하는지 순서, 등 관련 정보가 미리 설정될 수 있다. 교육자료는 전자책일 형태일 수도 있으며, 그림과 문자가 포함된 어린이용 동화책일 수 도 있고, 강사 화면과, 판서 내용 및 강의 자료가 포함된 동영상 형태의 강의일 수도 있고 다양한 형태로 제공될 수 있다.In the educational material, related information, such as where the characters are already placed, which part is important, which part is difficult, which part to jump to which part, etc., can be set in advance. Educational materials may be in the form of e-books, children's children's books with pictures and characters, lectures in the form of videos including lecturer screens, written contents, and lecture materials, or may be provided in various forms. .

시스템은 학생의 시선이 어느 특정 포인트에 오랜 시간 머무르는 경우, 그 해당 포인트를 어려워 한다고 분석할 수 있으며, 또는 학습에 집중하지 않는 것으로 분석할 수도 있다. 학습내용 상 시선의 도약 순서가 정해져 있는데, 학생의 시선이 이와 다르게 이동하는 경우, 학생이 학습내용을 따라오지 못 하는 것으로 분석할 수 있다. 학생의 시선이 특정 포인트를 반복적으로 이동하는 경우, 해당 부분에 대해서 어려워 한다거나 재확인하는 것으로 분석할 수 있다.If the student's gaze stays on a certain point for a long time, the system may analyze that point as difficult, or it may analyze that the student does not focus on learning. In the learning content, the order of the gaze is set, but if the student's gaze moves differently, it can be analyzed that the student cannot follow the learning content. If the student's gaze moves to a specific point repeatedly, it can be analyzed as making it difficult or reconfirming the relevant part.

이처럼, 시선추적과 교육자료의 분석을 통해, 학생의 학습능력을 실시간으로 체크할 수 있으며, 이를 바탕으로 학생의 학습능력을 진단하거나, 학생에 따라 맞춤형 교육을 제공할 수 있다. 예를 들어, 특정 단원에서 학생이 어려워 하는 것으로 분석되는 경우, 이어서 보다 난이도가 쉬운 교육자료를 제시할 수 있으며, 학생이 집중하지 못했던 파트들만 추려서 재교육을 제안할 수도 있다.In this way, through eye tracking and analysis of educational data, a student's learning ability can be checked in real time, and based on this, the student's learning ability can be diagnosed or customized education can be provided according to the student. For example, if it is analyzed that a student has difficulty in a specific unit, educational materials with easier difficulty may be presented next, and re-education may be suggested by selecting only the parts that the student did not focus on.

이를 통해, 빅데이터 기반 인공지능기술로 읽기학습능력 수준을 분석하여 정확도가 높고 정량화 및 객관화된 학습능력 수준 상태 제공 기술 확보할 수 있다. 또한, 독서를 통해 풍부한 어휘력과 표현력 등의 습득과 창의융합시대에 필수 요소인 상상력과 사고의 확장이 가능해지도록 학습(인지) 레벨 제시 및 추천도서 자동 제공이 가능하다.Through this, it is possible to analyze the level of reading learning ability with big data-based artificial intelligence technology to secure high-accuracy, quantified and objective learning ability level status technology. In addition, it is possible to present a learning (cognitive) level and automatically provide recommended books so that reading can acquire rich vocabulary and expressive power, and expand imagination and thinking, which are essential elements in the era of creative convergence.

미세한 움직임으로 측정이 어려운 눈동자를 정확하게 추적하여 독서 상태를 실시간으로 정확하게 파악할 수 있어, 인공지능기반 시선추적기술을 이용하여 자기주도학습 시스템 구축이 가능하며, 3D 얼굴인식용 빅데이터 수집 장치 및 알고리즘을 통해 생체인식의 정확성을 높일 수 있어 시선추적 시스템 적용 시 눈동자의 위치를 읽어 어느 부분을 주시하고 있는지를 판단할 수 있다. 특히, 한 지점에서 시선이 잠시 머무는 ‘고정(Fixation)’과 시선이 급격히 이동하는 ‘도약(Saccade)’, 시선의 경로인 ‘주사경로(Scan path)’, 세부특징 탐지를 위해 시선이 특정지점으로 되돌아오는 ‘재방문(Revisit)’ 4가지 분석요소를 중점으로 시선추적이 가능하다.By accurately tracking pupils that are difficult to measure with fine movements, it is possible to accurately grasp the reading status in real time. Through this, the accuracy of biometric recognition can be increased, so that when the eye tracking system is applied, the position of the pupil can be read to determine which part is being looked at. In particular, 'fixation', where the gaze stays for a while at one point, 'saccade', where the gaze moves rapidly, 'scan path', which is the path of the gaze, Eye tracking is possible focusing on the four analysis elements of 'Revisit'.

시스템은 데스크탑 컴퓨터, 랩탑 컴퓨터 등 개인용 컴퓨터, 스마트폰, PDA(Personal Digital Assistant), PMP(Portable Multimedia Player), 태블릿 PC 등 모바일 기기, 웨어러블 기기, 또는 서버 등 네트워크 접속이 가능한 통신 기기일 수 있으며, 그 종류나 개수에 제한이 없다.The system may be a personal computer such as a desktop computer or a laptop computer, a smart phone, a personal digital assistant (PDA), a portable multimedia player (PMP), a mobile device such as a tablet PC, a wearable device, or a communication device capable of network access such as a server, There is no limit to the type or number of them.

프로세서는 기본적인 산술, 로직 및 압축 패키지 파일에 대한 이미지 최적화 방법 등의 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리 또는 네트워크 인터페이스 또는 버스를 통해 프로세서에 제공될 수 있다. 프로세서는 프로그램 코드를 실행하도록 구성될 수 있다. 프로그램 코드는 메모리 등의 기록 장치에 저장될 수 있다.The processor may be configured to process instructions of a computer program by performing input/output operations such as basic arithmetic, logic, and an image optimization method for a compressed package file. Instructions may be provided to the processor via a memory or network interface or bus. The processor may be configured to execute program code. The program code may be stored in a recording device such as a memory.

프로세서는 본 실시예에 따른 기능을 구현하기 위해 구성될 수 있다. 프로세서는 각각의 기능 구현하는 방법에 따라 일부 컴포넌트가 생략되거나, 도시되지 않은 추가의 컴포넌트가 더 포함되거나, 2개 이상의 컴포넌트가 결합되도록 구성될 수 있다.A processor may be configured to implement a function according to the present embodiment. The processor may be configured such that some components are omitted, additional components not shown are further included, or two or more components are combined according to a method of implementing each function.

메모리는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 메모리에는 OS와, 프로그램 실행코드와, 기타 정보가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드와 같은 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수도 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 네트워크 인터페이스를 통해 메모리에 로딩될 수도 있다.The memory is a computer-readable recording medium and may include a random access memory (RAM), a read only memory (ROM), and a permanent mass storage device such as a disk drive. The memory may store an OS, program execution code, and other information. These software components may be loaded from a separate computer-readable recording medium such as a floppy drive, disk, tape, DVD/CD-ROM drive, or memory card. In another embodiment, the software components may be loaded into the memory through a network interface instead of a computer-readable recording medium.

네트워크 인터페이스는 본 실시예에 따른 기능을 수행하기 위한 각각의 구성을 컴퓨터 네트워크에 연결하기 위한 컴퓨터 하드웨어 구성요소일 수 있다. 네트워크 인터페이스는 무선 연결 또는 유선 연결 방식을 이용하여 컴퓨터 네트워크에 연결시킬 수 있다.The network interface may be a computer hardware component for connecting each component for performing a function according to the present embodiment to a computer network. The network interface may be connected to a computer network using a wireless connection or a wired connection method.

버스는 구성요소 간의 통신 및 데이터 전송을 가능하게 할 수 있다. 버스는 고속 시리얼 버스(high-speed serial bus), 병렬 버스(parallel bus), SAN(Storage Area Network) 및 기타 통신 방식 중 하나 이상을 이용하여 구성될 수 있다.A bus may enable communication and data transfer between components. The bus may be configured using one or more of a high-speed serial bus, a parallel bus, a storage area network (SAN), and other communication methods.

인공지능 학습 모델이 활용될 수 있으며, 컨벌루션 신경망은 특징 추출 신경망과 분류 신경망으로 구성돼있으며 특징 추출 신경망은 입력 신호를 컨벌루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨벌루션 계층은 컨벌루션 연산, 컨벌루션 필터 및 활성함수를 포함하고 있다. 컨벌루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조정되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨벌루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.An artificial intelligence learning model can be utilized, and the convolutional neural network consists of a feature extraction neural network and a classification neural network, and the feature extraction neural network stacks the input signal by sequentially stacking a convolutional layer and a pooling layer. The convolution layer includes a convolution operation, a convolution filter, and an activation function. The calculation of the convolution filter is adjusted according to the matrix size of the target input, but a 9X9 matrix is usually used. The activation function generally uses, but is not limited to, a ReLU function, a sigmoid function, and a tanh function. The pooling layer is a layer that reduces the size of the input matrix, and uses a method of extracting representative values by tying pixels in a specific area. In general, the average value or the maximum value is often used for the calculation of the pooling layer, but is not limited thereto. The operation is performed using a square matrix, which is usually a 9x9 matrix. The convolutional layer and the pooling layer are iterated alternately until the corresponding input becomes small enough while maintaining the difference.

분류 신경망은 은닉층과 출력층을 가지고 있다. 컨벌루션 신경망에서는 일반적으로 은닉층이 3개 이상 존재하며, 각 은닉층의 노드는 100개로 지정하나 경우에 따라 그 이상 또는 이하로 정할 수 있다. 은닉층의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 컨벌루션 신경망의 출력층 노드는 총 100개로 할 수 있다. 분류 신경망의 출력층 활성함수는 소프트맥스 함수를 사용한다. 소프트맥스 함수는 one-hot 인코딩의 대표 함수로서, 모든 출력 노드의 합을 총 1이 되게 하며 가장 최대의 값을 가지는 출력 노드의 출력을 1로 하고, 나머지 출력 노드의 출력을 0으로 하는 함수이다. 소프트맥스 함수를 통해 100개의 출력 중 하나의 출력만을 선택하는 것이 가능하다.A classification neural network has a hidden layer and an output layer. In a convolutional neural network, there are generally three or more hidden layers, and 100 nodes for each hidden layer are specified, but more or less can be specified in some cases. The activation function of the hidden layer uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. A total of 100 output layer nodes of a convolutional neural network can be made. The output layer activation function of the classification neural network uses the softmax function. The softmax function is a representative function of one-hot encoding, which makes the sum of all output nodes total 1, sets the output of the output node having the largest value to 1, and sets the output of the remaining output nodes to 0. . It is possible to select only one output out of 100 outputs through the softmax function.

컨벌루션 신경망의 학습을 위한 학습 신호는 제어 장치 관리자에 의해 수정해야 할 정보를 포함하여 수동으로 생성될 수 있다. 제어 장치 관리자는 학습 신호 생성의 필요에 대한 판단을 바탕으로 수정해야 할 정보를 수동으로 입력할 수 있으며, 이를 통해 학습 신호의 종류에 따라 데이터 베이스 정보의 강화 혹은 약화가 이뤄질 수 있다.A training signal for training a convolutional neural network may be manually generated including information to be modified by a control device manager. The control device manager can manually input the information to be corrected based on the judgment on the need to generate the learning signal, and through this, the database information can be strengthened or weakened according to the type of the learning signal.

학습 신호는 정답과 출력값의 오차를 바탕으로 만들어지며, 경우에 따라 델타를 이용하는 SGD나 배치 방식 혹은 역전파 알고리즘을 따르는 방식을 사용할 수 있다. 본 학습 신호에 의해 컨벌루션 신경망은 기존의 가중치를 수정해 학습을 수행하며, 경우에 따라 모멘텀을 사용할 수 있다. 오차의 계산에는 비용함수가 사용될 수 있는데, 비용함수로 Cross entropy 함수를 사용할 수 있다.The learning signal is created based on the error between the correct answer and the output value, and in some cases, SGD using delta, batch method, or method following the back propagation algorithm can be used. Based on this learning signal, the convolutional neural network performs learning by modifying the existing weights, and in some cases, momentum can be used. A cost function can be used to calculate the error, and a cross entropy function can be used as the cost function.

컨벌루션 신경망은 학습 신호를 바탕으로 데이터 베이스 내의 정보를 수정하기 위한 학습을 할 수 있다. 미리 학습된 컨벌루션 신경망은 3개 이상의 은닉층을 가지고 있으며, 각 은닉층은 50개 이상의 은닉 노드를 가질 수 있다. 각 은닉 노드의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수를 사용할 수 있으나, 이에 국한되지 않는다. 출력 노드의 함수는 one-hot 인코딩 기법을 활용한 소프트맥스 함수를 사용할 수 있다. 출력은 One-hot 인코딩 기법에 따라 하나의 분류만을 선택하며, 선택된 분류로부터 명령을 수행하도록 할 수 있다.A convolutional neural network can learn to modify information in a database based on a learning signal. A pre-trained convolutional neural network has 3 or more hidden layers, and each hidden layer can have 50 or more hidden nodes. The activation function of each hidden node may use a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. The function of the output node can use the softmax function using the one-hot encoding technique. The output selects only one classification according to the one-hot encoding technique, and it is possible to execute a command from the selected classification.

컴퓨팅 장치(9000)는 하나 이상의 프로세서(9100), 메모리(9200), 주변장치 인터페이스(9300), 입/출력 서브시스템(9400), 전력 회로(9500) 및 통신 회로(9600)를 포함할 수 있다. 컴퓨팅 장치(9000)는 구현을 위한 구성의 일부 또는 전체를 포함하거나, 입/출력 서브시스템(9400)에 의하여 구현을 위한 구성의 일부 또는 전체에 연결될 수 있다.Computing device 9000 may include one or more processors 9100 , memory 9200 , peripheral interface 9300 , input/output subsystem 9400 , power circuitry 9500 , and communication circuitry 9600 . . The computing device 9000 may include some or all of the components for implementation, or may be coupled to some or all of the components for implementation by the input/output subsystem 9400 .

메모리(9200)는 일례로 고속 랜덤 액세스 메모리, 자기 디스크, SRAM, DRAM, ROM, 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(9200)는 컴퓨팅 장치(9000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 기타 데이터를 포함할 수 있다. 프로세서(9100)나 주변장치 인터페이스(9300) 등의 컴포넌트에서 메모리(9200)에 접근하는 것은 프로세서(9100)에 의해 제어될 수 있다.The memory 9200 may include, for example, high-speed random access memory, a magnetic disk, SRAM, DRAM, ROM, flash memory, or non-volatile memory. The memory 9200 may include software modules, instruction sets, or other data necessary for the operation of the computing device 9000 . Access to the memory 9200 from components such as the processor 9100 or the peripheral interface 9300 may be controlled by the processor 9100 .

주변장치 인터페이스(9300)는 컴퓨팅 장치(9000)의 입력 주변장치 및 출력 주변장치 중 하나 이상을 프로세서(9100) 및 메모리(9200)에 연결시킬 수 있다. 프로세서(9100)는 메모리(9200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅 장치(9000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.Peripheral interface 9300 may couple one or more of input peripherals and output peripherals of computing device 9000 to processor 9100 and memory 9200 . The processor 9100 may execute a software module or an instruction set stored in the memory 9200 to perform various functions for the computing device 9000 and process data.

입/출력 서브시스템(9400)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(9300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(9400)은 모니터, 키보드, 마우스, 프린터, 터치 스크린, 센서 등의 주변장치를 주변장치 인터페이스(9300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 입/출력 주변장치는 입/출력 서브시스템(9400)을 거치지 않고 주변장치 인터페이스(9300)에 결합될 수도 있다.The input/output subsystem 9400 may couple various input/output peripherals to the peripheral interface 9300 . For example, input/output subsystem 9400 may include a controller for coupling peripherals such as monitors, keyboards, mice, printers, touch screens, sensors, etc. to peripheral interface 9300 . Input/output peripherals may be coupled to peripherals interface 9300 without going through input/output subsystem 9400 .

전력 회로(9500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(9500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.The power circuit 9500 may supply power to all or some of the components of the terminal. For example, power circuit 9500 may include a power management system, one or more power sources, such as batteries or alternating current (AC), charging systems, power failure detection circuits, power converters or inverters, power status indicators or power sources. It may include any other components for creation, management, and distribution.

통신 회로(9600)는 하나 이상의 외부 포트를 이용하여 다른 컴퓨팅 장치와 통신을 가능하게 할 수 있다. 통신 회로(9600)는 RF 회로를 구비하여 RF 신호를 송수신함으로써 다른 컴퓨팅 장치와 통신을 가능하게 할 수도 있다.Communication circuitry 9600 may enable communication with other computing devices using one or more external ports. The communication circuit 9600 may include an RF circuit to transmit and receive RF signals to enable communication with other computing devices.

컴퓨팅 장치(9000)는 일 예시로서, 도시된 일부 컴포넌트가 생략되거나, 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅 장치는 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(9600)에 다양한 통신 방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅 장치(9000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.As an example, the computing device 9000 may have a configuration or arrangement in which some illustrated components are omitted, additional components not illustrated are further included, or two or more components are combined. For example, the computing device for a communication terminal in a mobile environment may further include a touch screen or a sensor, and the communication circuit 9600 includes various communication methods (WiFi, 3G, LTE, Bluetooth, NFC, Zigbee, etc.) Circuitry for RF communication may be included. Components that may be included in the computing device 9000 may be implemented in hardware, software, or a combination of both hardware and software including an integrated circuit specialized for one or more signal processing or applications.

본 발명의 실시예에 따른 방법들은 다양한 컴퓨팅 장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 애플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 이용자 단말에 설치될 수 있다. 일 예로, 파일 배포 시스템은 이용자 단말의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.Methods according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computing devices and recorded in a computer-readable medium. In particular, the program according to the present embodiment may be configured as a PC-based program or an application dedicated to a mobile terminal. The application to which the present invention is applied may be installed in the user terminal through a file provided by the file distribution system. As an example, the file distribution system may include a file transmission unit (not shown) that transmits the file according to a request of the user terminal.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA). , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅 장치 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computing devices, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CDROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CDROMs and DVDs, and magneto-optical disks such as floppy disks. hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

본 발명의 실시예들에 따른 시스템 및 방법에서의 통신 연결은 유선 통신이나 무선 통신과 같은 통신 양태를 가리지 않고 구성될 수 있으며, 근거리 통신망(LAN; Local Area Network), 도시권 통신망(MAN; Metropolitan Area Network), 광역 통신망(WAN; Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 바람직하게는, 본 명세서에서의 통신 연결은 공지의 인터넷 또는 월드와이드웹(WWW; World Wide Web)일 수 있다. 그러나, 통신 연결은, 굳이 이에 국한될 필요 없이, 공지의 유무선 데이터 통신망, 공지의 전화망 또는 공지의 유무선 텔레비전 통신망을 그 적어도 일부에 있어서 포함할 수도 있다. 예를 들면, 통신 연결은 무선 데이터 통신망으로서, 와이파이(WiFi) 통신, 와이파이 다이렉트(WiFi-Direct) 통신, 롱텀 에볼루션(LTE, Long Term Evolution) 통신, 블루투스 통신(더 구체적으로는, 저전력 블루투스(BLE; Bluetooth Low Energy)), 적외선 통신, 초음파 통신 등과 같은 종래의 통신 방법을 적어도 그 일부분에 있어서 구현하는 것일 수 있다. 다른 예를 들면, 통신 연결은 광 통신망으로서, 라이파이(LiFi, Light Fidelity) 등과 같은 종래의 통신 방법을 적어도 그 일부분에 있어서 구현하는 것일 수 있다.Communication connection in the system and method according to the embodiments of the present invention may be configured regardless of communication aspects such as wired communication or wireless communication, and may include a local area network (LAN), a metropolitan area network (MAN) Network) and a wide area network (WAN) may be configured as various communication networks. Preferably, the communication connection in the present specification may be a well-known Internet or World Wide Web (WWW). However, the communication connection is not necessarily limited thereto, and may include a known wired/wireless data communication network, a known telephone network, or a known wired/wireless television communication network in at least a part thereof. For example, the communication connection is a wireless data communication network, such as Wi-Fi communication, WiFi-Direct communication, Long Term Evolution (LTE) communication, and Bluetooth communication (more specifically, low-power Bluetooth (BLE) communication). ; Bluetooth Low Energy)), infrared communication, ultrasonic communication, etc. may be implemented in at least a part of the conventional communication method. For another example, the communication connection may be an optical communication network, which implements at least a part of a conventional communication method such as LiFi (Light Fidelity).

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although embodiments of the present invention have been described in more detail with reference to the accompanying drawings, the present invention is not necessarily limited to these embodiments, and various modifications may be made within the scope without departing from the technical spirit of the present invention. . Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

Claims (1)

사용자의 눈동자와, 사용자가 보고 있는 교육자료를 촬영하는 촬영 장치; 및
상기 촬영 장치에 의해 촬영된 이미지에서 상기 교육자료에 대한 사용자의 눈동자 위치 및 방향을 추출하여 상기 교육자료 상의 위치를 측정하는 시선 추적부를 포함하는 시선추적 기술을 활용한 온라인 학습능력 향상 시스템.
A photographing device for photographing the user's pupils and the educational material the user is viewing; and
An online learning ability improvement system using eye tracking technology, comprising a gaze tracking unit that extracts the location and direction of the user's pupil with respect to the educational material from the image captured by the photographing device and measures the location on the educational material.
KR1020200135886A 2020-10-20 2020-10-20 System for enhancing online learning ability using eye tracking KR20220052030A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200135886A KR20220052030A (en) 2020-10-20 2020-10-20 System for enhancing online learning ability using eye tracking

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200135886A KR20220052030A (en) 2020-10-20 2020-10-20 System for enhancing online learning ability using eye tracking

Publications (1)

Publication Number Publication Date
KR20220052030A true KR20220052030A (en) 2022-04-27

Family

ID=81391112

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200135886A KR20220052030A (en) 2020-10-20 2020-10-20 System for enhancing online learning ability using eye tracking

Country Status (1)

Country Link
KR (1) KR20220052030A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120127790A (en) 2011-05-16 2012-11-26 경북대학교 산학협력단 Eye tracking system and method the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120127790A (en) 2011-05-16 2012-11-26 경북대학교 산학협력단 Eye tracking system and method the same

Similar Documents

Publication Publication Date Title
Hoi et al. Perceived teacher support and students’ acceptance of mobile‐assisted language learning: Evidence from Vietnamese higher education context
CN105912990B (en) The method and device of Face datection
Wang et al. Designing applications for physics learning: Facilitating high school students' conceptual understanding by using tablet pcs
Shih et al. How to manipulate interactive E-book on learning natural catastrophe—An example of structural mechanics using power machine
Ferdous et al. " What's Happening at that Hip?" Evaluating an On-body Projection based Augmented Reality System for Physiotherapy Classroom
CN110555426A (en) Sight line detection method, device, equipment and storage medium
Gajbhiye et al. Ai human pose estimation: Yoga pose detection and correction
Liu et al. An improved method of identifying learner's behaviors based on deep learning
Chuang et al. Improving learning performance with happiness by interactive scenarios
KR20220052031A (en) Eye tracking method and system for analyzing online learning ability
Lee et al. Exploring the learning process and effectiveness of STEM education via learning behavior analysis and the interactive-constructive-active-passive framework
Poonja et al. Engagement detection and enhancement for STEM education through computer vision, augmented reality, and haptics
Corke et al. What can robotics research learn from computer vision research?
KR20220052030A (en) System for enhancing online learning ability using eye tracking
Battista et al. Middle school students’ use of property knowledge and spatial visualization in reasoning about 2D rotations
Tsoukos et al. How Effectively Can Students' Personal Smartphones be Used as Tools in Physics Labs?
Sanjeev et al. Intelligent Proctoring System
Liang et al. The Effectiveness of Augmented Reality in Physical Sustainable Education on Learning Behaviour and Motivation
Lee et al. Combining deep learning and computer vision techniques for automatic analysis of the learning process in STEM education
Buele et al. Augmented reality application with multimedia content to support primary education
Kim et al. Towards Automatic Recognition of Perceived Level of Understanding on Online Lectures using Earables
Sharma et al. Surya Namaskar: real-time advanced yoga pose recognition and correction for smart healthcare
Qianyi et al. Research on multimodal based learning evaluation method in smart classroom
Hayes et al. Avoiding robot faux pas: Using social context to teach robots behavioral propriety
Gupta et al. Bluetooth Camera based Online Examination System with Deep Learning