KR102555922B1 - 영상 수업의 주의 집중 여부를 모니터링 할 수 있는 영상 수업 시스템 및 방법 - Google Patents

영상 수업의 주의 집중 여부를 모니터링 할 수 있는 영상 수업 시스템 및 방법 Download PDF

Info

Publication number
KR102555922B1
KR102555922B1 KR1020200099312A KR20200099312A KR102555922B1 KR 102555922 B1 KR102555922 B1 KR 102555922B1 KR 1020200099312 A KR1020200099312 A KR 1020200099312A KR 20200099312 A KR20200099312 A KR 20200099312A KR 102555922 B1 KR102555922 B1 KR 102555922B1
Authority
KR
South Korea
Prior art keywords
user
learning
users
video
class
Prior art date
Application number
KR1020200099312A
Other languages
English (en)
Other versions
KR20220018782A (ko
Inventor
조일현
Original Assignee
이화여자대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이화여자대학교 산학협력단 filed Critical 이화여자대학교 산학협력단
Priority to KR1020200099312A priority Critical patent/KR102555922B1/ko
Publication of KR20220018782A publication Critical patent/KR20220018782A/ko
Application granted granted Critical
Publication of KR102555922B1 publication Critical patent/KR102555922B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Emergency Management (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

영상 수업의 주의 집중 여부를 모니터링 할 수 있는 영상 수업 시스템 및 방법이 개시된다. 영상 수업의 주의 집중 모니터링 방법은 영상 수업 시스템에 참여한 사용자의 양안 시차를 듀얼 카메라로 측정하는 단계; 상기 양안 시차를 기초로 상기 사용자가 주시하고 있는 디스플레이의 화면 안의 위치를 추정하는 단계; 영상 수업 시스템에서 사용자의 디스플레이에 표시하는 화면을 기초로 상기 사용자가 주시하고 있는 디스플레이의 화면 안의 위치에 대응하는 컨텐츠를 식별하는 단계; 및 식별한 컨텐츠가 학습 관련 정보인지 여부에 따라 사용자의 주의 집중 여부를 모니터링하는 단계를 포함할 수 있다.

Description

영상 수업의 주의 집중 여부를 모니터링 할 수 있는 영상 수업 시스템 및 방법{VIDEO LESSON SYSTEM AND METHOD FOR MONITORING THE ATTENTION OF VIDEO LESSONS}
본 발명은 영상 수업 시스템 및 방법에 관한 것으로, 보다 구체적으로는 강의자와 사용자 간의 영상 수업 중 사용자가 영상 수업에 주의 집중하고 있는지 여부를 모니터링할 수 있는 영상 수업 시스템 및 방법에 관한 것이다.
코로나 사태로 인하여 영상 수업을 이용하는 비대면 교육이 확산되고 있다. 영상 수업 시스템은 사용자들 각각에 대응하는 카메라를 이용하여 사용자들의 얼굴을 촬영하고, 사용자들 각각의 디스플레이에서 사용자와 수업을 진행하는 강의자의 얼굴을 표시함으로써, 강의자와 수업에 참가한 사용자들 간의 상호 작용이 가능한 시스템이다.
그러나, 종래의 영상 수업 시스템은 강의자의 눈과 사용자들의 눈 사이에 카메라와 디스플레이가 개입함에 따라 사용자는 강의자가 누구를 보고 있는지 알 수 없고, 강의자는 사용자가 무엇을 보고 있는지 알 수 없는 실정이다. 즉, 종래의 영상 수업 시스템에서는 사용자가 영상 수업 중에 강의자, 또는 학습 자료가 아니라 다른 영상을 시청하거나, 다른 수업의 과제를 작성하더라도 강의자가 사용자의 행동을 식별할 수 없었다.
따라서, 수업에 참여한 사용자가 수업에 주의 집중을 하고 있는지 여부를 모니터링할 수 있는 방법이 요청되고 있다.
본 발명은 수업에 참여한 사용자들의 양안 시차를 측정하여 사용자들이 각각 주시하는 대상을 식별하고, 사용자들 중 학습 관련 정보를 주시하지 않는 사용자들을 식별하여 다양한 방식으로 피드백을 제공함으로써, 사용자들이 학습 관련 정보를 주시하도록 유도하는 시스템 및 방법을 제공한다.
또한, 본 발명은 수업에 참여한 사용자들의 양안 시차를 측정하여 사용자들이 각각 주시하는 대상을 식별하고, 학습 관련 정보에 사용자들의 시선이 체류하는 시간 및 빈도, 사용자들의 시선이 학습 관련 정보들 간에 이동하는 순서를 분석함으로써, 사용자들 각각의 성적, 수업 만족도 및 학습 정보들 각각에 대한 수업 효과를 강의자에게 제공하는 시스템 및 방법을 제공한다.
본 발명의 일실시예에 따른 영상 수업의 주의 집중 모니터링 방법은 영상 수업 시스템에 참여한 사용자의 양안 시차를 듀얼 카메라로 측정하는 단계; 상기 양안 시차를 기초로 상기 사용자가 주시하고 있는 디스플레이의 화면 안의 위치를 추정하는 단계; 영상 수업 시스템에서 사용자의 디스플레이에 표시하는 화면을 기초로 상기 사용자가 주시하고 있는 디스플레이의 화면 안의 위치에 대응하는 컨텐츠를 식별하는 단계; 및 식별한 컨텐츠가 학습 관련 정보인지 여부에 따라 사용자의 주의 집중 여부를 모니터링하는 단계를 포함할 수 있다.
본 발명의 일실시예에 따른 영상 수업의 주의 집중 모니터링 방법의 학습 관련 정보는, 발표, 또는 발언권을 획득하여 발언하는 다른 사용자의 얼굴, 강의자의 얼굴, 및 학습 자료 중 적어도 하나를 포함할 수 있다.
본 발명의 일실시예에 따른 영상 수업의 주의 집중 모니터링 방법의 학습 관련 정보는, 발표, 또는 발언권을 획득하여 발언하는 다른 사용자, 또는 강의자의 요청에 따라 설정되며, 화면에 표시되는 다른 컨텐츠와 구분되도록 상기 다른 컨텐츠와 테두리, 배경, 효과를 차별화하여 표시될 수 있다.
본 발명의 일실시예에 따른 영상 수업의 주의 집중 모니터링 방법은 모니터링의 결과에 따라 피드백 정보를 생성하는 단계; 및 상기 사용자와 영상 수업 시스템에 참가한 다른 사용자들 및 강의자 중 하나에게 피드백 정보를 제공하는 단계를 더 포함할 수 있다.
본 발명의 일실시예에 따른 영상 수업의 주의 집중 모니터링 방법의 피드백 정보는, 상기 사용자와 상기 다른 사용자들 중에서 상기 학습 관련 정보에 대하여 주의 집중하고 있는 사용자 및 상기 학습 관련 정보에 대하여 주의 집중하지 않고 있는 사용자들의 리스트를 포함할 수 있다.
본 발명의 일실시예에 따른 영상 수업의 주의 집중 모니터링 방법의 피드백 정보를 제공하는 단계는, 상기 강의자의 설정에 따라 영상 수업 시스템에 참가한 모든 사용자, 상기 강의자가 선택한 사용자, 영상 수업 시스템에 참가한 사용자들의 그룹 중 하나에게 상기 피드백 정보를 제공할 수 있다.
본 발명의 일실시예에 따른 영상 수업의 주의 집중 모니터링 방법의 피드백 정보를 생성하는 단계는, 하나의 화면에 표시되는 학습 관련 정보가 복수인 경우, 학습 관련 정보들 각각에 대하여 사용자의 시선이 체류하는 시간 및 빈도, 사용자의 시선이 학습 관련 정보들 간에 이동하는 순서에 따라 사용자, 또는 학습 별로 데이터베이스를 구축할 수 있다.
본 발명의 일실시예에 따른 영상 수업의 주의 집중 모니터링 방법의 피드백 정보를 생성하는 단계는, 상기 데이터베이스를 분석하여 상기 사용자 및 다른 사용자들 각각의 성적, 수업 만족도, 및 다른 정보에 비해 수업 효과가 낮은 학습 정보를 추정하여 강의자용 피드백 정보를 생성할 수 있다.
본 발명의 일실시예에 따른 영상 수업의 주의 집중 모니터링 방법은 모니터링에서 상기 사용자가 상기 학습 관련 정보를 주시하지 않는 것으로 확인된 경우, 상기 사용자가 주의 집중하고 있지 않은 것으로 판단하고, 상기 사용자가 주의 집중하고 있지 않은 시간을 측정하는 단계; 및 측정한 시간이 기 설정된 경고 시간을 초과하는 경우, 상기 사용자에게 경고하는 단계를 더 포함할 수 있다.
본 발명의 일실시예에 따른 영상 수업 시스템은 영상 수업 시스템에 참여한 사용자의 양안 시차를 측정하는 듀얼 카메라; 및 상기 양안 시차를 기초로 상기 사용자가 주시하고 있는 디스플레이의 화면 안의 위치를 추정하고, 영상 수업 시스템에서 사용자의 디스플레이에 표시하는 화면을 기초로 상기 사용자가 주시하고 있는 디스플레이의 화면 안의 위치에 대응하는 컨텐츠를 식별하며, 식별한 컨텐츠가 학습 관련 정보인지 여부에 따라 사용자의 주의 집중 여부를 모니터링하는 수업 관리 서버를 포함할 수 있다.
본 발명의 일실시예에 따른 영상 수업 시스템의 학습 관련 정보는, 발표, 또는 발언권을 획득하여 발언하는 다른 사용자, 또는 강의자의 요청에 따라 설정되며, 화면에 표시되는 다른 컨텐츠와 구분되도록 상기 다른 컨텐츠와 테두리, 배경, 효과를 차별화하여 표시될 수 있다.
본 발명의 일실시예에 따른 영상 수업 시스템의 수업 관리 서버는, 모니터링의 결과에 따라 피드백 정보를 생성하고, 상기 사용자와 영상 수업 시스템에 참가한 다른 사용자들 및 강의자 중 하나에게 피드백 정보를 제공할 수 있다.
본 발명의 일실시예에 따른 영상 수업 시스템의 수업 관리 서버는, 하나의 화면에 표시되는 학습 관련 정보가 복수인 경우, 학습 관련 정보들 각각에 대하여 사용자의 시선이 체류하는 시간 및 빈도, 사용자의 시선이 학습 관련 정보들 간에 이동하는 순서에 따라 사용자, 또는 학습 별로 데이터베이스를 구축하고, 상기 데이터베이스를 분석하여 상기 사용자 및 다른 사용자들 각각의 성적, 수업 만족도, 및 다른 정보에 비해 수업 효과가 낮은 학습 정보를 추정하여 강의자용 피드백 정보를 생성할 수 있다.
본 발명의 일실시예에 따른 영상 수업 시스템의 수업 관리 서버는, 모니터링에서 상기 사용자가 상기 학습 관련 정보를 주시하지 않는 것으로 확인된 경우, 상기 사용자가 주의 집중하고 있지 않은 것으로 판단하고, 상기 사용자가 주의 집중하고 있지 않은 시간을 측정하며, 측정한 시간이 기 설정된 경고 시간을 초과하는 경우, 상기 사용자에게 경고할 수 있다.
본 발명의 일실시예에 의하면, 수업에 참여한 사용자들의 양안 시차를 측정하여 사용자들이 각각 주시하는 대상을 식별하고, 사용자들 중 학습 관련 정보를 주시하지 않는 사용자들을 식별하여 다양한 방식으로 피드백을 제공함으로써, 사용자들이 학습 관련 정보를 주시하도록 유도할 수 있다.
또한, 본 발명의 일실시예에 의하면, 수업에 참여한 사용자들의 양안 시차를 측정하여 사용자들이 각각 주시하는 대상을 식별하고, 학습 관련 정보에 사용자들의 시선이 체류하는 시간 및 빈도, 사용자들의 시선이 학습 관련 정보들 간에 이동하는 순서를 분석함으로써, 사용자들 각각의 성적, 수업 만족도 및 학습 정보들 각각에 대한 수업 효과를 강의자에게 제공할 수 있다.
그리고, 본 발명의 일실시예에 따르면, 사용자들 중 학습 관련 정보를 주시하지 않는 사용자들을 강의자가 지정한 동료 사용자들에게 피드백 함으로써, 동료 압박 (peer pressure)을 가할 수 있다.
도 1은 본 발명의 일실시예에 따른 영상 수업 시스템을 도시한 도면이다.
도 2는 본 발명의 일실시예에 따른 영상 수업 시스템의 동작을 도시한 도면이다.
도 3은 본 발명의 일실시예에 따른 영상 수업 시스템의 디스플레이가 표시하는 화면의 일례이다.
도 4는 본 발명의 일실시예에 따른 수업 관리 서버가 제공하는 학습자 개인별 분석 정보의 일례이다.
도 5는 본 발명의 일실시예에 따른 수업 관리 서버가 제공하는 수업 단계별 몰입도 및 성적 예측 분석 정보의 일례이다.
도 6은 본 발명의 일실시예에 따른 영상 수업의 주의 집중 모니터링 방법을 도시한 플로우차트이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 일실시예에 따른 영상 수업 시스템을 도시한 도면이다.
영상 수업 시스템은 수업하는 강의자(112)에 대응하는 카메라(111)와 디스플레이(110), 영상 수업에 참여한 사용자들 각각에 대응하는 카메라 및 디스플레이(120)들과 수업 관리 서버(100)로 구성될 수 있다. 예를 들어, 강의자(112)는 교수, 강사, 선생님과 같이 영상 수업에서 수업을 진행하는 사람일 수 있다. 또한, 사용자들은 영상 수업에 참여하여 수업을 받는 학생일 수 있다.
수업 관리 서버(100)는 프로세서 및 통신기로 구성될 수 있다. 이때, 통신기는 강의자(112)의 단말 및 사용자들 각각의 단말과 통신할 수 있다. 예를 들어, 단말은 컴퓨터, 또는 복수의 디스플레이에 화면을 출력하는 서버일 수 있다. 그리고, 단말은 강의자, 또는 사용자들 각각으로부터 명령, 또는 수업 관련 정보를 입력받기 위한 입력 인터페이스, 및 강의자, 또는 사용자에게 피드백을 제공하기 위한 출력 인터페이스를 포함할 수 있다. 이때, 출력 인터페이스는 디스플레이(110), 디스플레이(121), 및 디스플레이(124)와 단말 각각과 연결되거나, 단말 각각에 내장된 스피커 중 적어도 하나를 포함할 수 있다. 또한, 입력 인터페이스는 단말 각각에 연결된 마우스, 및 키보드일 수 있다. 예를 들어, 단말이 컴퓨터인 경우, 단말은 스피커, 마우스, 카메라, 키보드, 및 디스플레이와 연결될 수 있다.
또한, 단말은 학습 관련 정보가 포함된 컨텐츠를 출력하기 위한 디스플레이(110), 디스플레이(121), 디스플레이(124) 및 프로세서를 포함하는 스마트 장치일 수도 있다. 이때, 스마트 폰이나 태블릿 PC와 같은 스마트 장치는 카메라(111)와 디스플레이(110) 및 스피커를 포함할 수 있다. 또한, 디스플레이(110), 디스플레이(121), 및 디스플레이(124)가 터치를 통하여 사용자의 요청을 입력받을 수 있는 터치 디스플레이일 수 있다.
수업 관리 서버(100)는 강의자(112), 또는 사용자들 중 발표자로부터 수신한 학습 자료, 및 카메라(111,122,125)들이 각각 촬영하고 있는 강의자(112), 사용자들의 얼굴이 포함된 화면을 디스플레이(110, 121,124)들에 전송하여 디스플레이(110, 121,124)들이 각각 해당 화면을 표시하도록 할 수 있다.
이때, 카메라(111)는 강의자(112)의 양안 시차를 측정할 수 있다. 그리고, 수업 관리 서버(100)는 카메라(111)가 측정한 강의자(112)의 양안 시차를 기초로 디스플레이(110)에서 강의자(120)가 주시하고 있는 위치를 추정할 수 있다. 다음으로, 수업 관리 서버(100)는 디스플레이(110)에 표시하는 화면을 기초로 강의자(112)가 화면 상에 어떤 컨텐츠를 주시하고 있는지를 식별할 수 있다. 그리고, 강의자(112)가 사용자들 중 하나를 주시하고 있는 경우, 수업 관리 서버(100)는 강의자(112)가 주시하고 있는 사용자의 디스플레이에 강의자(112)가 주시하고 있다는 정보를 표시할 수 있다. 이때, 수업 관리 서버(100)는 강의자(112)가 미리 설정한 정보, 또는 수동 입력에 따라 강의자(112)가 주시하고 있는 사용자에게 수업에 집중하라는 경고 메시지, 또는 발표를 시작하라는 메시지를 제공할 수도 있다. 즉, 수업 관리 서버(100)는 강의자(112)의 시선에 따라 주의 집중하지 않는 사용자에 대한 경고, 또는 수업 진행을 위한 발표자에게 발표할 시간이 되었다는 것을 알림을 제공할 수도 있다.
카메라 및 디스플레이(120)는 사용자(123)에 대응하는 카메라(122), 및 디스플레이(121), 사용자(126)에 대응하는 카메라(125), 및 디스플레이(124)를 포함하며, 영상 수업에 참여하는 사용자들의 숫자에 따라 사용자들 각각에 대응하는 카메라 및 디스플레이(120)의 개수도 증가할 수 있다.
카메라(121)는 사용자(123)의 양안 시차를 측정할 수 있다. 그리고, 수업 관리 서버(100)는 카메라(122)가 측정한 사용자(123)의 양안 시차를 기초로 디스플레이(121)에서 사용자(123)가 주시하고 있는 위치를 추정할 수 있다. 다음으로, 수업 관리 서버(100)는 디스플레이(121)에 표시하는 화면을 기초로 사용자(123)가 화면 상에 어떤 컨텐츠를 주시하고 있는지를 식별할 수 있다. 수업 관리 서버(100)는 사용자(123)가 주시하는 컨텐츠가 학습 관련 정보인지 여부에 따라 사용자(123)의 주의 집중 여부를 모니터링하고, 모니터링 결과를 강의자(112), 사용자(123), 또는 다른 사용자(126) 중 적어도 하나에게 피드백할 수 있다.
이때, 수업 관리 서버(100)의 요청에 따라 강의자(112), 사용자(123) 또는 다른 사용자(126)에게 피드백하는 방법은 디스플레이(110), 디스플레이(125)에 표시하는 시각 정보 이외에 진동을 이용한 키네틱 정보와 소리를 이용한 청각 정보를 포함할 수 있다. 이때, 키네틱 정보는 수업 관리 서버(100)의 요청에 따라 마우스, 키보드, 및 단말의 본체의 진동 기능의 온오프(on/off), 진동 기능의 회수 등을 제어하는 정보이고, 청각 정보는 스피커를 통하여 출력할 메시지를 포함하는 정보일 수 있다.
예를 들어, 사용자(120)가 주의 집중하지 않은 것으로 판단한 경우, 수업 관리 서버(100)는 사용자(123)의 단말로 키네틱 정보, 또는 청각 정보를 전송할 수 있다. 그리고, 사용자(123)의 단말은 키네틱 정보에 따라 마우스, 키보드, 및 단말의 본체 중 적어도 하나를 진동 시킴으로써, 사용자(123)에게 주의 집중이 필요하다고 경고할 수 있다. 또한, 사용자(123)의 단말은 스피커를 통하여 청각 정보에 대응하는 메시지를 출력할 수도 있다. 이때, 출력하는 메시지는 사용자(123)에게 주의 집중이 필요하다고 경고하는 메시지일 수 있다.
또한, 카메라(125)는 사용자(126)의 양안 시차를 측정할 수 있다. 그리고, 수업 관리 서버(100)는 카메라(125)가 측정한 사용자(126)의 양안 시차를 기초로 디스플레이(125)에서 사용자(126)가 주시하고 있는 위치를 추정할 수 있다. 다음으로, 수업 관리 서버(100)는 디스플레이(124)에 표시하는 화면을 기초로 사용자(126)가 화면 상에 어떤 컨텐츠를 주시하고 있는지를 식별할 수 있다. 수업 관리 서버(100)는 사용자(126)가 주시하는 컨텐츠가 학습 관련 정보인지 여부에 따라 사용자(126)의 주의 집중 여부를 모니터링하고, 모니터링 결과를 강의자(112), 또는 다른 사용자(123)에게 피드백할 수 있다.
본 발명의 일실시예에 따른 영상 수업 시스템은 수업에 참여한 사용자들의 양안 시차를 측정하여 사용자들이 각각 주시하는 대상을 식별하고, 사용자들 중 학습 관련 정보를 주시하지 않는 사용자들을 식별하여 피드백을 제공함으로써, 사용자들이 학습 관련 정보를 주시하도록 유도할 수 있다.
본 발명의 일실시예에 따른 영상 수업 시스템은 수업에 참여한 사용자들의 양안 시차를 측정하여 사용자들이 각각 주시하는 대상을 식별하고, 학습 관련 정보에 사용자들의 시선이 체류하는 시간 및 빈도, 사용자들의 시선이 학습 관련 정보들 간에 이동하는 순서를 분석함으로써, 사용자들 각각의 성적, 수업 만족도 및 학습 정보들 각각에 대한 수업 효과를 강의자에게 제공할 수 있다.
도 2는 본 발명의 일실시예에 따른 영상 수업 시스템의 동작을 도시한 도면이다.
카메라(122)는 영상 수업 시스템에 참여한 사용자(123)의 양안 시차를 측정하여 수업 관리 서버(100)에 전송할 수 있다. 이때, 카메라(122)는 도 2에 도시된 바와 같이 듀얼 카메라일 수 있다.
수업 관리 서버(100)는 수신한 양안 시차를 기초로 사용자(123)가 주시하고 있는 디스플레이의 화면 안의 위치를 추정할 수 있다. 이때, 디스플레이의 화면에는 사용자(123)의 얼굴(210), 영상 수업 시스템에 참여한 다른 사용자(126)의 얼굴(230) 및 학습 자료(220)가 표시될 수 있다. 예를 들어, 학습 자료(220)는 논문이나 발표용 ppt와 같이 수업을 위하여 사용자들에게 정보를 제공하기 위한 파일, 또는 이미지일 수 있다.
다음으로, 수업 관리 서버(100)는 사용자(123)의 디스플레이에 표시하는 화면을 기초로 사용자(123)가 주시하고 있는 디스플레이의 화면 안의 위치에 대응하는 컨텐츠를 식별할 수 있다. 구체적으로, 수업 관리 서버(100)는 사용자(123)가 주시하는 위치가 사용자(123)의 얼굴(210), 다른 사용자(126)의 얼굴(230) 및 학습 자료(220) 중 어느 것인지, 또는 사용자(123)가 디스플레이의 화면을 주시하지 않는 상태인지 여부를 확인할 수 있다.
그 다음으로, 수업 관리 서버(100)는 식별한 컨텐츠가 학습 관련 정보인지 여부에 따라 사용자의 주의 집중 여부를 모니터링할 수 있다. 예를 들어, 학습 관련 정보는, 발표, 또는 발언권을 획득하여 발언하는 다른 사용자의 얼굴, 강의자의 얼굴, 및 학습 자료 중 적어도 하나를 포함할 수 있다. 또한, 수업 관리 서버(100)는 발표, 또는 발언권을 획득하여 발언하는 다른 사용자, 또는 강의자의 요청에 따라 학습 관련 정보를 설정할 수 있다. 그리고, 수업 관리 서버(110)는 학습 관련 정보가 화면에 표시되는 다른 컨텐츠와 구분되도록 다른 컨텐츠와 테두리, 배경, 효과를 차별화하여 표시할 수 있다.
예를 들어, 사용자(123)가 학습 자료(220)를 주시하는 경우, 수업 관리 서버(100)는 사용자(123)가 학습 관련 정보에 대하여 주의 집중하고 있는 것으로 판단할 수 있다. 또한, 사용자(123)가 디스플레이의 화면에서 학습 자료(220)가 아닌 다른 위치를 주시하고 있거나, 사용자(123)가 디스플레이의 화면을 주시하지 않는 상태인 경우, 수업 관리 서버(100)는 사용자(123)가 학습 관련 정보에 대하여 주의 집중하고 있는 것으로 판단할 수 있다. 그리고, 다른 사용자(126)가 발표를 진행하고 있고, 사용자(123)가 학습 자료(220), 또는 다른 사용자(126) 중 하나를 주시하는 경우, 수업 관리 서버(100)는 사용자(123)가 학습 관련 정보에 대하여 주의 집중하고 있는 것으로 판단할 수도 있다.
다음으로, 수업 관리 서버(100)는 모니터링의 결과에 따라 피드백 정보를 생성할 수 있다. 예를 들어, 피드백 정보는 사용자(123)와 다른 사용자(126) 중에서 학습 관련 정보에 대하여 주의 집중하고 있는 사용자 및 학습 관련 정보에 대하여 주의 집중하지 않고 있는 사용자들의 리스트를 포함할 수 있다.
또한, 수업 관리 서버(100)는 하나의 화면에 표시되는 학습 관련 정보가 복수인 경우, 학습 관련 정보들 각각에 대하여 사용자(123)의 시선이 체류하는 시간 및 빈도, 사용자(123)의 시선이 학습 관련 정보들 간에 이동하는 순서에 따라 사용자, 또는 학습 별로 데이터베이스를 구축할 수 있다.
이때, 수업 관리 서버(100)는 피드백의 분석 단위 (unit of analysis)에서 사용자 피드백 정보와 강의자 피드백 정보를 생성할 수 있다. 이때, 사용자 피드백 정보는 영상 수업 시스템에 참여한 사용자들 중에서 사용자(123)의 상대적 위치(수준)을 나타내는 정보일 수 있다. 예를 들어, 수업 관리 서버(100)는 영상 수업 시스템에 참여한 사용자들 각각의 주의 집중도를 측정하고, 주의 집중도가 높은 순서로 사용자들을 정렬할 수 있다. 그리고, 수업 관리 서버(100)는 사용자(123)가 정렬된 순서에서 몇 번째인지를 나타내는 정보가 포함된 사용자 피드백 정보를 생성할 수 있다. 이때, 수업 관리 서버(100)는 영상 수업 시스템에 참여한 사용자들 각각이 학습 관련 정보를 주시한 시간이 길수록 주의 집중도가 높은 것으로 측정할 수 있다.
또한, 수업 관리 서버(100)는 사용자(123)가 현재 학습 중인 클래스, 또는 이전 학기 클래스에 포함된 사용자들의 시각 행동 분포에 따라 사용자(123)에게 제공할 사용자 피드백 정보를 결정할 수 있다. 구체적으로, 수업 관리 서버(100)는 구축한 데이터베이스를 분석하여 사용자(123) 및 다른 사용자들 각각의 성적, 수업 만족도, 및 다른 정보에 비해 수업 효과가 낮은 학습 정보를 추정하여 강의자용 피드백 정보를 생성할 수 있다.
또한, 수업 관리 서버(100)는 사용자(123)의 시선의 움직임을 다른 사용자들의 시선의 움직임과 시계열적으로 비교하여 사용자(123)용 피드백 정보를 생성할 수 있다. 예를 들어, 사용자(123)용 피드백 정보는 사용자(123)보다 성정이 높은 다른 사용자의 시선의 움직임과 사용자(123)의 시선의 움직임 간의 차이를 표시함으로써, 사용자(123)가 성적을 높이기 위하여 집중적으로 주시해야 하는 대상을 인식할 수 있도록 보조할 수 있다.
또한, 강의자 피드백 정보는 강의자들 각각이 강의하는 클래스들 중에서 강의자(112)가 강의하는 클래스의 상대적 위치(수준)을 나타내는 정보일 수 있다. 이때, 수업 관리 서버(100)는 이전 학기의 클래스들 각각에 포함된 사용자들의 시각 행동 분포 또는 그 평균의 목표 수준에 따라 강의자 피드백 정보를 결정할 수 있다.
마지막으로 수업 관리 서버(100)는 사용자(123)와 사용자(126) 및 강의자(112) 중 하나에게 피드백 정보를 제공할 수 있다. 이때, 수업 관리 서버(100)는 강의자(112)의 설정에 따라 영상 수업 시스템에 참가한 모든 사용자, 강의자(112)가 선택한 사용자, 영상 수업 시스템에 참가한 사용자들의 그룹 중 하나에게 피드백 정보를 제공할 수 있다.
예를 들어, 강의자(112)가 강의하는 경우, 수업 관리 서버(100)는 강의자(112)의 얼굴, 또는 학습 자료를 학습 관련 정보로 설정하여 사용자(123) 및 영상 수업 시스템에 참여한 다른 사용자들의 주의 집중 여부를 모니터링할 수 있다. 그리고, 수업 관리 서버(100)는 사용자(123) 및 영상 수업 시스템에 참여한 다른 사용자들을 학습 관련 정보를 주시하는 사용자, 또는 학습 관련 정보를 주시하지 않는 사용자로 분류하여 강의자(112)에게 피드백할 수 있다.
또한, 사용자(126)가 발표하는 경우, 수업 관리 서버(100)는 사용자(126)의 얼굴, 또는 학습 자료를 학습 관련 정보로 설정하여 사용자(123) 및 영상 수업 시스템에 참여한 다른 사용자들의 주의 집중 여부를 모니터링할 수 있다. 그리고, 수업 관리 서버(100)는 사용자(123) 및 영상 수업 시스템에 참여한 다른 사용자들을 각각 학습 관련 정보를 주시하는 사용자, 또는 학습 관련 정보를 주시하지 않는 사용자로 분류하여 강의자(112)와 사용자(123) 및 영상 수업 시스템에 참여한 다른 사용자들 모두에게 피드백할 수 있다.
그리고, 영상 수업 시스템에 참여한 사용자들을 적어도 하나의 팀으로 그룹화하고, 팀들 간의 토론을 진행하는 경우, 수업 관리 서버(100)는 팀에 포함된 사용자들 중 발언하고 있는 사용자의 얼굴, 또는 학습 자료를 학습 관련 정보로 설정하여 팀에 포함된 다른 사용자들의 주의 집중 여부를 모니터링할 수 있다. 이때, 학습 관련 자료는 강의자(112)가 생성하여 팀에 할당한 학습 자료일 수도 있고, 발언하고 있는 사용자가 제시한 자료일 수도 있다.
그리고, 수업 관리 서버(100)는 팀에 포함된 사용자들을 학습 관련 정보를 주시하는 사용자, 또는 학습 관련 정보를 주시하지 않는 사용자로 분류하여 강의자(112) 및 팀에 포함된 사용자들 모두에게 피드백할 수 있다.
즉, 수업 관리 서버(100)는 사용자들 중 학습 관련 정보를 주시하지 않는 사용자들을 강의자가 지정한 동료 사용자들에게 피드백 함으로써, 동료 압박 (peer pressure)을 가할 수 있다.
또한, 사용자(123)는 화장실 이용, 주위 환경 변화와 같은 수강 상황의 변화에 따라 자신의 시각 정보 제공 여부를 변경할 수도 있다. 예를 들어, 사용자(123)는 화장실 이용하고자 하는 경우, 단말을 통하여 수업 관리 서버(100)에 화장실 이용하기 위하여 자리를 비운다는 신호를 전송할 수 있다. 이때, 수업 관리 서버(100)는 사용자(123)가 입력한 시간, 또는 화장실 이용에 대응하여 기 설정된 시간(10분) 동안 카메라(122)가 촬영하는 영상을 강의자(112), 또는 다른 사용자(126)의 화면에 표시되지 않도록 할 수 있다.
도 3은 본 발명의 일실시예에 따른 영상 수업 시스템의 디스플레이가 표시하는 화면의 일례이다.
디스플레이(120)는 도 3에 도시된 바와 같이 강의자(112)의 얼굴(310), 사용자(301)의 얼굴, 영상 수업 시스템에 참여한 다른 사용자의 얼굴 및 학습 자료(320, 330)를 표시할 수 있다. 이때, 학습 자료는 사용자들에게 제공할 정보가 포함된 파일(320)일 수도 있고, 사용자들에게 제공할 정보가 포함된 이미지(330)일 수 있다.
그리고, 수업 관리 서버(100)는 도 3에 도시된 바와 같이 강의자(112)의 얼굴(310), 및 학습 자료(320, 330)와 같은 학습 관련 정보(300)가 화면에 표시되는 다른 컨텐츠와 구분되도록 다른 컨텐츠와 테두리, 배경, 효과를 차별화하여 표시할 수 있다. 또한, 수업 관리 서버(100)는 학습 관련 정보(300)를 다른 컨텐츠보다 확대하여 표시할 수도 있다. 도 3에서는 강의자의 얼굴(310)을 다른 사용자의 얼굴보다 약간 확대하여 표시하였으나, 실시예에 따라 수업 관리 서버(100)는 다른 컨텐츠들은 최소한의 크기로 표시하고, 학습 관련 정보(300)들을 최대한 확대하여 표시할 수도 있다. 그리고, 수업 관리 서버(100)는 화면에 표시되는 컨텐츠들 중에서 사용자가 일정 시간 이상 주시하고 있는 컨텐츠를 다른 컨텐츠보다 확대하여 표시함으로써, 사용자가 주시하고 있는 컨텐츠를 보다 용이하게 시인하도록 할 수도 있다.
또한, 주의 집중 모니터링에서 사용자(301)가 학습 관련 정보(300)를 주시하지 않는 것으로 확인된 경우, 수업 관리 서버(100)는 사용자(301)가 주의 집중하고 있지 않은 것으로 판단할 수 있다. 그리고, 수업 관리 서버(100)는 사용자(301)가 주의 집중하고 있지 않은 시간을 측정할 수 있다. 그리고, 측정한 시간이 기 설정된 경고 시간을 초과하는 경우, 수업 관리 서버(100)는 경고등(302)나 스피커를 이용한 알람을 이용하여 사용자(301)에게 주의 집중이 필요하다고 경고할 수 있다. 이때, 경고 시간은 강의자(112)에 의하여 설정된 시간일 수 있다.
또한, 측정한 시간이 기 설정된 경고 시간을 초과하는 경우, 수업 관리 서버(100)는 사용자(123)의 단말로 키네틱 정보, 또는 청각 정보를 전송할 수 있다. 그리고, 사용자(123)의 단말은 키네틱 정보에 따라 마우스, 키보드, 및 단말의 본체 중 적어도 하나를 진동 시킴으로써, 사용자(123)에게 주의 집중이 필요하다고 경고할 수도 있다.
도 4는 본 발명의 일실시예에 따른 수업 관리 서버가 제공하는 학습자 개인별 분석 정보의 일례이다.
수업 관리 서버(100)는 영상 수업 시스템에 참여한 사용자들 각각의 시선이 체류하는 시간 및 빈도, 사용자의 시선이 학습 관련 정보들 간에 이동하는 순서에 따라 사용자별로 도 4에 도시된 바와 같은 데이터베이스를 구축할 수 있다.
그리고, 수업 관리 서버(100)는 구축한 데이터베이스를 분석하여 사용자들 각각의 학습 행동 및 성적을 예측할 수 있다.
도 5는 본 발명의 일실시예에 따른 수업 관리 서버가 제공하는 수업 단계별 몰입도 및 성적 예측 분석 정보의 일례이다.
수업 관리 서버(100)는 도 5에 도시된 바와 같이 분석 결과를 개인별, 수업 자료별로 시각화 시켜주는 대시보드 화면을 강의자(112)에게 제공할 수도 있다.
도 6은 본 발명의 일실시예에 따른 영상 수업의 주의 집중 모니터링 방법을 도시한 플로우차트이다.
단계(610)에서 영상 수업 시스템에 참여한 사용자들에 대응하는 듀얼 카메라들은 사용자들 각각의 양안 시차를 측정하여 수업 관리 서버(100)로 전송할 수 있다.
단계(620)에서 수업 관리 서버(100)는 단계(610)에서 수신한 양안 시차를 기초로 사용자가 주시하고 있는 디스플레이의 화면 안의 위치를 추정할 수 있다.
단계(630)에서 수업 관리 서버(100)는 영상 수업 시스템에서 사용자의 디스플레이에 표시하는 화면을 기초로 사용자가 주시하고 있는 디스플레이의 화면 안의 위치에 대응하는 컨텐츠를 식별할 수 있다.
단계(640)에서 수업 관리 서버(100)는 단계(630)에서 식별한 컨텐츠가 학습 관련 정보인지 여부에 따라 사용자의 주의 집중 여부를 모니터링할 수 있다.
단계(650)에서 수업 관리 서버(100)는 단계(640)의 모니터링 결과를 기초로 사용자가 주의 집중하고 있는지 여부를 확인할 수 있다. 구체적으로, 모니터링에서 사용자가 학습 관련 정보를 주시하지 않는 것으로 확인된 경우, 수업 관리 서버(100)는 사용자가 주의 집중하고 있지 않은 것으로 판단할 수 있다. 사용자가 주의 집중하고 있는 것으로 판단한 경우, 수업 관리 서버(100)는 단계(680)를 수행할 수 있다. 또한, 사용자가 주의 집중하고 있지 않은 것으로 판단한 경우, 수업 관리 서버(100)는 단계(660)를 수행할 수 있다. 이때, 수업 관리 서버(100)는 단계(660)와 단계(680)를 병렬로 수행할 수도 있다. 구체적으로, 수업 관리 서버(100)는 단계(660) 내지 단계(675)를 수행하는 동안 단계(680)도 병렬 수행하여 주의 집중하지 않는 사용자에 대한 피드백 정보를 생성할 수 있다.
단계(660)에서 수업 관리 서버(100)는 사용자가 주의 집중하고 있지 않은 시간을 측정할 수 있다. 구체적으로, 수업 관리 서버(100)는 사용자의 시선이 학습 관련 정보에서 이탈한 시점부터 사용자의 시선이 학습 관련 정보로 복귀한 시점 사이의 시간을 측정할 수 있다.
단계(670)에서 수업 관리 서버(100)는 단계(660)에서 측정한 시간이 기 설정된 경고 시간을 초과하는지 여부를 확인할 수 있다. 이때, 경고 시간은 강의자(112)에 의하여 설정된 시간일 수 있다. 단계(660)에서 측정한 시간이 기 설정된 경고 시간을 초과하지 않은 경우, 수업 관리 서버(100)는 단계(650)를 수행할 수 있다. 반면, 단계(660)에서 측정한 시간이 기 설정된 경고 시간을 초과하는 경우, 수업 관리 서버(100)는 단계(675)를 수행할 수 있다.
단계(675)에서 수업 관리 서버(100)는 경고등이나 스피커, 마우스, 키보드를 이용한 알람을 이용하여 사용자에게 주의 집중이 필요하다고 경고할 수 있다.
단계(680)에서 수업 관리 서버(100)는 단계(640)의 모니터링의 결과에 따라 피드백 정보를 생성할 수 있다.
이때, 하나의 화면에 표시되는 학습 관련 정보가 복수인 경우, 수업 관리 서버(100)는 학습 관련 정보들 각각에 대하여 사용자의 시선이 체류하는 시간 및 빈도, 사용자의 시선이 학습 관련 정보들 간에 이동하는 순서에 따라 사용자, 또는 학습 별로 데이터베이스를 구축할 수 있다. 그리고, 수업 관리 서버(100)는 구축한 데이터베이스를 분석하여 사용자 및 다른 사용자들 각각의 성적, 수업 만족도, 및 다른 정보에 비해 수업 효과가 낮은 학습 정보를 추정하여 강의자용 피드백 정보를 생성할 수 있다.
단계(690)에서 수업 관리 서버(100)는 사용자와 영상 수업 시스템에 참가한 다른 사용자들 및 강의자 중 하나에게 단계(680)에서 생성한 피드백 정보를 제공할 수 있다.
본 발명은 수업에 참여한 사용자들의 양안 시차를 측정하여 사용자들이 각각 주시하는 대상을 식별하고, 사용자들 중 학습 관련 정보를 주시하지 않는 사용자들을 식별하여 피드백을 제공함으로써, 사용자들이 학습 관련 정보를 주시하도록 유도할 수 있다. 이때, 본 발명은 사용자들 중 학습 관련 정보를 주시하지 않는 사용자들을 강의자가 지정한 동료 사용자들에게 피드백 함으로써, 동료 압박 (peer pressure)을 가할 수 있다.
본 발명은 수업에 참여한 사용자들의 양안 시차를 측정하여 사용자들이 각각 주시하는 대상을 식별하고, 학습 관련 정보에 사용자들의 시선이 체류하는 시간 및 빈도, 사용자들의 시선이 학습 관련 정보들 간에 이동하는 순서를 분석함으로써, 사용자들 각각의 성적, 수업 만족도 및 학습 정보들 각각에 대한 수업 효과를 강의자에게 제공할 수 있다.
한편, 본 발명에 따른 영상 수업 시스템 또는 영상 수업의 주의 집중 모니터링 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성되어 마그네틱 저장매체, 광학적 판독매체, 디지털 저장매체 등 다양한 기록 매체로도 구현될 수 있다.
본 명세서에 설명된 각종 기술들의 구현들은 디지털 전자 회로조직으로, 또는 컴퓨터 하드웨어, 펌웨어, 소프트웨어로, 또는 그들의 조합들로 구현될 수 있다. 구현들은 데이터 처리 장치, 예를 들어 프로그램가능 프로세서, 컴퓨터, 또는 다수의 컴퓨터들의 동작에 의한 처리를 위해, 또는 이 동작을 제어하기 위해, 컴퓨터 프로그램 제품, 예를 들어 기계 판독가능 저장 장치(컴퓨터 판독가능 매체)에서 유형적으로 구체화된 컴퓨터 프로그램으로서 구현될 수 있다. 상술한 컴퓨터 프로그램(들)과 같은 컴퓨터 프로그램은 컴파일된 또는 인터프리트된 언어들을 포함하는 임의의 형태의 프로그래밍 언어로 기록될 수 있고, 독립형 프로그램으로서 또는 모듈, 구성요소, 서브루틴, 또는 컴퓨팅 환경에서의 사용에 적절한 다른 유닛으로서 포함하는 임의의 형태로 전개될 수 있다. 컴퓨터 프로그램은 하나의 사이트에서 하나의 컴퓨터 또는 다수의 컴퓨터들 상에서 처리되도록 또는 다수의 사이트들에 걸쳐 분배되고 통신 네트워크에 의해 상호 연결되도록 전개될 수 있다.
컴퓨터 프로그램의 처리에 적절한 프로세서들은 예로서, 범용 및 특수 목적 마이크로프로세서들 둘 다, 및 임의의 종류의 디지털 컴퓨터의 임의의 하나 이상의 프로세서들을 포함한다. 일반적으로, 프로세서는 판독 전용 메모리 또는 랜덤 액세스 메모리 또는 둘 다로부터 명령어들 및 데이터를 수신할 것이다. 컴퓨터의 요소들은 명령어들을 실행하는 적어도 하나의 프로세서 및 명령어들 및 데이터를 저장하는 하나 이상의 메모리 장치들을 포함할 수 있다. 일반적으로, 컴퓨터는 데이터를 저장하는 하나 이상의 대량 저장 장치들, 예를 들어 자기, 자기-광 디스크들, 또는 광 디스크들을 포함할 수 있거나, 이것들로부터 데이터를 수신하거나 이것들에 데이터를 송신하거나 또는 양쪽으로 되도록 결합될 수도 있다. 컴퓨터 프로그램 명령어들 및 데이터를 구체화하는데 적절한 정보 캐리어들은 예로서 반도체 메모리 장치들, 예를 들어, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 롬(ROM, Read Only Memory), 램(RAM, Random Access Memory), 플래시 메모리, EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 등을 포함한다. 프로세서 및 메모리는 특수 목적 논리 회로조직에 의해 보충되거나, 이에 포함될 수 있다.
또한, 컴퓨터 판독가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용매체일 수 있고, 컴퓨터 저장매체를 모두 포함할 수 있다.
본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.
마찬가지로, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 장치 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 장치들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징 될 수 있다는 점을 이해하여야 한다.
한편, 본 명세서와 도면에 개시된 본 발명의 실시 예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.
100: 수업 관리 서버
110: 디스플레이
111: 카메라
112: 강의자
123: 사용자

Claims (15)

  1. 영상 수업 시스템에 참여한 사용자의 양안 시차를 듀얼 카메라로 측정하는 단계;
    상기 양안 시차를 기초로 상기 사용자가 주시하고 있는 디스플레이의 화면 안의 위치를 추정하는 단계;
    영상 수업 시스템에서 사용자의 디스플레이에 표시하는 화면을 기초로 상기 사용자가 주시하고 있는 디스플레이의 화면 안의 위치에 대응하는 컨텐츠를 식별하는 단계;
    식별한 컨텐츠가 학습 관련 정보인지 여부에 따라 사용자의 주의 집중 여부를 모니터링하는 단계;
    강의자가 상기 사용자, 또는 다른 사용자 중 하나를 주시하고 있는 경우, 강의자가 주시하고 있는 상기 사용자, 또는 다른 사용자의 디스플레이에 강의자가 주시하고 있다는 정보를 표시하는 단계; 및
    상기 강의자가 미리 설정한 정보, 또는 상기 강의자의 수동 입력에 따라, 강의자가 주시하고 있는 상기 사용자, 또는 다른 사용자에게 수업에 집중하라는 경고 메시지를 제공하거나, 상기 사용자, 또는 다른 사용자들 중에서 발표자에게 발표를 시작하라는 메시지를 제공하는 단계
    를 포함하고,
    상기 학습 관련 정보는,
    강의자가 강의하는 경우, 강의자의 얼굴 및 학습 자료를 포함하고,
    사용자가 발표, 또는 발언하는 경우, 사용자의 얼굴, 및 학습 자료를 포함하며,
    다른 사용자가 발표, 또는 발언하는 경우, 발표, 또는 발언권을 획득하여 발언하는 다른 사용자의 얼굴 및 학습 자료를 포함하는 영상 수업의 주의 집중 모니터링 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 학습 관련 정보는,
    발표, 또는 발언권을 획득하여 발언하는 다른 사용자, 또는 강의자의 요청에 따라 설정되며, 화면에 표시되는 다른 컨텐츠와 구분되도록 상기 다른 컨텐츠와 테두리, 배경, 효과를 차별화하여 표시되는 영상 수업의 주의 집중 모니터링 방법.
  4. 제1항에 있어서,
    모니터링의 결과에 따라 피드백 정보를 생성하는 단계; 및
    상기 사용자와 영상 수업 시스템에 참가한 다른 사용자들 및 강의자 중 하나에게 피드백 정보를 제공하는 단계
    를 더 포함하는 영상 수업의 주의 집중 모니터링 방법.
  5. 제4항에 있어서,
    상기 피드백 정보는,
    상기 사용자와 상기 다른 사용자들 중에서 상기 학습 관련 정보에 대하여 주의 집중하고 있는 사용자 및 상기 학습 관련 정보에 대하여 주의 집중하지 않고 있는 사용자들의 리스트를 포함하는 영상 수업의 주의 집중 모니터링 방법.
  6. 제4항에 있어서,
    상기 피드백 정보를 제공하는 단계는,
    상기 강의자의 설정에 따라 영상 수업 시스템에 참가한 모든 사용자, 상기 강의자가 선택한 사용자, 영상 수업 시스템에 참가한 사용자들의 그룹 중 하나에게 상기 피드백 정보를 제공하는 영상 수업의 주의 집중 모니터링 방법.
  7. 제4항에 있어서,
    상기 피드백 정보를 생성하는 단계는,
    하나의 화면에 표시되는 학습 관련 정보가 복수인 경우, 학습 관련 정보들 각각에 대하여 사용자의 시선이 체류하는 시간 및 빈도, 사용자의 시선이 학습 관련 정보들 간에 이동하는 순서에 따라 사용자, 또는 학습 별로 데이터베이스를 구축하는 영상 수업의 주의 집중 모니터링 방법.
  8. 제7항에 있어서,
    상기 피드백 정보를 생성하는 단계는,
    상기 데이터베이스를 분석하여 상기 사용자 및 다른 사용자들 각각의 성적, 수업 만족도, 및 다른 정보에 비해 수업 효과가 낮은 학습 정보를 추정하여 강의자용 피드백 정보를 생성하는 영상 수업의 주의 집중 모니터링 방법.
  9. 제1항에 있어서,
    모니터링에서 상기 사용자가 상기 학습 관련 정보를 주시하지 않는 것으로 확인된 경우, 상기 사용자가 주의 집중하고 있지 않은 것으로 판단하고, 상기 사용자가 주의 집중하고 있지 않은 시간을 측정하는 단계; 및
    측정한 시간이 기 설정된 경고 시간을 초과하는 경우, 상기 사용자에게 경고하는 단계
    를 더 포함하는 영상 수업의 주의 집중 모니터링 방법.
  10. 제1항, 제3항 내지 제9항 중 어느 한 항의 방법을 실행하기 위한 프로그램이 기록된 컴퓨터에서 판독 가능한 기록 매체.
  11. 영상 수업 시스템에 참여한 사용자의 양안 시차를 측정하는 듀얼 카메라; 및
    상기 양안 시차를 기초로 상기 사용자가 주시하고 있는 디스플레이의 화면 안의 위치를 추정하고, 영상 수업 시스템에서 사용자의 디스플레이에 표시하는 화면을 기초로 상기 사용자가 주시하고 있는 디스플레이의 화면 안의 위치에 대응하는 컨텐츠를 식별하며, 식별한 컨텐츠가 학습 관련 정보인지 여부에 따라 사용자의 주의 집중 여부를 모니터링하는 수업 관리 서버
    를 포함하고,
    상기 수업 관리 서버는,
    강의자가 상기 사용자, 또는 다른 사용자 중 하나를 주시하고 있는 경우, 강의자가 주시하고 있는 상기 사용자, 또는 다른 사용자의 디스플레이에 강의자가 주시하고 있다는 정보를 표시하며, 상기 강의자가 미리 설정한 정보, 또는 상기 강의자의 수동 입력에 따라, 강의자가 주시하고 있는 상기 사용자, 또는 다른 사용자에게 수업에 집중하라는 경고 메시지를 제공하거나, 상기 사용자, 또는 다른 사용자들 중에서 발표자에게 발표를 시작하라는 메시지를 제공하고,
    상기 학습 관련 정보는,
    강의자가 강의하는 경우, 강의자의 얼굴 및 학습 자료를 포함하고,
    사용자가 발표, 또는 발언하는 경우, 사용자의 얼굴, 및 학습 자료를 포함하며,
    다른 사용자가 발표, 또는 발언하는 경우, 발표, 또는 발언권을 획득하여 발언하는 다른 사용자의 얼굴 및 학습 자료를 포함하는 영상 수업 시스템.
  12. 제11항에 있어서,
    상기 학습 관련 정보는,
    화면에 표시되는 다른 컨텐츠와 구분되도록 상기 다른 컨텐츠와 테두리, 배경, 효과를 차별화하여 표시되는 영상 수업 시스템.
  13. 제11항에 있어서,
    상기 수업 관리 서버는,
    모니터링의 결과에 따라 피드백 정보를 생성하고, 상기 사용자와 영상 수업 시스템에 참가한 다른 사용자들 및 강의자 중 하나에게 피드백 정보를 제공하는 영상 수업 시스템.
  14. 제13항에 있어서,
    상기 수업 관리 서버는,
    하나의 화면에 표시되는 학습 관련 정보가 복수인 경우, 학습 관련 정보들 각각에 대하여 사용자의 시선이 체류하는 시간 및 빈도, 사용자의 시선이 학습 관련 정보들 간에 이동하는 순서에 따라 사용자, 또는 학습 별로 데이터베이스를 구축하고,
    상기 데이터베이스를 분석하여 상기 사용자 및 다른 사용자들 각각의 성적, 수업 만족도, 및 다른 정보에 비해 수업 효과가 낮은 학습 정보를 추정하여 강의자용 피드백 정보를 생성하는 영상 수업 시스템.
  15. 제11항에 있어서,
    상기 수업 관리 서버는,
    모니터링에서 상기 사용자가 상기 학습 관련 정보를 주시하지 않는 것으로 확인된 경우, 상기 사용자가 주의 집중하고 있지 않은 것으로 판단하고, 상기 사용자가 주의 집중하고 있지 않은 시간을 측정하며, 측정한 시간이 기 설정된 경고 시간을 초과하는 경우, 상기 사용자에게 경고하는 영상 수업 시스템.
KR1020200099312A 2020-08-07 2020-08-07 영상 수업의 주의 집중 여부를 모니터링 할 수 있는 영상 수업 시스템 및 방법 KR102555922B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200099312A KR102555922B1 (ko) 2020-08-07 2020-08-07 영상 수업의 주의 집중 여부를 모니터링 할 수 있는 영상 수업 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200099312A KR102555922B1 (ko) 2020-08-07 2020-08-07 영상 수업의 주의 집중 여부를 모니터링 할 수 있는 영상 수업 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20220018782A KR20220018782A (ko) 2022-02-15
KR102555922B1 true KR102555922B1 (ko) 2023-07-17

Family

ID=80325208

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200099312A KR102555922B1 (ko) 2020-08-07 2020-08-07 영상 수업의 주의 집중 여부를 모니터링 할 수 있는 영상 수업 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR102555922B1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102558675B1 (ko) * 2022-03-21 2023-07-25 맹진영 에이피, 에이레벨 및 국제 바칼로레아를 교육하는 교원 양성 프로그램 운영 장치 및 방법
KR102620099B1 (ko) * 2022-09-30 2024-01-02 주식회사 이츠유 실시간으로 수업영상의 편집조작이 가능하며 수업 영상의 전송과 녹화와 플랫폼 업로드가 편리하며 교사와 학생간의 인터랙션이 개선된 블렌디드 러닝시스템
KR102612283B1 (ko) * 2022-11-15 2023-12-12 주식회사 화성 시선추적을 기반으로 하는 학습집중도 분석시스템 및 이를 이용한 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080000092A (ko) * 2006-06-26 2008-01-02 주식회사 케이티 온라인 교육을 위한 학습 관리 시스템 및 그 학습 지도방법
KR101455200B1 (ko) * 2012-10-09 2014-10-30 경북대학교 산학협력단 학습 모니터링 장치 및 학습 모니터링 방법
KR101563312B1 (ko) * 2013-06-18 2015-10-26 장현철 시선 기반 교육 콘텐츠 실행 시스템
KR101633543B1 (ko) * 2014-04-17 2016-06-27 한국과학기술원 사용자의 학습 내역을 기반으로 한 학습 콘텐츠 강조 방법 및 그 시스템

Also Published As

Publication number Publication date
KR20220018782A (ko) 2022-02-15

Similar Documents

Publication Publication Date Title
Holstein et al. The classroom as a dashboard: Co-designing wearable cognitive augmentation for K-12 teachers
KR102555922B1 (ko) 영상 수업의 주의 집중 여부를 모니터링 할 수 있는 영상 수업 시스템 및 방법
Damian et al. Augmenting social interactions: Realtime behavioural feedback using social signal processing techniques
Ochoa et al. Multimodal learning analytics-Rationale, process, examples, and direction
Hipp et al. The dimensional divide: Learning from TV and touchscreens during early childhood
Holsanova Reception of multimodality: Applying eye tracking methodology in multimodal research
Rosengrant et al. Investigating student sustained attention in a guided inquiry lecture course using an eye tracker
Coskun et al. A systematic review of eye‐tracking‐based research on animated multimedia learning
Yang et al. Instructional suggestions supporting science learning in digital environments based on a review of eye tracking studies
KR102515987B1 (ko) 학습자의 비대면 온라인수업 참여 탐지 장치 및 방법
Buono et al. Assessing student engagement from facial behavior in on-line learning
Eichert et al. Language-driven anticipatory eye movements in virtual reality
CN108564073A (zh) 一种课堂环境中学生情绪识别方法及装置
Vermun et al. Gesture-based affective and cognitive states recognition using kinect for effective feedback during e-learning
Cao et al. Understand learning style by eye tracking in slide video learning
Schüssel et al. Influencing factors on multimodal interaction during selection tasks
Ferdig et al. Exploring the relationships between teacher noticing, ambisonic audio, and variance in focus when viewing 360 video
KR20180020995A (ko) 사용자 상태들을 변화시키기 위해 물리적 객체들과 함께 증강 현실을 사용하는 방법 및 장치
Szita et al. The effects of smartphone spectatorship on attention, arousal, engagement, and comprehension
Duraisamy et al. Classroom engagement evaluation using computer vision techniques
Koning et al. Investigating the role of hand perspective in learning from procedural animations
D’Mello Gaze-based attention-aware cyberlearning technologies
Amos et al. Crowd-sourced identification of characteristics of collective human motion
Lui et al. A novel mobile application for training oral presentation delivery skills
Kaminskienė et al. Mobile eye tracking evoked teacher self-reflection about teaching practices and behavior towards students in higher education

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant