KR20220041458A - 객체 인식을 이용한 시선 기반 콘텐츠 교육 방법 및 이를 수행하기 위한 시스템 - Google Patents

객체 인식을 이용한 시선 기반 콘텐츠 교육 방법 및 이를 수행하기 위한 시스템 Download PDF

Info

Publication number
KR20220041458A
KR20220041458A KR1020200124678A KR20200124678A KR20220041458A KR 20220041458 A KR20220041458 A KR 20220041458A KR 1020200124678 A KR1020200124678 A KR 1020200124678A KR 20200124678 A KR20200124678 A KR 20200124678A KR 20220041458 A KR20220041458 A KR 20220041458A
Authority
KR
South Korea
Prior art keywords
gaze
user
content
information
display content
Prior art date
Application number
KR1020200124678A
Other languages
English (en)
Inventor
석윤찬
최성동
Original Assignee
주식회사 비주얼캠프
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 비주얼캠프 filed Critical 주식회사 비주얼캠프
Priority to KR1020200124678A priority Critical patent/KR20220041458A/ko
Priority to PCT/KR2020/015257 priority patent/WO2022065575A1/ko
Publication of KR20220041458A publication Critical patent/KR20220041458A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Primary Health Care (AREA)
  • General Engineering & Computer Science (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

객체 인식을 이용한 시선 기반 콘텐츠 교육 방법 및 이를 수행하기 위한 시스템이 개시된다. 개시되는 일 실시예에 따른 객체 인식을 이용한 시선 기반 콘텐츠 교육 방법은, 하나 이상의 프로세서들, 및 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서, 제1 사용자의 시선 위치 정보가 콘텐츠에 표시되도록 결합된 시선 표시 콘텐츠를 수신하는 동작, 시선 표시 콘텐츠에 대한 제2 사용자의 시선을 추적하여 제2 사용자의 시선 추적 정보를 생성하는 동작, 제2 사용자의 시선 추적 정보에 기반하여 시선 표시 콘텐츠 내 제2 사용자의 시선 위치 정보를 생성하는 동작, 및 시선 표시 콘텐츠 내 제1 사용자의 시선 위치 정보와 제2 사용자의 시선 위치 정보를 기반으로 시선 관련 분석 정보를 생성하는 동작을 포함한다.

Description

객체 인식을 이용한 시선 기반 콘텐츠 교육 방법 및 이를 수행하기 위한 시스템{GAZE-BASED CONTENTS EDUCATION METHOD USING OBJECT RECOGNITION AND SYSTEM FOR EXECUTING THE METHOD}
본 발명의 실시예는 객체 인식을 이용한 시선 기반 콘텐츠 교육 기술과 관련된다.
최근, IT 기술의 발달로 온라인을 이용한 수업 또는 강의가 활발히 진행되고 있다. 그러나, 온라인 기반의 수업의 경우, 학생들의 피드백을 받기가 쉽지 않아 학생들의 교육 효과가 떨어지는 문제점이 있다. 이에, 온라인 기반의 수업 등에서 학생들의 교육 효과를 향상시킬 수 있는 방안이 요구된다.
한국등록특허공보 제10-1615171호(2016.05.12)
개시되는 실시예는 동영상 강의와 같은 온라인 교육에서 학생들의 교육 효과를 향상시킬 수 있는 기법을 제공하기 위한 것이다.
개시되는 실시예는 동영상 강의와 같은 온라인 교육에서 강사가 관심 영역을 별도로 설정해야 하는 번거로움을 줄일 수 있는 기법을 제공하기 위한 것이다.
개시되는 일 실시예에 따른 시선 기반 콘텐츠 교육 방법은, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서, 제1 사용자의 시선 위치 정보가 콘텐츠에 표시되도록 결합된 시선 표시 콘텐츠를 수신하는 동작; 상기 시선 표시 콘텐츠에 대한 제2 사용자의 시선을 추적하여 제2 사용자의 시선 추적 정보를 생성하는 동작; 상기 제2 사용자의 시선 추적 정보에 기반하여 상기 시선 표시 콘텐츠 내 제2 사용자의 시선 위치 정보를 생성하는 동작; 및 상기 시선 표시 콘텐츠 내 제1 사용자의 시선 위치 정보와 제2 사용자의 시선 위치 정보를 기반으로 시선 관련 분석 정보를 생성하는 동작을 포함한다.
상기 시선 표시 콘텐츠는, 상기 콘텐츠 내 제1 사용자의 시선 위치 및 상기 콘텐츠 내 제1 사용자의 시선 이동 경로 중 하나 이상이 상기 콘텐츠에 표시된 것일 수 있다.
상기 시선 표시 콘텐츠는, 상기 콘텐츠 내 제1 사용자의 시선 위치에 포인터가 표시되고, 상기 포인터는, 상기 콘텐츠에서 상기 포인터가 가르치는 지점의 중요도 및 상기 제1 사용자의 시선이 머무는 시간 중 하나 이상에 따라 색상, 모양, 투명도, 크기, 및 자취 중 하나 이상이 조절될 수 있다.
상기 시선 표시 콘텐츠는, 상기 콘텐츠에서 제1 사용자의 시선 위치에 따라 포커스 영역 및 집중 효과 중 하나 이상이 설정된 것일 수 있다.
상기 시선 관련 분석 정보를 생성하는 동작은, 상기 시선 표시 콘텐츠의 재생 시간 동안 상기 제1 사용자의 시선 위치 정보와 상기 제2 사용자의 시선 위치 정보를 비교하여 시선 경로 일치율 및 시선 경로 이탈율 중 하나 이상을 분석하는 동작을 포함할 수 있다.
상기 시선 관련 분석 정보를 생성하는 동작은, 상기 시선 표시 콘텐츠의 재생 시간 동안 상기 제2 사용자의 시선 백 트래킹의 횟수 및 시선 백 트래킹의 비율 중 하나 이상을 확인하여 시선 백 트래킹 분석 정보를 생성하는 동작을 포함할 수 있다.
상기 시선 관련 분석 정보는, 상기 시선 표시 콘텐츠의 재생 시간 동안 상기 제2 사용자의 시선 경로 일치율, 상기 제2 사용자의 시선 경로 이탈율, 상기 제2 사용자의 시선 히트 맵, 상기 제2 사용자의 시선 백 트래킹의 횟수, 및 상기 제2 사용자의 시선 백 트래킹의 비율 중 하나 이상을 포함하고, 상기 시선 기반 콘텐츠 교육 방법은, 상기 시선 관련 분석 정보를 관리 서버로 송신하는 동작을 더 포함할 수 있다.
상기 시선 기반 콘텐츠 교육 방법은, 상기 시선 표시 콘텐츠 내에서 상기 제1 사용자의 시선 위치 정보와 상기 제2 사용자의 시선 위치 정보가 일치하지 않는 경우, 상기 제2 사용자의 시선 위치 정보가 상기 제1 사용자의 시선 위치 정보와 일치하도록 상기 제2 사용자의 시선을 유도하는 동작을 더 포함할 수 있다.
상기 시선을 유도하는 동작은, 상기 시선 표시 콘텐츠 내에서 상기 제1 사용자의 마지막 시선 위치를 기준으로 기 설정된 범위 내의 영역에 비주얼 큐(Visual Cue)를 제공하는 동작을 포함할 수 있다.
상기 시선 관련 분석 정보는, 상기 시선 표시 콘텐츠의 재생 시간 동안 상기 제2 사용자의 시선 경로 일치율, 상기 제2 사용자의 시선 경로 이탈율, 상기 제2 사용자의 시선 백 트래킹의 횟수, 및 상기 제2 사용자의 시선 백 트래킹의 비율 중 하나 이상을 포함하고, 상기 시선 기반 콘텐츠 교육 방법은, 상기 시선 관련 분석 정보에 기반하여 상기 시선 표시 콘텐츠의 재생 시점을 변경하는 동작을 더 포함할 수 있다.
상기 재생 시점을 변경하는 동작은, 상기 시선 표시 콘텐츠에서 상기 제2 사용자의 시선 위치 정보가 상기 제1 사용자의 시선 위치 정보와 불일치 하는 시간이 기 설정된 임계 시간을 초과하는 경우, 상기 제2 사용자의 시선 위치 정보가 상기 제1 사용자의 시선 위치 정보와 불일치 하기 시작한 시점부터 상기 시선 표시 콘텐츠를 다시 재생하도록 제어하는 동작을 포함할 수 있다.
상기 재생 시점을 변경하는 동작은, 상기 제2 사용자가 상기 시선 표시 콘텐츠 내에서 특정 부분으로 기 설정된 임계 횟수 이상 시선 백 트래킹을 하는 경우, 상기 시선 표시 콘텐츠 내에서 상기 제1 사용자의 시선 위치 정보가 상기 시선 백 트래킹을 한 부분에 위치하는 시점부터 상기 시선 표시 콘텐츠를 다시 재생하도록 제어하는 동작을 포함할 수 있다.
개시되는 다른 실시예에 따른 시선 기반 콘텐츠 교육 방법은, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서, 제1 사용자 단말로부터 콘텐츠에 대한 제1 사용자의 시선 추적 정보를 수신하는 동작; 상기 제1 사용자의 시선 추적 정보에 기반하여 상기 콘텐츠에 대한 제1 사용자의 시선 위치 정보를 생성하는 동작; 상기 콘텐츠와 상기 제1 사용자의 시선 위치 정보를 결합하여 시선 표시 콘텐츠를 생성하는 동작; 및 상기 시선 표시 콘텐츠를 하나 이상의 제2 사용자 단말로 제공하는 동작을 포함한다.
상기 시선 표시 콘텐츠는, 상기 콘텐츠 내 제1 사용자의 시선 위치 및 상기 콘텐츠 내 제1 사용자의 시선 이동 경로 중 하나 이상이 상기 콘텐츠에 표시된 것일 수 있다.
상기 시선 표시 콘텐츠는, 상기 콘텐츠 내 제1 사용자의 시선 위치에 포인터가 표시되고, 상기 포인터는, 상기 콘텐츠에서 상기 포인터가 가르치는 지점의 중요도 및 상기 제1 사용자의 시선이 머무는 시간 중 하나 이상에 따라 색상, 모양, 투명도, 크기, 및 자취 중 하나 이상이 조절될 수 있다.
상기 시선 표시 콘텐츠는, 상기 콘텐츠에서 제1 사용자의 시선 위치에 따라 포커스 영역 및 집중 효과 중 하나 이상이 설정된 것일 수 있다.
상기 시선 기반 콘텐츠 교육 방법은, 상기 제2 사용자 단말로부터 시선 관련 분석 정보를 수신하는 동작을 더 포함하고, 상기 시선 관련 분석 정보는, 상기 시선 표시 콘텐츠 내 제1 사용자의 시선 위치 정보와 제2 사용자의 시선 위치 정보를 기반으로 생성될 수 있다.
상기 시선 관련 분석 정보는, 상기 시선 표시 콘텐츠의 재생 시간 동안 상기 제2 사용자의 시선 경로 일치율, 상기 제2 사용자의 시선 경로 이탈율, 상기 제2 사용자의 시선 히트 맵, 상기 제2 사용자의 시선 백 트래킹의 횟수, 및 상기 제2 사용자의 시선 백 트래킹의 비율 중 하나 이상을 포함하고, 상기 시선 기반 콘텐츠 교육 방법은, 상기 시선 관련 분석 정보를 지역별, 성별, 나이별, 및 성적 별 중 하나 이상에 대해 통계 처리를 수행하는 동작을 더 포함할 수 있다.
개시되는 일 실시예에 따른 시선 기반 콘텐츠 교육 시스템은, 제1 사용자가 강의를 진행하고자 하는 콘텐츠를 화면에 표시하고, 상기 화면에 표시된 콘텐츠에 대한 상기 제1 사용자의 시선을 추적하여 상기 콘텐츠에 대한 제1 사용자의 시선 추적 정보를 생성하는 제1 사용자 단말; 상기 제1 사용자 단말로부터 상기 콘텐츠에 대한 제1 사용자의 시선 추적 정보를 수신하고, 상기 제1 사용자의 시선 추적 정보에 기반하여 상기 콘텐츠에 대한 제1 사용자의 시선 위치 정보를 생성하고, 상기 콘텐츠와 상기 제1 사용자의 시선 위치 정보를 결합하여 시선 표시 콘텐츠를 생성하는 관리 서버; 및 상기 관리 서버로부터 상기 시선 표시 콘텐츠를 수신하고, 수신한 상기 시선 표시 콘텐츠를 화면에 표시하는 하나 이상의 제2 사용자 단말을 포함한다.
개시되는 실시예에 의하면, 제1 사용자(예를 들어, 강사, 교사, 전문가 등)의 시선 위치 정보가 표시된 시선 표시 콘텐츠를 제2 사용자에게 보여 주면서 강의를 진행함으로써, 제1 사용자의 입장에서는 콘텐츠에 관심 영역(Area of Interest)을 별도로 설정할 필요가 없게 된다. 즉, 제1 사용자가 콘텐츠를 이용하여 강의 등을 진행할 때 제1 사용자의 시선 위치를 추적하고 이를 콘텐츠에 표시하여 제2 사용자에게 제공하기 때문에, 제1 사용자의 입장에서는 레이저 포인트 등을 이용하지 않고도 콘텐츠에 자동으로 관심 영역이 설정되는 것과 같은 효과를 가지게 되며, 그로 인해 별도의 관심 영역을 설정해야 하는 번거로움을 줄일 수 있게 된다.
또한, 제2 사용자(예를 들어, 교육생 또는 학생 등)의 입장에서는 콘텐츠에 제1 사용자의 시선 위치가 표시되기 때문에, 제1 사용자가 콘텐츠 중 어느 부분을 설명하고 있는지 쉽게 파악할 수 있고, 제1 사용자의 시선을 따라 강의 등을 들을 수 있으므로 학습 효과를 향상시킬 수 있게 된다.
도 1은 본 발명의 일 실시예에 따른 시선 기반 콘텐츠 교육 시스템을 나타낸 도면
도 2는 본 발명의 일 실시예에 따른 관리 서버의 구성을 나타낸 블록도
도 3은 본 발명의 일 실시예에 따른 관리 서버의 콘텐츠 생성부에서 생성한 시선 표시 콘텐츠를 나타낸 도면
도 4는 본 발명의 일 실시예에 따른 콘텐츠 생성부의 포인터 관리 툴을 나타낸 도면
도 5는 본 발명의 일 실시예에 따른 콘텐츠 생성부의 포커스 영역 설정 툴을 나타낸 도면
도 6은 본 발명의 일 실시예에 따른 콘텐츠 생서부의 집중 효과 설정 툴을 나타낸 도면
도 7은 본 발명의 일 실시예에 따른 제2 사용자 단말의 구성을 나타낸 블록도
도 8은 본 발명의 일 실시예에 따른 제2 사용자 단말에서 비주얼 큐를 제공하는 상태를 나타낸 도면
도 9는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도
이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.
본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.
이하의 설명에 있어서, 신호 또는 정보의 "전송", "통신", "송신", "수신" 기타 이와 유사한 의미의 용어는 일 구성요소에서 다른 구성요소로 신호 또는 정보가 직접 전달되는 것뿐만이 아니라 다른 구성요소를 거쳐 전달되는 것도 포함한다. 특히 신호 또는 정보를 일 구성요소로 "전송" 또는 "송신"한다는 것은 그 신호 또는 정보의 최종 목적지를 지시하는 것이고 직접적인 목적지를 의미하는 것이 아니다. 이는 신호 또는 정보의 "수신"에 있어서도 동일하다. 또한 본 명세서에 있어서, 2 이상의 데이터 또는 정보가 "관련"된다는 것은 하나의 데이터(또는 정보)를 획득하면, 그에 기초하여 다른 데이터(또는 정보)의 적어도 일부를 획득할 수 있음을 의미한다.
또한, 제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로 사용될 수 있다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
도 1은 본 발명의 일 실시예에 따른 객체 인식을 이용한 시선 기반 콘텐츠 교육 시스템을 나타낸 도면이다.
도 1을 참조하면, 시선 기반 콘텐츠 교육 시스템(100)은 제1 사용자 단말(102), 관리 서버(104), 및 제2 사용자 단말(106)을 포함할 수 있다. 제1 사용자 단말(102) 및 제2 사용자 단말(106)은 통신 네트워크(150)를 통해 관리 서버(104)와 통신 가능하게 연결된다.
몇몇 실시예들에서, 통신 네트워크(150)는 인터넷, 하나 이상의 로컬 영역 네트워크(local area networks), 광역 네트워크(wide area networks), 셀룰러 네트워크, 모바일 네트워크, 그 밖에 다른 종류의 네트워크들, 또는 이러한 네트워크들의 조합을 포함할 수 있다.
제1 사용자 단말(102)은 온라인으로 강의(수업 또는 가르치는 모든 행위를 포함)를 진행하는 제1 사용자(예를 들어, 강사, 교사, 소정 분야의 전문가, 성적이 높은 학생 등)의 단말일 수 있다. 여기서, 제1 사용자는 개인이 될 수도 있고, 복수의 사람이 될 수도 있다.
제1 사용자 단말(102)은 디스플레이(102a) 및 시선 추적부(102b)를 포함할 수 있다. 디스플레이(102a)는 제1 사용자가 강의 또는 수업하고자 하는 콘텐츠(예를 들어, 동영상, 문서, 웹 페이지, 이미지, PPT 슬라이드, 생방송, 화상회의 등)를 표시할 수 있다. 이때, 제1 사용자는 디스플레이(102a)에 표시된 콘텐츠를 보면서 강의 등을 진행할 수 있다.
시선 추적부(102b)는 제1 사용자 단말(102)의 디스플레이(102a)에서 표시되는 콘텐츠에 대한 제1 사용자의 시선을 추적할 수 있다. 즉, 시선 추적부(102b)는 콘텐츠가 표시되는 디스플레이(102a) 상에서 제1 사용자의 시선을 추적할 수 있다. 시선 추적부(102b)는 제1 사용자 단말(102) 내에 구비된 카메라 및 어플리케이션 등을 통해 구현될 수 있으나, 이에 한정되는 것은 아니며 별도의 장치로 마련되고 제1 사용자 단말(102)에 장착될 수도 있다.
시선 추적부(102b)는 콘텐츠(예를 들어, 동영상인 경우)가 제1 사용자 단말(102)에서 재생되는 동안 콘텐츠의 재생 시간과 연동하여 제1 사용자의 시선 추적 정보를 생성할 수 있다. 시선 추적부(102b)는 콘텐츠가 디스플레이(102a)에 표시되는 경우 디스플레이(102a)의 화면 내 제1 사용자의 시선을 추적하되, 추적된 제1 사용자의 시선에서 사카드(Saccade)를 제외하고 픽세이션(Fixation)을 검출할 수 있다. 이 경우, 제1 사용자가 콘텐츠에서 어느 객체에 시선을 향하고 있는지를 확인할 수 있게 된다. 그러나, 이에 한정되는 것은 아니며 시선 추적 정보에는 사카드 및 픽세이션을 모두 포함할 수도 있다.
여기서, 사카드(Saccade)는 두 눈이 동시에 동일한 방향으로 빠르게 움직이는 안구 운동으로 픽세이션들 사이에 일어나며, 일반적으로 20-40ms 지속되게 된다. 사카드는 주로 시선이 관심 객체를 향하도록 하는데 사용된다. 또한, 픽세이션(Fixation)은 시선이 단일 위치에서 유지되는 것으로, 시선이 고정되는 것을 의미할 수 있다. 픽세이션은 일반적으로 50-600ms 지속될 수 있다.
제1 사용자 단말(102)은 콘텐츠에 대한 제1 사용자의 시선 추적 정보를 관리 서버(104)로 전송할 수 있다. 제1 사용자 단말(102)은 콘텐츠를 재생하고 통신이 가능한 전자 기기일 수 있다. 예를 들어, 제1 사용자 단말(102)은 노트북, 데스크 탑 PC, 태블릿 PC, 스마트 폰 등을 포함할 수 있다.
관리 서버(104)는 제1 사용자 단말(102)로부터 콘텐츠에 대한 제1 사용자의 시선 추적 정보를 수신할 수 있다. 관리 서버(104)는 콘텐츠에 대한 제1 사용자의 시선 추적 정보에 기반하여 시선 표시 콘텐츠를 생성하고, 생성한 시선 표시 콘텐츠를 제2 사용자 단말(106)로 제공할 수 있다. 시선 표시 콘텐츠는 콘텐츠에 제1 사용자의 시선 위치 정보가 결합된 것일 수 있다. 이에 대한 자세한 설명은 후술하기로 한다. 관리 서버(104)는 각 제2 사용자 단말(106)로부터 시선 관련 분석 정보를 수신할 수 있다. 관리 서버(104)는 제2 사용자 단말(106)로부터 각각 수신한 시선 관련 분석 정보를 통계 처리할 수 있다.
제2 사용자 단말(106)은 온라인으로 강의 또는 수업을 받는 제2 사용자(예를 들어, 교육생 또는 학생 등)의 단말일 수 있다. 제2 사용자 단말(106)은 관리 서버(104)로부터 시선 표시 콘텐츠를 수신할 수 있다. 제2 사용자 단말(106)은 시선 표시 콘텐츠를 화면에 표시하는 디스플레이(106a)를 포함할 수 있다.
여기서, 시선 표시 콘텐츠는 콘텐츠에 제1 사용자(예를 들어, 강사, 교사, 전문가 등)의 시선 위치 정보가 표시되기 때문에, 제1 사용자의 입장에서는 콘텐츠에 관심 영역(Area of Interest)을 별도로 설정할 필요가 없게 된다. 즉, 제1 사용자가 콘텐츠를 이용하여 강의 등을 진행할 때 제1 사용자의 시선 위치를 추적하고 이를 콘텐츠에 표시하여 제2 사용자에게 제공하기 때문에, 제1 사용자의 입장에서는 레이저 포인트 등을 이용하지 않고도 콘텐츠에 자동으로 관심 영역이 설정되는 것과 같은 효과를 가지게 되며, 그로 인해 별도의 관심 영역을 설정해야 하는 번거로움을 줄일 수 있게 된다.
또한, 제2 사용자(예를 들어, 교육생 또는 학생 등)의 입장에서는 콘텐츠(예를 들어, 동영상 강의)에 제1 사용자의 시선 위치가 표시되기 때문에, 제1 사용자가 콘텐츠 중 어느 부분을 설명하고 있는지 쉽게 파악할 수 있고, 제1 사용자의 시선을 따라 강의 등을 들을 수 있으므로 학습 효과를 향상시킬 수 있게 된다.
여기서, 제1 사용자 단말(102) 및 제2 사용자 단말(106)에는 개시되는 일 실시예에 따른 온라인 콘텐츠 교육 서비스를 제공하기 위한 어플리케이션이 설치될 수 있다. 상기 어플리케이션은 제1 사용자 단말(102) 및 제2 사용자 단말(106)의 컴퓨터 판독 가능 저장 매체에 저장될 수 있다. 상기 어플리케이션은 제1 사용자 단말(102) 및 제2 사용자 단말(106)의 프로세서에 의해 실행 가능한 명령어의 소정의 집합을 포함한다. 상기 명령어는 제1 사용자 단말(102) 및 제2 사용자 단말(106)의 프로세서로 하여금 예시적인 실시예에 따른 동작을 수행하게 할 수 있다. 제1 사용자 단말(102) 및 제2 사용자 단말(106)의 컴퓨터 판독 가능 저장 매체는 제1 사용자 단말(102) 및 제2 사용자 단말(106) 상에서 상기 어플리케이션과 같은 명령어 집합을 실행하기 위한 운영 체제의 컴포넌트들을 포함한다. 예를 들어, 이러한 운영 체제는 애플(Apple) 사의 iOS 또는 구글(Google) 사의 Android 일 수 있다.
도 2는 본 발명의 일 실시예에 따른 관리 서버의 구성을 나타낸 블록도이다.
도 2를 참조하면, 관리 서버(104)는 통신부(111), 콘텐츠 생성부(113), 및 통계 관리부(115)를 포함할 수 있다.
일 실시예에서, 통신부(111), 콘텐츠 생성부(113), 및 통계 관리부(115)는 물리적으로 구분된 하나 이상의 장치를 이용하여 구현되거나, 하나 이상의 프로세서 또는 하나 이상의 프로세서 및 소프트웨어의 결합에 의해 구현될 수 있으며, 도시된 예와 달리 구체적 동작에 있어 명확히 구분되지 않을 수 있다.
통신부(111)는 통신 네트워크(150)를 통해 제1 사용자 단말(102) 및 제2 사용자 단말(106)과 각각 통신을 수행할 수 있다. 통신부(111)는 제1 사용자 단말(102)로부터 콘텐츠에 대한 제1 사용자의 시선 추적 정보를 수신할 수 있다. 통신부(111)는 각 제2 사용자 단말(106)로 시선 표시 콘텐츠를 제공할 수 있다. 통신부(111)는 각 제2 사용자 단말(106)로부터 시선 관련 분석 정보를 수신할 수 있다.
여기서, 시선 관련 분석 정보는 시선 경로 관련 정보 및 시선 백 트래킹 분석 정보 중 하나 이상을 포함할 수 있다. 시선 경로 관련 정보는 시선 경로 일치율 및 시선 경로 이탈율 중 하나 이상을 포함할 수 있다. 시선 경로 일치율은 시선 표시 콘텐츠의 재생 시간 동안 제1 사용자의 시선 위치 정보와 제2 사용자의 시선 위치 정보가 일치하는 구간의 비율을 의미할 수 있다. 시선 경로 이탈율은 시선 표시 콘텐츠의 재생 시간 동안 제1 사용자의 시선 위치 정보와 제2 사용자의 시선 위치 정보가 불일치하는 구간의 비율을 의미할 수 있다.
또한, 시선 백 트래킹 분석 정보는 시선 표시 콘텐츠의 재생 시간 동안 제2 사용자의 시선이 제1 사용자의 시선을 거슬러 올라가 제1 사용자의 이전 시선이 위치한 부분을 바라보는 횟수 또는 그 비율을 의미할 수 있다.
콘텐츠 생성부(113)는 제1 사용자의 시선 추적 정보에 기반하여 콘텐츠 내 제1 사용자의 시선 위치 정보를 생성할 수 있다. 콘텐츠 생성부(113)는 콘텐츠에 제1 사용자의 시선 위치 정보를 결합하여 시선 표시 콘텐츠를 생성할 수 있다. 콘텐츠 생성부(113)는 기 저장된 각 콘텐츠 별로 제1 사용자의 시선 위치 정보를 결합하여 시선 표시 콘텐츠를 생성할 수 있다. 예를 들어, 콘텐츠가 동영상 강의인 경우, 시선 표시 콘텐츠는 동영상 강의에 제1 사용자의 시선 위치 정보가 결합된 것일 수 있다.
예시적인 실시예에서, 콘텐츠 생성부(113)는 콘텐츠에 제1 사용자의 시선 위치 정보를 결합하여 시선 표시 콘텐츠를 생성하기 위해, 별도의 관리 툴을 이용할 수 있다.
구체적으로, 콘텐츠 생성부(113)는 제1 사용자의 시선 추적 정보에 기반하여 콘텐츠 내 제1 사용자의 시선 위치를 확인하고, 콘텐츠 내 제1 사용자의 시선 위치에 기반하여 콘텐츠 내 제1 사용자의 시선 이동 경로를 확인할 수 있다. 즉, 제1 사용자 단말(102)의 화면에 표시된 콘텐츠를 보면서 제1 사용자가 강의 등을 진행할 때, 제1 사용자의 시선이 콘텐츠 내에서 어디에 위치(예를 들어, 어느 객체에 위치)하고 어디로 이동(예를 들어, 콘텐츠 내 어느 객체에서 어느 객체로 이동)하는지에 대한 시선 이동 경로를 확인할 수 있다.
콘텐츠 생성부(113)는 콘텐츠에 제1 사용자의 시선 위치 및 시선 이동 경로 중 하나 이상을 포함하는 시선 위치 정보를 결합하여 시선 표시 콘텐츠를 생성할 수 있다. 즉, 콘텐츠 생성부(113)는 콘텐츠에 제1 사용자의 시선 위치 및 시선 이동 경로 중 하나 이상이 표시되도록 하여 시선 표시 콘텐츠를 생성할 수 있다.
도 3은 본 발명의 일 실시예에 따른 관리 서버(104)의 콘텐츠 생성부(113)에서 생성한 시선 표시 콘텐츠를 나타낸 도면이다. 도 3을 참조하면, 콘텐츠 생성부(113)는 콘텐츠에서 제1 사용자의 시선이 머무는 지점(즉, 시선 위치)을 포인터(예를 들어, 원 또는 사각형 등과 같은 도형)(P1, P2, P3, P4)로 표시하고, 콘텐츠에서 제1 사용자의 시선 이동 경로(P1→P2→P3→P4)를 포인터들 간의 라인(Line)으로 표시되도록 하여 시선 표시 콘텐츠를 생성할 수 있다.
한편, 도 4에 도시된 바와 같이, 콘텐츠 생성부(113)는 포인터 관리 툴(T1)을 통해 시선 표시 콘텐츠에서 포인터(P)의 색상, 모양, 투명도, 크기, 및 자취(즉, 포인터가 지나간 흔적) 중 하나 이상을 조절하여 표시할 수 있다.
예시적인 실시예에서, 콘텐츠 생성부(113)는 콘텐츠에서 포인터(P)가 가르치는 지점의 중요도에 따라 포인트(P)의 색상, 모양, 투명도, 및 크기 중 하나 이상을 조절하여 표시할 수 있다. 여기서, 중요도는 제1 사용자 또는 관리자 등이 설정할 수 있다.
여기서, 포인터(P)의 투명도 조절은 콘텐츠에서 포인터(P)가 위치하는 부분(즉, 제1 사용자의 시선이 위치하는 부분)의 영역과 그 이외의 영역 간에 투명도를 다르게 하는 것을 의미할 수 있다. 예를 들어, 콘텐츠에서 포인터(P)가 위치하는 부분의 투명도가 제1 투명도라 하면, 콘텐츠에서 그 이외의 영역은 제1 투명도 보다 낮은 제2 투명도로 할 수 있다.
또한, 콘텐츠 생성부(113)는 콘텐츠에서 제1 사용자의 시선이 머무는 시간에 따라 포인터(P)의 색상, 모양, 투명도, 및 크기 중 하나 이상을 조절하여 표시할 수 있다. 예를 들어, 콘텐츠 생성부(113)는 콘텐츠에서 제1 사용자의 시선이 머무는 시간이 길어질수록 포인트의 크기를 크게 할 수 있다.
또한, 콘텐츠 생성부(113)는 콘텐츠 내에 포커스 영역을 설정하여 시선 표시 콘텐츠를 생성할 수 있다. 즉, 도 5에 도시된 바와 같이, 콘텐츠 생성부(113)는 포커스 영역 설정 툴(T2)을 통해 콘텐츠 내에 포커스 영역을 설정할 수 있다. 콘텐츠 내에서 포커스 영역은 좌표 값(x, y)을 통해 설정될 수 있으며, 포커스 영역에는 색상이 지정될 수 있다.
예시적인 실시예에서, 콘텐츠 생성부(113)는 콘텐츠 내 제1 사용자의 시선 위치 정보에 따라 포커스 영역을 설정할 수 있으나, 이에 한정되는 것은 아니며 제1 사용자 또는 관리자 등의 입력에 따라 포커스 영역을 설정할 수도 있다.
또한, 콘텐츠 생성부(113)는 콘텐츠 내에 집중 효과를 설정하여 시선 표시 콘텐츠를 생성할 수 있다. 즉, 도 6에 도시된 바와 같이, 콘텐츠 생성부(113)는 집중 효과 설정 툴(T3)를 통해 콘텐츠 내에 집중 효과를 설정할 수 있다. 콘텐츠 내 집중 효과가 삽입될 위치는 좌표 값(x, y)을 통해 설정할 수 있다. 예시적인 실시예에서, 집중 효과는 사운드 효과일 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 사운드 효과는 박수 소리 또는 알람 소리 등이 될 수 있다.
예시적인 실시예에서, 콘텐츠 생성부(113)는 콘텐츠 내 제1 사용자의 시선 위치 정보에 따라 집중 효과를 설정할 수 있으나, 이에 한정되는 것은 아니며 제1 사용자 또는 관리자 등의 입력에 따라 집중 효과를 설정할 수도 있다. 또한, 콘텐츠 생성부(113)는 콘텐츠 내 제1 사용자의 시선 위치들 중 중요도에 따라 집중 효과를 설정할 수도 있다.
통계 관리부(115)는 각 제2 사용자 단말(106)로부터 수신한 시선 관련 분석 정보를 통계 처리할 수 있다. 예시적인 실시예에서, 통계 관리부(115)는 각 제2 사용자 단말(106)로부터 수신한 시선 경로 일치율을 사용자 그룹 별로 통계 처리할 수 있다. 여기서, 사용자 그룹은 제2 사용자들을 지역, 성, 나이, 및 성적 중 하나 이상으로 구분한 그룹일 수 있다.
또한, 통계 관리부(115)는 각 제2 사용자 단말(106)로부터 수신한 시선 경로 이탈율을 사용자 그룹 별로 통계 처리 할 수 있다. 또한, 통계 관리부(115)는 각 제2 사용자 단말(106)로부터 수신한 시선 백 트래킹 분석 정보를 사용자 그룹 별로 통계 처리할 수 있다. 또한, 통계 관리부(115)는 각 제2 사용자 단말(106)로부터 수신한 시선 히트맵 분석 정보를 사용자 그룹 별로 통계 처리 할 수 있다.
표 1은 본 발명의 일 실시예에 따른 관리 서버(104)에서 시선 관련 분석 정보에 기반하여 통계 처리한 상태를 나타낸 표이다.
제1 사용자 그룹 제2 사용자 그룹 제3 사용자 그룹
시선 경로 일치율 85% 70% 60%
시선 경로 이탈율 10% 20% 30%
시선 백 트래킹 비율 20% 25% 10%
시선 히트맵 비율 90% 60% 40%
여기서, 제1 사용자 그룹은 성적이 상위권에 있는 학생들이고, 제2 사용자 그룹은 성적이 중위권에 있는 학생들이며, 제3 사용자 그룹은 성적이 하위권에 있는 학생들일 수 있다. 표 1을 참조하면, 성적이 우수한 학생 그룹일수록 시선 경로 일치율은 높고, 시선 경로 이탈율은 낮은 것을 볼 수 있다.
그리고, 시선 백 트래킹 비율은 상위권 학생 그룹에서 일정 수준(20%) 나타나고, 하위권 학생 그룹은 그보다 작은 값(10%)으로 나타나 콘텐츠에 대한 피드백 또는 반응이 낮은 것을 볼 수 있다. 중위권 학생 그룹은 시선 백 트래킹 비율이 상위권 학생 그룹보다 높은 값(25%)으로 나타나 콘텐츠에 대한 피드백 또는 반응이 있으나 콘텐츠에 대한 이해도가 상위권 학생 그룹 보다는 떨어지는 것을 볼 수 있다. 또한, 시선 히트맵 비율은 상위권 학생 그룹에서 높게 나타나고 하위권 학생 그룹으로 갈수록 낮게 나타나는 것을 볼 수 있다.
도 7은 본 발명의 일 실시예에 따른 제2 사용자 단말의 구성을 나타낸 블록도이다.
도 7을 참조하면, 제2 사용자 단말(106)은 통신부(121), 시선 추적부(123), 시선 분석부(125), 시선 유도부(127), 및 콘텐츠 재생 제어부(129)를 포함할 수 있다.
일 실시예에서, 통신부(121), 시선 추적부(123), 시선 분석부(125), 시선 유도부(127), 및 콘텐츠 재생 제어부(129)는 물리적으로 구분된 하나 이상의 장치를 이용하여 구현되거나, 하나 이상의 프로세서 또는 하나 이상의 프로세서 및 소프트웨어의 결합에 의해 구현될 수 있으며, 도시된 예와 달리 구체적 동작에 있어 명확히 구분되지 않을 수 있다.
통신부(121)는 통신 네트워크(150)를 통해 관리 서버(104)와 통신을 수행할 수 있다. 통신부(121)는 관리 서버(104)로부터 시선 표시 콘텐츠를 수신할 수 있다. 통신부(121)는 관리 서버(104)로 시선 관련 분석 정보를 송신할 수 있다.
시선 추적부(123)는 제2 사용자 단말(106)의 디스플레이(106a)에서 표시되는 시선 표시 콘텐츠에 대한 제2 사용자(예를 들어, 교육생 또는 학생 등)의 시선을 추적할 수 있다. 즉, 시선 추적부(123)는 시선 표시 콘텐츠가 표시되는 디스플레이(106a) 상에서 제2 사용자의 시선을 추적할 수 있다. 시선 추적부(123)는 제2 사용자 단말(106) 내에 구비된 카메라 및 어플리케이션 등을 통해 구현될 수 있으나, 이에 한정되는 것은 아니며 별도의 장치로 마련되고 제2 사용자 단말(106)에 장착될 수도 있다.
시선 추적부(123)는 시선 표시 콘텐츠가 제2 사용자 단말(106)에서 재생되는 동안 시선 표시 콘텐츠의 재생 시간과 연동하여 제2 사용자의 시선 추적 정보를 생성할 수 있다. 시선 추적부(123)는 시선 표시 콘텐츠가 디스플레이(106a)에 표시되는 경우 디스플레이(106a)의 화면 내 제2 사용자의 시선을 추적하되, 추적된 제2 사용자의 시선에서 사카드(Saccade)를 제외하고 픽세이션(Fixation)을 검출할 수 있다.
시선 분석부(125)는 제2 사용자의 시선 추적 정보에 기반하여 시선 표시 콘텐츠 내 제2 사용자의 시선 위치 정보를 생성할 수 있다. 시선 분석부(125)는 시선 표시 콘텐츠 내 제2 사용자의 시선 위치 정보에 기반하여 제2 사용자의 시선 위치 및 시선 이동 경로 중 하나 이상을 분석할 수 있다. 시선 분석부(125)는 시선 표시 콘텐츠 내 제2 사용자의 시선 위치를 확인하고, 시선 표시 콘텐츠 내 제2 사용자의 시선 위치에 기반하여 시선 표시 콘텐츠 내 제2 사용자의 시선 이동 경로를 확인할 수 있다.
예시적인 실시예에서, 시선 분석부(125)는 시선 표시 콘텐츠 내의 제1 사용자의 시선 위치 정보와 제2 사용자의 시선 위치 정보를 비교하여 시선 관련 분석 정보를 생성할 수 있다.
구체적으로, 시선 분석부(125)는 시선 표시 콘텐츠 내의 제1 사용자의 시선 위치 정보와 제2 사용자의 시선 위치 정보가 일치하는지 또는 불일치 하는지 여부를 확인할 수 있다. 여기서, 제1 사용자의 시선 위치 정보와 제2 사용자의 시선 위치 정보가 일치한다는 것은 두 개의 시선 위치 정보가 정확하게 일치하는 것뿐 아니라, 두 개의 시선 위치 정보가 기 설정된 오차 범위 내에 있는 것도 포함할 수 있다.
시선 분석부(125)는 시선 표시 콘텐츠의 재생 시간 동안 시선 경로 일치율 및 시선 경로 이탈율 중 하나 이상을 분석할 수 있다. 여기서, 시선 경로 일치율은 시선 표시 콘텐츠의 재생 시간 동안 제1 사용자의 시선 위치 정보와 제2 사용자의 시선 위치 정보가 일치하는 구간의 비율을 의미할 수 있다. 시선 경로 이탈율은 시선 표시 콘텐츠의 재생 시간 동안 제1 사용자의 시선 위치 정보와 제2 사용자의 시선 위치 정보가 불일치하는 구간의 비율을 의미할 수 있다. 이때, 제1 사용자의 시선 위치 정보와 제2 사용자의 시선 위치 정보가 불일치 한다는 것은 두 개의 시선 위치 정보가 기 설정된 오차 범위를 벗어나는 것을 의미할 수 있다.
시선 분석부(125)는 시선 표시 콘텐츠의 재생 시간 동안 제1 사용자의 시선 위치 정보와 대비한 제2 사용자의 시선 경로 관련 정보를 생성할 수 있다. 여기서, 제2 사용자의 시선 경로 관련 정보는 제2 사용자의 시선 경로 일치율 및 시선 경로 이탈율 중 하나 이상을 포함할 수 있다.
또한, 시선 분석부(125)는 시선 표시 콘텐츠의 재생 시간 동안 제2 사용자의 시선 백 트래킹을 분석할 수 있다. 여기서, 시선 백 트래킹(eye back tracking)은 제2 사용자의 시선이 시선 표시 콘텐츠에서 제1 사용자의 시선을 따라가는 것이 아니라 제1 사용자의 시선을 거슬러서 제1 사용자의 이전 시선이 위치한 곳을 바라보는 것을 의미할 수 있다. 예를 들어, 제2 사용자가 시선 표시 콘텐츠를 보면서 잘 이해가 되지 않는 부분이 생기거나 다시 되새기려고 하면 그 부분을 다시 바라볼 수 있는데 이러한 경우 시선 백 트래킹이 발생하게 된다.
시선 분석부(125)는 시선 표시 콘텐츠의 재생 시간 동안 제2 사용자의 시선 백 트래킹의 횟수 및 시선 백 트래킹의 비율 중 하나 이상을 확인하여 시선 백 트래킹 분석 정보를 생성할 수 있다.
시선 분석부(125)는 시선 표시 콘텐츠의 재생 시간 동안 제2 사용자에 대한 시선 히트 맵 분석 정보를 생성할 수 있다. 즉, 시선 분석부(125)는 시선 표시 콘텐츠의 재생 시간 동안 제2 사용자가 시선 표시 콘텐츠의 어느 부분을 보고 있는지에 대한 시선 히트 맵 분석 정보를 생성할 수 있다.
시선 분석부(125)는 시선 백 트래킹 분석 정보, 시선 경로 관련 정보, 및 시선 히트 맵 분석 정보 중 하나 이상을 포함하는 시선 관련 분석 정보를 통신부(121)를 통해 관리 서버(104)로 전송할 수 있다.
시선 유도부(127)는 시선 표시 콘텐츠 내에서 제2 사용자의 시선 위치 정보가 제1 사용자의 시선 위치 정보와 일치하도록 제2 사용자의 시선을 유도할 수 있다. 즉, 시선 유도부(127)는 시선 표시 콘텐츠 내에서 제1 사용자의 시선 위치 정보와 제2 사용자의 시선 위치 정보가 일치하지 않는 경우(예를 들어, 제2 사용자의 시선이 화면을 벗어나 있거나 화면 내에 있더라도 제1 사용자의 시선 범위를 벗어난 경우 등), 제2 사용자의 시선 위치 정보가 제1 사용자의 시선 위치 정보와 일치하도록 제2 사용자의 시선을 유도할 수 있다.
예시적인 실시예에서, 시선 유도부(127)는 제2 사용자의 시선을 유도하기 위해 비주얼 큐(Visual Cue)를 제공할 수 있다. 예시적인 실시예에서, 비주얼 큐는 시선 표시 콘텐츠가 표시된 화면에 색상 변화(예를 들어, 기 설정된 화면 일부분의 색상 변화 등)를 주는 것일 수 있다. 또한, 비주얼 큐는 시선 표시 콘텐츠가 표시된 화면이 깜박거리도록 하는 것일 수 있다. 또한, 비주얼 큐는 사운드(예를 들어, "여기에 집중하세요" 또는 "띵"과 같은 사운드 등)와 함께 제공될 수도 있다. 여기서는, 비주얼 큐와 함께 사운드가 제공되는 것으로 설명하였으나, 이에 한정되는 것은 아니며 사운드만 제공될 수도 있다.
시선 유도부(127)는 시선 표시 콘텐츠 내에서 제1 사용자의 마지막 시선 위치를 기준으로 기 설정된 범위 내의 영역에 비주얼 큐를 제공할 수 있다. 예를 들어, 도 8에 도시된 바와 같이, 시선 표시 콘텐츠 내에서 제1 사용자의 마지막 시선 위치(P4)를 기준으로 별표의 이미지가 깜박거리면서 "여기에 집중하세요"와 같은 사운드를 출력하여 비주얼 큐를 제공할 수 있다. 이 경우, 제2 사용자는 제1 사용자가 콘텐츠에서 현재 어느 부분을 강의하는 중인지 쉽게 확인하고, 콘텐츠에 다시 집중할 수 있게 된다.
또한, 시선 유도부(127)는 제2 사용자의 입력 장치(예를 들어, 마우스 등)를 통해 제2 사용자의 시선을 유도할 수도 있다. 예를 들어, 시선 유도부(127)는 제2 사용자의 마우스 진동을 통해 제2 사용자의 시선을 유도할 수 있다.
콘텐츠 재생 제어부(129)는 제2 사용자 단말(106)에서 시선 표시 콘텐츠의 재생을 제어할 수 있다. 콘텐츠 재생 제어부(129)는 제2 사용자의 명령에 따라 관리 서버(104)로부터 수신한 시선 표시 콘텐츠를 재생할 수 있다. 또한, 콘텐츠 재생 제어부(129)는 시선 관련 분석 정보에 기반하여 시선 표시 콘텐츠의 재생 시점을 변경할 수 있다.
예시적인 실시예에서, 콘텐츠 재생 제어부(129)는 시선 표시 콘텐츠의 재생 시간 동안 제2 사용자의 시선 경로 관련 정보에 기반하여 시선 표시 콘텐츠의 재생 시점을 변경할 수 있다. 예를 들어, 콘텐츠 재생 제어부(129)는 시선 표시 콘텐츠에서 제2 사용자의 시선 위치 정보가 제1 사용자의 시선 위치 정보와 불일치 하는 시간이 기 설정된 임계 시간을 초과하는 경우, 콘텐츠 재생 제어부(129)는 제2 사용자의 시선 위치 정보가 제1 사용자의 시선 위치 정보와 불일치 하기 시작한 시점부터 시선 표시 콘텐츠를 다시 재생하도록 제어할 수 있다.
또한, 콘텐츠 재생 제어부(129)는 시선 표시 콘텐츠의 재생 시간 동안 제2 사용자의 시선 백 트래킹 분석 정보에 기반하여 시선 표시 콘텐츠의 재생 시점을 변경할 수 있다. 예를 들어, 콘텐츠 재생 제어부(129)는 제2 사용자가 시선 표시 콘텐츠 내에서 특정 부분으로 기 설정된 임계 횟수(예를 들어, 2회) 이상 시선 백 트래킹을 하는 경우, 제1 사용자의 시선 위치 정보가 제2 사용자의 시선 백 트래킹을 한 부분에 위치하는 시점부터 시선 표시 콘텐츠를 다시 재생하도록 제어할 수 있다.
도 9는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경(10)을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술된 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.
도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 제1 사용자 단말(102)일 수 있다. 또한, 컴퓨팅 장치(12)는 관리 서버(104)일 수 있다. 또한, 컴퓨팅 장치(12)는 제2 사용자 단말(106)일 수 있다.
컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.
컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.
통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.
컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(12)와 연결될 수도 있다.
이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
100 : 시선 기반 콘텐츠 교육 시스템
102 : 제1 사용자 단말
102a : 디스플레이
102b : 시선 추적부
104 : 관리 서버
106 : 제2 사용자 단말
106a : 디스플레이
111 : 통신부
113 : 콘텐츠 생성부
115 : 통계 관리부
121 : 통신부
123 : 시선 추적부
125 : 시선 분석부
127 : 시선 유도부
129 : 콘텐츠 재생 제어부

Claims (19)

  1. 하나 이상의 프로세서들, 및
    상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서,
    제1 사용자의 시선 위치 정보가 콘텐츠에 표시되도록 결합된 시선 표시 콘텐츠를 수신하는 동작;
    상기 시선 표시 콘텐츠에 대한 제2 사용자의 시선을 추적하여 제2 사용자의 시선 추적 정보를 생성하는 동작;
    상기 제2 사용자의 시선 추적 정보에 기반하여 상기 시선 표시 콘텐츠 내 제2 사용자의 시선 위치 정보를 생성하는 동작; 및
    상기 시선 표시 콘텐츠 내 제1 사용자의 시선 위치 정보와 제2 사용자의 시선 위치 정보를 기반으로 시선 관련 분석 정보를 생성하는 동작을 포함하는, 시선 기반 콘텐츠 교육 방법.
  2. 청구항 1에 있어서,
    상기 시선 표시 콘텐츠는,
    상기 콘텐츠 내 제1 사용자의 시선 위치 및 상기 콘텐츠 내 제1 사용자의 시선 이동 경로 중 하나 이상이 상기 콘텐츠에 표시된 것인, 시선 기반 콘텐츠 교육 방법.
  3. 청구항 1에 있어서,
    상기 시선 표시 콘텐츠는, 상기 콘텐츠 내 제1 사용자의 시선 위치에 포인터가 표시되고,
    상기 포인터는, 상기 콘텐츠에서 상기 포인터가 가르치는 지점의 중요도 및 상기 제1 사용자의 시선이 머무는 시간 중 하나 이상에 따라 색상, 모양, 투명도, 크기, 및 자취 중 하나 이상이 조절되는, 시선 기반 콘텐츠 교육 방법.
  4. 청구항 1에 있어서,
    상기 시선 표시 콘텐츠는,
    상기 콘텐츠에서 제1 사용자의 시선 위치에 따라 포커스 영역 및 집중 효과 중 하나 이상이 설정된 것인, 시선 기반 콘텐츠 교육 방법.
  5. 청구항 1에 있어서,
    상기 시선 관련 분석 정보를 생성하는 동작은,
    상기 시선 표시 콘텐츠의 재생 시간 동안 상기 제1 사용자의 시선 위치 정보와 상기 제2 사용자의 시선 위치 정보를 비교하여 시선 경로 일치율 및 시선 경로 이탈율 중 하나 이상을 분석하는 동작을 포함하는, 시선 기반 콘텐츠 교육 방법.
  6. 청구항 1에 있어서,
    상기 시선 관련 분석 정보를 생성하는 동작은,
    상기 시선 표시 콘텐츠의 재생 시간 동안 상기 제2 사용자의 시선 백 트래킹의 횟수 및 시선 백 트래킹의 비율 중 하나 이상을 확인하여 시선 백 트래킹 분석 정보를 생성하는 동작을 포함하는, 시선 기반 콘텐츠 교육 방법.
  7. 청구항 1에 있어서,
    상기 시선 관련 분석 정보는,
    상기 시선 표시 콘텐츠의 재생 시간 동안 상기 제2 사용자의 시선 경로 일치율, 상기 제2 사용자의 시선 히트 맵, 상기 제2 사용자의 시선 경로 이탈율, 상기 제2 사용자의 시선 백 트래킹의 횟수, 및 상기 제2 사용자의 시선 백 트래킹의 비율 중 하나 이상을 포함하고,
    상기 시선 기반 콘텐츠 교육 방법은,
    상기 시선 관련 분석 정보를 관리 서버로 송신하는 동작을 더 포함하는, 시선 기반 콘텐츠 교육 방법.
  8. 청구항 1에 있어서,
    상기 시선 기반 콘텐츠 교육 방법은,
    상기 시선 표시 콘텐츠 내에서 상기 제1 사용자의 시선 위치 정보와 상기 제2 사용자의 시선 위치 정보가 일치하지 않는 경우, 상기 제2 사용자의 시선 위치 정보가 상기 제1 사용자의 시선 위치 정보와 일치하도록 상기 제2 사용자의 시선을 유도하는 동작을 더 포함하는, 시선 기반 콘텐츠 교육 방법.
  9. 청구항 8에 있어서,
    상기 시선을 유도하는 동작은,
    상기 시선 표시 콘텐츠 내에서 상기 제1 사용자의 마지막 시선 위치를 기준으로 기 설정된 범위 내의 영역에 비주얼 큐(Visual Cue)를 제공하는 동작을 포함하는, 시선 기반 콘텐츠 교육 방법.
  10. 청구항 1에 있어서,
    상기 시선 관련 분석 정보는, 상기 시선 표시 콘텐츠의 재생 시간 동안 상기 제2 사용자의 시선 경로 일치율, 상기 제2 사용자의 시선 경로 이탈율, 상기 제2 사용자의 시선 백 트래킹의 횟수, 및 상기 제2 사용자의 시선 백 트래킹의 비율 중 하나 이상을 포함하고,
    상기 시선 기반 콘텐츠 교육 방법은,
    상기 시선 관련 분석 정보에 기반하여 상기 시선 표시 콘텐츠의 재생 시점을 변경하는 동작을 더 포함하는, 시선 기반 콘텐츠 교육 방법.
  11. 청구항 10에 있어서,
    상기 재생 시점을 변경하는 동작은,
    상기 시선 표시 콘텐츠에서 상기 제2 사용자의 시선 위치 정보가 상기 제1 사용자의 시선 위치 정보와 불일치 하는 시간이 기 설정된 임계 시간을 초과하는 경우, 상기 제2 사용자의 시선 위치 정보가 상기 제1 사용자의 시선 위치 정보와 불일치 하기 시작한 시점부터 상기 시선 표시 콘텐츠를 다시 재생하도록 제어하는 동작을 포함하는, 시선 기반 콘텐츠 교육 방법.
  12. 청구항 10에 있어서,
    상기 재생 시점을 변경하는 동작은,
    상기 제2 사용자가 상기 시선 표시 콘텐츠 내에서 특정 부분으로 기 설정된 임계 횟수 이상 시선 백 트래킹을 하는 경우, 상기 시선 표시 콘텐츠 내에서 상기 제1 사용자의 시선 위치 정보가 상기 시선 백 트래킹을 한 부분에 위치하는 시점부터 상기 시선 표시 콘텐츠를 다시 재생하도록 제어하는 동작을 포함하는, 시선 기반 콘텐츠 교육 방법.
  13. 하나 이상의 프로세서들, 및
    상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서,
    제1 사용자 단말로부터 콘텐츠에 대한 제1 사용자의 시선 추적 정보를 수신하는 동작;
    상기 제1 사용자의 시선 추적 정보에 기반하여 상기 콘텐츠에 대한 제1 사용자의 시선 위치 정보를 생성하는 동작;
    상기 콘텐츠와 상기 제1 사용자의 시선 위치 정보를 결합하여 시선 표시 콘텐츠를 생성하는 동작; 및
    상기 시선 표시 콘텐츠를 하나 이상의 제2 사용자 단말로 제공하는 동작을 포함하는, 시선 기반 콘텐츠 교육 방법.
  14. 청구항 13에 있어서,
    상기 시선 표시 콘텐츠는,
    상기 콘텐츠 내 제1 사용자의 시선 위치 및 상기 콘텐츠 내 제1 사용자의 시선 이동 경로 중 하나 이상이 상기 콘텐츠에 표시된 것인, 시선 기반 콘텐츠 교육 방법.
  15. 청구항 13에 있어서,
    상기 시선 표시 콘텐츠는, 상기 콘텐츠 내 제1 사용자의 시선 위치에 포인터가 표시되고,
    상기 포인터는, 상기 콘텐츠에서 상기 포인터가 가르치는 지점의 중요도 및 상기 제1 사용자의 시선이 머무는 시간 중 하나 이상에 따라 색상, 모양, 투명도, 크기, 및 자취 중 하나 이상이 조절되는, 시선 기반 콘텐츠 교육 방법.
  16. 청구항 13에 있어서,
    상기 시선 표시 콘텐츠는,
    상기 콘텐츠에서 제1 사용자의 시선 위치에 따라 포커스 영역 및 집중 효과 중 하나 이상이 설정된 것인, 시선 기반 콘텐츠 교육 방법.
  17. 청구항 13에 있어서,
    상기 시선 기반 콘텐츠 교육 방법은,
    상기 제2 사용자 단말로부터 시선 관련 분석 정보를 수신하는 동작을 더 포함하고,
    상기 시선 관련 분석 정보는, 상기 시선 표시 콘텐츠 내 제1 사용자의 시선 위치 정보와 제2 사용자의 시선 위치 정보를 기반으로 생성되는, 시선 기반 콘텐츠 교육 방법.
  18. 청구항 17에 있어서,
    상기 시선 관련 분석 정보는, 상기 시선 표시 콘텐츠의 재생 시간 동안 상기 제2 사용자의 시선 경로 일치율, 상기 제2 사용자의 시선 경로 이탈율, 상기 제2 사용자의 시선 히트 맵, 상기 제2 사용자의 시선 백 트래킹의 횟수, 및 상기 제2 사용자의 시선 백 트래킹의 비율 중 하나 이상을 포함하고,
    상기 시선 기반 콘텐츠 교육 방법은,
    상기 시선 관련 분석 정보를 지역별, 성별, 나이별, 및 성적 별 중 하나 이상에 대해 통계 처리를 수행하는 동작을 더 포함하는, 시선 기반 콘텐츠 교육 방법.
  19. 제1 사용자가 강의를 진행하고자 하는 콘텐츠를 화면에 표시하고, 상기 화면에 표시된 콘텐츠에 대한 상기 제1 사용자의 시선을 추적하여 상기 콘텐츠에 대한 제1 사용자의 시선 추적 정보를 생성하는 제1 사용자 단말;
    상기 제1 사용자 단말로부터 상기 콘텐츠에 대한 제1 사용자의 시선 추적 정보를 수신하고, 상기 제1 사용자의 시선 추적 정보에 기반하여 상기 콘텐츠에 대한 제1 사용자의 시선 위치 정보를 생성하고, 상기 콘텐츠와 상기 제1 사용자의 시선 위치 정보를 결합하여 시선 표시 콘텐츠를 생성하는 관리 서버; 및
    상기 관리 서버로부터 상기 시선 표시 콘텐츠를 수신하고, 수신한 상기 시선 표시 콘텐츠를 화면에 표시하는 하나 이상의 제2 사용자 단말을 포함하는, 시선 기반 콘텐츠 교육 시스템.
KR1020200124678A 2020-09-25 2020-09-25 객체 인식을 이용한 시선 기반 콘텐츠 교육 방법 및 이를 수행하기 위한 시스템 KR20220041458A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200124678A KR20220041458A (ko) 2020-09-25 2020-09-25 객체 인식을 이용한 시선 기반 콘텐츠 교육 방법 및 이를 수행하기 위한 시스템
PCT/KR2020/015257 WO2022065575A1 (ko) 2020-09-25 2020-11-04 객체 인식을 이용한 시선 기반 콘텐츠 교육 방법 및 이를 수행하기 위한 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200124678A KR20220041458A (ko) 2020-09-25 2020-09-25 객체 인식을 이용한 시선 기반 콘텐츠 교육 방법 및 이를 수행하기 위한 시스템

Publications (1)

Publication Number Publication Date
KR20220041458A true KR20220041458A (ko) 2022-04-01

Family

ID=80845584

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200124678A KR20220041458A (ko) 2020-09-25 2020-09-25 객체 인식을 이용한 시선 기반 콘텐츠 교육 방법 및 이를 수행하기 위한 시스템

Country Status (2)

Country Link
KR (1) KR20220041458A (ko)
WO (1) WO2022065575A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240025807A (ko) * 2022-08-19 2024-02-27 서울과학기술대학교 산학협력단 온라인 학습을 위한 시선정보 시각화 방법 및 온라인 학습 상호작용 시스템

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4421614A1 (en) * 2023-02-27 2024-08-28 Bayerische Motoren Werke Aktiengesellschaft Data processing device and method for providing a video to a passenger of a vehicle

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101615171B1 (ko) 2014-01-22 2016-05-12 단국대학교 산학협력단 증강현실을 기반으로 한 협업적 교육콘텐츠 제공 시스템 및 제공 서비스 방법

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102007749B1 (ko) * 2012-08-29 2019-08-06 삼성전자주식회사 단말에서의 화면 녹화 방법 및 장치와 그 방법에 대한 프로그램 소스를 저장한 기록 매체
KR101563312B1 (ko) * 2013-06-18 2015-10-26 장현철 시선 기반 교육 콘텐츠 실행 시스템
KR20170029725A (ko) * 2015-09-07 2017-03-16 주식회사 다림비젼 영상 합성을 이용한 강의 영상 생성 방법 및 그 장치
KR20170092167A (ko) * 2016-02-02 2017-08-11 한국전자통신연구원 시선 추적을 이용한 제어 장치
KR20180107576A (ko) * 2017-03-22 2018-10-02 이화여자대학교 산학협력단 학습 동영상을 시청하는 학습자의 시각 행동을 이용한 학업 성취 예측 방법 및 학업 성취 예측 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101615171B1 (ko) 2014-01-22 2016-05-12 단국대학교 산학협력단 증강현실을 기반으로 한 협업적 교육콘텐츠 제공 시스템 및 제공 서비스 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240025807A (ko) * 2022-08-19 2024-02-27 서울과학기술대학교 산학협력단 온라인 학습을 위한 시선정보 시각화 방법 및 온라인 학습 상호작용 시스템

Also Published As

Publication number Publication date
WO2022065575A1 (ko) 2022-03-31

Similar Documents

Publication Publication Date Title
US10515561B1 (en) Video presentation, digital compositing, and streaming techniques implemented via a computer network
US20210343171A1 (en) Systems and methods for monitoring learner engagement during a learning event
KR102341752B1 (ko) 메타버스에서 아바타를 이용한 강의 보조 방법 및 그 장치
CN111949822A (zh) 一种基于云计算和移动终端的智能教育视频服务系统及其运行方法
US10540906B1 (en) Dynamic filtering and tagging functionality implemented in collaborative, social online education networks
US20190066525A1 (en) Assessment-based measurable progress learning system
US20190114937A1 (en) Grouping users by problematic objectives
KR101215942B1 (ko) 교실수업 환경에서 스마트 단말기를 이용한 강사와 학습자들의 쌍방향 상호참여형 수업을 제공하는 학습 시스템 및 그 동작방법
US20160111018A1 (en) Method and system for facilitating learning of a programming language
KR102438587B1 (ko) 학습자의 응답신호를 반영한 참여형 콘텐츠의 리플레이가 가능한 방법
US10541884B2 (en) Simulating a user score from input objectives
KR20220041458A (ko) 객체 인식을 이용한 시선 기반 콘텐츠 교육 방법 및 이를 수행하기 위한 시스템
Zarraonandia et al. Augmented presentations: Supporting the communication in presentations by means of augmented reality
KR20150110449A (ko) 학습 관리 서버 및 학습 관리 방법
KR102526989B1 (ko) 증강 현실을 이용한 비대면 영어 교육 시스템
US20120045745A1 (en) Remote class service system
US10009568B1 (en) Displaying the simulated gazes of multiple remote participants to participants collocated in a meeting space
KR20160020924A (ko) 멀티미디어 학습 평가 시스템
US20180314966A1 (en) System and method for automated bayesian network-based intervention delivery
US10264037B2 (en) Classroom messaging
Thanyadit et al. Tutor In-sight: Guiding and Visualizing Students’ Attention with Mixed Reality Avatar Presentation Tools
Robotham et al. Online vs. offline multiple stimulus audio quality evaluation for virtual reality
Nakanishi et al. Sensitizing social agents for virtual training
Haider et al. Data collection and synchronisation: Towards a multiperspective multimodal dialogue system with metacognitive abilities
US11775606B2 (en) Inter-browser presentation control

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X601 Decision of rejection after re-examination