KR20230078547A - 얼굴 검출 기술을 이용한 학습 관리 방법 및 장치 - Google Patents

얼굴 검출 기술을 이용한 학습 관리 방법 및 장치 Download PDF

Info

Publication number
KR20230078547A
KR20230078547A KR1020220158572A KR20220158572A KR20230078547A KR 20230078547 A KR20230078547 A KR 20230078547A KR 1020220158572 A KR1020220158572 A KR 1020220158572A KR 20220158572 A KR20220158572 A KR 20220158572A KR 20230078547 A KR20230078547 A KR 20230078547A
Authority
KR
South Korea
Prior art keywords
learner
face
image
learning
degree
Prior art date
Application number
KR1020220158572A
Other languages
English (en)
Inventor
진상현
강원석
손창식
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Publication of KR20230078547A publication Critical patent/KR20230078547A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3438Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment monitoring of user actions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Resources & Organizations (AREA)
  • Quality & Reliability (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Computer Hardware Design (AREA)
  • Image Analysis (AREA)

Abstract

본 개시는 얼굴 검출 기술 기반으로 학습자의 집중도를 분석하고, 집중도에 따라 맞춤형 학습 콘텐츠를 제공하는, 얼굴 검출 기술을 이용한 학습 관리 방법 및 장치에 관한 것이다.

Description

얼굴 검출 기술을 이용한 학습 관리 방법 및 장치{METHOD AND APPARATUS FOR LEARNING MANAGEMENT USING FACE DETECTION TECHNOLOGY}
본 개시는 얼굴 검출 기술 기반으로 학습자의 집중도를 분석하고, 집중도에 따라 맞춤형 학습 콘텐츠를 제공하는, 얼굴 검출 기술을 이용한 학습 관리 방법 및 장치에 관한 것이다.
발달장애(developmental disabilities)는 아동의 정상적인 발달이 지연 또는 지체되는 것을 말하며 정신적, 신체적 결함으로 인하여 22세 이전에 나타나고 평생 지속될 수 있는 질병이다.
발달장애 아동의 증가는 장애 아동이 상호작용하는 가족 및 사회 체제에도 큰 영향을 끼치므로 발달장애 아동에 대한 교육은 국가나 사회의 적극적인 지원이나 관심이 필요하다. 발달장애 아동의 치료는 대부분 치료사와 1:1로 이루어져야 하나, 비용과 시간, 공간적인 측면에서 상당한 제약이 있으며, 전문지식을 갖춘 특수교사가 부족하여 현실적으로 큰 문제
가 된다.
발달장애 아동은 주의를 집중하는 것이 힘들고, 주의집중을 하더라도 지속시간이 짧다. 이 때문에 활동적, 감각적인 자극을 통해 필요한 자극에 집중하고 이에 따른 성취감을 갖도록 하는 것이 좋다. 또한 발달 장애 아동은 학습속도가 느리고 기억의 폭이 좁기 때문에 반복 학습을 통하여 의
미 있는 경험을 갖도록 하며 동일한 학습에 변화를 주어 다양하게 학습하도록 하는 것이 필요하다.
이들을 위한 치료의 목적으로 개발된 게임은 기능성 게임으로 분류되고, 특정한 목적을 달성하기 위하여 기존 온라인 게임과는 다른 임상적 근거와 대상자의 장애를 고려한 사용성 등과 같은 기술이 적용되고 있다.
기능성 게임에서 가장 많은 비중을 차지하는 분야는 학습, 훈련 등과 같은 온라인 기반의 콘텐츠들이다. 최근에는 장애학습 분야 외에도, 국방, 의료, 복지 분야에서도 활발하게 온라인 기반의 콘텐츠들이 개발되고 있다.
특히, 발달장애 아동은 집중이 어렵고 지속시간이 짧은데도 불구하고, 아직까지도 온라인 기반의 콘텐츠는 주로 일방향으로 제공되기 때문에 학습자를 모니터링하며 학습자의 집중 상태에 따라 실시간으로 맞춤형 콘텐츠를 제공하는 기술이 부족하다.
선행기술: 한국등록특허공보 10-1766347호(2016.12.07. 공개)
본 개시의 일 실시 예는 얼굴 검출 기술 기반으로 학습자의 집중도를 분석하고, 집중도에 따라 맞춤형 학습 콘텐츠를 제공하는 얼굴 검출 기술을 이용한 학습 관리 방법 및 장치를 제공한다.
본 개시의 다른 실시 예는 얼굴영역의 움직임 정도를 계산하여 콘텐츠에 대한 학습자의 집중도를 계산하는 방법을 제공한다.
본 개시의 일 실시 예는 학습 콘텐츠를 제공하는 단계; 학습자 단말의 카메라를 통해 촬영된 학습자의 영상에서 얼굴을 인식하여 얼굴 영역을 검출하는 단계; 상기 얼굴 영역의 중심 위치를 결정하는 단계; 상기 얼굴의 움직임에 따라 상기 중심 위치의 이동을 추적하는 단계; 및 기 설정된 시간 동안 발생한 상기 얼굴 영역의 상기 중심 위치의 움직임 정도에 기반하여 상기 학습자의 집중도를 결정하는 단계를 포함하는 얼굴 검출 기술을 이용한 학습 관리 방법을 제공한다.
본 개시의 다른 실시 예는 프로세서; 학습 콘텐츠를 저장하는 데이터베이스부; 및 상기 프로세서와 전기적으로 연결되고, 상기 프로세서에서 수행되는 적어도 하나의 코드(code)가 저장되는 메모리를 포함하고, 상기 프로세서는, 학습 콘텐츠를 제공하는 동작, 학습자 단말의 카메라를 통해 촬영된 학습자의 영상에서 얼굴을 인식하여 얼굴 영역을 검출하는 동작, 상기 얼굴 영역의 중심 위치를 결정하는 동작, 상기 얼굴의 움직임에 따라 상기 중심 위치의 이동을 추적하는 동작, 기 설정된 시간 동안 발생한 상기 얼굴 영역의 상기 중심 위치의 움직임 정도에 기반하여 상기 학습자의 집중도를 결정하는 중 적어도 하나를 실행하는 동작 중 적어도 하나를 실행하는, 얼굴 검출 기술을 이용한 학습 관리 장치를 제공한다.
본 개시의 실시 예에 따른 얼굴 검출 기술을 이용한 학습 관리 방법 및 장치는 얼굴 검출 기술 기반으로 콘텐츠를 학습하는 학습자의 집중도를 실시간으로 분석할 수 있다.
본 개시의 실시 예에 따른 얼굴 검출 기술을 이용한 학습 관리 방법은, 실시간으로 학습자의 집중도를 상승시키기 위해 학습 콘텐츠를 변경하거나, 학습 효율 향상을 위해 학습 콘텐츠 출력 유지 여부를 결정함으로써, 학습자의 상태에 따라 적응적으로 맞춤형 학습 콘텐츠를 제공해줄 수 있다.
본 개시의 실시 예에 따른 얼굴 검출 기술을 이용한 학습 관리 방법은, 얼굴 영역의 움직임 정도와 눈 영역의 변화를 고려하여, 학습자의 콘텐츠 학습에의 집중도를 섬세하게 관찰할 수 있다.
도 1은 본 개시의 일 실시 예에 따른 얼굴 검출 기술을 이용한 학습 관리 시스템의 개념도이다.
도 2는 본 개시의 일 실시 예에 따른 얼굴 검출 기술을 이용한 학습 관리 장치의 구성을 도시하는 블록도이다.
도 3은 본 개시의 일 실시 예에 따른 학습 관리 서비스를 이용하는 학습자 단말의 구성을 도시하는 블록도이다.
도 4는 본 개시의 일 실시 예에 따른 얼굴 검출 기술 기반 학습 관리 장치의 운용 방법을 설명하기 위한 순서도이다.
도 5는 학습자가 학습자 단말을 통해 학습 콘텐츠를 시청하고, 카메라가 학습자의 영상을 촬영하는 모습을 도시하는 예시도이다.
도 6은 학습 콘텐츠 출력 시, 검출된 얼굴 영역의 일 예를 도시한다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
도 1은 본 개시의 일 실시 예에 따른 얼굴 검출 기술을 이용한 학습 관리 시스템의 개념도이다.
도 1을 참조하면, 본 개시의 일 실시 예에 따른 얼굴 검출 기술을 이용한 학습 관리 시스템은 학습 관리 장치(100) 및 다수의 학습자 단말(200)을 포함할 수 있다.
학습 관리 장치(100)는 서버를 이용하여 서비스를 제공하는 자 내지 단체가 보유한 자체 서버일 수도 있고, 클라우드 서버일 수도 있으며, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 학습 관리 장치(100)는 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다.
학습 관리 장치(100)는 다수의 학습자 단말(200)과 통신하도록 구성될 수 있으며, 학습자 단말(200)에 학습을 위한 콘텐츠를 제공하고, 학습자 단말(200)의 화면의 어느 정보를 표시할 것인지에 대해 제어할 수 있고, 학습자 단말(200)의 전체적인 동작을 제어할 수 있다.
학습 관리 장치(100)는 본 발명에 따른 얼굴 검출 기술을 이용한 학습 관리 서비스 제공을 위해 학습자 단말(200)의 콘텐츠 학습 가이드 앱 실행을 통해 학습자가 입력하는 학습 콘텐츠 요청 정보, 실행 요청 정보, 종료 요청 정보 등을 획득할 수 있고, 특히 학습자 단말(200)에 학습 콘텐츠가 실행되는 동안 학습자 단말(200)에 탑재된 카메라 또는 학습자 모습을 촬영하는 분리된 장치(미도시)로부터 학습자 촬영 영상을 획득할 수 있다.
이를 위해 일 실시예로 먼저, 학습자 단말(200)은 본 개시의 학습 관리 서비스 이용을 위해 전용 애플리케이션을 다운로드 받고 설치할 수 있고 또는, 학습 관리 장치(100)에서 운영하는 웹 페이지에 접속하여 학습 관리 서비스를 이용할 수 있다.
전용 애플리케이션을 통해 학습자 단말(200)은 학습 관리 장치(100)의 클라이언트로 기능할 수 있다.
다수의 학습자 단말(200)은 스마트폰(200a), 노트북(200b), 학습자 단말기(200c), PC 등일 수 있고, 네트워크를 통해 학습 관리 장치(100)와 연결되어 데이터를 송수신할 수 있는 장치라면 모두 채용 가능하다.
도 2를 참조하여 본 개시의 일 실시 예에 따른 얼굴 검출 기술을 이용한 학습 관리 장치의 구성을 설명한다.
학습 관리 장치(100)는 학습자 단말(200)과 데이터 송수신을 위한 통신부(110)를 포함할 수 있다.
통신부(110)는 무선 통신부 또는 유선 통신부인 통신 모듈(111)을 포함할 수 있다.
무선 통신부는, 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈, 위치정보 모듈 중 적어도 하나를 포함할 수 있다.
이동통신 모듈은, 이동통신을 위한 통신방식인 LTE(Long Term Evolution) 등에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다.
무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈로서, 학습 관리 장치(100)에 내장되거나 외장될 수 있고, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance) 등이 사용될 수 있다.
근거리 통신 모듈은 근거리 통신을 통하여 데이터 송수신을 위한 모듈로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication) 등을 사용할 수 있다.
학습 관리 장치(100)는 학습 콘텐츠를 학습자 단말(200)의 화면에 출력하는 중에 카메라를 통해 학습자 영상을 촬영하고, 학습자의 영상에서 얼굴을 인식하여 얼굴 영역을 검출하고, 얼굴 영역의 중심 위치를 결정하여, 얼굴의 움직임에 따라 중심 위치의 이동을 추적하고, 기 설정된 시간 동안 발생한 얼굴 영역의 중심 위치의 움직임 정도에 기반하여 학습자의 집중도를 결정할 수 있다. 이를 수행하는 프로세서(160)의 구체적인 동작에 대해서는 도 4를 참조하여 후술하기로 한다.
저장부(150)는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 저장부(150)는 저장 매체로서 HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등에 기반할 수 있다.
메모리(130)는 프로세서(180)로 하여금 프로세서(180)가 학습자 단말(200)로부터 학습자 촬영 영상의 분석을 통해 학습자의 집중도를 산출하도록 야기하는 코드를 저장할 수 있다.
또한, 메모리(130)는 학습 관리 장치(100)에서 학습된 모델을 저장할 수 있다. 메모리(130)는 입력 데이터, 모델 학습을 위하여 이용되는 학습 데이터(또는 훈련 데이터), 모델의 학습 히스토리 등을 저장할 수 있다. 여기서, 메모리(130)에 저장된 입력 데이터는 모델 학습에 적합하게 가공된 데이터뿐만 아니라, 가공되지 않은 입력 데이터 그 자체일 수 있다.
메모리(130)는 모델 저장부(131) 및 데이터베이스(132) 등을 포함할 수 있다. 모델 저장부(131)는 학습중인 또는 학습된 신경망(또는 인공 신경망, 131a)을 저장하며, 학습을 통하여 모델이 업데이트되면 업데이트된 모델을 저장한다. 이때, 모델 저장부(131)는 필요에 따라 학습된 모델을 학습 시점 또는 학습 진척도 등에 따라 복수의 버전으로 구분하여 저장할 수 있다.
도 2에 도시된 인공 신경망(131a)은 복수의 은닉층을 포함하는 인공 신경망의 하나의 예시일 뿐이며, 본 발명의 인공 신경망이 이에 한정되는 것은 아니다.
인공 신경망(131a)은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다. 인공 신경망(131a)의 일부 또는 전부가 소프트웨어로 구현되는 경우, 인공 신경망(131a)을 구성하는 하나 이상의 명령어는 메모리(130)에 저장될 수 있다.
데이터베이스(132)는 입력부(120)에서 획득한 입력 데이터, 모델 학습을 위하여 이용되는 학습 데이터(또는 훈련 데이터), 모델의 학습 히스토리 등을 저장할 수 있다.
데이터베이스(132)에 저장된 입력 데이터는 모델 학습에 적합하게 가공된 데이터뿐만 아니라, 가공되지 않은 입력 데이터 그 자체일 수 있다.
본 명세서에서는 학습 데이터를 이용하여 학습됨으로써 파라미터가 결정된 인공 신경망을 학습 모델 또는 학습된 모델이라 칭할 수 있다.
이때, 학습 모델은 인공 신경망의 학습 장치(100)에 탑재된 상태에서 결과 값을 추론할 수도 있으며, 통신부(110)를 통해 단말기 또는 외부 장치와 같은 다른 장치에 전송되어 탑재될 수도 있다.
또한, 학습 모델이 업데이트되는 경우, 업데이트된 학습 모델은 통신부(110)를 통해 단말기 또는 외부 장치와 같은 다른 장치에 전송되어 탑재될 수 있다.
또한, 학습 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있다.
프로세서(160)는 데이터 분석 및 기계 학습 알고리즘을 사용하여 결정되거나, 생성된 정보에 기초하여 학습 관리 장치(100)의 적어도 하나의 실행 가능한 동작을 결정 또는 예측할 수 있다. 이를 위해, 프로세서(160)는 다른 부로 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 상기 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 학습 관리 장치(100)를 제어할 수 있다.
프로세서(160)는 지능적 에뮬레이션(즉, 지식 기반 시스템, 추론 시스템 및 지식 획득 시스템)을 구현하는 다양한 기능을 수행할 수 있다. 이는 적응 시스템, 기계 학습 시스템, 인공신경망 등을 포함하는, 다양한 유형의 시스템(예컨대, 퍼지 논리 시스템)에 적용될 수 있다.
프로세서(160)는 또한 I/O 처리 모듈, 환경 조건 모듈, 음성-텍스트(STT)처리 모듈, 자연어 처리 모듈, 작업 흐름 처리 모듈 및 서비스 처리 모듈과 같이, 음성 및 자연 언어 음성 처리를 수반하는 연산을 가능하게 하는 서브 모듈을 포함할 수 있다.
이들 서브 모듈들 각각은, 단말기에서의 하나 이상의 시스템 또는 데이터 및 모델, 또는 이들의 서브셋 또는 수퍼 셋에 대한 액세스를 가질 수 있다. 또한, 이들 서브 모듈들 각각은, 어휘 색인, 사용자 데이터, 작업 흐름 모델, 서비스 모델 및 자동 음성 인식(ASR) 시스템을 비롯한 다양한 기능을 제공할 수 있다.
다른 실시예에서, 프로세서(160) 또는 학습 관리 장치(100)의 다른 양태는 서브 모듈, 시스템, 또는 데이터 및 모델로 구현될 수 있다.
일부 예에서, 데이터에 기초하여 프로세서(160)는 사용자 입력 또는 자연 언어 입력으로 표현된 문맥 조건 또는 사용자의 의도에 기초하여 요구 사항을 검출하고 감지하도록 구성될 수 있다.
프로세서(160)는 문맥 조건 또는 사용자의 의도에 기초하여 요구 사항을 완전히 결정하는데 필요한 정보를 능동적으로 이끌어 내고, 획득할 수 있다. 예를 들어, 프로세서(160)는 역사적 입력 및 출력, 패턴 매칭, 모호하지 않은 단어, 입력 의도 등을 포함하는 과거 데이터를 분석함으로써 요구 사항을 결정하는데 필요한 정보를 능동적으로 이끌어 낼 수 있다.
프로세서(160)는 문맥 조건 또는 사용자의 의도에 기초하여 요구 사항에 응답하는 기능을 실행하기 위한 태스크 흐름을 결정할 수 있다.
프로세서(160)는 프로세싱 및 저장을 위한 정보를 수집하기 위해, 단말기에서 하나 이상의 감지 컴포넌트를 통해 분석 및 기계 학습 작업에 사용되는 신호 또는 데이터를 수집, 감지, 추출, 검출 및/또는 수신하도록 구성될 수 있다.
정보 수집은 센서를 통해 정보를 감지하는 것, 메모리(130)에 저장된 정보를 추출하는 것 또는 통신 수단을 통해 외부 단말기, 엔티티 또는 외부 저장 장치로부터 정보를 수신하는 것을 포함할 수 있다.
프로세서(160)는 학습 관리 장치(100)에서 사용 히스토리 정보를 수집하여 메모리(130)에 저장할 수 있다.
프로세서(160)는 저장된 사용 히스토리 정보 및 예측 모델링을 사용하여 특정 기능을 실행하기 위한 최상의 매치를 결정할 수 있다.
프로세서(160)는 입력부로부터 이미지 정보(또는 해당 신호), 오디오 정보(또는 해당 신호), 데이터 또는 사용자 입력 정보를 수신할 수 있다.
프로세서(160)는 정보를 실시간으로 수집하고, 정보(예를 들어, 지식 그래프, 명령 정책, 개인화 데이터베이스, 대화 엔진 등)를 처리 또는 분류하고, 처리된 정보를 메모리(130)에 저장할 수 있다.
학습 관리 장치(100)의 동작이 데이터 분석 및 기계 학습 알고리즘 및 기술에 기초하여 결정될 때, 프로세서(160)는 결정된 동작을 실행하기 위해 학습 관리 장치(100)의 구성 요소를 제어할 수 있다. 그리고, 프로세서(160)는 제어 명령에 따라 학습 관리 장치(100)를 제어하여 결정된 동작을 수행할 수 있다.
프로세서(160)는 특정 동작이 수행되는 경우, 데이터 분석 및 기계 학습 알고리즘 및 기법을 통해 특정 동작의 실행을 나타내는 이력 정보를 분석하고, 분석된 정보에 기초하여 이전에 학습한 정보의 업데이트를 수행할 수 있다.
따라서, 프로세서(160)는 업데이트 된 정보에 기초하여 데이터 분석 및 기계 학습 알고리즘 및 기법의 미래 성능의 정확성을 향상시킬 수 있다.
전원 공급부(150)는 프로세서(160)의 제어 하에서, 외부의 전원, 내부의 전원을 인가받아 학습 관리 장치(100)에 포함된 각 구성요소들에 전원을 공급하기 위한 장치를 포함한다.
또한, 이러한 전원공급부(150)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체 가능한 형태의 배터리가 될 수 있다.
도 3를 참조하여 본 개시의 일 실시 예에 따른 학습 관리 서비스를 이용하는 학습자 단말(200)의 구성을 설명한다. 학습 관리 장치(100)와 유사한 구성은 자세한 설명을 생략한다.
학습자 단말(200)은 학습 관리 장치(100)와 데이터 전송을 위한 통신부(210) 및 통신 모듈(211)을 포함할 수 있다.
일 실시 예에서, 학습자 단말(200)은 사용자의 입력을 위한 입력부 또는 출력부를 포함하는 인터페이스부(220)를 포함할 수 있다.
입력부는 마이크로폰, 사용자로부터 정보를 입력 받기 위한 터치 인터페이스를 포함하는 사용자 인터페이스(UI: User Interface)를 포함하고, 사용자 인터페이스는 마우스, 키보드뿐만 아니라 장치에 구현된 기계식, 전자식 인터페이스 등을 포함할 수 있고 사용자의 명령을 입력 가능한 것이라면 특별히 그 방식과 형태를 한정하지 않는다. 전자식 인터페이스는 터치 입력 가능한 디스플레이(222)를 포함한다.
출력부는 학습자 단말(200)의 출력을 외부에 표출하여 사용자에게 정보를 전달하기 위한 것으로서, 시각적 출력, 청각적 출력 또는 촉각적 출력을 표출하기 위한 디스플레이, LED, 스피커 등을 포함할 수 있다.
학습자 단말(200)은 다양한 종류의 연결된 외부 기기와의 데이터 전송을 위한 주변 장치 인터페이스부를 포함할 수 있고, 메모리 카드(memory card) 포트, 외부 장치 I/O(Input/Output) 포트(port) 등을 포함할 수 있다.
일 실시 예에서, 학습자 단말(200)은 학습 관리 서비스에 포함된 학습자 집중도 파악을 위하여 카메라, 이미지 센서 중 적어도 하나를 포함하는 카메라부(250)를 포함할 수 있다. 학습자 단말(200a)은 카메라부(250)에서 촬영된 학습자 영상을 학습 관리 장치(100)로 전송할 수 있다.
일 실시 예에서, 학습자 단말(200)은 학습 관리 장치(100)로부터 제공된 학습 콘텐츠의 실행을 디스플레이, LED 및 스피커 등을 통해 출력할 수 있다.
일 실시 예에서, 학습자 단말(200)은 학습 관리 인터페이스부(240)를 통해 학습 콘텐츠로서 머신 러닝 기반의 학습 모델에 데이터(예를 들어, 카메라부(250)에서 촬영한 학습자의 학습 영상일 수 있음)를 입력하여, 그 출력에 따른 맞춤형 학습 콘텐츠를 제공받을 수 있다. 도 5는 학습자가 학습자 단말(200)을 통해 학습 콘텐츠를 시청하고, 카메라(250)가 학습자의 영상을 촬영하는 모습의 일 예를 도시한다.
머신 러닝 기반의 학습 모델은 학습 모델은 CNN 또는 R-CNN(Region based CNN), C-RNN(Convolutional Recursive Neural Network), Fast R-CNN, Faster R-CNN, R-FCN(Region based Fully Convolutional Network), YOLO(You Only Look Once) 또는 SSD(Single Shot Multibox Detector)구조의 신경망을 포함할 수 있다.
학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있으며, 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어는 메모리에 저장될 수 있다.
도 4를 참조하여 본 개시의 일 실시 예에 따른 얼굴 검출 기술 기반 학습 관리 장치의 운용 방법을 설명한다. 아래의 실시 예는 학습 관리 장치가 서버에서 구현되는 것을 전제로 하여 설명하지만, 학습 관리 장치는 학습자 단말에서 구현되는 것을 배제하지 않는다.
먼저, 얼굴 검출 기술 기반 학습 관리 장치는 학습 콘텐츠를 학습자 단말의 화면에 출력하도록 학습자 단말에 콘텐츠를 제공하고(S110), 학습자 단말의 카메라를 통해 학습자의 영상을 촬영하고, 상기 학습자의 영상에서 얼굴을 인식하여 얼굴 영역을 검출할 수 있다(S120).
여기서, 카메라를 통해 다수의 얼굴들이 검출되는 경우, 각 얼굴 영역의 크기 또는 얼굴의 위치를 기반으로 학습자를 결정할 수 있다. 일 예로, 카메라를 통해 여러 사람의 얼굴이 검출되는 경우, 얼굴이 가장 크거나 영상의 가장 중심에 가까운 사람을 학습자로 결정할 수 있다.
일 실시 예로, 제1 위치에 있는 영상의 제1 윈도우 내에서 얼굴 검출을 수행할 수 있다.
추가 실시 예로, 영상에서 얼굴 영역을 검출하고, 검출된 영역에 대한 얼굴 레코드를 생성하여, 얼굴 레코드를 이용하여 영상 내 얼굴과 눈의 좌표를 생성하여 얼굴을 검출할 수 있다.
여기서, 얼굴 레코드는 영상을 NxN화소 크기의 윈도우로 분할하고, 각 윈도우로부터 얼굴 영역을 검출하며, 얼굴영역에서 눈 위치를 검출하고, 검출된 눈 위치에 대한 눈 좌표를 중심으로 각 윈도우에 대해 일정 크기로 정규화를 수행하여, 정규화된 윈도우에서 얼굴 검증을 수행하고, 얼굴 검증된 윈도우 내 얼굴에 대한 얼굴 레코드를 생성할 수 있다.
즉, 각 윈도우 영상에서 얼굴이 존재하는지 검사하여 얼굴 영역을 검출하고, 눈의 좌표를 검출한 후, 해당 영상을 눈 위치를 기준으로 일정 크기로 정규화하여 얼굴의 중심좌표, 눈의 좌표, 얼굴 크기 등의 얼굴 레코드를 생성할 수 있다.
이때, 얼굴 레코드에 대해 클러스터링(clustering) 기법을 통해 얼굴 후보군과 눈 후보군으로 분류한 후, 얼굴 후보군과 눈 후보군으로부터 얼굴 영역에 대한 평균좌표와 눈 위치에 대한 평균좌표 산출을 통해 얼굴 중심좌표와 눈 좌표를 산출할 수 있다.
아울러, 프로세서(160)는 영상에서 얼굴 영역 및/또는 얼굴 내의 눈, 코, 입 등을 검출하기 위해 기계 학습 방식 또는 딥 러닝 기반의 학습 모델을 사용할 수 있다. 딥 러닝 기반의 학습 모델은 CNN(Convolution Neural Network), R-CNN(Region based CNN), C-RNN(Convolutional Recursive Neural Network), Fast R-CNN, Faster R-CNN, R-FCN(Region based Fully Convolutional Network), YOLO(You Only Look Once), SSD(Single Shot Multibox Detector)구조의 신경망 중 적어도 하나일 수 있다.
다음으로, 얼굴 영역의 중심 위치를 결정할 수 있다(S130).
일 실시 예로, 전술한 방법으로 산출된 눈 좌표의 중심좌표를 이용하거나, 얼굴 영역을 포함하는 바운딩 박스(bounding box)의 중심 좌표를 이용하여 얼굴 영역의 중심위치를 선정할 수 있다.
다음으로, 학습자 얼굴의 움직임에 따라 상기 중심 위치의 이동을 추적할 수 있다(S140).
다음으로, 기 설정된 시간 동안 발생한 상기 얼굴 영역의 상기 중심 위치의 움직임 정도에 기반하여 상기 학습자의 집중도를 결정할 수 있다(S150). 도 6은 학습 콘텐츠 출력 시, 검출된 얼굴 영역의 일 예를 도시한다.
이때, 상기 중심 위치의 움직임 정도를 상기 얼굴 영역의 크기를 기반으로 보정할 수 있고, 상기 중심 위치의 움직임 정도를 상기 영상의 크기(해상도)를 기반으로 보정할 수 있다. 즉, 영상의 해상도나 학습자의 얼굴 영역의 크기로 인하여 중심 위치가 과도하게 이동하거나 혹은 적게 이동하는 것으로 판단될 가능성을 줄이기 위한 보정을 수행한다.
일 실시 예에서, 보정은 영상의 크기(해상도)에 비례하여 중심 위치의 이동을 보정하거나, 얼굴 영역의 크기에 반비례하여 중심 위치의 이동을 보정하는 것일 수 있다.
이와 같이, 얼굴의 중심 위치의 움직임 정도를 얼굴 영역의 크기와 영상의 크기 기반으로 보정하여 학습자의 집중도를 결정하는 구체적인 방법은 다음과 같다.
<수학식 1>
Figure pat00001
여기서,
Figure pat00002
,
Figure pat00003
는 상기 학습자를 촬영한 영상의 가로 길이(width),
Figure pat00004
는 상기 학습자를 촬영한 영상의 세로 길이(height),
Figure pat00005
는 상기 영상에서 검출된 얼굴 영역의 가로 길이,
Figure pat00006
는 상기 영상에서 검출된 얼굴 영역의 세로 길이,
Figure pat00007
는 상기 영상에서 검출된 얼굴 영역의 가로 중심 좌표값,
Figure pat00008
는 상기 영상에서 검출된 얼굴 영역의 세로 중심 좌표값, t는 시간 또는 프레임 수, k는 상기 영상 획득 총 시간 또는 상기 영상의 총 프레임 수, r은 상수(기본값=1)이다.
이에, 학습자의 움직임 정보를 추적할 때, 영상의 크기(해상도)의 변동과 검출 영역의 변동을 중심 위치의 움직임 정도에 반영할 수 있다.
이어, 프로세서(160)는 결정된 학습자의 집중도에 따라 재생 중인 학습 콘텐츠에 대한 유지 및 변경을 결정할 수 있다.
일 예로, 학습자의 집중도가 기 설정된 기준 이하로 산출된 경우, 학습자의 집중도를 상승시키기 위해 난이도가 좀 더 낮은 학습 콘텐츠를 재생하거나, 학습 콘텐츠 이외의 미리 설정된 시간 길이의 흥미용 콘텐츠를 재생할 수 있다. 일 실시 예에서, 흥미용 콘텐츠의 길이는 상기 집중도에 비례하여 선택되도록 제어하거나, 상기 집중도에 따라 미리 설정된 흥미용 콘텐츠의 종류에 기반하여 선택되도록 제어함으로써, 학습자의 집중도에 대한 보상으로 선택할 수 있다. 이 경우, 학습 콘텐츠를 출력 장치에 표시하기 전에 집중도에 따라 흥미용 콘텐츠가 보상으로서 제공될 수 있음을 학습자에게 표시할 수 있다.
반대로, 학습자의 집중도가 기 설정된 기준 초과로 산출된 경우, 재생중인 학습 콘텐츠를 유지하고, 다음 재생될 학습 콘텐츠를 난이도가 좀 더 높은 학습 콘텐츠로 준비하거나, 학습 콘텐츠가 연속하여 제공되는 시간을 증가시킬 수 있다.
추가적인 실시 예로, 프로세서(160)는 단위 시간 구간마다 산출된 얼굴 영역의 움직임 정도를 시계열 기반의 딥러닝 모델에 입력하여 학습자의 미래 시점의 집중도를 산출할 수 있다.
시계열 기반의 딥러닝 모델은 LSTM(Long Short-Term Memory models), RNN(Recurrent Neural Networks) 등의 모델일 수 있다.
이에, 프로세서(160)는 미래 시점의 집중도에 따라 재생 중인 학습 콘텐츠의 난이도 및 종류 중 적어도 하나를 변경할 수 있다. 예를 들어, 집중도가 미래에 낮아지는 것으로 판단되는 경우 학습 콘텐츠의 난이도를 낮추거나, 흥미용 요소가 많은 학습 콘텐츠를 제공하도록 변경할 수 있다.
다른 추가적인 실시예로, 본 개시의 일 실시 예에 따른 학습 관리 장치가 얼굴 검출 기술을 이용하여 콘텐츠 학습을 관리하는 방법은 전술한 S110 단계에서, 얼굴 영역에서 눈의 영역을 더 검출할 수 있다.
그리고, 콘텐츠 수행 시작 시점에서 카메라를 통해 학습자의 눈의 영역의 면적 정보를 획득할 수 있다. 이때, 콘텐츠 수행 시작 시점에서는 학습자의 의식이 깨어있는 상태라고 가정하고, 이 시점의 눈의 면적을 학습자가 깨어있는 상태로 설정할 수 있다.
이어, 학습 콘텐츠가 화면에 출력되는 동안, 얼굴 영역의 중심 위치의 이동을 추적하면서(S140), 동시에 눈의 영역의 면적을 기 설정된 일정 시간 구간 단위로 검출할 수 있다.
그리고, 일정 시간 구간 단위로 검출된 눈의 영역의 면적을 깨어있는 상태의 면적 정보와 비교하여, 학습자가 졸음 상태인지 판단할 수 있다.
이에, 학습자가 졸음 상태인 것으로 판단된 경우, 졸음 상태가 지속되는 시간에 비례하여 학습자의 집중도를 차감할 수 있다. 따라서, 학습자가 얼굴을 이동하지 않고 졸음 상태에 있는 경우에도 학습자의 집중도를 결정할 수 있다.
즉, 본 개시의 일 실시 예에 따른 얼굴 검출 기술을 이용하여 콘텐츠 학습을 관리하는 방법은, 얼굴 영역의 움직임 정도와 눈 영역의 변화를 고려하여, 학습자의 콘텐츠 학습에의 집중도를 섬세하게 관찰할 수 있다.
아울러, 실시간으로 학습자의 집중도를 상승시키기 위해 학습 콘텐츠를 변경하거나, 학습 효율 향상을 위해 학습 콘텐츠 출력 유지 여부를 결정함으로써, 학습자의 상태에 따라 적응적으로 맞춤형 학습 콘텐츠를 제공해줄 수 있다.
전술한 본 개시는, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 상기 컴퓨터는 각 장치의 프로세서를 포함할 수도 있다.
한편, 상기 프로그램은 본 개시를 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수 있다. 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.
본 개시의 명세서(특히 특허청구범위에서)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 개시에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다.
본 개시에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 개시가 한정되는 것은 아니다. 본 개시에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 개시를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 개시의 범위가 한정되는 것은 아니다. 또한, 통상의 기술자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 인자(factor)에 따라 구성될 수 있음을 알 수 있다.
따라서, 본 개시의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 개시의 사상의 범주에 속한다고 할 것이다.

Claims (16)

  1. 학습 콘텐츠를 제공하는 단계;
    학습자 단말의 카메라를 통해 촬영된 학습자의 영상에서 얼굴을 인식하여 얼굴 영역을 검출하는 단계;
    상기 얼굴 영역의 중심 위치를 결정하는 단계;
    상기 얼굴의 움직임에 따라 상기 중심 위치의 이동을 추적하는 단계; 및
    기 설정된 시간 동안 발생한 상기 얼굴 영역의 상기 중심 위치의 움직임 정도에 기반하여 상기 학습자의 집중도를 결정하는 단계를 포함하는,
    얼굴 검출 기술을 이용한 학습 관리 방법.
  2. 제 1 항에 있어서,
    상기 집중도를 결정하는 단계는,
    상기 중심 위치의 움직임 정도를 상기 얼굴 영역의 크기를 기반으로 보정하는 단계를 포함하는,
    얼굴 검출 기술을 이용한 학습 관리 방법.
  3. 제 2 항에 있어서,
    상기 집중도를 결정하는 단계는,
    상기 중심 위치의 움직임 정도를 상기 영상의 크기를 기반으로 보정하는 단계를 더 포함하는,
    얼굴 검출 기술을 이용한 학습 관리 방법.
  4. 제 3 항에 있어서,
    상기 학습자의 집중도를 결정하는 단계는,
    Figure pat00009

    여기서,
    Figure pat00010
    ,
    Figure pat00011
    는 상기 학습자의 영상의 가로 길이(width),
    Figure pat00012
    는 상기 영상의 세로 길이(height),
    Figure pat00013
    는 상기 영상에서 검출된 얼굴 영역의 가로 길이,
    Figure pat00014
    는 상기 영상에서 검출된 얼굴 영역의 세로 길이,
    Figure pat00015
    는 상기 영상에서 검출된 얼굴 영역의 가로 중심 좌표값,
    Figure pat00016
    는 상기 영상에서 검출된 얼굴 영역의 세로 중심 좌표값, t는 시간 또는 프레임 수, k는 상기 영상 획득 총 시간 또는 상기 영상의 총 프레임 수, r은 상수(기본값=1)인,
    얼굴 검출 기술을 이용한 학습 관리 방법.
  5. 제 1 항에 있어서,
    상기 얼굴 영역을 검출하는 단계는,
    상기 카메라를 통해 다수의 얼굴들이 검출되는 경우, 각 얼굴 영역의 크기를 기반으로 학습자를 결정하는,
    얼굴 검출 기술을 이용한 학습 관리 방법.
  6. 제 1 항에 있어서,
    단위 시간 구간마다 산출된 얼굴 영역의 움직임 정도를 시계열 기반의 딥러닝 모델에 입력하여 상기 학습자의 미래 시점의 집중도를 산출하는 단계; 및
    상기 미래 시점의 집중도에 따라 재생 중인 상기 학습 콘텐츠의 난이도 및 종류 중 적어도 하나를 변경하는 단계를 더 포함하는,
    얼굴 검출 기술을 이용한 학습 관리 방법.
  7. 제 1 항에 있어서,
    상기 얼굴 영역에서 눈의 영역을 검출하는 단계;
    상기 콘텐츠 수행 시작 시점에서 상기 카메라를 통해 상기 눈의 영역의 면적 정보를 산출하는 단계;
    상기 눈의 면적 정보를 상기 학습자가 깨어있는 상태로 설정하는 단계;
    상기 중심 위치의 이동을 추적하는 동안, 동시에 상기 눈의 영역의 면적을 기 설정된 일정 시간 구간 단위로 검출하는 단계;
    상기 일정 시간 구간 단위로 검출된 상기 눈의 영역의 면적을 상기 깨어있는 상태의 면적 정보와 비교하여, 상기 학습자가 졸음 상태인지 판단하는 단계를 더 포함하는,
    얼굴 검출 기술을 이용한 학습 관리 방법.
  8. 제 7 항에 있어서,
    상기 학습자의 집중도를 산출하는 단계는,
    상기 학습자가 졸음 상태인 것으로 판단된 경우, 상기 졸음 상태가 지속되는 시간에 비례하여 상기 학습자의 집중도를 차감하는,
    얼굴 검출 기술을 이용한 학습 관리 방법.
  9. 프로세서;
    학습 콘텐츠를 저장하는 데이터베이스부; 및
    상기 프로세서와 전기적으로 연결되고, 상기 프로세서에서 수행되는 적어도 하나의 코드(code)가 저장되는 메모리를 포함하고,
    상기 프로세서는,
    학습 콘텐츠를 제공하는 동작, 학습자 단말의 카메라를 통해 촬영된 학습자의 영상에서 얼굴을 인식하여 얼굴 영역을 검출하는 동작, 상기 얼굴 영역의 중심 위치를 결정하는 동작, 상기 얼굴의 움직임에 따라 상기 중심 위치의 이동을 추적하는 동작, 기 설정된 시간 동안 발생한 상기 얼굴 영역의 상기 중심 위치의 움직임 정도에 기반하여 상기 학습자의 집중도를 결정하는 중 적어도 하나를 실행하는 동작 중 적어도 하나를 실행하는,
    얼굴 검출 기술을 이용한 학습 관리 장치.
  10. 제 9 항에 있어서,
    상기 프로세서는,
    상기 집중도를 산출하기 위해, 상기 중심 위치의 움직임 정도를 상기 얼굴 영역의 크기를 기반으로 보정하는 동작을 실행하는,
    얼굴 검출 기술을 이용한 학습 관리 장치.
  11. 제 10 항에 있어서,
    상기 프로세서는,
    상기 학습자의 집중도를 결정하기 위해, 상기 중심 위치의 움직임 정도를 상기 영상의 크기를 기반으로 보정하는,
    얼굴 검출 기술을 이용한 학습 관리 장치.
  12. 제 11 항에 있어서,
    상기 프로세서는,
    상기 학습자의 집중도를 하기의 수학식으로 산출하고,
    Figure pat00017

    여기서,
    Figure pat00018
    ,
    Figure pat00019
    는 상기 학습자의 영상의 가로 길이(width),
    Figure pat00020
    는 상기 영상의 세로 길이(height),
    Figure pat00021
    는 상기 영상에서 검출된 얼굴 영역의 가로 길이,
    Figure pat00022
    는 상기 영상에서 검출된 얼굴 영역의 세로 길이,
    Figure pat00023
    는 상기 영상에서 검출된 얼굴 영역의 가로 중심 좌표값,
    Figure pat00024
    는 상기 영상에서 검출된 얼굴 영역의 세로 중심 좌표값, t는 시간 또는 프레임 수, k는 상기 영상 획득 총 시간 또는 상기 영상의 총 프레임 수, r은 상수(기본값=1)인,
    얼굴 검출 기술을 이용한 학습 관리 장치.
  13. 제 9 항에 있어서,
    상기 프로세서는,
    상기 얼굴 영역을 검출할 때, 상기 카메라를 통해 다수의 얼굴들이 검출되는 경우, 각 얼굴 영역의 크기를 기반으로 학습자를 결정하는,
    얼굴 검출 기술을 이용한 학습 관리 장치.
  14. 제 9 항에 있어서,
    상기 프로세서는,
    단위 시간 구간마다 산출된 얼굴 영역의 움직임 정도를 시계열 기반의 딥러닝 모델에 입력하여 상기 학습자의 미래 시점의 집중도를 산출하는 동작, 및 상기 미래 시점의 집중도에 따라 재생 중인 상기 학습 콘텐츠의 난이도 및 종류 중 적어도 하나를 변경하는 동작을 더 실행하는,
    얼굴 검출 기술을 이용한 학습 관리 장치.
  15. 제 14 항에 있어서,
    상기 프로세서는,
    상기 얼굴 영역에서 눈의 영역을 검출하는 동작, 상기 콘텐츠 수행 시작 시점에서 상기 카메라를 통해 상기 눈의 영역의 면적 정보를 산출하는 동작, 상기 눈의 면적 정보를 상기 학습자가 깨어있는 상태로 설정하는 동작, 상기 중심 위치의 이동을 추적하는 동안, 동시에 상기 눈의 영역의 면적을 기 설정된 일정 시간 구간 단위로 검출하는 동작, 상기 일정 시간 구간 단위로 검출된 상기 눈의 영역의 면적을 상기 깨어있는 상태의 면적 정보와 비교하여, 상기 학습자가 졸음 상태인지 판단하는 동작을 더 실행하는,
    얼굴 검출 기술을 이용한 학습 관리 장치.
  16. 제 15 항에 있어서,
    상기 프로세서는,
    상기 학습자가 졸음 상태인 것으로 판단된 경우, 상기 졸음 상태가 지속되는 시간에 비례하여 상기 학습자의 집중도를 차감하는,
    얼굴 검출 기술을 이용한 학습 관리 장치.
KR1020220158572A 2021-11-26 2022-11-23 얼굴 검출 기술을 이용한 학습 관리 방법 및 장치 KR20230078547A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210165718 2021-11-26
KR20210165718 2021-11-26

Publications (1)

Publication Number Publication Date
KR20230078547A true KR20230078547A (ko) 2023-06-02

Family

ID=86755911

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220158572A KR20230078547A (ko) 2021-11-26 2022-11-23 얼굴 검출 기술을 이용한 학습 관리 방법 및 장치

Country Status (1)

Country Link
KR (1) KR20230078547A (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101766347B1 (ko) 2015-05-27 2017-08-08 노성렬 집중도 평가시스템

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101766347B1 (ko) 2015-05-27 2017-08-08 노성렬 집중도 평가시스템

Similar Documents

Publication Publication Date Title
US11012659B2 (en) Intelligent illumination and sound control in an internet of things (IoT) computing environment
KR102643027B1 (ko) 전자 장치, 그의 제어 방법
US9875445B2 (en) Dynamic hybrid models for multimodal analysis
KR20200005986A (ko) 얼굴인식을 이용한 인지장애 진단 시스템 및 방법
US11327320B2 (en) Electronic device and method of controlling the same
US20200133211A1 (en) Electronic device and method for controlling electronic device thereof
US11966317B2 (en) Electronic device and method for controlling same
US10679054B2 (en) Object cognitive identification solution
KR20190096876A (ko) 음성인식 성능 향상을 위한 비 지도 가중치 적용 학습 시스템 및 방법, 그리고 기록 매체
KR102637133B1 (ko) 온-디바이스 활동 인식
KR20240032779A (ko) 전자 장치, 그의 제어 방법
KR102206181B1 (ko) 단말기 및 그의 동작 방법
KR102396794B1 (ko) 전자 장치 및 이의 제어 방법
US11468270B2 (en) Electronic device and feedback information acquisition method therefor
US20220088346A1 (en) Sleep inducing device
KR20200010061A (ko) 전자 장치 및 전자 장치의 학습 방법
KR102619200B1 (ko) 인공지능 기반 환경설비 자동제어를 위한 뉴럴 네트워크 모델 생성 방법 및 컴퓨터 프로그램
KR102440963B1 (ko) 전자 장치, 이의 제어 방법 및 비일시적인 컴퓨터 판독가능 기록매체
KR20230078547A (ko) 얼굴 검출 기술을 이용한 학습 관리 방법 및 장치
KR102452100B1 (ko) 뇌파 및 눈 깜빡임 기반 학습 서비스 제공 방법, 장치 및 시스템
CN113936668A (zh) 用于智能语音设备的方法、装置、设备和介质
KR20230118955A (ko) 시각 태그 이머징 패턴 검출
CN111919250A (zh) 传达非语言提示的智能助理设备
KR102669921B1 (ko) 사용자의 개념 이해도에 관한 정보를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
KR102590988B1 (ko) 아바타와 함께 운동하는 메타버스 서비스 제공 장치, 방법 및 프로그램