KR102455248B1 - Learning method using fingers and recording medium recording the same - Google Patents

Learning method using fingers and recording medium recording the same Download PDF

Info

Publication number
KR102455248B1
KR102455248B1 KR1020210131195A KR20210131195A KR102455248B1 KR 102455248 B1 KR102455248 B1 KR 102455248B1 KR 1020210131195 A KR1020210131195 A KR 1020210131195A KR 20210131195 A KR20210131195 A KR 20210131195A KR 102455248 B1 KR102455248 B1 KR 102455248B1
Authority
KR
South Korea
Prior art keywords
fingerprint
learning
unit
image
light
Prior art date
Application number
KR1020210131195A
Other languages
Korean (ko)
Inventor
최정민
Original Assignee
주식회사 천재교과서
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 천재교과서 filed Critical 주식회사 천재교과서
Priority to KR1020210131195A priority Critical patent/KR102455248B1/en
Application granted granted Critical
Publication of KR102455248B1 publication Critical patent/KR102455248B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • G06Q50/2057Career enhancement or continuing education service
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1318Sensors therefor using electro-optical elements or layers, e.g. electroluminescent sensing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Security & Cryptography (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

The present invention relates to a learning method using a finger and a recording medium recording the same, in which learning suitable for a learner's level or content learning matched to a finger may be automatically performed when a student's finger or parent's finger touches a learning application running on a learner terminal. A learning method using a finger according to the present invention comprises the steps of: (a) providing a learning service through a learner terminal; (b) matching the current learning menu and the learner's fingerprint in the learner terminal and registering the matched information; (c) providing a fingerprint input screen when a learning service is executed in the learner terminal; (d) receiving the learner's fingerprint from the learner terminal and comparing the learner's fingerprint with the registered fingerprint; and (e) executing a learning menu corresponding to the registered fingerprint when the fingerprint input from the learner terminal is consistent with the registered fingerprint.

Description

손가락을 이용한 학습 방법 및 이를 기록한 기록매체{Learning method using fingers and recording medium recording the same}Learning method using fingers and recording medium recording the same

본 발명은 손가락을 이용한 학습 방법 및 이를 기록한 기록매체에 관한 것으로, 보다 상세하게는 학습자 단말기에서 실행되는 학습 어플리케이션에 학습생의 손가락 또는 부모의 손가락을 접촉하면 학습생의 수준에 맞는 학습 또는 손가락에 매칭된 컨텐츠 학습을 자동으로 실행할 수 있도록 하는, 손가락을 이용한 학습 방법 및 이를 기록한 기록매체에 관한 것이다.The present invention relates to a learning method using a finger and a recording medium recording the same, and more particularly, when a learner's finger or a parent's finger is in contact with a learning application executed on a learner's terminal, learning or finger according to the learner's level It relates to a learning method using a finger, which enables automatic execution of matched content learning, and a recording medium recording the same.

본 출원인이 태블릿 단말기 또는 웹 페이지를 통하여 제공하는 밀크티(milk-T) 초등 학습 서비스는 밀크T 학교공부, 수준별 수학, 수준별 영어, 창의 사고력 등의 학습 메뉴를 제공한다.Milk-T elementary school learning service provided by the applicant through a tablet terminal or web page provides learning menus such as milk-T school study, math by level, English by level, and creative thinking.

이러한 밀크T 학습 서비스를 초등학생이 태블릿 단말기를 통하여 이용하기 위해서는 밀크T 어플리케이션을 실행하고, 다수의 메뉴 중에서 원하는 학습 메뉴를 찾아서 선택하는 여러 단계의 과정을 거쳐야 한다.In order for elementary school students to use the Milk T learning service through a tablet terminal, they must go through a multi-step process of running the Milk T application, finding and selecting a desired learning menu from among a number of menus.

따라서 저학년 학습자의 경우에 다수의 학습 메뉴에서 원하는 학습 메뉴를 찾아서 학습을 실행하기까지 어려움을 겪거나 번거로워서 학습 의욕이 저하되는 문제점이 있었다.Therefore, in the case of low-grade learners, there was a problem in that the learning motivation was lowered because it was difficult or cumbersome to find the desired learning menu from a plurality of learning menus and to execute the learning.

관련 선행 특허 문헌으로는 대한민국 공개특허공보 제10-2020-0137755호(2020.12.09, 공개)가 있으며, 상기 문헌에는 유아가 참여하는 학습 콘텐츠 시스템이 기재되어 있다.As a related prior patent document, there is Republic of Korea Patent Publication No. 10-2020-0137755 (published on Dec. 9, 2020), which describes a learning content system in which young children participate.

본 발명의 목적은 학습자 단말기에서 실행되는 학습 어플리케이션에 학습생의 손가락 또는 부모의 손가락을 접촉하면 학습생의 수준에 맞는 학습 또는 손가락에 매칭된 컨텐츠 학습을 자동으로 실행할 수 있도록 하는, 손가락을 이용한 학습 방법 및 이를 기록한 기록매체를 제공하는 것이다.It is an object of the present invention to automatically execute learning suitable for the learner's level or content learning matched to the finger when the learner's finger or the parent's finger is in contact with a learning application executed in a learner terminal, learning using a finger To provide a method and a recording medium recording the same.

전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 손가락을 이용한 학습 시스템은, 손가락 터치를 입력받으며, 학습 메뉴를 화면 상으로 제공하는 터치 입출력부; 상기 학습 메뉴에 해당하는 하나 이상의 학습 컨텐츠를 저장하고 있는 저장부; 상기 터치 입출력부를 통해 획득된 지문 이미지와 상기 학습 메뉴에 따른 학습 컨텐츠를 매칭시키는 컨텐츠 매칭부; 상기 터치 입출력부의 화면 상으로 상기 학습 메뉴를 제공하고, 선택된 학습 메뉴에 해당하는 학습 컨텐츠를 실행하는 학습 실행부; 및 상기 터치 입출력부를 통해 선택된 학습 메뉴에 해당하는 학습 컨텐츠와, 상기 터치 입출력부를 통해 획득된 지문 이미지를 상기 컨텐츠 매칭부를 통해 매칭하여 등록하고, 상기 학습 실행부가 실행되고 상기 터치 입출력부를 통해 손가락 터치가 입력되어, 상기 등록된 지문 이미지와 동일한 지문 이미지가 상기 터치 입출력부를 통해 획득되면, 상기 등록된 지문 이미지에 매칭된 학습 컨텐츠가 실행되도록 상기 학습 실행부를 제어하는 제어부를 포함할 수 있다.A learning system using a finger according to an embodiment of the present invention for achieving the above object includes a touch input/output unit for receiving a finger touch input and providing a learning menu on a screen; a storage unit for storing one or more learning contents corresponding to the learning menu; a content matching unit for matching the fingerprint image acquired through the touch input/output unit with the learning content according to the learning menu; a learning execution unit providing the learning menu on the screen of the touch input/output unit and executing learning content corresponding to the selected learning menu; And the learning content corresponding to the learning menu selected through the touch input/output unit and the fingerprint image obtained through the touch input/output unit are matched and registered through the content matching unit, the learning execution unit is executed, and a finger touch is performed through the touch input/output unit When the input and the same fingerprint image as the registered fingerprint image is obtained through the touch input/output unit, the control unit for controlling the learning execution unit to execute the learning content matched to the registered fingerprint image.

상기 학습 메뉴는 밀크T 학교공부, 수준별 수학, 수준별 영어, 창의 사고력, 밀크T 중학 종합반 메뉴를 포함하고, 상기 밀크T 학교공부 메뉴는 과목별 공부, 시험대비 특강, 첨삭과외, 중학특강 메뉴를 포함하고, 상기 수준별 수학 메뉴는 스토리텔링 개념학습, 영역별 수학, FunFun 연산게임, 유형격파, 실력충전 메뉴를 포함하고, 상기 수준별 영어 메뉴는 술술 Speaking, 쏙쏙 Words, 팡팡 Phonics, 줄줄 Reading, 탄탄 Grammer, 영어 Songs, 영어 Library 메뉴를 포함하고, 상기 창의 사고력 메뉴는 특별 학습, 숙제해결, 천재북클럽, 초등생활 메뉴를 포함하고, 상기 밀크T 중학 종합반 메뉴는 스터디 매니져, 멀티학습 플레이어, 자기주도 학습, 수학 영어 첨삭 서비스, 수학 질답 커뮤니티, 10분 수학 영어 메뉴를 포함할 수 있다.The learning menu includes milk T school study, mathematics by level, English by level, creative thinking ability, and milk T middle school general class menu, and the milk T school study menu includes study by subject, special lecture for test, correctional tutoring, middle school special lecture menu And, the math menu for each level includes storytelling concept learning, math by domain, FunFun calculation game, type breaking, and skill charging menu, and the English menu for each level is Speaking, Ssok Words, Pang Pang Phonics, Line Reading, Tantan Grammer, Including English Songs and English Library menu, the creative thinking menu includes special learning, homework solving, genius book club, elementary life menu, and the Milk T middle school comprehensive menu includes study manager, multi-learning player, self-directed learning, It may include a math English correction service, a math Q&A community, and a 10-minute math English menu.

상기 터치 입출력부는, 광을 방출하는 발광 소자들, 상기 발광 소자들에서 방출되어 지문 접촉면에 접촉한 지문에 의해 반사된 광을 센싱하여 상기 지문에 대응하는 영상을 생성하는 적어도 하나의 광 센서를 포함한 광 감지 어레이부 및 상기 광 센서로 입사되는 광의 진행 경로를 형성하는 복수의 핀홀들을 포함한 선택적 광 투과부를 포함한 지문 센서; 및 상기 지문 센서로부터 상기 영상을 입력받아 상기 지문의 제1 영역에 대응하는 제1 영상과 상기 지문의 제2 영역에 대응하는 제2 영상을 추출하여 상기 제1 및 제2 영상들을 비교하여 유사도를 판단하며, 그 결과에 따라 지문 인증을 수행하는 지문 검출부를 포함할 수 있다.The touch input/output unit includes light-emitting elements emitting light, and at least one light sensor that senses light emitted from the light-emitting elements and reflected by the fingerprint in contact with the fingerprint contact surface to generate an image corresponding to the fingerprint. a fingerprint sensor including a light sensing array unit and a selective light transmitting unit including a plurality of pinholes forming a propagation path of light incident to the light sensor; and receiving the image from the fingerprint sensor, extracting a first image corresponding to the first region of the fingerprint and a second image corresponding to the second region of the fingerprint, and comparing the first and second images to determine the degree of similarity It may include a fingerprint detection unit that determines and performs fingerprint authentication according to the result.

상기 지문의 제1 영역은 상기 지문 접촉면에 접촉한 상기 지문의 일 영역이고, 상기 지문의 제2 영역은 상기 지문의 일 영역의 외곽에 위치하며 상기 지문 접촉면에 접촉되지 않는 상기 지문의 다른 영역일 수 있다.The first area of the fingerprint is one area of the fingerprint in contact with the fingerprint contact surface, and the second area of the fingerprint is located outside the one area of the fingerprint and is another area of the fingerprint that is not in contact with the fingerprint contact surface. can

상기 지문 검출부는, 상기 광 감지 로부터 상기 영상을 입력받아 상기 제1 영상과 상기 제2 영상을 추출하는 지문 영상 추출부; 상기 제1 및 제2 영상들에 대해 이미지 전처리(Preprocessing)를 수행하는 영상 처리부; 상기 영상 처리부에서 전처리가 이루어진 상기 제1 영상과 상기 제2 영상을 비교하여 유사도 여부를 판단하는 유사도 판단부; 및 상기 유사도 판단부의 결과에 따라 지문 인증 여부를 수행하는 인증 수행부를 포함할 수 있다.The fingerprint detector may include: a fingerprint image extractor configured to receive the image from the photodetector and extract the first image and the second image; an image processing unit performing image preprocessing on the first and second images; a similarity determining unit that compares the first image and the second image, which have been pre-processed by the image processing unit, to determine whether there is a similarity; and an authentication performing unit configured to perform fingerprint authentication according to a result of the similarity determining unit.

상기 유사도 판단부는, 상기 제1 영상의 휘도와 상기 제2 영상의 휘도를 비교하고, 상기 제1 및 제2 영상들이 유사한 패턴을 서로 갖는지를 확인하여 상기 지문 접촉면에 접촉한 상기 지문의 생체 지문 여부를 판단할 수 있다.The similarity determining unit compares the luminance of the first image with the luminance of the second image, checks whether the first and second images have a similar pattern to each other, and determines whether the fingerprint in contact with the fingerprint contact surface is a biometric fingerprint. can be judged

한편, 전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 손가락을 이용한 학습 방법은, (a) 학습자 단말기 통해 학습 서비스를 제공하는 단계; (b) 상기 학습자 단말기에서 현재 학습 메뉴와 학습자의 지문을 매칭하여 등록하는 단계; (c) 상기 학습자 단말기에서 학습 서비스의 실행 시에 지문 입력 화면을 제공하는 단계; (d) 상기 학습자 단말기에서 학습자의 지문을 입력받아, 등록된 지문과 비교하는 단계; 및 (e) 상기 학습자 단말기에서 입력받은 지문과 등록된 지문이 일치하는 경우에, 등록된 지문에 대응된 학습 메뉴를 실행하는 단계를 포함할 수 있다.On the other hand, the learning method using a finger according to an embodiment of the present invention for achieving the above object, (a) providing a learning service through a learner terminal; (b) matching and registering the current learning menu and the learner's fingerprint in the learner terminal; (c) providing a fingerprint input screen when the learning service is executed in the learner terminal; (d) receiving the learner's fingerprint from the learner terminal and comparing it with a registered fingerprint; and (e) executing a learning menu corresponding to the registered fingerprint when the fingerprint input from the learner terminal matches the registered fingerprint.

상기 (b) 단계에서 상기 학습자 단말기는, 터치 입출력부를 통해 획득된 지문 이미지와 상기 학습 메뉴에 따른 학습 컨텐츠를 매칭시켜 저장부에 저장하여 등록할 수 있다.In step (b), the learner terminal may match the fingerprint image acquired through the touch input/output unit with the learning content according to the learning menu, and store it in the storage unit for registration.

상기 터치 입출력부는, 지문 센서 및 지문 검출부를 포함할 수 있다.The touch input/output unit may include a fingerprint sensor and a fingerprint detection unit.

상기 지문 센서는 광을 방출하는 발광 소자들, 상기 발광 소자들에서 방출되어 지문 접촉면에 접촉한 지문에 의해 반사된 광을 센싱하여 상기 지문에 대응하는 영상을 생성하는 적어도 하나의 광 센서를 포함한 광 감지 어레이부 및 상기 광 센서로 입사되는 광의 진행 경로를 형성하는 복수의 핀홀들을 포함한 선택적 광 투과부를 포함할 수 있다.The fingerprint sensor includes light-emitting elements emitting light, and at least one light sensor that generates an image corresponding to the fingerprint by sensing light emitted from the light-emitting elements and reflected by the fingerprint in contact with the fingerprint contact surface. It may include a sensing array unit and a selective light transmitting unit including a plurality of pinholes forming a propagation path of light incident to the optical sensor.

상기 지문 검출부는 상기 지문 센서로부터 상기 영상을 입력받아 상기 지문의 제1 영역에 대응하는 제1 영상과 상기 지문의 제2 영역에 대응하는 제2 영상을 추출하여 상기 제1 및 제2 영상들을 비교하여 유사도를 판단하며, 그 결과에 따라 지문 인증을 수행한다. The fingerprint detector receives the image from the fingerprint sensor, extracts a first image corresponding to the first region of the fingerprint and a second image corresponding to the second region of the fingerprint, and compares the first and second images to determine the degree of similarity, and perform fingerprint authentication according to the result.

상기 지문의 제1 영역은 상기 지문 접촉면에 접촉한 상기 지문의 일 영역이고, 상기 지문의 제2 영역은 상기 지문의 일 영역의 외곽에 위치하며 상기 지문 접촉면에 접촉되지 않는 상기 지문의 다른 영역일 수 있다.The first area of the fingerprint is one area of the fingerprint in contact with the fingerprint contact surface, and the second area of the fingerprint is located outside the one area of the fingerprint and is another area of the fingerprint that is not in contact with the fingerprint contact surface. can

상기 지문 검출부는 영상 추출부를 통해 광 감지로부터 영상을 입력받아 제1 영상과 제2 영상을 추출하고, 영상 처리부를 통해 제1 및 제2 영상들에 대해 이미지 전처리(Preprocessing)를 수행하고, 유사도 판단부를 통해 영상 처리부에서 전처리가 이루어진 제1 영상과 제2 영상을 비교하여 유사도 여부를 판단하며, 인증 수행부를 통해 유사도 판단부의 결과에 따라 지문 인증 여부를 수행한다.The fingerprint detector receives an image from light sensing through an image extraction unit, extracts a first image and a second image, performs image preprocessing on the first and second images through an image processing unit, and determines similarity By comparing the first image and the second image pre-processed by the image processing unit through the unit, the degree of similarity is determined, and whether or not the fingerprint is authenticated according to the result of the similarity determining unit through the authentication performing unit.

상기 유사도 판단부는, 상기 제1 영상의 휘도와 상기 제2 영상의 휘도를 비교하고, 상기 제1 및 제2 영상들이 유사한 패턴을 서로 갖는지를 확인하여 상기 지문 접촉면에 접촉한 상기 지문의 생체 지문 여부를 판단한다.The similarity determining unit compares the luminance of the first image with the luminance of the second image, checks whether the first and second images have a similar pattern to each other, and determines whether the fingerprint in contact with the fingerprint contact surface is a biometric fingerprint. to judge

한편, 전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 손가락을 이용한 학습 방법은, (a) 학습자 단말기 통해 학습 서비스를 제공하는 단계; (b) 상기 학습자 단말기에서 현재 학습 메뉴와 학습자의 지문을 매칭하여 등록하는 단계; (c) 상기 학습자 단말기에서 학습 서비스의 실행 시에 지문 입력 화면을 제공하는 단계; (d) 상기 학습자 단말기에서 학습자의 지문을 입력받아, 등록된 지문과 비교하는 단계; 및 (e) 상기 학습자 단말기에서 입력받은 지문과 등록된 지문이 일치하는 경우에, 등록된 지문에 대응된 학습 메뉴를 실행하는 단계를 포함하는 손가락을 이용한 학습 방법을 기록한 컴퓨터로 판독이 가능한 기록 매체에 프로그램으로 기록할 수 있다.On the other hand, the learning method using a finger according to an embodiment of the present invention for achieving the above object, (a) providing a learning service through a learner terminal; (b) matching and registering the current learning menu and the learner's fingerprint in the learner terminal; (c) providing a fingerprint input screen when the learning service is executed in the learner terminal; (d) receiving the learner's fingerprint from the learner terminal and comparing it with a registered fingerprint; and (e) executing a learning menu corresponding to the registered fingerprint when the fingerprint input from the learner terminal matches the registered fingerprint. can be programmed in

본 발명에 의하면, 학습자의 각 손가락의 지문에 학교 공부, 수학, 영어, 창의 사고력 메뉴를 매칭시켜 등록하였다가, 학습자가 언제든지 손가락 터치만으로 원하는 학습을 즉시로 실행할 수 있다.According to the present invention, school study, math, English, and creative thinking skills menus are matched and registered with the fingerprint of each finger of the learner, and the learner can immediately execute the desired learning with a finger touch at any time.

또한, 본 발명에 의하면, 엄지 손가락을 터치하여, 밀크T 학교공부를 실행하게 됨에 따라, 스스로 공부하는 능력을 키워주고, 자기주도학습 습관을 잡아주는 기능을 제공할 수 있다. In addition, according to the present invention, by touching the thumb, milk T school study is executed, it is possible to provide a function of increasing the ability to study by oneself and holding a self-directed learning habit.

또한, 본 발명에 의하면, 검지 손가락을 터치하여, 수준별 수학 학습을 실행하게 됨에 따라, 기초부터 심화까지 수학을 마스터 할 수 있는 기능을 제공할 수 있다.In addition, according to the present invention, by touching the index finger to execute math learning for each level, it is possible to provide a function for mastering math from basic to deep.

또한, 본 발명에 의하면, 중지 손가락을 터치하여, 수준별 영어 학습을 실행하게 됨에 따라, 다양한 멀티미디어 컨텐츠와 상호작용하면서 영어 실력을 향상시키는 기능을 제공할 수 있다.In addition, according to the present invention, by touching the middle finger to execute English learning for each level, it is possible to provide a function of improving English skills while interacting with various multimedia contents.

또한, 본 발명에 의하면, 약지 손가락을 터치하여, 창의 사고력 학습을 실행하게 됨에 따라, 다양한 분야의 교양과 정보를 쉽고 편하게 획득할 수 있으며, 개정교육과정에서 제시하는 기준에 따라 분야별로 다양한 간접체험을 통해 창의적 사고력을 기르는 기능을 제공할 수 있다. In addition, according to the present invention, as the creative thinking ability learning is executed by touching the ring finger, it is possible to easily and conveniently acquire culture and information in various fields, and various indirect experiences for each field according to the standards presented in the revised curriculum It can provide the function of cultivating creative thinking ability.

또한, 본 발명에 의하면, 새끼 손가락을 터치하여, 중학 종합반 학습을 실행하게 됨에 따라, 진로교육특강을 수강하고, 진로적성검사를 통해 나만의 경쟁력을 키우는 진로 설계를 진행하며, 나에게 맞는 진로를 찾아 기본 개념을 다지고, 어떠한 난이도에도 흔들리지 않는 실력을 기를 수 있는 기능을 제공할 수 있다.In addition, according to the present invention, as the middle school comprehensive class learning is executed by touching the little finger, take a career education special lecture, design a career path that enhances your own competitiveness through a career aptitude test, and find a career path that suits you It can provide the ability to find and strengthen basic concepts and develop skills that are not shaken by any difficulty.

도 1은 본 발명의 실시예에 따른 학습 유도 시스템의 전체적인 구성을 개략적으로 나타낸 구성도이다.
도 2는 본 발명의 실시예에 따른 학습 챗봇의 내부 구성을 개략적으로 나타낸 구성도이다.
도 3은 본 발명의 실시예에 따른 학습 챗봇의 변환부 동작 과정을 나타낸 도면이다.
도 4는 본 발명의 실시예에 따른 학습 챗봇의 동작 흐름도를 나타낸 도면이다.
도 5는 본 발명의 실시예에 따른 학습 챗봇의 상세 동작 흐름도를 나타낸 도면이다.
도 6은 본 발명의 실시예에 따른 학습 챗봇에서 제공하는 오늘의 학습 화면을 나타낸 도면이다.
도 7은 본 발명의 실시예에 따른 학습 챗봇에서 제공하는 전체메뉴 화면을 나타낸 도면이다.
도 8은 본 발명의 실시예에 따른 학습 챗봇에서 제공하는 질문게시판 화면을 나타낸 도면이다.
도 9는 본 발명의 실시예에 따른 학습 챗봇에서 제공하는 학습창 화면을 나타낸 도면이다.
도 10은 본 발명의 실시예에 따른 학습 챗봇에서 1~6학년 대상 오늘의 학습을 제공하는 예를 나타낸 도면이다.
도 11은 본 발명의 실시예에 따른 학습 챗봇에서 키즈 대상 오늘의 학습을 제공하는 예를 나타낸 도면이다.
도 12는 본 발명의 실시예에 따른 학습 챗봇에서 전체메뉴를 제공하는 예를 나타낸 도면이다.
도 13은 본 발명의 일 실시예에 따른 학습자 단말기의 개략적인 단면도이다.
도 14는 도 6 또는 도 7에 도시된 지문 검출부를 개략적으로 도시한 블록도이다.
도 15는 본 발명의 실시예에 따른 손가락을 이용한 학습 방법을 나타낸 동작 흐름도이다.
도 16은 본 발명의 실시예에 따른 학습자 단말기를 통해 제공되는 밀크T 초등 학습 서비스에 대한 화면 예를 나타낸 도면이다.
도 17은 본 발명의 실시예에 따른 학습자 단말기를 통해 제공되는 학습 메뉴와 학습자의 지문을 매칭시켜 등록하기 위한 지문등록 아이콘을 나타낸 도면이다.
도 18은 본 발명의 실시예에 따른 학습 단말기에서 현재 실행된 학습 메뉴와 매칭하기 위한 학습자 지문을 입력받는 예를 나타낸 도면이다.
도 19는 본 발명의 일 실시예에 따른 학습자 단말기의 지문 접촉면에 사용자의 손가락 지문이 접촉한 모습을 나타낸 도면이다.
1 is a configuration diagram schematically showing the overall configuration of a learning induction system according to an embodiment of the present invention.
2 is a configuration diagram schematically showing the internal configuration of a learning chatbot according to an embodiment of the present invention.
3 is a diagram illustrating an operation process of a conversion unit of a learning chatbot according to an embodiment of the present invention.
4 is a diagram illustrating an operation flowchart of a learning chatbot according to an embodiment of the present invention.
5 is a diagram illustrating a detailed operation flowchart of a learning chatbot according to an embodiment of the present invention.
6 is a view showing today's learning screen provided by the learning chatbot according to an embodiment of the present invention.
7 is a view showing a full menu screen provided by a learning chatbot according to an embodiment of the present invention.
8 is a diagram illustrating a question board screen provided by a learning chatbot according to an embodiment of the present invention.
9 is a diagram illustrating a learning window screen provided by a learning chatbot according to an embodiment of the present invention.
10 is a diagram illustrating an example of providing today's learning for 1st to 6th graders in the learning chatbot according to an embodiment of the present invention.
11 is a diagram illustrating an example of providing today's learning for kids in a learning chatbot according to an embodiment of the present invention.
12 is a diagram illustrating an example of providing a full menu in a learning chatbot according to an embodiment of the present invention.
13 is a schematic cross-sectional view of a learner terminal according to an embodiment of the present invention.
14 is a block diagram schematically illustrating the fingerprint detection unit shown in FIG. 6 or FIG. 7 .
15 is an operation flowchart illustrating a learning method using a finger according to an embodiment of the present invention.
16 is a view showing an example of a screen for the Milk T elementary learning service provided through the learner terminal according to an embodiment of the present invention.
17 is a diagram illustrating a fingerprint registration icon for registering a learner's fingerprint by matching the learning menu provided through the learner terminal according to an embodiment of the present invention.
18 is a diagram illustrating an example of receiving a learner's fingerprint for matching with the currently executed learning menu in the learning terminal according to an embodiment of the present invention.
19 is a diagram illustrating a state in which a user's finger print contacts a fingerprint contact surface of a learner terminal according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예를 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예는 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 따라서, 몇몇 실시예에서, 잘 알려진 공정 단계들, 잘 알려진 소자 구조 및 잘 알려진 기술들은 본 발명이 모호하게 해석되는 것을 피하기 위하여 구체적으로 설명되지 않는다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and methods for achieving them, will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be embodied in various different forms, only this embodiment allows the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention belongs It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims. Accordingly, in some embodiments, well-known process steps, well-known device structures, and well-known techniques have not been specifically described in order to avoid obscuring the present invention. Like reference numerals refer to like elements throughout.

도면에서 여러 층 및 영역을 명확하게 표현하기 위하여 두께를 확대하여 나타내었다. 명세서 전체를 통하여 유사한 부분에 대해서는 동일한 도면 부호를 붙였다. 층, 막, 영역, 판 등의 부분이 다른 부분 "위에" 있다고 할 때, 이는 다른 부분 "바로 위에" 있는 경우뿐 아니라 그 중간에 또 다른 부분이 있는 경우도 포함한다. 반대로 어떤 부분이 다른 부분 "바로 위에" 있다고 할 때에는 중간에 다른 부분이 없는 것을 뜻한다. 또한, 층, 막, 영역, 판 등의 부분이 다른 부분 "아래에" 있다고 할 때, 이는 다른 부분 "바로 아래에" 있는 경우뿐 아니라 그 중간에 또 다른 부분이 있는 경우도 포함한다. 반대로 어떤 부분이 다른 부분 "바로 아래에" 있다고 할 때에는 중간에 다른 부분이 없는 것을 뜻한다.In order to clearly express various layers and regions in the drawings, the thicknesses are enlarged. Throughout the specification, like reference numerals are assigned to similar parts. When a part of a layer, film, region, plate, etc. is said to be “on” another part, it includes not only cases where it is “directly on” another part, but also cases where there is another part in between. Conversely, when we say that a part is "just above" another part, we mean that there is no other part in the middle. Also, when a part of a layer, film, region, plate, etc. is said to be “under” another part, it includes not only the case where the other part is “directly under” but also the case where there is another part in the middle. Conversely, when we say that a part is "just below" another part, it means that there is no other part in the middle.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 소자 또는 구성 요소들과 다른 소자 또는 구성 요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 소자의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들면, 도면에 도시되어 있는 소자를 뒤집을 경우, 다른 소자의 "아래(below)"또는 "아래(beneath)"로 기술된 소자는 다른 소자의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 소자는 다른 방향으로도 배향될 수 있고, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc. It can be used to easily describe a correlation between an element or components and other elements or components. The spatially relative terms should be understood as terms including different orientations of the device during use or operation in addition to the orientation shown in the drawings. For example, when an element shown in the figures is turned over, an element described as "beneath" or "beneath" another element may be placed "above" the other element. Accordingly, the exemplary term “below” may include both directions below and above. The device may also be oriented in other orientations, and thus spatially relative terms may be interpreted according to orientation.

본 명세서에서 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적으로 연결되어있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 전기적으로 연결되어 있는 경우도 포함한다. 또한, 어떤 부분이 어떤 구성 요소를 포함한다고 할 때, 이는 특별히 그에 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In the present specification, when a part is said to be connected to another part, it includes not only a case in which it is directly connected, but also a case in which it is electrically connected with another element interposed therebetween. In addition, when it is said that a part includes a certain component, this means that other components may be further included, rather than excluding other components, unless otherwise stated.

본 명세서에서 제 1, 제 2, 제 3 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 이러한 구성 요소들은 상기 용어들에 의해 한정되는 것은 아니다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소들로부터 구별하는 목적으로 사용된다. 예를 들어, 본 발명의 권리 범위로부터 벗어나지 않고, 제 1 구성 요소가 제 2 또는 제 3 구성 요소 등으로 명명될 수 있으며, 유사하게 제 2 또는 제 3 구성 요소도 교호적으로 명명될 수 있다.In this specification, terms such as first, second, third, etc. may be used to describe various components, but these components are not limited by the terms. The above terms are used for the purpose of distinguishing one component from other components. For example, without departing from the scope of the present invention, a first component may be referred to as a second or third component, and similarly, the second or third component may be alternately named.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않은 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used with the meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless clearly defined in particular.

이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 따른 학습 챗봇을 활용한 학습 유도 시스템 및 방법에 관하여 상세히 설명하면 다음과 같다.Hereinafter, a learning induction system and method using a learning chatbot according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 손가락을 이용한 학습 시스템의 전체적인 구성을 개략적으로 나타낸 구성도이다.1 is a configuration diagram schematically showing the overall configuration of a learning system using a finger according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 손가락을 이용한 학습 시스템(100)은, 복수의 웹 서버(102), 학습자 단말기(104), 제1 서버(Server 1)(110) 및 제2 서버(Server 2)(120)를 포함한다.Referring to FIG. 1 , a learning system 100 using a finger according to an embodiment of the present invention includes a plurality of web servers 102 , a learner terminal 104 , a first server ( Server 1 ) 110 , and a second It includes a server (Server 2) (120).

웹 서버(102)는 제1 서버(110)와 연동하여, 웹 페이지를 통하여 학습 서비스를 제공하는 서버이다.The web server 102 is a server that provides a learning service through a web page in cooperation with the first server 110 .

학습자 단말기(104)는 학습자가 휴대하는 단말기로서, 웹 서버(102)에 접속하여, 웹 서버(102)로부터 학습 서비스를 제공받는다. 학습자 단말기(104)는 예를 들면, 태블릿 단말기나 스마트폰 등이 될 수 있다.The learner terminal 104 is a terminal carried by the learner, and accesses the web server 102 to receive a learning service from the web server 102 . The learner terminal 104 may be, for example, a tablet terminal or a smart phone.

제1 서버(110)는, 학습 실행부(114)를 통하여 학습을 실행 또는 유도하는 서비스를 제공하는 서버이다. The first server 110 is a server that provides a service for executing or inducing learning through the learning execution unit 114 .

제1 서버(110)는 터치 입출력부(112) 및 학습 실행부(114)를 포함한다. 여기서, 학습 실행부(114)는 예를 들면, 학습 챗봇(Learning Chot Bot)을 예로 들 수 있다.The first server 110 includes a touch input/output unit 112 and a learning execution unit 114 . Here, the learning execution unit 114 may be, for example, a Learning Chot Bot.

터치 입출력부(112)는, 학습 메뉴를 화면 상으로 제공하고, 메뉴 선택에 관한 터치를 입력받거나, 사용자의 질문에 관한 음성 또는 문자를 입력받는다.The touch input/output unit 112 provides a learning menu on the screen, receives a touch input for menu selection, or receives a voice or text input for a user's question.

학습 메뉴는 예를 들면, 밀크T 초등 학습 메뉴를 포함할 수 있다. 밀크T 초등 학습 메뉴는 밀크T 학교공부, 수준별 수학, 수준별 영어, 창의 사고력, 밀크T 중학 종합반 메뉴를 포함할 수 있다.The learning menu may include, for example, a milk T elementary learning menu. Milk T elementary school learning menu may include milk T school study, math by level, English by level, creative thinking ability, and milk T middle school general class menu.

학습 실행부(114)는 터치 입출력부(112)를 통해 입력받은 음성 또는 문자를 처리하고, 처리 결과에 따라 키워드 추천, 단순 응답, 진도 확인, 연관 학습, 단순 게임, 감성 코칭 중 하나로 학습을 유도할 수 있다.The learning execution unit 114 processes the voice or text input through the touch input/output unit 112 and induces learning by one of keyword recommendation, simple response, progress check, associative learning, simple game, and emotional coaching according to the processing result. can do.

학습 실행부(114)는 챗봇 서비스 API와 WE 모델을 이용하여 학습 유도 서비스를 제공할 수 있다.The learning execution unit 114 may provide a learning induction service using the chatbot service API and the WE model.

학습 실행부(114)는 학습 메뉴에 대하여 오늘의 학습, 전체 메뉴, 숙제질문을 제공하고, 사용자가 과목을 선택하고, 선택된 과목의 학습을 실행하며, 숙제질문에 대하여 Q&A 데이터 및 학습백과사전에 대한 데이터를 활용하여 학습 답변을 제공할 수 있다.The learning execution unit 114 provides today's learning, the entire menu, and homework questions for the learning menu, the user selects a subject, executes the learning of the selected subject, and answers the homework question to Q&A data and a learning encyclopedia. It is possible to provide a learning answer by using the data for

학습 실행부(114)는 학습 메뉴에 대하여 밀크T 초등 학습 메뉴로서, 밀크T 학교공부, 수준별 수학, 수준별 영어, 창의 사고력, 밀크T 중학 종합반 메뉴를 제공할 수 있다.The learning execution unit 114 may provide a milk T elementary school learning menu with respect to the learning menu, and a milk T school study, math by level, English by level, creative thinking ability, and milk T middle school general class menu.

학습 실행부(114)는 학습 메뉴에 대하여 학습창을 제공하고, 학습창 과목 코드를 기준으로 과목을 자동으로 선택하고, 숙제질문에 대하여 Q&A 데이터 및 학습백과사전에 대한 데이터를 활용하여 학습 답변을 제공할 수 있다.The learning execution unit 114 provides a learning window for the learning menu, automatically selects a subject based on the learning window subject code, and provides a learning answer to the homework question by using the Q&A data and the learning encyclopedia data. can provide

제2 서버(120)는, 제1 서버(110)와 연동하여, 챗봇 관리 API, WE 모델, 데이터베이스, 탄력적 검색기(Elastic Searcher) 등을 제공하는 서버이다.The second server 120 is a server that interworks with the first server 110 to provide a chatbot management API, WE model, database, elastic searcher, and the like.

데이터베이스는 프로젝트/인텐트/문장정보와 프로젝트별 Token Weight를 저장하기 위해 사용된다. The database is used to store project/intent/sentence information and token weight for each project.

탄력적 검색기는 문장 정보와 문장의 벡터를 색인 벡터 필드를 활용한 유사도 비교를 위해 사용된다.The elastic searcher is used to compare sentence information and sentence vector for similarity using index vector field.

여기서, 웹 서버(102), 제1 서버(110) 및 제2 서버(120)는 예를 들면, 각각 컴퓨터 장치 등으로 구현할 수 있다.Here, the web server 102 , the first server 110 , and the second server 120 may be implemented by, for example, a computer device or the like.

학습자 단말기(14)는 웹 서버(102)에 접속하여, 학습 메뉴에 대하여 밀크T 초등 학습 메뉴로서, 밀크T 학교공부, 수준별 수학, 수준별 영어, 창의 사고력, 밀크T 중학 종합반 메뉴를 제공받을 수 있다.The learner terminal 14 accesses the web server 102, and as a milk T elementary learning menu for the learning menu, the milk T school study, mathematics by level, English by level, creative thinking ability, and milk T middle school general class menu can be provided. .

도 2는 본 발명의 실시예에 따른 학습 실행부의 내부 구성을 개략적으로 나타낸 구성도이다. 2 is a configuration diagram schematically illustrating an internal configuration of a learning execution unit according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 실시예에 따른 학습 실행부(114)는, 변환부(210), 임베딩(Embedding) 처리부(220) 및 학습 유도부(230)를 포함할 수 있다.Referring to FIG. 2 , the learning execution unit 114 according to an embodiment of the present invention may include a transforming unit 210 , an embedding processing unit 220 , and a learning inducing unit 230 .

변환부(210)는 터치 입출력부(112)를 통해 입력받은 음성을 문자로 변환 또는 문자를 음성으로 변환하여 인식하고 언어 모델로 생성한다.The conversion unit 210 converts the voice input through the touch input/output unit 112 into text or converts the text into speech, recognizes it and generates it as a language model.

임베딩 처리부(220)는 변환된 문자를 임베딩(Embedding) 처리한다.The embedding processing unit 220 embeds the converted character.

학습 유도부(230)는 임베딩 처리된 결과에 따라 키워드 추천, 단순 응답, 진도 확인, 연관 학습, 단순 게임, 감성 코칭 중 하나로 학습을 유도할 수 있다.The learning induction unit 230 may induce learning by one of keyword recommendation, simple response, progress check, associative learning, simple game, and emotional coaching according to the embedding process result.

변환부(210)에서 음성을 문자로 변환(Speech To Text) 하는 음성 인식(Speech Recognition)은 키패드 입력에 익숙하지 않은 학습자를 위해 음성 입력을 받기 위해 필요한 기술이다.Speech recognition in which the conversion unit 210 converts voice into text (Speech To Text) is a technology required to receive voice input for learners who are not familiar with keypad input.

음성 인식은 사람이 말하는 음성 언어를 컴퓨터가 해석해 그 내용을 문자 데이터로 전환하는 처리를 말한다. STT(Speech-to-Text) 기술이라고도 한다. 키보드 대신 문자를 입력하는 방식으로 주목을 받고 있다. 로봇, 텔레매틱스 등 음성으로 기기제어, 정보검색이 필요한 경우에 응용된다. 대표적인 알고리즘은 HMM(Hidden Markov Model)으로서, 도 3에 도시된 바와 같이 다양한 화자들이 발성한 음성들을 전처리하고 통계적으로 모델링하여 음향 모델을 구성하며, 말뭉치 수집을 통하여 언어모델을 구성한다. 도 3은 본 발명의 실시예에 따른 학습 실행부의 변환부 동작 과정을 나타낸 도면이다. 도 3에 도시된 바와 같이, 학습 실행부(114)에서 변환부(220)는 전처리 과정, 음향 모델 과정, 언어 모델 및 후처리 과정을 통하여 음성을 문자 데이터로 변환하게 되는 것이다.Speech recognition refers to processing in which a computer interprets the speech language spoken by a person and converts the content into text data. Also known as Speech-to-Text (STT) technology. It is attracting attention as a method of entering characters instead of a keyboard. It is applied when device control and information retrieval are required by voice, such as robots and telematics. A representative algorithm is HMM (Hidden Markov Model). As shown in FIG. 3 , voices uttered by various speakers are preprocessed and statistically modeled to construct an acoustic model, and a language model is constructed through corpus collection. 3 is a diagram illustrating an operation process of a conversion unit of a learning execution unit according to an embodiment of the present invention. As shown in FIG. 3 , in the learning execution unit 114 , the converting unit 220 converts voice into text data through a preprocessing process, an acoustic model process, a language model, and a postprocessing process.

또한, 변환부(210)는 사용자에 의해 입력된 문자(Text)를 음성(Speech)으로 변환하는 TTS(Text To Speech) 기능도 수행할 수 있다. 물론, 변환부(210)는 사용자로부터 입력된 음성(Speech)을 문자(Text)로 변환하는 STT(Speech To Text) 기능을 수행할 수 있다.In addition, the conversion unit 210 may also perform a text-to-speech (TTS) function for converting text input by the user into speech. Of course, the converter 210 may perform a Speech to Text (STT) function for converting speech input from the user into text.

임베딩 처리부(220)는 변환된 문자를 전처리하여 임베딩(Embedding) 처리할 때 자연어 처리(NLP) 과정을 수행하고 후처리하여 문자 데이터를 출력한다.The embedding processing unit 220 performs a natural language processing (NLP) process when pre-processing and embedding the converted characters, and outputs character data by post-processing.

자연어 처리(National Language Processing) 기술은, 컴퓨터 과학과 인공지능과 언어학이 합쳐진 분야이다. 컴퓨터를 이용한 사람 언어의 이해, 생성, 분석을 다루는 AI 기술이다.National Language Processing (NLP) technology is a field that combines computer science, artificial intelligence, and linguistics. It is an AI technology that deals with the understanding, generation, and analysis of human language using computers.

자연어 처리 또는 자연 언어 처리는 인간의 언어 현상을 컴퓨터와 같은 기계를 이용해서 묘사할 수 있도록 연구하고 이를 구현하는 인공지능의 주요 분야 중 하나다. 자연 언어 처리는 연구 대상이 언어이기 때문에 당연하게도 언어 자체를 연구하는 언어학과 언어 현상의 내적 기재를 탐구하는 언어 인지 과학과 연관이 깊다. 구현을 위해 수학적 통계적 도구를 많이 활용하며 특히 기계학습 도구를 많이 사용하는 대표적인 분야이다. 정보검색, QA 시스템, 문서 자동 분류, 신문기사 클러스터링, 대화형 Agent 등 다양한 응용이 이루어지고 있다. 자연 언어에 대한 연구는 오래전부터 이어져 오고 있음에도 2018년에 들어서도 아직 컴퓨터가 자연 언어를 사람처럼 이해하지는 못한다. 대신, 언어에 대한 깊은 이해없이 피상적인 확률 및 통계를 이용하여 대량의 정보를 처리하는 기술은 많이 발전한 상태이다.Natural language processing or natural language processing is one of the main fields of artificial intelligence that studies and implements human language phenomena to be described using machines such as computers. Natural language processing is naturally closely related to linguistics, which studies language itself, and linguistic cognitive science, which explores the internal mechanisms of language phenomena, since the subject of study is language. It is a representative field that uses a lot of mathematical and statistical tools for implementation, especially machine learning tools. Various applications such as information retrieval, QA system, automatic document classification, newspaper article clustering, and interactive agent are being made. Although research on natural language has been going on for a long time, even in 2018, computers still cannot understand natural language like humans. Instead, the technology for processing a large amount of information using superficial probability and statistics without a deep understanding of language has been greatly developed.

본 발명은 단어와 문장을 숫자 벡터로 인코딩하는 텍스트 임베딩 기법을 활용할 수 있다. 이러한 벡터 표현은 텍스트의 언어적 내용을 포착하도록 설계되었으며 쿼리와 문서 사이의 유사도를 평가하는데 사용할 수 있다.The present invention may utilize a text embedding technique for encoding words and sentences into numeric vectors. These vector representations are designed to capture the linguistic content of text and can be used to evaluate the similarity between a query and a document.

단어를 밀집 벡터(dense vector)의 형태로 표현하는 방법을 워드 임베딩(word embedding)이라고 한다. 그리고 이 밀집 벡터를 워드 임베딩 과정을 통해 나온 결과라고 하여 임베딩 벡터(embedding vector)라고도 한다.A method of expressing a word in the form of a dense vector is called word embedding. And since this dense vector is a result obtained through the word embedding process, it is also called an embedding vector.

워드 임베딩 방법으로는 LSA, Word2Vec, FastText, Glove 등이 있다. 케라스에서 제공하는 도구인 Embedding()은 앞서 언급한 방법들을 사용하지는 않지만, 단어를 랜덤한 값을 가지는 밀집 벡터로 변환한 뒤에, 인공 신경망의 가중치를 학습하는 것과 같은 방식으로 단어 벡터를 학습하는 방법을 사용한다.Word embedding methods include LSA, Word2Vec, FastText, and Glove. Embedding(), a tool provided by Keras, does not use the aforementioned methods, but converts words into dense vectors with random values and then learns word vectors in the same way as learning the weights of an artificial neural network. use the method

단어의 특징과 유사도를 나타내 주는 (진정한) embedding은 Word2Vec과 같은 학습을 통한 예측 기반 방법이다. The (true) embedding, which indicates the characteristics and similarity of words, is a prediction-based method through learning, such as Word2Vec.

이때 분포 가설(Distributed hypothesis)이 등장한다. 분포 가설은 같은 문맥의 단어, 즉 비슷한 위치에 나오는 단어는 비슷한 의미를 가진다라는 의미이다. 따라서 어떤 글의 비슷한 위치에 존재하는 단어는 단어 간의 유사도를 높게 측정할 것이다.At this point, the distributed hypothesis emerges. The distribution hypothesis states that words in the same context, that is, words that appear in similar positions, have similar meanings. Therefore, words that exist in similar positions in a certain text will have a high degree of similarity between words.

한편, 도 2에서, 학습 유도부(230)는 임베딩 처리된 결과에 따라 키워드 추천, 단순 응답, 진도 확인, 연관 학습, 단순 게임, 감성 코칭 중 하나로 학습을 유도할 수 있다.Meanwhile, in FIG. 2 , the learning induction unit 230 may induce learning by one of keyword recommendation, simple response, progress check, associative learning, simple game, and emotional coaching according to the embedding process result.

학습 실행부(114)는 챗봇을 통해 실시간으로 학생의 궁금증을 해소해 주면서, 추가적으로 알면 좋을 연관 키워드를 추천해 준다. 이를 통해 학생은 호기심을 느끼고, 학습에 대한 흥미를 찾을 수 있다.The learning execution unit 114 solves the student's curiosity in real time through the chatbot, and recommends related keywords that you would like to know additionally. Through this, students can feel curiosity and find interest in learning.

학습 유도부(230)는 학습 진도에 대해 체크해 주고, 필요한 학습이 뭐가 있는지 대화가 생성될 때 알려준다.The learning induction unit 230 checks the learning progress and informs when a conversation is created about what learning is required.

학습 유도부(230)는 기후 변화가 있을 때 날씨에 연관되게 안부를 묻고, 학습자와 감정 소통이 가능하게 한다. 예를 들면, 학습 유도부(230)는 오늘 비가 오는데 우산 꼭 챙겨가길 바래 !, 햇빛이 쨍쨍해. 오늘 기분은 어때? 등과 같이 학습자와 감정 소통을 유도할 수 있다.When there is a climate change, the learning induction unit 230 asks for greetings related to the weather, and enables emotional communication with the learner. For example, the learning induction unit 230 is raining today, so make sure to bring an umbrella!, the sun is shining. How are you feeling today? It can induce emotional communication with learners, such as

학습 유도부(230)는 챗봇 내의 단순 게임을 통해 연관 학습을 추천한다. 게임으로 흥미를 유발하고, 이후에 학습을 유도하도록 하는 것이다. 학생이 물어온 질문에 대한 답과 동일한 벡터값을 가지는 키워드나 연관 학습을 추천하여, 심화된 학습에 흥미를 느끼게 한다.The learning induction unit 230 recommends associative learning through a simple game in the chatbot. It is a game to inspire interest and to induce learning later. By recommending keywords or associative learning that have the same vector value as the answer to the question asked by the student, it makes students feel interested in in-depth learning.

도 4는 본 발명의 실시예에 따른 학습 실행부의 동작 흐름도를 나타낸 도면이다. 4 is a diagram illustrating an operation flowchart of a learning execution unit according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 실시예에 따른 학습 실행부(114)는 전면(Front) 동작과 후면(Back) 동작으로 구분할 수 있다.Referring to FIG. 4 , the learning execution unit 114 according to an embodiment of the present invention may be divided into a front operation and a back operation.

전면 동작의 경우에, 하나의 서비스는, 사용자가 휴대하는 밀크T 초등에 관한 태블릿 PC에서 학습 챗봇을 실행하면(S410), 학습 챗봇은 오늘의 학습, 전체메뉴, 숙제질문에 관한 메뉴를 제공한다. 이에, 사용자는 과목을 선택하고(S420), 숙제질문을 실행한다(S430). 여기서, 숙제질문은 Q&A 데이터를 활용하거나, 학습백과사전 데이터를 활용하여 제공한다.In the case of the front operation, one service executes the learning chatbot on the tablet PC for Milk T Elementary School carried by the user (S410), the learning chatbot provides a menu for today's learning, the full menu, and homework questions. . Accordingly, the user selects a subject (S420) and executes a homework question (S430). Here, homework questions are provided using Q&A data or learning encyclopedia data.

전면 동작의 경우에, 다른 서비스는, 사용자가 휴대하는 밀크T 초등에 관한 태블릿 PC에서 학습 챗봇을 실행하면(S440), 학습 챗봇은 학습창을 제공하고, 학습창 과목 코드를 기준으로 과목 자동 선택을 제공한다(S450). 이에, 학습 챗봇은 Q&A 데이터를 활용하거나, 학습백과사전 데이터를 활용하여 숙제질문을 제공한다(S460).In the case of the front operation, when the other service executes the learning chatbot on the tablet PC for Milk T elementary school carried by the user (S440), the learning chatbot provides a learning window and automatically selects a subject based on the learning window subject code provides (S450). Accordingly, the learning chatbot provides homework questions using Q&A data or learning encyclopedia data (S460).

후면 동작의 경우에, 챗봇 관리자 활용 및 운영에 관한 ADMIN 기능을 제공함과 더불어 사용자 챗봇 사용 이력에 관한 CRM 기능을 제공한다.In the case of the back operation, it provides the ADMIN function for the chatbot manager utilization and operation, and also provides the CRM function for the user chatbot usage history.

도 5는 본 발명의 실시예에 따른 손가락을 이용한 학습 시스템의 구성을 개략적으로 나타낸 구성도이다.5 is a configuration diagram schematically showing the configuration of a learning system using a finger according to an embodiment of the present invention.

즉, 도 5는 본 발명의 실시예에 따른 손가락을 이용한 학습 시스템이 적용된 학습자 단말기(104)의 내부 구성을 나타낸 도면이다.That is, FIG. 5 is a diagram showing the internal configuration of the learner terminal 104 to which the finger learning system according to an embodiment of the present invention is applied.

도 5를 참조하면, 본 발명이 적용된 학습자 단말기(104)는, 터치 입출력부(502), 저장부(504), 매칭부(506), 학습 실행부(508) 및 제어부(510)를 포함할 수 있다.Referring to FIG. 5 , the learner terminal 104 to which the present invention is applied may include a touch input/output unit 502 , a storage unit 504 , a matching unit 506 , a learning execution unit 508 , and a control unit 510 . can

터치 입출력부(502)는 손가락 터치를 입력받으며, 학습 메뉴를 화면 상으로 제공한다.The touch input/output unit 502 receives a finger touch and provides a learning menu on the screen.

저장부(504)는 학습 메뉴에 해당하는 하나 이상의 학습 컨텐츠를 저장하고 있다. 또한, 저장부(504)는 터치 입출력부를 통해 획득된 지문 영상 또는 터치 입출력부를 통해 등록된 지문 영상을 저장할 수 있다.The storage unit 504 stores one or more learning contents corresponding to the learning menu. Also, the storage 504 may store a fingerprint image acquired through the touch input/output unit or a fingerprint image registered through the touch input/output unit.

매칭부(506)는 터치 입출력부를 통해 획득된 지문 이미지와 상기 학습 메뉴에 따른 학습 컨텐츠를 매칭시킨다.The matching unit 506 matches the fingerprint image obtained through the touch input/output unit with the learning content according to the learning menu.

학습 실행부(508)는 터치 입출력부의 화면 상으로 상기 학습 메뉴를 제공하고, 선택된 학습 메뉴에 해당하는 학습 컨텐츠를 실행한다.The learning execution unit 508 provides the learning menu on the screen of the touch input/output unit, and executes the learning content corresponding to the selected learning menu.

제어부(510)는 터치 입출력부를 통해 선택된 학습 메뉴에 해당하는 학습 컨텐츠와, 터치 입출력부를 통해 획득된 지문 이미지를 매칭부를 통해 매칭하여 등록하고, 학습 실행부가 실행되고 터치 입출력부를 통해 손가락 터치가 입력되어, 등록된 지문 이미지와 동일한 지문 이미지가 터치 입출력부를 통해 획득되면, 등록된 지문 이미지에 매칭된 학습 컨텐츠가 실행되도록 학습 실행부를 제어할 수 있다.The control unit 510 matches and registers the learning content corresponding to the learning menu selected through the touch input/output unit and the fingerprint image obtained through the touch input/output unit through the matching unit, the learning execution unit is executed, and a finger touch is input through the touch input/output unit. , when the same fingerprint image as the registered fingerprint image is obtained through the touch input/output unit, the learning execution unit may be controlled to execute the learning content matched to the registered fingerprint image.

학습자 단말기(104)로 제공받은 학습 메뉴는 밀크T 학교공부, 수준별 수학, 수준별 영어, 창의 사고력, 밀크T 중학 종합반 메뉴를 포함한다.The learning menu provided to the learner terminal 104 includes milk T school study, math by level, English by level, creative thinking ability, and milk T middle school general class menu.

밀크T 학교공부 메뉴는 과목별 공부, 시험대비 특강, 첨삭과외, 중학특강 메뉴를 포함하고, 수준별 수학 메뉴는 스토리텔링 개념학습, 영역별 수학, FunFun 연산게임, 유형격파, 실력충전 메뉴를 포함한다.Milk T school study menu includes study by subject, special lecture for exam preparation, correctional tutoring, and special lecture menu for middle school. The mathematics menu by level includes storytelling concept learning, mathematics by area, FunFun calculation game, type breaking, and skill charging menu. .

수준별 영어 메뉴는 술술 Speaking, 쏙쏙 Words, 팡팡 Phonics, 줄줄 Reading, 탄탄 Grammer, 영어 Songs, 영어 Library 메뉴를 포함하고, 창의 사고력 메뉴는 특별 학습, 숙제해결, 천재북클럽, 초등생활 메뉴를 포함한다.The English menu for each level includes Speaking, Words, Phonics, Reading, Tantan Grammer, English Songs, and English Library menus.

밀크T 중학 종합반 메뉴는 스터디 매니져, 멀티학습 플레이어, 자기주도 학습, 수학 영어 첨삭 서비스, 수학 질답 커뮤니티, 10분 수학 영어 메뉴를 포함할 수 있다.Milk T middle school general class menu may include study manager, multi-learning player, self-directed learning, math English correction service, math question and answer community, and 10-minute math English menu.

도 6및 도 7은 본 발명의 실시예에 따른 학습자 단말기를 개략적으로 나타낸 평면도들이다.6 and 7 are plan views schematically illustrating a learner terminal according to an embodiment of the present invention.

도 6 및 도 7을 참조하면, 본 발명의 실시예에 따른 학습자 단말기(104)는 표시 패널(PN) 및 표시 패널(PN)을 구동하기 위한 구동 회로(DCP)를 포함할 수 있다.6 and 7 , the learner terminal 104 according to an embodiment of the present invention may include a display panel PN and a driving circuit DCP for driving the display panel PN.

표시 패널(PN)은 표시 영역(DA)과 비표시 영역(NDA)을 포함할 수 있다. 표시 영역(DA)은 화소들(PXL)이 제공됨으로써 영상이 표시될 수 있고, 비표시 영역(NDA)은 표시 영역(DA)의 적어도 일측에 위치할 수 있다. 예를 들어, 비표시 영역(NDA)은 표시 영역(DA)을 둘러싸는 형태로 제공될 수 있다.The display panel PN may include a display area DA and a non-display area NDA. The display area DA may display an image by providing the pixels PXL, and the non-display area NDA may be positioned at at least one side of the display area DA. For example, the non-display area NDA may be provided to surround the display area DA.

표시 영역(DA)에는 복수의 화소들(PXL)이 제공될 수 있다. 실시예에 따라, 화소들(PXL) 각각은 적어도 하나의 발광 소자를 포함할 수 있다. 실시예에 따라, 발광 소자는 유기 발광 다이오드 또는 마이크로 내지 나노 스케일 범위의 크기를 가지는 초소형 무기 발광 다이오드들을 포함한 발광 유닛일 수 있으나, 본 발명이 이에 한정되지 않는다. 표시 장치(DD)는 입력되는 영상 데이터에 대응하여 화소들(PXL)을 구동함으로써 표시 영역(DA)에서 영상을 표시할 수 있다.A plurality of pixels PXL may be provided in the display area DA. According to an embodiment, each of the pixels PXL may include at least one light emitting device. According to an embodiment, the light emitting device may be an organic light emitting diode or a light emitting unit including ultra-small inorganic light emitting diodes having a size in a micro to nano scale range, but the present invention is not limited thereto. The display device DD may display an image in the display area DA by driving the pixels PXL in response to input image data.

비표시 영역(NDA)은 표시 영역(DA)의 적어도 일측을 둘러싸는 영역으로서, 표시 영역(DA)을 제외한 나머지 영역일 수 있다. 실시예에 따라, 비표시 영역(NDA)은 배선 영역, 패드 영역, 및/또는 각종 더미 영역 등을 포함할 수 있다.The non-display area NDA is an area surrounding at least one side of the display area DA, and may be the remaining area except for the display area DA. According to an embodiment, the non-display area NDA may include a wiring area, a pad area, and/or various dummy areas.

표시 영역(DA)은 터치 입출력부(502)를 포함할 수 있다. 터치 입출력부(502)는, 지문 센서(FPS) 및 지문 검출부(FPDP)를 포함할 수 있다.The display area DA may include a touch input/output unit 502 . The touch input/output unit 502 may include a fingerprint sensor FPS and a fingerprint detection unit FPDP.

본 발명의 실시예에 따른 학습자 단말기(104)의 표시 패널(PN)에서 일 영역은 사용자의 지문 등을 감지할 수 있는 감지 영역(SA)으로 설정될 수 있다. 즉, 표시 영역(DA)의 적어도 일부가 감지 영역(SA)일 수 있다. 이러한 감지 영역(SA)은 표시 영역(DA)에 제공된 화소들(PXL) 중 적어도 일부의 화소들(PXL)을 포함할 수 있다.In the display panel PN of the learner terminal 104 according to an embodiment of the present invention, one area may be set as a sensing area SA capable of detecting a user's fingerprint or the like. That is, at least a portion of the display area DA may be the sensing area SA. The sensing area SA may include at least some of the pixels PXL provided in the display area DA.

여기서 감지 영역(SA)은 사용자의 지문을 감지하는 지문 센서(FPS)를 포함할 수 있다. Here, the detection area SA may include a fingerprint sensor FPS that detects a user's fingerprint.

도 6에 도시된 바와 같이 표시 영역(DA) 중 일부의 영역만이 감지 영역(SA)으로 설정될 수 있다. 또한 다른 실시예에 따라 도 7에 도시된 바와 같이 표시 영역(DA)의 전체가 감지 영역(SA)으로 설정될 수 있다. 표시 영역(DA) 전체가 감지 영역(SA)으로 설정되는 경우, 표시 영역(DA)을 둘러싼 비표시 영역(NDA)은 비감지 영역(NSA)이 될 수 있다. 감지 영역(SA)에는 복수의 화소들(PXL)과 함께 복수의 광 센서들(PSR)이 배치될 수 있다.As shown in FIG. 6 , only a portion of the display area DA may be set as the sensing area SA. Also, according to another exemplary embodiment, the entire display area DA may be set as the sensing area SA as shown in FIG. 7 . When the entire display area DA is set as the sensing area SA, the non-display area NDA surrounding the display area DA may become the non-sensing area NSA. A plurality of light sensors PSR may be disposed in the sensing area SA together with a plurality of pixels PXL.

광 센서들(PSR)은 표시 장치(DD)에서 영상이 표시되는 일면(일 예로, 영상 표시면)과 마주보는 타면 측에 배치될 수 있다. 즉, 광 센서들(PSR)은 표시 장치(DD)에서 영상이 표시되지 않는 면에 배치될 수 있다. 이러한 광 센서들(PSR)은 감지 영역(SA) 또는 그 주변에 배치된 적어도 하나의 화소(PXL)에 구비된 발광 소자를 지문 감지 등을 위한 광원으로 이용할 수 있다. 이를 위해, 광 센서들(PSR)은 감지 영역(SA)에 배치된 화소들(PXL) 중 적어도 일부와 중첩되거나, 또는 화소들(PXL)의 주변에 배치될 수 있다.The optical sensors PSR may be disposed on the other side of the display device DD facing one surface (eg, an image display surface) on which an image is displayed. That is, the optical sensors PSR may be disposed on a surface on which an image is not displayed on the display device DD. The light sensors PSR may use a light emitting device provided in the sensing area SA or at least one pixel PXL disposed around the sensing area SA as a light source for detecting a fingerprint or the like. To this end, the optical sensors PSR may overlap at least some of the pixels PXL disposed in the sensing area SA or may be disposed around the pixels PXL.

이와 같은 광 센서들(PSR)은, 감지 영역(SA)의 화소들(PXL), 특히, 화소들(PXL)에 구비된 발광 소자와 함께 광 감지 방식의 지문 센서를 구성할 수 있다. 즉, 광 센서들(PSR)은 발광 소자에서 출사된 광이 사용자에 의해 반사되는 것을 감지하고, 반사광을 검출하여 사용자의 지문을 감지할 수 있다. 상술한 실시예에서 광 센서들(PSR)이 지문 감지를 위한 용도로 이용되는 것으로 설명하였으나, 본 발명이 이에 한정되는 것은 아니다. 실시예에 따라, 광 센서들(PSR)은 지문 감지 외에 터치 센서나 스캐너 등과 같은 다양한 기능을 수행하기 위한 용도로 이용될 수 있다.The optical sensors PSR may constitute a photo-sensing fingerprint sensor together with the pixels PXL of the sensing area SA, in particular, light emitting devices provided in the pixels PXL. That is, the optical sensors PSR may detect that the light emitted from the light emitting device is reflected by the user, and detect the reflected light to detect the user's fingerprint. Although it has been described that the optical sensors PSR are used for fingerprint detection in the above-described embodiment, the present invention is not limited thereto. According to an embodiment, the optical sensors PSR may be used to perform various functions, such as a touch sensor or a scanner, in addition to detecting a fingerprint.

상술한 본 발명의 일 실시예에 따른 발명자 단말기(104)는, 표시 영역(DA)에 포함된 감지 영역(SA)에 배치된 광 센서들(PSR)을 이용하여, 표시 패널(PN) 상에 위치한 물체의 형상이나 패턴 등을 감지할 수 있다. 일 예로, 발명자 단말기(104)는 사용자의 지문을 감지할 수 있다. 또한, 본 발명의 일 실시예에 따른 발명자 단말기(104)는 화소들(PXL)로부터 방출되는 광을 이용하여 사용자의 지문을 감지할 수 있다. 이와 같이, 별도의 외부 광원을 구비하지 않고 화소들(PXL)을 광원으로 활용하여 지문 센서 내장형 표시 장치를 구현할 경우, 발명자 단말기(104)의 두께를 줄일 수 있고, 그의 제조 비용을 줄일 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니고, 지문 감지를 위한 별도의 외부 광원이 채용될 수도 있다.The inventor's terminal 104 according to the above-described embodiment of the present invention is displayed on the display panel PN using the optical sensors PSR disposed in the sensing area SA included in the display area DA. It can detect the shape or pattern of a positioned object. For example, the inventor's terminal 104 may detect a user's fingerprint. In addition, the inventor's terminal 104 according to an embodiment of the present invention may detect a user's fingerprint using light emitted from the pixels PXL. As such, when a fingerprint sensor-embedded display device is implemented by using the pixels PXL as a light source without a separate external light source, the thickness of the inventor's terminal 104 can be reduced and the manufacturing cost thereof can be reduced. However, the present invention is not limited thereto, and a separate external light source for fingerprint sensing may be employed.

구동 회로(DCP)는 표시 패널(PN)을 구동할 수 있다. 예를 들어, 구동 회로(DCP)는 표시 패널(PN)로 영상 데이터에 대응하는 데이터 신호를 출력하거나, 광 센서들(PSR)을 위한 구동 신호를 출력하고 광 센서들(PSR)로부터 수신되는 전기적 신호(일 예로, 센싱 신호)를 수신할 수 있다. 구동 회로(DCP)는 전기적 신호들을 이용하여 사용자의 지문 형태를 검출할 수 있다.The driving circuit DCP may drive the display panel PN. For example, the driving circuit DCP outputs a data signal corresponding to image data to the display panel PN or outputs a driving signal for the optical sensors PSR and receives electrical signals from the optical sensors PSR. A signal (eg, a sensing signal) may be received. The driving circuit DCP may detect the user's fingerprint shape using electrical signals.

실시예에 따라, 구동 회로(DCP)는 패널 구동부(PNDP)와 지문 검출부(FPDP)를 포함할 수 있다. 편의를 위하여, 도 6 및 도 7에서는 패널 구동부(PNDP)와 지문 검출부(FPDP)를 분리하여 도시하였으나, 본 발명이 이에 한정되는 것은 아니다. 예를 들어, 지문 검출부(FPDP)의 적어도 일부는 패널 구동부(PNDP)와 함께 집적되거나, 패널 구동부(PNDP)와 연동하여 동작할 수 있다.In some embodiments, the driving circuit DCP may include a panel driving unit PNDP and a fingerprint detecting unit FPDP. For convenience, although the panel driver PNDP and the fingerprint detector FPDP are illustrated separately in FIGS. 6 and 7 , the present invention is not limited thereto. For example, at least a portion of the fingerprint detector FPDP may be integrated together with the panel driver PNDP or may operate in conjunction with the panel driver PNDP.

패널 구동부(PNDP)는 표시 영역(DA)의 화소들(PXL)을 순차적으로 주시하면서 화소들(PXL)로 영상 데이터 신호에 대응하는 데이터 신호를 공급할 수 있다. 이러한 경우 표시 패널(PN)은 영상 데이터에 대응하는 영상을 표시할 수 있다.The panel driver PNDP may supply a data signal corresponding to the image data signal to the pixels PXL while sequentially watching the pixels PXL of the display area DA. In this case, the display panel PN may display an image corresponding to the image data.

실시예에 따라, 패널 구동부(PNDP)는 화소들(PXL)로 지문 감지를 위한 구동 신호를 공급할 수 있다. 이러한 구동 신호는 화소들(PXL)이 발광하여 광 센서들(PSR)을 위한 광원으로서 동작하도록 하기 위해 제공될 수 있다. 지문 감지를 위한 구동 신호는, 표시 패널(PN) 내의 특정 영역에 마련된 화소들(PXL), 일 예로 감지 영역(SA)에 제공된 화소들(PXL)에 전달될 수 있다. 다양한 실시예에서, 지문 감지를 위한 구동 신호는 지문 검출부(FPDP)에 의하여 감지 영역(SA)의 화소들(PXL)로 전달될 수 있다.In some embodiments, the panel driver PNDP may supply a driving signal for fingerprint sensing to the pixels PXL. Such a driving signal may be provided to cause the pixels PXL to emit light to operate as a light source for the light sensors PSR. The driving signal for fingerprint sensing may be transmitted to the pixels PXL provided in a specific area of the display panel PN, for example, the pixels PXL provided in the sensing area SA. In various embodiments, a driving signal for fingerprint sensing may be transmitted to the pixels PXL of the sensing area SA by the fingerprint detector FPDP.

지문 검출부(FPDP)는 광 센서들(PSR)을 구동하기 위한 구동 신호(일 예로, 구동 전압)를 광 센서들(PSR)로 전달하고, 광 센서들(PSR)로부터 수신되는 전기적 신호들에 기초하여 사용자 지문을 검출할 수 있다.The fingerprint detector FPDP transmits a driving signal (eg, a driving voltage) for driving the optical sensors PSR to the optical sensors PSR, and based on the electrical signals received from the optical sensors PSR Thus, the user's fingerprint can be detected.

도 8은 도 6 또는 도 7에 도시된 학습자 단말기를 개략적으로 도시한 단면도이고, 도 9는 도 8의 선택적 광 투과부를 개략적으로 나타낸 평면도이다.FIG. 8 is a cross-sectional view schematically illustrating the learner terminal shown in FIG. 6 or FIG. 7 , and FIG. 9 is a plan view schematically illustrating the selective light transmitting part of FIG. 8 .

도 6, 도 7, 도 8 및 도 9를 참조하면, 본 발명의 실시예에 따른 학습자 단말기(104)는, 표시 패널(PN), 터치 센서(TS), 및 윈도우(WD)를 포함할 수 있다.6, 7, 8 and 9 , the learner terminal 104 according to an embodiment of the present invention may include a display panel PN, a touch sensor TS, and a window WD. have.

표시 패널(PN)은 지문 센서(SA)를 포함하고, 지문 센서(SA)는 광 감지 어레이부(LSL) 및 선택적 광 투과부(LBL)를 포함할 수 있다.The display panel PN may include a fingerprint sensor SA, and the fingerprint sensor SA may include a light sensing array unit LSL and a selective light transmitting unit LBL.

광 감지 어레이부(LSL)는 광을 방출하는 발광 소자(LD)들, 상기 발광 소자들에서 방출되어 지문 접촉면에 접촉한 지문에 의해 반사된 광을 센싱하여 지문에 대응하는 영상을 생성하는 적어도 하나의 광 센서(PSR)를 포함한다.The light sensing array unit LSL includes at least one light emitting element LD that emits light, and at least one of the light emitting elements that sense the light emitted from the light emitting elements and reflected by the fingerprint in contact with the fingerprint contact surface to generate an image corresponding to the fingerprint. of the optical sensor (PSR).

선택적 광 투과부(LBL)는 광 센서(PSR)로 입사되는 광의 진행 경로를 형성하는 복수의 핀홀들을 포함한다.The selective light transmitting part LBL includes a plurality of pinholes forming a propagation path of light incident to the optical sensor PSR.

본 발명의 실시예에 따른 학습자 단말기(104)는, 영상이 표시되는 제1 면(SF1) 및 제1 면(SF1)과 마주보는 제2 면(SF2)을 포함하며, 광 감지 어레이부(LSL)는 제1 면(SF1)보다 제2 면(SF2)에 인접하게 위치할 수 있다. 본 발명의 일 실시예에 있어서, 학습자 단말기(104)의 제1 면(SF1)은 영상이 표시되는 표시면일 수 있다. 학습자 단말기(104)의 제1 면(SF1)의 일 영역은 사용자의 손가락 지문이 접촉되는 지문 접촉면일 수 있다.The learner terminal 104 according to an embodiment of the present invention includes a first surface SF1 on which an image is displayed and a second surface SF2 facing the first surface SF1, and includes a light sensing array unit LSL. ) may be located closer to the second surface SF2 than to the first surface SF1 . In an embodiment of the present invention, the first surface SF1 of the learner terminal 104 may be a display surface on which an image is displayed. One area of the first surface SF1 of the learner terminal 104 may be a fingerprint contact surface to which a user's finger fingerprint is in contact.

표시 패널(PN)은 영상을 표시할 수 있다. 표시 패널(PN)의 종류는 영상을 표시하는 것으로서 특별히 한정되는 것은 아니다. 표시 패널(PN)로는 유기 발광 표시 패널(Organic Light Emitting Display panel, OLED panel)과 같은 자발광이 가능한 표시 패널이 사용될 수 있다. 또한, 표시 패널(PN)로는 액정 표시 패널(Liquid Crystal Display panel, LCD panel), 전기 영동 표시 패널(Electro-Phoretic Display panel, EPD panel), 및 일렉트로웨팅 표시 패널(Electro-Wetting Display panel, EWD panel)과 같은 비발광성 표시 패널이 사용될 수 있다. 비발광성 표시 패널이 본 발명의 실시예에 따른 학습자 단말기(104)의 표시 패널(PN)로 사용되는 경우, 학습자 단말기(104)는 표시 패널(PN)로 광을 공급하는 백라이트 유닛을 구비할 수 있다.The display panel PN may display an image. The type of the display panel PN is not particularly limited as it displays an image. A display panel capable of self-emission such as an organic light emitting display panel (OLED panel) may be used as the display panel PN. In addition, as the display panel (PN), a liquid crystal display panel (LCD panel), an electro-phoretic display panel (EPD panel), and an electro-wetting display panel (EWD panel) ) may be used. When the non-luminous display panel is used as the display panel PN of the learner terminal 104 according to an embodiment of the present invention, the learner terminal 104 may include a backlight unit for supplying light to the display panel PN. have.

표시 패널(PN)은 기판(SUB), 선택적 광 투과부(LBL), 표시 모듈(DM), 및 박막 봉지층(TFE)을 포함할 수 있다. 본 발명의 일 실시예에 있어서, 표시 모듈(DM)은 광을 방출하는 발광 소자(LD)를 포함한 표시 소자부(DPL)와 발광 소자(LD)를 구동하는 회로 소자들을 포함한 화소 회로부(PCL)를 포함할 수 있다.The display panel PN may include a substrate SUB, a selective light transmitting part LBL, a display module DM, and a thin film encapsulation layer TFE. In an embodiment of the present invention, the display module DM includes a display element unit DPL including a light emitting element LD that emits light and a pixel circuit unit PCL including circuit elements driving the light emitting element LD. may include

기판(SUB)은 표시 패널(PN)의 베이스 기재로서, 실질적으로 투명한 투광성 기판일 수 있다. 실시예에 따라, 기판(SUB)은 유리 또는 강화 유리를 포함한 경성 기판(rigid substrate), 또는 플라스틱 재질의 가요성 기판(flexible substrate)일 수 있다. 본 발명의 일 실시예에 있어서, 기판(SUB)은 가요성 기판일 수 있다.The substrate SUB is a base substrate of the display panel PN and may be a substantially transparent light-transmitting substrate. According to an embodiment, the substrate SUB may be a rigid substrate including glass or tempered glass, or a flexible substrate made of a plastic material. In one embodiment of the present invention, the substrate SUB may be a flexible substrate.

화소 회로부(PCL)는 기판(SUB)의 일면(일 예로, 상면) 상에 배치되며, 적어도 하나의 도전층을 포함할 수 있다. 일 예로, 화소 회로부(PCL)는 화소 영역들(PXA) 각각에 형성되어 해당 화소(PXL)의 화소 회로를 구성하는 복수의 회로 소자들과, 화소들(PXL)을 구동하기 위한 각종 전원 및 신호를 공급하기 위한 배선들을 포함할 수 있다. 이러한 경우, 화소 회로부(PCL)는 적어도 하나의 트랜지스터 및 커패시터 등과 같은 각종 회로 소자들과, 이에 연결되는 배선들을 구성하기 위한 복수의 도전층들을 포함할 수 있다. 또한, 화소 회로부(PCL)는 복수의 도전층들 사이에 제공된 적어도 하나의 절연층을 포함할 수 있다. 또한, 화소 회로부(PCL)는 표시 패널(PN)의 비표시 영역(NDA)에 배치되어 화소들(PXL)에 연결된 배선들에 대응하는 전원 및 신호를 공급하는 팬아웃 라인부를 포함할 수 있다.The pixel circuit unit PCL is disposed on one surface (eg, an upper surface) of the substrate SUB, and may include at least one conductive layer. For example, the pixel circuit unit PCL is formed in each of the pixel areas PXA and includes a plurality of circuit elements constituting the pixel circuit of the corresponding pixel PXL, and various power sources and signals for driving the pixels PXL. It may include wires for supplying In this case, the pixel circuit unit PCL may include various circuit elements such as at least one transistor and a capacitor, and a plurality of conductive layers for forming wirings connected thereto. Also, the pixel circuit unit PCL may include at least one insulating layer provided between the plurality of conductive layers. Also, the pixel circuit unit PCL may include a fan-out line unit disposed in the non-display area NDA of the display panel PN to supply power and signals corresponding to lines connected to the pixels PXL.

표시 소자부(DPL)는 화소 회로부(PCL)를 포함한 기판(SUB)의 일면 상에 배치될 수 있다. 실시예에 따라, 표시 소자부(DPL)는, 컨택 홀 등을 통해 화소 회로부(PCL)의 회로 소자들 및/또는 배선들에 연결되는 복수의 발광 소자들(LD)을 포함할 수 있다. 일 예로, 표시 소자부(DPL)는, 화소 영역들(PXA) 각각에 적어도 하나씩 배치된 발광 소자(LD)를 포함할 수 있다. 즉, 표시 소자부(DPL)는 복수 개의 발광 소자들(LD)을 포함할 수 있다. 본 발명의 일 실시예에 있어서, 발광 소자들(LD)은 유기 발광 다이오드이거나 무기 결정 구조를 성장시킨 구조를 이용한 초소형의 발광 소자일 수 있다.The display element part DPL may be disposed on one surface of the substrate SUB including the pixel circuit part PCL. In some embodiments, the display element unit DPL may include a plurality of light emitting elements LD connected to circuit elements and/or wirings of the pixel circuit unit PCL through a contact hole or the like. For example, the display element unit DPL may include at least one light emitting element LD disposed in each of the pixel areas PXA. That is, the display element unit DPL may include a plurality of light emitting elements LD. In one embodiment of the present invention, the light emitting devices LD may be organic light emitting diodes or micro light emitting devices using a structure in which an inorganic crystal structure is grown.

박막 봉지층(TFE)은 적어도 표시 영역(DA)을 커버하도록 표시 소자부(DPL) 상부에 배치될 수 있다.The thin film encapsulation layer TFE may be disposed on the display element part DPL to cover at least the display area DA.

선택적 광 투과부(LBL)는 적어도 감지 영역(SA)에서 기판(SUB)과 화소 회로부(PCL) 사이에 위치할 수 있다. 일 예로, 선택적 광 투과부(LBL)는 기판(SUB)과 화소 회로부(PCL)의 사이에 위치하도록 기판(SUB)의 일면 상에 배치될 수 있다. 이러한 선택적 광 투과부(LBL)는 복수 개의 핀홀들(PIH) 및 차광 패턴(LBP)을 포함할 수 있다.The selective light transmitting part LBL may be positioned between the substrate SUB and the pixel circuit part PCL at least in the sensing area SA. For example, the selective light transmitting part LBL may be disposed on one surface of the substrate SUB to be positioned between the substrate SUB and the pixel circuit part PCL. The selective light transmitting part LBL may include a plurality of pinholes PIH and a light blocking pattern LBP.

차광 패턴(LBP)은 차광성 및/또는 흡광성 물질로 구성될 수 있다. 일 예로, 차광 패턴(LBP)은 인접한 핀홀들(PIH) 사이에서 불투명한 금속층으로 구성될 수 있다. 핀홀들(PIH)은 차광 패턴(LBP)의 적어도 일 영역을 관통하는 관통홀일 수 있다.The light blocking pattern LBP may be formed of a light blocking material and/or a light absorption material. For example, the light blocking pattern LBP may be formed of an opaque metal layer between adjacent pinholes PIH. The pinholes PIH may be through holes passing through at least one region of the light blocking pattern LBP.

선택적 광 투과부(LBL)는 일정 크기 및 간격을 가지도록 차광 패턴(LBP)에 균일하게 제공된 복수의 핀홀들(PIH)을 포함할 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니며, 핀홀들(PIH)의 크기, 형상, 개수, 해상도 및/또는 배열 구조 등은 다양하게 변경될 수 있다. 예를 들어, 핀홀들(PIH)은 불규칙적으로 차광 패턴(LBP)에 제공될 수도 있다.The selective light transmitting part LBL may include a plurality of pinholes PIH uniformly provided in the light blocking pattern LBP to have a predetermined size and spacing. However, the present invention is not limited thereto, and the size, shape, number, resolution, and/or arrangement of the pinholes PIH may be variously changed. For example, the pinholes PIH may be irregularly provided in the light blocking pattern LBP.

핀홀들(PIH)은 입사되는 광의 회절을 방지하면서, 보다 또렷한 지문의 형태를 감지할 수 있을 정도의 적절한 크기 및 간격으로 형성될 수 있다. 예를 들어, 핀홀들(PIH) 각각의 폭은 광의 회절을 방지하기 위하여 입사되는 광의 파장에 대하여 대략 10배 이상으로 설정될 수 있다. 핀홀들(PIH)은 일정한 간격으로 이격될 수 있다. 핀홀들(PIH)은, 도 8에 도시된 바와 같이 격자 배열(grid arrangement)을 이룰 수 있다. 핀홀들(PIH) 사이의 간격은 차광층(LBL)과 광 감지 어레이부(LSL) 사이의 거리, 입사되는 광의 파장, 핀홀들(PIH)에 대하여 요구되는 관측 시야(시야각, Field Of View: FOV)를 기초로 결정될 수 있다. 예를 들어, 상대적으로 선명한 지문의 형태를 감지하기 위해서 이웃한(또는 인접한) 두 핀홀들(PIH) 사이에는 3개 내지 15개의 화소들(PXL)이 위치할 수 있으나, 본 발명이 이에 한정되는 것은 아니다. 실시예에 따라, 이웃한(또는 인접한) 두 핀홀들(PIH) 사이에 15개 이상의 화소들(PXL)이 위치하거나 3개 이하의 화소들(PXL)이 위치할 수도 있다.The pinholes PIH may be formed with an appropriate size and spacing sufficient to detect a clearer fingerprint shape while preventing diffraction of incident light. For example, a width of each of the pinholes PIH may be set to be approximately 10 times or more with respect to a wavelength of incident light in order to prevent light diffraction. The pinholes PIH may be spaced apart from each other at regular intervals. The pinholes PIH may form a grid arrangement as shown in FIG. 8 . The distance between the pinholes PIH is a distance between the light blocking layer LBL and the light sensing array unit LSL, a wavelength of incident light, and an observation field of view (field of view: FOV) required for the pinholes PIH. ) can be determined based on For example, 3 to 15 pixels PXL may be positioned between two adjacent (or adjacent) pinholes PIH in order to detect a relatively clear fingerprint shape, but the present invention is not limited thereto. it is not According to an embodiment, 15 or more pixels PXL or 3 or less pixels PXL may be positioned between two adjacent (or adjacent) pinholes PIH.

핀홀들(PIH) 각각은 평면 상으로 볼 때 원 형상으로 이루어질 수 있으나, 본 발명이 이에 한정되는 것은 아니다. 실시예에 따라, 핀홀들(PIH)은 정삼각형, 정사각형, 및 정육각형 등을 포함한 다양한 형상으로 이루어질 수 있다. 핀홀들(PIH)의 밀도(또는 해상도)는 감지 영역(SA) 전체에 균일할 수 있으나, 이에 한정되는 것은 아니며, 실시예에 따라 핀홀들(PIH)의 밀도는 감지 영역(SA)의 일 영역에서는 높고, 감지 영역(SA)의 다른 영역에서는 낮을 수 있다. 핀홀들(PIH) 각각은 광 감지 어레이부(LSL)로 입사되는 반사광(RL)이 수렴하는 초점(Focal Point, F)이 형성되는 유효 홀일 수 있다.Each of the pinholes PIH may have a circular shape in plan view, but the present invention is not limited thereto. According to an embodiment, the pinholes PIH may have various shapes including an equilateral triangle, a square, and a regular hexagon. The density (or resolution) of the pinholes PIH may be uniform throughout the sensing area SA, but the present invention is not limited thereto. It may be high in , and low in other regions of the sensing area SA. Each of the pinholes PIH may be an effective hole in which a focal point F in which the reflected light RL incident to the light sensing array unit LSL is converged is formed.

선택적 광 투과부(LBL)로 입사되는 광 중 일부는 차광 패턴(LBP)에 의해 차단되고, 나머지 일부는 핀홀들(PIH)을 통과하여 광 감지 어레이부(LSL)에 도달할 수 있다. 선택적 광 투과부(LBL)는 표시 장치(DD)의 제1 면(SF1) 상에 위치한 물체, 일 예로, 사용자의 손가락 지문에서 반사되는 반사광(RL)을 선택적으로 투과시킬 수 있다. 상술한 핀홀들(PIH)은 광학적인 홀을 의미할 수 있는 것으로서, 핀홀들(PIH) 각각은 관통홀 또는 투광홀의 일종일 수 있다.Some of the light incident to the selective light transmitting part LBL may be blocked by the light blocking pattern LBP, and the remaining part may pass through the pinholes PIH to reach the light sensing array part LSL. The selective light transmitting part LBL may selectively transmit the reflected light RL reflected from an object located on the first surface SF1 of the display device DD, for example, a user's fingerprint. The above-described pinholes PIH may mean an optical hole, and each of the pinholes PIH may be a type of a through hole or a light-transmitting hole.

상술한 표시 패널(PN)에서, 선택적 광 투과부(LBL)는 표시 소자부(DPL)와 광 감지 어레이부(LSL) 사이에 배치되어 일부 광(일 예로, 반사광(RL))만을 선택적으로 투과시킴으로써 광의 경로 등을 제어하기 위한 광학계를 구성할 수 있다.In the above-described display panel PN, the selective light transmitting unit LBL is disposed between the display element unit DPL and the light sensing array unit LSL to selectively transmit only a portion of light (eg, the reflected light RL). An optical system for controlling a light path or the like can be configured.

상술한 선택적 광 투과부(LBL)는, 표시 패널(PN)의 표시 영역(DA)에 대응되며, 표시 영역(DA)보다 크거나 혹은 동일한 크기(또는 면적)를 가질 수 있다. 일 예로, 감지 영역(SA)이 표시 영역(DA)의 전체인 경우, 선택적 광 투과부(LBL)는 표시 영역(DA)보다 크거나 동일한 크기(또는 면적)를 가질 수 있다. 다른 예로, 감지 영역(SA)이 표시 영역(DA)의 일부인 경우, 선택적 광 투과부(LBL)는 감지 영역(SA) 이상이고 표시 영역(DA) 이하인 크기(또는 면적)를 가지거나 감지 영역(SA)과 동일한 크기(또는 면적)를 가질 수 있다. 또 다른 예로, 감지 영역(SA)이 표시 영역(DA)의 일부인 경우, 선택적 광 투과부(LBL)는 감지 영역(SA)과 동일한 크기(또는 면적)를 가질 수 있다.The above-described selective light transmitting portion LBL may correspond to the display area DA of the display panel PN, and may have a size (or area) greater than or equal to that of the display area DA. For example, when the sensing area SA is the entire display area DA, the selective light transmitting part LBL may have a size (or area) that is greater than or equal to that of the display area DA. As another example, when the sensing area SA is a part of the display area DA, the selective light transmitting part LBL has a size (or area) greater than or equal to the sensing area SA and smaller than or equal to the display area DA, or the sensing area SA. ) can have the same size (or area) as As another example, when the sensing area SA is a part of the display area DA, the selective light transmitting part LBL may have the same size (or area) as the sensing area SA.

광 감지 어레이부(LSL)는 표시 패널(PN)의 적어도 일 영역과 중첩되도록 기판(SUB)의 타면(또는 하부 면)에 부착될 수 있다. 일 예로, 광 감지 어레이부(LSL)는 적어도 감지 영역(SA)에서 표시 패널(PN)과 중첩되도록 배치될 수 있다. 이러한 광 감지 어레이부(LSL)는 소정의 밀도(또는 해상도) 및/또는 간격으로 분산된 복수의 광 센서들(PSR)을 포함할 수 있다.The light sensing array unit LSL may be attached to the other surface (or lower surface) of the substrate SUB to overlap at least one area of the display panel PN. For example, the light sensing array unit LSL may be disposed to overlap the display panel PN at least in the sensing area SA. The light sensing array unit LSL may include a plurality of light sensors PSR dispersed at a predetermined density (or resolution) and/or intervals.

광 센서들(PSR)은 다수의 광전 변환 소자들(예컨대, 포토 다이오드, 포토트랜지스터, 포토 게이트, 및 핀드 포토 다이오드 등)이 형성된 반도체층(layer) 또는 반도체 칩으로 구현될 수 있다. 실시예에 따라, 광 센서들(PSR)은 CIS(CMOS Image Sensor) 또는 CCD(Charge Coupled Device)와 같은 이미지 센서가 구현된 반도체 레이어일 수 있다.The optical sensors PSR may be implemented as a semiconductor layer or a semiconductor chip in which a plurality of photoelectric conversion elements (eg, photodiodes, phototransistors, photogates, pinned photodiodes, etc.) are formed. According to an embodiment, the optical sensors PSR may be a semiconductor layer in which an image sensor such as a CMOS image sensor (CIS) or a charge coupled device (CCD) is implemented.

광 감지 어레이부(LSL)의 광 센서들(PSR)은 핀홀들(PIH)을 통과하여 수신되는 반사광(RL)에 대응하는 전기적 신호를 센싱 신호로서 출력할 수 있다. 각각의 광 센서(PSR)로 수신되는 반사광(RL)은 사용자의 손가락에 형성되는 지문의 골(valley)에 의한 것인지 아니면 융선(ridge)에 의한 것인지 여부에 따라 상이한 광 특성(일 예로, 주파수, 파장, 크기 등)을 가질 수 있다. 따라서, 광 센서들(PSR) 각각은 반사광(RL)의 광 특성에 대응하여 상이한 전기적 특성을 갖는 센싱 신호(또는 전기 신호)를 출력할 수 있다. 광 센서들(PSR)에 의해 출력된 센싱 신호는 이미지 데이터로 변환되어 사용자의 지문 식별을 위해 사용될 수 있다.The light sensors PSR of the light sensing array unit LSL may output an electrical signal corresponding to the reflected light RL received through the pinholes PIH as a sensing signal. The reflected light RL received by each optical sensor PSR has different optical characteristics (eg, frequency, wavelength, size, etc.). Accordingly, each of the optical sensors PSR may output a sensing signal (or electrical signal) having different electrical characteristics corresponding to the optical characteristics of the reflected light RL. The sensing signal output by the optical sensors PSR may be converted into image data and used to identify a user's fingerprint.

본 발명의 일 실시예에 있어서, 광 센서들(PSR)을 포함한 광 감지 어레이부(LSL)와 핀홀들(PIH)을 포함한 선택적 광 투과부(LBL)는 학습자 단말기(104)의 감지 영역(SA) 내에서 지문 센서의 광학계를 구성할 수 있다.In an embodiment of the present invention, the light sensing array unit LSL including the light sensors PSR and the selective light transmitting unit LBL including the pinholes PIH are the sensing area SA of the learner terminal 104 . It is possible to configure the optical system of the fingerprint sensor in the

본 발명의 일 실시예에 있어서, 감지 영역(SA)의 화소들(PXL), 핀홀들(PIH), 및 광 센서들(PSR)을 얼라인함에 있어, 핀홀들(PIH) 각각의 직경(d) 및 두께(T)는 각각의 핀홀(PIH)을 기준으로 하여 윗 면 및 아랫 면에 대한 화각(θ, Angle of View)을 결정하는 파라미터에 해당할 수 있다. 광 센서들(PSR)을 포함한 광 감지 어레이부(LSL)와, 핀홀들(PIH)을 포함한 선택적 광 투과부(LBL)의 크기, 간격, 및/또는 해상도 등을 제어함으로써, 상술한 파라미터가 결정될 수 있다.In an embodiment of the present invention, in aligning the pixels PXL, the pinholes PIH, and the optical sensors PSR of the sensing area SA, the diameter d of each of the pinholes PIH ) and the thickness T may correspond to parameters that determine angles of view (θ) for the upper and lower surfaces based on each pinhole PIH. By controlling the size, spacing, and/or resolution of the light sensing array unit LSL including the light sensors PSR and the selective light transmitting unit LBL including the pinholes PIH, the above-described parameters may be determined. have.

상술한 구성들을 포함한 표시 패널(PN) 상에 터치 센서(TS) 및 윈도우(WD)가 배치될 수 있다.The touch sensor TS and the window WD may be disposed on the display panel PN including the above-described configurations.

터치 센서(TS)는 표시 패널(PN)에서 영상이 표시되는 면 상에 배치되어 사용자의 터치 입력 및/또는 호버(hover) 입력을 수신할 수 있다. 터치 센서(TS)는 사용자의 손이나 이와 유사한 도전체와 같은 별도의 입력 수단의 접촉 및/또는 근접에 의해 터치 커패시턴스를 감지하여 학습자 단말기(104)의 터치 입력 및/또는 호버 입력을 인식할 수 있다. 여기서, 터치 입력은 사용자의 손이나 별도의 입력 수단에 의해 직접 터치(또는 접촉)되는 것을 의미하고, 호버 입력은 사용자의 손이나 별도의 입력 수단이 터치 센서(TS)를 포함한 학습자 단말기(104)의 근처에 있지만 터치하지는 않는 것을 의미할 수 있다.The touch sensor TS may be disposed on a surface on which an image is displayed on the display panel PN to receive a user's touch input and/or a hover input. The touch sensor TS may recognize a touch input and/or a hover input of the learner terminal 104 by detecting a touch capacitance by contact and/or proximity of a separate input means such as a user's hand or a similar conductor. have. Here, the touch input means a direct touch (or contact) by the user's hand or a separate input means, and the hover input means that the user's hand or a separate input means is the learner terminal 104 including a touch sensor (TS). It can mean being near but not touching.

또한, 터치 센서(TS)는 사용자의 터치 동작을 감지하고, 터치 동작에 응답하여 학습자 단말기(104)에 표시된 객체를 원래 표시된 위치에서 다른 위치로 이동할 수 있다. 여기서, 터치 동작이란, 단일의 싱글 터치, 멀티 터치, 및 터치 제스처 중의 적어도 하나의 터치를 포함할 수 있다. 일 예로, 사용자의 손가락을 터치 센서(TS)의 터치면 상에 터치한 상태에서 일정 거리를 움직여 텍스트나 영상을 확대하거나 축소하는 등의 특정 제스처 등을 포함한 다양한 터치 동작이 있을 수 있다.In addition, the touch sensor TS may detect a user's touch action and move an object displayed on the learner terminal 104 from an originally displayed location to another location in response to the touch action. Here, the touch operation may include at least one of a single single touch, a multi-touch, and a touch gesture. For example, there may be various touch operations including a specific gesture such as enlarging or reducing text or an image by moving a predetermined distance while touching the user's finger on the touch surface of the touch sensor TS.

윈도우(WD)는 표시 패널(PN)을 포함한 학습자 단말기(104)의 최상단에 배치되는 부재로서, 실질적으로 투명한 투광성 기판일 수 있다. 윈도우(WD)는 표시 패널(PN)로부터의 영상을 투과시킴과 동시에 외부의 충격을 완화시킴으로써, 외부의 충격에 상기 표시 패널(PN)이 파손되거나 오동작하는 것을 방지할 수 있다. 여기서, 외부의 충격이라 함은, 압력, 스트레스 등으로 표현할 수 있는 외부로부터의 힘으로써, 표시 패널(PN)에 결함을 일으킬 수 있는 힘을 의미할 수 있다. 이러한 윈도우(WD)는 경성 또는 가요성의 기재를 포함할 수 있으며, 윈도우(WD)의 구성 물질이 특별히 한정되는 것은 아니다.The window WD is a member disposed at the top of the learner terminal 104 including the display panel PN, and may be a substantially transparent light-transmitting substrate. The window WD transmits an image from the display panel PN and at the same time relieves an external shock, thereby preventing the display panel PN from being damaged or malfunctioning due to an external shock. Here, the external impact is an external force that can be expressed as pressure, stress, or the like, and may mean a force that may cause a defect in the display panel PN. The window WD may include a rigid or flexible substrate, and the material of the window WD is not particularly limited.

상술한 실시예에 따른 학습자 단말기(104)의 지문 감지 방법을 간략히 설명하면 다음과 같을 수 있다. 광 센서들(PSR)이 활성화되는 지문 감지 기간 동안, 사용자의 손가락(예를 들어, 지문 영역)을 감지 영역(SA)에 접촉 또는 근접시킨 상태에서, 감지 영역(SA)의 화소들(PXL)에 구비된 발광 소자들(LD)이 발광될 수 있다. 일 예로, 지문 감지 기간 동안 감지 영역(SA)의 모든 화소들(PXL)에 구비된 발광 소자들(LD)이 동시에 또는 순차적으로 발광될 수 있다. 또는, 감지 영역(SA)의 화소들(PXL) 중 소정 간격으로 일부 화소들(PXL)에 포함된 발광 소자들(LD)만 발광되거나, 특정 색상의 광(일 예로, 청색 광과 같이 단파장대의 광)을 방출하는 일부 화소들(PXL)에 포함된 발광 소자들(LD)만이 선택적으로 발광될 수 있다.A method of detecting a fingerprint of the learner terminal 104 according to the above-described embodiment will be briefly described as follows. During the fingerprint sensing period in which the optical sensors PSR are activated, in a state in which a user's finger (eg, fingerprint area) is in contact with or close to the sensing area SA, the pixels PXL of the sensing area SA The light emitting devices LD provided in the light emitting device may emit light. For example, during the fingerprint sensing period, the light emitting devices LD provided in all the pixels PXL of the sensing area SA may emit light simultaneously or sequentially. Alternatively, only the light emitting devices LD included in some pixels PXL among the pixels PXL of the sensing area SA emit light at a predetermined interval, or light of a specific color (eg, blue light in a short wavelength band) may be emitted. Only the light emitting devices LD included in some pixels PXL emitting light) may selectively emit light.

화소들(PXL)로부터 방출된 광(EL) 중 일부가 사용자의 손가락에서 반사되어 학습자 단말기(104)의 각 층에 형성된 핀홀들(PIH)을 통과하여 광 센서들(PSR)로 입사될 수 있다. 이때, 각각 지문의 융선(ridge)과 골(valley)에서 반사되는 반사광(RL)의 광량 차이 및/또는 파형에 기초하여 사용자의 지문 형태(지문 패턴)가 검출될 수 있다.Some of the light EL emitted from the pixels PXL may be reflected from the user's finger and may pass through the pinholes PIH formed in each layer of the learner terminal 104 to be incident on the optical sensors PSR. . In this case, the user's fingerprint shape (fingerprint pattern) may be detected based on the difference in light quantity and/or the waveform of the reflected light RL reflected from the ridges and valleys of the fingerprint, respectively.

도 10은 본 발명의 일 실시예에 따른 지문 센서를 포함한 학습자 단말기의 감지 영역의 일 예를 개략적으로 도시한 사시도이다.10 is a perspective view schematically illustrating an example of a detection area of a learner terminal including a fingerprint sensor according to an embodiment of the present invention.

도 6 내지 도 10을 참조하면, 학습자 단말기(104)는 표시 패널(PN), 윈도우(WD), 및 지문 센서(FPS)를 포함할 수 있다. 도면에 직접적으로 도시하지 않았으나, 표시 패널(PN)과 윈도우(WD) 사이에 터치 센서(TS)가 위치할 수 있다.6 to 10 , the learner terminal 104 may include a display panel PN, a window WD, and a fingerprint sensor FPS. Although not shown directly in the drawing, the touch sensor TS may be positioned between the display panel PN and the window WD.

지문 센서(FPS)는 사용자 지문의 융선(ridge)과 융선(ridge) 사이의 골(valley)에 의해 반사된 광(또는 빛)을 광학 센서들(PSR)을 통해 센싱함으로써 사용자의 지문을 인식하는 광학식 지문 센서일 수 있다. 일 실시예에 있어서, 지문 센서(FPS)는 지문에 의해 반사된 반사광(RL)을 통과시키는 선택적 광 투과부(LBL) 및 선택적 광 투과부(LBL)를 통과한 반사광(RL)을 센싱하여 전기 신호를 발생하는 광 감지 어레이부(LSL)를 포함할 수 있다.The fingerprint sensor (FPS) recognizes the user's fingerprint by sensing the light (or light) reflected by the valley between the ridge and the ridge of the user's fingerprint through the optical sensors (PSR). It may be an optical fingerprint sensor. In an embodiment, the fingerprint sensor FPS senses the reflected light RL passing through the selective light transmitting unit LBL and the selective light transmitting unit LBL passing the reflected light RL reflected by the fingerprint to receive an electrical signal. The generated light sensing array unit LSL may be included.

도 10에서는, 선택적 광 투과부(LBL)가 광 감지 어레이부(LSL)와 함께 지문 센서(FPS)를 구성하는 것을 직접적으로 설명하기 위하여 선택적 광 투과부(LBL)를 표시 패널(PN)로부터 독립된 구성으로 도시하였으나, 본 발명이 이에 한정되는 것은 아니다.In FIG. 10 , the selective light transmitting unit LBL is configured independently from the display panel PN in order to directly explain that the selective light transmitting unit LBL constitutes the fingerprint sensor FPS together with the light sensing array unit LSL. Although illustrated, the present invention is not limited thereto.

실시예에 따라, 지문 센서(FPS)를 구현함에 있어서 광 감지 어레이부(LSL)에 대한 패키징 과정에서 선택적 광 투과부(LBL)가 광 감지 어레이부(LSL)에 적층될 수 있다. 또는, 광 감지 어레이부(LSL)를 구현하기 위한 공정 과정에서, 광 감지 어레이부(LSL)를 구성하는 하나 이상의 레이어에 선택적 광 투과부(LBL)가 레이어 형태로 광 감지 어레이부(LSL)에 적층될 수 있다. 즉, 선택적 광 투과부(LBL)가 광 감지 어레이부(LSL)에 내장된 형태로 지문 센서(FPS)가 구현될 수 있으며, 선택적 광 투과부(LBL)가 내장된 광 감지 어레이부(LSL)에 대해 패키지 과정이 수행될 수 있다. 즉, 실시예에 따라, 선택적 광 투과부(LBL)와 광 감지 어레이부(LSL)는 일체형으로 형성될 수 있다. 그러나, 본 발명이 이에 한정되는 것은 아니다. 실시예에 따라, 선택적 광 투과부(LBL)는 도 8에 도시된 바와 같이 표시 패널(PN)의 기판(SUB)과 화소 회로부(PCL) 사이에 배치될 수 있으며, 기판(SUB)을 사이에 두고 광 감지 어레이부(LSL)와 함께 학습자 단말기(104)의 지문 센서(FPS)를 구성할 수 있다.According to an embodiment, in implementing the fingerprint sensor FPS, the selective light transmitting unit LBL may be stacked on the light sensing array unit LSL during a packaging process for the light sensing array unit LSL. Alternatively, in a process for implementing the light sensing array unit LSL, a selective light transmitting unit LBL is laminated on the light sensing array unit LSL in the form of a layer in one or more layers constituting the light sensing array unit LSL. can be That is, the fingerprint sensor FPS may be implemented in a form in which the selective light transmitting unit LBL is embedded in the light sensing array unit LSL, and with respect to the light sensing array unit LSL in which the selective light transmitting unit LBL is built. A packaging process may be performed. That is, according to an embodiment, the selective light transmitting unit LBL and the light sensing array unit LSL may be integrally formed. However, the present invention is not limited thereto. In some embodiments, the selective light transmitting part LBL may be disposed between the substrate SUB and the pixel circuit part PCL of the display panel PN as shown in FIG. 8 , with the substrate SUB interposed therebetween. The fingerprint sensor (FPS) of the learner terminal 104 may be configured together with the light sensing array unit (LSL).

선택적 광 투과부(LBL)는 광 투과율 및 반사율이 낮은 재료를 이용하여 다양한 방식에 의해 구현될 수 있다. 일 예로, 선택적 광 투과부(LBL)는 광(또는 빛)을 차단하면서 반사율이 낮은(또는, 흡수율이 높은) 특성을 가짐과 함께, 온도 또는 습도 변화에도 그 경도(hardness)가 유지될 수 있는 재료를 이용하여 구현될 수 있다.The selective light transmitting part LBL may be implemented by various methods using a material having low light transmittance and low reflectance. For example, the selective light transmitting part LBL has a low reflectance (or high absorption) characteristic while blocking light (or light), and a material that can maintain its hardness even with changes in temperature or humidity can be implemented using

본 발명의 일 실시예에 있어서, 표시 패널(PN)의 표시 모듈(DM)과 선택적 광 투과부(LBL)는 대략 평행하게 배치될 수 있다. 이에 따라, 표시 모듈(DM) 내의 다수의 발광 소자들(LD)로부터의 광(또는 빛, EL)이 윈도우(WD)에 위치한 지문 방향으로 전달될 수 있으며, 지문에 의해 반사된 반사광(RL)이 선택적 광 투과부(LBL)의 핀홀들(PIH)에 의해 형성된 화각(θ) 내에서 선택적 광 투과부(LBL)로 전달될 수 있다.In an embodiment of the present invention, the display module DM and the selective light transmitting portion LBL of the display panel PN may be disposed substantially parallel to each other. Accordingly, the light (or light, EL) from the plurality of light emitting elements LD in the display module DM may be transmitted in the direction of the fingerprint located in the window WD, and the reflected light RL reflected by the fingerprint may be transmitted. The light may be transmitted to the selective light transmitting unit LBL within an angle of view θ formed by the pinholes PIH of the selective light transmitting unit LBL.

지문 센서(FPS)는, 학습자 단말기(104)에 접촉하거나 근접한 지문을 감지할 수 있다. 사용자의 지문이 학습자 단말기(104)의 제1 면(SF1) 상에 놓여질 때, 표시 모듈(DM) 내의 발광 소자들(LD)로부터 방출된 광이 광원이 되어 사용자의 지문으로 전달 및 반사되고, 반사된 반사광(RL)은 표시 모듈(DM) 및 기판(SUB)을 투과하여(또는 통과하여) 선택적 광 투과부(LBL)의 핀홀들(PIH)을 통해 광 감지 어레이부(LBL)로 전달될 수 있다.The fingerprint sensor FPS may detect a fingerprint in contact with or close to the learner terminal 104 . When the user's fingerprint is placed on the first surface SF1 of the learner terminal 104, light emitted from the light emitting elements LD in the display module DM becomes a light source and is transmitted and reflected to the user's fingerprint, The reflected reflected light RL may pass through (or pass) the display module DM and the substrate SUB and may be transmitted to the light sensing array unit LBL through the pinholes PIH of the selective light transmitting unit LBL. have.

광 감지 어레이부(LSL)는 복수의 광 센서들(PSR)을 포함하고, 각각의 광 센서(PSR)는 지문의 서로 다른 영역에 의해 반사된 반사광(RL)을 센싱하며, 센싱된 반사광(RL)에 대응하는 전기 신호를 발생한다. 각각의 광 센서들(PSR)은 지문의 융선(ridge)에 반사된 광에 대응하는 전기 신호를 발생하거나, 융선(ridge) 사이의 골(valley)에 의해 반사된 광에 대응하는 전기 신호를 발생할 수 있다. 광이 반사된 지문의 형태에 따라 각각의 광 센서(PSR)에서 센싱된 광의 양(또는 세기)은 달라질 수 있으며, 센싱된 광의 양에 따라 서로 다른 레벨을 갖는 전기 신호가 생성될 수 있다. 즉, 복수의 광 센서들(PSR)로부터의 전기 신호는 각각 명암 정보(또는 이미지 정보)를 포함할 수 있으며, 전기 신호에 대한 처리 동작을 통해 각각의 광 센서(PSR)에 대응하는 영역이 융선(ridge)인지 또는 골(valley)인지가 판단될 수 있으며, 판단된 정보를 조합함으로써 전체적인 지문 이미지가 구성될 수 있다.The light sensing array unit LSL includes a plurality of light sensors PSR, and each light sensor PSR senses the reflected light RL reflected by different regions of the fingerprint, and the sensed reflected light RL. ) to generate an electrical signal corresponding to Each of the optical sensors PSR generates an electrical signal corresponding to the light reflected by the ridges of the fingerprint or to generate an electrical signal corresponding to the light reflected by the valleys between the ridges. can The amount (or intensity) of the light sensed by each optical sensor PSR may vary according to the shape of the fingerprint on which the light is reflected, and electrical signals having different levels may be generated according to the amount of the sensed light. That is, the electrical signals from the plurality of optical sensors PSR may each include contrast information (or image information), and a region corresponding to each optical sensor PSR is ridged through a processing operation on the electrical signal. Whether it is a ridge or a valley may be determined, and an overall fingerprint image may be constructed by combining the determined information.

학습자 단말기(104)에서 광학적으로 샘플링되는 지문의 영역들이 정의될 수 있다. 일 예로서, 광 감지 어레이부(LSL)의 복수의 광 센서들(PSR)에 대응하여 다수의 지문 화소들(FPXL)이 정의될 수 있으며, 각각의 지문 화소(FPXL)는 하나의 핀홀(PIH)과 하나의 광 센서(PSR)에 의해 보여지는 피사체 영역에 해당할 수 있다. 본 발명의 일 실시예에 있어서, 각각의 지문 화소(FPXL)는 사용자가 접촉 또는 근접하여 사용자의 지문이 감지되는 감지 영역(SA)의 일 영역에 포함된 하나의 화소(PXL)를 의미할 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니며, 실시예에 따라 감지 영역(SA)의 일 영역에 포함되는 복수개의 화소들(PXL)이 하나의 그룹을 이루어 각각의 지문 화소(FPXL)를 구성할 수도 있다.Regions of the fingerprint that are optically sampled at the learner terminal 104 may be defined. As an example, a plurality of fingerprint pixels FPXL may be defined to correspond to the plurality of optical sensors PSR of the light sensing array unit LSL, and each fingerprint pixel FPXL has one pinhole PIH. ) and a subject area shown by one optical sensor PSR. In one embodiment of the present invention, each fingerprint pixel FPXL may refer to one pixel PXL included in an area of the sensing area SA where the user's fingerprint is sensed by the user's contact or proximity. have. However, the present invention is not limited thereto, and according to embodiments, a plurality of pixels PXL included in one area of the sensing area SA may form a group to constitute each fingerprint pixel FPXL. have.

표시 패널(PN)과 선택적 광 투과부(LBL) 상의 거리(O), 선택적 광 투과부(LBL)와 광 감지 어레이부(LSL) 사이의 거리(f), 선택적 광 투과부(LBL)의 두께(T), 각각의 핀홀(PIH)의 지름(d) 및 형태 등에 따라 각각의 핀홀(PIH)에 대응하는 지문 화소(FPXL)의 형태 및 사이즈가 결정될 수 있다.A distance O between the display panel PN and the selectively light transmitting portion LBL, a distance f between the selective light transmitting portion LBL and the light sensing array unit LSL, and a thickness T of the selective light transmitting portion LBL , the shape and size of the fingerprint pixel FPXL corresponding to each pinhole PIH may be determined according to the diameter d and the shape of each pinhole PIH.

각각의 지문 화소(FPXL) 내에서 하나의 핀 홀(PIH)에 통과될 수 있는 광을 반사하는 영역이 포함될 수 있으며, 해당 영역은 광학 샘플링 영역(OSA)으로 정의될 수 있다. 광학 샘플링 영역(OSA)에 따라, 광 감지 어레이부(LSL) 내에서도 이에 대응하는 광 센싱 영역(LSA)이 정의될 수 있다. 광 센싱 영역(LSA)은 광학 샘플링 영역(OSA)에 대응되며, 광학 샘플링 영역(OSA)에서 반사된 반사광(RL)이 하나의 핀홀(PIH)을 통과하여 광 감지 어레이부(LSL)의 광학 센서들(PSR)로 입사되는 영역을 의미할 수 있다.A region reflecting light that may pass through one pin hole PIH may be included in each fingerprint pixel FPXL, and the region may be defined as an optical sampling region OSA. According to the optical sampling area OSA, a corresponding light sensing area LSA may also be defined in the light sensing array unit LSL. The light sensing area LSA corresponds to the optical sampling area OSA, and the reflected light RL reflected from the optical sampling area OSA passes through one pinhole PIH, and thus the optical sensor of the light sensing array unit LSL. It may mean an area incident to the PSRs.

상술한 바와 같이, 학습자 단말기(104) 내에 포함된 일부 구성들, 일 예로, 선택적 광 투과부(LBL)와 광 감지 어레이부(LSL)를 이용하여 광학식의 지문 센서(FPS)를 용이하게 구현함에 따라 사용자의 손가락 전체를 감지할 수 있는 대면적의 지문 센서(FPS) 구현이 가능해질 수 있다. 즉, 사용자의 손가락보다 큰 크기(또는 면적)를 갖는 대면적 지문 센서(FPS)가 구현될 수 있다.As described above, as an optical fingerprint sensor (FPS) is easily implemented using some components included in the learner terminal 104, for example, a selective light transmitting unit (LBL) and a light sensing array unit (LSL). A large-area fingerprint sensor (FPS) capable of detecting the entire user's finger may be implemented. That is, a large-area fingerprint sensor (FPS) having a larger size (or area) than a user's finger may be implemented.

도 11a 내지 도 11d는 본 발명의 일 실시예들에 따른 지문 화소들, 핀홀들, 및 광 센서들의 배치를 설명하기 위한 평면도들이다. 구체적으로, 도 11a 내지 도 11d는 도 10의 감지 영역(SA)에 위치하는 지문 화소들(FPXL), 핀홀들(PIH), 및 광 센서들(PSR)의 상대적 크기, 밀도(또는 해상도) 및/또는 배치 관계를 다양한 실시예에 따라 설명하기 위한 평면도들이다.11A to 11D are plan views for explaining the arrangement of fingerprint pixels, pinholes, and optical sensors according to embodiments of the present invention. Specifically, FIGS. 11A to 11D show the relative sizes, densities (or resolutions) of the fingerprint pixels FPXL, the pinholes PIH, and the optical sensors PSR located in the sensing area SA of FIG. 10 , and / or plan views for explaining the arrangement relationship according to various embodiments.

우선 도 11a를 참조하면, 감지 영역(SA)은 지문 화소들(FPXL, PXL)보다 적은 개수의 핀홀들(PIH) 및 광 센서들(PSR)을 포함할 수 있다. 예를 들어, 핀홀들(PIH) 및 광 센서들(PSR)은 지문 화소들(FPXL, PXL)보다 작은 크기를 가지되, 지문 화소들(FPXL, PXL)보다 낮은 밀도로 감지 영역(SA) 내에 분포될 수 있다.First, referring to FIG. 11A , the sensing area SA may include a smaller number of pinholes PIH and light sensors PSR than the fingerprint pixels FPXL and PXL. For example, the pinholes PIH and the light sensors PSR have a smaller size than the fingerprint pixels FPXL and PXL, but have a lower density than the fingerprint pixels FPXL and PXL in the sensing area SA. can be distributed.

한편, 도 11a에서는 핀홀들(PIH) 및 광 센서들(PSR)이 지문 화소들(FPXL, PXL)보다 밀도가 낮은 실시예를 도시하였으나, 본 발명이 이에 한정되는 것은 아니다. 실시예에 따라, 핀홀들(PIH) 및 광 센서들(PSR)은 일대일(1:1)로 대응하도록 실질적으로 동일한 개수 및 간격으로 감지 영역(SA)에 분포될 수 있다. 일 예로, 핀홀들(PIH) 및 광 센서들(PSR)은 일대일(1:1) 쌍을 이루어 서로 중첩되도록 배치될 수 있다. 실시예에 따라, 한 쌍을 이루는 핀홀(PIH) 및 광 센서(PSR)는 감지 영역(SA)에 배치된 어느 하나의 지문 화소(FPXL, PXL)와 중첩되도록 배치될 수 있으나, 본 발명이 이에 한정되는 것은 아니다. 일 예로, 핀홀들(PIH) 및 광 센서들(PSR)은 서로 중첩되지 않도록 교호적으로 배치되거나, 지문 화소들(FPXL, PXL)과 중첩되지 않도록 배치될 수도 있다.Meanwhile, although FIG. 11A illustrates an embodiment in which the pinholes PIH and the optical sensors PSR have lower densities than the fingerprint pixels FPXL and PXL, the present invention is not limited thereto. According to an exemplary embodiment, the pinholes PIH and the optical sensors PSR may be distributed in the sensing area SA at substantially the same number and spacing so as to correspond one-to-one (1:1). For example, the pinholes PIH and the optical sensors PSR may be disposed to overlap each other in a one-to-one (1:1) pair. According to an embodiment, the pair of pinhole PIH and optical sensor PSR may be disposed to overlap any one of the fingerprint pixels FPXL and PXL disposed in the sensing area SA, but the present invention provides for this. It is not limited. For example, the pinholes PIH and the optical sensors PSR may be alternately disposed not to overlap each other or may be disposed not to overlap the fingerprint pixels FPXL and PXL.

핀홀들(PIH) 및 광 센서들(PSR)은 서로 동일 또는 상이한 크기를 가질 수 있다. 즉, 핀홀들(PIH) 및 광 센서들(PSR)의 상대적 크기나 밀도가 특별히 한정되지 않는다.The pinholes PIH and the optical sensors PSR may have the same or different sizes. That is, relative sizes or densities of the pinholes PIH and the light sensors PSR are not particularly limited.

도 11b를 참조하면, 감지 영역(SA)은 지문 화소들(FPXL, PXL)보다 적은 개수의 핀홀들(PIH) 및 지문 화소들(FPXL, PXL)보다 많은 개수의 광 센서들(PSR)을 포함할 수 있다. 일 예로, 핀홀들(PIH) 및 광 센서들(PSR)은 지문 화소들(FPXL, PXL)보다 작은 크기를 가지되, 핀홀들(PIH)은 지문 화소들(FPXL, PXL)보다 낮은 밀도로 감지 영역(SA) 내에 분포되고, 광 센서들(PSR)은 지문 화소들(FPXL, PXL)보다 높은 밀도로 감지 영역(SA) 내에 조밀하게 분포될 수 있다.Referring to FIG. 11B , the sensing area SA includes a smaller number of pinholes PIH than the fingerprint pixels FPXL and PXL and a larger number of optical sensors PSR than the fingerprint pixels FPXL and PXL. can do. For example, the pinholes PIH and the optical sensors PSR have a size smaller than the fingerprint pixels FPXL and PXL, but the pinholes PIH are detected with a lower density than the fingerprint pixels FPXL and PXL. Distributed in the area SA, the light sensors PSR may be densely distributed in the sensing area SA with a higher density than the fingerprint pixels FPXL and PXL.

광 센서들(PSR) 중 적어도 일부는, 적어도 하나의 핀홀(PIH) 및/또는 지문 화소(FPXL, PXL)와 중첩될 수 있으나, 본 발명이 이에 한정되는 것은 아니다. 실시예에 따라, 광 센서들(PSR) 중 일부는 핀홀들(PIH) 및/또는 지문 화소들(FPXL, PXL)과 중첩되도록 배치되고, 다른 일부는 지문 화소들(FPXL, PXL) 사이의 간극에 배치될 수도 있다.At least some of the optical sensors PSR may overlap at least one pinhole PIH and/or a fingerprint pixel FPXL and PXL, but the present invention is not limited thereto. According to an embodiment, some of the optical sensors PSR are disposed to overlap the pinholes PIH and/or the fingerprint pixels FPXL and PXL, and other portions of the light sensors PSR are disposed in a gap between the fingerprint pixels FPXL and PXL. may be placed in

도 11c 및 도 11d를 참조하면, 광 센서들(PSR)은 도 11b에 도시된 실시예보다 작은 크기 및 보다 높은 밀도를 가지도록 감지 영역(SA)에 분포될 수 있다. 일 예로, 광 센서들(PSR)은 핀홀들(PIH)의 간격에 비해 대략 1/10 배 내지 1/100 배 정도의 좁은 간격으로 감지 영역(SA)에 분포될 수 있다. 이러한 경우, 광 센서들(PSR)은, 지문 화소들(FPXL, PXL) 및/또는 핀홀들(PIH)과의 사이에서 일대일(1:1) 정렬이 필요하지 않을 정도로 감지 영역(SA)에 조밀하게 배치되며, 이에 따라 지문 화소들(FPXL, PXL) 및/또는 핀홀들(PIH)과 광 센서들(PSR)의 정렬 여부와 무관하게 모아레 발생이 방지 또는 최소화될 수 있다.11C and 11D , the optical sensors PSR may be distributed in the sensing area SA to have a smaller size and higher density than the embodiment illustrated in FIG. 11B . For example, the optical sensors PSR may be distributed in the sensing area SA at a narrow interval of about 1/10 to 1/100 times that of the pinholes PIH. In this case, the optical sensors PSR are so dense in the sensing area SA that one-to-one (1:1) alignment with the fingerprint pixels FPXL, PXL and/or the pinholes PIH is not required. Accordingly, the occurrence of moiré may be prevented or minimized regardless of whether the fingerprint pixels FPXL and PXL and/or the pinholes PIH and the optical sensors PSR are aligned.

실시예에 따라, 핀홀들(PIH)은 동일 또는 상이한 밀도로 감지 영역(SA)에 분포될 수 있다. 일 예로, 핀홀들(PIH)은 도 11c에 도시된 바와 같이 지문 화소들(FPXL, PXL)과 동일한 밀도로 감지 영역(SA)에 분포되거나, 도 11d에 도시된 바와 같이 지문 화소들(FPXL, PXL)보다 낮은 밀도로 감지 영역(SA)에 분포될 수 있다.According to an embodiment, the pinholes PIH may be distributed in the sensing area SA with the same or different densities. For example, the pinholes PIH are distributed in the sensing area SA at the same density as the fingerprint pixels FPXL and PXL as shown in FIG. 11C , or the fingerprint pixels FPXL and PXL as shown in FIG. 11D . PXL) may be distributed in the sensing area SA with a lower density.

도 11a 내지 도 11d에서는 핀홀들(PIH) 및 광 센서들(PSR)이 감지 영역(SA) 내에 규칙적인 어레이 형태로 배열되는 실시예가 도시되었지만, 본 발명이 이에 한정되는 것은 아니다. 실시예에 따라, 핀홀들(PIH) 및/또는 광 센서들(PSR)은 감지 영역(SA) 내에 불규칙적으로 분포되거나, 감지 영역(SA)의 각 영역 또는 구간에 따라 상이한 밀도 또는 배열 구조로 분포될 수 있다.11A to 11D illustrate an embodiment in which the pinholes PIH and the light sensors PSR are arranged in a regular array in the sensing area SA, but the present invention is not limited thereto. According to an embodiment, the pinholes PIH and/or the optical sensors PSR are irregularly distributed in the sensing area SA, or distributed in a different density or arrangement according to each area or section of the sensing area SA. can be

감지 영역(SA) 내에서 지문 화소들(FPXL, PXL), 핀홀들(PIH), 및 광 센서들(PSR)의 배치 구조 등이 상술한 실시예들에 한정되지는 않는다. 예를 들어, 감지 영역(SA)에 배치되는 지문 화소들(FPXL, PXL), 핀홀들(PIH), 및/또는 광 센서들(PSR)의 형상, 배열 형태, 상대적 크기, 개수, 밀도 및/또는 상호 배치 관계 등은 다양하게 변경될 수 있다.The arrangement structure of the fingerprint pixels FPXL and PXL, the pinholes PIH, and the light sensors PSR in the sensing area SA is not limited to the above-described embodiments. For example, the shape, arrangement, relative size, number, density and/or the fingerprint pixels FPXL and PXL, the pinholes PIH, and/or the optical sensors PSR disposed in the sensing area SA. Alternatively, the mutual arrangement relationship may be variously changed.

도 12는 도8의 EA 영역을 확대한 단면도이다.12 is an enlarged cross-sectional view of the EA region of FIG. 8 .

도 12에서는 도 8에 도시된 EA 영역, 일 예로, 하나의 화소에 포함된 화소 회로부(PCL)와 표시 소자부(DPL)를 보다 상세하게 도시하였다. 특히, 도 12에서는, 화소 회로부(PCL)에 제공된 적어도 하나의 트랜지스터(TR)와 표시 소자부(DPL)에 제공된 발광 소자(LD, OLED)를 도시하였다.12 illustrates the EA region illustrated in FIG. 8 , for example, the pixel circuit unit PCL and the display element unit DPL included in one pixel in more detail. In particular, FIG. 12 illustrates at least one transistor TR provided in the pixel circuit unit PCL and light emitting devices LD and OLED provided in the display element unit DPL.

도 6 내지 도 12를 참조하면, 하나의 화소(PXL, 이하 '화소'라 함)는 기판(SUB), 기판(SUB) 상에 제공된 화소 회로부(PCL) 및 화소 회로부(PCL) 상에 제공된 표시 소자부(DPL)를 포함할 수 있다.6 to 12 , one pixel (PXL, hereinafter referred to as a 'pixel') is a substrate SUB, a pixel circuit unit PCL provided on the substrate SUB, and a display provided on the pixel circuit unit PCL It may include a device part DPL.

화소 회로부(PCL)는 버퍼층(BFL), 적어도 하나의 트랜지스터(TR), 보호층(PSV)을 포함할 수 있다. 표시 소자부(DPL)는 광을 방출하는 발광 소자(LD, OLED)를 포함할 수 있다. 설명의 편의를 위하여, 화소 회로부(PCL)를 우선 설명한 후 표시 소자부(DPL)에 대해 설명하기로 한다.The pixel circuit unit PCL may include a buffer layer BFL, at least one transistor TR, and a protection layer PSV. The display element unit DPL may include light emitting elements LD and OLED that emit light. For convenience of description, the pixel circuit unit PCL will be described first, and then the display element unit DPL will be described.

버퍼층(BFL)은 기판(SUB) 상에 제공될 수 있다. 버퍼층(BFL)은 트랜지스터(TR)에 불순물이 확산되는 것을 방지할 수 있다. 버퍼층(BFL)은 단일층으로 제공될 수 있으나, 적어도 이중층 이상의 다중층으로 제공될 수도 있다. 버퍼층(BFL)이 다중층으로 제공되는 경우, 각 층은 동일한 재료로 형성되거나 또는 서로 다른 재료로 형성될 수 있다. 버퍼층(BFL)은 기판(SUB)의 재료 및/또는 공정 조건 등에 따라 생략될 수도 있다. 버퍼층(BFL)은 무기 재료를 포함한 무기 절연막이거나 또는 유기 재료를 포함한 유기 절연막일 수 있다.The buffer layer BFL may be provided on the substrate SUB. The buffer layer BFL may prevent impurities from diffusing into the transistor TR. The buffer layer BFL may be provided as a single layer, but may also be provided as a multilayer of at least double layers. When the buffer layer BFL is provided in multiple layers, each layer may be formed of the same material or may be formed of different materials. The buffer layer BFL may be omitted depending on the material and/or process conditions of the substrate SUB. The buffer layer BFL may be an inorganic insulating layer including an inorganic material or an organic insulating layer including an organic material.

트랜지스터(TR)는 표시 소자부(DPL)의 발광 소자들(LD, OLED)에 전기적으로 연결되어 발광 소자(LD, OLED)를 구동하는 구동 트랜지스터를 포함할 수 있다. 도면에 직접적으로 도시하지 않았으나, 트랜지스터(TR)는 구동 트랜지스터를 스위칭하는 스위칭 트랜지스터를 포함할 수 있다.The transistor TR may include a driving transistor electrically connected to the light emitting devices LD and OLED of the display element unit DPL to drive the light emitting devices LD and OLED. Although not shown directly in the drawing, the transistor TR may include a switching transistor for switching the driving transistor.

트랜지스터(TR)는 반도체층(SCL), 게이트 전극(GE), 제1 단자(SE), 및 제2 단자(DE)를 포함할 수 있다. 제1 단자(SE)는 소스 전극 및 드레인 전극 중 어느 하나의 전극일 수 있으며, 제2 단자(DE)는 나머지 하나의 전극일 수 있다. 예를 들어, 제1 단자(SE)가 소스 전극일 경우 제2 단자(DE)는 드레인 전극일 수 있다.The transistor TR may include a semiconductor layer SCL, a gate electrode GE, a first terminal SE, and a second terminal DE. The first terminal SE may be one of a source electrode and a drain electrode, and the second terminal DE may be the other electrode. For example, when the first terminal SE is a source electrode, the second terminal DE may be a drain electrode.

반도체층(SCL)은 버퍼층(BFL) 상에 배치될 수 있다. 반도체층(SCL)은 제1 단자(SE)에 접촉되는 제1 영역과 제2 단자(DE)에 접촉되는 제2 영역을 포함할 수 있다. 제1 영역과 제2 영역 사이의 영역은 채널 영역일 수 있다. 반도체층(SCL)은 폴리 실리콘, 아몰퍼스 실리콘, 산화물 반도체 등으로 이루어진 반도체 패턴일 수 있다. 채널 영역은 불순물이 도핑되지 않는 반도체 패턴으로서, 진성 반도체일 수 있다. 제1 영역 및 제2 영역은 불순물이 도핑된 반도체 패턴일 수 있다.The semiconductor layer SCL may be disposed on the buffer layer BFL. The semiconductor layer SCL may include a first region in contact with the first terminal SE and a second region in contact with the second terminal DE. A region between the first region and the second region may be a channel region. The semiconductor layer SCL may be a semiconductor pattern made of polysilicon, amorphous silicon, oxide semiconductor, or the like. The channel region is a semiconductor pattern that is not doped with impurities, and may be an intrinsic semiconductor. The first region and the second region may be semiconductor patterns doped with impurities.

게이트 전극(GE)은 게이트 절연층(GI)을 사이에 두고 반도체층(SCL) 상에 제공될 수 있다. 게이트 절연층(GI)은 무기 재료를 포함한 무기 절연막일 수 있다.The gate electrode GE may be provided on the semiconductor layer SCL with the gate insulating layer GI interposed therebetween. The gate insulating layer GI may be an inorganic insulating layer including an inorganic material.

제1 단자(SE)와 제2 단자(DE) 각각은 층간 절연층(ILD)과 게이트 절연층(GI)을 관통하는 관통 홀을 통해 반도체층(SCL)의 제1 영역 및 제2 영역에 접촉될 수 있다. 층간 절연층(ILD)은 무기 재료를 포함한 무기 절연막일 수 있으나, 본 발명이 이에 한정되는 것은 아니며, 실시예에 따라 유기 재료를 포함한 유기 절연막일 수도 있다.Each of the first terminal SE and the second terminal DE contacts the first region and the second region of the semiconductor layer SCL through a through hole penetrating the interlayer insulating layer ILD and the gate insulating layer GI. can be The interlayer insulating layer ILD may be an inorganic insulating layer including an inorganic material, but the present invention is not limited thereto, and may be an organic insulating layer including an organic material.

상술한 실시예에 있어서, 트랜지스터(TR)의 제1 및 제2 단자들(SE, DE)이 반도체층(SCL)과 전기적으로 연결된 별개의 전극으로 설명하였으나, 본 발명이 이에 한정되는 것은 아니다. 실시예에 따라, 트랜지스터(TR)의 제1 단자(SE)는 반도체층(SCL)의 채널 영역에 인접한 제1 및 제2 영역 중 하나의 영역일 수 있으며, 상기 트랜지스터(TR)의 제2 단자(DE)는 반도체층(SCL)의 채널 영역에 인접한 제1 및 제2 영역들 중 나머지 영역일 수 있다. 이러한 경우, 트랜지스터(TR)의 제2 단자(DE)는 브릿지 전극, 또는 컨택 전극 등을 포함한 연결 수단을 통해 표시 소자부(DPL)의 발광 소자(LD, OLED)에 전기적으로 연결될 수 있다.In the above embodiment, the first and second terminals SE and DE of the transistor TR have been described as separate electrodes electrically connected to the semiconductor layer SCL, but the present invention is not limited thereto. In some embodiments, the first terminal SE of the transistor TR may be one of the first and second regions adjacent to the channel region of the semiconductor layer SCL, and the second terminal of the transistor TR (DE) may be the remaining region of the first and second regions adjacent to the channel region of the semiconductor layer SCL. In this case, the second terminal DE of the transistor TR may be electrically connected to the light emitting devices LD and OLED of the display device unit DPL through a connection means including a bridge electrode or a contact electrode.

본 발명의 일 실시예에 있어서, 화소 회로부(PCL)에 포함된 트랜지스터(TR)는 LTPS 트랜지스터로 구성될 수 있으나, 본 발명이 이에 한정되는 것은 아니며, 실시예에 따라, 산화물 반도체 박막 트랜지스터로 구성될 수도 있다. 또한, 실시예에 따라, 화소 회로부(PCL)는 LTPS 박막 트랜지스터로 이루어진 적어도 하나의 트랜지스터(TR)와 산화물 반도체 박막 트랜지스터로 이루어진 적어도 하나의 트랜지스터(TR)를 포함할 수 있다. 추가적으로, 본 발명의 일 실시예에 있어서, 트랜지스터(TR)가 탑 게이트(top gate) 구조의 박막 트랜지스터인 경우를 예로서 설명하였으나, 본 발명이 이에 한정되는 것은 아니다. 실시예에 따라, 트랜지스터(TR)는 바텀 게이트(bottom gate) 구조의 박막 트랜지스터일 수도 있다.In one embodiment of the present invention, the transistor TR included in the pixel circuit unit PCL may be formed of an LTPS transistor, but the present invention is not limited thereto. it might be Also, in some embodiments, the pixel circuit unit PCL may include at least one transistor TR formed of an LTPS thin film transistor and at least one transistor TR formed of an oxide semiconductor thin film transistor. Additionally, in the exemplary embodiment of the present invention, a case in which the transistor TR is a thin film transistor having a top gate structure has been described as an example, but the present invention is not limited thereto. In some embodiments, the transistor TR may be a thin film transistor having a bottom gate structure.

트랜지스터(TR) 상에는 보호층(PSV)이 제공될 수 있다. 보호층(PSV)은 트랜지스터(TR) 상에 제공 및/또는 형성되어 트랜지스터(TR)를 커버할 수 있다. 보호층(PSV)은 유기 절연막, 무기 절연막, 또는 무기 절연막 상에 배치된 유기 절연막을 포함하는 형태로 제공될 수 있다. 여기서, 무기 절연막은 실리콘 산화물(SiOx), 실리콘 질화물(SiNx) 중 적어도 하나를 포함할 수 있다. 유기 절연막은 광을 투과시킬 수 있는 절연 물질을 포함할 수 있다. 예를 들어, 유기 절연막은 아크릴계 수지(polyacrylates resin), 에폭시계 수지(epoxy resin), 페놀 수지(phenolic resin), 폴리아미드계 수지(polyamides resin), 폴리이미드계 수지(polyimides rein), 불포화 폴리에스테르계 수지(unsaturated polyesters resin), 폴리페닐렌 에테르계 수지(poly-phenylen ethers resin), 폴리페닐렌 설파이드계 수지(poly-phenylene sulfides resin), 및 벤조사이클로부텐 수지(benzocyclobutene resin) 중 적어도 하나를 포함할 수 있다.A passivation layer PSV may be provided on the transistor TR. The passivation layer PSV may be provided and/or formed on the transistor TR to cover the transistor TR. The passivation layer PSV may be provided in a form including an organic insulating layer, an inorganic insulating layer, or an organic insulating layer disposed on the inorganic insulating layer. Here, the inorganic insulating layer may include at least one of silicon oxide (SiOx) and silicon nitride (SiNx). The organic insulating layer may include an insulating material capable of transmitting light. For example, the organic insulating film is made of acrylic resin, epoxy resin, phenolic resin, polyamides resin, polyimides rein, unsaturated polyester. At least one of unsaturated polyesters resin, poly-phenylen ethers resin, poly-phenylene sulfides resin, and benzocyclobutene resin can do.

다음으로, 표시 소자부(DPL)에 대해 설명한다.Next, the display element part DPL will be described.

표시 소자부(DPL)는 보호층(PSV) 상에 제공된 발광 소자(LD, OLED)를 포함할 수 있다. 발광 소자(LD, OLED)는 제1 전극(AE), 발광층(EML), 및 제2 전극(CE)을 포함할 수 있다.The display element part DPL may include light emitting elements LD and OLED provided on the passivation layer PSV. The light emitting devices LD and OLED may include a first electrode AE, an emission layer EML, and a second electrode CE.

제1 전극(AE) 및 제2 전극(CE) 중 하나는 애노드 전극일 수 있으며, 나머지는 캐소드 전극일 수 있다. 예를 들어, 제1 전극(AE)이 애노드 전극일 수 있으며 제2 전극(CE)이 캐소드 전극일 수 있다. 발광 소자(LD, OLED)가 전면 발광형 유기 발광 소자인 경우, 제1 전극(AE)이 반사형 전극이고, 제2 전극(CE)이 투과형 전극일 수 있다. 본 발명의 일 실시예에서는, 발광 소자(LD, OLED)가 전면 발광형 유기 발광 소자이며, 제1 전극(AE)이 애노드 전극인 경우를 예로서 설명한다.One of the first electrode AE and the second electrode CE may be an anode electrode, and the other electrode may be a cathode electrode. For example, the first electrode AE may be an anode electrode and the second electrode CE may be a cathode electrode. When the light emitting devices LD and OLED are top emission type organic light emitting devices, the first electrode AE may be a reflective electrode, and the second electrode CE may be a transmissive electrode. In an embodiment of the present invention, a case in which the light emitting devices LD and OLED are top emission type organic light emitting devices and the first electrode AE is an anode will be described as an example.

제1 전극(AE)은 보호층(PSV)을 관통하는 컨택 홀(CH)을 통해 화소 회로부(PCL)의 트랜지스터(TR)에 전기적으로 연결될 수 있다. 일 예로, 제1 전극(AE)은 보호층(PSV)의 컨택 홀(CH)을 통해 화소 회로부(PCL)의 트랜지스터(TR)의 제2 단자(DE)에 전기적으로 연결될 수 있다. 제1 전극(AE)은 광을 반사시킬 수 있는 반사막(미도시) 및 반사막의 상부 또는 하부에 배치되는 투명 도전막(미도시)을 포함할 수 있다. 투명 도전막 및 반사막 중 적어도 하나는 트랜지스터(TR)에 전기적으로 연결될 수 있다.The first electrode AE may be electrically connected to the transistor TR of the pixel circuit unit PCL through the contact hole CH passing through the passivation layer PSV. For example, the first electrode AE may be electrically connected to the second terminal DE of the transistor TR of the pixel circuit unit PCL through the contact hole CH of the passivation layer PSV. The first electrode AE may include a reflective layer (not shown) capable of reflecting light and a transparent conductive layer (not shown) disposed on or below the reflective layer. At least one of the transparent conductive layer and the reflective layer may be electrically connected to the transistor TR.

보호층(PSV) 상에는 제1 전극(AE)의 일부, 예를 들면, 제1 전극(AE)의 상면을 노출하는 개구부(OPN)를 구비한 화소 정의막(PDL)을 더 포함할 수 있다. 화소 정의막(PDL)은 유기 절연막을 포함할 수 있다. 예를 들면, 화소 정의막(PDL)은 폴리스티렌(polystyrene), 폴리메틸메타아크릴레이트(PMMA, polymethylmethacrylate), 폴리아크릴로니트릴(PAN, polyacrylonitrile), 폴리아미드(PA, polyamide), 폴리이미드(PI, polyimide), 폴리아릴에테르(PAE, polyarylether), 헤테로사이클릭 폴리머(heterocyclic polymer), 파릴렌(parylene), 에폭시(epoxy), 벤조시클로부텐(BCB, benzocyclobutene), 실록산계 수지(siloxane based resin) 및 실란계 수지(silane based resin) 중 적어도 하나를 포함할 수 있다.A pixel defining layer PDL having an opening OPN exposing a portion of the first electrode AE, for example, a top surface of the first electrode AE, may be further included on the passivation layer PSV. The pixel defining layer PDL may include an organic insulating layer. For example, the pixel defining layer PDL may include polystyrene, polymethylmethacrylate (PMMA, polymethylmethacrylate), polyacrylonitrile (PAN, polyacrylonitrile), polyamide (PA, polyamide), polyimide (PI, polyimide), polyarylether (PAE, polyarylether), heterocyclic polymer, parylene, epoxy, benzocyclobutene (BCB, benzocyclobutene), siloxane based resin and It may include at least one of a silane based resin.

화소(PXL)는 표시 패널(PN)의 표시 영역(DA)의 화소 영역(PXA)에 배치될 수 있다. 본 발명의 일 실시예에 있어서, 화소 영역(PXA)은 발광 소자(LD, OLED)에서 광이 방출되는 발광 영역(EMA) 및 상기 발광 영역에 인접한 주변 영역을 포함할 수 있다. 주변 영역은 광이 방출되지 않는 영역일 수 있으며, 발광 영역(EMA)은 제1 전극(AE), 발광층(EML), 및 제2 전극(CE)이 중첩된 영역일 수 있다. 이러한 발광 영역(EMA)은 화소 정의막(PDL)의 개구부(OPN)에 의해 노출된 제1 전극(AE)의 일부 영역에 대응하게 정의될 수 있다.The pixel PXL may be disposed in the pixel area PXA of the display area DA of the display panel PN. In an exemplary embodiment, the pixel area PXA may include a light emitting area EMA from which light is emitted from the light emitting devices LD and OLED and a peripheral area adjacent to the light emitting area. The peripheral area may be an area in which light is not emitted, and the light emitting area EMA may be an area in which the first electrode AE, the light emitting layer EML, and the second electrode CE overlap. The emission area EMA may be defined to correspond to a partial area of the first electrode AE exposed by the opening OPN of the pixel defining layer PDL.

발광층(EML)은 화소 정의막(PDL)의 개구부(OPN)에 의해 노출된 제1 전극(AE) 상면 상에 배치될 수 있다. 발광층(EML)은 적어도 광 생성층(light generation layer)을 포함한 다층 박막 구조를 가질 수 있다. 발광층(EML)은 정공을 주입하는 정공 주입층(hole injection layer), 정공의 수송성이 우수하고 광 생성층에서 결합하지 못한 전자의 이동을 억제하여 정공과 전자의 재결합 기회를 증가시키기 위한 정공 수송층(hole transport layer), 주입된 전자와 정공의 재결합에 의하여 광을 생성하는(또는 방출하는) 광 생성층(light generation layer), 광 생성층에서 결합하지 못한 정공의 이동을 억제하기 위한 정공 억제층(hole blocking layer), 전자를 광 생성층으로 원활히 수송하기 위한 전자 수송층(electron transport layer), 및 전자를 주입하는 전자 주입층(electron injection layer)을 구비할 수 있다.The emission layer EML may be disposed on the upper surface of the first electrode AE exposed by the opening OPN of the pixel defining layer PDL. The emission layer EML may have a multilayer thin film structure including at least a light generation layer. The light emitting layer (EML) is a hole injection layer for injecting holes, a hole transport layer ( hole transport layer), a light generation layer that generates (or emits) light by recombination of injected electrons and holes, and a hole suppression layer ( It may include a hole blocking layer, an electron transport layer for smoothly transporting electrons to the light generating layer, and an electron injection layer for injecting electrons.

광 생성층에서 생성되는 광의 색상은 적색(red), 녹색(green), 청색(blue), 및 백색(white) 중 하나일 수 있으나, 본 실시예에서 이를 한정하는 것은 아니다. 예를 들어, 발광층(EML)의 광 생성층에서 생성되는 광의 색상은 마젠타(magenta), 시안(cyan), 옐로우(yellow) 중 하나일 수도 있다. 정공 주입층, 정공 수송층, 정공 억제층, 전자 수송층, 및 전자 주입층은 서로 인접한 발광 영역(EMA)에서 연결되는 공통막일 수 있다.The color of light generated in the light generating layer may be one of red, green, blue, and white, but the present embodiment is not limited thereto. For example, the color of light generated in the light generating layer of the emission layer EML may be one of magenta, cyan, and yellow. The hole injection layer, the hole transport layer, the hole suppression layer, the electron transport layer, and the electron injection layer may be a common layer connected in the light emitting area EMA adjacent to each other.

제2 전극(CE) 상에는 제2 전극(CE)을 커버하는 박막 봉지층(TFE)이 제공될 수 있다.A thin film encapsulation layer TFE covering the second electrode CE may be provided on the second electrode CE.

박막 봉지층(TFE)은 표시 소자부(DPL)를 밀봉한다. 박막 봉지층(TFE)은 단일층으로 이루어질 수 있으나, 이에 한정되는 것은 아니며 실시예에 따라 다중층으로 이루어질 수도 있다. 박막 봉지층(TFE)은 발광 소자(LD, OLED)를 포함한 표시 소자부(DPL)를 커버하는 복수의 절연막을 포함할 수 있다. 박막 봉지층(TFE)은 적어도 하나의 무기막 및 적어도 하나의 유기막을 포함할 수 있다. 예를 들면, 박막 봉지층(TFE)은 무기막 및 유기막이 교번하여 적층된 구조를 가질 수 있다. 또한, 실시예에 따라, 박막 봉지층(TFE)은 표시 소자부(DPL) 상에 배치되고 실런트를 통해 기판(SUB)과 합착되는 봉지 기판일 수 있다.The thin film encapsulation layer TFE seals the display element part DPL. The thin film encapsulation layer (TFE) may be formed of a single layer, but is not limited thereto, and may be formed of multiple layers according to embodiments. The thin film encapsulation layer TFE may include a plurality of insulating layers covering the display device portion DPL including the light emitting devices LD and OLED. The thin film encapsulation layer TFE may include at least one inorganic layer and at least one organic layer. For example, the thin film encapsulation layer TFE may have a structure in which an inorganic layer and an organic layer are alternately stacked. Also, according to an embodiment, the thin film encapsulation layer TFE may be an encapsulation substrate disposed on the display element unit DPL and bonded to the substrate SUB through a sealant.

기판(SUB)과 화소 회로부(PCL) 사이에는 선택적 광 투과부(LBL)가 제공될 수 있다. 선택적 광 투과부(LBL)는 차광 패턴(LBP)과 적어도 하나의 핀홀(PIH)을 포함할 수 있다. 선택적 광 투과부(LBL)의 핀홀(PIH)은 화소(PXL)의 발광 영역(EMA)과 중첩되도록 선택적 광 투과부(LBL) 내에 위치할 수 있으나, 본 발명이 이에 한정되는 것은 아니다.A selective light transmitting part LBL may be provided between the substrate SUB and the pixel circuit part PCL. The selective light transmitting part LBL may include a light blocking pattern LBP and at least one pinhole PIH. The pinhole PIH of the selective light transmitting portion LBL may be positioned in the selective light transmitting portion LBL to overlap the light emitting area EMA of the pixel PXL, but the present invention is not limited thereto.

도 13은 본 발명의 일 실시예에 따른 학습자 단말기의 개략적인 단면도이다.13 is a schematic cross-sectional view of a learner terminal according to an embodiment of the present invention.

도 13을 참조하면, 학습자 단말기(104)의 감지 영역(SA)의 제1 면(SF1)에 사용자의 지문이 접촉하면, 접촉 영역에 대응하는 지문 화소들(FPXL, PXL) 각각의 발광 소자(LD, OLED)가 구동되어 제1 면(SF1)으로 광(EL)을 방출할 수 있다. 이하, 설명의 편의를 위하여, 감지 영역(SA)의 제1 면(SF1) 중 사용자의 지문이 직접적으로 접촉되는 영역을 지문 접촉면(SF1)으로 지칭한다.Referring to FIG. 13 , when a user's fingerprint comes into contact with the first surface SF1 of the sensing area SA of the learner terminal 104, each of the light emitting elements (FPXL, PXL) of the fingerprint pixels corresponding to the contact area ( LD and OLED may be driven to emit light EL to the first surface SF1 . Hereinafter, for convenience of description, an area to which a user's fingerprint is in direct contact among the first surface SF1 of the sensing area SA is referred to as a fingerprint contact surface SF1 .

지문 접촉면(SF1)에 대응하는 지문 화소들(FPXL)의 발광 소자들(LD, OLED)은 동시에 발광되거나 순차적으로 발광될 수 있다. 사용자 지문으로 방출된 광은 사용자 지문에 의해 반사되어 표시 모듈(DM) 및 선택적 광 투과부(LBL)를 통과하여(또는 투과하여) 광 감지 어레이부(LSL)로 입사할 수 있다. 광 감지 어레이부(LSL)의 광 센서들(PSR)은 반사광(RL)을 수신하여 사용자의 지문 영상을 획득하고, 획득한 지문 영상을 지문 검출부(FPDP)로 소정 프레임 속도로 제공한다.The light emitting elements LD and OLED of the fingerprint pixels FPXL corresponding to the fingerprint contact surface SF1 may emit light simultaneously or sequentially. The light emitted by the user's fingerprint may be reflected by the user's fingerprint and may pass through (or transmit) the display module DM and the selective light transmitting unit LBL to be incident on the light sensing array unit LSL. The optical sensors PSR of the light sensing array unit LSL receive the reflected light RL to obtain a user's fingerprint image, and provide the obtained fingerprint image to the fingerprint detection unit FPDP at a predetermined frame rate.

이때, 광 감지 어레이부(LSL)는 사용자 지문의 외곽부에서 반사된 반사광(RL)을 수신하여 사용자 지문의 외곽부 영상을 확득하고, 획득한 지문 외곽부 영상을 지문 검출부(FPDP)로 제공할 수 있다. 본 발명의 일 실시예에 있어서, 사용자 지문의 외곽부라 함은, 사용자 지문이 감지 영역(SA)의 지문 접촉면(SF1)에 접촉되는 부분(A, 지문 인증부)의 주변으로 사용자 지문이 상기 제1 면(SF1)에 접촉되지 않고 제1 면(SF1)으로부터 이격된(또는 근접한) 영역(B)을 의미할 수 있다. 이하에서는, 설명의 편의를 위하여 사용자 지문이 지문 접촉면(SF1)에 접촉하는 부분(A, 또는 지문 인증부)을 '제1 영역(A)'으로 지칭하고, 제1 영역(A)의 외곽부를 '제2 영역(B)'으로 지칭한다.At this time, the light sensing array unit LSL receives the reflected light RL reflected from the outer portion of the user's fingerprint to obtain an image of the outer portion of the user's fingerprint, and provides the obtained image of the outer portion of the fingerprint to the fingerprint detection unit FPDP. can In one embodiment of the present invention, the outer part of the user's fingerprint means that the user's fingerprint is in the vicinity of the portion (A, fingerprint authentication unit) in which the user's fingerprint is in contact with the fingerprint contact surface SF1 of the sensing area SA. It may refer to an area B spaced apart from (or close to) the first surface SF1 without contacting the first surface SF1 . Hereinafter, for convenience of explanation, a portion (A, or fingerprint authentication unit) in which the user's fingerprint contacts the fingerprint contact surface SF1 is referred to as a 'first area (A)', and the outer portion of the first area (A) is referred to as a 'first area (A)'. It is referred to as a 'second region (B)'.

지문의 제1 영역(A)과 지문의 제2 영역(B)은, 연속되는 융선(ridge)과 융선(ridge) 사이에 위치하며 연속되는 골(valley)을 포함하고 있으며, 영역별로 광 감지 어레이부(LSL)로 입사되는 반사광(RL)의 차이로 인하여 밝기 차이(또는 그레이 레벨 차이)가 존재할 수 있다. 이러한 차이를 이용하여 광 감지 어레이부(LSL)에서 획득된 지문 영상에서 지문의 제1 영역(A)과 지문의 제2 영역(B)의 구분이 가능할 수 있다.The first area (A) of the fingerprint and the second area (B) of the fingerprint are located between continuous ridges and ridges and include continuous valleys, and a photo-sensing array for each area A difference in brightness (or a difference in gray level) may exist due to a difference in reflected light RL incident to the negative LSL. Using this difference, it may be possible to distinguish the first area A of the fingerprint and the second area B of the fingerprint in the fingerprint image obtained from the light sensing array unit LSL.

도 13에 도시된 바와 같이, 사용자의 지문을 감지하는 감지 영역(SA) 내의 선택적 광 투과부(LBL)가 제1 내지 제5 핀홀들(PIH1 ~ PIH5)을 포함하는 경우, 광 감지 어레이부(LSL)는 제1 내지 제5 핀홀들(PIH1 ~ PIH5) 각각을 통과하여 광 감지 어레이부(LSL)로 진행하는 광을 수신하여 단위 핀홀(PIH) 별로 지문 영상을 획득할 수 있다. 예를 들어, 지문 인증을 위해 감지 영역(SA) 내에서 사용자 손가락이 직접 접촉되는 제1 영역(A)과 상기 제1 영역(A)의 외곽부에 위치하는 제2 영역(B)이 선택적 광 투과부(LBL)의 제1 내지 제4 핀홀들(PIH1 ~ PIH4)에 대응되는 경우, 광 감지 어레이부(LSL)는 제1 내지 제4 핀홀들(PIH1 ~ PIH4) 각각을 통과하여 광 감지 어레이부(LSL)로 진행하는 광을 수신하여 단위 핀홀(PIH) 별로 지문 영상을 획득할 수 있다.13 , when the selective light transmitting part LBL in the sensing area SA sensing a user's fingerprint includes the first to fifth pinholes PIH1 to PIH5, the light sensing array part LSL ) may receive light that passes through each of the first to fifth pinholes PIH1 to PIH5 and travels to the light sensing array unit LSL to obtain a fingerprint image for each unit pinhole PIH. For example, for fingerprint authentication, a first area (A) to which a user's finger is in direct contact within the sensing area (SA) and a second area (B) located at the outer portion of the first area (A) are selective light. When corresponding to the first to fourth pinholes PIH1 to PIH4 of the transmissive part LBL, the light sensing array unit LSL passes through each of the first to fourth pinholes PIH1 to PIH4 and the light sensing array unit A fingerprint image may be acquired for each pinhole (PIH) by receiving the light propagating to the LSL.

제1 영역(A)에서 반사된 광은 제1 내지 제4 핀홀들(PIH1 ~ PIH4)을 통과하여 제1 내지 제4 핀홀들(PIH1 ~ PIH4) 각각에 대응하는 광 감지 어레이부(LSL)로 진행될 수 있다. 이와 동시에, 제2 영역(B)에서 반사된 광도 제1 내지 제4 핀홀들(PIH1 ~ PIH4)을 통과하여 상기 제1 내지 제4 핀홀들(PIH1 ~ PIH4) 각각에 대응하는 광 감지 어레이부(LSL)로 진행될 수 있다.The light reflected from the first area A passes through the first to fourth pinholes PIH1 to PIH4 to the light sensing array unit LSL corresponding to each of the first to fourth pinholes PIH1 to PIH4. can proceed. At the same time, the light reflected from the second region B also passes through the first to fourth pinholes PIH1 to PIH4 and a photo sensing array unit corresponding to each of the first to fourth pinholes PIH1 to PIH4 ( LSL).

제1 영역(A)에서 반사된 광의 양(또는 세기)과 제2 영역(B)에서 반사된 광의 양(또는 세기)은 서로 상이할 수 있다. 일 예로, 제1 영역(A)에서 반사된 광의 양(또는 세기)은 제2 영역(B)에서 반사된 광의 양(또는 세기)보다 많을 수 있다. 제1 영역(A)은 사용자 지문이 지문 접촉면(SF1)에 직접 접촉되는 영역이고, 제2 영역(B)은 사용자 지문이 지문 접촉면(SF1)에 닿지 않는 영역이므로, 각 영역에서 지문의 융선(ridge)과 골(valley)에서의 반사율 차이가 발생할 수 있다. 이러한 반사율 차이로 인하여 광 감지 어레이부(LSL)에서 획득한 지문 영상에서 사용자 지문의 제1 영역(A)과 제2 영역(B)이 구분될 수 있다.The amount (or intensity) of light reflected from the first area A and the amount (or intensity) of light reflected from the second area B may be different from each other. For example, the amount (or intensity) of light reflected from the first area A may be greater than the amount (or intensity) of light reflected from the second area B. The first area (A) is an area where the user's fingerprint is in direct contact with the fingerprint contact surface (SF1), and the second area (B) is an area where the user's fingerprint does not touch the fingerprint contact surface (SF1). Differences in reflectance at ridges and valleys may occur. Due to the difference in reflectance, the first area A and the second area B of the user's fingerprint may be distinguished from the fingerprint image obtained by the light sensing array unit LSL.

한편, 학습자 단말기(104)의 지문 접촉면(SF1)에는 사용자의 실제 손가락 지문이 접촉되거나 위조 지문이 접촉될 수 있다. 여기서, 위조 지문이라 함은 투명 필름 또는 종이 등에 인쇄한 위조 지문, 지문틀에 특정 물질을 부어 만든 위조 지문 등을 포함할 수 있다.On the other hand, the fingerprint contact surface SF1 of the learner terminal 104 may be in contact with a user's real finger fingerprint or a fake fingerprint. Here, the forged fingerprint may include a forged fingerprint printed on a transparent film or paper, a forged fingerprint made by pouring a specific material into a fingerprint frame, and the like.

사용자의 손가락 지문(이하, '생체 지문'이라 함)이 지문 접촉면(SF1)에 접촉될 때 지문 검출부(FPDP)에서 영상처리 된 지문 영상의 일 예는, 제1 영역(A)에 생체 지문에 형성된 융선(ridge)과 골(valley)이 관측되고, 제2 영역(B)에는 제1 영역(A)에 비하여 상대적으로 희미하지만 제1 영역(A)의 융선(ridge)과 연속성을 갖는 융선(ridge) 및 제1 영역(A)의 골(valley)과 연속성을 갖는 골(valley)이 인식될 수 있다.An example of a fingerprint image processed by the fingerprint detection unit FPDP when a user's finger fingerprint (hereinafter referred to as 'biometric fingerprint') comes into contact with the fingerprint contact surface SF1 is the biometric fingerprint in the first area A The formed ridges and valleys are observed, and in the second region (B), although relatively faint compared to the first region (A), the ridges ( ridge) and a valley having continuity with the valley of the first region A may be recognized.

위조 지문, 일 예로, 종이에 인쇄한 위조 지문이 지문 접촉면(SF1)에 접촉될 때 지문 검출부(FPDP)에서 영상처리 된 지문 영상의 일 예는, 제1 영역(A)에서는 생체 지문에 형성된 융선(ridge) 및 골(valley)과 유사한 형태를 갖는 패턴이 나타나지만, 제2 영역(B)에서는 선택적 광 투과부(LBL)에 포함된 핀홀들(PIH)의 배열이 관측되는 것을 확인할 수 있다. 일 예로, 제2 영역(B)에서는 격자 배열을 이루는 핀홀들(PIH)이 인식될 수 있다.An example of a fingerprint image processed by the fingerprint detection unit FPDP when a forged fingerprint, for example, a forged fingerprint printed on paper comes into contact with the fingerprint contact surface SF1, is a ridge formed on the biometric fingerprint in the first area A Although a pattern having a shape similar to a ridge and a valley appears, it can be seen that the arrangement of the pinholes PIH included in the selective light transmitting part LBL is observed in the second region B. For example, pinholes PIH forming a grid arrangement may be recognized in the second region B.

상술한 바와 같이, 생체 지문 및 위조 지문 각각의 제1 영역(A)에서는 지문의 융선(ridge)과 골(valley)이 관측될 수 있으나, 생체 지문 및 위조 지문 각각의 제2 영역(B)에서는 서로 상이한 영상이 관측될 수 있다. 즉, 생체 지문의 제2 영역(B)에서는 희미하지만 지문의 융선(ridge)과 골(valley)이 관측될 수 있으나, 위조 지문의 제2 영역(B)에서는 핀홀들(PIH)의 격자 배열이 관측될 수 있다. 본 발명의 일 실시예에서는, 생체 지문과 위조 지문 각각의 제2 영역(B)에서 관측되는 영상을 통하여 지문 접촉면(SF1)에 접촉된 지문이 생체 지문인지 위조 지문인지를 판단할 수 있다.As described above, the ridges and valleys of the fingerprint can be observed in the first area (A) of each of the biometric fingerprint and the forged fingerprint, but in the second area (B) of each of the biometric and counterfeit fingerprints Different images may be observed. That is, in the second area (B) of the biometric fingerprint, although faint, ridges and valleys of the fingerprint can be observed, but in the second area (B) of the fake fingerprint, the grid arrangement of the pinholes (PIH) is can be observed. In one embodiment of the present invention, it is possible to determine whether the fingerprint in contact with the fingerprint contact surface SF1 is a biometric fingerprint or a forged fingerprint through the images observed in the second region B of each of the biometric fingerprint and the forged fingerprint.

지문 검출부(FPDP)는 광 감지 어레이부(LSL)로부터 획득된 지문 영상에서 제1 영역(A)에 해당하는 영상과 제2 영역(B)에 해당하는 영상을 추출하고, 추출된 영상들에 대해 이미지 전처리(Preprocessing) 및 합성 등을 수행한 후 유사도 여부를 판단하거나 특정 패턴, 일 예로, 핀홀들(PIH)의 격자 배열과의 대응 여부를 판단함으로써 표시 장치(DD)의 지문 접촉면(SF1)에 접촉된 지문이 생체 지문인지 위조 지문인지를 판단할 수 있다.The fingerprint detector FPDP extracts an image corresponding to the first region A and an image corresponding to the second region B from the fingerprint image obtained from the light sensing array unit LSL, After performing image preprocessing and synthesizing, the fingerprint contact surface SF1 of the display device DD is determined by determining whether similarity is present or whether it corresponds to a specific pattern, for example, a lattice arrangement of pinholes PIH. It may be determined whether the touched fingerprint is a biometric fingerprint or a forged fingerprint.

지문 검출부(FPDP)는 지문 센서(FPS)로부터 영상을 입력받아 지문의 제1 영역에 대응하는 제1 영상과 지문의 제2 영역에 대응하는 제2 영상을 추출하여 제1 및 제2 영상들을 비교하여 유사도를 판단하며, 그 결과에 따라 지문 인증을 수행할 수 있다.The fingerprint detector FPDP receives an image from the fingerprint sensor FPS, extracts a first image corresponding to the first area of the fingerprint and a second image corresponding to the second area of the fingerprint, and compares the first and second images to determine the degree of similarity, and according to the result, fingerprint authentication can be performed.

지문의 제1 영역은 지문 접촉면에 접촉한 지문의 일 영역이고, 지문의 제2 영역은 지문의 일 영역의 외곽에 위치하며 지문 접촉면에 접촉되지 않는 지문의 다른 영역일 수 있다.The first area of the fingerprint may be one area of the fingerprint in contact with the fingerprint contact surface, and the second area of the fingerprint may be another area of the fingerprint located outside the one area of the fingerprint and not in contact with the fingerprint contact surface.

도 14는 도 6 또는 도 7에 도시된 지문 검출부를 개략적으로 도시한 블록도이다.14 is a block diagram schematically illustrating the fingerprint detection unit shown in FIG. 6 or FIG. 7 .

도 6 내지 도 14를 참조하면, 지문 검출부(FPDP)는 영상 수신부(IRP), 저장부(DBP), 영상 추출부(IEP), 영상 처리부(IPP), 유사도 판단부(SDP), 및 지문 인증 수행부(FPAP)를 포함할 수 있다.6 to 14 , the fingerprint detection unit FPDP includes an image receiving unit IRP, a storage unit DBP, an image extraction unit IEP, an image processing unit IPP, a similarity determining unit SDP, and fingerprint authentication. It may include an executor (FPAP).

지문 검출부(FPDP)는 광 감지 어레이부(LSL)와 일체로 하나의 모듈처럼 형성될 수도 있으나, 광 감지 어레이부(LSL)와 특정 통신 인터페이스로 연결된 별도의 장치일 수도 있다. 예컨대, 지문 검출부(FPDP)는 모듈 형태로 마련된 광 감지 어레이부(LSL)와 유에스비(USB: Universal Serial Bus)로 연결된 컴퓨터 장치(또는 그 내부의 일부 구성)일 수 있다. 이러한 경우, 광 감지 어레이부(LSL)도 지문 검출부(FPDP)와 연결된 유에스비(USB) 인터페이스를 구비해야 한다.The fingerprint detector FPDP may be integrally formed with the light sensing array unit LSL as a single module, or may be a separate device connected to the light sensing array unit LSL through a specific communication interface. For example, the fingerprint detection unit FPDP may be a computer device (or a part of a configuration therein) connected to the optical sensing array unit LSL provided in the form of a module and a USB (Universal Serial Bus). In this case, the light sensing array unit LSL must also have a USB interface connected to the fingerprint detection unit FPDP.

영상 수신부(IRP)는 광 감지 어레이부(LSL)가 소정 프레임 속도로 제공하는 영상을 모두 수신하고 이를 영상 추출부(IEP)로 전달할 수 또한, 영상 수신부(IRP)는 수신한 영상들 중에서 학습자 단말기(104)의 지문 접촉면(SF1)에 지문이 접촉한 때에 광 감지 어레이부(LSL)에서 획득된 지문 영상을 인식하여 버퍼에 저장한 후 이를 영상 추출부(40)로 전달한다. 영상 수신부(IRP)는 수신한 영상들 중 특정 요소 값(일 예로, 그레이 레벨, 밝기 레벨, 값이 변한 화소의 개수 등)의 변화를 감지하여 지문 영상인지 여부를 확인하고, 지문 영상으로 판단되면 버퍼에 저장하고 이를 영상 추출부(IEP)로 전달한다.The image receiving unit (IRP) may receive all the images provided by the light sensing array unit (LSL) at a predetermined frame rate and transmit them to the image extracting unit (IEP). Also, the image receiving unit (IRP) is a learner terminal among the received images. When the fingerprint touches the fingerprint contact surface SF1 of 104 , the fingerprint image acquired by the light sensing array unit LSL is recognized and stored in a buffer, and then transferred to the image extraction unit 40 . The image receiving unit IRP detects a change in a specific element value (eg, a gray level, a brightness level, the number of pixels with a changed value, etc.) among the received images, checks whether the image is a fingerprint image, and determines whether the image is a fingerprint image. It is stored in the buffer and transmitted to the image extraction unit (IEP).

저장부(DBP)는 등록 지문 영상을 저장한다. 이때, 저장부(DBP)는 등록 지문 영상에 대하여 분석된 특징점 정보를 저장할 수 있다. 특징점은 사람마다 다르기 때문에, 저장부(DBP)는 사용자로부터 등록 지문 영상을 얻고, 특징점의 위치와 개수 등을 분석하여 데이터 베이스화하여 저장할 수 있다. 여기서, 특징점은, 등록 지문 영상에서 융선(ridge)이 지나는 끝점(ending point)과 2개 이상의 융선(ridge)이 만나는 분기점(bifurcation point) 등을 포함할 수 있다.The storage unit DBP stores the registered fingerprint image. In this case, the storage unit DBP may store the characteristic point information analyzed with respect to the registered fingerprint image. Since the key points are different for each person, the storage unit DBP may obtain a registered fingerprint image from the user, analyze the location and number of the key points, and store it as a database. Here, the feature point may include an ending point through which a ridge passes and a bifurcation point where two or more ridges meet in the registered fingerprint image.

영상 추출부(IEP)는 영상 수신부(IRP)로부터 전달된 지문 영상으로부터 원하는 영역의 영상을 추출한다. 영상 추출부(IEP)는 영상 수신부(IRP)로부터 전달된 지문 영상에서 반사광의 차이로 인한 영역별 밝기 차이(또는 그레이 레벨 차이)를 이용하여 지문 인증을 위한 제1 영역(A)의 영상과 지문 외곽부 영역인 제2 영역(B)의 영상을 각각 추출할 수 있다.The image extraction unit IEP extracts an image of a desired region from the fingerprint image transmitted from the image reception unit IRP. The image extraction unit IEP uses the brightness difference (or gray level difference) for each region due to the difference in reflected light in the fingerprint image transmitted from the image receiving unit IRP to the image and the fingerprint of the first region A for fingerprint authentication. Images of the second region B, which are the outer regions, may be extracted, respectively.

일 예로, 영상 추출부(IEP)는 지문 영상에서 상대적으로 밝은 영역에 해당하는 제1 영역(A)을 관심 영역(Region Of Interest, ROI)으로 선택하여 해당 영역의 영상만을 추출할 수 있다. 또는, 영상 추출부(IEP)는 지문 영상에서 상대적으로 어두운 영역에 해당하는 제2 영역(B)을 관심 영역(Region Of Interest, ROI)으로 선택하여 해당 영역의 영상만을 추출할 수 있다. 실시예에 따라, 영상 추출부(IEP)는 에지 트레이싱(Edge Tracing), 에지 검출(Edge Detection), 경계 추척(Boundary Flowing) 알고리즘 등을 이용하여 제1 영역(A)의 영상과 제2 영역(B)의 영상을 추출할 수 있다. 영상 추출부(IEP)는 영상 수신부(IRP)로부터 전달된 지문 영상에서 공지된 다양한 방법 등을 이용하여 지문 인증을 위한 제1 영역(A)의 영상 및 상기 제1 영역(A)의 외곽부에 해당하는 제2 영역(B)의 영상을 추출할 수 있다.For example, the image extractor IEP may select a first region A corresponding to a relatively bright region in the fingerprint image as a region of interest (ROI) and extract only an image of the corresponding region. Alternatively, the image extractor IEP may select the second region B corresponding to a relatively dark region in the fingerprint image as a region of interest (ROI) and extract only the image of the corresponding region. According to an embodiment, the image extraction unit (IEP) uses an edge tracing, edge detection, boundary tracing algorithm, etc. to obtain the image of the first area A and the second area ( The image of B) can be extracted. The image extraction unit (IEP) uses various known methods from the fingerprint image transmitted from the image receiving unit (IRP) to the image of the first area (A) for fingerprint authentication and the outer portion of the first area (A). An image of the corresponding second region B may be extracted.

영상 추출부(IEP)에서 추출된 제1 영역(A)의 영상과 제2 영역(B)의 영상은 영상 처리부(IPP)로 전달될 수 있다.The image of the first region A and the image of the second region B extracted by the image extraction unit IEP may be transmitted to the image processing unit IPP.

영상 처리부(IPP)는 영상 추출부(IEP)로부터 전달된 제1 영역(A)의 영상 및 제2 영역(B)의 영상에 대해 이미지 전처리(Preprocessing)를 수행할 수 있다. 여기서, 이미지 전처리(Preprocessing)라 함은, 제1 영역(A)의 영상과 제2 영역(B)의 영상에 포함된 잡음(또는 노이즈)을 제거하고, 데이터의 양을 축소하여 필요한 정보를 찾아내기에 수월한 형태로 영상을 처리하는 것을 의미할 수 있다. 이미지 전처리(Preprocessing)는 평활화(smoothing) 과정, 이진화(binarization) 과정, 및 세선화(thinning) 과정 등을 포함할 수 있다.The image processing unit IPP may perform image preprocessing on the image of the first region A and the image of the second region B transmitted from the image extraction unit IEP. Here, image preprocessing refers to removing noise (or noise) included in the image of the first region (A) and the image of the second region (B), reducing the amount of data, and finding necessary information. It can mean processing the image in a form that is easy to bet on. Image preprocessing may include a smoothing process, a binarization process, and a thinning process.

영상 처리부(IPP)는 제1 영역(A)의 영상과 제2 영역(B)의 영상 각각에 대해 잡음(또는 노이즈)의 영향을 최소화시키기 위해서 명암 구분을 높이고 잡음을 제거하는 평활화 과정을 진행할 수 있다. 일 예로, 평활화 과정은 히스토그램(Histogran)을 이용한 평활화를 거쳐 미세한 잡음을 추가로 제거하는 메디언 필터(Median Filter)를 사용한 평활화를 진행할 수 있다. 또한, 영상 처리부(IPP)는 평활화 과정을 통해 잡음이 제거된 256 그레이 레벨의 제1 영역(A)의 영상과 제2 영상(B)을 0(검은색) 또는 1(흰색)로 변경하는 이진화 과정을 수행한 후 세선화 과정을 진행할 수 있다. 영상 처리부(IPP)는 이미지 전처리(Preprocessing)가 이루어진 제1 영역(A)의 영상과 제2 영역(B)의 영상을 합성한 뒤 이를 유사도 판단부(SDP)로 전달할 수 있다.The image processing unit (IPP) may perform a smoothing process of increasing contrast and removing noise in order to minimize the influence of noise (or noise) on each of the image of the first region (A) and the image of the second region (B). have. For example, in the smoothing process, smoothing using a median filter that additionally removes fine noise through smoothing using a histogram may be performed. In addition, the image processing unit IPP converts the image of the first region A and the second image B of 256 gray levels from which noise has been removed through a smoothing process to 0 (black) or 1 (white). After performing the process, you can proceed with the thinning process. The image processing unit IPP may synthesize the image of the first region A and the image of the second region B on which image preprocessing has been performed, and then transmit the synthesized image to the similarity determining unit SDP.

유사도 판단부(SDP)는 영상 처리부(IPP)로부터 전달된 영상을 통해 제1 영역(A)과 제2 영역(B)의 유사도 정도를 판단할 수 있다.The similarity determining unit SDP may determine the degree of similarity between the first region A and the second region B through the image transmitted from the image processing unit IPP.

유사도 판단부(SDP)는, 제1 영역(A)과 제2 영역(B) 사이의 경계를 기준으로 제1 영역(A)의 영상과 제2 영역(B)의 영상 사이에 휘도(또는 밝기) 차이가 있고 서로 유사한 패턴 또는 실질적으로 동일한 패턴을 갖는 경우 제1 영역(A)의 영상과 제2 영역(B)의 영상을 유사한 영상으로 판단할 수 있다. 본 발명의 일 실시예에 있어서, 제1 영역(A)의 영상과 제2 영역(B)의 영상이 서로 유사한 패턴을 갖거나 실질적으로 동일한 패턴을 갖는 경우는, 연속성을 갖는 지문의 융선(ridge)과 골(valley)을 포함하는 경우를 의미할 수 있다. 또한, 유사도 판단부(SDP)는 제1 영역(A)의 영상의 휘도(또는 밝기)와 제2 영역(B)의 영상의 휘도(또는 밝기)가 차이가 있되 서로 유사한 패턴 또는 실질적으로 동일한 패턴을 갖지 않을 때 제1 영역(A)의 영상과 제2 영역(B)의 영상을 유사하지 않는 영상으로 판단할 수 있다.The similarity determining unit SDP is configured to provide a luminance (or brightness) between the image of the first region A and the image of the second region B based on the boundary between the first region A and the second region B. ), if they have a similar pattern or substantially the same pattern, the image of the first region A and the image of the second region B may be determined as similar images. In one embodiment of the present invention, when the image of the first region (A) and the image of the second region (B) have a similar or substantially the same pattern, the ridge of the fingerprint having continuity ) and may mean a case including a valley. In addition, the similarity determining unit SDP determines that the luminance (or brightness) of the image of the first region A and the luminance (or brightness) of the image of the second region B are different but similar to each other or substantially the same pattern. In the absence of , the image of the first region A and the image of the second region B may be determined to be dissimilar images.

제1 영역(A)의 영상과 제2 영역(B)의 영상이 유사하다고 판단되면(즉, 제1 영역(A)의 영상과 제2 영역(B)의 영상 사이에 휘도(또는 밝기) 차이가 있고 서로 연속되는 지문의 융선(ridge)과 골(valley)을 포함하면), 유사도 판단부(SDP)는 지문 접촉면(SF1)에 접촉한 지문을 생체 지문으로 인식하고 그 결과를 지문 인증 수행부(FPAP)로 전달한다. 지문 인증 수행부(FPAP)는 저장부(DBP)로부터 전달된 등록 지문 영상과 제1 영역(A)의 영상의 매칭을 통해 지문 인증을 수행한다.When it is determined that the image of the first region A and the image of the second region B are similar (ie, the difference in luminance (or brightness) between the image of the first region A and the image of the second region B) and including ridges and valleys of fingerprints that are continuous with each other), the similarity determining unit SDP recognizes the fingerprint that has contacted the fingerprint contact surface SF1 as a biometric fingerprint, and the result of the fingerprint authentication performing unit (FPAP). The fingerprint authentication performing unit FPAP performs fingerprint authentication by matching the registered fingerprint image transmitted from the storage DBP with the image of the first area A.

또한, 제1 영역(A)의 영상과 제2 영역(B)의 영상이 유사하다고 판단되지 않으면(즉, 제1 영역(A)의 영상과 제2 영역(B)의 영상 사이에 휘도(또는 밝기) 차이가 있되, 서로 연속되는 지문의 융선(ridge)과 골(valley)을 포함하지 않으면), 유사도 판단부(SDP)는 지문 접촉면(SF1)에 접촉한 지문을 위조 지문으로 인식하고 그 결과를 지문 인증 수행부(FPAP)로 전달하고, 지문 인증 수행부(FPAP)를 유사도 판단부(SDP)의 결과에 따라 지문 인증을 수행하지 않는다.In addition, if it is not determined that the image of the first region A and the image of the second region B are similar (ie, the luminance (or between the image of the first region A) and the image of the second region B brightness) difference, but does not include ridges and valleys of fingerprints that are continuous with each other), and the similarity determining unit SDP recognizes the fingerprint in contact with the fingerprint contact surface SF1 as a counterfeit fingerprint, and as a result is transmitted to the fingerprint authentication performing unit FPAP, and the fingerprint authentication performing unit FPAP does not perform fingerprint authentication according to the result of the similarity determining unit SDP.

한편, 다른 실시예에 따라, 유사도 판단부(SDP)는 영상 처리부(IPP)로부터 전달된 영상과 등록된 기준 영상을 비교하여 영상들의 유사도 정도를 판단할 수 있다. 등록된 기준 영상이라 함은, 위조 지문의 제2 영역(B)에서 관측되는 핀홀들(PIH)의 격자 배열을 포함한 영상일 수 있다. 즉, 다른 실시예에 따른 유사도 판단부(SDP)는 영상 처리부(IPP)로부터 전달된 영상이 핀홀들(PIH)의 격자 배열을 포함한 기준 영상에 대응하는지 아닌지를 판단하여 그 결과를 지문 인증 수행부(FPAP)로 전달할 수 있다.Meanwhile, according to another exemplary embodiment, the similarity determining unit SDP may determine the degree of similarity between images by comparing the image transmitted from the image processing unit IPP with a registered reference image. The registered reference image may be an image including a grid arrangement of pinholes PIH observed in the second region B of the forged fingerprint. That is, the similarity determining unit SDP according to another embodiment determines whether the image transmitted from the image processing unit IPP corresponds to a reference image including a grid arrangement of pinholes PIH, and determines whether the result is a fingerprint authentication performing unit (FPAP).

영상 처리부(IPP)로부터 전달된 영상이 핀홀들(PIH)의 격자 배열을 포함한 기준 영상에 대응하지 않는 경우, 유사도 판단부(SDP)는 지문 접촉면(SF1)에 접촉한 지문을 생체 지문으로 판단하고 그 결과를 지문 인증 수행부(FPAP)로 전달한다. 지문 인증 수행부(FPAP)는 저장부(DBP)로부터 전달된 등록 지문 영상과 제1 영역(A)의 영상의 매칭을 통해 지문 인증을 수행한다. 또한, 영상 처리부(IPP)로부터 전달된 영상이 핀홀들(PIH)의 격자 배열을 포함한 등록된 기준 영상에 대응하는 경우, 유사도 판단부(SDP)는 지문 접촉면(SF1)에 접촉한 지문을 위조 지문으로 판단하고 그 결과를 지문 인증 수행부(FPAP)로 전달하고, 지문 인증 수행부(FPAP)는 유사도 판단부(SDP)의 결과에 따라 지문 인증을 수행하지 않는다.If the image transmitted from the image processing unit IPP does not correspond to the reference image including the grid arrangement of the pinholes PIH, the similarity determining unit SDP determines the fingerprint in contact with the fingerprint contact surface SF1 as a biometric fingerprint, and The result is transmitted to the fingerprint authentication performing unit (FPAP). The fingerprint authentication performing unit FPAP performs fingerprint authentication by matching the registered fingerprint image transmitted from the storage DBP with the image of the first area A. In addition, when the image transmitted from the image processing unit IPP corresponds to the registered reference image including the grid arrangement of the pinholes PIH, the similarity determining unit SDP may counterfeit the fingerprint contacting the fingerprint contact surface SF1. , and transmits the result to the fingerprint authentication performing unit FPAP, and the fingerprint authentication performing unit FPAP does not perform fingerprint authentication according to the result of the similarity determining unit SDP.

상술한 바와 같이, 본 발명의 일 실시예에 따르면, 광 센서들(PSR)을 포함한 광 감지 어레이부(LSL)와 핀홀들(PIH)을 포함한 선택적 광 투과부(LBL)를 지문 센서(FPS)로 구성함으로써 지문 센서(FPS)를 대면적으로 구현할 수 있다. 이러한 대면적 지문 센서(FPS)를 활용할 경우, 사용자 손가락 지문의 전체 영상 취득이 가능하여 지문 접촉면(SF1)에 접촉된 지문의 제1 영역(A)의 영상뿐만 아니라 제1 영역(A)의 외곽부인 제2 영역(B)의 영상까지 획득할 수 있다. 제1 영역(A)의 영상과 제2 영역(B)의 영상만을 분석하여 유사도 정도를 판단함으로써 지문 접촉면(SF1)에 접촉된 지문이 생체 지문인지 위조 지문인지를 판단할 수 있다.As described above, according to an embodiment of the present invention, the light sensing array unit LSL including the light sensors PSR and the selective light transmission unit LBL including the pinholes PIH are used as the fingerprint sensor FPS. By configuring the fingerprint sensor (FPS) can be implemented in a large area. When such a large-area fingerprint sensor (FPS) is used, it is possible to acquire an entire image of the user's finger fingerprint, so that not only the image of the first area (A) of the fingerprint in contact with the fingerprint contact surface (SF1) but also the outside of the first area (A) is possible. Even the image of the denial second region B can be acquired. By analyzing only the image of the first region A and the image of the second region B to determine the degree of similarity, it can be determined whether the fingerprint in contact with the fingerprint contact surface SF1 is a biometric fingerprint or a forged fingerprint.

이에 따라, 본 발명의 일 실시예에 따른 학습자 단말기(104)는 생체 지문임을 판단하는 별도의 바이오 센서의 구비 없이도 지문의 위조 여부를 용이하게 판단할 수 있다. 또한, 본 발명의 일 실시예에 따른 학습자 단말기(104)는 지문 접촉면(SF1)에 접촉된 지문에서 반사되는 광의 색 특성을 이용하여 지문의 위조 여부를 판단하는 센서(일 예로, 컬러 센서)의 구비 없이도 지문의 위조 여부를 용이하게 판단할 수 있다. 또한, 본 발명의 일 실시예에 따른 학습자 단말기(104)는 별도의 바이오 센서 및/또는 컬러 센서의 구비에 따른 제조 비용을 절감할 수 있다.Accordingly, the learner terminal 104 according to an embodiment of the present invention can easily determine whether a fingerprint is forged without a separate biosensor for determining that it is a biometric fingerprint. In addition, the learner terminal 104 according to an embodiment of the present invention uses a color characteristic of light reflected from a fingerprint in contact with the fingerprint contact surface SF1 to determine whether a fingerprint is forged (eg, a color sensor). Whether or not the fingerprint is forged can be easily determined without provision. In addition, the learner terminal 104 according to an embodiment of the present invention can reduce manufacturing costs due to the provision of a separate biosensor and/or color sensor.

도 15는 본 발명의 실시예에 따른 손가락을 이용한 학습 방법을 나타낸 동작 흐름도이다.15 is an operation flowchart illustrating a learning method using a finger according to an embodiment of the present invention.

도 15를 참조하면, 본 발명의 실시예에 따른 손가락을 이용한 학습 시스템(100)은, 학습자 단말기(104)를 통해 학습 서비스를 제공한다(S502).Referring to FIG. 15 , the finger learning system 100 according to an embodiment of the present invention provides a learning service through the learner terminal 104 ( S502 ).

예를 들면, 학습자 단말기(104)는 학습 실행부(508)에서 도 16에 도시된 바와 같이 밀크T 초등 학습 서비스를 실행한다.For example, the learner terminal 104 executes the milk T elementary learning service as shown in FIG. 16 in the learning execution unit 508 .

여기서, 밀크T 초등 학습 서비스는 밀크T 학교공부, 수준별 수학, 수준별 영어, 창의 사고력, 밀크T 중학 종합반 메뉴를 포함한다. 도 16은 본 발명의 실시예에 따른 학습자 단말기를 통해 제공되는 밀크T 초등 학습 서비스에 대한 화면 예를 나타낸 도면이다. Here, the milk T elementary learning service includes milk T school study, mathematics by level, English by level, creative thinking ability, and milk T middle school general class menu. 16 is a view showing an example of a screen for the Milk T elementary learning service provided through the learner terminal according to an embodiment of the present invention.

밀크T 학교공부 메뉴는 과목별 공부, 시험대비 특강, 첨삭과외, 중학특강 메뉴를 포함하고, 수준별 수학 메뉴는 스토리텔링 개념학습, 영역별 수학, FunFun 연산게임, 유형격파, 실력충전 메뉴를 포함한다.Milk T school study menu includes study by subject, special lecture for exam preparation, correctional tutoring, and special lecture menu for middle school. The mathematics menu by level includes storytelling concept learning, mathematics by area, FunFun calculation game, type breaking, and skill charging menu. .

수준별 영어 메뉴는 술술 Speaking, 쏙쏙 Words, 팡팡 Phonics, 줄줄 Reading, 탄탄 Grammer, 영어 Songs, 영어 Library 메뉴를 포함하고, 창의 사고력 메뉴는 특별 학습, 숙제해결, 천재북클럽, 초등생활 메뉴를 포함한다.The English menu for each level includes Speaking, Words, Phonics, Reading, Tantan Grammer, English Songs, and English Library menus.

밀크T 중학 종합반 메뉴는 스터디 매니져, 멀티학습 플레이어, 자기주도 학습, 수학 영어 첨삭 서비스, 수학 질답 커뮤니티, 10분 수학 영어 메뉴를 포함한다.Milk T middle school general class menu includes study manager, multi-learning player, self-directed learning, math English correction service, math question and answer community, and 10-minute math English menu.

이에, 학습자는 예를 들면, 수준별 수학 메뉴에서 스토리텔링 개념학습, 영역별 수학, FunFun 연산게임, 유형격파, 실력충전 메뉴 중 FunFun 연산게임 메뉴를 실행할 수 있다.Accordingly, the learner may, for example, execute the FunFun calculation game menu among the storytelling concept learning, domain-specific math, FunFun calculation game, type breaking, and skill charging menus in the math menu for each level.

따라서, 학습자 단말기(104)는 도 17에 도시된 바와 같이 수준별 수학 메뉴의 FunFun 연산게임 에 대한 학습 페이지 화면을 제공한다. Accordingly, the learner terminal 104 provides a learning page screen for the FunFun arithmetic game of the math menu for each level as shown in FIG. 17 .

이때, FunFun 연산게임 에 대한 학습 페이지 화면에는 지문 등록을 위한 아이콘 또는 버튼이 화면 우측 상단에 표시된다. 도 17은 본 발명의 실시예에 따른 학습자 단말기를 통해 제공되는 학습 메뉴와 학습자의 지문을 매칭시켜 등록하기 위한 지문등록 아이콘을 나타낸 도면이다.At this time, on the learning page screen for the FunFun calculation game, an icon or button for fingerprint registration is displayed in the upper right corner of the screen. 17 is a diagram illustrating a fingerprint registration icon for matching and registering a learner's fingerprint with a learning menu provided through a learner terminal according to an embodiment of the present invention.

학습자는 학습 페이지 화면 상에 표시된 지문등록 메뉴(아이콘 or 버튼)를 통해 현재 실행하는 학습 메뉴에 대한 지문 등록을 요청한다.The learner requests fingerprint registration for the currently executed learning menu through the fingerprint registration menu (icon or button) displayed on the learning page screen.

이어, 학습자 단말기(104)는 지문등록 메뉴의 입력에 따라 현재 학습 메뉴와 학습자의 지문을 매칭하여 등록한다(S504).Next, the learner terminal 104 matches and registers the current learning menu with the learner's fingerprint according to the input of the fingerprint registration menu (S504).

즉, 학습자 단말기(104)는 도 6 내지 도 14에 도시된 바와 같은 과정으로 학습자의 지문을 스캔하여 등록하고, 현재 실행되는 FunFun 연산게임 에 대한 학습 페이지 화면과 매칭하여 저장부에 등록 저장하는 것이다.That is, the learner terminal 104 scans and registers the learner's fingerprint in the process shown in FIGS. 6 to 14, matches the learning page screen for the currently executed FunFun calculation game, and stores the registration in the storage unit. .

이후, 학습자는 밀크T 초등 학습 서비스의 수준별 수학 학습에서 FunFun 연산게임 메뉴에 대한 학습자의 지문 등록을 완료하고, 학습 서비스를 계속 진행하여 수준별 수학의 FunFun 연산게임 학습을 종료할 수 있다.After that, the learner can complete the learner's fingerprint registration for the FunFun calculation game menu in the math learning by level of the Milk T elementary learning service, and continue the learning service to end the FunFun calculation game learning of the math by level.

한편, 일정 시간이 경과한 후에, 학습자는 다시 밀크T 초등 학습 서비스의 수준별 수학 학습에서 FunFun 연산게임 메뉴에 대한 학습을 하고자 진행하고자 할 수 있다.On the other hand, after a certain period of time has elapsed, the learner may want to proceed again to learn about the FunFun calculation game menu in the math learning by level of the Milk T elementary learning service.

이에, 학습자는 학습자 단말기(104)를 통하여 밀크T 초등 학습 서비스에 대한 어플리케이션을 실행하게 된다.Accordingly, the learner executes the application for the milk T elementary learning service through the learner terminal 104 .

이어, 학습자 단말기(104)는 밀크T 초등 학습 서비스의 실행 시에 지문 입력 화면을 제공한다(S506).Next, the learner terminal 104 provides a fingerprint input screen when the milk T elementary learning service is executed (S506).

이어, 학습자 단말기(104)는 학습자의 지문을 입력받아, 등록된 지문과 비교한다(S508).Next, the learner terminal 104 receives the learner's fingerprint and compares it with the registered fingerprint (S508).

즉, 학습자 단말기(104)는 도 18에 도시된 바와 같이, 팝업 화면을 통해 여기에 지문을 입력해 주세요.라는 메시지를 표시하여, 현재 실행된 학습 메뉴와 매칭하기 위한 학습자 지문을 입력받는다. 도 18은 본 발명의 실시예에 따른 학습 단말기에서 현재 실행된 학습 메뉴와 매칭하기 위한 학습자 지문을 입력받는 예를 나타낸 도면이다.That is, as shown in FIG. 18 , the learner terminal 104 displays the message Please input your fingerprint here through the pop-up screen, and receives the learner's fingerprint for matching with the currently executed learning menu. 18 is a diagram illustrating an example of receiving a learner's fingerprint for matching with a currently executed learning menu in a learning terminal according to an embodiment of the present invention.

사용자의 손가락 지문(이하, '생체 지문'이라 함)이 지문 접촉면(SF1)에 접촉될 때 학습자 단말기(104)의 지문 검출부(FPDP)에서 영상처리 된 지문 영상의 일 예는 도 19에 도시된 바와 같을 수 있다. 도 19는 본 발명의 일 실시예에 따른 학습자 단말기의 지문 접촉면에 사용자의 손가락 지문이 접촉한 모습을 나타낸 것으로, 지문의 제1 영역과 지문의 제2 영역을 각각 확대하여 나타낸 도면이다.An example of a fingerprint image processed by the fingerprint detection unit FPDP of the learner terminal 104 when the user's finger fingerprint (hereinafter, referred to as 'biometric fingerprint') comes into contact with the fingerprint contact surface SF1 is shown in FIG. It can be like a bar. 19 is a diagram illustrating a state in which a user's finger fingerprint is in contact with the fingerprint contact surface of the learner terminal according to an embodiment of the present invention, and is an enlarged view of a first area of a fingerprint and a second area of the fingerprint, respectively.

지문 영상에 나타난 바와 같이, 제1 영역(A)에는 생체 지문에 형성된 융선(ridge)과 골(valley)이 관측되고, 제2 영역(B)에는 제1 영역(A)에 비하여 상대적으로 희미하지만 제1 영역(A)의 융선(ridge)과 연속성을 갖는 융선(ridge) 및 제1 영역(A)의 골(valley)과 연속성을 갖는 골(valley)이 관측되는 것을 확인할 수 있다. As shown in the fingerprint image, ridges and valleys formed in the biometric fingerprint are observed in the first region (A), and relatively faint compared to the first region (A) in the second region (B). It can be seen that a ridge having continuity with the ridge of the first region A and a valley having continuity with the valley of the first region A are observed.

여기서, 학습자의 지문을 입력받아 등록하는 과정은 전술한 도 6 내지 도 14에서 설명하였으므로 그에 대한 자세한 동작은 생략하기로 한다. Here, since the process of receiving and registering the learner's fingerprint has been described with reference to FIGS. 6 to 14, detailed operations thereof will be omitted.

이어, 학습자 단말기(104)는 입력받은 지문과 등록된 지문이 일치하는 경우에, 등록된 지문에 대응된 학습 메뉴를 실행한다(S510).Next, when the input fingerprint and the registered fingerprint match, the learner terminal 104 executes a learning menu corresponding to the registered fingerprint ( S510 ).

즉, 학습자 단말기(104)는 등록된 지문에 대응하는 밀크T 초등 학습 서비스의 수준별 수학 학습에서 FunFun 연산게임 메뉴를 바로 실행하는 것이다.That is, the learner terminal 104 directly executes the FunFun arithmetic game menu in the math learning for each level of the Milk T elementary learning service corresponding to the registered fingerprint.

여기서, 입력받은 학습자의 지문과 등록된 지문을 비교하여 일치하는지 여부를 판단하는 과정은 전술한 도 6 내지 도 14에서 설명하였으므로 그에 대한 자세한 동작은 생략하기로 한다.Here, the process of comparing the input learner's fingerprint and the registered fingerprint to determine whether they match has been described above with reference to FIGS. 6 to 14 , and thus detailed operations thereof will be omitted.

따라서, 학습자는 학습 서비스 어플리케이션을 실행하고, FunFun 연산게임 메뉴를 찾아가는 번거로운 절차를 밟지 않고 곧바로 원하는 학습 서비스를 실행할 수 있게 되는 것이다.Accordingly, the learner will be able to execute the desired learning service immediately without going through the cumbersome procedure of running the learning service application and finding the FunFun calculation game menu.

또한, 본 발명의 실시예에 따른 손가락을 이용한 학습 방법은, 프로그램이 판독 가능한 USB, CD, DVD 등 기록 매체에 프로그램으로 기록될 수 있다.In addition, the learning method using a finger according to an embodiment of the present invention may be recorded as a program in a readable recording medium such as USB, CD, or DVD.

한편, 학습자 단말기(104)는 서로 마주보는 상부 기판 및 하부 기판을 포함하는 표시 패널; 상기 상부 기판 상에 배치되어, 상기 표시 패널의 전면을 덮는 커버 윈도우; 상기 커버 윈도우 상에 형성된 터치 센서 어레이; 및 상기 커버 윈도우 상에 형성되고, 상기 터치 센서 어레이와 동일층에 형성된 지문 센서 어레이를 포함할 수 있다.Meanwhile, the learner terminal 104 includes: a display panel including an upper substrate and a lower substrate facing each other; a cover window disposed on the upper substrate and covering a front surface of the display panel; a touch sensor array formed on the cover window; and a fingerprint sensor array formed on the cover window and formed on the same layer as the touch sensor array.

상기 터치 센서 어레이는 서로 교차되는 제 1 구동 전극과 제 1 센싱 전극, 상기 제 1 구동 전극에 연결된 제 1 구동 라인, 및 상기 제 1 센싱 전극에 연결된 제 1 센싱 라인을 포함할 수 있다.The touch sensor array may include a first driving electrode and a first sensing electrode crossing each other, a first driving line connected to the first driving electrode, and a first sensing line connected to the first sensing electrode.

상기 지문 센서 어레이는 상기 제 1 구동 전극과 동일층에 형성된 제 2 구동 전극, 상기 제 1 센싱 전극과 동일층에 형성된 제 2 센싱 전극, 상기 제 2 구동 전극에 연결된 제 2 구동 라인, 및 상기 제 2 센싱 전극에 연결된 제 2 센싱 라인을 포함할 수 있다.The fingerprint sensor array includes a second driving electrode formed on the same layer as the first driving electrode, a second sensing electrode formed on the same layer as the first sensing electrode, a second driving line connected to the second driving electrode, and the second driving electrode. It may include a second sensing line connected to the second sensing electrode.

상기 터치 센서 어레이의 일측 가장자리에는 상기 터치 센서 어레이의 상기 제 1 구동 전극 각각에 연결된 상기 제 1 구동 라인이 나란하게 배치될 수 있다.The first driving lines connected to each of the first driving electrodes of the touch sensor array may be arranged on one edge of the touch sensor array in parallel.

상기 터치 센서 어레이의 타측 가장자리에는 상기 터치 센서 어레이와 오버랩되지 않는 상기 지문 센서 어레이, 상기 지문 센서 어레이의 상기 제 2 구동 전극에 연결된 제 2 구동 라인, 및 상기 지문 센서 어레이의 상기 제 2 센싱 전극에 연결된 제 2 센싱 라인이 나란하게 배치될 수 있다.At the other edge of the touch sensor array, the fingerprint sensor array that does not overlap the touch sensor array, a second drive line connected to the second drive electrode of the fingerprint sensor array, and the second sensing electrode of the fingerprint sensor array The connected second sensing lines may be arranged side by side.

상기 지문 센서 어레이는 제 1 열에 배치된 단일의 상기 제 2 구동 전극, 및 제 2 열에 배치된 상기 다수의 제 2 센싱 전극을 포함하여 구성된 지문 센서 그룹을 포함할 수 있다.The fingerprint sensor array may include a fingerprint sensor group including a single second driving electrode disposed in a first row, and the plurality of second sensing electrodes disposed in a second row.

상기 다수의 제 2 센싱 전극은 상기 제 2 센싱 라인을 통해 적어도 2개씩 서로 연결되고, 상기 지문 센서 어레이는 사용자의 터치 조작부가 배치된 상기 표시 패널의 하단부 중에서 선택된 일부 영역 또는 전체 영역에 더 배치될 수 있다.The plurality of second sensing electrodes may be connected to each other at least two by two through the second sensing line, and the fingerprint sensor array may be further disposed in a partial area or an entire area selected from the lower end of the display panel on which a user's touch manipulation unit is disposed. can

상기 지문 센서 어레이는 제 1 방향으로 배열된 상기 다수의 제 2 구동 전극 및 상기 제 1 방향에 수직된 제 2 방향으로 배열된 상기 다수의 제 2 센싱 전극을 포함할 수 있다.The fingerprint sensor array may include the plurality of second driving electrodes arranged in a first direction and the plurality of second sensing electrodes arranged in a second direction perpendicular to the first direction.

전술한 바와 같이 본 발명에 의하면, 학습자 단말기에서 실행되는 학습 어플리케이션에 학습생의 손가락 또는 부모의 손가락을 접촉하면 학습생의 수준에 맞는 학습 또는 손가락에 매칭된 컨텐츠 학습을 자동으로 실행할 수 있도록 하는, 손가락을 이용한 학습 방법 및 이를 기록한 기록매체를 제공할 수 있다.As described above, according to the present invention, when a learner's finger or a parent's finger is in contact with a learning application executed in the learner terminal, learning suitable for the learner's level or content learning matched to the finger can be automatically executed. It is possible to provide a learning method using a finger and a recording medium recording the same.

이상에서는 본 발명의 실시예를 중심으로 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 기술자의 수준에서 다양한 변경이나 변형을 가할 수 있다. 이러한 변경과 변형은 본 발명이 제공하는 기술 사상의 범위를 벗어나지 않는 한 본 발명에 속한다고 할 수 있다. 따라서 본 발명의 권리범위는 이하에 기재되는 청구범위에 의해 판단되어야 할 것이다.In the above, the embodiments of the present invention have been mainly described, but various changes or modifications can be made at the level of those skilled in the art to which the present invention pertains. Such changes and modifications can be said to belong to the present invention without departing from the scope of the technical spirit provided by the present invention. Accordingly, the scope of the present invention should be judged by the claims described below.

100 : 손가락을 이용한 학습 시스템 102 : 웹 서버
104 : 학습자 단말기 110 : 제1 서버
112 : 터치 입출력부 114 : 학습 실행부
120 : 제2 서버 210 : 변환부
220 : 임베딩 처리부 230 : 학습 유도부
502 : 터치 입출력부 504 : 저장부
506 : 매칭부 508 : 학습 실행부
510 : 제어부 PN: 표시 패널
DCP: 구동 회로 FPDP: 지문 검출부
SUB: 기판 PXL: 화소
FPXL: 지문 화소 FPS: 지문 센서
LSL: 광 감지 어레이부 LBL: 선택적 광 투과부
PSR: 지문 센서 PIH: 핀홀
SF1: 제1 면(지문 접촉면) IRP: 영상 수신부
IEP: 영상 추출부 DBP: 저장부
IPP: 영상 처리부 SDP: 유사도 판단부
FPAP: 지문 인증 수행부
100: learning system using fingers 102: web server
104: learner terminal 110: first server
112: touch input/output unit 114: learning execution unit
120: second server 210: conversion unit
220: embedding processing unit 230: learning induction unit
502: touch input/output unit 504: storage unit
506: matching unit 508: learning execution unit
510: control unit PN: display panel
DCP: drive circuit FPDP: fingerprint detection unit
SUB: Substrate PXL: Pixel
FPXL: Fingerprint Pixels FPS: Fingerprint Sensor
LSL: light sensing array unit LBL: selective light transmission unit
PSR: Fingerprint sensor PIH: Pinhole
SF1: first surface (fingerprint contact surface) IRP: image receiving unit
IEP: image extraction unit DBP: storage unit
IPP: Image processing unit SDP: Similarity determining unit
FPAP: Fingerprint authentication unit

Claims (5)

(a) 학습자 단말기 통해 학습 서비스를 제공하는 단계;
(b) 상기 학습자 단말기에서 현재 학습 메뉴와 학습자의 지문을 매칭하여 등록하는 단계;
(c) 상기 학습자 단말기에서 학습 서비스의 실행 시에 지문 입력 화면을 제공하는 단계;
(d) 상기 학습자 단말기에서 학습자의 지문을 입력받아, 등록된 지문과 비교하는 단계; 및
(e) 상기 학습자 단말기에서 입력받은 지문과 등록된 지문이 일치하는 경우에, 등록된 지문에 대응된 학습 메뉴를 실행하는 단계를 포함하고,
상기 학습 메뉴를 실행하는 단계는, 학습 실행부에서 챗봇을 통해 실시간으로 학생의 궁금증을 해소해 주면서, 추가적으로 연관 키워드를 추천해 주고,
상기 학습 실행부는 학습 진도에 대해 체크해 주고, 필요한 학습이 있는지 대화가 생성될 때 알려주는 학습 유도부를 포함하고,
상기 학습 유도부는 기후 변화가 있을 때 날씨에 연관되게 안부를 묻고, 학습자와 감정 소통을 유도하고, 상기 챗봇 내의 단순 게임을 통해 연관 학습을 추천하며, 학생이 물어온 질문에 대한 답과 동일한 벡터값을 가지는 키워드나 연관 학습을 추천하여 학습을 유도하는 손가락을 이용한 학습 방법.
(a) providing a learning service through a learner terminal;
(b) matching and registering the current learning menu and the learner's fingerprint in the learner terminal;
(c) providing a fingerprint input screen when the learning service is executed in the learner terminal;
(d) receiving the learner's fingerprint from the learner terminal and comparing it with a registered fingerprint; and
(e) when the fingerprint input from the learner terminal matches the registered fingerprint, executing a learning menu corresponding to the registered fingerprint;
In the step of executing the learning menu, the learning execution unit recommends additional related keywords while solving the student's curiosity in real time through the chatbot,
The learning execution unit includes a learning induction unit that checks the learning progress and informs when a conversation is created whether there is necessary learning,
When there is climate change, the learning induction unit asks about the weather in relation to the weather, induces emotional communication with the learner, recommends associative learning through a simple game in the chatbot, and the same vector value as the answer to the question asked by the student A learning method using a finger that induces learning by recommending keywords or associative learning with
제 1 항에 있어서,
상기 (b) 단계에서 상기 학습자 단말기는, 터치 입출력부를 통해 획득된 지문 이미지와 상기 학습 메뉴에 따른 학습 컨텐츠를 매칭시켜 저장부에 저장하여 등록하는, 손가락을 이용한 학습 방법.
The method of claim 1,
In the step (b), the learner terminal matches the fingerprint image acquired through the touch input/output unit with the learning content according to the learning menu, stores it in the storage unit, and registers it.
제 2 항에 있어서,
상기 터치 입출력부는, 지문 센서 및 지문 검출부를 포함하고,
상기 지문 센서는 광을 방출하는 발광 소자들, 상기 발광 소자들에서 방출되어 지문 접촉면에 접촉한 지문에 의해 반사된 광을 센싱하여 상기 지문에 대응하는 영상을 생성하는 적어도 하나의 광 센서를 포함한 광 감지 어레이부 및 상기 광 센서로 입사되는 광의 진행 경로를 형성하는 복수의 핀홀들을 포함한 선택적 광 투과부를 포함하며,
상기 지문 검출부는 상기 지문 센서로부터 상기 영상을 입력받아 상기 지문의 제1 영역에 대응하는 제1 영상과 상기 지문의 제2 영역에 대응하는 제2 영상을 추출하여 상기 제1 및 제2 영상들을 비교하여 유사도를 판단하며, 그 결과에 따라 지문 인증을 수행하고,
상기 지문의 제1 영역은 상기 지문 접촉면에 접촉한 상기 지문의 일 영역이고, 상기 지문의 제2 영역은 상기 지문의 일 영역의 외곽에 위치하며 상기 지문 접촉면에 접촉되지 않는 상기 지문의 다른 영역인,
손가락을 이용한 학습 방법.
3. The method of claim 2,
The touch input/output unit includes a fingerprint sensor and a fingerprint detection unit,
The fingerprint sensor includes light-emitting elements emitting light, and at least one light sensor that generates an image corresponding to the fingerprint by sensing light emitted from the light-emitting elements and reflected by the fingerprint in contact with the fingerprint contact surface. It includes a sensing array unit and a selective light transmission unit including a plurality of pinholes forming a path of light incident to the optical sensor,
The fingerprint detector receives the image from the fingerprint sensor, extracts a first image corresponding to the first region of the fingerprint and a second image corresponding to the second region of the fingerprint, and compares the first and second images to determine the degree of similarity, and perform fingerprint authentication according to the result;
The first area of the fingerprint is one area of the fingerprint in contact with the fingerprint contact surface, and the second area of the fingerprint is located outside the one area of the fingerprint and is another area of the fingerprint that is not in contact with the fingerprint contact surface. ,
How to learn using your fingers.
제 3 항에 있어서,
상기 지문 검출부는 상기 지문 센서로부터 상기 영상을 입력받아 영상 추출부를 통해 상기 제1 영상과 상기 제2 영상을 추출하고, 영상 처리부를 통해 상기 제1 및 제2 영상들에 대해 이미지 전처리(Preprocessing)를 수행하고, 유사도 판단부를 통해 상기 영상 처리부에서 전처리가 이루어진 제1 영상과 제2 영상을 비교하여 유사도 여부를 판단하며, 인증 수행부를 통해 상기 유사도 판단부의 결과에 따라 지문 인증 여부를 수행하고,
상기 유사도 판단부는, 상기 제1 영상의 휘도와 상기 제2 영상의 휘도를 비교하고, 상기 제1 및 제2 영상들이 유사한 패턴을 서로 갖는지를 확인하여 상기 지문 접촉면에 접촉한 상기 지문의 생체 지문 여부를 판단하는,
손가락을 이용한 학습 방법.
4. The method of claim 3,
The fingerprint detection unit receives the image from the fingerprint sensor, extracts the first image and the second image through an image extraction unit, and performs image preprocessing on the first and second images through an image processing unit and comparing the first image and the second image pre-processed by the image processing unit through the similarity determining unit to determine the similarity, and performing fingerprint authentication according to the result of the similarity determining unit through the authentication performing unit,
The similarity determining unit compares the luminance of the first image with the luminance of the second image, checks whether the first and second images have a similar pattern to each other, and determines whether the fingerprint in contact with the fingerprint contact surface is a biometric fingerprint. to judge,
How to learn using your fingers.
(a) 학습자 단말기 통해 학습 서비스를 제공하는 단계;
(b) 상기 학습자 단말기에서 현재 학습 메뉴와 학습자의 지문을 매칭하여 등록하는 단계;
(c) 상기 학습자 단말기에서 학습 서비스의 실행 시에 지문 입력 화면을 제공하는 단계;
(d) 상기 학습자 단말기에서 학습자의 지문을 입력받아, 등록된 지문과 비교하는 단계; 및
(e) 상기 학습자 단말기에서 입력받은 지문과 등록된 지문이 일치하는 경우에, 등록된 지문에 대응된 학습 메뉴를 실행하는 단계를 포함하고,
상기 학습 메뉴를 실행하는 단계는, 학습 실행부에서 챗봇을 통해 실시간으로 학생의 궁금증을 해소해 주면서, 추가적으로 연관 키워드를 추천해 주고, 상기 학습 실행부는 학습 진도에 대해 체크해 주고, 필요한 학습이 있는지 대화가 생성될 때 알려주는 학습 유도부를 포함하고, 상기 학습 유도부는 기후 변화가 있을 때 날씨에 연관되게 안부를 묻고, 학습자와 감정 소통을 유도하고, 상기 챗봇 내의 단순 게임을 통해 연관 학습을 추천하며, 학생이 물어온 질문에 대한 답과 동일한 벡터값을 가지는 키워드나 연관 학습을 추천하여 학습을 유도하는 손가락을 이용한 학습 방법을 프로그램으로 기록한 컴퓨터로 판독이 가능한 기록매체.
(a) providing a learning service through a learner terminal;
(b) matching and registering the current learning menu and the learner's fingerprint in the learner terminal;
(c) providing a fingerprint input screen when the learning service is executed in the learner terminal;
(d) receiving the learner's fingerprint from the learner terminal and comparing it with a registered fingerprint; and
(e) when the fingerprint input from the learner terminal matches the registered fingerprint, executing a learning menu corresponding to the registered fingerprint;
In the step of executing the learning menu, the learning execution unit resolves the student's curiosity in real time through the chatbot, and additionally recommends related keywords, the learning execution unit checks the learning progress, and talks whether there is necessary learning includes a learning inducing unit that notifies when is created, wherein the learning inducing unit asks for greetings related to the weather when there is a climate change, induces emotional communication with learners, and recommends associative learning through a simple game in the chatbot, A computer-readable recording medium that records a learning method using a finger to guide learning by recommending keywords or related learning having the same vector value as the answer to a question asked by a student as a program.
KR1020210131195A 2021-10-01 2021-10-01 Learning method using fingers and recording medium recording the same KR102455248B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210131195A KR102455248B1 (en) 2021-10-01 2021-10-01 Learning method using fingers and recording medium recording the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210131195A KR102455248B1 (en) 2021-10-01 2021-10-01 Learning method using fingers and recording medium recording the same

Publications (1)

Publication Number Publication Date
KR102455248B1 true KR102455248B1 (en) 2022-10-17

Family

ID=83810095

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210131195A KR102455248B1 (en) 2021-10-01 2021-10-01 Learning method using fingers and recording medium recording the same

Country Status (1)

Country Link
KR (1) KR102455248B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130082979A (en) * 2011-12-26 2013-07-22 유비벨록스(주) User personalized recommendation system based on fingerprint identification
KR20200137755A (en) 2019-05-31 2020-12-09 주식회사 에듀앤플레이 Learning content system involving infants
KR20210024310A (en) * 2019-08-21 2021-03-05 삼성디스플레이 주식회사 Display device including fingerprint sensor and fingerprint verification method thereof
KR102285665B1 (en) * 2020-11-23 2021-08-04 주식회사 제로원파트너스 A method, system and apparatus for providing education curriculum

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130082979A (en) * 2011-12-26 2013-07-22 유비벨록스(주) User personalized recommendation system based on fingerprint identification
KR20200137755A (en) 2019-05-31 2020-12-09 주식회사 에듀앤플레이 Learning content system involving infants
KR20210024310A (en) * 2019-08-21 2021-03-05 삼성디스플레이 주식회사 Display device including fingerprint sensor and fingerprint verification method thereof
KR102285665B1 (en) * 2020-11-23 2021-08-04 주식회사 제로원파트너스 A method, system and apparatus for providing education curriculum

Similar Documents

Publication Publication Date Title
US20200279527A1 (en) Oled array substrate, oled display panel, pixel circuit, driving method and method for fingerprint recognition using oled display panel
Oviatt et al. The paradigm shift to multimodality in contemporary computer interfaces
Fusco et al. The tactile graphics helper: providing audio clarification for tactile graphics using machine vision
CN108885693A (en) Biometric sensors with diverging optical element
US11568036B2 (en) Display device including fingerprint sensor and fingerprint authentication method thereof
US20110199338A1 (en) Touch screen apparatus and method for inputting user information on a screen through context awareness
CN106255944A (en) Aerial and surface multiple point touching detection in mobile platform
CN113902964A (en) Multi-mode attention video question-answering method and system based on keyword perception
Tolba et al. Recent developments in sign language recognition systems
CN111343507A (en) Online teaching method and device, storage medium and electronic equipment
Zahid et al. Recognition of Urdu sign language: a systematic review of the machine learning classification
KR102455248B1 (en) Learning method using fingers and recording medium recording the same
KR102455247B1 (en) Childhood learning system using fingers
CN110363111A (en) Human face in-vivo detection method, device and storage medium based on lens distortions principle
Chakraborty et al. Flight: a low-cost reading and writing system for economically less-privileged visually-impaired people exploiting ink-based braille system
CN113505786A (en) Test question photographing and judging method and device and electronic equipment
CN109154865A (en) Sequence both hands in mobile device, which touch, to be keyed in
Shilkrot et al. FingerReader: A finger-worn assistive augmentation
KR102468551B1 (en) Active artificial intelligence tutoring system that support assessment and method for controlling the same
US20220222448A1 (en) Method, apparatus, and system for providing interpretation result using visual information
KR102510998B1 (en) Learning induction type chatbot system
Zhao et al. TADA: Making Node-link Diagrams Accessible to Blind and Low-Vision People
Patel et al. Hand-gesture recognition for automated speech generation
Özgür Cellulo: Tangible haptic swarm robots for learning
KR102498540B1 (en) Learning system using contents structure

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant