KR20210131513A - 지문 센서를 구비한 표시장치 및 그의 구동 방법 - Google Patents

지문 센서를 구비한 표시장치 및 그의 구동 방법 Download PDF

Info

Publication number
KR20210131513A
KR20210131513A KR1020200049505A KR20200049505A KR20210131513A KR 20210131513 A KR20210131513 A KR 20210131513A KR 1020200049505 A KR1020200049505 A KR 1020200049505A KR 20200049505 A KR20200049505 A KR 20200049505A KR 20210131513 A KR20210131513 A KR 20210131513A
Authority
KR
South Korea
Prior art keywords
area
fingerprint
display device
sensing
user
Prior art date
Application number
KR1020200049505A
Other languages
English (en)
Inventor
이순규
김진우
김정학
조재형
Original Assignee
삼성디스플레이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성디스플레이 주식회사 filed Critical 삼성디스플레이 주식회사
Priority to KR1020200049505A priority Critical patent/KR20210131513A/ko
Priority to US17/153,069 priority patent/US20210334495A1/en
Priority to CN202110439384.7A priority patent/CN113553561A/zh
Publication of KR20210131513A publication Critical patent/KR20210131513A/ko

Links

Images

Classifications

    • G06K9/00067
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06K9/00087
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1306Sensors therefor non-optical, e.g. ultrasonic or capacitive sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • G06V40/1376Matching features related to ridge properties or fingerprint texture

Abstract

지문 센서를 구비한 표시장치 및 그의 구동 방법이 제공된다. 상기 표시장치는, 사용자의 지문을 인증하는 프로세스를 구비한 표시장치에 있어서, 화상을 표시하는 표시 영역을 정의하는 표시패널, 및 상기 표시패널의 일면 상에 배치되고, 사용자의 지문을 인식하는 센싱 영역을 정의하는 지문 센서를 포함하되, 상기 프로세스는 상기 센싱 영역 중 일부 영역에 대해 데이터를 리드-아웃하는 단계를 포함한다.

Description

지문 센서를 구비한 표시장치 및 그의 구동 방법{DISPLAY DEVICE INCLUDING FINGERPRINT SENSOR AND DRIVING METHOD THEREOF}
본 발명은 지문 센서를 구비한 표시장치 및 그의 구동 방법에 관한 것이다.
최근 전자장치에서 활용 가능한 기능들이 다양해짐에 따라, 전자장치 상에 저장된 정보에 대한 보안이 중요시되고, 이러한 보안상 필요에 의해 사용자의 생체 정보에 기초한 인증 기술들이 개발되고 있다.
생체 정보에 기초한 인증 기술들은 예를 들어, 사용자로부터 지문, 홍채, 목소리, 얼굴, 혈관 등의 생체 정보를 취득하고, 미리 등록된 사용자의 생체 정보와의 비교 과정을 거쳐 인증된 사용자인지 여부를 판단하는 과정을 포함할 수 있다. 상기 예시한 생체 정보 중 지문 인식 기술은 편리성, 보안성, 경제성 등 여러 가지 이유로 현재 가장 많이 상용화되어 있다. 지문 인식 기술은 사용자 기기에 대한 보안을 강화하고, 모바일 결제 등 각종 응용 서비스를 용이하게 제공할 수 있다.
전자장치로서, 사용자의 지문을 감지하는 지문 센서가 장착된 스마트폰 및 웨어러블(wearable) 기기와 같은 표시장치가 널리 사용되고 있다.
본 발명이 해결하려는 과제는, 지문 인증 시간이 최소화된 표시장치를 제공하고자 하는 것이다.
본 발명이 해결하려는 다른 과제는, 지문 인증을 빠르게 수행하면서도, 보안이 강화된 표시장치를 제공하고자 하는 것이다.
본 발명의 과제들은 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 표시장치는, 사용자의 지문을 인증하는 프로세스를 구비한 표시장치에 있어서, 화상을 표시하는 표시 영역을 정의하는 표시패널, 및 상기 표시패널의 일면 상에 배치되고, 사용자의 지문을 인식하는 센싱 영역을 정의하는 지문 센서를 포함하되, 상기 프로세스는 상기 센싱 영역 중 일부 영역에 대해 데이터를 리드-아웃하는 단계를 포함한다.
상기 센싱 영역이 정의된 위치는 상기 표시 영역이 정의된 위치에 포함될 수 있다.
상기 센싱 영역의 면적은 상기 표시 영역의 면적의 80% 이상일 수 있다.
상기 일부 영역은 상기 사용자의 손가락이 터치된 터치 포인트를 중심으로 설정될 수 있다.
상기 표시장치는, 상기 사용자의 터치를 인식하는 터치 센서를 더 포함할 수 있다.
상기 터치 센서는 상기 표시패널의 타면 상에 배치될 수 있다.
상기 일부 영역은 상기 지문의 특장점을 중심으로 설정될 수 있다.
상기 특장점은 코어(core), 델타(delta), 융선의 끝점(ridge ending), 크로스오버(crossover), 분기점(bifurcation), 및 구멍(pore) 중 적어도 하나를 포함할 수 있다.
상기 프로세스는 상기 특장점의 좌표를 획득하는 단계를 더 포함할 수 있다.
상기 특장점의 좌표는 AI기술을 이용하여 획득될 수 있다.
상기 일부 영역에 대해 데이터를 리드-아웃하는 단계는 상기 사용자의 손가락이 터치된 터치 포인트를 중심으로 설정된 제1 영역에 대해 데이터를 리드-아웃하는 단계에 해당하고, 상기 프로세스는 상기 지문의 특장점을 중심으로 설정된 제2 영역에 대해 데이터를 취득하는 단계를 더 포함할 수 있다.
상기 제2 영역은 상기 제1 영역과 면적이 상이할 수 있다.
상기 표시장치는, 상기 리드-아웃된 데이터가 저장되는 제1 메모리, 및 상기 프로세스가 수행되기 전 미리 사용자의 지문 정보 데이터가 저장된 제2 메모리를 더 포함하되, 상기 제1 메모리는 상기 제2 메모리와 별도로 구비될 수 있다.
상기 표시장치는, 상기 제1 메모리에 저장된 정보와 상기 제2 메모리에 저장된 정보를 매칭하는 프로세서를 더 포함할 수 있다.
또한, 상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 표시장치 구동방법은, 사용자의 지문을 인증하는 프로세스가 포함되는 표시장치의 구동방법에 있어서, 구비된 지문 센서가 센싱 영역을 센싱하는 '센싱 영역 지문 센싱 단계', 상기 지문 센서가 상기 센싱 영역의 일부인 제1 영역에 대응하는 센싱 신호를 바탕으로 생성된 데이터를 리드-아웃 회로부로 리드-아웃하는 '제1 영역 데이터 리드-아웃 단계', 상기 데이터를 이미지 처리하는 '이미지 프로세싱 단계', 및 상기 '이미지 프로세싱 단계'에서 처리된 이미지를 기 저장된 등록 지문 이미지와 비교하는 '매칭 단계'를 포함한다.
상기 제1 영역은 사용자의 손가락이 터치된 터치 포인트를 중심으로 설정된 영역일 수 있다.
상기 표시장치 구동방법은, 상기 제1 영역에 특장점이 포함되어 있는지 판단하거나, 또는 상기 특장점이 기준 개수 이상으로 포함되어 있는지 판단하는 '특장점을 포함하는지 확인하는 단계'를 더 포함할 수 있다.
상기 표시장치 구동방법은, 상기 특장점을 중심으로 설정된 제2 영역에 대응하는 센싱 신호를 바탕으로 생성된 데이터를 취득하고 메모리로 전송하는 '제2 영역 취득/전송 단계'를 더 포함할 수 있다.
상기 제2 영역은 상기 제1 영역에 포함될 수 있다.
상기 표시장치 구동방법은, 상기 사용자의 지문의 특장점의 좌표를 획득하는 '특장점 좌표 획득 단계', 및 상기 '이미지 프로세싱 단계'에서 처리된 이미지를 상기 특장점의 좌표를 중심으로 자르는 '이미지 자르기 단계'를 더 포함할 수 있다.
기타 실시예의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 실시예들에 의하면, 표시장치는 지문 인증을 빠르게 수행할 뿐만 아니라, 표시장치의 보안이 강화될 수 있다.
실시예들에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.
도 1은 본 발명의 일 실시예에 따른 표시장치를 개략적으로 나타낸 평면도이다.
도 2는 도 1의 Ⅰ-Ⅰ’선을 따라 자른 표시장치의 개략적인 단면도이다.
도 3은 본 발명의 일 실시예에 따른 지문을 인증하는 프로세스를 설명하기 위한 블록도이다.
도 4는 본 발명의 다른 실시예에 따른 표시장치를 개략적으로 나타낸 평면도이다.
도 5는 도 4의 Ⅱ-Ⅱ'선을 따라 자른 표시장치의 개략적인 단면도이다.
도 6은 본 발명의 일 실시예에 따른 표시장치의 구동방법을 도시한 순서도이다.
도 7은 도 6에서 표시장치가 제1 기능 단계를 수행하는 상태를 예를 들어 도시한 도면이다.
도 8은 도 6에서 표시장치가 지문 요청 단계를 수행하는 상태를 예를 들어 도시한 도면이다.
도 9는 도 6에서 사용자 터치 단계를 설명하기 위해, 표시장치에 사용자의 손가락 터치가 있는 상태를 예를 들어 도시한 도면이다.
도 10은 도 6에서 제1 영역 데이터 리드-아웃 단계를 설명하기 위해 표시장치를 도시한 도면이다.
도 11은 본 발명의 다른 실시예에 따른 표시장치의 구동방법을 도시한 순서도이다.
도 12는 도 11에서 '제2 영역 데이터 리드-아웃 단계(S151)'를 설명하기 위해 표시장치를 도시한 도면이다.
도 13은 사용자의 지문 내 특장점을 설명하기 위한 도면이다.
도 14는 도 11에서 제3 영역 데이터 취득/전송 단계를 설명하기 위해 표시장치를 도시한 도면이다.
도 15는 본 발명의 또 다른 실시예에 따른 표시장치의 구동방법을 도시한 순서도이다.
도 16은 도 15에서 제3 영역 데이터 리드-아웃 단계를 설명하기 위해 표시장치를 도시한 도면이다.
도 17은 본 발명의 또 다른 실시예에 따른 표시장치의 구동방법을 도시한 순서도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
소자(elements) 또는 층이 다른 소자 또는 층의 "상(on)"으로 지칭되는 것은 다른 소자 바로 위에 또는 중간에 다른 층 또는 다른 소자를 개재한 경우를 모두 포함한다.
비록 제1, 제2 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다. 도면상의 동일한 구성 요소에 대해서는 동일하거나 유사한 참조 부호를 사용한다.
도 1은 본 발명의 일 실시예에 따른 표시장치를 개략적으로 나타낸 평면도이다.
도 1을 참조하면, 표시장치(1)는 화상이 표시되는 표시면(IS)을 포함한다. 표시면(IS)은 화상이 표시되는 표시 영역(DA) 및 표시 영역(DA)에 인접한 비표시 영역(NDA)을 포함할 수 있다.
표시 영역(DA)은 화소들에 의해 정의되며, 각각 정해진 색의 빛을 발광하는 영역인 복수개의 발광 영역들(미도시)을 포함할 수 있다. 또한, 표시 영역(DA)은 외부 환경(예, 터치, 지문)을 검출하기 위한 검출 부재로도 사용될 수 있다.
표시장치(1)에는 사용자의 지문을 인식하는 센싱 영역(FSA)이 정의될 수 있다. 표시장치(1)는 센싱 영역(FSA) 상에 사용자의 손가락 내 지문 면이 터치되면, 이를 이미지화 한 지문을 인식할 수 있다.
일 실시예로, 센싱 영역(FSA)은 평면 위치상 표시 영역(DA)의 적어도 일부 영역과 중첩할 수 있다. 예를 들어, 센싱 영역(FSA)이 정의된 위치는 표시 영역(DA)이 정의된 위치에 포함될 수 있다. 즉, 표시 영역(DA)이 정의된 위치의 일부 또는 전부가 센싱 영역(FSA)이 정의된 위치와 중첩할 수 있다.
일 실시예로, 센싱 영역(FSA)의 면적은 표시 영역(DA)의 면적 대비 80% 이상 차지할 수 있다. 다른 실시예로, 센싱 영역(FSA)의 면적은 표시 영역(DA)의 면적 이하이되, 15*15 mm2 (가로*세로) 이상일 수 있다.
비표시 영역(NDA)은 화상이 표시되지 않는 영역이다. 표시 영역(DA)은 사각 형상일 수 있다. 비표시 영역(NDA)은 평면상 표시 영역(DA)을 둘러싸도록 배치될 수 있다. 또한, 도시하진 않았지만, 비표시 영역(NDA)에는 스피커 모듈, 카메라 모듈 및 센서 모듈 등이 배치될 수 있지만, 이들이 배치되지 않을 수도 있다. 여기서, 센서 모듈은 조도 센서, 근접 센서, 적외선 센서, 초음파 센서, 시야 센서 중 적어도 하나를 포함할 수 있다.
다만, 실시예가 이에 한정되는 것은 아니며, 표시 영역(DA)의 형상과 비표시 영역(NDA)의 형상은 상대적으로 디자인될 수 있다.
도 2는 도 1의 Ⅰ-Ⅰ’선을 따라 자른 표시장치의 개략적인 단면도이다. 도 3은 본 발명의 일 실시예에 따른 지문을 인증하는 프로세스를 설명하기 위한 블록도이다.
이하에서, 제1 부재가 제2 부재의 '전면 상에 배치'되는 것은 제1 부재가 제2 부재의 일면 상에 배치(적층)되는 것을 의미하고, 제1 부재가 제2 부재의 '배면 상에 배치'되는 것은 제1 부재가 제2 부재의 상기 일면의 반대면인 타면 상에 배치되는 것을 의미한다. 즉, 제2 부재가 '전면 상에 배치'되는 것과 '배면 상에 배치'되는 것은 제1 부재를 기준으로 상대적인 방향으로 배치되는 것으로 이해될 수 있다.
도 2를 참조하면, 표시장치(1)는 표시패널(DP), 터치 센서(TS), 지문 센서(FS), 윈도우 부재(WD) 및 하우징 부재(HU)를 포함한다.
도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다. 도면에서 여러 층 및 영역을 명확하게 표현하기 위하여 두께를 과장되게 나타낼 수 있다.
본 도면에서 도시하지 않았지만, 표시장치(1)는 복수의 메모리들(210, 220) 및 프로세서(300)를 더 포함할 수 있다(도 3 참조). 일 실시예로, 복수의 메모리들(210, 220) 및 프로세서(300)는 표시패널(DP) 또는 지문 센서(FS)에 칩의 형태로 실장될 수 있다.
표시패널(DP)은 유기발광 표시패널, 액정 표시패널, 전계 방출 표시패널, 전기영동 표시패널, 양자점(Quantum dot) 발광 표시패널 또는 마이크로(또는, 나노) LED 표시패널과 같은 여러 표시패널이 적용될 수 있다.
표시패널(DP)은 복수의 트랜지스터들 및 발광 소자를 포함할 수 있다. 적어도 하나의 트랜지스터와 적어도 하나의 발광 소자는 일 화소를 정의할 수 있다.
표시패널(DP)은 앞서 설명한 표시 영역(DA)을 정의할 수 있다.
일 실시예로, 표시패널(DP)의 전면 상에 터치 센서(TS)가 배치될 수 있다. 터치 센서(TS)는 복수의 감지 전극들을 포함할 수 있다. 상기 감지 전극들은 사용자의 신체에 의한 터치(touch), 호버링(hovering), 제스쳐(gesture), 근접 여부 등을 감지할 수 있다. 상기 감지 전극들은 저항막 방식(resistive type), 정전 용량 방식(capacitive type), 전자기 유도 방식(electro-magnetic type), 광 감지 방식(optical type) 등 다양한 방식에 따라 다른 형상으로 구성될 수 있다. 예를 들어, 상기 감지 전극들이 정전 용량 방식으로 구성되는 경우, 감지 전극들은 자기 정전 용량 방식(self-capacitive type), 상호 정전 용량 방식(mutual-capacitive type) 등으로 구성될 수 있다.
몇몇 실시예에서, 감지 전극들이 자기 정전 용량 방식으로 구성되는 경우, 각각의 감지 전극들은 독립적으로 구동되며, 각각의 감지 전극들과 사용자의 신체가 형성하는 정전 용량에 대응하는 감지 신호가 대응하는 연결 배선들로 제공될 수 있다.
몇몇 다른 실시예에서, 감지 전극들이 상호 정전 용량 방식으로 구성되는 경우, 일부 감지 전극에 대응하는 연결 배선을 통해서 터치 구동 신호가 수신되고, 상기 일부 감지 전극과 상호 정전 용량을 형성하는 제2 다른 감지 전극에 대응하는 연결 배선을 통해서 터치 센싱 신호가 송신될 수 있다. 사용자의 신체가 근접하는 경우, 상기 일부 감지 전극과 상기 다른 감지 전극 간의 상호 정전 용량이 변화할 수 있고, 이에 따른 감지 신호의 차이에 따라, 사용자의 터치 여부를 검출할 수 있다.
일 실시예로, 표시패널(DP)의 배면 상에 지문 센서(FS)가 배치될 수 있다. 다만, 본 발명이 지문 센서(FS)의 위치에 제한되는 것은 아니다. 다른 실시예에서, 지문 센서(FS)는 표시패널(DP)의 일면 상에 배치될 수도 있다.
지문 센서(FS)는 앞서 설명한 센싱 영역(FSA)을 정의할 수 있다.
도 3을 함께 참조하면, 예시적인 실시예로, 지문 센서(FS)는 발광 소자에서 발광 되어 지문의 융선과 융선 사이의 골에 의해 반사된 빛을 지문 센서(FS) 내 구비된 이미지 센서(110)를 통해 센싱할 수 있다. 이때, 이미지 센서(110)는 광학적 센싱 방식의 센서(optical fingerprint sensor)일 수 있다. 또한, 이미지 센서(110)는 이에 제한되지 않고, 초음파 방식 센서, 적외선 방식 센서, 또는 정전용량식 센서(capacitive fingerprint image sensor)일 수도 있다.
지문 센서(FS)는 반도체 칩 또는 반도체 패키지로 구현되어 표시패널(DP)의 배면 상에 부착될 수 있다. 일 예로, 상기 이미지 센서(110)는 다수의 광전 변환 소자(예컨대, 포토 다이오드, 포토트랜지스터, 포토 게이트 및 핀드 포토 다이오드 등)들이 형성된 반도체 층(Layer) 또는 반도체 칩으로 구현될 수 있다. 다른 예로, 상기 이미지 센서(110)는 CIS(CMOS Image Sensor) 또는 CCD(Charge Coupled Device)와 같은 반도체 레이어일 수 있다.
지문 센서(FS)는 다수의 센싱 화소들을 포함하고, 각각의 센싱 화소는 지문의 서로 다른 영역에 의해 반사된 빛을 센싱하며, 센싱된 빛에 대응하는 전기 신호를 발생한다. 각각의 센싱 화소는 지문의 융선(ridge)에 반사된 빛에 대응하는 전기 신호를 발생하거나, 융선 사이의 골(valley)에 반사된 빛에 대응하는 전기 신호를 발생할 수 있다. 빛이 반사된 지문의 형태에 따라 이미지 센서(110)에서 센싱된 빛의 양은 달라질 수 있으며, 센싱된 빛의 양에 따라 서로 다른 레벨을 갖는 전기 신호(센싱 신호)가 생성될 수 있다. 즉, 다수의 센싱 화소들로부터의 전기 신호는 각각 명암 정보(또는, 이미지 정보)를 포함할 수 있으며, 상기 전기 신호에 대한 처리 동작을 통해 각 센싱 화소에 대응하는 영역이 융선인지 또는 골인지가 판단될 수 있으며, 판단된 정보를 조합함으로써 전체적인 지문 이미지가 구성될 수 있다.
광학적 센싱 방식에 의한 지문 정보 획득은, 표시패널(DP)의 복수개의 화소로부터 방출된 광이 지문에 반사되면서 획득될 수 있다. 표시패널(DP)의 구동 방식에 따라 지문 센서(FS)에 획득되는 광 정보의 정확도, 빠르기가 달라질 수 있다.
지문 센서(FS)는 이미지 센서(110)와 리드-아웃 라인들(RL1, RL2, RLn)로 연결된 리드-아웃 회로부(120)를 구비할 수 있다. 상기 리드-아웃 회로부(120)는 리드-아웃 라인들(RL1, RL2, RLn)을 통해, 센싱 신호를 스캔할 수 있다. 여기서, n은 자연수이다.
리드-아웃 회로부(120)는 센싱 신호를 바탕으로 센싱 데이터를 생성하여, 지문 센서(FS) 외부에 배치된 제1 메모리(210) 또는 제2 메모리(220)에 전송할 수 있다. 센싱 데이터는 이미지 프로세싱을 통해 지문 데이터로 변환될 수 있다.
제1 메모리(210) 및 제2 메모리(220)는 각각 하나 이상의 지문 데이터를 저장할 수 있다. 예를 들어, 제1 메모리(210)에는 미리 사용자의 지문 정보가 저장되고, 제2 메모리(220)에는 지문을 인증하는 프로세스가 수행될 때 지문 센서(FS)로부터 획득된 지문 데이터가 저장될 수 있다.
제1 메모리(210) 및 제2 메모리(220)는 각각 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래쉬 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(HDD, Hard Disk Drive)와 같은 저장 매체 중 적어도 하나로 구현될 수 있으나 이에 한정되지는 않는다.
프로세서(300)는 제1 메모리(210)와 제2 메모리(220)에 저장된 지문 정보를 매칭하는 기능을 포함할 수 있다. 프로세서(300)는 CPU(central processing unit), GPU(graphics processing unit), 애플리케이션 프로세서(Application Processor; AP), DDI(Display Digital Interface), 디스플레이 드라이버 IC 등의 형태로 구현될 수 있으나 이에 한정되지는 않는다.
프로세서(300)와 전술한 메모리들(210, 220)은 별개의 칩으로 구현될 수도 있고, 각각 단일 칩으로 구현될 수도 있다. 또한, 본 발명이 메모리의 개수에 제한되는 것은 아니며, 다른 실시예에서, 제1 메모리(210) 및 제2 메모리(220)의 기능을 모두 수행하는 하나의 메모리로 구현될 수도 있다.
하우징 부재(HU)는 표시장치(1)의 배면 및 테두리면을 구성하고, 윈도우 부재(WD)는 표시장치(1)의 전면을 구성할 수 있다. 하우징 부재(HU)와 윈도우 부재(WD)는 함께 표시패널(DP), 터치 센서(TS) 및 지문 센서(FS)를 커버할 수 있다. 하우징 부재(HU)와 윈도우 부재(WD)는 외부의 물리적 충격(예, 스크래치) 등으로부터 표시장치(1)의 여러 부품들을 보호할 수 있다. 윈도우 부재(WD)는 실제 지문 센싱을 위해 사용자의 손가락 등 입력수단이 접하는 곳일 수 있다.
표시 영역(DA)은 표시패널(DP)의 적어도 일부 영역과 중첩할 수 있다. 본 명세서에서 “중첩된다”라고 표현하면, 다른 정의가 없는 한 두 구성이 표시장치(1)의 두께 방향으로 중첩(overlap)되는 것을 의미한다.
센싱 영역(FSA)은 지문 센서(FS)의 적어도 일부 영역과 중첩할 수 있다. 앞서 설명한 것과 같이, 센싱 영역(FSA)은 표시 영역(DA)에 포함될 수 있다.
도 4는 본 발명의 다른 실시예에 따른 표시장치를 개략적으로 나타낸 평면도이다. 도 5는 도 4의 Ⅱ-Ⅱ'선을 따라 자른 표시장치의 개략적인 단면도이다.
도 4 및 도 5를 참조하면, 본 실시예에 따른 표시장치(2)는 도 1 및 도 2의 실시예에 따른 표시장치(1) 대비, 센싱 영역(FSA)이 표시 영역(DA)과 동일한 영역(동일한 위치, 동일한 면적)으로 설정된 점에서 그 차이가 있다.
본 실시예에서, 센싱 영역(FSA)의 면적은 표시 영역(DA)의 면적과 동일할 수 있다. 즉, 사용자가 화상을 표시하는 영역으로 인식하는 표시 영역(DA) 내 임의의 영역에 손가락을 터치하더라도, 표시장치(2)는 사용자의 터치를 인식할 뿐만 아니라, 사용자의 지문을 센싱할 수 있다.
표시장치(2) 내 각 부재들의 기능 및 위치관계는 도 1 및 도 2의 실시예에 따른 표시장치(1)와 유사하므로, 중복된 설명은 생략하기로 한다.
이하, 사용자의 지문을 인증하는 프로세스를 구비한 표시장치에 있어서, 지문 인증 프로세스를 포함하는 표시장치의 구동방법에 대해 설명하기로 한다. 이하에서 설명하는 구동방법에 있어 표시장치는 도 1 내지 도 4를 통해 설명한 표시장치들(1, 2)이 적용될 수 있다.
도 6은 본 발명의 일 실시예에 따른 표시장치의 구동방법을 도시한 순서도이다. 도 7은 도 6에서 표시장치가 제1 기능 단계를 수행하는 상태를 예를 들어 도시한 도면이다. 도 8은 도 6에서 표시장치가 지문 요청 단계를 수행하는 상태를 예를 들어 도시한 도면이다. 도 9는 도 6에서 사용자 터치 단계를 설명하기 위해, 표시장치에 사용자의 손가락 터치가 있는 상태를 예를 들어 도시한 도면이다. 도 10은 도 6에서 제1 영역 데이터 리드-아웃 단계를 설명하기 위해 표시장치를 도시한 도면이다.
도 6을 참조하면, 일 실시예로, 표시장치의 구동방법은 '제1 기능 수행 단계(S110)', '지문 인증 요청 단계(S120)', '사용자 터치 단계(S130)', '센싱 영역 지문 센싱 단계(S140)', '제1 영역 데이터 리드-아웃 단계(S150)', '이미지 프로세싱 단계(S160)' 및 '매칭 단계(S170)'를 포함할 수 있다. 본 명세서에서, 순서도에 따라 각 단계가 차례로 수행되는 것으로 설명하지만, 발명의 사상을 변경하지 않는 한, 연속하여 수행하는 것으로 도시된 일부 단계들이 동시에 수행되거나, 각 단계의 순서가 변경되거나, 일부 단계가 생략되거나, 또는 각 단계 사이에 다른 단계가 더 포함될 수 있음은 자명하다.
도 7을 함께 참조하면, '제1 기능 수행 단계(S110)'는 표시장치가 지문 인증이 필요한 이벤트가 발생하기 전 제1 기능을 수행하는 단계에 해당한다. 예를 들어, 제1 기능은 대기모드 상태(도 7의 표시장치 참조), 화면이 꺼진 채로 잠긴 상태, 또는 지문 인식이 필요한 프로그램이 실행된 상태일 수 있다.
도 8을 함께 참조하면, '지문 인증 요청 단계(S120)'는 표시장치가 제1 기능을 수행하는 중, 표시장치에 지문 인식이 필요한 이벤트가 발생하게 되고, 이에 따라 지문 인증을 하기위해 사용자에게 손가락 터치를 유도하는 단계에 해당한다. 예를 들어, 도 8에 도시된 것과 같이, 표시장치는 표시 영역(DA)이 디스플레이-온(display on)상태가 되도록 유지한 다음, 사용자에게 손가락 터치를 유도하는 문구 또는 이미지 등을 표시 화면에 표시할 수 있다.
이 때, 지문 센서(FS)는 사용자의 지문을 센싱하기 위해 활성화될 수 있다. 실시예에 따라, 지문 센서(FS)가 활성화되는 경우, 센싱 영역(FSA)과 중첩되는 화소들의 구동 상태가 변화할 수 있다.
일 예로, 지문 센서(FS)가 활성화되기 전, 표시 영역(DA)이 디스플레이-온 상태가 유지되는 경우, 표시 영역(DA)의 각 화소는 제1 주파수로 구동을 할 수 있고, 지문 센서(FS)가 활성화된 다음, 적어도 센싱 영역(FSA)에 중첩하는 화소들은 상기 제1 주파수와 다른 제2 주파수로 구동을 할 수 있다.
다른 예로, 지문 센서(FS)가 활성화되기 전, 표시 영역(DA)이 디스플레이-온 상태가 유지되는 경우, 표시 영역(DA)의 각 화소는 제1 휘도를 갖도록 구동을 할 수 있고, 지문 센서(FS)가 활성화된 다음, 적어도 센싱 영역(FSA)에 중첩하는 화소들은 상기 제1 휘도와 다른 제2 휘도를 갖도록 구동을 할 수 있다.
도 9를 함께 참조하면, '사용자 터치 단계(S130)'는 입력 수단이 표시장치의 윈도우 부재(WD)에 접촉하거나 극히 가까운 거리에 위치하는 단계에 해당한다.
예를 들어, '사용자 터치 단계(S130)'는 사용자의 손가락(10)이 센싱 영역(FSA)과 중첩하는 윈도우 부재(WD)의 일 영역에 접촉하는 단계일 수 있다. 표시장치의 센싱 영역(FSA)에 사용자의 손가락(10)의 터치가 이루어진 경우, 도시된 것과 같이 표시장치의 화면 표시 내용이 변경되고, 지문을 인증하는 프로세스가 시작될 수 있다. 만약, 센싱 영역(FSA) 외부에 사용자의 손가락(10)이 터치되거나, 센싱 영역(FSA)에 터치가 이루어지지 않는 경우, 표시장치는 사용자가 지문 인식을 원하지 않는 것으로 판단하고, 다시 '제1 기능 수행 단계(S110)' 또는 '지문 인증 요청 단계(S120)'를 수행하기위해 돌아갈 수 있다.
'사용자 터치 단계(S130)'에서 표시장치가 센싱 영역(FSA) 내 사용자의 터치가 이루어진 것으로 판단하면, 표시장치는 '센싱 영역 지문 센싱 단계(S140)'를 수행할 수 있다. '센싱 영역 지문 센싱 단계(S140)'는 표시장치에 구비된 지문 센서(FS)가 센싱 영역(FSA)을 센싱하는 단계에 해당한다.
일 실시예로, 지문 센서(FS)는 구비된 이미지 센서(110)를 통해 센싱 영역(FSA) 전면에 걸쳐 센싱 신호를 획득할 수 있다.
지문 센서(FS)는 획득된 센싱 신호를 바탕으로 생성된 데이터를 리드-아웃할 수 있다.
도 10을 함께 참조하면, '제1 영역 데이터 리드-아웃 단계(S150)'는 이미지 센서(110)가 센싱 영역(FSA) 전면에 걸쳐 획득된 센싱 신호 중 제1 영역(SA1)에 해당하는 일부 센싱 신호를 바탕으로 데이터를 생성하고, 이를 리드-아웃 회로부(120)로 리드-아웃 하는 단계에 해당한다.
제1 영역(SA1)은 사용자의 터치가 이루어진 터치 포인트(TP)를 중심으로 설정될 수 있다. 일 실시예로, 제1 영역(SA1)은 터치 포인트(TP)를 포함하며, 센싱 영역(FSA)보다 작은 면적을 가질 수 있다. 실시예에 따라, 제1 영역(SA1)은 실제 사용자의 손가락이 접촉하는 면적 이하의 면적을 가질 수도 있다.
일 실시예로, 지문 센서(FS)는 제1 영역(SA1)에 해당하는 센싱 신호를 아날로그-디지털 변환하여, 제1 영역(SA1)의 센싱 신호에 대응하는 디지털 신호를 제1 메모리(210) 또는 제2 메모리(220)에 전송할 수 있다. 제1 메모리(210) 또는 제2 메모리(220)는 제1 영역(SA1)의 센싱 신호에 대응하는 디지털 신호를 저장할 수 있다. 상기 디지털 신호는 미누셔(minutiae)와 같은 지문의 특성 정보를 포함할 수 있다.
제1 메모리(210) 또는 제2 메모리(220)에 제1 영역(SA1)의 센싱 신호에 대응하는 디지털 신호를 저장되면, '이미지 프로세싱 단계(S160)'가 수행될 수 있다.
'이미지 프로세싱 단계(S160)'는 프로세서(300)가 제1 영역(SA1)의 센싱 신호에 대응하는 디지털 신호를 바탕으로 이미지 처리하는 단계에 해당한다.
일 예로, 이미지 처리는 프로세서(300)가 제1 영역(SA1)의 센싱 신호에 대응하는 디지털 신호를 바탕으로 그레이 스케일(gray scale)로 변환하는 등의 처리를 포함할 수 있다. 센싱 영역 지문 센싱 단계(S140)'는 지문 센싱 시 표시 패널의 화면에 지문이 반사되어 반사된 광 정보가 지문 센서(FS)에 입력될 수 있는데, 광 정보를 이용하여 명암 또는 농도를 지정하여 지문 이미지를 형성하는 과정이 포함될 수 있다.
다른 예로, 이미지 처리는 프로세서(300)가 제1 영역(SA1)의 센싱 신호에 대응하는 디지털 신호를 바탕으로 변환된 이미지를 스케일(scale), 회전(rotation), 및/또는 이동(translation)시키는 것을 포함할 수 있다.
또 다른 예로, 이미지 처리는 프로세서(300)가 제1 영역(SA1)의 센싱 신호에 대응하는 디지털 신호를 바탕으로 변환된 이미지를 로그-폴라 변환(Log-Polar Transform, LPT)을 이용하여 변환된 이미지에 포함된 주파수 도메인 정보의 좌표계를 극 좌표계로 변환시킬 수 있다. 예를 들어, 고속 푸리에 변환을 통하여 도출된 FFT(Fast Fourier Transform) 영상의 매그니튜드(magnitude) 값에 대하여 로그-폴라 변환이 수행될 수 있다. 로그-폴라 변환이 적용된 이미지에 고속 푸리에 변환을 적용할 수 있다. 이후, 프로세서(300)는 이미지 간의 위상 상관(phase correlation)을 수행하고, 위상 상관의 수행 결과로서 피크(peak)를 검출할 수 있다. 검출된 피크의 위치는 이미지의 회전 정보 또는 스케일(scale) 정보를 나타낼 수 있다.
'매칭 단계(S170)'는 프로세서(300)가 제1 영역(SA1)의 센싱 신호에 대응하는 디지털 신호를 바탕으로 처리한 이미지(이하, 입력 지문 이미지)와 기 저장된 사용자의 지문 정보(이하, 등록 지문 이미지)가 담긴 이미지를 매칭하는 단계에 해당한다.
일 실시예로, 프로세서(300)는 제1 메모리(210)에 미리 저장된 사용자 지문 이미지의 등록 특성 정보와 제2 메모리(220)에 저장된 입력 지문 이미지의 입력 특성 정보 간의 유사도를 계산할 수 있다. 예를 들어, 특성 정보는 미누셔(minutiae) 정보, SIFT(Scale-invariant feature transform) 정보 및 주파수 도메인 변환 기법에 기초하여 추출되는 위상 정보 중 적어도 하나를 포함할 수 있다.
실시예에 따라, 제1 메모리(210)에 미리 저장된 사용자 지문 이미지와 제2 메모리(220)에 저장된 입력 지문 이미지 크기는 다를 수 있다. 예를 들어, 제1 메모리(210)에 미리 저장된 사용자 지문 이미지는 센싱 영역(FSA)을 바탕으로 이미지가 생성되고, 제2 메모리(220)에 저장된 입력 지문 이미지는 제1 영역(SA1)을 바탕으로 이미지가 생성되므로, 그 크기는 다를 수 있다.
구체적으로, 프로세서(300)는 등록 변환 이미지와 입력 지문 이미지의 패턴 유사도 및 등록 지문 이미지와 입력 지문 이미지의 특성 정보 간의 유사도에 기초하여, 입력 지문 이미지가 등록 지문 이미지와 매칭되는 정도를 나타내는 점수(score)를 계산할 수 있다. 프로세서(300)는 스코어 값이 소정의 임계값(threshold) 이상인 경우 인증으로 판단할 수 있고, 그 미만인 경우 미인증으로 판단할 수 있다.
본 실시예에서, 프로세서(300)는 '이미지 프로세싱 단계(S160)' 내지 '매칭 단계(S170)'가 센싱 영역(FSA)의 전체가 아닌 센싱 영역(FSA)의 일부인 제1 영역(SA1)의 센싱 신호에 대응하는 신호를 이용해 수행되므로, 센싱 영역(FSA)의 전체의 센싱 신호에 대응하는 신호를 이용해 수행하는 것 대비 빠른 속도로 인증 여부를 판단할 수 있다.
다음으로, 다른 실시예에 따른 표시장치의 구동방법에 대해 설명하기로 한다. 이하, 도 1 내지 도 10과 도면상의 동일한 구성 요소에 대해서는 설명을 생략하고, 동일하거나 유사한 참조 부호를 사용하였다.
도 11은 본 발명의 다른 실시예에 따른 표시장치의 구동방법을 도시한 순서도이다. 도 12는 도 11에서 '제2 영역 데이터 리드-아웃 단계(S151)'를 설명하기 위해 표시장치를 도시한 도면이다. 도 13은 사용자의 지문 내 특장점을 설명하기 위한 도면이다. 도 14는 도 11에서 제3 영역 데이터 취득/전송 단계를 설명하기 위해 표시장치를 도시한 도면이다. 도 15는 도 11에서 제3 영역 데이터 취득/전송 단계를 설명하기 위해 표시장치를 도시한 도면이다.
도 11을 참조하면, 본 실시예에 따른 표시장치의 구동방법은 도 6의 실시예 대비, ‘제1 영역 데이터 리드-아웃 단계(S150)’가 생략되고, '제2 영역 데이터 리드-아웃 단계(S151)', '제3 영역 취득/전송 단계(S152)' '특장점을 포함하는지 확인하는 단계(S153)' 및 '제3 영역 이동 단계(S154)' 를 더 포함하는 점에서 그 차이가 있다.
다시 말해, 일 실시예로, 표시장치의 구동방법은 '제1 기능 수행 단계(S110)', '지문 인증 요청 단계(S120)', '사용자 터치 단계(S130)', '센싱 영역 지문 센싱 단계(S140)', '제2 영역 데이터 리드-아웃 단계(S151)', '특장점을 포함하는지 확인하는 단계(S153)', '제3 영역 취득/전송 단계(S152)', '이미지 프로세싱 단계(S160)', '매칭 단계(S170)'를 포함할 수 있다.
지문 센서(FS)는 '센싱 영역 지문 센싱 단계(S140)'에서 획득된 센싱 신호를 바탕으로 생성된 데이터를 리드-아웃할 수 있다.
도 12를 함께 참조하면, '제2 영역 데이터 리드-아웃 단계(S151)'는 이미지 센서(110)가 센싱 영역(FSA) 전면에 걸쳐 획득된 센싱 신호 중 제2 영역에 해당하는 일부 센싱 신호를 바탕으로 데이터를 생성하고, 이를 리드-아웃 회로부(120)로 리드-아웃 하는 단계에 해당한다.
제2 영역(SA2)은 사용자의 터치가 이루어진 터치 포인트(TP)를 중심으로 설정될 수 있다. 일 실시예로, 제2 영역(SA2)은 터치 포인트(TP)를 포함하며, 센싱 영역(FSA)보다 작은 면적을 가질 수 있다. 실시예에 따라, 제2 영역(SA2)은 센싱 영역(FSA)보다 작은 면적을 가지면서도 앞서 설명했던 제1 영역(SA1) 이상의 면적을 가질 수 있다.
'제3 영역 취득/전송 단계(S152)'는 리드-아웃 회로부(120)가 '제2 영역 데이터 리드-아웃 단계(S151)’에서 획득된 데이터 중 제3 영역(SA3)에 대응하는 데이터를 취득하고, 이를 제1 메모리(210) 또는 제2 메모리(220)에 전송하는 단계에 해당한다.
도 14를 함께 참조하면, 제3 영역(SA3)은 제2 영역(SA2) 내에서 제2 영역(SA2) 보다 작은 임의의 영역으로 설정될 수 있다. 실시예에 따라, 제3 영역(SA3)은 앞서 설명했던 제1 영역(SA1)과 같은 면적을 가질 수도 있다.
'제3 영역 취득/전송 단계(S152)’에서 지문 센서(FS)는 제3 영역(SA3)에 해당하는 센싱 신호를 아날로그-디지털 변환하여, 제3 영역(SA3)의 센싱 신호에 대응하는 디지털 신호를 제1 메모리(210) 또는 제2 메모리(220)에 전송할 수 있다. 제1 메모리(210) 또는 제2 메모리(220)는 제3 영역(SA3)의 센싱 신호에 대응하는 디지털 신호를 저장할 수 있다.
도 13을 함께 참조하면, 사용자 지문(10_FP)은 유니크(unique)한 특징(feature)을 가지며, 이에 따라 사용자 지문(10_FP)마다 다양한 특장점(Singular point)(SP)을 포함할 수 있다. 예를 들어, 사용자 지문(10_FP)은 도시된 것과 같이, 코어(core), 델타(delta)와 같은 특장점(SP)을 포함할 수 있다. 뿐만 아니라, 사용자 지문(10_FP)은 지문에 포함된 융선의 끝점(ridge ending), 크로스오버(crossover), 분기점(bifurcation), 구멍(pore) 등 다양한 특장점(SP)을 더 포함할 수 있다.
제3 영역(SA3)의 위치에 따라 제3 영역(SA3)에 해당하는 센싱 신호 특장점(SP)이 포함될 수도 있고, 포함되지 않을 수도 있다. 도 14에서는 제3 영역(SA3)에 특장점 포인트(SP)가 포함되는 것을 예로서 도시했다.
'특장점을 포함하는지 확인하는 단계(S153)'는 리드-아웃 회로부(120) 또는 프로세서(300)가 '제3 영역 취득/전송 단계(S152)’에서 획득된 데이터를 바탕으로 상기 데이터에 사용자 지문의 특장점(SP)이 포함(또는, 기준 개수 이상 포함)되어 있는지 판단하는 단계에 해당한다.
일 실시예로, '특장점을 포함하는지 확인하는 단계(S153)'에서 표시장치는 영상처리와 딥러닝 기반의 AI기술 사용하여 특장점(SP) 포함 여부를 판단할 수 있다. 표시장치는 딥러닝 학습 알고리즘을 포함할 수 있다. 딥러닝 학습 알고리즘은 Deep Belief Network, Autoencoder, CNN(Convolutional Neural Network), RNN(Recurrent Nerural Network), Deep Q-Network 등을 포함할 수 있고, 본 발명에서 열거한 딥러닝 학습 알고리즘은 일 예시일 뿐, 이에 한정되는 것은 아니다. 표시장치는 딥러닝 학습 알고리즘을 이용하여, 사용자 지문(10_FP)의 데이터 베이스를 통해 특장점(SP)에 대해 학습된 AI기술을 이용하여 특장점(SP) 포함 여부를 판단할 수 있다. 이를 통해, 표시장치는 '특장점을 포함하는지 확인하는 단계(S153)'에서 특장점(SP) 포함 여부를 빠르게 판단할 수 있다.
'특장점을 포함하는지 확인하는 단계(S153)'에서 '제3 영역 취득/전송 단계(S152)’에서 획득된 데이터에 상술한 특장점(SP)을 포함(또는, 기준 개수 이상 포함)한다고 판단하면, 리드-아웃 회로부(120)가 '제3 영역 취득/전송 단계(S152)’에서 획득된 데이터를 제1 메모리(210) 또는 제2 메모리(220)에 전송하고, '이미지 프로세싱 단계(S160)' 및 '매칭 단계(S170)'가 차례로 수행될 수 있다.
도 15를 함께 참조하면, '특장점을 포함하는지 확인하는 단계(S153)'에서 '제3 영역 취득/전송 단계(S152)’에서 획득된 데이터에 상술한 특장점(SP)을 포함하지 않는다고(또는, 기준 개수 미만으로 포함한다고) 판단하면, '제3 영역 이동 단계(S154)'가 수행될 수 있다. 도 15에서는 제3 영역(SA3)에 특장점 포인트(SP)가 포함되지 않는 것을 예로서 도시했다.
'제3 영역 이동 단계(S154)'는 제3 영역(SA3)을 다른 영역(SA3' 참조)으로 이동하는 단계에 해당한다.
이후, 이동된 제3 영역(SA3)'을 기준으로, '제3 영역 취득/전송 단계(S152)’ 및 '특장점을 포함하는지 확인하는 단계(S153)'가 다시 수행될 수 있다.
만약,'특장점을 포함하는지 확인하는 단계(S153)'에서 '제3 영역 취득/전송 단계(S152)’에서 이동된 제3 영역(SA3)'을 기준으로 획득된 데이터에 상술한 특장점(SP)을 포함하지 않는다고(또는, 기준 개수 미만으로 포함한다고) 판단하면, 다시 제3 영역 이동 단계(S154)'가 수행되고, 만약 '특장점을 포함하는지 확인하는 단계(S153)'에서 '제3 영역 취득/전송 단계(S152)’에서 획득된 데이터에 상술한 특장점(SP)을 포함(또는, 기준 개수 이상 포함)한다고 판단하면, '이미지 프로세싱 단계(S160)' 및 '매칭 단계(S170)'가 차례로 수행될 수 있다.
본 실시예에서, 프로세서(300)는 '이미지 프로세싱 단계(S160)' 내지 '매칭 단계(S170)'가 센싱 영역(FSA)의 전체가 아닌 센싱 영역(FSA)의 일부인 제3 영역(SA3)의 센싱 신호에 대응하는 신호를 이용해 수행되므로, 센싱 영역(FSA)의 전체의 센싱 신호에 대응하는 신호를 이용해 수행하는 것 대비 빠른 속도로 인증 여부를 판단하면서도, 특장점(SP)을 이용해 지문 인증을 수행하므로 보안이 강화될 수 있다.
도 16은 본 발명의 또 다른 실시예에 따른 표시장치의 구동방법을 도시한 순서도이다. 도 17은 도 16에서 제3 영역 데이터 리드-아웃 단계를 설명하기 위해 표시장치를 도시한 도면이다.
지문 센서(FS)는 '센싱 영역 지문 센싱 단계(S140)'에서 획득된 센싱 신호를 바탕으로 생성된 데이터를 리드-아웃할 수 있다.
도 16 및 도 17을 참조하면, '제3 영역 데이터 리드-아웃 단계(S155)'는 이미지 센서(110)가 센싱 영역(FSA) 전면에 걸쳐 획득된 센싱 신호 중 특장점(SP)을 중심으로 하는 제3 영역(SA3)에 해당하는 일부 센싱 신호를 바탕으로 데이터를 생성하고, 이를 리드-아웃 회로부(120)로 리드-아웃 하는 단계에 해당한다. 여기서, 제3 영역(SA3)은 영상처리와 딥러닝 기반의 AI기술 사용하여 특장점(SP)위치를 판단하고, 특장점(SP)을 중심으로 설정된 영역일 수 있다.
이후, '이미지 프로세싱 단계(S160)' 및 '매칭 단계(S170)'가 차례로 수행될 수 있다.
본 실시예에서, 프로세서(300)는 '이미지 프로세싱 단계(S160)' 내지 '매칭 단계(S170)'가 센싱 영역(FSA)의 전체가 아닌 센싱 영역(FSA)의 일부인 제3 영역(SA3)의 센싱 신호에 대응하는 신호를 이용해 수행되므로, 센싱 영역(FSA)의 전체의 센싱 신호에 대응하는 신호를 이용해 수행하는 것 대비 빠른 속도로 인증 여부를 판단하면서도, 특장점(SP)을 이용해 지문 인증을 수행하므로 보안이 강화될 수 있다.
도 18은 본 발명의 또 다른 실시예에 따른 표시장치의 구동방법을 도시한 순서도이다.
도 18을 참조하면, 본 실시예에서, 표시장치의 구동방법은 '제1 기능 수행 단계(S110)', '지문 인증 요청 단계(S120)', '사용자 터치 단계(S130)', '센싱 영역 지문 센싱 단계(S140)', '제2 영역 데이터 리드-아웃 단계(S151)’, '이미지 프로세싱 단계(S160)', '특장점 좌표 획득 단계(S156)', '이미지 자르기 단계(S161)' 및 '매칭 단계(S170)'를 포함할 수 있다.
'제2 영역 데이터 리드-아웃 단계(S151)’에서 제2 영역(SA2)에 해당하는 일부 센싱 신호를 바탕으로 데이터를 생성하고, 이를 리드-아웃 회로부(120)로 리드-아웃한 이후, '이미지 프로세싱 단계(S160)' 및 '특장점 좌표 획득 단계(S156)'가 각각 수행될 수 있다.
'특장점 좌표 획득 단계(S156)'는 제2 영역(SA2)에 해당하는 일부 센싱 신호를 바탕으로 생성된 데이터를 기반으로 특장점(SP)의 좌표를 획득하는 단계에 해당한다. 일 실시예로, 표시장치는 특장점(SP)의 좌표를 획득하기 위해 특장점 검색 알고리즘(Singular point detection algorithm)을 이용할 수 있다. 예를 들어, 특장점(SP) 검색 알고리즘은 제2 영역(SA2)에 해당하는 일부 센싱 신호를 바탕으로 기 설정된 이미지 블록단위(patch)로 격자분할한 후, 각 블록의 고유의 윈도우 좌표 값을 생성하는 알고리즘일 수 있다.
다른 실시예에서, 표시장치는 특장점(SP)의 좌표를 획득하기 위해 앞서 설명한 영상처리와 딥러닝 기반의 AI기술 사용할 수도 있다.
'이미지 자르기 단계(S161)'는 '이미지 프로세싱 단계(S160)'에서 획득된 이미지를 '특장점 좌표 획득 단계(S156)'에서 산출된 특장점(SP)의 좌표를 중심으로 앞서 설명한 제3 영역(SA3)에 대응하는 영역으로 자르는(Crop) 단계에 해당한다.
표시장치는 '이미지 자르기 단계(S161)'에서 잘라진 이미지를 입력 지문 이미지로서 사용하여, '매칭 단계(S170)'를 수행할 수 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
1, 2: 표시장치 10: 사용자의 손가락
10_FP: 사용자 지문 110: 이미지 센서
120: 리드-아웃 회로부 210: 제1 메모리
220: 제2 메모리 300: 프로세서
DA: 표시 영역 DP: 표시패널
FS: 지문 센서 FSA: 센싱 영역
HU: 하우징 부재 IS: 표시면
NDA: 비표시 영역 RL1, RL2, RLn: 리드-아웃 라인들
SA1: 제1 영역 SA2: 제2 영역
SA3: 제3 영역 SP: 특장점
TP: 터치 포인트 TS: 터치 센서
WD: 윈도우 부재

Claims (20)

  1. 사용자의 지문을 인증하는 프로세스를 구비한 표시장치에 있어서,
    화상을 표시하는 표시 영역을 정의하는 표시패널; 및
    상기 표시패널의 일면 상에 배치되고, 사용자의 지문을 인식하는 센싱 영역을 정의하는 지문 센서를 포함하되,
    상기 프로세스는 상기 센싱 영역 중 일부 영역에 대해 데이터를 리드-아웃하는 단계를 포함하는 표시장치.
  2. 제1 항에 있어서,
    상기 센싱 영역이 정의된 위치는 상기 표시 영역이 정의된 위치에 포함되는 표시장치.
  3. 제2 항에 있어서,
    상기 센싱 영역의 면적은 상기 표시 영역의 면적의 80% 이상인 표시장치.
  4. 제1 항에 있어서,
    상기 일부 영역은 상기 사용자의 손가락이 터치된 터치 포인트를 중심으로 설정되는 표시장치.
  5. 제4 항에 있어서,
    상기 사용자의 터치를 인식하는 터치 센서를 더 포함하는 표시장치.
  6. 제5 항에 있어서,
    상기 터치 센서는 상기 표시패널의 타면 상에 배치되는 표시장치.
  7. 제1 항에 있어서,
    상기 일부 영역은 상기 지문의 특장점을 중심으로 설정되는 표시장치.
  8. 제7 항에 있어서,
    상기 특장점은 코어(core), 델타(delta), 융선의 끝점(ridge ending), 크로스오버(crossover), 분기점(bifurcation), 및 구멍(pore) 중 적어도 하나를 포함하는 표시장치.
  9. 제7 항에 있어서,
    상기 프로세스는 상기 특장점의 좌표를 획득하는 단계를 더 포함하는 표시장치.
  10. 제9 항에 있어서,
    상기 특장점의 좌표는 AI기술을 이용하여 획득되는 표시장치.
  11. 제1 항에 있어서,
    상기 일부 영역에 대해 데이터를 리드-아웃하는 단계는 상기 사용자의 손가락이 터치된 터치 포인트를 중심으로 설정된 제1 영역에 대해 데이터를 리드-아웃하는 단계에 해당하고,
    상기 프로세스는 상기 지문의 특장점을 중심으로 설정된 제2 영역에 대해 데이터를 취득하는 단계를 더 포함하는 표시장치.
  12. 제11 항에 있어서,
    상기 제2 영역은 상기 제1 영역과 면적이 상이한 표시장치.
  13. 제1 항에 있어서,
    상기 리드-아웃된 데이터가 저장되는 제1 메모리; 및
    상기 프로세스가 수행되기 전 미리 사용자의 지문 정보 데이터가 저장된 제2 메모리를 더 포함하되,
    상기 제1 메모리는 상기 제2 메모리와 별도로 구비되는 표시장치.
  14. 제13 항에 있어서,
    상기 제1 메모리에 저장된 정보와 상기 제2 메모리에 저장된 정보를 매칭하는 프로세서를 더 포함하는 표시장치.
  15. 사용자의 지문을 인증하는 프로세스가 포함되는 표시장치의 구동방법에 있어서,
    구비된 지문 센서가 센싱 영역을 센싱하는 '센싱 영역 지문 센싱 단계';
    상기 지문 센서가 상기 센싱 영역의 일부인 제1 영역에 대응하는 센싱 신호를 바탕으로 생성된 데이터를 리드-아웃 회로부로 리드-아웃하는 '제1 영역 데이터 리드-아웃 단계';
    상기 데이터를 이미지 처리하는 '이미지 프로세싱 단계'; 및
    상기 '이미지 프로세싱 단계'에서 처리된 이미지를 기 저장된 등록 지문 이미지와 비교하는 '매칭 단계'를 포함하는 표시장치의 구동방법.
  16. 제15 항에 있어서,
    상기 제1 영역은 사용자의 손가락이 터치된 터치 포인트를 중심으로 설정된 영역인 표시장치의 구동방법.
  17. 제16 항에 있어서,
    상기 제1 영역에 특장점이 포함되어 있는지 판단하거나, 또는 상기 특장점이 기준 개수 이상으로 포함되어 있는지 판단하는 '특장점을 포함하는지 확인하는 단계'를 더 포함하는 표시장치의 구동방법.
  18. 제17 항에 있어서,
    상기 특장점을 중심으로 설정된 제2 영역에 대응하는 센싱 신호를 바탕으로 생성된 데이터를 취득하고 메모리로 전송하는 '제2 영역 취득/전송 단계'를 더 포함하는 표시장치의 구동방법.
  19. 제18 항에 있어서,
    상기 제2 영역은 상기 제1 영역에 포함되는 표시장치의 구동방법.
  20. 제16 항에 있어서,
    상기 사용자의 지문의 특장점의 좌표를 획득하는 '특장점 좌표 획득 단계'; 및
    상기 '이미지 프로세싱 단계'에서 처리된 이미지를 상기 특장점의 좌표를 중심으로 자르는 '이미지 자르기 단계'를 더 포함하는 표시장치의 구동방법.
KR1020200049505A 2020-04-23 2020-04-23 지문 센서를 구비한 표시장치 및 그의 구동 방법 KR20210131513A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020200049505A KR20210131513A (ko) 2020-04-23 2020-04-23 지문 센서를 구비한 표시장치 및 그의 구동 방법
US17/153,069 US20210334495A1 (en) 2020-04-23 2021-01-20 Display device including a fingerprint sensor and a method of driving the same
CN202110439384.7A CN113553561A (zh) 2020-04-23 2021-04-23 包括指纹传感器的显示装置及驱动该显示装置的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200049505A KR20210131513A (ko) 2020-04-23 2020-04-23 지문 센서를 구비한 표시장치 및 그의 구동 방법

Publications (1)

Publication Number Publication Date
KR20210131513A true KR20210131513A (ko) 2021-11-03

Family

ID=78130218

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200049505A KR20210131513A (ko) 2020-04-23 2020-04-23 지문 센서를 구비한 표시장치 및 그의 구동 방법

Country Status (3)

Country Link
US (1) US20210334495A1 (ko)
KR (1) KR20210131513A (ko)
CN (1) CN113553561A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11810393B2 (en) 2020-09-01 2023-11-07 Samsung Display Co., Ltd. Fingerprint authentication device, display device including the same, and method of authenticating fingerprint of display device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107172266A (zh) * 2017-04-28 2017-09-15 广东欧珀移动通信有限公司 指纹识别控制方法及相关产品
US20180373913A1 (en) * 2017-06-26 2018-12-27 Qualcomm Incorporated Ultrasonic fingerprint sensor for under-display applications

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11810393B2 (en) 2020-09-01 2023-11-07 Samsung Display Co., Ltd. Fingerprint authentication device, display device including the same, and method of authenticating fingerprint of display device

Also Published As

Publication number Publication date
US20210334495A1 (en) 2021-10-28
CN113553561A (zh) 2021-10-26

Similar Documents

Publication Publication Date Title
US9646193B2 (en) Fingerprint authentication using touch sensor data
US9349035B1 (en) Multi-factor authentication sensor for providing improved identification
US9436864B2 (en) Electronic device performing finger biometric pre-matching and related methods
US10248837B2 (en) Multi-resolution fingerprint sensor
KR101923320B1 (ko) 디스플레이에서의 지문 인식이 가능한 사용자 단말기 및 지문 인식 방법
WO2017045359A1 (zh) 一种指纹识别模组及指纹识别方法、显示装置
US20050249386A1 (en) Pointing device having fingerprint image recognition function, fingerprint image recognition and pointing method, and method for providing portable terminal service using thereof
WO2020200182A1 (en) Method for fingerprint recognition, electronic device, and non-transitory computer-readable storage medium
WO2008114946A1 (en) Fingerprint recognition device and user authentication method for card including the fingerprint recognition device
US11068690B2 (en) Detection device, information processing device, and information processing method
US9785863B2 (en) Fingerprint authentication
WO2019007514A1 (en) ELECTRONIC DEVICE
KR20210131513A (ko) 지문 센서를 구비한 표시장치 및 그의 구동 방법
WO2024041452A1 (zh) 指纹识别方法、装置、电子设备及可读存储介质
WO2021014162A1 (en) Method to authenticate a user in an electronic device comprising a fingerprint sensor
TW202009794A (zh) 具有指紋識別模組之可攜式裝置
US20190286874A1 (en) Method and electronic device for generating fingerprint information, based on multiple pieces of image information acquired using multiple driving schemes
CN111052133A (zh) 用于确定手指与指纹传感器接触的方法和指纹感测系统
US11010589B1 (en) Defensive measures for residue re-imaging
CN114202777A (zh) 指纹认证装置、显示装置以及显示装置的认证指纹的方法
KR100629410B1 (ko) 지문인증기능을 구비한 포인팅 장치 및 방법과, 이를 위한 휴대 단말기
US11468703B2 (en) Method, storage media and device for biometric identification driving
US20220198174A1 (en) Display device and driving method thereof
US20210382615A1 (en) Device and method for providing feedback for user input in electronic device
TWI674536B (zh) 指紋導航方法及電子裝置

Legal Events

Date Code Title Description
A201 Request for examination