KR20220118119A - 비대면 출입 통제를 위한 출입 통제 방법 및 이를 수행하는 출입 통제 시스템 - Google Patents

비대면 출입 통제를 위한 출입 통제 방법 및 이를 수행하는 출입 통제 시스템 Download PDF

Info

Publication number
KR20220118119A
KR20220118119A KR1020210021864A KR20210021864A KR20220118119A KR 20220118119 A KR20220118119 A KR 20220118119A KR 1020210021864 A KR1020210021864 A KR 1020210021864A KR 20210021864 A KR20210021864 A KR 20210021864A KR 20220118119 A KR20220118119 A KR 20220118119A
Authority
KR
South Korea
Prior art keywords
subject
mask
image
body temperature
access
Prior art date
Application number
KR1020210021864A
Other languages
English (en)
Other versions
KR102521661B1 (ko
Inventor
김익재
석현광
조정현
최희승
김학섭
남기표
박해솔
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020210021864A priority Critical patent/KR102521661B1/ko
Publication of KR20220118119A publication Critical patent/KR20220118119A/ko
Application granted granted Critical
Publication of KR102521661B1 publication Critical patent/KR102521661B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00563Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys using personal physical data of the operator, e.g. finger prints, retinal images, voicepatterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F17/00Coin-freed apparatus for hiring articles; Coin-freed facilities or services
    • G07F17/40Coin-freed apparatus for hiring articles; Coin-freed facilities or services for devices for accepting orders, advertisements, or the like

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)

Abstract

실시예들은, 키오스크 장치가 상기 대상자의 영상을 획득하여 상기 대상자가 존재하는지 여부를 판단하고 상기 대상자의 영상을 상기 통제 서버로 전송하는 단계; 상기 통제 서버가 상기 대상자의 영상을 사용하여 상기 대상자가 마스크를 착용했는지 여부를 판단하는 단계; 상기 키오스크 장치가 상기 대상자의 체온을 측정하여 상기 대상자의 체온 상태를 확인하며, 그리고 향을 분사하여 대상자의 향 인지 상태를 확인하고, 상기 대상자의 체온 확인 결과 및 향 인지 결과를 상기 통제 서버로 전송하는 단계; 상기 통제 서버가 상기 대상자의 영상을 사용하여 상기 대상자가 신원이 출입 등록자인지 여부를 판단하는 단계; 및 상기 대상자의 체온 확인 결과와 향 인지 상태 결과, 그리고 대상자의 신원 확인 결과에 기초하여 출입문의 개방 여부를 제어하는 단계를 포함하는 출입 통제 방법 및 이를 수행하는 출입 통제 시스템에 관련된다.

Description

비대면 출입 통제를 위한 출입 통제 방법 및 이를 수행하는 출입 통제 시스템 {ENTRANCE CONTROL METHOD FOR CONTALESS ENTRANCE CONTROL AND SYSTEM PERFORMING THE SAME}
본 발명은 출입 통제 기술에 관한 것으로서, 보다 상세하게는 대상자의 존재를 감지하고 상기 대상자의 생체 상태를 확인하며 신원을 확인하여 대상자의 출입을 비대면으로 제어하는 출입 통제 방법 및 이를 수행하는 출입 통제 시스템에 관한 것이다.
현대 사회에서는 건물 및 사내 출입을 효율적으로 수행하고자 RFID 모듈이 포함된 사내 출입증을 활용한 출입 출입 통제 시스템이 활발히 활용되고 있다. 그러나, 사용자의 RFID 카드가 분실, 도난될 경우 사용자 불편이 발생하는 문제점을 지니고 있다.
이러한 문제점으로 인해, 종래의 시스템이 생체인식 기반의 출입출입 통제 시스템으로 점차적으로 대체되고 있는 추세이다. 생체인식 기반의 출입출입 통제 시스템은 홍채, 지문 등 대상자의 고유한 생체 정보를 식별 수단으로 사용하는데, 이 식별 수단은 분실, 도난될 우려가 없기 ‹š문이다.
하지만, 홍채 인식의 경우, 홍채 영역 검출 등에 소요되는 시간이 타 기술 대비 오래 걸린다는 점, 그리고 안경이나 콘택트렌즈 착용 등으로 인해 인식 성능이 저하된다는 한계가 있다.
그리고, 지문 인식은 단말기로의 직접적인 접촉을 요하기 때문에 대상자에게 거부감을 줄 수 있다는 한계가 있다.
최근 인공지능 기술의 발전으로 인해 얼굴인식 기반 출입 출입 통제 시스템이 이러한 한계를 극복할 수 있는 수단으로 주목받고 있다. 예를 들어, 특허문헌 1 (공개특허공보 제10-2019-0107867호 (2019.09.23.))은 출입 통제 단말기를 통해 취득된 얼굴 이미지와 데이터베이스 내에 저장되어 있는 대상자 얼굴 이미지 간의 비교를 통해 본인 인증을 수행함으로써 출입 허용 대상자 여부를 판단하고, 출입 허용 대상자의 출입을 허가한다.
최근 COVID-19로 인한 위험도가 증가함에 따라 감염 확산 예방을 위해 마스크 착용이 필수화 되고 있으며, 많은 인원이 출입하는 건물 등에서 출입 시 대상자를 상대로 마스크 착용 유무 및 발열 체크를 수행하는 것이 의무화 되고 있다. 이와 같이 마스크 착용이 일반화 되는 시기에서 마스크로 인한 얼굴 가림으로 인해 인식 성능이 저하되는 문제에 대한 해결이 필요하다.
또한, COVID-19 바이러스는 매우 강한 전염성을 갖고 있어, 신원 확인과 별도로 잠재 발병 대상자의 출입을 차단하는데, COVID-19 바이러스의 감염 증상은 단순 발열 이외에 후각 기능 장애 등 다양한 증상을 포함하고 있어, 이러한 증상을 고려해 잠재 발병 대상자의 출입을 차단하는 것이 요구된다.
특허공개공보 10-2019-0107867 (2019.09.23.)
본 발명의 실시예들에 따르면, 대상자의 존재를 감지하고 상기 대상자의 생체 상태를 확인하며 신원을 확인하여 대상자의 출입을 비대면으로 제어하는 출입 통제 방법 및 이를 수행하는 출입 통제 시스템을 제공한다.
본 발명의 일 측면에 따른 출입 통제 시스템에 의해 수행되는 출입 통제 방법은 키오스크 장치가 상기 대상자의 영상을 획득하여 상기 대상자가 존재하는지 여부를 판단하고 상기 대상자의 영상을 상기 통제 서버로 전송하는 단계; 상기 통제 서버가 상기 대상자의 영상을 사용하여 상기 대상자가 마스크를 착용했는지 여부를 판단하는 단계; 상기 키오스크 장치가 상기 대상자의 체온을 측정하여 상기 대상자의 체온 상태를 확인하며, 그리고 향을 분사하여 대상자의 향 인지 상태를 확인하고, 상기 대상자의 체온 확인 결과 및 향 인지 결과를 상기 통제 서버로 전송하는 단계; 상기 통제 서버가 상기 대상자의 영상을 사용하여 상기 대상자가 신원이 출입 등록자인지 여부를 판단하는 단계; 및 상기 대상자의 체온 확인 결과와 향 인지 상태 결과, 그리고 대상자의 신원 확인 결과에 기초하여 출입문의 개방 여부를 제어하는 단계를 포함할 수도 있다. 상기 출입 통제 시스템은 비대면 출입 통제를 위해 대상자와 상호작용하는 키오스크 장치; 및 상기 키오스크 장치와 통신하여 출입문을 제어하는 통제 서버를 포함한 상기 키오스크 장치는 가시광 영상 데이터를 생성하는 가시광 센서 모듈, 적외선에 반응하여 열화상(thermal image) 데이터를 생성하는 적외선 센서 모듈 및 열화상을 획득하는 센싱 유닛 및 향을 분사하는 분사 유닛을 포함할 수도 있다.
일 실시예에서, 상기 대상자가 존재하는지 여부를 판단하는 단계는, 상기 키오스크 장치(100)의 전면 영상을 획득하는 단계; 상기 전면 영상에서 움직임이 발생했는지 확인하고 움직임이 발생한 것이 확인되는 것에 반응하여 상기 전면 영상에서 대상자 영역을 검출하는 단계; 및 상기 검출 결과에 기초하여 대상자의 존재 여부를 판단하는 단계를 포함할 수도 있다.
일 실시예에서, 상기 대상자의 영상을 사용하여 상기 대상자가 마스크를 착용했는지 여부를 판단하는 단계는, 상기 대상자의 영상에서 얼굴 영역을 검출하는 단계; 상기 얼굴 영역에서 특징을 추출하여 마스크 착용 점수를 산출하는 단계; 및 상기 마스크 착용 점수를 사용해 상기 대상자가 마스크를 착용했는지 여부를 판단하는 단계;를 포함할 수도 있다.
일 실시예에서, 상기 마스크 착용 점수는 미리 저장된 마스크 확인 알고리즘을 통해 특징을 추출하여 산출되는 것으로서, 상기 특징은 입력 영상에 나타난 얼굴 부분을 서술하는 특징 및 상기 입력 영상에 나타난 마스크 부분을 서술하는 특징 중 적어도 하나를 포함할 수도 있다. 상기 마스크 확인 알고리즘은 마스크를 착용한 훈련 이미지와 착용을 의미한 제1 레이블 데이터;를 포함한 제1 훈련 샘플을 사용하거나, 또는 마스크를 착용하지 않은 훈련 이미지와 미-착용을 의미한 제2 레이블 데이터을 포함한 제2 훈련 샘플을 사용하여 학습된 것이다.
일 실시예에서, 상기 키오스크 장치가 상기 대상자의 체온을 측정하여 상기 대상자의 체온 상태를 확인하는 단계는, 상기 대상자의 열화상을 획득하는 단계; 및 측정에 따른 대상자의 체온 확인 결과를 상기 통제 서버로 전송하는 단계를 포함할 수도 있다.
일 실시예에서, 상기 키오스크 장치가 상기 대상자의 체온을 측정하여 상기 대상자의 체온 상태를 확인하는 단계는, 상기 대상자의 열화상에서 얼굴 영역을 검출하고 얼굴에 대한 체온을 측정하는 단계; 및 얼굴과 다른 신체 부분에 대한 체온을 측정하는 단계 중 하나 이상을 더 포함할 수도 있다.
일 실시예에서, 상기 향을 분사하여 대상자의 향 인지 상태를 확인하는 단계는, 상기 분사 유닛에 의해 향을 분사하는 단계; 분사된 향을 상기 대상자가 인지했는지 문의하는 단계; 상기 대상자의 디스플레이 터치 혹은 음성 혹은 동작을 통한 응답을 입력 받아 향 인지 결과를 획득하는 단계를 포함할 수도 있다.
일 실시예에서, 상기 대상자의 영상을 사용하여 상기 대상자가 신원이 출입 등록자인지 여부를 판단하는 단계는, 상기 대상자가 마스크를 착용하지 않은 것으로 확인된 경우 상기 대상자의 영상 내 얼굴 영역에서 얼굴 특징을 추출하는 단계; 상기 대상자가 마스크를 착용한 것으로 확인된 경우 마스크에 의한 가림 영역을 제외한 얼굴 부분에서 얼굴 특징을 추출하거나, 혹은 상기 마스크를 미착용한 얼굴 부분으로 복원하고, 대상자의 마스크 착용 바깥의 얼굴 부분 및 복원된 얼굴 부분에서 얼굴 특징을 추출하는 단계; 미리 저장된 출입 등록자의 얼굴 특징과 대상자의 추출된 얼굴 특징을 비교하여 대상자와 출입 등록자 간의 얼굴 유사도를 산출하는 단계; 상기 대상자의 영상에서 귀 영역을 검출하는 단계; 상기 귀 영역에서 귀 특징을 추출하는 단계; 미리 저장된 출입 등록자의 귀 특징과 대상자의 추출된 귀 특징을 비교하여 대상자와 출입 등록자 간의 귀 유사도를 산출하는 단계; 산출된 귀 유사도와 얼굴 유사도 중 하나를 사용하거나 혹은 모두를 결합(concatenate)하여 대상자와 출입 등록자 간의 최종 유사도를 산출하는 단계; 최종 유사도와 미리 설정된 신원 임계치를 비교하여 상기 대상자가 출입 등록자인지 신원 확인하는 단계를 포함할 수도 있다.
일 실시예에서, 상기 통제 서버는 측정된 체온이 정상 체온 범위에 속하는 것을 나타낸 체온 확인 결과, 그리고 대상자가 향을 인지했다는 응답을 나타내는 사용자 응답을 나타낸 향 인지 결과가 획득되면 상기 대상자가 발병 위험자가 아닌 것으로 판단할 수도 있다. 상기 출입문의 개방 여부를 제어하는 단계는, 체온 확인 결과 및 향 인지 결과에 의해 대상자가 발병 위험자가 아닌 것으로 판단되고 그리고 대상자의 신원이 출입 등록자인 것이 확인되면 출입문을 개방하는 단계; 상기 대상자가 마스크를 착용하지 않은 경우 출입문을 미개방하는 단계; 및 상기 대상자가 발병 위험자로 판단되면, 출입문을 미개방하는 단계를 포함할 수도 있다.
일 실시예에서, 상기 출입문의 개방 여부를 제어하는 단계는, 상기 대상자가 발병 위험자로 판단되고 대상자의 신원이 확인되지 않으면, 상기 통제 서버는 상기 발병 위험자의 방문 시각 정보를 상기 키오스크 장치로 요청하여 저장하는 단계; 및 상기 대상자가 발병 위험자로 판단되고 대상자의 신원이 확인되면, 상기 통제 서버는 상기 발병 위험자의 방문 시각 정보를 상기 키오스크 장치로 요청하고 상기 대상자의 신원 정보 및 방문 시각 정보를 저장하는 단계를 더 포함할 수도 있다.
본 발명의 다른 일 측면에 따른 컴퓨터 판독가능 기록매체는 상술한 실시예들에 따른 출입 통제 방법을 수행하기 위한 프로그램을 기록한다.
본 발명의 또 다른 일 측면에 따른 출입 통제 시스템은 비대면 출입 통제를 위해 대상자와 상호작용하는 키오스크 장치; 및 상기 키오스크 장치와 통신하여 출입문을 제어하는 통제 서버를 포함할 수도 있다. 상기 키오스크 장치는 상기 대상자의 영상을 획득하여 상기 대상자가 존재하는지 여부를 판단하고, 상기 대상자의 체온을 측정하여 상기 대상자의 체온 상태를 확인하며, 그리고 향을 분사하여 대상자의 향 인지 상태를 확인하한다. 상기 통제 서버는 마스크 확인 모듈 및 신원 확인 모듈을 포함한다. 상기 마스크 확인 모듈은, 상기 대상자의 영상을 사용하여 상기 대상자가 마스크를 착용했는지 여부를 판단한다. 상기 신원 확인 모듈은, 상기 대상자의 영상을 사용하여 상기 대상자가 신원이 출입 등록자인지 여부를 판단한다.
본 발명의 일 측면에 따른 출입 통제 시스템은 키오스크 장치와 대상자의 상호작용에 따른 신원 확인 결과에 기초하여 상기 대상자의 출입을 허용한다. 특히, 마스크 및 선글라스 등의 착용 상태에서도 인식 성능 저하 등의 문제 없이 신원 확인을 수행함으로써 효율적인 출입 통제가 가능하다.
상기 출입 출입 통제 시스템은 상기 대상자가 발병 위험자일 경우, 상기 대상자에 관련된 정보를 관제 서버로 전송하여, 추후 대상자가 실제 질병 환자로 판정될 경우 동선 추적을 용이하게 한다.
나아가, 상기 출입 통제 시스템은 현금 자동 입출금기, CCTV, 모바일 기기 등 다양한 영상 보안 시스템에서 활용이 가능하며, 범죄 수사용 및 바이오 인증 기반 비대면 금융 서비스에서도 활용이 가능하다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명 또는 종래 기술의 실시예의 기술적 해결책을 보다 명확하게 설명하기 위해, 실시예에 대한 설명에서 필요한 도면이 아래에서 간단히 소개된다. 아래의 도면들은 본 명세서의 실시예를 설명하기 위한 목적일 뿐 한정의 목적이 아니라는 것으로 이해되어야 한다. 또한, 설명의 명료성을 위해 아래의 도면들에서 과장, 생략 등 다양한 변형이 적용된 일부 요소들이 도시될 수 있다.
도 1은, 본 발명의 일 실시예에 따른, 출입 통제 시스템의 개략적인 블록도이다.
도 2a는, 본 발명의 일 실시예에 따른, 키오스크 장치의 외부 개념도이고, 도 2b는, 도 2a의 키오스크 장치의 내부 개념도이다.
도 3은, 본 발명의 일 실시예에 따른, 출입 통제 방법의 흐름도이다.
도 4는, 도 3의 대상자의 존재하는지 여부를 판단하는 단계(S1)의 흐름도이다.
도 5는, 도 3의 마스크 착용 여부를 판단하는 단계(S2)의 흐름도이다.
도 6은, 도 3의 대상자의 체온 상태를 확인하는 단계(S3)의 흐름도이다.
도 7은, 도 3의 대상자의 향 인지 상태를 확인하는 단계(S4)의 흐름도이다.
도 8은, 도 3의 대상자의 신원을 확인하는 단계(S5)의 흐름도이다.
여기서 사용되는 전문 용어는 단지 특정 실시예를 언급하기 위한 것이며, 본 발명을 한정하는 것을 의도하지 않는다. 여기서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다. 명세서에서 사용되는 "포함하는"의 의미는 특정 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분을 구체화하며, 다른 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분의 존재나 부가를 제외시키는 것은 아니다.
다르게 정의하지는 않았지만, 여기에 사용되는 기술용어 및 과학용어를 포함하는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 의미와 동일한 의미를 가진다. 보통 사용되는 사전에 정의된 용어들은 관련기술문헌과 현재 개시된(disclosed) 내용에 부합하는 의미를 가지는 것으로 추가 해석되고, 정의되지 않는 한 이상적이거나 매우 공식적인 의미로 해석되지 않는다.
본 명세서에서 발병 위험자는 COVID-19(Coronavirus Disease 2019) 질환을 가질 가능성이 높은 위험군에 속하는 대상자를 지칭한다.
이하에서, 도면을 참조하여 본 발명의 실시예들에 대하여 상세히 살펴본다.
도 1은, 본 발명의 일 실시예에 따른, 출입 통제 시스템의 개략적인 블록도이다.
도 1을 참조하면, 출입 통제 시스템(1)은 키오스크 장치(100)와 통신하며, 출입문의 개방 또는 미-개방을 제어하는 통제 서버(200)를 포함한다.
실시예들에 따른 출입 통제 시스템(1)은 전적으로 하드웨어이거나, 전적으로 소프트웨어이거나, 또는 부분적으로 하드웨어이고 부분적으로 소프트웨어인 측면을 가질 수 있다. 예컨대, 시스템은 데이터 처리 능력이 구비된 하드웨어 및 이를 구동시키기 위한 운용 소프트웨어를 통칭할 수 있다. 본 명세서에서 "부(unit)", “모듈(module)”“장치”, 또는 "시스템" 등의 용어는 하드웨어 및 해당 하드웨어에 의해 구동되는 소프트웨어의 조합을 지칭하는 것으로 의도된다. 예를 들어, 하드웨어는 CPU(Central Processing Unit), GPU(Graphic Processing Unit) 또는 다른 프로세서(processor)를 포함하는 데이터 처리 가능한 컴퓨팅 장치일 수 있다. 또한, 소프트웨어는 실행중인 프로세스, 객체(object), 실행파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다.
키오스크 장치(100)는 신원 확인을 위해 사용될 대상자의 영상을 획득하도록 구성된다. 일부 실시예들에서, 상기 키오스크 장치(100)는 상기 대상자의 생체 상태를 확인하는 동작을 수행하도록 더 구성된다.
상기 키오스크 장치(100)는 키오스크 이외에 다른 형태의 하드웨어로도 구현될 수도 있다. 예를 들어, 스마트 폰, 스마트 글래스, 스마트 워치, 웨어러블 장치, 태블릿, 노트북, 랩탑 컴퓨터 등으로 구현될 수 있으나, 이에 제한되진 않는다.
도 2a는, 본 발명의 일 실시예에 따른, 키오스크 장치의 외부 개념도이고, 도 2b는, 도 2a의 키오스크 장치의 내부 개념도이다.
도 2a및 도 2b를 참조하면 상기 키오스크 장치(100)는 메모리(110), 프로세서(130); 인터페이스(140); 통신 모듈(150); 정보를 입/출력하는 하나 이상의 인터페이스 유닛을 포함한다. 상기 인터페이스 유닛은 센싱 유닛(171), 입력 유닛, 및 디스플레이 유닛(174)을 포함한다. 상기 입력 유닛은 터치 유닛(172) 및/또는 기타 입력 유닛(173)을 포함한다.
일부 실시예에서, 상기 인터페이스 유닛은 스피커(175), 마이크(176)을 더 포함할 수도 있다.
메모리(110)는 불휘발성 메모리를 포함할 수 있다. 상기 불휘발성 메모리는, 예를 들어 SDD, HDD, 플래시 메모리 등을 포함할 수 있으나, 이에 제한되지 않으며 다른 불휘발성 반도체 메모리를 포함할 수 있다. 일부 실시예에서, 메모리(110)는 사용자 단말(100)의 외부에 원격으로 위치하는 저장 장치, 예컨대, 유/무선의 통신 네트워크를 통해 액세스되는 분산형 저장소(storage)를 더 포함할 수도 있다.
프로세서(130)는 데이터 처리 및/또는 이미지 처리를 수행하도록 구성된다. 상기 프로세서(130)는 CPU, GPU 등을 포함할 수 있다. 도 2b에서 프로세서(130)는 단일 구성요소로 도시되었으나, 이에 제한되지 않는다. 예를 들어, 설계에 따라서 단일 칩 또는 다수의 칩으로 구현될 수 있다.
프로세서(130)의 동작에 대해서는 아래의 도 3 내지 도 7을 참조하여 보다 상세하게 서술한다.
인터페이스(140)는 키오스크 장치(100)의 입/출력과 관련된 장치들을 메모리(110) 및/또는 프로세서(130)와 연결시킨다. 상기 인터페이스(140)는 연결된 입/출력과 관련된 장치들에 따라 소프트웨어 및/또는 하드웨어의 조합으로 구현될 수 있다. 예를 들어, 상기 인터페이스(140)는 통신용 인터페이스, 터치 및 기타 입력 유닛용 인터페이스, 오디오용 인터페이스 등을 포함하며, 상기 오디오 인터페이스는 데이터를 전기 신호로 변환하고 전기 신호로 전송하는 오디오 회로(예컨대, 헤드셋 잭 등)를 포함할 수 있으며, 상기 터치 및 기타 입력 유닛용 인터페이스는 하나 이상의 입력 유닛을 통해 획득된 사용자 입력에 대응하는 전기 신호를 프로세서(130)로 전송하는 하나 이상의 입력 제어자를 포함할 수 있다.
통신 모듈(150)은 전자파를 송/수신하도록 구성된다. 상기 키오스크 장치(100)는 통신 모듈(150)을 통해 통제 서버(200)와 통신한다.
통신 모듈(150)는 전기 신호를 전자파로 변환하거나, 또는 전자파를 전기 신호로 변환한다. 사용자 단말(100)는 통신 모듈(150)를 통해 사용자가 통화를 하게 하거나, 또는 인터넷 상의 서비스를 제공하는 애플리케이션을 사용하게 한다. 상기 통신 모듈(150)는 객체와 객체가 네트워킹할 수 있는, 유선 통신, 무선 통신, 3G, 4G, 유선 인터넷 또는 무선 인터넷 등을 포함한, 다양한 통신 방법에 의해 다른 장치와 통신할 수 있다. 예를 들어, 통신 모듈(150)는 월드 와이드 웹(WWW, World Wide Web)과 같은 인터넷, 인트라넷과 같은 네트워크 및/또는 셀룰러 전화 네트워크, 무선 네트워크, 그리고 무선 통신을 통해 통신하도록 구성된다. 상기 무선 통신은, 예를 들어, GSM(Global System for Mobile Network, CDMA(ode Division Multiple Access, W-CDMA(Wideband Code Division Multiple Access), TDMA(Time Division Multiple Access), Bluetooth, Wi-Fi, Wi-MAX(orld Interoperability for Microwave Access), 및/또는 이메일, 인스턴트 메시징, 단문 문자 서비스(SMS) 등을 위한 통신 프로토콜을 이용한 무선 통신 표준을 포함하나, 이에 제한되지 않는다.
센싱 유닛(171)은 파장에 반응하여 대상자의 영상을 생성하기 위한 센싱 데이터를 생성하는 구성요소로서, 가시광선에 반응하여 대상자의 영상 데이터를 생성하는 가시광 센서 모듈(1711) 및 적외선에 반응하여 열화상(thermal image) 데이터를 생성하는 적외선 센서 모듈(1713)을 포함할 수도 있다.
상기 터치 유닛(172), 기타 입력 유닛(173)은 사용자의 입력과 관련된 명령을 수신하도록 구성된 구성요소이다. 사용자의 신체 일부 또는 다른 객체가 포인팅 객체로 활용되어 터치 유닛(172)에 입력된다. 상기 터치 유닛(172)은 감압식 또는 정전기식 센서 등을 포함할 수 있으나, 이에 제한되진 않는다. 상기 기타 입력 유닛(173)은 예를 들어 버튼, 다이얼, 스위치, 스틱 등을 포함한다.
디스플레이 유닛(174)은 키오스크 장치(100)에 저장 및/또는 처리된 정보를 디스플레이하는 구성요소로서, 예를 들어, LCD, OLED, 플렉서블 스크린 등을 포함할 수 있으나, 이에 제한되진 않는다.
도 2a에서 터치 유닛(172)과 디스플레이 유닛(174)이 분리되어 있지만, 많은 실시예들에서 터치 유닛(172)과 디스플레이 유닛(174)은 입력 수신 및 정보 출력을 수행하도록 하나의 구성요소로 구현될 수 있다. 예를 들어, 도 2b에 도시된 바와 같이 터치 유닛(172)과 디스플레이 유닛(174)은 스크린과 레이어 구조를 이루는 터치 스크린으로 구현된 터치 패널일 수도 있다. 터치 입력은 (예컨대, 사용자의 신체, 또는 도구 등을 포함한) 포인팅 객체에 의해 입력된다.
스피커(175)는 전기 신호를 가청 영역의 주파수를 갖는 음파로 변환한다. 프로세서(130)에서 처리된 데이터 또는 메모리(110)에 미리 저장된 데이터가 인터페이스(140)를 통해 전기 신호로 변환되어 스피커(175)에 입력되고 최종적으로 음파가 출력된다. 마이크(176)는 음파를 전기 신호로 변환한다. 상기 사용자 단말(100)이 대상자의 음성 응답을 통해 향 분사 인지 여부를 판단하도록 구성될 경우, 스피커(175)는 대상자의 음성 입력을 유도하기 위한 음파를 출력하고 마이크(176)는 대상자의 음성 응답을 입력받기 위해 사용될 수도 있다.
향 분사 유닛(180)은 대상자가 향을 인지하는지 확인하기 위한 향을 제공하는 구성요소서, 예를 들어 압축식 스프레이 타입으로 구성되어 액체 저장소(미도시)의 액체 성분을 노즐을 통해 분사할 수도 있다.
향 분사 유닛(180)은 특정 방위로 포커싱하여 분사하거나, 또는 포커싱하지 않고 다수의 방위(예컨대, 전방위)로 분사하도록 구성될 수도 있다. 예를 들어, 향 분사 유닛(180)은 대상자가 감지된 방위를 향한 노즐을 통해 포커싱하여 분사할 수도 있다.
일 실시예에서, 향 분사 유닛(180)은 단일 노즐이 향하는 방위가 이동하도록 상기 단일 노즐을 제어하여 다수의 방위로 분사할 수도 있다.
다른 일 실시예예서, 향 분사 유닛(180)은 다수의 노즐을 포함한다. 상기 다수의 노즐에서 일부는 다른 일부와 다른 방위를 향하도록 구성된다. 상기 다수의 노즐을 통해 향은 다수의 방위(예컨대, 전방위)로 분사될 수도 있다.
상기 통제 서버(200)는 키오스크 장치(100)와 데이터를 송수신하여 신원이 확인된 대상자의 출입을 허용하여 출입구를 개방하는 것을 제어하도록 구성된다. 일부 실시예들에서, 상기 통제 서버(200)는 상기 대상자의 신원을 확인하도록 구성될 수도 있다.
상기 통제 서버(200)는 네트워크 서버로 구현되는 다수의 컴퓨터 시스템 또는 컴퓨터 소프트웨어일 수도 있다. 여기서, 네트워크 서버란, 사설 인트라넷 또는 인터넷과 같은 컴퓨터 네트워크를 통해 다른 네트워크 서버와 통신할 수 있는 하위 장치와 연결되어 작업 수행 요청을 접수하고 그에 대한 작업을 수행하여 수행 결과를 제공하는 컴퓨터 시스템 및 컴퓨터 소프트웨어(네트워크 서버 프로그램)를 의미한다. 그러나 이러한 네트워크 서버 프로그램 이외에도, 네트워크 서버 상에서 동작하는 일련의 응용 프로그램과 경우에 따라서는 내부에 구축되어 있는 각종 데이터베이스를 포함하는 넓은 개념으로 이해되어야 할 것이다. 상기 통제 서버(200)는 비대면 출입 통제 서비스를 운영하는 서버단으로 지칭될 수도 있다.
다시 도 1을 참조하면, 상기 통제 서버(200)는 마스크 확인 모듈(220); 신원 확인 모듈(250); 제어 모듈(미도시) 및 데이터베이스(280)를 포함할 수도 있다. 여기서, 데이터베이스(280)는 출입구의 개방이 미리 허용된 출입 등록자와 관련된 정보를 저장한다.
일 실시예에서, 상기 출입 등록자와 관련된 정보는 출입 등록자의 신원 정보, 출입 등록자의 얼굴 영상, 귀 영상, 얼굴 특징, 및/또는 귀 특징을 포함할 수도 있다. 신원 정보는 예를 들어, 성별, 성명, 소속, 주소, 전화번호, 주민번호, 운전면허 번호 등을 포함하나, 이에 제한되진 않는다.
얼굴 특징, 귀 특징에 대해서는 아래의 도 8을 참조하여 보다 상세하게 서술한다.
상기 데이터베이스(280)는 아마존닷컴(Amazon.Com, Inc.)이 제공하는 심플 스토리지 서비스(S3; Simple Storage Service)), 구글(Google Inc.)이 제공하는 구글 파일 시스템(GFS; Google File System)), 또는 마이크로소프트(Microsoft Corporation)가 제공하는 마이크로소프트 오피스 온라인(Microsoft Office Online)) 등과 같이, 애플리케이션 및 데이터가 원격 서버에 저장되는 클라우딩 데이터베이스 컴퓨팅 리소스를 나타낸다.
상기 마스크 확인 모듈(220) 및 신원 확인 모듈(250)의 동작에 대해서는 아래의 도 3 내지 도 8을 참조하여 보다 상세하게 서술한다.
도 3은, 본 발명의 일 실시예에 따른, 상기 출입 통제 시스템에 의해 수행되는 출입 통제 방법의 흐름도이다.
도 3을 참조하면, 출입 통제 방법은: 키오스크 장치(100) 전면에 대상자가 존재하는지 여부를 판단하는 단계(S1); 존재할 경우, 대상자가 마스크를 착용하였는지 여부를 판단하는 단계(S2); 상기 대상자의 체온 상태를 확인하는 단계(S3); 상기 대상자의 향 인지 상태를 확인하는 단계(S4); 대상자의 신원이 출입이 미리 허용된 출입 등록자인지 여부를 판단하는 단계(S5); 및 체온 확인 결과 및 향 인지 상태 결과, 그리고 대상자의 신원 확인 결과에 기초하여 출입문의 개방 여부를 제어하는 단계(S6)를 포함한다.
또한, 상기 출입 통제 방법은: 대상자가 마스크를 착용하지 않은 것으로 판단되거나(S2), 또는 체온 측정 결과 및/또는 향 인지 결과에 따라서 출입문을 미개방하는 단계(S610 및 S640), 그리고 대상자가 마스크를 착용하고, 체온 측정 결과 및 향 인지 결과에 따라서 출입문을 개방하는 단계(S620)를 포함한다.
도 4는, 도 3의 대상자가 존재하는지 여부를 판단하는 단계(S1)의 흐름도이다.
도 4를 참조하면, 상기 단계(S1)는: 키오스크 장치(100)가 키오스크 장치(100)의 전면 영상을 획득하는 단계(S11); 대상자 영역을 검출하는 단계(S15); 및 검출 결과에 기초하여 대상자의 존재 여부를 판단하는 단계(S17)를 포함한다.
키오스크 장치(100)는 가시광 센서 모듈(1711)에 의해 영상 데이터를 생성할 수도 있다(S11).
일 실시예에서, 상기 단계(S15)는: 전면 영상에서 움직임이 발생했는지 확인하는 단계; 및 움직임이 발생한 것이 확인되는 것에 반응하여 대상자 영역을 검출하는 단계를 포함한다. 여기서, 움직임의 발생 확인 및 대상자 영역 검출 동작은 순차적으로 수행되거나, 또는 하나의 동작으로 통합되어 수행될 수도 있다.
상기 키오스크 장치(100)는 전면 영상에서 움직임이 발생했는지 확인하고, 움직임이 발생한 것이 확인되면, 이에 반응하여 상기 전면 영상에서 대상자가 차지하는 서브 영역을 대상자 영역으로 검출할 수도 있다(S15). 사람의 전신 또는 일부(예컨대, 상반신을 포함한 부분)가 나타난 영역이 대상자 영역으로 검출된다.
일 실시예에서, 상기 키오스크 장치(100)는 상기 전면 영상에서 시간에 따른 픽셀 변화에 기초하여 움직임 여부를 판단할 수도 있다(S15). 대상자가 전면에 존재하지 않으면 배경이 그대로 유지되므로 픽셀 변화가 없을 것이다.
다른 일 실시예에서, 상기 키오스크 장치(15)는 전면 영상에서 특징을 추출하여 객체를 검출 또는 추적하는 알고리즘을 통해 전면 영상에서 객체의 위치(또는 차지하는 영역)를 인식하고, 대상자에 대한 인식 결과가 변화할 경우, 움직임이 있는 것으로 판단된다.
예를 들어, 상기 키오스크 장치(100)는 기계학습 기반 검출 모델을 통해 대상자를 인식할 수도 있다. 그러면, 상기 키오스크 장치(100)는 영상에서 사람을 인식하도록 학습된 모델을 통해 대상자를 인식할 수도 있다. 대상자에 대한 인식 결과가 변화할 경우, 움직임이 있는 것으로 판단된다.
상기 키오스크 장치(100)는 단계(S15)에서 대상자 영역이 검출되면, 출입자가 존재하는 것으로 최종 확인한다(S17). 만약, 단계(S15)에서 대상자 영역이 검출되지 않으면, 출입자가 존재하지 않는 것으로 확인한다(S17).
또한, 일 실시예에서, 상기 단계(S1)는: 대상자가 키오스크 장치(100)의 전면에 존재하는 것으로 확인되면(S17), 단계(S11)에서 획득된 전면 영상을 전달하거나, 또는 대상자 영역의 패치(patch)를 추출하고(S18) 상기 대상자 영역의 패치를 전달하는 단계(S19)를 더 포함할 수도 있다. 상기 단계(S11)의 획득된 영상 데이터 또는 단계(S18)에서 추출한 대상자 영역의 패치 데이터는 마스크 확인 모듈(220) 또는 신원 확인 모듈(250)로 전달될 수도 있다.
단게(S1)에서 출입 대상자가 존재하는 것으로 판단되면, 마스크 확인 모듈(220)에 의해 단계(S2)의 동작이 수행된다.
도 5는, 도 3의 마스크 착용 여부를 판단하는 단계(S2)의 흐름도이다.
도 5를 참조하면, 상기 마스크 착용 여부를 판단하는 단계(S2)는: 상기 단계(S11)에서 획득된 전면 영상 데이터 또는 상기 단계(S18)에서 추출된 대상자 영역의 패치 데이터를 획득하는 단계(S21); 상기 대상자 영역에서 얼굴 영역을 검출하는 단계(S23); 상기 얼굴 영역에서 특징을 추출하여 마스크 착용 점수를 산출하는 단계(S25); 및 마스크 착용 점수를 사용해 상기 대상자가 마스크를 착용했는지 여부를 판단하는 단계(S27);를 포함한다.
단계(S21)에서 획득된 영상은 가시광선 영상일 수도 있다.
상기 마스크 확인 모듈(220)은 미리 저장된 얼굴 검출 알고리즘을 통해 입력 영상에서 얼굴 부분을 포함한 영역을 얼굴 영역으로 검출할 수도 있다(S23). 상기 얼굴 검출 알고리즘은, 예를 들어, Haar, Convolution Neural Network (CNN), Scale Invariant Feature Transform (SIFT), Histogram of Gradients (HOG), Neural Network (NN), Support Vector Machine (SVM), 및 Gabor 방식 등 중 하나 또는 이들의 조합을 수행하는 알고리즘을 포함하나, 이에 제한되진 않는다.
상기 마스크 확인 모듈(220)은 미리 저장된 마스크 확인 알고리즘을 통해 특징(features)을 추출하여 마스크 착용에 따른 마스크 착용 점수를 산출할 수도 있다. 상기 특징은 입력 영상에 나타난 얼굴 부분을 서술하는 특징 및/또는 상기 입력 영상에 나타난 마스크 부분을 서술하는 특징을 포함한다. 대상자가 마스크를 실제로 착용할 경우, 마스크에 의해 덮어지지 않은 부분(예컨대, 눈, 이마를 포함한 얼굴 상부)에서 얼굴 부분의 특징이 추출된다.
상기 마스크 확인 알고리즘은, 예를 들어, Convolutional Neural Network (CNN), Histogram of Gradient (HOG), Local Binary Patterns (LBP), Principal Components Analysis (PCA), Linear Discriminant Analysis (LDA), Support Vector Machin (SVM), Support Vector Regression (SVR) 방식 등 중 하나 또는 이들의 조합을 수행하는 알고리즘을 포함하나, 이에 제한되진 않는다.
상기 마스크 착용 점수는 마스크 확인 알고리즘을 통해 출력된 출력 값 또는 이를 스케일링한 값일 수도 있다.
예를 들어, 상기 마스크 확인 알고리즘이 입력 영상의 얼굴에서 특징을 추출하고 마스크가 착용된 확률을 출력 값으로 산출하도록 구성될 경우, 상기 상기 마스크 확인 모듈(220)은 상기 확률 값 또는 이를 미리 정해진 점수 범위로 변환한 스케일링 값을 마스크 착용 점수로 산출할 수도 있다.
또한, 마스크 확인 모듈(220)은 미리 설정된 마스크 임계치와 산출된 마스크 착용 점수를 비교하여 대상자의 마스크 착용 여부를 판단한다(S27).
예를 들어, 마스크 확인 모듈(220)은 상기 마스크 착용 점수가 마스크 임계치 이상일 경우, 해당 대상자가 마스크를 착용한 것으로 판단한다(S27). 마스크 확인 모듈(220)은 상기 마스크 착용 점수가 마스크 임계치 미만일 경우, 해당 대상자가 마스크를 착용하지 않은 것으로 판단한다(S27).
일 실시예에서, 상기 마스크 확인 알고리즘은 마스크를 착용한 훈련 이미지와 착용을 의미한 제1 레이블 데이터;를 포함한 제1 훈련 샘플을 사용하거나, 또는 마스크를 착용하지 않은 훈련 이미지와 미-착용을 의미한 제2 레이블 데이터을 포함한 제2 훈련 샘플을 사용하여 학습될 수도 있다. 상기 마스크 착용 점수의 산출은 알고리즘의 파라미터의 학습에 사용되는 훈련 샘플에 의존할 수도 있다. 예를 들어, 제1 훈련 샘플의 세트를 사용하면, 상기 파라미터는 마스크를 착용한 영상에 높은 점수를 주는 방향으로 학습될 수도 있다. 또는 제2 훈련 샘플의 세트를 사용하면, 상기 파라미터는 마스크를 미-착용한 영상에 높은 점수를 주도록 학습될 수도 있다.
상기 출입 통제 시스템(1)은 마스크를 착용하지 않은 것으로 확인된 대상자에게는 출입을 허용하지 않고, 결국 (예컨대, 제어 모듈에 의해) 출입문을 개방하지 않는다(S610). 또한, 출입 통제 시스템(1)은 키오스크 장치(100)의 디스플레이 유닛(174) 및/또는 스피커(176)를 통해 마스크 미착용 경고를 시각적으로 및/또는 음향적으로 제공하도록 더 구성될 수도 있다.
반면, 상기 출입 통제 시스템(1)은 마스크를 착용한 것으로 확인된 대상자에게는 출입문을 개방할지 여부를 허용하기 위한 추가적인 단계(S3 내지 S5)를 수행한다.
다시 도 3을 참조하면, 키오스크 장치(100)는 마스크를 착용한 것으로 확인된 대상자의 체온 상태 및 향 인지 상태를 확인할 수도 있다(S3 및 S4).
도 6은, 도 3의 대상자의 체온 상태를 확인하는 단계(S3)의 흐름도이다.
도 6을 참조하면, 상기 단계(S3)는: 적외선 센서 모듈(1713)에 의해 상기 대상자의 열화상을 획득하는 단계(S31); 상기 대상자의 열화상을 사용하여 상기 대상자의 체온을 측정하여 체온 상태 데이터를 생성하는 단계(S37)를 포함한다. 상기 체온 상태 데이터는 대상자의 체온 확인 결과, 즉 현재 측정된 체온 값을 포함한다.
키오스크 장치(100)는 열화상 데이터에 서술된 적외선 세기에 기초하여 대상자의 적어도 일부분의 체온을 측정할 수도 있다. 그러면, 상기 적어도 일부분에 대한 체온 측정 결과를 포함한 체온 상태 데이터가 생성된다.
일 실시예에서, 상기 열화상을 사용하여 체온을 측정하여 체온 상태 데이터를 생성하는 단계는: 열화상에서 얼굴 영역을 검출하고, 얼굴에 대한 체온을 측정하는 단계(S33 및 S34); 및/또는 얼굴과 다른 신체 부분에 대한 체온을 측정하는 단계(S36)를 포함한다.
상기 단계(S33)에서 얼굴 영역을 검출하는 과정은 단계(S23)와 유사하게, 얼굴 검출 알고리즘을 통해 수행될 수도 있다. 그러나, 단계(S23)의 얼굴 검출 알고리즘은 가시광 기반 입력 영상에서 얼굴 영역을 검출하기 위한 파라미터로 구성되나, 단계(S33)의 얼굴 검출 알고리즘은 적외선 기반 입력 영상에서 얼굴 영역을 검출하기 위한 파라미터로 구성된다.
단계(S33)에서 얼굴 영역이 검출되면, 키오스크 장치(100)는 얼굴 영역 내 마스크 상단 부분에 대해 대상자의 체온을 측정한다(S34).
얼굴에 대한 체온이 측정될 경우(S33 및 S34), 키오스크 장치(100)는 측정 범위로서 얼굴 영역 정보 및 체온 측정 결과로서 얼굴 체온의 측정 값을 포함한 체온 상태 데이터를 생성할 수도 있다(S37).
단계(S36)에서 얼굴과 다른 영역은 예를 들어, 손목일 수도 있으나 이에 제한되진 않는다.
일부 실시예에서, 상기 단계(S3)는: 상기 단계(S37) 이전에, 키오스크 장치(100)의 디스플레이 유닛(174) 또는 스피커(176)를 통해 대상자가 보조 측정 부위의 체온을 측정하는 것이 용이하도록 보조 측정 부위를 열화상 센서 모듈(1713)의 감지 범위로 위치시키게 하는 안내를 제공하는 단계(S35)를 더 포함할 수도 있다.
상기 예시에서, 키오스크 장치(100)는 보조 측정 부위가 손목이란 사실을 안내하여 손목에 대한 체온 측정을 유도할 수도 있다(S35 및 S36).
얼굴과 다른 부분(예컨대, 손목)에 대한 체온이 측정될 경우(S35 및 S36), 키오스크 장치(100)는 측정 범위로서 해당 부분의 정보(예컨대, 측정 범위가 손목이라는 정보) 및 손목 체온 값을 체온 측정 결과로 포함한 체온 상태 데이터를 생성할 수도 있다(S37).
다양한 실시예들에서, 상기 단계(S3)는: 단계(S33 및 S34) 이후 단계(S35 및 S36)가 수행되거나, 또는 단계(S35 및 S36) 이후 단계(S33 및 S34)가 수행될 수도 있다. 예를 들어, 전자의 순서로 수행될 경우, 키오스크 장치(100)는 1차적으로 얼굴의 체온 측정 및 2차적으로 손목의 체온 측정을 하여 1차 체온 측정 결과 및 2차 체온 측정 결과를 갖는 체온 상태 데이터를 생성할 수도 있다. 예를 들어, 상기 체온 상태 데이터는 각각의 측정 범위(즉, 얼굴 및 손목)와 측정 값을 포함한다.
상기 키오스크 장치(100)는 체온 상태 데이터를 통제 서버(200)로 전달한다(S37). 체온 상태 데이터의 체온 측정 결과는 상기 대상자에게 출입문을 개방할지 여부를 결정하는데 사용된다.
도 7은, 도 3의 대상자의 향 인지 상태를 확인하는 단계(S4)의 흐름도이다.
도 7을 참조하면, 상기 대상자의 향 인지 상태를 확인하는 단계(S4)는: 상기 분사 유닛(190)에 의해 향을 분사하는 단계(S43); 분사된 향을 상기 대상자가 인지했는지 문의하는 단계(S45); 상기 대상자의 응답을 입력 받아 향 인지 상태 데이터를 생성하는 단계(S47); 및 향 인지 상태 데이터를 통제 서버(200)로 전송하는 단계(S49)를 포함한다.
체온 측정 이외의 COVID-19의 감염 증상을 확인하는데 유용한 수단은 후각 장애 이슈를 확인하는 것이다. 상기 출입 통제 시스템(1)은 향을 분사하여 향 인지 결과를 포함한 향 인지 상태 데이터를 생성하고, 상기 향 인지 상태 데이터의 향 인지 결과를 사용하여 대상자에게 출입 권한을 부여할지 결정한다.
일 실시예에서, 향 인지 결과는 대상자의 입력에 기초하여 생성된다. 상기 대상자의 입력은 디스플레이 터치, 음성, 및/또는 제스처 동작의 입력을 포함한다.
상기 키오스크 장치(100)는 대상자를 향해 향을 직분사하거나, 또는 다수의 방위로 향을 넓게 분사할 수도 있다(S43).
일부 실시예에서, 상기 단계(S4)는: 단계(S43) 이전에 향의 분사를 미리 안내하는 단계(S41)를 더 포함할 수도 있다. 상기 분사의 안내는 키오스크 장치(100)의 디스플레이 유닛(174) 및/또는 스피커(176)를 통해 대상자에게 안내된다.
상기 키오스크 장치(100)는 상기 대상자가 향을 인지 했는지 여부를 문의하는 내용을 화면으로 상기 디스플레이 유닛(174)에 표시하거나 및/또는 음성으로 상기 스피커(176)에 출력하여 사용자의 응답을 유도한다(S45). 응답을 통해 대상자의 향 인지 결과가 획득되고, 이를 포함한 향 인지 상태 데이터가 생성된다.
일 실시예에서, 상기 키오스크 장치(100)는 상기 대상자의 향 인지 결과를 획득하기 위한 대상자의 응답을 터치 입력 방식, 음성 입력 방식 및/또는 제스처 입력 방식 중 하나 이상으로 입력받을 수도 있다.
터치 입력 방식은 키오스크 내 터치 패널을 통해 향을 인지한 것을 가리키는 제1 영역 및 향을 인지하지 않은 것을 가리키는 제2 영역을 표시하고, 상기 대상자가 터치한 영역에 대응하는 인지 결과를 획득하는 방식이다.
제스처 인식 방식은 향을 인지한 것을 가리키는 것으로 미리 지정된 제1 제스처 또는 향을 인지하지 않은 것을 가리키는 것으로 미리 지정된 제2 제스처를 상기 카메라 유닛171이 촬영한 영상에서 인식하여, 인식된 제스처에 대응하는 인지 결과를 획득하는 방식이다.
상기 키오스크 장치(100)는 미리 저장된 제스처 인식 알고리즘을 통해 제스처를 인식할 수도 있다. 이 때에, 대상자 응답에 대한 제스처 인식 알고리즘으로는, CNN, HOG, OpenPose, LBP 등 중 하나 또는 이들을 조합을 수행하는 알고리즘을 포함하나, 이에 제한되진 않는다.
음성 입력 방식은 대상자로부터 향을 인지하는 것을 가리키는 제1 음성(예컨대, 예, 가능 등) 또는 향을 인지하지 않은 것을 가리키는 제2 음성(예컨대, 아니오, 불가능 등)을 마이크175를 통해 획득하는 방식이다.
또한, 상기 출입 통제 시스템(1)은 체온 측정 결과, 향 인지 결과와 더불어 대상자의 신원 확인 결과를 사용하여 대상자에게 출입 권한을 부여할지 결정한다. 상기 대상자의 신원은 신원 확인 모듈(250)에 의해 확인된다(S5).
도 8은, 도 3의 대상자의 신원이 출입 등록자인지 여부를 판단하는 단계(S5)의 흐름도이다.
도 8을 참조하면, 상기 대상자의 신원을 확인하는 단계(S5)는: 단계(S2)에서 마스크 확인 결과를 획득하는 단계(S51); 대상자의 영상에서 얼굴 특징을 추출하는 단계(S53); 및 데이터베이스(280)에 미리 저장된 출입 등록자의 얼굴 특징과 대상자의 추출된 얼굴 특징을 비교하여 대상자와 출입 등록자 간의 얼굴 유사도를 산출하는 단계(S54);를 포함한다.
상기 대상자의 영상은 단계(S19)에서 전달 받은, 단계(S11)에서 획득된 전면 영상 또는 단계(S18)에서 추출된 대상자 영역의 패치를 포함한다.
단계(S53)에서 대상자의 영상 내 얼굴 영역에서 얼굴 특징이 추출된다.
단계(S2)에서 대상자가 마스크를 미착용한 것으로 확인된 경우, 상기 신원 확인 모듈(220)은 단계(S19)에서 전달 받은, 단계(S11)에서 획득된 전면 영상 또는 단계(S18)에서 추출된 대상자 영역의 패치에서 얼굴 특징을 추출한다(S53). 이 경우, 마스크에 의해 가림 영역이 상대적으로 없는 얼굴 부분의 특징이 추출된다.
일 실시예에서, 상기 단계(S5)는: 단계(S2)에서 대상자가 마스크를 착용한 것으로 확인된 경우, 가림 영역을 복원해 미착용 얼굴을 생성하는 단계(S52); 를 더 포함한다. 신원 확인 모듈(250)은 입력 영상 내 마스크에 의한 가림 영역을 상기 마스크를 미착용한 얼굴 부분으로 복원하고, 복원된 얼굴 부분 및 기존에 마스크에 의해 가려지지 않은 얼굴 부분을 포함한, 마스크 미-착용 전체 얼굴 영상을 생성한다. 그러면, 신원 확인 모듈(250)은 대상자의 마스크 착용 바깥의 얼굴 부분 및 복원된 얼굴 부분에서 특징을 추출한다(S53).
다른 일 실시예에서, 상기 단계(S5)는 대상자가 마스크를 착용한 것으로 확인한 경우, 마스크 부분을 제외한 얼굴 부분에서 얼굴 특징을 추출할 수도 있다(S53).
즉, 얼굴 유사도를 계산하는데 사용되ˆp 특징은 마스크를 제외한 얼굴 부분으로부터 추출된 특징, 또는 복원된 미착용 얼굴로부터 추출된 특징을 포함한다.
일 실시예에서, 신원 확인 모듈(250)은 Generative Adversarial Network (GAN) 방식을 포함한 알고리즘을 통해 가림 영역을 복원할 수도 있다. 상기 GAN 알고리즘은 3차원 얼굴 모델의 정보, 얼굴의 주요 특징점 위치 정보를 사용하여 미가림 얼굴을 복원할 수도 있다.
단계(S53)에서는 단계(S21)에서 획득된 얼굴 검출 결과가 추가로 사용될 수도 있다. 신원 확인 모듈(250)은 얼굴 검출 결과에 따른 얼굴 영역을 입력 영상에 적용하여, 입력 영상 내 얼굴 영역에서 특징을 추출하여 얼굴 특징을 획득할 수도 있다.
또한, 상기 대상자의 신원을 확인하는 단계(S5)는: 상기 대상자의 영상(예컨대, 단계(S19)에서 전달 받은, 단계(S11)에서 획득된 전면 영상 또는 단계(S18)에서 추출된 대상자 영역의 패치)에서 귀 영역을 검출하는 단계(S55); 귀 영역에서 귀 특징을 추출하는 단계(S56); 및 데이터베이스(280)에 미리 저장된 출입 등록자의 귀 특징과 대상자의 추출된 귀 특징을 비교하여 대상자와 출입 등록자 간의 귀 유사도를 산출하는 단계(S57)를 포함한다.
단계(S55)에서 귀 영역을 검출하는 과정은 단계(S23)와 유사하게, 얼굴 검출 알고리즘과 동일한 알고리즘을 통해 수행될 수도 있다. 그러나, 단계(S23)의 얼굴 검출 알고리즘과 달리, 단계(S55)에서 사용되는 귀 검출 알고리즘은 영상에서 귀 영역을 검출하기 위한 파라미터로 구성된다. 예를 들어, 귀 검출 알고리즘은 HOG일 수도 있다. 그러나, 얼굴에 대한 서술자에 기반한 얼굴 검출 알고리즘과 달리, 귀 검출 알고리즘은 귀에 대한 서술자에 기반하여 귀 영역을 검출하도록 구성된다.
신원 확인 모듈(250)은 미리 지정된 특징 추출 알고리즘을 통해 영상에서 특징을 추출할 수도 있다(S53 및 S56). 이러한 특징은 특징 값으로 이루어진 특징 벡터의 형태로 추출될 수도 있다.
상기 특징 추출 알고리즘은, 예를 들어, PCA(Principal Components Analysis), LDA(Local Discriminant Analysis), ICA(Independent Components Analysis), CNN(Convolution Neural Network), LBP(Local Binary Pattern), SIFT(Scale Invariant Feature Transform), LE(Learning-based Encoding), HOG(Histogram of Oriented Gradient) 방식 등 중 하나 또는 이들의 조합을 수행하는 알고리즘을 포함하나, 이에 제한되지 않는다. 이러한 특징 추출 알고리즘을 통해 얼굴 또는 귀에 대한 전역적 특징(global features) 및/또는 지역적 특징(local features)이 추출될 수도 있다.
상기 신원 확인 모듈(250)은 상기 대상자의 특징 벡터와 미리 저장된 출입 등록자의 특징 벡터를 비교하여 특징 벡터 간의 유사도를 산출하는 다양한 유사도 비교 알고리즘을 이용할 수 있다. 상기 유사도 비교 알고리즘은, 예를 들어 유클리디언 거리(Euclidean Distance), 코사인 거리 (Cosine Distance), 마할라노비스 거리 (Mahalanobis Distance) 등을 포함할 수 있으나, 이에 제한되진 않는다.
그러면, 신원 확인 모듈(250)은: 대상자의 귀 특징과 출입 등록자의 귀 특징 간의 유사도, 즉 귀 유사도를 산출하고, 그리고 대상자의 얼굴 특징과 출입 등록자의 얼굴 특징 간의 유사도, 즉 얼굴 유사도를 산출한다(S58).
또한, 신원 확인 모듈(250)은 산출된 귀 유사도와 얼굴 유사도를 결합(concatenate)하여 대상자와 출입 등록자 간의 최종 유사도를 산출할 수도 있다(S58). 신원 확인 모듈(250)은, 예를 들어 SUM, MIN, MAX, PRODUCT, Weighted SUM, SVM 등을 포함한 결합 방식을 통해 귀 유사도와 얼굴 유사도를 결합할 수 있으나, 이에 제한되진 않는다.
신원 확인 모듈(250)은 최종 유사도와 미리 설정된 신원 임계치를 비교하여 상기 대상자에 매칭하는 출입 등록자를 검색한다(S59). 미리 저장된 출입 등록자는 출입 통제 시스템(1)에 미리 신원 정보가 등록된 사람으로서, 상기 대상자가 출입 통제 시스템(1)에 미리 등록된 출입 등록자일 경우, 미리 설정된 신원 임계치 보다 높은 최종 유사도가 산출될 것이다. 대상자가 출입 통제 시스템(1)에 미리 등록된 출입 등록자가 아닐 경우, 신원 임계치 미만의 낮은 최종 유사도가 산출된다.
신원 임계치는 특징 추출 알고리즘, 유사도의 결합 방식 및/또는 입력 영상의 특성에 의존하여 결정된 값이거나, 사용자에 의해 지정된 특정 값일 수도 있다.
상기 입력 영상의 특성은 예를 들어, 단계(S1)의 촬영 영상의 전체 사이즈에서 얼굴 또는 귀가 차지하는 비율, 영상에 나타난 얼굴 또는 귀의 부분, 촬영 각도 등을 포함한다.
최종 유사도가 미리 설정된 신원 임계치 이상일 경우, 출입 등록자와 대상자가 매칭하는 것으로 판단하고, 대상자의 신원을 매칭한 출입 등록자의 신원으로 확인한다(S59).
반면, 최종 유사도가 임계치 미만일 경우, 신원 확인 모듈(250)은 출입 등록자와 대상자가 매칭하지 않는 것으로 판단하고, 상기 대상자와 매칭하는 다른 출입 등록자에 대해서 유사도를 산출하는 과정(S58)을 계속해서 진행한다. 이 과정은 매칭하는 다른 출입 등록자가 검색되거나, 또는 모든 출입 등록자에 대해서 진행이 완료되었음에도 매칭 출입 등록자가 검색되지 않는 경우에 완료된다.
대안적인 실시예들에서, 얼굴 유사도 혹은 귀 유사도가 곧바로 최종 유사도로 사용될 수도 있다. 이 경우, 신원확인 동작은 대상자와 출입 등록자 간 얼굴 유사도를 비교하거나, 또는 대상자와 출입 등록자 간 귀 유사도를 비교함으로써 수행된다.
출입 등록자인지 신원 확인 과정에서 사용되는 신원 확인 수단, 즉 최종 유사도는 귀의 특징 및 얼굴 특징을 모두 고려하므로, 종래의 얼굴 인식의 장점과 더불어, 마스크에 의한 가림 현상을 극복할 수 있어, COVID-19가 창궐한 상태에서 특히 유용하다.
다시 도 3을 참조하면, 상기 출입문 개방 여부를 제어하는 단계(S6)는: 체온 확인 결과 및 향 인지 결과에 의해 대상자가 발병 위험자가 아닌 것으로 판단되고 그리고 단계(S5)의 신원 확인 동작에 의해 대상자의 신원이 출입 등록자인 것이 확인되면, 통제 서버(200)가 (예컨대, 제어 모듈에 의해) 출입문을 개방하는 단계(S620)를 포함한다.
출입 통제 시스템(1)은 단계(S3)에서 획득된 체온 확인 결과 및 단계(S4)에서 생성된 향 인지 결과를 사용하여 상기 대상자가 발병 위험자인지 여부를 판단한다.
통제서버(200)는 측정된 체온이 정상 체온 범위를 벗어나거나 및/또는 향을 인지하지 못했다는 응답이 입력되면, 대상자를 발병 위험자로 판단한다.
통제서버(200)는 측정된 체온이 정상 체온 범위에 속하는 것을 나타낸 체온 확인 결과, 그리고 대상자가 향을 인지했다는 응답을 나타내는 사용자 응답을 나타낸 향 인지 결과가 획득되면, 대상자를 발병 위험자가 아닌 것으로 판단한다.
상기 정상 체온 범위로서, 대략 36.5℃로서, 예를 들어, 36.5℃에 대해 미리 지정된 공차 범위일 수도 있다.
대상자가 발병 위험자가 아닌, 정상 상태로 판단될 경우, 상기 단계(S5)의 신원 확인 동작에 의해 대상자의 신원이 확인되지 않으면, 출입 통제 시스템(1)은 대상자의 출입을 허용한다.
또한, 상기 출입문 개방 여부를 제어하는 단계(S6)는: 체온 확인 결과 및 향 인지 결과에 의해 대상자가 발병 위험자가 아닌 것으로 판단되고 그리고 단계(S5)의 신원 확인 동작에 의해 대상자의 신원이 확인되지 않으면, 상기 통제 서버(200)는: 키오스크 장치(100)가 가입 정보를 입력 받는 단계(S613); 통제 서버(200)가 상기 대상자에 대한 신원 정보를 가입 정보로 수신하고, 상기 대상자에게 출입 권한을 부여하고 출입 등록자로 신규 등록하는 단계(S615)를 포함한다.
그러면, 미-확인 대상자는 데이터베이스(280)에 저장된 기존 출입 등록자 리스트에 신규 출입 등록자로 추가되며, 단계(S11)에서 획득된 전면 영상, 단계(S18)에서 추출된 대상자 영역의 패치, 단계(S5)에서 추출된 귀 특징 및 얼굴 특징 중 적어도 하나를 포함한 특징 정보가 상기 가입 정보와 함께 데이터베이스(280)에 저장된다.
신규 가입되어 출입 권한이 부여된 대상자에 대해서는 출입문이 개방된다(S620).
일부 실시예에서, 상기 단계(S6)는: 단계(S613) 이전에, 정상 상태의 신원 미-확인 대상자가 방문자인지 여부를 판단하는 단계(S611)를 더 포함할 수도 있다. 통제 서버(200)는 키오스크 장치(100)를 통해 대상자에 대한 정보를 요구하여 상기 대상자가 예정된 방문자인지 방문자 리스트에서 검색한다(S611). 방문자로 확인되면, 출입 통제 시스템(1)은 방문이 약속된 직원을 안내하거나, 또는 해당 직원에게 방문 알림 연락을 제공한다(S612).
방문자가 아닐 경우, 상기 출입 통제 시스템(1)은 신규 등록 과정(S613 내지 S615)을 수행할 수도 있다.
상기 단계(S6)는: 대상자가 발병 위험자로 판단되면, 출입문을 미개방하는 단계(S640)를 포함한다.
일 실시예에서, 상기 단계(S6)는: 대상자가 발병 위험자로 판단되고 대상자의 신원이 확인되지 않으면, 통제 서버(200)는 상기 발병 위험자의 방문 시각 정보를 상기 키오스크 장치(100)에 요청하여 획득하고, 상기 방문 시각 정보를 저장하는 단계(S631)를 포함한다.
또한, 상기 단계(S6)는: 대상자가 발병 위험자로 판단되고 대상자의 신원이 확인되면, 상기 발병 위험자의 방문 시각 정보를 상기 키오스크 장치(100)에 요청하여 획득하고, 상기 방문 시각 정보 및 상기 대상자의 신원 정보를 연관시켜 저장하는 단계(S632)를 포함한다.
방문 시각 정보, 신원 정보는 데이터베이스(280)의 출입 등록자 리스트와 별도의 리스트(예컨대, 발병 위험자 리스트)로 보관된다.
또한, 통제 서버(200)는 외부의 다른 장치(예컨대, 질병관리본부의 관제 장치)로 단계(S631)의 방문 시각 정보, 또는 단계(S632)의 방문 시각 정보와 신원 정보를 전달할 수도 있다.
일부 실시예예서, 상기 단계(S6)는: 발명 위험자로 판단된 대상자에게 상기 키오스크 장치(100)를 통해 사후 프로세스를 안내하는 단계(S635)를 더 포함할 수도 있다. 상기 사후 프로세스는 발병 위험자에게 자신의 COVID-19의 치료에 도움이 되는 프로세스 및/또는 타인에게 COVID-19의 확산을 억제하기 위한 프로세스를 포함한다.
단계(S631), 단계(S632) 및 단계(S640)의 동작은 도 3에 도시된 순서로 제한되지 않으며, 단계(S64)의 수행 이후 단계(S631), 단계(S632)의 동작이 수행될 수도 있고, 또는 단계(S640)가 단계(S631) 및 단계(S632)와 각각 통합되어 하나의 동작으로 수행될 수도 있다.
상기 키오스크 장치(100) 또는 출입 통제 시스템(1)이 본 명세서에 서술되지 않은 다른 구성요소를 포함할 수도 있다는 것이 통상의 기술자에게 명백할 것이다. 또한, 상기 출입 통제 시스템(1)은, 네트워크 인터페이스 및 프로토콜, 데이터 엔트리를 위한 입력 장치, 및 디스플레이, 인쇄 또는 다른 데이터 표시를 위한 출력 장치를 포함하는, 본 명세서에 서술된 동작에 필요한 다른 하드웨어 요소를 포함할 수도 있다.
이상에서 설명한 실시예들에 따른 비대면 출입 통제를 위한 키오스크 장치 및 이를 포함한 출입 통제 시스템의 동작은 적어도 부분적으로 컴퓨터 프로그램으로 구현되어, 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 예를 들어, 프로그램 코드를 포함하는 컴퓨터-판독가능 매체로 구성되는 프로그램 제품과 함께 구현되고, 이는 기술된 임의의 또는 모든 단계, 동작, 또는 과정을 수행하기 위한 프로세서에 의해 실행될 수 있다.
상기 컴퓨터는 데스크탑 컴퓨터, 랩탑 컴퓨터, 노트북, 스마트 폰, 또는 이와 유사한 것과 같은 컴퓨팅 장치일 수도 있고 통합될 수도 있는 임의의 장치일 수 있다. 컴퓨터는 하나 이상의 대체적이고 특별한 목적의 프로세서, 메모리, 저장공간, 및 네트워킹 구성요소(무선 또는 유선 중 어느 하나)를 가지는 장치다. 상기 컴퓨터는 예를 들어, 마이크로소프트의 윈도우와 호환되는 운영 체제, 애플 OS X 또는 iOS, 리눅스 배포판(Linux distribution), 또는 구글의 안드로이드 OS와 같은 운영체제(operating system)를 실행할 수 있다.
상기 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록신원확인 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장신원확인 장치 등을 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 또한, 본 실시예를 구현하기 위한 기능적인 프로그램, 코드 및 코드 세그먼트(segment)들은 본 실시예가 속하는 기술 분야의 통상의 기술자에 의해 용이하게 이해될 수 있을 것이다.
이상에서 살펴본 본 발명은 도면에 도시된 실시예들을 참고로 하여 설명하였으나 이는 예시적인 것에 불과하며 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 실시예의 변형이 가능하다는 점을 이해할 것이다. 그러나, 이와 같은 변형은 본 발명의 기술적 보호범위 내에 있다고 보아야 한다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해서 정해져야 할 것이다.

Claims (12)

  1. 비대면 출입 통제를 위해 대상자와 상호작용하는 키오스크 장치; 및 상기 키오스크 장치와 통신하여 출입문을 제어하는 통제 서버를 포함한 출입 통제 시스템에 의해 수행되는 출입 통제 방법에 있어서,
    상기 키오스크 장치는 가시광 영상 데이터를 생성하는 가시광 센서 모듈, 적외선에 반응하여 열화상(thermal image) 데이터를 생성하는 적외선 센서 모듈 및 열화상을 획득하는 센싱 유닛 및 향을 분사하는 분사 유닛을 포함하고,
    키오스크 장치가 상기 대상자의 영상을 획득하여 상기 대상자가 존재하는지 여부를 판단하고 상기 대상자의 영상을 상기 통제 서버로 전송하는 단계;
    상기 통제 서버가 상기 대상자의 영상을 사용하여 상기 대상자가 마스크를 착용했는지 여부를 판단하는 단계;
    상기 키오스크 장치가 상기 대상자의 체온을 측정하여 상기 대상자의 체온 상태를 확인하며, 그리고 향을 분사하여 대상자의 향 인지 상태를 확인하고, 상기 대상자의 체온 확인 결과 및 향 인지 결과를 상기 통제 서버로 전송하는 단계;
    상기 통제 서버가 상기 대상자의 영상을 사용하여 상기 대상자가 신원이 출입 등록자인지 여부를 판단하는 단계; 및
    상기 대상자의 체온 확인 결과와 향 인지 상태 결과, 그리고 대상자의 신원 확인 결과에 기초하여 출입문의 개방 여부를 제어하는 단계를 포함하는 출입 통제 방법.
  2. 제1항에 있어서, 상기 대상자가 존재하는지 여부를 판단하는 단계는,
    상기 키오스크 장치(100)의 전면 영상을 획득하는 단계;
    상기 전면 영상에서 움직임이 발생했는지 확인하고 움직임이 발생한 것이 확인되는 것에 반응하여 상기 전면 영상에서 대상자 영역을 검출하는 단계; 및
    상기 검출 결과에 기초하여 대상자의 존재 여부를 판단하는 단계를 포함하는 출입 통제 방법.
  3. 제1항에 있어서, 상기 대상자의 영상을 사용하여 상기 대상자가 마스크를 착용했는지 여부를 판단하는 단계는,
    상기 대상자의 영상에서 얼굴 영역을 검출하는 단계;
    상기 얼굴 영역에서 특징을 추출하여 마스크 착용 점수를 산출하는 단계; 및
    상기 마스크 착용 점수를 사용해 상기 대상자가 마스크를 착용했는지 여부를 판단하는 단계;를 포함하는 것을 특징으로 하는 출입 통제 방법.
  4. 제3항에 있어서,
    상기 마스크 착용 점수는 미리 저장된 마스크 확인 알고리즘을 통해 특징을 추출하여 산출되는 것으로서, 상기 특징은 입력 영상에 나타난 얼굴 부분을 서술하는 특징 및 상기 입력 영상에 나타난 마스크 부분을 서술하는 특징 중 적어도 하나를 포함하고,
    상기 마스크 확인 알고리즘은 마스크를 착용한 훈련 이미지와 착용을 의미한 제1 레이블 데이터;를 포함한 제1 훈련 샘플을 사용하거나, 또는 마스크를 착용하지 않은 훈련 이미지와 미-착용을 의미한 제2 레이블 데이터을 포함한 제2 훈련 샘플을 사용하여 학습된 것을 특징으로 하는 출입 통제 방법.
  5. 제1항에 있어서, 상기 키오스크 장치가 상기 대상자의 체온을 측정하여 상기 대상자의 체온 상태를 확인하는 단계는,
    상기 대상자의 열화상을 획득하는 단계; 및
    측정에 따른 대상자의 체온 확인 결과를 상기 통제 서버로 전송하는 단계를 포함하는 것을 특징으로 하는 출입 통제 방법.
  6. 제5항에 있어서, 상기 키오스크 장치가 상기 대상자의 체온을 측정하여 상기 대상자의 체온 상태를 확인하는 단계는,
    상기 대상자의 열화상에서 얼굴 영역을 검출하고 얼굴에 대한 체온을 측정하는 단계; 및 얼굴과 다른 신체 부분에 대한 체온을 측정하는 단계 중 하나 이상을 더 포함하는 것을 특징으로 하는 출입 통제 방법.
  7. 제1항에 있어서, 상기 향을 분사하여 대상자의 향 인지 상태를 확인하는 단계는,
    상기 분사 유닛에 의해 향을 분사하는 단계;
    분사된 향을 상기 대상자가 인지했는지 문의하는 단계;
    상기 대상자의 디스플레이 터치 혹은 음성 혹은 동작을 통한 응답을 입력 받아 향 인지 결과를 획득하는 단계를 포함하는 것을 특징으로 하는 출입 통제 방법.
  8. 제1항에 있어서, 상기 대상자의 영상을 사용하여 상기 대상자가 신원이 출입 등록자인지 여부를 판단하는 단계는,
    상기 대상자가 마스크를 착용하지 않은 것으로 확인된 경우 상기 대상자의 영상 내 얼굴 영역에서 얼굴 특징을 추출하는 단계;
    상기 대상자가 마스크를 착용한 것으로 확인된 경우 마스크에 의한 가림 영역을 제외한 얼굴 부분에서 얼굴 특징을 추출하거나, 혹은 상기 마스크를 미착용한 얼굴 부분으로 복원하고, 대상자의 마스크 착용 바깥의 얼굴 부분 및 복원된 얼굴 부분에서 얼굴 특징을 추출하는 단계;
    미리 저장된 출입 등록자의 얼굴 특징과 대상자의 추출된 얼굴 특징을 비교하여 대상자와 출입 등록자 간의 얼굴 유사도를 산출하는 단계;
    상기 대상자의 영상에서 귀 영역을 검출하는 단계;
    상기 귀 영역에서 귀 특징을 추출하는 단계;
    미리 저장된 출입 등록자의 귀 특징과 대상자의 추출된 귀 특징을 비교하여 대상자와 출입 등록자 간의 귀 유사도를 산출하는 단계;
    산출된 귀 유사도와 얼굴 유사도 중 하나를 사용하거나 혹은 모두를 결합(concatenate)한 것을 사용하여 대상자와 출입 등록자 간의 최종 유사도를 산출하는 단계;
    최종 유사도와 미리 설정된 신원 임계치를 비교하여 상기 대상자가 출입 등록자인지 신원 확인하는 단계를 포함하는 출입 통제 방법.
  9. 제1항에 있어서,
    상기 통제 서버는 측정된 체온이 정상 체온 범위에 속하는 것을 나타낸 체온 확인 결과, 그리고 대상자가 향을 인지했다는 응답을 나타내는 사용자 응답을 나타낸 향 인지 결과가 획득되면 상기 대상자가 발병 위험자가 아닌 것으로 판단하고,
    상기 출입문의 개방 여부를 제어하는 단계는,
    체온 확인 결과 및 향 인지 결과에 의해 대상자가 발병 위험자가 아닌 것으로 판단되고 그리고 대상자의 신원이 출입 등록자인 것이 확인되면 출입문을 개방하는 단계;
    상기 대상자가 마스크를 착용하지 않은 경우 출입문을 미개방하는 단계; 및
    상기 대상자가 발병 위험자로 판단되면, 출입문을 미개방하는 단계를 포함하는 출입 통제 방법.
  10. 제9항에 있어서, 상기 출입문의 개방 여부를 제어하는 단계는,
    상기 대상자가 발병 위험자로 판단되고 대상자의 신원이 확인되지 않으면, 상기 통제 서버는 상기 발병 위험자의 방문 시각 정보를 상기 키오스크 장치로 요청하여 저장하는 단계; 및
    상기 대상자가 발병 위험자로 판단되고 대상자의 신원이 확인되면, 상기 통제 서버는 상기 발병 위험자의 방문 시각 정보를 상기 키오스크 장치로 요청하고 상기 대상자의 신원 정보 및 방문 시각 정보를 저장하는 단계를 더 포함하는 출입 통제 방법.
  11. 제1항 내지 제10항 중 어느 하나의 항에 따른 출입 통제 방법을 수행하기 위한 프로그램을 기록한, 컴퓨터 판독가능 기록매체.
  12. 비대면 출입 통제를 위해 대상자와 상호작용하는 키오스크 장치; 및 상기 키오스크 장치와 통신하여 출입문을 제어하는 통제 서버를 포함하며,
    상기 키오스크 장치는 상기 대상자의 영상을 획득하여 상기 대상자가 존재하는지 여부를 판단하고, 상기 대상자의 체온을 측정하여 상기 대상자의 체온 상태를 확인하며, 그리고 향을 분사하여 대상자의 향 인지 상태를 확인하고,
    상기 통제 서버는 마스크 확인 모듈 및 신원 확인 모듈을 포함하고,
    상기 마스크 확인 모듈은, 상기 대상자의 영상을 사용하여 상기 대상자가 마스크를 착용했는지 여부를 판단하고,
    상기 신원 확인 모듈은, 상기 대상자의 영상을 사용하여 상기 대상자가 신원이 출입 등록자인지 여부를 판단하는 것을 특징으로 하는 출입 통제 시스템.
KR1020210021864A 2021-02-18 2021-02-18 비대면 출입 통제를 위한 출입 통제 방법 및 이를 수행하는 출입 통제 시스템 KR102521661B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210021864A KR102521661B1 (ko) 2021-02-18 2021-02-18 비대면 출입 통제를 위한 출입 통제 방법 및 이를 수행하는 출입 통제 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210021864A KR102521661B1 (ko) 2021-02-18 2021-02-18 비대면 출입 통제를 위한 출입 통제 방법 및 이를 수행하는 출입 통제 시스템

Publications (2)

Publication Number Publication Date
KR20220118119A true KR20220118119A (ko) 2022-08-25
KR102521661B1 KR102521661B1 (ko) 2023-04-14

Family

ID=83111458

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210021864A KR102521661B1 (ko) 2021-02-18 2021-02-18 비대면 출입 통제를 위한 출입 통제 방법 및 이를 수행하는 출입 통제 시스템

Country Status (1)

Country Link
KR (1) KR102521661B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240055562A (ko) 2022-10-20 2024-04-29 임현근 초소형 머신러닝 모델을 이용한 마스크 착용자의 발열 측정 장치 및 이를 이용한 발열 측정 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010019345A (ko) * 1999-08-26 2001-03-15 김운용 생체인식에 의한 출입통제방법 및 그 장치
KR20190081576A (ko) * 2017-12-29 2019-07-09 재단법인대구경북과학기술원 후각 인지능력 검사 시스템 및 방법
KR20190107867A (ko) 2018-03-13 2019-09-23 (주)바이셀코리아 카메라를 이용한 중앙통제방식의 출입자 인식 자동문 시스템
KR102134903B1 (ko) * 2020-06-08 2020-07-17 주식회사 유니온씨티 감염예방 인증 키오스크

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010019345A (ko) * 1999-08-26 2001-03-15 김운용 생체인식에 의한 출입통제방법 및 그 장치
KR20190081576A (ko) * 2017-12-29 2019-07-09 재단법인대구경북과학기술원 후각 인지능력 검사 시스템 및 방법
KR20190107867A (ko) 2018-03-13 2019-09-23 (주)바이셀코리아 카메라를 이용한 중앙통제방식의 출입자 인식 자동문 시스템
KR102134903B1 (ko) * 2020-06-08 2020-07-17 주식회사 유니온씨티 감염예방 인증 키오스크

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240055562A (ko) 2022-10-20 2024-04-29 임현근 초소형 머신러닝 모델을 이용한 마스크 착용자의 발열 측정 장치 및 이를 이용한 발열 측정 방법

Also Published As

Publication number Publication date
KR102521661B1 (ko) 2023-04-14

Similar Documents

Publication Publication Date Title
US10789343B2 (en) Identity authentication method and apparatus
KR102350507B1 (ko) 출입 제어 방법, 출입 제어 장치, 시스템 및 저장매체
EP3846051A1 (en) Physiological characteristic information-based identity authentication method, device, system and medium
KR102334209B1 (ko) 사용자 인증 방법 및 이를 지원하는 전자장치
Amin et al. Biometric and traditional mobile authentication techniques: Overviews and open issues
US10552596B2 (en) Biometric authentication
US20200151308A1 (en) Brain activity-based authentication
US20220189213A1 (en) Authentication device, authentication method, and recording medium
US11921831B2 (en) Enrollment system with continuous learning and confirmation
JP7509216B2 (ja) 入力制御装置、入力システム、入力制御方法及び入力制御プログラム
US12019724B2 (en) Device and method for authenticating user based on facial characteristics and mask characteristics of the user
KR102521661B1 (ko) 비대면 출입 통제를 위한 출입 통제 방법 및 이를 수행하는 출입 통제 시스템
KR102063745B1 (ko) 측면 프로파일링 기반 신원확인 장치 및 방법
JP2011502296A (ja) バイオメトリック行動コンテキストベースの人間認識のためのシステム及び方法
Srinivasa et al. Continuous multimodal user authentication: coupling hard and soft biometrics with support vector machines to attenuate noise
Abdulkader et al. Authentication systems: Principles and threats
KR20210017230A (ko) 얼굴 영상의 생체 감지 장치 및 방법
KR102339898B1 (ko) 귀 인식 기반 인증을 이용한 모바일 장치 잠금 해제 방법 및 이를 수행하는 모바일 장치
KR102583982B1 (ko) 비대면 출입 통제 방법 및 이를 수행하는 출입 통제 시스템
KR102249663B1 (ko) 귀 인식 기반 신원확인 방법 및 시스템
KR102530141B1 (ko) 인공지능 기반 얼굴 매칭률 산출을 이용하여 얼굴 인증을 하기 위한 방법 및 장치
KR102598434B1 (ko) 마스크 착용에 강건한 신원 확인 모델 학습 방법 및 상기 신원 확인 모델을 사용한 신원 확인 시스템
KR20200084595A (ko) 지문 인증 방법 및 장치
JP7248348B2 (ja) 顔認証装置、顔認証方法、及びプログラム
Indrawal et al. Development of efficient and secured face recognition using biometrics

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant