KR20230128489A - 무질서한 생체 인식 탑승 - Google Patents

무질서한 생체 인식 탑승 Download PDF

Info

Publication number
KR20230128489A
KR20230128489A KR1020237023730A KR20237023730A KR20230128489A KR 20230128489 A KR20230128489 A KR 20230128489A KR 1020237023730 A KR1020237023730 A KR 1020237023730A KR 20237023730 A KR20237023730 A KR 20237023730A KR 20230128489 A KR20230128489 A KR 20230128489A
Authority
KR
South Korea
Prior art keywords
discontinuity
tracked object
data
trajectory
tracked
Prior art date
Application number
KR1020237023730A
Other languages
English (en)
Inventor
토마스 크리스토퍼 볼프강 랜드그레브
피터 호슬리
Original Assignee
아마데우스 에스.에이.에스.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아마데우스 에스.에이.에스. filed Critical 아마데우스 에스.에이.에스.
Publication of KR20230128489A publication Critical patent/KR20230128489A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00563Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys using personal physical data of the operator, e.g. finger prints, retinal images, voicepatterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Valve Device For Special Equipments (AREA)
  • Valve-Gear Or Valve Arrangements (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Collating Specific Patterns (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

적어도 하나의 추적된 객체에 대한 액세스를 제어하기 위한 방법이 개시되며, 방법은, 적어도 하나의 추적된 객체가 촬영된 것으로 가정되는 일련의 2차원 이미지들과, 또한 적어도 하나의 추적된 객체에 대한 위치 데이터를 획득 또는 수신하는 단계; 적어도 하나의 추적된 객체에 고유 추적 식별자를 할당하는 단계; 위치 데이터로부터 적어도 하나의 추적된 객체의 궤적을 결정하는 단계; 궤적 또는 궤적으로부터 계산된 데이터에 불연속성이 있는지를 결정하고, 불연속성이 검출되는 경우, 적어도 하나의 추적된 객체의 하나 이상의 새로운 이미지를 획득 또는 수신하고, 적어도 하나의 추적된 객체에 새로운 고유 추적 식별자를 할당하는 단계; 및 불연속성이 검출되는 경우에는 하나 이상의 새로운 이미지 중 적어도 하나의 이미지에 기초하여, 또는 불연속성이 검출되지 않는 경우에는 일련의 2차원 이미지들로부터의 적어도 하나의 이미지에 기초하여, 액세스가 허용되어야 하는지 여부를 결정하는 단계를 포함한다.

Description

무질서한 생체 인식 탑승
이 개시는 생체 인식 탑승과 관련된 것이다. 특히, 엄격한 질서 있는 프로세스로 제한되지 않는 승객들의 탑승을 용이하게 하기 위해, 승객 식별자들의 할당에서의 개선들과 관련이 있다.
생체 인식 탑승은 전형적으로 승객들이 일렬로 줄을 서 있는 질서 있는 프로세스를 수반한다. 승객들은 질서 있는 대기열(queue)에서 한 명씩 사진 찍히고 그들의 사진들은 승인된 승객들의 데이터베이스와 비교된다. 질서 있는 대기열에서, 승객들 사이의 간격은 종종 공항 직원에 의해, 또는 직원이나 신호계(signage)로부터의 지시를 고수하는 승객들에 의해 유지된다.
대기열에 있는 두 명의 승객들이 서로 너무 가까이 서 있을 때, 생체 인식 신원 확인(biometric identification) 시스템의 안면 캡처 알고리즘은 때때로 혼동을 일으키게 되고, 이에 의해 두 승객들에게 동일한 식별자를 할당하려고 시도한다. 첫 번째 승객이 탑승하였을 때, 매칭 시스템은 두 번째 승객을 유효한 탑승 데이터와 매칭할 수 없게 된다. 앞서 언급한 혼동이 항상 발생하는 것은 아니지만, 혼동이 발생할 때, 프로세스 예외라고 알려진 상황을 초래하고, 전체 탑승 프로세스에 상당한 지연들을 도입한다.
따라서, 탑승 시스템이 “대상(target)” 승객 신원을 이미 탑승한 또 다른 승객의 신원과 혼동하는 것을 피하기 위해, 대기열 간격은 충분히 큰 거리로 유지될 필요가 있다. 그러나, 대기 중인 승객들 사이에 간격을 요구하는 것은 쉽게 탑승 시간을 두 배로 늘릴 수 있다. 대부분의 상황들에서, 프로세스를 유지하기 위해 직원에 의한 상당한 수동의 노력 또한 요구된다.
따라서, 기존의 질서 있는 생체 인식 탑승 프로세스들에서, 달성될 수 있는 프로세스 효율성은, 캡처 기술의 정교함과, 항공사 직원 및 신호계가 예상치 못하거나 바람직하지 않은 승객 행동을 극복할 수 있는 효율성에 의해 제약을 받는다. 승객들이 더 멀리 떨어질 것이 요구될수록, 탑승 프로세스가 더 느려질 것이다.
알려진 모든 생체 인식 탑승 시스템들은, 특히 가까운 안면과 먼 안면을 구분하는 능력이 없을 뿐만 아니라(연령이나 인구의 변화들로 인해 안면부가 정확하지 않음), 시간 경과에 따른 신원 추적 부족으로 인해(잠시 카메라에서 눈을 돌린 사람이 그들 뒤에서 카메라를 보고 있는 사람으로 대체될 수 있음), 이러한 동일한 제한들을 받기 쉽다.
이상적으로, 무질서한 탑승(여전히 일렬로)은 처리 시간을 최소화하고(보행 시간 지연들이 없음) 자동화를 증가시킬 것이다(엄격한 탑승 프로세스들 및 잘 훈련된 관리자들에 대한 더 적은 요구). 구어체로, 이 이슈는 “스태킹 문제(stacking problem)”, 즉 서로 너무 가까이 서고 “쌓이는(stack up)” 경향이 있는 승객들의 대기열에 생체 인식적으로 대처하는 것으로서 알려져 있다.
신원 확인 이슈들을 피하기 위해, 일부 공급업체들은, 승객들이 한 명씩 몸을 돌려 카메라를 향하거나 한 번에 한 명씩 카메라 앞에 나타날 가능성이 더 높도록, 생체 인식 카메라들을 대기열 방향에 대해 직각으로 배치하는 것에 의존한다. 그러나, 승객들은 그들의 이동 방향에 정렬된 카메라보다 더 어렵게 그러한 카메라에 그들 자신을 정렬시킬 것이기 때문에, 이러한 배치는 생체 인식 캡처에 최적이 아니다. 이것은, 대상 승객이 그들 자신을 승객 흐름에 대해 각을 이루고 위치시키기 때문에, 상당한 프로세싱 지연들을 초래한다.
하나의 해결책은, 3차원(3D) 카메라를 통합하여, “깊이” 데이터, 즉 안면이 캡처된 승객과 3D 카메라 사이의 거리를 얻는 것이다. 안면 캡처 시스템은, 예를 들어, 특정 거리 임계치 밖에 있는 임의의 안면들을 무시할 수 있다. 그러나, 이 해결책은 스태킹 문제를 최소화하기 위해 승객들 사이에서 특정 거리가 유지되는 것을 여전히 필요로 한다.
스태킹 문제를 더욱 최소화하는 해결책들이 요구된다. 본 명세서에서 선행 기술이 언급되는 경우, 그러한 참조가, 그 선행 기술이 호주 또는 임의의 다른 국가에서, 기술 분야에서의 통상의 일반 지식의 일부를 형성한다는 점에 대한 인정(admission)을 구성하지는 않는다는 것이 이해되어야 한다.
일 양태에서, 적어도 하나의 추적된 객체에 대한 액세스를 제어하기 위한 방법이 개시되며, 방법은, 적어도 하나의 추적된 객체가 촬영된 것으로 가정되는 일련의 2차원 이미지들과, 또한 적어도 하나의 추적된 객체에 대한 위치 데이터를 획득 또는 수신하는 단계; 적어도 하나의 추적된 객체에 고유 추적 식별자를 할당하는 단계; 위치 데이터로부터 적어도 하나의 추적된 객체의 궤적을 제공하는 단계; 궤적 또는 궤적로부터 계산된 데이터에 불연속성이 있는지를 결정하고, 불연속성이 검출되는 경우, 적어도 하나의 추적된 객체의 하나 이상의 새로운 이미지를 획득 또는 수신하고, 적어도 하나의 추적된 객체에 새로운 고유 추적 식별자를 할당하는 단계; 및 불연속성이 검출되는 경우에는 하나 이상의 새로운 이미지 중 적어도 하나에 기초하여, 또는 불연속성이 검출되지 않는 경우에는 일련의 2차원 이미지들로부터의 적어도 하나의 이미지에 기초하여, 액세스가 허용되어야 하는지 여부를 결정하는 단계를 포함한다.
일부 형태들에서, 불연속성이 있는지를 결정하는 단계는, 궤적으로부터 얻어진 거리 데이터 또는 속도 데이터의 시계열(time series)에 의해, 거리 불연속성 조건 또는 속도 불연속성 조건이 충족되는지를 결정하는 단계를 포함한다.
일부 형태들에서, 불연속성 조건은, 시계열에서 두 개의 데이터 샘플들 사이의 차이가, 1) 임계값(threshold value)을 초과하는지 여부, 또는 2) 임계값 이상인지 여부이다.
일부 형태들에서, 임계치(threshold)는 두 개의 데이터 샘플들이 획득된 시간들 사이의 경과 시간에 적어도 부분적으로 의존한다.
일부 형태들에서, 방법은, 궤적 또는 2차원 이미지들로부터 계산된 통계 또는 메트릭(metric)의 시계열을 제공하는 단계, 및 통계들 또는 메트릭들의 시계열에 의해 통계 또는 메트릭 불연속성 조건이 충족되는지 여부를 결정하는 단계를 더 포함한다.
일부 형태들에서, 방법은, 궤적 또는 궤적으로부터 계산된 데이터에 불연속성이 있는지를 결정하기 전에 통계 또는 메트릭 불연속성 조건이 충족되는지 여부를 확인(check)하는 단계를 더 포함한다.
위에서 언급된 방법은 생체 인식 액세스 제어 방법일 수 있다. 생체 인식 액세스 제어 방법은 또한, 안면 생체 인식 제어 방법일 수 있고, 상기 적어도 하나의 추적된 객체는 사람의 안면부(facial area)이다. 통계 또는 메트릭은 2차원 이미지들로부터 계산된 생체 인식 점수 또는 안면부 크기일 수 있다.
일부 형태들에서, 방법은, 하나 이상의 객체를 검출하기 위해 3차원 이미지에 객체 검출 알고리즘을 적용하는 단계를 포함하고, 각 객체는 상기 적어도 하나의 추적된 객체 중 상기 하나의 객체이다.
일부 형태들에서, 위치 데이터는 적어도 깊이 데이터를 포함한다.
제2 양태에서, 하나 이상의 추적된 객체에 의해 체크포인트를 지나는 통과(passage)가 발생한 횟수를 카운트하기 위한 방법이 개시된다. 방법은, 추적된 각 객체에 의한 통과를 프로세싱하는 단계 및 추적된 객체에 의한 통과를 허가(admit)하는 단계를 포함한다. 각 추적된 객체에 대한 프로세싱은, 추적된 객체가 촬영된 것으로 가정된 일련의 2차원 이미지들과, 또한 추적된 객체에 대한 위치 데이터를 획득 또는 수신하는 단계; 추적된 객체에 고유 추적 식별자를 할당하는 단계; 위치 데이터로부터 추적된 객체의 궤적을 결정하는 단계; 및 궤적 또는 궤적로부터 계산된 데이터에 불연속성이 있는지 결정하고, 불연속성이 검출되는 경우, 추적된 객체의 획득된 하나 이상의 새로운 이미지에 새로운 고유 추적 식별자를 할당하는 단계를 포함한다. 체크 포인트를 지나는 통과가 발생한 횟수를 결정하는 단계는, 할당된 상이한 고유 추적 식별자들의 수를 결정하는 단계를 포함한다.
일부 형태들에서, 통과를 허가하는 단계는, 불연속성이 검출되는 경우에는 하나 이상의 새로운 이미지 중 적어도 하나의 이미지 및 새로운 고유 추적 식별자에 기초하여, 또는 불연속성이 검출되지 않는 경우에는 일련의 2차원 이미지들로부터의 적어도 하나의 이미지 및 기존 추적 식별자에 기초하여, 액세스가 허용되어야 하는지 여부를 결정하는 단계를 포함한다. 체크 포인트를 지나는 통과가 발생한 횟수를 결정하는 단계에서, 통과가 허용된 추적된 객체들에 할당된 추적 식별자들만 카운트된다.
제3 양태에서, 하나 이상의 추적된 객체에 의해 체크포인트를 지나는 통과가 발생한 횟수에 대한 카운트를 추적하기 위한 방법이 개시된다. 방법은, 각 추적된 객체가 촬영된 것으로 가정되는 일련의 2차원 이미지들과, 또한 추적된 객체에 대한 위치 데이터를 획득 또는 수신하는 단계; 추적된 객체에 고유 추적 식별자를 할당하는 단계; 위치 데이터로부터 추적된 객체의 궤적을 결정하는 단계; 궤적 또는 궤적로부터 계산된 데이터에 불연속성이 있는지를 결정하고, 불연속성이 검출되는 경우, 추적된 객체의 획득된 하나 이상의 새로운 이미지를 획득 또는 수신하고, 추적된 객체에 새로운 고유 추적 식별자를 할당하는 단계; 불연속성이 검출되는 경우에는 하나 이상의 새로운 이미지 중 적어도 하나의 이미지에 기초하여, 또는 불연속성이 검출되지 않는 경우에는 일련의 2차원 이미지들로부터의 적어도 하나의 이미지에 기초하여, 통과가 허용되어야 하는지 여부를 결정하는 단계; 및 통과가 허용되는 것으로 결정되는 경우 카운트를 증가시키는 단계를 포함한다.
제4 양태에서, 하나 이상의 입구 지점, 또는 하나 이상의 출구 지점, 또는 둘 다를 갖는 운송 수단(transport)의 모드 또는 프레미스(premise)에 대한 액세스를 제어 또는 모니터링하는 방법이 개시되며, 각 입구 지점에서, 각 출구 지점에서, 또는 둘 다에서, 위에서 언급한 것과 같은 제1 또는 제2 양태들의 방법을 구현하는 것을 포함한다.
제5 양태에서, 위의 양태들 중 임의의 양태에서 언급된 방법을 포함하는, 생체 인식 액세스 제어 방법이 개시된다.
방법은, 안면 생체 인식 액세스 제어 방법일 수 있으며, 추적된 객체는, 사람, 예를 들어 여행 차량(vehicle)에 액세스하기를 원하는 승객 형태의 안면부이다.
통계 또는 메트릭은, 2차원 이미지들로부터 계산된 생체 인식 점수 또는 안면부일 수 있다.
방법은, 하나 이상의 객체를 검출하기 위해 3차원 이미지에 객체 검출 알고리즘을 적용하는 단계를 포함할 수 있고, 각 객체는 추적된 객체이다.
제6 양태에서, 기계 판독 가능 명령어들이 저장된 컴퓨터 판독 가능 매체가 개시되며, 기계 판독 가능 명령어들은, 실행될 때, 위에서 언급된 양태들 중 임의의 양태에 따른 방법을 수행하도록 조정(adapt)된다.
제7 양태에서, 기계 판독 가능 명령어들을 실행하도록 구성되는 프로세서를 포함하는 액세스 제어 시스템이 개시되며, 기계 판독 가능 명령어들은, 실행될 때, 위에서 언급된 양태들 중 임의의 양태에 따른 방법을 수행하도록 조정된다.
일부 형태들에서, 시스템은 이미지 캡처 배열을 포함하며, 배열은 2차원 카메라와 3차원 카메라를 포함한다.
사용 시, 이미지 캡처 배열은 액세스 제어 시스템에 의해 프로세싱될 대상자(subject)들의 대기열 바로 앞에 위치될 수 있다.
액세스 제어 시스템은 생체 인식 탑승 시스템일 수 있다.
제7 양태에서, 각 대상자를 차례로 프로세싱하기 위해, 생체 인식 액세스 제어 시스템을 사용함으로써, 대기열에 서 있는 하나 이상의 대상자에 의한 액세스를 제어 또는 모니터링하는 방법이 개시되며, 생체 인식 액세스 제어 시스템은 대기열의 방향을 직접 향하는 이미지 캡처 배열을 포함한다. 제공되는 생체 인식 액세스 제어 시스템은, 위에서 언급된 제6 양태에 따른 것일 수 있다.
실시예들이 이제 첨부된 도면들을 참조하여 예시적으로만 설명될 것이며,
도 1은 일 실시예에 따른 생체 인식 탑승 시스템의 개략적 표현이고;
도 2는 분석될 추적된 리스트들로부터 궤적들을 생성하기 위한 예시적인 프로세스의 개략적 표현이고;
도 3의 (1)은 불연속성을 포함하는 추적된 객체의 깊이 이력의 예시이고;
도 3의 (2)는 불연속성을 포함하는 추적된 객체의 계산된 안면부 크기의 시계열의 예시이고;
도 4는 불연속성 분석 모듈에 의해 이용되는 프로세스의 예시를 개략적으로 묘사하고;
도 5는 예시적인 불연속성 검출 알고리즘을 개략적으로 묘사하고;
도 6은 생체 인식 탑승 디바이스를 개략적으로 묘사하고;
도 7은 예시적인 "포드(pod)" 타입 탑승 디바이스의 사시도(perspective view)를 도시하고;
도 8은 카메라가 대기열 바로 앞에 배치되는 탑승 대기열을 묘사하고;
도 9는 시스템에 의해 제공되는 예시적인 인터페이스를 묘사하고;
도 10의 (1) 내지 (4)는 승객 인터페이스 상에서 표시될 수 있는 예시적인 디스플레이들을 묘사한다.
다음의 상세한 설명에서는, 상세한 설명의 일부를 형성하는 첨부된 도면들에 대한 참조가 이루어진다. 도면들에 묘사된 상세한 설명에 설명된 예시적인 실시예들은 제한적인 것으로 의도되지 않는다. 제시된 주제의 정신이나 범위를 벗어나지 않고 다른 실시예들이 활용될 수 있고 다른 변경들이 이루어질 수 있다. 본 명세서에서 일반적으로 설명되고 도면들에서 예시되는 바와 같이, 본 개시의 양태들은, 이 개시에서 고려되는 모든 매우 다양한 상이한 구성들로 배열, 치환, 결합, 분리 및 설계될 수 있다는 것이 쉽게 이해될 수 있을 것이다.
본 명세서에 개시된 발명의 양태들은, 항공기, 또는 기차, 유람선 등과 같은 운송 수단의 또 다른 모드에 대한 승객들의 생체 인식 탑승에 활용될 수 있다. 또한, 게이트들, 라운지들, 문들, 또는 제한 구역들에서 객체의 생체 인식들을 모니터링하고 결정하는 것을 수반하는 애플리케이션들에 활용될 수 있다. 또한, 많은 애플리케이션들이 안면 생체 인식들의 사용 및 결정을 수반하지만, 다른 생체 인식들(예를 들어, 손, 지문, 망막 등)이 사용되거나 결정될 수 있다. 단순화를 위해, 발명의 상이한 양태들이 안면 생체 인식들을 사용하는 탑승 승객들의 맥락에서 설명될 것이다.
승객 탑승에 요구되는 승객 데이터를 얻기 위해, 안면 생체 인식 탑승은, 승객으로부터 하나 이상의 안면 이미지를 캡처한 다음 캡처된 이미지와 참조 승객 데이터베이스 사이의 매치(match)를 수행하는 것을 수반한다. 전형적으로, 알고리즘은, 다수의 이미지들을 캡처한 다음 캡처된 이미지들로부터 최상의 이미지를 선택하는 것을 시도할 것이며, 최상의 이미지는 매칭을 수행하는 데 사용될 것이다. 이러한 최상의 이미지들은, 탑승이 승인된 승객들과 매칭되는 경우, 나중에 액세스되도록 로컬 또는 원격 메모리 위치에 저장될 수 있다. 예를 들어, 승객들의 안면 이미지들은, 탑승할 때 매칭 목적들을 위해 사용된 저장 이미지들 중 임의의 것과 매칭되는지 여부를 확인하기 위해, 비행기에서 내리거나 게이트에 도착 시, 본 명세서에 개시된 시스템을 사용하여 캡처되고 프로세싱될 수 있다.
많은 상황들에서, 대기열을 형성하도록 지시를 받는 다수의 승객들이 있을 것이며, 이에 의해 각 생체 인식 탑승 기계에 의해 한 번에 한 명씩 승객들에 대한 생체 인식 탑승이 이루어질 수 있다. 이것을, 가능한 한 빨리, 그리고 오류들을 도입하지 않고 수행하는 것은, 물류 및 경제적 이유들 모두를 위해 중요하다. 본 명세서에 개시된 양태들 및 실시예들은, 본 문서에서 설명될 바와 같이, 탑승 시간의 감소를 용이하게 하는 기술적 도구를 제공한다.
본 명세서에 설명된 발명은, 종종 서로 너무 가까이 서 있는 승객들로 인해 초래되는, 생체 인식 애플리케이션들이 서로 다른 승객들 사이를 분리할 수 없는 가능성들을 줄이기 위해, 생체 인식 탑승 또는 입장 애플리케이션들에의 통합에 적합하다. 따라서, 발명은, 종래 기술 프로세스들에서와 같이 승객들이 서로 멀리 떨어진 채로 남아 있을 필요가 없는 무질서한 프로세스를 허용할 수 있으면서도, 시간 초과 이슈들이 트리거될 가능성이 최소화된다.
생체 인식 탑승에서, 생체 인식 카메라들은 카메라들의 시야 내에 있는 승객들이 시간 경과에 따라 “추적되는” 방식으로 작동한다. 이는, 승객들에 대한 신원 확인 및 탑승 프로세스를 반복해야 하는 것을 필요하게 만드는 오류 이벤트들의 발생을 줄이는 것을 돕는다. 시간 경과에 따라 승객들을 "추적"함으로써, 생체 인식 프로세싱에 적합하지 않은 표준 이하의 안면 이미지들은 폐기되도록, 다수의 이미지들을 획득하는 것 또한 가능하다. 발명자들은, 실제로, 안면 매칭이 발생하기 전에 "충분히 좋은" 안면 이미지들이"훨씬 더 좋은" 안면 이미지들로 빠르게 교체된다는 것을 인지했다. 이는 좋은 안면 매치의 가능성을 증가시키고 또한 매치되지 않는 가능성을 감소시킨다. 전형적으로 0.5 내지 5.0 fps로 실행되는 안면 매칭 알고리즘들에 대해 충분한 것보다 많은 이미지들을 생성하는, 안면 이미지 캡처가 초당 10 내지 15 프레임(fps)으로 실행되는 시험들에서 발명자들이 주목한 바와 같이, 이것은 프로세싱 시간을 절약할 수 있다.
그 내용이 참조로서 통합되는, AU 2019272041에 개시된 발명자들에 의한 이전 출원에서는, 생체 인식 탑승을 용이하게 하기 위해 2차원(2D) 및 3차원(3D) 데이터를 모두 사용하는 디바이스들 및 시스템들이 설명된다.
본 명세서에 개시된 발명은 또한, 카메라 시스템으로부터의 2D 및 3D 정보를 사용하여 대상자들을 추적한다. 승객 간격이 강제되지 않을 때 때때로 발생하는 신원 추적 실패들을 해결하기 위해 불연속성 분석을 사용한다. 특히, 추적된 승객 이력의 시계열이 분석되어, 추적 실패가 있을 때 발생하는 특정 불연속 패턴을 검출한다.
따라서, 일반적으로 말하면, 발명은 추적된 승객들(즉, 추적된 안면들)에 대한 위치 데이터의 시계열을 생성하고, 추적된 위치에 불연속성이 있었는지 여부를 결정하는 것을 수반한다. 불연속성이 검출되었을 때, 이것은, 예를 들어, 생체 인식 탑승 시스템이 이미 탑승한 것으로 결정된 승객을 탑승시키려고 시도하는 오류 조건이 발생했음을 나타내는 표시자로서 취급된다.
설명될 바와 같이, 이러한 오류가 검출되면, 대상자 (또는 그에 대한 추적된 객체)에 새로운 고유 추적 식별자를 재할당하기 위해, (생체 인식 매칭에 앞서) 대상자의 안면 이미지를 다시 획득하는 것에 의해 처리된다.
발명은, 대기열의 앞에 있는 사람이 생체 인식 카메라의 시야를 떠나고(즉, 항공기 탑승을 위해 떠나고), 바짝 뒤에 있는 또 다른 사람이 첫 번째 사람이 차지했던 시야 내의 동일한 공간 구역 내로 이동하는 문제를 해결하는 것을 목표로 한다.
어쩌면, 대기열의 앞에 있는 사람은, 비행기를 탑승하기 위해 떠나는 것이 아니라, 예를 들어, 그들이 일시적으로 눈길을 돌리거나 이동하는 경우, 생체 인식 카메라의 시야에서 일시적으로만 떠날 수 있다. 생체 인식 카메라 자체는 일부 폐색(occlusion) 핸들링을 가지며, 추적이 시작되기 전에 안정된 안면을 필요로 한다. 따라서, “눈길 돌리기(look away)”가 짧은 경우, 일정 시간이 경과할 때까지 뒤에 서 있는 사람은 추적된 안면으로 고려되지 않을 것이며, 앞에 있는 사람은 폐색 동안 그들의 추적 식별자로 유지될 것이다.
그러나, 대기열의 앞에 있는 사람이, 뒤에 있는 사람의 안정적인 안면이 포착될 수 있을 만큼 충분히 긴 기간 동안 카메라의 시야로부터 사라지는 경우(예를 들어, 그들의 신발 끈을 묶기 위해 몸을 구부리는 경우), 뒤에 있는 사람이, 카메라의 시야 내의 동일한 공간 구역 내에서 안면이 보이게 될 정도로 충분히 가까이 서 있는 경우, 불연속성이 검출될 것이다. 시야 내에 있는 (뒤에 있는 사람의) 다음 안면이, 그 다음에, 새로운 추적기 식별자로 추적될 것이다.
이 이벤트에서, 프로세싱이 실패하고, 다음과 같은 일이 발생할 것이다:
- 첫 번째 앞사람이 시야에서 벗어나는 동안, 두 번째 사람이 추적되고, 인증되며, 그들이 탑승할 것이라고 표시될 것이다. 앞사람이 다시 시야 내로 이동하면, 그들은 전형적으로 새로운 고유 추적기 식별자를 다시 받는다.
- 앞사람이 뒷사람(두 번째 사람)의 생체 인증에 기초하여 이미 "탑승"했지만 카메라의 시야로 다시 들어온 경우, 시스템은 승객에게 그들이 "이미 탑승했다"고 알려줄 것이다.
- 앞사람이 뒷사람(두 번째 사람)의 생체 인증에 기초하여 "탑승"하였고, 시야로 돌아가지 않고 비켜 이동하고, 두 번째 사람이 앞으로 걸어가는 경우, 시스템은 두 번째 사람에 대해 안면 캡처 및 매칭을 다시 시도할 것이고, 두 번째 사람에게 그들이 "이미 탑승했다"고 보고할 것이다.
- 뒷사람이 앞사람과 동일한 공간적 위치에 있고 추적 식별자들이 변경되지 않는 가상 상황에서, 이 출원에서 설명된 것과 동일한 불연속성 검출기는, 새로운 추적 식별자가 생성되는 것을 초래할 것이고, 그 다음 새로운 추적된 안면이 생성되고, 승객은 "이미 탑승했다"라는 알림을 받을 것이다.
이러한 방식으로, “이미 탑승했다”라는 알림이 항공사/공항 직원이 예외를 처리하도록 유도할 처리 시간을 희생하면서, 프로세스 무결성이 유지될 수 있다.
게다가 생체 인식 탑승 프로세스들을 위해 두 개의 추가 보호책들이 다음과 같이 구상되어 있다:
- 화면에 좌석 번호를 디스플레이하고, 승객들에게 추가의 수동 확인을 제공하는 것; 그리고
- 비정상적인 시나리오들을 발견하고 필요한 경우 추적 시스템을 리셋할 수 있도록 훈련되어야 하는 관리자가 승객들 앞 데스크에 있다.
이제 발명의 실시예들이 보다 상세히 설명된다. 도 1은 발명의 일 실시예에 따른 생체 인식 탑승 시스템(100)을 개념적으로 묘사한다. 시스템(100)은 생체 인식 데이터를 프로세싱하고 대상자가 탑승해야 하는지 여부를 제어하도록 조정된다. 시스템(100)은 시스템(100)을 구현하기 위한 하드웨어를 수용하는 디바이스 내에 위치한 컴퓨팅 수단 또는 서버 컴퓨터에 상주할 수 있는 프로세싱 모듈(102)을 포함한다.
프로세싱 모듈(102)은 2차원(2D) 이미지들을 포함하는 제1 데이터(104)와, 또한 이미징된 객체들의 위치 정보를 제공하는 제2 데이터(106)를 수신하도록 조정된다. 2차원 이미지들(104)은 객체들의 이미지들이고, 제2 데이터(106)는 이미지들을 캡처하는 디바이스에 대한 이미징된 객체들의 위치에 관한 정보를 제공한다. 안면 생체 인식 탑승 애플리케이션에서, 이미징된 객체들은 대상자들의 안면 이미지들이다. 제2 데이터(106)는 깊이(z-축) 정보일 수 있고, 3차원(3D) x, y, z 위치 정보일 수 있다. 위치 정보는 3차원(3D) 카메라에 의해 캡처될 수 있다. 특정 실시예에 따라, 프로세싱 모듈(102)은 또한, 포인트 클라우드 데이터, 적외선 또는 레이저 스캐닝 데이터와 같은 추가 측정 데이터(108)에 액세스 가능할 수 있다.
프로세싱 모듈(102)은 검출 모듈(110), 추적 모듈(112) 및 불연속성 분석 모듈(114)을 포함한다. 제1 데이터(104) 및 제2 데이터(106)는, 획득 디바이스(들)의 시간 해상도(들)로 연속적으로 획득되어 검출 모듈(110)에 제공된다. 검출 모듈(110)은 들어오는 이미지 프레임들에서, 관련 객체들, 이 경우에는 안면들을 검출하도록 조정된다. 추적 모듈(112)은 검출된 안면들을 추적하고 시간 경과에 따른 그들의 위치를 기록하여, 검출된 안면들 각각에 대한 위치 데이터의 시계열인 궤적 데이터(116)를 생성하도록 조정된다.
동일한 대상자의 이미지 데이터로서 고려되는 각 일련의 이미지 데이터(104)는, 생체 인식 매칭 모듈(118)에 제공될 것이다. 그 다음, 프로세싱되는 대상자의 탑승 적격(eligibility)을 확인하기 위해, 승객들의 참조 데이터베이스에서 매치를 찾도록 생체 인식 매칭이 수행된다. 그러나, 생체 매칭 모듈(118)에서 생체 매칭이 발생하기 전에, 시스템(100)은 먼저, 일련의 이미지 데이터(104)가 실제로 동일한 사람을 촬영한 것이라는 가정에 오류가 있을 수 있는지 여부를 확인한다.
이것은, 궤적 데이터(116)를 분석하고 임의의 추적된 객체들(예를 들어, 안면들)의 궤적(116)에 임의의 불연속성이 존재하는지 여부를 확인함으로써 수행된다.
추적된 리스트에서의 불연속성의 검출은, 그 다음, 추적된 리스트와 연관된 추적된 대상자의 신원을 해결하도록 시스템(100)을 트리거한다.
도 2는 분석될 궤적들을 생성하기 위한 프로세스(200)의 일 실시예를 개념적으로 묘사한다. 이 실시예에서, 제1 데이터(104)는 고해상도 2D 카메라에 의해 제공되는 이미지 데이터이고, 제2 데이터(106)는 3D 카메라에 의해 제공되는 이미지 데이터이다. 두 개의 카메라들은 추적된 객체들의 위치 데이터를 모으기 위해 상호 교환적으로 또는 함께 사용될 수 있다. 발명자들에 의해 제안된 실용적인 예시에서, 초당 10 내지 20 프레임의 프레임 레이트를 갖는 3D 카메라가 프로세싱 모듈(102)에 z-축 (및 선택적으로 x-축 및 y-축) 정보를 제공하고, 객체가 올바른 배향에 있는 것으로 결정될 때, 고해상도 2D 카메라가 생체 인식 매칭 모듈(118)에서 생체 인식 매칭을 위해 사용될 객체의 정적 이미지(들)을 촬영한다. 승객의 작은 움직임들에도 불구하고 (카메라 시점으로부터) 안면 위치가 상대적으로 일정하게 남아있기 때문에, 2D 카메라와 3D 카메라의 엄격한 동기화는 요구되지 않는다. 하나의 제약은, 승객의 움직임들이 잘못된 위치 측정을 초래하지 않도록, 카메라들의 샘플링 레이트들이 충분히 높을 필요가 있다는 것이다. 실제 실험들은 샘플링 레이트의 하한은 약 5fps라는 것을 발견했다.
단계 202에서, 객체들을 포함하는 것으로 결정된 3D 이미지 데이터(106)를 사용하여 계산된 3D 영역들로 제한되는, 고해상도 2D 이미지 데이터(104)의 각 프레임에 객체 검출 알고리즘이 적용된다. 2D 객체 검출 데이터와 3D 데이터의 공동 등록(co-registration)은, 객체 - 여기서는 안면 - 영역의 3D 위치 정보를 제공한다. 이것은, 검출된 객체들의 고해상도 이미지들(예를 들어, 고해상도 안면 이미지들) 및 각 시간 인스턴스에서의 그들의 위치의 리스트를 생성한다.
단계 204에서, 위치 정보는 단계 206에서의 추적 모듈에 제공되도록 로그(log)된다. 위치 정보가 로그될 수 있는 몇몇 방식들이 있다. 3D 이미지 데이터로부터 추출된 일련의 이미지들이 로그될 수 있고, 그 다음, 추적 모듈은, 이미지들을 분석하고, 예를 들어 객체 이미지의 상대적인 픽셀 변위를 분석함으로써, 일련의 이미지들에서 객체 이미지의 움직임의 궤적을 결정한다. 대안적으로, 2D 카메라는, 일부 움직임이 발생했다고 결정될 때, 3D 이미지들의 실시간 분석에 따라 및/또는 일정한 간격들로 이미지들을 촬영하도록 트리거될 수 있다. 따라서, 저장된 데이터는, 3D 이미지들, 2D 이미지들 또는 이미지들의 특정 피처들의 단순 위치 정보, 또는 위의 것들의 조합일 수 있다. 저장된 데이터는 일련의 이미지들에서 움직임을 추적하는 데 사용될 수 있는 이미지들과 관련된 임의의 데이터일 수 있다.
단계 206에서, 궤적들(208)을 갖는 객체들(안면들)의 추적된 리스트를 생성하기 위해, 추적된 데이터(206)를 업데이트하도록 추적 모듈(112)에 t = tn에서의 데이터가 제공된다.
단계 208에서, 궤적들(116)을 갖는 객체들의 추적된 리스트가 불연속성 분석 모듈(114)에 제공될 것이다. 전형적으로, 특히 대상자들(승객들)이 일렬로 대기열에 있는 시나리오에서는, 하나의 추적된 리스트가 있을 것이다. 불연속성 분석 모듈(114)은 궤적들 중 임의의 것에 불연속성이 있었는지 여부를 결정하고, 필요한 경우 객체를 스택 해제(de-stack)한다. 불연속성의 검출은, 임계치를 충족하거나 초과하는 데이터 샘플들 간의 변화, 또는 검출된 속도 또는 특이점과 같은, 데이터 내의 또 다른 통계적 속성에 기초할 수 있다. 이것은, 객체의 신원 혼동으로 인해 생체 인식 탑승 시스템이 멈추는 것(stalling)을 방지한다.
도 3의 (1)은 불연속성을 포함하는 추적된 객체의 예시적인 깊이 이력을 예시한다. 수평축은 t=t1부터 t=t8까지의 일련의 시간을 도시한다. 수직축은 궤적으로부터 계산된 t = t1 내지 t8에서 획득된 안면 이미지들과 관련된 깊이 정보를 도시한다. 깊이 정보는 이미지가 획득되는 각 시간 인스턴스에서 이미지 캡처 디바이스로부터 객체의 거리(밀리미터 또는 "mm"로 측정됨)이다. 첫 번째 시간 프레임 또는 인스턴스(t=t1)로부터 여섯 번째 시간 프레임(t=t6)까지, 대상자(A)가 이미지 캡처 디바이스를 향해 걸어가면서 거리가 점차 감소한다. 대상자(A)는 승객 리스트와 생체 인식적으로 매칭되고(위에서 설명한 대로 대상자(A)에 대해 고유 추적기 식별자가 생성됨), 대상자(A)는 t = t7에서 돌아서서 걸어간다. 대상자(B)는 대상자(A)의 바짝 뒤에 서 있으며, 대상자(A)가 시야(FOV)를 완전히 떠나기 전에, 이미지 캡처 디바이스의 FOV 내에서 이제 보인다. 따라서, 이미지 캡처 디바이스는 대상자(A)가 돌아서는 흐릿한 이미지와 또한 대상자(B)의 안면 이미지를 획득한다. 그 다음, 시스템은 대상자(B)의 이미지를 대상자(A)의 이미지로 처리한다. 대상자(B)와 관련하여 캡처된 데이터는 이제 대상자(A)와 동일한 추적된 궤적에 포함된다. 그러나, 대상자(B)가 대상자(A)보다 일부 거리만큼 뒤에 서 있으므로, 거리 데이터는 t=t6에서의 약 330mm로부터 t=t7에서의 약 770mm로 점프한다. 추적된 궤적에서의 불연속성은 t=t7에서 발생한 것으로 로그된다. 이제 이미지 캡처 디바이스의 FOV 내에 새로운 객체가 있을 가능성이 있다고 나타내는 알림이 생성되고 이미지 프로세싱이 다시 시작되어 대상자(B)에 대한 새로운 추적기 식별자가 생성되며, 더 이상 대상자(B)의 이미지를 대상자(A)의 이미지로 취급하지 않고, 이를 새로운 객체의 이미지로 인식한다.
도 3의 (2)는 추적된 데이터에 포함된 일련의 이미지들에서 각 이미지 샘플의 추적된 안면으로부터 계산된 안면부 크기들의 이력을 도시한다. 수평축은 t=t1부터 t=t10까지의 일련의 시간을 도시한다. 수직축은 안면부의 크기들(밀리미터 제곱 또는 "mm2”으로 측정됨)을 도시한다. 원시(raw) 계산된 안면부 데이터 지점들은 사각형들로 표현된다. 원들은, 예를 들어, 데이터를 평활화하고 중요하지 않은 불연속성들(예를 들어, 분산 임계치 미만의 것들)을 제거하기 위해, 원시 데이터에 필터를 적용한 결과의 데이터 지점들을 나타낸다. t = t6에서, 검출된 이미지의 안면부에서 약 6300mm2로부터 대략 5800mm2까지의 약간의 감소가 있다. 이 감소는 불연속성이 있다는 선언을 트리거하지 않을 만큼 충분히 작다. 이 작은 감소는 t = t5와 t = t6 사이의 대상 승객의 움직임에 기인한 것일 수 있다. 그러나, t = t7에서, 검출된 이미지들에서 안면부의 약 2000mm2로의 더 큰 감소가 있으며, 이는 동일한 사람에 대한 안면부의 크기의 예상된 변화(즉, 임계치)보다 더 크다. 따라서, t = t7에서, 안면부의 크기에서 불연속성이 검출된다. 따라서, 도 3의 (2)는, 도 3의 (1)에 도시된 궤적 데이터를 입증하는 t = t7에서의 불연속성이, 안면부에서의 불연속성의 검출을 사용하여 또한 (또는 대안적으로) 확인되는 예시를 도시한다.
불연속성이 검출되는 데 필요한 안면부 크기의 변화량의 임계치는, 안면 크기 관련 통계들, 예상되는 이동 속력 및 샘플링 레이트(즉, 두 이미지 샘플들 사이의 예상되는 시간 경과)와 같은 다수의 인자들을 사용하여 결정될 수 있다.
도 4는 불연속성 분석 모듈(114)에 의해 이용되는 프로세스(400)의 예시를 개략적으로 묘사한다. 프로세스(400)가 시작될 때, 시스템은 어떠한 불연속성도 검출하지 못했고, 추적된 리스트들 중 어느 것도 프로세싱되지 않았다(스테이지 402). 이 스테이지에서, 각 추적된 리스트는 동일한 대상자와 관련된 일련의 이미지 데이터와 궤적을 포함하는 것으로 추정되며, 그것에 할당되는 하나의 고유한 추적 식별자를 갖는다.
불연속성 분석 모듈(114)은, 추적된 리스트들에 불연속성들이 있는지 검출하기 위해, 추적된 각 리스트를 차례로(404) 프로세싱할 것이다(406). 설명된 바와 같이, 검출된 불연속성은 스태킹 오류의 표시이며, 이는 대상자에 새로운 고유 추적 식별자를 할당하는 것에 의한 객체의 스태킹 해제를 필요로 한다.
이용 가능한 추적된 리스트가 없거나 시스템이 불연속성들을 검출하지 않고 이용 가능한 모든 추적된 리스트들을 프로세싱한 경우(408), 불연속성 분석 모듈(114)은 추적된 객체들 중 임의의 것에 새로운 고유 추적 식별자를 할당(426)하지 않고 그것의 프로세싱을 종료한다(410).
이용 가능한 적어도 하나의 추적된 리스트가 있는 경우(412), 시스템은 시간 경과에 따른 3D 위치의 변화를 결정하기 위해 그것의 궤적을 추출함으로써(단계 414) 다음 이용 가능한 리스트를 프로세싱한다. 궤적은 불연속성 검출 알고리즘에 의해 분석되어(416), 데이터에 불연속성이 존재하는지를 검출한다(418). 불연속성은 추적된 객체의 궤적, 또는 추적된 객체와 관련된 또 다른 통계 또는 메트릭, 또는 이들의 조합 내에 있을 수 있다.
불연속성이 검출되지 않은 경우(420), 시스템은 다음 추적된 리스트를 프로세싱한다(404). 불연속성이 검출된 경우(422), 그 추적된 리스트가 기록에 추가될 것이다(424). 기록은, 불연속성이 검출된 임의의 추적된 객체들과 관련된 데이터를 저장하기 위해 제공된다. 기록은 데이터베이스 또는 링크된 리스트일 수 있고, 또 다른 데이터 구조를 가질 수 있다. 그 다음, 시스템은 다음 추적된 리스트를 프로세싱하도록 넘어간다(404).
프로세싱할 추적된 리스트가 더 이상 없는 경우(408), 프로세싱된 리스트들 중 임의의 리스트가, 그 데이터가 불연속성을 포함하는 추적된 객체들의 것으로 확정되었는지를 확인(see)하기 위해, 시스템은 앞서 언급한 기록을 확인(check)할 것이다. 추적된 객체의 신원의 모호성을 해결하기 위해, 기록에 포함된 각 추적된 객체는, 그것에 할당된 새로운 추적 식별자를 가질 것이다. 새로운 추적 식별자는 이전에 탑승한 임의의 승객들과 연관된 추적 식별자들과는 다를 것이다.
바람직한 실시예들에서, 추적된 객체에 새로운 추적 식별자를 할당하는 것은, 추적된 객체의 새로운 이미지들을 캡처하도록 이미지 캡처 디바이스를 또한 트리거할 것이다. 이러한 새로운 이미지들은 새롭게 할당된 추적 식별자와 연관되어 생체 인식 매칭 모듈(118)로 전달될 것이다(도 1 참조).
생체 인식 탑승의 맥락에서, 시스템은 이제, 새롭게 할당된 추적 식별자가 참조된 리스트 내의 어떤 대상자와도 생체 인식적으로 매칭되지 않았음을 인식하고, 매칭을 수행하여 추적된 객체의 탑승을 허용 또는 거부할 수 있다.
도 5는 예시적인 불연속성 검출 알고리즘(500)을 개략적으로 묘사한다. 단계 502에서, 불연속성 검출 알고리즘은 추적된 리스트로부터 얻은 궤적을 입력으로서 수신한다. 이 특정 실시예에서, 알고리즘은 획득된 이미지들과 연관된 깊이 데이터의 시계열에서 불연속성을 평가하기 위해 제공된다. 따라서, 단계 504에서, 깊이 데이터의 시계열이 궤적으로부터 결정되거나 추출된다. 추출된 데이터의 양은 최근 이력, 예를 들어, 가장 최근의 기간으로 제한될 수 있다. 기간은 수 초, 예를 들어, 3초일 수 있다.
단계 506에서, 필터를 적용함으로써, 단계 504로부터 결정된 데이터가 평활화된다. 이것은, 노이즈로부터의 영향을 제거하기 위해 수행될 수 있지만, 필요 단계는 아니다. 이 단계가 포함되는 경우, 적용되는 필터는, 바람직하게 신호 내에서 고주파 성분으로 예상될 불연속성을 유지하는 데 적합한 하나이다. 따라서, 필터는, 불연속성을 검출하는 능력을 유지하면서 프로세싱되는 신호의 타입에 적합하도록 구체적으로 설계되어야 할 필요가 있을 수 있다.
단계 508에서, 각 시간 샘플에서 불일치 점수(disparity score) 또는 불연속성 점수가 계산된다. 이것은, 단순히 두 개의 연속된 시간 샘플들 간의 데이터 간의 차이의 계산을 수반한다. 단계 510에서, 알고리즘은 불일치 점수가 불연속성 조건을 충족하는지 여부를 결정한다. 결정은 임계치에 기초할 수 있으며, 불일치 점수가, 임계치를 초과하는 것일 수 있는 불연속성 조건을 충족하는 경우, 또는 대안적으로 불일치 점수가 적어도 임계치와 같은 경우, 알고리즘은 불연속성이 발생하였다고 결정한다. 예를 들어, 단계 508과 510에서의 계산은 다음과 같을 수 있다:
Δtn = Xtn - Xtn-1, 여기서 Δtn은 시간 t = tn에서의 불일치 점수이고, Xt는 시간 t에서의 데이터 샘플의 값이고, Xtn-1는 시간 t = tn-1에서의 데이터 샘플의 값이다.
시간 tn에서의 불연속성 조건은 Δtn ≥ 임계치인 경우 충족된다.
임계치는, 데이터에서 예상되는 노이즈 범위, 또는 두 개 이상의 이미지 프레임들 사이에서 사람들의 위치의 예상되는 위치 변화량(이에 따라 카메라의 프레임 레이트에 의존적임), 또는 이 둘의 조합에 의존할 수 있다.
게다가, 대기열의 두 번째 사람이 그들 뒤에 있는 첫 번째 사람의 머리의 깊이보다 작을 가능성은 극히 낮다는 점을 알고 있으므로, 임계치는 사람의 머리의 평균 깊이의 일부 인자가 될 수 - 또는 최소치를 가질 수 - 있다.
대안적인 불연속성 조건은 거리(z)의 변화율(즉, 속도 또는 속력)일 수 있다. 3D 카메라의 샘플링 레이트/프레임 레이트가 시간 샘플들 tn에서 측정되는 경우, 말하자면, 프레임당 120mm 또는 120mm/s 또는 일부 다른 적절한 값보다 큰 거리(z)의 변화율은, 불연속성이 있음을 의미할 수 있다.
불연속성 조건이 충족되는 경우(516), 알고리즘은 추적된 데이터에서 불연속성이 검출된다고 나타내는 결과를 출력한다(518). 불연속성 조건이 충족되지 않는 경우(512), 알고리즘은 추적된 데이터에서 불연속성이 검출되지 않는다고 나타내는 결과를 출력한다(514). 이 시점에서 알고리즘은 방금 프로세싱된 추적된 리스트에 대해 종료한다(520).
위의 알고리즘은 불연속성 검출 알고리즘에 제공되는 입력에 의존하여, 깊이 데이터 이외의 정보에서 불연속성을 검출하는 데에도 사용될 수 있다. 예를 들어, 알고리즘이 2D 이미지들을 입력으로서 수신하는 경우, 알고리즘은 추적된 리스트 내의 2D 이미지들 각각에서 검출된 객체의 구역(예를 들어, 도 3의 (2)의 안면부 크기들)을 결정하고, 구역의 크기가 샘플들 사이에서 갑자기 변화되는지를 검출함으로써 구역의 시계열에서 불연속성을 검출할 수 있다. 대신에, 구역들이 이미 계산되고, 그 다음, 알고리즘에 입력으로서 제공될 수 있다. 예를 들어, 불연속성 조건은, 프레임 레이트에서 예상되는 위치의 변화, 데이터 노이즈, 또는 대상자에 의한 예상되는 이동 범위로 인한 약간의 변화들로 인한 변화가 예상되는 변동량을 벗어나는지 여부일 수 있다.
또 다른 예시로서, 알고리즘은 추적된 리스트 내의 각 이미지에 대해 계산된 생체 인식 점수를 입력으로서 수신할 수 있고, 또는 알고리즘은 이미지들을 입력으로서 수신하는 경우 점수를 결정하도록 구성될 수 있다. 그 다음, 알고리즘은 생체 인식 점수들의 시계열에 불연속성이 있는지 여부를 결정할 수 있다.
이렇게 하는 것은, 캡처된 안면 이미지들의 유사성을 비교하고 하나의 샘플이 이전 샘플과 충분히 유사하지 않은 때를 검출한다. 예를 들어, 불연속성 조건은, 두 개의 연속적인 데이터 샘플들 사이의 변화가, 예상되는 변동량, 노이즈 또는 다른 허용 가능한 대상자 내 변동성을 벗어나는지 여부일 수 있다.
따라서, 보다 일반적으로, 불연속성 결정 알고리즘은 추적된 리스트 내에 포함된 이미지들과 연관된 궤적, 깊이 또는 다른 통계들에서의 불연속성을 결정하는 데 사용될 수 있다.
위의 실시예들에서. 추적된 객체들에는, 그들의 궤적들이 불연속성을 포함하는 것으로 결정되는 경우, 새로운 고유 추적 식별자들이 할당된다.
그러나, 추가의 실시예들에서, 불연속성은, 객체 구역, 또는 캡처되는 객체들이 안면들인 경우에 안면 생체 인식들과 같은, 캡처된 이미지들과 관련된 다른 통계들 또는 메트릭들에 기초하여 대신 결정될 수 있다.
추가의 실시예들에서, 궤적에서 불연속성을 검출하는 것과, 다른 통계들 또는 메트릭들에서 불연속성을 검출하는 것의 조합이 사용될 수 있다. 예를 들어, 불연속성 알고리즘은, 추적된 객체에 대해 불연속성이 있다고 선언하기 위해, 추적된 객체에 대해, 객체 구역의 크기 및 궤적(예를 들어, 추적된 안면의 깊이, 및 추적된 안면의 크기) 둘 다에 대한 불연속성 조건들이 충족되는지를 확인하도록 요구될 수 있다. 즉, 일부 실시예들에서, 시스템은 그것의 불연속성 검출 알고리즘에 다중 모드 제약들을 적용할 수 있다. 시스템은, 기본 조건으로서, 궤적에 대한 불연속성 조건이 충족되는지를 확인하고, 그 다음, 추적된 객체와 관련하여 불연속성이 존재한다고 선언하기 전에, 다른 메트릭들 또는 통계들과 관련하여 하나 이상의 불연속성 조건이 충족되는지 여부를 확인할 수 있다.
도 6은 생체 인식 탑승 디바이스(600)를 개략적으로 묘사한다. 생체 인식 탑승 디바이스(600)는, 중앙 프로세싱 유닛 또는 또 다른 프로세서일 수 있는 프로세싱 디바이스(602)를 포함하며, 위에서 설명된 실시예들 중 하나 이상의 실시예의 시스템을 구현하기 위한 기계 명령어들을 실행하도록 구성된다. 머신 명령어들은 프로세싱 디바이스(602)와 공동 위치된(co-located) 메모리 디바이스(604)에 저장될 수 있거나, 이들은 프로세싱 디바이스(602)에 의해 액세스 가능한 하나 이상의 원격 메모리 위치에 부분적으로 또는 전체적으로 상주할 수 있다. 프로세싱 디바이스(602)는 또한, 프로세싱될 데이터를 포함하도록, 그리고 가능하게는 프로세싱으로부터의 결과들을 적어도 일시적으로 저장하도록 조정된 데이터 저장소(606)에 액세스 가능하다.
디바이스가 무선으로 제공된 데이터에 액세스할 수 있거나, 통신 네트워크(612)를 통해, 원격 위치, 예를 들어, 모니터링 스테이션의 컴퓨터 또는 클라우드 저장소(613)에 데이터 또는 결과들을 통신할 수 있도록, 통신 모듈(608)이 또한 있을 수 있다.
박스(610)는 개념적으로 그 안의 구성요소들이 동일한 물리적 디바이스 또는 하우징 내에 제공될 수 있음을 의미한다. 하나 이상의 구성요소가 대신 별도로 위치될 수 있다는 것, 또는 (이미지 캡처 장비, 또는 입력 및/또는 출력 장비와 같은) 다른 구성요소들 또한 동일한 디바이스 내에 물리적으로 포함될 수 있다는 것, 또는 둘 다를 나타내도록, 박스(610)는 파선으로 도시되어 있다.
프로세싱 디바이스(602)는 프로세싱에 요구되는 데이터를 캡처하기 위해 데이터 캡처 배열(614)과 유선 또는 무선 통신 중 하나로서 통신 중이다.
앞서 시스템 모듈들과 관련하여 언급된 바와 같이, 안면 생체 인식 탑승에 대한 바람직한 실시예들에서, 데이터 캡처 배열(614)은 안면 인식을 가능하게 하기에 충분히 높은 2D 이미지들 및 궤적 데이터를 제공하기 위한 3D 이미지들 또한 캡처하도록 구성된다.
도 7은 예시적인 "포드" 타입 탑승 디바이스(700)를 도시한다. 이는 예시적인 예시일 뿐이며, 발명은 다른 타입들의 디바이스들로 구현될 수 있음에 유의해야 한다. 디바이스는 또한, 일반적으로 상이한 물리적 형태들을 가질 수 있거나, 디바이스가 제공되는 특정 목적(예를 들어, 공항의 맥락에서, 수하물 위탁 또는 체크인, 세관 제어, 탑승)에 따라 상이한 하드웨어 요구사항들을 가질 수 있다.
탑승 디바이스(700)는 디바이스 하우징(702) 및 생체 인식 시스템(704)을 포함한다. 생체 인식 시스템(704)은 제1 이미지 캡처 디바이스(706) 및 제2 이미지 캡처 디바이스(708)를 포함한다. 제1 이미지 캡처 디바이스(706)는 깊이 카메라 또는 입체 3D 카메라의 형태일 수 있다. 제2 이미지 캡처 디바이스(708)는 고해상도 2D 카메라의 형태일 수 있다. 디스플레이(710) 또한 포함될 수 있다. 선택적으로, 레이저 프로젝터 또는 적외선(IR) 센서/이미터(712)가 생체 인식 시스템(704) 내에 또는 다른 경우에는 디바이스(700) 내에 제공된다. 레이저 프로젝터 또는 IR 센서/이미터는 선택적으로 디스플레이(710) 뒤에 배치될 수 있다.
조명 수단 또는 광 세트(714)는 디바이스(700)의 전면(701)에 장착될 수 있다. 대상자들의 매핑 및 검출을 지원하기 위한 레이저 프로젝터 또는 포인트 클라우드 생성 디바이스(미도시) 또한 제공될 수 있다. 선택적으로, 디바이스(700)는 사람들의 신원들을 결정하는 데 사용될 수 있는 휴대용 디바이스일 수 있다. 포인트 클라우드 생성 디바이스는, 시스템에 의한 관심 영역 검출, 생체 인식 분석 및 안면 토포그래픽(topographic) 매핑의 목적들을 위해 사용자 또는 승객의 상반신 영역에 클라우드 또는 복수의 광 기반 도트 포인트들(적외선 LED 투영된 도트들을 포함하되 이에 제한되지 않음)을 투영한다. 포인트 클라우드 생성 디바이스가 포함된 경우, 포인트 클라우드 생성 디바이스로부터의 데이터 또한 생체 인식 시스템에 제공될 것이며 생체 인식 분석 또는 토포그래픽 매핑 데이터 또한 불연속성 분석에 사용될 수 있다.
본 명세서에 설명된 실시예들은, 따라서, 무질서한 탑승, 즉 대상자들(승객들)이 질서 있는 탑승 프로세스에 요구되는 거리 분리를 엄격하게 고수하지 않는 경우를 용이하게 할 수 있는 시스템을 각각 제공한다. 추적 프로세스는 또한, 시스템이, 이미지들 내에서 발생할 수 있는 작은 폐색들이나 모션 블러에도 불구하고 승객들의 그룹에서 별도의 추적 식별자들을 유지하는 것을 허용한다.
설명된 시스템은, 따라서, 고유 추적 식별자들을 갖는 대상자들의 좋은 이미지들만을 전송하고 그들을 주변 사람들과 혼동하지 않도록 함으로써, 수행되어야 할 필요가 있는 생체 인식 프로세싱의 양을 최소화하는 것을 허용한다. 이러한 혼동은 자주 발생하지는 않지만, 작은 퍼센트의 이러한 발생조차도, 재시도하거나 승객들을 수동으로 프로세싱하는 데 요구되는 추가 프로세싱 단계들 때문에, 데이터 내에 큰 이상치들(outliers)(승객들이 탑승하는 데 요구되는 시간)을 야기할 것이다.
측정될 수 있는 두 사람 사이의 본래의 물리적 거리가 있기 때문에 발생하는, 추적된 대상자(또는 더 정확하게는 추적된 객체들)의 궤적 내의 불연속성을 사용하는 것을 수반하는 시스템의 기능은, 샘플링 레이트가 충분히 빠른지에 따라 달라진다. 따라서, 물리적으로 너무 가까이 함께 있는 두 대상자들 사이의 혼동을 해결하는 시스템의 능력 또한, 샘플링 레이트에 의존할 것이다. 더 높은 샘플링 레이트는, 시스템이, 더 가까이 함께 있는 대상자들 사이의 혼동을 해결하는 것을 가능하게 할 것이다.
설명된 시스템은, 따라서, 간격이 강제되는 것을 보장하기 위해, 훈련된 직원 또는 신호계 프로세스들을 사용함으로써 탑승 프로세스를 제어할 필요가 있는 알려진 시스템들에 비해, 기술적 이점, 및 불필요한 신원 확인 및 출발 제어 시스템(Departure Control System) 처리들을 최소화하기 위한 소프트웨어 또한 잠재적으로 제공한다.
종래 기술에서는, 스태킹 문제를 최소화하기 위해, 생체 인식 카메라들이 때때로 승객들 또는 고객들의 대기열에 대해 각을 이루고 배치되며, 각 승객은, 대기열 내의 다른 승객들의 안면들과 혼동될 가능성을 최소화하기 위해, 대기열 방향에서 돌아서서 카메라까지 걸어가거나 그렇지 않으면 이동할 것이 요구된다. 그러나, 각 승객이 카메라를 향하도록 돌아서는 것을 요구하는 것은 시간 비용을 발생시킨다. 반면에, 설명한 바와 같이 본 시스템은, 대기열과 관련된 카메라의 각을 이룬 배치가 아닌 불연속성 검출을 사용하여 스태킹 오류들을 최소화하도록 설계된다.
본 시스템에 의해 제공되는 해결책은, 이러한 각을 이루는 배치를 요구하지 않기 때문에, 본 시스템을 위한 카메라는 탑승을 위해 줄을 서 있는 승객들의 대기열 바로 앞에 배치될 수 있다. 도 8은, 통상의 기술자가 도 1 내지 도 7을 참조하여 본 명세서에 설명된 시스템에 의해 구현되는 것으로 이해할 이러한 직접 배치를 묘사한다. 도 8에 도시된 바와 같이, 카메라(802)(즉, 데이터 캡처 배열)는 승객들(804)의 대기열 바로 앞에 배치되므로, 프로세싱되고 있는 승객(806)이 카메라(802)의 시야(810)에 진입하기 위해 대기열의 방향(화살표 812)으로부터 돌아설 필요가 없다. 대기열(804)에서 대기 중인 다른 승객들(808) 또한, 그들이 이동하거나 대기하면서 카메라(802)를 향할 수 있는 동안, 시스템은, 요구되는 경우 스택 오류들을 해결하기 위해 불연속성 검출 알고리즘을 사용하여, 시야(810)에서 또 다른 안면의 검출을 처리할 수 있을 것이다.
시스템은, 예를 들어, 탑승 지시들을 제공하기 위해, 승객들에게 보이기 위한 그리고 스크린 상에 디스플레이되기 위한, 그래픽 사용자 인터페이스일 수 있는 인터페이스를 제공할 수 있다. 직원 멤버에게 보이기 위해, 생중계 탑승 절차 모니터링을 위해, 완료된 탑승 프로세스 검토를 위해, 또는 훈련과 같은 또 다른 목적을 위해, 또 다른 디스플레이 디바이스 상에 인터페이스가 또한 제공될 수 있다. 직원에게 표시되는 인터페이스는 승객에게 표시되는 인터페이스(있는 경우)를 완전히 또는 부분적으로 미러링할 수 있다. 이는, 다음의 비제한적인 예시들: 승객 궤적, 불연속성을 검출하기 위해 모니터링되는 특정 메트릭들의 값들, 고유 추적 식별자들, 또는 탑승한 사람들의 수, 현재 평균 또는 총 경과된 프로세싱 시간, 성공적인 프로세싱 및 탑승 비율과 같은 통계들, 중 하나 이상과 같은, 승객들에게 표시되지 않는 다른 데이터를 디스플레이하기 위한 인터페이스 부분들을 포함할 수 있다.
도 9는 예시적인 인터페이스(900)를 묘사한다. 인터페이스(900)는, 특정 시간들에 또는 항상, 카메라에 의해 프로세싱되고 캡처되고 있는 승객의 이미지를 표시할 수 있는 제1 디스플레이 필드(902)를 포함한다. 제1 디스플레이 필드(902)는 승객에게 표시되는 인터페이스(도 10 참조)를 미러링할 수 있으며, 이 경우 디스플레이 필드(902)는 또한 텍스트 또는 그래픽들(예를 들어, 애니메이션들)의 형태일 수 있는 지시들을 승객들에게 디스플레이 할 수 있다.
도 9에서, 제1 디스플레이 필드(902)는 승객의 이미지를 표시하고 있다. 박스(904)(점선들)는 안면들의 존재를 검출하기 위해 알고리즘에 의해 프로세싱되는 중인 이미지 구역을 마킹(mark)한다. 박스(906)는 안면이 검출되는 이미지 구역을 마킹한다. 이 예시에서, 시스템은 검출된 안면의 중심 위치를 추적하고 추적된 안면의 궤적(908)을 디스플레이한다. 일부 실시예들에서, 궤적(908)은 액세스 제어 시스템의 동작에 따라 상이한 색상들 또는 시각적 스타일들로 디스플레이될 것이다. 예를 들어, 궤적(908)은 대상자의 추적이 시작될 때 디폴트 색상 또는 스타일로 디스플레이될 수 있다. 그러나, 시스템이 궤적과 연관된 추적 식별자의 불일치를 검출할 때 - 즉, 불연속성이 검출되었을 때 -, 이는 상이한 색상 또는 스타일로 변경되어 오류의 시각적 표시를 제공할 것이다.
인터페이스(900)는 3차원 위치의 시계열(910), 또는 추적된 안면의 깊이(즉, 카메라까지의 거리)를 디스플레이할 수 있다. 추가적으로 또는 대안적으로, 인터페이스(900)는, 알고리즘이 그 메트릭에 대한 값들에서 불연속성을 확인하는 경우, 기간 경과에 따라 결정된 (안면부 크기와 같은) 또 다른 메트릭의 값들의 시계열인 적어도 하나의 다른 시계열(912)을 디스플레이 할 수 있다.
알고리즘이 오류를 검출할 때, 경고(alert)를 디스플레이하기 위해 경고 디스플레이 또는 경고 필드(914)가 포함될 수 있다. 인터페이스(900)는, 특정 데이터에 대한 액세스를 제공하거나 디스플레이하기 위한, 하나 이상의 데이터 디스플레이 구역(916)을 포함할 수 있으며, 이는 디스플레이 부분들, 창들, 또는 액세스 필드들 또는 버튼들의 형태일 수 있다. 데이터 디스플레이(916)는 현재 프로세싱되고 있는 승객의 고유 추적 식별자를 표시하는 승객 식별자 디스플레이일 수 있다. 데이터 디스플레이(916)는 또한, 승객들에 대한 개별, 총, 또는 평균 프로세싱 시간에 관한 통계들을 제공할 수 있다.
위의 인터페이스의 부분들은 모두 동시에 제공되지 않을 수 있다. 예를 들어, 대시보드로부터, 사용자(예를 들어, 공항 직원 또는 시스템 개발자)가, 디바이스 화면에 표시하기 위해 포함할 인터페이스 부분들을 선택하는 것이 가능하게 될 수 있다.
도 10의 (1) 내지 10(4)는 승객들에게 보이기 위한 승객 인터페이스 상에서 표시될 수 있는 다양한 디스플레이들을 묘사한다. 도 10의 (1)은 승객이 카메라를 향해 걸어가라는 지시로부터의 화면을 도시한다. 도 10의 (2)는 그 또는 그녀의 사진이 촬영되는 동안 승객이 생체 인식 카메라를 바라보도록 지시하는 진행 화면을 도시한다. 승객의 카메라 뷰는 진행 원(1002) 내부에 표시될 수 있다. 도 10의 (3)은 승객이 매칭되었음을 확인하고 승객이 탑승하도록 초대하는 화면을 도시한다. 좌석 번호(1004)가 표시되며, 이것은, 탑승권에 표시된 바와 같은 그 또는 그녀의 할당된 또는 선택된 좌석과 좌석 번호(1004)가 매칭되는지 승객이 확인할 수 있는 기회를 제공한다. 승객의 이름과 같은 다른 정보 또한 검증 목적들을 위해 표시될 수 있다. 도 10의 (4)는 어떤 이유로든 생체 인식 탑승 프로세스가 승객을 탑승시킬 수 없을 때 디스플레이되는 화면을 도시하며, 이는 승객에게 직원으로부터 도움을 구하라는 지시를 표시한다.
개시된 실시예들은, 따라서, 무질서한 탑승 프로세스를 용이하게 함으로써 처리 시간을 긍정적으로 개선하는 것을 목표로 한다.
위에서 설명된 시스템은 탑승 시에 배치되는 것으로 제한되지 않는다는 것이 이해될 것이다. 대신에 또는 또한, 프레미스들의 (출구와 같은) 또 다른 체크 포인트, 또는 차량 또는 운송 수단의 모드에서 사용될 수 있다. 다수의 출구 또는 입구 지점들을 갖는 프레미스는, 위에서 설명된 프로세스의 인스턴스를 각각 구현하는 별도의 디바이스들을 가질(이들은 "포드" 타입 디바이스들이거나 다른 형태들을 취할) 수 있다.
또한, 구역에 들어가거나 나오는 개인들의 실제 신원들이 확인되지 않는 애플리케이션들에서, 위에서 설명된 프로세스 및 시스템의 신원 확인 측면들이 생략되거나 비활성화될 수 있고, 오히려 추적되는 구역 내에 있는 사람들의 수라는 점에 유의해야 한다. 몇 개의 상이한 “추적 식별자들”이 있는지를 살펴봄으로써, 프로세스는, 질서 있는 또는 “무질서한” 대기열로부터 구역에 들어가거나, 구역을 떠나거나, 일반적으로 체크포인트를 지나 이동하기 위해 프로세싱된 상이한 사람들의 수를 결정하는 것이 가능하다.
예를 들어, 승객들을 항공기에 탑승시키는 데 사용된 위에서 설명된 시스템을 구현하는 디바이스는, 승객들을 "비행기에서 내리기(de-plane)" 위해 출구 체크 포인트에서 다시 사용될 수 있다. 내리는 승객들의 프로세싱은, 승객들이 시스템에 의해 다시 프로세싱될 대기열을 형성하도록 하는 것을 포함할 수 있다. 프로세싱 체크포인트에서 획득된 승객들의 새로운 이미지들이 승객 데이터베이스와 매칭될 수 있다. 승객 데이터베이스는, 승객들이 탑승 시스템에 의해 프로세싱되는 동안 획득되었던, 그리고 생체 인식적으로 매칭시킨 다음 승객들을 탑승시키기 위해 선택된 "최상의 이미지들"을 포함하는 참조 데이터베이스일 수 있다. "최상의 이미지들" 참조 데이터는, 디바이스에 로컬로 저장되었을 수 있고, 이에 의해, 중앙 승객 참조 데이터베이스와 연결되지 않은 때에도, 새롭게 획득된 이미지들과 "최상의 이미지들” 참조들의 생체 인식 매칭이 수행될 수 있다.
내렸거나 출구 체크포인트(예를 들어, 게이트, 또는 공항 내 또 다른 제한된 도착 구역에서)를 지나 이동한 상이한 승객들의 수를 단순히 카운트하기 위해, 디바이스는 그것의 생체 인식 신원 확인 모듈이 완전히 비활성화되도록 할 수 있다. 이 경우, 항공기에서 도착한 사람들의 수가 원래 항공기에 탑승한 사람들의 수와 다른 경우, 경보(alarm)가 발생할 수 있다.
개시의 정신이나 범위를 벗어나지 않고, 앞서 설명된 부분들에 대한 변형들 및 수정들이 이루어질 수 있다. 예를 들어, 위에서, 생체 인식 매칭을 활용하는 실시예들은, 대상자와 참조 데이터베이스 사이의 매치가 있는지를 확인함으로써, 대상자(예를 들어, 승객)에 의한 액세스를 허용하거나 통과를 허가할지 여부를 결정한다. 그러나, 시스템이, 언제 액세스 또는 통과를 거부할지를 결정하는 상황들에서, 동일한 발명적 개념이 적용될 수 있다. 예를 들어, 시스템은 여전히 동일한 불연속성 검출을 사용하여 스태킹 오류를 줄이려고 시도할 것이다. 그러나, 생체 인식 매칭 모듈은 프로세싱되고 있는 승객 또는 대상자의 이미지를 “액세스 금지" 리스트와 매칭시키도록 시도할 수 있고 리스트에서 매치가 발견되는 경우 그 통과 또는 대상자의 액세스를 거부할 수 있다. 액세스가 허용된 또는 게임드 액세스를 갖는 대상자들(또는 안면 인식의 경우 “안면들”)에 할당된 그러한 고유 식별자들만 카운팅함으로써, 시스템은 몇 명의 대상자들이 허가되었는지를 계속 추적할 수 있다.
위에서 설명된 바와 같이, 시스템은, 검출된 안면(또는 객체)을 추적하기 위한 위치 데이터와 함께, 안면 또는 객체 검출을 위해 충분히 높은 해상도의 2D 이미지들을 필요로 한다. 실시예들에서 두 개의 캡처 디바이스들이 사용되는 것으로 설명되지만, 이것이 발명의 정신과 범위를 제약하는 요구사항을 형성하는 것은 아니다. 예를 들어, 2D 이미지 데이터와 공간 위치 데이터가 모두 3D 카메라로부터 제공되는 경우 동일한 발명적 개념이 여전히 만족될 것이며, 제공되는 3D 카메라는 안면 또는 객체 검출과 매칭을 허용할 수 있을 만큼 충분히 높은 해상도로 이미지들을 캡처하는 것이 가능하다 - 그리고, 시스템에 의해 구현되는 방법이 여전히 동일한 방식으로 작동할 것이다.
아래의 청구항들에서 그리고 앞선 발명의 설명에서, 문맥이 필요로 하거나 그렇지 않으면 명시적 언어나 필요한 암시로 인한 경우를 제외하고, "포함한다(comprise)"라는 단어 또는 "포함한다(comprise)" 또는 "포함하는(comprising)”과 같은 변형들은, 포괄적인 의미로 사용되며, 즉 언급된 피처들의 존재를 구체화하도록 사용되지만 발명의 다양한 실시예들에서 추가적인 피처들의 존재 또는 추가를 배제하도록 사용되지 않는다.

Claims (23)

  1. 적어도 하나의 추적된 객체(tracked object)에 대한 액세스를 제어하기 위한 방법에 있어서,
    상기 적어도 하나의 추적된 객체가 촬영된 것으로 가정(assume)되는 일련의 2차원 이미지들과, 또한 상기 적어도 하나의 추적된 객체에 대한 위치 데이터를 획득 또는 수신하는 단계;
    상기 적어도 하나의 추적된 객체에 고유 추적 식별자(unique tracking identifier)를 할당하는 단계;
    상기 위치 데이터로부터 상기 적어도 하나의 추적된 객체의 궤적을 결정하는 단계;
    상기 궤적 또는 상기 궤적으로부터 계산된 데이터에 불연속성이 있는지를 결정하고, 불연속성이 검출되는 경우, 상기 적어도 하나의 추적된 객체의 하나 이상의 새로운 이미지를 획득 또는 수신하고, 상기 적어도 하나의 추적된 객체에 새로운 고유 추적 식별자를 할당하는 단계; 및
    불연속성이 검출되는 경우에는 하나 이상의 새로운 이미지 중 적어도 하나의 이미지에 기초하여, 또는 불연속성이 검출되지 않는 경우에는 상기 일련의 2차원 이미지들로부터의 적어도 하나의 이미지에 기초하여, 액세스가 허용되어야 하는지 여부를 결정하는 단계
    를 포함하는, 방법.
  2. 제1항에 있어서, 상기 불연속성이 있는지를 결정하는 단계는, 상기 궤적으로부터 얻어진 거리 데이터 또는 속도 데이터의 시계열(time series)에 의해, 거리 불연속성 조건 또는 속도 불연속성 조건이 충족되는지를 결정하는 단계를 포함하는 것인, 방법.
  3. 제2항에 있어서, 상기 불연속성 조건은, 상기 시계열에서 두 개의 데이터 샘플들 사이의 차이가, 1) 임계값을 초과하는지 여부, 또는 2) 임계값 이상인지 여부인 것인, 방법.
  4. 제3항에 있어서, 상기 임계값은, 상기 두 개의 데이터 샘플들이 획득된 시간들 사이의 경과 시간에 적어도 부분적으로 의존하는 것인, 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서, 상기 궤적 또는 상기 2차원 이미지들로부터 계산된 통계 또는 메트릭(metric)의 시계열을 제공하는 단계, 및 상기 통계 또는 메트릭의 시계열에 의해 통계 또는 메트릭 불연속성 조건이 충족되는지 여부를 결정하는 단계를 더 포함하는, 방법.
  6. 제5항에 있어서, 상기 궤적 또는 상기 궤적으로부터 계산된 데이터에 불연속성이 있는지를 결정하기 전에, 상기 통계 또는 메트릭 불연속성 조건이 충족되는지 여부를 확인하는 단계를 더 포함하는, 방법.
  7. 제1항 내지 제6항 중 어느 한 항의 방법을 포함하는, 생체 인식(biometric) 액세스 제어 방법.
  8. 제7항에 있어서, 상기 방법은 안면 생체 인식 제어 방법이고, 상기 적어도 하나의 추적된 객체는 사람의 안면부(facial area)인 것인, 방법.
  9. 제8항에 있어서, 상기 통계 또는 메트릭은 상기 2차원 이미지들로부터 계산된 생체 인식 점수 또는 안면부 크기인 것인, 방법.
  10. 제1항 내지 제9항 중 어느 한 항에 있어서, 하나 이상의 객체를 검출하기 위해 3차원 이미지에 객체 검출 알고리즘을 적용하는 단계를 포함하고, 각 객체는 상기 적어도 하나의 추적된 객체 중 하나인 것인, 방법.
  11. 제1항 내지 제10항 중 어느 한 항에 있어서, 상기 위치 데이터는 적어도 깊이 데이터를 포함하는 것인, 방법.
  12. 하나 이상의 추적된 객체에 의해 체크포인트를 지나는 통과(passage)가 발생한 횟수를 카운트하기 위한 방법에 있어서,
    각 추적된 객체에 의한 통과를 프로세싱하고 상기 추적된 객체에 의한 통과를 허가(admit)하는 단계를 포함하며, 상기 프로세싱은,
    상기 추적된 객체가 촬영된 것으로 가정되는 일련의 2차원 이미지들과, 또한 상기 추적된 객체에 대한 위치 데이터를 획득 또는 수신하는 단계;
    상기 추적된 객체에 고유 추적 식별자를 할당하는 단계;
    상기 위치 데이터로부터 상기 추적된 객체의 궤적을 결정하는 단계; 및
    상기 궤적 또는 상기 궤적으로부터 계산된 데이터에 불연속성이 있는지를 결정하고, 불연속성이 검출되는 경우, 상기 추적된 객체의 하나 이상의 새로운 이미지를 획득하고, 상기 추적된 객체에 새로운 고유 추적 식별자를 할당하는 단계
    를 포함하고,
    상기 체크포인트를 지나는 통과가 발생한 횟수를 결정하는 것은 할당된 상이한 고유 추적 식별자들의 수를 카운트하는 것을 포함하는 것인, 방법.
  13. 제12항에 있어서,
    상기 통과를 허가하는 단계는, 불연속성이 검출되는 경우에는 하나 이상의 새로운 이미지 중 적어도 하나의 이미지에 기초하여, 또는 불연속성이 검출되지 않는 경우에는 상기 일련의 2차원 이미지들로부터의 적어도 하나의 이미지에 기초하여, 통과가 허용되어야 하는지 여부를 결정하는 단계를 포함하는 것인, 방법.
  14. 하나 이상의 추적된 객체에 의해 체크포인트를 지나는 통과가 발생한 횟수에 대한 카운트(count)를 추적하기 위한 방법에 있어서,
    적어도 하나의 추적된 객체가 촬영된 것으로 가정되는 일련의 2차원 이미지들과, 또한 상기 적어도 하나의 추적된 객체의 적어도 하나의 부분에 대한 위치 데이터를 획득 또는 수신하는 단계;
    상기 적어도 하나의 추적된 객체에 고유 추적 식별자를 할당하는 단계;
    상기 위치 데이터로부터 상기 적어도 하나의 추적된 객체의 궤적을 결정하는 단계;
    상기 궤적 또는 상기 궤적으로부터 계산된 데이터에 불연속성이 있는지를 결정하고, 불연속성이 검출되는 경우, 상기 적어도 하나의 추적된 객체의 하나 이상의 새로운 이미지를 획득 또는 수신하고, 상기 적어도 하나의 추적된 객체에 새로운 고유 추적 식별자를 할당하는 단계;
    불연속성이 검출되는 경우에는 하나 이상의 새로운 이미지 중 적어도 하나의 이미지에 기초하여, 또는 불연속성이 검출되지 않는 경우에는 상기 일련의 2차원 이미지들로부터의 적어도 하나의 이미지에 기초하여, 통과가 허용되어야 하는지 여부를 결정하는 단계; 및
    통과가 허용되는 것으로 결정된 경우 상기 카운트를 증가시키는 단계
    를 포함하는, 방법.
  15. 하나 이상의 입구 지점, 또는 하나 이상의 출구 지점, 또는 둘 다를 갖는 운송 수단(transport)의 모드 또는 프레미스(premise)에 대한 액세스를 제어 또는 모니터링하는 방법에 있어서, 상기 입구 지점 중 적어도 하나, 상기 출구 지점 중 적어도 하나, 또는 둘 다에서, 제1항 내지 제14항 중 어느 한 항의 방법을 구현하는 것을 포함하는, 방법.
  16. 제1항 내지 제15항 중 어느 한 항의 방법은 안면 생체 인식 액세스 제어 방법인 것인, 방법.
  17. 기계 판독 가능 명령어들이 저장된 컴퓨터 판독 가능 매체에 있어서, 상기 기계 판독 가능 명령어들은, 실행될 때, 제1항 내지 제15항 중 어느 한 항의 방법을 수행하도록 조정(adapt)되는 것인, 컴퓨터 판독 가능 매체.
  18. 기계 판독 가능 명령어들을 실행하도록 구성된 프로세서를 포함하는 액세스 제어 시스템에 있어서, 상기 기계 판독 가능 명령어들은, 실행될 때, 제1항 내지 제15항 중 어느 한 항의 방법을 수행하도록 조정되는 것인, 액세스 제어 시스템.
  19. 제18항에 있어서, 이미지 캡처 배열을 포함하며, 상기 배열은 2차원 이미지 캡처 카메라 및 3차원 이미지 캡처 카메라를 포함하는 것인, 액세스 제어 시스템.
  20. 제19항에 있어서, 사용 시, 상기 이미지 캡처 배열은 상기 액세스 제어 시스템에 의해 프로세싱될 대상자(subject)들의 대기열 바로 앞에 위치되는 것인, 액세스 제어 시스템.
  21. 제18항 내지 제20항 중 어느 한 항의 액세스 제어 시스템은, 생체 인식 탑승 시스템인 것인, 액세스 제어 시스템.
  22. 각 대상자를 차례로 프로세싱하기 위해, 생체 인식 액세스 제어 시스템을 사용함으로써, 대기열에 서 있는 하나 이상의 대상자에 의한 액세스를 제어 또는 모니터링하는 방법에 있어서, 상기 생체 인식 액세스 제어 시스템은 상기 대기열의 방향 쪽으로 직접 향하는 이미지 캡처 배열을 포함하는 것인, 방법.
  23. 제22항에 있어서, 상기 생체 인식 액세스 제어 시스템은 제17항 내지 제20항 중 어느 한 항에 따른 것인, 방법.
KR1020237023730A 2021-01-06 2021-03-08 무질서한 생체 인식 탑승 KR20230128489A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP21305013.1 2021-01-06
EP21305013.1A EP4027265A1 (en) 2021-01-06 2021-01-06 Disorderly biometric boarding
PCT/EP2021/055773 WO2022148554A1 (en) 2021-01-06 2021-03-08 Disorderly biometric boarding

Publications (1)

Publication Number Publication Date
KR20230128489A true KR20230128489A (ko) 2023-09-05

Family

ID=74215840

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020237023730A KR20230128489A (ko) 2021-01-06 2021-03-08 무질서한 생체 인식 탑승

Country Status (8)

Country Link
US (1) US20240071155A1 (ko)
EP (2) EP4027265A1 (ko)
JP (1) JP2024502141A (ko)
KR (1) KR20230128489A (ko)
CN (1) CN116783627A (ko)
AU (1) AU2021418124A1 (ko)
CA (1) CA3204102A1 (ko)
WO (1) WO2022148554A1 (ko)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2804468C (en) * 2012-01-30 2016-03-29 Accenture Global Services Limited System and method for face capture and matching
CN111508124A (zh) * 2019-01-11 2020-08-07 百度在线网络技术(北京)有限公司 权限校验方法和装置

Also Published As

Publication number Publication date
WO2022148554A1 (en) 2022-07-14
CN116783627A (zh) 2023-09-19
EP4027265A1 (en) 2022-07-13
US20240071155A1 (en) 2024-02-29
CA3204102A1 (en) 2022-07-14
EP4275144A1 (en) 2023-11-15
JP2024502141A (ja) 2024-01-17
AU2021418124A1 (en) 2023-07-13

Similar Documents

Publication Publication Date Title
US9875392B2 (en) System and method for face capture and matching
US10290162B2 (en) Information processing apparatus, information processing method, and storage medium
CN100418112C (zh) 用于记录和自动识别确认的面部成像系统
US20120020518A1 (en) Person tracking device and person tracking program
US20160275356A1 (en) Video monitoring system
US20130182904A1 (en) System and method for video content analysis using depth sensing
US20130208948A1 (en) Tracking and identification of a moving object from a moving sensor using a 3d model
JPWO2007026744A1 (ja) 広域分散カメラ間の連結関係推定法および連結関係推定プログラム
US20100290677A1 (en) Facial and/or Body Recognition with Improved Accuracy
US10902639B2 (en) Information processing apparatus, information processing method, and program
US20190287159A1 (en) System and method for lane merge sequencing in drive-thru restaurant applications
JP4288428B2 (ja) 映像解析システムおよび映像解析方法
CN110298268A (zh) 单镜头识别双向客流的方法、装置、存储介质及摄像头
JP2007219603A (ja) 人物追跡装置、人物追跡方法および人物追跡プログラム
KR20170007070A (ko) 방문객 출입 통계 분석 방법 및 장치
KR20230128489A (ko) 무질서한 생체 인식 탑승
JP2005250692A (ja) 物体の同定方法、移動体同定方法、物体同定プログラム、移動体同定プログラム、物体同定プログラム記録媒体、移動体同定プログラム記録媒体
KR101355206B1 (ko) 영상분석을 이용한 출입 계수시스템 및 그 방법
KR20180000205A (ko) 지능형 영상 분석 장치 및 방법
Boltes et al. Gathering of data under laboratory conditions for the deep analysis of pedestrian dynamics in crowds
Shal’nov et al. Estimation of the people position in the world coordinate system for video surveillance
US20230135198A1 (en) Self-service station having thermal imaging camera
CN113420782A (zh) 一种基于Atlas的人脸识别的边缘视觉计算系统