KR20210137988A - 생체 식별 및 건강 상태 결정을 위한 광학 장치 및 관련 디바이스 - Google Patents

생체 식별 및 건강 상태 결정을 위한 광학 장치 및 관련 디바이스 Download PDF

Info

Publication number
KR20210137988A
KR20210137988A KR1020217021757A KR20217021757A KR20210137988A KR 20210137988 A KR20210137988 A KR 20210137988A KR 1020217021757 A KR1020217021757 A KR 1020217021757A KR 20217021757 A KR20217021757 A KR 20217021757A KR 20210137988 A KR20210137988 A KR 20210137988A
Authority
KR
South Korea
Prior art keywords
individual
imaging device
imaging
image
image data
Prior art date
Application number
KR1020217021757A
Other languages
English (en)
Inventor
조너썬 엠 로쓰버그
로렌스 씨 웨스트
타일러 에스 랠스턴
마우리치오 아리엔초
오언 케이-코더러
벤저민 로젠블러쓰
크리스토퍼 토마스 맥널티
제이콥 쿠만스
Original Assignee
테서렉트 헬스, 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 테서렉트 헬스, 인코포레이티드 filed Critical 테서렉트 헬스, 인코포레이티드
Publication of KR20210137988A publication Critical patent/KR20210137988A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/32Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
    • H04L9/3226Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using a predetermined code, e.g. password, passphrase or PIN
    • H04L9/3231Biological data, e.g. fingerprint, voice or retina
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • A61B3/1208Multiple lens hand-held instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • A61B3/1225Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes using coherent radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • A61B3/1241Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes specially adapted for observation of ocular blood flow, e.g. by fluorescein angiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0066Optical coherence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0071Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by measuring fluorescence emission
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16MFRAMES, CASINGS OR BEDS OF ENGINES, MACHINES OR APPARATUS, NOT SPECIFIC TO ENGINES, MACHINES OR APPARATUS PROVIDED FOR ELSEWHERE; STANDS; SUPPORTS
    • F16M11/00Stands or trestles as supports for apparatus or articles placed thereon ; Stands for scientific apparatus such as gravitational force meters
    • F16M11/02Heads
    • F16M11/04Means for attachment of apparatus; Means allowing adjustment of the apparatus relatively to the stand
    • F16M11/06Means for attachment of apparatus; Means allowing adjustment of the apparatus relatively to the stand allowing pivoting
    • F16M11/10Means for attachment of apparatus; Means allowing adjustment of the apparatus relatively to the stand allowing pivoting around a horizontal axis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/0209Low-coherence interferometers
    • G01B9/02091Tomographic interferometers, e.g. based on optical coherence
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • G06K9/0061
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02JCIRCUIT ARRANGEMENTS OR SYSTEMS FOR SUPPLYING OR DISTRIBUTING ELECTRIC POWER; SYSTEMS FOR STORING ELECTRIC ENERGY
    • H02J50/00Circuit arrangements or systems for wireless supply or distribution of electric power
    • H02J50/10Circuit arrangements or systems for wireless supply or distribution of electric power using inductive coupling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02015Interferometers characterised by the beam path configuration
    • G01B9/02029Combination with non-interferometric systems, i.e. for measuring the object
    • G01B9/0203With imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N2021/178Methods for obtaining spatial resolution of the property being measured
    • G01N2021/1785Three dimensional
    • G01N2021/1787Tomographic, i.e. computerised reconstruction from projective measurements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Computer Security & Cryptography (AREA)
  • Multimedia (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Vascular Medicine (AREA)

Abstract

본 개시는 개인의 망막 안저의 이미지를 캡처하며, 개인을 식별하고, 개인과 연관된 다양한 전자 기록들(건강 기록들을 포함함) 또는 계정들 또는 디바이스들에 액세스하며, 특정 질병에 대한 개인의 소인을 결정하고/하거나 개인의 건강 문제들을 진단하기 위한 기술들 및 장치를 제공한다. 일부 실시예들은 개인의 눈(들)의 하나 이상의 이미지를 캡처하기 위한 하나 이상의 이미징 디바이스를 갖는 이미징 장치를 제공한다. 본 명세서에 설명된 이미징 장치는 캡처된 이미지 및/또는 건강 데이터를 분석하고/하거나 다른 디바이스들과 교환하기 위한 전자 장치를 포함할 수 있다. 다양한 실시예들에 따르면, 본 명세서에 설명된 이미징 장치는, 본 명세서에 설명된 바와 같이, 대안적으로 또는 추가적으로 생체 식별 및/또는 건강 상태 결정 기술들을 위해 구성될 수 있다.

Description

생체 식별 및 건강 상태 결정을 위한 광학 장치 및 관련 디바이스
본 출원은, 개인의 망막 안저를 사용하는 것과 같은, 생체 식별에 관한 것이다.
개인을 식별하고, 개인의 개인용 디바이스 또는 계정에 액세스하며, 개인의 건강 상태를 결정하고/하거나 개인의 건강 상태를 진단하기 위한 현재 기술들은 개선으로부터 이익을 얻을 것이다.
본 개시의 일부 양태들은 이미징 장치를 제공하고, 이미징 장치는 개인의 제1 눈 및 제2 눈을 수용하도록 구성된 하우징을 포함하며, 하우징 내부에, 제1 눈의 망막을 이미징 및/또는 측정하도록 구성된 광간섭 단층촬영(optical coherence tomography, OCT) 디바이스, 및 제2 눈의 망막을 이미징 및/또는 측정하도록 구성된 형광 디바이스가 배치되어 있다.
본 개시의 일부 양태들은 이미징 장치를 제공하고, 이미징 장치는, 광학 이미징 디바이스 및 형광 이미징 디바이스를 포함하는 복수의 이미징 디바이스들이 내부에 배치되어 있는 쌍안경 형상의 하우징을 포함하며, 여기서 광학 이미징 디바이스와 형광 이미징 디바이스는 동일한 광학 컴포넌트를 사용하여 이미징 및/또는 측정을 수행하도록 구성된다.
본 개시의 일부 양태들은 이미징 장치를 제공하고, 이미징 장치는 복수의 이미징 디바이스들 및 적어도 2개의 렌즈가 내부에 배치되어 있는 하우징을 포함하며, 여기서 적어도 2개의 렌즈는 개인의 제1 눈과 제2 눈 중 적어도 하나를 이미징 및/또는 측정하기 위해 복수의 이미징 디바이스들 중 적어도 2개와 제각기 정렬된다.
본 개시의 일부 양태들은 이미징 장치를 위한 스탠드를 제공하고, 스탠드는 이미징 장치의 하우징을 수용하도록 구성된 홀딩부(holding portion) 및 홀딩부에 결합되고, 홀딩부에 수용될 때 이미징 장치를 지지하도록 구성된 베이스(base)를 포함한다.
전술한 요약은 제한하는 것으로 의도되지 않는다. 추가적으로, 다양한 실시예들은 단독으로 또는 조합하여 본 개시의 임의의 양태들을 포함할 수 있다.
첨부 도면은 일정한 축척으로 작성되는 것으로 의도되지 않는다. 도면에서, 다양한 도면들에 예시된 각각의 동일하거나 거의 동일한 컴포넌트는 동일한 번호로 표현되어 있다. 명확성을 위해, 모든 도면에서 모든 컴포넌트에 도면 부호가 표시되어 있는 것은 아닐 수 있다. 도면에서:
도 1은 본 명세서에 설명된 기술의 일부 실시예들에 따른, 생체 식별 및 건강 또는 다른 계정 액세스를 위한 클라우드 연결 시스템의 블록 다이어그램이다.
도 2는 도 1에 예시된 시스템의 일부 실시예들에 따른, 로컬 생체 식별 및 건강 또는 다른 계정 액세스를 위한 예시적인 디바이스의 블록 다이어그램이다.
도 3은 도 1 및 도 2의 실시예들에 따른, 하나 이상의 망막 안저 이미지를 캡처하고 캡처된 이미지(들)로부터 이미지 데이터를 추출하기 위한 예시적인 방법을 예시하는 흐름 다이어그램이다.
도 4는 도 3의 방법에 따라, 하나 이상의 이미지(들)에 캡처될 수 있고/있거나 이미지(들)로부터 추출된 데이터에 표시될 수 있는 다양한 특징들을 포함하는 개인의 망막 안저의 측면도이다.
도 5a는 도 3의 방법의 일부 실시예들에 따른, 예시적인 콘볼루션 신경 네트워크(CNN)의 블록 다이어그램이다.
도 5b는 도 5a의 CNN의 일부 실시예들에 따른, 예시적인 콘볼루션 신경 네트워크(CNN)의 블록 다이어그램이다.
도 5c는 도 5a의 CNN의 대안적인 실시예들에 따른, 장단기 기억(long short-term memory, LSTM) 네트워크를 포함하는 예시적인 순환 신경 네트워크(RNN)의 블록 다이어그램이다.
도 6은 도 3의 방법의 일부 실시예들에 따른, 예시적인 완전 콘볼루션 신경 네트워크(FCNN)의 블록 다이어그램이다.
도 7은 도 3의 방법의 대안적인 실시예들에 따른, 예시적인 콘볼루션 신경 네트워크(CNN)의 블록 다이어그램이다.
도 8은 도 3의 방법의 추가의 대안적인 실시예들에 따른, 예시적인 콘볼루션 신경 네트워크(CNN)의 블록 다이어그램이다.
도 9는 도 1 및 도 2의 실시예들에 따른, 개인을 식별하기 위한 예시적인 방법을 예시하는 흐름 다이어그램이다.
도 10a는 도 9의 방법의 일부 실시예들에 따른, 망막 안저 특징들을 템플릿 매칭(template-matching)하기 위한 방법의 흐름 다이어그램이다.
도 10b는 도 9의 방법의 일부 실시예들에 따른, 개인의 망막 안저의 병진 및 회전 불변 특징들을 비교하기 위한 방법의 흐름 다이어그램이다.
도 11은 도 1 및 도 2의 실시예들에 따른 예시적인 사용자 인터페이스를 예시하는 블록 다이어그램이다.
도 12는 본 명세서에 설명된 기술의 일부 실시예들에 따른, 예시적인 분산 원장 - 그의 컴포넌트들은 네트워크를 통해 액세스 가능함 - 을 예시하는 블록 다이어그램이다.
도 13a는 본 명세서에 설명된 기술의 일부 실시예들에 따른, 통신 네트워크를 통해, 개인의 망막 안저의 제1 이미지와 연관되고/되거나 이를 포함하는 제1 이미지 데이터를 전송하는 단계, 및, 통신 네트워크를 통해, 개인의 신원(identity)을 수신하는 단계를 포함하는 예시적인 방법을 예시하는 흐름 다이어그램이다.
도 13b는 본 명세서에 설명된 기술의 일부 실시예들에 따른, 개인의 망막 안저의 제1 이미지와 연관되고/되거나 이를 포함하는 제1 이미지 데이터에 기초하여, 개인을 식별하는 단계, 및, 개인의 제1 생체 특성에 기초하여, 개인의 신원을 검증하는 단계를 포함하는 예시적인 방법을 예시하는 흐름 다이어그램이다.
도 13c는 본 명세서에 설명된 기술의 일부 실시예들에 따른, 개인의 망막 안저의 제1 이미지와 연관되고/되거나 이를 포함하는 제1 이미지 데이터에 기초하여, 개인을 식별하는 단계 및 복수의 망막 안저 이미지들과 연관된 저장된 데이터를 업데이트하는 단계를 포함하는 예시적인 방법을 예시하는 흐름 다이어그램이다.
도 13d는 본 명세서에 설명된 기술의 일부 실시예들에 따른, 트레이닝된 통계적 분류기(TSC)에 대한 제1 입력으로서, 개인의 망막 안저의 제1 이미지와 연관되고/되거나 이를 포함하는 제1 이미지 데이터를 제공하는 단계, 및, TSC로부터의 적어도 하나의 출력에 기초하여, 개인을 식별하는 단계를 포함하는 예시적인 방법을 예시하는 흐름 다이어그램이다.
도 13e는 본 명세서에 설명된 기술의 일부 실시예들에 따른, 개인의 망막 안저의 제1 이미지와 연관되고/되거나 이를 포함하는 제1 이미지 데이터에 기초하여, 개인을 식별하는 단계, 및 개인의 의학적 상태를 결정하는 단계를 포함하는 예시적인 방법을 예시하는 흐름 다이어그램이다.
도 13f는 본 명세서에 설명된 기술의 일부 실시예들에 따른, 트레이닝된 통계적 분류기(TSC)에 대한 제1 입력으로서, 개인의 망막 안저의 제1 이미지와 연관되고/되거나 이를 포함하는 제1 이미지 데이터를 제공하는 단계, TSC로부터의 적어도 하나의 출력에 기초하여, 개인을 식별하는 단계, 및 개인의 의학적 상태를 결정하는 단계를 포함하는 예시적인 방법을 예시하는 흐름 다이어그램이다.
도 14a는 본 명세서에 설명된 기술의 일부 실시예들에 따른, 예시적인 이미징 장치의 전방 투시도이다.
도 14b는 본 명세서에 설명된 기술의 일부 실시예들에 따른, 도 14a의 이미징 장치의 부분적으로 투명한 후방 투시도이다.
도 15는 본 명세서에 설명된 기술의 일부 실시예들에 따른, 대안적인 예시적인 이미징 장치의 저면도이다.
도 16a는 본 명세서에 설명된 기술의 일부 실시예들에 따른, 추가의 예시적인 이미징 장치의 후방 사시도이다.
도 16b는 본 명세서에 설명된 기술의 일부 실시예들에 따른, 도 16a의 이미징 장치의 분해도이다.
도 16c는 본 명세서에 설명된 기술의 일부 실시예들에 따른, 개인의 눈들 중 하나 또는 각각을 이미징하기 위해 도 16a의 이미징 장치를 사용하는 개인의 측면도이다.
도 16d는 본 명세서에 설명된 기술의 일부 실시예들에 따른, 스탠드에 의해 지지되는 도 16a의 이미징 장치의 사시도이다.
본 발명자들은 개인의 망막 안저의 캡처된 이미지가 개인을 식별하기 위해, 특정 질병에 대한 개인의 소인(predisposition)을 결정하기 위해, 그리고/또는 개인의 건강 문제를 진단하기 위해 사용될 수 있음을 발견하였다. 그에 따라, 본 발명자들은 개인의 망막 안저의 이미지를 캡처하기 위한 기술을 개발하였다. 게다가, 본 발명자들은 개인을 식별하고, 개인과 연관된 다양한 전자 기록(건강 기록을 포함함) 또는 계정 또는 디바이스에 액세스하며, 특정 질병에 대한 개인의 소인을 결정하고/하거나 개인의 건강 문제를 진단하기 위한 기술을 개발하였다.
본 명세서에 설명된 기술의 일부 실시예들은 클라우드에 저장된 전자 기록 또는 계정과 같은 민감한 데이터를 보호할 수 있는 클라우드 기반 생체 식별을 위한 시스템을 제공한다. 일부 실시예들은, 보안 또는 기밀성을 희생시키지 않으면서 건강 정보가 환자에 의해 보다 쉽게 액세스 가능할 수 있도록, 클라우드에 다양한 환자와 연관된 건강 정보를 저장하고/하거나 생체 식별 시스템으로 환자의 건강 정보를 보호하기 위한 시스템을 제공한다. 일부 실시예들에서, 생체 식별 시스템은, 개인을 식별하는 데 사용되는 하나 이상의 캡처된 이미지(들)로부터의 데이터가 또한 개인의 건강 정보를 업데이트하고/하거나 개인의 의학적 상태를 결정하는 데 사용될 수 있도록, 건강 정보를 저장하고/하거나 환자의 의학적 상태를 결정하기 위한 시스템과 함께 통합될 수 있다.
본 발명자들은, 예컨대, 영숫자 패스워드 또는 패스코드 시스템을 사용한 인증 및 다양한 형태의 생체 보안을 위한 현재 보안 시스템에서의 여러 문제들을 인식하였다. 영숫자 패스워드 또는 패스코드 시스템은, 예를 들어, 무차별 대입(brute force)(예를 들면, 모든 가능한 영숫자 조합을 시도하는 것)에 의한 해킹에 취약할 수 있다. 그러한 경우에, 사용자는 긴 문자 시퀀스를 사용하여 또는 (구두점 또는 글자와 숫자의 혼합과 같은) 더 다양한 문자들을 사용하여 자신의 패스워드를 강화시킬 수 있다. 그렇지만, 그러한 방법에서, 패스워드는 사용자가 기억하기 더 어렵다. 다른 경우에, 사용자는, 기억하기 보다 쉬울 수 있지만 제3자가 추측하기도 보다 쉬울 수 있는, 개인 정보(예를 들면, 생년월일, 기념일 또는 애완 동물 이름)를 포함하는 패스워드 또는 패스코드를 선택할 수 있다.
예컨대, 성문, 얼굴, 지문 및 홍채 식별에 의한 인증을 위해 구성된 일부 생체 인식 보안 시스템이 패스워드 및 패스코드 시스템에 비해 개선된 사기 방지를 제공할 수 있지만, 본 발명자들은 이러한 시스템이 올바른 개인을 식별하는 데 비효율적으로 되어 버린다는 것을 인식하였다. 전형적으로, 이러한 시스템은 높은 오수락률(false acceptance rate) 또는 오거부율(false rejection rate)을 가질 것이다. 높은 오수락률은 사기 행위를 보다 쉽게 만들고, 높은 오거부율은 환자를 확실하게 식별하는 것을 보다 어렵게 만든다. 추가적으로, DNA 식별과 같은 다른 시스템이 올바른 개인을 식별하는 데 효과적이지만, 본 발명자들은 그러한 시스템이 지나치게 침습적이라는 것을 인식하였다. 예를 들어, DNA 식별은 혈액 또는 타액 샘플과 같은 침습적 테스트 절차를 필요로 하며, 이는 식별이 점점 더 빈번하게 행해질 때 점점 더 비실용적이고 비용이 많이 들게 된다. 게다가, DNA 식별은 비용이 많이 들고 DNA를 포함하는 머리카락과 같은 인공물을 훔치는 것에 의해 사기에 취약할 수 있다.
기존 시스템과 연관된 문제들을 해결하기 위해, 본 발명자들은 개인의 망막 안저의 캡처된 이미지를 사용하여 개인을 식별하도록 구성된 생체 식별 시스템을 개발하였다. 그러한 시스템은 낮은 오수락률과 낮은 오거부율을 갖는 최소 침습적 이미징 방법을 제공한다.
더욱이, 본 명세서에 설명된 바와 같은 생체 식별은 본 명세서에 설명된 생체 식별 시스템이 개인의 신원을 확인할 뿐만 아니라 개인으로부터의 어떤 정보도 필요로 하지 않고 개인의 신원을 실제로 결정하도록 구성될 수 있다는 점에서 종래의 시스템의 인증 기술들과 더욱 구별된다. 인증은 전형적으로, 주어진 식별 정보가 패스워드, 패스코드, 또는 생체 척도(biometric measure)와 매칭하는지 여부를 결정하기 위해, 개인이 패스워드, 패스코드 또는 생체 척도와 함께 식별 정보를 제공하는 것을 필요로 한다. 대조적으로, 본 명세서에 설명된 시스템은 개인의 망막 안저의 하나 이상의 캡처된 이미지에 기초하여 개인의 신원을 결정하도록 구성될 수 있다. 일부 실시예들에서, 생체 식별을 보완하기 위한 추가의 인증을 위해 패스워드, 패스코드, 또는 개인의 성문, 얼굴, 지문 및 홍채와 같은 생체 척도와 같은 추가의 보안 방법이 획득될 수 있다. 일부 실시예들에서, 개인은 개인의 망막 안저의 캡처된 이미지(들) 외에도 식별 정보를 생체 식별 시스템에 제공할 수 있다.
본 발명자들은 캡처된 이미지로부터 개인을 식별하는 데 사용될 수 있는 망막 안저 특징들이 또한 특정 질병에 대한 개인의 소인의 표시자로서 그리고 심지어 개인의 의학적 상태를 진단하는 데 사용될 수 있음을 더 인식하였다. 그에 따라, 본 명세서에 설명된 시스템은 대안적으로 또는 추가적으로 다양한 질병에 대한 개인의 소인을 결정하고 개인의 일부 건강 문제를 진단하도록 구성될 수 있다. 예를 들어, 식별을 위해 개인의 망막 안저의 하나 이상의 이미지를 캡처하거나 다른 방식으로 획득할 때, 시스템은 또한 이미지(들)에 기초하여 그러한 결정 또는 진단을 행할 수 있다.
도면을 참조하면, 도 1 및 도 2는 생체 식별, 건강 정보 관리, 의학적 상태 결정 및/또는 전자 계정 액세스 중 임의의 것 또는 각각을 위한 기술들을 구현하도록 구성된 예시적인 시스템 및 디바이스를 예시한다. 시스템 및 디바이스에 대한 설명에 뒤따르는 이러한 기술에 대한 설명은 도 1 및 도 2에 예시된 시스템 및 디바이스를 다시 참조할 것이다.
도 1 및 도 2를 참조하면, 도 1은 디바이스가 본 명세서에 설명된 기술과 연관된 다양한 동작들을 수행하기 위해 원격 컴퓨터와 통신할 수 있는 클라우드 연결 시스템을 예시한다. 도 1과 대조적으로, 도 2는 본 명세서에 설명된 기술들 중 일부 또는 전부를 디바이스에서 로컬로 수행하도록 구성될 수 있는 디바이스를 예시한다.
도 1을 참조하여, 본 발명자들은 사용자단 디바이스(user-end device)에서의 생체 식별, 건강 정보 관리 및 다른 작업들 위해 필요한 프로세싱이, 적어도 일부 상황에서, 전력 소모적이고/이거나 값비싼 프로세싱 및/또는 메모리 컴포넌트들을 필요로 할 수 있다는 것을 인식하였다. 이러한 문제를 해결하기 위해, 본 발명자들은, 보다 저렴하고 보다 전력 효율적인 하드웨어를 갖는 사용자단 디바이스가 구현될 수 있도록, 가장 까다로운 프로세싱 및/또는 메모리 집약적인 작업들의 일부 또는 전부를 원격 컴퓨터로 오프셋(offset)시킬 수 있는 클라우드 연결 시스템 및 디바이스를 개발하였다. 일부 경우에, 디바이스는 개인의 이미지를 캡처하고 이미지와 연관된 데이터를 원격 컴퓨터로 전송하기만 하면 될 수 있다. 그러한 경우에, 컴퓨터는 생체 식별을 수행하며, 건강 정보 및/또는 계정 정보에 액세스/이를 업데이트하고/하거나, 이미지 데이터에 기초하여 의학적 상태를 결정하며, 결과적인 데이터를 다시 디바이스로 전송할 수 있다. 디바이스가 이미지를 캡처하고 이미지와 연관된 데이터를 컴퓨터로 전송하기만 할 수 있기 때문에, 디바이스는 프로세싱 능력 및/또는 메모리를 거의 필요로 하지 않을 수 있으며, 이는 디바이스단(device end)에서의 비용 및 전력 소비 둘 모두의 대응하는 감소를 용이하게 한다. 따라서, 디바이스는 증가된 배터리 수명을 가질 수 있고 최종 사용자에게 보다 저렴할 수 있다.
도 1은 통신 네트워크(160)에 연결된 디바이스(120a) 및 컴퓨터(140)를 포함하는 예시적인 시스템(100)의 블록 다이어그램이다.
디바이스(120a)는 이미징 장치(122a) 및 프로세서(124a)를 포함한다. 일부 실시예들에서, 디바이스(120a)는 모바일 폰, 태블릿 컴퓨터와 같은 휴대용 디바이스, 및/또는 스마트 워치와 같은 웨어러블 디바이스일 수 있다. 일부 실시예들에서, 디바이스(120a)는 통신 네트워크(160)를 통해 통신하기 위한 독립형 네트워크 제어기를 포함할 수 있다. 대안적으로, 네트워크 제어기는 프로세서(124a)와 통합될 수 있다. 일부 실시예들에서, 디바이스(120a)는 사용자 인터페이스를 통해 정보를 제공하기 위한 하나 이상의 디스플레이를 포함할 수 있다. 일부 실시예들에서, 이미징 장치(122a)는 디바이스(120a)의 다른 컴포넌트들과 별도로 패키징될 수 있다. 예를 들어, 이미징 장치(122a)는, 예컨대, 전기 케이블(예를 들면, USB(universal serial bus) 케이블) 및/또는 유선 또는 무선 네트워크 연결을 통해, 다른 컴포넌트들에 통신 가능하게 결합될 수 있다. 다른 실시예들에서, 이미징 장치(122a)는 디바이스(120a)의 다른 컴포넌트들과 함께, 예로서, 동일한 모바일 폰 또는 태블릿 컴퓨터 하우징 내 등에, 패키징될 수 있다.
컴퓨터(140)는 저장 매체(142) 및 프로세서(144)를 포함한다. 저장 매체(142)는 이미지 및/또는 개인을 식별하기 위한 이미지와 연관된 데이터를 포함할 수 있다. 예를 들어, 일부 실시예들에서, 저장 매체(142)는 식별될 개인의 망막 안저 이미지와 비교하기 위한 망막 안저 이미지 및/또는 망막 안저 이미지와 연관된 데이터를 포함할 수 있다.
다양한 실시예들에 따르면, 통신 네트워크(160)는 로컬 영역 네트워크(LAN), 셀 폰 네트워크, 블루투스 네트워크, 인터넷, 또는 임의의 다른 그러한 네트워크일 수 있다. 예를 들어, 컴퓨터(140)는, 디바이스(120a)로부터 분리된 방과 같은, 디바이스(120a)에 대해 원격 위치에 위치될 수 있고, 통신 네트워크(160)는 LAN일 수 있다. 일부 실시예들에서, 컴퓨터(140)는 디바이스(120a)와 상이한 지리적 영역에 위치할 수 있고, 인터넷을 통해 통신할 수 있다.
다양한 실시예들에 따르면, 디바이스(120a) 대신에 또는 디바이스(120a) 외에도 다수의 디바이스들이 포함될 수 있음을 이해해야 한다. 예를 들어, 디바이스(120a)와 컴퓨터(140) 간의 통신을 위한 중간 디바이스가 시스템(100)에 포함될 수 있다. 대안적으로 또는 추가적으로, 컴퓨터(140)에 귀속되는 본 명세서에서의 다양한 작업들을 수행하기 위해 컴퓨터(140) 대신에 또는 컴퓨터(140) 외에도 다수의 컴퓨터들이 포함될 수 있다.
도 2는 본 명세서에 설명된 기술의 일부 실시예들에 따른, 예시적인 디바이스(120b)의 블록 다이어그램이다. 디바이스(120a)와 유사하게, 디바이스(120b)는 디바이스(120a)에 대해 설명된 방식으로 구성될 수 있는 이미징 장치(122b) 및 프로세서(124b)를 포함한다. 디바이스(120b)는 사용자 인터페이스를 통해 정보를 제공하기 위한 하나 이상의 디스플레이를 포함할 수 있다. 디바이스(120b)는 또한 저장 매체(126)를 포함한다. 이미지 데이터, 건강 정보, 계정 정보 또는 다른 그러한 데이터와 같은, 저장 매체(126)에 저장된 데이터는 디바이스(120b) 상에서의 로컬 식별, 건강 정보 관리, 의학적 상태 결정, 및/또는 계정 액세스를 용이하게 할 수 있다. 디바이스(120b)가 본 명세서에 설명된 기술과 연관된 임의의 또는 모든 동작들을 로컬로 수행하도록 구성될 수 있고, 일부 실시예들에서, 그러한 동작들을 원격으로 수행하기 위해 컴퓨터(140)와 같은 원격 컴퓨터로 데이터를 전송할 수 있음을 이해해야 한다. 예를 들어, 디바이스(120b)는 통신 네트워크(160)에 연결하도록 구성될 수 있다.
I. 개인의 망막의 이미지를 획득하고/하거나 개인의 망막을 측정하기 위한 기술 및 장치
본 발명자들은 개인의 망막 안저의 하나 이상의 이미지를 캡처하고/하거나 이미지와 연관된 데이터를 획득하기 위한 기술을 개발했으며, 그 양태들은 도 1 및 도 2를 참조하여 설명된다.
이미징 장치(122a 또는 122b)는 개인의 망막 안저의 단일 이미지를 캡처하도록 구성될 수 있다. 대안적으로, 이미징 장치(122a 또는 122b)는 개인의 망막 안저의 다수의 이미지들을 캡처하도록 구성될 수 있다. 일부 실시예들에서, 이미징 장치(122a 또는 122b)는 디지털 카메라와 같은 2차원(2D) 이미징 장치일 수 있다. 일부 실시예들에서, 이미징 장치(122a 또는 122b)는, OCT(Optical Coherence Tomography) 및/또는 FLIM(Fluorescence Lifetime Imaging Microscopy)을 통합하는 것과 같이, 보다 발전될 수 있다. 예를 들어, 일부 실시예들에서, 이미징 장치(122a 또는 122b)는 백색 광 또는 적외선(IR) 광, 형광 강도, OCT, 또는 형광 수명 데이터를 사용하는 것과 같이 광시야 또는 스캐닝 망막 안저 이미징을 위해 구성될 수 있는 망막 감지 디바이스일 수 있다. 대안적으로 또는 추가적으로, 이미징 장치(122a 또는 122b)는 1차원(1D), 2차원(2D), 3차원(3D) 또는 다른 차원 콘트라스트 이미징을 위해 구성될 수 있다. 본 명세서에서, 형광과 수명은 상이한 차원의 콘트라스트로 간주된다. 본 명세서에 설명된 이미지는 적색 정보 채널(예를 들면, 633 내지 635nm의 파장을 가짐), 녹색 정보 채널(예를 들면, 대략 532nm의 파장을 가짐) 또는 임의의 다른 적합한 광 이미징 채널(들) 중 임의의 것 또는 각각을 사용하여 캡처될 수 있다. 비제한적인 예로서, 형광 여기 파장은 480 내지 510nm이고 방출 파장은 480 내지 800nm일 수 있다.
이미징 장치(122a 또는 122b)는, 개인의 눈(들) 근처에 위치될 수 있도록, 디바이스(120a 또는 120b)의 다른 컴포넌트들과 별도로 패키징될 수 있다. 일부 실시예들에서, 디바이스(120a) 또는 디바이스(120b)는 개인의 얼굴을 수용하도록(예를 들면, 개인의 얼굴에 맞도록 등), 예컨대, 특히 개인의 눈(들) 주위에, 구성될 수 있다. 대안적으로, 디바이스(120a 또는 120b)는 개인의 눈(들) 앞에 유지되도록 구성될 수 있다. 일부 실시예들에서, 이미징 장치(122a 또는 122b)의 렌즈는 개인의 망막 안저를 이미징하는 동안 사용자의 눈 앞에 배치될 수 있다. 일부 실시예들에서, 이미징 장치(122a 또는 122b)는 사용자가 디바이스(120a 또는 120b) 상의 버튼을 누르는 것에 응답하여 하나 이상의 이미지를 캡처하도록 구성될 수 있다. 일부 실시예들에서, 이미징 장치(122a 또는 122b)는 사용자로부터의 음성 커맨드에 응답하여 이미지(들)를 캡처하도록 구성될 수 있다. 일부 실시예들에서, 이미징 장치(122a)는 컴퓨터(140)로부터의 커맨드에 응답하여 이미지(들)를 캡처하도록 구성될 수 있다. 일부 실시예들에서, 이미징 장치(122a 또는 122b)는 디바이스(120a 또는 120b)가 개인의 존재를 감지할 때, 예컨대, 이미징 장치(122a 또는 122b)의 관점에서 개인의 망막 안저를 검출하는 것에 의해, 자동으로 이미지(들)를 캡처하도록 구성될 수 있다.
본 발명자들은 또한 향상된 이미징 기능성 및 다양한 폼 팩터를 갖는 새롭고 개선된 이미징 장치를 개발하였다. 일부 실시예들에서, 본 명세서에 설명된 이미징 장치는, 공통 하우징 내의 OCT 및/또는 FLIM 디바이스들과 같은, 2개 이상의 이미징 디바이스를 포함할 수 있다. 예를 들어, 단일 이미징 장치는 이미징을 수행하고/하거나 이미지 저장 및/또는 전송을 위해 클라우드에 액세스하기 위한 연관된 전자 장치와 함께 하우징 내의 OCT 및 FLIM 디바이스들을 지지하도록 형성된 하우징을 포함할 수 있다. 일부 실시예들에서, 이미징 장치에 탑재된 전자 장치는, (예를 들면, 개인의 망막 안저를 이미징하는 것에 의해) 이미징 장치의 사용자를 식별하는 것, 사용자의 전자 건강 기록에 액세스하는 것, 및/또는 사용자의 건강 상태 또는 의학적 상태를 결정하는 것과 같은, 본 명세서에 설명된 다양한 프로세싱 작업들을 수행하도록 구성될 수 있다.
일부 실시예들에서, 본 명세서에 설명된 이미징 장치는 개인의 양쪽 눈을 (예를 들면, 동시에) 이미징하는 데 도움이 되는 폼 팩터를 가질 수 있다. 일부 실시예들에서, 본 명세서에 설명된 이미징 장치는 이미징 장치의 상이한 이미징 디바이스로 각각의 눈을 이미징하도록 구성될 수 있다. 예를 들어, 아래에서 더 설명되는 바와 같이, 이미징 장치는 개인의 눈들과 정렬되도록 이미징 장치의 하우징에 유지되는 한 쌍의 렌즈를 포함할 수 있고, 한 쌍의 렌즈는 또한 이미징 장치의 각자의 이미징 디바이스들과 정렬될 수 있다. 일부 실시예들에서, 이미징 장치는 이미징 디바이스가 이미징 장치의 각각의 측면에 위치된 실질적으로 쌍안경 형상의 폼 팩터를 포함할 수 있다. 이미징 장치의 동작 동안, 개인은 (예를 들면, 이미징이 수행되는 방향에 평행한 축을 중심으로 디바이스를 회전시키는 것에 의해) 이미징 장치의 수직 배향을 간단히 뒤집을 수 있다. 그에 따라, 이미징 장치는 제1 이미징 디바이스로 개인의 우안을 이미징하는 것으로부터 제2 이미징 디바이스로 우안을 이미징하는 것으로 전환할 수 있고, 마찬가지로, 제2 이미징 디바이스로 개인의 좌안을 이미징하는 것으로부터 제1 이미징 디바이스로 좌안을 이미징하는 것으로 전환할 수 있다. 일부 실시예들에서, 본 명세서에 설명된 이미징 장치는 테이블 또는 책상에, 예컨대, 스탠드에 장착하도록 구성될 수 있다. 예를 들어, 스탠드는 동작 동안 사용자에 의한 회전을 용이하게 하기 위해 하나 이상의 축을 중심으로 한 이미징 장치의 회전을 가능하게 할 수 있다.
본 명세서에 설명된 이미징 장치의 양태들이 실질적으로 쌍안경 형상과 상이한 폼 팩터를 사용하여 구현될 수 있음을 이해해야 한다. 예를 들어, 실질적으로 쌍안경 형상과 상이한 폼 팩터를 갖는 실시예들이 이하에 설명되는 예시적인 이미징 장치와 관련하여 본 명세서에 설명된 방식으로 달리 구성될 수 있다. 예를 들어, 그러한 이미징 장치는 이미징 장치의 하나 이상의 이미징 디바이스를 사용하여 동시에 개인의 한쪽 눈 또는 양쪽 눈을 이미징하도록 구성될 수 있다.
본 명세서에 설명된 기술에 따른 이미징 장치의 일 예가 도 14a 및 도 14b에 예시되어 있다. 도 14a에 도시된 바와 같이, 이미징 장치(1400)는 제1 하우징 섹션(1402)과 제2 하우징 섹션(1403)을 갖는 하우징(1401)을 포함한다. 일부 실시예들에서, 제1 하우징 섹션(1402)은 이미징 장치(1400)의 제1 이미징 디바이스(1422)를 수용할 수 있고, 제2 하우징 섹션(1403)은 이미징 장치의 제2 이미징 디바이스(1423)를 수용할 수 있다. 도 14a 및 도 14b에 예시된 바와 같이, 하우징(1401)은 실질적으로 쌍안경 형상이다.
일부 실시예들에서, 제1 및 제2 이미징 디바이스들(1422)은 광학 이미징 디바이스, 형광 이미징 디바이스, 및/또는 OCT 이미징 디바이스를 포함할 수 있다. 예를 들어, 일 실시예에서, 제1 이미징 디바이스(1422)는 OCT 이미징 디바이스일 수 있고, 제2 이미징 디바이스(1423)는 광학 및 형광 이미징 디바이스일 수 있다. 일부 실시예들에서, 이미징 장치(1400)는 단일 이미징 디바이스(1422 또는 1423)만, 예컨대, 광학 이미징 디바이스만 또는 형광 이미징 디바이스만을 포함할 수 있다. 일부 실시예들에서, 제1 및 제2 이미징 디바이스들(1422 및 1423)은 렌즈(예를 들면, 수렴, 발산 등), 미러, 및/또는 다른 이미징 컴포넌트들과 같은 하나 이상의 광학 컴포넌트를 공유할 수 있다. 예를 들어, 일부 실시예들에서, 제1 및 제2 이미징 디바이스들(1422 및 1423)은 공통 광학 경로를 공유할 수 있다. 디바이스들이 독립적으로 또는 공통으로 동작할 수 있는 것이 생각된다. 각각이 OCT 이미징 디바이스일 수 있거나, 각각이 형광 이미징 디바이스일 수 있거나, 또는 둘 모두가 한쪽 또는 다른 쪽일 수 있다. 양쪽 눈이 동시에 이미징 및/또는 측정될 수 있거나, 각각의 눈이 별도로 이미징 및/또는 측정될 수 있다.
하우징 섹션들(1402 및 1403)은 전방 하우징 섹션(1405)에 의해 하우징(1401)의 전방 단부에 연결될 수 있다. 예시적인 실시예에서, 전방 하우징 섹션(1405)은, 개인의 얼굴에 맞는 형상을 갖는 것과 같이, 개인의 얼굴 프로파일을 수용하도록 성형된다. 개인의 얼굴을 수용할 때, 전방 하우징 섹션(1405)은 개인의 눈으로부터 이미징 장치(1400)의 이미징 디바이스들(1422 및/또는 1423)로의 시선을 더 제공할 수 있다. 예를 들어, 전방 하우징 섹션(1405)은 제1 및 제2 광학 디바이스들(1422 및 1423)과 개인의 눈 사이에 최소한으로 방해된 광학 경로들을 제공하기 위해 제1 하우징 섹션(1402) 및 제2 하우징 섹션(1403) 내의 각자의 개구부들에 대응하는 제1 개구부(1410) 및 제2 개구부(1411)를 포함할 수 있다. 일부 실시예들에서, 개구부들(1410 및 1410)은, 유리 또는 플라스틱을 포함할 수 있는, 하나 이상의 투명 창(예를 들면, 각각이 자체 창, 공유 창 등을 가짐)으로 덮일 수 있다.
제1 및 제2 하우징 섹션들(1402 및 1403)은 후방 하우징 섹션(1404)에 의해 하우징(1401)의 후방 단부에 연결될 수 있다. 이미징 장치(1400)의 환경에서의 광이 하우징(1401)에 진입하여 이미징 디바이스들(1422 또는 1423)을 방해하지 않도록, 후방 하우징 섹션(1404)은 제1 및 제2 하우징 섹션들(1402 및 1403)의 단부를 덮도록 성형될 수 있다.
일부 실시예들에서, 이미징 장치(1400)는, 모바일 폰, 데스크톱, 랩톱 또는 태블릿 컴퓨터, 및/또는 스마트 워치와 같은, 다른 디바이스에 통신 가능하게 결합하도록 구성될 수 있다. 예를 들어, 이미징 장치(1400)는, 예컨대, USB 및/또는 적합한 무선 네트워크에 의해, 그러한 디바이스들에 대한 유선 및/또는 무선 연결을 확립하도록 구성될 수 있다. 일부 실시예들에서, 하우징(1401)은 하나 이상의 전기(예를 들면, USB) 케이블을 수용하기 위한 하나 이상의 개구부를 포함할 수 있다. 일부 실시예들에서, 하우징(1401)은 그러한 디바이스들로 또는 이들로부터 무선 신호를 전송 및/또는 수신하기 위해 그 위에 배치된 하나 이상의 안테나를 가질 수 있다. 일부 실시예들에서, 이미징 디바이스들(1422 및/또는 1423)은 전기 케이블 및/또는 안테나와 인터페이싱하도록 구성될 수 있다. 일부 실시예들에서, 이미징 디바이스들(1422 및/또는 1423)은, 예컨대, 하우징(1401) 내에 배치된 재충전 가능한 배터리를 충전하기 위해, 케이블 및/또는 안테나로부터 전력을 수신할 수 있다.
이미징 장치(1400)의 동작 동안, 이미징 장치(1400)를 사용하는 개인은 개인의 눈이 개구부들(1410 및 1411)과 정렬되도록 전방 하우징 섹션(1405)을 개인의 얼굴과 맞닿게 배치할 수 있다. 일부 실시예들에서, 이미징 장치(1400)는 하우징(1401)에 결합되고 개인의 손에 의해 파지되도록 구성된 파지 부재(gripping member)(도시되지 않음)를 포함할 수 있다. 일부 실시예들에서, 파지 부재는 연질 플라스틱 재료를 사용하여 형성될 수 있고, 개인의 손가락을 수용하도록 인체공학적으로 성형될 수 있다. 예를 들어, 개인은 양손으로 파지 부재를 잡고 개인의 눈이 개구부들(1410 및 1411)과 정렬되도록 전방 하우징 섹션(1405)을 개인의 얼굴과 맞닿게 배치할 수 있다. 대안적으로 또는 추가적으로, 이미징 장치(1400)는 하우징(1401)에 결합되고 이미징 장치(1400)를 장착 암에 장착하도록, 예컨대, 이미징 장치(1400)를 테이블 또는 다른 장비에 장착하도록 구성된 장착 부재(도시되지 않음)를 포함할 수 있다. 예를 들어, 장착 부재를 사용하여 장착될 때, 개인이 이미징 장치(1400)를 제자리에 유지할 필요 없이 이미징 장치(1400)가 개인에 의한 사용을 위해 한 위치에 안정될 수 있다.
일부 실시예들에서, 이미징 장치(1400)는 개인의 눈을 향한, 예컨대, 개구부들(1410 및 1411)이, 예를 들어, 개인의 눈과 정렬되는 방향을 따른, 이미징 장치(1400)로부터의 가시광 투영과 같은 고정기(fixator)를 이용할 수 있다. 다양한 실시예들에 따르면, 고정기는, 원형 또는 타원형 스폿과 같은, 밝은 스폿, 또는, 이미지, 집 또는 어떤 다른 물체와 같은, 이미지일 수 있다. 본 발명자들은 한쪽 눈만이 물체를 인지할 때에도 개인이 물체에 초점을 맞추기 위해 전형적으로 양쪽 눈을 동일한 방향으로 움직인다는 것을 인식하였다. 그에 따라, 일부 실시예들에서, 이미징 장치(1400)는, 예컨대, 하나의 개구부(1410 또는 1411)만을 사용하여, 한쪽 눈에만 고정기를 제공하도록 구성될 수 있다. 다른 실시예들에서, 고정기가, 예컨대, 양쪽 개구부(1410 및 1411)를 사용하여, 양쪽 눈에 제공될 수 있다.
도 15는 일부 실시예들에 따른, 이미징 장치(1500)의 추가의 실시예를 예시한다. 도시된 바와 같이, 이미징 장치(1500)는 하우징(1501)을 포함하고, 하우징(1501) 내에 하나 이상의 이미징 디바이스(도시되지 않음)가 배치될 수 있다. 하우징(1501)은 중앙 하우징 부분(1504)에 연결된 제1 하우징 섹션(1502) 및 제2 하우징 섹션(1503)을 포함한다. 중앙 하우징 부분(1504)은 힌지를 포함하고/하거나 힌지로서 동작할 수 있으며, 이 힌지는 제1 하우징 부분(1502)과 제2 하우징 부분(1503)을 연결시키고 이 힌지를 중심으로 제1 하우징 부분(1502)과 제2 하우징 부분(1503)이 회전할 수 있다. 중앙 하우징 부분(1504)을 중심으로 제1 및/또는 제2 하우징 섹션들(1502 및/또는 1503)을 회전시키는 것에 의해, 제1 하우징 섹션(1502)과 제2 하우징 섹션(1503)을 분리시키는 거리가 그에 따라 증가 또는 감소될 수 있다. 이미징 장치(1500)의 동작 이전 및/또는 동작 동안, 개인은 개인의 눈을 분리시키는 거리를 수용하기 위해, 예컨대, 개인의 눈을 제1 및 제2 하우징 섹션들(1502 및 1503)의 개구부들과 정렬시키는 것을 용이하게 하기 위해, 제1 및 제2 하우징 섹션들(1502 및 1503)을 회전시킬 수 있다.
제1 및 제2 하우징 섹션들(1502 및 1503)은 도 14a 및 도 14b와 관련하여 제1 및 제2 하우징 섹션들(1402 및 1403)에 대해 설명된 방식으로 구성될 수 있다. 예를 들어, 각각의 하우징 섹션은 하나 이상의 이미징 디바이스, 예컨대, 광학 이미징 디바이스, 형광 이미징 디바이스 및/또는 OCT 이미징 디바이스를 내부에 수용할 수 있다. 도 15에서, 각각의 하우징 섹션(1502 및 1503)은 전방 하우징 섹션들(1505A 및 1505B)의 별개의 것에 결합된다. 전방 하우징 섹션들(1505A 및 1505B)은 이미징 장치(1500)를 사용하는 개인의 얼굴 프로파일에 맞도록, 예컨대, 개인의 눈에 근접한 개인의 얼굴의 부분들에 맞도록 성형될 수 있다. 일 예에서, 전방 하우징 섹션들(1505A 및 1505B)은 개인의 얼굴과 맞닿게 배치될 때 개인의 얼굴 프로파일에 맞을 수 있는 유연한 플라스틱을 사용하여 형성될 수 있다. 전방 하우징 섹션들(1505A 및 1505B)은 제1 및 제2 하우징 섹션들(1502 및 1503)의 개구부들에 대응하는, 예컨대, 개인의 눈으로부터 이미징 장치(1500)의 이미징 디바이스들까지의 최소한으로 방해된 광학 경로를 제공하기 위해 제1 및 제2 하우징 섹션들(1502 및 1503)의 개구부들과 정렬되는, 각자의 개구부들(1511 및 1510)을 가질 수 있다. 일부 실시예들에서, 개구부들(1510 및 1511)은 유리 또는 플라스틱을 사용하여 만들어진 투명 창으로 덮일 수 있다.
일부 실시예들에서, 중앙 하우징 섹션(1504)은 이미징 장치(1500)를 동작시키기 위한 하나 이상의 전자 회로(예를 들면, 집적 회로, 인쇄 회로 기판 등)를 포함할 수 있다. 일부 실시예들에서, 디바이스(120a 및/또는 120b)의 하나 이상의 프로세서는, 예컨대, 이미징 디바이스들을 사용하여 캡처된 데이터를 분석하기 위해, 중앙 하우징 섹션(1504)에 배치될 수 있다. 중앙 하우징 섹션(1504)은, 이미징 장치(1400)에 대해 설명된 것과 같은, 다른 디바이스들 및/또는 컴퓨터들과 전기적으로 통신하는 유선 및/또는 무선 수단을 포함할 수 있다. 예를 들어, (예를 들면, 본 명세서에 설명된 바와 같은) 추가의 프로세싱은 이미징 장치(1500)에 통신 가능하게 결합된 디바이스들 및/또는 컴퓨터들에 의해 수행될 수 있다. 일부 실시예들에서, 이미징 장치(1500)에 탑재된 전자 회로는 그러한 통신 가능하게 결합된 디바이스들 또는 컴퓨터들로부터 수신되는 지시들에 기초하여 캡처된 이미지 데이터를 프로세싱할 수 있다. 일부 실시예들에서, 이미징 장치(1500)는 이미징 장치(1500)에 통신 가능하게 결합된 디바이스들 및/또는 컴퓨터들로부터 수신되는 지시에 기초하여 이미지 캡처 시퀀스를 개시할 수 있다. 일부 실시예들에서, 디바이스(120a 및/또는 120b)에 대해 본 명세서에 설명된 프로세싱 기능성은 이미징 장치에 탑재된 하나 이상의 프로세서를 사용하여 수행될 수 있다.
이미징 장치(1400)와 관련한 것을 포함하여 본 명세서에 설명된 바와 같이, 이미징 장치(1500)는 파지 부재 및/또는 장착 부재, 및/또는 고정기를 포함할 수 있다.
도 16a 내지 도 16d는 일부 실시예들에 따른, 이미징 장치(1600)의 추가의 실시예를 예시한다. 도 16a에 도시된 바와 같이, 이미징 장치(1600)는 다수의 하우징 부분들(1601a, 1601b 및 1601c)을 포함하는 하우징(1601)을 갖는다. 하우징 부분(1601a)은 이미징 장치(1600)를 켜거나 끄고 스캔 시퀀스를 개시하기 위한 다수의 버튼들을 포함하는 제어 패널(1625)을 갖는다. 도 16b는, 이미징 디바이스들(1622 및 1623) 및 전자 장치(1620)와 같은, 하우징(1601) 내에 배치된 컴포넌트들을 예시하는 이미징 장치(1600)의 분해도이다. 이미징 디바이스들(1622 및 1623)은, 도 14a, 도 14b 및 도 15와 관련하여 본 명세서에 설명된 바와 같이, 다양한 실시예들에 따른, 광학 이미징 디바이스, 형광 이미징 디바이스, 및/또는 OCT 이미징 디바이스를 포함할 수 있다. 이미징 장치는, 예를 들어, 도 16c에 예시된 바와 같이, 이미징을 위해 개인의 눈을 수용하도록 구성된 전방 하우징 부분(1605)을 더 포함한다. 도 16d는, 본 명세서에 더 설명되는 바와 같이, 스탠드(1650)에 안착된 이미징 장치(1600)를 예시한다.
도 16a 내지 도 16d에 도시된 바와 같이, 하우징 부분들(1601a 및 1601b)은, 예컨대, 이미징 장치(1600)의 컴포넌트들의 전부 또는 대부분이 하우징 부분(1601a)과 하우징 부분(1601b) 사이에 배치되어 있는 것에 의해, 이미징 장치(1600)를 실질적으로 둘러쌀 수 있다. 하우징 부분(1601c)은, 예컨대, 하우징(1601)을 함께 고정시키는 하나 이상의 나사를 사용하여, 하우징 부분들(1601a 및 1601b)에 기계적으로 결합될 수 있다. 도 16b에 예시된 바와 같이, 하우징 부분(1601c)은, 이미징 디바이스들(1622 및 1623)을 수용하기 위한 하우징 부분들(1602 및 1603)과 같은, 다수의 하우징 부분들을 내부에 가질 수 있다. 예를 들어, 일부 실시예들에서, 하우징 부분들(1602 및 1603)은 이미징 디바이스들(1622 및 1623)을 제자리에 유지하도록 구성될 수 있다. 하우징 부분(1601c)은 렌즈들(1610 및 1611)이 배치되는 한 쌍의 렌즈 부분들을 더 포함한다. 하우징 부분들(1602 및 1603)과 렌즈 부분들은 이미징 디바이스들(1622 및 1623)을 렌즈들(1610 및 1611)과 정렬되게 유지하도록 구성될 수 있다. 하우징 부분들(1602 및 1603)은 렌즈들(1610 및 1611)의 초점을 조절하기 위한 포커싱부들(1626 및 1627)을 수용할 수 있다. 일부 실시예들은 고정 탭(1628)을 더 포함할 수 있다. 고정 탭(1628)을 조정(예를 들면, 누르기, 당기기, 밀기 등)하는 것에 의해, 하우징 부분들(1601a, 1601b, 및/또는 1601c)이, 예컨대, 유지 관리 및/또는 수리 목적으로 이미징 장치(1600)의 컴포넌트들에 접근하기 위해, 서로 분리될 수 있다.
전자 장치(1620)는 도 15와 관련하여 전자 장치(1620)에 대해 설명된 방식으로 구성될 수 있다. 제어 패널(1625)은 전자 장치(1520)에 전기적으로 결합될 수 있다. 예를 들어, 제어 패널(1625)의 스캔 버튼은 이미징 디바이스(1622 및/또는 1623)를 사용하여 스캔을 개시하기 위해 전자 장치(1620)에 스캔 커맨드를 전달하도록 구성될 수 있다. 다른 예로서, 제어 패널(1625)의 전원 버튼은 전원 켜기 또는 전원 끄기 커맨드를 전자 장치(1620)에 전달하도록 구성될 수 있다. 도 16b에 예시된 바와 같이, 이미징 장치(1600)는 이미징 장치(1600)의 주변 환경에 있는 전자기 간섭(EMI) 소스로부터 전자 장치(1620)를 격리시키도록 구성된 전자기 차폐물(1624)을 더 포함할 수 있다. 전자기 차폐물(1624)을 포함하는 것은 전자 장치(1620)의 동작(예를 들면, 잡음 성능)을 개선시킬 수 있다. 일부 실시예들에서, 전자기 차폐물(1624)은 하나 이상의 프로세서에서 생성된 열을 소산시키기 위해 전자 장치(1620)의 하나 이상의 프로세서에 결합될 수 있다.
일부 실시예들에서, 본 명세서에 설명된 이미징 장치는, 도 16d의 예에 예시된 바와 같이, 스탠드에 장착하도록 구성될 수 있다. 도 16d에서, 이미징 장치(1600)는 베이스(1652) 및 홀딩부(1658)를 포함하는 스탠드(1650)에 의해 지지된다. 베이스(1652)는 실질적으로 U자형 지지부를 포함하는 것으로 예시되어 있고 지지부의 밑면에 부착된 다수의 발(1654)을 갖는다. 베이스(1652)는, 도면에 예시된 것과 같이, 테이블 또는 책상 위에 이미징 장치(1600)를 지지하도록 구성될 수 있다. 홀딩부(1658)은 이미징 장치(1600)의 하우징(1601)을 수용하도록 성형될 수 있다. 예를 들어, 홀딩부(1658)의 외부 대향 측면(exterior facing side)은 하우징(1601)에 맞도록 성형될 수 있다.
도 16d에 예시된 바와 같이, 베이스(1652)는 힌지(1656)에 의해 홀딩부(1658)에 결합될 수 있다. 힌지(1656)는 표면 지지 베이스(1652)에 평행한 축을 중심으로 한 회전을 가능하게 할 수 있다. 예를 들어, 이미징 장치(1600)와 스탠드(1650)의 동작 동안, 개인은 이미징 장치(1600)가 내부에 안착되어 있는 홀딩부(1658)를 개인이 한쪽 또는 양쪽 눈을 이미징하기에 편안한 각도로 회전시킬 수 있다. 예를 들어, 개인은 스탠드(1650)를 지지하는 테이블 또는 책상에 앉을 수 있다. 일부 실시예들에서, 개인은 광학 축에 평행한 축을 중심으로 이미징 장치(1600)를 회전시킬 수 있으며 이미징 장치 내의 이미징 디바이스들은 이 광학 축을 따라 개인의 눈(들)을 이미징한다. 예를 들어, 일부 실시예들에서 스탠드(1650)는 대안적으로 또는 추가적으로 광학 축에 평행한 힌지를 포함할 수 있다.
일부 실시예들에서, 홀딩부(1658)(또는 스탠드(1650)의 어떤 다른 부분)은 유선 또는 무선 연결을 통해 전력을 이미징 장치(1600)로 전송하도록 구성된 충전 하드웨어를 포함할 수 있다. 일 예에서, 스탠드(1650) 내의 충전 하드웨어는 하나 또는 복수의 무선 충전 코일에 결합된 전력 공급 장치를 포함할 수 있고, 이미징 장치(1600)는 스탠드(1650) 내의 코일로부터 전력을 수신하도록 구성된 무선 충전 코일을 포함할 수 있다. 다른 예에서, 이미징 장치(1600)가 홀딩부(1658)에 안착될 때 이미징 장치(1600)의 상보적 커넥터가 스탠드(1650)의 커넥터와 인터페이싱하도록, 스탠드(1650) 내의 충전 하드웨어는 홀딩부(1658)의 외부 대향 측면 상의 전기 커넥터에 결합될 수 있다. 다양한 실시예들에 따르면, 무선 충전 하드웨어는 충전을 위해 적절한 전압 및 전류를 이미징 장치(1600)에 제공하도록 구성된 하나 이상의 전력 변환기(예를 들면, AC 대 DC, DC 대 DC 등)를 포함할 수 있다. 일부 실시예들에서, 스탠드(1650)는 이미징 장치(1600)에 유선 또는 무선 전력을 제공하도록 구성된 적어도 하나의 재충전 가능 배터리를 하우징할 수 있다. 일부 실시예들에서, 스탠드(1650)는, 단상 벽면 콘센트와 같은, 표준 벽면 콘센트로부터 전력을 수신하도록 구성된 하나 이상의 전력 커넥터를 포함할 수 있다.
일부 실시예들에서, 전방 하우징 부분(1605)은 다수의 부분들(1605a 및 1605b)을 포함할 수 있다. 전방 하우징 부분(1605)이 사용자가 착용하기에 편안하도록, 부분(1605a)은 기계적 탄성이 있는(mechanically resilient) 재료를 사용하여 형성될 수 있는 반면, 전방 부분(1605b)은 기계적 순응성이 있는(mechanically compliant) 재료를 사용하여 형성될 수 있다. 예를 들어, 일부 실시예들에서, 부분(1605a)은 플라스틱을 사용하여 형성될 수 있고 부분(1605b)은 고무 또는 실리콘을 사용하여 형성될 수 있다. 다른 실시예들에서, 전방 하우징 부분(1605)은 단일의 기계적 탄성이 있거나 기계적 순응성이 있는 재료를 사용하여 형성될 수 있다. 일부 실시예들에서, 부분(1605b)은 전방 하우징 부분(1605)의 외부 측에 배치될 수 있고, 부분(1605a)은 부분(1605b) 내에 배치될 수 있다.
본 발명자들은 개인의 망막 안저의 다수의 이미지들을 캡처하는 것에 의해 얻어질 수 있는 여러 장점들을 인식하였다. 예를 들어, 다수의 캡처된 이미지들로부터 데이터를 추출하는 것은 구현하는 데 비용이 보다 적게 들면서도 사기에 보다 덜 취약한 생체 식별 기술을 용이하게 한다. 섹션 III을 참조하는 것을 포함하여 본 명세서에 설명된 바와 같이, 캡처된 이미지들로부터 추출된 데이터는 캡처된 이미지 데이터를 저장된 이미지 데이터와 비교하는 것에 의해 개인을 식별하는 데 사용될 수 있다. 일부 실시예들에서, 캡처된 이미지 데이터가 저장된 이미지 데이터의 일부 부분과 적어도 미리 결정된 유사도를 가질 때 확실한 식별이 표시될 수 있다. 시스템이 개인을 잘못 식별하는 것을 방지하기 위해 높은 미리 결정된 유사도(예를 들면, 거의 100%)가 바람직할 수 있지만, 그러한 높은 요구된 유사도는 종래에 높은 오거부율(FRR)을 결과하며, 이는 올바른 개인이 확실하게 식별되는 것이 보다 어렵다는 것을 의미한다. 이러한 이유는, 저해상도 및/또는 낮은 시야를 갖는 개인의 단일의 캡처된 이미지를 사용하여 개인을 식별할 때, 캡처된 이미지가, 예를 들어, 이미지에서의 누락되거나 왜곡된 특징들로 인해, 미리 결정된 높은 유사도를 달성하지 못할 수 있기 때문일 수 있다. 그 결과, FRR을 손상시키지 않으면서 높은 미리 결정된 유사도를 사용할 수 있게 하기 위해 고해상도 및 높은 시야를 가진 이미지를 캡처할 수 있는 이미징 장치가 바람직할 수 있다. 그렇지만, 높은 미리 결정된 유사도를 지원할 수 있는 고품질 이미징 장치는 전형적으로 간단한 디지털 카메라보다 고가이다. 보다 고가의 이미징 장치를 사용하는 것에 대한 종래의 대안은 보다 낮은 미리 결정된 유사도를 사용하는 것이다. 그렇지만, 그러한 시스템은 사기에 보다 취약할 수 있다.
이러한 문제를 해결하기 위해, 본 발명자들은 향상된 유연성을 위해 일반 디지털 카메라를 사용하여 수행될 수 있는 생체 식별을 위한 기술을 개발하였다. 단일 이미지 비교 시스템과 대조적으로, 본 발명자들은 비교를 위한 다수의 이미지들을 캡처할 수 있는 시스템을 개발하였으며, 이는 보다 높은 해상도 또는 시야의 이미징 장치를 필요로 하지 않으면서 보다 높은 유사도의 사용을 용이하게 한다. 일부 실시예들에서, 데이터가 개인의 망막 안저의 다수의 이미지들로부터 추출되고 비교를 위한 단일 세트로 결합될 수 있다. 예를 들어, 다수의 이미지들이 이미징 장치(122a 또는 122b)에 의해 캡처될 수 있으며, 이미징 장치 각각은 개인의 망막 안저의 상이한 부분들을 캡처하기 위해 서로로부터 약간 회전될 수 있다. 일부 실시예들에서, 개인의 눈(들)은 회전할 수 있고/있거나 이미징 장치(122a 또는 122b)를 추적할 수 있다. 그에 따라, 개인의 망막 안저의 특징들을 나타내는 데이터가 이미지들로부터 추출되고 다양한 특징들의 위치들을 나타내는 데이터 세트로 결합될 수 있다. 다수의 이미지들이 결합되어 사용되기 때문에, 단일의 캡처된 이미지가 고해상도이거나 높은 시야를 가질 필요가 없다. 오히려, 모바일 폰과 통합된 디지털 카메라와 같은, 간단한 디지털 카메라가 본 명세서에 설명된 바와 같이 이미징을 위해 사용될 수 있다.
일부 실시예들에서, 시스템(100 또는 120b)은 기록된 생체 특성들을 사용하여 망막 안저 식별을 검증하도록 구성될 수 있다(예를 들면, 다중 인자 식별(multi-factor identification)). 예를 들어, 디바이스(120a 또는 120b)는 또한 지문 판독기 및/또는 마이크로폰과 같은 하나 이상의 생체 센서를 포함할 수 있다. 따라서, 디바이스(120a 또는 120b)는, 개인의 지문 및/또는 성문과 같은, 개인의 하나 이상의 생체 특성을 기록할 수 있다. 생체 특성(들)의 특징들을 나타내는 데이터는 망막 안저 이미지에 대해 설명된 방식으로 추출될 수 있고, 디바이스(120a)의 경우에, 데이터는 검증을 위해 컴퓨터(140)로 전송될 수 있다. 그에 따라, 일단 망막 안저 이미지(들)에 기초하여 식별이 이루어지면, 생체 특성 데이터는 추가 보안을 위해 망막 안저 식별을 검증하기 위해 개인과 연관된 저장된 특성 데이터와 비교될 수 있다.
II. 망막 이미지에 기초하여 개인을 식별하기 위한 기술
본 발명자들은 개인의 망막 이미지에 기초하여 개인을 식별하기 위한 기술을 개발하였다. 이 기술은 개인의 망막 안저의 하나 이상의 캡처된 이미지로부터 추출된 데이터를 다른 망막 안저 이미지들로부터 추출된 저장된 데이터와 비교하는 것을 포함할 수 있다. 하나 이상의 캡처된 이미지로부터 데이터를 추출하기 위한 기술이 도 3 및 도 4를 참조하는 것을 포함하여 본 명세서에서 설명된다. 도 3은 개인의 망막 안저의 하나 이상의 이미지를 캡처하고 캡처된 이미지(들)로부터 데이터를 추출하기 위한 예시적인 방법을 제공하고, 도 4는 이미지(들)로부터 추출된 데이터에 표시될 수 있는 개인의 망막 안저의 일부 특징들을 예시한다.
도 3은 단계(302)에서 하나 이상의 망막 안저 이미지를 캡처하는 것 및 단계(304)에서 이미지(들)로부터 이미지 데이터를 추출하는 것을 포함하는 예시적인 방법(300)을 예시하는 흐름 다이어그램이다. 도 1의 실시예에 따르면, 방법(300)은 디바이스(120a)에 의해 수행될 수 있거나, 또는 대안적으로 부분적으로는 디바이스(120a)에 의해 부분적으로는 컴퓨터(140)에 의해 수행될 수 있다. 도 2의 실시예에 따르면, 방법(300)은 전적으로 디바이스(120b)에 의해 수행될 수 있다.
단계(302)에서 이미지(들)를 캡처하는 것은 섹션 I에 설명된 기술의 임의의 또는 모든 실시예들에 따라 수행될 수 있다. 단계(304)에서 이미지(들)로부터 이미지 데이터를 추출하는 것은 프로세서(124a 또는 124b)가 이미징 장치(122a 또는 122b)로부터 캡처된 이미지(들)를 획득하는 것 및 이미지(들)로부터 개인의 망막 안저의 특징들을 나타내는 데이터를 추출하는 것을 포함할 수 있다. 예를 들어, 데이터는 특징들의 상대 위치 및 배향을 포함할 수 있다. 일부 실시예들에서, 특징 데이터가 다수의 캡처된 이미지들로부터 추출되고 단일의 특징 데이터 세트로 결합될 수 있다. 단계(304)에서의 특징 추출이 컴퓨터(140)에 의해 수행될 수 있음을 이해해야 한다. 예를 들어, 시스템(100)의 일부 실시예들에서, 디바이스(120a)는 이미지(들)를 캡처하고 데이터 추출을 위해 이미지(들)를 컴퓨터(140)로 전송하도록 구성될 수 있다.
또한 단계(304) 동안, 추출된 데이터는, 디바이스(120b)의 저장 매체(124)와 같은, 저장 매체에 기록될 수 있다. 클라우드 기반 시스템(100)의 일부 실시예들에서, 이미징 장치(122a)는 디바이스(120a)가 통신 네트워크(160)에 액세스할 수 없을 때 이미지(들)를 캡처하고/하거나 이미지(들)로부터 데이터를 추출할 수 있고, 따라서 프로세서(124a)는 적어도 통신 네트워크(160)를 통해 전송될 수 있을 때까지 이미지(들) 및/또는 데이터를 저장 매체에 저장할 수 있다. 그러한 경우에, 프로세서(124a)는 이미지(들) 및/또는 데이터를 컴퓨터(140)로 전송하기 직전에 저장 매체로부터 이미지(들) 및/또는 데이터를 획득할 수 있다. 일부 실시예들에서, 망막 안저 이미지(들)는 디바이스(120a 또는 120b)에 의해 캡처되지 않고 별도의 디바이스에 의해 캡처될 수 있다. 이미지(들)는 디바이스(120a 또는 120b)로 전송될 수 있으며, 그로부터 데이터가 추출되어 저장 매체에 저장될 수 있다. 대안적으로, 데이터가 또한 별도의 디바이스에 의해 추출되어 디바이스(120a) 또는 디바이스(120b)로 전송될 수 있다. 예를 들어, 디바이스(120a)는 데이터를 컴퓨터(140)에 전달하는 작업을 맡을 수 있거나, 디바이스(120b)는 데이터에 기초하여 개인을 식별하거나 어떤 다른 작업을 수행할 수 있다.
도 4는 도 3의 방법(300) 동안 단계(302)에서 하나 이상의 이미지에서 캡처될 수 있고/있거나 단계(304)에서 이미지(들)로부터 추출된 데이터에 표시될 수 있는 다양한 특징들을 포함하는 망막 안저(400)의 측면도이다. 예를 들어, 개인을 식별하기 위해 망막 안저(400)의 정맥과 동맥의 특징들이 사용될 수 있다. 그러한 특징들은 정맥과 동맥의 분지 말단(branch ending)(410) 및 분기(bifurcation)(420)를 포함할 수 있다. 본 발명자들은, 핑거프린팅에서와 유사하게, 분지 말단(410)과 분기(420)(때때로 "특징점(minutiae)"이라고 지칭됨)의 위치가 고유 식별자로서 사용될 수 있음을 인식하였다. 그에 따라, 일부 실시예들에서, 분지 말단(410) 및/또는 분기(420)의 상대 위치가 단일의 캡처된 이미지로부터 추출되고 하나 이상의 데이터 세트에 기록될 수 있다. 일부 예에서, 분지 말단(410) 및/또는 분기(420)의 상대 위치가 다수의 캡처된 이미지들로부터 추출되고 단일 데이터 세트로 결합될 수 있다. 예를 들어, 각각의 분지 말단(410) 및/또는 분기(420)의 평균 상대 위치가 데이터 세트에 기록될 수 있다. 일부 실시예들에서, 비동맥(nasal artery)(430), 비정맥(nasal vein)(440), 측두 동맥(450) 및/또는 측두 정맥(460)과 같은 특정 정맥 또는 동맥의 상대 위치가 하나 이상의 데이터 세트에 기록될 수 있다.
일부 실시예들에서, 단계(304)에서 분지 말단(410) 및/또는 분기(420)에 대한 데이터 대신에 또는 그 외에도 다른 특징들을 나타내는 데이터가 추출될 수 있다. 예를 들어, 망막 안저(400) 내에서의 상대 위치와 같은 시신경 유두(optic disc)(470) 또는 시신경 유두 경계의 양태들이 데이터 세트에 기록될 수 있다. 일부 실시예들에서, 시신경 유두(470)와 연관된 데이터는 정맥 또는 동맥과 연관된 데이터와 별도의 데이터 세트에 기록될 수 있다. 대안적으로 또는 추가적으로, 중심와(480) 및/또는 황반(490)의 상대 위치를 나타내는 데이터가 데이터 세트에 기록될 수 있다. 캡처된 이미지(들)로부터 추출된 데이터에 표시될 수 있는 추가의 특징들은 시신경, 혈관 주변, AV 닉(AV nick), 드루젠, 망막 색소 침착 등을 포함한다.
일부 실시예들에서, 위에서 설명된 특징들 중 임의의 것 또는 전부를 추출하는 것은 개별 특징들의 상대 위치 및 배향을 포함하는 전체 공간 맵으로의 이미지(들)의 세그먼트화를 해결하는 것을 포함할 수 있다. 예를 들어, 공간 맵은 분지 말단(410) 또는 분기(420)와 같은 특징들이 맵에서의 임의의 특정 위치에 존재하는지 여부를 나타내는 이진 마스크를 포함할 수 있다. 일부 실시예들에서, 특징들의 위치를 나타내는 상대 각도는 공간 맵에 기초하여 계산될 수 있다. 저장 공간을 절감하고/하거나 공간 맵의 계산을 단순화하기 위해, 정맥과 같은 일부 특징들의 두께가 단일 픽셀 폭으로 감소될 수 있다. 대안적으로 또는 추가적으로, 다수의 이미지들의 조합으로부터 결과되는 데이터와 같은, 중복 데이터가 공간 맵으로부터 제거될 수 있다.
일부 실시예들에서, 특징 데이터는 섹션 III을 참조하는 것을 포함하여 본 명세서에 설명된 바와 같이, SIFT(Scale Invariant Feature Transform) 및/또는 SURF(Speed Up Robust Feature) 비교를 용이하게 하기 위해 병진 및 회전 불변 특징들의 상대 위치 및 배향을 포함할 수 있다. 예를 들어, 위에서 설명된 추출된 특징들은 SIFT(Scale Invariant Feature Transform) 특징들 및/또는 SURF(Speed Up Robust Feature)일 수 있다.
본 발명자들은 또한, 도 5a 내지 도 5c, 도 6, 도 7a 및 도 7b에 예시된 실시예들에 따라, 트레이닝된 통계적 분류기(TSC)를 사용하여 하나 이상의 캡처된 이미지로부터 데이터를 추출하기 위한 기술을 개발하였다. 예를 들어, 일부 실시예들에서, 방법(300)의 단계(304)는 도 5a 내지 도 5c, 도 6, 도 7a 및 도 7b의 실시예들에 예시된 것과 같은 TSC에 의해 수행될 수 있다. 이미징 장치(122a 또는 122b)에 의해 캡처된 하나 이상의 이미지(들)는 TSC에 입력될 수 있다. 캡처된 이미지(들)는, 예컨대, 백색 광, IR, 형광 강도, OCT, 또는 1D, 2D 또는 3D 형광 수명 데이터에 의해, 이미징 장치(122a 또는 122b)로부터 수집되는 하나 이상의 광시야 또는 스캔된 망막 이미지로부터의 데이터를 포함할 수 있다. TSC는 이미지(들)에서의 다양한 망막 안저 특징들의 양태들을 식별하여 출력하도록 구성될 수 있다. 본 발명자들은 캡처된 이미지들로부터 특징 데이터를 추출하기 위한 TSC를 구현하는 것이 다수의 캡처된 이미지들을 사용하여 식별을 용이하게 한다는 것을 인식하였다. 예를 들어, 본 명세서에 설명된 TSC는 개별 이미지들 또는 이미지 그룹들에 기초하여 예측을 형성하도록 구성될 수 있다. 예측은 TSC로부터의 하나 이상의 출력의 형태일 수 있다. 각각의 출력은 단일 이미지 또는 다수의 이미지들에 대응할 수 있다. 예를 들어, 하나의 출력은 특정 망막 안저 특징이 주어진 이미지에서 하나 이상의 위치에 나타날 가능성을 나타낼 수 있다. 대안적으로, 출력은 다수의 특징들이 이미지의 하나 이상의 위치에 나타날 가능성을 나타낼 수 있다. 게다가, 출력은 단일 특징 또는 다수의 특징들이 다수의 이미지들에서 하나 이상의 위치에 나타날 가능성을 나타낼 수 있다.
본 명세서에 설명된 TSC는 소프트웨어로, 하드웨어로, 또는 소프트웨어와 하드웨어의 임의의 적합한 조합을 사용하여 구현될 수 있다. 예를 들어, TSC는 디바이스(120a)의 프로세서(124a), 컴퓨터(140)의 프로세서(144), 및/또는 디바이스(120b)의 프로세서(124b)에서 실행될 수 있다. 일부 실시예들에서, Theano, Torch, Caffe, Keras 및 TensorFlow와 같은 하나 이상의 머신 러닝 소프트웨어 라이브러리가 본 명세서에 설명된 바와 같이 TSC를 구현하는 데 사용될 수 있다. 이러한 라이브러리들은 신경 네트워크와 같은 통계적 분류기를 트레이닝시키고/시키거나 트레이닝된 통계적 분류기를 구현하는 데 사용될 수 있다.
일부 실시예들에서, TSC를 사용한 데이터 추출은 디바이스(120a)에서 일어날 수 있으며, 디바이스(120a)는 TSC의 출력을 통신 네트워크(160)를 통해 컴퓨터(140)로 전송할 수 있다. 대안적으로, 컴퓨터(140)가 디바이스(120a)로부터 캡처된 이미지(들)를 획득하고, 예를 들어, 컴퓨터(140)에서 실행되는 TSC를 사용하여, 캡처된 이미지(들)로부터 캡처된 이미지 데이터를 추출할 수 있다. 후자의 실시예에 따르면, 디바이스(120a)는 캡처된 이미지(들)를, JPEG(Joint Photographic Experts Group)에 의해 표준화된 것과 같은 이미지(들)의 하나 이상의 압축된 버전의 형태로, 또는 대안적으로 PNG(Portable Network Graphic)와 같은 하나 이상의 압축되지 않은 버전으로, 컴퓨터(140)로 전송하도록 구성될 수 있다. 도 2의 실시예에서, 디바이스(120b)는, 예컨대, 프로세서(124b)에서 실행되는 TSC를 사용하여, 추출에 의해 캡처된 이미지로부터 캡처된 이미지 데이터를 획득할 수 있다.
도 5a 내지 도 5c, 도 6, 도 7 및 도 8은 본 명세서에 설명된 생체 인식 보안 시스템에서 사용하기 위한 신경 네트워크 통계적 분류기의 양태들을 도시한다. 도 5a 및 도 5b의 예시적인 실시예들에 따르면, 신경 네트워크 통계적 분류기는 콘볼루션 신경 네트워크(CNN)를 포함할 수 있다. 도 5a 및 도 5c의 예시적인 실시예들에 따르면, 신경 네트워크 통계적 분류기는, 장단기 기억(LSTM) 네트워크와 같은, 순환 신경 네트워크(RNN)를 더 포함할 수 있다. 대안적으로, 도 6의 예시적인 실시예에 따르면, 신경 네트워크 통계적 분류기는 완전 콘볼루션 신경 네트워크(FCNN)를 포함할 수 있다. 도 7은 개인의 망막 안저의 이미지에서 특징들의 경계를 식별하도록 구성된 FCNN을 예시한다. 도 8은 혈관과 같은 다양한 망막 안저 특징들의 위치에 대해 더 높은 불변성의 장점을 갖는 개별 복셀들을 식별하도록 구성된 CNN을 예시한다.
도 5a 및 도 5b는 개인의 망막 안저의 캡처된 이미지로부터 데이터를 추출하도록 구성된 예시적인 콘볼루션 신경 네트워크(CNN)를 형성하는 부분들(500a 및 500b)의 블록 다이어그램이다. 도 5a 및 도 5b의 예시적인 실시예에서, 부분(500a)은 부분(500b)에 동작 가능하게 결합될 수 있으며, 예컨대, 부분(500a)의 출력이 부분(500b)의 입력에 결합될 수 있다.
도 5a에 도시된 바와 같이, CNN의 부분(500a)은 일련의 교호하는 콘볼루션 계층들(510a 내지 510g) 및 풀링 계층들(520a 내지 520c)을 포함한다. 개인의 망막 안저의 256 픽셀 x 256 픽셀(256x256) 이미지일 수 있는 이미지(530)는 부분(500a)에 대한 입력으로서 제공된다. 부분(500a)은 이미지(530)로부터 특징 맵(540)을 획득하고 특징 맵(540)을 부분(500b)에 출력하도록 구성될 수 있다. 부분(500b)은, 망막 안저 특징들의 위치와 같은, 이미지(530)의 양태들을 나타내기 위해 예측(570)을 생성하도록 구성될 수 있다.
부분(500a)에 입력되기 전에, 이미지(530)는, 예컨대, 리샘플링, 필터링, 보간, 아핀 변환, 세그먼트화, 침식, 팽창, 메트릭 계산(즉, 특징점), 히스토그램 등화, 스케일링, 비닝, 크로핑, 색상 정규화, 크기 조정(resizing), 형상 변경(reshaping), 배경 제거(background subtraction), 에지 강조(edge enhancement), 코너 검출 및/또는 임의의 다른 적합한 프리프로세싱 기술을 사용하는 것에 의해, 프리프로세싱될 수 있다. 프리프로세싱 기술의 예는 이하를 포함한다:
1. 동일한 반경(예를 들면, 300 픽셀)을 갖도록 이미지를 스케일 조정하는 것,
2. 국소 평균 색상을 제거하는 것,
예를 들면, 국소 평균이 50% 회색에 매핑됨
3. 경계 효과를 제거하기 위해 이미지를 그의 크기의 일 부분(예를 들면, 90%)으로 클리핑하는 것.
이는 망막 픽셀들만을 포함하도록 이미지를 크로핑하는 것 및 알고리즘의 성능에 대한 히스토그램 등화의 효과를 테스트하는 것을 포함할 수 있다.
4. 대체로 망막 픽셀들을 포함하도록 이미지를 크로핑하는 것
(비고: 이것을 사용하면, 반경에 기초하여 이미지를 스케일 조정할 필요가 없을 수 있다.)
일부 실시예들에서, 이미지(530)는 이미징 장치(122a 또는 122b)에 의해 캡처된 이미지의 압축된 또는 압축되지 않은 버전일 수 있다. 대안적으로, 이미지(530)는 이미징 장치(122a 또는 122b)에 의해 캡처된 하나 이상의 이미지로부터 프로세싱될 수 있다. 일부 실시예들에서, 이미지(530)는 하나 이상의 3D 체적 OCT 이미지와 같은 이미지 재구성 후(post-image reconstruction) 망막 데이터를 포함할 수 있다. 대안적으로 또는 추가적으로, 이미지(530)는 캡처된 이미지(들)의 프로세싱되지 않은 부분들을 포함할 수 있다. 예를 들어, 이미지(530)는 하나 이상의 스펙트럼 도메인 OCT 이미지로부터의 스펙트럼, 형광 수명 통계, 사전 필터링된 이미지, 또는 사전 배열된 스캔을 포함할 수 있다. 일부 실시예들에서, 이미지(530)는 개인의 망막 안저의 슬라이스들에 대응하는 다수의 2D 이미지들과 연관될 수 있다. 일부 실시예들에서, 슬라이스들은 인접할 수 있다. 예를 들어, 다양한 실시예들에 따르면, 이미지(530)는 2개, 3개, 4개 또는 5개의 각자의 인접 슬라이스에 대응하는 이미지들과 연관될 수 있다. 일부 실시예들에서, 이미지(530)는 혈관이 두드러진 하나 이상의 개별 슬라이스의 하나 이상의 2D 이미지를 포함할 수 있다.
CNN(500a)은 콘볼루션 계층들(510a 내지 510g)과 풀링 계층들(520a 내지 520c)을 통해 이미지(530)를 프로세싱하도록 구성된다. 일부 실시예들에서, 콘볼루션 계층들(510a 내지 510g)과 풀링 계층들(520a 내지 520c)은 캡처된 이미지에서 망막 안저 특징들의 양태들을 검출하도록 트레이닝될 수 있다. 먼저, CNN(500a)은 32개의 256×256 특징 맵(532)을 획득하기 위해 콘볼루션 계층들(510a 및 510b)을 사용하여 이미지(530)를 프로세싱한다. 다음으로, 64개의 128×128 특징 맵(534)을 획득하기 위해, 맥스 풀링 계층일 수 있는 풀링 계층(520a)을 적용한 후에, 콘볼루션 계층들(510c 및 510d)이 적용될 수 있다. 다음으로, 128개의 64×64 특징 맵(536)을 획득하기 위해, 역시 맥스 풀링 계층일 수 있는 풀링 계층(520b)을 적용한 후에, 콘볼루션 계층들(510e 및 510f)이 적용될 수 있다. 다음으로, 풀링 계층(520c)과 콘볼루션 계층(510g)을 적용한 후에, 결과적인 256개의 32×32 특징 맵(538)이 도 5b에 예시된 CNN의 부분(500b)에 대한 입력으로서 출력(540)에 제공될 수 있다. CNN 부분(500a)은 경사 하강법, 확률적 경사 하강법, 역전파, 및/또는 다른 반복 최적화 기술을 사용하여 트레이닝될 수 있다.
일부 실시예들에서, CNN(500a)은 한 번에, 개인의 망막 안저의 단일 슬라이스와 같은, 단일 이미지를 프로세싱하도록 구성될 수 있다. 대안적으로, 일부 실시예들에서, CNN(500a)은, 3D 체적 이미지로부터의 다수의 인접 슬라이스들과 같은, 다수의 이미지들을 동시에 프로세싱하도록 구성될 수 있다. 본 발명자들은 분지 말단, 분기, 중첩(overlap), 사이징(sizing) 또는 다른 그러한 특징들과 같은 양태들이 단일 슬라이스로부터 또는 다수의 인접 슬라이스들로부터의 정보를 사용하여 계산될 수 있음을 인식하였다. 일부 실시예들에서, 개인의 망막 안저의 다수의 슬라이스들에 대해 콘볼루션 계층들(510a 내지 510g)에 의해 수행되는 콘볼루션은 2차원(2D) 또는 3차원(3D)일 수 있다. 일부 실시예들에서, CNN(500a)은 해당 특정 슬라이스로부터의 정보만을 사용하여 각각의 슬라이스에 대한 특징들을 예측하도록 구성될 수 있다. 대안적으로, 일부 실시예들에서, CNN(500a)은 해당 슬라이스로부터 그리고 또한 하나 이상의 인접 슬라이스로부터의 정보를 사용하도록 구성될 수 있다. 일부 실시예들에서, CNN(500a)은 다수의 슬라이스들에 대한 특징들이 슬라이스들 전부에 존재하는 데이터를 사용하여 동시에 계산되도록 완전 3D 프로세싱 파이프라인을 포함할 수 있다.
도 5b에서, 부분(500b)은 콘볼루션 계층들(512a 및 512b)과 완전 연결 계층들(560)을 포함한다. 부분(500b)은 부분(500a)의 출력(540)으로부터 특징 맵(538)을 수신하도록 구성될 수 있다. 예를 들어, 부분(500b)은 256개의 32x32 특징 맵(542)을 획득하기 위해 콘볼루션 계층들(512a 및 512b)을 통해 특징 맵(538)을 프로세싱하도록 구성될 수 있다. 이어서, 특징 맵(542)은 예측(570)을 생성하기 위해 완전 연결 계층들(560)을 통해 프로세싱될 수 있다. 예를 들어, 완전 연결 계층들(560)은 어느 망막 안저 특징들이 특징 맵(542)에서의 확률 분포를 사용하여 콘볼루션 계층들(510a 내지 510g와 512a 및512b) 및 풀링 계층들(520a 내지 520c)에 의해 식별되었을 가능성이 가장 많은지를 결정하도록 구성될 수 있다. 그에 따라, 예측(570)은 이미지(530) 내의 망막 안저 특징들의 양태들을 나타낼 수 있다. 일부 실시예들에서, 예측(570)은 특정 특징들이 이미지(530)의 특정 영역들에 위치할 계산된 가능성에 대응하는 확률적 히트 맵(probabilistic heat-map)과 같은 확률 값을 포함할 수 있다. 일부 실시예들에서, 예측(570)은 분지 말단 또는 분기의 상대 위치 및/또는 크기, 또는 다른 그러한 특성들을 나타낼 수 있다.
도 5a 내지 도 5c의 실시예에 따르면, 부분(500c)은 도 5a에 예시된 부분(500a)에 동작 가능하게 결합될 수 있다. 예를 들어, 부분(500c)이 부분(500b) 대신에 출력(540)에 결합될 수 있다. 도 5a에 예시된 부분(500a)은 CNN 부분이고, 부분(500c)은 순환 신경 네트워크(RNN) 부분이다. 부분(500c)은 시간에 따라 입력으로서 제공되는 입력 이미지들 사이의 시간적 제약을 모델링하는 데 사용될 수 있다. RNN 부분(500c)은 장단기 기억(LSTM) 신경 네트워크로서 구현될 수 있다. 그러한 신경 네트워크 아키텍처는 모니터링 작업을 수행하는 동안 이미징 장치(122a 또는 122b)에 의해 획득되는 이미지 시리즈(시간에 따른 세로 이미지 시리즈)를 프로세싱하는 데 사용될 수 있다. 예를 들어, 도 1의 실시예에 따르면, 디바이스(120a)는 이미지 시리즈를 컴퓨터(140)로 전송할 수 있다. 일부 실시예들에서, 디바이스(120a)는 시리즈 내의 각각의 이미지 사이에 경과된 시간과 같은 이미지 시리즈의 타이밍 정보를 전송할 수 있다. 도 5a 및 도 5c의 CNN-LSTM 신경 네트워크는 입력으로서 이미지 시리즈를 수신하고, 예측(580)을 생성하기 위해 적어도 하나의 이전에 획득된 이미지로부터 도출된 망막 안저 특징들과 나중에 획득된 이미지로부터 획득된 특징들을 결합시킬 수 있다.
일부 실시예들에서, 도 5a 내지 도 5c에 예시된 CNN 및 CNN-LSTM은 1의 스트라이드(stride)를 갖는 콘볼루션 계층들에 대한 3의 커널 크기, 풀링 계층들에 대한 "2"의 커널 크기 및 분산 스케일링 이니셜라이저(variance scaling initializer)를 사용할 수 있다. RNN 부분(500c)은 확률적 경사 하강법 및/또는 시간을 통한 역전파(backpropagation through time)를 사용하여 트레이닝될 수 있다.
도 6은 예시적인 완전 콘볼루션 신경 네트워크(FCNN)(600)의 블록 다이어그램이다. FCNN(600)은 출력 압축(output compressing) 부분(620) 및 입력 확장(input expanding) 부분(660)을 포함한다. 출력 압축 부분(620)은 도 5a의 부분(500a)에 대해 설명된 방식으로 구성될 수 있는 일련의 교호하는 콘볼루션 및 풀링 계층들을 포함한다. 입력 확장 부분(660)은 일련의 교호하는 콘볼루션 및 디콘볼루션 계층들 그리고 질량 중심 계층(666)을 포함한다. 질량 중심 계층(666)은 추정치를 각각의 위치에서 회귀된 위치 추정치로부터 계산된 질량 중심으로서 계산한다.
일부 실시예들에서, 출력 압축 부분(620)과 입력 확장 부분(660)은 프로세싱 경로(640a)에 의해 연결된다. 프로세싱 경로(640a)는 도 5c의 RNN 부분(500c)에 대해 설명된 방식으로 구성될 수 있는 장단기 기억(LSTM) 부분을 포함한다. 프로세싱 경로(640a)를 포함하는 실시예들은 도 5a 및 도 5c의 CNN-LSTM에 대해 설명된 방식으로 시간적 제약을 모델링하는 데 사용될 수 있다. 대안적으로, 다른 실시예들에 따르면, 출력 압축 부분(620)과 입력 확장 부분(660)은 프로세싱 경로(640b)에 의해 연결된다. 프로세싱 경로(640a)와 대조적으로, 프로세싱 경로(640b)는 도 5b의 CNN 부분(500b)에 대해 설명된 방식으로 구성될 수 있는 콘볼루션 네트워크(CNN) 부분을 포함한다.
일부 실시예들에서, FCNN(600)은 1의 스트라이드를 갖는 콘볼루션 계층들에 대한 3의 커널 크기, 풀링 계층들에 대한 "2"의 커널 크기, 2의 스트라이드를 갖는 디콘볼루션 계층들에 대한 6의 커널 크기, 및 분산 스케일링 이니셜라이저를 사용할 수 있다.
FCNN(600)의 출력은 입력과 동일한 차원성을 갖는 단일 채널 출력일 수 있다. 그에 따라, 혈관 특성 포인트들과 같은 포인트 위치들의 맵은 포인트 위치들에서 가우스 커널 강도 프로파일을 도입하는 것에 의해 생성될 수 있으며, FCNN(600)은 평균 제곱 오차 손실을 사용하여 이러한 프로파일들을 회귀시키도록 트레이닝된다.
FCNN(600)은 경사 하강법, 확률적 경사 하강법, 역전파, 및/또는 다른 반복 최적화 기술을 사용하여 트레이닝될 수 있다.
일부 실시예들에서, 본 명세서에 설명된 TSC는 라벨링된 이미지들을 사용하여 트레이닝될 수 있다. 예를 들어, TSC는 혈관의 분지 말단, 분기 또는 중첩, 시신경 유두, 혈관, 분기, 말단, 중첩 및 중심와와 같은 망막 안저 특징들의 이미지들을 사용하여 트레이닝될 수 있다. 스캔은 한 명 이상의 임상 전문가에 의해 수동으로 주석이 달릴 수 있다. 일부 실시예들에서, 주석은 혈관 중첩, 분기 및 말단 포인트들의 위치들의 표시를 포함할 수 있다. 일부 실시예들에서, 주석은 전체 혈관, 시신경 유두 또는 중심와와 같은 전체 구조들을 커버하는 것을 포함할 수 있다.
본 발명자들은, TSC를 다중 작업 모델로서 구성하는 것에 의해, TSC의 출력이 개인의 망막 안저의 특징들의 하나 이상의 위치를 식별하고 또한 혈관을 세그먼트하는 데 사용될 수 있음을 인식하였다. 예를 들어, 혈관은 개인을 식별하기 위한 여러 특징들을 제공하며, 따라서 모델이 혈관의 위치를 보다 정확하게 식별하게 구성되도록, 혈관 라벨을 사용하여 다중 작업 모델을 트레이닝시키는 것이 유익하다. 그에 따라, CNN 부분(500a) 및/또는 FCNN(600)은 다중 작업 모델을 포함할 수 있다.
도 7은 캡처된 이미지에서 혈관, 시신경 유두 또는 중심와와 같은 특정 망막 안저 특징들의 경계들의 위치를 나타내도록 구성될 수 있는 완전 콘볼루션 신경 네트워크(FCNN)(700)의 블록 다이어그램이다. FCNN(700)을 트레이닝시키는 것은, 크기 3 및 스트라이드 1의 콘볼루션 커널들을 사용하여, 크기 2를 갖는 맥스 풀링 커널, 그리고 크기 6 및 크기 2를 갖는 디콘볼루션(업스케일 및 콘볼루션) 커널들을 사용하여, 트레이닝 이미지들을 제로 패딩하는 것을 포함할 수 있다. 신경 네트워크의 출력은 특정 망막 안저 특징들의 경계들의 위치를 나타낼 수 있다.
본 발명자들은 일부 TSC들이 개별 복셀들을 분류하도록 구성될 수 있으며, 이는 혈관과 같은 다양한 망막 안저 특징들의 위치에 대한 더 높은 불변성의 장점을 갖는다는 것을 인식하였다. 도 8은 개별 복셀들을 분류하는 것에 의해 특정 망막 안저 특징들의 경계들의 위치를 나타내도록 구성될 수 있는 콘볼루션 신경 네트워크(CNN)(800)의 블록 다이어그램이다. 일부 실시예들에서, CNN(800)은 제1 계층에 있는 크기 5 및 스트라이드 1을 갖는 콘볼루션 커널들 및 후속 계층들에 있는 크기 3을 갖는 커널들을 포함할 수 있다. 도 8의 예시적인 실시예에서, CNN(800)은 25의 입력 이웃을 위해 구성된다. 다른 실시예들에서, CNN(800)은, 30 또는 35와 같은, 입력 이웃의 상이한 크기들에 대한 빌딩 블록으로서 반복될 수 있다. 일부 실시예들에서, 보다 큰 이웃은 7과 같은 보다 큰 초기 커널 크기를 사용할 수 있다. CNN(800)의 특징 맵들은 마지막 특징 계층에서 병합되고, 단일 예측을 산출하기 위해 결합될 수 있다.
일 실시예에서, 입력 이미지와 관련한 출력 카테고리의 경사(gradient)를 계산하는 것에 의해 이미지들의 어느 부분들이 출력에 기여하는지를 이해하기 위해 중요도 맵(saliency map)이 생성된다. 이것은 입력 이미지 픽셀들의 작은 변화와 관련하여 출력 카테고리 값이 어떻게 변하는지를 정량화한다. 이러한 경사를 강도 이미지로서 시각화하는 것은 주의의 국소 집중(localization)을 제공한다.
계산은 기본적으로 입력 이미지에 대한 출력 카테고리 경사의 비이다:
∂출력/∂입력
이러한 경사는 출력의 가장 큰 변화를 야기하는 입력 영역들을 하이라이트하는 데 사용되며 따라서 출력에 가장 많이 기여하는 두드러진 이미지 영역들을 하이라이트한다.
도 5a 내지 도 5c, 도 6, 도 7 및 도 8에 예시된 신경 네트워크 아키텍처들이 예시적이며 이러한 아키텍처들의 변형들이 가능하다는 것을 이해해야 한다. 예를 들어, 하나 이상의 예시된 계층 외에도 또는 그 대신에 도 5a 내지 도 5c, 도 6, 도 7 및 도 8의 신경 네트워크 아키텍처들 중 임의의 것에 콘볼루션 계층, 디콘볼루션 계층, 정류 선형 유닛 계층, 업샘플링 계층, 연결 계층(concatenate layer) 또는 패드 계층(pad layer)과 같은 하나 이상의 다른 신경 네트워크 계층이 도입될 수 있다. 다른 예로서, 하나 이상의 계층의 차원성은 변할 수 있고, 하나 이상의 콘볼루션, 풀링 및/또는 디콘볼루션 계층에 대한 커널 크기도 변할 수 있다. 추가적으로, 본 명세서에 설명된 TSC는 대안적으로 또는 추가적으로 서포트 벡터 머신, 그래픽 모델, 베이지안 분류기, 또는 결정 트리 분류기를 포함할 수 있다.
본 발명자들은 하나 이상의 캡처된 이미지로부터 추출된 데이터를 하나 이상의 다른 망막 안저 이미지로부터 추출된 저장된 데이터와 비교하기 위한 기술을 개발하였다. 도 9를 참조하면, 캡처된 이미지 데이터와 저장된 이미지 데이터가 획득될 수 있고, 저장된 이미지 데이터의 적어도 일 부분이 캡처된 이미지 데이터와 적어도 미리 결정된 유사도를 갖는지 여부에 대한 결정이 이루어질 수 있다. 캡처된 이미지 데이터 및/또는 저장된 이미지 데이터는 도 5a 내지 도 5c, 도 6 및/또는 도 7 및 도 8의 임의의 또는 모든 실시예들에 따라 TSC를 사용하여 추출하는 것에 의해 획득될 수 있다. 도 10a의 예시적인 방법에서, 유사도 척도(similarity measure)를 생성하기 위해 캡처된 이미지 데이터와 저장된 이미지 데이터 사이에 템플릿 매칭이 수행된다. 대조적으로, 도 10b의 예시적인 방법은 유사도 척도를 생성하기 위한 병진 및 회전 불변 특징 비교를 포함한다.
도 9는 개인의 망막 안저의 캡처된 이미지로부터 추출된 캡처된 이미지 데이터를 저장된 이미지 데이터와 비교하는 것에 의해 개인을 식별하기 위한 예시적인 방법(900)의 흐름 다이어그램이다. 방법(900)은 단계(902)에서 캡처된 이미지 데이터를 획득하는 것, 단계(904)에서 저장된 이미지 데이터의 일 부분을 획득하는 것, 단계(906)에서 캡처된 이미지 데이터를 저장된 이미지 데이터의 부분과 비교하는 것, 및 단계(908)에서 저장된 이미지 데이터의 부분이 캡처된 이미지 데이터와 적어도 미리 결정된 유사도를 갖는지 여부를 결정하는 것을 포함한다. 저장된 이미지 데이터의 부분이 매치(match)를 구성하기에 충분히 유사한 경우, 방법(900)은 성공적인 식별(ID)로 결론짓는다. 대안적으로, 저장된 이미지 데이터의 부분이 매치를 구성하기에 충분히 유사하지 않은 경우, 방법(900)은 캡처된 이미지 데이터와 아직 비교되지 않은 임의의 저장된 이미지 데이터가 있는지 여부를 결정하기 위해 단계(910)로 진행한다. 만약 그렇다면, 방법(900)은 단계(904)로 돌아가서 캡처된 이미지 데이터와 비교하기 위한 저장된 이미지 데이터의 상이한 부분을 획득한다. 모든 저장된 이미지 데이터가 성공적인 매치 없이 캡처된 이미지 데이터와 비교되었다면, 방법(900)은 성공하지 못한 ID로 결론짓는다. 도 1의 실시예에 따르면, 방법(900)은 디바이스(120a)로부터 전송된 하나 이상의 이미지 및/또는 데이터를 사용하여 컴퓨터(140)에 의해 수행될 수 있다. 대안적으로, 도 2의 실시예에 따르면, 방법(900)은 전적으로 디바이스(120b)에 의해 수행될 수 있다.
단계(902)에서 캡처된 이미지 데이터를 획득하는 것은 도 3의 단계(304)와 관련하여 설명된 이미지 추출 기술을 사용하여 수행될 수 있다. 대안적으로 또는 추가적으로, 캡처된 이미지 데이터는 도 5a 내지 도 5c, 도 6, 도 7 또는 도 8의 임의의 또는 모든 실시예들에 따라 TSC로부터 출력될 수 있다. 일부 실시예들에서, 단계(902)에서 획득되는 캡처된 이미지 데이터는 현재 식별을 위해 획득되는 모든 캡처된 이미지 데이터를 포함한다. 예를 들어, 단계(902)에서 이미징 장치(122a 또는 122b)는 개인의 망막 안저의 다수의 이미지들을 캡처할 수 있고, 이미지들 각각의 모든 망막 안저 특징들에 대응하는 데이터가 획득될 수 있다. 대안적으로, 단계(902)에서 이미지들 중 일부에만 대응하는 데이터가 획득될 수 있다. 추가의 대안으로서, 단계(902)에서 이미지들 각각에 대한 특정 망막 안저 특징 또는 특징 세트에 대응하는 데이터가 획득될 수 있다. 그에 따라, 일부 실시예들에서, 방법(900)은 단계(906)에서의 비교의 결과에 따라 캡처된 이미지 데이터의 다른 부분들을 획득하기 위해 단계(902)로 돌아갈 수 있다.
단계(904)에서 저장된 이미지 데이터를 획득하는 것은 캡처된 데이터에 대해 설명된 것과 유사하게 수행될 수 있다. 저장된 이미지 데이터는 하나 이상의 이전에 프로세싱된 망막 안저 이미지와 연관될 수 있다. 예를 들어, 개인들이 시스템(100) 또는 디바이스(120b)에 등록함에 따라 저장된 이미지 데이터가 축적될 수 있다. 일부 실시예들에서, 개인을 시스템(100) 또는 디바이스(120b)에 등록하는 것은 개인의 망막 안저의 하나 이상의 이미지(들)를 캡처하는 것, 캡처된 이미지(들)로부터 개인의 망막 안저의 특징들을 나타내는 데이터를 추출하는 것, 및 추출된 데이터를 저장 매체(142 또는 126)에 저장하는 것을 포함할 수 있다. 일부 실시예들에서, 개인을 등록하는 것은 개인의 법적 성명(full legal name) 및 정부 발행 식별 번호(예를 들면, 사회 보장 번호)와 같은 식별 정보를 획득하는 것을 포함할 수 있다. 일부 실시예들에서, 식별 정보는 개인의 전화번호 및/또는 이메일 주소와 같은 연락처 정보와 링크된다. 일부 실시예들에서, 개인은 또한 등록 시에 사용자 이름을 제공할 수 있다. 일부 실시예들에서, 각각의 등록된 개인과 연관된 저장된 이미지 데이터는 시스템(100) 또는 디바이스(120b)가 개인을 성공적으로 식별할 때마다 업데이트될 수 있다. 예를 들어, 시스템(100) 또는 디바이스(120b)가 등록된 개인을 성공적으로 식별할 때, 개인을 식별하는 데 사용되는 캡처된 이미지(들)가 저장된 이미지 데이터에 추가될 수 있다.
캡처된 이미지 데이터에 대해서와 같이, 저장된 이미지 데이터도 3D 체적 이미지, 2D 이미지, 형광 수명 데이터, 또는 OCT 스펙트럼 데이터로부터 프로세싱될 수 있고, TSC에 제공될 수 있다. 예를 들어, 캡처된 이미지 데이터로부터 추출된 특징 데이터와 저장된 이미지 데이터가 비교될 수 있도록, 캡처된 이미지 데이터와 저장된 이미지 데이터가 동일한 TSC에 제공될 수 있다. 일부 실시예들에서, 캡처된 이미지 데이터와 저장된 이미지 데이터는 동일한 유형이다. 예를 들어, 캡처된 이미지 데이터와 저장된 이미지 데이터 각각은, 인접 슬라이스들과 같은, 하나 이상의 망막 슬라이스의 하나 이상의 2D 이미지를 포함할 수 있다. 캡처된 이미지 데이터와 저장된 이미지 데이터가 동일한 개인과 연관될 때, 캡처된 이미지 데이터는 제1 시간에서 획득된 인접 슬라이스들의 다수의 이미지들을 포함할 수 있고, 저장된 이미지 데이터는 제1 시간보다 늦은 제2 시간에서 획득된 동일한 인접 슬라이스들의 다수의 이미지들을 포함할 수 있다. 예로서, 저장된 이미지 데이터는 캡처된 이미지 데이터가 획득되기 몇 분 정도 이전과 같이 최근에 또는 몇 년 정도와 같이 오래 전에 프로세싱되었을 수 있다.
망막 안저 식별 외에도 생체 특성들에 기초한 검증을 제공하는 실시예들에서, 망막 안저 이미지(들) 외에도 또는 그 대신에 하나 이상의 기록된 생체 특성(예를 들면, 성문, 지문 등)이 또한 TSC에 제공될 수 있다. 그러한 상황에서, (예를 들면, 다양한 사용자들에 대한) 복수의 생체 특성들과 연관된 저장된 특성 데이터가 TSC에 제공될 수 있다. 그에 따라, 망막 안저 이미지에 대해 설명된 방식으로 특성들의 비교를 용이하게 하기 위해 TSC의 출력(들)은 생체 특성들의 특징들을 나타낼 수 있다. 따라서, TSC는 또한 생체 특성들을 사용하여 신원의 검증을 용이하게 할 수 있다.
다수의 개인들이 시스템(100) 또는 디바이스(120b)에 등록된 결과로서, 저장 매체(142 또는 126)에 저장된 이미지 데이터의 특정 부분들이 각자의 개인들과 연관될 수 있다. 그에 따라, 단계(904)에서 저장된 이미지 데이터를 획득하는 것은 등록된 개인과 연관된 저장된 이미지 데이터의 일 부분을 획득하는 것을 포함할 수 있다. 예를 들어, 캡처된 이미지 데이터와 비교하기 위한 특정 개인과 연관된 모든 이미지 데이터(예를 들면, 이전의 성공적인 식별로부터의 모든 데이터)가 단계(904)에서 획득될 수 있다. 대안적으로, 단일 데이터 세트, 예를 들어, 해당 특정 개인에 대해 획득된 가장 최근의 이미지 데이터, 및/또는 특정 망막 안저 특징 또는 특징 그룹의 양태들을 나타내는 데이터가 단계(904)에서 획득될 수 있다. 일부 실시예들에서, 단일 데이터 세트는, 평균과 같은, 다수의 저장된 데이터 세트들의 결합으로서 단계(904)에서 획득될 수 있다. 일부 실시예들에서, 저장된 이미지 데이터의 추가의 부분들은 단계(906)에서의 비교의 결과에 따라 단계(902)로 돌아갈 때 획득될 수 있다.
단계(906)에서 캡처된 이미지 데이터를 저장된 이미지 데이터의 부분과 비교하는 것은 컴퓨터(140) 또는 디바이스(120b)에 의해 수행될 수 있다. 다양한 실시예들에 따르면, 비교는 교차 상관, 템플릿 매칭, 병진 및 회전 불변 최대화된 가중(translationally and rotationally invariant maximized weighting), 및/또는 거리 메트릭을 사용하여 수행될 수 있다. 예를 들어, 도 10a의 예시적인 실시예에 따르면, 컴퓨터(140) 또는 디바이스(120b)는 유사도 척도를 생성하기 위해 단계(902)에서 획득되는 캡처된 이미지 데이터와 단계(904)에서의 저장된 이미지 데이터 사이의 템플릿 매칭을 수행할 수 있다. 대안적으로, 도 10b의 예시적인 실시예에 따르면, 컴퓨터(140) 또는 디바이스(120b)는 유사도 척도를 생성하기 위해 단계(902)에서 획득되는 캡처된 이미지 데이터와 단계(904)에서 획득되는 저장된 이미지 데이터의 병진 및 회전 불변 특징들의 상대 위치 및/또는 배향을 비교할 수 있다. 단계(906)에서의 비교는 모든 망막 안저 특징들에 대해 또는 개별 특징들 또는 특징 그룹들에 대해서만 데이터를 비교할 수 있다. 예를 들어, 캡처된 이미지 데이터 및 저장된 이미지 데이터에서의 시신경 유두의 양태들과 캡처된 이미지 데이터 및 저장된 이미지 데이터의 분지 말단 또는 분기와 같은 혈관의 양태들 간에 별도의 비교가 이루어질 수 있다. 하나의 경우에 단계(906)에서 하나의 양태의 비교가 이루어질 수 있고, 방법(900)은 상이한 양태에 대한 다른 비교를 수행하기 위해 나중에 단계(906)로 되돌아갈 수 있다.
단계(908)에서 저장된 이미지 데이터의 부분과 캡처된 이미지 데이터가 적어도 미리 결정된 유사도를 갖는지 여부를 결정하는 것은 단계(906)에서 생성된 유사도 척도에 기초할 수 있다. 예를 들어, 유사도 척도는 2개의 데이터 세트 사이의 유사도를 제공할 수 있고, 단계(908)는 유사도 척도에 의해 제공되는 유사도가 성공적인 식별에 대한 임계치로서 사용되는 미리 결정된 유사도를 충족시키는지 여부를 결정하는 것을 포함할 수 있다.
미리 결정된 유사도는, 캡처된 이미지 데이터가 추출된 캡처된 이미지들의 수, 이미지들의 해상도 및 시야, 캡처된 이미지 데이터 및 저장된 이미지 데이터에 표시된 상이한 유형의 특징들의 수, 및 단계(906)에서 구현된 비교 기술과 같은, 다수의 인자들에 기초하여 설정될 수 있다. 부정 식별(fraudulent identification)을 방지하기 위해서는 미리 결정된 유사도가 상대적으로 높게 설정되어야 하지만, 그러한 높은 미리 결정된 유사도는 높은 오거부율을 결과할 수 있어, 올바른 개인을 확실하게 식별하는 것을 보다 어렵게 만들 수 있다. 일반적으로, 미리 결정된 유사도는 이미지들의 수, 이미지(들)의 해상도와 시야, 및 사용된 다양한 유형의 특징들의 수가 모두 허용하는 한 높을 수 있다. 예를 들어, 많은 상이한 유형의 특징들을 갖는 많은 수의 고품질 캡처된 이미지들은 높은 오거부율의 위험 없이 보다 높은 미리 결정된 유사도의 사용을 용이하게 한다. 이러한 이유는 캡처된 데이터에 보다 많은 양의 정보가 있고, 이는 캡처된 이미지에서의 불완전성(예를 들면, 조명 불량) 또는 (예를 들면, 전송 오류로 인한) 전송된 데이터에서의 불완전성의 영향을 줄일 수 있기 때문이다.
저장된 이미지 데이터의 부분이 저장된 이미지 데이터와 적어도 미리 결정된 유사도를 갖는 경우, 방법(900)은 성공적인 매치로 결론지을 수 있다. 일부 실시예들에서, 컴퓨터(140) 또는 디바이스(120b)는 저장 매체(142 또는 126)로부터 저장된 이미지 데이터의 부분과 연관된 식별 정보를 획득할 수 있다. 대안적으로, 컴퓨터(140) 또는 디바이스(120b)는 통신 네트워크(160) 상의 다른 위치로부터 식별 정보를 획득할 수 있다. 예를 들어, 식별 정보는 저장된 이미지 데이터의 부분과 함께 저장될 수 있거나, 또는 저장된 이미지 데이터는 식별 정보가 저장된 위치에 대한 링크를 포함할 수 있다. 일부 실시예들에서, 식별 정보는 개인의 성명 및/또는 사용자 이름을 포함할 수 있다.
기록된 생체 특성들에 기초하여 생체 검증이 수행되는 실시예들에서, 캡처된 생체 특성 데이터와 저장된 생체 특성 데이터 간의 비교는 망막 안저 이미지 및 이미지 데이터에 대해 설명된 방식으로 수행될 수 있다. 생체 검증은 전형적으로 식별 정보가 획득된 후에 수행된다. 예를 들어, 저장된 생체 특성 데이터는 식별 정보와 함께 저장될 수 있다. 그 결과, 망막 안저 식별이 완료된 후에 생체 특성 비교가 수행될 수 있다. TSC를 사용하는 실시예들에서, 저장된 생체 특성 데이터는, 기록된 생체 특성 데이터와 동시에 또는 대안적으로 그 후에, TSC에 대한 입력으로서 제공될 수 있다. 예를 들어, 기록된 생체 특성 데이터는 식별과 동시에 또는 심지어 식별 이전에 TSC에 제공될 수 있으며, 식별이 완료된 후에 사용하기 위해 TSC의 출력(들)이 저장된다.
도 1의 실시예에 따르면, 컴퓨터(140)는 개인을 식별한 것으로 결론짓기 위해 식별 정보를 획득하여 디바이스(120a)로 전송할 수 있다. 디바이스(120a 또는 120b)는, 예를 들어, 하나 이상의 디스플레이 상에 생성되는 사용자 인터페이스를 통해, 식별이 성공적이었다는 것을 개인에게 통지할 수 있다. 일부 실시예들에서, 디바이스(120a 또는 120b)는, 섹션 III을 참조하는 것을 포함하여 본 명세서에 설명된 바와 같이, 개인과 연관된 건강 정보 또는 계정에 대한 액세스 권한을 개인에게 부여할 수 있다. 일부 실시예들에서, 저장된 이미지 데이터는 미래의 식별을 위해, 망막 안저 특징들을 나타내는 데이터와 같은, 캡처된 이미지 데이터의 일부 또는 전부를 포함하도록 업데이트될 수 있다.
저장된 이미지 데이터의 부분이 캡처된 이미지 데이터와 적어도 미리 결정된 유사도를 갖지 않는 경우, 방법(900)은 캡처된 이미지 데이터와 아직 비교되지 않은 저장된 이미지 데이터가 더 있는지 여부를 결정하기 위해 단계(910)로 진행한다. 캡처된 이미지 데이터와 아직 비교되지 않은 저장된 이미지 데이터가 더 있는 경우, 방법(900)은 단계(904)로 돌아가서 아직 비교되지 않은 저장된 이미지 데이터의 일 부분을 획득한다. 예를 들어, 캡처된 이미지 데이터와 비교되는 저장된 이미지 데이터의 각각의 부분은 등록된 개인과 연관될 수 있고, 개인을 식별하기 위해 나머지 저장된 이미지 데이터의 일 부분이 여전히 캡처된 이미지 데이터와 대조될 수 있다. 일부 실시예들에서, 방법(900)이 단계(904)가 아닌 단계(902)로 되돌아갈 수 있음을 이해해야 한다. 예를 들어, 캡처된 이미지 데이터는 개인의 망막 안저의 다수의 캡처된 이미지들에 대응하는 다수의 부분들을 포함할 수 있고, 따라서 단계(904)에서 이전에 획득된 동일한 저장된 이미지 데이터와 비교하기 위한 하나 이상의 다른 캡처된 이미지에 대응하는 상이한 부분이 단계(902)에서 획득될 수 있다.
대안적으로, 캡처된 이미지 데이터와 비교할 저장된 이미지 데이터가 더 이상 없는 경우, 방법(900)은 성공하지 못한 식별로 결론지을 수 있다. 예를 들어, 캡처된 이미지 데이터는 시스템(100) 또는 디바이스(120b)에 아직 등록하지 않은 개인에 대응할 수 있다. 도 1의 실시예에 따르면, 컴퓨터(140)는 성공하지 못한 식별을 디바이스(120a)에 통지할 수 있고, 디바이스(120a)는, 예를 들어, 캡처된 이미지 데이터와 함께 저장될 수 있는 식별 정보를 제공하는 것에 의해 시스템(100)에 등록하도록 개인을 프롬프트할 수 있다. 도 2의 실시예에 따르면, 디바이스(120b)는 디바이스(120b)에 등록하도록 개인을 프롬프트할 수 있다. 예를 들어, 의료 전문가의 존재 하에서만 새로운 사용자를 등록하도록 구성될 수 있는 시스템(100) 및 디바이스(120b)의 실시예들에서, 디바이스(120a 및 120b)가 새로운 사용자를 등록하도록 구성되지 않을 수 있음을 이해해야 한다.
도 10a는 템플릿 매칭에 의해 캡처된 이미지 데이터를 저장된 이미지 데이터와 비교하기 위한 예시적인 방법(1000a)의 흐름 다이어그램이다. 방법(1000a)은 단계(1002a)에서 템플릿 매칭을 수행하는 것, 및 단계(1004a)에서 유사도 척도를 생성하는 것을 포함한다. 일부 실시예들에서, 방법(1000a)은 디바이스(120b) 또는 컴퓨터(140)에 의해 수행될 수 있다. 일부 실시예들에서, 방법(1000a)은 단일 이미지, 또는 동일한 개인과 연관된 이미지들의 조합에 대응하는 저장 매체(142) 또는 저장 매체(126)에 저장된 각각의 데이터 서브세트에 대해 수행될 수 있다.
단계(1002a)에서 템플릿 매칭을 수행하는 것은 디바이스(120b) 또는 컴퓨터(140)가 방법(900)의 단계(902)에서 획득되는 캡처된 이미지 데이터의 적어도 일 부분을 단계(904)에서 획득되는 저장된 이미지 데이터의 적어도 일 부분과 비교하는 것을 포함할 수 있다. 예를 들어, 이미징 장치(122a 또는 122b)에 의해 캡처되는 이미지(들)의 영역에 대응하는 캡처된 이미지 데이터의 일 부분이 저장된 이미지 데이터가 추출된 하나 이상의 이미지의 영역에 대응하는 저장된 이미지 데이터의 하나 이상의 부분과 비교될 수 있다. 그러한 비교 동안, 캡처된 이미지 데이터의 부분과 저장된 이미지 데이터의 부분(들) 사이에서 콘볼루션 또는 다른 곱셈과 같은 교차 상관이 수행될 수 있다. 일부 실시예들에서, 비교는 행렬 곱셈을 포함하며 결과는 유사도 행렬에 저장된다. 유사도 척도를 생성하기 위해 단계(1004a)에서 유사도 행렬이 사용될 수 있다.
일부 경우에, 캡처된 이미지(들)의 부분은 저장된 이미지 데이터의 부분(들)과 비교될 수 있고, 이어서 크기 조정되고/되거나 회전되어 동일한 부분(들)과 비교될 수 있다. 캡처된 이미지 데이터의 부분은 이어서 저장된 이미지 데이터가 추출된 이미지(들)의 다른 영역들에 대응하는 저장된 이미지 데이터의 하나 이상의 다른 부분과 비교될 수 있다. 저장된 이미지 데이터가 다수의 이미지들과 연관된 실시예들에서, 일단 캡처된 이미지 데이터의 부분이 특정 이미지와 연관된 저장된 이미지 데이터 모두와 비교되었으면, 캡처된 이미지 데이터의 부분이 상이한 이미지와 연관된 저장된 이미지 데이터와 비교될 수 있다. 대안적으로, 다수의 이미지들에 걸쳐 개별 망막 안저 특징들 또는 특징 그룹들에 대해 별도의 비교가 수행될 수 있다. 일단 캡처된 이미지 데이터의 부분이 특정 개인과 연관된 저장된 이미지 데이터 전부, 예를 들어, 개인의 모든 이미지 또는 이미지로부터의 다양한 특징들을 나타내는 모든 데이터와 비교되었으면, 방법(1000a)은 단계(1004a)에서 특정 개인에 대응하는 유사도 척도를 생성하는 것으로 진행할 수 있다. 예를 들어, 유사도 척도는 캡처된 이미지가 특정 개인과 매칭하는지 여부를 나타낼 수 있다.
단계(1004a)에서 유사도 척도를 생성하는 것은 디바이스(120b) 또는 컴퓨터(140)가 방법(900)의 단계(902)에서 획득되는 캡처된 이미지 데이터와 단계(904)에서 획득되는 저장된 이미지 데이터 사이의 유사도를 계산하는 것을 포함할 수 있다. 일부 실시예들에서, 캡처된 이미지 데이터와 특정 이미지와 연관된 저장된 이미지 데이터의 각각의 부분 사이의 별도의 유사도 척도가 계산될 수 있다. 일부 실시예들에서, 비교된 이미지 데이터와 저장된 이미지 데이터 전체 사이의 단일 유사도 척도가 계산될 수 있다. 예를 들어, 유사도 척도는 캡처된 이미지 데이터와 저장된 데이터 사이에 계산된 최대 유사도일 수 있다. 대안적으로, 유사도 척도는 캡처된 이미지 데이터와 저장된 이미지 데이터의 다양한 부분들 사이의 평균 유사도일 수 있다. 캡처된 이미지 데이터를 저장된 이미지 데이터와 비교하는 것이 유사도 행렬을 결과하는 콘볼루션을 수행하는 것을 포함하는 실시예들에서, 유사도 척도의 부분들이 비교 동안 생성될 수 있고, 일단 템플릿 매칭이 완료되면 유사도 척도는 모든 비교 데이터를 고려하도록 마무리될 수 있다.
도 10b는 캡처된 이미지 데이터에 표시된 병진 및 회전 불변 특징들을 저장된 이미지 데이터에 표시된 것들과 비교하기 위한 예시적인 방법(1000b)의 흐름 다이어그램이다. 예를 들어, 병진 및 회전 불변 특징들은 도 5a 내지 도 5c, 도 6, 도 7 및 도 8의 실시예들에 따라 TSC의 출력에 표시될 수 있다. 방법(1000b)은 단계(1002b)에서 병진 및 회전 불변 특징 비교를 수행하는 것, 및 단계(1004b)에서 유사도 척도를 생성하는 것을 포함한다. 방법(1000b)은 디바이스(120b) 또는 컴퓨터(140)에 의해 수행될 수 있다.
단계(1002b)에서 병진 및 회전 불변 특징 비교를 수행하는 것은 디바이스(120b), 컴퓨터(140)가 캡처된 이미지 데이터에 표시된 병진 및 회전 불변 특징들의 상대 위치 및 배향을 저장된 이미지 데이터에 표시된 병진 및 회전 불변 특징들의 상대 위치 및 배향과 비교하는 것을 포함할 수 있다. 예를 들어, 캡처된 이미지 데이터의 일부 또는 전부와 저장된 이미지 데이터 간의 SIFT 또는 SURF 비교가 수행될 수 있다. 저장된 이미지 데이터가 다수의 이미지들과 연관된 실시예들에서, 특정 이미지와 연관된 저장된 이미지 데이터의 각각의 부분에 대해 별도의 비교가 수행될 수 있다. 대안적으로, 일부 실시예들에서, 예를 들어, 다수의 이미지들에서의 특정 특징(들)을 나타내는 다수의 이미지들과 연관된 데이터를 포함하여, 특정 망막 안저 특징 또는 특징 그룹을 나타내는 저장된 데이터의 부분들에 대해 별도의 비교가 수행될 수 있다. 일부 경우에, 특징 데이터는 다수의 이미지들로부터 결합될 수 있고 캡처된 이미지 데이터와 비교될 수 있다.
단계(1004b)에서 유사도 척도를 생성하는 것은 도 10a와 관련하여 단계(1004a)에 대해 설명된 방식으로 수행될 수 있다. 예를 들어, 캡처된 이미지 데이터와 비교되는 저장된 이미지 데이터의 각각의 부분에 대해 유사도 척도가 생성될 수 있다. 대안적으로, 각각의 이미지에 대한 또는 각각의 특정 특징 또는 특징 그룹에 대한 유사도 척도가 생성되도록, 동일한 개인의 다수의 이미지들과 연관된 저장된 이미지 데이터의 부분들을 비교하는 것 및/또는 각각의 비교에서 상이한 망막 안저 특징들에 초점을 맞추는 것에 기초하여 단일 유사도 척도가 생성될 수 있다.
III. 개인의 망막 이미지에 기초하여 개인의 전자 기록 또는 디바이스에 액세스하기 위한 기술
본 발명자들은 개인의 망막 안저의 이미지에 기초하여 액세스를 가능하게 하도록 구성된 생체 인식 보안 시스템으로 개인과 연관된 전자 계정 또는 기록 또는 디바이스를 보호 및/또는 액세스하기 위한 기술을 개발하였다. 일 예로서, 본 발명자들은 생체 식별을 사용하여 사용자 계정 또는 디바이스를 보호하기 위한 기술을 개발하였다. 게다가, 본 발명자들은 생체 식별을 사용하여 개인과 연관된 전자 건강 기록과 같은 건강 정보를 보호하기 위한 기술을 개발하였다. 생체 식별을 위한 기술은 또한 개인을 식별하는 다른 상황들에서, 예컨대, 금융 거래를 보호하는 데 유용할 수 있다. 생체 식별은 개인의 망막 이미지 및/또는 망막 측정치에 기초하여 개인을 식별하는 것을 통해 액세스를 가능하게 하는 것을 포함한다. 개인의 이러한 망막 이미지 및/또는 측정치는 OCT 및 FLIO 중 적어도 하나를 사용하여 획득될 수 있다.
도 1 및 도 2의 일부 실시예들에서, 디바이스(120a 또는 120b)는 성공적인 식별 시에 디바이스(120a 또는 120b)에 대한 액세스 권한을 개인에게 부여하도록 구성될 수 있다. 예를 들어, 디바이스(120a)는 컴퓨터(140)로부터 성공적인 식별의 통지를 수신할 때 액세스 권한을 개인에게 부여할 수 있다. 일부 실시예들에서, 디바이스(120a)는 통지와 함께 개인에 특정적인 사용자 계정 데이터를 수신할 수 있다. 예를 들어, 디바이스(120a)는, 선호되는 오디오/비주얼 테마(예를 들면, 색상 테마 및/또는 사운드), 그래픽 설정(예를 들면, 색맹 기본설정(colorblind preferences)), 개인화된 홈 화면(예를 들면, 데스크톱 배경), 및/또는 디바이스(120a)를 조작하기 위해 개인에 의해 이전에 액세스된 소프트웨어 애플리케이션들과 같은, 개인화된 설정을 컴퓨터(140)로부터 수신할 수 있다. 일부 실시예들에서, 디바이스(120b)는 개인화된 설정을 저장 매체(126)에 저장할 수 있고, 성공적인 식별 시에 개인에 특정적인 개인화된 설정을 선택할 수 있다. 대안적으로 또는 추가적으로, 디바이스(120a) 또는 디바이스(120b)는 인터넷 상의 소셜 미디어 계정 및/또는 거래를 수행하기 위한 금융 계정과 같은 다양한 다른 유형의 계정들에 대한 액세스 권한을 개인에게 부여하도록 구성될 수 있다.
도 1 및 도 2의 일부 실시예들에서, 디바이스(120a 또는 120b)는 성공적인 식별 시에 전자 건강 기록과 같은 건강 정보에 대한 액세스 권한을 제공하도록 구성될 수 있다. 예를 들어, 컴퓨터(140)는 한 명 이상의 개인과 연관된 건강 정보를 저장할 수 있고, 개인을 성공적으로 식별할 시에, 개인과 연관된 건강 정보를 디바이스(120a)로 전송할 수 있다. 대안적으로, 디바이스(120b)는, 개인을 성공적으로 식별할 시에, 예를 들어, 저장 매체(126)로부터 획득될 수 있는 건강 정보를 저장할 수 있다. 일부 실시예들에서, 디바이스(120a 또는 120b), 또는 컴퓨터(140)는 캡처된 이미지(들)에 표시된 망막 안저 특징들에 기초하여 건강 정보를 업데이트할 수 있다. 예를 들어, 일부 실시예들에서, 건강 정보는 식별 동안 또는 다른 방식으로 캡처된 이미지(들) 및/또는 그로부터 추출된 특징 데이터를 포함하도록 업데이트될 수 있다. 이러한 방식으로, 개인이 디바이스(120a 또는 120b)에 로그인할 때마다 건강 정보가 업데이트될 수 있다. 일부 실시예들에서, 개인은 그의 의료 전문가와 직접 자주 만나야 하는 것보다 디바이스(120a 또는 120b)를 사용하여 개인이 겪고 있는 증상들을 그의 전자 건강 기록에 직접 보고하는 것에 의해 전자 건강 기록을 업데이트할 수 있다.
도 11은 도 1 및 도 2의 실시예들에 따른 예시적인 사용자 인터페이스(1100)를 예시하는 블록 다이어그램이다. 예를 들어, 사용자 인터페이스(1100)는 디바이스(120a 또는 120b)의 디스플레이일 수 있는 디스플레이(1130) 상에 제공된다.
디스플레이(1130)는 컴퓨터 모니터 또는 전화 화면과 같은 액정 디스플레이(LCD) 화면일 수 있거나, 대안적으로 프로젝션 또는 홀로그램일 수 있다. 일부 실시예들에서, 디스플레이(1130)는 터치스크린 상에 나타나는 콘텐츠를 누르는 것에 의해 사용자 상호작용을 하도록 구성된 터치스크린을 포함할 수 있다. 일부 실시예들에서, 디스플레이(1130)는 디바이스(120a 또는 120b)와 통합될 수 있다. 대안적으로, 일부 실시예들에서, 디스플레이(1130)는 디바이스(120a 또는 120b)로부터 분리될 수 있고, 유선 또는 무선 연결을 통해 디바이스(120a 또는 120b)에 결합될 수 있다.
디스플레이(1130)는 디스플레이(1130) 상에 식별 정보(1132), 건강 정보(1134), 금융 정보(1136), 및 다른 정보(1138)를 위한 부분들을 포함한다. 일부 실시예들에서, 다른 정보(1138)가 사용자에게 제시되는 동안 식별 정보(1132), 건강 정보(1134), 및/또는 금융 정보(1136)는 디스플레이(1130)의 에지들에 나타날 수 있다. 비제한적인 예로서, 식별 정보(1132)는 개인의 사용자 이름을 포함할 수 있고, 건강 정보(1134)는 개인의 스트레스 수준을 포함할 수 있으며, 금융 정보(1136)는 개인의 은행 계좌 잔고를 포함할 수 있고, 다른 정보(1138)는 소셜 미디어를 통해 수신되는 메시지를 포함할 수 있다.
일부 실시예들에서, 식별 정보(1132)는 식별이 성공적이었는지 여부를 사용자에게 표시할 수 있다. 예를 들어, 식별 정보(1132)는 성공적인 식별을 나타내는 통지를 포함할 수 있다. 대안적으로 또는 추가적으로, 식별 정보(1132)는 생체 식별을 사용하여 획득되는 식별된 개인의 이름을 포함할 수 있다.
일부 실시예들에서, 건강 정보(1134), 금융 정보, 및/또는 다른 정보(1138)는 생체 식별 동안 또는 생체 식별 외에도 획득될 수 있다. 일부 실시예들에서, 디바이스(120a 또는 120b)는 성공적인 식별 시에 개인과 연관된 건강 정보에 액세스하고/하거나 이를 업데이트하도록 구성될 수 있다. 대안적으로 또는 추가적으로, 디바이스(120a 또는 120b)는 성공적인 식별 시에 개인과 연관된 금융 또는 다른 계정 정보에 액세스하고/하거나 이를 업데이트하도록 구성될 수 있다.
건강 정보(1134)는 도 1의 실시예에 따른 컴퓨터(140)로부터 또는 도 2의 실시예에 따른 디바이스(120b)의 저장 매체(126)로부터 획득될 수 있다. 일부 실시예들에서, 건강 정보(1134)는, 예를 들어, 컴퓨터(140) 또는 저장 매체(126)로부터 획득된 정보에 기초하여 건강 경고를 가진 통지를 포함할 수 있다. 건강 정보(1134)는 당뇨병, 심혈관 질환, 뇌진탕, 파킨슨병, 알츠하이머병, 및/또는 스트레스와 연관된 위험 평가를 포함할 수 있다. 일부 실시예들에서, 건강 정보는 대안적으로 또는 추가적으로 개인의 망막 건강에 특정적인 위험 평가를 포함할 수 있다. 예를 들어, 위험 평가는 당뇨병성 망막병증, 나이 관련 황반 변성, 황반 부종, 망막 동맥 폐색, 망막 신경 섬유층 및/또는 녹내장과 연관될 수 있다.
금융 정보(1136)는 도 1의 실시예에 따른 컴퓨터(140)로부터 또는 도 2의 실시예에 따른 디바이스(120b)의 저장 매체(126)로부터 획득될 수 있다. 일부 실시예들에서, 금융 정보(1136)는 은행 계좌 또는 투자 계좌와 같은 개인과 연관된 하나 이상의 금융 계정에 대한 잔액을 포함할 수 있다.
이 예가 단지 다양한 실시예들에 따라 사용자가 다수의 형태의 정보와 어떻게 상호작용할 수 있는지를 설명하기 때문에, 디스플레이(1130)는 식별 정보(1132), 건강 정보(1134), 금융 정보(1136) 및/또는 다른 정보(1138) 중 일부만을 포함할 수 있다는 것을 이해해야 한다.
환자는 전형적으로 그의 의료 전문가와 직접 상담하는 것에 의해 또는 패스워드 또는 패스코드로 액세스 가능한 온라인 데이터베이스를 통해 그의 전자 건강 기록에 액세스하고/하거나 이를 업데이트한다. 섹션 II에 설명된 바와 같이, 본 발명자들은 본 명세서에 설명된 개인의 망막 안저의 캡처된 이미지를 사용하여 개인을 식별하도록 구성된 생체 인식 보안 시스템이 기존의 생체 인식 보안 시스템보다 낮은 오거부율 및 오수락률을 달성하면서 패스워드 및 패스코드를 넘어 향상된 보호를 제공한다는 것을 인식하였다. 환자의 건강 정보에 대한 보안 및 기밀성은 환자의 건강 정보를 더 쉽게 접근 가능하게 만들고 환자가 스스로 업데이트하기 쉽게 만들 때 중요한 고려 사항이다. 전자 건강 기록이 보호되지 않거나 부적절하게 보호되는 채로 있는 경우, 환자와 그의 의료 전문가 이외의 당사자들이 민감한 건강 정보에 액세스할 수 있다. 결과적인 기밀성 결여는 환자로 하여금 자신의 정보가 사적인 것이라는 신뢰를 잃게 할 수 있으며 의료 처치를 받는 데 더 주저할 수 있다. 추가적으로, 환자의 전자 건강 기록이 위조되거나 다른 방식으로 사기적으로 변경될 수 있는 경우, 의료 전문가가 적절한 진단을 내릴 수 없을 것이다. 그에 따라, 본 발명자들은, 기밀성과 보안을 유지하면서 건강 정보가 환자에 의해 보다 쉽게 접근 가능할 수 있도록, 생체 식별 시스템을 사용하여 건강 정보에 안전하게 액세스하기 위한 시스템을 개발하였다.
일부 실시예들에서, 디바이스(120a) 또는 디바이스(120b)는, 개인이 의식이 없는 경우에도, 개인을 식별하고 개인의 전자 건강 기록에 액세스하도록 구성될 수 있다. 예를 들어, 자연 재해와 같은 대형 재난 사건 동안, 의식이 없는 희생자가 식별될 수 있고 그의 전자 건강 기록이 디바이스(120a) 또는 디바이스(120b)를 사용하여 획득될 수 있다. 예를 들어, 응급 구조사(Emergency Medical Technician, EMT)와 같은 최초 대응자는 부상자 분류(triage)를 보다 정확하게 수행하기 위해 디바이스를 사용하여 각각의 개인을 식별하고 건강 정보에 액세스하기 위해 디바이스를 사용할 수 있다. 따라서, 장치는 빠르고 조직화된 방식으로 자연 재해와 같은 사건에 대응하는 것을 용이하게 할 수 있다.
도 12를 참조하면, 건강 또는 다른 계정 정보가 블록체인과 같은 분산 원장의 하나 이상의 컴포넌트에 저장될 수 있다. 본 발명자들은 분산 원장이 원장에 저장된 데이터에 대해 행해진 변경들의 구체적인 기록을 제공한다는 것을 인식하였다. 예를 들어, 컴포넌트에 대해 행해진 변경들 및/또는 원장 내의 다른 컴포넌트들에 대해 행해진 변경들의 시간 및/또는 범위를 반영하도록 업데이트되는 원장의 각각의 컴포넌트는 고유 식별자를 가질 수 있다. 그에 따라, 분산 원장은 원장에 저장된 정보, 예컨대, 식별 정보, 사용자 계정 데이터, 금융 데이터 또는 건강 정보가 변경되었는지 여부는 물론 언제 어느 정도 변경이 이루어졌는지를 검출하는 것을 용이하게 할 수 있다. 본 발명자들은 생체 식별 시스템으로 전자 건강 기록을 위한 분산 원장의 컴포넌트들에 대한 액세스를 보호하는 것이 전자 건강 기록의 정확성과 기밀성을 향상시킨다는 것을 인식하였다. 일부 실시예들에서, 분산 원장에 저장된 건강 정보에 대한 변경은 건강 정보와 연관된 개인 또는 개인의 의사와 같은 인가된 의료 전문가에 의해서만 이루어질 수 있다.
다양한 실시예들에 따르면, 분산 원장의 컴포넌트들은 사용자 계정 데이터, 금융 데이터, 전자 건강 기록과 같은 건강 정보, 저장된 이미지 데이터 및/또는 개인 또는 다른 사람들과 연관된 식별 정보를 포함할 수 있다.
도 12는 네트워크(1260)를 통해 액세스 가능한 컴포넌트들(1220 및 1240)을 포함하는 예시적인 분산 원장(1200)을 예시하는 블록 다이어그램이다. 분산 원장(1200)은 원장의 컴포넌트(들)(1220 및 1240)가 디바이스(120a), 디바이스(120b) 또는 컴퓨터(140)와 같은 다양한 디바이스들 및 컴퓨터들에 저장되고 통신 네트워크(160)를 통해 액세스 가능한 분산 데이터 구조를 구현할 수 있다. 예를 들어, 일부 실시예들에서, 컴포넌트들(1220 및 1240)이 디바이스(120a) 및/또는 컴퓨터(140)에 저장될 수 있거나 이들에 의해 액세스 가능할 수 있도록, 네트워크(1260)는 도 1의 통신 네트워크(160)일 수 있다. 대안적으로, 네트워크(1260)는, 통신 네트워크(160)에 걸쳐 분산되지만 통신 네트워크(160) 상의 모든 디바이스들에 의해 액세스 가능한 것은 아닌 피어 투 피어(P2P) 네트워크와 같은, 통신 네트워크(160)의 서브네트워크일 수 있다. 비제한적인 예에 따르면, 분산 원장(1200)은 블록체인을 구현할 수 있으며, 컴포넌트들(1220 및 1240)은 블록 헤더들이 체인 내의 다른 블록들에 링크되는 블록들로서 역할한다.
컴포넌트(1220)는 헤더(1222) 및 데이터(1224)를 포함하고, 컴포넌트(1240)는 헤더(1242) 및 데이터(1244)를 포함한다. 다양한 실시예들에 따르면, 데이터(1224 및/또는 1244)는 저장된 이미지 데이터, 전자 건강 기록과 같은 건강 정보, 사용자 계정 데이터, 금융 데이터, 및/또는 개인과 연관된 식별 정보를 포함할 수 있다. 헤더들(1222 및 1242)은 각각, 컴포넌트(1220 또는 1240)를 식별하기 위한 주소 또는 해시와 같은, 컴포넌트(1220 및 1240)에 특정적인 고유 식별자를 포함할 수 있다. 식별자는 체인에 있는 하나 이상의 다른 컴포넌트를 역방향 및/또는 순방향으로 참조하는 정보를 포함할 수 있다. 예를 들어, 컴포넌트(1220)와 컴포넌트(1240)가 링크되는 경우, 헤더(1222)는 컴포넌트(1240)를 참조하는 정보를 포함할 수 있고/있거나 헤더(1242)는 컴포넌트(1220)를 참조하는 정보를 포함할 수 있다. 대안적으로 또는 추가적으로, 식별자는, 변경이 이루어진 시간 또는 범위와 같은, 각각의 컴포넌트의 데이터(1224 또는 1244)에 대해 이루어진 변경에 기초한 정보를 포함할 수 있다. 일부 실시예들에서, 식별자는 다른 컴포넌트들의 식별자들 및/또는 컴포넌트의 데이터에 대한 변경과 연관된 정보를 수반하는 수학적 연산으로부터 결과될 수 있다. 예를 들어, 컴포넌트(1220)의 데이터(1224)는 업데이트된 건강 정보를 포함하도록 변경될 수 있는 개인의 식별 정보 및/또는 전자 건강 기록을 포함할 수 있다. 그에 따라, 헤더(1222)는 변경이 이루어졌다는 것, 및 일부 경우에, 변경의 범위를 나타내도록 업데이트될 수 있다. 추가적으로, 컴포넌트(1220)에 링크된 다른 컴포넌트들의 헤더들이 또한 컴포넌트(1220)의 업데이트된 식별자를 포함하도록 업데이트될 수 있다. 예를 들어, 컴포넌트(1240)가 컴포넌트(1220)에 링크되는 일부 실시예들에서, 헤더(1242)가 헤더(1222)에 대한 변경에 기초하여 업데이트될 수 있고/있거나 그 반대의 경우도 마찬가지이다.
도 1 및 도 2의 실시예들에서, 디바이스(120a) 및/또는 컴퓨터(140)는, 때때로, 분산 원장의 하나 이상의 컴포넌트를 저장할 수 있다. 대안적으로 또는 추가적으로, 디바이스(120a) 및/또는 컴퓨터(140)는 개인과 연관된 데이터(1224 및/또는 1244)를 갖는 분산 원장(1200)의 컴포넌트(들)(1220 및/또는 1240)에 액세스하도록 구성될 수 있다.
도 1 내지 도 10b의 실시예들에서, 생체 식별은 분산 원장(1200)의 컴포넌트들(1220 및/또는 1240)로부터의 저장된 이미지 데이터를 사용하여 수행될 수 있다. 예를 들어, 디바이스(120b) 또는 컴퓨터(140)는 분산 원장(1200)의 컴포넌트(들)(1220 및/또는 1240)로부터 저장된 이미지 데이터를 획득할 수 있다. 게다가, 식별 정보는 컴포넌트들(1220 및/또는 1240)의 데이터(1224 및/또는 1244)의 적어도 일 부분으로서 저장될 수 있다. 일부 실시예들에서, 컴포넌트(1220)의 데이터(1224)는 저장된 이미지 데이터는 물론 데이터(1244) 내의 저장된 이미지 데이터와 연관된 식별 정보를 저장할 수 있는 컴포넌트(1240)에 대한 링크를 포함할 수 있다. 컴포넌트(1220)에 있는 저장된 이미지 데이터가 캡처된 이미지 데이터와 적어도 미리 결정된 유사도를 갖는다고 결정할 때, 개인과 연관된 식별 정보는 저장된 이미지 데이터를 갖는 컴포넌트(1220)로부터 획득될 수 있거나 또는 링크된 컴포넌트(1240)로부터 획득될 수 있다.
IV. 개인의 망막 이미지에 기초하여 개인의 건강 상태를 결정하기 위한 기술
본 발명자들은 개인의 망막 안저의 캡처된 이미지를 사용하여 특정 질병에 대한 개인의 소인을 결정하기 위한 기술을 개발하였다. 예를 들어, 개인의 망막 안저의 모습은 개인이, 본 명세서에 설명된 바와 같이, 당뇨병, 심혈관계 이상 사건(adverse cardiovascular event) 또는 스트레스와 같은 다양한 상태의 위험에 있는지 여부를 나타낼 수 있다. 건강 상태 결정을 생체 식별을 위한 시스템에 통합시키는 것의 장점으로서, 개인을 식별하기 위한 캡처된 이미지 데이터가 개인의 건강 상태를 결정하는 데 사용될 수 있다. 다양한 실시예들에 따르면, 개인의 망막 안저의 이미지들에 기초한 개인의 소인의 결정은 개인을 식별하기 이전, 식별하는 동안 또는 식별한 이후에 수행될 수 있다. 예를 들어, 결정이 식별과 별도로 수행될 수 있거나, 또는 식별 동안 추가적인 또는 대안적인 단계로서 수행될 수 있다.
본 발명자들은 다양한 의학적 상태들이 개인의 망막 안저의 모습에 의해 표시될 수 있음을 인식하였다. 예를 들어, 당뇨병성 망막병증은 보다 작은 혈관의 혈관벽으로부터 돌출하는 작은 벌지(bulge) 또는 미세동맥류(micro-aneurysm)에 의해 표시될 수 있으며, 때때로 체액과 혈액을 망막으로 누출시킨다. 추가적으로, 보다 큰 망막 혈관이 확장되기 시작하여 직경이 불규칙해질 수 있다. 망막에 있는 신경 섬유들이 부풀어 오르기 시작할 수 있다. 때때로, 망막의 중앙부(황반)가, 황반 부종과 같이, 부풀어 오르기 시작한다. 손상된 혈관이 폐쇄되어, 망막에 새로운 비정상적인 혈관이 성장하게 할 수 있다. 녹내장성 시신경병증 또는 녹내장은 축삭 및 2차 망막 신경절 세포 손실의 결과로서 유두주위 망막 신경 섬유층(RNFL)이 얇아지는 것 및 시신경 유두 함몰(optic disc cupping)로 나타날 수 있다. 본 발명자들은, 예를 들어, OCT에 의해 표시되는, RNFL 결함이 녹내장의 초기 징후들 중 하나임을 인식하였다. 추가적으로, 나이 관련 황반 변성(AMD)은 황반 박리 및/또는 리프팅, 중심 망막 구역에 있는 색소 상피층(pigment epithelial layer) 아래의 황색 물질과 같은 황반 색소 침착의 장애 및/또는 황반 드루젠, 말초 드루젠, 및/또는 과립 패턴 드루젠과 같은 드루젠으로 나타날 수 있다. AMD는 또한, 과다 색소 침착(hyperpigmentation), 동전 모양 위축(nummular atrophy) 및/또는 망막하액(subretinal fluid)의 선명한 윤곽의(sharply delineated) 둥근 영역과 같은, 지도모양 위축(geographic atrophy)으로 나타날 수 있다. 스타가르트병(Stargardt’s disease)은 망막의 중앙 부분에 있는 광수용체 세포의 죽음으로 나타날 수 있다. 황반 부종은 중심와 주변의 영역에 있는 참호(trench)로 나타날 수 있다. 황반 원공(macular hole)은 황반에 있는 구멍으로 나타날 수 있다. 비문증(eye floater)는 초점이 맞지 않는 광학 경로 가림(non-focused optical path obscuring)으로 나타날 수 있다. 망막 박리(retinal detachment)는 심각한 시신경 유두 파열 및/또는 기본 색소 상피(underlying pigment epithelium)로부터의 분리로 나타날 수 있다. 망막 변성(retinal degeneration)은 망막의 악화로 나타날 수 있다. 중심 장액성 망막병증(central serous retinopathy, CSR)은 황반에서의 감각 신경 망막(sensory retina)의 상승 및/또는 색소 상피로부터의 국소 박리로 나타날 수 있다. 맥락막 흑색종(choroidal melanoma)은 맥락막에서 시작되는 색소 세포로부터 유래한 악성 종양으로 나타날 수 있다. 백내장은 불투명한 수정체로 니타날 수 있으며, 또한 형광 수명 및/또는 2D 망막 안저 이미지를 흐려지게 할 수 있다. 황반 모세혈관확장증(macular telangiectasia)은 황반에 대해 형광 수명의 고리가 극적으로 증가하는 것 및 중심와 안팎에서 보다 작은 혈관이 퇴행하는 것으로 표시될 수 있다. 알츠하이머병과 파킨슨병은 RNFL이 가늘어지는 것으로 나타날 수 있다. 당뇨병성 망막병증, 녹내장 및 다른 그러한 상태가 적절하게 선별되어 치료되지 않으면 실명 또는 심각한 시각 장애를 유발할 수 있음을 이해해야 한다.
그에 따라, 일부 실시예들에서, 본 명세서에 설명된 시스템들 및 디바이스들은 개인의 망막 안저의 하나 이상의 이미지에 기초하여 다양한 의학적 상태들에 대한 개인의 소인을 결정하도록 구성될 수 있다. 예를 들어, 특정 의학적 상태의 위에 설명된 징후들 중 하나 이상(예를 들면, 나이 관련 황반 변성에 대한 황반 박리 및/또는 리프팅)이 이미지(들)에서 검출되는 경우, 시스템 및/또는 디바이스는 개인이 해당 의학적 상태에 걸리기 쉽다고 결정할 수 있다. 그러한 상황에서, 시스템 또는 디바이스는 개인에게 직접 통지할 수 있고/있거나 개인의 건강 전문가에게 개인의 소인을 통지할 수 있다.
게다가, 일부 실시예들에서, 본 명세서에 설명된 시스템들 및 디바이스들은 캡처된 이미지들 및 저장된 이미지들에 기초하여 그러한 의학적 소인 결정을 내릴 수 있다. 예를 들어, RNFL가 얇아지는 것과 같은 일부 징후들은 개인을 식별할 때 캡처된 이미지(들)를 저장된 이미지들과 비교하는 것에 의해 표시될 수 있다. 그러한 진행은 기존의 식별 시스템이 올바른 개인의 잘못된 거부를 결과할 수 있으므로 기존의 식별 시스템에 대해 과제를 제기할 수 있지만, 본 명세서에 설명된 시스템들은 개인의 의학적 상태를 결정할 때 그러한 차이를 고려하도록 구성될 수 있다. 따라서, 본 발명자들은 개인의 의학적 상태의 징후들을 검출하고 개인의 의학적 상태를 결정할 뿐만 아니라 식별 동안 의학적 상태를 고려하도록 적응하는 시스템들 및 디바이스들을 개발하였다.
대안적으로 또는 추가적으로, 일부 실시예들에서, 본 명세서에 설명된 시스템들 및 디바이스들은 TSC로부터의 하나 이상의 출력에 기초하여 그러한 의학적 소인 결정을 할 수 있다. 예를 들어, 개인의 망막 안저의 하나 이상의 이미지가 TSC에 대한 입력으로서 제공될 수 있으며, TSC는 개인의 망막 안저의 특징들을 나타내는 하나 이상의 출력을 제공할 수 있다. 일부 실시예들에서, 각각의 출력은 의학적 상태의 징후가 특정 이미지의 특정 부분에 있을 가능성을 나타낼 수 있다. 대안적으로, 하나 이상의 출력은 단일 또는 다수의 이미지들에서의 다수의 의학적 상태들의 징후의 가능성을 나타낼 수 있다. 게다가, 출력(들)은 단일 또는 다수의 이미지들에서의 하나 또는 다수의 의학적 상태들의 다수의 징후들의 가능성을 나타낼 수 있다. 출력(들)은 하나 이상의 의학적 상태의 하나 이상의 징후가 단일 또는 다수의 이미지들에서의 다수의 위치들에 걸쳐 존재할 가능성을 나타낼 수 있다. 그에 따라, 다양한 의학적 상태들에 대한 개인의 소인의 결정이 TSC로부터의 출력(들)에 기초하여 이루어질 수 있다. 저장된 이미지 데이터가 또한 TSC에 대한 입력으로서 제공될 때, TSC로부터의 출력(들)은 본 명세서에 설명된 바와 같이 개인을 식별하는 데 사용될 수 있을 뿐만 아니라 출력(들)에 표시되는 특징들에 기초하여 의학적 상태 결정을 내릴 수 있다.
일부 실시예들에서, 성공적인 식별 시에, 개인의 건강 정보에서의 위험 평가는 캡처된 이미지 데이터에서의 망막 안저 특징들의 모습에 기초하여 업데이트될 수 있다. 예를 들어, 도 1의 실시예에 따르면, 위험 평가는 컴퓨터(140)에서 업데이트될 수 있고/있거나 도 11의 사용자 인터페이스(1100)에서 디스플레이하기 위해 디바이스(120a)에 제공될 수 있다. 도 2의 실시예에 따르면, 위험 평가는 디바이스(120b) 상에서 업데이트될 수 있고/있거나 사용자 인터페이스(1100)에서 디스플레이하기 위해 제공될 수 있다.
V. 개인의 망막 이미지에 기초하여 개인의 건강 상태를 진단하기 위한 기술
본 발명자들은 또한 개인의 망막 안저의 캡처된 이미지를 사용하여 개인의 다양한 건강 상태들 또는 질병들을 진단하기 위한 기술을 개발하였다. 예를 들어, 일부 실시예들에서, 섹션 IV에 설명된 건강 상태들 중 임의의 것이 식별 이전, 식별 동안, 성공적인 식별 이후에 및/또는 하나 이상의 식별 동안 축적된 데이터를 사용하여 진단될 수 있다. 대안적으로 또는 추가적으로, 그러한 상태들은 망막모세포종(retinoblastoma), 또는 근시 또는 약시와 같은 교정 가능한 시력 문제를 포함할 수 있다. 그러한 결정은 섹션 IV에 설명된 방식으로 수행될 수 있다. 도 1의 실시예에 따르면, 컴퓨터(140)가 진단을 수행하고 진단의 결과를 디바이스(120a)에 제공할 수 있다. 도 2의 실시예에 따르면, 디바이스(120b)가 진단을 수행하고 그 상에서 진단의 결과를 제공할 수 있다. 일부 실시예들에서, 진단의 결과는 대안적으로 또는 추가적으로, 개인의 의사와 같은, 의료 전문가에게 제공될 수 있다.
VI. 적용
설명된 바와 같이, 개인의 망막 안저의 캡처된 이미지는 개인을 식별하고, 개인의 전자 기록에 액세스하거나 개인의 디바이스를 보호하며, 개인의 건강 상태를 결정하고/하거나(특정 질병 또는 상태를 얻는 것에 대한 개인의 성향을 결정하는 것을 포함함), 개인의 실제 질병 또는 건강 상태(예컨대, 알츠하이머병, 당뇨병, 특정 자가면역 질환 등)를 진단하는 데 사용될 수 있다. 추가적으로, 본 명세서에 설명된 시스템들 및 디바이스들은 개인의 바이탈 사인(vital sign), 혈압, 심박수, 및/또는 적혈구 및 백혈구 수를 결정하도록 구성될 수 있다. 게다가, 본 명세서에 설명된 시스템들 및 디바이스들은 초음파 프로브, 자기 공명 이미징(MRI) 시스템 등과 같은 다른 의료 디바이스들과 함께 사용하도록 구성될 수 있다. 본 명세서에 설명된 바와 같은 시스템들 및 디바이스들과 함께 사용하기 위한 초음파 프로브의 예는, 그 전체가 본 명세서에 참고로 포함되는, 발명의 명칭이 "UNIVERSAL ULTRASOUND DEVICE AND RELATED APPARATUS AND METHODS"인 미국 특허 출원 제2017/0360397호에 설명되어 있다. 본 명세서에 설명된 바와 같은 시스템들 및 디바이스들과 함께 사용하기 위한 MRI 시스템의 예는, 그 전체가 본 명세서에 참고로 포함되는, 발명의 명칭이 "ELECTROMAGNETIC SHIELDING FOR MAGNETIC RESONANCE IMAGING METHODS AND APPARATUS"인 미국 특허 출원 제2018/0164390호에 설명되어 있다.
따라서 본 개시에 기재된 기술의 여러 양태들 및 실시예들을 설명하였지만, 다양한 변경들, 수정들, 및 개선들이 본 기술 분야의 통상의 기술자에게 용이하게 안출될 것임이 이해되어야 한다. 그러한 변경들, 수정들, 및 개선들은 본 명세서에 설명된 기술의 사상 및 범위 내에 있는 것으로 의도된다. 예를 들어, 본 기술 분야의 통상의 기술자는 기능을 수행하고/하거나 결과들 및/또는 본 명세서에 기술된 장점들 중 하나 이상의 장점을 획득하기 위한 다양한 다른 수단들 및/또는 구조들을 용이하게 구상할 것이고, 그러한 변형들 및/또는 수정들 각각은 본 명세서에 설명된 실시예들의 범위 내에 있는 것으로 간주된다. 본 기술 분야의 통상의 기술자는, 일상적인 실험만을 사용하여, 본 명세서에 설명된 특정 실시예들에 대한 많은 등가물들을 인식하거나 확인할 수 있을 것이다. 따라서, 전술한 실시예들이 단지 예로서 제시되어 있다는 것과, 첨부된 청구항들 및 그의 균등물들의 범위 내에서, 발명 실시예들이 구체적으로 설명된 것과 다른 방식으로 실시될 수 있다는 것이 이해되어야 한다. 추가적으로, 본 명세서에 설명된 2개 이상의 특징, 시스템, 물품, 재료, 키트 및/또는 방법의 임의의 조합은, 그러한 특징, 시스템, 물품, 재료, 키트 및/또는 방법이 상호 모순되지 않는 경우, 본 개시의 범위 내에 포함된다.
위에서 설명된 실시예들은 다양한 방식들 중 임의의 것으로 구현될 수 있다. 프로세스들 또는 방법들의 수행을 포함하는 본 개시의 하나 이상의 양태 및 실시예는 프로세스들 또는 방법들을 수행하거나 그 수행을 제어하기 위해 디바이스(예를 들면, 컴퓨터, 프로세서 또는 다른 디바이스)에 의해 실행 가능한 프로그램 명령어들을 활용할 수 있다. 이 점에서, 다양한 발명 개념들이, 하나 이상의 컴퓨터 또는 다른 프로세서에서 실행될 때, 위에서 설명된 다양한 실시예들 중 하나 이상을 구현하는 방법들 수행하는 하나 이상의 프로그램으로 인코딩된 컴퓨터 판독 가능 저장 매체(또는 다수의 컴퓨터 판독가능 매체들)(예를 들면, 컴퓨터 메모리, 하나 이상의 플로피 디스크, 콤팩트 디스크, 광학 디스크, 자기 테이프, 플래시 메모리, 필드 프로그래머블 게이트 어레이 또는 다른 반도체 디바이스에서의 회로 구성, 다른 유형적 컴퓨터 저장 매체)로서 구체화될 수 있다. 컴퓨터 판독 가능 매체 또는 매체들은 운반 가능(transportable)할 수 있으며, 따라서 그에 저장된 프로그램 또는 프로그램들은 위에서 설명된 양태들 중 다양한 양태들을 구현하기 위해 하나 이상의 상이한 컴퓨터 또는 다른 프로세서 상에 로딩될 수 있다. 일부 실시예들에서, 컴퓨터 판독 가능 매체는 비일시적 매체일 수 있다.
"프로그램" 또는 "소프트웨어"라는 용어는 위에서 설명된 바와 같이 다양한 양태들을 구현하도록 컴퓨터 또는 다른 프로세서를 프로그래밍하는 데 이용될 수 있는 임의의 유형의 컴퓨터 코드 또는 컴퓨터 실행 가능 명령어 세트를 지칭하기 위해 일반적인 의미로 본 명세서에서 사용된다. 추가적으로, 일 양태에 따르면, 실행될 때, 본 개시의 방법들을 수행하는 하나 이상의 컴퓨터 프로그램이 단일 컴퓨터 또는 프로세서에 존재할 필요가 없고, 본 개시의 다양한 양태들을 구현하기 위해 다수의 상이한 컴퓨터들 또는 프로세서들 간에 모듈 방식으로 분산될 수 있음이 이해되어야 한다.
컴퓨터 실행 가능 명령어들은 하나 이상의 컴퓨터 또는 다른 디바이스에 의해 실행되는, 프로그램 모듈들과 같은, 많은 형태들로 되어 있을 수 있다. 일반적으로, 프로그램 모듈들은 특정 작업들을 수행하거나 특정 추상 데이터 유형들을 구현하는 루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포함한다. 전형적으로, 프로그램 모듈들의 기능성이 다양한 실시예들에서 원하는 바에 따라 결합되거나 분산될 수 있다.
또한, 데이터 구조는 임의의 적합한 형태로 컴퓨터 판독 가능 매체에 저장될 수 있다. 예시의 간단함을 위해, 데이터 구조는 데이터 구조에서의 위치를 통해 관련되는 필드들을 갖는 것으로 나타내어질 수 있다. 그러한 관계는 마찬가지로 필드들 간의 관계를 전달하는 컴퓨터 판독 가능 매체에서의 위치들을 사용하여 필드들에 대한 스토리지를 할당하는 것에 의해 달성될 수 있다. 그렇지만, 포인터, 태그 또는 데이터 요소들 간의 관계를 구축하는 다른 메커니즘의 사용을 포함한, 임의의 적합한 메커니즘이 데이터 구조의 필드들 내의 정보 간의 관계를 구축하는 데 사용될 수 있다.
소프트웨어로 구현될 때, 소프트웨어 코드는, 단일 컴퓨팅 디바이스에서 제공되든 다수의 컴퓨터들 간에 분산되어 있든 관계없이, 임의의 적합한 프로세서 또는 프로세서들의 집합체에서 실행될 수 있다.
게다가, 컴퓨터가, 비제한적인 예로서, 랙 장착형 컴퓨터, 데스크톱 컴퓨터, 랩톱 컴퓨터 또는 태블릿 컴퓨터와 같은, 다수의 형태들 중 임의의 형태로 구체화될 수 있음이 이해되어야 한다. 추가적으로, 컴퓨터는 일반적으로 컴퓨터로 간주되지는 않지만, PDA(Personal Digital Assistant), 스마트 폰 또는 임의의 다른 적합한 휴대용 또는 고정식 전자 디바이스를 포함한, 적합한 프로세싱 능력을 가진 디바이스에 내장될 수 있다.
또한, 컴퓨터는 하나 이상의 입출력 디바이스를 가질 수 있다. 이러한 디바이스들은, 그 중에서도, 사용자 인터페이스를 제시하는 데 사용될 수 있다. 사용자 인터페이스를 제공하는 데 사용될 수 있는 출력 디바이스의 예는 출력의 시각적 제시를 위한 프린터 또는 디스플레이 화면 및 출력의 청각적 제시를 위한 스피커 또는 다른 사운드 생성 디바이스를 포함한다. 사용자 인터페이스에 사용될 수 있는 입력 디바이스의 예는 키보드, 및, 마우스, 터치 패드 및 디지타이징 태블릿과 같은, 포인팅 디바이스를 포함한다. 다른 예로서, 컴퓨터는 음성 인식을 통해 또는 다른 가청 형식으로 입력 정보를 수신할 수 있다.
그러한 컴퓨터들은, 로컬 영역 네트워크 또는, 엔터프라이즈 네트워크와 같은, 광역 네트워크, 및 지능형 네트워크(IN) 또는 인터넷을 포함한, 임의의 적합한 형태의 하나 이상의 네트워크에 의해 상호 연결될 수 있다. 그러한 네트워크는 임의의 적합한 기술에 기초할 수 있고 임의의 적합한 프로토콜에 따라 동작할 수 있으며 무선 네트워크, 유선 네트워크 또는 광섬유 네트워크를 포함할 수 있다.
또한, 설명된 바와 같이, 일부 양태들은 하나 이상의 방법으로서 구체화될 수 있다. 일부 실시예들에서, 방법들은 본 명세서에 설명된 하나 이상의 기술의 양태들을 통합할 수 있다.
예를 들어, 도 13a는 본 명세서에 설명된 실시예들의 일부 또는 전부에 따른, 단계(1320a)에서 개인의 망막 안저의 제1 이미지와 연관되고/되거나 이를 포함하는 제1 이미지 데이터를, 통신 네트워크를 통해 [예를 들면, 클라우드로], 전송하는 것, 및, 단계(1340a)에서 개인의 신원을, 통신 네트워크를 통해, 수신하는 것을 포함하는 예시적인 방법(1300a)을 예시하는 흐름 다이어그램이다.
도 13b는 본 명세서에 설명된 실시예들의 일부 또는 전부에 따른, 단계(1320b)에서, 개인의 망막 안저의 제1 이미지와 연관되고/되거나 이를 포함하는 제1 이미지 데이터에 기초하여, 개인을 식별하는 것, 및, 단계(1340b)에서, 개인의 제1 생체 특성에 기초하여, 개인의 신원을 검증하는 것을 포함하는 예시적인 방법(1300b)을 예시하는 흐름 다이어그램이다. 일부 실시예들에서, 단계(1320a)가 대안적으로 또는 추가적으로 제1 이미지 데이터에 표시된 다수의 유형의 특징들 중 제1 특징에 기초하여 개인을 식별하는 것을 포함할 수 있고/있거나, 단계(1340b)는 다수의 유형의 특징들 중 제2 특징에 기초하여 신원을 검증하는 것을 포함할 수 있다는 것을 이해해야 한다.
도 13c는 본 명세서에 설명된 일부 또는 모든 실시예들에 따른, 단계(1320c)에서, 개인의 망막 안저의 제1 이미지와 연관되고/되거나 이를 포함하는 제1 이미지 데이터에 기초하여, 개인을 식별하는 것 및 단계(1340c)에서 복수의 망막 안저 이미지들과 연관된 저장된 데이터를 업데이트하는 것을 포함하는 예시적인 방법(1300c)을 예시하는 흐름 다이어그램이다.
도 13d는 본 명세서에 설명된 일부 또는 모든 실시예들에 따른, 단계(1320d)에서, 트레이닝된 통계적 분류기(TSC)에 대한 제1 입력으로서, 개인의 망막 안저의 제1 이미지와 연관되고/되거나 이를 포함하는 제1 이미지 데이터를 제공하는 것, 및, 단계(1340d)에서, TSC로부터의 적어도 하나의 출력에 기초하여, 개인을 식별하는 것을 포함하는 예시적인 방법(1300d)을 예시하는 흐름 다이어그램이다.
도 13e는 본 명세서에 설명된 일부 또는 모든 실시예들에 따른, 단계(1320e)에서, 개인의 망막 안저의 제1 이미지와 연관되고/되거나 이를 포함하는 제1 이미지 데이터에 기초하여, 개인을 식별하는 것, 및 단계(1340e)에서 개인의 의학적 상태를 결정하는 것을 포함하는 예시적인 방법(1300e)을 예시하는 흐름 다이어그램이다.
도 13f는 본 명세서에 설명된 일부 또는 모든 실시예들에 따른, 단계(1320f)에서, 트레이닝된 통계적 분류기(TSC)에 대한 제1 입력으로서, 개인의 망막 안저의 제1 이미지와 연관되고/되거나 이를 포함하는 제1 이미지 데이터를 제공하는 것, 단계(1340f)에서, TSC로부터의 적어도 하나의 출력에 기초하여, 개인을 식별하는 것, 및 단계(1360f)에서 개인의 의학적 상태를 결정하는 것을 포함하는 예시적인 방법(1300g)을 예시하는 흐름 다이어그램이다.
방법들의 일부로서 수행되는 동작들은 임의의 적합한 방식으로 순서화될 수 있다. 그에 따라, 동작들이 예시된 것과 상이한 순서로 수행되는 실시예들이 구성될 수 있으며, 이러한 실시예들은, 비록 예시적인 실시예들에서 순차적인 동작들로서 도시되어 있더라도, 일부 동작들을 동시에 수행하는 것을 포함할 수 있다.
모든 정의들은, 본 명세서에서 정의되고 사용되는 바와 같이, 사전 정의(dictionary definition), 참고로 포함된 문서들에서의 정의, 및/또는 정의된 용어의 통상적인 의미보다 우선하는 것으로 이해되어야 한다.
부정관사("a" 및 "an")는, 본 명세서에서 사용되는 바와 같이, 명세서에서 그리고 청구범위에서, 명확히 달리 지시되지 않는 한, "적어도 하나"를 의미하는 것으로 이해되어야 한다.
문구 "및/또는"은, 본 명세서에서 사용되는 바와 같이, 명세서에서 그리고 청구범위에서, 그렇게 등위 접속된(conjoined) 요소들, 즉 일부 경우에 연접적으로(conjunctively) 존재하고 다른 경우에 이접적으로(disjunctively) 존재하는 요소들 중 "어느 하나 또는 둘 모두"를 의미하는 것으로 이해되어야 한다. "및/또는"을 사용해 열거된 다수의 요소들은 동일한 방식으로, 즉 그렇게 등위 접속된 요소들 중 "하나 이상"으로 해석되어야 한다. 구체적으로 식별된 해당 요소들과 관련이 있는지 여부와 상관없이, "및/또는"이라는 절에 의해 구체적으로 식별되는 요소들 이외에 다른 요소들이 임의로 존재할 수 있다. 따라서, 비제한적인 예로서, "A 및/또는 B"에 대한 언급은, "포함하는(comprising)"과 같은 개방형 표현(open-ended language)과 함께 사용될 때, 일 실시예에서, A만(B 이외의 요소들을 임의로 포함함); 다른 실시예에서, B만(A 이외의 요소들을 임의로 포함함); 또 다른 실시예에서, A 및 B 둘 모두(다른 요소들을 임의로 포함함) 등을 지칭할 수 있다.
본 명세서에서 사용되는 바와 같이, 명세서에서 그리고 청구범위에서, 하나 이상의 요소의 목록에 대한 언급에서의 문구 "적어도 하나"는 요소들의 목록 내의 요소들 중 임의의 하나 이상의 요소 중에서 선택된 적어도 하나의 요소를 의미하는 것으로 이해되어야 하지만, 요소들의 목록 내에 구체적으로 열거된 각기의 요소 중 적어도 하나를 반드시 포함하는 것은 아니며 요소들의 목록 내의 요소들의 임의의 조합을 배제하지 않는다. 이 정의는 또한, 구체적으로 식별된 해당 요소들과 관련이 있는지 여부에 관계없이, "적어도 하나"라는 문구가 언급하는 요소들의 목록 내에서 구체적으로 식별되는 요소들 이외에 요소들이 임의로 존재할 수 있는 것을 허용한다. 따라서, 비제한적인 예로서, "A 및 B 중 적어도 하나"(또는 등가적으로, "A 또는 B 중 적어도 하나", 또는 등가적으로 "A 및/또는 B 중 적어도 하나")는, 일 실시예에서, B가 존재하지 않는 경우(그리고 B 이외의 요소들을 임의로 포함함), 적어도 하나의 A - 하나 초과의 A를 임의로 포함함 - 를 지칭할 수 있고; 다른 실시예에서, A가 존재하지 않는 경우(그리고 A 이외의 요소들을 임의로 포함함), 적어도 하나의 B - 하나 초과의 B를 임의로 포함함 - 를 지칭할 수 있으며; 또 다른 실시예에서, 적어도 하나의 A - 하나 초과의 A를 임의로 포함함 -, 및 적어도 하나의 B - 하나 초과의 B를 임의로 포함함 - (그리고 다른 요소들을 임의로 포함함)를 지칭할 수 있고; 기타 등등일 수 있다.
또한, 본 명세서에서 사용된 어구 및 전문용어는 설명을 위한 것이며 제한적인 것으로 간주되어서는 안된다. "포함하는(including)", "포함하는(comprising)", 또는 "갖는(having)", "함유하는(containing)", "수반하는(involving)", 및 이들의 변형들의 본 명세서에서의 사용은 그 이후에 열거되는 항목들 및 이들의 등가물들은 물론 추가적인 항목들을 포괄하는 것으로 의미된다.
청구범위에서는 물론 이상의 명세서에서, "포함하는(comprising)", "포함하는(including)", "담고 있는(carrying)", "갖는(having)", "함유하는(containing)", "수반하는(involving)", "보유하는(holding)", "~로 구성되는(composed of)" 등과 같은 모든 이행적 어구(transitional phrase)는 개방형(open-ended)인 것으로, 즉 "~를 포함하지만 이에 한정되지는 않는"을 의미하는 것으로 이해되어야 한다. 이행적 어구들 "~로 이루어진(consisting of)" 및 "본질적으로 ~로 이루어진(consisting essentially of)"만이, 제각기, 폐쇄형(closed) 또는 반폐쇄형(semi-closed) 이행적 어구이다.

Claims (35)

  1. 이미징 장치로서,
    개인의 제1 눈 및 제2 눈을 수용하도록 구성된 하우징
    을 포함하며, 상기 하우징 내부에,
    상기 제1 눈의 망막을 이미징 및/또는 측정하도록 구성된 광간섭 단층촬영(OCT) 디바이스; 및
    상기 제2 눈의 망막을 이미징 및/또는 측정하도록 구성된 형광 디바이스가 배치되어 있는, 이미징 장치.
  2. 이미징 장치로서,
    광학 이미징 디바이스 및 형광 이미징 디바이스를 포함하는 복수의 이미징 디바이스들이 내부에 배치되어 있는 쌍안경 형상의 하우징
    을 포함하며,
    상기 광학 이미징 디바이스와 상기 형광 이미징 디바이스는 동일한 광학 컴포넌트를 사용하여 이미징 및/또는 측정을 수행하도록 구성되는, 이미징 장치.
  3. 제2항에 있어서, 상기 동일한 광학 컴포넌트는 렌즈를 포함하는, 이미징 장치.
  4. 제2항에 있어서, 상기 광학 이미징 디바이스는 광간섭 단층촬영(OCT) 디바이스를 포함하는, 이미징 장치.
  5. 제2항에 있어서, 상기 형광 이미징 디바이스는 형광 수명 이미징 디바이스를 포함하는, 이미징 장치.
  6. 제2항에 있어서, 상기 복수의 이미징 디바이스들을 사용하여 캡처된 적어도 하나의 이미지에 기초하여 상기 이미징 장치를 착용한 개인을 식별하도록 구성된 적어도 하나의 프로세서
    를 더 포함하는, 이미징 장치.
  7. 제6항에 있어서, 상기 적어도 하나의 프로세서는:
    상기 적어도 하나의 이미지를 트레이닝된 통계적 분류기(TSC)에 입력하고;
    상기 TSC로부터의 출력으로서, 상기 개인의 신원을 획득하도록 구성되는, 이미징 장치.
  8. 제6항에 있어서, 상기 적어도 하나의 프로세서는:
    통신 네트워크를 통해 디바이스로, 상기 적어도 하나의 이미지를 전송하고;
    상기 통신 네트워크를 통해 상기 디바이스로부터, 상기 개인의 신원을 수신하도록 구성되는, 이미징 장치.
  9. 제8항에 있어서, 상기 적어도 하나의 프로세서는, 상기 통신 네트워크를 통해, 상기 개인과 연관된 건강 정보에 액세스하도록 더 구성되는, 이미징 장치.
  10. 제6항에 있어서, 상기 적어도 하나의 프로세서는 상기 개인을 식별하는 것에 기초하여 상기 개인에 대한 보안 액세스를 승인하도록 더 구성되는, 이미징 장치.
  11. 제6항에 있어서, 상기 적어도 하나의 프로세서는 상기 적어도 하나의 이미지에 기초하여 상기 개인의 건강 상태를 결정하도록 더 구성되는, 이미징 장치.
  12. 제9항에 있어서, 상기 적어도 하나의 프로세서는:
    상기 적어도 하나의 이미지를 트레이닝된 통계적 분류기(TSC)에 입력하고;
    상기 TSC로부터의 출력으로서, 상기 개인의 상기 건강 상태를 획득하도록 구성되는, 이미징 장치.
  13. 제6항에 있어서, 상기 적어도 하나의 프로세서는 상기 적어도 하나의 이미지에 기초하여 상기 개인의 의학적 상태를 결정하도록 더 구성되는, 이미징 장치.
  14. 제13항에 있어서, 상기 적어도 하나의 프로세서는:
    상기 적어도 하나의 이미지를 트레이닝된 통계적 분류기(TSC)에 입력하고;
    상기 TSC로부터의 출력으로서, 상기 개인의 상기 의학적 상태를 획득하도록 구성되는, 이미징 장치.
  15. 제2항에 있어서, 상기 복수의 이미징 디바이스들을 사용하여 캡처된 적어도 하나의 이미지를, 통신 네트워크를 통해, 전송하도록 구성된 회로부
    를 더 포함하는, 이미징 장치.
  16. 이미징 장치로서,
    복수의 이미징 디바이스들 및 적어도 2개의 렌즈가 내부에 배치되어 있는 하우징
    을 포함하며, 상기 적어도 2개의 렌즈는 개인의 제1 눈과 제2 눈 중 적어도 하나를 이미징 및/또는 측정하기 위해 상기 복수의 이미징 디바이스들 중 적어도 2개와 제각기 정렬되는, 이미징 장치.
  17. 제16항에 있어서, 상기 하우징은 상기 제1 눈과 상기 제2 눈을 상기 적어도 2개의 렌즈와 정렬시키기 위해 상기 개인의 상기 제1 눈과 상기 제2 눈을 수용하도록 구성된 부분을 포함하는, 이미징 장치.
  18. 제16항에 있어서, 상기 적어도 2개의 렌즈는:
    상기 복수의 이미징 디바이스들 중 상기 적어도 2개 중 제1 이미징 디바이스 및 상기 제1 눈과 정렬하도록 위치된 제1 렌즈; 및
    상기 복수의 이미징 디바이스들 중 상기 적어도 2개 중 제2 이미징 디바이스 및 상기 제2 눈과 정렬하도록 위치된 제2 렌즈를 포함하는, 이미징 장치.
  19. 제18항에 있어서, 상기 제1 이미징 디바이스는 광간섭 단층촬영(OCT) 디바이스를 포함하고, 상기 제2 이미징 디바이스는 형광 수명 디바이스를 포함하는, 이미징 장치.
  20. 제16항에 있어서, 상기 복수의 이미징 디바이스들을 사용하여 캡처된 적어도 하나의 이미지에 기초하여 상기 이미징 장치를 착용한 개인을 식별하도록 구성된 적어도 하나의 프로세서
    를 더 포함하는, 이미징 장치.
  21. 제20항에 있어서, 상기 적어도 하나의 프로세서는:
    상기 적어도 하나의 이미지를 트레이닝된 통계적 분류기(TSC)에 입력하고;
    상기 TSC로부터의 출력으로서, 상기 개인의 신원을 획득하도록 구성되는, 이미징 장치.
  22. 제20항에 있어서, 상기 적어도 하나의 프로세서는:
    통신 네트워크를 통해 디바이스로, 상기 적어도 하나의 이미지를 전송하고;
    상기 통신 네트워크를 통해 상기 디바이스로부터, 상기 개인의 신원을 수신하도록 구성되는, 이미징 장치.
  23. 제20항에 있어서, 상기 적어도 하나의 프로세서는, 상기 통신 네트워크를 통해, 상기 개인과 연관된 건강 정보에 액세스하도록 더 구성되는, 이미징 장치.
  24. 제20항에 있어서, 상기 적어도 하나의 프로세서는 상기 개인을 식별하는 것에 기초하여 상기 개인에 대한 보안 액세스를 승인하도록 더 구성되는, 이미징 장치.
  25. 제20항에 있어서, 상기 적어도 하나의 프로세서는 상기 적어도 하나의 이미지에 기초하여 상기 개인의 건강 상태를 결정하도록 더 구성되는, 이미징 장치.
  26. 제25항에 있어서, 상기 적어도 하나의 프로세서는:
    상기 적어도 하나의 이미지를 트레이닝된 통계적 분류기(TSC)에 입력하고;
    상기 TSC로부터의 출력으로서, 상기 개인의 상기 건강 상태를 획득하도록 구성되는, 이미징 장치.
  27. 제20항에 있어서, 상기 적어도 하나의 프로세서는 상기 적어도 하나의 이미지에 기초하여 상기 개인의 의학적 상태를 결정하도록 더 구성되는, 이미징 장치.
  28. 제27항에 있어서, 상기 적어도 하나의 프로세서는:
    상기 적어도 하나의 이미지를 트레이닝된 통계적 분류기(TSC)에 입력하고;
    상기 TSC로부터의 출력으로서, 상기 개인의 상기 의학적 상태를 획득하도록 구성되는, 이미징 장치.
  29. 제16항에 있어서, 상기 복수의 이미징 디바이스들을 사용하여 캡처된 적어도 하나의 이미지를, 통신 네트워크를 통해, 전송하도록 구성된 회로부
    를 더 포함하는, 이미징 장치.
  30. 이미징 장치용 스탠드로서,
    상기 이미징 장치의 하우징을 수용하도록 구성된 홀딩부(holding portion); 및
    상기 홀딩부에 결합되고, 상기 홀딩부에 수용될 때 상기 이미징 장치를 지지하도록 구성된 베이스(base)
    를 포함하는, 스탠드.
  31. 제30항에 있어서, 상기 스탠드는 상기 이미징 장치가 상기 홀딩부에 수용될 때 상기 이미징 장치에 전력을 공급하도록 구성된 무선 충전 디바이스
    를 더 포함하는, 스탠드.
  32. 제31항에 있어서, 상기 무선 충전 디바이스는 전력 공급 장치 및 상기 이미징 장치가 상기 홀딩부에 수용될 때 상기 이미징 장치에 무선으로 전력을 전송하도록 구성된 적어도 하나의 무선 충전 코일을 포함하는, 스탠드.
  33. 제32항에 있어서, 상기 홀딩부는 상기 무선 충전 디바이스를 하우징하는, 스탠드.
  34. 제32항에 있어서, 상기 전력 공급 장치는 재충전 가능 배터리를 포함하는, 스탠드.
  35. 제32항에 있어서, 상기 전력 공급 장치는 표준 벽면 콘센트로부터 전력을 수신하도록 구성되는, 스탠드.
KR1020217021757A 2018-12-12 2019-12-12 생체 식별 및 건강 상태 결정을 위한 광학 장치 및 관련 디바이스 KR20210137988A (ko)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201862778494P 2018-12-12 2018-12-12
US62/778,494 2018-12-12
US201962833210P 2019-04-12 2019-04-12
US201962833239P 2019-04-12 2019-04-12
US201962833179P 2019-04-12 2019-04-12
US62/833,210 2019-04-12
US62/833,179 2019-04-12
US62/833,239 2019-04-12
PCT/US2019/066067 WO2020123862A1 (en) 2018-12-12 2019-12-12 Optical apparatus and associated devices for biometric identification and health status determination

Publications (1)

Publication Number Publication Date
KR20210137988A true KR20210137988A (ko) 2021-11-18

Family

ID=71071494

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217021757A KR20210137988A (ko) 2018-12-12 2019-12-12 생체 식별 및 건강 상태 결정을 위한 광학 장치 및 관련 디바이스

Country Status (11)

Country Link
US (4) US20200191553A1 (ko)
EP (4) EP3893719A4 (ko)
JP (1) JP2022512393A (ko)
KR (1) KR20210137988A (ko)
CN (1) CN113784656A (ko)
AU (4) AU2019398346A1 (ko)
BR (1) BR112021010926A2 (ko)
CA (4) CA3122570A1 (ko)
MX (1) MX2021006994A (ko)
TW (1) TW202038137A (ko)
WO (4) WO2020123868A1 (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3239895A1 (en) * 2016-04-28 2017-11-01 Nokia Technologies Oy An apparatus, method and computer program for obtaining scrambled identification signal of a user using quantum dot-graphene field effect transistors
US11737665B2 (en) 2019-06-21 2023-08-29 Tesseract Health, Inc. Multi-modal eye imaging with shared optical path
US11373425B2 (en) 2020-06-02 2022-06-28 The Nielsen Company (U.S.), Llc Methods and apparatus for monitoring an audience of media based on thermal imaging
CN111714217A (zh) * 2020-07-03 2020-09-29 福建智康云医疗科技有限公司 一种基于云存储的医学影像快速定位采集扫描装置
US11475669B2 (en) * 2020-07-30 2022-10-18 Ncr Corporation Image/video analysis with activity signatures
US11595723B2 (en) 2020-08-20 2023-02-28 The Nielsen Company (Us), Llc Methods and apparatus to determine an audience composition based on voice recognition
US11553247B2 (en) 2020-08-20 2023-01-10 The Nielsen Company (Us), Llc Methods and apparatus to determine an audience composition based on thermal imaging and facial recognition
US11763591B2 (en) * 2020-08-20 2023-09-19 The Nielsen Company (Us), Llc Methods and apparatus to determine an audience composition based on voice recognition, thermal imaging, and facial recognition
TWI817121B (zh) * 2021-05-14 2023-10-01 宏碁智醫股份有限公司 分類老年性黃斑部退化的程度的分類方法和分類裝置
TWI802123B (zh) * 2021-12-02 2023-05-11 財團法人工業技術研究院 3d靜脈圖譜的辨識方法及其識別裝置
CN114071561B (zh) * 2021-12-07 2023-06-23 中国联合网络通信集团有限公司 一种数据上报方法、装置、设备及存储介质
TWI827435B (zh) * 2023-01-06 2023-12-21 南臺學校財團法人南臺科技大學 排尿檢測方法及其系統

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4762701A (en) * 1986-10-31 1988-08-09 Smithkline Beckman Corporation In vivo cellular tracking
US5973731A (en) * 1994-03-03 1999-10-26 Schwab; Barry H. Secure identification system
US6142629A (en) * 1998-08-30 2000-11-07 Applied Spectral Imaging Ltd. Spectral imaging using illumination of preselected spectral content
US6332193B1 (en) * 1999-01-18 2001-12-18 Sensar, Inc. Method and apparatus for securely transmitting and authenticating biometric data over a network
CA2420530A1 (en) * 2000-08-23 2002-02-28 Philadelphia Ophthalmologic Imaging Systems, Inc. Systems and methods for tele-ophthalmology
US7224822B2 (en) * 2000-11-02 2007-05-29 Retinal Technologies, L.L.C. System for capturing an image of the retina for identification
JP2003085662A (ja) * 2001-07-06 2003-03-20 Rando Business:Kk 防犯システム、防犯管理装置、防犯方法、防犯管理方法およびコンピュータプログラム
US7575321B2 (en) * 2003-10-30 2009-08-18 Welch Allyn, Inc. Apparatus and method of diagnosis of optically identifiable ophthalmic conditions
US7555148B1 (en) * 2004-01-22 2009-06-30 Fotonation Vision Limited Classification system for consumer digital images using workflow, face detection, normalization, and face recognition
JP4527471B2 (ja) * 2004-08-24 2010-08-18 独立行政法人理化学研究所 3次元眼底画像の構築・表示装置
US8243999B2 (en) * 2006-05-03 2012-08-14 Ut-Battelle, Llc Method and system for the diagnosis of disease using retinal image content and an archive of diagnosed human patient data
JP4969925B2 (ja) * 2006-06-28 2012-07-04 株式会社トプコン 眼底観察装置
US20080212847A1 (en) * 2007-01-08 2008-09-04 Michael Davies Method and system for identifying medical sample information source
US20150157505A1 (en) * 2007-01-19 2015-06-11 Joseph Neev Devices and methods for generation of subsurface micro-disruptions for opthalmic surgery and opthalmic applications
WO2009043047A1 (en) * 2007-09-28 2009-04-02 Eye Controls, Llc Systems and methods for biometric identification
WO2009046189A1 (en) * 2007-10-03 2009-04-09 Lance Molnar Apparatus, methods and systems for non-invasive ocular assessment of neurological function
US8234509B2 (en) * 2008-09-26 2012-07-31 Hewlett-Packard Development Company, L.P. Portable power supply device for mobile computing devices
US20100315041A1 (en) * 2009-06-15 2010-12-16 Qing Song Tan Portable phone holder and charger with quick release feature
JP5432625B2 (ja) * 2009-07-29 2014-03-05 株式会社トプコン 眼科観察装置
AU2011315964B2 (en) * 2010-10-13 2013-11-07 Ocular Prognostics, LLC Handheld reflectometer for measuring macular pigment
KR20220056884A (ko) * 2011-04-22 2022-05-06 더 리젠츠 오브 더 유니버시티 오브 캘리포니아 변이체 캡시드를 지니는 아데노-관련 바이러스 및 이의 사용 방법
JP2014514576A (ja) * 2011-04-27 2014-06-19 エイディーライフ インコーポレイティッド アミロイドタンパク質の眼における検出法
US9078612B2 (en) * 2011-12-02 2015-07-14 Third Eye Diagnostics, Inc. Devices and methods for noninvasive measurement of intracranial pressure
US9962291B2 (en) * 2012-05-25 2018-05-08 Ojai Retinal Technology, Llc System and process for neuroprotective therapy for glaucoma
US9041347B2 (en) * 2012-06-21 2015-05-26 Blackberry Limited Multi-orientation stand for a portable electronic device
US9332899B2 (en) * 2012-11-06 2016-05-10 Clarity Medical Systems, Inc. Electronic eye marking/registration
US20140276025A1 (en) * 2013-03-14 2014-09-18 Carl Zeiss Meditec, Inc. Multimodal integration of ocular data acquisition and analysis
CN105934764A (zh) * 2013-12-23 2016-09-07 眼锁有限责任公司 用于功率高效的虹膜识别的方法和装置
EP3119798B1 (en) * 2014-03-17 2020-08-05 Adverum Biotechnologies, Inc. Compositions and methods for enhanced gene expression in cone cells
US20150288687A1 (en) * 2014-04-07 2015-10-08 InvenSense, Incorporated Systems and methods for sensor based authentication in wearable devices
WO2016010627A1 (en) * 2014-07-16 2016-01-21 Ojai Retinal Technology, Llc Apparatus for retina phototherapy
JP6388440B2 (ja) * 2014-11-26 2018-09-12 株式会社トプコン 眼科装置
NZ773814A (en) * 2015-03-16 2023-03-31 Magic Leap Inc Methods and systems for diagnosing and treating health ailments
AU2016261487B2 (en) * 2015-05-11 2020-11-05 Magic Leap, Inc. Devices, methods and systems for biometric user recognition utilizing neural networks
US10002242B2 (en) * 2015-08-17 2018-06-19 Qualcomm Incorporated Electronic device access control using biometric technologies
US10722115B2 (en) * 2015-08-20 2020-07-28 Ohio University Devices and methods for classifying diabetic and macular degeneration
US9710016B1 (en) * 2016-01-16 2017-07-18 Bion Porzio Docking station with securing apparatus and stand for electronic device
KR102648770B1 (ko) * 2016-07-14 2024-03-15 매직 립, 인코포레이티드 홍채 식별을 위한 딥 뉴럴 네트워크
WO2018095994A1 (en) * 2016-11-22 2018-05-31 Delphinium Clinic Ltd. Method and system for classifying optic nerve head
WO2018127815A1 (en) * 2017-01-03 2018-07-12 Universidade De Coimbra Method and equipment for central nervous system characterization from retina oct imaging data
US10810290B2 (en) 2017-03-05 2020-10-20 Ronald H Minter Robust method and an apparatus for authenticating a client in non-face-to-face online interactions based on a combination of live biometrics, biographical data, blockchain transactions and signed digital certificates
US10719936B2 (en) * 2017-04-27 2020-07-21 Retinascan Limited System and method for automated funduscopic image analysis
WO2018204835A1 (en) * 2017-05-04 2018-11-08 June Brain Llc Brain monitoring system
WO2018213492A1 (en) * 2017-05-16 2018-11-22 Spect Inc. Stereoscopic mobile retinal imager

Also Published As

Publication number Publication date
US20200193004A1 (en) 2020-06-18
MX2021006994A (es) 2021-10-22
CA3122544A1 (en) 2020-06-18
TW202038137A (zh) 2020-10-16
EP3893717A1 (en) 2021-10-20
WO2020123862A1 (en) 2020-06-18
EP3893718A1 (en) 2021-10-20
EP3893720A1 (en) 2021-10-20
WO2020123868A1 (en) 2020-06-18
WO2020123858A1 (en) 2020-06-18
CA3122570A1 (en) 2020-06-18
JP2022512393A (ja) 2022-02-03
CA3122272A1 (en) 2020-06-18
AU2019397519A1 (en) 2021-08-05
US20200193592A1 (en) 2020-06-18
AU2019396539A1 (en) 2021-08-05
AU2019396537A1 (en) 2021-08-05
CA3121791A1 (en) 2020-06-18
EP3893718A4 (en) 2022-11-09
EP3893719A4 (en) 2022-10-19
WO2020123864A1 (en) 2020-06-18
BR112021010926A2 (pt) 2021-08-24
AU2019398346A1 (en) 2021-08-05
EP3893717A4 (en) 2022-09-14
EP3893719A1 (en) 2021-10-20
EP3893720A4 (en) 2022-10-19
WO2020123862A8 (en) 2020-08-13
CN113784656A (zh) 2021-12-10
US20200193156A1 (en) 2020-06-18
US20200191553A1 (en) 2020-06-18

Similar Documents

Publication Publication Date Title
KR20210137988A (ko) 생체 식별 및 건강 상태 결정을 위한 광학 장치 및 관련 디바이스
Li et al. Automated feature extraction in color retinal images by a model based approach
EP3373798B1 (en) Method and system for classifying optic nerve head
Chutatape A model-based approach for automated feature extraction in fundus images
Derakhshani et al. A texture-based neural network classifier for biometric identification using ocular surface vasculature
Hassan et al. Joint segmentation and quantification of chorioretinal biomarkers in optical coherence tomography scans: A deep learning approach
US20220198831A1 (en) System for determining one or more characteristics of a user based on an image of their eye using an ar/vr headset
Azimi et al. Iris recognition under the influence of diabetes
Gupta et al. Iris recognition system using biometric template matching technology
CN108875472A (zh) 图像采集装置及基于该图像采集装置的人脸身份验证方法
Li et al. Automatic detection and boundary estimation of the optic disk in retinal images using a model-based approach
CN118052819B (zh) 一种预测甲状腺相关眼病的方法、装置及系统
Karnowski et al. Automating the diagnosis, stratification, and management of diabetic retinopathy using content-based image retrieval in an ocular telehealth network
Chiara Design and Development of multi-biometric systems
Galdi Design and development of multi-biometric systems
CN117912089A (zh) 一种眼部几何形态异常检测方法、终端及可读存储介质
Bonney et al. Non-orthogonal Iris Segmentation