KR20240032107A - 시력 검사 시스템 및 방법과 그 용도 - Google Patents

시력 검사 시스템 및 방법과 그 용도 Download PDF

Info

Publication number
KR20240032107A
KR20240032107A KR1020247004477A KR20247004477A KR20240032107A KR 20240032107 A KR20240032107 A KR 20240032107A KR 1020247004477 A KR1020247004477 A KR 1020247004477A KR 20247004477 A KR20247004477 A KR 20247004477A KR 20240032107 A KR20240032107 A KR 20240032107A
Authority
KR
South Korea
Prior art keywords
user
image
distance
display screen
reference pattern
Prior art date
Application number
KR1020247004477A
Other languages
English (en)
Inventor
데이비드 에이치 골드버그
테일러 알렉산드라 더피
데이비드 제이 데샤저
Original Assignee
와비 파커 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 와비 파커 인코포레이티드 filed Critical 와비 파커 인코포레이티드
Publication of KR20240032107A publication Critical patent/KR20240032107A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/032Devices for presenting test symbols or characters, e.g. test chart projectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0033Operational features thereof characterised by user input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/005Constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/06Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing light sensitivity, e.g. adaptation; for testing colour vision
    • A61B3/066Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing light sensitivity, e.g. adaptation; for testing colour vision for testing colour vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/529Depth or shape recovery from texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

시력 검사를 위한 시스템 및 방법과 그 용도가 개시된다. 방법은 적어도 프로세서, 카메라 및 디스플레이 화면을 갖는 모바일 장치에서 구현될 수 있다. 방법은 모바일 장치의 카메라를 이용하여 사용자의 적어도 하나의 이미지를 캡처하는 단계, 적어도 하나의 이미지에 기초하여, 사용자를 모바일 장치의 디스플레이 화면으로부터 사전결정된 거리까지 상호작용식으로 안내하는 단계, 사용자가 디스플레이 화면으로부터 사전결정된 거리에 있다고 결정될 때 디스플레이 화면에 자료를 제시하는 단계, 디스플레이 화면에 제시된 자료에 응답하여 사용자로부터 입력을 수신하는 단계를 포함할 수 있다. 디스플레이 화면에 제시되는 자료는 사용자의 시력의 적어도 하나의 특성을 평가하기 위한 것일 수 있다. 모바일 장치 및 사용자의 시력을 평가하기 위한 머신 실행가능 명령어가 구현된 비일시적 머신 판독가능 매체도 개시된다.

Description

시력 검사 시스템 및 방법과 그 용도
관련 출원에 대한 상호 참조
본 출원은 2021년 7월 7일에 출원된 미국 가출원 일련번호 63/219,327에 대한 우선권을 주장하며, 그 전체가 본 명세서에 참조로 통합된다.
분야
본 개시는 일반적으로 시력 검사의 기술 분야에 관한 것이다. 보다 구체적으로, 본 개시는 모바일 장치를 사용하여 사용자의 시력 검사를 수행하는 시스템 및 방법과 그 용도에 관한 것이다.
다음은 본 발명을 이해하는 데 도움이 될 수 있는 정보를 포함한다. 본 명세서에 구체적으로 또는 암시적으로 언급된 임의의 정보가 설명되거나 청구된 발명에 대한 선행기술이거나 필수적이라는 것을 인정하는 것은 아니다. 본 명세서에 언급된 모든 특허, 특허 출원, 공보 및 제품 및 그 내용은 전체 내용이 본 명세서에 참조로 통합된다.
검안 또는 시력 검사는 적절한 렌즈 처방을 결정하거나 환자에 대한 다른 진단을 내리기 위해 일상적으로 사용된다. 검안은 전통적으로 피검자가 알려진 크기의 시표를 표시하는 시력 검사표로부터 설정된 거리에 위치하는 검사실에서 검안사 등에 의해 수행되어 왔다. 검사 관리자는 피검자의 관점에서 시표의 인지된 크기를 계산하고 검사 결과에 따라 피검자의 시력에 관한 결론을 도출할 수 있다. 검안 절차를 의사나 기술자의 검사실에서 가정에서의 자가 검사와 같은 비전통적인 장소로 옮기려는 노력은 검사에 사용되는 문자의 인지된 크기를 확인하는 것과 관련된 어려움으로 인해 방해를 받고 있다. 시력 검사를 표시하는 컴퓨터 화면으로부터의 거리를 결정하기 위해 줄자를 사용하거나 단계를 세는 것과 같은 종래 개시된 솔루션은 추가적인 장비 또는 단계를 필요로 하고, 결과의 정확성을 떨어뜨리며, 결과에 대한 사용자의 신뢰를 약화시켜 검사실 밖에서 시행되는 검사를 덜 매력적으로 만들 수 있다.
따라서, 사람의 개입 및/또는 사람의 오류를 줄이거나 제거하면서 정확성, 효율성, 신뢰성, 편리성 및 사용성을 증가시키는 검안 또는 시력 검사를 수행하기 위한 개선된 시스템 또는 방법을 개발할 필요가 있다.
본 명세서에 설명되고 청구된 장치, 시스템, 방법 및 머신 판독가능 저장 매체는 본 요약에 설명되거나 기술되거나 참조된 것들을 포함하지만 이에 제한되지 않는 많은 속성 및 양상을 갖는다. 이는 모든 것을 포함하려는 의도가 아니며, 본 명세서에 기술되고 청구된 발명은 단지 설명의 목적으로만 포함되고 제한이 아닌 본 요약에서 식별된 특징 또는 실시예로 또는 이에 의해 제한되지 않는다.
본 개시의 다양한 실시예에서, 사용자의 시력을 평가하기 위한 시스템 및 방법이 제공된다. 이러한 시스템 및 방법은 사용자와 안경(또는 안경), 선글라스, 가상 현실 헤드셋, 고글, 보안경, 스마트 안경(증강 현실 안경을 포함하지만 이에 제한되지 않음) 및 기타 안경류와 같은 머리 착용형 장치 간의 핏 품질(예컨대, 안경 처방)을 결정하는 데 사용될 수 있다. 이러한 시스템 및 방법은 또한 재택 시력 검사를 제공한다.
일례에서, 적어도 프로세서, 카메라 및 디스플레이 화면을 갖는 모바일 장치에서 구현되는 사용자의 시력을 평가하기 위한 방법이 개시된다. 방법은 사용자와 모바일 장치의 디스플레이 화면이 모두 사용자 앞의 거울을 향하고 있도록 사용자에게 모바일 장치를 홀딩하도록 안내하는 단계와, 모바일 장치의 카메라를 사용하여, 거울에 반사된 모바일 장치의 적어도 하나의 이미지를 캡처하는 단계와, 적어도 하나의 이미지에 기초하여 사용자를 거울로부터 사전결정된 거리까지 상호작용식으로 안내하는 단계와, 사용자가 거울로부터 사전결정된 거리에 있다고 결정할 때 디스플레이 화면에 자료를 제시하는 단계 - 디스플레이 화면에 제시되는 자료는 사용자의 시력의 적어도 하나의 특성을 평가하기 위한 것임 - 와, 디스플레이 화면에 제시되고 거울에 반사된 자료에 응답하여 사용자로부터 입력을 수신하는 단계를 포함할 수 있다.
일부 양상에서, 모바일 장치는 대략 수직, 수평 또는 대각선 방향 중 적어도 한 방향으로 대략 홀딩될 수 있다. 카메라와 디스플레이 화면은 모바일 장치의 같은 쪽에 위치될 수 있다.
일부 양상에서, 방법은 적어도 하나의 이미지를 캡처하고 사용자가 적어도 거울로부터 현재 거리에 있을 때 디스플레이 화면에 참조 패턴을 제시하는 단계와, 카메라의 초점 거리, 적어도 하나의 이미지 및 참조 패턴의 사전결정된 물리적 크기에 기초하여 사용자와 거울 사이의 현재 거리를 결정하는 단계를 포함할 수 있다. 사용자는 현재 거리에 기초하여 거울로부터 사전결정된 거리까지 상호작용식으로 안내될 수 있다.
일부 양상에서, 현재 거리를 결정하는 단계는, 참조 패턴을 전처리하여 참조 패턴의 적어도 하나의 후보 형상을 포함하는 이진 이미지를 생성하는 단계와, 적어도 하나의 이미지에서 참조 패턴의 위치 파악을 수행하는 단계와, 적어도 하나의 이미지로부터 참조 패턴의 분할을 수행하는 단계를 포함할 수 있다.
일부 양상에서, 참조 패턴은 고정된 참조 색상을 갖는 정적 단색 패턴을 포함할 수 있고, 적어도 하나의 이미지는 거울에 반사된 참조 패턴의 이미지를 포함할 수 있다. 참조 패턴을 전처리하는 것은, 이미지와 고정된 참조 색상 간의 픽셀 단위 차이를 계산하여 차이 이미지를 생성하는 것과, 차이 이미지를 사전결정된 값으로 역임계값화하여 참조 패턴의 적어도 하나의 후보 형상을 포함하는 이진 이미지를 생성하는 것을 포함할 수 있다.
일부 양상에서, 참조 패턴은 RGB 성분이 (0, 255, 255)인 청록색을 가질 수 있으며, 검은색 경계로 둘러싸일 수 있다.
일부 양상에서, 참조 패턴은 사전결정된 방식으로 시변하는 참조 색상을 갖는 동적 단색 패턴을 포함할 수 있다. 참조 패턴은 사전결정된 프레임 레이트로 각각 상이한 색상을 갖는 복수의 이미지 프레임을 순환할 수 있다. 적어도 하나의 이미지는 참조 패턴의 이미지 프레임의 전체 사이클을 포함할 수 있고, 이미지 프레임 각각은 각각의 시간 프레임 동안 거울에 반사된 참조 패턴의 이미지일 수 있다. 현재 이미지 프레임에서 참조 패턴을 전처리하는 것은, 현재 이미지 프레임의 색상과 보색인 색상을 가진 과거 이미지 프레임을 결정하는 것과, 현재 이미지 프레임의 색조 채널과 과거 이미지 프레임의 색조 채널을 비교하여 색조 차이를 계산하는 것과, 색조 차이와 현재 이미지 프레임의 강도 채널을 곱하여 차이 이미지를 생성하는 것과, 차이 이미지를 사전결정된 값으로 임계값화하여 참조 패턴의 적어도 하나의 후보 형상을 포함하는 이진 이미지를 생성하는 것을 포함할 수 있다.
일부 양상에서, 참조 패턴의 위치 파악을 수행하는 단계는, 적어도 하나의 이미지로부터 참조 패턴의 적어도 하나의 후보 형상을 분리하는 단계와, 디스플레이 화면에 제시된 참조 패턴의 형상과 관련된 적어도 하나의 기준에 기초하여 적어도 하나의 후보 형상을 필터링하는 단계와, 필터링에 기초하여, 적어도 하나의 이미지 각각에서, 참조 패턴의 형상 및 형상을 둘러싸는 경계를 포함하는 관심 영역("ROI")을 결정하는 단계를 포함할 수 있다.
일부 양상에서, 적어도 하나의 기준은, 둘러싸는 직사각형에 대한 참조 패턴의 형상은 사전결정된 면적 범위 내의 면적을 갖는 것과, 둘러싸는 직사각형의 종횡비는 1/3과 3 사이인 것과, 둘러싸는 직사각형에 대한 형상의 충진율은 적어도 95%인 것을 포함할 수 있다.
일부 양상에서, 참조 패턴의 분할을 수행하는 단계는, 적어도 하나의 이미지의 강도 채널의 수평 및 수직 기울기를 계산하는 단계와, ROI를 왼쪽 서브영역, 오른쪽 서브영역, 위쪽 서브영역 및 아래쪽 서브영역인 4개의 중첩 서브영역으로 나누는 단계와, 왼쪽 및 오른쪽 서브영역의 각 행에 대해, 수평 기울기의 크기가 가장 큰 열을 결정하여 크기 임계값에 기초하여 왼쪽 및 오른쪽 경계 지점을 생성하는 단계와, 위쪽 및 아래쪽 서브영역의 각 열에 대해, 수직 기울기의 크기가 가장 큰 행을 결정하여 크기 임계값에 기초하여 위쪽 및 아래쪽 경계 지점을 생성하는 단계와, 참조 패턴의 에지를 결정하기 위해 경계 지점을 선으로 맞추는 단계와, 맞취진 선의 교차점을 기반으로 참조 패턴의 코너를 결정하는 단계를 포함할 수 있다.
일부 양상에서, 현재 거리를 결정하는 단계는, 참조 패턴의 결정된 에지 및 코너에 기초하여 참조 패턴의 크기를 픽셀 단위로 측정하는 단계와, 카메라의 초점 거리(픽셀 단위), 참조 패턴의 측정된 크기(픽셀 단위) 및 참조 패턴의 사전결정된 물리적 크기를 기반으로 사용자와 거울 사이의 현재 거리를 계산하는 단계를 포함할 수 있다.
일부 양상에서, 참조 패턴의 사전결정된 물리적 크기는 모바일 장치의 디스플레이 화면의 물리적 크기에 기초하여 사전결정될 수 있다.
일부 양상에서, 적어도 하나의 이미지는 사용자가 거울로부터 현재 거리에 있을 때 하나의 시간 프레임 동안 캡처된 복수의 이미지를 포함할 수 있다. 현재 거리를 결정하는 단계는, 복수의 이미지 각각에서 참조 패턴을 전처리하는 단계와, 복수의 이미지 각각에서 참조 패턴의 위치 파악을 수행하는 단계와, 복수의 이미지 각각으로부터 참조 패턴의 분할을 수행하여 복수의 분할된 참조 패턴을 생성하는 단계와, 각각의 분할된 참조 패턴의 크기를 픽셀 단위로 측정하는 단계와, 각각의 분할된 참조 패턴에 대해, 카메라의 초점 거리(픽셀 단위), 분할된 참조 패턴의 측정된 크기(픽셀 단위) 및 참조 패턴의 사전결정된 물리적 크기에 기초하여 사용자와 거울 사이의 추정된 현재 거리를 결정하여 복수의 추정된 현재 거리를 생성하는 단계와, 복수의 추정된 현재 거리의 집계에 기초하여 사용자와 거울 사이의 현재 거리를 계산하는 단계를 포함할 수 있다. 집계는 복수의 추정된 현재 거리에 기초하여 평균, 가중 평균 또는 중앙값을 계산하는 것을 포함할 수 있다.
일부 양상에서, 사용자를 상호작용식으로 안내하는 단계는, 사용자와 거울 사이의 현재 거리의 제1 표시를 디스플레이 화면에 제시하는 단계와, 사전결정된 거리에 도달했을 때 사용자에게 제2 표시를 제공하는 단계와, 사용자에게 거울을 기준으로 한 방향으로 이동하라는 명령을 제공하는 단계와, 참조 패턴의 적어도 일부가 사용자에 의해 차단되는 경우 사용자에게 명령을 제공하는 단계와, 참조 패턴의 적어도 일부가 사용자에 의해 차단되면 디스플레이 화면에 제시되는 참조 패턴의 크기를 자동으로 조정하는 단계를 포함할 수 있다.
일부 양상에서, 방법은 입력이 사용자의 손 제스처를 포함하는 경우 카메라를 이용하여 사용자로부터의 입력의 비디오를 기록하는 단계와, 입력이 사용자의 음성을 포함하는 경우, 모바일 장치의 마이크를 이용하여 사용자로부터의 입력의 오디오를 기록하는 단계와, 기록된 비디오 및 오디오를 기반으로 사용자의 시력의 적어도 하나의 특성을 평가하는 단계를 포함할 수 있다.
일부 양상에서, 사전결정된 거리는 사전결정된 거리 범위 내의 거리일 수 있다.
일부 양상에서, 사전결정된 거리는 사전결정된 거리 범위에서 공칭 거리와 다를 수 있다.
일부 양상에서, 방법은 사용자로부터 수신된 입력에 기초하여 사용자에 대한 제1 시력 점수를 결정하는 단계와, 공칭 거리와 사전결정된 거리의 비율에 적어도 부분적으로 기초하여 사용자에 대한 시력 교정 계산을 결정하는 단계를 포함할 수 있다.
다른 예에서, 모바일 장치가 개시된다. 모바일 장치는 카메라와, 디스플레이 화면과, 명령어를 포함하는 메모리와, 카메라에 결합된 프로세서를 포함할 수 있다. 프로세서는 명령어를 실행하여, 사용자와 모바일 장치의 디스플레이 화면이 모두 사용자 앞의 거울을 향하고 있도록 사용자에게 상기 모바일 장치를 홀딩하도록 안내하고, 카메라를 사용하여, 거울에 반사된 모바일 장치의 적어도 하나의 이미지를 캡처하며, 적어도 하나의 이미지에 기초하여 사용자를 거울로부터 사전결정된 거리까지 상호작용식으로 안내하고, 사용자가 거울로부터 사전결정된 거리에 있다고 결정할 때 디스플레이 화면에 자료를 제시하며, 디스플레이 화면에 제시되고 거울에 반사된 자료에 응답하여 사용자로부터 입력을 수신하도록 구성될 수 있다. 디스플레이 화면에 제시되는 자료는 사용자의 시력의 적어도 하나의 특성을 평가하기 위한 것일 수 있다.
일부 양상에서, 모바일 장치는 사용자에 의해 대략 수직, 수평 또는 대각선 방향 중 적어도 하나의 방향으로 홀딩될 수 있고 거울과 대략 평행할 수 있다. 카메라와 디스플레이 화면은 모바일 장치의 같은 쪽에 위치될 수 있다.
일부 양상에서, 프로세서는 명령어를 실행하여, 적어도 하나의 이미지를 캡처하고 사용자가 거울로부터 현재 거리에 있을 때 디스플레이 화면에 참조 패턴을 제시하고, 카메라의 초점 거리, 적어도 하나의 이미지 및 참조 패턴의 사전결정된 물리적 크기에 기초하여 사용자와 거울 사이의 현재 거리를 결정하도록 구성될 수 있다. 사용자는 현재 거리에 기초하여 거울로부터 사전결정된 거리까지 상호작용식으로 안내될 수 있다.
일부 양상에서, 참조 패턴은 고정된 참조 색상을 갖는 정적 단색 패턴을 포함할 수 있고, 적어도 하나의 이미지는 거울에 반사된 참조 패턴의 이미지를 포함할 수 있다. 현재 거리는, 차이 이미지를 생성하도록 이미지와 고정된 참조 색상 간의 픽셀 단위 차이와, 참조 패턴의 적어도 하나의 후보 형상을 포함하는 이진 이미지를 생성하도록 차이 이미지를 사전결정된 값으로 역임계값화하는 것에 기초하여 결정될 수 있다.
일부 양상에서, 참조 패턴은 사전결정된 방식으로 시변하는 참조 색상을 갖는 동적 단색 패턴을 포함할 수 있고, 참조 패턴은 사전결정된 프레임 레이트로 각각 상이한 색상을 갖는 복수의 이미지 프레임을 순환하며, 적어도 하나의 이미지는 상기 참조 패턴의 이미지 프레임의 전체 사이클을 포함할 수 있고, 이미지 프레임 각각은 각각의 시간 프레임 동안 거울에 반사된 참조 패턴의 이미지일 수 있다. 현재 거리는 현재 이미지 프레임에서, 현재 이미지 프레임의 색상과 보색인 색상을 가진 과거 이미지 프레임과, 현재 이미지 프레임의 색조 채널과 과거 이미지 프레임의 색조 채널의 비교에 기초한 색조 차이와, 색조 차이와 현재 이미지 프레임의 강도 채널의 곱셈으로서 계산된 차이 이미지와, 차이 이미지를 사전결정된 값으로 임계값화한 것에 기초하여 생성된, 참조 패턴의 적어도 하나의 후보 형상을 포함하는 이진 이미지에 기초하여 결정될 수 있다.
일부 양상에서, 사전결정된 거리는 사전결정된 거리 범위 내의 거리일 수 있다.
일부 양상에서, 사전결정된 거리는 사전결정된 거리 범위에서 공칭 거리와 다를 수 있다.
일부 양상에서, 프로세서는 명령어를 실행하여, 사용자로부터 수신된 입력에 기초하여 사용자에 대한 제1 시력 점수를 결정하고, 공칭 거리와 사전결정된 거리의 비율에 적어도 부분적으로 기초하여 사용자에 대한 시력 교정 계산을 결정하도록 구성될 수 있다.
또 다른 예에서, 적어도 프로세서, 카메라 및 디스플레이 화면을 갖는 모바일 장치에서 구현되는 사용자의 시력을 평가하기 위한 방법이 개시된다. 방법은 모바일 장치의 카메라를 사용하여 사용자의 적어도 하나의 이미지를 캡처하는 단계와, 적어도 하나의 이미지에 기초하여 사용자를 모바일 장치의 디스플레이 화면으로부터 사전결정된 거리까지 상호작용식으로 안내하는 단계와, 사용자가 디스플레이 화면으로부터 사전결정된 거리에 있다고 결정할 때 디스플레이 화면에 자료를 제시하는 단계 - 디스플레이 화면에 제시되는 자료는 사용자의 시력의 적어도 하나의 특성을 평가하기 위한 것임 - 와, 디스플레이 화면에 제시된 자료에 응답하여 사용자로부터 입력을 수신하는 단계를 포함할 수 있다.
또 다른 예에서, 모바일 장치가 개시된다. 모바일 장치는 카메라와, 디스플레이 화면과, 명령어를 포함하는 메모리와, 카메라에 결합된 프로세서를 포함할 수 있다. 프로세서는 명령어를 실행하여, 카메라를 사용하여 사용자의 적어도 하나의 이미지를 캡처하고, 적어도 하나의 이미지에 기초하여 사용자를 디스플레이 화면으로부터 사전결정된 거리까지 상호작용식으로 안내하며, 사용자가 디스플레이 화면으로부터 사전결정된 거리에 있다고 결정할 때 디스플레이 화면에 자료를 제시하며, 디스플레이 화면에 제시된 자료에 응답하여 사용자로부터 입력을 수신하도록 구성될 수 있다. 디스플레이 화면에 제시되는 자료는 사용자의 시력의 적어도 하나의 특성을 평가하기 위한 것일 수 있다.
일부 예에서, 모바일 장치는 카메라와, 디스플레이 화면과, 명령어를 포함하는 메모리와, 카메라에 결합된 프로세서를 포함할 수 있다. 프로세서는 명령어를 실행하여, 카메라를 이용하여 사용자의 적어도 하나의 이미지를 캡처하고, 적어도 하나의 이미지에 기초하여 사용자를 디스플레이 화면으로부터 사전결정된 거리까지 상호작용식으로 안내하며, 사용자가 디스플레이 화면으로부터 사전결정된 거리에 있다고 결정할 때 디스플레이 화면에 사용자의 시력의 적어도 하나의 특성을 평가하기 위한 자료를 제시하고, 디스플레이 화면에 제시된 자료에 응답하여 사용자로부터 입력을 수신하도록 구성될 수 있다.
일부 양상에서, 모바일 장치는 대략 수직인 표면에 대해 홀딩될 수 있고, 카메라와 디스플레이 화면은 모바일 장치의 같은 쪽에 위치될 수 있으며, 사전결정된 거리는 약 10 피트일 수 있다.
일부 양상에서, 프로세서는 명령어를 실행하여, 사용자의 적어도 하나의 물리적 길이 특징을 추정하고, 카메라의 초점 거리, 적어도 하나의 이미지 및 적어도 하나의 물리적 길이 특징에 기초하여 사용자로부터 모바일 장치의 디스플레이 화면까지의 현재 거리를 결정하도록 구성될 수 있다. 사용자는 현재 거리에 기초하여 디스플레이 화면으로부터 사전결정된 거리까지 상호작용식으로 안내될 수 있다.
일부 양상에서, 적어도 하나의 물리적 길이 특징은 사용자의 동공 거리("PD")를 포함할 수 있다.
일부 양상에서, 적어도 하나의 이미지는 사용자가 디스플레이 화면으로부터 현재 거리에 있을 때 캡처된 이미지를 포함할 수 있다. 현재 거리는, 프로세서가 명령어를 실행하여 이미지에서 사용자의 동공 사이의 픽셀 PD(픽셀 단위)를 결정하고, 카메라의 초점 거리(픽셀 단위), 픽셀 PD(픽셀 단위) 및 물리적 PD를 기반으로 사용자로부터 디스플레이 화면까지의 현재 거리를 계산하는 것에 의해 결정될 수 있다.
일부 양상에서, 적어도 하나의 이미지는, 사용자가 디스플레이 화면으로부터 초기 거리에 있을 때 캡처된 제1 이미지, 및 사용자가 디스플레이 화면으로부터 현재 거리에 있을 때 캡처된 제2 이미지를 포함할 수 있다. 현재 거리는 초기 거리보다 크고, 초기 거리보다 사전결정된 거리에 더 가까울 수 있다. 프로세서는 제1 이미지에서, 사용자의 제1 특징의 제1 길이(픽셀 단위) 및 사용자의 제2 특징의 제2 길이(픽셀 단위)를 결정하고, 제2 길이와 제1 길이 사이의 제1 비율을 계산하며, 제2 이미지에서, 사용자의 제2 특징의 제3 길이(픽셀 단위)를 결정하고, 카메라의 초점 거리(픽셀 단위), 제1 비율, 제3 길이(픽셀 단위) 및 제1 특징의 물리적 길이에 기초하여 사용자로부터 디스플레이 화면까지의 현재 거리를 계산하기 위한 명령어를 실행함으로써 현재 거리를 결정할 수 있다.
일부 양상에서, 사전결정된 거리는 사전결정된 거리 범위 내의 거리일 수 있고 공칭 거리와는 다를 수 있다. 상기 프로세서는 명령어를 실행하여, 사용자로부터 수신된 입력에 기초하여 사용자에 대한 제1 시력 점수를 결정하고, 공칭 거리와 사전결정된 거리의 비율에 적어도 부분적으로 기초하여 사용자에 대한 시력 교정 계산을 결정하도록 구성될 수 있다.
다른 개념은 사용자의 시력 평가에 관한 본 개시를 구현하기 위한 소프트웨어에 관한 것이다. 이러한 개념에 따른 소프트웨어 제품은 적어도 하나의 머신 판독가능 비일시적 매체와 매체에 의해 전달되는 정보를 포함할 수 있다. 매체에 의해 전달되는 정보는 실행 가능한 프로그램 코드 데이터, 실행 가능한 프로그램 코드와 관련된 파라미터 및/또는 사용자 관련 정보, 요청, 콘텐츠 또는 소셜 그룹 관련 정보 등일 수 있다.
일례에서, 사용자의 시력을 평가하기 위해 머신 실행가능 명령어가 구현된 비일시적 머신 판독가능 매체가 개시된다. 머신 실행가능 명령어는, 모바일 장치의 프로세서에 의해 실행될 때, 프로세서로 하여금 방법을 수행하게 할 수 있다. 방법은 모바일 장치의 카메라를 사용하여 사용자의 적어도 하나의 이미지를 캡처하는 단계와, 적어도 하나의 이미지에 기초하여 사용자를 모바일 장치의 디스플레이 화면으로부터 사전결정된 거리까지 상호작용식으로 안내하는 단계와, 사용자가 디스플레이 화면으로부터 사전결정된 거리에 있다고 결정할 때 디스플레이 화면에 자료를 제시하는 단계와, 디스플레이 화면에 제시된 자료에 응답하여 사용자로부터 입력을 수신하는 단계를 포함할 수 있다. 디스플레이 화면에 제시되는 자료는 사용자의 시력의 적어도 하나의 특성을 평가하기 위한 것일 수 있다.
다른 예에서, 사용자의 시력을 평가하기 위해 머신 실행가능 명령어가 구현된 비일시적 머신 판독가능 매체가 개시된다. 머신 실행가능 명령어는, 모바일 장치의 프로세서에 의해 실행될 때, 프로세서로 하여금 방법을 수행하게 할 수 있다. 방법은, 사용자와 모바일 장치의 디스플레이 화면이 모두 사용자 앞의 거울을 향하고 있도록 사용자에게 상기 모바일 장치를 홀딩하도록 안내하는 단계와, 모바일 장치의 카메라를 사용하여, 거울에 반사된 모바일 장치의 적어도 하나의 이미지를 캡처하는 단계와, 적어도 하나의 이미지에 기초하여 사용자를 거울로부터 사전결정된 거리까지 상호작용식으로 안내하는 단계와, 사용자가 거울로부터 사전결정된 거리에 있다고 결정할 때 디스플레이 화면에 자료를 제시하는 단계와, 디스플레이 화면에 제시되고 거울에 반사된 자료에 응답하여 사용자로부터 입력을 수신하는 단계를 포함할 수 있다. 디스플레이 화면에 제시되는 자료는 사용자의 시력의 적어도 하나의 특성을 평가하기 위한 것일 수 있다.
일부 실시예에서, 사전결정된 거리는 사전결정된 거리 범위 내의 거리이고 공칭 거리와 다르다. 방법은, 사용자로부터 수신된 입력에 기초하여 사용자에 대한 제1 시력 점수를 결정하는 단계와, 공칭 거리와 사전결정된 거리의 비율에 적어도 부분적으로 기초하여 사용자에 대한 시력 교정 계산을 결정하는 단계를 포함할 수 있다.
다른 예에서, 방법은 모바일 장치의 카메라를 이용하여 사용자의 적어도 하나의 이미지를 캡처하는 단계와, 적어도 하나의 이미지에 기초하여 사용자를 모바일 장치의 디스플레이 화면으로부터 사전결정된 거리까지 상호작용식으로 안내하는 단계와, 사용자가 디스플레이 화면으로부터 사전결정된 거리에 있다고 결정할 때 디스플레이 화면에 자료를 제시하는 단계와, 디스플레이 화면에 제시된 자료에 응답하여 사용자로부터 입력을 수신하는 단계를 포함할 수 있다. 디스플레이 화면에 제시된 자료는 사용자의 시력의 적어도 하나의 특성을 평가하기 위한 것일 수 있다.
일부 실시예에서, 모바일 장치는 대략 수직인 표면에 대해 홀딩될 수 있고, 카메라와 디스플레이 화면은 모바일 장치의 같은 쪽에 위치될 수 있다.
일부 양상에서, 방법은 사용자의 적어도 하나의 물리적 길이 특징을 추정하는 단계와, 카메라의 초점 거리, 적어도 하나의 이미지 및 적어도 하나의 물리적 길이 특징에 기초하여 사용자로부터 모바일 장치의 디스플레이 화면까지의 현재 거리를 결정하는 단계를 포함할 수 있다. 사용자는 현재 거리에 기초하여 디스플레이 화면으로부터 사전결정된 거리까지 상호작용식으로 안내될 수 있다.
일부 양상에서, 적어도 하나의 물리적 길이 특징은 사용자의 물리적 동공 거리("PD")를 포함할 수 있다.
일부 양상에서, 사용자의 물리적 PD는, 모집단의 물리적 PD에 기초한 사전결정된 상수 값, 모집단의 물리적 홍채 직경, 적어도 하나의 이미지에서 측정된 홍채 직경(픽셀 단위) 및 적어도 하나의 이미지에서 사용자의 측정된 PD에 기초한 사전결정된 물리적 홍채 직경의 조합, 사용자의 적어도 하나의 이미지와 정렬된 깊이 맵, 및 적어도 하나의 이미지에 있고 크기 참조로서 알려진 물리적 크기를 갖는 물체 중 적어도 하나에 기초하여 추정된다.
일부 양상에서, 적어도 하나의 이미지는 사용자가 디스플레이 화면으로부터 현재 거리에 있을 때 캡처된 이미지를 포함할 수 있다. 현재 거리를 결정하는 단계는 이미지에서 사용자의 동공 사이의 픽셀 PD(픽셀 단위)를 결정하는 단계와, 카메라의 초점 거리(픽셀 단위), 픽셀 PD(픽셀 단위) 및 물리적 PD를 기반으로 사용자로부터 디스플레이 화면까지의 현재 거리를 계산하는 단계를 포함할 수 있다.
일부 양상에서, 적어도 하나의 이미지는 각각 사용자가 디스플레이 화면으로부터 현재 거리에 있을 때 캡처된 복수의 이미지를 포함할 수 있다. 현재 거리를 결정하는 단계는, 복수의 이미지 각각에서, 사용자의 동공 사이의 픽셀 PD(픽셀 단위)를 결정하는 단계와, 카메라의 초점 거리(픽셀 단위), 픽셀 PD(픽셀 단위) 및 물리적 PD를 기반으로 사용자로부터 디스플레이 화면까지의 추정된 현재 거리를 결정하여 복수의 추정된 현재 거리를 생성하는 단계와, 복수의 추정된 현재 거리의 집계에 기초하여 사용자로부터 디스플레이 화면까지의 현재 거리를 계산하는 단계 - 집계는 복수의 추정된 현재 거리에 기초하여 평균, 가중 평균 또는 중앙값을 계산하는 것을 포함함 - 를 포함할 수 있다.
일부 양상에서, 적어도 하나의 물리적 길이 특징은 사용자의 물리적 어깨 너비("SW")를 포함할 수 있다.
일부 양상에서, 사용자의 물리적 SW는, 모집단의 물리적 SW에 기초한 사전결정된 상수 값, 사용자의 적어도 하나의 이미지와 정렬된 깊이 맵, 및 적어도 하나의 이미지에 있고 물리적 SW에 대한 크기 참조로서 알려진 물리적 크기를 갖는 물체 중 적어도 하나에 기초하여 추정된다.
일부 양상에서, 적어도 하나의 이미지는 사용자가 디스플레이 화면으로부터 현재 거리에 있을 때 캡처된 이미지를 포함할 수 있다. 현재 거리를 결정하는 단계는, 이미지에서 사용자의 픽셀 SW(픽셀 단위)를 결정하는 단계와, 카메라의 초점 거리(픽셀 단위), 픽셀 SW(픽셀 단위) 및 물리적 SW를 기반으로 사용자로부터 디스플레이 화면까지의 현재 거리를 계산하는 단계를 포함할 수 있다.
일부 양상에서, 적어도 하나의 이미지는 각각 사용자가 디스플레이 화면으로부터 현재 거리에 있을 때 캡처된 복수의 이미지를 포함할 수 있다. 현재 거리를 결정하는 단계는, 복수의 이미지 각각에서, 사용자의 픽셀 SW(픽셀 단위)를 결정하는 단계와, 복수의 이미지 각각에 대해, 카메라의 초점 거리(픽셀 단위), 픽셀 SW(픽셀 단위) 및 물리적 SW에 기초하여 사용자로부터 디스플레이 화면까지의 추정된 현재 거리를 결정하여 복수의 추정된 현재 거리를 생성하는 단계와, 복수의 추정된 현재 거리의 집계에 기초하여 사용자로부터 디스플레이 화면까지의 현재 거리를 계산하는 단계를 포함할 수 있다. 집계는 복수의 추정된 현재 거리에 기초하여 평균, 가중 평균 또는 중앙값을 계산하는 것을 포함할 수 있다.
일부 양상에서, 적어도 하나의 이미지는, 사용자가 디스플레이 화면으로부터 초기 거리에 있을 때 캡처된 제1 이미지, 및 사용자가 디스플레이 화면으로부터 현재 거리에 있을 때 캡처된 제2 이미지를 포함할 수 있다. 현재 거리는 초기 거리보다 크고, 초기 거리보다 사전결정된 거리에 더 가까울 수 있다. 현재 거리를 결정하는 단계는, 제1 이미지에서, 사용자의 제1 특징의 제1 길이(픽셀 단위) 및 사용자의 제2 특징의 제2 길이(픽셀 단위)를 결정하는 단계와, 제2 길이와 제1 길이 사이의 제1 비율을 계산하는 단계와, 제2 이미지에서, 사용자의 제2 특징의 제3 길이(픽셀 단위)를 결정하는 단계와, 카메라의 초점 거리(픽셀 단위), 제1 비율, 제3 길이(픽셀 단위) 및 제1 특징의 물리적 길이에 기초하여 사용자로부터 디스플레이 화면까지의 현재 거리를 계산하는 단계를 포함할 수 있다.
일부 양상에서, 적어도 하나의 이미지는, 사용자가 디스플레이 화면으로부터 초기 거리에 있을 때 캡처된 제1 이미지, 및 사용자가 디스플레이 화면으로부터 현재 거리에 있을 때 캡처된 제2 이미지를 포함할 수 있다. 현재 거리는 초기 거리보다 크고, 초기 거리보다 사전결정된 거리에 더 가까울 수 있다. 현재 거리를 결정하는 단계는, 제1 이미지에서, 사용자의 제1 특징의 제1 길이(픽셀 단위) 및 사용자의 제2 특징 중 각각의 제2 특징의 복수의 제2 길이(각각 픽셀 단위)를 결정하는 단계와, 복수의 제2 길이 각각과 제1 길이 사이의 각각의 비율을 계산하는 단계와, 제2 이미지에서, 사용자의 각각의 제2 특징의 각각의 제3 길이(픽셀 단위)를 결정하는 단계와, 각각의 제2 특징과 관련하여, 카메라의 초점 거리(픽셀 단위), 각각의 비율, 각각의 제3 길이(픽셀 단위), 및 제1 특징의 물리적 길이에 기초하여 사용자로부터 디스플레이 화면까지의 추정된 현재 거리를 결정하여 복수의 추정된 현재 거리를 생성하는 단계와, 복수의 추정된 현재 거리의 집계에 기초하여 사용자로부터 디스플레이 화면까지의 현재 거리를 계산하는 단계를 포함할 수 있다. 집계는 복수의 추정된 현재 거리에 기초하여 평균, 가중 평균, 또는 중앙값을 계산하는 것을 포함할 수 있다.
일부 양상에서, 제1 특징은 상기 사용자의 동공 거리("PD")를 포함할 수 있고, 제2 특징은 사용자의 어깨 너비, 사용자의 머리 너비, 사용자의 머리 높이, 및 사용자의 신장 중 적어도 하나를 포함할 수 있다.
일부 양상에서, 카메라의 초점 거리는 디스플레이 화면으로부터 알려진 거리에 있는 참조 물체의 이미지에 기초하여 사전결정될 수 있다.
일부 양상에서, 사용자를 상호작용식으로 안내하는 단계는, 사용자와 모바일 장치 사이의 상기 현재 거리의 제1 표시를 디스플레이 화면에 제시하는 단계와, 사전결정된 거리에 도달했을 때 사용자에게 제2 표시를 제공하는 단계와, 사용자에게 디스플레이 화면을 기준으로 한 방향으로 이동하라는 명령을 제공하는 단계와, 적어도 하나의 이미지에서 사용자의 상기 적어도 하나의 물리적 길이 특징이 차단되면 사용자에게 명령을 제공하는 단계를 포함할 수 있다.
일부 양상에서, 사전결정된 거리는 사전결정된 거리 범위 내의 거리이고 공칭 거리와는 다를 수 있다. 방법은, 사용자로부터 수신된 입력에 기초하여 사용자에 대한 제1 시력 점수를 결정하는 단계와, 공칭 거리와 사전결정된 거리의 비율에 적어도 부분적으로 기초하여 사용자에 대한 시력 교정 계산을 결정하는 단계를 포함할 수 있다.
다른 예에서, 비일시적 머신 판독가능 매체에는 머신 실행가능 명령어가 구현될 수 있다. 머신 실행가능 명령어는, 프로세서에 의해 실행될 때, 프로세서로 하여금 방법을 수행하게 할 수 있다. 방법은, 모바일 장치의 카메라를 이용하여 사용자의 적어도 하나의 이미지를 캡처하는 단계와, 적어도 하나의 이미지에 기초하여 사용자를 모바일 장치의 디스플레이 화면으로부터 사전결정된 거리까지 상호작용식으로 안내하는 단계와, 사용자가 디스플레이 화면으로부터 사전결정된 거리에 있다고 결정할 때 디스플레이 화면에 사용자의 시력의 적어도 하나의 특성을 평가하기 위한 자료를 제시하는 단계와, 디스플레이 화면에 제시된 자료에 응답하여 사용자로부터 입력을 수신하는 단계를 포함할 수 있다.
일부 양상에서, 사전결정된 거리는 사전결정된 거리 범위 내의 거리일 수 있고 공칭 거리와는 다르다. 방법은, 사용자로부터 수신된 입력에 기초하여 사용자에 대한 제1 시력 점수를 결정하는 단계와, 공칭 거리와 사전결정된 거리의 비율에 적어도 부분적으로 기초하여 사용자에 대한 시력 교정 계산을 결정하는 단계를 포함할 수 있다.
추가의 신규한 특징은 다음의 설명에서 부분적으로 제시될 것이며, 부분적으로는 다음과 첨부 도면을 검토함으로써 당업자에게 명백해질 것이거나 예의 생성 또는 동작에 의해 학습될 수 있다. 본 개시의 신규한 특징은 아래에 논의되는 상세한 예에 설명된 방법론, 수단 및 조합의 다양한 양상의 실행 또는 사용에 의해 실현되고 달성될 수 있다.
본 명세서에 통합되어 명세서의 일부를 구성하는 첨부된 도면들은 본 개시의 양상을 예시하고, 설명과 함께 양상의 원리를 설명하며, 당업자가 양상을 구성하고 사용할 수 있도록 하는 역할을 더한다. 도면들은 예시만을 위한 것이며, 예시적인 비제한적인 실시예를 보여주기 위한 것이며, 반드시 축척에 따라 그려진 것은 아니다.
특허 또는 출원 파일은 컬러로 실행된 적어도 하나의 도면을 포함한다. 컬러 도면(들)이 있는 본 특허 또는 특허 출원 공보의 사본은 요청 및 필요한 수수료의 지불에 따라 사무국에 의해 제공될 것이다.
도 1a는 본 개시의 일부 실시예에 따라, 모바일 장치를 사용하여 사용자에 대한 시력 검사를 수행하기 위한 예시적인 환경을 도시한다.
도 1b는 본 개시의 일부 실시예에 따른 모바일 장치의 아키텍처의 일례를 도시한다.
도 2는 본 개시의 일부 실시예에 따라, 모바일 장치를 사용하여 사용자에 대한 시력 검사를 수행하기 위한 예시적인 프로세스의 흐름도이다.
도 3은 본 개시의 일부 실시예에 따른, 사용자에 대한 얼굴 특징부 위치 파악을 위한 예시적인 방법을 도시한다.
도 4는 본 개시의 일부 실시예에 따른, 사용자에 대한 신체 특징부 위치 파악을 위한 예시적인 방법을 도시한다.
도 5는 본 개시의 일부 실시예에 따라, 모바일 장치를 사용하여 사용자에 대한 시력 검사를 수행하기 위한 다른 예시적인 환경을 도시한다.
도 6은 본 개시의 일부 실시예에 따라, 모바일 장치를 사용하여 사용자에 대한 시력 검사를 수행하기 위한 다른 예시적인 프로세스의 흐름도이다.
도 7은 본 개시의 일부 실시예에 따라, 정적 패턴의 전처리를 위해 캡처된 예시적인 이미지를 도시한다.
도 8은 본 개시의 일부 실시예에 따른, 동적 패턴의 예시적인 색상 사이클을 도시한다.
도 9는 본 개시의 일부 실시예에 따라, 동적 패턴의 전처리를 위해 캡처된 예시적인 이미지를 도시한다.
도 10은 본 개시의 일부 실시예에 따라, 참조 패턴의 분할을 수행할 때의 예시적인 시각화를 도시한다.
도 11은 본 개시의 일부 실시예에 따라, 참조 패턴의 에지를 검출하기 위한 하나 이상의 라인의 예시적인 피팅을 예시적으로 도시한다.
도 12는 본 개시의 일부 실시예에 따라, 개시된 방법의 거리 추정치와 실측 거리 사이의 예시적인 비교를 도시한다.
도 13은 본 개시의 일부 실시예에 따라, 상이한 시뮬레이션된 패턴 길이 크기에 대한 예시적인 평균 제곱 오차 결과를 도시한다.
도 14는 본 개시의 일부 실시예에 따라, 모바일 장치의 디스플레이 상에 있을 수 있는 예시적인 시력 검사 화면을 도시한다.
예시적인 실시예에 대한 본 설명은 본 명세서의 일부인 것으로 간주되는 첨부된 도면과 연계하여 읽혀져야 한다. 단수의 사용은 특별히 달리 명시되지 않는 한 복수를 포함한다. "또는"의 사용은 달리 명시되지 않는 한 "및/또는"을 의미한다. 또한 "포함하는", 및 "포함한다" 및 "포함된"과 같은 다른 형태의 용어는 제한적이지 않다. 또한 "요소" 또는 "컴포넌트"와 같은 용어는 특별히 달리 명시되지 않는 한 하나의 유닛을 포함하는 요소 및 컴포넌트와, 둘 이상의 서브유닛을 포함하는 요소 및 컴포넌트 모두를 포함한다. 또한, 본 명세서에 사용된 섹션 제목은 조직적인 목적만을 위한 것이며, 기술된 출원 대상을 제한하는 것으로 해석되어서는 안 된다.
본 명세서에 사용된 바와 같이, "약" 또는 "대략"이라는 용어는 그것이 수정하는 수치 값을 한정하기 위한 것이며, 그러한 값을 오차 범위 내에서 변수로서 표시한다. 특정 오차 범위(예컨대, 평균값에 대한 표준편차)가 언급되지 않은 경우, "약" 또는 "대략"이라는 용어는 사용되고 있는 숫자 값의 플러스 또는 마이너스 10%를 의미한다. 예를 들어, "약 50%"는 45% 내지 55%의 범위를 의미한다. 범위는 본 명세서에서 "약" 또는 "대략" 하나의 특정 값 및/또는 내지 "약" 또는 "대략" 다른 특정 값으로 표현될 수 있다. 이러한 범위가 표현되는 경우, 다른 실시예는 하나의 특정 값 및/또는 내지 다른 특정 값을 포함한다. 마찬가지로, 값이 "약" 또는 "대략"이라는 선행사를 사용하여 근사치로 표현되는 경우, 특정 값이 또 다른 실시예를 형성한다는 것이 이해될 것이다. 각 범위의 끝점은 다른 끝점과 관련하여 그리고 다른 끝점과 독립적으로 중요하다는 것이 더 이해될 것이다.
다음 설명은 대표적인 예시 세트를 교시할 수 있도록 제공되었다. 본 명세서에 설명된 실시예에 많은 변경이 이루어질 수 있으며, 여전히 유익한 결과를 얻을 수 있다. 아래에 설명된 바람직한 이점 중 일부는 다른 특징을 활용하지 않고 본 명세서에 설명된 특징 중 일부를 선택함으로써 얻을 수 있다. 따라서, 본 명세서에 설명된 특징들의 서브세트뿐만 아니라 많은 수정 및 적응이 가능하며, 소정 상황에서는 바람직할 수도 있다. 따라서, 다음의 설명은 예시적인 것으로 제공되며 제한되지 않는다.
본 문서에서 사용된 단수 관사의 사용은 문맥에서 명확하고 모호하지 않게 달리 지시하지 않는 한 해당 관사의 대상의 복수 개를 배제하려는 의도는 없다.
본 개시는 모바일 장치를 기반으로 사용자에 대한 시력 검사를 수행하기 위한 방법 및 시스템을 제공한다. 일부 실시예에서, 시력 검사에 대해 사용자에게 지시하기 위해 시력 검사 앱이 사용자의 모바일 장치(예를 들어, 스마트폰)에 설치된다. 검사 앱이나 스마트폰의 지시에 따라, 사용자는 먼저 스마트폰을 수직 표면에 대고 스마트폰을 수직 위치로 유지할 수 있다. 검사 앱은 폰에서 사용자까지의 거리를 추정하고 시력 검사를 수행하기 위해 사용자를 폰에서 사전결정된 목표 거리, 예컨대, 10피트 또는 3.3미터까지 상호작용식으로 안내할 수 있다. 사용자는 한보 또는 반보씩 이동하는 경향이 있기 때문에, 사용자가 정확한 거리나 원하는 위치로 이동하는 것이 어려울 수 있다. 일부 실시예에서, 사전결정된 목표 거리는 원하는 거리로부터 하나 이상의 방향으로 연장될 수 있는 사전결정된 목표 구역일 수 있다. 예를 들어, 목표 거리는 10피트일 수 있고, 목표 구역은 9피트 내지 11피트(예컨대, 목표 거리 주위의 1피트 반경)일 수 있다. 당업자는 목표 구역이 1피트보다 크거나 작을 수 있다는 것을 이해할 것이다. 본 명세서에 설명된 바와 같이, 검사 앱은 사용자가 목표 구역 내에 있지만 목표 거리에 위치하지 않는 경우 시력 점수를 조정하도록 구성될 수 있다.
사용자가 목표 거리에 도달하면, 검사 앱은 사용자가 읽을 수 있도록 검사 자료, 예를 들어 시표를 표시할 수 있다. 검사 앱은 사용자의 반응을 기록할 수 있으며, 이후 의사 또는 앱 자체가 이를 검토할 수 있다. 검사 프로세스는 시력 검사를 수행할 때 사용자가 목표 거리(예컨대, 10피트 또는 3.3미터)에 위치하거나 폰으로부터 일정 거리에 위치한 목표 구역 내에 위치한다는 것을 보장하도록 구성될 수 있다. 일 실시예에서, 폰의 전면 카메라는 사용자의 이미지를 캡처할 수 있으며, 컴퓨터 비전을 사용하여 폰으로부터의 사용자의 거리를 추정할 수 있다. 일례에서, 사용자의 동공 거리는 스케일 기준의 역할을 할 수 있으며, 폰으로부터의 사용자의 거리는 캡처된 이미지의 동공 위치와 스케일 기준을 기반으로 추정될 수 있다. 또 다른 예로, 사용자의 동공 거리와 캡처된 이미지에서 사용자의 어깨 너비와 같은 사용자 신체의 다른 길이 특징부 간의 비율을 측정함으로써 폰으로부터의 사용자의 거리를 추정할 수 있다.
일부 실시예에서, 사용자에게 시력 검사를 지시하기 위해 또 다른 시력 검사 앱이 사용자의 모바일 장치(예를 들어, 스마트폰)에 설치될 수 있다. 검사 앱이나 스마트폰의 지시에 따라, 사용자는 거울로부터 목표 거리(예컨대, 5 피트 또는 1.65 미터)에 위치하고 폰의 디스플레이 화면이 바깥쪽을 향한 상태에서 사용자의 눈 중 하나에 스마트폰을 댄다. 일부 실시예에서, 사용자는 목표 거리보다 더 큰 및/또는 더 작은 거리를 포함할 수 있는 목표 구역 내에 위치할 수 있다. 폰은 디스플레이 화면에 글자를 제시할 수 있다. 사용자는 눈을 가리지 않은 채 시력 검사를 위해 거울에 비친 글자를 읽는다. 검사 프로세스는 사용자가 지정된 목표 거리에 및/또는 거울로부터 목표 구역 내에 있음을 보장하도록 구성될 수 있다. 사용자가 지정된 목표 거리, 예컨대, 거울로부터 대략 5피트 또는 대략 1.65미터)에 가까울수록, 시력 검사 결과는 더 정확해질 것이다. 그러나, 앞에서 언급하고 본 명세서에 더 자세히 설명된 바와 같이, 검사 앱은 사용자가 목표 구역 내에 위치하지만 정확히 목표 거리에 위치하지 않는 경우 시력 교정을 결정하도록 구성될 수 있다. 일부 실시예에서, 시력 교정 계산은 사용자가 시력 검사를 수행한 후, 임상의가 시력 검사 점수를 검토하기 전에 적용된다. 그러나, 당업자는 시력 교정 계산이 수행되는 시점이 다양할 수 있음을 이해할 것이다.
일 실시예에서, 사용자의 거리는 폰이 특정 패턴을 표시하도록 하고 폰의 전면 카메라(거울을 향함)를 사용하여 패턴의 반사 이미지를 캡처함으로써 추정될 수 있다. 패턴의 물리적 크기와 카메라의 초점 거리를 알면, 검사 앱은 이미지의 패턴 크기를 추정하여 거울로부터의 사용자의 거리를 결정할 수 있다. 모바일 장치는 거울로부터 사용자의 거리를 지속적으로 검출함으로써 시력 검사를 위해 사용자를 올바른 위치(예컨대, 정확히 목표 거리에 또는 목표 영역 내)로 상호작용식으로 안내할 수 있다.
추가의 신규한 특징은 다음의 설명에서 부분적으로 제시될 것이며, 부분적으로는 다음 설명과 첨부 도면을 검토함으로써 당업자에게 명백해질 것이거나 예의 생성 또는 작동에 의해 학습될 수 있다. 본 개시의 신규한 특징은 아래에 논의되는 상세한 예에 설명된 방법론, 수단 및 조합의 다양한 양상의 실행 또는 사용에 의해 실현되고 달성될 수 있다.
도 1a는 본 개시의 일 실시예에 따라 모바일 장치(110)를 사용하여 사용자에 대한 시력 검사를 수행하기 위한 예시적인 환경(100)을 도시한다. 도 1a에 도시된 바와 같이, 예시적인 환경(100)은 장소에 서서 수직으로 위치된 모바일 장치(110)를 향하는 사용자(150)를 포함할 수 있다. 일부 실시예에서, 모바일 장치(110)는 수직 표면, 예를 들어 벽(180)에 대해 홀딩될 수 있다. 다른 실시예에서, 모바일 장치(110)는 지지 메커니즘, 홀딩 메커니즘, 당김 메커니즘, 또는 임의의 고정 메커니즘에 의해 고정되어 모바일 장치(110)가 수직 방향으로 위치하도록 한다. 다른 실시예에서, 모바일 장치(110)는 수평 방향 또는 대각선 방향으로 위치될 수 있다. 일부 실시예에서, 모바일 장치(110)의 가속도계 및/또는 자이로스코프는 모바일 장치(110)가 적절한 방향, 예를 들어 수직, 수평 또는 대각선 방향에 있는지 여부를 평가하는 데 활용될 수 있다.
도 1a에 도시된 바와 같이, 모바일 장치(110)는 카메라(124) 및 디스플레이 화면(168)을 포함할 수 있다. 카메라(124) 및 디스플레이 화면(168)은 모바일 장치(110)의 동일한 쪽에 위치할 수 있다. 모바일 장치(110)는 카메라(124)를 사용하여 사용자의 이미지를 캡처할 수 있고, 이미지 분석에 기초하여 사용자(150)를 디스플레이 화면(168)으로부터 사전결정된 거리(D1)까지 상호작용식으로 안내한다. 일부 실시예에서, 사전결정된 거리(D1)는 약 10피트 또는 약 3.3미터일 수 있다.
사용자(150)가 디스플레이 화면(168)으로부터 사전결정된 거리(D1)(또는 목표 구역 내)에 있다고 결정한 후, 모바일 장치(110)는 디스플레이 화면(168)에 검사 자료(170)를 제시할 수 있다. 디스플레이 화면(168)에 제시된 자료(170)의 각 항목은 사용자의 시력의 적어도 하나의 특성을 평가하기 위한 크기를 가질 수 있다. 일부 실시예에서, 제시된 항목(예를 들어, 시표)의 크기는 디스플레이 화면(168)으로부터 사용자의 추정된 거리에 기초하여 결정될 수 있다. 사용자가 디스플레이 화면(168)으로부터 목표 거리에 있지 않을 때, 제시된 항목은 규정된 시각적 각도(예컨대, 5 아크 분)에 대응하도록 크기가 정해진다. 그러면 모바일 장치(110)는 디스플레이 화면(168)에 제시된 자료(170)에 응답하여 사용자(150)로부터 입력을 수신하고 사용자(150)의 시력 검사를 위해 입력을 기록할 수 있다.
다양한 실시예에서, 모바일 장치(110)는 이미지를 캡처하고 문자를 표시할 수 있는 임의의 모바일 장치를 포함할 수 있다. 모바일 장치의 예는 모바일 또는 셀룰러폰, 스마트폰, 개인 휴대 정보 단말기("PDA"), 랩톱 컴퓨터, 태블릿 컴퓨터, 음악 플레이어, 스마트 안경, 스마트 손목시계, e-리더 등을 포함하지만, 이에 한정되지는 않는다.
도 1b는 모바일 장치(110)의 아키텍처의 일례의 블록도이다. 도 1b에 도시된 바와 같이, 모바일 장치(110)는 프로세서(들)(102)와 같은 하나 이상의 프로세서를 포함할 수 있다. 프로세서(들)(102)는 임의의 중앙 처리 장치("CPU"), 마이크로프로세서, 마이크로컨트롤러, 또는 명령어 실행을 위한 계산 장치 또는 회로일 수 있다. 프로세서(들)는 통신 인프라(104)(예를 들어, 통신 버스, 크로스오버 바 또는 네트워크)에 연결될 수 있다. 다양한 소프트웨어 실시예가 이러한 예시적인 모바일 장치(110)의 관점에서 설명된다.
도 1b에 도시된 바와 같이, 모바일 장치(110)는 통신 인프라(104)로부터(또는 도시되지 않은 프레임 버퍼로부터) 수신된 그래픽, 비디오, 텍스트 및 기타 데이터를 사용자(예를 들어, 가입자, 상업 사용자, 백엔드 사용자 또는 기타 사용자)에게 표시하는 디스플레이(168)를 포함할 수 있다. 이러한 디스플레이(168)의 예에는 몇 가지 가능한 디스플레이만 나열하면 LCD 화면, OLED 디스플레이, 용량성 터치 스크린 및 플라즈마 디스플레이가 포함되지만, 이에 제한되지는 않는다. 모바일 장치(110)는 또한 랜덤 액세스("RAM") 메모리와 같은 주 메모리(108)를 포함할 수 있고, 보조 메모리(110)도 포함할 수 있다. 보조 메모리(121)는 예를 들어 하드 디스크 드라이브("HDD")(112) 및/또는 자기 테이프 드라이브, 광학 디스크 드라이브, 솔리드 스테이트 드라이브("SSD") 등을 나타내는 착탈식 저장 드라이브("RSD")(114)와 같은 보다 영구적인 메모리를 포함할 수 있다. 일부 실시예에서, 착탈식 저장 드라이브(114)는 당업자가 이해하는 방식으로 착탈식 저장 장치("RSU")(116)로부터 판독 및/또는 이에 기록할 수 있다. 착탈식 저장 장치(116)는 착탈식 저장 드라이브(114)에 의해 판독되고 기록될 수 있는 자기 테이프, 광학 디스크 등을 나타낸다. 당업자가 이해하는 바와 같이, 착탈식 저장 장치(116)는 컴퓨터 소프트웨어 및/또는 데이터가 저장되어 있는 유형의 비일시적 머신 판독가능 저장 매체를 포함할 수 있다.
일부 실시예에서, 보조 메모리(110)는 컴퓨터 프로그램 또는 다른 명령어가 모바일 장치(110)에 로딩될 수 있도록 하는 다른 장치를 포함할 수 있다. 이러한 장치는 예를 들어 착탈식 저장 장치("RSU")(118) 및 대응하는 인터페이스("RSI")(120)를 포함할 수 있다. 이러한 장치(118) 및 인터페이스(120)의 예는 착탈식 메모리 칩(예컨대, 소거 가능 프로그래밍 가능 판독 전용 메모리("EPROM"), 프로그래밍 가능 판독 전용 메모리("PROM")), 보안 디지털("SD") 카드 및 관련 소켓, 및 소프트웨어 및 데이터가 착탈식 저장 장치(118)에서 모바일 장치(110)로 전송될 수 있게 하는 다른 착탈식 저장 장치(118) 및 인터페이스(120)를 포함할 수 있다.
모바일 장치(110)는 또한 스피커(122), 발진기(123), 카메라(124), 발광 다이오드("LED")(125), 마이크로폰(126), 입력 장치(128), 가속도계(미도시) 및 GPS(global positioning system) 모듈(129)을 포함한다. 카메라(124) 특징부의 예는 광학 이미지 안정화("OIS"), 더 큰 센서, 밝은 렌즈, 4K 비디오, 광학 줌 플러스 RAW 이미지 및 HDR, 다중 렌즈와 다중 촬영 야간 모드를 갖춘 "보케 모드(Bokeh mode)"를 포함되지만, 이에 한정되지는 않는다. 카메라(124)는 상이한 특징부를 갖는 하나 이상의 렌즈를 포함할 수 있다. 예를 들어, 카메라(124)는 초광대역 센서, 망원 센서, 비행 시간 센서, 매크로 센서, 메가픽셀("MP") 센서 및/또는 깊이 센서를 포함할 수 있다. 본 명세서에 설명된 카메라(124)는 단일 카메라로 제한되지 않는다. 카메라(124)는 복수의 서로 다른 유형의 카메라, 센서 등을 포함하는 카메라 시스템을 포함할 수 있다. 예를 들어, Apple®은 깊이 맵과 관련 이미지를 얻기 위해 협력하는 7MP 전면 "셀피" 카메라, 적외선 방출기, 적외선 카메라, 근접 센서, 주변광 센서, 투광 조명기 및 도트 프로젝터를 포함하는 TrueDepth® 카메라 시스템을 출시했다. 즉, 모바일 장치(110)의 카메라(124)는 모바일 장치(110)에 의해 사용될 이미지 정보를 획득하기 위한 시스템으로서 작동하는 복수의 센서, 카메라, 방출기, 또는 기타 관련 컴포넌트를 가질 수 있다.
입력 장치(128)의 예는 키보드, 버튼, 트랙볼, 또는 사용자가 데이터를 입력할 수 있는 임의의 다른 인터페이스나 장치를 포함하지만, 이에 제한되지는 않는다. 일부 실시예에서, 입력 장치(128) 및 디스플레이(168)는 동일한 장치에 통합될 수 있다. 예를 들어, 디스플레이(168) 및 입력 장치(128)는 사용자가 손가락, 펜 및/또는 스타일러스를 사용하여 모바일 장치(110)에 데이터를 입력하는 터치스크린일 수 있다.
모바일 장치(110)는 또한 하나 이상의 통신 인터페이스(169)를 포함할 수 있으며, 이를 통해 소프트웨어 및 데이터가 모바일 장치(110)와 외부 장치, 예컨대, Wi-Fi 또는 인터넷을 통해 로컬로 또는 원격으로 연결될 수 있는 다른 모바일 장치 또는 컴퓨터 사이에 전송될 수 있다. 하나 이상의 통신 인터페이스(169)의 예는 모뎀, 네트워크 인터페이스(예컨대, 이더넷 카드 또는 무선 카드), 통신 포트, PCMCIA(Personal Computer Memory Card International Association) 슬롯 및 카드, 하나 이상의 PCI(Personal Component Interconnect) Express 슬롯 및 카드, 또는 이들의 임의의 조합를 포함할 수 있지만, 이에 제한되지는 않는다. 하나 이상의 통신 인터페이스(169)는 또한 NFC(near field communication), 블루투스, 또는 다른 무선 통신 프로토콜을 통한 통신을 위한 다른 인터페이스와 같은 단거리 통신을 위해 구성된 무선 인터페이스를 포함할 수 있다.
하나 이상의 통신 인터페이스(169)를 통해 전송되는 소프트웨어 및 데이터는 신호 형태일 수 있으며, 이는 전자 신호, 전자기 신호, 광학 신호 또는 통신 인터페이스(169)에 의해 수신될 수 있는 기타 신호일 수 있다. 이들 신호는 통신 경로 또는 채널을 통해 통신 인터페이스(169)에 제공될 수 있다. 채널은 유선 또는 케이블, 광섬유, 전화선, 셀룰러 링크, 무선 주파수("RF") 링크 또는 기타 통신 채널을 사용하여 구현될 수 있다.
본 출원에서, "비일시적 컴퓨터 프로그램 매체" 및 "비일시적 컴퓨터 판독가능 매체"라는 용어는 착탈식 저장 장치(116, 118) 또는 하드 디스크 드라이브(112)에 설치된 하드 디스크와 같은 매체를 지칭한다. 컴퓨터 프로그램 제품은 모바일 장치(110)에 소프트웨어를 제공할 수 있다. 컴퓨터 프로그램("컴퓨터 제어 로직"이라고도 함)은 주 메모리(108) 및/또는 보조 메모리(110)에 저장될 수 있다. 컴퓨터 프로그램은 또한 하나 이상의 통신을 통해 수신될 수 있다. 이러한 컴퓨터 프로그램은 프로세서(들)(102)에 의해 실행될 때 모바일 장치(110)가 본 명세서에 설명된 방법 및 시스템의 기능을 수행할 수 있게 한다.
본 명세서에 설명된 출원 대상의 실시예는 예컨대, 데이터 서버로서의 백엔드 컴포넌트를 포함하거나 미들웨어 구성요소, 예컨대, 애플리케이션 서버를 포함하거나 사용자가 본 명세서에 설명된 출원 대상의 구현과 상호 작용할 수 있는 그래픽 사용자 인터페이스 또는 웹 브라우저를 갖는 프런트엔드 컴포넌트(예컨대, 모바일 장치(110)) 또는 하나 이상의 이러한 백엔드, 미들웨어, 또는 프런트엔드 컴포넌트의 임의의 조합을 포함하는 시스템에서 구현될 수 있다. 시스템의 컴포넌트는 디지털 데이터 통신의 임의의 형태나 매체(예컨대, 통신 네트워크)에 의해 상호 연결될 수 있다. 통신 네트워크는 디지털 데이터 통신의 하나 이상의 통신 네트워크 또는 매체를 포함할 수 있다. 통신 네트워크의 예는 LAN(local area network), 무선 LAN, RF 네트워크, NFC 네트워크(예컨대, Wi-Fi 네트워크), 복수의 무선 LAN을 연결하는 무선 MAN(Metropolitan Area Network), NFC 통신 링크(들) 및 WAN(wide area network), 예컨대, 인터넷 및 이들의 조합을 포함한다. 본 개시의 다양한 실시예에 따르면, 통신 네트워크는 HTTP(hypertext transfer protocol) 및 HTTPS(HyperText Transfer Protocol Secured) 및 SSL/TLS(Secured Socket Layer/Transport Layer Security) 및 TCP/IP(transmission control protocol/internet protocol)를 포함하지만 이에 제한되지 않는 하나 이상의 통신 프로토콜을 통해 상호 연결된 인터넷 및 임의의 공개적으로 액세스 가능한 네트워크 또는 네트워크들을 포함할 수 있다. 다양한 실시예에 따른 통신 프로토콜은 또한 무선 주파수 식별("RFID") 통신 및/또는 NFC를 사용하여 데이터 전송을 용이하게 하는 프로토콜을 포함할 수 있다. 더욱이, 통신 네트워크는 또한 GSM 또는 LTE 네트워크 또는 PCS 네트워크와 같은 하나 이상의 모바일 장치 네트워크를 포함할 수 있으며, 이는 모바일 장치가 본 명세서에 설명된 것을 포함하여 적용 가능한 통신 프로토콜을 통해 데이터를 송신하고 수신할 수 있게 한다.
본 개시는 추가 장치 없이 단일 모바일 장치를 사용하여 사용자에 대한 시력 검사를 수행하는 방법을 제공한다. 시력 검사를 위해 사용자가 모바일 장치(예컨대, 디스플레이(168))의 디스플레이(또는 디스플레이 화면)로부터 원하는 거리(예컨대, 10피트, 8-12피트 등)에 위치한다는 것을 보장하기 위해, 사용자의 적어도 하나의 물리적 길이 특징은 사용자로부터 모바일 장치의 디스플레이까지의 현재 거리를 결정하기 위해 추정될 수 있다. 일 실시예에서, 적어도 하나의 물리적 길이 특징은 사용자의 물리적 동공 거리("PD")를 포함할 수 있다.
일부 실시예에서, PD p가 있는 피검자 또는 사용자를 고려한다. 모바일 장치(예컨대, 모바일 장치(110))는 f개의 픽셀의 초점 거리를 갖는 카메라(예컨대, 카메라(124))를 사용하여 피검자의 이미지를 캡처할 수 있다. 캡처된 이미지에서 피검자의 동공 사이의 거리는 픽셀 단위로 P이다. 그런 다음 다음 수학식을 사용하여 카메라로부터 사용자의 거리 d를 결정할 수 있다:
이 수학식은 예를 들어 다음과 같이 유도될 수 있다. 카메라와 피검자 사이의 거리 d, 피검자의 PD p, 및 이미지 내 동공 사이의 거리 P를 연관시키기 위해, 카메라의 핀홀 모델은 아래와 같이 고려될 수 있다:
여기서 (x, y, z)는 세계 좌표의 한 지점을 나타내고, (u, v)는 이미지 좌표의 해당 지점을 나타내며, K는 에 의해 주어진 3×3 카메라 내부 행렬이고, f는 초점 거리이고 (, )는 주점이다. 스마트폰과 같은 모바일 장치의 경우, 내부 파라미터는 운영 체제 또는 Z. Zhang(2000), "카메라 교정을 위한 유연한 새로운 기법", IEEE Transactions on Pattern Analysis and Machine Intelligence, 22(11):1330-1134(여기에 그 전체 내용이 참조로 포함됨)에 설명된 것과 같은 교정 절차에서 얻을 수 있다. [R T]는 3×4 외부 행렬이고, R은 카메라의 방향을 설명하는 3×3 회전 행렬이고 T는 카메라의 위치를 설명하는 3×1 열 벡터이며, zc는 동차 좌표의 사용을 허용하는 임의의 상수이다.
양의 z축을 따라 카메라 축의 방향을 지정하고 카메라 중심 좌표 시스템을 사용하면, R = I 및 T = [0 0 0]T를 얻을 수 있다. 카메라가 피검자로부터 거리 d에 위치하고 광축이 피검자의 동공을 연결하는 선을 양분하는 경우, 동공은 세계 좌표 (-p/2, 0, d) 및 (p/2, 0, d)에 있다. 위의 핀홀 카메라 수학식에 대입하면 을 얻을 수 있고, (,)는 오른쪽 동공의 이미지 좌표이고 (,)는 왼쪽 동공의 이미지 좌표이다. 이미지에서 동공 사이의 거리는 에 의해 주어진다.
항을 재배열하면 을 얻을 수 있다.
일부 실시예에서, 거리의 거리 d는 X로 표시되는 캡처된 이미지의 상이한 특징(예컨대, 어깨 너비)을 사용하여 결정될 수 있다. 이는 관련 거리에서 PD보다 해당 특성을 더 안정적으로 검출할 수 있기 때문일 수 있다. 이 경우, 2단계 프로세스가 사용될 수 있다. 먼저, 이미지 1은 동공과 추가 특징이 쉽게 위치 파악될 수 있을 만큼 충분히 가까운 것으로 간주되는 거리로부터 캡처될 수 있다. 모바일 장치는 이미지 1에서 동공 사이의 거리 P1와 추가 특징 길이 X1을 추출하거나 결정할 수 있다. 특징 간의 비율은 로 주어진다.
모바일 장치는 시력 검사를 위한 목표 거리에 가까운 것으로 간주되는 거리로부터 후속 이미지인 이미지 2를 캡처할 수 있다. 모바일 장치는 이미지 2로부터 추가 특징 길이 X2를 추출하거나 결정할 수 있다. 그러면 거리의 거리 d는 에 의해 결정될 수 있다.
이 프로세스는 복수의 추가 특징(Y, Z 등)에 대해 반복될 수 있으며, 결과적인 거리 추정치는 아마도 특징 측정의 인지된 신뢰도로부터 도출된 가중치와 조합될 수 있다.
일례에서, 피검자는 p = 60mm의 PD를 갖고 모바일 장치의 카메라는 초점 거리 f = 1400 픽셀을 갖는다. 피검자는 근접한 이미지 1에서 캡처될 수 있다. 이미지 1에 기초하여, 동공 사이의 거리 P1 = 105 픽셀이고 추가 특징 길이(어깨 너비) X1 = 525 픽셀이며, 이는 각각 거리 d1 = 800mm 및 어깨 너비 x = 300mm에 해당하고 특징 비율 값 r = 5를 제공한다. 피검자는 카메라에서 뒤로 물러날 수 있으며 이에 따라 이미지 2가 캡처될 수 있다. 이미지 2에 기초하여, 추가 특징 길이(어깨 너비) X2 = 127.3 픽셀이다. 위의 수학식에 대입하면, 거리의 거리 d = (5 × 60 × 1400)/127.3 = 3300mm를 알 수 있다.
도 2는 본 개시의 일부 실시예에 따라, 모바일 장치, 예를 들어, 도 1a 및 도 1b의 모바일 장치(110)를 사용하여 사용자에 대한 시력 검사를 수행하기 위한 예시적인 프로세스(200)의 흐름도이다.
동작(210)에서, 사용자의 적어도 하나의 이미지는 모바일 장치의 카메라를 사용하여 캡처될 수 있다.
동작(220)에서, 사용자의 적어도 하나의 물리적 길이 특징이 추정될 수 있다.
동작(230)에서, 사용자로부터 모바일 장치의 디스플레이 화면까지의 현재 거리는 카메라의 초점 거리, 적어도 하나의 이미지, 및 적어도 하나의 물리적 길이 특징에 기초하여 결정될 수 있다.
동작(240)에서, 사용자는 현재 거리에 기초하여 모바일 장치의 디스플레이 화면으로부터 사전결정된 거리까지 상호작용식으로 안내될 수 있다. 전술한 바와 같이, 사전결정된 거리는 목표 거리 또는 목표 구역 내의 거리일 수 있다.
동작(250)에서, 사용자가 디스플레이 화면으로부터 사전결정된 거리에 있다는 결정에 따라 자료가 디스플레이 화면 상에 제시될 수 있다. 일부 실시예에서, 디스플레이 화면에 제시되는 자료는 사용자 시력의 적어도 하나의 특성을 평가하기 위한 크기를 가질 수 있다.
동작(260)에서, 디스플레이 화면에 제시된 자료에 응답하여 사용자로부터의 입력이 수신될 수 있고, 사용자의 시력 검사를 위해 입력이 기록된다. 도 2에 도시된 동작 순서는 본 개시의 상이한 실시예에 따라 변경될 수 있다.
일부 실시예에서, 사용자의 거리는 3가지 단계, (1) PD의 추정, (2) 신체 특징의 추정, 및 (3) 거리의 추정을 기반으로 추정될 수 있다.
일부 실시예에서, 이미지에서 도출된 길이 특징을 카메라에서 피검자까지의 거리에 연결하기 위해, 알려진 물리적 길이를 갖는 적어도 하나의 특징이 사용될 수 있다. 동공은 이미지에서 쉽게 위치를 파악할 수 있는 뚜렷한 특징이고 PD를 추정하는 여러 가지 방법이 있으므로 PD는 이 역할에 대한 적합한 후보일 수 있다.
모든 사용자가 동일한 PD를 갖는다고 가정하면 제1 PD 추정 기법은 일정한 동공 거리에 기초할 수 있다. 예를 들어, PD의 모평균은 대략 62.5mm이고 모표준편차는 3.5mm이다. 따라서 모평균을 사용자의 PD로서 사용하고 이 가정이 거리 추정에 미치는 영향을 추정할 수 있다.
제2 PD 추정 기법은 해부학적 특징이 모집단에 걸쳐 동일하다는 가정에 기초할 수 있다. 그러나 이 경우 해부학적 특징은 홍채의 직경일 수 있다. 일례로, 사용자의 사진이나 이미지가 캡처될 수 있으며 컴퓨터 비전을 사용하여 이미지 내 홍채를 위치 파악하고 분할할 수 있다. 그런 다음 홍채 직경이 12mm의 모평균에 해당한다는 가정을 사용하여 이미지의 픽셀과 밀리미터 간의 비례 관계를 설정한다. 이 비례성은 픽셀 단위의 동공 사이의 거리를 밀리미터 단위의 PD로 변환하는 데 사용될 수 있다. 모표준편차 0.5mm는 홍채 직경이 일정하다는 가정이 거리 추정에 미치는 영향을 추정할 수 있게 한다.
제3 PD 추정 기법은 깊이 감지 카메라를 사용하여 2차원("2D") 이미지와 정렬된 깊이 맵을 캡처하는 것일 수 있다. 예를 들어, "동공 거리를 측정하기 위한 시스템 및 방법 및 그 용도"라는 명칭의 미국 특허 출원 공개 번호 2021/0393121을 참조하며, 그 전체 내용은 본 명세서에 참조로 포함된다. 컴퓨터 비전은 동공의 위치를 파악하는 데 사용될 수 있으며, 깊이 맵은 3차원("3D") 세계 좌표에서 동공의 위치를 파악하는 데 사용될 수 있다. 설정된 실측에 대한 깊이 맵 방법의 평균 오차는 약 0.75mm이다.
또 다른 PD 추정 기법은 신용 카드를 크기 참조로 사용하는 것에 의존할 수 있다. 위에서 언급한 PD 추정 방법과 달리, 이 방법으로 인한 가변성은 추정하기가 더 어려울 수 있다. 카드가 눈과 동일한 깊이에 있지 않거나, 카드가 이미지 평면과 평행하지 않거나, 카드를 분할하는 문제와 같은 가변성의 원인이 여러 가지 있다. 일부 실시예에서, 카드 이미지는 이미지의 품질을 평가하고 이를 수락하거나 거부할 수 있는 주문 처리 담당자에 의해 검토될 수 있다.
이들 방법과 관련된 가변성은 아래 표 I에 요약되어 있다.
표 I
Figure pct00015
사용자의 신체 특징에 대한 추정은 사용자의 거리를 추정하는 방법으로 사용될 수 있다. 최근에 신체 특징을 위치 파악하기 위한 여러 소프트웨어 라이브러리가 출시되었다. 모바일 장치는 소프트웨어 라이브러리를 사용하여 피검자의 하나 이상의 신체 특징, 예를 들어 동공 거리, 어깨 너비, 머리 높이, 머리 너비, 신장 등을 위치 파악할 수 있다. 일부 실시예에서, 라이브러리는 기본 구현이 다르지만 컨벌루션 신경망을 기반으로 할 수 있다. 도 3은 본 개시의 일부 실시예에 따른 얼굴 특징 위치 파악을 위한 예시적인 방법을 도시한다. 도 4는 본 개시의 일부 실시예에 따른 신체 특징 위치 파악을 위한 예시적인 방법을 도시한다.
모든 특징 위치 파악 라이브러리에 공통적일 수 있는 한 가지 특징은 피검자가 가만히 서 있을 때에도 신체 특징의 추정된 위치와 그러한 특징 사이의 거리에 작은 변화가 있을 수 있다는 것이다. 이러한 이유로 모바일 장치는 가변성을 완화하기 위해 복수의 측정값을 단일 값으로 집계하도록 구성될 수 있다. 이 집계는 간단한 평균화 또는 중앙값 계산의 형태를 취할 수 있다. 이는 특징 비율 r과 최종 거리 d 모두에 해당될 수 있다. 공칭 프레임 레이트가 30fps인 경우, 집계 시간이 1초, 또는 30 프레임이면, 가변성이 크게 완화될 수 있다.
아래의 몇 가지 단순화된 가정과 함께, 개시된 방법의 거동을 이해하기 위해 모델링을 사용할 수 있다. PD p는 알려져 있을 수 있다. 관찰된 길이 특징은 공칭 길이에서의 평균과 평균에 비례하는 표준 편차를 갖는 정규 확률 변수로서 모델링될 수 있다. 동공 사이의 거리 P의 평균은 일 수 있고, 표준편차는 일 수 있다. 어깨 사이의 거리 X의 평균은 일 수 있고 표준편차는 일 수 있다. 피검자의 어깨 너비("SW")와 PD r 사이의 비율은 N1 프레임에 걸쳐 거리 d1에서 P와 X의 관찰을 평균화하고 평균 비율을 계산하여 추정될 수 있다. 피검자의 최종 거리 d는 N2 프레임에 대한 관찰을 평균화하여 추정될 수 있다.
거리 추정치 의 속성을 알 수 있다. 예를 들어, 불확실성 전파 접근법을 사용하여 표준 편차를 목표 거리의 일부 /d로서 평가할 수 있다.
먼저, 거리 추정의 PD 전용 버전이 고려될 수 있다. 이 경우, 가변성의 유일한 원인은 목표 거리에서 동공 사이의 거리를 추정하는 것일 수 있다. 를 알 수 있다.
다음으로, 모바일 장치가 거리 d1에서 SW와 PD 사이의 비율을 추정할 수 있고 목표 거리에서 어깨 사이의 거리를 추정할 수 있는 거리 추정 버전을 고려할 수 있다. 비율 단계는 고려될 수 있는 추가 가변성 원인을 도입할 수 있다. 전체 가변성은 로서 계산될 수 있다.
이고 인 경우, PD 전용 방법 추정은 추정량이 모두 동일한 가변성을 가질 수 있으므로 SW 방법보다 가변성이 적을 수 있고, PD 전용 방법은 추정량이 더 적을 수 있다. 그러나, 이고 인 상황에서는 SW 방봅이 더 낮은 가변성을 가질 수 있다. 또한, 거리 d에서 동공이 검출될 수 없는 경우, SW 방법은 PD 전용 방법에는 없는 옵션을 제공할 수 있다. 이러한 모든 경우에, 문제의 확률 변수에 대한 추정치는 불편이 아닌 것으로 가정될 수 있으며, 이는 추정치의 평균이 확률 변수의 평균과 같을 수 있음을 의미한다. 이로 인해 실제로는 발생하지 않을 수도 있는 거리의 불편 추정이 이루어질 수 있다. 위의 모델링은 특징 위치 파악 라이브러리가 신체 특징을 체계적으로 잘못 위치 파악할 가능성과 잘못된 위치 파악의 특성이 거리에 따라 달라질 수 있는 가능성을 설명하지 않는다.
개시된 방법과 검사 애플리케이션에 대한 특징과 특징 검출 라이브러리의 조합을 결정하기 위해 두 명의 피검자로부터의 세 개의 검사 비디오가 분석되었다. 모바일 장치(이 경우 스마트폰)에 있는 피검자의 카메라의 시야 및 차례로 초점 거리를 결정하기 위해, 모바일 장치는 먼저 이미지에서 알려진 거리에 있는 참조 대상의 이미지를 캡처했다. 그런 다음 모바일 장치는 두 개의 세그먼트로 비디오를 캡처했다. 제1 세그먼트에서는 피검자들은 카메라로부터 대략 0.8m 떨어져 서 있어 동공과 어깨가 모두 시야에 들어왔다. 제2 세그먼트에서 그들은 레이저 측정기의 도움으로 표시되었던 3.3 미터의 목표 거리에 서 있었다.
이후 목표 거리에서의 거리 추정 오차를 측정하기 위해 PD 전용 및 SW 알고리즘을 사용하여 비디오가 처리되었다. 특징 및 특징 검출 라이브러리의 효과를 분리하기 위해, 피검자의 자체 보고 PD가 사용되었다. 검사는 모바일 플랫폼에서의 위치 파악 성능이 비슷할 것이라는 이해를 바탕으로 데스크톱 플랫폼에서 수행되었다. 모든 경우에, 검사 비디오는 단일 이미지 프레임의 시퀀스로 분할되었으며, 이미지 프레임은 위의 라이브러리를 기반으로 실행 가능한 소프트웨어에 공급되었다. 개별 특징 위치는 라이브러리에 의해 리턴되었으며, 때로는 특징 위치에 대한 라이브러리의 신뢰도 측정이 함께 제공된다. 신뢰도 측정이 제공되었던 경우, 신뢰도가 낮은 특징은 삭제되었다. 소정의 프레임에 대해 길이 특징을 포함하는 지점을 사용할 수 있는 경우, 해당 지점을 사용하여 해당 프레임의 길이 특징을 결정했다. 결과는 아래 표 II에 요약되어 있으며, 이는 특징과 특징 추정 라이브러리의 다양한 조합에 대한 거리 추정 오류 결과를 보여준다. 두 피검자는 A와 B로 라벨링되며, 피검자 B는 B1과 B2로 라벨링된 두 개의 기록을 제공했다. 표 셀은 *: 0-5%; **: 5-10%; ***: >10%로서 표시된다.
표 II
Figure pct00028
1. 예컨대, https://developer.apple.com/documentation/vision/vndetectfacelandmarksrequest 참조2. 예컨대, https://developer.apple.com/documentation/vision/vndetecthumanbodyposerequest 참조
3. 예컨대, https://google.github.io/mediapipe/solutions/pose.html 참조
4.예컨대, https://www.tensorflow.org/lite/examples/pose_estimation/overview 참조
일반적으로 Apple®의 Vision Framework face 및 구글의 MediaPipe를 사용하는 PD 전용 방법이 가장 유망한 것으로 나타났다. 어깨 특징을 갖춘 Apple®의 Vision Framework body도 비디오 A에서 피험자의 어깨 중 하나가 머리카락으로 가려졌음에도 불구하고 고무적인 결과를 제공했다.
본 개시는 신체 특징에 기초한 거리 추정 방법을 제공한다. 강조하거/하거나 고려할 만한 몇 가지 고려 사항이 있을 수 있다. 한 가지 고려 사항은 선택된 특징 검출 라이브러리가 앱이 사용될 조건을 정확하게 반영하지 않는 데이터에 대해 훈련될 수 있다는 것이다. 여기에는 사용자의 모습이나 사용자가 앱을 사용하고 있는 환경이 포함될 수 있다. 훈련과 사용 간의 차이를 보상하기 위해, 다양한 조건에서 다양한 사용자 샘플을 대상으로 앱을 테스트할 수 있다. 또 다른 문제는 머리카락이나 부피가 큰 옷으로 인해 신체 특징이 가려질 수 있다는 점일 수 있으며, 이는 사용자에 대한 지침에 의해 완화될 수 있다.
사용자가 자유롭게 이동할 수 있도록 10 피트 또는 3.3 미터의 공간도 있는 모바일 장치를 배치할 안전한 장소를 찾는 것은 사용자에게 어려울 수 있다. 모바일 장치를 사용자로부터 그러한 거리에 배치하면 사용자가 앱에서 오디오 지침을 듣거나 앱이 음성 응답을 기록하는 것이 어려울 수도 있다. 컴퓨터 비전을 사용하여 장면의 참조 특징을 정확하게 위치 파악할 수 있지만, 특징이 작아 보일 수 있으므로 3.3 미터 거리에서는 위치를 파악하기 어려울 수 있다.
본 명세서에 개시된 시스템 및 방법은 사용자가 모바일 장치를 홀딩하고 거울에 반사된 디스플레이를 보도록 함으로써 이러한 문제를 극복할 수 있다. 도 5는 본 개시의 일부 실시예에 따라 모바일 장치를 사용하여 사용자에 대한 시력 검사 수행하기 위한 또 다른 예시적인 환경(500)을 도시한다. 도 5에 도시된 바와 같이, 예시적인 환경(500)은 장소에 서서 거울(590)에 평행하게 수직으로 모바일 장치(510)를 들고 있는 사용자(550)를 포함할 수 있다. 이 예에서, 거울(590)은 예를 들어 벽(580)에 대해 수직으로 위치될 수 있다. 일부 실시예에서, 거울(590)은 지지 메커니즘, 홀딩 메커니즘, 당김 메커니즘, 또는 임의의 고정 메커니즘에 의해 고정되어 거울(590)이 수직으로 위치되도록 할 수 있다.
다양한 실시예에서, 모바일 장치(510)는 이미지를 캡처하고 문자를 표시할 수 있는 임의의 모바일 장치를 포함할 수 있다. 모바일 장치의 예는 모바일 또는 셀룰러폰, 스마트폰, 개인 휴대 정보 단말기("PDA"), 랩톱 컴퓨터, 태블릿 컴퓨터, 음악 플레이어, 스마트 안경, 스마트 손목시계, e-리더 등을 포함하지만, 이에 한정되지는 않는다. 일부 실시예에서, 도 5에 도시된 모바일 장치(510)는 도 1a 및 도 1b에 도시된 모바일 장치(110)와 동일한 구조를 가질 수 있고, 프로세서, 카메라 및 디스플레이 화면도 포함할 수 있다. 카메라와 디스플레이 화면은 모바일 장치(510)의 같은 쪽에 위치할 수 있다. 이와 같이, 모바일 장치(510)는 사용자(550)를 거울 앞에 위치시키고 외부를 향하고 있는 모바일 장치(510)를 이용하여 사용자의 한쪽 눈을 가리도록 안내하면, 사용자(550), 모바일 장치(510)의 카메라 및 디스플레이 화면은 모두 사용자(550)의 정면에 있는 거울(590)을 향할 수 있다.
이후, 모바일 장치(510)는 카메라를 사용하여 거울(590)에 반사된 모바일 장치의 이미지를 캡처하고, 이미지 분석에 기초하여 사용자(550)를 거울(590)로부터 사전결정된 거리(D2)까지 상호작용식으로 안내할 수 있다. 일부 실시예에서, 사전결정된 거리(D2)는 약 5 피트 또는 약 1.65 미터일 수 있다. 사용자(550)가 거울(590)로부터 사전결정된 거리(D2)에 있다고 판단한 후, 모바일 장치(510)는 검사 자료(512)를 모바일 장치(510)의 디스플레이 화면에 제시할 수 있다. 디스플레이 화면에 제시되는 자료(512)의 각 항목은 사용자 시력의 적어도 하나의 특성을 평가하기 위한 크기를 가질 수 있다. 일부 실시예에서, 제시된 항목(예를 들어 시표)의 크기는 거울(590)로부터의 사용자의 추정 거리에 기초하여 결정될 수 있다. 사용자가 거울(590)로부터의 목표 거리에 있지 않을 때, 제시된 항목의 크기는 예를 들어 1 아크 분, 5 아크 분, 또는 기타 시각적 각도와 같이 규정된 시각적 각도에 대응하도록 조정될 수 있다. 모바일 장치(510)는 디스플레이 화면에 제시되고 거울(590)에 반사된 자료에 응답하여 사용자(550)로부터 입력을 수신할 수 있고, 사용자(550)의 시력 검사를 위한 입력을 기록할 수 있다. 거울(590)에서 자료(512)의 반사(513)는 디스플레이 화면에 제시되는 자료(512)의 거울 이미지일 수 있다.
정확한 시력 결과를 보장하기 위해, 사용자는 사전결정된 위치로 또는 디스플레이로부터 지정된 거리로 안내될 수 있다. 시력 검사 요구사항에서는 일반적으로 사용자가 검사 자료의 디스플레이에서 약 3.3 미터(또는 약 10 피트) 떨어져 있어야 한다. 디스플레이가 거울에 반사될 수 있는 경우, 거울은 사용자의 유효 거리를 두 배로 늘려주기 때문에 사용자는 거울로부터 3.3/2 = 1.65m 떨어져 있을 수 있다. 개시된 일 실시예에서, 모바일 장치는 알려진 크기의 참조 패턴을 표시할 수 있고, 모바일 장치의 카메라는 거울에 반사된 패턴을 캡처할 수 있다. 그런 다음 카메라의 초점 거리와 패턴의 겉보기 크기를 사용하여 사용자와 거울 사이의 거리를 계산할 수 있다.
도 6은 본 개시의 일부 실시예에 따라, 모바일 장치, 예를 들어, 도 1a 및 도 1b의 모바일 장치(110) 또는 도 5의 모바일 장치(510)를 사용하여 사용자에 대한 시력 검사를 수행하기 위한 다른 예시적인 프로세스(600)의 흐름도이다.
동작(610)에서, 사용자는 모바일 장치를 사용하여 사용자의 눈 중 하나를 가리도록 안내될 수 있으며, 이에 따라 사용자와 모바일 장치의 디스플레이 화면은 모두 사용자 앞에서 거울을 향하게 된다.
동작(620)에서, 참조 패턴이 모바일 장치의 디스플레이 화면에 제시될 수 있다.
동작(630)에서, 거울에 반사된 참조 패턴의 적어도 하나의 이미지는 모바일 장치의 카메라를 사용하여 캡처될 수 있다.
동작(640)에서, 사용자와 거울 사이의 현재 거리는 카메라의 초점 거리, 적어도 하나의 이미지, 및 참조 패턴의 사전결정된 물리적 크기에 기초하여 결정될 수 있다.
동작(650)에서, 사용자는 현재 거리에 기초하여 거울로부터 사전결정된 거리까지 상호작용식으로 안내될 수 있다. 전술한 바와 같이, 사전결정된 거리는 목표 거리 또는 목표 구역 내의 거리 또는 위치일 수 있다.
동작(660)에서, 사용자가 거울로부터 사전결정된 거리에 있다고 판단될 때 디스플레이 화면에 자료가 제시될 수 있다. 일부 실시예에서, 디스플레이 화면에 제시되는 자료는 사용자 시력의 적어도 하나의 특성을 평가하기 위한 크기를 가질 수 있다.
동작(670)에서, 디스플레이 화면에 제시되고 거울에 반사된 자료에 응답하여 사용자로부터의 입력이 수신될 수 있고, 사용자의 시력 검사를 위해 입력이 기록된다. 도 6에 도시된 동작 순서는 본 개시의 다양한 실시예에 따라 변경될 수 있다.
일부 실시예에서, 현재 거리를 결정하는 것은 참조 패턴을 전처리하여 참조 패턴의 적어도 하나의 후보 형상을 포함하는 이진 이미지를 생성하는 것, 적어도 하나의 이미지에서 참조 패턴의 위치 파악을 수행하는 것, 및 적어도 하나의 이미지로부터 참조 패턴의 분할을 수행하는 것을 포함할 수 있다.
참조 패턴은 어수선한 환경에서 쉽게 골라낼 수 있는 독특한 참조 패턴을 제시하도록 설계될 수 있다. 참조 패턴에는 정확한 분할을 허용하는 잘 정의된 경계가 있을 수 있다. 실시간 이미지 처리와 거리 추정을 위한 참조 패턴에는 적어도 두 가지 유형이 있다. 참조 패턴의 일례는 단색의 정적 패턴을 포함할 수 있다. 참조 패턴의 또 다른 예는 여러 색상을 순환할 수 있는 동적 패턴을 포함할 수 있다. 각 패턴의 이미지는 해당 패턴에 맞는 절차에 의해 처리될 수 있다.
참조 패턴을 독특하게 만드는 한 가지 방법은 장면에 나타날 가능성이 없는 색상을 제공하는 것일 수 있다. 이러한 특성은 디스플레이 화면이 빛을 반사하지 않고 방출한다는 사실과 결합되어 패턴을 배경에서 쉽게 분할하게 할 수 있다. 일 실시예에서, 모바일 장치는 2mm 너비의 검은색 경계로 둘러싸인 단색의 청록색 패턴(RGB 색상(0, 255, 255)에 해당)을 사용할 수 있다. 이미지가 캡처되면 모바일 장치는 캡처된 이미지와 참조 색상 간의 픽셀 단위 차이를 계산할 수 있다. 차이는 국제 조명 위원회 L*A*B*("CIELAB") 색상 공간에서 계산될 수 있다. 이 색상 공간에서, 지점 쌍 사이의 유클리드 거리는 해당 색상 간의 지각 차이에 대응한다. 그런 다음, 차이 이미지에 역임계값을 (최대 차이 300 중) 25로 적용하여 후보 형상의 이진 이미지를 생성할 수 있다.
도 7은 본 개시의 일부 실시예에 따라 정적 패턴을 전처리하기 위해 캡처된 예시적인 이미지를 도시한다. 도 7에 도시된 바와 같이, 이미지(710)는 단색의 참조 패턴을 표시하는 폰을 들고 있는 사용자의 이미지일 수 있고, 이미지(720)는 이미지 픽셀과 참조 색상(RGB(0, 255, 255)) 사이의 픽셀 단위 차이를 보여주며, 색상 스케일은 0(검은색) 내지 최대 차이 300(흰색)이며, 이미지(730)는 이미지(720)를 임계값 25로 역임계값화한 결과를 보여준다.
어수선한 장면에서 패턴을 눈에 띄게 만드는 또 다른 방법은 예측 가능한 방식으로 시간이 지남에 따라 이미지가 변하도록 하는 것일 수 있다. 일 실시예에서, 모바일 장치는 2mm 너비의 검은색 경계로 둘러싸인 시변 단색 배경을 갖는 동적 패턴을 사용할 수 있다. 일 실시예에서, 색조는 다양하되, 채도와 명도는 최대값으로 설정될 수 있다. 일 실시예에서, 동적 패턴은 초당 30 프레임의 프레임 레이트로 12개의 개별 프레임을 순환할 수 있으므로, 색상의 전체 사이클은 초당 30/12 = 2.5 사이클마다 발생한다. 프레임 색상의 RGB 성분은 아래 표 III에 나열되어 있으며, 색상 사이클은 인덱스 번호가 표시된 도 8에 도시되어 있다.
표 III
Figure pct00029
동적 패턴에 기초하여 폰의 위치를 파악하기 위해, 현재 이미지 프레임의 색조 채널이 과거의 이미지 프레임과 비교될 수 있다. 과거 프레임은 현재 프레임의 색상과 보색적인 사이클의 색상에 대응할 수 있다. 12가지 색상이 있는 동적 패턴에서, 현재 프레임과 보색인 프레임은 과거에 12/2=6 프레임일 수 있으며, 이는 도 8의 원의 반대편에 해당한다. (색조의 원형 특성을 고려하여) 보색 프레임 사이의 색조 차이가 계산될 수 있으며, 그 결과에 현재 프레임의 강도 채널(0과 1 사이에서 스케일링됨)을 곱하여, 색조 차이가 크고 강도가 강한 영역이 선택됨을 보장할 수 있다. 후보 형상을 찾기 위해, 게이팅된 색조 차이 값을 90° 값을 가진 임계값과 비교될 수 있다. 예시적인 결과는 본 개시의 일부 실시예에 따라 동적 패턴을 전처리하기 위해 캡처된 예시적인 이미지를 도시하는 도 9에 제공된다. 도 9의 두 이미지(910, 920)는 색상 사이클의 반대 지점에서 6 프레임 간격으로 캡처되었다. 이미지(930)는 색조 차이에 강도 채널을 곱한 것을 보여주며, 색상 스케일은 0(검은색)에서 최대 차이 180°(흰색)까지 진행된다. 이미지(940)는 90°의 임계값을 사용하여 이미지(930)를 임계값화한 결과를 보여준다.
동적 패턴이 깜박이기 때문에, 광과민성 발작 장애에 관한 접근성 가이드라인을 고려할 수 있다. 일부 실시예에서, 한 가이드라인에 따르면, 깜박임은 초당 3회 미만으로 발생할 수 있다. 일부 실시예에서, 동적 패턴은 가이드라인에 따라 초당 2.5회 깜박인다. 패턴 깜박임 빈도가 줄어들 수 있다. 그러나, 사용자가 패턴 반주기의 지속시간 동안 크게 움직이는 경우(예컨대, < 0.2초), 모바일 장치 또는 검사 앱이 동적 패턴을 위치 파악하지 못할 수 있다.
전술한 장면의 나머지 부분으로부터 쉽게 검출 가능한 참조 패턴을 기반으로 패턴 위치 파악이 수행될 수 있다. 연결된 컴포넌트 라벨링을 사용하여 후보 패턴 위치에 해당하는 형상을 분리하여 장면의 패턴을 위치 파악할 수 있다. 일부 실시예에서, 패턴이 직사각형 형상을 갖는 경우, 캡처 이미지에서 패턴의 일부는 직사각형이 아닌 형상을 가질 수 있다. 이는 이미지가 캡처될 때 패턴이 가려지거나 디스플레이가 카메라의 센서 평면과 평행하지 않기 때문일 수 있다. 이미지 좌표에서, 캡처된 이미지의 패턴 형상과 관련하여 둘러싸는 직사각형은 직사각형이 아닌 패턴 형상을 완전히 둘러싸는 가능한 한 가장 작은 직사각형(이미지 경계에 평행한 측면을 가짐)으로 정의될 수 있다. 일부 실시예에서, 패턴 형상은 후술하는 바와 같이 하나 이상의 다음 기준에 따라 후속적으로 필터링될 수 있다. 첫째, 직사각형 패턴의 경우 둘러싸는 직사각형의 면적은 500 픽셀과 250,000 픽셀 사이일 수 있다. 이는 너무 크거나 작은 형상을 선택하는 것을 방지할 수 있다. 둘째, 둘러싸는 직사각형의 종횡비는 1/3과 3 사이일 수 있다. 이는 너무 넓거나 너무 좁은 형상을 선택하는 것을 방지할 수 있다. 셋째, 충진율(즉, 패턴 형상의 면적을 둘러싸는 직사각형의 면적으로 나눈 값)이 적어도 95%일 수 있다. 이는 직사각형이 아니거나 원하는 직사각형 형상에서 너무 많이 벗어나는 형상을 선택하는 것을 방지할 수 있다. 복수의 후보 형상이 이러한 기준을 충족하는 경우, 충진율이 가장 높은 후보 형상이 선택될 수 있다. W x H 치수의 둘러싸는 직사각형 형상과 min(W, H)/2의 경계를 포함하는 관심 영역("ROI")이 선택될 수 있다.
패턴의 대략적인 위치를 결정한 후, 패턴의 정확한 경계를 결정하기 위해 모바일 장치에 의해 패턴 분할이 수행될 수 있다. 먼저, 모바일 장치는 본 개시의 일부 실시예에 따라 참조 패턴의 분할을 수행할 때의 예시적인 시각화를 도시하는 도 10에 도시된 바와 같이, 강도 채널의 수평 및 수직 기울기를 계산할 수 있다. 도 10에 도시된 바와 같이, 이미지(1010)는 캡쳐된 이미지의 강도 채널을 보여주고, 이미지(1020)는 강도 채널의 수평 기울기의 시각화를 보여주며, 이미지(1030)는 강도 채널의 수직 기울기의 시각화를 보여준다.
다음으로, 모바일 장치는 ROI를 4개의 중첩되는 서브영역, 즉 왼쪽 절반, 오른쪽 절반, 위쪽 절반, 아래쪽 절반으로 세분할 수 있다. 그런 다음 이 4개 영역에서 패턴의 왼쪽, 오른쪽, 위쪽 및 아래쪽 경계를 각각 검색할 수 있다. 왼쪽 및 오른쪽 서브영역의 각 행에 대해, 모바일 장치는 수평 기울기의 크기가 가장 큰 열을 찾을 수 있다. 위쪽 및 아래쪽 서브영역의 각 열에 대해, 모바일 장치는 수직 기울기의 크기가 가장 큰 행을 찾을 수 있다. 결과 지점의 기울기 크기가 255(가능한 최대 값의 1/4)를 초과하는 경우, 그 지점은 경계 지점으로 간주된다. 경계 지점은 최대 기울기 크기를 갖는 행/열 근처의 4개 지점 사이를 보간하여 서브픽셀 정밀도로 위치 파악될 수 있다. 각 패턴 경계에 대해 선 맞춤 절차를 사용하여 점을 선으로 견고하게 맞출 수 있다. 그런 다음 패턴의 코너는 선 교차점으로부터 결정될 수 있다. 이 프로세스는 본 개시의 일부 실시예에 따라 참조 패턴의 에지 및 코너를 검출하기 위한 예시적인 선 맞춤을 도시하는 도 11에 도시된다. 도 11에 도시된 바와 같이, 정적 패턴이거나 동적 패턴일 수 있는 패턴의 직사각형 형상의 에지를 검출하기 위해 견고한 선 맞춤이 수행될 수 있다. 도 11의 작은 점들은 검출된 경계 지점을 식별하고, 점들을 연결하는 실선은 견고한 맞춤을 식별하며, 큰 주황색 점(1110, 1120, 1130, 1140)은 추론된 코너 위치를 식별한다.
패턴으로부터 카메라의 거리를 결정하기 위해, 아래와 같이 카메라의 핀홀 모델이 고려될 수 있다:
(x, y, z)는 세계 좌표의 한 지점을 나타낼 수 있고, (u, v)는 이미지 좌표의 대응 지점을 나타낼 수 있으며, K는 3×3 카메라 내부 행렬(초점 거리 포함)이고, [R T]는 3×4 외부 행렬일 수 있으며, 여기서 R은 카메라의 방향을 설명하는 3×3 회전 행렬이고, T는 카메라의 위치를 설명하는 3×1 열 벡터일 수 있으며, 동차 좌표의 사용을 허용하는 임의의 상수일 수 있다. 일반성을 잃지 않으면서, 패턴은 x-y 평면에 있으며 패턴의 중심은 세계 좌표 시스템의 원점이 될 수 있다. 따라서 핀홀 카메라 수학식은 가 될 수 있으며, w와 h는 각각 패턴의 물리적 너비와 높이일 수 있으며, 이미지 좌표의 첨자 LL, LR, UR, UL은 각각 왼쪽 아래, 오른쪽 아래, 오른쪽 위 및 왼쪽 위 코너에 대응할 수 있다.
따라서, 수학식의 모든 요소는 외부 행렬 [R T]을 제외하고 알려질 수 있다. 모바일 장치는 [R T]를 수치적으로 풀고 패턴 중심을 기준으로 카메라 위치를 제공하는 벡터의 길이인 ||T||로부터의 거리를 결정할 수 있다. 일부 실시예에서, 전술된 참조 패턴 전처리, 참조 패턴 위치 파악, 참조 패턴 분할 및 거리 추정 중 임의의 것 또는 전부는 모바일 장치에서 로컬로 수행되거나 컴퓨터 또는 클라우드 서버에서 원격으로 수행될 수 있다.
전술한 방법의 성능을 특성화하기 위한 실험이 수행되었다. 일 실시예에서, 실제 측정에 대해 개시된 방법을 평가하고 패턴 크기를 변화시키는 효과를 시뮬레이션하기 위한 실험이 수행되었다. 동적 패턴을 표시하고 동시에 전면 카메라의 비디오를 기록하는 검사 앱을 만들었다. 검사 앱은 삼각대에 장착되었던 모바일폰에 설치되었으며, 삼각대는 여러 거리에 배치되어 다음 단계들을 수행하였다.
첫째, 레이저 측정기를 사용하여 거울로부터의 실측 거리를 측정했다. 레이저는 레이저의 강한 반사를 방지하기 위해 거울 위에 놓인 종이 노트를 겨냥했다. 둘째, 전술한 거리 추정 방법 중 하나를 수행하면서 비디오를 기록하기 위해 검사 앱을 켰다. 그런 다음, 추정된 거리를 결정하고 이를 실측 값과 비교하기 위해 비디오를 분석했다. 모바일폰과 거울 사이의 거리를 서로 다르게(1.4 미터, 1.6 미터, 1.8 미터) 놓고 동일한 프로세스를 수행했다. 결과는 본 개시의 일부 실시예에 따라 개시된 방법의 거리 추정치와 서로 다른 거리에서의 실측 거리 사이의 예시적인 비교를 도시하는 도 12에 나타낸다. 도 12에 도시된 바와 같이, 임의의 측정된 거리에서 백분율 오차는 결코 2.5%보다 크지 않았다.
거리 추정 접근법은 패턴이 사용자의 손에 의해 가려지지 않을 때 가장 잘 작동할 수 있지만, 모바일 장치 또는 검사 앱은 사용자가 패턴을 가리지 않으면서 편안하게 폰을 홀딩할 수 있는 충분한 공간이 있도록 패턴의 크기를 선택할 수 있다. 거리 추정 오차가 허용할 수 없을 정도로 커지기 전에 패턴이 얼마나 작아질 수 있는지 평가하기 위해, 일부 실시예에 따르면 3.3 미터의 공칭 거리와 초점 거리를 사용하여 상이한 패턴 크기로 거리 추정 방법을 시뮬레이션하였다. 코너 위치 파악의 불확실성을 모델링하기 위해, 실제 코너 위치는 표준 편차가 2 픽셀인 정규 확률 변수에 의해 교란되었다. 결과는 본 개시의 일부 실시예에 따라, 서로 다른 시뮬레이션된 패턴 길이 크기에 대한 예시적인 평균 제곱 오차 결과를 도시하는 도 13에 도시되어 있다. 각 거리에 대해 모바일폰은 두 가지 측정을 수행했다: (1) 평균 추정치와 실측 간의 차이를 캡처하는 바이어스 제곱, (2) 거리 추정치가 평균에서 얼마나 벗어나는지 캡처하는 변동. 평균 제곱 오차("MSE")를 제공하기 위해 바이어스 제곱과 변동이 추가되었다. 오차를 바이어스와 변동으로 나누는 것은 이들을 줄이기 위해 상이한 전략을 사용할 수 있기 때문에 유용하다. 변동을 처리하기 위해, 모바일 장치는 연속적인 프레임에 대해 평균을 구하여 보다 안정적인 측정값을 얻도록 구성될 수 있지만, 이로 인해 추정치에 지연이 발생할 수 있다. 바이어스를 처리하기 위해, 폰은 보상을 위해 "퍼지 팩터"를 추가하도록 구성될 수 있지만, 이로 인해 복잡성이 추가될 수 있다. 측정값을 보다 직관적인 단위로 매핑하기 위해, 도 13의 오른쪽 세로 축은 등가 백분율 오차를 보고한다.
일부 실시예에서, 사용자가 목표 거리 또는 목표 구역 내의 위치일 수 있는 사전결정된 거리에 위치된 후, 사용자가 사용자의 폰(도 5에 도시됨) 또는 사용자의 자유로운 손을 사용하여 사용되지 않은 눈을 가리는 동안, 사용자는 각 눈으로 시력 검사표를 판독할 수 있다. 일부 실시예에서, 시력 검사 앱은 사용자를 거울로부터 1.65 미터 떨어진 위치로 안내하기 위해 폐쇄 피드백 루프에서 위의 거리 추정 절차를 이용할 수 있다. 사용자가 거울에 너무 가까우면, 앱은 사용자에게 뒤로 이동하도록 지시하도록 구성될 수 있다. 사용자가 거울에서 너무 멀리 떨어져 있으면, 앱은 사용자에게 앞으로 이동하도록 지시하도록 구성될 수 있다. 앱은 거리 추정을 방해하지 않고 패턴에 중첩될 수 있는 오디오 지침 및/또는 시각적 지침을 사용하도록 구성될 수 있다. 일부 실시예에서는 촉각 신호도 사용될 수 있다.
일부 실시예에서, 사용자가 제 위치에 있으면, 앱은 흰색 배경에 한 문자 너비 간격으로 5개의 검은색 슬론(Sloan) 문자로 구성된 단일 행을 표시할 수 있다. 일부 실시예에서, 문자는 반복되는 문자 없이 C, D, H, K, N, O, R, S, V 및 Z의 세트에서 무작위로 선택될 수 있다. 문자는 높이가 5 아크 분의 각도 분해능(3.3 미터에서 4.8 mm임)에 대응하도록 크기가 조정될 수 있다. 본 개시의 일부 실시예에 따른 예시적인 시력 검사 화면을 도시하는 도 14에 도시된 예를 사용하여, 문자는 수평으로 반전되어 반사가 올바르게 나타나도록 할 수 있다. 일부 실시예에서, 시력 검사 화면은 62.4×135.1 mm의 화면 크기에 대응하는 458 dpi의 디스플레이 밀도로 1125×2346의 해상도를 가질 수 있다. 시력 검사 화면에 제시되는 시표는 87 픽셀 높이에 해당하는 4.8mm 높이일 수 있다. 일부 실시예에서, 거리 추정 절차가 사용자의 거리가 목표 거리에 허용 가능하게 가깝지만 정확히 일치하지는 않는다는 것(예를 들어, 목표 구역 내에 있음)을 검출하는 경우, 시표는 목표 각도 분해능에 더 가깝게 일치하도록 크기가 조정될 수 있다. 일부 실시예에서, 시표를 볼 때, 사용자는 앱에 하나 이상의 응답을 전달할 수 있다. 모바일 장치는 폰의 마이크와 카메라를 각각 사용하여 시력 검사의 전체 오디오 및/또는 비디오를 캡처하거나 음성 인식을 사용하여 사용자의 응답을 자동으로 구문 분석하고 시력을 계산할 수 있다.
일부 실시예에서, 슬론 문자 대신에, 시표는 란돌트(Landolt) C, 즉 서로 다른 방향의 이상적인 문자 C일 수 있다. 예리함을 보여주기 위해, 사용자는 개구부 위치를 표시할 수 있다. 이러한 응답은 음성을 통해 전달될 수 있다. 일부 실시예에서, 응답은 손 제스처를 사용하여 표현될 수 있는데, 이는 사용자가 순간에 왼쪽과 오른쪽을 구별해야 하지 못하게 하기 때문이다. 손 제스처는 카메라에 의해 기록되고 오프라인에서 수동으로 해석되거나 머신 러닝을 사용하여 자동으로 해석될 수 있다. 일부 실시예에서, 사용자 응답은 음성과 신체적 제스처(예를 들어 손, 팔, 다리 등)의 조합을 사용하여 전달될 수 있다.
모바일 장치는 사용자 입력을 기록하고 시력 점수를 계산할 수 있다. 일부 실시예에서, 모바일 장치는 사용자 프로필 또는 식별자와 연관될 수 있는 하나 이상의 파일 또는 객체에 시력 점수 및 사용자 입력 모두를 저장할 수 있다. 당업자가 이해하는 바와 같이, 원시(raw) 시력 점수는 사용자 입력으로부터 계산될 수 있고 공칭 시표 크기 및 거리를 가정하여 사용자가 식별한 시표의 비율 및 크기에 기초하여 계산될 수 있다.
일부 실시예에서, 시력 교정 계산이 결정되어 시력 점수에 적용될 수 있다. 위에서 언급한 바와 같이, 시력 교정 계산은 사용자가 검사를 완료한 후 그러나 의사, 임상의 또는 다른 전문가가 점수를 검토하기 전에 시력 검사 점수에 적용될 수 있지만, 당업자는 시력 교정 계산이 다른 시간에 결정될 수 있다는 것을 이해할 것이다. 시력 교정 계산을 결정하는 일례는 에 따라 각도 분해능 θ를 결정하는 것을 포함하며, θ*는 공칭(또는 목표) 거리 d*에서의 최소 분해능 각도(MAR)이고, d는 사용자가 실제로 시력 검사를 수행하는 거리이다.
위 수학식의 양변에 밑이 10인 로그를 취하면 다음과 같다:
A*는 처음 측정된 시력(logMAR로 측정)이고 A는 거리 d에 있는 피검자의 교정 시력이다.
이상, 본 개시의 다양한 실시예가 설명되었지만, 이는 예시로서만 제시된 것이며 제한하려는 것이 아니라는 점을 이해해야 한다. 마찬가지로, 다양한 다이어그램은 당업자가 본 개시의 예시적인 특징 및 기능을 이해할 수 있게 하도록 제공되는 예시적인 아키텍처 또는 구성을 묘사할 수 있다. 그러나, 그러한 당업자는 본 개시가 예시된 예시적인 아키텍처 또는 구성에 제한되지 않고, 다양한 대안적인 아키텍처 및 구성을 사용하여 구현될 수 있다는 것을 이해할 것이다. 추가적으로, 당업자가 이해하는 바와 같이, 하나의 실시예의 하나 이상의 특징은 본 명세서에 설명된 다른 실시예의 하나 이상의 특징과 결합될 수 있다. 따라서, 본 개시의 폭과 범위는 전술한 예시적인 실시예 중 임의의 실시예에 의해 제한되어서는 안 된다.
또한, "제1", "제2" 등과 같은 지정을 사용하는 본 명세서의 요소에 대한 임의의 언급은 일반적으로 해당 요소의 수량 또는 순서를 제한하지 않는 것으로 이해된다. 오히려, 이러한 지정은 본 명세서에서 둘 이상의 요소 또는 요소의 인스턴스를 구별하는 편리한 수단으로 사용된다. 따라서, 제1 및 제2 요소에 대한 참조는 두 개의 요소만 사용될 수 있거나 어떤 방식으로든 제1 요소가 제2 요소보다 앞에 있어야 함을 의미하지 않는다.
당업자는 본 명세서에 개시된 양상과 관련하여 설명된 다양한 예시적인 논리 블록, 모듈, 프로세서, 수단, 회로, 방법 및 기능 중 임의의 것이 전자 하드웨어(예를 들어, 디지털 구현, 아날로그 구현 또는 이 둘의 조합), 펌웨어, 명령어를 포함하는 다양한 형태의 프로그램 또는 설계 코드(여기에서는 편의상 "소프트웨어" 또는 "소프트웨어 모듈"이라고 지칭할 수 있음) 또는 이들 기법의 임의의 조합에 의해 구현될 수 있다는 것을 더 알 것이다.
하드웨어, 펌웨어 및 소프트웨어의 이 상호교환성을 명확하게 설명하기 위해, 다양한 예시적인 컴포넌트, 블록, 모듈, 회로 및 단계가 일반적으로 이들의 기능 측면에서 설명되었다. 이러한 기능이 하드웨어, 펌웨어, 소프트웨어 또는 이들 기법의 조합으로 구현되는지 여부는 전체 시스템에 부과되는 특정 애플리케이션 및 설계 제약 조건에 의존한다. 숙련된 기술자는 각각의 특정 애플리케이션에 대해 다양한 방식으로 설명된 기능을 구현할 수 있지만, 그러한 구현 결정은 본 개시의 범위로부터 벗어나게 하지 않는다. 다양한 실시예에 따르면, 프로세서, 장치, 컴포넌트, 회로, 구조, 기계, 모듈 등은 본 명세서에 설명된 기능 중 하나 이상을 수행하도록 구성될 수 있다. 명시된 동작이나 기능과 관련하여 본 명세서에서 사용된 "~로 구성된" 또는 "~을 위해 구성된"이라는 용어는 명시된 동작이나 기능을 수행하도록 물리적으로 구성되고, 프로그래밍되고, 배열 및/또는 형식이 지정된 프로세서, 장치, 컴포넌트, 회로, 구조, 기계, 모듈, 신호 등을 지칭한다.
또한, 당업자는 본 명세서에 설명된 다양한 예시적인 논리 블록, 모듈, 장치, 컴포넌트 및 회로가 디지털 신호 프로세서(“DSP”), 주문형 집적 회로(“ASIC”), 필드 프로그래밍 가능 게이트 어레이(“FPGA”) 또는 기타 프로그래밍 가능 로직 장치, 또는 이들의 조합을 포함할 수 있는 집적 회로("IC") 내에서 구현되거나 수행될 수 있다는 것을 이해할 것이다. 논리 블록, 모듈 및 회로는 네트워크 또는 장치 내의 다양한 컴포넌트와 통신하기 위한 안테나 및/또는 트랜시버를 더 포함할 수 있다. 본 명세서의 기능을 수행하도록 프로그래밍된 프로세서는 특수하게 프로그래밍되거나 특수 목적 프로세서가 될 것이며, 컴퓨팅 장치의 조합, 예를 들어, DSP와 마이크로프로세서의 조합, 복수의 마이크로프로세서, DSP 코어와 함께 하나 이상의 마이크로프로세서 또는 본 명세서에 설명된 기능을 수행하기 위한 기타 적절한 구성으로서 구현될 수 있다.
소프트웨어로 구현되는 경우, 기능은 컴퓨터 판독가능 매체에 하나 이상의 명령어 또는 코드로서 저장될 수 있다. 따라서, 본 명세서에 개시된 방법 또는 알고리즘의 단계는 컴퓨터 판독가능 매체에 저장된 소프트웨어로서 구현될 수 있다. 컴퓨터 판독가능 매체는 컴퓨터 프로그램이나 코드를 한 곳에서 다른 곳으로 전송할 수 있는 임의의 매체를 포함하는 컴퓨터 저장 매체 및 통신 매체를 모두 포함한다. 저장 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체가 될 수 있다. 예를 들어, 이러한 컴퓨터 판독가능 매체는 RAM, ROM, EEPROM, CD-ROM 또는 기타 광학 디스크 저장 장치, 자기 디스크 저장 장치 또는 기타 자기 저장 장치, 또는 원하는 프로그램 코드를 명령어 또는 데이터 구조 형태로 저장하는 데 사용될 수 있고 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있지만 이에 제한되지는 않는다.
본 문서에서, 본 명세서에 사용된 "모듈"이라는 용어는 본 명세서에 설명된 관련 기능을 수행하기 위한 소프트웨어, 펌웨어, 하드웨어 및 이러한 요소의 임의의 조합을 지칭할 수 있다. 또한, 설명을 위해, 다양한 모듈이 별개의 모듈로 설명되지만, 당업자에게 명백한 바와 같이, 2개 이상의 모듈이 결합되어 본 개시의 실시예에 따른 연관된 기능을 수행하는 단일 모듈을 형성할 수 있다.
본 개시에 설명된 구현에 대한 다양한 수정은 당업자에게 쉽게 명백할 것이며, 본 명세서에 정의된 일반 원리는 본 개시의 범위를 벗어나지 않고 다른 구현에 적용될 수 있다. 따라서, 본 개시는 본 명세서에 도시된 구현으로 제한되도록 의도되지 않고, 본 명세서에 개시된 신규 특징 및 원리와 일치하는 가장 넓은 범위에 부합되어야 한다.

Claims (54)

  1. 적어도 프로세서, 카메라 및 디스플레이 화면을 갖는 모바일 장치에서 구현되는 사용자의 시력을 평가하기 위한 방법으로서,
    상기 사용자와 상기 모바일 장치의 디스플레이 화면이 모두 거울을 향하고 있도록 상기 사용자에게 상기 모바일 장치를 홀딩하도록 안내하는 단계와,
    상기 모바일 장치의 카메라를 사용하여, 상기 거울에 반사된 상기 모바일 장치의 적어도 하나의 이미지를 캡처하는 단계와,
    상기 적어도 하나의 이미지에 기초하여 상기 사용자를 상기 거울로부터 사전결정된 거리까지 상호작용식으로 안내하는 단계와,
    상기 사용자가 상기 거울로부터 상기 사전결정된 거리에 있다고 결정할 때 상기 디스플레이 화면에 자료를 제시하는 단계 - 상기 디스플레이 화면에 제시되는 상기 자료는 상기 사용자의 시력의 적어도 하나의 특성을 평가하기 위한 것임 - 와,
    상기 디스플레이 화면에 제시되고 상기 거울에 반사된 상기 자료에 응답하여 상기 사용자로부터 입력을 수신하는 단계를 포함하는,
    방법.
  2. 제1항에 있어서,
    상기 모바일 장치는 상기 사용자에 의해 대략 수직, 수평 또는 대각선 방향으로 홀딩되고 상기 거울과 대략 평행하며,
    상기 카메라와 상기 디스플레이 화면은 상기 모바일 장치의 같은 쪽에 위치되는,
    방법.
  3. 제1항에 있어서,
    상기 적어도 하나의 이미지를 캡처하고 상기 사용자가 상기 거울로부터 현재 거리에 있을 때 상기 디스플레이 화면에 참조 패턴을 제시하는 단계와,
    상기 카메라의 초점 거리, 상기 적어도 하나의 이미지 및 상기 참조 패턴의 사전결정된 물리적 크기에 기초하여 상기 사용자와 상기 거울 사이의 현재 거리를 결정하는 단계를 더 포함하되,
    상기 사용자는 상기 현재 거리에 기초하여 상기 거울로부터 상기 사전결정된 거리까지 상호작용식으로 안내되는,
    방법.
  4. 제3항에 있어서,
    상기 현재 거리를 결정하는 단계는,
    상기 참조 패턴을 전처리하여 상기 참조 패턴의 적어도 하나의 후보 형상을 포함하는 이진 이미지를 생성하는 단계와,
    상기 적어도 하나의 이미지에서 상기 참조 패턴의 위치 파악을 수행하는 단계와,
    상기 적어도 하나의 이미지로부터 상기 참조 패턴의 분할을 수행하는 단계를 포함하는,
    방법.
  5. 제4항에 있어서,
    상기 참조 패턴은 고정된 참조 색상을 갖는 정적 단색 패턴을 포함하고,
    상기 적어도 하나의 이미지는 상기 거울에 반사된 상기 참조 패턴의 이미지를 포함하며,
    상기 참조 패턴을 전처리하는 것은,
    상기 이미지와 상기 고정된 참조 색상 간의 픽셀 단위 차이를 계산하여 차이 이미지를 생성하는 것과,
    상기 차이 이미지를 사전결정된 값으로 역임계값화하여 상기 참조 패턴의 적어도 하나의 후보 형상을 포함하는 상기 이진 이미지를 생성하는 것을 포함하는,
    방법.
  6. 제5항에 있어서,
    상기 참조 패턴은 RGB 성분이 (0, 255, 255)인 청록색을 가지며, 검은색 경계로 둘러싸인,
    방법.
  7. 제4항에 있어서,
    상기 참조 패턴은 사전결정된 방식으로 시변하는 참조 색상을 갖는 동적 단색 패턴을 포함하고,
    상기 참조 패턴은 사전결정된 프레임 레이트로 각각 상이한 색상을 갖는 복수의 이미지 프레임을 순환하며,
    상기 적어도 하나의 이미지는 상기 참조 패턴의 이미지 프레임의 전체 사이클을 포함하고,
    상기 이미지 프레임 각각은 각각의 시간 프레임 동안 상기 거울에 반사된 상기 참조 패턴의 이미지이며,
    현재 이미지 프레임에서 상기 참조 패턴을 전처리하는 것은,
    상기 현재 이미지 프레임의 색상과 보색인 색상을 가진 과거 이미지 프레임을 결정하는 것과,
    상기 현재 이미지 프레임의 색조 채널과 상기 과거 이미지 프레임의 색조 채널을 비교하여 색조 차이를 계산하는 것과,
    상기 색조 차이와 상기 현재 이미지 프레임의 강도 채널을 곱하여 차이 이미지를 생성하는 것과,
    상기 차이 이미지를 사전결정된 값으로 임계값화하여 상기 참조 패턴의 적어도 하나의 후보 형상을 포함하는 상기 이진 이미지를 생성하는 것을 포함하는,
    방법.
  8. 제4항에 있어서,
    상기 참조 패턴의 위치 파악을 수행하는 단계는,
    상기 적어도 하나의 이미지로부터 상기 참조 패턴의 상기 적어도 하나의 후보 형상을 분리하는 단계와,
    상기 디스플레이 화면에 제시된 상기 참조 패턴의 형상과 관련된 적어도 하나의 기준에 기초하여 상기 적어도 하나의 후보 형상을 필터링하는 단계와,
    상기 필터링에 기초하여, 상기 적어도 하나의 이미지 각각에서, 상기 참조 패턴의 형상 및 상기 형상을 둘러싸는 경계를 포함하는 관심 영역("ROI")을 결정하는 단계를 포함하는,
    방법.
  9. 제8항에 있어서,
    상기 적어도 하나의 기준은,
    둘러싸는 직사각형에 대한 상기 참조 패턴의 형상은 사전결정된 면적 범위 내의 면적을 갖는 것과,
    상기 둘러싸는 직사각형의 종횡비는 1/3과 3 사이인 것과,
    상기 둘러싸는 직사각형에 대한 상기 형상의 충진율은 적어도 95%인 것
    을 포함하는,
    방법.
  10. 제8항에 있어서,
    상기 참조 패턴의 분할을 수행하는 단계는,
    상기 적어도 하나의 이미지의 강도 채널의 수평 및 수직 기울기를 계산하는 단계와,
    상기 ROI를 왼쪽 서브영역, 오른쪽 서브영역, 위쪽 서브영역 및 아래쪽 서브영역인 4개의 중첩 서브영역으로 나누는 단계와,
    상기 왼쪽 및 오른쪽 서브영역의 각 행에 대해, 상기 수평 기울기의 크기가 가장 큰 열을 결정하여 크기 임계값에 기초하여 왼쪽 및 오른쪽 경계 지점을 생성하는 단계와,
    상기 위쪽 및 아래쪽 서브영역의 각 열에 대해, 상기 수직 기울기의 크기가 가장 큰 행을 결정하여 상기 크기 임계값에 기초하여 위쪽 및 아래쪽 경계 지점을 생성하는 단계와,
    상기 참조 패턴의 에지를 결정하기 위해 상기 경계 지점을 선으로 맞추는 단계와,
    상기 맞취진 선의 교차점을 기반으로 상기 참조 패턴의 코너를 결정하는 단계를 포함하는,
    방법.
  11. 제10항에 있어서,
    상기 현재 거리를 결정하는 단계는,
    상기 참조 패턴의 상기 결정된 에지 및 코너에 기초하여 상기 참조 패턴의 크기를 픽셀 단위로 측정하는 단계와,
    상기 카메라의 초점 거리(픽셀 단위), 상기 참조 패턴의 측정된 크기(픽셀 단위) 및 상기 참조 패턴의 사전결정된 물리적 크기를 기반으로 상기 사용자와 상기 거울 사이의 상기 현재 거리를 계산하는 단계를 더 포함하는,
    방법.
  12. 제11항에 있어서,
    상기 참조 패턴의 상기 사전결정된 물리적 크기는 상기 모바일 장치의 디스플레이 화면의 물리적 크기에 기초하여 사전결정되는,
    방법.
  13. 제3항에 있어서,
    상기 적어도 하나의 이미지는 상기 사용자가 상기 거울로부터 상기 현재 거리에 있을 때 하나의 시간 프레임 동안 모두 캡처된 복수의 이미지를 포함하고,
    상기 현재 거리를 결정하는 단계는,
    상기 복수의 이미지 각각에서 상기 참조 패턴을 전처리하는 단계와,
    상기 복수의 이미지 각각에서 상기 참조 패턴의 위치 파악을 수행하는 단계와,
    상기 복수의 이미지 각각으로부터 상기 참조 패턴의 분할을 수행하여 복수의 분할된 참조 패턴을 생성하는 단계와,
    각각의 분할된 참조 패턴의 크기를 픽셀 단위로 측정하는 단계와,
    각각의 분할된 참조 패턴에 대해, 상기 카메라의 초점 거리(픽셀 단위), 상기 분할된 참조 패턴의 측정된 크기(픽셀 단위) 및 상기 참조 패턴의 사전결정된 물리적 크기에 기초하여 상기 사용자와 상기 거울 사이의 추정된 현재 거리를 결정하여 복수의 추정된 현재 거리를 생성하는 단계와,
    상기 복수의 추정된 현재 거리의 집계에 기초하여 상기 사용자와 상기 거울 사이의 상기 현재 거리를 계산하는 단계 - 상기 집계는 상기 복수의 추정된 현재 거리에 기초하여 평균, 가중 평균 또는 중앙값을 계산하는 것을 포함함 - 를 포함하는,
    방법.
  14. 제3항에 있어서,
    상기 사용자를 상호작용식으로 안내하는 단계는,
    상기 사용자와 상기 거울 사이의 상기 현재 거리의 제1 표시를 상기 디스플레이 화면에 제시하는 단계와,
    상기 사전결정된 거리에 도달했을 때 상기 사용자에게 제2 표시를 제공하는 단계와,
    상기 사용자에게 상기 거울을 기준으로 한 방향으로 이동하라는 명령을 제공하는 단계와,
    상기 참조 패턴의 적어도 일부가 상기 사용자에 의해 차단되는 경우 상기 사용자에게 명령을 제공하는 단계와,
    상기 참조 패턴의 적어도 일부가 상기 사용자에 의해 차단되면 상기 디스플레이 화면에 제시되는 상기 참조 패턴의 크기를 자동으로 조정하는 단계를 포함하는,
    방법.
  15. 제1항에 있어서,
    상기 입력이 상기 사용자의 손 제스처를 포함하는 경우 상기 카메라를 이용하여 상기 사용자로부터의 상기 입력의 비디오를 기록하는 단계와,
    상기 입력이 상기 사용자의 음성을 포함하는 경우, 상기 모바일 장치의 마이크를 이용하여 상기 사용자로부터의 상기 입력의 오디오를 기록하는 단계와,
    상기 기록된 비디오 및 오디오를 기반으로 상기 사용자의 시력의 적어도 하나의 특성을 평가하는 단계를 더 포함하는,
    방법.
  16. 제1항에 있어서,
    상기 사전결정된 거리는 사전결정된 거리 범위 내의 거리인,
    방법.
  17. 제16항에 있어서,
    상기 사전결정된 거리는 상기 사전결정된 거리 범위에서 공칭 거리와 다른,
    방법.
  18. 제17항에 있어서,
    상기 사용자로부터 수신된 입력에 기초하여 상기 사용자에 대한 제1 시력 점수를 결정하는 단계와,
    상기 공칭 거리와 상기 사전결정된 거리의 비율에 적어도 부분적으로 기초하여 상기 사용자에 대한 시력 교정 계산을 결정하는 단계를 더 포함하는,
    방법.
  19. 모바일 장치로서,
    카메라와,
    디스플레이 화면과,
    명령어를 포함하는 메모리와,
    상기 카메라에 결합된 프로세서를 포함하되, 상기 프로세서는 상기 명령어를 실행하여,
    사용자와 상기 모바일 장치의 디스플레이 화면이 모두 상기 사용자 앞의 거울을 향하고 있도록 상기 사용자에게 상기 모바일 장치를 홀딩하도록 안내하고,
    상기 카메라를 사용하여, 상기 거울에 반사된 상기 모바일 장치의 적어도 하나의 이미지를 캡처하며,
    상기 적어도 하나의 이미지에 기초하여 상기 사용자를 상기 거울로부터 사전결정된 거리까지 상호작용식으로 안내하고,
    상기 사용자가 상기 거울로부터 상기 사전결정된 거리에 있다고 결정할 때 상기 디스플레이 화면에 자료를 제시하며 - 상기 디스플레이 화면에 제시되는 상기 자료는 상기 사용자의 시력의 적어도 하나의 특성을 평가하기 위한 것임 - ,
    상기 디스플레이 화면에 제시되고 상기 거울에 반사된 상기 자료에 응답하여 상기 사용자로부터 입력을 수신하도록 구성되는,
    모바일 장치.
  20. 제19항에 있어서,
    상기 모바일 장치는 상기 사용자에 의해 대략 수직, 수평 또는 대각선 방향으로 홀딩되고 상기 거울과 대략 평행하며,
    상기 카메라와 상기 디스플레이 화면은 상기 모바일 장치의 같은 쪽에 위치되는,
    모바일 장치.
  21. 제19항에 있어서,
    상기 프로세서는 또한 상기 명령어를 실행하여,
    상기 적어도 하나의 이미지를 캡처하고 상기 사용자가 상기 거울로부터 현재 거리에 있을 때 상기 디스플레이 화면에 참조 패턴을 제시하고,
    상기 카메라의 초점 거리, 상기 적어도 하나의 이미지 및 상기 참조 패턴의 사전결정된 물리적 크기에 기초하여 상기 사용자와 상기 거울 사이의 현재 거리를 결정하도록 구성되되,
    상기 사용자는 상기 현재 거리에 기초하여 상기 거울로부터 상기 사전결정된 거리까지 상호작용식으로 안내되는,
    모바일 장치.
  22. 제21항에 있어서,
    상기 참조 패턴은 고정된 참조 색상을 갖는 정적 단색 패턴을 포함하고,
    상기 적어도 하나의 이미지는 상기 거울에 반사된 상기 참조 패턴의 이미지를 포함하며,
    상기 현재 거리는,
    차이 이미지를 생성하도록 상기 이미지와 상기 고정된 참조 색상 간의 픽셀 단위 차이와,
    상기 참조 패턴의 적어도 하나의 후보 형상을 포함하는 이진 이미지를 생성하도록 상기 차이 이미지를 사전결정된 값으로 역임계값화하는 것
    에 기초하여 결정되는,
    모바일 장치.
  23. 제21항에 있어서,
    상기 참조 패턴은 사전결정된 방식으로 시변하는 참조 색상을 갖는 동적 단색 패턴을 포함하고,
    상기 참조 패턴은 사전결정된 프레임 레이트로 각각 상이한 색상을 갖는 복수의 이미지 프레임을 순환하며,
    상기 적어도 하나의 이미지는 상기 참조 패턴의 이미지 프레임의 전체 사이클을 포함하고,
    상기 이미지 프레임 각각은 각각의 시간 프레임 동안 상기 거울에 반사된 상기 참조 패턴의 이미지이며,
    상기 현재 거리는 현재 이미지 프레임에서,
    상기 현재 이미지 프레임의 색상과 보색인 색상을 가진 과거 이미지 프레임과,
    상기 현재 이미지 프레임의 색조 채널과 상기 과거 이미지 프레임의 색조 채널의 비교에 기초한 색조 차이와,
    상기 색조 차이와 상기 현재 이미지 프레임의 강도 채널의 곱셈으로서 계산된 차이 이미지와,
    상기 차이 이미지를 사전결정된 값으로 임계값화한 것에 기초하여 생성된, 상기 참조 패턴의 적어도 하나의 후보 형상을 포함하는 이진 이미지
    에 기초하여 결정되는,
    모바일 장치.
  24. 제19항에 있어서,
    상기 사전결정된 거리는 사전결정된 거리 범위 내의 거리인,
    모바일 장치.
  25. 제24항에 있어서,
    상기 사전결정된 거리는 상기 사전결정된 거리 범위에서 공칭 거리와 다른,
    모바일 장치.
  26. 제25항에 있어서,
    상기 프로세서는 상기 명령어를 실행하여,
    상기 사용자로부터 수신된 입력에 기초하여 상기 사용자에 대한 제1 시력 점수를 결정하고,
    상기 공칭 거리와 상기 사전결정된 거리의 비율에 적어도 부분적으로 기초하여 상기 사용자에 대한 시력 교정 계산을 결정하도록 구성되는,
    모바일 장치.
  27. 머신 실행가능 명령어가 구현된 비일시적 머신 판독가능 매체로서,
    상기 머신 실행가능 명령어는, 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 방법을 수행하게 하되, 상기 방법은,
    상기 사용자와 모바일 장치의 디스플레이 화면이 모두 거울을 향하고 있도록 상기 사용자에게 상기 모바일 장치를 홀딩하도록 안내하는 단계와,
    상기 모바일 장치의 카메라를 사용하여, 상기 거울에 반사된 상기 모바일 장치의 적어도 하나의 이미지를 캡처하는 단계와,
    상기 적어도 하나의 이미지에 기초하여 상기 사용자를 상기 거울로부터 사전결정된 거리까지 상호작용식으로 안내하는 단계와,
    상기 사용자가 상기 거울로부터 상기 사전결정된 거리에 있다고 결정할 때 상기 디스플레이 화면에 자료를 제시하는 단계 - 상기 디스플레이 화면에 제시되는 상기 자료는 상기 사용자의 시력의 적어도 하나의 특성을 평가하기 위한 것임 - 와,
    상기 디스플레이 화면에 제시되고 상기 거울에 반사된 상기 자료에 응답하여 상기 사용자로부터 입력을 수신하는 단계를 포함하는,
    비일시적 머신 판독가능 매체.
  28. 제27항에 있어서,
    상기 사전결정된 거리는 사전결정된 거리 범위 내의 거리이고 공칭 거리와 다르며,
    상기 방법은,
    상기 사용자로부터 수신된 입력에 기초하여 상기 사용자에 대한 제1 시력 점수를 결정하는 단계와,
    상기 공칭 거리와 상기 사전결정된 거리의 비율에 적어도 부분적으로 기초하여 상기 사용자에 대한 시력 교정 계산을 결정하는 단계를 포함하는,
    비일시적 머신 판독가능 매체.
  29. 방법으로서,
    모바일 장치의 카메라를 이용하여 사용자의 적어도 하나의 이미지를 캡처하는 단계와,
    상기 적어도 하나의 이미지에 기초하여 상기 사용자를 상기 모바일 장치의 디스플레이 화면으로부터 사전결정된 거리까지 상호작용식으로 안내하는 단계와,
    상기 사용자가 상기 디스플레이 화면으로부터 사전결정된 거리에 있다고 결정할 때 상기 디스플레이 화면에 자료를 제시하는 단계와,
    상기 디스플레이 화면에 제시된 자료에 응답하여 상기 사용자로부터 입력을 수신하는 단계를 포함하되,
    상기 디스플레이 화면에 제시된 자료는 상기 사용자의 시력의 적어도 하나의 특성을 평가하기 위한 것인,
    방법.
  30. 제29항에 있어서,
    상기 모바일 장치는 대략 수직인 표면에 대해 홀딩되고,
    상기 카메라와 상기 디스플레이 화면은 상기 모바일 장치의 같은 쪽에 위치되는,
    방법.
  31. 제29항에 있어서,
    상기 사용자의 적어도 하나의 물리적 길이 특징을 추정하는 단계와,
    상기 카메라의 초점 거리, 상기 적어도 하나의 이미지 및 상기 적어도 하나의 물리적 길이 특징에 기초하여 상기 사용자로부터 상기 모바일 장치의 디스플레이 화면까지의 현재 거리를 결정하는 단계를 더 포함하되,
    상기 사용자는 상기 현재 거리에 기초하여 상기 디스플레이 화면으로부터 상기 사전결정된 거리까지 상호작용식으로 안내되는,
    방법.
  32. 제31항에 있어서,
    상기 적어도 하나의 물리적 길이 특징은 상기 사용자의 물리적 동공 거리("PD")를 포함하는,
    방법.
  33. 제32항에 있어서,
    상기 사용자의 상기 물리적 PD는,
    모집단의 물리적 PD에 기초한 사전결정된 상수 값,
    모집단의 물리적 홍채 직경, 상기 적어도 하나의 이미지에서 측정된 홍채 직경(픽셀 단위) 및 상기 적어도 하나의 이미지에서 상기 사용자의 측정된 PD에 기초한 사전결정된 물리적 홍채 직경의 조합,
    상기 사용자의 상기 적어도 하나의 이미지와 정렬된 깊이 맵, 또는
    상기 적어도 하나의 이미지에 있고 크기 참조로서 알려진 물리적 크기를 갖는 물체
    중 적어도 하나에 기초하여 추정되는,
    방법.
  34. 제32항에 있어서,
    상기 적어도 하나의 이미지는 상기 사용자가 상기 디스플레이 화면으로부터 상기 현재 거리에 있을 때 캡처된 이미지를 포함하고,
    상기 현재 거리를 결정하는 단계는,
    상기 이미지에서 상기 사용자의 동공 사이의 픽셀 PD(픽셀 단위)를 결정하는 단계와,
    상기 카메라의 초점 거리(픽셀 단위), 상기 픽셀 PD(픽셀 단위) 및 상기 물리적 PD를 기반으로 상기 사용자로부터 상기 디스플레이 화면까지의 상기 현재 거리를 계산하는 단계를 포함하는,
    방법.
  35. 제32항에 있어서,
    상기 적어도 하나의 이미지는 각각 상기 사용자가 상기 디스플레이 화면으로부터 상기 현재 거리에 있을 때 캡처된 복수의 이미지를 포함하고,
    상기 현재 거리를 결정하는 단계는,
    상기 복수의 이미지 각각에서, 상기 사용자의 동공 사이의 픽셀 PD(픽셀 단위)를 결정하는 단계와,
    상기 카메라의 초점 거리(픽셀 단위), 상기 픽셀 PD(픽셀 단위) 및 상기 물리적 PD를 기반으로 상기 사용자로부터 상기 디스플레이 화면까지의 추정된 현재 거리를 결정하여 복수의 추정된 현재 거리를 생성하는 단계와,
    상기 복수의 추정된 현재 거리의 집계에 기초하여 상기 사용자로부터 상기 디스플레이 화면까지의 상기 현재 거리를 계산하는 단계 - 상기 집계는 상기 복수의 추정된 현재 거리에 기초하여 평균, 가중 평균 또는 중앙값을 계산하는 것을 포함함 - 를 포함하는,
    방법.
  36. 제31항에 있어서,
    상기 적어도 하나의 물리적 길이 특징은 상기 사용자의 물리적 어깨 너비("SW")를 포함하는,
    방법.
  37. 제36항에 있어서,
    상기 사용자의 상기 물리적 SW는,
    모집단의 물리적 SW에 기초한 사전결정된 상수 값,
    상기 사용자의 상기 적어도 하나의 이미지와 정렬된 깊이 맵, 또는
    상기 적어도 하나의 이미지에 있고 상기 물리적 SW에 대한 크기 참조로서 알려진 물리적 크기를 갖는 물체
    중 적어도 하나에 기초하여 추정되는,
    방법.
  38. 제36항에 있어서,
    상기 적어도 하나의 이미지는 상기 사용자가 상기 디스플레이 화면으로부터 상기 현재 거리에 있을 때 캡처된 이미지를 포함하고,
    상기 현재 거리를 결정하는 단계는,
    상기 이미지에서 상기 사용자의 픽셀 SW(픽셀 단위)를 결정하는 단계와
    상기 카메라의 초점 거리(픽셀 단위), 상기 픽셀 SW(픽셀 단위) 및 상기 물리적 SW를 기반으로 상기 사용자로부터 상기 디스플레이 화면까지의 상기 현재 거리를 계산하는 단계를 포함하는,
    방법.
  39. 제36항에 있어서,
    상기 적어도 하나의 이미지는 각각 상기 사용자가 상기 디스플레이 화면으로부터 상기 현재 거리에 있을 때 캡처된 복수의 이미지를 포함하고,
    상기 현재 거리를 결정하는 단계는,
    상기 복수의 이미지 각각에서, 상기 사용자의 픽셀 SW(픽셀 단위)를 결정하는 단계와,
    상기 복수의 이미지 각각에 대해, 상기 카메라의 초점 거리(픽셀 단위), 상기 픽셀 SW(픽셀 단위) 및 상기 물리적 SW에 기초하여 상기 사용자로부터 상기 디스플레이 화면까지의 추정된 현재 거리를 결정하여 복수의 추정된 현재 거리를 생성하는 단계와,
    상기 복수의 추정된 현재 거리의 집계에 기초하여 상기 사용자로부터 상기 디스플레이 화면까지의 상기 현재 거리를 계산하는 단계 - 상기 집계는 상기 복수의 추정된 현재 거리에 기초하여 평균, 가중 평균 또는 중앙값을 계산하는 것을 포함함 - 를 포함하는,
    방법.
  40. 제31항에 있어서,
    상기 적어도 하나의 이미지는,
    상기 사용자가 상기 디스플레이 화면으로부터 초기 거리에 있을 때 캡처된 제1 이미지, 및
    상기 사용자가 상기 디스플레이 화면으로부터 상기 현재 거리에 있을 때 캡처된 제2 이미지 - 상기 현재 거리는 상기 초기 거리보다 크고, 상기 초기 거리보다 상기 사전결정된 거리에 더 가까움 - 를 포함하고,
    상기 현재 거리를 결정하는 단계는,
    상기 제1 이미지에서, 상기 사용자의 제1 특징의 제1 길이(픽셀 단위) 및 상기 사용자의 제2 특징의 제2 길이(픽셀 단위)를 결정하는 단계와,
    상기 제2 길이와 상기 제1 길이 사이의 제1 비율을 계산하는 단계와,
    상기 제2 이미지에서, 상기 사용자의 상기 제2 특징의 제3 길이(픽셀 단위)를 결정하는 단계와,
    상기 카메라의 초점 거리(픽셀 단위), 상기 제1 비율, 상기 제3 길이(픽셀 단위) 및 상기 제1 특징의 물리적 길이에 기초하여 상기 사용자로부터 상기 디스플레이 화면까지의 상기 현재 거리를 계산하는 단계를 포함하는,
    방법.
  41. 제31항에 있어서,
    상기 적어도 하나의 이미지는,
    상기 사용자가 디스플레이 화면으로부터 초기 거리에 있을 때 캡처된 제1 이미지, 및
    상기 사용자가 상기 디스플레이 화면으로부터 상기 현재 거리에 있을 때 캡처된 제2 이미지 - 상기 현재 거리는 상기 초기 거리보다 크고, 상기 초기 거리보다 사전결정된 거리에 더 가까움 - 를 포함하되,
    상기 현재 거리를 결정하는 단계는,
    상기 제1 이미지에서, 상기 사용자의 제1 특징의 제1 길이(픽셀 단위) 및 상기 사용자의 제2 특징 중 각각의 제2 특징의 복수의 제2 길이(각각 픽셀 단위)를 결정하는 단계와,
    상기 복수의 제2 길이 각각과 상기 제1 길이 사이의 각각의 비율을 계산하는 단계와,
    상기 제2 이미지에서, 상기 사용자의 각각의 제2 특징의 각각의 제3 길이(픽셀 단위)를 결정하는 단계와,
    각각의 제2 특징과 관련하여, 상기 카메라의 초점 거리(픽셀 단위), 상기 각각의 비율, 상기 각각의 제3 길이(픽셀 단위), 및 상기 제1 특징의 물리적 길이에 기초하여 상기 사용자로부터 상기 디스플레이 화면까지의 추정된 현재 거리를 결정하여 복수의 추정된 현재 거리를 생성하는 단계와,
    상기 복수의 추정된 현재 거리의 집계에 기초하여 상기 사용자로부터 상기 디스플레이 화면까지의 상기 현재 거리를 계산하는 단계 - 상기 집계는 상기 복수의 추정된 현재 거리에 기초하여 평균, 가중 평균, 또는 중앙값을 계산하는 것을 포함함 - 를 포함하는,
    방법.
  42. 제41항에 있어서,
    상기 제1 특징은 상기 사용자의 동공 거리("PD")를 포함하고,
    상기 제2 특징은 상기 사용자의 어깨 너비, 상기 사용자의 머리 너비, 상기 사용자의 머리 높이, 또는 사용자의 신장 중 적어도 하나를 포함하는,
    방법.
  43. 제31항에 있어서,
    상기 카메라의 초점 거리는 상기 디스플레이 화면으로부터 알려진 거리에 있는 참조 물체의 이미지에 기초하여 사전결정되는,
    방법.
  44. 제31항에 있어서,
    상기 사용자를 상호작용식으로 안내하는 단계는,
    상기 사용자와 상기 모바일 장치 사이의 상기 현재 거리의 제1 표시를 디스플레이 화면에 제시하는 단계와,
    상기 사전결정된 거리에 도달했을 때 상기 사용자에게 제2 표시를 제공하는 단계와,
    상기 사용자에게 상기 디스플레이 화면을 기준으로 한 방향으로 이동하라는 명령을 제공하는 단계와,
    상기 적어도 하나의 이미지에서 상기 사용자의 상기 적어도 하나의 물리적 길이 특징이 차단되면 상기 사용자에게 명령을 제공하는 단계를 포함하는,
    방법.
  45. 제29항에 있어서,
    상기 사전결정된 거리는 사전결정된 거리 범위 내의 거리이고 공칭 거리와는 다르며,
    상기 방법은,
    상기 사용자로부터 수신된 입력에 기초하여 상기 사용자에 대한 제1 시력 점수를 결정하는 단계와,
    상기 공칭 거리와 상기 사전결정된 거리의 비율에 적어도 부분적으로 기초하여 상기 사용자에 대한 시력 교정 계산을 결정하는 단계를 포함하는,
    방법.
  46. 모바일 장치로서,
    카메라와,
    디스플레이 화면과,
    명령어를 포함하는 메모리와,
    상기 카메라에 결합된 프로세서를 포함하되, 상기 프로세서는 상기 명령어를 실행하여,
    상기 카메라를 이용하여 사용자의 적어도 하나의 이미지를 캡처하고,
    상기 적어도 하나의 이미지에 기초하여 상기 사용자를 상기 디스플레이 화면으로부터 사전결정된 거리까지 상호작용식으로 안내하며,
    상기 사용자가 상기 디스플레이 화면으로부터 상기 사전결정된 거리에 있다고 결정할 때 상기 디스플레이 화면에 상기 사용자의 시력의 적어도 하나의 특성을 평가하기 위한 자료를 제시하고,
    상기 디스플레이 화면에 제시된 자료에 응답하여 상기 사용자로부터 입력을 수신하도록 구성되는,
    모바일 장치.
  47. 제46항에 있어서,
    상기 모바일 장치는 대략 수직인 표면에 대해 홀딩되고,
    상기 카메라와 상기 디스플레이 화면은 상기 모바일 장치의 같은 쪽에 위치되며,
    상기 사전결정된 거리는 약 10 피트인,
    모바일 장치.
  48. 제46항에 있어서,
    상기 프로세서는 또한 상기 명령어를 실행하여,
    상기 사용자의 적어도 하나의 물리적 길이 특징을 추정하고,
    상기 카메라의 초점 거리, 상기 적어도 하나의 이미지 및 상기 적어도 하나의 물리적 길이 특징에 기초하여 상기 사용자로부터 상기 모바일 장치의 디스플레이 화면까지의 현재 거리를 결정하도록 구성되되,
    상기 사용자는 상기 현재 거리에 기초하여 상기 디스플레이 화면으로부터 상기 사전결정된 거리까지 상호작용식으로 안내되는,
    모바일 장치.
  49. 제46항에 있어서,
    상기 적어도 하나의 물리적 길이 특징은 상기 사용자의 동공 거리("PD")를 포함하는,
    모바일 장치.
  50. 제49항에 있어서,
    상기 적어도 하나의 이미지는 상기 사용자가 상기 디스플레이 화면으로부터 상기 현재 거리에 있을 때 캡처된 이미지를 포함하고,
    상기 현재 거리는,
    상기 이미지에서 상기 사용자의 동공 사이의 픽셀 PD(픽셀 단위)를 결정하는 것과,
    상기 카메라의 초점 거리(픽셀 단위), 상기 픽셀 PD(픽셀 단위) 및 상기 물리적 PD를 기반으로 상기 사용자로부터 상기 디스플레이 화면까지의 상기 현재 거리를 계산하는 것
    에 기초하여 결정되는,
    모바일 장치.
  51. 제48항에 있어서,
    상기 적어도 하나의 이미지는,
    상기 사용자가 상기 디스플레이 화면으로부터 초기 거리에 있을 때 캡처된 제1 이미지, 및
    상기 사용자가 상기 디스플레이 화면으로부터 상기 현재 거리에 있을 때 캡처된 제2 이미지 - 상기 현재 거리는 상기 초기 거리보다 크고, 상기 초기 거리보다 상기 사전결정된 거리에 더 가까움 - 를 포함하고,
    상기 현재 거리는,
    상기 제1 이미지에서, 상기 사용자의 제1 특징의 제1 길이(픽셀 단위) 및 상기 사용자의 제2 특징의 제2 길이(픽셀 단위)를 결정하는 것과,
    상기 제2 길이와 상기 제1 길이 사이의 제1 비율을 계산하는 것과,
    상기 제2 이미지에서, 상기 사용자의 상기 제2 특징의 제3 길이(픽셀 단위)를 결정하는 것과,
    상기 카메라의 초점 거리(픽셀 단위), 상기 제1 비율, 상기 제3 길이(픽셀 단위) 및 상기 제1 특징의 물리적 길이에 기초하여 상기 사용자로부터 상기 디스플레이 화면까지의 상기 현재 거리를 계산하는 것
    에 기초하여 결정되는,
    모바일 장치.
  52. 제46항에 있어서,
    상기 사전결정된 거리는 사전결정된 거리 범위 내의 거리이고 공칭 거리와는 다르며,
    상기 프로세서는 명령어를 실행하여,
    상기 사용자로부터 수신된 입력에 기초하여 상기 사용자에 대한 제1 시력 점수를 결정하고,
    상기 공칭 거리와 상기 사전결정된 거리의 비율에 적어도 부분적으로 기초하여 상기 사용자에 대한 시력 교정 계산을 결정하도록 구성되는,
    모바일 장치.
  53. 머신 실행가능 명령어가 구현된 비일시적 머신 판독가능 매체로서,
    상기 머신 실행가능 명령어는, 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 방법을 수행하게 하되, 상기 방법은,
    모바일 장치의 카메라를 이용하여 사용자의 적어도 하나의 이미지를 캡처하는 단계와,
    상기 적어도 하나의 이미지에 기초하여 상기 사용자를 상기 모바일 장치의 디스플레이 화면으로부터 사전결정된 거리까지 상호작용식으로 안내하는 단계와,
    상기 사용자가 상기 디스플레이 화면으로부터 사전결정된 거리에 있다고 결정할 때 상기 디스플레이 화면에 상기 사용자의 시력의 적어도 하나의 특성을 평가하기 위한 자료를 제시하는 단계와,
    상기 디스플레이 화면에 제시된 자료에 응답하여 상기 사용자로부터 입력을 수신하는 단계를 포함하는,
    비일시적 머신 판독가능 매체.
  54. 제53항에 있어서,
    상기 사전결정된 거리는 사전결정된 거리 범위 내의 거리이고 공칭 거리와는 다르며,
    상기 방법은,
    상기 사용자로부터 수신된 입력에 기초하여 상기 사용자에 대한 제1 시력 점수를 결정하는 단계와,
    상기 공칭 거리와 상기 사전결정된 거리의 비율에 적어도 부분적으로 기초하여 상기 사용자에 대한 시력 교정 계산을 결정하는 단계를 포함하는,
    비일시적 머신 판독가능 매체.
KR1020247004477A 2021-07-07 2022-07-06 시력 검사 시스템 및 방법과 그 용도 KR20240032107A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202163219327P 2021-07-07 2021-07-07
US63/219,327 2021-07-07
PCT/US2022/036180 WO2023283217A2 (en) 2021-07-07 2022-07-06 Systems and methods for vision test and uses thereof

Publications (1)

Publication Number Publication Date
KR20240032107A true KR20240032107A (ko) 2024-03-08

Family

ID=84802081

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020247004477A KR20240032107A (ko) 2021-07-07 2022-07-06 시력 검사 시스템 및 방법과 그 용도

Country Status (7)

Country Link
US (1) US20230020578A1 (ko)
EP (1) EP4366600A2 (ko)
KR (1) KR20240032107A (ko)
CN (1) CN117915820A (ko)
CA (1) CA3225479A1 (ko)
IL (1) IL309875A (ko)
WO (1) WO2023283217A2 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116421135A (zh) * 2023-04-27 2023-07-14 北京京东拓先科技有限公司 视力测试方法、装置、电子设备及存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI108210B (fi) * 2000-03-24 2001-12-14 Markku Leinonen Menetelmä lukukyvyn mittaamiseksi ja apuväline sitä varten
GB2474536B (en) * 2009-10-13 2011-11-02 Pointgrab Ltd Computer vision gesture based control of a device
US9060718B2 (en) * 2012-02-13 2015-06-23 Massachusetts Institute Of Technology Methods and apparatus for retinal imaging
US9532709B2 (en) * 2015-06-05 2017-01-03 Jand, Inc. System and method for determining distances from an object
CN116171123A (zh) * 2020-07-15 2023-05-26 依视路国际公司 用于评估人的视敏度的方法和系统

Also Published As

Publication number Publication date
CN117915820A (zh) 2024-04-19
IL309875A (en) 2024-03-01
EP4366600A2 (en) 2024-05-15
WO2023283217A3 (en) 2023-02-23
CA3225479A1 (en) 2023-01-12
US20230020578A1 (en) 2023-01-19
WO2023283217A2 (en) 2023-01-12

Similar Documents

Publication Publication Date Title
EP3195595B1 (en) Technologies for adjusting a perspective of a captured image for display
US9291834B2 (en) System for the measurement of the interpupillary distance using a device equipped with a display and a camera
US20190107724A1 (en) Computer display device mounted on eyeglasses
US20140055342A1 (en) Gaze detection apparatus and gaze detection method
CN106415445A (zh) 用于观看者关注区域估计的技术
US11181978B2 (en) System and method for gaze estimation
CN109478227A (zh) 计算设备上的虹膜或其他身体部位识别
JP6984071B6 (ja) 器具なしレンズメータシステム
US11585724B2 (en) Fixtureless lensmeter system
US10326972B2 (en) Three-dimensional image generation method and apparatus
KR20240032107A (ko) 시력 검사 시스템 및 방법과 그 용도
TWI603225B (zh) 液晶顯示器顯示視角的調整方法和裝置
US20240135586A1 (en) Calibration method of a portable electronic device
KR20230106800A (ko) 증강현실 구현 디스플레이 장치 및 방법
CN110674666A (zh) 瞳距运算装置及方法
US20170310944A1 (en) Input/output device, input/output program, and input/output method
KR20150138659A (ko) 홀로그래피 터치 방법 및 프로젝터 터치 방법