KR102566239B1 - 사람의 자세적 및 시각적 행위를 결정하기 위한 방법 - Google Patents

사람의 자세적 및 시각적 행위를 결정하기 위한 방법 Download PDF

Info

Publication number
KR102566239B1
KR102566239B1 KR1020207001728A KR20207001728A KR102566239B1 KR 102566239 B1 KR102566239 B1 KR 102566239B1 KR 1020207001728 A KR1020207001728 A KR 1020207001728A KR 20207001728 A KR20207001728 A KR 20207001728A KR 102566239 B1 KR102566239 B1 KR 102566239B1
Authority
KR
South Korea
Prior art keywords
person
images
context
optical
data
Prior art date
Application number
KR1020207001728A
Other languages
English (en)
Other versions
KR20200036853A (ko
Inventor
컁 오렐리 르
세바스티앙 프리커
Original Assignee
에씰로 앙터나시오날
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에씰로 앙터나시오날 filed Critical 에씰로 앙터나시오날
Publication of KR20200036853A publication Critical patent/KR20200036853A/ko
Application granted granted Critical
Publication of KR102566239B1 publication Critical patent/KR102566239B1/ko

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/024Methods of designing ophthalmic lenses
    • G02C7/025Methods of designing ophthalmic lenses considering parameters of the viewed object
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/145Arrangements specially adapted for eye photography by video means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/024Methods of designing ophthalmic lenses
    • G02C7/027Methods of designing ophthalmic lenses considering wearer's parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Eyeglasses (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 사람의 자세적 및 시각적 행위를 결정하는 방법에 관한 것으로, 방법은: - 사람의 복수의 이미지가 수신되는 사람 이미지 수신 단계, - 사람의 복수의 이미지가 사람이 복수의 이미지의 각각의 이미지 상에 있는 콘텍스트를 나타내는 콘텍스트 데이터를 결정하도록 분석되는 콘텍스트 결정 단계, - 사람의 복수의 이미지가 사람의 적어도 하나의 안구 운동 파라미터를 결정하도록 분석되는 분석 단계, - 사람의 자세적 및 시각적 행위가 적어도 하나의 안구 운동 파라미터 및 콘텍스트 데이터에 적어도 기반하여 결정되는 자세적 및 시각적 행위 결정 단계를 포함한다.

Description

사람의 자세적 및 시각적 행위를 결정하기 위한 방법
본 발명은 사람의 자세적 및 시각적 행위를 결정하기 위한 방법, 본 발명의 방법에 의해 얻어지는 사람에 대해 적응되는 광학 렌즈, 광학 기능이 본 발명의 방법에 의해 얻어지는 광학 기능에 기반하여 적응되는 프로그래밍 가능 광학 렌즈, 및 본 발명의 방법에 상응하는 명령어의 하나 이상의 저장된 시퀀스를 포함하는 컴퓨터 프로그램 제품에 관한 것이다.
통상적으로, 안경류 장비를 갖기를 원하는 사람은 눈 관리 의사에게로 간다.
눈 관리 의사는 광학 연구실로 주문 요청을 송신함으로써 광학 연구실에서의 안경류 장비를 주문한다. 주문 요청은 사람 데이터, 예를 들어 사람의 처방, 안경 프레임 데이터, 예를 들어 사람이 선택했던 안경 프레임의 타입, 및 렌즈 데이터, 예를 들어 사람이 선택했던 광학 렌즈의 타입을 포함한다.
광학 연구실은 주문 요청을 수신하고 주문 요청을 광학 렌즈 설계자 소프트웨어로 송신한다. 렌즈 설계자 소프트웨어는 사람에게 제공될 광학 렌즈의 설계를 계산하는데 주문 요청에 포함되는 데이터의 일부를 사용한다. 렌즈 설계자 소프트웨어에 의해 결정되는 광학 설계는 광학 연구실로 송신되고 광학 렌즈는 계산된 설계에 기반하여 제조된다.
제조된 광학 렌즈는 주문 요청에 따라 광학 처리를 추가하도록 처리될 수 있다.
광학 렌즈는 그 다음 눈 관리 의사에게로 송신된다. 광학 렌즈는 눈 관리 의사에게로 송신되고 안경 프레임 상에 장착되기 이전에 안경 프레임에 맞추어지도록 에징될 수 있다.
현재의 광학 렌즈 전달 과정은 일부 결점을 제공한다.
최근 몇년간, 새로운 광학 설계가 발명되었다. 이러한 새로운 광학 설계는 사람에 따라 점점 더 많이 맞춤화된다. 그러한 맞춤화된 광학 설계를 계산하기 위해, 렌즈 설계자는 사람에 대한 점점 더 많은 데이터를 필요로 한다. “광학 설계”란 표현은 안과용 렌즈의 광선 굴절 기능을 한정하는 것을 가능하게 하는 파라미터의 세트를 지정한다. 일반적으로, 사람과 관련하는 데이터는 매우 표준적인 환경에서 측정되거나 수치가 구해진다. 전형적으로, 눈 관리 전문가는 평균 상황에 상응하는 표준 테스트의 세트를 수행한다. 예를 들어, 원거리 보기 처방을 결정할 때, 눈 관리 전문가는 대략 5 미터의 거리에서 테스트 인지 문자 아래에 사람을 둔다.
근거리 보기 처방을 결정할 때, 눈 관리 전문가는 착용자가 대략 40 ㎝에서 텍스트를 판독하게 할 수 있다.
통상적으로, 시력 테스트의 대부분은 맞춤화되지 않는다.
광학 기능의 맞춤화의 일 예는 특허 출원 EP1834206에 개시되는 바와 같이 제공될 광학 기능을 적응시키기 위해 깜박이는 광을 바라 볼 때의 사람의 상대적 머리 및 눈 움직임을 고려하고 있다.
사람의 머리 및 눈의 상대적 움직임의 측정은 통상적으로 표준 환경, 예를 들어 눈 관리 전문가 연구실에서 수행된다.
예시된 바와 같이, 착용자 파라미터의 대부분의 결정은 매우 표준적인 환경에서 행해진다.
광학 설계의 최근의 개발은 파라미터가 결정되는 조건을 맞춤화하는 것이 광학 기능의 영향을 가질 수 있는 지점까지 광학 기능의 훨씬 더 우수한 맞춤화를 가능하게 한다.
그러므로, 사람의 자세적 및 시각적 행위와 같은 그리고 구현하기에 용이하고 즉각적인 맞춤화된 파라미터를 결정하는 방법에 대한 요구가 있다.
본 발명의 한가지 목적은 그러한 방법을 제공하는 것이다.
이러한 목적으로, 본 발명은 사람의 자세적 및 시각적 행위를 결정하는 방법을 제안하며, 방법은:
- 사람의 복수의 이미지가 수신되는 사람 이미지 수신 단계,
- 사람의 복수의 이미지가 사람이 복수의 이미지의 각각의 이미지 상에 있는 콘텍스트(context)를 나타내는 콘텍스트 데이터를 결정하도록 분석되는 콘텍스트 결정 단계,
- 사람의 복수의 이미지가 사람의 적어도 하나의 안구 운동 파라미터를 결정하도록 분석되는 분석 단계,
- 사람의 자세적 및 시각적 행위가 적어도 하나의 안구 운동 파라미터 및 콘텍스트 데이터에 적어도 기반하여 결정되는 자세적 및 시각적 행위 결정 단계를 포함한다.
유리하게는, 본 발명의 방법은 콘텍스트와 관련하여 결정되는 사람의 안구 운동 파라미터에 기반하여 자세적 및 시각적 행위를 결정하는 것을 가능하게 한다. 전형적으로, 안구 운동 파라미터들은 상이한 시각적 환경에서 또는 사람이 상이하거나 특정한 활동들을 수행하게 하는 동안 결정된다.
사람의 이미지들은 전형적으로 사람 그 자신에 의해 제공되고, 사람이 대부분의 경우이거나 사람이 특정 광학 기능을 갖기를 원하는 콘텍스트를 나타내는 이미지들일 수 있다.
예를 들어, 사람이 외부에서 체스를 하는 것을 좋아하면, 본 발명의 방법에서 수신되는 이미지는 상기 사람이 외부에서 체스를 하는 것의 이미지들일 수 있다. 안구 운동 파라미터들은 제공된 이미지들에 기반하여 결정되고 사람의 자세적 및 시각적 행위를 결정하는데 사용될 수 있다. 유리하게는, 안구 운동 파라미터들은 자세적 및 시각적 행위의 정확한 결정을 가능하게 하는 “실생활” 콘텍스트에서 결정된다. 더욱이, 본 발명의 방법은 사람의 생활에서의 상이한 시간에 상응하는 이미지들이 수신되면, 시간이 지남에 따른 안구 운동 파라미터들의 진전을 비교하는 것을 가능하게 한다.
게다가, 본 발명의 방법은 자세적 및 시각적 행위에 기반하여 광학 렌즈들의 부적절한 활용 및/또는 사람에 대해 적응되지 않는 광학 렌즈들의 활용과 같은 렌즈 활용 이례를 결정하는 것을 가능하게 한다.
더욱이, 본 발명의 방법은 자세적 및 시각적 행위에 기반하여 착용자에 대해 적응되는 광학 기능을 결정하는 것을 가능하게 한다.
단독으로 또는 조합으로 고려될 수 있는 추가 실시예들에 따르면:
- 방법은:
- 기준 자세적 및 시각적 행위 데이터가 수신되는 기준 자세적 및 시각적 행위 데이터 수신 단계로서, 기준 자세적 및 시각적 행위 데이터는 기준 사람에게 적응되는 특정 처방의 렌즈들을 착용하는 상기 기준 사람의 적절한 자세적 및 시각적 행위에 상응하는 단계, 및
- 기준 자세적 및 시각적 행위 데이터, 및 사람의 자세적 및 시각적 행위가 렌즈 활용 이례를 결정하도록 비교되는 비교 단계로서, 렌즈 활용 이례는 렌즈들의 부적절한 활용 및/또는 사람에 대해 적응되지 않는 렌즈들의 활용을 지칭하는 단계를 더 포함하고/하거나;
- 방법은
- 사람의 처방 데이터가 수신되는 처방 데이터 수신 단계, 및
- 착용자에 대해 적응되는 광학 기능이 처방 데이터, 및 사람의 자세적 및 시각적 행위에 적어도 기반하여 결정되는 광학 기능 결정 단계를 더 포함하고/하거나;
- 광학 기능은 적어도 하나의 콘텍스트에서 사람에 대해 적응되고/되거나;
- 광학 기능 결정 단계 동안, 사람에 대해 적응되는 광선 굴절 기능이 결정되고/되거나;
- 광학 기능 결정 단계 동안, 사람에 대해 적응되는 전기 변색 기능이 결정되고/되거나;
- 사람 이미지 수신 단계 동안 수신되는 사람의 복수의 이미지는 적어도 하나의 원거리 이미지 데이터베이스로부터 수신되고/되거나;
- 사람 이미지 수신 단계 동안 수신되는 사람의 복수의 이미지는 사람의 안면의 적어도 일부, 예를 들어 적어도 사람의 눈들을 포함하고/하거나;
- 사람 이미지 수신 단계 동안 수신되는 사람의 복수의 이미지는 사람의 정적 이미지들 및/또는 영상들을 포함하고/하거나;
- 적어도 하나의 안구 운동 파라미터는 사람의 응시 방향과 적어도 관련하고/하거나;
- 적어도 하나의 안구 운동 파라미터는 사람의 응시 거리와 적어도 관련하고/하거나;
- 적어도 하나의 안구 운동 파라미터는 사람의 머리의 위치 및 배향과 적어도 관련하고/하거나;
- 콘텍스트 데이터는 이미지들 상의 사람에 의해 수행되는 활동과 관련하고/하거나;
- 콘텍스트 데이터는 이미지들 상의 사람의 시각적 환경과 관련하고/하거나;
- 방법은:
- 콘텍스트 결정 단계 이전의 적어도 하나의 콘텍스트를 나타내는 콘텍스트 데이터가 수신되는 콘텍스트 데이터 수신 단계, 및
- 콘텍스트 결정 단계에 추가로 적어도 하나의 콘텍스트에서의 적어도 한 명의 사람의 복수의 이미지가 선택되는 이미지 선택 단계를 더 포함하며,
- 분석 단계 동안, 적어도 한 명의 사람의 선택된 복수의 이미지가 분석되고/되거나;
- 방법은 콘텍스트 결정 및 분석 단계들 이전의 단일 시력 안과용 렌즈들을 착용하거나 어떤 안과용 렌즈들도 착용하지 않는 사람의 이미지들이 선택되는 이미지 선택 단계를 더 포함하고, 콘텍스트 결정 및 분석 단계들은 선택된 이미지들 상에서 수행되고/되거나;
- 방법은 광학 기능 결정 단계 동안 결정되는 광학 기능이 프로그래밍 가능 렌즈의 광학 기능을 제어하도록 구성되는 프로그래밍 가능 렌즈 디바이스 제어기로 송신되는 광학 기능 송신 단계를 더 포함하고/하거나;
- 방법은 광학 기능 결정 단계 동안 결정되는 광학 기능을 갖는 광학 렌즈가 제조되는 제조 단계를 더 포함한다.
본 발명은 또한 사람에 대한 안과용 렌즈를 제조하는 방법에 관한 것이며, 방법은:
- 안과용 렌즈의 광학 기능이 본 발명에 따른 방법을 이용하여 결정되는 광학 기능 결정 단계, 및
- 광학 렌즈가 제조되는 제조 단계를 포함한다.
본 발명은 추가로 본 발명에 따른 방법에 의해 얻어지는 사람에 대해 적응되는 광학 렌즈에 관한 것이다.
본 발명은 추가로 프로세서에 액세스 가능하고 프로세서에 의해 실행될 때, 적어도 본 발명에 따른 방법의 단계들을 프로세서가 수행하게 하는 명령어들의 하나 이상의 저장된 시퀀스를 포함하는 컴퓨터 프로그램 제품에 관한 것이다.
본 발명은 또한 프로그램이 적어도 본 발명의 방법의 단계들을 컴퓨터가 수행하게 하는: 내부에 기록되는 프로그램을 갖는 컴퓨터 판독 가능 저장 매체에 관한 것이다.
본 발명은 추가로 명령어들의 하나 이상의 시퀀스를 저장하고 적어도 본 발명에 따른 방법의 단계들을 수행하도록 구성되는 프로세서를 포함하는 디바이스에 관한 것이다.
본 발명의 내용에 포함됨.
본 발명의 실시예들을 이제 예로서만, 그리고 이하의 도면들을 참조하여 설명할 것이다:
- 도 1은 본 발명에 따른 방법을 나타내는 흐름도이다.
도 1에 도시된 바와 같이, 본 발명에 따른 사람의 자세적 및 시각적 행위를 결정하는 방법은:
- 사람 이미지 수신 단계(S1),
- 콘텍스트 결정 단계(S2),
- 분석 단계(S3),
- 자세적 및 시각적 행위 결정 단계(S4)를 포함한다.
사람 이미지 수신 단계(S1) 동안, 사람의 복수의 이미지가 수신된다.
사람 이미지 수신 단계 동안 수신되는 이미지들은 원거리 이미지 데이터베이스로부터 수신될 수 있다.
예를 들어, 방법은 사람의 이미지를 수신하기 위해 원거리 이미지 데이터베이스, 예를 들어 소셜 네트워크 데이터베이스에 연결시키는 것을 포함할 수 있다.
전형적으로, 사람은 적어도 하나의 소셜 네트워크 또는 개인 데이터베이스 상에서 이용 가능한 사람의 이미지들 및/또는 영상들에 대한 액세스를 가능하게 한다.
사람은 하드 드라이브, USB 키, DVD, 블루레이 또는 임의의 알려진 저장 수단과 같은 저장 매체를 통하여 이미지들을 제공할 수도 있다.
이미지 수신 단계 동안 수신되는 이미지들은 사진들 및/또는 영상들과 같은 정적 이미지들을 포함할 수 있다. 이미지들은 2차원 이미지들 또는 깊이 정보를 더 포함하는 3차원 이미지들일 수 있다.
방법의 정확성을 증가시키기 위해, 바람직하게는, 사람의 안면의 적어도 일부는 이미지 제공 단계 동안 제공되는 이미지들 상에서 가시적이다. 예를 들어, 적어도 사람의 눈들은 이미지들 상에서 가시적이다.
본 발명의 방법은 사람과 관련되는 사람 데이터가 제공되는 사람 데이터 제공 단계(S10)를 더 포함할 수 있다. 사람 데이터는 예를 들어, 사람이 선택했던 안경 프레임의 타입, 형상, 치수 및/또는 사람 동공 사이 거리 및/또는 착용 조건 파라미터들에 관한 정보, 또는 사람의 자세적 및 시각적 행위를 결정하는데 유용할 수 있는 사람에 관한 임의의 정보를 포함할 수 있다.
도 1에 도시된 바와 같이, 본 발명의 방법은 이미지 선택 단계(S11)를 더 포함할 수 있다. 이미지 선택 단계(S11) 동안, 제공되는 이미지들 중 적어도 일부가 선택된다.
예를 들어, 사람의 눈들과 같은 사람의 안면의 적어도 일부를 포함하는 이미지들이 선택된다.
단일 시력 안과용 렌즈들을 착용하거나 어떤 안과용 렌즈들도 착용하지 않는 사람의 이미지들이 이미지 선택 단계 동안 선택될 수 있다.
이미지 선택 단계는 이미지들이 구비되는 정보에 기반할 수 있다. 예를 들어, 각각의 이미지는 이미지가 찍혔던 날짜의 표시를 포함할 수 있다. 사람이 누진 안과용 렌즈들을 착용하기 시작했던 날짜를 인지하면, 이미지 선택 단계는 사람이 누진 안과용 렌즈들을 착용하는 것을 시작했던 날짜 이전의 이미지들만을 유지하면서 이미지의 날짜에 기반하여 이미지를 선택하는 것을 포함할 수 있다.
이미지 선택 단계는 사진들 상의 사람을 식별하기 위한 이미지 분석을 포함할 수 있다.
예를 들어, 사람의 안면의 적어도 일부가 이미지들 상에 있다는 것을 체크하기 위해, 이미지들은 이미지 상에서 안면들을 검출하도록 분석된다. 예를 들어, US6697502에 개시되는 안면 검출 방법을 이용할 수 있다.
사람들 중 하나에서 검출되는 안면을 체크하기 위해, 안면 인지 방법, 예를 들어 W.Y. Zhao, R. Chellappa, 이미지 기반 안면 인지: 사안들 및 방법들, 이미지 인지 및 분류(Image-based Face Recognition: Issues and Methods, Image Recognition and Classification), Ed. B. Javidi, M. Dekker, 2002, pp. 375-402에 개시되는 방법을 이용할 수 있다.
방법은 선택되는 이미지에 대한 노이즈 감소를 포함할 수 있다.
콘텍스트 결정 단계(S2) 동안, 사람의 복수의 이미지는 사람이 복수의 이미지의 각각의 이미지 상에 있는 콘텍스트를 나타내는 콘텍스트 데이터를 결정하도록 분석된다.
콘텍스트 결정 단계는 특히, 안면 인지가 이미지 선택 단계의 일부가 아니면, 그러한 안면 인지를 포함할 수 있다.
콘텍스트 데이터는 이미지들 상의 사람에 의해 수행되는 활동과 관련할 수 있다.
예를 들어, 콘텍스트 데이터는 사람에 의해 수행되는 활동을 직접 식별할 수 있거나 그러한 활동을 결정하는 것을 가능하게 하는 데이터, 예를 들어 데이터베이스 및/또는 룩업 테이블로부터의 사람의 활동을 결정하는 것을 가능하게 하는 표시일 수 있다.
사람 활동 데이터는, 예를 들어 활동들의 목록에서 활동을 선택함으로써 사람 그 자신에 의해 직접 제공될 수 있다.
더욱이, 사람 활동 데이터는 이미지들의 분석에 기반하여 결정될 수 있다.
식별될 수 있는 활동은 예를 들어, 운전, 스포츠, 골프를 치는 것, 테니스를 치는 것, 활쏘기를 하는 것, 독서, 걷기, 패러글라이딩, 등...이지만 이에 제한되지 않을 수 있다.
HAR(사람 활동 인지)의 대부분의 연구원은 지도 분류 알고리즘들을 이용한다. 알고리즘들은 라벨링된 샘플들로 트레이닝되어 분류 모델을 생성한다. 그 다음, 모델은 입력 데이터의 분류에 사용된다. 조사로부터, 대부분의 대중적인 알고리즘은 의사 결정 분지도들, k최근린 내삽법, 나이브 베이즈, 서포트 벡터 머신 및 신경망이다.
사람 활동 인지 방법의 일 예를 SULONG, GHAZALI, 및 AMMAR MOHAMMEDALI. “새로운 분류기를 사용한 정지 이미지로부터의 사람 활동들의 인지(RECOGNITION OF HUMAN ACTIVITIES FROM STILL IMAGE USING NOVEL CLASSIFIER).” Journal of Theoretical & Applied Information Technology 71.1 (2015)에 설명한다.
콘텍스트 데이터는 이미지들 상의 사람의 시각적 환경과 관련할 수 있다.
예를 들어, 콘텍스트 데이터는 사람의 시각적 행위에 영향을 줄 수 있는 이미지들 상의 사람의 환경의 임의의 파라미터와 관련할 수 있다.
예를 들어, 콘텍스트 데이터는 이미지들 상의 사람에 의해 수광되는 광의 스펙트럼 특징들 및 강도와 관련할 수 있다.
더욱이, 콘텍스트 데이터는 사람의 환경의 온도 및/또는 습도, 사람의 환경에 포함되는 알레르겐들 및/또는 오염 물질들의 양 및/또는 타입 및/또는 옥내 또는 옥외와 같은 사람의 국부화의 표시 및/또는 사람의 활동을 수행하는 장소, 경감 및/또는 물에의 근접 등...과 관련할 수 있다.
분석 단계(S3) 동안, 복수의 이미지들은 사람의 적어도 하나의 안구 운동 파라미터를 결정하도록 분석된다.
사람의 안구 운동 파라미터들은 눈 움직임들, 예를 들어 응시 하강, 및/또는 단속적 운동들, 예를 들어 머리-눈 조정, 및/또는 눈꺼풀의 수렴 및/또는 개방, 및/또는 동공 직경, 및/또는 깜박임 빈도, 및/또는 깜박임의 지속 기간, 및/또는 깜박임의 강도, 및/또는 사람의 머리의 위치 및/또는 배향, 예를 들어 판독 거리를 포함할 수 있다.
분석 단계 동안 수집되는 데이터는 사람의 우위의 눈과 같은 추가 정보를 결정하거나 사람의 활동 및/또는 사람의 환경의 타입에 의존하여 사람에 의해 가장 많이 사용되는 광학 렌즈의 영역을 식별하도록 후처리될 수 있다.
예를 들어, 각각의 이미지의 경우, 사람에 의해 관측되는 지점까지의 거리가 수치가 구해지고, 그 다음 사람에 의해 관측되는 지점의 근접이 결정된다. 활동이 원거리 보기이면, 이러한 경우에, 근접은 0과 동등하도록 설정된다.
콘텍스트가 인지된 2D 이미지 상의 2개의 대상 사이의 거리를 계산하기 위해, 깊이가 고려된다.
전형적으로, 눈 및 대상과 같은 2차원 이미지 상의 2개의 요소 사이의 거리를 결정하기 위해, 2개의 요소의 윤곽을 검출하도록 윤곽 탐색을 수행하고, 그 다음 2개의 요소의 형태의 무게 중심들 사이의 유클리드 측정이 수행된다.
이미지의 깊이를 고려하는 거리를 계산하기 위해, 방법은 3D 정보를 얻고 유클리드 거리를 변환하는데 사용될 수 있다. 그러한 방법의 일 예가 “단일 이미지에 기반한 2D로부터 3D로의 스루(through) 모델링(From 2D TO 3D Through Modelling Based On A Single Image)” by D. Gonzalez-Aguilera, The Photogrammetric Record 23(122): 208-227 (June 2008)에 개시된다.
거리를 결정하는 방법은 이미지에 존재하는 요소의 크기를 인지하는 것을 필요로 할 수 있다. 예를 들어, 사람의 양눈이 이미지 상에 존재하고 사람의 동공 사이 거리가 인지되면, 이는 기준 요소로서 사용될 수 있다.
이미지에 존재하는 신용 카드, 안경 프레임, 스마트폰과 같은 알려진 크기의 임의의 요소는 거리를 계산하기 위한 기준 요소로서 사용될 수 있다.
그러므로, 본 발명의 방법은 제공되는 이미지들에서 알려진 치수의 요소를 식별하는 단계를 더 포함할 수 있다.
응시 거리에 더하여, 사람의 머리 각도들 및 응시의 방향이 이미지들에서 수치가 구해질 수 있다.
예를 들어, 사람의 자세는 US20070268295에 개시되는 방법을 이용하여 결정될 수 있으며, 머리 각도들은 사람의 자세로부터 추론될 수 있다.
응시 방향은 정적 이미지들로부터의 응시 방향 추정(Gaze direction estimation from static images); Krystian Radlak; Michal Kawulok; Bogdan Smolka; Natalia Radlak; Multimedia Signal Processing (MMSP), 2014 IEEE 16th International Workshop에 개시되는 방법을 이용하여 결정될 수 있다.
자세적 및 시각적 행위 결정 단계(S4) 동안, 사람의 자세적 및 시각적 행위는 적어도 하나의 안구 운동 파라미터 및 콘텍스트 데이터에 적어도 기반하여 결정된다.
도 1에 도시된 바와 같이, 본 발명의 방법은 기준 자세적 및 시각적 행위 데이터가 수신되는 기준 자세적 및 시각적 행위 데이터 수신 단계(S5)를 더 포함할 수 있다. 기준 자세적 및 시각적 행위는 사람에게 적응되는 특정 처방의 광학 렌즈들을 착용하는 상기 기준 사람의 적절한 자세적 및 시각적 행위에 상응한다.
기준 자세적 및 시각적 행위는 특정 활동을 수행하고 상기 특정 활동에 대해 적응되는 특정 처방의 광학 렌즈들을 착용하는 사람의 적절한 자세적 및 시각적 행위에 상응할 수 있다.
비교 단계(S6) 동안, 기준 자세적 및 시각적 행위 데이터, 및 사람의 자세적 및 시각적 행위가 광학 렌즈 활용 이례를 결정하도록 비교된다.
렌즈 활용 이례는 광학 렌즈들의 부적절한 활용 및/또는 사람에 대해 적응되지 않는 광학 렌즈들의 활용을 지칭한다.
도 1에 도시된 바와 같이, 본 발명의 방법은 처방 데이터 수신 단계(S7)를 더 포함할 수 있다.
처방 데이터 수신 단계 동안, 사람의 처방과 관련하는 처방 데이터가 수신된다.
사람의 처방은 예를 들어, 사람의 눈 앞에 위치되는 렌즈에 의해 사람의 시각 장애를 교정하기 위해 안과 의사에 의해 결정되는 광학 배율, 비점 수차 및 적절한 경우, 가법의 광학 특성들의 세트이다. 예를 들어, 누진 가법 렌즈에 대한 처방은 광학 배율 및 원거리 보기 지점에서의 비점 수차(계수 및 축)의 값들, 및 적절한 경우, 가법값을 포함한다.
예를 들어, 사람의 처방은 정시안의 사람의 처방일 수 있다.
광학 기능 결정 단계(S8) 동안, 사람에 대해 적응되는 광학 기능은 처방 데이터, 및 사람의 자세적 및 시각적 행위에 적어도 기반하여 결정된다.
광학 기능 결정은 광학 기능의 미리 정해진 목록에서 가장 적절한 광학 기능을 선택하는 것을 포함할 수 있다.
선택된 광학 기능은 그 다음 처방 데이터, 적어도 하나의 안구 운동 파라미터 및 콘텍스트 데이터에 기반하여 맞춤화될 수 있다.
본 발명의 일 실시예에 따르면, 광학 기능은 처방 데이터, 및 사람의 자세적 및 시각적 행위에 기반하여 최적화 알고리즘들을 사용하여 결정될 수 있다.
본 발명의 의미에서, 광학 기능은 각각의 응시 방향에 대해 광학 렌즈를 통과하는 광선에 대한 광학 렌즈의 영향을 제공하는 기능에 상응한다.
광학 기능은 광선 굴절 기능, 일렉트로크로매틱 기능, 광 흡수, 편광 능력, 대비 능력의 강화 등...을 포함할 수 있다.
광선 굴절 기능은 응시 방향에 따른 광학 렌즈 배율(평균 배율, 비점 수차 등...)에 상응한다. 광선 굴절 기능은 본 발명에 따른 방법을 이용하여 최적화될 수 있다.
예를 들어, 사람에게 제공될 안과용 렌즈가 누진 가법 렌즈이면, 본 발명에 따른 방법은 광학 기능의 다양한 파라미터, 이 중 근거리 및 원거리 보기 구역들의 상대 위치들 및/또는 설계의 타입 및/또는 누진의 길이 및/또는 누진 코리더(corridor)의 크기 및/또는 상이한 보기 구역들의 폭들을 최적화하는데 사용될 수 있다.
본 발명의 의미에서, 누진 가법 렌즈는 원거리 보기 구역, 근거리 보기 구역 및 이 사이의 누진 코리더(또는 채널)을 갖는 안과용 렌즈이다. 누진 코리더는 경계선 또는 프리즘 점프 없이 원거리 보기 구역에서부터 근거리 보기 구역까지의 점진적인 배율 누진을 제공한다.
본 발명의 의미에서, 누진 가법 렌즈의 누진의 길이는 평균 구형이 원거리 보기 지점에서의 평균 구형에 대하여 85%의 차이를 갖는 자오선 상의 지점과 피팅 크로스 사이의 렌즈 표면에 걸쳐 (착용 조건들에서) 수직으로 측정되는 거리에 상응한다.
“광학 설계”란 표현은 안과용 렌즈의 광선 굴절 기능을 한정하는 것을 가능하게 하는 파라미터들의 세트를 지정하기 위해 안과 분야의 당업자로부터 알려져 있는 폭넓게 사용되는 표현이며; 각각의 안과용 렌즈 설계자는 특히, 누진 안과용 렌즈들에 대해 각각의 안과용 렌즈 자체의 설계들을 갖는다. 일 예에 대해 말하면, 누진 안과용 렌즈는 모든 거리에서 분명히 볼 뿐만 아니라 중심와 시각, 추가 중심와 시각, 쌍안 시각과 같은 모든 생리학적 시각 기능을 최적으로 지키고 원하지 않는 비점 수차들을 최소화하기도 하는 노안인 자의 능력을 회복시키기 위한 누진 표면의 최적화의 “설계” 결과들이다. 예를 들어, 누진 렌즈 설계는:
- 일상 생활 활동들 동안 렌즈 착용자에 의해 사용되는 주응시 방향들을 따른 배율 프로파일(자오선),
- 렌즈의 측부들 상의, 즉 주응시 방향에서 떨어진 배율들의 분포들(평균 배율, 비점 수차,...)을 포함한다.
이러한 광학 특성들은 안과용 렌즈 설계자들에 의해 한정되고 계산되고 누진 렌즈들이 구비되는 “설계들” 중 일부이다. 예를 들어, (수평이거나 수직의) 눈들의 응시 방향의 범위를 측정함으로써 사람이 눈 이동인의 카테고리에 있는지, 아니면 머리 이동인의 카테고리에 있는지, 아니면 임의의 중간 카테고리에 있는지 여부를 검출하는 것이 가능하다.
그 때, 사람이 눈 이동인의 카테고리이면, 누진 하드 설계가 제안되는 한편, 착용자가 머리 이동인이면, 소프트 설계가 제안되는 한편, 하드/소프트 설계들 사이의 트레이드오프(tradeoff)가 중간 카테고리에 대해 제안될 것이다.
카테고리는 최소치/최대치 또는 응시 방향의 변동에 기반하여 결정될 수 있다.
사람에게 제공될 광학 렌즈의 영역의 크기는 본 발명에 따른 방법으로 최적화될 수도 있다. 실제로, 본 발명에 따른 방법은 사람에 의해 사용되는 광학 렌즈의 영역의 크기 상의 정보를 제공할 수도 있다. 각각의 사람이 상이한 크기의 영역을 사용할 수 있으므로, 광학 렌즈의 크기는 사람의 요구들에 상응하도록 조정될 수 있다.
광학 렌즈의 최적화는 안경 프레임에서의 광학 렌즈의 위치를 최적화하는 것으로 구성될 수 있다. 특히, 사람의 눈에 대한 프리즘 기준 지점과 같은 광학 렌즈의 기준 지점의 위치는 본 발명에 따른 방법에 의해 최적화될 수 있다.
예를 들어, 상이한 콘텍스트에서 원거리 보기에 대한 응시 방향을 결정하고, 평균 응시 방향을 취하고, 프레임 형상으로의 이러한 평균 응시 방향의 영향을 결정하고, 그 다음 이러한 위치에 누진 렌즈의 피팅 크로스를 위치시키는 것이 가능하다.
본 발명의 일 실시예에 따르면, 광학 렌즈의 투과 기능이 최적화될 수 있다. 본 발명의 의미에서, 투과 기능은 각각의 응시 방향에 대해 다양한 파장에 걸쳐 평균 투과를 제공하는 기능에 상응한다. 다양한 파장에 걸친 평균 투과는 광학 시스템을 통해 투과되는 상응하는 파장 범위 내의 입사광의 강도의 백분율에 상응한다.
예를 들어, 콘텍스트 데이터는 상이한 투과 기능, 예를 들어 사람의 환경에 적응되는 카테고리 0 내지 4(ISO8980-3)를 제안하거나, 특정 자외선 컷 오프 해결법, 예를 들어 크리잘 자외선 반사 방지 코팅들 또는 분극화 렌즈들을 제안하는데 사용될 수 있다.
본 발명의 일 실시예에 따르면, 광학 기능 결정 단계는 사람에 대한 특정 타입들의 렌즈들의 처방의 형태를 취할 수 있다. 예를 들어, 분석 단계가 시각적 피로를 나타내는 불그스름한 불빛에 대한 눈의 빈번한 눈물 나옴을 나타내면, 시각적 강도를 감소시키는 렌즈가 사람에게 제안될 수 있다. 렌즈의 일 예는 Essilor antifatigue™이다.
본 발명의 일 실시예에 따르면, 본 발명에 따른 방법은 안경 프레임, 예를 들어 사람이 이미지들 상에서 착용하고 있는 것과 동일한 타입의 안경 프레임에 맞추어지도록 제조되고 에징되는 우수한 광학 렌즈들을 최적화하는데 사용될 수 있다.
본 발명의 일 실시예에 따르면, 광학 기능은 적어도 하나의 콘텍스트에서 사람에 대해 적응된다.
도 1에 도시된 바와 같이, 방법은 콘텍스트 결정 단계 이전에, 콘텍스트 데이터 수신 단계(S20)를 더 포함할 수 있다.
콘텍스트 데이터 수신 단계(S20) 동안, 예를 들어, 사람의 선택에 상응하는 적어도 하나의 콘텍스트를 나타내는 콘텍스트 데이터가 수신된다.
제2 이미지 선택 단계(S21) 동안, 콘텍스트 데이터에 상응하는 이미지들이 선택된다. 적어도 하나의 콘텍스트에서 적어도 한 명의 사람의 복수의 이미지가 분석 단계 동안 분석된다.
유리하게는, 광학 기능은 예를 들어, 특정 활동 및/또는 특정 시각적 환경에 대한 특정 콘텍스트에 최적화된다.
본 발명은 또한 사람에 대한 안과용 렌즈를 제조하는 방법에 관한 것이며, 방법은:
- 안과용 렌즈의 광학 기능이 본 발명에 따른 방법을 이용하여 결정되는 광학 기능 결정 단계, 및
- 광학 렌즈가 제조되는 제조 단계(S14)를 포함한다.
본 발명은 또한 본 발명의 방법에 의해 얻어지는 사람에 대해 적응되는 광학 렌즈에 관한 것이다.
대안적으로, 본 발명에 따른 최적화 방법은 조정 가능한 렌즈, 예를 들어 프로그래밍 가능 렌즈의 광학 기능을 최적화하는데 사용될 수 있다.
그러므로, 본 발명의 방법은 광학 기능 결정 단계 동안 결정되는 광학 기능이 프로그래밍 가능 렌즈의 광학 기능을 제어하도록 구성되는 프로그래밍 가능 렌즈 디바이스 제어기로 송신되는 광학 기능 송신 단계(S12)를 더 포함할 수 있다.
본 발명을 일반적인 본 발명의 개념의 제한 없이 실시예들을 이용하여 상술하였으며; 특히 장착된 감지 디바이스는 머리 장착 디바이스에 제한되지 않는다.
많은 추가적 변경 및 변형은 예로서만 주어지고 첨부된 청구항들에 의해 단독으로 결정되는 본 발명의 범위를 제한하는 것으로 의도되지 않는 전술한 예시적인 실시예들에 대한 참조를 행할 시에 당업자에게 많은 추가적 변경 및 변형 자체를 제안할 것이다.
청구항들에서, “포함하는(comprising)”이란 단어는 다른 요소들 또는 단계들을 배제하지 않고, “한(a)” 또는 “하나의(an)”라는 부정 관사는 복수를 배제하지 않는다. 상이한 특징부들이 상호간에 상이한 종속 청구항들에서 열거된다는 사실만이 이러한 특징부들의 조합이 유리하게 사용될 수 없다는 것을 나타내는 것은 아니다. 청구항들에서의 임의의 참조 부호는 본 발명의 범위를 제한하는 것으로 해석되지 않아야 한다.

Claims (19)

  1. 사람의 시각적 및 자세적 행위를 결정하는 방법으로서:
    - 상기 사람의 복수의 이미지가 수신되는 사람 이미지 수신 단계(S1);
    - 복수의 이미지의 각각의 이미지 상에서 사람의 콘텍스트를 나타내는 콘텍스트 데이터를 결정하기 위하여 사람의 복수의 이미지가 분석되는 콘텍스트 결정 단계(S2);
    - 상기 사람의 상기 복수의 이미지가 상기 사람의 적어도 하나의 안구 운동 파라미터를 결정하도록 분석되는 분석 단계(S3);
    - 상기 사람의 광학적 및 자세적 행위가 적어도 상기 적어도 하나의 안구 운동 파라미터 및 상기 콘텍스트 데이터에 기반하여 결정되는 자세적 및 시각적 행위 결정 단계(S4);
    - 기준 자세적 및 시각적 행위 데이터가 수신되는 기준 자세적 및 시각적 행위 데이터 수신 단계(S5)로서, 상기 기준 자세적 및 시각적 행위 데이터는 기준 사람에게 적응되는 특정 처방의 렌즈들을 착용하는 기준 사람의 적절한 자세적 및 시각적 행위에 해당하는 단계(S5); 및
    - 기준 자세적 및 시각적 행위 데이터, 및 상기 사람의 상기 자세적 및 시각적 행위가 렌즈 활용 이례를 결정하도록 비교되는 비교 단계(S6)로서, 상기 렌즈 활용 이례는 상기 렌즈들의 부적절한 활용 및/또는 상기 사람에 대해 적응되지 않는 렌즈들의 활용을 지칭하는 단계(S6)를 포함하는, 방법.
  2. 제1항에 있어서,
    - 상기 사람의 처방 데이터가 수신되는 처방 데이터 수신 단계(S7); 및
    - 사람에 대해 적응되는 광학 기능이 적어도 상기 처방 데이터, 및 상기 사람의 상기 자세적 및 시각적 행위에 기반하여 결정되는 광학 기능 결정 단계(S8)를 더 포함하는, 방법.
  3. 제2항에 있어서,
    상기 광학 기능은 적어도 하나의 콘텍스트에서 상기 사람에 대해 적응되는, 방법.
  4. 제2항에 있어서,
    상기 광학 기능 결정 단계 동안, 상기 사람에 대해 적응되는 광선 굴절 기능이 결정되는, 방법.
  5. 제2항에 있어서,
    상기 광학 기능 결정 단계 동안, 상기 사람에 대해 적응되는 전기 변색 기능이 결정되는, 방법.
  6. 제1항에 있어서,
    상기 사람 이미지 수신 단계 동안 수신되는 상기 사람의 상기 복수의 이미지는 적어도 하나의 원거리 이미지 데이터베이스로부터 수신되는, 방법.
  7. 제1항에 있어서,
    상기 사람 이미지 수신 단계 동안 수신되는 상기 사람의 상기 복수의 이미지는 사람의 안면의 적어도 일부를 포함하는, 방법.
  8. 제1항에 있어서,
    상기 사람 이미지 수신 단계 동안 수신되는 상기 사람의 상기 복수의 이미지는 상기 사람의 정적 이미지들 및/또는 영상들을 포함하는, 방법.
  9. 제1항에 있어서,
    상기 적어도 하나의 안구 운동 파라미터는 적어도 상기 사람의 응시 방향을 포함하는, 방법.
  10. 제1항에 있어서,
    상기 적어도 하나의 안구 운동 파라미터는 적어도 상기 사람의 응시 거리를 포함하는, 방법.
  11. 제1항에 있어서,
    상기 적어도 하나의 안구 운동 파라미터는 적어도 상기 사람의 머리의 위치 및 배향을 포함하는, 방법.
  12. 제1항에 있어서,
    상기 콘텍스트 데이터는 상기 이미지들 상의 상기 사람에 의해 수행되는 활동인, 방법.
  13. 제1항에 있어서,
    상기 콘텍스트 데이터는 상기 이미지들 상의 상기 사람의 시각적 환경인, 방법.
  14. 제1항에 있어서,
    - 상기 콘텍스트 결정 단계 이전에 적어도 하나의 콘텍스트를 나타내는 콘텍스트 데이터가 수신되는 콘텍스트 데이터 수신 단계(S20); 및
    - 상기 콘텍스트 결정 단계에 추가로 적어도 한 명의 사람이 상기 적어도 하나의 콘텍스트에 있는 복수의 이미지가 선택되는 이미지 선택 단계(S21)를 더 포함하며,
    상기 분석 단계 동안, 상기 적어도 한 명의 사람의 상기 선택된 복수의 이미지가 분석되는, 방법.
  15. 제1항에 있어서,
    - 상기 콘텍스트 결정 및 분석 단계들 이전에 단일 시력 안과용 렌즈들을 착용하거나 어떤 안과용 렌즈들도 착용하지 않는 상기 사람의 상기 이미지들이 선택되는 이미지 선택 단계(S11)를 더 포함하며,
    상기 콘텍스트 결정 및 분석 단계들은 상기 선택된 이미지들에 대해 수행되는, 방법.
  16. 제2항에 따른 방법에 의해 결정되는 광학 기능을 갖는 사람에 대해 적응되는 광학 렌즈.
  17. 프로세서에 액세스 가능하고 상기 프로세서에 의해 실행될 때, 상기 프로세서가 제1항에 따른 방법의 단계들을 수행하게 하는 명령어들의 하나 이상의 저장된 시퀀스를 포함하는 컴퓨터 판독 가능 매체.
  18. 삭제
  19. 삭제
KR1020207001728A 2017-07-18 2018-07-18 사람의 자세적 및 시각적 행위를 결정하기 위한 방법 KR102566239B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP17305955 2017-07-18
EP17305955.1 2017-07-18
PCT/EP2018/069508 WO2019016267A1 (en) 2017-07-18 2018-07-18 METHOD FOR DETERMINING A POSTURAL AND VISUAL BEHAVIOR OF A PERSON

Publications (2)

Publication Number Publication Date
KR20200036853A KR20200036853A (ko) 2020-04-07
KR102566239B1 true KR102566239B1 (ko) 2023-08-11

Family

ID=59569239

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207001728A KR102566239B1 (ko) 2017-07-18 2018-07-18 사람의 자세적 및 시각적 행위를 결정하기 위한 방법

Country Status (6)

Country Link
US (1) US11815744B2 (ko)
EP (1) EP3655815A1 (ko)
JP (1) JP7332573B2 (ko)
KR (1) KR102566239B1 (ko)
CN (1) CN110892311B (ko)
WO (1) WO2019016267A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7332573B2 (ja) * 2017-07-18 2023-08-23 エシロール・アンテルナシオナル 人の姿勢及び視覚行動を判定する方法
EP4220282A1 (en) * 2022-01-28 2023-08-02 Carl Zeiss Vision International GmbH Determining a lens shape for producing an optical lens for an eye of a person

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160299360A1 (en) * 2015-04-10 2016-10-13 Bespoke, Inc. Systems and methods for creating eyewear with multi-focal lenses
JP2017507370A (ja) 2014-02-18 2017-03-16 エシロール エンテルナショナル (コンパニ ジェネラル ドプチック) 光学レンズ装置を着用者に対して最適化する方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6697502B2 (en) 2000-12-14 2004-02-24 Eastman Kodak Company Image processing method for detecting human figures in a digital image
FR2880428B1 (fr) 2005-01-04 2007-10-26 Essilor Int Verre ophtalmique progressif et procede de fabrication d'un tel verre
JP2007310707A (ja) 2006-05-19 2007-11-29 Toshiba Corp 姿勢推定装置及びその方法
US7742623B1 (en) * 2008-08-04 2010-06-22 Videomining Corporation Method and system for estimating gaze target, gaze sequence, and gaze map from video
FR2987920B1 (fr) 2012-03-08 2018-03-02 Essilor International Procede de determination d'une caracteristique geometrico-morphologique, de posture ou comportementale d'un porteur d'une paire de lunettes
US9965030B2 (en) * 2014-07-31 2018-05-08 Samsung Electronics Co., Ltd. Wearable glasses and method of displaying image via the wearable glasses
US10909164B2 (en) * 2015-04-02 2021-02-02 Essilor International Method for updating an index of a person
US10149958B1 (en) * 2015-07-17 2018-12-11 Bao Tran Systems and methods for computer assisted operation
FR3051262B1 (fr) * 2016-05-13 2022-08-12 Essilor Int Procede de determination d'un filtre pour une lentille ophtalmique en fonction d'une grandeur representative d'une sensibilite dynamique de l'œil d'un porteur a une variation d'un flux lumineux
FR3059538B1 (fr) * 2016-12-07 2023-10-27 Essilor Int Procede de mesure de la refraction, procede de conception optique d'une lentille ophtalmique, lentille ophtalmique, procede d'aide a la selection d'une monture et paire de lunettes
JP7332573B2 (ja) 2017-07-18 2023-08-23 エシロール・アンテルナシオナル 人の姿勢及び視覚行動を判定する方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017507370A (ja) 2014-02-18 2017-03-16 エシロール エンテルナショナル (コンパニ ジェネラル ドプチック) 光学レンズ装置を着用者に対して最適化する方法
US20160299360A1 (en) * 2015-04-10 2016-10-13 Bespoke, Inc. Systems and methods for creating eyewear with multi-focal lenses

Also Published As

Publication number Publication date
JP7332573B2 (ja) 2023-08-23
US11815744B2 (en) 2023-11-14
JP2020527079A (ja) 2020-09-03
US20200249498A1 (en) 2020-08-06
EP3655815A1 (en) 2020-05-27
CN110892311B (zh) 2022-03-08
KR20200036853A (ko) 2020-04-07
CN110892311A (zh) 2020-03-17
WO2019016267A1 (en) 2019-01-24

Similar Documents

Publication Publication Date Title
US20210215953A1 (en) Systems and methods for creating eyewear with multi-focal lenses
US10690945B2 (en) Method for optimizing an optical lens equipment for a wearer
CN105026989B (zh) 眼镜镜片的设计系统、供给系统、设计方法及制造方法
JP6845795B2 (ja) 装用者に適合された光学レンズのレンズ設計を決定する方法
US20210271117A1 (en) Method for determining an ophthalmic equipment and system associated
EP3088938A1 (en) Method, program, and device for manufacturing progressive refractive power lens, progressive refractive power lens manufacturing method, and lens supply system
US11333901B2 (en) Method for determining the position of the eye rotation center of the eye of a subject, and associated device
KR102566239B1 (ko) 사람의 자세적 및 시각적 행위를 결정하기 위한 방법
US20200408635A1 (en) Method for determining an optical parameter of a lens
EP4264627A1 (en) System for determining one or more characteristics of a user based on an image of their eye using an ar/vr headset
US9091867B1 (en) System, method and device for measuring pupillary distance
US20220189010A1 (en) A system and a method for alerting on vision impairment
JP6894621B2 (ja) 眼鏡用レンズの設計方法、製造方法及び供給システム
JP6785857B2 (ja) 光学レンズの屈折力を判定するように構成された屈折力判定装置および光学レンズの屈折力を判定する方法
KR20190044069A (ko) 개인을 위한 개인화된 시각적 보정을 위한 프로그레시브 안구 기기를 결정하기 위한 방법
CN106796358B (zh) 用于订购光学设备的方法
CN106537231B (zh) 渐进眼科镜片及其设计方法和系统、计算机可读存储介质
EP3940448A1 (en) Lens ordering system, lens ordering method, program, and data structure
KR20230038248A (ko) 시각 작업을 수행하는 대상자의 피로 상태의 변화의 자동 예측을 제공하기 위한 방법 및 장치
TWI492174B (zh) 雲端體感虛擬實境配戴眼鏡系統
KR20220075482A (ko) 가상 안경피팅시스템 및 방법
WO2015044309A1 (en) Method and device for correctly and realistically displaying a pair of eyeglasses
EP4220282A1 (en) Determining a lens shape for producing an optical lens for an eye of a person
KR20230142457A (ko) 시각 장비를 자동 평가하기 위한 장치 및 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant