KR20190088524A - 안경 렌즈 에지의 표시를 설정하기 위한 방법 및 장치 및 컴퓨터 프로그램 - Google Patents

안경 렌즈 에지의 표시를 설정하기 위한 방법 및 장치 및 컴퓨터 프로그램 Download PDF

Info

Publication number
KR20190088524A
KR20190088524A KR1020197018643A KR20197018643A KR20190088524A KR 20190088524 A KR20190088524 A KR 20190088524A KR 1020197018643 A KR1020197018643 A KR 1020197018643A KR 20197018643 A KR20197018643 A KR 20197018643A KR 20190088524 A KR20190088524 A KR 20190088524A
Authority
KR
South Korea
Prior art keywords
spectacle lens
spectacle
data
edge
lens
Prior art date
Application number
KR1020197018643A
Other languages
English (en)
Other versions
KR102056333B1 (ko
Inventor
클라우디아 니에우벤후이스
올리버 슈바르쯔
Original Assignee
칼 짜이스 아게
칼 자이스 비전 인터내셔널 게엠베하
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=57914863&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=KR20190088524(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by 칼 짜이스 아게, 칼 자이스 비전 인터내셔널 게엠베하 filed Critical 칼 짜이스 아게
Publication of KR20190088524A publication Critical patent/KR20190088524A/ko
Application granted granted Critical
Publication of KR102056333B1 publication Critical patent/KR102056333B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/024Methods of designing ophthalmic lenses
    • G02C7/028Special mathematical design techniques
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B24GRINDING; POLISHING
    • B24BMACHINES, DEVICES, OR PROCESSES FOR GRINDING OR POLISHING; DRESSING OR CONDITIONING OF ABRADING SURFACES; FEEDING OF GRINDING, POLISHING, OR LAPPING AGENTS
    • B24B13/00Machines or devices designed for grinding or polishing optical surfaces on lenses or surfaces of similar shape on other work; Accessories therefor
    • B24B13/06Machines or devices designed for grinding or polishing optical surfaces on lenses or surfaces of similar shape on other work; Accessories therefor grinding of lenses, the tool or work being controlled by information-carrying means, e.g. patterns, punched tapes, magnetic tapes
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • G02C13/005Measuring geometric parameters required to locate ophtalmic lenses in spectacles frames
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/024Methods of designing ophthalmic lenses
    • G02C7/027Methods of designing ophthalmic lenses considering wearer's parameters
    • G06K9/00281
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Eyeglasses (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 안경 착용자(20)를 위한 좌측 안경 렌즈(28) 및 우측 안경 렌즈(29) 또는 안경 렌즈(28)의 에지(26)의 표시를 설정하기 위한 컴퓨터 구현 방법에 관한 것이다. 본 발명에 따라, 이러한 목적을 위해 이하의 단계가 수행된다: 착용 안경테(24)를 갖는 안경 착용자(20)에 관한 이미지 데이터(b(x))를 제공하는 단계; 이미지 데이터(b(x))로부터 도출된 정보 데이터(I(x))를 계산하는 단계; 정보 데이터(I(x))를 안경 렌즈 데이터(u(x))와 연결시키는 결정론적으로 최적화 가능한 비용 함수(E(u))를 계산하는 단계로서, 안경 렌즈 데이터(u(x))는 안경테(24)에 유지된 적어도 하나의 안경 렌즈(28)의 공간 범위를 기술하는, 단계; 및 비용 함수(E(u))를 최적화함으로써 좌측 안경 렌즈(28) 및 우측 안경 렌즈(29) 또는 안경 렌즈(28)의 에지(26)의 곡선을 설정하는 단계.

Description

안경 렌즈 에지의 표시를 설정하기 위한 방법 및 장치 및 컴퓨터 프로그램
본 발명은 안경 착용자를 위한 적어도 하나의 안경 렌즈의 에지의 표시를 설정하기 위한 컴퓨터 구현 방법 및 장치에 관한 것이다. 또한, 본 발명은 전술한 방법이 수행될 수 있는 컴퓨터 프로그램에 관한 것이다. 또한, 본 발명은 안경테에서 좌측 또는 우측 안경 렌즈를 센터링하기 위한 방법, 안경테 내로 좌측 또는 우측 안경 렌즈를 연삭 가공(grinding)하기 위한 방법, 그리고 또한 좌측 또는 우측 안경 렌즈를 제조하기 위한 방법, 및 안경을 제조하기 위한 방법에 관한 것이다.
안경 렌즈의 에지의 표시는 표준 EN ISO 13666:2012 (D/E) 섹션 13.1에서 구성된 안경 렌즈의 베어링 에지의 표시를 의미하는 것으로 본 발명에 의해 이해된다.
안경 렌즈의 에지의 표시는 안경 렌즈를 기술하는 부가적인 변수들에 기초하여, 안경 착용자로부터 멀어지게 지향되는 안경 렌즈의 베어링 에지의 3차원 곡선이 명확하게 적절히 결정될 수 있는 데이터 세트이다. 안경 렌즈의 에지의 표시는 예를 들어, 이미지 포착 장치의 이미지 센서의 이미지 평면에서 안경 렌즈의 에지의 돌출에 의해 둘러싸인 영역일 수 있으며, 안경 렌즈는 이미지 포착을 위해 이러한 영역 내로 돌출된다.
완전하게 테가 있는 안경의 경우, 안경 렌즈의 베어링 에지는 안경테의 내측 에지에 해당한다. 부분적으로 테가 있는 안경의 경우, 안경 렌즈의 베어링 에지는 한편으로는 안경 렌즈 테에 인접하지 않는 렌즈 외측 에지 및 안경테의 내측 에지에 해당하는 안경 렌즈의 에지를 의미하는 것으로 이해된다. 무테 안경의 경우에 안경 렌즈의 베어링 에지는 렌즈 외측 에지이다.
안경 렌즈를 안경테 내로 정확하게 끼워 맞추기 위해서, 한편으로는 소위 센터링 파라미터를 결정할 필요가 있으므로, 예를 들어, 안경테와 관련된 동공의 높이에 관한 정보 및 동공 거리에 관한 정보를 이에 따라 획득하기 위해, 렌즈의 광학 중심이 해당 눈의 시축과 정렬될 수 있다. 다른 한편으로는, 안경테에 안경 렌즈가 수용되는 안경테에 의해 한정된 안경 렌즈의 베어링 에지를 인지할 필요가 있다.
안경테와 관련된 동공의 높이에 관한 정보 및 동공 거리에 관한 정보 외에도, 특히 이하의 변수들이 센터링 파라미터 항에 포함된다: 단안 동공 거리(PD), 기준점 요건에 따른 및/또는 안구 피벗 지점 요건에 따른 각막정 거리(HS), 단안 중심 거리, 센터링 지점 좌표, 렌즈 거리, 센터링 지점의 편심, 렌즈 높이 및 폭, 렌즈 중심 거리, 안경 렌즈 각도(α), 테 렌즈 각도(β), 피팅 높이.
센터링 파라미터는 일반적으로 검안의에 의해 결정된다. 중요한 센터링 파라미터는 예를 들어, 표준 EN ISO 13666:2012 (D/E)에 정의되어 있고, 서로 반대로 서있거나 앉아 있는 안경사 및 피검사자에 의해 설정될 수 있으며, 피검사자는 그 안에 안경 렌즈가 수용된 자신이 선택한 테를 착용한다. 피검사자는 거리를 들여다보도록 요청되며, 그 다음 안경사는 자신의 시각적 판단에 기초하여, 피검사자의 반대편에 있는 자신의 시각적 기준으로부터 본 관찰 기준점에서 교차점을 궤선이 그려진 콘택트 필름 또는 렌즈 상에 표시한다. 그 다음, 이러한 교차점(센터링 교차점)은 테에 사용될 안경 렌즈의 광학 중심점의 위치를 결정한다. 이러한 방법은 피검사자의 각각의 눈에 대해 별도로 수행된다. 따라서 설정된 센터링 교차점의 거리는 동공 거리(PD)이다.
그러나, 센터링 파라미터 결정을 위해, 최근에는 자동화된 측정 시스템이 또한 사용된다. 이러한 측정 시스템은 예를 들어 WO 01/84222 A1에 설명되어 있다. 이러한 시스템은 기둥에서 높이 조절 가능한 방식으로 수용된 디지털 비디오 카메라를 포함하고, 이의 대물 렌즈는 하우징의 전면의 영역에 광원 및 미러와 함께 배치한다. 특히, 시스템은 안경 렌즈의 연삭 가공을 위해 고려되어야 하는, 거리의 측정 및 치수의 포착을 가능하게 한다. 이러한 시스템에는, 디지털 비디오 카메라에 연결된 컴퓨터가 있으며, 컴퓨터는 안경테에 고정된 측정 브라켓을 통해 그리고 안경테를 갖는 안경 착용자의 이미지로부터의 이미지 평가에 의해 안경테를 위한 센터링 파라미터를 결정한다.
최종 고객을 진단하는 검안의의 경우, 센터링 파라미터 결정이 가급적 쉽게, 신속하게, 그리고 신뢰할 수 있게 수행될 수 있는 것이 중요하다. 따라서, 검안의가 최종 고객에게 고품질의 진단을 제공할 수 있도록 하기 위해, 본질적으로 오차가 없이 신속하게 수행될 수 있는 작업 흐름이 관심사이다.
D. Borza 등의 "효율적인 형상 기술을 이용한 안면 이미지으로부터의 안경 렌즈 윤곽 추출", Sensors, vol. 13, no. 10, 13638~13658 페이지(2013년)에는, 안경 착용자의 포착된 이미지에서 안경 렌즈의 에지를 결정하기 위해 처음에 언급된 유형의 컴퓨터 구현 방법이 기술되며, 여기서 안경 렌즈의 에지 상에 있는 이미지 지점들의 지점들의 수는 소위 푸리에 기술자(Fourier descriptor)의 정의에 기초하는 수학적 함수들의 중첩으로서 모델링된다.
이러한 수학적 함수들은 상이한 안경테 형상들을 기술한다. 안경 렌즈의 에지의 모델링을 위해 여기에서 사용된 함수들은 확률적인 것으로서, 즉 무한 수의 가능한 함수들로부터 무작위 원리에 따라 선택된다. 선택된 함수들에 기초하여 기술된 안경 렌즈의 에지에 대한 모델은 확률적인 것으로서, 즉 무한 수의 가능한 함수들로부터 무작위 원리에 따라 선택된다. 그 다음, 선택된 함수들에 기초하여 기술된 안경 렌즈의 에지에 대한 모델은 에지 검출 과정에서 설정된 안경 렌즈 에지와 비교되어 평가된다.
C. Nieuwenhuis 등의 "쌍방향 다중-라벨 세분화를 위한 공간적으로 가변하는 색상 분포", 패턴 분석 및 머신 지능에 관한 IEEE 트랜잭션, IEEE 컴퓨터 학회, 미국, vol. 35, no. 5, 1234~1247 페이지(2013년)에는, 디지털 이미지에서 상이한 영역들의 세분화를 위한 방법이 기술된다. 여기서, 디지털 이미지의 이미지 지점들의 색상이 평가된다. 이러한 목적을 위해, 숙련공은 세분화되어야 하는 상이한 이미지 영역들을 예를 들어 컴퓨터 마우스를 사용하여 수동으로 컴퓨터 상에 표시한다. 그 다음, 조건부 확률에 기초하는 비용 함수의 최적화에 의해 상이한 이미지 영역들이 세분화된다. 이를 위해, 이미지 지점이 특정 이미지 영역에 있는 조건부 확률은 수동으로 표시된 이미지 영역들과 관련된 색상 정보에 기초하여 이미지에서의 각각의 이미지 지점에 대해 최대화된다. 동시에, 세분화된 영역들은 가급적 조밀하게 되도록 의도된다.
A. Fernandez 등의 "견고한 정렬, 머신 비전 및 애플리케이션에 기초하는 실제 이미지에 대한 안경 검출", Springer 출판사, vol. 26, no. 4, 519~531 페이지(2015년)에는, 사람이 안경 착용자인지 여부를 식별하기 위해, 사람들의 사진을 평가하기 위한 방법이 여기에 개시된다. 이러한 방법은 불변하는 안면 피처들을 검출하고, 이로부터 눈 주위의 영역을 계산한다. 이러한 영역 내에서, 사람을 안경 착용자 또는 비-안경 착용자로 분류하는 피처 벡터가 색상들로부터 결정된다.
C. Wu 등의 "안면 이미지로부터의 자동 안경 제거", 패턴 분석 및 머신 지능에 관한 IEEE 트랜잭션, IEEE 컴퓨터 학회, 미국, vol. 26, no. 3, 332~336 페이지(2004년)에는, 사람들의 디지털 사진으로부터 안경 및 안경 렌즈를 제거하기 위해 사용되는 방법이 개시된다. 방법은 안경을 착용한 사람들과 착용하지 않은 사람들이 저장되어 있는 데이터베이스로부터, 안경을 얼굴에서 제거하기 위해 눈 영역이 변경되어야 하는 방법을 교시한다. 또한, 확률적 방법에 의하여 회전, 크기 조정 및 병진 이동과 같은 외부 파라미터들 및 테의 에지 상의 지점들을 최적화함으로써 테의 윤곽이 검출될 수 있다.
DE 10 2011 115 239 A1은 안경 착용자의 디지털 이미지에서, 안경 렌즈 에지의 곡선을 포함하는 안경 렌즈-특정 트레이서 데이터 세트를 사용하여 안경 렌즈의 에지의 윤곽을 설정하는 방법을 기술한다.
본 발명의 과제는 예를 들어, 센터링 파라미터의 결정 시에, 또는 안경테에서의 좌측 또는 우측 안경 렌즈의 센터링 시에 또는 안경테 내로의 좌측 또는 우측 안경 렌즈의 연삭 가공 시에, 특히 안경 렌즈의 제조 또는 안경의 제조 시에, 이러한 정보를 고려하기 위해, 안경테에 수용되는 안경 렌즈의 에지의 정확한 표시를 제공하는 것이다.
이러한 과제를 해결하기 위해, 청구항 제1항 및 제21항에 기재된 특징들의 조합이 제안된다. 본 발명의 유리한 실시형태 및 전개는 종속 청구항들에서 나타낸다.
본 발명은 소위 목적 함수, 에너지 함수, 손실 함수, 효용 함수 또는 적합성 함수로도 당업자에 의해 지칭되는 비용 함수(E(u))가 이의 인수(u)의 임의의 할당을 예를 들어, 에너지 또는 거리와 같은 스칼라 물리적 변수 또는 비용의 중요도를 갖는 스칼라 값(E(u))에 매핑하는 매핑을 의미하는 것으로서 이해한다.
본 발명의 의미 내에서, 비용 함수(E(u))를 최적화하는 것은, 적어도 국부적으로 극값, 즉 적어도 국부적으로 최대 또는 최소인 값을 추정하는 타겟 기준을 비용 함수(E(u))가 충족시키는 비용 함수(E(u))의 최상의 인수(u)를 선택하는 것을 의미하는 것으로 이해되어야 한다.
본 발명은 이미지 데이터(b(x))로부터 도출된 정보 데이터(I(x))가 예를 들어, 색상 모델, 에지 이미지, 색상 확률 분포, 예를 들어 눈과 같은 이미지 내의 물체, 미러링, 대칭 축, 및 시각적 라인과 같이, 이미지 데이터(b(x))로부터 계산될 수 있는 정보에 관한 데이터를 의미하는 것으로 이해한다. 이미지 데이터(b(x))로부터의 정보 데이터(I(x))의 계산은 특히, 이미지 데이터(b(x))를 포착하는 역할을 하는 카메라에 관한 보정 정보에 의해 영향을 받을 수 있다.
본 발명은 비용 함수를 최적화하기 위한 결정론적 최적화 방법이 동일한 시작 값을 사용하는 반복 시에도 비용 함수의 동일한 인수를 항상 유도하는 최적화 방법을 의미하는 것으로 이해한다.
비용 함수의 전역적 또는 국부적 최적값을 계산하는 결정론적 알고리즘이 존재하는 경우, 비용 함수는 결정론적으로 최적화 가능하며, 전역적 또는 국부적 최적값으로 비용 함수의 계산된 인수는 최적화 문제의 사용 가능한 솔루션을 형성하며, 즉 최적화 문제의 솔루션으로 구성된 최소 품질 요건에 해당하는 솔루션을 형성하며, 이에 따라 비용 함수를 최적화함으로써 획득된 합리적인 결과로서 사용될 수 있다.
확률적 최적화 방법과 대조적으로, 결정론적 최적화 방법은 무작위 영향이 없으며, 주어진 동일한 시작 값으로 동일한 솔루션을 매번 계산한다. 따라서, 결정론적 최적화 방법은 동일한 시작 값으로부터 진행되는 반복 시에 항상 동일한 결과를 산출한다. 따라서, 확률적 최적화 방법과 달리, 결정론적 최적화 방법은 보다 직접적으로, 신뢰할 수 있게, 그리고 또한 (파라미터 공간의 크기에 따라) 흔히 더 신속하게, 솔루션을 유도한다. 이들은 실행 시간 및/또는 메모리 요건과 관련하여 효율적이다. 결정론적 최적화 방법은 흔히 그래픽 카드를 통한 실시간 구현에 적합하다.
대조적으로, 확률적 최적화 방법은 일반적으로 긴 계산 시간을 필요로 하며, 무작위 영향이 일조하기 때문에, 동일한 입력으로 반복적으로 수행되는 경우 솔루션 값들의 분산을 유발한다. 이러한 분산으로부터, 하나의 요소를 최상(예를 들어, 분산의 중간값 또는 기대값)으로 선택하는 것이 궁극적으로 필요하다. 이러한 유형의 알고리즘은 흔히 실행 시간 및/또는 메모리 요건과 관련하여 제기된 문제의 효율성 요건을 충족시키지 못한다.
검안의가 센터링 파라미터를 결정할 때, 최종 고객에게 중점을 두고 기술적인 과정들에 의해 지배되지 않는 고품질의 진단을 달성하기 위해서는 가급적 신속하고 오차가 없는 작업 흐름을 갖는 것이 중요하다. 이와 관련하여, 자동화 방법의 가급적 중단 없이 기능하는(견고성) 모드가 필요하다. 이는 디지털 이미지 분석 및 기계 학습의 방법으로 달성할 수 있다.
본 발명자들은 디지털 이미지 분석 방법을 통해, 오차 영향과 관련하여 매우 견고한 방식으로 높은 정확도 및 높은 신뢰도로, 사전 정의된 안경테에 매칭되는 안경 렌즈의 에지를 설정하는 것이 가능하다는 것을 인식하였다.
본 발명에 따라, 안경 착용자를 위한 좌측 안경 렌즈 및 우측 안경 렌즈 또는 안경 렌즈의 에지의 표시를 설정하기 위해 이하의 단계가 수행된다:
착용 안경테를 갖는 안경 착용자와 관련된 이미지 데이터(b(x))가 제공된다.
이미지 데이터(b(x))로부터 도출된 정보 데이터(I(x))가 계산된다.
정보 데이터(I(x))를 안경 렌즈 데이터(u(x))와 연결시키는 결정론적으로 최적화 가능한 비용 함수(E(u))가 계산되며, 안경 렌즈 데이터(u(x))는 안경테에 유지된 적어도 하나의 안경 렌즈의 공간 범위를 기술하고, 그 다음, 비용 함수(E(u))를 최적화함으로써 좌측 안경 렌즈 및 우측 안경 렌즈 또는 안경 렌즈의 에지의 곡선이 설정된다.
비용 함수(E(u))는 기계 학습에 의해 데이터로부터 학습된 적어도 하나의 모델을 포함할 수 있다. 특히, 좌측 안경 렌즈 및 우측 안경 렌즈 또는 안경 렌즈의 에지의 곡선은 비용 함수를 결정론적으로 최적화함으로써 설정될 수 있다.
본 발명에 따라, 비용 함수(E(u))는 가중된 에너지 항들의 합일 수 있다. 안경 렌즈 또는 안경테에서의 미러링이 고려되고 색상 모델 또는 안경 렌즈 모델과의 편차에 페널티가 부과되는 제약과 함께 비용 함수(E(u))가 최적화된다는 점으로 인해, 안경테에 매칭된 안경 렌즈의 에지의 표시에 대한 높은 정확도가 달성될 수 있다. 또한, 비용 함수의 최적화에서의 제약은 안경 렌즈의 에지의 표시에 부과되는 2D 또는 3D 대칭 조건일 수 있다. 비용 함수(E(u))의 최적화는 검출된 안면 피처들에 의해 설정되는 관심 영역 내에서만 수행되는 것이 유리하다.
비용 함수(E(u))는 본 발명의 범위 내에서 복수의 방식으로, 예를 들어, 연속 방법(프라이멀-듀얼(primal-dual) 접근법), 그래프-이론적 방법, 이산형 그래프-컷 방법, 능동 윤곽 모델, 기울기 하강 방법, 심플렉스(simplex) 방법 등으로 최소화될 수 있음을 유의해야 한다. 연속 방법은 이들이 이미지를 연속 함수로서 기술한다는 점으로 한정되고, 이에 따라 비용 함수는 연속 수학적 공간을 통해 한정된다. 이미지 데이터(u(x))의 이미지 지점(픽셀 단위)에 기초하는 비용 함수의 이산화는 바람직하게는 최적화 이전의 최종 단계까지 수행되지 않는다. 이와 대조적으로, 소위 이산형 최적화 방법은 이미지 지점들의 평면(픽셀 평면) 상에 최적화 함수를 그래프 형태로 직접 한정한다. 연속 방법은 이산형 방법에 비해, 에지에서의 아티팩트를 방지하고 훨씬 더 쉽게 병렬 처리될 수 있어서, 그래픽 카드를 통한 신속한 계산이 가능한 이점을 갖는다.
이미지 데이터(b(x))로부터 도출된 계산된 정보 데이터(I(x))는 포착된 이미지 데이터(b(x))로부터 에지 검출 알고리즘에 의해 설정되는 에지 정보 이미지(g(x))를 포함할 수 있다. 따라서, 안경 착용자의 안면의 이미지에서 안경테를 식별하는 것이 가능하다. 에지 검출 알고리즘은 예를 들어, 에지 검출기를 포함할 수 있다. 이러한 에지 검출기는 이미지 데이터(b(x))에서 이미지 지점들을 검출하는 것을 가능하게 하며, 이미지 지점들은 이미지 포착 장치의 이미지 센서의 이미지 평면의 감광 픽셀들에 해당하고 안경테의 에지들 상에 있다. 따라서, 모든 이미지 지점에 대해, 안경 에지에 속하는 에지의 확률을 나타내는 값이 특정된다. 또한, 에지 검출기는 임의의 종류의 이미지 에지를 검출하는 소위 범용 에지 검출기일 수 있거나, 또는 기계 학습 방법을 통해 안경 에지들에 대해 특별히 훈련되었을 수도 있다. 따라서, 예를 들어, 안경테 에지와 비-안경테 에지 간에, 또는 외측 안경테 에지와 내측 안경테 에지 간에 구별하는 것이 가능하다.
에지 검출 알고리즘의 에지 검출기는 특히, 기울기, 색상 기울기, Canny 에지 검출기, 방향성 필터, Solbel 필터의 그룹으로부터의 에지 검출기일 수 있다. 에지 검출 알고리즘은 에지 검출의 목적을 위해, 예를 들어 가보어(Gabor) 필터 또는 학습된 필터와 같은 다수의 필터를 갖는 필터 뱅크에 액세스하는 것이 가능하다. 또한, 에지 검출 알고리즘이 자기-학습 알고리즘으로서 구현되는 것이 유리하다.
본 발명자들은, 소위 기계 학습을 사용하여, 안경테에 매칭되는 안경 렌즈의 에지의 결정이 오차 영향과 관련하여 매우 견고한 방식으로, 높은 정확도 및 높은 신뢰성으로 보장되도록 하는 것이 가능하다는 것을 알게 되었다.
본 발명의 사상으로서, 이미지 데이터(b(x))로부터 도출된 계산된 정보 데이터(I(x))는 이미지 데이터(b(x))의 색상을 평가하는 색상 평가 알고리즘에 의해 포착된 이미지 데이터(b(x))로부터 설정되는 색상 정보 이미지(f(x))를 포함한다. 비용 함수(E(u))는 특히, 에지 검출 비용 항(Eedge(u))과 색상 평가 비용 항(Ecolour(u))의 가중된 합일 수 있다.
이러한 색상 평가 알고리즘은 안경 렌즈 상에 있는 지점들에 해당하는 이미지 지점들을 안경테의 배경에 있는 지점들 또는 안경테 상에 있는 지점들에 해당하는 이미지 지점들과 구별하는 역할을 한다. 이러한 목적을 위해, 색상 평가 알고리즘은 예를 들어, 안경 착용자의 안면 상의 지점들에 해당하는 이미지 지점들을 안경테 상에 있는 지점들에 해당하는 이미지 지점들로부터 분리시키는 피부색 모델과 같은 색상 모델을 사용할 수 있다. 또한, 이에 따라 안경테가 없는 안경 착용자의 안면에 대한 근사화를 달성하기 위해, 알고리즘에서 저역 통과 필터를 통해 이미지를 현저하게 평활화하는 것이 유리하다. 그 다음, 이러한 근사화는 안경 렌즈 내에 있는 이미지 지점들에 대한 색상 모델을 형성할 수 있다. 안경테가 없는 안경 착용자의 안면에 대한 근사화를 달성하기 위해, 안경이 없는 안면들을 갖는 다수의 이미지에 기초하여 학습된 소위 주성분 분석에 의해, 안경테가 없는 사람들과 관련된 예시적인 데이터에 기초하는 기계 학습을 위한 루틴, 또는 안경테를 갖는 안경 착용자와 관련된 이미지 데이터(b(x))로부터 데이터 세트를 생성하는 루틴을 알고리즘이 포함하는 것이 또한 가능하며, 이러한 데이터 세트는 안경테가 없는 안경 착용자의 안면의 일부분의 이미지 또는 안경 착용자의 안면의 이미지에 해당한다.
색상 평가 알고리즘과 관련하여, RGB 색상 공간으로부터 휘도 및 색상을 분리시키는 색상 공간 내로의 색상 공간의 변경, 예를 들어 YCbCr 또는 HSV 색상 공간 내로의 변경이 또한 제공될 수 있다. 이러한 조치는 상대적으로 조명과 무관하게 작용하는 것을 가능하게 한다. 또한, 본 발명의 범위 내에서, 복수의 이미지에 해당하는 다수의 이미지 데이터(b(x))로부터 색상 공간이 학습될 수 있다는 점을 유의해야 한다. 또한, 본 발명의 범위 내에서, 이미지 데이터(b(x))의 알려진 피부색 지점들에 기초하여, 예를 들어 콧날 상의 지점들에 해당하는 이미지 지점들을 사용하여, 적절한 피부색 공간을 한정하도록 제공될 수 있다는 점을 유의해야 한다. 그 다음, 이러한 색상 모델을 갖는 색상 평가 알고리즘을 통해, 안경 착용자의 눈에 가까이 있는 이미지 지점들이 안경 착용자의 눈으로부터의 먼 거리에 있는 이미지 데이터(b(x))의 이미지 지점들보다 안경테에 수용된 안경 렌즈의 영역에서 더 높은 확률로 존재한다는 점을 고려하기 위하여, 안경 착용자의 눈으로부터의 포착된 이미지 데이터의 이미지 지점들의 거리의 정보를 평가하도록 유리하게 제공된다. 이러한 목적을 위해, 예를 들어, 거리 함수 루틴이 색상 평가 알고리즘에 제공될 수 있으며, 거리 함수 루틴은 각각의 이미지 지점에 대해, 즉 이미지 포착 장치의 이미지 센서의 각각의 픽셀에 대해, 안경 착용자의 눈 상에 있는 이미지 지점에 대한 최단 거리, 즉 해당 이미지 센서의 픽셀을 계산한다. 이러한 설정된 최단 거리가 더 클수록, 픽셀과 렌즈 영역과의 연관 가능성 또는 렌즈 에지와의 연관 가능성이 더 낮아지기 때문에, 비용 함수의 색상 항에 그 다음에 적용될 비용이 더 높아진다.
본 발명의 바람직한 실시형태는 원하는 안경 렌즈 데이터(u(x))를 구하기 위해, 볼록 함수가 비용 함수(E(u))로서 선택되도록 제공된다.
이 경우, 볼록 함수는 분석에서와 같이, 실수값 함수를 의미하는 것으로 이해되며, 이의 그래프는 이의 지점들 중 2개의 각각의 연결 세그먼트 아래에 있다. 이는 함수의 에피그래프(epigraph), 즉 그래프 위의 지점들의 세트가 소위 볼록 세트를 형성한다고 하는 것과 상응한다.
비용 함수(E(u))의 볼록률(convexity)은 본 발명에 의해, 특히 비용 함수(E(u))가 볼록 비용 함수 항들의 합이라는 점에 의해 달성된다. 예를 들어, 이미지 데이터((b(x))의 색상을 안경 렌즈 데이터(u(x))와 상관시키고 색상 모델에 의해 색상을 평가하는 볼록 색상 비용 항(Ecolour(u(x))), 및 이미지 데이터(b(x))의 이미지 에지들과 안경 렌즈 데이터(u(x))의 상관 관계, 또는 안경 렌즈 데이터(b(x))의 도함수로 표시되는 2개의 안경 렌즈(28, 29) 또는 안경 렌즈(28)의 에지(26)와의 상관 관계인 볼록 에지 비용 항(Eedge(u(x)))으로부터 비용 함수가 형성될 수 있다.
비용 함수의 볼록률은 3가지 주요 이점을 수반한다: 일반적으로, 함수는 전역적 또는 국부적 최적값을 갖는다. 따라서, 최적화 방법은 일반적으로 전역적 최적값이 아닌 국부적 최적값을 구하는 것만을 보장한다. 다른 한편으로는, 볼록 함수의 경우, 국부적 최적값이 존재하지 않기 때문에, 항상 구해지는 것은 전역적 최적값이다. 볼록 비용 함수의 경우에, 방법이 항상 전역적 최적값으로 수렴되기 때문에, 임의적인 시작 값(예를 들어, u(x) = 0 = 안경 렌즈가 존재하지 않음)이 사용될 수 있다. 따라서, 볼록 비용 함수는 결정론적으로 최적화 가능하다. 특히, 볼록 비용 함수는 예를 들어, 기울기 하강 알고리즘과 같은 간단한 결정론적 알고리즘에 의해 전역적으로 최적화 가능하다. 대조적으로, 비-볼록 함수는 결정론적 알고리즘의 결과와 같은 최적화 문제의 사용 가능한 양호한 솔루션을 획득하기 위해 전역적 최적값과 가깝게 있는 양호한 시작 값을 필요로 한다.
이미지 데이터로부터 도출된 정보 데이터(I(x))의 계산은 안경테 및/또는 안경테에 수용된 안경 렌즈에서의 미러링을 식별하기 위한 알고리즘을 사용하여 미러링 정보 데이터(s(x))를 설정하는 단계를 포함하는 것이 유리하다. 여기서 이러한 알고리즘은 안경 렌즈에서의 미러링이 안경테에서의 미러링과 구별될 수 있도록 설계되는 것이 유리하다. 이는 예를 들어, 검출된 미러링 영역들의 형상의 후속적인 분석을 통해 이미지에서 특히 선명한 영역들을 검출함으로써 수행될 수 있다. 이러한 방식으로, 안경 렌즈의 에지의 설정된 표시의 정확도가 또한 증가될 수 있다. 이미지에서의 미러링은 렌즈 에지와 쉽게 혼동될 수 있는 표시된 간섭 에지들을 가질 수 있기 때문에, 색상 평가 알고리즘 및 에지 검출기가 이미지 데이터(b(x))로부터 계산된 미러링 정보 데이터(s(x))를 고려하는 것이 방법의 정확도를 위해 또한 유리하다.
이미지 데이터(b(x))로부터 도출된 정보 데이터(I(x))의 계산은 안면 피처들을 식별하기 위한 알고리즘을 통해 안면 피처 정보 데이터(m(x))를 설정하는 단계를 포함할 수 있다.
또한, 본 발명의 사상으로서, 알고리즘은 눈, 동공, 눈썹, 코, 입 또는 안면 윤곽의 그룹으로부터의 하나 이상의 안면 피처를 식별하도록 설계된다. 특히, 색상 평가 알고리즘 및/또는 에지 검출 알고리즘은 이미지 데이터(b(x))로부터 계산된 안면 피처 정보 데이터(m(x))를 고려하는 것이 가능하다. 또한, 안경 착용자의 눈 및 눈썹은 포착된 이미지 데이터(b(x))에 기초하는 이미지에서 에지를 발생시킬 수 있어서 안경 렌즈의 에지의 결정을 방해하기 때문에, 에지 검출 알고리즘은 포착된 이미지 데이터(b(x))에 기초하는 이미지에서 안경 착용자의 눈 또는 눈썹으로 인해 유발된 에지를 또한 고려함으로써, 이미지 데이터(b(x))로부터 계산된 안면 피처 정보 데이터(m(x))가 평가되는 것이 유리하다.
이미지에서 안경테, 즉 안경이 위치되는 소위 관심 영역 및 안면을 결정하기 위해, 안면 피처들의 검출이 유용할 수 있다. 이 경우, 안면 피처들은 예를 들어, 눈, 동공의 위치, 눈썹, 코, 입, 및/또는 안면의 안면 윤곽의 그룹으로부터의 하나 이상의 피처이다. 하나 이상의 피처에 기초하여, 해당 영역에서 원하는 안경 에지를 계산하는 것이 가능하다. 또한, 눈과 함께, 렌즈 내에서 임의의 이벤트에 놓이는 지점들은 알려져 있다.
이미지 데이터(b(x))로부터 도출된 정보 데이터(I(x))의 계산을 위해, 알고리즘에 공급된 안경 렌즈 모델에 기초하여 또는 알고리즘에 공급된 다수의 안경 렌즈 형태에 기초하여, 포착된 이미지 데이터가 안경 렌즈 상에 있을 확률에 관한 확률들을 나타내는 파라메트릭 모델 또는 맵을 안경 렌즈 형태 정보 데이터(di(x))로서 특정하는 알고리즘이 안경 렌즈 형태 정보 데이터(di(x))를 설정하는 단계에 제공될 수 있다. 특히, 이미지 데이터로부터 도출된 정보 데이터(I(x))의 계산은, 알고리즘에 공급된 안경 렌즈 모델에 기초하여 또는 알고리즘에 공급된 다수의 안경 렌즈 형태에 기초하여, 안경테에 수용 가능한 2D 형태 또는 3D 형태의 안경 렌즈를 안경 렌즈 형태 정보 데이터(di(x))로서 특정하는 알고리즘을 사용하여, 안경 렌즈 형태 정보 데이터(di(x))를 설정하는 단계를 포함하도록 제공될 수 있다.
본 발명의 사상은 예를 들어, 수동으로 미리 세분화된 안경 렌즈들의 실시예들에 기초하여 안경 렌즈의 형태에 대한 모델을 결정하는 것이다. 이러한 모델은 포착된 이미지 데이터(b(x))의 각각의 이미지 지점에 대해, 이러한 이미지 지점에 해당하는 지점이 안경 렌즈 내에 있을 가능성이 얼마나 되는지를 나타내는 확률 맵일 수 있다. 이 경우, 세분화된 실시예들을 눈 위치에 기초하여 센터링하고 주축 또는 다른 축을 따라 이들을 정렬하는 것이 유리하다. 그러나, 예를 들어 이미지 사진 내의 영역으로서 안경 렌즈로부터 또는 안경 렌즈 윤곽에 해당하는 지점들로부터, 파라메트릭 모델에서 안경 렌즈의 형태를 추정하는 것이 또한 가능하다. 그 다음, 이러한 모델들의 파라미터들이 최적화될 수 있다. 더욱이, 비용 함수의 추가적인 비용에 의해 페널티가 부과되는 피처 공간 내의 최근접 요소와의 윤곽의 편차에 의해, 또는 예를 들어, 최종 윤곽이 이전에 학습된 모델 공간 내에 있는 보조 조건과 같은 최적화에서의 보조 조건으로서, 모델이 사용될 수도 있음을 유의해야 한다. 실시예들로부터 모델들을 학습시키는 대신에, 안경테의 테 내측 에지들의 곡선을 추적하는 트레이서 장치에 의해 제공되는, 예를 들어 3D 좌표의 형태 또는 2D 좌표의 형태의 소위 트레이서 데이터에 기초하는 모델들과 같은 해당 모델들이 또한 본 발명의 범위 내에서 한정될 수 있음은 물론이다.
색상 평가 알고리즘은 이미지 데이터(b(x))로부터 계산된 안경 렌즈 형태 정보 데이터(di(x))를 고려하는 것이 유리하다. 또한, 이미지 데이터(b(x))로부터 도출된 계산된 정보 데이터(I(x))는 브리지 중심 검출 알고리즘에 의해 설정된 브리지 중심(M)을 포함할 수 있다. 또한, 적어도 2개의 상이한 시선 방향으로부터 기록된 이미지는 연관된 보정 정보와 함께 또는 연관된 보정 정보 없이, 안경 착용자와 관련하여 제공된 이미지 데이터(b(x))의 기초를 형성하는 것이 가능하다.
또한, 이미지 데이터(b(x))로부터 도출된 계산된 정보 데이터(I(x))는 이미지 데이터(b(x))로부터 또는 세분화된 안경 렌즈 데이터(u(x))로부터 삼각 측량 알고리즘에 의해 설정된 깊이 맵 데이터(t(x))를 포함할 수 있다. 비용 함수(E(u))는 안경테에 수용된 좌측 및 우측 안경 렌즈가 서로 대칭이 되는 제약으로서 비용 함수 항에서 고려되는 것이 유리하다. 이는 예를 들어, 안경 착용자의 안면의 3D 지점, 즉 깊이 정보를 갖는 지점이 복수의 이미지로 이미징됨으로써, 이미지 데이터(b(x))에 기초하는 이미지들 내의 해당 지점들이 각각의 이미지에서 안경 렌즈((u(x) = 1)) 또는 안경 렌즈의 뒤에 있는 배경((u(x) = 0))에 할당되거나, 또는 각각의 이미지에서 안경테에 할당된다는 점에서, 예를 들어 이미지 포착 장치들의 상이한 기록 방향들에 해당하는 이미지들과 관련된 입체 조건으로 서로의 위로 이미징된 안경 렌즈 데이터(u(x))의 지점들을 비용 함수가 평가한다는 사실로 수행될 수 있다.
원하는 안경 렌즈 데이터(u(x))를 구하기 위한 비용 함수는 이미지 데이터(b(x))에 포함된 대칭을 안경 렌즈 데이터(u(x))와 상관시키는 대칭 비용 항(E sym(u(x)))을 또한 포함할 수 있다는 점을 유의해야 한다.
본 발명의 사상은 이러한 목적을 위해, 안경 렌즈에 대한 3D 미러 평면을 한정하기 위해, 안경테의 브리지 중심(M)의 정보를 사용하는 것이다. 또한, 정면 사진들의 경우, 브리지 중심(M)은 좌측 및 우측 안경 렌즈에 대한 안경 렌즈 데이터(u(x))를 서로 매칭시키고 그러한 매칭을 위한 대칭 제약을 공식화하는 것을 가능하게 한다. 또한, 안경 렌즈의 좌측 및 우측 내측 렌즈 에지의 중심이 계산되도록, 브리지 중심(M)이 추정될 수 있다.
초기에, 브리지 중심(M)은 예를 들어, 검출된 동공 중심들 사이의 중심점들, 콧날의 위치, 또는 이 두가지 피처들의 가중된 조합을 사용하여 결정될 수 있다.
추가적인 사진들 또는 추가적인 3D 정보 없이 정면 사진만이 존재하는 경우, 그럼에도 불구하고 2D 평면에서의 대칭 제약이 공식화될 수 있다. 이러한 목적을 위해, 예를 들어, 브리지 중심으로서, 안경 착용자의 두 눈 사이의 중간-수직선으로서, 또는 렌즈 에지들을 둘러싸는 초기 또는 중간 솔루션의 2개의 직사각형 또는 평행 사변형의 내측 에지들 사이의 중심선으로서, 미러 축이 추정될 수 있다. 또한, 상기 중심선은 최적화 동안에 적응될 수 있다. 그 다음, 미러링된 우측 또는 좌측 안경 렌즈를 각각의 다른 안경 렌즈에 가능한 최상으로 매핑시키는 것은 매칭 방법에 의해 계산될 수 있다. 그 다음, 서로 매핑된 렌즈 표면들 또는 렌즈 윤곽들의 편차로부터 페널티 항이 계산될 수 있다. 페널티 항은 이 경우 비대칭 솔루션에 대해, 비용 함수에서 추가적인 비용을 유발하는 항이다.
피검사자가 카메라 앞의 완전히 중앙에 안착되지 않은 경우, 정면 사진은 이미지에서 원근 왜곡을 유발할 수 있고, 이에 따라 이미지에서 2개의 렌즈들의 비대칭적 표시들을 유발할 수 있다. 그러나, 그럼에도 불구하고 대칭 조건은 이 경우 바람직하게는 더 작은 가중 인자를 통한 근사화로서 사용될 수 있다.
대안적으로, 정면 사진만이 존재하는 경우, 대칭 조건에 대한 3D 정보를 이러한 방식으로 획득하기 위해, 공간에서의 렌즈의 특정 깊이 및/또는 형상 및/또는 곡률을 추정하는 것이 또한 가능하다.
상이한 시야 각도로부터 안경 착용자에 의해 착용된 안경테를 갖는 안경 착용자의 안면을 포착하는 이미지 포착 장치들로 이미지 데이터(b(x))가 포착된다는 점에서, 그리고 이들 이미지 포착 장치들과 관련된 보정 정보가 알려져 있다는 점에서, 안경테를 갖는 피검사자의 안면에 대한 삼각 측량에 의해, 점군(point cloud)의 형태로 전술한 깊이 맵(t(x))을 계산하는 것이 가능하다. 그 다음, 이러한 점군으로부터, 예를 들어 안경 렌즈들의 실제 윤곽에 대한 근사화의 평면으로서, 3D 안경 렌즈의 형태를 추정하는 것이 가능하다. 그 다음, 이러한 평면으로부터, 비용 함수에 부과된 미러 평면 제약(또는 페널티 항)에 의해, 3차원에서의 안경테의 대칭을 보장하는 것이 가능하다. 그 다음, 본 발명의 범위 내에서, 이러한 3D 정보는 또한 센터링 파라미터를 계산하는데 사용될 수 있다.
따라서, 최적화 루틴에 의한 비용 함수의 최소화에 의해 안경 렌즈의 에지, 즉 안경 윤곽을 계산하기 위한 본 발명에 따른 알고리즘은, 에지 검출 루틴, 색상 평가 루틴, 미러링 루틴, 안경 렌즈 위치 루틴, 삼각 측량 루틴, 브리지 중심 식별 루틴, 안면 피처 식별 루틴, 안경 렌즈의 3D 곡선을 추정하기 위한 루틴의 그룹으로부터의 하나 이상의 루틴을 포함할 수 있다.
정보 데이터(I(x))를 안경 렌즈 데이터(u(x))와 연결시키는 비용 함수(E(u))는 기계 학습에 의해 데이터로부터 학습된 적어도 하나의 모델을 포함할 수 있음을 유의해야 한다.
기계 학습에 의해 데이터로부터 학습된 모델은, 매핑이 가급적 양호하게 실시예 데이터(훈련 데이터)를 기술하고 새로운 실시예들(검증 데이터)로 또한 일반화되도록, 실시예 데이터 세트에 기초하는 기계 학습 알고리즘에 의해 파라미터들이 자동적으로 학습되거나 적응된 매핑을 의미하는 것으로 본원에서 이해되어야 한다.
본 발명은 또한 컴퓨터 시스템에 로딩되어 컴퓨터 시스템에서 실행될 때, 전술한 청구항 중 어느 한 항에 따른 방법을 수행하도록 설계된 프로그램 코드를 갖는 컴퓨터 프로그램으로 확장된다.
안경 착용자를 위한 안경 렌즈의 에지의 곡선을 설정하기 위한 본 발명에 따른 장치는, 착용 안경테를 갖는 안경 착용자에 관한 이미지 데이터(b(x))를 제공하기 위한 적어도 하나의 이미지 포착 장치를 포함하고, 이미지 데이터(b(x))로부터 도출된 정보 데이터(I(x))를 계산하기 위한 수단, 정보 데이터(I(x))를 안경 렌즈 데이터(u(x))와 연결시키는 비용 함수(E(u))를 계산하기 위한 수단, 및 비용 함수(E(u))를 최적화함으로써 안경 렌즈의 에지의 곡선을 설정하기 위한 수단을 가지며, 안경 렌즈 데이터(u(x))는 안경테에 유지되는 적어도 하나의 안경 렌즈의 공간 범위를 기술한다.
본 발명은 안경테에서 좌측 안경 렌즈 및/또는 우측 안경 렌즈를 센터링하기 위한 방법으로 추가로 확장된다.
안경 렌즈를 안경테에 정확하게 끼워 맞추기 위해서는, 안경테를 센터링할 필요가 있으며, 즉 렌즈의 광학 중심을 안경 착용자의 눈의 시축과 정렬시켜서 안경 렌즈가 안경 착용자의 시력을 위한 가능한 최상의 시력을 가능하게 한다.
안경 렌즈를 센터링하기 위해서, 예를 들어 안경테와 관련된 동공의 높이에 관한 정보 및 동공 거리에 관한 정보와 같은 센터링 파라미터를 인지할 필요가 있다. 또한, 안경 렌즈를 센터링하기 위해서는, 안경 렌즈가 삽입되는 안경테의 하부 또는 상부 에지와 관련된 비율의 안경 렌즈의 광학 중심의 높이를 인지하는 것이 중요하다.
안경테에서 좌측 안경 렌즈 및/또는 우측 안경 렌즈를 센터링하기 위한 본 발명에 따른 방법에서, 단계 (i)는 안경 렌즈에 관한 센터링 파라미터를 결정하는 단계를 포함하며, 센터링 파라미터를 결정하는 단계는 위에서 특정된 바와 같은 안경 렌즈의 에지의 표시를 설정하는 단계를 포함하고, 추가적인 단계 (ii)는 이전 단계 (i)에서 결정된 센터링 파라미터를 사용하여 안경테에서 안경 렌즈를 센터링하는 단계를 포함한다.
또한, 본 발명은 좌측 안경 렌즈 또는 우측 안경 렌즈를 안경테 내로 연삭 가공하기 위한 방법으로 확장되며, 단계 (i)는 센터링 파라미터를 결정하는 단계를 포함하고, 센터링 파라미터를 결정하는 단계는 위에서 특정된 방법에 의해 안경 렌즈의 에지의 표시를 설정하는 단계를 포함하며, 추가적인 단계 (ii)는 이전 단계 (i)에서 결정된 센터링 파라미터에 기초하여 안경테에서의 배치를 위해 안경 렌즈를 연삭 가공하는 단계를 포함한다.
더욱이, 본 발명은 위에서 특정된 방법에 따라 안경 렌즈를 안경테 내로 연삭 가공하는 방법 단계를 사용하는 좌측 안경 렌즈 또는 우측 안경 렌즈를 제조하기 위한 방법으로 또한 확장된다.
또한, 본 발명은 위에서 특정된 방법 중 하나 이상이 사용되는 안경을 제조하기 위한 방법으로 확장된다.
본 발명은 개략적인 방식으로 도면에 나타낸 실시형태의 실시예를 사용하여 이하에서 보다 상세히 설명된다. 도면으로서:
도 1은 안경테에서 2개의 안경 렌즈의 에지의 표시를 설정하기 위한 장치를 도시한다;
도 2는 안경테에 매칭된 좌측 및 우측 안경 렌즈의 에지의 표시를 도시한다;
도 3a 내지 도 3f는 안경 렌즈에 대한 다양한 센터링 파라미터를 도시한다;
도 4는 안경테에 수용된 안경 렌즈의 에지의 표시를 설정하기 위한 컴퓨터 프로그램의 알고리즘을 도시한다;
도 5는 안경테를 갖는 안경 착용자와 관련된 이미지 데이터를 도시한다;
도 6은 안경테를 갖는 안경 착용자의 안면 피처들을 도시한다;
도 7은 안경테를 갖는 안경 착용자와 관련된 선택된 이미지 데이터를 도시한다;
도 8은 에지 정보 이미지를 도시한다;
도 9는 색상 정보 이미지를 도시한다;
도 10은 제1 미러링과 관련된 정보 이미지를 도시한다;
도 11은 제2 미러링과 관련된 정보 이미지를 도시한다;
도 12는 렌즈 모델 확률 맵을 도시한다;
도 13은 브리지 중심을 갖는 이미지 데이터를 도시한다;
도 14는 깊이 맵 정보 데이터를 도시한다;
도 15는 안경 렌즈 데이터의 제1 표시를 도시한다;
도 16은 다양한 안경 렌즈 데이터에 대한 비용 함수의 값들을 도시한다; 그리고
도 17 내지 도 22는 안경 렌즈 데이터의 추가적인 표시를 도시한다.
도 1에 도시된 장치(10)는 카메라 기반의 센터링 시스템으로서, 안경테에서 2개의 안경 렌즈의 에지의 표시를 결정할 수 있게 한다. 장치(10)는 안경 착용자(20)의 이미지 데이터의 포착을 위한 이미지 센서(15)를 갖는 서로 참조되는 이미지 포착 장치(14, 16, 18)를 보유한 기둥(12)을 갖는다. 이는 입력 인터페이스(22)로서 키보드 및 모니터 형태의 출력 인터페이스(23)를 갖는 이미지 포착 장치(14, 16, 18)에 연결된 컴퓨터 장치(21)를 포함한다.
안경 착용자(20)는 예를 들어, 이미지 포착 장치(14, 16, 18)에 의한 이미지 데이터의 검출을 위해, 기둥(12)으로부터의 기록 거리(A
Figure pct00001
30 cm)에서 선택된 안경테(24)를 착용한 상태로 예를 들어 전문 안경점에서 자신을 위치시킨다. 이미지 포착 장치(14, 16, 18)에 의해, 안경 착용자(20)의 안면(25)이 상이한 기록 방향(19)으로 포착될 수 있다.
장치(10)는 안경 착용자(20)의 장애 시력을 교정하여 가능한 한 먼 곳으로 이를 보정하기 위해, 안경 착용자(20)에 의해 선택된 안경테(24)에 수용되어 유지되도록 의도된 안경 렌즈의 에지의 표시를 결정할 수 있게 한다. 이러한 목적을 위해, 안경테(24)가 놓인 안경 착용자(20)의 안면(25)을 나타내는 이미지 데이터 세트(b(x))가 이미지 포착 장치(14, 16, 18)에 의해 기록된다. 안경테(24)에 매칭된 안경 렌즈의 에지의 원하는 표시를 설정하기 위해, 안경 렌즈를 포함하는 안경 착용자(20)에 의해 착용된 안경테(24) 없이 이미지 데이터 세트(b(x))가 기록될 수 있다. 그러나, 지원 렌즈 또는 안경 렌즈가 장착된 안경테(24)를 안경 착용자(20)가 착용하고 있는 경우에 해당 이미지 데이터 세트(b(x))를 기록하는 것 또한 가능하다.
도 2는 안경 렌즈(28)를 유지하는 안경테(24)의 섹션을 갖는 좌측 안경 렌즈(28) 및 우측 안경 렌즈(29)를 도시한다. 이 경우 안경 렌즈(28)의 에지(26)는 표준 DIN EN ISO 13666:2013-10, 섹션 13.4에서 정의된 안경 렌즈의 베어링 에지를 의미하는 것으로 이해된다. 베어링 에지는 안경 렌즈의 렌즈형 부분, 즉 DIN EN ISO 13666:2013-10의 섹션 13.2의 정의에 따라 안경 렌즈(28, 29)의 사전 정의된 굴절 효과를 갖는 부분을 둘러싸고 제한한다. 안경 렌즈의 베어링 에지는, 무테 안경의 경우, 안경 착용자(20)로부터 멀어지게 지향되는 안경 렌즈(28, 29)의 측면(30)의 에지, 소위 렌즈 외측 에지와 일치할 수 있다. 렌즈 외측 에지는 안경 착용자(20)에 의해 착용된 안경테(24)에 부분적으로 숨겨져 있다.
안경테(24)에 매칭된 안경 렌즈(28)의 에지(26)의 표시로서, 장치(10)는 이미지 포착 장치(16)의 이미지 센서(15)의 이미지 평면에 있는 다수의 지점을 데이터 세트로서 설정하며, 다수의 지점은 이러한 이미지 평면에서의 안경 렌즈(28)의 베어링 에지(26)의 돌출을 기술한다.
안경테(24)에 매칭된 안경 렌즈(28)의 에지(26)의 곡선에 대한 정확한 지식은 눈 및 안경 렌즈(28)를 기술하는 추가적인 변수를 고려함으로써 소위 센터링 파라미터의 정확한 결정을 가능하게 한다.
도 3a는 안경 착용자(20)가 착용하고 있는 안경테(24)의 안경 렌즈(28)에 대한 동공 거리(PD)의 센터링 파라미터를 도시한다. 도 3b에서 연삭 가공 높이(E)는 추가적인 센터링 파라미터로서 간주된다. 도 3c는 각막정 거리(HS)의 센터링 파라미터를 도시한다. 도 3d는 수직선(31)에 관련된 센터링 파라미터 경사각(α)을 도시한다. 도 3e는 센터링 파라미터로서, 테 렌즈 각도(β), 즉 테 평면과 좌측 및 우측 렌즈 평면 사이의 각도를 도시하며, 도 3f는 박스 치수 센터링 파라미터로서, 즉 안경테(24)의 안경 렌즈들(28) 사이의 거리(bw), 렌즈 폭(sb) 및 렌즈 높이(sh)를 도시한다.
장치(10)의 컴퓨터 장치(21)는 이미지 포착 장치(14, 16, 18)에 의해 제공된 이미지 데이터(b(x))로부터 안경테(24) 내로 수용된 안경 렌즈(28)의 에지(26)의 표시를 자동으로 설정하는 컴퓨터 프로그램을 포함한다. 이러한 컴퓨터 프로그램은 제공된 이미지 데이터(b(x))에 기초하여 동공 중심 및 테 에지와 같은 피처들이 자동으로 검출될 수 있게 하고, 안경테(24)에 참조되는 좌표계(32)에서 이들의 위치가 서브-픽셀 정확도로 결정될 수 있게 한다. 또한, 컴퓨터 프로그램은 안경테(24)의 좌표계(32)에 참조되는, 이미지 포착 장치(14, 16, 18)의 이미지 센서(15)의 이미지 평면의 위치를 삼각 측량에 의해 설정한다.
도 4를 참조하면, 안경 렌즈(28)의 에지(26)의 표시를 설정하기 위해 후자에서 변환된 알고리즘(34)이 아래에서 설명된다.
제1 단계에서, 알고리즘(34)은 도 4에 도시된 바와 같이, 이미지 포착 장치(16)에 의해 제공된 이미지 데이터(b(x))로부터, 도 5에 도시된 안경테(24)를 갖는 안경 착용자(20)의 이미지(36)의 관련 이미지 섹션(38)을 결정한다.
관련 이미지 섹션(38)을 결정하기 위해, 이미지 데이터(b(x))가 안면 피처 식별 루틴(40)에서 처리된다. 안면 피처 식별 루틴(40)은 데이터 샘플(42)과의 비교에 의해 이미지 데이터(b(x))로부터 코 영역, 눈, 턱 영역 및 입술 영역의 위치를 설정하며, 데이터 샘플(42)은 도 6에 도시되고 착용 안경테(24)를 갖는 안경 착용자(20)의 안면에 대한 해당 기록들의 특성이다.
안경 착용자(20)의 안면 피처 또는 복수의 안면 피처에 기초하여, 안경 착용자(20)에 의해 착용된 안경테의 안경테(24)의 에지가 정상적으로 놓이는 영역을 계산하는 것이 가능하다. 예를 들어, 안경 착용자(20)의 눈에 해당하는 이미지 지점들은 안경 렌즈(28) 상에 있는 이미지 지점들이라는 것을 유의해야 한다.
도 7은 안경테(24)를 갖는 원하는 이미지 섹션(38)의 이미지 데이터(b(x))로부터 안면 피처 식별 루틴(40)에 의해 설정된 부분적인 이미지 데이터(bA(x))를 도시한다. 그 다음, 알고리즘(34)에서, 에지 정보 데이터(46)를 갖는 에지 정보 이미지(g(x))는 에지 검출 알고리즘에 의해 에지 검출 루틴(44)에서 부분적인 이미지 데이터(bA(x))로부터 계산된다. 도 8은 에지 정보 데이터(46)를 갖는 에지 정보 이미지(g(x))를 이미지 지점들로서 회색톤 이미지(48)로 도시한다.
또한, 알고리즘(34)에서, 색상 평가 알고리즘에 의해 색상 평가 루틴(50)에서 이미지 데이터(b(x))로부터 색상 정보 이미지(f(x))가 계산된다.
색상 평가 알고리즘(f(x))은 안경 렌즈(28)가 있는 이미지 영역들의 이미지 지점들과 안경테(24)에 해당하는 이미지 영역들에 있는 이미지 지점들 간에 구별하는데 사용된다. 색상 평가 알고리즘은 이러한 목적을 위해, 예를 들어 피부색 모델과 같은 색상 모델을 사용하며, 이에 의해 안경 착용자(20)의 안면(25)의 이미지 지점들이 안경테(24) 상에 있는 이미지 지점들로부터 분리될 수 있다. 색상 평가 알고리즘은 저역 통과 필터 루틴을 포함하며, 이에 의해 하나 이상의 이미지 포착 장치(14, 16, 18)로 포착된 이미지 데이터(b(x))가 평활화됨으로써, 이에 따라 안경 착용자(20)에 의해 착용된 안경테(24)가 없는 안경 착용자(20)의 안면(25)의 근사 표시에 해당하는 데이터를 획득한다. 그 다음, 이러한 근사 표시의 데이터는 안경 렌즈(28) 내에 있는 이미지 지점들에 대한 색상 모델로서 사용된다. 또한, 색상 평가 알고리즘(f(x))에서, 예를 들어 RGB 색상 공간으로부터 YCbCr 색상 공간 또는 HSV 색상 공간으로의 색상 공간 변경이 수행됨으로써, 이에 따라 이미지 지점들의 휘도 정보를 이미지 지점들의 색상 정보와 분리시킬 수 있다. 또한, 색상 평가 알고리즘은 이미지 포착 장치(14, 16, 18)에 의해 포착된 안경 착용자(20)의 이미지의 결정된 이미지 지점들에 기초하여, 예를 들어 안경 착용자(20)의 안면(25)의 콧날 상에 있는 지점들에 해당하는 이미지 지점들에 기초하여, 다수의 이미지로부터 적절한 색상 공간이 학습되도록 하거나 또는 예를 들어 피부색 공간과 같은 색상 공간이 학습되도록 하는 것이 가능할 수 있다는 점을 유의해야 한다. 또한, 거리 정보가 색상 모델에 영향을 줄 수 있다. 픽셀이 피검사자의 눈으로부터 더 멀어질수록, 안경 렌즈 영역 또는 렌즈 에지에 속할 가능성이 더 낮아진다.
도 9는 색상 평가 알고리즘의 맥락에서 설정된 색상 정보 데이터(52)를 이미지 지점들로서 추가적인 회색톤 이미지(48)로 도시한다. 안경 렌즈(28) 및/또는 안경테(24) 상에서 보일 수 있는 미러링 또는 반사(54)는 안경의 에지와 쉽게 혼동될 수 있는 별개의 에지를 생성한다. 더욱이, 미러링 또는 반사와 관련된 이미지 지점은 안경 착용자(20)의 피부색 및 많은 안경테(24)의 색상과 상이한 색상을 갖는다.
한편으로는 안경테(24)에서의 광의 미러링 및 반사로 인한 그리고 다른 한편으로는 안경 렌즈(28)에서의 광의 미러링 및 반사로 인한 이미지 데이터(b(x))의 이미지 지점들을 식별하기 위해, 알고리즘(34)에는 미러링 검출 루틴(58)이 있다. 미러링 검출 루틴(58)은 이미지 데이터(b(x))에서, 그 휘도가 임계값을 초과하는 이미지 지점들을 식별하며, 미러링 정보 데이터(s(x))의 형태로 이러한 정보를 이용 가능하게 한다.
그러나, 대안적으로 또는 부가적으로, 광의 해당 미러링 및 반사를 식별함으로써, 이미지 데이터(b(x))를 다른 색상 공간, 예를 들어 CMYK 색상 공간으로 변환한 다음, 3개의 색상 채널에 대한 적절한 임계값들을 CMYK 색상 공간에서 설정하는 것이 또한 가능하며, 이러한 임계값들을 초과하는 경우에 이미지 지점은 미러링 또는 반사에 있는 이미지 지점으로서 자격을 갖는다. 한편으로는 안경테(24)에서의 광의 미러링 및 반사로 인한 이미지 데이터(b(x))의 이미지 지점들을 식별하기 위해, 안경 렌즈(28) 및 안경테(24)에서의 광의 미러링 및 반사의 형태를 평가하는 것이 또한 가능하다. 따라서, 예를 들어, 안경테 상의 미러링은 일반적으로 신장형 형태를 갖는다. 따라서, 미러링 루틴에서, 형태에 기초하는 미러링 및 반사의 식별을 위해, 반사 또는 미러링에 해당하는 다수의 이미지 지점 내로 내접될 수 있는 타원의 주축 길이의 비율 또는 형태 인자가 또한 사용될 수 있다. 이미지 데이터(b(x))에서 광의 해당 미러링 및 반사의 식별을 위해, 안경 착용자의 눈 상에 있는 지점들에 해당하는, 제1 이미지 지점으로부터 제2 이미지 지점으로의 거리가 유리하게 평가될 수도 있다는 점을 유의해야 한다.
도 10은 미러링 검출 루틴(58)에 의해 설정되고 안경 렌즈(28) 상의 반사(54) 또는 미러링과 함께 있는, 이미지 데이터(b(x))로부터의 이미지 지점들을 흑백 이미지(56)로 도시한다. 도 11은 미러링 검출 루틴(58)에 의해 설정되고 안경테(24) 상의 반사(54) 또는 미러링과 함께 있는, 이미지 데이터(b(x))로부터의 이미지 지점들을 도시하며, 이미지 지점들은 흑백 이미지(56)로 도시된다.
안경테(24)에 수용된 안경 렌즈(28) 상에 있는 이미지 데이터(b(x))의 이미지 지점들의 식별을 간소화하기 위해, 알고리즘(34)은 안경 렌즈 위치 루틴(60)을 포함한다.
안경 렌즈 위치 루틴(60)은 안경 렌즈 모델의 형태의 다수의 안경 렌즈 정보 데이터에 기초하여, 포착된 이미지 데이터가 안경 렌즈(28, 29) 상에 있을 확률에 대한 확률 맵을 설정한다. 도 12는 확률 맵의 확률 값들(w(x))을 확률 정보 데이터(62)로서 회색톤 이미지(48)로 도시한다.
이에 대한 대안으로서, 예를 들어, 안경 렌즈(28)의 영역들에 관한 이미지 데이터(b(x))에 포함된 정보에 기초하여 또는 안경 렌즈(28)의 윤곽 상에 있는 이미지 지점들에 관한 이미지 데이터(b(x))에 포함된 정보로부터, 안경 렌즈(28)의 형태에 대한 파라메트릭 모델이 또한 추정될 수 있음을 유의해야 한다. 그 다음, 이러한 모델들의 파라미터들이 최적화될 수 있다.
안경테(24)에 수용된 안경 렌즈(28) 상에 있는 이미지 데이터(b(x))의 이미지 지점들의 식별을 간소화하기 위해, 알고리즘(34)은 이미지 데이터(b(x))로부터 도 13에 나타낸 안경테(24)의 브리지(27)의 중심(M)을 결정하는 브리지 중심 식별 루틴(64)을 포함한다. 브리지 중심 식별 루틴(64)은 이미지 포착 장치(14, 16, 18)에 의해 포착된 이미지 데이터(b(x))로부터 좌측 및 우측 안경 렌즈(28)의 에지의 중심을 결정함으로써, 안경테(24)의 브리지(27)의 중심을 이미지 처리에 의해 계산한다. 도 13은 이미지 데이터(b(x))로부터 결정된 브리지 중심(66) 및 안경테(24)를 갖는 원하는 이미지 섹션(38)(관심 영역)에서의 이미지 데이터(b(x))로부터 안면 피처 식별 루틴(40)에 의해 설정된 이미지 데이터를 도시한다. 또한, 예를 들어, 검출된 동공 중심들 사이의 중심점을 사용하여, 콧날의 위치를 사용하여, 또는 이러한 2가지 피처들의 가중된 조합을 사용하여, 또는 실시예 데이터 세트에 기초하는 기계 학습 방법에 의해, 브리지 중심(66)이 결정될 수 있다는 것을 유의해야 한다.
알고리즘(34)에서 브리지 중심 식별 루틴(64)은 브리지 중심(66)의 정보를 대칭 루틴(68)으로 전송한다.
또한, 알고리즘(34)은, 다른 이미지 포착 장치(14, 16, 18)를 사용하여 포착된 추가적인 이미지(37)의 이미지 데이터(b(x))의 정보로부터, 보정 루틴(39)에서 장치 상수로서 알려진 이미지 포착 장치(14, 16, 18)와 관련된 보정 정보를 사용하여, 도 14에 도시된 깊이 맵 정보 데이터(t(x))를 삼각 측량에 의해 계산하는 삼각 측량 루틴(69)을 포함한다.
이미지 포착 장치(14, 16, 18)와 관련된 보정 정보는, 이미지 포착 장치의 공간에서의 기록 방향(19)의 상대적인 정렬, 즉 기록 방향(19)의 광학 축의 상대적 정렬과 같은 외적 속성을 의미할 뿐만 아니라, 이미지 포착 장치(14, 16, 18)의 내적 속성, 즉 이미지 포착 장치(14, 16, 18)의 이미지 센서(15)의 이미지 평면에서 이미징된 해당 이미지 포착 장치(14, 16, 18)에 참조된 좌표계의 공간에서의 지점의 좌표가 이미지 센서(15)의 이미지 평면에 있는 이러한 지점의 이미지 지점의 좌표로 이송되는 방법을 한정하는 이미지 포착 장치(14, 16, 18)의 속성을 의미하는 것으로 이해된다. 카메라 형태의 이미지 포착 장치의 보정에 대한 포괄적인 설명은 예를 들어, Richard Hartley 및 Andrew Zisserman의 "컴퓨터 비전에서의 다중 시야 기하학적 구조" 교과서 8페이지, 제2 판, 캠브리지 대학 출판(2004년)에서 구할 수 있으며, 이는 본원에 의해 참조되며 이의 개시물은 본 발명의 본 설명에 포함된다.
깊이 맵 정보 데이터의 정보는 점군 형태의 깊이 맵에 해당하며, 이는 실제 안경 윤곽에 대한 근사화로서 예를 들어 평면 형태로 3D 안경 렌즈의 공간 범위를 추정하는 것을 가능하게 한다.
깊이 맵 정보 데이터(t(x))는 입체 기록을 위한 루틴(71)에 공급된다.
알고리즘(34)은 비용 함수 루틴(70)을 포함한다. 비용 함수 루틴(70)에서, 회색톤 이미지(48)로서 도 8에 도시된 에지 정보 이미지(g(x))의 에지 정보 데이터(g(x)), 및 회색톤 이미지(48)로서 도 9에 도시된 안경 렌즈 모델을 사용하여 미러링 및 반사가 보정된 색상 정보 데이터(f(x)) 뿐만 아니라, 깊이 맵 정보 데이터(t(x))의 정보를 또한 포함하는 입체 평가 데이터(d(x)) 및 대칭 평가 데이터(r(x))가 안경 렌즈 데이터(u(x))에 연결됨으로써, 결정론적으로 최적화 가능한 비용 함수(E(u))를 형성한다. 그 다음, 이러한 비용 함수(E(u))는 알고리즘(34)의 최적화 루틴(75)에서 결정론적으로 최적화된다.
도 15는 도 4에 도시된 알고리즘(34)의 최적화 루틴(75)에 대한 초기 데이터로서 안경 렌즈 데이터(u(x))의 표시이다. 도 15는 안경 렌즈의 영역의 내부에서 값 1을 가정하고 상기 영역의 외부에서 값 0을 가정하는 이진 함수(u: Ω → {0.1})의 값들의 형태로 안경 렌즈 데이터(u(x))를 흑백 이미지(56)로서 도시한다.
Figure pct00002
는 안경 렌즈가 검출될 이미지의 이미지 좌표를 나타낸다. 그 다음, 이러한 이진 함수의 소위 분포 도함수는 도 2에 도시된 안경 렌즈(28)의 원하는 에지(26)에 해당한다.
그러나, 안경 렌즈 데이터(u(x))의 표시는 또한 예를 들어, 도 2에 도시된 안경 렌즈(28)의 에지(26) 상에 있고 이에 따라 이러한 에지를 기술하는 n개의 지점들(p1,...,pn ∈ Ω)의 시퀀스로 구성될 수 있다. 또한, 안경 렌즈 데이터(u(x))의 표시는 안경 렌즈(28)의 윤곽을 기술하는 폐곡선
Figure pct00003
일 수 있다. 이러한 곡선은 특히 곡선 길이에 의해 파라미터화될 수 있다. 예를 들어, 곡선의 연속성 및 작은 곡률을 보장하기 위해, 예를 들어 스플라인 형태의 기본 함수들과 같은 적절한 기본 함수들의 선형 조합으로서 이러한 곡선을 기술하는 것이 가능하다. 또한, 안경 렌즈(28)의 공간 범위는 특히 3D 함수
Figure pct00004
를 사용하여 음함수로 나타낼 수 있으며, 예를 들어 0과 같은 특정 값에서 이의 레벨 세트들, 즉 동일한 값으로 이미징된 이러한 함수의 한정 범위의 값들은 안경 렌즈(28)의 에지를 에지 곡선의 형태로 한정한다는 점을 유의해야 한다. 동시에, 음의 값들은 안경 렌즈 영역을 한정하며, 양의 값들은 안경 렌즈 외부의 영역을 한정하거나, 그 반대도 가능하다.
알고리즘(34)의 비용 함수 루틴(70)에서 생성된 결정론적으로 최적화 가능한 비용 함수(E(u))는 아래에서 재현된다. 다음 사항이 적용된다:
Figure pct00005
색상 비용 항
Figure pct00006
이고,
여기서 안경 렌즈 데이터(u(x))는 안경테(24)에 유지된 적어도 하나의 안경 렌즈(28)의 공간 범위를 기술하며, f(x)는 이미지 데이터(b(x))로부터 설정된 색상 정보 데이터이고,
에지 비용 항
Figure pct00007
이며,
여기서 D는 분포 감지에서의 u의 기울기이고, 그 항은 안경 렌즈 데이터 에지가 이미지 데이터(b(x))로부터의 검출된 에지와 일치하는 경우 최소인 에지 정보 데이터(g(x))로 가중된 안경 렌즈의 윤곽 길이를 계산하며,
대칭 비용 항
Figure pct00008
는,
안경테(24)의 중심 평면에 대한 좌측 및 우측 안경 렌즈(28)의 대칭을 평가하고, 입체 비용 항은
Figure pct00009
이며,
여기서 1 ≤ i, j ≤ n이고, 이는 복수의 이미지 사진에서 안경 렌즈 내의 지점들을 서로 관련시킨다.
μ, γ 및 δ는 개별 변수가 전체 결과에 미치는 영향을 결정하는 개별 항들의 가중 인자들이다.
색상 비용 항(Ecolour(u(x)))에서, 이미지 데이터(b(x))의 색상은 안경 렌즈 데이터(u(x))와 상관되어 평가된다. 에지 비용 항(Eedge(u(x)))은 이미지 데이터(b(x))의 이미지 에지와 안경 렌즈 데이터 함수(u(x))의 분포 도함수의 상관 관계이다. 대칭 비용 항(Esym(u(x)))은, 브리지 중심을 통하는 중앙 평면에서 반사된 안경 렌즈 데이터(u(x)), 및 반사된 데이터와의 안경 렌즈 데이터(u(x))의 편차가 평가된다는 점에서, 이미지 데이터(b(x))에 포함된 대칭을 안경 렌즈 데이터(u(x))와 상관시킨다.
대칭 비용 항(Esym(u(x)))에서, 깊이 맵 정보 데이터(t(x))에 기초하는 3D 대칭 추정치가 계산될 수 있으며, 이에 따라 안경테(24)의 좌측 및 우측 안경 렌즈는 3D 평면에 대해 대칭적이고, 3D 평면은 브리지 중심 식별 루틴(64)에서 결정된 선형 브리지 중심(66)에 의해 그리고 장치(10)의 이미지 포착 장치(14, 16, 18) 중 하나의 알려진 보정 정보에 의해 한정된다.
대칭 비용 항(Esym(u(x)))에서, 설정된 3D 평면은 이에 할당된 미러 평면의 함수를 가지며, 미러 평면은 3차원 공간에서, 좌측 및 우측 안경 렌즈 상에 있는 지점들을 서로의 위로 이미징하고, 이러한 이미지의 실제 및 설정점 값들의 편차(r(x))는 대칭 비용 항(Esym(u(x)))에서 평가된다. 그 다음, 대칭 항(Esym(u(x)))은 서로 대칭이 아닌 2개의 안경 렌즈에 해당하는 안경 렌즈 데이터(u(x))에 할당되고, 이의 모든 비용 값들이 더 클수록, 2개의 안경 렌즈의 편차가 더 커져서, 대칭 평가 데이터(r(x))로서 알고리즘(34)에서 작용한다. 따라서, 비용 함수의 최적화에서 구해진 안경 렌즈 데이터(u(x))는 서로 대칭적인 안경 렌즈들을 기술하도록 보장된다. 이에 대한 대안으로서, 비용 함수의 최적화에 의해 구해진 안경 렌즈 데이터(u(x))가 대칭적이라는 것을 제약으로 명시하는 것이 또한 가능하다.
예를 들어, 좌측 안경 렌즈(28)의 안경 렌즈 데이터(u(x))가 이미지 포착 장치(14, 16, 18)의 이미지 센서(15)의 이미지 평면의 브리지 중심(66)에서 우측 안경 렌즈(29)의 안경 렌즈 데이터(u(x)) 상으로 미러링된 다음, 비용 함수로 입력되는 설정점 값들과 관련된 실제 값들과의 편차들(r(x))이 차례로 계산된다는 점에서, 깊이 맵 정보 데이터가 존재하지 않더라도, 대칭 비용 항(Esym(u(x)))에서 2D 대칭 추정치를 계산하는 것이 가능하다는 점을 유의해야 한다.
복수의 이미지 포착 장치와 관련된 보정 정보는 이미지 포착 장치에 의해 포착된 적어도 2개의 이미지에 해당하는 이미지 데이터(u(x))에 기초하여, 알고리즘의 견고성을 증가시키는 것을 가능하게 한다는 점을 유의해야 한다. 특히, 이러한 보정 정보는 이러한 이미지들과 관련된 이미지 데이터(b(x))에 기초하여, 안경테의 내측 에지 또는 안경 렌즈의 에지가 모든 또는 복수의 이미지에서 동시에 최적화되도록 하는 것을 가능하게 하며, 안경 에지 데이터(u1(x),..., un(x))가 입체 비용 항(Estereo(ui(x), uj(x)))에서의 보정 정보에 의한 최적화 동안 각각의 경우에 2개의 이미지에 대해 서로 관련될 수 있도록 하는 것을 가능하게 한다. 따라서, 상이한 이미지에서의 안경 에지 데이터는 ui(x) 및 uj(x) (1 ≤ i, j ≤ n)에서의 상호 해당 지점들의 편차들의 페널티 부과에 의해 상호 영향을 받을 수 있다.
또한, 2개의 이미지 ui(x) 및 ui(x)로부터 설정된 안경 에지 데이터를 서로 관련시키기 위해, 다른 비용 항이 비용 함수(E(u)) 내로 도입될 수 있거나, 또는 입체 정보의 계산에 기초하는 비용 함수의 최적화를 위한 제약이 특정될 수 있다. 이러한 입체 정보는 제1 이미지 포착 장치로 포착된 이미지 내의 각각의 이미지 지점과 관련하여, 동일한 3D 지점이 이미징된 제2 이미지에서 상기 이미지 지점이 구해진다는 사실을 포함할 수 있다. 이러한 목적을 위해, 예를 들어, 각각의 이미지 쌍의 각 지점에 대해, 연관된 불일치 및 이로부터 공간에서 이의 깊이를 결정하는 입체 알고리즘을 사용하는 것이 가능하다. 견고성을 더 높이기 위해, 3D 모델이 이러한 불일치 맵 또는 연관된 깊이 맵에 적응될 수도 있다. 그 다음, 이러한 정보에 기초하여, 안경 렌즈 데이터(ui(x))의 연관된 입체 지점들과의 안경 렌즈 데이터(u1(x))의 편차를 계산하는 제약 또는 비용 항이 특정될 수 있으며, 편차는 입체 평가 데이터(d(x))로서 작용한다. 이러한 입체 평가 데이터(d(x))는 특히 각각의 이미지 쌍에 대해 계산될 수 있다.
입체 평가 데이터(d(x))는 비용 함수(E(u))에서의 추가적인 비용 항(Estereo(ui(x), (ui(x)))으로서 또는 비용 함수(E(u))의 최적화에서의 제약으로서 고려될 수 있으며, 이는 하나 이상의 이미지 포착 장치로 포착된 상이한 이미지들에 기초하는 안경 렌즈 데이터(u(x)) 간에 차이가 발생할 수 없도록 보장한다.
도 16은 안경 렌즈 데이터(u(x))를 갖는 안경 렌즈 데이터 세트에 대한 최적화 루틴의 상이한 중간 결과(i = 0, 1, 2, 3, ...)에 대한 비용 함수(E(u))의 값들을 도시한다. 안경 렌즈 데이터(u(x))를 가변시킴으로써, 비용 함수(E(u))가 최소값(72)으로 최적화될 수 있다. 그 다음, 이러한 조치는 안경 착용자(20)에 의해 착용된 안경테(24)에 매칭된 안경 렌즈(28)의 에지를 정확하게 기술하는 안경 렌즈 데이터(u(x))를 구하는 것을 가능하게 한다.
알고리즘(34)은 비용 함수(E(u))가 최소인 비용 함수 루틴(70)의 비용 함수와 관련된 안경 데이터(u(x))를 결정하는 최적화 루틴(75)을 포함한다.
도 17 내지 도 22는 도 16에 나타낸 비용 함수(E(u))의 최소값(72) 및 값들(84, 86, 88, 90)에 해당하는, 안경 렌즈 데이터(u(x))에 관한 상이한 안경 렌즈 데이터 세트(i, i=74, i=76, i=78, i=80, i=82)와 관련된 표시(74, 76, 78, 80 및 82)를 흑백 이미지(56)로서 도시한다. 도 15에 나타낸 안경 렌즈 데이터(u(x))는 초기 데이터 세트로서, 이를 통해 비용 함수(E(u))가 최적화된다. 도 22에 나타낸 안경 렌즈 데이터(u(x))는 비용 함수(E(u))의 최적화에 의해 구해진 것들이다. 이들은 도 1에 도시된 안경 착용자(20)에 의해 착용된 안경테(24) 내로 끼워 맞추기에 적합한 안경 렌즈(28)의 원하는 에지의 정보를 2개의 영역(94, 96)의 에지의 형태로 포함한다. 알고리즘(34)에서, 안경 렌즈(28)의 원하는 에지는 에지 계산 루틴(77)에서 비용 함수(E(u))를 최적화함으로써 구해진 안경 렌즈 데이터(u(x))로부터 결정된다. 또한, 이러한 에지 계산 루틴(77)은 예를 들어, 렌즈 외측 에지가 해당 안경 렌즈(28)의 설정된 베어링 에지로부터 고정된 거리를 갖는 것으로 특정된다는 사실에 의해, 렌즈 외측 에지가 안경 렌즈의 원하는 베어링 에지로부터 계산되도록 제공될 수 있다.
따라서, 비용 함수(E(u))는 에너지 항들의 합이며, 제약들을 받는다. 2D 및/또는 3D 대칭 조건들이 안경 렌즈 데이터에 부과된다. 비용 함수(u(x))의 최적화는 관련 이미지 섹션(38)에 있는 이미지 데이터(b(x)) 내에서만 수행된다.
각각의 개별 항이 결정론적으로 최적화 가능하고 이에 따라 선형 조합이 결정론적으로 최적화 가능하기 때문에, 특정된 비용 함수는 결정론적으로 최적화 가능하다. 특히, Ecolour(u(x)) 및 Eedge(u(x))는 볼록 항으로서, 프라이멀-듀얼 방법 또는 기울기 하강 방법과 같은 방법들로 전역적으로 최적화될 수 있다. 3D 또는 2D 미러 평면이 알려져 있거나 그와 같이 가정되는 경우, Esym(u(x))는 마찬가지로 볼록 항으로서 공식화될 수 있다. 최적화 동안 후자가 부수적으로 추정되는 경우, 그 항은 볼록이 아니지만, 그럼에도 불구하고 결정론적 방법에 의해 최적화될 수 있어서, 예를 들어 교대로 수행되는 최적화에 의해, 즉 미러 평면이 현재의 솔루션에 기초하는 고정된 수의 단계들 이후 각각의 경우에 적응됨으로써, 사용 가능한 솔루션이 획득된다. Estereo (ui(x), uj(x)) 항은 개별 이미지 지점들 간의 입체 이미징이 알려진 경우 마찬가지로 볼록으로서 공식화될 수 있다. 이는 예를 들어, 이미지 데이터에 기초하여 입체 알고리즘이 사전에 구현된 경우이다. 최적화 동안에 현재 솔루션으로부터 입체 이미징이 추정되는 경우, 그 항은 더 이상 볼록이 아니지만, 대칭 항과 마찬가지로, 결정론적으로 교대로 최적화될 수 있으므로, 사용 가능한 솔루션이 획득된다.
비용 함수(E(u))에서 에너지 항들을 가중시키는 것이 가능하다는 점을 유의해야 한다. 특히, 비용 함수(E(u))에서 개별 에너지 항을 인수 0으로 가중시키는 것이 가능하며, 즉 비용 함수(E(u))에서 개별 에너지 항을 배제시켜서 이에 따라 이를 고려하지 않는 것이 가능하다. 또한, 특히 이러한 곡선의 1차 도함수에 의해, 안경 렌즈(28)의 에지의 길이를 최소화하는 것이 가능하다. 또한, 미러링 및/또는 반사의 포착 시에 생성된 정보 및 렌즈 모델을 고려함으로써 색상 모델과의 편차에 페널티를 부과하는 것이 가능하다. 마지막으로, 알고리즘(34)에서 고려되어 렌즈 평면으로부터 설정되는 2D 및 3D 대칭 조건들은 3D 정보를 기초로 할 수 있어서, 센터링 파라미터의 설정을 또한 가능하게 한다는 점을 유의해야 한다.
원칙적으로, 비용 함수(E(u))는 다양한 방식으로 최소화될 수 있다. 특히, 예를 들어, 연속 방법, 프라이멀-듀얼 접근법, "그래프-이론적 방법", 이산형 그래프-컷 방법, 능동 윤곽 모델, 심플렉스 방법 등에 의해 비용 함수(E(u))를 최소화하는 것이 가능하다.
연속 방법은 이들이 이미지를 연속 함수로서 기술한다는 점으로 한정되고, 이에 따라 비용 함수는 연속 수학적 공간을 통해 한정된다. 그 다음, 이미지 지점들에 기초하는 비용 함수의 이산화는 최적화 이전의 마지막 단계까지 수행되지 않는다. 이와 대조적으로, 이산형 최적화 방법은 픽셀 평면 상에 최적화 함수를 직접 한정한다.
또한, C. Niewenhuis 등의 "쌍방향 멀티-라벨 세분화를 위한 공간적으로 가변하는 색상 분포" 간행물, 패턴 분석 및 머신 지능에 관한 IEEE 트랜잭션, 35, 1(2013년)에 기술된 바와 같이, 연속 방법은 이산형 방법에 비해, 에지 상의 아티팩트를 방지하여 훨씬 더 쉽게 병렬 처리될 수 있는 이점을 갖는다는 점을 유의해야 한다. 병렬 처리는 특히 컴퓨터의 그래픽 카드를 통한 신속한 계산을 가능하게 한다.
특히 이와 관련하여, 알고리즘(34)에서 고려되어 렌즈 평면으로부터 설정되는 2D 및 3D 대칭 조건들은 3D 정보를 기초로 하므로, 센터링 파라미터의 설정을 또한 가능하게 한다는 점을 유의해야 한다.
또한, 위에서 설명된 안경 렌즈(28)의 형태에 대한 모델은 비용 함수(E(u))의 최적화에서의 제약으로서 또한 사용될 수 있음을 유의해야 한다. 이러한 제약은 예를 들어, 안경 렌즈(28)의 설정된 최종 에지가 이전에 학습된 모델 공간 내부에 있는 것일 수 있다. 실시예들로부터 모델들을 학습시키는 대신에, 후자가 한정될 수도 있음은 물론이다.
또한, 원칙적으로, 안면 피처 식별 루틴(40), 미러링 검출 루틴(58), 안경 렌즈 위치 루틴(60), 브리지 중심 식별 루틴(64) 또는 삼각 측량 루틴(69)의 그룹으로부터 위에서 설명된 루틴들 중 하나 이상의 루틴을 수행하지 않으면서, 위에서 설명된 알고리즘(34)이 수행될 수 있다. 또한, 비용 함수(E(u))가 대칭 비용 항(Esym(u(x)))을 포함하여 최적화되지 않거나 대칭 제약을 고려하여 최적화되지 않으면서 위에서 설명된 알고리즘(34)이 수행될 수 있다. 또한, 최적화될 비용 함수(E(u))는 반드시 색상 비용 항(Ecolour(u(x))) 및 에지 비용 항(Eedge(u(x)))을 동시에 포함할 필요는 없다.
또한, 특히 알고리즘(34)은 단일 이미지 포착 장치(16)로 포착되는 도 1에 도시된 안경 착용자(20)의 단지 하나의 이미지의 정보를 포함하는 이미지 데이터(b(x))로 수행될 수 있다. 본 발명의 범위 내에서, 안경 착용자(20)에 의해 착용된 안경테(24)를 갖는 안경 착용자(20)의 안면(25)과 관련된 이미지 데이터(b(x))에 기초하는 이미지 데이터(b(x))가 반드시 제공될 필요는 없으며, 상기 이미지 데이터(b(x))는 하나의 이미지 포착 장치(14, 16, 18)를 사용하여 상이한 기록 방향들로부터 포착된다.
안경테(24)에서 좌측 안경 렌즈(28) 또는 우측 안경 렌즈(29)를 센터링하는 경우에도, 안경 렌즈(28, 29)의 에지(26)의 표시를 설정하는 상술한 과정이 사용될 수 있음을 유의해야 한다.
이와 관련하여, 예를 들어, 단계 (i)는 안경 렌즈(28, 29)와 관련된 센터링 파라미터를 결정하는 단계를 포함할 수 있으며, 센터링 파라미터를 결정하는 단계는 상술한 바와 같이, 안경 렌즈(28, 29)의 에지(26)의 표시를 설정하는 단계를 포함하고, 추가적인 단계 (ii)는 이전 단계 (i)에서 결정된 센터링 파라미터를 사용하여 안경테(24)에서 안경 렌즈(28, 29)를 센터링하는 단계를 포함한다.
좌측 안경 렌즈(28) 또는 우측 안경 렌즈(29)는 단계 (i)에서 센터링 파라미터를 결정함으로써 안경테(24) 내로 연삭 가공될 수 있으며, 센터링 파라미터를 결정하는 단계는 위에서 특정된 방법에 의해 안경 렌즈(28, 29)의 에지(26)의 표시를 설정하는 단계를 포함한다. 그 다음, 추가적인 단계 (ii)는 이전 단계 (i)에서 결정된 센터링 파라미터에 기초하여 안경테(24)에서의 배치를 위해 해당 안경 렌즈(28, 29)를 연삭 가공하는 단계를 포함할 수 있다.
또한, 좌측 안경 렌즈(28) 또는 우측 안경 렌즈(29)는 위에서 특정된 방법에 따라 안경 렌즈(28, 29)를 안경테(24) 내로 연삭 가공하는 방법 단계를 사용함으로써 제조될 수 있다.
안경을 제조할 때 위에서 특정된 방법들 중 하나 이상이 사용될 수도 있음을 유의해야 한다.
요약하면, 본 발명의 다음의 바람직한 특징들이 주목되어야 한다: 본 발명은 안경 착용자(20)를 위한 좌측 안경 렌즈(28) 및 우측 안경 렌즈(29) 또는 안경 렌즈(28)의 에지(26)의 표시를 설정하기 위한 컴퓨터 구현 방법에 관한 것이다. 본 발명에 따라, 이러한 목적을 위해 이하의 단계가 수행된다:
착용 안경테(24)를 갖는 안경 착용자(20)와 관련된 이미지 데이터(b(x))를 제공하는 단계;
이미지 데이터(b(x))로부터 도출된 정보 데이터(I(x))를 계산하는 단계;
정보 데이터(I(x))를 안경 렌즈 데이터(u(x))와 연결시키는 결정론적으로 최적화 가능한 비용 함수(E(u))를 계산하는 단계로서, 안경 렌즈 데이터(u(x))는 안경테(24)에 유지된 적어도 하나의 안경 렌즈(28)의 공간 범위를 기술하는, 단계; 및
비용 함수(E(u))의 최적화에 의해 좌측 안경 렌즈 및 우측 안경 렌즈(29) 또는 안경 렌즈(28)의 에지(26)의 곡선을 설정하는 단계.
10: 장치
12: 기둥
14, 16, 18: 이미지 포착 장치
15: 이미지 센서
19: 기록 방향
20: 안경 착용자
21: 컴퓨터 장치
22: 입력 인터페이스
23: 출력 인터페이스
24: 안경테
25: 안면
26: 에지
27: 안경테의 브리지
28: 좌측 안경 렌즈
29: 우측 안경 렌즈
30: 측면
31: 수직선
32: 좌표계
34: 알고리즘
36: 이미지
37: 추가적인 이미지
38: 이미지 섹션
39: 보정 루틴
40: 안면 피처 식별 루틴
42: 데이터 샘플
44: 에지 검출 루틴
46: 에지 정보 데이터
48: 회색톤 이미지
50: 색상 평가 루틴
52: 색상 정보 데이터
54: 미러링/반사
56: 흑백 이미지
58: 미러링 검출 루틴
60: 안경 렌즈 위치 루틴
62: 확률 정보 데이터
64: 브리지 중심 식별 루틴
66: 브리지 중심
68: 대칭 루틴
69: 삼각 측량 루틴
70: 비용 함수 루틴
71: 입체 추정치
72: 최소값
74: 표시
75: 최적화 루틴
77: 에지 계산 루틴
76, 78, 80, 82: 안경 렌즈 데이터(u(x))에 대한 안경 렌즈 데이터 세트의 표시
84, 86, 88, 90: 비용 함수 값들(E(u))의 값들
94, 96: 영역
A: 기록 거리
bw: 안경 렌즈 거리
b(x): 이미지 데이터 세트/이미지 데이터
E: 연삭 가공 높이
E(u): 비용 함수
f(x): 색상 정보 데이터
g(x): 에지 정보 데이터
HS: 각막정 거리
sb: 렌즈 폭
sh: 렌즈 높이
d(x): 입체 평가 데이터
di(x): 안경 렌즈 형태 정보 데이터
r(x): 대칭 평가 데이터
s(x): 미러링 정보 데이터
t(x): 깊이 맵 정보 데이터
u(x): 안경 렌즈 데이터
w(x): 확률 값
α: 경사각
β: 테 렌즈 각도

Claims (25)

  1. 안경 착용자(20)를 위한 좌측 안경 렌즈(28) 및 우측 안경 렌즈(29) 또는 안경 렌즈(28)의 에지(26)의 표시를 설정하기 위한 컴퓨터 구현 방법으로서,
    착용 안경테(24)를 갖는 상기 안경 착용자(20)에 관한 이미지 데이터(b(x))를 제공하는 단계; 및
    상기 이미지 데이터(b(x))로부터 도출된 정보 데이터(I(x))를 계산하는 단계를 포함하며,
    상기 정보 데이터(I(x))를 안경 렌즈 데이터(u(x))와 연결시키는 결정론적으로 최적화 가능한 비용 함수(E(u))를 계산하는 단계로서, 상기 안경 렌즈 데이터(u(x))는 상기 안경테(24)에 유지된 적어도 하나의 안경 렌즈(28)의 공간 범위를 기술하는, 단계; 및
    상기 비용 함수(E(u))를 최적화함으로써 상기 좌측 안경 렌즈(28) 및 상기 우측 안경 렌즈(29) 또는 상기 안경 렌즈(28)의 에지(26)의 곡선을 설정하는 단계를 특징으로 하는,
    안경 착용자(20)를 위한 좌측 안경 렌즈(28) 및 우측 안경 렌즈(29) 또는 안경 렌즈(28)의 에지(26)의 표시를 설정하기 위한 컴퓨터 구현 방법.
  2. 제1항에 있어서,
    상기 이미지 데이터(b(x))로부터 도출된 상기 계산된 정보 데이터(I(x))는 에지 검출 알고리즘에 의해 상기 포착된 이미지 데이터(b(x))로부터 설정되는 에지 정보 이미지(g(x))를 포함하는 것을 특징으로 하는, 방법.
  3. 제2항에 있어서,
    상기 에지 검출 알고리즘은 기울기, 색상 기울기, Canny 에지 검출기, 방향성 필터, 특히 Sobel 필터의 그룹으로부터의 에지 검출기를 포함하거나, 또는 상기 에지 검출 알고리즘은 에지 검출의 목적을 위해 학습된 에지 검출기들을 갖는 필터 뱅크에 액세스하거나, 또는 상기 에지 검출 알고리즘은 기계 학습의 방법을 사용하는 자기-학습 알고리즘으로서 구현되는 것을 특징으로 하는, 방법.
  4. 제1항에 있어서,
    상기 이미지 데이터(b(x))로부터 도출된 상기 계산된 정보 데이터(I(x))는 이미지 데이터(b(x))의 색상을 평가하는 색상 평가 알고리즘에 의해 상기 포착된 이미지 데이터(b(x))로부터 설정되는 색상 정보 이미지(f(x))를 포함하는 것을 특징으로 하는, 방법.
  5. 제2항 또는 제3항에 있어서,
    상기 이미지 데이터(b(x))로부터 도출된 상기 계산된 정보 데이터(I(x))는 이미지 데이터의 색상을 평가하는 색상 평가 알고리즘에 의해 상기 포착된 이미지 데이터(b(x))로부터 설정되는 색상 정보 이미지(f(x))를 포함하는 것을 특징으로 하는, 방법.
  6. 제4항 또는 제5항에 있어서,
    상기 비용 함수(E(u))는 에지 검출 비용 항(Eg(u))과 색상 평가 비용 항(Ef(u))의 가중된 합인 것을 특징으로 하는, 방법.
  7. 제6항에 있어서,
    상기 이미지 데이터로부터 도출된 정보 데이터(I(x))를 계산하는 단계는 상기 안경테 또는 상기 안경테에 수용된 안경 렌즈에서의 미러링을 식별하기 위한 알고리즘을 사용하여 미러링 정보 데이터(s(x))를 설정하는 단계를 포함하거나, 또는 상기 이미지 데이터로부터 도출된 정보 데이터(I(x))를 계산하는 단계는 상기 안경테 및 상기 안경테에 수용된 안경 렌즈에서의 미러링을 식별하기 위한 알고리즘을 사용하여 미러링 정보 데이터(s(x))를 설정하는 단계를 포함하며, 상기 알고리즘은 상기 안경테에서의 미러링을 상기 안경 렌즈에서의 미러링과 구별하는 것을 특징으로 하는, 방법.
  8. 제7항에 있어서,
    상기 색상 평가 알고리즘 및/또는 상기 에지 검출 알고리즘은 상기 이미지 데이터(b(x))로부터 계산된 상기 미러링 정보 데이터(s(x))를 고려하는 것을 특징으로 하는, 방법.
  9. 제6항 내지 제8항 중 어느 한 항에 있어서,
    상기 이미지 데이터(b(x))로부터 도출된 정보 데이터(I(x))를 계산하는 단계는 안면 피처를 식별하기 위한 알고리즘을 통해, 특히 눈, 동공, 눈썹, 코, 입 또는 상기 안면의 에지의 그룹으로부터의 하나 이상의 안면 피처를 식별하도록 설계된 안면 피처를 식별하기 위한 알고리즘을 통해, 안면 피처 정보 데이터(m(x))를 설정하는 단계를 포함하는 것을 특징으로 하는, 방법.
  10. 제8항 또는 제9항에 있어서,
    상기 색상 평가 알고리즘 및/또는 상기 에지 검출 알고리즘은 상기 이미지 데이터(b(x))로부터 계산된 상기 안면 피처 정보 데이터(m(x))를 고려하는 것을 특징으로 하는, 방법.
  11. 제1항 내지 제10항 중 어느 한 항에 있어서,
    안경 착용자(20)를 위한 좌측 안경 렌즈(28) 및 우측 안경 렌즈(29)의 에지를 설정하기 위한 상기 비용 함수(E(u))는 안경 렌즈 데이터(u(x))의 대칭을 평가하거나/평가하고, 안경 착용자(20)를 위한 좌측 안경 렌즈(28) 및 우측 안경 렌즈(29)의 에지(26)를 설정하기 위한 상기 비용 함수(E(u))는 이미지 포착 장치(14, 16, 18)의 상이한 기록 방향(19)에 해당하는 이미지들을 형성하기 위해, 입체 조건으로 서로의 위로 이미징된 안경 렌즈 데이터(u(x))의 지점들을 평가하는 것을 특징으로 하는, 방법.
  12. 제6항 내지 제11항 중 어느 한 항에 있어서,
    상기 이미지 데이터(b(x))로부터 도출된 정보 데이터(I(x))를 계산하는 단계는 알고리즘을 사용하여 안경 렌즈 형태 정보 데이터(di(x))를 설정하는 단계를 포함하며, 상기 알고리즘은 상기 알고리즘에 공급된 안경 렌즈 모델에 기초하여 또는 상기 알고리즘에 공급된 다수의 안경 렌즈 모델에 기초하여, 포착된 이미지 데이터(b(x))가 안경 렌즈(28, 29) 상에 있을 확률에 관한 확률들을 나타내는 파라메트릭 모델 또는 맵을 안경 렌즈 형태 정보 데이터(di(x))로서 특정하는 것을 특징으로 하는, 방법.
  13. 제6항 내지 제12항 중 어느 한 항에 있어서,
    상기 이미지 데이터(b(x))로부터 도출된 정보 데이터(I(x))를 계산하는 단계는 알고리즘(34)을 사용하여 안경 렌즈 형태 정보 데이터(di(x))를 설정하는 단계를 포함하며, 상기 알고리즘(34)은 상기 알고리즘에 공급된 안경 렌즈 모델에 기초하여 또는 상기 알고리즘에 공급된 다수의 안경 렌즈 모델에 기초하여, 상기 안경테(24)에 수용 가능한 안경 렌즈(28, 29)의 2D 형태 또는 3D 형태를 안경 렌즈 형태 정보 데이터(di(x))로서 특정하는 것을 특징으로 하는, 방법.
  14. 제6항 내지 제13항 중 어느 한 항에 있어서,
    상기 색상 평가 알고리즘은 상기 이미지 데이터(b(x))로부터 계산된 상기 안경 렌즈 형태 정보 데이터(di(x))를 고려하는 것을 특징으로 하는, 방법.
  15. 제1항 내지 제14항 중 어느 한 항에 있어서,
    상기 이미지 데이터(b(x))로부터 도출된 상기 계산된 정보 데이터(I(x))는 브리지 중심 검출 알고리즘에 의해 설정된 브리지 중심(M)을 포함하는 것을 특징으로 하는, 방법.
  16. 제1항 내지 제15항 중 어느 한 항에 있어서,
    적어도 2개의 상이한 시야 방향으로부터 기록된 이미지들은 상기 안경 착용자(20)와 관련된 상기 제공된 이미지 데이터(b(x))의 기초를 형성하는 것을 특징으로 하는, 방법.
  17. 제1항 내지 제16항 중 어느 한 항에 있어서,
    상기 비용 함수(E(u))는 기계 학습에 의해 데이터로부터 학습된 적어도 하나의 모델을 포함하는 것을 특징으로 하는, 방법.
  18. 제1항 내지 제17항 중 어느 한 항에 있어서,
    상기 비용 함수(E(u))는 볼록인 것을 특징으로 하는, 방법.
  19. 제1항 내지 제18항 중 어느 한 항에 있어서,
    상기 좌측 안경 렌즈(28) 및 상기 우측 안경 렌즈(29) 또는 상기 안경 렌즈(28)의 에지(26)의 곡선은 상기 비용 함수(E(u))를 결정론적으로 최적화함으로써 설정되는 것을 특징으로 하는, 방법.
  20. 컴퓨터 시스템에 로딩되어 컴퓨터 시스템에서 실행될 때, 제1항 내지 제19항 중 어느 한 항에 따른 방법을 수행하도록 설계된 프로그램 코드를 포함하는 컴퓨터 프로그램.
  21. 안경 착용자(20)를 위한 좌측 안경 렌즈(28) 및/또는 우측 안경 렌즈(29) 또는 안경 렌즈(28)의 에지의 곡선을 설정하기 위한 장치로서,
    착용 안경테(24)를 갖는 상기 안경 착용자(20)에 관한 이미지 데이터(b(x))를 제공하기 위한 적어도 하나의 이미지 포착 장치(14, 16, 18)를 포함하며,
    상기 이미지 데이터(b(x))로부터 도출된 정보 데이터(I(x))를 계산하기 위한 수단을 포함하고,
    상기 정보 데이터(I(x))를 안경 렌즈 데이터(u(x))와 연결시키는 결정론적으로 최적화 가능한 비용 함수(E(u))를 계산하기 위한 수단으로서, 상기 안경 렌즈 데이터(u(x))는 상기 안경테(24)에 유지된 적어도 하나의 안경 렌즈(28)의 공간 범위를 기술하는, 수단; 및
    상기 비용 함수(E(u))를 최적화함으로써 상기 좌측 안경 렌즈(28) 및 상기 우측 안경 렌즈(29) 또는 상기 안경 렌즈(28)의 에지(26)의 곡선을 설정하기 위한 수단을 특징으로 하는,
    안경 착용자(20)를 위한 좌측 안경 렌즈(28) 및/또는 우측 안경 렌즈(29) 또는 안경 렌즈(28)의 에지의 곡선을 설정하기 위한 장치.
  22. 안경테(24)에서 좌측 안경 렌즈(28) 또는 우측 안경 렌즈(29)를 센터링하기 위한 방법으로서,
    단계 (i)는 상기 안경 렌즈(28, 29)와 관련된 센터링 파라미터를 결정하는 단계를 포함하며, 상기 센터링 파라미터를 결정하는 단계는 제1항 내지 제19항 중 어느 한 항에 따른 방법에 의해 상기 안경 렌즈(28, 29)의 에지(26)의 표시를 설정하는 단계를 포함하고,
    단계 (ii)는 단계 (i)에서 결정된 상기 센터링 파라미터를 사용하여 상기 안경테에서 상기 안경 렌즈(28, 29)를 센터링하는 단계를 포함하는 것을 특징으로 하는,
    안경테(24)에서 좌측 안경 렌즈(28) 또는 우측 안경 렌즈(29)를 센터링하기 위한 방법.
  23. 좌측 안경 렌즈(28) 또는 우측 안경 렌즈(29)를 안경테(24) 내로 연삭 가공하기 위한 방법으로서,
    단계 (i)는 상기 안경 렌즈(28, 29)와 관련된 센터링 파라미터를 결정하는 단계를 포함하며, 상기 센터링 파라미터를 결정하는 단계는 제1항 내지 제19항 중 어느 한 항에 따른 방법에 의해 상기 안경 렌즈(28, 29)의 에지(26)의 표시를 설정하는 단계를 포함하고,
    단계 (ii)는 단계 (i)에서 결정된 상기 센터링 파라미터에 기초하여 상기 안경테에서의 배치를 위해 상기 안경 렌즈를 연삭 가공하는 단계를 포함하는 것을 특징으로 하는,
    좌측 안경 렌즈(28) 또는 우측 안경 렌즈(29)를 안경테(24) 내로 연삭 가공하기 위한 방법.
  24. 제23항에 따른 방법에서 상기 안경 렌즈를 안경테 내로 연삭 가공하는 방법 단계를 특징으로 하는, 좌측 안경 렌즈(28) 또는 우측 안경 렌즈(29)를 제조하기 위한 방법.
  25. 제22항 내지 제24항 중 어느 한 항에 따른 방법이 사용되는 것을 특징으로 하는, 안경을 제조하기 위한 방법.
KR1020197018643A 2017-01-27 2017-12-20 안경 렌즈 에지의 표시를 설정하기 위한 방법 및 장치 및 컴퓨터 프로그램 KR102056333B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP17153651.9 2017-01-27
EP17153651.9A EP3355104B2 (de) 2017-01-27 2017-01-27 Verfahren und vorrichtung sowie computerprogramm zum ermitteln einer repräsentation eines brillenglasrands
PCT/EP2017/083908 WO2018137863A1 (de) 2017-01-27 2017-12-20 Verfahren und vorrichtung sowie computerprogramm zum ermitteln einer repräsentation eines brillenglasrands

Publications (2)

Publication Number Publication Date
KR20190088524A true KR20190088524A (ko) 2019-07-26
KR102056333B1 KR102056333B1 (ko) 2019-12-16

Family

ID=57914863

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197018643A KR102056333B1 (ko) 2017-01-27 2017-12-20 안경 렌즈 에지의 표시를 설정하기 위한 방법 및 장치 및 컴퓨터 프로그램

Country Status (8)

Country Link
US (1) US10564446B2 (ko)
EP (2) EP3355104B2 (ko)
KR (1) KR102056333B1 (ko)
CN (1) CN109804302B (ko)
BR (1) BR112019006165B1 (ko)
CA (1) CA3039116C (ko)
ES (1) ES2714172T5 (ko)
WO (1) WO2018137863A1 (ko)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016003512A1 (de) 2016-03-22 2017-09-28 Rodenstock Gmbh Verfahren und Vorrichtung zur Ermittlung von 3D-Koordinaten zumindest eines vorbestimmten Punktes eines Objekts
EP3355214A1 (de) * 2017-01-27 2018-08-01 Carl Zeiss Vision International GmbH Verfahren, recheneinrichtung und computerprogramm zum bereitstellen eines fassungsrandmodells
GB2559978A (en) * 2017-02-22 2018-08-29 Fuel 3D Tech Limited Systems and methods for obtaining eyewear information
EP3413122B1 (de) 2017-06-08 2020-03-04 Carl Zeiss Vision International GmbH Verfahren, vorrichtung und computerprogramm zum bestimmen eines nah-durchblickpunktes
EP3422087B1 (de) 2017-06-28 2019-12-25 Carl Zeiss Vision International GmbH Verfahren zur korrektur von zentrierparametern und/oder einer achslage sowie entsprechendes computerprogramm und verfahren
DE102018105917A1 (de) * 2018-03-14 2019-09-19 tooz technologies GmbH Verfahren zur benutzerindividuellen Kalibrierung einer auf den Kopf eines Benutzers aufsetzbaren Anzeigevorrichtung für eine augmentierte Darstellung
CN109636844B (zh) * 2018-11-19 2023-05-02 南昌大学 一种基于3d双边对称的复杂桌面点云分割的方法
EP3702831A1 (de) 2019-03-01 2020-09-02 Carl Zeiss Vision International GmbH Datensatz zur verwendung in einem verfahren zur herstellung eines brillenglases
US11238611B2 (en) * 2019-07-09 2022-02-01 Electric Avenue Software, Inc. System and method for eyewear sizing
CN111461970B (zh) * 2020-04-09 2023-08-11 北京百度网讯科技有限公司 图像处理方法、装置和电子设备
CN111488843A (zh) * 2020-04-16 2020-08-04 贵州安防工程技术研究中心有限公司 基于漏报与误报率分步骤抑制的人脸墨镜判别方法
US20230221585A1 (en) * 2020-07-31 2023-07-13 Tribe Gmbh Method and device for automatically determining production parameters for a pair of spectacles
EP4348343A1 (en) * 2021-05-28 2024-04-10 Essilor International A photography and thermography combining method of obtaining a fitting parameter to fit an ophthalmic lens into a spectacle frame
EP4227731A1 (en) 2022-02-14 2023-08-16 Carl Zeiss Vision International GmbH Method and mobile device for determining a visual point of a person
CN116883446B (zh) * 2023-09-08 2023-11-21 鲁冉光电(微山)有限公司 一种车载摄像头镜片碾磨程度实时监测系统

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4817024A (en) * 1984-03-02 1989-03-28 Hoya Corporation Spectacle-frame shape data producing method
KR910000591B1 (ko) * 1986-10-30 1991-01-26 가부시기가이샤 도시바 안경 프레임 화상처리 기록방법 및 이를 실시하기 위한 시스템
US4806011A (en) * 1987-07-06 1989-02-21 Bettinger David S Spectacle-mounted ocular display apparatus
DE10033983A1 (de) 2000-04-27 2001-10-31 Frank Mothes Einrichtung zur Bestimmung der Brillenglas-Zentrierdaten
EP1929444B1 (en) * 2005-09-23 2011-11-16 Philips Intellectual Property & Standards GmbH A method of and a system for adapting a geometric model using multiple partial transformations
JP4871226B2 (ja) 2007-07-06 2012-02-08 株式会社エヌ・ティ・ティ・ドコモ 認識装置および認識方法
DE102009004381B4 (de) * 2008-01-10 2011-09-01 Rodenstock Gmbh Vorrichtung, Verfahren und Computerprogrammprodukt
US8885926B2 (en) * 2009-04-15 2014-11-11 Massachusetts Institute Of Technology Image and data segmentation
DE102011115239B4 (de) 2011-09-28 2016-02-11 Rodenstock Gmbh Bestimmung der Scheibenform unter Berücksichtigung von Tracerdaten
WO2014084841A1 (en) * 2012-11-30 2014-06-05 Compagnie Generale Des Etablissements Michelin Uniformity correction using progressive ablation
US10216005B2 (en) * 2013-06-13 2019-02-26 Essilor International Method for optimizing a measured contour of a spectacle frame
DE102014012452A1 (de) 2014-08-21 2016-02-25 Rodenstock Gmbh Ermittlung von Benutzerdaten unter Berücksichtigung von Bilddaten einer ausgewählten Brillenfassung
DE102014013447A1 (de) * 2014-09-16 2016-03-17 Hans-Joachim Ollendorf Verfahren zur messgenauen Bestimmung von optischen Parametern eines Probanden zur Anpassung einer Brille an den Probanden und immobiles Videozentriersystem
CN107408315B (zh) * 2015-02-23 2021-12-07 Fittingbox公司 用于实时、物理准确且逼真的眼镜试戴的流程和方法
US10330958B2 (en) * 2015-04-10 2019-06-25 Bespoke, Inc. Systems and methods for creating eyewear with multi-focal lenses

Also Published As

Publication number Publication date
CA3039116A1 (en) 2018-08-02
CN109804302A (zh) 2019-05-24
EP3355104B2 (de) 2022-06-01
EP3355104B1 (de) 2018-12-12
US20190271858A1 (en) 2019-09-05
CN109804302B (zh) 2020-07-03
EP3542211B1 (de) 2020-04-08
WO2018137863A1 (de) 2018-08-02
CA3039116C (en) 2020-02-18
BR112019006165B1 (pt) 2023-10-17
ES2714172T5 (es) 2022-09-07
ES2714172T3 (es) 2019-05-27
BR112019006165A2 (pt) 2019-06-18
EP3355104A1 (de) 2018-08-01
US10564446B2 (en) 2020-02-18
KR102056333B1 (ko) 2019-12-16
EP3542211A1 (de) 2019-09-25

Similar Documents

Publication Publication Date Title
KR102056333B1 (ko) 안경 렌즈 에지의 표시를 설정하기 위한 방법 및 장치 및 컴퓨터 프로그램
EP3339943A1 (en) Method and system for obtaining optometric parameters for fitting eyeglasses
US10216010B2 (en) Determining user data based on image data of a selected eyeglass frame
US10859859B2 (en) Method, computing device, and computer program for providing a mounting edge model
CN113678055B (zh) 眼镜镜片的至少一个光学参数的确定
CN113692527B (zh) 用于测量眼镜片的局部屈光力和/或屈光力分布的方法和装置
KR102195268B1 (ko) 근거리 시력 지점을 결정하기 위한 방법, 장치 및 컴퓨터 프로그램
US10620454B2 (en) System and method of obtaining fit and fabrication measurements for eyeglasses using simultaneous localization and mapping of camera images
CN113711003B (zh) 用于测量眼镜片的局部屈光力和/或屈光力分布的方法和设备
US20230020160A1 (en) Method for determining a value of at least one geometrico-morphological parameter of a subject wearing an eyewear
JP2013226397A (ja) 近業目的距離測定装置、並びに近業目的距離測定装置を用いた眼鏡レンズの製造方法及び製造システム
EP3720335B1 (en) Method and apparatus for determining a reference head posture of a subject
CN112528714A (zh) 基于单光源的注视点估计方法、系统、处理器及设备
CN113424098B (zh) 构造眼镜所需参数的自动确立
EP4227731A1 (en) Method and mobile device for determining a visual point of a person
WO2022259232A1 (en) System and method for fitting eye wear
CN116830152A (zh) 用于检测和跟踪视频流中戴着一副眼镜的个体的面部的方法

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant