KR102093953B1 - Method for helping determine the vision parameters of a subject - Google Patents

Method for helping determine the vision parameters of a subject Download PDF

Info

Publication number
KR102093953B1
KR102093953B1 KR1020157010814A KR20157010814A KR102093953B1 KR 102093953 B1 KR102093953 B1 KR 102093953B1 KR 1020157010814 A KR1020157010814 A KR 1020157010814A KR 20157010814 A KR20157010814 A KR 20157010814A KR 102093953 B1 KR102093953 B1 KR 102093953B1
Authority
KR
South Korea
Prior art keywords
subject
images
image capturing
face
vision
Prior art date
Application number
KR1020157010814A
Other languages
Korean (ko)
Other versions
KR20150102941A (en
Inventor
파스칼 도멧
데이비드 엔카와
Original Assignee
엥떼르악띠프 비쥐엘 씨스뗌므 (이베에스)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엥떼르악띠프 비쥐엘 씨스뗌므 (이베에스) filed Critical 엥떼르악띠프 비쥐엘 씨스뗌므 (이베에스)
Publication of KR20150102941A publication Critical patent/KR20150102941A/en
Application granted granted Critical
Publication of KR102093953B1 publication Critical patent/KR102093953B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • G02C13/005Measuring geometric parameters required to locate ophtalmic lenses in spectacles frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/145Arrangements specially adapted for eye photography by video means

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Geometry (AREA)
  • Dentistry (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Eyeglasses (AREA)

Abstract

본 발명은 피검자(100)의 비전 파라미터를 결정하는 것을 돕는 방법에 관한 것이며, 상기 방법은 다음의 단계들, - 카메라(10)에 의해 두 개의 서로 다른 각도들로부터 상기 피검자의 얼굴의 두 개의 이미지들(I1, I2)을 촬영하는 단계(120)와, 상기 피검자(S)는 자연스러운 원거리 비전 포즈(natural distant vision posture)로 있고, - 이미지들이 촬영될 때 지면에 대한 상기 카메라(10)의 경사(inclination)를 결정하는 단계(130)와, - 이로부터 상기 피검자(S)의 얼굴의 경사 및 캡 각도 값(cap angle value)을 추론(deduce)하는 단계(140)를 포함하며, 상기 카메라는 상기 이미지들(I1, I2)이 촬영될 때(단계 120) 상기 피검자의 중심와 영역(foveal area) 외부에 배치된다.The present invention relates to a method of helping to determine a vision parameter of a subject 100, the method comprising the following steps,-two images of the face of the subject from two different angles by the camera 10 Step 120 of photographing the fields I1 and I2, and the subject S is in a natural distant vision posture,-the inclination of the camera 10 relative to the ground when images are taken Determining (inclination) (130), and-Deducing (140) the slope and cap angle value (cap angle value) of the face of the subject S therefrom (140), wherein the camera comprises When the images I1 and I2 are photographed (step 120), they are disposed outside the center and foveal area of the subject.

Figure 112015040315238-pct00006
Figure 112015040315238-pct00006

Description

피검자의 비전 파라미터들을 결정하는 것을 돕는 방법{METHOD FOR HELPING DETERMINE THE VISION PARAMETERS OF A SUBJECT}How to help determine the subject's vision parameters {METHOD FOR HELPING DETERMINE THE VISION PARAMETERS OF A SUBJECT}

본 발명은 피검자(subject)의 얼굴의 일반적인 포즈(posture)의 분석 및 오퍼레이터, 일반적으로는 안경사(optician)에 의해 수행되는 측정들을 하는 것에 관한 것이며, 상기 오퍼레이터는 그가 착용해야 하며 또한 프레임들에 장착되는 교정 렌즈(corrective lens)들 또는 안과 렌즈(ophthalmic lens)들의 광학 특성의 개인화 및 최적화를 위해 피검자의 눈들에 대한 교정 렌즈들의 임플랜테이션(implantation)의 일반적인 구성을 결정하는 데 필요한 데이터의 획득을 진행한다.The present invention relates to the analysis of the general posture of the subject's face and to the measurements performed by the operator, usually an optician, which operator must wear and is also mounted on the frames Acquisition of data necessary to determine the general composition of the implantation of corrective lenses for the subjects' eyes for personalization and optimization of the optical properties of the corrective lenses or ophthalmic lenses do.

피검자의 프레임 내의 렌즈들의 포지션을 눈들의 동공(pupil)들과 상기 프레임의 상대적인 포지션에 대하여 최적화하는 것을 목적으로 하는 수많은 시스템들이 이미 알려져 있다. 이를 위해, 상기 프레임을 착용한 얼굴의 고정된 또는 애니매이션된 이미지들이 카메라로 촬영되고, 상기 눈들의 포지션의 검출뿐만 아니라 상기 프레임의 포지션의 검출이 수행된다.Numerous systems are already known that aim to optimize the position of lenses in a subject's frame relative to the pupils of the eyes and the relative position of the frame. To this end, fixed or animated images of the face wearing the frame are photographed with a camera, and detection of the position of the frame as well as detection of the position of the eyes is performed.

특히, 본 출원인의 이름으로 출원된 문서 FR 2 860 887는, 고정된 카메라 앞에서 움직(movement)이는 동안의 피검자의 얼굴의 일련의 애니매이션된 이미지들에 기초하여, 눈들 및 프레임의 상대적인 포지션의 최적 정의를 가지도록 상기 얼굴이 카메라 상에서 최적으로 포커싱되는 기준 이미지가 결정되는 시스템을 개시한다.In particular, document FR 2 860 887, filed in the name of the applicant, based on a series of animated images of the subject's face during movement in front of a fixed camera, provides an optimal definition of the relative position of the eyes and frame. Disclosed is a system in which a reference image in which the face is optimally focused on the camera is determined to have.

동시에, 안과 렌즈들의 제조자들은 오늘날, 피검자의 시선(glance)이 움직일 때 상기 피검자의 거동(behavior)을 검사함으로써, 특히 소위 누진 렌즈(progressive lens)들의 기술로 이러한 렌즈들의 디자인을 최적화하는 것을 시도한다. 예를 들어, 본 출원인의 이름으로 출원된 문서 FR 2 892 529는 시스템을 개시하는 바, 상기 시스템은At the same time, manufacturers of ophthalmic lenses today attempt to optimize the design of these lenses, especially with the technology of so-called progressive lenses, by examining the subject's behavior when the subject's glance moves. . For example, document FR 2 892 529 filed in the name of the applicant discloses a system, wherein the system

- 카메라,- camera,

- 상기 카메라에 의해 촬영된 이미지들이 디스플레이되게 하는 스크린,-A screen for displaying images taken by the camera,

- 상기 피검자의 얼굴에 고정적으로 착용될 수 있고 복수의 시각적 마커들을 수반하는 악세서리,-An accessory that can be fixedly worn on the subject's face and carries a plurality of visual markers,

- 상기 카메라에 대해 적어도 두개의 결정된 포지션들 I1, I2를 커버할 수 있는 시각적 타겟(들)을 형성하는 수단,Means for forming a visual target (s) capable of covering at least two determined positions I1, I2 with respect to the camera,

- 상기 카메라에 의해 촬영된 이미지들에서의 시각적 마커들의 포지션을 분석할 수 있는 이미지 분석 수단을 포함한다. 그 다음, 상기 이미지 분석의 수단은 상기 포지션 및 상기 악세서리의 공간에서의 캡 각도 값(cap angle value)을 추론(deduce)하고 그러므로 피검자가 시각적 타겟(들)을 형성하는 수단의 서로 다른 영역들을 관찰할 때 상기 피검자의 얼굴의 캡 각도 값을 추론하여, 특히, 일 타겟으로부터 다른 타겟으로의 비전의 움직임 동안 상기 얼굴의 움직임의 상대적인 중요성뿐만 아니라 눈들의 이동(displacement)의 상대적인 중요성에 관한 정보를 추론한다. -Image analysis means capable of analyzing the position of the visual markers in the images taken by the camera. The means of image analysis then deduces the cap angle value in the space of the position and the accessory and therefore the subject observes different areas of the means forming the visual target (s). When deducing, the subject's face's angle of cap angle is inferred, and in particular, information about the relative importance of the movement of the eyes as well as the relative importance of the movement of the face during the movement of the vision from one target to another do.

전형적으로, 상기 악세서리는 도 2에 예시된 악세서리에 부합(conform)하고 프레임의 지향(orientation)을 강조하기 위해 특별히 선택된 기하학적 지시자(geometric indicator)를 형성하는 수단을 포함한다. 이는 상기 프레임들의 브랜치들을 따라 그리고/또는 상기 프레임의 상면에 상향으로 위치된 일련의 시각적 마커들을 구비하는 직선 지지체(rectilinear support)로 구성될 수 있다.Typically, the accessory comprises means for conforming to the accessory illustrated in FIG. 2 and forming a specially selected geometric indicator to emphasize the orientation of the frame. It may consist of a rectilinear support with a series of visual markers positioned upwardly on the top surface of the frame and / or along the branches of the frames.

그 다음, 상기 시스템은 동공들의 포지션, 이들의 간격, 등과 같은 파라미터들의 정밀한 측정을 가능하게 하는 바, 그 이유는 피검자 및 시각적 마커들의 포지셔닝뿐만 아니라 (시각적 타겟들 덕분의) 피검자의 시선의 방향이 측정의 시스템 자체에 대해 공간적으로 알려지고 측정되기 때문이다.The system then enables precise measurement of parameters such as the position of the pupils, their spacing, etc., because the subject's gaze direction (thanks to visual targets) as well as the positioning of the subject and visual markers This is because the measurement system itself is spatially known and measured.

측정들이 정확해지기 위해, 또한, 피검자의 얼굴은 기준 포즈로 있어야 하고, 시스템을 이용하여 측정을 하기에 적합한 포지션에서 주시(watch)해야 한다.In order for the measurements to be accurate, the subject's face must also be in a reference pose and watched in a position suitable for making measurements using the system.

본 발명이 관심을 가지는 시스템의 기준 포즈는 원거리 비전(distant vision)의 포즈인 바, 여기서 피검자는 자연스러운 포지션으로 유지되고, 수평면으로 자신의 앞에 무한한 직선에서의 일 지점(point)을 바라본다(glance). 변형예로서, 상기 기준 포즈는 책읽는 포즈와 같은 근거리 비전 포즈(close vision posture)에 대응할 수 있고, 상기 근거리 비전 포즈는 피검자가 자신의 눈들로부터 약 40 센치미터 지점을 바라보고 수평면에 비해 약 30°만큼 자신의 시선을 낮추는 포지션이다.The reference pose of the system of interest to the present invention is a pose of distant vision, where the subject remains in a natural position and looks at a point in an infinite straight line in front of him in a horizontal plane (glance). . As a variant, the reference pose may correspond to a close vision posture, such as a reading pose, and the close vision pose is about 30 cm from the subject's eyes and is about 30 cm compared to the horizontal plane. It is a position that lowers one's gaze as much as °.

피검자의 포즈는 (비 제한적인 방식으로) 예컨대, 알려진 시선 방향에 대한 두 개의 각도들에 의해 기술될 수 있다.The subject's pose can be described (eg, in a non-limiting manner) by two angles to a known gaze direction.

제1 각도는 얼굴의 캡 각도 값에 대응하며, 즉 피검자가 자신의 바로 앞에 위치된 객체를 볼 때 얼굴을 좌측 또는 우측으로 더 또는 덜 돌리는 경향을 가진다는 사실을 반영하는 지향된 각(oriented angle)에 대응한다.The first angle corresponds to the cap angle value of the face, ie the oriented angle reflecting the fact that the subject tends to turn the face more or less to the left or right when looking at the object positioned directly in front of him ).

제2 각도는 얼굴의 수직 경사에 대응하며, 즉 피검자가 자신의 바로 앞에 위치된 객체를 볼 때 얼굴을 더 또는 덜 올리거나 또는 낮추는 경향을 가진다는 사실을 반영하는 지향된 각도에 대응한다. 주어진 프레임에 대해, 이 제2 각도는 광시야 각(pantoscopic angle)의 측정일 수 있는 바, 즉 수직에 대해 교정 렌즈의 평균 평면(mean plane)의 경사의 측정일 수 있다 .The second angle corresponds to the vertical inclination of the face, ie the oriented angle reflecting the fact that the subject tends to raise or lower the face more or less when looking at the object positioned directly in front of him. For a given frame, this second angle can be a measure of the pantoscopic angle, ie a measure of the inclination of the mean plane of the corrective lens relative to the vertical.

피검자의 동공들 사이의 거리(교정 디바이스들의 제조를 위한 파라미터들 중 하나)를 결정하기 위해, 안경사는 일반적으로, 동공측정계(pupillometer)를 이용한다. 이 경우, 캡 각도 값은 상기 동공측정계가 피검자의 안면(front)에 기대어 있기 때문에 0(zero)인 것으로 임의로 가정된다. 그럼에도 불구하고, 이 디바이스는 개별적으로 측정되어야 하는 광시야각이나, 해당되는 경우 피검자가 자신의 머리를 측으로 받치는(hold) 방식(피검자의 기준 포지션에서 약간 오른쪽 또는 왼쪽으로 보는 피검자의 경향)을 가진다는 사실을 고려하게 하지 않는다.To determine the distance between the pupils of the subject (one of the parameters for the manufacture of orthodontic devices), an optician typically uses a pupillometer. In this case, the cap angle value is arbitrarily assumed to be zero (zero) because the pupilmetry system is leaning against the subject's front. Nevertheless, the device has a wide viewing angle that must be measured individually, or, if applicable, the manner in which the subject holds his or her head to the side (the subject's tendency to look slightly to the right or left from the subject's reference position). Don't let the facts take into account.

그러므로, 이 접근법은 피검자가 취하는 포지션이 자신의 자연스러운 포지션에 정확하게 대응하는 것을 보증하지 못한다. 그러나, 이 자연스러운 포지션은 매우 중요한 바, 그 이유는 이 자연스러운 포지션은 피검자가 자신이 최대로 편안한 포지션에서 안경의 렌즈들에 자신의 시선을 프로젝팅하게 되는 방식을 결정하기 때문이다. 그러므로, 양호하지 않은(bad) 포즈는 렌즈들의 센터링(centering)의 양호하지 않은 측정들로 이어진다. 따라서, 안경의 렌즈들을 통한 시선의 프로젝션의 계산을 위해 포즈가 정확한 이미지를 선택하고 따라서 측정 동안 피검자의 포지션의 질(quality)을 평가하는 것이 가장 중요하다.Therefore, this approach does not guarantee that the position taken by the subject accurately corresponds to his natural position. However, this natural position is very important because this natural position determines how the subject will project his gaze on the lenses of the glasses in the most comfortable position. Therefore, a bad pose leads to poor measurements of the centering of the lenses. Therefore, it is most important to select an image with a correct pose for the calculation of the projection of the gaze through the lenses of the spectacles and thus to evaluate the quality of the subject's position during measurement.

더욱이, 상기에 기술된 모든 이러한 시스템들 및 절차들은 피검자로 하여금 어떤 시각적 방해(hindranc)를 가짐이 없이 수평으로 똑바른 거리에서 주시하게 할 수 없고, 뷰잉 디바이스들은 피검자가 원거리 비전에 있을 때 상기 피검자의 시계(visual field)에 위치된다. 사실상, 원근도의 에러들(errors of perspective)을 회피하기 위해, 이미지 캡쳐링 디바이스는 피검자의 시선의 시축(optical axis) X에 가능한 가까이 있어야 하며, 따라서 피검자로부터 매우 멀리 디바이스를 위치시키거나(스토어에서 차지하는 많은 양의 공간 및 파워풀한 줌을 갖는 카메라의 사용) 또는 카메라보다 피검자로부터 먼 거리의 목표 지점을 시뮬레이션하는 것이 필수적이다. 그러므로, 시각적 타겟들은 종종 사용자에게 방해가 된다. 예를 들어, 거울에서의 피검자의 반사는 피검자와 시각적 타겟 사이의 거리를 두배로 만드는 것을 가능하게 하지만, 피검자가 근시이거나 또는 거울이 (거울의 사이즈 또는 거울의 반사 품질에 대해) 충분히 몰입적(immersive)이지 않으면, 이는 피검자의 얼굴의 정확한 지점에 포커스하는 것이 어렵다는 것을 입증할 수 있다. 그러므로, 피검자는 어렵게 자신의 자연스러운 원거리 비전 포즈를 채택해야만 할 수 있다.Moreover, all of these systems and procedures described above cannot cause the subject to look at a horizontally straight distance without having any visual hindranc, and the viewing devices are subject to the subject when the subject is in remote vision. It is located in the visual field of. In fact, in order to avoid errors of perspective, the image capturing device should be as close as possible to the optical axis X of the subject's gaze, thus positioning the device very far from the subject (store) It is essential to simulate a target point at a greater distance from the subject than using a camera with a large amount of space and powerful zoom). Therefore, visual targets often interfere with the user. For example, the subject's reflection in the mirror makes it possible to double the distance between the subject and the visual target, but the subject is nearsighted or the mirror is sufficiently immersive (with respect to the size of the mirror or the quality of the reflection of the mirror). If not immersive, this may prove difficult to focus on the exact spot on the subject's face. Therefore, the subject may have to adopt his natural long-range vision pose with difficulty.

추가적으로, 이들 시스템들은 측정 시스템의 인스톨(installation)에 이용가능한 공간에 의해 공간적으로 제한되어서, 시각적 타겟들은 일반적으로, 피검자와 가까이 유지되어, 피검자가 자신의 시선을 상기 시각적 타겟들에 포커스하는 것에 훨씬 더 제약을 준다. 마지막으로, 이들 시스템들은 부피가 크며(bulky), 원거리 비전을 근사화하기 위해 최소 공간을 요한다.Additionally, these systems are spatially limited by the space available for installation of the measurement system, so that the visual targets are generally kept close to the subject, much more so that the subject focuses his gaze on the visual targets. It gives more restrictions. Finally, these systems are bulky and require minimal space to approximate a far vision.

문서 DE 10 2010 015795는 스크린, 상기 스크린의 각 측 상에 배치된 두 개의 카메라들 및 프로세싱 시스템을 포함하는, 피검자의 센터링을 결정하기 위한 디바이스를 기술한다. 상기 카메라들은 바람직하게는, 피검자에게 가시적이지 않고, 비전 파라미터들을 측정하기 위해 피검자가 특별한 포지션들을 취하도록 선택된 이미지들이 스크린 상에 디스플레이된다. 머리-눈 계수(head-eye coefficient), 근거리 비전 및 원거리 비전에서의 눈의 회전 중심을 포함하는 여러 파라미터들이 결정된다. 그럼에도 불구하고, 디바이스로 기술되는 방법은 이를 착용한 사람에게 너무 짧은 거리를 요구(impose)하는 바, 이는 이 사람의 시선을 제약하며, 이 사람으로 하여금 스스로를 자연스러운 기준 포즈로 있지 못하게 하고 무한히 먼 곳을 보지 못하게 한다. 더욱이, 이 문서에 기술된 시스템은 매우 복잡하다.Document DE 10 2010 015795 describes a device for determining the centering of a subject, comprising a screen, two cameras disposed on each side of the screen and a processing system. The cameras are preferably not visible to the subject, and images are selected on the screen where the subject is selected to take special positions to measure vision parameters. Several parameters are determined including the head-eye coefficient, the center of rotation of the eye in near vision and far vision. Nevertheless, the method described as a device imposes too short a distance on the person wearing it, which limits this person's gaze, and prevents him from being in a natural reference pose and infinitely distant. Don't let you see the place. Moreover, the system described in this document is very complex.

문서 EP 1 747 750는 부분적으로, 피검자의 시각적 거동을 확립하는 방법을 기술하며, 상기 방법은 다음의 단계들을 포함한다.Document EP 1 747 750 describes, in part, a method of establishing the visual behavior of a subject, the method comprising the following steps.

- 악세서리를 피검자에게 제공하는 단계.-The step of providing the accessory to the subject.

- 스크린을 마주하여 피검자가 앉아있게 하는 단계, 피검자는 카메라들에 대해 중심화되어야 하며, 상기 카메라들은 피검자의 얼굴의 입체 카드(stereoscopic card)를 획득하도록 스크린의 각 측으로 확장된다.The step of allowing the subject to sit facing the screen, the subject must be centered on the cameras, which are extended to each side of the screen to obtain a stereoscopic card of the subject's face.

- 피검자에게 스크린 상의 이미지를 따라가도록 요청하며, 얼굴의 움직임을 따라가는 단계.-Requesting the subject to follow the image on the screen, and following the movement of the face.

- 이 이미지들에 기초하여 피검자의 거동을 결정하는 단계.-Determining the behavior of the subject based on these images.

여기서 다시, 상기 방법은 상기 방법의 구현을 위해 상당한 공간을 요하며, 상대적으로 가까운 거리에 타겟 설정을 고정하도록 피검자를 제약하는 바, 이는 상기 피검자로 하여금 측정 동안 자연스러운 포즈를 취하지 못하도록 한다.Here again, the method requires considerable space for the implementation of the method and constrains the subject to fix the target setting at a relatively close distance, which prevents the subject from posing naturally during measurement.

마지막으로, 문서 FR 2 971 861는 주변 광 조건들이 어떠하든지 간에, 착용자의 비전의 적어도 하나의 파라미터를 결정하기 위한 방법을 기술하며, 이러한 방법에서, 체커보드 타입의 보정 요소(calibration element)의 포지션이 피검자의 머리의 이미지 상에서 식별되고 이 이미지는 후속적인 캡쳐된 이미지들에서의 광도(luminosity)를 조정하기 위해 사용된다. 이를 위해, 이 문서는 여러 이미지들이 카메라를 이용하여 캡쳐되는 방법을 제안한다. 선행 이미지 상에서 검출된 보정 요소들 덕분에 각각의 캡쳐 간의 대조(contrast)가 개선된다. 그러므로, 이 방법은, 이미지 캡쳐링 디바이스에 의해 캡쳐되는 이미지들의 품질을 개선하는 것을 목적으로 한다. 그러나, 이는 또한, 벌키 시스템을 필요로 하며, 피검자의 이미지들이 마주하여 또는 옆모습으로(in profile) 촬영되어, 측정 동안 피검자의 시선을 선험적으로(a priori) 제약한다.Finally, document FR 2 971 861 describes a method for determining at least one parameter of the wearer's vision, no matter what the ambient light conditions are, in which method the position of a calibration element of the checkerboard type It is identified on the image of the subject's head and this image is used to adjust the luminance in subsequent captured images. To this end, this document proposes a method in which several images are captured using a camera. The contrast between each capture is improved thanks to the correction elements detected on the preceding image. Therefore, this method aims to improve the quality of images captured by the image capturing device. However, it also requires a bulky system and images of the subject are photographed facing or in profile, constraining the subject's gaze a priori during measurement.

그러므로, 본 발명의 일 목적은 새로운 측정 방법 및 관련 시스템을 제안하는 것이며, 상기 새로운 측정 방법 및 관련 시스템은, 피검자의 응시(gaze)를 제약하지 않고 지금까지 알려진 디바이스들보다 더욱 다기능적인(polyvalent) 시력 교정 디바이스를 만들기 위해 필요한 비전의 파라미터의 정확한 결정을 할 수 있게 하고, 이를 저렴한 비용(moderate cost)으로 가능하게 한다.Therefore, one object of the present invention is to propose a new measurement method and related system, which new measurement method and related system are more polyvalent than devices known to date without constraining the gaze of the subject. It enables the accurate determination of the parameters of the vision needed to make the vision correction device, which makes it possible at a moderate cost.

여기서, 비전 파라미터들은 특히, 다음의 리스트들에 포함된 파라미터들을 의미한다: 광시야각, 동곡의 이격들/높이들의 측정 및 이 측정에서의 눈들의 수렴(convergence), 안경-눈 거리, 캡 각도 값, 눈-머리 계수, 등.Here, the vision parameters specifically mean the parameters included in the following lists: wide viewing angle, measurement of the distances / heights of the valley and convergence of the eyes in this measurement, eyeglass-eye distance, cap angle value , Eye-hair modulus, etc.

이를 위해, 본 발명은 피검자의 비전의 파라미터들의 결정을 돕는 방법을 제안하며, 상기 방법은 다음의 단계들을 포함한다.To this end, the present invention proposes a method to assist in determining the parameters of the subject's vision, the method comprising the following steps.

- 포터블한 이미지 캡쳐링 디바이스에 의해 두 개의 서로 다른 각도들에서 피검자의 얼굴의 두 개의 이미지들을 캡쳐하는 단계, 상기 피검자는 원거리 비전에 대해 자연스러운 포즈로 있음.-Capturing two images of the subject's face from two different angles by means of a portable image capturing device, the subject being in a natural pose for the far vision.

- 이미지들이 캡쳐된 시간에 지면(ground)에 대한 이미지 캡쳐링 디바이스의 경사를 결정하는 단계.-Determining the slope of the image capturing device relative to the ground at the time the images were captured.

- 이로부터 피검자의 얼굴의 경사 및 캡 각도 값을 추론하는 단계.-Deducing the slope and cap angle values of the subject's face from this.

여기서 이미지 캡쳐링 디바이스는 이미지들이 캡쳐된 시간에 피검자의 중심와 구역(foveal zone) 외부에 설정된다.Here, the image capturing device is set outside the center and zone of the subject at the time the images are captured.

이 방식으로, 이미지 캡쳐링 디바이스는 피검자의 시계에 시각적 방해물을 구성하지 않는다. 사실상, 이는 피검자의 시선의 축을 더이상 단절(cut)시키지 않아서, 현재는, 공간 또는 측정 디바이스에 의해 제약됨이 없이 수평으로 멀리 떨어진 타겟에 포커싱하는 것 및 머리의 캐리지(carriage) 및/또는 동공의 이격들/높이들을 측정할 시 눈들의 수렴에 연관된(connected) 에러들을 제한하는 것이 가능하다.In this way, the image capturing device does not constitute a visual obstruction to the subject's field of view. In fact, this no longer cuts the axis of the subject's line of sight, so focusing on a horizontally distant target and constraining the head's carriage and / or pupil, without being constrained by space or measurement devices. When measuring separations / heights it is possible to limit the errors associated with the convergence of the eyes.

방법의 특징들을 제한하지는 않는 특정 옵션(option)은 다음과 같다.Specific options that do not limit the features of the method are as follows.

* 이미지들의 캡쳐 동안 이미지 캡쳐링 디바이스가 피검자의 시축에 대하여 5°내지 30°의 꼭지각(apex angle), 바람직하게는 15°내지 25°사이의 꼭지각을 갖는 원뿔(cone)을 형성하는 피검자의 시계의 구역 외부에 배치된다.* During the capture of images, the subject's field of view in which the image capturing device forms a cone with an apex angle of 5 ° to 30 ° with respect to the subject's visual axis, preferably between 15 ° and 25 ° Is placed outside the zone.

* 하기에서 알 수 있는 바와 같이, 이미지들 중 하나는 피검자와 마주하여 촬영된다.* As can be seen below, one of the images is taken facing the subject.

* 이미지들 중 하나는 측면으로부터 촬영된다.* One of the images is taken from the side.

따라서, 이미지 캡쳐링 디바이스의 이러한 배치는 피검자의 시계(field of vision)를 막지 않음으로써, 피검자의 시선 및 포지션을 제약하는 것을 회피하는 것을 가능하게 한다.Thus, this arrangement of the image capturing device makes it possible to avoid constraining the subject's gaze and position by not blocking the subject's field of vision.

* 피검자의 동공들 중 적어도 하나 또는 각막 반사들 중 적어도 하나는 캡쳐된 이미지들 각각 상에서 가시적이다.* At least one of the pupils of the subject or at least one of the corneal reflections is visible on each of the captured images.

* 프로세스는 추가적으로, 시각적 마커들이 이미지들에서 식별되는 단계를 포함하며, 상기 시각적 마커들은 피검자의 얼굴에 고정되는 방식으로 착용될 수 있는 악세서리 상에 형성된다.* The process additionally includes the step of identifying visual markers in the images, which are formed on an accessory that can be worn in a manner that is secured to the subject's face.

* 이미지 캡쳐링 디바이스는 비디오 카메라이며, 이미지 캡쳐 단계는 다음의 서브-단계들을 포함한다.* The image capturing device is a video camera, and the image capturing step includes the following sub-steps.

- 서로 다른 화각(angle of view)들에서 피검자의 복수의 이미지들을 획득하도록 피검자의 얼굴을 촬영하는 단계(film), 및-Filming a subject's face to obtain a plurality of images of the subject from different angles of view, and

- 피검자의 이미지들 중 두 개의 서로 다른 각도들에서의 피검자의 얼굴의 적어도 두 개의 이미지들을 선택하는 단계.-Selecting at least two images of the subject's face from two different angles among the subjects' images.

* 방법은 또한, 이미지들에서 시각적 마커들이 식별되는 단계를 포함하며, 상기 시각적 마커들은 피검자의 얼굴의 단독 지점(singular point)들이다.The method also includes the step of identifying visual markers in the images, said visual markers being singular points of the subject's face.

* 상기 이미지들은 두 개의 이미지 캡쳐링 디바이스들 - 상기 이미지 캡쳐링 디바이스들은 서로에 대해 위치 및 캡 각도 값이 알려짐 - 에 의해 동시에 촬영된다.* The images are taken simultaneously by two image capturing devices-the image capturing devices are known to each other by a position and a cap angle value.

* 두 개의 이미지들의 캡쳐의 시간에, 피검자의 얼굴에는 광이 비추어진다(lighted).* At the time of capture of the two images, light is illuminated on the subject's face.

* 이미지를 캡쳐하는 단계 동안, 광선(ray of light)이 피검자를 마주하는 배면(backing), 예컨대 수직 세그먼트 상으로 프로젝팅된다.* During the step of capturing the image, a ray of light is projected onto the backing facing the subject, eg a vertical segment.

* 피검자의 얼굴의 경사 및 캡 각도 값은 이미지 캡쳐링 디바이스에 의해 국부적으로 또는 이미지 캡쳐링 디바이스로부터 멀리 있는 로컬 컴퓨터 상에서 또는 인터넷 서버 상에서 원격으로 결정된다. * The inclination and cap angle values of the subject's face are determined locally by the image capturing device or remotely on an internet server or on a local computer remote from the image capturing device.

* 이미지 캡쳐링 디바이스는 비디오 카메라를 포함하는 디지털 태블릿이다.* The image capturing device is a digital tablet that includes a video camera.

따라서, 본 발명에 부합하는 도움 방법을 구현하는 가능성은, 피검자의 이미지들을 촬영하고 피검자의 비전 파라미터들을 결정하기 위한 상업용 또는 전용일 수 있는 디지털 태블릿들을 채택하는 것을 가능한다.Thus, the possibility of implementing a help method consistent with the present invention makes it possible to adopt digital tablets, which may be commercial or dedicated, for taking images of the subject and determining the vision parameters of the subject.

본 발명의 다른 특징들, 목적들 및 장점들이 비 제한적인 예들로서 주어진 첨부된 도면들을 참조로 하여 다음의 상세한 설명을 읽을 시 더욱 분명해질 것이다.
도 1은 본 발명에 부합하는 피검자의 비전의 파라미터들을 결정하는 것을 돕기 위한 시스템의 실시예의 개략도이다.
도 2는 본 발명에 부합하는 시스템과 함께 사용될 수 있는 악세서리의 예이다.
도 3은 본 발명에 부합하는 시스템에서 사용될 수 있는 이미지 캡쳐링 디바이스의 실시예이다.
도 4a 및 4b는 본 발명에 부합하는 이미지 캡쳐들의 예를 도시한다.
도 5는 본 발명에 부합하는 피검자의 비전 파라미터들의 결정을 돕기 위한 방법의 실시예의 여러 가지 단계들을 도시하는 순서도이다.
Other features, objects and advantages of the present invention will become more apparent upon reading the following detailed description with reference to the accompanying drawings given as non-limiting examples.
1 is a schematic diagram of an embodiment of a system to assist in determining parameters of a subject's vision consistent with the present invention.
2 is an example of an accessory that can be used with a system consistent with the present invention.
3 is an embodiment of an image capturing device that can be used in a system consistent with the present invention.
4A and 4B show examples of image captures consistent with the present invention.
5 is a flow diagram illustrating various steps of an embodiment of a method for assisting in determining vision parameters of a subject consistent with the present invention.

본 발명에 부합하는 피검자 S의 비전 파라미터들의 결정을 도와주는 시스템(1)은 특히,In particular, the system 1 that assists in determining the vision parameters of the subject S consistent with the present invention,

- 피검자 S의 얼굴 - 상기 피검자의 얼굴은 시각적 마커들을 포함함 - 의 이미지들을 촬영하도록 구성된 이미지 캡쳐링 디바이스(10)와,-The face of the subject S-the face of the subject includes visual markers-an image capturing device 10 configured to shoot images of,

- 상기 이미지 캡쳐링 디바이스의 움직임과 일체화된 경사계(inclinometer)와, 그리고An inclinometer integrated with the movement of the image capturing device, and

- 상기 이미지 캡쳐링 디바이스 및 상기 경사계에 연결된 프로세싱 수단을 포함한다.-Processing means connected to said image capturing device and said inclinometer.

일반적으로, 피검자의 비전 파라미터들을 결정하기 위해, 오퍼레이터(예컨대, 안경사)는 이미지 캡쳐링 디바이스에 의해 서로 다른 각도들에서 피검자의 적어도 두 개의 이미지들 I1, I2를 촬영하며, 이때 상기 피검자는 이미지 캡쳐들 I1, I2 중 어느 것에서도 상기 피검자를 방해하지 않도록 멀리 쳐다보고 있다.Generally, to determine the vision parameters of a subject, an operator (eg, an optician) photographs at least two images I1, I2 of the subject at different angles by an image capturing device, where the subject captures the image None of I1 or I2 is looking away so as not to disturb the subject.

이를 위해, 이미지 캡쳐링 디바이스는, 상기 피검자의 시선을 방해하지 않고 그리고 상기 피검자 S가 자연스러운 포즈로 위치하여 외부 제약 없이 멀리 쳐다보고 있게 하도록 상기 피검자의 시축 X로부터 멀리, 바람직하게는 상기 피검자의 중심와 영역 외부에 위치된다. 사실상, 피검자 S를 방해하지 않도록 중심와 구역을 막지 않는 것이 중요하다. 그러나, 방해의 위험(risk)들을 감소시키기 위해, 중심와 영역보다 넓은 영역을 마련하는 것이 바람직할 수 있다. 따라서, 일 실시예에 따르면, 이미지 캡쳐링 디바이스(10)는 캡쳐된 이미지들 I1 및 I2의 각각에 대해, 피검자 S의 각각의 눈의 시축 X에 대해 5°내지 30°의 꼭지각, 바람직하게는 15°내지 25°사이의 꼭지각을 가지는 원뿔을 형성하는 피검자 S의 시계의 영역 외부에 위치된다(상기 원뿔의 꼭지는 상기 피검자의 얼굴에서 시축 상에 배치된다).To this end, the image capturing device does not interfere with the subject's gaze and is positioned away from the subject's visual axis X, preferably with the center of the subject so that the subject S is positioned in a natural pose and looking away without external constraints. It is located outside the area. In fact, it is important not to block the center and zone so as not to interfere with subject S. However, in order to reduce the risks of interference, it may be desirable to provide a larger area than the center and area. Thus, according to one embodiment, the image capturing device 10 has a vertex angle of 5 ° to 30 ° with respect to the visual axis X of each eye of the subject S, preferably for each of the captured images I1 and I2, It is positioned outside the field of view of subject S forming a cone having a vertex angle between 15 ° and 25 ° (the cone's vertex is disposed on the visual axis at the subject's face).

사실상, 상기 이미지 캡쳐링 디바이스(10)가 피검자 S의 시축 X로부터 멀어질수록, 피검자는 상기 이미지 캡쳐링 디바이스의 존재에 의해 덜 방해받게 될 것이며, 이러한 제한은 피검자 S의 동공들 중 적어도 하나(또는 적어도 각막 반사)를 정확하게 포착(discern)하게 하는 능력임이 이해될 것이다.In fact, the farther away the image capturing device 10 is from the visual axis X of the subject S, the less subject will be obstructed by the presence of the image capturing device, and this limitation is at least one of the pupils of the subject S ( Or, at least, it will be understood that this is the ability to accurately discern corneal reflection.

그 다음, 어떤 시각적 타겟도 피검자 S에 요구(impose)되지 않아서, 피검자는 자신의 자연스러운 원거리 비전 포즈를 채택할 수 있다. 그러나, 오퍼레이터는 예컨대, 피검자 S가 자신의 바로 앞으로 보게 하도록 상기 피검자 S에게 이러한 타겟을 제시하는 것이 가능하다. 그러나, 이러한 타겟은 시스템(1)의 일부가 아니며, 이의 포지션은 이미지 캡쳐링 디바이스(10)에 대해 정의되지 않는다.Then, no visual target is imposed on the subject S, so that the subject can adopt his natural, far vision pose. However, it is possible, for example, for the operator to present this target to the subject S so that the subject S sees directly in front of him. However, this target is not part of the system 1 and its position is not defined for the image capturing device 10.

이미지들 및 이미지 캡쳐링 디바이스(10)의 경사각은, 이들로부터 피검자의 비전 파라미터들을 추론하는 프로세싱 수단에 의해 분석된다.The inclination angles of the images and the image capturing device 10 are analyzed by processing means inferring the subject's vision parameters from them.

이미지 image 캡쳐링Capturing 디바이스device (10)(10)

이미지 캡쳐링 디바이스(10)는 비디오 카메라, 사진용 디바이스(photographic device), 등일 수 있다. 이미지 캡쳐링 디바이스(10)에 의해 촬영된 이미지들은 특히, 프로세싱 수단에 의해 직접적으로 프로세싱되도록 디지털 이미지들일 수 있다.The image capturing device 10 may be a video camera, a photographic device, or the like. The images captured by the image capturing device 10 can be digital images, in particular, to be processed directly by processing means.

이미지 캡쳐링 디바이스(10)는 바람직하게는, 10 센치미터 내지 일 미터 사이에 있는 짧은 거리에서 피검자의 얼굴의 완전한 이미지를 촬영할 수 있도록 광각 렌즈를 구비한다. 이미지 캡쳐링 디바이스(10)의 해상도는 이의 초점 길이(focal length), 사람에 대한 거리, 등에 좌우되며, 일반적으로 컬러 마커 또는 얼굴에서의 단독 지점들과 같은 시각적 마커들(45)을 식별할 수 있기에 충분해야 한다. 예를 들어, 이미지 캡쳐링 디바이스(10)의 해상도는 0.3mm 마다 적어도 일 픽셀을 포함하도록 눈들의 이미지에 대해 충분해야 한다. The image capturing device 10 preferably has a wide-angle lens so that it can take a complete image of the subject's face at a short distance between 10 cm and 1 meter. The resolution of the image capturing device 10 depends on its focal length, distance to person, etc., and can generally identify visual markers 45 such as color markers or single points on the face. It should be enough. For example, the resolution of the image capturing device 10 should be sufficient for the image of the eyes to include at least one pixel every 0.3 mm.

시스템(1)은 또한, 수평면에 대한 이미지 캡쳐링 디바이스(10)의 경사를 결정하도록 설계된 이미지 캡쳐링 디바이스(10)의 움직임과 일체화된 경사계(20)를 포함한다. 바람직하게는, 경사계(20)는 이미지 캡쳐링 디바이스(10)와 일체화되어 있다. 이는 예컨대, 가속도 신호 프로세싱 회로에 결합된 가속도계일 수 있다. 상기 가속도계는 또한, 경사계의 신뢰성을 향상시키도록 전자 자이로스코프에 결합될 수 있다.The system 1 also includes an inclinometer 20 integrated with the movement of the image capturing device 10 designed to determine the inclination of the image capturing device 10 relative to the horizontal plane. Preferably, the inclinometer 20 is integrated with the image capturing device 10. It can be, for example, an accelerometer coupled to an acceleration signal processing circuit. The accelerometer can also be coupled to an electronic gyroscope to improve the reliability of the inclinometer.

옵션에 따라서는, 특히 피검자의 각막 반사를 측정하도록 시스템(1)은 또한, 피검자의 얼굴에 대한 조명 수단(lighting means)(12)을 포함할 수 있고, 상기 조명 수단은 이미지 캡쳐링 디바이스(10)와 일체화될 수 있다.Optionally, the system 1 can also include lighting means 12 for the subject's face, in particular to measure the corneal reflection of the subject, said lighting means 10 being an image capturing device 10 ).

더욱이, 이미지 캡쳐링 디바이스(10)는 이의 사용을 쉽게 하도록 오퍼레이터에 의해 움직일 수 있고 포터블할 수 있다. 이는 추가적으로, 스크린(14)을 포함할 수 있고, 상기 스크린은 오퍼레이터로 하여금 이미지 캡쳐링 디바이스(10)에 의해 촬영되는 이미지들을 시각화하도록 할 수 있다.Moreover, the image capturing device 10 is movable and portable by an operator to facilitate its use. It may additionally include a screen 14, which may allow the operator to visualize images captured by the image capturing device 10.

도면들에 도시된 실시예에서, 이미지 캡쳐링 디바이스(10)는 예를 들어, 자신의 후면(rear face)(16)에 이미지들을 촬영할 수 있는 비디오 카메라(11)뿐만 아니라 가속도계(20)를 포함하는 디지털 태블릿이다. 태블릿(10)은 추가적으로, 자신의 전면에, 스크린(14)을 포함할 수 있고, 상기 스크린은 카메라(11)에 의해 촬영되는 이미지들을 실시간으로 시각화할 수 있다. 이는 예컨대, iPad® 타입, 캘릭시 탭® 타입, iphone의 상용 태블릿, 특히 피검자의 비전 파라미터들의 결정에 응용하기 위해 만들어지고 이미지 캡쳐링 디바이스 및 적응된 경사계를 포함하는 태블릿 또는 심지어는 스마트폰으로 이루어질 수 있다.In the embodiment shown in the figures, the image capturing device 10 comprises, for example, an accelerometer 20 as well as a video camera 11 capable of taking images on its rear face 16 Is a digital tablet. The tablet 10 may additionally include a screen 14 on its front side, and the screen may visualize images captured by the camera 11 in real time. It is made of, for example, iPad® type, Calico Tab® type, commercial tablets for iphone, especially tablets or even smartphones made for application to the determination of the subject's vision parameters and comprising an image capturing device and an adapted inclinometer. You can.

장점적으로는, 카메라(11)는 그 다음, 피검자 S의 이미지들의 캡쳐를 지원하면서도, 피검자의 자연적인 원거리 비전 포즈를 동요(perturb)시키지 않도록 피검자의 중심와 영역 밖에 여전히 유지되고 바람직하게는, 피검자 S의 시축 X에 대해 5°내지 30°의 꼭지각, 더욱 바람직하게는 심지어 15°내지 25°사이의 꼭지각을 갖는 원뿔을 형성하는 시계의 영역 밖에 유지되도록 예컨대, 자신의 단부들 중 하나 가까이에 포지셔닝된 태블릿(10)의 기하학적 중심에 대해 오프셋될 수 있다.Advantageously, the camera 11 is then still held outside the center and area of the subject, preferably supporting the capture of the subject's images while still not perturbing the subject's natural long-range vision pose, preferably the subject Positioning, for example, close to one of its ends, such that it remains outside the field of view forming a cone with a vertex angle of 5 ° to 30 ° with respect to the time axis X of S, more preferably even between 15 ° and 25 ° Can be offset relative to the geometric center of the tablet 10.

옵션에 따라서는, 태블릿(10)의 플래쉬는 이미지 캡쳐 동안 조명 수단(12)로서 사용될 수 있다. 그러나, 태블릿(10)에는 이미지 캡쳐 동안 피검자 S의 얼굴을 비추도록, 플래쉬와 별개이며 특히, 상기 태블릿의 후면에 대해 상기 태블릿에 부착된 조명 수단(12)이 제공될 수 있다.Optionally, the flash of the tablet 10 can be used as the lighting means 12 during image capture. However, the tablet 10 may be provided with a lighting means 12 attached to the tablet, which is separate from the flash, in particular with respect to the back of the tablet, so as to illuminate the face of the subject S during image capture.

더욱이, 이미지 캡쳐링 디바이스(10)는 또한, 피검자 S와 마주하는 배면에 대해 시각적 타겟을 프로젝트하도록 설계된 프로젝터(18)를 포함한다. 예를 들어, 프로젝터(18)는 벽(wall)에 광선(luminous ray)을 프로젝트하도록 설계된 저전력 레이져일 수 있다.Moreover, the image capturing device 10 also includes a projector 18 designed to project a visual target against the back facing the subject S. For example, the projector 18 can be a low power laser designed to project a luminous ray on a wall.

다른 실시예에 따르면, 이미지 캡쳐링 디바이스(10)는 스크린(12)으로 형성될 수 있는 바, 여기에 적어도 카메라(11)가 장착된 암(arm)(16)이 착탈가능하거나 또는 영구적인 방식으로 고정된다. 상기 암(16)은 스크린(14)의 에지들 중 하나(예컨대 상부 에지) 상에서 스크린의 에지에 대해 전체적으로(globally) 수직인 축을 중심으로 관절운동(articulate) 할 수 있다. 이미지 캡쳐 동안 피검자 S를 방해하지 않도록, 암(16)은 90°보다 큰 각도만큼, 예컨대, 약 120°만큼 회전(pivot)할 수 있다. 상기 암은 또한, 카메라(11)와 함께 동작하면서 상기 암의 확장축을 중심으로 (국부적으로 또는 상기 암의 전체 길이에 걸쳐) 회전할 수 있어서 피검자 S의 얼굴을 더 쉽게 프레이밍할 수 있게 한다. 예를 들어, 암(16)은 약 200°의 각도로 자신의 축을 중심으로 돌아갈(turn) 수 있다.According to another embodiment, the image capturing device 10 may be formed of a screen 12, wherein at least the arm 16 equipped with the camera 11 is detachable or permanent. Is fixed by. The arm 16 may articulate about an axis that is globally perpendicular to the edge of the screen on one of the edges of the screen 14 (eg, the upper edge). The arm 16 can be pivoted by an angle greater than 90 °, eg, about 120 °, so as not to interfere with subject S during image capture. The arm can also rotate (locally or over the entire length of the arm) while working with the camera 11, making it easier to frame the subject's face. For example, the arm 16 can turn around its axis at an angle of about 200 °.

예로서, 암(16)은 약 30 센티미터를 측정하며 상기 암을 따라 정렬되고 약 10 센티미터만큼 분리된 두 개의 카메라들(11)을 포함할 수 있다. 이 실시예는 그 다음, 두 개의 서로 다른 시야각들에서 피검자 S의 얼굴의 두 개의 사진들 I1, I2이 동시에 촬영되게 할 수 있다.By way of example, the arm 16 measures about 30 centimeters and can include two cameras 11 aligned along the arm and separated by about 10 centimeters. This embodiment can then cause two pictures I1, I2 of the face of the subject S to be taken simultaneously at two different viewing angles.

이 실시예에서, 그 다음, 카메라(들)(11)에 장착된 암(16)은 상용 테블릿(10)에 부착될 수 있다. 그 다음, 경사계(20)는 태블릿(10) 상에 고정되거나(또는 이와 일체화되거나) 또는 자체적으로 암(16) 상에 고정될 수 있다. 더욱이, 암(16)의 부착은 바로 스크린(10) 상에 수행되거나 또는 (특히 스크린이 상용 디지털 태블릿인 경우) 어댑터(14)에 의해 수행될 수 있다.In this embodiment, the arm 16 mounted on the camera (s) 11 can then be attached to the commercial tablet 10. The inclinometer 20 can then be secured (or integrated with it) on the tablet 10 or can be secured on the arm 16 itself. Moreover, the attachment of the arm 16 can be performed on the screen 10 directly or by adapter 14 (especially if the screen is a commercial digital tablet).

시각적 Visual 마커들Markers

시각적 마커들은 피검자 S의 얼굴의 단독 지점들 또는 상기 피검자의 얼굴에 착용된 액세서리(40)에 의해 수반되는 시각적 마커들일 수 있다.The visual markers may be sole points on the face of the subject S or visual markers carried by the accessory 40 worn on the subject's face.

도 2에 예시된 악세서리(40)는 특히, 문서들 FR 2 860 887 또는 FR 2 892 529에 기술된 악세서리들에 부합할 수 있다. 예컨대 투명한 플라스틱으로 이루어진 이 악세서리(40)는, 수평적이기도 하는 두 개의 측면 브랜치들(43)을 갖는 수평으로 길쭉한 본체(principal body)(42)를 포함하며, 상기 측면 브랜치들은 상기 본체에 대해 후방으로 실질적으로 직각으로 연장된다. 본체(42)는 피검자 S에 의해 착용되는 안경의 (또는 프레임 상의) 두 개의 렌즈들의 상부 에지들을 따라 부착되도록 설계된 두 개의 작은 클램프(clamp)들을 상기 본체의 하부 에지를 따라 수반하며, 상기 브랜치들(43)은 또한, 예시되지 않은 방식으로 수단 - 상기 수단은 프레임의 브랜치들 상에 이 수단을 유지(hold)하기 위한 것이다 - 을 유지할 수 있다. 이 방식으로, 피검자가 안정된 포지션으로 안경(교정 또는 광학적으로 중립적인 또는 심지어는 베어(bare) 프레임)을 쓰자 마자 그리고 악세서리(40)을 제자리에 놓지 마자, 상기 악세서리는 피검자의 얼굴에 대해 잘 정의된 포지션을 차지한다.The accessory 40 illustrated in FIG. 2 may in particular conform to the accessories described in documents FR 2 860 887 or FR 2 892 529. This accessory 40 made of, for example, transparent plastic comprises a horizontally elongated body 42 having two side branches 43 which are also horizontal, the side branches being rearward relative to the body. It extends substantially at right angles. Body 42 carries two small clamps designed to attach along the upper edges of the two lenses (or on the frame) of the glasses worn by subject S along the lower edge of the body, and the branches 43 can also hold the means in an unillustrated manner, said means for holding this means on branches of the frame. In this way, as soon as the subject wears the glasses (corrected or optically neutral or even a bare frame) in a stable position, and as soon as the accessory 40 is not in place, the accessory is well defined for the subject's face Occupied position.

본 발명의 일 양상에 따르면, 악세서리는 또한, 금속 또는 플라스틱의 두 개의 탄성 블래이드(elastic blade)들(44)에 대응할 수 있고, 상기 탄성 블래이드는 본체의 하부 에지로부터 연장될 수 있으며 이의 휘어진 형태(curved form)는 안경(또는 프레임)의 렌즈들의 하부 에지에 기대게 하기에 적합화된다. 블래이드들(44)의 형태는 또한, 이들의 자유로운 단부(free end)가 이들이 렌즈들(또는 프레임) 상으로 고정되도록 변형(deforme)될 때 본체에 직각인 직선 궤적을 따르도록 적합화된다. 이러한 방식으로, 블래이드들(44)은 측정들 동안 렌즈들(또는 프레임) 상에서 동일한 위치에 항상 고정되며, 피검자가 어떤 타입의 프레임을 가지든지에 상관없이 피검자의 시선을 동요시키지 않는다.According to one aspect of the invention, the accessory can also correspond to two elastic blades 44 of metal or plastic, the elastic blade extending from the lower edge of the body and its curved shape ( The curved form) is adapted to lean against the lower edge of the lenses of the glasses (or frame). The shape of the blades 44 is also adapted to follow a straight trajectory perpendicular to the body when their free end is deformed such that they are fixed onto the lenses (or frame). In this way, the blades 44 are always fixed in the same position on the lenses (or frame) during the measurements and do not disturb the subject's gaze regardless of what type of frame the subject has.

도 2에 예시된 바와 같이, 악세서리(40)는 특정 수의 시각적 마커들 또는 기준들(45) - 여기서는 잘 식별되는 컬러, 예컨대 잘 정의된 파장을 갖는 밝은 초록색을 가진 8개의 사각형 구역들 - 을 포함하며, 두 개의 시각적 마커들은 브랜치들(43) 중 하나에 이 잘 정의된 이격된 포지션들에 적합화되고, 다른 두 개는 나머지 브랜치(43) 상에 대칭적으로 배치되며, 마지막으로 다른 네 개는 본체 상에 위치된다. 더욱 정확하게는, 이 마지막 마커들에 관하여, 악세서리(40)의 본체(42)는 상향으로 돌출된 부분(46) 및 앞으로 돌출된 부분(47)을 포함하며, 상기 부분(46)의 상부 영역에서 마커(45)가 발견되고 상기 부분(47)의 자유로운 단부에 마커(45)가 존재한다. 적어도 두 개의 마커들(45)이 브랜치들(46)의 출발지(departure) 가까이에 좌측 및 우측으로 존재한다.As illustrated in FIG. 2, accessory 40 includes a certain number of visual markers or criteria 45, here 8 square regions with a well-identified color, such as light green with a well-defined wavelength. Included, two visual markers are fitted to these well-defined spaced positions in one of the branches 43, the other two are placed symmetrically on the other branch 43, and finally the other four The dog is located on the body. More precisely, with respect to these last markers, the body 42 of the accessory 40 includes an upwardly projecting portion 46 and a forwardly projecting portion 47, in the upper region of the portion 46 A marker 45 is found and a marker 45 is present at the free end of the portion 47. At least two markers 45 are left and right near the departure of the branches 46.

변형예로서, 시각적 마커들(45)은 체커보드들과 같은 기하학적 모양들 또는 심지어는 적외선 스펙트럼으로 방출되는 마커들일 수 있다.As a variant, the visual markers 45 can be geometric shapes such as checkerboards or even markers emitted in the infrared spectrum.

시각적 마커들이 얼굴의 단독 지점들일 때, 이 단독 지점들은 특히, 동공들 및/또는 각막 반사들뿐만 아니라 피검자의 프레임의 에지들 상의 지점들일 수 있다.When the visual markers are the sole points of the face, these may be points on the edges of the subject's frame, as well as pupils and / or corneal reflections.

프로세싱 수단(30)Processing means (30)

프로세싱 수단(30)은, 피검자 S의 비전 파라미터들을 추론하도록, 이미지 캡쳐링 디바이스(10)에 의해 촬영된 이미지들 I1, I2에서의 시각적 마커들의 포지션뿐만 아니라 각각의 이미지 캡쳐의 시간에 경사계(20)에 의해 결정된 디바이스(10)의 경사를 분석하도록 설계된다.The processing means 30, as well as the position of the visual markers in the images I1, I2 taken by the image capturing device 10, to infer the vision parameters of the subject S, as well as the inclinometer 20 at the time of each image capture It is designed to analyze the slope of the device 10 determined by).

이를 위해, 프로세싱 수단(30)은 이미지 캡쳐링 디바이스(10)로부터 유래되는 데이터(피검자 S의 얼굴의 이미지 I1, I2) 및 경사계(20)의 데이터(지면에 대한 이미지 캡쳐링 디바이스(10)의 경사)를 수집 및 프로세스하도록 설계된 프로세서를 포함한다. 그 다음, 프로세서의 스크린, 또는 해당하는 경우 이미지 캡쳐링 디바이스(10)의 스크린(14) 상에 결과들이 디스플레이될 수 있다.To this end, the processing means 30 comprises data from the image capturing device 10 (images I1 and I2 of the face of the subject S) and data from the inclinometer 20 (image capturing device 10 against the ground). Tilt). The results can then be displayed on the screen of the processor, or, if applicable, on the screen 14 of the image capturing device 10.

프로세서(30)는 바로 이미지 캡쳐링 디바이스(10) 내로 통합될 수 있다. 이는 특히, 이미지 캡쳐링 디바이스(10)가 디지털 태블릿인 경우일 수 있다. 그 다음, 모든 계산들이 디지털 태블릿(10) 상에서 국부적으로 수행된다.The processor 30 can be integrated directly into the image capturing device 10. This may be the case, in particular, when the image capturing device 10 is a digital tablet. Then, all calculations are performed locally on the digital tablet 10.

변형예로서, 프로세서(30)는 이미지 캡쳐링 디바이스(10)와 별개이되, 상기 이미지 캡쳐링 디바이스에 인접하여 위치된 로컬 컴퓨터일 수 있다. 그 다음, 이미지 캡쳐링 디바이스(10)는 피검자 S의 비전의 파라미터들을 획득하는 것을 가능하게 하는 (무선 또는 유선) 네트워크(32)를 통해, 계산을 수행하는 컴퓨터에 데이터(이미지들 및 각도들)를 전송한다. 장점적으로는, 그 다음, 시스템(1)은 본 출원의 도입부에 인용된 문서들에 기술된 것들과 같은 기존의 측정 시스템들에 대한 보충(supplement)으로서 통합될 수 있고, 따라서 기존 인터페이스들(소프트웨어, 관리 인터페이스, 등)으로부터 이득을 얻는 바, 이는 개발 비용, 안경사들이 이미 기존 시스템들을 갖추고 있을 때 시스템을 구매하는 비용을 감소시키며, 장비를 이미 이해하고 있는 안경사를 안심시킨다.As a variant, the processor 30 may be a local computer separate from the image capturing device 10, but located adjacent to the image capturing device. The image capturing device 10 then data (images and angles) to the computer that performs the calculation, via a network (wireless or wired) 32 that makes it possible to obtain the parameters of the subject S 'vision. To send. Advantageously, the system 1 can then be integrated as a supplement to existing measurement systems, such as those described in the documents cited at the beginning of this application, and thus the existing interfaces ( Benefiting from software, management interfaces, etc.) reduces development costs, the cost of purchasing systems when opticians already have existing systems, and reassures opticians who already understand the equipment.

이 변형 실시예에서, 이미지 캡쳐링 디바이스(10)가 디지털 태블릿일 때, 프로세서의 스크린은, 예컨대 VNC(Virtual Network Computing) 프로토콜 또는 RDP(Remote Desktop Protocol)에 의해 원격 오피스에서 액세스 시스템에 의해 태블릿(10)의 스크린(14) 상에 디스플레이될 수 있고, 따라서 오퍼레이터로 하여금 자신의 테블릿(10)으로부터 직접적으로 모든 오퍼레이션들을 관리하게 할 수 있다.In this variant embodiment, when the image capturing device 10 is a digital tablet, the screen of the processor is a tablet (such as a Virtual Network Computing (VNC) protocol or a Remote Desktop Protocol (RDP)) by an access system in a remote office. 10) can be displayed on the screen 14, thus allowing the operator to manage all operations directly from his tablet 10.

또다른 변형예에 따르면, 프로세서(30)는 원거리 인터넷 서버일 수 있고, 상기 인터넷 서버는 추가적으로 전용화될 수 있다. 그 다음, 이미지들 I1, I2 및 측정 디바이스의 경사는 원거리 서버(30)에 (무선 또는 유선 네트워크에 의해) 전송되며, 상기 원거리 서버는, 특히 이미지 캡쳐링 디바이스(10)가 결과들을 디스플레이하기 위한 스크린(14)을 포함하는 경우, 이미지 캡쳐링 디바이스(10)에 직접적으로 결과들을 다시 전송하거나 또는 원거리 서버에 연결된 로컬 컴퓨터에 결과들을 전송한다.According to another variant, the processor 30 can be a remote Internet server, and the Internet server can be further dedicated. Then, the inclinations of the images I1, I2 and the measurement device are transmitted (by a wireless or wired network) to a remote server 30, which remote server, in particular, for the image capturing device 10 to display the results If screen 14 is included, the results are sent back directly to image capturing device 10 or the results are sent to a local computer connected to a remote server.

시각적 마커가 피검자 S의 얼굴의 단독 지점으로 형성될 때, 프로세서(30)는 환자(patient)의 얼굴의 3차원 재구성을 실현하기 위한 그리고 그 재구성으로부터 피검자의 비전 파라미터를 결정하기 위해 필요한 측정들을 하기 위한 수단을 포함한다.When the visual marker is formed as a single point of the subject's face, the processor 30 makes the measurements necessary to realize the three-dimensional reconstruction of the patient's face and to determine the subject's vision parameters from the reconstruction. Means for.

이를 위해, 3차원 재구성에 대한 삼각측량(triangulation)이 종래 기술에 부합하게 수행된다. 그 다음, 악세서리(40)는 두 개의 지점들 사이의 적어도 하나의 알려진 거리를 아는 것을 가능하게 한다.To this end, triangulation for 3D reconstruction is performed in accordance with the prior art. Then, accessory 40 makes it possible to know at least one known distance between two points.

변형예로서, 3차원 재구성은 어떤 다른 종래의 사진측량(photogrammetry) 또는 입체 방법(stereoscopy method)에 의해 수행될 수 있다.As a variant, the three-dimensional reconstruction can be performed by any other conventional photogrammetry or stereoscopy method.

얼굴의 단독 지점들을 구현하는 변형 실시예에서, 시스템(1)은 적어도 두 개의 이미지 캡쳐링 디바이스들(10)을 포함하며, 이들 서로에 대한 공간적인 포지션 및 방향은 알려져 있다. 그 다음, 상기에 기술된 사진측량 및 입체의 기법들에 따라 두 개의 이미지 캡쳐링 디바이스들(10)로 동시에 촬영된 기준 이미지들 덕분에 얼굴의 단독 지점들의 포지션 및 이들의 거리를 결정하는 것이 가능하다.In a variant embodiment that implements sole points of the face, the system 1 comprises at least two image capturing devices 10, the spatial positions and directions of which are relative to each other. It is then possible to determine the positions of the sole points of the face and their distances thanks to the reference images taken simultaneously with the two image capturing devices 10 according to the photogrammetry and stereoscopic techniques described above. Do.

방법Way

이제, 본 발명에 부합하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법(100)을 기술할 것이다. 상기 방법(100)은 스크린, 비디오 카메라 및 가속도계(20)를 포함하는 디지털 태블릿(10)으로 구성된 시스템(1)을 이용하여 하기에 예시될 것이다. 그러나, 이는 비제한적인 것이며, 방법(100)은 상기에 기술된 것들에 부합하는 모든 이미지 캡쳐링 디바이스들(10) 및 경사계들(20)로 구현가능하다.Now, a method 100 will be described to assist in determining vision parameters of a subject consistent with the present invention. The method 100 will be illustrated below using a system 1 consisting of a digital tablet 10 comprising a screen, a video camera and an accelerometer 20. However, this is non-limiting, and the method 100 can be implemented with all image capturing devices 10 and inclinometers 20 conforming to those described above.

이 측정들을 달성하기 위해, 피검자 S는 먼저 자신의 자연스러운 기준 포즈로 위치하여 멀리 쳐다본다(단계 110). 이를 위해, 피검자는 심신을 편안하게 하고 수평면 상에서 자신 바로 앞으로 무한한 지점을 바라본다. 그러므로, 이 포지션은, 피검자가 요구되는 시각적 마커를 주시하거나 또는 거울을 볼 필요가 없을 정도로, 제약된 것이 아니라 자유로운 것이다.To achieve these measurements, subject S is first positioned in his natural reference pose and looks away (step 110). To do this, the subject relaxes the mind and body and looks at an infinite point just in front of himself on a horizontal plane. Therefore, this position is free, not constrained, so that the subject does not need to look at the required visual marker or look in the mirror.

그 다음, 오퍼레이터는 짧은 거리에서 피검자의 얼굴의 적어도 두 개의 이미지들 I1, I2을 캡쳐하며, 이러한 캡쳐는 피검자의 동공들 중 적어도 하나가 두 이미지들에서 발견되도록 얼굴을 프레이밍하여 이루어진다(단계 120). 이 방식으로, 그 다음, 적어도 대응하는 눈에 대한 측정들을 수행하는 것이 가능하다. 카메라(11)와 피검자 S의 얼굴 사이의 (10 센티미터 내지 1 미터 사이의) 짧은 거리를 고려해 볼 때, 양호한 해상도를 가지는 이미지들 I1, I2이 획득된다. 피검자 S의 얼굴에 대한 그리고 상기 피검자의 시축에 대한 이미지들 I1 및 I2의 캡쳐 동안의 이미지 캡쳐링 디바이스(10) 및 비디오 카메라(11)의 배치의 일례는 도 4a 및 4b에 예시된다.The operator then captures at least two images I1, I2 of the subject's face at a short distance, and this capture is accomplished by framing the face such that at least one of the subject's pupils is found in the two images (step 120). . In this way, it is then possible to perform at least measurements on the corresponding eye. Considering the short distance (between 10 centimeters and 1 meter) between the camera 11 and the face of the subject S, images I1 and I2 with good resolution are obtained. An example of the arrangement of the image capturing device 10 and the video camera 11 during the capture of images I1 and I2 for the face of the subject S and for the visual axis of the subject is illustrated in FIGS. 4A and 4B.

이미지 캡쳐링 디바이스(10)가 비디오 카메라일 때, 두 개의 서로 다른 시야각들로부터 직접적으로 두 개의 이미지들 I1 및 I2를 촬영하거나 또는 피검자의 얼굴을 촬영하는 것이 가능하다. 촬영은 피검자 S의 이미지의 복수의 서로 다른 이미지들을 서로 다른 시야각들에서 촬영하도록 하는 방식으로 이루어진다. 그 다음, 서로 다른 시야각들에서 촬영되고 상기 방법에 적합한 두 개의 이미지들 I1 및 I2가 이 복수의 이미지들 중에서 선택된다. 예를 들어, 피검자의 시선을 방해하지 않는(즉, 피검자의 중심와 영역으로부터 떨어져 유지되는) 피검자의 측면 포지션과 피검자의 얼굴 아래의 포지션 사이에 비디오 카메라(10)를 옮겨 놓음(displacing)으로써 피검자의 얼굴을 촬영하는 것이 가능하다. 이미지들의 이러한 선택은 피검자 S의 서로 다른 비전 파라미터들을 결정하는 것을 가능하게 한다.When the image capturing device 10 is a video camera, it is possible to take two images I1 and I2 directly from two different viewing angles or to shoot the face of a subject. The photographing is performed in such a way that a plurality of different images of the image of the subject S are photographed at different viewing angles. Then, two images I1 and I2 photographed at different viewing angles and suitable for the method are selected from the plurality of images. For example, by displacing the video camera 10 between the subject's lateral position and the position under the subject's face that does not interfere with the subject's gaze (i.e., staying away from the subject's center and area) It is possible to shoot a face. This selection of images makes it possible to determine the different vision parameters of subject S.

시각적 마커들(45)이 얼굴의 단독 지점들인 경우, 이미지들 I1 및 I2는 바람직하게는 두 개의 별개의 이미지 캡쳐링 디바이스들(10)에 의해 동시에 촬영되며, 이들 서로에 대한 포지션 및 지향이 알려져 있다.If the visual markers 45 are the sole points of the face, the images I1 and I2 are preferably taken simultaneously by two separate image capturing devices 10, where their position and orientation relative to each other is known have.

옵션에 따라서는, 조명 수단(12)은 전체 이미지 캡쳐 단계(120) 동안 또는 단순히 각각의 이미지 캡쳐의 시간에 조명을 비출 수 있다. 시각적 마커들(15)이 악세러리에 위치된 마커들(45)인 경우, 조명 수단(12)은 피검자 S의 동공들을 비추도록 태블릿(10)보다는 악세서리(40) 자체에 포지셔닝될 수 있다.Depending on the option, the lighting means 12 can illuminate during the entire image capture step 120 or simply at the time of each image capture. If the visual markers 15 are markers 45 located on the accessory, the lighting means 12 may be positioned on the accessory 40 itself rather than on the tablet 10 to illuminate the pupils of subject S.

필요한 경우, 오퍼레이터는 피검자 S의 이미지를 정확하게 프레이밍하는 것을 돕기 위해 태블릿의 스크린(14)을 이용할 수 있다.If necessary, the operator can use the tablet's screen 14 to help accurately frame the image of subject S.

예를 들어, 오퍼레이터는 피검자 S의 시계 내로 침투(penetrate)하지 않도록, 그리고 그러므로 피검자의 자연스러운 원거리 비전 포즈를 방해하지 않도록, 아래로부터 보여지는 전방에서 이미지 I1을 촬영하며, 두 개의 동공들이 가시적이도록 90° 미만의 각도에서 측면으로부터 이미지 I2를 촬영한다(예컨대, 3/4 뷰).For example, the operator shoots the image I1 from the front as seen from below, so that the two pupils are visible, so as not to penetrate into the subject S's watch, and thus not interfere with the subject's natural long-range vision pose. Image I2 is taken from the side at an angle less than ° (eg, 3/4 view).

변형예로서, 오퍼레이터는 피검자의 시계를 방해하지 않도록 피검자 S의 뷰잉축으로부터 서로 다른 각도들, 예컨대 20°및 40°에서 얼굴의 측면으로부터 두 개의 이미지들 I1, I2를 촬영할 수 있다. 이 이미지들 I1, I2는 두 개의 이미지 캡쳐들 I1, I2 사이에 태블릿(10)을 옮겨 놓음으로써 연속적으로 획득될 수 있거나 또는 태블릿(10)이 이격된 두 개의 카메라들(11)을 장착한 암(16)을 장착한 경우 동시적으로 획득될 수 있다.As a variant, the operator can take two images I1, I2 from the sides of the face at different angles from the viewing axis of the subject S, such as 20 ° and 40 °, so as not to interfere with the subject's field of view. These images I1, I2 can be obtained continuously by moving the tablet 10 between two image captures I1, I2, or an arm equipped with two cameras 11 with the tablet 10 spaced apart. When equipped with 16, it can be obtained simultaneously.

이들 측정들 동안, 그 다음, 이미지들 I1, I2은 디지털 태블릿(10)에 의해 등록되고, 가속도계(20)는 각각의 이미지 캡쳐의 시간에 태블릿(10)의 경사를 결정한다(단계 130).During these measurements, images I1 and I2 are then registered by digital tablet 10, and accelerometer 20 determines the tilt of tablet 10 at the time of each image capture (step 130).

그 다음, 이미지들 I1, I2 및 태블릿(10)의 경사는, 두 개의 이미지들 I1, I2에 다양한 시각적 마커들의 각각의 위치를 결정하고 그리고 이로부터 피검자 S의 수렴과 같은 비전 파라미터들뿐만 아니라 피검자의 얼굴의 자연스러운 경사 및 자연스러운 캡 각도 값을 추론(단계 140)하도록 프로세서(30)에 전송된다.Then, the inclination of the images I1, I2 and the tablet 10 determines the position of each of the various visual markers in the two images I1, I2 and from there the vision parameters such as the convergence of the subject S as well as the subject It is sent to the processor 30 to infer (step 140) the natural slope of the face and the natural cap angle value.

시각적 마커들의 결정은 프로세서(30) 자체에 의해 자동으로 이루어지거나 또는 오퍼레이터에 의해 수동으로 이루어질 수 있다.The determination of the visual markers can be made automatically by the processor 30 itself or manually by the operator.

디지털 태블릿(10)은 일반적으로, 택타일(tactile)이며, 오퍼레이터는 특히, 스크린(14) 상에 디스플레이되는 이미지들 I1, I2 바로 위에 시각적 마커들을 시각화하고 포인팅할 수 있다. 따라서, 이는 사진측량 및 입체법의 원리들을 적용함으로써 홍채들, 동공들의 위치를 결정할 수 있다. 그 다음, 이 정보는 이로부터 피검자 S의 수렴을 추론하기 위해 프로세서(30)에 의해 이용된다.The digital tablet 10 is generally tactile, and the operator can visualize and point visual markers directly above the images I1, I2 displayed on the screen 14, in particular. Therefore, it is possible to determine the positions of the irises and pupils by applying the principles of photogrammetry and stereometry. This information is then used by processor 30 to infer the convergence of subject S therefrom.

옵션에 따라서는, 피검자의 얼굴에 조명 수단(12) 덕분에 조명이 비추어질 때, 프로세서(30)는 또한, 종래의 계산 방법들을 이용하여 피검자의 각막 반사들 및 홍채들의 포지션으로부터 피검자 S의 수렴을 결정할 수 있다.Optionally, when illumination is illuminated by the illumination means 12 on the subject's face, the processor 30 also converges the subject S from the position of the corneal reflections and irises of the subject using conventional calculation methods. Can decide.

그 다음, 태블릿 또는 가까이에 포지션된 컴퓨터의 스크린(14) 상에 이 결과들이 디스플레이된다.These results are then displayed on the screen 14 of a tablet or a computer positioned nearby.

피검자의 자연스러운 캡 각도 값의 측정을 개선하기 위해, 태블릿(10)에 고정된 프로젝트(18)에 의해 시각적 타겟, 바람직하게는 수직 세그먼트를 벽과 같은 지지물 상으로 프로젝션하고, 이미지 캡쳐의 시간에 환자에게 이 타겟을 보도록 요청하는 것이 가능하다. 이 방식으로, 피검자는 제로 캡 각도 값에 대응하는 포지션에 자신의 머리를 위치시키게 된다.To improve the measurement of the subject's natural cap angle value, a visual target, preferably a vertical segment, is projected onto a support, such as a wall, by a project 18 fixed to the tablet 10, and the patient at the time of image capture. It is possible to ask to see this target. In this way, the subject places his head in a position corresponding to the zero cap angle value.

시각적 타겟은 피검자의 얼굴의 경사의 측정을 방해하지 않도록 하는 수직 세그먼트일 수 있다.The visual target may be a vertical segment that does not interfere with the measurement of the tilt of the subject's face.

Claims (14)

피검자(subject)의 비전 파라미터들을 결정하는 것을 돕는 방법(100)으로서, 이 방법은 다음의 단계들:
- 이미지 캡쳐링 디바이스(10)에 의해 두 개의 서로 다른 각도들에서 상기 피검자의 얼굴의 두 개의 이미지들(I1, I2)을 캡쳐하는 단계(120) - 상기 피검자(S)는 자연스러운 원거리 비전 포즈(natural distant vision posture)로 있음 - 와;
- 이미지 캡쳐의 시간에 지면에 대한 상기 이미지 캡쳐링 디바이스(10)의 경사(inclination)를 결정하는 단계(130)와;
- 상기 피검자(S)의 얼굴의 경사 및 캡 각도 값(cap angle value)을 추론(deduce)하는 단계(140)를 포함하며,
상기 이미지 캡쳐링 디바이스는 상기 이미지들(I1, I2)의 캡쳐(단계 120)의 시간에 상기 피검자의 중심와 영역(foveal area) 외부에 포지셔닝되는 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
A method (100) to help determine a subject's vision parameters, the method comprising the following steps:
-Capturing (120) two images (I1, I2) of the subject's face from two different angles by the image capturing device (10)-the subject (S) is a natural far vision pose ( natural distant vision posture)-Wow;
-Determining (130) the inclination of the image capturing device 10 with respect to the ground at the time of image capture;
-Deducing (140) the inclination of the face of the subject S and the cap angle value.
The image capturing device is assisted in determining vision parameters of a subject, characterized in that it is positioned outside the center and foveal area of the subject at the time of capture (step 120) of the images I1 and I2. .
제1항에 있어서,
상기 이미지 캡쳐링 디바이스(10)는 이미지 캡쳐(단계 120) 동안 상기 피검자(S)의 시계(field of vision)의 영역 외부에 위치되며, 상기 영역은 상기 피검자(S)의 시축(optical axis)(X)에 대해 5°내지 30°의 꼭지각(apex angle)을 갖는 원뿔(cone)을 형성하는 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
According to claim 1,
The image capturing device 10 is located outside the area of the field of vision of the subject S during image capture (step 120), the area being the optical axis of the subject S ( A method to help determine the vision parameters of a subject characterized by forming a cone having an apex angle of 5 ° to 30 ° for X).
제1항 또는 제2항에 있어서,
상기 이미지들 중 하나(I2)는 아래로부터 상기 피검자의 전방에서 촬영된 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
The method according to claim 1 or 2,
One of the images (I2) is to help determine the vision parameters of the subject, characterized in that taken from the front of the subject from below.
제1항에 있어서,
상기 이미지들 중 하나(I2)는 측면으로부터 촬영된 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
According to claim 1,
Method of helping to determine the vision parameters of a subject, characterized in that one of the images (I2) is taken from the side.
제1항에 있어서,
상기 피검자(S)의 동공(pupil)들 중 적어도 하나 또는 각막 반사(corneal reflection)들 중 적어도 하나는 상기 캡쳐된 이미지들(I1, I2)의 각각 상에서 가시적인(visible) 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
According to claim 1,
At least one of the pupils of the subject S or at least one of corneal reflections is visible on each of the captured images I1, I2. How to help determine vision parameters.
제1항에 있어서,
시각적 마커(visual marker)들(45)이 상기 이미지들에서 식별되는 단계를 더 포함하며, 상기 시각적 마커들(45)은 상기 피검자(S)의 얼굴에 고정적으로 착용되는 악세서리(40) 상에 형성된 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
According to claim 1,
Visual markers (45) further comprises the step of being identified in the images, the visual markers (45) are formed on the accessory (40) fixedly worn on the face of the subject (S) How to help determine the vision parameters of the subject, characterized in that.
제1항에 있어서,
상기 이미지 캡쳐링 디바이스(10)는 비디오 카메라이고, 상기 이미지들을 캡쳐하는 단계는 다음의 서브 단계들:
- 서로 다른 시야각(viewing angle)들에서 복수의 이미지들을 획득하도록 상기 피검자의 얼굴을 촬영(film)하는 단계와, 그리고
- 상기 피검자의 이미지들 중 두 개의 서로 다른 각도들에서의 상기 피검자(S)의 얼굴의 적어도 두 개의 이미지들(I1, I2)을 선택하는 단계를 포함하는 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
According to claim 1,
The image capturing device 10 is a video camera, and capturing the images comprises the following sub-steps:
-Filming the subject's face to obtain a plurality of images at different viewing angles, and
-Selecting at least two images (I1, I2) of the face of the subject (S) at two different angles among the images of the subject to determine vision parameters of the subject How to help.
제1항에 있어서,
시각적 마커들(45)이 상기 이미지들에서 식별되는 단계를 더 포함하고, 상기 시각적 마커들(45)은 상기 피검자(S)의 얼굴의 단독 지점(singular point)들인 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
According to claim 1,
The visual markers 45 further include the step of identifying in the images, the visual markers 45 being the singular points of the face of the subject S, the vision parameter of the subject How to help them decide.
제8항에 있어서,
상기 이미지들(I1 및 I2)은 두 개의 이미지 캡쳐링 디바이스들(10)에 의해 동시에 촬영되며, 상기 이미지 캡쳐링 디바이스들의 위치 및 상대적인 지향은 알려져 있는 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
The method of claim 8,
The images I1 and I2 are simultaneously photographed by two image capturing devices 10, and the position and relative orientation of the image capturing devices is known to determine the vision parameters of the subject, characterized in that it is known. How to help.
제1항에 있어서,
상기 두 개의 이미지들(I1, I2)의 캡쳐의 순간에, 상기 피검자(S)의 얼굴에는 조명이 비추어지는(lit) 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
According to claim 1,
At the moment of capture of the two images (I1, I2), a method of helping to determine the vision parameters of the subject, characterized in that the light is lit (lit) on the face of the subject S.
제1항에 있어서,
상기 이미지들(I1, I2)을 캡쳐하는 것으로 구성된 단계 동안, 광선(beam of light)이 상기 피검자(S)를 마주하는 지지물, 예컨대 수직 세그먼트 상으로 프로젝트되는 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
According to claim 1,
During the step consisting of capturing the images I1, I2, the beam of light determines the vision parameters of the subject, characterized in that projected onto a support facing the subject S, such as a vertical segment How to help.
제1항에 있어서,
상기 피검자(S)의 얼굴의 경사 및 캡 각도 값은 상기 이미지 캡쳐링 디바이스에 의해 국부적으로(locally) 또는 상기 이미지 캡쳐링 디바이스로부터 떨어진 로컬 컴퓨터 상에서 또는 인터넷 서버 상에서 원격으로 결정되는 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
According to claim 1,
The subject's face tilt and cap angle values are determined by the image capturing device locally or remotely on a local computer or an Internet server remotely from the image capturing device. To help determine your vision parameters.
제1항에 있어서,
상기 이미지 캡쳐링 디바이스(10)는 비디오 카메라(11)를 포함하는 디지털 태블릿인 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
According to claim 1,
The image capturing device (10) is a digital tablet that includes a video camera (11).
제2항에 있어서,
상기 이미지 캡쳐링 디바이스(10)는 이미지 캡쳐(단계 120) 동안 상기 피검자(S)의 시계의 영역 외부에 위치되며, 상기 영역은 상기 피검자(S)의 시축(X)에 대해 15°내지 25°의 꼭지각을 갖는 원뿔을 형성하는 것을 특징으로 하는 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법.
According to claim 2,
The image capturing device 10 is located outside the field of view of the subject S during image capture (step 120), the region being 15 ° to 25 ° with respect to the visual axis X of the subject S A method of helping to determine the vision parameters of a subject, characterized by forming a cone having a vertex angle of.
KR1020157010814A 2012-09-26 2013-09-25 Method for helping determine the vision parameters of a subject KR102093953B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1259044 2012-09-26
FR1259044A FR2996014B1 (en) 2012-09-26 2012-09-26 METHOD FOR AIDING THE DETERMINATION OF VISION PARAMETERS OF A SUBJECT
PCT/EP2013/069923 WO2014048961A1 (en) 2012-09-26 2013-09-25 Method for helping determine the vision parameters of a subject

Publications (2)

Publication Number Publication Date
KR20150102941A KR20150102941A (en) 2015-09-09
KR102093953B1 true KR102093953B1 (en) 2020-03-26

Family

ID=47137956

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157010814A KR102093953B1 (en) 2012-09-26 2013-09-25 Method for helping determine the vision parameters of a subject

Country Status (8)

Country Link
US (1) US9928421B2 (en)
EP (1) EP2901209B1 (en)
JP (1) JP2015532129A (en)
KR (1) KR102093953B1 (en)
ES (1) ES2754310T3 (en)
FR (1) FR2996014B1 (en)
HU (1) HUE046048T2 (en)
WO (1) WO2014048961A1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI676050B (en) * 2014-10-17 2019-11-01 美商壯生和壯生視覺關懷公司 Virtual mirror systems and methods for remotely training and/or supporting contact lens users
JP2016167038A (en) * 2015-03-10 2016-09-15 ホヤ レンズ タイランド リミテッドHOYA Lens Thailand Ltd Spectacle wearing parameter measuring device, spectacle wearing parameter measuring program and imaging control method
WO2016164859A1 (en) 2015-04-10 2016-10-13 Bespoke, Inc. Systems and methods for creating eyewear with multi-focal lenses
WO2016194853A1 (en) 2015-06-01 2016-12-08 アルプス電気株式会社 Glasses-type electronic device
KR101696602B1 (en) * 2015-08-11 2017-01-23 주식회사 슈프리마 Biometric authentication using gesture
JP6825338B2 (en) * 2016-12-01 2021-02-03 株式会社ニデック Subjective optometry device and subjective optometry program
JP7168374B2 (en) 2018-08-06 2022-11-09 株式会社トプコン ophthalmic equipment
US11219367B2 (en) 2020-01-30 2022-01-11 Reichert, Inc. Positioning system for ophthalmic instrument
EP3913424A1 (en) 2020-05-22 2021-11-24 Carl Zeiss Vision International GmbH Computer-implemented method for determining centre parameters for mobile terminals, mobile terminal and computer program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1747750A1 (en) 2004-05-06 2007-01-31 INDO Internacional, S.A. Method and device for determining the visual behaviour of a person and method of customising a spectacle lens
WO2010119190A1 (en) 2009-04-17 2010-10-21 Essilor International (Compagnie Generale D'optique) Method for determining at least one geometric postural parameter when fitting a corrective spectacle frame on the face of a wearer in the anatomical posture thereof
US20110141227A1 (en) 2009-12-11 2011-06-16 Petronel Bigioi Stereoscopic (3d) panorama creation on handheld device
DE102010015795A1 (en) 2010-04-20 2011-10-20 Hans-Joachim Ollendorf Video centering system with visual field evaluation
DE102011009646B4 (en) 2011-01-27 2018-02-08 Hans-Joachim Ollendorf Video centering system and method for determining centering data for spectacle lenses

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3976925B2 (en) * 1999-02-22 2007-09-19 株式会社ニデック Eye position measuring device
US7217375B2 (en) * 2001-06-04 2007-05-15 Ophthonix, Inc. Apparatus and method of fabricating a compensating element for wavefront correction using spatially localized curing of resin mixtures
FR2836215B1 (en) * 2002-02-21 2004-11-05 Yodea SYSTEM AND METHOD FOR THREE-DIMENSIONAL MODELING AND RENDERING OF AN OBJECT
JP4536329B2 (en) * 2002-03-04 2010-09-01 東海光学株式会社 Eye point position determination method and eye point measurement system
FR2860887B1 (en) 2003-10-13 2006-02-03 Interactif Visuel Systeme Ivs FACE CONFIGURATION MEASUREMENT AND EYEGLASS MOUNTS ON THIS FACE IMPROVED EFFICIENCY
US7963652B2 (en) * 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
FR2892529B1 (en) 2005-10-21 2008-02-01 Interactif Visuel Systeme Ivs SYSTEM FOR AIDING THE CORRECTION OF THE VIEW
FR2914173B1 (en) * 2007-03-30 2010-02-26 Essilor Int METHOD OF MEASURING THE POSITION FOLLOWING A HORIZONTAL DIRECTION OF THE SAGITTAL PLAN OF A REMARKABLE POINT OF AN EYE OF A SUBJECT
GB0713461D0 (en) * 2007-07-11 2007-08-22 Ct Meter Ltd Device and methods for obtaining measurements for spectacles fitting
US20110216160A1 (en) * 2009-09-08 2011-09-08 Jean-Philippe Martin System and method for creating pseudo holographic displays on viewer position aware devices
JP5351691B2 (en) * 2009-10-01 2013-11-27 ホーヤ レンズ マニュファクチャリング フィリピン インク Eyeball downward amount measuring device and eyeball downward amount measuring method
FR2950984B1 (en) * 2009-10-05 2012-02-03 Interactif Visuel Systeme Ivs METHOD AND EQUIPMENT OF MEASUREMENTS FOR CUSTOMIZATION AND MOUNTING OF CORRECTIVE OPHTHALMIC LENSES
FR2961591B1 (en) * 2010-06-21 2013-05-31 Interactif Visuel Systeme I V S METHOD OF ESTIMATING THE POSTURE OF A SUBJECT
FR2971861B1 (en) * 2011-02-21 2013-02-22 Essilor Int METHOD FOR DETERMINING AT LEAST ONE GEOMETRIC-PHYSIOMY PARAMETER ASSOCIATED WITH THE MOUNTING OF AN OPHTHALMIC LENS IN A BEARER-FITTED GOGGING MOUNT
CN102860836B (en) * 2011-07-04 2015-01-07 株式会社东芝 Image processing apparatus, image processing method, and medical image diagnosis apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1747750A1 (en) 2004-05-06 2007-01-31 INDO Internacional, S.A. Method and device for determining the visual behaviour of a person and method of customising a spectacle lens
WO2010119190A1 (en) 2009-04-17 2010-10-21 Essilor International (Compagnie Generale D'optique) Method for determining at least one geometric postural parameter when fitting a corrective spectacle frame on the face of a wearer in the anatomical posture thereof
US20110141227A1 (en) 2009-12-11 2011-06-16 Petronel Bigioi Stereoscopic (3d) panorama creation on handheld device
DE102010015795A1 (en) 2010-04-20 2011-10-20 Hans-Joachim Ollendorf Video centering system with visual field evaluation
DE102011009646B4 (en) 2011-01-27 2018-02-08 Hans-Joachim Ollendorf Video centering system and method for determining centering data for spectacle lenses

Also Published As

Publication number Publication date
EP2901209A1 (en) 2015-08-05
ES2754310T3 (en) 2020-04-16
US9928421B2 (en) 2018-03-27
US20150339511A1 (en) 2015-11-26
EP2901209B1 (en) 2019-08-14
JP2015532129A (en) 2015-11-09
KR20150102941A (en) 2015-09-09
WO2014048961A1 (en) 2014-04-03
HUE046048T2 (en) 2020-01-28
FR2996014B1 (en) 2015-12-25
FR2996014A1 (en) 2014-03-28

Similar Documents

Publication Publication Date Title
KR102093953B1 (en) Method for helping determine the vision parameters of a subject
KR101932568B1 (en) Measurement process of morpho-geometerical parameters of a person wearing eyeglasses
US9323075B2 (en) System for the measurement of the interpupillary distance using a device equipped with a screen and a camera
US9961335B2 (en) Pickup of objects in three-dimensional display
JP4517049B2 (en) Gaze detection method and gaze detection apparatus
CN109429060B (en) Pupil distance measuring method, wearable eye equipment and storage medium
CN103827735B (en) For measuring the method for the form geometric parameter of the individuality of wearing spectacles
US10758124B2 (en) Device and method for distance determination and/or centering using corneal reflections
JP6515542B2 (en) Glasses-wearing image analysis apparatus, glasses-wearing image analysis method, and glasses-wearing image analysis program
WO2015051605A1 (en) Image collection and locating method, and image collection and locating device
US10520751B2 (en) Apparatus and method for determining optical parameters
JP5289962B2 (en) Vision correction support system
JP2012239566A (en) Measuring apparatus for glasses, and three-dimensional measuring apparatus
JP4536329B2 (en) Eye point position determination method and eye point measurement system
KR20170054511A (en) Method for determining optical parameters of a test subject with measurement accuracy in order to adapt a pair of eyeglasses to the test subject, and immobile video centering system
JP6258318B2 (en) Method for measuring morphological geometric parameters of a person wearing spectacles
JP2007216049A (en) Eye position measurement device
JP2013142597A (en) Spectacle fitting parameter measurement system and spectacle fitting parameter measurement method
KR101075972B1 (en) Digital system providing parameters for dispensing the ophthalmic glasses
ES2789583T3 (en) Method and apparatus for determining the reference posture of the head of a subject
CN112752537A (en) Method for determining at least one geometric form parameter of a subject in a natural posture for determining a vision correction equipment
JP6379502B2 (en) Spectacle wearing image analysis apparatus, spectacle wearing image analysis method, and spectacle wearing image analysis program
JP6488546B2 (en) Spectacle wearing image analysis apparatus, spectacle wearing image analysis method, and spectacle wearing image analysis program
CN111183389B (en) Method and system for determining fitting parameters of an optical device by manual identification
KR20140118530A (en) Mirror tester having eyeball position measurement camera for fitting multifocal lens

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right