KR101859132B1 - 독서 거리를 결정하기 위한 방법 - Google Patents

독서 거리를 결정하기 위한 방법 Download PDF

Info

Publication number
KR101859132B1
KR101859132B1 KR1020137027418A KR20137027418A KR101859132B1 KR 101859132 B1 KR101859132 B1 KR 101859132B1 KR 1020137027418 A KR1020137027418 A KR 1020137027418A KR 20137027418 A KR20137027418 A KR 20137027418A KR 101859132 B1 KR101859132 B1 KR 101859132B1
Authority
KR
South Korea
Prior art keywords
reading
tablet
image
individual
marker
Prior art date
Application number
KR1020137027418A
Other languages
English (en)
Other versions
KR20140051158A (ko
Inventor
아메드 하다디
쟝 델제르
Original Assignee
에씰로 앙터나시오날
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에씰로 앙터나시오날 filed Critical 에씰로 앙터나시오날
Publication of KR20140051158A publication Critical patent/KR20140051158A/ko
Application granted granted Critical
Publication of KR101859132B1 publication Critical patent/KR101859132B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • G02C13/005Measuring geometric parameters required to locate ophtalmic lenses in spectacles frames
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Ophthalmology & Optometry (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 독서 영역(28)을 보는 개인(7)을 위해 독서 거리를 결정하기 위한 방법에 관한 것으로, 상기 방법은 다음 단계를 포함한다: 상기 개인(7)의 적어도 하나의 얼굴 영상을 획득하기 위해 설계된 장치(2)의 앞에 개인을 위치시키는 단계, 그리고 그 다음 상기 영상을 처리하고 정보를 출력하기 위해 개인(7)이 그들의 독서 거리를 알 수 있도록 하는 단계; 고유한 자세를 가정하고 상기 태블릿(13)의 위치를 가정하는 동안, 휴대용 태블릿(13)상에 제공되며 적어도 하나의 기준 마커(20, 21)를 포함하는 상기 영역(28)을 개인(7)이 독서하는 단계; 독서 태블릿(13) 위에 개인(7)의 적어도 하나의 얼굴 기준(15)과 각각의 마커(20, 21)을 표시하기 위한 적어도 하나의 영상을 장치(2)가 획득하는 단계; 개인(7)의 얼굴 기준(15)의 위치와 상기 태블릿(13)의 각각의 마커(20, 21)의 위치를 고려하는 동안, 계산에 의해 상기 적어도 하나의 영상을 처리하는 단계; 그리고 독서 거리를 나타내는 정보를 장치(2)가 출력하는 단계.

Description

독서 거리를 결정하기 위한 방법{METHOD FOR DETERMINING READING DISTANCE}
본 발명은 표준 문서를 독서하도록 된 개인을 위해 독서 거리를 결정하기 위한 방법에 관한 것이다.
본 발명에 따른 방법은 특히 독서할 수 없는 개인에 적용할 수 있어야 하기 때문에 표준 문서의 개념은 범위가 넓다. 따라서, 표준 문서는 종래의 기록된 문서를 포함하거나, 또는 책 혹은 잡지에서 일반적으로 마주하게 되는 단순한 그래픽 또는 도면을 포함할 수 있다. 한 쌍의 안경을 생산하는 데 있어서 이러한 매개변수를 포함하기 위해, 독서 거리를 측정할 수 있는 것이 특히 안경 제조자를 위해서 중요하다.
상세한 설명의 보다 나은 이해를 위해, "독서 거리를 결정하기 위한 방법"이라는 표현과 "독서 거리를 결정하는 테스트"라는 표현은 등가인 것으로 이해된다.
독서 거리를 결정하기 위한 방법은, 일반적으로 짐작(guesswork)의 요소를 포함하며, 특정한 장비 없이 그리고 따라서 임의의 특별한 엄격함 없이 판독 거리의 개요 및 근사치에 의존한다. 거의 이들 방법은 이러한 거리를 신속하게 결정하는 특유의 목적을 가지며, 그리고 개인에 의해 채택된 자세를 고려하지 않는다. 그러나, 최적의 독서 조건을 획득하고 가급적 스스로를 편안하게 하기 위하여, 각각의 개인은 자신의 크기 및 체형에 따라 그들의 몸 및/또는 머리가 보다 크거나 보다 적은 각도로 기울어지고 공간내 독서 매체의 방향을 조절하려 할 것이다. 엄격하게 하기 위해, 독서 거리의 측정은 몸의 위치 및 방향 그리고 독서 매체의 위치 및 방향에 있어서 이들 모든 조절을 포함하여야 한다. 용어 "독서 매체"는 일반적인 용어이며 문서 또는 도면이 위치되는 임의의 장치를 의미하며 그리고 예를 들어 책 또는 잡지를 포함할 수 있다.
본 발명에 따라 독서 거리를 결정하기 위한 방법은 완전하며 정확한데, 그 이유는 한편으로는 이 방법이 개인에 의해 채택된 자세와 독서 매체의 경사를 고려하기 때문이며, 그리고 다른 한편으로는 이 방법이 독서 거리에 관련된 정보가 자동으로 전달되도록 하기 때문이다. 게다가 이 방법은 임의의 특별한 제약 및 특정한 장비 없이 독자가 편안한 독서 위치를 채택할 수 있도록 사용자-친화적이고 빠르며, 판독 거리는 이 방법이 구현된 후에 곧바로, 즉 판독 단계 직후에 개인에게 통신된다.
더욱 특별하게, 본 발명의 한 가지 주된 목적은 독서 구역을 관측하도록 된 개인을 위해 독서 거리를 결정하기 위한 방법이며, 다음의 단계들을 포함한다:
- 상기 개인의 적어도 하나의 정면 영상을 획득한 다음에, 상기 영상을 처리하고 최종적으로 개인이 그들의 독서 거리를 알 수 있도록 하는 정보를 전달하도록 설계된 장치의 앞에 개인을 위치시키는 단계;
- 고유한 위치를 채택하고 상기 태블릿의 위치를 조절하는 개인에 의해, 휴대용 태블릿 위에 위치되고 적어도 하나의 위치 마커(marker)가 장착된 상기 구역을 독서하는 단계;
- 장치를 통하여, 개인의 적어도 하나의 얼굴 기준점과 독서 태블릿의 각각의 마커를 허용하는 적어도 하나의 영상을 획득하는 단계;
- 개인의 얼굴 기준점의 위치와 상기 태블릿의 각각의 마커의 위치를 고려하는, 상기 적어도 하나의 영상을 계산적으로 처리하는 단계; 그리고
- 장치를 통하여, 독서 거리를 나타내는 정보를 전달하는 단계.
원칙적으로, 본 발명에 따른 방법은 태블릿상의 독서 구역을 독서하는 개인의 적어도 하나의 영상을 포착한 다음에, 태블릿의 각각의 마커의 위치와 상기 적어도 하나의 영상상의 얼굴 기준점의 위치를 정확히 찾아내는 데 있다. 장치와 관련하여 개인의 거리를 알며, 그리고 앞선 정확히 위치를 찾는 공정으로부터 야기된 각을 고려한 것에 기초하여, 정확히 독서 거리를 결정하는 것이 가능하다. 개인의 얼굴 기준점과 이들의 눈의 평면을 분리하는 거리, 그리고 마커와 독서 구역을 분리하는 거리는 이들 거리를 독서 거리의 계산에 통합하기 위해 정확히 알려진 것으로 가정된다. 독서 태블릿은 쉽게 다루어질 수 있으며 독서 구역이 위치되는 광 물체이다. 개인이 독서할 수 없는 경우에, 독서 구역은 기록된 문서를 유리하게 대체할 수 있는 그림 또는 단순한 도면의 형태를 취할 수 있다. 문서 및/또는 그림을 해독하기 위해 개인이 상기 태블릿을 기울일 때 필름내 또는 사진 위에 나타나도록 하기 위해, 독서 태블릿의 각각의 마커는 판독 태블릿의 앞쪽에 위치된다. 장치는 이동 가능하거나 제자리에 고정될 수 있다. 독서 거리는 수단이 구두 또는 시각적이던지 임의의 가능한 수단에 의해 전달될 수 있으며, 주요 수단은 대기 기간 없이 영상이 처리된 직후 정보가 정리(clear)되고 정보가 전달되도록 하기 위한 것이다. 얼굴 기준점은 고유한 기준점, 즉 예를 들어 눈의 동공과 같이, 영상상에 손쉽게 정확히 찾아질 수 있는 얼굴의 일부이거나 적어도 하나의 마커상에 위치된 인위적인 기준점일 수 있다. 독서 단계 자체에 대하여, 개인의 자세 또는 위치에 대한 아무런 제약이 없으며, 위치는 편안함을 위해 최적화된 독서 자세를 채택하는데 있어서 완전히 자유이며, 유일한 제한은 개인이 장치를 마주한다는 데 있다. 이러한 방법으로, 개인은 그들의 머리 및/또는 가슴 그리고 태블릿의 적절한 공간 위치 사이의 수용 가능한 타협을 찾아낼 것이다.
바람직하게, 개인은 한 쌍의 안경을 쓰며, 그리고 얼굴 기준점은 상기 한 쌍의 안경에 고정된 클립에 단단히 고정된 적어도 하나의 마커에 의해 표시된다. 이러한 방법으로 안경은 마커를 지원하게 되며, 그리고 눈에 대해 마커의 근접은 안경이 영상내 마커를 표시하도록 한다. 클립은 두 눈 사이에 위치된 개별적인 마커나 각각의 눈과 함께 위치된 2개의 마커를 지지할 수 있으며, 마커의 수는 제한되지 않는다. 일반적으로, 이들 마커는 눈의 위치에 대해서 약간 오프셋되고, 이러한 오프셋은 크기가 작으며, 독서 거리의 계산에 포함될 수 있다는 것이 잘 알려져 있다.
유리하게, 태블릿에는 3개의 위치 마커, 즉 상기 태블릿상에 정면 위치를 갖는 1개의 위치 마커, 측면 위치를 2개의 위치 마커가 장착된다. 이들 마커는 태블릿의 위치가, 특히 상기 태블릿이 개인에 의한 독서의 단계 동안 크게 기울어질 때 영상내에서 정확히 찾아지도록 한다. 즉, 태블릿이 전면과 후면을 갖는 얇은 부분으로 감소되었다면, 독서 구역은 후면에 위치될 것이며, 그리고 마커는 전면에 위치될 것이다.
바람직하게, 적어도 하나의 영상을 획득하기 위해 사용된 수단은 비디오 카메라이다. 특히, 비디오 카메라는 연속적인 필름이 생산되고 이러한 필름이 특정한 영상에 대해 일시 멈추도록 하며, 최상의 영상이 선택되도록 하는 영상 포착을 위한 가장 완전하고 유연한 수단이다. 이러한 형태의 카메라는 또한 줌-인이든지 아니면 줌-아웃이든지 상관없이 다수의 장면이 연속으로 교대로 촬영되도록 한다.
본 발명에 따른 방법의 제1 바람직한 실시예에서, 개인의 얼굴 기준점과 태블릿의 각각의 기준점이 동일한 영상에 동시에 나타난다. 이러한 구성을 위해 개인의 얼굴 기준점과 독서 태블릿의 각각의 마커 둘 다가 정확히 구별될 수 있도록 하기 위해 해상도가 충분히 높은 것으로 가정되며; 이 경우에, 단일 프레임은 독서 거리를 결정하기에 충분하다.
본 발명에 따른 방법의 다른 바람직한 실시예에서, 비디오 카메라는 적어도 2개의 영상, 즉 개인의 적어도 하나의 얼굴 기준점이 나타나는 제1 영상 그리고 태블릿의 각각의 마커가 나타나는 제2 영상을 획득하며, 계산적인 처리는 상기 영상으로부터 수집된 정보에 기초하여 수행된다. 이러한 구성을 위해 해상도가 거리로부터 충분히 높지 않은 것으로 가정될 수 있으며, 이러한 점에서 개인의 얼굴 기준점과 태블릿의 각각의 마커를 동일한 스냅샷에서 구별하는 것은 불가능하다.
유리하게, 비디오 카메라는 제1 영상의 포착을 위해 의도된 제1 위치와 제2 영상의 포착을 위해 의도된 제2 위치 사이에서 움직인다. 특별히, 비디오 카메라가 개인의 얼굴 기준점과 독서 태블릿의 각각의 마커가 나타나는 충분히 잘-정의된 스냅샷을 찍을 수 없는 경우는 상당히 간단하게 존재할 수 있다. 이들 조건하에서, 비디오 카메라는 2개 요소 중 어느 하나의 제1 샷, 즉 얼굴 기준점의 제 1 샷 또는 태블릿의 각각의 마커의 제1 샷을 획득하며, 그 다음 나머지 요소의 제2 샷을 획득하기 위해 충분히 이동되고, 이들 두 영상의 처리는 공간내 카메라의 두 가지 위치를 포함한다. 특별히, 2개의 스냅샷으로부터 수집된 정보를 효과적으로 연계시킬 수 있도록 하기 위해서는, 독서 거리를 결정하기 위한 시야(view)와 더불어 이들 두 스냅샷이 찍히는 순간에 공간내 비디오 카메라의 좌표를 알 필요가 있다.
유리하게, 상기 적어도 하나의 영상의 처리 단계는 개인의 얼굴 기준점과 영상 획득 카메라를 연결하는 제1 벡터, 그리고 태블릿상의 독서 구역과 상기 카메라를 연결하는 제2 벡터간의 뺄셈 단계를 포함하며, 정보는 디스플레이로부터 정보를 직접적으로 독서함으로써 전달된다. 상기 벡터 뺄셈의 단계는 독서 단계 동안 도입된 다양한 경사, 그리고 얼굴 기준점과 눈의 평면 사이 그리고 태블릿의 각각의 마커와 독서 구역 사이의 오프셋을 고려하는 벡터에 대한 조절 및 각 조절에 의해서 보충된다.
본 발명은 또한 본 발명에 따른 방법을 구현하기 위한 휴대용 독서 태블릿에 관한 것이며, 상기 태블릿은 독서를 위해 의도된 페이스(face) 그리고 상기 태블릿의 공간 위치를 정확히 찾아내기 위한 적어도 하나의 마커를 포함하며, 상기 적어도 하나의 마커는 낮은-광도 조건하에서도 태블릿이 위치되도록 구성된다. 발명에 따른 태블릿의 주요 특징은, 상기 제1 페이스에 관하여 10° 내지 80°의 각으로 경사진 제2 페이스에 의해 연장된 독서 제1 페이스를 포함하고, 상기 제2 페이스는 3개의 마커, 즉 정면 위치를 갖는 하나의 마커, 그리고 측면 위치를 갖는 2개의 마커를 포함하며, 상기 3개의 마커는 상기 태블릿의 위치가 공간내에서 정확히 찾아지도록 해준다. 독서 페이스는 문서, 개별적인 문자 또는 숫자나 도면을 포함할 수 있다. 일반적으로, 이러한 페이스는 개인에 의해 독서될 수 있는 임의의 형태의 문자를 포함한다. 마커가 독서 동안 상당히 경사질 때 조차도 상기 태블릿의 위치가 사진내에서 정확히 찾아지도록 하기 위하여, 마커는 바람직하게 독서 페이스에 관하여 이러한 태블릿의 뒤에 위치된다. 자신의 색과 연관된 마커의 기하학적 구조는, 매우 낮은 광도 조건을 포함하는 임의의 종류의 광도 조건하에서 마커가 쉽고 명확하게 정확히 찾아지도록 해야만 한다.
유리하게, 태블릿은 자신의 뒤에 3개의 마커, 즉 정면 위치내 하나의 마커, 측면 위치를 갖는 2개의 마커를 포함하는 상기 제1 페이스에 관하여 10° 내지 80°의 각도로 경사진 제2 페이스에 의해 연장된 독서 제1 페이스를 포함한다. 여기서 용어 "페이스"는 벽을 의미한다. 이러한 방법으로, 태블릿이 독서 동안 경사질 때에 마커는 정면으로부터 찍힌 영상 또는 필름상에서 명백히 가시적이 될 것이다.
단순하고 빠르며 제약이 없는 테스트를 제공하는 것에 더하여, 이 방법이 테스트의 결과가 정확한 방법으로 개인에게 자동으로 전달되는 궁극적인 단계를 포함하기 때문에, 본 발명에 따라 독서 거리를 결정하기 위한 방법은 완전한 장점을 갖는다. 게다가, 이 방법은 사용자-친화적인 장점을 가지며, 필름 또는 사진이 찍히게 될 개인이 마커 클립이 장착된 안경에 의해 중심 스테이지를 취하도록 한다. 최종적으로, 이들 방법은 안전하고, 신뢰할 수 있으며 그리고 완벽히 반복 가능하다.
본 발명에 따라 독서 거리를 결정하기 위한 방법의 바람직한 실시예의 상세한 설명, 그리고 본 발명에 따른 독서 태블릿의 상세한 설명이 도 1 내지 도 3c를 참조하여 이하에서 제공된다.
- 도 1은 발명에 따른 방법을 적용하며, 그리고 독서 단계 동안 개인을 도시하기 위해 제공된 설치의 측면도이고;
- 도 2는 독서 구역과 태블릿의 마커를 연결하는 다양한 좌표와 각을 도시하는, 발명에 따른 독서 태블릿의 측면도이며;
- 도 3a는 발명에 따른 독서 태블릿의 정면도이고;
- 도 3b는 도 3a내 태블릿의 평면도이며;
- 도 3c는 도 3a내 태블릿의 측면도(profile view)이다.
도 1에 관하여, 발명에 따라 독서 거리를 결정하기 위한 방법을 구현하기 위해 의도된 설치(1)는 적어도 하나의 영상이 획득되도록 하는 비디오 카메라(3)가 장착된 장치(2), 상기 영상을 처리하기 위한 수단(5) 그리고 한 차례 처리된 상기 영상을 전달하기 위한 수단(6)을 활용한다. 상기 장치(2)는 비디오 카메라(3)를 포함하는 고정된 수직 기둥의 형태를 취하며, 비디오 카메라(3)의 위치 및 높이는 테스트를 수행하는 개인(7)의 크기에 따라 조절될 수 있다. 이상적으로, 비디오 카메라(3)의 높이는 개인(7)의 눈과 수평으로 정렬되도록 하기 위해 조절된다. 처리된 영상을 전달하기 위한 수단(6)은 기둥(2)에 직접적으로 포함되거나, 적절한 케이블에 의해 기둥(2)에 연결될 수 있는 디스플레이 스크린(9)을 포함한다. 유리하게, 개인이 그들 자신의 영상을 직접적으로 볼 수 있도록 하기 위해 그리고 움직이지 않더라도 장치(2)에 의해 계산된 독서 거리를 읽을 수 있도록 하기 위해, 디스플레이(9)는 개인(7)을 향한 방향으로 향하며, 이러한 정보는 상기 스크린(9)상에 명백하게 그리고 순간적으로 나타난다. 개인(7)은 서거나 앉은 위치에서 본 발명에 따른 그들의 독서 거리를 결정하기 위한 테스트를 수행할 수 있으며, 비디오 카메라(3)로부터 그들의 가슴(10)을 분리하는 거리는 대략 1.3m이다. 기둥(2)은 비디오 카메라(3)를 숨기고 개인(7)이 상기 거울(11)에 반사된 그들 자신의 영상을 참조하여 상기 기둥(2)의 정면에 그들 스스로 정확히 찾아지도록 하는 편평한 반-은색의 거울(11)을 포함하며, 정확한 조건하에서 테스트가 수행되도록 한다. 이러한 방법으로, 개인(7)은 다소 기둥(2)의 앞쪽에 유지되도록 노력하며, 그리고 그들 자신이 기둥(2)의 앞쪽으로부터 상당한 거리만큼 벗어나지 않도록 한다. 기둥(2)은 또한 독서 거리를 결정하기 위해 제공된 독서 태블릿(13)이 위치될 수 있는 돌출 홀더(12)를 포함하며, 이러한 홀더(12)는 두 테스트간에 사용된다. 안경 제조자에서의 측정 맥락에서, 개인(7)은 교정 안경을 포함하는 프레임(14)을 착용한다. 본 방법의 원리가 적어도 개인(7)의 눈의 평면의 위치의 정확한 식별에 기초하여 처리된 영상의 획득에 의존하기 때문에, 따라서 일 포인트의 위치를 엄격하게 정확히 찾아낼 수 있는 것이 중요하거나 구역, 즉 상기 평면에 대한 상기 포인트의 위치는 완벽하게 알려져 있다. 낮은 광도 레벨로 인해 고유한 얼굴 기준점을 정확히 찾아내는 것이 항상 가능하지 않기 때문에, 안경(14)에는 각각의 눈(8)이나 상기 눈(8) 사이의 중심점이 정확히 찾아지도록 하는 마커(15)가 장착된다. 이들 마커(15)는 각각의 글래스 위, 실질적으로 수평인 위치에서, 상기 안경(14)의 프레임에 클립으로 고정될 수 있는 막대(16)에 의해 지지되며, 예를 들어 이러한 클립(16)은 가능한 특허출원 US 2009/0262302호에 기술된 클립과 유사하다. 장치에는 주변 광도 레벨이 증가될 수 있도록 하며 영상의 획득 조건이 개선될 수 있도록 하는 조명 수단이 장착될 수 있다. 본 발명에 따른 방법 동안 독서 단계는 휴대용 독서 태블릿(13)에 의해 수행되며, 이러한 태블릿은 개인(7)이 그들의 손안에 유지하고 이러한 단계와 함께 진행하도록 하기 위해 그들의 눈(8)으로부터 특정한 거리에 배치하는 작은 크기의 광 물체이다. 이러한 태블릿(13)은 문서 또는 그림을 포함하며, 문서 또는 그림의 크기는 책에서 만날 수 있는 문서 또는 그림의 크기와 유사하다.
도 3a, 3b 및 3c를 참조하면, 독서 거리를 결정하기 위한 테스트 동안 개인(7)이 문서를 읽을 수 있도록 하는 독서 태블릿(13)은 작고 일정한 두께를 갖는 물체이며, 그리고 독서 태블릿(13)은 10° 내지 80° 사이에 포함된 각이 이들 사이에 만들어진 2개의 편평하고 직사각형인 벽(17, 18)으로 이루어진다. 제1 벽(17)은 문서 또는 도면 또는 그림의 형태를 취하는, 독서 구역(28)이 위치되는 독서 페이스(19)를 포함한다. 제1 벽(17)에 대하여 경사진 제2 벽(18)에는 3개의 마커(20, 21), 즉 중심 및 정면 위치를 갖는 하나의 마커(20) 그리고 측면 위치를 갖는 2개의 마커(21)가 장착된다. 보다 정확하게, 제2 벽(18)의 하나의 페이스(22)에는 상기 제2 벽(18)을 관통하는 개구(24)를 구속하는 중심 각 돌출부(23)이 장착되며, 중심 위치내 마커(20)는 상기 돌출부(23) 위에 위치된다. 제2 벽이 제1 벽(17)의 앞에 위치된다고 가정된다면, 중심 마커(20)는 제2 벽(18)의 가장 앞 부분에 위치될 것이다. 3개의 마커(20, 21)는 동일하며 각각은 4개의 보다 작은 사각형(26, 27)으로 나누어지는 사각형(25)으로 이루어지며, 동일한 대각선상에 위치된 2개의 작은 사각형(26)은 어두운 색이고, 다른 대각선상에 위치된 2개의 다른 작은 사각형(27)은 밝은 색이다. 유리하게, 사각형(26, 27)은 회색의 그라데이션(gradation)에 의해서 구별된다. 이와 같은 마커(20, 21)는 주변 광도 레벨이 무엇이든지 손쉽게 정확하게 찾아질 수 있다. 이들 3개의 마커(20, 21)는 제2 벽(18)의 평면에 대하여 경사지고 독서 구역(28)을 포함하는 제1 벽(17)의 페이스(19)에 마주하는 상기 제2 벽(18)의 페이스(22) 위에 위치된다. 두 개의 벽(20, 21)과 마커(20, 21)의 위치 사이의 경사는 개인(7)에 의한 독서의 단계 동안, 그리고 이러한 상기 태블릿(13)이 경사의 위험을 수행하는 동안 태블릿(13)의 위치가 비디오 카메라(3)에 의해 찍힌 필름 또는 사진에 정확히 위치가 찾아지도록 해준다.
도 2를 참조하면, 독서 거리를 결정하기 위해하여, 영상의 계산적인 처리는 우선 클립(16)의 마커(15)를 비디오 카메라(3)에 연결하는 벡터를 결정한 다음에, 태블릿(13)의 마커(20, 21)를 상기 비디오 카메라(3)에 연결하는 벡터를 결정하는 데 있다. 그 다음 이들 두 벡터는 제3 벡터를 획득하기 위해 서로로부터 빼지며 벡터의 길이는 마커의 두 패밀리(15, 20, 21)를 분리하는 거리이다. 최종적으로, 이러한 거리는 눈의 평면으로부터 클립(16)의 마커(15)를 분리하는 거리, 그리고 독서 구역(28)으로부터 태블릿(13)의 마커(20, 21)를 분리하는 거리에 의해서 보충된다. 눈의 평면으로부터 클립(16)의 마커(15)를 분리하는 거리는 일반적으로 작아서 약 수 센티미터에 달하고, 정확히 손쉽게 측정될 수 있다. 대조적으로, 상기 태블릿(13)의 경사 때문에 태블릿(13)의 마커(20, 21)와 독서 구역(28)을 연결하는 벡터는 각 고려 및 정정된 거리에 기초하여 약간 보다 복잡한 계산을 필요로 한다. 독서 거리를 계산하기 위한 방법의 원리가 아래에 기술된다:
다음의 중요한 포인트들이 고려된다:
- O: 비디오 카메라(3)의 광학 중심. 이 광학 중심은 모든 최종 측정이 변환되는 좌표 시스템의 기원이다.
- V: 태블릿(13)의 (우측 및 좌측) 측면 마커(21)의 기하학적 중심,
(xv, yv, zv): 비디오 카메라(3)에 대한, 즉, 포인트(O)에 대한 포인트(V)의 좌표,
(xv', yv', zv'): 태블릿(13)과 연관된 좌표 시스템 및 좌표 시스템의 기원은 포인트(V)이다,
(αv, βv, γv): 비디오 카메라(3)에 대한 태블릿(13)의 요(yaw), 피치(pitch) 그리고 롤 자세(roll posture), 즉: 비디오 카메라(3)와 연관된 좌표 시스템에 대한 태블릿(13)과 연관된 좌표 시스템의 각각의 각도로서, (xv, yv, zv)는 (xv', yv', zv')와 함께 정렬됨;
- L: 독서 구역(28)의 중심,
(xl', yl', zl'): 태블릿(13)과 연관된 좌표 시스템내 포인트(L)의 좌표 및 좌표의 기원은 포인트(V)이다;
- C: 클립(16)의 중심,
(xc, yc, zc): 비디오 카메라(3)와 연관된 좌표 시스템내 포인트(C)의 좌표 및 좌표의 기원은 포인트(O)이다,
(αv, βv, γv): 비디오 카메라(3)와 연관된 좌표 시스템내 클립(16)의 방향의 각도 및 방향의 각도의 기원은 포인트(O)이다; 그리고
- R: 눈의 회전 중심을 연결하는 세그먼트의 중심,
(xr', yr', zr'): 클립(16)과 연관된 좌표 시스템내 포인트(R)의 좌표 및 좌표의 기원은 포인트(C), 클립(16)의 중심이다.
좌표 시스템(Xv, Yv, Zv)은 회전 후 좌표 시스템(Xv', Yv', Zv')과 일치하며, 추가의 행렬은 곱 Mv=Rz (γv) Rx (βv) Ry (αv)이 적용되었으며, 여기서:
Figure 112013093864031-pct00001
Figure 112013093864031-pct00002
Figure 112013093864031-pct00003
포인트(L)의 좌표가 좌표 시스템(Xv', Yv', Zv')내 (xl', yl', zl')이기 때문에, 좌표 시스템(Xv, Yv, Zv)내 포인트(L)의 좌표(xl, yl, zl)는 Mv의 역인 회전 행렬을 적용함으로써 계산된다:
Mv-1= Ry (-αv) Rx (-βv) Rz (-γv).
벡터
Figure 112013093864031-pct00004
Figure 112013093864031-pct00005
로 분해할 때, 비디오 카메라의 좌표 시스템내 포인트(L)의 좌표는 (xv+xl, yv+yl, zv+zl)이다.
비디오 카메라(3)의 좌표 시스템내 눈(8)의 회전 중심을 연결하는 세그먼트의 중심 위치의 계산은 다음과 같은 단계들을 따른다:
상기 사용된 방법을 적용할 때, 회전의 적용 후 좌표 시스템(Xc', Yc', Zc')과 일치하며, 좌표 시스템(Xc, Yc, Zc)의 행렬은 곱 Mc=Rz (γc) Rx (βc) Ry (αc)이다.
포인트(R)의 좌표가 좌표 시스템(Xc', Yc', Zc')내 (xr', yr', zr')이기 때문에, 좌표 시스템(Xc, Yc, Zc)내 포인트(R)의 좌표(xr, yr, zr)는 Mc의 역인 회전 행렬을 적용함으로써 계산된다:
Mc-1= Ry (-αc) Rx (-βc) Rz (-γc).
벡터
Figure 112013093864031-pct00006
Figure 112013093864031-pct00007
로 분해할 때, 비디오 카메라의 좌표 시스템내 포인트(R)의 좌표는 (xc+xr, yc+yr, zc+zr)이다.
본 발명에 따라 독서 거리를 결정하기 위한 방법은 다음과 같은 단계들을 따른다:
- 거울(11)에 반사된 그들 자신의 영상을 참조하여, 기둥(2)의 앞에 개인(7)을 위치시키는 단계;
- 고유하고 편안한 자세를 채택하며 태블릿(13)의 위치를 조절하는 개인에 의해 독서 구역(28)을 독서하는 단계;
- 비디오 카메라(3)를 통하여, 자신의 마커(15)가 장착된 클립(16)이 나타나는 제1 영상을 획득한 다음에, 태블릿(13)의 마커(20, 21)가 나타나는 제2 영상을 획득하기 위해 상기 비디오 카메라(3)를 움직이는 단계(각각의 영상은 정확히 구분되도록 다양한 마커(15, 20, 21)의 위치를 위해 충분히 정의된다); 그리고
- 두 영상의 계산적인 처리 단계.
- 디스플레이(9)는 개인을 향해 턴 된 다음에, 두 영상의 획득 후 수초 동안 계산된 독서 거리를 표시한다.
본 발명은 비제한적인 예에 의해 상기 기술되고 주어진 다양한 실시예에 한정되지 않는다.

Claims (9)

  1. 독서 구역(28)을 관측하도록 된 개인(7)을 위해 독서 거리를 결정하기 위한 방법에 있어서,
    - 상기 개인(7)의 적어도 하나의 정면 영상을 획득한 다음에, 상기 영상을 처리하고 최종적으로 상기 개인(7)이 독서 거리를 알 수 있게 정보를 전달하도록 설계된 장치(2)의 앞에 상기 개인(7)을 위치시키는 단계;
    - 상기 개인(7)에 의해, 휴대용 독서 태블릿(13) 위에 위치되고 적어도 하나의 위치 마커(20, 21)가 장착되는 상기 구역(28)을 독서하는 단계로서, 상기 개인(7)은 고유한 위치를 채택하고 상기 휴대용 독서 태블릿(13)의 위치를 조절하는, 상기 독서하는 단계;
    - 상기 장치(2)를 통하여, 상기 개인(7)의 적어도 하나의 얼굴 기준점(15)과 상기 휴대용 독서 태블릿(13)의 각각의 마커(20, 21)를 허용하는 적어도 하나의 영상을 획득하는 단계;
    - 상기 개인(7)의 얼굴 기준점(15)의 위치와 상기 휴대용 독서 태블릿(13)의 적어도 하나의 마커(20, 21)의 위치를 고려하여, 상기 적어도 하나의 영상을 계산적으로 처리하는 단계; 및
    - 상기 장치(2)를 통하여, 상기 독서 거리를 표시하는 정보를 전달하는 단계;를 포함하는 독서 거리 결정 방법.
  2. 제1항에 있어서,
    상기 개인(7)은 한 쌍의 안경(14)을 착용하며, 상기 얼굴 기준점은 상기 한 쌍의 안경(14)에 고정된 클립(16)에 고정된 적어도 하나의 마커(15)에 의해 표시되는 것을 특징으로 하는 독서 거리 결정 방법.
  3. 제2항에 있어서,
    상기 휴대용 독서 태블릿(13)에는 3개의 위치 마커(20, 21), 즉 상기 휴대용 독서 태블릿(13) 위에 정면 위치를 갖는 하나의 마커(20)와, 측면 위치를 갖는 2개의 마커(21)가 장착되는 것을 특징으로 하는 독서 거리 결정 방법.
  4. 제1항에 있어서,
    상기 적어도 하나의 영상을 획득하기 위해 사용된 장치(2)는 비디오 카메라(3)인 것을 특징으로 하는 독서 거리 결정 방법.
  5. 제4항에 있어서,
    상기 개인(7)의 얼굴 기준점(15)과 상기 휴대용 독서 태블릿(13)의 각각의 마커(20, 21)는 하나의 동일한 영상에 동시에 나타나는 것을 특징으로 하는 독서 거리 결정 방법.
  6. 제4항에 있어서,
    상기 비디오 카메라(3)는 적어도 2개의 영상, 즉 상기 개인(7)의 적어도 하나의 얼굴 기준점(15)이 나타나는 제1 영상 및 상기 휴대용 독서 태블릿(13)의 각각의 마커(20, 21)가 나타나는 제2 영상을 획득하며, 상기 계산적인 처리 단계는 상기 영상으로부터 수집된 정보에 기초하여 수행되는 것을 특징으로 하는 독서 거리 결정 방법.
  7. 제6항에 있어서,
    상기 비디오 카메라(3)는 상기 제1 영상의 포착을 위해 의도된 제1 위치와 상기 제2 영상의 포착을 위해 의도된 제2 위치 사이에서 움직이는 것을 특징으로 하는 독서 거리 결정 방법.
  8. 제1항에 있어서,
    상기 적어도 하나의 영상의 상기 처리 단계는 상기 개인(7)의 눈을 상기 장치(2)와 연결하는 제1 벡터와, 상기 독서 구역(28)과 상기 장치(2)를 연결하는 제2 벡터간의 뺄셈 단계를 포함하며, 상기 정보는 디스플레이(9)로부터 정보를 직접 독서함으로써 전달되는 것을 특징으로 하는 독서 거리 결정 방법.
  9. 제1항 내지 제8항 중 어느 한 항에서 청구된 방법을 구현하기 위한 휴대용 독서 태블릿(13)으로서,
    상기 휴대용 독서 태블릿은 독서를 위해 의도된 페이스(19)와 상기 휴대용 독서 태블릿(13)의 공간상의 위치를 찾기 위한 적어도 하나의 마커(20, 21)를 포함하고, 상기 적어도 하나의 마커(20, 21)는 광도 조건에 관계없이 상기 휴대용 독서 태블릿(13)을 위치시킬 수 있도록 구성되는, 휴대용 독서 태블릿(13)에 있어서,
    상기 휴대용 독서 태블릿(13)은, 제1 페이스(17)에 대하여 10° 내지 80°의 각도로 경사진 제2 페이스(18)에 의해 연장되는 독서 제1 페이스(17)를 포함하고,
    상기 제2 페이스(18)는 3개의 마커(20, 21), 즉 정면 위치를 갖는 하나의 마커(20)와 측면 위치를 갖는 2개의 마커(21)를 포함하고, 상기 3개의 마커(20, 21)는 상기 휴대용 독서 태블릿(13)이 상기 공간상의 위치에 배치되도록 하는 것을 특징으로 하는 휴대용 독서 태블릿(13).
KR1020137027418A 2011-05-06 2012-04-17 독서 거리를 결정하기 위한 방법 KR101859132B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1153881A FR2974722B1 (fr) 2011-05-06 2011-05-06 Procede de determination de la distance de lecture
FR1153881 2011-05-06
PCT/FR2012/050482 WO2012153022A1 (fr) 2011-05-06 2012-03-08 Procede de determination de la distance de lecture

Publications (2)

Publication Number Publication Date
KR20140051158A KR20140051158A (ko) 2014-04-30
KR101859132B1 true KR101859132B1 (ko) 2018-05-17

Family

ID=45937412

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137027418A KR101859132B1 (ko) 2011-05-06 2012-04-17 독서 거리를 결정하기 위한 방법

Country Status (6)

Country Link
US (1) US9223151B2 (ko)
EP (1) EP2704620B1 (ko)
KR (1) KR101859132B1 (ko)
CN (1) CN103517666B (ko)
FR (1) FR2974722B1 (ko)
WO (1) WO2012153022A1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE527669C2 (sv) 2003-12-19 2006-05-09 Ericsson Telefon Ab L M Förbättrad felmaskering i frekvensdomänen
FR3021205B1 (fr) 2014-05-20 2021-12-24 Essilor Int Procede de determination d'au moins un parametre comportemental
EP3295863B1 (en) * 2016-09-15 2023-04-19 Essilor International Measurement method for determining a value of a visual correction need for near vision of an individual in a natural posture for near vision
EP3413122B1 (de) * 2017-06-08 2020-03-04 Carl Zeiss Vision International GmbH Verfahren, vorrichtung und computerprogramm zum bestimmen eines nah-durchblickpunktes
US11494897B2 (en) 2017-07-07 2022-11-08 William F. WILEY Application to determine reading/working distance
WO2019233210A1 (zh) * 2018-06-06 2019-12-12 北京七鑫易维信息技术有限公司 一种智能眼镜、眼球轨迹的追踪方法、装置及存储介质
JP6717887B2 (ja) * 2018-07-12 2020-07-08 ファナック株式会社 距離補正機能を有する測距装置
JP2020052916A (ja) * 2018-09-28 2020-04-02 日本電産サンキョー株式会社 画像処理装置、イメージスキャナ、及び画像処理方法
CN112084978A (zh) * 2020-09-14 2020-12-15 深圳市沃特沃德股份有限公司 阅读监测的方法、阅读机器人以及计算设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070229761A1 (en) 2004-05-06 2007-10-04 Indo Internacional, S.A. Method And Device For Determining The Visual Behaviour Of A Person And Method Of Customising A Spectacle Lens

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6286957B1 (en) * 1998-06-30 2001-09-11 Pda Advanced Optic Systems, Ltd. Device for measuring the patient's pupils locations, and system and method utilizing the same for adjusting progressive lenses for the patient's spectacles
DE60042942D1 (de) * 1999-02-22 2009-10-22 Nidek Kk Vorrichtung zur Messung von Augenpunkten eines Subjektes im Bezug auf ein Brillengestell
US7066388B2 (en) * 2002-12-18 2006-06-27 Symbol Technologies, Inc. System and method for verifying RFID reads
FR2906047B1 (fr) 2006-09-14 2008-11-07 Essilor Int Procede et dispositif de determination de l'orientation d'une lentille ophtalmique correctrice et procede de conception optique de la lentille correctrice
US7972266B2 (en) * 2007-05-22 2011-07-05 Eastman Kodak Company Image data normalization for a monitoring system
FR2931002B1 (fr) * 2008-05-09 2010-08-20 Acep France Ensemble de mesure de parametres ophtalmiques
JP5351691B2 (ja) * 2009-10-01 2013-11-27 ホーヤ レンズ マニュファクチャリング フィリピン インク 眼球下転量測定装置及び眼球下転量測定方法
US8233109B2 (en) * 2009-10-16 2012-07-31 Apple Inc. Portable computer display housing
FR2960412B1 (fr) * 2010-05-25 2013-03-22 Essilor Int Dispositif et procede de mesure d'une distance caracteristique de lecture d'un individu en posture naturelle de vision de pres

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070229761A1 (en) 2004-05-06 2007-10-04 Indo Internacional, S.A. Method And Device For Determining The Visual Behaviour Of A Person And Method Of Customising A Spectacle Lens

Also Published As

Publication number Publication date
FR2974722B1 (fr) 2014-10-10
KR20140051158A (ko) 2014-04-30
US9223151B2 (en) 2015-12-29
FR2974722A1 (fr) 2012-11-09
WO2012153022A1 (fr) 2012-11-15
EP2704620A1 (fr) 2014-03-12
CN103517666B (zh) 2015-11-25
US20140293219A1 (en) 2014-10-02
EP2704620B1 (fr) 2017-06-28
CN103517666A (zh) 2014-01-15

Similar Documents

Publication Publication Date Title
KR101859132B1 (ko) 독서 거리를 결정하기 위한 방법
US11223820B2 (en) Augmented reality displays with active alignment and corresponding methods
US10869024B2 (en) Augmented reality displays with active alignment and corresponding methods
CN106643699B (zh) 一种虚拟现实系统中的空间定位装置和定位方法
US9759934B2 (en) Method for measuring morpho-geometric parameters of a spectacle wearing individual
EP2802966B1 (en) Device and method for controlling rotation of displayed image
KR101932568B1 (ko) 안경 착용자의 형태기하학적 매개변수의 측정 방법
JP5844880B2 (ja) ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
US10758124B2 (en) Device and method for distance determination and/or centering using corneal reflections
US20200394402A1 (en) Object identification device, object identification system, object identification method, and program recording medium
KR20140005276A (ko) 주시안을 결정하기 위한 방법
KR102074310B1 (ko) 사람 착용 안경의 기하학적 형태계측적 파라미터를 측정하는 방법
CN110194173A (zh) 乘员监视装置
US11627303B2 (en) System and method for corrected video-see-through for head mounted displays
JP6266580B2 (ja) ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
US11622104B2 (en) Camera holder for economical and simplified test alignment
JPH10115878A (ja) 指向性スクリーンを用いる3次元画像投写システム
JP2022536657A (ja) 3dマッピングにより眼科パラメータを決定する方法
KR20140068416A (ko) 스마트 기기를 활용한 3차원 이미지 생성장치 및 그 방법
JP6864333B2 (ja) 顔向き検出システム及び顔向き検出装置
JP2020081756A (ja) 顔画像処理装置、画像観察システム、及び瞳孔検出システム
JP2017215597A (ja) 情報表示方法及び情報表示装置
WO2004098204A1 (ja) 立体映像撮影方法および装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant