KR101515177B1 - Method for measuring user eyesight by robot and robot therefor - Google Patents

Method for measuring user eyesight by robot and robot therefor Download PDF

Info

Publication number
KR101515177B1
KR101515177B1 KR1020130016435A KR20130016435A KR101515177B1 KR 101515177 B1 KR101515177 B1 KR 101515177B1 KR 1020130016435 A KR1020130016435 A KR 1020130016435A KR 20130016435 A KR20130016435 A KR 20130016435A KR 101515177 B1 KR101515177 B1 KR 101515177B1
Authority
KR
South Korea
Prior art keywords
user
target
visual acuity
screen
distance
Prior art date
Application number
KR1020130016435A
Other languages
Korean (ko)
Other versions
KR20140102919A (en
Inventor
안영수
안태진
한경아
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020130016435A priority Critical patent/KR101515177B1/en
Priority to PCT/KR2013/006569 priority patent/WO2014126307A1/en
Publication of KR20140102919A publication Critical patent/KR20140102919A/en
Application granted granted Critical
Publication of KR101515177B1 publication Critical patent/KR101515177B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/18Arrangement of plural eye-testing or -examining apparatus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)
  • Rehabilitation Tools (AREA)

Abstract

본 발명은 로봇에서 시력 측정 방법 및 이를 위한 로봇에 관한 것으로서, 사용자의 시력을 측정하는 로봇은, 상기 사용자와 스크린 간의 거리를 측정하는 거리 측정 센서; 기준 시력측정 거리에 대비하여 상기 측정한 사용자와 스크린 간의 거리의 비율을 산출하고, 상기 산출한 비율을 토대로 시표의 확대 또는 축소 배율을 설정하는 배율 설정부; 상기 설정된 시표의 확대 또는 축소 배율에 따라 확대되거나 축소된 시표를 상기 스크린에 투사하는 시표 투사부; 및 상기 사용자의 음성 인식을 통해, 상기 투사중인 시표의 정답 여부를 판정하여 상기 사용자의 시력 측정을 수행하는 시력 측정부를 포함한다.The present invention relates to a method of measuring a visual acuity in a robot and a robot therefor, wherein the robot for measuring the visual acuity of the user comprises: a distance measuring sensor for measuring a distance between the user and the screen; A magnification setting unit for calculating a ratio of the distance between the user and the screen measured against the reference visual acuity distance and setting an enlargement or reduction magnification of the target based on the calculated ratio; A target projecting unit for projecting an enlarged or reduced target on the screen according to an enlargement or reduction ratio of the set target; And a visual acuity measuring unit for determining whether or not the projected target is an answer through voice recognition of the user and performing visual acuity measurement of the user.

Description

로봇에서의 시력 측정 방법 및 이를 위한 로봇{METHOD FOR MEASURING USER EYESIGHT BY ROBOT AND ROBOT THEREFOR}[0001] METHOD FOR MEASURING USER EYESIGHT BY ROBOT AND ROBOT THEREFOR [0002]

본 발명은 로봇 기술에 관한 것으로서, 더욱 상세하게는 로봇에서 시력 측정 방법 및 이를 위한 로봇에 관한 것이다. The present invention relates to robot technology, and more particularly, to a method for measuring vision in a robot and a robot therefor.

일반적으로, 사용자는 시력 검사표를 이용하여 자신의 시력을 측정한다. 즉, 사용자는 시력 검사표와 일정 거리만큼 이격된 상태에서, 검사자가 지정한 시표를 음성으로 발화함으로써 자신의 시력을 측정한다. 그런데 시력 검사표를 이용한 시력 측정 방식은, 시력 검사표가 구비되지 않은 장소에서는 측정이 불가능하고 일정 거리를 확보할 수 있는 공간이 필요하다는 문제점이 있다.Generally, the user uses his / her vision test chart to measure his / her visual acuity. That is, the user measures his / her own visual acuity by uttering the target designated by the inspector in a state of being separated from the visual acuity chart by a certain distance. However, there is a problem that a visual acuity measuring method using a visual acuity check table requires a space that can not be measured at a place where a visual acuity check table is not provided and a certain distance can be secured.

이에 따라, 무선통신 단말기를 이용하여 사용자의 시력을 측정하는 기술이 개발되었다. 아래의 특허문헌은 시력 검사 기능을 가지는 무선통신 단말기 및 그 방법에 대해서 개시한다.Accordingly, a technique of measuring a user's visual acuity using a wireless communication terminal has been developed. The following patent document discloses a wireless communication terminal having a visual check function and a method thereof.

그런데 무선통신 단말기를 이용한 시력측정 방식은, 시력측정에 대한 정확도가 떨어지는 문제점이 있다. 구체적으로, 상기 무선통신 단말기를 이용한 시력 측정 방식은, 사용자가 무선통신 단말기와 자신의 안구 사이의 거리를 시력측정이 종료되기까지 일정하게 유지시켜야 방식으로서, 상기 무선통신 단말기와 안구 사이의 거리가 일정하게 유지되지 않으면 시력 측정의 오차가 크게 발생한다. 즉, 무선통신 단말을 파지한 사용자의 손이 흔들리게 되거나 안구와 무선통신 단말 사이의 간격이 초기 세팅된 거리에서 벗어나게 되는 경우, 무선통신 단말의 이용한 시력측정 결과가 부정확하게 되는 문제점이 있다. 더불어, 상기 방식은 시력측정 과정에서 사용자로 하여금 정지된 자세로 무선통신 단말과 안구와의 거리를 유지시키게 함으로써, 시력 측정에 있어서 사용자의 불편함을 유발하는 문제점도 있다.However, the visual acuity measuring method using the wireless communication terminal has a problem that the accuracy of visual acuity measurement is low. Specifically, the visual acuity measurement method using the wireless communication terminal is a method in which a user maintains a distance between the wireless communication terminal and his or her eyeball constantly until the visual acuity measurement is completed. The distance between the wireless communication terminal and the eyeball is If it is not kept constant, a large error in visual acuity measurement occurs. That is, when the hand of the user holding the wireless communication terminal is shaken or the distance between the eye and the wireless communication terminal deviates from the initially set distance, the result of measurement of the visual acuity used by the wireless communication terminal becomes inaccurate. In addition, the above-described method causes the user to maintain the distance between the wireless communication terminal and the eyeball in a stationary posture during the visual acuity measurement process, thereby causing inconvenience to the user in visual acuity measurement.

한국공개특허 제10-2005-0089232호Korean Patent Publication No. 10-2005-0089232

본 발명은 이러한 종래의 문제점을 해결하기 위하여 제안된 것으로, 로봇을 이용하여 사용자의 시력을 보다 정확하게 측정하고 시력 측정 과정에서의 사용자의 불편함이 해소하는 시력 측정 방법 및 이를 위한 로봇을 제공하는데 그 목적이 있다.SUMMARY OF THE INVENTION The present invention has been proposed in order to solve such conventional problems, and it is an object of the present invention to provide a visual acuity measurement method and a robot for the same, which measure the visual acuity of a user more accurately by using a robot, There is a purpose.

본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Other objects and advantages of the present invention will become apparent from the following description, and it will be understood by those skilled in the art that the present invention is not limited thereto. It will also be readily apparent that the objects and advantages of the invention may be realized and attained by means of the instrumentalities and combinations particularly pointed out in the appended claims.

상기 목적을 달성하기 위한 본 발명의 제 1 측면에 따른 사용자의 시력을 측정하는 로봇은, 상기 사용자와 스크린 간의 거리를 측정하는 거리 측정 센서; 기준 시력측정 거리에 대비하여 상기 측정한 사용자와 스크린 간의 거리의 비율을 산출하고, 상기 산출한 비율을 토대로 시표의 확대 또는 축소 배율을 설정하는 배율 설정부; 상기 설정된 시표의 확대 또는 축소 배율에 따라 확대되거나 축소된 시표를 상기 스크린에 투사하는 시표 투사부; 및 상기 사용자의 음성 인식을 통해, 상기 투사중인 시표의 정답 여부를 판정하여 상기 사용자의 시력 측정을 수행하는 시력 측정부를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a robot for measuring a visual acuity of a user, comprising: a distance measuring sensor for measuring a distance between the user and a screen; A magnification setting unit for calculating a ratio of the distance between the user and the screen measured against the reference visual acuity distance and setting an enlargement or reduction magnification of the target based on the calculated ratio; A target projecting unit for projecting an enlarged or reduced target on the screen according to an enlargement or reduction ratio of the set target; And a visual acuity measuring unit for determining the correct answer of the projected target through voice recognition of the user and performing visual acuity measurement of the user.

상기 목적을 달성하기 위한 본 발명의 제 2 측면에 따른 로봇에서 사용자의 시력을 측정하는 방법은, 상기 사용자와 스크린 간의 거리를 측정하는 단계; 기준 시력측정 거리에 대비하여 상기 측정한 사용자와 스크린 간의 거리의 비율을 산출하는 단계; 상기 산출한 비율을 토대로, 시표의 확대 또는 축소 배율을 설정하는 단계; 상기 설정한 시표의 확대 또는 축소 배율에 따라 시표를 확대하거나 축소하여 상기 스크린에 투사하는 단계; 및 상기 사용자의 음성을 인식하여, 상기 스크린에 투사한 시표의 정답 여부를 판정하여 시력 측정을 수행하는 단계를 포함하는 것을 특징으로 한다.According to a second aspect of the present invention, there is provided a method of measuring a visual acuity of a user in a robot, comprising: measuring a distance between the user and a screen; Calculating a ratio of the measured distance between the user and the screen relative to the reference visual acuity distance; Setting an enlargement or reduction ratio of the target on the basis of the calculated ratio; Enlarging or reducing a target according to an enlargement or reduction ratio of the set target and projecting the target on the screen; And recognizing the voice of the user, determining whether the target projected on the screen is correct, and performing visual acuity measurement.

본 발명에 따른 로봇은, 사용자와 스크린 간의 거리와 기준 시력측정 거리의 비율을 토대로 시표의 크기를 결정하고 스크린에 시표를 출력한 후, 사용자의 음성을 인식하여 정답 여부를 판정하여 사용자의 시력을 측정함으로써, 장소와 구애받지 않고 더욱 편리하고 사용자의 시력을 측정할 수 있는 장점이 있다. The robot according to the present invention determines the size of the target based on the ratio of the distance between the user and the screen and the reference visual acuity distance and outputs the target on the screen. Then, the robot recognizes the voice of the user, By measuring, there is an advantage that it is possible to measure the user's visual acuity more conveniently without regard to the place.

또한, 본 발명에 따른 로봇은, 사용자가 시력 측정을 위해 위치해야 하는 장소를 광선 투사를 통해 알려줌으로써, 시력 측정의 정확도를 향상시키는 장점이 있다. In addition, the robot according to the present invention has an advantage of improving the accuracy of visual acuity measurement by informing the user of the place where the user should place for visual acuity measurement through light projection.

게다가, 본 발명에 따른 로봇은, 사용자의 신장과 현 위치에서 측정한 조도를 토대로, 시표의 투사 각도와 투사 밝기를 조정하여 스크린에 시표를 투사함으로써, 시력 측정의 정확도를 더욱 향상시키고 시력 측정시에 발생하는 눈의 피로도를 최소화하는 효과도 있다.In addition, the robot according to the present invention further improves the accuracy of visual acuity measurement by projecting the target on the screen by adjusting the projection angle and projection brightness of the target based on the illuminance measured at the user's elongation and the current position, There is also an effect of minimizing the fatigue of the eyes that occurs in the eyes.

특히, 본 발명에 따른 로봇이 성장 단계에 있는 어린이의 시력을 측정할 경우, 시력 측정할 때에 나타나는 어린이의 거부반응을 해소하고 더불어 시력 측정시에 즐거움을 어린이에게 제공할 수 있는 이점도 있다.Particularly, when the robot according to the present invention measures the visual acuity of the child in the growth stage, there is an advantage that the rejection reaction of the child when the visual acuity is measured can be solved and the pleasure can be provided to the child at the time of measuring the visual acuity.

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 발명을 실시하기 위한 구체적인 내용과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니 된다.
도 1은 본 발명의 일 실시예에 따른, 사용자의 시력을 측정하는 로봇의 구성을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른, 로봇에서 사용자의 시력 측정을 위한 측정 환경을 세팅하는 방법을 설명하는 흐름도이다.
도 3은 본 발명의 일 실시예에 따른, 로봇에서 스크린에 시표를 투사하여 사용자의 시력을 측정하는 방법을 설명하는 흐름도이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are incorporated in and constitute a part of the specification, illustrate exemplary embodiments of the invention and, together with the description, serve to explain the principles of the invention. And shall not be construed as limited to such matters.
1 is a view showing a configuration of a robot for measuring a user's visual acuity according to an embodiment of the present invention.
2 is a flowchart illustrating a method of setting a measurement environment for a user's visual acuity measurement in a robot according to an embodiment of the present invention.
3 is a flowchart illustrating a method of measuring a visual acuity of a user by projecting a target on a screen in a robot according to an embodiment of the present invention.

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일 실시예를 상세히 설명하기로 한다.The foregoing and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, in which: There will be. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
Throughout the specification, when an element is referred to as "comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise. Also, the terms "part,"" module, "and the like, which are described in the specification, refer to a unit for processing at least one function or operation, and may be implemented by hardware or software or a combination of hardware and software.

도 1은 본 발명의 일 실시예에 따른, 사용자의 시력을 측정하는 로봇의 구성을 나타내는 도면이다.1 is a view showing a configuration of a robot for measuring a user's visual acuity according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명에 따른 로봇(100)은 이동 가능한 로봇 장치로서, 카메라(101), 거리 측정 센서(102), 조도 측정 센서(103), 저장부(104), 구동부(105), 광선 투사부(106), 위치 선정부(107), 배율 설정부(108), 투사 환경 설정부(109), 시표 투사부(110) 및 시력 측정부(111)를 포함한다.1, a robot 100 according to the present invention is a movable robot apparatus and includes a camera 101, a distance measuring sensor 102, an illuminance measuring sensor 103, a storage unit 104, a driving unit 105, a light projection unit 106, a position selection unit 107, a magnification setting unit 108, a projection setting unit 109, a target projection unit 110 and a vision measurement unit 111.

카메라(101)는 피사체를 촬영하는 촬영 수단으로서, 렌즈를 구비하여 피사체를 확대하거나 축소하여 촬영할 수 있다. 또한, 카메라(101)는 좌우로 회동되고, 일정한 화각(angle of view)을 갖는다. 상기 카메라(101)는 로봇(100)의 머리에 탑재될 수 있다.The camera 101 is a photographing means for photographing a subject, and is provided with a lens so that the subject can be enlarged or reduced and photographed. In addition, the camera 101 is rotated to the left and right, and has a constant angle of view. The camera 101 may be mounted on the head of the robot 100.

거리 측정 센서(102)는 초음파 거리측정 센서, 레이저 거리측정 센서, 적외선 거리측정 센서 등으로서, 로봇(100)에서 특정 위치까지의 거리를 측정하거나 지정된 두 지점의 거리를 측정한다.The distance measuring sensor 102 is an ultrasonic distance measuring sensor, a laser distance measuring sensor, an infrared distance measuring sensor, or the like. The distance measuring sensor 102 measures a distance to a specific position in the robot 100 or a distance between two specified points.

조도 측정 센서(103)는 로봇(100)이 위치한 장소에서의 빛의 밝기를 측정한다.The illuminance measurement sensor 103 measures the brightness of light at the place where the robot 100 is located.

저장부(104)는 사용자의 시력 측정 이력과 시력 측정 스케줄을 저장한다. 특히, 저장부(104)는 시력 레벨(0.1 부터 2.0)에 따라 서로 상이한 크기를 가지는 복수의 시표를 시력 레벨별로 저장한다. 저장부(104)는 시표로서, 알파벳, 숫자, 한글, 도형, 란돌트 고리(Landolt's Ring) 등을 저장할 수 있다. 상기 란돌트 고리 시표는 위, 아래, 왼쪽 또는 오른쪽 중에서 어느 하나가 뚫린 'C'자 모양의 시표로서, 시력 측정시에 이용되는 시표 중에 하나이다.The storage unit 104 stores the user's visual acuity measurement history and visual acuity measurement schedule. In particular, the storage unit 104 stores a plurality of targets having different sizes according to visual acuity levels according to visual acuity levels (0.1 to 2.0). The storage unit 104 may store alphabets, numbers, Hangul, figures, Landolt's Ring, and the like as targets. The Landolt ring index is one of the indexes used in visual acuity measurement, which is a 'C' shaped index with one of the above, below, left, or right.

구동부(105)는 바퀴 등과 같은 이동 수단을 구비하고, 위치 선정부(107) 또는 다른 구성요소의 요청에 따라 로봇(100)을 이동시킨다.The driving unit 105 has a moving means such as a wheel and moves the robot 100 at the request of the position deciding unit 107 or other components.

광선 투사부(106)는 지정된 위치로 레이저 등과 같은 광선을 투사하는 기능을 수행한다. 구체적으로, 광선 투사부(106)는 위치 선정부(107)의 제어를 받아 시력 측정위치로 광선을 투사하여, 사용자가 광선이 투사된 위치로 이동되도록 유도하는 위치 포인터(pointer)의 기능을 수행한다.The light projecting section 106 performs a function of projecting a light beam such as a laser beam to a designated position. Specifically, the light projecting unit 106 performs a function of a position pointer that guides a light beam to a visual measurement position under the control of the position selecting unit 107 and guides the user to move the light projection position do.

위치 선정부(107)는 스크린 위치, 로봇(100)의 투사 위치 및 사용자의 시력 측정위치를 선정하는 기능을 수행한다. 구체적으로, 위치 선정부(107)는 사용자로부터 시력 측정 요청신호를 수신하거나 저장부(104)의 시력 측정 스케줄에 따라 시력 측정 시기가 도래하면, 카메라(101)를 이용하여 현 위치에서의 공간 구조를 스캐닝하여 현 위치 주변의 벽면을 인식한 후, 특정 벽면을 스크린으로 선정한다. 게다가, 위치 선정부(107)는 거리 측정 센서(102)를 이용하여 상기 선정한 스크린과의 일정 거리(예컨대, 2m)만큼 이격된 위치를 확인하여, 이 위치를 로봇(100)이 이동할 이동 위치로 선정하고, 구동부(105)를 제어하여 상기 선정된 이동 위치로 로봇(100)을 이동시킨다.The position selecting section 107 performs a function of selecting a screen position, a projection position of the robot 100, and a user's visual acuity measurement position. Specifically, when the position determination section 107 receives the visual acuity measurement request signal from the user or according to the visual acuity measurement schedule of the storage section 104, when the visual acuity measurement time arrives, And recognizes the wall surface around the current position, and then selects a specific wall surface as a screen. In addition, the position selecting unit 107 confirms the position spaced apart from the selected screen by a predetermined distance (for example, 2 m) using the distance measuring sensor 102, and transmits the position to the moving position where the robot 100 moves And controls the driving unit 105 to move the robot 100 to the selected moving position.

한편, 위치 선정부(107)는 거리측정 센서(102)를 이용하여 상기 선정한 스크린에서 일정 거리만큼 이격된 위치를 사용자의 시력측정 위치를 결정한 후, 광선 투사부(106)를 이용하여 상기 결정된 시력측정 위치로 광선(예컨대, 레이저)을 투사하고, 더불어 투사 지점에 사용자가 위치함을 요구하는 음성 메시지를 스피커(도면에 도시되지 않음)로 출력한다. 바람직하게, 위치 선정부(107)는 거리측정 센서(102)를 이용하여 상기 선정한 스크린에서부터 기준 시력측정 거리(예컨대, 5m)만큼의 이격 거리가 확보될 수 있는지 여부를 판별하여, 확보될 수 있으면 상기 스크린에서부터 기준 시력측정 거리(예컨대, 5m)만큼 이격된 위치를 사용자의 시력측정 위치로 결정한다. 반면에, 위치 선정부(107)는 상기 판별결과 스크린에서부터 기준 시력측정 거리만큼의 이격 거리가 확보되지 않으면, 상기 스크린과 이격 가능한 최대 거리를 사용자의 시력측정 위치로 결정하거나, 사전에 설정된 이격 거리(예컨대, 3m)를 사용자의 시력측정 위치로 결정할 수 있다.On the other hand, the position selecting unit 107 determines the visual acuity measurement position of the user at a position spaced a predetermined distance from the selected screen by using the distance measuring sensor 102, and then, using the light projecting unit 106, (Not shown) that projects a light beam (e.g., a laser) to the measurement location and also requires the user to be located at the projection point. Preferably, the position determination unit 107 determines whether or not a distance of the reference visual acuity measurement distance (e.g., 5 m) can be secured from the selected screen by using the distance measurement sensor 102, (E.g., 5 m) from the screen is determined as the user's visual acuity measurement position. On the other hand, if the distance to the reference visual acuity distance is not secured from the discrimination result screen, the position selecting unit 107 determines the maximum distance that can be separated from the screen as the visual acuity measuring position of the user, (For example, 3 m) as the visual acuity measurement position of the user.

배율 설정부(108)는 기준 시력측정 거리(예컨대, 5m) 대비 사용자와 스크린 간의 거리의 비율을 토대로, 시표의 배율을 설정한다. 구체적으로서, 배율 설정부(108)는 사용자가 광선 투사 지점(즉, 시력측정 위치)에 위치하면, 거리 측정 센서(102)를 이용하여 사용자와 스크린까지의 거리를 측정하고, 기준 시력측정 거리(예컨대, 5m)에 대비하여 상기 측정한 사용자와 스크린까지의 거리의 비율을 산출한다. 게다가, 배율 설정부(108)는 상기 산출한 비율에 근거하여, 스크린에 투사되는 시표의 확대 또는 축소 배율을 설정한다. 이때, 배율 설정부(108)는 사용자와 스크린 간의 거리가 기준 시력측정 거리와 동일하면 시표의 배율을 변경시키지 않고, 사용자와 스크린 간의 거리가 기준 시력측정 거리보다 짧으면 시표 크기가 작아지도록 시표의 축소 배율을 설정하며, 또한 사용자와 스크린 간의 거리가 기준 시력측정 거리보다 길면 시표 크기가 커지도록 시표의 확대 배율을 설정한다. The magnification setting unit 108 sets the magnification of the target based on the ratio of the distance between the user and the screen to the reference visual acuity distance (for example, 5 m). Specifically, the magnification setting unit 108 measures the distance from the user to the screen using the distance measurement sensor 102 when the user is located at the light projection point (i.e., the sight measurement position) (For example, 5 m), the ratio of the measured distance between the user and the screen is calculated. In addition, the magnification setting unit 108 sets an enlargement or reduction magnification of the target projected on the screen based on the calculated ratio. At this time, the magnification setting unit 108 does not change the magnification of the target if the distance between the user and the screen is equal to the reference visual acuity distance, and reduces the magnification of the target when the distance between the user and the screen is shorter than the reference visual acuity distance Magnification is set, and if the distance between the user and the screen is longer than the reference visual acuity distance, the enlargement magnification of the target is set so that the target size becomes larger.

투사 환경 설정부(109)는 시표 투사부(110)의 투사 밝기와 투사 각도를 설정하는 기능을 수행한다. 즉, 투사 환경 설정부(109)는 조도 측정 센서(103)를 이용하여 현 위치에서의 조도를 측정하여 이 조도가 기준치(예컨대, 200 룩스)에 미달되는 경우, 시표 투사부(110)의 투사 밝기를 증가시킨다. The projection environment setting unit 109 functions to set the projection brightness and the projection angle of the target projection unit 110. That is, the projection environment setting unit 109 measures the illuminance at the current position using the illuminance measurement sensor 103, and when the illuminance is less than the reference value (for example, 200 lux), the projection of the target projection unit 110 Increase the brightness.

또한, 투사 환경 설정부(109)는 사용자의 신장을 확인하고, 이 신장을 토대로 시표 투사부(110)의 투사 각도를 조정한다. 즉, 투사 환경 설정부(109)는 사용자의 신장에 비례하여, 시표 투사부(110)의 투사 각도가 좀 더 위쪽으로 향하도록 시표 투사부(110)의 투사 각도를 조정한다. 부연하면, 투사 환경 설정부(109)는 사용자의 눈높이와 스크린에 투사되는 시표가 평행이 되도록 하기 위하여, 상기 사용자의 신장에 비례하여 시표가 스크린에 위쪽에 투사되도록 시표 투사부(110)의 투사 각도를 위 방향으로 상향 조정한다. 투사 환경 설정부(109)는 사용자로부터 사전에 입력받아 저장한 신장 데이터에 근거하여 사용자의 신장을 확인할 수 있으며, 또한 카메라(101)를 이용하여 사용자의 전체 이미지를 촬영하고 이 촬영된 사용자의 전체 이미지를 분석하여 사용자의 신장을 측정할 수도 있다.In addition, the projection setting unit 109 confirms the elongation of the user and adjusts the projection angle of the target projection unit 110 based on the elongation. That is, the projection setting unit 109 adjusts the projection angle of the target projection unit 110 so that the projection angle of the target projection unit 110 is directed upward, in proportion to the user's elongation. The projection setting unit 109 sets the projection target 110 such that the target is projected on the screen in proportion to the height of the user so that the eye level of the user and the target projected on the screen are parallel to each other, Adjust the angle upward. The projection setting unit 109 can confirm the height of the user based on the height data inputted and stored in advance from the user, and also shoots the entire image of the user using the camera 101, It is also possible to measure the height of the user by analyzing the image.

시표 투사부(110)는 스크린에 영상 또는 이미지를 투사하는 기능을 수행한다. 특히, 시표 투사부(110)는 투사 환경 설정부(109)의 제어에 따라, 투사 각도와 투사 밝기가 조정된다. The target projecting unit 110 performs a function of projecting an image or an image on a screen. Particularly, the projection angle and the projection brightness of the target projection unit 110 are adjusted under the control of the projection setting unit 109. [

시력 측정부(111)는 시력 측정을 위한 세팅이 완료되면, 시표 투사부(110)를 이용하여 스크린으로 선정된 벽면으로 시표를 투사하고, 사용자의 음성 또는 동작을 인식하여 투사한 시표의 정답 여부를 판정함으로써, 사용자의 시력을 측정한다. 이때, 시력 측정부(111)는 배율 설정부(108)에서 설정한 시표 확대 또는 축소 배율에 따라, 각 시표의 크기를 조절하고, 이렇게 조절한 시표를 시표 투사부(110)를 이용하여 스크린으로 선정된 벽면으로 투사한다.When the setting for visual acuity measurement is completed, the visual acuity measuring unit 111 projects the target to the wall surface selected by the screen using the target projecting unit 110, recognizes the voice or motion of the user, To thereby measure the visual acuity of the user. At this time, the visual acuity measuring unit 111 adjusts the size of each target according to the target enlargement or reduction magnification set by the magnification setting unit 108 and outputs the adjusted target to the screen using the target projection unit 110 Project to the selected wall.

시력 측정부(111)는 자체적으로 포함하고 있는 음성인식 모듈(111a)을 이용하여 사용자 발화한 음성을 인식하여, 투사중인 시표의 정답 여부를 판정한다. 구체적으로, 시력 측정부(111)는 알파벳, 숫자 또는 한글을 스크린으로 투사한 경우, 음성인식 모듈(111a)을 통해 인식한 사용자의 음성과 투사중인 알파벳, 숫자 또는 한글이 일치하는지 여부를 확인함으로써, 시표의 정답 여부를 판정한다. 한편, 시력 측정부(111)는 란돌트 고리(Landolt's Ring) 시표를 투사중인 경우, 카메라(101)를 이용하여 사용자의 동작(즉, 가리키는 방향)을 영상 분석하고, 사용자가 손 또는 팔로 가리키는 방향과 란돌트 고리 시표가 뚫린 방향이 일치하는 여부를 확인함으로써, 투사중인 시표의 정답 여부를 판정할 수도 있다.The visual acuity measuring unit 111 recognizes the voice uttered by the user using the voice recognition module 111a included in itself and judges whether or not the projected target is the correct answer. Specifically, when the alphabet, number or Hangul is projected on the screen, the visual acuity measuring unit 111 checks whether the voice of the user recognized through the voice recognition module 111a matches the alphabet, number or Hangul being projected , And determines whether or not the target is the correct answer. On the other hand, when the Landolt's Ring target is being projected, the visual acuity measuring unit 111 analyzes the user's motion (i.e., the direction indicated by the user) using the camera 101, And whether or not the directions in which the Landor rings are laid out coincide with each other can be determined.

바람직하게, 시력 측정부(111)는 시표를 투사하기 전에, 사용자의 한쪽 눈을 가리는 것을 요청하는 음성 멘트를 스피커로 출력한 후, 카메라(101)를 통해 획득된 영상을 분석하여 사용자의 한쪽 눈이 가려졌는지 여부를 판별하여 한쪽 눈이 가려진 경우, 시표 투사부(110)를 이용하여 시표를 스크린으로 투사한다. Preferably, the visual acuity measuring unit 111 outputs to the speaker a voice command requesting to cover one eye of the user before projecting the target, and thereafter analyzes the image obtained through the camera 101, And when one eye is obscured, the target is projected onto the screen using the target projecting unit 110.

한편, 시력 측정부(111)는 시력 측정이 완료되면, 두 눈에 대한 시력 측정결과와 현재 날짜를 저장부(104)의 시력 측정 이력에 기록한다. On the other hand, when the visual acuity measurement is completed, the visual acuity measuring unit 111 records the visual acuity measurement result of the two eyes and the current date in the visual acuity measurement history of the storage unit 104. [

도 2는 본 발명의 일 실시예에 따른, 로봇에서 사용자의 시력 측정을 위한 측정 환경을 세팅하는 방법을 설명하는 흐름도이다.2 is a flowchart illustrating a method of setting a measurement environment for a user's visual acuity measurement in a robot according to an embodiment of the present invention.

도 2를 참조하면, 로봇(100)은 사용자로부터 시력 측정 요청신호를 수신한다(S201). 이때, 로봇(100)은 사전에 구현된 메뉴 트리를 통하여 사용자로부터 시력 측정 요청신호를 수신할 수 있으며, 또는 사용자가 발성한 음성을 인식하여 시력 측정 요청신호를 수신할 수 있다. 또한, 로봇(100)은 저장부(104)에 저장된 시력 측정 스케줄에 따라, 사용자의 시력 측정 시기가 도래한 경우에 시력 측정 요청신호가 사용자로부터 수신된 것으로 판단할 수도 있다. Referring to FIG. 2, the robot 100 receives a visual acuity measurement request signal from a user (S201). At this time, the robot 100 may receive a visual acuity measurement request signal from a user through a menu tree implemented in advance, or may receive a visual acuity measurement request signal by recognizing a voice uttered by the user. In addition, the robot 100 may determine that the visual acuity measurement request signal is received from the user when the visual acuity measuring time of the user arrives, according to the visual acuity measurement schedule stored in the storage unit 104. [

다음으로, 로봇(100)의 위치 선정부(107)는 현 위치에서의 공간 구조를 스캐닝한다(S203). 이때, 위치 선정부(107)는 로봇(100)을 360°회전시키거나 카메라(101)를 회전시켜, 카메라(101)에서 촬영한 주변 영상을 획득하고, 이 주변 영상을 분석하여 현재 위치한 공간에서 벽면이 존재하는지 여부를 확인함으로써, 현 위치에서의 공간 구조를 스캐닝한다.Next, the position selection unit 107 of the robot 100 scans the spatial structure at the current position (S203). At this time, the position selection unit 107 rotates the robot 100 by 360 degrees or rotates the camera 101 to acquire a peripheral image photographed by the camera 101, analyzes the peripheral image, By checking whether or not the wall exists, the spatial structure at the current position is scanned.

다음으로, 위치 선정부(107)는 현재 위치한 공간에서 일정 면적 이상의 크기를 가지는 벽면이 존재하는지 여부를 확인하여 존재하지 않으면, 시력 측정이 불가능함을 알리는 음성 메시지를 스피커로 출력한다. 반면에, 위치 선정부(107)는 현재 위치한 공간에서 일정 면적 이상의 크기를 가지는 하나 이상의 벽면이 존재하면, 특정 벽면을 시표가 투사되는 스크린으로 선정한다(S205). 바람직하게, 위치 선정부(107)는 현재 위치한 공간에서 일정 크기 이상의 면적을 가지는 복수의 벽면이 존재한 경우, 수집한 영상을 분석하여 로봇(100)이 벽면으로 이동할 때에 장애물이 가장 적은 벽면을 스크린으로 선정한다.Next, the position selection unit 107 checks whether or not a wall surface having a size equal to or larger than a predetermined area exists in the currently located space, and if it does not exist, outputs a voice message to the speaker indicating that visual acuity measurement is impossible. On the other hand, if there is more than one wall surface having a size larger than a certain area in the present space, the position selecting unit 107 selects a specific wall surface as a screen on which the target is projected (S205). When a plurality of wall surfaces having an area equal to or larger than a predetermined size exist in the space in which the present position is located, the position determining unit 107 analyzes the collected images, and when the robot 100 moves to the wall surface, .

이어서, 위치 선정부(107)는 거리 측정 센서(102)를 이용하여 상기 선정한 스크린과의 일정 거리(예컨대, 2m)만큼 이격된 위치를 확인하여, 이 위치를 로봇(100)이 이동할 이동위치로 선정하고, 구동부(105)를 제어하여 상기 선정된 이동위치로 로봇(100)을 이동시킨다(S207).Next, the position selecting unit 107 confirms a position spaced apart from the selected screen by a predetermined distance (for example, 2 m) using the distance measuring sensor 102, and transfers the position to a moving position where the robot 100 moves And controls the driving unit 105 to move the robot 100 to the predetermined moving position (S207).

다음으로, 위치 선정부(107)는 거리측정 센서(102)를 이용하여 상기 선정한 스크린에서 특정 거리만큼 이격된 위치를 사용자의 시력측정 위치를 결정한다(S209). 바람직하게, 위치 선정부(107)는 거리측정 센서(102)를 이용하여 상기 선정한 스크린에서부터 기준 시력측정 거리(예컨대, 5m)만큼의 이격 거리가 확보될 수 있는지 여부를 판별하여, 확보될 수 있으면 상기 스크린에서부터 기준 시력측정 거리(예컨대, 5m)만큼 이격된 위치를 사용자의 시력측정 위치로 결정한다. 반면에, 위치 선정부(107)는 상기 판별결과 스크린에서부터 기준 시력측정 거리만큼의 이격 거리가 확보되지 않으면, 상기 스크린과 이격 가능한 최대 거리 또는 사전에 설정된 스크린과의 이격 거리(예컨대, 3m)를 사용자의 시력측정 위치로 결정할 수 있다.Next, the position selecting unit 107 determines the position of the user's eyesight measurement at a position spaced apart from the selected screen by a specific distance using the distance measuring sensor 102 (S209). Preferably, the position determination unit 107 determines whether or not a distance of the reference visual acuity measurement distance (e.g., 5 m) can be secured from the selected screen by using the distance measurement sensor 102, (E.g., 5 m) from the screen is determined as the user's visual acuity measurement position. On the other hand, if the distance to the reference visual acuity distance is not secured from the determination result screen, the position selection unit 107 determines the maximum distance that can be separated from the screen or a distance (for example, 3 m) It is possible to determine the user's visual acuity measurement position.

이어서, 위치 선정부(107)는 광선 투사부(106)를 이용하여 상기 결정된 시력측정 위치로 광선(예컨대, 레이저)을 투사하고(S211), 더불어 광선 투사 지점으로의 이동을 요구하는 음성 메시지를 스피커로 출력하여, 사용자가 상기 광선 투사 지점에 이동하도록 유도한다.Next, the position selecting section 107 projects a light beam (e.g., laser) to the determined visual acuity measuring position using the light projecting section 106 (S211), and also sends a voice message requesting movement to the light projection point And outputs it to the speaker to guide the user to move to the light beam projection point.

이렇게 사용자가 광선 투사 지점에 위치하면, 배율 설정부(108)는 거리 측정 센서(102)를 이용하여 사용자와 스크린까지의 거리를 측정한다(S213). 그리고 배율 설정부(108)는 사전에 설정된 기준 시력측정 거리(예컨대, 5m)에 대비하여 상기 측정한 사용자와 스크린까지의 거리의 비율을 산출한다(S215). 이어서, 배율 설정부(108)는 상기 산출한 비율에 근거하여, 스크린에 투사되는 시표의 확대 또는 축소 배율을 설정한다(S217). 구체적으로, 배율 설정부(108)는 사용자와 스크린 간의 거리가 기준 시력측정 거리와 동일하면 시표 크기의 축소 또는 확대 배율을 변경시키지 않고 오리지널 배율을 유지하고, 사용자와 스크린 간의 거리가 기준 시력측정 거리보다 짧으면 시표 크기가 작아지도록 시표 크기의 축소 배율을 설정하며, 또한 사용자와 스크린 간의 거리가 기준 시력측정 거리보다 길면 시표 크기가 커지도록 시표 크기의 확대 배율을 설정한다. 바람직하게, 배율 설정부(108)는 S215 단계에서 산출한 비율에 비례하여 시표가 확대되거나 축소되는 배율을 설정한다. When the user is located at the light ray projection point, the magnification setting unit 108 measures the distance between the user and the screen using the distance measurement sensor 102 (S213). Then, the magnification setting unit 108 calculates the ratio of the measured distance from the user to the screen in comparison with the preset reference visual acuity distance (e.g., 5 m) (S215). Subsequently, the magnification setting unit 108 sets an enlargement or reduction magnification of the target projected on the screen based on the calculated ratio (S217). Specifically, when the distance between the user and the screen is the same as the reference visual acuity distance, the magnification setting unit 108 maintains the original magnification without changing the reduction or enlargement magnification of the target size, If the distance between the user and the screen is longer than the reference visual acuity distance, the enlargement magnification of the target size is set so that the target size becomes larger. Preferably, the magnification setting unit 108 sets a magnification in which the target is magnified or reduced in proportion to the ratio calculated in step S215.

여기서, 확대 배율이 설정되는 원인은, 사용자가 광선 투사 지점으로 정확하게 이동하지 않는 경우일 수 있다. 구체적으로, 위치 선정부(107)는 스크린에서부터 기준 시력측정 거리(예컨대, 5m)만큼의 이격 거리가 확보된 것으로 확인되어, 이 기준 시력측정 거리에 해당하는 위치를 광선으로 투사하여 사용자의 이동을 유도하였으나, 사용자가 광선 투사 지점에 정확하게 이동하지 않은 경우, 사용자와 스크린 간의 거리가 상기 기준 시력측정 거리를 초과할 수 있다. 이와 같은 경우에, 배율 설정부(108)는 사용자와 스크린 간의 거리가 기준 시력측정 거리보다 긴 것을 확인하여, 시표 크기가 커지도록 시표의 확대 배율을 설정한다.Here, the reason why the magnification is set may be the case where the user does not move accurately to the light projection point. Specifically, it is confirmed that the distance to the reference visual acuity measuring distance (for example, 5 m) is ensured from the screen, and the position selecting unit 107 projects the position corresponding to the reference visual acuity distance to the light ray, The distance between the user and the screen may exceed the reference visual acuity distance if the user does not move accurately to the light projection point. In such a case, the magnification setting unit 108 confirms that the distance between the user and the screen is longer than the reference visual acuity distance, and sets the enlargement magnification of the target so that the target size becomes larger.

시표의 확대 또는 축소 배율의 설정이 완료되면, 배율 설정부(108)는 상기 설정한 시표의 확대 배율 또는 축소 배율을 시력 측정부(111)로 전달하고, 더불어 투사 환경 설정부(109)로 투사 환경의 세팅을 요청한다.When the enlargement or reduction magnification of the target is completed, the magnification setting unit 108 transmits the magnification or reduction magnification of the set target to the visual acuity measuring unit 111, Request the settings of the environment.

그러면, 투사 환경 설정부(109)는 조도 측정 센서(103)를 이용하여 현 위치에서의 조도를 측정한다(S219). 그리고 투사 환경 설정부(109)는 상기 측정한 조도가 기준치(예컨대, 200 룩스) 이상인지 여부를 판별한다(S221). 다음으로, 투사 환경 설정부(109)는 상기 판별 결과 측정한 조도가 기준치 미만이면, 시표 투사부(110)의 투사 밝기를 증가시킨다(S223). 바람직하게, 투사 환경 설정부(109)는 상기 측정한 조도가 기준치에 미달된 수치에 비례하여 시표 투사부(110)의 투사 밝기를 증가시킨다. 예컨대, 투사 환경 설정부(109)는 조도가 기준에 1룩스 미달되는 만큼, 시표 투사부(110)의 투사 밝기를 1씩 증가시킬 수 있다.Then, the projection environment setting unit 109 measures the illuminance at the current position using the illuminance measurement sensor 103 (S219). The projection environment setting unit 109 determines whether the measured illuminance is equal to or greater than a reference value (for example, 200 lux) (S221). Next, the projection environment setting unit 109 increases the projection brightness of the target projection unit 110 when the illuminance measured as a result of the determination is less than the reference value (S223). Preferably, the projection environment setting unit 109 increases the projected brightness of the target projection unit 110 in proportion to the measured luminous intensity less than the reference value. For example, the projection environment setting unit 109 can increase the projection brightness of the target projection unit 110 by one as much as the illumination is one lux below the standard.

다음으로, 투사 환경 설정부(109)는 사용자의 신장을 확인한다(S225). 이때, 투사 환경 설정부(109)는 사용자로부터 사전에 입력받아 저장한 신장 데이터에 근거하여 사용자의 신장을 확인할 수 있다. 또한, 카메라(101)를 이용하여 사용자의 전체 이미지를 촬영하고 이 촬영된 사용자의 전체 이미지를 분석하여 사용자의 신장을 측정할 수도 있다. 이 경우, 투사 환경 설정부(109)는 카메라(101)를 이용하여 사용자의 전체 이미지를 촬영하고, 사용자의 머리 끝이 위치한 지점을 상기 이미지 분석을 통해 인식한다. 그리고 투사 환경 설정부(109)는 상기 이미지의 전체 높이와 사용자의 머리 높이의 비율을 산출하고, 이 산출한 비율에 근거하여 사용자의 신장을 측정할 수 있다. 바람직하게, 투사 환경 설정부(109)는 거리 측정 센서(102)를 이용하여 사용자와 로봇(100) 간의 거리를 측정하고, 이 측정한 거리에 근거하여 상기 카메라(101)의 배율을 확대하거나 축소한 후 사용자의 전체 이미지를 촬영한다. 예컨대, 투사 환경 설정부(109)는 사용자와 로봇(100) 간의 거리가 2m인 경우, 카메라(101)의 배율을 오리지널 배율로 유지하여 사용자를 촬영하고, 사용자와 로봇(100) 간의 거리가 2m를 벗어난 경우, 이 벗어난 길이에 비례하여 카메라(101)의 배율을 확대하거나 축소한다.Next, the projection environment setting unit 109 confirms the height of the user (S225). At this time, the projection environment setting unit 109 can confirm the height of the user based on the extension data previously input and stored by the user. Also, the entire image of the user can be photographed using the camera 101, and the entire image of the photographed user can be analyzed to measure the user's height. In this case, the projection environment setting unit 109 captures the entire image of the user using the camera 101, and recognizes the point where the user's head end is located through the image analysis. The projection environment setting unit 109 may calculate the ratio of the total height of the image to the height of the user's head, and measure the height of the user based on the calculated ratio. Preferably, the projection environment setting unit 109 measures the distance between the user and the robot 100 using the distance measuring sensor 102, enlarges or reduces the magnification of the camera 101 based on the measured distance, And then takes the entire image of the user. For example, when the distance between the user and the robot 100 is 2 m, the projection environment setting unit 109 shoots the user by keeping the magnification of the camera 101 at the original magnification, and when the distance between the user and the robot 100 is 2 m The magnification of the camera 101 is increased or decreased in proportion to the length of the deviation.

이어서, 투사 환경 설정부(109)는 상기 확인한 사용자의 신장을 토대로, 시표 투사부(110)의 투사 각도를 조절한다(S227). 즉, 투사 환경 설정부(109)는 측정한 사용자의 신장에 비례하여, 시표 투사부(110)의 투사 각도가 더욱 위쪽으로 향하도록 시표 투사부(110)의 투사 각도를 조절한다. 부연하면, 투사 환경 설정부(109)는 사용자의 눈높이와 스크린에 투사되는 시표가 평행이 되도록 하기 위하여, 상기 사용자의 신장에 비례하여 시표가 스크린에 더욱 위쪽으로 투사되도록 시표 투사부(110)의 투사 각도를 위 방향으로 상향 조절한다. 예컨대, 투사 환경 설정부(109)는 사용자의 신장이 80cm를 초과한 경우, 초과된 5cm의 신장만큼 시표 투사부(110)의 투사 각도를 0.1°씩 위방향으로 상향 조절할 수 있다.Subsequently, the projection setting unit 109 adjusts the projection angle of the target projection unit 110 on the basis of the height of the user identified (S227). That is, the projection setting unit 109 adjusts the projection angle of the target projection unit 110 so that the projection angle of the target projection unit 110 is further upward, in proportion to the measured length of the user. The projection setting unit 109 sets the projection position of the target projection unit 110 so that the target is projected further upward on the screen in proportion to the height of the user so that the eye level of the user and the target projected on the screen become parallel. Adjust the projection angle upward. For example, when the user's elongation exceeds 80 cm, the projection setting unit 109 may upwardly adjust the projection angle of the target projection unit 110 by 0.1 degrees in the upward direction by an extension of 5 cm.

도 2의 순서에 따라 시력 측정을 위한 세팅이 완료되면, 로봇(100)은 스크린으로 선정된 벽면으로 시표를 투사하여 사용자의 시력을 측정한다.When the setting for visual acuity measurement is completed according to the procedure of FIG. 2, the robot 100 projects the target to the wall surface selected by the screen to measure the visual acuity of the user.

도 3은 본 발명의 일 실시예에 따른, 로봇에서 스크린에 시표를 투사하여 사용자의 시력을 측정하는 방법을 설명하는 흐름도이다.3 is a flowchart illustrating a method of measuring a visual acuity of a user by projecting a target on a screen in a robot according to an embodiment of the present invention.

도 3을 참조하면, 시력 측정부(111)는 도 2와 같이 시력 측정을 위한 세팅이 완료되면, 시력 측정 개시를 알리는 음성 메시지를 스피커로 출력한다(S301). 이때, 시력 측정부(111)는 오른쪽 눈을 가리는 것을 요청하는 음성 멘트를 스피커로 추가적으로 출력한다.Referring to FIG. 3, the visual acuity measuring unit 111 outputs a voice message to the speaker to inform the start of visual acuity measurement, as shown in FIG. 2 (S301). At this time, the visual acuity measuring unit 111 additionally outputs to the speaker a voice command requesting to cover the right eye.

시력 측정부(111)는 카메라(101)를 통해 사용자의 영상을 획득하고, 이렇게 획득된 영상을 분석하여 사용자의 오른쪽 눈이 가려졌는지 여부를 판별한다(S303). 이때, 시력 측정부(111)는 카메라(101)를 통해 촬영된 영상에서 사용자의 얼굴을 확대하고, 이 확대된 얼굴을 토대로 사용자의 양쪽 안구 중에서, 왼쪽 안구만이 인식되는지 여부를 확인함으로써, 사용자의 오른쪽 눈이 가려졌는지 여부를 판별할 수 있다.The visual acuity measuring unit 111 acquires the user's image through the camera 101, analyzes the obtained image, and determines whether or not the right eye of the user is covered (S303). At this time, the visual acuity measuring unit 111 enlarges the face of the user in the image photographed through the camera 101 and confirms whether only the left eye is recognized from both eyes of the user based on the enlarged face, It is possible to determine whether or not the right eye of the user is covered.

시력 측정부(111)는 사용자가 오른쪽 눈을 가리지 않은 경우, 오른쪽 눈을 가리는 것을 요청하는 음성 안내 메시지를 스피커로 다시 출력하여 사용자가 오른쪽 눈을 스스로 가리도록 유도한다(S315).If the user does not cover the right eye, the visual acuity measuring unit 111 outputs a voice guidance message requesting to cover the right eye to the speaker to guide the user to cover the right eye (S315).

반면에, 시력 측정부(111)는 상기 판별결과, 사용자가 오른쪽 눈이 가린 것으로 판별되면, 저장부(104)에서 저장된 첫 레벨(즉, 시력 0.1 레벨)에 해당하는 복수의 시표 중에서 어느 하나를 추출한다. 그리고 시력 측정부(111)는 배율 설정부(108)로부터 전달받은 시표의 확대 배율 또는 축소 배율에 따라, 상기 추출한 시표의 크기를 확대하거나 축소하고, 이렇게 축소 또는 확대된 시표를 시표 투사부(110)를 이용하여 스크린으로 선정된 벽면으로 투사한다(S305). 이때, 시표 투사부(110)는 투사 환경 설정부(109)에 의해 설정받은 투사 밝기값과 투사 각도를 적용하여 상기 시표를 벽면에 투사한다.On the other hand, if it is determined that the user is blinded with the right eye as a result of the determination, the visual acuity measuring unit 111 determines which one of the plurality of indexes corresponding to the first level stored in the storage unit 104 . The visual acuity measuring unit 111 enlarges or reduces the size of the extracted target according to the enlargement magnification or reduction magnification of the target received from the magnification setting unit 108 and outputs the reduced or enlarged target to the target projecting unit 110 (Step S305). At this time, the target projection unit 110 projects the target onto the wall surface by applying the projection brightness value and the projection angle set by the projection environment setting unit 109. [

다음으로, 시력 측정부(111)는 음성인식 모듈(111a)을 활성화하고 이 음성인식 모듈(111a)을 이용하여 사용자가 응답한 음성을 인식한다(S307). 이어서, 시력 측정부(111)는 인식된 사용자의 음성이 투사중인 시표에 대한 정답인지 여부를 판정한다(S309). 구체적으로, 시력 측정부(111)는 투사중인 알파벳, 숫자 또는 한글이 사용자가 발화한 음성과 일치하는지 여부를 확인함으로써, 투사중인 시표에 대한 정답 여부를 판정한다. 또는, 시력 측정부(111)는 오른쪽, 왼쪽, 위쪽, 아래쪽 중에서 어느 하나가 뚫린 란돌트 고리 시표가 투사된 경우, 사용자가 발화한 방향과 란돌트 고리 시표가 뚫린 방향이 일치하는 여부를 확인함으로써, 투사중인 시표의 정답을 판정할 수 있다. 한편, 시력 측정부(111)는 란돌트 고리 시표가 투사된 경우에, 카메라(101)를 이용하여 사용자의 동작을 영상 인식한 후, 사용자가 손 또는 팔로 가리키는 방향과 란돌트 고리 시표가 뚫린 방향이 일치하는 여부를 확인함으로써, 투사중인 시표의 정답 여부를 판정할 수도 있다. Next, the visual acuity measuring unit 111 activates the voice recognition module 111a and recognizes the voice responded by the user using the voice recognition module 111a (S307). Subsequently, the visual acuity measuring unit 111 determines whether the recognized user's voice is the correct answer to the projected target (S309). Specifically, the visual acuity measuring unit 111 determines whether or not an answer to the projected target is correct by confirming whether or not the alphabet, the number or the Hangul being projected matches the speech uttered by the user. Alternatively, the visual acuity measuring unit 111 may check whether or not the direction of the user's utterance matches the direction of the grating ring index in the case where the grating grating is pivoted by one of the right, left, , It is possible to determine the correct answer of the projected target. On the other hand, when the Landolt ring target is projected, the visual acuity measuring unit 111 recognizes the motion of the user using the camera 101, and then recognizes the direction in which the user indicates the hand or arm and the direction in which the Landolt ring index It is possible to determine whether or not the target being projected is the correct answer.

이어서, 시력 측정부(111)는 상기 판정 결과 사용자가 정답을 맞힌 것으로 확인되면, 상기 투사중인 시표가 마지막 레벨(시력 2.0 레벨)에 해당하는 시표인지 여부를 확인하여(S311), 마지막 레벨에 해당하는 시표이면 현재까지 정답으로 확인된 레벨에 해당하는 시력 측정결과(즉, 2.0), 눈 위치정보(즉, 왼쪽 눈) 및 현재 날짜가 기록된 시력 측정 결과를 저장부(104)의 시력 측정 이력에 기록한다(S313). Then, if it is confirmed that the user has answered the correct answer, the visual acuity measuring unit 111 determines whether the projected target is a target corresponding to the last level (sight 2.0 level) (S311) The eye position information (i.e., the left eye) and the current date of the visual acuity measurement result corresponding to the level confirmed as the correct answer so far are stored in the storage unit 104, (S313).

반면에, 시력 측정부(111)는 시표 투사부(110)를 통해 투사중인 시표가 마지막 레벨에 해당하는 시표가 아니면 투사 중인 시표 레벨 다음 단계에 해당하는 시표를 저장부(104)에서 추출한다(S317). 이어서, 시력 측정부(111)는 배율 설정부(108)로부터 전달받은 시표의 확대 배율 또는 축소 배율을 토대로, 상기 추출한 다음 레벨에 해당하는 시표의 크기를 확대하거나 축소하고, 이렇게 축소 또는 확대된 시표를 시표 투사부(110)를 이용하여 스크린으로 선정된 벽면으로 투사한 후, S307 단계 이후를 반복한다.On the other hand, if the target being projected through the target projecting unit 110 is not the target corresponding to the last level, the vision measuring unit 111 extracts a target corresponding to the next stage of the projected target level from the storage unit 104 S317). Then, the visual acuity measuring unit 111 enlarges or reduces the size of the target corresponding to the extracted next level based on the enlargement magnification or reduction magnification of the target received from the magnification setting unit 108, Is projected onto the wall surface selected by the screen using the target projection unit 110, and then the processes after step S307 are repeated.

한편, 시력 측정부(111)는 S307 단계의 판정 결과 사용자가 정답을 맞히지 못하면, 바로 직전에 정답으로 확인된 레벨의 시력 측정결과, 눈 위치정보 및 현재 날짜가 기록된 시력 측정 결과를 저장부(104)의 시력 측정 이력에 저장한다. 예컨대, 시력 측정부(111)는 시력 1.5 레벨에서 오답이 인식된 경우, 바로 직전에 정답으로 확인된 시력 1.2레벨을 시력 측정 결과로서 저장한다.On the other hand, if the user does not receive the correct answer at step S307, the visual acuity measuring unit 111 stores the visual acuity measurement result of the level confirmed as the correct answer right before, the eye position information, (104). For example, when an incorrect answer is recognized at a visual acuity level of 1.5, the visual acuity measuring unit 111 stores the corrected visual acuity level 1.2 immediately before the visual acuity measurement result.

도 3의 절차에 따라, 왼쪽 눈의 시력 측정이 완료되면, 시력 측정부(111)는 S301 단계를 재진행하여 오른쪽 눈의 시력을 측정한다. 구체적으로, 시력 측정부(111)는 오른쪽 눈의 시력 측정 개시를 알리는 음성 메시지를 스피커로 출력하고, 사용자의 얼굴을 확대하여 왼쪽 눈이 가려졌는지 여부를 판별한다. 그리고 시력 측정부(111)는 사용자의 이미지를 촬영하고 분석하여 사용자의 왼쪽 눈이 가려진 것으로 판별되면, 처음 레벨의 시표를 시표 투사부(110)를 통해 스크린으로 선정된 벽면에 투사하여 사용자의 오른쪽 눈의 시력을 측정하는 S305 단계를 진행한다.According to the procedure of FIG. 3, when the visual acuity measurement of the left eye is completed, the visual acuity measuring unit 111 performs the step S301 to measure the visual acuity of the right eye. Specifically, the visual acuity measuring unit 111 outputs a voice message to the speaker informing the start of visual acuity measurement of the right eye, and enlarges the user's face to determine whether the left eye is obscured. When it is determined that the user's left eye is obscured, the eyesight measurement unit 111 projects the first-level target on the wall surface selected as the screen through the eye projection unit 110, The process proceeds to step S305 of measuring the visual acuity of the eye.

상술한 바와 같이, 본 발명에 따른 로봇(100)은, 사용자와 스크린 간의 거리와 기준 시력측정 거리의 비율을 토대로 시표의 크기를 결정하여 스크린에 시표를 출력한 후, 사용자의 음성을 인식하여 정답 여부를 판정하여 사용자의 시력을 측정한다. 게다가, 본 발명에 따른 로봇(100)은 사용자가 시력 측정을 위해 위치해야 하는 장소를 광선 투사를 통해 알려줌으로써 시력 측정의 정확도를 향상시킨다. 또한, 본 발명에 따른 로봇(100)은 사용자의 신장과 현 위치에서 측정된 조도를 토대로, 시표의 투사 각도와 투사 밝기를 조절하여 스크린에 시표를 투사함으로써, 시력 측정의 정확도를 향상시키고 시력 측정시에 발생하는 눈의 피로도를 최소화한다.As described above, the robot 100 according to the present invention determines the size of the target based on the ratio of the distance between the user and the screen to the reference visual acuity distance, outputs the target on the screen, And measures the visual acuity of the user. In addition, the robot 100 according to the present invention improves the accuracy of visual acuity measurement by informing the user of the place where the user should be positioned for visual acuity measurement through light projection. Further, the robot 100 according to the present invention adjusts the projection angle of the target and the projection brightness based on the illuminance measured at the user's current position and the current position, thereby projecting the target on the screen, thereby improving the accuracy of the visual acuity measurement, Minimize the eye fatigue that occurs in the city.

본 명세서는 많은 특징을 포함하는 반면, 그러한 특징은 본 발명의 범위 또는 특허청구범위를 제한하는 것으로 해석되어서는 안 된다. 또한, 본 명세서에서 개별적인 실시예에서 설명된 특징들은 단일 실시예에서 결합되어 구현될 수 있다. 반대로, 본 명세서에서 단일 실시예에서 설명된 다양한 특징들은 개별적으로 다양한 실시예에서 구현되거나, 적절히 결합되어 구현될 수 있다.While the specification contains many features, such features should not be construed as limiting the scope of the invention or the scope of the claims. In addition, the features described in the individual embodiments herein may be combined and implemented in a single embodiment. Conversely, various features described in the singular < Desc / Clms Page number 5 > embodiments herein may be implemented in various embodiments individually or in combination as appropriate.

도면에서 동작들이 특정한 순서로 설명되었으나, 그러한 동작들이 도시된 바와 같은 특정한 순서로 수행되는 것으로, 또는 일련의 연속된 순서, 또는 원하는 결과를 얻기 위해 모든 설명된 동작이 수행되는 것으로 이해되어서는 안 된다. 특정 환경에서 멀티태스킹 및 병렬 프로세싱이 유리할 수 있다. 아울러, 상술한 실시예에서 다양한 시스템 구성요소의 구분은 모든 실시예에서 그러한 구분을 요구하지 않는 것으로 이해되어야 한다. 상술한 프로그램 구성요소 및 시스템은 일반적으로 단일 소프트웨어 제품 또는 멀티플 소프트웨어 제품에 패키지로 구현될 수 있다.Although the operations have been described in a particular order in the figures, it should be understood that such operations are performed in a particular order as shown, or that all described operations are performed to obtain a sequence of sequential orders, or a desired result . In certain circumstances, multitasking and parallel processing may be advantageous. It should also be understood that the division of various system components in the above embodiments does not require such distinction in all embodiments. The above-described program components and systems can generally be implemented as a single software product or as a package in multiple software products.

상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(시디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다. 이러한 과정은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있으므로 더 이상 상세히 설명하지 않기로 한다.The method of the present invention as described above can be implemented by a program and stored in a computer-readable recording medium (CD-ROM, RAM, ROM, floppy disk, hard disk, magneto optical disk, etc.). Such a process can be easily carried out by those skilled in the art and will not be described in detail.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention. The present invention is not limited to the drawings.

100 : 로봇 101 : 카메라
102 : 거리 측정 센서 103 : 조도 측정 센서
104 : 저장부 105 : 구동부
106 : 광선 투사부 107 : 위치 선정부
108 : 배율 설정부 109 : 투사 환경 설정부
110 : 시표 투사부 111 : 시력 측정부
111a : 음성인식 모듈
100: robot 101: camera
102: distance measuring sensor 103: illuminance measuring sensor
104: storage unit 105:
106: light projection part 107: position selection part
108: Magnification setting section 109: Projection environment setting section
110: target projection unit 111: visual acuity measuring unit
111a: voice recognition module

Claims (14)

사용자의 시력을 측정하는 로봇으로서,
상기 사용자와 스크린 간의 거리를 측정하는 거리 측정 센서;
기준 시력측정 거리에 대비하여 상기 측정한 사용자와 스크린 간의 거리의 비율을 산출하고, 상기 산출한 비율을 토대로 시표의 확대 또는 축소 배율을 설정하는 배율 설정부;
상기 설정된 시표의 확대 또는 축소 배율에 따라 확대되거나 축소된 시표를 상기 스크린에 투사하는 시표 투사부;
상기 사용자의 음성 인식을 통해, 상기 투사중인 시표의 정답 여부를 판정하여 상기 사용자의 시력 측정을 수행하는 시력 측정부;
광선 투사부; 및
상기 사용자의 시력측정 위치를 결정하고 상기 광선 투사부를 이용하여 상기 결정한 시력측정 위치로 광선을 투사하고, 상기 광선을 투사한 지점으로 상기 사용자의 이동을 지시하는 메시지를 출력하는 위치 선정부;를 포함하는 로봇.
1. A robot for measuring a visual acuity of a user,
A distance measuring sensor for measuring a distance between the user and the screen;
A magnification setting unit for calculating a ratio of the distance between the user and the screen measured against the reference visual acuity distance and setting an enlargement or reduction magnification of the target based on the calculated ratio;
A target projecting unit for projecting an enlarged or reduced target on the screen according to an enlargement or reduction ratio of the set target;
A visual acuity measuring unit for determining whether an answer to the projected target is correct through voice recognition of the user and performing visual acuity measurement of the user;
A light projection part; And
And a position selecting unit for determining a visual acuity measurement position of the user and projecting a light ray to the determined visual acuity measuring position using the light ray projecting unit and outputting a message instructing movement of the user to a point where the light ray is projected Robot.
삭제delete 제 1 항에 있어서,
상기 위치 선정부는,
카메라를 통해 시력 측정 공간을 스캐닝하여 시력 측정 공간의 이미지를 획득하고, 이 획득한 이미지를 분석하여 인식된 벽면을 상기 스크린으로 선정하여, 상기 스크린과 일정 거리로 이격되는 위치로 상기 이동 로봇을 이동시키는 것을 특징으로 하는 로봇.
The method according to claim 1,
Wherein the position-
The image of the visual acuity measurement space is acquired by scanning the visual acuity measurement space through the camera, and the recognized wall is selected as the screen by analyzing the acquired image to move the mobile robot to a position spaced apart from the screen by a certain distance, .
제 1 항 또는 제 3 항 중 어느 한 항에 있어서,
사용자의 신장을 확인하고, 이 사용자의 신장에 근거하여 상기 시표 투사부의 투사 각도를 조정하는 투사환경 설정부;를 더 포함하는 것을 특징으로 하는 로봇.
4. The method according to any one of claims 1 to 3,
And a projection environment setting unit for checking the height of the user and adjusting the projection angle of the target projection unit based on the height of the user.
제 4 항에 있어서,
조도를 측정하는 조도 측정 센서;를 더 포함하고,
상기 투사환경 설정부는,
상기 측정한 조도가 기준치 이상인지 여부를 확인하여 상기 조도가 기준치 미만이면, 상기 시표 투사부의 투사 밝기를 증가시키는 것을 특징으로 하는 로봇.
5. The method of claim 4,
And an illuminance measurement sensor for measuring the illuminance,
Wherein the projection-
Wherein the controller determines whether the measured illuminance is equal to or greater than a reference value and increases the projection brightness of the target projecting portion when the illuminance is less than the reference value.
사용자의 시력을 측정하는 로봇으로서,
상기 사용자와 스크린 간의 거리를 측정하는 거리 측정 센서;
기준 시력측정 거리에 대비하여 상기 측정한 사용자와 스크린 간의 거리의 비율을 산출하고, 상기 산출한 비율을 토대로 시표의 확대 또는 축소 배율을 설정하는 배율 설정부;
상기 설정된 시표의 확대 또는 축소 배율에 따라 확대되거나 축소된 시표를 상기 스크린에 투사하는 시표 투사부; 및
상기 사용자의 음성 인식을 통해, 상기 투사중인 시표의 정답 여부를 판정하여 상기 사용자의 시력 측정을 수행하는 시력 측정부를 포함하고,
상기 시력 측정부는,
한쪽 눈의 가림을 요구하는 메시지를 출력한 후, 상기 사용자의 얼굴을 촬영하고 이 촬영한 얼굴을 분석하여 사용자의 눈이 가려졌는지 여부를 판별하고, 이 판별 결과 사용자의 한쪽 눈이 가려진 경우에 상기 사용자의 시력 측정을 개시하는 것을 특징으로 하는 로봇.
1. A robot for measuring a visual acuity of a user,
A distance measuring sensor for measuring a distance between the user and the screen;
A magnification setting unit configured to calculate a ratio of the distance between the user and the screen measured against the reference visual acuity distance and to set an enlargement or reduction magnification of the target based on the calculated ratio;
A target projecting unit for projecting an enlarged or reduced target on the screen according to an enlargement or reduction ratio of the set target; And
And a visual acuity measuring unit for determining whether or not an answer to the projected target is correct through voice recognition of the user and performing visual acuity measurement of the user,
The visual-
After a message requesting blindness of one eye is output, the face of the user is photographed and the photographed face is analyzed to determine whether or not the user's eyes are blinded. When the user's eyes are blinded, And starts the visual acuity measurement of the user.
사용자의 시력을 측정하는 로봇으로서,
상기 사용자와 스크린 간의 거리를 측정하는 거리 측정 센서;
기준 시력측정 거리에 대비하여 상기 측정한 사용자와 스크린 간의 거리의 비율을 산출하고, 상기 산출한 비율을 토대로 시표의 확대 또는 축소 배율을 설정하는 배율 설정부;
상기 설정된 시표의 확대 또는 축소 배율에 따라 확대되거나 축소된 시표를 상기 스크린에 투사하는 시표 투사부; 및
상기 사용자의 음성 인식을 통해, 상기 투사중인 시표의 정답 여부를 판정하여 상기 사용자의 시력 측정을 수행하는 시력 측정부를 포함하고,
상기 시력 측정부는,
상기 시표 투사부에서 란돌트 고리 시표가 투사되면, 카메라를 이용하여 상기 사용자의 동작을 영상 인식하여, 사용자가 손 또는 팔로 가리키는 방향과 투사중인 란돌트 고리 시표의 뚫린 방향이 일치하는지 여부를 통해 시표의 정답 여부를 판정하는 것을 특징으로 하는 로봇.
1. A robot for measuring a visual acuity of a user,
A distance measuring sensor for measuring a distance between the user and the screen;
A magnification setting unit for calculating a ratio of the distance between the user and the screen measured against the reference visual acuity distance and setting an enlargement or reduction magnification of the target based on the calculated ratio;
A target projecting unit for projecting an enlarged or reduced target on the screen according to an enlargement or reduction ratio of the set target; And
And a visual acuity measuring unit for determining whether or not an answer to the projected target is correct through voice recognition of the user and performing visual acuity measurement of the user,
The visual-
When the ruled-ring index is projected from the target projecting unit, the operation of the user is recognized by using a camera, and whether or not the direction of the user's hand or arm is coincident with the opened direction of the projected random- And determines whether or not the right answer is obtained.
제 1 항 또는 제 3 항 중 어느 한 항에 있어서,
상기 시력 측정부는,
상기 사용자의 시력 측정이 완료되면, 상기 사용자의 시력 측정 결과를 저장하는 것을 특징으로 하는 로봇.
4. The method according to any one of claims 1 to 3,
The visual-
And stores the visual acuity measurement result of the user when the visual acuity measurement of the user is completed.
로봇에서 사용자의 시력을 측정하는 방법에 있어서,
상기 사용자와 스크린 간의 거리를 측정하는 단계;
기준 시력측정 거리에 대비하여 상기 측정한 사용자와 스크린 간의 거리의 비율을 산출하는 단계;
상기 산출한 비율을 토대로, 시표의 확대 또는 축소 배율을 설정하는 단계;
상기 설정한 시표의 확대 또는 축소 배율에 따라 시표를 확대하거나 축소하여 상기 스크린에 투사하는 단계; 및
상기 사용자의 음성을 인식하여, 상기 스크린에 투사한 시표의 정답 여부를 판정하여 시력 측정을 수행하는 단계;를 포함하고,
상기 측정하는 단계 이전에,
상기 사용자의 시력측정 위치를 결정하고, 이 결정한 시력측정 위치로 광선을 투사하는 단계; 및
상기 광선을 투사한 시력측정 위치로 상기 사용자의 이동을 지시하는 메시지를 출력하는 단계;를 더 포함하는 로봇에서의 시력 측정 방법.
A method for measuring a user's visual acuity in a robot,
Measuring a distance between the user and the screen;
Calculating a ratio of the measured distance between the user and the screen relative to the reference visual acuity distance;
Setting an enlargement or reduction ratio of the target on the basis of the calculated ratio;
Enlarging or reducing a target according to an enlargement or reduction ratio of the set target and projecting the target on the screen; And
Recognizing the voice of the user and determining whether or not the target projected on the screen is correct, and performing visual acuity measurement;
Before the measuring step,
Determining a visual acuity measurement position of the user and projecting a light beam to the determined visual acuity measurement position; And
And outputting a message instructing movement of the user to a visual acuity measurement position where the light beam is projected.
삭제delete 로봇에서 사용자의 시력을 측정하는 방법에 있어서,
상기 사용자와 스크린 간의 거리를 측정하는 단계;
기준 시력측정 거리에 대비하여 상기 측정한 사용자와 스크린 간의 거리의 비율을 산출하는 단계;
상기 산출한 비율을 토대로, 시표의 확대 또는 축소 배율을 설정하는 단계;
상기 설정한 시표의 확대 또는 축소 배율에 따라 시표를 확대하거나 축소하여 상기 스크린에 투사하는 단계; 및
상기 사용자의 음성을 인식하여, 상기 스크린에 투사한 시표의 정답 여부를 판정하여 시력 측정을 수행하는 단계;를 포함하고,
상기 측정하는 단계 이전에,
카메라를 통해 시력 측정 공간을 스캐닝하여 시력 측정 공간의 이미지를 획득하는 단계;
상기 획득한 이미지를 분석하여 인식된 벽면을 상기 스크린으로 선정하는 단계; 및
상기 스크린과 일정 거리로 이격되는 위치를 이동위치로 결정하고, 이 이동위치로 이동하는 단계;를 더 포함하는 것을 특징으로 하는 로봇에서의 시력 측정 방법.
A method for measuring a user's visual acuity in a robot,
Measuring a distance between the user and the screen;
Calculating a ratio of the measured distance between the user and the screen relative to the reference visual acuity distance;
Setting an enlargement or reduction ratio of the target on the basis of the calculated ratio;
Enlarging or reducing a target according to an enlargement or reduction ratio of the set target and projecting the target on the screen; And
Recognizing the voice of the user and determining whether or not the target projected on the screen is correct, and performing visual acuity measurement;
Before the measuring step,
Acquiring an image of a visual measurement space by scanning a visual measurement space through a camera;
Analyzing the acquired image and selecting a recognized wall surface as the screen; And
Determining a position that is spaced apart from the screen by a predetermined distance as a moving position, and moving the moving position to the moving position.
제 9 항 또는 제 11 항 중 어느 한 항에 있어서,
상기 사용자의 신장을 확인하는 단계; 및
상기 확인한 사용자의 신장에 근거하여 상기 시표의 투사 각도를 조정하는 단계;를 더 포함하는 것을 특징으로 하는 로봇에서의 시력 측정 방법.
The method according to any one of claims 9 to 11,
Confirming the height of the user; And
And adjusting a projection angle of the target on the basis of the height of the user.
제 9 항 또는 제 11 항 중 어느 한 항에 있어서,
조도를 측정하고, 이 측정한 조도가 기준치 이상인지 여부를 판별하는 단계; 및
상기 판별 결과 상기 측정한 조도가 기준치 미만이면, 상기 시표의 투사 밝기를 증가시키는 단계;를 포함하는 것을 특징으로 하는 로봇에서의 시력 측정 방법.
The method according to any one of claims 9 to 11,
Measuring an illuminance and determining whether the illuminance measured is equal to or higher than a reference value; And
And increasing the projected brightness of the target if the measured illuminance is less than a reference value as a result of the discrimination.
로봇에서 사용자의 시력을 측정하는 방법에 있어서,
상기 사용자와 스크린 간의 거리를 측정하는 단계;
기준 시력측정 거리에 대비하여 상기 측정한 사용자와 스크린 간의 거리의 비율을 산출하는 단계;
상기 산출한 비율을 토대로, 시표의 확대 또는 축소 배율을 설정하는 단계;
상기 설정한 시표의 확대 또는 축소 배율에 따라 시표를 확대하거나 축소하여 상기 스크린에 투사하는 단계; 및
상기 사용자의 음성을 인식하여, 상기 스크린에 투사한 시표의 정답 여부를 판정하여 시력 측정을 수행하는 단계;를 포함하고,
상기 스크린에 투사하는 단계 이전에,
한쪽 눈의 가림을 요구하는 메시지를 출력하는 단계; 및
상기 사용자의 얼굴을 촬영하고 이 촬영한 얼굴을 분석하여 사용자의 한쪽 눈이 가려졌는지 여부를 판별하는 단계;를 더 포함하는 것을 특징으로 하는 로봇에서의 시력 측정 방법.
A method for measuring a user's visual acuity in a robot,
Measuring a distance between the user and the screen;
Calculating a ratio of the measured distance between the user and the screen relative to the reference visual acuity distance;
Setting an enlargement or reduction ratio of the target on the basis of the calculated ratio;
Enlarging or reducing a target according to an enlargement or reduction ratio of the set target and projecting the target on the screen; And
Recognizing the voice of the user and determining whether or not the target projected on the screen is correct, and performing visual acuity measurement;
Prior to the step of projecting onto the screen,
Outputting a message requesting occlusion of one eye; And
Further comprising the step of photographing the face of the user and analyzing the photographed face to determine whether one eye of the user is obscured or not.
KR1020130016435A 2013-02-15 2013-02-15 Method for measuring user eyesight by robot and robot therefor KR101515177B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130016435A KR101515177B1 (en) 2013-02-15 2013-02-15 Method for measuring user eyesight by robot and robot therefor
PCT/KR2013/006569 WO2014126307A1 (en) 2013-02-15 2013-07-23 Method for measuring eyesight in robot and robot for same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130016435A KR101515177B1 (en) 2013-02-15 2013-02-15 Method for measuring user eyesight by robot and robot therefor

Publications (2)

Publication Number Publication Date
KR20140102919A KR20140102919A (en) 2014-08-25
KR101515177B1 true KR101515177B1 (en) 2015-04-24

Family

ID=51354292

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130016435A KR101515177B1 (en) 2013-02-15 2013-02-15 Method for measuring user eyesight by robot and robot therefor

Country Status (2)

Country Link
KR (1) KR101515177B1 (en)
WO (1) WO2014126307A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2774906T3 (en) * 2016-04-08 2020-07-23 Vivior Ag Device and method for measuring distances
IT201700101120A1 (en) * 2017-09-11 2019-03-11 Idm Srl EQUIPMENT FOR IMPROVEMENT, TRAINING AND / OR REHABILITATION OF THE VISUAL FUNCTION
CN114305317B (en) * 2021-12-23 2023-05-12 广州视域光学科技股份有限公司 Method and system for intelligently distinguishing user feedback optotype
CN116616691A (en) * 2023-05-19 2023-08-22 湖南至真明扬技术服务有限公司 Man-machine interaction vision detection method and system based on virtual reality

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008043402A (en) 2006-08-11 2008-02-28 Topcon Corp Subjective optometer

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3324935B2 (en) * 1996-06-28 2002-09-17 株式会社トプコン Eye chart display device
KR20070066574A (en) * 2005-12-22 2007-06-27 주식회사 팬택 Method and mobile communication terminal for adjusting size of displayed text according to distance from user eyes
US20100128223A1 (en) * 2007-01-03 2010-05-27 Eytan Blumenthal Method, algorithm and device for testing visual acuity
JP2012245156A (en) * 2011-05-27 2012-12-13 Brother Industries Ltd Image forming unit, image reading unit, image processing system, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008043402A (en) 2006-08-11 2008-02-28 Topcon Corp Subjective optometer

Also Published As

Publication number Publication date
KR20140102919A (en) 2014-08-25
WO2014126307A1 (en) 2014-08-21

Similar Documents

Publication Publication Date Title
KR101684956B1 (en) Measuring device that can be operated without contact and control method for such a measuring device
CN105589199B (en) Display device, control method for display device, and program
EP3210095B1 (en) System, method and computer program for hands-free configuration of a luminous distribution
CN109725418B (en) Display device, method and device for adjusting image presentation of display device
US20230404401A1 (en) Fundus camera and fully-automatic photography method for fundus image
US10360450B2 (en) Image capturing and positioning method, image capturing and positioning device
KR101515177B1 (en) Method for measuring user eyesight by robot and robot therefor
US7216982B2 (en) Eye image taking device
JPWO2016103522A1 (en) Control device, electronic device, control method, and program
US7382901B2 (en) Eye image imaging device
US20160041615A1 (en) Information processing apparatus, focus detection method, and information processing system
JP6422954B2 (en) Adjusting the focal length
JP2017111746A (en) Sight line detection device and sight line detection method
EP3640840B1 (en) Tracking method and apparatus for smart glasses, smart glasses and storage medium
US11846780B2 (en) Head-mounted electronic vision aid device and automatic image magnification method thereof
JP2004046451A (en) Eye image, imaging apparatus and individual authentication device
CN116669614A (en) Ophthalmic device and control program for ophthalmic device
KR102085285B1 (en) System for measuring iris position and facerecognition based on deep-learning image analysis
EP3150111B1 (en) Ophthalmic apparatus and control program for the ophthalmic apparatus
JP2005062486A (en) Projection system, projection device, and projection method
JP2019177045A (en) Visual target presentation device
KR101731972B1 (en) Automatic focusing apparatus of ophthalmometer and methdo thereof
US10860165B2 (en) Tracking method and apparatus for smart glasses, smart glasses and storage medium
JP3232873B2 (en) Gaze direction detection device for vehicles
JP7117768B2 (en) Visual field visual acuity test device and visual field visual acuity test method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180403

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190401

Year of fee payment: 5