KR101515177B1 - Method for measuring user eyesight by robot and robot therefor - Google Patents
Method for measuring user eyesight by robot and robot therefor Download PDFInfo
- Publication number
- KR101515177B1 KR101515177B1 KR1020130016435A KR20130016435A KR101515177B1 KR 101515177 B1 KR101515177 B1 KR 101515177B1 KR 1020130016435 A KR1020130016435 A KR 1020130016435A KR 20130016435 A KR20130016435 A KR 20130016435A KR 101515177 B1 KR101515177 B1 KR 101515177B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- target
- visual acuity
- screen
- distance
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/18—Arrangement of plural eye-testing or -examining apparatus
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/028—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
Landscapes
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Ophthalmology & Optometry (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Eye Examination Apparatus (AREA)
- Rehabilitation Tools (AREA)
Abstract
본 발명은 로봇에서 시력 측정 방법 및 이를 위한 로봇에 관한 것으로서, 사용자의 시력을 측정하는 로봇은, 상기 사용자와 스크린 간의 거리를 측정하는 거리 측정 센서; 기준 시력측정 거리에 대비하여 상기 측정한 사용자와 스크린 간의 거리의 비율을 산출하고, 상기 산출한 비율을 토대로 시표의 확대 또는 축소 배율을 설정하는 배율 설정부; 상기 설정된 시표의 확대 또는 축소 배율에 따라 확대되거나 축소된 시표를 상기 스크린에 투사하는 시표 투사부; 및 상기 사용자의 음성 인식을 통해, 상기 투사중인 시표의 정답 여부를 판정하여 상기 사용자의 시력 측정을 수행하는 시력 측정부를 포함한다.The present invention relates to a method of measuring a visual acuity in a robot and a robot therefor, wherein the robot for measuring the visual acuity of the user comprises: a distance measuring sensor for measuring a distance between the user and the screen; A magnification setting unit for calculating a ratio of the distance between the user and the screen measured against the reference visual acuity distance and setting an enlargement or reduction magnification of the target based on the calculated ratio; A target projecting unit for projecting an enlarged or reduced target on the screen according to an enlargement or reduction ratio of the set target; And a visual acuity measuring unit for determining whether or not the projected target is an answer through voice recognition of the user and performing visual acuity measurement of the user.
Description
본 발명은 로봇 기술에 관한 것으로서, 더욱 상세하게는 로봇에서 시력 측정 방법 및 이를 위한 로봇에 관한 것이다. The present invention relates to robot technology, and more particularly, to a method for measuring vision in a robot and a robot therefor.
일반적으로, 사용자는 시력 검사표를 이용하여 자신의 시력을 측정한다. 즉, 사용자는 시력 검사표와 일정 거리만큼 이격된 상태에서, 검사자가 지정한 시표를 음성으로 발화함으로써 자신의 시력을 측정한다. 그런데 시력 검사표를 이용한 시력 측정 방식은, 시력 검사표가 구비되지 않은 장소에서는 측정이 불가능하고 일정 거리를 확보할 수 있는 공간이 필요하다는 문제점이 있다.Generally, the user uses his / her vision test chart to measure his / her visual acuity. That is, the user measures his / her own visual acuity by uttering the target designated by the inspector in a state of being separated from the visual acuity chart by a certain distance. However, there is a problem that a visual acuity measuring method using a visual acuity check table requires a space that can not be measured at a place where a visual acuity check table is not provided and a certain distance can be secured.
이에 따라, 무선통신 단말기를 이용하여 사용자의 시력을 측정하는 기술이 개발되었다. 아래의 특허문헌은 시력 검사 기능을 가지는 무선통신 단말기 및 그 방법에 대해서 개시한다.Accordingly, a technique of measuring a user's visual acuity using a wireless communication terminal has been developed. The following patent document discloses a wireless communication terminal having a visual check function and a method thereof.
그런데 무선통신 단말기를 이용한 시력측정 방식은, 시력측정에 대한 정확도가 떨어지는 문제점이 있다. 구체적으로, 상기 무선통신 단말기를 이용한 시력 측정 방식은, 사용자가 무선통신 단말기와 자신의 안구 사이의 거리를 시력측정이 종료되기까지 일정하게 유지시켜야 방식으로서, 상기 무선통신 단말기와 안구 사이의 거리가 일정하게 유지되지 않으면 시력 측정의 오차가 크게 발생한다. 즉, 무선통신 단말을 파지한 사용자의 손이 흔들리게 되거나 안구와 무선통신 단말 사이의 간격이 초기 세팅된 거리에서 벗어나게 되는 경우, 무선통신 단말의 이용한 시력측정 결과가 부정확하게 되는 문제점이 있다. 더불어, 상기 방식은 시력측정 과정에서 사용자로 하여금 정지된 자세로 무선통신 단말과 안구와의 거리를 유지시키게 함으로써, 시력 측정에 있어서 사용자의 불편함을 유발하는 문제점도 있다.However, the visual acuity measuring method using the wireless communication terminal has a problem that the accuracy of visual acuity measurement is low. Specifically, the visual acuity measurement method using the wireless communication terminal is a method in which a user maintains a distance between the wireless communication terminal and his or her eyeball constantly until the visual acuity measurement is completed. The distance between the wireless communication terminal and the eyeball is If it is not kept constant, a large error in visual acuity measurement occurs. That is, when the hand of the user holding the wireless communication terminal is shaken or the distance between the eye and the wireless communication terminal deviates from the initially set distance, the result of measurement of the visual acuity used by the wireless communication terminal becomes inaccurate. In addition, the above-described method causes the user to maintain the distance between the wireless communication terminal and the eyeball in a stationary posture during the visual acuity measurement process, thereby causing inconvenience to the user in visual acuity measurement.
본 발명은 이러한 종래의 문제점을 해결하기 위하여 제안된 것으로, 로봇을 이용하여 사용자의 시력을 보다 정확하게 측정하고 시력 측정 과정에서의 사용자의 불편함이 해소하는 시력 측정 방법 및 이를 위한 로봇을 제공하는데 그 목적이 있다.SUMMARY OF THE INVENTION The present invention has been proposed in order to solve such conventional problems, and it is an object of the present invention to provide a visual acuity measurement method and a robot for the same, which measure the visual acuity of a user more accurately by using a robot, There is a purpose.
본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Other objects and advantages of the present invention will become apparent from the following description, and it will be understood by those skilled in the art that the present invention is not limited thereto. It will also be readily apparent that the objects and advantages of the invention may be realized and attained by means of the instrumentalities and combinations particularly pointed out in the appended claims.
상기 목적을 달성하기 위한 본 발명의 제 1 측면에 따른 사용자의 시력을 측정하는 로봇은, 상기 사용자와 스크린 간의 거리를 측정하는 거리 측정 센서; 기준 시력측정 거리에 대비하여 상기 측정한 사용자와 스크린 간의 거리의 비율을 산출하고, 상기 산출한 비율을 토대로 시표의 확대 또는 축소 배율을 설정하는 배율 설정부; 상기 설정된 시표의 확대 또는 축소 배율에 따라 확대되거나 축소된 시표를 상기 스크린에 투사하는 시표 투사부; 및 상기 사용자의 음성 인식을 통해, 상기 투사중인 시표의 정답 여부를 판정하여 상기 사용자의 시력 측정을 수행하는 시력 측정부를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a robot for measuring a visual acuity of a user, comprising: a distance measuring sensor for measuring a distance between the user and a screen; A magnification setting unit for calculating a ratio of the distance between the user and the screen measured against the reference visual acuity distance and setting an enlargement or reduction magnification of the target based on the calculated ratio; A target projecting unit for projecting an enlarged or reduced target on the screen according to an enlargement or reduction ratio of the set target; And a visual acuity measuring unit for determining the correct answer of the projected target through voice recognition of the user and performing visual acuity measurement of the user.
상기 목적을 달성하기 위한 본 발명의 제 2 측면에 따른 로봇에서 사용자의 시력을 측정하는 방법은, 상기 사용자와 스크린 간의 거리를 측정하는 단계; 기준 시력측정 거리에 대비하여 상기 측정한 사용자와 스크린 간의 거리의 비율을 산출하는 단계; 상기 산출한 비율을 토대로, 시표의 확대 또는 축소 배율을 설정하는 단계; 상기 설정한 시표의 확대 또는 축소 배율에 따라 시표를 확대하거나 축소하여 상기 스크린에 투사하는 단계; 및 상기 사용자의 음성을 인식하여, 상기 스크린에 투사한 시표의 정답 여부를 판정하여 시력 측정을 수행하는 단계를 포함하는 것을 특징으로 한다.According to a second aspect of the present invention, there is provided a method of measuring a visual acuity of a user in a robot, comprising: measuring a distance between the user and a screen; Calculating a ratio of the measured distance between the user and the screen relative to the reference visual acuity distance; Setting an enlargement or reduction ratio of the target on the basis of the calculated ratio; Enlarging or reducing a target according to an enlargement or reduction ratio of the set target and projecting the target on the screen; And recognizing the voice of the user, determining whether the target projected on the screen is correct, and performing visual acuity measurement.
본 발명에 따른 로봇은, 사용자와 스크린 간의 거리와 기준 시력측정 거리의 비율을 토대로 시표의 크기를 결정하고 스크린에 시표를 출력한 후, 사용자의 음성을 인식하여 정답 여부를 판정하여 사용자의 시력을 측정함으로써, 장소와 구애받지 않고 더욱 편리하고 사용자의 시력을 측정할 수 있는 장점이 있다. The robot according to the present invention determines the size of the target based on the ratio of the distance between the user and the screen and the reference visual acuity distance and outputs the target on the screen. Then, the robot recognizes the voice of the user, By measuring, there is an advantage that it is possible to measure the user's visual acuity more conveniently without regard to the place.
또한, 본 발명에 따른 로봇은, 사용자가 시력 측정을 위해 위치해야 하는 장소를 광선 투사를 통해 알려줌으로써, 시력 측정의 정확도를 향상시키는 장점이 있다. In addition, the robot according to the present invention has an advantage of improving the accuracy of visual acuity measurement by informing the user of the place where the user should place for visual acuity measurement through light projection.
게다가, 본 발명에 따른 로봇은, 사용자의 신장과 현 위치에서 측정한 조도를 토대로, 시표의 투사 각도와 투사 밝기를 조정하여 스크린에 시표를 투사함으로써, 시력 측정의 정확도를 더욱 향상시키고 시력 측정시에 발생하는 눈의 피로도를 최소화하는 효과도 있다.In addition, the robot according to the present invention further improves the accuracy of visual acuity measurement by projecting the target on the screen by adjusting the projection angle and projection brightness of the target based on the illuminance measured at the user's elongation and the current position, There is also an effect of minimizing the fatigue of the eyes that occurs in the eyes.
특히, 본 발명에 따른 로봇이 성장 단계에 있는 어린이의 시력을 측정할 경우, 시력 측정할 때에 나타나는 어린이의 거부반응을 해소하고 더불어 시력 측정시에 즐거움을 어린이에게 제공할 수 있는 이점도 있다.Particularly, when the robot according to the present invention measures the visual acuity of the child in the growth stage, there is an advantage that the rejection reaction of the child when the visual acuity is measured can be solved and the pleasure can be provided to the child at the time of measuring the visual acuity.
본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 발명을 실시하기 위한 구체적인 내용과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니 된다.
도 1은 본 발명의 일 실시예에 따른, 사용자의 시력을 측정하는 로봇의 구성을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른, 로봇에서 사용자의 시력 측정을 위한 측정 환경을 세팅하는 방법을 설명하는 흐름도이다.
도 3은 본 발명의 일 실시예에 따른, 로봇에서 스크린에 시표를 투사하여 사용자의 시력을 측정하는 방법을 설명하는 흐름도이다.BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are incorporated in and constitute a part of the specification, illustrate exemplary embodiments of the invention and, together with the description, serve to explain the principles of the invention. And shall not be construed as limited to such matters.
1 is a view showing a configuration of a robot for measuring a user's visual acuity according to an embodiment of the present invention.
2 is a flowchart illustrating a method of setting a measurement environment for a user's visual acuity measurement in a robot according to an embodiment of the present invention.
3 is a flowchart illustrating a method of measuring a visual acuity of a user by projecting a target on a screen in a robot according to an embodiment of the present invention.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일 실시예를 상세히 설명하기로 한다.The foregoing and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, in which: There will be. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
Throughout the specification, when an element is referred to as "comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise. Also, the terms "part,"" module, "and the like, which are described in the specification, refer to a unit for processing at least one function or operation, and may be implemented by hardware or software or a combination of hardware and software.
도 1은 본 발명의 일 실시예에 따른, 사용자의 시력을 측정하는 로봇의 구성을 나타내는 도면이다.1 is a view showing a configuration of a robot for measuring a user's visual acuity according to an embodiment of the present invention.
도 1에 도시된 바와 같이, 본 발명에 따른 로봇(100)은 이동 가능한 로봇 장치로서, 카메라(101), 거리 측정 센서(102), 조도 측정 센서(103), 저장부(104), 구동부(105), 광선 투사부(106), 위치 선정부(107), 배율 설정부(108), 투사 환경 설정부(109), 시표 투사부(110) 및 시력 측정부(111)를 포함한다.1, a
카메라(101)는 피사체를 촬영하는 촬영 수단으로서, 렌즈를 구비하여 피사체를 확대하거나 축소하여 촬영할 수 있다. 또한, 카메라(101)는 좌우로 회동되고, 일정한 화각(angle of view)을 갖는다. 상기 카메라(101)는 로봇(100)의 머리에 탑재될 수 있다.The
거리 측정 센서(102)는 초음파 거리측정 센서, 레이저 거리측정 센서, 적외선 거리측정 센서 등으로서, 로봇(100)에서 특정 위치까지의 거리를 측정하거나 지정된 두 지점의 거리를 측정한다.The
조도 측정 센서(103)는 로봇(100)이 위치한 장소에서의 빛의 밝기를 측정한다.The
저장부(104)는 사용자의 시력 측정 이력과 시력 측정 스케줄을 저장한다. 특히, 저장부(104)는 시력 레벨(0.1 부터 2.0)에 따라 서로 상이한 크기를 가지는 복수의 시표를 시력 레벨별로 저장한다. 저장부(104)는 시표로서, 알파벳, 숫자, 한글, 도형, 란돌트 고리(Landolt's Ring) 등을 저장할 수 있다. 상기 란돌트 고리 시표는 위, 아래, 왼쪽 또는 오른쪽 중에서 어느 하나가 뚫린 'C'자 모양의 시표로서, 시력 측정시에 이용되는 시표 중에 하나이다.The
구동부(105)는 바퀴 등과 같은 이동 수단을 구비하고, 위치 선정부(107) 또는 다른 구성요소의 요청에 따라 로봇(100)을 이동시킨다.The
광선 투사부(106)는 지정된 위치로 레이저 등과 같은 광선을 투사하는 기능을 수행한다. 구체적으로, 광선 투사부(106)는 위치 선정부(107)의 제어를 받아 시력 측정위치로 광선을 투사하여, 사용자가 광선이 투사된 위치로 이동되도록 유도하는 위치 포인터(pointer)의 기능을 수행한다.The
위치 선정부(107)는 스크린 위치, 로봇(100)의 투사 위치 및 사용자의 시력 측정위치를 선정하는 기능을 수행한다. 구체적으로, 위치 선정부(107)는 사용자로부터 시력 측정 요청신호를 수신하거나 저장부(104)의 시력 측정 스케줄에 따라 시력 측정 시기가 도래하면, 카메라(101)를 이용하여 현 위치에서의 공간 구조를 스캐닝하여 현 위치 주변의 벽면을 인식한 후, 특정 벽면을 스크린으로 선정한다. 게다가, 위치 선정부(107)는 거리 측정 센서(102)를 이용하여 상기 선정한 스크린과의 일정 거리(예컨대, 2m)만큼 이격된 위치를 확인하여, 이 위치를 로봇(100)이 이동할 이동 위치로 선정하고, 구동부(105)를 제어하여 상기 선정된 이동 위치로 로봇(100)을 이동시킨다.The
한편, 위치 선정부(107)는 거리측정 센서(102)를 이용하여 상기 선정한 스크린에서 일정 거리만큼 이격된 위치를 사용자의 시력측정 위치를 결정한 후, 광선 투사부(106)를 이용하여 상기 결정된 시력측정 위치로 광선(예컨대, 레이저)을 투사하고, 더불어 투사 지점에 사용자가 위치함을 요구하는 음성 메시지를 스피커(도면에 도시되지 않음)로 출력한다. 바람직하게, 위치 선정부(107)는 거리측정 센서(102)를 이용하여 상기 선정한 스크린에서부터 기준 시력측정 거리(예컨대, 5m)만큼의 이격 거리가 확보될 수 있는지 여부를 판별하여, 확보될 수 있으면 상기 스크린에서부터 기준 시력측정 거리(예컨대, 5m)만큼 이격된 위치를 사용자의 시력측정 위치로 결정한다. 반면에, 위치 선정부(107)는 상기 판별결과 스크린에서부터 기준 시력측정 거리만큼의 이격 거리가 확보되지 않으면, 상기 스크린과 이격 가능한 최대 거리를 사용자의 시력측정 위치로 결정하거나, 사전에 설정된 이격 거리(예컨대, 3m)를 사용자의 시력측정 위치로 결정할 수 있다.On the other hand, the
배율 설정부(108)는 기준 시력측정 거리(예컨대, 5m) 대비 사용자와 스크린 간의 거리의 비율을 토대로, 시표의 배율을 설정한다. 구체적으로서, 배율 설정부(108)는 사용자가 광선 투사 지점(즉, 시력측정 위치)에 위치하면, 거리 측정 센서(102)를 이용하여 사용자와 스크린까지의 거리를 측정하고, 기준 시력측정 거리(예컨대, 5m)에 대비하여 상기 측정한 사용자와 스크린까지의 거리의 비율을 산출한다. 게다가, 배율 설정부(108)는 상기 산출한 비율에 근거하여, 스크린에 투사되는 시표의 확대 또는 축소 배율을 설정한다. 이때, 배율 설정부(108)는 사용자와 스크린 간의 거리가 기준 시력측정 거리와 동일하면 시표의 배율을 변경시키지 않고, 사용자와 스크린 간의 거리가 기준 시력측정 거리보다 짧으면 시표 크기가 작아지도록 시표의 축소 배율을 설정하며, 또한 사용자와 스크린 간의 거리가 기준 시력측정 거리보다 길면 시표 크기가 커지도록 시표의 확대 배율을 설정한다. The
투사 환경 설정부(109)는 시표 투사부(110)의 투사 밝기와 투사 각도를 설정하는 기능을 수행한다. 즉, 투사 환경 설정부(109)는 조도 측정 센서(103)를 이용하여 현 위치에서의 조도를 측정하여 이 조도가 기준치(예컨대, 200 룩스)에 미달되는 경우, 시표 투사부(110)의 투사 밝기를 증가시킨다. The projection
또한, 투사 환경 설정부(109)는 사용자의 신장을 확인하고, 이 신장을 토대로 시표 투사부(110)의 투사 각도를 조정한다. 즉, 투사 환경 설정부(109)는 사용자의 신장에 비례하여, 시표 투사부(110)의 투사 각도가 좀 더 위쪽으로 향하도록 시표 투사부(110)의 투사 각도를 조정한다. 부연하면, 투사 환경 설정부(109)는 사용자의 눈높이와 스크린에 투사되는 시표가 평행이 되도록 하기 위하여, 상기 사용자의 신장에 비례하여 시표가 스크린에 위쪽에 투사되도록 시표 투사부(110)의 투사 각도를 위 방향으로 상향 조정한다. 투사 환경 설정부(109)는 사용자로부터 사전에 입력받아 저장한 신장 데이터에 근거하여 사용자의 신장을 확인할 수 있으며, 또한 카메라(101)를 이용하여 사용자의 전체 이미지를 촬영하고 이 촬영된 사용자의 전체 이미지를 분석하여 사용자의 신장을 측정할 수도 있다.In addition, the
시표 투사부(110)는 스크린에 영상 또는 이미지를 투사하는 기능을 수행한다. 특히, 시표 투사부(110)는 투사 환경 설정부(109)의 제어에 따라, 투사 각도와 투사 밝기가 조정된다. The
시력 측정부(111)는 시력 측정을 위한 세팅이 완료되면, 시표 투사부(110)를 이용하여 스크린으로 선정된 벽면으로 시표를 투사하고, 사용자의 음성 또는 동작을 인식하여 투사한 시표의 정답 여부를 판정함으로써, 사용자의 시력을 측정한다. 이때, 시력 측정부(111)는 배율 설정부(108)에서 설정한 시표 확대 또는 축소 배율에 따라, 각 시표의 크기를 조절하고, 이렇게 조절한 시표를 시표 투사부(110)를 이용하여 스크린으로 선정된 벽면으로 투사한다.When the setting for visual acuity measurement is completed, the visual
시력 측정부(111)는 자체적으로 포함하고 있는 음성인식 모듈(111a)을 이용하여 사용자 발화한 음성을 인식하여, 투사중인 시표의 정답 여부를 판정한다. 구체적으로, 시력 측정부(111)는 알파벳, 숫자 또는 한글을 스크린으로 투사한 경우, 음성인식 모듈(111a)을 통해 인식한 사용자의 음성과 투사중인 알파벳, 숫자 또는 한글이 일치하는지 여부를 확인함으로써, 시표의 정답 여부를 판정한다. 한편, 시력 측정부(111)는 란돌트 고리(Landolt's Ring) 시표를 투사중인 경우, 카메라(101)를 이용하여 사용자의 동작(즉, 가리키는 방향)을 영상 분석하고, 사용자가 손 또는 팔로 가리키는 방향과 란돌트 고리 시표가 뚫린 방향이 일치하는 여부를 확인함으로써, 투사중인 시표의 정답 여부를 판정할 수도 있다.The visual
바람직하게, 시력 측정부(111)는 시표를 투사하기 전에, 사용자의 한쪽 눈을 가리는 것을 요청하는 음성 멘트를 스피커로 출력한 후, 카메라(101)를 통해 획득된 영상을 분석하여 사용자의 한쪽 눈이 가려졌는지 여부를 판별하여 한쪽 눈이 가려진 경우, 시표 투사부(110)를 이용하여 시표를 스크린으로 투사한다. Preferably, the visual
한편, 시력 측정부(111)는 시력 측정이 완료되면, 두 눈에 대한 시력 측정결과와 현재 날짜를 저장부(104)의 시력 측정 이력에 기록한다. On the other hand, when the visual acuity measurement is completed, the visual
도 2는 본 발명의 일 실시예에 따른, 로봇에서 사용자의 시력 측정을 위한 측정 환경을 세팅하는 방법을 설명하는 흐름도이다.2 is a flowchart illustrating a method of setting a measurement environment for a user's visual acuity measurement in a robot according to an embodiment of the present invention.
도 2를 참조하면, 로봇(100)은 사용자로부터 시력 측정 요청신호를 수신한다(S201). 이때, 로봇(100)은 사전에 구현된 메뉴 트리를 통하여 사용자로부터 시력 측정 요청신호를 수신할 수 있으며, 또는 사용자가 발성한 음성을 인식하여 시력 측정 요청신호를 수신할 수 있다. 또한, 로봇(100)은 저장부(104)에 저장된 시력 측정 스케줄에 따라, 사용자의 시력 측정 시기가 도래한 경우에 시력 측정 요청신호가 사용자로부터 수신된 것으로 판단할 수도 있다. Referring to FIG. 2, the
다음으로, 로봇(100)의 위치 선정부(107)는 현 위치에서의 공간 구조를 스캐닝한다(S203). 이때, 위치 선정부(107)는 로봇(100)을 360°회전시키거나 카메라(101)를 회전시켜, 카메라(101)에서 촬영한 주변 영상을 획득하고, 이 주변 영상을 분석하여 현재 위치한 공간에서 벽면이 존재하는지 여부를 확인함으로써, 현 위치에서의 공간 구조를 스캐닝한다.Next, the
다음으로, 위치 선정부(107)는 현재 위치한 공간에서 일정 면적 이상의 크기를 가지는 벽면이 존재하는지 여부를 확인하여 존재하지 않으면, 시력 측정이 불가능함을 알리는 음성 메시지를 스피커로 출력한다. 반면에, 위치 선정부(107)는 현재 위치한 공간에서 일정 면적 이상의 크기를 가지는 하나 이상의 벽면이 존재하면, 특정 벽면을 시표가 투사되는 스크린으로 선정한다(S205). 바람직하게, 위치 선정부(107)는 현재 위치한 공간에서 일정 크기 이상의 면적을 가지는 복수의 벽면이 존재한 경우, 수집한 영상을 분석하여 로봇(100)이 벽면으로 이동할 때에 장애물이 가장 적은 벽면을 스크린으로 선정한다.Next, the
이어서, 위치 선정부(107)는 거리 측정 센서(102)를 이용하여 상기 선정한 스크린과의 일정 거리(예컨대, 2m)만큼 이격된 위치를 확인하여, 이 위치를 로봇(100)이 이동할 이동위치로 선정하고, 구동부(105)를 제어하여 상기 선정된 이동위치로 로봇(100)을 이동시킨다(S207).Next, the
다음으로, 위치 선정부(107)는 거리측정 센서(102)를 이용하여 상기 선정한 스크린에서 특정 거리만큼 이격된 위치를 사용자의 시력측정 위치를 결정한다(S209). 바람직하게, 위치 선정부(107)는 거리측정 센서(102)를 이용하여 상기 선정한 스크린에서부터 기준 시력측정 거리(예컨대, 5m)만큼의 이격 거리가 확보될 수 있는지 여부를 판별하여, 확보될 수 있으면 상기 스크린에서부터 기준 시력측정 거리(예컨대, 5m)만큼 이격된 위치를 사용자의 시력측정 위치로 결정한다. 반면에, 위치 선정부(107)는 상기 판별결과 스크린에서부터 기준 시력측정 거리만큼의 이격 거리가 확보되지 않으면, 상기 스크린과 이격 가능한 최대 거리 또는 사전에 설정된 스크린과의 이격 거리(예컨대, 3m)를 사용자의 시력측정 위치로 결정할 수 있다.Next, the
이어서, 위치 선정부(107)는 광선 투사부(106)를 이용하여 상기 결정된 시력측정 위치로 광선(예컨대, 레이저)을 투사하고(S211), 더불어 광선 투사 지점으로의 이동을 요구하는 음성 메시지를 스피커로 출력하여, 사용자가 상기 광선 투사 지점에 이동하도록 유도한다.Next, the
이렇게 사용자가 광선 투사 지점에 위치하면, 배율 설정부(108)는 거리 측정 센서(102)를 이용하여 사용자와 스크린까지의 거리를 측정한다(S213). 그리고 배율 설정부(108)는 사전에 설정된 기준 시력측정 거리(예컨대, 5m)에 대비하여 상기 측정한 사용자와 스크린까지의 거리의 비율을 산출한다(S215). 이어서, 배율 설정부(108)는 상기 산출한 비율에 근거하여, 스크린에 투사되는 시표의 확대 또는 축소 배율을 설정한다(S217). 구체적으로, 배율 설정부(108)는 사용자와 스크린 간의 거리가 기준 시력측정 거리와 동일하면 시표 크기의 축소 또는 확대 배율을 변경시키지 않고 오리지널 배율을 유지하고, 사용자와 스크린 간의 거리가 기준 시력측정 거리보다 짧으면 시표 크기가 작아지도록 시표 크기의 축소 배율을 설정하며, 또한 사용자와 스크린 간의 거리가 기준 시력측정 거리보다 길면 시표 크기가 커지도록 시표 크기의 확대 배율을 설정한다. 바람직하게, 배율 설정부(108)는 S215 단계에서 산출한 비율에 비례하여 시표가 확대되거나 축소되는 배율을 설정한다. When the user is located at the light ray projection point, the
여기서, 확대 배율이 설정되는 원인은, 사용자가 광선 투사 지점으로 정확하게 이동하지 않는 경우일 수 있다. 구체적으로, 위치 선정부(107)는 스크린에서부터 기준 시력측정 거리(예컨대, 5m)만큼의 이격 거리가 확보된 것으로 확인되어, 이 기준 시력측정 거리에 해당하는 위치를 광선으로 투사하여 사용자의 이동을 유도하였으나, 사용자가 광선 투사 지점에 정확하게 이동하지 않은 경우, 사용자와 스크린 간의 거리가 상기 기준 시력측정 거리를 초과할 수 있다. 이와 같은 경우에, 배율 설정부(108)는 사용자와 스크린 간의 거리가 기준 시력측정 거리보다 긴 것을 확인하여, 시표 크기가 커지도록 시표의 확대 배율을 설정한다.Here, the reason why the magnification is set may be the case where the user does not move accurately to the light projection point. Specifically, it is confirmed that the distance to the reference visual acuity measuring distance (for example, 5 m) is ensured from the screen, and the
시표의 확대 또는 축소 배율의 설정이 완료되면, 배율 설정부(108)는 상기 설정한 시표의 확대 배율 또는 축소 배율을 시력 측정부(111)로 전달하고, 더불어 투사 환경 설정부(109)로 투사 환경의 세팅을 요청한다.When the enlargement or reduction magnification of the target is completed, the
그러면, 투사 환경 설정부(109)는 조도 측정 센서(103)를 이용하여 현 위치에서의 조도를 측정한다(S219). 그리고 투사 환경 설정부(109)는 상기 측정한 조도가 기준치(예컨대, 200 룩스) 이상인지 여부를 판별한다(S221). 다음으로, 투사 환경 설정부(109)는 상기 판별 결과 측정한 조도가 기준치 미만이면, 시표 투사부(110)의 투사 밝기를 증가시킨다(S223). 바람직하게, 투사 환경 설정부(109)는 상기 측정한 조도가 기준치에 미달된 수치에 비례하여 시표 투사부(110)의 투사 밝기를 증가시킨다. 예컨대, 투사 환경 설정부(109)는 조도가 기준에 1룩스 미달되는 만큼, 시표 투사부(110)의 투사 밝기를 1씩 증가시킬 수 있다.Then, the projection
다음으로, 투사 환경 설정부(109)는 사용자의 신장을 확인한다(S225). 이때, 투사 환경 설정부(109)는 사용자로부터 사전에 입력받아 저장한 신장 데이터에 근거하여 사용자의 신장을 확인할 수 있다. 또한, 카메라(101)를 이용하여 사용자의 전체 이미지를 촬영하고 이 촬영된 사용자의 전체 이미지를 분석하여 사용자의 신장을 측정할 수도 있다. 이 경우, 투사 환경 설정부(109)는 카메라(101)를 이용하여 사용자의 전체 이미지를 촬영하고, 사용자의 머리 끝이 위치한 지점을 상기 이미지 분석을 통해 인식한다. 그리고 투사 환경 설정부(109)는 상기 이미지의 전체 높이와 사용자의 머리 높이의 비율을 산출하고, 이 산출한 비율에 근거하여 사용자의 신장을 측정할 수 있다. 바람직하게, 투사 환경 설정부(109)는 거리 측정 센서(102)를 이용하여 사용자와 로봇(100) 간의 거리를 측정하고, 이 측정한 거리에 근거하여 상기 카메라(101)의 배율을 확대하거나 축소한 후 사용자의 전체 이미지를 촬영한다. 예컨대, 투사 환경 설정부(109)는 사용자와 로봇(100) 간의 거리가 2m인 경우, 카메라(101)의 배율을 오리지널 배율로 유지하여 사용자를 촬영하고, 사용자와 로봇(100) 간의 거리가 2m를 벗어난 경우, 이 벗어난 길이에 비례하여 카메라(101)의 배율을 확대하거나 축소한다.Next, the projection
이어서, 투사 환경 설정부(109)는 상기 확인한 사용자의 신장을 토대로, 시표 투사부(110)의 투사 각도를 조절한다(S227). 즉, 투사 환경 설정부(109)는 측정한 사용자의 신장에 비례하여, 시표 투사부(110)의 투사 각도가 더욱 위쪽으로 향하도록 시표 투사부(110)의 투사 각도를 조절한다. 부연하면, 투사 환경 설정부(109)는 사용자의 눈높이와 스크린에 투사되는 시표가 평행이 되도록 하기 위하여, 상기 사용자의 신장에 비례하여 시표가 스크린에 더욱 위쪽으로 투사되도록 시표 투사부(110)의 투사 각도를 위 방향으로 상향 조절한다. 예컨대, 투사 환경 설정부(109)는 사용자의 신장이 80cm를 초과한 경우, 초과된 5cm의 신장만큼 시표 투사부(110)의 투사 각도를 0.1°씩 위방향으로 상향 조절할 수 있다.Subsequently, the
도 2의 순서에 따라 시력 측정을 위한 세팅이 완료되면, 로봇(100)은 스크린으로 선정된 벽면으로 시표를 투사하여 사용자의 시력을 측정한다.When the setting for visual acuity measurement is completed according to the procedure of FIG. 2, the
도 3은 본 발명의 일 실시예에 따른, 로봇에서 스크린에 시표를 투사하여 사용자의 시력을 측정하는 방법을 설명하는 흐름도이다.3 is a flowchart illustrating a method of measuring a visual acuity of a user by projecting a target on a screen in a robot according to an embodiment of the present invention.
도 3을 참조하면, 시력 측정부(111)는 도 2와 같이 시력 측정을 위한 세팅이 완료되면, 시력 측정 개시를 알리는 음성 메시지를 스피커로 출력한다(S301). 이때, 시력 측정부(111)는 오른쪽 눈을 가리는 것을 요청하는 음성 멘트를 스피커로 추가적으로 출력한다.Referring to FIG. 3, the visual
시력 측정부(111)는 카메라(101)를 통해 사용자의 영상을 획득하고, 이렇게 획득된 영상을 분석하여 사용자의 오른쪽 눈이 가려졌는지 여부를 판별한다(S303). 이때, 시력 측정부(111)는 카메라(101)를 통해 촬영된 영상에서 사용자의 얼굴을 확대하고, 이 확대된 얼굴을 토대로 사용자의 양쪽 안구 중에서, 왼쪽 안구만이 인식되는지 여부를 확인함으로써, 사용자의 오른쪽 눈이 가려졌는지 여부를 판별할 수 있다.The visual
시력 측정부(111)는 사용자가 오른쪽 눈을 가리지 않은 경우, 오른쪽 눈을 가리는 것을 요청하는 음성 안내 메시지를 스피커로 다시 출력하여 사용자가 오른쪽 눈을 스스로 가리도록 유도한다(S315).If the user does not cover the right eye, the visual
반면에, 시력 측정부(111)는 상기 판별결과, 사용자가 오른쪽 눈이 가린 것으로 판별되면, 저장부(104)에서 저장된 첫 레벨(즉, 시력 0.1 레벨)에 해당하는 복수의 시표 중에서 어느 하나를 추출한다. 그리고 시력 측정부(111)는 배율 설정부(108)로부터 전달받은 시표의 확대 배율 또는 축소 배율에 따라, 상기 추출한 시표의 크기를 확대하거나 축소하고, 이렇게 축소 또는 확대된 시표를 시표 투사부(110)를 이용하여 스크린으로 선정된 벽면으로 투사한다(S305). 이때, 시표 투사부(110)는 투사 환경 설정부(109)에 의해 설정받은 투사 밝기값과 투사 각도를 적용하여 상기 시표를 벽면에 투사한다.On the other hand, if it is determined that the user is blinded with the right eye as a result of the determination, the visual
다음으로, 시력 측정부(111)는 음성인식 모듈(111a)을 활성화하고 이 음성인식 모듈(111a)을 이용하여 사용자가 응답한 음성을 인식한다(S307). 이어서, 시력 측정부(111)는 인식된 사용자의 음성이 투사중인 시표에 대한 정답인지 여부를 판정한다(S309). 구체적으로, 시력 측정부(111)는 투사중인 알파벳, 숫자 또는 한글이 사용자가 발화한 음성과 일치하는지 여부를 확인함으로써, 투사중인 시표에 대한 정답 여부를 판정한다. 또는, 시력 측정부(111)는 오른쪽, 왼쪽, 위쪽, 아래쪽 중에서 어느 하나가 뚫린 란돌트 고리 시표가 투사된 경우, 사용자가 발화한 방향과 란돌트 고리 시표가 뚫린 방향이 일치하는 여부를 확인함으로써, 투사중인 시표의 정답을 판정할 수 있다. 한편, 시력 측정부(111)는 란돌트 고리 시표가 투사된 경우에, 카메라(101)를 이용하여 사용자의 동작을 영상 인식한 후, 사용자가 손 또는 팔로 가리키는 방향과 란돌트 고리 시표가 뚫린 방향이 일치하는 여부를 확인함으로써, 투사중인 시표의 정답 여부를 판정할 수도 있다. Next, the visual
이어서, 시력 측정부(111)는 상기 판정 결과 사용자가 정답을 맞힌 것으로 확인되면, 상기 투사중인 시표가 마지막 레벨(시력 2.0 레벨)에 해당하는 시표인지 여부를 확인하여(S311), 마지막 레벨에 해당하는 시표이면 현재까지 정답으로 확인된 레벨에 해당하는 시력 측정결과(즉, 2.0), 눈 위치정보(즉, 왼쪽 눈) 및 현재 날짜가 기록된 시력 측정 결과를 저장부(104)의 시력 측정 이력에 기록한다(S313). Then, if it is confirmed that the user has answered the correct answer, the visual
반면에, 시력 측정부(111)는 시표 투사부(110)를 통해 투사중인 시표가 마지막 레벨에 해당하는 시표가 아니면 투사 중인 시표 레벨 다음 단계에 해당하는 시표를 저장부(104)에서 추출한다(S317). 이어서, 시력 측정부(111)는 배율 설정부(108)로부터 전달받은 시표의 확대 배율 또는 축소 배율을 토대로, 상기 추출한 다음 레벨에 해당하는 시표의 크기를 확대하거나 축소하고, 이렇게 축소 또는 확대된 시표를 시표 투사부(110)를 이용하여 스크린으로 선정된 벽면으로 투사한 후, S307 단계 이후를 반복한다.On the other hand, if the target being projected through the
한편, 시력 측정부(111)는 S307 단계의 판정 결과 사용자가 정답을 맞히지 못하면, 바로 직전에 정답으로 확인된 레벨의 시력 측정결과, 눈 위치정보 및 현재 날짜가 기록된 시력 측정 결과를 저장부(104)의 시력 측정 이력에 저장한다. 예컨대, 시력 측정부(111)는 시력 1.5 레벨에서 오답이 인식된 경우, 바로 직전에 정답으로 확인된 시력 1.2레벨을 시력 측정 결과로서 저장한다.On the other hand, if the user does not receive the correct answer at step S307, the visual
도 3의 절차에 따라, 왼쪽 눈의 시력 측정이 완료되면, 시력 측정부(111)는 S301 단계를 재진행하여 오른쪽 눈의 시력을 측정한다. 구체적으로, 시력 측정부(111)는 오른쪽 눈의 시력 측정 개시를 알리는 음성 메시지를 스피커로 출력하고, 사용자의 얼굴을 확대하여 왼쪽 눈이 가려졌는지 여부를 판별한다. 그리고 시력 측정부(111)는 사용자의 이미지를 촬영하고 분석하여 사용자의 왼쪽 눈이 가려진 것으로 판별되면, 처음 레벨의 시표를 시표 투사부(110)를 통해 스크린으로 선정된 벽면에 투사하여 사용자의 오른쪽 눈의 시력을 측정하는 S305 단계를 진행한다.According to the procedure of FIG. 3, when the visual acuity measurement of the left eye is completed, the visual
상술한 바와 같이, 본 발명에 따른 로봇(100)은, 사용자와 스크린 간의 거리와 기준 시력측정 거리의 비율을 토대로 시표의 크기를 결정하여 스크린에 시표를 출력한 후, 사용자의 음성을 인식하여 정답 여부를 판정하여 사용자의 시력을 측정한다. 게다가, 본 발명에 따른 로봇(100)은 사용자가 시력 측정을 위해 위치해야 하는 장소를 광선 투사를 통해 알려줌으로써 시력 측정의 정확도를 향상시킨다. 또한, 본 발명에 따른 로봇(100)은 사용자의 신장과 현 위치에서 측정된 조도를 토대로, 시표의 투사 각도와 투사 밝기를 조절하여 스크린에 시표를 투사함으로써, 시력 측정의 정확도를 향상시키고 시력 측정시에 발생하는 눈의 피로도를 최소화한다.As described above, the
본 명세서는 많은 특징을 포함하는 반면, 그러한 특징은 본 발명의 범위 또는 특허청구범위를 제한하는 것으로 해석되어서는 안 된다. 또한, 본 명세서에서 개별적인 실시예에서 설명된 특징들은 단일 실시예에서 결합되어 구현될 수 있다. 반대로, 본 명세서에서 단일 실시예에서 설명된 다양한 특징들은 개별적으로 다양한 실시예에서 구현되거나, 적절히 결합되어 구현될 수 있다.While the specification contains many features, such features should not be construed as limiting the scope of the invention or the scope of the claims. In addition, the features described in the individual embodiments herein may be combined and implemented in a single embodiment. Conversely, various features described in the singular < Desc / Clms Page number 5 > embodiments herein may be implemented in various embodiments individually or in combination as appropriate.
도면에서 동작들이 특정한 순서로 설명되었으나, 그러한 동작들이 도시된 바와 같은 특정한 순서로 수행되는 것으로, 또는 일련의 연속된 순서, 또는 원하는 결과를 얻기 위해 모든 설명된 동작이 수행되는 것으로 이해되어서는 안 된다. 특정 환경에서 멀티태스킹 및 병렬 프로세싱이 유리할 수 있다. 아울러, 상술한 실시예에서 다양한 시스템 구성요소의 구분은 모든 실시예에서 그러한 구분을 요구하지 않는 것으로 이해되어야 한다. 상술한 프로그램 구성요소 및 시스템은 일반적으로 단일 소프트웨어 제품 또는 멀티플 소프트웨어 제품에 패키지로 구현될 수 있다.Although the operations have been described in a particular order in the figures, it should be understood that such operations are performed in a particular order as shown, or that all described operations are performed to obtain a sequence of sequential orders, or a desired result . In certain circumstances, multitasking and parallel processing may be advantageous. It should also be understood that the division of various system components in the above embodiments does not require such distinction in all embodiments. The above-described program components and systems can generally be implemented as a single software product or as a package in multiple software products.
상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(시디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다. 이러한 과정은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있으므로 더 이상 상세히 설명하지 않기로 한다.The method of the present invention as described above can be implemented by a program and stored in a computer-readable recording medium (CD-ROM, RAM, ROM, floppy disk, hard disk, magneto optical disk, etc.). Such a process can be easily carried out by those skilled in the art and will not be described in detail.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention. The present invention is not limited to the drawings.
100 : 로봇 101 : 카메라
102 : 거리 측정 센서 103 : 조도 측정 센서
104 : 저장부 105 : 구동부
106 : 광선 투사부 107 : 위치 선정부
108 : 배율 설정부 109 : 투사 환경 설정부
110 : 시표 투사부 111 : 시력 측정부
111a : 음성인식 모듈100: robot 101: camera
102: distance measuring sensor 103: illuminance measuring sensor
104: storage unit 105:
106: light projection part 107: position selection part
108: Magnification setting section 109: Projection environment setting section
110: target projection unit 111: visual acuity measuring unit
111a: voice recognition module
Claims (14)
상기 사용자와 스크린 간의 거리를 측정하는 거리 측정 센서;
기준 시력측정 거리에 대비하여 상기 측정한 사용자와 스크린 간의 거리의 비율을 산출하고, 상기 산출한 비율을 토대로 시표의 확대 또는 축소 배율을 설정하는 배율 설정부;
상기 설정된 시표의 확대 또는 축소 배율에 따라 확대되거나 축소된 시표를 상기 스크린에 투사하는 시표 투사부;
상기 사용자의 음성 인식을 통해, 상기 투사중인 시표의 정답 여부를 판정하여 상기 사용자의 시력 측정을 수행하는 시력 측정부;
광선 투사부; 및
상기 사용자의 시력측정 위치를 결정하고 상기 광선 투사부를 이용하여 상기 결정한 시력측정 위치로 광선을 투사하고, 상기 광선을 투사한 지점으로 상기 사용자의 이동을 지시하는 메시지를 출력하는 위치 선정부;를 포함하는 로봇.1. A robot for measuring a visual acuity of a user,
A distance measuring sensor for measuring a distance between the user and the screen;
A magnification setting unit for calculating a ratio of the distance between the user and the screen measured against the reference visual acuity distance and setting an enlargement or reduction magnification of the target based on the calculated ratio;
A target projecting unit for projecting an enlarged or reduced target on the screen according to an enlargement or reduction ratio of the set target;
A visual acuity measuring unit for determining whether an answer to the projected target is correct through voice recognition of the user and performing visual acuity measurement of the user;
A light projection part; And
And a position selecting unit for determining a visual acuity measurement position of the user and projecting a light ray to the determined visual acuity measuring position using the light ray projecting unit and outputting a message instructing movement of the user to a point where the light ray is projected Robot.
상기 위치 선정부는,
카메라를 통해 시력 측정 공간을 스캐닝하여 시력 측정 공간의 이미지를 획득하고, 이 획득한 이미지를 분석하여 인식된 벽면을 상기 스크린으로 선정하여, 상기 스크린과 일정 거리로 이격되는 위치로 상기 이동 로봇을 이동시키는 것을 특징으로 하는 로봇.The method according to claim 1,
Wherein the position-
The image of the visual acuity measurement space is acquired by scanning the visual acuity measurement space through the camera, and the recognized wall is selected as the screen by analyzing the acquired image to move the mobile robot to a position spaced apart from the screen by a certain distance, .
사용자의 신장을 확인하고, 이 사용자의 신장에 근거하여 상기 시표 투사부의 투사 각도를 조정하는 투사환경 설정부;를 더 포함하는 것을 특징으로 하는 로봇.4. The method according to any one of claims 1 to 3,
And a projection environment setting unit for checking the height of the user and adjusting the projection angle of the target projection unit based on the height of the user.
조도를 측정하는 조도 측정 센서;를 더 포함하고,
상기 투사환경 설정부는,
상기 측정한 조도가 기준치 이상인지 여부를 확인하여 상기 조도가 기준치 미만이면, 상기 시표 투사부의 투사 밝기를 증가시키는 것을 특징으로 하는 로봇.5. The method of claim 4,
And an illuminance measurement sensor for measuring the illuminance,
Wherein the projection-
Wherein the controller determines whether the measured illuminance is equal to or greater than a reference value and increases the projection brightness of the target projecting portion when the illuminance is less than the reference value.
상기 사용자와 스크린 간의 거리를 측정하는 거리 측정 센서;
기준 시력측정 거리에 대비하여 상기 측정한 사용자와 스크린 간의 거리의 비율을 산출하고, 상기 산출한 비율을 토대로 시표의 확대 또는 축소 배율을 설정하는 배율 설정부;
상기 설정된 시표의 확대 또는 축소 배율에 따라 확대되거나 축소된 시표를 상기 스크린에 투사하는 시표 투사부; 및
상기 사용자의 음성 인식을 통해, 상기 투사중인 시표의 정답 여부를 판정하여 상기 사용자의 시력 측정을 수행하는 시력 측정부를 포함하고,
상기 시력 측정부는,
한쪽 눈의 가림을 요구하는 메시지를 출력한 후, 상기 사용자의 얼굴을 촬영하고 이 촬영한 얼굴을 분석하여 사용자의 눈이 가려졌는지 여부를 판별하고, 이 판별 결과 사용자의 한쪽 눈이 가려진 경우에 상기 사용자의 시력 측정을 개시하는 것을 특징으로 하는 로봇.1. A robot for measuring a visual acuity of a user,
A distance measuring sensor for measuring a distance between the user and the screen;
A magnification setting unit configured to calculate a ratio of the distance between the user and the screen measured against the reference visual acuity distance and to set an enlargement or reduction magnification of the target based on the calculated ratio;
A target projecting unit for projecting an enlarged or reduced target on the screen according to an enlargement or reduction ratio of the set target; And
And a visual acuity measuring unit for determining whether or not an answer to the projected target is correct through voice recognition of the user and performing visual acuity measurement of the user,
The visual-
After a message requesting blindness of one eye is output, the face of the user is photographed and the photographed face is analyzed to determine whether or not the user's eyes are blinded. When the user's eyes are blinded, And starts the visual acuity measurement of the user.
상기 사용자와 스크린 간의 거리를 측정하는 거리 측정 센서;
기준 시력측정 거리에 대비하여 상기 측정한 사용자와 스크린 간의 거리의 비율을 산출하고, 상기 산출한 비율을 토대로 시표의 확대 또는 축소 배율을 설정하는 배율 설정부;
상기 설정된 시표의 확대 또는 축소 배율에 따라 확대되거나 축소된 시표를 상기 스크린에 투사하는 시표 투사부; 및
상기 사용자의 음성 인식을 통해, 상기 투사중인 시표의 정답 여부를 판정하여 상기 사용자의 시력 측정을 수행하는 시력 측정부를 포함하고,
상기 시력 측정부는,
상기 시표 투사부에서 란돌트 고리 시표가 투사되면, 카메라를 이용하여 상기 사용자의 동작을 영상 인식하여, 사용자가 손 또는 팔로 가리키는 방향과 투사중인 란돌트 고리 시표의 뚫린 방향이 일치하는지 여부를 통해 시표의 정답 여부를 판정하는 것을 특징으로 하는 로봇.1. A robot for measuring a visual acuity of a user,
A distance measuring sensor for measuring a distance between the user and the screen;
A magnification setting unit for calculating a ratio of the distance between the user and the screen measured against the reference visual acuity distance and setting an enlargement or reduction magnification of the target based on the calculated ratio;
A target projecting unit for projecting an enlarged or reduced target on the screen according to an enlargement or reduction ratio of the set target; And
And a visual acuity measuring unit for determining whether or not an answer to the projected target is correct through voice recognition of the user and performing visual acuity measurement of the user,
The visual-
When the ruled-ring index is projected from the target projecting unit, the operation of the user is recognized by using a camera, and whether or not the direction of the user's hand or arm is coincident with the opened direction of the projected random- And determines whether or not the right answer is obtained.
상기 시력 측정부는,
상기 사용자의 시력 측정이 완료되면, 상기 사용자의 시력 측정 결과를 저장하는 것을 특징으로 하는 로봇.4. The method according to any one of claims 1 to 3,
The visual-
And stores the visual acuity measurement result of the user when the visual acuity measurement of the user is completed.
상기 사용자와 스크린 간의 거리를 측정하는 단계;
기준 시력측정 거리에 대비하여 상기 측정한 사용자와 스크린 간의 거리의 비율을 산출하는 단계;
상기 산출한 비율을 토대로, 시표의 확대 또는 축소 배율을 설정하는 단계;
상기 설정한 시표의 확대 또는 축소 배율에 따라 시표를 확대하거나 축소하여 상기 스크린에 투사하는 단계; 및
상기 사용자의 음성을 인식하여, 상기 스크린에 투사한 시표의 정답 여부를 판정하여 시력 측정을 수행하는 단계;를 포함하고,
상기 측정하는 단계 이전에,
상기 사용자의 시력측정 위치를 결정하고, 이 결정한 시력측정 위치로 광선을 투사하는 단계; 및
상기 광선을 투사한 시력측정 위치로 상기 사용자의 이동을 지시하는 메시지를 출력하는 단계;를 더 포함하는 로봇에서의 시력 측정 방법.A method for measuring a user's visual acuity in a robot,
Measuring a distance between the user and the screen;
Calculating a ratio of the measured distance between the user and the screen relative to the reference visual acuity distance;
Setting an enlargement or reduction ratio of the target on the basis of the calculated ratio;
Enlarging or reducing a target according to an enlargement or reduction ratio of the set target and projecting the target on the screen; And
Recognizing the voice of the user and determining whether or not the target projected on the screen is correct, and performing visual acuity measurement;
Before the measuring step,
Determining a visual acuity measurement position of the user and projecting a light beam to the determined visual acuity measurement position; And
And outputting a message instructing movement of the user to a visual acuity measurement position where the light beam is projected.
상기 사용자와 스크린 간의 거리를 측정하는 단계;
기준 시력측정 거리에 대비하여 상기 측정한 사용자와 스크린 간의 거리의 비율을 산출하는 단계;
상기 산출한 비율을 토대로, 시표의 확대 또는 축소 배율을 설정하는 단계;
상기 설정한 시표의 확대 또는 축소 배율에 따라 시표를 확대하거나 축소하여 상기 스크린에 투사하는 단계; 및
상기 사용자의 음성을 인식하여, 상기 스크린에 투사한 시표의 정답 여부를 판정하여 시력 측정을 수행하는 단계;를 포함하고,
상기 측정하는 단계 이전에,
카메라를 통해 시력 측정 공간을 스캐닝하여 시력 측정 공간의 이미지를 획득하는 단계;
상기 획득한 이미지를 분석하여 인식된 벽면을 상기 스크린으로 선정하는 단계; 및
상기 스크린과 일정 거리로 이격되는 위치를 이동위치로 결정하고, 이 이동위치로 이동하는 단계;를 더 포함하는 것을 특징으로 하는 로봇에서의 시력 측정 방법.A method for measuring a user's visual acuity in a robot,
Measuring a distance between the user and the screen;
Calculating a ratio of the measured distance between the user and the screen relative to the reference visual acuity distance;
Setting an enlargement or reduction ratio of the target on the basis of the calculated ratio;
Enlarging or reducing a target according to an enlargement or reduction ratio of the set target and projecting the target on the screen; And
Recognizing the voice of the user and determining whether or not the target projected on the screen is correct, and performing visual acuity measurement;
Before the measuring step,
Acquiring an image of a visual measurement space by scanning a visual measurement space through a camera;
Analyzing the acquired image and selecting a recognized wall surface as the screen; And
Determining a position that is spaced apart from the screen by a predetermined distance as a moving position, and moving the moving position to the moving position.
상기 사용자의 신장을 확인하는 단계; 및
상기 확인한 사용자의 신장에 근거하여 상기 시표의 투사 각도를 조정하는 단계;를 더 포함하는 것을 특징으로 하는 로봇에서의 시력 측정 방법.The method according to any one of claims 9 to 11,
Confirming the height of the user; And
And adjusting a projection angle of the target on the basis of the height of the user.
조도를 측정하고, 이 측정한 조도가 기준치 이상인지 여부를 판별하는 단계; 및
상기 판별 결과 상기 측정한 조도가 기준치 미만이면, 상기 시표의 투사 밝기를 증가시키는 단계;를 포함하는 것을 특징으로 하는 로봇에서의 시력 측정 방법.The method according to any one of claims 9 to 11,
Measuring an illuminance and determining whether the illuminance measured is equal to or higher than a reference value; And
And increasing the projected brightness of the target if the measured illuminance is less than a reference value as a result of the discrimination.
상기 사용자와 스크린 간의 거리를 측정하는 단계;
기준 시력측정 거리에 대비하여 상기 측정한 사용자와 스크린 간의 거리의 비율을 산출하는 단계;
상기 산출한 비율을 토대로, 시표의 확대 또는 축소 배율을 설정하는 단계;
상기 설정한 시표의 확대 또는 축소 배율에 따라 시표를 확대하거나 축소하여 상기 스크린에 투사하는 단계; 및
상기 사용자의 음성을 인식하여, 상기 스크린에 투사한 시표의 정답 여부를 판정하여 시력 측정을 수행하는 단계;를 포함하고,
상기 스크린에 투사하는 단계 이전에,
한쪽 눈의 가림을 요구하는 메시지를 출력하는 단계; 및
상기 사용자의 얼굴을 촬영하고 이 촬영한 얼굴을 분석하여 사용자의 한쪽 눈이 가려졌는지 여부를 판별하는 단계;를 더 포함하는 것을 특징으로 하는 로봇에서의 시력 측정 방법.A method for measuring a user's visual acuity in a robot,
Measuring a distance between the user and the screen;
Calculating a ratio of the measured distance between the user and the screen relative to the reference visual acuity distance;
Setting an enlargement or reduction ratio of the target on the basis of the calculated ratio;
Enlarging or reducing a target according to an enlargement or reduction ratio of the set target and projecting the target on the screen; And
Recognizing the voice of the user and determining whether or not the target projected on the screen is correct, and performing visual acuity measurement;
Prior to the step of projecting onto the screen,
Outputting a message requesting occlusion of one eye; And
Further comprising the step of photographing the face of the user and analyzing the photographed face to determine whether one eye of the user is obscured or not.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130016435A KR101515177B1 (en) | 2013-02-15 | 2013-02-15 | Method for measuring user eyesight by robot and robot therefor |
PCT/KR2013/006569 WO2014126307A1 (en) | 2013-02-15 | 2013-07-23 | Method for measuring eyesight in robot and robot for same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130016435A KR101515177B1 (en) | 2013-02-15 | 2013-02-15 | Method for measuring user eyesight by robot and robot therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140102919A KR20140102919A (en) | 2014-08-25 |
KR101515177B1 true KR101515177B1 (en) | 2015-04-24 |
Family
ID=51354292
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130016435A KR101515177B1 (en) | 2013-02-15 | 2013-02-15 | Method for measuring user eyesight by robot and robot therefor |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR101515177B1 (en) |
WO (1) | WO2014126307A1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2774906T3 (en) * | 2016-04-08 | 2020-07-23 | Vivior Ag | Device and method for measuring distances |
IT201700101120A1 (en) * | 2017-09-11 | 2019-03-11 | Idm Srl | EQUIPMENT FOR IMPROVEMENT, TRAINING AND / OR REHABILITATION OF THE VISUAL FUNCTION |
CN114305317B (en) * | 2021-12-23 | 2023-05-12 | 广州视域光学科技股份有限公司 | Method and system for intelligently distinguishing user feedback optotype |
CN116616691A (en) * | 2023-05-19 | 2023-08-22 | 湖南至真明扬技术服务有限公司 | Man-machine interaction vision detection method and system based on virtual reality |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008043402A (en) | 2006-08-11 | 2008-02-28 | Topcon Corp | Subjective optometer |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3324935B2 (en) * | 1996-06-28 | 2002-09-17 | 株式会社トプコン | Eye chart display device |
KR20070066574A (en) * | 2005-12-22 | 2007-06-27 | 주식회사 팬택 | Method and mobile communication terminal for adjusting size of displayed text according to distance from user eyes |
US20100128223A1 (en) * | 2007-01-03 | 2010-05-27 | Eytan Blumenthal | Method, algorithm and device for testing visual acuity |
JP2012245156A (en) * | 2011-05-27 | 2012-12-13 | Brother Industries Ltd | Image forming unit, image reading unit, image processing system, and program |
-
2013
- 2013-02-15 KR KR1020130016435A patent/KR101515177B1/en active IP Right Grant
- 2013-07-23 WO PCT/KR2013/006569 patent/WO2014126307A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008043402A (en) | 2006-08-11 | 2008-02-28 | Topcon Corp | Subjective optometer |
Also Published As
Publication number | Publication date |
---|---|
KR20140102919A (en) | 2014-08-25 |
WO2014126307A1 (en) | 2014-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101684956B1 (en) | Measuring device that can be operated without contact and control method for such a measuring device | |
CN105589199B (en) | Display device, control method for display device, and program | |
EP3210095B1 (en) | System, method and computer program for hands-free configuration of a luminous distribution | |
CN109725418B (en) | Display device, method and device for adjusting image presentation of display device | |
US20230404401A1 (en) | Fundus camera and fully-automatic photography method for fundus image | |
US10360450B2 (en) | Image capturing and positioning method, image capturing and positioning device | |
KR101515177B1 (en) | Method for measuring user eyesight by robot and robot therefor | |
US7216982B2 (en) | Eye image taking device | |
JPWO2016103522A1 (en) | Control device, electronic device, control method, and program | |
US7382901B2 (en) | Eye image imaging device | |
US20160041615A1 (en) | Information processing apparatus, focus detection method, and information processing system | |
JP6422954B2 (en) | Adjusting the focal length | |
JP2017111746A (en) | Sight line detection device and sight line detection method | |
EP3640840B1 (en) | Tracking method and apparatus for smart glasses, smart glasses and storage medium | |
US11846780B2 (en) | Head-mounted electronic vision aid device and automatic image magnification method thereof | |
JP2004046451A (en) | Eye image, imaging apparatus and individual authentication device | |
CN116669614A (en) | Ophthalmic device and control program for ophthalmic device | |
KR102085285B1 (en) | System for measuring iris position and facerecognition based on deep-learning image analysis | |
EP3150111B1 (en) | Ophthalmic apparatus and control program for the ophthalmic apparatus | |
JP2005062486A (en) | Projection system, projection device, and projection method | |
JP2019177045A (en) | Visual target presentation device | |
KR101731972B1 (en) | Automatic focusing apparatus of ophthalmometer and methdo thereof | |
US10860165B2 (en) | Tracking method and apparatus for smart glasses, smart glasses and storage medium | |
JP3232873B2 (en) | Gaze direction detection device for vehicles | |
JP7117768B2 (en) | Visual field visual acuity test device and visual field visual acuity test method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20180403 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20190401 Year of fee payment: 5 |