WO2014126307A1 - 로봇에서의 시력 측정 방법 및 이를 위한 로봇 - Google Patents

로봇에서의 시력 측정 방법 및 이를 위한 로봇 Download PDF

Info

Publication number
WO2014126307A1
WO2014126307A1 PCT/KR2013/006569 KR2013006569W WO2014126307A1 WO 2014126307 A1 WO2014126307 A1 WO 2014126307A1 KR 2013006569 W KR2013006569 W KR 2013006569W WO 2014126307 A1 WO2014126307 A1 WO 2014126307A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
target
screen
distance
measuring
Prior art date
Application number
PCT/KR2013/006569
Other languages
English (en)
French (fr)
Inventor
안영수
안태진
한경아
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Publication of WO2014126307A1 publication Critical patent/WO2014126307A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/18Arrangement of plural eye-testing or -examining apparatus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters

Definitions

  • the present invention relates to robot technology, and more particularly, to a method for measuring vision in a robot and a robot therefor.
  • a user measures his vision using an eye chart. That is, the user measures his or her vision by vocally speaking the target designated by the examiner while being spaced apart from the visual inspection table by a predetermined distance.
  • the visual acuity measurement method using a visual acuity test table has a problem that it is impossible to measure a place where a visual acuity test table is not provided and a space for securing a certain distance is required.
  • Korean Laid-Open Patent Publication No. 10-2005-0089232 discloses a wireless communication terminal having a visual inspection function and a method thereof.
  • the eye measurement method using the wireless communication terminal there is a problem that the accuracy of the eye measurement is inferior.
  • the user in the vision measuring method using the wireless communication terminal, the user must maintain a constant distance between the wireless communication terminal and his eyeball until the end of the vision measurement, the distance between the wireless communication terminal and the eyeball If it is not kept constant, errors in vision measurement will be large. That is, when the user's hand holding the wireless communication terminal is shaken or when the distance between the eyeball and the wireless communication terminal is out of the initially set distance, there is a problem that the result of vision measurement using the wireless communication terminal is incorrect.
  • the above method also causes the user to maintain the distance between the wireless communication terminal and the eyeball in a stationary posture during the vision measurement process, thereby causing inconvenience to the user in vision measurement.
  • the present invention has been proposed to solve such a conventional problem, and provides a vision measuring method and a robot therefor for measuring the user's vision more accurately using a robot and relieving user's inconvenience in the vision measurement process. There is a purpose.
  • a robot for measuring a user's eyesight includes: a distance measuring sensor measuring a distance between the user and a screen; A magnification setting unit configured to calculate a ratio of the distance between the measured user and the screen relative to a reference vision measurement distance, and set an enlargement or reduction ratio of the target based on the calculated ratio; A target projection unit projecting the enlarged or reduced target onto the screen according to an enlarged or reduced magnification of the set target; And an eye measurer configured to determine whether the target being projected is correct through the voice recognition of the user, and to measure the eye of the user.
  • a method of measuring a user's vision in a robot comprising: measuring a distance between the user and a screen; Calculating a ratio of the distance between the measured user and the screen relative to a reference optometry distance; Setting an enlargement or reduction ratio of the target based on the calculated ratio; Enlarging or reducing the target according to the set magnification or reduction ratio of the target and projecting the target onto the screen; And recognizing the voice of the user, determining whether the target projected on the screen is correct or not, and performing vision measurement.
  • the robot according to the present invention determines the size of the target based on the ratio of the distance between the user and the screen and the reference vision measurement distance, outputs the target on the screen, and recognizes the user's voice to determine whether the answer is correct or not. By measuring, there is an advantage that can measure the user's eyesight more convenient regardless of the location.
  • the robot according to the present invention has an advantage of improving the accuracy of the vision measurement by telling the user through the light beam a place to be located for the vision measurement.
  • the robot according to the present invention projects the target on the screen by adjusting the projection angle and the projection brightness of the target based on the user's height and illuminance measured at the current position, thereby further improving the accuracy of vision measurement and at the time of visual acuity measurement. It also has the effect of minimizing eye fatigue.
  • the robot according to the present invention measures the visual acuity of the child in the growth stage, there is an advantage that can solve the rejection of the child appearing when measuring the visual acuity and provide the child with pleasure for measuring the vision.
  • FIG. 1 is a view showing the configuration of a robot for measuring the eyesight of a user according to an embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating a method of setting a measurement environment for measuring eyesight of a user in a robot according to an embodiment of the present invention.
  • FIG. 3 is a flowchart illustrating a method of measuring a user's vision by projecting an object onto a screen in a robot according to an embodiment of the present invention.
  • FIG. 1 is a view showing the configuration of a robot for measuring the eyesight of a user according to an embodiment of the present invention.
  • the robot 100 is a movable robot apparatus, and includes a camera 101, a distance measuring sensor 102, an illuminance measuring sensor 103, a storage unit 104, and a driving unit ( 105, a ray projection unit 106, a positioning unit 107, a magnification setting unit 108, a projection environment setting unit 109, a target projection unit 110, and an eyesight measurement unit 111.
  • a driving unit 105, a ray projection unit 106, a positioning unit 107, a magnification setting unit 108, a projection environment setting unit 109, a target projection unit 110, and an eyesight measurement unit 111.
  • the camera 101 is a photographing means for photographing a subject.
  • the camera 101 may include a lens to enlarge or reduce the subject and photograph the subject.
  • the camera 101 is rotated left and right and has a constant angle of view.
  • the camera 101 may be mounted on the head of the robot 100.
  • the distance measuring sensor 102 is an ultrasonic ranging sensor, a laser ranging sensor, an infrared ranging sensor, or the like.
  • the distance measuring sensor 102 measures a distance from the robot 100 to a specific location or measures a distance between two designated points.
  • the illuminance measurement sensor 103 measures the brightness of light at the place where the robot 100 is located.
  • the storage unit 104 stores a user's vision measurement history and a vision measurement schedule.
  • the storage unit 104 stores a plurality of targets having different sizes according to the visual acuity level (0.1 to 2.0) for each visual acuity level.
  • the storage unit 104 may store alphabets, numbers, Korean characters, figures, and random's rings as time sheets.
  • the Landolt ring target is a 'C' shaped target in which one of the up, down, left, and right sides is opened, and is one of the targets used for visual acuity measurement.
  • the drive unit 105 is provided with a moving means such as a wheel and the like, and moves the robot 100 at the request of the positioning unit 107 or another component.
  • the light beam projector 106 projects a light beam such as a laser to a designated position. Specifically, the light beam projector 106 projects a light beam to an eye measurement position under the control of the position selector 107 to perform a function of a position pointer for inducing a user to move the light beam to the projected position. do.
  • the position selector 107 selects a screen position, a projection position of the robot 100, and a user's vision measurement position.
  • the position selector 107 uses the camera 101 to make a spatial structure at the current position. After scanning, the wall around the current position is recognized, and the specific wall is selected as the screen.
  • the positioning unit 107 uses the distance measuring sensor 102 to check a position spaced apart from the selected screen by a predetermined distance (for example, 2 m), and moves the position to a moving position where the robot 100 will move. The robot 100 is moved to the selected movement position by controlling the driving unit 105.
  • the position selector 107 determines the visual acuity measurement position of the user at a position separated by a predetermined distance from the selected screen using the distance measuring sensor 102, and then determined by using the light projection unit 106 Project a light beam (e.g. a laser) to the measurement position and output a voice message to the speaker (not shown in the figure) requesting the user to be positioned at the projection point.
  • a light beam e.g. a laser
  • the positioning unit 107 determines whether or not a separation distance of the reference vision measurement distance (eg, 5 m) can be secured from the selected screen by using the distance measuring sensor 102, and if so, A position spaced apart from the screen by a reference optometry distance (eg, 5 m) is determined as the optometry position of the user. On the other hand, the positioning unit 107 determines that the maximum distance that can be spaced apart from the screen as the user's vision measurement position, or if the separation distance from the screen as the reference vision measurement distance is not secured, or the predetermined separation distance (E.g., 3m) may be determined as the optometry location of the user.
  • a separation distance of the reference vision measurement distance eg, 5 m
  • the magnification setting unit 108 sets the magnification of the target based on the ratio of the distance between the user and the screen to the reference vision measurement distance (eg, 5 m). Specifically, the magnification setting unit 108 measures the distance between the user and the screen by using the distance measuring sensor 102 when the user is located at the ray projection point (that is, the vision measuring position), and the reference vision measuring distance ( For example, the ratio of the distance between the measured user and the screen is calculated for 5 m). In addition, the magnification setting section 108 sets the magnification or reduction magnification of the target projected on the screen based on the calculated ratio.
  • the reference vision measurement distance eg, 5 m
  • the magnification setting unit 108 does not change the magnification of the target when the distance between the user and the screen is equal to the reference vision measurement distance, and reduces the size of the target so that the size of the target becomes smaller when the distance between the user and the screen is shorter than the reference vision measurement distance.
  • the magnification is set, and if the distance between the user and the screen is longer than the reference vision distance, the magnification of the target is set to increase the size of the target.
  • the projection environment setting unit 109 performs a function of setting the projection brightness and the projection angle of the target projection unit 110. That is, the projection environment setting unit 109 measures the illuminance at the current position using the illuminance measuring sensor 103, and when the illuminance falls below the reference value (for example, 200 lux), the projection of the target projecting unit 110 is performed. Increase brightness
  • the projection environment setting unit 109 confirms the height of the user, and adjusts the projection angle of the target projector 110 based on the height. That is, the projection environment setting unit 109 adjusts the projection angle of the target projector 110 so that the projection angle of the target projector 110 is directed upward in proportion to the height of the user. In other words, the projection environment setting unit 109 projects the target projection unit 110 so that the target is projected upward on the screen in proportion to the height of the user so that the user's eye level is parallel to the target projected on the screen. Adjust the angle upwards.
  • the projection environment setting unit 109 may check the height of the user based on the height data received and stored in advance by the user. Also, the projection environment setting unit 109 may capture the entire image of the user by using the camera 101 and then may display the entire height of the photographed user. You can also analyze the image to measure your height.
  • the target projector 110 performs a function of projecting an image or an image on a screen.
  • the target projector 110 adjusts the projection angle and the projection brightness under the control of the projection environment setting unit 109.
  • the vision measuring unit 111 projects the target onto a wall selected as a screen by using the target projecting unit 110 when the setting for measuring the eyesight is completed, and recognizes whether the target projected by recognizing the user's voice or motion is correct or not.
  • the visual acuity of the user is measured by determining.
  • the visual acuity measuring unit 111 adjusts the size of each target according to the magnification magnification or reduction magnification set by the magnification setting unit 108, and then applies the adjusted target to the screen using the target projection unit 110. Project to the selected wall.
  • the visual acuity measuring unit 111 recognizes the voice spoken by the user using the voice recognition module 111a included in itself and determines whether the target being projected is correct or not. Specifically, when the vision measuring unit 111 projects alphabets, numbers or Korean characters on the screen, by checking whether the user's voice recognized through the voice recognition module 111a matches the alphabets, numbers or Korean characters being projected. The judgment of the correct answer is made.
  • the vision measuring unit 111 when the projection of the Landol's Ring (Landolt's Ring) target, the image analysis of the user's motion (ie, pointing direction) by using the camera 101, the direction pointed by the user's hand or arm It is also possible to determine whether the target being projected is the correct answer by checking whether the directions of the and Randold ring targets coincide.
  • the vision measuring unit 111 outputs a voice comment requesting to cover one eye of the user to the speaker before projecting the target, and then analyzes the image acquired through the camera 101 to analyze one image of the user. If one eye is covered by determining whether or not the object is covered, the target is projected onto the screen using the target projector 110.
  • the visual acuity measuring unit 111 records the visual acuity measurement results for the two eyes and the current date in the visual acuity measurement history of the storage unit 104 when the visual acuity measurement is completed.
  • FIG. 2 is a flowchart illustrating a method of setting a measurement environment for measuring eyesight of a user in a robot according to an embodiment of the present invention.
  • the robot 100 receives a vision measurement request signal from a user (S201).
  • the robot 100 may receive a vision measurement request signal from a user through a menu tree implemented in advance, or may recognize a voice spoken by the user and receive a vision measurement request signal.
  • the robot 100 may determine that the vision measurement request signal is received from the user when the vision measurement time of the user arrives according to the vision measurement schedule stored in the storage unit 104.
  • the positioning unit 107 of the robot 100 scans the spatial structure at the current position (S203).
  • the positioning unit 107 rotates the robot 100 by 360 ° or rotates the camera 101 to obtain a surrounding image photographed by the camera 101, and analyzes the surrounding image in a currently located space. By checking whether the wall exists, the spatial structure at the current location is scanned.
  • the location selector 107 checks whether a wall surface having a size of a predetermined area or more exists in the currently located space, and if not, outputs a voice message indicating that vision measurement is impossible to the speaker. On the other hand, if there is at least one wall surface having a size of a predetermined area or more in the currently located space, the positioning unit 107 selects a specific wall surface as a screen on which the target is projected (S205). Preferably, the location selector 107 screens the wall with the least obstacles when the robot 100 moves to the wall by analyzing the collected image when there are a plurality of wall surfaces having a predetermined size or more in the presently located space. To select.
  • the positioning unit 107 uses the distance measuring sensor 102 to check a position spaced apart from the selected screen by a predetermined distance (for example, 2 m), and moves the position as a movement position to which the robot 100 will move.
  • a predetermined distance for example, 2 m
  • the position selector 107 determines the visual acuity measurement position of the user by using the distance measuring sensor 102 at a position spaced apart from the selected screen by a specific distance (S209).
  • the positioning unit 107 determines whether or not a separation distance of the reference vision measurement distance (eg, 5 m) can be secured from the selected screen by using the distance measuring sensor 102, and if so, A position spaced apart from the screen by a reference optometry distance (eg, 5 m) is determined as the optometry position of the user.
  • the positioning unit 107 determines the maximum distance that can be spaced from the screen or the distance (for example, 3m) from the predetermined screen. It can be determined by the user's optometry position.
  • the positioning unit 107 projects a light beam (for example, a laser) to the determined vision measuring position using the light beam projector 106 (S211), and sends a voice message requesting movement to the light beam projection point. Output to the speaker to induce the user to move to the beam projection point.
  • a light beam for example, a laser
  • the magnification setting unit 108 measures the distance between the user and the screen using the distance measuring sensor 102 (S213). In addition, the magnification setting unit 108 calculates a ratio of the distance between the measured user and the screen in comparison with a preset reference vision measurement distance (eg, 5 m) (S215). Next, the magnification setting section 108 sets the magnification or reduction magnification of the target projected on the screen based on the calculated ratio (S217).
  • a preset reference vision measurement distance eg, 5 m
  • the magnification setting unit 108 maintains the original magnification without changing the reduction or enlargement magnification of the target size if the distance between the user and the screen is equal to the reference vision measurement distance, and the distance between the user and the screen is the reference vision measurement distance. If it is shorter, the reduction magnification of the size of the target is set so that the size of the target becomes smaller. If the distance between the user and the screen is longer than the reference vision distance, the magnification of the size of the target is set.
  • the magnification setting unit 108 sets a magnification in which the target is enlarged or reduced in proportion to the ratio calculated in step S215.
  • the cause of the enlargement magnification may be a case where the user does not accurately move to the ray projection point.
  • the positioning unit 107 is determined that a distance separated by a reference vision measurement distance (for example, 5m) from the screen is secured, and the user's movement by projecting a position corresponding to the reference vision measurement distance with a light beam. If induced, but the user does not move exactly to the beam projection point, the distance between the user and the screen may exceed the reference optometry distance.
  • the magnification setting unit 108 determines that the distance between the user and the screen is longer than the reference vision measurement distance, and sets the magnification magnification of the target so that the target size becomes larger.
  • the magnification setting unit 108 transmits the magnification or reduction magnification of the target to the visual acuity measuring unit 111, and projects the projection environment setting unit 109. Request the setting of the environment.
  • the projection environment setting unit 109 measures the illuminance at the current position using the illuminance measuring sensor 103 (S219).
  • the projection environment setting unit 109 determines whether the measured illuminance is equal to or greater than a reference value (for example, 200 lux) (S221).
  • a reference value for example, 200 lux
  • the projection environment setting unit 109 increases the projection brightness of the target projector 110 (S223).
  • the projection environment setting unit 109 increases the projection brightness of the target projection unit 110 in proportion to the value of the measured illuminance is less than the reference value.
  • the projection environment setting unit 109 may increase the projection brightness of the target projection unit 110 by one as the illuminance is less than one lux.
  • the projection environment setting unit 109 checks the height of the user (S225).
  • the projection environment setting unit 109 may check the height of the user based on the height data previously received and stored by the user.
  • the entire image of the user may be taken and the height of the user may be measured by analyzing the entire image of the photographed user.
  • the projection environment setting unit 109 captures the entire image of the user by using the camera 101 and recognizes the point where the user's head is located through the image analysis.
  • the projection environment setting unit 109 may calculate a ratio of the overall height of the image to the height of the user's head, and measure the height of the user based on the calculated ratio.
  • the projection environment setting unit 109 measures the distance between the user and the robot 100 using the distance measuring sensor 102, and enlarges or reduces the magnification of the camera 101 based on the measured distance. And then take a full image of the user. For example, when the distance between the user and the robot 100 is 2m, the projection environment setting unit 109 photographs the user by maintaining the magnification of the camera 101 at the original magnification, and the distance between the user and the robot 100 is 2m. In the case of the deviation, the magnification of the camera 101 is enlarged or reduced in proportion to the deviation length.
  • the projection environment setting unit 109 adjusts the projection angle of the target projector 110 based on the confirmed height of the user (S227). That is, the projection environment setting unit 109 adjusts the projection angle of the target projector 110 so that the projection angle of the target projector 110 is directed upward in proportion to the measured height of the user. In other words, the projection environment setting unit 109 of the target projection unit 110 so that the target is projected further upward on the screen in proportion to the height of the user in order to parallel the eyes of the user and the target projected on the screen. Adjust the projection angle upwards. For example, when the height of the user exceeds 80 cm, the projection environment setting unit 109 may upwardly adjust the projection angle of the target projector 110 by 0.1 ° upward by an excess of 5 cm.
  • the robot 100 projects a target onto a wall selected as a screen to measure the user's vision.
  • FIG. 3 is a flowchart illustrating a method of measuring a user's vision by projecting an object onto a screen in a robot according to an embodiment of the present invention.
  • the eyesight measuring unit 111 when the setting for measuring eyesight is completed as shown in FIG. 2, the eyesight measuring unit 111 outputs a voice message informing of the start of eyesight measurement to the speaker (S301). At this time, the vision measuring unit 111 additionally outputs a voice comment requesting to cover the right eye to the speaker.
  • the vision measuring unit 111 acquires an image of the user through the camera 101 and analyzes the obtained image to determine whether the user's right eye is covered (S303). At this time, the vision measuring unit 111 enlarges the user's face in the image photographed by the camera 101, and checks whether only the left eye is recognized from both eyes of the user based on the enlarged face, It may be determined whether the right eye of the eye is covered.
  • the visual acuity measuring unit 111 outputs a voice guidance message requesting to cover the right eye to the speaker to induce the user to cover the right eye by themselves (S315).
  • the visual acuity measuring unit 111 determines that any one of the plurality of targets corresponding to the first level stored in the storage unit 104 (that is, the visual acuity level 0.1) is determined as the user's right eye being covered. Extract.
  • the visual acuity measuring unit 111 enlarges or reduces the size of the extracted target according to the magnification or reduction magnification of the target received from the magnification setting unit 108, and stores the reduced or enlarged target in the target projection unit 110. Projected onto the wall selected as a screen using the (S305). At this time, the target projection unit 110 projects the target onto the wall by applying the projection brightness value and the projection angle set by the projection environment setting unit 109.
  • the visual acuity measuring unit 111 activates the voice recognition module 111a and recognizes the voice that the user has answered using the voice recognition module 111a (S307). Subsequently, the visual acuity measuring unit 111 determines whether the recognized user's voice is the correct answer to the target being projected (S309). Specifically, the visual acuity measuring unit 111 determines whether the alphabet, the number, or the Hangul that is being projected coincides with the voice spoken by the user, thereby determining whether or not the correct answer is given to the target being projected.
  • the Landolt ring target is projected by any one of the right, left, top, bottom of the eye measurement unit 111, by checking whether the direction in which the user ignited and the direction of the Randol ring target coincides
  • the correct answer of the target being projected can be determined.
  • the vision measuring unit 111 recognizes the user's motion using the camera 101, and then the direction indicated by the user's hand or arm and the direction in which the Landolt ring target is drilled. By checking whether this coincides, it is possible to determine whether the target being projected is correct or not.
  • the visual acuity measuring unit 111 checks whether the target being projected corresponds to the last level (vision 2.0 level) (S311), and corresponds to the last level.
  • the visual acuity measurement result i.e., 2.0
  • eye position information i.e., left eye
  • the visual acuity measuring unit 111 extracts, from the storage unit 104, the target corresponding to the next stage of the projected target level if the target being projected through the target projector 110 is not the target corresponding to the last level ( S317). Subsequently, the visual acuity measuring unit 111 enlarges or reduces the size of the target corresponding to the extracted next level based on the enlarged magnification or reduction magnification of the target received from the magnification setting unit 108, and thus reduces or enlarges the enlarged target. After projecting to the wall surface selected as the screen using the target projection unit 110, and repeats after step S307.
  • the visual acuity measuring unit 111 stores the visual acuity measurement result, the eye position information and the current date, the optical acuity measurement result of the level immediately determined as a correct answer if the user does not correct the result of the determination in step S307. And stored in the visual acuity measurement history of 104. For example, when an incorrect answer is recognized at the visual acuity level 1.5, the visual acuity measuring unit 111 stores the visual acuity level 1.2 identified as the correct answer immediately before as the visual acuity measurement result.
  • the visual acuity measuring unit 111 proceeds to step S301 to measure the visual acuity of the right eye. Specifically, the visual acuity measuring unit 111 outputs a voice message indicating the start of visual acuity measurement of the right eye to the speaker, and determines whether the left eye is covered by enlarging the user's face. When the eyesight measurement unit 111 determines that the user's left eye is hidden by capturing and analyzing the user's image, the first level indicator is projected onto the wall selected as the screen through the target projector 110 to the right side of the user. Proceed to step S305 to measure the eyesight of the eye.
  • the robot 100 determines the size of the target based on the ratio of the distance between the user and the screen and the reference vision measurement distance, outputs the target on the screen, and recognizes the user's voice to answer the correct answer.
  • the user's vision is measured by determining whether or not.
  • the robot 100 according to the present invention improves the accuracy of visual acuity measurement by informing the user of a place where the user should be positioned for visual acuity measurement through light beam projection.
  • the robot 100 by adjusting the projection angle and the projection brightness of the target on the basis of the user's height and illuminance measured at the current position, by projecting the target on the screen, thereby improving the accuracy of vision measurement and vision measurement Minimize eye strain in the eyes
  • the method of the present invention as described above may be implemented as a program and stored in a recording medium (CD-ROM, RAM, ROM, floppy disk, hard disk, magneto-optical disk, etc.) in a computer-readable form. Since this process can be easily implemented by those skilled in the art will not be described in more detail.
  • a recording medium CD-ROM, RAM, ROM, floppy disk, hard disk, magneto-optical disk, etc.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)
  • Rehabilitation Tools (AREA)

Abstract

본 발명은 로봇에서 시력 측정 방법 및 이를 위한 로봇에 관한 것으로서, 사용자의 시력을 측정하는 로봇은, 상기 사용자와 스크린 간의 거리를 측정하는 거리 측정 센서; 기준 시력측정 거리에 대비하여 상기 측정한 사용자와 스크린 간의 거리의 비율을 산출하고, 상기 산출한 비율을 토대로 시표의 확대 또는 축소 배율을 설정하는 배율 설정부; 상기 설정된 시표의 확대 또는 축소 배율에 따라 확대되거나 축소된 시표를 상기 스크린에 투사하는 시표 투사부; 및 상기 사용자의 음성 인식을 통해, 상기 투사중인 시표의 정답 여부를 판정하여 상기 사용자의 시력 측정을 수행하는 시력 측정부를 포함한다.

Description

로봇에서의 시력 측정 방법 및 이를 위한 로봇
본 발명은 로봇 기술에 관한 것으로서, 더욱 상세하게는 로봇에서 시력 측정 방법 및 이를 위한 로봇에 관한 것이다.
본 발명은 2013년 02월 15일에 출원된 한국특허출원 제10-2013-0016435호에 기초한 우선권을 주장하며, 해당 출원의 명세서 및 도면에 개시된 모든 내용은 본 출원에 원용된다.
일반적으로, 사용자는 시력 검사표를 이용하여 자신의 시력을 측정한다. 즉, 사용자는 시력 검사표와 일정 거리만큼 이격된 상태에서, 검사자가 지정한 시표를 음성으로 발화함으로써 자신의 시력을 측정한다. 그런데 시력 검사표를 이용한 시력 측정 방식은, 시력 검사표가 구비되지 않은 장소에서는 측정이 불가능하고 일정 거리를 확보할 수 있는 공간이 필요하다는 문제점이 있다.
이에 따라, 무선통신 단말기를 이용하여 사용자의 시력을 측정하는 기술이 개발되었다. 한국공개특허 제10-2005-0089232호는 시력 검사 기능을 가지는 무선통신 단말기 및 그 방법에 대해서 개시한다.
그런데 무선통신 단말기를 이용한 시력측정 방식은, 시력측정에 대한 정확도가 떨어지는 문제점이 있다. 구체적으로, 상기 무선통신 단말기를 이용한 시력 측정 방식은, 사용자가 무선통신 단말기와 자신의 안구 사이의 거리를 시력측정이 종료되기까지 일정하게 유지시켜야 방식으로서, 상기 무선통신 단말기와 안구 사이의 거리가 일정하게 유지되지 않으면 시력 측정의 오차가 크게 발생한다. 즉, 무선통신 단말을 파지한 사용자의 손이 흔들리게 되거나 안구와 무선통신 단말 사이의 간격이 초기 세팅된 거리에서 벗어나게 되는 경우, 무선통신 단말의 이용한 시력측정 결과가 부정확하게 되는 문제점이 있다. 더불어, 상기 방식은 시력측정 과정에서 사용자로 하여금 정지된 자세로 무선통신 단말과 안구와의 거리를 유지시키게 함으로써, 시력 측정에 있어서 사용자의 불편함을 유발하는 문제점도 있다.
본 발명은 이러한 종래의 문제점을 해결하기 위하여 제안된 것으로, 로봇을 이용하여 사용자의 시력을 보다 정확하게 측정하고 시력 측정 과정에서의 사용자의 불편함이 해소하는 시력 측정 방법 및 이를 위한 로봇을 제공하는데 그 목적이 있다.
본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
상기 목적을 달성하기 위한 본 발명의 제 1 측면에 따른 사용자의 시력을 측정하는 로봇은, 상기 사용자와 스크린 간의 거리를 측정하는 거리 측정 센서; 기준 시력측정 거리에 대비하여 상기 측정한 사용자와 스크린 간의 거리의 비율을 산출하고, 상기 산출한 비율을 토대로 시표의 확대 또는 축소 배율을 설정하는 배율 설정부; 상기 설정된 시표의 확대 또는 축소 배율에 따라 확대되거나 축소된 시표를 상기 스크린에 투사하는 시표 투사부; 및 상기 사용자의 음성 인식을 통해, 상기 투사중인 시표의 정답 여부를 판정하여 상기 사용자의 시력 측정을 수행하는 시력 측정부를 포함하는 것을 특징으로 한다.
상기 목적을 달성하기 위한 본 발명의 제 2 측면에 따른 로봇에서 사용자의 시력을 측정하는 방법은, 상기 사용자와 스크린 간의 거리를 측정하는 단계; 기준 시력측정 거리에 대비하여 상기 측정한 사용자와 스크린 간의 거리의 비율을 산출하는 단계; 상기 산출한 비율을 토대로, 시표의 확대 또는 축소 배율을 설정하는 단계; 상기 설정한 시표의 확대 또는 축소 배율에 따라 시표를 확대하거나 축소하여 상기 스크린에 투사하는 단계; 및 상기 사용자의 음성을 인식하여, 상기 스크린에 투사한 시표의 정답 여부를 판정하여 시력 측정을 수행하는 단계를 포함하는 것을 특징으로 한다.
본 발명에 따른 로봇은, 사용자와 스크린 간의 거리와 기준 시력측정 거리의 비율을 토대로 시표의 크기를 결정하고 스크린에 시표를 출력한 후, 사용자의 음성을 인식하여 정답 여부를 판정하여 사용자의 시력을 측정함으로써, 장소와 구애받지 않고 더욱 편리하고 사용자의 시력을 측정할 수 있는 장점이 있다.
또한, 본 발명에 따른 로봇은, 사용자가 시력 측정을 위해 위치해야 하는 장소를 광선 투사를 통해 알려줌으로써, 시력 측정의 정확도를 향상시키는 장점이 있다.
게다가, 본 발명에 따른 로봇은, 사용자의 신장과 현 위치에서 측정한 조도를 토대로, 시표의 투사 각도와 투사 밝기를 조정하여 스크린에 시표를 투사함으로써, 시력 측정의 정확도를 더욱 향상시키고 시력 측정시에 발생하는 눈의 피로도를 최소화하는 효과도 있다.
특히, 본 발명에 따른 로봇이 성장 단계에 있는 어린이의 시력을 측정할 경우, 시력 측정할 때에 나타나는 어린이의 거부반응을 해소하고 더불어 시력 측정에 대한 즐거움을 어린이에게 제공할 수 있는 이점도 있다.
본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 발명을 실시하기 위한 구체적인 내용과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니 된다.
도 1은 본 발명의 일 실시예에 따른, 사용자의 시력을 측정하는 로봇의 구성을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른, 로봇에서 사용자의 시력 측정을 위한 측정 환경을 세팅하는 방법을 설명하는 흐름도이다.
도 3은 본 발명의 일 실시예에 따른, 로봇에서 스크린에 시표를 투사하여 사용자의 시력을 측정하는 방법을 설명하는 흐름도이다.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일 실시예를 상세히 설명하기로 한다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
도 1은 본 발명의 일 실시예에 따른, 사용자의 시력을 측정하는 로봇의 구성을 나타내는 도면이다.
도 1에 도시된 바와 같이, 본 발명에 따른 로봇(100)은 이동 가능한 로봇 장치로서, 카메라(101), 거리 측정 센서(102), 조도 측정 센서(103), 저장부(104), 구동부(105), 광선 투사부(106), 위치 선정부(107), 배율 설정부(108), 투사 환경 설정부(109), 시표 투사부(110) 및 시력 측정부(111)를 포함한다.
카메라(101)는 피사체를 촬영하는 촬영 수단으로서, 렌즈를 구비하여 피사체를 확대하거나 축소하여 촬영할 수 있다. 또한, 카메라(101)는 좌우로 회동되고, 일정한 화각(angle of view)을 갖는다. 상기 카메라(101)는 로봇(100)의 머리에 탑재될 수 있다.
거리 측정 센서(102)는 초음파 거리측정 센서, 레이저 거리측정 센서, 적외선 거리측정 센서 등으로서, 로봇(100)에서 특정 위치까지의 거리를 측정하거나 지정된 두 지점의 거리를 측정한다.
조도 측정 센서(103)는 로봇(100)이 위치한 장소에서의 빛의 밝기를 측정한다.
저장부(104)는 사용자의 시력 측정 이력과 시력 측정 스케줄을 저장한다. 특히, 저장부(104)는 시력 레벨(0.1 부터 2.0)에 따라 서로 상이한 크기를 가지는 복수의 시표를 시력 레벨별로 저장한다. 저장부(104)는 시표로서, 알파벳, 숫자, 한글, 도형, 란돌트 고리(Landolt's Ring) 등을 저장할 수 있다. 상기 란돌트 고리 시표는 위, 아래, 왼쪽 또는 오른쪽 중에서 어느 하나가 뚫린 'C'자 모양의 시표로서, 시력 측정시에 이용되는 시표 중에 하나이다.
구동부(105)는 바퀴 등과 같은 이동 수단을 구비하고, 위치 선정부(107) 또는 다른 구성요소의 요청에 따라 로봇(100)을 이동시킨다.
광선 투사부(106)는 지정된 위치로 레이저 등과 같은 광선을 투사하는 기능을 수행한다. 구체적으로, 광선 투사부(106)는 위치 선정부(107)의 제어를 받아 시력 측정위치로 광선을 투사하여, 사용자가 광선이 투사된 위치로 이동되도록 유도하는 위치 포인터(pointer)의 기능을 수행한다.
위치 선정부(107)는 스크린 위치, 로봇(100)의 투사 위치 및 사용자의 시력 측정위치를 선정하는 기능을 수행한다. 구체적으로, 위치 선정부(107)는 사용자로부터 시력 측정 요청신호를 수신하거나 저장부(104)의 시력 측정 스케줄에 따라 시력 측정 시기가 도래하면, 카메라(101)를 이용하여 현 위치에서의 공간 구조를 스캐닝하여 현 위치 주변의 벽면을 인식한 후, 특정 벽면을 스크린으로 선정한다. 게다가, 위치 선정부(107)는 거리 측정 센서(102)를 이용하여 상기 선정한 스크린과의 일정 거리(예컨대, 2m)만큼 이격된 위치를 확인하여, 이 위치를 로봇(100)이 이동할 이동 위치로 선정하고, 구동부(105)를 제어하여 상기 선정된 이동 위치로 로봇(100)을 이동시킨다.
한편, 위치 선정부(107)는 거리측정 센서(102)를 이용하여 상기 선정한 스크린에서 일정 거리만큼 이격된 위치를 사용자의 시력측정 위치를 결정한 후, 광선 투사부(106)를 이용하여 상기 결정된 시력측정 위치로 광선(예컨대, 레이저)을 투사하고, 더불어 투사 지점에 사용자가 위치함을 요구하는 음성 메시지를 스피커(도면에 도시되지 않음)로 출력한다. 바람직하게, 위치 선정부(107)는 거리측정 센서(102)를 이용하여 상기 선정한 스크린에서부터 기준 시력측정 거리(예컨대, 5m)만큼의 이격 거리가 확보될 수 있는지 여부를 판별하여, 확보될 수 있으면 상기 스크린에서부터 기준 시력측정 거리(예컨대, 5m)만큼 이격된 위치를 사용자의 시력측정 위치로 결정한다. 반면에, 위치 선정부(107)는 상기 판별결과 스크린에서부터 기준 시력측정 거리만큼의 이격 거리가 확보되지 않으면, 상기 스크린과 이격 가능한 최대 거리를 사용자의 시력측정 위치로 결정하거나, 사전에 설정된 이격 거리(예컨대, 3m)를 사용자의 시력측정 위치로 결정할 수 있다.
배율 설정부(108)는 기준 시력측정 거리(예컨대, 5m) 대비 사용자와 스크린 간의 거리의 비율을 토대로, 시표의 배율을 설정한다. 구체적으로서, 배율 설정부(108)는 사용자가 광선 투사 지점(즉, 시력측정 위치)에 위치하면, 거리 측정 센서(102)를 이용하여 사용자와 스크린까지의 거리를 측정하고, 기준 시력측정 거리(예컨대, 5m)에 대비하여 상기 측정한 사용자와 스크린까지의 거리의 비율을 산출한다. 게다가, 배율 설정부(108)는 상기 산출한 비율에 근거하여, 스크린에 투사되는 시표의 확대 또는 축소 배율을 설정한다. 이때, 배율 설정부(108)는 사용자와 스크린 간의 거리가 기준 시력측정 거리와 동일하면 시표의 배율을 변경시키지 않고, 사용자와 스크린 간의 거리가 기준 시력측정 거리보다 짧으면 시표 크기가 작아지도록 시표의 축소 배율을 설정하며, 또한 사용자와 스크린 간의 거리가 기준 시력측정 거리보다 길면 시표 크기가 커지도록 시표의 확대 배율을 설정한다.
투사 환경 설정부(109)는 시표 투사부(110)의 투사 밝기와 투사 각도를 설정하는 기능을 수행한다. 즉, 투사 환경 설정부(109)는 조도 측정 센서(103)를 이용하여 현 위치에서의 조도를 측정하여 이 조도가 기준치(예컨대, 200 룩스)에 미달되는 경우, 시표 투사부(110)의 투사 밝기를 증가시킨다.
또한, 투사 환경 설정부(109)는 사용자의 신장을 확인하고, 이 신장을 토대로 시표 투사부(110)의 투사 각도를 조정한다. 즉, 투사 환경 설정부(109)는 사용자의 신장에 비례하여, 시표 투사부(110)의 투사 각도가 좀 더 위쪽으로 향하도록 시표 투사부(110)의 투사 각도를 조정한다. 부연하면, 투사 환경 설정부(109)는 사용자의 눈높이와 스크린에 투사되는 시표가 평행이 되도록 하기 위하여, 상기 사용자의 신장에 비례하여 시표가 스크린에 위쪽에 투사되도록 시표 투사부(110)의 투사 각도를 위 방향으로 상향 조정한다. 투사 환경 설정부(109)는 사용자로부터 사전에 입력받아 저장한 신장 데이터에 근거하여 사용자의 신장을 확인할 수 있으며, 또한 카메라(101)를 이용하여 사용자의 전체 이미지를 촬영하고 이 촬영된 사용자의 전체 이미지를 분석하여 사용자의 신장을 측정할 수도 있다.
시표 투사부(110)는 스크린에 영상 또는 이미지를 투사하는 기능을 수행한다. 특히, 시표 투사부(110)는 투사 환경 설정부(109)의 제어에 따라, 투사 각도와 투사 밝기가 조정된다.
시력 측정부(111)는 시력 측정을 위한 세팅이 완료되면, 시표 투사부(110)를 이용하여 스크린으로 선정된 벽면으로 시표를 투사하고, 사용자의 음성 또는 동작을 인식하여 투사한 시표의 정답 여부를 판정함으로써, 사용자의 시력을 측정한다. 이때, 시력 측정부(111)는 배율 설정부(108)에서 설정한 시표 확대 또는 축소 배율에 따라, 각 시표의 크기를 조절하고, 이렇게 조절한 시표를 시표 투사부(110)를 이용하여 스크린으로 선정된 벽면으로 투사한다.
시력 측정부(111)는 자체적으로 포함하고 있는 음성인식 모듈(111a)을 이용하여 사용자 발화한 음성을 인식하여, 투사중인 시표의 정답 여부를 판정한다. 구체적으로, 시력 측정부(111)는 알파벳, 숫자 또는 한글을 스크린으로 투사한 경우, 음성인식 모듈(111a)을 통해 인식한 사용자의 음성과 투사중인 알파벳, 숫자 또는 한글이 일치하는지 여부를 확인함으로써, 시표의 정답 여부를 판정한다. 한편, 시력 측정부(111)는 란돌트 고리(Landolt's Ring) 시표를 투사중인 경우, 카메라(101)를 이용하여 사용자의 동작(즉, 가리키는 방향)을 영상 분석하고, 사용자가 손 또는 팔로 가리키는 방향과 란돌트 고리 시표가 뚫린 방향이 일치하는 여부를 확인함으로써, 투사중인 시표의 정답 여부를 판정할 수도 있다.
바람직하게, 시력 측정부(111)는 시표를 투사하기 전에, 사용자의 한쪽 눈을 가리는 것을 요청하는 음성 멘트를 스피커로 출력한 후, 카메라(101)를 통해 획득된 영상을 분석하여 사용자의 한쪽 눈이 가려졌는지 여부를 판별하여 한쪽 눈이 가려진 경우, 시표 투사부(110)를 이용하여 시표를 스크린으로 투사한다.
한편, 시력 측정부(111)는 시력 측정이 완료되면, 두 눈에 대한 시력 측정결과와 현재 날짜를 저장부(104)의 시력 측정 이력에 기록한다.
도 2는 본 발명의 일 실시예에 따른, 로봇에서 사용자의 시력 측정을 위한 측정 환경을 세팅하는 방법을 설명하는 흐름도이다.
도 2를 참조하면, 로봇(100)은 사용자로부터 시력 측정 요청신호를 수신한다(S201). 이때, 로봇(100)은 사전에 구현된 메뉴 트리를 통하여 사용자로부터 시력 측정 요청신호를 수신할 수 있으며, 또는 사용자가 발성한 음성을 인식하여 시력 측정 요청신호를 수신할 수 있다. 또한, 로봇(100)은 저장부(104)에 저장된 시력 측정 스케줄에 따라, 사용자의 시력 측정 시기가 도래한 경우에 시력 측정 요청신호가 사용자로부터 수신된 것으로 판단할 수도 있다.
다음으로, 로봇(100)의 위치 선정부(107)는 현 위치에서의 공간 구조를 스캐닝한다(S203). 이때, 위치 선정부(107)는 로봇(100)을 360°회전시키거나 카메라(101)를 회전시켜, 카메라(101)에서 촬영한 주변 영상을 획득하고, 이 주변 영상을 분석하여 현재 위치한 공간에서 벽면이 존재하는지 여부를 확인함으로써, 현 위치에서의 공간 구조를 스캐닝한다.
다음으로, 위치 선정부(107)는 현재 위치한 공간에서 일정 면적 이상의 크기를 가지는 벽면이 존재하는지 여부를 확인하여 존재하지 않으면, 시력 측정이 불가능함을 알리는 음성 메시지를 스피커로 출력한다. 반면에, 위치 선정부(107)는 현재 위치한 공간에서 일정 면적 이상의 크기를 가지는 하나 이상의 벽면이 존재하면, 특정 벽면을 시표가 투사되는 스크린으로 선정한다(S205). 바람직하게, 위치 선정부(107)는 현재 위치한 공간에서 일정 크기 이상의 면적을 가지는 복수의 벽면이 존재한 경우, 수집한 영상을 분석하여 로봇(100)이 벽면으로 이동할 때에 장애물이 가장 적은 벽면을 스크린으로 선정한다.
이어서, 위치 선정부(107)는 거리 측정 센서(102)를 이용하여 상기 선정한 스크린과의 일정 거리(예컨대, 2m)만큼 이격된 위치를 확인하여, 이 위치를 로봇(100)이 이동할 이동위치로 선정하고, 구동부(105)를 제어하여 상기 선정된 이동위치로 로봇(100)을 이동시킨다(S207).
다음으로, 위치 선정부(107)는 거리측정 센서(102)를 이용하여 상기 선정한 스크린에서 특정 거리만큼 이격된 위치를 사용자의 시력측정 위치를 결정한다(S209). 바람직하게, 위치 선정부(107)는 거리측정 센서(102)를 이용하여 상기 선정한 스크린에서부터 기준 시력측정 거리(예컨대, 5m)만큼의 이격 거리가 확보될 수 있는지 여부를 판별하여, 확보될 수 있으면 상기 스크린에서부터 기준 시력측정 거리(예컨대, 5m)만큼 이격된 위치를 사용자의 시력측정 위치로 결정한다. 반면에, 위치 선정부(107)는 상기 판별결과 스크린에서부터 기준 시력측정 거리만큼의 이격 거리가 확보되지 않으면, 상기 스크린과 이격 가능한 최대 거리 또는 사전에 설정된 스크린과의 이격 거리(예컨대, 3m)를 사용자의 시력측정 위치로 결정할 수 있다.
이어서, 위치 선정부(107)는 광선 투사부(106)를 이용하여 상기 결정된 시력측정 위치로 광선(예컨대, 레이저)을 투사하고(S211), 더불어 광선 투사 지점으로의 이동을 요구하는 음성 메시지를 스피커로 출력하여, 사용자가 상기 광선 투사 지점에 이동하도록 유도한다.
이렇게 사용자가 광선 투사 지점에 위치하면, 배율 설정부(108)는 거리 측정 센서(102)를 이용하여 사용자와 스크린까지의 거리를 측정한다(S213). 그리고 배율 설정부(108)는 사전에 설정된 기준 시력측정 거리(예컨대, 5m)에 대비하여 상기 측정한 사용자와 스크린까지의 거리의 비율을 산출한다(S215). 이어서, 배율 설정부(108)는 상기 산출한 비율에 근거하여, 스크린에 투사되는 시표의 확대 또는 축소 배율을 설정한다(S217). 구체적으로, 배율 설정부(108)는 사용자와 스크린 간의 거리가 기준 시력측정 거리와 동일하면 시표 크기의 축소 또는 확대 배율을 변경시키지 않고 오리지널 배율을 유지하고, 사용자와 스크린 간의 거리가 기준 시력측정 거리보다 짧으면 시표 크기가 작아지도록 시표 크기의 축소 배율을 설정하며, 또한 사용자와 스크린 간의 거리가 기준 시력측정 거리보다 길면 시표 크기가 커지도록 시표 크기의 확대 배율을 설정한다. 바람직하게, 배율 설정부(108)는 S215 단계에서 산출한 비율에 비례하여 시표가 확대되거나 축소되는 배율을 설정한다.
여기서, 확대 배율이 설정되는 원인은, 사용자가 광선 투사 지점으로 정확하게 이동하지 않는 경우일 수 있다. 구체적으로, 위치 선정부(107)는 스크린에서부터 기준 시력측정 거리(예컨대, 5m)만큼의 이격 거리가 확보된 것으로 확인되어, 이 기준 시력측정 거리에 해당하는 위치를 광선으로 투사하여 사용자의 이동을 유도하였으나, 사용자가 광선 투사 지점에 정확하게 이동하지 않은 경우, 사용자와 스크린 간의 거리가 상기 기준 시력측정 거리를 초과할 수 있다. 이와 같은 경우에, 배율 설정부(108)는 사용자와 스크린 간의 거리가 기준 시력측정 거리보다 긴 것을 확인하여, 시표 크기가 커지도록 시표의 확대 배율을 설정한다.
시표의 확대 또는 축소 배율의 설정이 완료되면, 배율 설정부(108)는 상기 설정한 시표의 확대 배율 또는 축소 배율을 시력 측정부(111)로 전달하고, 더불어 투사 환경 설정부(109)로 투사 환경의 세팅을 요청한다.
그러면, 투사 환경 설정부(109)는 조도 측정 센서(103)를 이용하여 현 위치에서의 조도를 측정한다(S219). 그리고 투사 환경 설정부(109)는 상기 측정한 조도가 기준치(예컨대, 200 룩스) 이상인지 여부를 판별한다(S221). 다음으로, 투사 환경 설정부(109)는 상기 판별 결과 측정한 조도가 기준치 미만이면, 시표 투사부(110)의 투사 밝기를 증가시킨다(S223). 바람직하게, 투사 환경 설정부(109)는 상기 측정한 조도가 기준치에 미달된 수치에 비례하여 시표 투사부(110)의 투사 밝기를 증가시킨다. 예컨대, 투사 환경 설정부(109)는 조도가 기준에 1룩스 미달되는 만큼, 시표 투사부(110)의 투사 밝기를 1씩 증가시킬 수 있다.
다음으로, 투사 환경 설정부(109)는 사용자의 신장을 확인한다(S225). 이때, 투사 환경 설정부(109)는 사용자로부터 사전에 입력받아 저장한 신장 데이터에 근거하여 사용자의 신장을 확인할 수 있다. 또한, 카메라(101)를 이용하여 사용자의 전체 이미지를 촬영하고 이 촬영된 사용자의 전체 이미지를 분석하여 사용자의 신장을 측정할 수도 있다. 이 경우, 투사 환경 설정부(109)는 카메라(101)를 이용하여 사용자의 전체 이미지를 촬영하고, 사용자의 머리 끝이 위치한 지점을 상기 이미지 분석을 통해 인식한다. 그리고 투사 환경 설정부(109)는 상기 이미지의 전체 높이와 사용자의 머리 높이의 비율을 산출하고, 이 산출한 비율에 근거하여 사용자의 신장을 측정할 수 있다. 바람직하게, 투사 환경 설정부(109)는 거리 측정 센서(102)를 이용하여 사용자와 로봇(100) 간의 거리를 측정하고, 이 측정한 거리에 근거하여 상기 카메라(101)의 배율을 확대하거나 축소한 후 사용자의 전체 이미지를 촬영한다. 예컨대, 투사 환경 설정부(109)는 사용자와 로봇(100) 간의 거리가 2m인 경우, 카메라(101)의 배율을 오리지널 배율로 유지하여 사용자를 촬영하고, 사용자와 로봇(100) 간의 거리가 2m를 벗어난 경우, 이 벗어난 길이에 비례하여 카메라(101)의 배율을 확대하거나 축소한다.
이어서, 투사 환경 설정부(109)는 상기 확인한 사용자의 신장을 토대로, 시표 투사부(110)의 투사 각도를 조절한다(S227). 즉, 투사 환경 설정부(109)는 측정한 사용자의 신장에 비례하여, 시표 투사부(110)의 투사 각도가 더욱 위쪽으로 향하도록 시표 투사부(110)의 투사 각도를 조절한다. 부연하면, 투사 환경 설정부(109)는 사용자의 눈높이와 스크린에 투사되는 시표가 평행이 되도록 하기 위하여, 상기 사용자의 신장에 비례하여 시표가 스크린에 더욱 위쪽으로 투사되도록 시표 투사부(110)의 투사 각도를 위 방향으로 상향 조절한다. 예컨대, 투사 환경 설정부(109)는 사용자의 신장이 80cm를 초과한 경우, 초과된 5cm의 신장만큼 시표 투사부(110)의 투사 각도를 0.1°씩 위방향으로 상향 조절할 수 있다.
도 2의 순서에 따라 시력 측정을 위한 세팅이 완료되면, 로봇(100)은 스크린으로 선정된 벽면으로 시표를 투사하여 사용자의 시력을 측정한다.
도 3은 본 발명의 일 실시예에 따른, 로봇에서 스크린에 시표를 투사하여 사용자의 시력을 측정하는 방법을 설명하는 흐름도이다.
도 3을 참조하면, 시력 측정부(111)는 도 2와 같이 시력 측정을 위한 세팅이 완료되면, 시력 측정 개시를 알리는 음성 메시지를 스피커로 출력한다(S301). 이때, 시력 측정부(111)는 오른쪽 눈을 가리는 것을 요청하는 음성 멘트를 스피커로 추가적으로 출력한다.
시력 측정부(111)는 카메라(101)를 통해 사용자의 영상을 획득하고, 이렇게 획득된 영상을 분석하여 사용자의 오른쪽 눈이 가려졌는지 여부를 판별한다(S303). 이때, 시력 측정부(111)는 카메라(101)를 통해 촬영된 영상에서 사용자의 얼굴을 확대하고, 이 확대된 얼굴을 토대로 사용자의 양쪽 안구 중에서, 왼쪽 안구만이 인식되는지 여부를 확인함으로써, 사용자의 오른쪽 눈이 가려졌는지 여부를 판별할 수 있다.
시력 측정부(111)는 사용자가 오른쪽 눈을 가리지 않은 경우, 오른쪽 눈을 가리는 것을 요청하는 음성 안내 메시지를 스피커로 다시 출력하여 사용자가 오른쪽 눈을 스스로 가리도록 유도한다(S315).
반면에, 시력 측정부(111)는 상기 판별결과, 사용자가 오른쪽 눈이 가린 것으로 판별되면, 저장부(104)에서 저장된 첫 레벨(즉, 시력 0.1 레벨)에 해당하는 복수의 시표 중에서 어느 하나를 추출한다. 그리고 시력 측정부(111)는 배율 설정부(108)로부터 전달받은 시표의 확대 배율 또는 축소 배율에 따라, 상기 추출한 시표의 크기를 확대하거나 축소하고, 이렇게 축소 또는 확대된 시표를 시표 투사부(110)를 이용하여 스크린으로 선정된 벽면으로 투사한다(S305). 이때, 시표 투사부(110)는 투사 환경 설정부(109)에 의해 설정받은 투사 밝기값과 투사 각도를 적용하여 상기 시표를 벽면에 투사한다.
다음으로, 시력 측정부(111)는 음성인식 모듈(111a)을 활성화하고 이 음성인식 모듈(111a)을 이용하여 사용자가 응답한 음성을 인식한다(S307). 이어서, 시력 측정부(111)는 인식된 사용자의 음성이 투사중인 시표에 대한 정답인지 여부를 판정한다(S309). 구체적으로, 시력 측정부(111)는 투사중인 알파벳, 숫자 또는 한글이 사용자가 발화한 음성과 일치하는지 여부를 확인함으로써, 투사중인 시표에 대한 정답 여부를 판정한다. 또는, 시력 측정부(111)는 오른쪽, 왼쪽, 위쪽, 아래쪽 중에서 어느 하나가 뚫린 란돌트 고리 시표가 투사된 경우, 사용자가 발화한 방향과 란돌트 고리 시표가 뚫린 방향이 일치하는 여부를 확인함으로써, 투사중인 시표의 정답을 판정할 수 있다. 한편, 시력 측정부(111)는 란돌트 고리 시표가 투사된 경우에, 카메라(101)를 이용하여 사용자의 동작을 영상 인식한 후, 사용자가 손 또는 팔로 가리키는 방향과 란돌트 고리 시표가 뚫린 방향이 일치하는 여부를 확인함으로써, 투사중인 시표의 정답 여부를 판정할 수도 있다.
이어서, 시력 측정부(111)는 상기 판정 결과 사용자가 정답을 맞힌 것으로 확인되면, 상기 투사중인 시표가 마지막 레벨(시력 2.0 레벨)에 해당하는 시표인지 여부를 확인하여(S311), 마지막 레벨에 해당하는 시표이면 현재까지 정답으로 확인된 레벨에 해당하는 시력 측정결과(즉, 2.0), 눈 위치정보(즉, 왼쪽 눈) 및 현재 날짜가 기록된 시력 측정 결과를 저장부(104)의 시력 측정 이력에 기록한다(S313).
반면에, 시력 측정부(111)는 시표 투사부(110)를 통해 투사중인 시표가 마지막 레벨에 해당하는 시표가 아니면 투사 중인 시표 레벨 다음 단계에 해당하는 시표를 저장부(104)에서 추출한다(S317). 이어서, 시력 측정부(111)는 배율 설정부(108)로부터 전달받은 시표의 확대 배율 또는 축소 배율을 토대로, 상기 추출한 다음 레벨에 해당하는 시표의 크기를 확대하거나 축소하고, 이렇게 축소 또는 확대된 시표를 시표 투사부(110)를 이용하여 스크린으로 선정된 벽면으로 투사한 후, S307 단계 이후를 반복한다.
한편, 시력 측정부(111)는 S307 단계의 판정 결과 사용자가 정답을 맞히지 못하면, 바로 직전에 정답으로 확인된 레벨의 시력 측정결과, 눈 위치정보 및 현재 날짜가 기록된 시력 측정 결과를 저장부(104)의 시력 측정 이력에 저장한다. 예컨대, 시력 측정부(111)는 시력 1.5 레벨에서 오답이 인식된 경우, 바로 직전에 정답으로 확인된 시력 1.2레벨을 시력 측정 결과로서 저장한다.
도 3의 절차에 따라, 왼쪽 눈의 시력 측정이 완료되면, 시력 측정부(111)는 S301 단계를 재진행하여 오른쪽 눈의 시력을 측정한다. 구체적으로, 시력 측정부(111)는 오른쪽 눈의 시력 측정 개시를 알리는 음성 메시지를 스피커로 출력하고, 사용자의 얼굴을 확대하여 왼쪽 눈이 가려졌는지 여부를 판별한다. 그리고 시력 측정부(111)는 사용자의 이미지를 촬영하고 분석하여 사용자의 왼쪽 눈이 가려진 것으로 판별되면, 처음 레벨의 시표를 시표 투사부(110)를 통해 스크린으로 선정된 벽면에 투사하여 사용자의 오른쪽 눈의 시력을 측정하는 S305 단계를 진행한다.
상술한 바와 같이, 본 발명에 따른 로봇(100)은, 사용자와 스크린 간의 거리와 기준 시력측정 거리의 비율을 토대로 시표의 크기를 결정하여 스크린에 시표를 출력한 후, 사용자의 음성을 인식하여 정답 여부를 판정하여 사용자의 시력을 측정한다. 게다가, 본 발명에 따른 로봇(100)은 사용자가 시력 측정을 위해 위치해야 하는 장소를 광선 투사를 통해 알려줌으로써 시력 측정의 정확도를 향상시킨다. 또한, 본 발명에 따른 로봇(100)은 사용자의 신장과 현 위치에서 측정된 조도를 토대로, 시표의 투사 각도와 투사 밝기를 조절하여 스크린에 시표를 투사함으로써, 시력 측정의 정확도를 향상시키고 시력 측정시에 발생하는 눈의 피로도를 최소화한다.
본 명세서는 많은 특징을 포함하는 반면, 그러한 특징은 본 발명의 범위 또는 특허청구범위를 제한하는 것으로 해석되어서는 안 된다. 또한, 본 명세서에서 개별적인 실시예에서 설명된 특징들은 단일 실시예에서 결합되어 구현될 수 있다. 반대로, 본 명세서에서 단일 실시예에서 설명된 다양한 특징들은 개별적으로 다양한 실시예에서 구현되거나, 적절히 결합되어 구현될 수 있다.
도면에서 동작들이 특정한 순서로 설명되었으나, 그러한 동작들이 도시된 바와 같은 특정한 순서로 수행되는 것으로, 또는 일련의 연속된 순서, 또는 원하는 결과를 얻기 위해 모든 설명된 동작이 수행되는 것으로 이해되어서는 안 된다. 특정 환경에서 멀티태스킹 및 병렬 프로세싱이 유리할 수 있다. 아울러, 상술한 실시예에서 다양한 시스템 구성요소의 구분은 모든 실시예에서 그러한 구분을 요구하지 않는 것으로 이해되어야 한다. 상술한 프로그램 구성요소 및 시스템은 일반적으로 단일 소프트웨어 제품 또는 멀티플 소프트웨어 제품에 패키지로 구현될 수 있다.
상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(시디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다. 이러한 과정은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있으므로 더 이상 상세히 설명하지 않기로 한다.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.

Claims (14)

  1. 사용자의 시력을 측정하는 로봇으로서,
    상기 사용자와 스크린 간의 거리를 측정하는 거리 측정 센서;
    기준 시력측정 거리에 대비하여 상기 측정한 사용자와 스크린 간의 거리의 비율을 산출하고, 상기 산출한 비율을 토대로 시표의 확대 또는 축소 배율을 설정하는 배율 설정부;
    상기 설정된 시표의 확대 또는 축소 배율에 따라 확대되거나 축소된 시표를 상기 스크린에 투사하는 시표 투사부; 및
    상기 사용자의 음성 인식을 통해, 상기 투사중인 시표의 정답 여부를 판정하여 상기 사용자의 시력 측정을 수행하는 시력 측정부;를 포함하는 로봇.
  2. 제 1 항에 있어서,
    광선 투사부; 및
    상기 사용자의 시력측정 위치를 결정하고 상기 광선 투사부를 이용하여 상기 결정한 시력측정 위치로 광선을 투사하고, 상기 광선을 투사한 지점으로 상기 사용자의 이동을 지시하는 메시지를 출력하는 위치 선정부;를 더 포함하는 것을 특징으로 하는 로봇.
  3. 제 2 항에 있어서,
    상기 위치 선정부는,
    카메라를 통해 시력 측정 공간을 스캐닝하여 시력 측정 공간의 이미지를 획득하고, 이 획득한 이미지를 분석하여 인식된 벽면을 상기 스크린으로 선정하여, 상기 스크린과 일정 거리로 이격되는 위치로 상기 로봇을 이동시키는 것을 특징으로 하는 로봇.
  4. 제 1 항에 있어서,
    사용자의 신장에 확인하고, 이 사용자의 신장에 근거하여 상기 시표 투사부의 투사 각도를 조정하는 투사환경 설정부;를 더 포함하는 것을 특징으로 하는 로봇.
  5. 제 4 항에 있어서,
    조도를 측정하는 조도 측정 센서;를 더 포함하고,
    상기 투사환경 설정부는,
    상기 측정한 조도가 기준치 이상인지 여부를 확인하여 상기 조도가 기준치 미만이면, 상기 시표 투사부의 투사 밝기를 증가시키는 것을 특징으로 하는 로봇.
  6. 제 1 항에 있어서,
    상기 시력 측정부는,
    한쪽 눈의 가림을 요구하는 메시지를 출력한 후, 상기 사용자의 얼굴을 촬영하고 이 촬영한 얼굴을 분석하여 사용자의 눈이 가려졌는지 여부를 판별하고, 이 판별 결과 사용자의 한쪽 눈이 가려진 경우에 상기 사용자의 시력 측정을 개시하는 것을 특징으로 하는 로봇.
  7. 제 1 항에 있어서,
    상기 시력 측정부는,
    상기 시표 투사부에서 란돌트 고리 시표가 투사되면, 카메라를 이용하여 상기 사용자의 동작을 영상 인식하여, 사용자가 손 또는 팔로 가리키는 방향과 투사중인 란돌트 고리 시표의 뚫린 방향이 일치하는지 여부를 통해 시표의 정답 여부를 판정하는 것을 특징으로 하는 로봇.
  8. 제 1 항에 있어서,
    상기 시력 측정부는,
    상기 사용자의 시력 측정이 완료되면, 상기 사용자의 시력 측정 결과를 저장하는 것을 특징으로 하는 로봇.
  9. 로봇에서 사용자의 시력을 측정하는 방법에 있어서,
    상기 사용자와 스크린 간의 거리를 측정하는 단계;
    기준 시력측정 거리에 대비하여 상기 측정한 사용자와 스크린 간의 거리의 비율을 산출하는 단계;
    상기 산출한 비율을 토대로, 시표의 확대 또는 축소 배율을 설정하는 단계;
    상기 설정한 시표의 확대 또는 축소 배율에 따라 시표를 확대하거나 축소하여 상기 스크린에 투사하는 단계; 및
    상기 사용자의 음성을 인식하여, 상기 스크린에 투사한 시표의 정답 여부를 판정하여 시력 측정을 수행하는 단계;를 포함하는 로봇에서의 시력 측정 방법.
  10. 제 9 항에 있어서,
    상기 측정하는 단계 이전에,
    상기 사용자의 시력측정 위치를 결정하고, 이 결정한 시력측정 위치로 광선을 투사하는 단계; 및
    상기 광선을 투사한 시력측정 위치로 상기 사용자의 이동을 지시하는 메시지를 출력하는 단계;를 더 포함하는 것을 특징으로 하는 로봇에서의 시력 측정 방법.
  11. 제 9 항에 있어서,
    상기 측정하는 단계 이전에,
    카메라를 통해 시력 측정 공간을 스캐닝하여 시력 측정 공간의 이미지를 획득하는 단계;
    상기 획득한 이미지를 분석하여 인식된 벽면을 상기 스크린으로 선정하는 단계; 및
    상기 스크린과 일정 거리로 이격되는 위치를 이동위치로 결정하고, 이 이동위치로 이동하는 단계;를 더 포함하는 것을 특징으로 하는 로봇에서의 시력 측정 방법.
  12. 제 9 항에 있어서,
    상기 사용자의 신장을 확인하는 단계; 및
    상기 확인한 사용자의 신장에 근거하여 상기 시표의 투사 각도를 조정하는 단계;를 더 포함하는 것을 특징으로 하는 로봇에서의 시력 측정 방법.
  13. 제 9 항에 있어서,
    조도를 측정하고, 이 측정한 조도가 기준치 이상인지 여부를 판별하는 단계; 및
    상기 판별 결과 상기 측정한 조도가 기준치 미만이면, 상기 시표의 투사 밝기를 증가시키는 단계;를 포함하는 것을 특징으로 하는 로봇에서의 시력 측정 방법.
  14. 제 9 항에 있어서,
    상기 스크린에 투사하는 단계 이전에,
    한쪽 눈의 가림을 요구하는 메시지를 출력하는 단계; 및
    상기 사용자의 얼굴을 촬영하고 이 촬영한 얼굴을 분석하여 사용자의 한쪽 눈이 가려졌는지 여부를 판별하는 단계;를 더 포함하는 것을 특징으로 하는 로봇에서의 시력 측정 방법.
PCT/KR2013/006569 2013-02-15 2013-07-23 로봇에서의 시력 측정 방법 및 이를 위한 로봇 WO2014126307A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2013-0016435 2013-02-15
KR1020130016435A KR101515177B1 (ko) 2013-02-15 2013-02-15 로봇에서의 시력 측정 방법 및 이를 위한 로봇

Publications (1)

Publication Number Publication Date
WO2014126307A1 true WO2014126307A1 (ko) 2014-08-21

Family

ID=51354292

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/006569 WO2014126307A1 (ko) 2013-02-15 2013-07-23 로봇에서의 시력 측정 방법 및 이를 위한 로봇

Country Status (2)

Country Link
KR (1) KR101515177B1 (ko)
WO (1) WO2014126307A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3228237A1 (en) * 2016-04-08 2017-10-11 IROC Science to Innovation AG A device and method for measuring distances
IT201700101120A1 (it) * 2017-09-11 2019-03-11 Idm Srl Apparecchiatura per il miglioramento, allenamento e/o riabilitazione della funzione visiva
CN116616691A (zh) * 2023-05-19 2023-08-22 湖南至真明扬技术服务有限公司 基于虚拟现实的人机互动视力检测方法及系统

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114305317B (zh) * 2021-12-23 2023-05-12 广州视域光学科技股份有限公司 一种智能辨别用户反馈视标的方法和系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1014871A (ja) * 1996-06-28 1998-01-20 Topcon Corp 視力表提示装置
KR20070066574A (ko) * 2005-12-22 2007-06-27 주식회사 팬택 사용자와의 거리에 따라 디스플레이 문자 크기를 조절하는방법 및 이를 이용한 이동통신 단말기
JP2008043402A (ja) * 2006-08-11 2008-02-28 Topcon Corp 自覚式検眼装置
US20100128223A1 (en) * 2007-01-03 2010-05-27 Eytan Blumenthal Method, algorithm and device for testing visual acuity
JP2012245156A (ja) * 2011-05-27 2012-12-13 Brother Industries Ltd 画像形成装置,画像読取装置,画像処理システムおよびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1014871A (ja) * 1996-06-28 1998-01-20 Topcon Corp 視力表提示装置
KR20070066574A (ko) * 2005-12-22 2007-06-27 주식회사 팬택 사용자와의 거리에 따라 디스플레이 문자 크기를 조절하는방법 및 이를 이용한 이동통신 단말기
JP2008043402A (ja) * 2006-08-11 2008-02-28 Topcon Corp 自覚式検眼装置
US20100128223A1 (en) * 2007-01-03 2010-05-27 Eytan Blumenthal Method, algorithm and device for testing visual acuity
JP2012245156A (ja) * 2011-05-27 2012-12-13 Brother Industries Ltd 画像形成装置,画像読取装置,画像処理システムおよびプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3228237A1 (en) * 2016-04-08 2017-10-11 IROC Science to Innovation AG A device and method for measuring distances
WO2017174817A1 (en) * 2016-04-08 2017-10-12 Iroc Science To Innovation Ag A device and method for measuring viewing distances
US11058294B2 (en) 2016-04-08 2021-07-13 Vivior Ag Device and method for measuring viewing distances
IT201700101120A1 (it) * 2017-09-11 2019-03-11 Idm Srl Apparecchiatura per il miglioramento, allenamento e/o riabilitazione della funzione visiva
CN116616691A (zh) * 2023-05-19 2023-08-22 湖南至真明扬技术服务有限公司 基于虚拟现实的人机互动视力检测方法及系统

Also Published As

Publication number Publication date
KR101515177B1 (ko) 2015-04-24
KR20140102919A (ko) 2014-08-25

Similar Documents

Publication Publication Date Title
US11579904B2 (en) Learning data collection device, learning data collection system, and learning data collection method
US6997556B2 (en) Method for detecting, evaluating, and analyzing look sequences
EP3402384B1 (en) Systems and methods for determining distance from an object
US9770168B2 (en) Device for imaging an eye
WO2014126307A1 (ko) 로봇에서의 시력 측정 방법 및 이를 위한 로봇
KR20140034937A (ko) 접촉 없이 조작될 수 있는 측정 장치 및 이와 같은 측정 장치를 위한 제어 방법
KR101472278B1 (ko) 프로젝터와 카메라 및 거리센서를 이용하여 안내화면을 제공하는 전시장용 도슨트 이동로봇
US11397320B2 (en) Information processing apparatus, information processing system, and non-transitory computer readable medium
US11808940B2 (en) Eye tracking system for smart glasses and method therefor
WO2005004055A1 (ja) 目画像撮像装置
WO2021071336A1 (ko) 시선 검출 기반의 스마트 안경 표시 장치
WO2014058136A1 (ko) 이미지를 이용한 신장 측정 방법 및 이동 로봇 장치
CN109753925A (zh) 一种虹膜特征提取的方法和设备
US20180285620A1 (en) High speed pupil detection system and method
EP3701357B1 (en) Multi-layer viewing system and method
JP2007181537A (ja) 視野計
NL2024783B1 (en) A face imaging device comprising a casing defining an opening for a face of a person to be imaged, wherein in the interior of the casing light sources and reflectors are arranged.
CN115191931A (zh) 斜视检测方法、设备及计算机可读存储介质
KR20180116044A (ko) 증강현실용 디바이스와 그 증강현실 출력 방법
CN111067478A (zh) 眼底相机以及自行拍摄眼底的方法
JPH0634779B2 (ja) 眼測定装置
JP2020017932A (ja) 医療映像システム
KR102264772B1 (ko) 호흡 패턴을 이용한 경도인지 장애 진단 및 훈련 시스템
CN111373741B (zh) 医疗安全系统
JP2022113973A (ja) 表示方法、表示装置、及び、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13875192

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13875192

Country of ref document: EP

Kind code of ref document: A1