WO2022014818A1 - 시지각 학습을 이용하는 시지각 훈련 제공 장치 및 시지각 훈련 제공 방법 - Google Patents

시지각 학습을 이용하는 시지각 훈련 제공 장치 및 시지각 훈련 제공 방법 Download PDF

Info

Publication number
WO2022014818A1
WO2022014818A1 PCT/KR2021/003254 KR2021003254W WO2022014818A1 WO 2022014818 A1 WO2022014818 A1 WO 2022014818A1 KR 2021003254 W KR2021003254 W KR 2021003254W WO 2022014818 A1 WO2022014818 A1 WO 2022014818A1
Authority
WO
WIPO (PCT)
Prior art keywords
visual
output
task
cell
visual perception
Prior art date
Application number
PCT/KR2021/003254
Other languages
English (en)
French (fr)
Inventor
강동화
홍락균
Original Assignee
재단법인 아산사회복지재단
울산대학교 산학협력단
주식회사 뉴냅스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020200088442A external-priority patent/KR20220009799A/ko
Priority claimed from KR1020200088439A external-priority patent/KR20220009796A/ko
Priority claimed from KR1020200088441A external-priority patent/KR102604303B1/ko
Application filed by 재단법인 아산사회복지재단, 울산대학교 산학협력단, 주식회사 뉴냅스 filed Critical 재단법인 아산사회복지재단
Priority to EP21842375.4A priority Critical patent/EP4183379A1/en
Publication of WO2022014818A1 publication Critical patent/WO2022014818A1/ko
Priority to US18/153,121 priority patent/US20230165461A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/024Subjective types, i.e. testing apparatus requiring the active assistance of the patient for determining the visual field, e.g. perimeter types
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H5/00Exercisers for the eyes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/007Teaching or communicating with blind persons using both tactile and audible presentation of the information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/032Devices for presenting test symbols or characters, e.g. test chart projectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5023Interfaces to the user
    • A61H2201/5043Displays

Definitions

  • the present invention relates to an apparatus for providing visual perceptual training for improving visual ability and a method for providing visual perceptual training, and more particularly, to an apparatus for providing visual perceptual training for improving visual ability using visual perceptual learning and a method for providing visual perceptual training it's about
  • Ophthalmic diseases can cause abnormalities in the visual system, such as pressure on the optic nerve or a disturbance in blood supply, causing problems with the function of the optic nerve.
  • One problem to be solved by the present invention is to improve visual ability using visual perception learning.
  • Another object to be solved by the present invention is to provide training to a patient suffering from visual field impairment using visual perception learning.
  • Another object of the present invention is to provide effective visual perception learning to a patient.
  • the present invention provides an apparatus for providing visual perception training using visual perception learning, comprising: a display module; and a controller configured to obtain at least one target area corresponding to at least one of a first cell of the left eye field map and a second cell of the right eye field map, and provide a visual perception task to the at least one target area;
  • the controller displays, through the display module, a task object for receiving a response of the patient and fixing the central field of view of the patient, and through the display module, the at least one target Displaying at least one stimulation object at at least one stimulation position corresponding to a region, obtaining a response of the patient related to the task object, wherein the at least one stimulation position is located in the periphery of the task object, the field of view map may include a vision index reflecting the visual field impairment of the patient.
  • the display module includes a left display unit and a right display unit, and the controller displays the at least one stimulation object at the at least one stimulation position corresponding to the first cell through the left display unit, and The at least one stimulation object may be displayed at the position of the at least one stimulation corresponding to the second cell through the right display unit.
  • the controller may display the task object for a predetermined period of time through the display module to provide a visual perception task to the patient, but display the stimulation object only for a part of the predetermined period of time.
  • the at least one stimulation object may include a first stimulation object output at a first time point and a second stimulation object output at a second time point different from the first time point.
  • At least one of the task object and the at least one stimulus object may be gone.
  • the at least one stimulus object may have a spatial frequency of 0.1 to 1 cycle/degree.
  • the at least one stimulus object is output by blinking at a predetermined time frequency, and the time frequency may be 10 to 50 Hz.
  • the patient's response may be related to an attribute of the task object.
  • the attribute may include at least one of a drawing direction and a pattern direction of the task object.
  • the present invention provides a method for providing visual perception training, comprising: acquiring at least one target area corresponding to at least one of a first cell of a left eye map and a second cell of a right eye map; and providing a visual perception task based on the at least one target region, wherein the providing of the visual perception task comprises: receiving a response from a patient and a task object for fixing a central field of view of the patient; displaying; displaying at least one stimulation object at at least one stimulation position corresponding to the at least one target area; and obtaining a response of the patient related to the task object, wherein the at least one stimulation location is located in the vicinity of the task object, and the field of view map includes a vision index reflecting the visual field disturbance of the patient.
  • the providing of the visual perception task comprises: receiving a response from a patient and a task object for fixing a central field of view of the patient; displaying; displaying at least one stimulation object at at least one stimulation position corresponding to the at least one target area; and obtaining a response of the
  • visual ability may be improved by using visual perception learning.
  • visual perception learning can be used to provide training for improving visual ability to a patient suffering from visual impairment using visual perception learning.
  • the effect of visual perception learning may be increased by adjusting the visual perception task according to the patient's visual ability.
  • FIG. 1 is a view for explaining an apparatus for providing visual perception training according to the present invention.
  • FIG. 2 is a diagram for explaining an apparatus for providing visual perception training that communicates with a server according to the present invention.
  • FIG. 3 is a diagram of non-limiting examples of a visual object according to the present invention.
  • FIG. 4 is a diagram for explaining classification according to an output position of a visual object according to the present invention.
  • FIG. 5 is a flowchart illustrating a method for improving visual ability using visual perceptual learning according to the present invention.
  • FIG. 6 is a diagram of a field of view map comprising a plurality of cells to which vision scores are assigned according to the present invention.
  • FIG. 7 is a view of a field of view map including a plurality of cells to which vision status is assigned according to the present invention.
  • FIG. 8 is a diagram of examples of a visual perception task according to the present invention.
  • FIG. 9 is a diagram of examples of a visual perception task according to the present invention.
  • FIG. 10 is a flowchart illustrating a step of determining information on an output position of a visual object according to the present invention.
  • FIG. 11 is a flowchart for explaining the step of determining information on the output frequency of a visual object according to the present invention.
  • FIG. 12 is a diagram of a visual object output at regular time intervals according to the present invention.
  • FIG. 13 is a flowchart illustrating a step of determining information on an output order of a visual object according to the present invention.
  • FIG. 14 is a diagram for explaining a visual object output at different viewpoints according to the present invention.
  • 15 is a flowchart for explaining a step of determining information about a property of a visual object according to the present invention.
  • 16 is a view for explaining a step of determining information about at least one of an output position, an output frequency, an output order, and an attribute of a visual object in consideration of a vision index of an adjacent cell according to the present invention.
  • 17 is a view for explaining a step of determining information about at least one of an output position, an output frequency, an output order, and an attribute of a visual object in consideration of a vision index of an adjacent cell according to the present invention.
  • 18 is a diagram for explaining a step of determining information about at least one of an output position, an output frequency, an output order, and an attribute of a visual object in consideration of the position/direction of a viewing area according to the present invention.
  • 19 is a view for explaining a step of determining information about at least one of an output position, an output frequency, an output order, and an attribute of a visual object in consideration of the position/direction of a viewing area according to the present invention.
  • 20 is a flowchart illustrating a step of determining information about at least one of an output position, an output frequency, an output order, and an attribute of a visual object in consideration of an additional inspection result according to the present invention.
  • 21 is a view for explaining the step of predicting the progression of the visual field defect according to the present invention.
  • 22 is a view for explaining the step of predicting the progression of the visual field defect according to the present invention.
  • FIG. 23 is a diagram for explaining a learning step of an artificial neural network according to the present invention.
  • 24 is a diagram for explaining an inference step of an artificial neural network according to the present invention.
  • 25 is a flowchart illustrating a method for improving visual ability in consideration of both eyes according to the present invention.
  • 26 is a diagram for explaining a step of providing a visual perception task based on left eye visual ability information and right eye visual ability information according to the present invention.
  • 27 is a diagram for explaining providing a visual perception task in consideration of left eye visual ability information and right eye visual ability information according to the present invention.
  • 28 is a diagram for explaining providing a visual perception task in consideration of left eye visual ability information and right eye visual ability information according to the present invention.
  • the term “unit” refers to a hardware element such as software, FPGA, or ASIC, and “unit” performs certain roles. However, “part” is not meant to be limited to software or hardware. A “unit” may be configured to reside on an addressable storage medium and may be configured to refresh one or more processors. Thus, by way of example, “part” refers to elements such as software elements, object-oriented software elements, class elements and task elements, and processes, functions, properties, procedures, subroutines, and programs. It includes segments of code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. The functionality provided within elements and “parts” may be combined into a smaller number of elements and “parts” or further separated into additional elements and “parts”.
  • all “units” may be controlled by at least one processor, and at least one processor may perform operations performed by the “units” of the present disclosure.
  • Embodiments of the present specification may be described in terms of a function or a block performing a function.
  • Blocks which may be referred to as 'parts' or 'modules', etc. in the present disclosure include logic gates, integrated circuits, microprocessors, microcontrollers, memories, passive electronic components, active electronic components, optical components, hardwired circuits, and the like. It may be physically implemented by analog or digital circuitry, such as, and optionally driven by firmware and software.
  • Embodiments of the present specification may be implemented using at least one software program running on at least one hardware device and may perform a network management function to control an element.
  • perceptual learning means learning to improve the perception of a stimulus through repetitive training for the stimulus.
  • visual perceptual learning refers to learning to improve the perception of a visual stimulus through repetitive training that provides the visual stimulus.
  • Visual perception learning should be broadly interpreted to include learning to improve the ability to identify objects from stimuli, as well as learning to improve the ability to discover objects from stimuli coming in from the outside through the visual organ.
  • the visual field defect / visual field disorder refers to a disorder of the visual system from the retina to the cerebral cortex or an abnormality of the visual field.
  • visual field defect should be broadly interpreted to include visual field defect due to death (or dysfunction) of retinal ganglion cells as well as visual field defect due to damage to brain function.
  • diseases that cause visual field disturbance may include glaucoma, macular degeneration, diabetic retinopathy, hemianopia, and quadrantanopia.
  • visual ability is a concept that includes not only visual acuity measured according to whether letters, numbers, symbols, etc. of the visual acuity test table can be identified in order of size, but also visual perception ability related to object recognition in the brain. should be interpreted broadly. For example, the eye normally receives visual stimuli, but the brain does not perceive the visual stimuli, so the inability to see an object may mean that the visual ability is poor or poor.
  • training refers to any action in which the symptoms of visual field defect/visual disturbance are improved or changed to advantage.
  • training may be a measure to obtain effects such as suppressing progression of visual field defect, decreasing the progression rate of visual field defect, stopping progression of visual field defect, and improving visual field defect.
  • a computerized task may be rendered using computerized components, and a user may be instructed as to a goal or purpose for performing the computerized task.
  • a task may require an individual to provide or withhold a response to a particular stimulus.
  • a session may refer to a time period having a beginning and an end during which a user interacts with a device to receive learning from the device.
  • a session may be 1 second, 30 seconds, 1 minute, 1 hour, 12 hours, a day, a week, a month, and the like.
  • a visual object may mean a visual stimulus such as a visual object output to a user.
  • a specific embodiment of the visual object will be described later.
  • FIG. 1 is a view for explaining an apparatus for providing visual perception training according to the present invention.
  • the apparatus 100 for providing visual perception training includes an output module 1100 , a controller 1200 , a memory 1300 , an input module 1400 , and a communication module 1500 .
  • an output module 1100 the apparatus 100 for providing visual perception training according to an embodiment includes an output module 1100 , a controller 1200 , a memory 1300 , an input module 1400 , and a communication module 1500 .
  • the apparatus 100 for providing visual perception training may include various devices capable of performing computational processing.
  • the apparatus 100 for providing visual perception training includes a desktop PC, a mobile phone, a smart phone, a laptop computer, personal digital assistants (PDA), a portable multimedia player (PMP), and a slate PC (slate).
  • PC personal digital assistants
  • PMP portable multimedia player
  • slate PC slate PC
  • PC tablet PC
  • ultrabook ultrabook
  • wearable device and the like.
  • the apparatus 100 for providing visual perception training may be worn on any part of the body and used in such a way that the output module 1100 and the user's eyes face each other.
  • the apparatus 100 for providing visual perception training may be mounted on a head mounted device or a head mounted device such as a head mounted display (HMD) that is mounted on the user's head to display an image, smart glasses, and smart goggles. It may include a display device such as a mobile phone or the like.
  • HMD head mounted display
  • the output module 1100 may output an image or an image.
  • the output module 1100 may include an LCD, an OLED, an AMOLED display, or the like.
  • the output module 1100 may perform the function of the input module 1400 .
  • a separate input module 1400 may not be provided according to selection, and an input module 1400 performing limited functions such as volume control, power button, and home button may be provided.
  • the output module 1100 may be provided in the form of an image output port for transmitting image information to an external display device.
  • the screen of the output module 1100 may include a left display unit corresponding to the left eye of the patient and a right display unit corresponding to the right eye of the patient.
  • the left display unit may output a first image
  • the right display unit may output a second image
  • the controller 1200 adjusts the distance between the first image and the second image, the degree of overlap, etc. and provides it to the user You can adjust the parallax and focus of the image.
  • the first image and the second image may be the same image or images in which at least some of them overlap each other.
  • the first image and the second image may be images that do not overlap each other.
  • left display unit and the right display unit may be physically separated separate display modules.
  • the left display unit and the right display unit may be the left area and the right area of the same display module.
  • the output module 1100 may display an image for learning the user's visual perception. For example, the output module 1100 may visually output a process before starting the visual perception task, an instruction, an image for performing the visual perception task, and the like.
  • the output module 1100 may output information to be provided to the user in various ways.
  • the output module 1100 may include a speaker, a motor, a haptic device, a vibrator, a signal output circuit, and the like, and may be a module that outputs various stimuli.
  • the output module 1100 may output information for the visual perception task aurally or tactilely. Specifically, the output module 1100 may audible or tactile output an alarm indicating the start and end of the training session.
  • the output module 1100 may output a stimulus for other perceptual learning (eg, auditory perceptual learning).
  • the output module 1100 may output an auditory stimulus for auditory perception learning.
  • the output module 1100 may output an instruction informing a rule related to the auditory perception task, an auditory stimulus for the auditory perception task, and the like.
  • the controller 1200 may control each configuration of the apparatus 100 for providing visual perception training or process and calculate various types of information. For example, the controller 1200 may output an image for the visual perception task through the output module 1100 . Specifically, the controller 1200 determines the position of the visual object on the output module 1100 in the visual perception task based on the acquired user's visual field map, and displays the visual object at the position determined through the output module 1100 . can do.
  • the controller 1200 may be implemented as software, hardware, or a combination thereof.
  • the controller 1200 may be implemented as a field programmable gate array (FPGA), an application specific integrated circuit (ASIC), a semiconductor chip, and other various types of electronic circuits.
  • FPGA field programmable gate array
  • ASIC application specific integrated circuit
  • the controller 1200 may be implemented in a logic program executed according to the above-described hardware or in various computer languages.
  • the operation of the apparatus 100 for providing visual perception training is performed under the control of the controller 1200 .
  • the memory 1300 may store various data.
  • the memory 1300 may store data related to the visual perception task.
  • the memory 1300 is a program for executing a visual perception task, user information (eg, user personal information, information related to the visual perception task, the user's response when performing the task, the user's visual perception task result) , data related to the user's field of view map, and the like may be stored.
  • the memory 1300 includes a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD memory, etc.), Random Access Memory (RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM) Magnetic Memory, Magnetic It may include at least one type of storage medium among a disk and an optical disk.
  • the memory 1300 may temporarily, permanently, or semi-permanently store information, and may be provided as a built-in or removable type.
  • the input module 1400 may obtain a signal corresponding to the user's input. For example, the input module 1400 receives a user's input for performing a visual perception task, a user's input for adjusting the focus of an image for a visual perception task during visual perception learning, and a user's response requested by the visual perception task. It is possible to receive a user's input for receiving.
  • the input module 1400 may include a keyboard, a key pad, a button, a jog shuttle, and a wheel.
  • the user's input in the input module 1400 may be, for example, a button press, a touch, and a drag.
  • the output module 1100 may serve as the input module 1400 .
  • the input module 1400 may be configured as a separate module connected to the visual perception training providing apparatus 100 wirelessly or by wire.
  • the apparatus 100 for providing visual perception training provides an image for a visual perception task to the user through an output module 1100 mounted on and attached to the user's head, and an input composed of a separate module given to the user's hand.
  • An input for a visual perception task may be received from a user through the module 1400 .
  • the communication module 1500 may communicate with an external device.
  • the communication module 1500 may communicate with a server.
  • the communication module 1500 may transmit data related to the user's visual perception task to the server, and may receive personalized feedback therefor from the server.
  • the communication module 1500 may perform communication according to wired and wireless communication standards.
  • the communication module 1500 is BLE (Bluetooth Low Energy), Bluetooth (Bluetooth), WLAN (Wireless LAN), WiFi (Wireless Fidelity), WiFi Direct, NFC (Near Field Communication), infrared communication (Infrared Data Association) ; IrDA),
  • It may include a mobile communication module including UWB (Ultra Wide Band), Zigbee, 3G, 4G, or 5G, and a wired/wireless module for transmitting data through various other communication standards.
  • UWB Ultra Wide Band
  • Zigbee Zigbee
  • 3G 3G
  • 4G 4G
  • 5G 5G
  • wired/wireless module for transmitting data through various other communication standards.
  • FIG. 2 is a diagram for explaining an apparatus for providing visual perception training that communicates with a server according to the present invention.
  • the devices 100 and 200 may communicate with the server 10000 by receiving or transmitting data from the server 10000 through the communication modules 1500 and 2500 .
  • the server 10000 includes instructions, an image for performing a visual perception task, a program for executing a visual perception task, personal information of the user, information related to the visual perception task, a user's response when performing a task, and a user's message
  • data related to the user's field of view map may be received or transmitted to the devices 100 and 200 .
  • the apparatus 100 and 200 for providing visual perception training shown in FIGS. 1 and 2 are merely examples, and the configuration of the apparatus 100 and 200 is not limited thereto, and each configuration of the apparatus 100 and 200 for providing visual perception training is The function to be performed is not necessarily performed by the corresponding configuration and may be performed by another configuration.
  • the memories 1300 and 2300 of the apparatus for providing visual perceptual training 100 and 200 store data related to the user's visual perceptual task
  • the server 10000 connected through (1500, 2500) may store data related to the user's visual perception task.
  • a method for improving visual ability using visual perception learning includes a visual object to a user using a visual perception training providing apparatus for the treatment/improvement of a visual impairment or disease of a user/patient It may be to provide each task.
  • the visual object may be provided to the user through the output module.
  • FIG. 3 is a diagram of non-limiting examples of a visual object according to the present invention.
  • the types of visual objects may include a figure type, a leaver type, and a character type.
  • Visual objects have type, size, shape, color, saturation, brightness, movement, pattern orientation, spatial frequency of pattern, phase of pattern, temporal frequency, and contrast. It can have various properties.
  • the spatial frequency of the pattern is the frequency at which the pattern is repeated in space, and may be expressed in units of, for example, cycle/degree.
  • the spatial frequency may be 0.1 to 1 cycle/degree.
  • the spatial frequency may be 0.5 cycle/degree.
  • the time frequency is the frequency at which the visual object blinks, and may be expressed in units of Hz, for example.
  • the time frequency may be 10 to 50 Hz.
  • the time frequency may be 18 to 30 Hz.
  • the time frequency may be 20 Hz.
  • the visual object may be a figure type. Referring to FIG. 3 , the visual object may be a circle, a triangle, or a rectangle, and may also have various other shapes.
  • the visual object may be a filled figure or a figure showing only a border, or may be partially filled.
  • the visual object may be a Gabor type.
  • the Gabor-type visual object may have various properties that can be changed, such as the size of the Gabor, the direction of the pattern, the spatial frequency of the pattern, the time frequency, the phase of the pattern, and the contrast.
  • the size of the first Gabor G1 may be greater than the size of the second Gabor G2.
  • the direction (vertical direction) of the pattern of the first gap G1 may be different from the direction (diagonal direction) of the pattern of the third gap G3 .
  • the spatial frequency of the pattern of the first Gabor (G1) may be smaller than the spatial frequency of the pattern of the fourth Gabor (G4).
  • the phase of the pattern of the first Gabor ( G1 ) may be different from the phase of the pattern of the fifth Gabor ( G5 ).
  • the contrast of the first Gabor G1 may be greater than the contrast of the sixth Gabor G6.
  • the visual object may be of a character type.
  • the visual object may be a Hangul consonant or vowel such as ⁇ or t.
  • the visual object may be an uppercase English letter such as A or T or a lowercase English letter such as a.
  • the visual object may be various characters.
  • the color, saturation, brightness, etc. of the visual object may vary.
  • the visual object may have color, saturation, and brightness that induce an increase in optic nerve stimulation.
  • a visual object may have a movement property that represents movement or rotation.
  • the visual object may rotate in a specific direction.
  • the user may recognize that the Gabor is rotating.
  • the user may recognize that the visual object is moving toward or away from it.
  • the visual object may include a central gaze fixing object for central fixation of the user.
  • the central gaze fixed object may be output to the central region of the output module, but is not limited thereto, and may be output to a position at which the user's central gaze is to be fixed on the output module.
  • the visual object may include a central object output to a central area of the output module and a peripheral object output to a periphery of the central object according to an output position in the output module.
  • FIG. 4 is a diagram for explaining classification according to an output position of a visual object according to the present invention.
  • the visual object may include a central object 1 and a peripheral object 2 that are output to the central region of the output module 1101 .
  • the central object 1 may correspond to the central gaze fixed object, but is not limited thereto.
  • the visual object may include a task object that is related to a user reaction and a stimulus object that is not related to the user's reaction.
  • a user can determine a user reaction based only on the task object.
  • the user reaction is the user's reaction to a visual perception task or visual object, and not only when the user inputs a user input to the device through the input module, but also when the user does not respond morally (for example, intentionally if not entered) is also included.
  • the stimulus object is not related to the user's reaction, it may be output at a position corresponding to the visual field defect area requiring visual field disorder treatment.
  • the task object may also be output to a position corresponding to the visual field defect region.
  • the task object may be a central gaze fixing object, but is not limited thereto.
  • the task object may be a central object and the stimulus object may be a peripheral object, but the present invention is not limited thereto, and each of the task object and the stimulus object may be at least one of a central object and a peripheral object.
  • the method may include acquiring visual ability information ( S1100 ), providing a visual perception task ( S1200 ), and acquiring and evaluating a user action ( S1300 ).
  • the method may be for ameliorating a deficit/damage in a specific field of view of a user/patient.
  • a field of view in which training for a patient with a visual field impairment is performed or a field of view in which training is mainly performed is referred to as a target area.
  • the visual field impairment area may be a target area.
  • a position on the output module corresponding to the target area is referred to as a target position.
  • a cell of a view map corresponding to a target area on a view map to be described later is referred to as a target cell.
  • the step of obtaining the visual ability information according to an embodiment may be acquiring information related to the user/patient's visual ability.
  • the device may obtain the visual ability information of the user/patient.
  • the visual ability information may be a visual field test result obtained through a visual field test such as perimetry.
  • the visual ability information may be a visual field map.
  • the visual field map is a map indicating the user's visual range and visual ability.
  • the visual field map may include a plurality of cells to which vision indexes reflecting the user's visual ability are assigned.
  • a specific cell of the viewing map may correspond to a specific viewing area of the user.
  • the first cell and the second cell of the viewing map may correspond to the first viewing area and the second viewing area, respectively.
  • a cell located in the center of the viewing map may correspond to a central viewing area
  • a cell located in the peripheral portion may correspond to a peripheral viewing area.
  • a cell located at a lower portion of the viewing map may correspond to a lower viewing area
  • a cell located at an upper portion may correspond to an upper viewing area.
  • the vision index may mean a measure indicating the degree of the user's visual ability (or the degree of disease progression).
  • the vision index may be a vision score that is a value within a predetermined numerical range.
  • a higher vision score may indicate good visual ability of a corresponding cell, but conversely, a lower vision score may indicate good visual ability.
  • FIG. 6 is a diagram of a field of view map comprising a plurality of cells to which vision scores are assigned according to the present invention.
  • a vision score may be assigned to a cell.
  • the vision score may have an integer value of -30 or more and 0 or less, and a larger value may indicate better visual ability.
  • the field of view map may include cells to which no vision score has been assigned.
  • a cell to which a vision score is not assigned may be a cell corresponding to a blind spot.
  • the description is based on a vision score that has an integer value of -30 or more and 0 or less and indicates that the larger the value, the better the visual ability, but it is not limited thereto. .
  • the vision index may be a vision status expressing the degree of the user's visual ability as a grade.
  • the visual ability of the user may be expressed as a vision status of a normal status corresponding to the normal visual ability and a defect status corresponding to the abnormal visual ability or visual field defect.
  • the user's visual ability is in a normal state, a dead status in which it is difficult to recover the visual ability due to severe visual impairment, and a vision status of a functional status in which the visual ability is impaired but the visual ability recovery is possible.
  • the vision status can be expressed in various grades.
  • FIG. 7 is a view of a field of view map including a plurality of cells to which vision status is assigned according to the present invention.
  • the field of view map is a cell to which a normal state of vision status is assigned (3, hereinafter referred to as a “normal cell”), and a cell to which a dysfunctional vision status is assigned (4, hereinafter referred to as a “disabled cell”). ) and a dead cell to which the vision status is assigned (5, hereinafter referred to as a “dead cell”).
  • the field of view map may include cells to which vision status is not assigned.
  • a cell to which vision status is not assigned may be a cell corresponding to a blind spot.
  • different vision statuses are expressed in different patterns for convenience of explanation.
  • the vision status including the normal state, the dysfunctional state, and the dead state will be described based on the vision status, but the present invention is not limited thereto.
  • the vision status may be determined based on the vision score. For example, a vision map to which vision status is assigned may be generated based on a vision score. Alternatively, the vision map to which the vision status is assigned may be generated based on the vision map to which the vision score is assigned.
  • the vision status may be determined based on a numerical range of the vision score.
  • the vision scores of the first numerical range and the second numerical range may correspond to vision statuses of the first state and the second state, respectively.
  • a vision score of -10 or more and 0 or less indicates a normal vision status
  • a vision score of -20 or more and -11 or less indicates a dysfunctional vision status
  • a vision score of -30 or more and -21 or less is the vision score. It can counteract the vision status of a dead state.
  • the correspondence between the vision score and the vision status of FIGS. 6 and 7 is exemplary, and the correspondence is not limited thereto.
  • the step of providing the visual perception task ( S1200 ) may be to provide the visual perception task to the user/patient. According to another embodiment, the step of providing the visual perception task ( S1200 ) may be outputting a visual object.
  • the visual perception task may be provided based on the visual ability information.
  • the visual ability information may be the visual ability information acquired in the step S1100 of acquiring the visual ability information, or the visual ability information generated/updated in the acquiring and evaluating a user reaction to be described later ( S1300 ).
  • the visual perception task may be provided based on the evaluation result calculated in the step S1300 of acquiring and evaluating a user reaction, which will be described later.
  • the visual object may be output to a specific location of the output module.
  • the output position of the visual object may mean a position where the visual object is displayed on the output module.
  • the visual object may be output at a position on the output module corresponding to the target area.
  • a specific position of the output module may correspond to a specific cell of the view map.
  • the first position and the second position of the output module may correspond to the first cell and the second cell of the view map, respectively.
  • a specific position of the output module may correspond to a specific viewing area of the user.
  • the first position and the second position of the output module may correspond to the first viewing area and the second viewing area, respectively.
  • the central portion of the output module may correspond to the central viewing area and the peripheral portion may correspond to the peripheral viewing area.
  • the lower portion of the output module may correspond to the lower viewing area and the upper portion may correspond to the upper viewing area.
  • Visual objects may be output with a specific frequency.
  • the visual object may be output to a specific location in the output module at a specific frequency.
  • the frequency at which the visual object is output to the first location of the output module may be different from the frequency at which the visual object is output to the second location of the output module.
  • the frequency at which the visual object is output to the target location may be different from the frequency at which the visual object is output to another location.
  • the visual object may be output to the target position at a higher frequency.
  • Visual objects may be output in a specific order.
  • the same output order of the visual objects may mean that the visual objects are output at the same time point
  • the different output order of the visual objects may mean that the visual objects are output at different times.
  • Visual objects can be output with specific properties. For example, a visual object output to a target location may have a property of providing a stronger stimulus than a visual object output to another location. Since the properties of the visual object have been described above, a description thereof will be omitted herein.
  • FIGS. 8 and 9 are diagrams of examples of a visual perception task according to the present invention.
  • the device may provide a visual perception task to the user by displaying the visual objects 7 , 8 via the output module 1102 .
  • the visual perception task may be to determine whether the properties of the first visual object 7 and the second visual object 8 match. As an example, as shown in FIG. 8 , the visual perception task may be to determine whether the rotation directions of the first visual object 7 and the second visual object 8 of the Gabor type match. As another example, the visual perception task may be to determine whether the directions of the patterns of the first visual object and the second visual object of the Gabor type match.
  • the user may determine a user reaction based on whether the properties of the first visual object and the second visual object match. For example, referring to FIG. 8 , since the rotation directions of the first visual object 7 and the second visual object 8 are different from each other, the user will have to perform a reaction corresponding to the property mismatch. In the case of FIG. 8 , both the first visual object 7 and the second visual object 8
  • first visual object 7 and the second visual object 8 may be referred to as task objects.
  • first visual object 7 may be referred to as a central object
  • second visual object 8 may be referred to as a peripheral object.
  • one of the first visual object 7 and the second visual object 8 may be a center gaze fixation object.
  • the device may provide a visual perception task to the user by displaying the visual objects 9 and 10 through the output module 1103 .
  • the visual perception task may be to determine a property of the third visual object 9 .
  • the visual perception task may be to determine the direction of the pattern of the third visual object 9 of the Gabor type.
  • the visual perception task may be to determine the rotation direction of the third visual object.
  • the user may determine a user reaction based on the property of the third visual object 9 .
  • the user needs to perform a first reaction when the pattern of the third visual object 9 is in a vertical direction, a second reaction when it is horizontal, and a third reaction when the pattern of the third visual object 9 is in a diagonal direction.
  • the third visual object 9 may be referred to as a task object
  • the fourth visual object 10 may be referred to as a stimulus object because it is not related to a user reaction.
  • the third visual object 9 may be referred to as a central object
  • the fourth visual object 10 may be referred to as a peripheral object.
  • the third visual object 9 may be a central gaze fixation object.
  • the user's field of view may be further fixed to the third visual object 9, and thus the central gaze fixing effect may be increased.
  • the fourth visual object 10 may be output while blinking at a specific time frequency.
  • the visual perception task described above with reference to FIGS. 8 and 9 is merely an example, and the visual perception task may be provided to the user in a different way.
  • FIG. 10 is a flowchart illustrating a step of determining information on an output position of a visual object according to the present invention.
  • a method for improving visual ability using visual perceptual learning may include determining information about an output position of a visual object ( S1410 ).
  • the step of determining the information on the output location of the visual object ( S1410 ) according to an embodiment may be determining the target location.
  • the output position of the visual object may be determined based on the visual ability.
  • the visual object may be output at a position corresponding to the visual field defect region.
  • the location corresponding to the visual field defect region may be a target location.
  • the second visual object 8 may be output at a position corresponding to the visual field defect region.
  • the fourth visual object 10 may be output at a position corresponding to the visual field defect region.
  • the output position of the visual object may be determined based on visual ability information such as a visual field map.
  • the output position of the visual object may be determined based on the vision index.
  • the output position of the visual object may be determined based on the vision score. For example, the visual object may be output at a position corresponding to a cell to which a vision score included in a specific numerical range is assigned. Referring to FIG. 8 , the second visual object 8 may be output at a position corresponding to a cell to which a vision score included in a specific numerical range is assigned. Referring to FIG. 9 , the fourth visual object 10 may be output at a position corresponding to a cell to which a vision score included in a specific numerical range is assigned.
  • the output position of the visual object may be determined based on the vision status. For example, the visual object may be displayed at a position corresponding to a dysfunctional cell. Referring to FIG. 8 , the second visual object 8 may be displayed at a position corresponding to the dysfunctional area. Referring to FIG. 9 , the fourth visual object 10 may be displayed at a position corresponding to the dysfunctional area.
  • Whether a visual object is output to a specific position on the output module may be expressed based on a weight corresponding to each output position of the output module. For example, a weight having a first value indicating output of the visual object may correspond to a first position where the visual object is output. Also, a weight having a second value indicating that the visual object is not output may correspond to the remaining positions.
  • FIG. 11 is a flowchart for explaining the step of determining information on the output frequency of a visual object according to the present invention.
  • a method for improving visual ability using visual perceptual learning may include determining information about an output frequency of a visual object ( S1420 ).
  • the step of determining the information on the output frequency of the visual object ( S1420 ) may be determining the output frequency corresponding to the target position.
  • the output frequency of the visual object may be determined based on the visual ability. For example, the visual object may be output to a position corresponding to the visual field defect region at a higher frequency than a position corresponding to the normal region. Alternatively, the visual object may be output at a high frequency to a location corresponding to an area in which the visual ability is relatively low.
  • the output frequency of the visual object may be determined based on visual ability information such as a visual field map.
  • the output frequency of the visual object may be determined based on the vision index.
  • the output frequency of the visual object may be determined based on the vision score. For example, a visual object has a higher output frequency with a lower vision score, such that the frequency of output at a location corresponding to a cell with a vision score of -30 is greater than the frequency of output at a location corresponding to a cell with a vision score of -20.
  • an output frequency at a position corresponding to a cell to which a vision score included in a specific range is assigned may be greater than an output frequency at a position corresponding to the remaining cells.
  • an output frequency at a position corresponding to a cell to which a vision score of -30 or more and -21 or less is assigned may be greater than an output frequency at a position corresponding to the remaining cells.
  • an output frequency at a location corresponding to a cell to which a vision score of -20 or more and -11 or less is assigned may be greater than an output frequency at a location corresponding to the remaining cells.
  • the output frequency of the visual object may be determined based on the vision status. For example, the output frequency of the visual object at the position corresponding to the dysfunctional cell may be greater than the output frequency at the position corresponding to the remaining cells.
  • the frequency at which the visual object is output to a specific position on the output module may be expressed based on a weight corresponding to each output position of the output module. For example, a first position and a second position on the output module each have a weight having a first value indicating output of the visual object at a first frequency and a second value indicating output of the visual object at a second frequency.
  • a weight with . In the present specification, for convenience of explanation, it is described that a higher weight indicates a higher output frequency, but the present specification is not limited thereto, and a smaller weight may indicate a higher output frequency.
  • the effect of treating a visual field disorder may vary.
  • the degree of improvement in the field of view of the viewing area corresponding to the position where the output frequency of the visual object is high may be higher than the degree of improvement of the field of view in the remaining areas.
  • Visual objects may be output at regular time intervals. For example, after the visual object is output for a predetermined time interval, it may not be output for a predetermined time interval and then output again for a predetermined time interval.
  • the visual object may include a temporally continuously output visual object and a discontinuously output visual object.
  • some visual objects may be temporally continuously output, and other visual objects may be output discontinuously.
  • FIG. 12 is a diagram of a visual object output at regular time intervals according to the present invention.
  • the third visual object 11 is continuously output during the first time interval, the second time interval, and the third time interval, while the fourth visual objects 12a and 12b are output during the first time interval. However, it may not be output during the second time interval and may be output again during the third time interval.
  • the effect of improving the field of view may increase.
  • the effect of improving the view of the viewing area corresponding to the position at which the fourth visual objects 12a and 12b is output is not output during the second time interval when the fourth visual objects 12a and 12b are output. This may increase compared to the case of continuously outputting during the first time interval, the second time interval, and the third time interval.
  • FIG. 13 is a flowchart illustrating a step of determining information on an output order of a visual object according to the present invention.
  • a method for improving visual ability using visual perceptual learning may include determining information about an output order of visual objects ( S1430 ).
  • the step of determining the information on the output order of the visual objects ( S1430 ) may be determining the output order of the visual objects output to the target position.
  • the visual object may be output at the same time.
  • all of the fourth visual objects 10 may be output at the same time.
  • Visual objects may be output at different times. For example, some of the visual objects may be output at a first time point, and others may be output at a second time point.
  • FIG. 14 is a diagram for explaining a visual object output at different viewpoints according to the present invention.
  • a portion 16a of the fourth visual object may be first output at a first time point, and then the remainder 16b of the fourth visual object may be output at a second view point.
  • the output order of the visual object may be determined based on an output position of the visual object.
  • a part 16a of the fourth visual object is first output to the left part of the output module 1105 and then the remainder of the fourth visual object is output to the right part of the output module 1105 ( 16b) can be output.
  • the output order of the visual objects may be determined based on the visual ability.
  • the output order of the visual objects may be determined based on visual ability information such as a visual field map.
  • the output order of the visual objects may be determined based on the vision index.
  • the output order of the visual objects may be determined based on the vision score.
  • the output order of the visual objects may be determined based on the vision status.
  • the order in which the visual objects are output on the output module may be expressed based on a weight corresponding to each output position of the output module. For example, a first position and a second position on the output module each have a weight having a first value indicating output of the visual object in a first order and a second position indicating output of the visual object in a second order A weight having a value may correspond to it.
  • 15 is a flowchart for explaining a step of determining information about a property of a visual object according to the present invention.
  • a method for improving visual ability using visual perceptual learning may include determining information about a property of a visual object ( S1440 ).
  • the determining of the information on the properties of the visual object ( S1440 ) may be determining the information on the properties of the visual object output to the target location.
  • the property of the visual object may be determined based on the visual ability.
  • the property of the visual object output to the position corresponding to the visual field defect area may be different from the property of the visual object output to the position corresponding to the normal area.
  • the property of the visual object output to the position corresponding to the visual field defect region may be determined to provide a stronger stimulus than the visual object output to the position corresponding to the normal region.
  • the property of the visual object may be determined based on visual ability information such as a visual field map.
  • the property of the visual object may be determined based on the vision index. Also, the property of the visual object may be determined based on the vision score.
  • a property of a visual object displayed at a position corresponding to a cell to which a first vision score is assigned may be different from a property of a visual object displayed at a location corresponding to a cell to which a second vision score is assigned.
  • the property of the visual object may be determined to provide a stronger stimulus to a location corresponding to a cell assigned with a lower vision score compared to the other locations.
  • the property of the visual object may be determined based on the vision status. For example, the property of the visual object displayed at the position corresponding to the dysfunctional cell may be different from the property of the visual object displayed at the remaining position. Alternatively, the property of the visual object may be determined to provide a stronger stimulus to the position corresponding to the dysfunctional cell compared to the remaining positions.
  • the properties of the visual object can be customized for each user.
  • the size of the Gabor, the direction of the pattern, the spatial frequency of the pattern, the phase of the pattern, the contrast, etc. may be changed or optimized for each user.
  • the customization may be performed based on the vision index.
  • the customization may be performed in consideration of the user's gender and demographic characteristics such as age, medical history such as hypertension and diabetes, and family history.
  • a property of a visual object output to a specific position on the output module may be expressed based on a weight corresponding to each output position of the output module. For example, a first position and a second position on the output module each have a weight having a first value indicating a visual object having a first attribute and a weight having a second value indicating a visual object having a second attribute. can be matched. In the present specification, for convenience of explanation, it is described as indicating a visual object having a property that provides a stronger stimulus to the user as the weight increases as the weight increases, but is not limited thereto. It may also point to a visual object.
  • the effect of improving the field of view may be increased.
  • a visual field improvement effect may be increased.
  • the step of acquiring and evaluating the user reaction ( S1300 ) may be acquiring and evaluating the user's reaction corresponding to the provided visual perception task.
  • the device may obtain a user input corresponding to the user reaction from the user through the input module and evaluate it through the controller to generate an evaluation result.
  • the device may obtain the user input through the input module, transmit it to the server through the communication module, and receive the evaluation result evaluated by the server.
  • the evaluation result may mean indicating the degree of the user's task performance with respect to the visual perception task.
  • the user's task performance level may reflect the user's visual ability, and may be expressed, for example, as a score or grade.
  • the evaluation result may be calculated to correspond to the cell of the view map. Alternatively, the evaluation result may be calculated to correspond to an output position where the visual object is displayed in the output module. Alternatively, the evaluation result may be calculated to correspond to the user's viewing area.
  • the correct answer is for the user to perform a reaction corresponding to the property mismatch.
  • the user performs a reaction corresponding to the correct answer for example, inputting a user input corresponding to an attribute mismatch
  • in a position where the second visual object 8 is displayed or a corresponding cell and viewing area on the viewing map may increase the correct answer rate.
  • a high percentage of correct answers may mean that the visual ability of the corresponding viewing area is good.
  • Acquiring and evaluating a user reaction may include updating visual ability information based on the evaluation result.
  • the updating of the visual ability information based on the evaluation result may include generating visual ability information such as a visual field map or updating existing visual ability information based on the evaluation result. For example, a vision index indicating better visual ability may be assigned to a cell corresponding to a high correct answer rate compared to a cell corresponding to a low correct answer rate. Alternatively, a larger (close to zero) vision score may be assigned to a cell corresponding to a high correct answer rate compared to a cell corresponding to a low correct answer rate. Alternatively, a cell corresponding to a high correct answer rate may be assigned a vision status indicating a better state than a cell corresponding to a low correct answer rate.
  • the evaluation result and the visual ability information are separate, but the evaluation result itself may be visual ability information, such as the evaluation result being calculated in the form of a visual field map.
  • a visual perception task may be provided based on the evaluation result.
  • the visual perception task of the next session may be provided based on the evaluation result of the previous session.
  • An output position of the visual object may be determined according to the evaluation result.
  • the visual object may be output at a position corresponding to a viewing area in which the visual ability is changed.
  • the viewing area in which the visual ability is changed may mean a viewing area in which the visual ability is improved or reduced.
  • the output frequency of the visual object may be determined according to the evaluation result. For example, an output frequency of a visual object output to a position corresponding to a viewing area in which the visual ability is changed may be changed. For example, an output frequency of a visual object output to a position corresponding to a viewing area in which the visual ability is reduced may increase. As another example, the output frequency of the visual object output to the position corresponding to the viewing area in which the visual ability is improved may increase.
  • An output order of the visual objects may be determined according to the evaluation result.
  • the property of the visual object may be determined according to the evaluation result. For example, a property of a visual object output to a position corresponding to a viewing area in which the visual ability is changed may be changed. For example, a property of a visual object output to a position corresponding to a viewing area in which the visual ability is reduced may be changed to provide a stronger stimulus or a weaker stimulus. As another example, the property of the visual object output at a position corresponding to the viewing area in which the visual ability is improved may be changed to provide a stronger stimulus or a weaker stimulus.
  • the providing of the visual perception task ( S1200 ) may include providing the visual perception task in consideration of the vision index of an adjacent cell.
  • providing the visual perception task in consideration of the vision index of the adjacent cell may be outputting the visual object in consideration of the vision index of the adjacent cell.
  • 16 and 17 are diagrams for explaining a step of determining information about at least one of an output position, an output frequency, an output order, and an attribute of a visual object in consideration of a vision index of an adjacent cell according to the present invention.
  • a method for improving visual ability using visual perceptual learning includes obtaining a visual field map including a plurality of cells to which a vision index is assigned ( S1101 ) and adjacent cells
  • the method may include determining information about at least one of an output position, an output frequency, an output order, and an attribute of a visual object in consideration of a vision index of ( S1401 ).
  • the step S1101 of obtaining the view map including the plurality of cells to which the vision index is assigned is an embodiment of the step S1100 of obtaining the vision capability information, and a description thereof will be omitted herein as described above.
  • the determining of the information on the output position of the visual object ( S1410 ) may be determining the information on the output position of the visual object in consideration of the vision index of an adjacent cell.
  • determining the information on the output position of the visual object in consideration of the vision index of the adjacent cell is the output of the visual object in consideration of the difference between the vision index of the specific cell and the vision index of the cell adjacent to the specific cell. It may be to determine the location. For example, when the difference between the vision indexes is greater than or equal to a predetermined grade or numerical value, the visual object may be output at a position on the display corresponding to the specific cell. Alternatively, when the difference in the vision index is included in a predetermined grade range or a numerical range, the visual object may be output at a position on the display corresponding to the specific cell.
  • the vision score difference with the cells located at the top, bottom, left, right, and right of the specific cell is calculated based on the specific cell.
  • a visual object can be output to a position on the output module corresponding to the cell.
  • a visual object may be output to the first position 17b on the output module 1106 corresponding to the difference in vision score of 11 to 10 or more with the cell located on the left. have.
  • the visual object is not output to the second position 18b on the output module 1106 corresponding to the difference in vision scores with cells located in the upper, lower, left, and right are all less than 10.
  • a position 17b at which a visual object is output and a position 18b at which a visual object is not output are expressed in different patterns.
  • adjacent cells may be defined in various ways, such as considering eight cells surrounding a specific cell as adjacent cells. For example, when the cells adjacent to the second cell 18a are limited to 8 cells surrounding the second cell 18a, the difference in the vision score from the cell located at the lower left is 19, in this case the second location 18b ) may also be output as a visual object.
  • the determining of the information on the output frequency of the visual object according to an embodiment may be determining the information on the output frequency of the visual object in consideration of a vision index of an adjacent cell.
  • determining the information on the output frequency of the visual object in consideration of the vision index of the adjacent cell is the output of the visual object in consideration of the difference between the vision index of the specific cell and the vision index of the specific cell and the adjacent cell It may be to determine the frequency. For example, the greater the difference between the vision indexes, the higher the output frequency may be determined. Alternatively, when the difference between the vision indexes is included in a predetermined range, the output frequency may be determined to be higher than that of the rest. Referring to FIG. 17 , the frequency at which the visual object is output to the first location 17b may be different from the frequency at which the visual object is output to the second location 18b .
  • the determining of the information on the output order of the visual object ( S1430 ) may be determining the information on the output order of the visual object in consideration of the vision index of an adjacent cell.
  • determining the information about the output order of the visual object in consideration of the vision index of the adjacent cell is the output of the visual object in consideration of the difference between the vision index of the specific cell and the vision index of the cell adjacent to the specific cell It may be to determine the order. For example, referring to FIG. 17 , a visual object may be output to a first position 17b and a second position 18b at different viewpoints.
  • the determining of the information on the property of the visual object ( S1440 ) may be determining the information on the property of the visual object in consideration of a vision index of an adjacent cell.
  • determining the information on the property of the visual object in consideration of the vision index of the adjacent cell is based on the property of the visual object in consideration of the difference between the vision index of the specific cell and the vision index of the specific cell and the adjacent cell. It may be to determine information about For example, referring to FIG. 17 , the property of the visual object output to the first location 17b may be different from the property of the visual object output to the second location 18b .
  • the providing of the visual perception task may be providing the visual perception task in consideration of the location/direction of the viewing area.
  • providing the visual perception task in consideration of the position/direction of the viewing area may be outputting the visual object in consideration of the position/direction of the viewing area.
  • a person generally uses a lower field of view rather than an upper field of view, and a central field of view rather than a peripheral field of view. When the target area is determined in consideration of the location/direction of the field of view, the effect of improving the field of view may be increased.
  • 18 and 19 are diagrams for explaining a step of determining information about at least one of an output position, an output frequency, an output order, and an attribute of a visual object in consideration of the position/direction of a viewing area according to the present invention.
  • a method for improving visual ability using visual perceptual learning includes obtaining a visual field map including a plurality of cells to which a vision index is assigned ( S1102 ) and a viewing area
  • the method may include determining information about at least one of an output position, an output frequency, an output order, and an attribute of a visual object in consideration of the position/direction of the visual object ( S1402 ).
  • Acquiring the field of view map including the cell to which the vision index is assigned is an embodiment of the step of acquiring vision capability information ( S1100 ), and a description thereof will be omitted herein as described above.
  • the determining of the information on the output position of the visual object may be determining the information on the output position of the visual object in consideration of the position/direction of the viewing area. For example, determining the information on the output position of the visual object in consideration of the position/direction of the viewing area may be determining to output the visual object to an output position corresponding to the first viewing area.
  • determining the information on the output position of the visual object in consideration of the position/direction of the viewing area may be determining to output the visual object to an output position corresponding to the lower viewing area.
  • a visual object may be output to an output location 19 of the output module 1107 corresponding to the lower viewing area.
  • determining the information on the output position of the visual object in consideration of the position/direction of the viewing area may be determining to output the visual object to an output position corresponding to the central viewing area.
  • determining the information on the output position of the visual object in consideration of the position/direction of the viewing area may be determining to output the visual object at an output position corresponding to the macula.
  • the determining of the information on the output frequency of the visual object may be determining the information on the output frequency of the visual object in consideration of the position/direction of the viewing area. For example, determining the information on the output frequency of the visual object in consideration of the position/direction of the viewing area includes the output frequency of the first position on the output module corresponding to the first viewing area and the output frequency of the second viewing area. It may be determined that the output frequency of the second position on the output module is different.
  • the output frequency at the output position corresponding to the lower viewing area may be greater than the output frequency at the remaining positions on the output module.
  • the output frequency of the visual object at the output position 19 on the output module 1107 corresponding to the lower viewing area may be greater than the output frequency at the remaining positions 20 .
  • the output frequency at the output position corresponding to the central viewing area may be greater than the output frequency at the output position corresponding to the peripheral viewing area.
  • the output frequency at the output location corresponding to the macula may be greater than the output frequency at the other locations on the output module.
  • the determining of the information on the output order of the visual object may be determining information on the output order of the visual object in consideration of the position/direction of the viewing area. For example, determining the information on the output order of the visual object in consideration of the position/direction of the viewing area includes the output order of the first position on the output module corresponding to the first viewing area and the output order corresponding to the second viewing area. It may be determined that the output order of the second position on the output module is different.
  • the determining of the information on the properties of the visual object ( S1440 ) may be determining information on the properties of the visual object in consideration of the position/direction of the viewing area.
  • the visual object output to the output position corresponding to the lower viewing area may be determined to have a property that provides a stronger stimulus to the user than the visual object output to the output position corresponding to the remaining area.
  • the visual object output to the output position corresponding to the central viewing area may be determined to have a property that provides a stronger stimulus to the user than the visual object output to the output position corresponding to the peripheral viewing area.
  • the visual object output to the output position corresponding to the macula may be determined to have a property that provides a stronger stimulus to the user than the visual object output to the output position corresponding to the remaining area.
  • the step of providing the visual perception task ( S1200 ) includes eye and visual ability related measurement equipment (hereinafter “additional”
  • the visual perception task may be provided in consideration of the test results (hereinafter referred to as "additional test results") obtained by the measuring equipment".
  • additional test results obtained by the measuring equipment.
  • providing the visual perception task in consideration of the additional inspection result may be outputting a visual object in consideration of the additional inspection result.
  • a general visual field measurement method measures the field of view through an input such as pressing a button depending on whether a user sees an object such as a blinking light. Accordingly, the subjective judgment of the user is intervened, and as a result of the measurement by the additional measuring device, a part that looks normal is judged to be abnormal or a part that looks abnormal is judged to be normal may occur. Accordingly, by providing a visual perception task or outputting a visual object in consideration of the general visual field measurement method and the additional examination result, it is possible to improve the accuracy of the user's visual ability information and increase the visual field improvement effect.
  • a method for improving visual ability using visual perception learning includes obtaining a visual field map including a plurality of cells to which a vision index is assigned ( S1103 ) and additional inspection results
  • the method may include determining information about at least one of an output position, an output frequency, an output order, and an attribute of the visual object in consideration of the step ( S1403 ).
  • the step of acquiring the view map including the plurality of cells to which the vision index is assigned is an embodiment of the step of acquiring the vision capability information ( S1100 ), and a description thereof will be omitted herein as described above.
  • the step of determining the information on the output position of the visual object ( S1410 ) may be determining information on the output position of the visual object in consideration of the additional inspection result.
  • the output position of the visual object may be determined in consideration of at least one of a vision index and an additional inspection result. For example, even if the vision index indicates normal, if an additional examination indicates abnormality or visual field damage, a visual object may be output to an output position corresponding thereto.
  • the determining of the information on the output frequency of the visual object may be determining the information on the output frequency of the visual object in consideration of the additional inspection result.
  • the output frequency of the visual object may be determined in consideration of at least one of a vision index and an additional inspection result.
  • the output frequency at the output position corresponding to the area in which both the vision index and the additional examination result indicate abnormality or visual field damage may be higher than the output frequency at the output location corresponding to the remaining area.
  • the output frequency at the output position corresponding to the region in which at least one of the vision index and the additional examination result indicates abnormality or visual field damage may be higher than the output frequency at the output position corresponding to the remaining regions.
  • the determining of the information on the output order of the visual objects may be determining the information on the output order of the visual objects in consideration of the additional inspection result.
  • the output order of the visual objects may be determined in consideration of at least one of a vision index and an additional inspection result.
  • the determining of the information on the properties of the visual object may be determining the information on the properties of the visual object in consideration of the additional inspection result.
  • the property of the visual object may be determined in consideration of at least one of a vision index and an additional inspection result.
  • an attribute at an output location corresponding to an area where both the vision index and the additional examination results indicate abnormality or visual field impairment may be set to provide a stronger stimulus to the user than the property at the output location corresponding to the remaining area.
  • the attribute at the output position corresponding to the region in which at least one of the vision index and the additional examination result indicates abnormality or visual field impairment is set to provide a stronger stimulus to the user than the attribute at the output position corresponding to the remaining region.
  • 21 and 22 are diagrams for explaining the step of predicting the progression of the visual field defect according to the present invention.
  • a method for improving visual ability using visual perception learning may include predicting the progression of a visual field deficit ( S1500 ).
  • the progression of the visual field deficit may be predicted based on the visual ability information.
  • predicting the progression of the visual field defect may include predicting visual ability information after a predetermined time interval. For example, by predicting the progression of the visual field deficit based on the visual field map (vision index, visual ability information) at the first viewpoint, the visual field map at the second viewpoint, which is later than the first viewpoint, may be predicted.
  • the view map at the second view point may include cells to which a different vision index is assigned as compared to the view map at the first view point.
  • the view map at the second view point may include a cell in which a difference in a vision index is greater than or equal to a predetermined value compared to the view map at the first view point.
  • the vision index, field map, and visual ability information measured through perimetry or other measurement equipment are referred to as the measured vision index, the measured visual field map, and the measured visual ability information, respectively, and predicted the progression of the visual field defect.
  • the generated vision index, visual field map, and visual ability information will be referred to as predicted vision index, predicted visual field map, and predicted visual ability information, respectively.
  • predicting the progression of the visual field defect may include predicting a cell, a viewing area, or an output location in which the progression of the visual field deficit is expected.
  • the cell 21 in which the progression of the visual field deficit is expected may be predicted based on the visual field map (vision index, visual power information) at the first viewpoint.
  • the visual field area or output position in which the visual field deficit is expected to progress may be predicted.
  • the visual perception task may be provided based on the predicted progression of the field deficit.
  • the visual perception task in the step of providing the visual perception task ( S1200 ), the visual perception task may be provided based on expected angular capability information.
  • the description will be omitted.
  • the visual perception task may be provided based on the measured visual ability information and the expected visual ability information.
  • a perceptual task may be provided based on a difference between the measured visual ability information and the expected visual ability information.
  • the difference between the measured vision index and the predicted vision index is a predetermined grade, is included in a predetermined numerical range, or is greater than or equal to a predetermined value
  • the visual object may be output at a position corresponding to the corresponding cell.
  • the output frequency of the visual object output to the location may be greater than the output frequency of the visual object output to the other location.
  • an output order of visual objects output to the location may be different from an output order of visual objects output to another location.
  • the visual object output to the location may have a property of providing a stronger stimulus than the visual object output to another location.
  • the visual perception task may be provided based on a cell, a viewing area, or an output position in which the progression of the visual field deficit is expected.
  • a visual object may be output to the output location.
  • the output frequency of the visual object output to the output location may be greater than the output frequency of the visual object output to another location.
  • an output order of visual objects output to the output location may be different from an output order of visual objects output to another location.
  • the visual object output to the output location may have a property of providing a stronger stimulus than the visual object output to another location.
  • Predicting the progression of the visual field deficit may be performed using an artificial neural network.
  • An artificial neural network is a kind of algorithm modeled after the structure of a human neural network, and may include one or more nodes or one or more layers including neurons, and each node may be connected through a synapse. Data input to the artificial neural network (input data) may be output (output data) through a node through a synapse, and information may be obtained through this.
  • an artificial neural network is an input layer that acquires visual ability information (vision index, visual field map), a hidden layer, and an output layer that outputs predicted visual ability information (expected vision index, predicted visual field map) or predicted visual field defect region. may include
  • Types of artificial neural networks include a convolutional neural network (CNN) that extracts features using a filter and a recurrent neural network (RNN) that has a structure in which the output of a node is fed back as an input.
  • CNN convolutional neural network
  • RNN recurrent neural network
  • Various structures such as restricted Boltzmann machine (RBM), deep belief network (DBN), generative adversarial network (GAN), relational network (RN), etc. can be applied and have limitations. it is not
  • the step of learning the artificial neural network will be expressed as a learning step
  • the step of using the artificial neural network will be expressed as an inference step.
  • the artificial neural network may be learned through various methods such as supervised learning, unsupervised learning, reinforcement learning, and imitation learning.
  • 23 is a diagram for explaining a learning step of an artificial neural network according to the present invention.
  • 23 is an embodiment of the learning step of the artificial neural network, in which an unlearned artificial neural network receives learning data or training data and outputs output data, and compares the output data with the labeling data.
  • the artificial neural network can be trained through the backpropagation of the error.
  • the learning data, output data, and labeling data may be visual ability information (vision index, visual field map).
  • the training data is visual ability information measured at a first time point
  • the labeling data is visual ability information measured at a second time point that is later than the first time point
  • the output data is at the second time point predicted by the artificial neural network. of visual ability information.
  • the learning data is the visual ability information measured at the first time point
  • the labeling data is the visual ability information determined that the visual field deficit has progressed at the second time point
  • the output data is the visual ability predicted by the artificial neural network as the visual field deficit has progressed. may be information.
  • the learning data is visual ability information measured at the first time point
  • the labeling data is an area (or a corresponding cell or output location) in which the visual field deficit is determined at the second time point
  • the output data is the visual field of the artificial neural network. It may be an area (or a cell or output location corresponding thereto) predicted to have a defect.
  • 24 is a diagram for explaining an inference step of an artificial neural network according to the present invention.
  • 24 is an example of an inference step of an artificial neural network, and a learned artificial neural network may receive input data and output output data.
  • information of the learning data in the learning stage information that can be inferred in the inference stage may vary.
  • the accuracy of output data may vary according to the learning degree of the artificial neural network. For example, as the learning degree of the artificial neural network increases, the accuracy of the visual field defect progression predicted by the artificial neural network may increase.
  • the method includes obtaining left eye visual ability information and right eye visual ability information ( S2100 ), providing a visual perception task based on the left eye visual ability information and right eye visual ability information ( S2200 ), and a user reaction It may include a step (S2300) of obtaining and evaluating.
  • S2100 left eye visual ability information and right eye visual ability information
  • S2200 providing a visual perception task based on the left eye visual ability information and right eye visual ability information
  • S2300 a step of obtaining and evaluating.
  • the visual ability information may include left eye visual ability information, which is information related to the left eye visual ability of the user/patient, and right eye visual ability information, which is information related to the right eye visual ability.
  • the left eye visual ability information and the right eye visual ability information will generally be different, but may be the same in some cases.
  • the providing of the visual perception task based on the left eye visual ability information and the right eye visual ability information ( S2200 ) may be an embodiment of the providing of the visual perception task ( S1200 ).
  • a visual perception task may be provided to the left output unit and the right output unit at the same time.
  • a visual object may be output to the left output unit and the right output unit at the same time.
  • the visual objects output to the left output unit and the right output unit may be the same as or different from each other.
  • the left output unit and the right output unit may provide the visual perception task at different times.
  • the visual perception task may be first provided to any one of the left output unit and the right output unit, and then the visual perception task may be provided to the other one.
  • the visual perception task may be provided by separately considering the left eye visual ability information and the right eye visual ability information.
  • the visual perception task may be provided to the left eye based on the left eye visual ability information, and the visual perception task may be provided to the right eye based on the right eye visual ability information.
  • the visual object may be output to the left output unit based on the left eye visual ability information, and the visual object may be output to the right output unit based on the right eye visual ability information.
  • the visual perception tasks provided to the left output unit and the right output unit may be different.
  • information about at least one of an output position, an output frequency, an output order, and an attribute of a visual object output to the left output unit is determined based on the left eye visual ability information, and the right eye based on the right eye visual ability information
  • Information regarding at least one of an output position, an output frequency, an output order, and a property of a visual object output to the output unit may be determined.
  • 26 to 28 are diagrams for explaining a step of providing a visual perception task based on the left eye visual ability information and the right eye visual ability information according to the present invention.
  • a visual object 24 is output to a position corresponding to the first target cell 22 of the left eye visual ability information to the left output unit 1108a.
  • a corresponding target position may be determined, and the right eye output unit 1108b contains the right eye visual ability information.
  • a target location corresponding to the second target cell 23 may be determined, such as the visual object 25 being output to a location corresponding to the second target cell 23 .
  • the visual objects 24 and 25 may be stimulus objects.
  • Visual objects 26a and 26b may be output to the left output unit 1108a and the right output unit 1108b at positions independent of the visual ability information.
  • the visual objects 26a and 26b may be central gaze fixed objects.
  • the visual objects 26a and 26b may be task objects.
  • the visual perception task in the step of providing the visual perception task based on the left eye visual ability information and the right eye visual ability information ( S2200 ), the visual perception task may be provided in consideration of the left eye visual ability information and the right eye visual ability information together.
  • the visual object may be output in consideration of the left eye visual ability information and the right eye visual ability information.
  • the visual perception tasks provided to the left output unit and the right output unit may be the same or different.
  • a viewing area corresponding to each of the first target cell 27 of the left-eye viewing map and the second target cell 28 of the right-eye viewing map may be different.
  • a target position such as an output position of a visual object in the left output unit 1109a is determined in consideration of the second target cell 28
  • a right output unit is determined in consideration of the first target cell 27 .
  • a target location may be determined, such as an output location of the visual object at 1109b.
  • the target position of the left output unit 1109a includes a first position 29a corresponding to the first target cell 27 and a second position 30a corresponding to the second target cell 28 .
  • the target position of the right output unit 1109b may include a third position 29b corresponding to the first target cell 27 and a fourth position 30b corresponding to the second target cell 28 .
  • the visual perception tasks provided to the left output unit 1109a and the right output unit 1109b may be the same.
  • the visual objects 29a, 29b, 30a, and 30b output to the target positions of the left output unit 1109a and the right output unit 1109b may be stimulus objects.
  • the visual objects 31a and 31b may be output to the left output unit 1109a and the right output unit 1109b at positions independent of the visual ability information.
  • the visual objects 31a and 31b may be central gaze fixed objects.
  • the user may view the corresponding region using one of both eyes. For example, an area corresponding to the visual field impairment region of the left eye may be viewed as the right eye, and an area corresponding to the visual field impairment region of the right eye may be viewed as the left eye.
  • the corresponding region cannot be seen, and inconvenience may be increased. Accordingly, when the visual field impairment region of the left eye and the visual field impairment region of the right eye indicate the same region, the corresponding region may be trained preferentially. Accordingly, a visual field improvement effect may also be increased.
  • a region in which the visual field impairment region of the left eye and the visual field impairment region of the right eye overlap each other may be determined as the target region. For example, when the vision indices of the first cell of the left-eye visual field map and the second cell of the right-eye visual field map corresponding to each other indicate visual field loss/visual impairment, the first cell on the left output unit corresponding to the first cell The position and the second position on the right output unit corresponding to the second cell may be determined as the target position.
  • the vision scores of the first cell of the left-eye visual field map and the second cell of the right-eye visual field map corresponding to each other are less than or equal to a predetermined value or are within a specific range
  • the first cell on the left output unit corresponding to the first cell The position and the second position on the right output unit corresponding to the second cell may be determined as the target position.
  • the vision status of the first cell of the left eye visual field map and the second cell of the right eye visual field map corresponding to each other indicate a dysfunctional state, or one dysfunctional state and the other indicate a dead state
  • in the first cell The first position on the corresponding left output unit and the second position on the right output unit corresponding to the second cell may be determined as the target position.
  • the left-eye visual field map and the right-eye visual field map may include first cells 32a and 32b that correspond to the same visual field area and indicate visual field impairment.
  • the first cells 32a and 32b may be determined as target cells.
  • the positions 34a and 34b on the output modules 1110a and 1110b corresponding to the first cells 32a and 32b may be determined as target positions.
  • the viewing area corresponding to the first cells 32a and 32b may be determined as a target area.
  • the left-eye visual field map may include a second cell 33 indicating that the corresponding cell of the right-eye visual field map is normal, but the user indicates visual field impairment.
  • the second cell 33 may also be determined as a target cell.
  • the training priority of the first cells 32a and 32b may be high, and in this case, the viewing area corresponding to the first cells 32a and 32b may be referred to as a main target area.
  • An output frequency of the visual object at an output location corresponding to the main target area may be higher than an output frequency at a location corresponding to the remaining target area.
  • the visual object 34a output to an output position corresponding to the main target region may provide a stronger stimulus than the visual object 34b output to a position corresponding to another target region.
  • a larger number of visual objects may be output to the main target position than other target positions.
  • the visual objects 36a and 36b may be output to the left output unit 1110a and the right output unit 1110b at positions irrelevant to the visual ability information.
  • the visual objects 36a and 36b may be central gaze fixed objects.
  • Acquiring and evaluating the user reaction (S2300) may be an embodiment of the above-described step (S1300) of acquiring and evaluating the user reaction.
  • the user reaction may include a reaction corresponding to the left eye (a reaction corresponding to the left eye) and a reaction corresponding to the right eye (a reaction corresponding to the right eye).
  • the left eye corresponding reaction may be a reaction related to a visual perception task provided to the left output unit
  • the right eye corresponding reaction may be a reaction related to the visual perception task provided to the right output unit.
  • the left eye corresponding reaction is a reaction related to a visual object displayed only on the left output unit and a visual object displayed on both the left output unit and the right output unit
  • the right eye corresponding reaction includes a visual object displayed only on the right output unit and a right output unit It may be a reaction related to a visual object displayed on both the left output units.
  • the visual ability of the left eye may be evaluated based on a corresponding reaction of the left eye
  • the visual ability of the right eye may be evaluated based on the corresponding reaction of the right eye.
  • the visual ability of the left eye may be evaluated based on a reaction related to the visual object displayed only on the left output and the visual object displayed on both the left and right outputs, the visual ability of the right eye being the visual displayed only on the right output It may be evaluated based on a reaction related to the object and a visual object displayed on both the right and left outputs.
  • the visual ability may be evaluated by considering a reaction related to a visual object displayed on a single output unit and a reaction related to a visual object displayed on both output units at different ratios/weights.
  • the visual ability may be evaluated by considering a reaction related to a visual object displayed on a single output unit as a higher ratio/weight than a reaction related to a visual object displayed on both outputs.
  • the method according to the embodiment may be implemented in the form of program instructions that can be executed through various computing means and recorded in a computer-readable medium.
  • the computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software.
  • Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks.
  • - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
  • the hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
  • various embodiments of the present invention may be implemented as software including one or more instructions stored in a storage medium (eg, memory) readable by a machine.
  • the processor of the device may call at least one of the one or more instructions stored from the storage medium and execute it. This makes it possible for the device to be operated to perform at least one function according to the called at least one instruction.
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • the 'non-transitory storage medium' is a tangible device and only means that it does not include a signal (eg, electromagnetic wave), and this term means that data is semi-permanently stored in the storage medium. and temporary storage.
  • the 'non-transitory storage medium' may include a buffer in which data is temporarily stored.
  • the method according to various embodiments disclosed herein may be provided as included in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play StoreTM) or on two user devices. It can be distributed (eg downloaded or uploaded) directly or online between devices (eg smartphones).
  • at least a portion of the computer program product eg, a downloadable app
  • a machine-readable storage medium such as a memory of a manufacturer's server, a server of an application store, or a relay server. It may be temporarily stored or temporarily created.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Educational Technology (AREA)
  • Social Psychology (AREA)
  • Pathology (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Human Computer Interaction (AREA)
  • Child & Adolescent Psychology (AREA)
  • Pain & Pain Management (AREA)
  • Epidemiology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Rehabilitation Therapy (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Eye Examination Apparatus (AREA)
  • Rehabilitation Tools (AREA)

Abstract

시지각 학습을 이용하여 시각 능력을 개선하기 위한 시지각 훈련 제공 장치에 관한 것으로, 디스플레이 모듈; 및 좌안 시야 지도의 제1 셀 및 우안 시야 지도의 제2 셀 중 적어도 하나에 대응되는 적어도 하나의 타겟 영역을 획득하고, 상기 적어도 하나의 타겟 영역에 시지각 태스크를 제공하는 컨트롤러;를 포함하며, 상기 컨트롤러는 상기 시지각 태스크를 제공함에 있어, 상기 디스플레이 모듈을 통해, 환자의 응답의 수신 및 상기 환자의 중심 시야를 고정하기 위한 태스크 오브젝트를 디스플레이하고, 상기 디스플레이 모듈을 통해, 상기 적어도 하나의 타겟 영역에 대응되는 적어도 하나의 자극 위치에 적어도 하나의 자극 오브젝트를 디스플레이하고, 상기 태스크 오브젝트와 관련된 상기 환자의 응답을 획득한다.

Description

시지각 학습을 이용하는 시지각 훈련 제공 장치 및 시지각 훈련 제공 방법
본 발명은 시각 능력을 개선하기 위한 시지각 훈련 제공 장치 및 시지각 훈련 제공 방법에 관한 것으로, 구체적으로 시지각 학습을 이용하여 시각 능력을 개선하기 위한 시지각 훈련 제공 장치 및 시지각 훈련 제공 방법에 관한 것이다.
녹내장, 황반변성 및 당뇨망막병증과 같은 안과 질환에 의한 시야 장애나 시각 능력 손상으로 인해 많은 환자들이 불편함을 겪고 있다. 안과 질환은 시신경에 압력이 가해지거나 혈액 공급에 장애가 발생하여 시신경의 기능에 문제가 발생하는 등 시각계의 이상을 초래할 수 있다.
종래에는 이러한 질환을 치료하기 위해 약물을 투여하거나 수술을 진행하였으나 원활한 치료가 되지 않는 경우가 존재하였다.
따라서, 시각 능력을 개선하기 위한 효과적인 방법의 필요성은 꾸준히 존재하였고, 시지각 학습을 수행하여 이러한 시각 능력의 개선을 도모하는 장치 및 방법이 등장하였다.
본 발명의 해결하고자 하는 일 과제는, 시지각 학습을 이용하여 시각 능력을 향상시키는 것에 있다.
본 발명의 해결하고자 하는 다른 일 과제는, 시지각 학습을 이용하여 시야 장애를 겪는 환자에게 훈련을 제공하는 것에 있다.
본 발명의 또 다른 일 과제는, 환자에게 효율적인 시지각 학습을 제공하는 것에 있다.
해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상술한 과제 해결을 위해 본 발명인 시지각 학습을 이용한 시지각 훈련 제공 장치는, 디스플레이 모듈; 및 좌안 시야 지도의 제1 셀 및 우안 시야 지도의 제2 셀 중 적어도 하나에 대응되는 적어도 하나의 타겟 영역을 획득하고, 상기 적어도 하나의 타겟 영역에 시지각 태스크를 제공하는 컨트롤러;를 포함하며, 상기 컨트롤러는 상기 시지각 태스크를 제공함에 있어, 상기 디스플레이 모듈을 통해, 환자의 응답의 수신 및 상기 환자의 중심 시야를 고정하기 위한 태스크 오브젝트를 디스플레이하고, 상기 디스플레이 모듈을 통해, 상기 적어도 하나의 타겟 영역에 대응되는 적어도 하나의 자극 위치에 적어도 하나의 자극 오브젝트를 디스플레이하고, 상기 태스크 오브젝트와 관련된 상기 환자의 응답을 획득하며, 상기 적어도 하나의 자극 위치는 상기 태스크 오브젝트의 주변에 위치하고, 상기 시야 지도는 상기 환자의 상기 시야 장애를 반영하는 비전 인덱스를 포함할 수 있다.
또한, 상기 디스플레이 모듈은 좌측 디스플레이부 및 우측 디스플레이부를 포함하고, 상기 컨트롤러는, 상기 좌측 디스플레이부를 통해 상기 제1 셀에 대응되는 상기 적어도 하나의 자극 위치에 상기 적어도 하나의 자극 오브젝트를 디스플레이하고, 상기 우측 디스플레이부를 통해 상기 제2 셀에 대응되는 상기 적어도 하나의 자극 위치에 상기 적어도 하나의 자극 오브젝트를 디스플레이할 수 있다.
또한, 상기 컨트롤러는, 상기 디스플레이 모듈을 통해, 일정 시간 동안 상기 태스크 오브젝트를 디스플레이하여 상기 환자에게 시지각 태스크를 제공하되, 상기 일정 시간 중 일부 시간 동안에만 자극 오브젝트를 디스플레이할 수 있다.
또한, 상기 적어도 하나의 자극 오브젝트는, 제1 시점에 출력되는 제1 자극 오브젝트 및 상기 제1 시점과 상이한 제2 시점에 출력되는 제2 자극 오브젝트를 포함할 수 있다.
또한, 상기 태스크 오브젝트 및 상기 적어도 하나의 자극 오브젝트 중 적어도 하나는 가버(gabor)일 수 있다.
또한, 상기 적어도 하나의 자극 오브젝트는 공간 주파수가 0.1 내지 1 cycle/degree인 가버일 수 있다.
또한, 상기 적어도 하나의 자극 오브젝트는 미리 정해진 시간 빈도로 깜빡이며 출력되며, 상기 시간 빈도는 10 내지 50 Hz일 수 있다.
또한, 상기 환자의 응답은 상기 태스크 오브젝트의 속성과 관련될 수 있다.
또한, 상기 속성은 상기 태스크 오브젝트의 화전 방향 및 패턴 방향 중 적어도 하나를 포함할 수 있다.
상술한 상술한 과제 해결을 위해 본 발명인 시지각 훈련 제공 방법은, 좌안 시야 지도의 제1 셀 및 우안 시야 지도의 제2 셀 중 적어도 하나에 대응되는 적어도 하나의 타겟 영역을 획득하는 단계; 및 상기 적어도 하나의 타겟 영역에 기초하여 시지각 태스크를 제공하는 단계;를 포함하되, 상기 시지각 태스크를 제공하는 단계는, 환자의 응답의 수신 및 상기 환자의 중심 시야를 고정하기 위한 태스크 오브젝트를 디스플레이하는 단계; 상기 적어도 하나의 타겟 영역에 대응되는 적어도 하나의 자극 위치에 적어도 하나의 자극 오브젝트를 디스플레이하는 단계; 및 상기 태스크 오브젝트와 관련된 상기 환자의 응답을 획득하는 단계;를 포함하고, 상기 적어도 하나의 자극 위치는 상기 태스크 오브젝트의 주변에 위치하고, 상기 시야 지도는 상기 환자의 상기 시야 장애를 반영하는 비전 인덱스를 포함할 수 있다.
과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 실시예에 따르면, 시지각 학습을 이용하여 시각 능력을 향상시킬 수 있다.
또한, 시지각 학습을 이용하여 시지각 학습을 이용하여 시야 장애를 겪는 환자에게 시각 능력을 개선하기 위한 훈련을 제공할 수 있다.
또한, 환자의 시각 능력에 따라 시지각 태스크를 조절하여 시지각 학습의 효과를 증가시킬 수 있다.
효과가 상술한 효과로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 본 발명에 따른 시지각 훈련 제공 장치를 설명하기 위한 도면이다.
도 2는 본 발명에 따른 서버와 통신하는 시지각 훈련 제공 장치를 설명하기 위한 도면이다.
도 3은 본 발명에 따른 비주얼 오브젝트의 비한정적인 예시들에 관한 도면이다.
도 4는 본 발명에 따른 비주얼 오브젝트의 출력 위치에 따른 분류를 설명하기 위한 도면이다.
도 5는 본 발명에 따른 시지각 학습을 이용하여 시각 능력을 개선하기 위한 방법을 설명하기 위한 순서도이다.
도 6은 본 발명에 따른 비전 스코어가 할당된 복수의 셀을 포함하는 시야 지도에 관한 도면이다.
도 7은 본 발명에 따른 비전 스테이터스가 할당된 복수의 셀을 포함하는 시야 지도에 관한 도면이다.
도 8은 본 발명에 따른 시지각 태스크의 예시들에 관한 도면이다.
도 9는 본 발명에 따른 시지각 태스크의 예시들에 관한 도면이다.
도 10은 본 발명에 따른 비주얼 오브젝트의 출력 위치에 관한 정보를 결정하는 단계를 설명하기 위한 순서도이다.
도 11은 본 발명에 따른 비주얼 오브젝트의 출력 빈도에 관한 정보를 결정하는 단계를 설명하기 위한 순서도이다.
도 12는 본 발명에 따른 일정 시간 간격으로 출력되는 비주얼 오브젝트에 관한 도면이다.
도 13은 본 발명에 따른 비주얼 오브젝트의 출력 순서에 관한 정보를 결정하는 단계를 설명하기 위한 순서도이다.
도 14는 본 발명에 따른 상이한 시점에 출력되는 비주얼 오브젝트를 설명하기 위한 도면이다.
도 15는 본 발명에 따른 비주얼 오브젝트의 속성에 관한 정보를 결정하는 단계를 설명하기 위한 순서도이다.
도 16은 본 발명에 따른 인접한 셀의 비전 인덱스를 고려하여 비주얼 오브젝트의 출력 위치, 출력 빈도, 출력 순서 및 속성 중 적어도 하나에 관한 정보를 결정하는 단계를 설명하기 위한 도면이다.
도 17은 본 발명에 따른 인접한 셀의 비전 인덱스를 고려하여 비주얼 오브젝트의 출력 위치, 출력 빈도, 출력 순서 및 속성 중 적어도 하나에 관한 정보를 결정하는 단계를 설명하기 위한 도면이다.
도 18은 본 발명에 따른 시야 영역의 위치/방향을 고려하여 비주얼 오브젝트의 출력 위치, 출력 빈도, 출력 순서 및 속성 중 적어도 하나에 관한 정보를 결정하는 단계를 설명하기 위한 도면이다.
도 19는 본 발명에 따른 시야 영역의 위치/방향을 고려하여 비주얼 오브젝트의 출력 위치, 출력 빈도, 출력 순서 및 속성 중 적어도 하나에 관한 정보를 결정하는 단계를 설명하기 위한 도면이다.
도 20은 본 발명에 따른 추가 검사 결과를 고려하여 비주얼 오브젝트의 출력 위치, 출력 빈도, 출력 순서 및 속성 중 적어도 하나에 관한 정보를 결정하는 단계를 설명하기 위한 순서도이다.
도 21은본 발명에 따른 시야 결손의 진행을 예측하는 단계를 설명하기 위한 도면이다.
도 22는 본 발명에 따른 시야 결손의 진행을 예측하는 단계를 설명하기 위한 도면이다.
도 23은 본 발명에 따른 인공 신경망의 학습 단계를 설명하기 위한 도면이다.
도 24는 본 발명에 따른 인공 신경망의 추론 단계를 설명하기 위한 도면이다.
도 25는 본 발명에 따른 양안을 고려하여 시각 능력을 개선하기 위한 방법을 설명하기 위한 순서도이다.
도 26은 본 발명에 따른 좌안 시각 능력 정보 및 우안 시각 능력 정보에 기초하여 시지각 태스크를 제공하는 단계를 설명하기 위한 도면이다.
도 27은 본 발명에 따른 좌안 시각 능력 정보 및 우안 시각 능력 정보를 함께 고려하여 시지각 태스크를 제공하는 것을 설명하기 위한 도면이다.
도 28은 본 발명에 따른 좌안 시각 능력 정보 및 우안 시각 능력 정보를 함께 고려하여 시지각 태스크를 제공하는 것을 설명하기 위한 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제 1", "제 2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제 1 구성요소는 본 발명의 기술적 사상 내에서 제 2 구성요소일 수도 있음은 물론이다.
"예시적인"이라는 단어는 본 명세서에서 "예시 또는 예증으로서 사용된"의 의미로 사용된다. 본 명세서에서 "예시적인"것으로 설명된 임의의 실시예는 반드시 바람직한 것으로서 해석되거나 다른 실시예들보다 이점을 갖는 것으로 해석되어서는 안된다.
또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 엘리먼트를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 엘리먼트들, 객체지향 소프트웨어 엘리먼트들, 클래스 엘리먼트들 및 태스크 엘리먼트들과 같은 엘리먼트들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 엘리먼트들과 "부"들 안에서 제공되는 기능은 더 작은 수의 엘리먼트들 및 "부"들로 결합되거나 추가적인 엘리먼트들과 "부"들로 더 분리될 수 있다.
또한, 본 명세서에서 모든 “부”는 적어도 하나의 프로세서에 의해 제어될 수 있으며 본 개시의 “부”가 수행하는 동작을 적어도 하나의 프로세서가 수행할 수도 있다.
본 명세서의 실시예들은 기능 또는 기능을 수행하는 블록의 관점에서 설명될 수 있다. 본 개시의 '부' 또는 '모듈' 등으로 지칭될 수 있는 블록은 논리 게이트, 집적 회로, 마이크로 프로세서, 마이크로 컨트롤러, 메모리, 수동 전자 부품, 능동 전자 부품, 광학 컴포넌트, 하드와이어드 회로(hardwired circuits) 등과 같은 아날로그 또는 디지털 회로에 의해 물리적으로 구현되고, 선택적으로 펌웨어 및 소프트웨어에 의해 구동될 수 있다.
본 명세서의 실시예는 적어도 하나의 하드웨어 디바이스 상에서 실행되는 적어도 하나의 소프트웨어 프로그램을 사용하여 구현될 수 있고 엘리먼트를 제어하기 위해 네트워크 관리 기능을 수행할 수 있다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여 질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
본 명세서에서 지각학습(perceptual learning)이란 자극에 대한 반복적인 훈련을 통해 자극에 대한 지각을 향상시키는 학습을 의미한다. 다시 말해, 본 명세서에서 시지각 학습(visual perceptual learning)이란 시각 자극을 주는 반복적인 훈련을 통해 시각 자극에 대한 지각을 향상시키는 학습을 의미한다. 시지각 학습의 결과로 피학습자는 이전에 못 보던 것을 보게 되거나 이전에 구분하지 못하던 차이를 알아차릴 수 있다. 시지각 학습은 외부로부터 시각 기관을 통해 들어온 자극으로부터 대상을 발견하는 능력을 향상시키는 학습뿐만 아니라, 자극으로부터 대상을 식별하는 능력을 향상시키는 학습 등을 포함하도록 넓게 해석되어야 한다.
본 명세서에서 시야 결손/시야 장애란 망막에서 대뇌피질에 이르는 시각계의 장애 혹은 시야의 이상을 의미한다. 예를 들어, 시야 결손은 뇌기능 손상으로 인한 시야 결손뿐만 아니라 망막 신경절 세포의 사멸(혹은 기능 이상)로 인한 시야 결손 등을 포함하도록 넓게 해석되어야 한다. 시야 장애를 야기하는 질병의 비한정적인 예로는 녹내장, 황반변성(macular degeneration), 당뇨망막병증 (diabetic retinopathy), 반맹증(hemianopia), 사분맹증(quadrantanopia)이 있을 수 있다.
본 명세서에서 시각 능력(visual ability)이란 시력검사표의 글자, 숫자, 기호 등을 크기 순으로 식별할 수 있는지에 따라 측정되는 시력뿐만 아니라, 뇌에서의 오브젝트 인식과 관련된 시지각 능력을 포함하는 개념으로 넓게 해석되어야 한다. 예를 들어, 눈은 정상적으로 시각 자극을 수용하는데 뇌가 시각 자극을 지각하지 못하여 물체를 보지 못하는 것은 시각 능력이 저하되거나 나쁘다는 것을 의미할 수 있다.
본 명세서에서 "훈련"이란 표현은 시야 결손/시야 장애 증세가 호전되거나 이롭게 변경되는 모든 행위를 의미한다. 한정되지 않는 예를 들어, 훈련은 시야 결손의 진행 억제, 시야 결손의 진행 속도 감소, 시야 결손의 진행 정지 및 시야 결손의 개선 등과 같은 효과를 얻는 조치일 수 있다.
본 명세서에서 "태스크(task)"란 표현은 사용자에 의해 달성되어야할 목표 및/또는 목적을 지칭할 수 있다. 예를 들어, 컴퓨터화된 태스크는 컴퓨터화된 컴포넌트들을 사용하여 렌더링되고, 사용자는 컴퓨터화된 태스크를 수행하기 위한 목표 또는 목적에 관해 지시받을 수 있다. 태스크는 특정의 자극에 대한 응답을 제공하거나 보류하도록 개인에게 요구할 수 있다.
본 명세서에서 "세션(session)"이란 표현은 사용자가 장치로부터 학습을 받기 위해 장치와 상호작용하는 시작 및 끝을 갖는 기간(time period)을 지칭할 수 있다. 예를 들어, 세션은 1초, 30초, 1분, 1시간, 12시간, 하루, 일주일, 한달 등일 수 있다.
본 명세서에서 비주얼 오브젝트(visual object)는 사용자에게 출력되는 시각적인 객체 등의 시각 자극을 의미할 수 있다. 비주얼 오브젝트의 구체적인 실시예에 대해서는 후술하기로 한다.
이하에서는 시지각 학습을 이용하여 시각 능력을 개선하기 위한 시지각 훈련 제공 장치에 대해 설명한다.
도 1은 본 발명에 따른 시지각 훈련 제공 장치를 설명하기 위한 도면이다.
도 1을 참고하면, 일 실시예에 따른 시지각 훈련 제공 장치(100)는 출력 모듈(1100), 컨트롤러(1200), 메모리(1300), 입력 모듈(1400) 및 통신 모듈(1500)을 포함할 수 있다.
시지각 훈련 제공 장치(100)는 연산처리를 수행할 수 있는 다양한 장치들을 포함할 수 있다. 예를 들어, 시지각 훈련 제공 장치(100)는 데스크탑 PC, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), PDA(personal digital assistants), PMP(portable multimedia player), 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device) 등을 포함할 수 있다.
일 실시예에 따르면, 시지각 훈련 제공 장치(100)는 신체의 어느 일부분에 착용되고, 출력 모듈(1100)과 사용자의 눈이 마주보는 방식으로 사용될 수 있다. 예를 들어, 시지각 훈련 제공 장치(100)는 사용자의 머리에 장착되어 영상을 표시하는 HMD(Head Mounted Display), 스마트 글라스, 스마트 고글 등의 헤드 마운티드 디바이스 또는 헤드 마운티드 디바이스에 거치하여 사용할 수 있는 휴대폰 등의 디스플레이 디바이스 등을 포함할 수 있다.
출력 모듈(1100)은 영상이나 이미지를 출력할 수 있다. 예를 들어, 출력 모듈(1100)은 LCD, OLED, 아몰레드 디스플레이 등을 포함할 수 있다. 여기서, 출력 모듈(1100)이 터치 스크린으로 제공되는 경우, 출력 모듈(1100)은 입력 모듈(1400)의 기능을 수행할 수 있다. 이 경우, 선택에 따라 별도의 입력 모듈(1400)이 제공되지 않을 수 있으며, 볼륨 조절, 전원 버튼 및 홈 버튼 등 제한적인 기능을 수행하는 입력 모듈(1400)이 제공될 수 있다. 다른 예를 들어, 출력 모듈(1100)은 외부 디스플레이 장치로 영상 정보를 전송하는 영상 출력 포트 형태로 제공될 수도 있다.
일 실시예에 따르면, 출력 모듈(1100)의 화면은 환자의 좌안에 대응하는 좌측 디스플레이부와 환자의 우안에 대응하는 우측 디스플레이부를 포함할 수 있다. 여기서, 좌측 디스플레이부는 제1 영상을 출력하고, 우측 디스플레이부는 제2 영상을 출력할 수 있고, 컨트롤러(1200)는 상기 제1 영상과 상기 제2 영상간의 거리, 중첩도 등을 조절하여 사용자에게 제공하는 이미지의 시차, 초점 등을 조절할 수 있다. 제1 영상 및 제2 영상은 동일한 영상이거나 적어도 일부가 서로 중첩되는 영상일 수 있다. 또는, 제1 영상 및 제2 영상은 서로 중첩되지 않는 영상일 수 있다.
또한, 좌측 디스플레이부 및 우측 디스플레이부는 물리적으로 분리된 별도의 디스플레이 모듈일 수 있다. 또는, 좌측 디스플레이부 및 우측 디스플레이부는 동일한 디스플레이 모듈의 좌측 영역 및 우측 영역일 수 있다.
또한, 출력 모듈(1100)은 사용자의 시지각 학습을 위한 이미지를 디스플레이할 수 있다. 예를 들어, 출력 모듈(1100)은 시지각 태스크를 시작하기 전의 과정, 인스트럭션, 시지각 태스크 수행을 위한 이미지 등을 시각적으로 출력할 수 있다.
또한, 출력 모듈(1100)은 사용자에게 제공하기 위한 정보를 다양한 방식으로 출력할 수 있다. 예를 들어, 출력 모듈(1100)은 스피커, 모터, 햅틱장치, 진동자, 신호 출력 회로 등을 포함할 수 있고, 다양한 자극을 출력하는 모듈 일 수 있다.
또한, 출력 모듈(1100)은 시지각 태스크를 위한 정보를 청각적 또는 촉각적으로 출력할 수 있다. 구체적으로, 출력 모듈(1100)은 훈련 세션의 개시와 종료를 알리는 알람을 청각적 또는 촉각적으로 출력할 수 있다
일 실시예에 따르면, 출력 모듈(1100)은 다른 지각학습(일 예로, 청지각 학습)을 위한 자극을 출력할 수 있다. 한정되지 않는 예를 들어, 출력 모듈(1100)은 청지각 학습을 위한 청각적 자극을 출력할 수 있다. 구체적으로, 출력 모듈(1100)은 청지각 태스크와 관련된 규칙을 알리는 인스트럭션, 청지각 태스크를 위한 청각적 자극 등을 출력할 수 있다.
컨트롤러(1200)는 시지각 훈련 제공 장치(100)의 각 구성을 제어하거나 각종 정보를 처리하고 연산할 수 있다. 예를 들어, 컨트롤러(1200)는 시지각 태스크를 위한 이미지를 출력 모듈(1100)을 통해 출력할 수 있다. 구체적으로, 컨트롤러(1200)는 획득한 사용자의 시야 지도에 기초하여 시지각 태스크에서 출력 모듈(1100) 상에서의 비주얼 오브젝트의 위치를 결정하고, 출력 모듈(1100)을 통해 결정된 위치에 비주얼 오브젝트를 디스플레이할 수 있다.
컨트롤러(1200)는 소프트웨어, 하드웨어 및 이들의 조합으로 구현될 수 있다. 예를 들어, 하드웨어적으로 컨트롤러(1200)는 FPGA((field programmable gate array)나 ASIC(Application Specific Integrated Circuit), 반도체 칩, 및 그 외의 다양한 형태의 전자 회로로 구현될 수 있다. 또 예를 들어, 소프트웨어적으로 컨트롤러(1200)는 상술한 하드웨어에 따라 수행되는 논리 프로그램이나 각종 컴퓨터 언어 등으로 구현될 수 있다.
이하의 설명에서 별도의 언급이 없는 경우 시지각 훈련 제공 장치(100)의 동작은 컨트롤러(1200)의 제어를 받아 수행되는 것으로 이해될 수 있다.
메모리(1300)는 각종 데이터를 저장할 수 있다. 예를 들어, 메모리(1300)는 시지각 태스크와 관련된 데이터를 저장할 수 있다. 구체적으로 메모리(1300)는 시지각 태스크를 실행하기 위한 프로그램, 사용자의 정보(예를 들어, 사용자의 인적 정보, 시지각 태스크와 관련된 정보, 태스크 수행 시 사용자의 응답, 사용자의 시지각 태스크 결과), 사용자의 시야 지도와 관련된 데이터 등을 저장할 수 있다.
또한 메모리(1300)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또 메모리(1300)는 일시적, 영구적 또는 반영구적으로 정보를 저장할 수 있으며, 내장형 또는 탈착형으로 제공될 수 있다.
입력 모듈(1400)은 사용자의 입력에 대응하는 신호를 획득할 수 있다. 예를 들어, 입력 모듈(1400)은 시지각 태스크 수행을 위한 사용자의 입력, 시지각 학습 동안 시지각 태스크를 위한 영상의 초점을 조절하기 위한 사용자의 입력, 시지각 태스크가 요청하는 사용자의 응답을 받기 위한 사용자의 입력 등을 받을 수 있다.
또한, 입력 모듈(1400)은 키보드, 키 패드, 버튼, 조그셔틀 및 휠 등을 포함할 수 있다. 또한 입력 모듈(1400)에서의 사용자의 입력은 예를 들어 버튼의 누름, 터치 및 드래그 등일 수 있다. 또한, 출력 모듈(1100)이 터치 스크린으로 구현되는 경우 출력 모듈(1100)이 입력 모듈(1400)의 역할을 수행할 수도 있다.
일 실시예에 따르면, 입력 모듈(1400)은 시지각 훈련 제공 장치(100)와 무선 또는 유선으로 연결되는 별도의 모듈로 구성될 수 있다. 예를 들어, 시지각 훈련 제공 장치(100)는 사용자의 머리에 장착되고 부착된 출력 모듈(1100)을 통해 시지각 태스크를 위한 이미지를 사용자에게 제공하고, 사용자 손에 주어진 별도의 모듈로 구성된 입력 모듈(1400)을 통해 사용자로부터 시지각 태스크를 위한 입력을 받을 수 있다.
통신 모듈(1500)은 외부 장치와 통신을 수행할 수 있다. 예를 들어, 통신 모듈(1500)은 서버와 통신을 수행할 수 있다. 구체적으로, 통신 모듈(1500)은 사용자의 시지각 태스크와 관련된 데이터를 서버로 전송할 수 있고, 이에 대한 개인화된 피드백을 서버로부터 수신할 수 있다.
또한, 통신 모듈(1500)은 유선 및 무선 통신 규격에 따라 통신이 수행될 수 있다. 예를 들어, 통신 모듈(1500)은 BLE(Bluetooth Low Energy), 블루투스(Bluetooth), WLAN(Wireless LAN), WiFi(Wireless Fidelity), WiFi Direct, NFC(Near Field Communication), 적외선 통신(Infrared Data Association; IrDA),
UWB(Ultra Wide Band), 지그비(Zigbee), 3G, 4G 또는 5G를 비롯한 이동 통신 모듈 및 그 외의 다양한 통신 규격을 통해 데이터를 송신하는 유무선 모듈을 포함할 수 있다.
도 2는 본 발명에 따른 서버와 통신하는 시지각 훈련 제공 장치를 설명하기 위한 도면이다.
도 2를 참고하면, 일 실시예에 따른 장치(100, 200)는 통신모듈(1500, 2500)을 통해 서버(10000)로부터 데이터를 수신하거나 송신하는 등 서버(10000)와 통신할 수 있다. 예를 들어, 서버(10000)는 인스트럭션, 시지각 태스크 수행을 위한 이미지, 시지각 태스크를 실행하기 위한 프로그램, 사용자의 인적정보, 시지각 태스크와 관련된 정보, 태스크 수행 시 사용자의 응답, 사용자의 시지각 태스크 결과, 사용자의 시야 지도와 관련된 데이터 등을 장치(100, 200)로 수신하거나 송신할 수 있다.
도 1 및 2에서 도시하는 시지각 훈련 제공 장치(100, 200)는 예시에 불과하며 장치(100, 200)의 구성이 이에 한정되지는 않으며 시지각 훈련 제공 장치(100, 200)의 각 구성이 수행하는 기능은 반드시 해당 구성이 수행해야 하는 것은 아니고 다른 구성에 의해 수행될 수 있다. 예를 들어, 시지각 훈련 제공 장치(100, 200)의 메모리(1300, 2300)가 사용자의 시지각 태스크와 관련된 데이터를 저장하는 것으로 기재하였으나, 시지각 훈련 제공 장치(100, 200)와 통신 모듈(1500, 2500)을 통해 연결된 서버(10000)가 사용자의 시지각 태스크와 관련된 데이터를 저장할 수도 있다.
이하에서는 시지각 학습을 이용하여 시각 능력을 개선하기 위한 방법에 대해 설명한다.
일 실시예에 따른 시지각 학습을 이용하여 시각 능력을 개선하기 위한 방법은 사용자/환자의 시각 관련 장애나 질병의 치료/개선을 위하여 시지각 훈련 제공 장치를 이용하여 사용자에게 비주얼 오브젝트를 포함하는 시지각 태스크를 제공하는 것일 수 있다.
비주얼 오브젝트는 출력 모듈을 통해 사용자에게 제공될 수 있다.
도 3은 본 발명에 따른 비주얼 오브젝트의 비한정적인 예시들에 관한 도면이다.
도 3을 참고하면, 비주얼 오브젝트의 타입은 도형 타입, 가버 타입 및 문자 타입을 포함할 수 있다.
비주얼 오브젝트는 타입, 크기, 형상, 색상, 채도, 명도, 움직임, 패턴 방향(orientation), 패턴의 공간 주파수(spatial frequency), 패턴의 위상(phase), 시간 빈도(temporal frequency), 콘트라스트(contrast) 등 다양한 속성을 가질 수 있다.
여기서, 패턴의 공간 주파수는 공간 상에서 패턴이 반복되는 빈도로, 예를 들어 cycle/degree의 단위로 표현될 수 있다. 상기 공간 주파수는 0.1 내지 1 cycle/degree일 수 있다. 또는, 상기 공간 주파수는 0.5 cycle/degree 일 수 있다.
또한, 시간 빈도는 비주얼 오브젝트가 깜빡이는 빈도로, 예를 들어 Hz의 단위로 표현될 수 있다. 상기 시간 빈도는 10 내지 50 Hz 일 수 있다. 또는, 상기 시간 빈도는 18 내지 30 Hz 일 수 있다. 또는, 상기 시간 빈도는 20 Hz 일 수 있다. 비주얼 오브젝트가 깜빡이며 출력됨에 따라 시각 능력 개선 효과나 시야 장애의 개선 효과가 증가할 수 있다.
비주얼 오브젝트는 도형 타입일 수 있다. 도 3을 참고하면, 비주얼 오브젝트는 원, 삼각형 또는 사각형일 수 있고 이 외에도 다양한 도형일 수 있다.
또한, 비주얼 오브젝트는 채워진 도형이거나 테두리만 나타낸 도형일 수 있고 일부만 채워질 수도 있다.
비주얼 오브젝트는 가버 타입일 수 있다. 도 3을 참고하면, 가버 타입의 비주얼 오브젝트는 가버의 크기, 패턴의 방향, 패턴의 공간 주파수, 시간 빈도, 패턴의 위상, 콘트라스트 등 변경 가능한 다양한 속성을 가질 수 있다. 예를들어, 제1 가버(G1)의 크기는 제2 가버(G2)의 크기보다 클 수 있다. 또는, 제1 가버(G1)의 패턴의 방향(수직 방향)은 제3 가버(G3)의 패턴의 방향(대각선 방향)과 상이할 수 있다. 또는, 제1 가버(G1)의 패턴의 공간 주파수는 제4 가버(G4)의 패턴의 공간 주파수보다 작을 수 있다. 또는, 제1 가버(G1)의 패턴의 위상은 제5 가버(G5)의 패턴의 위상과 상이할 수 있다. 또는, 제1 가버(G1)의 콘트라스트는 제6 가버(G6)의 콘트라스트보다 클 수 있다.
비주얼 오브젝트는 문자 타입일 수 있다. 도 3을 참고하면, 비주얼 오브젝트는 ㅋ, ㅌ 등의 한글 자음이나 모음일 수 있다. 또는, 비주얼 오브젝트는 A, T 등 영문 대문자나 a와 같은 영문 소문자일 수 있다. 이 외에도 비주얼 오브젝트는 다양한 문자일 수 있다.
비주얼 오브젝트의 색상, 채도, 명도 등은 다양할 수 있다. 예를 들어, 비주얼 오브젝트는 시신경 자극의 증가를 유도하는 색상, 채도, 명도를 가질 수 있다.
비주얼 오브젝트는 이동이나 회전을 나타내는 움직임 속성을 가질 수 있다. 일 예로, 비주얼 오브젝트는 특정 방향으로 회전할 수 있다. 또는, 가버 패턴의 위상 변화에 따라 사용자는 가버가 회전하는 것으로 인식할 수 있다. 다른 예로, 비주얼 오브젝트의 크기 변화에 따라 사용자는 비주얼 오브젝트가 다가오거나 멀어지는 것과 같이 움직이는 것으로 인식할 수 있다.
비주얼 오브젝트는 사용자의 중심 시선 고정(central fixation)을 위한 중심 시선 고정 오브젝트를 포함할 수 있다. 중심 시선 고정 오브젝트는 출력 모듈의 중앙 영역에 출력될 수 있지만 이에 한정되는 것은 아니고 출력 모듈 상에서 사용자의 중심 시선을 고정시키고자 하는 위치에 출력될 수 있다.
비주얼 오브젝트는 출력 모듈에서의 출력 위치에 따라 출력 모듈의 중앙영역에 출력되는 중앙 오브젝트 및 중앙 오브젝트의 주변부에 출력되는 주변 오브젝트를 포함할 수 있다.
도 4는 본 발명에 따른 비주얼 오브젝트의 출력 위치에 따른 분류를 설명하기 위한 도면이다.
도 4를 참고하면, 비주얼 오브젝트는 출력 모듈(1101)의 중앙 영역에 출력되는 중앙 오브젝트(1) 및 주변 오브젝트(2)를 포함할 수 있다. 여기서, 중앙 오브젝트(1)는 중심 시선 고정 오브젝트에 대응될 수 있지만 이에 한정되는 것은 아니다.
비주얼 오브젝트는 사용자 리액션과 관련성이 있는 태스크 오브젝트 (task object) 및 관련성이 없는 자극 오브젝트(stimulus object)를 포함할 수 있다. 사용자는 태스크 오브젝트에만 기초하여 사용자 리액션을 결정할 수 있다. 여기서, 사용자 리액션이란 시지각 태스크나 비주얼 오브젝트에 대한 사용자의 반응으로, 사용자가 입력 모듈을 통해 장치에 사용자 입력을 입력하는 경우뿐만 아니라 도적으로 무반응하는 경우(예를 들어, 의도적으로 사용자 입력을 입력하지 않는 경우)도 포함한다. 자극 오브젝트는 사용자 리액션과 관련성이 없지만 시야 장애치료가 필요한 시야 결손 영역에 대응되는 위치에 출력될 수 있다. 물론, 태스크 오브젝트 또한 시야 결손 영역에 대응되는 위치에 출력될 수 있다. 태스크 오브젝트는 중심 시선 고정 오브젝트일 수 있지만 이에 한정되는 것은 아니다. 태스크 오브젝트는 중앙 오브젝트, 자극 오브젝트는 주변 오브젝트일 수 있으나 이에 한정되는 것은 아니고, 태스크 오브젝트 및 자극 오브젝트 각각은 중앙 오브젝트 및 주변 오브젝트 중 적어도 하나일 수 있다.
도 5는 본 발명에 따른 시지각 학습을 이용하여 시각 능력을 개선하기 위한 방법을 설명하기 위한 순서도이다. 도 5를 참고하면, 방법은 시각 능력 정보를 획득하는 단계(S1100), 시지각 태스크를 제공하는 단계(S1200) 및 사용자 액션을 획득 및 평가하는 단계(S1300)를 포함할 수 있다. 일 실시예에 따르면, 방법은 사용자/환자의 특정 시야 영역의 결손/손상을 개선하기 위한 것일 수 있다. 이하에서는 시야 장애를 갖는 환자를 위한 훈련이 수행되는 시야 영역 또는 훈련이 주요하게 수행되는 시야 영역을 타겟 영역이라 한다. 예를 들어, 시야 손상 영역은 타겟 영역일 수 있다. 또한, 타겟 영역에 대응되는 출력 모듈 상에서의 위치를 타겟 위치라 한다. 또한, 후술할 시야 지도 상에서 타겟 영역에 대응되는 시야 지도의 셀을 타겟 셀이라 한다.
일 실시예에 따른 시각 능력 정보를 획득하는 단계(S1100)는 사용자/환자의 시각 능력과 관련된 정보를 획득하는 것일 수 있다. 예를 들어, 장치는 사용자/환자의 시각 능력 정보를 획득할 수 있다. 여기서, 시각 능력 정보는 시야측정법(perimetry)과 같은 시야 검사를 통해 획득한 시야 검사 결과일 수 있다.
일 실시예에 따른 시각 능력 정보는 시야 지도(visual field map)일 수 있다. 여기서, 시야 지도란 사용자의 시야 범위 및 시각 능력을 나타내는 지도로, 예를 들어 시야 지도는 사용자의 시각 능력을 반영하는 비전 인덱스(visionindex)가 할당된 복수의 셀을 포함할 수 있다.
시야 지도의 특정 셀은 사용자의 특정 시야 영역에 대응될 수 있다.
예를 들어, 시야 지도의 제1 셀 및 제2 셀은 각각 제1 시야 영역 및 제2 시야 영역에 대응될 수 있다. 또는, 시야 지도의 중앙부에 위치한 셀은 중심 시야 영역에 대응되고 주변부에 위치한 셀은 주변 시야 영역에 대응될 수 있다. 또는, 시야 지도의 하부에 위치한 셀은 하부 시야 영역에 대응되고 상부에 위치한 셀은 상부 시야 영역에 대응될 수 있다.
비전 인덱스는 사용자의 시각 능력의 정도(또는 질병 진행 정도)를 나타내는 척도를 의미할 수 있다.
일 실시예에 따르면, 비전 인덱스는 미리 정해진 수치 범위 내의 값인 비전 스코어(vision score)일 수 있다. 비전 스코어가 클수록 해당 셀의 시각 능력이 양호함을 지시할 수 있지만 이와 반대로 비전 스코어가 작을수록 시각 능력이 양호함을 지시할 수도 있을 것이다.
도 6은 본 발명에 따른 비전 스코어가 할당된 복수의 셀을 포함하는 시야 지도에 관한 도면이다.
도 6을 참고하면, 셀에는 비전 스코어가 할당될 수 있고, 예를 들어 비전 스코어는 -30 이상 0 이하의 정수값을 가질 수 있으며, 값이 클수록 시각 능력이 양호함을 지시할 수 있다. 시야 지도는 비전 스코어가 할당되지 않은 셀을 포함할 수 있다. 비전 스코어가 할당되지 않은 셀은 맹점에 대응되는 셀일 수 있다. 이하에서는 별도의 언급이 없는 한 설명의 편의를 위해 -30 이상 0이하의 정수값을 갖고 값이 클수록 시각 능력이 양호함을 지시하는 비전 스코어를 기준으로 설명하나 이에 한정되는 것은 아님을 미리 밝혀둔다.
다른 실시예에 따르면, 비전 인덱스는 사용자의 시각 능력의 정도를 등급으로 표현하는 비전 스테이터스(vision status)일 수 있다. 예를 들어, 사용자의 시각 능력은 정상 시각 능력에 대응되는 정상 상태(normal status) 및 비정상 시각 능력이나 시야 결손에 대응되는 시야 결손 상태(defect status)의 비전 스테이터스로 표현될 수 있다. 또는, 사용자의 시각 능력은 정상 상태, 시각 능력 손상이 심각하여 시각 능력을 회복하기 어려운 죽은 상태(dead status) 및 시각 능력 손상은 있으나 시각 능력 회복은 가능한 기능 장애 상태(disfunctional status)의 비전 스테이터스로 표현될 수 있다. 이 외에도 비전 스테이터스는 다양한 등급으로 표현될 수 있을 것이다.
도 7은 본 발명에 따른 비전 스테이터스가 할당된 복수의 셀을 포함하는 시야 지도에 관한 도면이다.
도 7을 참고하면, 시야 지도는 정상 상태인 비전 스테이터스가 할당된 셀(3, 이하 "정상 셀"이라 함), 기능 장애 상태인 비전 스테이터스가 할당된 셀(4, 이하 "기능 장애 셀"이라 함) 및 죽은 상태인 비전 스테이터스가 할당된 셀(5, 이하 "죽은 셀"이라 함)을 포함할 수 있다. 시야 지도는 비전 스테이터스가 할당되지 않은 셀을 포함할 수 있다. 비전 스테이터스가 할당되지 않은 셀은 맹점에 대응되는 셀일 수 있다. 도 7에서는 설명의 편의를 위해 서로 다른 비전 스테이터스를 서로 다른 패턴으로 표현하였다. 이하에서는 별도의 언급이 없는 한 설명의 편의를 위해 정상 상태, 기능 장애 상태 및 죽은 상태를 포함하는 비전 스테이터스를 기준으로 설명하나 이에 한정되는 것은 아니다.
비전 스테이터스는 비전 스코어에 기초하여 결정될 수 있다. 예를들어, 비전 스테이터스가 할당된 시야 지도는 비전 스코어에 기초하여 생성될 수있다. 또는, 비전 스테이터스가 할당된 시야 지도는 비전 스코어가 할당된 시야 지도에 기초하여 생성될 수 있다.
일 실시예에 따르면, 비전 스테이터스는 비전 스코어의 수치 범위에 기초하여 결정될 수 있다. 예를 들어, 제1 수치 범위 및 제2 수치 범위의 비전 스코어는 각각 제1 상태 및 제2 상태의 비전 스테이터스에 대응될 수 있다. 도 6 및 7을 참고하면, -10 이상 0 이하의 비전 스코어는 정상 상태의 비전 스테이터스, -20 이상 -11 이하의 비전 스코어는 기능 장애 상태의 비전 스테이터스 및 -30 이상 -21 이하의 비전 스코어는 죽은 상태의 비전 스테이터스에 대응될 수 있다. 도 6 및 7의 비전 스코어와 비전 스테이터스 사이의 대응 관계는 예시적인 것으로 상기 대응 관계가 이에 한정되는 것은 아니다.
일 실시예에 따르면, 시지각 태스크를 제공하는 단계(S1200)는 사용자/환자에게 시지각 태스크를 제공하는 것일 수 있다. 다른 실시예에 따르면, 시지각 태스크를 제공하는 단계(S1200)는 비주얼 오브젝트를 출력하는 것일 수 있다.
시지각 태스크는 시각 능력 정보에 기초하여 제공될 수 있다. 여기서, 시각 능력 정보는 시각 능력 정보를 획득하는 단계(S1100)에서 획득한 시각 능력 정보이거나 후술할 사용자 리액션을 획득 및 평가하는 단계(S1300)에서 생성/업데이트된 시각 능력 정보일 수 있다. 또는, 시지각 태스크는 후술할 사용자 리액션을 획득 및 평가하는 단계(S1300)에서 산출되는 평가 결과에 기초하여 제공될 수 다.
비주얼 오브젝트는 출력 모듈의 특정 위치에 출력될 수 있다. 비주얼 오브젝트의 출력 위치는 비주얼 오브젝트가 출력 모듈 상에서 디스플레이되는 위치를 의미할 수 있다. 비주얼 오브젝트는 타겟 영역에 대응되는 출력 모듈 상에서의 위치에 출력될 수 있다.
출력 모듈의 특정 위치는 시야 지도의 특정 셀에 대응될 수 있다. 예를 들어, 출력 모듈의 제1 위치 및 제2 위치는 각각 시야 지도의 제1 셀 및 제2셀에 대응될 수 있다. 출력 모듈의 특정 위치는 사용자의 특정 시야 영역에 대응될 수 있다. 예를 들어, 출력 모듈의 제1 위치 및 제2 위치는 각각 제1 시야 영역 및 제2 시야 영역에 대응될 수 있다. 또는, 출력 모듈의 중앙부는 중심 시야 영역에 대응되고 주변부는 주변 시야 영역에 대응될 수 있다. 또는, 출력 모듈의 하부는 하부 시야 영역에 대응되고 상부는 상부 시야 영역에 대응될 수 있다.
비주얼 오브젝트는 특정 빈도로 출력될 수 있다. 비주얼 오브젝트는 출력모듈의 특정 위치에 특정 빈도로 출력될 수 있다. 예를 들어, 출력 모듈의 제1 위치에 비주얼 오브젝트가 출력되는 빈도는 출력 모듈의 제2 위치에 비주얼 오브젝트가 출력되는 빈도와 상이할 수 있다. 또는, 타겟 위치에 비주얼 오브젝트가 출력되는 빈도는 다른 위치에 출력되는 빈도와 상이할 수 있다. 또는, 비주얼 오브젝트는 타겟 위치에 더 높은 빈도로 출력될 수 있다.
비주얼 오브젝트는 특정 순서로 출력될 수 있다. 여기서, 비주얼 오브젝트의 출력 순서가 동일하다는 것은 비주얼 오브젝트가 동일한 시점에 출력되는 것을 의미하고, 비주얼 오브젝트의 출력 순서가 상이하다는 것은 비주얼 오브젝트가 상이한 시점에 출력되는 것을 의미할 수 있다.
비주얼 오브젝트는 특정 속성으로 출력될 수 있다. 예를 들어, 타겟 위치에 출력되는 비주얼 오브젝트는 다른 위치에 출력되는 비주얼 오브젝트에 비해 더 강한 자극을 제공하는 속성을 가질 수 있다. 비주얼 오브젝트의 속성에 대해서는 전술한 바 여기에서는 설명을 생략하기로 한다.
도 8 및 9는 본 발명에 따른 시지각 태스크의 예시들에 관한 도면들이다.
도 8을 참고하면, 장치는 출력 모듈(1102)을 통해 비주얼 오브젝트(7, 8)를 디스플레이함으로써 사용자에게 시지각 태스크를 제공할 수 있다.
여기서, 시지각 태스크는 제1 비주얼 오브젝트(7) 및 제2 비주얼 오브젝트(8)의 속성이 일치하는지 여부를 판단하는 것일 수 있다. 일 예로, 도 8에 도시된 바와 같이, 시지각 태스크는 가버 타입의 제1 비주얼 오브젝트(7) 및 제2 비주얼 오브젝트(8)의 회전 방향이 일치하는지 여부를 판단하는 것일 수 있다. 다른 예로, 시지각 태스크는 가버 타입의 제1 비주얼 오브젝트 및 제2 비주얼 오브젝트의 패턴의 방향이 일치하는지 여부를 판단하는 것일 수 있다.
사용자는 제1 비주얼 오브젝트 및 제2 비주얼 오브젝트의 속성이 일치하는지 여부에 기초하여 사용자 리액션을 결정할 수 있다. 예를 들어, 도 8을 참고하면, 제1 비주얼 오브젝트(7) 및 제2 비주얼 오브젝트(8)의 회전 방향은 서로 상이하므로, 사용자는 속성 불일치에 대응되는 리액션을 수행해야 할 것이다. 도 8의 경우 제1 비주얼 오브젝트(7) 및 제2 비주얼 오브젝트(8) 모두 사용자 리액션과
관련성이 있는 오브젝트이므로 제1 비주얼 오브젝트(7) 및 제2 비주얼 오브젝트(8)는 태스크 오브젝트라 할 수 있다. 또한, 제1 비주얼 오브젝트(7)는 중앙 오브젝트, 제2 비주얼 오브젝트(8)는 주변 오브젝트라 할 수 있다. 또한, 제1 비주얼 오브젝트(7) 및 제2 비주얼 오브젝트(8) 중 하나는 중심 시선 고정 오브젝트일 수 있다.
다음으로, 도 9를 참고하면, 장치는 출력 모듈(1103)을 통해 비주얼 오브젝트 (9, 10)를 디스플레이함으로써 사용자에게 시지각 태스크를 제공할 수 있다. 여기서, 시지각 태스크는 제3 비주얼 오브젝트(9)의 속성을 판단하는 것일 수 있다. 예를 들어, 시지각 태스크는 가버 타입의 제3 비주얼 오브젝트(9)의 패턴의 방향을 판단하는 것일 수 있다. 또는, 시지각 태스크는 제3 비주얼 오브젝트의 회전 방향을 판단하는 것일 수 있다.
사용자는 제3 비주얼 오브젝트(9)의 속성에 기초하여 사용자 리액션을 결정할 수 있다. 예를 들어, 사용자는 제3 비주얼 오브젝트(9)의 패턴이 수직 방향인 경우 제1 리액션, 수평 방향인 경우 제2 리액션, 대각선 방향인 경우 제3 리액션을 수행해야 한다. 이 경우 제3 비주얼 오브젝트(9)는 태스크 오브젝트라 할 수 있고, 제4 비주얼 오브젝트(10)는 사용자 리액션과 관련성이 없으므로 자극 오브젝트라 할 수 있을 것이다. 또한, 제3 비주얼 오브젝트(9)는 중앙 오브젝트, 제4 비주얼 오브젝트(10)는 주변 오브젝트라 할 수 있다. 또한, 제3 비주얼 오브젝트 (9)는 중심 시선 고정 오브젝트일 수 있다. 중심 시선 고정 오브젝트인 제3 비주얼 오브젝트(9)만 태스크 오브젝트임에 따라 사용자의 시야는 제3 비주얼 오브젝트 (9)에 더욱 고정될 수 있고 이에 따라 중심 시선 고정 효과가 증가할 수 있다. 제4 비주얼 오브젝트(10)는 특정 시간 빈도로 깜빡이며 출력될 수 있다.
도 8 및 9를 통해 전술한 시지각 태스크는 예시에 불과하고, 이와 다른 방식으로 사용자에게 시지각 태스크가 제공될 수도 있을 것이다.
도 10은 본 발명에 따른 비주얼 오브젝트의 출력 위치에 관한 정보를 결정하는 단계를 설명하기 위한 순서도이다.
도 10을 참고하면, 일 실시예에 따른 시지각 학습을 이용하여 시각 능력을 개선하기 위한 방법은 비주얼 오브젝트의 출력 위치에 관한 정보를 결정하는 단계(S1410)를 포함할 수 있다. 일 실시예에 따른 비주얼 오브젝트의 출력 위치에 관한 정보를 결정하는 단계(S1410)는 타겟 위치를 결정하는 것일 수 있다.
비주얼 오브젝트의 출력 위치는 시각 능력에 기초하여 결정될 수 있다. 예를 들어, 비주얼 오브젝트는 시야 결손 영역에 대응되는 위치에 출력될 수 있다. 또는, 시야 결손 영역에 대응되는 위치는 타겟 위치일 수 있다. 도 8을 참고하면, 제2 비주얼 오브젝트(8)는 시야 결손 영역에 대응되는 위치에 출력될 수 있다. 도 9를 참고하면, 제4 비주얼 오브젝트(10)는 시야 결손 영역에 대응되는 위치에 출력될 수 있다.
비주얼 오브젝트의 출력 위치는 시야 지도와 같은 시각 능력 정보에 기초하여 결정될 수 있다.
비주얼 오브젝트의 출력 위치는 비전 인덱스에 기초하여 결정될 수 있다.
비주얼 오브젝트의 출력 위치는 비전 스코어에 기초하여 결정될 수 있다. 예를 들어, 비주얼 오브젝트는 특정 수치 범위에 포함되는 비전 스코어가 할당된 셀에 대응되는 위치에 출력될 수 있다. 도 8을 참고하면, 제2 비주얼 오브젝트(8)는 특정 수치 범위에 포함되는 비전 스코어가 할당된 셀에 대응되는 위치에 출력될 수 있다. 도 9를 참고하면, 제4 비주얼 오브젝트(10)는 특정 수치 범위에 포함되는 비전 스코어가 할당된 셀에 대응되는 위치에 출력될 수 있다.
비주얼 오브젝트의 출력 위치는 비전 스테이터스에 기초하여 결정될 수 있다. 예를 들어, 비주얼 오브젝트는 기능 장애 셀에 대응되는 위치에 디스플레이될 수 있다. 도 8을 참고하면, 제2 비주얼 오브젝트(8)는 기능 장애 영역에 대응되는 위치에 디스플레이될 수 있다. 도 9를 참고하면, 제4 비주얼 오브젝트(10)는 기능 장애 영역에 대응되는 위치에 디스플레이될 수 있다.
출력 모듈 상에서의 특정 위치에 비주얼 오브젝트가 출력되는지 여부는 출력 모듈의 각 출력 위치에 대응되는 가중치에 기초하여 표현될 수 있다. 예를 들어, 비주얼 오브젝트가 출력되는 제1 위치에는 비주얼 오브젝트의 출력을 지시하는 제1 값을 갖는 가중치가 대응될 수 있다. 또한, 나머지 위치에는 비주얼 오브젝트가 출력되지 않는 것을 지시하는 제2 값을 갖는 가중치가 대응될 수 있다.
도 11은 본 발명에 따른 비주얼 오브젝트의 출력 빈도에 관한 정보를 결정하는 단계를 설명하기 위한 순서도이다.
도 11을 참고하면, 일 실시예에 따른 시지각 학습을 이용하여 시각 능력을 개선하기 위한 방법은 비주얼 오브젝트의 출력 빈도에 관한 정보를 결정하는 단계(S1420)를 포함할 수 있다.
일 실시예에 따른 비주얼 오브젝트의 출력 빈도에 관한 정보를 결정하는 단계(S1420)는 타겟 위치에 대응되는 출력 빈도를 결정하는 것일 수 있다.
비주얼 오브젝트의 출력 빈도는 시각 능력에 기초하여 결정될 수 있다. 예를 들어, 비주얼 오브젝트는 정상 영역에 대응되는 위치에 비해 시야 결손 영역에 대응되는 위치에 높은 빈도로 출력될 수 있다. 또는, 비주얼 오브젝트는 시각 능력이 상대적으로 떨어지는 영역에 대응되는 위치에 높은 빈도로 출력될 수 있다.
비주얼 오브젝트의 출력 빈도는 시야 지도와 같은 시각 능력 정보에 기초하여 결정될 수 있다.
비주얼 오브젝트의 출력 빈도는 비전 인덱스에 기초하여 결정될 수 있다.
비주얼 오브젝트의 출력 빈도는 비전 스코어에 기초하여 결정될 수 있다. 예를 들어, 비전 스코어가 -30인 셀에 대응되는 위치에서의 출력 빈도가 비전 스코어가 -20인 셀에 대응되는 위치에서의 출력 빈도보다 큰 것과 같이 비주얼 오브젝트는 비전 스코어가 작을수록 높은 출력 빈도로 출력될 수 있다. 또는, 특정 범위에 포함되는 비전 스코어가 할당된 셀에 대응되는 위치에서의 출력 빈도가 나머지 셀에 대응되는 위치에서의 출력 빈도보다 클 수 있다. 일 예로, -30 이상 -21 이하인 비전 스코어가 할당된 셀에 대응되는 위치에서의 출력 빈도는 나머지 셀에 대응되는 위치에서의 출력 빈도보다 클 수 있다. 다른 예로, -20 이상 -11 이하인 비전 스코어가 할당된 셀에 대응되는 위치에서의 출력 빈도는 나머지 셀에 대응되는 위치에서의 출력 빈도보다 클 수 있다.
비주얼 오브젝트의 출력 빈도는 비전 스테이터스에 기초하여 결정될 수 있다. 예를 들어, 기능 장애 셀에 대응되는 위치에서의 비주얼 오브젝트의 출력 빈도는 나머지 셀에 대응되는 위치에서의 출력 빈도보다 클 수 있다.
출력 모듈 상에서의 특정 위치에 비주얼 오브젝트가 출력되는 빈도는 출력 모듈의 각 출력 위치에 대응되는 가중치에 기초하여 표현될 수 있다. 예를 들어, 출력 모듈 상의 제1 위치 및 제2 위치에는 각각 비주얼 오브젝트의 제1 빈도로의 출력을 지시하는 제1 값을 갖는 가중치 및 비주얼 오브젝트의 제2 빈도로의 출력을 지시하는 제2 값을 갖는 가중치가 대응될 수 있다. 본 명세서에서는 설명의 편의를 위해 가중치가 클수록 출력 빈도가 높은 것을 지시하는 것으로 설명하나 이에 한정되는 것은 아니고 가중치가 작을수록 출력 빈도가 높은 것을 지시할 수도 있을 것이다.
비주얼 오브젝트의 출력 빈도에 따라 시야 장애 치료 효과가 달라질 수 있다. 예를 들어, 비주얼 오브젝트의 출력 빈도가 높은 위치에 대응되는 시야 영역의 시야 개선 정도는 나머지 영역의 시야 개선 정도보다 높을 수 있다.
비주얼 오브젝트는 일정 시간 간격으로 출력될 수 있다. 예를 들어, 비주얼 오브젝트는 일정 시간 간격 동안 출력된 후 일정 시간 간격 동안 출력되지 않다가 다시 일정 시간 간격 동안 출력될 수 있다.
비주얼 오브젝트는 시간적으로 연속적으로 출력되는 비주얼 오브젝트 및 불연속적으로 출력되는 비주얼 오브젝트를 포함할 수 있다. 예를 들어, 일부 비주얼 오브젝트는 시간적으로 연속적으로 출력되고 나머지 비주얼 오브젝트는 불연속적으로 출력될 수 있다.
도 12는 본 발명에 따른 일정 시간 간격으로 출력되는 비주얼 오브젝트에 관한 도면이다.
도 12를 참고하면, 제3 비주얼 오브젝트(11)는 제1 시간 간격, 제2 시간 간격 및 제3 시간 간격 동안 연속적으로 출력되는 반면 제4 비주얼 오브젝트(12a, 12b)는 제1 시간 간격 동안에는 출력되다가 제2 시간 간격 동안에는 출력되지 않고 다시 제3 시간 간격 동안 출력될 수 있다.
비주얼 오브젝트가 일정 시간 간격으로 출력됨에 따라 시야 개선 효과가 증가할 수 있다. 예를 들어, 도 12를 참고하면, 제4 비주얼 오브젝트 (12a, 12b)가 출력되는 위치에 대응되는 시야 영역의 시야 개선 효과는 제4 비주얼 오브젝트(12a, 12b)가 제2 시간 간격 동안 출력되지 않음으로써 제1 시간 간격, 제2 시간 간격 및 제3 시간 간격 동안 연속적으로 출력되는 경우에 비해 증가할 수 있다.
도 13은 본 발명에 따른 비주얼 오브젝트의 출력 순서에 관한 정보를 결정하는 단계를 설명하기 위한 순서도이다.
도 13을 참고하면, 일 실시예에 따른 시지각 학습을 이용하여 시각 능력을 개선하기 위한 방법은 비주얼 오브젝트의 출력 순서에 관한 정보를 결정하는 단계(S1430)를 포함할 수 있다. 일 실시예에 따르면, 비주얼 오브젝트의 출력 순서에 관한 정보를 결정하는 단계(S1430)는 타겟위치에 출력되는 비주얼 오브젝트의 출력 순서를 결정하는 것일 수 있다.
비주얼 오브젝트는 동일한 시점에 출력될 수 있다. 예를 들어, 도 9 를 참고하면, 제4 비주얼 오브젝트(10) 전부는 동일한 시점에 출력될 수 있다.
비주얼 오브젝트는 상이한 시점에 출력될 수 있다. 예를 들어, 비주얼 오브젝트 중 일부는 제1 시점에 출력되고, 나머지는 제2 시점에 출력될 수 있다.
도 14는 본 발명에 따른 상이한 시점에 출력되는 비주얼 오브젝트를 설명하기 위한 도면이다.
도 14를 참고하면, 제4 비주얼 오브젝트의 일부(16a)가 먼저 제1 시점에서 출력되고, 이후 제4 비주얼 오브젝트의 나머지(16b)가 제2 시점에서 출력될 수 있다.
비주얼 오브젝트의 출력 순서는 비주얼 오브젝트의 출력 위치에 기초하여 결정될 수 있다. 비한정적인 예로, 도 14를 참고하면, 출력 모듈(1105)의 좌측 부분에 먼저 제4 비주얼 오브젝트의 일부(16a)가 출력되고 이후 출력 모듈(1105)의 우측 부분에 제4 비주얼 오브젝트의 나머지(16b)가 출력될 수 있다.
비주얼 오브젝트의 출력 순서는 시각 능력에 기초하여 결정될 수 있다. 비주얼 오브젝트의 출력 순서는 시야 지도와 같은 시각 능력 정보에 기초하여 결정될 수 있다. 비주얼 오브젝트의 출력 순서는 비전 인덱스에 기초하여 결정될 수 있다. 비주얼 오브젝트의 출력 순서는 비전 스코어에 기초하여 결정될 수 있다. 비주얼 오브젝트의 출력 순서는 비전 스테이터스에 기초하여 결정될 수 있다.
출력 모듈 상에서 비주얼 오브젝트가 출력되는 순서는 출력 모듈의 각 출력 위치에 대응되는 가중치에 기초하여 표현될 수 있다. 예를 들어, 출력 모듈 상의 제1 위치 및 제2 위치에는 각각 비주얼 오브젝트의 제1 순서로의 출력을 \시하는 제1 값을 갖는 가중치 및 비주얼 오브젝트의 제2 순서로의 출력을 지시하는 제2 값을 갖는 가중치가 대응될 수 있다.
도 15는 본 발명에 따른 비주얼 오브젝트의 속성에 관한 정보를 결정하는 단계를 설명하기 위한 순서도이다.
도 15를 참고하면, 일 실시예에 따른 시지각 학습을 이용하여 시각 능력을 개선하기 위한 방법은 비주얼 오브젝트의 속성에 관한 정보를 결정하는 단계(S1440)를 포함할 수 있다. 일 실시예에 따른 비주얼 오브젝트의 속성에 관한 정보를 결정하는 단계(S1440)는 타겟 위치에 출력되는 비주얼 오브젝트의 속성에 관한 정보를 결정하는 것일 수 있다.
비주얼 오브젝트의 속성은 시각 능력에 기초하여 결정될 수 있다.
예를 들어, 시야 결손 영역에 대응되는 위치에 출력되는 비주얼 오브젝트의 속성은 정상 영역에 대응되는 위치에 출력되는 비주얼 오브젝트의 속성과 상이할 수 있다. 또는, 시야 결손 영역에 대응되는 위치에 출력되는 비주얼 오브젝트의 속성은 정상 영역에 대응되는 위치에 출력되는 비주얼 오브젝트보다 강한 자극을 제공하도록 결정될 수 있다.
비주얼 오브젝트의 속성은 시야 지도와 같은 시각 능력 정보에 기초하여 결정될 수 있다.
비주얼 오브젝트의 속성은 비전 인덱스에 기초하여 결정될 수 있다. 또한, 비주얼 오브젝트의 속성은 비전 스코어에 기초하여 결정될 수 있다.
예를 들어, 제1 비전 스코어가 할당된 셀에 대응되는 위치에 디스플레이되는 비주얼 오브젝트의 속성은 제2 비전 스코어가 할당된 셀에 대응되는 위치에 디스플레이되는 비주얼 오브젝트의 속성과 상이할 수 있다. 또는, 비주얼 오브젝트의 속성은 나머지 위치에 비해 낮은 비전 스코어가 할당된 셀에 대응되는 위치에 더 강한 자극을 제공하도록 결정될 수 있다.
비주얼 오브젝트의 속성은 비전 스테이터스에 기초하여 결정될 수 있다. 예를 들어, 기능 장애 셀에 대응되는 위치에 디스플레이되는 비주얼 오브젝트의 속성은 나머지 위치에 디스플레이되는 비주얼 오브젝트의 속성과 상이할 수 있다. 또는, 비주얼 오브젝트의 속성은 나머지 위치에 비해 기능 장애 셀에 대응되는 위치에 더 강한 자극을 제공하도록 결정될 수 있다.
비주얼 오브젝트의 속성은 사용자별로 커스터마이즈될 수 있다. 예를 들어, 가버 타입의 비주얼 오브젝트의 경우 사용자별로 가버의 크기, 패턴의 방향, 패턴의 공간 주파수, 패턴의 위상, 콘트라스트 등이 변경되거나 최적화될 수 있다. 여기서, 상기 커스터마이즈는 비전 인덱스에 기초하여 수행될 수 있다. 또는, 상기 커스터마이즈는 사용자의 성별, 나이와 같은 인구통계특성, 고혈압, 당뇨 등의 병력 및 가족력을 고려하여 수행될 수 있다. 이와 같은 비주얼 오브젝트의 속성의 커스터마이즈를 통해 사용자의 시야 개선 효과가 증가할 수 있다.
출력 모듈 상에서의 특정 위치에 출력되는 비주얼 오브젝트의 속성은 출력 모듈의 각 출력 위치에 대응되는 가중치에 기초하여 표현될 수 있다. 예를 들어, 출력 모듈 상의 제1 위치 및 제2 위치에는 각각 제1 속성을 갖는 비주얼 오브젝트를 지시하는 제1 값을 갖는 가중치 및 제2 속성을 갖는 비주얼 오브젝트를 지시하는 제2 값을 갖는 가중치가 대응될 수 있다. 본 명세서에서는 설명의 편의를 위해 가중치가 클수록 사용자에게 더 강한 자극을 제공하는 속성을 갖는 비주얼 오브젝트를 지시하는 것으로 설명하나 이에 한정되는 것은 아니고 가중치가 작을수록 사용자에게 더 강한 자극을 제공하는 속성을 갖는 비주얼 오브젝트를 지시할 수도 있을 것이다.
비주얼 오브젝트의 속성에 따라 시야 개선 효과가 증가할 수 있다. 예를 들어, 특정 공간 주파수나 특정 시간 빈도를 갖는 비주얼 오브젝트를 출력하는 경우 시야 개선 효과가 증가할 수 있다.
일 실시예에 따른 사용자 리액션을 획득 및 평가하는 단계(S1300)는 제공된 시지각 태스크에 대응하는 사용자의 리액션을 획득하고 이를 평가하는 것일 수 있다. 예를 들어, 장치는 입력 모듈을 통해 사용자로부터 사용자 리액션에 대응되는 사용자 입력을 획득하고 컨트롤러를 통해 이를 평가하여 평가 결과를 생성할 수 있다. 또는, 장치는 입력 모듈을 통해 사용자 입력을 획득하고 통신 모듈을 통해 이를 서버로 송신하고 서버가 평가한 평가 결과를 수신할 수 있다.
평가 결과는 시지각 태스크에 대한 사용자의 태스크 수행 정도를 지시하는 것을 의미할 수 있다. 여기서, 사용자의 태스크 수행 정도는 사용자의 시각 능력을 반영할 수 있고, 예를 들어 점수나 등급으로 표현될 수 있을 것이다.
평가 결과는 시야 지도의 셀에 대응되도록 산출될 수 있다. 또는, 평가 결과는 출력 모듈에서 비주얼 오브젝트가 디스플레이되는 출력 위치에 대응되도록 산출될 수 있다. 또는, 평가 결과는 사용자의 시야 영역에 대응되도록 산출될 수 있다.
도 8을 참고하면, 제1 비주얼 오브젝트(7) 및 제2 비주얼 오브젝트 (8)의 회전 방향은 상이하므로 사용자가 속성 불일치에 대응되는 리액션을 수행하는 것이 정답일 것이다. 사용자가 정답에 대응되는 리액션을 수행하는 경우(예를 들어, 속성 불일치에 대응되는 사용자 입력을 입력), 제2 비주얼 오브젝트(8)가 디스플레이되는 위치 또는 이에 대응되는 시야 지도 상의 셀 및 시야 영역에서의 정답률은 증가할 수 있다. 정답률이 높다는 것은 해당 시야 영역의 시각 능력이 좋다는 것을 의미할 수 있다.
일 실시예에 따른 사용자 리액션을 획득 및 평가하는 단계(S1300)는 평가 결과를 기초로 시각 능력 정보를 업데이트하는 단계를 포함할 수 있다. 일 실시예에 따른 평가 결과를 기초로 시각 능력 정보를 업데이트하는 단계는 평가 결과에 기초하여 시야 지도와 같은 시각 능력 정보를 생성하거나 이미 존재하는 시각 능력 정보를 업데이트하는 것일 수 있다. 예를 들어, 높은 정답률에 대응되는 셀에는 낮은 정답률에 대응되는 셀에 비해 더 좋은 시각 능력을 지시하는 비전 인덱스가 할당될 수 있다. 또는, 높은 정답률에 대응되는 셀에는 낮은 정답률에 대응되는 셀에 비해 큰 (0에 가까운) 비전 스코어가 할당될 수 있다. 또는, 높은 정답률에 대응되는 셀에는 낮은 정답률에 대응되는 셀에 비해 더 좋은 상태를 지시하는 비전 스테이터스가 할당될 수 있다.
여기에서는 평가 결과와 시각 능력 정보가 별개인 것으로 설명했으나, 평가 결과가 시야 지도의 형태로 산출되는 등 평가 결과 자체가 시각 능력 정보일 수도 있을 것이다.
전술한 바와 같이, 평가 결과에 기초하여 시지각 태스크가 제공될 수 있다. 예를 들어, 이전 세션의 평가 결과에 기초하여 다음 세션의 시지각 태스크가 제공될 수 있다.
평가 결과에 따라 비주얼 오브젝트의 출력 위치가 결정될 수 있다. 예를 들어, 비주얼 오브젝트는 시각 능력이 변화한 시야 영역에 대응되는 위치에 출력될 수 있다. 여기서, 시각 능력이 변화한 시야 영역은 시각 능력이 개선되거나 감소된 시야 영역을 의미할 수 있다.
평가 결과에 따라 비주얼 오브젝트의 출력 빈도가 결정될 수 있다. 예를 들어, 시각 능력이 변화한 시야 영역에 대응되는 위치에 출력되는 비주얼 오브젝트의 출력 빈도는 변경될 수 있다. 일 예로, 시각 능력이 감소된 시야 영역에 대응되는 위치에 출력되는 비주얼 오브젝트의 출력 빈도는 증가할 수 있다. 다른 예로, 시각 능력이 개선된 시야 영역에 대응되는 위치에 출력되는 비주얼 오브젝트의 출력 빈도는 증가할 수 있다.
평가 결과에 따라 비주얼 오브젝트의 출력 순서가 결정될 수 있다.
평가 결과에 따라 비주얼 오브젝트의 속성이 결정될 수 있다. 예를 들어, 시각 능력이 변화한 시야 영역에 대응되는 위치에 출력되는 비주얼 오브젝트의 속성은 변경될 수 있다. 일 예로, 시각 능력이 감소된 시야 영역에 대응되는 위치에 출력되는 비주얼 오브젝트의 속성은 더 강한 자극을 제공하거나 더 약한 자극을 제공하도록 변경될 수 있다. 다른 예로, 시각 능력이 개선된 시야 영역에 대응되는 위치에 출력되는 비주얼 오브젝트의 속성은 더 강한 자극을 제공하거나 더 약한 자극을 제공하도록 변경될 수 있다.
일 실시예에 따르면, 시지각 태스크를 제공하는 단계(S1200)는 인접한 셀의 비전 인덱스를 고려하여 시지각 태스크를 제공하는 것일 수 있다. 여기서, 인접한 셀의 비전 인덱스를 고려하여 시지각 태스크를 제공하는 것은 인접한 셀의 비전 인덱스를 고려하여 비주얼 오브젝트를 출력하는 것일 수 있다.
도 16 및 17은 본 발명에 따른 인접한 셀의 비전 인덱스를 고려하여 비주얼 오브젝트의 출력 위치, 출력 빈도, 출력 순서 및 속성 중 적어도 하나에 관한 정보를 결정하는 단계를 설명하기 위한 도면들이다.
먼저, 도 16을 참고하면, 일 실시예에 따른 시지각 학습을 이용하여 시각 능력을 개선하기 위한 방법은 비전 인덱스가 할당된 복수의 셀을 포함하는 시야 지도를 획득하는 단계(S1101) 및 인접한 셀의 비전 인덱스를 고려하여 비주얼 오브젝트의 출력 위치, 출력 빈도, 출력 순서 및 속성 중 적어도 하나에 관한 정보를 결정하는 단계(S1401)를 포함할 수 있다.
비전 인덱스가 할당된 복수의 셀을 포함하는 시야 지도를 획득하는 단계(S1101)는 시각 능력 정보를 획득하는 단계(S1100)의 일 실시예로 이에 대한 설명은 전술한 바 여기에서는 생략하기로 한다.
일 실시예에 따른 비주얼 오브젝트의 출력 위치에 관한 정보를 결정하는 단계(S1410)는 인접한 셀의 비전 인덱스를 고려하여 비주얼 오브젝트의 출력 위치에 관한 정보를 결정하는 것일 수 있다.
일 실시예에 따르면, 인접한 셀의 비전 인덱스를 고려하여 비주얼 오브젝트의 출력 위치에 관한 정보를 결정하는 것은 특정 셀의 비전 인덱스 및 상기 특정 셀과 인접한 셀의 비전 인덱스의 차이를 고려하여 비주얼 오브젝트의 출력 위치를 결정하는 것일 수 있다. 예를 들어, 상기 비전 인덱스의 차이가 미리 정해진 등급이나 수치 이상인 경우 상기 특정 셀에 대응되는 디스플레이 상에서의 위치에 비주얼 오브젝트를 출력할 수 있다. 또는, 상기 비전 인덱스의 차이가 미리 정해진 등급 범위나 수치 범위에 포함되는 경우 상기 특정 셀에 대응되는 디스플레이상에서의 위치에 비주얼 오브젝트를 출력할 수 있다.
다음으로, 도 17을 참고하면, 특정 셀을 기준으로 상기 특정 셀의 상하좌우에 위치하는 셀과의 비전 스코어 차이를 산출하여, 하나 이상의 차이가 미리 정해진 값(도 17에서는 10) 이상인 경우 상기 특정 셀에 대응되는 출력 모듈 상에서의 위치에 비주얼 오브젝트를 출력할 수 있다. 일 예로, 제1 셀(17a)의 경우 좌측에 위치하는 셀과의 비전 스코어 차이가 11로 10 이상인 바 이에 대응되는 출력 모듈(1106) 상에서의 제1 위치(17b)에는 비주얼 오브젝트가 출력될 수 있다. 다른 예로, 제2 셀(18a)의 경우 상하좌우에 위치하는 셀과의 비전 스코어 차이가 모두 10 미만인 바 이에 대응되는 출력 모듈(1106) 상에서의 제2 위치(18b)에는 비주얼 오브젝트가 출력되지 않을 수 있다. 도 17에서는 설명의 편의를 위해 비주얼 오브젝트가 출력되는 위치(17b)와 출력되지 않는 위치(18b)를 서로 다른 패턴으로 표현하였다. 또한, 도 17에서 인접한 셀을 상하좌우에 위치하는 셀로 한정한 것은 예시적인 것으로 이 외에도 특정 셀을 둘러싼 8개의 셀을 인접한 셀로 고려하는 등 다양한 방식으로 인접한 셀을 정의할 수 있을 것이다. 예를 들어, 제2 셀(18a)과 인접한 셀을 제2 셀(18a)을 둘러싼 8개의 셀로 한정하는 경우 좌측 하단에 위치한 셀과의 비전 스코어의 차이가 19로 이 경우에는 제2 위치(18b)에도 비주얼 오브젝트가 출력될 수 있을 것이다.
일 실시예에 따른 비주얼 오브젝트의 출력 빈도에 관한 정보를 결정하는 단계(S1420)는 인접한 셀의 비전 인덱스를 고려하여 비주얼 오브젝트의 출력빈도에 관한 정보를 결정하는 것일 수 있다.
일 실시예에 따르면, 인접한 셀의 비전 인덱스를 고려하여 비주얼 오브젝트의 출력 빈도에 관한 정보를 결정하는 것은 특정 셀의 비전 인덱스 및 상기 특정 셀과 인접한 셀의 비전 인덱스의 차이를 고려하여 비주얼 오브젝트의 출력 빈도를 결정하는 것일 수 있다. 예를 들어, 상기 비전 인덱스의 차이가 클수록 출력 빈도가 높도록 결정될 수 있다. 또는, 상기 비전 인덱스의 차이가 미리 정해진 범위에 포함되는 경우 나머지에 비해 출력 빈도가 높도록 결정될 수 있다. 도 17을 참고하면, 제1 위치(17b)에 비주얼 오브젝트가 출력되는 빈도는 제2 위치(18b)에 비주얼 오브젝트가 출력되는 빈도와 상이할 수 있다.
일 실시예에 따른 비주얼 오브젝트의 출력 순서에 관한 정보를 결정하는 단계(S1430)는 인접한 셀의 비전 인덱스를 고려하여 비주얼 오브젝트의 출력 순서에 관한 정보를 결정하는 것일 수 있다.
일 실시예에 따르면, 인접한 셀의 비전 인덱스를 고려하여 비주얼 오브젝트의 출력 순서에 관한 정보를 결정하는 것은 특정 셀의 비전 인덱스 및 상기 특정 셀과 인접한 셀의 비전 인덱스의 차이를 고려하여 비주얼 오브젝트의 출력순서를 결정하는 것일 수 있다. 예를 들어, 도 17을 참고하면, 제1 위치(17b) 및 제2 위치(18b)에는 상이한 시점에 비주얼 오브젝트가 출력될 수 있다.
일 실시예에 따른 비주얼 오브젝트의 속성에 관한 정보를 결정하는 단계(S1440)는 인접한 셀의 비전 인덱스를 고려하여 비주얼 오브젝트의 속성에 관한 정보를 결정하는 것일 수 있다.
일 실시예에 따르면, 인접한 셀의 비전 인덱스를 고려하여 비주얼 오브젝트의 속성에 관한 정보를 결정하는 것은 특정 셀의 비전 인덱스 및 상기 특정 셀과 인접한 셀의 비전 인덱스의 차이를 고려하여 비주얼 오브젝트의 속성에 관한 정보를 결정하는 것일 수 있다. 예를 들어, 도 17을 참고하면, 제1 위치(17b)에 출력되는 비주얼 오브젝트의 속성은 제2 위치(18b)에 출력되는 비주얼 오브젝트의 속성과 상이할 수 있다.
일 실시예에 따르면, 시지각 태스크를 제공하는 단계(S1200)는 시야 영역의 위치/방향을 고려하여 시지각 태스크를 제공하는 것일 수 있다. 여기서, 시야 영역의 위치/방향을 고려하여 시지각 태스크를 제공하는 것은 시야 영역의 위치/방향을 고려하여 비주얼 오브젝트를 출력하는 것일 수 있다. 사람은 일반적으로 상부 시야보다 하부 시야를, 주변 시야보다 중심 시야를 더 주요하게 이용하는 바, 시야 영역의 위치/방향을 고려하여 타겟 영역을 결정하는 경우 시야 개선 효과의 증가를 도모할 수 있을 것이다.
도 18 및 19는 본 발명에 따른 시야 영역의 위치/방향을 고려하여 비주얼 오브젝트의 출력 위치, 출력 빈도, 출력 순서 및 속성 중 적어도 하나에 관한 정보를 결정하는 단계를 설명하기 위한 도면들이다.
먼저, 도 18을 참고하면, 일 실시예에 따른 시지각 학습을 이용하여 시각 능력을 개선하기 위한 방법은 비전 인덱스가 할당된 복수의 셀을 포함하는 시야 지도를 획득하는 단계(S1102) 및 시야 영역의 위치/방향을 고려하여 비주얼 오브젝트의 출력 위치, 출력 빈도, 출력 순서 및 속성 중 적어도 하나에 관한 정보를 결정하는 단계(S1402)를 포함할 수 있다.
비전 인덱스가 할당된 셀을 포함하는 시야 지도를 획득하는 단계(S1102)는 시각 능력 정보를 획득하는 단계(S1100)의 일 실시예로 이에 대한 설명은 전술한 바 여기에서는 생략하기로 한다.
일 실시예에 따른 비주얼 오브젝트의 출력 위치에 관한 정보를 결정하는 단계(S1410)는 시야 영역의 위치/방향을 고려하여 비주얼 오브젝트의 출력 위치에 관한 정보를 결정하는 것일 수 있다. 예를 들어, 시야 영역의 위치/방향을 고려하여 비주얼 오브젝트의 출력 위치에 대한 정보를 결정하는 것은 제1 시야 영역에 대응되는 출력 위치에 비주얼 오브젝트를 출력하도록 결정하는 것일 수 있다.
일 실시예에 따르면, 시야 영역의 위치/방향을 고려하여 비주얼 오브젝트의 출력 위치에 대한 정보를 결정하는 것은 하부 시야 영역에 대응되는 출력 위치에 비주얼 오브젝트를 출력하도록 결정하는 것일 수 있다. 예를 들어, 도 19를 참고하면, 하부 시야 영역에 대응되는 출력 모듈(1107)의 출력 위치(19)에 비주얼 오브젝트가 출력될 수 있다.
다른 실시예에 따르면, 시야 영역의 위치/방향을 고려하여 비주얼 오브젝트의 출력 위치에 대한 정보를 결정하는 것은 중심 시야 영역에 대응되는 출력 위치에 비주얼 오브젝트를 출력하도록 결정하는 것일 수 있다.
또 다른 실시예에 따르면, 시야 영역의 위치/방향을 고려하여 비주얼 오브젝트의 출력 위치에 대한 정보를 결정하는 것은 황반에 대응되는 출력 위치에 비주얼 오브젝트를 출력하도록 결정하는 것일 수 있다.
일 실시예에 따른 비주얼 오브젝트의 출력 빈도에 관한 정보를 결정하는 단계(S1420)는 시야 영역의 위치/방향을 고려하여 비주얼 오브젝트의 출력 빈도에 관한 정보를 결정하는 것일 수 있다. 예를 들어, 시야 영역의 위치/방향을 고려하여 비주얼 오브젝트의 출력 빈도에 대한 정보를 결정하는 것은 제1 시야 영역에 대응되는 출력 모듈 상에서의 제1 위치의 출력 빈도와 제2 시야 영역에 대응되는 출력 모듈 상에서의 제2 위치의 출력 빈도가 상이하도록 결정하는 것일 수 있다.
일 실시예에 따르면, 하부 시야 영역에 대응되는 출력 위치에서의 출력 빈도는 출력 모듈 상의 나머지 위치에서의 출력 빈도보다 클 수 있다. 예를 들어, 도 19를 참고하면, 하부 시야 영역에 대응되는 출력 모듈(1107) 상의 출력 위치(19)에서의 비주얼 오브젝트의 출력 빈도는 나머지 위치(20)에서의 출력 빈도보다 클 수 있다.
다른 실시예에 따르면, 중심 시야 영역에 대응되는 출력 위치에서의 출력 빈도는 주변 시야 영역에 대응되는 출력 위치에서의 출력 빈도보다 클 수 있다.
또 다른 실시예에 따르면, 황반에 대응되는 출력 위치에서의 출력 빈도는 출력 모듈 상의 나머지 위치에서의 출력 빈도보다 클 수 있다.
일 실시예에 따른 비주얼 오브젝트의 출력 순서에 관한 정보를 결정 하는 단계(S1430)는 시야 영역의 위치/방향을 고려하여 비주얼 오브젝트의 출력 순서에 관한 정보를 결정하는 것일 수 있다. 예를 들어, 시야 영역의 위치/방향을 고려하여 비주얼 오브젝트의 출력 순서에 대한 정보를 결정하는 것은 제1 시야 영역에 대응되는 출력 모듈 상에서의 제1 위치의 출력 순서와 제2 시야 영역에 대응되는 출력 모듈 상에서의 제2 위치의 출력 순서가 상이하도록 결정하는 것일 수 있다.
일 실시예에 따른 비주얼 오브젝트의 속성에 관한 정보를 결정하는 단계(S1440)는 시야 영역의 위치/방향을 고려하여 비주얼 오브젝트의 속성에 관한 정보를 결정하는 것일 수 있다.
일 실시예에 따르면, 하부 시야 영역에 대응되는 출력 위치에 출력 되는 비주얼 오브젝트는 나머지 영역에 대응되는 출력 위치에 출력되는 비주얼 오브젝트보다 사용자에게 더 강한 자극을 제공하는 속성을 갖도록 결정될 수 있다.
다른 실시예에 따르면, 중심 시야 영역에 대응되는 출력 위치에 출력되는 비주얼 오브젝트는 주변 시야 영역에 대응되는 출력 위치에 출력되는 비주얼 오브젝트보다 사용자에게 더 강한 자극을 제공하는 속성을 갖도록 결정될 수 있다.
또 다른 실시예에 따르면, 황반에 대응되는 출력 위치에 출력되는 비주얼 오브젝트는 나머지 영역에 대응되는 출력 위치에 출력되는 비주얼 오브젝트보다 사용자에게 더 강한 자극을 제공하는 속성을 갖도록 결정될 수 있다.
일 실시예에 따르면, 시지각 태스크를 제공하는 단계(S1200)는 시신경 촬영 장비, 시신경 빛간섭 단층 촬영 장비, 시유발 전위 검사 장비 등 일반적인 시야 검사 장비 외의 안구 및 시각 능력 관련 측정 장비(이하 "추가 측정 장비"라함)에 의해 획득한 검사 결과(이하 "추가 검사 결과"라 함)를 고려하여 시지각 태스크를 제공하는 것일 수 있다. 여기서, 추가 검사 결과를 고려하여 시지각 태스크를 제공하는 것은 추가 검사 결과를 고려하여 비주얼 오브젝트를 출력하는 것일 수 있다.
일반적인 시야측정법은 사용자가 깜빡이는 불빛 등의 오브젝트가 보이는지 여부에 따라 버튼을 누르는 등의 입력을 통해 시야를 측정한다. 이에 따라, 사용자의 주관적인 판단이 개입되어, 추가 측정 장비에 의한 측정 결과 정상으로 보이는 부분이 비정상으로 판단되거나 비정상으로 보이는 부분이 정상으로 판단되는 경우가 발생할 수 있다. 따라서, 일반적인 시야측정법과 추가 검사 결과를 함께 고려하여 시지각 태스크를 제공하거나 비주얼 오브젝트를 출력함으로써 사용자의 시각 능력 정보의 정확성을 향상시키고 시야 개선 효과를 증가시킬 수 있다.
도 20은 본 발명에 따른 추가 검사 결과를 고려하여 비주얼 오브젝트의 출력 위치, 출력 빈도, 출력 순서 및 속성 중 적어도 하나에 관한 정보를 결정하는 단계를 설명하기 위한 순서도이다. 도 20을 참고하면, 일 실시예에 따른 시지각 학습을 이용하여 시각 능력을 개선하기 위한 방법은 비전 인덱스가 할당된 복수의 셀을 포함하는 시야 지도를 획득하는 단계(S1103) 및 추가 검사 결과를 고려하여 비주얼 오브젝트의 출력 위치, 출력 빈도, 출력 순서 및 속성 중 적어도 하나에 관한 정보를 결정하는 단계(S1403)를 포함할 수 있다.
비전 인덱스가 할당된 복수의 셀을 포함하는 시야 지도를 획득하는 단계(S1103)는 시각 능력 정보를 획득하는 단계(S1100)의 일 실시예로 이에 대한 설명은 전술한 바 여기에서는 생략하기로 한다.
일 실시예에 따른 비주얼 오브젝트의 출력 위치에 관한 정보를 결정하는 단계(S1410)는 추가 검사 결과를 고려하여 비주얼 오브젝트의 출력 위치에 관한 정보를 결정하는 것일 수 있다.
일 실시예에 따르면, 비주얼 오브젝트의 출력 위치는 비전 인덱스 및 추가 검사 결과 중 적어도 하나를 고려하여 결정될 수 있다. 예를 들어, 비전 인덱스는 정상을 지시하더라도 추가 검사 결과 비정상이나 시야 손상을 지시한다면 이에 대응되는 출력 위치에 비주얼 오브젝트를 출력할 수 있다.
일 실시예에 따른 비주얼 오브젝트의 출력 빈도에 관한 정보를 결정하는 단계(S1420)는 추가 검사 결과를 고려하여 비주얼 오브젝트의 출력 빈도에 관한 정보를 결정하는 것일 수 있다.
일 실시예에 따르면, 비주얼 오브젝트의 출력 빈도는 비전 인덱스 및 추가 검사 결과 중 적어도 하나를 고려하여 결정될 수 있다. 예를 들어, 비전 인덱스 및 추가 검사 결과가 모두 비정상 또는 시야 손상을 지시하는 영역에 대응되는 출력 위치에서의 출력 빈도는 나머지 영역에 대응되는 출력 위치에서의 출력 빈도보다 높을 수 있다. 또는, 비전 인덱스 및 추가 검사 결과 중 적어도 하나가 비정상 또는 시야 손상을 지시하는 영역에 대응되는 출력 위치에서의 출력 빈도는 나머지 영역에 대응되는 출력 위치에서의 출력 빈도보다 높을 수 있다.
일 실시예에 따른 비주얼 오브젝트의 출력 순서에 관한 정보를 결정하는 단계(S1430)는 추가 검사 결과를 고려하여 비주얼 오브젝트의 출력 순서에 관한 정보를 결정하는 것일 수 있다. 예를 들어, 비주얼 오브젝트의 출력 순서는 비전 인덱스 및 추가 검사 결과 중 적어도 하나를 고려하여 결정될 수 있다.
일 실시예에 따른 비주얼 오브젝트의 속성에 관한 정보를 결정하는 단계(S1440)는 추가 검사 결과를 고려하여 비주얼 오브젝트의 속성에 관한 정보를 결정하는 것일 수 있다.
일 실시예에 따르면, 비주얼 오브젝트의 속성은 비전 인덱스 및 추가 검사 결과 중 적어도 하나를 고려하여 결정될 수 있다. 예를 들어, 비전 인덱스 및 추가 검사 결과가 모두 비정상 또는 시야 손상을 지시하는 영역에 대응되는 출력 위치에서의 속성은 나머지 영역에 대응되는 출력 위치에서의 속성보다 사용자에게 더 강한 자극을 제공하도록 설정될 수 있다. 또는, 비전 인덱스 및 추가 검사 결과 중 적어도 하나가 비정상 또는 시야 손상을 지시하는 영역에 대응되는 출력 위치에서의 속성은 나머지 영역에 대응되는 출력 위치에서의 속성보다 사용자에게 더 강한 자극을 제공하도록 설정될 수 있다.
도 21 및 22는 본 발명에 따른 시야 결손의 진행을 예측하는 단계를 설명하기 위한 도면들이다.
먼저, 도 21을 참고하면, 일 실시예에 따른 시지각 학습을 이용하여 시각 능력을 개선하기 위한 방법은 시야 결손의 진행을 예측하는 단계(S1500)를 포함할 수 있다. 여기서, 시야 결손의 진행을 예측하는 단계(S1500)는 시각 능력 정보에 기초하여 시야 결손의 진행을 예측할 수 있다.
일 실시예에 따르면, 시야 결손의 진행을 예측하는 단계(S1500)는 일정 시간 간격 이후의 시각 능력 정보를 예측하는 것일 수 있다. 예를 들어, 제1 시점에서의 시야 지도(비전 인덱스, 시각 능력 정보)에 기초하여 시야 결손의 진행을 예측하여 제1 시점보다 나중 시점인 제2 시점에서의 시야 지도를 예측할 수 있다. 제2 시점에서의 시야 지도는 제1 시점에서의 시야 지도와 비교하여 상이한 비전 인덱스가 할당된 셀을 포함할 수 있다. 또는, 제2 시점에서의 시야 지도는 제1 시점에서의 시야 지도와 비교하여 비전 인덱스의 차이가 미리 정해진 값 이상인 셀을 포함할 수 있다. 본 명세서에서는 구분을 위해 시야측정법이나 기타 측정 장비 등을 통해 측정된 비전 인덱스, 시야 지도 및 시각 능력 정보는 각각 측정 비전 인덱스, 측정 시야 지도 및 측정 시각 능력 정보라 지칭하고 시야 결손의 진행을 예측하여 생성된 비전 인덱스, 시야 지도 및 시각 능력 정보는 각각 예상 비전 인덱스, 예상 시야 지도 및 예상 시각 능력 정보로 지칭하기로 한다.
다른 실시예에 따르면, 시야 결손의 진행을 예측하는 단계(S1500)는 야 결손의 진행이 예상되는 셀, 시야 영역 또는 출력 위치를 예측하는 것일 수 다. 예를 들어, 도 22를 참고하면, 제1 시점에서의 시야 지도(비전 인덱스, 시각 력 정보)에 기초하여 시야 결손의 진행이 예상되는 셀(21)을 예측할 수 있다. 또는, 제1 시점에서의 시야 지도(비전 인덱스, 시각 능력 정보)에 기초하여 시야 결손의 진행이 예상되는 시야 영역이나 출력 위치를 예측할 수도 있을 것이다.
일 실시예에 따른 시지각 태스크를 제공하는 단계(S1200)는 예측된 야 결손의 진행에 기초하여 시지각 태스크를 제공할 수 있다.
일 실시예에 따르면, 시지각 태스크를 제공하는 단계(S1200)는 예상 각 능력 정보에 기초하여 시지각 태스크를 제공할 수 있다. 이 경우는 전술한 시지각 태스크를 제공하는 단계(S1200)와 유사한 바 설명은 생략한다.
다른 실시예에 따르면, 시지각 태스크를 제공하는 단계(S1200)는 측정 시각 능력 정보 및 예상 시각 능력 정보에 기초하여 시지각 태스크를 제공할 수 다. 예를 들어, 측정 시각 능력 정보 및 예상 시각 능력 정보의 차이에 기초하여 지각 태스크가 제공될 수 있다. 일 예로, 측정 비전 인덱스 및 예상 비전 인덱스의 차이가 미리 정해진 등급이거나 미리 정해진 수치 범위에 포함되거나 미리 정해진 수치 이상인 경우 등에서 해당 셀에 대응되는 위치에 비주얼 오브젝트를 출력할 수 있다. 또는, 상기 위치에 출력되는 비주얼 오브젝트의 출력 빈도는 다른 위치에 출력되는 비주얼 오브젝트의 출력 빈도보다 클 수 있다. 또는, 상기 위치에 출력되는 비주얼 오브젝트의 출력 순서는 다른 위치에 출력되는 비주얼 오브젝트의 출력 순서와 상이할 수 있다. 또는, 상기 위치에 출력되는 비주얼 오브젝트는 다른 위치에 출력되는 비주얼 오브젝트에 비해 더 강한 자극을 제공하는 속성을 가질 수 있다.
또 다른 실시예에 따르면, 시지각 태스크를 제공하는 단계(S1200)는 시야 결손의 진행이 예상되는 셀, 시야 영역 또는 출력 위치에 기초하여 시지각 태스크를 제공할 수 있다. 예를 들어, 상기 출력 위치에 비주얼 오브젝트가 출력될 수 있다. 또는, 상기 출력 위치에 출력되는 비주얼 오브젝트의 출력 빈도는 다른 위치에 출력되는 비주얼 오브젝트의 출력 빈도보다 클 수 있다. 또는, 상기 출력 위치에 출력되는 비주얼 오브젝트의 출력 순서는 다른 위치에 출력되는 비주얼 오브젝트의 출력 순서와 상이할 수 있다. 또는, 상기 출력 위치에 출력되는 비주얼 오브젝트는 다른 위치에 출력되는 비주얼 오브젝트에 비해 더 강한 자극을 제공하는 속성을 가질 수 있다.
시야 결손의 진행을 예측하는 것은 인공 신경망(artificial neural network)을 이용하여 수행될 수 있다.
인공 신경망이란 인간의 신경망 구조를 본떠 만든 알고리즘의 일종으로, 하나 이상의 노드 또는 뉴런(neuron)을 포함하는 하나 이상의 레이어를 포함 할 수 있고 각각의 노드는 시냅스(synapse)를 통해 연결될 수 있다. 인공 신경망에 입력된 데이터(입력 데이터)는 시냅스를 통해 노드를 거쳐 출력(출력 데이터)될 수 있고, 이를 통해 정보를 획득할 수 있다. 예를 들어, 인공 신경망은 시각 능력 정보(비전 인덱스, 시야 지도)를 획득하는 입력 레이어, 히든 레이어 및 예상 시각 능력 정보(예상 비전 인덱스, 예상 시야 지도) 또는 예측된 시야 결손 영역을 출력하는 출력 레이어를 포함할 수 있다.
인공 신경망의 종류로는 필터를 이용해 특징을 추출하는 합성곱신경망(convolution neural network, CNN) 및 노드의 출력이 다시 입력으로 피드백 되는 구조를 갖는 순환인공신경망(recurrent neural network, RNN)이 있고, 제한된 볼츠만 머신(restricted Boltzmann machine, RBM), 심층신뢰신경망(deep belief network, DBN), 생성대립신경망(generative adversarial network, GAN), 관계형 네트워크(relation networks, RN) 등 다양한 구조가 적용될 수 있고 제한이 있는 것은 아니다.
인공 신경망을 이용하기 전에 학습시키는 단계가 필요하다. 또는, 인공 신경망을 이용하며 학습시킬 수 있다. 이하에서는 인공 신경망을 학습시키는 단계를 학습 단계, 이용하는 단계를 추론 단계로 표현하기로 한다.
인공 신경망은 지도 학습(supervised learning), 비지도 학습(unsupervised learning), 강화 학습(reinforcement learning), 모방 학습(imitation learning) 등 다양한 방법을 통해 학습될 수 있다.
도 23은 본 발명에 따른 인공 신경망의 학습 단계를 설명하기 위한 도면이다. 도 23은 인공 신경망의 학습 단계의 일 실시예로, 학습되지 않은 인공 신경망이 학습 데이터 또는 훈련 데이터(training data)를 입력 받아 출력 데이터를 출력하고, 출력 데이터와 라벨링 데이터(labelling data)를 비교하여 그 오차의 역전파를 통해 인공 신경망을 학습시킬 수 있다. 학습 데이터, 출력 데이터, 라벨링 데이터는 시각 능력 정보(비전 인덱스, 시야 지도)일 수 있다. 예를 들어, 학습 데이터는 제1 시점에서 측정된 시각 능력 정보이고, 라벨링 데이터는 제1 시점보다 나중인 제2 시점에서 측정된 시각 능력 정보이고, 출력 데이터는 인공 신경망이 예측한 제2 시점에서의 시각 능력 정보일 수 있다. 또는, 학습 데이터는 제1 시점에서 측정된 시각 능력 정보이고, 라벨링 데이터는 제2 시점에서 시야 결손이 진행된 것으로 판단된 시각 능력 정보이고, 출력 데이터는 인공 신경망이 시야 결손이 진행된 것으로 예측한 시각 능력 정보일 수 있다. 또는, 학습 데이터는 제1 시점에서 측정된 시각 능력 정보이고, 라벨링 데이터는 제2 시점에서 시야 결손이 진행된 것으로 판단된 영역(또는 이에 대응되는 셀이나 출력 위치)이고, 출력 데이터는 인공 신경망이 시야 결손이 진행된 것으로 예측한 영역(또는 이에 대응되는 셀이나 출력 위치)일 수 있다.
도 24는 본 발명에 따른 인공 신경망의 추론 단계를 설명하기 위한 도면이다. 도 24는 인공 신경망의 추론 단계의 일 실시예로, 학습된 인공 신경망이 입력 데이터를 입력 받아 출력 데이터를 출력할 수 있다. 학습 단계에서의 학습 데이터의 정보에 따라 추론 단계에서 추론 가능한 정보가 달라질 수 있다. 또한, 인공 신경망의 학습 정도에 따라 출력 데이터의 정확성이 달라질 수 있다. 예를 들어, 인공 신경망의 학습 정도가 증가함에 따라 인공 신경망이 예측하는 시야 결손 진행의 정확성이 증가할 수 있다.
이상에서는 주로 하나의 시각 능력 정보에 기초하여 시각 능력을 개선하기 위한 방법에 대해 설명하였다. 다만, 사람은 좌안 및 우안의 양안을 갖고, 일반적으로 좌안 및 우안의 시각 능력 차이가 존재하며, 녹내장 등과 같은 질환에서는 좌안과 우안의 시야 결손 진행 또한 상이한 바, 좌안 및 우안을 함께 또는 별도로 고려하여 시야 개선 방법을 수행해야 할 필요성이 있다.
도 25는 본 발명에 따른 양안을 고려하여 시각 능력을 개선하기 위한 방법을 설명하기 위한 순서도이다. 도 25를 참고하면, 방법은 좌안 시각 능력 정보 및 우안 시각 능력 정보를 획득하는 단계(S2100), 좌안 시각 능력 정보 및 우안 시각 능력 정보에 기초하여 시지각 태스크를 제공하는 단계(S2200) 및 사용자 리액션을 획득 및 평가하는 단계(S2300)를 포함할 수 있다. 이하에서는 전술한 시각 능력을 개선하기 위한 방법과 차이가 존재하는 점을 위주로 설명하고, 모순되지 않는 한 전술한 시각 능력을 개선하기 위한 방법에 관한 내용이 이하에도 마찬가지로 적용될 수 있을 것이다.
좌안 시각 능력 정보 및 우안 시각 능력 정보를 획득하는 단계(S2100)는 시각 능력 정보를 획득하는 단계(S1100)의 일 실시예일 수 있다. 시각 능력 정보는 사용자/환자의 좌안의 시각 능력과 관련된 정보인 좌안 시각 능력 정보 및 우안의 시각 능력과 관련된 정보인 우안 시각 능력 정보를 포함할 수 있다. 좌안 시각 능력 정보 및 우안 시각 능력 정보는 일반적으로 상이할 것이나, 경우에 따라서는 동일할 수도 있을 것이다. 좌안 시각 능력 정보 및 우안 시각 능력 정보에 기초하여 시지각 태스크를 제공하는 단계(S2200)는 시지각 태스크를 제공하는 단계(S1200)의 일 실시예일 수 있다.
좌측 출력부 및 우측 출력부에는 동일한 시점에 시지각 태스크가 제공될 수 있다. 예를 들어, 좌측 출력부 및 우측 출력부에는 동일한 시점에 비주얼 오브젝트가 출력될 수 있다. 이 경우 좌측 출력부 및 우측 출력부에 출력되는 비주얼 오브젝트는 서로 동일할 수도 있고 상이할 수도 있다.
좌측 출력부 및 우측 출력부는 서로 다른 시점에 시지각 태스크가 제공될 수 있다. 예를 들어, 좌측 출력부 및 우측 출력부 중 어느 하나에 먼저 시지각 태스크가 제공되고, 이후 나머지 하나에 시지각 태스크가 제공될 수 있다.
일 실시예에 따른 좌안 시각 능력 정보 및 우안 시각 능력 정보에 기초하여 시지각 태스크를 제공하는 단계(S2200)는 좌안 시각 능력 정보 및 우안 시각 능력 정보를 별도로 고려하여 시지각 태스크를 제공할 수 있다. 예를 들어, 좌안 시각 능력 정보에 기초하여 좌안에 시지각 태스크를 제공하고, 우안 시각 능력 정보에 기초하여 우안에 시지각 태스크를 제공할 수 있다. 또는, 좌안 시각 능력 정보에 기초하여 좌측 출력부에 비주얼 오브젝트를 출력하고, 우안 시각 능력 정보에 기초하여 우측 출력부에 비주얼 오브젝트를 출력할 수 있다. 이 경우 좌측 출력부 및 우측 출력부에 제공되는 시지각 태스크는 상이할 수 있다.
일 실시예에 따르면, 좌안 시각 능력 정보에 기초하여 좌측 출력부에 출력되는 비주얼 오브젝트의 출력 위치, 출력 빈도, 출력 순서 및 속성 중 적어도 하나에 관한 정보를 결정하고, 우안 시각 능력 정보에 기초하여 우측 출력부에 출력되는 비주얼 오브젝트의 출력 위치, 출력 빈도, 출력 순서 및 속성 중 적어도 하나에 관한 정보를 결정할 수 있다.
도 26 내지 도 28은 본 발명에 따른 좌안 시각 능력 정보 및 우안 시각 능력 정보에 기초하여 시지각 태스크를 제공하는 단계를 설명하기 위한 도면들이다.
먼저, 도 26을 참고하면, 좌측 출력부(1108a)에는 좌안 시각 능력 정보의 제1 타겟 셀(22)에 대응되는 위치에 비주얼 오브젝트(24)가 출력되는 등 상기 제1 타겟 셀(22)에 대응되는 타겟 위치가 결정될 수 있고, 우측 출력부(1108b)에는 우안 시각 능력 정보의
제2 타겟 셀(23)에 대응되는 위치에 비주얼 오브젝트(25)가 출력되는 등 상기 제2 타겟 셀(23)에 대응되는 타겟 위치가 결정될 수 있다. 여기서, 상기 비주얼 오브젝트(24, 25)는 자극 오브젝트일 수 있다. 좌측 출력부(1108a) 및 우측 출력부(1108b)에는 시각 능력 정보와 무관한 위치에 비주얼 오브젝트(26a, 26b)가 출력될 수 있다. 여기서, 상기 비주얼 오브젝트(26a, 26b)는 중심 시선 고정 오브젝트일 수 있다. 또는, 상기 비주얼 오브젝트(26a, 26b)는 태스크 오브젝트일 수 있다.
일 실시예에 따른 좌안 시각 능력 정보 및 우안 시각 능력 정보에 기초하여 시지각 태스크를 제공하는 단계(S2200)는 좌안 시각 능력 정보 및 우안 시각 능력 정보를 함께 고려하여 시지각 태스크를 제공할 수 있다. 예를 들어, 좌안 시각 능력 정보 및 우안 시각 능력 정보를 함께 고려하여 비주얼 오브젝트를 출력할 수 있다. 이 경우 좌측 출력부 및 우측 출력부에 제공되는 시지각 태스크는 동일할 수도 있고 상이할 수 있다.
다음으로, 도 27을 참고하면, 좌안 시야 지도의 제1 타겟 셀(27)과 우안 시야 지도의 제2 타겟 셀(28) 각각에 대응되는 시야 영역은 상이할 수 있다. 다만, 이 경우에도 상기 제2 타겟 셀(28)을 고려하여 좌측 출력부(1109a)에서의 비주얼 오브젝트의 출력 위치 등 타겟 위치가 결정되고, 상기 제1 타겟 셀(27)을 고려하여 우측 출력부(1109b)에서의 비주얼 오브젝트의 출력 위치 등 타겟 위치가 결정될 수 있다. 예를 들어, 좌측 출력부(1109a)의 타겟 위치는 상기 제1 타겟 셀(27)에 대응되는 제1 위치(29a) 및 상기 제2 타겟 셀(28)에 대응되는 제2 위치(30a)를 포함할 수 있다. 또한, 우측 출력부(1109b)의 타겟 위치는 상기 제1 타겟 셀(27)에 대응되는 제3 위치(29b) 및 상기 제2 타겟 셀(28)에 대응되는 제4 위치(30b)를 포함할 수 있다. 이 경우 좌측 출력부(1109a) 및 우측 출력부(1109b)에 제공되는 시지각 태스크는 동일할 수 있다. 또한, 좌측 출력부(1109a) 및 우측 출력부(1109b)의 타겟 위치에 출력되는 비주얼 오브젝트(29a, 29b, 30a, 30b)는 자극 오브젝트일 수 있다. 또한, 좌측 출력부(1109a) 및 우측 출력부(1109b)에는 시각 능력 정보와 무관한 위치에 비주얼오브젝트(31a, 31b)가 출력될 수 있다. 여기서, 상기 비주얼 오브젝트(31a, 31b)는 중심 시선 고정 오브젝트일 수 있다.
사용자는 좌안의 시야 손상 영역과 우안의 시야 손상 영역이 상이한 경우 양안 중 하나를 이용하여 해당 영역을 볼 수 있다. 예를 들어, 좌안의 시야 손상 영역에 대응되는 영역은 우안으로 보고 우안의 시야 손상 영역에 대응되는 영역은 좌안으로 볼 수 있을 것이다. 그러나, 좌안의 시야 손상 영역과 우안의 시야 손상 영역이 동일한 영역을 지시하거나 겹치는 경우 해당 영역은 볼 수 없어 불편함이 가중될 수 있다. 따라서, 좌안의 시야 손상 영역과 우안의 시야 손상 영역이 동일한 영역을 지시하는 경우 해당 영역을 우선적으로 훈련할 수 있다. 이에 따라 시야 개선 효과 또한 증가할 수 있다.
일 실시예에 따르면, 좌안의 시야 손상 영역 및 우안의 시야 손상 영역이 서로 겹치는 영역을 타겟 영역으로 결정할 수 있다. 예를 들어, 서로 대응되는 좌안 시야 지도의 제1 셀 및 우안 시야 지도의 제2 셀의 비전 인덱스가 모두 시야 결손/시야 손상을 지시하는 경우 상기 제1 셀에 대응되는 좌측 출력부 상에서의 제1 위치 및 상기 제2 셀에 대응되는 우측 출력부 상에서의 제2 위치는 타겟 위치로 결정될 수 있다. 또는, 서로 대응되는 좌안 시야 지도의 제1 셀 및 우안 시야 지도의 제2 셀의 비전 스코어가 모두 미리 정해진 값 이하이거나 특정 범위에 포함되는 경우 상기 제1 셀에 대응되는 좌측 출력부 상에서의 제1 위치 및 상기 제2 셀에 대응되는 우측 출력부 상에서의 제2 위치는 타겟 위치로 결정될 수 있다. 또는, 서로 대응되는 좌안 시야 지도의 제1 셀 및 우안 시야 지도의 제2 셀의 비전 스테이터스가 모두 기능 장애 상태를 지시하거나, 하나는 기능 장애 상태 나머지는 죽은 상태를 지시하는 경우 상기 제1 셀에 대응되는 좌측 출력부 상에서의 제1 위치 및 상기 제2 셀에 대응되는 우측 출력부 상에서의 제2 위치는 타겟 위치로 결정될 수 있다.
다음으로, 도 28을 참고하면, 좌안 시야 지도 및 우안 시야 지도는 서로 동일한 시야 영역에 대응되고 시야 손상을 지시하는 제1 셀(32a, 32b)을 포함할 수 있다. 상기 제1 셀(32a, 32b)는 타겟 셀로 결정될 수 있다. 상기 제1 셀(32a, 32b)에 대응되는 출력 모듈(1110a, 1110b) 상에서의 위치(34a, 34b)는 타겟 위치로 결정될 수 있다. 상기 제1 셀(32a, 32b)에 대응되는 시야 영역은 타겟 영역으로 결정될 수 있다. 또한, 좌안 시야 지도는 이에 대응되는 우안 시야 지도의 셀은 정상을 지시하나 본인은 시야 손상을 지시하는 제2 셀(33)을 포함할 수 있다. 상기 제2 셀(33) 또한 타겟 셀로 결정될 수 있다. 다만, 상기 제1 셀(32a, 32b)의 훈련 우선 순위가 높을 수 있고, 이 경우 상기 제1 셀(32a, 32b)에 대응되는 시야 영역은 주 타겟 영역으로 지칭될 수 있을 것이다. 주 타겟 영역에 대응되는 출력 위치에서의 비주얼 오브젝트의 출력 빈도는 나머지 타겟 영역에 대응되는 위치에서의 출력 빈도보다 높을 수 있다. 주 타겟 영역에 대응되는 출력 위치에 출력되는 비주얼 오브젝트(34a)는 다른 타겟 영역에 대응되는 위치에 출력되는 비주얼 오브젝트(34b)보다 더 강한 자극을 제공할 수 있다. 비한정적인 예로, 도 28을 참고하면, 주 타겟 위치에는 다른 타겟 위치보다 많은 수의 비주얼 오브젝트가 출력될 수 있다. 또한, 좌측 출력부(1110a) 및 우측 출력부(1110b)에는 시각 능력 정보와 무관한 위치에 비주얼 오브젝트(36a, 36b)가 출력될 수 있다. 또한, 상기 비주얼 오브젝트(36a, 36b)는 중심 시선 고정 오브젝트일 수 있다.
일 실시예에 따른 사용자 리액션을 획득 및 평가하는 단계(S2300)는 전술한 사용자 리액션을 획득 및 평가하는 단계(S1300)의 일 실시예일 수 있다.
사용자 리액션은 좌안에 대응되는 리액션(좌안 대응 리액션) 및 우안에 대응되는 리액션(우안 대응 리액션)을 포함할 수 있다. 예를 들어, 좌안 대응 리액션은 좌측 출력부에 제공되는 시지각 태스크에 관련된 리액션일 수 있고, 우안 대응 리액션은 우측 출력부에 제공되는 시지각 태스크에 관련된 리액션일 수 있다. 또는, 좌안 대응 리액션은 좌측 출력부에만 디스플레이되는 비주얼 오브젝트 및 좌측 출력부와 우측 출력부 모두에 디스플레이되는 비주얼 오브젝트에 관련된 리액션이고, 우안 대응 리액션은 우측 출력부에만 디스플레이되는 비주얼 오브젝트 및 우측 출력부와 좌측 출력부 모두에 디스플레이되는 비주얼 오브젝트에 관련된 리액션 일 수 있다.
좌안의 시각 능력은 좌안 대응 리액션에 기초하여 평가될 수 있고, 우안의 시각 능력은 우안 대응 리액션에 기초하여 평가될 수 있다. 좌안의 시각 능력은 좌측 출력부에만 디스플레이되는 비주얼 오브젝트 및 좌측 출력부와 우측 출력부 모두에 디스플레이되는 비주얼 오브젝트에 관련된 리액션에 기초하여 평가될 수 있고, 우안의 시각 능력은 우측 출력부에만 디스플레이되는 비주얼 오브젝트 및 우측 출력부와 좌측 출력부 모두에 디스플레이되는 비주얼 오브젝트에 관련된 리액션에 기초하여 평가될 수 있다. 여기서, 단일한 출력부에 디스플레이되는 비주얼 오브젝트와 관련된 리액션과 양 출력부 모두에 디스플레이되는 비주얼 오브젝트와 관련된 리액션을 서로 다른 비율/가중치로 고려하여 시각 능력을 평가할 수 있다. 예를 들어, 단일한 출력부에 디스플레이되는 비주얼 오브젝트와 관련된 리액션을 양 출력부 모두에 디스플레이되는 비주얼 오브젝트와 관련된 리액션보다 높은 비율/가중치로 고려하여 시각 능력을 평가할 수 있다.
실시예에 따른 방법은 다양한 컴퓨팅 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
또한, 본 발명의 다양한 실시예들은 기기(machine)에 의해 읽을 수 있는 저장 매체(storage medium)(예를 들어, 메모리)에 저장된 하나 이상의 인스트럭션들을 포함하는 소프트웨어로서 구현될 수 있다. 예를 들면, 기기의 프로세서는, 저장 매체로부터 저장된 하나 이상의 인스트럭션들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 인스트럭션에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 인스트럭션들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예를 들어, 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예를 들어, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.
일 실시예에 따르면, 본 명세서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예를 들어, compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다. 이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.

Claims (15)

  1. 디스플레이 모듈; 및
    좌안 시야 지도의 제1 셀 및 우안 시야 지도의 제2 셀 중 적어도 하나에 대응되는 적어도 하나의 타겟 영역을 획득하고, 상기 적어도 하나의 타겟 영역에 시지각 태스크를 제공하는 컨트롤러;를 포함하며,
    상기 컨트롤러는 상기 시지각 태스크를 제공함에 있어,
    상기 디스플레이 모듈을 통해, 환자의 응답의 수신 및 상기 환자의 중심 시야를 고정하기 위한 태스크 오브젝트를 디스플레이하고,
    상기 디스플레이 모듈을 통해, 상기 적어도 하나의 타겟 영역에 대응되는 적어도 하나의 자극 위치에 적어도 하나의 자극 오브젝트를 디스플레이하고,
    상기 태스크 오브젝트와 관련된 상기 환자의 응답을 획득하며,
    상기 적어도 하나의 자극 위치는 상기 태스크 오브젝트의 주변에 위치하고,
    상기 시야 지도는 상기 환자의 상기 시야 장애를 반영하는 비전 인덱스를 포함하는, 시지각 훈련 제공 장치.
  2. 제1 항에 있어서,
    상기 디스플레이 모듈은 좌측 디스플레이부 및 우측 디스플레이부를 포함하고,
    상기 컨트롤러는,
    상기 좌측 디스플레이부를 통해 상기 제1 셀에 대응되는 상기 적어도 하나의 자극 위치에 상기 적어도 하나의 자극 오브젝트를 디스플레이하고,
    상기 우측 디스플레이부를 통해 상기 제2 셀에 대응되는 상기 적어도 하나의 자극 위치에 상기 적어도 하나의 자극 오브젝트를 디스플레이하는, 시지각 훈련 제공 장치.
  3. 제1 항에 있어서,
    상기 컨트롤러는,
    상기 디스플레이 모듈을 통해, 일정 시간 동안 상기 태스크 오브젝트를 디스플레이하여 상기 환자에게 시지각 태스크를 제공하되,
    상기 일정 시간 중 일부 시간 동안에만 자극 오브젝트를 디스플레이하는, 시지각 훈련 제공 장치.
  4. 제1 항에 있어서,
    상기 적어도 하나의 자극 오브젝트는, 제1 시점에 출력되는 제1 자극 오브젝트 및 상기 제1 시점과 상이한 제2 시점에 출력되는 제2 자극 오브젝트를 포함하는, 시지각 훈련 제공 장치.
  5. 제1 항에 있어서,
    상기 태스크 오브젝트 및 상기 적어도 하나의 자극 오브젝트 중 적어도 하나는 가버(gabor)인, 시지각 훈련 제공 장치.
  6. 제5 항에 있어서,
    상기 적어도 하나의 자극 오브젝트는 공간 주파수가 0.1 내지 1 cycle/degree인 가버인, 시지각 훈련 제공 장치.
  7. 제1 항에 있어서,
    상기 적어도 하나의 자극 오브젝트는 미리 정해진 시간 빈도로 깜빡이며 출력되며,
    상기 시간 빈도는 10 내지 50 Hz인, 시지각 훈련 제공 장치.
  8. 제1 항에 있어서,
    상기 환자의 응답은 상기 태스크 오브젝트의 속성과 관련되는, 시지각 훈련 제공 장치.
  9. 제8 항에 있어서,
    상기 속성은 상기 태스크 오브젝트의 화전 방향 및 패턴 방향 중 적어도 하나를 포함하는, 시지각 훈련 제공 장치.
  10. 시지각 학습을 이용하여 시각 능력을 개선하기 위한 방법에 있어서,
    좌안 시야 지도의 제1 셀 및 우안 시야 지도의 제2 셀 중 적어도 하나에 대응되는 적어도 하나의 타겟 영역을 획득하는 단계; 및
    상기 적어도 하나의 타겟 영역에 기초하여 시지각 태스크를 제공하는 단계;를 포함하되,
    상기 시지각 태스크를 제공하는 단계는,
    환자의 응답의 수신 및 상기 환자의 중심 시야를 고정하기 위한 태스크 오브젝트를 디스플레이하는 단계;
    상기 적어도 하나의 타겟 영역에 대응되는 적어도 하나의 자극 위치에 적어도 하나의 자극 오브젝트를 디스플레이하는 단계; 및
    상기 태스크 오브젝트와 관련된 상기 환자의 응답을 획득하는 단계;를 포함하고,
    상기 적어도 하나의 자극 위치는 상기 태스크 오브젝트의 주변에 위치하고,
    상기 시야 지도는 상기 환자의 상기 시야 장애를 반영하는 비전 인덱스를 포함하는, 시지각 훈련 제공 방법.
  11. 제10 항에 있어서,
    상기 적어도 하나의 자극 오브젝트의 속성은, 상기 비전 인덱스에 기초하여 결정되는, 시지각 훈련 제공 방법.
  12. 제10 항에 있어서,
    상기 적어도 하나의 자극 오브젝트는, 제1 시점에 출력되는 제1 자극 오브젝트 및 상기 제1 시점과 상이한 제2 시점에 출력되는 제2 자극 오브젝트를 포함하는, 시지각 훈련 제공 방법.
  13. 제10 항에 있어서,
    상기 태스크 오브젝트 및 상기 적어도 하나의 자극 오브젝트 중 적어도 하나는 가버(gabor)인, 시지각 훈련 제공 방법.
  14. 제13 항에 있어서,
    상기 적어도 하나의 자극 오브젝트는 공간 주파수가 0.1 내지 1 cycle/degree인 가버인, 시지각 훈련 제공 방법.
  15. 제10 항에 따른 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
PCT/KR2021/003254 2020-07-16 2021-03-16 시지각 학습을 이용하는 시지각 훈련 제공 장치 및 시지각 훈련 제공 방법 WO2022014818A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP21842375.4A EP4183379A1 (en) 2020-07-16 2021-03-16 Device and method for providing visual perception training using visual perception learning
US18/153,121 US20230165461A1 (en) 2020-07-16 2023-01-11 Device and method for providing visual perception training using visual perception learning

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR1020200088442A KR20220009799A (ko) 2020-07-16 2020-07-16 시지각 학습을 이용하는 시각 능력 개선 장치 및 이를 이용하는 시각 능력 개선 방법
KR1020200088439A KR20220009796A (ko) 2020-07-16 2020-07-16 시지각 학습을 이용하는 시각 능력 개선 장치 및 이를 이용하는 시각 능력 개선 방법
KR10-2020-0088441 2020-07-16
KR10-2020-0088439 2020-07-16
KR10-2020-0088442 2020-07-16
KR1020200088441A KR102604303B1 (ko) 2020-07-16 2020-07-16 시지각 학습을 이용하는 시각 능력 개선 장치 및 이를 이용하는 시각 능력 개선 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/153,121 Continuation US20230165461A1 (en) 2020-07-16 2023-01-11 Device and method for providing visual perception training using visual perception learning

Publications (1)

Publication Number Publication Date
WO2022014818A1 true WO2022014818A1 (ko) 2022-01-20

Family

ID=79554766

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/003254 WO2022014818A1 (ko) 2020-07-16 2021-03-16 시지각 학습을 이용하는 시지각 훈련 제공 장치 및 시지각 훈련 제공 방법

Country Status (3)

Country Link
US (1) US20230165461A1 (ko)
EP (1) EP4183379A1 (ko)
WO (1) WO2022014818A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101242162B1 (ko) * 2011-03-22 2013-03-11 성균관대학교산학협력단 주변시 훈련 장치 및 방법
JP5466188B2 (ja) * 2011-02-16 2014-04-09 トヨタ自動車株式会社 視覚訓練装置
KR20150118242A (ko) * 2014-04-11 2015-10-22 울산대학교 산학협력단 뇌 손상에 따른 시지각 및 인지기능 훈련장치
KR101965393B1 (ko) * 2016-09-26 2019-08-07 재단법인 아산사회복지재단 시지각 트레이닝을 제공하는 컴퓨팅 장치, 헤드마운트 디스플레이 장치 기반의 시지각 트레이닝 제공방법 및 프로그램
JP6666938B2 (ja) * 2010-11-11 2020-03-18 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア 注意転導および/または妨害の存在下での認知の増強

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6666938B2 (ja) * 2010-11-11 2020-03-18 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア 注意転導および/または妨害の存在下での認知の増強
JP5466188B2 (ja) * 2011-02-16 2014-04-09 トヨタ自動車株式会社 視覚訓練装置
KR101242162B1 (ko) * 2011-03-22 2013-03-11 성균관대학교산학협력단 주변시 훈련 장치 및 방법
KR20150118242A (ko) * 2014-04-11 2015-10-22 울산대학교 산학협력단 뇌 손상에 따른 시지각 및 인지기능 훈련장치
KR101965393B1 (ko) * 2016-09-26 2019-08-07 재단법인 아산사회복지재단 시지각 트레이닝을 제공하는 컴퓨팅 장치, 헤드마운트 디스플레이 장치 기반의 시지각 트레이닝 제공방법 및 프로그램

Also Published As

Publication number Publication date
US20230165461A1 (en) 2023-06-01
EP4183379A1 (en) 2023-05-24

Similar Documents

Publication Publication Date Title
WO2018080149A2 (ko) 생체신호연동 가상현실 인지재활 시스템
WO2018143630A1 (ko) 상품을 추천하는 디바이스 및 방법
WO2018117428A1 (en) Method and apparatus for filtering video
WO2015147383A1 (en) Mobile terminal and method of controlling the same
WO2015047032A1 (ko) 생체 신호에 기초하여 컨텐츠를 처리하는 방법, 및 그에 따른 디바이스
WO2015142071A1 (en) Wearable device and method of operating the same
JP2021502130A (ja) デジタル治療用矯正眼鏡
WO2018174507A1 (ko) 가상현실을 이용한 신경질환 진단 장치 및 방법
WO2021162207A1 (ko) 인공지능에 기반한 외사시환자 재활훈련 가상현실 시스템, 방법 및 컴퓨터-판독가능매체
WO2016105166A1 (en) Device and method of controlling wearable device
CN105676455B (zh) 头戴式显示设备
CN112601509A (zh) 用于低视力用户的混合式透视增强现实系统和方法
WO2016089079A1 (en) Device and method for outputting response
WO2016006920A1 (ko) 웨어러블 디바이스를 이용한 정보처리 시스템 및 방법
WO2019200687A1 (zh) 运动方法、装置及计算机可读存储介质
WO2019245331A1 (ko) 텍스트 입력 디바이스 및 그 방법
WO2019031869A1 (en) METHOD OF DETERMINING LEARNING SITUATION, AND APPARATUS IMPLEMENTING THE METHOD
WO2022014818A1 (ko) 시지각 학습을 이용하는 시지각 훈련 제공 장치 및 시지각 훈련 제공 방법
WO2018093181A1 (ko) 전자 장치 및 그 제어 방법
WO2020050496A1 (ko) 검안용 헤드 마운티드 디스플레이 장치 및 이를 이용한 안과검사방법
WO2021182867A1 (ko) 학습을 이용한 시지각 훈련 제공 장치 및 시지각 훈련 제공 방법
EP3545685A1 (en) Method and apparatus for filtering video
WO2020050497A1 (ko) 가상현실 기반의 시야검사 방법 및 시스템
WO2020159077A1 (ko) 동공 중심간 거리를 측정하는 장치 및 방법
WO2021182869A1 (ko) 시지각 훈련 제공 장치 및 시지각 훈련 제공 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21842375

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021842375

Country of ref document: EP

Effective date: 20230216