WO2017164383A1 - 視覚フィルタ同定方法及び装置 - Google Patents

視覚フィルタ同定方法及び装置 Download PDF

Info

Publication number
WO2017164383A1
WO2017164383A1 PCT/JP2017/012067 JP2017012067W WO2017164383A1 WO 2017164383 A1 WO2017164383 A1 WO 2017164383A1 JP 2017012067 W JP2017012067 W JP 2017012067W WO 2017164383 A1 WO2017164383 A1 WO 2017164383A1
Authority
WO
WIPO (PCT)
Prior art keywords
pattern image
stimulus pattern
presentation
stimulus
image
Prior art date
Application number
PCT/JP2017/012067
Other languages
English (en)
French (fr)
Inventor
健一郎 三浦
裕介 大西
Original Assignee
国立大学法人京都大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人京都大学 filed Critical 国立大学法人京都大学
Priority to JP2018507448A priority Critical patent/JP6765131B2/ja
Priority to EP17770423.6A priority patent/EP3434194A4/en
Priority to US16/087,807 priority patent/US20210177257A1/en
Publication of WO2017164383A1 publication Critical patent/WO2017164383A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0008Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0091Fixation targets for viewing direction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/024Subjective types, i.e. testing apparatus requiring the active assistance of the patient for determining the visual field, e.g. perimeter types
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Definitions

  • the present invention relates to a method and apparatus for non-invasively, objectively and quantitatively identifying a visual filter representing the basic performance of a visual function.
  • the techniques for evaluating visual function include, for example, “visual acuity inspection method” and “visual field measurement inspection method”. These techniques are used to evaluate visual “spatial resolution” and “viewable area”. As a technique for measuring the visual acuity when viewing a moving object, for example, there is a “moving visual acuity inspection method”. This technique is used to evaluate visual "spatial resolution" for moving objects.
  • the subject's allegiance is included in the report contents and measurement results.
  • the subject can also lie. If the subject can report an answer that is different from the actual result, either intentionally or by assumption, data with sufficient objectivity cannot be acquired.
  • Non-Patent Document 1 described above does not describe a technique for identifying a visual filter representing the basic properties of visual functions non-invasively, objectively and quantitatively using eye movement reflexes. .
  • the present invention proposes the following method as an example.
  • A On a monitor arranged in front of the inspection object, an initial image having a uniform brightness, a first stimulus pattern image having the same average brightness as the initial image, and an apparent motion together with the first stimulus pattern image Sequentially presenting second stimulating pattern images to be evoked,
  • B measuring eye movements within a predetermined period during presentation of the second stimulus pattern image, and storing the eye movement in association with the presentation time length of the first stimulus pattern image used at the time of measurement;
  • C The execution of each step shown in (a) and (b) is set as one trial, and the setting of the presentation time length of the first stimulus pattern image used in each trial is changed a plurality of times.
  • a step of repeating the trial (D) calculating a change in gaze direction based on the measured measurement data of the eye movement for each trial in the step shown in (c); (E) calculating the simulation result by inputting the first stimulus pattern image and the second stimulus pattern image to the kinetic energy model of the eye movement response; (F) A measurement waveform specified by the change in the line-of-sight direction obtained in the step shown in (d) and the presentation time length associated with the change, and obtained in the step shown in (e).
  • a parameter value of the kinetic energy model is optimized so as to minimize a difference from a simulation result obtained, and a time filter specific to the inspection target is calculated;
  • a visual filter identification method characterized by comprising:
  • a visual filter representing a basic property of visual function non-invasively, objectively and quantitatively using eye movement reflex.
  • the figure explaining the measurement area used for the identification of the time filter in an ISI inspection method The figure which shows the change data of the eyeball position measured by the multiple trials of an ISI inspection method. The figure which arranged the change data shown in FIG. 12 in order of the length of presentation time length. The figure which shows the response characteristic measured combining the MOD inspection method and the ISI inspection method.
  • FIG. 1 shows a schematic configuration of a visual filter identification device 1 used by the inventors for experiments.
  • the visual filter identification device 1 includes a stimulus presentation monitor 2, a visual stimulus presentation device 3, an experiment control / data recording device 4, an eye movement measurement device 5, and a data analysis device 6.
  • the visual stimulus presentation device 3, the experiment control / data recording device 4, and the data analysis device 6 are all configured by a computer, and functions corresponding to each device are realized through execution of a program.
  • the computer is composed of an input / output device that exchanges data with the outside, a storage device that records data, a control device that controls the execution status of the program and the state of each device, an arithmetic device that performs data calculation and processing, etc. .
  • the visual stimulus presentation device 3, the experiment control / data recording device 4, and the data analysis device 6 are all realized by independent computers. However, all or some of the functions corresponding to these devices may be realized on one computer.
  • the stimulus presentation monitor 2 is a device that presents various images used for time filter identification, and is arranged in front of the examination target (for example, human or animal).
  • the stimulus presentation monitor 2 for example, a CRT (CathodeathLay Tube), a flat panel display such as a liquid crystal display or an organic EL display, or a projector is used.
  • a 19-inch CRT monitor (size: 360 ⁇ 270 mm, resolution: 1280 ⁇ 1024 mm pixels, refresh rate: 100 Hz) was used.
  • the head to be examined was fixed during measurement.
  • a method of pressing the jaw against a pedestal (chin base) a method of biting a tooth profile called a bite block, or the like is used.
  • the distance between the inspection object and the monitor screen was 63.4 cm.
  • this figure is an example.
  • the visual stimulus presentation device 3 is a device that generates a predetermined image (including a first stimulus pattern image and a second stimulus pattern image described later) to be presented on the stimulus presentation monitor 2.
  • MATLAB registered trademark
  • free software Psychtoolbox developed in the field of psychology were used for image generation.
  • the experiment control / data recording device 4 is a device that controls the output of various images in conjunction with the visual stimulus presentation device 3.
  • software REX: Real-time EXPerimental system developed by NIH (National Institutes of Health) was used. REX can be replaced with commercially available software such as LabView (trademark).
  • the experiment control / data recording device 4 includes at least an A / D converter and a UDP communication function as hardware.
  • ⁇ REX also records the eye position of the test subject.
  • the voltage value representing the eyeball position to be examined is converted into a 12-bit data value through the A / D converter.
  • the converted data values are collected every 1 millisecond and recorded on a hard disk.
  • the experiment control / data recording device 4 instructs the visual stimulus presentation device 3 to present a circular gaze target having a diameter of 0.5 ° at 5 ° up, down, left, and right, and presents the gaze target.
  • the voltage output measured by the eye movement measuring device 5 is recorded on a hard disk or the like.
  • the eye movement measuring device 5 is a device that measures the eye movement caused by the presentation of the image that causes the apparent movement. Basically, the eye movement is always measured while the subject is watching the monitor. However, eye movement measurement may be performed only during a period necessary for data analysis, which will be described later, and eye movement measurement is performed while any image including a gray image is displayed on the stimulus presentation monitor 2. May be executed.
  • a method using the first and fourth Purkinje images, a search coil method, and a scleral reflection method can be used.
  • a method in which the eyeball part to be examined is imaged with a video camera and the movement of the eyeball is extracted from the captured image.
  • the eyeball position (the direction of the line of sight) of the subject was measured using a method using the first and fourth Purkinje images (Dual-Purkinje Image Eye Tracker, produced by Forward Technology).
  • the eyeball position is obtained as a voltage signal of the eye movement measuring device.
  • the data analysis device 6 is a device that analyzes data measured with the presentation of an image that causes an apparent movement and executes a calculation process for identifying a visual filter (including a time filter) specific to the examination target. is there.
  • the time filter is identified by optimizing the parameters of the kinetic energy model so that the simulation result calculated from the kinetic energy model of the eye movement response matches the measurement data.
  • the term “kinetic energy model of eye movement response” is used to mean any kinetic energy model that can explain the eye movement response.
  • the model proposed by Adelson and Bergen in 1985 to explain the subjective perception of movement is used as an example of the kinetic energy model of the eye movement response.
  • Elaborated Reichardt model and other models may be used.
  • (1-2) MOD (Motion Onset Delay) Inspection Method a method called a MOD inspection method is applied as a method for measuring the reflex-induced eye movement response.
  • the measurement data required for identifying the time filter is collected by repeating the trial, which is a unit of image presentation, a plurality of times.
  • 2 and 3 show the arrangement of images constituting one trial as a presentation unit in the MOD inspection method. The presentation of an image corresponding to one trial shown in FIGS. 2 and 3 is executed by the visual stimulus presentation device 3 under the control of the experiment control / data recording device 4.
  • Each trial consists of (1) a period during which the gaze target and the first gray image are presented on the monitor screen, (2) a period during which the gaze target and the first stimulus pattern image are presented on the monitor screen, and (3) a second stimulus.
  • This is composed of a period during which the pattern image is presented on the monitor screen and (4) a period during which the second gray image is presented on the monitor screen.
  • the first gray image and the second gray image both have a uniform luminance value (for example, 5 cd / m 2 ) on the entire screen.
  • the luminance value of the first gray image and the luminance value of the second gray image may not be the same.
  • the luminance value of the first gray image and the average luminance value of the first stimulus pattern image and the second stimulus pattern image are the same.
  • Each trial is started by presenting a circular gaze target with a diameter of 0.5 ° in the center of the first gray image.
  • the presentation time of the first gray image is randomly changed between 1000500 and 1000 milliseconds so as to be different for each trial.
  • the presentation time of the first gray image may be a fixed length between 500 and 1000 milliseconds, for example.
  • the first stimulus pattern image is a vertical stripe pattern whose luminance changes in a sine wave shape along the horizontal direction (spatial frequency: 0.25 cycles / deg, Michelson contrast: 32%, average luminance 5 cd / m 2 ). Is used.
  • the luminance of the first stimulus pattern image is expressed by 2048 gray levels.
  • the presentation time length of the first stimulus pattern image is randomly varied so as to be different for each trial. This is to prevent the examination target from predicting the presentation time length. However, if it is guaranteed that there is no influence due to the prediction of the subject, it is not necessarily random, and the presentation time length of each trial may be changed based on a predetermined pattern.
  • the presentation time length of the first stimulus pattern image in each trial is set to, for example, 0 ms, 10 ms, 20 ms, 30 ms, 40 ms, 60 ms, 80 ms, 160 Randomly select from milliseconds, 320 milliseconds, or 640 milliseconds.
  • the presentation time length of 0 milliseconds means that the first stimulus pattern image is not presented.
  • one presentation time length is randomly selected from 10 presentation time lengths so that the same presentation time length does not appear repeatedly during 10 trials. Select and use to present the first stimulus pattern image. It should be noted that an output form in which the presentation time length monotonously increases or an output form in which the presentation time length monotonously decreases during 10 trials is not desirable.
  • the first stimulus pattern image may be a pattern in which an apparent movement is caused between the first stimulus pattern image and the second stimulus pattern image. Accordingly, the first stimulus pattern image is not limited to the vertical stripe pattern described above, but a horizontal stripe pattern whose luminance changes in a sine wave shape along the vertical direction, a diagonal stripe pattern whose luminance changes in a sine wave shape along the diagonal direction, and a lattice pattern But it ’s okay. Further, the luminance change in the first stimulus pattern image is not limited to a sine wave, and may change in a binary manner.
  • the gaze target disappears from the monitor screen, and at the same time, the presentation of the second stimulus pattern image is started.
  • MOD Motion Onset delay
  • the above-mentioned MOD is the time interval from when the first stimulus pattern image is presented until the second stimulus pattern image is presented (that is, the presentation time length of the first stimulus pattern image). It is.
  • the second stimulus pattern image in the present embodiment is the same pattern image as the first stimulus pattern image (in this embodiment, a sinusoidal vertical stripe pattern), but the phase is 90 ° with respect to the first stimulus pattern image. ° (1/4 wavelength) Use one shifted to the right or left. Note that the phase ⁇ is arbitrary as long as it is in the range of 0 ° ⁇ ⁇ 180 °. However, the amount of phase shift is the same for each trial.
  • the second stimulus pattern image is presented for 200 milliseconds. Of course, 200 milliseconds is an example.
  • the measurement data of the change in the eyeball position that is reflected when the image presented on the monitor screen is switched from the first stimulus pattern image to the second stimulus pattern image is the second stimulus pattern.
  • An interval of 50 milliseconds to 200 milliseconds (preferably 80 milliseconds to 160 milliseconds) is used after presentation of an image is started. This is because the eye movement due to reflection is delayed with respect to the change of the stimulation pattern.
  • the section used for measuring eye movement is an example, and it is desirable to set an appropriate time according to the contrast and spatial frequency of the apparent movement stimulus.
  • At least a point in time before the presentation of the second stimulus pattern image is started (for example, 50 milliseconds before) in order to execute data analysis to exclude trials including saccade movement (gaze shift due to high-speed eye movement), which will be described later It is desirable to start recording eye movements from
  • the presentation time length of the second stimulus pattern image When the presentation time length of the second stimulus pattern image has elapsed, the second gray image is presented on the monitor screen. A gaze target is not presented in the second gray image.
  • the presentation time length of the second gray image in the present embodiment is about 1.5 seconds, and when this presentation time length elapses, the next trial is started.
  • a total of 20 trials are executed as one block for 10 types of presentation time lengths prepared for the first stimulus pattern image ⁇ 2 types of movement directions (right direction and left direction).
  • the movement direction may be only one direction.
  • the presentation time length or the type of movement direction may be increased.
  • it is desirable that trials satisfying the same presentation time length and the same direction of movement are executed a plurality of times. If a plurality of measurement data can be collected for the same condition, measurement noise can be reduced by calculating the average value of them.
  • FIG. 4 shows an example of a waveform obtained by converting data (change in eyeball position) measured under a stimulus condition in which the presentation time length of the first stimulus pattern image is 10 milliseconds into a change speed of the eyeball position.
  • FIG. 4 shows a waveform of a change rate corresponding to the average value of a plurality of measurement data acquired during a plurality of trials performed under the same stimulation condition. Specifically, the movement to the right is shown. It shows a waveform obtained by subtracting the measurement data when the leftward movement is given from the measurement data when given.
  • the horizontal axis of FIG. 4 is the elapsed time (milliseconds) when the time of starting the presentation of the second stimulus pattern image in the measurement section shown in FIG. 3 is zero, and the vertical axis is the change speed of the eyeball position. .
  • the process of converting the eyeball position into the change speed is executed by the data analysis device 6. Further, the experiment control / data recording device 4 associates the presentation time length of the first stimulus pattern image with the direction of the apparent motion stimulus with respect to the measurement data of each measurement time, and records it in the hard disk or the like. Therefore, the measurement data shown in FIG. 5 is recorded on the hard disk at the end of all trial times.
  • FIG. 4 is a diagram for explaining the mechanism of data analysis. In an actual data analysis operation, the eyeball is calculated without calculating the average value of the change speed data of the eyeball position acquired during a plurality of trials. The eyeball position change data corresponding to each presentation time length is directly calculated from the position data.
  • FIG. 5 shows the length of the presentation time length of the first stimulus pattern image used at the time of measurement data (change speed of the eyeball position shown in FIG. 4) measured with the presentation time length of various first stimulus pattern images. It is a figure rearranged and shown in order.
  • the integral value of a period of 80 milliseconds to 160 milliseconds indicates a change in the eyeball position corresponding to each presentation time length, and a time filter specific to the examination target is selected.
  • FIG. 5 is also a drawing for explaining the mechanism of data analysis. In the actual data analysis operation, the eyeball position change data corresponding to each presentation time length is obtained from the eyeball position data without calculating the integral value. Calculate directly.
  • the data analysis device 6 analyzes the measurement data read from the experiment control / data recording device 4 using MATLAB (registered trademark). Specifically, the eyeball position change data corresponding to each presentation time length is analyzed using a kinetic energy model to identify a time filter. Data analysis is performed according to the following procedure.
  • the data analysis device 6 uses a digital low-pass filter (for example, 4-pole Butterworth Filter, -3dB at 25Hz) to remove high-frequency noise from the eye position data measured for each trial.
  • a digital low-pass filter for example, 4-pole Butterworth Filter, -3dB at 25Hz
  • the data analysis device 6 calculates the time difference of the data of the eyeball position from which the noise is removed, and calculates the change speed of the eyeball position.
  • the data analysis device 6 calculates the time difference of the eyeball velocity data and calculates the acceleration related to the change in the eyeball position.
  • the data analysis device 6 uses the data of the eyeball velocity and the eyeball acceleration, and starts the second stimulation from the 50 ms before the presentation of the second stimulation pattern image (the presentation period of the first stimulation pattern image). Eliminate trials in which saccade movement (gaze shift due to high-speed eye movement) occurred within the time interval from the start of presentation of the stimulus pattern image to 200 milliseconds. In this embodiment, saccadic movement, the motion of the eye eyeball rate exceeds 30degree / s, or, ocular acceleration is defined as the movement of the eye in excess of 1000degree / s 2.
  • the data analysis device 6 only targets the measurement data of trial times in which no saccade movement was detected, and after 160 ms from the start of presentation of the second stimulus pattern image.
  • the change (deg) of the eyeball position is calculated based on the measurement data measured until.
  • the eye movement response generated in the 80 to 160 millisecond interval from the start of the presentation of the second stimulus pattern image is calculated, the eyeball position at the time corresponding to 160 millisecond is changed to 80 millisecond.
  • the change of the eye movement position was calculated by subtracting the eye position data at the corresponding time.
  • an integral value of a change speed of the eyeball position in a period of, for example, 80 milliseconds to 160 milliseconds may be used instead.
  • the data analysis device 6 calculates the average of a plurality of measurement data collected for the same stimulus condition in order to obtain an eye movement response corresponding to each presentation time length.
  • the data analysis device 6 calculates the average value of the eye movement response when the second stimulus pattern image moves to the right with respect to the first stimulus pattern image, The difference of the average value of the eye movement response when moving in the direction is calculated. Note that if the direction of the apparent motion stimulus is the reverse direction, the direction of the eye movement reaction is also the reverse direction (the sign is positive or negative), and thus the effect is that the measured value is doubled by calculating the difference.
  • the data analysis device 6 obtains response characteristics (measurement data) to the stimulation condition of the subject to be examined.
  • FIG. 6 shows an image of the measured response characteristics.
  • the horizontal axis in FIG. 6 is the length of the presentation time of the first stimulus pattern image, and the vertical axis is the magnitude of the corresponding response (the eyeball position occurring between 80 and 160 milliseconds from the start of presentation of the second stimulus pattern image). The magnitude of change).
  • the data analyzer 6 applies an image of the same stimulation condition as the input value to the kinetic energy model (Adelson & Bergen, 1985) including a time filter given by the following equation as an input value.
  • the simulation result corresponding to is calculated.
  • k is a time scale
  • b is the magnitude of the negative component
  • N is a parameter that defines the order.
  • the kinetic energy model includes two time filters, Fast filter and Slow filter, which differ only in order.
  • the order of the Fast filter is N fast and the order of the Slow filter is N slow (> N fast ).
  • the initial value prepared for each parameter is used for the first simulation calculation.
  • the data analysis device 6 is configured to repeat one trial for inputting the first stimulus pattern image and the second stimulus pattern image and repeating a plurality of trials while changing the presentation time length of the first stimulus pattern image.
  • the simulation results are calculated for each of these multiple inputs.
  • the output of the kinetic energy model is the difference between the energy in the right direction and the left direction (hereinafter referred to as “kinetic energy model output”), and is given as a function of time.
  • the average value of the kinetic energy model at the time corresponding to 0 to 160 milliseconds is used as the simulation result.
  • the interval for calculating the average value is not limited to 0 to 160 milliseconds.
  • an integrated value may be used instead of the average value.
  • the data analysis device 6 uses a time filter in the kinetic energy model so that the difference between the simulation result of the kinetic energy model and the response characteristic (measurement data) quantified for each stimulus condition is minimized.
  • the fast time filter order N fast and the slow time filter order N slow are fixed to 3 and 6, respectively.
  • N fast and N slow may be optimized simultaneously.
  • the parameter value of the kinetic energy model is optimized so that the difference between the simulation result and the average value of the eye movement response corresponding to each presentation time length is minimized. Rather than matching the time waveform of the eye movement itself, optimization is performed so that the average value of the magnitude of the eye movement response determined depending on the presentation time length of the first stimulus pattern image matches the output of the model.
  • FIG. 7 shows an image of optimization.
  • Visualization that is the basis for the temporal resolution of the visual test of the subject to be examined when the parameter value that minimizes the difference between the simulation results of the kinetic energy model and the response characteristics (measurement data) quantified for each stimulus condition is determined
  • the time filter of the system is identified quantitatively.
  • FIG. 8 shows an example of the identified time filter. The figure is an example of a time filter that best reproduces the measurement data.
  • the data analysis device 6 performs Fourier analysis on the identified time filter, and calculates characteristics in the frequency domain.
  • FIG. 9 shows an example of the frequency characteristic of the calculated visual filter.
  • the visual filter includes the filter representing the frequency characteristics and the time filter described above. From the visual filter, it is possible to obtain quantitative information representing the temporal resolution and properties of the visual system, such as the optimal time frequency, passband frequency band, and optimal speed.
  • the technology according to the present embodiment examines the performance of the most basic functions (visual filters) of the visual system, the retina, optic nerve, primary visual cortex, higher visual cortex (occipital and parietal association areas). It can also be used for the development of new quantitative diagnostic methods for normality and abnormality of motor vision and spatial vision. Of course, the technology according to the present embodiment can also be used to develop a test method for measuring the effects of treatment, rehabilitation, training, and the like.
  • the technology according to the embodiment should be used for the examination of basic visual functions in various medical departments (pediatrics, ophthalmology, neurology, psychiatry, rehabilitation, etc.) in the field of medicine and welfare, and development of testing equipment. Can do. Moreover, (1) infants and children to adults, (2) patients who cannot answer questions properly, and (3) non-human animals can be included in the test.
  • the technique according to the embodiment is based on the reflexive eye movement reaction, it can be repeatedly applied to the same person. For this reason, longitudinal examinations are possible and can be used to measure the effects of development and treatment. For example, it can be used in devices and products for evaluating changes in visual functions associated with development and aging, and visual function disorders associated with neuropsychiatric disorders.
  • the visual filter that can be quantified in this embodiment is one of the factors that determine the dynamic visual acuity.
  • the moving vision test has been to measure the spatial resolution of "how much detail can be seen in moving objects", but the technology according to this embodiment looks at "changes" in the visual image. It measures the time resolution for this, and is related to the recognition of the movement itself.
  • a new dimension of dynamic visual acuity that has not been measured so far can be measured. For example, it can be expected to be used for a new visual function test for evaluating the visual ability of athletes. It can also be applied to product development in industry.
  • the MOD inspection method described in the first embodiment can be used in combination with the ISI inspection method.
  • the ISI inspection method is an inspection method for measuring the following eye movement induced when an image having an average luminance value is inserted between a first stimulus pattern image that gives an apparent motion stimulus and a second stimulus pattern image. The test object is made to perceive a movement opposite to the movement direction of the apparent movement stimulus.
  • the measurement based on the ISI inspection method may be executed after the measurement based on the MOD inspection method, or the measurement execution based on the ISI inspection method. Later, measurement based on the MOD inspection method may be performed, measurement based on the MOD inspection method and measurement based on the ISI inspection method may be performed alternately, or each trial of the MOD inspection method and the ISI inspection method Each trial may be mixed and measured in a random order.
  • an ISI inspection method using the visual filter identification device 1 FIG. 1
  • FIGS. 10 and 11 show the image layout of one trial in the ISI inspection method.
  • the presentation of an image corresponding to one trial shown in FIGS. 10 and 11 is executed by the visual stimulus presentation device 3 under the control of the experiment control / data recording device 4.
  • each trial round consists of (1) a period in which the gaze target and the first gray image are presented on the monitor screen, and (2) a period in which the gaze target and the first stimulus pattern image are presented on the monitor screen. , (3) Period for presenting the gaze target and the second gray image on the monitor screen, (4) Period for presenting the second stimulus pattern image on the monitor screen, (5) Period for presenting the third gray image on the monitor screen Consists of.
  • the difference from the first embodiment is that the gaze target and the second gray image are presented between the first stimulus pattern image and the second stimulus pattern image.
  • the first gray image, the second gray image, and the third gray image all have a uniform luminance value (for example, 5 cd / m 2 ) on the entire screen.
  • the luminance value of the first gray image and the luminance value of the second gray image may be the same as the average luminance value of the first stimulus pattern image and the average luminance value of the second stimulus pattern image.
  • the presentation time of the gaze target and the first gray image is randomly changed between 500 and 1000 milliseconds so as to be different for each trial.
  • the presentation time of the first gray image may be a fixed length between 500 and 1000 milliseconds, for example.
  • the gaze target and the first stimulus pattern image are presented on the monitor screen.
  • the first stimulus pattern image the same image as that of the first embodiment is used. That is, a vertical stripe pattern (spatial frequency: 0.25 cycles / deg, Michelson contrast: 32%, average luminance 5 cd / m 2 ) whose luminance changes in a sine wave shape along the horizontal direction is used as the first stimulus pattern image.
  • the presentation time length of the first stimulus pattern image is a fixed length of 320 milliseconds.
  • the gaze target and the second gray image are presented on the monitor screen.
  • the presentation time length of the second gray image is randomly varied so as to be different for each trial. This is to prevent the examination target from predicting the presentation time length.
  • the presentation time length of the second gray image in each trial is set to, for example, 0 milliseconds, 10 milliseconds, 20 milliseconds, 30 milliseconds, 40 milliseconds, 60 milliseconds, 80 milliseconds, 160 milliseconds. Randomly select from seconds, 320 milliseconds, or 640 milliseconds.
  • the presentation time length of 0 milliseconds means that the second gray image is not presented.
  • one presentation time length is randomly selected from 10 presentation time lengths so that the same presentation time length does not appear repeatedly during 10 trials. Select and use to present the first stimulus pattern image.
  • an output form in which the presentation time length monotonously increases or an output form in which the presentation time length monotonously decreases is not desirable.
  • the gaze target disappears from the monitor screen, and at the same time, the presentation of the second stimulus pattern image is started.
  • the second stimulus pattern image the same image as that of the first embodiment is used. That is, the second stimulus pattern image is the same pattern image as the first stimulus pattern image, but the phase is shifted 90 ° (1/4 wavelength) right or left with respect to the first stimulus pattern image. use. The amount of phase shift is the same for each trial. In this embodiment, the second stimulus pattern image is presented for 200 milliseconds. It should be noted that the period used for measuring the reflexive eyeball position change is the same as that of the first embodiment.
  • the third gray image is presented on the monitor screen.
  • a gaze target is not presented in the third gray image.
  • the presentation time length of the third gray image is about 1.5 seconds, and when this presentation time length elapses, the next trial is started. The number of times each trial is repeated is the same as in the first embodiment.
  • FIG. 12 shows an example of a waveform obtained by converting data (change in eyeball position) measured under a stimulation condition where the presentation time length of the second gray image is 10 milliseconds into a change speed of the eyeball position.
  • FIG. 12 shows a waveform of a change rate corresponding to the average value of a plurality of measurement data acquired during a plurality of trials performed under the same stimulation condition. More precisely, the movement to the right is shown. It shows a waveform obtained by subtracting the measurement data when the leftward movement is given from the measurement data when given.
  • the horizontal axis in FIG. 12 is the elapsed time (milliseconds) when the time when the presentation of the second stimulus pattern image is started is zero, and the vertical axis is the change speed of the eyeball position.
  • the data analysis device 6 executes conversion processing for changing the eyeball position to the changing speed. Further, the experiment control / data recording device 4 associates the presentation time length of the second gray image with the direction of the apparent motion for the measurement data of each measurement time, and records it in the hard disk or the like. Therefore, the measurement data shown in FIG. 13 is recorded on the hard disk at the end of all trial times.
  • FIG. 13 shows the measurement data (change speed of the eyeball position shown in FIG. 12) measured at various presentation time lengths of the second gray image arranged in order of the presentation time length of the second gray image used at the time of measurement.
  • the integral value of a period of 80 milliseconds to 160 milliseconds indicates a change in the eyeball position corresponding to each presentation time length, and a time filter specific to the examination target is selected.
  • FIG. 14 shows an image of response characteristics in which measurement data of response characteristics measured using the MOD inspection method and measurement data of response characteristics measured using the ISI inspection method are arranged on the same time axis.
  • the presentation time length of the first stimulus pattern image is as long as 320 milliseconds, it is arranged behind the measurement data corresponding to the MOD inspection method.
  • the maximum value of the presentation time length of the first stimulus pattern image in the MOD inspection method is 320 milliseconds.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Pathology (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本発明は、視覚に関する時間フィルタを,眼球運動反射を用いて非侵襲的に,客観的にかつ定量的に同定することを目的とする。本発明は、一様に一定輝度を有する初期画像,初期画像と同じ平均輝度を有する第1刺激パターン画像,第1刺激パターン画像と共に仮現運動を惹起する第2刺激パターン画像を順番に提示させながら,第2刺激パターン画像の提示中における一定期間内に眼球運動を測定し,測定時に用いた第1刺激パターン画像の提示時間長に対応付けて保存する。この際,各試行回で使用する第1刺激パターン画像の提示時間長の設定を変更する。個々の提示時間長について計算される視線方向の変化によって特定される測定波形と,第1刺激パターン画像と第2刺激パターン画像を眼球運動反応の運動エネルギーモデルに入力して計算されるシミュレーション結果との差が最小になるように,運動エネルギーモデルのパラメータ値を最適化し,検査対象に固有の時間フィルタを計算する。

Description

視覚フィルタ同定方法及び装置
 本発明は,視覚機能の基本的な性能を表す視覚フィルタを,非侵襲的,客観的かつ定量的に同定する方法及び装置に関する。
 視覚機能を評価する技術には,例えば「視力検査法」や「視野測定検査法」がある。これらの技術は,視覚の「空間解像度」の評価や「見える範囲の広さ」の評価に用いられる。また,動く物体を見る時の視力を測るための技術として,例えば「動体視力の検査法」がある。この技術は,移動する物体に対する視覚の「空間解像度」の評価に用いられる。
 この他,「臨界融合周波数」を測る方法,時間周波数毎に知覚コントラスト感度を調べて周波数特性を定量化する方法等があり,近年では,時間フィルタを推定する方法も提案されている(非特許文献1)。
Burr & Morrone, J. Opt. Soc. Am. A, 1993
 しかし,前述した多くの手法は,「見えるか否か」といった「意識にのぼる知覚」を,被験者が口頭又はボタン操作により医師等に伝える必要があり,この種の方法には,以下のような問題がある。
 まず,報告内容や測定結果に,被験者の恣意が含まれている可能性がある。換言すると,被験者が嘘を付くことも可能である。被験者が故意に又は思い込みにより,実際とは異なる答えを報告し得る状態では,十分に客観性を持ったデータを取得することはできない。
 また,既存の方法では,被験者が検査者の指示を理解した後に,自らの口や手を随意的に動かして答える必要がある。しかし,この手法では,検査の意図を十分に理解することや質問に適切に答えることができない被検者(例えば乳幼児,身体疾患や神経・精神疾患などが原因で質問に適切に答えることができない患者など)には適用することができない。
 このため,既存の検査手法は,発達期の子供の視覚機能の縦断的調査などには不向きであり,検査対象もヒトに限られている。また,前述した非特許文献1においても,視覚機能の基本的な性質を表す視覚フィルタを,眼球運動反射を用いて非侵襲的に,客観的にかつ定量的に同定する手法については示していない。
 上記課題を解決するために,本発明は,一例として,以下の手法を提案する。
(a)検査対象の前方に配置したモニタ上に,一様に一定輝度を有する初期画像,前記初期画像と同じ平均輝度を有する第1刺激パターン画像,前記第1刺激パターン画像と共に仮現運動を惹起する第2刺激パターン画像を順番に提示するステップと,
(b)前記第2刺激パターン画像の提示中における一定期間内に眼球運動を測定し,測定時に用いた前記第1刺激パターン画像の提示時間長と対応付けて保存するステップと,
(c)前記(a)及び前記(b)に示す各ステップの実行を1試行回とし,各試行回で使用する前記第1刺激パターン画像の提示時間長の設定を変更しながら,複数回の試行を繰り返すステップと,
(d)前記(c)に示すステップにおける各試行回について,測定された前記眼球運動の測定データに基づいて視線方向の変化を計算するステップと,
(e)眼球運動反応の運動エネルギーモデルに,前記第1刺激パターン画像と前記第2刺激パターン画像を入力してシミュレーション結果を計算するステップと,
(f)前記(d)に示すステップで得られた視線方向の前記変化と,前記変化に対応付けられた前記提示時間長とによって特定される測定波形と,前記(e)に示すステップで得られたシミュレーション結果との差が最小になるように,前記運動エネルギーモデルのパラメータ値を最適化し,検査対象に固有の時間フィルタを計算するステップと,
 を有することを特徴とする視覚フィルタ同定方法。
 本発明によれば,視覚機能の基本的な性質を表す視覚フィルタを,眼球運動反射を用いて非侵襲的に,客観的にかつ定量的に同定することができる。
実験に使用する視覚フィルタ同定装置の概略構成を示す図。 MOD検査法における1試行回を構成する画像の配置を説明する図。 MOD検査法における時間フィルタの同定に用いる測定区間を説明する図。 MOD検査法の複数試行回で測定される眼球位置の変化データを示す図。 図4に示す変化データを提示時間長の長さ順に並べた図。 MOD検査法によって測定された応答特性を示す図。 運動エネルギーモデルの出力(シミュレーション結果)の最適化を説明する図。 同定された時間フィルタの例を示す図。 視覚フィルタの周波数特性を説明する図。 ISI検査法における1試行回を構成する画像の配置を説明する図。 ISI検査法における時間フィルタの同定に用いる測定区間を説明する図。 ISI検査法の複数試行回で測定される眼球位置の変化データを示す図。 図12に示す変化データを提示時間長の長さ順に並べた図。 MOD検査法とISI検査法を組み合わせて測定した応答特性を示す図。
 以下では,本発明の実施例を,図面を用いて説明する。なお,本発明の実施例は,後述する実施例に限定されるものではなく,その技術思想の範囲において,種々の変形が可能である。
 (1)実施例1
 (1-1)視覚フィルタ同定装置の構成
 図1に,発明者らが実験に使用した視覚フィルタ同定装置1の概略構成を示す。視覚フィルタ同定装置1は,刺激提示用モニタ2,視覚刺激提示装置3,実験制御・データ記録装置4,眼球運動測定装置5,データ解析装置6で構成される。このうち,視覚刺激提示装置3,実験制御・データ記録装置4,データ解析装置6は,いずれもコンピュータで構成され,各装置に対応する機能はプログラムの実行を通じて実現される。
 コンピュータは,外部とデータをやり取りする入出力装置,データを記録する記憶装置,プログラムの実行状況や各装置の状態を制御する制御装置,データの計算や加工を実行する演算装置等で構成される。以下の説明では,視覚刺激提示装置3,実験制御・データ記録装置4,データ解析装置6は,いずれも独立したコンピュータによって実現されているものとする。もっとも,これら装置に対応する機能の全て又は一部を,1つのコンピュータ上で実現しても良い。
 刺激提示用モニタ2は,時間フィルタの同定に使用する各種の画像を提示するデバイスであり,検査対象(例えばヒト,動物)の前方に配置される。刺激提示用モニタ2には,例えばCRT(Cathode Lay Tube),液晶ディスプレイや有機ELディスプレイ等のフラットパネルディスプレイ,プロジェクタを使用する。実験では,19インチのCRTモニタ(サイズ:360×270mm,解像度:1280×1024 pixels,リフレッシュレート:100Hz)を使用した。
 正確な測定データを得るため,本実施例では,測定時に,検査対象の頭部を固定した。頭部の固定には,ヒトであれば,例えば顎を台座(あご台)に押し当てる方法,バイトブロックと呼ばれる歯形を噛む方法などを使用する。本実施例では,検査対象とモニタ画面までの距離を63.4cmとした。勿論,この数値は一例である。
 視覚刺激提示装置3は,刺激提示用モニタ2に提示する所定の画像(後述する第1刺激パターン画像と第2刺激パターン画像を含む。)を生成する装置である。本実施例の場合,画像の生成には,市販のソフトウェアであるMATLAB(登録商標)と,心理学分野で開発されたフリーソフトのPsychtoolboxを使用した。
 実験制御・データ記録装置4は,視覚刺激提示装置3と連動して,各種の画像の出力を制御する装置である。本実施例では,NIH(National Institutes of Health)が開発したソフトウェア(REX:Real-time EXperimental system)を使用した。なお,REXは,LabView(商標)などの市販のソフトでも代替可能である。実験制御・データ記録装置4は,ハードウェアとして,少なくともA/D変換器,UDP通信機能を備えている。
 検査対象の眼球位置の記録もREXで行う。本実施例の場合,検査対象の眼球位置を表す電圧値は,A/D変換器を通じて12ビットのデータ値に変換される。変換後のデータ値は,1ミリ秒ごとに収集し,ハードディスク等に記録する。実験制御・データ記録装置4は,上,下,左,右5°に直径0.5°の円形の注視視標を提示するように視覚刺激提示装置3に対して指示を出し,注視視標の提示中に眼球運動測定装置5によって計測された電圧出力をハードディスク等に記録する。注視視標の提示中に測定された電圧信号を取得しておくことにより,仮現運動刺激の提示により測定された電圧信号を眼球の回転角(degree)に換算することができる。
 眼球運動測定装置5は,仮現運動を惹起する画像の提示に伴って生じる眼球運動を測定する装置であり,基本的に,被験者がモニタを見ている間,眼球運動を常に測定する。もっとも,後述するデータ解析に必要な期間についてのみ,眼球運動の測定を実行しても良いし,刺激提示用モニタ2にグレー画像を含めて何らかの画像が表示されている間中,眼球運動の測定を実行しても良い。
 眼球運動の測定方法には,既に知られている様々な手法を用いることができる。例えば第1,第4プルキンエ像を利用する方法,サーチコイル法,強膜反射法を用いることができる。この他,検査対象の眼球部分をビデオカメラで撮像し,撮像された画像から眼球の動きを抽出する方法を用いることもできる。本実施例では,被験者の眼球位置(視線の向き)を,第1,第4プルキンエ像を利用する方法(Dual-Purkinje Image Eye Tracker, Foreward technology社製)を用いて計測した。なお,眼球位置は,眼球運動計測装置の電圧信号として得られる。
 データ解析装置6は,仮現運動を惹起する画像の提示に伴って測定されたデータを解析して,検査対象に固有の視覚フィルタ(時間フィルタを含む)を同定する計算処理を実行する装置である。処理動作の詳細については後述するが,眼球運動反応の運動エネルギーモデルから算出されるシミュレーション結果が測定データと合致するように運動エネルギーモデルのパラメータを最適化することにより,時間フィルタを同定する。本明細書では,「眼球運動反応の運動エネルギーモデル」との用語を,眼球運動反応を説明可能な任意の運動エネルギーモデルの意味で使用する。なお,本実施例では,眼球運動反応の運動エネルギーモデルの一例として,1985年にAdelsonとBergenが運動の主観的な知覚を説明するために提案したモデルを使用する。もっとも,Elaborated Reichardt modelその他のモデルを用いても良い。
 (1-2)MOD(Motion Onset Delay)検査法
 本実施例では,反射的に誘発される眼球運動反応の測定手法として,MOD検査法と呼ぶ手法を適用する。本実施例の場合,画像の提示単位である試行を複数回繰り返すことにより,時間フィルタの同定に必要とされる測定データを収集する。図2及び図3は,MOD検査法における提示単位としての1試行回を構成する画像の配置を表している。なお,図2及び図3に示す1試行回に対応する画像の提示は,実験制御・データ記録装置4による制御の下,視覚刺激提示装置3が実行する。
 各試行回は,(1)注視視標と第1グレー画像をモニタ画面に提示する期間,(2)注視視標と第1刺激パターン画像をモニタ画面に提示する期間,(3)第2刺激パターン画像をモニタ画面に提示する期間,(4)第2グレー画像をモニタ画面に提示する期間で構成される。本実施例の場合,第1グレー画像と第2グレー画像は,いずれも画面全体が一様な輝度値(例えば5cd/m)を有している。もっとも,第1グレー画像の輝度値と第2グレー画像の輝度値は同じでなくても良い。ただし,第1グレー画像の輝度値と,第1刺激パターン画像および第2刺激パターン画像の平均輝度値は同じである。
 各試行回は,直径が0.5°の円形の注視視標を,第1グレー画像の中央に提示することで開始される。本実施例の場合,第1グレー画像の提示時間は,試行回毎に異なるように, 500~1000ミリ秒の間でランダムに変更される。もっとも,第1グレー画像の提示時間は,例えば500~1000ミリ秒の間の固定長でも良い。この提示時間が経過すると,注視視標と第1刺激パターン画像がモニタ画面に提示される。
 本実施例では,第1刺激パターン画像として,水平方向に沿って,正弦波状に輝度が変化する縦縞パターン(空間周波数:0.25cycles/deg,マイケルソンコントラスト:32%,平均輝度5cd/m)を使用する。第1刺激パターン画像の輝度は,2048階調のグレイレベルで表現される。第1刺激パターン画像の提示時間長は,試行回毎に異なるようにランダムに可変される。検査対象が提示時間長を予測できないようにするためである。もっとも,被験者の予測による影響が無いことが保障されるのであれば,必ずしもランダムである必要は無く,事前に定めたパターンに基づいて各試行回の提示時間長を変更しても良い。
 本実施例では,各試行回における第1刺激パターン画像の提示時間長を,例えば0ミリ秒,10ミリ秒,20ミリ秒,30ミリ秒,40ミリ秒,60ミリ秒,80ミリ秒,160ミリ秒,320ミリ秒,640ミリ秒の中からランダムに選択する。提示時間長が0ミリ秒とは,第1刺激パターン画像が提示されないことを意味する。
 例えば提示時間長の数が10個である場合,10試行回の間に,同じ提示時間長が重複して出現しないように,10個の提示時間長の中から1つの提示時間長をランダムに選択し,第1刺激パターン画像の提示に使用する。なお,10試行回の間,提示時間長が単調に増加する出力形態や提示時間長が単調に減少する出力形態は望ましくない。
 第1刺激パターン画像は,第2刺激パターン画像との間で仮現運動が惹起されるパターンであれば良い。従って,第1刺激パターン画像は,前述した縦縞パターンに限らず,上下方向に沿って正弦波状に輝度が変化する横縞パターン,斜め方向に沿って正弦波状に輝度が変化する斜縞パターン,格子模様でも良い。また,第1刺激パターン画像における輝度変化は正弦波に限られず,二値的に変化しても良い。
 第1刺激パターン画像の提示時間長が経過すると,モニタ画面上から注視視標が消え,同時に第2刺激パターン画像の提示が開始される。なお,前述のMOD(Motion Onset delay)は,第1刺激パターン画像が提示されてから第2刺激パターン画像が提示されるまでの時間間隔(すなわち,第1刺激パターン画像の提示時間長)のことである。
 本実施例における第2刺激パターン画像は,第1刺激パターン画像と同じパターン画像(本実施例の場合は正弦波状の縦縞パターン)であるが,その位相が,第1刺激パターン画像に対して90°(1/4波長)右又は左にずれたものを使用する。なお,位相θは,0°<θ<180°の範囲であれば任意である。もっとも,位相のずれ量は各試行回で同じである。本実施例では,第2刺激パターン画像を200ミリ秒提示する。勿論,200ミリ秒は一例である。
 なお,モニタ画面に提示される画像が第1刺激パターン画像から第2刺激パターン画像に切り替わることで反射的に生じる眼球位置の変化の測定データとしては,図3に示すように,第2刺激パターン画像の提示が開始されてから50ミリ秒~200ミリ秒(好ましくは80ミリ秒~160ミリ秒)の区間を使用する。反射による眼球運動は刺激パターンの変化に対して遅れるためである。なお,眼球運動の測定に用いる区間は一例であり,仮現運動刺激のコントラストや空間周波数に応じて適切な時間を設定することが望ましい。
 後述するサッケード運動(高速な眼球運動による視線のシフト)を含む試行の除外をデータ解析で実行するために,少なくとも第2刺激パターン画像の提示が開始される前の時点(例えば50ミリ秒前)から眼球運動の記録を開始することが望ましい。
 第2刺激パターン画像の提示時間長が経過すると,第2グレー画像がモニタ画面上に提示される。第2グレー画像には注視視標が提示されない。本実施例における第2グレー画像の提示時間長は約1.5秒であり,この提示時間長が経過すると,次の試行回が開始される。
 本実施例では,第1刺激パターン画像について用意された10種類の提示時間長×2種類の動き方向(右方向と左方向)について計20試行を1ブロックとして実行される。もっとも,動き方向は1方向だけでも良い。また,提示時間長あるいは動き方向の種類を増やしても良い。なお,同じ提示時間長と同じ動きの方向を満たす試行が複数回実行されることが望ましい。同一条件について複数個の測定データを収集することができれば,それらの平均値を計算することにより,測定ノイズを低減できる。本実施例では,30ブロック(20×30(=600)試行)実行される。
 図4に,第1刺激パターン画像の提示時間長が10ミリ秒となる刺激条件で測定したデータ(眼球位置の変化)を,眼球位置の変化速度に換算した波形例を示す。図4は,同じ刺激条件で行われた複数回の試行中に取得された複数の測定データの平均値に対応する変化速度の波形を表しており,具体的には,右方向への動きを与えた場合の測定データから左方向への動きを与えた場合の測定データを差し引いた波形を表している。図4の横軸は,図3に示す測定区間内における第2刺激パターン画像の提示を開始した時間をゼロとした経過時間(ミリ秒)であり,縦軸は,眼球位置の変化速度である。
 眼球位置を変化速度に換算する処理は,データ解析装置6が実行する。また,実験制御・データ記録装置4は,各測定回の測定データに対して,第1刺激パターン画像の提示時間長と仮現運動刺激の方向を対応付け,ハードディスク等に記録する。従って,全ての試行回の終了時点には,図5に示す測定データがハードディスク上に記録されることになる。なお,図4はデータ解析の仕組みを説明するための図面であり,実際のデータ解析動作では,複数回の試行中に取得された眼球位置の変化速度データの平均値を計算することなく,眼球位置のデータから各提示時間長に対応する眼球位置の変化のデータを直接計算する。
 図5は,様々な第1刺激パターン画像の提示時間長で測定された測定データ(図4に示す眼球位置の変化速度)を,測定時に使用した第1刺激パターン画像の提示時間長の長さ順に並べ替えて示す図である。ここで,各提示時間長に対応する波形のうち例えば80ミリ秒~160ミリ秒の期間の積分値が,各提示時間長に対応する眼球位置の変化を示し,検査対象に固有の時間フィルタを同定するための基礎データに対応する。図5もデータ解析の仕組みを説明するための図面であり,実際のデータ解析動作では,積分値を計算することなく,眼球位置のデータから各提示時間長に対応する眼球位置の変化のデータを直接計算する。
 (1-3)データ解析動作
 以下では,データ解析装置6で実行されるデータ解析動作の内容を説明する。データ解析装置6は,実験制御・データ記録装置4から読み出した測定データを,MATLAB(登録商標)を用いてデータ解析する。具体的には,各提示時間長に対応する眼球位置の変化のデータを,運動エネルギーモデルを用いて解析し,時間フィルタを同定する。データ解析は,以下の手順で実行される。
(1)まず,データ解析装置6は,ディジタルローパスフィルタ(例えば4-pole Butterworth Filter,-3dB at 25Hz)を用い,各試行回について測定された眼球位置のデータから高周波ノイズを除去する。
(2)次に,データ解析装置6は,ノイズを取り除いた眼球位置のデータの時間差分を計算し,眼球位置の変化速度を計算する。
(3)さらに,データ解析装置6は,眼球速度データの時間差分を計算し,眼球位置の変化に関する加速度を計算する。
(4)続いて,データ解析装置6は,眼球速度及び眼球加速度のデータを用い,第2刺激パターン画像の提示が開始される50ミリ秒前(第1刺激パターン画像の提示期間)から第2刺激パターン画像の提示が開始されてから200ミリ秒までの時間区間内にサッケード運動(高速な眼球運動による視線のシフト)が起こった試行を取り除く。本実施例の場合,サッケード運動は,眼球速度が30degree/sを超える眼の動き,又は,眼球加速度が1000degree/sを超える眼の動きとして定義する。
(5)この後,データ解析装置6は,サッケード運動が検出されなかった試行回の測定データのみを対象として,第2刺激パターン画像の提示が開始されてから80ミリ秒後から160ミリ秒後までの間に測定された測定データに基づいて眼球位置の変化(deg)を計算する。本実施例では,第2刺激パターン画像の提示が開始されてから80~160ミリ秒の区間に生じた眼球運動反応を計算するため,160ミリ秒に相当する時刻の眼球位置から80ミリ秒に相当する時刻の眼球位置のデータを減算することによって,眼球運動位置の変化を計算した。もちろん,眼球位置の変化速度の例えば80ミリ秒~160ミリ秒の期間の積分値をその替わりに用いても良い。
(6)次に,データ解析装置6は,各提示時間長に対応する眼球運動反応を得るために,同じ刺激条件について収集された複数回の測定データの平均を計算する。
(7)さらに,データ解析装置6は,S/Nを改善するために,第2刺激パターン画像が第1刺激パターン画像に対して右方向に動いたときの眼球運動反応の平均値と,左方向に動いたときの眼球運動反応の平均値の差分を計算する。なお,仮現運動刺激の方向が逆方向であると,眼球運動反応の方向も逆方向(符号が正負逆)となるため,差分を計算することで測定値を2倍にする効果がある。
 これらの計算の結果,データ解析装置6は,検査対象たる被検者の刺激条件に対する応答特性(測定データ)を得る。図6に,測定された応答特性のイメージを示す。図6の横軸は第1刺激パターン画像の提示時間長であり,縦軸は対応する反応の大きさ(第2刺激パターン画像の提示開始から80~160ミリ秒の間に起こった眼球位置の変化の大きさ)である。
(8)その後,データ解析装置6は,次式で与えられる時間フィルタを含む運動エネルギーモデル(Adelson & Bergen, 1985)に,測定時と同じ刺激条件の画像を入力値として適用し,各刺激条件に対応するシミュレーション結果を計算する。
Figure JPOXMLDOC01-appb-M000001
 ここで,kは時間スケール,bは負の成分の大きさ,Nは次数を規定するパラメータである。なお,運動エネルギーモデルは次数のみが異なるFastフィルタとSlowフィルタの二つの時間フィルタを含む。ここで,Fastフィルタの次数をNfastとし,Slowフィルタの次数をNslow(>Nfast)とする。最初のシミュレーション演算には,各パラメータについて用意した初期値を使用する。
 従って,データ解析装置6は,第1刺激パターン画像と第2刺激パターン画像を入力する1試行回を,第1刺激パターン画像の提示時間長を変更しながら複数回の試行を繰り返すように,前述した運動エネルギーモデルに入力し,これら複数回の入力のそれぞれについてシミュレーション結果を計算する。なお,運動エネルギーモデルの出力は,右方向と左方向のエネルギーの差(以下「運動エネルギーモデル出力」という。)であり,時間の関数で与えられる。
 本実施例では,0~160ミリ秒に相当する時刻の運動エネルギーモデルの平均値をシミュレーション結果とする。もっとも,平均値を計算する区間は,0~160ミリ秒に限らない。また,平均値に代えて積分値を用いても良い。
(9)次に,データ解析装置6は,運動エネルギーモデルのシミュレーション結果と各刺激条件について定量化された応答特性(測定データ)との差が最小になるように,運動エネルギーモデル中の時間フィルタの特性を決めるパラメータの値(k,b)と運動エネルギーモデル全体の出力を調節するスケーリング定数(C)を最適化する。本実施例では,Fast時間フィルタの次数NfastとSlow時間フィルタの次数Nslowをそれぞれ3と6に固定して最適化を実施するが,Nfast及びNslowも同時に最適化しても良い。換言すると,シミュレーション結果と各提示時間長に対応する眼球運動反応の平均値の差分が最小になるように運動エネルギーモデルのパラメータの値を最適化する。眼球運動の時間波形そのものを合わせるのではなく,第1刺激パターン画像の提示時間長に依存して決まる,眼球運動反応の大きさの平均値とモデルの出力とが合致するように最適化する。
 最適化には,非線形最小自乗法などの非線形最適化計算法の既知のアルゴリズムを使用する。図7に,最適化のイメージを示す。運動エネルギーモデルのシミュレーション結果と各刺激条件について定量化された応答特性(測定データ)との差が最小になるパラメータ値が確定した時点で,検査対象たる被験者の視覚の時間分解能の基盤となる視覚系の時間フィルタが定量的に同定される。図8に,同定された時間フィルタの例を示す。同図は測定データを最も良く再現する時間フィルタの例である。
(10)この後,データ解析装置6は,同定された時間フィルタをフーリエ解析し,周波数領域における特性を計算する。図9に,計算される視覚フィルタの周波数特性の一例を示す。本明細書では,周波数特性を表すフィルタと前述した時間フィルタを含めて視覚フィルタという。視覚フィルタより,最適時間周波数,パスバンド周波数帯,最適スピードなどの視覚系の時間分解能や性質を表す定量的な情報を得ることができる。
 (1-4)実施例の効果
 前述したように,本実施例で説明する視覚フィルタ同定装置1を用いれば,眼球運動反応を使用するため,従来技術のような課題(「被験者が検査者の指示を理解しなければならない」,「被験者が随意的に身体を動かして反応しなければならない」,「恣意性の混入により十分な客観性を持ったデータが得られない」等)の心配がなく,視覚系の時間分解能を表す視覚系の時間フィルタを,非侵襲的に客観的かつ定量的に同定することができる。
 本実施例に係る技術は,視覚系の最も基本的な機能(視覚フィルタ)の性能を調べるものであるため,網膜,視神経,大脳皮質一次視覚野,高次視覚野(後頭,頭頂連合野の運動視・空間視領域)の正常・異常の新たな定量的診断法の開発にも利用できる。勿論,本実施例に係る技術は,治療,リハビリテーション,トレーニング等の効果を測定する検査法の開発にも利用できる。
 換言すると,実施例に係る技術は,医学や福祉の分野における様々な診療科(小児科,眼科,神経内科,精神科,リハビリテーションなど)における基本視覚機能の検査,検査機器などの開発に利用することができる。しかも,(1)幼児,児童から成人,(2)質問に対して適切に答えることができない患者,(3)ヒト以外の動物を検査対象に含めることができる。
 また,実施例に係る技術は,反射的な眼球運動反応を手がかりにするので,同一人に対して繰り返し何度でも適用することができる。このため,縦断的検査も可能で,発達や治療の効果の測定に用いることもできる。例えば発達や老化に伴う視覚機能の変化,精神神経疾患に伴う視覚機能の障害の評価するための装置や製品に活用できる。
 本実施例で定量化できる視覚フィルタは,動体視力を決める要因の一つとなる。これまで動体視力の検査法は「動く対象をどれだけ詳細に見ることができるか」という空間分解能を測定するものであったが,本実施例に係る技術は,視覚像の「変化」を見るための時間分解能を測定するものであり,動きそのものの認識に関わるものである。すなわち,これまでには測定されていない動体視力の新たな次元の測定を行うことができ,例えば競技選手の視覚能力を評価する新たな視覚機能検査への活用が期待でき,教育,体育分野の産業における製品開発にも適用可能である。
 また,実施例に係る技術は,実験動物を対象とした実験機器に組み込むことも考えられる。この評価法はマウスなどの動物にも適用することが可能であり,科学研究および創薬などへの活用も期待できる。
 (2)実施例2
 (2-1)ISI(InterStimulus Interval)検査法
 実施例1で説明したMOD検査法は,ISI検査法と組み合わせて用いることもできる。ISI検査法とは,仮現運動刺激を与える第1刺激パターン画像と第2刺激パターン画像の間にそれらの平均輝度値を有する画像を挿入した際に誘発される追従眼球運動を測定する検査方法であり,仮現運動刺激の移動方向とは逆向きの運動を検査対象に知覚させる。
 MOD検査法に基づく測定とISI検査に基づく測定の実行順序については,MOD検査法に基づく測定の実行後に,ISI検査法に基づく測定を実行しても良いし,ISI検査法に基づく測定の実行後に,MOD検査法に基づく測定を実行しても良いし,MOD検査法に基づく測定とISI検査法に基づく測定を交互に実行しても良いし,MOD検査法の各試行とISI検査法の各試行を混ぜてランダムな順序で測定しても良い。以下では,視覚フィルタ同定装置1(図1)を使用するISI検査法について説明する。
 図10及び図11に,ISI検査法における1試行回の画像配置を示す。図10及び図11に示す1試行回に対応する画像の提示は,実験制御・データ記録装置4による制御の下,視覚刺激提示装置3が実行する。
 各試行回は,図10に示すように,(1)注視視標と第1グレー画像をモニタ画面に提示する期間,(2)注視視標と第1刺激パターン画像をモニタ画面に提示する期間,(3)注視視標と第2グレー画像をモニタ画面に提示する期間,(4)第2刺激パターン画像をモニタ画面に提示する期間,(5)第3グレー画像をモニタ画面に提示する期間で構成される。第1刺激パターン画像と第2刺激パターン画像の間に,注視視標と第2グレー画像が提示される点が実施例1との違いである。
 本実施例の場合,第1グレー画像と第2グレー画像と第3グレー画像は,いずれも画面全体が一様な輝度値(例えば5cd/m)を有している。もっとも,第1グレー画像の輝度値と第2グレー画像の輝度値が,第1刺激パターン画像の平均輝度値と第2刺激パターン画像の平均輝度値と同じであれば良い。
 図11に示すように,注視視標と第1グレー画像の提示時間は,試行回毎に異なるように,500~1000ミリ秒の間でランダムに変更される。もっとも,第1グレー画像の提示時間は,例えば500~1000ミリ秒の間の固定長でも良い。この提示時間が経過すると,注視視標と第1刺激パターン画像がモニタ画面に提示される。第1刺激パターン画像には,実施例1と同じ画像を使用する。すなわち,第1刺激パターン画像として,水平方向に沿って,正弦波状に輝度が変化する縦縞パターン(空間周波数:0.25cycles/deg,マイケルソンコントラスト:32%,平均輝度5cd/m)を使用する。ただし,第1刺激パターン画像の提示時間長は,320ミリ秒の固定長である。
 この提示時間が経過すると,注視視標と第2グレー画像がモニタ画面に提示される。第2グレー画像の提示時間長は,試行回毎に異なるようにランダムに可変される。検査対象が提示時間長を予測できないようにするためである。
 本実施例では,各試行回における第2グレー画像の提示時間長を,例えば0ミリ秒,10ミリ秒,20ミリ秒,30ミリ秒,40ミリ秒,60ミリ秒,80ミリ秒,160ミリ秒,320ミリ秒,640ミリ秒の中からランダムに選択する。提示時間長が0ミリ秒とは,第2グレー画像が提示されないことを意味する。
 例えば提示時間長の数が10個である場合,10試行回の間に,同じ提示時間長が重複して出現しないように,10個の提示時間長の中から1つの提示時間長をランダムに選択し,第1刺激パターン画像の提示に使用する。なお,10試行回について,提示時間長が単調に増加する出力形態や提示時間長が単調に減少する出力形態は望ましくない。
 この提示時間が経過すると,モニタ画面上から注視視標が消え,同時に第2刺激パターン画像の提示が開始される。第2刺激パターン画像には,実施例1と同じ画像を使用する。すなわち,第2刺激パターン画像は,第1刺激パターン画像と同じパターン画像であるが,その位相が,第1刺激パターン画像に対して90°(1/4波長)右又は左にずれたものを使用する。位相のずれ量は各試行回で同じである。本実施例では,第2刺激パターン画像を200ミリ秒提示する。なお,反射的に生じる眼球位置の変化の測定に用いる期間は,実施例1と同じである
 第2刺激パターン画像の提示時間長が経過すると,第3グレー画像がモニタ画面上に提示される。第3グレー画像には注視視標が提示されない。本実施例の場合も,第3グレー画像の提示時間長は約1.5秒であり,この提示時間長が経過すると,次の試行回が開始される。各試行を繰り返す回数は,実施例1と同様である。
 図12に,第2グレー画像の提示時間長が10ミリ秒となる刺激条件で測定したデータ(眼球位置の変化)を,眼球位置の変化速度に換算した波形例を示す。図12は,同じ刺激条件で行われた複数回の試行中に取得された複数の測定データの平均値に対応する変化速度の波形を表しており,より正確には,右方向への動きを与えた場合の測定データから左方向への動きを与えた場合の測定データを差し引いた波形を表している。図12の横軸は,第2刺激パターン画像の提示を開始した時間をゼロとした経過時間(ミリ秒)であり,縦軸は,眼球位置の変化速度である。眼球位置の変化速度への換算処理は,データ解析装置6が実行する。また,実験制御・データ記録装置4は,各測定回の測定データに対して,第2グレー画像の提示時間長と仮現運動の方向を対応付け,ハードディスク等に記録する。従って,全ての試行回の終了時点には,図13に示す測定データがハードディスク上に記録されることになる。
 図13は,様々な第2グレー画像の提示時間長で測定された測定データ(図12に示す眼球位置の変化速度)を,測定時に使用した第2グレー画像の提示時間長の長さ順に並べて示す図である。ここで,各提示時間長に対応する波形のうち例えば80ミリ秒~160ミリ秒の期間の積分値が,各提示時間長に対応する眼球位置の変化を示し,検査対象に固有の時間フィルタを同定するための基礎データに対応する。なお,ISI検査法におけるデータ解析動作はMOD検査法のデータ解析動作と同じであるので説明を省略する。
 図14に,MOD検査法を用いて測定した応答特性の測定データとISI検査法を用いて測定した応答特性の測定データを同じ時間軸上に配置した応答特性のイメージを示す。ISI検査法では第1刺激パターン画像の提示時間長が320ミリ秒と長いため,MOD検査法に対応する測定データの後ろ側に配置される。この図の場合,MOD検査法における第1刺激パターン画像の提示時間長の最大値は320ミリ秒である。
 (2-2)実施例の効果
 以上説明したように,モニタ画面に提示する画面の組合せを替えてMOD検査とISI検査をそれぞれ実行し,それらの測定データをデータ解析すれば,眼球運動反応に加えて主観的視知覚に関する視覚フィルタを1台の視覚フィルタ同定装置1を用いて,非侵襲的に客観的かつ定量的に同定することができる。
1…視覚フィルタ同定装置,
2…刺激提示用モニタ,
3…視覚刺激提示装置,
4…実験制御・データ記録装置,
5…眼球運動測定装置,
6…データ解析装置。

Claims (8)

  1. (a)検査対象の前方に配置したモニタ上に,一様に一定輝度を有する初期画像,前記初期画像と同じ平均輝度を有する第1刺激パターン画像,前記第1刺激パターン画像と共に仮現運動を惹起する第2刺激パターン画像を順番に提示するステップと,
    (b)前記第2刺激パターン画像の提示中における一定期間内に眼球運動を測定し,測定時に用いた前記第1刺激パターン画像の提示時間長と対応付けて保存するステップと,
    (c)前記(a)及び前記(b)に示す各ステップの実行を1試行回とし,各試行回で使用する前記第1刺激パターン画像の提示時間長の設定を変更しながら,複数回の試行を繰り返すステップと,
    (d)前記(c)のステップにおける各試行回について,測定された前記眼球運動の測定データに基づいて視線方向の変化を計算するステップと,
    (e)眼球運動反応の運動エネルギーモデルに,前記第1刺激パターン画像と前記第2刺激パターン画像を入力してシミュレーション結果を計算するステップと,
    (f)前記(d)のステップで得られた視線方向の前記変化と,前記変化に対応付けられた前記提示時間長とによって特定される測定波形と,前記(e)のステップで得られたシミュレーション結果との差が最小になるように,前記運動エネルギーモデルのパラメータ値を最適化し,検査対象に固有の時間フィルタを計算するステップと,
     を有することを特徴とする視覚フィルタ同定方法。
  2.  請求項1に記載の視覚フィルタ同定方法において,
     前記(d)のステップにおいて,
      同じ提示時間長について測定された複数個の前記測定データの平均値を,当該提示時間長における視線方向の前記変化の代表値として使用する
     ことを特徴とする視覚フィルタ同定方法。
  3.  請求項1に記載の視覚フィルタ同定方法において,
     前記(a)及び前記(b)の各ステップにおいて,前記第1刺激パターン画像の各提示時間長について,前記第2刺激パターン画像として,第1の方向への仮現運動を惹起するパターン画像を提示する第1の試行と,前記第1の方向とは逆向きの第2の方向への仮現運動を惹起するパターン画像を提示する第2の試行とを行い,
     前記(d)のステップにおいて,前記第1の試行における変化と前記第2の試行における変化との差分を,各提示時間長について更に計算し,算出された値を前記提示時間長に対応する前記変化の代表値として使用する,
     ことを特徴とする視覚フィルタ同定方法。
  4.  請求項1に記載の視覚フィルタ同定方法において,
    (g)前記時間フィルタをフーリエ解析して周波数領域における特性を同定するステップ を更に有することを特徴とする視覚フィルタ同定方法。
  5.  請求項1に記載の視覚フィルタ同定方法において,
     前記(b)のステップにおける前記一定期間は,前記第2刺激パターン画像の提示開始から50ミリ秒~200ミリ秒の区間である
     ことを特徴とする視覚フィルタ同定方法。
  6.  請求項1に記載の視覚フィルタ同定方法において,
     前記第1刺激パターン画像と前記第2刺激パターン画像はいずれも空間周波数が等しいパターンであり,前記第2刺激パターン画像の前記第1刺激パターン画像に対する位相θのずれは,一定方向に対して0°<θ<180°である
     ことを特徴とする視覚フィルタ同定方法。
  7.  請求項1に記載の視覚フィルタ同定方法において,
     前記初期画像と前記第1刺激パターン画像には注視視標が表示される
     ことを特徴とする視覚フィルタ同定方法。
  8.  検査対象の前方に配置されたモニタ上に,一様に一定輝度を有する初期画像,前記初期画像と同じ平均輝度を有する第1刺激パターン画像,前記第1刺激パターン画像と共に仮現運動を惹起する第2刺激パターン画像を順番に提示させる視覚刺激提示部であり,各試行回で使用する前記第1刺激パターン画像の提示時間長の設定を変更しながら,前記初期画像,前記第1刺激パターン画像及び前記第2刺激パターン画像の提示を複数回繰り返す視覚刺激提示部と,
     前記第2刺激パターン画像の提示中における一定期間内に測定された眼球運動の測定データを,測定時に用いた前記第1刺激パターン画像の提示時間長と対応付けて記録するデータ記録部と,
     個々の前記提示時間長について測定された前記眼球運動の測定データに基づいて視線方向の変化を計算する第1の計算部と,眼球運動反応の運動エネルギーモデルに,前記第1刺激パターン画像と前記第2刺激パターン画像を入力してシミュレーション結果を計算する第2の計算部と,前記提示時間長と対応する視線方向の前記変化とによって特定される測定波形と,前記シミュレーション結果との差が最小になるように,前記運動エネルギーモデルのパラメータ値を最適化し,検査対象に固有の時間フィルタを計算する第3の計算部を有するデータ解析部と
     を有することを特徴とする視覚フィルタ同定装置。
PCT/JP2017/012067 2016-03-24 2017-03-24 視覚フィルタ同定方法及び装置 WO2017164383A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018507448A JP6765131B2 (ja) 2016-03-24 2017-03-24 視覚フィルタ同定方法及び装置
EP17770423.6A EP3434194A4 (en) 2016-03-24 2017-03-24 METHOD AND DEVICE FOR IDENTIFYING VISUAL FILTER
US16/087,807 US20210177257A1 (en) 2016-03-24 2017-03-24 Visual filter identification method and device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016059657 2016-03-24
JP2016-059657 2016-03-24

Publications (1)

Publication Number Publication Date
WO2017164383A1 true WO2017164383A1 (ja) 2017-09-28

Family

ID=59900436

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/012067 WO2017164383A1 (ja) 2016-03-24 2017-03-24 視覚フィルタ同定方法及び装置

Country Status (4)

Country Link
US (1) US20210177257A1 (ja)
EP (1) EP3434194A4 (ja)
JP (1) JP6765131B2 (ja)
WO (1) WO2017164383A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019167899A1 (ja) * 2018-03-01 2019-09-06 株式会社Jvcケンウッド 視機能検出装置、視機能検出方法及びプログラム
JP2019150253A (ja) * 2018-03-01 2019-09-12 株式会社Jvcケンウッド 視機能検出装置、視機能検出方法及びプログラム
JP2019150252A (ja) * 2018-03-01 2019-09-12 株式会社Jvcケンウッド 視機能検出装置、視機能検出方法及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014021673A (ja) * 2012-07-17 2014-02-03 Toshiba Corp 画像提示装置及び方法
JP2014236944A (ja) * 2013-06-07 2014-12-18 イスイックス・ワールド株式会社 眼球運動測定装置
JP2015072709A (ja) * 2014-11-28 2015-04-16 株式会社東芝 画像提示装置、方法、及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4570796B2 (ja) * 2001-02-08 2010-10-27 株式会社トプコン コントラストチャート装置
WO2002062208A1 (en) * 2001-02-08 2002-08-15 Topcon Corporation Contrast chart apparatus, contrast sensitivity measuring apparatus, and contrast sensitivity measuring method
GB0513603D0 (en) * 2005-06-30 2005-08-10 Univ Aberdeen Vision exercising apparatus
US20070166675A1 (en) * 2005-12-15 2007-07-19 Posit Science Corporation Cognitive training using visual stimuli
US8992019B2 (en) * 2012-01-06 2015-03-31 Baylor College Of Medicine System and method for evaluating ocular health

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014021673A (ja) * 2012-07-17 2014-02-03 Toshiba Corp 画像提示装置及び方法
JP2014236944A (ja) * 2013-06-07 2014-12-18 イスイックス・ワールド株式会社 眼球運動測定装置
JP2015072709A (ja) * 2014-11-28 2015-04-16 株式会社東芝 画像提示装置、方法、及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BURR; MORRONE, J. OPT. SOC. AM. A, 1993
See also references of EP3434194A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019167899A1 (ja) * 2018-03-01 2019-09-06 株式会社Jvcケンウッド 視機能検出装置、視機能検出方法及びプログラム
JP2019150253A (ja) * 2018-03-01 2019-09-12 株式会社Jvcケンウッド 視機能検出装置、視機能検出方法及びプログラム
JP2019150252A (ja) * 2018-03-01 2019-09-12 株式会社Jvcケンウッド 視機能検出装置、視機能検出方法及びプログラム
JP7043890B2 (ja) 2018-03-01 2022-03-30 株式会社Jvcケンウッド 視機能検出装置、視機能検出方法及びプログラム
JP7043889B2 (ja) 2018-03-01 2022-03-30 株式会社Jvcケンウッド 視機能検出装置、視機能検出方法及びプログラム

Also Published As

Publication number Publication date
US20210177257A1 (en) 2021-06-17
JPWO2017164383A1 (ja) 2019-02-07
EP3434194A1 (en) 2019-01-30
EP3434194A4 (en) 2019-11-13
JP6765131B2 (ja) 2020-10-07

Similar Documents

Publication Publication Date Title
US12059207B2 (en) Cognitive training system with binocular coordination analysis and cognitive timing training feedback
US8668337B2 (en) System for the physiological evaluation of brain function
US9101312B2 (en) System for the physiological evaluation of brain function
JP6585058B2 (ja) 患者の生理的摂動を決定するための装置と方法
EP2482710B1 (en) System and method for applied kinesiology feedback
JP6530239B2 (ja) 両眼計測装置、両眼計測方法、及び両眼計測プログラム
JP2019122816A (ja) 神経疾患を検出するためのシステムおよび方法
JP2018520820A (ja) 視覚の様相を検査する方法及びシステム
JP2012050759A (ja) 視覚疲労度検出装置、視覚疲労度制御装置及び視覚疲労度検出方法
US11317861B2 (en) Vestibular-ocular reflex test and training system
WO2017164383A1 (ja) 視覚フィルタ同定方法及び装置
AU2017372951A1 (en) Stimulus and eye tracking system
JP2024512045A (ja) メンタルヘルスを診断および監視するための視覚システム
RU2480142C2 (ru) Устройство и способ дистанционной оценки характеристик зрительного анализатора человека и проведения тренинговых упражнений для развития бинокулярных и высших зрительных функций
JP2008206830A (ja) 統合失調症診断装置及びプログラム
JP6497005B2 (ja) 視機能測定装置、および視機能測定プログラム
Różanowski et al. Estimation of operators’ fatigue using optical methods for determination of pupil activity
Ichige et al. Visual assessment of distorted view for metamorphopsia patient by interactive line manipulation
RU98682U1 (ru) Устройство для оценки психофизиологического состояния человека
DK3287074T3 (en) Method of recording the cerebral cognition time and device for recording the cerebral cognition time
JP3937871B2 (ja) 眼振検査装置およびそれに用いるプログラムおよび記録媒体
JP7572435B2 (ja) 欺まん検出のための眼球システム
US20240268660A1 (en) Determining a visual performance of an eye of a person
JP2006167276A (ja) 固視微動量推定方法、装置、及びプログラム並びに該プログラムを記録した記録媒体
RU2484760C1 (ru) Способ диагностирования состояния глазодвигательных мышц

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018507448

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017770423

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017770423

Country of ref document: EP

Effective date: 20181024

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17770423

Country of ref document: EP

Kind code of ref document: A1