WO2021161573A1 - 眼球運動検査装置 - Google Patents

眼球運動検査装置 Download PDF

Info

Publication number
WO2021161573A1
WO2021161573A1 PCT/JP2020/035367 JP2020035367W WO2021161573A1 WO 2021161573 A1 WO2021161573 A1 WO 2021161573A1 JP 2020035367 W JP2020035367 W JP 2020035367W WO 2021161573 A1 WO2021161573 A1 WO 2021161573A1
Authority
WO
WIPO (PCT)
Prior art keywords
coordinates
hess
basic
chart
basic coordinates
Prior art date
Application number
PCT/JP2020/035367
Other languages
English (en)
French (fr)
Inventor
浩紀 升本
仁志 田淵
Original Assignee
株式会社シンクアウト
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社シンクアウト filed Critical 株式会社シンクアウト
Priority to JP2022500222A priority Critical patent/JPWO2021161573A1/ja
Publication of WO2021161573A1 publication Critical patent/WO2021161573A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient

Definitions

  • the present invention relates to an eye movement test device.
  • Ocular motility disorder appears as a symptom of various diseases such as brain surgical diseases and medical diseases as well as ophthalmic diseases (see Non-Patent Document 1).
  • Hess charts are very important for understanding the nature of ocular motility disorders and their causes. On the Hess chart, for example, the functions of the eye position and the eye muscles at each measurement point of the nine-direction eye position are illustrated and recorded as a cohesive eye position diagram for each of the left and right eyes.
  • the eye movement test apparatus includes an image acquisition unit, a data calculation unit, a disease name acquisition unit, and a display unit.
  • the image acquisition unit acquires one or more Hess chart images.
  • the data calculation unit calculates numerical data regarding the deviation between the basic coordinates and the light spot for each basic coordinate in one or a plurality of Hess chart images obtained by the image acquisition unit.
  • the disease name acquisition unit inputs the deviation data obtained by the data calculation unit, in which the numerical data for each basic coordinate is arranged according to a predetermined rule, into the learning model, and acquires the disease name corresponding to the hess chart from the learning model. ..
  • the display unit displays the disease name obtained by the disease name acquisition unit.
  • the eye movement inspection device In the eye movement inspection device according to the embodiment of the present invention, numerical data regarding the deviation between the basic coordinates and the light spot for each basic coordinate in one or a plurality of Hess chart images obtained by the image acquisition unit is calculated. After that, the deviation data obtained by the data calculation unit in which the numerical data for each basic coordinate is arranged according to a predetermined rule is input to the learning model, and the disease name corresponding to the Hess chart is acquired from the learning model.
  • the Hess chart image is not directly input to the learning model, but the numerical deviation data obtained from the Hess chart image is input to the learning model. This makes it possible to estimate the disease name with high accuracy in the learning model. As a result, even inexperienced doctors can handle Hess charts.
  • FIG. 1 is for explaining the outline of the Hess screen test carried out in this embodiment.
  • a Hess chart board 100, glasses 200 and a spotlight 300 are used.
  • the Hess chart board 100 is for quantitatively measuring the nine-direction eye position under each right and left eye fixation, and the surface of the Hess chart board 100 has a grid of Hess charts and nine basic coordinates. Points A to I are drawn.
  • the surface of the Hess chart board 100 is a black background, and the grid of the Hess chart and the nine basic coordinate points A to I are drawn in red.
  • the basic coordinate points A are arranged in front of the subject, and the basic coordinate points B to I are sequentially arranged around the basic coordinate points A in the clockwise direction at predetermined intervals.
  • the basic coordinate point B is located above the subject (+ 90 ° with respect to the X axis), and the basic coordinate point C is located diagonally upward to the right of the subject (+ 45 ° with respect to the X axis).
  • the basic coordinate point D is located to the right of the subject (+ 0 ° with respect to the X-axis), and the basic coordinate point E is diagonally downward to the right of the subject (-with respect to the X-axis).
  • the basic coordinate point F is located below the subject (-90 ° with respect to the X-axis), and the basic coordinate point G is located diagonally below the subject (-90 ° with respect to the X-axis). It is placed at a position (-135 ° direction with respect to the X axis), the basic coordinate point H is placed at a position to the left of the subject (+ 180 ° direction with respect to the X axis), and the basic coordinate point I is the test subject. It is placed diagonally above the left side of the person (+ 135 ° with respect to the X axis).
  • the subject wears glasses 200 in which the red glass 210 and the green glass 220 are detachably fixed to the frame, and visually recognizes the Hess chart board 100.
  • the subject wears glasses 200, and while visually recognizing the heschart board 100, irradiates the green light Lg emitted from the spotlight 300 toward the basic coordinates A to I, and illuminates the hess chart board 100. Form a spot P. This makes it possible to separate the images (light sources) that can be seen by the left and right eyes by the difference in color and make it difficult for kinetic fusion to occur.
  • FIG. 2 shows a schematic configuration example of the eye movement inspection device 10 according to the embodiment of the present invention.
  • the eye movement test device 10 is a device that records a hess screen test using the hes chart board 100 and outputs a disease name according to the result of the recorded hess screen test.
  • the eye movement inspection device 10 includes, for example, a control unit 11, an imaging unit 12, a communication unit 13, a memory 14, a learning model 15, an input unit 16, and a display unit 17.
  • the control unit 11 is configured to include a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and controls, for example, an operating system stored in the memory 14 and various devices included in the eye movement test device 10. Execute a control program (not shown). The control unit 11 further executes, for example, the program 14A stored in the memory 14. The program 14A records a hess screen test using the hes chart board 100, and causes the control unit 11 to execute a series of procedures for outputting a disease name according to the result of the recorded hess screen test.
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • control unit 11 (hereinafter, simply referred to as “control unit 11”) loaded with the program 14A controls imaging by the imaging unit 12 based on a control signal input from the shutter button 500 via the communication unit 13. do.
  • the medical staff can take an image of the Hess chart board 100 by the image pickup unit 12 by pressing the shutter button 500 at a predetermined timing.
  • the subject 400 wears glasses 200, and while visually recognizing the Hess chart board 100, the green light Lg emitted from the spotlight 300 is set to the basic coordinates A to I.
  • the hess chart board 100 is imaged by the imaging unit 12 Image by.
  • the control unit 11 stores the nine Hess chart images I1 to I9 obtained by the imaging unit 12 in the memory 14.
  • the control unit 11 has nine Heschart images I1 to I9 obtained when the red glass 210 is attached to the left eye and the green glass 220 is attached to the right eye (hereinafter, "9 when the left eye is fixed").
  • Heschart images I1 to I9 9 Heschart images I1 to I9 (hereinafter referred to as "Heschart images I1 to I9") and nine Hesschart images I1 to I9 obtained when the red glass 210 is attached to the right eye and the green glass 220 is attached to the left eye.
  • “9 images of Hess chart images I1 to I9 when the right eye is fixed” are stored in the memory 14.
  • “9 hess chart images I1 to I9 when left eye fixation and 9 heschart images I1 to I9 when right eye fixation” are appropriately referred to as "18 hescharts”. It shall be referred to as "Image I”.
  • the control unit 11 reads the nine Hess chart images I1 to I9 when the left eye is fixed and the nine Hess chart images I1 to I9 when the right eye is fixed from the memory 14.
  • the control unit 11 reads from the memory 14 and has the basic coordinates A, B, C, D, E, F, for each of the basic coordinates A to I in the nine Hess chart images I1 to I9 when the left eye is fixed.
  • the numerical data 110 regarding the deviation between G, H or I and the light spot is calculated.
  • the control unit 11 further reads the basic coordinates A, B, C, D, E, for each of the basic coordinates A to I in the nine Hess chart images I1 to I9 when the right eye is fixed, read from the memory 14.
  • the numerical data 110 regarding the deviation between F, G, H or I and the light spot is calculated.
  • the light spot is an irradiation spot formed on the heschart board 100 by the green light Lg emitted from the spotlight 300.
  • the control unit 11 calculates the numerical data 110 in the nine Hess chart images I1 to I9 when the left eye is fixed, for each of the basic coordinates A to I.
  • the control unit 11 further calculates the numerical data 110 in the nine Hess chart images I1 to I9 when the right eye is fixed, for each of the basic coordinates A to I.
  • the control unit 11 calculates numerical data 110 regarding the deviation between the basic coordinates A and the light spot generated by irradiating the basic coordinates A from the Hess chart image I1.
  • the control unit 11 calculates numerical data 110 regarding the deviation between the basic coordinates B and the light spot generated by irradiating the basic coordinates B from the Hess chart image I2.
  • the control unit 11 calculates numerical data 110 regarding the deviation between the basic coordinates C and the light spot generated by irradiating the basic coordinates C from the Hess chart image I3.
  • the control unit 11 calculates numerical data 110 regarding the deviation between the basic coordinates D and the light spot generated by irradiating the basic coordinates D from the Hess chart image I4.
  • the control unit 11 calculates numerical data 110 regarding the deviation between the basic coordinates E and the light spot generated by irradiating the basic coordinates E from the Hess chart image I5.
  • the control unit 11 calculates numerical data 110 regarding the deviation between the basic coordinates F and the light spot generated by irradiating the basic coordinates F from the Hess chart image I6.
  • the control unit 11 calculates numerical data 110 regarding the deviation between the basic coordinates G and the light spot generated by irradiating the basic coordinates G.
  • the control unit 11 calculates numerical data 110 regarding the deviation between the basic coordinates H and the light spot generated by irradiating the basic coordinates H.
  • the control unit 11 calculates numerical data 110 regarding the deviation between the basic coordinates I and the light spot generated by irradiating the basic coordinates I.
  • the numerical data 110 is, for example, as shown in FIG. 3, a deviation amount 111 at the basic coordinates 112 (basic coordinates A to I).
  • the deviation amount 111 is represented by the difference between the basic coordinates 112 (basic coordinates A to I) and the light spot coordinates.
  • the basic coordinates 112 are the coordinates of the basic coordinates A, B, C, D, E, F, G, H or I on the Hess chart board 100.
  • the light spot coordinates are the coordinates on the Hess chart board 100 of the irradiation spot formed by the irradiation by the spotlight 300.
  • the deviation amount 111 is represented by the deviation amount ⁇ X in the left-right direction (X-axis direction) between the basic coordinates 112 and the light spot coordinates and the deviation amount ⁇ Y in the vertical direction (Y-axis direction) between the basic coordinates 112 and the light spot coordinates. Will be done.
  • the control unit 11 generates a sequence (deviation data) in which the deviation amount 111 for each basic coordinate 112 is arranged according to a predetermined rule.
  • the control unit 11 has, for example, a deviation amount 111 ( ⁇ Xa, ⁇ Ya) at the basic coordinates A (Xa1, Ya1), a deviation amount 111 ( ⁇ Xb, ⁇ Yb) at the basic coordinates B (Xb1, Yb1), and basic coordinates C (Xc1, Yc1).
  • control unit 11 further generates, for example, a sequence for left-eye fixation and a sequence for right-eye fixation, and generates a sequence obtained by combining these sequences as an input value Din of the learning model 15. ..
  • the deviation amount 111 ( ⁇ Xa, ⁇ Ya) is, for example, the coordinates (Xa2) of the light spot formed on the hess chart board 100 by the basic coordinates A (Xa1, Ya1) and the green light Lg irradiated toward the basic coordinates A. , Ya2).
  • the deviation amount 111 ( ⁇ Xb, ⁇ Yb) is, for example, the coordinates (Xb2) of the light spot formed on the hess chart board 100 by the basic coordinates B (Xb1, Yb1) and the green light Lg emitted toward the basic coordinates B. , Yb2).
  • the deviation amount 111 ( ⁇ Xc, ⁇ Yc) is, for example, the coordinates (Xc2) of the light spot formed on the hess chart board 100 by the basic coordinates C (Xc1, Yc1) and the green light Lg emitted toward the basic coordinates C. , Yc2).
  • the deviation amount 111 ( ⁇ Xd, ⁇ Yd) is, for example, the coordinates (Xd2) of the light spot formed on the hess chart board 100 by the basic coordinates D (Xd1, Yd1) and the green light Lg emitted toward the basic coordinates D. , Yd2).
  • the deviation amount 111 ( ⁇ Xe, ⁇ Ye) is, for example, the coordinates (Xe2) of the light spot formed on the hess chart board 100 by the basic coordinates E (Xe1, Ye1) and the green light Lg emitted toward the basic coordinates E. , Ye2).
  • the deviation amount 111 ( ⁇ Xf, ⁇ Yf) is, for example, the coordinates (Xf2) of the light spot formed on the hess chart board 100 by the basic coordinates F (Xf1, Yf1) and the green light Lg emitted toward the basic coordinates F. , Yf2).
  • the deviation amount 111 ( ⁇ Xg, ⁇ Yg) is, for example, the coordinates (Xg2) of the light spot formed on the heschart board 100 by the basic coordinates G (Xg1, Yg1) and the green light Lg emitted toward the basic coordinates G. , Yg2).
  • the deviation amount 111 ( ⁇ Xh, ⁇ Yh) is, for example, the coordinates (Xh2) of the light spot formed on the hess chart board 100 by the basic coordinates H (Xh1, Yh1) and the green light Lg emitted toward the basic coordinates H. , Yh2).
  • the deviation amount 111 ( ⁇ Xi, ⁇ Yi) is, for example, the coordinates (Xi2) of the light spot formed on the hess chart board 100 by the basic coordinates I (Xi1, Yi1) and the green light Lg emitted toward the basic coordinates I. , Yi2).
  • the control unit 11 inputs the generated input value Din into the learning model 15, and acquires the disease name corresponding to the hess chart as a response (output value Dout) to the input value Din from the learning model 15.
  • the control unit 11 generates a video signal including the acquired disease name and outputs it to the display unit 17.
  • the image pickup unit 12 is, for example, a camera configured to include a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary metal-axis-semicondutor) image sensor.
  • the imaging unit 12 images the hess chart board 100 under the control of the control unit 11, and outputs the hess chart image obtained thereby to the control unit 11.
  • the imaging unit 12 acquires nine Hess chart images I1 to I9 by imaging, and outputs the acquired nine Hess chart images I1 to I9 to the control unit 11.
  • the communication unit 13 receives the control signal output from the shutter button 500, and outputs the received control signal to the control unit 11.
  • the memory 14 stores a program (for example, an operating system) executed by the control unit 11.
  • the memory 14 is composed of, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), an auxiliary storage device (hard disk, etc.), and the like.
  • the memory 14 further stores the program 14A.
  • the learning model 15 When the input value Din is input, the learning model 15 outputs the disease name corresponding to the Hess chart as a response to the input value Din (output value Dout).
  • machine learning is performed using the input value Din for learning as an explanatory variable and the doctor's diagnosis result (disease name) for the hess chart which is the original data of the input value Din for learning as the objective variable. It is a model.
  • the learning model 15 is composed of, for example, artificial intelligence (AI).
  • the input unit 16 receives an instruction from the outside (for example, a user) and outputs the received instruction to the control unit 11.
  • the input unit 16 may be, for example, a mechanical input interface including buttons, dials, or the like, or a voice input interface including a microphone or the like.
  • the input unit 16 may be, for example, a touch panel provided on the display surface of the display unit 17.
  • the display unit 17 is composed of a panel-type display device such as a liquid crystal panel or an organic EL (Electroluminescence) panel, for example.
  • the display unit 17 displays an image based on the image signal input from the control unit 11.
  • the display unit 17 displays the disease name obtained by the learning model 15.
  • FIG. 4 shows an example of the inspection procedure in the eye movement inspection device 10.
  • the subject 400 sits facing the heschart board 100 and fixes his head on the chin rest / chin rest.
  • the subject 400 wears the green glass 220 on the right eye and the red glass 210 on the left eye, and holds the spotlight 300 in his hand.
  • the subject 400 while visually recognizing the hess chart board 100, directs the green light Lg emitted from the spotlight 300 toward the basic coordinates A to I, and the basic coordinates A, B, C, D, E. , F, G, H, I in that order.
  • the medical staff performs a shutter at the timing when the green light Lg is irradiated toward the basic coordinates A to I in the order of the basic coordinates A, B, C, D, E, F, G, H, I. Press the button 500.
  • the imaging unit 12 acquires the nine Hess chart images I1 to I9 when the left eye is fixed by imaging, and controls the nine Hess chart images I1 to I9 when the acquired left eye is fixed.
  • the control unit 11 acquires nine Hess chart images I1 to I9 for left eye fixation from the imaging unit 12 (step S101).
  • the control unit 11 stores the acquired nine Hess chart images I1 to I9 at the time of fixation with the left eye in the memory 14.
  • the subject 400 wears the red glass 210 on the right eye and the green glass 220 on the left eye, and while visually recognizing the hess chart board 100, the green light Lg emitted from the spotlight 300 is set to the basic coordinates A.
  • the basic coordinates A, B, C, D, E, F, G, H, and I are irradiated in this order.
  • the medical staff performs a shutter at the timing when the green light Lg is irradiated toward the basic coordinates A to I in the order of the basic coordinates A, B, C, D, E, F, G, H, I. Press the button 500.
  • the imaging unit 12 acquires the nine Hess chart images I1 to I9 when the right eye is fixed by imaging, and controls the nine Hess chart images I1 to I9 when the acquired right eye is fixed. Output to unit 11.
  • the control unit 11 acquires nine Hess chart images I1 to I9 for right eye fixation from the imaging unit 12 (step S101).
  • the control unit 11 stores the acquired nine Hess chart images I1 to I9 for right eye fixation in the memory 14.
  • the control unit 11 reads the nine Hess chart images I1 to I9 when the left eye is fixed from the memory 14, and the nine Hess chart images I1 to I9 when the left eye is fixed are read out.
  • Numerical data 110 (deviation amount 111) relating to the deviation between the basic coordinates A, B, C, D, E, F, G, H or I and the light spot for each of the basic coordinates A to I is calculated.
  • the control unit 11 calculates the numerical data 110 (deviation amount 111) in the nine Hess chart images I1 to I9 when the left eye is fixed, for each of the basic coordinates A to I (step S102).
  • the control unit 11 further reads out nine Hess chart images I1 to I9 when the right eye is fixed from the memory 14, and reads out the basics of the nine Hess chart images I1 to I9 when the right eye is fixed.
  • Numerical data 110 (deviation amount 111) relating to the deviation between the basic coordinates A, B, C, D, E, F, G, H or I and the light spot for each of the coordinates A to I is calculated.
  • the control unit 11 calculates the numerical data 110 (deviation amount 111) in the nine Hess chart images I1 to I9 when the right eye is fixed, for each of the basic coordinates A to I (step S102).
  • the control unit 11 generates a sequence (deviation data) in which the deviation amount 111 for each basic coordinate 112 is arranged according to a predetermined rule.
  • the control unit 11 generates a sequence of the amount of deviation 111 when the left eye is fixed, and a sequence of the amount of deviation 111 when the right eye is fixed, and the sequence obtained by combining these sequences is the input value of the learning model 15.
  • Generate as Din The control unit 11 inputs the generated input value Din to the learning model 15 (step S103).
  • the control unit 11 acquires the disease name corresponding to the Hess chart as a response (output value Dout) to the input value Din from the learning model 15 (step S104).
  • the control unit 11 generates a video signal including the acquired disease name and outputs it to the display unit 17.
  • the display unit 17 displays the disease name obtained by the learning model 15. In this way, the inspection in the eye movement inspection apparatus 10 is carried out.
  • Ocular motility disorder appears as a symptom of various diseases such as brain surgical diseases and medical diseases as well as ophthalmic diseases.
  • Hess charts are very important for understanding the nature of ocular motility disorders and their causes. However, the diagnosis of an experienced doctor is essential to identify possible diseases from the Hess chart.
  • the numerical data 110 regarding the deviation between the basic coordinates 112 and the light spot coordinates for each of the basic coordinates 112 in the 18 Hess chart images I obtained by the imaging unit 12 is calculated.
  • the deviation amount 111 which is the difference between the basic coordinates 112 and the light spot coordinates.
  • a sequence of numerical data 110 (deviation amount 111) for each basic coordinate 112 arranged according to a predetermined rule is input to the learning model 15 as an input value Din, and the learning model 15 responds to the input value Din (output value Dout).
  • the disease name corresponding to the coordinate is acquired.
  • the 18 Hess chart images I are not directly input to the learning model 15, but the numerical sequence obtained from the 18 Hess chart images I is obtained. It is input to the learning model 15. This makes it possible to estimate the disease name with high accuracy in the learning model 15. As a result, even inexperienced doctors can handle Hess charts.
  • the imaging unit 12 is a camera, and each time a light spot is irradiated on the hess chart board 100 toward the basic coordinates 112, the hes chart board 100 is imaged by the camera to obtain 18 images.
  • the Hess chart image I is acquired.
  • FIG. 5 shows an example of a modification of the input / output values to the learning model 15.
  • the control unit 11 uses the numerical data 110 as the optical spot coordinates 113 for each of the basic coordinates A to I in the nine Hess chart images I1 to I9 when the left eye is fixed, and the right eye is fixed.
  • the light spot coordinates 113 for each of the basic coordinates A to I in the nine Hess chart images I1 to I9 may be calculated.
  • the control unit 11 sets the basic coordinates 112, the light spot coordinates 113 when the left eye is fixed, and the light spot coordinates 113 when the right eye is fixed as the input value Din to be input to the learning model 15.
  • a sequence of numbers may be generated. Even in this case, the disease name can be estimated with high accuracy in the learning model 15. As a result, even inexperienced doctors can handle Hess charts.
  • FIG. 6 shows an example of the inspection procedure in the eye movement inspection device 10.
  • the control unit 11 uses the same method as that of the above embodiment to display the nine heschart images I1 to I9 when the left eye is fixed and the nine heschart images I1 to when the right eye is fixed. Acquire I9 (step S101).
  • the control unit 11 stores the acquired nine Hess chart images I1 to I9 for left eye fixation and nine Hess chart images I1 to I9 for right eye fixation in the memory 14.
  • control unit 11 reads the nine Hess chart images I1 to I9 when the left eye is fixed from the memory 14, and the nine Hess chart images I1 to I9 when the left eye is fixed are read out.
  • the light spot coordinates 113 for each of the basic coordinates A to I are calculated (step S102).
  • the control unit 11 further reads out nine Hess chart images I1 to I9 when the right eye is fixed from the memory 14, and reads out the basics of the nine Hess chart images I1 to I9 when the right eye is fixed.
  • the light spot coordinates 113 for each of the coordinates A to I are calculated (step S102).
  • control unit 11 generates a sequence (deviation data) in which the light spot coordinates 113 for each basic coordinate 112 are arranged according to a predetermined rule.
  • the control unit 11 has, for example, the light spot coordinates 113 (Xa2, Ya2) at the basic coordinates A (Xa1, Ya1), the light spot coordinates 113 (Xb2, Yb2) at the basic coordinates B (Xb1, Yb1), and the basic coordinates C (Xc1).
  • Yc1 light spot coordinates 113 (Xc2, Yc2), basic coordinates D (Xd1, Yd1) light spot coordinates 113 (Xd2, Yd2), basic coordinates E (Xe1, Ye1) light spot coordinates 113 (Xe2, Ye2) ), Light spot coordinates 113 (Xf2, Yf2) at basic coordinates F (Xf1, Yf1), light spot coordinates 113 (Xg2, Yg2) at basic coordinates G (Xg1, Yg1), light at basic coordinates H (Xh1, Yh1).
  • a sequence of numbers in which the spot coordinates 113 (Xh2, Yh2) and the optical spot coordinates 113 (Xi2, Yi2) at the basic coordinates I (Xi1, Yi1) are arranged in this order is generated.
  • the control unit 11 further generates, for example, a sequence of basic coordinates A to I, a sequence of light spot coordinates 113 when staring at the left eye, and a sequence of light spot coordinates 113 when staring at the right eye. , A sequence obtained by combining these sequences is generated as an input value Din of the learning model 15.
  • control unit 11 inputs the input value Din into the learning model 15 (step S103).
  • the control unit 11 acquires the disease name corresponding to the Hess chart as a response (output value Dout) to the input value Din from the learning model 15 (step S104).
  • the control unit 11 generates a video signal including the acquired disease name and outputs it to the display unit 17.
  • the display unit 17 displays the disease name obtained by the learning model 15. In this way, the inspection in the eye movement inspection apparatus 10 is carried out.
  • the light spot coordinates 113 are calculated for each of the basic coordinates 112 in the 18 Hess chart images I obtained by the imaging unit 12.
  • the basic coordinates 112 and the light spot coordinates 113 are calculated as the numerical data 110.
  • a sequence of the basic coordinates 112 and the numerical data 110 (light spot coordinates 113) for each of the basic coordinates 112 arranged according to a predetermined rule is input to the learning model 15 as the input value Din, and the input value Din is input from the learning model 15.
  • the disease name corresponding to the coordinate is acquired.
  • the 18 Hess chart images I are not directly input to the learning model 15, but the numerical sequence obtained from the 18 Hess chart images I is trained. It is input to the model 15. This makes it possible to estimate the disease name with high accuracy in the learning model 15. As a result, even inexperienced doctors can handle Hess charts.
  • FIG. 7 shows an example of the recording paper 600 for the Hess screen test.
  • the recording paper 600 is a hess chart in which light spots Pa to Pi are plotted for each of the basic coordinates A to I.
  • the imaging unit 12 images the recording paper 600 for left-eye fixation and the recording paper 600 for right-eye fixation instead of the hess chart board 100. May acquire a Hess chart image.
  • the control unit 11 deviates from the two recording sheets 600 (recording sheet 600 when left-eye fixation, recording sheet 600 when right-eye fixation), or the amount of deviation 111 or the light spot. It is possible to calculate the coordinates of Pa to Pi. Therefore, even in this modified example, the disease name can be estimated with high accuracy in the learning model 15. As a result, even inexperienced doctors can handle Hess charts.
  • FIG. 8 shows a modified example of the eye movement inspection device 10 of FIG.
  • the receiving unit 18 is provided instead of the imaging unit 12, and the light receiving panel 700 is provided instead of the hess chart board 100.
  • the receiving unit 18 receives the light receiving image Ic output from the light receiving panel 700, and outputs the received light receiving image Ic to the control unit 11.
  • the light receiving panel 700 captures an image formed by light incident on the surface (light receiving surface) of the light receiving panel 700 under the control of the control unit 11, thereby acquiring a light receiving image Ic.
  • the light receiving panel 700 outputs the acquired light receiving image Ic to the receiving unit 18 as a hess chart image I.
  • the light receiving panel 700 has, for example, a light receiving element array in which a plurality of light receiving elements are arranged in a matrix immediately below the light receiving surface of the light receiving panel 700.
  • the light receiving panel 700 generates a light receiving image Ic based on, for example, a signal output from the light receiving element array.
  • the light receiving panel 700 acquires nine light receiving images Ic1 to Ic9 when the left eye is fixed by light reception, and transmits the acquired nine light receiving images Ic1 to Ic9 when the left eye is fixed to the control unit 11. Output.
  • the light receiving panel 700 acquires nine light receiving images Ic1 to Ic9 when the right eye is fixed by light reception, and transmits the acquired nine light receiving images Ic1 to Ic9 when the right eye is fixed to the control unit 11. Output.
  • the control unit 11 processes the light-receiving image Ic obtained from the light-receiving panel 700 in the same manner as the coordinate image I according to the above embodiment to obtain a deviation amount of 111 or light spots Pa to Pi. Calculate the coordinates.
  • the control unit 11 generates an input value Din using the deviation amount 111 or the coordinates of the light spots Pa to Pi, inputs the generated input value Din to the learning model 15, and responds to the input value Din from the learning model 15.
  • output value Dout the disease name corresponding to the Hess chart is acquired.
  • the numerical sequence obtained from the light receiving image Ic obtained from the light receiving panel 700 is input to the learning model 15. This makes it possible to estimate the disease name with high accuracy in the learning model 15. As a result, even inexperienced doctors can handle Hess charts.
  • the light receiving panel 700 is configured to detect the light incident on the surface (light receiving surface) of the light receiving panel 700 according to the control by the control unit 11 and calculate the light spot coordinates 113 from the detection result. It may have been done. In this case, the light receiving panel 700 outputs the light spot coordinates 113 to the control unit 11 instead of the light receiving image Ic.
  • the control unit 11 generates an input value Din using the light spot coordinates 113 obtained from the light receiving panel 700, or inputs using the basic coordinates 112 and the light spot coordinates 113 obtained from the light receiving panel 700.
  • the value Din may be generated.
  • the numerical sequence obtained from the light spot coordinates 113 obtained from the light receiving panel 700 is input to the learning model 15. This makes it possible to estimate the disease name with high accuracy in the learning model 15. As a result, even inexperienced doctors can handle Hess charts.
  • FIG. 9 shows a schematic configuration example of the eye movement inspection system 20 according to the embodiment of the present invention.
  • the eye movement inspection system 20 includes an eye movement inspection device 30, a server device 40, a hess chart board 100, a spotlight 300, and a shutter button 500.
  • the eye movement test device 30 and the server device 40 are connected via an external network 50.
  • the external network 50 is, for example, a network that communicates using a communication protocol (TCP / IP) that is standardly used on the Internet.
  • the external network 50 may be, for example, a secure network that communicates using a communication protocol unique to the network.
  • the external network 50 is, for example, the Internet, an intranet, or a local area network.
  • the connection between the external network 50 and the eye movement test device 30 or the server device 40 may be, for example, a wired LAN (Local Area Network) such as Ethernet, a wireless LAN such as Wi-Fi, or a mobile phone line. And so on.
  • the eye movement test device 30 is a device in which the communication unit 19 is newly provided and the learning model 15 is omitted in the eye movement test device 10 according to the above embodiment.
  • the communication unit 19 communicates with the server device 40 via the external network 50.
  • the server device 40 includes, for example, a control unit 41, a learning model 15, and a communication unit 42.
  • the control unit 41 includes a CPU, a GPU, and the like, and executes, for example, an operating system stored in a memory. Further, for example, when the input value Din is input from the eye movement test device 30 via the external network 50, the control unit 41 inputs the input value Din into the learning model 15 and responds to the input value Din ( As the output value Dout), the disease name corresponding to the Hess chart is acquired from the learning model 15. The control unit 41 outputs the acquired disease name to the eye movement test device 30 via the external network 50.
  • the communication unit 42 communicates with the eye movement test device 30 via the external network 50.
  • the learning model 15 outputs the disease name corresponding to the hess chart to the control unit 41 as a response to the input value Din (output value Dout).
  • the learning model 15 is provided in the server device 40 on the external network 50.
  • a plurality of eye movement test devices 30 can share one learning model 15.
  • FIG. 10 shows a modified example of the schematic configuration of the eye movement inspection system 20 according to the second embodiment.
  • the receiving unit 18 is provided instead of the imaging unit 12, and the light receiving panel 700 is provided instead of the hess chart board 100. That is, in the present modification, the eye movement inspection device 30 can perform the same operation as the eye movement inspection device 10 according to the modification C.
  • the learning model 15 is provided in the server device 40 on the external network 50.
  • a plurality of eye movement test devices 30 can share one learning model 15.

Abstract

眼球運動検査装置は、画像取得部、データ算出部、疾患名取得部および表示部を備えている。画像取得部は、1または複数のヘスチャート画像を取得する。データ算出部は、画像取得部で得られた1または複数のヘスチャート画像における基本座標ごとの、基本座標と光スポットとのズレに関する数値データを算出する。疾患名取得部は、データ算出部で得られた、基本座標ごとの数値データを所定の規則で並べたズレデータを学習モデルに入力し、学習モデルから、ヘスチャートに対応する疾患名を取得する。表示部は、疾患名取得部で得られた疾患名を表示する。

Description

眼球運動検査装置
 本発明は、眼球運動検査装置に関する。
 眼球運動障害は、眼科的疾患のみならず、脳外科的疾患、内科的疾患など様々な疾患の症状としてあらわれる(非特許文献1参照)。ヘスチャートは、眼球運動障害の内容およびその原因を把握するのに非常に重要である。ヘスチャートには、例えば、9方向向き眼位の各測定点における眼位および眼筋の働きが、左右各眼1個ずつのまとまった眼位図として図示され記録される。
https://www.tsukazaki−hp.jp/care/ophthalmology/eyelid−disorders
 しかし、ヘスチャートから、どのような疾患が考えられるかを特定するためには、経験豊富な医師の診断が不可欠である。そこで、経験の浅い医師でもヘスチャートを扱うことの可能な眼球運動検査装置を提供することが望ましい。
 本発明の一実施形態に係る眼球運動検査装置は、画像取得部、データ算出部、疾患名取得部および表示部を備えている。画像取得部は、1または複数のヘスチャート画像を取得する。データ算出部は、画像取得部で得られた1または複数のヘスチャート画像における基本座標ごとの、基本座標と光スポットとのズレに関する数値データを算出する。疾患名取得部は、データ算出部で得られた、基本座標ごとの数値データを所定の規則で並べたズレデータを学習モデルに入力し、学習モデルから、ヘスチャートに対応する疾患名を取得する。表示部は、疾患名取得部で得られた疾患名を表示する。
 本発明の一実施形態に係る眼球運動検査装置では、画像取得部で得られた1または複数のヘスチャート画像における基本座標ごとの、基本座標と光スポットとのズレに関する数値データが算出される。その後、データ算出部で得られた、基本座標ごとの数値データを所定の規則で並べたズレデータが学習モデルに入力され、学習モデルから、ヘスチャートに対応する疾患名が取得される。このように、本発明では、ヘスチャート画像が直接、学習モデルに入力されるのではなく、ヘスチャート画像から得られた、数値で表現されたズレデータが学習モデルに入力される。これにより、学習モデルにおいて疾患名を高精度で推定することが可能となる。その結果、経験の浅い医師でもヘスチャートを扱うことが可能となる。
ヘススクリーンテストの概要を説明する図である。 本発明の第1の実施の形態に係る眼球運動検査装置の概略構成例を表す図である。 図2の学習モデルへの入出力値の一例を表す図である。 図2の眼球運動検査装置における検査手順の一例を表す図である。 図2の学習モデルへの入出力値の一変形例を表す図である。 図2の眼球運動検査装置における検査手順の一変形例を表す図である。 ヘススクリーンテストの記録用紙の一例を表す図である。 図2の眼球運動検査装置の一変形例を表す図である。 本発明の第2の実施の形態に係る眼球運動検査システムの概略構成例を表す図である。 図9の眼球運動検査システムの概略構成の一変形例を表す図である。
 以下、本発明を実施するための形態について、図面を参照して詳細に説明する。以下の説明は本発明の一具体例であって、本発明は以下の態様に限定されるものではない。
<第1の実施の形態>
[構成]
 図1は、本実施の形態で実施されるヘススクリーンテストの概要を説明するためのものである。本実施の形態で実施されるヘススクリーンテストでは、ヘスチャートボード100、メガネ200およびスポットライト300が用いられる。
 ヘスチャートボード100は、左右各眼固視下での9方向眼位を定量的に測定するためのものであり、ヘスチャートボード100の表面には、ヘスチャートの碁盤目と、9つの基本座標点A~Iが描画されている。ヘスチャートボード100の表面は、黒地となっており、ヘスチャートの碁盤目および9つの基本座標点A~Iは、赤色で描画されている。
 基本座標点Aは被検者の正面位置に配置され、基本座標点B~Iは基本座標点Aの周囲に時計回りの方向に所定の間隔で順番に配置される。基本座標点Bは被検者の上方(X軸に対して+90°方向)の位置に配置され、基本座標点Cは被検者の右斜め上方(X軸に対して+45°方向)の位置に配置され、基本座標点Dは被検者の右方(X軸に対して+0°方向)の位置に配置され、基本座標点Eは被検者の右斜め下方(X軸に対して−45°方向)の位置に配置され、基本座標点Fは被検者の下方(X軸に対して−90°方向)の位置に配置され、基本座標点Gは被検者の左斜め下方(X軸に対して−135°方向)の位置に配置され、基本座標点Hは被検者の左方(X軸に対して+180°方向)の位置に配置され、基本座標点Iは被検者の左斜め上方(X軸に対して+135°方向)の位置に配置される。
 本実施の形態で実施されるヘススクリーンテストでは、被検者は、赤色ガラス210および緑色ガラス220がフレームに着脱可能に固定されたメガネ200を装着して、ヘスチャートボード100を視認する。被検者は、メガネ200を装着し、ヘスチャートボード100を視認しながら、スポットライト300から出射される緑色光Lgを各基本座標A~Iにめがけて照射して、ヘスチャートボード100に光スポットPを形成する。これにより、左右眼で見える像(光源)を,色の違いで分離し運動性融像が起こりにくくすることが可能となる。
 図2は、本発明の一実施の形態に係る眼球運動検査装置10の概略構成例を表したものである。眼球運動検査装置10は、ヘスチャートボード100を用いたヘススクリーンテストを記録し、記録したヘススクリーンテストの結果に応じた疾患名を出力する装置である。眼球運動検査装置10は、例えば、制御部11、撮像部12、通信部13、メモリ14、学習モデル15、入力部16および表示部17を備えている。
 制御部11は、CPU(Central Processing Unit)およびGPU(Graphics Processing Unit)などを含んで構成され、例えば、メモリ14に記憶されたオペレーティングシステムや、眼球運動検査装置10に含まれる各種デバイスを制御する制御プログラムなど(図示せず)を実行する。制御部11は、さらに、例えば、メモリ14に記憶されたプログラム14Aを実行する。プログラム14Aは、ヘスチャートボード100を用いたヘススクリーンテストを記録し、記録したヘススクリーンテストの結果に応じた疾患名を出力するための一連の手順を制御部11に実行させる。
 プログラム14Aがロードされた制御部11(以下、単に「制御部11」と称する。)は、シャッタボタン500から通信部13を介して入力される制御信号に基づいて、撮像部12による撮像を制御する。これにより、医療従事者が、所定のタイミングでシャッタボタン500を押すことにより、ヘスチャートボード100を撮像部12により撮像することが可能となる。本実施の形態で実施されるヘススクリーンテストでは、被検者400がメガネ200を装着し、ヘスチャートボード100を視認しながら、スポットライト300から出射される緑色光Lgを、基本座標A~Iにめがけて、基本座標A,B,C,D,E,F,G,H,Iの順に照射するタイミングで、医療従事者がシャッタボタン500を押すことにより、ヘスチャートボード100を撮像部12によって撮像する。制御部11は、撮像部12で得られた9枚のヘスチャート画像I1~I9をメモリ14に格納する。制御部11は、赤色ガラス210を左眼に、緑色ガラス220を右眼に装着した状態のときに得られた9枚のヘスチャート画像I1~I9(以下、「左眼固視のときの9枚のヘスチャート画像I1~I9」と称する。)と、赤色ガラス210を右眼に、緑色ガラス220を左眼に装着した状態のときに得られた9枚のヘスチャート画像I1~I9(以下、「右眼固視のときの9枚のヘスチャート画像I1~I9」と称する。)とをメモリ14に格納する。なお、以下では、「左眼固視のときの9枚のヘスチャート画像I1~I9および右眼固視のときの9枚のヘスチャート画像I1~I9」を、適宜、「18枚のヘスチャート画像I」と称するものとする。
 制御部11は、左眼固視のときの9枚のヘスチャート画像I1~I9と、右眼固視のときの9枚のヘスチャート画像I1~I9とをメモリ14から読み出す。制御部11は、メモリ14から読み出した、左眼固視のときの9枚のヘスチャート画像I1~I9における基本座標A~Iごとの、基本座標A,B,C,D,E,F,G,HまたはIと光スポットとのズレに関する数値データ110を算出する。制御部11は、さらに、メモリ14から読み出した、右眼固視のときの9枚のヘスチャート画像I1~I9における基本座標A~Iごとの、基本座標A,B,C,D,E,F,G,HまたはIと光スポットとのズレに関する数値データ110を算出する。光スポットは、スポットライト300から出射される緑色光Lgによってヘスチャートボード100上に形成される照射スポットである。制御部11は、左眼固視のときの9枚のヘスチャート画像I1~I9における数値データ110を基本座標A~Iごとに算出する。制御部11は、さらに、右眼固視のときの9枚のヘスチャート画像I1~I9における数値データ110を基本座標A~Iごとに算出する。
 制御部11は、ヘスチャート画像I1から、基本座標Aと、基本座標Aにめがけて照射することにより生成された光スポットとのズレに関する数値データ110を算出する。制御部11は、ヘスチャート画像I2から、基本座標Bと、基本座標Bにめがけて照射することにより生成された光スポットとのズレに関する数値データ110を算出する。制御部11は、ヘスチャート画像I3から、基本座標Cと、基本座標Cにめがけて照射することにより生成された光スポットとのズレに関する数値データ110を算出する。制御部11は、ヘスチャート画像I4から、基本座標Dと、基本座標Dにめがけて照射することにより生成された光スポットとのズレに関する数値データ110を算出する。制御部11は、ヘスチャート画像I5から、基本座標Eと、基本座標Eにめがけて照射することにより生成された光スポットとのズレに関する数値データ110を算出する。制御部11は、ヘスチャート画像I6から、基本座標Fと、基本座標Fにめがけて照射することにより生成された光スポットとのズレに関する数値データ110を算出する。制御部11は、ヘスチャート画像I7から、基本座標Gと、基本座標Gにめがけて照射することにより生成された光スポットとのズレに関する数値データ110を算出する。制御部11は、ヘスチャート画像I8から、基本座標Hと、基本座標Hにめがけて照射することにより生成された光スポットとのズレに関する数値データ110を算出する。制御部11は、ヘスチャート画像I9から、基本座標Iと、基本座標Iにめがけて照射することにより生成された光スポットとのズレに関する数値データ110を算出する。
 数値データ110は、例えば、図3に示したように、基本座標112(基本座標A~I)におけるズレ量111である。ズレ量111は、基本座標112(基本座標A~I)と、光スポット座標との差で表される。基本座標112は、基本座標A,B,C,D,E,F,G,HまたはIのヘスチャートボード100上の座標である。光スポット座標は、スポットライト300による照射によって形成された照射スポットのヘスチャートボード100上の座標である。ズレ量111は、基本座標112と光スポット座標との左右方向(X軸方向)のズレ量ΔXと、基本座標112と光スポット座標との上下方向(Y軸方向)のズレ量ΔYとによって表される。
 制御部11は、基本座標112ごとのズレ量111を所定の規則で並べた数列(ズレデータ)を生成する。制御部11は、例えば、基本座標A(Xa1,Ya1)におけるズレ量111(ΔXa,ΔYa)、基本座標B(Xb1,Yb1)におけるズレ量111(ΔXb,ΔYb)、基本座標C(Xc1,Yc1)におけるズレ量111(ΔXc,ΔYc)、基本座標D(Xd1,Yd1)におけるズレ量111(ΔXd,ΔYd)、基本座標E(Xe1,Ye1)におけるズレ量111(ΔXe,ΔYe)、基本座標F(Xf1,Yf1)におけるズレ量111(ΔXf,ΔYf)、基本座標G(Xg1,Yg1)におけるズレ量111(ΔXg,ΔYg)、基本座標H(Xh1,Yh1)におけるズレ量111(ΔXh,ΔYh)、および基本座標I(Xi1,Yi1)におけるズレ量111(ΔXi,ΔYi)をこの順に並べた数列を生成する。制御部11は、さらに、例えば、左眼固視のときの数列と、右眼固視のときの数列とを生成し、これらの数列を結合した数列を学習モデル15の入力値Dinとして生成する。
 ズレ量111(ΔXa,ΔYa)は、例えば、基本座標A(Xa1,Ya1)と、基本座標Aに向けて照射された緑色光Lgによってヘスチャートボード100上に形成される光スポットの座標(Xa2,Ya2)との差分である。ズレ量111(ΔXb,ΔYb)は、例えば、基本座標B(Xb1,Yb1)と、基本座標Bに向けて照射された緑色光Lgによってヘスチャートボード100上に形成される光スポットの座標(Xb2,Yb2)との差分である。ズレ量111(ΔXc,ΔYc)は、例えば、基本座標C(Xc1,Yc1)と、基本座標Cに向けて照射された緑色光Lgによってヘスチャートボード100上に形成される光スポットの座標(Xc2,Yc2)との差分である。ズレ量111(ΔXd,ΔYd)は、例えば、基本座標D(Xd1,Yd1)と、基本座標Dに向けて照射された緑色光Lgによってヘスチャートボード100上に形成される光スポットの座標(Xd2,Yd2)との差分である。ズレ量111(ΔXe,ΔYe)は、例えば、基本座標E(Xe1,Ye1)と、基本座標Eに向けて照射された緑色光Lgによってヘスチャートボード100上に形成される光スポットの座標(Xe2,Ye2)との差分である。ズレ量111(ΔXf,ΔYf)は、例えば、基本座標F(Xf1,Yf1)と、基本座標Fに向けて照射された緑色光Lgによってヘスチャートボード100上に形成される光スポットの座標(Xf2,Yf2)との差分である。ズレ量111(ΔXg,ΔYg)は、例えば、基本座標G(Xg1,Yg1)と、基本座標Gに向けて照射された緑色光Lgによってヘスチャートボード100上に形成される光スポットの座標(Xg2,Yg2)との差分である。ズレ量111(ΔXh,ΔYh)は、例えば、基本座標H(Xh1,Yh1)と、基本座標Hに向けて照射された緑色光Lgによってヘスチャートボード100上に形成される光スポットの座標(Xh2,Yh2)との差分である。ズレ量111(ΔXi,ΔYi)は、例えば、基本座標I(Xi1,Yi1)と、基本座標Iに向けて照射された緑色光Lgによってヘスチャートボード100上に形成される光スポットの座標(Xi2,Yi2)との差分である。
 制御部11は、生成した入力値Dinを学習モデル15に入力し、学習モデル15から、入力値Dinに対する応答(出力値Dout)として、ヘスチャートに対応する疾患名を取得する。制御部11は、取得した疾患名を含む映像信号を生成し、表示部17に出力する。
 撮像部12は、例えば、CCD(Charge Coupled Device)イメージセンサもしくはCMOS(Complementary metal−oxide−semiconductor)イメージセンサを含んで構成されたカメラである。撮像部12は、制御部11による制御に従って、ヘスチャートボード100を撮像し、それにより得られたヘスチャート画像を制御部11に出力する。撮像部12は、例えば、撮像により9枚のヘスチャート画像I1~I9を取得し、取得した9枚のヘスチャート画像I1~I9を制御部11に出力する。
 通信部13は、シャッタボタン500から出力される制御信号を受信し、受信した制御信号を制御部11に出力する。
 メモリ14は、制御部11によって実行されるプログラム(例えば、オペレーティングシステム)などを格納する。メモリ14は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置(ハードディスク等)等によって構成される。メモリ14は、さらに、プログラム14Aを記憶している。
 学習モデル15は、入力値Dinが入力されると、入力値Dinに対する応答(出力値Dout)として、ヘスチャートに対応する疾患名を出力する。学習モデル15は、学習用の入力値Dinを説明変数とするとともに、学習用の入力値Dinの元データであるヘスチャートに対する医師の診断結果(疾患名)を目的変数とする機械学習が行われたモデルである。学習モデル15は、例えば、人工知能(AI)で構成されている。
 入力部16は、外部(例えば、ユーザ)からの指示を受け付け、受け付けた指示を制御部11に出力する。入力部16は、例えば、ボタンやダイヤルなどを含む機械的な入力インターフェースであってもよいし、マイクロフォンなどを含む音声入力インターフェースであってもよい。入力部16は、例えば、表示部17の表示面に設けられたタッチパネルであってもよい。
 表示部17は、例えば、液晶パネルや有機EL(Electro Luminescence)パネル等のパネル型表示装置からなる。表示部17は、制御部11から入力された映像信号に基づいて映像を表示する。表示部17は、学習モデル15で得られた疾患名を表示する。
[動作]
 次に、図4を参照して、本実施の形態に係る眼球運動検査装置10における検査手順の一例について説明する。図4は、眼球運動検査装置10における検査手順の一例を表す。まず、被検者400は、ヘスチャートボード100に対して正対して着座し、顎台・顎当てに頭を固定する。次に、被検者400は、右眼に緑色ガラス220、左眼に赤色ガラス210を装着し、スポットライト300を手に持つ。続いて、被検者400は、ヘスチャートボード100を視認しながら、スポットライト300から出射される緑色光Lgを、基本座標A~Iにめがけて、基本座標A,B,C,D,E,F,G,H,Iの順に照射する。このとき、医療従事者は、緑色光Lgが、基本座標A~Iにめがけて、基本座標A,B,C,D,E,F,G,H,Iの順に照射されるタイミングで、シャッタボタン500を押す。これにより、撮像部12は、撮像により左眼固視のときの9枚のヘスチャート画像I1~I9を取得し、取得した左眼固視のときの9枚のヘスチャート画像I1~I9を制御部11に出力する。制御部11は、撮像部12から、左眼固視のときの9枚のヘスチャート画像I1~I9を取得する(ステップS101)。制御部11は、取得した左眼固視のときの9枚のヘスチャート画像I1~I9をメモリ14に格納する。
 続いて、被検者400は、右眼に赤色ガラス210、左眼に緑色ガラス220を装着し、ヘスチャートボード100を視認しながら、スポットライト300から出射される緑色光Lgを、基本座標A~Iにめがけて、基本座標A,B,C,D,E,F,G,H,Iの順に照射する。このとき、医療従事者は、緑色光Lgが、基本座標A~Iにめがけて、基本座標A,B,C,D,E,F,G,H,Iの順に照射されるタイミングで、シャッタボタン500を押す。これにより、撮像部12は、撮像により右眼固視のときの9枚のヘスチャート画像I1~I9を取得し、取得した右眼固視のときの9枚のヘスチャート画像I1~I9を制御部11に出力する。制御部11は、撮像部12から、右眼固視のときの9枚のヘスチャート画像I1~I9を取得する(ステップS101)。制御部11は、取得した右眼固視のときの9枚のヘスチャート画像I1~I9をメモリ14に格納する。
 次に、制御部11は、メモリ14から、左眼固視のときの9枚のヘスチャート画像I1~I9を読み出し、読み出した左眼固視のときの9枚のヘスチャート画像I1~I9における基本座標A~Iごとの、基本座標A,B,C,D,E,F,G,HまたはIと光スポットとのズレに関する数値データ110(ズレ量111)を算出する。制御部11は、左眼固視のときの9枚のヘスチャート画像I1~I9における数値データ110(ズレ量111)を基本座標A~Iごとに算出する(ステップS102)。
 制御部11は、さらに、メモリ14から、右眼固視のときの9枚のヘスチャート画像I1~I9を読み出し、読み出した右眼固視のときの9枚のヘスチャート画像I1~I9における基本座標A~Iごとの、基本座標A,B,C,D,E,F,G,HまたはIと光スポットとのズレに関する数値データ110(ズレ量111)を算出する。制御部11は、右眼固視のときの9枚のヘスチャート画像I1~I9における数値データ110(ズレ量111)を基本座標A~Iごとに算出する(ステップS102)。
 次に、制御部11は、基本座標112ごとのズレ量111を所定の規則で並べた数列(ズレデータ)を生成する。制御部11は、左眼固視のときのズレ量111の数列と、右眼固視のときのズレ量111の数列とを生成し、これらの数列を結合した数列を学習モデル15の入力値Dinとして生成する。制御部11は、生成した入力値Dinを学習モデル15に入力する(ステップS103)。制御部11は、学習モデル15から、入力値Dinに対する応答(出力値Dout)として、ヘスチャートに対応する疾患名を取得する(ステップS104)。制御部11は、取得した疾患名を含む映像信号を生成し、表示部17に出力する。表示部17は、学習モデル15で得られた疾患名を表示する。このようにして、眼球運動検査装置10における検査が実施される。
[効果]
 次に、本実施の形態に係る眼球運動検査装置10の効果について説明する。
 眼球運動障害は、眼科的疾患のみならず、脳外科的疾患、内科的疾患など様々な疾患の症状としてあらわれる。ヘスチャートは、眼球運動障害の内容およびその原因を把握するのに非常に重要である。しかし、ヘスチャートから、どのような疾患が考えられるかを特定するためには、経験豊富な医師の診断が不可欠である。
 一方、本実施の形態では、撮像部12で得られた18枚のヘスチャート画像Iにおける基本座標112ごとの、基本座標112と光スポット座標とのズレに関する数値データ110が算出される。本実施の形態では、数値データ110として、基本座標112と、光スポット座標との差であるズレ量111が算出される。その後、基本座標112ごとの数値データ110(ズレ量111)を所定の規則で並べた数列が入力値Dinとして学習モデル15に入力され、学習モデル15から、入力値Dinに対する応答(出力値Dout)として、ヘスチャートに対応する疾患名が取得される。このように、本実施の形態では、18枚のヘスチャート画像Iが直接、学習モデル15に入力されるのではなく、18枚のヘスチャート画像Iから得られた、数値で表現された数列が学習モデル15に入力される。これにより、学習モデル15において疾患名を高精度で推定することが可能となる。その結果、経験の浅い医師でもヘスチャートを扱うことが可能となる。
 本実施の形態では、撮像部12がカメラであり、ヘスチャートボード100上に、基本座標112をめがけて光スポットが照射される度にヘスチャートボード100をカメラで撮像することにより、18枚のヘスチャート画像Iが取得される。これにより、医療関係者がヘスチャートの記録用紙から記録結果を読み取るなどの手間を省くことができるので、医療関係者は、高速かつ精度よく疾患名を知ることができる。
<第1の実施の形態の変形例>
 次に、上記実施の形態に係る眼球運動検査装置10の変形例について説明する。
[変形例A]
 図5は、学習モデル15への入出力値の一変形例を表したものである。上記実施の形態において、制御部11は、数値データ110として、左眼固視のときの9枚のヘスチャート画像I1~I9における基本座標A~Iごとの光スポット座標113と、右眼固視のときの9枚のヘスチャート画像I1~I9における基本座標A~Iごとの光スポット座標113とを算出してもよい。このとき、制御部11は、学習モデル15へ入力する入力値Dinとして、基本座標112と、左眼固視のときの光スポット座標113と、右眼固視のときの光スポット座標113とを含む数列を生成してもよい。このようにした場合であっても、学習モデル15において疾患名を高精度で推定することが可能となる。その結果、経験の浅い医師でもヘスチャートを扱うことが可能となる。
 図6は、眼球運動検査装置10における検査手順の一例を表す。まず、制御部11は、上記実施の形態と同様の方法で、左眼固視のときの9枚のヘスチャート画像I1~I9と、右眼固視のときの9枚のヘスチャート画像I1~I9とを取得する(ステップS101)。制御部11は、取得した左眼固視のときの9枚のヘスチャート画像I1~I9と、右眼固視のときの9枚のヘスチャート画像I1~I9とをメモリ14に格納する。
 次に、制御部11は、メモリ14から、左眼固視のときの9枚のヘスチャート画像I1~I9を読み出し、読み出した左眼固視のときの9枚のヘスチャート画像I1~I9における基本座標A~Iごとの、光スポット座標113を算出する(ステップS102)。制御部11は、さらに、メモリ14から、右眼固視のときの9枚のヘスチャート画像I1~I9を読み出し、読み出した右眼固視のときの9枚のヘスチャート画像I1~I9における基本座標A~Iごとの、光スポット座標113を算出する(ステップS102)。
 次に、制御部11は、基本座標112ごとの光スポット座標113を所定の規則で並べた数列(ズレデータ)を生成する。制御部11は、例えば、基本座標A(Xa1,Ya1)における光スポット座標113(Xa2,Ya2)、基本座標B(Xb1,Yb1)における光スポット座標113(Xb2,Yb2)、基本座標C(Xc1,Yc1)における光スポット座標113(Xc2,Yc2)、基本座標D(Xd1,Yd1)における光スポット座標113(Xd2,Yd2)、基本座標E(Xe1,Ye1)における光スポット座標113(Xe2,Ye2)、基本座標F(Xf1,Yf1)における光スポット座標113(Xf2,Yf2)、基本座標G(Xg1,Yg1)における光スポット座標113(Xg2,Yg2)、基本座標H(Xh1,Yh1)における光スポット座標113(Xh2,Yh2)、および基本座標I(Xi1,Yi1)における光スポット座標113(Xi2,Yi2)をこの順に並べた数列を生成する。制御部11は、さらに、例えば、基本座標A~Iの数列と、左眼固視のときの光スポット座標113の数列と、右眼固視のときの光スポット座標113の数列とを生成し、これらの数列を結合した数列を学習モデル15の入力値Dinとして生成する。
 次に、制御部11は、入力値Dinを学習モデル15に入力する(ステップS103)。制御部11は、学習モデル15から、入力値Dinに対する応答(出力値Dout)として、ヘスチャートに対応する疾患名を取得する(ステップS104)。制御部11は、取得した疾患名を含む映像信号を生成し、表示部17に出力する。表示部17は、学習モデル15で得られた疾患名を表示する。このようにして、眼球運動検査装置10における検査が実施される。
 本変形例では、撮像部12で得られた18枚のヘスチャート画像Iにおける基本座標112ごとの、光スポット座標113が算出される。本変形例では、数値データ110として、基本座標112および光スポット座標113が算出される。その後、基本座標112と、基本座標112ごとの数値データ110(光スポット座標113)とを所定の規則で並べた数列が入力値Dinとして学習モデル15に入力され、学習モデル15から、入力値Dinに対する応答(出力値Dout)として、ヘスチャートに対応する疾患名が取得される。このように、本変形例では、18枚のヘスチャート画像Iが直接、学習モデル15に入力されるのではなく、18枚のヘスチャート画像Iから得られた、数値で表現された数列が学習モデル15に入力される。これにより、学習モデル15において疾患名を高精度で推定することが可能となる。その結果、経験の浅い医師でもヘスチャートを扱うことが可能となる。
[変形例B]
 図7は、ヘススクリーンテストの記録用紙600の一例を表したものである。記録用紙600は、基本座標A~Iごとに光スポットPa~Piがプロットされたヘスチャートである。上記実施の形態およびその変形例において、撮像部12は、ヘスチャートボード100の代わりに、左眼固視のときの記録用紙600と、右眼固視のときの記録用紙600とを撮像することにより、ヘスチャート画像を取得してもよい。このようにした場合には、制御部11は、2枚の記録用紙600(左眼固視のときの記録用紙600、右眼固視のときの記録用紙600)から、ズレ量111または光スポットPa~Piの座標を算出することが可能となる。従って、本変形例においても、学習モデル15において疾患名を高精度で推定することが可能となる。その結果、経験の浅い医師でもヘスチャートを扱うことが可能となる。
[変形例C]
 図8は、図2の眼球運動検査装置10の一変形例を表したものである。本変形例では、撮像部12の代わりに受信部18が設けられており、ヘスチャートボード100の代わりに受光パネル700が設けられている。
 受信部18は、受光パネル700から出力される受光画像Icを受信し、受信した受光画像Icを制御部11に出力する。受光パネル700は、制御部11による制御に従って、受光パネル700の表面(受光面)に入射する光によって形成される像を撮像し、それにより受光画像Icを取得する。受光パネル700は、取得した受光画像Icをヘスチャート画像Iとして受信部18に出力する。受光パネル700は、例えば、複数の受光素子が行列状に配置された受光素子アレイを、受光パネル700の受光面の直下に有している。受光パネル700は、例えば、受光素子アレイから出力された信号に基づいて、受光画像Icを生成する。受光パネル700は、例えば、受光により左眼固視のときの9枚の受光画像Ic1~Ic9を取得し、取得した左眼固視のときの9枚の受光画像Ic1~Ic9を制御部11に出力する。受光パネル700は、例えば、受光により右眼固視のときの9枚の受光画像Ic1~Ic9を取得し、取得した右眼固視のときの9枚の受光画像Ic1~Ic9を制御部11に出力する。
 本変形例では、制御部11は、受光パネル700から得られた受光画像Icを、上記実施の形態に係るヘスチャート画像Iと同様に処理することにより、ズレ量111または光スポットPa~Piの座標を算出する。制御部11は、ズレ量111または光スポットPa~Piの座標を用いて、入力値Dinを生成し、生成した入力値Dinを学習モデル15に入力し、学習モデル15から、入力値Dinに対する応答(出力値Dout)として、ヘスチャートに対応する疾患名を取得する。このように、本変形例では、受光パネル700から得られた受光画像Icから得られた、数値で表現された数列が学習モデル15に入力される。これにより、学習モデル15において疾患名を高精度で推定することが可能となる。その結果、経験の浅い医師でもヘスチャートを扱うことが可能となる。
[変形例D]
 上記変形例Cにおいて、受光パネル700は、制御部11による制御に従って、受光パネル700の表面(受光面)に入射する光を検出し、その検出結果から、光スポット座標113を算出するように構成されていてもよい。この場合、受光パネル700は、受光画像Icの代わりに、光スポット座標113を制御部11に出力する。制御部11は、受光パネル700から得られた光スポット座標113を用いて、入力値Dinを生成したり、基本座標112と、受光パネル700から得られた光スポット座標113とを用いて、入力値Dinを生成したりしてもよい。このように、本変形例では、受光パネル700から得られた光スポット座標113から得られた、数値で表現された数列が学習モデル15に入力される。これにより、学習モデル15において疾患名を高精度で推定することが可能となる。その結果、経験の浅い医師でもヘスチャートを扱うことが可能となる。
<第2の実施の形態>
[構成]
 図9は、本発明の一実施の形態に係る眼球運動検査システム20の概略構成例を表したものである。眼球運動検査システム20は、眼球運動検査装置30、サーバ装置40、ヘスチャートボード100、スポットライト300およびシャッタボタン500を備えている。眼球運動検査装置30およびサーバ装置40は、外部ネットワーク50を介して接続されている。
 外部ネットワーク50は、例えば、インターネットで標準的に利用されている通信プロトコル(TCP/IP)を用いて通信を行うネットワークである。外部ネットワーク50は、例えば、そのネットワーク独自の通信プロトコルを用いて通信を行うセキュアなネットワークであってもよい。外部ネットワーク50は、例えば、インターネット、イントラネット、または、ローカルエリアネットワークである。外部ネットワーク50と、眼球運動検査装置30またはサーバ装置40との接続は、例えば、イーサネット等の有線LAN(Local Area Network)であってもよいし、Wi−Fi等の無線LANや、携帯電話回線などであってもよい。
 眼球運動検査装置30は、上記実施の形態に係る眼球運動検査装置10において、新たに通信部19が設けられるとともに、学習モデル15が省略された装置である。通信部19は、外部ネットワーク50を介してサーバ装置40と通信を行う。
 サーバ装置40は、例えば、制御部41、学習モデル15および通信部42を備えている。制御部41は、CPUおよびGPUなどを含んで構成され、例えば、メモリに記憶されたオペレーティングシステムなどを実行する。制御部41は、さらに、例えば、外部ネットワーク50を介して眼球運動検査装置30から入力値Dinが入力されると、入力された入力値Dinを学習モデル15に入力し、入力値Dinに対する応答(出力値Dout)として、ヘスチャートに対応する疾患名を学習モデル15から取得する。制御部41は、取得した疾患名を、外部ネットワーク50を介して眼球運動検査装置30に出力する。
 通信部42は、外部ネットワーク50を介して眼球運動検査装置30と通信を行う。学習モデル15は、制御部41から入力値Dinが入力されると、入力値Dinに対する応答(出力値Dout)として、ヘスチャートに対応する疾患名を制御部41に出力する。
 本実施の形態では、学習モデル15が外部ネットワーク50上のサーバ装置40に設けられている。このようにした場合には、例えば、複数の眼球運動検査装置30が1つの学習モデル15を共有することが可能となる。これにより、病院内の複数医師や、複数の病院で眼球運動検査装置30を利用して、ヘスチャートに基づく診断を行うことができる。
[変形例E]
 図10は、上記第2の実施の形態に係る眼球運動検査システム20の概略構成の一変形例を表したものである。本変形例では、撮像部12の代わりに受信部18が設けられており、ヘスチャートボード100の代わりに受光パネル700が設けられている。つまり、本変形例において、眼球運動検査装置30は、上記変形例Cに係る眼球運動検査装置10と同様の動作を行うことができるようになっている。
 本変形例でも、学習モデル15が外部ネットワーク50上のサーバ装置40に設けられている。このようにした場合には、例えば、複数の眼球運動検査装置30が1つの学習モデル15を共有することが可能となる。これにより、病院内の複数医師や、複数の病院で眼球運動検査装置30を利用して、ヘスチャートに基づく診断を行うことができる。
 以上、複数の実施の形態およびそれらの変形例を挙げて本発明を説明したが、本発明は上記実施の形態等に限定されるものではなく、種々変形が可能である。なお、本明細書中に記載された効果は、あくまで例示である。本発明の効果は、本明細書中に記載された効果に限定されるものではない。本発明が、本明細書中に記載された効果以外の効果を持っていてもよい。

Claims (6)

  1.  1または複数のヘスチャート画像を取得する画像取得部と、
     前記画像取得部で得られた前記1または複数のヘスチャート画像における基本座標ごとの、前記基本座標と光スポットとのズレに関する数値データを算出するデータ算出部と、
     前記データ算出部で得られた、前記基本座標ごとの前記数値データを所定の規則で並べたズレデータを学習モデルに入力し、前記学習モデルから、前記ヘスチャートに対応する疾患名を取得する疾患名取得部と
     前記疾患名取得部で得られた前記疾患名を表示する表示部と
     を備えた
     眼球運動検査装置。
  2.  前記数値データは、前記基本座標および前記光スポットの座標である
     請求項1に記載の眼球運動検査装置。
  3.  前記数値データは、前記基本座標と前記光スポットとのズレ量である
     請求項1に記載の眼球運動検査装置。
  4.  前記画像取得部は、カメラであり、前記基本座標ごとに前記光スポットがプロットされたヘスチャートを前記カメラで撮像することにより、前記ヘスチャート画像を取得する
     請求項1から請求項3のいずれか一項に記載の眼球運動検査装置。
  5.  前記画像取得部は、カメラであり、ヘスチャートボード上に、前記基本座標をめがけて前記光スポットが照射される度に前記ヘスチャートボードを前記カメラで撮像することにより、前記ヘスチャート画像を取得し、
     前記データ算出部は、前記カメラでの撮像により得られた複数の前記ヘスチャート画像における前記数値データを前記基本座標ごとに算出する
     請求項1から請求項3のいずれか一項に記載の眼球運動検査装置。
  6.  前記画像取得部は、ヘスチャートが描画された受光パネルであり、前記受光パネル上に、前記基本座標をめがけて前記光スポットが照射される度に前記受光パネルで受光することにより、前記ヘスチャート画像を取得し、
     前記データ算出部は、前記受光パネルでの受光により得られた複数の前記ヘスチャート画像における前記数値データを前記基本座標ごとに算出する
     請求項1から請求項3のいずれか一項に記載の眼球運動検査装置。
PCT/JP2020/035367 2020-02-10 2020-09-11 眼球運動検査装置 WO2021161573A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022500222A JPWO2021161573A1 (ja) 2020-02-10 2020-09-11

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020034217 2020-02-10
JP2020-34217 2020-02-10

Publications (1)

Publication Number Publication Date
WO2021161573A1 true WO2021161573A1 (ja) 2021-08-19

Family

ID=77292284

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/035367 WO2021161573A1 (ja) 2020-02-10 2020-09-11 眼球運動検査装置

Country Status (2)

Country Link
JP (1) JPWO2021161573A1 (ja)
WO (1) WO2021161573A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116824683A (zh) * 2023-02-20 2023-09-29 广州视景医疗软件有限公司 一种基于移动设备的眼动数据采集方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009045175A (ja) * 2007-08-17 2009-03-05 Topcon Corp 眼科検査システム
JP2011004930A (ja) * 2009-06-25 2011-01-13 Panasonic Electric Works Co Ltd 眼科検査装置及びヘス検査装置
JP2013169375A (ja) * 2012-02-22 2013-09-02 Jvc Kenwood Corp 脳機能疾患診断支援装置および脳機能疾患診断支援方法
JP2017042301A (ja) * 2015-08-25 2017-03-02 株式会社クリュートメディカルシステムズ 眼検査装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009045175A (ja) * 2007-08-17 2009-03-05 Topcon Corp 眼科検査システム
JP2011004930A (ja) * 2009-06-25 2011-01-13 Panasonic Electric Works Co Ltd 眼科検査装置及びヘス検査装置
JP2013169375A (ja) * 2012-02-22 2013-09-02 Jvc Kenwood Corp 脳機能疾患診断支援装置および脳機能疾患診断支援方法
JP2017042301A (ja) * 2015-08-25 2017-03-02 株式会社クリュートメディカルシステムズ 眼検査装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116824683A (zh) * 2023-02-20 2023-09-29 广州视景医疗软件有限公司 一种基于移动设备的眼动数据采集方法及系统
CN116824683B (zh) * 2023-02-20 2023-12-12 广州视景医疗软件有限公司 一种基于移动设备的眼动数据采集方法及系统

Also Published As

Publication number Publication date
JPWO2021161573A1 (ja) 2021-08-19

Similar Documents

Publication Publication Date Title
US11786148B2 (en) Autonomous diagnosis of ear diseases from biomarker data
US20150325270A1 (en) Motion information display apparatus and method
WO2014112631A1 (ja) 動作情報処理装置及びプログラム
JP2016022150A (ja) 視機能検査装置および視機能検査システム
CN106999337A (zh) 眼睛训练系统和计算机程序产品
JP7196606B2 (ja) 眼科情報処理装置および眼科情報処理プログラム
JP6812685B2 (ja) 動態解析装置
JP7466607B2 (ja) スリットランプ顕微鏡
KR101634730B1 (ko) 안면 마비 평가 장치 및 그 방법
WO2021161573A1 (ja) 眼球運動検査装置
JP2023138577A (ja) スリットランプ顕微鏡
JP2021101965A5 (ja)
JP2020000678A5 (ja)
KR101374295B1 (ko) 안과용 장치
JP6598422B2 (ja) 医用情報処理装置、システム及びプログラム
JP7209954B2 (ja) 眼振解析システム
JP7099086B2 (ja) 動態画像処理装置及びプログラム
EP3888527A1 (en) Ophthalmological device
WO2014104357A1 (ja) 動作情報処理システム、動作情報処理装置及び医用画像診断装置
KR20210104381A (ko) 온라인 안구 검사 시스템 및 방법
Park et al. Telemedicine in ophthalmology
TWM405605U (en) Eyeball medical tracking device
WO2021111939A1 (ja) 放射線撮影システム、放射線撮影方法、医用画像撮影システムおよびプログラム
CN214048773U (zh) 一种眼球运动检查仪器
JP7345610B2 (ja) スリットランプ顕微鏡

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20918611

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022500222

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20918611

Country of ref document: EP

Kind code of ref document: A1