WO2020256148A1 - 評価装置、評価方法、及び評価プログラム - Google Patents

評価装置、評価方法、及び評価プログラム Download PDF

Info

Publication number
WO2020256148A1
WO2020256148A1 PCT/JP2020/024264 JP2020024264W WO2020256148A1 WO 2020256148 A1 WO2020256148 A1 WO 2020256148A1 JP 2020024264 W JP2020024264 W JP 2020024264W WO 2020256148 A1 WO2020256148 A1 WO 2020256148A1
Authority
WO
WIPO (PCT)
Prior art keywords
evaluation
data
area
subject
gazing point
Prior art date
Application number
PCT/JP2020/024264
Other languages
English (en)
French (fr)
Inventor
首藤 勝行
鬼頭 誠
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Priority to EP20826453.1A priority Critical patent/EP3970624B1/en
Publication of WO2020256148A1 publication Critical patent/WO2020256148A1/ja
Priority to US17/537,556 priority patent/US20220079484A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick

Definitions

  • This disclosure relates to an evaluation device, an evaluation method, and an evaluation program.
  • Patent Document 1 has low objectivity because it depends on the subjectivity of the subject, and it is difficult to obtain a highly accurate evaluation.
  • the present disclosure has been made in view of the above, and an object of the present disclosure is to provide an evaluation device, an evaluation method, and an evaluation program capable of accurately evaluating cognitive dysfunction and brain dysfunction.
  • the evaluation device includes a display unit, a gaze point detection unit that detects the position of the gaze point of the subject on the display unit, and a target area that is a target for the subject to gaze, and visions the subject.
  • a display control unit that displays an image including an induction region for inducing a trigger at a position different from the target region on the display unit, and an area setting unit that sets a specific area corresponding to the induction region on the display unit.
  • a determination unit that determines whether or not the gazing point exists in the specific region based on the position data of the gazing point, and a calculation unit that calculates gazing point data based on the determination result of the determination unit. It is provided with an evaluation unit for obtaining evaluation data of the subject based on the gazing point data.
  • the evaluation method includes detecting the position of the gaze point of the subject on the display unit, targeting the target area to be gazed by the subject, and providing an induction area for inducing vision to the subject.
  • the note is based on displaying an image included in a position different from the target region on the display unit, setting a specific area corresponding to the induction region on the display unit, and positioning data of the gazing point. Determining whether or not the viewpoint exists in the specific area, calculating the gazing point data based on the determination result, and obtaining the evaluation data of the subject based on the gazing point data. including.
  • the evaluation program includes a process of detecting the position of the gaze point of the subject on the display unit and a target area as a target for the subject to gaze, and includes an induction area for inducing vision for the subject.
  • the note is based on the process of displaying an image included in a position different from the target area on the display unit, the process of setting a specific area corresponding to the induction region on the display unit, and the position data of the gazing point.
  • an evaluation device capable of accurately evaluating cognitive dysfunction and brain dysfunction.
  • FIG. 1 is a diagram schematically showing an example of an evaluation device according to the present embodiment.
  • FIG. 2 is a functional block diagram showing an example of the evaluation device.
  • FIG. 3 is a diagram showing an example of an evaluation image displayed on the display unit.
  • FIG. 4 is a diagram showing another example of the evaluation image displayed on the display unit.
  • FIG. 5 is a flowchart showing an example of the evaluation method according to the present embodiment.
  • FIG. 6 is a flowchart showing an example of the evaluation method according to the present embodiment.
  • the direction parallel to the first axis of the predetermined surface is the X-axis direction
  • the direction parallel to the second axis of the predetermined surface orthogonal to the first axis is the Y-axis direction
  • the direction parallel to the third axis is the Z-axis direction.
  • the predetermined plane includes an XY plane.
  • FIG. 1 is a diagram schematically showing an example of the evaluation device 100 according to the present embodiment.
  • the evaluation device 100 according to the present embodiment detects the line of sight of the subject and evaluates cognitive dysfunction and brain dysfunction by using the detection result.
  • the evaluation device 100 includes, for example, a device that detects the line of sight based on the position of the pupil of the subject and the position of the corneal reflex image, or a device that detects the line of sight based on the position of the inner corner of the eye of the subject and the position of the iris.
  • Various devices capable of detecting the line of sight of the above can be used.
  • the evaluation device 100 includes a display device 10, an image acquisition device 20, a computer system 30, an output device 40, an input device 50, and an input / output interface device 60.
  • the display device 10, the image acquisition device 20, the computer system 30, the output device 40, and the input device 50 perform data communication via the input / output interface device 60.
  • the display device 10 and the image acquisition device 20 each have a drive circuit (not shown).
  • the display device 10 includes a flat panel display such as a liquid crystal display (LCD) or an organic electroluminescence display (OLED).
  • the display device 10 has a display unit 11.
  • the display unit 11 displays information such as an image.
  • the display unit 11 is substantially parallel to the XY plane.
  • the X-axis direction is the left-right direction of the display unit 11
  • the Y-axis direction is the vertical direction of the display unit 11
  • the Z-axis direction is the depth direction orthogonal to the display unit 11.
  • the display device 10 may be a head-mounted display device. In the case of a head-mounted display, a configuration such as the image acquisition device 20 is arranged in the head-mounted module.
  • the image acquisition device 20 acquires image data of the left and right eyeballs EB of the subject, and transmits the acquired image data to the computer system 30.
  • the image acquisition device 20 has a photographing device 21.
  • the imaging device 21 acquires image data by photographing the left and right eyeballs EB of the subject.
  • the photographing device 21 has various cameras according to the method of detecting the line of sight of the subject. For example, in the case of a method of detecting the line of sight based on the position of the pupil of the subject and the position of the reflected image of the corneal membrane, the photographing device 21 has an infrared camera and can transmit near-infrared light having a wavelength of 850 [nm], for example.
  • the photographing device 21 has an optical system and an image pickup element capable of receiving its near-infrared light. Further, for example, in the case of a method of detecting the line of sight based on the position of the inner corner of the eye of the subject and the position of the iris, the photographing device 21 has a visible light camera. The photographing device 21 outputs a frame synchronization signal. The period of the frame synchronization signal can be, for example, 20 [msec], but is not limited to this.
  • the photographing device 21 can be configured as a stereo camera having, for example, a first camera 21A and a second camera 21B, but is not limited thereto.
  • the image acquisition device 20 includes a lighting device 22 that illuminates the eyeball EB of the subject.
  • the lighting device 22 includes an LED (light emission diode) light source, and can emit near-infrared light having a wavelength of, for example, 850 [nm].
  • the lighting device 22 may not be provided.
  • the lighting device 22 emits detection light so as to synchronize with the frame synchronization signal of the photographing device 21.
  • the lighting device 22 can be configured to include, for example, a first light source 22A and a second light source 22B, but is not limited thereto.
  • the computer system 30 comprehensively controls the operation of the evaluation device 100.
  • the computer system 30 includes an arithmetic processing unit 30A and a storage device 30B.
  • the arithmetic processing device 30A includes a microprocessor such as a CPU (central processing unit).
  • the storage device 30B includes a memory or storage such as a ROM (read only memory) and a RAM (random access memory).
  • the arithmetic processing unit 30A performs arithmetic processing according to the computer program 30C stored in the storage device 30B.
  • the output device 40 includes a display device such as a flat panel display.
  • the output device 40 may include a printing device.
  • the input device 50 generates input data by being operated.
  • the input device 50 includes a keyboard or mouse for a computer system.
  • the input device 50 may include a touch sensor provided on the display unit of the output device 40, which is a display device.
  • the display device 10 and the computer system 30 are separate devices.
  • the display device 10 and the computer system 30 may be integrated.
  • the evaluation device 100 may include a tablet-type personal computer.
  • the tablet-type personal computer may be equipped with a display device, an image acquisition device, a computer system, an input device, an output device, and the like.
  • FIG. 2 is a functional block diagram showing an example of the evaluation device 100.
  • the computer system 30 includes a display control unit 31, a gazing point detection unit 32, an area setting unit 33, a determination unit 34, a calculation unit 35, an evaluation unit 36, and an input / output control unit. It has 37 and a storage unit 38.
  • the functions of the computer system 30 are exhibited by the arithmetic processing unit 30A and the storage device 30B (see FIG. 1).
  • the computer system 30 may have some functions provided outside the evaluation device 100.
  • the display control unit 31 includes an evaluation target area to be watched by the subject, and includes an induction area for inducing hallucinations in the subject having Lewy body dementias at a position different from the target area.
  • the image (image) for display is displayed on the display unit.
  • the induced region has a lower value of at least one of sharpness, brightness, contrast and saturation than the target region.
  • the target region has at least one value of sharpness, brightness, contrast, and saturation higher than that of the periphery.
  • a landscape in which an object in the target region exists on the front side in the depth direction and an object in the induction region exists on the back side in the depth direction is photographed with the object in the target region as the focal position. It is a photographic image.
  • the display form of the evaluation image may be either a still image or a moving image.
  • the gazing point detection unit 32 detects the position data of the gazing point of the subject.
  • the gazing point detection unit 32 detects the subject's line-of-sight vector defined by the three-dimensional global coordinate system based on the image data of the left and right eyeballs EB of the subject acquired by the image acquisition device 20.
  • the gazing point detection unit 32 detects the position data of the intersection of the detected subject's line-of-sight vector and the display unit 11 of the display device 10 as the position data of the gazing point of the subject. That is, in the present embodiment, the gazing point position data is the position data of the intersection of the line-of-sight vector of the subject defined by the three-dimensional global coordinate system and the display unit 11 of the display device 10.
  • the gazing point is a designated point on the display unit 11 designated by being watched by the subject.
  • the gazing point detection unit 32 detects the position data of the gazing point of the subject at each predetermined sampling cycle.
  • This sampling cycle can be, for example, the cycle of the frame synchronization signal output from the photographing apparatus 21 (for example, every 20 [msec]).
  • the area setting unit 33 sets the specific area corresponding to the induction region and the comparison area corresponding to the target area in the display unit 11.
  • the arrangement of the induction region and the target region is different. Therefore, the area setting unit 33 sets a specific area and a comparison area, respectively.
  • the determination unit 34 determines whether or not the gazing point exists in the specific area and the comparison area based on the position data of the gazing point during the period in which the specific area and the comparison area are set by the area setting unit 33. Output the judgment data.
  • the determination unit 34 determines whether or not the gazing point exists in the specific region and the comparison region at each predetermined determination cycle.
  • the determination cycle can be, for example, the same as the cycle of the frame synchronization signal output from the photographing device 21 (for example, every 20 [msec]). In this case, the determination cycle of the determination unit 34 is the same as the sampling cycle of the gazing point detection unit 32.
  • the calculation unit 35 calculates the gaze point data indicating the progress of the gaze point movement during the period in which the specific area and the comparison area are set.
  • the calculation unit 35 calculates, for example, at least one of arrival time data, movement count data, and existence time data, and final area data as gaze point data.
  • the arrival time data indicates the time until the arrival time when the gazing point first reaches a specific area.
  • the movement count data indicates the number of times the position of the gazing point moves between the comparison regions before the gazing point first reaches a specific region.
  • the existence time data indicates the existence time when the gazing point existed in a specific area during the display period of the reference image.
  • the final area data indicates the area of the specific area and the comparison area where the gazing point last existed in the display time.
  • the calculation unit 35 includes a timer that detects the elapsed time since the evaluation image is displayed on the display unit 11, and a counter that counts the number of determinations that the determination unit 34 determines that the gazing point exists in the specific area and the comparison area. And have.
  • the evaluation unit 36 obtains the evaluation data of the subject based on the gazing point data.
  • the evaluation data includes data for evaluating whether or not the subject can gaze at the specific object and the comparison object displayed on the display unit 11.
  • the input / output control unit 37 acquires data (image data of the eyeball EB, input data, etc.) from at least one of the image acquisition device 20 and the input device 50. Further, the input / output control unit 37 outputs data to at least one of the display device 10 and the output device 40.
  • the storage unit 38 stores the above-mentioned determination data, gaze point data (existence time data), and evaluation data. Further, the storage unit 38 includes a process of detecting the position of the gaze point of the subject on the display unit 11 and a target area M1 as a target to be gazed by the subject, and is intended for a subject having Levy body dementia among the subjects. The process of displaying the evaluation image IM1 including the induction areas C1 and C2 for inducing vision at a position different from the target area M1 on the display unit 11, and the specific areas A1 and A2 corresponding to the induction areas C1 and C2.
  • the evaluation program for causing the computer to execute the process of performing the above, the process of calculating the gazing point data based on the determination result, and the process of obtaining the evaluation data of the subject based on the gazing point data are stored.
  • the evaluation method according to this embodiment will be described.
  • the cognitive dysfunction and the brain dysfunction of the subject are evaluated by using the evaluation device 100 described above.
  • cognitive dysfunction and brain dysfunction for example, a case where Lewy body dementias is evaluated will be described.
  • FIG. 3 is a diagram showing an example of an evaluation image displayed on the display unit 11.
  • the display control unit 31 causes the display unit 11 to display a photographic image as the evaluation image IM1.
  • the evaluation image IM1 is a photographic image in which a flower is reflected on the lower side in the drawing and a grove is reflected on the upper side in the drawing.
  • the evaluation image IM1 is a photographic image of a landscape in which a flower exists on the front side in the depth direction and a grove exists on the back side in the depth direction, with the flower as the focal position. Therefore, the evaluation image IM1 has higher sharpness, brightness, and contrast in the region where the flower is reflected than in the peripheral region.
  • the evaluation image IM1 includes a region in which the flower is reflected as an object as a target region M1.
  • the target area M1 is a target area to be watched by the subject.
  • Lewy body dementias As one of the symptoms of Lewy body dementias, a symptom that induces hallucinations is known. Subjects with Lewy body dementias tend to gaze at the area of interest, for example, if hallucinations are induced when gazing at an image. When evaluating such Lewy body dementias, the subject is shown an image that includes a region that induces hallucinations.
  • the area of the grove on the back side is different from the target area M1 in the following points. 1.
  • the focus is on the flowers and the grove is blurry. That is, the area of the grove has a lower sharpness than the target area M1. 2.
  • the area of the grove has lower brightness (darker) than the target area M1. 3.
  • the area of the grove has a lower contrast than the target area M1.
  • the evaluation image IM1 is a color image, an image in which the saturation of the grove area is lower than the saturation of the target area M1 is adopted.
  • the area of the grove includes an area that easily induces hallucinations for a subject with Lewy body dementias.
  • the region C1 which is a part of the region of the grove is a region that induces a human figure or the like as a hallucination in a subject having Lewy body dementias.
  • the region C1 will be referred to as an induction region C1.
  • the region C2, which is a part of the region of the grove is a region that induces a human face or the like as a hallucination for a subject having Lewy body dementias.
  • the region C2 will be referred to as an induction region C2.
  • the induced regions C1 and C2 are only a part of a grove region having low sharpness, brightness, and contrast (or saturation) for a subject who does not have Lewy body dementias, and is a human figure or a human face. It becomes an area where it is difficult to induce visions such as. Therefore, when the subject does not have Lewy body dementias, when the evaluation image IM1 is displayed on the display unit 11, there is a high possibility that the target region M1 having high sharpness, brightness, and contrast will be watched.
  • an image showing a significant difference between a subject who does not have Lewy body dementias and a subject who has Lewy body dementias is used. be able to.
  • An image containing the evoked region can be used.
  • the evaluation image IM1 includes the induction regions C1 and C2 in a natural state with little discomfort for a subject who does not have Lewy body dementias. Therefore, it is suppressed that a subject who does not have Lewy body dementias gazes at the induced regions C1 and C2.
  • the area setting unit 33 sets the specific areas A1 and A2 corresponding to the induction areas C1 and C2, respectively. Further, the area setting unit 33 sets the comparison area B with respect to the target area M1.
  • the area setting unit 33 can set the specific areas A1 and A2 in the area including at least a part of the induction areas C1 and C2, respectively. Further, the area setting unit 33 can set the comparison area B in the area including at least a part of the target area M1.
  • the area setting unit 33 sets the specific area A1 in the rectangular area including the induction area C1 and sets the specific area A2 in the circular area including the induction area C2. Further, the area setting unit 33 sets the comparison area B in a rectangular area including the target area M1.
  • the gazing point detection unit 32 detects the position data of the gazing point P of the subject every predetermined sampling cycle (for example, 20 [msec]) during the period when the evaluation image IM1 is displayed.
  • the determination unit 34 determines whether the gaze point of the subject exists in the specific areas A1 and A2 and the comparison area B, and outputs the determination data. Therefore, the determination unit 34 outputs determination data at the same determination cycle as the above sampling cycle.
  • the calculation unit 35 calculates the gazing point data indicating the progress of the movement of the gazing point P during the display period based on the determination data.
  • the calculation unit 35 calculates, for example, existence time data, movement count data, final area data, and arrival time data as gazing point data.
  • the existence time data indicates the existence time when the gazing point P existed in the specific areas A1 and A2.
  • the existence time data can be the number of times that the determination unit 34 determines that the gazing point exists in the specific areas A1, A2 or the comparison area B. That is, the calculation unit 35 can use the count values CNTA1, CNTA2, and CNTB in the counter as the existence time data.
  • the count value CNTA1 is the number of times it is determined that the gazing point exists in the specific region A1.
  • the count value CNTA2 is the number of times it is determined that the gazing point exists in the specific region A2.
  • the count value CNTB is the number of times it is determined that the gazing point exists in the comparison region B.
  • the movement count data indicates the number of movements in which the position of the gazing point P moves to and from the comparison area B before the gazing point P first reaches the specific area A1 or the specific area A2. Therefore, the calculation unit 35 counts how many times the gaze point P has moved between the specific areas A1 and A2 and the comparison area B, and counts the count result until the gaze point P reaches the specific areas A1 and A2. It can be used as movement count data.
  • the final area data indicates the area of the specific areas A1, A2 and the comparison area B where the gazing point P was last present, that is, the area where the subject was last gazing as an answer.
  • the arrival time data indicates the time from the start of display of the evaluation image IM1 to the arrival time when the gazing point P first reaches the specific areas A1 and A2. Therefore, the calculation unit 35 measures the elapsed time from the start of display by the timer T1, and when the gazing point first reaches the specific area A1 or the specific area A2, the flag value FA1 or the flag value FA2 is set to 1 and the timer T1 By detecting the measured value, the detection result of the timer T1 can be used as the arrival time data.
  • the evaluation unit 36 obtains an evaluation value based on the existence time data, the number of movements data, the final area data, and the arrival time data, and obtains the evaluation data based on the evaluation value.
  • the data value of the final area data is D1
  • the data value of the existence time data is D2 to D4
  • the data value of the arrival time data is D5
  • the data value of the movement count data is D6.
  • the data value D1 of the final region data exists in the comparison region B, 1 if the final gazing point P of the subject exists in the specific region A1, 0.8 if it exists in the specific region A2, and so on. If so, it is set to 0.
  • the data values D2 to D4 of the existence time data are the number of seconds in which the gazing point P exists in each of the specific areas A1 and A2 and the comparison area B.
  • the data values D2 to D4 may be provided with an upper limit of the number of seconds shorter than the display period of the evaluation image IM1.
  • the data value D5 of the arrival time data is the reciprocal of the arrival time (for example, 1 / (arrival time) ⁇ 10) (10: The minimum value of the arrival time is 0.1 seconds, and the arrival time evaluation value is 1 or less. Coefficient for).
  • the data value D6 of the movement count data the count value is used as it is.
  • the data value D6 may be appropriately provided with an upper limit value.
  • K1 to K6 are constants for weighting.
  • the constants K1 to K6 can be set as appropriate.
  • K4 0 may be set. That is, the data value D4 of the existence time data of the comparison region B does not have to be included in the evaluation.
  • the evaluation value ANS represented by the above formula is when the data value D1 of the final region data is 1 or 0.8, when the data values D2 and D3 of the existence time data are large, and when the data value D4 of the existence time data is small.
  • the data value D5 of the arrival time data is large, and when the value of the data value D6 of the movement count data is small, the value becomes large. That is, the final gaze point P exists in the specific areas A1 and A2, the gaze point P exists in the specific areas A1 and A2 for a long time, the gaze point P exists in the comparison area B for a short time, and the display period starts. The shorter the arrival time at which the gazing point P reaches the specific areas A1 and A2 from the time point, and the smaller the number of times the gazing point P moves in each area, the larger the evaluation value ANS.
  • the evaluation value ANS is the data value of the arrival time data when the data value D1 of the final area data is 0, the data values D2 and D3 of the existence time data are small, the data value D4 of the existence time data is large.
  • D5 is small
  • the value of the data value D6 of the movement count data is large, the value becomes small. That is, the final gaze point P exists in the comparison area B, the gaze point P exists in the specific areas A1 and A2 for a short time, and the gaze point P exists in the comparison area B for a long time, from the start of the display period.
  • the evaluation value ANS becomes smaller as the arrival time at which the gazing point P reaches the specific regions A1 and A2 is longer or does not reach, and the number of movements by which the gazing point P moves in each region is larger.
  • the evaluation unit 36 can obtain the evaluation data by determining whether or not the evaluation value ANS is equal to or higher than the predetermined value. For example, if the evaluation value ANS is less than a predetermined value, it can be evaluated that the subject is unlikely to have Lewy body dementias. In addition, when the evaluation value ANS is equal to or higher than a predetermined value, it can be evaluated that the subject is highly likely to have Lewy body dementias.
  • the evaluation unit 36 can store the value of the evaluation value ANS in the storage unit 38.
  • the evaluation value ANS for the same subject may be cumulatively stored and evaluated when compared with the past evaluation values. For example, when the evaluation value ANS is lower than the past evaluation value, it is possible to evaluate that the brain function is improved as compared with the previous evaluation. In addition, when the cumulative value of the evaluation value ANS is gradually decreasing, it is possible to evaluate that the brain function is gradually improved.
  • the evaluation unit 36 may perform evaluation by individually or combining a plurality of existence time data, movement count data, final area data, and arrival time data. For example, if the gazing point P accidentally reaches the comparison region B while looking at many objects, the data value D6 of the movement count data becomes large. In this case, the evaluation can be performed together with the data value D4 of the existence time data described above. For example, even if the number of movements is small, if the existence time is long, it can be evaluated that the comparison area B can be watched. Further, when the number of movements is small and the existence time is short, it can be evaluated that the gazing point P accidentally passes through the comparison region B.
  • the evaluation data can be obtained based on the progress of the gazing point movement, so that the influence of chance can be reduced.
  • the input / output control unit 37 when the evaluation unit 36 outputs the evaluation data, the input / output control unit 37, for example, "the subject is unlikely to have Lewy body dementias" according to the evaluation data. It is possible to output the character data, the character data of "the subject is likely to have Lewy body dementias", and the like to the output device 40. Further, when the evaluation value ANS for the same subject is lower than the past evaluation value ANS, the input / output control unit 37 outputs character data such as "brain function is improved" or the like. Can be output to.
  • FIG. 4 is a diagram showing another example of the evaluation image displayed on the display unit 11.
  • the display control unit 31 causes the display unit 11 to display a photographic image as the evaluation image IM2.
  • the evaluation image IM2 is a photographic image in which the bicycle is shown on the lower right side in the figure and the grove is shown on the upper side in the figure.
  • the evaluation image IM2 is a photographic image of a landscape in which a bicycle exists on the front side in the depth direction and a grove exists on the back side in the depth direction, with the bicycle as the focal position. Therefore, the evaluation image IM2 has higher sharpness, brightness, and contrast in the area where the bicycle is reflected than in the peripheral area.
  • the evaluation image IM2 includes a region in which the bicycle is reflected as an object as a target region M2.
  • the target area M2 is a target area to be watched by the subject.
  • the area of the grove on the back side is different from the target area M2 in the following points. 4.
  • the focus is on the bicycle and the grove is blurry. That is, the area of the grove has a lower sharpness than the target area M2. 5.
  • the area of the grove has lower brightness (darker) than the target area M2. 6.
  • the grove area has a lower contrast than the target area M2.
  • the evaluation image IM2 has a region that easily induces hallucinations for a subject with Lewy body dementias.
  • the region C3, which is a part of the region of the grove is a region that induces a human figure as a hallucination in a subject having Lewy body dementias.
  • the region C3 will be referred to as an induction region C3.
  • the area C4, which is a part of the area of the grove is an area that induces a human face as a hallucination for a subject having Lewy body dementias.
  • the region C4 will be referred to as an induction region C4.
  • the area setting unit 33 sets specific areas A1 and A2 corresponding to the induction areas C3 and C4 during the period in which the evaluation image IM2 is displayed. Further, the area setting unit 33 sets the comparison area B with respect to the target area M2.
  • the area setting unit 33 can set the specific areas A1 and A2 in the area including at least a part of the induction areas C3 and C4, respectively. Further, the area setting unit 33 can set the comparison area B in the area including at least a part of the target area M2.
  • the area setting unit 33 sets the specific area A1 in the rectangular area including the induction area C3, and sets the specific area A2 in the circular area including the induction area C4. Further, the area setting unit 33 sets the comparison area B in a rectangular area including the target area M2.
  • the display control unit 31 can display the evaluation image IM1 shown in FIG. 3 for a predetermined time, and then display the evaluation image IM2 shown in FIG. 4 on the display unit 11 for a predetermined time.
  • the display control unit 31 can display the evaluation image IM1 shown in FIG. 3 for a predetermined time, and then display the evaluation image IM2 shown in FIG. 4 on the display unit 11 for a predetermined time.
  • FIGS. 5 and 6 are flowcharts showing an example of the evaluation method according to the present embodiment.
  • the display control unit 31 starts the reproduction of the evaluation video (display of the evaluation image IM1) (step S101).
  • the evaluation image IM1 may be displayed, for example, in the interval of displaying an image for performing another evaluation on the subject.
  • the timer T1 is reset (step S102), and the counter count values CNTA1, CNTA2, and CNTB are reset (step S103). Further, the display control unit 31 sets the flag values FA1 and FA2 to 0 and clears the final area and the number of routes (step S104).
  • the gazing point detection unit 32 shows the image displayed on the display unit 11 to the subject, and the display unit 11 is used every predetermined sampling cycle (for example, 20 [msec]).
  • the position data of the gazing point of the subject in the above is detected (step S105).
  • the determination unit 34 determines the region where the gazing point P exists based on the position data (step S107). If the position data is not detected (Yes in step S106), the processes after step S131, which will be described later, are performed.
  • step S108 the calculation unit 35 determines whether or not the flag value FA1 is 1, that is, the gazing point P has reached the specific area A1. Is the first or not (1: reached, 0: not reached) is determined (step S109).
  • the calculation unit 35 skips step S112 from the following step S110 and performs the process of step S113 described later.
  • the calculation unit 35 obtains the measurement result of the timer T1 as the arrival time data. (Step S110), and the number of times of integration indicating how many times the gazing point P has moved between the regions before reaching the specific region A1 is saved (step S111). After that, the calculation unit 35 changes the flag value to 1 (step S112).
  • the calculation unit 35 determines whether or not the region where the gazing point P exists in the latest detection, that is, the final region is the specific region A1 (step S113).
  • the calculation unit 35 determines that the final area is the specific area A1 (Yes in step S113)
  • the calculation unit 35 skips the following steps S114 and S115 and performs the process of step S116 described later.
  • the calculation unit 35 sets the total number of times indicating how many times the gazing point P has moved between the regions to +1 (step S114).
  • the final region is set to the specific region A1 (step S115), and the count value CNTA1 indicating the existence time data in the specific region A1 is set to +1 (step S116).
  • the calculation unit 35 performs the processes after step S131, which will be described later.
  • step S117 determines whether or not the gazing point P exists in the specific area A2 (step S117).
  • the calculation unit 35 determines whether or not the flag value FA2 is 1, that is, the gazing point P has reached the specific area A2. Is the first or not (1: reached, 0: not reached) is determined (step S118).
  • the flag value FA2 is 1 (Yes in step S118)
  • the calculation unit 35 skips step S121 from step S119 below and performs the process of step S122 described later.
  • the calculation unit 35 obtains the measurement result of the timer T1 as the arrival time data. (Step S119), and the number of times of integration indicating how many times the gazing point P has moved between the regions before reaching the specific region A2 is saved (step S120). After that, the calculation unit 35 changes the flag value to 1 (step S121).
  • the calculation unit 35 determines whether or not the region where the gazing point P exists in the latest detection, that is, the final region is the specific region A2 (step S122).
  • the calculation unit 35 determines that the final area is the specific area A2 (Yes in step S122)
  • the calculation unit 35 skips the following steps S123 and S124 and performs the process of step S125 described later.
  • the calculation unit 35 sets the total number of times indicating how many times the gazing point P has moved between the regions to +1 (step S123).
  • the final region is set to the specific region A2 (step S124), and the count value CNTA2 indicating the existence time data in the specific region A2 is set to +1 (step S125).
  • the calculation unit 35 performs the processes after step S131, which will be described later.
  • the calculation unit 35 determines whether or not the gazing point P exists in the comparison area B (step S126). When it is determined that the gazing point P exists in the comparison area B (Yes in step S126), the calculation unit 35 determines whether or not the gazing point P exists in the latest detection, that is, the final area is the comparison area B. Is determined (step S127). When the calculation unit 35 determines that the final area is the comparison area B (Yes in step S127), the calculation unit 35 skips the following steps S128 and S129 and performs the process of step S130 described later.
  • the calculation unit 35 sets the total number of times indicating how many times the gazing point P has moved between the regions to +1 (step S128).
  • the final region is set to the comparison region B (step S129), and the count value CNTB indicating the existence time data in the comparison region B is set to +1 (step S130).
  • the calculation unit 35 performs the processes after step S131 described later.
  • the calculation unit 35 determines whether or not the time for completing the reproduction of the evaluation image has been reached based on the detection result of the detection timer T1 (step S131). When the calculation unit 35 determines that the time at which the reproduction of the evaluation image is completed has not been reached (No in step S131), the processes after step S105 are repeated.
  • the display control unit 31 stops the reproduction of the video related to the instruction display operation as shown in FIG. 5 (Yes).
  • Step S132 After the playback of the video is stopped, the evaluation unit 36 calculates the evaluation value ANS based on the existence time data, the movement count data, the arrival time data, and the final area data obtained from the above processing result. (Step S133), the evaluation data is obtained based on the evaluation value ANS. After that, the input / output control unit 37 outputs the evaluation data obtained by the evaluation unit 36 (step S134).
  • the evaluation device 100 includes a display unit 11, a gaze point detection unit 32 that detects the position of the gaze point of the subject on the display unit 11, and a target area M1 that is a target for the subject to gaze.
  • the display control unit 31 that displays the evaluation image IM1 including the induction areas C1 and C2 for inducing vision at a position different from the target area M1 on the display unit 11, and the identification corresponding to the induction areas C1 and C2.
  • the area setting unit 33 that sets the areas A1 and A2 in the display unit 11 and the determination unit 34 that determines whether or not the gazing point exists in the specific areas A1 and A2 based on the position data of the gazing point.
  • a calculation unit 35 that calculates the gazing point data based on the determination result of the unit 34, and an evaluation unit 36 that obtains the evaluation data of the subject based on the gazing point data are provided.
  • the evaluation method includes detecting the position of the gaze point of the subject on the display unit 11 and targeting the target area M1 to be gazed by the subject, and induces the subject to induce vision.
  • the evaluation image IM1 including the regions C1 and C2 at a position different from the target region M1 is displayed on the display unit 11, and the specific regions A1 and A2 corresponding to the induction regions C1 and C2 are set on the display unit 11. , Judgment whether the gaze point exists in the specific areas A1 and A2 based on the position data of the gaze point, calculating the gaze point data based on the judgment result, and using the gaze point data. Including obtaining evaluation data of the subject based on the subject.
  • the evaluation program includes a process of detecting the position of the gaze point of the subject on the display unit 11 and a target area M1 as a target for the subject to gaze, and induces the subject to induce vision.
  • the evaluation image IM1 When the subject does not have Lewy body dementias, when the evaluation image IM1 is displayed on the display unit 11, there is a high possibility that the target region M1 having high sharpness, brightness, and contrast will be watched. Further, when the subject has Lewy body dementias, when the evaluation image IM1 is displayed on the display unit 11, there is a high possibility that the induction regions C1 and C2 that induce hallucinations are gazed at. According to the above configuration, since the evaluation image IM1 in which a region that easily induces hallucinations exists in the subject with Lewy body dementias is made to gaze at the subject, the evaluation can be performed regardless of the subject's subjectivity. .. Moreover, since the evaluation data can be obtained based on the gazing point data of the subject, the influence of chance can be reduced.
  • the area setting unit 33 further sets the comparison area B corresponding to the target area M1 in the display unit 11, and the determination unit 34 in the specific areas A1, A2 and the comparison area B. Determine if the gaze point exists. As a result, the subject can be evaluated with higher accuracy.
  • the induction regions C1 and C2 have lower values of at least one of sharpness, brightness, contrast, and saturation than the target region M1. As a result, it is possible to efficiently include a region that easily induces hallucinations in a subject having Lewy body dementias.
  • the target region M1 has at least one value of sharpness, brightness, contrast, and saturation higher than that of the periphery.
  • the evaluation image IM1 has an object of the target region M1 on the front side in the depth direction and objects of the induction regions C1 and C2 on the back side in the depth direction. This is a photographic image taken with the object in the target region M1 as the focal position. As a result, a subject who does not have Lewy body dementias can more reliably gaze at the object in the target region M1 on the front side.
  • the evaluation image IM1 can include the induction regions C1 and C2 in a natural state with less intentionality. Therefore, it is possible to prevent a subject who does not have Lewy body dementias from gazing at the induced regions C1 and C2, and it is possible to perform highly accurate evaluation.
  • the gazing point data includes arrival time data indicating the time until the point of arrival when the gazing point first reaches the specific areas A1 and A2, and the gazing point first reaches the specific areas A1 and A2. At least one of the movement count data indicating the number of times the position of the gazing point moves between the plurality of comparison regions B before reaching, and the existence time data indicating the existence time existing in the specific areas A1 and A2. And the final area data indicating the area in which the gazing point last existed in the display time among the specific areas A1 and A2 and the comparison area B, the evaluation unit 36 includes the arrival time data, the number of movements data, and the existence. Evaluation data is obtained by weighting differently between the time data and the final area data. Thereby, the influence of chance can be reduced more reliably.
  • the evaluation device 100 As a result of evaluation by the evaluation unit 36 as the evaluation images IM1 and IM2, there is a significant difference between the subject who does not have Lewy body dementias and the subject who has Lewy body dementias. The image in which is seen is used. Therefore, the possibility that the subject has Lewy body dementias can be evaluated with high accuracy.
  • the technical scope of the present disclosure is not limited to the above-described embodiment, and changes can be made as appropriate without departing from the spirit of the present disclosure.
  • the evaluation image may include an induction region that induces a non-human animal such as a small animal or an insect as a hallucination.
  • the present invention is not limited to this.
  • the evaluation value may be calculated based only on the gazing point data of the specific areas A1 and A2 without using the gazing point data for the comparison region B.
  • the area setting unit 33 may set only the specific areas A1 and A2, and may not set the comparison area B.
  • the evaluation device, evaluation method, and evaluation program of the present disclosure can be used, for example, in a line-of-sight detection device.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Neurology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Educational Technology (AREA)
  • Social Psychology (AREA)
  • Neurosurgery (AREA)
  • Physiology (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

評価装置(100)は、表示部(11)と、表示部(11)上における被験者の注視点の位置を検出する注視点検出部(32)と、被験者に注視させる目標となる目標領域を含み、被験者に対して幻視を誘発させるための誘発領域を目標領域とは異なる位置に含む画像を表示部(11)に表示する表示制御部(31)と、誘発領域に対応した特定領域を表示部(11)に設定する領域設定部(33)と、注視点の位置データに基づいて、注視点が特定領域に存在するか否かの判定を行う判定部(34)と、判定部(34)の判定結果に基づいて、注視点データを算出する演算部(35)と、注視点データに基づいて、被験者の評価データを求める評価部(36)とを備える。

Description

評価装置、評価方法、及び評価プログラム
 本開示は、評価装置、評価方法、及び評価プログラムに関する。
 近年、認知機能障害および脳機能障害が増加傾向にあるといわれており、このような認知機能障害および脳機能障害を早期に発見し、症状の重さを定量的に評価することが求められている。このような認知機能障害および脳機能障害のうち、例えば、レビー小体型認知症の評価を行う場合、被験者に幻視の有無を質問し、被検者に答えさせる方法について開示されている(例えば、特許文献1参照)。
特開2017-217051号公報
 しかしながら、特許文献1に記載の方法では、被検者の主観に依存するため客観性が低く、高精度の評価を得ることが困難であった。
 本開示は、上記に鑑みてなされたものであり、精度よく認知機能障害および脳機能障害の評価を行うことが可能な評価装置、評価方法、及び評価プログラムを提供することを目的とする。
 本開示に係る評価装置は、表示部と、前記表示部上における被験者の注視点の位置を検出する注視点検出部と、被験者に注視させる目標となる目標領域を含み、前記被験者に対して幻視を誘発させるための誘発領域を前記目標領域とは異なる位置に含む画像を前記表示部に表示する表示制御部と、前記誘発領域に対応した特定領域を前記表示部に設定する領域設定部と、前記注視点の位置データに基づいて、前記注視点が前記特定領域に存在するか否かの判定を行う判定部と、前記判定部の判定結果に基づいて、注視点データを算出する演算部と、前記注視点データに基づいて、前記被験者の評価データを求める評価部とを備える。
 本開示に係る評価方法は、表示部上における被験者の注視点の位置を検出することと、被験者に注視させる目標となる目標領域を含み、前記被験者に対して幻視を誘発させるための誘発領域を前記目標領域とは異なる位置に含む画像を前記表示部に表示することと、前記誘発領域に対応した特定領域を前記表示部に設定することと、前記注視点の位置データに基づいて、前記注視点が前記特定領域に存在するか否かの判定を行うことと、判定結果に基づいて、注視点データを算出することと、前記注視点データに基づいて、前記被験者の評価データを求めることとを含む。
 本開示に係る評価プログラムは、表示部上における被験者の注視点の位置を検出する処理と、被験者に注視させる目標となる目標領域を含み、前記被験者に対して幻視を誘発させるための誘発領域を前記目標領域とは異なる位置に含む画像を前記表示部に表示する処理と、前記誘発領域に対応した特定領域を前記表示部に設定する処理と、前記注視点の位置データに基づいて、前記注視点が前記特定領域に存在するか否かの判定を行う処理と、判定結果に基づいて、注視点データを算出する処理と、前記注視点データに基づいて、前記被験者の評価データを求める処理とをコンピュータに実行させる。
 本開示によれば、精度よく認知機能障害および脳機能障害の評価を行うことが可能な評価装置、評価方法、及び評価プログラムを提供することができる。
図1は、本実施形態に係る評価装置の一例を模式的に示す図である。 図2は、評価装置の一例を示す機能ブロック図である。 図3は、表示部に表示する評価用画像の一例を示す図である。 図4は、表示部に表示する評価用画像の他の例を示す図である。 図5は、本実施形態に係る評価方法の一例を示すフローチャートである。 図6は、本実施形態に係る評価方法の一例を示すフローチャートである。
 以下、本開示に係る評価装置、評価方法、及び評価プログラムの実施形態を図面に基づいて説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。
 以下の説明においては、三次元グローバル座標系を設定して各部の位置関係について説明する。所定面の第1軸と平行な方向をX軸方向とし、第1軸と直交する所定面の第2軸と平行な方向をY軸方向とし、第1軸及び第2軸のそれぞれと直交する第3軸と平行な方向をZ軸方向とする。所定面はXY平面を含む。
 [評価装置]
 図1は、本実施形態に係る評価装置100の一例を模式的に示す図である。本実施形態に係る評価装置100は、被験者の視線を検出し、検出結果を用いることで認知機能障害および脳機能障害の評価を行う。評価装置100としては、例えば被験者の瞳孔の位置と角膜反射像の位置とに基づいて視線を検出する装置、又は被験者の目頭の位置と虹彩の位置とに基づいて視線を検出する装置等、被験者の視線を検出可能な各種の装置を用いることができる。
 図1に示すように、評価装置100は、表示装置10と、画像取得装置20と、コンピュータシステム30と、出力装置40と、入力装置50と、入出力インターフェース装置60とを備える。表示装置10、画像取得装置20、コンピュータシステム30、出力装置40及び入力装置50は、入出力インターフェース装置60を介してデータ通信を行う。表示装置10及び画像取得装置20は、それぞれ不図示の駆動回路を有する。
 表示装置10は、液晶ディスプレイ(liquid crystal display:LCD)又は有機ELディスプレイ(organic electroluminescence display:OLED)のようなフラットパネルディスプレイを含む。本実施形態において、表示装置10は、表示部11を有する。表示部11は、画像等の情報を表示する。表示部11は、XY平面と実質的に平行である。X軸方向は表示部11の左右方向であり、Y軸方向は表示部11の上下方向であり、Z軸方向は表示部11と直交する奥行方向である。表示装置10は、ヘッドマウント型ディスプレイ装置であってもよい。ヘッドマウント型ディスプレイの場合、ヘッドマウントモジュール内に画像取得装置20のような構成が配置されることになる。
 画像取得装置20は、被験者の左右の眼球EBの画像データを取得し、取得した画像データをコンピュータシステム30に送信する。画像取得装置20は、撮影装置21を有する。撮影装置21は、被験者の左右の眼球EBを撮影することで画像データを取得する。撮影装置21は、被験者の視線を検出する方法に応じた各種カメラを有する。例えば被験者の瞳孔の位置と角膜反射像の位置とに基づいて視線を検出する方式の場合、撮影装置21は、赤外線カメラを有し、例えば波長850[nm]の近赤外光を透過可能な光学系と、その近赤外光を受光可能な撮像素子とを有する。また、例えば被験者の目頭の位置と虹彩の位置とに基づいて視線を検出する方式の場合、撮影装置21は、可視光カメラを有する。撮影装置21は、フレーム同期信号を出力する。フレーム同期信号の周期は、例えば20[msec]とすることができるが、これに限定されない。撮影装置21は、例えば第1カメラ21A及び第2カメラ21Bを有するステレオカメラの構成とすることができるが、これに限定されない。
 また、例えば被験者の瞳孔の位置と角膜反射像の位置とに基づいて視線を検出する方式の場合、画像取得装置20は、被験者の眼球EBを照明する照明装置22を有する。照明装置22は、LED(light emitting diode)光源を含み、例えば波長850[nm]の近赤外光を射出可能である。なお、例えば被験者の目頭の位置と虹彩の位置とに基づいて視線ベクトルを検出する方式の場合、照明装置22は設けられなくてもよい。照明装置22は、撮影装置21のフレーム同期信号に同期するように検出光を射出する。照明装置22は、例えば第1光源22A及び第2光源22Bを有する構成とすることができるが、これに限定されない。
 コンピュータシステム30は、評価装置100の動作を統括的に制御する。コンピュータシステム30は、演算処理装置30A及び記憶装置30Bを含む。演算処理装置30Aは、CPU(central processing unit)のようなマイクロプロセッサを含む。記憶装置30Bは、ROM(read only memory)及びRAM(random access memory)のようなメモリ又はストレージを含む。演算処理装置30Aは、記憶装置30Bに記憶されているコンピュータプログラム30Cに従って演算処理を実施する。
 出力装置40は、フラットパネルディスプレイのような表示装置を含む。なお、出力装置40は、印刷装置を含んでもよい。入力装置50は、操作されることにより入力データを生成する。入力装置50は、コンピュータシステム用のキーボード又はマウスを含む。なお、入力装置50が表示装置である出力装置40の表示部に設けられたタッチセンサを含んでもよい。
 本実施形態に係る評価装置100は、表示装置10とコンピュータシステム30とが別々の装置である。なお、表示装置10とコンピュータシステム30とが一体でもよい。例えば評価装置100がタブレット型パーソナルコンピュータを含んでもよい。この場合、当該タブレット型パーソナルコンピュータに、表示装置、画像取得装置、コンピュータシステム、入力装置、出力装置等が搭載されてもよい。
 図2は、評価装置100の一例を示す機能ブロック図である。図2に示すように、コンピュータシステム30は、表示制御部31と、注視点検出部32と、領域設定部33と、判定部34と、演算部35と、評価部36と、入出力制御部37と、記憶部38とを有する。コンピュータシステム30の機能は、演算処理装置30A及び記憶装置30B(図1参照)によって発揮される。なお、コンピュータシステム30は、一部の機能が評価装置100の外部に設けられてもよい。
 表示制御部31は、被験者に注視させる目標となる目標領域を含み、被験者のうちレビー小体型認知症である被験者に対して幻視を誘発させるための誘発領域を目標領域とは異なる位置に含む評価用画像(画像)を表示部に表示する。評価用画像において、誘発領域は、目標領域に比べて、鮮鋭度、輝度、コントラスト及び彩度のうち少なくとも1つの値が低い。また、評価用画像において、目標領域は、鮮鋭度、輝度、コントラスト及び彩度のうち少なくとも1つの値が周辺よりも高い。評価用画像は、例えば、奥行方向の手前側に目標領域の対象物が存在し、奥行方向の奥側に誘発領域の対象物が存在する風景を、目標領域の対象物を焦点位置として撮影した写真画像である。評価用画像の表示形態については、静止画及び動画のいずれであってもよい。
 注視点検出部32は、被験者の注視点の位置データを検出する。本実施形態において、注視点検出部32は、画像取得装置20によって取得される被験者の左右の眼球EBの画像データに基づいて、三次元グローバル座標系で規定される被験者の視線ベクトルを検出する。注視点検出部32は、検出した被験者の視線ベクトルと表示装置10の表示部11との交点の位置データを、被験者の注視点の位置データとして検出する。つまり、本実施形態において、注視点の位置データは、三次元グローバル座標系で規定される被験者の視線ベクトルと、表示装置10の表示部11との交点の位置データである。本実施形態において、注視点は、被験者に注視されることで指定される表示部11上の指定点である。注視点検出部32は、規定のサンプリング周期毎に被験者の注視点の位置データを検出する。このサンプリング周期は、例えば撮影装置21から出力されるフレーム同期信号の周期(例えば20[msec]毎)とすることができる。
 領域設定部33は、表示部11において、誘発領域に対応した特定領域と、目標領域に対応した比較領域とを表示部11に設定する。本実施形態では、誘発領域及び目標領域の配置が異なる。したがって、領域設定部33は、特定領域及び比較領域をそれぞれ設定する。
 判定部34は、領域設定部33によって特定領域及び比較領域が設定される期間に、注視点の位置データに基づいて、注視点が特定領域及び比較領域に存在するか否かをそれぞれ判定し、判定データを出力する。判定部34は、規定の判定周期毎に注視点が特定領域及び比較領域に存在するか否かを判定する。判定周期としては、例えば撮影装置21から出力されるフレーム同期信号の周期(例えば20[msec]毎)と同一の周期とすることができる。この場合、判定部34の判定周期は、注視点検出部32のサンプリング周期と同一である。
 演算部35は、判定部34の判定データに基づいて、上記の特定領域及び比較領域が設定される期間における注視点の移動の経過を示す注視点データを算出する。演算部35は、注視点データとして、例えば到達時間データ、移動回数データ及び存在時間データのうち少なくとも1つのデータと、最終領域データとを算出する。到達時間データは、注視点が特定領域に最初に到達した到達時点までの時間を示す。移動回数データは、注視点が最初に特定領域に到達するまでに比較領域の間で注視点の位置が移動する回数を示す。存在時間データは、参照画像の表示期間に注視点が特定領域に存在した存在時間を示す。最終領域データは、特定領域及び比較領域のうち表示時間において注視点が最後に存在していた領域を示す。演算部35は、表示部11に評価用画像が表示されてからの経過時間を検出するタイマと、判定部34により特定領域及び比較領域に注視点が存在すると判定された判定回数をカウントするカウンタとを有する。
 評価部36は、注視点データに基づいて、被験者の評価データを求める。評価データは、表示部11に表示される特定対象物及び比較対象物を被験者が注視できているかを評価するデータを含む。
 入出力制御部37は、画像取得装置20及び入力装置50の少なくとも一方からのデータ(眼球EBの画像データ、入力データ等)を取得する。また、入出力制御部37は、表示装置10及び出力装置40の少なくとも一方にデータを出力する。
 記憶部38は、上記の判定データ、注視点データ(存在時間データ)、及び評価データを記憶する。また、記憶部38は、表示部11上における被験者の注視点の位置を検出する処理と、被験者に注視させる目標となる目標領域M1を含み、被験者のうちレビー小体型認知症である被験者に対して幻視を誘発させるための誘発領域C1、C2を目標領域M1とは異なる位置に含む評価用画像IM1を表示部11に表示する処理と、誘発領域C1、C2に対応した特定領域A1、A2と、目標領域M1に対応した比較領域Bとを表示部11に設定する処理と、注視点の位置データに基づいて、注視点が特定領域A1、A2及び比較領域Bに存在するか否かの判定を行う処理と、判定結果に基づいて、注視点データを算出する処理と、注視点データに基づいて、被験者の評価データを求める処理とをコンピュータに実行させる評価プログラムを記憶する。
 [評価方法]
 次に、本実施形態に係る評価方法について説明する。本実施形態に係る評価方法では、上記の評価装置100を用いることにより、被験者の認知機能障害および脳機能障害を評価する。本実施形態では、認知機能障害および脳機能障害として、例えば、レビー小体型認知症の評価を行う場合について説明する。
 図3は、表示部11に表示する評価用画像の一例を示す図である。図3に示すように、表示制御部31は、評価用画像IM1として、写真画像を表示部11に表示させる。評価用画像IM1は、図中の下側に花が映っており、図中の上側に木立が映っている写真画像である。評価用画像IM1は、奥行方向の手前側に花が存在し、奥行方向の奥側に木立が存在する風景を、花を焦点位置として撮影した写真画像である。このため、評価用画像IM1は、花が映っている領域については、周辺の領域よりも鮮鋭度、輝度、コントラストが高い。本実施形態において、評価用画像IM1は、花が対象物として映っている領域を目標領域M1として含んでいる。目標領域M1は、被験者に注視させる目標となる領域である。
 レビー小体型認知症の症状の一つとして、幻視を誘発する症状が知られている。レビー小体型認知症である被験者は、例えば画像を注視する際に幻視が誘発された場合、幻視の対象となる領域を注視する傾向にある。このようなレビー小体型認知症を評価する際、被験者に幻視を誘発させる領域を含む画像を見せるようにする。
 本実施形態の評価用画像IM1において、奥側の木立の領域は、目標領域M1と比較して、下記の点で異なっている。
 1.ピントが花に合っており、木立がぼやけている。つまり、木立の領域は、目標領域M1と比較して、鮮鋭度が低い。
 2.木立の領域は、目標領域M1と比較して、輝度が低い(暗い)。
 3.木立の領域は、目標領域M1と比較して、コントラストが低い。
 なお、評価用画像IM1がカラー画像である場合、木立の領域の彩度が目標領域M1の彩度と比較して低い画像を採用する。
 この結果、評価用画像IM1において、木立の領域は、レビー小体型認知症である被験者に対して幻視を誘発しやすい領域を含むこととなる。例えば、木立の領域の一部である領域C1は、レビー小体型認知症である被験者に対して、人影等を幻視として誘発させる領域となる。以下、領域C1を誘発領域C1と表記する。また、例えば木立の領域の一部である領域C2は、レビー小体型認知症である被験者に対して、人の顔等を幻視として誘発させる領域となる。以下、領域C2を誘発領域C2と表記する。
 一方、誘発領域C1、C2は、レビー小体型認知症ではない被験者に対しては、鮮鋭度、輝度、コントラスト(又は彩度)が低い単なる木立の領域の一部であり、人影、人の顔等の幻視を誘発しにくい領域となる。したがって、被験者がレビー小体型認知症ではない場合には、表示部11に評価用画像IM1が表示された際、鮮鋭度、輝度、コントラストが高い目標領域M1を注視する可能性が高い。
 本実施形態では、例えば複数の被験者に対して評価を行った上で、レビー小体型認知症ではない被験者と、レビー小体型認知症である被験者との間で有意差が見られた画像を用いることができる。つまり、レビー小体型認知症ではない被験者が注視する傾向が強い目標領域と、レビー小体型認知症ではない被験者が注視しない傾向が強く、かつレビー小体型認知症である被験者が注視する傾向が強い誘発領域と、を含む画像を用いることができる。
 また、評価用画像IM1として上記の写真画像を用いることにより、レビー小体型認知症ではない被験者に対して手前側の目標領域M1の対象物をより確実に注視させることができる。また、レビー小体型認知症ではない被験者にとって違和感が少なく自然な状態の誘発領域C1、C2が評価用画像IM1に含まれることになる。したがって、レビー小体型認知症ではない被験者が誘発領域C1、C2を注視することが抑制される。
 上記のように評価用画像IM1が表示される期間において、領域設定部33は、誘発領域C1、C2に対応した特定領域A1、A2をそれぞれ設定する。また、領域設定部33は、目標領域M1に対した比較領域Bを設定する。領域設定部33は、誘発領域C1、C2の少なくとも一部を含む領域に、それぞれ特定領域A1、A2を設定することができる。また、領域設定部33は、目標領域M1の少なくとも一部を含む領域に比較領域Bを設定することができる。本実施形態において、領域設定部33は、誘発領域C1を含む矩形の領域に特定領域A1を設定し、誘発領域C2を含む円形の領域に特定領域A2を設定する。また、領域設定部33は、目標領域M1を含む矩形の領域に比較領域Bを設定する。
 注視点検出部32は、評価用画像IM1が表示される期間において、規定のサンプリング周期(例えば20[msec])毎に、被験者の注視点Pの位置データを検出する。判定部34は、被験者の注視点Pの位置データが検出された場合、被験者の注視点が特定領域A1、A2及び比較領域Bに存在するかを判定し、判定データを出力する。したがって、判定部34は、上記のサンプリング周期と同一の判定周期毎に判定データを出力する。
 演算部35は、判定データに基づいて、表示期間における注視点Pの移動の経過を示す注視点データを算出する。演算部35は、注視点データとして、例えば存在時間データと、移動回数データと、最終領域データと、到達時間データとを算出する。
 存在時間データは、注視点Pが特定領域A1、A2に存在した存在時間を示す。本実施形態では、判定部34により注視点が特定領域A1、A2に存在すると判定された回数が多いほど、特定領域A1、A2に注視点Pが存在した存在時間が長いと推定することができる。したがって、存在時間データは、特定領域A1、A2又は比較領域Bに注視点が存在すると判定部34に判定された回数とすることができる。つまり、演算部35は、カウンタにおけるカウント値CNTA1、CNTA2、CNTBを存在時間データとすることができる。なお、カウント値CNTA1は、注視点が特定領域A1に存在すると判定された回数である。また、カウント値CNTA2は、注視点が特定領域A2に存在すると判定された回数である。また、カウント値CNTBは、注視点が比較領域Bに存在すると判定された回数である。
 移動回数データは、注視点Pが最初に特定領域A1又は特定領域A2に到達するまでに比較領域Bとの間で注視点Pの位置が移動する移動回数を示す。したがって、演算部35は、特定領域A1、A2及び比較領域Bの領域間で注視点Pが何回移動したかをカウントし、注視点Pが特定領域A1、A2に到達するまでのカウント結果を移動回数データとすることができる。
 最終領域データは、特定領域A1、A2及び比較領域Bのうち注視点Pが最後に存在していた領域、つまり被験者が回答として最後に注視していた領域を示す。演算部35は、注視点Pが存在する領域を当該注視点Pの検出毎に更新することにより、評価用画像IM1の表示が終了した時点における検出結果を最終領域データとすることができる。
 到達時間データは、評価用画像IM1の表示開始の時点から注視点Pが特定領域A1、A2に最初に到達した到達時点までの時間を示す。したがって、演算部35は、表示開始からの経過時間をタイマT1によって測定し、注視点が最初に特定領域A1又は特定領域A2に到達した時点でフラグ値FA1又はフラグ値FA2を1としてタイマT1の測定値を検出することで、当該タイマT1の検出結果を到達時間データとすることができる。
 評価部36は、存在時間データ、移動回数データ、最終領域データ、及び到達時間データに基づいて評価値を求め、評価値に基づいて評価データを求める。例えば、最終領域データのデータ値をD1、存在時間データのデータ値をD2~D4、到達時間データのデータ値をD5、移動回数データのデータ値をD6とする。ただし、最終領域データのデータ値D1は、被験者の最終的な注視点Pが特定領域A1に存在していれば1、特定領域A2に存在していれば0.8、比較領域Bに存在していれば0とする。また、存在時間データのデータ値D2~D4は、特定領域A1、A2及び比較領域Bそれぞれに注視点Pが存在した秒数とする。なお、データ値D2~D4は、評価用画像IM1の表示期間よりも短い秒数の上限値が設けられてもよい。また、到達時間データのデータ値D5は、到達時間の逆数(例えば、1/(到達時間)÷10)(10:到達時間の最小値を0.1秒として到達時間評価値を1以下とするための係数)とする。また、移動回数データのデータ値D6は、カウント値をそのまま用いることとする。なお、データ値D6は、適宜上限値が設けられてもよい。
 この場合、評価値ANSは、例えば、
 ANS=D1・K1+D2・K2+D3・K3-D4・K4+D5・K5-D6・K6
 と表すことができる。なお、K1~K6は、重みづけのための定数である。定数K1~K6については、適宜設定することができる。また、K4=0としてもよい。つまり、比較領域Bの存在時間データのデータ値D4については、評価に含めなくてもよい。
 上記式で示される評価値ANSは、最終領域データのデータ値D1が1又は0.8である場合、存在時間データのデータ値D2、D3が大きい場合、存在時間データのデータ値D4が小さい場合、到達時間データのデータ値D5が大きい場合、移動回数データのデータ値D6の値が小さい場合に、値が大きくなる。つまり、最終的な注視点Pが特定領域A1、A2に存在し、特定領域A1、A2における注視点Pの存在時間が長く、比較領域Bにおける注視点Pの存在時間が短く、表示期間の開始時点から特定領域A1、A2に注視点Pが到達する到達時間が短く、注視点Pが各領域を移動する移動回数が少ないほど、評価値ANSが大きくなる。
 また、評価値ANSは、最終領域データのデータ値D1が0である場合、存在時間データのデータ値D2、D3が小さい場合、存在時間データのデータ値D4が大きい場合、到達時間データのデータ値D5が小さい場合、移動回数データのデータ値D6の値が大きい場合に、値が小さくなる。つまり、最終的な注視点Pが比較領域Bに存在し、特定領域A1、A2における注視点Pの存在時間が短く、比較領域Bにおける注視点Pの存在時間が長く、表示期間の開始時点から特定領域A1、A2に注視点Pが到達する到達時間が長く又は到達せず、注視点Pが各領域を移動する移動回数が多いほど、評価値ANSが小さくなる。
 したがって、評価部36は、評価値ANSが所定値以上か否かを判断することで評価データを求めることができる。例えば評価値ANSが所定値未満である場合、被験者がレビー小体型認知症である可能性は低いと評価することができる。また、評価値ANSが所定値以上である場合、被験者がレビー小体型認知症である可能性は高いと評価することができる。
 また、評価部36は、評価値ANSの値を記憶部38に記憶させておくことができる。例えば、同一の被験者についての評価値ANSを累積的に記憶し、過去の評価値と比較した場合の評価を行ってもよい。例えば、評価値ANSが過去の評価値よりも低い値となった場合、脳機能が前回の評価に比べて改善されている旨の評価を行うことができる。また、評価値ANSの累積値が徐々に低くなっている場合等には、脳機能が徐々に改善されている旨の評価を行うことができる。
 また、評価部36は、存在時間データ、移動回数データ、最終領域データ、及び到達時間データを個別又は複数組み合わせて評価を行ってもよい。例えば、多くの対象物を見ている間に、偶発的に比較領域Bに注視点Pが到達した場合には、移動回数データのデータ値D6は大きくなる。この場合には、上述した存在時間データのデータ値D4と併せて評価を行うことができる。例えば、移動回数が少ない場合であっても存在時間が長い場合には、比較領域Bを注視できていると評価することができる。また、移動回数が少ない場合であって存在時間も短い場合、偶発的に注視点Pが比較領域Bを通過したものがあると評価することができる。
 また、移動回数が少ない場合において、最終領域が比較領域Bであれば、例えば比較領域Bに注視点移動が少なくて到達したと評価することができる。一方、上述した移動回数が少ない場合において、最終領域が比較領域Bでなければ、例えば偶発的に注視点Pが比較領域Bを通過したものあると評価することができる。したがって、注視点データを用いて評価を行うことにより、注視点の移動の経過に基づいて評価データを求めることができるため、偶然性の影響を低減することができる。
 本実施形態において、入出力制御部37は、評価部36が評価データを出力した場合、評価データに応じて、例えば「被験者はレビー小体型認知症である可能性が低いと思われます」の文字データや、「被験者はレビー小体型認知症である可能性が高いと思われます」の文字データ等を出力装置40に出力させることができる。また、入出力制御部37は、同一の被験者についての評価値ANSが過去の評価値ANSに比べて低くなっている場合、「脳機能が改善されています」等の文字データ等を出力装置40に出力させることができる。
 図4は、表示部11に表示する評価用画像の他の例を示す図である。図4に示すように、表示制御部31は、評価用画像IM2として、写真画像を表示部11に表示させる。評価用画像IM2は、図中の右下側に自転車が映っており、図中の上側に木立が映っている写真画像である。評価用画像IM2は、奥行方向の手前側に自転車が存在し、奥行方向の奥側に木立が存在する風景を、自転車を焦点位置として撮影した写真画像である。このため、評価用画像IM2は、自転車が映っている領域については、周辺の領域よりも鮮鋭度、輝度、コントラストが高い。本実施形態において、評価用画像IM2は、自転車が対象物として映っている領域を目標領域M2として含んでいる。目標領域M2は、被験者に注視させる目標となる領域である。
 一方、評価用画像IM2において、奥側の木立の領域は、目標領域M2と比較して、下記の点で異なっている。
 4.ピントが自転車に合っており、木立がぼやけている。つまり、木立の領域は、目標領域M2と比較して、鮮鋭度が低い。
 5.木立の領域は、目標領域M2と比較して、輝度が低い(暗い)。
 6.木立の領域は、目標領域M2と比較して、コントラストが低い。
 なお、評価用画像IM2がカラー画像である場合、木立の領域の彩度が目標領域M2の彩度と比較して低い画像を採用する。
 この結果、評価用画像IM2には、レビー小体型認知症である被験者に対して、幻視を誘発しやすい領域が存在することになる。例えば、木立の領域の一部である領域C3は、レビー小体型認知症である被験者に対して、人影を幻視として誘発させる領域となる。以下、領域C3を誘発領域C3と表記する。また、木立の領域の一部である領域C4は、レビー小体型認知症である被験者に対して、人の顔を幻視として誘発させる領域となる。以下、領域C4を誘発領域C4と表記する。
 領域設定部33は、評価用画像IM2が表示される期間、誘発領域C3、C4に対応した特定領域A1、A2をそれぞれ設定する。また、領域設定部33は、目標領域M2に対した比較領域Bを設定する。領域設定部33は、誘発領域C3、C4の少なくとも一部を含む領域に、それぞれ特定領域A1、A2を設定することができる。また、領域設定部33は、目標領域M2の少なくとも一部を含む領域に比較領域Bを設定することができる。本実施形態において、領域設定部33は、誘発領域C3を含む矩形の領域に特定領域A1を設定し、誘発領域C4を含む円形の領域に特定領域A2を設定する。また、領域設定部33は、目標領域M2を含む矩形の領域に比較領域Bを設定する。
 表示制御部31は、例えば図3に示す評価用画像IM1を所定時間表示した後に、図4に示す評価用画像IM2を表示部11に所定時間表示することができる。このように、表示部11に複数種類の評価用画像IM1、IM2を表示させることにより、被験者を高精度に評価することが可能となる。
 次に、本実施形態に係る評価方法の一例について、図5及び図6を参照しながら説明する。図5及び図6は、本実施形態に係る評価方法の一例を示すフローチャートである。以下の例では、評価用画像IM1を映像(評価用映像)として再生する場合を例に挙げて説明する。図5に示すように、表示制御部31は、評価用映像の再生(評価用画像IM1の表示)を開始させる(ステップS101)。なお、評価用画像IM1は、例えば被験者に対して他の評価を行うための画像を表示する合間に表示させてもよい。評価用画像IM1の再生を開始した後、タイマT1をリセットし(ステップS102)、カウンタのカウント値CNTA1、CNTA2、CNTBをリセットする(ステップS103)。また、表示制御部31は、フラグ値FA1、FA2を0にし、最終領域及び経路数をクリアする(ステップS104)。
 次に、図6に示すように、注視点検出部32は、表示部11に表示された映像を被験者に見せた状態で、規定のサンプリング周期(例えば20[msec])毎に、表示部11における被験者の注視点の位置データを検出する(ステップS105)。位置データが検出された場合(ステップS106のNo)、判定部34は、位置データに基づいて注視点Pが存在する領域を判定する(ステップS107)。また、位置データが検出されない場合(ステップS106のYes)、後述するステップS131以降の処理を行う。
 注視点Pが特定領域A1に存在すると判定された場合(ステップS108のYes)、演算部35は、フラグ値FA1が1であるか否か、つまり、注視点Pが特定領域A1に到達したのが最初か否か(1:到達済み、0:未到達)を判定する(ステップS109)。フラグ値FA1が1である場合(ステップS109のYes)、演算部35は、以下のステップS110からステップS112を飛ばして後述するステップS113の処理を行う。
 また、フラグ値FA1が1ではない場合、つまり、特定領域A1に注視点Pが到達したのが最初である場合(ステップS109のNo)、演算部35は、タイマT1の計測結果を到達時間データとして抽出し(ステップS110)、注視点Pが特定領域A1に到達するまでに領域間で何回移動したかを示す積算回数を保存する(ステップS111)。その後、演算部35は、フラグ値を1に変更する(ステップS112)。
 次に、演算部35は、直近の検出において注視点Pが存在した領域、つまり最終領域が特定領域A1であるか否かを判定する(ステップS113)。演算部35は、最終領域が特定領域A1であると判定した場合(ステップS113のYes)、以下のステップS114及びステップS115を飛ばして後述するステップS116の処理を行う。また、最終領域が特定領域A1ではないと判定した場合(ステップS113のNo)、演算部35は、注視点Pが領域間で何回移動したかを示す積算回数を+1とし(ステップS114)、最終領域を特定領域A1とし(ステップS115)、特定領域A1での存在時間データを示すカウント値CNTA1を+1とする(ステップS116)。その後、演算部35は、後述するステップS131以降の処理を行う。
 また、注視点Pが特定領域A1に存在しないと判定された場合(ステップS108のNo)、演算部35は、注視点Pが特定領域A2に存在するか否かを判定する(ステップS117)。注視点Pが特定領域A2に存在すると判定された場合(ステップS117のYes)、演算部35は、フラグ値FA2が1であるか否か、つまり、注視点Pが特定領域A2に到達したのが最初か否か(1:到達済み、0:未到達)を判定する(ステップS118)。フラグ値FA2が1である場合(ステップS118のYes)、演算部35は、以下のステップS119からステップS121を飛ばして後述するステップS122の処理を行う。
 また、フラグ値FA2が1ではない場合、つまり、特定領域A2に注視点Pが到達したのが最初である場合(ステップS118のNo)、演算部35は、タイマT1の計測結果を到達時間データとして抽出し(ステップS119)、注視点Pが特定領域A2に到達するまでに領域間で何回移動したかを示す積算回数を保存する(ステップS120)。その後、演算部35は、フラグ値を1に変更する(ステップS121)。
 次に、演算部35は、直近の検出において注視点Pが存在した領域、つまり最終領域が特定領域A2であるか否かを判定する(ステップS122)。演算部35は、最終領域が特定領域A2であると判定した場合(ステップS122のYes)、以下のステップS123及びステップS124を飛ばして後述するステップS125の処理を行う。また、最終領域が特定領域A2ではないと判定した場合(ステップS122のNo)、演算部35は、注視点Pが領域間で何回移動したかを示す積算回数を+1とし(ステップS123)、最終領域を特定領域A2とし(ステップS124)、特定領域A2での存在時間データを示すカウント値CNTA2を+1とする(ステップS125)。その後、演算部35は、後述するステップS131以降の処理を行う。
 また、注視点Pが特定領域A2に存在しないと判定された場合(ステップS117のNo)、演算部35は、注視点Pが比較領域Bに存在するか否かを判定する(ステップS126)。注視点Pが比較領域Bに存在すると判定された場合(ステップS126のYes)、演算部35は、直近の検出において注視点Pが存在した領域、つまり最終領域が比較領域Bであるか否かを判定する(ステップS127)。演算部35は、最終領域が比較領域Bであると判定した場合(ステップS127のYes)、以下のステップS128及びステップS129を飛ばして後述するステップS130の処理を行う。また、最終領域が比較領域Bではないと判定した場合(ステップS127のNo)、演算部35は、注視点Pが領域間で何回移動したかを示す積算回数を+1とし(ステップS128)、最終領域を比較領域Bとし(ステップS129)、比較領域Bでの存在時間データを示すカウント値CNTBを+1とする(ステップS130)。ステップS130の後、及びステップS126において注視点Pが比較領域Bに存在しないと判定された場合(ステップS126のNo)、演算部35は、後述するステップS131以降の処理を行う。
 その後、演算部35は、検出タイマT1の検出結果に基づいて、評価用画像の再生が完了する時刻に到達したか否かを判断する(ステップS131)。演算部35により評価用画像の再生が完了する時刻に到達していないと判断された場合(ステップS131のNo)、上記のステップS105以降の処理を繰り返し行う。
 演算部35により映像の再生が完了する時刻に到達したと判断された場合(ステップS131のYes)、図5に示すように、表示制御部31は、指示表示動作に関する映像の再生を停止させる(ステップS132)。映像の再生が停止された後、評価部36は、上記の処理結果から得られる存在時間データと、移動回数データと、到達時間データと、最終領域データとに基づいて、評価値ANSを算出し(ステップS133)、評価値ANSに基づいて評価データを求める。その後、入出力制御部37は、評価部36で求められた評価データを出力する(ステップS134)。
 本実施形態に係る評価装置100は、表示部11と、表示部11上における被験者の注視点の位置を検出する注視点検出部32と、被験者に注視させる目標となる目標領域M1を含み、被験者に対して幻視を誘発させるための誘発領域C1、C2を目標領域M1とは異なる位置に含む評価用画像IM1を表示部11に表示する表示制御部31と、誘発領域C1、C2に対応した特定領域A1、A2を表示部11に設定する領域設定部33と、注視点の位置データに基づいて、注視点が特定領域A1、A2に存在するか否かの判定を行う判定部34と、判定部34の判定結果に基づいて、注視点データを算出する演算部35と、注視点データに基づいて、被験者の評価データを求める評価部36とを備える。
 本実施形態に係る評価方法は、表示部11上における被験者の注視点の位置を検出することと、被験者に注視させる目標となる目標領域M1を含み、被験者に対して幻視を誘発させるための誘発領域C1、C2を目標領域M1とは異なる位置に含む評価用画像IM1を表示部11に表示することと、誘発領域C1、C2に対応した特定領域A1、A2を表示部11に設定することと、注視点の位置データに基づいて、注視点が特定領域A1、A2に存在するか否かの判定を行うことと、判定結果に基づいて、注視点データを算出することと、注視点データに基づいて、被験者の評価データを求めることとを含む。
 本実施形態に係る評価プログラムは、表示部11上における被験者の注視点の位置を検出する処理と、被験者に注視させる目標となる目標領域M1を含み、被験者に対して幻視を誘発させるための誘発領域C1、C2を目標領域M1とは異なる位置に含む評価用画像IM1を表示部11に表示する処理と、誘発領域C1、C2に対応した特定領域A1、A2を表示部11に設定する処理と、注視点の位置データに基づいて、注視点が特定領域A1、A2に存在するか否かの判定を行う処理と、判定結果に基づいて、注視点データを算出する処理と、注視点データに基づいて、被験者の評価データを求める処理とをコンピュータに実行させる。
 被験者がレビー小体型認知症ではない場合、表示部11に評価用画像IM1が表示された際、鮮鋭度、輝度、コントラストが高い目標領域M1を注視する可能性が高い。また、被験者がレビー小体型認知症である場合、評価用画像IM1が表示部11に表示された際、幻視を誘発する誘発領域C1、C2を注視する可能性が高い。上記構成によれば、レビー小体型認知症である被験者に対して幻視を誘発しやすい領域が存在する評価用画像IM1を被験者に注視させるため、被験者の主観によらずに評価を行うことができる。また、被験者の注視点データに基づいて評価データを求めることができるため、偶然性の影響を低減することができる。
 本実施形態に係る評価装置100において、領域設定部33は、目標領域M1に対応した比較領域Bを表示部11に更に設定し、判定部34は、特定領域A1、A2及び比較領域Bにおいて、注視点が存在するか否かの判定を行う。これにより、被験者をより高精度に評価することができる。
 本実施形態に係る評価装置100において、誘発領域C1、C2は、目標領域M1に比べて、鮮鋭度、輝度、コントラスト及び彩度のうち少なくとも1つの値が低い。これにより、レビー小体型認知症である被験者に対して、幻視を誘発しやすい領域を効率的に含ませることができる。
 本実施形態に係る評価装置100において、目標領域M1は、鮮鋭度、輝度、コントラスト及び彩度のうち少なくとも1つの値が周辺よりも高い。これにより、レビー小体型認知症ではない被験者が目標領域M1を注視しようとするため、高精度の評価を行うことができる。
 本実施形態に係る評価装置100において、評価用画像IM1は、奥行方向の手前側に目標領域M1の対象物が存在し、奥行方向の奥側に誘発領域C1、C2の対象物が存在するものであり、目標領域M1の対象物を焦点位置として撮影した写真画像である。これにより、レビー小体型認知症ではない被験者に対して手前側の目標領域M1の対象物をより確実に注視させることができる。また、わざとらしさが少なく自然な状態の誘発領域C1、C2を評価用画像IM1に含ませることができる。このため、レビー小体型認知症ではない被験者が誘発領域C1、C2を注視することを抑制でき、高精度の評価を行うことができる。
 本実施形態に係る評価装置100において、注視点データは、注視点が特定領域A1、A2に最初に到達した到達時点までの時間を示す到達時間データと、注視点が最初に特定領域A1、A2に到達するまでに複数の比較領域Bとの間で注視点の位置が移動する回数を示す移動回数データと、特定領域A1、A2に存在した存在時間を示す存在時間データのうち少なくとも1つのデータと、特定領域A1、A2及び比較領域Bのうち表示時間において注視点が最後に存在していた領域を示す最終領域データと、を含み、評価部36は、到達時間データ、移動回数データ、存在時間データ及び最終領域データの間で異なる重み付けをして評価データを求める。これにより、偶然性の影響をより確実に低減することができる。
 本実施形態に係る評価装置100において、評価用画像IM1、IM2として、評価部36による評価の結果、レビー小体型認知症ではない被験者と、レビー小体型認知症である被験者との間で有意差が見られた画像が用いられる。したがって、被験者がレビー小体型認知症である可能性について高精度に評価することができる。
 本開示の技術範囲は上記実施形態に限定されるものではなく、本開示の趣旨を逸脱しない範囲で適宜変更を加えることができる。例えば、上記実施形態では、人影又は人の顔を幻視として誘発させる誘発領域C1~C4が評価用画像IM1、IM2に含まれた場合を例に挙げて説明したが、これに限定されない。例えば、小動物、虫等、人以外の動物を幻視として誘発させる誘発領域が評価用画像に含まれてもよい。
 上記実施形態では特定領域A1、A2及び比較領域Bについての注視点データによって評価値を算出する例を説明したが、これに限定されない。例えば、比較領域Bについての注視点データを用いずに、特定領域A1、A2の注視点データのみに基づいて評価値を算出してもよい。この場合、例えば領域設定部33は、特定領域A1、A2のみを設定し、比較領域Bについては設定しないようにすることができる。
 上記実施形態では、評価用画像として写真画像を表示させる例を説明したが、評価用画像は写真画像に限定せず、作画・製作した画像を用いても良い。
 本開示の評価装置、評価方法、及び評価プログラムは、例えば視線検出装置に利用することができる。
 A1,A2…特定領域、B…比較領域、C1~C4…誘発領域、IM1,IM2…評価用画像、M1,M2…目標領域、P…注視点、T1…タイマ、10…表示装置、11…表示部、20…画像取得装置、21…撮影装置、21A…第1カメラ、21B…第2カメラ、22…照明装置、22A…第1光源、22B…第2光源、30…コンピュータシステム、30A…演算処理装置、30B…記憶装置、30C…コンピュータプログラム、31…表示制御部、32…注視点検出部、33…領域設定部、34…判定部、35…演算部、36…評価部、37…入出力制御部、38…記憶部、40…出力装置、50…入力装置、60…入出力インターフェース装置、100…評価装置

Claims (9)

  1.  表示部と、
     前記表示部上における被験者の注視点の位置を検出する注視点検出部と、
     被験者に注視させる目標となる目標領域を含み、前記被験者に対して幻視を誘発させるための誘発領域を前記目標領域とは異なる位置に含む画像を前記表示部に表示する表示制御部と、
     前記誘発領域に対応した特定領域を前記表示部に設定する領域設定部と、
     前記注視点の位置データに基づいて、前記注視点が前記特定領域に存在するか否かの判定を行う判定部と、
     前記判定部の判定結果に基づいて、注視点データを算出する演算部と、
     前記注視点データに基づいて、前記被験者の評価データを求める評価部と
     を備える評価装置。
  2.  前記領域設定部は、前記目標領域に対応した比較領域を前記表示部に更に設定し、
     前記判定部は、前記特定領域及び前記比較領域において、前記注視点が存在するか否かの判定を行う
     請求項1に記載の評価装置。
  3.  前記誘発領域は、前記目標領域に比べて、鮮鋭度、輝度、コントラスト及び彩度のうち少なくとも1つの値が低い
     請求項1又は請求項2に記載の評価装置。
  4.  前記目標領域は、鮮鋭度、輝度、コントラスト及び彩度のうち少なくとも1つの値が周辺よりも高い
     請求項1から請求項3のいずれか一項に記載の評価装置。
  5.  前記画像は、奥行方向の手前側に前記目標領域の対象物が存在し、前記奥行方向の奥側に前記誘発領域の対象物が存在するものであり、前記目標領域の対象物を焦点位置として撮影した写真画像または作画・制作した画像である
     請求項1から請求項4のいずれか一項に記載の評価装置。
  6.  前記注視点データは、前記注視点が前記特定領域に最初に到達した到達時点までの時間を示す到達時間データと、前記注視点が最初に前記特定領域に到達するまでに前記比較領域との間で前記注視点の位置が移動する回数を示す移動回数データと、前記注視点が前記特定領域及び前記比較領域に存在した存在時間を示す存在時間データのうち少なくとも1つのデータと、前記特定領域及び前記比較領域のうち前記表示時間において前記注視点が最後に存在していた領域を示す最終領域データと、を含み、
     前記評価部は、前記到達時間データ、前記移動回数データ、前記存在時間データ及び前記最終領域データの間で重み付けをして前記評価データを求める
     請求項1から請求項5のいずれか一項に記載の評価装置。
  7.  前記画像として、前記評価部による評価の結果、レビー小体型認知症ではない被験者と、レビー小体型認知症である被験者との間で有意差が見られた画像が用いられる
     請求項1から請求項5のいずれか一項に記載の評価装置。
  8.  表示部上における被験者の注視点の位置を検出することと、
     被験者に注視させる目標となる目標領域を含み、前記被験者に対して幻視を誘発させるための誘発領域を前記目標領域とは異なる位置に含む画像を前記表示部に表示することと、
     前記誘発領域に対応した特定領域を前記表示部に設定することと、
     前記注視点の位置データに基づいて、前記注視点が前記特定領域に存在するか否かの判定を行うことと、
     判定結果に基づいて、注視点データを算出することと、
     前記注視点データに基づいて、前記被験者の評価データを求めることと
     を含む評価方法。
  9.  表示部上における被験者の注視点の位置を検出する処理と、
     被験者に注視させる目標となる目標領域を含み、前記被験者に対して幻視を誘発させるための誘発領域を前記目標領域とは異なる位置に含む画像を前記表示部に表示する処理と、
     前記誘発領域に対応した特定領域を前記表示部に設定する処理と、
     前記注視点の位置データに基づいて、前記注視点が前記特定領域に存在するか否かの判定を行う処理と、
     判定結果に基づいて、注視点データを算出する処理と、
     前記注視点データに基づいて、前記被験者の評価データを求める処理と
     をコンピュータに実行させる評価プログラム。
PCT/JP2020/024264 2019-06-20 2020-06-19 評価装置、評価方法、及び評価プログラム WO2020256148A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP20826453.1A EP3970624B1 (en) 2019-06-20 2020-06-19 Evaluation device, evaluation method, and evaluation program
US17/537,556 US20220079484A1 (en) 2019-06-20 2021-11-30 Evaluation device, evaluation method, and medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-114539 2019-06-20
JP2019114539A JP7115424B2 (ja) 2019-06-20 2019-06-20 評価装置、評価方法、及び評価プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/537,556 Continuation US20220079484A1 (en) 2019-06-20 2021-11-30 Evaluation device, evaluation method, and medium

Publications (1)

Publication Number Publication Date
WO2020256148A1 true WO2020256148A1 (ja) 2020-12-24

Family

ID=73994437

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/024264 WO2020256148A1 (ja) 2019-06-20 2020-06-19 評価装置、評価方法、及び評価プログラム

Country Status (4)

Country Link
US (1) US20220079484A1 (ja)
EP (1) EP3970624B1 (ja)
JP (1) JP7115424B2 (ja)
WO (1) WO2020256148A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024101230A1 (ja) * 2022-11-09 2024-05-16 国立大学法人大阪大学 プログラム、情報処理方法、及び情報処理装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017217051A (ja) 2016-06-03 2017-12-14 一生 重松 認知症診断支援装置とその作動方法および作動プログラム、並びに認知症診断支援システム
JP2018140007A (ja) * 2017-02-28 2018-09-13 株式会社Jvcケンウッド 評価装置、評価方法、及び評価プログラム
WO2019098173A1 (ja) * 2017-11-14 2019-05-23 国立大学法人大阪大学 認知機能障害診断装置および認知機能障害診断プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2015301370B2 (en) * 2014-08-04 2020-04-30 New York University Methods and kits for diagnosing, assessing or quantitating drug use, drug abuse and narcosis, internuclear ophthalmoplegia, attention deficit hyperactivity disorder (ADHD), chronic traumatic encephalopathy, schizophrenia spectrum disorders and alcohol consumption
ES2702484T3 (es) * 2016-01-15 2019-03-01 Centre Nat Rech Scient Dispositivo y procedimiento de determinación de los movimientos oculares por interfaz táctil
JP6736920B2 (ja) * 2016-03-10 2020-08-05 株式会社Jvcケンウッド 診断支援装置及び診断支援方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017217051A (ja) 2016-06-03 2017-12-14 一生 重松 認知症診断支援装置とその作動方法および作動プログラム、並びに認知症診断支援システム
JP2018140007A (ja) * 2017-02-28 2018-09-13 株式会社Jvcケンウッド 評価装置、評価方法、及び評価プログラム
WO2019098173A1 (ja) * 2017-11-14 2019-05-23 国立大学法人大阪大学 認知機能障害診断装置および認知機能障害診断プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3970624A4

Also Published As

Publication number Publication date
EP3970624B1 (en) 2023-07-19
US20220079484A1 (en) 2022-03-17
JP2021000200A (ja) 2021-01-07
JP7115424B2 (ja) 2022-08-09
EP3970624A1 (en) 2022-03-23
EP3970624A4 (en) 2022-06-29

Similar Documents

Publication Publication Date Title
JP6848526B2 (ja) 評価装置、評価方法、及び評価プログラム
US20210401287A1 (en) Evaluation apparatus, evaluation method, and non-transitory storage medium
WO2020256148A1 (ja) 評価装置、評価方法、及び評価プログラム
WO2021059745A1 (ja) 視線データ補正装置、評価装置、視線データ補正方法、評価方法、視線データ補正プログラム、及び評価プログラム
JP7435694B2 (ja) 評価装置、評価方法、及び評価プログラム
JP7268307B2 (ja) 評価装置、評価装置の作動方法、及び評価プログラム
JP7239856B2 (ja) 評価装置、評価方法、及び評価プログラム
JP7057483B2 (ja) 評価装置、評価方法、及び評価プログラム
WO2021010122A1 (ja) 評価装置、評価方法、及び評価プログラム
JP7215246B2 (ja) 表示装置、表示方法、及び表示プログラム
JP7047676B2 (ja) 評価装置、評価方法、及び評価プログラム
JP7247690B2 (ja) 評価装置、評価方法、及び評価プログラム
JP7074221B2 (ja) 評価装置、評価方法、及び評価プログラム
WO2021059746A1 (ja) 視線データ処理装置、評価装置、視線データ処理方法、評価方法、視線データ処理プログラム、及び評価プログラム
WO2023181494A1 (ja) 評価装置、評価方法及び評価プログラム
WO2020194841A1 (ja) 評価装置、評価方法、及び評価プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20826453

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020826453

Country of ref document: EP

Effective date: 20211214