WO2020194846A1 - 評価装置、評価方法、及び評価プログラム - Google Patents

評価装置、評価方法、及び評価プログラム Download PDF

Info

Publication number
WO2020194846A1
WO2020194846A1 PCT/JP2019/044446 JP2019044446W WO2020194846A1 WO 2020194846 A1 WO2020194846 A1 WO 2020194846A1 JP 2019044446 W JP2019044446 W JP 2019044446W WO 2020194846 A1 WO2020194846 A1 WO 2020194846A1
Authority
WO
WIPO (PCT)
Prior art keywords
evaluation
target image
determination
unit
subject
Prior art date
Application number
PCT/JP2019/044446
Other languages
English (en)
French (fr)
Inventor
修二 箱嶋
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Publication of WO2020194846A1 publication Critical patent/WO2020194846A1/ja
Priority to US17/468,726 priority Critical patent/US20210401336A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/168Evaluating attention deficit, hyperactivity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0033Operational features thereof characterised by user input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image

Definitions

  • This disclosure relates to an evaluation device, an evaluation method, and an evaluation program.
  • Patent Document 1 describes a method for evaluating the possibility of attention deficit / hyperactivity disorder (ADHD) among developmental disorders.
  • ADHD attention deficit / hyperactivity disorder
  • the first image is displayed in the center of the display unit
  • the second image is displayed around the first image
  • the subject is instructed to see the first image
  • the subject's note on the display unit The viewpoint is detected, and the possibility of ADHD is evaluated based on the residence time remaining in the region corresponding to each image.
  • Subjects with ADHD tend to move their gaze points more due to, for example, hyperactivity or impulsivity.
  • Patent Document 1 it was possible to indirectly evaluate the movement of the gazing point by comparing the residence time of the gazing point between the image instructed to be viewed and another image. Therefore, it is required to perform an evaluation that directly matches the characteristics of ADHD.
  • the present disclosure has been made in view of the above, and an object of the present disclosure is to provide an evaluation device, an evaluation method, and an evaluation program capable of performing an evaluation more directly adapted to the subject-specific characteristics of ADHD. And.
  • the evaluation device is designed to gaze at the display unit, the gazing point detection unit that detects the position of the gazing point of the subject, the evaluation image including the main target image and the sub target image, and the main target image.
  • the display control unit that displays the instruction information instructed to the subject on the display unit
  • the area setting unit that sets the determination area corresponding to the sub-target image, and the detected position of the gazing point.
  • a determination unit that determines whether the gazing point exists in the determination area, and a calculation that measures the arrival time from a predetermined time point until the gazing point first reaches the determination area based on the determination result of the determination unit.
  • a unit and an evaluation unit for obtaining evaluation data of the subject based on the arrival time are provided.
  • the evaluation method includes detecting the position of the gazing point of the subject, an evaluation image including the main target image and the sub-target image, and instruction information instructing the subject to gaze at the main target image. Is displayed on the display unit, a determination area corresponding to the sub-target image is set, and whether or not the gazing point exists in the determination area based on the detected position of the gazing point. Judgment, measurement of the arrival time from a predetermined time point until the gaze point first reaches the determination region based on the determination result, and evaluation data of the subject based on the arrival time. Including asking.
  • the evaluation program includes a process of detecting the position of the gazing point of the subject, an evaluation image including a main target image and a sub-target image, and instruction information instructing the subject to gaze at the main target image. Based on the process of displaying the above on the display unit, the process of setting the determination area corresponding to the sub-target image, and the detected position of the gazing point, whether or not the gazing point exists in the determination area is determined.
  • the determination process the process of measuring the arrival time from a predetermined time point until the gaze point first reaches the determination area based on the determination result, and the evaluation data of the subject based on the arrival time. Have the computer perform the desired processing.
  • FIG. 1 is a diagram schematically showing an example of an evaluation device according to the present embodiment.
  • FIG. 2 is a functional block diagram showing an example of the evaluation device.
  • FIG. 3 is a diagram showing an example of an evaluation image displayed on the display unit.
  • FIG. 4 is a diagram showing an example of displaying instruction information on the display unit.
  • FIG. 5 is a diagram showing an example of a determination area set in the display unit.
  • FIG. 6 is a diagram showing a transition of the display of the evaluation image.
  • FIG. 7 is a diagram showing a transition of the display of the evaluation image.
  • FIG. 8 is a diagram showing a transition of the display of the evaluation image.
  • FIG. 9 is a diagram showing a transition of the display of the evaluation image.
  • FIG. 10 is a diagram showing a transition of the display of the evaluation image.
  • FIG. 11 is a flowchart showing an example of the evaluation method according to the present embodiment.
  • the direction parallel to the first axis of the predetermined surface is the X-axis direction
  • the direction parallel to the second axis of the predetermined surface orthogonal to the first axis is the Y-axis direction
  • orthogonal to each of the first axis and the second axis is the Z-axis direction.
  • the predetermined plane includes an XY plane.
  • FIG. 1 is a diagram schematically showing an example of the evaluation device 100 according to the present embodiment.
  • the evaluation device 100 according to the present embodiment detects the line of sight of the subject and uses the detection result to evaluate attention deficit / hyperactivity disorder (hereinafter referred to as ADHD (Attention deficit hyperactivity disorder)).
  • the evaluation device 100 has various methods such as a method of detecting the line of sight based on the position of the pupil of the subject and the position of the corneal reflex image, a method of detecting the line of sight based on the position of the inner corner of the eye of the subject and the position of the iris, and the like.
  • the line of sight of the subject can be detected by the method.
  • the evaluation device 100 includes a display device 10, an image acquisition device 20, a computer system 30, an output device 40, an input device 50, and an input / output interface device 60.
  • the display device 10, the image acquisition device 20, the computer system 30, the output device 40, and the input device 50 perform data communication via the input / output interface device 60.
  • the display device 10 and the image acquisition device 20 each have a drive circuit (not shown).
  • the display device 10 includes a flat panel display such as a liquid crystal display (LCD) or an organic electroluminescence display (OLED).
  • the display device 10 has a display unit 11.
  • the display unit 11 displays information such as an image.
  • the display unit 11 is substantially parallel to the XY plane.
  • the X-axis direction is the left-right direction of the display unit 11
  • the Y-axis direction is the vertical direction of the display unit 11
  • the Z-axis direction is the depth direction orthogonal to the display unit 11.
  • the display device 10 may be a head-mounted display device.
  • a configuration such as the image acquisition device 20 is arranged in the head-mounted module.
  • the image acquisition device 20 acquires image data of the left and right eyeballs EB of the subject, and transmits the acquired image data to the computer system 30.
  • the image acquisition device 20 has a photographing device 21.
  • the imaging device 21 acquires image data by photographing the left and right eyeballs EB of the subject.
  • the photographing device 21 has various cameras according to the method of detecting the line of sight of the subject. For example, in the case of a method of detecting the line of sight based on the position of the pupil of the subject and the position of the reflected image of the corneal membrane, the photographing device 21 has an infrared camera and can transmit near-infrared light having a wavelength of 850 [nm], for example.
  • the photographing device 21 has an optical system and an image pickup element capable of receiving its near-infrared light. Further, for example, in the case of a method of detecting the line of sight based on the position of the inner corner of the eye of the subject and the position of the iris, the photographing device 21 has a visible light camera. The photographing device 21 outputs a frame synchronization signal. The period of the frame synchronization signal can be, for example, 20 [msec], but is not limited to this.
  • the photographing device 21 can be configured as a stereo camera having, for example, a first camera 21A and a second camera 21B, but is not limited thereto.
  • the image acquisition device 20 includes a lighting device 22 that illuminates the eyeball EB of the subject.
  • the lighting device 22 includes an LED (light emission diode) light source, and can emit near-infrared light having a wavelength of, for example, 850 [nm].
  • the lighting device 22 may not be provided.
  • the lighting device 22 emits detection light so as to synchronize with the frame synchronization signal of the photographing device 21.
  • the lighting device 22 may have, for example, a first light source 22A and a second light source 22B, but is not limited thereto.
  • the computer system 30 comprehensively controls the operation of the evaluation device 100.
  • the computer system 30 includes an arithmetic processing unit 30A and a storage device 30B.
  • the arithmetic processing device 30A includes a microprocessor such as a CPU (central processing unit).
  • the storage device 30B includes a memory or storage such as a ROM (read only memory) and a RAM (random access memory).
  • the arithmetic processing unit 30A performs arithmetic processing according to the computer program 30C stored in the storage device 30B.
  • the output device 40 includes a display device such as a flat panel display.
  • the output device 40 may include a printing device.
  • the input device 50 generates input data by being operated.
  • the input device 50 includes a keyboard or mouse for a computer system.
  • the input device 50 may include a touch sensor provided on the display unit of the output device 40, which is a display device.
  • the display device 10 and the computer system 30 are separate devices.
  • the display device 10 and the computer system 30 may be integrated.
  • the evaluation device 100 may include a tablet-type personal computer.
  • the tablet-type personal computer may be equipped with a display device, an image acquisition device, a computer system, an input device, an output device, and the like.
  • FIG. 2 is a functional block diagram showing an example of the evaluation device 100.
  • the computer system 30 includes a display control unit 31, a gazing point detection unit 32, an area setting unit 33, a determination unit 34, a calculation unit 35, an evaluation unit 36, and an input / output control unit. It has 37 and a storage unit 38.
  • the functions of the computer system 30 are exhibited by the arithmetic processing unit 30A and the storage device 30B (see FIG. 1).
  • the computer system 30 may have some functions provided outside the evaluation device 100.
  • the display control unit 31 displays the instruction information described later on the display unit 11, and then displays the evaluation image on the display unit 11.
  • the evaluation image is an image including a main target image and a sub target image.
  • the instruction information is information instructing the subject to gaze at the main target image among the evaluation images.
  • the display control unit 31 does not have to display the instruction information.
  • the display control unit 31 may display the instruction information and the evaluation image at the same time.
  • the main target image and the sub target image are provided independently of each other.
  • the display control unit 31 displays, for example, different images for the main target image and the sub target image.
  • the display control unit 31 may display the same image on the main target image and the sub target image.
  • the display control unit 31 displays the evaluation image on the display unit so that the main target image and the sub target image are displayed with a time lag. For example, the display control unit 31 changes the sub-target image from a state in which the subject is difficult to recognize to a state in which the subject can easily recognize it.
  • the state that is difficult for the subject to recognize is, for example, a state of high transparency, a state of low brightness, a state of low saturation, a state of small size, and the like.
  • the state that the subject can easily recognize is, for example, a state of low transmittance, a state of high brightness, a state of high saturation, a state of large size, and the like.
  • the display control unit 31 changes the state of the sub-object image, for example, to decrease the transparency of the sub-object image, increase the brightness, increase the saturation, increase the size, and so on with the passage of time.
  • the display control unit 31 can delay the sub-target image with respect to the main target image and make the subject recognize it by lowering the transparency of the sub-target image with the passage of time.
  • the display control unit 31 can display the above-mentioned evaluation image and instruction information on the display unit 11 as, for example, an evaluation image, but the display form is not limited to the evaluation image, and even if it is a still image. Good.
  • the display control unit 31 may display a plurality of sub-target images. Further, the display control unit 31 may display the main target image and the sub target image at the same time without any time difference. Further, the display control unit 31 may display the main target image and the sub target image as the same image, and display the main target object corresponding to the main target image and the sub target object corresponding to the sub target image.
  • the gazing point detection unit 32 detects the position data of the gazing point of the subject.
  • the gazing point detection unit 32 detects the subject's line-of-sight vector defined by the three-dimensional global coordinate system based on the image data of the left and right eyeballs EB of the subject acquired by the image acquisition device 20.
  • the gaze point detection unit 32 detects the position data of the intersection of the detected subject's line-of-sight vector and the display unit 11 of the display device 10 as the position data of the gaze point of the subject. That is, in the present embodiment, the gazing point position data is the position data of the intersection of the line-of-sight vector of the subject defined by the three-dimensional global coordinate system and the display unit 11 of the display device 10.
  • the gazing point detection unit 32 detects the position data of the gazing point of the subject at each predetermined sampling cycle. This sampling cycle can be, for example, the cycle of the frame synchronization signal output from the photographing apparatus 21 (for example, every 20 [msec]).
  • the area setting unit 33 sets the determination area corresponding to the sub-target image on the display unit 11.
  • the area setting unit 33 sets a determination area for each sub-target image.
  • each determination area set by the area setting unit 33 is not displayed on the display unit 11 in principle. Note that, for example, each determination area may be displayed on the display unit 11 under the control of the display control unit 31.
  • the area setting unit 33 can set a specific area corresponding to the main target image on the display unit 11.
  • the determination unit 34 determines whether or not the gazing point exists in the determination area based on the position data of the gazing point, and outputs the determination result as determination data.
  • the determination unit 34 determines whether or not the gazing point exists in the determination region at each predetermined determination cycle.
  • the determination cycle may be, for example, the cycle of the frame synchronization signal output from the photographing device 21 (for example, every 20 [msec]). That is, the determination cycle of the determination unit 34 is the same as the sampling cycle of the gazing point detection unit 32.
  • the determination unit 34 determines the gazing point every time the gazing point position is sampled by the gazing point detecting unit 32, and outputs the determination data. When a plurality of determination areas are set, the determination unit 34 can determine whether or not the gazing point exists for each determination area and output the determination data.
  • the calculation unit 35 calculates the arrival time until the gazing point first reaches the determination area based on the determination data of the determination unit 34.
  • the arrival time indicates the time from a predetermined time point until the gazing point moves to the determination area and is determined to first exist in the determination area.
  • the calculation unit 35 has a timer for measuring time.
  • the calculation unit 35 calculates the arrival time using the timer.
  • the calculation unit 35 may set a predetermined time point as a starting point for calculating the arrival time, for example, a time point at which the display of the evaluation image is started after the instruction information is presented.
  • the calculation unit 35 may set a predetermined time point, for example, a time point when it is first confirmed that the gazing point of the subject exists in the specific area.
  • the calculation unit 35 stores the calculated arrival time in the storage unit 38 as arrival time data.
  • the calculation unit 35 can calculate the arrival time for each determination area.
  • the calculation unit 35 has a management timer that manages the reproduction time of the evaluation image.
  • the evaluation unit 36 obtains the evaluation data of the subject based on the arrival time of the gazing point.
  • the evaluation data includes data for evaluating whether or not the subject can gaze at the main target image and the sub target image displayed on the display unit 11.
  • the input / output control unit 37 acquires data (image data of the eyeball EB, input data, etc.) from at least one of the image acquisition device 20 and the input device 50. Further, the input / output control unit 37 outputs data to at least one of the display device 10 and the output device 40. The input / output control unit 37 may output a task for the subject from an output device 40 such as a speaker.
  • the storage unit 38 stores the above-mentioned determination data, arrival time data, and evaluation data. In addition, the storage unit 38 displays a process of detecting the position of the gazing point of the subject, an evaluation image including the main target image and the sub-target image, and instruction information instructing the subject to gaze at the main target image.
  • the gaze point is based on the process of displaying in the unit 11, the process of setting the determination area corresponding to the sub-target image, the process of setting the specific area corresponding to the main target image, and the position of the detected gaze point.
  • the process of determining whether or not the object exists in the determination area the process of measuring the arrival time from a predetermined time point until the gaze point first reaches the determination area based on the determination result, and the evaluation of the subject based on the arrival time.
  • evaluation method Next, the evaluation method according to the present embodiment will be described.
  • the possibility of ADHD of the subject is evaluated by using the evaluation device 100 described above.
  • FIG. 3 is a diagram showing an example of the evaluation image E displayed on the display unit 11.
  • the display control unit 31 displays the evaluation image E including the main target image M and the sub target image S on the display unit 11.
  • the main target image M is arranged in the center of the display unit 11, for example, and a plurality of people are displayed.
  • the main target image M is, for example, rectangular, but is not limited to this, and may have other shapes such as a circular shape and another polygonal shape such as a triangle.
  • a plurality of sub-target images S are arranged in a frame portion F around the main target image M.
  • the sub-object images S are arranged, for example, at the four corners of the display unit 11 and the central portions of the four sides, and a total of eight sub-object images S are arranged.
  • the main target image M has a larger size than the eight sub target images S.
  • the eight sub-object images S have the same dimensions.
  • the display positions and dimensions of the main target image M and the sub target image S, the number of sub target images S, and the like are not limited to this. When distinguishing the eight sub-target images S, they are referred to as sub-target images S1 to S8, respectively.
  • FIG. 4 is a diagram showing an example of displaying the instruction information I on the display unit 11.
  • the display control unit 31 displays the instruction information I instructing the subject to gaze at the main target image M in the evaluation image E on the display unit 11.
  • the display control unit 31 displays the area other than the main target image M so as to be dark, and displays an index of “ ⁇ ” in the portion corresponding to the main target image M as the instruction information I.
  • the index of "x" is displayed in the portion corresponding to the sub-target image S.
  • the instruction information I is not limited to the one using the evaluation image E.
  • the display control unit 31 may display instruction information such as characters on the display unit 11 without displaying the evaluation image E.
  • the input / output control unit 37 speaks a voice corresponding to the instruction information I, such as "Look at the image in the center”. You may output from. For example, the input / output control unit 37 may output the voice corresponding to the instruction information I from the speaker, such as "Look at the image in the center", without displaying the instruction information I.
  • FIG. 5 is a diagram showing an example of a determination area set in the display unit 11.
  • the area setting unit 33 sets the determination area A corresponding to the sub-target image S.
  • the determination area corresponding to the sub-target image S may be referred to as the determination areas A1 to A8.
  • the area setting unit 33 sets the determination area A in a range that does not overlap with each other.
  • the determination area A is not displayed on the display unit 11.
  • the determination region A is, for example, rectangular, but is not limited to this shape, and may be another polygon such as a triangle or another shape such as a circle.
  • the determination area A may be set so as to include the entire sub-target image S, or may be set so as to include a part of the sub-target image S. Further, the area setting unit 33 can set a specific area B corresponding to the main target image M. The area setting unit 33 sets the specific area B in a range that does not overlap with the determination area A. The specific area B is not displayed on the display unit 11.
  • the specific region B is, for example, rectangular, but is not limited to this shape, and may be another polygon such as a triangle or another shape such as a circle.
  • the specific area B may be set so as to include the entire main target image M, or may be set so as to include a part of the main target image M.
  • the characteristics of ADHD include, for example, carelessness, hyperactivity, impulsivity, and the like.
  • Subjects with ADHD for example, even if they are instructed to gaze at a predetermined area, move their gaze point to another area different from the predetermined area at an early stage from the start of evaluation due to hyperactivity or impulsivity. Tends to let.
  • subjects who are not ADHD tend to have a slower time to move the gaze point to another area different from the predetermined area from the start of evaluation, or the gaze point does not move to another area. Therefore, in the present embodiment, after instructing to gaze at the main target image M, the sub-target image S that attracts the attention of the subject is displayed, and the determination area A corresponding to the sub-target image S is first reached. The time to reach is measured, and the subject is evaluated based on the measured time of arrival.
  • the display control unit 31 displays the evaluation image E on the display unit 11.
  • the evaluation image E includes, for example, a main target image M and a sub target image S (see FIG. 3).
  • the display control unit 31 displays the instruction information I instructing the subject to gaze at the main target image M of the evaluation image E on the display unit 11 (see FIG. 4).
  • the display control unit 31 may display the instruction information I first without displaying the evaluation image E before displaying the instruction information I.
  • the display control unit 31 ends the display of the instruction information I and displays the evaluation image E.
  • 6 to 10 are diagrams showing a transition of the display of the evaluation image E.
  • the display control unit 31 displays the main target image M in the central portion of the display unit 11, and the subject recognizes the sub-target image S and the frame portion F from a state in which it is difficult for the subject to recognize. Change to a state that is easy to do.
  • the display control unit 31 reduces the transmittance with the passage of time, for example, but the present invention is not limited to this, and the subject can easily recognize the subject from a state in which the subject is difficult to recognize by other methods. May be changed to.
  • the display control unit 31 first displays the sub-target image S and the frame portion F with the transmittance set to 100%. As a result, the sub-target image S and the frame portion F are apparently not displayed on the display unit 11.
  • the area corresponding to the frame portion F is in a black-painted state, but is not limited to this, and may be in a state of being painted in multiple colors or a state in which a pattern or the like is formed.
  • the area setting unit 33 sets a determination area (A1 to A8: see FIG. 5) corresponding to the sub-target image S in the evaluation image E.
  • the area setting unit 33 sets the determination areas A1 to A8 until the display period of the evaluation image E ends.
  • the display control unit 31 gradually reduces the transmittance of some of the sub-target images S (S2, S4, S5, S7) and the frame portion F as shown in FIG. 7 with the passage of time. , Gradually make it visible. Then, as shown in FIG. 8, when the transmittance of the sub-target images S2, S4, S5, S7 and the frame portion F becomes 0%, the sub-target images S2, S4, S5, S7 and the frame portion F become The display state is the same as that of the main target image M.
  • the display control unit 31 gradually reduces the transmittance of the other sub-target images S (S1, S3, S6, S8) and gradually makes them visible. And. Then, as shown in FIG. 10, when the transparency of the sub-target images S1, S3, S6, and S8 becomes 0%, the sub-target images SS1, S3, S6, and S8 are the main target images M and the sub-target.
  • the display state is the same as that of the images S2, S4, S5, S7, and the frame portion F.
  • the gazing point detection unit 32 detects the position of the gazing point P of the subject every predetermined sampling cycle (for example, 20 [msec]) during the period when the evaluation image E is displayed.
  • the determination unit 34 determines whether the gazing point of the subject exists in the determination areas A1 to A8, and outputs the determination data. Therefore, the determination unit 34 outputs the determination data every time the position of the gazing point is sampled by the gazing point detecting unit 32, at the same determination cycle as the above sampling cycle.
  • the calculation unit 35 calculates the arrival time until the gazing point first reaches the determination area based on the determination data as to whether or not the gazing point exists in the determination area.
  • the arrival time is the time from a predetermined time point to the time when the gazing point first reaches each of the determination areas A1 to A8.
  • the calculation unit 35 calculates the arrival time using the timer.
  • the calculation unit 35 can set a predetermined time point as a starting point for calculating the arrival time, for example, a time point at which the display of the evaluation image E is started after the instruction information I is presented. Further, when the specific area B (see FIG.
  • the calculation unit 35 first confirms that, for example, the gazing point of the subject exists in the specific area B at a predetermined time point. It may be a time point.
  • the calculation unit 35 calculates the arrival time for each determination area.
  • the evaluation unit 36 obtains an evaluation value based on the arrival time of the gazing point, and obtains evaluation data based on the evaluation value.
  • the evaluation unit 36 determines that the evaluation value ANS is, for example, assuming that the arrival times of the determination areas A1 to A8 are t1 to t8.
  • ANS (t1 + t2 + t3 + t4 + t5 + t6 + t7 + t8) / 8 Can be. That is, the evaluation value ANS is the average value of the respective arrival times t1 to t8.
  • the values t1 to t8 can be, for example, a time corresponding to the display period.
  • the evaluation unit 36 may use the total value of the arrival times t1 to t8 of the determination areas A1 to A8 as the evaluation value ANS.
  • the evaluation unit 36 can obtain evaluation data by determining whether or not the value of the evaluation value ANS is equal to or higher than a predetermined threshold value K. For example, when the evaluation value ANS is equal to or higher than the threshold value K, it can be evaluated that the subject is unlikely to have ADHD even if the time to move the gazing point is slow or the gazing point is not moved. Further, when the evaluation value ANS is less than the threshold value K, it can be evaluated that the subject is likely to have ADHD, assuming that the gazing point is moved at an early stage.
  • the evaluation unit 36 can store the value of the evaluation value ANS in the storage unit 38.
  • the evaluation value ANS for the same subject may be cumulatively stored and evaluated when compared with the past evaluation value. For example, when the evaluation value ANS is higher than the past evaluation value, it is possible to evaluate that the symptom of ADHD is improved as compared with the previous evaluation. In addition, when the cumulative value of the evaluation value ANS is gradually increasing, it is possible to evaluate that the symptoms of ADHD are gradually improved.
  • the input / output control unit 37 determines, for example, the character data of "the subject is unlikely to have ADHD" or the character data according to the evaluation data. It is possible to output the character data or the like of "the subject is likely to have ADHD" to the output device 40.
  • the input / output control unit 37 outputs character data such as "ADHD symptoms have been improved" when the evaluation value ANS for the same subject is lower than the past evaluation value ANS. It can be output to 40.
  • FIG. 11 is a flowchart showing an example of the evaluation method according to the present embodiment.
  • the display control unit 31 first displays the evaluation image E on the display unit 11 (step S101).
  • the display control unit 31 displays the instruction information I to watch the main target image M of the evaluation image E on the display unit 11 (step S102).
  • the display control unit 31 ends the display of the instruction information I and displays the evaluation image E on the display unit 11. Further, the area setting unit 33 sets the determination areas A (A1 to A8) corresponding to the sub-target image S in the evaluation image E (step S103). After that, the gazing point detection unit 32 starts gazing point detection (step S104).
  • the gazing point detection unit 32 samples the gazing point position at a predetermined sampling cycle (step S105). Each time the gaze point detection unit 32 samples the position of the gaze point, the determination unit 34 determines whether or not the gaze point exists in any of the determination areas A1 to A8 for the gaze point, and determines. Data is output (step S106). When it is determined that the gazing point exists in any of the determination areas A1 to A8 (Yes in step 106), the calculation unit 35 has elapsed from the start of display for each of the determination areas A1 to A8 based on the determination data. The time is calculated as the arrival time when the gazing point first arrives (step S107).
  • step S107 When the processing of step S107 is performed, or when it is determined that the gazing point does not exist in any of the determination areas A1 to A8 (No in step S106), the calculation unit 35 displays the evaluation image E. It is determined whether or not the process is completed (step S108). If it is determined that the process has not been completed (No in step S108), the processes after step S105 are performed. When it is determined that the process has been completed (Yes in step S108), the evaluation unit 36 obtains the average value of the arrival times at which the gaze points of the calculated determination areas first arrive as the evaluation value (ANS) (step). S109).
  • the evaluation unit 36 determines whether or not the evaluation value (ANS) is equal to or greater than the threshold value (K) (step S110). When the evaluation value (ANS) is not (less than) the threshold value (K) or more (No in step S110), the evaluation unit 36 considers that the subject is likely to have ADHD, assuming that the gazing point is moved at an early stage. After the evaluation (step S111), the process ends. When the evaluation value is equal to or higher than the threshold value (Yes in step S110), the evaluation unit 36 determines that the subject is unlikely to have ADHD because the time to move the gazing point is slow or the gazing point is not moved. After the evaluation (step S112), the process ends.
  • the evaluation device 100 includes the display unit 11, the gaze point detection unit 32 that detects the position of the gaze point of the subject, and the evaluation image including the main target image M and the sub target image S.
  • a display control unit 31 that displays E and instruction information I that instructs the subject to gaze at the main target image M on the display unit 11, and an area setting unit 33 that sets the determination area A corresponding to the sub-target image S.
  • the determination unit 34 that determines whether the gazing point exists in the determination area A based on the detected position of the gazing point, and the arrival time from a predetermined time point until the gazing point first reaches the determination area A. Is provided with a calculation unit 35 that measures the image based on the determination result of the determination unit 34, and an evaluation unit 36 that obtains the evaluation data of the subject based on the arrival time.
  • the evaluation method is to detect the position of the gazing point of the subject, and instruct the subject to gaze at the evaluation image E including the main target image M and the sub-target image S and the main target image M.
  • the gaze point exists in the gaze area A based on the display of the instruction information I to be performed on the display unit 11, the setting of the determination area A corresponding to the sub-target image S, and the position of the detected gaze point. It is determined whether or not to do so, the arrival time from a predetermined time point until the gaze point first reaches the determination area A is measured based on the determination result, and the evaluation data of the subject is obtained based on the arrival time. Including that.
  • the evaluation program instructs the subject to gaze at the process of detecting the position of the gazing point of the subject, the evaluation image E including the target image M and the sub-target image S, and the main target image M.
  • the gazing point exists in the determination area A based on the process of displaying the instruction information I on the display unit 11, the process of setting the determination area A corresponding to the sub-target image S, and the detected position of the gazing point.
  • Subjects with ADHD for example, even if they are instructed to gaze at a predetermined area, move their gaze point to another area different from the predetermined area at an early stage from the start of evaluation due to hyperactivity or impulsivity. Tends to let. Therefore, according to the present embodiment, after instructing to gaze at the main target image M, the sub-target image S that attracts the attention of the subject is displayed, and the determination area A corresponding to the sub-target image S is first displayed. The arrival time until arrival is measured, and the subject is evaluated based on the measured arrival time. This makes it possible to make an evaluation that is more directly adapted to the subject-specific characteristics of ADHD.
  • the display control unit 31 changes the sub-target image S from a state in which the subject is difficult to recognize to a state in which the subject can easily recognize the sub-target image S with the passage of time.
  • the subject is made to recognize the main target image M with a delay. As a result, it is possible to easily set a display time difference between the main target image M and the sub target image S.
  • the area setting unit 33 sets the specific area B corresponding to the main target image M
  • the determination unit 34 sets the gazing point to the specific area B based on the position of the gazing point.
  • the calculation unit 35 sets the time point at which it is first determined that the gazing point exists in the specific area B as a predetermined time point as a starting point for calculating the arrival time.
  • the area setting unit 33 sets the determination area A corresponding to each sub-target image S
  • the calculation unit 35 sets the determination area A.
  • the arrival time of the gazing point is measured for each, and the evaluation unit 36 obtains evaluation data based on the average value of the arrival times.
  • the technical scope of the present disclosure is not limited to the above-described embodiment, and changes can be made as appropriate without departing from the spirit of the present disclosure.
  • the evaluation device 100 may be used as an evaluation device other than the evaluation of the possibility of ADHD, such as the evaluation of the possibility of cognitive dysfunction and brain dysfunction and the evaluation of visual cognitive function.
  • the evaluation device, evaluation method, and evaluation program of the present disclosure can be used, for example, in a line-of-sight detection device.
  • Display control unit 32 ... Gaze point detection unit , 33 ... Area setting unit, 34 ... Judgment unit, 35 ... Calculation unit, 36 ... Evaluation unit, 37 ... Input / output control unit, 38 ... Storage unit, 40 ... Output device, 50 ... Input device, 60 ... Input / output interface device , 100 ... Evaluation device

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Developmental Disabilities (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Human Computer Interaction (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

評価装置は、表示部と、被験者の注視点の位置を検出する注視点検出部と、主対象画像及び副対象画像を含む評価用画像と、主対象画像を注視するように被験者に指示する指示情報とを表示部に表示する表示制御部と、副対象画像に対応した判定領域を設定する領域設定部と、検出された注視点の位置に基づいて、注視点が判定領域に存在するかを判定する判定部と、所定の時点から注視点が判定領域に最初に到達するまでの到達時間を判定部の判定結果に基づいて計測する演算部と、到達時間に基づいて、被験者の評価データを求める評価部とを備える。

Description

評価装置、評価方法、及び評価プログラム
 本開示は、評価装置、評価方法、及び評価プログラムに関する。
 最近、発達障がい者が増加傾向にあると言われている。発達障がいは、早期に発見し療育を開始することで症状を軽減し、社会に適応できる効果が高くなることがわかっており、客観的かつ効率的に発達障がいの可能性を評価可能な評価装置が求められている。
 特許文献1には、発達障がいのうち、注意欠如・多動症(ADHD(Attention deficit hyperactivity disorder))の可能性を評価する手法が記載されている。この手法では、表示部の中央に第1画像を表示し、第1画像の周囲に第2画像を表示し、被験者には第1画像を見るように指示した上で、表示部における被験者の注視点を検出し、各画像に対応する領域に滞留する滞留時間に基づいてADHDの可能性を評価する。
特開2016-171849号公報
 ADHDの被験者は、例えば多動性又は衝動性により注視点の移動が多くなる傾向がある。特許文献1に記載の手法では、見るように指示した画像と他の画像との注視点の滞留時間を比較することにより、注視点の移動を間接的に評価することが可能であった。そこで、ADHDの特性に直接的に適合した評価を行うことが求められている。
 本開示は、上記に鑑みてなされたものであり、ADHDの被験者特有の特性に対してより直接的に適合した評価を行うことができる評価装置、評価方法、及び評価プログラムを提供することを目的とする。
 本開示に係る評価装置は、表示部と、被験者の注視点の位置を検出する注視点検出部と、主対象画像及び副対象画像を含む評価用画像と、前記主対象画像を注視するように前記被験者に指示する指示情報とを前記表示部に表示する表示制御部と、前記副対象画像に対応した判定領域を設定する領域設定部と、検出された前記注視点の位置に基づいて、前記注視点が前記判定領域に存在するかを判定する判定部と、所定の時点から前記注視点が前記判定領域に最初に到達するまでの到達時間を前記判定部の判定結果に基づいて計測する演算部と、前記到達時間に基づいて、前記被験者の評価データを求める評価部とを備える。
 本開示に係る評価方法は、被験者の注視点の位置を検出することと、主対象画像及び副対象画像を含む評価用画像と、前記主対象画像を注視するように前記被験者に指示する指示情報とを前記表示部に表示することと、前記副対象画像に対応した判定領域を設定することと、検出された前記注視点の位置に基づいて、前記注視点が前記判定領域に存在するかを判定することと、所定の時点から前記注視点が前記判定領域に最初に到達するまでの到達時間を前記判定結果に基づいて計測することと、前記到達時間に基づいて、前記被験者の評価データを求めることとを含む。
 本開示に係る評価プログラムは、被験者の注視点の位置を検出する処理と、主対象画像及び副対象画像を含む評価用画像と、前記主対象画像を注視するように前記被験者に指示する指示情報とを前記表示部に表示する処理と、前記副対象画像に対応した判定領域を設定する処理と、検出された前記注視点の位置に基づいて、前記注視点が前記判定領域に存在するかを判定する処理と、所定の時点から前記注視点が前記判定領域に最初に到達するまでの到達時間を前記判定結果に基づいて計測する処理と、前記到達時間に基づいて、前記被験者の評価データを求める処理とをコンピュータに実行させる。
 本開示によれば、ADHDの被験者特有の特性に対してより直接的に適合した評価を行うことができる。
図1は、本実施形態に係る評価装置の一例を模式的に示す図である。 図2は、評価装置の一例を示す機能ブロック図である。 図3は、表示部に表示する評価用画像の一例を示す図である。 図4は、表示部に指示情報を表示する場合の一例を示す図である。 図5は、表示部に設定される判定領域の一例を示す図である。 図6は、評価用画像の表示の推移を示す図である。 図7は、評価用画像の表示の推移を示す図である。 図8は、評価用画像の表示の推移を示す図である。 図9は、評価用画像の表示の推移を示す図である。 図10は、評価用画像の表示の推移を示す図である。 図11は、本実施形態に係る評価方法の一例を示すフローチャートである。
 以下、本開示に係る評価装置、評価方法、及び評価プログラムの実施形態を図面に基づいて説明する。なお、この実施形態によりこの開示が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。
 以下の説明においては、三次元グローバル座標系を設定して各部の位置関係について説明する。所定面の第1軸と平行な方向をX軸方向とし、第1軸と直交する所定面の第2軸と平行な方向をY軸方向とし、第1軸及び第2軸のそれぞれと直交する第3軸と平行な方向をZ軸方向とする。所定面はXY平面を含む。
 [評価装置]
 図1は、本実施形態に係る評価装置100の一例を模式的に示す図である。本実施形態に係る評価装置100は、被験者の視線を検出し、検出結果を用いることで注意欠如・多動症(以下、ADHD(Attention deficit hyperactivity disorder)と表記する)についての評価を行う。評価装置100は、例えば被験者の瞳孔の位置と角膜反射像の位置とに基づいて視線を検出する方法、又は被験者の目頭の位置と虹彩の位置とに基づいて視線を検出する方法等、各種の方法により被験者の視線を検出することができる。
 図1に示すように、評価装置100は、表示装置10と、画像取得装置20と、コンピュータシステム30と、出力装置40と、入力装置50と、入出力インターフェース装置60とを備える。表示装置10、画像取得装置20、コンピュータシステム30、出力装置40及び入力装置50は、入出力インターフェース装置60を介してデータ通信を行う。表示装置10及び画像取得装置20は、それぞれ不図示の駆動回路を有する。
 表示装置10は、液晶ディスプレイ(liquid crystal display:LCD)又は有機ELディスプレイ(organic electroluminescence display:OLED)のようなフラットパネルディスプレイを含む。本実施形態において、表示装置10は、表示部11を有する。表示部11は、画像等の情報を表示する。表示部11は、XY平面と実質的に平行である。X軸方向は表示部11の左右方向であり、Y軸方向は表示部11の上下方向であり、Z軸方向は表示部11と直交する奥行方向である。表示装置10は、ヘッドマウント型ディスプレイ装置であってもよい。表示装置10がヘッドマウント型ディスプレイ装置である場合、ヘッドマウントモジュール内に画像取得装置20のような構成が配置されることになる。
 画像取得装置20は、被験者の左右の眼球EBの画像データを取得し、取得した画像データをコンピュータシステム30に送信する。画像取得装置20は、撮影装置21を有する。撮影装置21は、被験者の左右の眼球EBを撮影することで画像データを取得する。撮影装置21は、被験者の視線を検出する方法に応じた各種カメラを有する。例えば被験者の瞳孔の位置と角膜反射像の位置とに基づいて視線を検出する方式の場合、撮影装置21は、赤外線カメラを有し、例えば波長850[nm]の近赤外光を透過可能な光学系と、その近赤外光を受光可能な撮像素子とを有する。また、例えば被験者の目頭の位置と虹彩の位置とに基づいて視線を検出する方式の場合、撮影装置21は、可視光カメラを有する。撮影装置21は、フレーム同期信号を出力する。フレーム同期信号の周期は、例えば20[msec]とすることができるが、これに限定されない。撮影装置21は、例えば第1カメラ21A及び第2カメラ21Bを有するステレオカメラの構成とすることができるが、これに限定されない。
 また、例えば被験者の瞳孔の位置と角膜反射像の位置とに基づいて視線を検出する方式の場合、画像取得装置20は、被験者の眼球EBを照明する照明装置22を有する。照明装置22は、LED(light emitting diode)光源を含み、例えば波長850[nm]の近赤外光を射出可能である。なお、例えば被験者の目頭の位置と虹彩の位置とに基づいて視線を検出する方式の場合、照明装置22は設けられなくてもよい。照明装置22は、撮影装置21のフレーム同期信号に同期するように検出光を射出する。照明装置22は、例えば第1光源22A及び第2光源22Bを有する構成とすることができるが、これに限定されない。
 コンピュータシステム30は、評価装置100の動作を統括的に制御する。コンピュータシステム30は、演算処理装置30A及び記憶装置30Bを含む。演算処理装置30Aは、CPU(central processing unit)のようなマイクロプロセッサを含む。記憶装置30Bは、ROM(read only memory)及びRAM(random access memory)のようなメモリ又はストレージを含む。演算処理装置30Aは、記憶装置30Bに記憶されているコンピュータプログラム30Cに従って演算処理を実施する。
 出力装置40は、フラットパネルディスプレイのような表示装置を含む。なお、出力装置40は、印刷装置を含んでもよい。入力装置50は、操作されることにより入力データを生成する。入力装置50は、コンピュータシステム用のキーボード又はマウスを含む。なお、入力装置50が表示装置である出力装置40の表示部に設けられたタッチセンサを含んでもよい。
 本実施形態に係る評価装置100は、表示装置10とコンピュータシステム30とが別々の装置である。なお、表示装置10とコンピュータシステム30とが一体でもよい。例えば評価装置100がタブレット型パーソナルコンピュータを含んでもよい。この場合、当該タブレット型パーソナルコンピュータに、表示装置、画像取得装置、コンピュータシステム、入力装置、出力装置等が搭載されてもよい。
 図2は、評価装置100の一例を示す機能ブロック図である。図2に示すように、コンピュータシステム30は、表示制御部31と、注視点検出部32と、領域設定部33と、判定部34と、演算部35と、評価部36と、入出力制御部37と、記憶部38とを有する。コンピュータシステム30の機能は、演算処理装置30A及び記憶装置30B(図1参照)によって発揮される。なお、コンピュータシステム30は、一部の機能が評価装置100の外部に設けられてもよい。
 表示制御部31は、後述する指示情報を表示部11に表示した後、評価用画像を表示部11に表示する。本実施形態において、評価用画像は、主対象画像及び副対象画像を含む画像である。また、指示情報は、評価用画像のうち主対象画像を注視するように被験者に指示する情報である。表示制御部31は、指示情報を表示しなくてもよい。また、表示制御部31は、指示情報と評価用画像とを、同時に表示してもよい。主対象画像と副対象画像とは、互いに独立して設けられる。表示制御部31は、主対象画像と副対象画像とには、例えば異なる画像を表示する。なお、表示制御部31は、主対象画像と副対象画像とに同一の画像を表示してもよい。表示制御部31は、主対象画像と副対象画像とが時間差をつけて表示されるように評価用画像を表示部に表示する。例えば、表示制御部31は、副対象画像を被験者が認識し難い状態から被験者が認識し易い状態に変化させる。ここで、被験者が認識し難い状態とは、例えば透過度が高い状態、明度が低い状態、彩度が低い状態、大きさが小さい状態、等の状態である。一方、被験者が認識し易い状態とは、例えば透過度が低い状態、明度が高い状態、彩度が高い状態、大きさが大きい状態、等の状態である。したがって、表示制御部31は、例えば時間の経過に伴い、副対象画像の透過度を下げる、明度を高くする、彩度を高くする、大きさを大きくする、というように副対象画像の状態を変化させることにより、被験者が認識し難い状態から、被験者が認識し易い状態に変化させることができる。例えば、表示制御部31は、副対象画像の透過度を時間の経過に伴って下げることで、副対象画像を主対象画像に対して遅らせて被験者に認識させることができる。表示制御部31は、上記の評価用画像及び指示情報を、例えば評価用画像として表示部11に表示することができるが、表示形態については評価用画像に限定されず、静止画であってもよい。表示制御部31は、副対象画像を複数表示してもよい。また、表示制御部31は、主対象画像と副対象画像とを、時間差をつけずに同時に表示してもよい。また、表示制御部31は、主対象画像と副対象画像とを同一画像として表示し、主対象画像に対応する主対象物と副対象画像に対応する副対象物とを表示してもよい。
 注視点検出部32は、被験者の注視点の位置データを検出する。本実施形態において、注視点検出部32は、画像取得装置20によって取得される被験者の左右の眼球EBの画像データに基づいて、三次元グローバル座標系で規定される被験者の視線ベクトルを検出する。注視点検出部32は、検出した被験者の視線ベクトルと表示装置10の表示部11との交点の位置データを、被験者の注視点の位置データとして検出する。つまり、本実施形態において、注視点の位置データは、三次元グローバル座標系で規定される被験者の視線ベクトルと、表示装置10の表示部11との交点の位置データである。注視点検出部32は、規定のサンプリング周期毎に被験者の注視点の位置データを検出する。このサンプリング周期は、例えば撮影装置21から出力されるフレーム同期信号の周期(例えば20[msec]毎)とすることができる。
 領域設定部33は、表示部11において、副対象画像に対応した判定領域を設定する。領域設定部33は、複数の副対象画像が表示部11に表示される場合、それぞれの副対象画像に判定領域を設定する。本実施形態において、領域設定部33で設定される各判定領域は、原則として表示部11には表示されない。なお、例えば表示制御部31の制御により、各判定領域が表示部11に表示されるようにしてもよい。また、領域設定部33は、表示部11において、主対象画像に対応した特定領域を設定することができる。
 判定部34は、注視点の位置データに基づいて、注視点が判定領域に存在するか否かをそれぞれ判定し、判定結果を判定データとして出力する。判定部34は、規定の判定周期毎に注視点が判定領域に存在するか否かを判定する。判定周期としては、例えば撮影装置21から出力されるフレーム同期信号の周期(例えば20[msec]毎)とすることができる。つまり、判定部34の判定周期は、注視点検出部32のサンプリング周期と同一である。判定部34は、注視点検出部32で注視点の位置がサンプリングされる毎に当該注視点について判定を行い、判定データを出力する。判定領域が複数設定される場合、判定部34は、注視点が存在するか否かを判定領域毎に判定して判定データを出力することができる。
 演算部35は、判定部34の判定データに基づいて、注視点が判定領域に最初に到達するまでの到達時間を算出する。到達時間は、所定の時点から注視点が判定領域に移動して判定領域に最初に存在すると判定されるまでの時間を示す。演算部35は、時間を計測するタイマを有する。演算部35は、当該タイマを用いて、到達時間を算出する。演算部35は、到達時間を算出する起点となる所定の時点として、例えば指示情報が提示された後に、評価用画像の表示が開始される時点とすることができる。また、主対象画像に対応する特定領域が設定される場合、演算部35は、所定の時点として、例えば被験者の注視点が特定領域に存在すると最初に確認された時点としてもよい。演算部35は、算出した到達時間を、到達時間データとして記憶部38に記憶させる。演算部35は、判定領域が複数設定される場合、判定領域毎に到達時間を算出可能である。なお、演算部35は、評価用画像の再生時間を管理する管理タイマを有する。
 評価部36は、注視点の到達時間に基づいて、被験者の評価データを求める。評価データは、表示部11に表示される主対象画像及び副対象画像を被験者が注視できているかを評価するデータを含む。
 入出力制御部37は、画像取得装置20及び入力装置50の少なくとも一方からのデータ(眼球EBの画像データ、入力データ等)を取得する。また、入出力制御部37は、表示装置10及び出力装置40の少なくとも一方にデータを出力する。入出力制御部37は、被験者に対する課題をスピーカ等の出力装置40から出力してもよい。
 記憶部38は、上記の判定データ、到達時間データ、及び評価データを記憶する。また、記憶部38は、被験者の注視点の位置を検出する処理と、主対象画像及び副対象画像を含む評価用画像と、主対象画像を注視するように被験者に指示する指示情報とを表示部11に表示する処理と、副対象画像に対応した判定領域を設定する処理と、主対象画像に対応した特定領域を設定する処理と、検出された注視点の位置に基づいて、注視点が判定領域に存在するかを判定する処理と、所定の時点から注視点が判定領域に最初に到達するまでの到達時間を判定結果に基づいて計測する処理と、到達時間に基づいて、被験者の評価データを求める処理とをコンピュータに実行させる評価プログラムを記憶する。
 [評価方法]
 次に、本実施形態に係る評価方法について説明する。本実施形態に係る評価方法では、上記の評価装置100を用いることにより、被験者のADHDの可能性について評価する。
 図3は、表示部11に表示する評価用画像Eの一例を示す図である。図3に示すように、表示制御部31は、主対象画像M及び副対象画像Sを含む評価用画像Eを表示部11に表示する。主対象画像Mは、例えば表示部11の中央に配置され、複数の人物が表示される。主対象画像Mは、例えば矩形状であるが、これに限定されず、円形状、三角形等の他の多角形状等、他の形状であってもよい。副対象画像Sは、主対象画像Mの周囲の枠部Fに複数配置される。副対象画像Sは、例えば表示部11の4つの角部と、4つの辺の中央部分とにそれぞれ配置され、合計で8つ配置される。主対象画像Mは、8つの副対象画像Sよりも寸法が大きい。8つの副対象画像Sは、それぞれ同一の寸法である。なお、主対象画像M及び副対象画像Sの表示位置、寸法、副対象画像Sの個数等については、これに限定されない。8つの副対象画像Sを区別する場合、それぞれ副対象画像S1~S8と表記する。
 図4は、表示部11に指示情報Iを表示する場合の一例を示す図である。図4に示すように、表示制御部31は、評価用画像Eのうち主対象画像Mを注視するように被験者に指示する指示情報Iを表示部11に表示する。図4に示す例において、表示制御部31は、主対象画像M以外の領域が暗くなるように表示し、指示情報Iとして、主対象画像Mに対応する部分に「○」の指標を表示し、副対象画像Sに対応する部分に「×」の指標を表示する。なお、指示情報Iは、評価用画像Eを用いたものに限定されない。例えば、表示制御部31は、評価用画像Eを表示させることなく、文字等の指示情報を表示部11に表示してもよい。また、入出力制御部37は、指示情報Iの表示に加えて、又は指示情報Iの表示に代えて、「中央の画像を見てください」等のように指示情報Iに対応する音声をスピーカから出力してもよい。例えば、入出力制御部37は、指示情報Iを表示させずに、「中央の画像を見てください」等のように指示情報Iに対応する音声をスピーカから出力してもよい。
 図5は、表示部11に設定される判定領域の一例を示す図である。図5に示すように、領域設定部33は、副対象画像Sに対応した判定領域Aを設定する。以下、判定領域Aを区別する場合、副対象画像Sに対応した判定領域を判定領域A1~A8と表記する場合がある。領域設定部33は、互いに重ならない範囲に判定領域Aを設定する。判定領域Aは、表示部11には表示されない。判定領域Aは、例えば矩形状であるが、この形状に限定されず、例えば三角形等の他の多角形、円形等の他の形状であってもよい。判定領域Aは、それぞれ副対象画像Sの全体を含む状態で設定されてもよいし、副対象画像Sの一部を含む状態で設定されてもよい。また、領域設定部33は、主対象画像Mに対応した特定領域Bを設定することができる。領域設定部33は、判定領域Aに重ならない範囲に特定領域Bを設定する。特定領域Bは、表示部11には表示されない。特定領域Bは、例えば矩形状であるが、この形状に限定されず、例えば三角形等の他の多角形、円形等の他の形状であってもよい。特定領域Bは、主対象画像Mの全体を含む状態で設定されてもよいし、主対象画像Mの一部を含む状態で設定されてもよい。
 ADHDの特性としては、例えば不注意、多動性、衝動性等が挙げられる。ADHDの被験者は、例えば所定の領域を注視するように指示されていた場合でも、多動性又は衝動性により、評価開始から早い段階で注視点を当該所定の領域とは異なる他の領域に移動させる傾向がある。一方、ADHDではない被験者は、評価開始から注視点を当該所定の領域とは異なる他の領域に移動させる時間が遅くなる、又は、注視点が他の領域に移動させない傾向がある。そこで、本実施形態では、主対象画像Mを注視するように指示した後、被験者の注意を引くような副対象画像Sを表示し、副対象画像Sに対応する判定領域Aに最初に到達するまでの到達時間を計測し、計測した到達時間に基づいて被験者を評価するものである。
 まず、表示制御部31は、評価用画像Eを表示部11に表示する。評価用画像Eには、例えば主対象画像M及び副対象画像Sが含まれる(図3参照)。評価用画像Eを表示した後、表示制御部31は、評価用画像Eのうち主対象画像Mを注視するように被験者に指示する指示情報Iを表示部11に表示する(図4参照)。なお、表示制御部31は、指示情報Iを表示する前の評価用画像Eの表示は行わずに、最初に指示情報Iを表示するようにしてもよい。
 その後、表示制御部31は、指示情報Iの表示を終了し、評価用画像Eを表示する。図6から図10は、評価用画像Eの表示の推移を示す図である。まず、表示制御部31は、図6に示すように、表示部11の中央部に主対象画像Mを表示し、副対象画像S及び枠部Fについては被験者が認識し難い状態から被験者が認識し易い状態に変化させる。本実施形態において、表示制御部31は、例えば時間の経過に伴って透過度を下げるようにするが、これに限定されず、他の方法で被験者が認識し難い状態から被験者が認識し易い状態に変化させてもよい。具体的には、表示制御部31は、まず副対象画像S及び枠部Fの透過度を100%とした表示とする。これにより、副対象画像S及び枠部Fは、見かけ上、表示部11には表示されない状態となる。枠部Fに対応する領域は、黒塗り状態となっているが、これに限定されず、多色で塗られた状態、又は模様等が形成された状態であってもよい。そして、領域設定部33は、図示を省略するが、評価用画像Eのうち副対象画像Sに対応する判定領域(A1~A8:図5参照)を設定する。領域設定部33は、評価用画像Eの表示期間が終了するまで判定領域A1~A8を設定しておく。
 この状態から、表示制御部31は、時間の経過とともに、図7に示すように、一部の副対象画像S(S2、S4、S5、S7)及び枠部Fの透過度を徐々に低下させ、徐々に視認可能な状態とする。そして、図8に示すように、副対象画像S2、S4、S5、S7及び枠部Fの透過度が0%になった場合、副対象画像S2、S4、S5、S7及び枠部Fが、主対象画像Mと同様の表示状態となる。
 その後、表示制御部31は、時間の経過とともに、図9に示すように、他の副対象画像S(S1、S3、S6、S8)の透過度を徐々に低下させ、徐々に視認可能な状態とする。そして、図10に示すように、副対象画像S1、S3、S6、S8の透過度が0%になった場合、当該副対象画像SS1、S3、S6、S8が、主対象画像M、副対象画像S2、S4、S5、S7、枠部Fと同様の表示状態となる。
 注視点検出部32は、評価用画像Eが表示される期間において、規定のサンプリング周期(例えば20[msec])毎に、被験者の注視点Pの位置を検出する。被験者の注視点Pの位置が検出された場合、判定部34は、被験者の注視点が判定領域A1~A8に存在するかを判定し、判定データを出力する。したがって、判定部34は、注視点検出部32で注視点の位置がサンプリングされる毎に、上記のサンプリング周期と同一の判定周期毎に判定データを出力する。
 演算部35は、注視点が判定領域に存在するか否かの判定データに基づいて、注視点が判定領域に最初に到達するまでの到達時間を算出する。到達時間は、注視点が所定の時点から判定領域A1~A8のそれぞれに最初に到達した時点までの時間である。演算部35は、当該タイマを用いて到達時間を算出する。演算部35は、到達時間を算出する起点となる所定の時点として、例えば指示情報Iが提示された後に、評価用画像Eの表示が開始される時点とすることができる。また、主対象画像Mに対応する特定領域B(図5参照)が設定される場合、演算部35は、所定の時点として、例えば被験者の注視点が特定領域Bに存在すると最初に確認された時点としてもよい。演算部35は、本実施形態のように複数の判定領域A1~A8設定される場合、判定領域毎に到達時間を算出する。
 評価部36は、注視点の到達時間に基づいて評価値を求め、評価値に基づいて評価データを求める。本実施形態において、評価部36は、例えば、判定領域A1~A8のそれぞれの到達時間をt1~t8とすると、評価値ANSは、
 ANS=(t1+t2+t3+t4+t5+t6+t7+t8)/8
 とすることができる。つまり、評価値ANSは、それぞれの到達時間t1~t8の平均値となる。なお、評価用画像Eの表示期間に注視点が判定領域Aに到達しなかった場合、t1~t8の値は、例えば表示期間に相当する時間とすることができる。なお、評価部36は、判定領域A1~A8のそれぞれの到達時間t1~t8の合計値を評価値ANSとしてもよい。
 評価部36は、評価値ANSの値が所定の閾値K以上か否かを判断することで評価データを求めることができる。例えば評価値ANSが閾値K以上である場合、注視点を移動させる時間が遅かった、又は注視点を移動させなかったとして、被験者がADHDである可能性が低いと評価することができる。また、評価値ANSが閾値K未満である場合、早い段階で注視点を移動させたとして、被験者がADHDである可能性が高いと評価することができる。
 また、評価部36は、評価値ANSの値を記憶部38に記憶させておくことができる。例えば、同一の被験者についての評価値ANSを累積的に記憶し、過去の評価値と比較した場合の評価を行ってもよい。例えば、評価値ANSが過去の評価値よりも高い値となった場合、ADHDの症状が前回の評価に比べて改善されている旨の評価を行うことができる。また、評価値ANSの累積値が徐々に高くなっている場合等には、ADHDの症状が徐々に改善されている旨の評価を行うことができる。
 本実施形態において、評価部36が評価データを出力した場合、入出力制御部37は、評価データに応じて、例えば「被験者はADHDである可能性が低いと思われます」の文字データや、「被験者はADHDである可能性が高いと思われます」の文字データ等を出力装置40に出力させることができる。また、入出力制御部37は、同一の被験者についての評価値ANSが過去の評価値ANSに比べて低くなっている場合、「ADHDの症状が改善されています」等の文字データ等を出力装置40に出力することができる。
 次に、本実施形態に係る評価方法の一例について、図11を参照しながら説明する。図11は、本実施形態に係る評価方法の一例を示すフローチャートである。本実施形態に係る評価方法において、図11に示すように、まず表示制御部31は、表示部11に評価用画像Eを表示する(ステップS101)。次に、表示制御部31は、評価用画像Eのうち主対象画像Mを注視する旨の指示情報Iを表示部11に表示する(ステップS102)。
 その後、表示制御部31は、指示情報Iの表示を終了し、表示部11に評価用画像Eを表示する。また、領域設定部33は、評価用画像Eのうち副対象画像Sに対応する判定領域A(A1~A8)を設定する(ステップS103)。その後、注視点検出部32は、注視点検出を開始する(ステップS104)。
 注視点検出部32は、所定のサンプリング周期で注視点の位置をサンプリングする(ステップS105)。判定部34は、注視点検出部32で注視点の位置がサンプリングされる毎に、当該注視点について、注視点が判定領域A1~A8のいずれかに存在するか否かの判定を行い、判定データを出力する(ステップS106)。注視点が判定領域A1~A8のいずれかに存在すると判定された場合(ステップ106のYes)、演算部35は、判定データに基づいて、判定領域A1~A8のそれぞれについて、表示開始からの経過時間を注視点が最初に到達した到達時間として算出する(ステップS107)。ステップS107の処理が行われた場合、又は、注視点が判定領域A1~A8のいずれにも存在しないと判定された場合(ステップS106のNo)、演算部35は、評価用画像Eの表示が終了したか否かの判定を行う(ステップS108)。終了していないと判定された場合(ステップS108のNo)、ステップS105以降の処理を行う。終了していると判定された場合(ステップS108のYes)、評価部36は、算出された判定領域それぞれの注視点が最初に到達した到達時間の平均値を評価値(ANS)として求める(ステップS109)。
 評価部36は、評価値(ANS)が閾値(K)以上であるか否かを判定する(ステップS110)。評価値(ANS)が閾値(K)以上ではない(未満)場合(ステップS110のNo)、評価部36は、早い段階で注視点を移動させたとして、被験者がADHDである可能性が高いと評価した後(ステップS111)、処理を終了する。評価値が閾値以上である場合(ステップS110のYes)、評価部36は、注視点を移動させる時間が遅かった、又は注視点を移動させなかったとして、被験者がADHDである可能性が低いと評価した後(ステップS112)、処理を終了する。
 以上のように、本実施形態に係る評価装置100は、表示部11と、被験者の注視点の位置を検出する注視点検出部32と、主対象画像M及び副対象画像Sを含む評価用画像Eと、主対象画像Mを注視するように被験者に指示する指示情報Iとを表示部11に表示する表示制御部31と、副対象画像Sに対応した判定領域Aを設定する領域設定部33と、検出された注視点の位置に基づいて、注視点が判定領域Aに存在するかを判定する判定部34と、所定の時点から注視点が判定領域Aに最初に到達するまでの到達時間を判定部34の判定結果に基づいて計測する演算部35と、到達時間に基づいて、被験者の評価データを求める評価部36とを備える。
 本実施形態に係る評価方法は、被験者の注視点の位置を検出することと、主対象画像M及び副対象画像Sを含む評価用画像Eと、主対象画像Mを注視するように被験者に指示する指示情報Iとを表示部11に表示することと、副対象画像Sに対応した判定領域Aを設定することと、検出された注視点の位置に基づいて、注視点が判定領域Aに存在するかを判定することと、所定の時点から注視点が判定領域Aに最初に到達するまでの到達時間を判定結果に基づいて計測することと、到達時間に基づいて、被験者の評価データを求めることとを含む。
 本実施形態に係る評価プログラムは、被験者の注視点の位置を検出する処理と、対象画像M及び副対象画像Sを含む評価用画像Eと、主対象画像Mを注視するように被験者に指示する指示情報Iとを表示部11に表示する処理と、副対象画像Sに対応した判定領域Aを設定する処理と、検出された注視点の位置に基づいて、注視点が判定領域Aに存在するかを判定する処理と、所定の時点から注視点が判定領域Aに最初に到達するまでの到達時間を判定結果に基づいて計測する処理と、到達時間に基づいて、被験者の評価データを求める処理とをコンピュータに実行させる。
 ADHDの被験者は、例えば所定の領域を注視するように指示されていた場合でも、多動性又は衝動性により、評価開始から早い段階で注視点を当該所定の領域とは異なる他の領域に移動させる傾向がある。したがって、本実施形態によれば、主対象画像Mを注視するように指示した後、被験者の注意を引くような副対象画像Sを表示し、副対象画像Sに対応する判定領域Aに最初に到達するまでの到達時間を計測し、計測した到達時間に基づいて被験者を評価するものである。これにより、ADHDの被験者特有の特性に対してより直接的に適合した評価を行うことができる。
 本実施形態に係る評価装置100において、表示制御部31は、副対象画像Sを時間の経過に伴って被験者が認識し難い状態から、認識し易い状態に変化させることで、副対象画像Sを主対象画像Mに対して遅らせて被験者に認識させる。これにより、主対象画像Mと副対象画像Sとの間の表示の時差を容易につけることが可能となる。
 本実施形態に係る評価装置100において、領域設定部33は、主対象画像Mに対応した特定領域Bを設定し、判定部34は、注視点の位置に基づいて、注視点が特定領域Bに存在するかを判定し、演算部35は、注視点が特定領域Bに存在すると最初に判定された時点を、到達時間を算出する起点となる所定の時点とする。これにより、被験者が主対象画像Mを注視した状態から、注視点が判定領域Aに最初に到達するまでの到達時間のカウントがスタートするため、指示情報Iによる指示を満たした状態からの評価を確実に行うことができる。このため、高精度の結果を得ることができる。
 本実施形態に係る評価装置100において、副対象画像Sは、複数設けられ、領域設定部33は、それぞれの副対象画像Sに対応した判定領域Aを設定し、演算部35は、判定領域A毎に注視点の到達時間を計測し、評価部36は、到達時間の平均値に基づいて評価データを求める。これにより、例えばADHDではない被験者が誤って副対象画像Sを注視した場合の影響を低減することができる。
 本開示の技術範囲は上記実施形態に限定されるものではなく、本開示の趣旨を逸脱しない範囲で適宜変更を加えることができる。例えば、上記各実施形態では、評価装置100を、ADHDである可能性を評価する評価装置として用いる場合を例に挙げて説明したが、これに限定されない。例えば、評価装置100は、認知機能障害および脳機能障害である可能性の評価や視覚認知機能の評価など、ADHDである可能性の評価以外の評価装置として用いてもよい。
 本開示の評価装置、評価方法、及び評価プログラムは、例えば視線検出装置に利用することができる。
 A,A1~A8…判定領域、B…特定領域、E…評価用画像、F…枠部、I…指示情報、M…主対象画像、EB…眼球、P…注視点、S,S1~S8…副対象画像、ANS…評価値、t1~t8…到達時間、10…表示装置、11…表示部、20…画像取得装置、21…撮影装置、21A…第1カメラ、21B…第2カメラ、22…照明装置、22A…第1光源、22B…第2光源、30…コンピュータシステム、30A…演算処理装置、30B…記憶装置、30C…コンピュータプログラム、31…表示制御部、32…注視点検出部、33…領域設定部、34…判定部、35…演算部、36…評価部、37…入出力制御部、38…記憶部、40…出力装置、50…入力装置、60…入出力インターフェース装置、100…評価装置

Claims (6)

  1.  表示部と、
     被験者の注視点の位置を検出する注視点検出部と、
     主対象画像及び副対象画像を含む評価用画像と、前記主対象画像を注視するように前記被験者に指示する指示情報とを前記表示部に表示する表示制御部と、
     前記副対象画像に対応した判定領域を設定する領域設定部と、
     検出された前記注視点の位置に基づいて、前記注視点が前記判定領域に存在するかを判定する判定部と、
     所定の時点から前記注視点が前記判定領域に最初に到達するまでの到達時間を前記判定部の判定結果に基づいて計測する演算部と、
     前記到達時間に基づいて、前記被験者の評価データを求める評価部と
     を備える評価装置。
  2.  前記表示制御部は、前記副対象画像を前記被験者が認識し難い状態から前記被験者が認識し易い状態に変化させる
     請求項1に記載の評価装置。
  3.  前記副対象画像は、複数設けられ、
     前記領域設定部は、それぞれの前記副対象画像に対応した前記判定領域を設定し、
     前記演算部は、前記判定領域毎に前記到達時間を計測し、
     前記評価部は、全ての前記判定領域における前記到達時間の平均値に基づいて前記評価データを求める
     請求項1又は請求項2に記載の評価装置。
  4.  前記領域設定部は、前記主対象画像に対応した特定領域を設定し、
     前記判定部は、前記注視点の位置に基づいて、前記注視点が前記特定領域に存在するかを判定し、
     前記演算部は、前記注視点が前記特定領域に存在すると最初に判定された時点を、前記所定の時点とする
     請求項1から請求項3のいずれか一項に記載の評価装置。
  5.  被験者の注視点の位置を検出することと、
     主対象画像及び副対象画像を含む評価用画像と、前記主対象画像を注視するように前記被験者に指示する指示情報とを前記表示部に表示することと、
     前記副対象画像に対応した判定領域を設定することと、
     検出された前記注視点の位置に基づいて、前記注視点が前記判定領域に存在するかを判定することと、
     所定の時点から前記注視点が前記判定領域に最初に到達するまでの到達時間を前記判定結果に基づいて計測することと、
     前記到達時間に基づいて、前記被験者の評価データを求めることと
     を含む評価方法。
  6.  被験者の注視点の位置を検出する処理と、
     主対象画像及び副対象画像を含む評価用画像と、前記主対象画像を注視するように前記被験者に指示する指示情報とを前記表示部に表示する処理と、
     前記副対象画像に対応した判定領域を設定する処理と、
     検出された前記注視点の位置に基づいて、前記注視点が前記判定領域に存在するかを判定する処理と、
     所定の時点から前記注視点が前記判定領域に最初に到達するまでの到達時間を前記判定結果に基づいて計測する処理と、
     前記到達時間に基づいて、前記被験者の評価データを求める処理と
     をコンピュータに実行させる評価プログラム。
PCT/JP2019/044446 2019-03-22 2019-11-12 評価装置、評価方法、及び評価プログラム WO2020194846A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/468,726 US20210401336A1 (en) 2019-03-22 2021-09-08 Evaluation apparatus, evaluation method, and non-transitory storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-054142 2019-03-22
JP2019054142A JP7247690B2 (ja) 2019-03-22 2019-03-22 評価装置、評価方法、及び評価プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/468,726 Continuation US20210401336A1 (en) 2019-03-22 2021-09-08 Evaluation apparatus, evaluation method, and non-transitory storage medium

Publications (1)

Publication Number Publication Date
WO2020194846A1 true WO2020194846A1 (ja) 2020-10-01

Family

ID=72556809

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/044446 WO2020194846A1 (ja) 2019-03-22 2019-11-12 評価装置、評価方法、及び評価プログラム

Country Status (3)

Country Link
US (1) US20210401336A1 (ja)
JP (1) JP7247690B2 (ja)
WO (1) WO2020194846A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014018565A (ja) * 2012-07-23 2014-02-03 Jvc Kenwood Corp 診断支援装置および診断支援方法
JP2014018484A (ja) * 2012-07-19 2014-02-03 Jvc Kenwood Corp 診断支援装置および診断支援方法
JP2015502238A (ja) * 2011-12-20 2015-01-22 アイチェック ヘルス コネクション, インコーポレイテッド 緑内障における視野欠損を監視するためのビデオゲーム
US20150051508A1 (en) * 2013-08-13 2015-02-19 Sync-Think, Inc. System and Method for Cognition and Oculomotor Impairment Diagnosis Using Binocular Coordination Analysis
WO2016052646A1 (ja) * 2014-09-30 2016-04-07 国立大学法人浜松医科大学 不注意の測定装置、システム、及び方法
JP2018029764A (ja) * 2016-08-24 2018-03-01 株式会社Jvcケンウッド 診断支援装置、診断支援方法、及びコンピュータプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015502238A (ja) * 2011-12-20 2015-01-22 アイチェック ヘルス コネクション, インコーポレイテッド 緑内障における視野欠損を監視するためのビデオゲーム
JP2014018484A (ja) * 2012-07-19 2014-02-03 Jvc Kenwood Corp 診断支援装置および診断支援方法
JP2014018565A (ja) * 2012-07-23 2014-02-03 Jvc Kenwood Corp 診断支援装置および診断支援方法
US20150051508A1 (en) * 2013-08-13 2015-02-19 Sync-Think, Inc. System and Method for Cognition and Oculomotor Impairment Diagnosis Using Binocular Coordination Analysis
WO2016052646A1 (ja) * 2014-09-30 2016-04-07 国立大学法人浜松医科大学 不注意の測定装置、システム、及び方法
JP2018029764A (ja) * 2016-08-24 2018-03-01 株式会社Jvcケンウッド 診断支援装置、診断支援方法、及びコンピュータプログラム

Also Published As

Publication number Publication date
JP2020151293A (ja) 2020-09-24
US20210401336A1 (en) 2021-12-30
JP7247690B2 (ja) 2023-03-29

Similar Documents

Publication Publication Date Title
JP6737234B2 (ja) 評価装置、評価方法、及び評価プログラム
US20210401287A1 (en) Evaluation apparatus, evaluation method, and non-transitory storage medium
JP7435694B2 (ja) 評価装置、評価方法、及び評価プログラム
JP6996343B2 (ja) 評価装置、評価方法、及び評価プログラム
JP7239856B2 (ja) 評価装置、評価方法、及び評価プログラム
WO2020194846A1 (ja) 評価装置、評価方法、及び評価プログラム
WO2021246012A1 (ja) 視線検出装置、視線検出方法、及び視線検出プログラム
JP7057483B2 (ja) 評価装置、評価方法、及び評価プログラム
WO2020183792A1 (ja) 表示装置、表示方法、及び表示プログラム
JP7047676B2 (ja) 評価装置、評価方法、及び評価プログラム
WO2020031471A1 (ja) 評価装置、評価方法、及び評価プログラム
WO2020194841A1 (ja) 評価装置、評価方法、及び評価プログラム
WO2020256148A1 (ja) 評価装置、評価方法、及び評価プログラム
WO2021010122A1 (ja) 評価装置、評価方法、及び評価プログラム
JP2019024776A (ja) 評価装置、評価方法、及び評価プログラム
JP7027958B2 (ja) 評価装置、評価方法、及び評価プログラム
JP2020103855A (ja) 評価装置、評価方法、及び評価プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19921288

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19921288

Country of ref document: EP

Kind code of ref document: A1