WO2016195082A1 - 軽度認知症の早期発見・予防プログラム及びシステム - Google Patents

軽度認知症の早期発見・予防プログラム及びシステム Download PDF

Info

Publication number
WO2016195082A1
WO2016195082A1 PCT/JP2016/066615 JP2016066615W WO2016195082A1 WO 2016195082 A1 WO2016195082 A1 WO 2016195082A1 JP 2016066615 W JP2016066615 W JP 2016066615W WO 2016195082 A1 WO2016195082 A1 WO 2016195082A1
Authority
WO
WIPO (PCT)
Prior art keywords
stereoscopic
program
prevention
early detection
video
Prior art date
Application number
PCT/JP2016/066615
Other languages
English (en)
French (fr)
Inventor
田原 博史
Original Assignee
株式会社Eyeresh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Eyeresh filed Critical 株式会社Eyeresh
Priority to CN201680045316.XA priority Critical patent/CN107847226B/zh
Priority to JP2017522283A priority patent/JP6229867B2/ja
Priority to EP16803513.7A priority patent/EP3305206A4/en
Publication of WO2016195082A1 publication Critical patent/WO2016195082A1/ja
Priority to US15/829,983 priority patent/US11000221B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/162Testing reaction times
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/372Analysis of electroencephalograms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/377Electroencephalography [EEG] using evoked responses
    • A61B5/378Visual stimuli
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7246Details of waveform analysis using correlation, e.g. template matching or determination of similarity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes

Definitions

  • the present invention relates to a program and system for early detection / prevention of mild dementia.
  • MCI CognitiveImpairment
  • D Lewy Bodies Dementia ⁇ with D Lewy Bodies
  • AD Alzheimer's disease
  • vascular dementia vascular dementia
  • visuospatial ability disorders constitutive disorders, visual cognitive disorders
  • Non-Patent Document 2 a paper investigating the relationship between the decline in visual acuity and the decline in cognitive function in the elderly, in which a decrease in visual acuity when cognitive function is normal leads to an increased risk of developing dementia such as Alzheimer's disease in the future.
  • the relevance between visual acuity and cognitive decline has attracted attention, such as being published in an epidemiological journal (see Non-Patent Document 2).
  • Patent Document 1 As a technique for activating the brain through vision, there is a game disclosed in Patent Document 1, for example.
  • the game is executed while causing confusion for the user by a combination of an appropriate enemy object and a misidentification object, and the user is required to accurately grasp the face image of the enemy object. Therefore, the user is required to have a processing ability and a concentration ability to distinguish enemy objects, and the brain can be activated by facial image recognition.
  • visual acuity there are two types of visual acuity: ocular visual acuity and intracerebral visual acuity, and visual impairment due to cognitive decline is caused by “decreased visual acuity in the brain” and “reduced brain activity due to reduced ocular visual acuity” ”Is also the cause, and visual impairment due to cognitive decline is considered to progress while the eyes and brain are related.
  • the stimulus to activate the brain is important to stimulate "see” in a balanced manner with both the left and right eyes. That is, stimulating and activating the left and right brains in a balanced manner through both eyes' intracerebral acuity increases memory, concentration, imagination, etc., relieves the progression of cognitive decline, and promotes the recovery of intracerebral acuity be able to.
  • Patent Document 1 it is a method of simply identifying an object and does not include an element of viewing with a good balance between the left and right eyes. It is likely that this will result in stimulating the brain with a biased brain acuity.
  • the present invention has been made in view of the above points, and by observing the left and right eyes in a well-balanced manner, the left and right brains are stimulated and activated in a well-balanced manner, thereby facilitating the progression of cognitive decline.
  • Program invention (1-1) Space recognition ability and situation judgment test
  • An application execution unit for executing a program for generating a left-eye image and a right-eye image corresponding to the left and right eyes of the observer;
  • a display unit for displaying the left-eye video and the right-eye video generated by the program executed by the application execution unit at locations corresponding to the left and right eyes, respectively;
  • An object operation step for changing the color of the object at an arbitrary timing and time length A cognitive measurement step for recording the timing and time length when the color of the object is changed, the time difference between the user operation with respect to the user interface, and the accuracy of the user operation as a test result of spatial recognition ability and situation judgment ability; It is characterized by executing a process including:
  • the colors of a plurality of objects that rotate in a complicated trajectory in a virtual space in a stereoscopic video area can be set at an arbitrary timing and time. Change the length and let the observer operate the user interface when the change is recognized. By measuring the time difference and accuracy from the time when the color of the object changes until the observer operates, it is possible to check the observer's ability to recognize space and situation. If this time difference or accuracy exceeds (below) a predetermined threshold, there is a possibility of cognitive impairment, and thus preventive measures can be taken.
  • the rotation radius or the center of gravity which is the rotation center
  • the recognition power measurement step the user operation and the object display are displayed. It is preferable to also measure the visual field range of the observer based on the relationship with the position.
  • the object's visual field range can be measured by displaying the object to the four corners of the screen of the tablet PC and observing the observer's reaction to it, and the cognitive impairment is estimated from the narrowness of the visual field range. be able to.
  • the method further includes a white turbidity measurement step of changing the color saturation of the object and measuring the color of the observer and the white turbidity based on a relationship between the saturation of the object and a user operation on the user interface.
  • the color of the observer and the cloudiness of the eyeball can be found by changing the saturation of the object, for example, by operating a slider and adjusting it so that the observer can easily see it.
  • a program for generating a left-eye image and a right-eye image corresponding to the left and right eyes of an observer is executed.
  • a program for early detection or prevention of mild dementia using an information processing terminal with a user interface that accepts user operations, the program is A stereoscopic video generation step of generating a stereoscopic video area for displaying a stereoscopic video configured by generating a convergence angle and parallax between the left-eye video and the right-eye video; and Display multiple types of objects whose positions or orientations change in the virtual space constructed in the stereoscopic video area, and simultaneously select multiple types of objects related to the same object while changing the depth in the virtual space.
  • a plurality of types of fruits such as apples and mandarin oranges are simultaneously changed while changing the depth in the virtual space in the stereoscopic image area.
  • the size of the same object in the virtual space is set to be equal, and only the depth at the time of display (depth in the virtual space) is changed.
  • by measuring the number of displays and the number of counts by the observer it is possible to check the observer's instantaneous vision and magnitude constancy. If the time to answer and the number of wrong answers seem to exceed (below) a predetermined threshold, there is a possibility of cognitive impairment, and thus preventive measures can be taken.
  • the method further includes a memory measurement step for recording the accuracy of the user operation as a memory test result.
  • the memory can be checked together with the instantaneous vision and the large and small constancy. If the number of wrong answers exceeds (below) a predetermined threshold, there is a possibility of cognitive impairment, and thus preventive measures can be taken.
  • (1-3) Color Consistency Test Another invention includes an application execution unit that executes a program for generating a left-eye image and a right-eye image corresponding to the left and right eyes of an observer, Information processing provided with a display unit for displaying left-eye video and right-eye video generated by a program executed by the application execution unit at locations corresponding to the left and right eyes, and a user interface for accepting user operations
  • a program for early detection or prevention of mild dementia using a terminal the program causing an information processing terminal to generate a convergence angle and parallax between a left-eye video and a right-eye video
  • a 3D image generation step for generating a 3D image area for displaying the configured 3D image, a position in the virtual space constructed in the 3D image area, Is an object color change step that displays a plurality of types of objects whose orientation changes, and displays objects related to the same among the plurality of types of objects by changing the brightness, saturation, color, or light source position, and objects related to the same
  • the brightness, saturation, color, or light source position of an object related to the same object is changed in the virtual space in the stereoscopic video area. And let the observer operate the user interface and answer the same color. Then, the color constancy of the observer can be checked by comparing the displayed color with the answer by the observer. If the time to answer and the number of wrong answers seem to exceed (below) a predetermined threshold, there is a possibility of cognitive impairment, and thus preventive measures can be taken.
  • Brain activity status test for visual cortex Another invention is an application execution in which a program for generating a left-eye image and a right-eye image corresponding to the left and right eyes of an observer is executed.
  • a display unit that displays the left-eye video and the right-eye video generated by the program executed by the application execution unit at locations corresponding to the left and right eyes, and a user interface that accepts user operations.
  • a program for early detection or prevention of mild dementia using an information processing terminal which causes the information processing terminal to display different numbers of objects for the left-eye video and the right-eye video User for left and right video generation step to create left and right video area, object display and user interface
  • a visual field struggle measurement step for recording the accuracy of the operation as a test result of a brain activity state related to the visual cortex due to the visual field struggle.
  • a tablet PC capable of 2D or 3D display
  • different numbers of objects are displayed in the left and right video areas for the left eye video and the right eye video.
  • the information processing terminal detects the observer's electroencephalogram and outputs an electroencephalogram signal corresponding to the electroencephalogram, and the electroencephalogram detection device acquires the electroencephalogram detection device.
  • An electroencephalogram signal recording section for recording an electroencephalogram signal, and the early detection / prevention program is recorded by the test result recorded by the stereoscopic program executed by the application execution section and the electroencephalogram signal recording section. It is preferable to execute a process that further includes an electroencephalogram correlation analysis step of analyzing the electroencephalogram signal in cooperation.
  • the electroencephalogram is a weak periodic current emitted from the nerve cells of the brain.
  • the cognitive functions that are reduced by MCI are "episode memory”, “attention division function”, “thinking ability”, and “visual space cognitive function”. It is known that the onset of cognitive impairment can be delayed or prevented by stimulating cognitive function by working for the purpose.
  • the analysis unit 111f can analyze the effect of stimulation on the cognitive function by stimulating the cognitive function by stereoscopic vision by the stereoscopic vision program and detecting an electroencephalogram signal.
  • “Visuospatial cognitive impairment” means that there are obstacles in recognition of faces and articles, ability to find articles, simple tool operation and clothes ability, even though visual acuity is not impaired. Yes, these disorders are common symptoms of Alzheimer's dementia. Also, in the early stages of typical Alzheimer-type dementia, there are symptoms such as being poor at drawing, getting lost in driving, and being unable to put in the car garage, searching for things in the middle term Symptoms are that it becomes difficult to operate and wear simple tools in the latter period.
  • visuospatial cognitive impairment In neural-based Alzheimer-type dementia, a decrease in blood flow in the parietal occipital lobe is considered to be the responsible lesion of visuospatial cognitive impairment. Visuospatial cognitive impairment is often detected by a pentagonal or three-dimensional replication with overlapping MMSEs. Imitation of the hand shape of foxes and pigeons is said to be a simple screening. This is due to the impairment of the visual space cognitive function of capturing and moving the visual space characteristics of the object in front of the eyes, and is also called a compositional disorder. In this way, there seems to be a close correlation between cognitive impairment and visuospatial cognitive function, and it is more effective for cognitive function by detecting stimulation to brain function by stereoscopic program and brain wave by it. The effect of stimulation can be analyzed.
  • (1-6) Server control program Another invention is a server control program for controlling a content management server connectable to the information processing terminal through a communication network.
  • the server control program includes a content management server between a content storage unit that stores an uploaded image in association with information including an age related to a subject shown in the image, and a program executed by the application execution unit.
  • the communication unit that sends and receives data and the distribution request including the age of the observer who is the subject of the test is acquired from the information processing terminal through the communication unit, and an image that matches the age of the observer included in the distribution request is obtained.
  • Early detection of mild dementia which functions as a content selection unit selected from the content storage unit and a content distribution unit that distributes the images selected by the content selection unit to the program executed by the application execution unit -Server control program for prevention.
  • the subject's long-term memory can be evoked, and the activation of the brain can be promoted.
  • the present invention is a system for early detection or prevention of mild dementia, and is made to correspond to the left and right eyes of the observer, respectively.
  • An application execution unit that executes a program for generating a left-eye image and a right-eye image, and a left-eye image and a right-eye image generated by the program executed by the application execution unit
  • Each of the display unit and the user interface for accepting a user operation, and the program is a three-dimensional structure configured by generating a convergence angle and a parallax between the left-eye video and the right-eye video.
  • a 3D image generation step for generating a 3D image area for displaying an image, and a position or direction in a virtual space constructed in the 3D image area.
  • a plurality of objects that change are displayed, and the plurality of objects are rotated at an arbitrary speed around an arbitrary center of gravity installed in the virtual space, and the color of the object is changed at an arbitrary timing and time length.
  • Cognitive power measurement that records the object motion step, the timing and time length when the color of the object changed, the time difference between the user operation on the user interface, and the accuracy of the user operation as a test result of spatial recognition ability and situation judgment And a step.
  • the colors of a plurality of objects that rotate in a complicated trajectory in a virtual space in a stereoscopic video area can be set at an arbitrary timing and time. Change the length and let the observer operate the user interface when the change is recognized. By measuring the time difference and accuracy from the time when the color of the object changes until the observer operates, it is possible to check the observer's ability to recognize space and situation. If this time difference or accuracy exceeds (below) a predetermined threshold, there is a possibility of cognitive impairment, and thus preventive measures can be taken.
  • the rotation radius or the center of gravity which is the rotation center
  • the recognition power measurement step the user operation and the object display are displayed. It is preferable to also measure the visual field range of the observer based on the relationship with the position.
  • the object's visual field range can be measured by displaying the object to the four corners of the screen of the tablet PC and observing the observer's reaction to it, and the cognitive impairment is estimated from the narrowness of the visual field range. be able to.
  • the program further includes a white turbidity measuring step of changing the color saturation of the object and measuring the color of the observer and the white turbidity based on a relationship between the saturation of the object and a user operation on the user interface. Is preferred.
  • the color of the observer and the cloudiness of the eyeball can be found by changing the saturation of the object, for example, by operating a slider and adjusting it so that the observer can easily see it.
  • An application execution unit that executes a program for generating video and a right-eye image, and a left-eye image and a right-eye image generated by the program executed by the application execution unit correspond to the left and right eyes, respectively.
  • the display unit displays a stereoscopic image that is configured to generate a convergence angle and a parallax between the left-eye video and the right-eye video.
  • a 3D image generation step for generating a 3D image area, and a plurality of types of positions or orientations in a virtual space constructed in the 3D image area.
  • Object depth change step that displays objects and displays multiple objects related to the same object among multiple types while simultaneously changing the depth in the virtual space, the number of objects displayed related to the same object, and user operations on the user interface
  • a homeostasis measurement step for recording the accuracy as a test result of the magnitude of homeostasis and large and small homeostasis.
  • a plurality of types of fruits such as apples and mandarin oranges are simultaneously changed while changing the depth in the virtual space in the stereoscopic image area.
  • the size of the same object in the virtual space is set to be equal, and only the depth at the time of display (depth in the virtual space) is changed.
  • by measuring the number of displays and the number of counts by the observer it is possible to check the observer's instantaneous vision and magnitude constancy. If the time to answer and the number of wrong answers seem to exceed (below) a predetermined threshold, there is a possibility of cognitive impairment, and thus preventive measures can be taken.
  • the program asks the display number of the object related to the same thing with a time difference after the homeostasis measurement step, receives the answer from the observer, the display number of the object related to the same thing,
  • the method further includes a memory measurement step of recording the accuracy of the user operation on the user interface as a memory test result.
  • the memory can be checked together with the instantaneous vision and the large and small constancy. If the number of wrong answers exceeds (below) a predetermined threshold, there is a possibility of cognitive impairment, and thus preventive measures can be taken.
  • Another invention is a system for early detection or prevention of mild dementia, which is a left eye image and a right eye respectively corresponding to the left and right eyes of an observer.
  • An application execution unit that executes a program for generating an eye image, and a left-eye image and a right-eye image generated by the program executed by the application execution unit in locations corresponding to the left and right eyes, respectively.
  • a stereoscopic image including a display unit to be displayed and a user interface for accepting a user operation, and the program displays a stereoscopic image configured by generating a convergence angle and a parallax between the left-eye image and the right-eye image.
  • a 3D image generation step for generating an area, and a plurality of types of objects whose positions or orientations change in a virtual space constructed in the 3D image area.
  • Object color change step that displays objects related to the same object among multiple types of objects by changing the brightness, saturation, color, or light source position, object display related to the same object, and user interface
  • a color constancy measuring step for recording the accuracy of the operation as a color constancy test result.
  • the brightness, saturation, color, or light source position of an object related to the same object is changed in the virtual space in the stereoscopic video area. And let the observer operate the user interface and answer the same color. Then, the color constancy of the observer can be checked by comparing the displayed color with the answer by the observer. If the time to answer and the number of wrong answers seem to exceed (below) a predetermined threshold, there is a possibility of cognitive impairment, and thus preventive measures can be taken.
  • FIG. 2 Brain activity test for visual cortex Another invention is a system for early detection or prevention of mild dementia for the left eye corresponding to the left and right eyes of the observer, respectively.
  • An application execution unit that executes a program for generating video and a right-eye image, and a left-eye image and a right-eye image generated by the program executed by the application execution unit correspond to the left and right eyes, respectively.
  • Left and right video generation step of generating left and right video areas for displaying different numbers of objects for the left-eye video and the right-eye video. The visibility of objects and the accuracy of user operations on the user interface.
  • a visual field struggle measurement step for recording as a test result of the brain activity status regarding the kakuno.
  • a tablet PC capable of 2D or 3D display
  • different numbers of objects are displayed in the left and right video areas for the left eye video and the right eye video.
  • the information processing terminal detects the observer's electroencephalogram and outputs an electroencephalogram signal corresponding to the electroencephalogram, and the electroencephalogram detection device acquires the electroencephalogram detection device.
  • An electroencephalogram signal recording section for recording an electroencephalogram signal, and the early detection / prevention program is recorded by the test result recorded by the stereoscopic program executed by the application execution section and the electroencephalogram signal recording section. It is preferable to execute a process that further includes an electroencephalogram correlation analysis step of analyzing the electroencephalogram signal in cooperation. In this case, by analyzing the strength and balance of various brain waves, it is possible to measure the tension, relaxation, and concentration of the observer, and to calculate the correlation with the accuracy of user operations. The accuracy of early detection and prevention can be improved.
  • the content management server further includes a content management server connectable to a communication network, and the content management server associates the uploaded image with information including the age related to the subject shown in the image.
  • a communication unit that transmits and receives data between a content storage unit that stores data and a program that is executed by an application execution unit, and a communication unit that sends a distribution request including the age of the observer to be tested.
  • the content selection unit that selects from the content storage unit an image that matches the age of the observer included in the distribution request, and distributes the image selected by the content selection unit to the program being executed by the application execution unit And a content distribution unit that performs the program, It is preferable to generate an object from the image distributed from the content distribution unit and execute the test.
  • the subject's long-term memory can be evoked, and the activation of the brain can be promoted.
  • the left brain and the right brain are stimulated and activated in a balanced manner by viewing with good balance between the left and right eyes, and the progression of cognitive decline is easily mitigated.
  • the progression of cognitive decline is easily mitigated.
  • FIG. 1 It is a block diagram which shows the whole structure of the mild dementia early detection and prevention system which concerns on embodiment.
  • (A) is a block diagram which shows the module regarding the early detection and prevention function of the mild dementia virtually constructed
  • (b) is a content management server's It is a block diagram which shows an internal structure. It is explanatory drawing which shows the screen structure of the check & training program 1 which concerns on embodiment. It is a flowchart figure which shows operation
  • FIG. 1 is a block diagram showing the overall configuration of a mild dementia early detection / prevention system according to this embodiment.
  • FIG. 2A is a block diagram showing modules related to the early detection / prevention function for mild dementia virtually constructed on the CPU of the information processing terminal according to the present embodiment, and
  • FIG. It is a block diagram which shows the internal structure of a server.
  • the “module” used in the description refers to a functional unit that is configured by hardware such as an apparatus or a device, software having the function, or a combination thereof, and achieves a predetermined operation. .
  • the mild dementia early detection / prevention system uses information processing terminal 1 to perform checks and training for early detection / prevention of mild dementia.
  • the content management server 3 By connecting to the content management server 3, necessary contents and information can be taken into the information processing terminal 1.
  • a content management server 3 and information processing terminals 1 (1a to 1c) used by users are arranged.
  • the communication network 2 connects various communication lines (public lines such as telephone lines, ISDN lines, ADSL lines, optical communication lines, private lines, 3G and 4G wireless communication networks) using the communication protocol TCP / IP.
  • this communication network 2 includes a VPN, an intranet (in-company network) such as 10BASE-T and 100BASE-TX, and a home network. LAN etc. are also included.
  • the communication network 2 can be connected via wired connection or WiFi communication.
  • an information processing terminal 1 capable of wireless communication with a WiFi router or a wireless LAN router as an access point is connected. It is possible to perform bidirectional communication between the content management server 3 and the information processing terminal 1.
  • the information processing terminal 1 includes a CPU 11 that performs arithmetic processing, a memory 12 that temporarily stores data, a communication I / F 13 that communicates with the outside via the communication network 2, and data And a storage device 14 for storing.
  • the CPU 11, the memory 12, the communication I / F 13, the storage device 14, the output interface 15, the input interface 16, and the like are connected via the CPU bus 1a, and exchange data with each other. Is possible.
  • the communication I / F 13 is a module that communicates with the content management server 3 via the communication network 2, and a known device can be used. By connecting a LAN cable or an external or internal telephone line to this communication I / F 13, it is possible to communicate by wire, and also connect a communication chip for Wi-Fi or 3G lines, a mobile phone, etc. By doing so, communication can be performed wirelessly.
  • the storage device 14 is a storage device that accumulates data in a recording medium and reads out the accumulated data in response to a request from each device.
  • the storage device 14 includes a hard disk drive (HDD), a solid state drive (SSD), a memory card, and the like. Or the like.
  • This storage device 14 includes an OS (Operating System), various programs for stereoscopic image content, early detection / prevention of mild dementia, and programs for various applications installed in the terminal according to the present embodiment. Personal information of the user, device identification information (ID) of the terminal, and the like are stored.
  • an output interface 15 and an input interface 16 are connected to the CPU bus 1a, and an input user operation signal is input from the input interface 16 to the CPU through the CPU bus 1a.
  • the data is output / displayed from each output device via the output interface 15 via the bus 1a.
  • a speaker 5a that outputs sound and a liquid crystal display of a touch panel 5b that outputs video are connected to the output interface 15, and a mouse 6a that inputs user operations such as pointing operation and text input is connected to the input interface 16.
  • a keyboard 6b, a touch panel 5b, a microphone 6c for inputting sound, a camera 6d for inputting video, and an electroencephalogram detection device 61 for detecting an electroencephalogram are connected.
  • a liquid crystal touch panel in which a liquid crystal display for displaying an image and a touch panel for inputting a touch operation are superimposed.
  • the output interface 15 causes the touch panel 5b to display a stereoscopic video, a GUI, and the like corresponding to various programs executed by the application execution unit 111.
  • the electroencephalogram detection device 61 is a headset type device that detects an observer's electroencephalogram and outputs an electroencephalogram signal corresponding to the electroencephalogram, and includes an electrode pad 61a for measuring the potential of the skin surface of the observer, and a tip portion 61b. And.
  • the electrode pad 61a is disposed so as to come into contact with the forehead of the observer when the headset is mounted on the observer's head.
  • the electrode pad 61a and the chip part 61b are connected by wiring.
  • the chip unit 61b processes an electroencephalogram signal output from the electrode pad 61a by an analog signal processing circuit, an AD (Analog-Digital) conversion circuit, a digital signal processing circuit, or the like, and an application execution unit on the CPU 11 through the input interface 16 111 is input.
  • an analog signal processing circuit an AD (Analog-Digital) conversion circuit, a digital signal processing circuit, or the like
  • AD Analog-Digital
  • the CPU 11 is an apparatus which performs various arithmetic processing required when controlling each part.
  • the CPU 11 executes the early detection / prevention application for mild dementia according to the present invention in accordance with the contents input from the input interface 16 based on the application program and setting information stored in the memory 12.
  • the mild dementia early detection / prevention system of the present invention is virtually constructed as a functional module.
  • the CPU 11 is not only a CPU but also a processor such as a DSP (Digital Signal Processor), a memory, and other hardware such as an electronic circuit, software such as a program having the function, or a combination thereof. It is a configured arithmetic module, and various functional modules are virtually constructed by appropriately reading and executing programs, and each constructed functional module is used for processing related to image data, operation control of each unit, and user operation. This module performs various processes.
  • DSP Digital Signal Processor
  • an application execution unit 111, a model information acquisition unit 112, and a voice recognition unit 113 are constructed in the CPU 11.
  • the model information acquisition unit 17 is a module that inputs information related to the type of the information processing terminal 1 to the application execution unit 111.
  • the model information acquisition unit 112 is a module that accepts input of information related to the type of the information processing terminal 1 or reads and acquires information related to the type from the memory or the like of the information processing terminal 1. Before displaying the video, the size, position and aspect ratio of the video displayed on the touch panel 5b are changed based on the information regarding the type input from the model information acquisition unit 112, and the reference mark indicating the reference position of the video Change the position of.
  • the speech recognition unit 113 is a module that recognizes speech and inputs the recognition result to the application execution unit.
  • the speech recognition unit 113 acquires speech data from the microphone 6c provided in the terminal and analyzes it by speech recognition processing. The acoustic features are extracted from the voice data and analyzed.
  • the observer's operation is accepted by the touch panel 5b.
  • the mouse 6a is used by a cable, near field communication, or the like.
  • an operation device such as a keyboard 6b may be connected and an observer's operation may be received based on the operation device.
  • the application execution unit 111 is a module that executes applications such as a general OS, browser software, and a media viewing application, and is usually realized by a CPU or the like. Specifically, the application execution unit 111 according to the present embodiment virtually constructs various function modules on the CPU by executing various applications. In this embodiment, the application execution unit 111, the brain wave detection device control unit 111a, the synchronization processing unit 111b, the stereoscopic test execution unit 111c, the brain wave signal recording unit 111d, the test result recording unit 111e, and the analysis unit 111f Is constructed on the CPU 11.
  • the electroencephalogram detection device control unit 111a is a module for controlling the operation of the electroencephalogram detection device 61 from the information processing terminal 1 side, and is synchronized with the stereoscopic test execution unit 111c through the synchronization processing unit 111b.
  • the brain wave detection device 61 can be operated in cooperation with the execution of the visual test.
  • the synchronization processing unit 111b is a module that operates the brain wave detection device control unit 111a and the stereoscopic vision test execution unit 111c in cooperation with each other, and the brain wave signal recorded by the brain wave detection device control unit 111a by the synchronization processing unit 111b, Various test results recorded by the stereoscopic test execution unit 111c can be associated with each other, whereby the analysis unit 111f can analyze the correlation between the recorded brain wave signal and the various test results.
  • the stereoscopic test execution unit 111c is a module that executes various programs related to early detection and prevention of mild dementia, displays stereoscopic video content and GUI on the touch panel 5b, and performs arithmetic processing such as visual acuity measurement.
  • the electroencephalogram signal recording unit 111d is a module that records various electroencephalogram signals acquired from the electroencephalogram detection device 61 in the storage device 14 in time series.
  • the synchronization processing unit 111b adjusts the timing and intensity of the stimulus by the stereoscopic vision program executed by the stereoscopic vision test execution unit 111c in real time according to the detected value of the electroencephalogram signal, thereby stimulating the cognitive function by stereoscopic vision. May be performed more effectively.
  • the recorded brain waves include delta waves (4 Hz to 0.5 Hz), theta waves (8 Hz to 4 Hz), alpha waves (14 Hz to 8 Hz), beta waves (38 Hz to 14 Hz), and gamma waves (26 Hz to 70 Hz).
  • Delta waves are detected when healing, sleeping, deep sleep, or unconscious, and theta waves are associated with meditation, intuition, and memory, and are detected when the brain waves are suitable for memory and learning. Is done.
  • Alpha waves are detected when relaxation, visualization, creativity, relax, mental activity is active, and the level of consciousness is increasing, and can detect situations where problem solving and concentration can be exerted.
  • Beta waves are detected when you are in tension, such as when you are alert, focused, cognitive, intelligently try to solve a problem or pay attention.
  • Gamma waves are related to foresight, clarity, view, etc., and are detected when concentration is increased.
  • test result recording unit 111e is a module that records various test results output by the stereoscopic test execution unit 111c in the storage device 14.
  • the data recorded by the electroencephalogram signal recording unit 111d and the test result recording unit 111e are linked by the synchronization processing unit 111b, and the history of user operations during the test included in the test result, the change in accuracy, the electroencephalogram signal, Can be recorded.
  • the analysis unit 111f is a module that links and analyzes the test result recorded by the stereoscopic program executed by the stereoscopic test execution unit 111c of the application execution unit 111 and the electroencephalogram signal recorded by the electroencephalogram signal recording unit 111d. It is.
  • the analysis unit 111f executes a stereoscopic program such as the above-described check and training programs 1 to 5 to record the accuracy of the user operation in each test as a test result, and executes these programs 1 to 5 Record the detected values of various brain waves in the time series, analyze the average value, maximum value / minimum value, start value / end value, temporal change, distribution etc. in each test, and each test result by each stereoscopic program And the detected value of the electroencephalogram signal are associated with each other, and display information is generated as a figure such as a list, graph, or radar chart indicating the correlation.
  • a stereoscopic program such as the above-described check and training programs 1 to 5 to record the accuracy of the user operation in each test as a test result, and executes these programs 1 to 5 Record the detected values of various brain waves in the time series, analyze the average value, maximum value / minimum value, start value / end value, temporal change, distribution etc. in each test, and each test result by each stereoscopic program And the
  • test result and the detected value of the electroencephalogram signal can be displayed in a comparable manner, and a disorder such as dementia can be found with higher accuracy.
  • display information including graphics such as graphs and radar charts as shown in FIG. Is output.
  • a convergence angle and a parallax are generated as an image between the left eye image and the right eye image corresponding to the left and right eyes of the observer.
  • the generated stereoscopic video is displayed on the screen, and the convergence angle and the parallax of the stereoscopic video are changed to guide the observer's eyes toward and away from the observer.
  • the convergence angle and the parallax of the stereoscopic video are changed to guide the observer's eyes toward and away from the observer.
  • the application execution unit 111 when displaying the image for the right eye and the image for the left eye on the touch panel 5b, the application execution unit 111 reduces the image so that the aspect ratio of the image is maintained and displays the image on the touch panel 5b. At this time, the right-eye image and the left-eye image can be reduced according to the model of the information processing terminal. That is, the application execution unit 111 changes the size, position, and aspect ratio of the video displayed on the touch panel 5b based on the information regarding the type input from the model information acquisition unit 112 before displaying the stereoscopic video. The position of the reference mark indicating the reference position of the video is changed.
  • a position adjustment program is recorded in the storage device 14, and when the application execution unit 111 executes the position adjustment program, a stereoscopic image can be displayed at an appropriate position according to the model of the information processing terminal 1. it can.
  • the storage device 14 also stores a program for expanding and reducing the display range of the stereoscopic video.
  • the application execution unit 111 responds to an operation from the input interface 16. The stereoscopic image is enlarged or reduced to change the display range.
  • the content management server 3 is a content server device that collects and distributes content, performs authentication processing and customer management of observers who are registered users, and various programs and video content for early detection and prevention of mild dementia Manage.
  • the content management server 3 is a server computer that transmits information such as an HTML (Hyper Text Markup Language) file, an image file, or a music file in a document system such as the WWW (World Wide Web) or software having the function.
  • contents such as images are stored, and these pieces of information are transmitted through an IP network such as the Internet in response to a request from client software.
  • the content management server 3 includes a communication unit 31 for connecting to the communication network 2, an authentication unit 32 for authenticating user access, a content distribution unit 35 for transmitting content data, and input / output to the database.
  • a content management unit 37 to be managed and a control unit 36 to eliminate the operation of each module are provided.
  • a user database 33 and a content database 34 are connected to the content management server 3.
  • the communication unit 31 is a communication device that transmits content data by transmitting and receiving packet data, and has a function of transmitting and receiving data to and from a program executed on the information processing terminal 1.
  • the content distribution unit 35 is a module that transmits the corresponding content data read by the content management unit 37 to the information processing terminal 1 of the user authenticated by the authentication unit 32 through the communication unit 31.
  • the authentication unit 32 is a module that determines access permission for a user, and performs authentication by checking authentication information stored in the user database 33.
  • the user database 33 in addition to the name, phone number, credit card information associated with the customer ID, information on the check and training results of early detection / prevention programs for mild dementia, history information on the content used, etc. Is also included.
  • the content database 34 is an information data storage device that can be accessed from the communication network 2, and is composed of, for example, a large-capacity hard disk.
  • the information stored in the content database 84 includes, in addition to the content data itself, a data ID for identifying each content data, the type of the content data (music, audio, video, character string, etc.), file format, Index data in which attributes (genre, age, etc.) of content data are associated is included.
  • the content database 84 reads and writes content data according to the control of the content management unit 37.
  • content data is called by an identifier (address or file name in the database) for identifying content data, content data type, file format or attribute, and other information on index data
  • identifier address or file name in the database
  • the content data is specified by the above and the content data is called.
  • the content management unit 37 has a function of accepting data upload through the communication network 2 and storing and managing the uploaded data as content. Specifically, the content management unit 37 stores the uploaded image in the content database 34 in association with information including the age related to the subject shown in the image. And the content management part 37 acquires the delivery request
  • the content distribution unit 35 is a module that distributes the image selected by the content management unit 37 to the information processing terminal 1, and distributes content data to the user terminal through the communication path established by the communication unit 31. At this time, the content distribution unit 35 is a module that packetizes the content data or decrypts the packet data into the content data.
  • FIG. 15 is a diagram schematically showing each component of the parallax barrier according to the present embodiment and a stereoscopic video display apparatus including the parallax barrier.
  • this stereoscopic video display device is incorporated in the touch panel 5b.
  • this stereoscopic image display device is an example of means for displaying stereoscopic images, and the present invention is not limited to this.
  • Various stereoscopic video display devices can also be used.
  • the stereoscopic image display apparatus is a left-side image (L) and a right-side image (R) heading in the vertical direction respectively corresponding to the left and right eyes by the parallax barrier method.
  • L left-side image
  • R right-side image
  • a bar-shaped barrier film directed to the vertical direction called a barrier 20 provided at the front end of the display module 10.
  • the display module 10 and the light that correspond to the left image (L) are incident only on the left eye, and the light that corresponds to the right image (R) is incident only on the right eye.
  • L, R left and right images
  • the parallax barrier 20 includes a lower layer 30, a liquid crystal layer 40a, a control unit 40b, an upper layer 60b, and a polarization unit 60a as shown in FIG.
  • the liquid crystal layer 40a includes pixels arranged in a matrix form of a cell structure so as to form a horizontal or vertical barrier according to the control method, and the control unit 40b controls each pixel of the liquid crystal layer 40a according to the control method.
  • Each pixel of the liquid crystal layer 40a is controlled to selectively turn on or off to form a horizontal or vertical barrier pattern, and the cell structure and specific control method of each pixel included in the liquid crystal layer 40a are as follows: This will be described in detail below.
  • the lower layer 30 is formed between the liquid crystal layer and the display module in order to dispose the liquid crystal layer and the control unit at a predetermined distance from the display module.
  • the upper layer 60b is formed on the upper end of the liquid crystal layer in order to arrange the liquid crystal layer and the control unit.
  • the polarization unit 60a controls the polarization angle of light emitted from the display module and passed through the lower layer, the liquid crystal layer, and the upper layer, and visualizes the barrier by the barrier pattern formed by the liquid crystal layer.
  • the parallax barrier according to the present embodiment has the polarization unit 60a only at the upper end of the upper layer 60b. Therefore, it is possible to reduce the decrease in the brightness of the light that occurs when the light passes through the polarizing unit 60a.
  • the parallax barrier 20 and the stereoscopic image display apparatus including the parallax barrier 20 according to the present embodiment form a barrier pattern using a liquid crystal panel such as TN-LCD or STN-LCD, thereby turning off the barrier in the 2D mode.
  • 2D video can be viewed
  • 3D mode stereoscopic images can be viewed with the barrier turned on.
  • the barrier and the stereoscopic image display apparatus including the barrier according to the present embodiment enable 2D / 3D mode switching and horizontal / vertical switching.
  • FIG. 16 is an exemplary view showing a barrier pattern structure of a cell unit of the liquid crystal layer 40a according to the present embodiment.
  • barriers in units of cells having different standards are alternately arranged depending on the horizontal direction (XX ′) and the vertical direction (YY ′) to form a pattern structure of the cell unit.
  • XX ′ horizontal direction
  • YY ′ vertical direction
  • FIG. 16 when each pixel forming a horizontal barrier is referred to as a first horizontal cell column, a second horizontal cell column, a third horizontal cell column,...
  • a first pixel having horizontal ⁇ vertical a ⁇ c and a second pixel having horizontal ⁇ vertical b ⁇ c are sequentially arranged, and a third pixel having horizontal ⁇ vertical a ⁇ d in the second horizontal cell column.
  • the fourth pixels whose horizontal ⁇ vertical are b ⁇ d are sequentially arranged.
  • the values of a, b, c, and d are standard values calculated according to the standard of the display module, and are determined so that the thickness and interval of the barrier can be accurately displayed.
  • the third horizontal cell column is arranged with the same structure as the first horizontal cell column, and the fourth horizontal cell column is arranged with the same structure as the second horizontal cell column. That is, in the barrier substrate according to the present embodiment, two horizontal cell columns having different structures are alternately arranged in the vertical direction.
  • FIG. 20 is a flowchart showing the operation of the early detection / prevention system according to this embodiment.
  • the electroencephalogram detection device control unit 111a controls the operation of the electroencephalogram detection device 61 from the information processing terminal 1 side (S803), and synchronizes with the stereoscopic test execution unit 111c through the synchronization processing unit 111b, which will be described later.
  • the brain wave signal from the brain wave detection device 61 is recorded in cooperation with the execution of various stereoscopic vision tests (S805) (S804).
  • the stereoscopic vision test execution unit 111c executes various programs related to early detection and prevention of mild dementia, displays stereoscopic video content and GUI on the touch panel 5b, and performs arithmetic processing such as visual acuity measurement.
  • the electroencephalogram signal recording unit 111d records various electroencephalogram signals acquired from the electroencephalogram detection device 61 in the storage device 14 in time series.
  • the test result recording unit 111e records various test results output from the stereoscopic test execution unit 111c in the storage device 14 (S806).
  • the data recorded by the electroencephalogram signal recording unit 111d and the test result recording unit 111e are linked by the synchronization processing unit 111b, and the history of user operations during the test included in the test result, the change in accuracy, the electroencephalogram signal, Is to record the relationship.
  • the timing and intensity of stimulation by the stereoscopic vision program executed by the stereoscopic vision test execution unit 111c are adjusted in real time according to the detected value of the electroencephalogram signal in the synchronization processing unit 111b. Also good.
  • the recorded electroencephalogram signal is associated with various test results recorded by the stereoscopic test execution unit 111c.
  • the analyzing unit 111f analyzes the correlation between the recorded electroencephalogram signal and various test results (S809). More specifically, the analysis unit 111f links the test result recorded by the stereoscopic program executed by the stereoscopic test execution unit 111c of the application execution unit 111 with the electroencephalogram signal recorded by the electroencephalogram signal recording unit 111d. And analyze.
  • a stereoscopic program such as a check and training program 1 to 5 described later is executed, and the accuracy of the user operation in each test is recorded as a test result, and during the execution of these programs 1 to 5 Record the detected values of various brain waves in time series, analyze the average value, maximum value / minimum value, start value / end value, temporal change, distribution, etc. in each test, and test results and brain waves from each stereoscopic program Display information is generated as a figure such as a list, a graph, or a radar chart indicating correlation by associating with the detected value of the signal (S810).
  • test results and the electroencephalogram analysis results analyzed and calculated by the analysis unit 111f include display information including graphics such as graphs and radar charts as shown in FIG. Is output from.
  • display information including graphics such as graphs and radar charts as shown in FIG. Is output from.
  • FIG. 3 is an explanatory diagram showing the screen configuration of the check & training program 1
  • FIG. 4 is a flowchart showing the operation of this program.
  • a pendulum is used to measure the accuracy of the coordination and judgment of the left and right eyes, and check the accuracy of the frontal lobe activity and the correct judgment and action time of the eye movement.
  • the function of the frontal lobe is reduced because the number of neurons decreases in the frontal lobe, hippocampus and the surrounding area of the brain, especially when a test that works the frontal lobe is performed .
  • a stereoscopic video area A1 for displaying a stereoscopic video configured by generating a convergence angle and a parallax between the left-eye video and the right-eye video is generated and constructed in the stereoscopic video area A1.
  • the pendulum object Ob1 that swings in the virtual space is displayed.
  • a determination button G1 which is a user interface, is displayed below the stereoscopic video area A2. This pendulum object Ob1 swings between reciprocating points P12 and P13 about an arbitrary center point P11 installed in the virtual space.
  • the user presses the determination button G1 when the object Ob1 reaches the round trip points P12 and P13 (either one or both).
  • the time difference between the timing at which the object Ob1 actually reaches the round trip point P12 or P13 and the user operation on the determination button G1 and the accuracy of the user operation are recorded as test results.
  • the program for performing the check and training described above operates as follows. First, when the program is started, in step S101, an operation condition is set, and an object that executes an operation in accordance with the set condition is generated.
  • the operation settings in this embodiment are as follows.
  • -The pendulum amplitude X can be changed by default by 45 degrees, by 90 degrees at the back and front, and by an angle value of ⁇ 5 degrees.
  • -The pendulum cycle is set to ⁇ 0.5 seconds with a default of 2.5 seconds.
  • -The diameter, color, length of thread (oscillating radius of pendulum), and background color (image replacement side-by-side still image) can also be set.
  • The default number of measurements is 3, and any number can be set.
  • Make time log from start to finish.
  • -Judgment can be set in 5 stages of A, B, C, D, E.
  • the swing width (front and back) is set to 60 degrees by default, and can be changed by inputting ⁇ angles.
  • Camera setting is a cross method with a vertical 0 point, and camera interval can be entered ⁇ .
  • step S102 the operation of the object is started in step S102.
  • This operation can be started automatically after the setting of the operation conditions is completed or after waiting for a start instruction by a user operation.
  • step S103 a user operation (or timeout) is awaited by a loop process (“N” in S103). During this time, measurement of the elapsed time from the timing when the object has changed is started. When the object changes without any user operation, the elapsed time is reset each time and the fact that the user has not responded is stored as a no-response history.
  • step S103 when a user operation is performed, or when a certain time elapses and a time-out occurs (“Y” in S103), the process exits the loop process and proceeds to step S104.
  • step S104 the response time of the user and the accuracy of the operation are recorded. If there is no response history during the loop processing in step S103, the object operation, no response time and the number of resets at that time are recorded.
  • step S105 it is determined whether all object movements have been completed. If there is a next movement (“N” in S105), the process proceeds to the next movement and the above steps S101 to S104 are repeated, and all the movements have been completed. If so ("N” in S103), the process proceeds to step S106. In step S106, the measurement results are totaled, the right and left eye cooperation and the accuracy of determination are diagnosed, and the results are output.
  • the swinging pendulum object Ob1 is displayed in the virtual space in the stereoscopic image area, and the round trip point P12 or P13 is recognized.
  • the observer operates the determination button G1.
  • the timing when the object Ob1 actually reaches the round trip point P12 or P13 and the time difference between the user operation with respect to the determination button G1 and the accuracy of the user operation test the cooperation between the left and right eyes and the accuracy of the determination. Can do. If this time difference or accuracy exceeds (below) a predetermined threshold, there is a possibility of cognitive impairment, and thus preventive measures can be taken.
  • FIG. 5 is an explanatory diagram showing the screen configuration of the check & training program 2
  • FIG. 6 is a flowchart showing the operation of this program.
  • This check & training program 2 diagnoses the spatial recognition ability and situation judgment ability, and also checks the cloudiness of the observer and adjusts the spatial recognition ability and situation judgment ability by adjusting the visual field range and color of the observer. And check the action time.
  • a stereoscopic video area A2 for displaying a stereoscopic video configured by generating a convergence angle and parallax between the left-eye video and the right-eye video is generated and constructed in the stereoscopic video area A2.
  • a plurality of objects Ob21 and Ob22 whose positions or orientations in the virtual space change are displayed.
  • a determination button G22 or G23 which is a user interface, is displayed at the bottom of the stereoscopic video area A2.
  • the determination buttons G22 and G23 display a color that the object Ob21 or Ob22 will change.
  • a slider G21 that is slid left and right is disposed, and by operating this slider G21, the saturation of the objects Ob21 and Ob22 and the determination buttons G22 and G23 changes. It has become.
  • the user presses the determination button G22 or G23 when the color of the object Ob21 or Ob22 changes.
  • the timing difference and time length when the colors of the objects Ob21 and Ob22 change, the time difference between the user operation on the determination button G22 or G23, and the accuracy of the user operation are recorded as the test results of the space recognition ability and the situation judgment ability.
  • an area where the observer's reaction is slow is calculated, and the visual field range of the observer is also measured.
  • the amount of adjustment of the saturation of the object or the user interface changed according to the amount of movement of the slider is measured, and the color and cloudiness of the observer are checked.
  • the program for performing the check and training described above operates as follows. First, when the program is started, in step S201, an operation condition is set, and an object that executes an operation according to the set condition is generated.
  • the operation settings in this embodiment are as follows. -The color of the two spheres can be changed freely. ⁇ It is possible to make yellow lighter or darker using a slide bar. ⁇ White and yellow balls rotate around the center of each other. ⁇ Displays at the four corners of the screen by adjusting the angle of the Z axis. ⁇ Rotation speed can be adjusted. -The red display time can be adjusted. ⁇ The judgment time can be adjusted. ⁇ The number of questions is possible. -The judgment target is the total number of correct answers, the number of correct answers by color, the number of correct answers by area, and the response time from the display. -As a result display, the overall evaluation has five stages, and as individual evaluation, the total number of correct answers, the number of correct answers by color, the number of correct times by area, and the response time from the display.
  • step S202 the operation of the object is started in step S202.
  • This operation can be started automatically after the setting of the operation conditions is completed or after waiting for a start instruction by a user operation.
  • step S203 a user operation (or timeout) is awaited by a loop process (“N” in S203). During this time, measurement of the elapsed time from the timing when the object has changed is started. When the object changes without any user operation, the elapsed time is reset each time and the fact that the user has not responded is stored as a no-response history.
  • step S203 when a user operation is performed, or when a certain time has elapsed and a timeout has been reached (“Y” in S203), the process exits the loop process and proceeds to step S204.
  • step S204 the user response time and the accuracy of the operation are recorded. If there is no response history during the loop processing in step S203, the object motion, no response time and the number of resets at that time are recorded.
  • step S205 it is determined whether all object operations have been completed. If there is a next operation (“N” in S205), the operation proceeds to the next operation and steps S201 to S204 are repeated, and all operations have been completed. If so ("N” in S203), the process proceeds to step S206. In step S206, the measurement results are totaled, the accuracy of the space recognition ability and the situation judgment ability is diagnosed, and the results are output.
  • this program can measure the color of the observer and the cloudiness of the eyeball together with the check of the space recognition ability.
  • This color / white turbidity check can be sequentially performed at any timing of the user, such as before or during the test in steps S201 to S205.
  • an event process occurs by operating the slider G21 displayed in the stereoscopic video area A2, and the processes of steps S207 to S212 are executed.
  • the check & training program 2 is first stopped (S207), the position of the slider operated by the user is acquired, and the saturation of the object is changed according to the amount of movement of the slider. (S209). According to the amount of adjustment of the saturation of the object by this user operation, it is possible to diagnose the color or cloudiness of the eyeball of the observer, and the diagnosis result is recorded (S210).
  • step S211 When the user continues to operate the slider G21 ("N" in step S211), the above steps S208 to S210 are repeatedly executed each time the user operates the slider G21, and the diagnosis result for each color and cloudiness is updated.
  • the check & training program 2 is restarted (S212).
  • the colors of the objects Ob21 and Ob22 rotating in a complicated trajectory are changed at an arbitrary timing and time length, and when the change is recognized, the determination button G22 or G23 is displayed to the observer.
  • the time difference and accuracy By measuring the time difference and accuracy from the time when the color of the object changes until the observer operates, it is possible to check the observer's ability to recognize space and situation. If this time difference or accuracy exceeds (below) a predetermined threshold, there is a possibility of cognitive impairment, and thus preventive measures can be taken.
  • the viewer's visual field range can be measured, and cognitive impairment is estimated from the narrowness of the visual field range. be able to.
  • FIG. 7 is an explanatory diagram showing the screen configuration of the check & training program 3
  • FIG. 8 is a flowchart showing the operation of this program.
  • This check & training program 3 diagnoses the activity of the brain in the visual cortex due to visual field struggle. Specifically, through a stereoscopic examination, the eye position (line of sight) is correctly corrected by the eye muscle (motor nerve) and the brain function (sensory nerve) by itself, so that it does not look double
  • add different figures and parallax to check the activity of the brain in the visual cortex due to binocular rivalry.
  • left and right video areas A3 for displaying different numbers of objects Ob31 and Ob32 in the left-eye video A31 and the right-eye video A32 are generated.
  • a convergence angle and a parallax are generated between the left-eye video and the right-eye video, and the depth (the coordinates in the depth direction) is changed while the objects Ob31 and Ob32 are displayed.
  • a process of changing the depth by 3D display is performed.
  • a different number of objects on the left and right may be simply displayed by 2D display.
  • the objects Ob31 and Ob32 are selected by a user interface such as a screen touch. Then, the degree of coincidence or divergence between the coordinates where the objects Ob31 and Ob32 are displayed and the coordinates of the touch operation is recorded as a test result of the activity state of the visual cortex due to visual field conflict.
  • the program for performing the check and training described above operates as follows. First, when the program is activated, in step S301, an operation condition is set, and an object that executes an operation in accordance with the set condition is generated.
  • the operation settings in this embodiment are as follows. In the 2D mode, a normal stereo test is performed. In the 3D mode, the depth is set to the back, the screen, and the front.
  • This check program adds depth to the normal stereoscopic test and checks the relationship between cognitive ability and left and right brain vision. Marks to be displayed can be selected from figures, numbers, English letters, Kanji / Hiragana / Katakana, animals / plants / fish, food / vegetables / fruits, vehicles, and the like.
  • step S302 the operation of the object is started in step S302.
  • This operation can be started automatically after the setting of the operation conditions is completed or after waiting for a start instruction by a user operation.
  • step S303 a user operation (or timeout) is awaited by a loop process (“N” in S303). During this time, measurement of the elapsed time from the timing when the object has changed is started. When the object changes without any user operation, the elapsed time is reset each time and the fact that the user has not responded is stored as a no-response history.
  • step S303 when a user operation is performed, or when a certain time elapses and a time-out occurs (“Y” in S303), the process goes out of the loop process and proceeds to step S304.
  • step S304 the response time of the user and the accuracy of the operation are recorded. If there is no response history during the loop processing in step S303, the object motion, no response time and the number of resets at that time are recorded.
  • step S305 it is determined whether all object operations have been completed. If there is a next operation ("N" in S305), the operation proceeds to the next operation and steps S301 to S304 are repeated, and all operations have been completed. If so ("N" in S303), the process proceeds to step S306. In step S306, the measurement results are tabulated, the brain activity state of the visual cortex due to visual field struggle is diagnosed, and the results are output.
  • the left and right video areas are displayed with different numbers of objects for the left eye video and the right eye video to test the activity of the brain in the visual cortex due to visual field conflict. Can do.
  • FIG. 9 is an explanatory diagram showing the screen configuration of the check & training program 4
  • FIG. 10 is a flowchart showing the operation of this program.
  • This Check & Training Program 4 diagnoses instantaneous vision and large and small homeostatic memory. Specifically, because of disparity information, in addition to general instantaneous vision, large and small homeostasis check is performed, and the activity status of the cerebrum and visual cortex is checked, and the memory ability of the brain using instantaneous vision is also checked. .
  • a stereoscopic video area A4 for displaying a stereoscopic video configured by generating a convergence angle and a parallax between the left-eye video and the right-eye video is generated and constructed in the stereoscopic video area A4.
  • a plurality of types of objects Ob41 and Ob42 whose positions or orientations in the virtual space change are displayed.
  • number count buttons G41 and G42 which are user interfaces are displayed.
  • the number count buttons G41 and G42 list the number of objects Ob41 or Ob42 scheduled to appear.
  • the display number of objects related to the same object such as apple for apple and tomato for tomato
  • the accuracy of user operation with respect to the count buttons G41 and G42 are recorded as a test result of instantaneous vision and large and small constancy.
  • a memory test is performed with a time lag, asking questions about the number of objects displayed on the same object, and receiving answers from the observer. Then, the question about the number of objects related to the same object, such as apple for apple and tomato for tomato, and the accuracy of the answer by the user are recorded as a memory test result.
  • the program for performing the check and training described above operates as follows. First, when the program is activated, in step S401, an operation condition is set and an object that executes an operation in accordance with the set condition is generated.
  • the operation settings in this embodiment are as follows.
  • the memory ability test is performed by answering a question different from the space recognition ability by setting the depth for general instantaneous vision.
  • a homeostasis test is also performed to determine the size.
  • Set the number of displays to 1 to 10 so that the larger the number, the more difficult it becomes.
  • the number of displayed items should be 1-5, and the larger the number, the more difficult it will be set.
  • the number of colors should be between 1 and 5, and the larger the number, the more difficult it will be.
  • -Depth setting is possible in the back, center, near side, standard 3-5 levels, and numerical input is possible.
  • the display range is 5 levels from the center.
  • the number of questions is 1-10 and can be set.
  • There are five levels of difficulty: “very easy”, “easy”, “normal”, “difficult”, and “very difficult”.
  • the display time is 5 levels: “Very easy”, “Easy”, “Normal”, “Difficult”, and “Very difficult”.
  • Evaluation targets are the number of positive times, the judgment time, and the time to answer the question.
  • the memory of the final question is evaluated based on what was remembered after another test, the number of items displayed, and the number of correct answers.
  • -Marks to be displayed can be selected from figures, numbers, English letters, kanji, hiragana, katakana, animals, plants, fish food, vegetables, fruits, vehicles, etc.
  • step S402 the operation of the object is started.
  • This operation can be started automatically after the setting of the operation conditions is completed or after waiting for a start instruction by a user operation.
  • step S403 a user operation (or timeout) is awaited by a loop process (“N” in S403). During this time, measurement of the elapsed time from the timing when the object has changed is started. When the object changes without any user operation, the elapsed time is reset each time and the fact that the user has not responded is stored as a no-response history.
  • step S403 when a user operation is performed, or when a certain time elapses and a time-out occurs (“Y” in S403), the process exits the loop process and proceeds to step S404.
  • step S404 the response time of the user and the accuracy of the operation are recorded. If there is no response history during the loop processing in step S403, the object motion, no response time and the number of resets at that time are recorded.
  • step S405 it is determined whether all object operations have been completed. If there is a next operation ("N" in S405), the operation proceeds to the next operation and steps S401 to S404 are repeated, and all operations have been completed. If so ("N" in S403), the process proceeds to step S406. In step S406, the measurement results are totaled, the instantaneous vision and the magnitude constancy are diagnosed, and the results are output.
  • a memory test is given (S407).
  • the test such as instant vision
  • the number of objects displayed in an instant view is inquired, and the response time and accuracy are determined.
  • a user operation or timeout
  • N a loop process
  • measurement of the elapsed time from the question is started.
  • the elapsed time is reset each time and the fact that the user has not responded is stored as a no-response history.
  • step S408 when a user operation is performed, or when a certain time elapses and a timeout occurs (“Y” in S408), the process exits the loop process and proceeds to step S409.
  • step S409 the response time of the user and the accuracy of the operation are recorded. If there is no response history during the loop processing in step S408, the object operation, no response time and the number of resets at that time are recorded. Thereafter, in step S410, the measurement results are totaled, the memory ability is diagnosed, and the results are output.
  • the observer's tension, relaxation, and concentration are measured, and the accuracy of the user operation is The correlation can be known, and the accuracy of early detection and prevention of mild dementia can be improved.
  • FIGS. 11A to 11D are explanatory diagrams showing the screen configuration of the check & training program 5
  • FIG. 12 is a flowchart showing the operation of this program.
  • color filters are used to adjust the brightness, darkness, blue, green, red, yellow, cyan, magenta, light position, etc.
  • a stereoscopic video area A5 for generating a stereoscopic video configured by generating a convergence angle and parallax between the left-eye video and the right-eye video is generated.
  • a plurality of types of objects Ob51 and Ob52 whose positions or orientations in the virtual space constructed in the stereoscopic video area A5 change are displayed.
  • the objects related to the same object are displayed by changing the brightness, saturation, color, or light source position.
  • the objects Ob51 and Ob52 are selected by a user interface such as a screen touch. And the display of the object regarding the same thing and the accuracy of a screen touch are recorded as a test result of a color constancy.
  • the program for performing the check and training described above operates as follows. First, when the program is activated, in step S501, an operation condition is set, and an object that executes an operation in accordance with the set condition is generated.
  • the operation setting according to this embodiment is ⁇ There is no limit on the display time until an answer is given. However, the response time is recorded from when it is displayed until the response. When the answer changes from the first answer, the time and correct / incorrect answer are memorized.
  • the activity state of the visual cortex V4 of the cerebrum is checked based on whether or not the color of the displayed object is recognized. ⁇ Pictures, videos, animals / plants / fish, food / vegetables / fruits, vehicles, buildings, sightseeing spots, etc. can be selected as displayed pictures and videos.
  • step S502 the operation of the object is started in step S502.
  • This operation can be started automatically after the setting of the operation conditions is completed or after waiting for a start instruction by a user operation.
  • step S503 a user operation is waited for by loop processing (“N” in S503). During this time, measurement of the elapsed time from the timing when the object has changed is started. When the object changes without any user operation, the elapsed time is reset each time and the fact that the user has not responded is stored as a no-response history.
  • step S503 when there is a user operation (“Y” in S503), the process goes out of the loop process and proceeds to step S504.
  • step S504 the response time of the user and the accuracy of the operation are recorded. If there is no response history during the loop processing in step S503, the object motion, no response time and the number of resets at that time are recorded.
  • step S505 it is determined whether all object operations have been completed. If there is a next operation (“N” in S505), the operation proceeds to the next operation and steps S501 to S504 are repeated, and all operations have been completed. If so ("N” in S503), the process proceeds to step S506. In step S506, the measurement results are totaled, the color constancy is diagnosed, and the results are output.
  • objects related to the same object are displayed in the virtual space while changing the brightness, saturation, color, or light source position, and the observer is made to answer the color of the same object. Then, the color constancy of the observer can be checked by comparing the displayed color with the answer by the observer. If the time to answer and the number of wrong answers seem to exceed (below) a predetermined threshold, there is a possibility of cognitive impairment, and thus preventive measures can be taken.
  • 11A is arranged as an object is used, and a color filter is used for one image, and light, dark, blue, green, red, yellow, cyan, magenta,
  • An image in which the position of light is adjusted is used, but for example, an image in which the front-rear relationship of objects having different colors and shapes as shown in FIGS. 11B to 11D can be used.
  • the color, size, arrangement, etc. of the object can be changed according to the difficulty level. Examples of low difficulty levels include red, blue, and yellow as shown in FIG.
  • objects of different colors are used, and objects of similar colors are used as shown in FIGS.
  • the brain processes the distance, shape and length context from the visual information of both eyes by deep vision, training of color and space perception can be performed by the above program.
  • it is possible to train the perceptual information processing ability to recognize color constancy from the change in color with depth by making the determination of similar colors with high difficulty.
  • FIG. 13 is an explanatory diagram showing the screen configuration of the check & training program 5
  • FIG. 14 is a flowchart showing the operation of this program.
  • This video training program is a special program that prevents presbyopia and activates the brain just by looking at it.
  • the image uploaded to the content management server 3 is stored in association with information including the age related to the subject shown in the image, and is stored between the program executed by the information processing terminal 1. Send and receive data.
  • a distribution request including the age of the observer to be tested is acquired from the information processing terminal 1, and an image suitable for the age of the observer included in the distribution request is selected from the content database 34.
  • the information is distributed to the program executed on the information processing terminal 1.
  • the program for performing the above check and training operates as follows. As shown in FIG. 14, in the present embodiment, in the content management server 3, the image uploaded from the user is stored in advance in association with information including the age related to the subject shown in the image (S701). .
  • the information processing terminal 1 first acquires attributes such as the age of the user who is the observer, the region where the user was born and raised, males, females, educational backgrounds, and work history (S601), and includes them in the content distribution request for content management. It transmits to the server 3 (S602).
  • the content management server 3 Upon receiving this content distribution request (S702), the content management server 3 analyzes the distribution request including the age of the observer who is the subject of the test, and obtains an image suitable for the age of the observer included in the distribution request. It selects from the database 34 (S704), and distributes with respect to the said program currently performed with the information processing terminal 1 (S705).
  • the received content is stored (S603, 604), an object using the content is created (S605), and can be used in the video training program and other various training programs. .
  • photos nostalgic from many users are uploaded together with information including the age, stored in a database, and an image that matches the age of the user who is a subject with cognitive impairment is created as an object. And used in various tests by the program described above. Thereby, in the above-mentioned various tests, the subject's long-term memory can be evoked, and the activation of the brain can be promoted.
  • each program according to the above-described embodiment includes a smartphone 171 that integrates the mobile phone / communication function, a personal computer 172 that is used on the client side, and data that is arranged on the network on the client side.
  • the system having each function described above can be easily constructed by installing in the server device 173 or the tablet PC 174 or the IC chip 186 that provides the functions and executing the functions on the CPU.
  • These programs can be distributed through a communication line, for example, and can be transferred as a package application that operates on a stand-alone computer.
  • Such a program can be recorded on recording media 181 to 85 that can be read by a personal computer.
  • recording on various recording media such as a USB memory 185 and a memory card 184 in addition to a magnetic recording medium such as a flexible disk 183 and a cassette tape 182 or an optical disk 181 such as a CD-ROM and a DVD-ROM.
  • a USB memory 185 and a memory card 184 in addition to a magnetic recording medium such as a flexible disk 183 and a cassette tape 182 or an optical disk 181 such as a CD-ROM and a DVD-ROM.
  • FIG. 17A is a perspective view showing the overall configuration of the stereoscopic image observation apparatus
  • FIG. 17B is an explanatory view showing a state in which the information processing terminal 1 is arranged in the housing from the side.
  • FIG. 18 is an explanatory diagram showing left and right videos displayed on the information processing terminal.
  • the video observation device is a device for viewing the video (FIG. 18B) displayed on the touch panel 5 b of the information processing terminal 1 owned by the observer. And a housing 50 for housing the information processing terminal 1.
  • the housing 50 is made of paper, plastic or the like, and has a substantially rectangular shape with a hollow inside.
  • the housing 50 includes a lens unit 502 that forms a side surface that is disposed in front of the observer's eyes, a pedestal unit 503 that forms a bottom surface of the housing 50 and on which the information processing terminal 1 is installed, and a lens unit 502 and a pedestal.
  • a mirror unit 504 that includes a mirror member 52 that is held between the unit 503 and reflects the image light displayed on the information processing terminal 1 toward the lens unit 502.
  • an upper portion of the lens unit 502 includes a light shielding unit 505 that intersects with the surface of the lens unit 502 and protrudes outward.
  • the lens unit 502 is connected to one end of the pedestal unit 503, and the mirror unit 504 is connected to the other end.
  • a light shielding portion 505 is connected to one end of the mirror portion 504 opposite to the end where the pedestal portion 503 is connected.
  • a reinforcing portion 501 is connected to one end of the lens portion 502 opposite to the end where the pedestal portion 503 is connected.
  • the connection part of each part is formed with a crease or a perforation so as to be easily bent inward.
  • portions corresponding to the left and right eyes are cut out, and a pair of lens members 51 and 51 are respectively formed in the portion.
  • the pair of lens members 21 and 21 are convex eyepieces that enlarge a real image formed at the focal point, and are disposed on the lens unit 202 at locations corresponding to the left and right eyes.
  • the shape of the lens is not limited, and for example, a sheet-shaped Fresnel lens having a saw-like cross section may be used by dividing a normal convex lens into concentric regions and reducing the thickness.
  • a mirror member 52 is attached to the mirror unit 504 to reflect the image light for the right eye and the left eye displayed on the information processing terminal 1 toward the lens members 51 and 51.
  • the mirror member 52 is formed on the surface facing the pedestal portion 503 at the time of assembly.
  • the base 203 has a reference display for matching the video position displayed on the display 50a. Further, folds are formed in the vicinity of both ends of the pedestal portion 503, and by folding the pedestal portion 503 along the folds, a right side surface portion 503b that contacts the side surface of the information processing terminal 1, 503a is formed.
  • the pedestal unit 503 may be provided with a holding unit 53 that holds the information processing terminal 1 at an appropriate position on the pedestal unit 503.
  • the holding unit 53 is a member that positions the information processing terminal 1.
  • a member formed of a flexible member such as sponge or urethane is disposed on the pedestal unit 503 and contacts the side surface of the information processing terminal 1.
  • the information processing terminal 1 may be held.
  • a substantially U-shaped cut is provided in a part of the pedestal unit 503, and a portion surrounded by the cut is bent to the side where the information processing terminal 1 is installed, and the information The structure which contacts and hold
  • the lens unit 502 and the reinforcing unit 501 can be folded along the folds connecting these members, and when used, as shown in FIG. 16, the lens unit 502 and the reinforcing unit 501 is overlapped.
  • the reinforcing portion 501 is provided with through holes 501 b and 501 b having the same shape as the pair of lens members 51 and 51. Therefore, even when the reinforcing portion 501 and the lens portion 502 are overlapped, the reinforcing portion 501 does not block the image light reflected from the mirror member 52.
  • a substantially U-shaped cut is formed at the fold portion where the lens portion 502 and the reinforcing portion 501 are connected, and the fold portion is bent to project outward.
  • the raised convex portion 501a is formed.
  • the light shielding portion 505 is formed with an engagement hole 505 a that penetrates the light shielding portion 505.
  • the light shielding portion 505 is a member that blocks light from the outside.
  • a portion closer to the mirror portion 504 than the engagement hole 505a blocks external light inserted into the housing, and the engagement hole 505a.
  • the portion closer to the observer blocks outside light inserted into the eyes of the observer.
  • one end 505b opposite to the one end to which the mirror portion 504 of the light shielding portion 505 is connected has a curved shape toward the engagement hole 505a.
  • the lens unit 502 is erected vertically with respect to the surface of the display unit 50a of the information processing terminal 1, and the mirror unit Reference numeral 504 denotes a state inclined at an angle of about 45 degrees with respect to the surface of the display unit 50a.
  • the stereoscopic image (FIG. 18B) is displayed on the display unit 50a with the information processing terminal 1 housed therein, the video light emitted from the display unit 50a is incident on the mirror unit 504.
  • the image light is incident on the mirror unit 504, the image light is reflected by the mirror member 52 and emitted to the pair of lens members 51 and 51.
  • a right-eye image and a left-eye image as shown in FIG. 18A are incident on the pair of lens members 51 and 51, respectively, and a stereoscopic image can be seen by the observer's eye EYE. .
  • Input interface 17 ... Model information acquisition part 20 ... Parallax barrier 30 ... Lower layer 31 ... Communication part 32 ... Authentication part 33 ... User database 34 ... Content database 35 ... Content distribution unit 36 ... Control unit 37 ... Content management unit 40a ... Liquid crystal layer 40b ... Control unit 50 ... Housing 51, 51 ... Lens member 52 ... Mirror member 53 ... Holding unit 60 ... Polarization unit 61 ... EEG detection device 111 ... Application execution unit 112 ... Model information acquisition unit 113 ... Voice recognition unit 171 ... Smartphone 172 ... Personal computer 173 ... Server device 174 ... PC 181 to 185 ... recording medium 501 ... reinforcing part 501a ... convex part 501b and 501b ... through hole 502 ... lens part 503 ... pedestal part 503a ... left side part 503b ... right side part 504 ... mirror part 505 ... light shielding part

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Neurology (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Physiology (AREA)
  • Neurosurgery (AREA)
  • Educational Technology (AREA)
  • Social Psychology (AREA)
  • Eye Examination Apparatus (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Abstract

【課題】左右の両眼でバランスよく視ることによって、左脳と右脳をバランスよく刺激して活性化させ、容易に認知機能低下の進行を和らげるとともに、脳内視力の回復も促すことによって、軽度認知症の早期発見・予防を実現する。 【解決手段】立体映像を表示させる立体映像エリアA2を生成し、立体映像エリアA2中に構築された仮想空間内における位置、又は向きが変化する複数のオブジェクトOb21,Ob22を表示し、複数のオブジェクトOb21,Ob22を、仮想空間内に設置された任意の重心位置P2を中心として任意の速度で回転させるとともに、任意のタイミング及び時間長でオブジェクトの色を変化させ、オブジェクトOb21,Ob22の色が変化したタイミング及び時間長と、ユーザーインターフェイスG22,G23に対するユーザー操作との時間差、及びユーザー操作の正確性を、空間認識能力及び状況判断力のテスト結果として記録する。

Description

軽度認知症の早期発見・予防プログラム及びシステム
 本発明は、軽度認知症の早期発見・予防のためのプログラム及びシステムに関する。
 わずかに認知機能障害が気になるが「認知症」とは言えない健康な状態と、認知症との間のグレーゾーンの状態を「軽度認知障害(MCI:Mild CognitiveImpairment)」と言い、認知症の研究が進み、この軽度認知症の早期発見・早期治療及び予防の概念が支持されるようになってきている。
 また、レビー小体型認知症(Dementia with Lewy Bodies :DLB)は、アルツハイマー病(AD)、血管性認知症とともに3大認知症のひとつとされており、初期の段階では記憶障害は顕著ではないが、その一方で早期から視空間能力の障害(構成障害、視覚認知障害)が現れる傾向がある(非特許文献1参照)。
 一方、認知機能が正常な時点での視力低下が、将来のアルツハイマー病など認知症の発症リスクの上昇につながるという、高齢者の視力の低下と認知機能の低下との関係を調べた論文が米国疫学雑誌(非特許文献2参照)に発表されるなど、視力低下と認知機能低下との関連性が注目されている。
 この研究論文によれば、米国の高齢者625人について10年程度の追跡調査をしたところ、視力が「きわめて良い」、「とても良い」と回答したグループは、他の回答をしたグループと比べて認知症を発症するリスクが63%低いという結果となった。また、眼科医を受診した経験があるグループでは、未受診のグループよりリスクが64%低く、眼の治療を受けたグループでは、未治療のグループよりリスクが56%低かった。さらに、『視力が「きわめて良い」、「とても良い」に該当し、且つ眼科医を受診したグループ』と比べて、『視力がそれより悪く、しかも眼科医を受診しなかったグループ』は、アルツハイマー病の発症リスクが9.46倍も高く、認知症に至らない認知機能低下のリスクも5.05倍となった。
 すなわち、視力障害は、アルツハイマー病の初期症状として現れることがあることは知られていたが、上記研究では、認知機能が正常な時点での視力低下が、将来のアルツハイマー病など認知症の発症リスクの上昇につながるという結果を示しており、視力の低下によって脳への刺激、運動、社会的活動が減り、それが認知症のリスクの上昇につながる可能性があると考察している。
 これに対し、視覚を通じて脳を活性化する技術として、例えば特許文献1に開示されたゲームがある。この特許文献1に開示されたゲームでは、適正な敵オブジェクトと、誤認用オブジェクトの組み合わせによってユーザーの混乱を生じさせつつゲームが実行され、ユーザーは、敵オブジェクトの顔画像の正確な把握が求められることから、ユーザーには、敵オブジェクトを見分ける処理能力、集中力が要求され、顔画像認識に伴う脳の活性化を可能としている。
小野薬品工業株式会社発行「スプリングマインド」2012年NO.11、2ページ~3ページ "Untreated Poor Vision: A Contributing Factor to Late-Life Dementia",Mary A. M. Rogers* and Kenneth M. Langa, American Journal of Epidemiology Advance Access published February 11, 2010
特開2012-088776号公報
 ところで、視力には眼球視力と脳内視力の2つがあり、認知機能低下による視力障害は、「脳内視力の低下」が原因であるとともに、眼球視力が低下することによる「脳の活動の低下」も原因となっており、認知機能低下による視力障害は、眼と脳が関連しながら進行していくと考えられている。
 このため、脳を活性化させるための働きかけは、左右の両眼でバランスよく「視る」という刺激が重要である。すなわち、両眼の脳内視力を通じて左脳と右脳をバランスよく刺激して活性化させることによって、記憶力、集中力、想像力などを高め、認知機能低下の進行を和らげるとともに、脳内視力の回復も促すことができる。
 しかしながら、上記特許文献1に開示されたような、単にオブジェクトを見分けるなどの手法であり、左右の両眼でバランスよく視るという要素が含まれていないことから、ゲームに集中するあまり、むしろ「利き目」だけで見つめてしまうようになってしまい、偏った脳内視力で脳を刺激する結果となる惧れがある。
 そこで、本発明は以上の点に鑑みてなされたもので、左右の両眼でバランスよく視ることによって、左脳と右脳をバランスよく刺激して活性化させ、容易に認知機能低下の進行を和らげるとともに、脳内視力の回復も促すことのできる軽度認知症の早期発見・予防プログラム及びシステムを提供することをその課題とする。
(1)プログラムの発明
 (1-1)空間認識能力及び状況判断力テスト
 上記課題を解決するために、本発明は、
 観察者の左右の眼にそれぞれ対応させた左眼用映像と右眼用映像を生成させるためのプログラムが実行されるアプリケーション実行部と、
 アプリケーション実行部により実行されたプログラムによって生成された左眼用映像及び右眼用映像を、左右の眼にそれぞれ対応した箇所に表示させる表示部と、
 ユーザー操作を受け付けるユーザーインターフェイスと
を備えた情報処理端末を用いて、軽度認知症の早期発見又は予防するためのプログラムであって、このプログラムは、
 情報処理端末に、左眼用映像及び右眼用映像との間に輻輳角及び視差を発生させて構成された立体映像を表示させる立体映像エリアを生成する立体映像生成ステップと、
 立体映像エリア中に構築された仮想空間内における位置、又は向きが変化する複数のオブジェクトを表示し、複数のオブジェクトを、仮想空間内に設置された任意の重心位置を中心として任意の速度で回転させるとともに、任意のタイミング及び時間長でオブジェクトの色を変化させるオブジェクト動作ステップと、
 オブジェクトの色が変化したタイミング及び時間長と、ユーザーインターフェイスに対するユーザー操作との時間差、及びユーザー操作の正確性を、空間認識能力及び状況判断力のテスト結果として記録する認識力測定ステップと、
を含む処理を実行させることを特徴とする。
 このような本発明によれば、例えば、3D表示が可能なタブレット型PCなどで、立体映像エリア中の仮想空間内で、複雑な軌道で回転する複数のオブジェクトの色を、任意のタイミング及び時間長で変化させ、その変化を認識した時点で観察者にユーザーインターフェイスを操作させる。オブジェクトの色が変わった時間から、観察者が操作するまでの時間差や正確性を測定することで、観察者の空間認識能力及び状況判断力をチェックすることができる。この時間差や正確性が所定の閾値を超える(下回る)ようであれば、認知障害の可能性があり、これにより予防対策を採ることができる。
 上記発明において、オブジェクト動作ステップでは、オブジェクトの回転半径又は回転中心である重心位置を変化させ、オブジェクトが立体映像エリアの全領域に表示させるようにし、認識力測定ステップでは、ユーザー操作とオブジェクトの表示位置との関係に基づいて、観察者の視野範囲も測定することが好ましい。
 この場合には、タブレットPCの画面の四隅までオブジェクトを表示させ、それに対する観察者の反応を見ることで、観察者の視野範囲を測定することができ、視野範囲の広狭から認知障害を推定することができる。
 上記発明において、オブジェクトの色の彩度を変化させ、オブジェクトの彩度とユーザーインターフェイスに対するユーザー操作との関係に基づいて観察者の色別と白濁を測定する白濁測定ステップをさらに含むことが好ましい。
 この場合には、例えばスライダーを操作させるなどしてオブジェクトの彩度を変化させ、観察者にとって見やすいように調節させることで、観察者の色別と、眼球の白濁等を発見することができる。
 (1-2)瞬間視・大小の恒常性テスト
 また、他の発明は、観察者の左右の眼にそれぞれ対応させた左眼用映像と右眼用映像を生成させるためのプログラムが実行されるアプリケーション実行部と、
 アプリケーション実行部により実行されたプログラムによって生成された左眼用映像及び右眼用映像を、左右の眼にそれぞれ対応した箇所に表示させる表示部と、
 ユーザー操作を受け付けるユーザーインターフェイスとを備えた情報処理端末を用いて、軽度認知症の早期発見又は予防するためのプログラムであって、プログラムは、情報処理端末に、
 左眼用映像及び右眼用映像との間に輻輳角及び視差を発生させて構成された立体映像を表示させる立体映像エリアを生成する立体映像生成ステップと、
 立体映像エリア中に構築された仮想空間内における位置、又は向きが変化する複数種のオブジェクトを表示し、複数種のオブジェクトのうち同一物に関するオブジェクトを、仮想空間内における深度を変化させつつ複数同時に表示させるオブジェクト深度変動ステップと、
 同一物に関するオブジェクトの表示数と、ユーザーインターフェイスに対するユーザー操作の正確性とを、瞬間視又は大小の恒常性のテスト結果として記録する恒常性測定ステップと、
を含む処理を実行させることを特徴とする。
 このような本発明によれば、例えば、3D表示が可能なタブレット型PCなどで、立体映像エリア中の仮想空間内に、リンゴとミカンといったように複数種類の果物を、深度を変化させつつ同時に表示させ、その表示数を観察者にユーザーインターフェイスを操作させて回答させる。このとき同一物に関する仮想空間内における大きさは等しく設定して、表示する際の深度(仮想空間内における奥行き)のみを変化させる。そして、表示数と観察者によるカウント数を測定することで、観察者の瞬間視、大小の恒常性をチェックすることができる。この回答までの時間や誤答数が所定の閾値を超える(下回る)ようであれば、認知障害の可能性があり、これにより予防対策を採ることができる。
 上記発明において、恒常性測定ステップの後に時間差をおいて、同一物に関するオブジェクトの表示数を質問して、観察者からの回答を受け付ける質問ステップと、同一物に関するオブジェクトの表示数と、ユーザーインターフェイスに対するユーザー操作の正確性とを、記憶力のテスト結果として記録する記憶力測定ステップと、をさらに含むことが好ましい。
 この場合には、瞬間視、大小の恒常性と合わせて、記憶力のチェックもすることができる。誤答数が所定の閾値を超える(下回る)ようであれば、認知障害の可能性があり、これにより予防対策を採ることができる。
 (1-3)色の恒常性テスト
 他の発明は、観察者の左右の眼にそれぞれ対応させた左眼用映像と右眼用映像を生成させるためのプログラムが実行されるアプリケーション実行部と、アプリケーション実行部により実行されたプログラムによって生成された左眼用映像及び右眼用映像を、左右の眼にそれぞれ対応した箇所に表示させる表示部と、ユーザー操作を受け付けるユーザーインターフェイスとを備えた情報処理端末を用いて、軽度認知症の早期発見又は予防するためのプログラムであって、プログラムは、情報処理端末に、左眼用映像及び右眼用映像との間に輻輳角及び視差を発生させて構成された立体映像を表示させる立体映像エリアを生成する立体映像生成ステップと、立体映像エリア中に構築された仮想空間内における位置、又は向きが変化する複数種のオブジェクトを表示し、複数種のオブジェクトのうち同一物に関するオブジェクトを、明度、彩度、色彩又は光源位置を変化させて表示させるオブジェクト色変動ステップと、同一物に関するオブジェクトの表示と、ユーザーインターフェイスに対するユーザー操作の正確性とを、色の恒常性のテスト結果として記録する色恒常性測定ステップと、を含む処理を実行させることを特徴とする。
 このような本発明によれば、例えば、3D表示が可能なタブレット型PCなどで、立体映像エリア中の仮想空間内に、同一物に関するオブジェクトを、明度、彩度、色彩又は光源位置を変化させて表示させ、観察者にユーザーインターフェイスを操作させて同一物の色を回答させる。そして、表示されている色と観察者による回答を比較することで、観察者の色恒常性をチェックすることができる。この回答までの時間や誤答数が所定の閾値を超える(下回る)ようであれば、認知障害の可能性があり、これにより予防対策を採ることができる。
 (1-4)視覚野に関する脳の活動状況テスト
 他の発明は、観察者の左右の眼にそれぞれ対応させた左眼用映像と右眼用映像を生成させるためのプログラムが実行されるアプリケーション実行部と、アプリケーション実行部により実行されたプログラムによって生成された左眼用映像及び右眼用映像を、左右の眼にそれぞれ対応した箇所に表示させる表示部と、ユーザー操作を受け付けるユーザーインターフェイスとを備えた情報処理端末を用いて、軽度認知症の早期発見又は予防するためのプログラムであって、プログラムは、情報処理端末に、左眼用映像及び右眼用映像とで異なる個数のオブジェクトを表示させる左右映像エリアを生成する左右映像生成ステップと、オブジェクトの表示と、ユーザーインターフェイスに対するユーザー操作の正確性とを、視野闘争による視覚野に関する脳の活動状況のテスト結果として記録する視野闘争測定ステップと、を含む処理を実行させることを特徴とする。
 このような本発明によれば、例えば、2Dや3D表示が可能なタブレット型PCなどで、左右映像エリア中に、左眼用映像及び右眼用映像とで異なる個数のオブジェクトを表示させることにより、視野闘争による視覚野の脳の活動状況をテストすることができる。
 (1-5)脳波連動テスト
 上記発明において前記情報処理端末には、前記観察者の脳波を検出し、前記脳波に応じた脳波信号を出力する脳波検出デバイスと、前記脳波検出デバイスから取得した前記脳波信号を記録する脳波信号記録部とがさらに設けられ、前記早期発見・予防プログラムは、前記アプリケーション実行部で実行される前記立体視プログラムにより記録されたテスト結果と、前記脳波信号記録部によって記録された脳波信号とを連携させて解析する脳波相関解析ステップをさらに含む処理を実行させることが好ましい。ここで、脳波とは、脳の神経細胞から出される弱い周期性の電流である。
 この場合には、各種脳波の強弱やバランスを解析することにより、観察者の緊張状態、リラックス状態、集中状態を測定し、ユーザー操作の正確性との相関を知ることができ、軽度認知症の早期発見・予防の精度を高めることができる。
 詳述すると、MCI(Mild Cognitive Impairment:軽度認知障害)によって低下する認知機能は、「エピソード記憶」、「注意分割機能」、「思考力」及び「視空間認知機能」であることから、機能向上のための働きかけを行って認知機能を刺激することで、認知障害の発症を遅らせたり予防したりすることができることが知られている。解析部111fでは、立体視プログラムによる立体視によって認知機能を刺激するとともに、脳波信号を検出することにより、認知機能に対する刺激による効果を解析することができる。
 なお、「視空間認知障害」とは、視力が障害されていないにもかかわらず、顔や物品の認識や物品を見つける能力の障害、簡単な道具の操作や着衣の能力の障害があることでありこれらの障害はアルツハイマー型認知症でよく認められる症状である。また、典型的なアルツハイマー型認知症の初期には、図形を描くのが下手になり、運転で道に迷うようになる、車の車庫入れができなくなるといった症状があり、中期では物を探すのが難しくなる、後期では簡単な道具の操作と着衣ができなくなるといった症状がある。
 これらのような症状を視空間認知障害と呼び、神経基盤アルツハイマー型認知症では頭頂後頭葉の血流低下が視空間認知障害の責任病巣と考えられている。視空間認知障害はMMSEの重なった五角形の模写や立体の模写で検出されることが多い。キツネやハトの手の形の模倣が簡便なスクリーニングといわれている。これは眼前の対象の視空間的な特性をつかんだうえで、それを書き写したり動かしたりするという視空間認知機能の障害に起因し、構成障害とも呼ばれる。このように認知障害と視空間認知機能との間には密接な相関があると考えられ、立体視プログラムによる脳機能への刺激と、それによる脳波を検出することにより、より有効に認知機能に対する刺激による効果を解析することができる。
 (1-6)サーバー制御プログラム
 他の発明は、上記情報処理端末に通信ネットワークを通じて接続可能なコンテンツ管理サーバーを制御するためのサーバー制御プログラムであって、
 サーバー制御プログラムは、コンテンツ管理サーバーを、アップロードされた画像を、その画像に映っている被写体に関する年代を含む情報と関連づけて蓄積するコンテンツ蓄積部と、アプリケーション実行部により実行されているプログラムとの間でデータの送受信を行う通信部と、テストの対象となっている観察者の年代を含む配信要求を情報処理端末から通信部を通じて取得し、配信要求に含まれる観察者の年代に適合した画像をコンテンツ蓄積部から選定するコンテンツ選定部と、コンテンツ選定部が選定した画像をアプリケーション実行部により実行されているプログラムに対して配信するコンテンツ配信部として機能させることを特徴とする軽度認知症の早期発見・予防のためのサーバー制御プログラム。
 この場合には、多数のユーザーから懐かしい写真などを、年代を含む情報とともにアップロードしてもらい、データベース化して蓄積しておき、認知障害の被験者であるユーザーの年代に合わせた画像をオブジェクトして生成し、上述したプログラムによる各種テストで使用する。これにより、上記各種テストに際し、被験者の長期記憶を呼び起こすことができ、脳の活性化を促すことができる。
(2)システムの発明
 (2-1)空間認識能力及び状況判断力テスト
 本発明は、軽度認知症の早期発見又は予防するためのシステムであって、観察者の左右の眼にそれぞれ対応させた左眼用映像と右眼用映像を生成させるためのプログラムが実行されるアプリケーション実行部と、アプリケーション実行部により実行されたプログラムによって生成された左眼用映像及び右眼用映像を、左右の眼にそれぞれ対応した箇所に表示させる表示部と、ユーザー操作を受け付けるユーザーインターフェイスとを備え、プログラムは、左眼用映像及び右眼用映像との間に輻輳角及び視差を発生させて構成された立体映像を表示させる立体映像エリアを生成する立体映像生成ステップと、立体映像エリア中に構築された仮想空間内における位置、又は向きが変化する複数のオブジェクトを表示し、複数のオブジェクトを、仮想空間内に設置された任意の重心位置を中心として任意の速度で回転させるとともに、任意のタイミング及び時間長でオブジェクトの色を変化させるオブジェクト動作ステップと、オブジェクトの色が変化したタイミング及び時間長と、ユーザーインターフェイスに対するユーザー操作との時間差、及びユーザー操作の正確性を、空間認識能力及び状況判断力のテスト結果として記録する認識力測定ステップと、を含むことを特徴とする。
 このような本発明によれば、例えば、3D表示が可能なタブレット型PCなどで、立体映像エリア中の仮想空間内で、複雑な軌道で回転する複数のオブジェクトの色を、任意のタイミング及び時間長で変化させ、その変化を認識した時点で観察者にユーザーインターフェイスを操作させる。オブジェクトの色が変わった時間から、観察者が操作するまでの時間差や正確性を測定することで、観察者の空間認識能力及び状況判断力をチェックすることができる。この時間差や正確性が所定の閾値を超える(下回る)ようであれば、認知障害の可能性があり、これにより予防対策を採ることができる。
 上記発明において、オブジェクト動作ステップでは、オブジェクトの回転半径又は回転中心である重心位置を変化させ、オブジェクトが立体映像エリアの全領域に表示させるようにし、認識力測定ステップでは、ユーザー操作とオブジェクトの表示位置との関係に基づいて、観察者の視野範囲も測定することが好ましい。
 この場合には、タブレットPCの画面の四隅までオブジェクトを表示させ、それに対する観察者の反応を見ることで、観察者の視野範囲を測定することができ、視野範囲の広狭から認知障害を推定することができる。
 上記発明において、プログラムは、オブジェクトの色の彩度を変化させ、オブジェクトの彩度とユーザーインターフェイスに対するユーザー操作との関係に基づいて観察者の色別と白濁を測定する白濁測定ステップをさらに含むことが好ましい。
 この場合には、例えばスライダーを操作させるなどしてオブジェクトの彩度を変化させ、観察者にとって見やすいように調節させることで、観察者の色別と、眼球の白濁等を発見することができる。
 (2-2)瞬間視・大小の恒常性テスト
 また、他の発明は、軽度認知症の早期発見又は予防するためのシステムであって、観察者の左右の眼にそれぞれ対応させた左眼用映像と右眼用映像を生成させるためのプログラムが実行されるアプリケーション実行部と、アプリケーション実行部により実行されたプログラムによって生成された左眼用映像及び右眼用映像を、左右の眼にそれぞれ対応した箇所に表示させる表示部と、ユーザー操作を受け付けるユーザーインターフェイスとを備え、プログラムは、左眼用映像及び右眼用映像との間に輻輳角及び視差を発生させて構成された立体映像を表示させる立体映像エリアを生成する立体映像生成ステップと、立体映像エリア中に構築された仮想空間内における位置、又は向きが変化する複数種のオブジェクトを表示し、複数種のオブジェクトのうち同一物に関するオブジェクトを、仮想空間内における深度を変化させつつ複数同時に表示させるオブジェクト深度変動ステップと、同一物に関するオブジェクトの表示数と、ユーザーインターフェイスに対するユーザー操作の正確性とを、瞬間視、大小の恒常性のテスト結果として記録する恒常性測定ステップと、を含むことを特徴とする。
 このような本発明によれば、例えば、3D表示が可能なタブレット型PCなどで、立体映像エリア中の仮想空間内に、リンゴとミカンといったように複数種類の果物を、深度を変化させつつ同時に表示させ、その表示数を観察者にユーザーインターフェイスを操作させて回答させる。このとき同一物に関する仮想空間内における大きさは等しく設定して、表示する際の深度(仮想空間内における奥行き)のみを変化させる。そして、表示数と観察者によるカウント数を測定することで、観察者の瞬間視、大小の恒常性をチェックすることができる。この回答までの時間や誤答数が所定の閾値を超える(下回る)ようであれば、認知障害の可能性があり、これにより予防対策を採ることができる。
 上記発明において、プログラムは、恒常性測定ステップの後に時間差をおいて、同一物に関するオブジェクトの表示数を質問して、観察者からの回答を受け付ける質問ステップと、同一物に関するオブジェクトの表示数と、ユーザーインターフェイスに対するユーザー操作の正確性とを、記憶力のテスト結果として記録する記憶力測定ステップと、をさらに含むことが好ましい。
 この場合には、瞬間視、大小の恒常性と合わせて、記憶力のチェックもすることができる。誤答数が所定の閾値を超える(下回る)ようであれば、認知障害の可能性があり、これにより予防対策を採ることができる。
 (2-3)色の恒常性テスト
 また、他の発明は、軽度認知症の早期発見又は予防するためのシステムであって、観察者の左右の眼にそれぞれ対応させた左眼用映像と右眼用映像を生成させるためのプログラムが実行されるアプリケーション実行部と、アプリケーション実行部により実行されたプログラムによって生成された左眼用映像及び右眼用映像を、左右の眼にそれぞれ対応した箇所に表示させる表示部と、ユーザー操作を受け付けるユーザーインターフェイスとを備え、プログラムは、左眼用映像及び右眼用映像との間に輻輳角及び視差を発生させて構成された立体映像を表示させる立体映像エリアを生成する立体映像生成ステップと、立体映像エリア中に構築された仮想空間内における位置、又は向きが変化する複数種のオブジェクトを表示し、複数種のオブジェクトのうち同一物に関するオブジェクトを、明度、彩度、色彩又は光源位置を変化させて表示させるオブジェクト色変動ステップと、同一物に関するオブジェクトの表示と、ユーザーインターフェイスに対するユーザー操作の正確性とを、色の恒常性のテスト結果として記録する色恒常性測定ステップと、を含むことを特徴とする。
 このような本発明によれば、例えば、3D表示が可能なタブレット型PCなどで、立体映像エリア中の仮想空間内に、同一物に関するオブジェクトを、明度、彩度、色彩又は光源位置を変化させて表示させ、観察者にユーザーインターフェイスを操作させて同一物の色を回答させる。そして、表示されている色と観察者による回答を比較することで、観察者の色恒常性をチェックすることができる。この回答までの時間や誤答数が所定の閾値を超える(下回る)ようであれば、認知障害の可能性があり、これにより予防対策を採ることができる。
 (2-4)視覚野に関する脳の活動状況テスト
 また、他の発明は、軽度認知症の早期発見又は予防するためのシステムであって、観察者の左右の眼にそれぞれ対応させた左眼用映像と右眼用映像を生成させるためのプログラムが実行されるアプリケーション実行部と、アプリケーション実行部により実行されたプログラムによって生成された左眼用映像及び右眼用映像を、左右の眼にそれぞれ対応した箇所に表示させる表示部と、ユーザー操作を受け付けるユーザーインターフェイスとを備え、プログラムは、左眼用映像及び右眼用映像とで異なる個数のオブジェクトを表示させる左右映像エリアを生成する左右映像生成ステップと、オブジェクトの表示と、ユーザーインターフェイスに対するユーザー操作の正確性とを、視野闘争による視覚野に関する脳の活動状況のテスト結果として記録する視野闘争測定ステップと、を含むことを特徴とする。
 このような本発明によれば、例えば、2Dや3D表示が可能なタブレット型PCなどで、左右映像エリア中に、左眼用映像及び右眼用映像とで異なる個数のオブジェクトを表示させることにより、視野闘争による視覚野の脳の活動状況をテストすることができる。
 (2-5)脳波連動テスト
 上記発明において前記情報処理端末には、前記観察者の脳波を検出し、前記脳波に応じた脳波信号を出力する脳波検出デバイスと、前記脳波検出デバイスから取得した前記脳波信号を記録する脳波信号記録部とがさらに設けられ、前記早期発見・予防プログラムは、前記アプリケーション実行部で実行される前記立体視プログラムにより記録されたテスト結果と、前記脳波信号記録部によって記録された脳波信号とを連携させて解析する脳波相関解析ステップをさらに含む処理を実行させることが好ましい。この場合には、各種脳波の強弱やバランスを解析することにより、観察者の緊張状態、リラックス状態、集中状態を測定し、ユーザー操作の正確性との相関を算出することができ、軽度認知症の早期発見・予防の精度を高めることができる。
 (2-6)コンテンツ管理サーバー
 上記発明において、通信ネットワークに接続可能なコンテンツ管理サーバーをさらに備え、コンテンツ管理サーバーは、アップロードされた画像を、その画像に映っている被写体に関する年代を含む情報と関連づけて蓄積するコンテンツ蓄積部と、アプリケーション実行部により実行されているプログラムとの間でデータの送受信を行う通信部と、テストの対象となっている観察者の年代を含む配信要求をプログラムから通信部を通じて取得し、配信要求に含まれる観察者の年代に適合した画像をコンテンツ蓄積部から選定するコンテンツ選定部と、コンテンツ選定部が選定した画像をアプリケーション実行部により実行されているプログラムに対して配信するコンテンツ配信部とを備え、プログラムは、コンテンツ配信部から配信された画像から、オブジェクトを生成し、テストを実行することが好ましい。
 この場合には、多数のユーザーから懐かしい写真などを、年代を含む情報とともにアップロードしてもらい、データベース化して蓄積しておき、認知障害の被験者であるユーザーの年代に合わせた画像をオブジェクトして生成し、上述したプログラムによる各種テストで使用する。これにより、上記各種テストに際し、被験者の長期記憶を呼び起こすことができ、脳の活性化を促すことができる。
 以上述べたように、この発明によれば、左右の両眼でバランスよく視ることによって、左脳と右脳をバランスよく刺激して活性化させ、容易に認知機能低下の進行を和らげるとともに、脳内視力の回復も促すことによって、軽度認知症の早期発見・予防を実現することができる。
実施形態に係る軽度認知症早期発見・予防システムの全体構成を示すブロック図である。 (a)は、本実施形態に係る情報処理端末のCPU上に仮想的に構築される軽度認知症の早期発見・予防機能に関するモジュールを示すブロック図であり、(b)は、コンテンツ管理サーバーの内部構造を示すブロック図である。 実施形態に係るチェック&トレーニングプログラム1の画面構成を示す説明図である。 実施形態に係るチェック&トレーニングプログラム1の動作を示すフローチャート図である。 実施形態に係るチェック&トレーニングプログラム2の画面構成を示す説明図である。 実施形態に係るチェック&トレーニングプログラム2の動作を示すフローチャート図である。 実施形態に係るチェック&トレーニングプログラム3の画面構成を示す説明図である。 実施形態に係るチェック&トレーニングプログラム3の動作を示すフローチャート図である。 実施形態に係るチェック&トレーニングプログラム4の画面構成を示す説明図である。 実施形態に係るチェック&トレーニングプログラム4の動作を示すフローチャート図である。 実施形態に係るチェック&トレーニングプログラム5の画面構成を示す説明図である。 実施形態に係るチェック&トレーニングプログラム5の動作を示すフローチャート図である。 実施形態に係る映像トレーニングプログラムの画面構成を示す説明図である。 実施形態に係る映像トレーニングプログラムの動作を示すフローチャート図である。 実施形態に係る情報処理端末のディスプレイを裸眼で観察する様子を示す説明図である。 実施形態に係る実施形態に係るパララックスバリア及びこれを含む立体映像表示装置の各構成要素を概略的に示した説明図である。 (a)は、実施形態に係る立体映像観察装置の全体構成を示す斜視図であり、(b)は、実施形態に係る情報処理端末1を筐体内に配置させた状態を側面より示す説明図である。 実施形態に係る情報処理端末に表示される左右の映像を示す説明図である。 実施形態に係るプログラムを記録する記録媒体 実施形態に係る軽度認知症早期発見・予防システムの全体動作を示すフローチャート図である。 実施形態に係る軽度認知症早期発見・予防システムにおいて、脳波信号の測定結果を示す表示情報の一例を示す説明図である。
 以下、本発明に係る軽度認知症の早期発見・予防システム及びプログラムの実施形態について図面を参照しつつ、詳細に説明する。
(システムの全体構成)
 図1は、本実施形態に係る軽度認知症早期発見・予防システムの全体構成を示すブロック図である。図2(a)は、本実施形態に係る情報処理端末のCPU上に仮想的に構築される軽度認知症の早期発見・予防機能に関するモジュールを示すブロック図であり、(b)は、コンテンツ管理サーバーの内部構造を示すブロック図である。なお、説明中で用いられる「モジュール」とは、装置や機器等のハードウェア、或いはその機能を持ったソフトウェア、又はこれらの組み合わせなどによって構成され、所定の動作を達成するための機能単位を示す。
 同図に示すように、軽度認知症早期発見・予防システムは、情報処理端末1を用いて軽度認知症早期発見・予防のためのチェック及びトレーニングを実施する仕組みであり、通信ネットワーク2を介してコンテンツ管理サーバー3に接続することにより、必要なコンテンツや情報等を情報処理端末1に取り込むことができるようになっている。通信ネットワーク2上には、コンテンツ管理サーバー3と、ユーザーが使用する情報処理端末1(1a~1c)とが配置されている。
 通信ネットワーク2は、通信プロトコルTCP/IPを用いて種々の通信回線(電話回線やISDN回線、ADSL回線、光通信回線などの公衆回線、専用回線、3Gや4Gの無線通信網)を相互に接続して構築される分散型の通信ネットワーク(IP網)であり、この通信ネットワーク2には、インターネットの他、VPNや、10BASE-T、100BASE-TX等によるイントラネット(企業内ネットワーク)や家庭内ネットワークなどのLANなども含まれる。また、通信ネットワーク2には、有線接続やWifi通信を介しての接続が可能であり、例えば、Wifiルータや無線LANルータなどをアクセスポイントとして、これらと無線通信が可能な情報処理端末1を接続することができ、コンテンツ管理サーバー3と情報処理端末1との双方向通信を行うことができる。
(情報処理端末)
 情報処理端末1は、図1に示すように、演算処理を行うCPU11と、データを一時的に記憶するメモリ12と、通信ネットワーク2を介して外部との通信を行う通信I/F13と、データを格納しておく記憶装置14とを有している。なお、本実施形態では、これらのCPU11、メモリ12及び通信I/F13、記憶装置14,出力インターフェース15と、入力インターフェース16等は、CPUバス1aを介して接続されており、相互にデータの受渡しが可能となっている。
 通信I/F13は、通信ネットワーク2を介してコンテンツ管理サーバー3と通信を行うモジュールであり、公知のデバイスを用いることができる。なお、この通信I/F13にLANケーブルや、外線若しくは内線用の電話回線を接続することにより、有線で通信を行うことができ、また、Wifiや3G回線用の通信チップ、携帯電話等を接続することによって無線で通信を行うこともできる。
 記憶装置14は、データを記録媒体に蓄積するとともに、これら蓄積されたデータを各デバイスの要求に応じて読み出す記憶装置であり、例えば、ハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)、メモリカード等により構成することができる。この記憶装置14には、OS(Operating System)や本実施形態に係る、立体映像コンテンツ、軽度認知症の早期発見・予防等の各種プログラム、その他、当該端末に搭載される各種のアプリケーション用のプログラム、ユーザーの個人情報、当該端末の機器識別情報(ID)などが記憶されている。
 また、CPUバス1aには出力インターフェース15と、入力インターフェース16が接続されており、入力されたユーザー操作信号が入力インターフェース16からCPUバス1aを通してCPUに入力されるとともに、各部に対する操作に関する情報がCPUバス1aを介して出力インターフェース15を介して、各出力デバイスから出力・表示される。
 出力インターフェース15には、音響を出力するスピーカー5aや、映像を出力するタッチパネル5bの液晶ディスプレイが接続されており、入力インターフェース16には、ポインティング操作やテキスト入力などのユーザー操作を入力するマウス6a、キーボード6b、タッチパネル5bや、音声を入力するマイクロフォン6c、映像を入力するカメラ6d、脳波を検出する脳波検出デバイス61が接続されている。なお、本実施形態では、映像を表示する液晶ディスプレイと、タッチ操作を入力するタッチパネルが重畳された液晶タッチパネルとなっている。この出力インターフェース15は、アプリケーション実行部111によって実行された各種のプログラムに応じた立体映像やGUI等を、このタッチパネル5bに表示させる。
 脳波検出デバイス61は、観察者の脳波を検出して、脳波に応じた脳波信号を出力するヘッドセットタイプのデバイスであり、観察者の皮膚表面の電位を計測する電極パッド61aと、チップ部61bとを備えている。電極パッド61aは、ヘッドセットが観察者の頭部に装着された状態において、観察者の額に接触するように配設されている。電極パッド61aとチップ部61bとは配線によって接続されている。チップ部61bは、電極パッド61aから出力される脳波信号を、アナログ信号処理回路、AD(Analog-Digital)変換回路、デジタル信号処理回路等により処理し、入力インターフェース16を通じて、CPU11上のアプリケーション実行部111に入力される。
 そして、CPU11は、各部を制御する際に必要な種々の演算処理を行う装置である。このCPU11は、メモリ12に格納されているアプリケーションプログラム及び設定情報に基づいて、入力インターフェース16から入力される内容に応じて、本発明に係る軽度認知症の早期発見・予防アプリケーションを実行させる。CPU11上で、軽度認知症早期発見・予防アプリケーションが実行されることで、本発明の軽度認知症早期発見・予防システムが機能モジュールとして仮想的に構築される。
 具体的に、CPU11は、CPUの他にDSP(Digital Signal Processor)等のプロセッサ、メモリ、及びその他の電子回路等のハードウェア、或いはその機能を持ったプログラム等のソフトウェア、又はこれらの組み合わせなどによって構成された演算モジュールであり、プログラムを適宜読み込んで実行することにより種々の機能モジュールを仮想的に構築し、構築された各機能モジュールによって、画像データに関する処理や、各部の動作制御、ユーザー操作に対する種々の処理を行うモジュールである。
 本実施形態において、CPU11には、アプリケーション実行部111と、機種情報取得部112と、音声認識部113とが構築される。機種情報取得部17は、アプリケーション実行部111に対し情報処理端末1の種別に関する情報を入力するモジュールである。機種情報取得部112は、情報処理端末1の種別に関する情報の入力を受け付けるか、或いは、情報処理端末1のメモリ等から種別に関する情報を読み出して取得するモジュールであり、アプリケーション実行部111は、立体映像を表示する前に、機種情報取得部112から入力された種別に関する情報に基づいて、タッチパネル5bに表示される映像のサイズ、位置及び縦横比を変更するとともに、映像の基準位置を示す基準マークの位置を変更する。また、音声認識部113は、音声を認識し、その認識結果をアプリケーション実行部に入力するモジュールであり、端末に設けられたマイクロフォン6cから音声データを取得し、音声認識処理により分析することで、音声データから音響的な特徴量を取り出してどのような内容かを解析する。
 本実施形態においては、軽度認知症の早期発見・予防に関するプログラムが実行されると、観察者の操作は、タッチパネル5bで受け付けるようになっているが、例えば、ケーブルや近距離通信等でマウス6aやキーボード6b等の操作デバイスを接続してその操作デバイスに基づいて観察者の操作を受け付けたりしてもよい。
 アプリケーション実行部111は、一般のOSやブラウザソフト、メディア視聴アプリケーションなどのアプリケーションを実行するモジュールであり、通常はCPU等により実現される。具体的に本実施形態に係るアプリケーション実行部111は、各種アプリケーションを実行することによって、各種機能モジュールがCPU上に仮想的に構築される。本実施形態においてアプリケーション実行部111は、脳波検出デバイス制御部111aは、同期処理部111bと、立体視テスト実行部111cと、脳波信号記録部111dと、テスト結果記録部111eと、解析部111fとがCPU11上に構築される。
 脳波検出デバイス制御部111aは、脳波検出デバイス61の動作を情報処理端末1側から制御するためのモジュールであり、同期処理部111bを通じて立体視テスト実行部111cと同期するようになっており、立体視テストの実行と連携させて脳波検出デバイス61をどうさせることができる。同期処理部111bは、脳波検出デバイス制御部111aと立体視テスト実行部111cとを連係させて動作させるモジュールであり、この同期処理部111bによって脳波検出デバイス制御部111aにより記録される脳波信号と、立体視テスト実行部111cにより記録される各種テスト結果とを紐付けることができ、これにより解析部111fは、記録された脳波信号と各種テスト結果との相関を解析することができる。
 立体視テスト実行部111cは、軽度認知症の早期発見・予防に関する各種のプログラムを実行し、立体映像コンテンツやGUIをタッチパネル5bに表示させるとともに、視力測定等の演算処理を行うモジュールである。脳波信号記録部111dは、脳波検出デバイス61から取得される各種脳波信号を時系列にしたがって記憶装置14に記録するモジュールである。なお、同期処理部111bでは、脳波信号の検出値に応じて、立体視テスト実行部111cで実行された立体視プログラムによる刺激のタイミングや強度をリアルタイムに調節して、立体視による認知機能に対する刺激をより効果的に行うようにしてもよい。
 ここで、記録される脳波としては、デルタ波(4Hz~0.5Hz)、シータ波(8Hz~4Hz)、アルファ波(14Hz~8Hz)、ベータ波(38Hz~14Hz)及びガンマ波(26Hz~70Hz)である。デルタ波はヒーリングや睡眠、深い眠りについている状態、又は無意識の状態に検出され、シータ波は瞑想や直感、記憶力と関連性があり、記憶と学習に適している脳波の状態にあるときに検出される。アルファ波はリラクゼーションや視覚化、創造カ、リラックスした状態で精神活動が活発で意識レベルが高まっている状態にあるときに検出され、問題解決、集中力を発揮し得る状態を検知することができ、ベータ波は警戒、集中、認識力、理性的に問題解決を図る時、注意を払う時など、緊張状態にあるときに検出される。ガンマ波は予知、明瞭、見方などに関連性があり、集中力が増加されているときに検出される。
 一方、テスト結果記録部111eは、立体視テスト実行部111cにより出力される各種テスト結果を記憶装置14に記録するモジュールである。これら脳波信号記録部111d及びテスト結果記録部111eによって記録されるデータは、同期処理部111bによって紐付けられ、テスト結果に含まれるテスト中におけるユーザー操作の履歴や、正確性の変化と脳波信号との関係を記録できるようになっている。
 解析部111fは、アプリケーション実行部111の立体視テスト実行部111cで実行される立体視プログラムにより記録されたテスト結果と、脳波信号記録部111dによって記録された脳波信号とを連携させて解析するモジュールである。
 例えば、解析部111fは、上述したチェックアンドトレーニングプログラム1~5等の立体視プログラムを実行して、各テストにおけるユーザー操作の正確性をテスト結果として記録するとともに、これらのプログラム1~5の実行中における各種脳波の検出値を時系列で記録し、各テストにおける平均値、最大値・最小値、開始値・終了値、時間的変化、分布などを解析し、各立体視プログラムによる各テスト結果と脳波信号の検出値とを関連づけて、相関を示す一覧表やグラフ、レーダーチャートなどの図形として、表示情報を生成する。これにより、テスト結果と脳波信号の検出値を比較可能に表示することができ、認知症などの障害をより高精度に発見できる。なお、解析部111fによって解析され、算出されたテスト結果及び脳波解析結果として、図21に示すような、グラフ、レーダーチャートなどの図形が含まれる表示情報として出力インターフェース15を通じて、ディスプレイやプリンター等から出力される。
 このアプリケーション実行部111において、本発明に係る各種プログラムが実行されると、映像として、観察者の左右の眼に対応させた左眼用映像と右眼用映像との間に輻輳角及び視差を発生させて構成された立体映像を画面上に表示させるとともに、立体映像の輻輳角及び視差を変化させて、観測者の眼に対する焦点を、観察者に対して接近及び離隔するように誘導する。これによって右眼には右眼用映像のみ焦点が合うとともに、左眼には左眼用映像のみ焦点が合うようになり、良好な立体映像が観察することができる。
 なお、アプリケーション実行部111は、タッチパネル5b上に右眼用画像及び左眼用画像を表示させる際、画像の縦横サイズの比率が維持されるように縮小させて、タッチパネル5b上に表示させる。この際、情報処理端末の機種に応じて、右眼用画像及び左眼用画像を縮小させることも可能である。すなわち、アプリケーション実行部111は、立体映像を表示する前に、機種情報取得部112から入力された種別に関する情報に基づいて、タッチパネル5bに表示される映像のサイズ、位置及び縦横比を変更するとともに、映像の基準位置を示す基準マークの位置を変更する。具体的には、記憶装置14に位置調整プログラムが記録されており、アプリケーション実行部111が位置調整プログラムを実行すると、情報処理端末1の機種に応じた適切な位置に立体映像を表示させることができる。また、記憶装置14には、立体映像の表示範囲を拡縮させるプログラムも蓄積されており、ユーザー操作によって表示範囲変更操作が行われると、アプリケーション実行部111は、入力インターフェース16からの操作に応じて、立体映像を拡大又は縮小させ、表示範囲を変更させる。
(コンテンツ管理サーバー)
 コンテンツ管理サーバー3は、コンテンツの収集及び配信を行うコンテンツサーバー装置であり、登録ユーザーである観察者の認証処理や顧客管理を行ったり、軽度認知症早期発見・予防のための各種プログラムや映像コンテンツを管理する。このコンテンツ管理サーバー3としては、WWW(World Wide Web)等のドキュメントシステムにおいて、HTML(Hyper Text Markup Language)ファイルや画像ファイル、音楽ファイルなどの情報送信を行うサーバーコンピューター或いはその機能を持ったソフトウェアで実現することができ、本実施形態では、画像などのコンテンツを蓄積しておき、クライアントソフトウェアの要求に応じて、インターネットなどのIP網を通じて、これらの情報を送信する。
 具体的にコンテンツ管理サーバー3は、通信ネットワーク2に接続するための通信部31と、ユーザーアクセスの認証を行う認証部32と、コンテンツデータを送信するコンテンツ配信部35と、データベースへの入出力を管理するコンテンツ管理部37と、各モジュールの動作を逝去する制御部36とを備えている。また、このコンテンツ管理サーバー3には、ユーザーデータベース33と、コンテンツデータベース34とが接続されている。
 通信部31は、パケットデータを送受信することによりコンテンツデータを送信する通信デバイスであり、情報処理端末1で実行されているプログラムとの間でデータの送受信を行う機能を備えている。コンテンツ配信部35は、認証部32で認証されたユーザーの情報処理端末1に対して、コンテンツ管理部37が読み出した該当するコンテンツデータを、通信部31を通じて、送信するモジュールである。
 認証部32は、ユーザーに対するアクセス許可を決定するモジュールであり、ユーザーデータベース33に蓄積された認証情報を照合することにより、認証を行う。ユーザーデータベース33には、顧客IDに関連付けられて氏名、電話番号、クレジットカード情報の他、軽度認知症の早期発見・予防プログラム等のチェック及びトレーニング結果の情報や、使用したコンテンツ等の履歴情報等も含まれている。
 コンテンツデータベース34は、通信ネットワーク2からアクセス可能な情報データ蓄積装置であり、例えば大容量のハードディスク等により構成される。このコンテンツデータベース84に蓄積される情報としては、コンテンツデータそのものの他、各コンテンツデータを識別するデータIDに対して、当該コンテンツデータの種類(音楽、音声、映像、文字列等)、ファイル形式、コンテンツデータの属性(ジャンルや年代等)を関連付けたインデックスデータが含まれる。
 そして、このコンテンツデータベース84は、コンテンツ管理部37の制御に従って、コンテンツデータの読み出し及び書き込みを行う。このコンテンツデータベース84の制御としては、コンテンツデータを特定する識別子(データベース内のアドレスやファイル名)によりコンテンツデータを呼び出すものや、コンテンツデータの種類、ファイル形式、又は属性、その他のインデックスデータ上の情報によりコンテンツデータを特定し、コンテンツデータの呼び出すもの等が挙げられる。
 コンテンツ管理部37は、通信ネットワーク2を通じてデータのアップロードを受け付け、アップロードされたデータをコンテンツとして蓄積し、管理する機能を備えている。具体的にコンテンツ管理部37は、アップロードされた画像をその画像に映っている被写体に関する年代を含む情報と関連づけてコンテンツデータベース34に蓄積する。そして、コンテンツ管理部37は、テストの対象となっている観察者の年代を含む配信要求を情報処理端末1から通信部31を通じて取得し、配信要求に含まれる観察者の年代に適合した画像をコンテンツデータベース34から選定するコンテンツ選定部としての機能も備えている。
 コンテンツ配信部35は、コンテンツ管理部37が選定した画像を情報処理端末1に対して配信するモジュールであり、通信部31が確立した通信経路を通じて、コンテンツデータをユーザー端末に対して配信する。この際、コンテンツ配信部35は、コンテンツデータをパケット化したり、或いはパケットデータをコンテンツデータに復号したりするモジュールである。
(立体映像表示装置の構成)
 図15は、本実施形態に係るパララックスバリア及びこれを含む立体映像表示装置の各構成要素を概略的に示した図である。なお、本実施形態では、この立体映像表示装置は、タッチパネル5bに組み込まれている。また、この立体映像表示装置は、立体映像表示の手段の一例であり、本発明はこれに限定されるものではなく、裸眼3Dスマートフィンや、他の方式のパララックスバリア、他のレンチキュラーなど、種々の立体映像表示デバイスでも採用可能である。
 図15(b)に示すように、本実施形態に係る立体映像表示装置は、パララックスバリア方式による左右の二つの目にそれぞれ対応する垂直方向に向かう左側映像(L)と右側映像(R)を水平方向に交互に配置したディスプレイモジュール10と、その前端に設けられたバリア20と呼ばれる垂直方向に向かうバー形状の遮断膜とを含む。このような立体映像表示装置は、左側映像(L)に該当する光が左眼のみに入射され、右側映像(R)に該当する光が右眼のみに入射されるように前記ディスプレイモジュール10及びバリア20を配置し、これを通して分割された2個の左右映像(L、R)が分離・観測されることで、立体感を感じさせる方式である。これにより、図15(a)に示すように、単一のディスプレイを、特別な装置を装着することなく裸眼で、立体映像を観察することができる。
 そして、特に、本実施形態に係るパララックスバリア20は、図16(a)に示すように、下部レイヤー30、液晶レイヤー40a、制御部40b、上部レイヤー60b及び偏光部60aを含む。液晶レイヤー40aは、制御方式によって水平方向又は垂直方向のバリアを形成するように、セル構造のマトリックス形態で配列された各画素を含み、制御部40bは、液晶レイヤー40aの各画素を制御方式によって選択的にオン又はオフにし、水平方向又は垂直方向のバリアパターンを形成するように液晶レイヤー40aの各画素を制御し、液晶レイヤー40aに含まれた各画素のセル構造及び具体的な制御方式は、以下で詳細に説明する。
 下部レイヤー30は、液晶レイヤー及び制御部をディスプレイモジュールから所定距離だけ離隔した位置に配置するために、液晶レイヤー及びディスプレイモジュールとの間に形成される。上部レイヤー60bは、液晶レイヤー及び制御部を配置するために、液晶レイヤーの上端に形成される。また、偏光部60aは、ディスプレイモジュールから放出されて下部レイヤー、液晶レイヤー及び上部レイヤーを通過した光の偏光角を制御し、液晶レイヤーで形成されたバリアパターンによってバリアを視覚化させる。本実施形態に係るパララックスバリアは、偏光部60aが上部レイヤー60bの上端及び下部レイヤー30の下端に位置する従来のパララックスバリアと異なって、上部レイヤー60bの上端のみに偏光部60aが存在するので、偏光部60aを通過することで生じる光の輝度減少を少なくすることができる。
 また、本実施形態に係るパララックスバリア20及びこれを含む立体映像表示装置は、TN―LCD又はSTN―LCDなどの液晶パネルを用いてバリアパターンを形成することで、2Dモードでは、バリアをオフにして2D映像を視聴することができ、3Dモードでは、バリアをオンにして立体映像を視聴することができる。垂直方向の画素を駆動させることで、垂直方向のバリアをオンにして垂直方向の画面を視聴することができ、水平方向の画素を駆動させることで、水平方向のバリアをオンにして水平方向の立体映像を視聴することができる。すなわち、本実施形態に係るバリア及びこれを含む立体映像表示装置は、2D/3Dモード転換及び水平方向/垂直方向の転換を可能にする。
 図16は、本実施形態に係る液晶レイヤー40aのセル単位のバリアパターン構造を示した例示図である。液晶レイヤー40aは、水平方向(X―X')と垂直方向(Y―Y')によってそれぞれ異なる規格のセル単位のバリアを交互に配置し、セル単位のパターン構造を形成する。図16に示すように、水平方向のバリアを形成する各画素を第1水平方向のセルカラム、第2水平方向のセルカラム、第3水平方向のセルカラム…と称するとき、第1水平方向のセルカラムには横×縦がa×cである第1画素、横×縦がb×cである第2画素を順次配列し、第2水平方向のセルカラムには横×縦がa×dである第3画素、横×縦がb×dである第4画素を順次配列する。ここで、a、b、c及びdの値は、ディスプレイモジュールの規格によって計算される規格値で、バリアの厚さ及び間隔を正確に表示できるように決定される。
 そして、第3水平方向のセルカラムは、第1水平方向のセルカラムと同一の構造で配列され、第4水平方向のセルカラムは、第2水平方向のセルカラムと同一の構造で配列される。すなわち、本実施形態に係るバリア基板では、互いに異なる構造の2個の水平方向のセルカラムが垂直方向に交互に配列される。
(システムの全体動作について)
 以上の構成を有する早期発見・予防システムを動作させることによって、本発明の早期発見・予防方法を実施することができる。図20は、本実施形態に係る早期発見・予防システムの動作を示すフローチャート図である。
 先ず、立体視テストプログラムを起動すると(S801)、脳波検出デバイス61との同期処理が開始される(S802)。具体的には、脳波検出デバイス制御部111aが、脳波検出デバイス61の動作を情報処理端末1側から制御し(S803)、同期処理部111bを通じて立体視テスト実行部111cと同期させて、後述する各種立体視テストの実行(S805)と連携させて脳波検出デバイス61からの脳波信号を記録する(S804)。
 詳述すると、立体視テスト実行部111cは、軽度認知症の早期発見・予防に関する各種のプログラムを実行し、立体映像コンテンツやGUIをタッチパネル5bに表示させるとともに、視力測定等の演算処理を行う。これと併せて、脳波信号記録部111dは、脳波検出デバイス61から取得される各種脳波信号を時系列にしたがって記憶装置14に記録する。一方、テスト結果記録部111eは、立体視テスト実行部111cにより出力される各種テスト結果を記憶装置14に記録する(S806)。これら脳波信号記録部111d及びテスト結果記録部111eによって記録されるデータは、同期処理部111bによって紐付けられ、テスト結果に含まれるテスト中におけるユーザー操作の履歴や、正確性の変化と脳波信号との関係を記録するようになっている。
 なお、上記視力測定等の演算処理に際し、同期処理部111bで脳波信号の検出値に応じて、立体視テスト実行部111cで実行された立体視プログラムによる刺激のタイミングや強度をリアルタイムに調節してもよい。
 そして、全てのテストが終了するまで、各種テストを継続させた後(S807における「N」)、記録された脳波信号と、立体視テスト実行部111cにより記録される各種テスト結果とを紐付けて収集し(S808)、次いで、解析部111fが、記録された脳波信号と各種テスト結果との相関を解析する(S809)。詳述すると、解析部111fが、アプリケーション実行部111の立体視テスト実行部111cで実行される立体視プログラムにより記録されたテスト結果と、脳波信号記録部111dによって記録された脳波信号とを連携させて解析する。
 本実施形態では、後述するチェックアンドトレーニングプログラム1~5等の立体視プログラムを実行して、各テストにおけるユーザー操作の正確性をテスト結果として記録するとともに、これらのプログラム1~5の実行中における各種脳波の検出値を時系列で記録し、各テストにおける平均値、最大値・最小値、開始値・終了値、時間的変化、分布などを解析し、各立体視プログラムによる各テスト結果と脳波信号の検出値とを関連づけて、相関を示す一覧表やグラフ、レーダーチャートなどの図形として、表示情報を生成する(S810)。なお、解析部111fによって解析され、算出されたテスト結果及び脳波解析結果としては、図21に示すような、グラフ、レーダーチャートなどの図形が含まれる表示情報として出力インターフェース15を通じて、ディスプレイやプリンター等から出力される。これにより、テスト結果と脳波信号の検出値を比較可能に表示することがでる。
(各種立体視プログラムについて)
 次いで、上述したアプリケーション実行部111において実行される各種の立体視プログラムについて説明する。
(1)チェック&トレーニングプログラム1
 図3は、チェック&トレーニングプログラム1の画面構成を示す説明図であり、図4は、このプログラムの動作を示すフローチャート図である。このチェック&トレーニングプログラム1では、振り子を使い、左右の眼の連携と判断の正確性を測定し、前頭葉の活動状況と眼の動き正しい判断の正確性と行動時間をチェックする。
 詳述すると、統合失調症では、脳の前頭葉・海馬やその周辺の部位などで、神経細胞の数が減少することから前頭葉の機能が低下しており、特に前頭葉を働かせるようなテストを実施すると、機能の低下を明確に体感させることができる。例えば、眼の動きがぎこちなくなることや、特定の図形を見てもらったときに視点があまり動かず固定させる傾向がある。このことから、本プログラムでは、立体視を使って振り子の往復ポイントP12,P13の判断の正確性を±を含む値で数値化することで左右の眼の連携と判断の正確性を診断する。
 本プログラムでは、左眼用映像及び右眼用映像との間に輻輳角及び視差を発生させて構成された立体映像を表示させる立体映像エリアA1を生成し、立体映像エリアA1中に構築された仮想空間内において揺動する振り子のオブジェクトOb1を表示させる。この立体映像エリアA2の下部には、ユーザーインターフェイスである判定ボタンG1が表示されている。この振り子のオブジェクトOb1は、仮想空間内に設置された任意の中心点P11を中心として、往復ポイントP12及びP13の間を揺動する。
 そして、テストに際しては、ユーザーに、オブジェクトOb1が往復ポイントP12,P13(いずれか一方、又は両方)に到達した時点で判定ボタンG1を押下させる。オブジェクトOb1が実際に往復ポイントP12又はP13に到達したタイミングと、判定ボタンG1に対するユーザー操作との時間差、及びユーザー操作の正確性をテスト結果として記録する。
 以上説明したチェック及びトレーニングを行うプログラムは、以下のように動作する。
 先ず、プログラムが起動されると、ステップS101において、動作条件の設定を行うとともに、設定された条件に従った動作を実行するオブジェクトを生成する。
 本実施形態における動作設定は、以下の通りである。
・振り子の振幅Xを、デフォルト45度、奥と手前で90度、角度数値を±5度ずつ入力で変更可能とする。
・振り子の周期は、デフォルト2.5秒で±0.5秒とする。
・珠の直径、色、糸(振り子の揺動半径)の長さ、背景色(画像差し替えサイドバイサイドの静止画)も設定可能となっている。
・測定回数は、デフォルト3回とし、任意の回数設定も可能となっている。
・スタートから終了までのタイムログをデータ化する。
・判定は、A、B、C、D、Eの5段階で設定できる。
・振り幅(手前と奥)は、デフォルトで60度として、±角度入力で変更が可能となっている。
・カメラ設定は、垂直0ポイントとしたクロス法とし、カメラ間隔は、±数値入力が可能となっている。
 次いで、ステップS102においてオブジェクトの動作が開始される。この動作の開始は、動作条件の設定が完了後自動的に、或いはユーザー操作による開始指示を待って行うことができる。ステップS103では、ループ処理(S103における「N」)によりユーザー操作(若しくはタイムアウト)を待つ。この間、オブジェクトが変化したタイミングからの経過時間の測定が開始される。ユーザー操作がなされることなく、オブジェクトが変化した場合には、その都度、経過時間がリセットされ、ユーザーの応答がなかった旨が無応答履歴として記憶される。
 ステップS103において、ユーザー操作があったとき、若しくは一定時間が経過しタイムアウトが到来したときには(S103における「Y」)、ループ処理を抜けて、ステップS104へ移行する。ステップS104では、ユーザーの応答時間及びその操作の正確性を記録する。ステップS103でのループ処理の間に無応答履歴があった場合には、そのときのオブジェクト動作、無応答時間及びリセット回数が記録される。
 ステップS105において、すべてのオブジェクト動作が終了したかを判断し、次の動作があれば(S105における「N」)、次の動作に移り上記ステップS101~S104を繰り返し、すべての動作が終了していれば(S103における「N」)、ステップS106に移行する。ステップS106では、測定結果を集計し、左右の眼の連携と判断の正確性を診断し、その結果を出力する。
 このような本プログラムによれば、例えば、3D表示が可能なタブレット型PCなどで、立体映像エリア中の仮想空間内で、揺動する振り子のオブジェクトOb1表示させ、その往復ポイントP12又はP13を認識した時点で観察者に判定ボタンG1を操作させる。そして、オブジェクトOb1が実際に往復ポイントP12又はP13に到達したタイミングと、判定ボタンG1に対するユーザー操作との時間差、及びユーザー操作の正確性から、左右の眼の連携と判断の正確性をテストすることができる。この時間差や正確性が所定の閾値を超える(下回る)ようであれば、認知障害の可能性があり、これにより予防対策を採ることができる。
(2)チェック&トレーニングプログラム2
 図5は、チェック&トレーニングプログラム2の画面構成を示す説明図であり、図6は、このプログラムの動作を示すフローチャート図である。このチェック&トレーニングプログラム2では、空間認識能力及び状況判断力を診断するとともに、観察者の視野範囲と、色の調整によって白濁のチェックと空間認識能力と状況判断力のテストを行い、左右のバランスと行動時間をチェックする。
 本プログラムでは、左眼用映像及び右眼用映像との間に輻輳角及び視差を発生させて構成された立体映像を表示させる立体映像エリアA2を生成し、立体映像エリアA2中に構築された仮想空間内における位置、又は向きが変化する複数のオブジェクトOb21,Ob22を表示させる。
 この立体映像エリアA2の下部には、ユーザーインターフェイスである判定ボタンG22又はG23が表示されている。この判定ボタンG22及びG23は、オブジェクトOb21又はOb22が変化する予定の色が表示されている。また、立体映像エリアA2中には、左右にスライド移動させるスライダーG21が配置されており、このスライダーG21を操作することにより、オブジェクトOb21,Ob22、及び判定ボタンG22及びG23の彩度が変化するようになっている。
 これらオブジェクトOb21,Ob22を仮想空間内に設置された任意の重心位置P2を中心として任意の速度で回転させるとともに、任意のタイミング及び時間長でオブジェクトOb21,Ob22のいずれか一方の色を変化させる。このとき、オブジェクトOb21,Ob22の回転半径や、回転中心である重心位置P2の座標を変化させ、オブジェクトOb21,Ob22が立体映像エリアA1の四隅にまで到達するように表示させる。
 そして、テストに際しては、ユーザーに、オブジェクトOb21又はOb22の色が変化した時点で判定ボタンG22又はG23を押下させる。オブジェクトOb21,Ob22の色が変化したタイミング及び時間長と、判定ボタンG22又はG23に対するユーザー操作との時間差、及びユーザー操作の正確性を、空間認識能力及び状況判断力のテスト結果として記録する。併せて、ユーザー操作とオブジェクトOb21,Ob22の表示位置との関係に基づいて、観察者の反応が鈍い領域などを算出して、観察者の視野範囲も測定する。また、ユーザーがスライダーG21を操作した場合には、スライダーの移動量に応じて変化されたオブジェクト又はユーザーインターフェイスの彩度の調整量を測定し、観察者の色別と白濁をチェックする。
 以上説明したチェック及びトレーニングを行うプログラムは、以下のように動作する。先ず、プログラムが起動されると、ステップS201において、動作条件の設定を行うとともに、設定された条件に従った動作を実行するオブジェクトを生成する。
 本実施形態における動作設定は、以下の通りである。
・2つの球体の色調整としては、色は自由に変更が可能となっている。
・スライドバーを使用して黄色を薄くしたり濃くしたりすることが可能である。
・白と黄色のボールは互いの中心を軸に回転する。
・Z軸の角度調整で画面の上下左右4隅へ表示する。
・回転スピードの調整が可能となっている。
・赤色表示時間の調整が可能となっている。
・判定時間の調整が可能となっている。
・質問数の数が可能となっている。
・判定の対象は、全体の正解数、色別の正解数、エリア別の正回数、表示からの回答時間とする。
・結果表示としては、全体評価5段階とし、個別評価としては、全体の正解数、色別の正解数、エリア別の正回数、表示からの回答時間とする。
 次いで、ステップS202においてオブジェクトの動作が開始される。この動作の開始は、動作条件の設定が完了後自動的に、或いはユーザー操作による開始指示を待って行うことができる。ステップS203では、ループ処理(S203における「N」)によりユーザー操作(若しくはタイムアウト)を待つ。この間、オブジェクトが変化したタイミングからの経過時間の測定が開始される。ユーザー操作がなされることなく、オブジェクトが変化した場合には、その都度、経過時間がリセットされ、ユーザーの応答がなかった旨が無応答履歴として記憶される。
 ステップS203において、ユーザー操作があったとき、若しくは一定時間が経過しタイムアウトが到来したときには(S203における「Y」)、ループ処理を抜けて、ステップS204へ移行する。ステップS204では、ユーザーの応答時間及びその操作の正確性を記録する。ステップS203でのループ処理の間に無応答履歴があった場合には、そのときのオブジェクト動作、無応答時間及びリセット回数が記録される。
 ステップS205において、すべてのオブジェクト動作が終了したかを判断し、次の動作があれば(S205における「N」)、次の動作に移り上記ステップS201~S204を繰り返し、すべての動作が終了していれば(S203における「N」)、ステップS206に移行する。ステップS206では、測定結果を集計し、空間認識力及び状況判断力の正確性を診断し、その結果を出力する。
 なお、本プログラムでは、空間認識能力のチェックと合わせて、観察者の色別と眼球の白濁を測定することができる。この色別・白濁のチェックは、上記ステップS201~S205のテストの前、或いは最中など、ユーザーの任意のタイミングで逐次行うことができる。具体的には、立体映像エリアA2中に表示されたスライダーG21を操作することにより、イベント処理(割り込み処理)が発生し、ステップS207~S212の処理が実行される。このイベント処理が実行されると、先ず、チェック&トレーニングプログラム2が停止され(S207)、ユーザーが操作したスライダーの位置が取得され、スライダーの移動量に応じて、オブジェクトの彩度が変更される(S209)。このユーザー操作によるオブジェクトの彩度の調整量によって、観察者の眼球の色別や白濁を診断することができ、その診断結果を記録する(S210)。
 ユーザーがスライダーG21に対する操作を引き続き行う場合には(ステップS211における「N」)、ユーザーがスライダーG21を操作する度に、上記ステップS208~S210を繰り返し実行し、色別・白濁の診断結果を更新して記録し、操作を終了した場合には(ステップS211における「Y」)、チェック&トレーニングプログラム2を再開する(S212)。
 このような本プログラムによれば、複雑な軌道で回転する複数のオブジェクトOb21,Ob22の色を、任意のタイミング及び時間長で変化させ、その変化を認識した時点で観察者に判定ボタンG22又はG23を操作させる。オブジェクトの色が変わった時間から、観察者が操作するまでの時間差や正確性を測定することで、観察者の空間認識能力及び状況判断力をチェックすることができる。この時間差や正確性が所定の閾値を超える(下回る)ようであれば、認知障害の可能性があり、これにより予防対策を採ることができる。
 また、立体映像エリアA1の四隅までオブジェクトOb21,Ob22を表示させ、それに対する観察者の反応を見ることで、観察者の視野範囲を測定することができ、視野範囲の広狭から認知障害を推定することができる。
 さらに、スライダーG21を操作させるなどしてオブジェクトOb21,Ob22の彩度を変化させ、観察者にとって見やすいように調節させることで、観察者の色別と、眼球の白濁等を発見することができる。
(3)チェック&トレーニングプログラム3
 図7は、チェック&トレーニングプログラム3の画面構成を示す説明図であり、図8は、このプログラムの動作を示すフローチャート図である。このチェック&トレーニングプログラム3では、視野闘争による視覚野の脳の活動状況を診断する。具体的には、立体視検査によって、眼位(視線)のズレを眼球筋(運動神経性)や脳の働き(感覚神経性)を自ら正しく矯正して、二重には見えていない状態のテストを行うとともに、異なる図や視差を追加することにより視野闘争による視覚野の脳の活動状況をチェックする。
 本プログラムでは、左眼用映像A31と右眼用映像A32とで異なる個数のオブジェクトOb31,Ob32を表示させる左右映像エリアA3を生成し、
本実施形態では、左眼用映像及び右眼用映像との間に輻輳角及び視差を発生させ、オブジェクトOb31,Ob32を表示している間に、その深度(奥行き方向の座標)を変化させる。なお、本実施形態では、3D表示により深度を変化させる処理を施すが、例えば2D表示により、単に左右で異なる個数のオブジェクトを表示させるのみでもよい。
 この左右映像エリアA3では、画面タッチなどのユーザーインターフェイスにより、オブジェクトOb31,Ob32を選択させる。そして、オブジェクトOb31,Ob32が表示されている座標と、タッチ操作の座標との一致若しくは乖離の程度を、視野闘争による視覚野の脳の活動状況のテスト結果として記録する。
 以上説明したチェック及びトレーニングを行うプログラムは、以下のように動作する。
 先ず、プログラムが起動されると、ステップS301において、動作条件の設定を行うとともに、設定された条件に従った動作を実行するオブジェクトを生成する。
 本実施形態における動作設定は、以下の通りである。
 2Dモードでは通常のステレオテストを行い、3Dモードでは深度を、奥、画面、手前とする。このチェックプログラムでは通常の立体視テストに深度を加えて認識力と左右の脳内視力の関係をチェックする。
 表示されるマークは、図形、数字、英字、漢字・ひらがな・カタカナ、動物・植物・魚、食べ物・野菜・フルーツ、乗り物などから選択可能とする。
 次いで、ステップS302においてオブジェクトの動作が開始される。この動作の開始は、動作条件の設定が完了後自動的に、或いはユーザー操作による開始指示を待って行うことができる。ステップS303では、ループ処理(S303における「N」)によりユーザー操作(若しくはタイムアウト)を待つ。この間、オブジェクトが変化したタイミングからの経過時間の測定が開始される。ユーザー操作がなされることなく、オブジェクトが変化した場合には、その都度、経過時間がリセットされ、ユーザーの応答がなかった旨が無応答履歴として記憶される。
 ステップS303において、ユーザー操作があったとき、若しくは一定時間が経過しタイムアウトが到来したときには(S303における「Y」)、ループ処理を抜けて、ステップS304へ移行する。ステップS304では、ユーザーの応答時間及びその操作の正確性を記録する。ステップS303でのループ処理の間に無応答履歴があった場合には、そのときのオブジェクト動作、無応答時間及びリセット回数が記録される。
 ステップS305において、すべてのオブジェクト動作が終了したかを判断し、次の動作があれば(S305における「N」)、次の動作に移り上記ステップS301~S304を繰り返し、すべての動作が終了していれば(S303における「N」)、ステップS306に移行する。ステップS306では、測定結果を集計し、視野闘争による視覚野の脳の活動状況を診断し、その結果を出力する。
 このような本プログラムによれば、左右映像エリア中に、左眼用映像及び右眼用映像とで異なる個数のオブジェクトを表示させることにより、視野闘争による視覚野の脳の活動状況をテストすることができる。
(4)チェック&トレーニングプログラム4
 図9は、チェック&トレーニングプログラム4の画面構成を示す説明図であり、図10は、このプログラムの動作を示すフローチャート図である。このチェック&トレーニングプログラム4では、瞬間視、大小の恒常性 記憶力を診断する。具体的には、視差情報があるために一般的な瞬間視に加えて大小の恒常性チェックを行い、大脳と視覚野の活動状況をチェックするとともに、瞬間視を使った脳の記憶力をチェックする。
 本プログラムでは、左眼用映像及び右眼用映像との間に輻輳角及び視差を発生させて構成された立体映像を表示させる立体映像エリアA4を生成し、立体映像エリアA4中に構築された仮想空間内における位置、又は向きが変化する複数種のオブジェクトOb41,Ob42を表示させる。
 この立体映像エリアA4の下部には、ユーザーインターフェイスである個数カウントボタンG41及びG42が表示されている。この個数カウントボタンG41及びG42は、オブジェクトOb41又はOb42が出現する予定の個数が列記されている。
 これら複数種のうち同一物に関するオブジェクトを、仮想空間内における深度を変化させつつ複数同時に表示させる。図示した例では、複数種のオブジェクトとして、トマト(オブジェクトOb41)とリンゴ(オブジェクトOb42)が表示されており、トマトもリンゴも、それぞれ同一物として同じ物が映されており、仮想空間において同一の大きさ(仮想空間内で占める体積)となっており、深度が異なることにより、違った大きさに見えるようになっている。
 そして、リンゴならリンゴ、トマトならトマトというように、同一物に関するオブジェクトの表示数と個数カウントボタンG41及びG42に対するユーザー操作の正確性とを、瞬間視、大小の恒常性のテスト結果として記録する。
 また、前記恒常性測定の後に時間差をおいて、同一物に関するオブジェクトの表示数を質問して、観察者からの回答を受け付ける記憶力テストも実施する。そして、リンゴならリンゴ、トマトならトマトというように同一物に関するオブジェクトの個数に関する質問と、ユーザーによる回答の正確性とを、記憶力のテスト結果として記録する。
 以上説明したチェック及びトレーニングを行うプログラムは、以下のように動作する。
 先ず、プログラムが起動されると、ステップS401において、動作条件の設定を行うとともに、設定された条件に従った動作を実行するオブジェクトを生成する。
 本実施形態における動作設定は以下の通りである。
 一般的な瞬間視に深度設定をすることで空間認識力と違う質問をした後に回答することで記憶力のテストをする。
 大きさを見極める恒常性のテストも行う。
・表示数は、1~10とし、数字が大きくなるほど難しくなるように設定する。
・表示物数は、1~5とし、数字が大きくなるほど難しくなるように設定する。
・色の数は、1~5とし、数字が大きくなるほど難しくなるように設定する。
・深度設定は、奥、中心、手前、標準3~5段階とし、数値入力が可能となっている。
・表示範囲は、中心から5段階とする。
・質問数は、1~10とし、設定可能となっている。
・難易度は、「すごくやさしい」、「やさしい」、「ふつう」、「むずかしい」、「すごくむずかしい」の5段階とする。
・表示時間は、「すごくやさしい」、「やさしい」、「ふつう」、「むずかしい」、「すごくむずかしい」の5段階とする。
・評価対象は、正回数、判定時間 質問回答までの時間とする。
・最終問題の記憶力としては、別のテストをした後に覚えている物、表示されていたものの数、正解数とから評価する。
・表示されるマークは、図形、数字、英字、漢字・ひらがな・カタカナ、動物・植物・魚
食べ物・野菜・フルーツ、乗り物等から選択可能とする。
 次いで、ステップS402においてオブジェクトの動作が開始される。この動作の開始は、動作条件の設定が完了後自動的に、或いはユーザー操作による開始指示を待って行うことができる。ステップS403では、ループ処理(S403における「N」)によりユーザー操作(若しくはタイムアウト)を待つ。この間、オブジェクトが変化したタイミングからの経過時間の測定が開始される。ユーザー操作がなされることなく、オブジェクトが変化した場合には、その都度、経過時間がリセットされ、ユーザーの応答がなかった旨が無応答履歴として記憶される。
 ステップS403において、ユーザー操作があったとき、若しくは一定時間が経過しタイムアウトが到来したときには(S403における「Y」)、ループ処理を抜けて、ステップS404へ移行する。ステップS404では、ユーザーの応答時間及びその操作の正確性を記録する。ステップS403でのループ処理の間に無応答履歴があった場合には、そのときのオブジェクト動作、無応答時間及びリセット回数が記録される。
 ステップS405において、すべてのオブジェクト動作が終了したかを判断し、次の動作があれば(S405における「N」)、次の動作に移り上記ステップS401~S404を繰り返し、すべての動作が終了していれば(S403における「N」)、ステップS406に移行する。ステップS406では、測定結果を集計し、瞬間視、大小の恒常性 を診断し、その結果を出力する。
 また、この瞬間視等のテストの終了後に、記憶力テストの出題をする(S407)。これは、所定時間を経過した後に、瞬間視で表示されたオブジェクトの個数などを問うもので、その応答時間や正確性を判断する。ステップS408では、ループ処理(S408における「N」)によりユーザー操作(若しくはタイムアウト)を待つ。この間、出題からの経過時間の測定が開始される。ユーザー操作がなされることなく、次の出題がされた場合には、その都度、経過時間がリセットされ、ユーザーの応答がなかった旨が無応答履歴として記憶される。
 ステップS408において、ユーザー操作があったとき、若しくは一定時間が経過しタイムアウトが到来したときには(S408における「Y」)、ループ処理を抜けて、ステップS409へ移行する。ステップS409では、ユーザーの応答時間及びその操作の正確性を記録する。ステップS408でのループ処理の間に無応答履歴があった場合には、そのときのオブジェクト動作、無応答時間及びリセット回数が記録される。その後、ステップS410では、測定結果を集計し、記憶力を診断し、その結果を出力する。
 このような本プログラムによれば、仮想空間内に、リンゴとミカンといったように複数種類の果物を、深度を変化させつつ同時に表示させ、その表示数を観察者に回答させる。このとき同一物に関する仮想空間内における大きさは等しく設定して、表示する際の深度(仮想空間内における奥行き)のみを変化させることで、観察者の瞬間視、大小の恒常性をチェックすることができる。この回答までの時間や誤答数が所定の閾値を超える(下回る)ようであれば、認知障害の可能性があり、これにより予防対策を採ることができる。また、本実施形態では、立体視プログラムによるテストと合わせて、各種脳波の強弱やバランスを解析することにより、観察者の緊張状態、リラックス状態、集中状態を測定し、ユーザー操作の正確性との相関を知ることができ、軽度認知症の早期発見・予防の精度を高めることができる。
 また、瞬間視、大小の恒常性と合わせて、記憶力に関する質問をすることで、誤答数が所定の閾値を超える(下回る)ようであれば、認知障害の可能性があり、これにより予防対策を採ることができる。
(5)チェック&トレーニングプログラム5
 図11(a)~(d)は、チェック&トレーニングプログラム5の画面構成を示す説明図であり、図12は、このプログラムの動作を示すフローチャート図である。このチェック&トレーニングプログラム5では、カラフィルターを使い明暗・ブルー・グリーン・レッド・イエロー・シアン・マゼンダ、光の位置などを調整し、色の恒常性が正しく機能してるかチェックし、大脳と視覚野の活動状況を測定することにより、レビー小体型認知症の疑いをチェックする。
 本プログラムでは、図11(a)に示すように、左眼用映像及び右眼用映像との間に輻輳角及び視差を発生させて構成された立体映像を表示させる立体映像エリアA5を生成し、立体映像エリアA5中に構築された仮想空間内における位置、又は向きが変化する複数種のオブジェクトOb51,Ob52を表示させる。これら複数種のオブジェクトOb51,Ob52のうち同一物に関するオブジェクトを、明度、彩度、色彩又は光源位置を変化させて表示させる。
 この立体映像エリアでは、画面タッチなどのユーザーインターフェイスにより、オブジェクトOb51,Ob52を選択させる。そして、同一物に関するオブジェクトの表示と、画面タッチの正確性とを、色の恒常性のテスト結果として記録する。
 以上説明したチェック及びトレーニングを行うプログラムは、以下のように動作する。
 先ず、プログラムが起動されると、ステップS501において、動作条件の設定を行うとともに、設定された条件に従った動作を実行するオブジェクトを生成する。
 本実施形態に係る動作設定は、
・表示時間は、回答するまで制限は設けない。但し、回答時間については表示されてから回答までの時間を記録する。最初の答えから答えが変わった時はその時間と正解・不正解を記憶する。表示されている物の色が認識されているかいないかで大脳の視覚野V4の活動状況をチェックする。
・表示される写真と動画としては、図形、動物・植物・魚、食べ物・野菜・フルーツ、乗り物、建築物、観光地などが選択可能となっている。
 次いで、ステップS502においてオブジェクトの動作が開始される。この動作の開始は、動作条件の設定が完了後自動的に、或いはユーザー操作による開始指示を待って行うことができる。ステップS503では、ループ処理(S503における「N」)によりユーザー操作を待つ。この間、オブジェクトが変化したタイミングからの経過時間の測定が開始される。ユーザー操作がなされることなく、オブジェクトが変化した場合には、その都度、経過時間がリセットされ、ユーザーの応答がなかった旨が無応答履歴として記憶される。
 ステップS503において、ユーザー操作があったときには(S503における「Y」)、ループ処理を抜けて、ステップS504へ移行する。ステップS504では、ユーザーの応答時間及びその操作の正確性を記録する。ステップS503でのループ処理の間に無応答履歴があった場合には、そのときのオブジェクト動作、無応答時間及びリセット回数が記録される。
 ステップS505において、すべてのオブジェクト動作が終了したかを判断し、次の動作があれば(S505における「N」)、次の動作に移り上記ステップS501~S504を繰り返し、すべての動作が終了していれば(S503における「N」)、ステップS506に移行する。ステップS506では、測定結果を集計し、色の恒常性を診断し、その結果を出力する。
 このような本プログラムによれば、仮想空間内に、同一物に関するオブジェクトを、明度、彩度、色彩又は光源位置を変化させて表示させ、観察者に同一物の色を回答させる。そして、表示されている色と観察者による回答を比較することで、観察者の色恒常性をチェックすることができる。この回答までの時間や誤答数が所定の閾値を超える(下回る)ようであれば、認知障害の可能性があり、これにより予防対策を採ることができる。
 なお、上述した例では、オブジェクトとして図11(a)に示した果物を配置した同様の画像を用いて、一方の画像にカラフィルターを使い明暗・ブルー・グリーン・レッド・イエロー・シアン・マゼンダ、光の位置などを調整したものを用いたが、例えば、図11(b)~(d)に示すような、色と形の異なる物体の前後関係を変化させた画像を用いることもできる。この画像としては、その難易度に応じて、物体の色や大きさ、配置などを変化させることができ、難易度の低いものとしては同図(b)に示すような赤、青、黄色といったように異なる色彩の物体を用い、難易度が高くなるにつれて同図(c)や(d)のように同系色の物体を用いるようにする。
 脳では、深視力により、両目の視覚情報から距離と形や長さ前後関係を処理していることから、上記プログラムにより色と空間知覚の訓練を行うことができる。なお、高難易度で同系色の判断をさせることにより、奥行きに伴う色の変化から色の恒常性を認識する知覚情報処理能力を訓練することができる。
(6)映像トレーニングプログラム
 図13は、チェック&トレーニングプログラム5の画面構成を示す説明図であり、図14は、このプログラムの動作を示すフローチャート図である。この映像トレーニングプログラムは、見るだけで老眼予防と脳を活性する特殊プログラムである。
 本実施形態では、コンテンツ管理サーバー3にアップロードされた画像を、その画像に映っている被写体に関する年代を含む情報と関連づけて蓄積しておき、情報処理端末1により実行されているプログラムとの間でデータの送受信を行う。コンテンツ管理サーバー3では、テストの対象となっている観察者の年代を含む配信要求を情報処理端末1から取得し、配信要求に含まれる観察者の年代に適合した画像をコンテンツデータベース34から選定し、情報処理端末1で実行されている前記プログラムに対して配信する。
 以上のチェック及びトレーニングを行うプログラムは、以下のように動作する。
 図14に示すように、本実施形態では、予め、コンテンツ管理サーバー3において、ユーザーからアップロードされた画像を、その画像に映っている被写体に関する年代を含む情報と関連づけて蓄積しておく(S701)。
 そして、情報処理端末1側では、先ず観察者であるユーザーの年代や、生まれ育った地域、男性、女性、学歴・職歴などの属性を取得し(S601)、コンテンツ配信要求に含めて、コンテンツ管理サーバー3に送信する(S602)。
 このコンテンツ配信要求を受信(S702)したコンテンツ管理サーバー3では、テストの対象となっている観察者の年代を含む配信要求を解析し、配信要求に含まれる観察者の年代に適合した画像をコンテンツデータベース34から選定し(S704)、情報処理端末1で実行されている前記プログラムに対して配信する(S705)。
 情報処理端末1側では、受信したコンテンツを格納するとともに(S603,604)、そのコンテンツを利用したオブジェクトを作成し(S605)、本映像トレーニングプログラムや、他の各種トレーニングプログラムにて利用可能とする。
 このようなプログラムによれば、多数のユーザーから懐かしい写真などを、年代を含む情報とともにアップロードしてもらい、データベース化して蓄積しておき、認知障害の被験者であるユーザーの年代に合わせた画像をオブジェクトして生成し、上述したプログラムによる各種テストで使用する。これにより、上記各種テストに際し、被験者の長期記憶を呼び起こすことができ、脳の活性化を促すことができる。
(プログラム記録媒体)
 上述した実施形態に係る各プログラムは、図19に示すように、このプログラムを携帯電話・通信機能を統合したスマートフォン171や、クライアント側が使用するパーソナルコンピュータ172、ネットワーク上に配置されてクライアント側にデータや機能を提供するサーバー装置173、又はタブレットPC174、又はICチップ186にインストールし、CPU上で実行することにより、上述した各機能を有するシステムを容易に構築することができる。これらのプログラムは、例えば、通信回線を通じて配布することが可能であり、またスタンドアローンの計算機上で動作するパッケージアプリケーションとして譲渡することができる。
 そして、このようなプログラムは、パーソナルコンピュータで読み取り可能な記録媒体181~85に記録することができる。具体的には、フレキシブルディスク183やカセットテープ182等の磁気記録媒体、若しくはCD-ROMやDVD-ROM等の光ディスク181の他、USBメモリ185やメモリカード184など、種々の記録媒体に記録することができる。
(立体映像観察装置)
 なお、上述した実施形態では、裸眼で立体視が可能な情報処理端末1を用いたが、一般的な情報処理端末に立体映像観察装置を組み合わせて、立体映像を観察させるようにすることもできる。図17(a)は、立体映像観察装置の全体構成を示す斜視図であり、同図(b)は、情報処理端末1を筐体内に配置させた状態を側面より示す説明図である。図18は、情報処理端末に表示される左右の映像を示す説明図である。
 図17に示すように、映像観察装置は、観察者が所有する情報処理端末1のタッチパネル5bに表示された映像(図18(b))を観るための装置であって、情報処理端末1と、情報処理端末1を収納する筐体50とから構成される。
 筐体50は、紙、又はプラステック等で形成され、内部中空な略長方形状をなしている。この筐体50は、観察者の眼前に配置される側面を形成するレンズ部502と、筐体50の底面を形成し、情報処理端末1が設置される台座部503と、レンズ部502と台座部503との間に保持され、情報処理端末1に表示された映像光をレンズ部502側に向けて反射させるミラー部材52を備えるミラー部504とを備える。また、レンズ部502の上部には、レンズ部502の面と交差して、外方に向けて突出する遮光部505とを備える。
 台座部503の一端には、レンズ部502が連結されるとともに、他端にはミラー部504が連結されている。また、ミラー部504の台座部503が連結された一端の反対側の一端には、遮光部505が連結されている。さらに、レンズ部502の台座部503が連結された一端の反対側の一端には補強部501が連結されている。なお、各部の連結部分には、それぞれ内側に折り曲げやすくなるように、折り目又はミシン目が形成されている。
 レンズ部502には、左右の眼に対応した箇所が切り抜かれ、当該部分に一対のレンズ部材51,51がそれぞれ形成されている。一対のレンズ部材21,21は、焦点に作られた実像を拡大する凸状の接眼レンズであり、レンズ部202上において、左右の眼に対応した箇所に配置されている。なお、レンズの形状は、限定するものではなく、例えば、通常の凸レンズを同心円状の領域に分割し厚みを減らして、のこぎり状の断面を持つシート状のフレネルレンズを用いてもよい。
 また、ミラー部504には、情報処理端末1に表示された右眼用及び左眼用の映像光を、それぞれのレンズ部材51,51に向けて反射させるミラー部材52が貼着されている。なお、このミラー部材52は、組み立て時において、台座部503と向かい合う側の面に形成されている。
 台座部203には、表示部50aに表示された映像位置に合致させるための基準表示が記されている。また、台座部503の両端付近には、それぞれ折り目が形成されており、その折り目に沿って台座部503を折り曲げることで、情報処理端末1の側面に当接される右側面部503bと、左側面部503aとが形成される。
 なお、台座部503には、情報処理端末1を台座部503上の適切な位置に保持する保持部53を設けてもよい。保持部53は、情報処理端末1を位置決めする部材であり、例えば、スポンジやウレタン等の可撓性部材で形成された部材を台座部503上に配置して、情報処理端末1の側面に接触させて情報処理端末1を保持する構成としてもよい。また、保持部53としては、例えば、台座部503の一部に略コの字状の切り目を設けて、当該切り目で囲まれた部分を情報処理端末1が設置される側に折り曲げて、情報処理端末1の側面に接触させて保持する構成であってもよい。
 また、本実施形態では、レンズ部502と補強部501とは、これらの部材を連結する折り目に沿って折りたたみ可能となっており、使用時には、図16に示すように、レンズ部502と補強部501とを重ね合わすようになっている。ここで、補強部501には、一対のレンズ部材51,51と同一形状の貫通孔501b,501bが設けられている。したがって、補強部501とレンズ部502とを重ね合わせた場合であっても、補強部501がミラー部材52から反射された映像光を遮ることはない。
 さらに、本実施形態において、レンズ部502と補強部501とが連結された折り目部分には、略コの字状の切れ目が形成されており、当該折り目を折り曲げることで、外方に向けて突出した凸部501aが形成される。一方、遮光部505には、遮光部505を貫通する係合孔505aが形成されている。そして、筐体50の組み立て時には、凸部501aが係合孔505aに挿通されることで、筐体50の立体形状が維持されるようになっている。
 遮光部505は、外部からの光を遮断する部材であり、本実施形態では、係合孔505aよりもミラー部504側の部分は筐体内部に差し込まれる外光を遮断し、係合孔505aよりも観察者側の部分は観察者の眼に差し込まれる外光を遮断する。また、遮光部505のミラー部504が連結された一端の反対側の一端505bは、係合孔505aに向けて湾曲形状をなしている。
 このような映像観察装置では、筐体50を組み立てると、図17に示すように、レンズ部502は、情報処理端末1の表示部50aの表面に対して垂直に起立された状態となり、ミラー部504は、表示部50aの表面に対して略45度の角度で傾いた状態となる。
 そして、内部に情報処理端末1を収納させた状態で、表示部50aに立体映像(図18(b))を表示させると、表示部50aから出射された映像光は、ミラー部504に入射される。映像光は、ミラー部504に入射されるとミラー部材52によって反射され、一対のレンズ部材51,51側へ出射される。そして、一対のレンズ部材51,51には、図18(a)に示すような、それぞれ右眼用画像及び左眼用画像が入射され、観察者の眼EYEには立体映像が見えるようになる。
 A1~5…立体映像エリア
 A3…左右映像エリア
 A31…左眼用映像
 A32…右眼用映像
 EYE…眼
 G1…判定ボタン
 G21…スライダー
 G22,G23…判定ボタン
 G41,G42…個数カウントボタン
 P11…中心点
 P12,P13…往復ポイント
 P2…重心位置
 1…情報処理端末
 2…通信ネットワーク
 3…コンテンツ配信サーバー
 5a…スピーカー
 5b…タッチパネル
 6a…マウス
 6b…キーボード
 6c…マイクロフォン
 6d…カメラ
 10…CPUバス
 11…CPU
 12…メモリ
 13…通信インターフェース
 14…記憶装置
 15…出力インターフェース
 16…入力インターフェース
 17…機種情報取得部
 20…パララックスバリア
 30…下部レイヤー
 31…通信部
 32…認証部
 33…ユーザーデータベース
 34…コンテンツデータベース
 35…コンテンツ配信部
 36…制御部
 37…コンテンツ管理部
 40a…液晶レイヤー
 40b…制御部
 50…筐体
 51,51…レンズ部材
 52…ミラー部材
 53…保持部
 60…偏光部
 61…脳波検出デバイス
 111…アプリケーション実行部
 112…機種情報取得部
 113…音声認識部
 171…スマートフォン
 172…パーソナルコンピュータ
 173…サーバー装置
 174…PC
 181~185…記録媒体
 501…補強部
 501a…凸部
 501b,501b…貫通孔
 502…レンズ部
 503…台座部
 503a…左側面部
 503b…右側面部
 504…ミラー部
 505…遮光部

Claims (18)

  1.  観察者の左右の眼にそれぞれ対応させた左眼用映像と右眼用映像を生成させるための立体視プログラムが実行されるアプリケーション実行部と、
     前記アプリケーション実行部により実行された立体視プログラムによって生成された前記左眼用映像及び前記右眼用映像を、左右の眼にそれぞれ対応した箇所に表示させる表示部と、
     ユーザー操作を受け付けるユーザーインターフェイスと
    を備えた情報処理端末を用いて、軽度認知症の早期発見又は予防するための早期発見・予防プログラムであって、前記早期発見・予防プログラムは、前記情報処理端末に、
     前記左眼用映像及び前記右眼用映像との間に輻輳角及び視差を発生させて構成された立体映像を表示させる立体映像エリアを生成する立体映像生成ステップと、
     前記立体映像エリア中に構築された仮想空間内における位置、又は向きが変化する複数のオブジェクトを表示し、前記複数のオブジェクトを、前記仮想空間内に設置された任意の重心位置を中心として任意の速度で回転させるとともに、任意のタイミング及び時間長で前記オブジェクトの色を変化させるオブジェクト動作ステップと、
     前記オブジェクトの色が変化したタイミング及び時間長と、前記ユーザーインターフェイスに対するユーザー操作との時間差、及びユーザー操作の正確性を、空間認識能力及び状況判断力のテスト結果として記録する認識力測定ステップと、
    を含む処理を実行させることを特徴とする軽度認知症の早期発見・予防プログラム。
  2.  前記オブジェクト動作ステップでは、前記オブジェクトの回転半径又は回転中心である前記重心位置を変化させ、前記オブジェクトが前記立体映像エリアの全領域に表示させるようにし、
     前記認識力測定ステップでは、前記ユーザー操作と前記オブジェクトの表示位置との関係に基づいて、観察者の視野範囲も測定する
    ことを特徴とする請求項1に記載の軽度認知症の早期発見・予防プログラム。
  3.  前記オブジェクトの色の彩度を変化させ、前記オブジェクトの彩度と前記ユーザーインターフェイスに対するユーザー操作との関係に基づいて観察者の色別と白濁を測定する白濁測定ステップをさらに含むことを特徴とする請求項1又は2に記載の軽度認知症の早期発見・予防プログラム。
  4.  観察者の左右の眼にそれぞれ対応させた左眼用映像と右眼用映像を生成させるための立体視プログラムが実行されるアプリケーション実行部と、
     前記アプリケーション実行部により実行された立体視プログラムによって生成された前記左眼用映像及び前記右眼用映像を、左右の眼にそれぞれ対応した箇所に表示させる表示部と、
     ユーザー操作を受け付けるユーザーインターフェイスと
    を備えた情報処理端末を用いて、軽度認知症の早期発見又は予防するための早期発見・予防プログラムであって、前記早期発見・予防プログラムは、前記情報処理端末に、
     前記左眼用映像及び前記右眼用映像との間に輻輳角及び視差を発生させて構成された立体映像を表示させる立体映像エリアを生成する立体映像生成ステップと、
     前記立体映像エリア中に構築された仮想空間内における位置、又は向きが変化する複数種のオブジェクトを表示し、前記複数種のオブジェクトのうち同一物に関するオブジェクトを、前記仮想空間内における深度を変化させつつ複数同時に表示させるオブジェクト深度変動ステップと、
     前記同一物に関するオブジェクトの表示数と、前記ユーザーインターフェイスに対するユーザー操作の正確性とを、瞬間視、大小の恒常性のテスト結果として記録する恒常性測定ステップと、
    を含む処理を実行させることを特徴とする軽度認知症の早期発見・予防プログラム。
  5.  前記恒常性測定ステップの後に時間差をおいて、前記同一物に関するオブジェクトの表示数を質問して、観察者からの回答を受け付ける質問ステップと、
     前記同一物に関するオブジェクトの表示数と、前記ユーザーインターフェイスに対するユーザー操作の正確性とを、記憶力のテスト結果として記録する記憶力測定ステップと、
    をさらに含むことを特徴とする請求項4に記載の軽度認知症の早期発見・予防プログラム。
  6.  観察者の左右の眼にそれぞれ対応させた左眼用映像と右眼用映像を生成させるための立体視プログラムが実行されるアプリケーション実行部と、
     前記アプリケーション実行部により実行された立体視プログラムによって生成された前記左眼用映像及び前記右眼用映像を、左右の眼にそれぞれ対応した箇所に表示させる表示部と、
     ユーザー操作を受け付けるユーザーインターフェイスと
    を備えた情報処理端末を用いて、軽度認知症の早期発見又は予防するための早期発見・予防プログラムであって、前記早期発見・予防は、前記情報処理端末に、
     前記左眼用映像及び前記右眼用映像との間に輻輳角及び視差を発生させて構成された立体映像を表示させる立体映像エリアを生成する立体映像生成ステップと、
     前記立体映像エリア中に構築された仮想空間内における位置、又は向きが変化する複数種のオブジェクトを表示し、前記複数種のオブジェクトのうち同一物に関するオブジェクトを、明度、彩度、色彩又は光源位置を変化させて表示させるオブジェクト色変動ステップと、
     前記同一物に関するオブジェクトの表示と、前記ユーザーインターフェイスに対するユーザー操作の正確性とを、色の恒常性のテスト結果として記録する色恒常性測定ステップと、
    を含む処理を実行させることを特徴とする軽度認知症の早期発見・予防プログラム。
  7.  観察者の左右の眼にそれぞれ対応させた左眼用映像と右眼用映像を生成させるための立体視プログラムが実行されるアプリケーション実行部と、
     前記アプリケーション実行部により実行された立体視プログラムによって生成された前記左眼用映像及び前記右眼用映像を、左右の眼にそれぞれ対応した箇所に表示させる表示部と、
     ユーザー操作を受け付けるユーザーインターフェイスと
    を備えた情報処理端末を用いて、軽度認知症の早期発見又は予防するための早期発見・予防プログラムであって、前記早期発見・予防プログラムは、前記情報処理端末に、
     前記左眼用映像及び前記右眼用映像とで異なる個数のオブジェクトを表示させる左右映像エリアを生成する左右映像生成ステップと、
     前記オブジェクトの表示と、前記ユーザーインターフェイスに対するユーザー操作の正確性とを、視野闘争による視覚野の脳の活動状況のテスト結果として記録する視野闘争測定ステップと、
    を含む処理を実行させることを特徴とする軽度認知症の早期発見・予防プログラム。
  8.  前記情報処理端末には、
     前記観察者の脳波を検出し、前記脳波に応じた脳波信号を出力する脳波検出デバイスと、
     前記脳波検出デバイスから取得した前記脳波信号を記録する脳波信号記録部と
    がさらに設けられ、
     前記早期発見・予防プログラムは、前記アプリケーション実行部で実行される前記立体視プログラムにより記録されたテスト結果と、前記脳波信号記録部によって記録された脳波信号とを連携させて解析する脳波相関解析ステップをさらに含む処理を実行させる
    ことを特徴とする請求項1乃至7のいずれかに記載の早期発見・予防プログラム。
  9.  請求項1乃至8のいずれかに記載の情報処理端末に通信ネットワークを通じて接続可能なコンテンツ管理サーバーを制御するためのサーバー制御プログラムであって、
     前記サーバー制御プログラムは、前記コンテンツ管理サーバーを、
     アップロードされた画像を、その画像に映っている被写体に関する年代を含む情報と関連づけて蓄積するコンテンツ蓄積部と、
     前記アプリケーション実行部により実行されている立体視プログラムとの間でデータの送受信を行う通信部と、
     前記テストの対象となっている観察者の年代を含む配信要求を前記情報処理端末から前記通信部を通じて取得し、前記配信要求に含まれる観察者の年代に適合した画像を前記コンテンツ蓄積部から選定するコンテンツ選定部と、
     前記コンテンツ選定部が選定した画像を前記アプリケーション実行部により実行されている前記立体視プログラムに対して配信するコンテンツ配信部
    として機能させることを特徴とする軽度認知症の早期発見・予防のためのサーバー制御プログラム。
  10.  軽度認知症の早期発見又は予防するためのシステムであって、
     観察者の左右の眼にそれぞれ対応させた左眼用映像と右眼用映像を生成させるための立体視プログラムが実行されるアプリケーション実行部と、
     前記アプリケーション実行部により実行された立体視プログラムによって生成された前記左眼用映像及び前記右眼用映像を、左右の眼にそれぞれ対応した箇所に表示させる表示部と、
     ユーザー操作を受け付けるユーザーインターフェイスと
    を備え、前記立体視プログラムは、
     前記左眼用映像及び前記右眼用映像との間に輻輳角及び視差を発生させて構成された立体映像を表示させる立体映像エリアを生成する立体映像生成ステップと、
     前記立体映像エリア中に構築された仮想空間内における位置、又は向きが変化する複数のオブジェクトを表示し、前記複数のオブジェクトを、前記仮想空間内に設置された任意の重心位置を中心として任意の速度で回転させるとともに、任意のタイミング及び時間長で前記オブジェクトの色を変化させるオブジェクト動作ステップと、
     前記オブジェクトの色が変化したタイミング及び時間長と、前記ユーザーインターフェイスに対するユーザー操作との時間差、及びユーザー操作の正確性を、空間認識能力及び状況判断力のテスト結果として記録する認識力測定ステップと、
    を含むことを特徴とする軽度認知症の早期発見・予防システム。
  11.  前記オブジェクト動作ステップでは、前記オブジェクトの回転半径又は回転中心である前記重心位置を変化させ、前記オブジェクトが前記立体映像エリアの全領域に表示させるようにし、
     前記認識力測定ステップでは、前記ユーザー操作と前記オブジェクトの表示位置との関係に基づいて、観察者の視野範囲も測定する
    ことを特徴とする請求項10に記載の軽度認知症の早期発見・予防システム。
  12.  前記立体視プログラムは、前記オブジェクトの色の彩度を変化させ、前記オブジェクトの彩度と前記ユーザーインターフェイスに対するユーザー操作との関係に基づいて観察者の色別と白濁を測定する白濁測定ステップをさらに含むことを特徴とする請求項10又は11に記載の軽度認知症の早期発見・予防システム。
  13.  軽度認知症の早期発見又は予防するためのシステムであって、
     観察者の左右の眼にそれぞれ対応させた左眼用映像と右眼用映像を生成させるための立体視プログラムが実行されるアプリケーション実行部と、
     前記アプリケーション実行部により実行された立体視プログラムによって生成された前記左眼用映像及び前記右眼用映像を、左右の眼にそれぞれ対応した箇所に表示させる表示部と、
     ユーザー操作を受け付けるユーザーインターフェイスと
    を備え、前記立体視プログラムは、
     前記左眼用映像及び前記右眼用映像との間に輻輳角及び視差を発生させて構成された立体映像を表示させる立体映像エリアを生成する立体映像生成ステップと、
     前記立体映像エリア中に構築された仮想空間内における位置、又は向きが変化する複数種のオブジェクトを表示し、前記複数種のオブジェクトのうち同一物に関するオブジェクトを、前記仮想空間内における深度を変化させつつ複数同時に表示させるオブジェクト深度変動ステップと、
     前記同一物に関するオブジェクトの表示数と、前記ユーザーインターフェイスに対するユーザー操作の正確性とを、瞬間視、大小の恒常性のテスト結果として記録する恒常性測定ステップと、
    を含むことを特徴とする軽度認知症の早期発見・予防システム。
  14.  前記立体視プログラムは、
     前記恒常性測定ステップの後に時間差をおいて、前記同一物に関するオブジェクトの表示数を質問して、観察者からの回答を受け付ける質問ステップと、
     前記同一物に関するオブジェクトの表示数と、前記ユーザーインターフェイスに対するユーザー操作の正確性とを、記憶力のテスト結果として記録する記憶力測定ステップと、
    をさらに含むことを特徴とする請求項13に記載の軽度認知症の早期発見・予防システム。
  15.  軽度認知症の早期発見又は予防するためのシステムであって、
     観察者の左右の眼にそれぞれ対応させた左眼用映像と右眼用映像を生成させるための立体視プログラムが実行されるアプリケーション実行部と、
     前記アプリケーション実行部により実行された立体視プログラムによって生成された前記左眼用映像及び前記右眼用映像を、左右の眼にそれぞれ対応した箇所に表示させる表示部と、
     ユーザー操作を受け付けるユーザーインターフェイスと
    を備え、前記立体視プログラムは、
     前記左眼用映像及び前記右眼用映像との間に輻輳角及び視差を発生させて構成された立体映像を表示させる立体映像エリアを生成する立体映像生成ステップと、
     前記立体映像エリア中に構築された仮想空間内における位置、又は向きが変化する複数種のオブジェクトを表示し、前記複数種のオブジェクトのうち同一物に関するオブジェクトを、明度、彩度、色彩又は光源位置を変化させて表示させるオブジェクト色変動ステップと、
     前記同一物に関するオブジェクトの表示と、前記ユーザーインターフェイスに対するユーザー操作の正確性とを、色の恒常性のテスト結果として記録する色恒常性測定ステップと、
    を含むことを特徴とする軽度認知症の早期発見・予防システム。
  16.  軽度認知症の早期発見又は予防するためのシステムであって、
     観察者の左右の眼にそれぞれ対応させた左眼用映像と右眼用映像を生成させるための立体視プログラムが実行されるアプリケーション実行部と、
     前記アプリケーション実行部により実行された立体視プログラムによって生成された前記左眼用映像及び前記右眼用映像を、左右の眼にそれぞれ対応した箇所に表示させる表示部と、
     ユーザー操作を受け付けるユーザーインターフェイスと
    を備え、前記立体視プログラムは、
     前記左眼用映像及び前記右眼用映像とで異なる個数のオブジェクトを表示させる左右映像エリアを生成する左右映像生成ステップと、
     前記オブジェクトの表示と、前記ユーザーインターフェイスに対するユーザー操作の正確性とを、視野闘争による視覚野の脳の活動状況のテスト結果として記録する視野闘争測定ステップと、
    を含むことを特徴とする軽度認知症の早期発見・予防システム。
  17.  前記情報処理端末には、
     前記観察者の脳波を検出し、前記脳波に応じた脳波信号を出力する脳波検出デバイスと、
     前記脳波検出デバイスから取得した前記脳波信号を記録する脳波信号記録部と
    がさらに設けられ、
     前記早期発見・予防プログラムは、前記アプリケーション実行部で実行される前記立体視プログラムにより記録されたテスト結果と、前記脳波信号記録部によって記録された脳波信号とを連携させて解析する脳波相関解析ステップをさらに含む処理を実行させる
    ことを特徴とする請求項10乃至16のいずれかに記載の早期発見・予防プログラム。
  18.  通信ネットワークに接続可能なコンテンツ管理サーバーをさらに備え、
     前記コンテンツ管理サーバーは、
     アップロードされた画像を、その画像に映っている被写体に関する年代を含む情報と関連づけて蓄積するコンテンツ蓄積部と、
     前記アプリケーション実行部により実行されている立体視プログラムとの間でデータの送受信を行う通信部と、
     前記テストの対象となっている観察者の年代を含む配信要求を前記立体視プログラムから前記通信部を通じて取得し、前記配信要求に含まれる観察者の年代に適合した画像を前記コンテンツ蓄積部から選定するコンテンツ選定部と、
     前記コンテンツ選定部が選定した画像を前記アプリケーション実行部により実行されている前記立体視プログラムに対して配信するコンテンツ配信部と
    を備え、前記立体視プログラムは、
     前記コンテンツ配信部から配信された画像から、前記オブジェクトを生成し、前記テストを実行する
    ことを特徴とする請求項10乃至17のいずれかに記載の軽度認知症の早期発見・予防システム。
PCT/JP2016/066615 2015-06-05 2016-06-03 軽度認知症の早期発見・予防プログラム及びシステム WO2016195082A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201680045316.XA CN107847226B (zh) 2015-06-05 2016-06-03 视觉认知测定系统、服务器控制方法
JP2017522283A JP6229867B2 (ja) 2015-06-05 2016-06-03 軽度認知症の早期発見・予防プログラム及びシステム
EP16803513.7A EP3305206A4 (en) 2015-06-05 2016-06-03 Program and system for early detection and prevention of mild dementia
US15/829,983 US11000221B2 (en) 2015-06-05 2017-12-04 Program and system for early detection and prevention of mild dementia

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015115074 2015-06-05
JP2015-115074 2015-06-05

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/829,983 Continuation US11000221B2 (en) 2015-06-05 2017-12-04 Program and system for early detection and prevention of mild dementia

Publications (1)

Publication Number Publication Date
WO2016195082A1 true WO2016195082A1 (ja) 2016-12-08

Family

ID=57440558

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/066615 WO2016195082A1 (ja) 2015-06-05 2016-06-03 軽度認知症の早期発見・予防プログラム及びシステム

Country Status (6)

Country Link
US (1) US11000221B2 (ja)
EP (1) EP3305206A4 (ja)
JP (1) JP6229867B2 (ja)
CN (1) CN107847226B (ja)
HK (1) HK1252849A1 (ja)
WO (1) WO2016195082A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017217051A (ja) * 2016-06-03 2017-12-14 一生 重松 認知症診断支援装置とその作動方法および作動プログラム、並びに認知症診断支援システム
WO2018143147A1 (ja) * 2017-02-01 2018-08-09 充宏 池田 脳機能を測定する情報処理端末及びプログラム
WO2019008773A1 (ja) * 2017-07-07 2019-01-10 株式会社島津製作所 認知機能判定方法
JP2019063512A (ja) * 2017-09-28 2019-04-25 国立大学法人 琉球大学 海馬機能を評価するための資料の作成方法および海馬機能評価システム
WO2019193350A1 (en) * 2018-04-04 2019-10-10 Cerebrum Matter Limited System for use in improving cognitive function
CN111246805A (zh) * 2017-10-23 2020-06-05 松下知识产权经营株式会社 失智症判定系统
WO2021049625A1 (ja) * 2019-09-12 2021-03-18 貴記 前田 主体感に関するゲーム装置及びプログラム
JP7130281B1 (ja) 2021-09-21 2022-09-05 株式会社メディアシーク 情報処理装置、情報処理方法及びプログラム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108463175B (zh) * 2016-02-22 2020-11-06 松下知识产权经营株式会社 痴呆症状检测系统以及记录介质
US20180225985A1 (en) * 2017-02-06 2018-08-09 Dusan Damjanovic Operator readiness testing and tracking system
US10769861B2 (en) * 2017-03-02 2020-09-08 Axonom Inc. Dynamic connection routing in virtual product configurations
TWI658811B (zh) * 2018-06-15 2019-05-11 長庚大學 Visual state detection method
KR102225353B1 (ko) * 2019-05-29 2021-03-08 한림대학교 산학협력단 앵글 개수 검출을 통해 인지 능력 검사 결과를 자동으로 산출하는 시스템 및 방법
ES2742574A1 (es) * 2019-07-25 2020-02-14 Univ Madrid Complutense Set de exploración del establecimiento de secuencias en la demencia con cuerpos de Lewy
ES2742598A1 (es) * 2019-08-01 2020-02-14 Univ Madrid Complutense Dispositivo para la exploración del mecanismo de la atención en la demencia con cuerpos de lewy
CN113707325A (zh) * 2021-09-23 2021-11-26 浙江玉安康瑞生物科技有限公司 基于空间识别与记忆评估的阿尔茨海默病早期筛查系统
CN113892956B (zh) * 2021-11-02 2022-08-02 中国人民解放军总医院第一医学中心 一种可调控光束经视觉激励脑电波的装置
CN116172560B (zh) * 2023-04-20 2023-08-29 浙江强脑科技有限公司 反应力训练的反应速度评估方法、终端设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010259634A (ja) * 2009-05-08 2010-11-18 Nippon Tect Co Ltd 認知症検査支援システム及び認知症検査支援装置
JP2012105795A (ja) * 2010-11-17 2012-06-07 Nippon Tect Co Ltd 認知機能予測システム
WO2012077313A1 (ja) * 2010-12-06 2012-06-14 国立大学法人岡山大学 認知症の発症の有無を確認するための方法及び装置
JP2014008329A (ja) * 2012-07-02 2014-01-20 National Center For Geriatrics & Gerontology 軽度認知機能障害の有無の診断システム、認知機能検査用端末及び認知機能検査用プログラム
WO2014034856A1 (ja) * 2012-08-31 2014-03-06 国立大学法人東京医科歯科大学 脳機能評価システム及び脳機能評価方法

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4817582B2 (ja) * 2000-04-17 2011-11-16 ザ・ユニバーシティー・オブ・シドニー 視覚機能の対物電気生理学的評価方法および装置
CA2420186C (en) * 2000-08-21 2007-05-15 The General Hospital Corporation Methods for diagnosing a neurodegenerative condition
EP1219243A1 (en) * 2000-12-28 2002-07-03 Matsushita Electric Works, Ltd. Non-invasive brain function examination
US20050283053A1 (en) * 2002-01-30 2005-12-22 Decharms Richard C Methods for physiological monitoring, training, exercise and regulation
ATE539681T1 (de) * 2001-01-30 2012-01-15 R Christopher Decharms Methoden für die physiologische überwachung, schulung und regulierung
US20020103429A1 (en) * 2001-01-30 2002-08-01 Decharms R. Christopher Methods for physiological monitoring, training, exercise and regulation
US20040092809A1 (en) * 2002-07-26 2004-05-13 Neurion Inc. Methods for measurement and analysis of brain activity
JP2004222254A (ja) * 2002-12-27 2004-08-05 Canon Inc 画像処理システム、方法及びプログラム
WO2005004794A2 (en) * 2003-06-09 2005-01-20 Alnylam Pharmaceuticals Inc. Method of treating neurodegenerative disease
US20050228785A1 (en) * 2004-04-02 2005-10-13 Eastman Kodak Company Method of diagnosing and managing memory impairment using images
US20070161591A1 (en) * 2005-08-18 2007-07-12 University Of Massachusetts Methods and compositions for treating neurological disease
US20070123757A1 (en) * 2005-10-24 2007-05-31 Chervinsky Alexander B Neuropsychological assessment platform (NPAP) and method
US20070218439A1 (en) * 2005-12-15 2007-09-20 Posit Science Corporation Cognitive training using visual searches
CN102970917B (zh) * 2010-05-05 2016-11-23 梅勒妮·克龙比·威廉斯·坎贝尔 与阿兹海默病相关的视网膜β淀粉样蛋白成像方法、系统
JP5738569B2 (ja) 2010-10-15 2015-06-24 任天堂株式会社 画像処理プログラム、装置、システムおよび方法
DE102011008886A1 (de) * 2011-01-19 2012-07-19 Sterrix Technologies UG (haftungsbeschränkt) Verfahren und Vorrichtung zur Stereobasis-Erweiterung von stereoskopischen Bildern und Bildfolgen
GB201103200D0 (en) * 2011-02-24 2011-04-13 Isis Innovation An optical device for the visually impaired
WO2013066601A1 (en) * 2011-10-17 2013-05-10 Kimmel Zebadiah M Method and apparatus for monitoring individuals while protecting their privacy
WO2013058985A1 (en) * 2011-10-17 2013-04-25 Kimmel Zebadiah M Method and apparatus for detecting deterioration of health status
US20140024971A1 (en) * 2012-07-17 2014-01-23 Frank E. Bunn Assessment and cure of brain concussion and medical conditions by determining mobility
AU2012393196A1 (en) * 2012-10-22 2015-10-01 Realvision S.R.L. Network of devices for performing optical/optometric/ophthalmological tests, and method for controlling said network of devices
AU2014225626B2 (en) * 2013-03-06 2018-02-15 Cerora, Inc. Form factors for the multi-modal physiological assessment of brain health
US20140278455A1 (en) * 2013-03-14 2014-09-18 Microsoft Corporation Providing Feedback Pertaining to Communication Style
EP2968237A4 (en) * 2013-03-15 2016-08-31 Univ Johns Hopkins METHOD AND COMPOSITIONS FOR IMPROVING COGNITIVE FUNCTION
US10055013B2 (en) * 2013-09-17 2018-08-21 Amazon Technologies, Inc. Dynamic object tracking for user interfaces
US10134170B2 (en) * 2013-09-26 2018-11-20 Intel Corporation Stereoscopic rendering using vertix shader instancing
US9544574B2 (en) * 2013-12-06 2017-01-10 Google Inc. Selecting camera pairs for stereoscopic imaging
US20150294588A1 (en) * 2014-04-11 2015-10-15 Aspen Performance Technologies Neuroperformance

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010259634A (ja) * 2009-05-08 2010-11-18 Nippon Tect Co Ltd 認知症検査支援システム及び認知症検査支援装置
JP2012105795A (ja) * 2010-11-17 2012-06-07 Nippon Tect Co Ltd 認知機能予測システム
WO2012077313A1 (ja) * 2010-12-06 2012-06-14 国立大学法人岡山大学 認知症の発症の有無を確認するための方法及び装置
JP2014008329A (ja) * 2012-07-02 2014-01-20 National Center For Geriatrics & Gerontology 軽度認知機能障害の有無の診断システム、認知機能検査用端末及び認知機能検査用プログラム
WO2014034856A1 (ja) * 2012-08-31 2014-03-06 国立大学法人東京医科歯科大学 脳機能評価システム及び脳機能評価方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3305206A4 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017217051A (ja) * 2016-06-03 2017-12-14 一生 重松 認知症診断支援装置とその作動方法および作動プログラム、並びに認知症診断支援システム
WO2018143147A1 (ja) * 2017-02-01 2018-08-09 充宏 池田 脳機能を測定する情報処理端末及びプログラム
WO2019008773A1 (ja) * 2017-07-07 2019-01-10 株式会社島津製作所 認知機能判定方法
CN111050667A (zh) * 2017-07-07 2020-04-21 株式会社岛津制作所 认知功能判定方法
JP2019063512A (ja) * 2017-09-28 2019-04-25 国立大学法人 琉球大学 海馬機能を評価するための資料の作成方法および海馬機能評価システム
JP7109757B2 (ja) 2017-09-28 2022-08-01 国立大学法人 琉球大学 海馬機能を評価するための資料の作成方法および海馬機能評価システム
CN111246805A (zh) * 2017-10-23 2020-06-05 松下知识产权经营株式会社 失智症判定系统
WO2019193350A1 (en) * 2018-04-04 2019-10-10 Cerebrum Matter Limited System for use in improving cognitive function
WO2021049625A1 (ja) * 2019-09-12 2021-03-18 貴記 前田 主体感に関するゲーム装置及びプログラム
JP2023011951A (ja) * 2019-09-12 2023-01-25 貴記 前田 主体感に関するゲーム装置及びプログラム
JP7130281B1 (ja) 2021-09-21 2022-09-05 株式会社メディアシーク 情報処理装置、情報処理方法及びプログラム
JP2023044794A (ja) * 2021-09-21 2023-04-03 株式会社メディアシーク 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
HK1252849A1 (zh) 2019-06-06
JP6229867B2 (ja) 2017-11-15
US11000221B2 (en) 2021-05-11
JPWO2016195082A1 (ja) 2017-12-28
US20180125409A1 (en) 2018-05-10
EP3305206A1 (en) 2018-04-11
CN107847226B (zh) 2021-01-08
CN107847226A (zh) 2018-03-27
EP3305206A4 (en) 2018-06-20

Similar Documents

Publication Publication Date Title
JP6229867B2 (ja) 軽度認知症の早期発見・予防プログラム及びシステム
US20180008141A1 (en) Systems and methods for using virtual reality, augmented reality, and/or a synthetic 3-dimensional information for the measurement of human ocular performance
EP3307135B1 (en) Methods and systems for testing aspects of vision
US9538947B2 (en) Method, system and device for assisting diagnosis of autism
KR20190104137A (ko) 시각적 기능의 임상적 파라미터들을 통합적으로 측정하는 시스템
US20170169716A1 (en) System and method for assessing visual and neuro-cognitive processing
CN107592798A (zh) 用于确定用户视力的方法和设备
US11366520B2 (en) Method for analyzing element inducing motion sickness in virtual-reality content and apparatus using the same
CN104382552B (zh) 一种综合视觉功能检测设备
AU2016410178A1 (en) Method and system for quantitative assessment of visual motor response
US9504380B1 (en) System and method for assessing human visual processing
Watson et al. Image jitter enhances visual performance when spatial resolution is impaired
Murphy et al. Lesions to right posterior parietal cortex impair visual depth perception from disparity but not motion cues
Leopold et al. Binocular rivalry and the illusion of monocular vision
CN104352340B (zh) 一种综合视觉功能训练设备与方法
CN113576497B (zh) 一种面向双眼竞争的视觉稳态诱发电位检测系统
JP2003157136A (ja) 生体反応を記録可能な高臨場感映像表示装置
Serrano-Pedraza et al. Stereo vision requires an explicit encoding of vertical disparity
JP2020182709A (ja) 機能回復訓練システム、機能回復訓練装置およびプログラム
Thompson et al. Perspective cues make eye-specific contributions to 3-D motion perception
Read et al. All Pulfrich-like illusions can be explained without joint encoding of motion and disparity
JP2011092691A (ja) 美容支援装置、美容カウンセリング方法および視線追跡データ取得方法
JP2016034466A (ja) トレーニング支援装置、トレーニング支援方法およびプログラム
EP4142570B1 (en) Method and device for determining a refractive error
Mix The effect of global versus local viewing conditions on the accuracy and response time of stereopsis perception

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16803513

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017522283

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE