WO2021166599A1 - 情報処理装置、方法、及びプログラム - Google Patents

情報処理装置、方法、及びプログラム Download PDF

Info

Publication number
WO2021166599A1
WO2021166599A1 PCT/JP2021/003282 JP2021003282W WO2021166599A1 WO 2021166599 A1 WO2021166599 A1 WO 2021166599A1 JP 2021003282 W JP2021003282 W JP 2021003282W WO 2021166599 A1 WO2021166599 A1 WO 2021166599A1
Authority
WO
WIPO (PCT)
Prior art keywords
action
result
control unit
subject
information processing
Prior art date
Application number
PCT/JP2021/003282
Other languages
English (en)
French (fr)
Inventor
康宏 大宮
雄一 雨宮
慎一 徳野
政和 樋口
Original Assignee
Pst株式会社
国立大学法人 東京大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pst株式会社, 国立大学法人 東京大学 filed Critical Pst株式会社
Publication of WO2021166599A1 publication Critical patent/WO2021166599A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/02Counting; Calculating
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data

Definitions

  • the present invention relates to an information processing device, a method, and a program, and more particularly to a measurement of deterioration of cognitive function of a subject.
  • Patent Document 1 discloses a physical fitness measuring method for measuring the physical fitness of a subject.
  • the physical fitness of the subject is estimated based on the living data related to the movement of the subject in the living space.
  • the living data related to the movement of the subject in the living space is, for example, the data of the force of gripping the doorknob.
  • Patent Document 1 the physical strength of the subject's abilities can be estimated, but other abilities cannot be measured. Recently, attention has been paid to cognitive function, and its measurement has become necessary. However, there is a problem that it is necessary to take a complicated test for measuring cognitive function, which imposes a heavy burden on the subject. Therefore, it has been desired to provide a technique capable of measuring cognitive function by a simple method.
  • An object of the present invention is to provide an information processing device capable of easily measuring a cognitive function.
  • the present invention is an information processing apparatus, and a first method of measuring a first result, which is a result of the first action, when a subject performs the first action.
  • the measuring means, the second measuring means for measuring the second result which is the result of the second action when the subject performs the second action different from the first action, and the subject When the first action and the second action are executed in parallel, the third result, which is the result of the first action, and the fourth result, which is the result of the second action, are measured. It is characterized by comprising a third measuring means and a providing means for providing the first grade, the second grade, the third grade and the fourth grade to the subject.
  • FIG. 2A is a diagram showing an example of a screen displayed when the selection button 125 is touched on the display screen of FIG. 2.
  • B is a figure which shows an example of the screen which displays the 1st result which is the result of the 1st action.
  • FIG. 2A is a diagram showing an example of a screen displayed when the selection button 126 is touched on the display screen of FIG. 2.
  • (B) is a figure which shows an example of the screen which displays the 2nd grade which is the result of the 2nd action.
  • FIG. 2A is a diagram showing an example of a screen displayed when the selection button 128 is touched on the display screen of FIG. 2.
  • (B) is the first result, which is the result of the first action in the single task, the second result, which is the result of the second action in the single task, and the third result, which is the result of the first action in the dual task.
  • It is a flowchart which shows the measurement process at the time of performing the 1st action and the 2nd action in parallel.
  • FIG. 1 is a block diagram showing an example of the configuration of the information processing apparatus according to the first embodiment of the present invention.
  • the information processing device 10 includes a control unit 11 that controls the overall operation, an input / output unit 12 that performs various inputs and outputs, a storage unit 13 that stores various data, programs, and the like, and a sensor unit 14 that detects various states. And, for example, it has a drive unit 15 that vibrates the information processing device 10 by driving an eccentric motor, and a communication unit 16 that communicates with the outside, and electrically so that each configuration can transmit and receive signals. It is connected and configured.
  • the information processing device 10 is, for example, a computer, and it is desirable that the information processing device 10 is a device that can be carried by a subject, such as a smartphone, a PDA, a tablet, or a laptop computer.
  • the information processing device 10 may be a computer fixed at the installation position without being carried by the subject.
  • the subject may operate the computer, input information to the computer, and receive information from the computer by voice.
  • the number of steps taken by the subject which will be described later, may be detected by photographing the subject with a camera provided in the computer and obtaining the number of steps by image analysis.
  • PDA is an abbreviation for Personal Digital Assistant.
  • the information processing device 10 is a smartphone.
  • the control unit 11 is, for example, a device called a CPU, an MCU or an MPU, and for example, a program stored in the storage unit 13 is executed.
  • CPU is an abbreviation for Central Processing Unit.
  • MCU is an abbreviation for Micro Controller Unit.
  • MPU is an abbreviation for Micro Processor Unit.
  • the input / output unit 12 is a device that inputs / outputs to a subject who operates the information processing device 10.
  • the input / output unit 12 inputs / outputs information and signals using a display, keyboard, mouse, buttons, touch panel, microphone, speaker, and the like.
  • the storage unit 13 is, for example, a device such as a ROM, RAM, HDD, or flash memory, and stores a program to be executed by the control unit 11 and various data.
  • ROM is an abbreviation for Read Only Memory.
  • RAM is an abbreviation for Random Access Memory.
  • HDD is an abbreviation for Hard Disk Drive.
  • the sensor unit 14 includes, for example, a distance sensor, a gyro sensor, an acceleration sensor, a directional meter, and a GPS receiver.
  • the control unit 11 detects that the operator is in close proximity to the information processing device 10 by, for example, the distance sensor of the sensor unit 14.
  • the control unit 11 detects that the subject carrying the information processing device 10 has walked and advanced by, for example, by detecting a predetermined acceleration by the acceleration sensor of the sensor unit 14.
  • the control unit 11 may detect the moving distance of the subject carrying the information processing device 10 by the GPS receiver.
  • the sensor unit 14 includes a walking speed sensor.
  • the walking speed sensor measures the walking speed of the subject carrying the information processing device 10 by using each sensor and timer included in the sensor unit 14.
  • the drive unit 15 includes, for example, an eccentric motor.
  • the control unit 11 can vibrate the information processing device 10 by driving the eccentric motor of the drive unit 15 to notify the carrier of the information processing device 10.
  • the communication unit 16 communicates with the outside.
  • the communication by the communication unit 16 may be wired communication or wireless communication.
  • the communication by the communication unit 16 may be any communication method.
  • the control unit 11 can transmit and receive voice and data by the communication unit 16.
  • the control unit 11 may transmit the measurement result, which will be described later, to an external device by the communication unit 16.
  • FIG. 2 is a diagram showing an example of a display screen of the information processing device 10.
  • the input / output unit 12 of the information processing device 10 has a touch panel 121.
  • the control unit 11 reads a program for executing the process related to the cognitive function measurement from the storage unit 13 and executes it in response to the operation of the touch panel 121 by the operator.
  • the control unit 11 displays the screen shown in FIG. 2 on the touch panel 121 by executing the process related to the cognitive function measurement.
  • the control unit 11 displays the contents related to the program currently being executed in the display area 122 of the touch panel 121.
  • the control unit 11 displays the characters “mild dementia check!” In the display area 122.
  • the control unit 11 sets the touch panel 121 not to display the characters "Mild dementia check!” In response to the operation of the operator of the information processing device 10. You may do it.
  • the control unit 11 displays the content related to the current display screen type in the display area 123 of the touch panel 121.
  • the control unit 11 displays the characters "home” in the display area 123.
  • the control unit 11 displays "home” in the display area 123, so that the screen of FIG. 2 is the home screen, that is, the screen that is the center when the program is executed (for example, the screen that is displayed first). It shows that.
  • the control unit 11 displays a measurement menu related to the measurement of the cognitive function in the display area 124 of the touch panel 121.
  • the control unit 11 displays a menu related to measurement when a single task, that is, a subject performs one action, in the display area 124.
  • the control unit 11 displays the selection button 125 when the subject performs walking as the first action in the display area 124.
  • the control unit 11 displays the selection button 126 when the subject performs the calculation as the second action in the display area 124.
  • the control unit 11 displays a measurement menu related to the measurement of the cognitive function in the display area 127 of the touch panel 121.
  • the control unit 11 displays in the display area 127 a menu related to dual tasks, that is, measurements when the subject performs two actions in parallel.
  • the control unit 11 displays the selection button 128 in the display area 127 when the subject performs walking as the first action and calculation as the second action.
  • the control unit 11 displays the selection button 129 related to the measurement history of the cognitive function in the display area 129 of the touch panel 121.
  • the control unit 11 detects that the selection button 129 is touched, the control unit 11 displays the measurement history stored in the storage unit 13 on the touch panel 121.
  • the storage of the measurement history in the storage unit 13 will be described later.
  • FIG. 3A is a diagram showing an example of a screen displayed when the selection button 125 is touched on the display screen of FIG. 2.
  • FIG. 4 is a flowchart showing the measurement process of the first behavior.
  • the control unit 11 detects that the subject touches the selection button 125 on the touch panel 121.
  • the control unit 11 displays the display screen of FIG. 3A on the touch panel 121.
  • the control unit 11 displays the content related to the measurement currently being executed in the display area 130 of the touch panel 121.
  • the control unit 11 displays the characters "single task-walking" in the display area 130.
  • the control unit 11 displays a description of the first action in the display area 131 of the touch panel 121.
  • control unit 11 displays the characters “measure the walking speed” in the display area 131.
  • the control unit 11 displays a guide for the subject to proceed with the first action in the display area 132 of the touch panel 121.
  • the control unit 11 displays the characters "when the smartphone is touched to the ear like during a call, an instruction voice is played" in the display area 132.
  • step S403 the control unit 11 determines whether the subject's ear is close to the information processing device 10 which is a smartphone by the distance sensor of the sensor unit 14.
  • step S403: No the process waits in step S403.
  • step S404 the control unit 11 uses the speaker of the input / output unit 12 to output the start guidance of the guidance for the subject to proceed with the first action by voice.
  • control unit 11 outputs a voice voice saying "I will start measuring the walking speed from now on, 3, 2, 1, start, please walk as usual” by the speaker.
  • the voice data is stored in the storage unit 13 in advance, and the control unit 11 reads the voice data from the storage unit 13 and outputs the voice by the speaker.
  • step S405 the control unit 11 starts measuring the walking speed of the subject carrying the information processing device 10 by the walking speed sensor of the sensor unit 14. afterwards.
  • step S406 the control unit 11 waits for the elapse of a predetermined time (20 seconds in this embodiment) (step S403: No).
  • step S406 if the predetermined time (20 seconds in this embodiment) has elapsed (step S403: Yes). The process proceeds to step S407.
  • step S407 the control unit 11 stops the measurement of the walking speed of the subject carrying the information processing device 10 by the walking speed sensor of the sensor unit 14.
  • step S408 the control unit 11 uses the speaker of the input / output unit 12 to output the end guidance of the guidance for the subject to proceed with the first action by voice.
  • the control unit 11 outputs a voice saying "Stop walking and take your smartphone away from your ears" by the speaker.
  • step S409 the control unit 11 displays the display screen of FIG. 3B on the touch panel 121.
  • FIG. 3B is a diagram showing an example of a screen for displaying the first result, which is the result of the first action.
  • the control unit 11 displays the content related to the measurement currently being executed in the display area 130 of the touch panel 121. In the example of FIG.
  • the control unit 11 displays the characters "single task-walking" in the display area 130.
  • the control unit 11 displays the first grade in the display area 133 of the touch panel 121.
  • the control unit 11 displays the characters "measurement result 11.0 seconds, measuring the walking time of about 10 steps” in the display area 133.
  • the control unit 11 displays the home screen of FIG. 2 by detecting a predetermined operation (for example, touching a button (not shown) on the touch panel 121).
  • FIG. 5A is a diagram showing an example of a screen displayed when the selection button 126 is touched on the display screen of FIG. 2.
  • FIG. 6 is a flowchart showing the measurement process of the second behavior.
  • the control unit 11 detects that the selection button 126 of the touch panel 121 is touched by the subject.
  • the control unit 11 displays the display screen of FIG. 5A on the touch panel 121.
  • the control unit 11 displays the content related to the measurement currently being executed in the display area 130 of the touch panel 121.
  • the control unit 11 displays the characters "single task-calculation" in the display area 130.
  • the control unit 11 displays a description of the second action in the display area 131 of the touch panel 121.
  • the control unit 11 displays the characters “measure the calculation speed” in the display area 131.
  • the control unit 11 displays a guide for the subject to proceed with the second action in the display area 132 of the touch panel 121.
  • the control unit 11 displays the characters "when the smartphone is touched to the ear like during a call, an instruction voice is played" in the display area 132.
  • step S603 the control unit 11 determines whether the subject's ear is close to the information processing device 10 which is a smartphone by the distance sensor of the sensor unit 14.
  • step S603: No the subject waits in step S603.
  • step S603: Yes the process proceeds to step S604.
  • step S604 the control unit 11 voices the start guidance of the guidance for the subject to proceed with the second action by the speaker of the input / output unit 12. In this embodiment, the control unit 11 outputs a voice saying "I will start measuring the calculation speed from now on 3, 2, 1, start 100-7?" By the speaker.
  • the control unit 11 outputs "100-7" by voice through the speaker as the first question of the calculation problem.
  • the control unit 11 receives the voice input as the answer to the calculation problem by the subject by the microphone of the input / output unit 12, the control unit 11 asks the next question by the voice output by the speaker.
  • a plurality of voice data of the calculation problem are stored in advance in the storage unit 13, and the control unit 11 randomly extracts the problem from the storage unit 13 and gives a question.
  • the questions of the calculation problem only the problem of subtraction shall be asked.
  • the calculation problem may be a problem in which a second predetermined number (for example, 7) is continuously subtracted from the first predetermined number (for example, 100).
  • the voice output of the question is performed only for the first "100-7"
  • the subject sequentially voices 93, 86, 79, 72, 65, which is the number obtained by subtracting 7 from 100. Answer.
  • step S605 the control unit 11 determines whether a predetermined time (here, 20 seconds) has elapsed or whether all the calculation problems (here, 5 questions) have been answered. If No in step S605, the control unit 11 continues to ask questions by the speaker. If Yes in step S605, the control unit 11 proceeds to step S606. If the calculation problem is a problem in which only the first "100-7" is output as voice and then 7 is subtracted in order, if No in step S605, the control unit 11 does not output voice and in step S605. You may wait.
  • a predetermined time here, 20 seconds
  • all the calculation problems here, 5 questions
  • step S606 the control unit 11 uses the speaker of the input / output unit 12 to output the end guidance of the guidance for the subject to proceed with the second action by voice.
  • the control unit 11 outputs a voice saying "Please move the smartphone away from your ears" by the speaker.
  • step S607 the control unit 11 displays the display screen of FIG. 5B on the touch panel 121.
  • FIG. 5B is a diagram showing an example of a screen for displaying the second result, which is the result of the second action.
  • the control unit 11 displays the content related to the measurement currently being executed in the display area 130 of the touch panel 121. In the example of FIG. 5B, the control unit 11 displays the characters "single task-calculation" in the display area 130.
  • the control unit 11 displays the second result in the display area 133 of the touch panel 121.
  • the control unit 11 displays the characters "measurement result 11.0 seconds, subtracted time is measured" in the display area 133.
  • the control unit 11 displays the home screen of FIG. 2 by detecting a predetermined operation (for example, touching a button (not shown) on the touch panel 121).
  • FIG. 7A is a diagram showing an example of a screen displayed when the selection button 128 is touched on the display screen of FIG. 2.
  • FIG. 8 is a flowchart showing a measurement process when the first action and the second action are performed in parallel.
  • step S801 the control unit 11 detects that the selection button 128 of the touch panel 121 is touched by the subject.
  • step S802 the control unit 11 displays the display screen of FIG. 7A on the touch panel 121.
  • the control unit 11 displays the content related to the measurement currently being executed in the display area 130 of the touch panel 121.
  • the control unit 11 displays the characters “dual task” in the display area 130.
  • the control unit 11 displays a description of an action (hereinafter referred to as “dual task”) in which the first action and the second action are performed in parallel in the display area 131 of the touch panel 121.
  • the control unit 11 displays the characters “Measure for mild dementia” in the display area 131.
  • the control unit 11 displays guidance for the subject to proceed with the dual task in the display area 132 of the touch panel 121.
  • the control unit 11 displays the characters "when the smartphone is touched to the ear like during a call, an instruction voice is played" in the display area 132.
  • step S803 the control unit 11 determines whether the subject's ear is close to the information processing device 10 which is a smartphone by the distance sensor of the sensor unit 14.
  • step S803: No the subject waits in step S803.
  • step S803: Yes the process proceeds to step S804.
  • step S804 the control unit 11 starts measuring the walking speed of the subject carrying the information processing device 10 by the walking speed sensor of the sensor unit 14.
  • step S805 the control unit 11 voices the start guidance of the guidance for the subject to proceed with the dual task by the speaker of the input / output unit 12.
  • control unit 11 uses a speaker to output a voice saying, "I will start measuring the calculation speed from now on. 3, 2, 1, start. Keep pulling 100 to 7 while walking.”
  • step S806 the control unit 11 determines whether a predetermined time (here, 20 seconds) has elapsed or whether a predetermined number of questions (here, 5 questions) have been answered. If No in step S806, the control unit 11 waits in step S806. If Yes in step S806, the control unit 11 proceeds to step S807.
  • a predetermined time here, 20 seconds
  • a predetermined number of questions here, 5 questions
  • step S807 the control unit 11 stops the measurement of the walking speed of the subject carrying the information processing device 10 by the walking speed sensor of the sensor unit 14. Subsequently, in step S808, the control unit 11 voices the end guidance of the guidance for the subject to proceed with the dual task by the speaker of the input / output unit 12. In this embodiment, the control unit 11 outputs a voice saying "Stop walking and take your smartphone away from your ears" by the speaker. After that, in step S809, the control unit 11 displays the display screen of FIG. 7B on the touch panel 121.
  • FIG. 7B shows the results of the first action, which is the result of the first action in the single task, the second result, which is the result of the second action in the single task, and the result of the first action in the dual task.
  • the control unit 11 displays the content related to the measurement currently being executed in the display area 130 of the touch panel 121.
  • the control unit 11 displays the characters “dual task” in the display area 130.
  • the control unit 11 displays the first grade, the second grade, the third grade, and the fourth grade in the display area 133 of the touch panel 121.
  • the first result is "walking speed 11.0 seconds”
  • the second result is “calculation speed 11.0 seconds”
  • the third result is "walking speed 20”. It is "0.0 seconds”
  • the fourth result is "calculation speed 20.0 seconds”.
  • control unit 11 displays the characters "the time required for walking has increased by 9.0 seconds during the dual task" in the display area 133. After that, the control unit 11 displays the home screen of FIG. 2 by detecting a predetermined operation (for example, touching a button (not shown) on the touch panel 121).
  • a predetermined operation for example, touching a button (not shown) on the touch panel 121.
  • the required time is compared and displayed between the case where the walking and the calculation are performed independently and the case where the walking and the calculation are performed at the same time, and the time required is compared and displayed according to the comparison of the time. It is possible to estimate the deterioration of cognitive function. As a result, the information processing device 10 of this embodiment can easily measure the cognitive function.
  • the control unit 11 vibrates the information processing device 10 by the drive unit 15 at, for example, the start timing of steps S404, S405, S604, S804, and S805, and the end timing of steps S407, S408, S608, S807, and S808. It may be made to notify the subject of the situation.
  • An object of the present invention is to supply a storage medium containing a program code (computer program) that realizes the functions of the above-described embodiment to a system or device, and a program in which the computer of the supplied system or device is stored in the storage medium. It is also achieved by reading and executing the code.
  • the program code itself read from the storage medium realizes the function of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.
  • the computer functions as each processing unit by executing the program, but even if a part or all of the processing is configured by a dedicated electronic circuit (hardware). I do not care.
  • the present invention is not limited to the specific examples described, but includes replacement of each configuration of each embodiment, and various within the scope of the present invention described in the claims. It can be transformed and changed.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Physiology (AREA)
  • Molecular Biology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Epidemiology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Primary Health Care (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

本発明は、簡単に認知機能を測定可能な情報処理装置を提供することを目的とする。本発明は、情報処理装置であって、被験者が第1の行動を実行したときの、該第1の行動の成績である第1の成績を測定する第1の測定手段と、前記被験者が前記第1の行動と異なる第2の行動を実行したときの、該第2の行動の成績である第2の成績を測定する第2の測定手段と、前記被験者が前記第1の行動と前記第2の行動とを並列に実行したときの、該第1の行動の成績である第3の成績及び該第2の行動の成績である第4の成績を測定する第3の測定手段と、前記第1の成績、前記第2の成績、前記第3の成績及び前記第4の成績を被験者に提供する提供手段と、を備えたことを特徴とする。

Description

情報処理装置、方法、及びプログラム
 本発明は、情報処理装置、方法、及びプログラムに関し、詳しくは、対象者の認知機能の低下等の測定に関する。
 最近では、体力の衰えの確認などのために、対象者の各種能力を測定する要望が高まっている。例えば特許文献1には、対象者の体力を測定する体力測定方法が開示されている。この特許文献1に記載の体力測定方法では、対象者の生活空間における動作に関する生活データに基づき、対象者の体力を推定するようにしている。ここで、対象者の生活空間における動作に関する生活データとは、例えばドアノブを握る力のデータである。
特開2019-204451号公報
 特許文献1に記載の技術によれば、対象者の能力のうちの体力を推定することが出来るが、他の能力の測定は出来ない。最近では、認知機能について注目され、その測定が必要になってきた。しかしながら、認知機能の測定のためには複雑なテストを受ける必要があり、被験者の負担が大きいという問題があった。このため、簡単な方法で認知機能を測定可能な技術の提供が望まれていた。
 本発明は、簡単に認知機能を測定可能な情報処理装置を提供することを目的とする。
 上記課題を解決するために、本発明は、情報処理装置であって、被験者が第1の行動を実行したときの、該第1の行動の成績である第1の成績を測定する第1の測定手段と、前記被験者が前記第1の行動と異なる第2の行動を実行したときの、該第2の行動の成績である第2の成績を測定する第2の測定手段と、前記被験者が前記第1の行動と前記第2の行動とを並列に実行したときの、該第1の行動の成績である第3の成績及び該第2の行動の成績である第4の成績を測定する第3の測定手段と、前記第1の成績、前記第2の成績、前記第3の成績及び前記第4の成績を被験者に提供する提供手段と、を備えたことを特徴とする。
 本発明によれば、簡単に認知機能を測定可能な情報処理装置を提供することが出来る。
本発明の実施例1に係る情報処理装置の構成の一例を示すブロック図である。 情報処理装置10の表示画面の一例を示す図である。 (A)は、図2の表示画面において選択ボタン125がタッチされた場合に表示する画面の一例を示す図である。(B)は、第1の行動の成績である第1の成績を表示する画面の一例を示す図である。 第1の行動の測定処理を示すフローチャートである。 (A)は、図2の表示画面において選択ボタン126がタッチされた場合に表示する画面の一例を示す図である。(B)は、第2の行動の成績である第2の成績を表示する画面の一例を示す図である。 第2の行動の測定処理を示すフローチャートである。 (A)は、図2の表示画面において選択ボタン128がタッチされた場合に表示する画面の一例を示す図である。(B)は、シングルタスクにおける第1の行動の成績である第1の成績、シングルタスクにおける第2の行動の成績である第2の成績、デュアルタスクにおける第1の行動の成績である第3の成績、及びデュアルタスクにおける第2の行動の成績である第4の成績を表示する画面の一例を示す図である。 第1の行動及び第2の行動を並列して行う場合の測定処理を示すフローチャートである。
 以下、本発明を実施するための形態について、図面を参照して詳細に説明する。
 図1は、本発明の実施例1に係る情報処理装置の構成の一例を示すブロック図である。情報処理装置10は、全体の動作を制御する制御部11と、各種の入出力を行う入出力部12と、各種データやプログラム等を記憶する記憶部13と、各種状態を検出するセンサ部14と、例えば偏心モータを駆動することで情報処理装置10を振動させる駆動部15と、外部との通信を行う通信部16とを有し、各構成同士が信号を送受信可能なように電気的に接続されて構成されている。
 情報処理装置10は、例えばコンピュータであり、スマートフォン、PDA、タブレット、又はノートパソコンなどの、被験者が携帯可能な装置であることが望ましい。ただし、情報処理装置10は、被験者が携帯せずに設置位置に固定されたコンピュータでもよい。この場合、被験者は、コンピュータの操作、コンピュータへの情報の入力、コンピュータからの情報の受け取りを音声で行うようにすればよい。またこの場合、後述する被験者が歩行した歩数の検出は、コンピュータに設けたカメラで被験者を撮影し、画像解析で歩数を求めるようにしてもよい。PDAは、Personal Digital Assistantの略称である。本実施例では、情報処理装置10はスマートフォンである。
 制御部11は、例えばCPU、MCU又はMPUと呼ばれる装置であり、例えば記憶部13に記憶されたプログラムが実行される。CPUはCentral Processing Unitの略称である。MCUはMicro Controller Unitの略称である。MPUはMicro Processor Unitの略称である。
 入出力部12は、情報処理装置10を操作する被験者に対する入出力を行う装置である。入出力部12は、ディスプレイ、キーボード、マウス、ボタン、タッチパネル、マイク、及びスピーカなどによる、情報や信号の入出力を行う。
 記憶部13は、例えば、ROM、RAM、HDD、又はフラッシュメモリといった装置であり、制御部11で実行するプログラムや各種データを記憶する。ROMは、Read Only Memoryの略称である。RAMは、Random Access Memoryの略称である。HDDは、Hard Disk Driveの略称である。
 センサ部14は、例えば、距離センサ、ジャイロセンサ、加速度センサ、方位計、及びGPS受信機を含む。制御部11は、例えば、センサ部14の距離センサによって、情報処理装置10に操作者が近接していることを検出する。制御部11は、例えば、センサ部14の加速度センサによって所定の加速度を検出したことにより、情報処理装置10を携帯する被験者が歩行して1歩進んだことを検出する。制御部11は、GPS受信機によって情報処理装置10を携帯する被験者の移動距離を検出するようにしてもよい。なお、センサ部14は、歩速センサを含む。歩速センサは、センサ部14が有する各センサやタイマーを用いて、情報処理装置10を携帯する被験者が歩行する速度を測定する。
 駆動部15は、例えば偏心モータを含む。制御部11は、例えば、駆動部15の偏心モータを駆動することで、情報処理装置10を振動させ、情報処理装置10の携帯者に対する報知を行うことが出来る。通信部16は、外部との通信を行う。通信部16による通信は、有線通信でもよいし、無線通信でもよい。通信部16による通信は、如何なる通信方式でもよい。制御部11は、通信部16によって、音声やデータの送受信を行うことが出来る。制御部11は、後述する測定結果を、通信部16によって外部機器に送信するようにしてもよい。
 図2は、情報処理装置10の表示画面の一例を示す図である。本実施例では、情報処理装置10の入出力部12は、タッチパネル121を有する。制御部11は、操作者によるタッチパネル121の操作に応じて、認知機能測定に係る処理を実行するプログラムを記憶部13から読み出して実行する。制御部11は、認知機能測定に係る処理の実行により、図2に示す画面をタッチパネル121に表示する。
 制御部11は、タッチパネル121の表示エリア122に、現在実行中のプログラムに関連する内容を表示する。図2の例では、制御部11は、表示エリア122に、「軽度認知症チェック!」という文字を表示している。被験者が認知機能の測定に拒否反応を示す場合には、情報処理装置10の操作者の操作に応じて、制御部11は、タッチパネル121に「軽度認知症チェック!」という文字を表示しない設定を行うようにしてもよい。
 制御部11は、タッチパネル121の表示エリア123に、現在の表示画面の種類に関連する内容を表示する。図2の例では、制御部11は、表示エリア123に、「ホーム」という文字を表示している。図2の例では、制御部11が表示エリア123に「ホーム」と表示することで、図2の画面がホーム画面すなわち、プログラムを実行したときに中心となる画面(例えば最初に表示する画面)であることを示している。
 制御部11は、タッチパネル121の表示エリア124に、認知機能の測定に係る測定メニューを表示する。制御部11は、表示エリア124に、シングルタスクすなわち被験者が一つの行動を行う際の測定に関するメニューを表示する。図2の例では、制御部11は、表示エリア124に、第1の行動としての歩行を被験者が行う場合の選択ボタン125を表示している。また、図2の例では、制御部11は、表示エリア124に、第2の行動としての計算を被験者が行う場合の選択ボタン126を表示している。
 制御部11は、タッチパネル121の表示エリア127に、認知機能の測定に係る測定メニューを表示する。制御部11は、表示エリア127に、デュアルタスクすなわち被験者が並列に二つの行動を行う際の測定に関するメニューを表示する。図2の例では、制御部11は、表示エリア127に、第1の行動としての歩行及び第2の行動としての計算を被験者が行う場合の選択ボタン128を表示している。
 制御部11は、タッチパネル121の表示エリア129に、認知機能の測定履歴に関する選択ボタン129を表示する。制御部11は、選択ボタン129がタッチされたことを検知すると、記憶部13に記憶されている測定履歴をタッチパネル121に表示する。測定履歴の記憶部13への記憶については、後述する。
 (第1の測定手段)
 図3(A)は、図2の表示画面において選択ボタン125がタッチされた場合に表示する画面の一例を示す図である。図4は、第1の行動の測定処理を示すフローチャートである。ステップS401において、制御部11は、被験者によりタッチパネル121の選択ボタン125がタッチされたことを検知する。ステップS402において、制御部11は、タッチパネル121に図3(A)の表示画面を表示する。制御部11は、タッチパネル121の表示エリア130に、現在実行中の測定に関連する内容を表示する。図3(A)の例では、制御部11は、表示エリア130に、「シングルタスク-歩行」という文字を表示している。制御部11は、タッチパネル121の表示エリア131に、第1の行動の説明を表示する。図3(A)の例では、制御部11は、表示エリア131に、「歩行速度について測定します」という文字を表示している。制御部11は、タッチパネル121の表示エリア132に、被験者が第1の行動を進める上での案内を表示する。図3(A)の例では、制御部11は、表示エリア132に、「通話時のように耳にスマートフォンを当てると指示音声が流れます」という文字を表示している。
 続いて、ステップS403において、制御部11は、センサ部14の距離センサによって、被験者の耳がスマートフォンである情報処理装置10に近接しているかを判断する。被験者の耳がスマートフォンである情報処理装置10に近接していない場合(ステップS403:No)は、ステップS403で待つ。被験者の耳がスマートフォンである情報処理装置10に近接している場合(ステップS403:Yes)は、ステップS404に進む。ステップS404において、制御部11は、入出力部12のスピーカによって、被験者が第1の行動を進める上での案内のうち開始案内を音声で出力する。本実施例では、制御部11は、スピーカによって「これから歩行速度の測定を始めます 3、2、1、スタート いつものように歩いてください」と音声出力する。音声データは、記憶部13に予め記憶されており、制御部11は、記憶部13から音声データを読み出して、スピーカによって音声出力する。
 続いて、ステップS405において、制御部11は、センサ部14の歩速センサによって、情報処理装置10を携帯する被験者の歩行速度の測定を開始する。その後。ステップS406において、制御部11は、所定時間(本実施例では20秒)の経過を待つ(ステップS403:No)。ステップS406において、制御部11は、所定時間(本実施例では20秒)を経過したならば(ステップS403:Yes)。ステップS407に進む。ステップS407において、制御部11は、センサ部14の歩速センサによって、情報処理装置10を携帯する被験者の歩行速度の測定を停止する。
 続いて、ステップS408において、制御部11は、入出力部12のスピーカによって、被験者が第1の行動を進める上での案内のうち終了案内を音声で出力する。本実施例では、制御部11は、スピーカによって「歩くのをやめて 耳からスマートフォンを離してください」と音声出力する。その後、ステップS409において、制御部11は、タッチパネル121に図3(B)の表示画面を表示する。図3(B)は、第1の行動の成績である第1の成績を表示する画面の一例を示す図である。制御部11は、タッチパネル121の表示エリア130に、現在実行中の測定に関連する内容を表示する。図3(B)の例では、制御部11は、表示エリア130に、「シングルタスク-歩行」という文字を表示している。制御部11は、タッチパネル121の表示エリア133に、第1の成績を表示する。図3(B)の例では、制御部11は、表示エリア133に、「測定結果 11.0秒 10歩ほど歩いた時間を計測」という文字を表示している。その後、制御部11は、所定の操作(例えばタッチパネル121の不図示のボタンのタッチ)を検出することにより、図2のホーム画面を表示する。
 (第2の測定手段)
 図5(A)は、図2の表示画面において選択ボタン126がタッチされた場合に表示する画面の一例を示す図である。図6は、第2の行動の測定処理を示すフローチャートである。ステップS601において、制御部11は、被験者によりタッチパネル121の選択ボタン126がタッチされたことを検知する。ステップS602において、制御部11は、タッチパネル121に図5(A)の表示画面を表示する。制御部11は、タッチパネル121の表示エリア130に、現在実行中の測定に関連する内容を表示する。図5(A)の例では、制御部11は、表示エリア130に、「シングルタスク-計算」という文字を表示している。制御部11は、タッチパネル121の表示エリア131に、第2の行動の説明を表示する。図5(A)の例では、制御部11は、表示エリア131に、「計算速度について測定します」という文字を表示している。制御部11は、タッチパネル121の表示エリア132に、被験者が第2の行動を進める上での案内を表示する。図5(A)の例では、制御部11は、表示エリア132に、「通話時のように耳にスマートフォンを当てると指示音声が流れます」という文字を表示している。
 続いて、ステップS603において、制御部11は、センサ部14の距離センサによって、被験者の耳がスマートフォンである情報処理装置10に近接しているかを判断する。被験者の耳がスマートフォンである情報処理装置10に近接していない場合(ステップS603:No)は、ステップS603で待つ。被験者の耳がスマートフォンである情報処理装置10に近接している場合(ステップS603:Yes)は、ステップS604に進む。ステップS604において、制御部11は、入出力部12のスピーカによって、被験者が第2の行動を進める上での案内のうち開始案内を音声で出力する。本実施例では、制御部11は、スピーカによって「これから計算速度の測定を始めます 3、2、1、スタート 100-7は?」と音声出力する。ここでは、制御部11は、計算問題の第1問としてスピーカによって「100-7」を音声出力している。制御部11は、入出力部12のマイクによって、被験者による計算問題の解答としての音声入力を受け付けた場合は、次の問題をスピーカによる音声出力で出題する。計算問題の音声データは、記憶部13に予め複数記憶されており、制御部11は、その中からランダムに問題を抽出して出題する。なお、計算問題の出題は、引き算の問題のみを出題するものとする。なお、計算問題は、第1の所定数(例えば100)から第2の所定数(例えば7)を引き続ける問題としてもよい。この場合、出題の音声出力は最初の「100-7」だけ行い、これに対して、被験者は、100から7を順に引いた数である、93、86、79、72、65を順に音声で解答する。
 続いて、ステップS605において、制御部11は、所定時間(ここでは20秒)を経過したか、又はすべての計算問題(ここでは5問)を解答したかを判断する。ステップS605においてNoの場合、制御部11は、スピーカによって出題を続ける。ステップS605においてYesの場合、制御部11は、ステップS606に進む。計算問題が最初の「100-7」だけを音声出力して以降は順に7を引くような問題の場合には、ステップS605においてNoの場合、制御部11は、音声出力せずにステップS605で待つようにしてもよい。
 ステップS606において、制御部11は、入出力部12のスピーカによって、被験者が第2の行動を進める上での案内のうち終了案内を音声で出力する。本実施例では、制御部11は、スピーカによって「耳からスマートフォンを離してください」と音声出力する。その後、ステップS607において、制御部11は、タッチパネル121に図5(B)の表示画面を表示する。図5(B)は、第2の行動の成績である第2の成績を表示する画面の一例を示す図である。制御部11は、タッチパネル121の表示エリア130に、現在実行中の測定に関連する内容を表示する。図5(B)の例では、制御部11は、表示エリア130に、「シングルタスク-計算」という文字を表示している。制御部11は、タッチパネル121の表示エリア133に、第2の成績を表示する。図5(B)の例では、制御部11は、表示エリア133に、「測定結果 11.0秒 引き算した時間を計測」という文字を表示している。その後、制御部11は、所定の操作(例えばタッチパネル121の不図示のボタンのタッチ)を検出することにより、図2のホーム画面を表示する。
 (第3の測定手段)
 図7(A)は、図2の表示画面において選択ボタン128がタッチされた場合に表示する画面の一例を示す図である。図8は、第1の行動及び第2の行動を並列して行う場合の測定処理を示すフローチャートである。ステップS801において、制御部11は、被験者によりタッチパネル121の選択ボタン128がタッチされたことを検知する。ステップS802において、制御部11は、タッチパネル121に図7(A)の表示画面を表示する。制御部11は、タッチパネル121の表示エリア130に、現在実行中の測定に関連する内容を表示する。図7(A)の例では、制御部11は、表示エリア130に、「デュアルタスク」という文字を表示している。制御部11は、タッチパネル121の表示エリア131に、第1の行動及び第2の行動を並列して行う行動(以下「デュアルタスク」という)の説明を表示する。図7(A)の例では、制御部11は、表示エリア131に、「軽度認知症について測定します」という文字を表示している。制御部11は、タッチパネル121の表示エリア132に、被験者がデュアルタスクを進める上での案内を表示する。図7(A)の例では、制御部11は、表示エリア132に、「通話時のように耳にスマートフォンを当てると指示音声が流れます」という文字を表示している。
 続いて、ステップS803において、制御部11は、センサ部14の距離センサによって、被験者の耳がスマートフォンである情報処理装置10に近接しているかを判断する。被験者の耳がスマートフォンである情報処理装置10に近接していない場合(ステップS803:No)は、ステップS803で待つ。被験者の耳がスマートフォンである情報処理装置10に近接している場合(ステップS803:Yes)は、ステップS804に進む。ステップS804において、制御部11は、センサ部14の歩速センサによって、情報処理装置10を携帯する被験者の歩行速度の測定を開始する。続くステップS805において、制御部11は、入出力部12のスピーカによって、被験者がデュアルタスクを進める上での案内のうち開始案内を音声で出力する。本実施例では、制御部11は、スピーカによって「これから計算速度の測定を始めます 3、2、1、スタート 歩きながら100から7を引き続けてください」と音声出力する。これに対して、被験者は、100から7を順に引いた数である、93、86、79、72、65を順に音声で解答する。
 続いて、ステップS806において、制御部11は、所定時間(ここでは20秒)を経過したか、又は所定問題数(ここでは5問)の計算問題を解答したかを判断する。ステップS806においてNoの場合、制御部11は、ステップS806で待つ。ステップS806においてYesの場合、制御部11は、ステップS807に進む。
 ステップS807において、制御部11は、センサ部14の歩速センサによって、情報処理装置10を携帯する被験者の歩行速度の測定を停止する。続いて、ステップS808において、制御部11は、入出力部12のスピーカによって、被験者がデュアルタスクを進める上での案内のうち終了案内を音声で出力する。本実施例では、制御部11は、スピーカによって「歩くのをやめて 耳からスマートフォンを離してください」と音声出力する。その後、ステップS809において、制御部11は、タッチパネル121に図7(B)の表示画面を表示する。図7(B)は、シングルタスクにおける第1の行動の成績である第1の成績、シングルタスクにおける第2の行動の成績である第2の成績、デュアルタスクにおける第1の行動の成績である第3の成績、及びデュアルタスクにおける第2の行動の成績である第4の成績を表示する画面の一例を示す図である。制御部11は、タッチパネル121の表示エリア130に、現在実行中の測定に関連する内容を表示する。図7(B)の例では、制御部11は、表示エリア130に、「デュアルタスク」という文字を表示している。制御部11は、タッチパネル121の表示エリア133に、第1の成績、第2の成績、第3の成績、及び第4の成績を表示する。図7(B)の例では、第1の成績は「歩行速度11.0秒」であり、第2の成績は「計算速度11.0秒」であり、第3の成績は「歩行速度20.0秒」であり、第4の成績は「計算速度20.0秒」である。また、図7(B)の例では、制御部11は、表示エリア133に、「歩行にかかる時間がデュアルタスク時では9.0秒増加しています」という文字を表示している。その後、制御部11は、所定の操作(例えばタッチパネル121の不図示のボタンのタッチ)を検出することにより、図2のホーム画面を表示する。
 本実施例の情報処理装置10によれば、歩行及び計算を単独で行った場合と、歩行と計算を同時に行った場合とで、要した時間を比較して表示し、この時間の比較に応じて認知機能の劣化を推定することが出来る。このことにより、本実施例の情報処理装置10は簡単に認知機能を測定することが出来る。
 なお、制御部11は、例えばステップS404、S405、S604、S804、S805の開始のタイミング、及びステップS407、S408、S608、S807、S808の終了のタイミングで、駆動部15により情報処理装置10を振動させ、状況を被験者に報知するようにしてもよい。
 以上、本発明の好ましい実施例について説明したが、本発明は、上述の実施例に限定されるものではない。本発明の目的は、上述の実施例の機能を実現するプログラムコード(コンピュータプログラム)を格納した記憶媒体をシステムあるいは装置に供給し、供給されたシステムあるいは装置のコンピュータが記憶媒体に格納されたプログラムコードを読み出し実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が上述した実施例の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、上述した実施形態では、コンピュータがプログラムを実行することにより、各処理部として機能するものとしたが、処理の一部または全部を専用の電子回路(ハードウェア)で構成するようにしても構わない。本発明は、説明された特定の実施例に限定されるものではなく、各実施例の各構成同士の置換を含み、特許請求の範囲に記載された本発明の趣旨の範囲内において、種々の変形・変更が可能である。
 本出願は、2020年2月21日に出願された日本特許出願である特願2020-28228号に基づく優先権を主張し、当該日本特許出願に記載されたすべての記載内容を援用する。
10 情報処理装置
11 制御部
12 入出力部
13 記憶部
14 センサ部
15 駆動部
16 通信部

 

Claims (8)

  1.  被験者が第1の行動を実行したときの、該第1の行動の成績である第1の成績を測定する第1の測定手段と、
     前記被験者が前記第1の行動と異なる第2の行動を実行したときの、該第2の行動の成績である第2の成績を測定する第2の測定手段と、
     前記被験者が前記第1の行動と前記第2の行動とを並列に実行したときの、該第1の行動の成績である第3の成績及び該第2の行動の成績である第4の成績を測定する第3の測定手段と、
     前記第1の成績、前記第2の成績、前記第3の成績及び前記第4の成績を被験者に提供する提供手段と、
     を備えたことを特徴とする情報処理装置。
  2.  前記第1の行動は歩行であり、
     前記第2の行動は計算である、
     ことを特徴とする請求項1に記載の情報処理装置。
  3.  前記第1の成績及び前記第3の成績は、所定歩数の歩行を行うのに要した時間であり、
     前記第2の成績及び前記第4の成績は、所定数の計算の実行に要した時間である、
     ことを特徴とする請求項2に記載の情報処理装置。
  4.  前記第2の測定手段、及び前記第3の測定手段は、前記計算を音声で出題し、該計算の解答を音声で受け付ける、
     ことを特徴とする請求項2又は3に記載の情報処理装置。
  5.  前記第1の測定手段、前記第2の測定手段、及び前記第3の測定手段は、前記第1の行動及び前記第2の行動の案内を音声で行う、
     ことを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6.  前記第1の成績、前記第2の成績、前記第3の成績及び前記第4の成績の履歴を記憶する記憶手段を更に備え、
     前記提供手段は、前記記憶手段に記憶された前記履歴を被験者に提供する、
     ことを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7.  情報処理装置で実行される方法であって、
     被験者が第1の行動を実行したときの、該第1の行動の成績である第1の成績を測定する第1の測定工程と、
     前記被験者が前記第1の行動と異なる第2の行動を実行したときの、該第2の行動の成績である第2の成績を測定する第2の測定工程と、
     前記被験者が前記第1の行動と前記第2の行動とを並列に実行したときの、該第1の行動の成績である第3の成績及び該第2の行動の成績である第4の成績を測定する第3の測定工程と、
     前記第1の成績、前記第2の成績、前記第3の成績及び前記第3の成績を被験者に提供する提供工程と、
     を備えたことを特徴とする方法。
  8.  請求項1乃至6のいずれか1項に記載の情報処理装置の各手段としてコンピュータを機能させるためのプログラム。

     
PCT/JP2021/003282 2020-02-21 2021-01-29 情報処理装置、方法、及びプログラム WO2021166599A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020028228A JP2023046415A (ja) 2020-02-21 2020-02-21 情報処理装置、方法、及びプログラム
JP2020-028228 2020-02-21

Publications (1)

Publication Number Publication Date
WO2021166599A1 true WO2021166599A1 (ja) 2021-08-26

Family

ID=77390959

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/003282 WO2021166599A1 (ja) 2020-02-21 2021-01-29 情報処理装置、方法、及びプログラム

Country Status (3)

Country Link
JP (1) JP2023046415A (ja)
TW (1) TW202139112A (ja)
WO (1) WO2021166599A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015041097A (ja) * 2013-08-23 2015-03-02 株式会社元気広場 認知機能低下予防装置、及び、認知機能低下予防装置の制御方法
JP2018185501A (ja) * 2017-08-25 2018-11-22 株式会社mediVR リハビリテーション支援システム、リハビリテーション支援方法およびリハビリテーション支援プログラム
KR20200002009A (ko) * 2018-06-28 2020-01-07 (의료)길의료재단 인지 능력 훈련을 위한 게임장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015041097A (ja) * 2013-08-23 2015-03-02 株式会社元気広場 認知機能低下予防装置、及び、認知機能低下予防装置の制御方法
JP2018185501A (ja) * 2017-08-25 2018-11-22 株式会社mediVR リハビリテーション支援システム、リハビリテーション支援方法およびリハビリテーション支援プログラム
KR20200002009A (ko) * 2018-06-28 2020-01-07 (의료)길의료재단 인지 능력 훈련을 위한 게임장치

Also Published As

Publication number Publication date
TW202139112A (zh) 2021-10-16
JP2023046415A (ja) 2023-04-05

Similar Documents

Publication Publication Date Title
US20110134034A1 (en) Input Device and Method, and Character Input Method
CN105391764A (zh) 用于监测乐器学习的方法及装置
JP2015166890A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
KR20130080847A (ko) 전자 음향 신호 발생 장치 및 전자 음향 신호 발생 방법
CN110308956A (zh) 一种应用界面显示方法、装置及移动终端
US11165898B2 (en) Mobile terminal, vibration control method and device, and storage medium
JP2019056970A (ja) 情報処理装置、人工知能選択方法及び人工知能選択プログラム
JP2015215696A (ja) 電子機器、プログラム及び電子機器における警告方法
KR20200013581A (ko) 모듈형 인공지능 이동 로봇 제어 시스템 및 그 제어 방법
WO2021166599A1 (ja) 情報処理装置、方法、及びプログラム
CN103970909A (zh) 显示浏览器标签的方法及装置
JP2008305339A (ja) 操作時間測定装置及び方法、習熟度判定装置及び方法、プログラム
CN107572325A (zh) 轿厢操纵箱
JP6210884B2 (ja) 操作支援装置、操作支援方法及び操作支援プログラム
JP6216303B2 (ja) 測定装置及び測定方法
CN105975078B (zh) 用于可穿戴设备的手势识别方法及装置
JP2006058942A (ja) 環境負荷評価装置
KR101725541B1 (ko) 시계 및 제어방법
JP2018110709A (ja) 振動制御システム、振動制御装置、振動制御プログラムおよび振動制御方法
CN111613296A (zh) 一种评估在线认知行为疗法治疗效果的装置及使用方法
JP6292672B2 (ja) 操作支援装置、操作支援方法及び操作支援プログラム
JP5292244B2 (ja) 入力装置
JPWO2019043787A1 (ja) 振動制御装置
KR20180018629A (ko) 시계
KR102676531B1 (ko) 웨어러블 디바이스 및 그 제어방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21757205

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21757205

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP