JP7312981B2 - COGNITIVE FUNCTION EVALUATION DEVICE, OPERATION METHOD OF COGNITIVE FUNCTION EVALUATION DEVICE, AND PROGRAM - Google Patents

COGNITIVE FUNCTION EVALUATION DEVICE, OPERATION METHOD OF COGNITIVE FUNCTION EVALUATION DEVICE, AND PROGRAM Download PDF

Info

Publication number
JP7312981B2
JP7312981B2 JP2018225930A JP2018225930A JP7312981B2 JP 7312981 B2 JP7312981 B2 JP 7312981B2 JP 2018225930 A JP2018225930 A JP 2018225930A JP 2018225930 A JP2018225930 A JP 2018225930A JP 7312981 B2 JP7312981 B2 JP 7312981B2
Authority
JP
Japan
Prior art keywords
subject
cognitive function
load
foot
measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018225930A
Other languages
Japanese (ja)
Other versions
JP2020081763A (en
Inventor
知子 竹原
富男 佐藤
良雄 酒井
倫博 大藏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tanita Corp
University of Tsukuba NUC
Original Assignee
Tanita Corp
University of Tsukuba NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tanita Corp, University of Tsukuba NUC filed Critical Tanita Corp
Priority to JP2018225930A priority Critical patent/JP7312981B2/en
Publication of JP2020081763A publication Critical patent/JP2020081763A/en
Application granted granted Critical
Publication of JP7312981B2 publication Critical patent/JP7312981B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、被験者の認知機能を評価する認知機能評価装置、認知機能評価装置の作動方法、及びプログラムに関する。 TECHNICAL FIELD The present invention relates to a cognitive function evaluation device for evaluating the cognitive function of a subject, a method of operating the cognitive function evaluation device, and a program.

非特許文献1には、可動式の床面を備えた荷重測定器を用いて、被験者に立位姿勢を保持させた状態で床面を動かした際の重心動揺値を測定し、測定した重心動揺値から被験者の認知機能を評価する方法が開示されている。 Non-Patent Document 1 discloses a method of using a load measuring device having a movable floor to measure the sway of the center of gravity when the floor is moved while the subject is holding a standing posture, and evaluating the cognitive function of the subject from the measured sway of the center of gravity.

相馬優樹、他3名、「立位姿勢保持課題時の足圧中心動揺パラメータを用いた高齢者の認知機能の評価に関する検討」、日本認知症予防学会誌、Vol.5 No.1、2016Yuki Soma, 3 others, ``Study on the evaluation of cognitive function in the elderly using the foot pressure center sway parameter during the standing posture maintenance task'', Journal of the Japanese Society for Dementia Prevention, Vol.5 No.1, 2016

しかしながら、上述の重心動揺値は、被験者が静止した状態で測定された値であり、個人差が出にくい。そのため、例えば被験者の認知機能がわずかに低下しており、健常者の認知機能との差分が小さい場合には、被験者の認知機能を正確に評価することが難しいという問題がある。 However, the above-mentioned center-of-gravity sway value is a value measured with the subject standing still, and individual differences are unlikely to occur. Therefore, for example, when the subject's cognitive function is slightly degraded and the difference from the cognitive function of a healthy person is small, there is a problem that it is difficult to accurately evaluate the subject's cognitive function.

本発明は、このような問題点に着目してなされたものであり、被験者の認知機能をより精度よく評価する認知機能評価装置、認知機能評価装置の作動方法、及びプログラムを提供することを目的とする。 The present invention has been made with a focus on such problems, and aims to provide a cognitive function evaluation device, a method of operating the cognitive function evaluation device, and a program that more accurately evaluate the cognitive function of a subject.

本発明のある態様によれば、認知機能評価装置であって、荷重を測定する測定台と、被験者に対し、前記測定台上で所定の足の動作を行うことを指示する指示手段と、前記所定の足の動作によって生じる荷重の変化の基準を設定する設定手段と、前記被験者が前記指示に応じた動作を行うことによって前記測定台に加わる荷重の変化を測定する測定手段と、前記設定手段により設定された前記基準と、前記測定手段により測定された前記測定台に加わる荷重の変化の測定結果との乖離を算出する算出手段と、前記算出手段により算出された前記乖離の程度に基づいて前記被験者の認知機能を評価する評価手段と、を含む。 According to one aspect of the present invention, there is provided a cognitive function evaluation apparatus comprising: a measuring table for measuring a load; an instruction means for instructing a subject to perform a predetermined foot movement on the measuring table; a setting means for setting a reference for a change in load caused by the predetermined foot movement; and an evaluation means for evaluating the cognitive function of the subject based on the degree of the deviation calculated by the calculation means.

この態様によれば、所定の動作指示に応じた被験者の主体的な足の動きに基づいて認知機能を評価するので、被験者の個人差が出やすく、被験者の認知機能をより精度よく評価することができる。 According to this aspect, since the cognitive function is evaluated based on the subject's subjective leg movement in response to the predetermined action instruction, individual differences in the subject are likely to occur, and the subject's cognitive function can be evaluated more accurately.

図1は、本発明の実施形態における認知機能評価装置の外観を示す図である。FIG. 1 is a diagram showing the appearance of a cognitive function evaluation device according to an embodiment of the present invention. 図2は、認知機能評価装置の構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of a cognitive function evaluation device. 図3は、処理部の機能構成の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of a functional configuration of a processing unit; 図4は、認知機能評価方法の一例を示すフローチャートである。FIG. 4 is a flow chart showing an example of a cognitive function evaluation method. 図5は、認知機能の評価結果を示す画像の一例を示す図である。FIG. 5 is a diagram showing an example of an image showing evaluation results of cognitive function. 図6は、タイミング度測定方法の一例を示すフローチャートである。FIG. 6 is a flow chart showing an example of the timing degree measuring method. 図7Aは、タイミング課題中の指示画面(実行画面1)の一例を示す図である。FIG. 7A is a diagram showing an example of an instruction screen (execution screen 1) during the timing task. 図7Bは、タイミング課題中の指示画面(実行画面2)の一例を示す図である。FIG. 7B is a diagram showing an example of an instruction screen (execution screen 2) during the timing task. 図7Cは、タイミング課題中の指示画面(実行画面3)の一例を示す図である。FIG. 7C is a diagram showing an example of an instruction screen (execution screen 3) during the timing task. 図7Dは、タイミング課題中の指示画面(実行画面4)の一例を示す図である。FIG. 7D is a diagram showing an example of an instruction screen (execution screen 4) during the timing task. 図7Eは、タイミング課題中の指示画面(実行画面5)の一例を示す図である。FIG. 7E is a diagram showing an example of an instruction screen (execution screen 5) during the timing task. 図8は、タイミング度を算出する方法の一例を説明する図である。FIG. 8 is a diagram illustrating an example of a method of calculating the degree of timing. 図9は、タイミング動作の測定結果を表示する画面の一例を示す図である。FIG. 9 is a diagram showing an example of a screen displaying measurement results of timing operations. 図10は、スペーシング度測定方法の一例を示すフローチャートである。FIG. 10 is a flow chart showing an example of the spacing degree measuring method. 図11Aは、スペーシング課題中の指示画面(実行画面1)の一例を示す図である。FIG. 11A is a diagram showing an example of an instruction screen (execution screen 1) during the spacing exercise. 図11Bは、スペーシング課題中の指示画面(実行画面2)の一例を示す図である。FIG. 11B is a diagram showing an example of an instruction screen (execution screen 2) during the spacing exercise. 図11Cは、スペーシング課題中の指示画面(実行画面3)の一例を示す図である。FIG. 11C is a diagram showing an example of an instruction screen (execution screen 3) during the spacing exercise. 図11Dは、スペーシング課題中の指示画面(実行画面4)の一例を示す図である。FIG. 11D is a diagram showing an example of an instruction screen (execution screen 4) during the spacing exercise. 図12は、スペーシング度を算出する方法の一例を説明する図である。FIG. 12 is a diagram illustrating an example of a method of calculating the spacing degree. 図13は、スペーシング度を算出する方法の他の例を説明する図である。FIG. 13 is a diagram explaining another example of the method of calculating the spacing degree. 図14は、グレーディング度測定方法の一例を示すフローチャートである。FIG. 14 is a flow chart showing an example of a grading degree measuring method. 図15は、参照値として測定された被験者の荷重の変化を示す図である。FIG. 15 is a diagram showing changes in a subject's load measured as a reference value. 図16は、参照値として測定された被験者の荷重の変化の測定値を示す図である。FIG. 16 is a diagram showing measured values of changes in the subject's load measured as reference values. 図17は、グレーディング課題中の指示画面の一例を示す図である。FIG. 17 is a diagram showing an example of an instruction screen during a grading task. 図18は、グレーディング動作の測定結果の一例を示す図である。FIG. 18 is a diagram showing an example of the measurement result of the grading operation. 図19は、グレーディング課題中の指示画面の一例を示す図である。FIG. 19 is a diagram showing an example of an instruction screen during a grading task. 図20は、グレーディング動作の測定結果を表示する画面の一例を示す図である。FIG. 20 is a diagram showing an example of a screen displaying the measurement result of the grading operation. 図21は、グレーディング課題を行う測定台の他の構成例を示す図である。FIG. 21 is a diagram showing another configuration example of a measuring table for performing grading tasks.

以下、添付図面を参照しながら本発明の実施形態について説明する。 Embodiments of the present invention will be described below with reference to the accompanying drawings.

図1は、本発明の実施形態における認知機能評価装置1の外観を示す図である。 FIG. 1 is a diagram showing the appearance of a cognitive function evaluation device 1 according to an embodiment of the present invention.

認知機能評価装置1は、認知機能を評価する対象である被験者の下半身(足)の動作を測定し、測定した被験者の足の動作に基づいて被験者の認知機能を評価する装置である。 The cognitive function evaluation device 1 is a device that measures the motion of the lower body (foot) of a subject whose cognitive function is to be evaluated, and evaluates the cognitive function of the subject based on the measured leg motion of the subject.

本実施形態では、認知機能評価装置1は、まず、認知機能を評価する指標として被験者の足の巧緻性を測定する。ここにいう足の巧緻性とは、足の器用さ、巧緻の度合い等、巧みに足を動かす能力のことを指す表現である。具体的には、認知機能評価装置1は、被験者に対して所定の足の動作を行うことを指示し、被験者が当該指示に応じて行う足の動作を測定することにより被験者の足の巧緻性を測定する。 In the present embodiment, the cognitive function evaluation device 1 first measures the dexterity of the subject's feet as an index for evaluating the cognitive function. The dexterity of the feet referred to here is an expression that refers to the ability to skillfully move the feet, such as the dexterity of the feet and the degree of dexterity. Specifically, the cognitive function evaluation device 1 instructs the subject to perform a predetermined foot movement, and measures the foot dexterity of the subject by measuring the foot movement performed by the subject in response to the instruction.

認知機能を評価する指標として足の巧緻性を採用したのは、日常的に細かな動きが要求される手先の巧緻性よりも、普段の生活において細かな動きが要求される機会がより少ない足の巧緻性の方が個人差が出やすいからである。足の巧緻性の測定方法、及び、測定した足の巧緻性に基づく認知機能の評価方法の詳細については後述する。 The reason why we adopted foot dexterity as an index to evaluate cognitive function is that individual differences are more likely to occur in foot dexterity, which requires fewer fine movements in everyday life, than manual dexterity, which requires fine movements on a daily basis. Details of a method for measuring foot dexterity and a method for evaluating cognitive function based on the measured dexterity will be described later.

認知機能評価装置1は、測定部10と処理部20と画像表示部30とを備える。 The cognitive function evaluation device 1 includes a measurement unit 10 , a processing unit 20 and an image display unit 30 .

測定部10は、被験者の足が乗る測定台11を有し、被験者の足の動作によって測定台11に加えられる荷重の変化を測定する。測定台11は、その上面が水平になるように設置されてもよいし、上面が被験者側に向くように傾斜して設置されてもよい(図21参照)。なお、測定台11は、必ずしも図示するような厚み(高さ)を有している必要はなく、薄く柔らかいマット等で構成されてもよい。 The measuring unit 10 has a measuring platform 11 on which the subject's foot rests, and measures changes in the load applied to the measuring platform 11 due to the movement of the subject's foot. The measurement table 11 may be installed so that its upper surface is horizontal, or may be installed so that its upper surface faces the subject side (see FIG. 21). Note that the measuring table 11 does not necessarily have to have the thickness (height) shown in the figure, and may be made of a thin and soft mat or the like.

処理部20は、ROM(Read Only Memory)及びRAM(Random Access Memory)等の記憶装置と、CPU(Central Processing Unit)と、入出力インターフェースと、これらを相互に接続するバスと、により構成される。処理部20は、記憶装置に格納されている制御プログラムを読み出してCPUに実行させることにより、入出力インターフェースを介して認知機能評価装置1の動作を制御する。 The processing unit 20 includes storage devices such as ROM (Read Only Memory) and RAM (Random Access Memory), a CPU (Central Processing Unit), an input/output interface, and a bus interconnecting them. The processing unit 20 controls the operation of the cognitive function evaluation device 1 via the input/output interface by reading out the control program stored in the storage device and causing the CPU to execute it.

処理部20は、測定部10に対してケーブル25により接続されている。処理部20は、測定部10によって測定された被験者の足の動作に応じた荷重の変化に基づいて被験者の足の巧緻性を測定するとともに、測定した足の巧緻性を指標として被験者の認知機能を評価する。処理部20は、例えば、携帯電話機、スマートフォン又はサーバー等によって構成されてもよい。 The processing section 20 is connected to the measuring section 10 by a cable 25 . The processing unit 20 measures the subject's foot dexterity based on the change in the load according to the subject's foot movement measured by the measurement unit 10, and evaluates the cognitive function of the subject using the measured foot dexterity as an index. The processing unit 20 may be configured by, for example, a mobile phone, a smart phone, a server, or the like.

画像表示部30は、処理部20に対してケーブル26により接続されており、被験者に測定結果等を報知するための報知手段として機能する。画像表示部30には、例えばLCD(Liquid Crystal Display)等の液晶表示パネルが採用される。画像表示部30は、処理部20での足の巧緻性の測定結果及び認知機能の評価結果を、文言或いはグラフ等の画像により表示する。画像表示部30は、被験者に見やすいところに設置されるのが好ましく、例えば図示するような支柱の上部に取り付けられていてもよい。 The image display unit 30 is connected to the processing unit 20 by a cable 26, and functions as notification means for notifying the subject of the measurement results and the like. A liquid crystal display panel such as an LCD (Liquid Crystal Display) is adopted as the image display unit 30 . The image display unit 30 displays the result of measuring the dexterity of the feet and the result of evaluating the cognitive function by the processing unit 20 in the form of words or an image such as a graph. The image display unit 30 is preferably installed at a place where the subject can easily see it, and for example, it may be attached to the top of a support as shown in the figure.

また、画像表示部30は、被験者に対して測定台11上で所定の足の動作を行うことを指示する指示手段としても機能する。画像表示部30による被験者への指示の具体的内容については後述する。 The image display unit 30 also functions as instruction means for instructing the subject to perform a predetermined leg action on the measurement table 11 . The specific content of the instruction to the subject by the image display unit 30 will be described later.

なお、処理部20及び画像表示部30は、無線を介して接続されてもよい。また、測定部10と処理部20と画像表示部30とは、全て一体化して構成してもよいし、任意の組み合わせで適宜一体化して構成してもよい。例えば、認知機能評価装置1は、画像表示部30の機能を備えたいわゆるノートパソコンで構成される処理部20と、測定部10とにより構成されてよい。 Note that the processing unit 20 and the image display unit 30 may be connected wirelessly. Moreover, the measurement unit 10, the processing unit 20, and the image display unit 30 may be configured by integrating all of them, or may be configured by integrating them in an arbitrary combination. For example, the cognitive function evaluation device 1 may be configured by the processing section 20 configured by a so-called notebook computer having the function of the image display section 30 and the measurement section 10 .

図2は、本実施形態における認知機能評価装置1の構成を示すブロック図である。 FIG. 2 is a block diagram showing the configuration of the cognitive function evaluation device 1 in this embodiment.

測定部10は、荷重を検出する荷重センサ12と、荷重算出回路13と、を備える。 The measurement unit 10 includes a load sensor 12 that detects load and a load calculation circuit 13 .

荷重センサ12は、矩形の測定台11の四隅に配置されている。荷重センサ12は、例えば、ロードセルを含んで構成される。ロードセルは、入力された荷重に応じて変形する起歪体と、起歪体に貼り付けられた歪ゲージと、を含み、歪ゲージは、起歪体の変形に応じた値を示す電気信号(検出信号)を出力する。 The load sensors 12 are arranged at the four corners of the rectangular measuring table 11 . The load sensor 12 includes, for example, a load cell. The load cell includes a strain-generating body that deforms according to an input load and a strain gauge attached to the strain-generating body, and the strain gauge outputs an electric signal (detection signal) indicating a value corresponding to the deformation of the strain-generating body.

荷重センサ12については、測定台11において荷重が加わる位置により測定される荷重がばらつくことを抑制するために、複数の荷重センサ12を測定部10に内蔵するのが好ましい。本実施形態では四つの荷重センサ12が内蔵されている。荷重センサ12の各々は、測定台11のうち荷重センサ12が設置された部位において上面に対して垂直方向に作用する荷重に応じた検出信号を生成する。 Regarding the load sensors 12 , it is preferable to incorporate a plurality of load sensors 12 into the measurement unit 10 in order to suppress variations in the load measured depending on the position on the measuring table 11 where the load is applied. Four load sensors 12 are incorporated in this embodiment. Each of the load sensors 12 generates a detection signal corresponding to the load acting vertically on the top surface of the measuring platform 11 at the location where the load sensor 12 is installed.

荷重センサ12は、荷重算出回路13に接続されている。被験者が測定部10の測定台11に乗ると、その測定台11に加わる荷重は各荷重センサ12によって検出される。各荷重センサ12は、荷重に応じた検出信号を荷重算出回路13へ出力する。 The load sensor 12 is connected to the load calculation circuit 13 . When the subject gets on the measuring platform 11 of the measuring unit 10 , the load applied to the measuring platform 11 is detected by each load sensor 12 . Each load sensor 12 outputs a detection signal corresponding to the load to the load calculation circuit 13 .

荷重算出回路13は、各荷重センサ12から出力される検出信号に基づいて測定台11に加わる荷重を算出する。荷重算出回路13は、算出した荷重を時系列に示す荷重データを生成して処理部20に出力する。また、荷重算出回路13は、各荷重センサ12から出力される検出信号に基づいて測定台11に加わる荷重の重心を検出することができる。 The load calculation circuit 13 calculates the load applied to the measuring table 11 based on the detection signal output from each load sensor 12 . The load calculation circuit 13 generates load data indicating the calculated load in time series and outputs the load data to the processing unit 20 . Further, the load calculation circuit 13 can detect the center of gravity of the load applied to the measuring table 11 based on the detection signals output from each load sensor 12 .

処理部20は、複数の操作スイッチ21と、表示画面22と、出力ポート23と、CPU24と、を備える。 The processing unit 20 includes a plurality of operation switches 21 , a display screen 22 , an output port 23 and a CPU 24 .

操作スイッチ21は、認知機能評価装置1のオン/オフ、被験者に指示する動作の選択、個人情報、測定開始の指示等を入力(操作)するスイッチである。ここにいう個人情報としては、例えば、被験者の年齢、性別、体重及び身長等が挙げられる。 The operation switch 21 is a switch for inputting (operating) the cognitive function evaluation device 1 on/off, selection of an action to be instructed to the subject, personal information, an instruction to start measurement, and the like. The personal information referred to here includes, for example, the subject's age, sex, weight, height, and the like.

表示画面22には、被験者又は測定者の操作に応じて入力された指令、情報又は評価結果等が表示される。ただし、これら情報等は、必ずしも表示画面22ではなく、画像表示部30を介して表示されてもよい。 The display screen 22 displays commands, information, evaluation results, or the like input according to the operation of the subject or the measurer. However, these information and the like may be displayed via the image display section 30 instead of the display screen 22 .

出力ポート23は、被験者の認知機能の評価結果等を携帯電話機、スマートフォン又はサーバー等不図示の外部装置に送信することを可能とするために構成される。 The output port 23 is configured to enable transmission of evaluation results of the subject's cognitive function and the like to an external device (not shown) such as a mobile phone, a smart phone, or a server.

CPU24は、認知機能評価装置1を統括的に制御する制御装置である。CPU24には、操作スイッチ21と表示画面22と出力ポート23とが接続される。また、CPU24は、ケーブル25を介して測定部10内の荷重算出回路13と接続される。 The CPU 24 is a control device that comprehensively controls the cognitive function evaluation device 1 . The operation switch 21 , the display screen 22 and the output port 23 are connected to the CPU 24 . Also, the CPU 24 is connected to the load calculation circuit 13 in the measuring section 10 via a cable 25 .

図3は、本実施形態におけるCPU24の機能構成を示すブロック図である。 FIG. 3 is a block diagram showing the functional configuration of the CPU 24 in this embodiment.

CPU24は、データ取得部241と、認知機能評価部242と、表示画像生成部243と、を備える。 The CPU 24 includes a data acquisition section 241 , a cognitive function evaluation section 242 and a display image generation section 243 .

データ取得部241は、被験者の足の動作により生じる荷重の変化として荷重算出回路13から出力される荷重データを取得する取得手段を構成する。また、本実施形態のデータ取得部241は、操作スイッチ21を介して入力される被験者に指示する所定の足の動作の種類に関する情報(指示動作情報)を取得する。 The data acquisition unit 241 constitutes acquisition means for acquiring load data output from the load calculation circuit 13 as a change in load caused by motion of the subject's foot. In addition, the data acquisition unit 241 of the present embodiment acquires information (instruction movement information) regarding the type of predetermined leg movement to be instructed to the subject, which is input via the operation switch 21 .

本実施形態において被験者に指示する「所定の足の動作」には、所定のタイミングで被験者の足を動作させる「タイミング動作」と、所定の方向に被験者の足を動作させる「スペーシング動作」と、所定の強度で被験者の足を動作させる「グレーディング動作」の少なくとも一つが含まれる。すなわち、「所定の足の動作」のどれを被験者に指示するかについての選択情報が上述の指示動作情報には含まれる。「所定の足の動作」の詳細については後述する。 In this embodiment, the "predetermined leg motion" instructed to the subject includes at least one of a "timing motion" to move the subject's leg at a predetermined timing, a "spacing motion" to move the subject's leg in a predetermined direction, and a "grading motion" to move the subject's leg with a predetermined intensity. In other words, the above instruction action information includes selection information as to which of the "predetermined foot actions" is to be instructed to the subject. The details of the "predetermined foot motion" will be described later.

認知機能評価部242は、被験者の足の動作により生じる荷重の変化の測定結果(荷重データ)に基づいて被験者の認知機能を評価する。本実施形態の認知機能評価部242は、基準設定部242Aと、測定部242Bと、評価部242Cとを含んで構成される。 The cognitive function evaluation unit 242 evaluates the cognitive function of the subject based on the measurement results (load data) of changes in load caused by the motion of the subject's legs. The cognitive function evaluation unit 242 of this embodiment includes a reference setting unit 242A, a measurement unit 242B, and an evaluation unit 242C.

基準設定部242Aは、操作スイッチ21を介して入力される指示動作情報に基づいて選択された「所定の足の動作」によって生じる荷重の変化の基準を設定する。 The reference setting unit 242</b>A sets a reference of change in load caused by a “predetermined foot action” selected based on instruction action information input via the operation switch 21 .

ここでの「基準」は、被験者が行う「所定の足の動作」によって生じる荷重の変化を定量的に評価するための基準となる値である。当該基準は、測定台11上にかかる荷重に対して、「測定台11上の位置」、「荷重がかかるタイミング」、及び「かかる荷重の強さ」の少なくとも一つに関する基準である。当該基準は、処理部20に予め記憶しておくか、もしくは、サーバー等の不図示の外部装置から取得される。また、当該基準は、例えば、認知機能が正常(普通)と評価される健常者が、「所定の足の動作」を測定台11上で行った場合に生じる荷重の変化を、実証試験等を通じて予め取得した値でもよい。或いは、当該基準は、健常者が「所定の足の動作」を行った場合に想定される荷重の変化を推定した推定値を用いてもよい。 The “reference” here is a reference value for quantitatively evaluating changes in load caused by a “predetermined foot motion” performed by the subject. The reference is a reference regarding at least one of "position on measuring table 11", "timing of load application", and "strength of applied load" with respect to the load applied on measuring table 11. FIG. The criteria are stored in advance in the processing unit 20 or obtained from an external device (not shown) such as a server. In addition, the reference may be a value obtained in advance through a demonstration test or the like of the change in the load that occurs when a healthy subject whose cognitive function is evaluated as normal (normal) performs a "predetermined leg movement" on the measurement table 11. Alternatively, the reference may use an estimated value obtained by estimating a change in the load assumed when a healthy person performs a "predetermined leg motion".

測定部242Bは、基準設定部242Aにより設定された基準と、測定部10を用いて測定された被験者の足の動作により生じる荷重の変化の測定結果との乖離(ズレ)を測定する。ここにいう測定結果とは、測定台11上にかかる荷重に基づいて、「測定台11上の位置」、「荷重がかかるタイミング」、及び「かかる荷重の強さ」の少なくとも一つに関して定まる測定結果である。そして、測定部242Bは、当該乖離の程度に基づいて被験者の足の巧緻性を測定する。本実施形態では、認知機能評価装置1は、被験者に対して三つの「足の動作」を指示しそれぞれについて上記の乖離の程度を測定することにより、指示する足の動作に応じた被験者の足の巧緻性を三つの観点からそれぞれ評価する。上記乖離の測定方法等についての詳細は後述する。 The measurement unit 242B measures the deviation between the reference set by the reference setting unit 242A and the measurement result of the load change caused by the movement of the subject's foot measured using the measurement unit 10 . The measurement result referred to here is a measurement result determined with respect to at least one of “position on measuring table 11”, “timing of load application”, and “strength of applied load” based on the load applied on measuring table 11. Then, the measurement unit 242B measures the dexterity of the subject's foot based on the degree of deviation. In the present embodiment, the cognitive function evaluation device 1 instructs the subject to perform three "leg movements" and measures the degree of deviation for each, thereby evaluating the subject's foot dexterity according to the instructed foot movement from three perspectives. The details of the method for measuring the deviation will be described later.

評価部242Cは、測定部242Bにより測定された被験者の足の巧緻性に基づいて被験者の認知機能を評価する評価手段として構成される。評価方法等についての詳細は後述する。 The evaluation unit 242C is configured as evaluation means for evaluating the subject's cognitive function based on the subject's foot dexterity measured by the measurement unit 242B. The details of the evaluation method and the like will be described later.

表示画像生成部243は、画像表示部30に表示する静止画像又は動画像等の画像(映像)を生成する。例えば、表示画像生成部243は、データ取得部241を介して入力される指示動作情報に基づいて、被験者に指示する足の動作を当該被験者が視覚的に容易に理解できる画像を生成する。換言すると、表示画像生成部243は、指示動作情報により選択された足の動作を被験者に指示するために、当該選択された足の動作を被験者に促す画像データを画像表示部30に出力する。当該画像データの素材は、処理部20に予め記憶しておくか、もしくは、サーバー等の不図示の外部装置から取得される。画像の具体的内容については、図7Aないし図7E等を用いて後述する。 The display image generation unit 243 generates an image (video) such as a still image or a moving image to be displayed on the image display unit 30 . For example, the display image generation unit 243 generates an image that allows the subject to easily visually understand the motion of the leg to be instructed to the subject, based on the instruction motion information input via the data acquisition unit 241 . In other words, the display image generation unit 243 outputs to the image display unit 30 image data prompting the subject to perform the selected leg motion in order to instruct the subject to perform the leg motion selected by the instruction motion information. The material of the image data is stored in advance in the processing unit 20, or is acquired from an external device (not shown) such as a server. Specific contents of the image will be described later with reference to FIGS. 7A to 7E and the like.

また、表示画像生成部243は、評価部242Cによる評価結果に基づいて、被験者の認知機能に関する評価結果を示す画像を生成する。当該画像データの素材も、処理部20に予め記憶しておくか、もしくは、サーバー等の不図示の外部装置から取得される。 In addition, the display image generation unit 243 generates an image showing the evaluation result regarding the subject's cognitive function based on the evaluation result by the evaluation unit 242C. The material of the image data is also stored in advance in the processing unit 20, or is obtained from an external device (not shown) such as a server.

以下では、本実施形態における認知機能評価装置の作動方法としての認知機能評価方法の処理手順について説明する。 Below, a processing procedure of a cognitive function evaluation method as a method of operating the cognitive function evaluation device in this embodiment will be described.

図4は、第1実施形態の認知機能評価方法の処理手順例を示すフローチャートである。処理部20のCPU24は、この認知機能評価方法が記述されたプログラムを実行する。 FIG. 4 is a flow chart showing a processing procedure example of the cognitive function evaluation method of the first embodiment. The CPU 24 of the processing unit 20 executes a program describing this cognitive function evaluation method.

ここで、ステップS1において測定が開始される前に、被験者または測定者は、処理部20に対して被験者の個人情報(被験者情報)を入力する。ここでいう個人情報には、年齢、性別、体重等の少なくとも一つ以上が含まれる。また、被験者のきき足や、職業等の情報を入力してもよい。これらの情報は、例えば、後述する各種測定結果に対する重み付け要素として考慮される。 Here, before the measurement is started in step S<b>1 , the subject or the measurer inputs the subject's personal information (subject information) to the processing unit 20 . The personal information here includes at least one or more of age, sex, weight, and the like. Information such as the subject's walking ability and occupation may also be input. These pieces of information are considered, for example, as weighting factors for various measurement results to be described later.

ステップS2では、CPU24は、所定のタイミングで被験者の足を動作させる「タイミング動作」を行うことを被験者に指示するとともに、タイミング動作に基づく被験者の足の動作を観測して、被験者の足の巧緻性を測定する。測定結果は、例えばタイミング度として定量的に算出される。被験者に指示するタイミング動作(タイミング課題)の詳細は図6を用いて後述する。 In step S2, the CPU 24 instructs the subject to perform a "timing motion" to move the subject's leg at a predetermined timing, observes the motion of the subject's leg based on the timing motion, and measures the dexterity of the subject's leg. The measurement result is quantitatively calculated as, for example, the degree of timing. The details of the timing action (timing task) instructed to the subject will be described later with reference to FIG.

ステップS3では、CPU24は、所定の方向に被験者の足を動作させる「スペーシング動作」を行うことを被験者に指示するとともに、スペーシング動作に基づく被験者の足の動作を観測して、被験者の足の巧緻性を測定する。測定結果は、例えばスペーシング度として定量的に算出される。被験者に指示するスペーシング動作(スペーシング課題)の詳細は図10を用いて後述する。 In step S3, the CPU 24 instructs the subject to perform a "spacing motion" to move the subject's leg in a predetermined direction, and observes the subject's leg motion based on the spacing motion to measure the subject's leg dexterity. The measurement result is quantitatively calculated as, for example, the degree of spacing. The details of the spacing action (spacing task) instructed to the subject will be described later with reference to FIG.

ステップS4では、CPU24は、所定の強度で被験者の足を動作させる「グレーディング動作」を行うことを被験者に指示するとともに、グレーディング動作に基づく被験者の足の動作を観測して、被験者の足の巧緻性を測定する。測定結果は、例えばグレーディング度として定量的に算出される。被験者に指示するグレーディング動作(グレーディング課題)の詳細は図14を用いて後述する。 In step S4, the CPU 24 instructs the subject to perform a "grading motion" to move the subject's leg at a predetermined intensity, and observes the subject's leg motion based on the grading motion to measure the subject's foot dexterity. The measurement result is quantitatively calculated as, for example, a grading degree. The details of the grading action (grading task) instructed to the subject will be described later with reference to FIG.

ステップS5では、CPU24は、上記のタイミング課題、スペーシング課題、及び、グレーディング課題の各課題によって測定された被験者の足の巧緻性に基づいて、各課題の総合評価として被験者の認知機能を評価する。認知機能の評価は、例えば、タイミング課題の測定結果であるタイミング度をx1、スペーシング課題の測定結果であるスペーシング度をx2、グレーディング課題の測定結果であるスペーシング度をx3、及び、認知機能の評価結果である認知機能評価値をZとした場合に、次式(1)のような数式を用いて定量的に算出される。 In step S5, the CPU 24 evaluates the subject's cognitive function as a comprehensive evaluation of each task based on the subject's foot dexterity measured by each task of the timing task, spacing task, and grading task. The evaluation of cognitive function is quantitatively calculated using a formula such as the following formula (1), for example, where x1 is the timing degree that is the measurement result of the timing task, x2 is the spacing degree that is the measurement result of the spacing task, x3 is the spacing degree that is the measurement result of the grading task, and Z is the cognitive function evaluation value that is the evaluation result of the cognitive function.

Figure 0007312981000001
Figure 0007312981000001

ただし、式(1)中のa1,a2,a3は上述の各課題(要素指標)の測定結果に対して重みづけをするための係数である。また、分子(a1x1+a2x2+a3x3)を要素指標の数で除算して得た値を認知機能評価値Zとしてもよい。 However, a1, a2, and a3 in formula (1) are coefficients for weighting the measurement results of the above-described tasks (element indices). Alternatively, the cognitive function evaluation value Z may be obtained by dividing the numerator (a1x1+a2x2+a3x3) by the number of element indices.

本実施形態における係数a1,a2,a3は、上記の各要素指標の認知機能への影響度を考慮して別個に設定されてもよい。また、係数a1,a2,a3は、被験者の年齢、性別、または効き足等の個人情報を考慮して設定されてもよい。また、要素指標の数は、タイミング度x1、スペーシング度x2、及び、グレーディング度x3の三つに限らず、少なくとも一つ以上であればよい。 The coefficients a1, a2, and a3 in the present embodiment may be set separately in consideration of the degree of influence of each factor index on cognitive function. Also, the coefficients a1, a2, and a3 may be set in consideration of the subject's age, sex, or personal information such as strong foot. Also, the number of element indices is not limited to the timing degree x1, the spacing degree x2, and the grading degree x3, and may be at least one or more.

そして、ステップS6では、CPU24は、ステップS5で評価した被験者の認知機能レベルを、各要素指標にかかる測定結果とともに画像表示部30に表示する。画像表示部30に表示される内容は、例えば図5で示すような画像である。 Then, in step S6, the CPU 24 displays the subject's cognitive function level evaluated in step S5 on the image display unit 30 together with the measurement results of each element index. The content displayed on the image display unit 30 is, for example, an image as shown in FIG.

図5は、被験者の認知機能の評価結果を示す画像の一例を示す図である。図示するように、本実施形態の認知機能評価装置1が評価した被験者の認知機能は認知機能レベルとして表示される。本例によれば、被験者の認知機能レベルは、中央よりも若干右側(良側)まで達した棒グラフと、当該棒グラフ上に記載された「普通」の文字とで示されている。これにより、被験者及び測定者は、被験者の認知機能が正常(普通)レベルであることを知得することができる。 FIG. 5 is a diagram showing an example of an image showing an evaluation result of cognitive function of a subject. As illustrated, the subject's cognitive function evaluated by the cognitive function evaluation device 1 of the present embodiment is displayed as a cognitive function level. According to this example, the subject's cognitive function level is indicated by a bar graph slightly to the right (better side) of the center and the word "normal" written on the bar graph. This allows the subject and the measurer to know that the subject's cognitive function is at a normal (normal) level.

また、図示するように、被験者の認知機能レベルだけでなく、各要素指標の測定結果も、認知機能レベルと同様の棒グラフで認知機能レベルと同時に表示されてもよい。これにより、被験者及び測定者は、認知機能レベルだけでなく、足の巧緻性に係る各要素指標毎の認知機能への影響の度合いを直感的に知得することができる。なお、評価結果を表示する態様は図5で示す態様に特に限定されず、言葉のみ、或いは点数で表示する等適宜選択されてもよい。 Moreover, as shown in the figure, not only the cognitive function level of the subject but also the measurement results of each element index may be displayed simultaneously with the cognitive function level in a bar graph similar to the cognitive function level. As a result, the subject and the measurer can intuitively know not only the cognitive function level but also the degree of influence on the cognitive function for each element index related to foot dexterity. The mode of displaying the evaluation results is not particularly limited to the mode shown in FIG. 5, and may be selected as appropriate, such as displaying only words or scores.

ステップS6で認知機能の評価結果が表示されると、CPU24は、認知機能評価方法についての一連の処理を終了する。以下では、ステップS2から4の処理において測定される各要素指標の詳細について説明する。 When the evaluation result of the cognitive function is displayed in step S6, the CPU 24 terminates a series of processes regarding the cognitive function evaluation method. Details of each element index measured in the processing of steps S2 to S4 will be described below.

まず、上述のステップS2で実行される「タイミング課題」について、図6から9を用いて説明する。 First, the "timing task" executed in step S2 described above will be described with reference to FIGS.

ここで実行される「タイミング課題」とは、所定のタイミングで足を動作させる「タイミング動作」を被験者に行わせることをいう。被験者に「タイミング動作」を行わせている間、CPU24は、この「タイミング動作」を被験者に行わることによって生じる荷重の変化の測定結果と、基準設定部242Aにより予め設定された基準との乖離(差分)を算出することによって、被験者が時間調整を正しく行いながら足を動かすことができる能力を測定する。換言すれば、認知機能評価装置1は、被験者に「タイミング課題」を課すことによって測定した足の巧緻性から時間調整を正しく行う能力を評価することができる。 The "timing task" performed here means having the subject perform a "timing motion" in which the leg is moved at a predetermined timing. While having the subject perform the "timing action", the CPU 24 calculates the deviation (difference) between the measurement result of the change in the load caused by the subject performing the "timing action" and the reference preset by the reference setting unit 242A, thereby measuring the subject's ability to move the leg while adjusting the time correctly. In other words, the cognitive function evaluation apparatus 1 can evaluate the ability to correctly adjust time based on the dexterity of the feet measured by imposing a “timing task” on the subject.

図6は、図4で示すフローチャートのステップS2にかかる処理の詳細であって、被験者のタイミング度を測定するタイミング度測定方法の処理手順例を示すフローチャートである。処理部20のCPU24は、このタイミング度測定方法が記述されたプログラムを実行する。 FIG. 6 is a flow chart showing the details of the processing in step S2 of the flow chart shown in FIG. 4, and showing an example of the processing procedure of the timing degree measuring method for measuring the timing degree of the subject. The CPU 24 of the processing unit 20 executes a program in which this timing degree measuring method is described.

ステップS10では、CPU24は、被験者の立位状態における重心を測定する。後述するように、タイミング課題では、被験者に対して、測定台11の上で所定のタイミングで左右の足を上げたりその足で測定台11を踏んだりする動作を行うように指示する。したがって、本ステップにおいて被験者の立位状態における重心を測定しておき、その重心の移動を観測することで、被験者が左右いずれの足を上げたり踏んだりしたのかを検出することができる。なお、タイミング課題における荷重の変化の測定結果は必ずしも重心である必要はない。本実施形態の測定部10は、左右別個に設けられた複数の荷重センサ12を備えているため、例えば左右に設けられた荷重センサ12のそれぞれの検出値の変化量を測定し、測定結果を比較することにより、被験者の重心を算出せずとも左右いずれの足を上げて測定台11を踏んだのかを検出することができる。 In step S10, the CPU 24 measures the center of gravity of the subject in the standing state. As will be described later, in the timing task, the subject is instructed to lift the left and right feet on the measuring platform 11 at predetermined timings and step on the measuring platform 11 with the feet. Therefore, by measuring the center of gravity of the subject in the standing state in this step and observing the movement of the center of gravity, it is possible to detect which foot the subject has raised or stepped on, left or right. It should be noted that the measurement result of the change in load in the timing task does not necessarily have to be the center of gravity. Since the measurement unit 10 of the present embodiment includes a plurality of load sensors 12 separately provided on the left and right sides, for example, by measuring the amount of change in the detection value of each of the load sensors 12 provided on the left and right and comparing the measurement results, it is possible to detect which foot, left or right, stepped on the measurement table 11 without calculating the center of gravity of the subject.

ステップS11では、CPU24は、タイミング課題を開始する。本実施形態におけるCPU24は、図7Aから図7Dに示すような画像を画像表示部30に表示することにより、被験者に対して測定台11上で所定の足の動作を行うように指示する。すなわち、本実施形態のタイミング課題では、画像表示部30が被験者に対して所定の足の動作を行うことを指示する指示手段として機能する。以下、タイミング課題中の画像表示部30の画面(指示画面)及び、指示画面に対応する被験者の足の動作について説明する。 At step S11, the CPU 24 starts a timing task. The CPU 24 in this embodiment instructs the subject to perform a predetermined leg action on the measurement table 11 by displaying images as shown in FIGS. 7A to 7D on the image display section 30 . That is, in the timing task of this embodiment, the image display unit 30 functions as an instruction means for instructing the subject to perform a predetermined leg action. The screen (instruction screen) of the image display unit 30 during the timing task and the movement of the subject's leg corresponding to the instruction screen will be described below.

図7Aから図7Dは、タイミング課題中の指示画面の一例と、指示画面に対応する被験者の足の動作を説明する図である。図の左側には指示画面が示され、右側には測定台11上における被験者の足の動作が示されている。なお、右側の図において、左右に二つ並んで描かれた楕円は左右の足を表し、グレーの楕円は測定台11を踏んだ状態、白楕円は測定台11から足を上げた状態を表している。 7A to 7D are diagrams for explaining an example of an instruction screen during the timing task and the motion of the subject's foot corresponding to the instruction screen. An instruction screen is shown on the left side of the figure, and the movement of the subject's foot on the measuring table 11 is shown on the right side. In the figure on the right side, two ellipses drawn side by side represent the left and right feet, the gray ellipse represents the state of stepping on the measuring table 11, and the white ellipse represents the state of raising the foot from the measuring table 11.

図7Aは、タイミング課題のスタート画面(実行画面1)を示す。スタート画面には、これからタイミング課題が始まることを明示する「スタート」の文字と、左右に引かれた一本の基準線31が表示される。基準線31は、被験者に所定のタイミングを指示する際の基準となる線である。すなわち、基準線31は、被験者が行う「所定の足の動作(タイミング動作)」によって生じる荷重の変化を定量的に評価するための基準の一つとして設定される。基準線31は、図示するように画面の中央より下側に位置するのが好ましい。このとき、被験者は、両足が測定台11を踏んだ状態を維持する。 FIG. 7A shows the start screen (execution screen 1) of the timing task. On the start screen, the characters "start" indicating that the timing task will start from now on and a single reference line 31 drawn to the left and right are displayed. A reference line 31 is a reference line for instructing a subject to a predetermined timing. That is, the reference line 31 is set as one of the criteria for quantitatively evaluating the change in the load caused by the "predetermined foot movement (timing movement)" performed by the subject. The reference line 31 is preferably positioned below the center of the screen as shown. At this time, the subject maintains a state in which both feet are stepped on the measuring table 11 .

図7Bは、タイミング課題の実行画面2を示す。当該実行画面2では、スタートの文字は消え、画面の上方から下方へ垂直方向に所定の速度で移動(降下)する物体(オブジェクト32)が表示される。上方から下方へ移動するオブジェクト32の軌跡(非表示)は、左右に2列あり、各列は被験者の左右の足に対応する。また、オブジェクト32には上下方向の中心位置で左右に引かれた中心線32Aが示されている。図中の矢印が示すように、上方から現れたオブジェクト32は所定の速度で下方へ降下していき、基準線31に近づいていく。 FIG. 7B shows execution screen 2 of the timing task. On the execution screen 2, the start character disappears and an object (object 32) is displayed that moves (falls) vertically from top to bottom of the screen at a predetermined speed. The trajectory (not shown) of the object 32 moving from top to bottom has two columns on the left and right, and each column corresponds to the left and right feet of the subject. Also, the object 32 has a center line 32A drawn to the left and right at the center position in the vertical direction. As indicated by the arrow in the drawing, the object 32 that appears from above descends at a predetermined speed and approaches the reference line 31 .

図7Cは、タイミング課題の実行画面3を示す。当該実行画面3では、オブジェクト32が実行画面2の状態からさらに下方へ降下して基準線31上に到達し、且つ、オブジェクト32の中心線32Aが基準線31に重なっている。この時、被験者は、基準線31上のオブジェクト32に対応する足(右足)を上げて下ろす(タップする)ように足を動かす。測定部242Bは、この時の被験者の足の動作により生じる荷重の変化の測定結果と、基準との乖離の程度に基づいて、足の巧緻性を示す要素指標の一つであるタイミング度x1を算出する(図6のステップS12参照)。タイミング度x1の算出方法について、図8を参照して説明する。 FIG. 7C shows the execution screen 3 of the timing task. In the execution screen 3 , the object 32 is further lowered from the state of the execution screen 2 to reach the reference line 31 , and the center line 32 A of the object 32 overlaps the reference line 31 . At this time, the subject moves the foot (right foot) corresponding to the object 32 on the reference line 31 by raising and lowering (tapping) the foot. The measurement unit 242B calculates the timing degree x1, which is one of the element indices indicating the dexterity of the foot, based on the measurement result of the change in the load caused by the motion of the subject's foot at this time and the degree of deviation from the reference (see step S12 in FIG. 6). A method of calculating the timing degree x1 will be described with reference to FIG.

図8(a)は、タイミング度x1を算出する方法の一例を説明する図である。本例(算出方法1)におけるタイミング度x1は、被験者がタップしたタイミングにおける基準線31とオブジェクト32の中心線32Aとのズレ(時間差)に基づいて算出される。なお、ここでいう「タップしたタイミング」とは、足を上げたタイミング、足を下げて測定台11を踏んだタイミングのいずれでもよく、適宜選択されてよい。 FIG. 8A is a diagram illustrating an example of a method for calculating the timing degree x1. The degree of timing x1 in this example (calculation method 1) is calculated based on the deviation (time difference) between the reference line 31 and the center line 32A of the object 32 at the timing when the subject taps. Note that the “timing of tapping” here may be the timing of raising the foot or the timing of lowering the foot and stepping on the measuring platform 11, and may be selected as appropriate.

例えば、図8(a)では、右足を下げて測定台11を踏んだタイミングにおける基準線31と中心線32Aとの乖離(時間差)が示されている。図示するように、本例において荷重の変化を定量的に評価するための基準として設定された基準線31と、測定結果として表示された中心線32Aとの乖離(時間差)は0.5秒である。基準と測定結果との乖離は、基準線31上を降下するオブジェクト32毎に算出される。 For example, FIG. 8A shows the divergence (time difference) between the reference line 31 and the center line 32A at the timing when the right foot is lowered and stepped on the measuring platform 11 . As shown in the figure, the deviation (time difference) between the reference line 31, which is set as a reference for quantitatively evaluating changes in load in this example, and the center line 32A displayed as the measurement result is 0.5 seconds. The deviation between the reference and the measurement result is calculated for each object 32 descending on the reference line 31 .

そして、測定部242Bは、タイミング課題の実行中に基準線31上を降下するオブジェクト32毎に算出された基準と測定結果との乖離の絶対値の総計、又は、平均値に基づいて、被験者のタイミング度x1を算出する。なお、本例(算出方法1)において、基準線31の上下方向厚さを当該時間差にどのように組み込むかは適宜設定されてよい。本例では、基準線31の下限とオブジェクト32の中心線32Aとの間を乖離(時間差)とする。なお、ここでのタイミング度x1は、上記の乖離が小さいほど大きい値(認知機能がより正常と評価される値)となるように算出される。 Then, the measurement unit 242B calculates the subject's timing degree x1 based on the total or the average value of the absolute values of the deviations between the reference and the measurement results calculated for each object 32 descending on the reference line 31 during execution of the timing task. In this example (calculation method 1), how the vertical thickness of the reference line 31 is incorporated into the time difference may be set as appropriate. In this example, the difference (time difference) between the lower limit of the reference line 31 and the center line 32A of the object 32 is assumed. Here, the degree of timing x1 is calculated so as to have a larger value (a value at which the cognitive function is evaluated as being more normal) as the deviation is smaller.

また、タイミング度x1を算出する方法の他の例(算出方法2)として、測定部242Bは、図8(b)、及び図8(c)で示すように、オブジェクト32の中心線32Aを考慮せず、被験者がタップしたタイミングにおけるオブジェクト32と基準線31との位置関係に基づいてタイミング度x1を算出してもよい。 As another example of the method for calculating the timing degree x1 (calculation method 2), the measurement unit 242B may calculate the timing degree x1 based on the positional relationship between the object 32 and the reference line 31 at the timing when the subject taps, without considering the center line 32A of the object 32, as shown in FIGS. 8B and 8C.

例えば、測定部242Bは、図8(b)で示すように基準線31とオブジェクト32とが接した部分がある場合には成功とし、図8(c)で示すように基準線31とオブジェクト32とが接していない場合には失敗として勘案して、被験者のタイミング度x1を算出してもよい。この場合、タイミング度x1は例えば以下のように算出される。すなわち、成功を1点、失敗を0点として基準線31上を降下するオブジェクト32毎に点数をつけていき、これら点数のタイミング課題の実行中における総計、又は平均値を測定結果として算出する。一方、算出方法2における基準としては例えば満点(オブジェクト32が10個降下した場合には10点)を設定しておく。そして、測定結果と基準との乖離に基づいて被験者のタイミング度x1を算出する。認知機能評価装置1は、このような方法によっても被験者のタイミング度x1を定量的に算出することができる。 For example, the measurement unit 242B may calculate the timing degree x1 of the subject by considering success when there is a portion where the reference line 31 and the object 32 are in contact as shown in FIG. 8B, and considering failure when the reference line 31 and the object 32 are not in contact as shown in FIG. In this case, the timing x1 is calculated as follows, for example. That is, each object 32 descending on the reference line 31 is scored with 1 point for success and 0 point for failure, and the total or average value of these points during the timing task is calculated as the measurement result. On the other hand, as a reference in calculation method 2, for example, a full score (10 points if 10 objects 32 are lowered) is set. Then, the subject's timing x1 is calculated based on the deviation between the measurement result and the reference. The cognitive function evaluation device 1 can also quantitatively calculate the subject's timing x1 by such a method.

また、画面の上方から下方へ移動(降下)する物体(オブジェクト32)の速度をタイミング課題中に変化させてもよい。オブジェクト32が降下する所定の速度を、例えば「ゆっくり」、「少し早い」、「早い」の三段階に変更可能にすることにより、タイミング課題の難易度を調整することが可能となる。また、オブジェクト32が降下する速度を変更可能とすることにより、被験者のタイミング度x1を上述の算出方法1、2とは違う方法で算出することもできる。 Also, the speed of the object (object 32) moving (falling) from the top to the bottom of the screen may be changed during the timing task. By making it possible to change the predetermined speed at which the object 32 descends to, for example, three levels of "slow", "slightly fast", and "fast", it is possible to adjust the difficulty of the timing task. Also, by making it possible to change the speed at which the object 32 descends, it is possible to calculate the subject's timing x1 by a method different from the calculation methods 1 and 2 described above.

図7Dは、タイミング度x1を算出する方法の他の例(算出方法3)を説明するための図である。算出方法3では、オブジェクト32の移動速度を変化させることにより、測定部242Bは、タイミング課題中に被験者の足を動作させるタイミングを変えた場合における変化への追従性を加味した被験者のタイミング度x1を算出する。算出方法3によれば、被験者の時間調整能力に加えて、被験者の変化へ対応する能力(対応力)或は変化へ追従する能力(追従力)を評価することができる。 FIG. 7D is a diagram for explaining another example (calculation method 3) of calculating the timing degree x1. In calculation method 3, by changing the moving speed of the object 32, the measurement unit 242B calculates the degree of timing x1 of the subject taking into consideration the followability to the change when the timing of moving the subject's leg is changed during the timing task. According to calculation method 3, in addition to the subject's time adjustment ability, the subject's ability to respond to changes (adaptive ability) or ability to follow changes (following ability) can be evaluated.

算出方法3では、タイミング課題中においてオブジェクト32の降下速度を変化させた場合(本例では速度を上げた場合)に、速度を上げる前と上げた後での測定結果の変化、すなわち、基準と測定結果との乖離の程度の変化に基づいてタイミング度を算出する。 In calculation method 3, when the descent speed of the object 32 is changed during the timing task (in this example, the speed is increased), the degree of timing is calculated based on the change in the measurement result before and after the speed is increased, that is, the change in the degree of divergence between the reference and the measurement result.

具体的には、図9に示す測定結果に基づいて説明する。図9の右欄に示す測定結果は上述の算出方法1によって測定された基準線31と中心線32Aとの乖離(時間差)である。図中の点線より上の測定結果は、オブジェクト32の降下速度が「ゆっくり」のときの値である。一方、図中の点線より下の測定結果は、オブジェクト32の降下速度を「ゆっくり」から「少し早い」に変更して以降の値が示されている。 Specifically, it will be described based on the measurement results shown in FIG. The measurement result shown in the right column of FIG. 9 is the deviation (time difference) between the reference line 31 and the center line 32A measured by the calculation method 1 described above. The measurement results above the dotted line in the figure are the values when the object 32 descends at a "slow" speed. On the other hand, the measurement results below the dotted line in the figure show the values after changing the descent speed of the object 32 from "slow" to "slightly faster".

図9に示した測定結果から分かるように、オブジェクト32の降下速度が「ゆっくり」の際の一回目の測定結果が0.1秒であるのに対して、「少し早い」に変更された直後の測定結果は0.8秒であり、乖離(時間差)が大きくなっている。次の二回目の測定結果は0.5秒(絶対値)であり、前回よりはその乖離(時間差)が小さくなっているものの、「ゆっくり」の際の測定結果よりは悪い。そして、三回目の測定結果において初めて速度変更前と同じ0.1秒が記録されている。すなわち、測定結果では、オブジェクト32の降下速度が「ゆっくり」から「少し早い」に変更されてから3個目のオブジェクト32において、速度変更前の乖離(時間差)と同レベルの測定結果が得られたことが分かる。 As can be seen from the measurement results shown in FIG. 9, the first measurement result when the descent speed of the object 32 was changed to "slow" was 0.1 seconds, while the measurement result immediately after the change to "slightly faster" was 0.8 seconds, indicating a large divergence (time difference). The second measurement result is 0.5 seconds (absolute value), and although the difference (time difference) is smaller than the previous time, it is worse than the "slow" measurement result. Then, the same 0.1 second as before the speed change is recorded for the first time in the third measurement result. In other words, the measurement results show that the third object 32 after the descent speed of the object 32 is changed from "slow" to "slightly faster" has the same level of deviation (time difference) as before the speed change.

算出方法3では、このような測定結果、すなわち、降下速度を変更した場合における乖離の程度の変化に基づいて被験者のタイミング度x1を算出する。より具体的には、算出方法3では、当該変更後の測定結果が当該変更前の測定結果と同レベルになるまでに要する時間又は個数(オブジェクト32の降下数)に基づいて被験者のタイミング度x1を算出する。例えば、本例では、速度変更後に変更前の測定結果と同レベルになるまでのオブジェクト32の数が3個であることが測定されるため、測定結果は3である。この時、基準が例えば1個に設定されていたとすると、測定結果と基準との乖離は2となり、この値に基づいて被験者のタイミング度x1が算出される。 In calculation method 3, the subject's timing x1 is calculated based on such a measurement result, that is, the change in the degree of divergence when the descent speed is changed. More specifically, in calculation method 3, the subject's timing x1 is calculated based on the time or the number of objects (the number of descents of the objects 32) required for the post-change measurement result to reach the same level as the pre-change measurement result. For example, in this example, it is measured that the number of objects 32 after the speed change reaches the same level as the measurement result before the change is 3, so the measurement result is 3. At this time, if the reference is set to, for example, 1, the deviation between the measurement result and the reference is 2, and the subject's timing x1 is calculated based on this value.

なお、本実施形態にかかるタイミング度x1は、上述の算出方法1から3のいずれか一つの算出結果に基づいて算出されてもよいし、少なくとも二つ以上の算出結果を総合して算出されてもよい。ただし、複数の算出方法を組み合せる場合には、それぞれの算出方法を用いた算出結果に対して重み付けしてもよい。当該重み付けは認知機能への影響の度合いを考慮して決定してよく、例えば、上式(1)と同様の式を用いて定量的に算出される。式(1)を用いる場合には、タイミング度をZとし、例えば、算出方法1の算出結果をx1、算出方法2の算出結果をx2、算出方法3の算出結果をx3として算出すればよい。 Note that the timing degree x1 according to the present embodiment may be calculated based on the calculation result of any one of calculation methods 1 to 3 described above, or may be calculated by combining at least two or more calculation results. However, when combining a plurality of calculation methods, the calculation results using the respective calculation methods may be weighted. The weighting may be determined in consideration of the degree of influence on cognitive function, and is quantitatively calculated using, for example, a formula similar to the above formula (1). When formula (1) is used, the degree of timing is Z, the calculation result of calculation method 1 is x1, the calculation result of calculation method 2 is x2, and the calculation result of calculation method 3 is x3.

そして、図6に戻り、ステップS13において、CPU24は、タイミング課題の結果について例えば図7Eで示すような実行画面5で画像表示部30に表示する。なお、図7Eでは、一例として、上述の算出方法1(ズレ度)及び算出方法2(的中率)による算出結果のそれぞれが示されている。以上が、タイミング課題の内容、及び、タイミング度x1の算出方法の詳細である。 Then, returning to FIG. 6, in step S13, the CPU 24 displays the result of the timing task on the image display unit 30, for example, on the execution screen 5 as shown in FIG. 7E. Note that FIG. 7E shows, as an example, each of the calculation results obtained by the above-described calculation method 1 (degree of deviation) and calculation method 2 (hit rate). The above is the details of the content of the timing task and the method of calculating the degree of timing x1.

続いて、図4に示したステップS3で実行される「スペーシング課題」の詳細を図10から図13を用いて説明する。 Next, the details of the "spacing task" executed in step S3 shown in FIG. 4 will be described with reference to FIGS. 10 to 13. FIG.

ここで実行される「スペーシング課題」とは、所定の方向に足を動作させる「スペーシング動作」を被験者に行わせることをいう。CPU24は、この「スペーシング動作」を被験者に行わせることによって生じる荷重の変化の測定結果と、基準設定部242Aにより設定された基準との乖離(ズレ)を算出することによって、被験者が方向と距離の調整を正しく行いながら足を動かすことができる能力を測定する。換言すれば、認知機能評価装置1は、被験者に「スペーシング課題」を課すことによって測定した足の巧緻性から被験者の方向と距離の調整を正しく行う能力を評価することができる。 The "spacing task" performed here means having the subject perform a "spacing motion" in which the legs are moved in a predetermined direction. The CPU 24 calculates the deviation (deviation) between the measurement result of the change in the load caused by having the subject perform this "spacing action" and the reference set by the reference setting unit 242A, thereby measuring the subject's ability to move the leg while adjusting the direction and distance correctly. In other words, the cognitive function evaluation apparatus 1 can evaluate the subject's ability to correctly adjust the direction and distance from the foot dexterity measured by imposing the "spacing task" on the subject.

図10は、図4で示すフローチャートのステップS3にかかる処理の詳細であって、被験者のスペーシング度を測定するスペーシング度測定方法の処理手順例を示すフローチャートである。処理部20のCPU24は、このスペーシング度測定方法が記述されたプログラムを実行する。 FIG. 10 is a flow chart showing details of the processing in step S3 of the flow chart shown in FIG. 4, and showing an example of the processing procedure of the spacing degree measuring method for measuring the spacing degree of the subject. The CPU 24 of the processing unit 20 executes a program describing this spacing degree measuring method.

ステップS20では、CPU24は、スペーシング課題において画像表示部30に表示される図形(ターゲット)の形状と、ターゲットの移動速度とを設定する。設定されるターゲットの形状は、例えば、棒形状、三角形状、四角形状、アルファベット等から操作スイッチ21を介して測定者等により選択される。また、ターゲットの大きさや色等も選択可能であってもよい。移動速度も、例えば、「ゆっくり」、「ふつう」、「はやい」の三段階から操作スイッチ21を介して測定者等により選択される。 In step S20, the CPU 24 sets the shape of the figure (target) displayed on the image display section 30 in the spacing task and the moving speed of the target. The shape of the target to be set is selected by the measurer or the like through the operation switch 21 from, for example, a bar shape, a triangular shape, a quadrilateral shape, an alphabetical shape, and the like. Also, the size and color of the target may be selectable. The movement speed is also selected by the measurer or the like via the operation switch 21 from three levels of, for example, "slow", "normal", and "fast".

ステップS21では、CPU24は、スペーシング課題を開始する。本実施形態におけるCPU24は、図11Aから図11Dに示すような画像を画像表示部30に表示することにより、被験者に対して測定台11上で所定の足の動作を行うように指示する。すなわち、本実施形態のスペーシング課題では、画像表示部30が被験者に対して所定の足の動作を行うことを指示する指示手段として機能する。以下にスペーシング課題中の画像表示部30の画面(指示画面)及び、指示画面に対応する被験者の足の動作の詳細について説明する。 In step S21, the CPU 24 starts a spacing task. The CPU 24 in this embodiment instructs the subject to perform a predetermined leg action on the measurement table 11 by displaying images as shown in FIGS. 11A to 11D on the image display section 30 . That is, in the spacing exercise of the present embodiment, the image display unit 30 functions as instruction means for instructing the subject to perform a predetermined leg action. Details of the screen (instruction screen) of the image display unit 30 during the spacing exercise and the movement of the subject's foot corresponding to the instruction screen will be described below.

図11Aから図11Dは、スペーシング動作中の指示画面の一例と、指示画面に対応する被験者の足の動作を説明する図である。図の左側には指示画面が示され、右側には測定台11上における被験者の足の動作が示されている。左側の図において、白丸はターゲットを示す。黒丸は、画像表示部30の画面において、測定台11上に乗せた被験者の足の位置に対応する位置(ポイント)を示す。この黒丸の位置は、測定部10が測定した荷重の変化に基づいて特定される測定台11上の被験者の足の位置に従って決定される。 FIGS. 11A to 11D are diagrams for explaining an example of an instruction screen during a spacing action and motions of the subject's feet corresponding to the instruction screen. An instruction screen is shown on the left side of the figure, and the movement of the subject's foot on the measuring table 11 is shown on the right side. In the figure on the left, white circles indicate targets. A black circle indicates a position (point) corresponding to the position of the subject's foot placed on the measurement table 11 on the screen of the image display unit 30 . The position of this black circle is determined according to the position of the subject's foot on the measuring table 11 specified based on the change in load measured by the measuring unit 10 .

また、スタートとゴールが結ぶ線は、スペーシング課題においてターゲットが動く範囲(始点と終点)とその道筋を示している。なお、右向きの矢印は、ターゲットが移動する方向を被験者が直感的に知得できるように示されたものである。なお、スペーシング課題を行うにおいて当画面に必須の要素は白丸(ターゲット)と黒丸(ポイント)であり、他の要素については適宜削除してもよい。 In addition, the line connecting the start and goal shows the range of movement of the target (start point and end point) and its path in the spacing task. The right-pointing arrow is shown so that the subject can intuitively perceive the direction in which the target moves. The essential elements on this screen for the spacing task are white circles (targets) and black circles (points), and other elements may be deleted as appropriate.

図11Aはスペーシング課題の実行画面1を示す。スペーシング課題を開始する際には、ターゲットの始点と自身の足の位置とを一致させるべく、実行画面1の「スタート」の位置に黒丸が配置されるように、被験者は測定台11上における自身の足(例えば右足)の位置を調整する。本例においては、図示するように、被験者は足を測定台11の左側に移動させることにより、実行画面1上における白丸の位置と黒丸の位置とを一致させることができる。 FIG. 11A shows the execution screen 1 of the spacing task. When starting the spacing task, the subject adjusts the position of his or her foot (for example, the right foot) on the measurement table 11 so that the black circle is placed at the "start" position on the execution screen 1 so that the starting point of the target and the position of the subject's foot match. In this example, by moving the subject's foot to the left side of the measurement table 11 as shown in the figure, the position of the white circle and the position of the black circle on the execution screen 1 can be matched.

そして、図11Bから図11D(実行画面2から実行画面4)で示すように、スペーシング課題が開始されると、スタート位置にあったターゲットは所定の速度でゴールまで移動していく。このターゲットの移動に黒丸が追従するように、被験者は測定台11に乗せた足を左から右へ移動させる。この時、スタートの位置から黒丸まで延びる点線は、黒丸の移動の軌跡、すなわち測定台11上に乗せた被験者の足の軌跡を示している。測定部242Bは、このようにして観測される被験者の足の動作により生じる荷重の変化の測定結果と基準との乖離の程度に基づいて、足の巧緻性を示す要素指標の一つであるスペーシング度x2を算出する(図10のステップS22参照)。スペーシング度x2の算出方法について、図12、及び図13を参照して説明する。 Then, as shown in FIGS. 11B to 11D (execution screens 2 to 4), when the spacing task is started, the target at the start position moves to the goal at a predetermined speed. The subject moves his/her foot placed on the measurement table 11 from left to right so that the black circle follows the movement of the target. At this time, the dotted line extending from the starting position to the black circle indicates the locus of movement of the black circle, that is, the locus of the subject's foot placed on the measurement table 11 . The measurement unit 242B calculates the spacing degree x2, which is one of the element indexes indicating the dexterity of the foot, based on the degree of deviation between the measurement result of the change in the load caused by the movement of the subject's foot observed in this way and the reference (see step S22 in FIG. 10). A method of calculating the spacing degree x2 will be described with reference to FIGS. 12 and 13. FIG.

図12は、スペーシング度x2を算出する方法の一例を説明する図である。本例(算出方法1)におけるスペーシング度x2は、ターゲットと黒丸との間の距離(位置の乖離)に基づいて算出される。より詳細には、本例におけるスペーシング度x2は、ターゲットと黒丸との位置の乖離の総和(積分量)に基づいて算出される。 FIG. 12 is a diagram illustrating an example of a method of calculating the spacing degree x2. The spacing degree x2 in this example (calculation method 1) is calculated based on the distance (positional deviation) between the target and the black circle. More specifically, the spacing degree x2 in this example is calculated based on the total sum (integral amount) of the positional deviations between the target and the black circle.

ここで、例えばターゲットと黒丸との位置の乖離を図12(a)で示す距離Aとした場合に、スペーシング課題を実行している間における距離Aの変化を観測すると、図12(b)のように表すことができる。図12(b)は、横軸は時間を、縦軸はターゲットと黒丸との位置の乖離(距離A)を示す。すなわち、ターゲットと黒丸との位置の乖離の総和(積分量)は、図12(b)における横軸と、時系列に示された距離Aの波形とで囲まれる面積で表すことができる。 Here, for example, if the distance A shown in FIG. 12(a) is the difference between the positions of the target and the black circle, observing the change in the distance A while performing the spacing task can be expressed as shown in FIG. 12(b). In FIG. 12(b), the horizontal axis indicates time, and the vertical axis indicates the positional divergence (distance A) between the target and the black circle. That is, the total sum (integral amount) of the positional divergence between the target and the black circle can be represented by the area surrounded by the horizontal axis in FIG.

すなわち、算出方法1では、被験者がスペーシング動作を行うことによって測定台11に加わる荷重の測定結果から得た距離Aの積分量と、健常者によるスペーシング動作により得られる距離Aの積分量として設定された基準との乖離の程度に基づいて算出される。 That is, in Calculation Method 1, it is calculated based on the degree of divergence between the integrated amount of distance A obtained from the measurement result of the load applied to the measurement table 11 by the subject performing the spacing action and the standard set as the integrated amount of the distance A obtained by the spacing action of the healthy subject.

なお、スペーシング度x2の算出において、図12(b)に示された距離Aの軌跡の周波数成分を解析した結果が考慮されてもよい。例えば、健常者であれば、スペーシング動作中にターゲットに黒丸を追従させる際に細かな位置調整を常時行うことが知られている。したがって、距離Aを時系列に示した波形の周波数成分のうちの高周波成分の量(割合)を解析することでも被験者の認知機能を評価することができる。この場合、例えば高周波成分が所定の割合以上含まれていれば、被験者の認知機能は正常であると評価することができる。 In calculating the spacing degree x2, the result of analyzing the frequency component of the trajectory of the distance A shown in FIG. 12(b) may be taken into consideration. For example, it is known that an able-bodied person constantly makes fine positional adjustments when causing a black dot to follow a target during a spacing operation. Therefore, the cognitive function of the subject can also be evaluated by analyzing the amount (proportion) of the high-frequency component among the frequency components of the waveform showing the distance A in time series. In this case, for example, if a high-frequency component is included in a predetermined ratio or more, it can be evaluated that the subject's cognitive function is normal.

また、スペーシング度x2を算出する方法の他の例(算出方法2)として、図13で示すように、ターゲットの移動の道筋と、黒丸の移動の軌跡との乖離(ズレ)の総和(積分量)に基づいてスペーシング度x2を算出してもよい。 Further, as another example of the method of calculating the spacing degree x2 (calculation method 2), as shown in FIG. 13, the spacing degree x2 may be calculated based on the total sum (integral amount) of the divergence (deviation) between the movement path of the target and the movement trajectory of the black circle.

本例においては、例えば、ターゲットの移動の道筋と、黒丸の移動の軌跡との乖離を図13(a)で示す距離Bとした場合に、スペーシング課題を実行している間における距離Bの変化を測定すると、距離Bの変化は、図13(b)のように表すことができる。図13(b)は、横軸は時間を、縦軸はターゲットの移動の道筋と黒丸の移動の軌跡との乖離(距離B)を示す。ただし、図13(b)では、ターゲットの移動の道筋に対して上方に生じた距離Bは正の値とし、ターゲットの移動の道筋に対して下方に生じた距離Bは負の値として表されている。すなわち、距離Bの総和(積分量)は、図13(b)の0点における横軸(0点)と、時系列に示された距離Bの軌跡とで囲まれる面積の総和で表すことができる。 In this example, for example, if the distance B shown in FIG. 13(a) is the divergence between the path of movement of the target and the path of movement of the black circle, and the change in distance B during the execution of the spacing task is measured, the change in distance B can be expressed as shown in FIG. 13(b). In FIG. 13(b), the horizontal axis represents time, and the vertical axis represents the divergence (distance B) between the path of movement of the target and the path of movement of the black circle. However, in FIG. 13(b), the distance B produced above the movement path of the target is represented as a positive value, and the distance B produced below the movement path of the target is represented as a negative value. That is, the total sum (integral amount) of the distance B can be represented by the total area surrounded by the horizontal axis (0 point) at the 0 point in FIG. 13B and the trajectory of the distance B shown in time series.

すなわち、算出方法2においても、被験者がスペーシング動作を行うことによって測定台11に加わる荷重の変化の測定結果から得た距離Bの積分量と、健常者によるスペーシング動作により得られる距離Bの積分量として設定された基準との乖離の程度に基づいてスペーシング度x2が算出される。 That is, in calculation method 2 as well, the degree of spacing x2 is calculated based on the degree of divergence between the integral amount of distance B obtained from the measurement result of the change in the load applied to the measurement table 11 by the subject performing the spacing motion and the standard set as the integral amount of the distance B obtained by the spacing motion of the healthy subject.

なお、算出方法2においても、算出方法1と同様に図13(b)で示す距離Bを時系列に示した波形の周波数成分を解析した結果が考慮されてもよい。例えば、図13(b)における距離Bの波形の周波数成分のうちの高周波成分の量(割合)を解析することによっても被験者の認知機能を評価することができる。この場合、例えば高周波成分が所定の割合以上に含まれていれば、被験者の認知機能は正常であると評価することができる。 As with calculation method 1, calculation method 2 may also take into account the results of analysis of the frequency components of the waveform showing the distance B shown in FIG. 13B in time series. For example, the subject's cognitive function can also be evaluated by analyzing the amount (ratio) of the high-frequency component among the frequency components of the waveform at distance B in FIG. 13(b). In this case, for example, if the high-frequency component is included in a predetermined ratio or more, it can be evaluated that the subject's cognitive function is normal.

なお、本実施形態にかかるスペーシング度x2は、上述の算出方法1及び2のいずれか一つの算出結果に基づいて算出されてもよいし、周波数成分の解析結果を含む少なくとも二つ以上の算出結果を総合して算出されてもよい。ただし、複数の算出方法を組み合せる場合には、それぞれの算出方法を用いた算出結果に対して重み付けしてもよい。当該重み付けは認知機能への影響の度合いを考慮して決定されてよく、例えば、上記式(1)と同様の式を用いて定量的に算出されてよい。 Note that the spacing degree x2 according to the present embodiment may be calculated based on the calculation result of any one of the calculation methods 1 and 2 described above, or may be calculated by integrating at least two or more calculation results including the analysis result of the frequency component. However, when combining a plurality of calculation methods, the calculation results using the respective calculation methods may be weighted. The weighting may be determined in consideration of the degree of influence on cognitive function, and may be quantitatively calculated using a formula similar to formula (1) above, for example.

また、算出方法1および算出方法2のいずれの方法においても、基準と測定結果の乖離の程度の変化に基づいてスペーシング度を算出してもよい。例えば、距離Aの積分量および距離Bの積分量は、単位時間毎に区間積分をした積分量であってもよく、時間経過とともに単位時間毎に区間積分をした積分量が小さくなっている場合には、スペーシング度が大きくなるように算出してもよい。 Also, in either calculation method 1 or calculation method 2, the degree of spacing may be calculated based on changes in the degree of divergence between the reference and the measurement result. For example, the integral amount of the distance A and the integral amount of the distance B may be the integral amount obtained by section integration for each unit time, and when the integral amount obtained by section integration for each unit time decreases with the passage of time, the spacing degree may be calculated so as to increase.

また、ターゲットの移動速度を変更してもよく、移動速度が変更されたターゲットに対して、被験者の変化へ対応する能力(対応力)或は変化へ追従する能力(追従力)をスペーシング度として評価してもよい。 In addition, the moving speed of the target may be changed, and the subject's ability to respond to changes (responsiveness) or ability to follow changes (following ability) may be evaluated as the degree of spacing.

以上が、スペーシング課題の内容、及び、スペーシング度x2の算出方法の詳細である。なお、図示はしないが、スペーシング課題の結果についても、タイミング課題と同様に画像表示部30に表示される(図10のステップS23参照)。 The above are the details of the spacing task and the method of calculating the spacing degree x2. Although not shown, the results of the spacing task are also displayed on the image display section 30 in the same manner as the timing task (see step S23 in FIG. 10).

続いて、図4に示したステップS4で実行される「グレーディング課題」の詳細を図14から図21を用いて説明する。 Next, the details of the "grading task" executed in step S4 shown in FIG. 4 will be described with reference to FIGS. 14 to 21. FIG.

ここで実行される「グレーディング課題」とは、被験者に所定の強度(力加減)で足を動作させることをいう。CPU24は、この「グレーディング課題」を被験者に行わせることによって生じる荷重の変化の測定結果と、当該「グレーディング動作」を健常者が行った場合に生じる荷重の変化の基準との乖離(ズレ)を算出することによって、被験者が力加減を適切に調整しながら足を動かすことができる能力を測定する。換言すれば、認知機能評価装置1は、被験者に「グレーディング課題」を課すことによって測定した足の巧緻性から力加減の調整を正しく行う能力を評価することができる。 The "grading task" performed here means having the subject move the leg with a predetermined strength (force adjustment). The CPU 24 measures the ability of the subject to move his/her legs while adjusting the force appropriately by calculating the difference between the measurement result of the change in load caused by having the subject perform the "grading task" and the standard of the change in load occurring when the "grading action" is performed by a healthy person. In other words, the cognitive function evaluation apparatus 1 can evaluate the ability to correctly adjust force from the dexterity of the feet measured by imposing a "grading task" on the subject.

図14は、図4で示すフローチャートのステップS4にかかる処理の詳細であって、被験者のグレーディング度を測定するグレーディング度測定方法の処理手順例を示すフローチャートである。処理部20のCPU24は、このグレーディング度測定方法が記述されたプログラムを実行する。 FIG. 14 is a flow chart showing details of the processing in step S4 of the flow chart shown in FIG. 4, and showing an example of a processing procedure of a grading degree measuring method for measuring a subject's grading degree. The CPU 24 of the processing unit 20 executes a program describing this grading degree measuring method.

ステップS30では、CPU24は、後段の処理においてグレーディング度x3を算出するために被験者の立位体重を測定する。 In step S30, the CPU 24 measures the subject's standing weight in order to calculate the grading degree x3 in subsequent processing.

ステップS31では、CPU24は、ステップS32から開始するグレーディング課題を実行するために必要な荷重データを測定する。具体的には、CPU24は、被験者が測定台11に足を乗せた座位状態から立位状態になるまで全力で立ち上がり動作を行った際の荷重の変化(全力動作)と、被験者が測定台11に足をのせた座位状態から立位状態になるまで普通に立ち上がり動作を行った際の荷重の変化(ふつう動作)とをそれぞれ測定する。なお、ここにいう「立ち上がり動作」は「足の動作」に含まれる。 At step S31, the CPU 24 measures the load data necessary to perform the grading task starting from step S32. Specifically, the CPU 24 measures a change in load when the subject stands up with full force from a sitting position with feet on the measurement table 11 to a standing position (full-force action), and a load change when the subject normally stands up from a sitting position with feet on the measurement table 11 to a standing position (normal action). Note that the "stand-up motion" referred to here is included in the "leg motion".

ここで、本実施形態の「グレーディング課題」では、CPU24は、被験者に測定台11上で上記の全力動作とふつう動作を事前に行ってもらった後に、全力動作とふつう動作の中間の力加減で測定台11上で立ち上がり動作を行うように指示する。そして、当該指示に応じた被験者の動作の力加減と、全力動作とふつう動作の中間の力加減とを比較することによって、被験者による力加減の調整を正しく行う能力(グレーディング度)を評価する。したがって、グレーディング度を定量的に評価するために、上記の全力動作とふつう動作を行った際の荷重の変化をグレーディング課題を行う前にそれぞれ測定する。 Here, in the "grading task" of the present embodiment, the CPU 24 instructs the subject to perform the full-strength movement and the normal movement on the measurement table 11 in advance, and then to stand up on the measurement table 11 with an intermediate force between the full-strength movement and the normal movement. Then, the examinee's ability to correctly adjust the force (grading degree) is evaluated by comparing the strength of the subject's movement in response to the instruction with the strength between the full-strength movement and the normal movement. Therefore, in order to quantitatively evaluate the degree of grading, the changes in load during the above full-force and normal movements are measured before each grading task.

図15は、ステップS31において測定された被験者の荷重の変化を示す図である。図15(a)は全力動作時の測定結果を示し、図15(b)はふつう動作時の測定結果を示している。両図とも、横軸は時間を示し、縦軸は荷重の大きさを示す。 FIG. 15 is a diagram showing changes in the subject's load measured in step S31. FIG. 15(a) shows the measurement results during full power operation, and FIG. 15(b) shows the measurement results during normal operation. In both figures, the horizontal axis indicates time, and the vertical axis indicates the magnitude of load.

本例においては、測定台11の正面に椅子を用意し、被験者が当該椅子に座り、且つ、両足を測定台11に乗せた状態の被験者に対して立ち上がり動作が指示される。図15(a)及び図15(b)に示すように、被験者が測定台11に足を乗せた座位状態から立位状態になるように立ち上がり動作を行った際には、荷重測定値は、被験者が座位状態から立ち上がろうとして椅子からお尻が浮いた瞬間からピーク値に到達するまで急峻に増加した後、一端下り、ステップS30で測定した自身の立位体重に収束していく。 In this example, a chair is prepared in front of the measurement table 11 , and the subject is instructed to stand up while sitting on the chair and placing both feet on the measurement table 11 . As shown in FIGS. 15(a) and 15(b), when the subject stands up from a sitting position with feet on the measurement table 11, the measured load value increases sharply from the moment the subject lifts the buttocks off the chair when trying to stand up from the sitting position until it reaches a peak value, then decreases and converges to the standing weight measured in step S30.

ステップS31で測定した全力動作とふつう動作の荷重の変化は、図16で示すように定量的に表すことができる。すなわち、本実施形態のグレーディング課題において参照値(比較値)として用いられる全力動作とふつう動作の荷重の変化は、図16で示す荷重の最大変化率(図15の両矢印参照)を被験者の体重で割った値と、荷重の最大ピーク値(図15の点線丸参照)を被験者の体重で割った値とを用いて定量的に把握することができる。そして、これらの値の中間の値は(図16の下段参照)、次のステップS32において、被験者に「全力動作とふつう動作の中間の力加減で立ち上がる」ことを指示した際に、当該指示に応じて測定される被験者の荷重の変化の目標値となる。ただし、当該値を必ずしも二つ用いる必要はなく、いずれか一方の値を用いてグレーディング課題を行ってもよい。以下に、荷重の最大ピーク値(図15の点線丸参照)を被験者の体重で割った値(以下、単に「荷重ピーク値」という)を用いてグレーディング課題を行った例について説明する。 The changes in the load between the full-strength motion and the normal motion measured in step S31 can be expressed quantitatively as shown in FIG. That is, the change in the load between the full-power motion and the normal motion used as a reference value (comparative value) in the grading task of the present embodiment can be quantitatively grasped using a value obtained by dividing the maximum change rate of the load shown in FIG. Then, the intermediate value between these values (see the lower part of FIG. 16) becomes the target value of the change in the subject's load measured in accordance with the instruction in the next step S32, when the subject is instructed to "stand up with an intermediate force between the full-strength movement and the normal movement." However, it is not always necessary to use two such values, and either one of the values may be used for the grading task. An example in which a grading task was performed using a value obtained by dividing the maximum peak value of the load (see the dotted circle in FIG. 15) by the body weight of the subject (hereinafter simply referred to as "peak load value") will be described below.

図14のステップS32では、CPU24は、グレーディング課題を開始する。本実施形態では、上述したように、ステップS31において事前に測定した全力動作とふつう動作を行った際における力加減を前提に、被験者に対してそれらの中間の力加減での立ち上がり動作を行うように指示する。当該指示は、画像を介して行ってもよいし、音声により行ってもよい。従って、本実施形態のグレーディング課題では、画像表示部30を用いて図17で示すような画像を表示することにより被験者への指示を行ってもよいし、不図示の音声出力装置(例えばスピーカ)を備え、当該装置を介して被験者への指示を行ってもよい。 In step S32 of FIG. 14, the CPU 24 starts a grading task. In this embodiment, as described above, the test subject is instructed to perform a stand-up motion with an intermediate force between the full-strength motion and the normal motion measured in advance in step S31. The instruction may be given via an image or by voice. Therefore, in the grading task of the present embodiment, the subject may be instructed by displaying an image as shown in FIG.

すなわち、本実施形態のグレーディング課題では、画像表示部30、又は、不図示の音声出力装置が被験者に対して所定の足の動作を行うことを指示する指示手段として機能する。以下に、画像表示部30を指示手段として用いることを前提に、グレーディング課題中の画像表示部30の画面(指示画面)及び、指示画面に対応する被験者の足の動作の詳細について説明する。 That is, in the grading task of the present embodiment, the image display unit 30 or an audio output device (not shown) functions as instruction means for instructing the subject to perform a predetermined leg action. Below, on the premise that the image display unit 30 is used as an instruction means, the details of the screen (instruction screen) of the image display unit 30 during the grading task and the movement of the subject's foot corresponding to the instruction screen will be described.

図18は、被験者がグレーディング動作を行った際の荷重の変化を測定した測定結果を示す図である。図では、グレーディング動作を三回行った場合の測定結果が示されている。被験者の一回目の測定結果を見ると、荷重ピーク値は1.27であり、目標値(1.34)に対して0.07(絶対値)の乖離がある。このため、被験者は、足の力加減の調整能力において目標値に対して0.07のズレがあるということを定量的に把握することができる。 FIG. 18 is a diagram showing measurement results of changes in load when a subject performs a grading motion. The figure shows the measurement results when the grading operation is performed three times. Looking at the test subject's first measurement result, the load peak value is 1.27, and there is a deviation of 0.07 (absolute value) from the target value (1.34). Therefore, the subject can quantitatively grasp that there is a deviation of 0.07 from the target value in the ability to adjust the strength of the foot.

ここで、被験者が二回目の立ち上がり動作を行う前に、CPU24は1回目の測定結果を被験者にフィードバックする。当該フィードバックは、例えば図19(a)のような画像を画像表示部30に表示することにより行われる。 Here, before the subject performs the second rising motion, the CPU 24 feeds back the first measurement result to the subject. The feedback is performed by displaying an image as shown in FIG. 19A on the image display section 30, for example.

すなわち、図19(a)に示すように、CPU24は、1回目の測定結果が指示(目標値)に対してどれだけズレているかを直感的に知得できるような画像を表示するとともに、1回目の測定結果に対して次はどのような力加減(より強くなのか、より弱くなのか)で立ち上がり動作を行うべきなのかを提示する。このような画像を見た後に被験者は2回目の立ち上がり動作を行う。本例にかかる2回目の立ち上がり動作の測定結果は、図18に示すとおりである。すなわち、2回目の立ち上がり動作での荷重ピーク値は1.39であり、目標値(1.34(図16参照))よりも力加減が強く、目標値に対して0.05(絶対値)の乖離が生じていることが分かる。この場合も、1回目の測定結果後と同様に、CPU24は、例えば図19(b)のような画像を画像表示部30に表示して2回目の測定結果を被験者にフィードバックする。 That is, as shown in FIG. 19(a), the CPU 24 displays an image that allows the user to intuitively perceive how much the first measurement result deviates from the instruction (target value), and also presents what kind of force (stronger or weaker) should be used for the next standing-up motion for the first measurement result. After viewing such an image, the subject performs the second stand-up motion. FIG. 18 shows the measurement results of the second rising operation according to this example. That is, the load peak value in the second rising motion is 1.39, and the force adjustment is stronger than the target value (1.34 (see FIG. 16)). Also in this case, similarly to after the result of the first measurement, the CPU 24 displays an image such as that shown in FIG.

そして、3回目の測定結果(図18参照)では、目標値とのズレが0.01となっており、1回目、2回目と比べて、目標値への力加減の調整がうまく出来ていることが分かる。 In the third measurement result (see FIG. 18), the deviation from the target value is 0.01, and it can be seen that the adjustment of the force to the target value is well adjusted compared to the first and second measurements.

ステップS33では、CPU24は、上述の測定結果に基づいて被験者のグレーディング度x3を算出する。グレーディング度x3は、被験者が複数回(本例では3回)行った立ち上がり動作のそれぞれの測定結果と、目標値である荷重ピーク値との乖離の絶対値の総和、または標準偏差に基づいて算出される(算出方法1)。 In step S33, the CPU 24 calculates the subject's grading degree x3 based on the above measurement results. The grading degree x3 is calculated based on the sum of the absolute values or the standard deviation of the deviations between the measurement results of each of the standing-up motions performed by the subject a plurality of times (three times in this example) and the load peak value, which is the target value (calculation method 1).

すなわち、本実施形態のグレーディング度x3は、力加減の指示(目標値)に対する被験者の力加減の測定結果のズレやバラツキ具合を複数回の立ち上がり動作の測定結果より算出して得た値(上記乖離の総和又は標準偏差)と、健常者が同様のグレーディング動作を行った場合の基準とのズレ(乖離)に基づいて算出される。 That is, the grading degree x3 of the present embodiment is calculated based on the difference (divergence) between the value obtained by calculating the degree of deviation or variation in the measurement results of the subject's force adjustment from the force adjustment instruction (target value) from the measurement results of a plurality of stand-up movements (the sum of the deviations or the standard deviation) and the reference when a healthy subject performs the same grading motion.

また、グレーディング度x3を算出する方法の他の例(算出方法2)として、被験者が行ったグレーディング動作の各回(本例では一回目と、二回目と、三回目)のそれぞれの乖離の程度の変化に基づいて算出してもよい。この場合は、各回の測定結果にかかる目標値との乖離が各回ごとに好適に減少していく場合には、グレーディング度x3が高く算出され、認知機能がより健常者に近いと評価される。すなわち、算出方法2によりグレーディング度x3を算出することにより、グレーディング課題中において各回の終了毎にフィードバックした事項に対する被験者の学習能力(調整能力)を、グレーディング動作の各回毎の測定結果の変化に基づいて評価することができる。 Further, as another example of the method of calculating the grading degree x3 (calculation method 2), it may be calculated based on the change in the degree of divergence each time the subject performs the grading action (the first, second, and third times in this example). In this case, when the deviation from the target value for the measurement result of each time is preferably reduced each time, the grading degree x3 is calculated to be high, and the cognitive function is evaluated as being closer to that of a healthy person. That is, by calculating the degree of grading x3 by calculation method 2, the subject's learning ability (adjustment ability) for the items that are fed back at the end of each round of the grading task can be evaluated based on the change in the measurement results for each round of the grading operation.

また、グレーディング度x3を算出する方法の他の例(算出方法3)として、以下の方法を用いることもできる。すなわち、算出方法1、2のように、測定結果と目標値との乖離に基づいて算出するのではなく、目標値に対して一定の幅(上下限範囲)を設け、測定結果が当該上下限範囲内に入った回数、または、入るまでの回数を測定し、当該測定結果に基づいてグレーディング度x3を算出してもよい。例えば、目標値に対して、±0.3の上下限範囲を設けた場合に被験者の測定結果が図18で示す値だったとすると、当該上下限範囲内に入った回数は1(3回目のみ)、入るまでの回数は3と測定され、当該測定結果の少なくとも一方の値に基づいて被験者のグレーディング度x3が算出される。 As another example of the method (calculation method 3) for calculating the degree of grading x3, the following method can also be used. That is, instead of calculating based on the deviation between the measurement result and the target value as in calculation methods 1 and 2, a certain width (upper and lower limit range) may be provided for the target value, the number of times the measurement result enters the upper and lower limit range, or the number of times until it enters, and the grading degree x3 may be calculated based on the measurement result. For example, if an upper and lower limit range of ±0.3 is provided for the target value, and the measurement result of the subject is the value shown in FIG. 18, the number of times that the subject entered the upper and lower limit range is 1 (only the third time), and the number of times until entering is measured as 3, and the subject's grading degree x3 is calculated based on at least one value of the measurement result.

なお、本実施形態にかかるグレーディング度x3は、上述の算出方法1から3のいずれか一つの算出結果に基づいて算出されてもよいし、少なくとも二つ以上の算出結果を総合して算出されてもよい。ただし、複数の算出方法を組み合せる場合には、それぞれの算出方法を用いた算出結果に対して重み付けしてもよい。当該重み付けは認知機能への影響の度合いを考慮して決定されてよく、例えば、上記式(1)と同様の式を用いて定量的に算出される。式(1)を用いる場合には、例えば、グレーディング度をZとし、算出方法1の算出結果をx1、算出方法2の算出結果をx2、算出方法3の算出結果をx3とすればよい。 The grading degree x3 according to the present embodiment may be calculated based on the calculation result of any one of calculation methods 1 to 3 described above, or may be calculated by combining at least two or more calculation results. However, when combining a plurality of calculation methods, the calculation results using the respective calculation methods may be weighted. The weighting may be determined in consideration of the degree of influence on cognitive function, and is quantitatively calculated using, for example, a formula similar to formula (1) above. When formula (1) is used, for example, the grading degree is Z, the calculation result of calculation method 1 is x1, the calculation result of calculation method 2 is x2, and the calculation result of calculation method 3 is x3.

ここで、本実施形態のグレーディング課題は、被験者に立ち上がり動作を課すものである。したがって、被験者の立ち上がり動作に伴う荷重の変化を測定することにより被験者の運動機能を同時に評価することができる(例えば、特許第6183827号公報を参照)。認知機能に加えて、被験者の運動機能をも評価することにより、例えば、被験者の転倒リスク、或いは転倒原因を、認知機能の側面と、運動機能の側面との両面から多面的に評価することができる。 Here, the grading task of this embodiment imposes a stand-up motion on the subject. Therefore, the motor function of the subject can be simultaneously evaluated by measuring the change in the load accompanying the standing-up motion of the subject (see, for example, Japanese Patent No. 6183827). By evaluating the motor function of the subject in addition to the cognitive function, for example, the risk of falling or the cause of the fall of the subject can be multifacetedly evaluated from both the cognitive function side and the motor function side.

一方で、本実施形態のグレーディング課題は、上述したように、必ずしも測定台11上で立ち上がる動作を行う必要はない。例えば、図21で示すように、被験者は、測定台11の上面を被験者側に傾斜した状態で、上述の立ち上がり動作に代えて自身の足を指示に応じた強さで測定台11に押しつける動作を行うことによってグリーディング課題を行ってもよい。 On the other hand, in the grading task of the present embodiment, as described above, it is not always necessary to perform the motion of standing up on the measuring table 11 . For example, as shown in FIG. 21, the subject may perform the greeting task by pressing his/her feet against the measuring table 11 with the strength according to the instruction, instead of the standing-up action described above, while the upper surface of the measuring table 11 is tilted toward the subject.

以上が、グレーディング課題の内容、及び、グレーディング度x3の算出方法の詳細である。なお、グレーディング課題の結果については、例えば図20で示すような画面で画像表示部30に表示してもよい(ステップS34参照)。図20では、一例として、上述の算出方法1による算出結果に基づいて算出されるグレーディング度が点数(90点)として示されている。 The above is the details of the content of the grading task and the calculation method of the degree of grading x3. Note that the results of the grading assignments may be displayed on the image display unit 30 on the screen shown in FIG. 20, for example (see step S34). In FIG. 20, as an example, the grading degree calculated based on the calculation result by the calculation method 1 described above is shown as a score (90 points).

そして、認知機能評価装置1は、上述のようにして実施された「タイミング課題」、「スペーシング課題」、及び「グリーディング課題」の測定結果に基づいて、総合的な評価である被験者の認知機能レベルを算出する(図4のステップS5参照)。なお、認知機能レベルは、上記(1)式を用いたいわゆる重回帰分析を用いて算出されてもよいし、各課題の測定結果に対して主成分分析を行うことにより集約した式を用いて算出してもよい。 Then, the cognitive function evaluation device 1 calculates the subject's cognitive function level, which is a comprehensive evaluation, based on the measurement results of the "timing task", "spacing task", and "greeting task" performed as described above (see step S5 in FIG. 4). Note that the cognitive function level may be calculated using a so-called multiple regression analysis using the above formula (1), or may be calculated using a formula in which principal component analysis is performed on the measurement results of each task and aggregated.

またさらに、認知機能評価装置1は、評価した被験者の認知機能レベルに応じて、被験者の認知機能を向上させる訓練プログラムや、認知機能の向上に資する情報を提供してもよい。 Furthermore, the cognitive function evaluation device 1 may provide a training program for improving the cognitive function of the subject, or information that contributes to the improvement of the cognitive function, according to the evaluated cognitive function level of the subject.

続いて、本実施形態における作用効果について説明する。 Next, the effects of this embodiment will be described.

本実施形態によれば、認知機能評価装置1は、荷重を測定する測定台11と、被験者の認知機能を評価するCPU24とを備える。CPU24は、測定台11上で所定の足の動作を行うことを被験者に画像表示部30を介して指示し、所定の足の動作によって生じる荷重の変化の基準を設定し、被験者が指示に応じた動作を行うことによって測定台11に加わる荷重の変化を測定し、測定台11に加わる荷重の変化の測定結果と設定された基準との乖離を算出する。そして、CPU24は、算出された乖離の程度に基づいて被験者の認知機能を評価する。 According to this embodiment, the cognitive function evaluation device 1 includes a measurement table 11 for measuring a load, and a CPU 24 for evaluating the cognitive function of a subject. The CPU 24 instructs the subject to perform a predetermined leg motion on the measuring table 11 via the image display unit 30, sets a reference for the change in load caused by the predetermined leg motion, measures the change in the load applied to the measuring table 11 when the subject performs an action in accordance with the instruction, and calculates the deviation between the measurement result of the change in the load applied to the measuring table 11 and the set reference. Then, the CPU 24 evaluates the subject's cognitive function based on the calculated degree of divergence.

すなわち、CPU24は、手先に比べて日常生活では細かな動きを要求される機会がより少ない足の動作を測定し、測定した動作と基準動作との乖離(ズレ)を指標として被験者の認知機能を評価するので、評価結果の被験者の個人差がより大きくなる。足は手に比べて細かな動きをする機会が少なく、細かな動きに慣れていないために、足の動作時は、手の動作時と比較して、脳からの指令が直接動作に反映されやすいからである。そのため、本実実施形態の認知機能評価装置1は、手の動作の測定結果を指標とする場合にくらべて精度よく被験者の認知機能を評価することができる。 In other words, the CPU 24 measures the motion of the leg, which is less likely to require fine movements in daily life than the hand, and evaluates the subject's cognitive function using the deviation (deviation) between the measured motion and the reference motion as an index. This is because the feet have fewer opportunities to make fine movements than the hands and are not accustomed to fine movements, so when the legs are moving, instructions from the brain are more likely to be directly reflected in the movements than when the hands are moving. Therefore, the cognitive function evaluation device 1 of this embodiment can evaluate the cognitive function of the subject with higher accuracy than when the measurement result of the hand motion is used as an index.

また、認知機能評価装置1は、荷重を測定する測定台11と、被験者の認知機能を評価するCPU24と、指示手段としての画像表示部30(又は音声出力装置)による簡素な構成により実現することができる。そのため、例えば被験者を指定場所に招集したり、評価を行う場所に大掛かりな装置を運搬したりすることを要さずに、被験者の認知機能を簡素な装置により簡便に評価することができる。 In addition, the cognitive function evaluation device 1 can be realized by a simple configuration including the measurement table 11 for measuring the load, the CPU 24 for evaluating the cognitive function of the subject, and the image display unit 30 (or voice output device) as an instruction means. Therefore, it is possible to easily evaluate the cognitive function of a subject using a simple device without, for example, gathering the subject to a designated location or transporting a large-scale device to the location where the evaluation is to be performed.

また、認知機能評価装置1は、被験者に指示する所定の動作として、所定のタイミングで被験者の足を動作させるタイミング動作と、所定の方向に被験者の足を動作させるスペーシング動作と、所定の強度で被験者の足を動作させるグレーディング動作と、の少なくとも一つの動作を被験者に指示する。これにより、様々な観点から見た足の巧緻性から、被験者の認知性を評価することができるので、被験者の認知機能の評価精度を高めることができる。 In addition, the cognitive function evaluation apparatus 1 instructs the subject to perform at least one of a timing motion to move the subject's leg at a predetermined timing, a spacing motion to move the subject's leg in a predetermined direction, and a grading motion to move the subject's leg at a predetermined intensity, as the predetermined motion to be instructed to the subject. As a result, it is possible to evaluate the cognitive ability of the subject based on the dexterity of the feet viewed from various points of view, so that the evaluation accuracy of the cognitive function of the subject can be improved.

また、認知機能評価装置1は、算出された乖離の程度の変化に基づいて被験者の認知機能を評価する。これにより、CPU24は、被験者の変化へ対応する能力(対応力)、或は、被験者の学習能力(調整能力)を評価することができるので、当該評価結果に基づいて被験者の認知機能をより多面的に評価することができる。 In addition, the cognitive function evaluation device 1 evaluates the subject's cognitive function based on the calculated change in the degree of deviation. As a result, the CPU 24 can evaluate the subject's ability to respond to changes (response ability) or the subject's learning ability (adjustment ability), so the subject's cognitive function can be evaluated in a more multifaceted manner based on the evaluation results.

また、認知機能評価装置1は、タイミング動作においては、指示するタイミングで被験者の足を動作させた場合に生じる荷重の変化の基準と、測定結果との乖離に基づいて被験者の認知機能を評価する。これにより、被験者の足の巧緻性に寄与する能力のうち、特に被験者の時間調整を正しく行う能力に基づいて、被験者の認知機能を評価することができる。 In the timing motion, the cognitive function evaluation device 1 evaluates the subject's cognitive function based on the discrepancy between the reference of the change in the load that occurs when the subject's leg is moved at the instructed timing and the measurement result. This makes it possible to evaluate the cognitive function of the subject based on, among the abilities that contribute to the fineness of the feet of the subject, particularly the ability of the subject to correctly adjust time.

また、認知機能評価装置1は、「タイミング課題」を実施する際に、荷重変化の基準と測定結果との乖離を判定するための基準となる基準線31と、当該基準線31に向かって所定の速度で移動するオブジェクト32と、を含む画像を表示して、被験者に対してオブジェクト32が基準線31上にあるタイミングで被験者の足を動作させることを指示する。これにより、特に被験者の時間調整を正しく行う能力を適切にかつ、客観的に評価することができる。 In addition, when performing the “timing task”, the cognitive function evaluation device 1 displays an image including a reference line 31 that serves as a reference for determining the deviation between the load change reference and the measurement result, and an object 32 moving toward the reference line 31 at a predetermined speed, and instructs the subject to move the subject's leg at the timing when the object 32 is on the reference line 31. As a result, it is possible to appropriately and objectively evaluate the subject's ability to correctly adjust the time.

また、認知機能評価装置1は、スペーシング動作においては、指示する方向に被験者の足を動作させた場合に生じる荷重の変化の基準と、測定結果との乖離に基づいて被験者の認知機能を評価する。これにより、足の巧緻性に寄与する能力のうち、特に被験者の方向と距離の調整を正しく行う能力に基づいて、被験者の認知機能を評価することができる。 In addition, the cognitive function evaluation device 1 evaluates the cognitive function of the subject based on the discrepancy between the reference of the change in the load that occurs when the subject's foot is moved in the indicated direction and the measurement result in the spacing action. As a result, the cognitive function of the subject can be evaluated based on the ability of the subject to correctly adjust direction and distance, among the abilities that contribute to the dexterity of the foot.

また、認知機能評価装置1は、「スペーシング課題」を実施する際に、所定の軌跡で移動するターゲットと、測定台11上に乗せた被験者の足の位置に対応する位置に表示されるポイントと、を含む画像を表示して、被験者に対してターゲットが移動する方向にポイントが移動するように当該足を動作させることを指示する。これにより、特に被験者の方向と距離の調整を正しく行う能力を適切にかつ、客観的に評価することができる。 In addition, when performing the "spacing task", the cognitive function evaluation device 1 displays an image including a target moving along a predetermined trajectory and a point displayed at a position corresponding to the position of the subject's foot placed on the measurement table 11, and instructs the subject to move the foot so that the point moves in the direction in which the target moves. This makes it possible to appropriately and objectively evaluate the subject's ability to correctly adjust direction and distance.

また、認知機能評価装置1は、グレーディング動作においては、指示する強度で被験者の足を動作させた場合に生じる荷重の変化の基準と、測定結果との乖離に基づいて被験者の認知機能を評価する。これにより、足の巧緻性に寄与する能力のうち、特に被験者の力加減の調整を正しく行う能力に基づいて、被験者の認知機能を評価することができる。 In addition, in the grading motion, the cognitive function evaluation device 1 evaluates the subject's cognitive function based on the discrepancy between the reference of the load change that occurs when the subject's leg is moved at the indicated intensity and the measurement result. As a result, the cognitive function of the subject can be evaluated based on, among the abilities that contribute to the dexterity of the foot, the ability of the subject to correctly adjust the force.

また、認知機能評価装置1は、「グレーディング課題」を実施する際に、被験者が測定台11上に被験者の足を乗せた状態において、全力で立ち上がった際の荷重の変化と普通の力で立ち上がった際の荷重の変化とをそれぞれ測定し、被験者に対して、測定台11に被験者の足を乗せた状態において、全力と普通の力との中間の力加減で立ち上がるように当該足を動作させることを指示する。これにより、特に被験者の力加減の調整を正しく行う能力を適切にかつ、客観的に評価することができる。 In addition, when performing the "grading task", the test subject puts the subject's foot on the measuring table 11, and measures the change in the load when the subject stands up with full force and the load when standing up with normal force. This makes it possible to appropriately and objectively evaluate the subject's ability to correctly adjust the force.

また、認知機能評価装置1は、指示するタイミングで被験者の足を動作させた場合に生じる荷重の変化を測定した測定結果と基準との乖離(第1乖離)と、指示する方向に被験者の足を動作させた場合に生じる荷重の変化を測定した測定結果と基準との乖離(第2乖離)と、指示する強度で被験者の足を動作させた場合に生じる荷重の変化を測定した測定結果と基準との乖離(第3乖離)との少なくとも2つ以上の乖離に基づいて、被験者の認知機能を評価する。これにより、タイミング課題と、スペーシング課題と、グレーディング課題のうち少なくとも二つ以上の異なる観点から見た足の巧緻性から、被験者の認知性を総合的に評価することができるので、被験者の認知機能の評価精度を高めることができる。 In addition, the cognitive function evaluation device 1 has at least two discrepancies: the deviation between the reference (first deviation) and the measurement result of the load change that occurs when the subject's leg is moved at the instructed timing; the deviation between the measurement result of the load change that occurs when the subject's leg is moved in the indicated direction (second deviation) and the reference; Based on the deviation, the subject's cognitive function is evaluated. As a result, the subject's cognition can be comprehensively evaluated from the dexterity of the foot viewed from at least two different points of view of the timing task, the spacing task, and the grading task, so the accuracy of evaluation of the subject's cognitive function can be improved.

以上、本発明の実施形態について説明したが、上述の実施形態は本発明の適用例の一部を示したに過ぎず、本発明の技術的範囲を上述の実施形態の具体的構成に限定する趣旨ではない。 Although the embodiments of the present invention have been described above, the above-described embodiments merely show a part of the application examples of the present invention, and are not intended to limit the technical scope of the present invention to the specific configurations of the above-described embodiments.

例えば、図2を用いて説明した測定部10は、4つの荷重センサ12を備えていることを説明したが、これに限られない。例えば、上述のグリーディング課題では少なくとも荷重の最大値を検出すれば実施できるため、グリーディング課題のみの測定結果に基づいて認知機能を評価する場合には、少なくとも一つの荷重センサ12を備えていればよい。また、重心を測定する場合でも、4つの荷重センサ12を備える必要は必ずしもなく、3つの荷重センサ12を備えていればよい。 For example, although the measuring unit 10 described with reference to FIG. 2 has four load sensors 12, the present invention is not limited to this. For example, since the above-mentioned greeting task can be performed by detecting at least the maximum load value, at least one load sensor 12 should be provided when evaluating cognitive function based on the measurement results of only the greeting task. Moreover, even when measuring the center of gravity, it is not always necessary to provide four load sensors 12, and it is sufficient to provide three load sensors 12. FIG.

また、タイミング課題、スペーシング課題を実施する際には、被験者は必ずしも立位姿勢である必要はない。これらの課題についても、グレーディング課題について図21を用いて説明したのと同様に、座った状態において自身の足を測定台11に押しつけることによって実施することができる。 Also, when performing the timing task and the spacing task, the subject does not necessarily have to be in a standing posture. These tasks can also be performed by pressing one's own feet against the measurement table 11 in a sitting state, in the same way as the grading task was explained using FIG. 21 .

また、各課題を指示する際に画像表示部30に表示される指示画面は上述したものに限られない。例えば、図7Aから図7Dを用いて説明したタイミング課題においてオブジェクト32が移動する方向は、上から下に限られない。下から上、或いは斜め等であってもよく、基準線31の位置等とともに適宜変更されてよい。また、例えば図11Aから図11Dを用いて説明したスペーシング課題においてターゲットが移動する道筋も、直線状に限られない。円形状、或いは波状等であってもよく、適宜変更されてよい。 Further, the instruction screen displayed on the image display unit 30 when instructing each assignment is not limited to the one described above. For example, the direction in which the object 32 moves in the timing task described with reference to FIGS. 7A to 7D is not limited to top to bottom. It may be from bottom to top, oblique, or the like, and may be changed as appropriate along with the position of the reference line 31 or the like. Also, the path along which the target moves in the spacing task described with reference to FIGS. 11A to 11D, for example, is not limited to a straight line. It may have a circular shape, a wave shape, or the like, and may be changed as appropriate.

また、図4、6、10、及び、14で示すフローチャートは、必ずしも図示するステップを全て備える必要はなく、又、必ずしも図示する順序で実行される必要はない。例えば、図6のステップS13等で示す測定結果表示に係る処理は実行しなくてもよい。また、図4で示すステップS2からS4で示すタイミング課題、スペーシング課題、及び、グレーディング課題の処理を行う順序は適宜入れ替え可能である。また、これらの課題は連続で実行される必要はなく、例えばそれぞれ別日に実行されてもよい。 Also, the flowcharts shown in FIGS. 4, 6, 10, and 14 do not necessarily have all the steps shown, nor do they necessarily need to be executed in the order shown. For example, the processing related to the measurement result display shown in step S13 of FIG. 6 or the like may not be executed. Also, the order of processing the timing task, the spacing task, and the grading task shown in steps S2 to S4 shown in FIG. 4 can be appropriately changed. Also, these assignments do not need to be performed consecutively, and may be performed on different days, for example.

1 認知機能評価装置
11 測定台
30 画像表示部(指示手段)
24 CPU(認知機能評価装置)
241 データ取得部(取得手段)
242 認知機能評価部(評価手段)
242A 基準設定部(設定手段)
242B 測定部(測定手段)
242C 評価部(評価手段)
1 cognitive function evaluation device 11 measurement table 30 image display unit (instruction means)
24 CPU (cognitive function evaluation device)
241 data acquisition unit (acquisition means)
242 Cognitive Function Assessment Unit (Evaluation Means)
242A Reference setting unit (setting means)
242B measuring unit (measuring means)
242C Evaluation Unit (Evaluation Means)

Claims (8)

荷重を測定する測定台と、
被験者に対し、前記測定台上で足の巧緻性が反映される所定の足の動作を行うことを指示する指示手段と、
前記所定の足の動作によって生じる荷重の変化の基準を設定する設定手段と、
前記被験者が前記指示に応じた動作を行うことによって前記測定台に加わる荷重の変化を測定する測定手段と、
前記設定手段により設定された前記基準と、前記測定手段により測定された前記測定台に加わる荷重の変化の測定結果との乖離を算出する算出手段と、
前記算出手段により算出された前記乖離の程度に基づいて前記被験者の認知機能を評価する評価手段と、
を含むことを特徴とする認知機能評価装置。
a measuring platform for measuring the load;
an instruction means for instructing the subject to perform a predetermined foot movement that reflects the dexterity of the foot on the measuring table;
setting means for setting a reference for the change in load caused by the predetermined foot motion;
measuring means for measuring a change in the load applied to the measuring table when the subject performs an action according to the instruction;
calculation means for calculating the deviation between the reference set by the setting means and the measurement result of the change in the load applied to the measuring table measured by the measurement means;
evaluation means for evaluating the cognitive function of the subject based on the degree of deviation calculated by the calculation means;
A cognitive function evaluation device comprising:
請求項1に記載の認知機能評価装置であって、
前記測定台上で行われる前記所定の足の動作は、前記被験者が座った状態で実施される、
認知機能評価装置。
The cognitive function evaluation device according to claim 1,
The predetermined leg movement performed on the measurement table is performed while the subject is sitting.
Cognitive function evaluation device.
請求項1又は請求項2に記載の認知機能評価装置であって、
前記指示手段が指示する所定の足の動作には、所定のタイミングで前記被験者の足を動作させるタイミング動作と、所定の方向に前記被験者の足を動作させるスペーシング動作と、所定の強度で前記被験者の足を動作させるグレーディング動作と、の少なくとも一つが含まれる、
認知機能評価装置。
The cognitive function evaluation device according to claim 1 or claim 2,
The predetermined leg motion instructed by the instruction means includes at least one of a timing motion of moving the subject's leg at a predetermined timing, a spacing motion of moving the subject's leg in a predetermined direction, and a grading motion of moving the subject's leg at a predetermined intensity.
Cognitive function evaluation device.
請求項1から請求項3のいずれか一項に記載の認知機能評価装置であって、
前記評価手段は、前記算出手段により算出された前記乖離の程度の変化に基づいて前記被験者の認知機能を評価する、
認知機能評価装置。
The cognitive function evaluation device according to any one of claims 1 to 3,
The evaluation means evaluates the cognitive function of the subject based on the change in the degree of deviation calculated by the calculation means.
Cognitive function evaluation device.
請求項3に記載の認知機能評価装置であって、
前記算出手段は、
前記タイミング動作においては、前記指示手段が指示するタイミングで前記被験者の足を動作させた場合に生じる荷重の変化の基準と、前記測定結果とから前記乖離を算出し、
前記スペーシング動作においては、前記指示手段が指示する方向に前記被験者の足を動作させた場合に生じる荷重の変化の基準と、前記測定結果とから前記乖離を算出し、
前記グレーディング動作においては、前記指示手段が指示する強度で前記被験者の足を動作させた場合に生じる荷重の変化の基準と、前記測定結果とから前記乖離を算出する、
認知機能評価装置。
The cognitive function evaluation device according to claim 3,
The calculation means is
In the timing motion, the divergence is calculated from the reference of the change in the load that occurs when the subject's leg is moved at the timing instructed by the instruction means and the measurement result,
In the spacing motion, the divergence is calculated from the reference of the change in the load that occurs when the subject's foot is moved in the direction indicated by the instruction means and the measurement result,
In the grading operation, the divergence is calculated from the reference of the change in the load that occurs when the subject's foot is moved at the intensity instructed by the instruction means and the measurement result.
Cognitive function evaluation device.
請求項5に記載の認知機能評価装置であって、
前記指示手段は、
前記タイミング動作においては、前記乖離を判定するための基準となる基準線と、当該基準線に向かって所定の速度で移動するオブジェクトと、を含む画像を表示して、前記被験者に対して前記オブジェクトが前記基準線上にあるタイミングで前記被験者の足を動作させることを指示し、
前記スペーシング動作においては、所定の軌跡で移動するターゲットと、前記測定台上に乗せた前記被験者の足の位置に対応する位置に表示されるポイントと、を含む画像を表示して、前記被験者に対して前記ターゲットが移動する方向に前記ポイントが移動するように当該足を動作させることを指示し、
前記グレーディング動作においては、前記測定手段によって、前記被験者が前記測定台上に前記被験者の足を乗せた状態において全力で立ち上がった際の荷重の変化と普通の力で立ち上がった際の荷重の変化とをそれぞれ測定した後に、前記被験者に対して、前記測定台に前記被験者の足を乗せた状態において前記全力と前記普通の力との中間の力加減で立ち上がるように当該足を動作させることを指示する、
認知機能評価装置。
The cognitive function evaluation device according to claim 5,
The indicating means is
In the timing motion, an image including a reference line serving as a reference for determining the divergence and an object moving toward the reference line at a predetermined speed is displayed, and the subject is instructed to move the subject's leg at a timing when the object is on the reference line;
In the spacing motion, an image including a target moving along a predetermined trajectory and a point displayed at a position corresponding to the position of the subject's foot placed on the measurement table is displayed, and the subject is instructed to move the foot so that the point moves in the direction in which the target moves;
In the grading operation, after measuring the change in the load when the subject puts the subject's foot on the measurement table and the change in the load when the subject stands up with full force and the change in the load when the subject stands up with normal force, the subject is instructed to move the leg to stand up with a force intermediate between the full strength and the normal force with the subject's foot on the measurement table.
Cognitive function evaluation device.
荷重を測定する測定台を備えた認知機能評価装置を作動させるコンピュータが、
被験者に対し、前記測定台上で足の巧緻性が反映される所定の足の動作を行うことを指示する指示ステップと、
前記所定の足の動作によって生じる荷重の変化の基準を設定する設定ステップと、
前記被験者が前記指示に応じた動作を行うことによって前記測定台に加わる荷重の変化を測定する測定ステップと、
前記設定ステップにより設定された前記基準と、前記測定ステップにより測定された前記測定台に加わる荷重の変化の測定結果との乖離を算出する算出ステップと、
前記算出ステップにより算出された前記乖離の程度に基づいて前記被験者の認知機能を評価する評価ステップと、
実行する認知機能評価装置の作動方法。
A computer that operates a cognitive function evaluation device equipped with a measuring table that measures the load,
an instruction step of instructing the subject to perform a predetermined foot movement that reflects the dexterity of the foot on the measuring table;
a setting step of setting a criterion for the change in load caused by the predetermined foot motion;
a measurement step of measuring a change in the load applied to the measurement platform by the subject performing an action in accordance with the instruction;
a calculating step of calculating the deviation between the reference set in the setting step and the measurement result of the change in the load applied to the measuring table measured in the measuring step;
an evaluation step of evaluating the cognitive function of the subject based on the degree of deviation calculated by the calculation step;
A method of operating a cognitive function evaluation device that performs
荷重を測定する測定台を用いて被験者の認知機能を評価するコンピュータに、
前記被験者に対し、前記測定台上で足の巧緻性が反映される所定の足の動作を行うことを指示する指示ステップと、
前記所定の足の動作によって生じる荷重の変化の基準を設定する設定ステップと、
前記被験者が前記指示に応じた動作を行うことによって前記測定台に加わる荷重の変化を測定する測定ステップと、
前記設定ステップにより設定された前記基準と、前記測定ステップにより測定された前記測定台に加わる荷重の変化の測定結果との乖離を算出する算出ステップと、
前記算出ステップにより算出された前記乖離の程度に基づいて前記被験者の認知機能を評価する評価ステップと、
を実行させるためのプログラム。
A computer that evaluates the subject's cognitive function using a measuring platform that measures the load,
an instruction step of instructing the subject to perform a predetermined foot movement on the measuring table that reflects the dexterity of the foot;
a setting step of setting a criterion for the change in load caused by the predetermined foot motion;
a measurement step of measuring a change in the load applied to the measurement platform by the subject performing an action in accordance with the instruction;
a calculating step of calculating the deviation between the reference set in the setting step and the measurement result of the change in the load applied to the measuring table measured in the measuring step;
an evaluation step of evaluating the cognitive function of the subject based on the degree of deviation calculated by the calculation step;
program to run the
JP2018225930A 2018-11-30 2018-11-30 COGNITIVE FUNCTION EVALUATION DEVICE, OPERATION METHOD OF COGNITIVE FUNCTION EVALUATION DEVICE, AND PROGRAM Active JP7312981B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018225930A JP7312981B2 (en) 2018-11-30 2018-11-30 COGNITIVE FUNCTION EVALUATION DEVICE, OPERATION METHOD OF COGNITIVE FUNCTION EVALUATION DEVICE, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018225930A JP7312981B2 (en) 2018-11-30 2018-11-30 COGNITIVE FUNCTION EVALUATION DEVICE, OPERATION METHOD OF COGNITIVE FUNCTION EVALUATION DEVICE, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2020081763A JP2020081763A (en) 2020-06-04
JP7312981B2 true JP7312981B2 (en) 2023-07-24

Family

ID=70905245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018225930A Active JP7312981B2 (en) 2018-11-30 2018-11-30 COGNITIVE FUNCTION EVALUATION DEVICE, OPERATION METHOD OF COGNITIVE FUNCTION EVALUATION DEVICE, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7312981B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000325665A (en) 1998-07-24 2000-11-28 Konami Co Ltd Dance game device, control method thereof, and readable recording medium recording dance game program
JP2012157581A (en) 2011-02-01 2012-08-23 Panasonic Corp Exercise function measuring system
US20140352521A1 (en) 2013-06-03 2014-12-04 Lumos Labs, Inc. Rhythm brain fitness processes and systems

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000325665A (en) 1998-07-24 2000-11-28 Konami Co Ltd Dance game device, control method thereof, and readable recording medium recording dance game program
JP2012157581A (en) 2011-02-01 2012-08-23 Panasonic Corp Exercise function measuring system
US20140352521A1 (en) 2013-06-03 2014-12-04 Lumos Labs, Inc. Rhythm brain fitness processes and systems

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大学改革推進事業にて「認知機能ブース」を担当して,星城大学キャンパスニュース,2013年10月28日,<URL:http://www.seijoh-u.ac.jp/blog/2013/10/>

Also Published As

Publication number Publication date
JP2020081763A (en) 2020-06-04

Similar Documents

Publication Publication Date Title
KR101765961B1 (en) Vision testing and/or training using adaptable visual indicia
CA2770113C (en) Multi-touch display and input for vision testing and training
JP5654595B2 (en) System and method for measuring and / or training visual ability of a subject
EP2777483B1 (en) Motor function evaluation device and motor function evaluation method
EP2134244B1 (en) Methods for testing near and far visual abilities
US9251718B2 (en) Training apparatus
CN109965844B (en) Berger balance checking device and method
US20210393190A1 (en) Apparatus and method for evaluating cognitive function
US20210093920A1 (en) Personal Fitness Training System With Biomechanical Feedback
JP2008104667A (en) Health measuring apparatus
JP7312981B2 (en) COGNITIVE FUNCTION EVALUATION DEVICE, OPERATION METHOD OF COGNITIVE FUNCTION EVALUATION DEVICE, AND PROGRAM
JP2016055132A (en) Balance ability measuring apparatus, method, and program
JP2021183079A (en) Pulse wave measuring apparatus, and program
KR101929501B1 (en) Bodyfat measurement apparatus, terminal communicating the same and body shape management system including the same
US20160274663A1 (en) Control apparatus
JP2022554361A (en) Systems, devices and methods for measuring kinesthetic, vestibular and somatosensory abilities
KR100348467B1 (en) Body component analyzer
WO2021049625A1 (en) Game device and program related to sense of agency
CN108567412B (en) Dyskinesia evaluation device and method
WO2023190629A1 (en) Measurement system, measurement method, measurement program, and computer-readable non-transitory storage medium
JP5248135B2 (en) Exercise program implementation support device
JP7001867B1 (en) Eye movement evaluation support system and eye movement evaluation support method
JP2024013449A (en) Fatigue evaluation device, fatigue evaluation system, fatigue evaluation program, and fatigue evaluation method
GB2623790A (en) Systems and methods for assessing visuo-cognitive function
Crenna et al. Experimental set-up for the measurement of the perceived intensity of vibrations

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210811

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230630

R150 Certificate of patent or registration of utility model

Ref document number: 7312981

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150