JP2021180716A - Information processing device, specification method and program - Google Patents

Information processing device, specification method and program Download PDF

Info

Publication number
JP2021180716A
JP2021180716A JP2020086916A JP2020086916A JP2021180716A JP 2021180716 A JP2021180716 A JP 2021180716A JP 2020086916 A JP2020086916 A JP 2020086916A JP 2020086916 A JP2020086916 A JP 2020086916A JP 2021180716 A JP2021180716 A JP 2021180716A
Authority
JP
Japan
Prior art keywords
line
sight
movement
unit
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020086916A
Other languages
Japanese (ja)
Inventor
保裕 渡辺
Yasuhiro Watanabe
一剛 上原
Kazutaka Uehara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tottori University NUC
Original Assignee
Tottori University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tottori University NUC filed Critical Tottori University NUC
Priority to JP2020086916A priority Critical patent/JP2021180716A/en
Publication of JP2021180716A publication Critical patent/JP2021180716A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an information processing device capable of specifying a type of a nervous disease, a specification method and a program.SOLUTION: According to an embodiment of the present invention, an information processing device includes an acquisition part and a specification part. The acquisition part is configured to be able to acquire the movement of the visual line of a subject reading a document, and the specification part is configured to be able specify which case the acquired movement of the visual line corresponds to in visual line motion data, and the visual line motion data is provided by storing the movement of the visual line of the subject reading the document in each of a plurality of cases.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、特定方法及びプログラムに関する。 The present invention relates to an information processing device, a specific method and a program.

患者が、神経疾患の有無又は神経疾患の種別を特定する方法は、頭部MRI等多数存在する。 There are many methods for a patient to identify the presence or absence of a neurological disease or the type of a neurological disease, such as head MRI.

特許文献1には、視覚刺激を表示部より患者に呈示し、その刺激に対する患者の注視点の情報に基づいて患者が神経疾患を患っているかどうかを判断する方法が開示されている。 Patent Document 1 discloses a method of presenting a visual stimulus to a patient from a display unit and determining whether or not the patient has a neurological disease based on the information of the patient's gaze point to the stimulus.

特願2016−552133号公報Japanese Patent Application No. 2016-552133

ところで、神経疾患の種別を簡単に特定できることが望まれる。 By the way, it is desired that the type of neurological disease can be easily identified.

本発明では上記事情を鑑み、神経疾患の種別を特定することが可能な情報処理装置、特定方法及びプログラムを提供することとした。 In view of the above circumstances, the present invention has decided to provide an information processing device, a specific method and a program capable of specifying the type of neurological disease.

本発明の一態様によれば、情報処理装置であって、取得部と、特定部とを備え、前記取得部は、文書を読んでいる被検者の視線の動きを取得可能に構成され、前記特定部は、前記取得した視線の動きが、視線運動データのうち、いずれの症例に該当するかを特定可能に構成され、前記視線運動データは、文書を読んでいるときにおける人物の視線の動きを、複数の症例毎に記憶したものである、ものが提供される。 According to one aspect of the present invention, the information processing apparatus includes an acquisition unit and a specific unit, and the acquisition unit is configured to be able to acquire the movement of the line of sight of a subject reading a document. The specific unit is configured to be able to identify which case the acquired gaze movement corresponds to in the gaze movement data, and the gaze movement data is the gaze of a person when reading a document. The movement is memorized for each of a plurality of cases, and the thing is provided.

このような情報処理装置によれば、神経疾患の患者を容易に特定することができる。 With such an information processing device, a patient with a neurological disorder can be easily identified.

情報処理装置3及びそれに付随する装置を含むシステム100の模式図である。It is a schematic diagram of the system 100 including the information processing apparatus 3 and the apparatus associated with it. 情報処理装置3のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware composition of an information processing apparatus 3. 情報処理装置3における制御部33が担う機能を示す機能ブロック図である。It is a functional block diagram which shows the function which the control unit 33 in an information processing apparatus 3 has. 被検者2の視線の動きから取得した視線運動6及び視線運動データGの一例である。This is an example of the line-of-sight motion 6 and the line-of-sight motion data G acquired from the line-of-sight movement of the subject 2. 被検者2が読むテスト文書D1の一例である。This is an example of the test document D1 read by the subject 2. テスト文書D1を用いて対照実験をした結果である。図6Aは、対照区であるコントロール画像DCを表す図である。図6Bは、実験区である多系統萎縮症画像DMを表す図である。It is the result of the control experiment using the test document D1. FIG. 6A is a diagram showing a control image DC which is a control group. FIG. 6B is a diagram showing a multiple system atrophy image DM, which is an experimental group. 神経疾患を特定する特徴量FQ及び特徴FTを記した特徴量一覧Fである。It is a feature quantity list F which describes the feature quantity FQ and the feature quantity FT which specify a neurological disorder. 第1視線データGD1の一例である。This is an example of the first line-of-sight data GD1. 第2視線データGD2の一例である。This is an example of the second line-of-sight data GD2. 神経疾患の特定方法に用いられる前処理の一例である。This is an example of pretreatment used in a method for identifying a neurological disorder. 被検者2が読むテスト文書D2の一例である。This is an example of the test document D2 read by the subject 2. 健常者及び多系統萎縮症の検査結果を表す図である。図12Aは、健常者のコントロール画像ECを表す図である。図12Bは、多系統萎縮症画像EMを表す図である。It is a figure which shows the test result of a healthy person and multiple system atrophy. FIG. 12A is a diagram showing a control image EC of a healthy person. FIG. 12B is a diagram showing a multiple system atrophy image EM. パーキンソン病及び進行性核上性麻痺の検査結果を表す図である。図13Aは、パーキンソン病画像EDを表す図である。図13Bは、進行性核上性麻痺画像ESを表す図である。It is a figure which shows the test result of Parkinson's disease and progressive supranuclear palsy. FIG. 13A is a diagram showing the Parkinson's disease image ED. FIG. 13B is a diagram showing a progressive supranuclear palsy image ES. 実施形態に係る神経疾患の特定方法の一例を表すアクティビティ図である。It is an activity diagram which shows an example of the method of identifying a neurological disorder which concerns on embodiment. 実施形態に係る神経疾患の特定方法の一例を表すサブアクティビティ図である。図15Aは、視線の動きに関するデータの取得方法(A01)のサブアクティビティ図である。図15Bは、特徴の取得方法(A02)のサブアクティビティ図である。It is a sub-activity diagram which shows an example of the method of identifying a neurological disorder which concerns on embodiment. FIG. 15A is a sub-activity diagram of the data acquisition method (A01) relating to the movement of the line of sight. FIG. 15B is a sub-activity diagram of the feature acquisition method (A02).

以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The various features shown in the embodiments shown below can be combined with each other.

ところで、本実施形態に登場するソフトウェアを実現するためのプログラムは、コンピュータが読み取り可能な非一時的な記録媒体として提供されてもよいし、外部のサーバからダウンロード可能に提供されてもよいし、外部のコンピュータで当該プログラムを起動させてクライアント端末でその機能を実現(いわゆるクラウドコンピューティング)するように提供されてもよい。 By the way, the program for realizing the software appearing in the present embodiment may be provided as a non-temporary recording medium readable by a computer, may be provided as a downloadable form from an external server, or may be provided. It may be provided to start the program on an external computer and realize the function on the client terminal (so-called cloud computing).

また、本実施形態において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらのハードウェア資源によって具体的に実現されうるソフトウェアの情報処理とを合わせたものも含みうる。また、本実施形態においては様々な情報を取り扱うが、これら情報は、例えば電圧・電流を表す信号値の物理的な値、0又は1で構成される2進数のビット集合体としての信号値の高低、又は量子的な重ね合わせ(いわゆる量子ビット)によって表され、広義の回路上で通信・演算が実行されうる。 Further, in the present embodiment, the "part" may include, for example, a combination of hardware resources implemented by a circuit in a broad sense and information processing of software specifically realized by these hardware resources. .. In addition, various information is handled in this embodiment, and these information are, for example, physical values of signal values representing voltage and current, and signal values as a bit aggregate of a binary number composed of 0 or 1. It is represented by high-low or quantum superposition (so-called qubit), and communication / operation can be executed on a circuit in a broad sense.

また、広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)、及びメモリ(Memory)等を少なくとも適当に組み合わせることによって実現される回路である。すなわち、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等を含むものである。 Further, the circuit in a broad sense is a circuit realized by at least appropriately combining a circuit, a circuit, a processor, a memory, and the like. That is, an integrated circuit for a specific application (Application Specific Integrated Circuit: ASIC), a programmable logic device (for example, a simple programmable logic device (Simple Programmable Logic Device: SPLD), a composite programmable logic device (Complex Programg)). It includes a programmable gate array (Field Programmable Gate Array: FPGA) and the like.

1.全体構成
本章では、本実施形態に係る情報処理装置について説明する。図1は、情報処理装置3及びそれに付随する装置を含むシステム100の模式図である。
1. 1. Overall Configuration This chapter describes the information processing device according to this embodiment. FIG. 1 is a schematic diagram of a system 100 including an information processing apparatus 3 and an associated apparatus thereof.

図1に示されるように、情報処理装置3は、視線計測装置4及びマイクロホン5と一緒に使用される。視線計測装置4及びマイクロホン5は外付けされる機器であっても良いし、情報処理装置3に内蔵されていてもよい。これらの装置を用いて、被検者2の視線の動きを分析して神経疾患の検査が行われる。神経疾患の対象は、パーキンソン病、多系統萎縮症/脊髄小脳変性症、進行性核上性麻痺、及び大脳皮質基底核症候群等であるが、これらに限らない。以下、情報処理装置3の構成要素についてさらに詳述する。 As shown in FIG. 1, the information processing device 3 is used together with the line-of-sight measuring device 4 and the microphone 5. The line-of-sight measuring device 4 and the microphone 5 may be external devices or may be built in the information processing device 3. Using these devices, the movement of the line of sight of the subject 2 is analyzed to perform a neurological disorder test. Targets of neurological disorders include, but are not limited to, Parkinson's disease, multiple system atrophy / spinocerebellar degeneration, progressive supranuclear palsy, and corticobasal syndrome. Hereinafter, the components of the information processing apparatus 3 will be described in more detail.

図2は、情報処理装置3のハードウェア構成を示すブロック図である。図3は、情報処理装置3における制御部33が担う機能を示す機能ブロック図である。情報処理装置3は、通信部31と、記憶部32と、制御部33と、表示部34と、入力部35とを有し、これらの構成要素が情報処理装置3の内部において通信バス30を介して電気的に接続されている。以下、各構成要素についてさらに説明をする。 FIG. 2 is a block diagram showing a hardware configuration of the information processing apparatus 3. FIG. 3 is a functional block diagram showing a function carried out by the control unit 33 in the information processing apparatus 3. The information processing device 3 has a communication unit 31, a storage unit 32, a control unit 33, a display unit 34, and an input unit 35, and these components provide a communication bus 30 inside the information processing device 3. It is electrically connected via. Hereinafter, each component will be further described.

(通信部31)
通信部31は、USB、IEEE1394、Thunderbolt、有線LANネットワーク通信等といった有線型の通信手段が好ましいものの、無線LANネットワーク通信、LTE/3G等のモバイル通信、Bluetooth(登録商標)通信等を必要に応じて含めてもよい。即ち、これら複数の通信手段の集合として実施することがより好ましい。特に、外付けされる視線計測装置4及びマイクロホン5とは、所定の通信規格において通信可能に構成されることが好ましい。
(Communication unit 31)
Although wired communication means such as USB, IEEE1394, Thunderbolt, and wired LAN network communication are preferable, the communication unit 31 can perform wireless LAN network communication, mobile communication such as LTE / 3G, Bluetooth (registered trademark) communication, and the like as necessary. May be included. That is, it is more preferable to carry out as a set of these plurality of communication means. In particular, it is preferable that the external line-of-sight measuring device 4 and the microphone 5 are configured to be communicable according to a predetermined communication standard.

(記憶部32)
記憶部32は、前述の記載により定義される様々な情報を記憶する。これは、例えばソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスとして、あるいは、プログラムの演算に係る一時的に必要な情報(引数、配列等)を記憶するランダムアクセスメモリ(Random Access Memory:RAM)等のメモリとして実施されうる。また、これらの組合せであってもよい。特に、記憶部32は、視線計測装置4及びマイクロホン5が検出したデータを記憶する。また、記憶部32は、取得プログラム、特定プログラム、特徴設定プログラム、特徴取得プログラム、時間測定プログラム、生成プログラム、変換プログラム、前処理プログラム、結果保存プログラム、及び表示制御プログラムを記憶する。また、記憶部32は、これ以外にも制御部33によって実行される情報処理装置3に係る種々のプログラム等を記憶している。
(Memory unit 32)
The storage unit 32 stores various information defined by the above description. This is, for example, as a storage device such as a solid state drive (SSD), or a random access memory (Random Access Memory:) that stores temporarily necessary information (arguments, arrays, etc.) related to program operations. It can be implemented as a memory such as RAM). Further, these combinations may be used. In particular, the storage unit 32 stores the data detected by the line-of-sight measuring device 4 and the microphone 5. Further, the storage unit 32 stores an acquisition program, a specific program, a feature setting program, a feature acquisition program, a time measurement program, a generation program, a conversion program, a preprocessing program, a result storage program, and a display control program. In addition to this, the storage unit 32 stores various programs related to the information processing device 3 executed by the control unit 33.

記憶部32は、視線運動データGを記憶する。ここで視線運動データGは、文書を読んでいるときにおける人物の視線の動きを、複数の症例毎に記憶したものである。換言すると視線運動データGは、視線の動きをトラッキングしたデータから座標点を抽出したものであり、症例毎に分類された視線の動きを含む関連するデータである。視線運動データGは、健常者及び神経疾患患者から集められる。視線運動データGは、視線計測装置4から通信部31を介して受信したデータであってもよいし、別の装置で取得した記憶媒体に記憶されたデータであってもよい。図4は、被検者2の視線の動きから取得した視線運動6及び視線運動データGの一例である。視線運動6は、被検者2が表示部34を見ているときの視点をトラッキングしたものである。視線運動6は、注視点61と接続線62を有する。注視点61は、被検者2が文書を読んでいる間、視線が所定の時間以上停止した点、所定の時間以上停止した領域の中心座標、又は、所定時間毎における視線に対応する座標である。接続線62は、連続する2つの注視点61を接続した線である。換言すると、接続線62は、被検者2が視線を移動した軌跡である。図4では、検査中の視線運動6を表示部34に表示させているが、表示させなくてもよい。 The storage unit 32 stores the line-of-sight motion data G. Here, the line-of-sight movement data G stores the movement of the line-of-sight of a person when reading a document for each of a plurality of cases. In other words, the line-of-sight motion data G is obtained by extracting coordinate points from the data for tracking the line-of-sight movement, and is related data including the line-of-sight movement classified for each case. Gaze movement data G is collected from healthy subjects and patients with neurological disorders. The line-of-sight motion data G may be data received from the line-of-sight measuring device 4 via the communication unit 31, or may be data stored in a storage medium acquired by another device. FIG. 4 is an example of the line-of-sight motion 6 and the line-of-sight motion data G acquired from the line-of-sight movement of the subject 2. The line-of-sight motion 6 tracks the viewpoint when the subject 2 is looking at the display unit 34. The line-of-sight motion 6 has a gazing point 61 and a connecting line 62. The gazing point 61 is a point at which the line of sight is stopped for a predetermined time or longer while the subject 2 is reading a document, the center coordinates of a region where the line of sight is stopped for a predetermined time or longer, or coordinates corresponding to the line of sight at predetermined time intervals. be. The connecting line 62 is a line connecting two continuous gazing points 61. In other words, the connecting line 62 is a locus of the subject 2 moving his / her line of sight. In FIG. 4, the line-of-sight motion 6 being inspected is displayed on the display unit 34, but it may not be displayed.

視線運動データGに含まれるNoは、注視点61を時系列に並べた順序である。視線運動データGに含まれるX及びYは、注視点61の表示部34における座標点である。ここで座標系は、画像座標系であってもよいし、物理座標系であってもよい。座標系は限定しない。 No. included in the line-of-sight motion data G is an order in which the gazing points 61 are arranged in chronological order. X and Y included in the line-of-sight motion data G are coordinate points on the display unit 34 of the gazing point 61. Here, the coordinate system may be an image coordinate system or a physical coordinate system. The coordinate system is not limited.

(制御部33)
制御部33は、情報処理装置3に関連する全体動作の処理・制御を行う。制御部33は、例えば不図示の中央処理装置(Central Processing Unit:CPU)である。制御部33は、記憶部32に記憶された所定のプログラムを読み出すことによって、情報処理装置3に係る種々の機能を実現する。具体的には取得機能、特定機能、特徴設定機能、特徴取得機能、時間測定機能、生成機能、変換機能、前処理機能、結果保存機能、及び表示制御機能が該当する。即ち、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されることで、取得部331、特定部332、特徴設定部333、特徴取得部334、時間測定部335、生成部336、変換部337、前処理部338、結果保存部339、及び表示制御部33aとして実行されうる。なお、図2においては、単一の制御部33として表記されているが、実際はこれに限るものではなく、機能ごとに複数の制御部33を有するように実施してもよい。またそれらの組合せであってもよい。
(Control unit 33)
The control unit 33 processes and controls the overall operation related to the information processing device 3. The control unit 33 is, for example, a central processing unit (CPU) (not shown). The control unit 33 realizes various functions related to the information processing device 3 by reading out a predetermined program stored in the storage unit 32. Specifically, it corresponds to an acquisition function, a specific function, a feature setting function, a feature acquisition function, a time measurement function, a generation function, a conversion function, a preprocessing function, a result storage function, and a display control function. That is, the information processing by the software (stored in the storage unit 32) is specifically realized by the hardware (control unit 33), so that the acquisition unit 331, the specific unit 332, the feature setting unit 333, and the feature acquisition unit are realized. It can be executed as 334, time measurement unit 335, generation unit 336, conversion unit 337, preprocessing unit 338, result storage unit 339, and display control unit 33a. Although it is described as a single control unit 33 in FIG. 2, it is not limited to this, and it may be implemented so as to have a plurality of control units 33 for each function. Further, it may be a combination thereof.

(表示部34)
表示部34は、例えば、情報処理装置3の筐体に含まれるものであってもよいし、外付けされるものであってもよい。表示部34は、ユーザーが操作可能なグラフィカルユーザーインターフェース(Graphical User Interface:GUI)の画面を表示する。これは例えば、CRTディスプレイ、液晶ディスプレイ、有機ELディスプレイ及びプラズマディスプレイ等の表示デバイスを、情報処理装置3の種類に応じて使い分けて実施することが好ましい。当該表示デバイスは、制御部33における表示制御部33aの制御信号に応答して、表示画面を選択的に表示しうる。例えば、テスト文書D1、検査結果(不図示)等をユーザーが視認可能に表示することができる。
(Display unit 34)
The display unit 34 may be included in the housing of the information processing apparatus 3, or may be externally attached, for example. The display unit 34 displays a screen of a graphical user interface (GUI) that can be operated by the user. For example, it is preferable to use display devices such as a CRT display, a liquid crystal display, an organic EL display, and a plasma display properly according to the type of the information processing device 3. The display device can selectively display the display screen in response to the control signal of the display control unit 33a in the control unit 33. For example, the test document D1, the inspection result (not shown), and the like can be visually displayed by the user.

(入力部35)
入力部35は、情報処理装置3の筐体に含まれるものであってもよいし、外付けされるものであってもよい。例えば、入力部35は、表示部34と一体となってタッチパネルとして実施されてもよい。タッチパネルであれば、ユーザーは、タップ操作、スワイプ操作等を入力することができる。もちろん、タッチパネルに代えて、スイッチボタン、マウス、QWERTYキーボード等を採用してもよい。すなわち、入力部35がユーザーによってなされた操作入力を受け付ける。また、入力部35は、情報処理装置3の筐体に内蔵される、又は外付けされる視線計測装置4及びマイクロホン5を含む。これらの装置によって、ユーザーは、被検者2の視線の動き及び音声を情報処理装置3に入力することができる。当該入力が信号として通信バス30を介して制御部33に転送され、制御部33が必要に応じて所定の制御や演算を実行しうる。
(Input unit 35)
The input unit 35 may be included in the housing of the information processing device 3 or may be externally attached. For example, the input unit 35 may be implemented as a touch panel integrally with the display unit 34. If it is a touch panel, the user can input a tap operation, a swipe operation, and the like. Of course, instead of the touch panel, a switch button, a mouse, a QWERTY keyboard, or the like may be adopted. That is, the input unit 35 receives the operation input made by the user. Further, the input unit 35 includes a line-of-sight measuring device 4 and a microphone 5 built in or externally attached to the housing of the information processing device 3. With these devices, the user can input the movement of the line of sight and the voice of the subject 2 into the information processing device 3. The input is transferred as a signal to the control unit 33 via the communication bus 30, and the control unit 33 can execute predetermined control or calculation as needed.

2.機能構成
本章では、本実施形態の機能構成について説明する。図3に示されるように、制御部33は、取得部331と、特定部332と、特徴設定部333と、特徴取得部334と、時間測定部335と、生成部336と、変換部337と、前処理部338と、結果保存部339と、表示制御部33aとを備える。以下、各構成要素についてさらに説明する。
2. 2. Functional configuration This chapter describes the functional configuration of this embodiment. As shown in FIG. 3, the control unit 33 includes an acquisition unit 331, a specific unit 332, a feature setting unit 333, a feature acquisition unit 334, a time measurement unit 335, a generation unit 336, and a conversion unit 337. A pre-processing unit 338, a result storage unit 339, and a display control unit 33a are provided. Hereinafter, each component will be further described.

(取得部331)
取得部331は、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されているものである。取得部331は、視線計測装置4及びマイクロホン5が検出した電気的データを、通信部31を介して取得するように構成されている。
(Acquisition unit 331)
In the acquisition unit 331, information processing by software (stored in the storage unit 32) is specifically realized by hardware (control unit 33). The acquisition unit 331 is configured to acquire the electrical data detected by the line-of-sight measuring device 4 and the microphone 5 via the communication unit 31.

取得部331は、文書を読んでいる被検者2の視線の動きを取得可能に構成される。視線の動きは、被検者2が文書を読んでいるときの、被検者2の眼球運動に起因する動きである。図5は、被検者2が読むテスト文書D1の一例である。眼球運動を検出する方法は種々あるが、本実施形態では、視線計測装置4が被検者2の注視している視点をトラッキングし、その結果を電気的データに変換したものを取得部331が取得する。また、取得部331は、被検者2の発声した音声を取得可能に構成されてもよい。 The acquisition unit 331 is configured to be able to acquire the movement of the line of sight of the subject 2 who is reading the document. The movement of the line of sight is a movement caused by the eye movement of the subject 2 when the subject 2 is reading a document. FIG. 5 is an example of the test document D1 read by the subject 2. There are various methods for detecting eye movements, but in the present embodiment, the line-of-sight measuring device 4 tracks the viewpoint that the subject 2 is gazing at, and the acquisition unit 331 converts the result into electrical data. get. Further, the acquisition unit 331 may be configured to be able to acquire the voice uttered by the subject 2.

(特定部332)
特定部332は、取得した視線の動きが、視線運動データGのうち、いずれの症例に該当するかを特定可能に構成される。ここで、視線運動データGは、文書を読んでいるときにおける人物の視線の動きを、複数の症例毎に記憶したものである、図6は、テスト文書D1を用いて対照実験をした結果である。図6Aは、対照区であるコントロール画像DCを表す図である。図6Bは、実験区である多系統萎縮症画像DMを表す図である。図6A及び図6Bに示されるように、健常者の視線運動6と多系統萎縮症患者の視線運動6には異なる特徴が見られる。同様に、他の神経疾患患者の視線運動6においても固有の傾向がある。このような傾向の違いに基づいて、特定部332は、被検者2が健常者であるか神経疾患患者であるかを特定することができる。さらに、被検者2がどのような神経疾患を患っているかを特定することができる。
(Specific part 332)
The specific unit 332 is configured to be able to identify which case the acquired movement of the line of sight corresponds to in the line-of-sight motion data G. Here, the line-of-sight motion data G is a memory of the line-of-sight movement of a person when reading a document for each of a plurality of cases. FIG. 6 shows the results of a control experiment using the test document D1. be. FIG. 6A is a diagram showing a control image DC which is a control group. FIG. 6B is a diagram showing a multiple system atrophy image DM, which is an experimental group. As shown in FIGS. 6A and 6B, different characteristics are observed in the gaze movement 6 of a healthy person and the gaze movement 6 of a patient with multiple system atrophy. Similarly, there is an inherent tendency in gaze movement 6 of other neurologically ill patients. Based on such a difference in tendency, the identification unit 332 can identify whether the subject 2 is a healthy person or a neurological disease patient. Furthermore, it is possible to identify what kind of neurological disease the subject 2 is suffering from.

(特徴設定部333)
特徴設定部333は、視線運動データGに対応する複数の症例毎に特徴FTを設定可能に構成される。図7は、神経疾患を特定する特徴量FQ及び特徴FTを記した特徴量一覧Fである。これらの特徴量FQは一例であり、図7に記載されているものに限定されない。特徴FTは、特徴量一覧Fに記載されているように、特徴量FQから得られた注視点61の数、接続線62の数等である。さらに、特徴FTは、これら特徴量FQを複数組合せて生成した合成数も含む。例えば、注視点61の数と接続線62の長さの平均値を掛け合わせた値が合成数に含まれる。特徴設定部333は、このような特徴FTを、神経疾患の症例毎に設定する。
(Characteristic setting unit 333)
The feature setting unit 333 is configured to be able to set the feature FT for each of a plurality of cases corresponding to the line-of-sight motion data G. FIG. 7 is a feature amount list F in which the feature amount FQ and the feature amount FT for specifying a neurological disease are described. These feature quantities FQ are examples, and are not limited to those shown in FIG. 7. As described in the feature amount list F, the feature FT is the number of gaze points 61 obtained from the feature amount FQ, the number of connecting lines 62, and the like. Further, the feature FT also includes a composite number generated by combining a plurality of these feature quantities FQ. For example, the composite number includes the value obtained by multiplying the number of the gazing points 61 by the average value of the lengths of the connecting lines 62. The feature setting unit 333 sets such a feature FT for each case of a neurological disorder.

(特徴取得部334)
特徴取得部334は、取得した被検者2の視線の動きから特徴FTを取得可能に構成される。被検者2が神経疾患を患っているのか否か、また、神経疾患を患っている場合には神経疾患の種別を特定するために、特徴取得部334は、被検者2の視線の動きから特徴FTを取得する。特定部332は、被検者2から取得した特徴FT及び設定された特徴FTに基づいて、取得した視線の動きが、視線運動データGのうち、いずれの症例に該当するかを特定可能に構成される。被検者2の特徴FTが健常者の特徴FTの標本に属する場合、被検者2は健常者であると特定される。一方、被検者2の特徴FTが、例えば、多系統萎縮症の特徴FTの標本に属する場合、被検者2は、多系統萎縮症であると特定される。
(Characteristic acquisition unit 334)
The feature acquisition unit 334 is configured to be able to acquire the feature FT from the acquired movement of the line of sight of the subject 2. In order to identify whether or not the subject 2 has a neurological disorder and, if so, the type of the neurological disorder, the feature acquisition unit 334 moves the line of sight of the subject 2. The feature FT is obtained from. The specific unit 332 is configured to be able to identify which case of the line-of-sight motion data G the acquired line-of-sight movement corresponds to based on the feature FT acquired from the subject 2 and the set feature FT. Will be done. When the characteristic FT of the subject 2 belongs to the specimen of the characteristic FT of the healthy subject, the subject 2 is identified as a healthy subject. On the other hand, if the characteristic FT of the subject 2 belongs to, for example, a specimen of the characteristic FT of multiple system atrophy, the subject 2 is identified as having multiple system atrophy.

(時間測定部335)
被検者2の神経疾患の有無又は神経疾患の種別を特定する精度を高めるには、より多くの特徴量FQが必要となる。そのため時間測定部335は、被検者2が文書を読んでいる間の時間を測定可能に構成される。文字を注視している時間や視線を動かす視線移動速度に神経疾患固有の傾向がある場合、被検者2が文書を読んでいる間の時間を測定することは有効である。
(Time measurement unit 335)
In order to improve the accuracy of identifying the presence or absence of a neurological disorder or the type of a neurological disorder in the subject 2, a larger feature amount FQ is required. Therefore, the time measuring unit 335 is configured to be able to measure the time while the subject 2 is reading the document. It is useful to measure the time while the subject 2 is reading the document when the time of gazing at the characters and the speed of movement of the line of sight that moves the line of sight tend to be peculiar to the neurological disorder.

(生成部336)
生成部336は、特徴取得部334が取得した種々の特徴FT、例えば、被検者2の視線の動き、検査中の測定時間、及び被検者2が読んでいるテスト文書D1の文字から二次データを生成する。以下、各二次データについて説明する。
(Generation unit 336)
The generation unit 336 is composed of various feature FTs acquired by the feature acquisition unit 334, for example, the movement of the line of sight of the subject 2, the measurement time during the examination, and the characters of the test document D1 read by the subject 2. Generate the following data. Hereinafter, each secondary data will be described.

図8は、第1視線データGD1の一例である。生成部336は、取得した視線の動きと、測定した時間とを紐付けた第1視線データGD1を生成可能に構成される。被検者2が特定の文字を注視している時間や特定の文字の間の視線運動6の速度等を算出するため、取得した視線の動きと、測定した時間が紐付けられている。同様に、神経疾患患者の視線運動データGも、視線の動きと、測定した時間が紐付けられている。換言すると、視線運動データGは、被検者2又は神経疾患患者を含む人物が文書を読んでいた間の時間を含んでいる。また、本実施形態では、視線運動データGは、人物が前記文書を音読した際における視線の動きであってもよい。 FIG. 8 is an example of the first line-of-sight data GD1. The generation unit 336 is configured to be able to generate the first line-of-sight data GD1 in which the acquired movement of the line of sight and the measured time are associated with each other. In order to calculate the time when the subject 2 is gazing at a specific character, the speed of the line-of-sight movement 6 between the specific characters, and the like, the acquired movement of the line of sight is associated with the measured time. Similarly, in the line-of-sight movement data G of the neurological disorder patient, the line-of-sight movement is associated with the measured time. In other words, the gaze movement data G includes the time while a person including the subject 2 or the patient with a neurological disorder was reading the document. Further, in the present embodiment, the line-of-sight motion data G may be the line-of-sight movement when a person reads the document aloud.

第1視線データGD1は、開始時刻、終了時刻、注視時間、及び移動時間を含む。開始時刻は、被検者2の視線が注視点61への注視を開始した時刻である。終了時刻は、被検者2の視線が注視点61への注視を終了した時刻である。注視時間は、開始時刻から終了時刻までの時間である。移動時間は、ある注視点61の終了時刻から次の注視点61の開始時刻までの時間である。ここで、第1視線データGD1に含まれる時間の単位は秒である。なお、時間の単位はこれに限定されない。 The first line-of-sight data GD1 includes a start time, an end time, a gaze time, and a movement time. The start time is the time when the line of sight of the subject 2 starts to gaze at the gaze point 61. The end time is the time when the line of sight of the subject 2 finishes gazing at the gazing point 61. The gaze time is the time from the start time to the end time. The movement time is the time from the end time of one gazing point 61 to the start time of the next gazing point 61. Here, the unit of time included in the first line-of-sight data GD1 is seconds. The unit of time is not limited to this.

図9は、第2視線データGD2の一例である。生成部336は、取得した視線の動きと、変換したテキストデータとを紐付けた第2視線データGD2を生成可能に構成される。被検者2が特定の文字を読んでいる間、文字と視線の位置関係の傾向は、神経疾患によって異なる。ここで位置関係とは、読んでいる文字に対して、注視点61が上下左右どこに位置するかを表すものである。多系統萎縮症/脊髄小脳変性症の患者には、視線を意図した場所に動かせないという傾向がある。そのため被検者2がどの神経疾患を患っているかを特定するために、第2視線データGD2は有効である。 FIG. 9 is an example of the second line-of-sight data GD2. The generation unit 336 is configured to be able to generate the second line-of-sight data GD2 in which the acquired line-of-sight movement and the converted text data are associated with each other. While the subject 2 is reading a specific character, the tendency of the positional relationship between the character and the line of sight varies depending on the neurological disorder. Here, the positional relationship indicates where the gazing point 61 is located up, down, left, or right with respect to the character being read. Patients with multiple system atrophy / spinocerebellar degeneration tend to be unable to move their gaze to the intended location. Therefore, the second line-of-sight data GD2 is effective for identifying which neurological disease the subject 2 is suffering from.

第2視線データGD2に記載されている発音文字は、被検者2が読んだテスト文書D1内の文字である。Xc及びYcは、読んだ文字の重心の表示部34の座標点である。距離は、注視点61から読んだ文字の重心までの距離である。 The phonetic characters described in the second line-of-sight data GD2 are the characters in the test document D1 read by the subject 2. Xc and Yc are the coordinate points of the display unit 34 of the center of gravity of the read character. The distance is the distance from the gazing point 61 to the center of gravity of the read character.

(変換部337)
変換部337は、取得した音声をテキストデータに変換可能に構成される。変換部337は、被検者2が発した音声を認識し、音声をテキストデータに変換する。変換部337は、自動的に音声をテキストデータに変換してもよいし、ユーザーが被検者2の音声を聞きながらテキストデータに変換してもよい。なお、ユーザーは、音声をテキストデータに変換した結果を編集することができる。
(Conversion unit 337)
The conversion unit 337 is configured to be able to convert the acquired voice into text data. The conversion unit 337 recognizes the voice emitted by the subject 2 and converts the voice into text data. The conversion unit 337 may automatically convert the voice into text data, or the user may convert the voice into text data while listening to the voice of the subject 2. The user can edit the result of converting the voice into text data.

(前処理部338)
前処理部338は、取得した被検者2の視線の動きから特徴FTに寄与する動きを抽出可能に構成される。被検者2の視線の動きに関するデータは、被検者2の意図しない動きも含んでいる。このようなデータ、特に外れ値は、特定部332が被検者2の神経疾患の有無又は神経疾患の特定をする精度を下げる恐れがある。そのため前処理部338は、ノイズデータを予め除去する。
(Pretreatment unit 338)
The pretreatment unit 338 is configured to be able to extract movements that contribute to the feature FT from the acquired movements of the line of sight of the subject 2. The data regarding the movement of the line of sight of the subject 2 also includes the unintended movement of the subject 2. Such data, especially outliers, may reduce the accuracy with which the identification unit 332 identifies the presence or absence of a neurological disorder or the neurological disorder of the subject 2. Therefore, the preprocessing unit 338 removes noise data in advance.

図10は、神経疾患の特定方法に用いられる前処理の一例である。前処理として、接続線L1の端点P1が全ての注視点61の重心GCから所定の距離以上にあり、接続線L1と、接続線L1と連続する接続線L2の各長さが所定の長さ以上である場合、端点P1を外れ値としてもよい。このとき、前処理部338は、端点P1に接続している接続線L1及び接続線L2を削除し、代わりに接続線M1を設定する。このように、外れ値である端点P1を削除するが、手法はこれに限定されるものではない。 FIG. 10 is an example of pretreatment used in a method for identifying a neurological disorder. As a preprocessing, the end point P1 of the connecting line L1 is at a predetermined distance or more from the center of gravity GC of all the gazing points 61, and each length of the connecting line L1 and the connecting line L2 continuous with the connecting line L1 has a predetermined length. In the above case, the end point P1 may be used as an outlier. At this time, the preprocessing unit 338 deletes the connection line L1 and the connection line L2 connected to the end point P1 and sets the connection line M1 instead. In this way, the endpoint P1 which is an outlier is deleted, but the method is not limited to this.

(結果保存部339)
結果保存部339は、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されているものである。結果保存部339は、情報処理装置3の利用に関するデータを記憶部32に保存する。例えば、結果保存部339は、被検者2の視線運動データG、取得した特徴FTに関するデータ、及び検査結果を記憶部32に保存する。
(Result storage unit 339)
In the result storage unit 339, information processing by software (stored in the storage unit 32) is specifically realized by hardware (control unit 33). The result storage unit 339 stores data related to the use of the information processing device 3 in the storage unit 32. For example, the result storage unit 339 stores the line-of-sight motion data G of the subject 2, the acquired data regarding the feature FT, and the test result in the storage unit 32.

(表示制御部33a)
表示制御部33aは、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されているものである。表示制御部33aは、テスト文書D1を表示部34に表示させる。表示制御部33aは、被検者2が情報処理装置3を使用している間の視線運動データG、検査結果(不図示)等を表示部34に表示させる。視線運動データGは、検査中のみならず、検査後も表示部34に表示させることができる。
(Display control unit 33a)
In the display control unit 33a, information processing by software (stored in the storage unit 32) is specifically realized by hardware (control unit 33). The display control unit 33a causes the display unit 34 to display the test document D1. The display control unit 33a causes the display unit 34 to display the line-of-sight motion data G, the inspection result (not shown), and the like while the subject 2 is using the information processing device 3. The line-of-sight motion data G can be displayed on the display unit 34 not only during the inspection but also after the inspection.

3.検査について
本章では、被検者2から取得した視線の動きに基づいて、いずれの症例に該当するか特定する検査について説明する。
3. 3. Examination This chapter describes an examination to identify which case is applicable based on the movement of the line of sight obtained from the subject 2.

3.1 検査前の準備
ユーザーは、被検者2を検査する前に、結果保存部339を実行し、複数の神経疾患の患者の視線運動データGを記憶部32に記憶する。視線運動データGは、神経疾患の患者がテスト文書D2を読んでいるときにおける視線の動きを、症例毎に記憶したものである。結果保存部339は、同様に健常者の視線運動データGも記憶部32に記憶する。また、ユーザーは、時間測定部335及び生成部336を実行し、視線の動きにテスト文書D2を読んでいる間の時間を紐付けてもよく、取得部331及び変換部337を実行し、音読中に取得した音声を変換したテキストデータを紐付けてもよい。
3.1 Preparation before examination The user executes the result storage unit 339 and stores the line-of-sight movement data G of a plurality of patients with neurological disorders in the storage unit 32 before the examination of the subject 2. The line-of-sight movement data G is a memory of the line-of-sight movement when a patient with a neurological disorder is reading the test document D2 for each case. Similarly, the result storage unit 339 also stores the line-of-sight motion data G of a healthy person in the storage unit 32. Further, the user may execute the time measurement unit 335 and the generation unit 336 to associate the time while reading the test document D2 with the movement of the line of sight, and execute the acquisition unit 331 and the conversion unit 337 to read aloud. The text data obtained by converting the acquired voice may be associated with the text data.

3.2 検査方法
被検者2は、表示部34に表示された文書を読む。図11は、被検者2が読むテスト文書D2の一例である。このようにテスト文書D2は、「あいうえお」を単に五十音順に並べた文書でもよい。なお、テスト文書D2に記載された文字の大きさ及び色は任意であり、テスト文書D2の背景色は、文字の色と異なることが好ましい。文書は、横書き文書と縦書き文書を含んでもよい。例えば、進行性核上性麻痺の患者は、病気の初期より、視線を上下方向に動かすことが困難であることが多い。そのため、横書き文書及び縦書き文書を検査に用いることにより、視線を上下方向に動かすことが困難な患者の特定を容易にすることができる。
3.2 Inspection method The subject 2 reads the document displayed on the display unit 34. FIG. 11 is an example of the test document D2 read by the subject 2. In this way, the test document D2 may be a document in which "aiueo" are simply arranged in the order of the Japanese syllabary. The size and color of the characters described in the test document D2 are arbitrary, and the background color of the test document D2 is preferably different from the color of the characters. The document may include a horizontal document and a vertical document. For example, patients with progressive supranuclear palsy often have difficulty moving their gaze up and down since the early stages of the disease. Therefore, by using the horizontal writing document and the vertical writing document for the inspection, it is possible to easily identify the patient who has difficulty in moving the line of sight in the vertical direction.

テスト文書D2の文字は日本語に限らず、英語、フランス語であってもよい。言語は問わない。またテスト文書D2は、数字や記号を含んでいてもよい。検査中に、表示制御部33aは、テスト文書D2を表示部34に全文表示する必要はなく、部分的に表示してもよい。 The characters of the test document D2 are not limited to Japanese, but may be English or French. Language does not matter. Further, the test document D2 may include numbers and symbols. During the inspection, the display control unit 33a does not need to display the test document D2 in full text on the display unit 34, and may partially display the test document D2.

被検者2にテスト文書D2を読ませるときは、音読及び黙読のどちらでもよい。なお、音読の方が、目視に加えて音声を発するという処理により、脳への負荷が大きくなるため、特徴FTが顕著に現れると思われる。さらに、音読させる場合には、視線に加えて音声に関するデータを取得することができる。例えば、被検者2に横書きの文書を3回読ませた後、縦書きの文書を3回読ませてもよい。そして、テスト文書D2を読んだときの注視点61と接続線62につき、横書きの文書と縦書きの文書毎に合成してもよい。これは実施例であり、同じ文書を複数回読ませてもよく、異なる文書を複数回読ませてもよい。 When the subject 2 is made to read the test document D2, either reading aloud or silent reading may be used. It should be noted that, in reading aloud, the load on the brain is increased by the process of emitting a voice in addition to the visual inspection, so that the characteristic FT is considered to appear prominently. Further, when reading aloud, it is possible to acquire data related to voice in addition to the line of sight. For example, the subject 2 may be made to read the horizontally written document three times and then read the vertically written document three times. Then, the gaze point 61 and the connecting line 62 when the test document D2 is read may be combined for each of the horizontal writing document and the vertical writing document. This is an example, and the same document may be read multiple times, or different documents may be read multiple times.

3.3 検査結果
ここでは、被検者2が、テスト文書D2を3回読んでいる間に取得部331が取得した被検者2の視線の動きについて説明する。図12は、図11に示される縦書き文書を読ませた場合における、健常者及び多系統萎縮症の検査結果を表す図である。図12Aは、健常者のコントロール画像ECを表す図である。図12Bは、多系統萎縮症画像EMを表す図である。多系統萎縮症の患者の視線運動6の傾向として、滑動性眼球運動が衝動的になる、又は視線を意図した場所に動かせない等の症状がある。そのため、多系統萎縮症患者の注視点61の数は、健常者の注視点61の数よりも多い。多系統萎縮症の患者の滑動性眼球運動が衝動的であることが、多系統萎縮症画像EMに反映されている。また、健常者の視線運動6と比べて、多系統萎縮症患者の視線運動6の方が、図9に示される距離が大きくなる傾向がある。多系統萎縮症患者は、視線を意図した場所に動かしにくいことが、多系統萎縮症画像EMに反映されている。
3.3 Examination Results Here, the movement of the line of sight of the subject 2 acquired by the acquisition unit 331 while the subject 2 is reading the test document D2 three times will be described. FIG. 12 is a diagram showing the test results of a healthy person and multiple system atrophy when the vertical writing document shown in FIG. 11 is read. FIG. 12A is a diagram showing a control image EC of a healthy person. FIG. 12B is a diagram showing a multiple system atrophy image EM. The tendency of gaze movement 6 in patients with multiple system atrophy is that the gliding eye movement becomes impulsive or the gaze cannot be moved to the intended place. Therefore, the number of gaze points 61 in patients with multiple system atrophy is larger than the number of gaze points 61 in healthy subjects. The impulsive gliding eye movements of patients with multiple system atrophy are reflected in the multiple system atrophy image EM. In addition, the distance shown in FIG. 9 tends to be larger in the line-of-sight movement 6 of the multiple system atrophy patient than in the line-of-sight movement 6 of the healthy person. It is reflected in the multiple system atrophy image EM that it is difficult for patients with multiple system atrophy to move their gaze to the intended place.

図13は、図11に示される縦書き文書を読ませた場合における、パーキンソン病及び進行性核上性麻痺の検査結果を表す画像の図である。図13Aは、パーキンソン病画像EDを表す図である。パーキンソン病患者の視線運動6の傾向として、眼球の動き(例:滑動性運動、衝動性運動)は疾患の進行とともに障害が進むという症状がある。そのため、パーキンソン病患者の視線運動6は、健常者の視線運動6と比べて図9に示される距離が大きくなる傾向がある。図13Bは、進行性核上性麻痺画像ESを表す図である。進行性核上性麻痺患者の視線運動6の傾向として、病気の初期より視線を垂直(上下)方向に動かすことが困難となるという症状がある。そのため、テスト文書D2が縦書きにも関わらず、進行性核上性麻痺の視線運動6は、上下に統一的に軌跡が形成されず、全方位に発散している。 FIG. 13 is an image showing the test results of Parkinson's disease and progressive supranuclear palsy when the vertical document shown in FIG. 11 is read. FIG. 13A is a diagram showing the Parkinson's disease image ED. As a tendency of the line-of-sight movement 6 of Parkinson's disease patients, there is a symptom that the movement of the eyeball (eg, sliding movement, impulsive movement) progresses as the disease progresses. Therefore, the line-of-sight movement 6 of the Parkinson's disease patient tends to have a larger distance shown in FIG. 9 than the line-of-sight movement 6 of a healthy person. FIG. 13B is a diagram showing a progressive supranuclear palsy image ES. As a tendency of gaze movement 6 in patients with progressive supranuclear palsy, there is a symptom that it becomes difficult to move the gaze in the vertical (up and down) direction from the early stage of the disease. Therefore, despite the vertical writing of the test document D2, the line-of-sight movement 6 of progressive supranuclear palsy does not form a uniform trajectory in the vertical direction and diverges in all directions.

4.神経疾患の特定についての説明
被検者2が、健常者であるか、神経疾患患者であるかの特定、及び神経疾患の種別を特定する方法を以下に説明する。健常者及び神経疾患患者の視線の動きの特徴FTはそれぞれ異なりる。また、健常者及び神経疾患患者の類型ごとに特徴FTは共通の傾向がある。そのため、健常者及び神経疾患患者の類型ごとの特徴FTの標本は、特定の確率分布に従う。そのため、被検者2の視線の動きから上述した特徴FTを算出し、算出した特徴FTがどの特徴FTの確率分布に属するか、特定部332が統計的手法に基づいて特定する。
4. Explanation of Identification of Neurological Disease A method for identifying whether the subject 2 is a healthy person or a patient with a neurological disease and specifying the type of the neurological disease will be described below. Characteristics of eye movements in healthy subjects and patients with neurological disorders FT differs from each other. In addition, the characteristic FT tends to be common to the types of healthy subjects and patients with neurological disorders. Therefore, the specimens of characteristic FT for each type of healthy subjects and patients with neurological disorders follow a specific probability distribution. Therefore, the above-mentioned feature FT is calculated from the movement of the line of sight of the subject 2, and the specific unit 332 specifies to which feature FT the probability distribution the calculated feature FT belongs based on a statistical method.

図12及び図13に示したように、検査結果の画像は神経疾患の症例毎に固有の傾向がある。そのため、画像処理によるパターンマッチングにより、特定部332が神経疾患の種別を特定してもよい。この場合、被検者2の視線運動6に対応する画像と、予め記憶した視線運動データGのうち、複数の症例を表す画像と、をパターンマッチングにより照合することにより、被検者2の視線運動6がいずれの症例に該当するのかを特定することができる。 As shown in FIGS. 12 and 13, the images of the test results tend to be unique to each case of neurological disorder. Therefore, the specific unit 332 may specify the type of neurological disease by pattern matching by image processing. In this case, the image corresponding to the line-of-sight movement 6 of the subject 2 and the image representing a plurality of cases among the line-of-sight movement data G stored in advance are collated by pattern matching to match the line-of-sight of the subject 2. It is possible to identify which case the exercise 6 corresponds to.

なお、ディープラーニングを用いて、被検者2が健常者であるか神経疾患患者であるかの特定、及び神経疾患の種別を特定してもよい。ディープラーニングを用いる場合には、大規模なラベル付けされたデータとニューラルネットワークの構造を利用して学習を行うことにより、視線運動データGから特徴量FQ及び特徴FTを学習することができる。入力するデータは、視線運動データGでもよく、コントロール画像EC及び多系統萎縮症画像EMのようなデータであってもよい。 It should be noted that deep learning may be used to identify whether the subject 2 is a healthy person or a neurological disease patient, and to specify the type of neurological disease. When deep learning is used, the feature quantity FQ and the feature FT can be learned from the line-of-sight motion data G by performing learning using a large-scale labeled data and the structure of the neural network. The data to be input may be eye movement data G, or may be data such as control image EC and multiple system atrophy image EM.

5.特定方法
本章では、上述で説明した情報処理装置3を用いた神経疾患の特定方法について説明する。特定方法は、取得ステップと、特定ステップとを備える。取得ステップでは、テスト文書D1を読んでいる被検者2の視線の動きを取得する。特定ステップでは、取得した視線の動きが、視線運動データGのうち、いずれの症例に該当するかを特定する。視線運動データGは、文書を読んでいるときにおける人物の視線の動きを、複数の症例毎に記憶したものである。具体的に、この特定方法を説明する。
5. Specific Method This chapter describes a method for identifying a neurological disease using the information processing apparatus 3 described above. The specific method includes an acquisition step and a specific step. In the acquisition step, the movement of the line of sight of the subject 2 reading the test document D1 is acquired. In the specific step, it is specified which case the acquired gaze movement corresponds to in the gaze movement data G. The line-of-sight movement data G stores the movement of the line-of-sight of a person when reading a document for each of a plurality of cases. Specifically, this specific method will be described.

5.1 テスト文書D1を用いた神経疾患の特定方法
本節では、テスト文書D1を用いた神経疾患の特定方法の一例を説明する。図14は、実施形態に係る神経疾患の特定方法の一例を表すアクティビティ図である。
5.1 Method for identifying neurological disorders using test document D1 This section describes an example of a method for identifying neurological disorders using test document D1. FIG. 14 is an activity diagram showing an example of a method for identifying a neurological disorder according to an embodiment.

[ここから]
(アクティビティA01)
被検者2を検査するために、取得部331は、被検者2の視線の動きに関するデータを取得する。
(アクティビティA02)
特徴取得部334は、取得した被検者2の視線の動きから特徴FTを取得する。
(アクティビティA03)
特定部332は、被検者2から取得した特徴FTと、神経疾患患者に予め設定された特徴FTに基づいて、取得した視線の動きが、神経疾患患者の視線運動データGのうち、いずれの症例に該当するかを特定する。
(アクティビティA04)
表示制御部33aは、検査した結果を表示部34に表示する。
(アクティビティA05)
結果保存部339は、検査した結果を記憶部32に記憶する。
[ここまで]
[from here]
(Activity A01)
In order to inspect the subject 2, the acquisition unit 331 acquires data regarding the movement of the line of sight of the subject 2.
(Activity A02)
The feature acquisition unit 334 acquires the feature FT from the acquired movement of the line of sight of the subject 2.
(Activity A03)
In the specific unit 332, the movement of the line of sight acquired based on the feature FT acquired from the subject 2 and the feature FT preset for the neurological disorder patient is any of the gaze movement data G of the neurological disorder patient. Identify if this is the case.
(Activity A04)
The display control unit 33a displays the inspection result on the display unit 34.
(Activity A05)
The result storage unit 339 stores the inspection result in the storage unit 32.
[to this point]

5.2 視線の動きに関するデータの取得方法
本節では、視線の動きデータの取得方法の一例について説明をする。図15は、実施形態に係る神経疾患の特定方法の一例を表すサブアクティビティ図である。図15Aは、視線の動きに関するデータの取得方法(A01)の一例を表すサブアクティビティ図である。
5.2 Acquisition method of data related to eye movement This section describes an example of acquisition method of eye movement data. FIG. 15 is a sub-activity diagram showing an example of a method for identifying a neurological disorder according to an embodiment. FIG. 15A is a sub-activity diagram showing an example of a method (A01) for acquiring data related to the movement of the line of sight.

[ここから]
(サブアクティビティA11)
取得部331は、被検者2の視線の動きに関するデータの取得を開始する。
(サブアクティビティA12)
取得部331は、テスト文書D1を読んでいる被検者2の視線の動きを取得する。
(サブアクティビティA13)
時間測定部335は、被検者2がテスト文書D1を読んでいる間の時間を測定する。
(サブアクティビティA14)
取得部331は、被検者2の発した音声を取得する。
(サブアクティビティA15)
変換部337は、音声をテキストデータに変換する。
(サブアクティビティA16)
取得部331は、被検者2の視線の動きデータの取得を終了する。
[ここまで]
[from here]
(Sub-activity A11)
The acquisition unit 331 starts acquiring data regarding the movement of the line of sight of the subject 2.
(Sub-activity A12)
The acquisition unit 331 acquires the movement of the line of sight of the subject 2 reading the test document D1.
(Sub-activity A13)
The time measuring unit 335 measures the time while the subject 2 is reading the test document D1.
(Sub-activity A14)
The acquisition unit 331 acquires the voice emitted by the subject 2.
(Sub-activity A15)
The conversion unit 337 converts the voice into text data.
(Sub-activity A16)
The acquisition unit 331 ends the acquisition of the movement data of the line of sight of the subject 2.
[to this point]

5.3 特徴FTの取得方法
本節では、特徴FTの取得方法の一例について説明をする。図15Bは、特徴FTの取得方法(A02)の一例を表すサブアクティビティ図である。
5.3 Acquisition method of feature FT This section describes an example of acquisition method of feature FT. FIG. 15B is a sub-activity diagram showing an example of the feature FT acquisition method (A02).

[ここから]
(サブアクティビティA21)
特徴設定部333は、被検者2の視線の動きの特徴FTの取得を開始する。
(サブアクティビティA22)
生成部336は、取得した被検者2の視線の動きと、測定した時間とを紐付けた第1視線データGD1を生成する。
(サブアクティビティA23)
生成部336は、取得した被検者2の視線の動きと、変換したテキストデータとを紐付けた第2視線データGD2を生成する。
(サブアクティビティA24)
前処理部338は、取得した被検者2の視線の動きから特徴FTに寄与する動きを抽出するための前処理を実行する。
(サブアクティビティA25)
特徴設定部333は、視線運動データG、第1視線データGD1及び第2視線データGD2から、特徴FTを取得し、処理を終了する。
[ここまで]
[from here]
(Sub-activity A21)
The feature setting unit 333 starts to acquire the feature FT of the movement of the line of sight of the subject 2.
(Sub-activity A22)
The generation unit 336 generates the first line-of-sight data GD1 in which the acquired movement of the line-of-sight of the subject 2 and the measured time are associated with each other.
(Sub-activity A23)
The generation unit 336 generates the second line-of-sight data GD2 in which the acquired movement of the line-of-sight of the subject 2 and the converted text data are associated with each other.
(Sub-activity A24)
The pre-processing unit 338 executes pre-processing for extracting the movement that contributes to the feature FT from the acquired movement of the line of sight of the subject 2.
(Sub-activity A25)
The feature setting unit 333 acquires the feature FT from the line-of-sight motion data G, the first line-of-sight data GD1 and the second line-of-sight data GD2, and ends the process.
[to this point]

テスト文書D1を用いた神経疾患の特定方法では、頭部MRI手法、脳血流SPECT手法、MIBG心筋シンチグラフィ手法、及びDATスキャン手法と比べて、検査時間が短く、安価で行える。検査にあたり、音声及び音読のダブルタスクをさせることで、神経疾患の患者の脳への負荷が増え、症状が顕著に現れる。また、テスト文書D1を読んでいる間、音声を取得することにより、視線に対して音読している文字がどのくらい進んでいるかを把握することができる。神経疾患の症状毎に視線と音読しているテキストの位置に違いがあるため、症例を特定する精度が高くなる。 The method for identifying a neurological disorder using the test document D1 has a shorter examination time and is cheaper than the head MRI method, the cerebral blood flow SPECT method, the MIBG myocardial scintigraphy method, and the DAT scan method. By performing the double task of reading aloud and reading aloud during the examination, the load on the brain of the patient with a neurological disorder increases, and the symptoms become prominent. Further, by acquiring the voice while reading the test document D1, it is possible to grasp how far the character being read aloud with respect to the line of sight is advanced. Since there is a difference in the position of the line of sight and the text being read aloud for each symptom of the neurological disorder, the accuracy of identifying the case is high.

神経疾患が進んでいくと、被検者2の視線運動6にも変化が現れるため、疾患の進行状況を把握できる。例えば、パーキンソン病の患者の眼球の動き(例:滑動性運動、衝動性運動)は疾患の進行とともに障害が進むため、本特定方法で進行状況を把握することができる。逆に、神経疾患が治癒すると、本特定方法で回復状況も把握することができる。ユーザーが同一のテスト文書D1を用いて、被検者2の神経疾患を特定する場合、検査結果に再現性が現れる。一方、検査毎に、テスト文書D1の文書の内容やテキストの大きさ等を変えることで、被検者2は、過去に検査した経験とは無関係に検査される。そのため本特定方法は、学習効果が働かない。 As the neurological disease progresses, the line-of-sight movement 6 of the subject 2 also changes, so that the progress of the disease can be grasped. For example, since the movement of the eyeball of a patient with Parkinson's disease (eg, sliding movement, impulsive movement) progresses as the disease progresses, the progress can be grasped by this specific method. On the contrary, when the neurological disease is cured, the recovery status can be grasped by this specific method. When the user identifies the neurological disorder of the subject 2 using the same test document D1, the test results show reproducibility. On the other hand, by changing the content of the document of the test document D1, the size of the text, and the like for each inspection, the subject 2 is inspected regardless of the experience of the inspection in the past. Therefore, this identification method does not have a learning effect.

6.変形例
本章では、情報処理装置3に係る変形例について説明する。即ち、下記のような態様によって前述の実施形態を実施してもよい。
6. Modification example This chapter describes a modification example related to the information processing apparatus 3. That is, the above-described embodiment may be implemented according to the following aspects.

(1)テスト文書D1及びテスト文書D2の特定文字に他の文字と異なる色を付けてもよい。特定文字を読むと脳への負荷が大きくなり、その負荷が被検者2の視線運動6に反映される。
(2)ユーザーがテスト文書D1及びテスト文書D2の特定文字をポインターで示し、被検者2がトラッキングをして、特定文字の色が変わったときに音読させてもよい。特定文字を読むことによる脳の特定領域の負荷が被検者2の視線運動6に反映される。
(3)プログラムであって、コンピュータを情報処理装置3として機能させるものが提供されてもよい。
(1) The specific characters of the test document D1 and the test document D2 may be colored differently from other characters. Reading a specific character increases the load on the brain, and the load is reflected in the line-of-sight movement 6 of the subject 2.
(2) The user may point to a specific character of the test document D1 and the test document D2 with a pointer, and the subject 2 may track and read aloud when the color of the specific character changes. The load on a specific area of the brain due to reading a specific character is reflected in the line-of-sight movement 6 of the subject 2.
(3) A program may be provided that causes the computer to function as the information processing device 3.

7.結言
このように、テスト文書を黙読又は音読させることで、発話の障害や滑動性眼球運動に障害のある神経疾患の患者を十分に特定することができる情報処理装置を提供することができる。さらに、検査を継続的に行うことで、神経疾患の進行状況も把握できる。治療薬の投与の判定にも活かすことができる。
7. Conclusion In this way, by silently reading or reading aloud the test document, it is possible to provide an information processing device capable of sufficiently identifying a patient with a neurological disorder having a speech disorder or a sliding eye movement disorder. Furthermore, by conducting continuous examinations, the progress of neurological disorders can be grasped. It can also be used to determine the administration of therapeutic agents.

次に記載の各態様で提供されてもよい。
前記情報処理装置において、特徴設定部をさらに備え、前記特徴設定部は、前記視線運動データに対応する複数の症例毎に特徴を設定可能に構成される、もの。
前記情報処理装置において、特徴取得部をさらに備え、前記特徴取得部は、取得した前記被検者の視線の動きから特徴を取得可能に構成され、前記特定部は、前記取得した特徴及び前記設定された特徴に基づいて、前記取得した視線の動きが、前記視線運動データのうち、いずれの症例に該当するかを特定可能に構成される、もの。
前記情報処理装置において、前記文書は、横書き文書と縦書き文書を含む、もの。
前記情報処理装置において、時間測定部と、生成部とをさらに備え、前記時間測定部は、前記被検者が前記文書を読んでいる間の時間を測定可能に構成され、前記生成部は、前記取得した前記視線の動きと、前記測定した時間とを紐付けた第1視線データを生成可能に構成される、もの。
前記情報処理装置において、変換部をさらに備え、前記取得部は、前記被検者の発声した音声を取得可能に構成され、前記変換部は、前記音声をテキストデータに変換可能に構成され、前記生成部は、前記取得した前記視線の動きと、前記変換した前記テキストデータとを紐付けた第2視線データを生成可能に構成される、もの。
前記情報処理装置において、前記視線運動データは、人物が前記文書を読んでいた間の時間を含む、もの。
前記情報処理装置において、前記視線運動データは、人物が前記文書を音読した際における視線の動きである、もの。
前記情報処理装置において、特徴取得部と、前処理部とを備え、前記特徴取得部は、取得した前記被検者の視線の動きから特徴を取得可能に構成され、前記前処理部は、前記取得した前記被検者の視線の動きから前記特徴に寄与する動きを抽出可能に構成される、もの。
特定方法であって、取得ステップと、特定ステップとを備え、前記取得ステップでは、文書を読んでいる被検者の視線の動きを取得し、前記特定ステップでは、前記取得した視線の動きが、視線運動データのうち、いずれの症例に該当するかを特定し、前記視線運動データは、文書を読んでいるときにおける人物の視線の動きを、複数の症例毎に記憶したものである、方法。
プログラムであって、コンピュータを、前記情報処理装置の各部として機能させるもの。
もちろん、この限りではない。
It may be provided in each of the following embodiments.
The information processing apparatus further includes a feature setting unit, which is configured to be capable of setting features for each of a plurality of cases corresponding to the line-of-sight motion data.
The information processing apparatus further includes a feature acquisition unit, the feature acquisition unit is configured to be able to acquire features from the acquired movement of the subject's line of sight, and the specific unit is configured to acquire the acquired features and the settings. It is configured so that it is possible to identify which case the acquired line-of-sight movement corresponds to in the line-of-sight movement data based on the characteristics obtained.
In the information processing apparatus, the document includes a horizontal writing document and a vertical writing document.
The information processing apparatus further includes a time measuring unit and a generation unit, and the time measuring unit is configured to be capable of measuring the time while the subject is reading the document. A device capable of generating first line-of-sight data in which the acquired movement of the line of sight and the measured time are linked.
The information processing apparatus further includes a conversion unit, the acquisition unit being configured to be able to acquire the voice uttered by the subject, and the conversion unit being configured to be able to convert the voice into text data. The generation unit is configured to be capable of generating second line-of-sight data in which the acquired movement of the line of sight and the converted text data are associated with each other.
In the information processing apparatus, the line-of-sight motion data includes a time while a person is reading the document.
In the information processing apparatus, the line-of-sight motion data is the movement of the line-of-sight when a person reads the document aloud.
The information processing apparatus includes a feature acquisition unit and a preprocessing unit, the feature acquisition unit is configured to be able to acquire features from the acquired movement of the subject's line of sight, and the preprocessing unit is configured to be capable of acquiring features. A device that can extract movements that contribute to the characteristics from the acquired movements of the subject's line of sight.
It is a specific method and includes an acquisition step and a specific step. In the acquisition step, the movement of the line of sight of the subject reading the document is acquired, and in the specific step, the movement of the acquired line of sight is obtained. A method of identifying which case corresponds to the line-of-sight movement data, and the line-of-sight movement data stores the movement of the line of sight of a person when reading a document for each of a plurality of cases.
A program that causes a computer to function as each part of the information processing device.
Of course, this is not the case.

最後に、本発明に係る種々の実施形態を説明したが、これらは、例として提示したものであり、発明の範囲を限定することは意図していない。当該新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。当該実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Finally, various embodiments of the present invention have been described, but these are presented as examples and are not intended to limit the scope of the invention. The novel embodiment can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. The embodiment and its modifications are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and the equivalent scope thereof.

100 :システム
2 :被検者
3 :情報処理装置
30 :通信バス
31 :通信部
32 :記憶部
33 :制御部
331 :取得部
332 :特定部
333 :特徴設定部
334 :特徴取得部
335 :時間測定部
336 :生成部
337 :変換部
338 :前処理部
339 :結果保存部
33a :表示制御部
34 :表示部
35 :入力部
4 :視線計測装置
5 :マイクロホン
6 :視線運動
61 :注視点
62 :接続線
D1 :テスト文書
D2 :テスト文書
DC :コントロール画像
DM :多系統萎縮症画像
EC :コントロール画像
ED :パーキンソン病画像
EM :多系統萎縮症画像
ES :進行性核上性麻痺画像
F :特徴量一覧
FQ :特徴量
FT :特徴
G :視線運動データ
GC :重心
GD1 :第1視線データ
GD2 :第2視線データ
L1 :接続線
L2 :接続線
M1 :接続線
P1 :端点
100: System 2: Subject 3: Information processing device 30: Communication bus 31: Communication unit 32: Storage unit 33: Control unit 331: Acquisition unit 332: Specific unit 333: Feature setting unit 334: Feature acquisition unit 335: Time Measurement unit 336: Generation unit 337: Conversion unit 338: Preprocessing unit 339: Result storage unit 33a: Display control unit 34: Display unit 35: Input unit 4: Line-of-sight measurement device 5: Microphone 6: Line-of-sight motion 61: Gaze point 62 : Connection line D1: Test document D2: Test document DC: Control image DM: Multiple system atrophy image EC: Control image ED: Parkinson's disease image EM: Multiple system atrophy image ES: Progressive supranuclear palsy image F: Features Amount list FQ: Feature amount FT: Feature G: Line-of-sight motion data GC: Center of gravity GD1: First line-of-sight data GD2: Second line-of-sight data L1: Connection line L2: Connection line M1: Connection line P1: End point

Claims (11)

情報処理装置であって、
取得部と、特定部とを備え、
前記取得部は、文書を読んでいる被検者の視線の動きを取得可能に構成され、
前記特定部は、前記取得した視線の動きが、視線運動データのうち、いずれの症例に該当するかを特定可能に構成され、
前記視線運動データは、文書を読んでいるときにおける人物の視線の動きを、複数の症例毎に記憶したものである、
もの。
It is an information processing device
It has an acquisition part and a specific part,
The acquisition unit is configured to be able to acquire the movement of the line of sight of the subject reading the document.
The specific unit is configured to be able to identify which case the acquired gaze movement corresponds to in the gaze movement data.
The line-of-sight movement data stores the movement of the line-of-sight of a person while reading a document for each of a plurality of cases.
thing.
請求項1に記載の情報処理装置において、
特徴設定部をさらに備え、
前記特徴設定部は、前記視線運動データに対応する複数の症例毎に特徴を設定可能に構成される、
もの。
In the information processing apparatus according to claim 1,
Further equipped with a feature setting unit
The feature setting unit is configured to be able to set features for each of a plurality of cases corresponding to the line-of-sight motion data.
thing.
請求項2に記載の情報処理装置において、
特徴取得部をさらに備え、
前記特徴取得部は、取得した前記被検者の視線の動きから特徴を取得可能に構成され、
前記特定部は、前記取得した特徴及び前記設定された特徴に基づいて、前記取得した視線の動きが、前記視線運動データのうち、いずれの症例に該当するかを特定可能に構成される、
もの。
In the information processing apparatus according to claim 2,
Equipped with a feature acquisition unit
The feature acquisition unit is configured to be able to acquire features from the acquired movement of the subject's line of sight.
The specific unit is configured to be able to identify which case the acquired line-of-sight movement corresponds to in the line-of-sight movement data based on the acquired features and the set features.
thing.
請求項1〜請求項3の何れか1つに記載の情報処理装置において、
前記文書は、横書き文書と縦書き文書を含む、
もの。
The information processing apparatus according to any one of claims 1 to 3.
The document includes a horizontal document and a vertical document.
thing.
請求項1〜請求項4の何れか1つに記載の情報処理装置において、
時間測定部と、生成部とをさらに備え、
前記時間測定部は、前記被検者が前記文書を読んでいる間の時間を測定可能に構成され、
前記生成部は、前記取得した前記視線の動きと、前記測定した時間とを紐付けた第1視線データを生成可能に構成される、
もの。
The information processing apparatus according to any one of claims 1 to 4.
Further equipped with a time measurement unit and a generation unit,
The time measuring unit is configured to be able to measure the time while the subject is reading the document.
The generation unit is configured to be able to generate first line-of-sight data in which the acquired movement of the line of sight is associated with the measured time.
thing.
請求項5に記載の情報処理装置において、
変換部をさらに備え、
前記取得部は、前記被検者の発声した音声を取得可能に構成され、
前記変換部は、前記音声をテキストデータに変換可能に構成され、
前記生成部は、前記取得した前記視線の動きと、前記変換した前記テキストデータとを紐付けた第2視線データを生成可能に構成される、
もの。
In the information processing apparatus according to claim 5,
With more converters
The acquisition unit is configured to be able to acquire the voice uttered by the subject.
The conversion unit is configured to be able to convert the voice into text data.
The generation unit is configured to be capable of generating second line-of-sight data in which the acquired movement of the line of sight and the converted text data are associated with each other.
thing.
請求項1〜請求項6の何れか1つに記載の情報処理装置において、
前記視線運動データは、人物が前記文書を読んでいた間の時間を含む、
もの。
The information processing apparatus according to any one of claims 1 to 6.
The line-of-sight data includes the time while the person was reading the document.
thing.
請求項1〜請求項7の何れか1つに記載の情報処理装置において、
前記視線運動データは、人物が前記文書を音読した際における視線の動きである、
もの。
The information processing apparatus according to any one of claims 1 to 7.
The line-of-sight movement data is the movement of the line of sight when a person reads the document aloud.
thing.
請求項1〜請求項8の何れか1つに記載の情報処理装置において、
特徴取得部と、前処理部とを備え、
前記特徴取得部は、取得した前記被検者の視線の動きから特徴を取得可能に構成され、
前記前処理部は、前記取得した前記被検者の視線の動きから前記特徴に寄与する動きを抽出可能に構成される、
もの。
The information processing apparatus according to any one of claims 1 to 8.
It has a feature acquisition unit and a pretreatment unit.
The feature acquisition unit is configured to be able to acquire features from the acquired movement of the subject's line of sight.
The pretreatment unit is configured to be able to extract movements that contribute to the characteristics from the acquired movements of the subject's line of sight.
thing.
特定方法であって、取得ステップと、特定ステップとを備え、
前記取得ステップでは、文書を読んでいる被検者の視線の動きを取得し、
前記特定ステップでは、前記取得した視線の動きが、視線運動データのうち、いずれの症例に該当するかを特定し、
前記視線運動データは、文書を読んでいるときにおける人物の視線の動きを、複数の症例毎に記憶したものである、
方法。
It is a specific method, and has an acquisition step and a specific step.
In the acquisition step, the movement of the line of sight of the subject reading the document is acquired.
In the specific step, it is specified which case the acquired gaze movement corresponds to in the gaze movement data.
The line-of-sight movement data stores the movement of the line-of-sight of a person while reading a document for each of a plurality of cases.
Method.
プログラムであって、
コンピュータを、請求項1〜請求項9の何れか1つに記載の情報処理装置の各部として機能させるもの。
It ’s a program,
A computer that functions as each part of the information processing apparatus according to any one of claims 1 to 9.
JP2020086916A 2020-05-18 2020-05-18 Information processing device, specification method and program Pending JP2021180716A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020086916A JP2021180716A (en) 2020-05-18 2020-05-18 Information processing device, specification method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020086916A JP2021180716A (en) 2020-05-18 2020-05-18 Information processing device, specification method and program

Publications (1)

Publication Number Publication Date
JP2021180716A true JP2021180716A (en) 2021-11-25

Family

ID=78605982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020086916A Pending JP2021180716A (en) 2020-05-18 2020-05-18 Information processing device, specification method and program

Country Status (1)

Country Link
JP (1) JP2021180716A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004337348A (en) * 2003-05-15 2004-12-02 New Opto Corp Eye movement analysis system
WO2019106678A1 (en) * 2017-11-30 2019-06-06 Viewmind S.A. System and method for detecting neurological disorders and for measuring general cognitive performance
JP2020000483A (en) * 2018-06-28 2020-01-09 株式会社アルム Dementia diagnostic device, and dementia diagnostic system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004337348A (en) * 2003-05-15 2004-12-02 New Opto Corp Eye movement analysis system
WO2019106678A1 (en) * 2017-11-30 2019-06-06 Viewmind S.A. System and method for detecting neurological disorders and for measuring general cognitive performance
JP2020000483A (en) * 2018-06-28 2020-01-09 株式会社アルム Dementia diagnostic device, and dementia diagnostic system

Similar Documents

Publication Publication Date Title
Ciman et al. Individuals’ stress assessment using human-smartphone interaction analysis
US11266342B2 (en) Brain-computer interface for facilitating direct selection of multiple-choice answers and the identification of state changes
US10475351B2 (en) Systems, computer medium and methods for management training systems
JP6013438B2 (en) Brain disease diagnosis support system, brain disease diagnosis support method and program
Lamers et al. Assessing upper limb function in multiple sclerosis
EP2698112B1 (en) Real-time stress determination of an individual
WO2015037089A1 (en) Brain dysfunction assessment method, brain dysfunction assessment device, and program thereof
Ciman et al. iSenseStress: Assessing stress through human-smartphone interaction analysis
Salgado et al. A QoE assessment method based on EDA, heart rate and EEG of a virtual reality assistive technology system
Marino et al. Reliability and validity of the capabilities of upper extremity test (CUE-T) in subjects with chronic spinal cord injury
US20200251217A1 (en) Diagnosis Method Using Image Based Machine Learning Analysis of Handwriting
Robens et al. The digital tree drawing test for screening of early dementia: an explorative study comparing healthy controls, patients with mild cognitive impairment, and patients with early dementia of the Alzheimer type
Paredes et al. Sensor-less sensing for affective computing and stress management technology
Gupta StrokeSave: a novel, high-performance mobile application for stroke diagnosis using deep learning and computer vision
Schallert et al. Evaluation of upper limb function with digitizing tablet-based tests: reliability and discriminative validity in healthy persons and patients with neurological disorders
Geronimo et al. TeleBCI: remote user training, monitoring, and communication with an evoked-potential brain-computer interface
JP2021180716A (en) Information processing device, specification method and program
Graves et al. Preliminary validity of the Draw a Shape Test for upper extremity assessment in multiple sclerosis
JP3777480B2 (en) Motor function evaluation system
EP3664101A1 (en) A computer-implemented method and an apparatus for use in detecting malingering by a first subject in one or more physical and/or mental function tests
Pannasch et al. Eye typing in application: A comparison of two systems with ALS patients
TW201807675A (en) Teaching system with assistance of brainwave analysis including a brainwave detector, a brainwave analysis module, an answering interface, an answer comparison module and a question generation analysis subsystem
US20190159694A1 (en) Apparatus and method for processing physiological information, and computer readable medium
Aoyama Lawrence et al. Being in-sync: A multimodal framework on the emotional and cognitive synchronization of collaborative learners
Alifirova et al. A method for quantitative evaluation of the results of postural tests

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230501

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240228