JP2021180716A - Information processing device, specification method and program - Google Patents
Information processing device, specification method and program Download PDFInfo
- Publication number
- JP2021180716A JP2021180716A JP2020086916A JP2020086916A JP2021180716A JP 2021180716 A JP2021180716 A JP 2021180716A JP 2020086916 A JP2020086916 A JP 2020086916A JP 2020086916 A JP2020086916 A JP 2020086916A JP 2021180716 A JP2021180716 A JP 2021180716A
- Authority
- JP
- Japan
- Prior art keywords
- line
- sight
- movement
- unit
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 58
- 238000000034 method Methods 0.000 title claims abstract description 45
- 230000006870 function Effects 0.000 claims description 18
- 238000006243 chemical reaction Methods 0.000 claims description 13
- 238000005259 measurement Methods 0.000 claims description 9
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 abstract description 6
- 230000000007 visual effect Effects 0.000 abstract description 6
- 208000012902 Nervous system disease Diseases 0.000 description 56
- 238000012360 testing method Methods 0.000 description 47
- 208000025966 Neurological disease Diseases 0.000 description 27
- 238000010586 diagram Methods 0.000 description 27
- 230000000694 effects Effects 0.000 description 25
- 208000001089 Multiple system atrophy Diseases 0.000 description 21
- 238000004891 communication Methods 0.000 description 16
- 238000007689 inspection Methods 0.000 description 11
- 238000007781 pre-processing Methods 0.000 description 11
- 208000018737 Parkinson disease Diseases 0.000 description 9
- 201000002212 progressive supranuclear palsy Diseases 0.000 description 9
- 230000004424 eye movement Effects 0.000 description 8
- 201000010099 disease Diseases 0.000 description 5
- 210000004556 brain Anatomy 0.000 description 4
- 230000005484 gravity Effects 0.000 description 4
- 208000024891 symptom Diseases 0.000 description 4
- 239000002131 composite material Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 206010008025 Cerebellar ataxia Diseases 0.000 description 2
- 208000010112 Spinocerebellar Degenerations Diseases 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- PDWUPXJEEYOOTR-UHFFFAOYSA-N 2-[(3-iodophenyl)methyl]guanidine Chemical compound NC(=N)NCC1=CC=CC(I)=C1 PDWUPXJEEYOOTR-UHFFFAOYSA-N 0.000 description 1
- 208000011990 Corticobasal Degeneration Diseases 0.000 description 1
- 208000016270 Corticobasal syndrome Diseases 0.000 description 1
- 208000019749 Eye movement disease Diseases 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 206010034719 Personality change Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000003727 cerebral blood flow Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- HXWLAJVUJSVENX-HFIFKADTSA-N ioflupane I(123) Chemical compound C1([C@H]2C[C@@H]3CC[C@@H](N3CCCF)[C@H]2C(=O)OC)=CC=C([123I])C=C1 HXWLAJVUJSVENX-HFIFKADTSA-N 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000002107 myocardial effect Effects 0.000 description 1
- 208000028780 ocular motility disease Diseases 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- APTZNLHMIGJTEW-UHFFFAOYSA-N pyraflufen-ethyl Chemical compound C1=C(Cl)C(OCC(=O)OCC)=CC(C=2C(=C(OC(F)F)N(C)N=2)Cl)=C1F APTZNLHMIGJTEW-UHFFFAOYSA-N 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000002603 single-photon emission computed tomography Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 208000027765 speech disease Diseases 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 229940124597 therapeutic agent Drugs 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Images
Abstract
Description
本発明は、情報処理装置、特定方法及びプログラムに関する。 The present invention relates to an information processing device, a specific method and a program.
患者が、神経疾患の有無又は神経疾患の種別を特定する方法は、頭部MRI等多数存在する。 There are many methods for a patient to identify the presence or absence of a neurological disease or the type of a neurological disease, such as head MRI.
特許文献1には、視覚刺激を表示部より患者に呈示し、その刺激に対する患者の注視点の情報に基づいて患者が神経疾患を患っているかどうかを判断する方法が開示されている。
ところで、神経疾患の種別を簡単に特定できることが望まれる。 By the way, it is desired that the type of neurological disease can be easily identified.
本発明では上記事情を鑑み、神経疾患の種別を特定することが可能な情報処理装置、特定方法及びプログラムを提供することとした。 In view of the above circumstances, the present invention has decided to provide an information processing device, a specific method and a program capable of specifying the type of neurological disease.
本発明の一態様によれば、情報処理装置であって、取得部と、特定部とを備え、前記取得部は、文書を読んでいる被検者の視線の動きを取得可能に構成され、前記特定部は、前記取得した視線の動きが、視線運動データのうち、いずれの症例に該当するかを特定可能に構成され、前記視線運動データは、文書を読んでいるときにおける人物の視線の動きを、複数の症例毎に記憶したものである、ものが提供される。 According to one aspect of the present invention, the information processing apparatus includes an acquisition unit and a specific unit, and the acquisition unit is configured to be able to acquire the movement of the line of sight of a subject reading a document. The specific unit is configured to be able to identify which case the acquired gaze movement corresponds to in the gaze movement data, and the gaze movement data is the gaze of a person when reading a document. The movement is memorized for each of a plurality of cases, and the thing is provided.
このような情報処理装置によれば、神経疾患の患者を容易に特定することができる。 With such an information processing device, a patient with a neurological disorder can be easily identified.
以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The various features shown in the embodiments shown below can be combined with each other.
ところで、本実施形態に登場するソフトウェアを実現するためのプログラムは、コンピュータが読み取り可能な非一時的な記録媒体として提供されてもよいし、外部のサーバからダウンロード可能に提供されてもよいし、外部のコンピュータで当該プログラムを起動させてクライアント端末でその機能を実現(いわゆるクラウドコンピューティング)するように提供されてもよい。 By the way, the program for realizing the software appearing in the present embodiment may be provided as a non-temporary recording medium readable by a computer, may be provided as a downloadable form from an external server, or may be provided. It may be provided to start the program on an external computer and realize the function on the client terminal (so-called cloud computing).
また、本実施形態において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらのハードウェア資源によって具体的に実現されうるソフトウェアの情報処理とを合わせたものも含みうる。また、本実施形態においては様々な情報を取り扱うが、これら情報は、例えば電圧・電流を表す信号値の物理的な値、0又は1で構成される2進数のビット集合体としての信号値の高低、又は量子的な重ね合わせ(いわゆる量子ビット)によって表され、広義の回路上で通信・演算が実行されうる。 Further, in the present embodiment, the "part" may include, for example, a combination of hardware resources implemented by a circuit in a broad sense and information processing of software specifically realized by these hardware resources. .. In addition, various information is handled in this embodiment, and these information are, for example, physical values of signal values representing voltage and current, and signal values as a bit aggregate of a binary number composed of 0 or 1. It is represented by high-low or quantum superposition (so-called qubit), and communication / operation can be executed on a circuit in a broad sense.
また、広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)、及びメモリ(Memory)等を少なくとも適当に組み合わせることによって実現される回路である。すなわち、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等を含むものである。 Further, the circuit in a broad sense is a circuit realized by at least appropriately combining a circuit, a circuit, a processor, a memory, and the like. That is, an integrated circuit for a specific application (Application Specific Integrated Circuit: ASIC), a programmable logic device (for example, a simple programmable logic device (Simple Programmable Logic Device: SPLD), a composite programmable logic device (Complex Programg)). It includes a programmable gate array (Field Programmable Gate Array: FPGA) and the like.
1.全体構成
本章では、本実施形態に係る情報処理装置について説明する。図1は、情報処理装置3及びそれに付随する装置を含むシステム100の模式図である。
1. 1. Overall Configuration This chapter describes the information processing device according to this embodiment. FIG. 1 is a schematic diagram of a
図1に示されるように、情報処理装置3は、視線計測装置4及びマイクロホン5と一緒に使用される。視線計測装置4及びマイクロホン5は外付けされる機器であっても良いし、情報処理装置3に内蔵されていてもよい。これらの装置を用いて、被検者2の視線の動きを分析して神経疾患の検査が行われる。神経疾患の対象は、パーキンソン病、多系統萎縮症/脊髄小脳変性症、進行性核上性麻痺、及び大脳皮質基底核症候群等であるが、これらに限らない。以下、情報処理装置3の構成要素についてさらに詳述する。
As shown in FIG. 1, the
図2は、情報処理装置3のハードウェア構成を示すブロック図である。図3は、情報処理装置3における制御部33が担う機能を示す機能ブロック図である。情報処理装置3は、通信部31と、記憶部32と、制御部33と、表示部34と、入力部35とを有し、これらの構成要素が情報処理装置3の内部において通信バス30を介して電気的に接続されている。以下、各構成要素についてさらに説明をする。
FIG. 2 is a block diagram showing a hardware configuration of the
(通信部31)
通信部31は、USB、IEEE1394、Thunderbolt、有線LANネットワーク通信等といった有線型の通信手段が好ましいものの、無線LANネットワーク通信、LTE/3G等のモバイル通信、Bluetooth(登録商標)通信等を必要に応じて含めてもよい。即ち、これら複数の通信手段の集合として実施することがより好ましい。特に、外付けされる視線計測装置4及びマイクロホン5とは、所定の通信規格において通信可能に構成されることが好ましい。
(Communication unit 31)
Although wired communication means such as USB, IEEE1394, Thunderbolt, and wired LAN network communication are preferable, the
(記憶部32)
記憶部32は、前述の記載により定義される様々な情報を記憶する。これは、例えばソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスとして、あるいは、プログラムの演算に係る一時的に必要な情報(引数、配列等)を記憶するランダムアクセスメモリ(Random Access Memory:RAM)等のメモリとして実施されうる。また、これらの組合せであってもよい。特に、記憶部32は、視線計測装置4及びマイクロホン5が検出したデータを記憶する。また、記憶部32は、取得プログラム、特定プログラム、特徴設定プログラム、特徴取得プログラム、時間測定プログラム、生成プログラム、変換プログラム、前処理プログラム、結果保存プログラム、及び表示制御プログラムを記憶する。また、記憶部32は、これ以外にも制御部33によって実行される情報処理装置3に係る種々のプログラム等を記憶している。
(Memory unit 32)
The
記憶部32は、視線運動データGを記憶する。ここで視線運動データGは、文書を読んでいるときにおける人物の視線の動きを、複数の症例毎に記憶したものである。換言すると視線運動データGは、視線の動きをトラッキングしたデータから座標点を抽出したものであり、症例毎に分類された視線の動きを含む関連するデータである。視線運動データGは、健常者及び神経疾患患者から集められる。視線運動データGは、視線計測装置4から通信部31を介して受信したデータであってもよいし、別の装置で取得した記憶媒体に記憶されたデータであってもよい。図4は、被検者2の視線の動きから取得した視線運動6及び視線運動データGの一例である。視線運動6は、被検者2が表示部34を見ているときの視点をトラッキングしたものである。視線運動6は、注視点61と接続線62を有する。注視点61は、被検者2が文書を読んでいる間、視線が所定の時間以上停止した点、所定の時間以上停止した領域の中心座標、又は、所定時間毎における視線に対応する座標である。接続線62は、連続する2つの注視点61を接続した線である。換言すると、接続線62は、被検者2が視線を移動した軌跡である。図4では、検査中の視線運動6を表示部34に表示させているが、表示させなくてもよい。
The
視線運動データGに含まれるNoは、注視点61を時系列に並べた順序である。視線運動データGに含まれるX及びYは、注視点61の表示部34における座標点である。ここで座標系は、画像座標系であってもよいし、物理座標系であってもよい。座標系は限定しない。
No. included in the line-of-sight motion data G is an order in which the gazing points 61 are arranged in chronological order. X and Y included in the line-of-sight motion data G are coordinate points on the
(制御部33)
制御部33は、情報処理装置3に関連する全体動作の処理・制御を行う。制御部33は、例えば不図示の中央処理装置(Central Processing Unit:CPU)である。制御部33は、記憶部32に記憶された所定のプログラムを読み出すことによって、情報処理装置3に係る種々の機能を実現する。具体的には取得機能、特定機能、特徴設定機能、特徴取得機能、時間測定機能、生成機能、変換機能、前処理機能、結果保存機能、及び表示制御機能が該当する。即ち、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されることで、取得部331、特定部332、特徴設定部333、特徴取得部334、時間測定部335、生成部336、変換部337、前処理部338、結果保存部339、及び表示制御部33aとして実行されうる。なお、図2においては、単一の制御部33として表記されているが、実際はこれに限るものではなく、機能ごとに複数の制御部33を有するように実施してもよい。またそれらの組合せであってもよい。
(Control unit 33)
The
(表示部34)
表示部34は、例えば、情報処理装置3の筐体に含まれるものであってもよいし、外付けされるものであってもよい。表示部34は、ユーザーが操作可能なグラフィカルユーザーインターフェース(Graphical User Interface:GUI)の画面を表示する。これは例えば、CRTディスプレイ、液晶ディスプレイ、有機ELディスプレイ及びプラズマディスプレイ等の表示デバイスを、情報処理装置3の種類に応じて使い分けて実施することが好ましい。当該表示デバイスは、制御部33における表示制御部33aの制御信号に応答して、表示画面を選択的に表示しうる。例えば、テスト文書D1、検査結果(不図示)等をユーザーが視認可能に表示することができる。
(Display unit 34)
The
(入力部35)
入力部35は、情報処理装置3の筐体に含まれるものであってもよいし、外付けされるものであってもよい。例えば、入力部35は、表示部34と一体となってタッチパネルとして実施されてもよい。タッチパネルであれば、ユーザーは、タップ操作、スワイプ操作等を入力することができる。もちろん、タッチパネルに代えて、スイッチボタン、マウス、QWERTYキーボード等を採用してもよい。すなわち、入力部35がユーザーによってなされた操作入力を受け付ける。また、入力部35は、情報処理装置3の筐体に内蔵される、又は外付けされる視線計測装置4及びマイクロホン5を含む。これらの装置によって、ユーザーは、被検者2の視線の動き及び音声を情報処理装置3に入力することができる。当該入力が信号として通信バス30を介して制御部33に転送され、制御部33が必要に応じて所定の制御や演算を実行しうる。
(Input unit 35)
The
2.機能構成
本章では、本実施形態の機能構成について説明する。図3に示されるように、制御部33は、取得部331と、特定部332と、特徴設定部333と、特徴取得部334と、時間測定部335と、生成部336と、変換部337と、前処理部338と、結果保存部339と、表示制御部33aとを備える。以下、各構成要素についてさらに説明する。
2. 2. Functional configuration This chapter describes the functional configuration of this embodiment. As shown in FIG. 3, the
(取得部331)
取得部331は、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されているものである。取得部331は、視線計測装置4及びマイクロホン5が検出した電気的データを、通信部31を介して取得するように構成されている。
(Acquisition unit 331)
In the
取得部331は、文書を読んでいる被検者2の視線の動きを取得可能に構成される。視線の動きは、被検者2が文書を読んでいるときの、被検者2の眼球運動に起因する動きである。図5は、被検者2が読むテスト文書D1の一例である。眼球運動を検出する方法は種々あるが、本実施形態では、視線計測装置4が被検者2の注視している視点をトラッキングし、その結果を電気的データに変換したものを取得部331が取得する。また、取得部331は、被検者2の発声した音声を取得可能に構成されてもよい。
The
(特定部332)
特定部332は、取得した視線の動きが、視線運動データGのうち、いずれの症例に該当するかを特定可能に構成される。ここで、視線運動データGは、文書を読んでいるときにおける人物の視線の動きを、複数の症例毎に記憶したものである、図6は、テスト文書D1を用いて対照実験をした結果である。図6Aは、対照区であるコントロール画像DCを表す図である。図6Bは、実験区である多系統萎縮症画像DMを表す図である。図6A及び図6Bに示されるように、健常者の視線運動6と多系統萎縮症患者の視線運動6には異なる特徴が見られる。同様に、他の神経疾患患者の視線運動6においても固有の傾向がある。このような傾向の違いに基づいて、特定部332は、被検者2が健常者であるか神経疾患患者であるかを特定することができる。さらに、被検者2がどのような神経疾患を患っているかを特定することができる。
(Specific part 332)
The
(特徴設定部333)
特徴設定部333は、視線運動データGに対応する複数の症例毎に特徴FTを設定可能に構成される。図7は、神経疾患を特定する特徴量FQ及び特徴FTを記した特徴量一覧Fである。これらの特徴量FQは一例であり、図7に記載されているものに限定されない。特徴FTは、特徴量一覧Fに記載されているように、特徴量FQから得られた注視点61の数、接続線62の数等である。さらに、特徴FTは、これら特徴量FQを複数組合せて生成した合成数も含む。例えば、注視点61の数と接続線62の長さの平均値を掛け合わせた値が合成数に含まれる。特徴設定部333は、このような特徴FTを、神経疾患の症例毎に設定する。
(Characteristic setting unit 333)
The
(特徴取得部334)
特徴取得部334は、取得した被検者2の視線の動きから特徴FTを取得可能に構成される。被検者2が神経疾患を患っているのか否か、また、神経疾患を患っている場合には神経疾患の種別を特定するために、特徴取得部334は、被検者2の視線の動きから特徴FTを取得する。特定部332は、被検者2から取得した特徴FT及び設定された特徴FTに基づいて、取得した視線の動きが、視線運動データGのうち、いずれの症例に該当するかを特定可能に構成される。被検者2の特徴FTが健常者の特徴FTの標本に属する場合、被検者2は健常者であると特定される。一方、被検者2の特徴FTが、例えば、多系統萎縮症の特徴FTの標本に属する場合、被検者2は、多系統萎縮症であると特定される。
(Characteristic acquisition unit 334)
The
(時間測定部335)
被検者2の神経疾患の有無又は神経疾患の種別を特定する精度を高めるには、より多くの特徴量FQが必要となる。そのため時間測定部335は、被検者2が文書を読んでいる間の時間を測定可能に構成される。文字を注視している時間や視線を動かす視線移動速度に神経疾患固有の傾向がある場合、被検者2が文書を読んでいる間の時間を測定することは有効である。
(Time measurement unit 335)
In order to improve the accuracy of identifying the presence or absence of a neurological disorder or the type of a neurological disorder in the
(生成部336)
生成部336は、特徴取得部334が取得した種々の特徴FT、例えば、被検者2の視線の動き、検査中の測定時間、及び被検者2が読んでいるテスト文書D1の文字から二次データを生成する。以下、各二次データについて説明する。
(Generation unit 336)
The
図8は、第1視線データGD1の一例である。生成部336は、取得した視線の動きと、測定した時間とを紐付けた第1視線データGD1を生成可能に構成される。被検者2が特定の文字を注視している時間や特定の文字の間の視線運動6の速度等を算出するため、取得した視線の動きと、測定した時間が紐付けられている。同様に、神経疾患患者の視線運動データGも、視線の動きと、測定した時間が紐付けられている。換言すると、視線運動データGは、被検者2又は神経疾患患者を含む人物が文書を読んでいた間の時間を含んでいる。また、本実施形態では、視線運動データGは、人物が前記文書を音読した際における視線の動きであってもよい。
FIG. 8 is an example of the first line-of-sight data GD1. The
第1視線データGD1は、開始時刻、終了時刻、注視時間、及び移動時間を含む。開始時刻は、被検者2の視線が注視点61への注視を開始した時刻である。終了時刻は、被検者2の視線が注視点61への注視を終了した時刻である。注視時間は、開始時刻から終了時刻までの時間である。移動時間は、ある注視点61の終了時刻から次の注視点61の開始時刻までの時間である。ここで、第1視線データGD1に含まれる時間の単位は秒である。なお、時間の単位はこれに限定されない。
The first line-of-sight data GD1 includes a start time, an end time, a gaze time, and a movement time. The start time is the time when the line of sight of the subject 2 starts to gaze at the
図9は、第2視線データGD2の一例である。生成部336は、取得した視線の動きと、変換したテキストデータとを紐付けた第2視線データGD2を生成可能に構成される。被検者2が特定の文字を読んでいる間、文字と視線の位置関係の傾向は、神経疾患によって異なる。ここで位置関係とは、読んでいる文字に対して、注視点61が上下左右どこに位置するかを表すものである。多系統萎縮症/脊髄小脳変性症の患者には、視線を意図した場所に動かせないという傾向がある。そのため被検者2がどの神経疾患を患っているかを特定するために、第2視線データGD2は有効である。
FIG. 9 is an example of the second line-of-sight data GD2. The
第2視線データGD2に記載されている発音文字は、被検者2が読んだテスト文書D1内の文字である。Xc及びYcは、読んだ文字の重心の表示部34の座標点である。距離は、注視点61から読んだ文字の重心までの距離である。
The phonetic characters described in the second line-of-sight data GD2 are the characters in the test document D1 read by the
(変換部337)
変換部337は、取得した音声をテキストデータに変換可能に構成される。変換部337は、被検者2が発した音声を認識し、音声をテキストデータに変換する。変換部337は、自動的に音声をテキストデータに変換してもよいし、ユーザーが被検者2の音声を聞きながらテキストデータに変換してもよい。なお、ユーザーは、音声をテキストデータに変換した結果を編集することができる。
(Conversion unit 337)
The
(前処理部338)
前処理部338は、取得した被検者2の視線の動きから特徴FTに寄与する動きを抽出可能に構成される。被検者2の視線の動きに関するデータは、被検者2の意図しない動きも含んでいる。このようなデータ、特に外れ値は、特定部332が被検者2の神経疾患の有無又は神経疾患の特定をする精度を下げる恐れがある。そのため前処理部338は、ノイズデータを予め除去する。
(Pretreatment unit 338)
The
図10は、神経疾患の特定方法に用いられる前処理の一例である。前処理として、接続線L1の端点P1が全ての注視点61の重心GCから所定の距離以上にあり、接続線L1と、接続線L1と連続する接続線L2の各長さが所定の長さ以上である場合、端点P1を外れ値としてもよい。このとき、前処理部338は、端点P1に接続している接続線L1及び接続線L2を削除し、代わりに接続線M1を設定する。このように、外れ値である端点P1を削除するが、手法はこれに限定されるものではない。
FIG. 10 is an example of pretreatment used in a method for identifying a neurological disorder. As a preprocessing, the end point P1 of the connecting line L1 is at a predetermined distance or more from the center of gravity GC of all the gazing points 61, and each length of the connecting line L1 and the connecting line L2 continuous with the connecting line L1 has a predetermined length. In the above case, the end point P1 may be used as an outlier. At this time, the
(結果保存部339)
結果保存部339は、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されているものである。結果保存部339は、情報処理装置3の利用に関するデータを記憶部32に保存する。例えば、結果保存部339は、被検者2の視線運動データG、取得した特徴FTに関するデータ、及び検査結果を記憶部32に保存する。
(Result storage unit 339)
In the
(表示制御部33a)
表示制御部33aは、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されているものである。表示制御部33aは、テスト文書D1を表示部34に表示させる。表示制御部33aは、被検者2が情報処理装置3を使用している間の視線運動データG、検査結果(不図示)等を表示部34に表示させる。視線運動データGは、検査中のみならず、検査後も表示部34に表示させることができる。
(Display control unit 33a)
In the display control unit 33a, information processing by software (stored in the storage unit 32) is specifically realized by hardware (control unit 33). The display control unit 33a causes the
3.検査について
本章では、被検者2から取得した視線の動きに基づいて、いずれの症例に該当するか特定する検査について説明する。
3. 3. Examination This chapter describes an examination to identify which case is applicable based on the movement of the line of sight obtained from the
3.1 検査前の準備
ユーザーは、被検者2を検査する前に、結果保存部339を実行し、複数の神経疾患の患者の視線運動データGを記憶部32に記憶する。視線運動データGは、神経疾患の患者がテスト文書D2を読んでいるときにおける視線の動きを、症例毎に記憶したものである。結果保存部339は、同様に健常者の視線運動データGも記憶部32に記憶する。また、ユーザーは、時間測定部335及び生成部336を実行し、視線の動きにテスト文書D2を読んでいる間の時間を紐付けてもよく、取得部331及び変換部337を実行し、音読中に取得した音声を変換したテキストデータを紐付けてもよい。
3.1 Preparation before examination The user executes the
3.2 検査方法
被検者2は、表示部34に表示された文書を読む。図11は、被検者2が読むテスト文書D2の一例である。このようにテスト文書D2は、「あいうえお」を単に五十音順に並べた文書でもよい。なお、テスト文書D2に記載された文字の大きさ及び色は任意であり、テスト文書D2の背景色は、文字の色と異なることが好ましい。文書は、横書き文書と縦書き文書を含んでもよい。例えば、進行性核上性麻痺の患者は、病気の初期より、視線を上下方向に動かすことが困難であることが多い。そのため、横書き文書及び縦書き文書を検査に用いることにより、視線を上下方向に動かすことが困難な患者の特定を容易にすることができる。
3.2 Inspection method The subject 2 reads the document displayed on the
テスト文書D2の文字は日本語に限らず、英語、フランス語であってもよい。言語は問わない。またテスト文書D2は、数字や記号を含んでいてもよい。検査中に、表示制御部33aは、テスト文書D2を表示部34に全文表示する必要はなく、部分的に表示してもよい。
The characters of the test document D2 are not limited to Japanese, but may be English or French. Language does not matter. Further, the test document D2 may include numbers and symbols. During the inspection, the display control unit 33a does not need to display the test document D2 in full text on the
被検者2にテスト文書D2を読ませるときは、音読及び黙読のどちらでもよい。なお、音読の方が、目視に加えて音声を発するという処理により、脳への負荷が大きくなるため、特徴FTが顕著に現れると思われる。さらに、音読させる場合には、視線に加えて音声に関するデータを取得することができる。例えば、被検者2に横書きの文書を3回読ませた後、縦書きの文書を3回読ませてもよい。そして、テスト文書D2を読んだときの注視点61と接続線62につき、横書きの文書と縦書きの文書毎に合成してもよい。これは実施例であり、同じ文書を複数回読ませてもよく、異なる文書を複数回読ませてもよい。
When the subject 2 is made to read the test document D2, either reading aloud or silent reading may be used. It should be noted that, in reading aloud, the load on the brain is increased by the process of emitting a voice in addition to the visual inspection, so that the characteristic FT is considered to appear prominently. Further, when reading aloud, it is possible to acquire data related to voice in addition to the line of sight. For example, the subject 2 may be made to read the horizontally written document three times and then read the vertically written document three times. Then, the
3.3 検査結果
ここでは、被検者2が、テスト文書D2を3回読んでいる間に取得部331が取得した被検者2の視線の動きについて説明する。図12は、図11に示される縦書き文書を読ませた場合における、健常者及び多系統萎縮症の検査結果を表す図である。図12Aは、健常者のコントロール画像ECを表す図である。図12Bは、多系統萎縮症画像EMを表す図である。多系統萎縮症の患者の視線運動6の傾向として、滑動性眼球運動が衝動的になる、又は視線を意図した場所に動かせない等の症状がある。そのため、多系統萎縮症患者の注視点61の数は、健常者の注視点61の数よりも多い。多系統萎縮症の患者の滑動性眼球運動が衝動的であることが、多系統萎縮症画像EMに反映されている。また、健常者の視線運動6と比べて、多系統萎縮症患者の視線運動6の方が、図9に示される距離が大きくなる傾向がある。多系統萎縮症患者は、視線を意図した場所に動かしにくいことが、多系統萎縮症画像EMに反映されている。
3.3 Examination Results Here, the movement of the line of sight of the subject 2 acquired by the
図13は、図11に示される縦書き文書を読ませた場合における、パーキンソン病及び進行性核上性麻痺の検査結果を表す画像の図である。図13Aは、パーキンソン病画像EDを表す図である。パーキンソン病患者の視線運動6の傾向として、眼球の動き(例:滑動性運動、衝動性運動)は疾患の進行とともに障害が進むという症状がある。そのため、パーキンソン病患者の視線運動6は、健常者の視線運動6と比べて図9に示される距離が大きくなる傾向がある。図13Bは、進行性核上性麻痺画像ESを表す図である。進行性核上性麻痺患者の視線運動6の傾向として、病気の初期より視線を垂直(上下)方向に動かすことが困難となるという症状がある。そのため、テスト文書D2が縦書きにも関わらず、進行性核上性麻痺の視線運動6は、上下に統一的に軌跡が形成されず、全方位に発散している。
FIG. 13 is an image showing the test results of Parkinson's disease and progressive supranuclear palsy when the vertical document shown in FIG. 11 is read. FIG. 13A is a diagram showing the Parkinson's disease image ED. As a tendency of the line-of-
4.神経疾患の特定についての説明
被検者2が、健常者であるか、神経疾患患者であるかの特定、及び神経疾患の種別を特定する方法を以下に説明する。健常者及び神経疾患患者の視線の動きの特徴FTはそれぞれ異なりる。また、健常者及び神経疾患患者の類型ごとに特徴FTは共通の傾向がある。そのため、健常者及び神経疾患患者の類型ごとの特徴FTの標本は、特定の確率分布に従う。そのため、被検者2の視線の動きから上述した特徴FTを算出し、算出した特徴FTがどの特徴FTの確率分布に属するか、特定部332が統計的手法に基づいて特定する。
4. Explanation of Identification of Neurological Disease A method for identifying whether the
図12及び図13に示したように、検査結果の画像は神経疾患の症例毎に固有の傾向がある。そのため、画像処理によるパターンマッチングにより、特定部332が神経疾患の種別を特定してもよい。この場合、被検者2の視線運動6に対応する画像と、予め記憶した視線運動データGのうち、複数の症例を表す画像と、をパターンマッチングにより照合することにより、被検者2の視線運動6がいずれの症例に該当するのかを特定することができる。
As shown in FIGS. 12 and 13, the images of the test results tend to be unique to each case of neurological disorder. Therefore, the
なお、ディープラーニングを用いて、被検者2が健常者であるか神経疾患患者であるかの特定、及び神経疾患の種別を特定してもよい。ディープラーニングを用いる場合には、大規模なラベル付けされたデータとニューラルネットワークの構造を利用して学習を行うことにより、視線運動データGから特徴量FQ及び特徴FTを学習することができる。入力するデータは、視線運動データGでもよく、コントロール画像EC及び多系統萎縮症画像EMのようなデータであってもよい。
It should be noted that deep learning may be used to identify whether the
5.特定方法
本章では、上述で説明した情報処理装置3を用いた神経疾患の特定方法について説明する。特定方法は、取得ステップと、特定ステップとを備える。取得ステップでは、テスト文書D1を読んでいる被検者2の視線の動きを取得する。特定ステップでは、取得した視線の動きが、視線運動データGのうち、いずれの症例に該当するかを特定する。視線運動データGは、文書を読んでいるときにおける人物の視線の動きを、複数の症例毎に記憶したものである。具体的に、この特定方法を説明する。
5. Specific Method This chapter describes a method for identifying a neurological disease using the
5.1 テスト文書D1を用いた神経疾患の特定方法
本節では、テスト文書D1を用いた神経疾患の特定方法の一例を説明する。図14は、実施形態に係る神経疾患の特定方法の一例を表すアクティビティ図である。
5.1 Method for identifying neurological disorders using test document D1 This section describes an example of a method for identifying neurological disorders using test document D1. FIG. 14 is an activity diagram showing an example of a method for identifying a neurological disorder according to an embodiment.
[ここから]
(アクティビティA01)
被検者2を検査するために、取得部331は、被検者2の視線の動きに関するデータを取得する。
(アクティビティA02)
特徴取得部334は、取得した被検者2の視線の動きから特徴FTを取得する。
(アクティビティA03)
特定部332は、被検者2から取得した特徴FTと、神経疾患患者に予め設定された特徴FTに基づいて、取得した視線の動きが、神経疾患患者の視線運動データGのうち、いずれの症例に該当するかを特定する。
(アクティビティA04)
表示制御部33aは、検査した結果を表示部34に表示する。
(アクティビティA05)
結果保存部339は、検査した結果を記憶部32に記憶する。
[ここまで]
[from here]
(Activity A01)
In order to inspect the
(Activity A02)
The
(Activity A03)
In the
(Activity A04)
The display control unit 33a displays the inspection result on the
(Activity A05)
The
[to this point]
5.2 視線の動きに関するデータの取得方法
本節では、視線の動きデータの取得方法の一例について説明をする。図15は、実施形態に係る神経疾患の特定方法の一例を表すサブアクティビティ図である。図15Aは、視線の動きに関するデータの取得方法(A01)の一例を表すサブアクティビティ図である。
5.2 Acquisition method of data related to eye movement This section describes an example of acquisition method of eye movement data. FIG. 15 is a sub-activity diagram showing an example of a method for identifying a neurological disorder according to an embodiment. FIG. 15A is a sub-activity diagram showing an example of a method (A01) for acquiring data related to the movement of the line of sight.
[ここから]
(サブアクティビティA11)
取得部331は、被検者2の視線の動きに関するデータの取得を開始する。
(サブアクティビティA12)
取得部331は、テスト文書D1を読んでいる被検者2の視線の動きを取得する。
(サブアクティビティA13)
時間測定部335は、被検者2がテスト文書D1を読んでいる間の時間を測定する。
(サブアクティビティA14)
取得部331は、被検者2の発した音声を取得する。
(サブアクティビティA15)
変換部337は、音声をテキストデータに変換する。
(サブアクティビティA16)
取得部331は、被検者2の視線の動きデータの取得を終了する。
[ここまで]
[from here]
(Sub-activity A11)
The
(Sub-activity A12)
The
(Sub-activity A13)
The
(Sub-activity A14)
The
(Sub-activity A15)
The
(Sub-activity A16)
The
[to this point]
5.3 特徴FTの取得方法
本節では、特徴FTの取得方法の一例について説明をする。図15Bは、特徴FTの取得方法(A02)の一例を表すサブアクティビティ図である。
5.3 Acquisition method of feature FT This section describes an example of acquisition method of feature FT. FIG. 15B is a sub-activity diagram showing an example of the feature FT acquisition method (A02).
[ここから]
(サブアクティビティA21)
特徴設定部333は、被検者2の視線の動きの特徴FTの取得を開始する。
(サブアクティビティA22)
生成部336は、取得した被検者2の視線の動きと、測定した時間とを紐付けた第1視線データGD1を生成する。
(サブアクティビティA23)
生成部336は、取得した被検者2の視線の動きと、変換したテキストデータとを紐付けた第2視線データGD2を生成する。
(サブアクティビティA24)
前処理部338は、取得した被検者2の視線の動きから特徴FTに寄与する動きを抽出するための前処理を実行する。
(サブアクティビティA25)
特徴設定部333は、視線運動データG、第1視線データGD1及び第2視線データGD2から、特徴FTを取得し、処理を終了する。
[ここまで]
[from here]
(Sub-activity A21)
The
(Sub-activity A22)
The
(Sub-activity A23)
The
(Sub-activity A24)
The
(Sub-activity A25)
The
[to this point]
テスト文書D1を用いた神経疾患の特定方法では、頭部MRI手法、脳血流SPECT手法、MIBG心筋シンチグラフィ手法、及びDATスキャン手法と比べて、検査時間が短く、安価で行える。検査にあたり、音声及び音読のダブルタスクをさせることで、神経疾患の患者の脳への負荷が増え、症状が顕著に現れる。また、テスト文書D1を読んでいる間、音声を取得することにより、視線に対して音読している文字がどのくらい進んでいるかを把握することができる。神経疾患の症状毎に視線と音読しているテキストの位置に違いがあるため、症例を特定する精度が高くなる。 The method for identifying a neurological disorder using the test document D1 has a shorter examination time and is cheaper than the head MRI method, the cerebral blood flow SPECT method, the MIBG myocardial scintigraphy method, and the DAT scan method. By performing the double task of reading aloud and reading aloud during the examination, the load on the brain of the patient with a neurological disorder increases, and the symptoms become prominent. Further, by acquiring the voice while reading the test document D1, it is possible to grasp how far the character being read aloud with respect to the line of sight is advanced. Since there is a difference in the position of the line of sight and the text being read aloud for each symptom of the neurological disorder, the accuracy of identifying the case is high.
神経疾患が進んでいくと、被検者2の視線運動6にも変化が現れるため、疾患の進行状況を把握できる。例えば、パーキンソン病の患者の眼球の動き(例:滑動性運動、衝動性運動)は疾患の進行とともに障害が進むため、本特定方法で進行状況を把握することができる。逆に、神経疾患が治癒すると、本特定方法で回復状況も把握することができる。ユーザーが同一のテスト文書D1を用いて、被検者2の神経疾患を特定する場合、検査結果に再現性が現れる。一方、検査毎に、テスト文書D1の文書の内容やテキストの大きさ等を変えることで、被検者2は、過去に検査した経験とは無関係に検査される。そのため本特定方法は、学習効果が働かない。
As the neurological disease progresses, the line-of-
6.変形例
本章では、情報処理装置3に係る変形例について説明する。即ち、下記のような態様によって前述の実施形態を実施してもよい。
6. Modification example This chapter describes a modification example related to the
(1)テスト文書D1及びテスト文書D2の特定文字に他の文字と異なる色を付けてもよい。特定文字を読むと脳への負荷が大きくなり、その負荷が被検者2の視線運動6に反映される。
(2)ユーザーがテスト文書D1及びテスト文書D2の特定文字をポインターで示し、被検者2がトラッキングをして、特定文字の色が変わったときに音読させてもよい。特定文字を読むことによる脳の特定領域の負荷が被検者2の視線運動6に反映される。
(3)プログラムであって、コンピュータを情報処理装置3として機能させるものが提供されてもよい。
(1) The specific characters of the test document D1 and the test document D2 may be colored differently from other characters. Reading a specific character increases the load on the brain, and the load is reflected in the line-of-
(2) The user may point to a specific character of the test document D1 and the test document D2 with a pointer, and the subject 2 may track and read aloud when the color of the specific character changes. The load on a specific area of the brain due to reading a specific character is reflected in the line-of-
(3) A program may be provided that causes the computer to function as the
7.結言
このように、テスト文書を黙読又は音読させることで、発話の障害や滑動性眼球運動に障害のある神経疾患の患者を十分に特定することができる情報処理装置を提供することができる。さらに、検査を継続的に行うことで、神経疾患の進行状況も把握できる。治療薬の投与の判定にも活かすことができる。
7. Conclusion In this way, by silently reading or reading aloud the test document, it is possible to provide an information processing device capable of sufficiently identifying a patient with a neurological disorder having a speech disorder or a sliding eye movement disorder. Furthermore, by conducting continuous examinations, the progress of neurological disorders can be grasped. It can also be used to determine the administration of therapeutic agents.
次に記載の各態様で提供されてもよい。
前記情報処理装置において、特徴設定部をさらに備え、前記特徴設定部は、前記視線運動データに対応する複数の症例毎に特徴を設定可能に構成される、もの。
前記情報処理装置において、特徴取得部をさらに備え、前記特徴取得部は、取得した前記被検者の視線の動きから特徴を取得可能に構成され、前記特定部は、前記取得した特徴及び前記設定された特徴に基づいて、前記取得した視線の動きが、前記視線運動データのうち、いずれの症例に該当するかを特定可能に構成される、もの。
前記情報処理装置において、前記文書は、横書き文書と縦書き文書を含む、もの。
前記情報処理装置において、時間測定部と、生成部とをさらに備え、前記時間測定部は、前記被検者が前記文書を読んでいる間の時間を測定可能に構成され、前記生成部は、前記取得した前記視線の動きと、前記測定した時間とを紐付けた第1視線データを生成可能に構成される、もの。
前記情報処理装置において、変換部をさらに備え、前記取得部は、前記被検者の発声した音声を取得可能に構成され、前記変換部は、前記音声をテキストデータに変換可能に構成され、前記生成部は、前記取得した前記視線の動きと、前記変換した前記テキストデータとを紐付けた第2視線データを生成可能に構成される、もの。
前記情報処理装置において、前記視線運動データは、人物が前記文書を読んでいた間の時間を含む、もの。
前記情報処理装置において、前記視線運動データは、人物が前記文書を音読した際における視線の動きである、もの。
前記情報処理装置において、特徴取得部と、前処理部とを備え、前記特徴取得部は、取得した前記被検者の視線の動きから特徴を取得可能に構成され、前記前処理部は、前記取得した前記被検者の視線の動きから前記特徴に寄与する動きを抽出可能に構成される、もの。
特定方法であって、取得ステップと、特定ステップとを備え、前記取得ステップでは、文書を読んでいる被検者の視線の動きを取得し、前記特定ステップでは、前記取得した視線の動きが、視線運動データのうち、いずれの症例に該当するかを特定し、前記視線運動データは、文書を読んでいるときにおける人物の視線の動きを、複数の症例毎に記憶したものである、方法。
プログラムであって、コンピュータを、前記情報処理装置の各部として機能させるもの。
もちろん、この限りではない。
It may be provided in each of the following embodiments.
The information processing apparatus further includes a feature setting unit, which is configured to be capable of setting features for each of a plurality of cases corresponding to the line-of-sight motion data.
The information processing apparatus further includes a feature acquisition unit, the feature acquisition unit is configured to be able to acquire features from the acquired movement of the subject's line of sight, and the specific unit is configured to acquire the acquired features and the settings. It is configured so that it is possible to identify which case the acquired line-of-sight movement corresponds to in the line-of-sight movement data based on the characteristics obtained.
In the information processing apparatus, the document includes a horizontal writing document and a vertical writing document.
The information processing apparatus further includes a time measuring unit and a generation unit, and the time measuring unit is configured to be capable of measuring the time while the subject is reading the document. A device capable of generating first line-of-sight data in which the acquired movement of the line of sight and the measured time are linked.
The information processing apparatus further includes a conversion unit, the acquisition unit being configured to be able to acquire the voice uttered by the subject, and the conversion unit being configured to be able to convert the voice into text data. The generation unit is configured to be capable of generating second line-of-sight data in which the acquired movement of the line of sight and the converted text data are associated with each other.
In the information processing apparatus, the line-of-sight motion data includes a time while a person is reading the document.
In the information processing apparatus, the line-of-sight motion data is the movement of the line-of-sight when a person reads the document aloud.
The information processing apparatus includes a feature acquisition unit and a preprocessing unit, the feature acquisition unit is configured to be able to acquire features from the acquired movement of the subject's line of sight, and the preprocessing unit is configured to be capable of acquiring features. A device that can extract movements that contribute to the characteristics from the acquired movements of the subject's line of sight.
It is a specific method and includes an acquisition step and a specific step. In the acquisition step, the movement of the line of sight of the subject reading the document is acquired, and in the specific step, the movement of the acquired line of sight is obtained. A method of identifying which case corresponds to the line-of-sight movement data, and the line-of-sight movement data stores the movement of the line of sight of a person when reading a document for each of a plurality of cases.
A program that causes a computer to function as each part of the information processing device.
Of course, this is not the case.
最後に、本発明に係る種々の実施形態を説明したが、これらは、例として提示したものであり、発明の範囲を限定することは意図していない。当該新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。当該実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Finally, various embodiments of the present invention have been described, but these are presented as examples and are not intended to limit the scope of the invention. The novel embodiment can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. The embodiment and its modifications are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and the equivalent scope thereof.
100 :システム
2 :被検者
3 :情報処理装置
30 :通信バス
31 :通信部
32 :記憶部
33 :制御部
331 :取得部
332 :特定部
333 :特徴設定部
334 :特徴取得部
335 :時間測定部
336 :生成部
337 :変換部
338 :前処理部
339 :結果保存部
33a :表示制御部
34 :表示部
35 :入力部
4 :視線計測装置
5 :マイクロホン
6 :視線運動
61 :注視点
62 :接続線
D1 :テスト文書
D2 :テスト文書
DC :コントロール画像
DM :多系統萎縮症画像
EC :コントロール画像
ED :パーキンソン病画像
EM :多系統萎縮症画像
ES :進行性核上性麻痺画像
F :特徴量一覧
FQ :特徴量
FT :特徴
G :視線運動データ
GC :重心
GD1 :第1視線データ
GD2 :第2視線データ
L1 :接続線
L2 :接続線
M1 :接続線
P1 :端点
100: System 2: Subject 3: Information processing device 30: Communication bus 31: Communication unit 32: Storage unit 33: Control unit 331: Acquisition unit 332: Specific unit 333: Feature setting unit 334: Feature acquisition unit 335: Time Measurement unit 336: Generation unit 337: Conversion unit 338: Preprocessing unit 339: Result storage unit 33a: Display control unit 34: Display unit 35: Input unit 4: Line-of-sight measurement device 5: Microphone 6: Line-of-sight motion 61: Gaze point 62 : Connection line D1: Test document D2: Test document DC: Control image DM: Multiple system atrophy image EC: Control image ED: Parkinson's disease image EM: Multiple system atrophy image ES: Progressive supranuclear palsy image F: Features Amount list FQ: Feature amount FT: Feature G: Line-of-sight motion data GC: Center of gravity GD1: First line-of-sight data GD2: Second line-of-sight data L1: Connection line L2: Connection line M1: Connection line P1: End point
Claims (11)
取得部と、特定部とを備え、
前記取得部は、文書を読んでいる被検者の視線の動きを取得可能に構成され、
前記特定部は、前記取得した視線の動きが、視線運動データのうち、いずれの症例に該当するかを特定可能に構成され、
前記視線運動データは、文書を読んでいるときにおける人物の視線の動きを、複数の症例毎に記憶したものである、
もの。 It is an information processing device
It has an acquisition part and a specific part,
The acquisition unit is configured to be able to acquire the movement of the line of sight of the subject reading the document.
The specific unit is configured to be able to identify which case the acquired gaze movement corresponds to in the gaze movement data.
The line-of-sight movement data stores the movement of the line-of-sight of a person while reading a document for each of a plurality of cases.
thing.
特徴設定部をさらに備え、
前記特徴設定部は、前記視線運動データに対応する複数の症例毎に特徴を設定可能に構成される、
もの。 In the information processing apparatus according to claim 1,
Further equipped with a feature setting unit
The feature setting unit is configured to be able to set features for each of a plurality of cases corresponding to the line-of-sight motion data.
thing.
特徴取得部をさらに備え、
前記特徴取得部は、取得した前記被検者の視線の動きから特徴を取得可能に構成され、
前記特定部は、前記取得した特徴及び前記設定された特徴に基づいて、前記取得した視線の動きが、前記視線運動データのうち、いずれの症例に該当するかを特定可能に構成される、
もの。 In the information processing apparatus according to claim 2,
Equipped with a feature acquisition unit
The feature acquisition unit is configured to be able to acquire features from the acquired movement of the subject's line of sight.
The specific unit is configured to be able to identify which case the acquired line-of-sight movement corresponds to in the line-of-sight movement data based on the acquired features and the set features.
thing.
前記文書は、横書き文書と縦書き文書を含む、
もの。 The information processing apparatus according to any one of claims 1 to 3.
The document includes a horizontal document and a vertical document.
thing.
時間測定部と、生成部とをさらに備え、
前記時間測定部は、前記被検者が前記文書を読んでいる間の時間を測定可能に構成され、
前記生成部は、前記取得した前記視線の動きと、前記測定した時間とを紐付けた第1視線データを生成可能に構成される、
もの。 The information processing apparatus according to any one of claims 1 to 4.
Further equipped with a time measurement unit and a generation unit,
The time measuring unit is configured to be able to measure the time while the subject is reading the document.
The generation unit is configured to be able to generate first line-of-sight data in which the acquired movement of the line of sight is associated with the measured time.
thing.
変換部をさらに備え、
前記取得部は、前記被検者の発声した音声を取得可能に構成され、
前記変換部は、前記音声をテキストデータに変換可能に構成され、
前記生成部は、前記取得した前記視線の動きと、前記変換した前記テキストデータとを紐付けた第2視線データを生成可能に構成される、
もの。 In the information processing apparatus according to claim 5,
With more converters
The acquisition unit is configured to be able to acquire the voice uttered by the subject.
The conversion unit is configured to be able to convert the voice into text data.
The generation unit is configured to be capable of generating second line-of-sight data in which the acquired movement of the line of sight and the converted text data are associated with each other.
thing.
前記視線運動データは、人物が前記文書を読んでいた間の時間を含む、
もの。 The information processing apparatus according to any one of claims 1 to 6.
The line-of-sight data includes the time while the person was reading the document.
thing.
前記視線運動データは、人物が前記文書を音読した際における視線の動きである、
もの。 The information processing apparatus according to any one of claims 1 to 7.
The line-of-sight movement data is the movement of the line of sight when a person reads the document aloud.
thing.
特徴取得部と、前処理部とを備え、
前記特徴取得部は、取得した前記被検者の視線の動きから特徴を取得可能に構成され、
前記前処理部は、前記取得した前記被検者の視線の動きから前記特徴に寄与する動きを抽出可能に構成される、
もの。 The information processing apparatus according to any one of claims 1 to 8.
It has a feature acquisition unit and a pretreatment unit.
The feature acquisition unit is configured to be able to acquire features from the acquired movement of the subject's line of sight.
The pretreatment unit is configured to be able to extract movements that contribute to the characteristics from the acquired movements of the subject's line of sight.
thing.
前記取得ステップでは、文書を読んでいる被検者の視線の動きを取得し、
前記特定ステップでは、前記取得した視線の動きが、視線運動データのうち、いずれの症例に該当するかを特定し、
前記視線運動データは、文書を読んでいるときにおける人物の視線の動きを、複数の症例毎に記憶したものである、
方法。 It is a specific method, and has an acquisition step and a specific step.
In the acquisition step, the movement of the line of sight of the subject reading the document is acquired.
In the specific step, it is specified which case the acquired gaze movement corresponds to in the gaze movement data.
The line-of-sight movement data stores the movement of the line-of-sight of a person while reading a document for each of a plurality of cases.
Method.
コンピュータを、請求項1〜請求項9の何れか1つに記載の情報処理装置の各部として機能させるもの。 It ’s a program,
A computer that functions as each part of the information processing apparatus according to any one of claims 1 to 9.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020086916A JP2021180716A (en) | 2020-05-18 | 2020-05-18 | Information processing device, specification method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020086916A JP2021180716A (en) | 2020-05-18 | 2020-05-18 | Information processing device, specification method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021180716A true JP2021180716A (en) | 2021-11-25 |
Family
ID=78605982
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020086916A Pending JP2021180716A (en) | 2020-05-18 | 2020-05-18 | Information processing device, specification method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021180716A (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004337348A (en) * | 2003-05-15 | 2004-12-02 | New Opto Corp | Eye movement analysis system |
WO2019106678A1 (en) * | 2017-11-30 | 2019-06-06 | Viewmind S.A. | System and method for detecting neurological disorders and for measuring general cognitive performance |
JP2020000483A (en) * | 2018-06-28 | 2020-01-09 | 株式会社アルム | Dementia diagnostic device, and dementia diagnostic system |
-
2020
- 2020-05-18 JP JP2020086916A patent/JP2021180716A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004337348A (en) * | 2003-05-15 | 2004-12-02 | New Opto Corp | Eye movement analysis system |
WO2019106678A1 (en) * | 2017-11-30 | 2019-06-06 | Viewmind S.A. | System and method for detecting neurological disorders and for measuring general cognitive performance |
JP2020000483A (en) * | 2018-06-28 | 2020-01-09 | 株式会社アルム | Dementia diagnostic device, and dementia diagnostic system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ciman et al. | Individuals’ stress assessment using human-smartphone interaction analysis | |
US11266342B2 (en) | Brain-computer interface for facilitating direct selection of multiple-choice answers and the identification of state changes | |
US10475351B2 (en) | Systems, computer medium and methods for management training systems | |
JP6013438B2 (en) | Brain disease diagnosis support system, brain disease diagnosis support method and program | |
Lamers et al. | Assessing upper limb function in multiple sclerosis | |
EP2698112B1 (en) | Real-time stress determination of an individual | |
WO2015037089A1 (en) | Brain dysfunction assessment method, brain dysfunction assessment device, and program thereof | |
Ciman et al. | iSenseStress: Assessing stress through human-smartphone interaction analysis | |
Salgado et al. | A QoE assessment method based on EDA, heart rate and EEG of a virtual reality assistive technology system | |
Marino et al. | Reliability and validity of the capabilities of upper extremity test (CUE-T) in subjects with chronic spinal cord injury | |
US20200251217A1 (en) | Diagnosis Method Using Image Based Machine Learning Analysis of Handwriting | |
Robens et al. | The digital tree drawing test for screening of early dementia: an explorative study comparing healthy controls, patients with mild cognitive impairment, and patients with early dementia of the Alzheimer type | |
Paredes et al. | Sensor-less sensing for affective computing and stress management technology | |
Gupta | StrokeSave: a novel, high-performance mobile application for stroke diagnosis using deep learning and computer vision | |
Schallert et al. | Evaluation of upper limb function with digitizing tablet-based tests: reliability and discriminative validity in healthy persons and patients with neurological disorders | |
Geronimo et al. | TeleBCI: remote user training, monitoring, and communication with an evoked-potential brain-computer interface | |
JP2021180716A (en) | Information processing device, specification method and program | |
Graves et al. | Preliminary validity of the Draw a Shape Test for upper extremity assessment in multiple sclerosis | |
JP3777480B2 (en) | Motor function evaluation system | |
EP3664101A1 (en) | A computer-implemented method and an apparatus for use in detecting malingering by a first subject in one or more physical and/or mental function tests | |
Pannasch et al. | Eye typing in application: A comparison of two systems with ALS patients | |
TW201807675A (en) | Teaching system with assistance of brainwave analysis including a brainwave detector, a brainwave analysis module, an answering interface, an answer comparison module and a question generation analysis subsystem | |
US20190159694A1 (en) | Apparatus and method for processing physiological information, and computer readable medium | |
Aoyama Lawrence et al. | Being in-sync: A multimodal framework on the emotional and cognitive synchronization of collaborative learners | |
Alifirova et al. | A method for quantitative evaluation of the results of postural tests |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230501 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240228 |