JP2024043867A - Measurement device, program and model generation device - Google Patents
Measurement device, program and model generation device Download PDFInfo
- Publication number
- JP2024043867A JP2024043867A JP2022149085A JP2022149085A JP2024043867A JP 2024043867 A JP2024043867 A JP 2024043867A JP 2022149085 A JP2022149085 A JP 2022149085A JP 2022149085 A JP2022149085 A JP 2022149085A JP 2024043867 A JP2024043867 A JP 2024043867A
- Authority
- JP
- Japan
- Prior art keywords
- measurement
- subject
- reaction
- signal
- reference signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005259 measurement Methods 0.000 title claims abstract description 369
- 238000006243 chemical reaction Methods 0.000 claims abstract description 183
- 230000009257 reactivity Effects 0.000 claims abstract description 73
- 230000004044 response Effects 0.000 claims description 64
- 238000004891 communication Methods 0.000 claims description 44
- 238000010801 machine learning Methods 0.000 claims description 23
- 230000036647 reaction Effects 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 19
- 201000010099 disease Diseases 0.000 claims description 15
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 claims description 15
- 230000002123 temporal effect Effects 0.000 claims description 13
- 230000011514 reflex Effects 0.000 claims description 11
- 230000003287 optical effect Effects 0.000 claims description 9
- 230000004043 responsiveness Effects 0.000 claims description 7
- 230000002596 correlated effect Effects 0.000 claims description 6
- 238000001514 detection method Methods 0.000 description 85
- 238000012545 processing Methods 0.000 description 31
- 206010012289 Dementia Diseases 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 13
- 238000000034 method Methods 0.000 description 13
- 230000008859 change Effects 0.000 description 11
- 238000012360 testing method Methods 0.000 description 10
- 230000015654 memory Effects 0.000 description 8
- 208000018737 Parkinson disease Diseases 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 230000004424 eye movement Effects 0.000 description 5
- 206010044565 Tremor Diseases 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 4
- 208000010877 cognitive disease Diseases 0.000 description 4
- 230000003111 delayed effect Effects 0.000 description 4
- 230000003920 cognitive function Effects 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 3
- 208000024891 symptom Diseases 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000035484 reaction time Effects 0.000 description 2
- 208000024827 Alzheimer disease Diseases 0.000 description 1
- 208000009829 Lewy Body Disease Diseases 0.000 description 1
- 201000002832 Lewy body dementia Diseases 0.000 description 1
- 208000002740 Muscle Rigidity Diseases 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000004304 visual acuity Effects 0.000 description 1
Images
Landscapes
- Eye Examination Apparatus (AREA)
Abstract
【課題】被検者の反応性を正確に測定する測定装置、プログラムおよびモデル生成装置を提供する。【解決手段】測定装置は、測定空間に出力された基準信号と、基準信号の出力に連動して測定空間に出力される測定情報に対する被検者の反応を示す反応信号とを取得する取得部と、反応信号と基準信号とに基づいて、被検者の反応性を測定する測定部と、を有する。【選択図】図3[Problem] To provide a measurement device, a program, and a model generation device for accurately measuring the reactivity of a subject. [Solution] The measurement device has an acquisition unit that acquires a reference signal output to a measurement space and a reaction signal that indicates the reaction of the subject to measurement information output to the measurement space in conjunction with the output of the reference signal, and a measurement unit that measures the reactivity of the subject based on the reaction signal and the reference signal. [Selected Figure] Figure 3
Description
本開示は、測定装置、プログラムおよびモデル生成装置に関する。 This disclosure relates to a measurement device, a program, and a model generation device.
従来から、例えば認知機能などを診断するために被検者の視線の動きを検出する診断装置が提案されている。例えば、特許文献1には、認知機能障害を簡便に診断する認知機能障害診断装置が開示されている。この認知機能障害診断装置は、診断用映像を表示する表示面における被検者の視点を時系列的に検出し、その視点の分布に基づいて被検者の認知機能障害を診断する。
2. Description of the Related Art Diagnostic devices that detect the movement of a subject's line of sight in order to diagnose, for example, cognitive function have been proposed. For example,
しかしながら、特許文献1の装置は、診断用映像に対する被検者の視点の移動を正確に測定して記録することが困難であった。
However, the device in
本開示は、被検者の反応性を正確に測定する測定装置、プログラムおよびモデル生成装置を提供することを目的とする。 The present disclosure aims to provide a measurement device, a program, and a model generation device that accurately measure the reactivity of a subject.
本開示に係る測定装置は、測定空間に出力された基準信号と、基準信号の出力に連動して測定空間に出力される測定情報に対する被検者の反応を示す反応信号とを取得する取得部と、反応信号と基準信号とに基づいて、被検者の反応性を測定する測定部と、を有するものである。 The measurement device according to the present disclosure includes an acquisition unit that acquires a reference signal output to a measurement space and a reaction signal indicating a reaction of a subject to measurement information output to the measurement space in conjunction with the output of the reference signal. and a measurement unit that measures the reactivity of the subject based on the reaction signal and the reference signal.
本開示に係るプログラムは、コンピュータに、測定空間に出力された基準信号と、基準信号の出力に連動して測定空間に出力される測定情報に対する被検者の反応を示す反応信号とを取得するステップと、反応信号と基準信号とに基づいて、被検者の反応性を測定するステップと、を実行させるものである。 A program according to the present disclosure causes a computer to acquire a reference signal output to a measurement space and a reaction signal indicating a reaction of a subject to measurement information output to the measurement space in conjunction with the output of the reference signal. and measuring the reactivity of the subject based on the reaction signal and the reference signal.
本開示に係るモデル生成装置は、測定空間に出力された基準信号と、基準信号の出力に連動して測定空間に出力される測定情報に対する複数の被検者の反応を示す反応信号と、複数の被検者の状態を判定した判定結果とを取得する取得部と、基準信号に基づいて複数の被検者の反応信号を対応付け、対応付けられた反応信号と判定結果とを組み合わせたデータセットに基づいて、機械学習モデルを生成する訓練部と、を有するものである。 A model generation device according to the present disclosure includes a reference signal outputted to a measurement space, a reaction signal indicating a reaction of a plurality of subjects to measurement information outputted to the measurement space in conjunction with the output of the reference signal, and a plurality of an acquisition unit that acquires the judgment result of determining the condition of the subject; and data that associates the reaction signals of the plurality of subjects based on the reference signal, and combines the correlated reaction signals and the judgment result. and a training unit that generates a machine learning model based on the set.
本開示に係るプログラムは、コンピュータに、測定空間に出力された基準信号と、基準信号の出力に連動して測定空間に出力される測定情報に対する複数の被検者の反応を示す反応信号と、複数の被検者の状態を判定した判定結果とを取得するステップと、基準信号に基づいて複数の被検者の反応信号を対応付け、対応付けられた反応信号と判定結果とを組み合わせたデータセットに基づいて、機械学習モデルを生成するステップと、を実行させるものである。 A program according to the present disclosure provides a computer with a reference signal outputted to a measurement space, and a reaction signal indicating the reaction of a plurality of subjects to measurement information outputted to the measurement space in conjunction with the output of the reference signal. a step of acquiring judgment results that have determined the states of multiple subjects; and a step of associating the reaction signals of the plurality of subjects based on a reference signal, and combining data of the correlated reaction signals and the judgment results. and generating a machine learning model based on the set.
本開示によれば、被検者の測定情報に対する反応性を正確に測定することが可能となる。 According to the present disclosure, it is possible to accurately measure the reactivity of a subject to measurement information.
以下、本開示に係る実施の形態を添付図面に基づいて説明する。 The following describes an embodiment of the present disclosure with reference to the attached drawings.
(実施の形態1)
図1に、本開示の実施の形態1に係る測定装置を備えた測定システムの構成を示す。測定システム1は、複数の端末装置2と、通信システム3と、測定装置4とを有する。端末装置2、通信システム3および測定装置4は、互いに接続されている。
(Embodiment 1)
1 shows a configuration of a measurement system including a measurement device according to a first embodiment of the present disclosure. The
端末装置2は、測定空間に配置され、被検者の反応性を検知する。ここで、測定空間は、被検者が位置して、被検者の反応を測定する空間を示す。
The
通信システム3は、複数のBS(Base Station、基地局)5と、コアネットワーク8と、インターネット9とを有する。BS5は、コアネットワーク8に接続されている。また、コアネットワーク8は、インターネット9を介して測定装置4に接続されている。通信システム3は、例えば、第5世代移動通信システム(5G)から構成することができる。しかしながら、本開示による通信システムは、これに限定されるものでなく、4G、6Gなどの他のセルラ通信システム、WiFi(登録商標)、無線LAN(Local Area Network)などの無線通信システムや固定電話回線などであってもよい。
The
BS5は、自身の無線通信エリアに存在する端末装置2との間で無線通信し、端末装置2から送信された検知データを含むデータをコアネットワーク8に送信する。ここで、データは、例えば、被検者の年齢および性別などの情報を含んでもよい。
BS5 wirelessly communicates with
コアネットワーク8は、BS5およびインターネット9を介して端末装置2と測定装置4との間を接続するネットワーク回線である。コアネットワーク8は、例えば、通信システム3における通信機能を制御するプログラムを含み、BS5から送信されたデータを受信すると、そのプログラムに基づいてデータをインターネット9を介して測定装置4に送信してもよい。
The
測定装置4は、通信システム3を介して端末装置2から検知データを含むデータを取得し、その検知データに基づいて、被検者の反応性、例えば被検者の目の反応性を測定する。
しかしながら、本開示による測定システム1は、上述したシステム構成に限定されず、これ以外のシステム構成であってもよい。
The
However, the
図2に、端末装置2の構成を詳細に示す。
Figure 2 shows the detailed configuration of
端末装置2は、バスBを介して相互接続される記憶部10と、プロセッサ11と、ユーザインタフェース(UI)12と、通信部13とをハードウェア構成として有する。
なお、端末装置2は、例えば、スマートフォン、タブレット、パーソナルコンピュータ等の計算装置によって実現され得る。端末装置2における後述される各種機能及び処理を実現するプログラム又は指示は、ネットワークなどを介し何れかの外部装置からダウンロードされてもよいし、フラッシュメモリ等の着脱可能な記憶媒体から提供されてもよい。
The
The
記憶部10は、例えば、ランダムアクセスメモリ、フラッシュメモリ、ハードディスクドライブなどの1つ以上の非一時的な記憶媒体(non-transitory storage medium)によって実現され、インストールされたプログラム又は指示と共に、プログラム又は指示の実行に用いられるファイル、データ等を格納する。本実施例による記憶部10は、測定情報や基準信号などを記憶してもよい。
The
ここで、測定情報は、被検者に提供される測定、検査などに用いられる情報であり、被検者の反応を測定する測定空間に出力される。測定情報は、例えば、被検者に特定の部位を反応させるための情報であり、被検者の目が反応するように画像が変化する測定動画から構成してもよい。
また、基準信号は、測定情報に連動して測定空間に出力され、例えば、順次出力される測定情報の時間的な位置を示す信号であってもよい。例えば、基準信号は、強度(振幅)が順次変化するよう構成されてもよく、例えば時間をカウントするように一定の時間間隔(例えば数ミリ秒間隔)で強度が変化するように構成してもよい。また、基準信号は、周波数が順次変化するように構成されてもよい。また、基準信号は、ONとOFFを順次切り換えるように構成されてもよい。
一実施例では、基準信号は、所定周波数より高い高周波の音波信号から構成してもよい。具体的には、音波信号は、一般的な人では自覚することが困難な約14kHzの周波数帯を超える周波数の音、又は、非可聴周波数帯域の音などから構成することができる。
Here, the measurement information is information used in measurements, tests, etc. provided to the subject, and is output to a measurement space in which the reaction of the subject is measured. The measurement information is, for example, information for making the subject react to a specific region, and may be composed of a measurement video in which the image changes so that the subject's eyes react.
Further, the reference signal may be a signal that is output to the measurement space in conjunction with the measurement information, and indicates the temporal position of the measurement information that is sequentially output, for example. For example, the reference signal may be configured to vary in intensity (amplitude) sequentially, or may be configured to vary in intensity at regular time intervals (eg, every few milliseconds), e.g., to count time. good. Further, the reference signal may be configured such that the frequency changes sequentially. Further, the reference signal may be configured to sequentially switch between ON and OFF.
In one embodiment, the reference signal may consist of a high frequency sound wave signal that is higher than the predetermined frequency. Specifically, the sound wave signal can be composed of a sound with a frequency exceeding the approximately 14 kHz frequency band, which is difficult for the average person to perceive, or a sound with an inaudible frequency band.
ユーザインタフェース(UI)12は、キーボード、マウス、カメラ、マイクロフォン、ワイヤレスコントローラ等の入力装置、ディスプレイ、スピーカ、ヘッドセット、プリンタ等の出力装置、タッチパネル等の入出力装置から構成されてもよく、ユーザと端末装置2との間のインタフェースを実現する。例えば、ユーザは、ディスプレイ又はタッチパネルに表示されたGUI(Graphical User Interface)をキーボード、マウス等を用いて操作し、端末装置2を操作してもよい。
The user interface (UI) 12 may include input devices such as a keyboard, mouse, camera, microphone, and wireless controller, output devices such as a display, speaker, headset, and printer, and input/output devices such as a touch panel. and the
ここで、ディスプレイは、プロセッサ11の制御の下、測定空間に測定動画などの測定情報を表示する。
スピーカは、プロセッサ11の制御の下、測定空間に基準信号の音波信号を出力する。
Here, under the control of the
The speaker, under the control of the
カメラは、測定動画に対する被検者の反応を撮影することによって取得される撮影画像、例えば測定動画に対する被検者の連続的な反応信号を含む撮影動画を取得する。このように、カメラは、被検者の反応を検知する検知部としても機能する。カメラは、例えば被検者の目を含む範囲を撮影して、測定動画に対する被検者の目の反応、すなわち視点の移動を検知する。なお、撮影画像は、撮影動画に限られるものではなく、例えば、所定の時間間隔を空けて撮影された複数の画像を含んでもよい。
マイクロフォンは、スピーカから測定空間に基準信号として出力された音波信号を含む受信音を取得する。
The camera acquires a photographed image obtained by photographing the reaction of the subject to the measurement video, for example, a photographed video containing continuous reaction signals of the subject to the measurement video. In this way, the camera also functions as a detection unit that detects the reaction of the subject. For example, the camera photographs a range including the subject's eyes, and detects the reaction of the subject's eyes to the measurement video, that is, the movement of the viewpoint. Note that the captured image is not limited to a captured video, and may include, for example, a plurality of images captured at predetermined time intervals.
The microphone acquires received sound including the sound wave signal outputted from the speaker into the measurement space as a reference signal.
プロセッサ11は、1つ以上のプロセッサコアから構成されうる1つ以上のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、処理回路(processing circuitry)等によって実現されてもよい。プロセッサ11は、記憶部10に格納されたプログラム、指示、当該プログラム若しくは指示を実行するのに必要なパラメータなどのデータ等に従って、後述される端末装置2の各種機能及び処理を実行する。本実施例によるプロセッサ11は、出力制御部11aと、データ処理部11bとを実現する。
The
出力制御部11aは、記憶部10に記憶された測定動画および音波信号を出力するようにUI12のディスプレイおよびスピーカなどを制御する。このとき、出力制御部11aは、音波信号の出力に連動して測定空間に測定動画を出力するように制御する。すなわち、出力制御部11aは、測定動画の進行に合わせて音波信号の強度が順次変化するように、UI12に音波信号と測定動画を測定空間に出力させる。
The
なお、出力制御部11aは、記憶部10に記憶された測定動画および音波信号を出力するものに限られるものではない。例えば、出力制御部11aは、測定装置4から通信システム3を介して配信される測定動画および音波信号を出力してもよい。
The
データ処理部11bは、UI12のカメラで撮影された撮影動画と、UI12のマイクロフォンで取得された受信音が入力され、撮影動画と受信音とを順次対応付けて一時的に保存する。すなわち、データ処理部11bは、入力時間に基づいて、撮影動画と受信音を順次対応付けて動画ファイルとして保存してもよい。これにより、撮影動画に含まれる被検者の反応が、受信音に含まれる音波信号と共に保存されることになる。このようにして、測定動画に対する被検者の反応を音波信号に対応付けた検知データが得られる。
The
通信部13は、BS5との通信処理を実行する各種通信回路により実現され、データ処理部11bで得られた検知データをBS5に出力する。
The
なお、上述したハードウェア構成は単なる一例であり、本開示による端末装置2は、これ以外の適切なハードウェア構成により実現されてもよい。
Note that the above-described hardware configuration is merely an example, and the
図3に、測定装置4の構成を詳細に示す。
FIG. 3 shows the configuration of the measuring
測定装置4は、バスBを介して相互接続される通信部14と、プロセッサ15と、記憶部16と、ユーザインタフェース(UI)17とをハードウェア構成として有する。
The measuring
なお、測定装置4は、例えば、サーバ、スマートフォン、タブレット、パーソナルコンピュータ等の計算装置によって実現され得る。測定装置4における後述される各種機能及び処理を実現するプログラム又は指示は、ネットワークなどを介し何れかの外部装置からダウンロードされてもよいし、フラッシュメモリ等の着脱可能な記憶媒体から提供されてもよい。
The measuring
通信部14は、インターネット9との通信処理を実行する各種通信回路により実現され、通信システム3を介して複数の端末装置2から出力される検知データを受信する。
The
プロセッサ15は、1つ以上のプロセッサコアから構成されうる1つ以上のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、処理回路(processing circuitry)等によって実現されてもよい。プロセッサ15は、記憶部16に格納されたプログラム、指示、当該プログラム若しくは指示を実行するのに必要なパラメータなどのデータ等に従って、後述される測定装置4の各種機能及び処理を実行する。本実施例によるプロセッサ15は、取得部15aと、測定部15bとを実現する。
The
取得部15aは、通信部14で受信された検知データに基づいて、測定空間に出力された基準信号(例えば、音波信号)と、基準信号の出力に連動して測定空間に出力される測定情報(例えば、測定動画)に対する被検者の反応を示す反応信号とを取得する。
Based on the detection data received by the
例えば、取得部15aは、図4に示すように、被検者の目の反応を示す連続的な反応信号Sa1およびSa2を検知データの撮影動画から取得し、この反応信号Sa1およびSa2に対応付けられた音波信号Sbを検知データの受信音から取得する。ここで、反応信号Sa1およびSa2は、横軸に時間、縦軸に被検者Sの目の移動方向(Sa1は左右方向、Sa2は上下方向)を示している。また、音波信号Sbは、横軸に時間、縦軸に振幅を示している。なお、反応信号Sa1およびSa2と音波信号Sbの時間は、測定動画の再生時間(開始から終了までの時間)を示している。
For example, as shown in FIG. 4, the
測定部15bは、取得部15aで取得された反応信号と音波信号とに基づいて、被検者の反応性を測定する。例えば、認知症の診断では、目の反応性に基づいて認知症の兆候を発見できると言われている。このため、認知症の診断では、測定部15bは、音波信号Sbに基づいて、反応信号Sa1およびSa2を健常者や認知症患者などの反応信号から生成したモデルと比較することで被検者の目の反応性を測定してもよい。また、測定部15bは、反応信号Sa1およびSa2を上記のモデルと比較することで、特定の疾患を判定してもよい。
The
記憶部16は、プロセッサ15から得られる被検者の反応信号Sa1およびSa2および音波信号Sbと、被検者の目の反応性と、特定の疾患の判定結果を記憶する。記憶部16は、例えば、ランダムアクセスメモリ、フラッシュメモリ、ハードディスクドライブなどの1つ以上の非一時的な記憶媒体(non-transitory storage medium)によって実現され、インストールされたプログラム又は指示と共に、プログラム又は指示の実行に用いられるファイル、データ等を格納する。本実施例による記憶部16は、複数の被検者の反応信号を音波信号と対応付けて記憶する。
The
ユーザインタフェース(UI)17は、キーボード、マウス、カメラ、マイクロフォン等の入力装置、ディスプレイ、スピーカ、ヘッドセット、プリンタ等の出力装置、タッチパネル等の入出力装置から構成されてもよく、ユーザと測定装置4との間のインタフェースを実現する。
The user interface (UI) 17 may be composed of input devices such as a keyboard, mouse, camera, microphone, etc., output devices such as a display, speaker, headset, printer, etc., and input/output devices such as a touch panel, and provides an interface between the user and the
なお、上述したハードウェア構成は単なる一例であり、本開示による測定装置4は、これ以外の適切なハードウェア構成により実現されてもよい。
Note that the hardware configuration described above is merely an example, and the
次に、本実施の形態の動作について説明する。
図5に、本実施の形態の概要を示す。本実施の形態は、端末装置2が、基準信号と測定情報を連動して測定空間Rに出力し、その測定情報に対する被検者Sの反応を撮影した撮影動画を、基準信号を含む受信音と共に取得する。続いて、測定装置4が、測定情報に対する被検者Sの反応を示す反応信号を撮影動画から取得すると共に、基準信号を受信音から取得する。そして、測定装置4は、反応信号と基準信号に基づいて被検者Sの反応性を測定し、その測定結果を端末装置2に出力する。
Next, the operation of this embodiment will be described.
An overview of this embodiment is shown in Fig. 5. In this embodiment, the
続いて、図6に示すフローチャートを参照して本実施の形態の動作を詳細に説明する。
まず、図2に示す端末装置2の出力制御部11aが、記憶部10に記憶された測定動画(測定情報)および音波信号(基準信号)Sbを出力するようにUI12のディスプレイおよびスピーカを制御する。これにより、ステップS1で、ディスプレイに測定動画が表示され、その測定動画が表示される測定空間Rにスピーカから音波信号Sbが出力される。
Next, the operation of this embodiment will be described in detail with reference to the flow chart shown in FIG.
2 controls the display and speaker of the
このとき、プロセッサ11の出力制御部11aは、音波信号Sbと測定動画を連動させてディスプレイに表示させる。例えば、出力制御部11aは、音波信号Sbと測定動画を互いに連動するように対応付けて保存した保存データに基づいて、音波信号Sbと測定動画を出力してもよい。すなわち、保存データは、音波信号Sbと測定動画のいずれか一方が出力された場合に、他方も連動して出力されるように音波信号Sbと測定動画を対応付けて保存したものである。保存データとしては、例えば、音波信号Sbと測定動画を対応付けて保存した動画ファイルなど、音波信号Sbと測定動画を1つのファイルに内包したデータが挙げられる。なお、保存した動画ファイルとしては、例えば、MP4(Moving Picture Experts Group Audio Layer-4)、AVI(Audio Video Interleave)、MOV(QuickTime File Format)、WebMまたはFLV(Flash Video)などが挙げられる。
なお、出力制御部11aは、音波信号Sbと測定動画を別々に保存し、音波信号Sbの出力開始と同時に、測定動画の表示を開始させてもよい。また、出力制御部11aは、音波信号Sbを出力しつつ所定のタイミングで測定動画の表示を開始させてもよい。
At this time, the
Note that the
図7に示すように、被検者Sを測定する測定空間Rでは、UI12のスピーカ12aから音波信号Sbを出力しつつ、被検者Sがディスプレイ12bに表示される測定動画を視聴する。このとき、測定動画におけるシーンの変化に対して被検者Sの目が反応を示すことになる。
As shown in FIG. 7, in the measurement space R in which the subject S is measured, the subject S watches the measurement video displayed on the
ここで、測定動画の一例を説明する。
例えば、図8に示すように、測定動画Mが開始されると、前処理としてディスプレイ12bに対して被検者Sの視線を位置合わせする画面が表示される。この位置合わせ画面では、例えば、所定の位置に4つの基準点Pが順次表示され、その4つの基準点Pを順次視認させる被検者Sへの音声と文字による指示が音波信号Sbと共に出力されてもよい。これにより、被検者Sの視線がディスプレイ12bに対して位置合わせされ、被検者Sの視線の位置を正確に測定することができる。また同時に、測定動画Mに連動して音波信号Sbが測定空間Rで正常に再生されていることの確認もとれる。
Here, an example of a measurement video will be explained.
For example, as shown in FIG. 8, when the measurement video M is started, a screen for aligning the line of sight of the subject S with respect to the
続いて、図9Aに示すように、測定動画Mには、一部が目隠しMaで隠された迷路が表示される。そして、「迷路の出入り口を視線で繋いでください」との指示が、例えば音声で被検者Sに出力される。 Next, as shown in FIG. 9A, a maze is displayed in the measurement video M, part of which is hidden by a blindfold Ma. Then, an instruction to "follow the entrance and exit of the maze with your line of sight" is output to the subject S, for example, by voice.
測定動画Mは、目隠しMaのシーンで所定時間経過後、図9Bに示されるように、迷路全体が目隠しMbで隠されたシーンに切り替わる。そして、測定動画Mは、目隠しMbのシーンで所定時間経過後、図9Cに示されるように、目隠しMaとは別の部分を目隠しMcで隠された迷路のシーンに切り替わる。このとき、被検者Sがディスプレイ12bに断片的に表示される迷路を記憶していた場合、被検者Sの視線は迷路の入口と出口を繋ぐ経路に沿って移動することになる。
After a predetermined time elapses in the scene of the blindfold Ma, the measurement video M switches to a scene in which the entire maze is hidden by the blindfold Mb, as shown in FIG. 9B. Then, after a predetermined period of time has elapsed in the scene of the blindfold Mb, the measurement video M switches to a scene of a maze in which a portion other than the blindfold Ma is hidden by the blindfold Mc, as shown in FIG. 9C. At this time, if the subject S has memorized the maze displayed in fragments on the
このとき、図7に示す音波信号Sbは、所定周波数より高い高周波、例えば一般的な人では自覚することが困難な周波数帯域を超える周波数で構成されている。このため、被検者Sは、音波信号Sbに注意を奪われることなく、測定動画Mを視聴することができる。 At this time, the sound wave signal Sb shown in FIG. 7 is composed of a high frequency higher than a predetermined frequency, for example, a frequency exceeding a frequency band that is difficult for the average person to notice. Therefore, the subject S can watch the measurement video M without being distracted by the sound wave signal Sb.
このようにして、被検者Sによる測定動画Mの視聴中、UI12のカメラ12cが測定動画Mに対する被検者Sの目の反応を撮影し、UI12のマイクロフォン12dが測定空間Rに出力された音波信号Sbを集音する。
In this way, while the subject S is watching the measurement video M, the
従来、端末装置に動画を表示して、被検者Sの視線の移動に基づいて認知症などを診断する場合、端末装置の画面に測定中に動画が正しく表示されていることを確認するために、医師や助手が測定に立ち会う必要があった。また、従来、測定時に表示された動画と、被検者Sの視線の動きとの時間的な位置を正確に紐づける方法がなかった。 Conventionally, when displaying a video on a terminal device and diagnosing dementia etc. based on the movement of the subject S's line of sight, it is necessary to confirm that the video is displayed correctly on the screen of the terminal device during measurement. A doctor or assistant was required to be present during the measurement. Furthermore, conventionally, there has been no method for accurately linking the temporal position of the moving image displayed at the time of measurement and the movement of the subject's S line of sight.
そこで、本開示では、音波信号Sbが測定動画Mに連動して測定空間Rに出力され、その測定動画Mに対する被検者Sの目の反応がカメラ12cで撮影されると共に、測定空間Rに出力された音波信号Sbがマイクロフォン12dで受信される。これにより、被検者Sの目の反応を撮影した撮影動画と、測定空間Rに出力された音波信号Sbとが同期的に取得される。このため、例えば、複数の端末装置2から取得した撮影動画と音波信号Sbに基づいて、各被検者Sの目の反応と、その時に再生されていた測定動画Mの時間的な位置を正確に把握することができる。また、図8に示すように視線を位置合わせする際に、取得された撮影動画において被検者Sの視線が動かない場合や、音波信号Sbが存在しない場合は、端末装置から基準信号と測定情報が正しく出力されていないか、または、被検者Sが測定情報を目視できないことなどが原因として考えられるため、測定が無効であると判断することもできる。これにより医師や助手が測定時に立ち会わなくても正しく測定情報が出力されていることを担保できる。
Therefore, in the present disclosure, the sound wave signal Sb is output to the measurement space R in conjunction with the measurement video M, and the eye reaction of the subject S to the measurement video M is photographed by the
続いて、カメラ12cで撮影された撮影動画と、マイクロフォン12dで取得された受信音は、プロセッサ11のデータ処理部11bに入力される。データ処理部11bは、カメラ12cおよびマイクロフォン12dから入力される撮影動画と受信音とを順次対応付けて一時的に保存する。保存形式としては、例えば、撮影動画と受信音とを対応付けて1つの動画ファイルに内包するファイル形式が挙げられる。ここで、撮影動画は測定動画Mに対する被検者Sの目の反応を撮影したものであり、受信音は測定動画Mに連動する音波信号Saを含むものである。このため、撮影動画と受信音を同期的に取得することにより、音波信号Sbを介して被検者Sの目の反応(動き)を測定動画Mに対応付けることになる。
Then, the captured video captured by the
ここで、測定動画Mに対する被検者Sの目の反応を、音波信号Sbではなく、端末装置2に内蔵された時計の時刻に対応付けて記録した場合を考える。この場合、複数の異なる端末装置2において測定動画Mの再生ボタンを押してから測定動画Mの再生が始まるまでの開始時間に、端末装置2の処理速度や使用可能なキャッシュ容量などの要因により差が生じる場合がある。さらに、測定動画Mの再生中に一時的に再生がフリーズするおそれもある。その結果、被検者Sの目の反応と測定動画Mを異なる時刻に対応付けることになる。このとき、各端末装置2のログを調べたとしても、測定動画Mがディスプレイ12bに実際に表示された正確な時刻を判断することはできない。
Now consider a case where the eye response of the subject S to the measurement video M is recorded in association with the time of a clock built into the
そこで、本開示では、測定空間Rから取得された音波信号Sbを介して被検者Sの目の反応を測定動画Mに対応付ける。これにより、例えば端末装置2から測定動画Mの再生開始が遅れた場合でも音波信号Sbの進行も測定動画Mと共に遅れて進行するため、端末装置2のスペックとは関係なく、音波信号Sbを介して被検者Sの目の反応と測定動画Mを同じ時間的な位置に対応付け記録することができる。
Therefore, in the present disclosure, the eye reaction of the subject S is associated with the measurement video M via the sound wave signal Sb acquired from the measurement space R. As a result, even if, for example, the start of playback of the measurement video M from the
続いて、データ処理部11bは、例えば測定動画Mが終了した場合に、反応測定が終了したと判断する。その後、端末装置2は、撮影動画と受信音を含んだ検知データを通信システム3を介し測定装置4に出力する。
Then, the
例えば、図1に示すように、取得した検知データはまず、BS5に無線出力され、その後、BS5からコアネットワーク8およびインターネット9を介して測定装置4に出力される。例えば、通信システム3が5G通信システムなどから構成されている場合、検知データを端末装置2から測定装置4にストリーミング配信(出力)し、測定装置4に検知データを記録することができる。
For example, as shown in FIG. 1, the acquired detection data is first output wirelessly to the
図3に示す測定装置4に出力された検知データは、通信部14を介してプロセッサ15の取得部15aで受信される。そして、取得部15aが、ステップS2で、検知データから、被検者Sの目の動きを示す反応信号Sa1およびSa2と、音波信号Sbとを抽出する。
The detection data output to the
具体的には、取得部15aは、検知データに含まれる撮影動画から被検者の目の部位を検出して、撮影動画の進行に応じた目の動き(視線の移動)をトラッキングする。この被検者Sの目の動きは、測定動画Mに対する反応を示している。このため、取得部15aは、目の動きをトラッキングすることにより、測定動画Mに対する被検者Sの目の反応を示す連続的な反応信号Sa1およびSa2を取得することができる。また、取得部15aは、検知データに含まれる受信音から音波信号Sbを抽出する処理を行う。
このとき、取得部15aは、被検者の目の部位に加えて被検者の顔の向きを撮影画像から検出し、その顔の向きに基づいて、被検者の目の動きをトラッキングしてもよい。例えば、取得部15aは、被検者の顔の向きに基づいて、被検者の目の部位の検出範囲を限定し、その検出範囲において被検者の目の動きをトラッキングしてもよい。これにより、目の反応信号Sa1およびSa2をさらに正確に測定することができる。
Specifically, the
At this time, the
ここで、撮影動画と受信音は端末装置2において互いに対応付けられているため、取得部15aは、図4に示すように、取得または記録した検知データから音波信号Sbと反応信号Sa1およびSa2を互いに対応付けられた形でデータを抽出することができる。
Here, since the captured video and the received sound are associated with each other in the
また、取得部15aは、被検者ごとに、検知データ、または、検知データから抽出された音波信号Sbと反応信号Sa1およびSa2のデータを記憶部16に記録してもよい。
The
続いて、プロセッサ15の測定部15bは、ステップS3で、反応信号Sa1およびSa2と音波信号Sbに基づいて、被検者Sの目の反応性を測定する。
Next, in step S3, the
例えば、複数の被検者Sの反応信号Sa1およびSa2を取得した場合、その反応信号Sa1およびSa2は、被検者S間で同様に音波信号Sbと対応付けられた形で取得して記録される。すなわち、測定部15bは、音波信号Sbに基づいて同じ時間的な位置で、被検者Sの反応信号Sa1およびSa2を、他の被検者の反応信号と比較することにより、被検者Sの目の反応性を正確に測定することができる。
For example, when the response signals Sa1 and Sa2 of multiple subjects S are acquired, the response signals Sa1 and Sa2 are acquired and recorded in a manner that is similarly associated with the sound wave signal Sb between subjects S. That is, the
例えば、測定部15bは、音波信号Sbに基づいて、被検者Sの反応信号Sa1およびSa2を健常者や認知症患者などの反応信号と比較してもよい。一般的に、認知症などの疾患では、健常者と違い、例えば迷いによる反応の遅れなどの症状が目の反応性に現れる。そこで、測定部15bは、例えば、被検者Sの反応信号Sa1およびSa2と健常者や認知症患者などの反応信号とを比較することで、被検者Sの目の反応性が正常か否かを判定してもよい。
For example, the
また、測定部15bは、AI(Artificial Intelligence)を用いて被検者Sの目の反応性を測定してもよい。例えば、図10に示すように、測定部15bは、複数の被検者の反応信号Sa1およびSa2を健常者および認知症患者に分類した反応信号の症例データに基づいて、両者の特徴を学習させた訓練済み機械学習モデルMDを生成する。このとき、訓練済み機械学習モデルMDは、各症例データにアルツハイマー型認知症およびレビー小体型認知症などの分類や進行度合いのラベルを付与して学習させてもよい。そして、測定部15bは、特定の被検者Sで検知した音波信号Sbと反応信号Sa1およびSa2を訓練済み機械学習モデルMaに入力することで、被検者Sの目の反応性から認知症の兆候を判定してもよい。なお、測定部15bは、被検者Sの目の反応性について段階的に評価してもよい。
The
このように、測定部15bは、測定空間Rに出力される音波信号Sbと、音波信号Sbの出力に連動して測定空間Rに出力される測定動画Mに対する被検者Sの反応を示す反応信号Sa1およびSa2とに基づいて、被検者Sの反応性を測定する。この反応信号Saは、測定空間Rから測定動画Mと同期的に取得された音波信号Sbを介して、測定動画Mの時間的な位置と正確に対応付けられている。このため、測定動画Mの表示内容に対する被検者Sの目の反応性を正確に測定することができる。
In this way, the
また、測定部15bは、異なる測定空間Rで且つ異なる時刻に取得された反応信号Sa1およびSa2を、音波信号Sbに基づいて対応付けて被検者の反応性を測定する。これにより、測定部15bは、被検者の反応性を容易に測定することができる。
The
また、測定部15bは、測定動画Mに対する被検者Sの反応を示す連続的な反応信号Saに基づいて、被検者Sの目の反応性を測定する。一方、静止画に対する被検者の反応を測定した場合には、無変化のシーンに対する被検者Sの反応性を反応信号の分布に基づいて測定するので、同じ時間内で取得できる情報量に大きな違いがある。このように、測定部15bは、反応信号Saの時系列的な変化を測定動画Mと連動させて多くの情報を取得することで、被検者Sの目の反応性をより正確に測定することができる。
The
また、音波信号Sbは、例えば、数ミリ秒間隔で振幅または周波数が変化するように構成されてもよい。これにより、測定動画Mの時間的な位置と被検者Sの反応信号Sa1およびSa2をより細かく対応付けることができるため、被検者Sの視線の移動もより細かく追跡することができる。このため、被検者Sの目の反応性をより正確に測定することができる。 The sound wave signal Sb may also be configured to change in amplitude or frequency at intervals of several milliseconds, for example. This allows the time position of the measurement video M to be more precisely associated with the response signals Sa1 and Sa2 of the subject S, and therefore the movement of the subject S's line of sight can also be more precisely tracked. This allows the reactivity of the subject S's eyes to be measured more accurately.
また、測定部15bは、音波信号Sbに基づいて、被検者Sの反応信号Sa1およびSa2を他の被検者の反応信号と比較する。このとき、複数の被検者Sの反応信号を同じ時間的な位置に対応付けて比較できるため、被検者Sの目の反応性をより正確に測定することができる。
The
なお、測定部15bは、測定動画Mのシーンが切り替わったときの反応信号Sa1およびSa2に基づいて被検者Sの目の反応性を測定してもよい。例えば、測定部15bは、図9Bに示した迷路の全体が目隠しされた場面から、図9Cに示した迷路の一部が目隠しされた場面に切り替わったときの反応信号Sa1およびSa2に基づいて、被検者Sの目の反応性を測定してもよい。
被検者Sの視線は画面の切り替わりと自身の記憶に応じて移動するため、そのときの反応信号Saに基づいて被検者Sの目の反応性をより正確に測定することができる。
Note that the
Since the subject S's line of sight moves according to the switching of the screen and his/her own memory, the eye reactivity of the subject S can be measured more accurately based on the reaction signal Sa at that time.
このようにして、測定部15bは、被検者Sの目の反応性を測定すると、その測定された反応性に基づいて、被検者Sの認知機能の状態などを判定する。そして、測定部15bは、ステップS4で、反応性の測定結果や疾患の可能性などの測定結果を通信部14を介して被検者Sの端末装置2に出力する。
In this way, the
このような測定を定期的に実施することで、記録された被検者Sの過去と現在の反応信号Sa1およびSa2を、音波信号Sbに基づいて比較することにより、認知機能の低下を科学的に記録して評価することが可能になる。さらに、被検者Sが認知症を発症した場合、被検者Sの記録されたデータを同じ方法で測定した他の健常者のデータと正確に比較することも可能になる。 By regularly performing such measurements, we can scientifically evaluate the decline in cognitive function by comparing the recorded past and present reaction signals Sa1 and Sa2 of the subject S based on the sound wave signal Sb. can be recorded and evaluated. Furthermore, if the subject S develops dementia, it becomes possible to accurately compare the recorded data of the subject S with data of other healthy subjects measured using the same method.
(実施の形態2)
以下、本開示の実施の形態2について説明する。ここでは、上記の実施の形態1との相違点を中心に説明し、上記の実施の形態1との共通点については、共通の参照符号を使用して、その詳細な説明を省略する。
(Embodiment 2)
Hereinafter, a second embodiment of the present disclosure will be described. Here, the differences from the first embodiment will be mainly described, and common reference numerals will be used to denote common features with the first embodiment, and detailed descriptions thereof will be omitted.
上記の実施の形態1では、測定部15bは、被検者Sの目の反応性を測定したが、被検者Sの反応性を測定することができればよく、これに限られるものではない。
例えば、測定部15bは、被検者Sの手の反応性を測定してもよい。また、測定部15bは、手の反応性に基づいてパーキンソン病などの疾患を判定してもよい。
In the above-mentioned first embodiment, the
For example, the
図11に、本実施の形態の概要を示す。本実施の形態は、端末装置2が、基準信号と測定情報を連動して測定空間Rに出力し、その測定情報に対する被検者Sの手の反応を示す反応信号を、基準信号を含む受信音と共に取得する。続いて、測定装置4が、受信音に含まれる手の反応信号と基準信号とを抽出する。そして、測定装置4は、手の反応信号と基準信号に基づいて被検者Sの手の反応性を測定し、その測定結果を端末装置2に出力する。
FIG. 11 shows an overview of this embodiment. In this embodiment, the
例えば、図12に示すように、端末装置2のUI12は、検出部21を含んでもよい。この検出部21は、把持部22と、5つの検出ボタン23と、スピーカ24とを有する。
For example, as shown in FIG. 12, the
把持部22は、被検者Sが手で把持する部分であり、棒状に延びるように形成されている。
検出ボタン23は、被検者Sが指で押下するためのもので、指の位置に対応して配置されている。5つの検出ボタン23は、それぞれ、被検者Sにより指で押下されたとき、反応音を測定空間Rに出力するようにスピーカ24を制御する。この反応音は、例えば、検出ボタン23ごとに異なる周波数帯の音が出力されるように構成されてもよい。また、検出ボタン23の反応音は、音波信号Sbと異なる周波数帯の反応信号Scとして測定空間Rに出力されてもよい。
The
The
さらに、検出部21には、図示しない平行センサや振動センサなどが内蔵されている。平行センサは、手の平行度や傾きを検出するセンサである。また、振動センサは、手の震えを検出するセンサである。平行センサおよび振動センサで検出された検出信号は、電気信号ケーブルを経由してプロセッサ11のデータ処理部11bに出力される。なお、検出部21は、端末装置2と電気信号ケーブルにより物理的に接続されてもよいし、無線通信により接続されてもよい。
The
次に、本実施の形態の動作について説明する。 Next, we will explain the operation of this embodiment.
まず、実施の形態1と同様に、出力制御部11aの制御の下、UI12のスピーカ12aから測定空間Rに音波信号Sbが出力され、この音波信号Sbの出力に連動して測定動画がディスプレイ12bに表示される。
First, as in the first embodiment, under the control of the
ここで、測定動画の一例を説明する。
例えば、図13に示すように、測定動画M1には、四角形状の複数の変化部M1aが表示される。また、「変化部M1aに赤色が表示されたら検出ボタン23を押してください」との指示が、例えば音声と文字で被検者Sに出力される。そして、複数の変化部M1aが、不定期に順次赤色に変化することにより、被検者Sの手の反応を誘導する。なお、測定は、左右同時でなく、左手と右手に分けて測定するよう、測定動画M1と指示を構成してもよい。
Here, an example of the measurement video will be described.
For example, as shown in Fig. 13, a plurality of rectangular change parts M1a are displayed in the measurement video M1. An instruction such as "When the change parts M1a are displayed in red, press the
図12に示すように、被検者Sは、検出部21の把持部22を把持しており、変化部M1aの表示の変化に応じて検出ボタン23を指で押下する。すると、検出ボタン23の押下に応じてスピーカ24より反応信号Scを出力する。また、検出部21に内蔵された振動センサなどが、被検者Sの手の震えなどを常時検出し、その検出信号をデータ処理部11bに出力する。なお、反応信号Scは、例えば、音波信号Sbより低い周波数、例えば人の可聴領域に含まれる周波数の音波信号から構成されてもよい。
そして、マイクロフォン12dが、実施の形態1と同様に、測定空間Rに出力された音波信号Sbと反応信号Scを含む受信音を受信し、その受信音をデータ処理部11bに出力する。
12, the subject S holds the gripping
Then, similarly to the first embodiment, the
データ処理部11bは、検出部21で検出された検出信号と、マイクロフォン12dから入力された受信音とを対応付けて検知データを生成する。なお、この測定実施前に、例えば、図8に示すような4つの基準点Pを順次赤色に点滅させ、被検者Sが検出ボタン23を押すように誘導して、検出部21の検出信号と反応信号Scの出力に誤差がないか、確認してから測定を実施してもよい。このように、検出信号と受信音を対応付けることにより、音波信号Sbを介して、被検者Sの手の反応信号Scおよび検出信号を測定動画M1に対応付けることができる。
そして、検知データはデータ処理部11bを経由して、通信部13から通信システム3を介して測定装置4に出力される。そして、検知データは、通信部14を介してプロセッサ15の取得部15aに入力される。
The
The detection data is then output via the
取得部15aは、検知データに含まれる受信音から音波信号Sbと反応信号Scを抽出する。これにより、図14に示すように、被検者Sの手の反応信号Scを音波信号Sbに対応付けたデータが取得される。ここでは、1本の指の反応信号Scのみを示している。そして、測定部15bが、取得部15aで取得された反応信号Scと音波信号Sbに基づいて、被検者Sの手の反応性を測定する。例えば、測定部15bは、音波信号Sbに基づいて、被検者Sの反応信号Scを、他の被検者の反応信号と比較することにより、被検者Sの手の反応性を測定する。
The
このとき、測定部15bは、測定空間Rに出力される音波信号Sbと、音波信号Sbの出力に連動して測定空間Rに出力される測定動画Mに対する被検者Sの反応を示す反応信号Scとに基づいて、被検者Sの反応性を測定する。この反応信号Scは、測定空間Rから測定動画M1と同期的に取得された音波信号Sbを介して、測定動画M1の時間的な位置と正確に対応付けられている。このため、他の被検者の反応信号と比較することにより、被検者Sの手の反応性をより正確に測定することができる。
At this time, the
また、測定部15bは、被検者Sの手の反応性に基づいて、パーキンソン病などの疾患を判定してもよい。一般的に、パーキンソン病などの疾患では、健常者と比較して、例えば手の開閉の反応の遅れなどの症状が現れる。そこで、測定部15bは、被検者Sの手の反応性に基づいて、パーキンソン病などの疾患の可能性を判定してもよい。
The
また、一般的に、パーキンソン病などの疾患では、震えや筋固縮などの症状が現れる。そこで、測定部15bは、手の反応性に加えて、検出部21に内蔵された振動センサなどから得られる検出信号に基づいて被検者Sの手の震えを測定することにより、パーキンソン病などの疾患の可能性を判定してもよい。
Additionally, diseases such as Parkinson's disease generally cause symptoms such as tremors and muscle rigidity. Therefore, the measuring
なお、図15に示すように、端末装置2は、測定情報に対する被検者Sの手の反応を示す反応信号と、目の反応を撮影した撮影動画と、検出部21で検出された検出信号とを基準信号を含む受信音と共に取得してもよい。これにより、測定装置4は、基準信号と、手の反応信号と、目の反応信号と、検出信号とを取得する。そして、測定装置4は、手および目の反応信号と基準信号と検出信号に基づいて被検者Sの反応性を測定する。
このとき、取得部15aは、図16に示すように、被検者Sの目の反応信号Sa1およびSa2と手の反応信号Scとを音波信号Sbに対応付けたデータが取得される。例えば、測定部15bは、音波信号Sbに基づいて同じ時間的な位置で、被検者Sの反応信号Sa1およびSa2と反応信号Scを、他の被検者の目の反応信号および手の反応信号とそれぞれ比較することにより、被検者Sの目と手の反応性を測定してもよい。また、測定部15bは、目と手の反応性および手の振動に基づいて、パーキンソン病などの被検者Sの特定の疾患や疾患の進行度合いを判定してもよい。
As shown in FIG. 15, the
At this time, the
なお、前述では、検出部21を使用して被検者Sの反応性を測定したが、端末装置2のディスプレイ12bに検出部21を一体的に配置(例えばタッチパネルなど)し、ディスプレイ12bを手で触れることで、検出部21を使用せずに、被検者Sの反応性を直接測定してもよい。例えば、端末装置2は、測定動画M1の変化部M1aが赤色で表示された時に、その赤色で表示された箇所を指で触れるように被検者Sに指示する。これにより、端末装置2は、被検者Sの手の反応信号Scをディスプレイ12bから取得してもよい。また、端末装置2は、この測定中に、端末装置2に設けられた平行センサおよび振動センサから検出信号を取得してもよい。そして、データ処理部11bは、端末装置2で検出された検出信号および反応信号Scと、カメラ12cで撮影された撮影動画と、マイクロフォン12dから入力された受信音とを対応付けて検知データを生成してもよい。
Note that in the above, the reactivity of the subject S was measured using the
本実施の形態によれば、測定部15bは、測定空間Rに出力された音波信号Sbと、音波信号Sbの出力に連動して測定空間Rに出力された測定動画M1に対する被検者Sの手の反応を示す反応信号Scとに基づいて、被検者Sの手の反応性を測定する。この反応信号Scは、測定空間Rから測定動画M1と同期的に取得された音波信号Sbを介して、測定動画M1と高精度に対応付けられるため、被検者Sの手の反応性を正確に測定することができる。
According to the present embodiment, the
(実施の形態3)
以下、本開示の実施の形態3について説明する。ここでは、上記の実施の形態1および2との相違点を中心に説明し、上記の実施の形態1および2との共通点については、共通の参照符号を使用して、その詳細な説明を省略する。
(Embodiment 3)
上記の実施の形態1および2では、測定部15bは、認知症などの被検者Sの特定の疾患を判定したが、被検者Sの反応性に基づいて判定することができればよく、これに限られるものではない。
In the above-mentioned first and second embodiments, the
例えば、測定部15bは、被検者Sの反応性に基づいて、反射神経の向上を判定してもよい。例えば、野球選手は、打席でボールを打つときに反射神経(例えば、体の反射神経、動体視力など)が重要と考えられている。しかしながら、反射神経を向上させる様々な方法(例えば質の良い睡眠の摂取、トレーニング方法など)が提案されているが、選手のコンディションは日々変化しており、その効果と変化を試合中などに短時間で正確に測定して評価することは困難であった。
For example, the
そこで、反射神経を向上させる方法を試す前と後、例えば薬品の摂取前と摂取後で、実施の形態1および2と同様に、端末装置2が選手の目と手の反応を検知する。続いて、測定装置4の取得部15aが、例えば図16に示すように、音波信号Sbに対応付けられた選手の反応信号Sa1,Sa2およびScを取得して記録する。そして、測定部15bが、音波信号Sbに基づいて、記録された反応信号Sa1,Sa2およびScを比較することにより、トレーニングの実施前と実施後の反射神経の向上を判定する。この判定結果により、その選手に対するトレーニングの効果を評価することができる。
Therefore, as in the first and second embodiments, the
なお、本実施形態では、測定部15bは、反射神経を向上させる方法を試す前と後の反応信号に基づいて反射神経の向上を判定したが、これに限られるものではない。例えば、測定部15bは、音波信号Sbに基づいて、複数の野球選手の反応信号Sa1,Sa2およびScを比較することにより、チーム内の各選手の反射神経の状態を判定してもよい。この判定結果から試合や代打に起用する選手を見分けることができる。
Note that in the present embodiment, the
本実施の形態によれば、測定部15bは、被検者S(選手)の反応性に基づいて被検者Sの反射神経の状態を正確に数値で示すことができる。
According to this embodiment, the
(実施の形態4)
以下、本開示の実施の形態4について説明する。ここでは、上記の実施の形態1~3との相違点を中心に説明し、上記の実施の形態1~3との共通点については、共通の参照符号を使用して、その詳細な説明を省略する。
(Embodiment 4)
Hereinafter, a fourth embodiment of the present disclosure will be described. Here, the differences from the first to third embodiments will be mainly described, and common reference numerals will be used for common points with the first to third embodiments, and detailed descriptions thereof will be omitted.
測定部15bは、被検者Sの反応性に基づいて、被検者Sの運転適性を判定してもよい。例えば、車の運転手は、運転環境に対する目の反応、ブレーキなどを操作する足の反応、ハンドルなどを操作する手の反応、外部の音などに対する聴覚の反応などが重要と考えられる。
The
そこで、図17に示すように、端末装置2は、測定情報に対する被検者Sの足の反応信号と、手の反応信号と、耳(聴覚)の反応信号と、目の反応を撮影した撮影動画とを、基準信号を含む受信音と共に取得する。これにより、測定装置4は、基準信号と、目の反応信号と、足の反応信号と、手の反応信号と、耳の反応信号とを取得する。そして、測定装置4は、目、足、手および耳の反応信号と基準信号に基づいて被検者Sの運転適性を測定する。
Therefore, as shown in FIG. 17, the
具体的には、端末装置2は、実施の形態1と同様に、測定動画に対する運転手(被検者S)の目の反応を撮影した撮影動画を取得してもよい。ここで、端末装置2は、例えば、運転シミュレータを用いてもよい。また、測定動画は、例えば、運転シミュレータの操作に応じて変化する動画をディスプレイ12bに表示してもよい。続いて、測定装置4の取得部15aが、撮影動画と受信音から運転手の目の反応信号Saと音波信号Sbとを取得する。そして、測定部15bが、音波信号Sbに基づいて、運転手の目の反応信号Saを、他の運転手(例えば運転能力を有する運転手と運転能力を欠いた運転手)の目の反応信号と比較することにより、測定動画に対する運転手の目の反応性を判定する。測定部15bは、この判定結果に基づいて、運転中の視線を評価することができる。
Specifically, as in the first embodiment, the
また、端末装置2は、測定動画に対する運転手の足の反応信号を取得してもよい。例えば、検出部21を運転シミュレータのフットブレーキに配置し、ブレーキ操作に応じた足の反応信号(反応音)が検出ボタン23(例えばブレーキ)の押下に応じてスピーカ24より出力されてもよい。また、検出部21を運転シミュレータのアクセルに配置し、アクセル操作に応じた足の反応信号(反応音)が検出ボタン23(例えばアクセル)の押下に応じてスピーカ24より出力されてもよい。これにより、測定装置4の取得部15aが、足の反応信号と音波信号Sbとを取得する。そして、測定部15bが、音波信号Sbに基づいて、運転手の足の反応信号を、他の運転手の足の反応信号と比較することにより、測定動画に対する運転手の足の反応性を判定してもよい。これにより、測定部15bは、ブレーキ操作の反応時間またはアクセル操作の反応時間を評価することができる。
Furthermore, the
また、端末装置2は、実施の形態2と同様に測定動画に対する運転手の手の反応信号Scを取得してもよい。例えば、検出部21を運転シミュレータのハンドルに配置し、ハンドル操作に応じた手の反応信号が検出部21の平行センサなどから電気信号ケーブルを経由してデータ処理部11bに出力されてもよい。これにより、測定装置4の取得部15aが、手の反応信号Scと音波信号Sbとを取得する。そして、測定部15bが、音波信号Sbに基づいて、運転手の手の反応信号Scを、他の運転手の反応信号と比較することにより、測定動画に対する運転手の手の反応性を判定してもよい。なお、ブレーキ、アクセルなどの各反応音は、音波信号Sbと異なる周波数帯の反応信号として測定空間Rに出力されてもよい。これにより、測定部15bは、運転時における被検者Sの複数の反応性を正確に測定して評価することができる。
Further, the
また、端末装置2は、被検者Sの可聴領域内の測定音を測定情報として測定空間Rに出力し、この測定音に対する運転手の聴覚を測定してもよい。ここで、測定音は、例えば、クラクション音などを用いてもよい。運転手は、測定音が聞こえたとき、測定音が鳴った方向を確認することが必要であることから、このときの運転手の目の反応信号Saを耳の反応信号として撮影動画から取得する。そして、測定部15bが、音波信号Sbに基づいて、運転手の目の反応信号を測定することにより、測定動画の測定音に対する運転手の聴覚の反応性を判定してもよい。これにより、測定部15bは、運転に必要な聴力を有しているのか評価することができる。
The
このように、測定部15bは、運転手の反応性に基づいて、運転手の運転能力を正確に判定することができる。例えば、高齢者の運転免許の更新などにおいて運転能力を判定することで、運転免許の更新を適切に行うことができる。
In this way, the
本実施の形態によれば、測定部15bは、運転手の反応性に基づいて運転手の運転能力を正確に判定することができる。
According to this embodiment, the
(実施の形態5)
以下、本開示の実施の形態6について説明する。ここでは、上記の実施の形態1~4との相違点を中心に説明し、上記の実施の形態1~4との共通点については、共通の参照符号を使用して、その詳細な説明を省略する。
(Embodiment 5)
Hereinafter, a sixth embodiment of the present disclosure will be described. Here, the differences from the first to fourth embodiments will be mainly described, and common reference numerals will be used for common points with the first to fourth embodiments, and detailed descriptions thereof will be omitted.
上記の実施の形態1~4では、機械学習モデルを利用して、音波信号Sbと反応信号から被検者Sの反応を測定したが、このような機械学習モデルは、以下のように生成することが可能である。 In the above first to fourth embodiments, a machine learning model was used to measure the response of the subject S from the sound wave signal Sb and the response signal, but such a machine learning model can be generated as follows.
例えば、図18に示すモデル生成装置61によって機械学習モデルを生成してもよい。モデル生成装置61は、バスBを介して相互接続される通信部14と、プロセッサ62と、記憶部16と、ユーザインタフェース(UI)17とをハードウェア構成として有する。なお、通信部14、記憶部16およびUI17は、測定装置4と同様の構成であるため説明を省略する。
For example, a machine learning model may be generated by a
プロセッサ62は、1つ以上のプロセッサコアから構成されうる1つ以上のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、処理回路(processing circuitry)等によって実現されてもよい。プロセッサ62は、記憶部16に格納されたプログラム、指示、当該プログラム若しくは指示を実行するのに必要なパラメータなどのデータ等に従って、後述されるモデル生成装置61の各種機能及び処理を実行する。本実施例によるプロセッサ62は、取得部62aと、訓練部62bとを実現する。
The
取得部62aは、機械学習モデルを訓練するための訓練データを取得する。この訓練データは、測定空間Rに出力された基準信号(例えば、音波信号Sb)と、基準信号の出力に連動して測定空間Rに出力される測定情報(例えば、測定動画)に対する複数の被検者Sの反応を示す反応信号と、複数の被検者の状態を専門家が「正常」か「異常」かなどと判定した判定結果とが含まれる。
The
ここで、専門家は、認知症などの疾患を判定する場合には、医師などが該当する。例えば、医師は、被検者に認知症の傾向があると判定した場合には、脳のMRI(Magnetic Resonance Imaging)検査または脳のCT(Computed Tomography)検査などの検査を行い、各被検者が認知症か否かを判定してもよい。 Here, when determining a disease such as dementia, the expert is a doctor or the like. For example, if a doctor determines that a subject has a tendency toward dementia, a doctor may perform a brain MRI (Magnetic Resonance Imaging) test or a brain CT (Computed Tomography) test, etc., and examine each subject. It may also be determined whether the person has dementia or not.
訓練部62bは、取得部62aで取得された基準信号に基づいて複数の被検者Sの反応信号を、例えば時間的な位置を合わせるように対応付ける。そして、訓練部62bは、対応付けられた反応信号と判定結果とを組み合わせたデータセットに基づいて、機械学習モデルを機械学習することで、訓練済み機械学習モデルを生成する。
The
次に、本実施の形態の動作について、図19に示すフローチャートを参照して説明する。 Next, the operation of this embodiment will be described with reference to the flowchart shown in FIG.
まず、実施の形態1と同様に、ステップS1で、端末装置2が、測定動画Mを表示し、この測定動画Mの表示に連動して音波信号Sbを測定空間Rに出力する。端末装置2は、被検者Sの目の反応を撮影した撮影動画と音波信号Sbとを同期的に取得すると、これらを対応付けた検知データを生成する。
First, as in the first embodiment, in step S1, the
このようにして、生成された複数の被検者Sの検知データは、モデル生成装置61の取得部62aに、通信部14またはUI17を介してそれぞれ入力される。取得部62aは、ステップS21で、検知データから、被検者Sの目の動きを示す反応信号Saと、音波信号Sbとを抽出して訓練データを取得する。このとき、取得部62aには、例えば、医師により診断された被検者Sに対する「正常」か「異常」かの判定結果が訓練データとして入力される。さらに、判定結果は、認知症の種類、進行度合などの他の情報を含んでいてもよい。
In this way, the generated detection data of the plurality of subjects S are input to the
続いて、訓練部62bが、音波信号Sbに基づいて、複数の反応信号Saを同じ時間的な位置に対応付ける。そして、訓練部62bは、ステップS22で、対応付けられた反応信号Saと、各被検者Sの判定結果とを組み合わせたデータセットに基づいて、機械学習モデルを生成する。
このとき、複数の被検者Sの反応信号Saは、測定空間Rから測定動画Mと同期的に取得された音波信号Sbに基づいて高精度に比較することができる。すなわち、複数の被検者Sの反応信号Sは、音波信号Sbに基づいて、測定動画Mに対する時間的な位置が全て一致するため、非常に高い精度で比較して特徴を抽出することができる。このため、訓練部62bは、正確な判定結果(正常又は異常など)を出力する機械学習モデルを生成することができる。
Next, the
At this time, the reaction signals Sa of the multiple subjects S can be compared with high accuracy based on the sound wave signal Sb acquired synchronously with the measurement video M from the measurement space R. That is, the reaction signals S of the multiple subjects S can be compared with very high accuracy and features can be extracted because the time positions of the reaction signals S of the multiple subjects S are all consistent with respect to the measurement video M based on the sound wave signal Sb. Therefore, the
なお、モデル生成装置61は、測定装置4に内蔵されてもよい。これにより、モデル生成装置61は、端末装置2から測定装置4に送信される反応信号Saと音波信号Sbに基づいて、機械学習モデルを生成することができる。また、モデル生成装置61と測定装置4が、端末装置2に内蔵されてもよい。これにより、モデル生成装置61は、端末装置2で取得される反応信号Saと音波信号Sbに基づいて、機械学習モデルを生成することができる。
Note that the
本実施の形態によれば、訓練部62bは、測定空間Rに出力された音波信号Sbと、音波信号Sbの出力に連動して測定空間Rに出力された測定動画Mに対する被検者Sの反応を示す反応信号Saと、専門家による被検者Sに対する「正常」か「異常」かの判定結果とを入力とし、機械学習モデルを訓練する。このとき、反応信号Saは、測定空間Rから測定動画Mと同期的に取得された音波信号Sbに基づいて複数の訓練データを高精度に比較することができるため、正確な判定結果を出力する機械学習モデルを生成することができる。
According to the present embodiment, the
なお、上記の実施の形態1~5では、基準信号は、音波信号Sbから構成されたが、測定空間Rに出力される信号であればよく、これに限られるものではない。例えば、基準信号は、カメラ12cで撮影可能なディスプレイ12bに表示される光信号から構成してもよい。例えば、図20に示すように、実施の形態1のディスプレイ12bにミラー12eを配置し、測定動画Mと共に表示された光信号Sdをミラー12eでカメラ12cに投影してもよい。
In the first to fifth embodiments described above, the reference signal is composed of the sound wave signal Sb, but it may be any signal that is output to the measurement space R, and is not limited to this. For example, the reference signal may be composed of an optical signal displayed on the
具体的には、光信号Sdは、測定動画Mの一部が特定のパターンで点滅するように構成してもよい。光信号Sdの点滅パターンは、測定動画Mの時間的な位置を示すように構成されており、測定動画Mに連動して測定空間Rに出力される。そして、光信号Sdは、ミラー12eで投影されることにより、被検者Sの反応と共にカメラ12cで撮影される。すなわち、光信号Sdは、被検者Sの反応を撮影するカメラ12cの撮影範囲にミラー12eで投影されることになる。なお、光信号Sdは、測定動画Mの全体を点滅させる必要はなく、測定動画Mの一部を点滅させればよい。これにより、データ処理部11bは、被検者Sの反応を撮影した撮影動画から基準信号(光信号Sd)を取得することができる。
Specifically, the light signal Sd may be configured so that a part of the measurement video M blinks in a specific pattern. The blinking pattern of the light signal Sd is configured to indicate a temporal position of the measurement video M, and is output to the measurement space R in conjunction with the measurement video M. The light signal Sd is then projected by the
また、端末装置2は、複数の基準信号、例えば音波信号Sbと光信号Sdを測定空間Rに出力してもよい。端末装置2は、測定空間Rから取得された検知データから光信号Sdと音波信号Sbの基準信号を抽出することにより、検知データの撮影動画と受信音を正確に対応付けることができる。例えば、撮影動画と受信音の時間的な位置がずれている場合、端末装置2は、音波信号Sbと光信号Sdに基づいて、撮影動画と受信音を位置合わせし、被検者Sの反応信号を測定動画Mにより正確に対応付けることができる。また、測定中に取得された光信号Sdと音波信号Sbの時間的な位置がずれていた場合、端末装置2はディスプレイ12bに警告文で表示して、測定を中止することもできる。
Further, the
また、上記の実施の形態1~5において、測定装置4は通信部14を介して、端末装置2に対して基準信号と測定動画Mを配信してもよい。例えば、測定装置4は、基準信号と測定動画Mをストリーミング配信、すなわち基準信号と測定動画Mを配信しつつ端末装置2は受信した測定情報を順次スピーカ12aとディスプレイ12bから出力されてもよい。
さらに、上記の実施の形態1~5において、端末装置2は通信部13を介して、測定装置4に対して、撮影動画と受信音を対応付けた検知データを配信してもよい。例えば、端末装置2は、検知データをストリーミング配信、すなわち撮影動画と受信音をカメラ12cとマイクロフォン12dから取得しつつ検知データを測定装置4に配信してもよい。
Furthermore, in the first to fifth embodiments described above, the
Furthermore, in the first to fifth embodiments described above, the
一般的に、測定情報または検知データをストリーミング配信する場合、ネット環境や機器処理速度などにより測定情報や検知データの配信及び再生が一時的に途切れたり停止したりするなどの現象が起きることがある。ここで、本開示では、測定情報に基準信号が連動して測定空間Rに出力される。これにより、測定情報または検知データの配信及び再生にて一時的な途切れや停止の不具合が生じた場合でも、基準信号に基づいて、測定情報または検知データにて問題が起きた時間的な位置を正確に把握することができる。 Generally, when streaming measurement information or detection data, phenomena such as the distribution and playback of measurement information or detection data may be temporarily interrupted or stopped depending on the internet environment, device processing speed, etc. . Here, in the present disclosure, the reference signal is output to the measurement space R in conjunction with the measurement information. As a result, even if there is a temporary interruption or stoppage in the distribution or playback of measurement information or detection data, the temporal position where the problem occurred in the measurement information or detection data can be determined based on the reference signal. can be accurately grasped.
また、上記の実施の形態1~5では、端末装置2と測定装置4は、通信システム3を介して接続されたが、反応信号と基準信号を測定装置4の取得部15aで取得できればよく、これに限られるものではない。例えば、端末装置2と測定装置4を直接的に接続してもよい。
In addition, in the above-mentioned
また、上記の実施の形態1~5では、測定装置4は、端末装置2とは別の装置として構成されたが、端末装置2に内蔵されてもよい。
例えば、端末装置2のプロセッサ11が、取得部15aおよび測定部15bを含むように構成することができる。この取得部15aと測定部15bとから本開示の測定装置4が構成される。
In addition, in the above first to fifth embodiments, the measuring
For example, the
例えば、実施の形態1と同様に、UI12から測定空間Rに音波信号Sbが出力され、この音波信号Sbの出力に連動して測定動画MがUI12から測定空間Rに出力される。続いて、UI12が、測定動画Mに対する被検者Sの反応を撮影すると共に、音波信号Sbを含む受信音を受信する。そして、データ処理部11bが、その撮影動画と受信音とを対応付けて検知データを生成し、その検知データを取得部15aに出力する。
取得部15aは、検知データを入力すると、被検者の反応を示す反応信号Sa1およびSa2を撮影動画から取得し、この反応信号Sa1およびSa2に対応付けられた音波信号Sbを受信音から取得する。そして、測定部15bが、反応信号Sa1およびSa2と音波信号Sbとに基づいて、被検者Sの反応性を測定する。
For example, as in the first embodiment, the sound wave signal Sb is output from the
When the detection data is input, the
また、上記の実施の形態1~5において、測定動画Mと音波信号Sbは、端末装置2から出力されたが、互いに連動して測定空間Rに出力されればよく、これに限られるものではない。例えば、測定動画Mと音波信号Sbは、放送局からテレビ放送用電波で送信されて、その電波を受信したテレビジョンにより測定空間Rに出力されてもよい。また、測定動画Mと音波信号Sbは、DVD(Digital Versatile Disc)などの記録媒体に保存して、端末装置2とは別に配置された出力装置から出力してもよい。そして、出力された測定動画に対する被検者Sの反応が、スマートフォンなどの端末装置2により取得され、通信システム3を介して測定装置4に送信される。
このように、反応信号は、音波信号Sbと測定動画Mを測定空間Rに出力した装置とは異なる装置で取得されてもよい。反応信号が異なる装置で取得された場合でも、音波信号Sbと測定動画Mが連動して測定空間Rに出力されているため、被検者Sの反応性を正確に測定することができる。
In the above-mentioned first to fifth embodiments, the measurement video M and the sound wave signal Sb are output from the
In this way, the reaction signal may be acquired by a device different from the device that outputs the sonic signal Sb and the measurement video M to the measurement space R. Even if the reaction signal is acquired by a different device, the sonic signal Sb and the measurement video M are output to the measurement space R in conjunction with each other, so that the reactivity of the subject S can be accurately measured.
また、上記の実施の形態1~5では、測定装置4は、通信システム3を介して端末装置2に接続されたが、測定装置4を通信システム3のコアネットワーク8内に配置してもよい。例えば、測定装置4は、コアネットワーク8内のクラウドサーバに配置してもよい。また、BS5とコアネットワーク8との間にエッジサーバを設けた場合には、測定装置4は、エッジサーバに配置してもよいし、測定装置4の一部機能をコアネットワーク8とエッジサーバに別けて配置してもよい。
Further, in the first to fifth embodiments described above, the measuring
以上、本開示に係る実施の形態について図面を参照して詳述してきたが、上述した各装置の機能は、コンピュータプログラムにより実現することができる。 The above describes the embodiments of the present disclosure in detail with reference to the drawings, but the functions of each of the above-mentioned devices can be realized by a computer program.
上述した各装置の機能をプログラムにより実現するコンピュータは、キーボードやマウス、タッチパッドなどの入力装置、ディスプレイやスピーカなどの出力装置、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク装置やSSD(Solid State Drive)などの記憶装置、DVD-ROM(Digital Versatile Disk Read Only Memory)やUSB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置、ネットワークを介して通信を行うネットワークカードなどを備え、各部はバスにより接続される。 A computer that realizes the functions of each device described above through programs includes input devices such as a keyboard, mouse, and touch pad, output devices such as a display and speakers, a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random). storage devices such as hard disk drives and SSDs (Solid State Drives), DVD-ROMs (Digital Versatile Disk Read Only Memory), and USB (Universal Serial Bus) memories. Reading devices and networks that read information from recording media Each part is connected by a bus, including a network card for communication.
そして、読取装置は、上記各装置の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置に記憶させる。あるいは、ネットワークカードが、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各装置の機能を実現するためのプログラムを記憶装置に記憶させる。 Then, the reading device reads a program for realizing the functions of each of the above devices from a recording medium in which the program is recorded, and stores the program in the storage device. Alternatively, the network card communicates with a server device connected to the network, and causes the storage device to store programs downloaded from the server device to implement the functions of each device.
そして、CPUが、記憶装置に記憶されたプログラムをRAMにコピーし、そのプログラムに含まれる命令をRAMから順次読み出して実行することにより、上記各装置の機能が実現される。 Then, the CPU copies the program stored in the storage device to the RAM, and sequentially reads out and executes the instructions included in the program from the RAM, thereby realizing the functions of each of the devices described above.
以上、本開示の具体例を詳細に説明したが、これらは例示にすぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。 Although specific examples of the present disclosure have been described in detail above, these are merely examples and do not limit the scope of the claims. The technology described in the claims includes various modifications and changes to the specific examples illustrated above.
本開示に係る測定装置、プログラムおよびモデル生成装置は、被検者の反応を示す反応信号を利用する装置およびプログラムに利用できる。 The measurement device, program, and model generation device disclosed herein can be used in devices and programs that utilize reaction signals that indicate the subject's reaction.
2 端末装置
3 通信システム
4 測定装置
5 BS
7 メインサーバ
8 コアネットワーク
9 インターネット
10 記憶部
11,62 プロセッサ
11a 出力制御部
11b データ処理部
12 UI
12a スピーカ
12b ディスプレイ
12c カメラ
12d マイクロフォン
12e ミラー
13 通信部
14 通信部
15 プロセッサ
15a,62a 取得部
15b 測定部
16 記憶部
17 UI
21 検出部
22 把持部
23 検出ボタン
61 モデル生成装置
62b 訓練部
M,M1 測定動画
M1a 変化部
Ma~Mc 目隠し
MD 機械学習モデル
P 基準点
R 測定空間
S 被検者
Sa,Sa1,Sa2 目の反応信号
Sb 音波信号
Sc 手の反応信号
Sd 光信号
2
7
21
Claims (18)
前記基準信号と前記反応信号に基づいて、前記被検者の反応性を測定する測定部と、
を有する測定装置。 an acquisition unit that acquires a reference signal output to the measurement space and a reaction signal indicating a reaction of the subject to the measurement information output to the measurement space in conjunction with the output of the reference signal;
a measurement unit that measures the reactivity of the subject based on the reference signal and the reaction signal;
A measuring device with
前記測定部は、前記反応信号と前記基準信号とに基づいて、前記被検者の目の反応性を測定する請求項1に記載の測定装置。 The acquisition unit acquires a reaction signal indicating an eye reaction of the subject to the measurement information,
The measuring device according to claim 1, wherein the measuring unit measures the eye reactivity of the subject based on the reaction signal and the reference signal.
前記測定部は、前記反応信号と前記基準信号とに基づいて、前記被検者の手の反応性を測定する請求項1に記載の測定装置。 The acquisition unit acquires a response signal indicating a response of the subject's hand to the measurement information,
The measurement device according to claim 1 , wherein the measurement unit measures the reactivity of the subject's hand based on the reaction signal and the reference signal.
前記取得部は、前記測定動画と連動して出力された前記基準信号と、前記測定動画に対する前記被検者の反応を示す連続的な反応信号を取得し、
前記測定部は、前記基準信号と前記連続的な反応信号とに基づいて、前記被検者の反応性を測定する請求項1に記載の測定装置。 The measurement information consists of a measurement video,
The acquisition unit acquires the reference signal output in conjunction with the measurement video and a continuous reaction signal indicating the reaction of the subject to the measurement video,
The measuring device according to claim 1, wherein the measuring section measures the reactivity of the subject based on the reference signal and the continuous reaction signal.
測定空間に出力された基準信号と、前記基準信号の出力に連動して前記測定空間に出力される測定情報に対する被検者の反応を示す反応信号とを取得するステップと、
前記反応信号と前記基準信号とに基づいて、前記被検者の反応性を測定するステップと、
を実行させるプログラム。 to the computer,
acquiring a reference signal output to the measurement space and a reaction signal indicating a reaction of the subject to the measurement information output to the measurement space in conjunction with the output of the reference signal;
measuring the reactivity of the subject based on the reaction signal and the reference signal;
A program to run.
前記基準信号に基づいて前記複数の被検者の前記反応信号を対応付け、前記対応付けられた反応信号と前記判定結果とを組み合わせたデータセットに基づいて、機械学習モデルを生成する訓練部と、
を有するモデル生成装置。 an acquisition unit that acquires a reference signal output to a measurement space, a response signal indicating a response of a plurality of subjects to measurement information output to the measurement space in conjunction with the output of the reference signal, and a determination result of determining a state of the plurality of subjects;
a training unit that associates the response signals of the plurality of subjects based on the reference signal, and generates a machine learning model based on a data set that combines the associated response signals with the determination results;
A model generating device having:
測定空間に出力された基準信号と、前記基準信号の出力に連動して前記測定空間に出力される測定情報に対する複数の被検者の反応を示す反応信号と、前記複数の被検者の状態を判定した判定結果とを取得するステップと、
前記基準信号に基づいて前記複数の被検者の前記反応信号を対応付け、前記対応付けられた反応信号と前記判定結果とを組み合わせたデータセットに基づいて、機械学習モデルを生成するステップと、
を実行させるプログラム。 to the computer,
a reference signal outputted to a measurement space; a reaction signal indicating a reaction of a plurality of subjects to measurement information outputted to the measurement space in conjunction with the output of the reference signal; and a state of the plurality of subjects. a step of obtaining a determination result of determining the
a step of associating the reaction signals of the plurality of subjects based on the reference signal and generating a machine learning model based on a data set combining the correlated reaction signals and the determination results;
A program to run.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022149085A JP2024043867A (en) | 2022-09-20 | 2022-09-20 | Measurement device, program and model generation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022149085A JP2024043867A (en) | 2022-09-20 | 2022-09-20 | Measurement device, program and model generation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024043867A true JP2024043867A (en) | 2024-04-02 |
Family
ID=90480158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022149085A Pending JP2024043867A (en) | 2022-09-20 | 2022-09-20 | Measurement device, program and model generation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024043867A (en) |
-
2022
- 2022-09-20 JP JP2022149085A patent/JP2024043867A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101535432B1 (en) | Contents valuation system and contents valuating method using the system | |
KR101811888B1 (en) | Visualization testing and/or training | |
KR20190026651A (en) | Methods and systems for acquiring, aggregating and analyzing vision data to approach a person's vision performance | |
US8465289B2 (en) | Training assisting apparatus, training assisting method, and training assisting program stored on a computer readable medium | |
JP2019523027A (en) | Apparatus and method for recording and analysis of memory and function decline | |
JP6396351B2 (en) | Psychosomatic state estimation device, psychosomatic state estimation method, and eyewear | |
US20120194648A1 (en) | Video/ audio controller | |
JP2006293979A (en) | Content providing system | |
WO2018088187A1 (en) | Information processing device, information processing method, and program | |
RU2666517C1 (en) | Method of rehabilitation of patients with impaired motor function using an automated information system for the implementation of audiovisual biofeedback | |
JP2024043867A (en) | Measurement device, program and model generation device | |
JP5227377B2 (en) | Training support apparatus, training support method, and training support program | |
US20070239071A1 (en) | Training assisting apparatus, training assisting method, and training assisting program | |
US11531394B2 (en) | Systems and methods for emotional-imaging composer | |
US20210315517A1 (en) | Biomarkers of inflammation in neurophysiological systems | |
JP2022021944A (en) | Addiction recovery support system | |
JP2018202191A (en) | Eyewear, data collection system and data collection method | |
CA3104339A1 (en) | Method for evaluating a risk of neurodevelopmental disorder with a child | |
WO2024047738A1 (en) | Inspection device, inspection system, inspection method, and non-transitory computer-readable medium | |
JP2021035499A (en) | Eyewear, data collection system and data collection method | |
WO2023037692A1 (en) | Information processing apparatus, method and computer program product for measuring a level of cognitive decline in a user | |
US20240138745A1 (en) | Fieldable eeg system, architecture, and method | |
EP4353152A1 (en) | Medical image acquisition unit assistance apparatus | |
US20210295730A1 (en) | System and method for virtual reality mock mri | |
Krecichwost et al. | 4D Multimodal Speaker Model for Remote Speech Diagnosis |