JP2024043867A - Measurement device, program and model generation device - Google Patents

Measurement device, program and model generation device Download PDF

Info

Publication number
JP2024043867A
JP2024043867A JP2022149085A JP2022149085A JP2024043867A JP 2024043867 A JP2024043867 A JP 2024043867A JP 2022149085 A JP2022149085 A JP 2022149085A JP 2022149085 A JP2022149085 A JP 2022149085A JP 2024043867 A JP2024043867 A JP 2024043867A
Authority
JP
Japan
Prior art keywords
measurement
subject
reaction
signal
reference signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022149085A
Other languages
Japanese (ja)
Inventor
誠司 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CMIC Holdings Co Ltd
Original Assignee
CMIC Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CMIC Holdings Co Ltd filed Critical CMIC Holdings Co Ltd
Priority to JP2022149085A priority Critical patent/JP2024043867A/en
Publication of JP2024043867A publication Critical patent/JP2024043867A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

【課題】被検者の反応性を正確に測定する測定装置、プログラムおよびモデル生成装置を提供する。【解決手段】測定装置は、測定空間に出力された基準信号と、基準信号の出力に連動して測定空間に出力される測定情報に対する被検者の反応を示す反応信号とを取得する取得部と、反応信号と基準信号とに基づいて、被検者の反応性を測定する測定部と、を有する。【選択図】図3[Problem] To provide a measurement device, a program, and a model generation device for accurately measuring the reactivity of a subject. [Solution] The measurement device has an acquisition unit that acquires a reference signal output to a measurement space and a reaction signal that indicates the reaction of the subject to measurement information output to the measurement space in conjunction with the output of the reference signal, and a measurement unit that measures the reactivity of the subject based on the reaction signal and the reference signal. [Selected Figure] Figure 3

Description

本開示は、測定装置、プログラムおよびモデル生成装置に関する。 This disclosure relates to a measurement device, a program, and a model generation device.

従来から、例えば認知機能などを診断するために被検者の視線の動きを検出する診断装置が提案されている。例えば、特許文献1には、認知機能障害を簡便に診断する認知機能障害診断装置が開示されている。この認知機能障害診断装置は、診断用映像を表示する表示面における被検者の視点を時系列的に検出し、その視点の分布に基づいて被検者の認知機能障害を診断する。 2. Description of the Related Art Diagnostic devices that detect the movement of a subject's line of sight in order to diagnose, for example, cognitive function have been proposed. For example, Patent Document 1 discloses a cognitive dysfunction diagnostic device that easily diagnoses cognitive dysfunction. This cognitive dysfunction diagnosing device detects the subject's viewpoints on a display screen that displays a diagnostic image in time series, and diagnoses the subject's cognitive dysfunction based on the distribution of the viewpoints.

国際公開第2019/098173号International Publication No. 2019/098173

しかしながら、特許文献1の装置は、診断用映像に対する被検者の視点の移動を正確に測定して記録することが困難であった。 However, the device in Patent Document 1 had difficulty accurately measuring and recording the movement of the subject's gaze relative to the diagnostic image.

本開示は、被検者の反応性を正確に測定する測定装置、プログラムおよびモデル生成装置を提供することを目的とする。 The present disclosure aims to provide a measurement device, a program, and a model generation device that accurately measure the reactivity of a subject.

本開示に係る測定装置は、測定空間に出力された基準信号と、基準信号の出力に連動して測定空間に出力される測定情報に対する被検者の反応を示す反応信号とを取得する取得部と、反応信号と基準信号とに基づいて、被検者の反応性を測定する測定部と、を有するものである。 The measurement device according to the present disclosure includes an acquisition unit that acquires a reference signal output to a measurement space and a reaction signal indicating a reaction of a subject to measurement information output to the measurement space in conjunction with the output of the reference signal. and a measurement unit that measures the reactivity of the subject based on the reaction signal and the reference signal.

本開示に係るプログラムは、コンピュータに、測定空間に出力された基準信号と、基準信号の出力に連動して測定空間に出力される測定情報に対する被検者の反応を示す反応信号とを取得するステップと、反応信号と基準信号とに基づいて、被検者の反応性を測定するステップと、を実行させるものである。 A program according to the present disclosure causes a computer to acquire a reference signal output to a measurement space and a reaction signal indicating a reaction of a subject to measurement information output to the measurement space in conjunction with the output of the reference signal. and measuring the reactivity of the subject based on the reaction signal and the reference signal.

本開示に係るモデル生成装置は、測定空間に出力された基準信号と、基準信号の出力に連動して測定空間に出力される測定情報に対する複数の被検者の反応を示す反応信号と、複数の被検者の状態を判定した判定結果とを取得する取得部と、基準信号に基づいて複数の被検者の反応信号を対応付け、対応付けられた反応信号と判定結果とを組み合わせたデータセットに基づいて、機械学習モデルを生成する訓練部と、を有するものである。 A model generation device according to the present disclosure includes a reference signal outputted to a measurement space, a reaction signal indicating a reaction of a plurality of subjects to measurement information outputted to the measurement space in conjunction with the output of the reference signal, and a plurality of an acquisition unit that acquires the judgment result of determining the condition of the subject; and data that associates the reaction signals of the plurality of subjects based on the reference signal, and combines the correlated reaction signals and the judgment result. and a training unit that generates a machine learning model based on the set.

本開示に係るプログラムは、コンピュータに、測定空間に出力された基準信号と、基準信号の出力に連動して測定空間に出力される測定情報に対する複数の被検者の反応を示す反応信号と、複数の被検者の状態を判定した判定結果とを取得するステップと、基準信号に基づいて複数の被検者の反応信号を対応付け、対応付けられた反応信号と判定結果とを組み合わせたデータセットに基づいて、機械学習モデルを生成するステップと、を実行させるものである。 A program according to the present disclosure provides a computer with a reference signal outputted to a measurement space, and a reaction signal indicating the reaction of a plurality of subjects to measurement information outputted to the measurement space in conjunction with the output of the reference signal. a step of acquiring judgment results that have determined the states of multiple subjects; and a step of associating the reaction signals of the plurality of subjects based on a reference signal, and combining data of the correlated reaction signals and the judgment results. and generating a machine learning model based on the set.

本開示によれば、被検者の測定情報に対する反応性を正確に測定することが可能となる。 According to the present disclosure, it is possible to accurately measure the reactivity of a subject to measurement information.

本開示の実施の形態1に係る測定装置を備えた測定システムの構成を示す図である。1 is a diagram showing the configuration of a measurement system including a measurement device according to Embodiment 1 of the present disclosure. 端末装置の構成を示す図である。FIG. 2 is a diagram illustrating a configuration of a terminal device. 測定装置の構成を示す図である。FIG. 2 is a diagram showing the configuration of a measuring device. 目の反応信号と基準信号の変化を示す図である。FIG. 13 shows changes in eye response signals and reference signals. 実施の形態1の概要を示す図である。1 is a diagram showing an overview of Embodiment 1. FIG. 実施の形態1の動作を示すフローチャートである。4 is a flowchart showing the operation of the first embodiment. 被検者が測定動画を視聴する様子を示す図である。FIG. 3 is a diagram illustrating how a subject views a measurement video. 測定動画において視線を位置合わせする画面を示す図である。It is a figure which shows the screen which aligns a line of sight in a measurement video. 測定動画においてシーンが切り替わる様子を示す図である。FIG. 13 is a diagram showing how scenes change in a measurement video. 機械学習モデルを用いて被検者の目の反応性を判定する様子を示す図である。FIG. 1 illustrates how a machine learning model is used to determine the reactivity of a subject's eye. 実施の形態2の概要を示す図である。FIG. 3 is a diagram showing an overview of Embodiment 2; 実施の形態2の検出部の構成を示す図である。FIG. 3 is a diagram showing the configuration of a detection section according to Embodiment 2. FIG. 実施の形態2の測定動画においてシーンが切り替わる様子を示す図である。FIG. 7 is a diagram showing how scenes change in the measurement video of Embodiment 2; 手の反応信号と基準信号の変化を示す図である。FIG. 13 shows changes in hand response signals and reference signals. 実施の形態2の変形例の概要を示す図である。FIG. 7 is a diagram showing an outline of a modification of the second embodiment. 目および手の反応信号と基準信号の変化を示す図である。FIG. 1 shows changes in eye and hand response signals and baseline signals. 実施の形態4の概要を示す図である。FIG. 13 is a diagram showing an overview of a fourth embodiment. 実施の形態5に係るモデル生成装置の構成を示す図である。FIG. 7 is a diagram showing the configuration of a model generation device according to a fifth embodiment. 実施の形態5の動作を示すフローチャートである。12 is a flowchart showing the operation of Embodiment 5. 実施の形態1~5の変形例において光信号が出力される様子を示す図である。7 is a diagram showing how optical signals are output in modified examples of Embodiments 1 to 5. FIG.

以下、本開示に係る実施の形態を添付図面に基づいて説明する。 The following describes an embodiment of the present disclosure with reference to the attached drawings.

(実施の形態1)
図1に、本開示の実施の形態1に係る測定装置を備えた測定システムの構成を示す。測定システム1は、複数の端末装置2と、通信システム3と、測定装置4とを有する。端末装置2、通信システム3および測定装置4は、互いに接続されている。
(Embodiment 1)
1 shows a configuration of a measurement system including a measurement device according to a first embodiment of the present disclosure. The measurement system 1 includes a plurality of terminal devices 2, a communication system 3, and a measurement device 4. The terminal devices 2, the communication system 3, and the measurement devices 4 are connected to each other.

端末装置2は、測定空間に配置され、被検者の反応性を検知する。ここで、測定空間は、被検者が位置して、被検者の反応を測定する空間を示す。 The terminal device 2 is placed in the measurement space and detects the subject's reactivity. Here, the measurement space refers to the space in which the subject is positioned and the subject's reaction is measured.

通信システム3は、複数のBS(Base Station、基地局)5と、コアネットワーク8と、インターネット9とを有する。BS5は、コアネットワーク8に接続されている。また、コアネットワーク8は、インターネット9を介して測定装置4に接続されている。通信システム3は、例えば、第5世代移動通信システム(5G)から構成することができる。しかしながら、本開示による通信システムは、これに限定されるものでなく、4G、6Gなどの他のセルラ通信システム、WiFi(登録商標)、無線LAN(Local Area Network)などの無線通信システムや固定電話回線などであってもよい。 The communication system 3 has multiple BSs (Base Stations) 5, a core network 8, and the Internet 9. The BSs 5 are connected to the core network 8. The core network 8 is connected to the measurement device 4 via the Internet 9. The communication system 3 can be configured, for example, from a fifth generation mobile communication system (5G). However, the communication system according to the present disclosure is not limited to this, and may be other cellular communication systems such as 4G and 6G, wireless communication systems such as WiFi (registered trademark) and wireless LAN (Local Area Network), or fixed telephone lines.

BS5は、自身の無線通信エリアに存在する端末装置2との間で無線通信し、端末装置2から送信された検知データを含むデータをコアネットワーク8に送信する。ここで、データは、例えば、被検者の年齢および性別などの情報を含んでもよい。 BS5 wirelessly communicates with terminal devices 2 present within its wireless communication area, and transmits data including the detection data transmitted from the terminal devices 2 to the core network 8. Here, the data may include information such as the subject's age and sex, for example.

コアネットワーク8は、BS5およびインターネット9を介して端末装置2と測定装置4との間を接続するネットワーク回線である。コアネットワーク8は、例えば、通信システム3における通信機能を制御するプログラムを含み、BS5から送信されたデータを受信すると、そのプログラムに基づいてデータをインターネット9を介して測定装置4に送信してもよい。 The core network 8 is a network line that connects the terminal device 2 and the measurement device 4 via the BS 5 and the Internet 9. The core network 8 may, for example, include a program that controls the communication function in the communication system 3, and upon receiving data transmitted from the BS 5, transmit the data to the measurement device 4 via the Internet 9 based on the program.

測定装置4は、通信システム3を介して端末装置2から検知データを含むデータを取得し、その検知データに基づいて、被検者の反応性、例えば被検者の目の反応性を測定する。
しかしながら、本開示による測定システム1は、上述したシステム構成に限定されず、これ以外のシステム構成であってもよい。
The measurement device 4 acquires data including the detection data from the terminal device 2 via the communication system 3, and measures the reactivity of the subject, for example the reactivity of the subject's eyes, based on the detection data.
However, the measurement system 1 according to the present disclosure is not limited to the above-mentioned system configuration, and may have a system configuration other than the above.

図2に、端末装置2の構成を詳細に示す。 Figure 2 shows the detailed configuration of terminal device 2.

端末装置2は、バスBを介して相互接続される記憶部10と、プロセッサ11と、ユーザインタフェース(UI)12と、通信部13とをハードウェア構成として有する。
なお、端末装置2は、例えば、スマートフォン、タブレット、パーソナルコンピュータ等の計算装置によって実現され得る。端末装置2における後述される各種機能及び処理を実現するプログラム又は指示は、ネットワークなどを介し何れかの外部装置からダウンロードされてもよいし、フラッシュメモリ等の着脱可能な記憶媒体から提供されてもよい。
The terminal device 2 has, as its hardware configuration, a storage unit 10, a processor 11, a user interface (UI) 12, and a communication unit 13, which are interconnected via a bus B.
The terminal device 2 may be realized by a computing device such as a smartphone, a tablet, a personal computer, etc. Programs or instructions for realizing various functions and processes described later in the terminal device 2 may be downloaded from any external device via a network or the like, or may be provided from a removable storage medium such as a flash memory.

記憶部10は、例えば、ランダムアクセスメモリ、フラッシュメモリ、ハードディスクドライブなどの1つ以上の非一時的な記憶媒体(non-transitory storage medium)によって実現され、インストールされたプログラム又は指示と共に、プログラム又は指示の実行に用いられるファイル、データ等を格納する。本実施例による記憶部10は、測定情報や基準信号などを記憶してもよい。 The storage unit 10 is realized by one or more non-transitory storage mediums such as random access memory, flash memory, hard disk drive, etc., and stores the programs or instructions together with the installed programs or instructions. Stores files, data, etc. used for execution. The storage unit 10 according to this embodiment may store measurement information, reference signals, and the like.

ここで、測定情報は、被検者に提供される測定、検査などに用いられる情報であり、被検者の反応を測定する測定空間に出力される。測定情報は、例えば、被検者に特定の部位を反応させるための情報であり、被検者の目が反応するように画像が変化する測定動画から構成してもよい。
また、基準信号は、測定情報に連動して測定空間に出力され、例えば、順次出力される測定情報の時間的な位置を示す信号であってもよい。例えば、基準信号は、強度(振幅)が順次変化するよう構成されてもよく、例えば時間をカウントするように一定の時間間隔(例えば数ミリ秒間隔)で強度が変化するように構成してもよい。また、基準信号は、周波数が順次変化するように構成されてもよい。また、基準信号は、ONとOFFを順次切り換えるように構成されてもよい。
一実施例では、基準信号は、所定周波数より高い高周波の音波信号から構成してもよい。具体的には、音波信号は、一般的な人では自覚することが困難な約14kHzの周波数帯を超える周波数の音、又は、非可聴周波数帯域の音などから構成することができる。
Here, the measurement information is information used in measurements, tests, etc. provided to the subject, and is output to a measurement space in which the reaction of the subject is measured. The measurement information is, for example, information for making the subject react to a specific region, and may be composed of a measurement video in which the image changes so that the subject's eyes react.
Further, the reference signal may be a signal that is output to the measurement space in conjunction with the measurement information, and indicates the temporal position of the measurement information that is sequentially output, for example. For example, the reference signal may be configured to vary in intensity (amplitude) sequentially, or may be configured to vary in intensity at regular time intervals (eg, every few milliseconds), e.g., to count time. good. Further, the reference signal may be configured such that the frequency changes sequentially. Further, the reference signal may be configured to sequentially switch between ON and OFF.
In one embodiment, the reference signal may consist of a high frequency sound wave signal that is higher than the predetermined frequency. Specifically, the sound wave signal can be composed of a sound with a frequency exceeding the approximately 14 kHz frequency band, which is difficult for the average person to perceive, or a sound with an inaudible frequency band.

ユーザインタフェース(UI)12は、キーボード、マウス、カメラ、マイクロフォン、ワイヤレスコントローラ等の入力装置、ディスプレイ、スピーカ、ヘッドセット、プリンタ等の出力装置、タッチパネル等の入出力装置から構成されてもよく、ユーザと端末装置2との間のインタフェースを実現する。例えば、ユーザは、ディスプレイ又はタッチパネルに表示されたGUI(Graphical User Interface)をキーボード、マウス等を用いて操作し、端末装置2を操作してもよい。 The user interface (UI) 12 may include input devices such as a keyboard, mouse, camera, microphone, and wireless controller, output devices such as a display, speaker, headset, and printer, and input/output devices such as a touch panel. and the terminal device 2. For example, the user may operate the terminal device 2 by operating a GUI (Graphical User Interface) displayed on a display or touch panel using a keyboard, a mouse, or the like.

ここで、ディスプレイは、プロセッサ11の制御の下、測定空間に測定動画などの測定情報を表示する。
スピーカは、プロセッサ11の制御の下、測定空間に基準信号の音波信号を出力する。
Here, under the control of the processor 11, the display displays measurement information such as a measurement video in the measurement space.
The speaker, under the control of the processor 11, outputs a sound wave signal of a reference signal into the measurement space.

カメラは、測定動画に対する被検者の反応を撮影することによって取得される撮影画像、例えば測定動画に対する被検者の連続的な反応信号を含む撮影動画を取得する。このように、カメラは、被検者の反応を検知する検知部としても機能する。カメラは、例えば被検者の目を含む範囲を撮影して、測定動画に対する被検者の目の反応、すなわち視点の移動を検知する。なお、撮影画像は、撮影動画に限られるものではなく、例えば、所定の時間間隔を空けて撮影された複数の画像を含んでもよい。
マイクロフォンは、スピーカから測定空間に基準信号として出力された音波信号を含む受信音を取得する。
The camera acquires a photographed image obtained by photographing the reaction of the subject to the measurement video, for example, a photographed video containing continuous reaction signals of the subject to the measurement video. In this way, the camera also functions as a detection unit that detects the reaction of the subject. For example, the camera photographs a range including the subject's eyes, and detects the reaction of the subject's eyes to the measurement video, that is, the movement of the viewpoint. Note that the captured image is not limited to a captured video, and may include, for example, a plurality of images captured at predetermined time intervals.
The microphone acquires received sound including the sound wave signal outputted from the speaker into the measurement space as a reference signal.

プロセッサ11は、1つ以上のプロセッサコアから構成されうる1つ以上のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、処理回路(processing circuitry)等によって実現されてもよい。プロセッサ11は、記憶部10に格納されたプログラム、指示、当該プログラム若しくは指示を実行するのに必要なパラメータなどのデータ等に従って、後述される端末装置2の各種機能及び処理を実行する。本実施例によるプロセッサ11は、出力制御部11aと、データ処理部11bとを実現する。 The processor 11 may be realized by one or more CPUs (Central Processing Units), GPUs (Graphics Processing Units), processing circuits, etc. that may be configured from one or more processor cores. The processor 11 executes various functions and processes of the terminal device 2, which will be described later, in accordance with programs, instructions, and data such as parameters necessary to execute the programs or instructions stored in the storage unit 10. The processor 11 according to this embodiment implements an output control section 11a and a data processing section 11b.

出力制御部11aは、記憶部10に記憶された測定動画および音波信号を出力するようにUI12のディスプレイおよびスピーカなどを制御する。このとき、出力制御部11aは、音波信号の出力に連動して測定空間に測定動画を出力するように制御する。すなわち、出力制御部11aは、測定動画の進行に合わせて音波信号の強度が順次変化するように、UI12に音波信号と測定動画を測定空間に出力させる。 The output control unit 11a controls the display, speaker, etc. of the UI 12 so as to output the measurement video and the sound wave signal stored in the storage unit 10. At this time, the output control unit 11a controls to output the measurement moving image to the measurement space in conjunction with the output of the sound wave signal. That is, the output control unit 11a causes the UI 12 to output the sound wave signal and the measurement video to the measurement space so that the intensity of the sound wave signal changes sequentially as the measurement video progresses.

なお、出力制御部11aは、記憶部10に記憶された測定動画および音波信号を出力するものに限られるものではない。例えば、出力制御部11aは、測定装置4から通信システム3を介して配信される測定動画および音波信号を出力してもよい。 The output control unit 11a is not limited to outputting the measurement video and sound wave signal stored in the storage unit 10. For example, the output control unit 11a may output the measurement video and sound wave signal distributed from the measurement device 4 via the communication system 3.

データ処理部11bは、UI12のカメラで撮影された撮影動画と、UI12のマイクロフォンで取得された受信音が入力され、撮影動画と受信音とを順次対応付けて一時的に保存する。すなわち、データ処理部11bは、入力時間に基づいて、撮影動画と受信音を順次対応付けて動画ファイルとして保存してもよい。これにより、撮影動画に含まれる被検者の反応が、受信音に含まれる音波信号と共に保存されることになる。このようにして、測定動画に対する被検者の反応を音波信号に対応付けた検知データが得られる。 The data processing unit 11b receives the captured video captured by the camera of the UI 12 and the received sound acquired by the microphone of the UI 12, and sequentially associates the captured video and the received sound and temporarily stores them. That is, the data processing unit 11b may sequentially associate the photographed video and the received sound based on the input time and save them as a video file. Thereby, the reaction of the subject included in the captured video is saved together with the sound wave signal included in the received sound. In this way, detection data is obtained in which the reaction of the subject to the measurement video is associated with the sound wave signal.

通信部13は、BS5との通信処理を実行する各種通信回路により実現され、データ処理部11bで得られた検知データをBS5に出力する。 The communication unit 13 is realized by various communication circuits that perform communication processing with the BS 5, and outputs the detection data obtained by the data processing unit 11b to the BS 5.

なお、上述したハードウェア構成は単なる一例であり、本開示による端末装置2は、これ以外の適切なハードウェア構成により実現されてもよい。 Note that the above-described hardware configuration is merely an example, and the terminal device 2 according to the present disclosure may be realized with any other appropriate hardware configuration.

図3に、測定装置4の構成を詳細に示す。 FIG. 3 shows the configuration of the measuring device 4 in detail.

測定装置4は、バスBを介して相互接続される通信部14と、プロセッサ15と、記憶部16と、ユーザインタフェース(UI)17とをハードウェア構成として有する。 The measuring device 4 has a communication section 14, a processor 15, a storage section 16, and a user interface (UI) 17, which are interconnected via a bus B, as a hardware configuration.

なお、測定装置4は、例えば、サーバ、スマートフォン、タブレット、パーソナルコンピュータ等の計算装置によって実現され得る。測定装置4における後述される各種機能及び処理を実現するプログラム又は指示は、ネットワークなどを介し何れかの外部装置からダウンロードされてもよいし、フラッシュメモリ等の着脱可能な記憶媒体から提供されてもよい。 The measuring device 4 may be realized by a computing device such as a server, a smartphone, a tablet, or a personal computer. Programs or instructions for realizing the various functions and processes of the measuring device 4 described below may be downloaded from an external device via a network or the like, or may be provided from a removable storage medium such as a flash memory.

通信部14は、インターネット9との通信処理を実行する各種通信回路により実現され、通信システム3を介して複数の端末装置2から出力される検知データを受信する。 The communication unit 14 is realized by various communication circuits that perform communication processing with the Internet 9, and receives detection data output from the plurality of terminal devices 2 via the communication system 3.

プロセッサ15は、1つ以上のプロセッサコアから構成されうる1つ以上のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、処理回路(processing circuitry)等によって実現されてもよい。プロセッサ15は、記憶部16に格納されたプログラム、指示、当該プログラム若しくは指示を実行するのに必要なパラメータなどのデータ等に従って、後述される測定装置4の各種機能及び処理を実行する。本実施例によるプロセッサ15は、取得部15aと、測定部15bとを実現する。 The processor 15 may be realized by one or more CPUs (Central Processing Units), GPUs (Graphics Processing Units), processing circuits, etc. that may be configured from one or more processor cores. The processor 15 executes various functions and processes of the measuring device 4, which will be described later, in accordance with programs, instructions, and data such as parameters necessary to execute the programs or instructions stored in the storage unit 16. The processor 15 according to this embodiment implements an acquisition section 15a and a measurement section 15b.

取得部15aは、通信部14で受信された検知データに基づいて、測定空間に出力された基準信号(例えば、音波信号)と、基準信号の出力に連動して測定空間に出力される測定情報(例えば、測定動画)に対する被検者の反応を示す反応信号とを取得する。 Based on the detection data received by the communication unit 14, the acquisition unit 15a acquires a reference signal (e.g., a sound wave signal) output to the measurement space and a response signal indicating the subject's response to measurement information (e.g., a measurement video) output to the measurement space in conjunction with the output of the reference signal.

例えば、取得部15aは、図4に示すように、被検者の目の反応を示す連続的な反応信号Sa1およびSa2を検知データの撮影動画から取得し、この反応信号Sa1およびSa2に対応付けられた音波信号Sbを検知データの受信音から取得する。ここで、反応信号Sa1およびSa2は、横軸に時間、縦軸に被検者Sの目の移動方向(Sa1は左右方向、Sa2は上下方向)を示している。また、音波信号Sbは、横軸に時間、縦軸に振幅を示している。なお、反応信号Sa1およびSa2と音波信号Sbの時間は、測定動画の再生時間(開始から終了までの時間)を示している。 For example, as shown in FIG. 4, the acquisition unit 15a acquires continuous reaction signals Sa1 and Sa2 indicating the eye reaction of the subject from the captured video of the detection data, and associates them with the reaction signals Sa1 and Sa2. The detected sound wave signal Sb is obtained from the received sound of the detection data. Here, the reaction signals Sa1 and Sa2 indicate time on the horizontal axis and the moving direction of the subject S's eyes on the vertical axis (Sa1 is the horizontal direction, Sa2 is the vertical direction). Moreover, the sound wave signal Sb shows time on the horizontal axis and amplitude on the vertical axis. Note that the times of the reaction signals Sa1 and Sa2 and the sound wave signal Sb indicate the playback time (time from start to end) of the measurement video.

測定部15bは、取得部15aで取得された反応信号と音波信号とに基づいて、被検者の反応性を測定する。例えば、認知症の診断では、目の反応性に基づいて認知症の兆候を発見できると言われている。このため、認知症の診断では、測定部15bは、音波信号Sbに基づいて、反応信号Sa1およびSa2を健常者や認知症患者などの反応信号から生成したモデルと比較することで被検者の目の反応性を測定してもよい。また、測定部15bは、反応信号Sa1およびSa2を上記のモデルと比較することで、特定の疾患を判定してもよい。 The measurement unit 15b measures the reactivity of the subject based on the response signal and the sound wave signal acquired by the acquisition unit 15a. For example, in diagnosing dementia, it is said that signs of dementia can be found based on the reactivity of the eyes. For this reason, in diagnosing dementia, the measurement unit 15b may measure the reactivity of the subject's eyes based on the sound wave signal Sb by comparing the response signals Sa1 and Sa2 with a model generated from the response signals of healthy individuals and dementia patients. The measurement unit 15b may also determine a specific disease by comparing the response signals Sa1 and Sa2 with the above-mentioned model.

記憶部16は、プロセッサ15から得られる被検者の反応信号Sa1およびSa2および音波信号Sbと、被検者の目の反応性と、特定の疾患の判定結果を記憶する。記憶部16は、例えば、ランダムアクセスメモリ、フラッシュメモリ、ハードディスクドライブなどの1つ以上の非一時的な記憶媒体(non-transitory storage medium)によって実現され、インストールされたプログラム又は指示と共に、プログラム又は指示の実行に用いられるファイル、データ等を格納する。本実施例による記憶部16は、複数の被検者の反応信号を音波信号と対応付けて記憶する。 The storage unit 16 stores the subject's reaction signals Sa1 and Sa2 and the sound wave signal Sb obtained from the processor 15, the eye reactivity of the subject, and the determination result of a specific disease. The storage unit 16 is implemented by one or more non-transitory storage media, such as random access memory, flash memory, hard disk drive, etc., and stores the programs or instructions as well as the installed programs or instructions. Stores files, data, etc. used for execution. The storage unit 16 according to this embodiment stores reaction signals of a plurality of subjects in association with sound wave signals.

ユーザインタフェース(UI)17は、キーボード、マウス、カメラ、マイクロフォン等の入力装置、ディスプレイ、スピーカ、ヘッドセット、プリンタ等の出力装置、タッチパネル等の入出力装置から構成されてもよく、ユーザと測定装置4との間のインタフェースを実現する。 The user interface (UI) 17 may be composed of input devices such as a keyboard, mouse, camera, microphone, etc., output devices such as a display, speaker, headset, printer, etc., and input/output devices such as a touch panel, and provides an interface between the user and the measurement device 4.

なお、上述したハードウェア構成は単なる一例であり、本開示による測定装置4は、これ以外の適切なハードウェア構成により実現されてもよい。 Note that the hardware configuration described above is merely an example, and the measurement device 4 according to the present disclosure may be realized by other appropriate hardware configurations.

次に、本実施の形態の動作について説明する。
図5に、本実施の形態の概要を示す。本実施の形態は、端末装置2が、基準信号と測定情報を連動して測定空間Rに出力し、その測定情報に対する被検者Sの反応を撮影した撮影動画を、基準信号を含む受信音と共に取得する。続いて、測定装置4が、測定情報に対する被検者Sの反応を示す反応信号を撮影動画から取得すると共に、基準信号を受信音から取得する。そして、測定装置4は、反応信号と基準信号に基づいて被検者Sの反応性を測定し、その測定結果を端末装置2に出力する。
Next, the operation of this embodiment will be described.
An overview of this embodiment is shown in Fig. 5. In this embodiment, the terminal device 2 outputs a reference signal and measurement information in conjunction with each other to the measurement space R, and acquires a video of the subject S's reaction to the measurement information together with a received sound including the reference signal. Next, the measurement device 4 acquires a reaction signal indicating the subject S's reaction to the measurement information from the video, and acquires a reference signal from the received sound. Then, the measurement device 4 measures the reactivity of the subject S based on the reaction signal and the reference signal, and outputs the measurement result to the terminal device 2.

続いて、図6に示すフローチャートを参照して本実施の形態の動作を詳細に説明する。
まず、図2に示す端末装置2の出力制御部11aが、記憶部10に記憶された測定動画(測定情報)および音波信号(基準信号)Sbを出力するようにUI12のディスプレイおよびスピーカを制御する。これにより、ステップS1で、ディスプレイに測定動画が表示され、その測定動画が表示される測定空間Rにスピーカから音波信号Sbが出力される。
Next, the operation of this embodiment will be described in detail with reference to the flow chart shown in FIG.
2 controls the display and speaker of the UI 12 to output the measurement video (measurement information) and the sound wave signal (reference signal) Sb stored in the storage unit 10. As a result, in step S1, the measurement video is displayed on the display, and the sound wave signal Sb is output from the speaker to the measurement space R in which the measurement video is displayed.

このとき、プロセッサ11の出力制御部11aは、音波信号Sbと測定動画を連動させてディスプレイに表示させる。例えば、出力制御部11aは、音波信号Sbと測定動画を互いに連動するように対応付けて保存した保存データに基づいて、音波信号Sbと測定動画を出力してもよい。すなわち、保存データは、音波信号Sbと測定動画のいずれか一方が出力された場合に、他方も連動して出力されるように音波信号Sbと測定動画を対応付けて保存したものである。保存データとしては、例えば、音波信号Sbと測定動画を対応付けて保存した動画ファイルなど、音波信号Sbと測定動画を1つのファイルに内包したデータが挙げられる。なお、保存した動画ファイルとしては、例えば、MP4(Moving Picture Experts Group Audio Layer-4)、AVI(Audio Video Interleave)、MOV(QuickTime File Format)、WebMまたはFLV(Flash Video)などが挙げられる。
なお、出力制御部11aは、音波信号Sbと測定動画を別々に保存し、音波信号Sbの出力開始と同時に、測定動画の表示を開始させてもよい。また、出力制御部11aは、音波信号Sbを出力しつつ所定のタイミングで測定動画の表示を開始させてもよい。
At this time, the output control unit 11a of the processor 11 displays the sound wave signal Sb and the measurement video in conjunction with each other on the display. For example, the output control unit 11a may output the sound wave signal Sb and the measurement video based on saved data in which the sound wave signal Sb and the measurement video are stored in association with each other. That is, the saved data is data in which the sound wave signal Sb and the measurement video are stored in association with each other so that when either the sound wave signal Sb or the measurement video is output, the other is also output in conjunction. Examples of the saved data include data in which the sound wave signal Sb and the measurement video are included in one file, such as a video file in which the sound wave signal Sb and the measurement video are stored in association with each other. The saved video files include, for example, MP4 (Moving Picture Experts Group Audio Layer-4), AVI (Audio Video Interleave), MOV (QuickTime File Format), WebM, or FLV ( Flash Video), etc.
Note that the output control unit 11a may store the sound wave signal Sb and the measurement video separately, and start displaying the measurement video simultaneously with the start of output of the sound wave signal Sb. Further, the output control unit 11a may start displaying the measurement video at a predetermined timing while outputting the sound wave signal Sb.

図7に示すように、被検者Sを測定する測定空間Rでは、UI12のスピーカ12aから音波信号Sbを出力しつつ、被検者Sがディスプレイ12bに表示される測定動画を視聴する。このとき、測定動画におけるシーンの変化に対して被検者Sの目が反応を示すことになる。 As shown in FIG. 7, in the measurement space R in which the subject S is measured, the subject S watches the measurement video displayed on the display 12b while a sound wave signal Sb is output from the speaker 12a of the UI 12. At this time, the eyes of the subject S react to changes in the scene in the measurement video.

ここで、測定動画の一例を説明する。
例えば、図8に示すように、測定動画Mが開始されると、前処理としてディスプレイ12bに対して被検者Sの視線を位置合わせする画面が表示される。この位置合わせ画面では、例えば、所定の位置に4つの基準点Pが順次表示され、その4つの基準点Pを順次視認させる被検者Sへの音声と文字による指示が音波信号Sbと共に出力されてもよい。これにより、被検者Sの視線がディスプレイ12bに対して位置合わせされ、被検者Sの視線の位置を正確に測定することができる。また同時に、測定動画Mに連動して音波信号Sbが測定空間Rで正常に再生されていることの確認もとれる。
Here, an example of a measurement video will be explained.
For example, as shown in FIG. 8, when the measurement video M is started, a screen for aligning the line of sight of the subject S with respect to the display 12b is displayed as pre-processing. On this alignment screen, for example, four reference points P are sequentially displayed at predetermined positions, and voice and text instructions for the subject S to sequentially visually recognize the four reference points P are output together with the sound wave signal Sb. It's okay. Thereby, the line of sight of the subject S is aligned with the display 12b, and the position of the line of sight of the subject S can be accurately measured. At the same time, it can be confirmed that the sound wave signal Sb is normally reproduced in the measurement space R in conjunction with the measurement video M.

続いて、図9Aに示すように、測定動画Mには、一部が目隠しMaで隠された迷路が表示される。そして、「迷路の出入り口を視線で繋いでください」との指示が、例えば音声で被検者Sに出力される。 Next, as shown in FIG. 9A, a maze is displayed in the measurement video M, part of which is hidden by a blindfold Ma. Then, an instruction to "follow the entrance and exit of the maze with your line of sight" is output to the subject S, for example, by voice.

測定動画Mは、目隠しMaのシーンで所定時間経過後、図9Bに示されるように、迷路全体が目隠しMbで隠されたシーンに切り替わる。そして、測定動画Mは、目隠しMbのシーンで所定時間経過後、図9Cに示されるように、目隠しMaとは別の部分を目隠しMcで隠された迷路のシーンに切り替わる。このとき、被検者Sがディスプレイ12bに断片的に表示される迷路を記憶していた場合、被検者Sの視線は迷路の入口と出口を繋ぐ経路に沿って移動することになる。 After a predetermined time elapses in the scene of the blindfold Ma, the measurement video M switches to a scene in which the entire maze is hidden by the blindfold Mb, as shown in FIG. 9B. Then, after a predetermined period of time has elapsed in the scene of the blindfold Mb, the measurement video M switches to a scene of a maze in which a portion other than the blindfold Ma is hidden by the blindfold Mc, as shown in FIG. 9C. At this time, if the subject S has memorized the maze displayed in fragments on the display 12b, the subject S's line of sight will move along the path connecting the entrance and exit of the maze.

このとき、図7に示す音波信号Sbは、所定周波数より高い高周波、例えば一般的な人では自覚することが困難な周波数帯域を超える周波数で構成されている。このため、被検者Sは、音波信号Sbに注意を奪われることなく、測定動画Mを視聴することができる。 At this time, the sound wave signal Sb shown in FIG. 7 is composed of a high frequency higher than a predetermined frequency, for example, a frequency exceeding a frequency band that is difficult for the average person to notice. Therefore, the subject S can watch the measurement video M without being distracted by the sound wave signal Sb.

このようにして、被検者Sによる測定動画Mの視聴中、UI12のカメラ12cが測定動画Mに対する被検者Sの目の反応を撮影し、UI12のマイクロフォン12dが測定空間Rに出力された音波信号Sbを集音する。 In this way, while the subject S is watching the measurement video M, the camera 12c of the UI 12 captures the eye response of the subject S to the measurement video M, and the microphone 12d of the UI 12 collects the sound wave signal Sb output to the measurement space R.

従来、端末装置に動画を表示して、被検者Sの視線の移動に基づいて認知症などを診断する場合、端末装置の画面に測定中に動画が正しく表示されていることを確認するために、医師や助手が測定に立ち会う必要があった。また、従来、測定時に表示された動画と、被検者Sの視線の動きとの時間的な位置を正確に紐づける方法がなかった。 Conventionally, when displaying a video on a terminal device and diagnosing dementia etc. based on the movement of the subject S's line of sight, it is necessary to confirm that the video is displayed correctly on the screen of the terminal device during measurement. A doctor or assistant was required to be present during the measurement. Furthermore, conventionally, there has been no method for accurately linking the temporal position of the moving image displayed at the time of measurement and the movement of the subject's S line of sight.

そこで、本開示では、音波信号Sbが測定動画Mに連動して測定空間Rに出力され、その測定動画Mに対する被検者Sの目の反応がカメラ12cで撮影されると共に、測定空間Rに出力された音波信号Sbがマイクロフォン12dで受信される。これにより、被検者Sの目の反応を撮影した撮影動画と、測定空間Rに出力された音波信号Sbとが同期的に取得される。このため、例えば、複数の端末装置2から取得した撮影動画と音波信号Sbに基づいて、各被検者Sの目の反応と、その時に再生されていた測定動画Mの時間的な位置を正確に把握することができる。また、図8に示すように視線を位置合わせする際に、取得された撮影動画において被検者Sの視線が動かない場合や、音波信号Sbが存在しない場合は、端末装置から基準信号と測定情報が正しく出力されていないか、または、被検者Sが測定情報を目視できないことなどが原因として考えられるため、測定が無効であると判断することもできる。これにより医師や助手が測定時に立ち会わなくても正しく測定情報が出力されていることを担保できる。 Therefore, in the present disclosure, the sound wave signal Sb is output to the measurement space R in conjunction with the measurement video M, and the eye reaction of the subject S to the measurement video M is photographed by the camera 12c, and the sound wave signal Sb output to the measurement space R is received by the microphone 12d. As a result, the photographed video of the eye reaction of the subject S and the sound wave signal Sb output to the measurement space R are acquired synchronously. For this reason, for example, based on the photographed video and the sound wave signal Sb acquired from multiple terminal devices 2, the eye reaction of each subject S and the temporal position of the measurement video M being played at that time can be accurately grasped. In addition, as shown in FIG. 8, when aligning the gaze, if the gaze of the subject S does not move in the acquired photographed video or if the sound wave signal Sb does not exist, it can be determined that the measurement is invalid because the reference signal and measurement information are not correctly output from the terminal device or the subject S cannot visually observe the measurement information. This makes it possible to ensure that the measurement information is correctly output even if a doctor or assistant is not present during the measurement.

続いて、カメラ12cで撮影された撮影動画と、マイクロフォン12dで取得された受信音は、プロセッサ11のデータ処理部11bに入力される。データ処理部11bは、カメラ12cおよびマイクロフォン12dから入力される撮影動画と受信音とを順次対応付けて一時的に保存する。保存形式としては、例えば、撮影動画と受信音とを対応付けて1つの動画ファイルに内包するファイル形式が挙げられる。ここで、撮影動画は測定動画Mに対する被検者Sの目の反応を撮影したものであり、受信音は測定動画Mに連動する音波信号Saを含むものである。このため、撮影動画と受信音を同期的に取得することにより、音波信号Sbを介して被検者Sの目の反応(動き)を測定動画Mに対応付けることになる。 Then, the captured video captured by the camera 12c and the received sound acquired by the microphone 12d are input to the data processing unit 11b of the processor 11. The data processing unit 11b sequentially associates the captured video and the received sound input from the camera 12c and the microphone 12d and temporarily stores them. As a storage format, for example, a file format in which the captured video and the received sound are associated and included in one video file can be mentioned. Here, the captured video is a video of the subject S's eye reaction to the measurement video M, and the received sound includes a sound wave signal Sa linked to the measurement video M. Therefore, by synchronously acquiring the captured video and the received sound, the eye reaction (movement) of the subject S is associated with the measurement video M via the sound wave signal Sb.

ここで、測定動画Mに対する被検者Sの目の反応を、音波信号Sbではなく、端末装置2に内蔵された時計の時刻に対応付けて記録した場合を考える。この場合、複数の異なる端末装置2において測定動画Mの再生ボタンを押してから測定動画Mの再生が始まるまでの開始時間に、端末装置2の処理速度や使用可能なキャッシュ容量などの要因により差が生じる場合がある。さらに、測定動画Mの再生中に一時的に再生がフリーズするおそれもある。その結果、被検者Sの目の反応と測定動画Mを異なる時刻に対応付けることになる。このとき、各端末装置2のログを調べたとしても、測定動画Mがディスプレイ12bに実際に表示された正確な時刻を判断することはできない。 Now consider a case where the eye response of the subject S to the measurement video M is recorded in association with the time of a clock built into the terminal device 2, rather than with the sound wave signal Sb. In this case, the start time between pressing the play button for the measurement video M and the start of playback of the measurement video M on multiple different terminal devices 2 may differ due to factors such as the processing speed of the terminal device 2 and the available cache capacity. Furthermore, there is a risk that playback of the measurement video M may freeze temporarily during playback. As a result, the eye response of the subject S and the measurement video M will be associated with different times. In this case, even if the logs of each terminal device 2 are examined, it is not possible to determine the exact time at which the measurement video M was actually displayed on the display 12b.

そこで、本開示では、測定空間Rから取得された音波信号Sbを介して被検者Sの目の反応を測定動画Mに対応付ける。これにより、例えば端末装置2から測定動画Mの再生開始が遅れた場合でも音波信号Sbの進行も測定動画Mと共に遅れて進行するため、端末装置2のスペックとは関係なく、音波信号Sbを介して被検者Sの目の反応と測定動画Mを同じ時間的な位置に対応付け記録することができる。 Therefore, in the present disclosure, the eye reaction of the subject S is associated with the measurement video M via the sound wave signal Sb acquired from the measurement space R. As a result, even if, for example, the start of playback of the measurement video M from the terminal device 2 is delayed, the progress of the sound wave signal Sb will also be delayed along with the measurement video M. The eye reaction of the subject S and the measurement video M can be recorded in association with each other at the same temporal position.

続いて、データ処理部11bは、例えば測定動画Mが終了した場合に、反応測定が終了したと判断する。その後、端末装置2は、撮影動画と受信音を含んだ検知データを通信システム3を介し測定装置4に出力する。 Then, the data processing unit 11b determines that the reaction measurement has ended, for example, when the measurement video M has ended. The terminal device 2 then outputs the detection data, including the captured video and the received sound, to the measurement device 4 via the communication system 3.

例えば、図1に示すように、取得した検知データはまず、BS5に無線出力され、その後、BS5からコアネットワーク8およびインターネット9を介して測定装置4に出力される。例えば、通信システム3が5G通信システムなどから構成されている場合、検知データを端末装置2から測定装置4にストリーミング配信(出力)し、測定装置4に検知データを記録することができる。 For example, as shown in FIG. 1, the acquired detection data is first output wirelessly to the BS 5, and then output from the BS 5 to the measurement device 4 via the core network 8 and the Internet 9. For example, when the communication system 3 is configured with a 5G communication system or the like, the detection data can be streamed (output) from the terminal device 2 to the measurement device 4 and recorded in the measurement device 4.

図3に示す測定装置4に出力された検知データは、通信部14を介してプロセッサ15の取得部15aで受信される。そして、取得部15aが、ステップS2で、検知データから、被検者Sの目の動きを示す反応信号Sa1およびSa2と、音波信号Sbとを抽出する。 The detection data output to the measurement device 4 shown in FIG. 3 is received by the acquisition unit 15a of the processor 15 via the communication unit 14. Then, in step S2, the acquisition unit 15a extracts reaction signals Sa1 and Sa2 indicating eye movements of the subject S and a sound wave signal Sb from the detection data.

具体的には、取得部15aは、検知データに含まれる撮影動画から被検者の目の部位を検出して、撮影動画の進行に応じた目の動き(視線の移動)をトラッキングする。この被検者Sの目の動きは、測定動画Mに対する反応を示している。このため、取得部15aは、目の動きをトラッキングすることにより、測定動画Mに対する被検者Sの目の反応を示す連続的な反応信号Sa1およびSa2を取得することができる。また、取得部15aは、検知データに含まれる受信音から音波信号Sbを抽出する処理を行う。
このとき、取得部15aは、被検者の目の部位に加えて被検者の顔の向きを撮影画像から検出し、その顔の向きに基づいて、被検者の目の動きをトラッキングしてもよい。例えば、取得部15aは、被検者の顔の向きに基づいて、被検者の目の部位の検出範囲を限定し、その検出範囲において被検者の目の動きをトラッキングしてもよい。これにより、目の反応信号Sa1およびSa2をさらに正確に測定することができる。
Specifically, the acquisition unit 15a detects the eye part of the subject from the photographed video included in the detection data, and tracks the movement of the eyes (movement of the line of sight) according to the progress of the photographed video. The eye movements of the subject S indicate the reaction to the measurement video M. Therefore, the acquisition unit 15a can acquire continuous reaction signals Sa1 and Sa2 indicating the eye reaction of the subject S to the measurement video M by tracking the eye movements. Furthermore, the acquisition unit 15a performs a process of extracting the sound wave signal Sb from the received sound included in the detection data.
At this time, the acquisition unit 15a detects the orientation of the examinee's face in addition to the eye region of the examinee from the photographed image, and tracks the eye movement of the examinee based on the facial orientation. It's okay. For example, the acquisition unit 15a may limit the detection range of the subject's eye region based on the direction of the subject's face, and may track the movement of the subject's eyes within the detection range. Thereby, the eye reaction signals Sa1 and Sa2 can be measured more accurately.

ここで、撮影動画と受信音は端末装置2において互いに対応付けられているため、取得部15aは、図4に示すように、取得または記録した検知データから音波信号Sbと反応信号Sa1およびSa2を互いに対応付けられた形でデータを抽出することができる。 Here, since the captured video and the received sound are associated with each other in the terminal device 2, the acquisition unit 15a can extract data from the acquired or recorded detection data in a form in which the sound wave signal Sb and the response signals Sa1 and Sa2 are associated with each other, as shown in FIG. 4.

また、取得部15aは、被検者ごとに、検知データ、または、検知データから抽出された音波信号Sbと反応信号Sa1およびSa2のデータを記憶部16に記録してもよい。 The acquisition unit 15a may also record the detection data, or the sound wave signal Sb and the response signals Sa1 and Sa2 extracted from the detection data, in the storage unit 16 for each subject.

続いて、プロセッサ15の測定部15bは、ステップS3で、反応信号Sa1およびSa2と音波信号Sbに基づいて、被検者Sの目の反応性を測定する。 Next, in step S3, the measurement unit 15b of the processor 15 measures the reactivity of the subject S's eyes based on the response signals Sa1 and Sa2 and the sound wave signal Sb.

例えば、複数の被検者Sの反応信号Sa1およびSa2を取得した場合、その反応信号Sa1およびSa2は、被検者S間で同様に音波信号Sbと対応付けられた形で取得して記録される。すなわち、測定部15bは、音波信号Sbに基づいて同じ時間的な位置で、被検者Sの反応信号Sa1およびSa2を、他の被検者の反応信号と比較することにより、被検者Sの目の反応性を正確に測定することができる。 For example, when the response signals Sa1 and Sa2 of multiple subjects S are acquired, the response signals Sa1 and Sa2 are acquired and recorded in a manner that is similarly associated with the sound wave signal Sb between subjects S. That is, the measurement unit 15b can accurately measure the eye reactivity of the subject S by comparing the response signals Sa1 and Sa2 of the subject S with the response signals of other subjects at the same time position based on the sound wave signal Sb.

例えば、測定部15bは、音波信号Sbに基づいて、被検者Sの反応信号Sa1およびSa2を健常者や認知症患者などの反応信号と比較してもよい。一般的に、認知症などの疾患では、健常者と違い、例えば迷いによる反応の遅れなどの症状が目の反応性に現れる。そこで、測定部15bは、例えば、被検者Sの反応信号Sa1およびSa2と健常者や認知症患者などの反応信号とを比較することで、被検者Sの目の反応性が正常か否かを判定してもよい。 For example, the measurement unit 15b may compare the response signals Sa1 and Sa2 of the subject S with the response signals of a healthy person, a dementia patient, etc., based on the sound wave signal Sb. Generally, in diseases such as dementia, symptoms such as delayed reactions due to hesitation appear in the eye reactivity, unlike healthy people. Therefore, the measurement unit 15b may determine whether the eye reactivity of the subject S is normal or not by comparing the response signals Sa1 and Sa2 of the subject S with the response signals of a healthy person, a dementia patient, etc.

また、測定部15bは、AI(Artificial Intelligence)を用いて被検者Sの目の反応性を測定してもよい。例えば、図10に示すように、測定部15bは、複数の被検者の反応信号Sa1およびSa2を健常者および認知症患者に分類した反応信号の症例データに基づいて、両者の特徴を学習させた訓練済み機械学習モデルMDを生成する。このとき、訓練済み機械学習モデルMDは、各症例データにアルツハイマー型認知症およびレビー小体型認知症などの分類や進行度合いのラベルを付与して学習させてもよい。そして、測定部15bは、特定の被検者Sで検知した音波信号Sbと反応信号Sa1およびSa2を訓練済み機械学習モデルMaに入力することで、被検者Sの目の反応性から認知症の兆候を判定してもよい。なお、測定部15bは、被検者Sの目の反応性について段階的に評価してもよい。 The measurement unit 15b may also use AI (Artificial Intelligence) to measure the reactivity of the subject S's eyes. For example, as shown in FIG. 10, the measurement unit 15b generates a trained machine learning model MD that learns the characteristics of both subjects based on case data of reaction signals in which the reaction signals Sa1 and Sa2 of multiple subjects are classified into healthy subjects and dementia patients. At this time, the trained machine learning model MD may be trained by assigning labels of classifications such as Alzheimer's dementia and Lewy body dementia and progression levels to each case data. Then, the measurement unit 15b may input the sonic signal Sb and the reaction signals Sa1 and Sa2 detected in a specific subject S to the trained machine learning model Ma to determine a sign of dementia from the reactivity of the subject S's eyes. The measurement unit 15b may also evaluate the reactivity of the subject S's eyes in stages.

このように、測定部15bは、測定空間Rに出力される音波信号Sbと、音波信号Sbの出力に連動して測定空間Rに出力される測定動画Mに対する被検者Sの反応を示す反応信号Sa1およびSa2とに基づいて、被検者Sの反応性を測定する。この反応信号Saは、測定空間Rから測定動画Mと同期的に取得された音波信号Sbを介して、測定動画Mの時間的な位置と正確に対応付けられている。このため、測定動画Mの表示内容に対する被検者Sの目の反応性を正確に測定することができる。 In this way, the measurement unit 15b measures a reaction indicating the reaction of the subject S to the sound wave signal Sb output to the measurement space R and the measurement video M output to the measurement space R in conjunction with the output of the sound wave signal Sb. The reactivity of the subject S is measured based on the signals Sa1 and Sa2. This reaction signal Sa is accurately associated with the temporal position of the measurement video M via the sound wave signal Sb acquired from the measurement space R synchronously with the measurement video M. Therefore, the eye reactivity of the subject S to the display content of the measurement video M can be accurately measured.

また、測定部15bは、異なる測定空間Rで且つ異なる時刻に取得された反応信号Sa1およびSa2を、音波信号Sbに基づいて対応付けて被検者の反応性を測定する。これにより、測定部15bは、被検者の反応性を容易に測定することができる。 The measurement unit 15b also measures the subject's reactivity by associating the response signals Sa1 and Sa2 acquired in different measurement spaces R and at different times based on the sound wave signal Sb. This allows the measurement unit 15b to easily measure the subject's reactivity.

また、測定部15bは、測定動画Mに対する被検者Sの反応を示す連続的な反応信号Saに基づいて、被検者Sの目の反応性を測定する。一方、静止画に対する被検者の反応を測定した場合には、無変化のシーンに対する被検者Sの反応性を反応信号の分布に基づいて測定するので、同じ時間内で取得できる情報量に大きな違いがある。このように、測定部15bは、反応信号Saの時系列的な変化を測定動画Mと連動させて多くの情報を取得することで、被検者Sの目の反応性をより正確に測定することができる。 The measurement unit 15b also measures the responsiveness of the subject S's eyes based on the continuous response signal Sa, which indicates the subject S's response to the measurement video M. On the other hand, when measuring the subject's response to a still image, the responsiveness of the subject S to an unchanging scene is measured based on the distribution of the response signal, so there is a large difference in the amount of information that can be obtained within the same amount of time. In this way, the measurement unit 15b can more accurately measure the responsiveness of the subject S's eyes by acquiring a large amount of information by linking the time-series changes in the response signal Sa with the measurement video M.

また、音波信号Sbは、例えば、数ミリ秒間隔で振幅または周波数が変化するように構成されてもよい。これにより、測定動画Mの時間的な位置と被検者Sの反応信号Sa1およびSa2をより細かく対応付けることができるため、被検者Sの視線の移動もより細かく追跡することができる。このため、被検者Sの目の反応性をより正確に測定することができる。 The sound wave signal Sb may also be configured to change in amplitude or frequency at intervals of several milliseconds, for example. This allows the time position of the measurement video M to be more precisely associated with the response signals Sa1 and Sa2 of the subject S, and therefore the movement of the subject S's line of sight can also be more precisely tracked. This allows the reactivity of the subject S's eyes to be measured more accurately.

また、測定部15bは、音波信号Sbに基づいて、被検者Sの反応信号Sa1およびSa2を他の被検者の反応信号と比較する。このとき、複数の被検者Sの反応信号を同じ時間的な位置に対応付けて比較できるため、被検者Sの目の反応性をより正確に測定することができる。 The measurement unit 15b also compares the response signals Sa1 and Sa2 of the subject S with the response signals of other subjects based on the sound wave signal Sb. At this time, the response signals of multiple subjects S can be compared in correspondence with the same time position, so that the reactivity of the subject S's eyes can be measured more accurately.

なお、測定部15bは、測定動画Mのシーンが切り替わったときの反応信号Sa1およびSa2に基づいて被検者Sの目の反応性を測定してもよい。例えば、測定部15bは、図9Bに示した迷路の全体が目隠しされた場面から、図9Cに示した迷路の一部が目隠しされた場面に切り替わったときの反応信号Sa1およびSa2に基づいて、被検者Sの目の反応性を測定してもよい。
被検者Sの視線は画面の切り替わりと自身の記憶に応じて移動するため、そのときの反応信号Saに基づいて被検者Sの目の反応性をより正確に測定することができる。
Note that the measurement unit 15b may measure the eye reactivity of the subject S based on the reaction signals Sa1 and Sa2 when the scene of the measurement video M changes. For example, the measurement unit 15b may, based on the reaction signals Sa1 and Sa2 when the scene is changed from the scene where the entire maze is blindfolded shown in FIG. 9B to the scene where a part of the maze is blindfolded as shown in FIG. 9C, The eye reactivity of the subject S may also be measured.
Since the subject S's line of sight moves according to the switching of the screen and his/her own memory, the eye reactivity of the subject S can be measured more accurately based on the reaction signal Sa at that time.

このようにして、測定部15bは、被検者Sの目の反応性を測定すると、その測定された反応性に基づいて、被検者Sの認知機能の状態などを判定する。そして、測定部15bは、ステップS4で、反応性の測定結果や疾患の可能性などの測定結果を通信部14を介して被検者Sの端末装置2に出力する。 In this way, the measurement unit 15b measures the reactivity of the eyes of the subject S, and then determines the state of the cognitive function of the subject S, etc., based on the measured reactivity. Then, in step S4, the measurement unit 15b outputs the measurement results, such as the reactivity measurement results and the possibility of disease, to the terminal device 2 of the subject S via the communication unit 14.

このような測定を定期的に実施することで、記録された被検者Sの過去と現在の反応信号Sa1およびSa2を、音波信号Sbに基づいて比較することにより、認知機能の低下を科学的に記録して評価することが可能になる。さらに、被検者Sが認知症を発症した場合、被検者Sの記録されたデータを同じ方法で測定した他の健常者のデータと正確に比較することも可能になる。 By regularly performing such measurements, we can scientifically evaluate the decline in cognitive function by comparing the recorded past and present reaction signals Sa1 and Sa2 of the subject S based on the sound wave signal Sb. can be recorded and evaluated. Furthermore, if the subject S develops dementia, it becomes possible to accurately compare the recorded data of the subject S with data of other healthy subjects measured using the same method.

(実施の形態2)
以下、本開示の実施の形態2について説明する。ここでは、上記の実施の形態1との相違点を中心に説明し、上記の実施の形態1との共通点については、共通の参照符号を使用して、その詳細な説明を省略する。
(Embodiment 2)
Hereinafter, a second embodiment of the present disclosure will be described. Here, the differences from the first embodiment will be mainly described, and common reference numerals will be used to denote common features with the first embodiment, and detailed descriptions thereof will be omitted.

上記の実施の形態1では、測定部15bは、被検者Sの目の反応性を測定したが、被検者Sの反応性を測定することができればよく、これに限られるものではない。
例えば、測定部15bは、被検者Sの手の反応性を測定してもよい。また、測定部15bは、手の反応性に基づいてパーキンソン病などの疾患を判定してもよい。
In the above-mentioned first embodiment, the measurement unit 15b measures the reactivity of the eye of the subject S, but it is not limited to this as long as it is possible to measure the reactivity of the subject S.
For example, the measurement unit 15b may measure the reactivity of the hand of the subject S. Furthermore, the measurement unit 15b may determine whether or not a disease such as Parkinson's disease is present based on the reactivity of the hand.

図11に、本実施の形態の概要を示す。本実施の形態は、端末装置2が、基準信号と測定情報を連動して測定空間Rに出力し、その測定情報に対する被検者Sの手の反応を示す反応信号を、基準信号を含む受信音と共に取得する。続いて、測定装置4が、受信音に含まれる手の反応信号と基準信号とを抽出する。そして、測定装置4は、手の反応信号と基準信号に基づいて被検者Sの手の反応性を測定し、その測定結果を端末装置2に出力する。 FIG. 11 shows an overview of this embodiment. In this embodiment, the terminal device 2 outputs a reference signal and measurement information in conjunction with each other to the measurement space R, and receives a reaction signal including the reference signal indicating the reaction of the hand of the subject S to the measurement information. Acquire with sound. Subsequently, the measuring device 4 extracts the hand reaction signal and the reference signal included in the received sound. Then, the measuring device 4 measures the hand reactivity of the subject S based on the hand reaction signal and the reference signal, and outputs the measurement result to the terminal device 2.

例えば、図12に示すように、端末装置2のUI12は、検出部21を含んでもよい。この検出部21は、把持部22と、5つの検出ボタン23と、スピーカ24とを有する。 For example, as shown in FIG. 12, the UI 12 of the terminal device 2 may include a detection unit 21. This detection section 21 has a grip section 22, five detection buttons 23, and a speaker 24.

把持部22は、被検者Sが手で把持する部分であり、棒状に延びるように形成されている。
検出ボタン23は、被検者Sが指で押下するためのもので、指の位置に対応して配置されている。5つの検出ボタン23は、それぞれ、被検者Sにより指で押下されたとき、反応音を測定空間Rに出力するようにスピーカ24を制御する。この反応音は、例えば、検出ボタン23ごとに異なる周波数帯の音が出力されるように構成されてもよい。また、検出ボタン23の反応音は、音波信号Sbと異なる周波数帯の反応信号Scとして測定空間Rに出力されてもよい。
The grip portion 22 is a portion that the subject S grips with his/her hand, and is formed so as to extend in a rod shape.
The detection buttons 23 are to be pressed by the subject S with the fingers, and are arranged corresponding to the positions of the fingers. When the five detection buttons 23 are pressed by the subject S with the fingers, the five detection buttons 23 each control the speaker 24 to output a reaction sound into the measurement space R. For example, the reaction sound may be configured so that a sound of a different frequency band is output for each detection button 23. Furthermore, the reaction sound of the detection buttons 23 may be output into the measurement space R as a reaction signal Sc of a different frequency band from the sound wave signal Sb.

さらに、検出部21には、図示しない平行センサや振動センサなどが内蔵されている。平行センサは、手の平行度や傾きを検出するセンサである。また、振動センサは、手の震えを検出するセンサである。平行センサおよび振動センサで検出された検出信号は、電気信号ケーブルを経由してプロセッサ11のデータ処理部11bに出力される。なお、検出部21は、端末装置2と電気信号ケーブルにより物理的に接続されてもよいし、無線通信により接続されてもよい。 The detection unit 21 further includes a parallel sensor and a vibration sensor (not shown). The parallel sensor is a sensor that detects the parallelism and inclination of the hand. The vibration sensor is a sensor that detects the trembling of the hand. The detection signals detected by the parallel sensor and the vibration sensor are output to the data processing unit 11b of the processor 11 via an electric signal cable. The detection unit 21 may be physically connected to the terminal device 2 via an electric signal cable, or may be connected via wireless communication.

次に、本実施の形態の動作について説明する。 Next, we will explain the operation of this embodiment.

まず、実施の形態1と同様に、出力制御部11aの制御の下、UI12のスピーカ12aから測定空間Rに音波信号Sbが出力され、この音波信号Sbの出力に連動して測定動画がディスプレイ12bに表示される。 First, as in the first embodiment, under the control of the output control unit 11a, a sound wave signal Sb is output from the speaker 12a of the UI 12 to the measurement space R, and a measurement video is displayed on the display 12b in conjunction with the output of this sound wave signal Sb.

ここで、測定動画の一例を説明する。
例えば、図13に示すように、測定動画M1には、四角形状の複数の変化部M1aが表示される。また、「変化部M1aに赤色が表示されたら検出ボタン23を押してください」との指示が、例えば音声と文字で被検者Sに出力される。そして、複数の変化部M1aが、不定期に順次赤色に変化することにより、被検者Sの手の反応を誘導する。なお、測定は、左右同時でなく、左手と右手に分けて測定するよう、測定動画M1と指示を構成してもよい。
Here, an example of the measurement video will be described.
For example, as shown in Fig. 13, a plurality of rectangular change parts M1a are displayed in the measurement video M1. An instruction such as "When the change parts M1a are displayed in red, press the detection button 23" is output to the subject S, for example, by voice and text. The plurality of change parts M1a then change to red in sequence at irregular intervals, thereby inducing a reaction from the hand of the subject S. Note that the measurement video M1 and the instruction may be configured so that the measurement is not performed simultaneously on both the left and right hands, but is performed separately on the left and right hands.

図12に示すように、被検者Sは、検出部21の把持部22を把持しており、変化部M1aの表示の変化に応じて検出ボタン23を指で押下する。すると、検出ボタン23の押下に応じてスピーカ24より反応信号Scを出力する。また、検出部21に内蔵された振動センサなどが、被検者Sの手の震えなどを常時検出し、その検出信号をデータ処理部11bに出力する。なお、反応信号Scは、例えば、音波信号Sbより低い周波数、例えば人の可聴領域に含まれる周波数の音波信号から構成されてもよい。
そして、マイクロフォン12dが、実施の形態1と同様に、測定空間Rに出力された音波信号Sbと反応信号Scを含む受信音を受信し、その受信音をデータ処理部11bに出力する。
12, the subject S holds the gripping portion 22 of the detection unit 21, and presses the detection button 23 with his/her finger in response to a change in the display of the change portion M1a. Then, a response signal Sc is output from the speaker 24 in response to the pressing of the detection button 23. In addition, a vibration sensor or the like built into the detection unit 21 constantly detects the trembling of the subject S's hand, and outputs the detection signal to the data processing unit 11b. Note that the response signal Sc may be composed of, for example, a sound wave signal having a frequency lower than that of the sound wave signal Sb, for example, a frequency included in the human audible range.
Then, similarly to the first embodiment, the microphone 12d receives the received sound including the sound wave signal Sb and the response signal Sc outputted to the measurement space R, and outputs the received sound to the data processing unit 11b.

データ処理部11bは、検出部21で検出された検出信号と、マイクロフォン12dから入力された受信音とを対応付けて検知データを生成する。なお、この測定実施前に、例えば、図8に示すような4つの基準点Pを順次赤色に点滅させ、被検者Sが検出ボタン23を押すように誘導して、検出部21の検出信号と反応信号Scの出力に誤差がないか、確認してから測定を実施してもよい。このように、検出信号と受信音を対応付けることにより、音波信号Sbを介して、被検者Sの手の反応信号Scおよび検出信号を測定動画M1に対応付けることができる。
そして、検知データはデータ処理部11bを経由して、通信部13から通信システム3を介して測定装置4に出力される。そして、検知データは、通信部14を介してプロセッサ15の取得部15aに入力される。
The data processing unit 11b generates detection data by associating the detection signal detected by the detection unit 21 with the received sound input from the microphone 12d. Before the measurement, for example, four reference points P as shown in FIG. 8 may be sequentially flashed in red to induce the subject S to press the detection button 23, and the measurement may be performed after checking whether there is an error in the detection signal and the reaction signal Sc output from the detection unit 21. In this way, by associating the detection signal with the received sound, the reaction signal Sc and the detection signal of the hand of the subject S can be associated with the measurement video M1 via the sound wave signal Sb.
The detection data is then output via the data processing unit 11b to the communication unit 13 and the communication system 3 to the measuring device 4. The detection data is then input to the acquisition unit 15a of the processor 15 via the communication unit .

取得部15aは、検知データに含まれる受信音から音波信号Sbと反応信号Scを抽出する。これにより、図14に示すように、被検者Sの手の反応信号Scを音波信号Sbに対応付けたデータが取得される。ここでは、1本の指の反応信号Scのみを示している。そして、測定部15bが、取得部15aで取得された反応信号Scと音波信号Sbに基づいて、被検者Sの手の反応性を測定する。例えば、測定部15bは、音波信号Sbに基づいて、被検者Sの反応信号Scを、他の被検者の反応信号と比較することにより、被検者Sの手の反応性を測定する。 The acquisition unit 15a extracts the sound wave signal Sb and the reaction signal Sc from the received sound included in the detection data. As a result, data is acquired in which the reaction signal Sc of the subject S's hand is associated with the sound wave signal Sb, as shown in FIG. 14. Here, only the reaction signal Sc of one finger is shown. The measurement unit 15b then measures the reactivity of the subject S's hand based on the reaction signal Sc and the sound wave signal Sb acquired by the acquisition unit 15a. For example, the measurement unit 15b measures the reactivity of the subject S's hand by comparing the reaction signal Sc of the subject S with the reaction signals of other subjects based on the sound wave signal Sb.

このとき、測定部15bは、測定空間Rに出力される音波信号Sbと、音波信号Sbの出力に連動して測定空間Rに出力される測定動画Mに対する被検者Sの反応を示す反応信号Scとに基づいて、被検者Sの反応性を測定する。この反応信号Scは、測定空間Rから測定動画M1と同期的に取得された音波信号Sbを介して、測定動画M1の時間的な位置と正確に対応付けられている。このため、他の被検者の反応信号と比較することにより、被検者Sの手の反応性をより正確に測定することができる。 At this time, the measurement unit 15b measures the reactivity of the subject S based on the sound wave signal Sb output to the measurement space R and the reaction signal Sc indicating the reaction of the subject S to the measurement video M output to the measurement space R in conjunction with the output of the sound wave signal Sb. This reaction signal Sc is accurately associated with the temporal position of the measurement video M1 via the sound wave signal Sb acquired from the measurement space R in synchronization with the measurement video M1. Therefore, by comparing with the reaction signals of other subjects, the reactivity of the hand of the subject S can be measured more accurately.

また、測定部15bは、被検者Sの手の反応性に基づいて、パーキンソン病などの疾患を判定してもよい。一般的に、パーキンソン病などの疾患では、健常者と比較して、例えば手の開閉の反応の遅れなどの症状が現れる。そこで、測定部15bは、被検者Sの手の反応性に基づいて、パーキンソン病などの疾患の可能性を判定してもよい。 The measurement unit 15b may also determine whether the subject S has a disease such as Parkinson's disease based on the reactivity of the subject S's hand. Generally, compared to healthy individuals, a disease such as Parkinson's disease exhibits symptoms such as delayed reaction to opening and closing the hand. Therefore, the measurement unit 15b may determine the possibility of a disease such as Parkinson's disease based on the reactivity of the subject S's hand.

また、一般的に、パーキンソン病などの疾患では、震えや筋固縮などの症状が現れる。そこで、測定部15bは、手の反応性に加えて、検出部21に内蔵された振動センサなどから得られる検出信号に基づいて被検者Sの手の震えを測定することにより、パーキンソン病などの疾患の可能性を判定してもよい。 Additionally, diseases such as Parkinson's disease generally cause symptoms such as tremors and muscle rigidity. Therefore, the measuring unit 15b measures the hand tremor of the subject S based on the detection signal obtained from the vibration sensor built into the detecting unit 21 in addition to the hand reactivity, thereby detecting Parkinson's disease, etc. The possibility of disease may be determined.

なお、図15に示すように、端末装置2は、測定情報に対する被検者Sの手の反応を示す反応信号と、目の反応を撮影した撮影動画と、検出部21で検出された検出信号とを基準信号を含む受信音と共に取得してもよい。これにより、測定装置4は、基準信号と、手の反応信号と、目の反応信号と、検出信号とを取得する。そして、測定装置4は、手および目の反応信号と基準信号と検出信号に基づいて被検者Sの反応性を測定する。
このとき、取得部15aは、図16に示すように、被検者Sの目の反応信号Sa1およびSa2と手の反応信号Scとを音波信号Sbに対応付けたデータが取得される。例えば、測定部15bは、音波信号Sbに基づいて同じ時間的な位置で、被検者Sの反応信号Sa1およびSa2と反応信号Scを、他の被検者の目の反応信号および手の反応信号とそれぞれ比較することにより、被検者Sの目と手の反応性を測定してもよい。また、測定部15bは、目と手の反応性および手の振動に基づいて、パーキンソン病などの被検者Sの特定の疾患や疾患の進行度合いを判定してもよい。
As shown in FIG. 15, the terminal device 2 receives a reaction signal indicating the reaction of the hand of the subject S to the measurement information, a photographed video of the eye reaction, and a detection signal detected by the detection unit 21. may be acquired together with the received sound including the reference signal. Thereby, the measuring device 4 acquires the reference signal, the hand reaction signal, the eye reaction signal, and the detection signal. Then, the measuring device 4 measures the reactivity of the subject S based on the hand and eye reaction signals, the reference signal, and the detection signal.
At this time, the acquisition unit 15a acquires data in which the eye reaction signals Sa1 and Sa2 and the hand reaction signal Sc of the subject S are associated with the sound wave signal Sb, as shown in FIG. For example, the measuring unit 15b may measure the reaction signals Sa1 and Sa2 and the reaction signal Sc of the subject S at the same temporal position based on the sound wave signal Sb, and the reaction signals of the eyes and hands of other subjects. The reactivity of the eyes and hands of the subject S may be measured by comparing the signals with each other. Furthermore, the measurement unit 15b may determine a specific disease of the subject S, such as Parkinson's disease, or the degree of progression of the disease, based on the reactivity of the eyes and hands and the vibration of the hand.

なお、前述では、検出部21を使用して被検者Sの反応性を測定したが、端末装置2のディスプレイ12bに検出部21を一体的に配置(例えばタッチパネルなど)し、ディスプレイ12bを手で触れることで、検出部21を使用せずに、被検者Sの反応性を直接測定してもよい。例えば、端末装置2は、測定動画M1の変化部M1aが赤色で表示された時に、その赤色で表示された箇所を指で触れるように被検者Sに指示する。これにより、端末装置2は、被検者Sの手の反応信号Scをディスプレイ12bから取得してもよい。また、端末装置2は、この測定中に、端末装置2に設けられた平行センサおよび振動センサから検出信号を取得してもよい。そして、データ処理部11bは、端末装置2で検出された検出信号および反応信号Scと、カメラ12cで撮影された撮影動画と、マイクロフォン12dから入力された受信音とを対応付けて検知データを生成してもよい。 Note that in the above, the reactivity of the subject S was measured using the detection unit 21, but the detection unit 21 is integrally arranged on the display 12b of the terminal device 2 (for example, a touch panel), and the display 12b is manually operated. The reactivity of the subject S may be directly measured by touching the test subject S without using the detection unit 21. For example, when the changing portion M1a of the measurement video M1 is displayed in red, the terminal device 2 instructs the subject S to touch the portion displayed in red with a finger. Thereby, the terminal device 2 may acquire the reaction signal Sc of the subject's S hand from the display 12b. Further, during this measurement, the terminal device 2 may acquire detection signals from a parallel sensor and a vibration sensor provided in the terminal device 2. Then, the data processing unit 11b generates detection data by associating the detection signal and reaction signal Sc detected by the terminal device 2, the captured video captured by the camera 12c, and the received sound input from the microphone 12d. You may.

本実施の形態によれば、測定部15bは、測定空間Rに出力された音波信号Sbと、音波信号Sbの出力に連動して測定空間Rに出力された測定動画M1に対する被検者Sの手の反応を示す反応信号Scとに基づいて、被検者Sの手の反応性を測定する。この反応信号Scは、測定空間Rから測定動画M1と同期的に取得された音波信号Sbを介して、測定動画M1と高精度に対応付けられるため、被検者Sの手の反応性を正確に測定することができる。 According to the present embodiment, the measurement unit 15b measures the sound wave signal Sb output to the measurement space R and the measurement video M1 output to the measurement space R in conjunction with the output of the sound wave signal Sb. The reactivity of the hand of the subject S is measured based on the reaction signal Sc indicating the reaction of the hand. This reaction signal Sc can be correlated with the measurement video M1 with high precision via the sound wave signal Sb acquired from the measurement space R synchronously with the measurement video M1, so the reactivity of the hand of the subject S can be accurately determined. can be measured.

(実施の形態3)
以下、本開示の実施の形態3について説明する。ここでは、上記の実施の形態1および2との相違点を中心に説明し、上記の実施の形態1および2との共通点については、共通の参照符号を使用して、その詳細な説明を省略する。
(Embodiment 3)
Embodiment 3 of the present disclosure will be described below. Here, we will mainly explain the differences from the above embodiments 1 and 2, and common points with the above embodiments 1 and 2 will be described in detail using common reference numerals. Omitted.

上記の実施の形態1および2では、測定部15bは、認知症などの被検者Sの特定の疾患を判定したが、被検者Sの反応性に基づいて判定することができればよく、これに限られるものではない。 In the above-mentioned first and second embodiments, the measurement unit 15b judges a specific disease of the subject S, such as dementia, but it is not limited to this as long as the judgment can be made based on the reactivity of the subject S.

例えば、測定部15bは、被検者Sの反応性に基づいて、反射神経の向上を判定してもよい。例えば、野球選手は、打席でボールを打つときに反射神経(例えば、体の反射神経、動体視力など)が重要と考えられている。しかしながら、反射神経を向上させる様々な方法(例えば質の良い睡眠の摂取、トレーニング方法など)が提案されているが、選手のコンディションは日々変化しており、その効果と変化を試合中などに短時間で正確に測定して評価することは困難であった。 For example, the measurement unit 15b may determine whether the reflexes have improved based on the reactivity of the subject S. For example, reflexes (eg, body reflexes, dynamic visual acuity, etc.) are considered important for baseball players when hitting a ball at bat. However, although various methods have been proposed to improve reflexes (e.g., intake of good quality sleep, training methods, etc.), the conditions of athletes change daily, and their effects and changes can be easily evaluated during matches. It was difficult to accurately measure and evaluate in terms of time.

そこで、反射神経を向上させる方法を試す前と後、例えば薬品の摂取前と摂取後で、実施の形態1および2と同様に、端末装置2が選手の目と手の反応を検知する。続いて、測定装置4の取得部15aが、例えば図16に示すように、音波信号Sbに対応付けられた選手の反応信号Sa1,Sa2およびScを取得して記録する。そして、測定部15bが、音波信号Sbに基づいて、記録された反応信号Sa1,Sa2およびScを比較することにより、トレーニングの実施前と実施後の反射神経の向上を判定する。この判定結果により、その選手に対するトレーニングの効果を評価することができる。 Therefore, as in the first and second embodiments, the terminal device 2 detects the reactions of the athlete's eyes and hands before and after trying the method for improving reflexes, for example, before and after ingesting the medicine. Subsequently, the acquisition unit 15a of the measuring device 4 acquires and records the athlete's reaction signals Sa1, Sa2, and Sc associated with the sound wave signal Sb, as shown in FIG. 16, for example. Then, the measurement unit 15b compares the recorded reaction signals Sa1, Sa2, and Sc based on the sound wave signal Sb, thereby determining the improvement in reflexes before and after the training. Based on this determination result, it is possible to evaluate the effectiveness of training for the athlete.

なお、本実施形態では、測定部15bは、反射神経を向上させる方法を試す前と後の反応信号に基づいて反射神経の向上を判定したが、これに限られるものではない。例えば、測定部15bは、音波信号Sbに基づいて、複数の野球選手の反応信号Sa1,Sa2およびScを比較することにより、チーム内の各選手の反射神経の状態を判定してもよい。この判定結果から試合や代打に起用する選手を見分けることができる。 Note that in the present embodiment, the measurement unit 15b determines whether the reflexes have improved based on the reaction signals before and after trying the method for improving reflexes, but the method is not limited thereto. For example, the measurement unit 15b may determine the reflex state of each player on the team by comparing the reaction signals Sa1, Sa2, and Sc of a plurality of baseball players based on the sound wave signal Sb. Based on the results of this judgment, it is possible to identify players to be used in games or as pinch hitters.

本実施の形態によれば、測定部15bは、被検者S(選手)の反応性に基づいて被検者Sの反射神経の状態を正確に数値で示すことができる。 According to this embodiment, the measurement unit 15b can accurately indicate the state of the reflexes of the subject S (athlete) in numerical form based on the reactivity of the subject S.

(実施の形態4)
以下、本開示の実施の形態4について説明する。ここでは、上記の実施の形態1~3との相違点を中心に説明し、上記の実施の形態1~3との共通点については、共通の参照符号を使用して、その詳細な説明を省略する。
(Embodiment 4)
Hereinafter, a fourth embodiment of the present disclosure will be described. Here, the differences from the first to third embodiments will be mainly described, and common reference numerals will be used for common points with the first to third embodiments, and detailed descriptions thereof will be omitted.

測定部15bは、被検者Sの反応性に基づいて、被検者Sの運転適性を判定してもよい。例えば、車の運転手は、運転環境に対する目の反応、ブレーキなどを操作する足の反応、ハンドルなどを操作する手の反応、外部の音などに対する聴覚の反応などが重要と考えられる。 The measurement unit 15b may determine the driving aptitude of the subject S based on the responsiveness of the subject S. For example, for a car driver, the response of the eyes to the driving environment, the response of the feet to operate the brakes, etc., the response of the hands to operate the steering wheel, etc., and the hearing response to external sounds, etc. are considered to be important.

そこで、図17に示すように、端末装置2は、測定情報に対する被検者Sの足の反応信号と、手の反応信号と、耳(聴覚)の反応信号と、目の反応を撮影した撮影動画とを、基準信号を含む受信音と共に取得する。これにより、測定装置4は、基準信号と、目の反応信号と、足の反応信号と、手の反応信号と、耳の反応信号とを取得する。そして、測定装置4は、目、足、手および耳の反応信号と基準信号に基づいて被検者Sの運転適性を測定する。 Therefore, as shown in FIG. 17, the terminal device 2 takes pictures of the foot reaction signals, hand reaction signals, ear (auditory) reaction signals, and eye reactions of the subject S in response to the measurement information. A moving image is acquired together with received sound including a reference signal. Thereby, the measuring device 4 acquires the reference signal, the eye reaction signal, the foot reaction signal, the hand reaction signal, and the ear reaction signal. Then, the measuring device 4 measures the driving aptitude of the subject S based on the reaction signals of the eyes, feet, hands, and ears and the reference signal.

具体的には、端末装置2は、実施の形態1と同様に、測定動画に対する運転手(被検者S)の目の反応を撮影した撮影動画を取得してもよい。ここで、端末装置2は、例えば、運転シミュレータを用いてもよい。また、測定動画は、例えば、運転シミュレータの操作に応じて変化する動画をディスプレイ12bに表示してもよい。続いて、測定装置4の取得部15aが、撮影動画と受信音から運転手の目の反応信号Saと音波信号Sbとを取得する。そして、測定部15bが、音波信号Sbに基づいて、運転手の目の反応信号Saを、他の運転手(例えば運転能力を有する運転手と運転能力を欠いた運転手)の目の反応信号と比較することにより、測定動画に対する運転手の目の反応性を判定する。測定部15bは、この判定結果に基づいて、運転中の視線を評価することができる。 Specifically, as in the first embodiment, the terminal device 2 may acquire a photographed video of the reaction of the driver's (subject S) eyes to the measurement video. Here, the terminal device 2 may use a driving simulator, for example. Further, the measurement video may be displayed on the display 12b, for example, a video that changes depending on the operation of the driving simulator. Subsequently, the acquisition unit 15a of the measuring device 4 acquires the driver's eye reaction signal Sa and the sound wave signal Sb from the photographed video and the received sound. The measurement unit 15b then converts the driver's eye reaction signal Sa to the eye reaction signal Sa of other drivers (for example, a driver with driving ability and a driver lacking driving ability) based on the sonic signal Sb. The reactivity of the driver's eyes to the measured video is determined by comparing with the measured video. The measurement unit 15b can evaluate the line of sight during driving based on this determination result.

また、端末装置2は、測定動画に対する運転手の足の反応信号を取得してもよい。例えば、検出部21を運転シミュレータのフットブレーキに配置し、ブレーキ操作に応じた足の反応信号(反応音)が検出ボタン23(例えばブレーキ)の押下に応じてスピーカ24より出力されてもよい。また、検出部21を運転シミュレータのアクセルに配置し、アクセル操作に応じた足の反応信号(反応音)が検出ボタン23(例えばアクセル)の押下に応じてスピーカ24より出力されてもよい。これにより、測定装置4の取得部15aが、足の反応信号と音波信号Sbとを取得する。そして、測定部15bが、音波信号Sbに基づいて、運転手の足の反応信号を、他の運転手の足の反応信号と比較することにより、測定動画に対する運転手の足の反応性を判定してもよい。これにより、測定部15bは、ブレーキ操作の反応時間またはアクセル操作の反応時間を評価することができる。 Furthermore, the terminal device 2 may acquire reaction signals of the driver's feet in response to the measurement video. For example, the detection unit 21 may be placed in a foot brake of a driving simulator, and a foot reaction signal (reaction sound) in response to a brake operation may be output from the speaker 24 in response to a press of the detection button 23 (for example, brake). Alternatively, the detection unit 21 may be placed on the accelerator of the driving simulator, and a foot reaction signal (reaction sound) corresponding to the accelerator operation may be output from the speaker 24 in response to the depression of the detection button 23 (for example, the accelerator). Thereby, the acquisition unit 15a of the measuring device 4 acquires the foot reaction signal and the sound wave signal Sb. Then, the measurement unit 15b determines the reactivity of the driver's feet to the measurement video by comparing the reaction signals of the driver's feet with the reaction signals of other drivers' feet based on the sound wave signal Sb. You may. Thereby, the measurement unit 15b can evaluate the reaction time of the brake operation or the reaction time of the accelerator operation.

また、端末装置2は、実施の形態2と同様に測定動画に対する運転手の手の反応信号Scを取得してもよい。例えば、検出部21を運転シミュレータのハンドルに配置し、ハンドル操作に応じた手の反応信号が検出部21の平行センサなどから電気信号ケーブルを経由してデータ処理部11bに出力されてもよい。これにより、測定装置4の取得部15aが、手の反応信号Scと音波信号Sbとを取得する。そして、測定部15bが、音波信号Sbに基づいて、運転手の手の反応信号Scを、他の運転手の反応信号と比較することにより、測定動画に対する運転手の手の反応性を判定してもよい。なお、ブレーキ、アクセルなどの各反応音は、音波信号Sbと異なる周波数帯の反応信号として測定空間Rに出力されてもよい。これにより、測定部15bは、運転時における被検者Sの複数の反応性を正確に測定して評価することができる。 Further, the terminal device 2 may acquire the reaction signal Sc of the driver's hand to the measurement video similarly to the second embodiment. For example, the detection section 21 may be placed on a steering wheel of a driving simulator, and a hand reaction signal corresponding to the steering wheel operation may be outputted from a parallel sensor of the detection section 21 to the data processing section 11b via an electric signal cable. Thereby, the acquisition unit 15a of the measuring device 4 acquires the hand reaction signal Sc and the sound wave signal Sb. Then, the measurement unit 15b determines the reactivity of the driver's hand with respect to the measurement video by comparing the reaction signal Sc of the driver's hand with the reaction signal of other drivers based on the sonic signal Sb. It's okay. Note that each reaction sound such as a brake or an accelerator may be outputted to the measurement space R as a reaction signal in a frequency band different from that of the sound wave signal Sb. Thereby, the measurement unit 15b can accurately measure and evaluate multiple reactivity of the subject S during driving.

また、端末装置2は、被検者Sの可聴領域内の測定音を測定情報として測定空間Rに出力し、この測定音に対する運転手の聴覚を測定してもよい。ここで、測定音は、例えば、クラクション音などを用いてもよい。運転手は、測定音が聞こえたとき、測定音が鳴った方向を確認することが必要であることから、このときの運転手の目の反応信号Saを耳の反応信号として撮影動画から取得する。そして、測定部15bが、音波信号Sbに基づいて、運転手の目の反応信号を測定することにより、測定動画の測定音に対する運転手の聴覚の反応性を判定してもよい。これにより、測定部15bは、運転に必要な聴力を有しているのか評価することができる。 The terminal device 2 may also output a test sound within the audible range of the subject S to the measurement space R as measurement information, and measure the driver's hearing in response to this test sound. Here, the test sound may be, for example, a horn sound. When the driver hears the test sound, it is necessary for him or her to check the direction from which the test sound is coming, so the driver's eye response signal Sa at this time is obtained as an ear response signal from the captured video. Then, the measurement unit 15b may determine the responsiveness of the driver's hearing to the test sound in the measurement video by measuring the driver's eye response signal based on the sound wave signal Sb. This allows the measurement unit 15b to evaluate whether the driver has the hearing required for driving.

このように、測定部15bは、運転手の反応性に基づいて、運転手の運転能力を正確に判定することができる。例えば、高齢者の運転免許の更新などにおいて運転能力を判定することで、運転免許の更新を適切に行うことができる。 In this way, the measurement unit 15b can accurately determine the driving ability of the driver based on the driver's responsiveness. For example, by determining the driving ability of an elderly person when renewing their driver's license, the license can be appropriately renewed.

本実施の形態によれば、測定部15bは、運転手の反応性に基づいて運転手の運転能力を正確に判定することができる。 According to this embodiment, the measurement unit 15b can accurately determine the driving ability of the driver based on the driver's reactivity.

(実施の形態5)
以下、本開示の実施の形態6について説明する。ここでは、上記の実施の形態1~4との相違点を中心に説明し、上記の実施の形態1~4との共通点については、共通の参照符号を使用して、その詳細な説明を省略する。
(Embodiment 5)
Hereinafter, a sixth embodiment of the present disclosure will be described. Here, the differences from the first to fourth embodiments will be mainly described, and common reference numerals will be used for common points with the first to fourth embodiments, and detailed descriptions thereof will be omitted.

上記の実施の形態1~4では、機械学習モデルを利用して、音波信号Sbと反応信号から被検者Sの反応を測定したが、このような機械学習モデルは、以下のように生成することが可能である。 In the above first to fourth embodiments, a machine learning model was used to measure the response of the subject S from the sound wave signal Sb and the response signal, but such a machine learning model can be generated as follows.

例えば、図18に示すモデル生成装置61によって機械学習モデルを生成してもよい。モデル生成装置61は、バスBを介して相互接続される通信部14と、プロセッサ62と、記憶部16と、ユーザインタフェース(UI)17とをハードウェア構成として有する。なお、通信部14、記憶部16およびUI17は、測定装置4と同様の構成であるため説明を省略する。 For example, a machine learning model may be generated by a model generation device 61 shown in FIG. The model generation device 61 has a communication section 14, a processor 62, a storage section 16, and a user interface (UI) 17 that are interconnected via a bus B as a hardware configuration. Note that the communication unit 14, storage unit 16, and UI 17 have the same configuration as the measuring device 4, so a description thereof will be omitted.

プロセッサ62は、1つ以上のプロセッサコアから構成されうる1つ以上のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、処理回路(processing circuitry)等によって実現されてもよい。プロセッサ62は、記憶部16に格納されたプログラム、指示、当該プログラム若しくは指示を実行するのに必要なパラメータなどのデータ等に従って、後述されるモデル生成装置61の各種機能及び処理を実行する。本実施例によるプロセッサ62は、取得部62aと、訓練部62bとを実現する。 The processor 62 may be realized by one or more CPUs (Central Processing Units), GPUs (Graphics Processing Units), processing circuits, etc. that may be configured from one or more processor cores. The processor 62 executes various functions and processes of the model generation device 61, which will be described later, in accordance with programs, instructions, and data such as parameters necessary to execute the programs or instructions stored in the storage unit 16. The processor 62 according to this embodiment implements an acquisition section 62a and a training section 62b.

取得部62aは、機械学習モデルを訓練するための訓練データを取得する。この訓練データは、測定空間Rに出力された基準信号(例えば、音波信号Sb)と、基準信号の出力に連動して測定空間Rに出力される測定情報(例えば、測定動画)に対する複数の被検者Sの反応を示す反応信号と、複数の被検者の状態を専門家が「正常」か「異常」かなどと判定した判定結果とが含まれる。 The acquisition unit 62a acquires training data for training a machine learning model. This training data includes multiple subjects for a reference signal (for example, a sound wave signal Sb) output to the measurement space R and measurement information (for example, a measurement video) that is output to the measurement space R in conjunction with the output of the reference signal. It includes a reaction signal indicating the reaction of the examiner S, and determination results of the experts determining whether the conditions of the plurality of subjects are "normal" or "abnormal."

ここで、専門家は、認知症などの疾患を判定する場合には、医師などが該当する。例えば、医師は、被検者に認知症の傾向があると判定した場合には、脳のMRI(Magnetic Resonance Imaging)検査または脳のCT(Computed Tomography)検査などの検査を行い、各被検者が認知症か否かを判定してもよい。 Here, when determining a disease such as dementia, the expert is a doctor or the like. For example, if a doctor determines that a subject has a tendency toward dementia, a doctor may perform a brain MRI (Magnetic Resonance Imaging) test or a brain CT (Computed Tomography) test, etc., and examine each subject. It may also be determined whether the person has dementia or not.

訓練部62bは、取得部62aで取得された基準信号に基づいて複数の被検者Sの反応信号を、例えば時間的な位置を合わせるように対応付ける。そして、訓練部62bは、対応付けられた反応信号と判定結果とを組み合わせたデータセットに基づいて、機械学習モデルを機械学習することで、訓練済み機械学習モデルを生成する。 The training unit 62b associates the reaction signals of the multiple subjects S based on the reference signal acquired by the acquisition unit 62a, for example by aligning their temporal positions. Then, the training unit 62b generates a trained machine learning model by machine learning the machine learning model based on a data set that combines the associated reaction signals and the judgment results.

次に、本実施の形態の動作について、図19に示すフローチャートを参照して説明する。 Next, the operation of this embodiment will be described with reference to the flowchart shown in FIG.

まず、実施の形態1と同様に、ステップS1で、端末装置2が、測定動画Mを表示し、この測定動画Mの表示に連動して音波信号Sbを測定空間Rに出力する。端末装置2は、被検者Sの目の反応を撮影した撮影動画と音波信号Sbとを同期的に取得すると、これらを対応付けた検知データを生成する。 First, as in the first embodiment, in step S1, the terminal device 2 displays a measurement video M and outputs a sound wave signal Sb to the measurement space R in conjunction with the display of the measurement video M. The terminal device 2 synchronously acquires a captured video of the eye reaction of the subject S and the sound wave signal Sb, and generates detection data that associates these.

このようにして、生成された複数の被検者Sの検知データは、モデル生成装置61の取得部62aに、通信部14またはUI17を介してそれぞれ入力される。取得部62aは、ステップS21で、検知データから、被検者Sの目の動きを示す反応信号Saと、音波信号Sbとを抽出して訓練データを取得する。このとき、取得部62aには、例えば、医師により診断された被検者Sに対する「正常」か「異常」かの判定結果が訓練データとして入力される。さらに、判定結果は、認知症の種類、進行度合などの他の情報を含んでいてもよい。 In this way, the generated detection data of the plurality of subjects S are input to the acquisition unit 62a of the model generation device 61 via the communication unit 14 or the UI 17, respectively. In step S21, the acquisition unit 62a extracts a reaction signal Sa indicating the eye movement of the subject S and a sound wave signal Sb from the detection data to acquire training data. At this time, the determination result of whether the subject S is "normal" or "abnormal" diagnosed by a doctor is input to the acquisition unit 62a as training data, for example. Furthermore, the determination result may include other information such as the type of dementia and the degree of progression.

続いて、訓練部62bが、音波信号Sbに基づいて、複数の反応信号Saを同じ時間的な位置に対応付ける。そして、訓練部62bは、ステップS22で、対応付けられた反応信号Saと、各被検者Sの判定結果とを組み合わせたデータセットに基づいて、機械学習モデルを生成する。
このとき、複数の被検者Sの反応信号Saは、測定空間Rから測定動画Mと同期的に取得された音波信号Sbに基づいて高精度に比較することができる。すなわち、複数の被検者Sの反応信号Sは、音波信号Sbに基づいて、測定動画Mに対する時間的な位置が全て一致するため、非常に高い精度で比較して特徴を抽出することができる。このため、訓練部62bは、正確な判定結果(正常又は異常など)を出力する機械学習モデルを生成することができる。
Next, the training unit 62b associates the multiple reaction signals Sa with the same time position based on the sound wave signal Sb. Then, in step S22, the training unit 62b generates a machine learning model based on a data set combining the associated reaction signals Sa and the judgment results of each subject S.
At this time, the reaction signals Sa of the multiple subjects S can be compared with high accuracy based on the sound wave signal Sb acquired synchronously with the measurement video M from the measurement space R. That is, the reaction signals S of the multiple subjects S can be compared with very high accuracy and features can be extracted because the time positions of the reaction signals S of the multiple subjects S are all consistent with respect to the measurement video M based on the sound wave signal Sb. Therefore, the training unit 62b can generate a machine learning model that outputs an accurate judgment result (normal or abnormal, etc.).

なお、モデル生成装置61は、測定装置4に内蔵されてもよい。これにより、モデル生成装置61は、端末装置2から測定装置4に送信される反応信号Saと音波信号Sbに基づいて、機械学習モデルを生成することができる。また、モデル生成装置61と測定装置4が、端末装置2に内蔵されてもよい。これにより、モデル生成装置61は、端末装置2で取得される反応信号Saと音波信号Sbに基づいて、機械学習モデルを生成することができる。 Note that the model generation device 61 may be built into the measurement device 4. Thereby, the model generation device 61 can generate a machine learning model based on the reaction signal Sa and the sound wave signal Sb transmitted from the terminal device 2 to the measurement device 4. Further, the model generation device 61 and the measurement device 4 may be built into the terminal device 2. Thereby, the model generation device 61 can generate a machine learning model based on the reaction signal Sa and the sound wave signal Sb acquired by the terminal device 2.

本実施の形態によれば、訓練部62bは、測定空間Rに出力された音波信号Sbと、音波信号Sbの出力に連動して測定空間Rに出力された測定動画Mに対する被検者Sの反応を示す反応信号Saと、専門家による被検者Sに対する「正常」か「異常」かの判定結果とを入力とし、機械学習モデルを訓練する。このとき、反応信号Saは、測定空間Rから測定動画Mと同期的に取得された音波信号Sbに基づいて複数の訓練データを高精度に比較することができるため、正確な判定結果を出力する機械学習モデルを生成することができる。 According to the present embodiment, the training unit 62b is configured to train the subject S with respect to the sound wave signal Sb output to the measurement space R and the measurement video M output to the measurement space R in conjunction with the output of the sound wave signal Sb. A machine learning model is trained by inputting a reaction signal Sa indicating a reaction and a determination result of whether the subject S is "normal" or "abnormal" by an expert. At this time, since the reaction signal Sa can compare multiple training data with high precision based on the sound wave signal Sb acquired from the measurement space R synchronously with the measurement video M, accurate judgment results can be output. Machine learning models can be generated.

なお、上記の実施の形態1~5では、基準信号は、音波信号Sbから構成されたが、測定空間Rに出力される信号であればよく、これに限られるものではない。例えば、基準信号は、カメラ12cで撮影可能なディスプレイ12bに表示される光信号から構成してもよい。例えば、図20に示すように、実施の形態1のディスプレイ12bにミラー12eを配置し、測定動画Mと共に表示された光信号Sdをミラー12eでカメラ12cに投影してもよい。 In the first to fifth embodiments described above, the reference signal is composed of the sound wave signal Sb, but it may be any signal that is output to the measurement space R, and is not limited to this. For example, the reference signal may be composed of an optical signal displayed on the display 12b that can be photographed by the camera 12c. For example, as shown in FIG. 20, a mirror 12e may be arranged on the display 12b of the first embodiment, and the optical signal Sd displayed together with the measurement video M may be projected onto the camera 12c by the mirror 12e.

具体的には、光信号Sdは、測定動画Mの一部が特定のパターンで点滅するように構成してもよい。光信号Sdの点滅パターンは、測定動画Mの時間的な位置を示すように構成されており、測定動画Mに連動して測定空間Rに出力される。そして、光信号Sdは、ミラー12eで投影されることにより、被検者Sの反応と共にカメラ12cで撮影される。すなわち、光信号Sdは、被検者Sの反応を撮影するカメラ12cの撮影範囲にミラー12eで投影されることになる。なお、光信号Sdは、測定動画Mの全体を点滅させる必要はなく、測定動画Mの一部を点滅させればよい。これにより、データ処理部11bは、被検者Sの反応を撮影した撮影動画から基準信号(光信号Sd)を取得することができる。 Specifically, the light signal Sd may be configured so that a part of the measurement video M blinks in a specific pattern. The blinking pattern of the light signal Sd is configured to indicate a temporal position of the measurement video M, and is output to the measurement space R in conjunction with the measurement video M. The light signal Sd is then projected by the mirror 12e and photographed by the camera 12c together with the subject S's reaction. That is, the light signal Sd is projected by the mirror 12e into the shooting range of the camera 12c that photographs the subject S's reaction. Note that the light signal Sd does not need to blink the entire measurement video M, but only a part of the measurement video M may be blinked. This allows the data processing unit 11b to acquire a reference signal (light signal Sd) from the photographed video in which the subject S's reaction is photographed.

また、端末装置2は、複数の基準信号、例えば音波信号Sbと光信号Sdを測定空間Rに出力してもよい。端末装置2は、測定空間Rから取得された検知データから光信号Sdと音波信号Sbの基準信号を抽出することにより、検知データの撮影動画と受信音を正確に対応付けることができる。例えば、撮影動画と受信音の時間的な位置がずれている場合、端末装置2は、音波信号Sbと光信号Sdに基づいて、撮影動画と受信音を位置合わせし、被検者Sの反応信号を測定動画Mにより正確に対応付けることができる。また、測定中に取得された光信号Sdと音波信号Sbの時間的な位置がずれていた場合、端末装置2はディスプレイ12bに警告文で表示して、測定を中止することもできる。 Further, the terminal device 2 may output a plurality of reference signals, for example, a sound wave signal Sb and an optical signal Sd to the measurement space R. By extracting the reference signals of the optical signal Sd and the sound wave signal Sb from the detection data acquired from the measurement space R, the terminal device 2 can accurately associate the captured moving image of the detection data with the received sound. For example, when the temporal positions of the photographed video and the received sound are shifted, the terminal device 2 aligns the photographed video and the received sound based on the sound wave signal Sb and the optical signal Sd, and responds to the reaction of the subject S. The signal can be more accurately correlated with the measurement video M. Further, if the temporal positions of the optical signal Sd and the sound wave signal Sb acquired during measurement are shifted, the terminal device 2 can display a warning message on the display 12b and cancel the measurement.

また、上記の実施の形態1~5において、測定装置4は通信部14を介して、端末装置2に対して基準信号と測定動画Mを配信してもよい。例えば、測定装置4は、基準信号と測定動画Mをストリーミング配信、すなわち基準信号と測定動画Mを配信しつつ端末装置2は受信した測定情報を順次スピーカ12aとディスプレイ12bから出力されてもよい。
さらに、上記の実施の形態1~5において、端末装置2は通信部13を介して、測定装置4に対して、撮影動画と受信音を対応付けた検知データを配信してもよい。例えば、端末装置2は、検知データをストリーミング配信、すなわち撮影動画と受信音をカメラ12cとマイクロフォン12dから取得しつつ検知データを測定装置4に配信してもよい。
Furthermore, in the first to fifth embodiments described above, the measurement device 4 may distribute the reference signal and the measurement video M to the terminal device 2 via the communication unit 14. For example, the measuring device 4 may stream the reference signal and the measurement video M, that is, while delivering the reference signal and the measurement video M, the terminal device 2 may sequentially output the received measurement information from the speaker 12a and the display 12b.
Furthermore, in the first to fifth embodiments described above, the terminal device 2 may distribute detection data in which the captured video and the received sound are associated with each other to the measuring device 4 via the communication unit 13. For example, the terminal device 2 may stream the detection data, that is, may distribute the detection data to the measurement device 4 while acquiring the captured video and received sound from the camera 12c and the microphone 12d.

一般的に、測定情報または検知データをストリーミング配信する場合、ネット環境や機器処理速度などにより測定情報や検知データの配信及び再生が一時的に途切れたり停止したりするなどの現象が起きることがある。ここで、本開示では、測定情報に基準信号が連動して測定空間Rに出力される。これにより、測定情報または検知データの配信及び再生にて一時的な途切れや停止の不具合が生じた場合でも、基準信号に基づいて、測定情報または検知データにて問題が起きた時間的な位置を正確に把握することができる。 Generally, when streaming measurement information or detection data, phenomena such as the distribution and playback of measurement information or detection data may be temporarily interrupted or stopped depending on the internet environment, device processing speed, etc. . Here, in the present disclosure, the reference signal is output to the measurement space R in conjunction with the measurement information. As a result, even if there is a temporary interruption or stoppage in the distribution or playback of measurement information or detection data, the temporal position where the problem occurred in the measurement information or detection data can be determined based on the reference signal. can be accurately grasped.

また、上記の実施の形態1~5では、端末装置2と測定装置4は、通信システム3を介して接続されたが、反応信号と基準信号を測定装置4の取得部15aで取得できればよく、これに限られるものではない。例えば、端末装置2と測定装置4を直接的に接続してもよい。 In addition, in the above-mentioned embodiments 1 to 5, the terminal device 2 and the measurement device 4 are connected via the communication system 3, but this is not limited as long as the reaction signal and the reference signal can be acquired by the acquisition unit 15a of the measurement device 4. For example, the terminal device 2 and the measurement device 4 may be directly connected.

また、上記の実施の形態1~5では、測定装置4は、端末装置2とは別の装置として構成されたが、端末装置2に内蔵されてもよい。
例えば、端末装置2のプロセッサ11が、取得部15aおよび測定部15bを含むように構成することができる。この取得部15aと測定部15bとから本開示の測定装置4が構成される。
In addition, in the above first to fifth embodiments, the measuring device 4 is configured as a device separate from the terminal device 2, but it may be built into the terminal device 2.
For example, the processor 11 of the terminal device 2 can be configured to include an acquisition unit 15a and a measurement unit 15b. The acquisition unit 15a and the measurement unit 15b configure the measurement device 4 of the present disclosure.

例えば、実施の形態1と同様に、UI12から測定空間Rに音波信号Sbが出力され、この音波信号Sbの出力に連動して測定動画MがUI12から測定空間Rに出力される。続いて、UI12が、測定動画Mに対する被検者Sの反応を撮影すると共に、音波信号Sbを含む受信音を受信する。そして、データ処理部11bが、その撮影動画と受信音とを対応付けて検知データを生成し、その検知データを取得部15aに出力する。
取得部15aは、検知データを入力すると、被検者の反応を示す反応信号Sa1およびSa2を撮影動画から取得し、この反応信号Sa1およびSa2に対応付けられた音波信号Sbを受信音から取得する。そして、測定部15bが、反応信号Sa1およびSa2と音波信号Sbとに基づいて、被検者Sの反応性を測定する。
For example, as in the first embodiment, the sound wave signal Sb is output from the UI 12 to the measurement space R, and the measurement moving image M is output from the UI 12 to the measurement space R in conjunction with the output of the sound wave signal Sb. Subsequently, the UI 12 photographs the reaction of the subject S to the measurement video M and receives the received sound including the sound wave signal Sb. Then, the data processing unit 11b generates detection data by associating the captured video with the received sound, and outputs the detection data to the acquisition unit 15a.
When the detection data is input, the acquisition unit 15a acquires reaction signals Sa1 and Sa2 indicating the reaction of the subject from the captured video, and acquires a sound wave signal Sb associated with the reaction signals Sa1 and Sa2 from the received sound. . Then, the measurement unit 15b measures the reactivity of the subject S based on the reaction signals Sa1 and Sa2 and the sound wave signal Sb.

また、上記の実施の形態1~5において、測定動画Mと音波信号Sbは、端末装置2から出力されたが、互いに連動して測定空間Rに出力されればよく、これに限られるものではない。例えば、測定動画Mと音波信号Sbは、放送局からテレビ放送用電波で送信されて、その電波を受信したテレビジョンにより測定空間Rに出力されてもよい。また、測定動画Mと音波信号Sbは、DVD(Digital Versatile Disc)などの記録媒体に保存して、端末装置2とは別に配置された出力装置から出力してもよい。そして、出力された測定動画に対する被検者Sの反応が、スマートフォンなどの端末装置2により取得され、通信システム3を介して測定装置4に送信される。
このように、反応信号は、音波信号Sbと測定動画Mを測定空間Rに出力した装置とは異なる装置で取得されてもよい。反応信号が異なる装置で取得された場合でも、音波信号Sbと測定動画Mが連動して測定空間Rに出力されているため、被検者Sの反応性を正確に測定することができる。
In the above-mentioned first to fifth embodiments, the measurement video M and the sound wave signal Sb are output from the terminal device 2, but they may be output to the measurement space R in conjunction with each other, and are not limited to this. For example, the measurement video M and the sound wave signal Sb may be transmitted from a broadcasting station by television broadcasting radio waves and output to the measurement space R by a television receiving the radio waves. In addition, the measurement video M and the sound wave signal Sb may be stored in a recording medium such as a DVD (Digital Versatile Disc) and output from an output device arranged separately from the terminal device 2. Then, the subject S's reaction to the output measurement video is acquired by the terminal device 2 such as a smartphone and transmitted to the measurement device 4 via the communication system 3.
In this way, the reaction signal may be acquired by a device different from the device that outputs the sonic signal Sb and the measurement video M to the measurement space R. Even if the reaction signal is acquired by a different device, the sonic signal Sb and the measurement video M are output to the measurement space R in conjunction with each other, so that the reactivity of the subject S can be accurately measured.

また、上記の実施の形態1~5では、測定装置4は、通信システム3を介して端末装置2に接続されたが、測定装置4を通信システム3のコアネットワーク8内に配置してもよい。例えば、測定装置4は、コアネットワーク8内のクラウドサーバに配置してもよい。また、BS5とコアネットワーク8との間にエッジサーバを設けた場合には、測定装置4は、エッジサーバに配置してもよいし、測定装置4の一部機能をコアネットワーク8とエッジサーバに別けて配置してもよい。 Further, in the first to fifth embodiments described above, the measuring device 4 is connected to the terminal device 2 via the communication system 3, but the measuring device 4 may be placed within the core network 8 of the communication system 3. . For example, the measurement device 4 may be placed in a cloud server within the core network 8. Furthermore, when an edge server is provided between the BS 5 and the core network 8, the measurement device 4 may be placed on the edge server, or some functions of the measurement device 4 may be provided between the core network 8 and the edge server. They may be placed separately.

以上、本開示に係る実施の形態について図面を参照して詳述してきたが、上述した各装置の機能は、コンピュータプログラムにより実現することができる。 The above describes the embodiments of the present disclosure in detail with reference to the drawings, but the functions of each of the above-mentioned devices can be realized by a computer program.

上述した各装置の機能をプログラムにより実現するコンピュータは、キーボードやマウス、タッチパッドなどの入力装置、ディスプレイやスピーカなどの出力装置、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク装置やSSD(Solid State Drive)などの記憶装置、DVD-ROM(Digital Versatile Disk Read Only Memory)やUSB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置、ネットワークを介して通信を行うネットワークカードなどを備え、各部はバスにより接続される。 A computer that realizes the functions of each device described above through programs includes input devices such as a keyboard, mouse, and touch pad, output devices such as a display and speakers, a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random). storage devices such as hard disk drives and SSDs (Solid State Drives), DVD-ROMs (Digital Versatile Disk Read Only Memory), and USB (Universal Serial Bus) memories. Reading devices and networks that read information from recording media Each part is connected by a bus, including a network card for communication.

そして、読取装置は、上記各装置の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置に記憶させる。あるいは、ネットワークカードが、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各装置の機能を実現するためのプログラムを記憶装置に記憶させる。 Then, the reading device reads a program for realizing the functions of each of the above devices from a recording medium in which the program is recorded, and stores the program in the storage device. Alternatively, the network card communicates with a server device connected to the network, and causes the storage device to store programs downloaded from the server device to implement the functions of each device.

そして、CPUが、記憶装置に記憶されたプログラムをRAMにコピーし、そのプログラムに含まれる命令をRAMから順次読み出して実行することにより、上記各装置の機能が実現される。 Then, the CPU copies the program stored in the storage device to the RAM, and sequentially reads out and executes the instructions included in the program from the RAM, thereby realizing the functions of each of the devices described above.

以上、本開示の具体例を詳細に説明したが、これらは例示にすぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。 Although specific examples of the present disclosure have been described in detail above, these are merely examples and do not limit the scope of the claims. The technology described in the claims includes various modifications and changes to the specific examples illustrated above.

本開示に係る測定装置、プログラムおよびモデル生成装置は、被検者の反応を示す反応信号を利用する装置およびプログラムに利用できる。 The measurement device, program, and model generation device disclosed herein can be used in devices and programs that utilize reaction signals that indicate the subject's reaction.

2 端末装置
3 通信システム
4 測定装置
5 BS
7 メインサーバ
8 コアネットワーク
9 インターネット
10 記憶部
11,62 プロセッサ
11a 出力制御部
11b データ処理部
12 UI
12a スピーカ
12b ディスプレイ
12c カメラ
12d マイクロフォン
12e ミラー
13 通信部
14 通信部
15 プロセッサ
15a,62a 取得部
15b 測定部
16 記憶部
17 UI
21 検出部
22 把持部
23 検出ボタン
61 モデル生成装置
62b 訓練部
M,M1 測定動画
M1a 変化部
Ma~Mc 目隠し
MD 機械学習モデル
P 基準点
R 測定空間
S 被検者
Sa,Sa1,Sa2 目の反応信号
Sb 音波信号
Sc 手の反応信号
Sd 光信号
2 Terminal device 3 Communication system 4 Measuring device 5 BS
7 Main server 8 Core network 9 Internet 10 Storage unit 11, 62 Processor 11a Output control unit 11b Data processing unit 12 UI
12a Speaker 12b Display 12c Camera 12d Microphone 12e Mirror 13 Communication unit 14 Communication unit 15 Processor 15a, 62a Acquisition unit 15b Measurement unit 16 Storage unit 17 UI
21 Detection unit 22 Holding unit 23 Detection button 61 Model generation device 62b Training unit M, M1 Measurement video M1a Change unit Ma to Mc Blindfold MD Machine learning model P Reference point R Measurement space S Subject Sa, Sa1, Sa2 Eye response signal Sb Sound wave signal Sc Hand response signal Sd Optical signal

Claims (18)

測定空間に出力された基準信号と、前記基準信号の出力に連動して前記測定空間に出力される測定情報に対する被検者の反応を示す反応信号とを取得する取得部と、
前記基準信号と前記反応信号に基づいて、前記被検者の反応性を測定する測定部と、
を有する測定装置。
an acquisition unit that acquires a reference signal output to the measurement space and a reaction signal indicating a reaction of the subject to the measurement information output to the measurement space in conjunction with the output of the reference signal;
a measurement unit that measures the reactivity of the subject based on the reference signal and the reaction signal;
A measuring device with
前記基準信号は、前記測定情報の時間的な位置を示すように変化する請求項1に記載の測定装置。 The measuring device according to claim 1, wherein the reference signal changes so as to indicate the temporal position of the measurement information. 前記基準信号は、所定周波数より高い高周波で構成された音波信号を含む請求項1に記載の測定装置。 The measurement device according to claim 1, wherein the reference signal includes a sound wave signal composed of a high frequency higher than a predetermined frequency. 前記基準信号は、測定情報の一部が特定のパターンで点滅するように構成された光信号を含む請求項1に記載の測定装置。 The measuring device according to claim 1, wherein the reference signal includes an optical signal configured such that a part of the measurement information blinks in a specific pattern. 前記取得部は、前記測定情報に対する前記被検者の目の反応を示す反応信号を取得し、
前記測定部は、前記反応信号と前記基準信号とに基づいて、前記被検者の目の反応性を測定する請求項1に記載の測定装置。
The acquisition unit acquires a reaction signal indicating an eye reaction of the subject to the measurement information,
The measuring device according to claim 1, wherein the measuring unit measures the eye reactivity of the subject based on the reaction signal and the reference signal.
前記取得部は、前記測定情報に対する前記被検者の手の反応を示す反応信号を取得し、
前記測定部は、前記反応信号と前記基準信号とに基づいて、前記被検者の手の反応性を測定する請求項1に記載の測定装置。
The acquisition unit acquires a response signal indicating a response of the subject's hand to the measurement information,
The measurement device according to claim 1 , wherein the measurement unit measures the reactivity of the subject's hand based on the reaction signal and the reference signal.
前記測定情報は、測定動画からなり、
前記取得部は、前記測定動画と連動して出力された前記基準信号と、前記測定動画に対する前記被検者の反応を示す連続的な反応信号を取得し、
前記測定部は、前記基準信号と前記連続的な反応信号とに基づいて、前記被検者の反応性を測定する請求項1に記載の測定装置。
The measurement information consists of a measurement video,
The acquisition unit acquires the reference signal output in conjunction with the measurement video and a continuous reaction signal indicating the reaction of the subject to the measurement video,
The measuring device according to claim 1, wherein the measuring section measures the reactivity of the subject based on the reference signal and the continuous reaction signal.
前記測定部は、前記基準信号に基づいて、前記被検者の反応信号を、前記測定情報に対する他の被検者の反応を示す反応信号と比較することにより、前記被検者の反応性を測定する請求項1に記載の測定装置。 The measurement device according to claim 1, wherein the measurement unit measures the reactivity of the subject by comparing the response signal of the subject with response signals indicating the responses of other subjects to the measurement information based on the reference signal. 異なる測定空間で且つ異なる時刻に取得された前記測定情報を、前記基準信号に基づいて対応付けて前記被検者の反応性を測定する請求項1に記載の測定装置。 The measuring device according to claim 1, wherein the measurement information acquired in different measurement spaces and at different times is correlated based on the reference signal to measure the reactivity of the subject. 前記測定部は、前記測定情報に対する他の被検者の反応を示す反応信号に基づいて訓練された機械学習モデルに前記反応信号と前記基準信号を入力して、前記被検者の反応性を測定する請求項1に記載の測定装置。 The measuring unit inputs the reaction signal and the reference signal to a machine learning model trained based on the reaction signal indicating the reaction of other subjects to the measurement information, and measures the reactivity of the subject. The measuring device according to claim 1, which measures. 前記測定部は、前記被検者の反応性に基づいて前記被検者の特定の疾患を判定する請求項1に記載の測定装置。 The measuring device according to claim 1, wherein the measuring unit determines a specific disease of the subject based on the reactivity of the subject. 前記測定部は、前記被検者の反応性に基づいて前記被検者の反射神経の状態を判定する請求項1に記載の測定装置。 The measurement device according to claim 1, wherein the measurement unit determines the state of the subject's reflexes based on the subject's reactivity. 前記測定部は、前記被検者の反応性に基づいて前記被検者の運転適性を判定する請求項1に記載の測定装置。 The measurement device according to claim 1, wherein the measurement unit determines the driving aptitude of the subject based on the subject's responsiveness. 前記測定部は、前記測定空間に前記基準信号と前記測定情報を出力する端末装置と通信システムを介して接続され、前記端末装置に対して前記基準信号と前記測定情報を配信する請求項1に記載の測定装置。 The measurement device according to claim 1, wherein the measurement unit is connected to a terminal device that outputs the reference signal and the measurement information to the measurement space via a communication system, and distributes the reference signal and the measurement information to the terminal device. 前記反応信号は、前記基準信号と前記測定情報を前記測定空間に出力した装置とは異なる装置で取得される請求項1に記載の測定装置。 The measurement device according to claim 1, wherein the reaction signal is acquired by a device different from the device that outputs the reference signal and the measurement information to the measurement space. コンピュータに、
測定空間に出力された基準信号と、前記基準信号の出力に連動して前記測定空間に出力される測定情報に対する被検者の反応を示す反応信号とを取得するステップと、
前記反応信号と前記基準信号とに基づいて、前記被検者の反応性を測定するステップと、
を実行させるプログラム。
to the computer,
acquiring a reference signal output to the measurement space and a reaction signal indicating a reaction of the subject to the measurement information output to the measurement space in conjunction with the output of the reference signal;
measuring the reactivity of the subject based on the reaction signal and the reference signal;
A program to run.
測定空間に出力された基準信号と、前記基準信号の出力に連動して前記測定空間に出力される測定情報に対する複数の被検者の反応を示す反応信号と、前記複数の被検者の状態を判定した判定結果とを取得する取得部と、
前記基準信号に基づいて前記複数の被検者の前記反応信号を対応付け、前記対応付けられた反応信号と前記判定結果とを組み合わせたデータセットに基づいて、機械学習モデルを生成する訓練部と、
を有するモデル生成装置。
an acquisition unit that acquires a reference signal output to a measurement space, a response signal indicating a response of a plurality of subjects to measurement information output to the measurement space in conjunction with the output of the reference signal, and a determination result of determining a state of the plurality of subjects;
a training unit that associates the response signals of the plurality of subjects based on the reference signal, and generates a machine learning model based on a data set that combines the associated response signals with the determination results;
A model generating device having:
コンピュータに、
測定空間に出力された基準信号と、前記基準信号の出力に連動して前記測定空間に出力される測定情報に対する複数の被検者の反応を示す反応信号と、前記複数の被検者の状態を判定した判定結果とを取得するステップと、
前記基準信号に基づいて前記複数の被検者の前記反応信号を対応付け、前記対応付けられた反応信号と前記判定結果とを組み合わせたデータセットに基づいて、機械学習モデルを生成するステップと、
を実行させるプログラム。
to the computer,
a reference signal outputted to a measurement space; a reaction signal indicating a reaction of a plurality of subjects to measurement information outputted to the measurement space in conjunction with the output of the reference signal; and a state of the plurality of subjects. a step of obtaining a determination result of determining the
a step of associating the reaction signals of the plurality of subjects based on the reference signal and generating a machine learning model based on a data set combining the correlated reaction signals and the determination results;
A program to run.
JP2022149085A 2022-09-20 2022-09-20 Measurement device, program and model generation device Pending JP2024043867A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022149085A JP2024043867A (en) 2022-09-20 2022-09-20 Measurement device, program and model generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022149085A JP2024043867A (en) 2022-09-20 2022-09-20 Measurement device, program and model generation device

Publications (1)

Publication Number Publication Date
JP2024043867A true JP2024043867A (en) 2024-04-02

Family

ID=90480158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022149085A Pending JP2024043867A (en) 2022-09-20 2022-09-20 Measurement device, program and model generation device

Country Status (1)

Country Link
JP (1) JP2024043867A (en)

Similar Documents

Publication Publication Date Title
KR101535432B1 (en) Contents valuation system and contents valuating method using the system
KR101811888B1 (en) Visualization testing and/or training
KR20190026651A (en) Methods and systems for acquiring, aggregating and analyzing vision data to approach a person's vision performance
US8465289B2 (en) Training assisting apparatus, training assisting method, and training assisting program stored on a computer readable medium
JP2019523027A (en) Apparatus and method for recording and analysis of memory and function decline
JP6396351B2 (en) Psychosomatic state estimation device, psychosomatic state estimation method, and eyewear
US20120194648A1 (en) Video/ audio controller
JP2006293979A (en) Content providing system
WO2018088187A1 (en) Information processing device, information processing method, and program
RU2666517C1 (en) Method of rehabilitation of patients with impaired motor function using an automated information system for the implementation of audiovisual biofeedback
JP2024043867A (en) Measurement device, program and model generation device
JP5227377B2 (en) Training support apparatus, training support method, and training support program
US20070239071A1 (en) Training assisting apparatus, training assisting method, and training assisting program
US11531394B2 (en) Systems and methods for emotional-imaging composer
US20210315517A1 (en) Biomarkers of inflammation in neurophysiological systems
JP2022021944A (en) Addiction recovery support system
JP2018202191A (en) Eyewear, data collection system and data collection method
CA3104339A1 (en) Method for evaluating a risk of neurodevelopmental disorder with a child
WO2024047738A1 (en) Inspection device, inspection system, inspection method, and non-transitory computer-readable medium
JP2021035499A (en) Eyewear, data collection system and data collection method
WO2023037692A1 (en) Information processing apparatus, method and computer program product for measuring a level of cognitive decline in a user
US20240138745A1 (en) Fieldable eeg system, architecture, and method
EP4353152A1 (en) Medical image acquisition unit assistance apparatus
US20210295730A1 (en) System and method for virtual reality mock mri
Krecichwost et al. 4D Multimodal Speaker Model for Remote Speech Diagnosis