JP6330638B2 - Training support apparatus and program - Google Patents

Training support apparatus and program Download PDF

Info

Publication number
JP6330638B2
JP6330638B2 JP2014242033A JP2014242033A JP6330638B2 JP 6330638 B2 JP6330638 B2 JP 6330638B2 JP 2014242033 A JP2014242033 A JP 2014242033A JP 2014242033 A JP2014242033 A JP 2014242033A JP 6330638 B2 JP6330638 B2 JP 6330638B2
Authority
JP
Japan
Prior art keywords
unit
image
viewpoint
subject
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014242033A
Other languages
Japanese (ja)
Other versions
JP2016034466A (en
Inventor
首藤 勝行
勝行 首藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2014242033A priority Critical patent/JP6330638B2/en
Priority to EP15177666.3A priority patent/EP2979635B1/en
Priority to US14/805,050 priority patent/US20160029938A1/en
Publication of JP2016034466A publication Critical patent/JP2016034466A/en
Application granted granted Critical
Publication of JP6330638B2 publication Critical patent/JP6330638B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、トレーニング支援装置およびトレーニング支援方法に関する。   The present invention relates to a training support apparatus and a training support method.

発達障がい者は、注視点に偏りがあったり、因果関係の把握が難しかったりする特徴がある場合が多い。因果関係を理解するためにどこを注視して情報を得たのか、注視したにも関わらず因果関係を理解できないのか、などを知ることは、発達障がい者の療育(トレーニング)を行う上で重要なポイントになる。   People with developmental disabilities often have a characteristic that the point of gaze is biased or causality is difficult to grasp. Knowing where to obtain information to understand causality and whether you can not understand causality despite glance is important in providing training for people with developmental disabilities It becomes a point.

特開2011−206542号公報JP 2011-206542 A

Pierce K et al.,“Preference for Geometric Patterns Early in Life as a Risk Factor for Autism.”,Arch Gen Psychiatry. 2011 Jan;68(1):101-109.Pierce K et al., “Preference for Geometric Patterns Early in Life as a Risk Factor for Autism.”, Arch Gen Psychiatry. 2011 Jan; 68 (1): 101-109.

しかし従来の方法では、因果関係を理解するためにどこを注視して情報を得たのか、注視したにも関わらず因果関係を理解できないのかなどを知ることができなかった。また、従来は、イラストや写真を用いて療育またはトレーニングが行われているが、対象者がどこを見ているか不明であり、定量的にフィードバックすることも不可能で、効果的なトレーニングとは言えなかった。   However, in the conventional method, it was impossible to know where to obtain information to understand the causal relationship, or whether the causal relationship cannot be understood despite the attention. Conventionally, treatment or training is performed using illustrations and photographs, but it is unknown where the subject is looking, it is impossible to provide quantitative feedback, and effective training is I could not say.

本発明は、上記に鑑みてなされたものであって、より効果的にトレーニングを支援できるトレーニング支援装置およびトレーニング支援方法を提供することを目的とする。   The present invention has been made in view of the above, and an object thereof is to provide a training support apparatus and a training support method that can support training more effectively.

上述した課題を解決し、目的を達成するために、本発明は、表示部と、所定の事象の原因と前記事象とを表す診断画像、および、前記原因と前記事象の因果関係を表す説明画像を前記表示部に表示させる出力制御部と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention represents a display unit, a diagnostic image representing a cause of a predetermined event and the event, and a causal relationship between the cause and the event. An output control unit for displaying an explanation image on the display unit.

本発明にかかるトレーニング支援装置およびトレーニング支援方法は、より効果的にトレーニングを支援できるという効果を奏する。   The training support device and the training support method according to the present invention have an effect that training can be supported more effectively.

図1は、本実施形態の表示部、ステレオカメラ、赤外線光源および被験者の配置の一例を示す図である。FIG. 1 is a diagram illustrating an example of the arrangement of a display unit, a stereo camera, an infrared light source, and a subject according to the present embodiment. 図2は、本実施形態の表示部、ステレオカメラ、赤外線光源および被験者の配置の一例を示す図である。FIG. 2 is a diagram illustrating an example of the arrangement of the display unit, the stereo camera, the infrared light source, and the subject according to the present embodiment. 図3は、診断支援装置の機能の概要を示す図である。FIG. 3 is a diagram illustrating an outline of functions of the diagnosis support apparatus. 図4は、図3に示す各部の詳細な機能の一例を示すブロック図である。FIG. 4 is a block diagram illustrating an example of detailed functions of each unit illustrated in FIG. 3. 図5は、本実施形態の診断支援装置により実行される処理の概要を説明する図である。FIG. 5 is a diagram for explaining an overview of processing executed by the diagnosis support apparatus of this embodiment. 図6は、2つの光源を用いる方法と、1つの光源を用いる本実施形態との違いを示す説明図である。FIG. 6 is an explanatory diagram showing the difference between the method using two light sources and the present embodiment using one light source. 図7は、瞳孔中心位置と角膜曲率中心位置との距離を算出する算出処理を説明するための図である。FIG. 7 is a diagram for explaining calculation processing for calculating the distance between the pupil center position and the corneal curvature center position. 図8は、本実施形態の算出処理の一例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of calculation processing according to the present embodiment. 図9は、事前に求めた距離を使用して角膜曲率中心の位置を算出する方法を示した図である。FIG. 9 is a diagram showing a method of calculating the position of the corneal curvature center using the distance obtained in advance. 図10は、本実施形態の視線検出処理の一例を示すフローチャートである。FIG. 10 is a flowchart illustrating an example of a line-of-sight detection process according to the present embodiment. 図11は、変形例1の算出処理を説明するための図である。FIG. 11 is a diagram for explaining the calculation process of the first modification. 図12は、変形例1の算出処理の一例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of calculation processing according to the first modification. 図13は、本実施形態で用いる診断画像の一例を示す図である。FIG. 13 is a diagram illustrating an example of a diagnostic image used in the present embodiment. 図14は、本実施形態で用いる診断画像の一例を示す図である。FIG. 14 is a diagram illustrating an example of a diagnostic image used in the present embodiment. 図15は、本実施形態で用いる診断画像の一例を示す図である。FIG. 15 is a diagram illustrating an example of a diagnostic image used in the present embodiment. 図16は、本実施形態で用いる診断画像の一例を示す図である。FIG. 16 is a diagram illustrating an example of a diagnostic image used in the present embodiment. 図17は、本実施形態の診断支援処理の一例を示すフローチャートである。FIG. 17 is a flowchart illustrating an example of the diagnosis support process of the present embodiment. 図18は、一次回答を選択するための選択画面の一例を示す図である。FIG. 18 is a diagram illustrating an example of a selection screen for selecting a primary answer. 図19は、正解を表示するための正解画面の一例を示す図である。FIG. 19 is a diagram illustrating an example of a correct answer screen for displaying a correct answer. 図20は、解説画面の一例を示す図である。FIG. 20 is a diagram illustrating an example of the explanation screen. 図21は、注視点検出処理の一例を示すフローチャートである。FIG. 21 is a flowchart illustrating an example of a gazing point detection process. 図22は、分析処理の一例を示すフローチャートである。FIG. 22 is a flowchart illustrating an example of analysis processing. 図23は、因果関係の例を示す図である。FIG. 23 is a diagram illustrating an example of the causal relationship. 図24は、療育の効果を検証および表示する検証処理の一例を示すフローチャートである。FIG. 24 is a flowchart illustrating an example of a verification process for verifying and displaying the effect of medical treatment. 図25は、測定データの変化の決定方法の一例を説明するための図である。FIG. 25 is a diagram for explaining an example of a method for determining changes in measurement data. 図26は、動画表示時の分析処理の一例を示すフローチャートである。FIG. 26 is a flowchart illustrating an example of analysis processing during moving image display. 図27は、変形例2のトレーニング支援処理の一例を示すフローチャートである。FIG. 27 is a flowchart illustrating an example of training support processing according to the second modification. 図28は、変形例2のメニュー画面の一例を示す図である。FIG. 28 is a diagram illustrating an example of a menu screen according to the second modification. 図29は、変形例2で表示される静止画1の例を示す図である。FIG. 29 is a diagram illustrating an example of the still image 1 displayed in the second modification. 図30は、変形例2で表示される静止画2の例を示す図である。FIG. 30 is a diagram illustrating an example of the still image 2 displayed in the second modification. 図31は、変形例2の選択画面の一例を示す図である。FIG. 31 is a diagram illustrating an example of a selection screen according to the second modification. 図32は、変形例2の正解画面の一例を示す図である。FIG. 32 is a diagram illustrating an example of a correct answer screen according to the second modification. 図33は、変形例2の解説画面の一例を示す図である。FIG. 33 is a diagram illustrating an example of the explanation screen of the second modification. 図34は、変形例2の再生画面の一例を示す図である。FIG. 34 is a diagram illustrating an example of a playback screen according to the second modification. 図35は、ノートPCによりトレーニング支援装置を実現した例を説明する図である。FIG. 35 is a diagram for explaining an example in which a training support apparatus is realized by a notebook PC.

以下に、本発明にかかるトレーニング支援装置およびトレーニング支援方法の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、以下では、トレーニング支援装置を、視線検出結果を用いて発達障がいなどの診断を支援するとともに、トレーニングにも利用できる診断支援装置に適用した例を説明するが適用可能な装置はこれに限られるものではない。   Hereinafter, embodiments of a training support apparatus and a training support method according to the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited by this embodiment. In the following, an example will be described in which the training support device is applied to a diagnosis support device that supports the diagnosis of developmental disabilities and the like using the line-of-sight detection results, and can also be used for training. It is not something that can be done.

本実施形態の診断支援装置は、ある事象の前後を示す画像(映像)を表示して、注視点の位置の停留時間を測定して評価演算する。また、原因を表すシーンおよび事象の前後を表すシーンを含む連続動画を、原因と事象の因果関係を表す説明画像として表示する。これにより、被教育者が理解しやすい効率的なトレーニング支援を実現する。   The diagnosis support apparatus according to the present embodiment displays images (videos) showing before and after a certain event, measures the stop time at the position of the gazing point, and performs an evaluation calculation. Further, a continuous moving image including a scene representing the cause and a scene representing the front and back of the event is displayed as an explanatory image representing the causal relationship between the cause and the event. This realizes efficient training support that is easy for the educated person to understand.

また、本実施形態の診断支援装置は、1ヵ所に設置された照明部を用いて視線を検出する。なお、診断支援装置は、上述した実施形態に限られるものではない。また、本実施形態の診断支援装置は、視線検出前に被験者に1点を注視させて測定した結果を用いて、角膜曲率中心位置を高精度に算出する。   In addition, the diagnosis support apparatus according to the present embodiment detects a line of sight using an illumination unit installed at one location. Note that the diagnosis support apparatus is not limited to the above-described embodiment. In addition, the diagnosis support apparatus according to the present embodiment calculates the corneal curvature center position with high accuracy by using a result obtained by gazing at one point on the subject before the line-of-sight detection.

なお、照明部とは、光源を含み、被験者の眼球に光を照射可能な要素である。光源とは、例えばLED(Light Emitting Diode)などの光を発生する素子である。光源は、1個のLEDから構成されてもよいし、複数のLEDを組み合わせて1ヵ所に配置することにより構成されてもよい。以下では、このように照明部を表す用語として「光源」を用いる場合がある。   In addition, an illumination part is an element which can irradiate light to a test subject's eyeball including a light source. The light source is an element that generates light, such as an LED (Light Emitting Diode). A light source may be comprised from one LED, and may be comprised by combining several LED and arrange | positioning in one place. Hereinafter, the “light source” may be used as a term representing the illumination unit in this way.

図1および2は、本実施形態の表示部、ステレオカメラ、赤外線光源および被験者の配置の一例を示す図である。   1 and 2 are diagrams illustrating an example of the arrangement of a display unit, a stereo camera, an infrared light source, and a subject according to the present embodiment.

図1に示すように、本実施形態の診断支援装置100は、表示部101と、撮像部に相当するステレオカメラ102と、LED光源103と、を含む。ステレオカメラ102は、表示部101の下に配置される。LED光源103は、ステレオカメラ102に含まれる2つのカメラの中心位置に配置される。LED光源103は、例えば波長850nmの近赤外線を照射する光源である。図1では、9個のLEDによりLED光源103(照明部)を構成する例が示されている。なお、ステレオカメラ102は、波長850nmの近赤外光を透過できるレンズを使用する。   As illustrated in FIG. 1, the diagnosis support apparatus 100 according to the present embodiment includes a display unit 101, a stereo camera 102 corresponding to an imaging unit, and an LED light source 103. The stereo camera 102 is disposed below the display unit 101. The LED light source 103 is disposed at the center position of two cameras included in the stereo camera 102. The LED light source 103 is a light source that irradiates near infrared rays having a wavelength of 850 nm, for example. FIG. 1 shows an example in which the LED light source 103 (illumination unit) is configured by nine LEDs. The stereo camera 102 uses a lens that can transmit near-infrared light having a wavelength of 850 nm.

図2に示すように、ステレオカメラ102は、右カメラ202と左カメラ203とを備えている。LED光源103は、被験者の眼球111に向かって近赤外光を照射する。ステレオカメラ102で取得される画像では、瞳孔112が低輝度で反射して暗くなり、眼球111内に虚像として生じる角膜反射113が高輝度で反射して明るくなる。従って、瞳孔112および角膜反射113の画像上の位置を2台のカメラ(右カメラ202、左カメラ203)それぞれで取得することができる。   As shown in FIG. 2, the stereo camera 102 includes a right camera 202 and a left camera 203. The LED light source 103 irradiates near-infrared light toward the eyeball 111 of the subject. In the image acquired by the stereo camera 102, the pupil 112 is reflected and darkened with low brightness, and the corneal reflection 113 generated as a virtual image in the eyeball 111 is reflected and brightened with high brightness. Accordingly, the positions of the pupil 112 and the corneal reflection 113 on the image can be acquired by each of the two cameras (the right camera 202 and the left camera 203).

さらに2台のカメラにより得られる瞳孔112および角膜反射113の位置から、瞳孔112および角膜反射113の位置の三次元世界座標値を算出する。本実施形態では、三次元世界座標として、表示部101の画面の中央位置を原点として、上下をY座標(上が+)、横をX座標(向かって右が+)、奥行きをZ座標(手前が+)としている。   Further, the three-dimensional world coordinate values of the positions of the pupil 112 and the corneal reflection 113 are calculated from the positions of the pupil 112 and the corneal reflection 113 obtained by the two cameras. In the present embodiment, as the three-dimensional world coordinates, the center position of the screen of the display unit 101 is set as the origin, the top and bottom are Y coordinates (up is +), the side is X coordinates (right is +), and the depth is Z coordinates ( The front is +).

図3は、診断支援装置100の機能の概要を示す図である。図3では、図1および2に示した構成の一部と、この構成の駆動などに用いられる構成を示している。図3に示すように、診断支援装置100は、右カメラ202と、左カメラ203と、LED光源103と、スピーカ205と、駆動・IF(interface)部313と、制御部300と、記憶部150と、表示部101と、を含む。図3において、表示画面201は、右カメラ202および左カメラ203との位置関係を分かりやすく示しているが、表示画面201は表示部101において表示される画面である。なお、駆動部とIF部は一体でもよいし、別体でもよい。   FIG. 3 is a diagram illustrating an outline of functions of the diagnosis support apparatus 100. FIG. 3 shows a part of the configuration shown in FIGS. 1 and 2 and a configuration used for driving the configuration. As illustrated in FIG. 3, the diagnosis support apparatus 100 includes a right camera 202, a left camera 203, an LED light source 103, a speaker 205, a drive / IF (interface) unit 313, a control unit 300, and a storage unit 150. And the display unit 101. In FIG. 3, the display screen 201 shows the positional relationship between the right camera 202 and the left camera 203 in an easy-to-understand manner, but the display screen 201 is a screen displayed on the display unit 101. The drive unit and the IF unit may be integrated or separate.

スピーカ205は、キャリブレーション時などに、被験者に注意を促すための音声などを出力する音声出力部として機能する。   The speaker 205 functions as an audio output unit that outputs an audio or the like for alerting the subject during calibration.

駆動・IF部313は、ステレオカメラ102に含まれる各部を駆動する。また、駆動・IF部313は、ステレオカメラ102に含まれる各部と、制御部300とのインタフェースとなる。   The drive / IF unit 313 drives each unit included in the stereo camera 102. The drive / IF unit 313 serves as an interface between each unit included in the stereo camera 102 and the control unit 300.

制御部300は、例えば、CPU(Central Processing Unit)などの制御装置と、ROM(Read Only Memory)やRAM(Random Access Memory)などの記憶装置と、ネットワークに接続して通信を行う通信I/Fと、各部を接続するバスを備えているコンピュータなどにより実現できる。   The control unit 300 is, for example, a communication I / F that communicates with a control device such as a CPU (Central Processing Unit) and a storage device such as a ROM (Read Only Memory) and a RAM (Random Access Memory) by connecting to a network. And a computer equipped with a bus for connecting each unit.

記憶部150は、制御プログラム、測定結果、診断支援結果など各種情報を記憶する。記憶部150は、例えば、表示部101に表示する画像等を記憶する。表示部101は、診断のための対象画像等、各種情報を表示する。   The storage unit 150 stores various information such as a control program, a measurement result, and a diagnosis support result. The storage unit 150 stores, for example, an image to be displayed on the display unit 101. The display unit 101 displays various information such as a target image for diagnosis.

図4は、図3に示す各部の詳細な機能の一例を示すブロック図である。図4に示すように、制御部300には、表示部101と、駆動・IF部313が接続される。駆動・IF部313は、カメラIF314、315と、LED駆動制御部316と、スピーカ駆動部322と、を備える。   FIG. 4 is a block diagram illustrating an example of detailed functions of each unit illustrated in FIG. 3. As shown in FIG. 4, the display unit 101 and the drive / IF unit 313 are connected to the control unit 300. The drive / IF unit 313 includes camera IFs 314 and 315, an LED drive control unit 316, and a speaker drive unit 322.

駆動・IF部313には、カメラIF314、315を介して、それぞれ、右カメラ202、左カメラ203が接続される。駆動・IF部313がこれらのカメラを駆動することにより、被験者を撮像する。   The right camera 202 and the left camera 203 are connected to the drive / IF unit 313 via the camera IFs 314 and 315, respectively. The driving / IF unit 313 drives these cameras to image the subject.

スピーカ駆動部322は、スピーカ205を駆動する。なお、診断支援装置100が、印刷部としてのプリンタと接続するためのインタフェース(プリンタIF)を備えてもよい。また、プリンタを診断支援装置100の内部に備えるように構成してもよい。   The speaker driving unit 322 drives the speaker 205. The diagnosis support apparatus 100 may include an interface (printer IF) for connecting to a printer as a printing unit. In addition, the printer may be provided inside the diagnosis support apparatus 100.

制御部300は、診断支援装置100全体を制御する。制御部300は、第1算出部351と、第2算出部352と、第3算出部353と、視線検出部354と、視点検出部355と、出力制御部356と、評価部357と、を備えている。なお、視線を検出する視線検出支援装置としては、少なくとも第1算出部351、第2算出部352、第3算出部353、および、視線検出部354が備えられていればよい。   The control unit 300 controls the entire diagnosis support apparatus 100. The control unit 300 includes a first calculation unit 351, a second calculation unit 352, a third calculation unit 353, a gaze detection unit 354, a viewpoint detection unit 355, an output control unit 356, and an evaluation unit 357. I have. Note that the gaze detection support apparatus that detects the gaze only needs to include at least the first calculation unit 351, the second calculation unit 352, the third calculation unit 353, and the gaze detection unit 354.

制御部300に含まれる各要素(第1算出部351、第2算出部352、第3算出部353、視線検出部354、視点検出部355、出力制御部356、および、評価部357)は、ソフトウェア(プログラム)で実現してもよいし、ハードウェア回路で実現してもよいし、ソフトウェアとハードウェア回路とを併用して実現してもよい。   Each element included in the control unit 300 (the first calculation unit 351, the second calculation unit 352, the third calculation unit 353, the line-of-sight detection unit 354, the viewpoint detection unit 355, the output control unit 356, and the evaluation unit 357) It may be realized by software (program), may be realized by a hardware circuit, or may be realized by using software and a hardware circuit in combination.

プログラムで実現する場合、当該プログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されてコンピュータプログラムプロダクトとして提供される。プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。また、プログラムを、ROM等に予め組み込んで提供するように構成してもよい。   When implemented by a program, the program is a file in an installable or executable format, such as a CD-ROM (Compact Disk Read Only Memory), a flexible disk (FD), a CD-R (Compact Disk Recordable), a DVD ( Digital Versatile Disk) is recorded on a computer-readable recording medium and provided as a computer program product. The program may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. The program may be provided or distributed via a network such as the Internet. The program may be provided by being incorporated in advance in a ROM or the like.

第1算出部351は、ステレオカメラ102により撮像された眼球の画像から、瞳孔の中心を示す瞳孔中心の位置(第1位置)を算出する。第2算出部352は、撮像された眼球の画像から、角膜反射の中心を示す角膜反射中心の位置(第2位置)を算出する。第1算出部351および第2算出部352が、瞳孔の中心を示す第1位置と、角膜反射の中心を示す第2位置と、を検出する位置検出部に相当する。   The first calculator 351 calculates the position (first position) of the pupil center indicating the center of the pupil from the eyeball image captured by the stereo camera 102. The second calculator 352 calculates the position of the corneal reflection center (second position) indicating the center of corneal reflection from the captured image of the eyeball. The first calculation unit 351 and the second calculation unit 352 correspond to a position detection unit that detects a first position indicating the center of the pupil and a second position indicating the center of corneal reflection.

第3算出部353は、LED光源103と角膜反射中心とを結ぶ直線(第1直線)から、角膜曲率中心(第4位置)を算出する。例えば、第3算出部353は、この直線上で、角膜反射中心からの距離が所定値となる位置を、角膜曲率中心として算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値を用いることができる。   The third calculator 353 calculates the corneal curvature center (fourth position) from the straight line (first straight line) connecting the LED light source 103 and the corneal reflection center. For example, the third calculation unit 353 calculates a position on the straight line where the distance from the corneal reflection center is a predetermined value as the corneal curvature center. As the predetermined value, a value determined in advance from a general radius of curvature of the cornea or the like can be used.

角膜の曲率半径値には個人差が生じうるため、事前に定められた値を用いて角膜曲率中心を算出すると誤差が大きくなる可能性がある。従って、第3算出部353が、個人差を考慮して角膜曲率中心を算出してもよい。この場合、第3算出部353は、まず目標位置(第3位置)を被験者に注視させたときに算出された瞳孔中心および角膜反射中心を用いて、瞳孔中心と目標位置とを結ぶ直線(第2直線)と、角膜反射中心とLED光源103とを結ぶ直線(第1直線)と、の交点を算出する。そして第3算出部353は、瞳孔中心と算出した交点との距離(第1距離)を算出し、例えば記憶部150に記憶する。   Since there may be individual differences in the radius of curvature of the cornea, there is a possibility that an error will increase if the center of corneal curvature is calculated using a predetermined value. Therefore, the third calculation unit 353 may calculate the corneal curvature center in consideration of individual differences. In this case, the third calculation unit 353 first uses a pupil center and a corneal reflection center that are calculated when the subject gazes at the target position (third position), and a straight line connecting the pupil center and the target position (the first position). 2), and the intersection of the corneal reflection center and the LED light source 103 (first straight line) is calculated. The third calculation unit 353 calculates a distance (first distance) between the pupil center and the calculated intersection, and stores the calculated distance in the storage unit 150, for example.

目標位置は、予め定められ、三次元世界座標値が算出できる位置であればよい。例えば、表示画面201の中央位置(三次元世界座標の原点)を目標位置とすることができる。この場合、例えば出力制御部356が、表示画面201上の目標位置(中央)に、被験者に注視させる画像(目標画像)等を表示する。これにより、被験者に目標位置を注視させることができる。   The target position may be a position that is determined in advance and can calculate a three-dimensional world coordinate value. For example, the center position of the display screen 201 (the origin of the three-dimensional world coordinates) can be set as the target position. In this case, for example, the output control unit 356 displays an image (target image) or the like that causes the subject to gaze at the target position (center) on the display screen 201. Thereby, a test subject can be made to gaze at a target position.

目標画像は、被験者を注目させることができる画像であればどのような画像であってもよい。例えば、輝度や色などの表示態様が変化する画像、および、表示態様が他の領域と異なる画像などを目標画像として用いることができる。   The target image may be any image as long as it can attract the attention of the subject. For example, an image in which a display mode such as luminance or color changes, an image in which the display mode is different from other regions, or the like can be used as the target image.

なお、目標位置は表示画面201の中央に限られるものではなく、任意の位置でよい。表示画面201の中央を目標位置とすれば、表示画面201の任意の端部との距離が最小になる。このため、例えば視線検出時の測定誤差をより小さくすることが可能となる。   The target position is not limited to the center of the display screen 201, and may be an arbitrary position. If the center of the display screen 201 is set as the target position, the distance from an arbitrary end of the display screen 201 is minimized. For this reason, it becomes possible to make the measurement error at the time of gaze detection smaller, for example.

距離の算出までの処理は、例えば実際の視線検出を開始するまでに事前に実行しておく。実際の視線検出時には、第3算出部353は、LED光源103と角膜反射中心とを結ぶ直線上で、瞳孔中心からの距離が、事前に算出した距離となる位置を、角膜曲率中心として算出する。第3算出部353が、LED光源103の位置と、表示部101上の目標画像を示す所定の位置(第3位置)と、瞳孔中心の位置と、角膜反射中心の位置と、から角膜曲率中心(第4位置)を算出する算出部に相当する。   The processing up to the calculation of the distance is executed in advance, for example, before the actual gaze detection is started. At the time of actual line-of-sight detection, the third calculation unit 353 calculates, on the straight line connecting the LED light source 103 and the corneal reflection center, a position where the distance from the pupil center is a previously calculated distance as the corneal curvature center. . The third calculation unit 353 determines the center of corneal curvature from the position of the LED light source 103, the predetermined position (third position) indicating the target image on the display unit 101, the position of the pupil center, and the position of the corneal reflection center. This corresponds to a calculation unit that calculates (fourth position).

視線検出部354は、瞳孔中心と角膜曲率中心とから被験者の視線を検出する。例えば視線検出部354は、角膜曲率中心から瞳孔中心へ向かう方向を被験者の視線方向として検出する。   The gaze detection unit 354 detects the gaze of the subject from the pupil center and the corneal curvature center. For example, the gaze detection unit 354 detects the direction from the corneal curvature center to the pupil center as the gaze direction of the subject.

視点検出部355は、検出された視線方向を用いて被験者の視点を検出する。視点検出部355は、例えば、表示画面201で被験者が注視する点である視点(注視点)を検出する。視点検出部355は、例えば図2のような三次元世界座標系で表される視線ベクトルとXY平面との交点を、被験者の注視点として検出する。   The viewpoint detection unit 355 detects the viewpoint of the subject using the detected gaze direction. The viewpoint detection unit 355 detects, for example, a viewpoint (gaze point) that is a point on the display screen 201 where the subject gazes. The viewpoint detection unit 355 detects, for example, the intersection of the line-of-sight vector represented in the three-dimensional world coordinate system as shown in FIG. 2 and the XY plane as the gaze point of the subject.

出力制御部356は、表示部101およびスピーカ205などに対する各種情報の出力を制御する。例えば、出力制御部356は、表示部101上の目標位置に目標画像を出力させる。また、出力制御部356は、診断画像、および、評価部357による評価結果などの表示部101に対する出力を制御する。   The output control unit 356 controls the output of various information to the display unit 101, the speaker 205, and the like. For example, the output control unit 356 causes the target image to be output to the target position on the display unit 101. Further, the output control unit 356 controls the output to the display unit 101 such as a diagnostic image and an evaluation result by the evaluation unit 357.

診断画像は、視線(視点)検出結果に基づく評価処理に応じた画像であればよい。例えば発達障がいを診断する場合であれば、発達障がいの被験者が好む画像(幾何学模様映像など)と、それ以外の画像(人物映像など)と、を含む診断画像を用いてもよい。   The diagnostic image may be an image corresponding to the evaluation process based on the line-of-sight (viewpoint) detection result. For example, in the case of diagnosing a developmental disorder, a diagnostic image including an image (such as a geometric pattern image) preferred by a subject with a developmental disorder and other images (such as a person image) may be used.

評価部357は、診断画像と、視点検出部355により検出された注視点とに基づく評価処理を行う。例えば発達障がいを診断する場合であれば、評価部357は、診断画像と注視点とを解析し、発達障がいの被験者が好む画像を注視したか否かを評価する。評価部357は、例えば、後述する図13および図16のような診断画像を表示した際の被験者の注視点の位置に基づいて評価値を算出する。評価値の算出方法の具体例は後述する。評価部357は、診断画像と注視点とに基づいて評価値を算出すればよく、その算出方法は、本実施形態に限定されるものではない。   The evaluation unit 357 performs an evaluation process based on the diagnostic image and the gazing point detected by the viewpoint detection unit 355. For example, in the case of diagnosing a developmental disorder, the evaluation unit 357 analyzes the diagnostic image and the gazing point, and evaluates whether or not the image preferred by the subject with the developmental disorder has been gazed. For example, the evaluation unit 357 calculates an evaluation value based on the position of the gaze point of the subject when the diagnostic images as illustrated in FIGS. 13 and 16 described later are displayed. A specific example of the evaluation value calculation method will be described later. The evaluation unit 357 may calculate the evaluation value based on the diagnostic image and the gazing point, and the calculation method is not limited to the present embodiment.

図5は、本実施形態の診断支援装置100により実行される処理の概要を説明する図である。図1〜図4で説明した要素については同一の符号を付し説明を省略する。   FIG. 5 is a diagram illustrating an outline of processing executed by the diagnosis support apparatus 100 of the present embodiment. The elements described in FIGS. 1 to 4 are denoted by the same reference numerals and description thereof is omitted.

瞳孔中心407および角膜反射中心408は、それぞれ、LED光源103を点灯させた際に検出される瞳孔の中心、および、角膜反射点の中心を表している。角膜曲率半径409は、角膜表面から角膜曲率中心410までの距離を表す。   The pupil center 407 and the corneal reflection center 408 respectively represent the center of the pupil and the center of the corneal reflection point detected when the LED light source 103 is turned on. The corneal curvature radius 409 represents the distance from the corneal surface to the corneal curvature center 410.

図6は、2つの光源(照明部)を用いる方法(以下、方法Aとする)と、1つの光源(照明部)を用いる本実施形態との違いを示す説明図である。図1〜図4で説明した要素については同一の符号を付し説明を省略する。   FIG. 6 is an explanatory diagram showing a difference between a method using two light sources (illuminating units) (hereinafter referred to as method A) and the present embodiment using one light source (illuminating unit). The elements described in FIGS. 1 to 4 are denoted by the same reference numerals and description thereof is omitted.

方法Aは、LED光源103の代わりに、2つのLED光源511、512を用いる。方法Aでは、LED光源511を照射したときの角膜反射中心513とLED光源511とを結ぶ直線515と、LED光源512を照射したときの角膜反射中心514とLED光源512とを結ぶ直線516との交点が算出される。この交点が角膜曲率中心505となる。   Method A uses two LED light sources 511 and 512 instead of the LED light source 103. In the method A, a straight line 515 connecting the cornea reflection center 513 and the LED light source 511 when the LED light source 511 is irradiated, and a straight line 516 connecting the cornea reflection center 514 and the LED light source 512 when the LED light source 512 is irradiated. An intersection is calculated. This intersection is the corneal curvature center 505.

これに対し、本実施形態では、LED光源103を照射したときの、角膜反射中心522とLED光源103とを結ぶ直線523を考える。直線523は、角膜曲率中心505を通る。また角膜の曲率半径は個人差による影響が少なくほぼ一定の値になることが知られている。このことから、LED光源103を照射したときの角膜曲率中心は、直線523上に存在し、一般的な曲率半径値を用いることにより算出することが可能である。   In contrast, in the present embodiment, a straight line 523 connecting the cornea reflection center 522 and the LED light source 103 when the LED light source 103 is irradiated is considered. A straight line 523 passes through the corneal curvature center 505. It is also known that the radius of curvature of the cornea is almost constant with little influence from individual differences. From this, the corneal curvature center when the LED light source 103 is irradiated exists on the straight line 523, and can be calculated by using a general curvature radius value.

しかし、一般的な曲率半径値を用いて求めた角膜曲率中心の位置を使用して視点を算出すると、眼球の個人差により視点位置が本来の位置からずれて、正確な視点位置検出ができない場合がある。   However, if the viewpoint is calculated using the position of the center of corneal curvature calculated using a general radius of curvature, the viewpoint position may deviate from the original position due to individual differences in the eyeballs, and accurate viewpoint position detection cannot be performed. There is.

図7は、視点検出(視線検出)を行う前に、角膜曲率中心位置と、瞳孔中心位置と角膜曲率中心位置との距離を算出する算出処理を説明するための図である。図1〜図4で説明した要素については同一の符号を付し説明を省略する。   FIG. 7 is a diagram for explaining calculation processing for calculating the corneal curvature center position and the distance between the pupil center position and the corneal curvature center position before performing viewpoint detection (line-of-sight detection). The elements described in FIGS. 1 to 4 are denoted by the same reference numerals and description thereof is omitted.

目標位置605は、表示部101上の一点に目標画像等を出して、被験者に見つめさせるための位置である。本実施形態では表示部101の画面の中央位置としている。直線613は、LED光源103と角膜反射中心612とを結ぶ直線である。直線614は、被験者が見つめる目標位置605(注視点)と瞳孔中心611とを結ぶ直線である。角膜曲率中心615は、直線613と直線614との交点である。第3算出部353は、瞳孔中心611と角膜曲率中心615との距離616を算出して記憶しておく。   The target position 605 is a position for displaying a target image or the like at one point on the display unit 101 and causing the subject to stare. In this embodiment, the center position of the screen of the display unit 101 is set. A straight line 613 is a straight line connecting the LED light source 103 and the corneal reflection center 612. A straight line 614 is a straight line connecting the target position 605 (gaze point) that the subject looks at and the pupil center 611. A corneal curvature center 615 is an intersection of the straight line 613 and the straight line 614. The third calculation unit 353 calculates and stores the distance 616 between the pupil center 611 and the corneal curvature center 615.

図8は、本実施形態の算出処理の一例を示すフローチャートである。   FIG. 8 is a flowchart illustrating an example of calculation processing according to the present embodiment.

まず出力制御部356は、表示部101の画面上の1点に目標画像を再生し(ステップS101)、被験者にその1点を注視させる。次に、制御部300は、LED駆動制御部316を用いてLED光源103を被験者の目に向けて点灯させる(ステップS102)。制御部300は、左右カメラ(右カメラ202、左カメラ203)で被験者の目を撮像する(ステップS103)。   First, the output control unit 356 reproduces the target image at one point on the screen of the display unit 101 (step S101), and causes the subject to gaze at the one point. Next, the control unit 300 turns on the LED light source 103 toward the eyes of the subject using the LED drive control unit 316 (step S102). The control unit 300 images the eyes of the subject with the left and right cameras (the right camera 202 and the left camera 203) (step S103).

LED光源103の照射により、瞳孔部分は暗い部分(暗瞳孔)として検出される。またLED照射の反射として、角膜反射の虚像が発生し、明るい部分として角膜反射点(角膜反射中心)が検出される。すなわち、第1算出部351は、撮像された画像から瞳孔部分を検出し、瞳孔中心の位置を示す座標を算出する。第1算出部351は、例えば目を含む一定領域の中で最も暗い部分を含む所定の明るさ以下の領域を瞳孔部分として検出し、最も明るい部分を含む所定の明るさ以上の領域を角膜反射として検出する。また、第2算出部352は、撮像された画像から角膜反射部分を検出し、角膜反射中心の位置を示す座標を算出する。なお、第1算出部351および第2算出部352は、左右カメラで取得した2つの画像それぞれに対して、各座標値を算出する(ステップS104)。   The pupil part is detected as a dark part (dark pupil) by irradiation of the LED light source 103. Further, a corneal reflection virtual image is generated as a reflection of LED irradiation, and a corneal reflection point (corneal reflection center) is detected as a bright portion. That is, the first calculation unit 351 detects a pupil portion from the captured image, and calculates coordinates indicating the position of the pupil center. For example, the first calculation unit 351 detects, as a pupil part, an area having a predetermined brightness or less including the darkest part in a certain area including the eyes, and reflects an area having a predetermined brightness or more including the brightest part to the cornea. Detect as. The second calculation unit 352 detects a corneal reflection portion from the captured image and calculates coordinates indicating the position of the corneal reflection center. The first calculation unit 351 and the second calculation unit 352 calculate each coordinate value for each of the two images acquired by the left and right cameras (step S104).

なお、左右カメラは、三次元世界座標を取得するために、事前にステレオ較正法によるカメラ較正が行われており、変換パラメータが算出されている。ステレオ較正法は、Tsaiのカメラキャリブレーション理論を用いた方法など従来から用いられているあらゆる方法を適用できる。   Note that the left and right cameras are pre-calibrated with a stereo calibration method to obtain three-dimensional world coordinates, and conversion parameters are calculated. As the stereo calibration method, any conventionally used method such as a method using Tsai's camera calibration theory can be applied.

第1算出部351および第2算出部352は、この変換パラメータを使用して、左右カメラの座標から、瞳孔中心と角膜反射中心の三次元世界座標に変換を行う(ステップS105)。第3算出部353は、求めた角膜反射中心の世界座標と、LED光源103の中心位置の世界座標とを結ぶ直線を求める(ステップS106)。次に、第3算出部353は、表示部101の画面上の1点に表示される目標画像の中心の世界座標と、瞳孔中心の世界座標とを結ぶ直線を算出する(ステップS107)。第3算出部353は、ステップS106で算出した直線とステップS107で算出した直線との交点を求め、この交点を角膜曲率中心とする(ステップS108)。第3算出部353は、このときの瞳孔中心と角膜曲率中心との間の距離を算出して記憶部150などに記憶する(ステップS109)。記憶された距離は、その後の視点(視線)検出時に、角膜曲率中心を算出するために使用される。   The first calculation unit 351 and the second calculation unit 352 convert the coordinates of the left and right cameras into the three-dimensional world coordinates of the pupil center and the corneal reflection center using the conversion parameters (step S105). The 3rd calculation part 353 calculates | requires the straight line which connects the world coordinate of the calculated | required corneal reflection center, and the world coordinate of the center position of the LED light source 103 (step S106). Next, the third calculation unit 353 calculates a straight line connecting the world coordinates of the center of the target image displayed at one point on the screen of the display unit 101 and the world coordinates of the pupil center (step S107). The third calculation unit 353 obtains an intersection point between the straight line calculated in step S106 and the straight line calculated in step S107, and sets this intersection point as the corneal curvature center (step S108). The third calculation unit 353 calculates the distance between the pupil center and the corneal curvature center at this time and stores it in the storage unit 150 or the like (step S109). The stored distance is used to calculate the corneal curvature center at the time of subsequent detection of the viewpoint (line of sight).

算出処理で表示部101上の1点を見つめる際の瞳孔中心と角膜曲率中心との間の距離は、表示部101内の視点を検出する範囲で一定に保たれている。瞳孔中心と角膜曲率中心との間の距離は、目標画像を再生中に算出された値全体の平均から求めてもよいし、再生中に算出された値のうち何回かの値の平均から求めてもよい。   The distance between the pupil center and the corneal curvature center when looking at one point on the display unit 101 in the calculation process is kept constant within a range in which the viewpoint in the display unit 101 is detected. The distance between the center of the pupil and the center of corneal curvature may be obtained from the average of all the values calculated during playback of the target image, or from the average of several values of the values calculated during playback. You may ask for it.

図9は、視点検出を行う際に、事前に求めた瞳孔中心と角膜曲率中心との距離を使用して、補正された角膜曲率中心の位置を算出する方法を示した図である。注視点805は、一般的な曲率半径値を用いて算出した角膜曲率中心から求めた注視点を表す。注視点806は、事前に求めた距離を用いて算出した角膜曲率中心から求めた注視点を表す。   FIG. 9 is a diagram illustrating a method of calculating the corrected position of the corneal curvature center using the distance between the pupil center and the corneal curvature center that is obtained in advance when performing viewpoint detection. A gazing point 805 represents a gazing point obtained from a corneal curvature center calculated using a general curvature radius value. A gazing point 806 represents a gazing point obtained from a corneal curvature center calculated using a distance obtained in advance.

瞳孔中心811および角膜反射中心812は、それぞれ、視点検出時に算出された瞳孔中心の位置、および、角膜反射中心の位置を示す。直線813は、LED光源103と角膜反射中心812とを結ぶ直線である。角膜曲率中心814は、一般的な曲率半径値から算出した角膜曲率中心の位置である。距離815は、事前の算出処理により算出した瞳孔中心と角膜曲率中心との距離である。角膜曲率中心816は、事前に求めた距離を用いて算出した角膜曲率中心の位置である。角膜曲率中心816は、角膜曲率中心が直線813上に存在すること、および、瞳孔中心と角膜曲率中心との距離が距離815であることから求められる。これにより一般的な曲率半径値を用いる場合に算出される視線817は、視線818に補正される。また、表示部101の画面上の注視点は、注視点805から注視点806に補正される。   The pupil center 811 and the corneal reflection center 812 indicate the position of the pupil center and the position of the corneal reflection center calculated at the time of viewpoint detection, respectively. A straight line 813 is a straight line connecting the LED light source 103 and the corneal reflection center 812. The corneal curvature center 814 is the position of the corneal curvature center calculated from a general curvature radius value. The distance 815 is the distance between the pupil center and the corneal curvature center calculated by the prior calculation process. The corneal curvature center 816 is the position of the corneal curvature center calculated using the distance obtained in advance. The corneal curvature center 816 is obtained from the fact that the corneal curvature center exists on the straight line 813 and the distance between the pupil center and the corneal curvature center is the distance 815. Thus, the line of sight 817 calculated when a general radius of curvature value is used is corrected to the line of sight 818. Also, the gazing point on the screen of the display unit 101 is corrected from the gazing point 805 to the gazing point 806.

図10は、本実施形態の視線検出処理の一例を示すフローチャートである。例えば、診断画像を用いた診断処理の中で視線を検出する処理として、図10の視線検出処理を実行することができる。診断処理では、図10の各ステップ以外に、診断画像を表示する処理、および、注視点の検出結果を用いた評価部357による評価処理などが実行される。   FIG. 10 is a flowchart illustrating an example of a line-of-sight detection process according to the present embodiment. For example, the line-of-sight detection process of FIG. 10 can be executed as the process of detecting the line of sight in the diagnostic process using the diagnostic image. In the diagnostic process, in addition to the steps in FIG. 10, a process for displaying a diagnostic image, an evaluation process by the evaluation unit 357 using the detection result of the gazing point, and the like are executed.

ステップS201〜ステップS205は、図8のステップS102〜ステップS106と同様であるため説明を省略する。   Steps S201 to S205 are the same as steps S102 to S106 in FIG.

第3算出部353は、ステップS205で算出した直線上であって、瞳孔中心からの距離が、事前の算出処理によって求めた距離と等しい位置を角膜曲率中心として算出する(ステップS206)。   The third calculation unit 353 calculates, as the corneal curvature center, a position on the straight line calculated in step S205 and whose distance from the pupil center is equal to the distance obtained by the previous calculation process (step S206).

視線検出部354は、瞳孔中心と角膜曲率中心とを結ぶベクトル(視線ベクトル)を求める(ステップS207)。このベクトルが、被験者が見ている視線方向を示している。視点検出部355は、この視線方向と表示部101の画面との交点の三次元世界座標値を算出する(ステップS208)。この値が、被験者が注視する表示部101上の1点を世界座標で表した座標値である。視点検出部355は、求めた三次元世界座標値を、表示部101の二次元座標系で表される座標値(x,y)に変換する(ステップS209)。これにより、被験者が見つめる表示部101上の視点(注視点)を算出することができる。   The line-of-sight detection unit 354 determines a vector (line-of-sight vector) connecting the pupil center and the corneal curvature center (step S207). This vector indicates the line-of-sight direction viewed by the subject. The viewpoint detection unit 355 calculates the three-dimensional world coordinate value of the intersection between the line-of-sight direction and the screen of the display unit 101 (step S208). This value is a coordinate value representing one point on the display unit 101 that the subject gazes in world coordinates. The viewpoint detection unit 355 converts the obtained three-dimensional world coordinate value into a coordinate value (x, y) represented in the two-dimensional coordinate system of the display unit 101 (step S209). Thereby, the viewpoint (gaze point) on the display part 101 which a test subject looks at can be calculated.

(変形例1)
瞳孔中心位置と角膜曲率中心位置との距離を算出する算出処理は、図7および図8で説明した方法に限られるものではない。以下では、算出処理の他の例について図11および図12を用いて説明する。
(Modification 1)
The calculation process for calculating the distance between the pupil center position and the corneal curvature center position is not limited to the method described with reference to FIGS. Hereinafter, another example of the calculation process will be described with reference to FIGS. 11 and 12.

図11は、本変形例の算出処理を説明するための図である。図1〜図4および図7で説明した要素については同一の符号を付し説明を省略する。   FIG. 11 is a diagram for explaining the calculation process of the present modification. The elements described in FIGS. 1 to 4 and 7 are denoted by the same reference numerals and description thereof is omitted.

線分1101は、目標位置605とLED光源103とを結ぶ線分(第1線分)である。線分1102は、線分1101と平行で、瞳孔中心611と直線613とを結ぶ線分(第2線分)である。本変形例では、以下のように、線分1101、線分1102を用いて瞳孔中心611と角膜曲率中心615との距離616を算出して記憶しておく。   A line segment 1101 is a line segment (first line segment) connecting the target position 605 and the LED light source 103. A line segment 1102 is a line segment (second line segment) that is parallel to the line segment 1101 and connects the pupil center 611 and the straight line 613. In this modification, the distance 616 between the pupil center 611 and the corneal curvature center 615 is calculated and stored using the line segment 1101 and the line segment 1102 as follows.

図12は、本変形例の算出処理の一例を示すフローチャートである。   FIG. 12 is a flowchart illustrating an example of calculation processing according to this modification.

ステップS301〜ステップS307は、図8のステップS101〜ステップS107と同様であるため説明を省略する。   Steps S301 to S307 are the same as steps S101 to S107 in FIG.

第3算出部353は、表示部101の画面上の1点に表示される目標画像の中心と、LED光源103の中心とを結ぶ線分(図11では線分1101)を算出するとともに、算出した線分の長さ(L1101とする)を算出する(ステップS308)。   The third calculation unit 353 calculates and calculates a line segment (the line segment 1101 in FIG. 11) connecting the center of the target image displayed at one point on the screen of the display unit 101 and the center of the LED light source 103. The length of the line segment (L1101) is calculated (step S308).

第3算出部353は、瞳孔中心611を通り、ステップS308で算出した線分と平行な線分(図11では線分1102)を算出するとともに、算出した線分の長さ(L1102とする)を算出する(ステップS309)。   The third calculation unit 353 calculates a line segment (line segment 1102 in FIG. 11) that passes through the pupil center 611 and is parallel to the line segment calculated in step S308, and calculates the length of the calculated line segment (L1102). Is calculated (step S309).

第3算出部353は、角膜曲率中心615を頂点とし、ステップS308で算出した線分を下辺とする三角形と、角膜曲率中心615を頂点とし、ステップS309で算出した線分を下辺とする三角形とが相似関係にあることに基づき、瞳孔中心611と角膜曲率中心615との間の距離616を算出する(ステップS310)。例えば第3算出部353は、線分1101の長さに対する線分1102の長さの比率と、目標位置605と角膜曲率中心615との間の距離に対する距離616の比率と、が等しくなるように、距離616を算出する。   The third calculation unit 353 has a triangle with the corneal curvature center 615 as the apex and the line segment calculated in step S308 as the lower side, and a triangle with the corneal curvature center 615 as the apex and the line segment calculated in step S309 as the lower side. Is a similar relationship, a distance 616 between the pupil center 611 and the corneal curvature center 615 is calculated (step S310). For example, the third calculation unit 353 causes the ratio of the length of the line segment 1102 to the length of the line segment 1101 and the ratio of the distance 616 to the distance between the target position 605 and the corneal curvature center 615 to be equal. The distance 616 is calculated.

距離616は、以下の(1)式により算出することができる。なおL614は、目標位置605から瞳孔中心611までの距離である。
距離616=(L614×L1102)/(L1101−L1102)・・・(1)
The distance 616 can be calculated by the following equation (1). L614 is the distance from the target position 605 to the pupil center 611.
Distance 616 = (L614 × L1102) / (L1101−L1102) (1)

第3算出部353は、算出した距離616を記憶部150などに記憶する(ステップS311)。記憶された距離は、その後の視点(視線)検出時に、角膜曲率中心を算出するために使用される。   The third calculation unit 353 stores the calculated distance 616 in the storage unit 150 or the like (step S311). The stored distance is used to calculate the corneal curvature center at the time of subsequent detection of the viewpoint (line of sight).

次に、診断支援処理の詳細について説明する。本実施形態では、所定の事象の原因と当該事象とを表す画像を診断画像として用いる。そして、診断画像内に設定した領域に対する注視点の停留時間を測定することにより診断支援を行う。これにより、因果関係を理解するためにどこを注視して情報を得たのか、注視したにも関わらず因果関係を理解できないのかなどの診断を支援することが可能となる。すなわち、従来より高精度の診断支援が可能となる。   Next, details of the diagnosis support processing will be described. In the present embodiment, an image representing a cause of a predetermined event and the event is used as a diagnostic image. Then, diagnosis support is performed by measuring the stop time of the gazing point for the region set in the diagnosis image. Accordingly, it is possible to support diagnosis such as where to pay attention to obtain information in order to understand the causal relationship, or whether the causal relationship cannot be understood despite the attention. That is, diagnosis support with higher accuracy than before can be performed.

図13〜図16は、本実施形態で用いる診断画像の一例を示す図である。図13〜図16の診断画像は、それぞれ、一連の連続動画に含まれる1つのシーンを示す画像の例である。連続動画は、途中でカット割り(画面の切り替えなど)が含まれる動画であってもよい。   13 to 16 are diagrams illustrating examples of diagnostic images used in the present embodiment. Each of the diagnostic images in FIGS. 13 to 16 is an example of an image showing one scene included in a series of continuous moving images. The continuous moving image may be a moving image that includes cut cuts (such as screen switching) in the middle.

図13は、塀の前の道路を人物が歩くシーンを示す画像である。足元には複数の石が落ちている。この画像について、領域が設定される。図13の例では、人を含む領域M、頭を含む領域H、人が転ぶ原因となる石(第1の対象の一例)を含む領域C、および、人(第2の対象の一例)が転ぶ事象とは関係ない石を含む領域Sが設定される。なお、図13〜図16の各画像は、画像の左上を原点(0,0)、右下の座標を(Xmax,Ymax)とする座標系を有する。   FIG. 13 is an image showing a scene where a person walks on a road in front of a fence. Several stones have fallen at the feet. A region is set for this image. In the example of FIG. 13, a region M including a person, a region H including a head, a region C including a stone (an example of a first object) that causes a person to fall, and a person (an example of a second object) A region S including a stone that is not related to a falling event is set. Each of the images in FIGS. 13 to 16 has a coordinate system in which the upper left corner of the image is the origin (0, 0) and the lower right coordinates are (Xmax, Ymax).

図14は、人が領域C内の石につまずいて、転びそうになった瞬間の画像である。図15は、人が領域C内の石につまずいて、転んだ瞬間の画像である。図16は、人が領域C内の石につまずいて、転んだ後のシーンを示す画像である。図14〜図16の各画像に対しても、それぞれ図13と同様な領域が設定されている。   FIG. 14 is an image at the moment when a person trips over a stone in the area C and is about to fall. FIG. 15 is an image at the moment when a person trips over a stone in the region C and falls. FIG. 16 is an image showing a scene after a person trips over a stone in the area C and falls. Regions similar to those in FIG. 13 are set for each of the images in FIGS.

本実施形態では、診断画像の1つとして、ある事象が起きる前の動画の一部をキャプチャした静止画またはこの静止画と同等な静止画と、ある事象が起きた後の動画の一部をキャプチャした静止画またはこの静止画と同等な静止画と、を使用する。   In this embodiment, as one of the diagnostic images, a still image obtained by capturing a part of a moving image before an event occurs or a still image equivalent to the still image, and a part of the moving image after an event occurs. Use a captured still image or a still image equivalent to this still image.

図13〜図16の例では、事象は「人が転ぶこと」であり、この事象の前の動画の一部をキャプチャした静止画1(図13)と、この事象の後の動画の一部をキャプチャした静止画2(図16)と、が診断画像として用いられる。なお、静止画の個数は2に限られず、3以上の静止画を用いてもよい。   In the example of FIGS. 13 to 16, the event is “a person falls”, and still image 1 (FIG. 13) that captures a part of the moving image before this event, and a part of the moving image after this event The still image 2 (FIG. 16) obtained by capturing is used as a diagnostic image. Note that the number of still images is not limited to two, and three or more still images may be used.

図17は、このような診断画像を用いる場合の診断支援処理の一例を示すフローチャートである。   FIG. 17 is a flowchart showing an example of a diagnosis support process when such a diagnostic image is used.

まず、出力制御部356は、静止画1を表示部101に表示する。被験者は、表示された静止画1を見る。このとき、視点検出部355は、注視点を検出する(ステップS401)。   First, the output control unit 356 displays the still image 1 on the display unit 101. The subject looks at the displayed still image 1. At this time, the viewpoint detection unit 355 detects a gazing point (step S401).

次に、出力制御部356は、静止画2を表示部101に表示する。被験者は、表示された静止画2を見る。このとき、視点検出部355は、注視点を検出する(ステップS402)。ステップS401からステップS402への進行は、被験者か操作者による、「次へ進むボタン」(図示せず)の押下などに応じて実行してもよい。被験者や操作者による指示なしに、連続的に表示が進行してもよい。   Next, the output control unit 356 displays the still image 2 on the display unit 101. The subject looks at the displayed still image 2. At this time, the viewpoint detection unit 355 detects a gazing point (step S402). The progress from step S401 to step S402 may be executed in response to pressing of a “next button” (not shown) by the subject or the operator. The display may proceed continuously without an instruction from the subject or the operator.

次に、評価部357は、被験者による一次回答の選択を受け付ける(ステップS403)。図18は、一次回答を選択するための選択画面の一例を示す図である。一次回答とは、診断画像(静止画1、静止画2)を表示した後に選択される回答である。図18の例では、回答の選択肢A1〜A4の中から、質問Qに対する一次回答が選択される。回答の選択肢は、原因または事象の少なくとも一方を表す名詞を含んでもよい。例えば図18では、正解となる選択肢A3は、原因を表す名詞「いし」と、事象を表す名詞「ころんだ」を含む。発達障がいの被験者は、因果関係の判断が難しいので、A3以外を選択することが多い。確率的には、因果関係を理解していなくても正解が選択される場合がある。このため、1問のみの質問では、高精度に診断を支援できない場合がある。従って、多くの種類の映像に対して同様に検査してもよい。これにより診断支援の精度をさらに向上させることができる。   Next, the evaluation unit 357 accepts selection of a primary answer by the subject (step S403). FIG. 18 is a diagram illustrating an example of a selection screen for selecting a primary answer. The primary answer is an answer selected after displaying a diagnostic image (still image 1, still image 2). In the example of FIG. 18, the primary answer to the question Q is selected from the answer options A1 to A4. Answer options may include nouns representing at least one of a cause or an event. For example, in FIG. 18, the correct option A3 includes a noun “Ishi” representing the cause and a noun “falling” representing the event. A subject with developmental disabilities often chooses other than A3 because it is difficult to determine the causal relationship. Probabilistically, the correct answer may be selected even if the causal relationship is not understood. For this reason, a single question may not support diagnosis with high accuracy. Therefore, many types of images may be similarly examined. Thereby, the accuracy of diagnosis support can be further improved.

評価部357は、例えばタッチパネルとして構成された表示部101から、被験者または操作者がタッチした位置を示す位置情報を取得し、位置情報に対応する選択肢の選択を受け付ける。評価部357は、被験者または操作者等が図示しない入力装置(キーボード等)を用いて指定した一次回答を受け付けてもよい。また、一次回答の選択は、図18のような選択画面を用いる方法に限られるものではない。例えば、操作者が口頭で質問および回答の選択肢を説明し、被験者に一次回答を口頭で選択させる方法を用いてもよい。   The evaluation unit 357 acquires position information indicating the position touched by the subject or the operator from the display unit 101 configured as a touch panel, for example, and accepts selection of an option corresponding to the position information. The evaluation unit 357 may accept a primary answer specified by an examinee or an operator using an input device (keyboard or the like) not shown. The selection of the primary answer is not limited to the method using the selection screen as shown in FIG. For example, a method may be used in which the operator explains the question and answer options verbally and causes the subject to select the primary answer verbally.

図17に戻り、出力制御部356は、例えば診断画像(静止画1、静止画2)に対応する動画(図13〜図16の診断画像に対応する一連の連続動画など)を表示部101に表示する。このとき、視点検出部355は、注視点を検出する(ステップS404)。   Returning to FIG. 17, the output control unit 356 displays, for example, a moving image (such as a series of continuous moving images corresponding to the diagnostic images in FIGS. 13 to 16) corresponding to the diagnostic image (still image 1, still image 2) on the display unit 101. indicate. At this time, the viewpoint detection unit 355 detects a gazing point (step S404).

なお、ステップS401、ステップS402、および、ステップS404の注視点検出処理の詳細は後述する。   Note that details of the gazing point detection process in steps S401, S402, and S404 will be described later.

次に、評価部357は、被験者による二次回答の選択を受け付ける(ステップS405)。二次回答とは、診断画像に対応する動画を表示した後に選択される回答である。二次回答の選択は、例えば一次回答の選択と同様の方法により行ってもよい。二次回答の選択肢は、一次回答の選択肢と同じでもよいし、異なってもよい。二次回答を選択させるのは、静止画1と静止画2を見た後の判断(一次回答)と、その後に連続動画を見た後の判断(二次回答)と、を比較できるようにするためである。   Next, the evaluation unit 357 accepts selection of a secondary answer by the subject (step S405). The secondary answer is an answer selected after displaying a moving image corresponding to the diagnostic image. The selection of the secondary answer may be performed by a method similar to the selection of the primary answer, for example. The secondary answer options may be the same as or different from the primary answer options. The secondary answer is selected so that the judgment after viewing still picture 1 and still picture 2 (primary answer) can be compared with the judgment after watching continuous video (secondary answer). It is to do.

次に出力制御部356は、質問の正解を表示部101に表示する(ステップS406)。また出力制御部356は、解説を表示部101に表示する(ステップS407)。   Next, the output control unit 356 displays the correct answer of the question on the display unit 101 (step S406). Further, the output control unit 356 displays the explanation on the display unit 101 (step S407).

図19は、正解を表示するための正解画面の一例を示す図である。図19の例では、正解を示す選択肢A3が、他の選択肢と異なる表示態様で表示されている。正解を示す方法はこれに限られるものではない。一次回答の選択肢と二次回答の選択肢とが異なる場合、すべての選択肢を表示させて、正解の選択肢を強調して表示させてもよい。   FIG. 19 is a diagram illustrating an example of a correct answer screen for displaying a correct answer. In the example of FIG. 19, the option A3 indicating the correct answer is displayed in a different display mode from the other options. The method of indicating the correct answer is not limited to this. If the options for the primary answer and the options for the secondary answer are different, all the options may be displayed, and the correct answer option may be highlighted.

例えばこの正解画面で、つぎボタン2001が押下されると、解説を表示するための解説画面が表示される。図20は、解説画面の一例を示す図である。解説画面が表示されることにより、被験者は、診断画像で示された事象の因果関係などを理解することができる。解説画面で、つぎボタン2101が押下されると、解説画面の表示が終了される。   For example, when the next button 2001 is pressed on this correct answer screen, an explanation screen for displaying an explanation is displayed. FIG. 20 is a diagram illustrating an example of the explanation screen. By displaying the explanation screen, the subject can understand the causal relationship of the events indicated in the diagnostic image. When the next button 2101 is pressed on the explanation screen, display of the explanation screen is terminated.

図17に戻り、評価部357は、検出された注視点のデータを基に分析処理を実行する(ステップS408)。分析処理の詳細は後述する。最後に、出力制御部356は、分析結果を表示部101等に表示する(ステップS409)。   Returning to FIG. 17, the evaluation unit 357 executes analysis processing based on the detected gaze point data (step S <b> 408). Details of the analysis process will be described later. Finally, the output control unit 356 displays the analysis result on the display unit 101 or the like (step S409).

次に、注視点検出処理の詳細について説明する。図21は、注視点検出処理の一例を示すフローチャートである。なお、図21は、図17のステップS401の静止画1を表示した後の注視点検出処理を例に説明するが、図17のステップS402(静止画2を表示した後)、および、ステップS404(動画を表示した後)の注視点検出処理も同様の手順により実現できる。   Next, details of the gazing point detection process will be described. FIG. 21 is a flowchart illustrating an example of a gazing point detection process. FIG. 21 illustrates an example of gaze point detection processing after displaying still image 1 in step S401 in FIG. 17; however, step S402 in FIG. 17 (after displaying still image 2) and step S404 are illustrated. The gazing point detection process (after displaying the moving image) can also be realized by the same procedure.

まず、出力制御部356は、診断画像(静止画1)の再生(表示)を開始する(ステップS501)。次に、出力制御部356は、再生時間を計測するタイマをリセットする(ステップS502)。次に、視点検出部355は、各領域内を注視したときにカウントアップするカウンタ(カウンタST1_M、ST1_H、ST1_C、ST1_S、ST1_OT)をリセットする(ステップS503)。   First, the output control unit 356 starts reproduction (display) of the diagnostic image (still image 1) (step S501). Next, the output control unit 356 resets a timer for measuring the reproduction time (step S502). Next, the viewpoint detection unit 355 resets counters (counters ST1_M, ST1_H, ST1_C, ST1_S, ST1_OT) that are counted up when each area is watched (step S503).

カウンタST1_M、ST1_H、ST1_C、ST1_S、ST1_OTは、静止画1(ST1)を表示したときのカウンタである。各カウンタは、それぞれ以下の領域に対応する。各カウンタをカウントアップすることにより、対応する領域内で注視点が検出される時間を表す停留時間を計測することが可能となる。
カウンタST1_M:領域M
カウンタST1_H:領域H
カウンタST1_C:領域C
カウンタST1_S:領域S
カウンタST1_OT:上記以外の領域
Counters ST1_M, ST1_H, ST1_C, ST1_S, and ST1_OT are counters when still image 1 (ST1) is displayed. Each counter corresponds to the following area. By counting up each counter, it is possible to measure a dwell time that represents a time during which a gazing point is detected in the corresponding region.
Counter ST1_M: area M
Counter ST1_H: Area H
Counter ST1_C: region C
Counter ST1_S: area S
Counter ST1_OT: Area other than the above

次に、視点検出部355は、被験者の注視点を検出する(ステップS504)。視点検出部355は、例えば、図10で説明した手順により注視点を検出することができる。視点検出部355は、注視点の検出が失敗したかを判断する(ステップS505)。瞬きなどにより瞳孔および角膜反射の画像が得られない場合などに、注視点検出が失敗する。また、注視点が表示部101内に存在しない場合(被験者が表示部101以外を見ていた場合)も、失敗と判断してもよい。   Next, the viewpoint detection unit 355 detects the gaze point of the subject (step S504). The viewpoint detection unit 355 can detect a gazing point, for example, by the procedure described in FIG. The viewpoint detection unit 355 determines whether the detection of the gazing point has failed (step S505). Gaze point detection fails when an image of the pupil and corneal reflection cannot be obtained due to blinking or the like. Further, when the gazing point does not exist in the display unit 101 (when the subject is looking at something other than the display unit 101), it may be determined as a failure.

注視点の検出が失敗した場合(ステップS505:Yes)、ステップS516に進む。注視点の検出が成功した場合(ステップS505:No)、視点検出部355は、注視点の座標(注視点座標)を取得する(ステップS506)。   If the detection of the gazing point has failed (step S505: Yes), the process proceeds to step S516. If the detection of the gazing point is successful (step S505: No), the viewpoint detection unit 355 acquires the coordinates of the gazing point (gazing point coordinates) (step S506).

視点検出部355は、取得した注視点座標が、領域M(人周辺)内にあるか否かを判定する(ステップS507)。領域M内にあるとき(ステップS507:Yes)、視点検出部355は、さらに取得した注視点座標が、領域H(頭部周辺)内にあるか否かを判定する(ステップS508)。領域H内にあるとき(ステップS508:Yes)、視点検出部355は、カウンタST1_Hをインクリメント(カウントアップ)する(ステップS510)。領域H内にないとき(ステップS508:No)、視点検出部355は、カウンタST1_Mをインクリメント(カウントアップ)する(ステップS509)。   The viewpoint detection unit 355 determines whether or not the acquired gazing point coordinates are within the region M (person's periphery) (step S507). When in the area M (step S507: Yes), the viewpoint detection unit 355 further determines whether or not the acquired gaze point coordinates are in the area H (around the head) (step S508). When in the area H (step S508: Yes), the viewpoint detection unit 355 increments (counts up) the counter ST1_H (step S510). When not in the area H (step S508: No), the viewpoint detection unit 355 increments (counts up) the counter ST1_M (step S509).

領域Mにない場合(ステップS507:No)、視点検出部355は、取得した注視点座標が、領域C(因果関係の原因となる対象物付近)内にあるか否かを判定する(ステップS511)。領域C内にあるとき(ステップS511:Yes)、視点検出部355は、カウンタST1_Cをインクリメント(カウントアップ)する(ステップS512)。   If not in the region M (step S507: No), the viewpoint detection unit 355 determines whether or not the acquired gaze point coordinates are within the region C (near the object causing the causal relationship) (step S511). ). When in the area C (step S511: Yes), the viewpoint detection unit 355 increments (counts up) the counter ST1_C (step S512).

領域Cにない場合(ステップS511:No)、視点検出部355は、取得した注視点座標が、領域S(因果関係の原因でない物付近)内にあるか否かを判定する(ステップS513)。領域S内にあるとき(ステップS513:Yes)、視点検出部355は、カウンタST1_Sをインクリメント(カウントアップ)する(ステップS514)。   When it is not in the area C (step S511: No), the viewpoint detection unit 355 determines whether or not the acquired gaze point coordinates are within the area S (near the object that is not the cause of the causal relationship) (step S513). When in the area S (step S513: Yes), the viewpoint detection unit 355 increments (counts up) the counter ST1_S (step S514).

領域Sにない場合(ステップS513:No)、設定された領域内に注視点がないので、視点検出部355は、カウンタST1_OTをインクリメント(カウントアップ)する(ステップS515)。   If it is not in the area S (step S513: No), since there is no gazing point in the set area, the viewpoint detection unit 355 increments (counts up) the counter ST1_OT (step S515).

次に、出力制御部356は、映像の再生時間を管理するタイマの完了を確認する(ステップS516)。所定時間が経過していない場合、すなわちタイマが完了していない場合(ステップS516:No)には、ステップS504に戻り測定が継続される。タイマが完了した場合(ステップS516:Yes)、出力制御部356は、映像の再生を停止する(ステップS517)。   Next, the output control unit 356 confirms completion of the timer that manages the playback time of the video (step S516). If the predetermined time has not elapsed, that is, if the timer has not been completed (step S516: No), the process returns to step S504 and measurement is continued. When the timer is completed (step S516: Yes), the output control unit 356 stops the reproduction of the video (step S517).

ステップS402の静止画2(ST2)を表示したときの注視点検出処理は、以下のようにカウンタを置き換えることにより、図21と同様の手順を適用できる。
カウンタST1_M→カウンタST2_M
カウンタST1_H→カウンタST2_H
カウンタST1_C→カウンタST2_C
カウンタST1_S→カウンタST2_S
カウンタST1_OT→カウンタST2_OT
The gaze point detection process when displaying the still image 2 (ST2) in step S402 can apply the same procedure as in FIG. 21 by replacing the counter as follows.
Counter ST1_M → Counter ST2_M
Counter ST1_H → Counter ST2_H
Counter ST1_C → Counter ST2_C
Counter ST1_S → Counter ST2_S
Counter ST1_OT → Counter ST2_OT

ステップS404の動画(MOV)を表示したときの注視点検出処理は、以下のようにカウンタを置き換えることにより、図21と同様の手順を適用できる。
カウンタST1_M→カウンタMOV_M
カウンタST1_H→カウンタMOV_H
カウンタST1_C→カウンタMOV_C
カウンタST1_S→カウンタMOV_S
カウンタST1_OT→カウンタMOV_OT
The gaze point detection process when the moving image (MOV) is displayed in step S404 can apply the same procedure as in FIG. 21 by replacing the counter as follows.
Counter ST1_M → Counter MOV_M
Counter ST1_H → Counter MOV_H
Counter ST1_C → Counter MOV_C
Counter ST1_S → Counter MOV_S
Counter ST1_OT → Counter MOV_OT

次に、分析処理の詳細について説明する。図22は、分析処理の一例を示すフローチャートである。なお、以下で説明する分析処理、および、評価値は一例でありこれらに限られるものではない。例えば評価値は、表示する診断画像に応じて変更してもよい。   Next, details of the analysis process will be described. FIG. 22 is a flowchart illustrating an example of analysis processing. Note that the analysis processing and evaluation values described below are examples and are not limited thereto. For example, the evaluation value may be changed according to the diagnostic image to be displayed.

最初に、評価部357は、選択された一次回答が正解かを判断する(ステップS601)。正解であれば(ステップS601:Yes)、評価部357は、因果関係の把握能力が高いことを示す評価値を算出する(ステップS602)。   First, the evaluation unit 357 determines whether the selected primary answer is correct (step S601). If the answer is correct (step S601: Yes), the evaluation unit 357 calculates an evaluation value indicating that the causal relationship grasping ability is high (step S602).

一次回答が正解ではない場合(ステップS601:No)、または、ステップS602の後、評価部357は、ans1=ST1_M+ST2_Mを計算する(ステップS603)。なお、例えばST1_Mは、カウンタST1_Mの値を表す。以下同様に、カウンタXの値を単に「X」と表す場合がある。   When the primary answer is not correct (step S601: No), or after step S602, the evaluation unit 357 calculates ans1 = ST1_M + ST2_M (step S603). For example, ST1_M represents the value of the counter ST1_M. Similarly, the value of the counter X may be simply expressed as “X”.

次に評価部357は、ans1が閾値k11より大きいかを判断する(ステップS604)。大きい場合(ステップS604:Yes)、評価部357は、事象の変化に対して注目度が高いことを示す評価値を算出する(ステップS605)。ans1は、人を含む領域M内に注視点が含まれる度合いを示すためである。評価値は、事象の変化に対して注目度が高いか、または、低いか、を示す2値であってもよいし、例えばans1の大きさに応じて変化する多値であってもよい。   Next, the evaluation unit 357 determines whether or not ans1 is larger than the threshold value k11 (step S604). If larger (step S604: Yes), the evaluation unit 357 calculates an evaluation value indicating that the degree of attention is high with respect to the change in the event (step S605). Ans1 is for indicating the degree to which the gazing point is included in the region M including the person. The evaluation value may be a binary value indicating whether the degree of attention is high or low with respect to a change in the event, or may be a multivalue that changes according to the magnitude of ans1, for example.

ans1が閾値k11以下の場合(ステップS604:No)、または、ステップS605の後、評価部357は、ans2=ST1_H+ST2_Hを計算する(ステップS606)。次に評価部357は、ans2が閾値k12より大きいかを判断する(ステップS607)。大きい場合(ステップS607:Yes)、評価部357は、人の顔を含む頭部に対して注目度が高く、社会性の発達が高いことを示す評価値を算出する(ステップS608)。ans2は、頭を含む領域H内に注視点が含まれる度合いを示すためである。   When ans1 is less than or equal to the threshold value k11 (step S604: No), or after step S605, the evaluation unit 357 calculates ans2 = ST1_H + ST2_H (step S606). Next, the evaluation unit 357 determines whether ans2 is larger than the threshold value k12 (step S607). If larger (step S607: Yes), the evaluation unit 357 calculates an evaluation value indicating that the degree of attention is high with respect to the head including the human face and the social development is high (step S608). Ans2 is for indicating the degree to which the gazing point is included in the region H including the head.

ans2が閾値k12以下の場合(ステップS607:No)、または、ステップS608の後、評価部357は、ans3=ST1_C+ST2_Cを計算する(ステップS609)。次に評価部357は、ans3が閾値k13より大きいかを判断する(ステップS610)。大きい場合(ステップS610:Yes)、評価部357は、関連性への予測能力が高く、因果関係に関連した対象に対して注目していることを示す評価値を算出する(ステップS611)。ans3は、人が転ぶ原因となる石を含む領域C内に注視点が含まれる度合いを示すためである。   When ans2 is equal to or less than the threshold value k12 (step S607: No), or after step S608, the evaluation unit 357 calculates ans3 = ST1_C + ST2_C (step S609). Next, the evaluation unit 357 determines whether or not ans3 is larger than the threshold value k13 (step S610). If larger (step S610: Yes), the evaluation unit 357 calculates an evaluation value indicating that the ability to predict relevance is high and attention is paid to a target related to the causal relationship (step S611). Ans3 is for indicating the degree to which the gazing point is included in the region C including the stone that causes the person to fall.

ans3が閾値k13以下の場合(ステップS610:No)、または、ステップS611の後、評価部357は、ans4=ST1_M+ST2_M+ST1_C+ST2_C+ST1_S+ST2_Sを計算する(ステップS612)。次に評価部357は、ans4が閾値k14より大きいかを判断する(ステップS613)。大きい場合(ステップS613:Yes)、評価部357は、さまざまな物体や事象に対して関心度が高いことを示す評価値を算出する(ステップS614)。ans4は、人または石などの物体を含む領域(領域M、領域C、領域S)内に注視点が含まれる度合いを示すためである。   When ans3 is equal to or smaller than the threshold k13 (step S610: No), or after step S611, the evaluation unit 357 calculates ans4 = ST1_M + ST2_M + ST1_C + ST2_C + ST1_S + ST2_S (step S612). Next, the evaluation unit 357 determines whether or not ans4 is greater than the threshold value k14 (step S613). If larger (step S613: Yes), the evaluation unit 357 calculates an evaluation value indicating that the degree of interest is high for various objects and events (step S614). Ans4 is for indicating the degree to which a gazing point is included in a region (region M, region C, region S) including an object such as a person or a stone.

ans4が閾値k14以下の場合(ステップS613:No)、または、ステップS614の後、分析処理を終了する。なお、ans1と同様に、ans2、ans3、および、ans4は2値であってもよいし、多値であってもよい。   If ans4 is equal to or less than the threshold value k14 (step S613: No), or after step S614, the analysis process is terminated. As with ans1, ans2, ans3, and ans4 may be binary or multivalued.

発達障がいの被験者は、因果関係の理解が難しい場合が多い。そして、因果関係の原因となったものを注視してその情報を脳に取り入れたが因果関係が理解できなかったのか、因果関係の原因となったものを見ようとせず、情報そのものが脳に届いていないために因果関係が理解できなかったのか、により、療育の方法を変更することが望ましい。特に、因果関係の把握能力が高いことを示す評価値(ステップS602)、社会性の発達が高いことを示す評価値(ステップS608)、および、関連性への予測能力が高いことを示す評価値(ステップS611)に当てはまらない場合は、発達障がいのリスクがあるということになる。   Subjects with developmental disabilities often have difficulty understanding causality. Then, I focused on what caused the cause-and-effect relationship and took the information into the brain, but I couldn't understand the cause-and-effect relationship. It is desirable to change the method of treatment depending on whether the cause-and-effect relationship could not be understood. In particular, an evaluation value (step S602) indicating that the causal relationship grasping ability is high, an evaluation value (step S608) indicating that social development is high, and an evaluation value indicating that the ability to predict relevance is high. If this is not the case (step S611), there is a risk of developmental disability.

本実施形態の診断支援装置によればある事象の前後の画像(例えば静止画1、静止画2)が表示されたときに、被験者がどの部分を見たかを測定する。このため、因果関係を理解できるか否かなどについても高精度に診断を支援することが可能となる。また、分析(診断)した結果を参考に、療育方針を決定することが可能となる。   According to the diagnosis support apparatus of this embodiment, when images before and after a certain event (for example, still image 1 and still image 2) are displayed, it is measured which part the subject has seen. For this reason, it is possible to support diagnosis with high accuracy as to whether or not the causal relationship can be understood. In addition, it is possible to determine a treatment policy with reference to the result of analysis (diagnosis).

図23は、因果関係の例を示す図である。左の列に記載の原因に対して、右の列に記載の結果が生じることを示している。上記静止画1および静止画2の代わりに、図23に記載の原因を示す静止画と、この原因に対応する結果を示す静止画と、を用いてもよい。なお、図23の例以外にも、原因と結果を表す様々な診断画像を用いることができる。また、例えば図23に示すような因果関係を示す診断画像(2つの静止画など)を複数回表示して、複数の診断画像に対する評価結果を積算してもよい。例えば、複数の診断画像を表示するごとに各カウンタの値をリセットせず、すべての診断画像に対するカウンタの値の加算を継続してもよい。なおこの場合は、例えば図22の分析処理で用いる各閾値を、使用する複数の診断画像の個数または種別等に応じて変更してもよい。これにより、さらに評価の精度を上げることができる。   FIG. 23 is a diagram illustrating an example of the causal relationship. For the causes described in the left column, the results described in the right column are generated. Instead of the still image 1 and the still image 2, a still image indicating the cause described in FIG. 23 and a still image indicating a result corresponding to the cause may be used. In addition to the example shown in FIG. 23, various diagnostic images representing causes and results can be used. Further, for example, diagnostic images (such as two still images) showing the causal relationship as shown in FIG. 23 may be displayed a plurality of times, and the evaluation results for the plurality of diagnostic images may be integrated. For example, each time a plurality of diagnostic images are displayed, the value of each counter may not be reset, and the addition of the counter values to all the diagnostic images may be continued. In this case, for example, each threshold value used in the analysis processing of FIG. 22 may be changed according to the number or type of a plurality of diagnostic images to be used. Thereby, the accuracy of evaluation can be further increased.

図22に示すように、原則としては、事象の前後の画像(静止画1、静止画2)を表示したときの注視点に基づき診断の支援を行う。動画の表示、動画を表示したときの注視点の検出、および、解説の表示など(図17のステップS404〜ステップS407)は、被験者に正解を教えること、および、動画を見ることにより理解したか、などを評価可能とするために行われる。従って、例えば診断支援のみを目的とする場合は、これらの処理(図17のステップS404〜ステップS407)を省略してもよい。   As shown in FIG. 22, in principle, diagnosis is supported based on the point of gaze when images before and after the event (still image 1, still image 2) are displayed. Did you understand how to display moving images, detect gazing points when displaying moving images, and display explanations (steps S404 to S407 in FIG. 17) by teaching the subject the correct answer and watching the moving images? , Etc. to make it possible to evaluate. Therefore, for example, when the purpose is only diagnosis support, these processes (steps S404 to S407 in FIG. 17) may be omitted.

また、例えば関連性への予測能力が高いかを示す評価値(ステップS611)が算出されれば、因果関係の理解についての診断を支援できる。この場合、正解画面の表示、および、一次回答の選択受付などは実行しなくてもよい。診断画像が表示されたときの注視点の検出結果のみで、ステップS611のような評価値を算出することができるためである。   For example, if an evaluation value (step S611) indicating whether the ability to predict relevance is high is calculated, it is possible to support diagnosis of understanding of the causal relationship. In this case, it is not necessary to execute the display of the correct answer screen and the selection reception of the primary answer. This is because the evaluation value as in step S611 can be calculated only by the detection result of the gazing point when the diagnostic image is displayed.

図22では、各評価値は、それぞれ独立に算出されていた。図22の各条件のうち2以上を組み合わせて評価値を求めるように構成してもよい。例えば、一次回答が正解であり(ステップS601:Yes)、かつ、ans3が閾値k13より大きい場合(ステップS610:Yes)に、関連性への予測能力が高いことを示す評価値を算出してもよい。   In FIG. 22, each evaluation value is calculated independently. You may comprise so that an evaluation value may be calculated | required combining 2 or more among each conditions of FIG. For example, if the primary answer is correct (step S601: Yes) and ans3 is greater than the threshold value k13 (step S610: Yes), an evaluation value indicating that the ability to predict relevance is high may be calculated. Good.

図17の診断支援処理は、因果関係を説明する説明画像(動画)の表示(ステップS404)、正解の表示(ステップS406)、および、解説の表示(ステップS407)を含んでいる。従って、診断を支援できるとともに、トレーニングの支援も実現できる。また、例えば同じ診断画像または異なる複数の診断画像に対して図17の処理を繰り返せば、より効果的なトレーニングの支援が可能になる。   The diagnosis support process of FIG. 17 includes an explanation image (moving image) display (step S404), a correct answer display (step S406), and an explanation display (step S407) for explaining the causal relationship. Therefore, diagnosis can be supported and training can be supported. Further, for example, if the process of FIG. 17 is repeated for the same diagnostic image or a plurality of different diagnostic images, more effective training support can be provided.

図24は、療育の効果を検証および表示する検証処理の一例を示すフローチャートである。   FIG. 24 is a flowchart illustrating an example of a verification process for verifying and displaying the effect of medical treatment.

まず評価部357は、測定前に被験者の名前などの被験者情報と、測定日とを、例えば記憶部150などに記憶する(ステップS701)。次に、図17に示すような診断支援処理(測定)が実行される(ステップS702)。次に評価部357は、同一被験者の過去の測定データが記憶されているか否かを判断する(ステップS703)。測定データは、例えば、各カウンタの値(停留時間)、カウンタの値から算出されたans1〜ans4、および、評価値の一部または全部である。   First, the evaluation unit 357 stores the subject information such as the name of the subject and the measurement date before the measurement, for example, in the storage unit 150 (step S701). Next, a diagnosis support process (measurement) as shown in FIG. 17 is executed (step S702). Next, the evaluation unit 357 determines whether past measurement data of the same subject is stored (step S703). The measurement data is, for example, each counter value (stop time), ans1 to ans4 calculated from the counter value, and part or all of the evaluation value.

過去の測定データが記憶されている場合(ステップS703:Yes)、出力制御部356は、過去の測定データ、および、過去の測定データに対する今回の測定データの変化を示す情報を表示部101に表示する(ステップS704)。   When past measurement data is stored (step S703: Yes), the output control unit 356 displays the past measurement data and information indicating the change of the current measurement data with respect to the past measurement data on the display unit 101. (Step S704).

図25は、測定データの変化の決定方法の一例を説明するための図である。図25では、前回の測定データに対する今回の測定データの変化を、静止画および動画に分けて決定する例が示されている。   FIG. 25 is a diagram for explaining an example of a method for determining changes in measurement data. FIG. 25 shows an example in which the change of the current measurement data with respect to the previous measurement data is determined separately for still images and moving images.

例えば、「因果関係の把握能力が高い」の評価値については、変化がないことが示されている。ansn_old(nは1〜4)は、前回の測定データの値を示す。ansn_new(nは1〜4)は、今回の測定データの値を示す。図25に示すように、測定データの変化は、例えば、ansn_newとansn_oldとの差分により決定できる。   For example, it is indicated that there is no change in the evaluation value “high ability to grasp causality”. ansn_old (n is 1 to 4) indicates the value of the previous measurement data. ansn_new (n is 1 to 4) indicates the value of the current measurement data. As shown in FIG. 25, the change in the measurement data can be determined by the difference between ansn_new and ansn_old, for example.

出力制御部356は、このようにして決定した測定データの変化を示す情報(差分を示す値)を、例えば表示部101に表示する。出力制御部356は、測定データや変化を示す情報を、表示部101に代えて他の装置(ネットワークで接続された外部の通信装置、プリンタなど)に出力してもよい。   The output control unit 356 displays information (a value indicating a difference) indicating the change in the measurement data determined in this way on the display unit 101, for example. The output control unit 356 may output the measurement data and information indicating the change to another device (an external communication device or a printer connected via a network) instead of the display unit 101.

図24に戻り、過去の測定データが記憶されていない場合(ステップS703:No)、または、ステップS704の表示処理の後、出力制御部356は、今回の測定データを表示部101等に表示する(ステップS705)。なお、過去の測定データがある場合、出力制御部356は、前回の測定データ、今回の測定データ、および、変化を示す情報を同時に表示してもよい。   Returning to FIG. 24, when past measurement data is not stored (step S703: No), or after the display process of step S704, the output control unit 356 displays the current measurement data on the display unit 101 or the like. (Step S705). When there is past measurement data, the output control unit 356 may simultaneously display the previous measurement data, the current measurement data, and information indicating changes.

以上のように、何回か診断画像を見てトレーニングすることにより、因果関係を把握する能力を向上させること、また、そのトレーニングによる効果を確認することが可能になる。   As described above, it is possible to improve the ability to grasp the causal relationship by confirming the diagnosis image several times and to confirm the effect of the training.

動画を表示した場合にも分析処理を実行してもよい。図26は、動画表示時の分析処理の一例を示すフローチャートである。図22と比較すると、図26では、以下のようにans1〜ans4の算出方法および閾値が変更される。その他の処理の流れは図22と同様であるため説明を省略する。
ans1=MOV_M
ans2=MOV_H
ans3=MOV_C
ans4=MOV_M+MOV_C+MOV_S
k11→k21
k12→k22
k13→k23
k14→k24
Analysis processing may also be executed when a moving image is displayed. FIG. 26 is a flowchart illustrating an example of analysis processing during moving image display. Compared with FIG. 22, in FIG. 26, the calculation methods and threshold values of ans 1 to ans 4 are changed as follows. Since the other processing flow is the same as that shown in FIG.
ans1 = MOV_M
ans2 = MOV_H
ans3 = MOV_C
ans4 = MOV_M + MOV_C + MOV_S
k11 → k21
k12 → k22
k13 → k23
k14 → k24

図26に示すような分析処理により、動画を見たことによる理解の向上を評価可能となる。また、例えば図22の評価結果に、さらに動画の評価結果を積算するように構成してもよい。これにより、さらに評価の精度を上げることができる。   With the analysis processing as shown in FIG. 26, it is possible to evaluate improvement in understanding due to viewing of a moving image. Further, for example, the evaluation result of FIG. 22 may be further integrated with the evaluation result of the moving image. Thereby, the accuracy of evaluation can be further increased.

療育方針の決定を支援できるように、診断結果に応じて推奨するトレーニング方法(療育方針)を表示部101等に表示するように構成してもよい。例えば、評価部357が、測定データと予め定められた方針決定用の閾値とを比較し、出力制御部356が、閾値より小さい場合と閾値以上の場合とで異なるトレーニング方法を表示してもよい。また出力制御部356が、異なる測定データ(例えば、因果関係の把握能力が高いことを示す評価値と、関連性への予測能力が高いことを示す評価値)の値の組み合わせ等に応じて異なるトレーニング方法を表示してもよい。トレーニング方法としては、本診断支援装置100を用いるトレーニング方法、イラストや写真を用いるトレーニング方法などがあるが、その他のどのようなトレーニング方法であってもよい。   A training method (nursing policy) recommended according to the diagnosis result may be displayed on the display unit 101 or the like so as to support the determination of the nursing policy. For example, the evaluation unit 357 may compare the measurement data with a predetermined policy decision threshold value, and the output control unit 356 may display different training methods depending on whether the threshold value is smaller than the threshold value or more. . Further, the output control unit 356 varies depending on combinations of values of different measurement data (for example, an evaluation value indicating that the ability to grasp causality is high and an evaluation value indicating that the ability to predict relevance is high). The training method may be displayed. As a training method, there are a training method using the diagnosis support apparatus 100, a training method using illustrations and photographs, and any other training method may be used.

上記例では、説明画像として、診断時に用いた診断画像(静止画1および静止画2)を含む動画を用いたが、説明画像はこのような動画に限られるものではない。原因と事象の因果関係を表し、トレーニングの支援となる画像であればどのような画像であってもよい。例えば、診断画像とは異なる1以上の静止画を含む説明画像を用いてもよい。   In the above example, a moving image including the diagnostic images (still image 1 and still image 2) used at the time of diagnosis is used as the explanatory image. However, the explanatory image is not limited to such a moving image. Any image may be used as long as it represents the cause-and-effect relationship between the cause and the event and serves as training support. For example, an explanatory image including one or more still images different from the diagnostic image may be used.

(変形例2)
上記実施形態では、発達障がいなどの診断を支援する診断支援装置をトレーニング支援装置としても利用する例を説明した。例えば説明画像、正解、および、解説などを表示可能な装置であれば、診断支援装置以外にも上記実施形態のトレーニング支援装置を適用できる。本変形例では、タブレット、スマートフォン、および、ノートPC(パーソナルコンピュータ)などの携帯端末をトレーニング支援装置とした例を説明する。これ以外にも通常のパーソナルコンピュータなどの情報処理装置をトレーニング支援装置に適用することもできる。
(Modification 2)
In the above embodiment, an example has been described in which a diagnosis support apparatus that supports diagnosis of developmental disabilities is also used as a training support apparatus. For example, as long as the device can display an explanation image, a correct answer, an explanation, and the like, the training support device of the above embodiment can be applied in addition to the diagnosis support device. In this modification, an example in which a mobile terminal such as a tablet, a smartphone, and a notebook PC (personal computer) is used as a training support device will be described. In addition, an information processing apparatus such as a normal personal computer can be applied to the training support apparatus.

例えば図17の診断支援処理のステップS401、ステップS402、および、ステップS404内で実行される注視点検出処理は、主に発達障がいの診断支援に用いる評価値を算出するために用いられる。従って、トレーニング支援を目的とする場合は、注視点検出処理は実行しなくてもよい。以下では注視点検出処理を含まないトレーニング支援処理の例について説明する。図27は、本変形例のトレーニング支援処理の一例を示すフローチャートである。   For example, the gaze point detection process executed in steps S401, S402, and S404 of the diagnosis support process of FIG. 17 is mainly used to calculate an evaluation value used for diagnosis support for developmental disabilities. Therefore, when aiming at training support, the gazing point detection process may not be executed. Hereinafter, an example of the training support process that does not include the gazing point detection process will be described. FIG. 27 is a flowchart illustrating an example of training support processing according to the present modification.

例えばトレーニング支援用のプログラムが開始されると、出力制御部356は、メニュー画面を表示する(ステップS901)。   For example, when a training support program is started, the output control unit 356 displays a menu screen (step S901).

図28は、変形例2のメニュー画面の一例を示す図である。図28に示すように、メニュー画面は、問題を選択するための選択ボタン2801〜2806と、終了ボタン2811と、を含んでいる。選択ボタン2801〜2806のいずれかが押下されると、対応する問題の画像が表示される。図28では、6種類の問題(問題1〜問題6)が選択可能な例が示されている。問題の個数、および、問題の選択方法は図28の例に限られるものではない。終了ボタン2811が押下されるとプログラムが終了する。   FIG. 28 is a diagram illustrating an example of a menu screen according to the second modification. As shown in FIG. 28, the menu screen includes selection buttons 2801 to 2806 for selecting a problem, and an end button 2811. When one of the selection buttons 2801 to 2806 is pressed, a corresponding problem image is displayed. FIG. 28 shows an example in which six types of problems (problem 1 to problem 6) can be selected. The number of problems and the method for selecting problems are not limited to the example of FIG. When the end button 2811 is pressed, the program ends.

図27に戻り、出力制御部356は、終了ボタン2811が押下されたか否かを判断する(ステップS902)。終了ボタン2811が押下された場合(ステップS902:Yes)、出力制御部356はトレーニング支援処理を終了する。   Returning to FIG. 27, the output control unit 356 determines whether or not the end button 2811 has been pressed (step S902). When the end button 2811 is pressed (step S902: Yes), the output control unit 356 ends the training support process.

終了ボタン2811が押下されていない場合(ステップS902:No)、出力制御部356は、選択ボタン2801〜2806が押下されたか否かを判断する(ステップS903)。選択ボタン2801〜2806が押下されていない場合(ステップS903:No)、ステップS902に戻り処理が繰り返される。   When the end button 2811 has not been pressed (step S902: No), the output control unit 356 determines whether the selection buttons 2801 to 2806 have been pressed (step S903). When the selection buttons 2801 to 2806 are not pressed (step S903: No), the process returns to step S902 and the process is repeated.

選択ボタン2801〜2806が押下された場合(ステップS903:Yes)、出力制御部356は、選択ボタン2801〜2806のうち押下されたボタンに対応する問題の選択を受け付ける(ステップS904)。出力制御部356は、受け付けた問題に対応する画像のうち、事象の原因を示す静止画1を表示する(ステップS905)。例えば使用者(被教育者)が、問題1を選択するために図28の選択ボタン2801を押下したとする。図29は、このときに表示される静止画1の例を示す図である。図29は、原因となる物体(石)を含む静止画の例を示している。   When the selection buttons 2801 to 2806 are pressed (step S903: Yes), the output control unit 356 accepts selection of a problem corresponding to the pressed button among the selection buttons 2801 to 2806 (step S904). The output control unit 356 displays the still image 1 indicating the cause of the event among the images corresponding to the accepted problem (step S905). For example, it is assumed that the user (educated person) presses the selection button 2801 in FIG. FIG. 29 is a diagram illustrating an example of the still image 1 displayed at this time. FIG. 29 shows an example of a still image including a causal object (stone).

図27に戻り、出力制御部356は、所定の時間(例えば10秒)静止画1を表示した後に、事象を示す静止画2を所定の時間(例えば10秒)表示する(ステップS906)。各静止画の表示時間は同じであってもよいし、異なってもよい。図30は、このときに表示される静止画2の例を示す図である。図30は、原因となる物体(石)によって引き起こされた結果(転んでいる)を示す静止画の例である。   Returning to FIG. 27, after displaying the still image 1 for a predetermined time (for example, 10 seconds), the output control unit 356 displays the still image 2 indicating the event for a predetermined time (for example, 10 seconds) (step S906). The display time of each still image may be the same or different. FIG. 30 is a diagram illustrating an example of the still image 2 displayed at this time. FIG. 30 is an example of a still image showing the result (turned) caused by the causal object (stone).

次に、出力制御部356は、回答の選択を受け付ける(ステップS907)。図31は、回答を選択するための選択画面の一例を示す図である。図31では、2つの静止画(静止画1、静止画2)とともに、質問Qと回答の選択肢A1〜A4とを含む選択画面の例が示されている。使用者は、回答の選択肢A1〜A4の中から、質問Qに対する回答を選択する。出力制御部356は、このようにして使用者によって選択された回答を受け付ける。   Next, the output control unit 356 receives an answer selection (step S907). FIG. 31 is a diagram illustrating an example of a selection screen for selecting an answer. FIG. 31 shows an example of a selection screen including a question Q and answer options A1 to A4 together with two still images (still image 1 and still image 2). The user selects an answer to the question Q from the answer options A1 to A4. The output control unit 356 receives the answer selected in this way by the user.

図27に戻り、出力制御部356は、質問の正解を表示部101に表示する(ステップS908)。た出力制御部356は、解説を表示部101に表示する(ステップS909)。   Returning to FIG. 27, the output control unit 356 displays the correct answer of the question on the display unit 101 (step S908). The output control unit 356 displays the explanation on the display unit 101 (step S909).

図32は、正解を表示するための正解画面の一例を示す図である。図32の例では、回答の結果(「よくできました ○」)とともに、正解を示す選択肢A3が、他の選択肢と異なる表示態様(グレーアウトしていない)で表示されている。例えばこの正解画面で、つぎボタン2001が押下されると、解説を表示するための解説画面が表示される。図33は、解説画面の一例を示す図である。解説画面が表示されることにより、被験者は、診断画像で示された事象の因果関係などを理解することができる。解説画面で、ボタン3301が押下されると、回答を示す動画(回答ビデオ)を再生する再生画面が表示される。   FIG. 32 is a diagram illustrating an example of a correct answer screen for displaying a correct answer. In the example of FIG. 32, together with the answer result (“I did well”), the option A3 indicating the correct answer is displayed in a display mode (not grayed out) different from the other options. For example, when the next button 2001 is pressed on this correct answer screen, an explanation screen for displaying an explanation is displayed. FIG. 33 is a diagram illustrating an example of an explanation screen. By displaying the explanation screen, the subject can understand the causal relationship of the events indicated in the diagnostic image. When the button 3301 is pressed on the explanation screen, a playback screen for playing back a moving image (answer video) showing an answer is displayed.

解説画面のボタン3301が押下されると、出力制御部356は、再生画面を表示部101に表示する(ステップS910)。再生画面では、例えば静止画1から静止画2までの過程を含む動画が表示される。図34は、再生画面の一例を示す図である。この再生画面は、再生される動画のある時点の画像であり、説明文(「石につまずきました」)を含む画像が表示された例を示している。このような動画を表示することにより、使用者は事象の因果関係などについてさらに理解を深めることが可能となる。   When the button 3301 on the explanation screen is pressed, the output control unit 356 displays a reproduction screen on the display unit 101 (step S910). On the playback screen, for example, a moving image including a process from still image 1 to still image 2 is displayed. FIG. 34 is a diagram illustrating an example of a playback screen. This reproduction screen is an image at a certain point in time of a moving image to be reproduced, and shows an example in which an image including an explanatory text (“stumbling on a stone”) is displayed. By displaying such a moving image, the user can further understand the causal relationship between events.

再生画面の表示が終わると、メニュー表示(ステップS901)に戻る。   When the display of the reproduction screen is finished, the display returns to the menu display (step S901).

このような処理により、注視点検出装置が搭載されていない、価格が安いタブレットのような装置でもトレーニングが可能になる。ただし、医師等がトレーニング時の注視点により評価したり、指導したりすることはできない。   By such processing, it is possible to perform training even with an inexpensive device such as a tablet that is not equipped with a gazing point detection device. However, doctors and the like cannot evaluate or give guidance based on the gaze points during training.

図35は、ノートPCによりトレーニング支援装置を実現した例を説明する図である。図35は、ノートPCのディスプレイ(表示部101に相当)に、図29に対応する静止画1が表示された例を示す。   FIG. 35 is a diagram for explaining an example in which a training support apparatus is realized by a notebook PC. FIG. 35 shows an example in which the still image 1 corresponding to FIG. 29 is displayed on the display (corresponding to the display unit 101) of the notebook PC.

使用者の回答が正解であった場合、正解する毎にポイント等を付与してもよい。これにより、使用者がトレーニングを実施する意欲を高め、より効果的にトレーニングを支援可能となる。   If the user's answer is correct, points or the like may be given each time the user answers correctly. Thereby, a user's willingness to implement training can be increased and training can be supported more effectively.

以上のように、本実施形態によれば、例えば以下のような効果が得られる。
(1)トレーニングのための画像を何回も視聴させることにより因果関係を効果的に理解させることができる。
(2)トレーニングの効果を測定することができる。
(3)被験者が因果関係に関連するものを注視したか、否かを知ることができる。
(4)療育のポイント・方向性を設定することができる。
(5)自己分析が可能である。
(6)社会性の発達についても確認できる。
(7)光源(照明部)を2ヶ所に配置する必要がなく、1ヵ所に配置した光源で視線検出を行うことが可能となる。
(8)光源が1ヵ所になったため、装置をコンパクトにすることが可能となり、コストダウンも実現できる。
As described above, according to the present embodiment, for example, the following effects can be obtained.
(1) Causality can be effectively understood by viewing images for training many times.
(2) The effect of training can be measured.
(3) It is possible to know whether or not the subject has watched something related to the causal relationship.
(4) Nursing points and directions can be set.
(5) Self-analysis is possible.
(6) Can confirm social development.
(7) It is not necessary to arrange the light source (illuminating unit) at two places, and it becomes possible to detect the line of sight with the light source arranged at one place.
(8) Since there is only one light source, the apparatus can be made compact and the cost can be reduced.

100 診断支援装置
101 表示部
102 ステレオカメラ
103 LED光源
150 記憶部
201 表示画面
202 右カメラ
203 左カメラ
205 スピーカ
300 制御部
313 駆動・IF部
316 LED駆動制御部
322 スピーカ駆動部
351 第1算出部
352 第2算出部
353 第3算出部
354 視線検出部
355 視点検出部
356 出力制御部
357 評価部
DESCRIPTION OF SYMBOLS 100 Diagnosis support apparatus 101 Display part 102 Stereo camera 103 LED light source 150 Storage part 201 Display screen 202 Right camera 203 Left camera 205 Speaker 300 Control part 313 Drive / IF part 316 LED drive control part 322 Speaker drive part 351 1st calculation part 352 Second calculation unit 353 Third calculation unit 354 Gaze detection unit 355 View point detection unit 356 Output control unit 357 Evaluation unit

Claims (12)

表示部と、
被験者を撮像する撮像部と、
前記撮像部により撮像された撮像画像から、前記被験者の視線方向を検出する視線検出部と、
前記視線方向に基づいて、前記表示部の表示領域における前記被験者の視点を検出する視点検出部と、
所定の事象の原因と前記事象とを表す診断画像、および、前記原因と前記事象の因果関係を表す説明画像を前記表示部に表示させる出力制御部と、
前記診断画像が表示されたときの前記視点検出部により検出された前記視点に基づいて前記被験者の評価値を算出する評価部と、
を備えることを特徴とするトレーニング支援装置。
A display unit;
An imaging unit for imaging a subject;
From a captured image captured by the imaging unit, a gaze detection unit that detects the gaze direction of the subject,
A viewpoint detection unit that detects the viewpoint of the subject in the display area of the display unit based on the line-of-sight direction;
A diagnostic image representing the cause of the predetermined event and the event; and an output control unit for causing the display unit to display an explanatory image representing the cause-and-effect relationship between the cause and the event;
An evaluation unit that calculates an evaluation value of the subject based on the viewpoint detected by the viewpoint detection unit when the diagnostic image is displayed;
A training support apparatus comprising:
前記診断画像は、前記原因を表す静止画と、前記事象を表す静止画と、を含み、
前記説明画像は、前記原因を表すシーンと、前記事象を表すシーンと、を含む動画であること、
を特徴とする請求項1に記載のトレーニング支援装置。
The diagnostic image includes a still image representing the cause and a still image representing the event,
The explanatory image is a moving image including a scene representing the cause and a scene representing the event;
The training support apparatus according to claim 1.
前記出力制御部は、前記表示部に前記診断画像を表示させた後に、前記説明画像を表示させることを特徴とする請求項1または2に記載のトレーニング支援装置。   The training support apparatus according to claim 1, wherein the output control unit displays the explanation image after the diagnostic image is displayed on the display unit. 前記出力制御部は、前記評価値に応じて異なるトレーニング方法を前記表示部に表示させること、
を特徴とする請求項1から3のいずれか一項に記載のトレーニング支援装置。
The output control unit causes the display unit to display a different training method according to the evaluation value;
The training support device according to any one of claims 1 to 3, wherein
前記出力制御部は、第1診断画像に対する評価値と、前記第1診断画像より前に表示された第2診断画像に対する評価値とに基づいて、前記被験者の評価値の変化を示す情報を出力すること、
を特徴とする請求項1から4のいずれか一項に記載のトレーニング支援装置。
The output control unit outputs information indicating a change in the evaluation value of the subject based on the evaluation value for the first diagnostic image and the evaluation value for the second diagnostic image displayed before the first diagnostic image. To do,
The training support device according to any one of claims 1 to 4, wherein
前記出力制御部は、さらに、前記事象に関する質問を出力させ、
前記評価部は、前記視点および前記質問に対する回答に基づいて、前記被験者の評価値を算出すること、
を特徴とする請求項1から5のいずれか一項に記載のトレーニング支援装置。
The output control unit further causes a question regarding the event to be output,
The evaluation unit calculates an evaluation value of the subject based on the viewpoint and an answer to the question;
The training support device according to any one of claims 1 to 5, wherein
前記評価部は、前記診断画像に含まれる領域のうち、前記原因である第1の対象を含む第1領域で前記視点が検出される時間を表す第1停留時間と、前記診断画像に含まれる領域のうち、前記事象が発生する対象である第2の対象を含む第2領域で前記視点が検出される時間を表す第2停留時間と、の少なくとも一方に基づいて前記評価値を算出すること、
を特徴とする請求項1から6のいずれか一項に記載のトレーニング支援装置。
The evaluation unit is included in the diagnostic image and a first stop time that represents a time during which the viewpoint is detected in a first region including the first target that is the cause among the regions included in the diagnostic image. The evaluation value is calculated based on at least one of a second stop time that represents a time during which the viewpoint is detected in a second region that includes a second target that is a target in which the event occurs. about,
The training support device according to any one of claims 1 to 6, wherein
前記評価部は、さらに、前記診断画像に含まれる領域のうち、前記第1領域および前記第2領域以外の領域で前記視点が検出される時間を表す第3停留時間に基づいて前記評価値を算出すること、
を特徴とする請求項7に記載のトレーニング支援装置。
The evaluation unit further calculates the evaluation value based on a third stop time that represents a time during which the viewpoint is detected in a region other than the first region and the second region among regions included in the diagnostic image. To calculate,
The training support apparatus according to claim 7.
前記出力制御部は、複数の診断画像を表示させ、
前記評価部は、複数の診断画像が表示されたときの前記視点検出部により検出された前記視点に基づいて前記被験者の評価値を算出すること、
を特徴とする請求項1から8のいずれか一項に記載のトレーニング支援装置。
The output control unit displays a plurality of diagnostic images,
The evaluation unit calculates an evaluation value of the subject based on the viewpoint detected by the viewpoint detection unit when a plurality of diagnostic images are displayed;
The training support device according to any one of claims 1 to 8, wherein
光を照射する光源を含む照明部と、
前記照明部によって光が照射され、前記撮像部によって撮像された被験者の眼球の画像から瞳孔の中心を示す第1位置と、角膜反射の中心を示す第2位置と、を検出する位置検出部と、
前記光源の位置と、前記表示部上の第3位置と、前記第1位置と、前記第2位置と、に基づいて、角膜の曲率中心を示す第4位置を算出する算出部と、をさらに備え、
前記視線検出部は、前記第1位置と前記第4位置とに基づいて前記被験者の視線を検出することを特徴とする請求項1から9のいずれか一項に記載のトレーニング支援装置。
An illumination unit including a light source that emits light;
A position detection unit that detects a first position indicating the center of the pupil and a second position indicating the center of corneal reflection from the image of the eyeball of the subject imaged by the imaging unit and irradiated with light; ,
A calculation unit that calculates a fourth position indicating the center of curvature of the cornea based on the position of the light source, the third position on the display unit, the first position, and the second position; Prepared,
The training support apparatus according to claim 1, wherein the line-of-sight detection unit detects the line of sight of the subject based on the first position and the fourth position.
前記出力制御部は、さらに、前記事象に関する質問と、前記原因または前記事象の少なくとも一方を表す名詞を含む前記質問に対する回答の選択肢と、を出力させること、
を特徴とする請求項1から10のいずれか一項に記載のトレーニング支援装置。
The output control unit further outputs a question regarding the event and an answer option for the question including a noun representing at least one of the cause or the event,
The training support device according to any one of claims 1 to 10, wherein
コンピュータを、
被験者を撮像する撮像部、
前記撮像部により撮像された撮像画像から、前記被験者の視線方向を検出する視線検出部、
前記視線方向に基づいて、表示部の表示領域における前記被験者の視点を検出する視点検出部、
所定の事象の原因と前記事象とを表す診断画像、および、前記原因と前記事象の因果関係を表す説明画像を前記表示部に表示させる出力制御部、
および、前記診断画像が表示されたときの前記視点検出部により検出された前記視点に基づいて前記被験者の評価値を算出する評価部、
として機能させるためのプログラム。
Computer
An imaging unit for imaging a subject;
From a captured image captured by the imaging unit, a gaze detection unit that detects a gaze direction of the subject,
A viewpoint detection unit that detects the viewpoint of the subject in the display area of the display unit based on the line-of-sight direction;
A diagnostic image representing the cause of the predetermined event and the event, and an output control unit for displaying an explanation image representing the causal relationship between the cause and the event on the display unit,
And an evaluation unit that calculates an evaluation value of the subject based on the viewpoint detected by the viewpoint detection unit when the diagnostic image is displayed,
Program to function as.
JP2014242033A 2014-07-31 2014-11-28 Training support apparatus and program Active JP6330638B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014242033A JP6330638B2 (en) 2014-07-31 2014-11-28 Training support apparatus and program
EP15177666.3A EP2979635B1 (en) 2014-07-31 2015-07-21 Diagnosis supporting device, diagnosis supporting method, and computer-readable recording medium
US14/805,050 US20160029938A1 (en) 2014-07-31 2015-07-21 Diagnosis supporting device, diagnosis supporting method, and computer-readable recording medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014156812 2014-07-31
JP2014156812 2014-07-31
JP2014242033A JP6330638B2 (en) 2014-07-31 2014-11-28 Training support apparatus and program

Publications (2)

Publication Number Publication Date
JP2016034466A JP2016034466A (en) 2016-03-17
JP6330638B2 true JP6330638B2 (en) 2018-05-30

Family

ID=55522744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014242033A Active JP6330638B2 (en) 2014-07-31 2014-11-28 Training support apparatus and program

Country Status (1)

Country Link
JP (1) JP6330638B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6787601B2 (en) * 2019-03-19 2020-11-18 Impute株式会社 Autism treatment support system, autism treatment support device, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57109973A (en) * 1980-12-26 1982-07-08 Shinjirou Hatasa Safety teaching tool for preventing accident of child
JP4608655B2 (en) * 2005-05-24 2011-01-12 国立大学法人広島大学 Learning support device, learning support device control method, learning support device control program, and computer-readable recording medium

Also Published As

Publication number Publication date
JP2016034466A (en) 2016-03-17

Similar Documents

Publication Publication Date Title
JP6269377B2 (en) Diagnosis support apparatus and diagnosis support method
JP5912351B2 (en) Autism diagnosis support system and autism diagnosis support apparatus
JP6340503B2 (en) Eye tracking system and method for detecting dominant eye
US9706910B1 (en) Interactive system for vision assessment and correction
US10856733B2 (en) Methods and systems for testing aspects of vision
RU2716201C2 (en) Method and apparatus for determining visual acuity of user
Kinateder et al. Using an augmented reality device as a distance-based vision aid—promise and limitations
WO2014208761A1 (en) Diagnosis assistance device and diagnosis assistance method
US10709328B2 (en) Main module, system and method for self-examination of a user&#39;s eye
WO2015146491A1 (en) Detection device and detection method
EP2979635B1 (en) Diagnosis supporting device, diagnosis supporting method, and computer-readable recording medium
EP3607872A1 (en) Vision screening device and methods
US9888847B2 (en) Ophthalmic examination system
WO2016001796A1 (en) Eye condition determination system
JP6245093B2 (en) Diagnosis support apparatus and diagnosis support method
JP6142822B2 (en) Diagnosis support apparatus and diagnosis support method
JP6988787B2 (en) Display device, display method, and program
KR101984993B1 (en) Visual field examination device using personalized marker control
JP6135550B2 (en) Diagnosis support apparatus and diagnosis support method
JP6330638B2 (en) Training support apparatus and program
JP2015144635A (en) detection device and detection method
JP6327171B2 (en) Gaze point detection device and gaze point detection method
JP6187347B2 (en) Detection apparatus and detection method
US20220079484A1 (en) Evaluation device, evaluation method, and medium
WO2023242635A2 (en) Single device remote visual acuity testing systems and methods

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180409

R150 Certificate of patent or registration of utility model

Ref document number: 6330638

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150