JP2014018565A - Diagnosis support apparatus and diagnosis support method - Google Patents
Diagnosis support apparatus and diagnosis support method Download PDFInfo
- Publication number
- JP2014018565A JP2014018565A JP2012162607A JP2012162607A JP2014018565A JP 2014018565 A JP2014018565 A JP 2014018565A JP 2012162607 A JP2012162607 A JP 2012162607A JP 2012162607 A JP2012162607 A JP 2012162607A JP 2014018565 A JP2014018565 A JP 2014018565A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- display area
- viewpoint
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
Abstract
Description
本発明は、診断支援装置および診断支援方法に関する。 The present invention relates to a diagnosis support apparatus and a diagnosis support method.
最近、発達障害者が増加傾向にあると言われている。発達障害は、早期に発見し療育を開始することで症状を軽減し、社会に適応できる効果が高くなることがわかっている。我が国でも、1歳半検診時の問診などにより早期発見を目指している。しかし、精神科医不足や、問診に時間が掛かるなどの問題があり、その効果は十分とはいえない。そこで、客観的で効率的な発達障害の診断支援装置が求められている。 Recently, people with developmental disabilities are said to be on the rise. Developmental disorders are known to be detected early and start treatment to reduce symptoms and increase the effect of adapting to society. In Japan, we are aiming for early detection through interviews at the age of 1 and a half. However, there are problems such as shortage of psychiatrists and time-consuming interviews, and the effect is not sufficient. Therefore, there is a need for an objective and efficient diagnosis support device for developmental disorders.
発達障害早期発見のためには、例えば1歳半検診時に診断できることが理想的である。発達障害児の特徴として、スリット視において、局所の少ない情報を統合して全体像をつかむのが苦手であることが挙げられる。また、カメラで人の顔を撮影して、角膜反射と瞳孔の位置を計算することにより注視点を検出する方法などを応用して、発達障害を診断支援する方法が提案されている。 For early detection of developmental disorders, it is ideal to be able to diagnose at the age of 1 and a half. One of the characteristics of children with developmental disabilities is that they are not good at grasping the whole picture by integrating less local information in slit view. In addition, a method for supporting diagnosis of developmental disorders by applying a method of detecting a gazing point by photographing a human face with a camera and calculating a corneal reflection and a pupil position has been proposed.
従来のスリット視では、映像を被験者に見せて、対象の画像名を口頭で答えてもらっていたが、言葉の話せない乳幼児では診断できないという問題があった。 In the conventional slit view, the subject is shown the video and the subject's image name is answered verbally, but there is a problem that an infant who cannot speak can not be diagnosed.
本発明は、上記に鑑みてなされたものであって、言葉の話せない被験者に対してもスリット視による診断の支援を実現できる診断支援装置および診断支援方法を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide a diagnosis support apparatus and a diagnosis support method capable of realizing diagnosis support by slit vision for a subject who cannot speak words.
上述した課題を解決し、目的を達成するために、本発明は、複数の遮蔽部により一部が遮蔽される第1表示領域と、前記複数の遮蔽部により遮蔽されない第2表示領域および第3表示領域と、を含む表示部と、前記複数の遮蔽部の間のスリットを通過するように前記第1表示領域に第1画像を表示し、前記第1画像が前記スリットを通過後に、前記第2表示領域および前記第3表示領域の一方に前記第1画像を表示するとともに、他方に第2画像を表示する表示制御部と、前記表示部の表示領域における被験者の視点を検出する視点検出部と、前記視点の検出結果に基づいて前記被験者の発達障害の程度を判定する判定部と、を備えることを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention provides a first display area that is partially shielded by a plurality of shielding parts, a second display area that is not shielded by the plurality of shielding parts, and a third display area. A first image displayed on the first display region so as to pass through a slit between the plurality of shielding units and a display unit including a display region, and after the first image passes through the slit, A display control unit that displays the first image on one of the two display regions and the third display region and displays the second image on the other, and a viewpoint detection unit that detects the viewpoint of the subject in the display region of the display unit And a determination unit that determines the degree of developmental disorder of the subject based on the detection result of the viewpoint.
また、本発明は、複数の遮蔽部により一部が遮蔽される第1表示領域と、前記複数の遮蔽部により遮蔽されない第2表示領域および第3表示領域と、を含む表示部を備える診断支援装置で実行される診断支援方法であって、前記複数の遮蔽部の間のスリットを通過するように前記第1表示領域に第1画像を表示し、前記第1画像が前記スリットを通過後に、前記第2表示領域および前記第3表示領域の一方に前記第1画像を表示するとともに、他方に第2画像を表示する表示制御ステップと、前記表示部の表示領域における被験者の視点を検出する視点検出ステップと、前記視点の検出結果に基づいて前記被験者の発達障害の程度を判定する判定ステップと、を含むことを特徴とする。 In addition, the present invention provides a diagnosis support including a display unit including a first display region that is partially shielded by a plurality of shielding units, and a second display region and a third display region that are not shielded by the plurality of shielding units. A diagnosis support method executed by the apparatus, wherein the first image is displayed in the first display area so as to pass through the slits between the plurality of shielding portions, and the first image passes through the slits. A display control step of displaying the first image on one of the second display area and the third display area and displaying the second image on the other, and a viewpoint for detecting the viewpoint of the subject in the display area of the display unit A detection step; and a determination step of determining a degree of developmental disorder of the subject based on the detection result of the viewpoint.
本発明にかかる診断支援装置および診断支援方法は、言葉の話せない被験者に対してもスリット視による診断の支援を実現できるという効果を奏する。 The diagnosis support apparatus and the diagnosis support method according to the present invention have an effect that diagnosis support by slit vision can be realized even for a subject who cannot speak words.
以下に、本発明にかかる診断支援装置および診断支援方法の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。 Hereinafter, embodiments of a diagnosis support apparatus and a diagnosis support method according to the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited by this embodiment.
従来のスリット視は、例えば、移動する観察対象の画像をスリットの背後の表示部に表示し、観察対象が何であるかを被験者に回答させていた。本実施形態の診断支援装置は、スリットの背後を観察対象が移動するように表示した後、移動の方向を複数に分岐させて、1つの方向に存在する表示領域に観察対象の画像をさらに移動させて表示する。また、他の方向に存在する表示領域には観察対象と異なる画像を表示する。そして、被験者が、観察対象の画像を表示した表示領域と、観察対象と異なる画像を表示した表示領域とのいずれを注視したかを判定することにより、発達障害の程度を判定する。健常の被験者であれば、観察対象の画像を表示した表示領域を早期に見つけてこの表示領域を注視すると考えられる。従って、例えば観察対象の画像を表示した表示領域を注視する傾向があれば、健常であると判定できる。このような構成により、言葉が話せない1歳半程度の被験者に対しても発達障害の診断支援を実行可能となる。 In conventional slit viewing, for example, an image of a moving observation target is displayed on a display unit behind the slit, and the subject is asked what the observation target is. The diagnosis support apparatus according to the present embodiment displays the back of the slit so that the observation target moves, and then branches the movement direction into a plurality of directions, and further moves the image of the observation target to a display area existing in one direction. To display. Further, an image different from the observation target is displayed in the display area existing in the other direction. Then, the degree of developmental disorder is determined by determining which of the display area in which the subject displayed the image to be observed and the display area in which the image different from the observation target was displayed. If it is a healthy subject, it is considered that a display area displaying an image to be observed is found early and the display area is watched. Therefore, for example, if there is a tendency to gaze at a display area displaying an image to be observed, it can be determined that the image is healthy. With such a configuration, developmental support for diagnosis of developmental disabilities can be performed even for subjects who are about one and a half years old who cannot speak language.
図1は、本実施形態で用いる表示部、ステレオカメラ、および光源の配置の一例を示す図である。図1に示すように、本実施形態では、表示画面101の下側に、1組のステレオカメラ102を配置する。ステレオカメラ102は、赤外線によるステレオ撮影が可能な撮像部であり、右カメラ202と左カメラ204とを備えている。
FIG. 1 is a diagram illustrating an example of an arrangement of a display unit, a stereo camera, and a light source used in the present embodiment. As shown in FIG. 1, in this embodiment, a set of
右カメラ202および左カメラ204の各レンズの直前には、円周方向に赤外LED(Light Emitting Diode)光源203および205がそれぞれ配置される。赤外LED光源203および205は、発光する波長が相互に異なる内周のLEDと外周のLEDとを含む。赤外LED光源203および205により被験者の瞳孔を検出する。瞳孔の検出方法としては、例えば特許文献2に記載された方法などを適用できる。
Infrared LED (Light Emitting Diode)
視線(視点)を検出する際には、空間を座標で表現して位置を特定する。本実施形態では、表示画面101の画面の中央位置を原点として、上下をY座標(上が+)、横をX座標(向かって右が+)、奥行きをZ座標(手前が+)としている。
When detecting the line of sight (viewpoint), the position is specified by expressing the space with coordinates. In this embodiment, the center position of the
図2は、診断支援装置100の機能の概要を示す図である。図2では、図1に示した構成の一部と、この構成の駆動などに用いられる構成を示している。図2に示すように、診断支援装置100は、右カメラ202と、左カメラ204と、赤外LED光源203および205と、スピーカ105と、駆動・IF部208と、制御部300と、表示部210と、を含む。図2において、表示画面101は、右カメラ202および左カメラ204との位置関係を分かりやすく示しているが、表示画面101は表示部210において表示される画面である。
FIG. 2 is a diagram illustrating an outline of functions of the
スピーカ105は、キャリブレーション時などに、被験者に注意を促すための音声などを出力する。
The
駆動・IF部208は、ステレオカメラ102に含まれる各部を駆動する。また、駆動・IF部208は、ステレオカメラ102に含まれる各部と、制御部300とのインタフェースとなる。
The drive /
表示部210は、診断のための対象画像等、各種情報を表示する。
The
図3は、図2に示す各部の詳細な機能の一例を示すブロック図である。図3に示すように、制御部300には、表示部210と、駆動・IF部208が接続される。駆動・IF部208は、カメラIF314、315と、LED駆動制御部316と、スピーカ駆動部322と、を備える。
FIG. 3 is a block diagram illustrating an example of detailed functions of the respective units illustrated in FIG. As shown in FIG. 3, a
駆動・IF部208には、カメラIF314、315を介して、それぞれ、右カメラ202、左カメラ204が接続される。駆動・IF部208がこれらのカメラを駆動することにより、被験者を撮像する。
A
右カメラ202からはフレーム同期信号が出力される。フレーム同期信号は、左カメラ204とLED駆動制御部316とに入力される。これにより、第1フレームで、タイミングをずらして左右の波長1の赤外線光源(波長1−LED303、波長1−LED305)を発光させ、それに対応して左右カメラ(右カメラ202、左カメラ204)による画像を取り込み、第2フレームで、タイミングをずらして左右の波長2の赤外線光源(波長2−LED304、波長2−LED306)を発光させ、それに対応して左右カメラによる画像を取り込んでいる。
A frame synchronization signal is output from the
赤外LED光源203は、波長1−LED303と、波長2−LED304と、を備えている。赤外LED光源205は、波長1−LED305と、波長2−LED306と、を備えている。
The infrared
波長1−LED303、305は、波長1の赤外線を照射する。波長2−LED304、306は、波長2の赤外線を照射する。
Wavelength 1-
波長1および波長2は、それぞれ例えば900nm未満の波長および900nm以上の波長とする。900nm未満の波長の赤外線を照射して瞳孔で反射された反射光を撮像すると、900nm以上の波長の赤外線を照射して瞳孔で反射された反射光を撮像した場合に比べて、明るい瞳孔像が得られるためである。
The
スピーカ駆動部322は、スピーカ105を駆動する。
The
制御部300は、診断支援装置100全体を制御して、結果を表示部210およびスピーカ105などに出力する。制御部300は、表示制御部351と、視点検出部352と、判定部353と、を備えている。
The
表示制御部351は、表示部210に対する画像の表示を制御する。本実施形態では、表示制御部351は、スリット視が可能なように表示部210に画像を表示する。例えば、表示制御部351は、複数の遮蔽部の間のスリットを通過するように第1表示領域に観察対象の画像(第1画像)を表示し、観察対象の画像がスリットを通過後に、第2表示領域および第3表示領域の一方に観察対象の画像を表示するとともに、他方に、観察対象と異なる画像(第2画像)を表示する。
The
第1表示領域は、複数の遮蔽部により一部が遮蔽され、スリットの背後に定められる表示領域である。第2表示領域および第3表示領域は、複数の遮蔽部により遮蔽されない表示領域である。また第2表示領域および第3表示領域は、スリットの背後を移動する観察対象の移動方向を分岐させた2つの方向に定められる表示領域である。 The first display area is a display area that is partially shielded by a plurality of shielding portions and defined behind the slit. The second display area and the third display area are display areas that are not shielded by the plurality of shielding portions. In addition, the second display area and the third display area are display areas that are determined in two directions that are branched from the moving direction of the observation object that moves behind the slit.
なお、遮蔽部は、表示部210に表示された画像として実現してもよいし、表示部210の前方に設けられる物理的な物体として実現してもよい。前者の場合、例えば表示制御部351が、遮蔽部とする領域には常に遮蔽部に対応する画像を表示するように構成すればよい。
The shielding unit may be realized as an image displayed on the
視点検出部352は、表示画面101の表示領域(第1表示領域、第2表示領域、第3表示領域など)における被験者の視点を検出する。視点検出部352は、例えば、表示画面101に表示された対象画像のうち、被験者が注視する点である視点を検出する。視点検出部352による視点検出方法としては、従来から用いられているあらゆる方法を適用できる。以下では、特許文献3と同様に、ステレオカメラを用いて被験者の視点を検出する場合を例に説明する。
The
この場合、まず視点検出部352は、ステレオカメラ102で撮影された画像から、被験者の視線方向を検出する。視点検出部352は、例えば、特許文献1および2に記載された方法などを用いて、被験者の視線方向を検出する。具体的には、視点検出部352は、波長1の赤外線を照射して撮影した画像と、波長2の赤外線を照射して撮影した画像との差分を求め、瞳孔像が明確化された画像を生成する。視点検出部352は、左右のカメラ(右カメラ202、左カメラ204)で撮影された画像それぞれから上記のように生成された2つの画像を用いて、ステレオ視の手法により被験者の瞳孔の位置(目の位置)を算出する。また、視点検出部352は、左右のカメラで撮影された画像を用いて被験者の角膜反射の位置を算出する。そして、視点検出部352は、被験者の瞳孔の位置と角膜反射位置とから、被験者の視線方向を表す視線ベクトルを算出する。
In this case, first, the
視点検出部352は、例えば図1のような座標系で表される視線ベクトルとXY平面との交点を、被験者の視点として検出する。両目の視線方向が得られた場合は、被験者の左右の視線の交点を求めることによって視点を計測してもよい。
The
なお、被験者の視点の検出方法はこれに限られるものではない。例えば、赤外線ではなく、可視光を用いて撮影した画像を解析することにより、被験者の視点を検出してもよい。 Note that the method for detecting the viewpoint of the subject is not limited to this. For example, you may detect a test subject's viewpoint by analyzing the image image | photographed using visible light instead of infrared rays.
図4は、2台のカメラ(右カメラ202、左カメラ204)を使用した場合の目の検出の一例を示す図である。2台のカメラは、事前にステレオ較正法によるカメラキャリブレーション理論を適用し、カメラパラメータを求めておく。ステレオ較正法は、Tsaiのカメラキャリブレーション理論を用いた方法など従来から用いられているあらゆる方法を適用できる。右カメラ202で撮影された画像から検出した目の位置と、左カメラ204で撮影された画像から検出した目の位置と、カメラパラメータとを用いて、世界座標系における目の3次元座標が得られる。これにより、瞳孔座標を推定することができる。瞳孔座標とは、XY平面上での被験者の目(瞳孔)の位置を表す座標値である。瞳孔座標は、例えば、世界座標系で表される目の位置をXY平面に投影した座標値とすることができる。通常は、左右両目の瞳孔座標が求められる。
FIG. 4 is a diagram illustrating an example of eye detection when two cameras (the
図3に戻り、判定部353は、視点の検出結果に基づいて被験者の発達障害の程度を判定する。例えば、判定部353は、視点検出部352によって検出された視点が、第2表示領域および第3表示領域で検出される時間(停留時間)を計測し、計測した停留時間を用いて発達障害の程度を判定する。また、判定部353が、第1表示領域から、第2表示領域または第3表示領域に移動するまでの時間(移動時間)を用いて発達障害の程度を判定してもよい。判定部353が、停留時間および移動時間の両方を用いて発達障害の程度を判定してもよい。以下では、停留時間および移動時間の両方を用いて発達障害の程度を判定する例を説明する。
Returning to FIG. 3, the
図5〜図11を用いて、表示制御部351が表示部210に表示する映像(画像)の経過について説明する。図5は、測定開始状態の表示例を表す図である。これ以前に個別のキャリブレーションは完了しているものとする。なお、キャリブレーションには、上述のカメラキャリブレーションだけでなく、被験者の目の特性個人差を吸収するための視線検出用のキャリブレーション(視線検出用較正)も含まれる。視線検出用較正では、例えば、所定の座標系上で既知である所定の位置(例えば図示しない較正用LED)を被験者に注視させて、その時の瞳孔の中心(瞳孔の位置)と角膜反射位置とを測定する。そして、測定された瞳孔の位置と角膜反射位置とから求められる視線方向が、所定の位置に向くように、視線検出のための計算パラメータが修正される。
The progress of the video (image) displayed on the
複数の遮蔽部501および502の間にはスリット503が設けられている。また、遮蔽部502の一方(図5では左側)は画像の出口側となっており、入口側(スリット503側)より広くなっている。
A
スリット503付近を第1表示領域(以下、エリアA1とする)とし、上側の画像出口付近の領域を第2表示領域(以下、エリアA2とする)とし、下側の画像出口付近の領域を第3表示領域(以下、エリアA3とする)としている。
The area near the
図6は、画像が移動を開始した状態の表示例を表す図である。図6は、犬の形の画像を表示する例を示している。表示制御部351がスリット503の背後を画像が移動するように表示すると、被験者は、スリット503から犬の画像を観察できる。
FIG. 6 is a diagram illustrating a display example in a state where the image starts to move. FIG. 6 shows an example of displaying a dog-shaped image. When the
図7は、画像がさらに移動した状態の表示例を表す図である。画像が移動することにより、被験者は画像の全体像を推測することが可能になる。部分的に特徴が少ない画像の場合、発達障害の可能性のある被験者は、全体像を予想することが苦手である。 FIG. 7 is a diagram illustrating a display example in a state where the image is further moved. By moving the image, the subject can estimate the entire image. In the case of an image with few features, subjects with a developmental disorder are not good at predicting the whole picture.
図8は、さらに画像が移動した状態の表示例を表す図である。表示制御部351は、途中で分岐した経路をたどるように画像を表示する。また、表示制御部351は、スリット503を通過した正解となる犬の画像(以下、正解画像という(図8では上の画像))と、これとは別の不正解の熊の顔の画像(以下、不正解画像という(図8では下の画像))が、出口から徐々に現れるように、各画像の表示を制御する。健常の被験者は、正解画像を早く見つけて、正解画像を見る。判定部353は、この状況を数値化し、判定に利用する。例えば、判定部353は、エリアA1からエリアA2への注視点の移動時間と、エリアA1からエリアA3への注視点の移動時間を測定する。
FIG. 8 is a diagram illustrating a display example in a state where the image is further moved. The
図9は、さらに画像が移動をした状態の表示例を表す図である。上出口に犬の画像、下出口に熊の顔の画像が完全に現れる。表示制御部351は、この状態で所定時間画像を停止させる。判定部353は、エリアA2およびエリアA3での注視点の停留時間を測定する。
FIG. 9 is a diagram illustrating a display example in a state where the image is further moved. The image of the dog appears at the upper exit, and the image of the bear's face appears completely at the lower exit. The
また、本実施形態では、同様な測定を2回行う。表示制御部351は、2回目の測定時には、正解画像を下側の出口に表示し、不正解画像を上側の出口に表示する。
In the present embodiment, the same measurement is performed twice. In the second measurement, the
図10は、2回目の測定時に出口付近に画像が表示され始めた状態の表示例を表す図である。図11は、2回目の測定時に出口から画像が完全に出て表示された状態の表示例を表す図である。移動時間や停留時間の測定は、図8および図9での説明と同様に行う。 FIG. 10 is a diagram illustrating a display example in a state where an image starts to be displayed near the exit during the second measurement. FIG. 11 is a diagram illustrating a display example in a state in which the image is completely displayed from the exit during the second measurement. The movement time and the stop time are measured in the same manner as described with reference to FIGS.
図12は、測定および診断処理の一例を表すフローチャートである。まず、表示制御部351は、画面中の各エリアの位置(座標範囲)を設定する(ステップS601)。例えば、表示制御部351は、予め定められたエリアA1、A2、A3の座標範囲を設定する。
FIG. 12 is a flowchart illustrating an example of measurement and diagnosis processing. First, the
次に、表示制御部351は、変数nに1をセットする(ステップS602)。次に、表示制御部351は、表示する画像1、画像2を決定する(ステップS603)。通常のテストでは、画像を複数用意して、ランダムで表示する画像を決定する。なお、図12の例では画像1が正解画像、画像2が不正解画像となる。
Next, the
次に、表示制御部351は、スリット503の直前の位置で遮蔽部501に完全に隠れるように画像1を表示する(ステップS604)。この状態では、画像1は遮蔽部501に隠されているので、スリット503からも見ることはできない。
Next, the
次に、判定部353は、エリアA1における視点停留時間t0の計測を開始する(ステップS605)。表示制御部351は、その直後に、画像1の移動表示を開始する(ステップS606)。これによりスリット503から画像1の一部が見られるようになる。
Next, the
次に、表示制御部351は、画像1がスリット503を通過完了したか判断する(ステップS607)。完了していなければ(ステップS607:No)、ステップS606に戻る。完了した場合には(ステップS607:Yes)、判定部353は、エリアA1における視点停留時間t0の計測を完了する(ステップS608)。
Next, the
次に、判定部353は、エリアA1における視点停留時間t0と、所定の閾値T0とを比較する(ステップS609)。エリアA1における視点停留時間t0が、所定の閾値T0未満の場合(ステップS609:Yes)、ステップS604に戻り処理を繰り返す。この場合は、被験者がスリット503をあまり注視していなかったことになり、正確な判断ができないためである。
Next, the
エリアA1における視点停留時間t0が、所定の閾値T0以上の場合(ステップS609:No)、判定部353は、変数n=1であるか否かを判断する(ステップS610)。n=1の場合は1回目の測定であり、n=2の場合は2回目の測定となる。最初は、n=1なので(ステップS610:Yes)、ステップS611に進む。表示制御部351は、画像1が上出口へ移動して表示され、画像2が下出口へ移動して表示されるように準備する。すなわち、表示制御部351は、画像1を上出口直前に表示し、画像2を下出口直前に表示する(ステップS611)。この状態では、遮蔽部502に隠されるため、被験者は画像を見ることができない。
When the viewpoint stop time t0 in the area A1 is equal to or longer than the predetermined threshold T0 (step S609: No), the
次に、判定部353は、エリアA2、エリアA3において、視点停留時間t11、t21の計測を開始する(ステップS612)。また、判定部353は、ほぼ同時に、エリアA2、エリアA3において、視点突入時間t12、t22の計測を開始する(ステップS613)。突入時間は、エリアA1から、エリアA2またはエリアA3へ注視点が移ってくるまでの時間(移動時間)を指しており、正解画像をいかに早く見つけるかを判断するために用いられる。
Next, the
次に、表示制御部351は、画像1、画像2の各出口からの移動表示を開始する(ステップS614)。被験者は、画像がスリット503を通過後に出口に向かい、その後出口から出てきたという状況を推測させる映像を見ることが可能になる。表示制御部351は、画像1および画像2が各出口を通過完了したか判断する(ステップS615)。完了していなければ(ステップS615:No)、ステップS614に戻り処理を繰り返す。完了したら(ステップS615:Yes)、ステップS616に進む。
Next, the
次に、判定部353は、エリアA2、エリアA3における視点停留時間t11、t21の計測を完了する(ステップS616)。また、判定部353は、エリアA2、エリアA3視点突入時間t12、t22の計測を完了する(ステップS617)。
Next, the
次に、判定部353は、変数n=1であるか否かを判断する(ステップS625)。n=1の場合は(ステップS625:Yes)、判定部353は、n=2に更新して(ステップS627)、ステップS604に戻り処理を繰り返す。n=1でない場合(ステップS625:No)、判定部353は、診断支援のための計算を行う(ステップS626)。ステップS626の診断支援計算処理の詳細は後述する。
Next, the
ステップS610で、n=1でない場合には(ステップS610:No)、ステップS618に進む。まず、表示制御部351は、画像1を下出口直前に表示し、画像2を上出口直前に表示する(ステップS618)。
If n = 1 is not satisfied in step S610 (step S610: No), the process proceeds to step S618. First, the
次に、判定部353は、エリアA2、エリアA3において、視点停留時間t13、t23の計測を開始する(ステップS619)。また、判定部353は、ほぼ同時に、エリアA2、エリアA3において、視点突入時間t14、t24の計測を開始する(ステップS620)。
Next, the
次に、表示制御部351は、画像1、画像2の各出口からの移動表示を開始する(ステップS621)。表示制御部351は、画像1および画像2が各出口を通過完了したか判断する(ステップS622)。完了していなければ(ステップS622:No)、ステップS621に戻り処理を繰り返す。完了したら(ステップS622:Yes)、ステップS623に進む。
Next, the
次に、判定部353は、エリアA2、エリアA3における視点停留時間t13、t23の計測を完了する(ステップS623)。また、判定部353は、エリアA2、エリアA3視点突入時間t14、t24の計測を完了する(ステップS624)。ステップS624の後、ステップS625に進む。
Next, the
図13は、図12のステップS626に示す診断支援計算処理の一例を示すフローチャートである。まず、判定部353は、正解画像エリアの停留時間Bを計算する(ステップS701)。停留時間Bは、B=t11+t23により算出される。次に、判定部353は、不正解画像エリアの停留時間Cを計算する(ステップS702)。停留時間Cは、C=t21+t13により算出される。
FIG. 13 is a flowchart showing an example of the diagnosis support calculation process shown in step S626 of FIG. First, the
なお、正解画像エリアとは、正解画像が移動して表示される領域を表す。上記例では、1回目の測定時はエリアA2が正解画像エリアであり、2回目の測定時はエリアA3が正解画像エリアである。また、不正解画像エリアとは、不正解画像が移動して表示される領域を表す。上記例では、1回目の測定時はエリアA3が正解画像エリアであり、2回目の測定時はエリアA2が不正解画像エリアである。 The correct image area represents an area where the correct image is moved and displayed. In the above example, the area A2 is the correct image area during the first measurement, and the area A3 is the correct image area during the second measurement. The incorrect image area represents an area where the incorrect image is moved and displayed. In the above example, the area A3 is the correct image area during the first measurement, and the area A2 is the incorrect image area during the second measurement.
次に、判定部353は、正解画像エリアの突入時間Dを計算する(ステップS703)。突入時間Dは、D=t12+t24により算出される。次に、判定部353は、不正解画像エリアの突入時間Eを計算する(ステップS704)。突入時間Eは、E=t22+t14により算出される。
Next, the
次に、判定部353は、以下の評価式により、判定に用いる評価値Aを算出する(ステップS705)。kは、停留時間と突入時間の重み付けを行う所定の係数である。係数kは任意に指定可能としてもよい。
A=B−C+k(E−D)
Next, the
A = B-C + k (ED)
次に、判定部353は、評価値Aが閾値Kより小さいか否かを判断する(ステップS706)。AがKより小さい場合(ステップS706:Yes)、判定部353は、発達障害の可能性が高いと判定する(ステップS707)。AがK以上の場合(ステップS706:No)、判定部353は、発達障害の可能性が低いと判定する(ステップS708)。
Next, the
なお、評価式を上記例に限られるものではなく、各停留時間および各突入時間のうち、少なくとも発達障害の程度を判定可能な時間を用いる式であれば、他の評価式を用いてもよい。例えば、A=B−Cなどのように停留時間のみを判定に用いてもよい。また、例えば、A=E−Dなどのように突入時間のみを判定に用いてもよい。 Note that the evaluation formula is not limited to the above example, and any other evaluation formula may be used as long as it is a formula that uses at least the time during which the degree of developmental disability can be determined among each stop time and each entry time. . For example, only the stop time may be used for the determination, such as A = BC. Further, for example, only the entry time may be used for determination, such as A = ED.
以上のように、本実施形態によれば、例えば以下のような効果が得られる。
(1)1歳半の言葉が話せない乳児でも、診断支援が可能である。
(2)注視点の停留時間だけでなく、移動する映像に追従する時間と併せて診断するので、高精度の診断支援が可能である。
(3)移動方向を変えて測定するので、偶然的な偏りを回避できる。
As described above, according to the present embodiment, for example, the following effects can be obtained.
(1) Diagnosis support is possible even for infants who cannot speak the language of one and a half years.
(2) Diagnosis is performed not only with the gazing point stop time but also with the time to follow the moving image, so that highly accurate diagnosis support is possible.
(3) Since the measurement is performed by changing the moving direction, accidental bias can be avoided.
本発明の実施の形態は、その要旨を逸脱しない限り、様々に変更可能である。例えば、スリット503の幅または形状は、スリット503の背後を通過する画像の大きさや形状または被験者の発達障害の可能性の度合いにより変更してもよい。さらには、スリット503の背後を通過する画像の移動速度についても、同様に変更可能としてもよい。
The embodiment of the present invention can be variously modified without departing from the gist thereof. For example, the width or shape of the
100 診断支援装置
101 表示画面
102 ステレオカメラ
105 スピーカ
202 右カメラ
203 光源
204 左カメラ
205 光源
208 駆動・IF部
210 表示部
300 制御部
351 表示制御部
352 視点検出部
353 判定部
DESCRIPTION OF
Claims (5)
前記複数の遮蔽部の間のスリットを通過するように前記第1表示領域に第1画像を表示させ、前記第1画像が前記スリットを通過後に、前記第2表示領域および前記第3表示領域のいずれか一方に前記第1画像を表示させるとともに、他方に前記第1画像とは異なる第2画像を表示させる表示制御部と、
前記第1表示領域、前記第2表示領域および前記第3表示領域における被験者の視点を検出する視点検出部と、
前記視点の検出結果に基づいて前記被験者の発達障害の程度を判定する判定部と、
を備えることを特徴とする診断支援装置。 A display unit including a first display region partially shielded by a plurality of shielding units, and a second display region and a third display region that are not shielded by the plurality of shielding units;
A first image is displayed on the first display area so as to pass through a slit between the plurality of shielding portions, and after the first image passes through the slit, the second display area and the third display area A display control unit that displays the first image on either one and displays a second image different from the first image on the other;
A viewpoint detection unit that detects a viewpoint of the subject in the first display area, the second display area, and the third display area;
A determination unit that determines the degree of developmental disorder of the subject based on the detection result of the viewpoint;
A diagnostic support apparatus comprising:
を特徴とする請求項1に記載の診断支援装置。 The determination unit measures a first stop time indicating a time when the viewpoint is detected in the second display area and a second stop time indicating a time when the viewpoint is detected in the third display area, Determining the degree of developmental disorder of the subject based on at least one of the first stop time and the second stop time;
The diagnosis support apparatus according to claim 1.
を特徴とする請求項1に記載の診断支援装置。 The determination unit includes: a first movement time indicating a time during which the viewpoint moves from the first display area to the second display area; and a time during which the viewpoint moves from the first display area to the third display area. Measuring a second travel time, and determining the degree of developmental disorder of the subject based on at least one of the first travel time and the second travel time;
The diagnosis support apparatus according to claim 1.
を特徴とする請求項1に記載の診断支援装置。 The display control unit further displays the first image in the first display region so as to pass through the slit, and after the first image passes through the slit, the second display region or the third display. Displaying the first image on the other in the region and displaying the second image on the one;
The diagnosis support apparatus according to claim 1.
前記複数の遮蔽部の間のスリットを通過するように前記第1表示領域に第1画像を表示し、前記第1画像が前記スリットを通過後に、前記第2表示領域および前記第3表示領域のいずれか一方に前記第1画像を表示するとともに、他方に前記第1画像とは異なる第2画像を表示する表示制御ステップと、
前記第1表示領域、前記第2表示領域および前記第3表示領域における被験者の視点を検出する視点検出ステップと、
前記視点の検出結果に基づいて前記被験者の発達障害の程度を判定する判定ステップと、
を含むことを特徴とする診断支援方法。 Diagnosis executed by a diagnosis support apparatus including a display unit including a first display region partially shielded by a plurality of shielding units, and a second display region and a third display region that are not shielded by the plurality of shielding units. A support method,
A first image is displayed in the first display area so as to pass through the slits between the plurality of shielding portions, and after the first image passes through the slits, the second display area and the third display area A display control step of displaying the first image on either one and displaying a second image different from the first image on the other;
A viewpoint detection step of detecting a subject's viewpoint in the first display area, the second display area, and the third display area;
A determination step of determining the degree of developmental disorder of the subject based on the detection result of the viewpoint;
A diagnostic support method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012162607A JP5983135B2 (en) | 2012-07-23 | 2012-07-23 | Diagnosis support apparatus and diagnosis support method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012162607A JP5983135B2 (en) | 2012-07-23 | 2012-07-23 | Diagnosis support apparatus and diagnosis support method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014018565A true JP2014018565A (en) | 2014-02-03 |
JP5983135B2 JP5983135B2 (en) | 2016-08-31 |
Family
ID=50194104
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012162607A Active JP5983135B2 (en) | 2012-07-23 | 2012-07-23 | Diagnosis support apparatus and diagnosis support method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5983135B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017536872A (en) * | 2014-10-21 | 2017-12-14 | ユニヴェルシテ パリ デカルトUniversite Paris Descartes | Infant inspection method and apparatus suitable for implementation of the inspection method |
JP2018175052A (en) * | 2017-04-05 | 2018-11-15 | 北海道公立大学法人 札幌医科大学 | Diagnosis support system, operation method of diagnosis support system, and program |
JP2019171022A (en) * | 2018-03-26 | 2019-10-10 | 株式会社Jvcケンウッド | Evaluation device, evaluation method, and evaluation program |
JP2020151293A (en) * | 2019-03-22 | 2020-09-24 | 株式会社Jvcケンウッド | Evaluation device, evaluation method and evaluation program |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6737234B2 (en) * | 2017-05-22 | 2020-08-05 | 株式会社Jvcケンウッド | Evaluation device, evaluation method, and evaluation program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110242486A1 (en) * | 2010-03-30 | 2011-10-06 | Yoshinobu Ebisawa | Autism diagnosis support apparatus |
JP2013223713A (en) * | 2012-03-21 | 2013-10-31 | Hamamatsu Univ School Of Medicine | Asperger's diagnosis assistance method and system, and asperger's diagnosis assistance device |
-
2012
- 2012-07-23 JP JP2012162607A patent/JP5983135B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110242486A1 (en) * | 2010-03-30 | 2011-10-06 | Yoshinobu Ebisawa | Autism diagnosis support apparatus |
JP2013223713A (en) * | 2012-03-21 | 2013-10-31 | Hamamatsu Univ School Of Medicine | Asperger's diagnosis assistance method and system, and asperger's diagnosis assistance device |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017536872A (en) * | 2014-10-21 | 2017-12-14 | ユニヴェルシテ パリ デカルトUniversite Paris Descartes | Infant inspection method and apparatus suitable for implementation of the inspection method |
JP2018175052A (en) * | 2017-04-05 | 2018-11-15 | 北海道公立大学法人 札幌医科大学 | Diagnosis support system, operation method of diagnosis support system, and program |
JP2019171022A (en) * | 2018-03-26 | 2019-10-10 | 株式会社Jvcケンウッド | Evaluation device, evaluation method, and evaluation program |
JP7167737B2 (en) | 2018-03-26 | 2022-11-09 | 株式会社Jvcケンウッド | Evaluation device, evaluation method, and evaluation program |
JP2020151293A (en) * | 2019-03-22 | 2020-09-24 | 株式会社Jvcケンウッド | Evaluation device, evaluation method and evaluation program |
WO2020194846A1 (en) * | 2019-03-22 | 2020-10-01 | 株式会社Jvcケンウッド | Assessment device, assessment method, and assessment program |
JP7247690B2 (en) | 2019-03-22 | 2023-03-29 | 株式会社Jvcケンウッド | Evaluation device, evaluation method, and evaluation program |
Also Published As
Publication number | Publication date |
---|---|
JP5983135B2 (en) | 2016-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6693105B2 (en) | Eye-gaze detecting device and eye-gaze detecting method | |
JP6210023B2 (en) | Gaze detection support apparatus and gaze detection support method | |
JP5983131B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP6201956B2 (en) | Gaze detection device and gaze detection method | |
WO2015146491A1 (en) | Detection device and detection method | |
JP5983135B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP6638354B2 (en) | Eye gaze detection device and eye gaze detection method | |
KR20150036395A (en) | Strabismus Detection | |
JP2016032587A (en) | Diagnosis support apparatus and diagnosis support method | |
JP5971066B2 (en) | Diagnosis support apparatus and method of operating diagnosis support apparatus | |
JP6245093B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP6900994B2 (en) | Line-of-sight detection device and line-of-sight detection method | |
JP6142822B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP6380178B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP6135550B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP6593133B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP6019684B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP5838894B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP6327171B2 (en) | Gaze point detection device and gaze point detection method | |
JP6883242B2 (en) | Evaluation device, evaluation method, and evaluation program | |
JP6003277B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP6187347B2 (en) | Detection apparatus and detection method | |
JP6269177B2 (en) | Pupil detection device, gaze detection device, and pupil detection method | |
JP6909391B2 (en) | Line-of-sight detection device and line-of-sight detection method | |
JP2015181797A (en) | Detection apparatus and detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150331 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160202 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160401 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160718 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5983135 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |