JP2014018565A - Diagnosis support apparatus and diagnosis support method - Google Patents

Diagnosis support apparatus and diagnosis support method Download PDF

Info

Publication number
JP2014018565A
JP2014018565A JP2012162607A JP2012162607A JP2014018565A JP 2014018565 A JP2014018565 A JP 2014018565A JP 2012162607 A JP2012162607 A JP 2012162607A JP 2012162607 A JP2012162607 A JP 2012162607A JP 2014018565 A JP2014018565 A JP 2014018565A
Authority
JP
Japan
Prior art keywords
image
display
display area
viewpoint
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012162607A
Other languages
Japanese (ja)
Other versions
JP5983135B2 (en
Inventor
Katsuyuki Shudo
勝行 首藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2012162607A priority Critical patent/JP5983135B2/en
Publication of JP2014018565A publication Critical patent/JP2014018565A/en
Application granted granted Critical
Publication of JP5983135B2 publication Critical patent/JP5983135B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To achieve support of diagnosis by slit vision for a subject who is a mute.SOLUTION: A diagnosis support apparatus includes: a display part; a display control part; a view point detecting part; and a determination part. The display part includes: a first display area partially intercepted by a plurality of intercepting parts; and second and third display areas not intercepted by the plurality of intercepting parts. The display control part allows the display part to display a first image on the first display area so that the first image passes through the slits between the plurality of intercepting parts, display the first image in one of the second display area and the third area after the first image passes through the slits, and display a second image different from the first image in the other. The view point detecting part detects a view point of a subject in the first display area, the second display area and the third display area. The determination part determines the degree of development disorder on the basis of the detection result for the view points.

Description

本発明は、診断支援装置および診断支援方法に関する。   The present invention relates to a diagnosis support apparatus and a diagnosis support method.

最近、発達障害者が増加傾向にあると言われている。発達障害は、早期に発見し療育を開始することで症状を軽減し、社会に適応できる効果が高くなることがわかっている。我が国でも、1歳半検診時の問診などにより早期発見を目指している。しかし、精神科医不足や、問診に時間が掛かるなどの問題があり、その効果は十分とはいえない。そこで、客観的で効率的な発達障害の診断支援装置が求められている。   Recently, people with developmental disabilities are said to be on the rise. Developmental disorders are known to be detected early and start treatment to reduce symptoms and increase the effect of adapting to society. In Japan, we are aiming for early detection through interviews at the age of 1 and a half. However, there are problems such as shortage of psychiatrists and time-consuming interviews, and the effect is not sufficient. Therefore, there is a need for an objective and efficient diagnosis support device for developmental disorders.

発達障害早期発見のためには、例えば1歳半検診時に診断できることが理想的である。発達障害児の特徴として、スリット視において、局所の少ない情報を統合して全体像をつかむのが苦手であることが挙げられる。また、カメラで人の顔を撮影して、角膜反射と瞳孔の位置を計算することにより注視点を検出する方法などを応用して、発達障害を診断支援する方法が提案されている。   For early detection of developmental disorders, it is ideal to be able to diagnose at the age of 1 and a half. One of the characteristics of children with developmental disabilities is that they are not good at grasping the whole picture by integrating less local information in slit view. In addition, a method for supporting diagnosis of developmental disorders by applying a method of detecting a gazing point by photographing a human face with a camera and calculating a corneal reflection and a pupil position has been proposed.

特開2011−206542号公報JP 2011-206542 A 特開2008−125619号公報JP 2008-125619 A 特開2005−198743号公報JP 2005-198743 A

戦略的創造研究推進事業 CREST研究課題「応用行動分析による発達促進のメカニズムの解明」研究終了報告書Strategic Creativity Research Promotion Project CREST Research Project “Clarification of Mechanism for Promoting Development by Analyzing Applied Behavior” Research Completion Report

従来のスリット視では、映像を被験者に見せて、対象の画像名を口頭で答えてもらっていたが、言葉の話せない乳幼児では診断できないという問題があった。   In the conventional slit view, the subject is shown the video and the subject's image name is answered verbally, but there is a problem that an infant who cannot speak can not be diagnosed.

本発明は、上記に鑑みてなされたものであって、言葉の話せない被験者に対してもスリット視による診断の支援を実現できる診断支援装置および診断支援方法を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a diagnosis support apparatus and a diagnosis support method capable of realizing diagnosis support by slit vision for a subject who cannot speak words.

上述した課題を解決し、目的を達成するために、本発明は、複数の遮蔽部により一部が遮蔽される第1表示領域と、前記複数の遮蔽部により遮蔽されない第2表示領域および第3表示領域と、を含む表示部と、前記複数の遮蔽部の間のスリットを通過するように前記第1表示領域に第1画像を表示し、前記第1画像が前記スリットを通過後に、前記第2表示領域および前記第3表示領域の一方に前記第1画像を表示するとともに、他方に第2画像を表示する表示制御部と、前記表示部の表示領域における被験者の視点を検出する視点検出部と、前記視点の検出結果に基づいて前記被験者の発達障害の程度を判定する判定部と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention provides a first display area that is partially shielded by a plurality of shielding parts, a second display area that is not shielded by the plurality of shielding parts, and a third display area. A first image displayed on the first display region so as to pass through a slit between the plurality of shielding units and a display unit including a display region, and after the first image passes through the slit, A display control unit that displays the first image on one of the two display regions and the third display region and displays the second image on the other, and a viewpoint detection unit that detects the viewpoint of the subject in the display region of the display unit And a determination unit that determines the degree of developmental disorder of the subject based on the detection result of the viewpoint.

また、本発明は、複数の遮蔽部により一部が遮蔽される第1表示領域と、前記複数の遮蔽部により遮蔽されない第2表示領域および第3表示領域と、を含む表示部を備える診断支援装置で実行される診断支援方法であって、前記複数の遮蔽部の間のスリットを通過するように前記第1表示領域に第1画像を表示し、前記第1画像が前記スリットを通過後に、前記第2表示領域および前記第3表示領域の一方に前記第1画像を表示するとともに、他方に第2画像を表示する表示制御ステップと、前記表示部の表示領域における被験者の視点を検出する視点検出ステップと、前記視点の検出結果に基づいて前記被験者の発達障害の程度を判定する判定ステップと、を含むことを特徴とする。   In addition, the present invention provides a diagnosis support including a display unit including a first display region that is partially shielded by a plurality of shielding units, and a second display region and a third display region that are not shielded by the plurality of shielding units. A diagnosis support method executed by the apparatus, wherein the first image is displayed in the first display area so as to pass through the slits between the plurality of shielding portions, and the first image passes through the slits. A display control step of displaying the first image on one of the second display area and the third display area and displaying the second image on the other, and a viewpoint for detecting the viewpoint of the subject in the display area of the display unit A detection step; and a determination step of determining a degree of developmental disorder of the subject based on the detection result of the viewpoint.

本発明にかかる診断支援装置および診断支援方法は、言葉の話せない被験者に対してもスリット視による診断の支援を実現できるという効果を奏する。   The diagnosis support apparatus and the diagnosis support method according to the present invention have an effect that diagnosis support by slit vision can be realized even for a subject who cannot speak words.

図1は、本実施形態で用いる表示部、ステレオカメラ、および光源の配置の一例を示す図である。FIG. 1 is a diagram illustrating an example of an arrangement of a display unit, a stereo camera, and a light source used in the present embodiment. 図2は、本実施形態の診断支援装置の機能の概要を示す図である。FIG. 2 is a diagram illustrating an outline of functions of the diagnosis support apparatus of the present embodiment. 図3は、図2に示す各部の詳細な機能の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of detailed functions of the respective units illustrated in FIG. 図4は、2台のカメラを使用した場合の目の検出の一例を示す図である。FIG. 4 is a diagram illustrating an example of eye detection when two cameras are used. 図5は、測定開始状態の表示例を表す図である。FIG. 5 is a diagram illustrating a display example of a measurement start state. 図6は、画像が移動を開始した状態の表示例を表す図である。FIG. 6 is a diagram illustrating a display example in a state where the image starts to move. 図7は、画像がさらに移動した状態の表示例を表す図である。FIG. 7 is a diagram illustrating a display example in a state where the image is further moved. 図8は、さらに画像が移動した状態の表示例を表す図である。FIG. 8 is a diagram illustrating a display example in a state where the image is further moved. 図9は、さらに画像が移動した状態の表示例を表す図である。FIG. 9 is a diagram illustrating a display example in a state where the image is further moved. 図10は、2回目の測定時に出口付近に画像が表示され始めた状態の表示例を表す図である。FIG. 10 is a diagram illustrating a display example in a state where an image starts to be displayed near the exit during the second measurement. 図11は、2回目の測定時に出口から画像が完全に出て表示された状態の表示例を表す図である。FIG. 11 is a diagram illustrating a display example in a state in which the image is completely displayed from the exit during the second measurement. 図12は、測定および診断処理の一例を表すフローチャートである。FIG. 12 is a flowchart illustrating an example of measurement and diagnosis processing. 図13は、診断支援計算処理の一例を示すフローチャートである。FIG. 13 is a flowchart illustrating an example of the diagnosis support calculation process.

以下に、本発明にかかる診断支援装置および診断支援方法の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。   Hereinafter, embodiments of a diagnosis support apparatus and a diagnosis support method according to the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited by this embodiment.

従来のスリット視は、例えば、移動する観察対象の画像をスリットの背後の表示部に表示し、観察対象が何であるかを被験者に回答させていた。本実施形態の診断支援装置は、スリットの背後を観察対象が移動するように表示した後、移動の方向を複数に分岐させて、1つの方向に存在する表示領域に観察対象の画像をさらに移動させて表示する。また、他の方向に存在する表示領域には観察対象と異なる画像を表示する。そして、被験者が、観察対象の画像を表示した表示領域と、観察対象と異なる画像を表示した表示領域とのいずれを注視したかを判定することにより、発達障害の程度を判定する。健常の被験者であれば、観察対象の画像を表示した表示領域を早期に見つけてこの表示領域を注視すると考えられる。従って、例えば観察対象の画像を表示した表示領域を注視する傾向があれば、健常であると判定できる。このような構成により、言葉が話せない1歳半程度の被験者に対しても発達障害の診断支援を実行可能となる。   In conventional slit viewing, for example, an image of a moving observation target is displayed on a display unit behind the slit, and the subject is asked what the observation target is. The diagnosis support apparatus according to the present embodiment displays the back of the slit so that the observation target moves, and then branches the movement direction into a plurality of directions, and further moves the image of the observation target to a display area existing in one direction. To display. Further, an image different from the observation target is displayed in the display area existing in the other direction. Then, the degree of developmental disorder is determined by determining which of the display area in which the subject displayed the image to be observed and the display area in which the image different from the observation target was displayed. If it is a healthy subject, it is considered that a display area displaying an image to be observed is found early and the display area is watched. Therefore, for example, if there is a tendency to gaze at a display area displaying an image to be observed, it can be determined that the image is healthy. With such a configuration, developmental support for diagnosis of developmental disabilities can be performed even for subjects who are about one and a half years old who cannot speak language.

図1は、本実施形態で用いる表示部、ステレオカメラ、および光源の配置の一例を示す図である。図1に示すように、本実施形態では、表示画面101の下側に、1組のステレオカメラ102を配置する。ステレオカメラ102は、赤外線によるステレオ撮影が可能な撮像部であり、右カメラ202と左カメラ204とを備えている。   FIG. 1 is a diagram illustrating an example of an arrangement of a display unit, a stereo camera, and a light source used in the present embodiment. As shown in FIG. 1, in this embodiment, a set of stereo cameras 102 is arranged below the display screen 101. The stereo camera 102 is an imaging unit that can perform stereo shooting with infrared rays, and includes a right camera 202 and a left camera 204.

右カメラ202および左カメラ204の各レンズの直前には、円周方向に赤外LED(Light Emitting Diode)光源203および205がそれぞれ配置される。赤外LED光源203および205は、発光する波長が相互に異なる内周のLEDと外周のLEDとを含む。赤外LED光源203および205により被験者の瞳孔を検出する。瞳孔の検出方法としては、例えば特許文献2に記載された方法などを適用できる。   Infrared LED (Light Emitting Diode) light sources 203 and 205 are arranged in the circumferential direction immediately before the lenses of the right camera 202 and the left camera 204, respectively. The infrared LED light sources 203 and 205 include an inner peripheral LED and an outer peripheral LED having different wavelengths for emitting light. The pupils of the subject are detected by the infrared LED light sources 203 and 205. As a pupil detection method, for example, the method described in Patent Document 2 can be applied.

視線(視点)を検出する際には、空間を座標で表現して位置を特定する。本実施形態では、表示画面101の画面の中央位置を原点として、上下をY座標(上が+)、横をX座標(向かって右が+)、奥行きをZ座標(手前が+)としている。   When detecting the line of sight (viewpoint), the position is specified by expressing the space with coordinates. In this embodiment, the center position of the display screen 101 is the origin, the top and bottom are the Y coordinate (up is +), the side is the X coordinate (right is +), and the depth is the Z coordinate (front is +). .

図2は、診断支援装置100の機能の概要を示す図である。図2では、図1に示した構成の一部と、この構成の駆動などに用いられる構成を示している。図2に示すように、診断支援装置100は、右カメラ202と、左カメラ204と、赤外LED光源203および205と、スピーカ105と、駆動・IF部208と、制御部300と、表示部210と、を含む。図2において、表示画面101は、右カメラ202および左カメラ204との位置関係を分かりやすく示しているが、表示画面101は表示部210において表示される画面である。   FIG. 2 is a diagram illustrating an outline of functions of the diagnosis support apparatus 100. FIG. 2 shows a part of the configuration shown in FIG. 1 and a configuration used for driving the configuration. As shown in FIG. 2, the diagnosis support apparatus 100 includes a right camera 202, a left camera 204, infrared LED light sources 203 and 205, a speaker 105, a drive / IF unit 208, a control unit 300, and a display unit. 210. In FIG. 2, the display screen 101 shows the positional relationship between the right camera 202 and the left camera 204 in an easy-to-understand manner, but the display screen 101 is a screen displayed on the display unit 210.

スピーカ105は、キャリブレーション時などに、被験者に注意を促すための音声などを出力する。   The speaker 105 outputs a sound or the like for prompting the subject to pay attention during calibration.

駆動・IF部208は、ステレオカメラ102に含まれる各部を駆動する。また、駆動・IF部208は、ステレオカメラ102に含まれる各部と、制御部300とのインタフェースとなる。   The drive / IF unit 208 drives each unit included in the stereo camera 102. The drive / IF unit 208 serves as an interface between each unit included in the stereo camera 102 and the control unit 300.

表示部210は、診断のための対象画像等、各種情報を表示する。   The display unit 210 displays various information such as a target image for diagnosis.

図3は、図2に示す各部の詳細な機能の一例を示すブロック図である。図3に示すように、制御部300には、表示部210と、駆動・IF部208が接続される。駆動・IF部208は、カメラIF314、315と、LED駆動制御部316と、スピーカ駆動部322と、を備える。   FIG. 3 is a block diagram illustrating an example of detailed functions of the respective units illustrated in FIG. As shown in FIG. 3, a display unit 210 and a drive / IF unit 208 are connected to the control unit 300. The drive / IF unit 208 includes camera IFs 314 and 315, an LED drive control unit 316, and a speaker drive unit 322.

駆動・IF部208には、カメラIF314、315を介して、それぞれ、右カメラ202、左カメラ204が接続される。駆動・IF部208がこれらのカメラを駆動することにより、被験者を撮像する。   A right camera 202 and a left camera 204 are connected to the drive / IF unit 208 via camera IFs 314 and 315, respectively. The driving / IF unit 208 drives these cameras to image the subject.

右カメラ202からはフレーム同期信号が出力される。フレーム同期信号は、左カメラ204とLED駆動制御部316とに入力される。これにより、第1フレームで、タイミングをずらして左右の波長1の赤外線光源(波長1−LED303、波長1−LED305)を発光させ、それに対応して左右カメラ(右カメラ202、左カメラ204)による画像を取り込み、第2フレームで、タイミングをずらして左右の波長2の赤外線光源(波長2−LED304、波長2−LED306)を発光させ、それに対応して左右カメラによる画像を取り込んでいる。   A frame synchronization signal is output from the right camera 202. The frame synchronization signal is input to the left camera 204 and the LED drive control unit 316. This causes the left and right wavelength 1 infrared light sources (wavelength 1-LED 303, wavelength 1-LED 305) to emit light at different timings in the first frame, and correspondingly by the left and right cameras (right camera 202, left camera 204). In the second frame, the left and right wavelength 2 infrared light sources (wavelength 2-LED 304, wavelength 2-LED 306) are caused to emit light in the second frame, and the images from the left and right cameras are captured correspondingly.

赤外LED光源203は、波長1−LED303と、波長2−LED304と、を備えている。赤外LED光源205は、波長1−LED305と、波長2−LED306と、を備えている。   The infrared LED light source 203 includes a wavelength 1-LED 303 and a wavelength 2-LED 304. The infrared LED light source 205 includes a wavelength 1-LED 305 and a wavelength 2-LED 306.

波長1−LED303、305は、波長1の赤外線を照射する。波長2−LED304、306は、波長2の赤外線を照射する。   Wavelength 1-LEDs 303 and 305 emit infrared light having wavelength 1. Wavelength 2-LEDs 304 and 306 irradiate wavelength 2 infrared rays.

波長1および波長2は、それぞれ例えば900nm未満の波長および900nm以上の波長とする。900nm未満の波長の赤外線を照射して瞳孔で反射された反射光を撮像すると、900nm以上の波長の赤外線を照射して瞳孔で反射された反射光を撮像した場合に比べて、明るい瞳孔像が得られるためである。   The wavelength 1 and the wavelength 2 are, for example, a wavelength of less than 900 nm and a wavelength of 900 nm or more, respectively. When the reflected light reflected by the pupil is irradiated with infrared light having a wavelength of less than 900 nm, a bright pupil image is obtained as compared with the case where reflected light reflected by the pupil is irradiated with infrared light having a wavelength of 900 nm or more. It is because it is obtained.

スピーカ駆動部322は、スピーカ105を駆動する。   The speaker driving unit 322 drives the speaker 105.

制御部300は、診断支援装置100全体を制御して、結果を表示部210およびスピーカ105などに出力する。制御部300は、表示制御部351と、視点検出部352と、判定部353と、を備えている。   The control unit 300 controls the entire diagnosis support apparatus 100 and outputs the result to the display unit 210, the speaker 105, and the like. The control unit 300 includes a display control unit 351, a viewpoint detection unit 352, and a determination unit 353.

表示制御部351は、表示部210に対する画像の表示を制御する。本実施形態では、表示制御部351は、スリット視が可能なように表示部210に画像を表示する。例えば、表示制御部351は、複数の遮蔽部の間のスリットを通過するように第1表示領域に観察対象の画像(第1画像)を表示し、観察対象の画像がスリットを通過後に、第2表示領域および第3表示領域の一方に観察対象の画像を表示するとともに、他方に、観察対象と異なる画像(第2画像)を表示する。   The display control unit 351 controls display of images on the display unit 210. In the present embodiment, the display control unit 351 displays an image on the display unit 210 so that the slit view is possible. For example, the display control unit 351 displays the image to be observed (first image) in the first display region so as to pass through the slits between the plurality of shielding units, and after the image to be observed passes through the slit, An image to be observed is displayed on one of the second display area and the third display area, and an image (second image) different from the observation target is displayed on the other.

第1表示領域は、複数の遮蔽部により一部が遮蔽され、スリットの背後に定められる表示領域である。第2表示領域および第3表示領域は、複数の遮蔽部により遮蔽されない表示領域である。また第2表示領域および第3表示領域は、スリットの背後を移動する観察対象の移動方向を分岐させた2つの方向に定められる表示領域である。   The first display area is a display area that is partially shielded by a plurality of shielding portions and defined behind the slit. The second display area and the third display area are display areas that are not shielded by the plurality of shielding portions. In addition, the second display area and the third display area are display areas that are determined in two directions that are branched from the moving direction of the observation object that moves behind the slit.

なお、遮蔽部は、表示部210に表示された画像として実現してもよいし、表示部210の前方に設けられる物理的な物体として実現してもよい。前者の場合、例えば表示制御部351が、遮蔽部とする領域には常に遮蔽部に対応する画像を表示するように構成すればよい。   The shielding unit may be realized as an image displayed on the display unit 210, or may be realized as a physical object provided in front of the display unit 210. In the former case, for example, the display control unit 351 may be configured to always display an image corresponding to the shielding unit in the region to be the shielding unit.

視点検出部352は、表示画面101の表示領域(第1表示領域、第2表示領域、第3表示領域など)における被験者の視点を検出する。視点検出部352は、例えば、表示画面101に表示された対象画像のうち、被験者が注視する点である視点を検出する。視点検出部352による視点検出方法としては、従来から用いられているあらゆる方法を適用できる。以下では、特許文献3と同様に、ステレオカメラを用いて被験者の視点を検出する場合を例に説明する。   The viewpoint detection unit 352 detects the viewpoint of the subject in the display area (first display area, second display area, third display area, etc.) of the display screen 101. For example, the viewpoint detection unit 352 detects a viewpoint that is a point that the subject gazes out of the target images displayed on the display screen 101. As a viewpoint detection method by the viewpoint detection unit 352, any conventionally used method can be applied. Below, similarly to patent document 3, the case where a test subject's viewpoint is detected using a stereo camera is demonstrated to an example.

この場合、まず視点検出部352は、ステレオカメラ102で撮影された画像から、被験者の視線方向を検出する。視点検出部352は、例えば、特許文献1および2に記載された方法などを用いて、被験者の視線方向を検出する。具体的には、視点検出部352は、波長1の赤外線を照射して撮影した画像と、波長2の赤外線を照射して撮影した画像との差分を求め、瞳孔像が明確化された画像を生成する。視点検出部352は、左右のカメラ(右カメラ202、左カメラ204)で撮影された画像それぞれから上記のように生成された2つの画像を用いて、ステレオ視の手法により被験者の瞳孔の位置(目の位置)を算出する。また、視点検出部352は、左右のカメラで撮影された画像を用いて被験者の角膜反射の位置を算出する。そして、視点検出部352は、被験者の瞳孔の位置と角膜反射位置とから、被験者の視線方向を表す視線ベクトルを算出する。   In this case, first, the viewpoint detection unit 352 detects the visual line direction of the subject from the image captured by the stereo camera 102. The viewpoint detection unit 352 detects the gaze direction of the subject using, for example, the methods described in Patent Documents 1 and 2. Specifically, the viewpoint detection unit 352 obtains a difference between an image captured by irradiating infrared light having a wavelength 1 and an image captured by irradiating infrared light having a wavelength 2, and an image in which a pupil image is clarified. Generate. The viewpoint detection unit 352 uses the two images generated as described above from the images captured by the left and right cameras (the right camera 202 and the left camera 204), and uses the stereo vision technique to determine the position of the subject's pupil ( Eye position) is calculated. In addition, the viewpoint detection unit 352 calculates the position of the subject's corneal reflection using images captured by the left and right cameras. Then, the viewpoint detection unit 352 calculates a gaze vector representing the gaze direction of the subject from the position of the pupil of the subject and the corneal reflection position.

視点検出部352は、例えば図1のような座標系で表される視線ベクトルとXY平面との交点を、被験者の視点として検出する。両目の視線方向が得られた場合は、被験者の左右の視線の交点を求めることによって視点を計測してもよい。   The viewpoint detection unit 352 detects, for example, the intersection of the line-of-sight vector represented in the coordinate system as shown in FIG. 1 and the XY plane as the viewpoint of the subject. When the gaze direction of both eyes is obtained, the viewpoint may be measured by obtaining the intersection of the left and right gazes of the subject.

なお、被験者の視点の検出方法はこれに限られるものではない。例えば、赤外線ではなく、可視光を用いて撮影した画像を解析することにより、被験者の視点を検出してもよい。   Note that the method for detecting the viewpoint of the subject is not limited to this. For example, you may detect a test subject's viewpoint by analyzing the image image | photographed using visible light instead of infrared rays.

図4は、2台のカメラ(右カメラ202、左カメラ204)を使用した場合の目の検出の一例を示す図である。2台のカメラは、事前にステレオ較正法によるカメラキャリブレーション理論を適用し、カメラパラメータを求めておく。ステレオ較正法は、Tsaiのカメラキャリブレーション理論を用いた方法など従来から用いられているあらゆる方法を適用できる。右カメラ202で撮影された画像から検出した目の位置と、左カメラ204で撮影された画像から検出した目の位置と、カメラパラメータとを用いて、世界座標系における目の3次元座標が得られる。これにより、瞳孔座標を推定することができる。瞳孔座標とは、XY平面上での被験者の目(瞳孔)の位置を表す座標値である。瞳孔座標は、例えば、世界座標系で表される目の位置をXY平面に投影した座標値とすることができる。通常は、左右両目の瞳孔座標が求められる。   FIG. 4 is a diagram illustrating an example of eye detection when two cameras (the right camera 202 and the left camera 204) are used. For the two cameras, a camera calibration theory based on a stereo calibration method is applied in advance to obtain camera parameters. As the stereo calibration method, any conventionally used method such as a method using Tsai's camera calibration theory can be applied. Using the eye position detected from the image captured by the right camera 202, the eye position detected from the image captured by the left camera 204, and the camera parameters, the three-dimensional coordinates of the eye in the world coordinate system are obtained. It is done. Thereby, pupil coordinates can be estimated. The pupil coordinate is a coordinate value representing the position of the subject's eye (pupil) on the XY plane. The pupil coordinates can be, for example, coordinate values obtained by projecting the eye position expressed in the world coordinate system onto the XY plane. Usually, the pupil coordinates of the left and right eyes are obtained.

図3に戻り、判定部353は、視点の検出結果に基づいて被験者の発達障害の程度を判定する。例えば、判定部353は、視点検出部352によって検出された視点が、第2表示領域および第3表示領域で検出される時間(停留時間)を計測し、計測した停留時間を用いて発達障害の程度を判定する。また、判定部353が、第1表示領域から、第2表示領域または第3表示領域に移動するまでの時間(移動時間)を用いて発達障害の程度を判定してもよい。判定部353が、停留時間および移動時間の両方を用いて発達障害の程度を判定してもよい。以下では、停留時間および移動時間の両方を用いて発達障害の程度を判定する例を説明する。   Returning to FIG. 3, the determination unit 353 determines the degree of developmental disorder of the subject based on the detection result of the viewpoint. For example, the determination unit 353 measures the time (stop time) in which the viewpoint detected by the viewpoint detection unit 352 is detected in the second display region and the third display region, and uses the measured stop time to determine the developmental disorder. Determine the degree. In addition, the determination unit 353 may determine the degree of developmental disorder using the time (movement time) required to move from the first display area to the second display area or the third display area. The determination unit 353 may determine the degree of developmental disorder using both the stop time and the travel time. Below, the example which determines the grade of a developmental disorder using both stop time and movement time is demonstrated.

図5〜図11を用いて、表示制御部351が表示部210に表示する映像(画像)の経過について説明する。図5は、測定開始状態の表示例を表す図である。これ以前に個別のキャリブレーションは完了しているものとする。なお、キャリブレーションには、上述のカメラキャリブレーションだけでなく、被験者の目の特性個人差を吸収するための視線検出用のキャリブレーション(視線検出用較正)も含まれる。視線検出用較正では、例えば、所定の座標系上で既知である所定の位置(例えば図示しない較正用LED)を被験者に注視させて、その時の瞳孔の中心(瞳孔の位置)と角膜反射位置とを測定する。そして、測定された瞳孔の位置と角膜反射位置とから求められる視線方向が、所定の位置に向くように、視線検出のための計算パラメータが修正される。   The progress of the video (image) displayed on the display unit 210 by the display control unit 351 will be described with reference to FIGS. FIG. 5 is a diagram illustrating a display example of a measurement start state. It is assumed that the individual calibration has been completed before this. Note that the calibration includes not only the above-described camera calibration but also a calibration for eye-gaze detection (eye-gaze detection calibration) for absorbing individual characteristic differences among the eyes of the subject. In the gaze detection calibration, for example, the subject is gazes at a predetermined position (for example, a calibration LED not shown) on a predetermined coordinate system, and the center of the pupil (pupil position) and the corneal reflection position at that time Measure. Then, the calculation parameter for eye gaze detection is corrected so that the eye gaze direction obtained from the measured pupil position and cornea reflection position is directed to a predetermined position.

複数の遮蔽部501および502の間にはスリット503が設けられている。また、遮蔽部502の一方(図5では左側)は画像の出口側となっており、入口側(スリット503側)より広くなっている。   A slit 503 is provided between the plurality of shielding portions 501 and 502. One of the shielding portions 502 (left side in FIG. 5) is an image exit side, which is wider than the entrance side (slit 503 side).

スリット503付近を第1表示領域(以下、エリアA1とする)とし、上側の画像出口付近の領域を第2表示領域(以下、エリアA2とする)とし、下側の画像出口付近の領域を第3表示領域(以下、エリアA3とする)としている。   The area near the slit 503 is the first display area (hereinafter referred to as area A1), the area near the upper image exit is referred to as the second display area (hereinafter referred to as area A2), and the area near the lower image exit is the first display area. 3 display areas (hereinafter referred to as area A3).

図6は、画像が移動を開始した状態の表示例を表す図である。図6は、犬の形の画像を表示する例を示している。表示制御部351がスリット503の背後を画像が移動するように表示すると、被験者は、スリット503から犬の画像を観察できる。   FIG. 6 is a diagram illustrating a display example in a state where the image starts to move. FIG. 6 shows an example of displaying a dog-shaped image. When the display control unit 351 displays the image so as to move behind the slit 503, the subject can observe the dog image from the slit 503.

図7は、画像がさらに移動した状態の表示例を表す図である。画像が移動することにより、被験者は画像の全体像を推測することが可能になる。部分的に特徴が少ない画像の場合、発達障害の可能性のある被験者は、全体像を予想することが苦手である。   FIG. 7 is a diagram illustrating a display example in a state where the image is further moved. By moving the image, the subject can estimate the entire image. In the case of an image with few features, subjects with a developmental disorder are not good at predicting the whole picture.

図8は、さらに画像が移動した状態の表示例を表す図である。表示制御部351は、途中で分岐した経路をたどるように画像を表示する。また、表示制御部351は、スリット503を通過した正解となる犬の画像(以下、正解画像という(図8では上の画像))と、これとは別の不正解の熊の顔の画像(以下、不正解画像という(図8では下の画像))が、出口から徐々に現れるように、各画像の表示を制御する。健常の被験者は、正解画像を早く見つけて、正解画像を見る。判定部353は、この状況を数値化し、判定に利用する。例えば、判定部353は、エリアA1からエリアA2への注視点の移動時間と、エリアA1からエリアA3への注視点の移動時間を測定する。   FIG. 8 is a diagram illustrating a display example in a state where the image is further moved. The display control unit 351 displays an image so as to follow a route branched in the middle. In addition, the display control unit 351 displays an image of a dog that is a correct answer that has passed through the slit 503 (hereinafter referred to as a correct image (the upper image in FIG. 8)) and an image of a bear face that is an incorrect answer (which is different from the above). Hereinafter, the display of each image is controlled so that an incorrect image (the lower image in FIG. 8) appears gradually from the exit. A healthy subject finds the correct image early and sees the correct image. The determination unit 353 digitizes this situation and uses it for determination. For example, the determination unit 353 measures the moving time of the gazing point from the area A1 to the area A2 and the moving time of the gazing point from the area A1 to the area A3.

図9は、さらに画像が移動をした状態の表示例を表す図である。上出口に犬の画像、下出口に熊の顔の画像が完全に現れる。表示制御部351は、この状態で所定時間画像を停止させる。判定部353は、エリアA2およびエリアA3での注視点の停留時間を測定する。   FIG. 9 is a diagram illustrating a display example in a state where the image is further moved. The image of the dog appears at the upper exit, and the image of the bear's face appears completely at the lower exit. The display control unit 351 stops the image for a predetermined time in this state. The determination unit 353 measures the stop time of the gazing point in the area A2 and the area A3.

また、本実施形態では、同様な測定を2回行う。表示制御部351は、2回目の測定時には、正解画像を下側の出口に表示し、不正解画像を上側の出口に表示する。   In the present embodiment, the same measurement is performed twice. In the second measurement, the display control unit 351 displays the correct image at the lower exit and displays the incorrect image at the upper exit.

図10は、2回目の測定時に出口付近に画像が表示され始めた状態の表示例を表す図である。図11は、2回目の測定時に出口から画像が完全に出て表示された状態の表示例を表す図である。移動時間や停留時間の測定は、図8および図9での説明と同様に行う。   FIG. 10 is a diagram illustrating a display example in a state where an image starts to be displayed near the exit during the second measurement. FIG. 11 is a diagram illustrating a display example in a state in which the image is completely displayed from the exit during the second measurement. The movement time and the stop time are measured in the same manner as described with reference to FIGS.

図12は、測定および診断処理の一例を表すフローチャートである。まず、表示制御部351は、画面中の各エリアの位置(座標範囲)を設定する(ステップS601)。例えば、表示制御部351は、予め定められたエリアA1、A2、A3の座標範囲を設定する。   FIG. 12 is a flowchart illustrating an example of measurement and diagnosis processing. First, the display control unit 351 sets the position (coordinate range) of each area on the screen (step S601). For example, the display control unit 351 sets the coordinate ranges of predetermined areas A1, A2, and A3.

次に、表示制御部351は、変数nに1をセットする(ステップS602)。次に、表示制御部351は、表示する画像1、画像2を決定する(ステップS603)。通常のテストでは、画像を複数用意して、ランダムで表示する画像を決定する。なお、図12の例では画像1が正解画像、画像2が不正解画像となる。   Next, the display control unit 351 sets 1 to the variable n (step S602). Next, the display control unit 351 determines the image 1 and the image 2 to be displayed (step S603). In a normal test, a plurality of images are prepared, and an image to be displayed at random is determined. In the example of FIG. 12, image 1 is a correct image and image 2 is an incorrect image.

次に、表示制御部351は、スリット503の直前の位置で遮蔽部501に完全に隠れるように画像1を表示する(ステップS604)。この状態では、画像1は遮蔽部501に隠されているので、スリット503からも見ることはできない。   Next, the display control unit 351 displays the image 1 so as to be completely hidden by the shielding unit 501 at a position immediately before the slit 503 (step S604). In this state, the image 1 is hidden by the shielding portion 501 and cannot be seen from the slit 503.

次に、判定部353は、エリアA1における視点停留時間t0の計測を開始する(ステップS605)。表示制御部351は、その直後に、画像1の移動表示を開始する(ステップS606)。これによりスリット503から画像1の一部が見られるようになる。   Next, the determination unit 353 starts measuring the viewpoint stop time t0 in the area A1 (step S605). Immediately thereafter, the display control unit 351 starts moving display of the image 1 (step S606). Thereby, a part of the image 1 can be seen from the slit 503.

次に、表示制御部351は、画像1がスリット503を通過完了したか判断する(ステップS607)。完了していなければ(ステップS607:No)、ステップS606に戻る。完了した場合には(ステップS607:Yes)、判定部353は、エリアA1における視点停留時間t0の計測を完了する(ステップS608)。   Next, the display control unit 351 determines whether the image 1 has completed passing through the slit 503 (step S607). If not completed (step S607: No), the process returns to step S606. When completed (step S607: Yes), the determination unit 353 completes the measurement of the viewpoint stop time t0 in the area A1 (step S608).

次に、判定部353は、エリアA1における視点停留時間t0と、所定の閾値T0とを比較する(ステップS609)。エリアA1における視点停留時間t0が、所定の閾値T0未満の場合(ステップS609:Yes)、ステップS604に戻り処理を繰り返す。この場合は、被験者がスリット503をあまり注視していなかったことになり、正確な判断ができないためである。   Next, the determination unit 353 compares the viewpoint stop time t0 in the area A1 with a predetermined threshold value T0 (step S609). When the viewpoint stop time t0 in the area A1 is less than the predetermined threshold value T0 (step S609: Yes), the process returns to step S604 and is repeated. In this case, it is because the subject has not observed the slit 503 so much, and accurate determination cannot be made.

エリアA1における視点停留時間t0が、所定の閾値T0以上の場合(ステップS609:No)、判定部353は、変数n=1であるか否かを判断する(ステップS610)。n=1の場合は1回目の測定であり、n=2の場合は2回目の測定となる。最初は、n=1なので(ステップS610:Yes)、ステップS611に進む。表示制御部351は、画像1が上出口へ移動して表示され、画像2が下出口へ移動して表示されるように準備する。すなわち、表示制御部351は、画像1を上出口直前に表示し、画像2を下出口直前に表示する(ステップS611)。この状態では、遮蔽部502に隠されるため、被験者は画像を見ることができない。   When the viewpoint stop time t0 in the area A1 is equal to or longer than the predetermined threshold T0 (step S609: No), the determination unit 353 determines whether or not the variable n = 1 (step S610). When n = 1, it is the first measurement, and when n = 2, it is the second measurement. Since n = 1 at first (step S610: Yes), the process proceeds to step S611. The display control unit 351 prepares so that the image 1 is moved to the upper exit and displayed, and the image 2 is moved to the lower exit and displayed. That is, the display control unit 351 displays the image 1 immediately before the upper exit and displays the image 2 immediately before the lower exit (step S611). In this state, since the subject is hidden by the shielding unit 502, the subject cannot see the image.

次に、判定部353は、エリアA2、エリアA3において、視点停留時間t11、t21の計測を開始する(ステップS612)。また、判定部353は、ほぼ同時に、エリアA2、エリアA3において、視点突入時間t12、t22の計測を開始する(ステップS613)。突入時間は、エリアA1から、エリアA2またはエリアA3へ注視点が移ってくるまでの時間(移動時間)を指しており、正解画像をいかに早く見つけるかを判断するために用いられる。   Next, the determination unit 353 starts measuring the viewpoint stop times t11 and t21 in the areas A2 and A3 (step S612). The determination unit 353 starts measuring the viewpoint entry times t12 and t22 in the areas A2 and A3 almost simultaneously (step S613). The entry time refers to the time (movement time) until the point of sight moves from area A1 to area A2 or area A3, and is used to determine how quickly a correct image is found.

次に、表示制御部351は、画像1、画像2の各出口からの移動表示を開始する(ステップS614)。被験者は、画像がスリット503を通過後に出口に向かい、その後出口から出てきたという状況を推測させる映像を見ることが可能になる。表示制御部351は、画像1および画像2が各出口を通過完了したか判断する(ステップS615)。完了していなければ(ステップS615:No)、ステップS614に戻り処理を繰り返す。完了したら(ステップS615:Yes)、ステップS616に進む。   Next, the display control unit 351 starts moving display from the exits of the images 1 and 2 (step S614). The test subject can view an image that makes it possible to guess the situation that the image is directed to the exit after passing through the slit 503 and then emerges from the exit. The display control unit 351 determines whether the image 1 and the image 2 have completed passing through the exits (step S615). If not completed (step S615: No), the process returns to step S614 and the process is repeated. When completed (step S615: Yes), the process proceeds to step S616.

次に、判定部353は、エリアA2、エリアA3における視点停留時間t11、t21の計測を完了する(ステップS616)。また、判定部353は、エリアA2、エリアA3視点突入時間t12、t22の計測を完了する(ステップS617)。   Next, the determination unit 353 completes the measurement of the viewpoint stop times t11 and t21 in the areas A2 and A3 (step S616). Further, the determination unit 353 completes the measurement of the area A2 and area A3 viewpoint entry times t12 and t22 (step S617).

次に、判定部353は、変数n=1であるか否かを判断する(ステップS625)。n=1の場合は(ステップS625:Yes)、判定部353は、n=2に更新して(ステップS627)、ステップS604に戻り処理を繰り返す。n=1でない場合(ステップS625:No)、判定部353は、診断支援のための計算を行う(ステップS626)。ステップS626の診断支援計算処理の詳細は後述する。   Next, the determination unit 353 determines whether or not the variable n = 1 (step S625). When n = 1 (step S625: Yes), the determination unit 353 updates to n = 2 (step S627), returns to step S604, and repeats the process. When n is not 1 (step S625: No), the determination unit 353 performs calculation for diagnosis support (step S626). Details of the diagnosis support calculation process in step S626 will be described later.

ステップS610で、n=1でない場合には(ステップS610:No)、ステップS618に進む。まず、表示制御部351は、画像1を下出口直前に表示し、画像2を上出口直前に表示する(ステップS618)。   If n = 1 is not satisfied in step S610 (step S610: No), the process proceeds to step S618. First, the display control unit 351 displays the image 1 immediately before the lower exit and displays the image 2 immediately before the upper exit (step S618).

次に、判定部353は、エリアA2、エリアA3において、視点停留時間t13、t23の計測を開始する(ステップS619)。また、判定部353は、ほぼ同時に、エリアA2、エリアA3において、視点突入時間t14、t24の計測を開始する(ステップS620)。   Next, the determination unit 353 starts measuring the viewpoint stop times t13 and t23 in the areas A2 and A3 (step S619). In addition, the determination unit 353 starts measuring the viewpoint entry times t14 and t24 in the areas A2 and A3 almost simultaneously (Step S620).

次に、表示制御部351は、画像1、画像2の各出口からの移動表示を開始する(ステップS621)。表示制御部351は、画像1および画像2が各出口を通過完了したか判断する(ステップS622)。完了していなければ(ステップS622:No)、ステップS621に戻り処理を繰り返す。完了したら(ステップS622:Yes)、ステップS623に進む。   Next, the display control unit 351 starts moving display from the exits of the image 1 and the image 2 (step S621). The display control unit 351 determines whether the image 1 and the image 2 are completely passed through the exits (step S622). If not completed (step S622: No), the process returns to step S621 to repeat the process. When completed (step S622: Yes), the process proceeds to step S623.

次に、判定部353は、エリアA2、エリアA3における視点停留時間t13、t23の計測を完了する(ステップS623)。また、判定部353は、エリアA2、エリアA3視点突入時間t14、t24の計測を完了する(ステップS624)。ステップS624の後、ステップS625に進む。   Next, the determination unit 353 completes the measurement of the viewpoint stop times t13 and t23 in the areas A2 and A3 (Step S623). Further, the determination unit 353 completes the measurement of the area A2 and area A3 viewpoint entry times t14 and t24 (step S624). After step S624, the process proceeds to step S625.

図13は、図12のステップS626に示す診断支援計算処理の一例を示すフローチャートである。まず、判定部353は、正解画像エリアの停留時間Bを計算する(ステップS701)。停留時間Bは、B=t11+t23により算出される。次に、判定部353は、不正解画像エリアの停留時間Cを計算する(ステップS702)。停留時間Cは、C=t21+t13により算出される。   FIG. 13 is a flowchart showing an example of the diagnosis support calculation process shown in step S626 of FIG. First, the determination unit 353 calculates the stop time B of the correct image area (step S701). The stop time B is calculated by B = t11 + t23. Next, the determination unit 353 calculates the stop time C of the incorrect image area (step S702). The stop time C is calculated by C = t21 + t13.

なお、正解画像エリアとは、正解画像が移動して表示される領域を表す。上記例では、1回目の測定時はエリアA2が正解画像エリアであり、2回目の測定時はエリアA3が正解画像エリアである。また、不正解画像エリアとは、不正解画像が移動して表示される領域を表す。上記例では、1回目の測定時はエリアA3が正解画像エリアであり、2回目の測定時はエリアA2が不正解画像エリアである。   The correct image area represents an area where the correct image is moved and displayed. In the above example, the area A2 is the correct image area during the first measurement, and the area A3 is the correct image area during the second measurement. The incorrect image area represents an area where the incorrect image is moved and displayed. In the above example, the area A3 is the correct image area during the first measurement, and the area A2 is the incorrect image area during the second measurement.

次に、判定部353は、正解画像エリアの突入時間Dを計算する(ステップS703)。突入時間Dは、D=t12+t24により算出される。次に、判定部353は、不正解画像エリアの突入時間Eを計算する(ステップS704)。突入時間Eは、E=t22+t14により算出される。   Next, the determination unit 353 calculates the entry time D of the correct image area (step S703). The entry time D is calculated by D = t12 + t24. Next, the determination unit 353 calculates the entry time E for the incorrect image area (step S704). The entry time E is calculated by E = t22 + t14.

次に、判定部353は、以下の評価式により、判定に用いる評価値Aを算出する(ステップS705)。kは、停留時間と突入時間の重み付けを行う所定の係数である。係数kは任意に指定可能としてもよい。
A=B−C+k(E−D)
Next, the determination unit 353 calculates an evaluation value A used for determination by the following evaluation formula (step S705). k is a predetermined coefficient for weighting the stop time and the entry time. The coefficient k may be arbitrarily designated.
A = B-C + k (ED)

次に、判定部353は、評価値Aが閾値Kより小さいか否かを判断する(ステップS706)。AがKより小さい場合(ステップS706:Yes)、判定部353は、発達障害の可能性が高いと判定する(ステップS707)。AがK以上の場合(ステップS706:No)、判定部353は、発達障害の可能性が低いと判定する(ステップS708)。   Next, the determination unit 353 determines whether or not the evaluation value A is smaller than the threshold value K (step S706). When A is smaller than K (step S706: Yes), the determination unit 353 determines that the possibility of developmental disorder is high (step S707). When A is K or more (step S706: No), the determination unit 353 determines that the possibility of developmental disorder is low (step S708).

なお、評価式を上記例に限られるものではなく、各停留時間および各突入時間のうち、少なくとも発達障害の程度を判定可能な時間を用いる式であれば、他の評価式を用いてもよい。例えば、A=B−Cなどのように停留時間のみを判定に用いてもよい。また、例えば、A=E−Dなどのように突入時間のみを判定に用いてもよい。   Note that the evaluation formula is not limited to the above example, and any other evaluation formula may be used as long as it is a formula that uses at least the time during which the degree of developmental disability can be determined among each stop time and each entry time. . For example, only the stop time may be used for the determination, such as A = BC. Further, for example, only the entry time may be used for determination, such as A = ED.

以上のように、本実施形態によれば、例えば以下のような効果が得られる。
(1)1歳半の言葉が話せない乳児でも、診断支援が可能である。
(2)注視点の停留時間だけでなく、移動する映像に追従する時間と併せて診断するので、高精度の診断支援が可能である。
(3)移動方向を変えて測定するので、偶然的な偏りを回避できる。
As described above, according to the present embodiment, for example, the following effects can be obtained.
(1) Diagnosis support is possible even for infants who cannot speak the language of one and a half years.
(2) Diagnosis is performed not only with the gazing point stop time but also with the time to follow the moving image, so that highly accurate diagnosis support is possible.
(3) Since the measurement is performed by changing the moving direction, accidental bias can be avoided.

本発明の実施の形態は、その要旨を逸脱しない限り、様々に変更可能である。例えば、スリット503の幅または形状は、スリット503の背後を通過する画像の大きさや形状または被験者の発達障害の可能性の度合いにより変更してもよい。さらには、スリット503の背後を通過する画像の移動速度についても、同様に変更可能としてもよい。   The embodiment of the present invention can be variously modified without departing from the gist thereof. For example, the width or shape of the slit 503 may be changed depending on the size or shape of an image passing behind the slit 503 or the degree of possibility of developmental disorder of the subject. Further, the moving speed of the image passing behind the slit 503 may be changed similarly.

100 診断支援装置
101 表示画面
102 ステレオカメラ
105 スピーカ
202 右カメラ
203 光源
204 左カメラ
205 光源
208 駆動・IF部
210 表示部
300 制御部
351 表示制御部
352 視点検出部
353 判定部
DESCRIPTION OF SYMBOLS 100 Diagnosis support apparatus 101 Display screen 102 Stereo camera 105 Speaker 202 Right camera 203 Light source 204 Left camera 205 Light source 208 Drive / IF unit 210 Display unit 300 Control unit 351 Display control unit 352 View point detection unit 353 Determination unit

Claims (5)

複数の遮蔽部により一部が遮蔽される第1表示領域と、前記複数の遮蔽部により遮蔽されない第2表示領域および第3表示領域と、を含む表示部と、
前記複数の遮蔽部の間のスリットを通過するように前記第1表示領域に第1画像を表示させ、前記第1画像が前記スリットを通過後に、前記第2表示領域および前記第3表示領域のいずれか一方に前記第1画像を表示させるとともに、他方に前記第1画像とは異なる第2画像を表示させる表示制御部と、
前記第1表示領域、前記第2表示領域および前記第3表示領域における被験者の視点を検出する視点検出部と、
前記視点の検出結果に基づいて前記被験者の発達障害の程度を判定する判定部と、
を備えることを特徴とする診断支援装置。
A display unit including a first display region partially shielded by a plurality of shielding units, and a second display region and a third display region that are not shielded by the plurality of shielding units;
A first image is displayed on the first display area so as to pass through a slit between the plurality of shielding portions, and after the first image passes through the slit, the second display area and the third display area A display control unit that displays the first image on either one and displays a second image different from the first image on the other;
A viewpoint detection unit that detects a viewpoint of the subject in the first display area, the second display area, and the third display area;
A determination unit that determines the degree of developmental disorder of the subject based on the detection result of the viewpoint;
A diagnostic support apparatus comprising:
前記判定部は、前記第2表示領域で前記視点が検出される時間を表す第1停留時間と、前記第3表示領域で前記視点が検出される時間を表す第2停留時間を計測し、前記第1停留時間および前記第2停留時間の少なくとも一方に基づいて前記被験者の発達障害の程度を判定すること、
を特徴とする請求項1に記載の診断支援装置。
The determination unit measures a first stop time indicating a time when the viewpoint is detected in the second display area and a second stop time indicating a time when the viewpoint is detected in the third display area, Determining the degree of developmental disorder of the subject based on at least one of the first stop time and the second stop time;
The diagnosis support apparatus according to claim 1.
前記判定部は、前記視点が前記第1表示領域から前記第2表示領域に移動する時間を表す第1移動時間と、前記視点が前記第1表示領域から前記第3表示領域に移動する時間を表す第2移動時間と、を計測し、前記第1移動時間および前記第2移動時間の少なくとも一方に基づいて前記被験者の発達障害の程度を判定すること、
を特徴とする請求項1に記載の診断支援装置。
The determination unit includes: a first movement time indicating a time during which the viewpoint moves from the first display area to the second display area; and a time during which the viewpoint moves from the first display area to the third display area. Measuring a second travel time, and determining the degree of developmental disorder of the subject based on at least one of the first travel time and the second travel time;
The diagnosis support apparatus according to claim 1.
前記表示制御部は、さらに、前記スリットを通過するように前記第1表示領域に前記第1画像を表示させ、前記第1画像が前記スリットを通過後に、前記第2表示領域または前記第3表示領域における前記他方に前記第1画像を表示するとともに、前記一方に前記第2画像を表示させること、
を特徴とする請求項1に記載の診断支援装置。
The display control unit further displays the first image in the first display region so as to pass through the slit, and after the first image passes through the slit, the second display region or the third display. Displaying the first image on the other in the region and displaying the second image on the one;
The diagnosis support apparatus according to claim 1.
複数の遮蔽部により一部が遮蔽される第1表示領域と、前記複数の遮蔽部により遮蔽されない第2表示領域および第3表示領域と、を含む表示部を備える診断支援装置で実行される診断支援方法であって、
前記複数の遮蔽部の間のスリットを通過するように前記第1表示領域に第1画像を表示し、前記第1画像が前記スリットを通過後に、前記第2表示領域および前記第3表示領域のいずれか一方に前記第1画像を表示するとともに、他方に前記第1画像とは異なる第2画像を表示する表示制御ステップと、
前記第1表示領域、前記第2表示領域および前記第3表示領域における被験者の視点を検出する視点検出ステップと、
前記視点の検出結果に基づいて前記被験者の発達障害の程度を判定する判定ステップと、
を含むことを特徴とする診断支援方法。
Diagnosis executed by a diagnosis support apparatus including a display unit including a first display region partially shielded by a plurality of shielding units, and a second display region and a third display region that are not shielded by the plurality of shielding units. A support method,
A first image is displayed in the first display area so as to pass through the slits between the plurality of shielding portions, and after the first image passes through the slits, the second display area and the third display area A display control step of displaying the first image on either one and displaying a second image different from the first image on the other;
A viewpoint detection step of detecting a subject's viewpoint in the first display area, the second display area, and the third display area;
A determination step of determining the degree of developmental disorder of the subject based on the detection result of the viewpoint;
A diagnostic support method comprising:
JP2012162607A 2012-07-23 2012-07-23 Diagnosis support apparatus and diagnosis support method Active JP5983135B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012162607A JP5983135B2 (en) 2012-07-23 2012-07-23 Diagnosis support apparatus and diagnosis support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012162607A JP5983135B2 (en) 2012-07-23 2012-07-23 Diagnosis support apparatus and diagnosis support method

Publications (2)

Publication Number Publication Date
JP2014018565A true JP2014018565A (en) 2014-02-03
JP5983135B2 JP5983135B2 (en) 2016-08-31

Family

ID=50194104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012162607A Active JP5983135B2 (en) 2012-07-23 2012-07-23 Diagnosis support apparatus and diagnosis support method

Country Status (1)

Country Link
JP (1) JP5983135B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017536872A (en) * 2014-10-21 2017-12-14 ユニヴェルシテ パリ デカルトUniversite Paris Descartes Infant inspection method and apparatus suitable for implementation of the inspection method
JP2018175052A (en) * 2017-04-05 2018-11-15 北海道公立大学法人 札幌医科大学 Diagnosis support system, operation method of diagnosis support system, and program
JP2019171022A (en) * 2018-03-26 2019-10-10 株式会社Jvcケンウッド Evaluation device, evaluation method, and evaluation program
JP2020151293A (en) * 2019-03-22 2020-09-24 株式会社Jvcケンウッド Evaluation device, evaluation method and evaluation program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6737234B2 (en) * 2017-05-22 2020-08-05 株式会社Jvcケンウッド Evaluation device, evaluation method, and evaluation program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110242486A1 (en) * 2010-03-30 2011-10-06 Yoshinobu Ebisawa Autism diagnosis support apparatus
JP2013223713A (en) * 2012-03-21 2013-10-31 Hamamatsu Univ School Of Medicine Asperger's diagnosis assistance method and system, and asperger's diagnosis assistance device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110242486A1 (en) * 2010-03-30 2011-10-06 Yoshinobu Ebisawa Autism diagnosis support apparatus
JP2013223713A (en) * 2012-03-21 2013-10-31 Hamamatsu Univ School Of Medicine Asperger's diagnosis assistance method and system, and asperger's diagnosis assistance device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017536872A (en) * 2014-10-21 2017-12-14 ユニヴェルシテ パリ デカルトUniversite Paris Descartes Infant inspection method and apparatus suitable for implementation of the inspection method
JP2018175052A (en) * 2017-04-05 2018-11-15 北海道公立大学法人 札幌医科大学 Diagnosis support system, operation method of diagnosis support system, and program
JP2019171022A (en) * 2018-03-26 2019-10-10 株式会社Jvcケンウッド Evaluation device, evaluation method, and evaluation program
JP7167737B2 (en) 2018-03-26 2022-11-09 株式会社Jvcケンウッド Evaluation device, evaluation method, and evaluation program
JP2020151293A (en) * 2019-03-22 2020-09-24 株式会社Jvcケンウッド Evaluation device, evaluation method and evaluation program
WO2020194846A1 (en) * 2019-03-22 2020-10-01 株式会社Jvcケンウッド Assessment device, assessment method, and assessment program
JP7247690B2 (en) 2019-03-22 2023-03-29 株式会社Jvcケンウッド Evaluation device, evaluation method, and evaluation program

Also Published As

Publication number Publication date
JP5983135B2 (en) 2016-08-31

Similar Documents

Publication Publication Date Title
JP6693105B2 (en) Eye-gaze detecting device and eye-gaze detecting method
JP6210023B2 (en) Gaze detection support apparatus and gaze detection support method
JP5983131B2 (en) Diagnosis support apparatus and diagnosis support method
JP6201956B2 (en) Gaze detection device and gaze detection method
WO2015146491A1 (en) Detection device and detection method
JP5983135B2 (en) Diagnosis support apparatus and diagnosis support method
JP6638354B2 (en) Eye gaze detection device and eye gaze detection method
KR20150036395A (en) Strabismus Detection
JP2016032587A (en) Diagnosis support apparatus and diagnosis support method
JP5971066B2 (en) Diagnosis support apparatus and method of operating diagnosis support apparatus
JP6245093B2 (en) Diagnosis support apparatus and diagnosis support method
JP6900994B2 (en) Line-of-sight detection device and line-of-sight detection method
JP6142822B2 (en) Diagnosis support apparatus and diagnosis support method
JP6380178B2 (en) Diagnosis support apparatus and diagnosis support method
JP6135550B2 (en) Diagnosis support apparatus and diagnosis support method
JP6593133B2 (en) Diagnosis support apparatus and diagnosis support method
JP6019684B2 (en) Diagnosis support apparatus and diagnosis support method
JP5838894B2 (en) Diagnosis support apparatus and diagnosis support method
JP6327171B2 (en) Gaze point detection device and gaze point detection method
JP6883242B2 (en) Evaluation device, evaluation method, and evaluation program
JP6003277B2 (en) Diagnosis support apparatus and diagnosis support method
JP6187347B2 (en) Detection apparatus and detection method
JP6269177B2 (en) Pupil detection device, gaze detection device, and pupil detection method
JP6909391B2 (en) Line-of-sight detection device and line-of-sight detection method
JP2015181797A (en) Detection apparatus and detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160718

R150 Certificate of patent or registration of utility model

Ref document number: 5983135

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150