JP6003277B2 - Diagnosis support apparatus and diagnosis support method - Google Patents

Diagnosis support apparatus and diagnosis support method Download PDF

Info

Publication number
JP6003277B2
JP6003277B2 JP2012137821A JP2012137821A JP6003277B2 JP 6003277 B2 JP6003277 B2 JP 6003277B2 JP 2012137821 A JP2012137821 A JP 2012137821A JP 2012137821 A JP2012137821 A JP 2012137821A JP 6003277 B2 JP6003277 B2 JP 6003277B2
Authority
JP
Japan
Prior art keywords
image
subject
viewpoint
unit
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012137821A
Other languages
Japanese (ja)
Other versions
JP2014000254A (en
Inventor
修二 箱嶋
修二 箱嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2012137821A priority Critical patent/JP6003277B2/en
Publication of JP2014000254A publication Critical patent/JP2014000254A/en
Application granted granted Critical
Publication of JP6003277B2 publication Critical patent/JP6003277B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)

Description

本発明は、診断支援装置および診断支援方法に関する。   The present invention relates to a diagnosis support apparatus and a diagnosis support method.

最近、発達障害者が増加傾向にあると言われている。発達障害は、早期に発見し療育を開始することで症状を軽減し、社会に適応できる効果が高くなることがわかっている。我が国でも、1歳半検診時の問診などにより早期発見を目指している。しかし、精神科医不足や、問診に時間が掛かるなどの問題があり、その効果は十分とはいえない。そこで、客観的で効率的な発達障害の診断支援装置が求められている。   Recently, people with developmental disabilities are said to be on the rise. Developmental disorders are known to be detected early and start treatment to reduce symptoms and increase the effect of adapting to society. In Japan, we are aiming for early detection through interviews at the age of 1 and a half. However, there are problems such as shortage of psychiatrists and time-consuming interviews, and the effect is not sufficient. Therefore, there is a need for an objective and efficient diagnosis support device for developmental disorders.

発達障害早期発見のためには、例えば1歳半検診時に診断できることが理想的である。また、検診時の使用について配慮することが必要である。発達障害児の特徴として、対面する相手の目を見ない(視線をそらす)ことが挙げられる。カメラで人の顔を撮影して、角膜反射と瞳孔の位置を計算することにより注視点を検出する方法などを応用して、発達障害を診断支援する方法が提案されている。   For early detection of developmental disorders, it is ideal to be able to diagnose at the age of 1 and a half. In addition, it is necessary to consider the use at the time of screening. One characteristic of children with developmental disabilities is that they do not look at the eyes of their opponents. There has been proposed a method for diagnosing developmental disorders by applying a method of detecting a gazing point by photographing a human face with a camera and calculating a corneal reflection and a pupil position.

特開2011−206542号公報JP 2011-206542 A 特開2008−125619号公報JP 2008-125619 A 特開2005−198743号公報JP 2005-198743 A 特開2007−213377号公報JP 2007-213377 A

特許文献1では、目領域と、確実に観察対象者の口が含まれる口領域とを特定し、目領域に注視点座標が検出された動画像のフレーム数、口領域に注視点座標が検出された動画像のフレーム数、目領域の外に注視点座標が検出された動画像のフレーム数、および、計算対象の全フレーム数を算出する方法が提示されているが、さらに高精度の検出方法が求められていた。   In Patent Literature 1, an eye area and a mouth area that reliably includes the mouth of the observation target are specified, the number of frames of a moving image in which the gazing point coordinates are detected in the eye area, and the gazing point coordinates are detected in the mouth area. A method for calculating the number of frames of the moving image, the number of frames of the moving image in which the gaze point coordinates are detected outside the eye area, and the total number of frames to be calculated has been presented. A method was sought.

本発明は、上記に鑑みてなされたものであって、診断の精度を向上できる診断支援装置および診断支援方法を提供することを目的とする。   The present invention has been made in view of the above, and an object thereof is to provide a diagnosis support apparatus and a diagnosis support method capable of improving the accuracy of diagnosis.

上述した課題を解決し、目的を達成するために、本発明は、対象者を含む画像を表示部に表示する表示制御部と、前記画像を複数の領域に分割する分割部と、前記複数の領域のうち、特定要素の画像を含む特定領域を検出する領域検出部と、前記画像における被験者の視点を検出する視点検出部と、前記視点が前記特定領域に含まれるか否かを判断し、判断結果に基づいて前記被験者の発達障害の程度を判定する判定部と、前記画像内での前記特定要素の画像の位置を検出する位置検出部と、を備え、前記特定要素は、前記対象者の右目および左目であり、前記位置検出部は、前記画像内での前記右目の画像の位置である右目位置、および、前記画像内での前記左目の画像の位置である左目位置を検出し、前記分割部は、いずれか2つの前記領域の境界が、前記右目位置および前記左目位置の中心を通るように前記分割位置を変更する、ことを特徴とする。また、本発明は、対象者を含む画像を表示部に表示する表示制御部と、前記画像を複数の領域に分割する分割部と、前記複数の領域のうち、特定要素の画像を含む特定領域を検出する領域検出部と、前記画像における被験者の視点を検出する視点検出部と、前記視点が前記特定領域に含まれるか否かを判断し、判断結果に基づいて前記被験者の発達障害の程度を判定する判定部と、複数の前記領域間での前記視点の移動パターンを検出するパターン検出部と、を備え、前記判定部は、前記移動パターンと、前記視点の予め定められた移動のパターンを表す基準パターンとを比較することにより、前記被験者の発達障害の程度を判定する、ことを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention includes a display control unit that displays an image including a subject on a display unit, a division unit that divides the image into a plurality of regions, and the plurality of the plurality of regions. Among the areas, an area detection unit that detects a specific area including an image of a specific element, a viewpoint detection unit that detects a viewpoint of a subject in the image, and determines whether the viewpoint is included in the specific area, A determination unit that determines a degree of developmental disorder of the subject based on a determination result; and a position detection unit that detects a position of an image of the specific element in the image, wherein the specific element is the subject The right eye and the left eye, and the position detection unit detects a right eye position that is a position of the right eye image in the image, and a left eye position that is a position of the image of the left eye in the image, The dividing unit is any two of the above Boundary frequency is to change the division position so as to pass through the center of the eye position and the left eye position, characterized and this. The present invention also provides a display control unit that displays an image including the subject on a display unit, a dividing unit that divides the image into a plurality of regions, and a specific region that includes an image of a specific element among the plurality of regions. A region detecting unit for detecting the subject, a viewpoint detecting unit for detecting the viewpoint of the subject in the image, and determining whether or not the viewpoint is included in the specific region, and the degree of developmental disorder of the subject based on the determination result And a pattern detection unit that detects a movement pattern of the viewpoint between the plurality of regions, and the determination unit includes the movement pattern and a predetermined movement pattern of the viewpoint. The degree of developmental disorder of the subject is determined by comparing with a reference pattern representing

また、本発明は、対象者を含む画像を表示部に表示する表示制御ステップと、前記画像を複数の領域に分割する分割ステップと、前記複数の領域のうち、特定要素の画像を含む特定領域を検出する領域検出ステップと、前記画像における被験者の視点を検出する視点検出ステップと、CPUに含まれる評価部が、前記視点が前記特定領域に含まれるか否かを判断し、判断結果に基づいて前記被験者の発達障害の程度を判定する判定ステップと、前記画像内での前記特定要素の画像の位置を検出する位置検出ステップと、を含み、前記特定要素は、前記対象者の右目および左目であり、前記位置検出ステップは、前記画像内での前記右目の画像の位置である右目位置、および、前記画像内での前記左目の画像の位置である左目位置を検出し、前記分割ステップは、いずれか2つの前記領域の境界が、前記右目位置および前記左目位置の中心を通るように前記分割位置を変更する、ことを特徴とする。また、本発明は、対象者を含む画像を表示部に表示する表示制御ステップと、前記画像を複数の領域に分割する分割ステップと、前記複数の領域のうち、特定要素の画像を含む特定領域を検出する領域検出ステップと、前記画像における被験者の視点を検出する視点検出ステップと、CPUに含まれる評価部が、前記視点が前記特定領域に含まれるか否かを判断し、判断結果に基づいて前記被験者の発達障害の程度を判定する判定ステップと、複数の前記領域間での前記視点の移動パターンを検出するパターン検出ステップと、を含み、前記判定ステップは、前記移動パターンと、前記視点の予め定められた移動のパターンを表す基準パターンとを比較することにより、前記被験者の発達障害の程度を判定する、ことを特徴とする。 The present invention also provides a display control step for displaying an image including the subject on a display unit, a division step for dividing the image into a plurality of regions, and a specific region including an image of a specific element among the plurality of regions. A region detecting step for detecting the viewpoint, a viewpoint detecting step for detecting the viewpoint of the subject in the image, and an evaluation unit included in the CPU determines whether or not the viewpoint is included in the specific region, and based on the determination result A determination step of determining the degree of developmental disorder of the subject, and a position detection step of detecting the position of the image of the specific element in the image, wherein the specific element includes the right eye and the left eye of the subject The position detecting step detects a right eye position that is a position of the right eye image in the image and a left eye position that is a position of the left eye image in the image; The dividing step is characterized in that the dividing position is changed so that the boundary between any two of the regions passes through the center of the right eye position and the left eye position. The present invention also provides a display control step for displaying an image including the subject on a display unit, a division step for dividing the image into a plurality of regions, and a specific region including an image of a specific element among the plurality of regions. A region detecting step for detecting the viewpoint, a viewpoint detecting step for detecting the viewpoint of the subject in the image, and an evaluation unit included in the CPU determines whether or not the viewpoint is included in the specific region, and based on the determination result A determination step of determining the degree of developmental disorder of the subject, and a pattern detection step of detecting a movement pattern of the viewpoint between a plurality of the regions, wherein the determination step includes the movement pattern and the viewpoint The degree of developmental disorder of the subject is determined by comparing with a reference pattern representing a predetermined movement pattern.

本発明にかかる診断支援装置および診断支援方法は、診断の精度を向上できるという効果を奏する。   The diagnosis support apparatus and diagnosis support method according to the present invention have an effect of improving the accuracy of diagnosis.

図1は、第1の実施形態で用いる表示部、ステレオカメラ、および光源の配置の一例を示す図である。FIG. 1 is a diagram illustrating an example of an arrangement of a display unit, a stereo camera, and a light source used in the first embodiment. 図2は、第1の実施形態の診断支援装置の機能の概要を示す図である。FIG. 2 is a diagram illustrating an outline of functions of the diagnosis support apparatus according to the first embodiment. 図3は、図2に示す各部の詳細な機能の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of detailed functions of the respective units illustrated in FIG. 図4は、第1の実施形態における診断支援処理の一例を示すフローチャートである。FIG. 4 is a flowchart illustrating an example of a diagnosis support process according to the first embodiment. 図5は、表示部に表示される画像の一例を示す図である。FIG. 5 is a diagram illustrating an example of an image displayed on the display unit. 図6は、注視点検出結果の一例を示す図である。FIG. 6 is a diagram illustrating an example of a gazing point detection result. 図7は、図6の対象画像の分割例を示す模式図である。FIG. 7 is a schematic diagram illustrating an example of division of the target image in FIG. 図8は、ブロックに含まれる注視点マーカの数をカウントした結果の一例を示す図である。FIG. 8 is a diagram illustrating an example of a result of counting the number of gazing point markers included in a block. 図9は、ブロックに含まれる注視点マーカの数をカウントした結果の一例を示す図である。FIG. 9 is a diagram illustrating an example of a result of counting the number of gazing point markers included in a block. 図10は、注視点検出結果の一例を示す図である。FIG. 10 is a diagram illustrating an example of a gazing point detection result. 図11は、図10の対象画像の分割例を示す模式図である。FIG. 11 is a schematic diagram illustrating an example of division of the target image in FIG. 図12は、ブロックに含まれる注視点マーカの数をカウントした結果の一例を示す図である。FIG. 12 is a diagram illustrating an example of a result of counting the number of gazing point markers included in a block. 図13は、ブロックに含まれる注視点マーカの数をカウントした結果の一例を示す図である。FIG. 13 is a diagram illustrating an example of a result of counting the number of gazing point markers included in a block. 図14は、第2の実施形態の制御部の構成例を示すブロック図である。FIG. 14 is a block diagram illustrating a configuration example of a control unit according to the second embodiment. 図15は、第2の実施形態における診断支援処理の一例を示すフローチャートである。FIG. 15 is a flowchart illustrating an example of a diagnosis support process according to the second embodiment. 図16は、図6の対象画像の分割例を示す模式図である。FIG. 16 is a schematic diagram illustrating an example of division of the target image in FIG. 図17は、ブロックに含まれる注視点マーカの数をカウントした結果の一例を示す図である。FIG. 17 is a diagram illustrating an example of a result of counting the number of gazing point markers included in a block. 図18は、ブロックに含まれる注視点マーカの数をカウントした結果の一例を示す図である。FIG. 18 is a diagram illustrating an example of a result of counting the number of gazing point markers included in a block. 図19は、図10の対象画像の分割例を示す模式図である。FIG. 19 is a schematic diagram illustrating an example of division of the target image in FIG. 図20は、ブロックに含まれる注視点マーカの数をカウントした結果の一例を示す図である。FIG. 20 is a diagram illustrating an example of a result of counting the number of gazing point markers included in a block. 図21は、ブロックに含まれる注視点マーカの数をカウントした結果の一例を示す図である。FIG. 21 is a diagram illustrating an example of a result of counting the number of gazing point markers included in a block. 図22は、第3の実施形態の制御部の構成例を示すブロック図である。FIG. 22 is a block diagram illustrating a configuration example of a control unit according to the third embodiment. 図23は、第3の実施形態における診断支援処理の一例を示すフローチャートである。FIG. 23 is a flowchart illustrating an example of a diagnosis support process according to the third embodiment. 図24は、第3の実施形態で用いる対象画像の一例を示す図である。FIG. 24 is a diagram illustrating an example of a target image used in the third embodiment. 図25は、第3の実施形態で用いる対象画像の一例を示す図である。FIG. 25 is a diagram illustrating an example of a target image used in the third embodiment. 図26は、第3の実施形態で用いる対象画像の一例を示す図である。FIG. 26 is a diagram illustrating an example of a target image used in the third embodiment.

以下に、本発明にかかる診断支援装置および診断支援方法の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。   Hereinafter, embodiments of a diagnosis support apparatus and a diagnosis support method according to the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited by this embodiment.

(第1の実施形態)
上述の特許文献1では、目領域と口領域とを定め、各領域に注視点座標が検出された動画像のフレーム数を用いて、発達障害を診断している。しかし、例えば目領域は確実に対象者(観察対象者)の目が含まれるように大きく定められている。従って、被験者が実際には対象者の目を注視していない場合であっても、目を注視していると誤って判断する可能性がある。また、特許文献1の方法では、例えば対象者が変わった場合や、対象者が撮像領域内で動いた場合など、カメラで撮影された対象者の画像が変更される場合がある。一方、各領域は対象者によらず固定で定められる。このため、対象者の画像が変更されることにより、例えば実際の対象者の画像内の目の位置が目領域から外れる可能性がある。このように、特許文献1のような方法では、診断の精度が低下する可能性があった。
(First embodiment)
In Patent Document 1 described above, an eye area and a mouth area are defined, and developmental disorders are diagnosed using the number of frames of a moving image in which a gazing point coordinate is detected in each area. However, for example, the eye region is set to be large so that the eyes of the subject (observation subject) are surely included. Therefore, even when the subject does not actually look at the subject's eyes, there is a possibility of erroneously determining that the subject is looking at the eyes. In the method of Patent Document 1, for example, when the subject changes or when the subject moves within the imaging area, the image of the subject taken by the camera may be changed. On the other hand, each area is fixedly defined regardless of the subject. For this reason, there is a possibility that, for example, the position of the eye in the actual image of the subject is out of the eye area by changing the image of the subject. As described above, in the method as disclosed in Patent Document 1, there is a possibility that the accuracy of diagnosis is lowered.

そこで、第1の実施形態では、表示部に表示する画像を複数の領域(ブロック)に分割し、対象者の特定の要素(目、口など)が含まれるブロックを特定する。その後、特定したブロックを被験者が注視するかなどを判断する。これにより、対象者の画像が変更される場合であっても、特定の要素が含まれるブロックを適切に特定でき、診断の精度が低下することを回避できる。   Therefore, in the first embodiment, an image to be displayed on the display unit is divided into a plurality of regions (blocks), and a block including specific elements (eyes, mouth, etc.) of the subject is specified. Thereafter, it is determined whether or not the subject gazes at the identified block. Thereby, even if it is a case where a subject's image is changed, the block containing a specific element can be specified appropriately, and it can avoid that the precision of a diagnosis falls.

第1の実施形態は、被験者の観察する対象となる診断用画像(対象画像)を表示部(モニタ)に表示して被験者の発達障害を診断する例である。図1は、第1の実施形態で用いる表示部、ステレオカメラ、および光源の配置の一例を示す図である。図1に示すように、第1の実施形態では、表示部101の横近傍に、1組のステレオカメラ102を配置する。ステレオカメラ102は、赤外線によるステレオ撮影が可能な撮像部であり、右カメラ202と左カメラ204とを備えている。   The first embodiment is an example of diagnosing a developmental disorder of a subject by displaying a diagnostic image (target image) to be observed by the subject on a display unit (monitor). FIG. 1 is a diagram illustrating an example of an arrangement of a display unit, a stereo camera, and a light source used in the first embodiment. As shown in FIG. 1, in the first embodiment, a set of stereo cameras 102 is arranged near the side of the display unit 101. The stereo camera 102 is an imaging unit that can perform stereo shooting with infrared rays, and includes a right camera 202 and a left camera 204.

右カメラ202および左カメラ204の各レンズの直前には、円周方向に赤外LED(Light Emitting Diode)光源203および205がそれぞれ配置される。赤外LED光源203および205は、発光する波長が相互に異なる内周のLEDと外周のLEDとを含む。赤外LED光源203および205により被験者の瞳孔を検出する。瞳孔の検出方法としては、例えば特許文献2に記載された方法などを適用できる。   Infrared LED (Light Emitting Diode) light sources 203 and 205 are arranged in the circumferential direction immediately before the lenses of the right camera 202 and the left camera 204, respectively. The infrared LED light sources 203 and 205 include an inner peripheral LED and an outer peripheral LED having different wavelengths for emitting light. The pupils of the subject are detected by the infrared LED light sources 203 and 205. As a pupil detection method, for example, the method described in Patent Document 2 can be applied.

視線を検出する際には、空間を座標で表現して位置を特定する。本実施形態では、表示部101の画面の中央位置を原点として、上下をY座標(上が+)、横をX座標(向かって右が+)、奥行きをZ座標(手前が+)としている。   When detecting the line of sight, the space is expressed by coordinates to identify the position. In the present embodiment, the center position of the screen of the display unit 101 is the origin, the top and bottom are the Y coordinate (up is +), the side is the X coordinate (right is +), and the depth is the Z coordinate (front is +). .

図2は、診断支援装置100の機能の概要を示す図である。図2では、図1に示した構成の一部と、この構成の駆動などに用いられる構成を示している。図2に示すように、診断支援装置100は、右カメラ202と、左カメラ204と、赤外LED光源203および205と、スピーカ105と、駆動・IF部208と、制御部300と、表示部101と、表示部210と、を含む。   FIG. 2 is a diagram illustrating an outline of functions of the diagnosis support apparatus 100. FIG. 2 shows a part of the configuration shown in FIG. 1 and a configuration used for driving the configuration. As shown in FIG. 2, the diagnosis support apparatus 100 includes a right camera 202, a left camera 204, infrared LED light sources 203 and 205, a speaker 105, a drive / IF unit 208, a control unit 300, and a display unit. 101 and a display unit 210.

スピーカ105は、キャリブレーション時などに、被験者に注意を促すための音声などを出力する。   The speaker 105 outputs a sound or the like for prompting the subject to pay attention during calibration.

駆動・IF部208は、ステレオカメラ102に含まれる各部を駆動する。また、駆動・IF部208は、ステレオカメラ102に含まれる各部と、制御部300とのインタフェースとなる。   The drive / IF unit 208 drives each unit included in the stereo camera 102. The drive / IF unit 208 serves as an interface between each unit included in the stereo camera 102 and the control unit 300.

表示部101は、対象画像を表示する。表示部210は、装置の操作や、診断支援結果を表示する。   The display unit 101 displays a target image. The display unit 210 displays device operations and diagnosis support results.

図3は、図2に示す各部の詳細な機能の一例を示すブロック図である。図3に示すように、制御部300には、表示部210と、駆動・IF部208が接続される。駆動・IF部208は、カメラIF314、315と、LED駆動制御部316と、スピーカ駆動部322と、を備える。   FIG. 3 is a block diagram illustrating an example of detailed functions of the respective units illustrated in FIG. As shown in FIG. 3, a display unit 210 and a drive / IF unit 208 are connected to the control unit 300. The drive / IF unit 208 includes camera IFs 314 and 315, an LED drive control unit 316, and a speaker drive unit 322.

駆動・IF部208には、カメラIF314、315を介して、それぞれ、右カメラ202、左カメラ204が接続される。駆動・IF部208がこれらのカメラを駆動することにより、被験者を撮像する。   A right camera 202 and a left camera 204 are connected to the drive / IF unit 208 via camera IFs 314 and 315, respectively. The driving / IF unit 208 drives these cameras to image the subject.

右カメラ202からはフレーム同期信号が出力される。フレーム同期信号は、左カメラ204とLED駆動制御部316とに入力される。これにより、第1フレームで、タイミングをずらして左右の波長1の赤外線光源(波長1−LED303、波長1−LED305)を発光させ、それに対応して左右カメラ(右カメラ202、左カメラ204)による画像を取り込み、第2フレームで、タイミングをずらして左右の波長2の赤外線光源(波長2−LED304、波長2−LED306)を発光させ、それに対応して左右カメラによる画像を取り込んでいる。   A frame synchronization signal is output from the right camera 202. The frame synchronization signal is input to the left camera 204 and the LED drive control unit 316. This causes the left and right wavelength 1 infrared light sources (wavelength 1-LED 303, wavelength 1-LED 305) to emit light at different timings in the first frame, and correspondingly by the left and right cameras (right camera 202, left camera 204). In the second frame, the left and right wavelength 2 infrared light sources (wavelength 2-LED 304, wavelength 2-LED 306) are caused to emit light in the second frame, and the images from the left and right cameras are captured correspondingly.

赤外LED光源203は、波長1−LED303と、波長2−LED304と、を備えている。赤外LED光源205は、波長1−LED305と、波長2−LED306と、を備えている。   The infrared LED light source 203 includes a wavelength 1-LED 303 and a wavelength 2-LED 304. The infrared LED light source 205 includes a wavelength 1-LED 305 and a wavelength 2-LED 306.

波長1−LED303、305は、波長1の赤外線を照射する。波長2−LED304、306は、波長2の赤外線を照射する。   Wavelength 1-LEDs 303 and 305 emit infrared light having wavelength 1. Wavelength 2-LEDs 304 and 306 irradiate wavelength 2 infrared rays.

波長1および波長2は、それぞれ例えば900nm未満の波長および900nm以上の波長とする。900nm未満の波長の赤外線を照射して瞳孔で反射された反射光を撮像すると、900nm以上の波長の赤外線を照射して瞳孔で反射された反射光を撮像した場合に比べて、明るい瞳孔像が得られるためである。   The wavelength 1 and the wavelength 2 are, for example, a wavelength of less than 900 nm and a wavelength of 900 nm or more, respectively. When the reflected light reflected by the pupil is irradiated with infrared light having a wavelength of less than 900 nm, a bright pupil image is obtained as compared with the case where reflected light reflected by the pupil is irradiated with infrared light having a wavelength of 900 nm or more. It is because it is obtained.

スピーカ駆動部322は、スピーカ105を駆動する。   The speaker driving unit 322 drives the speaker 105.

制御部300は、診断支援装置100全体を制御して、結果を表示部210およびスピーカ105などに出力する。制御部300は、表示制御部351と、分割部352と、領域検出部353と、視点検出部354と、判定部355と、を備えている。   The control unit 300 controls the entire diagnosis support apparatus 100 and outputs the result to the display unit 210, the speaker 105, and the like. The control unit 300 includes a display control unit 351, a dividing unit 352, an area detection unit 353, a viewpoint detection unit 354, and a determination unit 355.

表示制御部351は、表示部101および表示部210に対する各種情報の表示を制御する。例えば、表示制御部351は、対象者の画像(対象画像)を表示部101に表示する。また、表示制御部351は、診断結果を表示部210に表示する。   The display control unit 351 controls display of various information on the display unit 101 and the display unit 210. For example, the display control unit 351 displays an image of the subject (target image) on the display unit 101. In addition, the display control unit 351 displays the diagnosis result on the display unit 210.

分割部352は、表示部210に表示される画像を複数の領域に分割する。   The dividing unit 352 divides the image displayed on the display unit 210 into a plurality of areas.

領域検出部353は、分割された領域のうち、特定要素の画像を含む特定領域を検出する。特定要素とは、例えば、対象者の目および口の少なくとも一方である。なお、特定要素はこれに限られるものではない。例えば、対象者以外の動作する物体を特定要素としてもよい。   The area detection unit 353 detects a specific area including an image of a specific element among the divided areas. The specific element is, for example, at least one of the subject's eyes and mouth. The specific element is not limited to this. For example, a moving object other than the subject may be used as the specific element.

視点検出部354は、被験者の視点を検出する。本実施形態では、視点検出部354は、例えば、被験者の母親の画像などを含む表示部101に表示された対象画像のうち、被験者が注視する点である視点を検出する。視点検出部354による視点検出方法としては、従来から用いられているあらゆる方法を適用できる。以下では、特許文献3と同様に、ステレオカメラ102を用いて被験者の視点を検出する場合を例に説明する。   The viewpoint detection unit 354 detects the viewpoint of the subject. In this embodiment, the viewpoint detection part 354 detects the viewpoint which is a point which a test subject gazes among the target images displayed on the display part 101 containing the test subject's mother's image etc., for example. As a viewpoint detection method by the viewpoint detection unit 354, any conventionally used method can be applied. Below, similarly to patent document 3, the case where a test subject's viewpoint is detected using the stereo camera 102 is demonstrated to an example.

この場合、まず視点検出部354は、ステレオカメラ102で撮影された画像から、被験者の視線方向を検出する。視点検出部354は、例えば、特許文献1および2に記載された方法などを用いて、被験者の視線方向を検出する。具体的には、視点検出部354は、波長1の赤外線を照射して撮影した画像と、波長2の赤外線を照射して撮影した画像との差分を求め、瞳孔像が明確化された画像を生成する。視点検出部354は、左右のカメラ(右カメラ202、左カメラ204)で撮影された画像それぞれから上記のように生成された2つの画像を用いて、ステレオ視の手法により被験者の瞳孔の位置を算出する。また、視点検出部354は、左右のカメラで撮影された画像を用いて被験者の角膜反射の位置を算出する。そして、視点検出部354は、被験者の瞳孔の位置と角膜反射位置とから、被験者の視線方向を表す視線ベクトルを算出する。   In this case, the viewpoint detection unit 354 first detects the gaze direction of the subject from the image captured by the stereo camera 102. The viewpoint detection unit 354 detects the visual line direction of the subject using, for example, the methods described in Patent Documents 1 and 2. Specifically, the viewpoint detection unit 354 obtains the difference between the image captured by irradiating the infrared light having the wavelength 1 and the image captured by irradiating the infrared light having the wavelength 2, and the image in which the pupil image is clarified. Generate. The viewpoint detection unit 354 uses the two images generated as described above from the images captured by the left and right cameras (the right camera 202 and the left camera 204) to determine the position of the pupil of the subject using a stereo vision technique. calculate. In addition, the viewpoint detection unit 354 calculates the position of the corneal reflection of the subject using images captured by the left and right cameras. Then, the viewpoint detection unit 354 calculates a line-of-sight vector representing the line-of-sight direction of the subject from the position of the pupil of the subject and the corneal reflection position.

視点検出部354は、例えば図1のような座標系で表される視線ベクトルとXY平面との交点を、被験者の視点として検出する。両目の視線方向が得られた場合は、被験者の左右の視線の交点を求めることによって視点を計測してもよい。   The viewpoint detection unit 354 detects, for example, the intersection of the line-of-sight vector represented in the coordinate system as shown in FIG. 1 and the XY plane as the viewpoint of the subject. When the gaze direction of both eyes is obtained, the viewpoint may be measured by obtaining the intersection of the left and right gazes of the subject.

なお、被験者の視点の検出方法はこれに限られるものではない。例えば、赤外線ではなく、可視光を用いて撮影した画像を解析することにより、被験者の視点を検出してもよい。   Note that the method for detecting the viewpoint of the subject is not limited to this. For example, you may detect a test subject's viewpoint by analyzing the image image | photographed using visible light instead of infrared rays.

判定部355は、視点検出部354によって検出された視点が、領域検出部353によって検出された特定領域に含まれるか否かを判断する。判定部355は、判断結果に基づいて被験者の発達障害の程度を判定する。   The determination unit 355 determines whether or not the viewpoint detected by the viewpoint detection unit 354 is included in the specific region detected by the region detection unit 353. The determination unit 355 determines the degree of developmental disorder of the subject based on the determination result.

制御部300および制御部300内の各部の一部または全部は、ハードウェアにより実現してもよいし、CPUなどにより実行されるソフトウェア(プログラム)により実現してもよい。   Part or all of the control unit 300 and each unit in the control unit 300 may be realized by hardware, or may be realized by software (program) executed by a CPU or the like.

本実施形態の診断支援装置100で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。   A program executed by the diagnosis support apparatus 100 according to the present embodiment is a file in an installable format or an executable format, and is a computer such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD (Digital Versatile Disk). Recorded on a readable recording medium.

また、本実施形態の診断支援装置100で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態の診断支援装置100で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。また、本実施形態の診断支援装置100で実行されるプログラムを、ROM等に予め組み込んで提供するように構成してもよい。   Further, the program executed by the diagnosis support apparatus 100 of the present embodiment may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. Further, the program executed by the diagnosis support apparatus 100 of the present embodiment may be configured to be provided or distributed via a network such as the Internet. Further, the program executed by the diagnosis support apparatus 100 of this embodiment may be configured to be provided by being incorporated in advance in a ROM or the like.

本実施形態の診断支援装置100で実行されるプログラムは、上述した各部を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体からプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、各部が主記憶装置上に生成されるようになっている。   The program executed by the diagnosis support apparatus 100 according to the present embodiment has a module configuration including the above-described units. As actual hardware, a CPU (processor) reads the program from the storage medium and executes it. Each of the above parts is loaded on the main storage device, and each part is generated on the main storage device.

次に、このように構成された第1の実施形態にかかる診断支援装置100による診断支援処理について説明する。図4は、第1の実施形態における診断支援処理の一例を示すフローチャートである。なお、本実施形態では被験者が対象画像の人物の目を見る割合が規定値(例えば60%)以上であるか否かを判断基準とする。   Next, diagnosis support processing by the diagnosis support apparatus 100 according to the first embodiment configured as described above will be described. FIG. 4 is a flowchart illustrating an example of a diagnosis support process according to the first embodiment. In the present embodiment, the determination criterion is whether or not the rate at which the subject sees the eyes of the person in the target image is greater than or equal to a specified value (for example, 60%).

まず、表示制御部351は、被験者が見る人物(対象者)の顔の画像を含む対象画像を表示部101に表示する(ステップS101)。図5は、表示部101に表示される画像の一例を示す図である。図5では、対象画像として、対象者の顔の画像501を含む画像が表示される例が示されている。顔の画像501は、対象者の目502を含んでいる。   First, the display control unit 351 displays a target image including a face image of a person (subject) viewed by the subject on the display unit 101 (step S101). FIG. 5 is a diagram illustrating an example of an image displayed on the display unit 101. FIG. 5 shows an example in which an image including an image 501 of the subject's face is displayed as the target image. The face image 501 includes the eyes 502 of the subject.

次に、制御部300は、注視点の計測が終了するまで、表示部101に対する被験者の注視点座標を検出し、検出した座標を保存し続ける(ステップS102〜ステップS105)。   Next, the control unit 300 detects the gaze point coordinates of the subject with respect to the display unit 101 and continues to store the detected coordinates until the gaze point measurement ends (steps S102 to S105).

具体的には、視点検出部354は、瞳孔中心と角膜反射位置との関係を用いて、被験者の視線方向を計算する(ステップS102)。視点検出部354は、視線方向と表示部101(図1ではXY平面)との交点(注視点)を検出する(ステップS103)。視点検出部354は、検出した注視点の座標値を記憶部(図示せず)等に保存する(ステップS104)。   Specifically, the viewpoint detection unit 354 calculates the gaze direction of the subject using the relationship between the pupil center and the corneal reflection position (step S102). The viewpoint detection unit 354 detects an intersection (gaze point) between the line-of-sight direction and the display unit 101 (XY plane in FIG. 1) (step S103). The viewpoint detection unit 354 stores the detected coordinate value of the gazing point in a storage unit (not shown) or the like (step S104).

制御部300は、計測が終了したか否かを判断する(ステップS105)。制御部300は、例えば、予め定められた計測時間を経過したか、または、予め定められた個数分の注視点の座標値が得られたか、などによって計測が終了したかを判断する。計測時間(回数)および座標値の個数は、被験者の年齢や状況を考慮して適切な値を決定する。   The controller 300 determines whether or not the measurement is finished (step S105). For example, the control unit 300 determines whether the measurement has been completed, for example, whether a predetermined measurement time has elapsed, or whether a predetermined number of gaze point coordinate values have been obtained. The measurement time (number of times) and the number of coordinate values are determined appropriately in consideration of the age and situation of the subject.

計測が終了していない場合(ステップS105:No)、ステップS102に戻り処理を繰り返す。計測が終了した場合(ステップS105:Yes)、制御部300は、計測した座標値を用いた診断処理を実行する(ステップS106〜ステップS111)。なお、座標値の検出処理(ステップS101〜ステップS105)を実行しながら、診断処理(ステップS106〜ステップS111)も実行するように構成してもよい。図4のように検出処理と診断処理とを分離すれば、処理負荷を分散することができる。   If the measurement has not been completed (step S105: No), the process returns to step S102 and is repeated. When the measurement is completed (step S105: Yes), the control unit 300 executes a diagnostic process using the measured coordinate values (step S106 to step S111). In addition, you may comprise so that a diagnostic process (step S106-step S111) may also be performed, performing the detection process (step S101-step S105) of a coordinate value. If the detection process and the diagnosis process are separated as shown in FIG. 4, the processing load can be distributed.

図6〜図9は注視点検出結果の一例を示す図である。図6の画像は、図5の画像上に被験者の注視点を示す複数のマーカ601を重ねて表示した画像の例である。表示制御部351は、図6のような画像を、被験者用の表示部101および結果出力用の表示部210の少なくとも一方に表示する。   6 to 9 are diagrams illustrating examples of gazing point detection results. The image in FIG. 6 is an example of an image in which a plurality of markers 601 indicating the gaze point of the subject are superimposed on the image in FIG. The display control unit 351 displays an image as shown in FIG. 6 on at least one of the test subject display unit 101 and the result output display unit 210.

診断処理では、まず、分割部352が、対象画像全体を複数のブロックに分割する(ステップS106)。本実施形態では、分割部352は、対象画像を横方向に23分割し、縦方向に33分割している。なお、分割方法はこれに限られるものではなく、対象画像を複数の領域に分割する方法であればあらゆる方法を適用できる。例えば、分割数は23および33に限られるものではない。また、分割して得られる領域の形状は矩形(正方形)に限られるものではなく、任意の形状とすることができる。   In the diagnosis process, first, the dividing unit 352 divides the entire target image into a plurality of blocks (step S106). In the present embodiment, the dividing unit 352 divides the target image into 23 in the horizontal direction and 33 in the vertical direction. Note that the division method is not limited to this, and any method can be applied as long as the target image is divided into a plurality of regions. For example, the number of divisions is not limited to 23 and 33. Moreover, the shape of the region obtained by the division is not limited to a rectangle (square), and may be an arbitrary shape.

図7は、図6の対象画像の分割例を示す模式図である。なお、図7の下部は説明のために一部のブロック(目の画像付近のブロック)を拡大したものである。A−0〜A−11およびB−0〜B−6は、横方向に12個、縦方向に7個並んだ各ブロックを特定するための情報であり、説明の便宜上付与したものである。   FIG. 7 is a schematic diagram illustrating an example of division of the target image in FIG. Note that the lower part of FIG. 7 is an enlarged view of a part of blocks (blocks near the eye image) for explanation. A-0 to A-11 and B-0 to B-6 are information for specifying each of the 12 blocks arranged in the horizontal direction and 7 blocks arranged in the vertical direction, and are given for convenience of explanation.

図4に戻り、領域検出部353は、分割されたブロックのうち、特定要素として人物の目が含まれているブロック(特定領域)を抽出する(ステップS107)。領域検出部353は、例えば、パターンマッチングなどの一般的に利用されている画像認識技術を用いて、画像から目を検出する。そして、領域検出部353は、検出した目が含まれるブロックを特定領域として検出する。なお、ブロックの検出(抽出)方法はこれに限られるものではない。例えば、表示する対象画像が事前に分かっている場合等であれば、目が含まれているブロックを予め手作業によって設定しておく方法を用いてもよい。   Returning to FIG. 4, the region detection unit 353 extracts a block (specific region) including human eyes as a specific element from among the divided blocks (step S <b> 107). The area detection unit 353 detects an eye from the image using a generally used image recognition technique such as pattern matching. Then, the region detection unit 353 detects a block including the detected eye as a specific region. Note that the block detection (extraction) method is not limited to this. For example, if the target image to be displayed is known in advance, a method of manually setting a block including eyes may be used in advance.

次に、判定部355は、ブロックごとの注視点の検出回数をカウントする(ステップS108)。例えば、判定部355は、ステップS104で記憶された注視点の座標値と、ステップS106で分割された各ブロックの座標値等を参照し、各ブロックに含まれる注視点の個数をカウントする。このカウント値が、ブロックごとの注視点の検出回数に相当する。   Next, the determination unit 355 counts the number of detections of the gazing point for each block (step S108). For example, the determination unit 355 refers to the coordinate value of the gazing point stored in step S104, the coordinate value of each block divided in step S106, and the like, and counts the number of gazing points included in each block. This count value corresponds to the number of detections of the gazing point for each block.

図8および図9は、それぞれのブロックに含まれる注視点マーカの数をカウントした結果の一例を示す図である。図9では、説明のために、目の画像が含まれているブロック(特定領域)の背景を灰色としている。   8 and 9 are diagrams illustrating an example of a result of counting the number of gazing point markers included in each block. In FIG. 9, for the sake of explanation, the background of the block (specific area) containing the eye image is gray.

図4に戻る。判定部355は、検出された注視点が特定領域に含まれるか否かを判断する。判定部355は、予め決められたルールと判断結果とから、被験者の発達障害の程度を判定する。上述のように、本実施形態では、判定部355は、被験者が対象画像の人物の目を見る割合が規定値以上であるか否かをルールとして発達障害の程度を判定する(ステップS109)。   Returning to FIG. The determination unit 355 determines whether or not the detected gaze point is included in the specific area. The determination unit 355 determines the degree of developmental disorder of the subject from predetermined rules and determination results. As described above, in the present embodiment, the determination unit 355 determines the degree of developmental disorder based on whether or not the rate at which the subject looks at the eyes of the person in the target image is greater than or equal to a specified value (step S109).

図6の例では、以下のように判定される。
注視点全体の検出回数=57
人物の目が含まれているブロックを見た回数=37
人物の目を見た割合=37/57=64.9%
In the example of FIG. 6, the determination is made as follows.
Number of detections of the entire gazing point = 57
Number of times a block containing human eyes is seen = 37
Percentage of people looking at eyes = 37/57 = 64.9%

仮に規定値を60%と仮定すると、割合が規定値を超えているため発達障害の可能性は低いと判断される。なお、図8(図9)内では注視点の検出回数は51である。図6に示すように、目の周辺以外でも注視点が検出されるため、注視点全体の検出回数は57としている。   Assuming that the specified value is 60%, it is determined that the possibility of developmental disorder is low because the ratio exceeds the specified value. In FIG. 8 (FIG. 9), the number of points of gaze detection is 51. As shown in FIG. 6, since the gazing point is also detected outside the eye periphery, the number of detections of the entire gazing point is 57.

次に別の判定例を図10〜図13に示す。図10の画像は、図5の画像上に被験者の注視点を示す複数のマーカ1001を重ねて表示した画像の例である。図11は、図10の対象画像の分割例を示す模式図である。図12および図13は、それぞれのブロックに含まれる注視点マーカの数をカウントした結果の一例を示す図である。図13では、説明のために、目の画像が含まれているブロック(特定領域)の背景を灰色としている。   Next, another determination example is shown in FIGS. The image in FIG. 10 is an example of an image displayed by superimposing a plurality of markers 1001 indicating the gaze point of the subject on the image in FIG. FIG. 11 is a schematic diagram illustrating an example of division of the target image in FIG. 12 and 13 are diagrams illustrating an example of a result of counting the number of gazing point markers included in each block. In FIG. 13, for the sake of explanation, the background of the block (specific area) containing the eye image is gray.

図10の例では、以下のように判定される。
注視点全体の検出回数=44
人物の目が含まれているブロックを見た回数=4
人物の目を見た割合=4/44=9.1%
In the example of FIG. 10, the determination is made as follows.
Number of detections of the entire gazing point = 44
Number of times you saw a block containing human eyes = 4
Percentage of people looking at eyes = 4/44 = 9.1%

同様に規定値を60%と仮定すると、図10の診断例では規定値を大きく下回るため発達障害の可能性が高いと判断される。   Similarly, assuming that the specified value is 60%, it is determined that the possibility of developmental disorder is high because the diagnosis example of FIG.

このように、本実施形態では、検出された被験者の視線位置をブロック単位で扱うことにより、数値化された明確な判断ルールに基づいた診断支援を行うことが可能になる。また、本実施形態では、対象者の特定要素(目、口など)が含まれるブロックを特定し、特定したブロックを被験者が注視するかによって発達障害を判定する。これにより、対象者の画像が変更される場合であっても、特定要素が含まれるブロックを適切に特定でき、診断の精度が低下することを回避できる。   As described above, in the present embodiment, it is possible to perform diagnosis support based on a clear quantified determination rule by handling the detected gaze position of the subject in units of blocks. In this embodiment, a block including a specific element (such as an eye or a mouth) of the subject is specified, and the developmental disorder is determined based on whether the subject gazes at the specified block. Thereby, even if it is a case where a subject's image is changed, the block in which a specific element is included can be specified appropriately, and it can avoid that the precision of a diagnosis falls.

(第2の実施形態)
第1の実施形態では、対象画像内の特定要素(目、口など)の位置と無関係に、対象画像をブロック(領域)に分割していた。この方法では、例えば、あるブロックの端部に目の端部のみが含まれるように対象画像が分割される場合がありうる。例えば図7の例で対象者の左目が少し左にずれて表示されたとすると、A−11、B−2に対応するブロック(以下、ブロック11−2という)、および、A−11、B−3に対応するブロック(以下、ブロック11−3という)が、このようなブロック(端部に目の端部が含まれるブロック)に相当する。そしてこの場合、ブロック11−2およびブロック11−3は、目が含まれるブロック(特定領域)となる。従って、ブロック11−2およびブロック11−3を注視した回数が、本来、対象者の目を注視した回数としてカウントすべきでない場合であっても、注視した回数に誤ってカウントされるという可能性が生じうる。
(Second Embodiment)
In the first embodiment, the target image is divided into blocks (areas) regardless of the positions of specific elements (eyes, mouth, etc.) in the target image. In this method, for example, the target image may be divided so that only the end of the eye is included in the end of a certain block. For example, assuming that the left eye of the subject is displayed slightly shifted to the left in the example of FIG. 7, the blocks corresponding to A-11 and B-2 (hereinafter referred to as block 11-2), and A-11, B- A block corresponding to 3 (hereinafter referred to as a block 11-3) corresponds to such a block (a block in which an end portion of an eye is included). In this case, the block 11-2 and the block 11-3 are blocks (specific areas) including eyes. Therefore, even if the number of times of gazing at the block 11-2 and the block 11-3 should not be counted as the number of times of gazing at the subject's eyes, there is a possibility that the number of times of gazing is erroneously counted. Can occur.

そこで、第2の実施形態では、対象画像から対象者の目の位置を検出し、検出した目の位置を基準として、対象画像を複数のブロック(領域)に分割する。これにより、特定要素(目など)を注視していないにも関わらず、目を注視したと判定される可能性を低減できるようになる。なお、分割の基準位置とする特定要素は目に限られず、口およびその他の物体の位置を基準とし分割してもよい。   Therefore, in the second embodiment, the position of the eye of the subject is detected from the target image, and the target image is divided into a plurality of blocks (areas) based on the detected eye position. As a result, it is possible to reduce the possibility that it is determined that the user has focused on the eyes even though the specific element (such as the eyes) is not being observed. The specific element used as the reference position for division is not limited to the eyes, and may be divided based on the positions of the mouth and other objects.

図14は、第2の実施形態の制御部300−2の構成例を示すブロック図である。なお、制御部300−2以外の機能は、第1の実施形態の診断支援装置100の機能の概要を示す図2と同様であるため、説明を省略する。   FIG. 14 is a block diagram illustrating a configuration example of the control unit 300-2 according to the second embodiment. The functions other than the control unit 300-2 are the same as those in FIG. 2 showing the outline of the functions of the diagnosis support apparatus 100 of the first embodiment, and thus the description thereof is omitted.

図14に示すように、制御部300−2は、表示制御部351と、分割部352−2と、領域検出部353と、視点検出部354と、判定部355と、位置検出部356−2と、を備えている。   As illustrated in FIG. 14, the control unit 300-2 includes a display control unit 351, a division unit 352-2, a region detection unit 353, a viewpoint detection unit 354, a determination unit 355, and a position detection unit 356-2. And.

第2の実施形態では、位置検出部356−2を追加したこと、および、分割部352−2の機能が第1の実施形態と異なっている。その他の構成および機能は、第1の実施形態にかかる制御部300のブロック図である図3と同様であるので、同一符号を付し、ここでの説明は省略する。   In the second embodiment, the position detector 356-2 is added, and the function of the dividing unit 352-2 is different from that of the first embodiment. Since other configurations and functions are the same as those in FIG. 3 which is a block diagram of the control unit 300 according to the first embodiment, the same reference numerals are given, and description thereof is omitted here.

位置検出部356−2は、対象画像内での特定要素(目など)の画像の位置(座標)を検出する。特定要素を目とする場合は、位置検出部356−2は、対象画像内での対象者の右目および左目それぞれの座標値(右目位置および左目位置)を検出する。   The position detection unit 356-2 detects the position (coordinates) of an image of a specific element (such as an eye) in the target image. When the specific element is an eye, the position detection unit 356-2 detects the coordinate values (right eye position and left eye position) of the right eye and left eye of the subject in the target image.

分割部352−2は、位置検出部356−2によって検出された位置に応じて対象画像内でのブロック(領域)の分割位置を変更する。例えば、分割部352−2は、いずれか2つのブロック間の境界が、右目位置および左目位置の略中心を通るように分割位置を変更する。略中心とは、例えば、右目位置および左目位置中心から予め定められた範囲内の位置である。   The division unit 352-2 changes the division position of the block (region) in the target image according to the position detected by the position detection unit 356-2. For example, the dividing unit 352-2 changes the dividing position so that the boundary between any two blocks passes through the approximate center of the right eye position and the left eye position. The approximate center is, for example, a position within a predetermined range from the right eye position and the left eye position center.

次に、このように構成された第2の実施形態にかかる診断支援装置による診断支援処理について説明する。図15は、第2の実施形態における診断支援処理の一例を示すフローチャートである。なお、本実施形態では被験者が対象画像の人物の目を見る割合が規定値(例えば60%)以上であるか否かを判断基準とする。   Next, diagnosis support processing by the diagnosis support apparatus according to the second embodiment configured as described above will be described. FIG. 15 is a flowchart illustrating an example of a diagnosis support process according to the second embodiment. In the present embodiment, the determination criterion is whether or not the rate at which the subject sees the eyes of the person in the target image is greater than or equal to a specified value (for example, 60%).

ステップS201からステップS205までは、第1の実施形態にかかる診断支援装置100の診断支援処理を示す図4のステップS101からステップS105までと同様の処理なので、その説明を省略する。   Steps S201 to S205 are the same processes as steps S101 to S105 in FIG. 4 showing the diagnosis support process of the diagnosis support apparatus 100 according to the first embodiment, and a description thereof will be omitted.

本実施形態では、位置検出部356−2が、対象画像内の人物の目の位置の座標を求める(ステップS206)。位置検出部356−2は、例えば、パターンマッチングなどの一般的に利用されている画像認識技術を用いて、画像から目を検出する。そして、位置検出部356−2は、検出した目の中心位置などを、人物の目の位置の座標として検出する。なお、目の位置の検出方法はこれに限られるものではない。例えば、表示する対象画像が事前に分かっている場合等であれば、目の位置を予め手作業によって設定しておく方法を用いてもよい。   In the present embodiment, the position detection unit 356-2 obtains the coordinates of the positions of the eyes of the person in the target image (step S206). The position detection unit 356-2 detects an eye from the image by using a generally used image recognition technique such as pattern matching. Then, the position detection unit 356-2 detects the detected center position of the eyes as the coordinates of the positions of the eyes of the person. Note that the eye position detection method is not limited to this. For example, if the target image to be displayed is known in advance, a method of previously setting the eye position manually may be used.

次に、分割部352−2は、検出された座標を元に対象画像全体を複数のブロックに分割する(ステップS207)。図16は、図6の対象画像の分割例を示す模式図である。図16に示すように、本実施形態では、分割部352−2は、左右の目の間隔aと同じ高さおよび幅の正方形の中心を、それぞれ両目の中心と一致するように並べたブロックに分割する。この方法により画像中の目の位置と被験者の視線位置との関係をより的確に捉えることが可能になる。   Next, the dividing unit 352-2 divides the entire target image into a plurality of blocks based on the detected coordinates (step S207). FIG. 16 is a schematic diagram illustrating an example of division of the target image in FIG. As shown in FIG. 16, in the present embodiment, the dividing unit 352-2 divides the square centers having the same height and width as the distance a between the left and right eyes into blocks arranged so as to coincide with the centers of both eyes. To divide. This method makes it possible to capture the relationship between the eye position in the image and the gaze position of the subject more accurately.

なお、目の位置を基準とした対象画像の分割方法は図16の例に限られるものではない。少なくともいずれかのブロックの境界が、両目の中心位置付近を通るように分割する方法であれば、図7と同様の効果を得ることができる。例えば、図16に示す各ブロックをさらに縦にm分割(mは2以上の整数)、横にn分割(nは2以上の整数)するように構成してもよい。また、分割して得られる領域の形状は矩形(正方形)に限られるものではなく、任意の形状とすることができる。   Note that the method of dividing the target image based on the eye position is not limited to the example of FIG. The same effect as in FIG. 7 can be obtained if the method is such that the boundary of at least one block passes through the vicinity of the center position of both eyes. For example, each block shown in FIG. 16 may be further divided vertically into m (m is an integer of 2 or more) and horizontally into n (n is an integer of 2 or more). Moreover, the shape of the region obtained by the division is not limited to a rectangle (square), and may be an arbitrary shape.

図15のステップS208〜ステップS212は、第1の実施形態にかかる診断支援装置100の診断支援処理を示す図4のステップS107からステップS111までと同様の処理なので、その説明を省略する。   Steps S208 to S212 in FIG. 15 are the same processes as steps S107 to S111 in FIG. 4 showing the diagnosis support process of the diagnosis support apparatus 100 according to the first embodiment, and a description thereof will be omitted.

次に、第2の実施形態での診断支援処理の具体例について図17および図18を用いて説明する。図17および図18は、それぞれのブロックに含まれる注視点マーカの数をカウントした結果の一例を示す図である。図18では、説明のために、目の画像が含まれているブロック(特定領域)の背景を灰色としている。A−0〜A−5およびB−0〜B−3は、横方向に6個、縦方向に4個並んだ各ブロックを特定するための情報であり、説明の便宜上付与したものである。以下では、A−x(xは0〜5)、B−y(yは0〜3)に対応するブロックをブロックx−yのように表す。   Next, a specific example of the diagnosis support process in the second embodiment will be described with reference to FIGS. 17 and 18. 17 and 18 are diagrams illustrating an example of the result of counting the number of gazing point markers included in each block. In FIG. 18, for the sake of explanation, the background of the block (specific region) including the eye image is gray. A-0 to A-5 and B-0 to B-3 are information for specifying each of the six blocks arranged in the horizontal direction and the four blocks arranged in the vertical direction, and are given for convenience of explanation. Hereinafter, a block corresponding to Ax (x is 0 to 5) and By (y is 0 to 3) is represented as a block xy.

判定部355は、ブロックごとの注視点の検出回数をカウントする。図17および図18の例では、検出回数は以下のようになる。
ブロック3−0:1
ブロック1−1:3
ブロック2−1:15
ブロック3−1:19
ブロック2−2:2
ブロック3−2:1
上記以外:0
The determination unit 355 counts the number of detections of the gazing point for each block. In the examples of FIGS. 17 and 18, the number of detections is as follows.
Block 3-0: 1
Block 1-1: 3
Block 2-1: 15
Block 3-1: 19
Block 2-2: 2
Block 3-2: 1
Other than above: 0

判定部355は、被験者が対象画像の人物の目を見る割合が規定値以上であるか否かをルールとして発達障害の程度を判定する。図17の例では、以下のように判定される。
注視点全体の検出回数=1+3+15+19+2+1=41
人物の目が含まれているブロックを見た回数=15+19=34
人物の目を見た割合=34/41=82.9%
The determination unit 355 determines the degree of developmental disorder based on whether or not the rate at which the subject looks at the eyes of the person in the target image is greater than or equal to a specified value. In the example of FIG. 17, it is determined as follows.
Number of detections of the entire gazing point = 1 + 3 + 15 + 19 + 2 + 1 = 41
Number of times a block containing human eyes is seen = 15 + 19 = 34
Percentage of people looking at eyes = 34/41 = 82.9%

仮に規定値を60%と仮定すると、割合が規定値を超えているため発達障害の可能性は低いと判断される。   Assuming that the specified value is 60%, it is determined that the possibility of developmental disorder is low because the ratio exceeds the specified value.

次に別の診断例を図19〜図21に示す。図19は、上述の図10の対象画像の分割例を示す模式図である。図20および図21は、それぞれのブロックに含まれる注視点マーカの数をカウントした結果の一例を示す図である。図21では、説明のために、目の画像が含まれているブロック(特定領域)の背景を灰色としている。   Next, another example of diagnosis is shown in FIGS. FIG. 19 is a schematic diagram illustrating an example of division of the target image in FIG. 10 described above. 20 and 21 are diagrams illustrating an example of a result of counting the number of gazing point markers included in each block. In FIG. 21, for the sake of explanation, the background of the block (specific area) including the eye image is gray.

図19〜21の例では、以下のように判定される。
注視点全体の検出回数=2+4+2+1+7+5+6+3+1+2+4+4+1=42
人物の目が含まれているブロックを見た回数=5+6=11
人物の目を見た割合=11/42=26.2%
In the example of FIGS. 19-21, it determines as follows.
Number of detections of the entire gazing point = 2 + 4 + 2 + 1 + 7 + 5 + 6 + 3 + 1 + 2 + 4 + 4 + 1 = 42
Number of times a block containing human eyes is seen = 5 + 6 = 11
Percentage of people looking at eyes = 11/42 = 26.2%

同様に規定値を60%と仮定すると、人物の目を見る割合が規定値を大きく下回るため発達障害の可能性が高いと判断される。   Similarly, assuming that the specified value is 60%, it is determined that the possibility of developmental disorder is high because the rate of looking at a person's eyes is significantly below the specified value.

(第3の実施形態)
上記実施形態では、注視点の頻度のみを発達障害の判断ルールとしていた。判断ルールはこれに限られるものではない。特定領域に注視点が含まれるか否かの判断結果に基づいて判断するルールであればどのようなルールを用いてもよい。例えば、注視点位置を時系列で比較して注視点のブロック移動パターンを判断する判断ルールなどを用いてもよい。第3の実施形態では、注視点がブロックを移動するパターンを用いて発達障害を判定する例を説明する。
(Third embodiment)
In the embodiment described above, only the frequency of the gazing point is used as a developmental disorder determination rule. The decision rule is not limited to this. Any rule may be used as long as it is a rule that is determined based on the determination result of whether or not the specific area includes a gazing point. For example, a determination rule that determines the block movement pattern of the gazing point by comparing the gazing point positions in time series may be used. In the third embodiment, an example will be described in which a developmental disorder is determined using a pattern in which a gazing point moves a block.

図22は、第3の実施形態の制御部300−3の構成例を示すブロック図である。なお、制御部300−3以外の機能は、第1の実施形態の診断支援装置100の機能の概要を示す図2と同様であるため、説明を省略する。   FIG. 22 is a block diagram illustrating a configuration example of the control unit 300-3 according to the third embodiment. The functions other than the control unit 300-3 are the same as those in FIG. 2 showing the outline of the functions of the diagnosis support apparatus 100 according to the first embodiment, and thus the description thereof is omitted.

図22に示すように、制御部300−3は、表示制御部351と、分割部352と、視点検出部354と、判定部355−3と、パターン検出部357−3と、を備えている。   As illustrated in FIG. 22, the control unit 300-3 includes a display control unit 351, a dividing unit 352, a viewpoint detection unit 354, a determination unit 355-3, and a pattern detection unit 357-3. .

第3の実施形態では、領域検出部353を削除したこと、パターン検出部357−3を追加したこと、および、判定部355−3の機能が第1の実施形態と異なっている。その他の構成および機能は、第1の実施形態にかかる制御部300のブロック図である図3と同様であるので、同一符号を付し、ここでの説明は省略する。   In the third embodiment, the area detection unit 353 is deleted, the pattern detection unit 357-3 is added, and the function of the determination unit 355-3 is different from that of the first embodiment. Since other configurations and functions are the same as those in FIG. 3 which is a block diagram of the control unit 300 according to the first embodiment, the same reference numerals are given, and description thereof is omitted here.

パターン検出部357−3は、複数のブロック間での、被験者の視点が移動するパターン(移動パターン)を検出する。パターン検出部357−3は、例えば、分割された各ブロックの図1の座標系での座標値と、視点検出部354により検出された視点の図1の座標系での座標値と、を比較することにより、視点の移動パターンを検出することができる。   The pattern detection unit 357-3 detects a pattern (movement pattern) in which the subject's viewpoint moves between a plurality of blocks. The pattern detection unit 357-3 compares, for example, the coordinate values of the divided blocks in the coordinate system of FIG. 1 with the coordinate values of the viewpoint detected by the viewpoint detection unit 354 in the coordinate system of FIG. By doing so, the movement pattern of the viewpoint can be detected.

判定部355−3は、検出された移動パターンと基準パターンとを比較することにより、被験者の発達障害の程度を判定する。基準パターンは、視点の予め定められた移動のパターンを表す。例えば、特定要素(目、口など)が含まれるブロック(特定領域)以外のブロックから、特定領域に移動するパターンを基準パターンとすることができる。上述のように、発達障害者の特徴の1つとして、対面する相手の目を見ないことが挙げられる。従って、特定領域以外のブロックから特定領域に移動する基準パターンに適合する場合、判定部355−3は、発達障害の程度が低いと判定する。   The determination unit 355-3 determines the degree of developmental disorder of the subject by comparing the detected movement pattern with the reference pattern. The reference pattern represents a predetermined movement pattern of the viewpoint. For example, a pattern that moves to a specific area from a block other than a block (specific area) including a specific element (eyes, mouth, etc.) can be used as the reference pattern. As described above, one of the characteristics of a developmentally disabled person is that he / she does not look at the eyes of the other party. Therefore, when it matches the reference pattern for moving from a block other than the specific area to the specific area, the determination unit 355-3 determines that the degree of developmental disorder is low.

基準パターンとしては、健常者の視点の移動を表すパターン、および、発達障害者の視点の移動を表すパターンのいずれを用いてもよい。移動パターンが前者の基準パターンに適合する場合は、判定部355−3は、発達障害の程度が低いと判定すればよい。逆に、移動パターンが後者の基準パターンに適合する場合は、判定部355−3は、発達障害の程度が高いと判定すればよい。   As the reference pattern, any one of a pattern representing movement of the viewpoint of the healthy person and a pattern representing movement of the viewpoint of the developmentally disabled person may be used. When the movement pattern matches the former reference pattern, the determination unit 355-3 may determine that the degree of developmental disorder is low. Conversely, when the movement pattern matches the latter reference pattern, the determination unit 355-3 may determine that the degree of developmental disorder is high.

また、基準パターンは、2つのブロック間の視点の移動のパターンに限られるものではない。3つ以上のブロック間の視点の移動のパターンを基準パターンとしてもよい。また、対象の動作部分が動作するパターン(動作パターン)に応じて定められる基準パターンを用いてもよい。   Further, the reference pattern is not limited to the viewpoint movement pattern between two blocks. A viewpoint movement pattern between three or more blocks may be used as a reference pattern. Further, a reference pattern determined according to a pattern (operation pattern) in which the target operation part operates may be used.

例えば、発達障害者は、対象者の目が動作した場合に、目を注視するが、目から視点を逸らして他の部分を注視する傾向がある。また、発達障害者は、口が動作した場合に、口を注視するが、再び目を注視することが少ないという傾向がある。従って、例えば、「口が動作する動作パターンの対象画像が表示されたときに、口ブロックに視点が移動し、さらに、移動後の所定時間以内に目を含むブロックに視点が移動する」という基準パターンを用いてもよい。判定部355−3は、検出された移動パターンが、この基準パターンに適合する場合に、発達障害の程度が低いと判定すればよい。   For example, people with developmental disabilities look at the eyes when the subject's eyes move, but tend to look away from the eyes and look at other parts. Further, people with developmental disabilities tend to gaze at the mouth when the mouth moves, but rarely gaze at the eyes again. Therefore, for example, the criterion “when the target image of the motion pattern in which the mouth moves is displayed, the viewpoint moves to the mouth block, and further, the viewpoint moves to the block including the eyes within a predetermined time after the movement”. A pattern may be used. The determination unit 355-3 may determine that the degree of developmental disorder is low when the detected movement pattern matches this reference pattern.

また、動作パターンに対する視点移動のタイミングも含めた基準パターンを用いてもよい。例えば、対象者の目が動作した後、所定時間経過までに視点が目を含むブロックに移動した場合に、所定時間経過後に視点が目を含むブロックに移動した場合より、発達障害の程度が大きい(または小さい)と判定するように構成してもよい。   Also, a reference pattern including the timing of viewpoint movement with respect to the operation pattern may be used. For example, after the subject's eyes have moved, if the viewpoint moves to a block containing the eyes by the predetermined time, the degree of developmental disorder is greater than if the viewpoint moves to a block containing the eyes after the predetermined time has elapsed You may comprise so that it may determine with (or small).

次に、このように構成された第3の実施形態にかかる診断支援装置による診断支援処理について説明する。図23は、第3の実施形態における診断支援処理の一例を示すフローチャートである。図23では、被験者の注視点位置が対象画像の人物の目と口との間を行き来する基準パターンを用いて発達障害の可能性を判断する例を説明する。すなわち、被験者に3種類の画像を見せて、これらの画像を見ている間の注視点位置を、第1の実施形態と同様の方法でブロックごとに検出する。そして、人物の目、口、および、それ以外のブロックに分けて検出した注視点位置の移動のパターンを用いて評価を行う。図24〜図26は、この例で用いる対象画像の一例を示す図である。   Next, diagnosis support processing by the diagnosis support apparatus according to the third embodiment configured as described above will be described. FIG. 23 is a flowchart illustrating an example of a diagnosis support process according to the third embodiment. FIG. 23 illustrates an example in which the possibility of developmental disorder is determined using a reference pattern in which the subject's point of interest moves between the eyes and mouth of a person in the target image. That is, the subject is presented with three types of images, and the point of gaze position while these images are viewed is detected for each block in the same manner as in the first embodiment. Then, the evaluation is performed using the movement pattern of the gazing point position detected separately for the human eyes, mouth, and other blocks. 24 to 26 are diagrams illustrating examples of target images used in this example.

まず、表示制御部351は、図24の対象画像1を表示部101に表示する(ステップS301)。対象画像1は、目1402と、口1401とを含む。対象画像1は、口1401が動いていない画像である。   First, the display control unit 351 displays the target image 1 of FIG. 24 on the display unit 101 (step S301). The target image 1 includes eyes 1402 and a mouth 1401. The target image 1 is an image in which the mouth 1401 is not moving.

図23のステップS302、ステップS303、およびステップS304は、それぞれ、第1の実施形態にかかる診断支援装置100の診断支援処理を示す図4のステップS102、ステップS103、およびステップS106と同様の処理なので、その説明を省略する。なお、後述するステップS307、ステップS308、およびステップS309、並びに、ステップS312、ステップS313、およびステップS314も、それぞれ、図4のステップS102、ステップS103、およびステップS106と同様の処理なので、その説明を省略する。   Steps S302, S303, and S304 in FIG. 23 are the same processes as steps S102, S103, and S106 in FIG. 4 showing the diagnosis support process of the diagnosis support apparatus 100 according to the first embodiment, respectively. The description is omitted. Step S307, step S308, and step S309, and step S312, step S313, and step S314, which will be described later, are also the same processing as step S102, step S103, and step S106 in FIG. Omitted.

判定部355−3は、検出された注視点の位置が、対象画像の目を含むブロック内に存在するか否かを判断する(ステップS305)。注視点の位置が目を含むブロック内に存在しない場合(ステップS305:No)、発達障害を判断できないので診断支援処理を終了する(ステップS316)。   The determination unit 355-3 determines whether or not the detected position of the gazing point exists within the block including the eye of the target image (step S305). If the position of the gazing point does not exist in the block including the eyes (step S305: No), the developmental support cannot be determined, and the diagnosis support process is terminated (step S316).

注視点の位置が目を含むブロック内に存在する場合(ステップS305:Yes)、表示制御部351は、図25の対象画像2を表示部101に表示する(ステップS306)。図25の対象画像2は、対象画像2は、目1502と、口1501とを含む。対象画像2は、図24、図26と異なり口1501が動いている画像である。従って、被験者の注視点位置は一般的に口1501が含まれるブロックに移動する。   When the position of the gazing point exists in the block including the eyes (step S305: Yes), the display control unit 351 displays the target image 2 of FIG. 25 on the display unit 101 (step S306). The target image 2 in FIG. 25 includes the eye 1502 and the mouth 1501. Unlike FIG. 24 and FIG. 26, the target image 2 is an image in which the mouth 1501 is moving. Accordingly, the subject's point of gaze position generally moves to a block including the mouth 1501.

判定部355−3は、検出された注視点の位置が、対象画像の口を含むブロック内に存在するか否かを判断する(ステップS310)。注視点の位置が口を含むブロック内に存在しない場合(ステップS310:No)、発達障害を判断できないので診断支援処理を終了する(ステップS316)。   The determination unit 355-3 determines whether or not the detected position of the gazing point exists within the block including the mouth of the target image (step S310). If the position of the gazing point does not exist within the block including the mouth (step S310: No), the development support disorder cannot be determined, and the diagnosis support process is terminated (step S316).

注視点の位置が口を含むブロック内に存在する場合(ステップS310:Yes)、表示制御部351は、図26の対象画像3を表示部101に表示する(ステップS311)。対象画像3は、目1602と、口1601とを含む。対象画像3は、図24と同様に口1601が動いていない画像である。   When the position of the gazing point exists in the block including the mouth (step S310: Yes), the display control unit 351 displays the target image 3 of FIG. 26 on the display unit 101 (step S311). The target image 3 includes eyes 1602 and a mouth 1601. The target image 3 is an image in which the mouth 1601 does not move as in FIG.

判定部355−3は、検出された注視点の位置が、対象画像の目を含むブロック内に存在するか否かを判断する(ステップS315)。注視点の位置が目を含むブロック内に存在する場合(ステップS315:Yes)、判定部355−3は、障害の可能性は低いと判定する(ステップS317)。注視点の位置が目を含むブロック内に存在しない場合(ステップS317:No)、判定部355−3は、障害の可能性が高いと判定する(ステップS318)。例えば、注視点の位置が人物の口が含まれているブロックから移動しない場合、判定部355−3は、障害の可能性が高いと判断する。   The determination unit 355-3 determines whether or not the detected position of the gazing point exists in a block including the eye of the target image (step S315). When the position of the gazing point exists in the block including the eyes (step S315: Yes), the determination unit 355-3 determines that the possibility of failure is low (step S317). When the position of the gazing point does not exist in the block including the eyes (step S317: No), the determination unit 355-3 determines that the possibility of failure is high (step S318). For example, when the position of the gazing point does not move from the block including the person's mouth, the determination unit 355-3 determines that the possibility of failure is high.

このように、第3の実施形態では、注視点がブロック間を移動するパターンを用いて発達障害を判定することができる。なお、第3の実施形態のようにパターンを用いる方法は、第2の実施形態にも適用することができる。   Thus, in the third embodiment, it is possible to determine a developmental disorder using a pattern in which a gazing point moves between blocks. Note that the method of using a pattern as in the third embodiment can also be applied to the second embodiment.

以上のように、第1〜第3の実施形態によれば、例えば以下のような効果が得られる。
(1)対象者の画像が変更される場合であっても、特定要素(目、口など)が含まれるブロックを適切に特定でき、診断の精度が低下することを回避できる。
(2)対象画像から検出した特定要素(目、口など)の位置を基準として、対象画像を複数のブロックに分割する。このため、より適切な位置でブロックを分割することができ、診断の精度を向上させることができる。
(3)視点の位置だけでなく、視点の移動も判断することにより高精度の診断を実現することができる。
As described above, according to the first to third embodiments, for example, the following effects can be obtained.
(1) Even when the subject's image is changed, a block including a specific element (eyes, mouth, etc.) can be appropriately specified, and a decrease in the accuracy of diagnosis can be avoided.
(2) The target image is divided into a plurality of blocks on the basis of the positions of specific elements (eyes, mouth, etc.) detected from the target image. For this reason, a block can be divided | segmented in a more suitable position, and the precision of a diagnosis can be improved.
(3) A highly accurate diagnosis can be realized by determining not only the position of the viewpoint but also the movement of the viewpoint.

100 診断支援装置
101 表示部
102 ステレオカメラ
105 スピーカ
202 右カメラ
203、205 赤外LED光源
204 左カメラ
208 駆動・IF部
210 表示部
300、300−2、300−3 制御部
351 表示制御部
352、352−2 分割部
353 領域検出部
354 視点検出部
355、355−3 判定部
356−2 位置検出部
357−3 パターン検出部
DESCRIPTION OF SYMBOLS 100 Diagnosis support apparatus 101 Display part 102 Stereo camera 105 Speaker 202 Right camera 203, 205 Infrared LED light source 204 Left camera 208 Drive / IF part 210 Display part 300, 300-2, 300-3 Control part 351 Display control part 352, 352-2 Division unit 353 Region detection unit 354 View point detection unit 355, 355-3 Determination unit 356-2 Position detection unit 357-3 Pattern detection unit

Claims (7)

対象者を含む画像を表示部に表示する表示制御部と、
前記画像を複数の領域に分割する分割部と、
前記複数の領域のうち、特定要素の画像を含む特定領域を検出する領域検出部と、
前記画像における被験者の視点を検出する視点検出部と、
前記視点が前記特定領域に含まれるか否かを判断し、判断結果に基づいて前記被験者の発達障害の程度を判定する判定部と、
前記画像内での前記特定要素の画像の位置を検出する位置検出部と、
を備え、
前記特定要素は、前記対象者の右目および左目であり、
前記位置検出部は、前記画像内での前記右目の画像の位置である右目位置、および、前記画像内での前記左目の画像の位置である左目位置を検出し、
前記分割部は、いずれか2つの前記領域の境界が、前記右目位置および前記左目位置の中心を通るように前記分割位置を変更する、
ことを特徴とする診断支援装置。
A display control unit that displays an image including the subject on the display unit;
A dividing unit for dividing the image into a plurality of regions;
An area detection unit for detecting a specific area including an image of a specific element among the plurality of areas;
A viewpoint detection unit for detecting the viewpoint of the subject in the image;
A determination unit that determines whether or not the viewpoint is included in the specific region, and determines a degree of developmental disorder of the subject based on a determination result;
A position detection unit for detecting the position of the image of the specific element in the image;
With
The specific elements are a right eye and a left eye of the subject,
The position detection unit detects a right eye position that is a position of the image of the right eye in the image, and a left eye position that is a position of the image of the left eye in the image;
The dividing unit changes the dividing position so that a boundary between any two of the regions passes through the center of the right eye position and the left eye position.
A diagnostic support apparatus characterized by that.
前記分割部は、さらに、前記領域の幅が前記右目位置と前記左目位置の間隔となるように前記画像を複数の前記領域に分割する、
ことを特徴とする請求項1に記載の診断支援装置。
The dividing unit further divides the image into a plurality of the regions such that a width of the region is an interval between the right eye position and the left eye position.
The diagnosis support apparatus according to claim 1.
前記判定部は、前記視点が前記特定領域に含まれる頻度に基づいて前記被験者の発達障害の程度を判定する、
ことを特徴とする請求項1に記載の診断支援装置。
The determination unit determines the degree of developmental disorder of the subject based on the frequency with which the viewpoint is included in the specific region;
The diagnosis support apparatus according to claim 1.
対象者を含む画像を表示部に表示する表示制御部と、
前記画像を複数の領域に分割する分割部と、
前記複数の領域のうち、特定要素の画像を含む特定領域を検出する領域検出部と、
前記画像における被験者の視点を検出する視点検出部と、
前記視点が前記特定領域に含まれるか否かを判断し、判断結果に基づいて前記被験者の発達障害の程度を判定する判定部と、
複数の前記領域間での前記視点の移動パターンを検出するパターン検出部と、
を備え、
前記判定部は、前記移動パターンと、前記視点の予め定められた移動のパターンを表す基準パターンとを比較することにより、前記被験者の発達障害の程度を判定する、
ことを特徴とする診断支援装置。
A display control unit that displays an image including the subject on the display unit;
A dividing unit for dividing the image into a plurality of regions;
An area detection unit for detecting a specific area including an image of a specific element among the plurality of areas;
A viewpoint detection unit for detecting the viewpoint of the subject in the image;
A determination unit that determines whether or not the viewpoint is included in the specific region, and determines a degree of developmental disorder of the subject based on a determination result;
A pattern detection unit for detecting a movement pattern of the viewpoint between a plurality of the regions;
With
The determination unit determines the degree of developmental disorder of the subject by comparing the movement pattern with a reference pattern representing a predetermined movement pattern of the viewpoint.
A diagnostic support apparatus characterized by that.
前記特定要素は、前記対象者の目および前記対象者の口の少なくとも一方である、
ことを特徴とする請求項4に記載の診断支援装置。
The specific element is at least one of the subject's eyes and the subject's mouth,
The diagnosis support apparatus according to claim 4, wherein:
対象者を含む画像を表示部に表示する表示制御ステップと、
前記画像を複数の領域に分割する分割ステップと、
前記複数の領域のうち、特定要素の画像を含む特定領域を検出する領域検出ステップと、
前記画像における被験者の視点を検出する視点検出ステップと、
CPUに含まれる評価部が、前記視点が前記特定領域に含まれるか否かを判断し、判断結果に基づいて前記被験者の発達障害の程度を判定する判定ステップと、
前記画像内での前記特定要素の画像の位置を検出する位置検出ステップと、
を含み、
前記特定要素は、前記対象者の右目および左目であり、
前記位置検出ステップは、前記画像内での前記右目の画像の位置である右目位置、および、前記画像内での前記左目の画像の位置である左目位置を検出し、
前記分割ステップは、いずれか2つの前記領域の境界が、前記右目位置および前記左目位置の中心を通るように前記分割位置を変更する、
ことを特徴とする診断支援方法。
A display control step of displaying an image including the subject on the display unit;
A dividing step of dividing the image into a plurality of regions;
An area detecting step of detecting a specific area including an image of a specific element among the plurality of areas;
A viewpoint detection step of detecting the viewpoint of the subject in the image;
A determination step in which an evaluation unit included in the CPU determines whether or not the viewpoint is included in the specific region, and determines a degree of developmental disorder of the subject based on a determination result;
A position detecting step of detecting a position of the image of the specific element in the image;
Including
The specific elements are a right eye and a left eye of the subject,
The position detecting step detects a right eye position that is a position of the image of the right eye in the image and a left eye position that is a position of the image of the left eye in the image;
The division step changes the division position so that the boundary between any two of the regions passes through the center of the right eye position and the left eye position.
A diagnostic support method characterized by the above.
対象者を含む画像を表示部に表示する表示制御ステップと、
前記画像を複数の領域に分割する分割ステップと、
前記複数の領域のうち、特定要素の画像を含む特定領域を検出する領域検出ステップと、
前記画像における被験者の視点を検出する視点検出ステップと、
CPUに含まれる評価部が、前記視点が前記特定領域に含まれるか否かを判断し、判断結果に基づいて前記被験者の発達障害の程度を判定する判定ステップと、
複数の前記領域間での前記視点の移動パターンを検出するパターン検出ステップと、
を含み、
前記判定ステップは、前記移動パターンと、前記視点の予め定められた移動のパターンを表す基準パターンとを比較することにより、前記被験者の発達障害の程度を判定する、
ことを特徴とする診断支援方法。
A display control step of displaying an image including the subject on the display unit;
A dividing step of dividing the image into a plurality of regions;
An area detecting step of detecting a specific area including an image of a specific element among the plurality of areas;
A viewpoint detection step of detecting the viewpoint of the subject in the image;
A determination step in which an evaluation unit included in the CPU determines whether or not the viewpoint is included in the specific region, and determines a degree of developmental disorder of the subject based on a determination result;
A pattern detection step of detecting a movement pattern of the viewpoint between the plurality of regions;
Including
The determination step determines the degree of developmental disorder of the subject by comparing the movement pattern with a reference pattern representing a predetermined movement pattern of the viewpoint.
A diagnostic support method characterized by the above.
JP2012137821A 2012-06-19 2012-06-19 Diagnosis support apparatus and diagnosis support method Active JP6003277B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012137821A JP6003277B2 (en) 2012-06-19 2012-06-19 Diagnosis support apparatus and diagnosis support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012137821A JP6003277B2 (en) 2012-06-19 2012-06-19 Diagnosis support apparatus and diagnosis support method

Publications (2)

Publication Number Publication Date
JP2014000254A JP2014000254A (en) 2014-01-09
JP6003277B2 true JP6003277B2 (en) 2016-10-05

Family

ID=50034061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012137821A Active JP6003277B2 (en) 2012-06-19 2012-06-19 Diagnosis support apparatus and diagnosis support method

Country Status (1)

Country Link
JP (1) JP6003277B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6287486B2 (en) * 2014-03-31 2018-03-07 富士通株式会社 Information processing apparatus, method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8371693B2 (en) * 2010-03-30 2013-02-12 National University Corporation Shizuoka University Autism diagnosis support apparatus
US10176725B2 (en) * 2011-08-29 2019-01-08 Worcester Polytechnic Institute System and method of pervasive developmental disorder interventions
JP5817582B2 (en) * 2012-02-22 2015-11-18 株式会社Jvcケンウッド Brain function disease diagnosis support apparatus and brain function disease diagnosis support method
JP5838894B2 (en) * 2012-04-09 2016-01-06 株式会社Jvcケンウッド Diagnosis support apparatus and diagnosis support method

Also Published As

Publication number Publication date
JP2014000254A (en) 2014-01-09

Similar Documents

Publication Publication Date Title
US10722113B2 (en) Gaze detection apparatus and gaze detection method
CN111343927B (en) Cognitive dysfunction diagnostic device and cognitive dysfunction diagnostic program recording medium
JP6217445B2 (en) Diagnosis support apparatus and diagnosis support method
WO2014208761A1 (en) Diagnosis assistance device and diagnosis assistance method
US11023039B2 (en) Visual line detection apparatus and visual line detection method
WO2015146491A1 (en) Detection device and detection method
JP6201956B2 (en) Gaze detection device and gaze detection method
JP5971066B2 (en) Diagnosis support apparatus and method of operating diagnosis support apparatus
EP2976990B1 (en) Pupil detection device and pupil detection method
JP5983135B2 (en) Diagnosis support apparatus and diagnosis support method
JP6245093B2 (en) Diagnosis support apparatus and diagnosis support method
JP6380178B2 (en) Diagnosis support apparatus and diagnosis support method
JP2020038734A (en) Visual line detection device and visual line detection method
JP6135550B2 (en) Diagnosis support apparatus and diagnosis support method
JP6593133B2 (en) Diagnosis support apparatus and diagnosis support method
JP6003277B2 (en) Diagnosis support apparatus and diagnosis support method
JP5838894B2 (en) Diagnosis support apparatus and diagnosis support method
JP6693149B2 (en) Pupil detection device and pupil detection method
JP6269177B2 (en) Pupil detection device, gaze detection device, and pupil detection method
JP2016150048A (en) Gaze point detection device and gaze point detection method
JP6471533B2 (en) Gaze detection device and gaze detection method
JP6187347B2 (en) Detection apparatus and detection method
US20220079484A1 (en) Evaluation device, evaluation method, and medium
JP2020119583A (en) Visual line detection device and visual line detection method
JP2016157326A (en) Line of sight detection device and line of sight detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150602

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160822

R150 Certificate of patent or registration of utility model

Ref document number: 6003277

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150