JP5761049B2 - Autism diagnosis support device and autism diagnosis support method - Google Patents

Autism diagnosis support device and autism diagnosis support method Download PDF

Info

Publication number
JP5761049B2
JP5761049B2 JP2012012142A JP2012012142A JP5761049B2 JP 5761049 B2 JP5761049 B2 JP 5761049B2 JP 2012012142 A JP2012012142 A JP 2012012142A JP 2012012142 A JP2012012142 A JP 2012012142A JP 5761049 B2 JP5761049 B2 JP 5761049B2
Authority
JP
Japan
Prior art keywords
subject
pupil
range
unit
mirror
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012012142A
Other languages
Japanese (ja)
Other versions
JP2013150669A (en
Inventor
首藤 勝行
勝行 首藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2012012142A priority Critical patent/JP5761049B2/en
Publication of JP2013150669A publication Critical patent/JP2013150669A/en
Application granted granted Critical
Publication of JP5761049B2 publication Critical patent/JP5761049B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Description

本発明は、自閉症の診断を支援するための自閉症診断支援装置、および自閉症診断支援方法に関する。   The present invention relates to an autism diagnosis support apparatus and an autism diagnosis support method for supporting diagnosis of autism.

自閉症は、発達障害の一種であり、自閉症患者は、近年増加傾向にある。しかし、自閉症を早期に発見し療育を開始することで、自閉症患者の社会適応性を向上させることができるといわれている。そこで、我が国では、1歳半検診において医師による問診を行うことで、自閉症の早期発見を目指している。しかし、自閉症の診断には熟練した技術を要し、医師によって診断結果に差異が生じるおそれがある。   Autism is a type of developmental disorder, and the number of autistic patients has been increasing in recent years. However, it is said that social adaptability of autistic patients can be improved by detecting autism early and starting medical treatment. Therefore, in Japan, aiming for early detection of autism by conducting an interview with a doctor during a one-and-a-half year examination. However, diagnosis of autism requires skillful techniques, and there may be a difference in diagnosis results depending on doctors.

そこで、自閉症患者が対面する他者の目を見ないことが多いという特徴を利用し、対象者(例えば母親)を撮像して画像を生成する1台のカラーカメラと、カラーカメラが生成した画像を表示する表示部と、表示部に表示された画像を見る被験者(乳幼児)の視線方向を検出する2台の被験者用カメラと、対象者の瞳孔を撮像する2台の対象者用カメラとを備えた自閉症診断支援装置を用いて、表示部に表示された画像における対象者の目の位置を被験者がどの程度見ているかで自閉症の診断を支援する技術が開示されている(例えば、特許文献1)。   Therefore, using the feature that autistic patients often do not see the eyes of others facing each other, one color camera that images the target person (for example, mother) and generates an image, and a color camera generate Display unit for displaying the image, two subject cameras for detecting the line of sight of the subject (infant) who sees the image displayed on the display unit, and two for the subject cameras for capturing the pupils of the subject A technology for assisting diagnosis of autism is disclosed based on how much the subject looks at the position of the eye of the subject in the image displayed on the display unit using the autism diagnosis support apparatus including (For example, Patent Document 1).

特開2011−206542号公報JP 2011-206542 A

しかし、特許文献1の技術では、5台のカメラを用いているため、コストの増加を招いていた。また、特許文献1の技術では、対象者用カメラで撮像した対象者の瞳孔の位置をカラーカメラで生成した画像における位置に座標変換したり、被験者用カメラで検出した被験者の視線方向に基づいて、表示部に表示された画像上のどの位置を見ているか演算したりといった複雑な計算処理を行う必要があった。   However, since the technique of Patent Document 1 uses five cameras, the cost is increased. In the technique of Patent Document 1, the position of the pupil of the subject imaged by the subject camera is coordinate-converted to the position in the image generated by the color camera, or based on the subject's gaze direction detected by the subject camera. Therefore, it is necessary to perform complicated calculation processing such as calculating which position on the image displayed on the display unit is being viewed.

本発明は、このような課題に鑑み、コストの低減を図りつつ、複雑な計算処理を行うことなく、被験者の視線の位置を導出することが可能な自閉症診断支援装置、および自閉症診断支援方法を提供することを目的としている。   In view of such problems, the present invention provides an autism diagnosis support apparatus capable of deriving the position of a subject's line of sight without performing complicated calculation processing while reducing costs, and autism The purpose is to provide a diagnosis support method.

上記課題を解決するために、本発明の自閉症診断支援装置は、鏡と、鏡の反射面側に位置する被験者に向かって赤外線を照射する赤外線照射部と、鏡における水平方向の両側方に配され、少なくとも被験者で反射した赤外線の反射光を撮像して、水平視差を有する2つの画像データを生成する2つの撮像部と、撮像部によって生成された画像データに基づいて、被験者の瞳孔の位置を導出する瞳孔導出部と、瞳孔導出部によって導出された瞳孔の位置に基づいて、被験者の視線を示す視線情報を導出する視線導出部と、視線導出部によって導出された視線情報に基づいて、被験者の視点が反射面における所定の追跡範囲内にあるか否かを判定する視点判定部と、を備え、追跡範囲は、被験者の視点における反射面上の被験者の瞳孔の鏡像の位置に基づく範囲である被験者範囲とすることを特徴とする。 In order to solve the above problems, an autism diagnosis support apparatus according to the present invention includes a mirror, an infrared irradiation unit that irradiates infrared rays toward a subject located on the reflection surface side of the mirror, and both lateral sides of the mirror in the horizontal direction. Two imaging units that capture at least infrared reflected light reflected by the subject and generate two image data having horizontal parallax, and the pupil of the subject based on the image data generated by the imaging unit based position and pupil deriving unit that derives the, on the basis of the position of the pupil, which is derived by the pupil deriving unit, the line of sight deriving unit that derives the information of eye gaze of the subject, gaze information derived by the line-of-sight deriving unit Te, comprising: a determining viewpoint determining unit whether within a predetermined tracking range subjects viewpoint on the reflecting surface, the tracking range, position of the mirror image of the subject's pupil on the reflecting surface at the viewpoint of a subject Characterized in that the subject content is in the range-based.

鏡の水平方向の幅は、瞳孔導出部が瞳孔の位置を導出可能な画像データを生成できる2つの撮像部の距離の上限値未満であるとしてもよい。   The horizontal width of the mirror may be less than the upper limit of the distance between the two imaging units that can generate image data from which the pupil deriving unit can derive the position of the pupil.

鏡の反射面側には、被験者とともに被験者とは異なる対象者が位置しており、追跡範囲は、被験者視における反射面上の対象者の瞳孔の鏡像の位置に基づく範囲である対象者範囲とするとしてもよい。   A subject different from the subject is located with the subject on the reflecting surface side of the mirror, and the tracking range is a subject range that is a range based on the position of the mirror image of the pupil of the subject on the reflecting surface in the subject's view. You may do that.

瞳孔導出部は、撮像部が生成した画像データ中における瞳孔像の数を計数し、瞳孔導出部が計数した瞳孔像の数に応じて、追跡範囲を、被験者範囲、または、被験者範囲および対象者範囲に決定する範囲決定部をさらに備えるとしてもよい。   The pupil deriving unit counts the number of pupil images in the image data generated by the imaging unit, and determines the tracking range according to the number of pupil images counted by the pupil deriving unit, or the subject range or the subject range and the subject. A range determining unit that determines the range may be further provided.

ユーザ入力に応じて、追跡範囲を、被験者範囲、および、対象者範囲のいずれか一方または両方とする範囲設定部をさらに備えるとしてもよい。   A range setting unit that sets the tracking range as one or both of the subject range and the subject range according to user input may be further provided.

鏡の反射面側から被験者側に光を照射する発光部と、発光部への視認を促す報知部と、を備えるとしてもよい。   It is good also as providing the light emission part which irradiates light to the test subject side from the reflective surface side of a mirror, and the alerting | reporting part which promotes the visual recognition to a light emission part.

上記課題を解決するために、本発明の自閉症診断支援方法は、鏡と、鏡の反射面側に位置する被験者に向かって赤外線を照射する赤外線照射部と、鏡における水平方向の両側方に配され、少なくとも被験者で反射した赤外線の反射光を撮像して、水平視差を有する2つの画像データを生成する2つの撮像部と、を用いた自閉症診断支援方法であって、撮像部によって生成された画像データに基づいて、被験者の瞳孔の位置を導出し、導出した瞳孔の位置に基づいて、被験者の視線を示す視線情報を導出し、導出した視線情報に基づいて、被験者の視点が反射面における所定の追跡範囲内にあるか否かを判定するとし、追跡範囲は、被験者の視点における反射面上の被験者の瞳孔の鏡像の位置に基づく範囲である被験者範囲とすることを特徴とする。 In order to solve the above problems, an autism diagnosis support method according to the present invention includes a mirror, an infrared irradiation unit that irradiates infrared rays toward a subject located on the reflection surface side of the mirror, and both lateral sides of the mirror in the horizontal direction. An autism diagnosis support method using two imaging units arranged to image at least reflected infrared light reflected by a subject and generate two image data having horizontal parallax, the imaging unit The position of the pupil of the subject is derived based on the image data generated by the above, the line-of-sight information indicating the line of sight of the subject is derived based on the derived position of the pupil, and the viewpoint of the subject is derived based on the derived line-of-sight information. Is determined to be within a predetermined tracking range on the reflecting surface, and the tracking range is a subject range that is a range based on the position of a mirror image of the pupil of the subject on the reflecting surface at the subject's viewpoint. When That.

上記鏡の反射面側には、被験者とともに被験者とは異なる対象者が位置しており、撮像部が生成した画像データ中における瞳孔像の数を計数し、計数した瞳孔像の数に応じて、追跡範囲を、被験者視における反射面上の被験者の瞳孔の鏡像の位置に基づく範囲である被験者範囲、または、被験者範囲および被験者視における反射面上の被験者の瞳孔の鏡像の位置に基づく範囲である対象者範囲に決定するとしてもよい。   On the reflecting surface side of the mirror, a subject different from the subject is located together with the subject, count the number of pupil images in the image data generated by the imaging unit, and according to the number of counted pupil images, The tracking range is a subject range that is based on the position of the mirror image of the subject's pupil on the reflecting surface in the subject view, or a range that is based on the subject range and the position of the mirror image of the subject's pupil on the reflecting surface in the subject view. The target range may be determined.

本発明によれば、コストの低減を図りつつ、複雑な計算処理を行うことなく、被験者の視線の位置を導出することが可能となる。   According to the present invention, it is possible to derive the position of the subject's line of sight without reducing complicated costs and performing complicated calculation processing.

第1の実施形態にかかる自閉症診断支援装置と被験者との配置関係を説明するための図である。It is a figure for demonstrating the arrangement | positioning relationship between the autism diagnosis assistance apparatus concerning 1st Embodiment, and a test subject. 第1の実施形態にかかる自閉症診断支援装置の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the autism diagnosis assistance apparatus concerning 1st Embodiment. 角膜と撮像部との関係を説明するための説明図である。It is explanatory drawing for demonstrating the relationship between a cornea and an imaging part. 赤外線照射部を説明するための図である。It is a figure for demonstrating an infrared irradiation part. 赤外線照射部のON、OFFと、撮像部の画像データの生成を説明するための図である。It is a figure for demonstrating generation | occurrence | production of ON / OFF of an infrared irradiation part, and the image data of an imaging part. 瞳孔導出部による座標導出処理を説明するための図である。It is a figure for demonstrating the coordinate derivation | leading-out process by a pupil derivation | leading-out part. 範囲決定部による追跡範囲の決定処理を説明するための、鏡の上面視における図である。It is a figure in the top view of a mirror for demonstrating the determination process of the tracking range by a range determination part. 第1の実施形態にかかる自閉症診断支援装置を用いた自閉症診断支援方法の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the autism diagnosis assistance method using the autism diagnosis assistance apparatus concerning 1st Embodiment. キャリブレーション処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a calibration process. 被験者および対象者と、第2の実施形態にかかる自閉症診断支援装置との配置関係を説明するための図である。It is a figure for demonstrating the arrangement | positioning relationship between a test subject and a subject, and the autism diagnosis assistance apparatus concerning 2nd Embodiment. 第2の実施形態にかかる自閉症診断支援装置の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the autism diagnosis assistance apparatus concerning 2nd Embodiment. 範囲決定部による追跡範囲の決定処理を説明するための、鏡の側面視における図である。It is a figure in the side view of a mirror for demonstrating the determination process of the tracking range by a range determination part. 第2の実施形態にかかる自閉症診断支援置を用いた自閉症診断支援方法の処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of a process of the autism diagnosis assistance method using the autism diagnosis assistance device concerning 2nd Embodiment. 第3の実施形態にかかる自閉症診断支援装置の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the autism diagnosis assistance apparatus concerning 3rd Embodiment.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiments are merely examples for facilitating the understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

(第1の実施形態:自閉症診断支援装置100)
図1は、自閉症診断支援装置100と被験者10との配置関係を説明するための図であり、図2は、第1の実施形態にかかる自閉症診断支援装置100の構成を説明するためのブロック図である。
(First embodiment: autism diagnosis support apparatus 100)
FIG. 1 is a diagram for explaining the positional relationship between the autism diagnosis support apparatus 100 and the subject 10, and FIG. 2 illustrates the configuration of the autism diagnosis support apparatus 100 according to the first embodiment. It is a block diagram for.

図1に示すように、自閉症診断支援装置100を構成する鏡110の反射面110a側に、被験者10(例えば、1歳半程度の乳幼児)を位置させておき、鏡110の両側方に配された2つの撮像部114a、114b(図1では、撮像部114aのみを示す)を用いて、被験者10を撮像して画像データを生成する。そして、自閉症診断支援装置100は、撮像部114a、114bが生成した画像データに基づいて被験者10の視線を示す視線情報を導出する。   As shown in FIG. 1, a subject 10 (for example, an infant of about one and a half years) is positioned on the reflecting surface 110 a side of the mirror 110 constituting the autism diagnosis support apparatus 100, and is placed on both sides of the mirror 110. The subject 10 is imaged using the two arranged imaging units 114a and 114b (only the imaging unit 114a is shown in FIG. 1) to generate image data. The autism diagnosis support apparatus 100 derives line-of-sight information indicating the line of sight of the subject 10 based on the image data generated by the imaging units 114a and 114b.

自閉症患者は、上述したように対面する他者の目を見ないことが多いという特徴がある。また、自閉症であるか否かに拘わらず、1歳半程度の乳幼児は自身と他者の区別がつかず、鏡110に映った自身の目も見ないことも少なくない。そこで、自閉症診断支援装置100は、導出した視線情報に基づいて、被験者10が鏡110に映った自身(被験者10)の瞳孔および瞳孔付近を見ているか否かを判定する。自閉症診断支援装置100のこのような判定結果を参照することで、被験者10が自閉症か否かを診断する際の客観的な指標とすることができる。以下、かかる自閉症診断支援装置100について具体的に説明する。   Autistic patients are characterized in that they often do not see the eyes of others who face each other as described above. In addition, regardless of whether or not the child has autism, infants about one and a half years old cannot distinguish themselves from others and often do not see their own eyes in the mirror 110. Therefore, the autism diagnosis support apparatus 100 determines whether or not the subject 10 is looking at the pupil (subject 10) and the vicinity of the pupil reflected in the mirror 110 based on the derived line-of-sight information. By referring to such a determination result of the autism diagnosis support apparatus 100, it can be used as an objective index when diagnosing whether or not the subject 10 has autism. Hereinafter, the autism diagnosis support apparatus 100 will be specifically described.

図2に示すように、自閉症診断支援装置100は、鏡110と、赤外線照射部112と、撮像部114a、114bと、中央制御部116と、発光部118と、報知部120と、表示部122とを含んで構成される。   As shown in FIG. 2, the autism diagnosis support apparatus 100 includes a mirror 110, an infrared irradiation unit 112, imaging units 114a and 114b, a central control unit 116, a light emitting unit 118, a notification unit 120, and a display. Part 122.

本実施形態において、鏡110の水平方向の幅は、後述する瞳孔導出部150が瞳孔の位置を導出可能な画像データを生成できる2つの撮像部114a、114bの距離の上限値未満である。後述するように、2つの撮像部114a、114bは鏡110の両端部110b近傍に水平方向の位置を等しくして配される。   In the present embodiment, the horizontal width of the mirror 110 is less than the upper limit value of the distance between the two imaging units 114a and 114b that can generate image data from which a pupil deriving unit 150 (to be described later) can derive the position of the pupil. As will be described later, the two imaging units 114 a and 114 b are arranged in the vicinity of both end portions 110 b of the mirror 110 with the same horizontal position.

図3は、角膜と撮像部114との関係を説明するための説明図である。図3(a)に示すように、撮像部114同士の距離が大きすぎる場合に、撮像部114がヒトの眼を撮像できる状態でも、ヒトの見る方向(視線の方向)によっては、撮像部114で角膜を撮像できない場合がある。一方、図3(b)に示すように、図3(a)に示す場合と比較して撮像部114同士の距離を小さくした場合には、撮像部114で角膜を撮像できる可能性が、図3(a)の場合と比較して高くなる。   FIG. 3 is an explanatory diagram for explaining the relationship between the cornea and the imaging unit 114. As illustrated in FIG. 3A, when the distance between the image capturing units 114 is too large, the image capturing unit 114 may be able to capture human eyes depending on the viewing direction (the direction of the line of sight) of the human eye. In some cases, the cornea cannot be imaged. On the other hand, as shown in FIG. 3 (b), when the distance between the imaging units 114 is made smaller than in the case shown in FIG. 3 (a), there is a possibility that the imaging unit 114 can capture the cornea. It becomes higher than the case of 3 (a).

撮像部114a、114b間の距離(基線長)と、眼との角度について説明すると、図3(c)に示すように、眼が、撮像部114aと、撮像部114bの中央に位置するとしたとき、眼(角膜中心)から角度θ(θ=約46度)以内の位置に撮像部114a、114bが配されると、撮像部114a、114bは、瞳孔像を含む画像データを生成することができる。つまり、鏡110から被験者10の眼までの距離の0.85倍程度が撮像部114a、114b間の距離の上限値となる。   The distance (baseline length) between the imaging units 114a and 114b and the angle with the eye will be described. When the eye is positioned at the center of the imaging unit 114a and the imaging unit 114b as shown in FIG. When the imaging units 114a and 114b are arranged at a position within the angle θ (θ = about 46 degrees) from the eye (center of the cornea), the imaging units 114a and 114b can generate image data including a pupil image. . That is, about 0.85 times the distance from the mirror 110 to the eye of the subject 10 is the upper limit value of the distance between the imaging units 114a and 114b.

したがって、鏡110の水平方向の幅を、鏡110から被験者10の眼までの距離の0.85倍未満とすることで、鏡110の両側端部110bの近傍に撮像部114a、114bを配したとしても、瞳孔像を含む画像データを好適に生成することができる。なお、この際、椅子等を利用して、鏡110から被験者10の眼までの距離を固定するとよい。   Therefore, by setting the horizontal width of the mirror 110 to be less than 0.85 times the distance from the mirror 110 to the eye of the subject 10, the imaging units 114a and 114b are arranged in the vicinity of both side end portions 110b of the mirror 110. However, image data including a pupil image can be suitably generated. At this time, the distance from the mirror 110 to the eyes of the subject 10 may be fixed using a chair or the like.

赤外線照射部112は、鏡110の両側方に配され、被験者10に向かって赤外線を照射する。図4は、赤外線照射部112を説明するための図である。図4に示すように、本実施形態において、赤外線照射部112は、第1照射部112a(図4中ハッチングで示す)と、第2照射部112b(図4中クロスハッチングで示す)とを含んで構成される。第1照射部112aは、撮像部114a、114bのレンズ160の外周位置に周方向に等間隔に配され、第2照射部112bは、第1照射部112aにおけるレンズ160と対向する側に、周方向に等間隔で配される。第1照射部112aは、LED(Light Emitting Diode)等で構成され、中心波長が780nm〜900nm未満の赤外線を照射する。第2照射部112bは、LED等で構成され、中心波長が900nm〜970nmの赤外線を照射する。また、第1照射部112aおよび第2照射部112bは、撮像部114a、114bのレンズの光軸と平行になるように赤外線を照射する。赤外線照射部112によって照射された赤外線を被験者10で反射する際の反射光を、撮像部114a、114bが撮像したときに生成される画像データについては、後に詳述する。   The infrared irradiation unit 112 is disposed on both sides of the mirror 110 and irradiates infrared rays toward the subject 10. FIG. 4 is a diagram for explaining the infrared irradiation unit 112. As shown in FIG. 4, in this embodiment, the infrared irradiation unit 112 includes a first irradiation unit 112a (shown by hatching in FIG. 4) and a second irradiation unit 112b (shown by cross hatching in FIG. 4). Consists of. The first irradiation unit 112a is arranged at equal intervals in the circumferential direction on the outer peripheral position of the lens 160 of the imaging units 114a and 114b, and the second irradiation unit 112b is arranged on the side facing the lens 160 in the first irradiation unit 112a. Arranged at equal intervals in the direction. The 1st irradiation part 112a is comprised by LED (Light Emitting Diode) etc., and irradiates infrared rays whose center wavelength is 780 nm-less than 900 nm. The 2nd irradiation part 112b is comprised by LED etc. and irradiates infrared rays with a center wavelength of 900 nm-970 nm. Moreover, the 1st irradiation part 112a and the 2nd irradiation part 112b irradiate infrared rays so that it may become in parallel with the optical axis of the lens of the imaging parts 114a and 114b. Image data generated when the imaging units 114a and 114b capture the reflected light when the subject 10 reflects the infrared light irradiated by the infrared irradiation unit 112 will be described in detail later.

撮像部114a、114bは、鏡110の両側方に水平方向の位置を等しくして配される。撮像部114a、114bは、後述する中央制御部116によるフレーム同期信号に応じて、少なくとも被験者10で反射した赤外線の反射光を撮像して、水平視差を有する2つの画像データを、例えば60fpsで生成する。本実施形態では、フレーム同期信号における奇数フィールドにおいても、偶数フィールドにおいても、撮像部114a、114bが画像データを生成する。   The imaging units 114 a and 114 b are arranged on both sides of the mirror 110 with the same horizontal position. The imaging units 114a and 114b capture at least infrared reflected light reflected by the subject 10 in accordance with a frame synchronization signal from the central control unit 116, which will be described later, and generate two image data having horizontal parallax at, for example, 60 fps. To do. In the present embodiment, the imaging units 114a and 114b generate image data in both the odd field and the even field in the frame synchronization signal.

ここで、ヒトの瞳孔の性質について説明すると、900nm未満の波長の赤外線を照射する第1照射部112aがヒトに赤外線を照射してその反射光を撮像すると、900nm以上の波長の赤外線を照射した場合と比較して明るい瞳孔像(以下、明瞳孔像と称する)が生成される。また、900nm以上の波長の赤外線を照射する第2照射部112bがヒトに赤外線を照射してその反射光を撮像すると、明瞳孔像より暗い瞳孔像である暗瞳孔像が生成される。一方、ヒトの瞳孔以外の部分は、赤外線の波長にかかわらず、ほぼ均一な像が生成される。   Here, the nature of the human pupil will be described. When the first irradiation unit 112a that irradiates infrared rays having a wavelength of less than 900 nm irradiates the human with infrared rays and images the reflected light, the infrared rays having a wavelength of 900 nm or more are emitted. A bright pupil image (hereinafter referred to as a bright pupil image) is generated as compared with the case. Further, when the second irradiation unit 112b that irradiates infrared rays having a wavelength of 900 nm or more irradiates humans with infrared rays and images the reflected light, a dark pupil image that is a darker pupil image than the bright pupil image is generated. On the other hand, a substantially uniform image is generated in portions other than the human pupil, regardless of the wavelength of infrared rays.

したがって、生成された明瞳孔像を含む画像データと、暗瞳孔像を含む画像データとの差分をとると、瞳孔以外の部分は輝度が相殺され、瞳孔像の部分のみが明確になることになる。なお、周囲の明るさ等の条件によって、画像データにおける明瞳孔像が周囲よりも必ずしも明るい(輝度が大きい)とは限らず、画像データにおける暗瞳孔像が周囲よりも必ずしも暗い(輝度が小さい)わけではなく、明瞳孔像は暗瞳孔像に比べて相対的に明るい像である。   Therefore, when the difference between the generated image data including the bright pupil image and the image data including the dark pupil image is taken, the luminance is canceled out in the portion other than the pupil, and only the portion of the pupil image becomes clear. . Note that the bright pupil image in the image data is not necessarily brighter (higher brightness) than the surroundings depending on conditions such as ambient brightness, and the dark pupil image in the image data is necessarily darker (lower brightness) than the surroundings. However, the bright pupil image is a relatively bright image compared to the dark pupil image.

そこで、第1照射部112aおよび第2照射部112bは、中央制御部116によるフレーム同期信号に応じて、赤外線を排他的かつ交互に照射する。具体的に説明すると、フレーム同期信号における奇数フィールドにおいて、第1照射部112aが赤外線を照射し、偶数フィールドにおいて第2照射部112bが赤外線を照射する。   Therefore, the first irradiating unit 112a and the second irradiating unit 112b irradiate infrared rays exclusively and alternately according to the frame synchronization signal from the central control unit 116. Specifically, in the odd field in the frame synchronization signal, the first irradiation unit 112a emits infrared light, and in the even field, the second irradiation unit 112b emits infrared light.

図5は、赤外線照射部112のON、OFFと、撮像部114a、114bの画像データの生成を説明するための図である。図5に示すように、第1照射部112aがON(赤外線を照射)するとき、撮像部114a、114bが生成する画像データには明瞳孔像が含まれることとなる。また、第2照射部112bがON(赤外線を照射)するとき、撮像部114a、114bが生成する画像データには暗瞳孔像が含まれることとなる。こうすることで、撮像部114a、114bで、明瞳孔像および暗瞳孔像をそれぞれ撮像することができる。   FIG. 5 is a diagram for explaining ON / OFF of the infrared irradiation unit 112 and generation of image data of the imaging units 114a and 114b. As shown in FIG. 5, when the first irradiation unit 112a is turned on (irradiates infrared rays), the image data generated by the imaging units 114a and 114b includes a bright pupil image. When the second irradiation unit 112b is turned on (irradiates infrared rays), the image data generated by the imaging units 114a and 114b includes a dark pupil image. By doing so, it is possible to capture a bright pupil image and a dark pupil image with the imaging units 114a and 114b, respectively.

図2に戻って説明すると、中央制御部116は、CPU(中央処理装置)を含む半導体集積回路で構成され、ROMからCPU自体を動作させるためのプログラムやパラメータ等を読み出し、ワークエリアとしてのRAMや他の電子回路と協働して自閉症診断支援装置100全体を管理および制御する。また、中央制御部116は、瞳孔導出部150、視線導出部152、範囲決定部154、視点判定部156として機能する。   Referring back to FIG. 2, the central control unit 116 is composed of a semiconductor integrated circuit including a CPU (Central Processing Unit), reads out programs and parameters for operating the CPU itself from the ROM, and serves as a RAM as a work area. In addition, the entire autism diagnosis support apparatus 100 is managed and controlled in cooperation with other electronic circuits. Further, the central control unit 116 functions as a pupil deriving unit 150, a line-of-sight deriving unit 152, a range determining unit 154, and a viewpoint determining unit 156.

瞳孔導出部150は、撮像部114aが生成した明瞳孔像を含む画像データと、暗瞳孔像を含む画像データとの輝度の差分を求めることで、瞳孔像が明確化された画像データ(以下、単に画像データと称する)を生成するとともに、撮像部114bが生成した明瞳孔像を含む画像データと、暗瞳孔像を含む画像データとの輝度の差分を求めることで、画像データを生成する。ここで撮像部114aが生成した画像データと撮像部114bが生成した画像データとは水平視差を有するため、瞳孔導出部150は、予め定められた撮像部114aの位置(座標)および撮像部114aが生成した画像データと、予め定められた撮像部114bの位置(座標)および撮像部114bが生成した画像データとから瞳孔の位置(座標)を導出する。なお、本実施形態において、座標系は1つであり、すべての座標を、この1つの座標系で示すことができる。   The pupil deriving unit 150 obtains a difference in luminance between the image data including the bright pupil image generated by the imaging unit 114a and the image data including the dark pupil image, and thereby the image data in which the pupil image is clarified (hereinafter, referred to as the pupil data). The image data is generated by obtaining a difference in luminance between the image data including the bright pupil image generated by the imaging unit 114b and the image data including the dark pupil image. Here, since the image data generated by the imaging unit 114a and the image data generated by the imaging unit 114b have horizontal parallax, the pupil deriving unit 150 determines whether the imaging unit 114a has a predetermined position (coordinates) of the imaging unit 114a. The position (coordinates) of the pupil is derived from the generated image data, the predetermined position (coordinates) of the imaging unit 114b, and the image data generated by the imaging unit 114b. In this embodiment, there is one coordinate system, and all coordinates can be represented by this one coordinate system.

ここでは、右眼の瞳孔の位置を導出する場合を例に挙げて説明し、左眼の瞳孔の位置の導出処理については、右眼の瞳孔の位置の導出処理と同様であるため重複説明を省略する。   Here, the case of deriving the right eye pupil position will be described as an example, and the left eye pupil position deriving process is the same as the right eye pupil position deriving process, so a duplicate description will be given. Omitted.

図6は、瞳孔導出部150による座標導出処理を説明するための図である。図6に示すように、本実施形態において、瞳孔導出部150は、撮像部114aのレンズ160の主点(光学中心)と、撮像部114bのレンズ160の主点との結線の中心点を原点P(0,0,0)とし、撮像部114aのレンズ160の主点と、撮像部114bのレンズ160の主点との結線を通る軸をX軸(撮像部114a側が+X)とし、原点Pから鉛直方向に延伸する軸をY軸(鉛直上方が+Y)とし、原点Pを通りXY平面に垂直な軸をZ軸(反射面110a側が+Z)として、瞳孔の座標および角膜反射(赤外線照射部112が照射した赤外線の角膜での反射)の座標を導出する。   FIG. 6 is a diagram for explaining the coordinate deriving process by the pupil deriving unit 150. As shown in FIG. 6, in this embodiment, the pupil deriving unit 150 uses the center point of the connection between the principal point (optical center) of the lens 160 of the imaging unit 114a and the principal point of the lens 160 of the imaging unit 114b as the origin. P (0, 0, 0), the axis passing through the connection between the principal point of the lens 160 of the imaging unit 114a and the principal point of the lens 160 of the imaging unit 114b is the X axis (the imaging unit 114a side is + X), and the origin P The axis extending in the vertical direction is defined as the Y axis (vertically upward is + Y), and the axis passing through the origin P and perpendicular to the XY plane is the Z axis (reflecting surface 110a side is + Z). The coordinates of the reflection of the infrared ray irradiated by 112 on the cornea are derived.

具体的に説明すると、瞳孔導出部150は、撮像部114aが生成した画像データにおける右眼の瞳孔像および予め定められた撮像部114aの座標から撮像瞳孔ベクトルAを求め、撮像部114bが生成した画像データにおける右眼の瞳孔像および予め定められた撮像部114bの座標から撮像瞳孔ベクトルBを求める。そして瞳孔導出部150は、撮像瞳孔ベクトルAと撮像瞳孔ベクトルBとの交点の座標を右眼の瞳孔の座標とする。   Specifically, the pupil deriving unit 150 obtains the imaging pupil vector A from the pupil image of the right eye in the image data generated by the imaging unit 114a and the predetermined coordinates of the imaging unit 114a, and is generated by the imaging unit 114b. An imaging pupil vector B is obtained from the pupil image of the right eye in the image data and predetermined coordinates of the imaging unit 114b. The pupil deriving unit 150 sets the coordinates of the intersection of the imaging pupil vector A and the imaging pupil vector B as the coordinates of the right-eye pupil.

図2に戻って説明すると、視線導出部152は、瞳孔導出部150が導出した被験者10の瞳孔の位置に基づいて、被験者10の視線を示す視線情報を導出する。視線情報の導出は、既存の様々な技術を利用することができる。例えば、瞳孔導出部150が撮像部114a、114bが生成した画像データから瞳孔の近傍にある角膜反射の位置を導出し、視線導出部152は、特開2005−185431号公報に記載された技術を利用して、瞳孔導出部150が導出した被験者10の瞳孔の位置および角膜反射の位置から、瞳孔の位置を始点とした視線の方向を示す視線ベクトルを視線情報として導出する。   Returning to FIG. 2, the line-of-sight deriving unit 152 derives line-of-sight information indicating the line of sight of the subject 10 based on the position of the pupil of the subject 10 derived by the pupil deriving unit 150. Various existing technologies can be used to derive the line-of-sight information. For example, the pupil deriving unit 150 derives the position of corneal reflection in the vicinity of the pupil from the image data generated by the imaging units 114a and 114b, and the line-of-sight deriving unit 152 uses the technique described in Japanese Patent Laid-Open No. 2005-185431. Utilizing this, from the pupil position and the corneal reflection position of the subject 10 derived by the pupil deriving unit 150, a line-of-sight vector indicating the direction of the line of sight starting from the pupil position is derived as line-of-sight information.

範囲決定部154は、瞳孔導出部150が導出した被験者10の瞳孔の位置に基づいて、後述する視点判定部156が用いる追跡範囲を決定する。本実施形態において、追跡範囲は、被験者10視における反射面110a上の被験者10の瞳孔の鏡像の位置に基づく範囲である被験者範囲とする。   The range determination unit 154 determines a tracking range used by a viewpoint determination unit 156 described later based on the pupil position of the subject 10 derived by the pupil deriving unit 150. In the present embodiment, the tracking range is a subject range that is a range based on the position of the mirror image of the pupil of the subject 10 on the reflecting surface 110a when viewed by the subject 10.

図7は、範囲決定部154による追跡範囲の決定処理を説明するための、鏡110の上面視における図である。   FIG. 7 is a top view of the mirror 110 for explaining the tracking range determination processing by the range determination unit 154.

図7に示すように、被験者10が、被験者10視における鏡110の反射面110a上の被験者10の瞳孔の鏡像を見ている場合、被験者10の瞳孔の位置と、被験者10視における反射面110a上の被験者10の瞳孔の鏡像の位置とは、反射面110aに対して垂直になる。したがって、被験者10が、被験者10視における反射面110a上の被験者10の瞳孔の鏡像を見ているとき、鏡110の背面110c側であって、当該背面110cからの距離が被験者10と反射面110aとの距離と等しい距離に位置する像12を見ているとみなすことができる。したがって、瞳孔導出部150によって導出された、被験者10の右眼の瞳孔RE1の座標が(xR1,yR1,zR1)、左眼の瞳孔LE1の座標が(xL1,yL1,zL1)である場合、像12の右眼の瞳孔RM1の座標は(xR1,yR1,−zR1)、像12の左眼の瞳孔LM1の座標は(xL1,yL1,−zL1)となる。   As shown in FIG. 7, when the subject 10 is looking at a mirror image of the pupil of the subject 10 on the reflecting surface 110 a of the mirror 110 when viewed by the subject 10, the position of the pupil of the subject 10 and the reflecting surface 110 a when viewed by the subject 10 are viewed. The position of the mirror image of the pupil of the upper subject 10 is perpendicular to the reflecting surface 110a. Therefore, when the subject 10 is looking at the mirror image of the pupil of the subject 10 on the reflecting surface 110a in the subject 10 view, the distance from the back surface 110c of the mirror 110 is the subject 10 and the reflecting surface 110a. It can be considered that the image 12 located at a distance equal to the distance to is seen. Therefore, when the coordinates of the pupil RE1 of the right eye of the subject 10 derived by the pupil deriving unit 150 are (xR1, yR1, zR1) and the coordinates of the pupil LE1 of the left eye are (xL1, yL1, zL1), the image The coordinates of the right eye pupil RM1 of 12 are (xR1, yR1, -zR1), and the coordinates of the left eye pupil LM1 of the image 12 are (xL1, yL1, -zL1).

また、被験者10の瞳孔の位置から反射面110aへの垂線と、反射面110aとの交点が被験者10視における反射面110a上の被験者10の瞳孔の鏡像の位置となる。したがって、被験者10視における反射面110a上の被験者10の右眼の瞳孔の鏡像RRM1の座標は(xR1,yR1,0)となり、左眼の瞳孔の鏡像LLM1の座標は(xL1,yL1,0)となる。   Moreover, the intersection of the perpendicular | vertical to the reflective surface 110a from the position of the pupil of the test subject 10 and the reflective surface 110a becomes the position of the mirror image of the pupil of the test subject 10 on the reflective surface 110a in the test subject 10 view. Therefore, the coordinates of the mirror image RRM1 of the pupil of the right eye of the subject 10 on the reflecting surface 110a in the view of the subject 10 are (xR1, yR1,0), and the coordinates of the mirror image LLM1 of the pupil of the left eye are (xL1, yL1,0). It becomes.

そして、範囲決定部154は、このようにして導出した鏡像RRM1の位置および鏡像LLM1の位置に基づく範囲を被験者範囲(追跡範囲)として決定する。例えば、鏡像RRM1の位置と鏡像LLM1の位置を焦点とし、この2つの焦点からの距離の和が第1所定距離となる楕円形状の範囲を被験者範囲とする。または、鏡像RRM1の位置と鏡像LLM1の位置を含む卵形状の範囲を被験者範囲としたり、鏡像RRM1の位置から第1所定距離となる円形状の範囲、および、鏡像LLM1の位置から第2所定距離となる円形状の範囲を被験者範囲としたりする。   Then, the range determining unit 154 determines a range based on the position of the mirror image RRM1 and the position of the mirror image LLM1 derived as described above as a subject range (tracking range). For example, the position of the mirror image RRM1 and the position of the mirror image LLM1 are set as the focal points, and the elliptical range in which the sum of the distances from the two focal points is the first predetermined distance is set as the subject range. Alternatively, an egg-shaped range including the position of the mirror image RRM1 and the position of the mirror image LLM1 is set as a subject range, a circular range that is a first predetermined distance from the position of the mirror image RRM1, and a second predetermined distance from the position of the mirror image LLM1. Or the subject range is the circular range.

図2に戻って説明すると、視点判定部156は、視線導出部152によって導出された視線情報(視線ベクトル)と、反射面110aとの交点(以下、単に視点と称する)の座標が被験者範囲内にあるか否かを判定する。   Returning to FIG. 2, the viewpoint determination unit 156 determines that the coordinates of the intersection (hereinafter simply referred to as the viewpoint) between the line-of-sight information (line-of-sight vector) derived by the line-of-sight deriving unit 152 and the reflecting surface 110a are within the subject range. It is determined whether or not.

そして視点判定部156は、所定時間内に生成された画像データに関し、視点の座標が被験者範囲内にない画像データ数をカウントし、その画像データ数に2フレーム分の時間(1/30sec)を積算して積算値を導出する。続いて視点判定部156は、積算値を、所定時間で除算した値を導出し、除算値が所定の閾値以上であれば自閉症の疑いがあると判定する。   Then, the viewpoint determination unit 156 counts the number of image data in which the coordinates of the viewpoint are not within the subject range with respect to the image data generated within a predetermined time, and sets the time for two frames (1/30 sec) to the number of image data. The integrated value is derived by integration. Subsequently, the viewpoint determination unit 156 derives a value obtained by dividing the integrated value by a predetermined time, and determines that there is a suspicion of autism if the divided value is equal to or greater than a predetermined threshold.

発光部118および報知部120は、後述するキャリブレーション処理に用いられる。発光部118は、LED等で構成され、鏡110の四方の角の合計4の位置にそれぞれ設けられる。発光部118は、中央制御部116による制御指令に応じて、鏡110の反射面110a側から被験者10側に光を照射する。報知部120は、音声出力装置(スピーカ)で構成され、発光部118への視認を促す音や音声を出力する。キャリブレーション処理については、後に詳述する。   The light emitting unit 118 and the notification unit 120 are used for calibration processing to be described later. The light emitting unit 118 is configured by an LED or the like, and is provided at a total of four positions on the four corners of the mirror 110. The light emitting unit 118 irradiates light from the reflecting surface 110a side of the mirror 110 to the subject 10 side in accordance with a control command from the central control unit 116. The notification unit 120 is configured by an audio output device (speaker), and outputs sounds and sounds that prompt the light emitting unit 118 to be visually recognized. The calibration process will be described in detail later.

表示部122は、所定時間内におけるすべての視点と、被験者範囲とを示す画像や、所定時間内におけるすべての視点の軌跡と、被験者範囲とを示す画像を表示する。例えば、中央制御部116が、瞳孔導出部150が導出した瞳孔の位置(座標)を、撮像部114a、114bが生成した画像データにおける瞳孔像の位置とみなして、視点判定部156が導出した視点を座標変換し、表示部122は撮像部114a、114bが生成した画像データに座標変換された視点を重畳して表示する。表示部122は、医師による自閉症の診断時や、医師が被験者10の親に自閉症の診断結果を説明する際等に利用される。表示部122を備えることにより、医師や親が、被験者10が自身の眼の鏡像をどの程度見ているかを視認することができる。   The display unit 122 displays an image showing all the viewpoints within the predetermined time and the subject range, and an image showing the trajectories of all the viewpoints within the predetermined time and the subject range. For example, the central controller 116 regards the position (coordinates) of the pupil derived by the pupil deriving unit 150 as the position of the pupil image in the image data generated by the imaging units 114a and 114b, and the viewpoint derived by the viewpoint determination unit 156. The display unit 122 superimposes and displays the coordinate-converted viewpoint on the image data generated by the imaging units 114a and 114b. The display unit 122 is used when a doctor diagnoses autism or when the doctor explains the diagnosis result of autism to the parent of the subject 10. By providing the display unit 122, a doctor or a parent can visually recognize how much the subject 10 sees a mirror image of his / her own eye.

(自閉症診断支援方法)
図8は、上述した自閉症診断支援装置100を用いた自閉症診断支援方法の処理の流れを示すフローチャートである。まず、鏡110の反射面110a側に被験者10を位置させる。そして、中央制御部116は、視点の位置(座標)導出に関するキャリブレーション(S200)を行う。キャリブレーション処理S200については、後に詳述する。
(Autism diagnosis support method)
FIG. 8 is a flowchart showing the flow of processing of the autism diagnosis support method using the autism diagnosis support apparatus 100 described above. First, the subject 10 is positioned on the reflecting surface 110a side of the mirror 110. Then, the central control unit 116 performs calibration (S200) related to the derivation of the viewpoint position (coordinates). The calibration process S200 will be described in detail later.

キャリブレーション処理S200が終了すると、中央制御部116が送信するフレーム同期信号に基づいて、赤外線照射部112が赤外線を照射するとともに、撮像部114a、114bが被験者10を撮像して画像データを生成し(S202)、中央制御部116は、視点判定処理を開始する。   When the calibration process S200 is completed, the infrared irradiation unit 112 emits infrared rays based on the frame synchronization signal transmitted by the central control unit 116, and the imaging units 114a and 114b capture the subject 10 and generate image data. (S202) The central control unit 116 starts viewpoint determination processing.

画像データの生成が終了すると、中央制御部116は、処理対象を最初の2フレーム(撮像部114a、114bでそれぞれ2フレーム、合計4フレーム)に設定する(S204)。   When the generation of the image data is completed, the central control unit 116 sets the processing target to the first two frames (two frames each for the imaging units 114a and 114b, a total of four frames) (S204).

瞳孔導出部150は、データ生成処理S202で生成された画像データから被験者10の瞳孔の位置を導出するとともに(S206)、画像データから被験者10の角膜反射の位置を導出する(S208)。   The pupil deriving unit 150 derives the position of the pupil of the subject 10 from the image data generated in the data generation process S202 (S206), and derives the position of the corneal reflection of the subject 10 from the image data (S208).

視線導出部152は、瞳孔位置導出処理S206および角膜反射位置導出処理S208において導出された被験者10の瞳孔の位置と、角膜反射の位置とに基づいて、被験者10の視線を示す視線ベクトル(視線情報)を導出する(S210)。   The line-of-sight deriving unit 152 has a line-of-sight vector (line-of-sight information) indicating the line of sight of the subject 10 based on the position of the pupil of the subject 10 and the position of corneal reflection derived in the pupil position derivation process S206 and the corneal reflection position derivation process S208. ) Is derived (S210).

範囲決定部154は、瞳孔位置導出処理S206において導出された被験者10の瞳孔の位置に基づいて、被験者範囲(追跡範囲)を決定する(S212)。そして、視点判定部156は、視線導出処理S210において導出された視線ベクトルと反射面110aとの交点(視点)の座標を導出し(S214)、導出した視点の位置が被験者範囲内にあるか否かを判定する(S216)。   The range determining unit 154 determines a subject range (tracking range) based on the pupil position of the subject 10 derived in the pupil position deriving process S206 (S212). Then, the viewpoint determination unit 156 derives the coordinates of the intersection (viewpoint) between the line-of-sight vector derived in the line-of-sight derivation process S210 and the reflecting surface 110a (S214), and whether or not the derived viewpoint position is within the subject range. Is determined (S216).

視点判定部156が被験者範囲内に被験者10の視点がないと判定した場合(S216におけるNO)、被験者範囲内に被験者10の視点がない時間(以下、単に範囲外積算時間と称する)を導出すべく2フレーム分の時間(例えば、1/30秒)を積算する(S218)。そして、中央制御部116は、データ生成処理S202で生成した画像データの総時間を導出すべく2フレーム分の時間を積算する(S220)。視点判定部156が被験者範囲内に被験者10の視点があると判定した場合(S216におけるYES)、範囲外時間積算処理S218を行わず総時間積算処理S220を遂行する。   When the viewpoint determination unit 156 determines that there is no viewpoint of the subject 10 within the subject range (NO in S216), the time when the subject 10 does not have the viewpoint within the subject range (hereinafter simply referred to as out-of-range integration time) is derived. Therefore, the time for 2 frames (for example, 1/30 second) is integrated (S218). Then, the central control unit 116 integrates the time for two frames in order to derive the total time of the image data generated in the data generation process S202 (S220). When the viewpoint determination unit 156 determines that the viewpoint of the subject 10 is within the subject range (YES in S216), the total time integration processing S220 is performed without performing the out-of-range time integration processing S218.

そして、中央制御部116は、設定したフレームが、データ生成処理S202において生成された画像データのうち最後の2フレームであるか否かを判定する(S222)。最後の2フレームでなければ(S222におけるNO)、中央制御部116は、処理対象を次の2フレームに設定(S224)する。そして、フレーム判定処理S206以降の処理を繰り返す。   Then, the central control unit 116 determines whether or not the set frame is the last two frames of the image data generated in the data generation process S202 (S222). If it is not the last two frames (NO in S222), the central control unit 116 sets the processing target to the next two frames (S224). And the process after frame determination process S206 is repeated.

フレーム判定処理S222において、最後の2フレームであると判定される(S222におけるYES)と、中央制御部116は、範囲外時間積算処理S218で導出した範囲外積算時間を、総時間積算処理S220で導出した画像データの総時間で除算した値を導出し(S230)、導出結果を表示部122に表示させる。   If it is determined in the frame determination process S222 that it is the last two frames (YES in S222), the central control unit 116 determines the out-of-range integrated time derived in the out-of-range time integration process S218 in the total time integration process S220. A value divided by the total time of the derived image data is derived (S230), and the derived result is displayed on the display unit 122.

以上説明したように、本実施形態にかかる自閉症診断支援装置100および自閉症診断支援方法によれば、鏡110を利用することで、被験者10が見る対象の眼(顔)を撮像するための撮像部や、その画像を表示するための表示部がなくとも、鏡110上に対象の眼(被験者10の眼)を投影することができ、コストの低減を図ることが可能となる。特に、被験者10が1歳半程度の乳幼児である場合、自身と他者との顔の区別が付きにくいため、鏡110に投影された自身の眼を他者の眼として把握する可能性が高い。したがって、被験者10の保護者(母親等)等の他者がいなくても、被験者10のみで、被験者10が鏡110に投影された自身の眼を見たか否かを判定することができ、自閉症か否かを診断する際の指標とすることが可能となる。   As described above, according to the autism diagnosis support apparatus 100 and the autism diagnosis support method according to the present embodiment, the eye (face) to be viewed by the subject 10 is imaged by using the mirror 110. Even if there is no imaging unit for displaying the image and no display unit for displaying the image, the target eye (the eye of the subject 10) can be projected onto the mirror 110, and the cost can be reduced. In particular, when the subject 10 is an infant of about one and a half years old, it is difficult to distinguish the face between himself and the other person, so there is a high possibility of grasping his own eye projected on the mirror 110 as the other person's eye. . Therefore, even if there is no other person such as a guardian (mother, etc.) of the subject 10, it can be determined whether or not the subject 10 has seen his / her eyes projected on the mirror 110 by only the subject 10. It can be used as an index when diagnosing whether or not it is autism.

また、撮像部114a、114bは、フィルタやハーフミラーを通さずに直接被験者10を撮像するため、フィルタやハーフミラーを通して撮像した場合よりも撮像部114a、114bに入射する光量が多い。したがって、撮像部114a、114bによって生成された画像データのSNR(Signal to Noise Ratio)がよく、精度よく瞳孔の位置や視線情報を導出することができる。   In addition, since the imaging units 114a and 114b directly image the subject 10 without passing through a filter or a half mirror, the amount of light incident on the imaging units 114a and 114b is larger than when imaging through the filter or half mirror. Therefore, the SNR (Signal to Noise Ratio) of the image data generated by the imaging units 114a and 114b is good, and the pupil position and line-of-sight information can be derived with high accuracy.

さらに、従来は、被験者10が見る対象の眼(顔)を撮像するための撮像部と、被験者10の視点を導出するための2つの撮像部を必要としていたため、対象の眼の座標と、被験者10の視点の座標とを合わせるための座標変換に関する複雑な計算処理を必要としていた。しかし、本実施形態にかかる自閉症診断支援装置100は、2台の撮像部114a、114bのみで対象の眼(瞳孔)の座標と被験者10の視点の座標を導出するため、座標変換に関する複雑な計算処理が不要となり、処理負荷を低減することが可能となる。   Furthermore, conventionally, since an imaging unit for imaging the eye (face) of the subject viewed by the subject 10 and two imaging units for deriving the viewpoint of the subject 10 are required, the coordinates of the target eye, A complicated calculation process related to coordinate conversion for matching the coordinates of the viewpoint of the subject 10 is required. However, since the autism diagnosis support apparatus 100 according to the present embodiment derives the coordinates of the target eye (pupil) and the coordinates of the viewpoint of the subject 10 using only the two imaging units 114a and 114b, the complexities relating to coordinate conversion are involved. Therefore, it is not necessary to perform a calculation process and the processing load can be reduced.

(キャリブレーション処理)
図9は、キャリブレーション処理S200の流れを示すフローチャートである。なお、キャリブレーション処理S200において、上述した自閉症診断支援方法における処理S204S210、S214、S222、S224については、実質的に処理が等しいので、同一の符号を付して重複説明を省略する。
(Calibration process)
FIG. 9 is a flowchart showing the flow of the calibration process S200. Note that, in the calibration process S200, the processes S204, S210, S214, S222, and S224 in the above-described autism diagnosis support method are substantially the same, and thus the same reference numerals are given and redundant description is omitted.

図9に示すように、ユーザ(例えば、医師や検査技師)による操作入力に応じて、5つの発光部118のうち、被験者10から見て中央に位置する発光部118を発光させる(S240)。そして、報知部120は、発光部118への視認を促す音声を出力する(S242)。例えば、被験者10が1歳半程度の乳幼児である場合には、動物の鳴き声や鈴の音などを出力するとよい。こうすることで、被験者10の鏡110への視認を促し、さらに発光部118が発光することにより、発光部118への視認を促すことができる。   As shown in FIG. 9, in response to an operation input by a user (for example, a doctor or a laboratory technician), among the five light emitting units 118, the light emitting unit 118 located in the center when viewed from the subject 10 is caused to emit light (S240). And the alerting | reporting part 120 outputs the audio | voice which promotes the visual recognition to the light emission part 118 (S242). For example, when the subject 10 is an infant about one and a half years old, an animal call or a bell sound may be output. By doing so, it is possible to promote the visual recognition of the subject 10 to the mirror 110 and further to the visual recognition of the light emitting unit 118 by the light emitting unit 118 emitting light.

続いて、当該キャリブレーション処理のために、中央制御部116が送信するフレーム同期信号に基づいて、赤外線照射部112が赤外線を照射するとともに、撮像部114a、114bが被験者10を撮像して画像データを生成する(S244)。そして、フレーム設定処理S204、瞳孔位置導出処理S206、角膜反射位置導出処理S208、視線導出処理S210、視点導出処理S214が遂行され、中央制御部116は、視点導出処理S214において導出された視点の座標を保持する(S246)。そして、フレーム判定処理S222、フレーム設定処理S224が遂行され、データ生成処理S244において生成されたすべての画像データにおいて被験者10の視点の座標の導出が終了すると(S222におけるYES)、中央制御部116は、座標保持処理S246で保持した座標の平均値を導出する(S248)。そして、中央制御部116は、あらかじめ定められた発光部118の座標と、導出した座標の平均値とのずれ量を補正値として導出する(S250)。こうして、導出された補正値は、上述した自閉症診断支援方法において用いられる。   Subsequently, for the calibration process, based on the frame synchronization signal transmitted by the central control unit 116, the infrared irradiation unit 112 emits infrared rays, and the imaging units 114a and 114b capture the subject 10 and image data. Is generated (S244). Then, a frame setting process S204, a pupil position deriving process S206, a corneal reflection position deriving process S208, a line of sight deriving process S210, and a viewpoint deriving process S214 are performed, and the central control unit 116 determines the coordinates of the viewpoint derived in the viewpoint deriving process S214. Is held (S246). Then, the frame determination process S222 and the frame setting process S224 are performed, and when the derivation of the coordinates of the viewpoint of the subject 10 is completed in all the image data generated in the data generation process S244 (YES in S222), the central control unit 116 Then, the average value of the coordinates held in the coordinate holding process S246 is derived (S248). Then, the central control unit 116 derives a deviation amount between the predetermined coordinates of the light emitting unit 118 and the average value of the derived coordinates as a correction value (S250). Thus, the derived correction value is used in the autism diagnosis support method described above.

眼の光軸と視線とは人によって異なるため、このように、発光部118および報知部120を用いて、キャリブレーションを行うことで、被験者10ごとの視点の座標のずれを較正することが可能となる。   Since the optical axis of the eye and the line of sight differ depending on the person, it is possible to calibrate the deviation of the coordinates of the viewpoint for each subject 10 by performing calibration using the light emitting unit 118 and the notification unit 120 in this way. It becomes.

(第2の実施形態:自閉症診断支援装置300)
上述した第1の実施形態では、被験者10のみが鏡110と相対することで、被験者10が自閉症か否かを判定する自閉症診断支援装置100を説明した。第2の実施形態では、被験者10と共に対象者20(被験者10が眼を見ようとする相手、例えば、保護者)が、鏡110と相対する場合であっても被験者10に対する自閉症診断を支援する自閉症診断支援装置300について説明する。
(Second Embodiment: Autism Diagnosis Support Device 300)
In the first embodiment described above, the autism diagnosis support apparatus 100 that determines whether or not the subject 10 has autism by only the subject 10 facing the mirror 110 has been described. In the second embodiment, the autism diagnosis for the subject 10 is supported even when the subject 20 (the partner that the subject 10 wants to look at, for example, a guardian) faces the mirror 110 together with the subject 10. The autism diagnosis support apparatus 300 will be described.

図10は、被験者10および対象者20と、自閉症診断支援装置300との配置関係を説明するための図であり、図11は、第2の実施形態にかかる自閉症診断支援装置300の構成を説明するためのブロック図である。   FIG. 10 is a diagram for explaining the arrangement relationship between the subject 10 and the subject 20 and the autism diagnosis support apparatus 300, and FIG. 11 shows the autism diagnosis support apparatus 300 according to the second embodiment. It is a block diagram for demonstrating the structure of these.

図10に示すように、自閉症診断支援装置300を構成する鏡110の反射面110a側に、被験者10(例えば、1歳半程度の乳幼児)および対象者20(例えば、被験者10の保護者)を位置させておき、鏡110の背面110c側に配された2つの撮像部114a、114b(図10では、撮像部114aのみを示す)を用いて、被験者10を撮像して画像を生成する。そして、自閉症診断支援装置300は、撮像部114a、114bが生成した画像に基づいて被験者10の視線を示す視線情報を導出する。   As shown in FIG. 10, a subject 10 (for example, an infant of about one and a half years) and a subject 20 (for example, a guardian of the subject 10) are placed on the reflecting surface 110 a side of the mirror 110 that constitutes the autism diagnosis support apparatus 300. ) Is positioned, and the subject 10 is imaged using the two imaging units 114a and 114b (only the imaging unit 114a is shown in FIG. 10) arranged on the back surface 110c side of the mirror 110 to generate an image. . The autism diagnosis support apparatus 300 derives line-of-sight information indicating the line of sight of the subject 10 based on the images generated by the imaging units 114a and 114b.

図11に示すように、自閉症診断支援装置300は、鏡110と、赤外線照射部112と、撮像部114a、114bと、中央制御部316と、発光部118と、報知部120と、表示部122とを含んで構成される。なお、上述した第1の実施形態における鏡110、赤外線照射部112、撮像部114a、114b、発光部118、報知部120、表示部122については、実質的に機能が等しいので、同一の符号を付して重複説明を省略し、機能が相違する中央制御部316について詳述する。   As shown in FIG. 11, the autism diagnosis support apparatus 300 includes a mirror 110, an infrared irradiation unit 112, imaging units 114a and 114b, a central control unit 316, a light emitting unit 118, a notification unit 120, and a display. Part 122. The mirror 110, the infrared irradiation unit 112, the imaging units 114a and 114b, the light emitting unit 118, the notification unit 120, and the display unit 122 in the first embodiment described above have substantially the same functions, and thus have the same reference numerals. The central control unit 316 having a different function will be described in detail by omitting redundant description.

中央制御部316は、CPU(中央処理装置)を含む半導体集積回路で構成され、ROMからCPU自体を動作させるためのプログラムやパラメータ等を読み出し、ワークエリアとしてのRAMや他の電子回路と協働して自閉症診断支援装置300全体を管理および制御する。また、中央制御部316は、瞳孔導出部350、視線導出部352、範囲決定部354、視点判定部356として機能する。   The central control unit 316 is composed of a semiconductor integrated circuit including a CPU (Central Processing Unit), reads programs and parameters for operating the CPU itself from the ROM, and cooperates with the RAM as a work area and other electronic circuits. Thus, the entire autism diagnosis support apparatus 300 is managed and controlled. In addition, the central control unit 316 functions as a pupil deriving unit 350, a line-of-sight deriving unit 352, a range determining unit 354, and a viewpoint determining unit 356.

瞳孔導出部350は、撮像部114a、114bが生成した明瞳孔像を含む画像データと、暗瞳孔像を含む画像データとの輝度の差分を求めることで、瞳孔像が明確化された画像データを生成する。そして、瞳孔導出部350は、瞳孔像が明確化された画像データにおける瞳孔像の数を計測する。   The pupil deriving unit 350 obtains image data in which the pupil image is clarified by obtaining a difference in luminance between the image data including the bright pupil image generated by the imaging units 114a and 114b and the image data including the dark pupil image. Generate. Then, the pupil deriving unit 350 measures the number of pupil images in the image data in which the pupil image is clarified.

続いて、瞳孔導出部350は、瞳孔像の数が3以上である場合、相対的にY座標の値が大きい瞳孔のグループ(瞳孔の数が1(横を向いている等で両眼を捉えられないとき)の場合もグループとする)と、相対的にY座標の値が小さい瞳孔のグループとに分ける。例えば、瞳孔導出部350は、それぞれの瞳孔のY座標の位置を導出するとともに、瞳孔同士のY座標の差分を導出する。そして、瞳孔導出部350は、Y座標の差分が所定の閾値未満である瞳孔をグルーピングして、グルーピングした瞳孔のグループにおけるY座標の最大値を比較することで、相対的にY座標の値が大きい瞳孔のグループと、相対的にY座標の値が小さい瞳孔のグループとに分ける。   Subsequently, when the number of pupil images is three or more, the pupil deriving unit 350 captures both eyes when the number of pupils is relatively large (the number of pupils is 1 (facing the side or the like). (When it is not possible), it is divided into a group) and a pupil group having a relatively small Y coordinate value. For example, the pupil deriving unit 350 derives the Y coordinate position of each pupil and derives the difference of the Y coordinates of the pupils. Then, the pupil deriving unit 350 groups the pupils whose Y coordinate difference is less than a predetermined threshold, and compares the maximum Y coordinate values in the grouped pupil groups, so that the Y coordinate value is relatively determined. It is divided into a large pupil group and a pupil group having a relatively small Y coordinate value.

被験者10および対象者20が鏡110に相対する場合、対象者20の方が被験者10よりも鉛直上方にいる可能性が高い。そこで、瞳孔導出部350は、相対的にY座標(鉛直方向)の値が大きい瞳孔のグループを対象者20の瞳孔と、相対的にY座標の値が小さい瞳孔のグループを被験者10の瞳孔とする。また、被験者10および対象者20のいずれか一方が斜めを向いていたり、片眼をつぶっていたりする場合であっても、被験者10と対象者20とは鉛直方向の位置が異なると考えられるため、瞳孔導出部350がY軸方向の位置の違いで瞳孔をグルーピングしても問題はない。   When the subject 10 and the subject 20 are opposed to the mirror 110, the subject 20 is more likely to be vertically above the subject 10. Therefore, the pupil deriving unit 350 defines the pupil group of the subject 20 as a pupil group having a relatively large Y coordinate (vertical direction) value and the pupil group of the subject 10 as a pupil group having a relatively small Y coordinate value. To do. In addition, even if either one of the subject 10 or the subject 20 is facing obliquely or one eye is collapsed, the subject 10 and the subject 20 are considered to have different vertical positions. There is no problem even if the pupil deriving unit 350 groups the pupils depending on the position in the Y-axis direction.

また、瞳孔導出部350は、撮像部114a、114bが生成した画像データからそれぞれの瞳孔の位置を導出するとともに、瞳孔の近傍にある角膜反射の位置をそれぞれ導出する。瞳孔導出部350による座標導出処理については、上述した瞳孔導出部150による座標導出処理と実質的に等しいため重複説明を省略する。   The pupil deriving unit 350 derives the position of each pupil from the image data generated by the imaging units 114a and 114b, and derives the position of corneal reflection in the vicinity of the pupil. Since the coordinate deriving process by the pupil deriving unit 350 is substantially the same as the coordinate deriving process by the pupil deriving unit 150 described above, a duplicate description is omitted.

視線導出部352は、瞳孔導出部350が導出した被験者10の瞳孔の位置と、角膜反射の位置とに基づいて、被験者10の視線を示す視線情報(視線ベクトル)を導出する。視線導出部352による視線情報導出処理については、上述した視線導出部152による視線情報導出処理と実質的に等しいため重複説明を省略する。   The gaze deriving unit 352 derives gaze information (gaze vector) indicating the gaze of the subject 10 based on the position of the pupil of the subject 10 derived by the pupil deriving unit 350 and the position of corneal reflection. The line-of-sight information deriving process performed by the line-of-sight deriving unit 352 is substantially the same as the line-of-sight information deriving process performed by the line-of-sight deriving unit 152 described above, and thus redundant description is omitted.

範囲決定部354は、瞳孔導出部350が導出した被験者10の瞳孔の位置および対象者20の瞳孔の位置に基づいて、後述する視点判定部356が用いる追跡範囲を決定する。   The range determination unit 354 determines a tracking range used by a viewpoint determination unit 356 described later based on the position of the pupil of the subject 10 derived by the pupil deriving unit 350 and the position of the pupil of the subject 20.

図12は、範囲決定部354による追跡範囲の決定処理を説明するための、鏡110の側面視における図である。なお、図12において、左眼は、右眼の紙面奥に存在するとし、左眼に関する符号を括弧書きで示す。範囲決定部354は、被験者10視における反射面110a上の被験者10の瞳孔の鏡像RRM1、LLM1の位置および、被験者10視における反射面110a上の対象者20の瞳孔の鏡像RRM2、LLM2の位置を導出する。なお、図12においては、被験者10の右の瞳孔の鏡像RRM1と、対象者20の右の瞳孔の鏡像RRM2とを示す。また、被験者10視における反射面110a上の被験者10の瞳孔の鏡像RRM1、LLM1の位置の導出は、上述した範囲決定部154による被験者10視における反射面110a上の被験者10の瞳孔の鏡像RRM1、LLM1の位置の導出と実質的に処理が等しいため重複説明を省略する。   FIG. 12 is a side view of the mirror 110 for explaining the tracking range determination processing by the range determination unit 354. In FIG. 12, it is assumed that the left eye exists behind the right eye, and reference numerals relating to the left eye are shown in parentheses. The range determination unit 354 determines the positions of the mirror images RRM1 and LLM1 of the pupil of the subject 10 on the reflection surface 110a in the view of the subject 10 and the positions of the mirror images RRM2 and LLM2 of the pupil of the subject 20 on the reflection surface 110a in the view of the subject 10. To derive. In FIG. 12, a mirror image RRM1 of the right pupil of the subject 10 and a mirror image RRM2 of the right pupil of the subject 20 are shown. In addition, the position of the mirror image RRM1 and LLM1 of the pupil of the subject 10 on the reflecting surface 110a in the view of the subject 10 is derived from the mirror image RRM1 of the pupil of the subject 10 on the reflecting surface 110a in the view of the subject 10 by the range determination unit 154 described above. Since the process is substantially the same as the derivation of the position of the LLM1, duplicate description will be omitted.

図12に示すように、対象者20の瞳孔の位置と、対象者20視における反射面110a上の対象者20の瞳孔の鏡像の位置とは、反射面110aに対して垂直になる。したがって、対象者20が、対象者20視における反射面110a上の対象者20の瞳孔の鏡像を見ているとき、鏡110の背面110c側であって、当該背面110cからの距離が対象者20と反射面110aとの距離と等しい距離に位置する像22を見ているとみなすことができる。したがって、瞳孔導出部350によって導出された、対象者20の右眼の瞳孔RE2の座標が(xR2,yR2,zR2)、左眼の瞳孔LE2の座標が(xL2,yL2,zL2)である場合、像22の右眼の瞳孔RM2の座標は(xR2,yR2,−zR2)、像22の左眼の瞳孔LM2の座標は(xL2,yL2,−zL2)となる。そして、被験者10が反射面110a上の対象者20の瞳孔の鏡像を見ているとき、被験者10は、対象者20の像22の瞳孔RM2、LM2を見ているとみなすことができる。   As shown in FIG. 12, the position of the pupil of the subject 20 and the position of the mirror image of the pupil of the subject 20 on the reflecting surface 110a in the view of the subject 20 are perpendicular to the reflecting surface 110a. Therefore, when the subject 20 is looking at the mirror image of the pupil of the subject 20 on the reflecting surface 110a as viewed by the subject 20, the distance from the back 110c is the back 110c side of the mirror 110. It can be considered that the image 22 positioned at a distance equal to the distance between the reflecting surface 110a and the reflecting surface 110a is viewed. Therefore, when the coordinates of the pupil RE2 of the right eye of the subject 20 derived by the pupil deriving unit 350 are (xR2, yR2, zR2) and the coordinates of the pupil LE2 of the left eye are (xL2, yL2, zL2), The coordinates of the pupil RM2 of the right eye of the image 22 are (xR2, yR2, -zR2), and the coordinates of the pupil LM2 of the left eye of the image 22 are (xL2, yL2, -zL2). When the subject 10 is looking at the mirror image of the pupil of the subject 20 on the reflecting surface 110a, the subject 10 can be regarded as looking at the pupils RM2 and LM2 of the image 22 of the subject 20.

そこで、範囲決定部354は、被験者10が像22の右眼の瞳孔RM2を見たとした場合の視線ベクトルCと、反射面110aとの交点の座標を、被験者10視における対象者20の右眼の瞳孔の鏡像RRM2とする。すなわち、鏡像RRM2のX座標は、xR1+(xR2−xR1)×zR1/(zR1+zR2)、Y座標は、yR1+(yR2−yR1)×zR1/(zR1+zR2)、Z座標は0(ゼロ)となる。同様に、被験者10が像22の左眼の瞳孔LM2を見たとした場合の視線ベクトルと、反射面110aとの交点の座標を、被験者10視における対象者20の左眼の瞳孔の鏡像LLM2とする。すなわち、鏡像LLM2のX座標は、xL1+(xL2−xL1)×zL1/(zL1+zL2)、Y座標は、yL1+(yL2−yL1)×zL1/(zL1+zL2)、Z座標は0(ゼロ)となる。   Therefore, the range determination unit 354 determines the coordinates of the intersection of the line-of-sight vector C and the reflecting surface 110a when the subject 10 views the right eye pupil RM2 of the image 22 and the right eye of the subject 20 in the subject 10 view. This is a mirror image RRM2 of the pupil. That is, the X coordinate of the mirror image RRM2 is xR1 + (xR2-xR1) × zR1 / (zR1 + zR2), the Y coordinate is yR1 + (yR2-yR1) × zR1 / (zR1 + zR2), and the Z coordinate is 0 (zero). Similarly, the coordinate of the intersection of the line-of-sight vector and the reflecting surface 110a when the subject 10 views the left-eye pupil LM2 of the image 22 is the mirror image LLM2 of the left-eye pupil of the subject 20 in the subject 10 view. To do. That is, the X coordinate of the mirror image LLM2 is xL1 + (xL2-xL1) × zL1 / (zL1 + zL2), the Y coordinate is yL1 + (yL2-yL1) × zL1 / (zL1 + zL2), and the Z coordinate is 0 (zero).

したがって、範囲決定部354は、被験者10視における反射面110a上の対象者20の瞳孔の鏡像の位置に基づく範囲を対象者範囲とする。例えば、鏡像RRM2の位置と鏡像LLM2の位置を焦点とし、この2つの焦点からの距離の和が第3所定距離となる楕円形状の範囲を対象者範囲とする。または、鏡像RRM2の位置と鏡像LLM2の位置を含む卵形状の範囲を被験者範囲としたり、鏡像RRM2の位置から第4所定距離となる円形状の範囲、および、鏡像LLM2の位置から第4所定距離となる円形状の範囲を被験者範囲としたりする。   Therefore, the range determination unit 354 sets the range based on the position of the mirror image of the pupil of the subject 20 on the reflecting surface 110a in the subject 10 view as the subject range. For example, the position of the mirror image RRM2 and the position of the mirror image LLM2 are set as the focal points, and the elliptical range in which the sum of the distances from the two focal points is the third predetermined distance is set as the target person range. Alternatively, the egg-shaped range including the position of the mirror image RRM2 and the position of the mirror image LLM2 is set as the subject range, the circular range that is the fourth predetermined distance from the position of the mirror image RRM2, and the fourth predetermined distance from the position of the mirror image LLM2. Or the subject range is the circular range.

そして、範囲決定部354は、瞳孔導出部350が計数した瞳孔像の数に応じて、追跡範囲を、被験者範囲、または、被験者範囲および対象者範囲(以下、単に両範囲と称する)に決定する。例えば、範囲決定部354は、瞳孔像の数が3以上である場合、追跡範囲を両範囲とし、瞳孔像の数が3未満である場合、被験者範囲とする。   Then, the range determination unit 354 determines the tracking range as a subject range, or a subject range and a subject range (hereinafter simply referred to as both ranges), according to the number of pupil images counted by the pupil deriving unit 350. . For example, the range determination unit 354 sets the tracking range as both ranges when the number of pupil images is 3 or more, and sets the subject range when the number of pupil images is less than 3.

範囲決定部354が、瞳孔導出部350が計数した瞳孔像の数に応じて、追跡範囲を変更することで、鏡110に相対する人の数に応じて適切に追跡範囲を設定することができる。また、反射面110a側に被験者10とともに対象者20が位置すると推測される、瞳孔像の数が3以上である場合、追跡範囲を両範囲とすることで、被験者10が反射面110aに映った自身の鏡像を自身として判断でき、自身の瞳孔の鏡像を見ない場合であっても、他者(対象者20)の鏡像への視認を促すことができ、自閉症の誤診断の確率を低減することが可能となる。また、対象者20は、被験者10が例えば自身の子供等、身内である場合に自閉症の可能性があることを認めたがらない場合が多い。そこで、範囲決定部354が、追跡範囲に対象者範囲を加えることで、被験者10が対象者20の眼すら見ないことを対象者20に知らせることができ、対象者20に被験者10に自閉症の可能性があることを納得させることが可能となる。   The range determination unit 354 can appropriately set the tracking range according to the number of persons facing the mirror 110 by changing the tracking range according to the number of pupil images counted by the pupil deriving unit 350. . When the number of pupil images is estimated to be 3 or more, together with the subject 10 on the reflective surface 110a side, the subject 10 appears on the reflective surface 110a by setting the tracking range to both ranges. Even if it is possible to determine the mirror image of itself and not to see the mirror image of its own pupil, it is possible to prompt the other person (subject 20) to see the mirror image, and to increase the probability of misdiagnosis of autism. It becomes possible to reduce. Moreover, the subject 20 often does not want to admit that there is a possibility of autism when the subject 10 is a relative such as his / her child. Therefore, the range determination unit 354 can notify the subject 20 that the subject 10 does not even see the subject 20's eyes by adding the subject range to the tracking range, and the subject 20 is automatically closed to the subject 10. It is possible to convince that there is a possibility of illness.

視点判定部356は、視線導出部352によって導出された視線情報(視線ベクトル)に基づいて、被験者10の視点が反射面110aにおける所定の追跡範囲内にあるか否かを判定する。視点判定部356による判定処理については、上述した視点判定部156による判定処理と実質的に等しいため重複説明を省略する。   The viewpoint determination unit 356 determines whether or not the viewpoint of the subject 10 is within a predetermined tracking range on the reflecting surface 110a based on the line-of-sight information (line-of-sight vector) derived by the line-of-sight deriving unit 352. Since the determination process by the viewpoint determination unit 356 is substantially the same as the determination process by the viewpoint determination unit 156 described above, a duplicate description is omitted.

(自閉症診断支援方法)
図13は、上述した自閉症診断支援装置300を用いた自閉症診断支援方法の処理の流れを説明するためのフローチャートである。第2の実施形態にかかる自閉症診断支援方法において、上述した第1の実施形態の自閉症診断支援方法における処理S200〜S210、S214〜S230については、実質的に処理が等しいので、同一の符号を付して重複説明を省略する。
(Autism diagnosis support method)
FIG. 13 is a flowchart for explaining the flow of processing of the autism diagnosis support method using the autism diagnosis support apparatus 300 described above. In the autism diagnosis support method according to the second embodiment, the processes S200 to S210 and S214 to S230 in the autism diagnosis support method of the first embodiment described above are substantially the same, and therefore the same. The duplicated explanation is omitted.

図13に示すように、まず、中央制御部316が送信するフレーム同期信号に基づいて、赤外線照射部112が赤外線を照射するとともに、撮像部114a、114bが被験者10を撮像して画像データを生成する(S300)。そして、瞳孔導出部350は、画像データにおける瞳孔像の数を計測する(S302)。   As shown in FIG. 13, first, based on the frame synchronization signal transmitted by the central control unit 316, the infrared irradiation unit 112 irradiates infrared rays, and the imaging units 114a and 114b generate the image data by imaging the subject 10. (S300). Then, the pupil deriving unit 350 measures the number of pupil images in the image data (S302).

そして、範囲決定部354は、瞳孔像の数が3以上であるか否かを判定し(S304)、3未満であれば(S304におけるNO)、各瞳孔におけるY座標の値の最大値からY座標の値の最小値を減算し、減算値が閾値以上あるかを判定する(S306)。そして範囲決定部354は、減算値が閾値未満であれば(S306におけるNO)、反射面110aに相対するのは被験者10のみであると判定し、範囲決定部354は、追跡範囲を被験者範囲に決定する(S308)。   Then, the range determination unit 354 determines whether or not the number of pupil images is 3 or more (S304), and if it is less than 3 (NO in S304), the range determination unit 354 determines Y from the maximum value of the Y coordinate value in each pupil. The minimum value of the coordinate values is subtracted, and it is determined whether the subtraction value is equal to or greater than a threshold value (S306). Then, if the subtraction value is less than the threshold value (NO in S306), range determination unit 354 determines that only subject 10 is opposite to reflection surface 110a, and range determination unit 354 sets the tracking range to the subject range. Determine (S308).

瞳孔数判定処理S304においてYESである場合や、減算値判定処理S306においてYESである場合、被験者10および対象者20が反射面110aに相対していると判定し、範囲決定部354は、追跡範囲を両範囲に決定する(S310)。   If YES in the pupil number determination process S304 or YES in the subtraction value determination process S306, it is determined that the subject 10 and the subject 20 are opposed to the reflecting surface 110a, and the range determination unit 354 determines the tracking range. Are determined in both ranges (S310).

範囲決定部354による範囲決定処理が遂行されると(S308、S310)、中央制御部316はキャリブレーション処理S200を遂行し、処理S202〜S230を遂行する。   When the range determination process is performed by the range determination unit 354 (S308, S310), the central control unit 316 performs the calibration process S200 and performs the processes S202 to S230.

以上説明したように、本実施形態にかかる自閉症診断支援装置300および自閉症診断支援方法によれば、導出した瞳孔の座標における鉛直方向に関する座標値の違いで、被験者10の瞳孔と対象者20の瞳孔とを推測することができるので、従来のように被験者10の瞳孔の位置を導出するための2つの撮像部、対象者20の瞳孔の位置を導出するための2つの撮像部を、集約することが可能となる。   As described above, according to the autism diagnosis support apparatus 300 and the autism diagnosis support method according to the present embodiment, the pupil of the subject 10 and the target can be detected based on the difference in the coordinate values regarding the vertical direction in the coordinates of the derived pupil. Therefore, the two imaging units for deriving the position of the pupil of the subject 10 and the two imaging units for deriving the position of the pupil of the subject 20 as in the past are provided. It becomes possible to aggregate.

また、従来は、被験者10が見る対象の眼(顔)を撮像するための撮像部と、被験者10の視点を導出するための2つの撮像部と、対象者20の瞳孔の位置を導出するための2つの撮像部を必要としていたため、対象者20の瞳孔の座標と、被験者10の視点の座標とを合わせるための座標変換に関する複雑な計算処理を必要としていた。しかし、本実施形態にかかる自閉症診断支援装置300は、2台の撮像部114a、114bのみで被験者10の瞳孔の座標、対象者20の瞳孔の座標、被験者10の視点の座標を導出するため、座標変換に関する複雑な計算処理が不要となり、処理負荷を低減することが可能となる。   Further, conventionally, an imaging unit for imaging the eye (face) to be viewed by the subject 10, two imaging units for deriving the viewpoint of the subject 10, and the position of the pupil of the subject 20 are derived. Therefore, a complicated calculation process related to coordinate conversion for matching the coordinates of the pupil of the subject 20 and the coordinates of the viewpoint of the subject 10 is necessary. However, the autism diagnosis support apparatus 300 according to the present embodiment derives the coordinates of the pupil of the subject 10, the coordinates of the pupil of the subject 20, and the coordinates of the viewpoint of the subject 10 using only the two imaging units 114a and 114b. Therefore, complicated calculation processing relating to coordinate conversion is not required, and the processing load can be reduced.

なお、本実施形態において撮像部114a、114bは、被験者10の瞳孔と角膜反射を高精度(高分解能)で検出する必要があるが、これに対し、対象者20の瞳孔と角膜反射については、瞳孔の位置が導出できればよいので、被験者10よりも高精度でなくてもよい。したがって、撮像部114a、114bは、対象者20よりも被験者10の眼の位置(高さ)に近い位置に設置されるとよい。また、撮像部114a、114bが、短焦点、固定焦点のレンズを採用する場合は、近い対象(被験者10)は、画像データにおいて大きく撮像され、遠くの対象(対象者20)は小さく撮像される。上述したように対象者20については、瞳孔の位置が導出できればよいので、被験者10よりも高精度でなくてもよいため、短焦点、固定焦点のレンズを採用する場合であっても、対象者20の眼の付近画像に関しては、瞳孔の位置を導出できるのに必要な画素数を確保することが可能となる。   In the present embodiment, the imaging units 114a and 114b need to detect the pupil and corneal reflection of the subject 10 with high accuracy (high resolution). On the other hand, for the pupil and corneal reflection of the subject 20, As long as the position of the pupil can be derived, it need not be more accurate than the subject 10. Therefore, the imaging units 114 a and 114 b are preferably installed at positions closer to the eye position (height) of the subject 10 than to the subject 20. In addition, when the imaging units 114a and 114b employ short-focus and fixed-focus lenses, a close target (subject 10) is captured large in the image data, and a distant target (subject 20) is captured small. . As described above, since it is sufficient that the position of the pupil can be derived for the target person 20, it may not be more accurate than the subject 10, so even if a short focus, fixed focus lens is employed, the target person With regard to the vicinity image of the 20 eyes, it is possible to secure the number of pixels necessary for deriving the pupil position.

(第3の実施形態:自閉症診断支援装置500)
上述した第2の実施形態では、瞳孔像の数に応じて、範囲決定部354が、追跡範囲を、被験者範囲または両範囲と決定していた。第3の実施形態では、ユーザ(例えば、医師や検査技師)による操作入力に応じて、追跡範囲を設定することで、測定対象を確実に設定できる自閉症診断支援装置500について説明する。
(Third embodiment: autism diagnosis support apparatus 500)
In the second embodiment described above, the range determination unit 354 determines the tracking range as the subject range or both ranges according to the number of pupil images. In the third embodiment, an autism diagnosis support apparatus 500 that can reliably set a measurement target by setting a tracking range according to an operation input by a user (for example, a doctor or a laboratory technician) will be described.

図14は、第3の実施形態にかかる自閉症診断支援装置500の構成を説明するためのブロック図である。図14に示すように、第3の実施形態にかかる自閉症診断支援装置500は、鏡110と、赤外線照射部112と、撮像部114a、114bと、操作部502と、中央制御部516と、発光部118と、報知部120と、表示部122とを含んで構成される。なお、上述した鏡110、撮像部114a、114b、赤外線照射部112、発光部118、報知部120、表示部122については、実質的に機能が等しいので、同一の符号を付して重複説明を省略し、機能が相違する操作部502、および中央制御部516について詳述する。   FIG. 14 is a block diagram for explaining a configuration of an autism diagnosis support apparatus 500 according to the third embodiment. As shown in FIG. 14, the autism diagnosis support apparatus 500 according to the third embodiment includes a mirror 110, an infrared irradiation unit 112, imaging units 114a and 114b, an operation unit 502, a central control unit 516, and the like. The light emitting unit 118, the notification unit 120, and the display unit 122 are included. Since the mirror 110, the imaging units 114a and 114b, the infrared irradiation unit 112, the light emitting unit 118, the notification unit 120, and the display unit 122 described above have substantially the same functions, the same reference numerals are given and redundant description is given. The operation unit 502 and the central control unit 516, which are omitted and have different functions, will be described in detail.

操作部502は、操作キー、十字キー、ジョイスティック、表示部122の表示面に重畳されたタッチパネル等で構成され、ユーザ(例えば、医師や検査技師)の操作入力を受け付ける。また、遠隔操作のためのリモートコントローラが設けられる場合、当該リモートコントローラも操作部502として機能する。   The operation unit 502 includes an operation key, a cross key, a joystick, a touch panel superimposed on the display surface of the display unit 122, and the like, and receives an operation input from a user (for example, a doctor or a laboratory technician). When a remote controller for remote operation is provided, the remote controller also functions as the operation unit 502.

中央制御部516は、CPU(中央処理装置)を含む半導体集積回路で構成され、ROMからCPU自体を動作させるためのプログラムやパラメータ等を読み出し、ワークエリアとしてのRAMや他の電子回路と協働して自閉症診断支援装置500全体を管理および制御する。また、中央制御部516は、瞳孔導出部350、視線導出部352、範囲設定部554、視点判定部356として機能する。なお、上述した瞳孔導出部350、視線導出部352、視点判定部356については、実質的に機能が等しいので、同一の符号を付して重複説明を省略する。   The central control unit 516 is composed of a semiconductor integrated circuit including a CPU (central processing unit), reads programs and parameters for operating the CPU itself from the ROM, and cooperates with the RAM as a work area and other electronic circuits. Thus, the entire autism diagnosis support apparatus 500 is managed and controlled. The central control unit 516 functions as a pupil deriving unit 350, a line-of-sight deriving unit 352, a range setting unit 554, and a viewpoint determining unit 356. Note that the pupil deriving unit 350, the line-of-sight deriving unit 352, and the viewpoint determining unit 356 described above have substantially the same functions, and thus the same reference numerals are given and redundant description is omitted.

範囲設定部554は、ユーザによる操作部502への操作入力に応じて、追跡範囲を、被験者範囲、両範囲、対象者範囲のいずれかとする。これにより、ユーザ入力に応じて、予め追跡範囲を設定することができるので、測定対象を確実に設定することが可能となる。   The range setting unit 554 sets the tracking range to any one of the subject range, both ranges, and the subject range in accordance with an operation input to the operation unit 502 by the user. Thereby, since the tracking range can be set in advance according to the user input, it becomes possible to set the measurement target with certainty.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.

例えば、上述した瞳孔の位置導出方法や、視線の導出方法に限らず、瞳孔の位置、視線の導出、視点の位置が導出できれば、他の方法を採用してもよい。   For example, the present invention is not limited to the above-described pupil position derivation method and line-of-sight derivation method, and other methods may be adopted as long as the pupil position, line-of-sight derivation, and viewpoint position can be derived.

また、上述した実施形態において、鏡110の水平方向の幅を、瞳孔導出部150、350が瞳孔の位置を導出可能な画像データを生成できる2つの撮像部114a、114bの距離の上限値未満としているため、鏡110の両側端部110bの近傍に撮像部114a、114bを配している。しかし、鏡の水平方向の幅が、瞳孔導出部150、350が瞳孔の位置を導出可能な画像データを生成できる2つの撮像部114a、114bの距離の上限値以上であったとしても、鏡の下方に撮像部114a、114bを配したり、鏡をくり抜いて孔部を形成し、当該孔部に撮像部114a、114bを配したりしてもよい。なお、この場合であっても撮像部114a、114b間の基線長は、瞳孔導出部150、350が瞳孔の位置を導出可能な画像データを生成できる2つの撮像部114a、114bの距離の上限値未満とする。   In the above-described embodiment, the horizontal width of the mirror 110 is set to be less than the upper limit value of the distance between the two imaging units 114a and 114b that can generate image data from which the pupil deriving units 150 and 350 can derive the position of the pupil. Therefore, the imaging units 114 a and 114 b are arranged in the vicinity of the both side end portions 110 b of the mirror 110. However, even if the horizontal width of the mirror is greater than or equal to the upper limit of the distance between the two imaging units 114a and 114b that can generate image data from which the pupil deriving units 150 and 350 can derive the position of the pupil, The imaging units 114a and 114b may be arranged below, or a mirror may be cut out to form a hole, and the imaging units 114a and 114b may be arranged in the hole. Even in this case, the base line length between the imaging units 114a and 114b is the upper limit value of the distance between the two imaging units 114a and 114b that can generate image data from which the pupil deriving units 150 and 350 can derive the position of the pupil. Less than.

また、上述した実施形態において、第1照射部112aおよび第2照射部112bの双方が撮像部114a、114bのそれぞれに設けられる場合を例に挙げて説明したが、第1照射部112aおよび第2照射部112bの設置位置に限定はない。例えば、第1照射部112aが撮像部114aに、第2照射部112bが撮像部114bに設けられてもよいし、第2照射部112bが撮像部114aに、第1照射部112aが撮像部114bに設けられてもよい。   In the above-described embodiment, the case where both the first irradiation unit 112a and the second irradiation unit 112b are provided in the imaging units 114a and 114b has been described as an example. However, the first irradiation unit 112a and the second irradiation unit 112b are described as examples. There is no limitation in the installation position of the irradiation part 112b. For example, the first irradiation unit 112a may be provided in the imaging unit 114a, the second irradiation unit 112b may be provided in the imaging unit 114b, the second irradiation unit 112b may be provided in the imaging unit 114a, and the first irradiation unit 112a may be provided in the imaging unit 114b. May be provided.

また、上述したキャリブレーション処理では、1の発光部118を点灯させてキャリブレーションを行う例について説明したが、2以上のいずれかの数の発光部118を点灯させてキャリブレーションを行ってもよい。キャリブレーションに用いる発光部118の数を少なくするほどキャリブレーションに要する時間を短縮することができ、キャリブレーションに用いる発光部118の数を多くするほどキャリブレーションの精度を向上させることが可能となる。   In the above-described calibration process, an example in which calibration is performed by turning on one light emitting unit 118 has been described. However, calibration may be performed by lighting any number of light emitting units 118 equal to or greater than two. . As the number of light emitting units 118 used for calibration is reduced, the time required for calibration can be shortened, and as the number of light emitting units 118 used for calibration is increased, the calibration accuracy can be improved. .

また、上述した実施形態において、中央制御部316が被験者10に対してキャリブレーション処理を遂行する場合を例に挙げて説明したが、中央制御部316は、対象者20に対してもキャリブレーション処理を遂行してもよい。こうすることで、被験者10の瞳孔の位置のみならず対象者20の瞳孔の位置を精度よく導出することが可能となる。   In the above-described embodiment, the case where the central control unit 316 performs the calibration process on the subject 10 has been described as an example. However, the central control unit 316 also performs the calibration process on the subject 20. May be performed. By doing so, it is possible to accurately derive not only the position of the pupil of the subject 10 but also the position of the pupil of the subject 20.

なお、本明細書の自閉症診断支援方法およびキャリブレーション処理における各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。   Note that each step in the autism diagnosis support method and calibration process of the present specification does not necessarily have to be processed in time series in the order described in the flowchart, and may include processes in parallel or by a subroutine. .

本発明は、自閉症の診断を支援するための自閉症診断支援装置、および自閉症診断支援方法に利用することができる。   The present invention can be used for an autism diagnosis support apparatus and an autism diagnosis support method for supporting diagnosis of autism.

100、300、500 …自閉症診断支援装置
110 …鏡
110a …反射面
112 …赤外線照射部
114a …撮像部
114b …撮像部
118 …発光部
120 …報知部
122 …表示部
150、350 …瞳孔導出部
152、352 …視線導出部
154、354 …範囲決定部
156、356 …視点判定部
554 …範囲設定部
100, 300, 500 ... Autism diagnosis support device 110 ... Mirror 110a ... Reflecting surface 112 ... Infrared irradiation part 114a ... Imaging part 114b ... Imaging part 118 ... Light emitting part 120 ... Notification part 122 ... Display part 150, 350 ... Pupil derivation Units 152 and 352 ... line-of-sight derivation units 154 and 354 ... range determination units 156 and 356 ... viewpoint determination unit 554 ... range setting unit

Claims (8)

鏡と、
前記鏡の反射面側に位置する被験者に向かって赤外線を照射する赤外線照射部と、
前記鏡における水平方向の両側方に配され、少なくとも前記被験者で反射した前記赤外線の反射光を撮像して、水平視差を有する2つの画像データを生成する2つの撮像部と、
前記撮像部によって生成された画像データに基づいて、前記被験者の瞳孔の位置を導出する瞳孔導出部と、
前記瞳孔導出部によって導出された前記瞳孔の位置に基づいて、前記被験者の視線を示す視線情報を導出する視線導出部と、
前記視線導出部によって導出された視線情報に基づいて、前記被験者の視点が前記反射面における所定の追跡範囲内にあるか否かを判定する視点判定部と、
を備え
前記追跡範囲は、前記被験者の視点における前記反射面上の前記被験者の瞳孔の鏡像の位置に基づく範囲である被験者範囲とすることを特徴とする自閉症診断支援装置。
With a mirror,
An infrared irradiation unit that irradiates infrared rays toward the subject located on the reflecting surface side of the mirror;
Two imaging units that are arranged on both sides of the mirror in the horizontal direction and that capture at least the reflected infrared light reflected by the subject to generate two image data having a horizontal parallax;
A pupil deriving unit for deriving a position of the pupil of the subject based on the image data generated by the imaging unit;
A line-of-sight deriving unit for deriving line-of-sight information indicating the line of sight of the subject based on the position of the pupil derived by the pupil deriving unit;
A viewpoint determination unit that determines whether or not the viewpoint of the subject is within a predetermined tracking range on the reflecting surface, based on the line-of-sight information derived by the line-of-sight deriving unit;
Equipped with a,
The autism diagnosis support apparatus , wherein the tracking range is a subject range that is a range based on a position of a mirror image of the subject's pupil on the reflecting surface at the subject's viewpoint .
前記鏡の水平方向の幅は、前記瞳孔導出部が瞳孔の位置を導出可能な画像データを生成できる前記2つの撮像部の距離の上限値未満であることを特徴とする請求項1に記載の自閉症診断支援装置。   The horizontal width of the mirror is less than an upper limit value of a distance between the two imaging units capable of generating image data from which the pupil deriving unit can derive the position of the pupil. Autism diagnosis support device. 前記鏡の反射面側には、前記被験者とともに前記被験者とは異なる対象者が位置しており、
前記追跡範囲は、前記被験者における前記反射面上の前記対象者の瞳孔の鏡像の位置に基づく範囲である対象者範囲とすることを特徴とする請求項またはに記載の自閉症診断支援装置。
On the reflective surface side of the mirror, a subject different from the subject is located together with the subject,
The tracking range, autism according to claim 1 or 2, characterized in that as a range based on the position of the mirror image of the subject's pupil on the reflecting surface in visual point of the subject subject range Diagnosis support device.
前記瞳孔導出部は、前記撮像部が生成した画像データ中における瞳孔像の数を計数し、
前記瞳孔導出部が計数した瞳孔像の数に応じて、前記追跡範囲を、前記被験者範囲、または、前記被験者範囲および前記対象者範囲に決定する範囲決定部をさらに備えたことを特徴とする請求項3に記載の自閉症診断支援装置。
The pupil deriving unit counts the number of pupil images in the image data generated by the imaging unit,
The apparatus further comprises a range determining unit that determines the tracking range as the subject range or the subject range and the subject range according to the number of pupil images counted by the pupil deriving unit. Item 4. The autism diagnosis support apparatus according to Item 3 .
ユーザ入力に応じて、前記追跡範囲を、前記被験者範囲、および、前記対象者範囲のいずれか一方または両方とする範囲設定部をさらに備えたことを特徴とする請求項3または4に記載の自閉症診断支援装置。 5. The apparatus according to claim 3 , further comprising a range setting unit configured to set the tracking range as one or both of the subject range and the target range according to a user input. Autism diagnosis support device. 前記鏡の反射面側から前記被験者側に光を照射する発光部と、
前記発光部への視認を促す報知部と、
備えたことを特徴とする請求項1からのいずれか1項に記載の自閉症診断支援装置。
A light emitting unit that emits light from the reflecting surface side of the mirror to the subject side;
An informing unit for prompting the light emitting unit to be visually recognized;
Autism diagnosis support apparatus according to claim 1, any one of 5, characterized in that it comprises a.
鏡と、前記鏡の反射面側に位置する被験者に向かって赤外線を照射する赤外線照射部と、前記鏡における水平方向の両側方に配され、少なくとも前記被験者で反射した前記赤外線の反射光を撮像して、水平視差を有する2つの画像データを生成する2つの撮像部と、を用いた自閉症診断支援方法であって、
前記撮像部によって生成された画像データに基づいて、前記被験者の瞳孔の位置を導出し、
導出した前記瞳孔の位置に基づいて、前記被験者の視線を示す視線情報を導出し、
導出した前記視線情報に基づいて、前記被験者の視点が前記反射面における所定の追跡範囲内にあるか否かを判定するとし、
前記追跡範囲は、前記被験者の視点における前記反射面上の前記被験者の瞳孔の鏡像の位置に基づく範囲である被験者範囲とすることを特徴とする自閉症診断支援方法。
A mirror, an infrared irradiator for irradiating infrared rays toward a subject located on the reflecting surface side of the mirror, and an image of the infrared reflected light reflected by at least the subject, arranged on both sides of the mirror in the horizontal direction An autism diagnosis support method using two imaging units that generate two image data having horizontal parallax,
Based on the image data generated by the imaging unit, the position of the pupil of the subject is derived,
Based on the derived position of the pupil, deriving gaze information indicating the gaze of the subject ,
Based on the derived line-of-sight information, it is determined whether or not the subject's viewpoint is within a predetermined tracking range on the reflecting surface;
The autism diagnosis support method , wherein the tracking range is a subject range that is a range based on a position of a mirror image of the subject's pupil on the reflecting surface at the subject's viewpoint .
前記鏡の反射面側には、前記被験者とともに前記被験者とは異なる対象者が位置しており、
前記撮像部が生成した画像データ中における瞳孔像の数を計数し、
計数した前記瞳孔像の数に応じて、前記追跡範囲を、前記被験者における前記反射面上の前記被験者の瞳孔の鏡像の位置に基づく範囲である被験者範囲、または、前記被験者範囲および前記被験者における前記反射面上の前記被験者の瞳孔の鏡像の位置に基づく範囲である対象者範囲に決定することを特徴とする請求項に記載の自閉症診断支援方法。
On the reflective surface side of the mirror, a subject different from the subject is located together with the subject,
Count the number of pupil images in the image data generated by the imaging unit,
Depending on the number of the pupil image obtained by counting the tracking range, the subject content is in the range based on the position of the mirror image of the subject's pupil on the reflecting surface of the Viewpoint of the subject, or the subject range and the autism diagnosis support method according to claim 7, characterized in that determining the subject content is in the range based on the position of the mirror image of the subject's pupil on the reflecting surface of the Viewpoint of the subject.
JP2012012142A 2012-01-24 2012-01-24 Autism diagnosis support device and autism diagnosis support method Active JP5761049B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012012142A JP5761049B2 (en) 2012-01-24 2012-01-24 Autism diagnosis support device and autism diagnosis support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012012142A JP5761049B2 (en) 2012-01-24 2012-01-24 Autism diagnosis support device and autism diagnosis support method

Publications (2)

Publication Number Publication Date
JP2013150669A JP2013150669A (en) 2013-08-08
JP5761049B2 true JP5761049B2 (en) 2015-08-12

Family

ID=49047605

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012012142A Active JP5761049B2 (en) 2012-01-24 2012-01-24 Autism diagnosis support device and autism diagnosis support method

Country Status (1)

Country Link
JP (1) JP5761049B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021192704A1 (en) 2020-03-27 2021-09-30 国立大学法人大阪大学 Cognitive impairment diagnostic device and cognitive impairment diagnostic program
US11583221B2 (en) 2017-11-14 2023-02-21 Osaka University Cognitive impairment diagnostic apparatus and cognitive impairment diagnostic program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015046111A (en) * 2013-08-29 2015-03-12 株式会社Jvcケンウッド Viewpoint detection device and viewpoint detection method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4517049B2 (en) * 2003-12-25 2010-08-04 国立大学法人静岡大学 Gaze detection method and gaze detection apparatus
JP4500992B2 (en) * 2004-01-14 2010-07-14 国立大学法人静岡大学 3D viewpoint measuring device
JP2005192637A (en) * 2003-12-26 2005-07-21 Advanced Inst Of Wearable Environmental Information Networks Brain function measuring method and system
US8371693B2 (en) * 2010-03-30 2013-02-12 National University Corporation Shizuoka University Autism diagnosis support apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11583221B2 (en) 2017-11-14 2023-02-21 Osaka University Cognitive impairment diagnostic apparatus and cognitive impairment diagnostic program
WO2021192704A1 (en) 2020-03-27 2021-09-30 国立大学法人大阪大学 Cognitive impairment diagnostic device and cognitive impairment diagnostic program

Also Published As

Publication number Publication date
JP2013150669A (en) 2013-08-08

Similar Documents

Publication Publication Date Title
US8371693B2 (en) Autism diagnosis support apparatus
JP5230748B2 (en) Gaze direction determination device and gaze direction determination method
WO2015146491A1 (en) Detection device and detection method
US20140031701A1 (en) Otoscanner With 3D Imaging And Structure-From-Motion
WO2015080104A1 (en) Line-of-sight detection assistance device and line-of-sight detection assistance method
JP2014018484A (en) Diagnosis support apparatus and diagnosis support method
KR101200096B1 (en) System for tracking gaze and Method thereof
JP5761049B2 (en) Autism diagnosis support device and autism diagnosis support method
JP5761048B2 (en) Autism diagnosis support device and autism diagnosis support method
JP2016032587A (en) Diagnosis support apparatus and diagnosis support method
JP2015177953A (en) Diagnosis support apparatus and diagnosis support method
JP6856017B2 (en) Corneal reflex position detection device, line-of-sight detection device and corneal reflex position detection method
JP2015144635A (en) detection device and detection method
JP6019684B2 (en) Diagnosis support apparatus and diagnosis support method
RU2352244C2 (en) Method of measurement of fast movements of eyes and deviations of solid vision and device for its realisation
JP5971061B2 (en) Gaze point detection device, gaze point detection method, diagnosis support device, operation method and program for diagnosis support device
JP5838894B2 (en) Diagnosis support apparatus and diagnosis support method
JP2017162233A (en) Visual line detection device and visual line detection method
JP2021145914A (en) Ophthalmologic apparatus and operation method for the same
JP6187347B2 (en) Detection apparatus and detection method
JP6269177B2 (en) Pupil detection device, gaze detection device, and pupil detection method
US8967803B2 (en) Image capturing apparatus and auto-focusing method thereof
JP6003277B2 (en) Diagnosis support apparatus and diagnosis support method
US20210393120A1 (en) Vision screening systems and methods
US20210244270A1 (en) Visual performance examination device, visual performance examination method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150210

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150512

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150525

R150 Certificate of patent or registration of utility model

Ref document number: 5761049

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150