JP5817582B2 - Brain function disease diagnosis support apparatus and brain function disease diagnosis support method - Google Patents

Brain function disease diagnosis support apparatus and brain function disease diagnosis support method Download PDF

Info

Publication number
JP5817582B2
JP5817582B2 JP2012035798A JP2012035798A JP5817582B2 JP 5817582 B2 JP5817582 B2 JP 5817582B2 JP 2012035798 A JP2012035798 A JP 2012035798A JP 2012035798 A JP2012035798 A JP 2012035798A JP 5817582 B2 JP5817582 B2 JP 5817582B2
Authority
JP
Japan
Prior art keywords
unit
subject
image
brain function
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012035798A
Other languages
Japanese (ja)
Other versions
JP2013169375A (en
Inventor
成澤 賢司
賢司 成澤
速水 淳
淳 速水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2012035798A priority Critical patent/JP5817582B2/en
Publication of JP2013169375A publication Critical patent/JP2013169375A/en
Application granted granted Critical
Publication of JP5817582B2 publication Critical patent/JP5817582B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Eye Examination Apparatus (AREA)

Description

本発明は、脳機能疾患の診断を支援するための脳機能疾患診断支援装置および脳機能疾患診断支援方法に関する。   The present invention relates to a brain function disease diagnosis support apparatus and a brain function disease diagnosis support method for supporting diagnosis of a brain function disease.

近年、医療の高度化等により高齢化が進行しており、高齢化に伴って脳機能疾患の患者数は、大幅に増加している。脳機能疾患のうち、特に認知症患者の増加が認められており、例えば、2007年の認知症予防国際会議(International Conference on Prevention of Dementia)(米アルツハイマー協会主催、於:米国ワシントンD.C.)において、アルツハイマー型認知症患者の数が現状のように増加し続けると、2050年には世界の患者数は1億人を超える可能性があると報告されている。   In recent years, aging has progressed due to the advancement of medical care and the like, and the number of patients with cerebral function diseases has increased significantly with aging. Among brain function disorders, an increase in the number of patients with dementia has been recognized. For example, the International Conference on Prevention of Dementia in 2007 (sponsored by the Alzheimer's Association in Washington DC, USA) ), If the number of Alzheimer-type dementia patients continues to increase as they are now, it is reported that the number of patients in the world may exceed 100 million in 2050.

認知症には、上述したアルツハイマー型認知症や、脳血管障害性認知症などの老人性認知症があるが、アルツハイマー型認知症と、老人性認知症とでは、使用される薬物や治療法が異なる。しかし、疾患の初期の段階では、双方の判別が難しい。特にアルツハイマー型認知症は、その進行を遅延させる新薬が開発されており、治療のために、疾患の初期の段階における正確な判別法の開発が希求されている。   Dementia includes Alzheimer-type dementia and senile dementia such as cerebrovascular dementia. Alzheimer-type dementia and senile dementia use different drugs and treatments. Different. However, in the early stage of the disease, it is difficult to distinguish both. In particular, for Alzheimer-type dementia, new drugs that delay the progression of the disease have been developed, and the development of an accurate discrimination method in the early stage of the disease is desired for treatment.

アルツハイマー型認知症では初期の段階において、対象物の位置関係や大きさ、遠近感の把握ができなくなる視空間知覚障害が認められる(例えば、非特許文献1)。アルツハイマー型認知症がさらに進行すると、人や周囲の状況、時間、場所など自分自身が置かれている状況が正しく認識できない見当識障害や、人物に対する失認、相貌失認や人物誤認によって家族の識別もできなくなる症状が認められる。   In Alzheimer-type dementia, visuospatial perception disorder in which the positional relationship, size, and perspective of an object cannot be grasped is recognized at an early stage (for example, Non-Patent Document 1). As Alzheimer's dementia progresses further, misunderstandings of people who are not able to correctly recognize the situation in which they are placed, such as people, their surroundings, time, and location, disapproval of persons, disapproval of faces, and misidentification of persons, Symptoms that cannot be identified are observed.

従来、初期の段階において疾患を診断するために、医師が質問し被験者が回答することで、アルツハイマー型認知症であるか否かを判定する改定長谷川式簡易知能評価スケールが採用されている。   Conventionally, in order to diagnose a disease at an early stage, a revised Hasegawa simplified intelligence evaluation scale is adopted in which a doctor asks a question and a subject answers to determine whether or not the patient has Alzheimer-type dementia.

また、アルツハイマー型認知症は、視空間知覚の障害があるか否かで診断することができる。したがって、非侵襲的検査であるため被験者への負担が少ない、眼球運動の検査を通じて、視空間知覚の障害の有無を検出する技術の開発が期待されている。   Further, Alzheimer's dementia can be diagnosed based on whether or not there is a visual space perception disorder. Therefore, it is expected to develop a technique for detecting the presence or absence of visuospatial perception through an eye movement test, which is a non-invasive test and places less burden on the subject.

そこで、被験者の眼球運動および頭部運動を検出して被験者の視線の動きを導出し、かかる視線の動きの軌跡を表示する装置が開発されている(例えば、特許文献1)。また、縮瞳時や散瞳時における被験者の瞳孔の大きさを計測することで、アルツハイマー型認知症の診断を行う技術も開発されている(例えば、特許文献2)。   Therefore, an apparatus has been developed that detects the eye movement and head movement of the subject, derives the movement of the subject's line of sight, and displays the locus of the movement of the line of sight (for example, Patent Document 1). In addition, a technique for diagnosing Alzheimer-type dementia by measuring the size of a subject's pupil at the time of miosis or mydriasis has been developed (for example, Patent Document 2).

特公平6−53107号公報Japanese Examined Patent Publication No. 6-53107 特開2002−34920号公報JP 2002-34920 A

認知症の臨床と病態 東海林幹夫(臨床神経学,第48巻7号:467-475, 2008)Clinical and pathological conditions of dementia Mikio Tokaibayashi (Clinical Neurology, Vol. 48, No. 7, 467-475, 2008)

しかし、上述した特許文献1の技術では、被験者の視線の動きの軌跡を表示することはできるが、被験者が視野のどこを注視しているかを導出することはできない。また、被験者の視線の動きの軌跡についての表示を目的としているため、特許文献1の技術のみでは、被験者が脳機能疾患に罹患しているか否か、また罹患している場合、アルツハイマー型認知症であるのか、または、脳機能疾患の一種である自閉症であるのかを診断することはできない。したがって、特許文献1の技術を利用して診断を行ったとしても、医師の経験や、能力によって診断結果に差異が生じるおそれがある。   However, although the technique of Patent Document 1 described above can display the trajectory of the subject's line of sight, it cannot derive where the subject is gazing. Moreover, since it aims at the display about the locus | trajectory of a test subject's eyes | visual_axis, only the technique of patent document 1 WHEREIN: Whether a test subject suffers from a brain functional disease, and when suffering, Alzheimer type dementia Or autism, a type of brain function disease, cannot be diagnosed. Therefore, even if a diagnosis is performed using the technique of Patent Document 1, there is a possibility that a difference in the diagnosis results may occur depending on the experience and ability of the doctor.

本発明は、このような課題に鑑み、簡易な構成で、被験者が注視している箇所(注視点)を導出するとともに、かかる注視点を解析することで、脳機能疾患に罹患している可能性を定量的に導出することが可能な脳機能疾患診断支援装置、および脳機能疾患診断支援方法を提供することを目的としている。   In view of such a problem, the present invention derives a point (gaze point) where the subject is gazing with a simple configuration and analyzes the gaze point, thereby possibly suffering from a brain function disease. It is an object of the present invention to provide a brain function disease diagnosis support apparatus and a brain function disease diagnosis support method that can quantitatively derive sex.

上記課題を解決するために、本発明の脳機能疾患診断支援装置は、被験者に視認させるための画像を表示する画像表示部と、画像表示部における表示面に表示された画像を複数のブロックに分割するブロック分割部と、被験者に向かって赤外線を照射する赤外線照射部と、少なくとも被験者で反射した赤外線の反射光を撮像して、水平視差を有する2つの画像データを生成する2つの撮像部と、撮像部が生成した2つの画像データに基づいて、被験者の瞳孔の位置を算出する瞳孔算出部と、瞳孔算出部が算出した瞳孔の位置に基づいて、被験者の視線を示す視線情報を算出する視線算出部と、視線算出部が算出した視線情報に基づいて、複数のブロックごとに、被験者の注視点があるか否かを導出する注視点導出部と、注視点導出部が導出した結果をブロックごとに蓄積する情報蓄積部と、情報蓄積部が蓄積した結果に基づいて所定の演算を行い、被験者の脳機能疾患の可能性があるか否かを判定する演算部と、を備え、ブロックにおいて画像表示部が表示する画像は、複数のブロックごとに関連付けられており、演算部は、ブロックごとの画像の内容に基づく診断対象とする疾患の種類に対応する重み付けをして所定の演算を行うことを特徴とする。 In order to solve the above-described problem, the brain function disease diagnosis support apparatus of the present invention includes an image display unit that displays an image to be viewed by a subject, and an image displayed on the display surface of the image display unit in a plurality of blocks. A block dividing unit that divides, an infrared irradiating unit that irradiates infrared rays toward the subject, and two imaging units that generate at least two pieces of image data having horizontal parallax by imaging infrared reflected light reflected by the subject. Based on the two image data generated by the imaging unit, a pupil calculation unit that calculates the position of the pupil of the subject, and gaze information that indicates the line of sight of the subject based on the position of the pupil calculated by the pupil calculation unit Based on the line-of-sight calculation unit, the line-of-sight information calculated by the line-of-sight calculation unit, a gaze point deriving unit for deriving whether or not there is a subject's gaze point for each of a plurality of blocks, and a gaze point deriving unit Results and information storage section for storing for each block, performs a predetermined calculation based on the result information storage unit has accumulated, and a computation section for determining the possibility whether there is a subject's brain function disorders The image displayed by the image display unit in the block is associated with each of the plurality of blocks, and the calculation unit performs weighting corresponding to the type of disease to be diagnosed based on the content of the image for each block and performs a predetermined process. It is characterized by performing an operation .

所定の演算は、ニューラルネットワーク、ナイーブベイズ、ベイジアンネットワーク、および決定木法の群から選択されるいずれか1であるとしてもよい。   The predetermined operation may be any one selected from the group of a neural network, a naive Bayes, a Bayesian network, and a decision tree method.

上記課題を解決するために、被験者に視認させるための画像を表示する画像表示部を用いた、本発明の脳機能疾患診断支援方法は、画像表示部は、被験者に視認させるための画像を表示し、画像表示部における表示面に表示された画像を複数のブロックに分割し、ブロックにおいて画像表示部が表示する画像を、複数のブロックごとに関連付け、被験者に向かって赤外線を照射し、少なくとも被験者で反射した赤外線の反射光を撮像して、水平視差を有する2つの画像データを生成し、生成した2つの画像データに基づいて、被験者の瞳孔の位置を算出し、算出した瞳孔の位置に基づいて、被験者の視線を示す視線情報を算出し、算出した視線情報に基づいて、複数のブロックごとに、被験者の注視点があるか否かを導出し、導出した結果をブロックごとに蓄積し、蓄積した結果を参照し、ブロックごとの画像の内容に基づく診断対象とする疾患の種類に対応する重み付けをして所定の演算を行うことを特徴とする。 In order to solve the above problem, the brain function disease diagnosis support method of the present invention using an image display unit that displays an image for the subject to visually recognize, the image display unit displays an image for the subject to visually recognize Then, the image displayed on the display surface of the image display unit is divided into a plurality of blocks, the image displayed by the image display unit in the block is associated with each of the plurality of blocks, and infrared rays are irradiated toward the subject, at least the subject Infrared reflected light reflected in the step is imaged to generate two image data having horizontal parallax, the position of the pupil of the subject is calculated based on the two generated image data, and based on the calculated pupil position And calculating gaze information indicating the gaze of the subject, deriving whether there is a gaze point of the subject for each of a plurality of blocks based on the computed gaze information, and obtaining the derived result Accumulating for each lock, with reference to the accumulated result, by weighting corresponding to the type of disease to be diagnosed based on the contents of the image of each block, characterized the TURMERIC line a predetermined operation.

本発明によれば、簡易な構成で、被験者の注視点の位置を導出するとともに、かかる注視点を解析することで、脳機能疾患に罹患している可能性を定量的に導出することが可能となる。   According to the present invention, it is possible to derive the possibility of suffering from a brain function disease quantitatively by deriving the position of the gaze point of the subject with a simple configuration and analyzing the gaze point. It becomes.

脳機能疾患診断支援装置と被験者との配置関係を説明するための図である。It is a figure for demonstrating the arrangement | positioning relationship between a brain function disease diagnosis assistance apparatus and a test subject. 脳機能疾患診断支援装置の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of a brain function disease diagnosis assistance apparatus. 画像表示部に表示された検査用画像を説明するための図である。It is a figure for demonstrating the image for a test | inspection displayed on the image display part. ブロック分割部による処理を説明するための図である。It is a figure for demonstrating the process by a block division part. 瞳孔算出部による角膜反射像算出処理および視線算出部による視線算出処理を説明するための図である。It is a figure for demonstrating the cornea reflection image calculation process by a pupil calculation part, and the gaze calculation process by a gaze calculation part. 脳機能疾患診断支援装置を用いた脳機能疾患診断支援方法の処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of a process of the brain function disease diagnosis support method using a brain function disease diagnosis support apparatus. ブロックとニューラルネットワークとの関係を説明するための図である。It is a figure for demonstrating the relationship between a block and a neural network. 変形例にかかる脳機能疾患診断支援方法の処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of a process of the brain function disease diagnosis support method concerning a modification. 注視ブロックパターンを説明するための図である。It is a figure for demonstrating a gaze block pattern. 各ブロックへの条件付き確率の設定を説明するための図である。It is a figure for demonstrating the setting of the conditional probability to each block.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiments are merely examples for facilitating the understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

(脳機能疾患診断支援装置100)
図1は、脳機能疾患診断支援装置100と被験者10との配置関係を説明するための図であり、図2は、脳機能疾患診断支援装置100の構成を説明するためのブロック図である。
(Brain function disease diagnosis support apparatus 100)
FIG. 1 is a diagram for explaining the positional relationship between the brain function disease diagnosis support apparatus 100 and the subject 10, and FIG. 2 is a block diagram for explaining the configuration of the brain function disease diagnosis support apparatus 100.

図1に示すように、脳機能疾患診断支援装置100を構成する画像表示部114の表示面114a側に、被験者10を位置させておき、画像表示部114の近傍に設けられた2つの撮像部118a、118b(図1では、撮像部118aのみを示す)を用いて、被験者10を撮像して画像データ(以下、診断用画像データと称する)を生成する。そして、脳機能疾患診断支援装置100は、撮像部118a、118bが生成した診断用画像データに基づいて被験者10の視線を示す視線情報を導出する。   As shown in FIG. 1, the subject 10 is positioned on the display surface 114 a side of the image display unit 114 constituting the brain function disease diagnosis support apparatus 100, and two imaging units provided in the vicinity of the image display unit 114. The subject 10 is imaged using 118a, 118b (only the imaging unit 118a is shown in FIG. 1) to generate image data (hereinafter referred to as diagnostic image data). The brain function disease diagnosis support apparatus 100 derives line-of-sight information indicating the line of sight of the subject 10 based on the diagnostic image data generated by the imaging units 118a and 118b.

脳機能疾患のうち、アルツハイマー型認知症は、対象物の位置関係や大きさ、遠近感の把握ができなくなる視空間知覚障害が認められるという特徴がある。一方、脳機能疾患のうち、自閉症は、幼児期において、対面する他者の目を見ないことが多いという特徴がある。   Among brain function disorders, Alzheimer-type dementia is characterized by visuospatial perceptual impairment that makes it impossible to grasp the positional relationship, size, and perspective of an object. On the other hand, among brain function disorders, autism is characterized in that it often does not see the eyes of other people who face each other in early childhood.

そこで、本実施形態にかかる脳機能疾患診断支援装置100は、被験者10の注視している箇所(注視点)が画像表示部114が表示した画像(検査用画像)上のどの位置にあるかを統計的に処理することにより、アルツハイマー型認知症や自閉症等の脳機能疾患に罹患している可能性を判定する。以下、脳機能疾患診断支援装置100の具体的な構成について説明する。   Therefore, the brain function disease diagnosis support apparatus 100 according to the present embodiment determines the position on the image (test image) displayed by the image display unit 114 where the subject 10 is gazing (gaze point). The possibility of suffering from a brain function disorder such as Alzheimer type dementia or autism is determined by statistical processing. Hereinafter, a specific configuration of the brain function disease diagnosis support apparatus 100 will be described.

図2に示すように、脳機能疾患診断支援装置100は、I/F部110と、記憶部112と、画像表示部114と、赤外線照射部116a、116bと、撮像部118a、118bと、中央制御部120と、音声出力部122と、診断用表示部124とを含んで構成される。   As shown in FIG. 2, the brain function disease diagnosis support apparatus 100 includes an I / F unit 110, a storage unit 112, an image display unit 114, infrared irradiation units 116a and 116b, imaging units 118a and 118b, The control unit 120 includes an audio output unit 122 and a diagnostic display unit 124.

I/F部110は、インターネット、LAN(Local Area Network)等の通信網102を介して、例えば医療機関の電子カルテを管理するサーバと接続し、データの送受信を行う。   The I / F unit 110 is connected to, for example, a server that manages an electronic medical record of a medical institution via a communication network 102 such as the Internet or a LAN (Local Area Network), and transmits and receives data.

記憶部112は、RAM(Random Access Memory)、HDD(Hard Disk Drive)、フラッシュメモリ、不揮発性RAM等の記憶媒体で構成され、様々な情報を記憶する。本実施形態において記憶部112は、被験者10に視認させるための画像(以下、検査用画像と称する)データや、被験者10に画像の視認を促すための音声データを予め記憶している。   The storage unit 112 includes a storage medium such as a random access memory (RAM), a hard disk drive (HDD), a flash memory, and a nonvolatile RAM, and stores various pieces of information. In the present embodiment, the storage unit 112 stores in advance image data (hereinafter referred to as an inspection image) data to be visually recognized by the subject 10 and audio data for prompting the subject 10 to visually recognize the image.

画像表示部114は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等で構成され、記憶部112に記憶された検査用画像データに基づき、検査用画像を表示する。検査用画像については、後に詳述する。   The image display unit 114 includes a liquid crystal display, an organic EL (Electro Luminescence) display, and the like, and displays an inspection image based on the inspection image data stored in the storage unit 112. The inspection image will be described in detail later.

赤外線照射部116aは、撮像部118aの近傍に設けられ、また、赤外線照射部116bは、撮像部118bの近傍に設けられ、いずれも被験者10に向かって赤外線を照射する。赤外線照射部116aは、LED(Light Emitting Diode)等で構成され、中心波長が780nm〜900nm未満(ここでは、850nm)の赤外線を照射する。赤外線照射部116bは、LED等で構成され、中心波長が900nm〜970nm(ここでは、950nm)の赤外線を照射する。また、赤外線照射部116a、116bは、撮像部118a、118bのレンズの光軸と平行になるように赤外線を照射する。赤外線照射部116a、116bによって照射された赤外線を被験者10で反射する際の反射光を、撮像部118a、118bが撮像したときに生成される診断用画像データについては、後に詳述する。   The infrared irradiation unit 116a is provided in the vicinity of the imaging unit 118a, and the infrared irradiation unit 116b is provided in the vicinity of the imaging unit 118b, and both irradiate the subject 10 with infrared rays. The infrared irradiation unit 116a is configured by an LED (Light Emitting Diode) or the like, and irradiates infrared light having a center wavelength of 780 nm to less than 900 nm (here, 850 nm). The infrared irradiation unit 116b is configured by an LED or the like, and irradiates infrared rays having a center wavelength of 900 nm to 970 nm (here, 950 nm). The infrared irradiation units 116a and 116b irradiate infrared rays so as to be parallel to the optical axes of the lenses of the imaging units 118a and 118b. The diagnostic image data generated when the imaging units 118a and 118b capture the reflected light when the infrared rays irradiated by the infrared irradiation units 116a and 116b are reflected by the subject 10 will be described in detail later.

撮像部118a、118bは、被験者10で反射した赤外線の反射光を撮像して、水平視差を有する診断用画像データをそれぞれ生成する。具体的に説明すると、撮像部118aにおけるレンズの前方(被験者10側)には、中心波長が780nm〜900nm未満(ここでは、850nm)の赤外線のみを透過させるような光学フィルタが設けられている。また、撮像部118bにおけるレンズの前方(被験者10側)には、中心波長が900nm〜970nm(ここでは、950nm)の赤外線のみを透過させるような光学フィルタが設けられている。   The imaging units 118a and 118b image infrared reflected light reflected by the subject 10 and generate diagnostic image data having horizontal parallax, respectively. More specifically, an optical filter that transmits only infrared rays having a center wavelength of 780 nm to less than 900 nm (here, 850 nm) is provided in front of the lens in the imaging unit 118a (subject 10 side). In addition, an optical filter that transmits only infrared light having a center wavelength of 900 nm to 970 nm (here, 950 nm) is provided in front of the lens in the imaging unit 118b (subject 10 side).

中央制御部120は、CPU(中央処理装置)を含む半導体集積回路で構成され、ROMからCPU自体を動作させるためのプログラムやパラメータ等を読み出し、ワークエリアとしてのRAMや他の電子回路と協働して脳機能疾患診断支援装置100全体を管理および制御する。また、中央制御部120は、画像選択部150、ブロック分割部152、瞳孔算出部154、視線算出部156、注視点導出部158、情報蓄積部160、演算部162として機能する。   The central control unit 120 is composed of a semiconductor integrated circuit including a CPU (Central Processing Unit), reads programs and parameters for operating the CPU itself from the ROM, and cooperates with the RAM as a work area and other electronic circuits. Thus, the entire brain function disease diagnosis support apparatus 100 is managed and controlled. In addition, the central control unit 120 functions as an image selection unit 150, a block division unit 152, a pupil calculation unit 154, a gaze calculation unit 156, a gaze point derivation unit 158, an information storage unit 160, and a calculation unit 162.

画像選択部150は、記憶部112に記憶されている複数の検査用画像データのうち、検査者(医師等)による操作入力に応じて1の検査用画像データを選択させ、選択が完了すると、その所定の検査用画像データに基づく検査用画像を画像表示部114に表示させる。   The image selection unit 150 selects one test image data in response to an operation input by an examiner (such as a doctor) from the plurality of test image data stored in the storage unit 112, and when the selection is completed, An inspection image based on the predetermined inspection image data is displayed on the image display unit 114.

図3は、画像表示部114に表示された検査用画像を説明するための図である。上述したようにアルツハイマー型認知症は、視空間知覚障害が認められるため、被験者10に対してアルツハイマー型認知症である可能性があるか否かの診断を行う際には、例えば、画像選択部150は、検査者による操作入力に応じて、図3(a)に示す、遠景および近景を示す風景や構造物を含む検査用画像130aを画像表示部114に表示させる。なお、図3(a)に示す検査用画像130aにおいては、近景の構造物132aと、遠景の構造物132bの2つの構造物のみを示しているが、これに限らず、最も近景の構造物から最も遠景の構造物まで段階的に3以上(例えば、5)の構造物を示してもよい。   FIG. 3 is a diagram for explaining the inspection image displayed on the image display unit 114. As described above, visuospatial perception disorder is recognized in Alzheimer type dementia. Therefore, when diagnosing whether there is a possibility of Alzheimer type dementia for the subject 10, for example, an image selection unit In response to an operation input by the inspector 150, the image display unit 114 displays the inspection image 130a including the scenery and the structure showing the distant view and the near view shown in FIG. In the inspection image 130a shown in FIG. 3A, only the two structures of the foreground structure 132a and the foreground structure 132b are shown. Three or more (for example, 5) structures may be shown in stages from the farthest to the farthest structure.

また、上述したように幼児期において自閉症は、対面する他者の目を見ないことが多いため、被験者10に対して自閉症である可能性があるか否かの診断を行う際には、例えば、画像選択部150は、検査者による操作入力に応じて選択された、図3(b)に示す、人の顔132cを示す検査用画像130bを画像表示部114に表示させる。   In addition, as described above, since autism often does not look at the eyes of other people who face each other in early childhood, when the subject 10 is diagnosed as to whether or not there is a possibility of autism For example, the image selection unit 150 causes the image display unit 114 to display an inspection image 130b indicating a human face 132c, which is selected in accordance with an operation input by the inspector, as shown in FIG.

ブロック分割部152は、画像表示部114における表示面114aに表示された画像(検査用画像)を複数のブロックに分割する。図4は、ブロック分割部152による処理を説明するための図である。図4に示すように、ブロック分割部152は、画像表示部114における表示面114aに表示された検査用画像を、縦方向(図4中、V軸方向)、および横方向(図4中、H軸方向)において、実質的に等しい長さのブロックになるように分割する。そして、ブロック分割部152は、ブロックごとに固有のアドレスを設定するとともに(例えば、H軸方向にはH1〜H16、V軸方向にはV1〜V12)、ブロックに表示される画像の内容をアドレスに関連付けて、記憶部112に記憶させる。例えば、ブロックにおけるアドレスH11のV7〜V11、H12のV7〜V11、H13のV7〜V11、H14のV7〜V11、H15のV7〜V11は、近景の構造物132aに関連付けられ、H11のV2〜V3、H12のV2〜V3は、遠景の構造物132bに関連付けられる。   The block dividing unit 152 divides an image (inspection image) displayed on the display surface 114a of the image display unit 114 into a plurality of blocks. FIG. 4 is a diagram for explaining processing by the block division unit 152. As shown in FIG. 4, the block dividing unit 152 converts the inspection image displayed on the display surface 114a of the image display unit 114 into the vertical direction (V-axis direction in FIG. 4) and the horizontal direction (in FIG. 4, In the (H-axis direction), the blocks are divided so as to be substantially equal in length. The block dividing unit 152 sets a unique address for each block (for example, H1 to H16 in the H-axis direction, V1 to V12 in the V-axis direction), and addresses the contents of the image displayed in the block. And stored in the storage unit 112. For example, V7 to V11 of address H11, V7 to V11 of H12, V7 to V11 of H13, V7 to V11 of H14, and V7 to V11 of H15 in the block are associated with the foreground structure 132a, and V2 to V3 of H11. , H12 V2-V3 are associated with distant view structure 132b.

また、ブロック分割部152は、全てのブロックにおいて必ずしも実質的に等しい大きさにブロックを分割する必要はなく、例えば、図4(b)に示すように、ブロックは検査用画像における人の顔132cと他の部分とで大きさが異なってもよいし、人の顔の部位(例えば、眼や口)と他の部分とで大きさが異なってもよい。   Further, the block dividing unit 152 does not necessarily divide the block into substantially the same size in all the blocks. For example, as shown in FIG. 4B, the block is a human face 132c in the inspection image. And other parts may have different sizes, or the parts of a human face (for example, eyes and mouth) and other parts may have different sizes.

瞳孔算出部154は、撮像部118a、118bが生成した2つの診断用画像データに基づいて、被験者10の瞳孔の位置(瞳孔の中心位置)を算出する。ここで撮像部118aが生成した診断用画像データと撮像部118bが生成した診断用画像データとは水平視差を有するため、瞳孔算出部154は、予め定められた撮像部118aの位置(座標)および撮像部118aが生成した診断用画像データと、予め定められた撮像部118bの位置(座標)および撮像部118bが生成した診断用画像データとから、三角測量法を用いて、瞳孔の中心位置(座標)を導出する。   The pupil calculation unit 154 calculates the position of the pupil of the subject 10 (the center position of the pupil) based on the two diagnostic image data generated by the imaging units 118a and 118b. Here, since the diagnostic image data generated by the imaging unit 118a and the diagnostic image data generated by the imaging unit 118b have horizontal parallax, the pupil calculation unit 154 determines the position (coordinates) of the imaging unit 118a and a predetermined position. From the diagnostic image data generated by the imaging unit 118a, the predetermined position (coordinates) of the imaging unit 118b, and the diagnostic image data generated by the imaging unit 118b, using the triangulation method, the center position of the pupil ( Deriving coordinates).

また、瞳孔算出部154は、撮像部118a、118bが生成した診断用画像データから瞳孔の近傍にある角膜反射像(眼球に光を照射したときに角膜上に生じる虚像)の位置を導出する。   In addition, the pupil calculation unit 154 derives the position of the corneal reflection image (virtual image generated on the cornea when the eyeball is irradiated with light) in the vicinity of the pupil from the diagnostic image data generated by the imaging units 118a and 118b.

視線算出部156は、瞳孔算出部154が算出した瞳孔の位置および角膜反射像の位置に基づいて、被験者10の視線を示す視線情報を算出する。   The line-of-sight calculation unit 156 calculates line-of-sight information indicating the line of sight of the subject 10 based on the position of the pupil and the position of the cornea reflection image calculated by the pupil calculation unit 154.

図5は、瞳孔算出部154による角膜反射像算出処理および視線算出部156による視線算出処理を説明するための図である。   FIG. 5 is a diagram for explaining a corneal reflection image calculation process by the pupil calculation unit 154 and a line-of-sight calculation process by the line-of-sight calculation unit 156.

図5に示すように、眼球EBから見て右側には赤外線照射部116aが配され、左側には赤外線照射部116bが配されている。また、赤外線照射部116aの近傍には撮像部118aが、赤外線照射部116bの近傍には撮像部118bが配されている。   As shown in FIG. 5, an infrared irradiation unit 116a is disposed on the right side as viewed from the eyeball EB, and an infrared irradiation unit 116b is disposed on the left side. An imaging unit 118a is disposed near the infrared irradiation unit 116a, and an imaging unit 118b is disposed near the infrared irradiation unit 116b.

上述したように、角膜反射像は、眼球EBに光が照射されたときに角膜CR上に生じる虚像である。したがって、赤外線照射部116aによって照射された赤外線(光)によって生じる角膜反射像170aは、角膜CRの曲率中心172と、赤外線照射部116a(赤外線照射部116aの光源)との結線LL1上に存在し、角膜反射像170aが生じる位置は、結線LL1上における角膜CRと、角膜CRの曲率中心172との中点である。同様に、赤外線照射部116bによって照射された赤外線(光)によって生じる角膜反射像170bは、角膜CRの曲率中心172と、赤外線照射部116b(赤外線照射部116bの光源)との結線LL2上に存在し、角膜反射像170bが生じる位置は、結線LL2上における角膜CRと、角膜CRの曲率中心172との中点である。   As described above, the cornea reflection image is a virtual image generated on the cornea CR when the eyeball EB is irradiated with light. Therefore, the cornea reflection image 170a generated by the infrared rays (light) irradiated by the infrared irradiation unit 116a exists on the connection LL1 between the curvature center 172 of the cornea CR and the infrared irradiation unit 116a (the light source of the infrared irradiation unit 116a). The position where the cornea reflection image 170a is generated is the midpoint between the cornea CR and the center of curvature 172 of the cornea CR on the connection LL1. Similarly, the cornea reflection image 170b generated by the infrared rays (light) irradiated by the infrared irradiation unit 116b exists on the connection LL2 between the curvature center 172 of the cornea CR and the infrared irradiation unit 116b (the light source of the infrared irradiation unit 116b). The position where the cornea reflection image 170b is generated is the midpoint between the cornea CR and the center of curvature 172 of the cornea CR on the connection line LL2.

すなわち、赤外線照射部116a、角膜反射像170a、角膜CRの曲率中心172は同一直線上(結線LL1上)に位置し、赤外線照射部116b、角膜反射像170b、角膜CRの曲率中心172は同一直線上(結線LL2上)に位置する。   That is, the infrared irradiation unit 116a, the cornea reflection image 170a, and the curvature center 172 of the cornea CR are located on the same straight line (on the connection LL1), and the infrared irradiation unit 116b, the cornea reflection image 170b, and the curvature center 172 of the cornea CR are the same straight line. It is located on the line (on connection LL2).

また、上述したように、赤外線照射部116aは850nmの赤外線を照射し、赤外線照射部116bは950nmの赤外線を照射する。そして、撮像部118aは850nmの赤外線のみを受光し、撮像部118bは950nmの赤外線のみを受光する。したがって、撮像部118aは赤外線照射部116aによる角膜反射像170aのみを撮像し、撮像部118bは赤外線照射部116bによる角膜反射像170bのみを撮像することとなる。   In addition, as described above, the infrared irradiation unit 116a emits infrared light of 850 nm, and the infrared irradiation unit 116b emits infrared light of 950 nm. The imaging unit 118a receives only 850 nm infrared light, and the imaging unit 118b receives only 950 nm infrared light. Therefore, the imaging unit 118a captures only the cornea reflection image 170a by the infrared irradiation unit 116a, and the imaging unit 118b captures only the cornea reflection image 170b by the infrared irradiation unit 116b.

ここで、赤外線照射部116aは撮像部118aの近傍に、赤外線照射部116bは撮像部118bの近傍に、それぞれ設けられていることから、撮像部118aの位置を赤外線照射部116aの位置とみなし、撮像部118bの位置を赤外線照射部116bの位置とみなすことができる。   Here, since the infrared irradiation unit 116a is provided in the vicinity of the imaging unit 118a and the infrared irradiation unit 116b is provided in the vicinity of the imaging unit 118b, the position of the imaging unit 118a is regarded as the position of the infrared irradiation unit 116a. The position of the imaging unit 118b can be regarded as the position of the infrared irradiation unit 116b.

したがって、視線算出部156は、三角測量法を用いて、予め定められた撮像部118aと角膜反射像170aとの結線(すなわち結線LL1)と、予め定められた撮像部118bと角膜反射像170bとの結線(すなわち結線LL2)との交点を算出することで、角膜CRの曲率中心172を算出する。   Therefore, the line-of-sight calculation unit 156 uses a triangulation method to connect the predetermined imaging unit 118a and the corneal reflection image 170a (that is, the connection LL1), the predetermined imaging unit 118b, and the corneal reflection image 170b. The center of curvature 172 of the cornea CR is calculated by calculating the intersection with the connection (that is, the connection LL2).

また、眼球EB中心174と、瞳孔の中心176と、を結ぶ線が視線を示す線であることが知られている。一方、この視線を示す線上に角膜CRの曲率中心172が位置することも知られている。したがって、瞳孔算出部154によって算出された瞳孔の中心176の座標と、視線算出部156によって算出された角膜CRの曲率中心172の座標とを通る線LL3が視線を示す線となる。したがって、視線算出部156は、例えば、曲率中心172の座標と線LL3の傾きを視線情報として算出する。   Further, it is known that a line connecting the eyeball EB center 174 and the center 176 of the pupil is a line indicating the line of sight. On the other hand, it is also known that the center of curvature 172 of the cornea CR is located on the line showing the line of sight. Therefore, a line LL3 passing through the coordinates of the pupil center 176 calculated by the pupil calculation unit 154 and the coordinates of the curvature center 172 of the cornea CR calculated by the line-of-sight calculation unit 156 is a line indicating the line of sight. Accordingly, the line-of-sight calculation unit 156 calculates, for example, the coordinates of the center of curvature 172 and the inclination of the line LL3 as line-of-sight information.

図2に戻って説明すると、注視点導出部158は、視線算出部156が算出した視線情報に基づいて、複数のブロックごとに、被験者10の注視点があるか否かを導出する。ここでは、処理負荷軽減のため、注視点が含まれるブロックに対してのみ、注視点が含まれた回数(以下、注視回数と称する)のカウントアップを行う。具体的に説明すると、注視点導出部158は、視線算出部156によって算出された視線情報が示す視線と、表示面114aとの交点(以下、単に注視点と称する)の座標を所定のサンプリング時間ごとに導出し、導出した注視点の座標が含まれるブロックに対して、注視回数をカウントアップする。   Returning to FIG. 2, the gaze point deriving unit 158 derives whether or not there is a gaze point of the subject 10 for each of a plurality of blocks based on the gaze information calculated by the gaze calculation unit 156. Here, in order to reduce the processing load, the number of times the gazing point is included (hereinafter referred to as the number of gazing times) is counted up only for the block including the gazing point. More specifically, the gaze point derivation unit 158 determines the coordinates of the intersection (hereinafter simply referred to as a gaze point) between the line of sight indicated by the line-of-sight information calculated by the line-of-sight calculation unit 156 and the display surface 114a for a predetermined sampling time. The number of gazes is counted up for each block that includes the coordinates of the derived gaze point.

情報蓄積部160は、注視点導出部158が導出した結果をブロックごとに蓄積する。本実施形態において、情報蓄積部160は、ブロックごとに設定されたアドレスに関連付けて結果を記憶部112に蓄積する。   The information storage unit 160 stores the result derived by the gaze point deriving unit 158 for each block. In the present embodiment, the information storage unit 160 stores the result in the storage unit 112 in association with the address set for each block.

演算部162は、情報蓄積部160が蓄積した結果に基づいて所定の演算を行い、被験者10の脳機能疾患の可能性があるか否かを判定する。演算部162が利用する所定の演算は、ニューラルネットワーク、ナイーブベイズ、ベイジアンネットワーク、および決定木法の群から選択されるいずれか1である。   The calculation unit 162 performs a predetermined calculation based on the result accumulated by the information accumulation unit 160 and determines whether or not there is a possibility that the subject 10 has a brain function disease. The predetermined calculation used by the calculation unit 162 is any one selected from the group of a neural network, a naive Bayes, a Bayesian network, and a decision tree method.

また演算部162は、ブロックごとの画像の内容に基づき、診断対象とする疾患の種類に対応する重み付けをして演算を行う。演算部162による演算処理については、後に詳述する。   The calculation unit 162 performs calculation by weighting corresponding to the type of disease to be diagnosed based on the content of the image for each block. The arithmetic processing by the arithmetic unit 162 will be described in detail later.

音声出力部122は、被験者10に画像の視認を促すための音声データを音声に変換して出力する。診断用表示部124は、所定時間内におけるすべての注視点と、ブロックを示す画像を重畳した検査用画像や、所定時間内におけるすべての注視点の軌跡と、ブロックを示す画像を重畳した検査用画像を表示する。診断用表示部124は、医師による脳機能疾患の診断時や、医師が被験者10の関係者(例えば、家族)に脳機能疾患の診断結果を説明する際等に利用される。   The sound output unit 122 converts sound data for prompting the subject 10 to view the image into sound and outputs the sound. The diagnostic display unit 124 is an inspection image in which all the gazing points within a predetermined time and an image showing a block are superimposed, and a trajectory of all the gazing points in a predetermined time and an image showing a block are superimposed. Display an image. The diagnostic display unit 124 is used when a doctor diagnoses a brain function disease or when the doctor explains a diagnosis result of the brain function disease to a person concerned (for example, a family member) of the subject 10.

(脳機能疾患診断支援方法)
図6は、脳機能疾患診断支援装置100を用いた脳機能疾患診断支援方法の処理の流れを説明するためのフローチャートである。
(Brain function disease diagnosis support method)
FIG. 6 is a flowchart for explaining the flow of processing of the brain function disease diagnosis support method using the brain function disease diagnosis support apparatus 100.

図6に示すように、まず、検査者による操作入力に応じて、画像選択部150は、所定の検査用画像データに基づく検査用画像を画像表示部114に表示させる(S200)。そして、ブロック分割部152は、画像表示部114における表示面114aに表示された検査用画像を複数のブロックに分割し、分割したブロックごとに固有のアドレスを設定するとともに、ブロックに表示される画像の内容(例えば、近景の構造物、遠景の構造物、人の眼、口)をアドレスに関連付けて、記憶部112に記憶させる(S202)。   As shown in FIG. 6, first, in response to an operation input by the inspector, the image selection unit 150 causes the image display unit 114 to display an inspection image based on predetermined inspection image data (S200). The block dividing unit 152 divides the inspection image displayed on the display surface 114a of the image display unit 114 into a plurality of blocks, sets a unique address for each divided block, and displays the image displayed on the block. (For example, a foreground structure, a distant structure, a human eye, and a mouth) are associated with an address and stored in the storage unit 112 (S202).

続いて、検査者による操作入力に応じて、中央制御部120は、予め記憶部112に記録されている検査手順に沿った音声データを音声出力部122に出力させる(S204)。音声出力部122が出力する音声は、例えば、アルツハイマー型認知症の診断を行う場合、「一番近くにあるものを見てください」等である。そして、被験者10は、音声に基づいて、画像表示部114の注視を開始する。   Subsequently, in response to an operation input by the inspector, the central control unit 120 causes the audio output unit 122 to output audio data in accordance with the inspection procedure recorded in advance in the storage unit 112 (S204). The voice output by the voice output unit 122 is, for example, “Please look at the nearest one” when diagnosing Alzheimer-type dementia. Then, the subject 10 starts gazing at the image display unit 114 based on the voice.

続いて、赤外線照射部116a、116bは、被験者10に向けて赤外線を照射し(S206)、撮像部118a、118bは、診断用画像データを生成する(S208)。なお、後述する検査終了判定S222において、検査が終了したと判定されるまで、赤外線照射部116a、116bによる赤外線の照射および撮像部118a、118bによる診断用画像データの生成を継続する。   Subsequently, the infrared irradiation units 116a and 116b emit infrared rays toward the subject 10 (S206), and the imaging units 118a and 118b generate diagnostic image data (S208). Note that the infrared irradiation by the infrared irradiation units 116a and 116b and the generation of diagnostic image data by the imaging units 118a and 118b are continued until it is determined in the inspection end determination S222 described later that the inspection has ended.

そして、画像生成処理S208において生成された診断用画像データに基づいて、瞳孔算出部154は、瞳孔の中心位置を算出し(S210)、角膜反射像の位置を算出する(S212)。視線算出部156は、瞳孔の中心位置および角膜反射像の位置に基づいて、視線を示す視線情報を算出する(S214)。   Then, based on the diagnostic image data generated in the image generation process S208, the pupil calculation unit 154 calculates the center position of the pupil (S210), and calculates the position of the corneal reflection image (S212). The line-of-sight calculation unit 156 calculates line-of-sight information indicating the line of sight based on the center position of the pupil and the position of the corneal reflection image (S214).

注視点導出部158は、注視点の座標を導出し(S216)、注視点の座標が表示面114a内であるか否かを判定する(S218)。そして、注視点の座標が表示面114a内であれば(S218におけるYES)、注視点の座標に対応するブロックの注視回数nをカウントアップし、情報蓄積部160は、注視回数nを記憶部112に蓄積する(S220)。なお、ここで、情報蓄積部160は、注視点の座標がブロックを移動した移動順序sも蓄積する。移動順序sは、注視点がブロックを跨いで移動した場合にカウントアップすることで導出される。   The gaze point deriving unit 158 derives the coordinates of the gaze point (S216), and determines whether or not the coordinates of the gaze point are within the display surface 114a (S218). If the coordinates of the gaze point are within the display surface 114a (YES in S218), the number of gazes n of the block corresponding to the coordinates of the gaze point is counted up, and the information storage unit 160 stores the gaze number n in the storage unit 112. (S220). Here, the information accumulating unit 160 also accumulates the movement order s in which the coordinates of the gazing point move the block. The movement order s is derived by counting up when the gazing point moves across blocks.

そして、中央制御部120は、検査者から検査終了の指示があったか否か、または所定の検査時間が終了したか否かを判定する(S222)。そして、検査終了でなければ(S222におけるNO)、所定のサンプリング時間SIが経過するまで(S224におけるNO)待機し、サンプリング時間SIが経過すると(S224におけるYES)、瞳孔位置算出処理S210以降の処理を繰り返す。   Then, the central control unit 120 determines whether or not there is an instruction to end the inspection from the inspector or whether or not a predetermined inspection time has ended (S222). If the examination is not completed (NO in S222), the process waits until a predetermined sampling time SI elapses (NO in S224). When the sampling time SI elapses (YES in S224), the processes after the pupil position calculation process S210 are performed. repeat.

一方、検査終了となると(S222におけるYES)、演算部162は、結果蓄積処理S220において蓄積した結果に基づいて演算を行う(S230)。   On the other hand, when the inspection is completed (YES in S222), the calculation unit 162 performs a calculation based on the result accumulated in the result accumulation process S220 (S230).

ここでは、演算部162が、ニューラルネットワークに基づいて、演算を行う場合を例に挙げて説明する。   Here, a case where the calculation unit 162 performs a calculation based on a neural network will be described as an example.

本実施形態では、人間の脳の神経回路を模したモデルとしてニューラルネットワークを採用している。ニューラルネットワークでは、既知である入力信号に対して、既知である出力を得られるように学習を行って、所定の入力に対して所望の値を出力するような入出力関係を有するネットワークを実現している。本実施形態では、複数のブロックをネットワーク構造に構成し、ブロックの荷重を学習によって設定してブロックごとの注視回数nおよび注視時間tから出力を導くようにする。   In the present embodiment, a neural network is adopted as a model imitating a neural circuit of a human brain. In a neural network, learning is performed on a known input signal so that a known output can be obtained, and a network having an input / output relationship that outputs a desired value for a given input is realized. ing. In the present embodiment, a plurality of blocks are configured in a network structure, and the load of the block is set by learning, and the output is derived from the number of gazes n and the gaze time t for each block.

図7は、ブロックとニューラルネットワークとの関係を説明するための図である。図7に示すように、検査用画像130aの各ブロックには、情報蓄積部160によって記憶部112に蓄積された注視回数nと注視時間tが対応しており、下記の数式(1)を設定している。なお注視時間tは、注視回数nにサンプリング時間SIを積算することで算出できる。
…数式(1)
FIG. 7 is a diagram for explaining the relationship between a block and a neural network. As shown in FIG. 7, each block of the inspection image 130a corresponds to the number of gazes n and the gaze time t stored in the storage unit 112 by the information storage unit 160, and the following formula (1) is set. doing. The gaze time t can be calculated by adding the sampling time SI to the number of gazes n.
... Formula (1)

図7に示すように検査用画像130aの各ブロックの値は下記数式(2)で表すことができる。
…数式(2)
As shown in FIG. 7, the value of each block of the inspection image 130a can be expressed by the following mathematical formula (2).
... Formula (2)

またニューラルネットワークはN個の層を持つ階層型とすると、第1層は入力層、第N層は出力層になる。その間の層は中間層であり、第n層のニューロンの数をLn個とすると、各ニューロンの出力は、下記数式(3)で表すことができる。
…数式(3)
ただし、入力層のニューロンは入力信号を中間層に伝えるだけであり、また各層の0番目のニューロンは常に1を出力するので、数式(3)は、下記数式(4)、数式(5)となる。
…数式(4)
…数式(5)
If the neural network is a hierarchical type having N layers, the first layer is an input layer and the Nth layer is an output layer. The layer between them is an intermediate layer. If the number of neurons in the nth layer is Ln, the output of each neuron can be expressed by the following equation (3).
... Formula (3)
However, since the neurons in the input layer only transmit the input signal to the intermediate layer, and the 0th neuron in each layer always outputs 1, Equation (3) can be expressed by Equations (4) and (5) below. Become.
... Formula (4)
... Formula (5)

他のニューロンの出力信号は下記数式(6)、数式(7)を用いて算出することができる。
…数式(6)
また出力信号の関数は、下記数式(8)に示すようにシグモイド関数となる。
…数式(8)
The output signals of other neurons can be calculated using the following formulas (6) and (7).
... Formula (6)
The function of the output signal is a sigmoid function as shown in the following formula (8).
... Formula (8)

多層パーセプトロンの学習に使われる学習アルゴリズムである誤差逆伝播法を用いた場合、出力信号における教師信号をyとすると、どれだけ出力層の出力が教師信号に近づいているのかを表す尺度として、下記数式(9)の2乗誤差Eを定義して学習を行う。
…数式(9)
When using the error back-propagation method, which is a learning algorithm used for multi-layer perceptron learning, if the teacher signal in the output signal is y, then the scale representing how much the output of the output layer is close to the teacher signal is as follows: Learning is performed by defining the square error E in the equation (9).
... Formula (9)

すなわち2乗誤差Eを0に近づけるように重みW(下記、数式(10)参照)を決めればよい。
…数式(10)
That is, the weight W (see the following formula (10)) may be determined so that the square error E approaches 0.
... Formula (10)

そして、演算部162は、以上説明したような学習を行ったニューラルネットワークで脳機能疾患の可能性を演算する。   And the calculating part 162 calculates the possibility of a brain function disease with the neural network which performed learning as demonstrated above.

ここで、ニューラルネットワークにおける検査用画像の荷重(重み付け)は、診断対象とする疾患の種類に対応して行われるとよい。例えば、アルツハイマー型認知症の検査において、検査者が「遠くの物を見て下さい」という指示をする場合には、遠景を示す画像が関連づけられたブロックの荷重を小さく設定する。こうすることで、アルツハイマー型認知症の検査において、アルツハイマー型認知症に罹患していると診断される割合を高めに設定することができる。したがって、アルツハイマー型認知症に罹患しているにもかかわらず、アルツハイマー型認知症に罹患していないと誤診断されてしまう可能性を低減することが可能となる。   Here, the load (weighting) of the test image in the neural network may be performed corresponding to the type of disease to be diagnosed. For example, in the examination of Alzheimer-type dementia, when the examiner gives an instruction “please see a distant object”, the load of the block associated with the image showing the distant view is set small. By carrying out like this, in the test | inspection of Alzheimer-type dementia, the ratio diagnosed as having Alzheimer-type dementia can be set high. Therefore, it is possible to reduce the possibility of being misdiagnosed as not suffering from Alzheimer-type dementia despite having Alzheimer-type dementia.

また、自閉症の検査においては、人の眼および眼の付近の画像が関連づけられたブロックの荷重を大きく設定する。こうすることで、自閉症の検査において、自閉症に罹患していないと診断される割合を高めに設定することができる。したがって、自閉症に罹患していないにもかかわらず、自閉症に罹患していると誤診断されてしまう可能性を低減することが可能となる。   Further, in the examination of autism, a large load is set on a block associated with human eyes and images near the eyes. By carrying out like this, in the test | inspection of autism, the ratio diagnosed as not having autism can be set high. Therefore, it is possible to reduce the possibility of being misdiagnosed as suffering from autism even though it is not suffering from autism.

以上説明したように、本実施形態にかかる脳機能疾患診断支援装置100および脳機能疾患診断支援方法によれば、簡易な構成で、被験者10の注視点の位置を導出するとともに、かかる注視点を解析することで、脳機能疾患に罹患している可能性を定量的に導出することが可能となる。   As described above, according to the brain function disease diagnosis support apparatus 100 and the brain function disease diagnosis support method according to the present embodiment, the position of the gaze point of the subject 10 is derived with a simple configuration, and the gaze point is determined. By analyzing, it is possible to quantitatively derive the possibility of suffering from a brain function disease.

(変形例)
上述した実施形態では、演算部162が利用する演算手法として、ニューラルネットワークを採用する場合を例に挙げて説明したが、他の演算手法を採用することもできる。変形例では、演算部162がナイーブベイズを利用して演算を行う場合を例に挙げて説明する。
(Modification)
In the above-described embodiment, the case where the neural network is employed as an example of the computation method used by the computation unit 162 has been described as an example. However, other computation methods may be employed. In the modification, the case where the calculation unit 162 performs calculation using naive Bayes will be described as an example.

図8は、変形例にかかる脳機能疾患診断支援方法の処理の流れを説明するためのフローチャートである。なお、上述した画像表示処理S200〜サンプリング期間経過判定処理S224までの処理は、実質的に処理が等しいので、同一の符号を付して説明を省略する。   FIG. 8 is a flowchart for explaining the processing flow of the brain function disease diagnosis support method according to the modification. Note that the processes from the image display process S200 to the sampling period elapsed determination process S224 described above are substantially the same, and thus the same reference numerals are given and description thereof is omitted.

図8に示すように、画像表示処理S200〜サンプリング期間経過判定処理S224までの処理が終了すると、演算部162は、結果蓄積処理S220において蓄積した結果に基づいて、各ブロックにおいて、注視点の座標が連続してブロック内に含まれている時間tを算出し、時間tが所定の時間(例えば、0.5秒)以上であり、かつ、所定の時間以上である回数が所定回数以上であるブロックを検出する(S232)。そして、演算部162は、図9に示す、注視ブロックパターンを作成する(S234)。ここでは、図9に示すように、ブロック分割部152が検査用画像130aを分割した、マトリクス状の複数のブロックを表形式で示し、被験者10の注視点が存在している時間および回数のいずれか一方または両方が所定の条件を満たしたブロック(図)をYで示す。なお、ここでは、注視ブロックパターンをテーブルとして記憶部112に記憶する。   As shown in FIG. 8, when the processing from the image display process S200 to the sampling period elapsed determination process S224 is completed, the arithmetic unit 162 determines the coordinates of the gazing point in each block based on the result accumulated in the result accumulation process S220. The time t continuously included in the block is calculated, the time t is a predetermined time (for example, 0.5 seconds) or more, and the number of times that is the predetermined time or more is the predetermined number of times or more. A block is detected (S232). Then, the calculation unit 162 creates a gaze block pattern shown in FIG. 9 (S234). Here, as shown in FIG. 9, the block dividing unit 152 divides the inspection image 130 a in a table form and shows a plurality of blocks in the form of a table. A block (FIG.) In which either or both satisfy a predetermined condition is indicated by Y. Here, the gaze block pattern is stored in the storage unit 112 as a table.

続いて、演算部162は、ナイーブベイズ分類器によって、疾患の可能性を演算する。具体的に説明すると、図10に示すように、中央制御部120は、ある脳機能疾患Xである被験者10がとるであろう、疾患ブロックパターンCxに基づいた条件付き確率P(c|x)を予め各ブロックCiに設定しておく。   Subsequently, the calculation unit 162 calculates the possibility of the disease using a naive Bayes classifier. More specifically, as shown in FIG. 10, the central control unit 120 has a conditional probability P (c | x) based on the disease block pattern Cx that the subject 10 having a certain brain function disease X will take. Is set in advance for each block Ci.

そして、例えば、図9に示すように、検査用画像130aの各ブロックにおいて、注視点の座標が含まれたという検出結果が入力されている状態で疾患の分類を行う場合、ある脳機能疾患Xである被験者10が検査用画像130aの疾患ブロックパターンCxと一致したブロック(注視ブロック)によってアルツハイマー型認知症であると診断される確率はP(x|c)で表され、また脳機能疾患である事前確率をP(x)とすればベイズの定理により、診断される確率P(x|c)は、下記数式(11)を用いて算出することができる。
…数式(11)
For example, as shown in FIG. 9, in the case where disease classification is performed in a state where a detection result indicating that the coordinates of the gazing point are included is input in each block of the test image 130 a, a certain brain function disease X The probability that the subject 10 is diagnosed as having Alzheimer-type dementia by a block (gaze block) that matches the disease block pattern Cx in the test image 130a is represented by P (x | c), If a certain prior probability is P (x), the probability P (x | c) to be diagnosed can be calculated by the following formula (11) according to Bayes' theorem.
... Formula (11)

検査用画像130aはブロックCiとして分割されているので、数式(11)の右辺は、下記数式(12)、数式(13)で置き換えられて数式(14)で表され、この数式(14)を用いることで脳機能疾患の可能性の確率を演算する(S236)。
…数式(12)
…数式(13)
…数式(14)
そして、j番目の検査による結果P(x|C)を次回の事前確率P(xj+1)として疾患の可能性の有無を判定できる所定確率(例えば、アルツハイマー型認知症の可能性が20%未満、または80%以上)まで(S238におけるNO)、画像表示処理S200以降の処理を繰り返す。
Since the inspection image 130a is divided as a block Ci, the right side of the equation (11) is replaced by the following equations (12) and (13) and expressed by the equation (14). The probability of the possibility of a brain function disease is calculated by using (S236).
... Formula (12)
... Formula (13)
... Formula (14)
Then, the result P (x j | C j ) of the j-th test is used as the next prior probability P (x j + 1 ), and a predetermined probability (for example, the possibility of Alzheimer type dementia is 20). Less than% or 80% or more) (NO in S238), the processes after the image display process S200 are repeated.

以上のように被験者10が検査用画像130aのどこを注視しているか、注視すべきポイントにどのくらいの時間で到達するか、どのくらいの時間注視しているか、の情報は、疾患ブロックパターンCxと合致または逸脱したブロックの条件付き確率によって事前確率に反映される。   As described above, the information about where the subject 10 is gazing at the examination image 130a, how long it takes to reach the point to be gazed, and how long it is gazing is consistent with the disease block pattern Cx Or it is reflected in the prior probability by the conditional probability of the deviating block.

そして、例えば、アルツハイマー型認知症の可能性が20%未満、または80%以上となったところで(S238におけるYES)、脳機能疾患診断支援方法を終了する。   For example, when the possibility of Alzheimer's dementia is less than 20% or 80% or more (YES in S238), the brain function disease diagnosis support method is terminated.

以上説明したように、演算部162がナイーブベイズを利用して演算を行うことで、アルツハイマー型認知症の罹患の可能性を、迅速かつ正確に診断することができる。なお、演算された罹患の可能性を示す数値は、絶対的なものではなく、検査者がかかる数値を用いて、罹患しているか否かを診断してもよい。   As described above, the calculation unit 162 performs calculation using naive Bayes, so that the possibility of suffering from Alzheimer-type dementia can be diagnosed quickly and accurately. Note that the calculated numerical value indicating the possibility of morbidity is not absolute, and the examiner may diagnose whether or not the afflicted person is using the numerical value.

また、ナイーブベイズ法における検査用画像の条件付き確率は、アルツハイマー型認知症、自閉症、うつ等の神経症等の脳機能疾患を検査対象とする時、検査者による操作入力に応じて変更される。例えば、アルツハイマー型認知症の検査において、検査者が「近くの物を見て下さい」という指示をする場合には、近景を示す画像が関連づけられたブロックの条件付き確率を小さく設定する。こうすることで、アルツハイマー型認知症の検査において、アルツハイマー型認知症に罹患していると診断される割合を高めに設定することができる。一方、近景を示す画像が関連づけられたブロックの条件付き確率を大きく設定することで、アルツハイマー型認知症に罹患していると診断される割合を低めに設定することができる。   In addition, the conditional probability of the test image in the Naive Bayes method is changed according to the operation input by the examiner when brain functional diseases such as Alzheimer-type dementia, autism, and depression are examined. Is done. For example, in the examination of Alzheimer-type dementia, when the examiner gives an instruction “please see a nearby object”, the conditional probability of a block associated with an image showing a near view is set small. By carrying out like this, in the test | inspection of Alzheimer-type dementia, the ratio diagnosed as having Alzheimer-type dementia can be set high. On the other hand, by setting a large conditional probability of a block associated with an image showing a foreground, it is possible to set a low ratio of being diagnosed as suffering from Alzheimer's dementia.

また、自閉症の検査においては、人の眼および眼の付近の画像が関連づけられたブロックの条件付き確率を大きく設定することで、自閉症に罹患していると診断される割合を低めに設定することができる。   Also, in testing for autism, by setting a large conditional probability for blocks that are associated with human eyes and images near the eyes, the proportion of people diagnosed with autism is reduced. Can be set to

また、脳機能疾患の可能性の演算は、注視ブロックパターンと疾患ブロックパターンCxの一致したブロックの条件付き確率のみを用いて計算してもよい。   Further, the calculation of the possibility of the brain function disease may be calculated using only the conditional probability of the block in which the gaze block pattern and the disease block pattern Cx coincide.

以上説明したように、変形例にかかる演算手法を用いても、簡易な構成で、被験者10の注視点の位置を導出するとともに、かかる注視点を解析することで、脳機能疾患に罹患している可能性を定量的に導出することが可能となる。   As described above, even if the calculation method according to the modified example is used, the position of the gazing point of the subject 10 is derived with a simple configuration, and the gazing point is analyzed by analyzing the gazing point. The possibility of being present can be derived quantitatively.

さらに、コンピュータを脳機能疾患診断支援装置100として機能させる脳機能疾患診断支援プログラムや、その脳機能疾患診断支援プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、EPROM、EEPROM、CD、DVD、BD等の記録媒体も提供される。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。   Furthermore, a brain function disease diagnosis support program for causing a computer to function as the brain function disease diagnosis support device 100, a computer-readable flexible disk, magneto-optical disk, ROM, EPROM, EEPROM recording the brain function disease diagnosis support program Recording media such as CD, DVD, and BD are also provided. Here, the program refers to data processing means described in an arbitrary language or description method.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.

例えば、上述した視線の算出方法に限らず、被験者10の注視点が導出できれば、他の方法を採用してもよい。   For example, the method is not limited to the gaze calculation method described above, and other methods may be adopted as long as the gaze point of the subject 10 can be derived.

また、上述した実施形態において、演算部162が利用する演算手法として、ニューラルネットワークやナイーブベイズを採用する場合を例に挙げて説明したが、ベイジアンネットワークや決定木法を利用して演算を行ってもよい。   In the above-described embodiment, the case where a neural network or naive Bayes is employed as an example of the calculation method used by the calculation unit 162 has been described. However, calculation is performed using a Bayesian network or a decision tree method. Also good.

例えば、「ベイジアンネットワーク概説 繁桝 算男 著」に記載されているように、ベイジアンネットワークは一部の変数を観測した時、その他の変数についての確率分布を求めたり、確率値が最も大きい状態をその変数の予測結果として得たりすることができる演算手法である。つまり観測された変数の情報(e)から、求めたい確率変数(X)の確率、すなわち事後確率P(X|e)を求め、かかる事後確率からX期待値や事後確率の最大値、ある仮説の確信度(いくつかの変数が特定の値の組をとる同時確率)などを評価する。   For example, as described in `` Outline of Bayesian Network by Kazuo Shigeru '', when a Bayesian network observes some variables, it obtains the probability distribution for the other variables, and determines the state with the highest probability value. This is an arithmetic technique that can be obtained as a variable prediction result. That is, from the observed variable information (e), the probability of the random variable (X) to be obtained, that is, the posterior probability P (X | e) is obtained, and the X expected value or the maximum value of the posterior probability, a certain hypothesis is obtained from the posterior probability. Of certainty (simultaneous probability that several variables take a specific set of values) and the like.

また決定木法を用いる場合、樹形図、またはツリー構造と呼ばれる図を作り出し、アウトプットには分類を行なうためのルールを作成する。ここでは、検査用画像に関連付けられてブロックが指示通りに注視されたかをノードとしたツリー構造を構成すればよい。   When the decision tree method is used, a tree diagram or a diagram called a tree structure is created, and a rule for classifying the output is created. Here, a tree structure may be configured in which nodes are related to whether or not blocks are watched as instructed in association with inspection images.

なお、本明細書の脳機能疾患診断支援方法における各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。   Note that each step in the brain function disease diagnosis support method of the present specification does not necessarily have to be processed in time series in the order described in the flowchart, and may include processing in parallel or by a subroutine.

本発明は、脳機能疾患の診断を支援するための脳機能疾患診断支援装置および脳機能疾患診断支援方法に利用することができる。   The present invention can be used for a brain function disease diagnosis support apparatus and a brain function disease diagnosis support method for supporting diagnosis of a brain function disease.

100 …脳機能疾患診断支援装置
114 …画像表示部
114a …表示面
116a、116b …赤外線照射部
118a、118b …撮像部
152 …ブロック分割部
154 …瞳孔算出部
156 …視線算出部
158 …注視点導出部
160 …情報蓄積部
162 …演算部
DESCRIPTION OF SYMBOLS 100 ... Brain function disease diagnosis support apparatus 114 ... Image display part 114a ... Display surface 116a, 116b ... Infrared irradiation part 118a, 118b ... Imaging part 152 ... Block division part 154 ... Pupil calculation part 156 ... Gaze calculation part 158 ... Gaze point derivation Unit 160 ... Information storage unit 162 ... Calculation unit

Claims (3)

被験者に視認させるための画像を表示する画像表示部と、
前記画像表示部における表示面に表示された画像を複数のブロックに分割するブロック分割部と、
前記被験者に向かって赤外線を照射する赤外線照射部と、
少なくとも前記被験者で反射した前記赤外線の反射光を撮像して、水平視差を有する2つの画像データを生成する2つの撮像部と、
前記撮像部が生成した2つの画像データに基づいて、前記被験者の瞳孔の位置を算出する瞳孔算出部と、
前記瞳孔算出部が算出した前記瞳孔の位置に基づいて、前記被験者の視線を示す視線情報を算出する視線算出部と、
前記視線算出部が算出した視線情報に基づいて、前記複数のブロックごとに、前記被験者の注視点があるか否かを導出する注視点導出部と、
前記注視点導出部が導出した結果をブロックごとに蓄積する情報蓄積部と、
前記情報蓄積部が蓄積した結果に基づいて所定の演算を行い、前記被験者の脳機能疾患の可能性があるか否かを判定する演算部と、
を備え
前記ブロックにおいて前記画像表示部が表示する画像は、前記複数のブロックごとに関連付けられており、
前記演算部は、前記ブロックごとの画像の内容に基づく診断対象とする疾患の種類に対応する重み付けをして前記所定の演算を行うことを特徴とする脳機能疾患診断支援装置。
An image display unit that displays an image for the subject to visually recognize;
A block dividing unit that divides an image displayed on the display surface of the image display unit into a plurality of blocks;
An infrared irradiation unit that emits infrared rays toward the subject; and
Two imaging units for imaging at least the reflected infrared light reflected by the subject and generating two image data having horizontal parallax;
A pupil calculation unit that calculates the position of the pupil of the subject based on the two image data generated by the imaging unit;
A line-of-sight calculation unit that calculates line-of-sight information indicating the line of sight of the subject, based on the position of the pupil calculated by the pupil calculation unit;
Based on the line-of-sight information calculated by the line-of-sight calculation unit, for each of the plurality of blocks, a gaze point derivation unit that derives whether or not there is a gaze point of the subject;
An information accumulating unit for accumulating the result derived by the gaze point deriving unit for each block;
A calculation unit that performs a predetermined calculation based on the result accumulated by the information storage unit and determines whether or not there is a possibility of a brain function disorder of the subject; and
Equipped with a,
The image displayed by the image display unit in the block is associated with each of the plurality of blocks,
The brain function disease diagnosis support apparatus, wherein the calculation unit performs the predetermined calculation with weighting corresponding to the type of disease to be diagnosed based on the content of the image for each block .
前記所定の演算は、ニューラルネットワーク、ナイーブベイズ、ベイジアンネットワーク、および決定木法の群から選択されるいずれか1であることを特徴とする請求項1に記載の脳機能疾患診断支援装置。 The brain function disease diagnosis support apparatus according to claim 1, wherein the predetermined calculation is any one selected from the group of a neural network, a naive Bayes, a Bayesian network, and a decision tree method. 被験者に視認させるための画像を表示する画像表示部を用いた脳機能疾患診断支援方法であって、
前記画像表示部は、被験者に視認させるための画像を表示し、
前記画像表示部における表示面に表示された画像を複数のブロックに分割し、
前記ブロックにおいて前記画像表示部が表示する画像を、前記複数のブロックごとに関連付け、
前記被験者に向かって赤外線を照射し、
少なくとも前記被験者で反射した前記赤外線の反射光を撮像して、水平視差を有する2つの画像データを生成し、
生成した前記2つの画像データに基づいて、前記被験者の瞳孔の位置を算出し、
算出した前記瞳孔の位置に基づいて、前記被験者の視線を示す視線情報を算出し、
算出した前記視線情報に基づいて、前記複数のブロックごとに、前記被験者の注視点があるか否かを導出し、
導出した結果をブロックごとに蓄積し、
蓄積した前記結果を参照し、前記ブロックごとの画像の内容に基づく診断対象とする疾患の種類に対応する重み付けをして所定の演算を行うことを特徴とする脳機能疾患診断支援方法。
A brain function disease diagnosis support method using an image display unit that displays an image for a subject to visually recognize,
The image display unit displays an image for the subject to visually recognize,
Dividing the image displayed on the display surface in the image display unit into a plurality of blocks;
The image displayed by the image display unit in the block is associated for each of the plurality of blocks,
Irradiate the subject with infrared rays,
Imaging at least the reflected infrared light reflected by the subject to generate two image data having a horizontal parallax;
Based on the generated two image data, the pupil position of the subject is calculated,
Based on the calculated position of the pupil, calculates gaze information indicating the gaze of the subject,
Based on the calculated line-of-sight information, for each of the plurality of blocks, derive whether there is a gaze point of the subject,
Accumulate the derived results for each block,
Referring to accumulated the result, the diagnosis target and brain function disorder diagnosis support method by weighting corresponding to the type of disease characterized by the TURMERIC line a predetermined operation to be based on the contents of the image of each block.
JP2012035798A 2012-02-22 2012-02-22 Brain function disease diagnosis support apparatus and brain function disease diagnosis support method Active JP5817582B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012035798A JP5817582B2 (en) 2012-02-22 2012-02-22 Brain function disease diagnosis support apparatus and brain function disease diagnosis support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012035798A JP5817582B2 (en) 2012-02-22 2012-02-22 Brain function disease diagnosis support apparatus and brain function disease diagnosis support method

Publications (2)

Publication Number Publication Date
JP2013169375A JP2013169375A (en) 2013-09-02
JP5817582B2 true JP5817582B2 (en) 2015-11-18

Family

ID=49263733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012035798A Active JP5817582B2 (en) 2012-02-22 2012-02-22 Brain function disease diagnosis support apparatus and brain function disease diagnosis support method

Country Status (1)

Country Link
JP (1) JP5817582B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021192704A1 (en) 2020-03-27 2021-09-30 国立大学法人大阪大学 Cognitive impairment diagnostic device and cognitive impairment diagnostic program
US11583221B2 (en) 2017-11-14 2023-02-21 Osaka University Cognitive impairment diagnostic apparatus and cognitive impairment diagnostic program

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5926210B2 (en) * 2012-03-21 2016-05-25 国立大学法人浜松医科大学 Autism diagnosis support system and autism diagnosis support apparatus
JP6003277B2 (en) * 2012-06-19 2016-10-05 株式会社Jvcケンウッド Diagnosis support apparatus and diagnosis support method
JP6895144B2 (en) * 2017-04-05 2021-06-30 北海道公立大学法人 札幌医科大学 Diagnosis support system, operation method of diagnosis support system, and program
JP6883242B2 (en) * 2017-07-28 2021-06-09 株式会社Jvcケンウッド Evaluation device, evaluation method, and evaluation program
CN113194840A (en) * 2018-12-17 2021-07-30 株式会社夏目综合研究所 Diagnostic device for brain diseases
JP6787601B2 (en) * 2019-03-19 2020-11-18 Impute株式会社 Autism treatment support system, autism treatment support device, and program
JP2022160012A (en) * 2019-08-30 2022-10-19 国立研究開発法人国立成育医療研究センター Prediction method and prediction device
WO2021161573A1 (en) * 2020-02-10 2021-08-19 株式会社シンクアウト Ocular movement inspection device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0653107B2 (en) * 1992-07-09 1994-07-20 株式会社エイ・ティ・アール視聴覚機構研究所 Medical diagnostic device using line-of-sight detection
JP4517049B2 (en) * 2003-12-25 2010-08-04 国立大学法人静岡大学 Gaze detection method and gaze detection apparatus
JP4500992B2 (en) * 2004-01-14 2010-07-14 国立大学法人静岡大学 3D viewpoint measuring device
WO2007023798A1 (en) * 2005-08-23 2007-03-01 National University Corporation Shizuoka University Pupil detection device and pupil detection method
US8371693B2 (en) * 2010-03-30 2013-02-12 National University Corporation Shizuoka University Autism diagnosis support apparatus
JP4876207B2 (en) * 2010-06-11 2012-02-15 国立大学法人 名古屋工業大学 Cognitive impairment risk calculation device, cognitive impairment risk calculation system, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11583221B2 (en) 2017-11-14 2023-02-21 Osaka University Cognitive impairment diagnostic apparatus and cognitive impairment diagnostic program
WO2021192704A1 (en) 2020-03-27 2021-09-30 国立大学法人大阪大学 Cognitive impairment diagnostic device and cognitive impairment diagnostic program

Also Published As

Publication number Publication date
JP2013169375A (en) 2013-09-02

Similar Documents

Publication Publication Date Title
JP5817582B2 (en) Brain function disease diagnosis support apparatus and brain function disease diagnosis support method
Lavric et al. KeratoDetect: keratoconus detection algorithm using convolutional neural networks
Singh et al. An enhanced deep image model for glaucoma diagnosis using feature-based detection in retinal fundus
Yousefi et al. Glaucoma progression detection using structural retinal nerve fiber layer measurements and functional visual field points
Zangwill et al. Baseline topographic optic disc measurements are associated with the development of primary open-angle glaucoma: the Confocal Scanning Laser Ophthalmoscopy Ancillary Study to the Ocular Hypertension Treatment Study
US11357398B2 (en) Image processing device and non-transitory computer-readable recording medium
Kamran et al. Optic-net: A novel convolutional neural network for diagnosis of retinal diseases from optical tomography images
CN114207736A (en) Information processing apparatus, information processing method, information processing system, and program
JP6878923B2 (en) Image processing equipment, image processing system, and image processing program
KR101984995B1 (en) Artificial intelligence visual field alalysis method and apparatus
JP2018121886A (en) Image processing device and image processing program
Daich Varela et al. Artificial intelligence in retinal disease: clinical application, challenges, and future directions
KR102071774B1 (en) Method for predicting cardio-cerebrovascular disease using eye image
CN114390907A (en) Machine learning method for creating a structure-derived field-of-view prior
Belghith et al. Learning from healthy and stable eyes: A new approach for detection of glaucomatous progression
US20220284577A1 (en) Fundus image processing device and non-transitory computer-readable storage medium storing computer-readable instructions
JP2023505269A (en) A Deep Neural Network Framework for Processing OCT Images to Predict Treatment Intensity
Çetiner Cataract disease classification from fundus images with transfer learning based deep learning model on two ocular disease datasets
Rakhmetulayeva et al. IMPLEMENTATION OF CONVOLUTIONAL NEURAL NETWORK FOR PREDICTING GLAUCOMA FROM FUNDUS IMAGES.
US11941809B1 (en) Glaucoma detection and early diagnosis by combined machine learning based risk score generation and feature optimization
JP7534301B2 (en) Systems and methods for intraocular lens selection using emmetropia prediction - Patents.com
KR102343796B1 (en) Method for predicting cardiovascular disease using eye image
Saleh et al. Artificial intelligence in corneal topography
Çetintaş et al. Detection of autism spectrum disorder from changing of pupil diameter using multi-modal feature fusion based hybrid CNN model
Venkatapathappa et al. Ocular Pathology and Genetics: Transformative Role of Artificial Intelligence (AI) in Anterior Segment Diseases

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150914

R150 Certificate of patent or registration of utility model

Ref document number: 5817582

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150