JP2008173188A - System for measurement of eye position in closed state of eyes - Google Patents

System for measurement of eye position in closed state of eyes Download PDF

Info

Publication number
JP2008173188A
JP2008173188A JP2007007414A JP2007007414A JP2008173188A JP 2008173188 A JP2008173188 A JP 2008173188A JP 2007007414 A JP2007007414 A JP 2007007414A JP 2007007414 A JP2007007414 A JP 2007007414A JP 2008173188 A JP2008173188 A JP 2008173188A
Authority
JP
Japan
Prior art keywords
image
line
related data
data
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007007414A
Other languages
Japanese (ja)
Inventor
Satoru Miyauchi
哲 宮内
Masashi Kobashi
昌司 小橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2007007414A priority Critical patent/JP2008173188A/en
Publication of JP2008173188A publication Critical patent/JP2008173188A/en
Pending legal-status Critical Current

Links

Landscapes

  • Eye Examination Apparatus (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system 100 for measurement of eye position which accurately measures a visual line angle simultaneously with brain function measurement using fMRI while the eyes of a subject M are closed or the subject M is asleep. <P>SOLUTION: The system for measurement of eye position comprises a correlation data calculation section for calculating correlation data that shows correlation between a visual line angle and surface image related data, and a visual line angle calculation section 51 for calculating a visual line angle of a subject M when the eye is imaged on the basis of the correlation data and surface image related data acquired by imaging the eyelids of the subject M when the eye is closed by means of an optical imaging apparatus 2 separately from imaging at each point for acquiring the surface image related data used for calculating the correlation data. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、被験者が閉眼しているときの視線角度を測定する眼位測定システム等に関するものである。   The present invention relates to an eye position measurement system that measures a line-of-sight angle when a subject is closed.

睡眠中に脳のどの部位が活動しているのかを知ることは、睡眠研究にとって大変重要な要素であり、そのために、非侵襲で脳機能を測定することができるfMRIがしばしば利用されている。一方、例えば、急速眼球運動(REM:Rapid Eye Movementとも言う)の有無によって、睡眠をレム睡眠とノンレム睡眠とに分類する手法があるように、睡眠の違いによって眼球運動に変化が現れることはよく知られている。このようなことから、脳機能と眼球運動との関連性を解明すれば、睡眠研究がさらに進歩すると期待されており、そのための眼球運動測定手法について、従来種々の提案がなされている。   Knowing which part of the brain is active during sleep is a very important factor for sleep studies, and therefore fMRI, which can measure brain function non-invasively, is often used. On the other hand, for example, there is a technique that classifies sleep into REM sleep and non-REM sleep depending on the presence or absence of rapid eye movement (REM: Rapid Eye Movement). Are known. For this reason, it is expected that sleep research will be further advanced if the relationship between brain function and eye movement is elucidated, and various proposals have been made regarding eye movement measurement techniques for that purpose.

その1つがEOG(elctro−oculogram)である。EOGは網膜-角膜間の電位差を眼球周辺の皮膚に装着した電極により計測する方法であり、その電位差の変化によって眼球運動を測定することができる。また、コイル付のコンタクトレンズと交流磁場を利用して閉眼時の眼球位置を検出できるようにしたものも知られている。   One of them is EOG (eltro-oculogram). EOG is a method of measuring the potential difference between the retina and the cornea with an electrode attached to the skin around the eyeball, and the eye movement can be measured by a change in the potential difference. Further, there is also known one that can detect the position of the eyeball when the eye is closed by using a contact lens with a coil and an alternating magnetic field.

しかしながら、強力な磁場を発生させるMRI装置内においては、前者ではアーチファクトが発生して正確な測定が困難である。また後者では、眼球に装着しなければならないことから被験者への負担が大きいうえに、磁場の影響で、そもそもMRI装置内で使用することが難しい。つまり、これらの眼球運動測定手法によっては、眼球運動をfMRIを用いた脳機能測定と同時に測定することは非常に困難である。   However, in the MRI apparatus that generates a strong magnetic field, artifacts are generated in the former, and accurate measurement is difficult. In the latter case, since it must be worn on the eyeball, the burden on the subject is great, and it is difficult to use the device in the MRI apparatus due to the influence of the magnetic field. That is, it is very difficult to measure eye movement simultaneously with brain function measurement using fMRI depending on these eye movement measurement techniques.

そこで、非特許文献1に示すように、赤外線ビデオカメラを用いて、睡眠中の眼瞼表面を撮像し、画像処理を施すことにより、MRI装置内で眼球位置を検出できるようにした装置が提案されている。しかし、被験者によって眼瞼表面の形状が異なるなどの理由から、ある程度の視線移動を検出することができてもその精度が低いという不具合がある。   Therefore, as shown in Non-Patent Document 1, there has been proposed an apparatus that can detect an eyeball position in an MRI apparatus by imaging an eyelid surface during sleep using an infrared video camera and performing image processing. ing. However, there is a problem that the accuracy is low even if a certain amount of eye movement can be detected because the shape of the eyelid surface varies depending on the subject.

また、これらに対して、そもそもfMRIを用いれば、体内の種々の部位における機能画像を得られるのであるから、わざわざ眼球運動測定用に別の検出器を用いるようなことはせず、fMRIによって脳機能と眼球運動を同時に測定すればいいのではないかという疑問もあろうが、現在のところ、MRIほどの空間分解能をもってfMRIによる画像を得ることはできないし、また眼球周辺には副鼻腔などのように空洞が多くあり、その影響で脳と同条件で撮像すると、画像に大きな歪みが生じ、その画像から眼球運動を捉えることなど到底できない。さらに,眼球運動の速度は,視角にして数百度/秒に達するため,2〜3秒毎に撮像する機能画像から正確な眼球運動を計測することは不可能である.
第1回複合医工学シンポジウム論文集p152〜p155「睡眠時における脳機能評価のための赤外線ビデオを用いた眼位推定法」
On the other hand, if fMRI is used in the first place, functional images in various parts of the body can be obtained. Therefore, it is not necessary to use another detector for measuring eye movement. There may be doubts that it may be necessary to measure the function and eye movement at the same time, but at present, images with fMRI cannot be obtained with spatial resolution as high as MRI. As described above, there are many cavities, and if an image is taken under the same conditions as the brain, a large distortion occurs in the image, and it is impossible to capture eye movement from the image. Furthermore, since the speed of eye movement reaches several hundred degrees / second in terms of viewing angle, it is impossible to accurately measure eye movement from functional images captured every 2 to 3 seconds.
Proceedings of the 1st Composite Medical Engineering Symposium p152-p155 “Eye Position Estimation Using Infrared Video for Brain Function Evaluation During Sleep”

本発明は、かかる不具合を鑑みてなされたものであって、MRI構造画像から得られた視線角度を教師信号として、被験者ごとに表面光学画像から視線角度への変換則を学習し、その学習結果を利用することによって、閉眼あるいは睡眠中の被験者の視線角度を精度よく、しかもfMRIによる脳機能測定と同時に測定できるようにするとともに、それによって睡眠研究のさらなる進歩等に寄与すべく図ったものである。   The present invention has been made in view of such a problem, and learns a conversion rule from a surface optical image to a line-of-sight angle for each subject using the line-of-sight angle obtained from the MRI structure image as a teacher signal. Is used to accurately measure the gaze angle of a subject who is closed or sleeping while simultaneously measuring brain function with fMRI, thereby contributing to further progress in sleep research, etc. is there.

すなわち、本発明に係る眼位測定システムは、眼位学習機構及び眼位測定機構からなり、
前記眼位学習機構が、閉眼状態にある被験者の視線を変えさせ、その視線を変えた複数ポイントにおいてMRI装置で得られた眼球の構造画像に関するデータである構造画像関連データ及び光学撮像装置で得られた眼瞼の表面画像に関するデータである表面画像関連データを対にして取得する画像関連データ取得部と、前記各ポイントでの視線角度を、前記構造画像関連データに基づいて実測する視線角度実測部と、前記各視線角度とそれぞれに対応する前記表面画像関連データとを比較し、視線角度と表面画像関連データとの相関を示す相関データを算出する相関データ算出部と、を備えており、
前記眼位測定機構が、前記各ポイントでの撮像とは別に、閉眼状態での当該被験者の眼瞼を光学撮像装置で撮像して得られた表面画像関連データ及び前記相関データに基づいて、その撮像時の被験者の視線角度を推定算出する視線角度算出部と、を備えていることを特徴とする。
That is, the eye position measurement system according to the present invention comprises an eye position learning mechanism and an eye position measurement mechanism,
The eye position learning mechanism changes the line of sight of the subject in the closed eye state, and obtains the structural image related data and the optical imaging apparatus, which are data related to the structural image of the eyeball obtained by the MRI apparatus at a plurality of points where the line of sight is changed. An image-related data acquisition unit that acquires a pair of surface image-related data that is data related to the surface image of the eyelid, and a line-of-sight angle measurement unit that measures the line-of-sight angle at each point based on the structural image-related data And a correlation data calculation unit that compares the respective line-of-sight angles with the surface image-related data corresponding to the respective line-of-sight angles, and calculates correlation data indicating a correlation between the line-of-sight angle and the surface image-related data, and
In addition to imaging at each point, the eye position measurement mechanism performs imaging based on surface image-related data obtained by imaging the eyelid of the subject in the closed eye state with an optical imaging device and the correlation data. A gaze angle calculation unit that estimates and calculates the gaze angle of the subject at the time.

また、本発明に係る眼位学習機構は、閉眼状態の被験者に視線を変えさせ、その視線を変えた複数ポイントにおいてMRI装置で得られた眼球の構造画像に関するデータである構造画像関連データ及び光学撮像装置で得られた眼瞼の表面画像に関するデータである表面画像関連データを、対にして取得する画像関連データ取得部と、前記各ポイントでの視線角度を、前記構造画像関連データに基づいて実測する視線角度実測部と、前記各視線角度とそれぞれに対応する前記表面画像関連データとを比較し、視線角度と表面画像関連データとの相関を示す相関データを算出する相関データ算出部と、を備えていることを特徴とする。   In addition, the eye position learning mechanism according to the present invention causes a closed eye subject to change his / her line of sight, and structural image related data and optical data that are data related to the structure image of the eyeball obtained by the MRI apparatus at a plurality of points where the line of sight is changed. An image-related data acquisition unit that acquires a pair of surface image-related data that is data related to the surface image of the eyelid obtained by the imaging device, and the line-of-sight angle at each point is measured based on the structure image-related data A line-of-sight angle measurement unit that compares the surface image-related data corresponding to each line-of-sight angle, and a correlation data calculation unit that calculates correlation data indicating a correlation between the line-of-sight angle and the surface image-related data. It is characterized by having.

相関データ算出を容易にするためには、前記表面画像関連データが、原画像上において上眼瞼側に仮想的に設定したラインあるいは二次元領域内の各座標における輝度値を内容とするものであることが望ましい。   In order to facilitate the calculation of correlation data, the surface image-related data contains the brightness value at each coordinate in a line or two-dimensional region virtually set on the upper eyelid side on the original image. It is desirable.

学習用の視線角度測定を容易にするためには、前記構造画像関連データが、原画像から抽出された眼球抽出画像と水晶体抽出画像とを示すものであることが好ましい。   In order to facilitate gaze angle measurement for learning, it is preferable that the structural image-related data indicates an eyeball extracted image and a lens extracted image extracted from the original image.

前記視線角度実測部の具体的一態様としては、当該視線角度実測部が、前記構造画像関連データから得られる各眼球の位置関係に対する水晶体の位置に基づいて視線角度を実測するものを挙げることができる。   As a specific aspect of the visual angle measurement unit, the visual angle measurement unit measures the visual angle based on the position of the crystalline lens with respect to the positional relationship of each eyeball obtained from the structural image related data. it can.

精度の高い相関を得るためには、相関データ算出部が、相関データとしてニューラルネットワークを形成するものであり、そのニューラルネットワーク形成時の入力教示信号として、前記各ポイントで実測された視線角度と前記座標とを少なくとも与えるとともに、出力教示信号としてその座標での輝度値を与えるようにしているものが好適である。   In order to obtain a highly accurate correlation, the correlation data calculation unit forms a neural network as the correlation data, and the line-of-sight angle actually measured at each point as the input teaching signal at the time of forming the neural network and the above-mentioned It is preferable to provide at least the coordinates and to give the luminance value at the coordinates as the output teaching signal.

また、本発明に係る眼位測定機構は、前記眼位学習機構によって得られた相関データを利用するものであって、光学撮像装置により閉眼状態での眼瞼を撮像して得られた表面画像関連データ及び前記相関データに基づいて、当該撮像時の視線角度を推定算出する視線角度算出部を備えていることを特徴とする。   The eye position measurement mechanism according to the present invention uses correlation data obtained by the eye position learning mechanism, and relates to a surface image obtained by imaging an eyelid in a closed eye state by an optical imaging device. A line-of-sight angle calculation unit that estimates and calculates the line-of-sight angle at the time of imaging based on the data and the correlation data is provided.

また、本発明に係る眼位学習用プログラムは、閉眼状態の被験者に視線を変えさせ、その視線を変えた複数ポイントにおいてMRI装置で得られた眼球の構造画像に関するデータである構造画像関連データ及び光学撮像装置で得られた眼瞼の表面画像に関するデータである表面画像関連データを、対にして取得する画像関連データ取得部と、前記各ポイントでの視線角度を、前記構造画像関連データに基づいて実測する視線角度実測部と、前記各視線角度とそれぞれに対応する前記表面画像関連データとを比較し、視線角度と表面画像関連データとの相関を示す相関データを算出する相関データ算出部と、としての機能をコンピュータに発揮させるものであることを特徴とする。   Further, the eye position learning program according to the present invention causes a closed eye subject to change his / her line of sight, and structural image related data which is data on a structural image of an eyeball obtained by an MRI apparatus at a plurality of points where the line of sight is changed, and An image-related data acquisition unit that acquires a pair of surface image-related data that is data related to the surface image of the eyelids obtained by the optical imaging device, and a line-of-sight angle at each point based on the structure image-related data A line-of-sight angle measurement unit for actual measurement, a correlation data calculation unit that compares the surface image-related data corresponding to each line-of-sight angle and calculates correlation data indicating a correlation between the line-of-sight angle and the surface image-related data; It is characterized by causing the computer to exhibit the functions as described above.

また、本発明に係る眼位測定用プログラムは、前記眼位学習機構によって得られた相関データを利用するものであって、光学撮像装置により閉眼状態での眼瞼を撮像して得られた表面画像関連データ及び前記相関データに基づいて、当該撮像時の視線角度を推定算出する視線角度算出部としての機能をコンピュータに発揮させるものであることを特徴とする。   The eye position measurement program according to the present invention uses the correlation data obtained by the eye position learning mechanism, and is a surface image obtained by imaging an eyelid in a closed eye state by an optical imaging device. Based on the related data and the correlation data, the computer functions as a line-of-sight angle calculation unit that estimates and calculates the line-of-sight angle at the time of imaging.

以上のように構成した本発明によれば、MRI構造画像から得られた視線角度を教師信号として、被験者ごとに表面光学画像から視線角度への変換則を学習し、その学習結果を利用して、表面光学画像から被験者の閉眼時における視線角度を推定算出するようにしているので、閉眼時の視線角度算出(以下眼位測定とも言う)の精度と信頼性を大きく向上させることができる。
また、MRI装置と併用してもそのノイズの影響を受けることなく測定できるので、例えば、被験者にMRI装置のガントリ内で睡眠してもらい、その睡眠中に、本眼位測定システムを動作させて、眼球運動を測定しつつ、fMRI画像を取得するようにすれば、睡眠中の脳機能と眼球運動との関係を、より正確に把握することが可能になる。そしてこのことにより、睡眠研究の新たな進歩に寄与できると考えられる。
さらに、学習さえ完了していれば、眼位測定の際に必ずしもMRIと併用する必要はなく、眼瞼周囲の光学的な実写画像又はビデオ画像さえあればよいので、その被験者の眼球運動を簡便な構成で測定できる。
According to the present invention configured as described above, a conversion rule from a surface optical image to a line-of-sight angle is learned for each subject using the line-of-sight angle obtained from the MRI structure image as a teacher signal, and the learning result is used. Since the gaze angle when the subject is closed is estimated and calculated from the surface optical image, the accuracy and reliability of gaze angle calculation (hereinafter also referred to as eye position measurement) when the eye is closed can be greatly improved.
In addition, since measurement can be performed without being affected by the noise even when used in combination with an MRI apparatus, for example, the subject is allowed to sleep in the gantry of the MRI apparatus, and the eye position measurement system is operated during the sleep. If the fMRI image is acquired while measuring the eye movement, the relationship between the brain function during sleep and the eye movement can be grasped more accurately. And this is thought to contribute to new advances in sleep research.
Furthermore, as long as learning is completed, it is not always necessary to use MRI for eye position measurement, and it is only necessary to have an optical real image or video image around the eyelid. Can be measured by configuration.

以下、本発明の一実施形態について図面を参照して説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、本実施形態に係る眼位測定システム100の全体を示す概略的な模式図である。   FIG. 1 is a schematic diagram showing an entire eye position measurement system 100 according to the present embodiment.

この眼位測定システム100は、被験者Mの閉眼状態での視線角度(又は眼位とも言う)を測定するものであり、物理的な構成で言えば、同図に示すように、MRI装置1と、光学撮像装置2と、汎用又は専用のコンピュータである情報処理装置3とを備えており、機能面から言えば、図2に示すように眼位学習機構4と眼位測定機構5とから構成されている。   The eye position measurement system 100 measures the line-of-sight angle (or eye position) of the subject M in the closed eye state. In terms of physical configuration, as shown in FIG. The optical imaging apparatus 2 and the information processing apparatus 3 that is a general-purpose or dedicated computer are provided. From a functional aspect, the apparatus includes an eye position learning mechanism 4 and an eye position measurement mechanism 5 as shown in FIG. Has been.

MRI装置1は、周知のごとく、強力な磁場と電波を発生するガントリ11を備えたもので、水および脂肪の構成原子である水素原子核を共鳴させることでガントリ11内部の被験者Mの内部断面構造を画像化することができる。なお、このMRI装置1は、前記構造画像だけでなく、血液の酸化度による各ボクセル毎の信号強度の時間変化に基づいて、機能画像をも出力できる。光学撮像装置2は、前記ガントリ11の外部に設置されて、そのガントリ11内に配置されたミラー21を介して、被験者Mの眼瞼周辺を撮像するもので、ここでは赤外線検知タイプのものを用いている。これは、被験者Mへの照明に、被験者Mが知覚できず睡眠への影響が小さいLED22からの赤外光を用いていることによる。なお、LED22からの赤外光は、光ファイバ23を用いてガントリ11内に供給するようにしている。また照明に可視光を用いた場合には、それに応じて光学撮像装置2も通常のものを利用すればよい。情報処理装置3は、CPU、メモリ、入出力手段、I/Oインタフェースなどを備えた汎用乃至専用のいわゆるコンピュータを主体として構成されたものであり、その他にアナログ電気回路などを付帯させている場合もある。   As is well known, the MRI apparatus 1 includes a gantry 11 that generates a strong magnetic field and radio waves, and resonates hydrogen nuclei that are constituent atoms of water and fat to resonate the internal cross-sectional structure of the subject M inside the gantry 11. Can be imaged. The MRI apparatus 1 can output not only the structural image but also a functional image based on a temporal change in signal intensity for each voxel depending on the degree of blood oxidation. The optical imaging device 2 is installed outside the gantry 11 and images the periphery of the eyelid of the subject M through a mirror 21 disposed in the gantry 11. Here, an infrared detection type device is used. ing. This is because infrared light from the LED 22 that cannot be perceived by the subject M and has little influence on sleep is used for illumination of the subject M. The infrared light from the LED 22 is supplied into the gantry 11 using the optical fiber 23. Further, when visible light is used for illumination, the optical imaging device 2 may use a normal one accordingly. The information processing apparatus 3 is configured mainly by a general-purpose or dedicated so-called computer including a CPU, a memory, an input / output unit, an I / O interface, and the like, and additionally includes an analog electric circuit or the like. There is also.

眼位学習機構4及び眼位測定機構5は、前記MRI装置1と光学撮像装置2と前記情報処理装置3とが協働することによりその機能を発揮するように構成されたものであって、特に情報処理装置3は、搭載された所定プログラムにしたがってCPU等が作動することにより、図2に示すように、画像関連データ取得部41、視線角度実測部42、相関データ算出部43、視線角度算出部51等としての機能を発揮する。   The eye position learning mechanism 4 and the eye position measurement mechanism 5 are configured to perform their functions by the cooperation of the MRI apparatus 1, the optical imaging apparatus 2, and the information processing apparatus 3, In particular, the information processing apparatus 3 operates as a CPU or the like according to a predetermined program installed therein, and as shown in FIG. 2, the image-related data acquisition unit 41, the gaze angle measurement unit 42, the correlation data calculation unit 43, the gaze angle It functions as the calculation unit 51 and the like.

各部について簡単に説明しておくと、画像関連データ取得部41は、MRI装置1のガントリ11内に横臥した閉眼状態(ただし覚醒状態)の被験者Mに、視線を複数ポイントに亘って変えてもらい、その各ポイントにおいて、MRI装置1で得られた眼球の構造画像に関するデータ(以下、構造画像関連データと言う)及び光学撮像装置2で得られた眼瞼の表面画像に関するデータ(以下、表面画像関連データと言う)を対にして取得するものである。視線角度実測部42は、前記各ポイントでの視線角度を前記構造画像関連データに基づいて実測するものである。相関データ算出部43は、前記各視線角度とそれぞれに対応する前記表面画像関連データとを比較し、視線角度と表面画像関連データとの相関を示す相関データを算出するものである。視線角度算出部51は、前記各ポイントでの撮像とは別に、閉眼状態での当該被験者Mの眼瞼を光学撮像装置2で撮像し、得られた表面画像関連データ及び前記相関データに基づいて、当該撮像時の視線角度を推定算出するものである。   Briefly describing each unit, the image-related data acquisition unit 41 asks the subject M who is lying in the gantry 11 of the MRI apparatus 1 to change his / her line of sight over a plurality of points. At each point, data relating to the structural image of the eyeball obtained by the MRI apparatus 1 (hereinafter referred to as structural image-related data) and data relating to the surface image of the eyelid obtained by the optical imaging apparatus 2 (hereinafter referred to as surface image-related) Data). The line-of-sight angle measurement unit 42 measures the line-of-sight angle at each point based on the structural image related data. The correlation data calculation unit 43 compares the respective line-of-sight angles with the surface image-related data corresponding to the respective line-of-sight angles, and calculates correlation data indicating the correlation between the line-of-sight angle and the surface image-related data. The line-of-sight angle calculation unit 51 images the eyelid of the subject M in the closed eye state with the optical imaging device 2 separately from the imaging at each point, and based on the obtained surface image related data and the correlation data, The line-of-sight angle at the time of imaging is estimated and calculated.

かかる構成の眼位測定システム100につき、その動作を眼位学習機構4と眼位測定機構5とに分けて以下に説明する。   The operation of the eye position measuring system 100 having such a configuration will be described below by dividing the operation into the eye position learning mechanism 4 and the eye position measuring mechanism 5.

まず眼位学習機構4の動作から説明する。   First, the operation of the eye position learning mechanism 4 will be described.

MRI装置1のガントリ11内に横臥した閉眼状態(ただし覚醒状態)の被験者Mに対し、オペレータが指示するなどして、視線を複数ポイントに亘って変えてもらう。ここでの視線設定ポイント、は例えば左、中、右であるが、もちろん、被験者Mが可能な限り、ポイントを増加させることは構わない。   An operator instructs the subject M who is lying in the gantry 11 of the MRI apparatus 1 in an eye-closed state (but awake) to change his / her line of sight over a plurality of points. The line-of-sight setting points here are, for example, left, middle, and right, but of course, as long as the subject M is possible, the points may be increased.

そして各ポイントで、被験者Mに視線を固定してもらい、その状態で、左右眼球部分を含んだ頭部から見た横断面構造画像をMRI装置1により撮像するとともに、光学撮像装置2により左右両眼瞼の表面光学画像をほぼ同時に撮像する。   Then, at each point, the subject M fixes his / her line of sight, and in that state, the cross-sectional structure image viewed from the head including the left and right eyeball portions is imaged by the MRI apparatus 1, and both the left and right by the optical imaging apparatus 2. A surface optical image of the eyelid is taken almost simultaneously.

この撮像によって得られた各原画像データ(図3左に構造画像、図4に左右の光学画像を示す)は、情報処理装置3に送信され、そこで画像処理がなされて画像関連データに変換される。   Each original image data obtained by this imaging (a structural image is shown on the left in FIG. 3 and left and right optical images are shown in FIG. 4) is transmitted to the information processing device 3, where it is processed and converted into image-related data. The

その画像処理は、前記画像関連データ取得部41が行う。構造画像関連データに関していえば、図5に模式的に示すように、原画像から二値化ラベリング等によって眼球を抽出し眼球抽出画像(図6参照)を生成するとともに、原画像と眼球抽出画像とのXOR演算等を行い、水晶体抽出画像(図6参照)を生成する。これら眼球抽出画像及び水晶体抽出画像を含むデータが構造画像関連データである。表面画像関連データに関していえば、まず原画像から、二値化処理などによって眼瞼裂を検出し、原画像上において、その眼瞼列の例えば端点同士を結ぶか、あるいはそれより所定ピクセルだけ上瞼側に、左右ライン(図7に示す)を設定し、その左右ライン上の輝度を、所定数のピクセル(1又は複数)を1単位領域として分割した各単位領域ごとの輝度値列を生成する。この輝度値列が表面画像関連データである。なお、各単位の例えば左からの順番を位置を示す座標(例えば1〜mまでの自然数)として設定している。画像関連データ取得部41は、このようにして得られた各画像関連データを、各ポイントごとに対にして、かつその被験者Mの識別子にひも付けて、メモリの所定領域に設定した画像関連データ格納部D1に格納する。なお、画像処理がなんら行われず、画像関連データが原画像データそのものとなる場合もある。   The image processing is performed by the image related data acquisition unit 41. As for the structural image related data, as schematically shown in FIG. 5, the eyeball is extracted from the original image by binarization labeling or the like to generate an eyeball extracted image (see FIG. 6), and the original image and the eyeball extracted image. And the like, and a lens extraction image (see FIG. 6) is generated. Data including the eyeball extracted image and the lens extracted image is structural image related data. Regarding surface image-related data, first, eyelids are detected from the original image by binarization processing, etc., and, for example, the end points of the eyelid row are connected on the original image, or the upper eyelid side by a predetermined pixel from it. In addition, left and right lines (shown in FIG. 7) are set, and a luminance value string is generated for each unit area obtained by dividing the luminance on the left and right lines by dividing a predetermined number of pixels (one or more) into one unit area. This luminance value sequence is the surface image related data. For example, the order of each unit from the left is set as coordinates indicating the position (for example, natural numbers from 1 to m). The image-related data acquisition unit 41 sets the image-related data set in a predetermined area of the memory by pairing each image-related data obtained in this way for each point and linking it to the identifier of the subject M. Store in the storage unit D1. In some cases, no image processing is performed, and the image-related data becomes the original image data itself.

次に、視線角度実測部42が、前記各ポイントでの視線角度を前記構造画像関連データに基づいて実測する。具体的にこの視線角度算出部42は、図3右、図8に示すように、例えば、まず前記眼球抽出画像から各眼球の中心を結ぶ仮想直線Aを制定し、その仮想直線Aに対し垂直で各眼球の中心から延出する垂仮想直線B、Bを制定する。次に、各眼球の中心から水晶体の中心に向かう仮想直線C、Cを制定する。そしてBとCとのなす角度を右眼の視線角度とし、BとCとのなす角度を左眼の視線角度とする。 Next, the line-of-sight angle measurement unit 42 measures the line-of-sight angle at each point based on the structural image related data. Specifically, as shown in FIG. 3 right and FIG. 8, for example, the line-of-sight angle calculation unit 42 first establishes a virtual straight line A connecting the centers of the respective eyeballs from the eyeball extracted image and is perpendicular to the virtual straight line A. in vertical virtual line B R extending from the center of each eyeball, enact B L. Next, virtual straight lines C R and C L from the center of each eyeball to the center of the crystalline lens are established. And B an angle between R and C R the viewing angle of the right eye, the angle between B L and C L and viewing angle of the left eye.

最後に、相関データ算出部43が、前記各視線角度とそれぞれに対応する前記表面画像関連データとを比較し、視線角度と表面画像関連データとの相関を示す相関データを算出する。具体的には、図9に示すように、入力教師信号として、ポイントごとに得られた視線角度に加え、前記座標(図9ではxと表記している)及びその関連値(ここでは座標xの2〜n乗までの値、nは2以上自然数)とバイアスとを用いるとともに、出力教師信号として、その座標の示す単位領域の輝度値を用い、それらの間に例えば3階層のニューラルネットワーク構造を介在させて、バックプロパゲーションによる学習を行わせる。これを全ての単位領域について、また各ポイントごとに行う。このようにして形成されたニューラルネットワークこそが、この実施形態における相関データであり、このニューラルネットワークの形成をもって、学習が終了する。そして、この実施形態では、このニューラルネットワーク(相関データ)を被験者の識別子と対にして、相関データ格納D3部に格納するようにしている。   Finally, the correlation data calculation unit 43 compares the respective line-of-sight angles with the corresponding surface image-related data, and calculates correlation data indicating the correlation between the line-of-sight angle and the surface image-related data. Specifically, as shown in FIG. 9, in addition to the line-of-sight angle obtained for each point as an input teacher signal, the coordinates (indicated as x in FIG. 9) and their related values (here, coordinates x) 2 to the power of n, where n is a natural number greater than or equal to 2) and a bias, and the luminance value of the unit area indicated by the coordinates is used as an output teacher signal, for example, a three-layer neural network structure between them To learn by back-propagation. This is performed for all unit areas and for each point. The neural network formed in this way is the correlation data in this embodiment, and learning ends when the neural network is formed. In this embodiment, this neural network (correlation data) is paired with the subject identifier and stored in the correlation data storage D3 section.

かかるニューラルネットワーク(すなわち相関データ)を用いれば、任意の視線角度と座標値を入力することで、その座標値に対応する輝度を算出することができる。そこで、例えばこの実施形態では、推定表面画像関連データ生成部7を設け、この推定表面画像関連データ生成部7が、所定単位ごとの全ての視線角度について、それぞれ全ての座標のピクセル輝度値を算出し、各視線角度について算出された輝度値列、すなわち推定表面画像関連データを、メモリの所定領域に設定した推定表面画像関連データ格納部D2に格納するようにしている。   By using such a neural network (that is, correlation data), the luminance corresponding to the coordinate value can be calculated by inputting an arbitrary line-of-sight angle and coordinate value. Thus, for example, in this embodiment, the estimated surface image related data generation unit 7 is provided, and the estimated surface image related data generation unit 7 calculates pixel luminance values of all coordinates for all line-of-sight angles for each predetermined unit. Then, the brightness value sequence calculated for each line-of-sight angle, that is, the estimated surface image-related data is stored in the estimated surface image-related data storage unit D2 set in a predetermined area of the memory.

次に、眼位測定機構5の動作につき説明する。   Next, the operation of the eye position measurement mechanism 5 will be described.

ここでは、前述したように前記相関データたるニューラルネットワークを用いて得られた推定表面画像関連データと、前記学習時における撮像とは別に光学撮像装置2で撮像して得られた表面画像関連データ(以下、前記推定表面画像関連データとの差別のため、実測表面画像関連データと言うこともある)とを、視線角度算出部51が比較する。比較にあたっては、推定表面画像関連データと実測表面画像関連データとの対応する座標の輝度値同士を比べ、それら輝度値間のユークリッド距離を算出する。そしてこの視線角度算出部51は、全ての推定表面画像関連データのうち、実測表面画像関連データに対して、そのユークリッド距離が最も近いものを抽出する。最後にその抽出した推定表面画像関連データに対応する視線角度をもって、当該撮像時の被験者Mの視線角度と推定する。ちなみに、ある被験者Mで実測した視線角度と推定算出した視線角度との誤差は、右眼で1.15±3.46[度]、左眼で1.28±4.05[度]であり、このことから精度が非常に高いことがわかる。   Here, as described above, the estimated surface image related data obtained using the neural network as the correlation data, and the surface image related data obtained by imaging with the optical imaging device 2 separately from the imaging at the time of learning ( Hereinafter, the line-of-sight angle calculation unit 51 compares the measured surface image-related data with the estimated surface image-related data. In the comparison, the luminance values of corresponding coordinates in the estimated surface image-related data and the measured surface image-related data are compared, and the Euclidean distance between the luminance values is calculated. Then, the line-of-sight angle calculation unit 51 extracts, from all the estimated surface image-related data, the closest Euclidean distance to the measured surface image-related data. Finally, the line-of-sight angle corresponding to the extracted estimated surface image-related data is estimated as the line-of-sight angle of the subject M at the time of imaging. Incidentally, the error between the gaze angle actually measured by a subject M and the estimated gaze angle is 1.15 ± 3.46 [degrees] for the right eye and 1.28 ± 4.05 [degrees] for the left eye. This shows that the accuracy is very high.

そしてこの光学撮像装置2での撮像を、所定周期で時系列的に行うことにより、閉眼時の被験者Mの眼球運動を動画像乃至時系列データとして得ることができる(図10参照)。   Then, by performing imaging with the optical imaging apparatus 2 in a time series in a predetermined cycle, the eye movement of the subject M when the eye is closed can be obtained as a moving image or time series data (see FIG. 10).

したがって、このように構成した本実施形態に係る眼位測定システム100によれば、MRI構造画像から得られた視線角度を教師信号として、被験者Mごとに表面光学画像から視線角度への変換則を学習し、その学習結果を利用して、表面光学画像から視線角度を推定算出するようにしているので、前述したように、その算出結果の精度と信頼性を大きく向上させることができる。   Therefore, according to the eye position measurement system 100 according to the present embodiment configured as described above, the conversion rule from the surface optical image to the line-of-sight angle is determined for each subject M using the line-of-sight angle obtained from the MRI structure image as a teacher signal. Since learning is performed and the line-of-sight angle is estimated and calculated from the surface optical image using the learning result, as described above, the accuracy and reliability of the calculation result can be greatly improved.

また、MRI装置1の中でノイズの影響を受けることなく測定できるので、例えば、被験者MにMRI装置1のガントリ11内で睡眠してもらい、その睡眠中に、本眼位測定システム100を動作させて、眼球運動を測定しつつ、fMRI画像を取得すれば、睡眠中の脳機能と眼球運動との関係を、より正確に把握することが可能になる。そしてこのことにより、睡眠研究の新たな進歩に寄与できると考えられる。   In addition, since measurement can be performed without being affected by noise in the MRI apparatus 1, for example, the subject M is caused to sleep in the gantry 11 of the MRI apparatus 1, and the eye position measurement system 100 is operated during the sleep. If the fMRI image is acquired while measuring the eye movement, the relationship between the brain function during sleep and the eye movement can be grasped more accurately. And this is thought to contribute to new advances in sleep research.

さらに、学習さえ完了していれば、すなわち被験者に係る相関データさえあれば、その後の眼位測定の際に必ずしもMRIと併用する必要はなく、例えばNIRSなど、他の脳機能測定装置と併用しても構わない。また、被験者の眼球運動を測定するためだけに用いるのであれば、眼瞼周囲の光学的な実写画像又はビデオ画像さえあればよく、非常に簡便な構成での閉眼時の眼位測定が可能である。   Furthermore, if learning is completed, that is, if there is correlation data related to the subject, it is not always necessary to use MRI for subsequent eye position measurement. For example, it can be used in combination with other brain function measuring devices such as NIRS. It doesn't matter. Further, if it is used only for measuring the eye movement of the subject, it is sufficient to have an optical real image or video image around the eyelid, and the eye position can be measured with a very simple configuration. .

なお、本発明は前記実施形態に限られるものではない。
例えば、相関データに必ずしもニューラルネットワークを使う必要はない。また表面画像関連データには、ラインのみならず二次元領域内の各座標の輝度値を用いてもよい。構造画像関連データも他の形式で構わないし、構造画像関連データから視線角度を実測する場合も、鼻の位置を基準にするなどしてもよい。その他、本発明は図示例に限られず、その趣旨を逸脱しない範囲で、種々変形が可能である。
The present invention is not limited to the above embodiment.
For example, it is not always necessary to use a neural network for the correlation data. In addition, as the surface image-related data, the luminance value of each coordinate in the two-dimensional region as well as the line may be used. The structural image related data may be in other formats, and when the line-of-sight angle is actually measured from the structural image related data, the position of the nose may be used as a reference. In addition, the present invention is not limited to the illustrated example, and various modifications can be made without departing from the spirit of the present invention.

本発明の一実施形態における眼位測定システムを示す模式的概略全体図。1 is a schematic overall view showing an eye position measurement system according to an embodiment of the present invention. 同実施形態における情報処理装置の機能を示す機能ブロック図。The functional block diagram which shows the function of the information processing apparatus in the embodiment. 同実施形態における眼球の構造原画像等を示す原画像図。The original image figure which shows the structure original image etc. of the eyeball in the embodiment. 同実施形態における眼瞼の表面原画像を示す原画像図。The original image figure which shows the surface original image of the eyelid in the embodiment. 同実施形態における構造関連画像の生成フローを示すフロー図。The flowchart which shows the production | generation flow of the structure related image in the embodiment. 同実施形態における構造原画像とそこから抽出された眼球抽出画像及び水晶体抽出画像を示す画像図。The image figure which shows the structure original image in the same embodiment, and the eyeball extraction image and lens extraction image which were extracted from there. 同実施形態における左右ラインを説明するための説明図。Explanatory drawing for demonstrating the left-right line in the embodiment. 同実施形態における視線角度の実測プロセスを説明するための説明図。Explanatory drawing for demonstrating the measurement process of the gaze angle in the embodiment. 同実施形態におけるニューラルネットワークを説明するための模式図。The schematic diagram for demonstrating the neural network in the embodiment. 同実施形態において実際に眼球運動を測定したときの実験データ。Experimental data when eye movement is actually measured in the same embodiment.

符号の説明Explanation of symbols

100・・・眼位測定システム
1・・・MRI装置
2・・・光学撮像装置
4・・・眼位学習機構
41・・・画像関連データ取得部
42・・・視線角度実測部
43・・・相関データ算出部
5・・・眼位測定機構
51・・・視線角度算出部
M・・・被験者
DESCRIPTION OF SYMBOLS 100 ... Eye position measurement system 1 ... MRI apparatus 2 ... Optical imaging device 4 ... Eye position learning mechanism 41 ... Image related data acquisition part 42 ... Gaze angle measurement part 43 ... Correlation data calculation unit 5 ... eye position measurement mechanism 51 ... gaze angle calculation unit M ... subject

Claims (9)

閉眼状態にある被験者の視線を変えさせ、その視線を変えた複数ポイントにおいてMRI装置で得られた眼球の構造画像に関するデータである構造画像関連データ及び光学撮像装置で得られた眼瞼の表面画像に関するデータである表面画像関連データを対にして取得する画像関連データ取得部と、
前記各ポイントでの視線角度を、前記構造画像関連データに基づいて実測する視線角度実測部と、
前記各視線角度とそれぞれに対応する前記表面画像関連データとを比較し、視線角度と表面画像関連データとの相関を示す相関データを算出する相関データ算出部と、
前記各ポイントでの撮像とは別に、閉眼状態での当該被験者の眼瞼を光学撮像装置で撮像して得られた表面画像関連データ及び前記相関データに基づいて、その撮像時の被験者の視線角度を推定算出する視線角度算出部と、を備えていることを特徴とする眼位測定システム。
Regarding the image of the eyelid obtained by the optical imaging device and the structural image related data, which is data regarding the structural image of the eyeball obtained by the MRI apparatus at a plurality of points where the gaze of the subject in the closed eye state is changed. An image-related data acquisition unit that acquires a pair of surface image-related data that is data;
A line-of-sight angle measurement unit that measures the line-of-sight angle at each point based on the structural image-related data;
A correlation data calculation unit that compares the respective line-of-sight angles with the surface image-related data corresponding to the respective line-of-sight angles, and calculates correlation data indicating a correlation between the line-of-sight angles and the surface image-related data;
Separately from the imaging at each point, based on the surface image related data obtained by imaging the eyelid of the subject in the closed eye state with an optical imaging device and the correlation data, the gaze angle of the subject at the time of imaging is determined. An eye position measurement system comprising: a gaze angle calculation unit that performs estimation calculation.
閉眼状態の被験者に視線を変えさせ、その視線を変えた複数ポイントにおいてMRI装置で得られた眼球の構造画像に関するデータである構造画像関連データ及び光学撮像装置で得られた眼瞼の表面画像に関するデータである表面画像関連データを、対にして取得する画像関連データ取得部と、
前記各ポイントでの視線角度を、前記構造画像関連データに基づいて実測する視線角度実測部と、
前記各視線角度とそれぞれに対応する前記表面画像関連データとを比較し、視線角度と表面画像関連データとの相関を示す相関データを算出する相関データ算出部と、を備えている眼位学習機構。
Structured image related data that is data related to the structure image of the eyeball obtained by the MRI apparatus at a plurality of points where the line of sight is changed by the subject in the closed eye state and data related to the surface image of the eyelid obtained by the optical imaging apparatus An image-related data acquisition unit that acquires a pair of surface image-related data,
A line-of-sight angle measurement unit that measures the line-of-sight angle at each point based on the structural image-related data;
An eye position learning mechanism comprising: a correlation data calculation unit that compares the line-of-sight angle with the surface image-related data corresponding to the line-of-sight angle and calculates correlation data indicating a correlation between the line-of-sight angle and the surface image-related data .
前記表面画像関連データが、原画像上において上眼瞼側に仮想的に設定したラインあるいは二次元領域内の各座標における輝度値を内容とするものである請求項2記載の眼位学習機構。   The eye position learning mechanism according to claim 2, wherein the surface image related data includes a luminance value at each coordinate in a line or two-dimensional region virtually set on the upper eyelid side on the original image. 前記構造画像関連データが、原画像から抽出された眼球抽出画像と水晶体抽出画像とを示すものである請求項2又は3記載の眼位学習機構。   The eye position learning mechanism according to claim 2 or 3, wherein the structure image related data indicates an eyeball extracted image and a lens extracted image extracted from an original image. 前記視線角度実測部が、前記構造画像関連データから得られる各眼球の位置関係に対する水晶体の位置に基づいて視線角度を実測するものである請求項2乃至4いずれか記載の眼位学習機構。   The eye position learning mechanism according to any one of claims 2 to 4, wherein the line-of-sight angle measurement unit measures the line-of-sight angle based on a position of a crystalline lens with respect to a positional relationship of each eyeball obtained from the structural image related data. 相関データ算出部が、相関データとしてニューラルネットワークを形成するものであり、そのニューラルネットワーク形成時の入力教示信号として、前記各ポイントで実測された視線角度と前記座標とを少なくとも与えるとともに、出力教示信号としてその座標での輝度値を与えるようにしている請求項3記載の眼位学習機構。   The correlation data calculation unit forms a neural network as the correlation data, and provides at least the line-of-sight angle actually measured at each point and the coordinates as an input teaching signal when the neural network is formed, and an output teaching signal The eye position learning mechanism according to claim 3, wherein a luminance value at the coordinates is given. 請求項2乃至6いずれか記載の眼位学習機構によって得られた相関データを利用するものであって、
光学撮像装置により閉眼状態での眼瞼を撮像して得られた表面画像関連データ及び前記相関データに基づいて、当該撮像時の視線角度を推定算出する視線角度算出部を備えている眼位測定機構。
Using the correlation data obtained by the eye position learning mechanism according to claim 2,
An eye position measurement mechanism comprising a line-of-sight angle calculation unit that estimates and calculates a line-of-sight angle at the time of imaging based on surface image-related data obtained by imaging an eyelid in a closed eye state by the optical imaging device and the correlation data .
閉眼状態の被験者に視線を変えさせ、その視線を変えた複数ポイントにおいてMRI装置で得られた眼球の構造画像に関するデータである構造画像関連データ及び光学撮像装置で得られた眼瞼の表面画像に関するデータである表面画像関連データを、対にして取得する画像関連データ取得部と、
前記各ポイントでの視線角度を、前記構造画像関連データに基づいて実測する視線角度実測部と、
前記各視線角度とそれぞれに対応する前記表面画像関連データとを比較し、視線角度と表面画像関連データとの相関を示す相関データを算出する相関データ算出部と、としての機能をコンピュータに発揮させる眼位学習用プログラム。
Structured image related data that is data related to the structural image of the eyeball obtained by the MRI apparatus at a plurality of points where the line of sight is changed by the subject in the closed eye state and data related to the surface image of the eyelid obtained by the optical imaging device An image-related data acquisition unit that acquires a pair of surface image-related data,
A line-of-sight angle measurement unit that measures the line-of-sight angle at each point based on the structural image-related data;
The computer functions as a correlation data calculation unit that compares the line-of-sight angles with the surface image-related data corresponding to the line-of-sight angles and calculates correlation data indicating the correlation between the line-of-sight angles and the surface image-related data. Eye position learning program.
請求項2乃至6いずれか記載の眼位学習機構によって得られた相関データを利用するものであって、
光学撮像装置により閉眼状態での眼瞼を撮像して得られた表面画像関連データ及び前記相関データに基づいて、当該撮像時の視線角度を推定算出する視線角度算出部としての機能をコンピュータに発揮させる眼位測定用プログラム。

Using the correlation data obtained by the eye position learning mechanism according to claim 2,
Based on the surface image-related data obtained by imaging the eyelid in a closed eye state with the optical imaging device and the correlation data, the computer functions as a gaze angle calculation unit that estimates and calculates the gaze angle at the time of imaging. Eye position measurement program.

JP2007007414A 2007-01-16 2007-01-16 System for measurement of eye position in closed state of eyes Pending JP2008173188A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007007414A JP2008173188A (en) 2007-01-16 2007-01-16 System for measurement of eye position in closed state of eyes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007007414A JP2008173188A (en) 2007-01-16 2007-01-16 System for measurement of eye position in closed state of eyes

Publications (1)

Publication Number Publication Date
JP2008173188A true JP2008173188A (en) 2008-07-31

Family

ID=39700697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007007414A Pending JP2008173188A (en) 2007-01-16 2007-01-16 System for measurement of eye position in closed state of eyes

Country Status (1)

Country Link
JP (1) JP2008173188A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105942966A (en) * 2016-07-06 2016-09-21 深圳大学 Strabismus autonomous detection method and system based on digital synoptophore

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105942966A (en) * 2016-07-06 2016-09-21 深圳大学 Strabismus autonomous detection method and system based on digital synoptophore

Similar Documents

Publication Publication Date Title
Hu et al. Combination of near-infrared and thermal imaging techniques for the remote and simultaneous measurements of breathing and heart rates under sleep situation
CN103717124B (en) For obtaining and process the apparatus and method for of the survey measurements of biology
US8371693B2 (en) Autism diagnosis support apparatus
US20210186396A1 (en) Ocular system to assess operational risk
JP2014052758A (en) Sight line measurement method
US20160331239A1 (en) Contact-free physiological monitoring during simultaneous magnetic resonance imaging
Przybyło A deep learning approach for remote heart rate estimation
Li et al. Gait analysis using stereo camera in daily environment
JP7332463B2 (en) Control device, optical coherence tomography device, control method for optical coherence tomography device, and program
JP6245093B2 (en) Diagnosis support apparatus and diagnosis support method
Wiede et al. Signal fusion based on intensity and motion variations for remote heart rate determination
JP6652263B2 (en) Mouth region detection device and mouth region detection method
WO2023189309A1 (en) Computer program, information processing method, and information processing device
JP2006285531A (en) Detection device for eye direction, detecting method for eye direction, program for executing the same detecting method for eye direction by computer
RU2289310C2 (en) Method for obtaining information about psychophysiological state of alive object
JP2008173188A (en) System for measurement of eye position in closed state of eyes
KR102565852B1 (en) Autism spectrum disorder evaluation method based on facial expression analysis
JP2015123262A (en) Sight line measurement method using corneal surface reflection image, and device for the same
Malasinghe et al. Remote heart rate extraction using microsoft kinecttm V2. 0
CN106725364B (en) Controller fatigue detection method and system based on probability statistical method
JP2020054788A (en) Biological information measurement system and biological information measurement program
KR102473744B1 (en) A method of diagnosing strabismus through the analysis of eyeball image from cover and uncovered test
Wu et al. PoseX: A Webcam-based Detection System to Prevent Postural Syndromes for Computer Users
Wang et al. Facial Landmark based BMI Analysis for Pervasive Health Informatics
WO2023026738A1 (en) Information processing device, display system, display control method, and non-transitory computer-readable medium storing program