JP2022100015A - 眼疲労評価装置、眼疲労評価方法およびプログラム - Google Patents
眼疲労評価装置、眼疲労評価方法およびプログラム Download PDFInfo
- Publication number
- JP2022100015A JP2022100015A JP2020214134A JP2020214134A JP2022100015A JP 2022100015 A JP2022100015 A JP 2022100015A JP 2020214134 A JP2020214134 A JP 2020214134A JP 2020214134 A JP2020214134 A JP 2020214134A JP 2022100015 A JP2022100015 A JP 2022100015A
- Authority
- JP
- Japan
- Prior art keywords
- eye
- subject
- eye strain
- evaluation device
- index
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 208000003464 asthenopia Diseases 0.000 title claims abstract description 359
- 238000011156 evaluation Methods 0.000 title claims abstract description 145
- 238000004364 calculation method Methods 0.000 claims abstract description 64
- 210000001508 eye Anatomy 0.000 claims description 252
- 238000000034 method Methods 0.000 claims description 11
- 238000001514 detection method Methods 0.000 description 42
- 238000012545 processing Methods 0.000 description 38
- 230000006870 function Effects 0.000 description 31
- 230000007423 decrease Effects 0.000 description 22
- 238000003384 imaging method Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 15
- 230000008859 change Effects 0.000 description 12
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 210000003128 head Anatomy 0.000 description 9
- 210000000744 eyelid Anatomy 0.000 description 7
- 230000003247 decreasing effect Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 208000024891 symptom Diseases 0.000 description 5
- 206010015958 Eye pain Diseases 0.000 description 4
- 206010019233 Headaches Diseases 0.000 description 4
- 210000005252 bulbus oculi Anatomy 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 230000004424 eye movement Effects 0.000 description 4
- 230000004886 head movement Effects 0.000 description 4
- 231100000869 headache Toxicity 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 210000003205 muscle Anatomy 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 3
- 230000004304 visual acuity Effects 0.000 description 3
- 235000002673 Dioscorea communis Nutrition 0.000 description 2
- 241000544230 Dioscorea communis Species 0.000 description 2
- 208000003556 Dry Eye Syndromes Diseases 0.000 description 2
- 206010013774 Dry eye Diseases 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 206010049565 Muscle fatigue Diseases 0.000 description 2
- 241001469893 Oxyzygonectes dovii Species 0.000 description 2
- 208000035753 Periorbital contusion Diseases 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000001454 recorded image Methods 0.000 description 2
- 240000006829 Ficus sundaica Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Image Analysis (AREA)
Abstract
Description
以下、図面を参照して、本発明の実施形態に係る眼疲労評価システムについて説明する。図1は、本実施形態に係る眼疲労評価システムを示す図である。眼疲労評価システム100は、撮像部1と、表示装置2と、眼疲労評価装置10とを備える。撮像部1と表示装置2とは、眼疲労評価装置10と接続されている。
撮像部1は、被検者Sを撮像する。
表示装置2は、撮像部1によって撮像される画像を表示する。
眼疲労評価装置10は、表示装置2に撮像部1によって撮像される画像を表示させることで、被験者Sが、撮像部1と被験者Sの顔の位置関係を確認することを可能とする。眼疲労評価装置10は、表示装置2に注視点を表示させ、被検者Sにその注視点を注視させる。このように構成することによって、被検者Sの視線を一定に保たせることができる。眼疲労評価装置10は、撮像部1によって撮像される画像に基づいて、被検者Sの眼の疲労を評価する。
撮像部1は、被検者Sを所定の時間撮像することによって被検者Sの画像データを複数作成する。本実施形態では、一例として所定の時間を60秒間とした場合について説明を続ける。眼疲労評価装置10は、撮像部1が作成した被検者Sの複数の画像データを取得する。仮に、撮像部1が1秒間に30フレーム撮像できる場合には、60秒間で1800フレーム撮像できるため、眼疲労評価装置10は、約1800の画像データを取得する。眼疲労評価装置10は、取得した被検者Sの複数の画像データを記録する。
眼疲労評価装置10は、被検者Sの複数の画像の各々から取得した被検者Sの顔を囲い込む四角形を特定する情報に基づいて、被検者Sの複数の画像の各々から被検者Sの顔の特徴点(ランドマーク)を検出する。
眼疲労評価装置10は、被検者Sの複数の画像の各々から取得した被検者Sの目の特徴点の検出結果に基づいて、被検者Sの複数の画像の各々について被検者Sの目の形状を表す特徴量を算出する。
眼疲労評価装置10は、被検者Sの複数の画像の各々について算出した被検者Sの目の形状を表す特徴量に基づいて、被検者Sの眼疲労を評価する。
眼疲労評価装置10は、入出力I/F11と、CPU(Central Processing Unit)12と、メモリ13と、記録装置14と、データ読込部15と、バス16とを備える。バス16は、入出力I/F11と、CPU12と、メモリ13と、記録装置14と、データ読込部15とを互いに接続する。
入出力I/F11は、撮像部1及び表示装置2と、眼疲労評価装置10との間で、情報を入出力するためのインターフェースである。
データ読込部15は、撮像部1からバス16を介して被検者Sの画像データを取得する。データ読込部15は、取得した画像データを被検者Sの識別情報と関連付けて記録装置14に記録させる。
処理部12-1は、記録装置14に記録されている画像データのうち、被検者Sの識別情報と関連付けて記録されている画像データを複数取得する。処理部12-1は、取得した複数の画像データを、メモリ13に呼び出す。処理部12-1は、メモリ13に呼び出した複数の画像データの各々を処理することによって被検者Sが撮像された画像を取得する。
本実施形態では、事前に学習機が、人が撮像された複数の画像と人が撮像された複数の画像の各々に含まれる人の顔の画像とに基づいて、人が撮像された画像と人の顔の画像との関係の学習を済ませており、学習機による人が撮像された画像と人の顔の画像との関係の学習結果を使用して検出器が、人が撮像された画像から人の顔の画像を検出する場合について説明を続ける。
第1検出部12-2は、被検者Sが撮像された複数の画像の各々から座標VCを取得する。第1検出部12-2は、被検者Sが撮像された複数の画像の各々から座標VCを取得することによって、取得した複数の座標VCの各々に基づいて被検者Sが撮像された複数の画像の各々から被検者Sの顔の部分の位置を取得(特定)できる。
第1検出部12-2は、取得した複数の座標VCの各々に基づいて、座標VCによって表される矩形の大きさを一定にするために、被検者Sが撮像された画像のサイズを変更してもよい。以下、第1検出部12-2が、複数の座標VCの各々に基づいて、被検者Sが撮像された画像のサイズを変更する場合について説明を続ける。このように構成することによって、座標VCによって特定される被検者Sの顔の部分を囲い込む矩形の大きさが異なることによって生じる誤差を補正できる。
第2検出部12-3は、検出した被検者Sの顔の複数の画像の各々から被検者Sの顔の特徴点を検出する。本実施形態では、一例として、Ensemble of regression treesを使用して、被検者Sの顔の特徴点を検出する場合について説明を続ける。Ensemble of regression treesを使用することによって、回帰ツリー分析を用いてリアルタイムで高精度に被検者Sの顔の特徴点を検出できる。
本実施形態では、事前に学習機が複数の人の顔の画像と複数の人の顔の画像の各々に含まれる人の顔の特徴点とに基づいて、人の顔の画像と人の顔の特徴点との関係の学習を済ませており、学習機による人の顔の画像と人の顔の特徴点との関係の学習結果を使用して検出器が人の顔の画像から人の顔の特徴点を検出する場合について説明を続ける。本実施形態では、一例として、人の顔の画像から人の顔の特徴点を68個検出する場合について説明を続ける。
図2は、本実施形態に係る眼疲労評価装置が検出する特徴点の一例を示す図である。図2において、68個の特徴点の各々は点と各点を識別する番号とで示されている。
第2検出部12-3は、取得した特徴点FP01からFP68の各々の座標から、左目の部分に該当する複数の特徴点の各々の座標と右目の部分に該当する複数の特徴点の各々の座標とを取得する。具体的には、第2検出部12-3は、左目の部分に該当する複数の特徴点FP37~FP42の各々の座標を取得し、左目の部分に該当する複数の特徴点FP43~FP48の各々の座標を取得する。第2検出部12-3は、取得した複数の特徴点FP37~FP42の各々の座標を特定する情報と複数の特徴点FP43~FP48の各々の座標を特定する座標とを含む配列データを作成する。図1に戻り説明を続ける。
図3Aに示すように、特徴点P1(図2のFP37に該当)の一例は右目の目尻に該当し、特徴点P2(図2のFP38に該当)の一例は右目において白目と黒目との右側の境界と上瞼との交点に該当し、特徴点P2(図2のFP38に該当)及び特徴点P3(図2のFP39に該当)の一例は右目において特徴点P1における目尻と特徴点P4における目頭の間を、上瞼と目の境界線を等間隔で3分割にする点に該当する。図3Aに示すように、特徴点P4(図2のFP40に該当)の一例は右目において目頭に該当し、特徴点P5(図2のFP41に該当)及び特徴点P6(図2のFP42に該当)の一例は右目において特徴点P1における目尻と特徴点P4における目頭の間を、下瞼と目の境界線を等間隔で3分割する点に該当する。
REAR=(||P2-P6||+||P3-P5||)/2||P1-P4|| (1)
算出部12-4は、左目の部分に該当する6か所の特徴点の各々の座標に基づいて、左目アスペクト比LEARを算出する。算出部12-4が左目アスペクト比LEARを算出する処理の詳細については前述した右目アスペクト比REARを算出する処理を適用できるためここでの説明を省略する。
算出部12-4は、被検者Sが撮像された複数の画像の各々で被検者Sと撮像部1との位置関係が異なることで生じる誤差を補正するために人の顔の特徴点FP01~FP68のうち、所定の特徴点の座標を使用して、被検者Sの頭部のX軸とY軸とZ軸との各々に対する動き(向き)を推定する。算出部12-4は、被検者Sの頭部のX軸とY軸とZ軸との各々に対する動きの推定結果に基づいて、左目アスペクト比と右目アスペクト比との各々に対して誤差補正を行う。算出部12-4は、左目アスペクト比と右目アスペクト比との各々に対して誤差補正を行った結果を記録装置14に記録する。以下、補正された左目アスペクト比及び右目アスペクト比が使用される。
実際には、算出されたアスペクト比のデータは、ある区間の間を無限に連続的に変化すると考えられ、実線の様に、アスペクト比の確率密度分布のグラフとして表すことができる。
アスペクト比の確率密度分布の推定方法として、ヒストグラム密度推定や、カーネル密度推定等があるが、図4における推定方法は、カーネル密度推定で行った。
カーネル密度推定の数学的な式は、式(2)で表される。
図4は、一例として、画像表示端末(VDT: Visual Display Terminals)作業を開始する前の左目アスペクト比の確率密度分布を示す。
左目アスペクト比の統計的データを取得するにあたり、被検者Sの撮像を60秒間行った。60秒間の撮像で得られた画像データのうち、目の動き、頭の動きが比較的安定していると想定される撮像が開始されてから20秒以後の1000点のデータを利用して、確率密度関数を算出した。
図4において、(2)は左目アスペクト比の確率密度分布の他の例を示す。
判定部12-5は、算出部12-4が算出した複数の左目アスペクト比の各々を特定する情報を取得する。判定部12-5は、取得した複数の左目アスペクト比の各々を特定する情報に基づいて、左目の眼疲労を示す指標(以下「左目眼疲労インデックス」という)を算出する。
具体的には、判定部12-5は、左目アスペクト比の確率密度分布において、ピークと、所定の割合に該当するアスペクト比の範囲との比を算出する。本実施形態では、所定の割合の一例として95%(確率分布が2.5%から97.5%)を適用した場合について説明を続ける。
具体的には、判定部12-5は、左目アスペクト比の確率密度分布のピークが18.4195であり、95%に該当するアスペクト比の範囲が0.0789であるため、左目疲労インデックスとして、233.3を算出する。
左目眼疲労インデックス=(左目のアスペクト比における確率密度関数が最大となる値(yl値))/(アスペクト比の確率分布における2.5%以上の範囲(xl値)) (2)
右目アスペクト比の統計的データを取得するにあたり、被検者Sの撮像を60秒間行った。60秒間の撮像で得られた画像データのうち、目の動き、頭の動きが比較的安定していると想定される撮像が開始されてから20秒以後の1000点のデータを利用して、確率密度関数を算出した。
図5において、(2)は右目アスペクト比の確率密度分布の他の例を示す。
判定部12-5は、算出部12-4が算出した複数の右目アスペクト比の各々を特定する情報を取得する。判定部12-5は、取得した複数の右目アスペクト比の各々を特定する情報に基づいて、右目の眼疲労を示す指標(以下「右目眼疲労インデックス」という)を算出する。
具体的には、判定部12-5は、右目アスペクト比の確率密度分布において、ピークと、所定の割合に該当するアスペクト比の範囲との比を算出する。本実施形態では、所定の割合の一例として95%(確率分布が2.5%から97.5%)を適用した場合について説明を続ける。
具体的には、判定部12-5は、右目アスペクト比の確率密度分布のピークが19.0934であり、95%に該当するアスペクト比の範囲が0.0807であるため、右目疲労インデックスとして、236.5を算出する。
右目眼疲労インデックス=(右目のアスペクト比における確率密度関数が最大となる値(yr値))/(アスペクト比の確率分布における2.5%以上の範囲(xr値)) (3)
図1に戻り説明を続ける。
図6は、本実施形態に係る眼疲労評価装置によって算出された右目アスペクト比の確率密度分布の時間変化の一例を示す図である。
図6は、一例として、VDT作業を開始する前からVDT作業を開始してから4時間経過するまで、1時間おきに取得した右目アスペクト比の確率密度分布を示す。図6において、横軸は確率変数を、縦軸はそのときの確率密度を表す。
さらに、図6には、1時間おきに取得した右目アスペクト比の確率密度分布に基づいて算出した右目眼疲労インデックスの時間変化も示す。
図7によれば、右目疲労インデックスは、VDT作業の開始前は236.6であり、VDT作業の開始から1時間経過後が171.6であり、VDT作業の開始から2時間経過後が141.3であり、VDT作業の開始から3時間経過後が122.8であり、VDT作業の開始から4時間経過後が90.6である。右目疲労インデックスは、VDT作業を開始してからの経過時間に応じて、減少することが分かる。
さらに右目疲労インデックスと左目疲労インデックスとが減少するのは、コンタクトの装着やエアコンの風が当たる環境などで涙が蒸発しやすくなるドライアイも原因であると考えられる。このような原因により、アスペクト比の小さくなる確率が増えることで、右目疲労インデックスの分母にあるxr値と左目疲労インデックスの分母にあるxl値が増加することで、眼疲労の増加を意味する右目疲労インデックスと左目疲労インデックスとの各々が減少する。
図7によれば、眼疲労インデックス(左右平均)は、VDT作業の開始前は235.0であり、VDT作業の開始から1時間経過後が177.3であり、VDT作業の開始から2時間経過後が139.8であり、VDT作業の開始から3時間経過後が124.1であり、VDT作業の開始から4時間経過後が82.4である。疲労インデックスは、VDT作業を開始してからの経過時間に応じて、右目疲労インデックスと左目疲労インデックスと同様に減少することが分かる。
図8によれば、眼疲労インデックスは、VDT作業の開始から1時間経過後に25%程度減少することが分かる。このため、初期値に対して、眼疲労インデックスが25%以上減少した場合に、眼疲労評価装置10は、被検者SにVDT作業を中止させ、ある時間休憩させることが好ましい。作業再開前に再度、眼疲労評価装置10は、被検者Sの右目疲労インデックスと左目疲労インデックスとを算出し、算出した右目疲労インデックスと左目疲労インデックスとに基づいてその後算出した疲労インデックスが25%以上減少したか否かを判定する。眼疲労評価装置10は、その後算出した疲労インデックスに基づいて、その疲労インデックスが25%以上減少した場合に同様の処理を行う。このように構成することによって、被検者Sは、眼痛・視力低下・肩こり・頭痛のような症状を防ぐことが可能であると想定される。図1に戻り説明を続ける。
図9は、本実施形態に係る眼疲労評価システムの動作の一例を示すフロー図である。
(S1-1)
眼疲労評価装置10は、表示装置2に撮像部1によって撮像される映像を表示させる。眼疲労評価装置10は、表示装置2に注視点を表示させ、被検者Sにその注視点を注視させる。
(S2-1)
撮像部1は、被検者Sを所定の時間撮像することによって被検者Sの画像データを作成する。データ読込部15は、撮像部1からバス16を介して被検者Sの画像データを取得し、取得した画像データを被検者Sの識別情報と関連付けて記録装置14に記録させる。
(S3-1)
眼疲労評価装置10において、処理部12-1は、画像データを、記録装置14からメモリ13に呼び出す。処理部12-1は、メモリ13に呼び出した画像データを処理することによって被検者Sの画像を取得する。第1検出部12-2は、処理部12-1から被検者Sの画像を取得する。第1検出部12-2は、取得した被検者Sの画像から、被検者Sの顔を検出する。
眼疲労評価装置10において、第1検出部12-2は、被検者Sの画像のサイズを変更する。
(S5-1)
眼疲労評価装置10において、第2検出部12-3は、第1検出部12-2から被検者Sの画像と座標VCとを取得する。第2検出部12-3は、取得した被検者Sの画像と座標VCとに基づいて、被検者Sの顔を検出し、検出した被検者Sの顔の画像から被検者Sの顔の特徴点を検出する。
(S6-1)
眼疲労評価装置10において、第2検出部12-3は、取得した特徴点の各々の座標VCから、左目の部分に該当する特徴点の座標と右目の部分に該当する特徴点の座標とを取得する。算出部12-4は、第2検出部12-3が取得した左目の部分に該当する特徴点の座標と右目の部分に該当する特徴点の座標とを取得する。算出部12-4は、取得した左目の部分に該当する特徴点の座標と右目の部分に該当する特徴点の座標とに基づいて、被検者Sの左目アスペクト比と右目アスペクト比とを算出する。
眼疲労評価装置10において、算出部12-4は、人の顔の特徴点FP01からFP68のうち、所定の特徴点の座標を使用して、被検者Sの頭部のX軸とY軸とZ軸との各々に対する動き(向き)を推定する。
(S8-1)
眼疲労評価装置10において、算出部12-4は、被検者Sの頭部のX軸とY軸とZ軸との各々に対する動き(向き)の推定結果に基づいて、左目アスペクト比と右目アスペクト比との各々に対して誤差補正を行う。
(S9-1)
眼疲労評価装置10において、判定部12-5は、右目アスペクト比の確率密度分布に基づいて右目眼疲労インデックスを算出する。算出部12-4は、左目アスペクト比の確率密度分布に基づいて左目眼疲労インデックスを算出する。判定部12-5は、算出した右目眼疲労インデックスと左目眼疲労インデックスとに基づいて統計処理を行うことによって眼疲労インデックスを算出する。
(S10-1)
眼疲労評価装置10において、判定部12-5は、算出した眼疲労インデックスに基づいて、眼疲労度を判定する。
図9において、ステップS6-1と、ステップS7-1との順序を入れ替えてもよい。すなわち、ステップS1-1からS5-1、S7-1、S6-1、S8-1からS10-1の順序としてもよい。
前述した実施形態では、第1検出部12-2が、被検者Sの画像から、被検者S一人の顔を検出する場合について説明したがこの例に限られない。例えば、第1検出部12-2は、被検者Sの画像から、複数の被検者Sの各々の顔を検出してもよい。この場合、眼疲労評価装置10は、複数の被検者Sの各々の眼疲労を判定してもよい。
具体的には、眼疲労インデックス閾値の一例として、177、140、124及び82が設定される。円チャートにおいて、眼疲労インデックスが177以上である注意無しに該当するレベルと、140以上で且つ177未満である注意レベル1と、124以上で且つ140未満である注意レベル2と、82以上で且つ140未満である注意レベル3と、82未満である注意レベル4との各々の範囲が設定され、各範囲が異なる色で表示される。警告部12-6は、眼疲労インデックスを矢印ARで表示する。
このように構成することによって、眼疲労インデックスの判定結果を参照した被検者Sは、自分の眼疲労の程度を知ることができる。ここでは、一例として、眼疲労インデックス閾値の数が4個である場合について説明したが、眼疲労インデックス閾値の数は、2-3個でもよいし、5個以上でもよい。
また、VDT作業をしている使用者に対して、自動的に眼疲労インデックスを算出するように設定することで、測定プログラムが自動的に、スマートフォン、タブレット、ノートパーソナルコンピュータなどの端末装置で起動するようにしてもよい。端末装置は、実装している撮像装置で、使用者を撮像し、撮像することによって得られる画像データに基づいて、前述した処理を行うことによって眼疲労インデックスを算出してもよい。端末装置は、眼疲労インデックスに基づいて、使用者の眼疲労を判定し、使用者の眼疲労の閾値に基づいて判定した結果を機器のモニターに表示する。このように構成することによって、使用者に対して、常に眼疲労を判定し、眼疲労の判定結果を表示できるため、使用者に眼疲労に関する情報を示すことができる。
このように構成することによって、眼疲労評価装置10は、被験者の顔の画像から取得される目の特徴点を特定する情報に基づいて目の形状を表す特徴量を算出できる。このため、眼疲労評価装置10は、目の形状を表す特徴量の算出結果に基づいて、被験者の眼疲労を判定できる。
また、眼疲労評価装置10において、判定部12-5は、目の形状を表す特徴量の確率密度分布に基づいて所定の区間の確率密度分布から被験者Sの眼疲労を判定する。このように構成することによって、目の形状を表す特徴量の確率密度分布に基づいて所定の区間の確率密度分布から眼疲労インデックスとしての統計量を導出できるため、導出した統計量に基づいて被験者Sの眼疲労を判定できる。
また、眼疲労評価装置10において、判定部12-5により判定された眼疲労の程度が、予め定められた閾値を超えた場合に、被験者S又は被験者Sの管理者に対して眼疲労に関する警告を発する警告部12-6をさらに備える。このように構成することによって、被検者S又は被検者Sの管理者に被検者S眼疲労に関する警告を発することができる。
以下、図面を参照して、実施形態の変形例に係る眼疲労評価システムについて説明する。実施形態の変形例に係る眼疲労評価システム100aは、図1を適用できる。ただし、眼疲労評価装置10の代わりに眼疲労評価装置10aを備える点で異なる。撮像部1と表示装置2とは、眼疲労評価装置10aと接続されている。
撮像部1は、被検者Sを撮像する。
表示装置2は、撮像部1によって撮像される画像を表示する。
眼疲労評価装置10aは、表示装置2に撮像部1によって撮像される画像を表示させる。眼疲労評価装置10aは、表示装置2に注視点を表示させ、被検者Sにその注視点を注視させる。このように構成することによって、被検者Sの視線を一定に保たせることができる。眼疲労評価装置10aは、撮像部1によって撮像される画像に基づいて、被検者Sの眼の疲労を評価する。
撮像部1は、被検者Sの顔を所定の時間撮像することによって被検者Sの画像データを複数作成する。本実施形態では、一例として所定の時間を60秒間とした場合について説明を続ける。眼疲労評価装置10aは、撮像部1が作成した被検者Sの複数の画像データを取得する。仮に、撮像部1が1秒間に30フレーム撮像できる場合には、60秒間で1800フレーム撮像できるため、眼疲労評価装置10aは、約1800の画像データを取得する。眼疲労評価装置10aは、取得した被検者Sの複数の画像データを記録する。
眼疲労評価装置10aは、被検者Sの複数の画像の各々から取得した被検者Sの顔を囲い込む四角形を特定する情報に基づいて、被検者Sの複数の画像の各々から被検者Sの顔の特徴点を検出する。
眼疲労評価装置10aは、被検者Sの複数の画像の各々から取得した被検者Sの顔の特徴点の検出結果に基づいて、被検者Sの複数の画像の各々から被検者Sの目の特徴点を検出する。
眼疲労評価装置10aは、被検者Sの複数の画像の各々から取得した被検者Sの目の特徴点の検出結果に基づいて、被検者Sの複数の画像の各々について被検者Sの目の形状を表す特徴量を算出する。
眼疲労評価装置10aは、被検者Sの複数の画像の各々について算出した被検者Sの目の形状を表す特徴量に基づいて、被検者Sの眼疲労を判定する。
眼疲労評価装置10aは、入出力I/F11と、CPU12と、メモリ13と、記録装置14と、データ読込部15と、バス16とを備える。バス16は、入出力I/F11と、CPU12と、メモリ13と、記録装置14と、データ読込部15とを互いに接続する。
入出力I/F11は、撮像部1及び表示装置2と、眼疲労評価装置10aとの間で、情報を入出力するためのインターフェースである。
実施形態の変形例では、左目の形状を表す特徴量の一例として左目の画像の目頭の開口部の角度(以下「左目頭開口部角度」という)及び目尻の開口部の角度(以下「左目尻開口部角度」という)を使用し、右目の形状を表す特徴量の一例として右目の画像の目頭の開口部の角度(以下「右目頭開口部角度」という)及び目尻の開口部の角度(以下「右目尻開口部角度」という)を使用した場合について説明を続ける。
図11に示すように、特徴点P1(図2のFP37に該当)の一例は右目の目尻に該当し、特徴点P2(図2のFP38に該当)の一例は右目において白目と黒目との右側の境界と上瞼との交点に該当し、特徴点P3(図2のFP39に該当)の一例は右目において白目と黒目との左側の境界と上瞼との交点に該当する。図11に示すように、特徴点P4(図2のFP40に該当)の一例は右目において目頭に該当し、特徴点P5(図2のFP41に該当)の一例は右目において白目と黒目との左側の境界と下瞼との交点に該当し、特徴点P6(図2のFP42に該当)の一例は右目において白目と黒目との右側の境界と下瞼との交点に該当する。
具体的には、算出部12a-4は、特徴点P1と特徴点P2と特徴点P6とを線で結ぶことによって形成される三角形に、余弦定理を使用して、右目尻開口部角度(特徴点P1と特徴点P2とを結んだ線と特徴点P1と特徴点P6とを結んだ線とのなす角度)を算出する。算出部12a-4は、特徴点P3と特徴点P4と特徴点P5とを線で結ぶことによって形成される三角形に、余弦定理を使用して、右目頭開口部角度(特徴点P4と特徴点P3とを結んだ線と特徴点P4と特徴点P5とを結んだ線とのなす角度)を算出する。算出部12a-4は、算出した右目頭開口部角度と右目尻開口部角度とに基づいて統計処理を行うことによって、右目頭と右目尻との両方を合わせた開口部角度である右開口部角度を算出する。本実施形態では、統計処理の一例として、平均値を使用した場合について説明を続ける。
算出部12a-4は、被検者Sが撮像された複数の画像の各々で被検者Sと撮像部1との位置関係が異なることで生じる誤差を補正するために人の顔の特徴点FP01~FP68のうち、所定の特徴点の座標を使用して、被検者Sの頭部のX軸とY軸とZ軸との各々に対する動き(向き)を推定する。算出部12a-4は、被検者Sの頭部のX軸とY軸とZ軸との各々に対する動きの推定結果に基づいて、算出された右開口部角度及び、左開口部角度に対して誤差補正を行った結果を記録装置14に記録する。
右開口部角度の統計的データを取得するにあたり、被検者Sの撮像を60秒間行った。60秒間の撮像で得られた画像データのうち、目の動き、頭の動きが比較的安定していると想定される撮像が開始されてから20秒以後の1000点のデータを利用して、確率密度関数を算出した。
具体的には、判定部12a-5は、右開口部角度の確率密度分布において、ピークと、所定の割合に該当する右開口部角度の範囲との比を算出する。本実施形態では、所定の割合の一例として95%(確率分布が2.5%から97.5%)を適用した場合について説明を続ける。
具体的には、判定部12-5は、VDT作業を開始する前において、右開口部角度の確率密度分布のピークが7.1951であり、95%に該当する右開口部角度の範囲が0.29であるため、右目疲労インデックスとして、24.8を算出する。
右目眼疲労インデックス=(右目の右開口部角度における確率密度関数が最大となる値(yra値))/(右開口部角度の確率分布における2.5%以上の範囲(xra値)) (4)
図12には、1時間おきに取得した右開口部角度の確率密度分布に基づいて算出した右目眼疲労インデックスの時間変化も示す。
左開口部角度の統計的データを取得するにあたり、被検者Sの撮像を60秒間行った。60秒間の撮像で得られた画像データのうち、目の動き、頭の動きが比較的安定していると想定される撮像が開始されてから20秒以後の1000点のデータを利用して、確率密度関数を算出した。
具体的には、判定部12a-5は、左開口部角度の確率密度分布において、ピークと、所定の割合に該当する左開口部角度の範囲との比を算出する。本実施形態では、所定の割合の一例として95%(確率分布が2.5%から97.5%)を適用した場合について説明を続ける。
具体的には、判定部12a-5は、VDT作業を開始する前において、左開口部角度の確率密度分布のピークが6.9738であり、95%に該当する左開口部角度の範囲が0.31であるため、左目疲労インデックスとして、22.5を算出する。
左目眼疲労インデックス=(左目の左開口部角度における確率密度関数が最大となる値(yla値))/(左開口部角度の確率分布における2.5%以上の範囲(xla値)) (5)
図13には、1時間おきに取得した左開口部角度の確率密度分布に基づいて算出した左目眼疲労インデックスの時間変化も示す。
図14によれば、右目疲労インデックスは、VDT作業の開始前は24.83であり、VDT作業の開始から1時間経過後が16.22であり、VDT作業の開始から2時間経過後が13.38であり、VDT作業の開始から3時間経過後が11.18であり、VDT作業の開始から4時間経過後が9.38である。右目疲労インデックスは、VDT作業を開始してからの経過時間に応じて、指数関数的に減少することが分かる。
図14によれば、疲労インデックス(左右平均)は、VDT作業の開始前は23.7であり、VDT作業の開始から1時間経過後が16.58であり、VDT作業の開始から2時間経過後が12.56であり、VDT作業の開始から3時間経過後が9.76であり、VDT作業の開始から4時間経過後が8.67である。疲労インデックスは、VDT作業を開始してからの経過時間に応じて、右目疲労インデックスと左目疲労インデックスと同様に減少することが分かる。
図15によれば、眼疲労インデックスは、VDT作業の開始から1時間経過後に25%程度減少することが分かる。このため、初期値に対して、眼疲労インデックスが25%以上減少した場合に、眼疲労評価装置10aは、被検者SにVDT作業を中止させ、ある時間休憩させることが好ましい。作業再開前に再度、眼疲労評価装置10aは、被検者Sの右目疲労インデックスと左目疲労インデックスとを算出し、算出した右目疲労インデックスと左目疲労インデックスとに基づいてその後算出した疲労インデックスが25%以上減少したか否かを判定する。眼疲労評価装置10aは、その後算出した疲労インデックスに基づいて、その疲労インデックスが25%以上減少した場合に同様の処理を行う。このように構成することによって、被検者Sは、眼痛・視力低下・肩こり・頭痛のような症状を防ぐことが可能であると想定される。
図16は、実施形態の変形例に係る眼疲労評価システムの動作の一例を示すフロー図である。
ステップS1-2からS5-2は、図9のステップS1-1からS5-1を適用できるため、ここでの説明は省略する。
(S6-2)
眼疲労評価装置10aにおいて、算出部12a-4は、人の顔の特徴点FP01~FP68のうち、所定の特徴点の座標を使用して、被検者Sの頭部のX軸とY軸とZ軸との各々に対する動き(向き)を推定する。
(S7-2)
眼疲労評価装置10aにおいて、算出部12a-4は、右目の部分に該当する特徴点P1から特徴点P6の各々の座標に基づいて、右目頭開口部角度と右目尻開口部角度とを算出する。
眼疲労評価装置10aにおいて、算出部12a-4は、人の顔の特徴点FP01~FP68のうち、所定の特徴点の座標を使用して、被検者Sの頭部のX軸とY軸とZ軸との各々に対する動き(向き)を推定する。算出部12a-4は、被検者Sの頭部のX軸とY軸とZ軸との各々に対する動きの推定結果に基づいて、算出された右開口部角度及び、左開口部角度に対して誤差補正を行った結果を記録装置14に記録する。
(S9-2)
眼疲労評価装置10aにおいて、判定部12a-5は、右目頭開口部角度の確率密度分布に基づいて右目眼疲労インデックスを算出する。算出部12a-4は、左目頭開口部角度の確率密度分布に基づいて左目眼疲労インデックスを算出する。判定部12a-5は、算出した右目眼疲労インデックスと左目眼疲労インデックスとに基づいて統計処理を行うことによって眼疲労インデックスを算出する。
(S10-2)
眼疲労評価装置10aにおいて、判定部12a-5は、算出した眼疲労インデックスに基づいて、眼疲労度を判定する。
図16において、ステップS6-2と、ステップS7-2との順序を入れ替えてもよい。すなわち、ステップS1-2からS5-2、S7-2、S6-2、S8-2からS10-2の順序としてもよい。
前述した実施形態の変形例では、算出部12a-4は、左目尻開口部角度と左目頭開口部角度とを算出し、算出した左目尻開口部角度と左目頭開口部角度とに基づいて、左開口部角度を算出する場合について説明したが、この例に限られない。例えば、算出部12a-4は、左目尻開口部角度を算出し、算出した左目尻開口部角度に基づいて、左開口部角度を算出してもよいし、左目頭開口部角度を算出し、算出した左目頭開口部角度に基づいて、左開口部角度を算出してもよい。
Claims (9)
- 被験者の眼疲労を評価する眼疲労評価装置であって、
被験者の顔の画像から取得される目の特徴点を特定する情報に基づいて目の形状を表す特徴量を算出する算出部と、
前記算出部が算出した前記特徴量に基づいて前記被験者の眼疲労を判定する判定部と
を備える眼疲労評価装置。 - 前記算出部は、右目に該当する特徴点を特定する情報と、左目に該当する特徴点を特定する情報と、両目に該当する特徴点を特定する情報とのいずれかに基づいて、目の形状を表す特徴量を算出する、請求項1に記載の眼疲労評価装置。
- 前記判定部は、所定の時間に前記算出部が算出した目の形状を表す特徴量の分布に基づいて導出される統計量に基づいて前記被験者の眼疲労を判定する、請求項1又は請求項2に記載の眼疲労評価装置。
- 前記判定部は、目の形状を表す特徴量の確率密度分布に基づいて所定の区間の確率密度分布から前記被験者の眼疲労を判定する、請求項3に記載の眼疲労評価装置。
- 前記算出部は、目の特徴点を特定する前記情報に基づいて目の形状を表す特徴量としてアスペクト比を算出する、請求項1から請求項4のいずれか一項に記載の眼疲労評価装置。
- 前記算出部は、目の特徴点を特定する前記情報に基づいて目の形状を表す特徴量として目頭の開口部の角度と目尻の開口部の角度とのいずれか一方又は両方を算出する、請求項1から請求項4のいずれか一項に記載の眼疲労評価装置。
- 前記判定部により判定された眼疲労の程度が、予め定められた閾値を超えた場合に、前記被験者又は前記被験者の管理者に対して眼疲労に関する警告を発する警告部
をさらに備える、請求項1から請求項5のいずれか一項に記載の眼疲労評価装置。 - コンピュータが実行する眼疲労評価方法であって、
被験者の顔の画像から取得される目の特徴点を特定する情報に基づいて目の形状を表す特徴量を算出するステップと、
算出する前記ステップで算出した前記特徴量に基づいて前記被験者の眼疲労を判定するステップと
を有する眼疲労評価方法。 - コンピュータに、
被験者の顔の画像から取得される目の特徴点を特定する情報に基づいて目の形状を表す特徴量を算出するステップと、
算出する前記ステップで算出した前記特徴量に基づいて前記被験者の眼疲労を判定するステップと
を実行させる、プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020214134A JP2022100015A (ja) | 2020-12-23 | 2020-12-23 | 眼疲労評価装置、眼疲労評価方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020214134A JP2022100015A (ja) | 2020-12-23 | 2020-12-23 | 眼疲労評価装置、眼疲労評価方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022100015A true JP2022100015A (ja) | 2022-07-05 |
Family
ID=82269839
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020214134A Pending JP2022100015A (ja) | 2020-12-23 | 2020-12-23 | 眼疲労評価装置、眼疲労評価方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022100015A (ja) |
-
2020
- 2020-12-23 JP JP2020214134A patent/JP2022100015A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11583178B2 (en) | Systems and methods for evaluating contrast sensitivity and other visual metrics | |
Kuwahara et al. | Eye fatigue estimation using blink detection based on Eye Aspect Ratio Mapping (EARM) | |
JP2007006427A (ja) | 映像監視装置 | |
CN105326471B (zh) | 婴幼儿视力测试装置 | |
JP5225870B2 (ja) | 情動分析装置 | |
JPWO2012105196A1 (ja) | 関心度推定装置および関心度推定方法 | |
US20170156585A1 (en) | Eye condition determination system | |
Sun et al. | Real-time gaze estimation with online calibration | |
KR20120060978A (ko) | 시선 위치 추적 기반의 3차원 인간-컴퓨터 상호작용 장치 및 방법 | |
CN112987910B (zh) | 眼球追踪设备的测试方法、装置、设备及存储介质 | |
KR101984993B1 (ko) | 사용자 맞춤형 시표 제어가 가능한 시야검사기 | |
JP5351704B2 (ja) | 映像酔い耐性評価装置及びプログラム | |
Jayawardena et al. | Automated filtering of eye gaze metrics from dynamic areas of interest | |
JP2022100015A (ja) | 眼疲労評価装置、眼疲労評価方法およびプログラム | |
Lin | An eye behavior measuring device for VR system | |
Lee et al. | A study on virtual reality sickness and visual attention | |
Lochbihler et al. | Assessing Driver Gaze Location in a Dynamic Vehicle Environment | |
US11653831B2 (en) | Visual performance examination device, visual performance examination method, and computer program | |
Hynes et al. | An evaluation of lower facial micro expressions as an implicit QoE metric for an augmented reality procedure assistance application | |
US20210290133A1 (en) | Evaluation device, evaluation method, and non-transitory storage medium | |
Kaur et al. | Digital eye strain detection system based on svm | |
Ishrat et al. | Eye movement analysis in the context of external stimuli effect | |
Lee et al. | The method for visualization and analysis of eye-blinking patterns using dynamic vision | |
Huang et al. | Point-of-regard measurement via iris contour with one eye from single image | |
Adiani et al. | Evaluation of webcam-based eye tracking for a job interview training platform: Preliminary results |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A625 | Written request for application examination (by other person) |
Free format text: JAPANESE INTERMEDIATE CODE: A625 Effective date: 20231031 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240621 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240702 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240828 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20241001 |