JP2022100015A - 眼疲労評価装置、眼疲労評価方法およびプログラム - Google Patents

眼疲労評価装置、眼疲労評価方法およびプログラム Download PDF

Info

Publication number
JP2022100015A
JP2022100015A JP2020214134A JP2020214134A JP2022100015A JP 2022100015 A JP2022100015 A JP 2022100015A JP 2020214134 A JP2020214134 A JP 2020214134A JP 2020214134 A JP2020214134 A JP 2020214134A JP 2022100015 A JP2022100015 A JP 2022100015A
Authority
JP
Japan
Prior art keywords
eye
subject
eye strain
evaluation device
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020214134A
Other languages
English (en)
Inventor
司 門馬
Tsukasa Momma
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Essilor Co Ltd
Original Assignee
Nikon Essilor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Essilor Co Ltd filed Critical Nikon Essilor Co Ltd
Priority to JP2020214134A priority Critical patent/JP2022100015A/ja
Publication of JP2022100015A publication Critical patent/JP2022100015A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

【課題】眼疲労を評価できる眼疲労評価装置、眼疲労評価方法およびプログラムを提供すること。【解決手段】眼疲労評価装置は、被験者の顔の画像から取得される目の特徴点を特定する情報に基づいて目の形状を表す特徴量を算出する算出部と、算出部が算出した特徴量に基づいて被験者の眼疲労を判定する判定部とを備える。【選択図】図1

Description

本発明の実施形態は、眼疲労評価装置、眼疲労評価方法およびプログラムに関する。
従来、目の疲労を測定する技術に関して、瞬きを測定する技術が知られている(例えば特許文献1参照)。この技術は、計測対象者の瞬目動作に基づいて計測対象者の生体状態を判定するための瞬目計測装置であって、計測対象者の眼を撮像する撮像部と、撮像部により撮像された眼の画像に基づいて、瞬目動作に関する瞬目特徴量を算出し、この瞬目特徴量に基づいて、瞬目動作の種類を判別する瞼開閉計測部とを備える。
特開2010-273954号公報
本発明の目的は、眼疲労を評価できる眼疲労評価装置、眼疲労評価方法およびプログラムを提供することを目的とする。
本発明の一態様は、被験者の眼疲労を評価する眼疲労評価装置であって、被験者の顔の画像から取得される目の特徴点を特定する情報に基づいて目の形状を表す特徴量を算出する算出部と、前記算出部が算出した前記特徴量に基づいて前記被験者の眼疲労を判定する判定部とを備える眼疲労評価装置である。
本発明の一態様は、コンピュータが実行する眼疲労評価方法であって、被験者の顔の画像から取得される目の特徴点を特定する情報に基づいて目の形状を表す特徴量を算出するステップと、算出する前記ステップで算出した前記特徴量に基づいて前記被験者の眼疲労を判定するステップとを有する眼疲労評価方法である。
本発明の一態様は、コンピュータに、被験者の顔の画像から取得される目の特徴点を特定する情報に基づいて目の形状を表す特徴量を算出するステップと、算出する前記ステップで算出した前記特徴量に基づいて前記被験者の眼疲労を判定するステップとを実行させる、プログラムである。
本発明の実施形態によれば、眼疲労を評価できる眼疲労評価装置、眼疲労評価方法およびプログラムを提供できる。
本実施形態に係る眼疲労評価システムを示す図である。 本実施形態に係る眼疲労評価装置が検出する特徴点の一例を示す図である。 本実施形態に係る眼疲労評価装置の処理の一例を示す図である。 本実施形態に係る眼疲労評価装置の処理の一例を示す図である。 本実施形態に係る眼疲労評価装置によって算出されたアスペクト比の統計的データの例1を示す図である。 本実施形態に係る眼疲労評価装置によって算出されたアスペクト比の統計的データの例2を示す図である。 本実施形態に係る眼疲労評価装置によって算出された右目アスペクト比の確率密度分布の時間変化の一例を示す図である。 本実施形態に係る眼疲労評価装置によって算出されたアスペクト比の区間と確率密度と眼疲労インデックスとの一例を示す図である。 本実施形態に係る眼疲労評価装置によって算出された眼疲労インデックスの時間変化の一例を示す図である。 本実施形態に係る眼疲労評価システムの動作の一例を示すフロー図である。 本実施形態に係る眼疲労評価システムの評価結果の表示の一例を示す図である。 実施形態の変形例に係る眼疲労評価装置の処理の一例を示す図である。 実施形態の変形例に係る眼疲労評価装置によって算出された右開口部角度の統計的データの例1を示す図である。 実施形態の変形例に係る眼疲労評価装置によって算出された左開口部角度の統計的データの例2を示す図である。 実施形態の変形例に係る眼疲労評価装置によって算出された開口部角度の区間と確率密度と眼疲労インデックスとの一例を示す図である。 実施形態の変形例に係る眼疲労評価装置によって算出された眼疲労インデックスの時間変化の一例を示す図である。 実施形態の変形例に係る眼疲労評価システムの動作の一例を示すフロー図である。 実施形態の変形例に係る眼疲労評価システムの評価結果の表示の一例を示す図である。
<実施形態>
以下、図面を参照して、本発明の実施形態に係る眼疲労評価システムについて説明する。図1は、本実施形態に係る眼疲労評価システムを示す図である。眼疲労評価システム100は、撮像部1と、表示装置2と、眼疲労評価装置10とを備える。撮像部1と表示装置2とは、眼疲労評価装置10と接続されている。
撮像部1は、被検者Sを撮像する。
表示装置2は、撮像部1によって撮像される画像を表示する。
眼疲労評価装置10は、表示装置2に撮像部1によって撮像される画像を表示させることで、被験者Sが、撮像部1と被験者Sの顔の位置関係を確認することを可能とする。眼疲労評価装置10は、表示装置2に注視点を表示させ、被検者Sにその注視点を注視させる。このように構成することによって、被検者Sの視線を一定に保たせることができる。眼疲労評価装置10は、撮像部1によって撮像される画像に基づいて、被検者Sの眼の疲労を評価する。
眼疲労評価システム100の一例では、撮像部1は、机の上に固定される。被検者Sは、椅子に座り、表示装置2に表示されている注視点を注視する。
撮像部1は、被検者Sを所定の時間撮像することによって被検者Sの画像データを複数作成する。本実施形態では、一例として所定の時間を60秒間とした場合について説明を続ける。眼疲労評価装置10は、撮像部1が作成した被検者Sの複数の画像データを取得する。仮に、撮像部1が1秒間に30フレーム撮像できる場合には、60秒間で1800フレーム撮像できるため、眼疲労評価装置10は、約1800の画像データを取得する。眼疲労評価装置10は、取得した被検者Sの複数の画像データを記録する。
眼疲労評価装置10は、記録した複数の画像データをメモリに呼び出して、メモリに呼び出した複数の画像データを処理することによって被検者Sの複数の画像の各々から被検者Sの顔を検出する。例えば、眼疲労評価装置10は、被検者Sの画像から被検者Sの顔を検出した結果として、被検者Sの顔を囲い込む矩形(四角形)を特定する情報を取得する。
眼疲労評価装置10は、被検者Sの複数の画像の各々から取得した被検者Sの顔を囲い込む四角形を特定する情報に基づいて、被検者Sの複数の画像の各々から被検者Sの顔の特徴点(ランドマーク)を検出する。
眼疲労評価装置10は、被検者Sの複数の画像の各々から取得した被検者Sの顔の特徴点の検出結果に基づいて、被検者Sの複数の画像の各々から被検者Sの目の特徴点を検出する。
眼疲労評価装置10は、被検者Sの複数の画像の各々から取得した被検者Sの目の特徴点の検出結果に基づいて、被検者Sの複数の画像の各々について被検者Sの目の形状を表す特徴量を算出する。
眼疲労評価装置10は、被検者Sの複数の画像の各々について算出した被検者Sの目の形状を表す特徴量に基づいて、被検者Sの眼疲労を評価する。
以下、眼疲労評価装置10の詳細について説明する。
眼疲労評価装置10は、入出力I/F11と、CPU(Central Processing Unit)12と、メモリ13と、記録装置14と、データ読込部15と、バス16とを備える。バス16は、入出力I/F11と、CPU12と、メモリ13と、記録装置14と、データ読込部15とを互いに接続する。
入出力I/F11は、撮像部1及び表示装置2と、眼疲労評価装置10との間で、情報を入出力するためのインターフェースである。
データ読込部15は、撮像部1からバス16を介して被検者Sの画像データを取得する。データ読込部15は、取得した画像データを被検者Sの識別情報と関連付けて記録装置14に記録させる。
CPU12は、記録装置14に格納されたコンピュータプログラム(ソフトウェア)を実行することにより、処理部12-1、第1検出部12-2、第2検出部12-3、算出部12-4、判定部12-5、及び警告部12-6として機能する。
処理部12-1は、記録装置14に記録されている画像データのうち、被検者Sの識別情報と関連付けて記録されている画像データを複数取得する。処理部12-1は、取得した複数の画像データを、メモリ13に呼び出す。処理部12-1は、メモリ13に呼び出した複数の画像データの各々を処理することによって被検者Sが撮像された画像を取得する。
第1検出部12-2は、処理部12-1から被検者Sが撮像された複数の画像を取得する。第1検出部12-2は、記録装置14に格納されたソフトウェアを実行することによって、取得した被検者Sが撮像された複数の画像の各々から、被検者Sの顔を検出する。顔検出ソフトウェアとして、様々なソフトウェアがライブラリとして提供されている。本実施形態では、顔検出ソフトウェアの一例として、OpenCVのHaar Cascadesを使用した場合について説明を続ける。OpenCVのHaar Cascadesは、学習機と検出器との両方を提供している。
本実施形態では、事前に学習機が、人が撮像された複数の画像と人が撮像された複数の画像の各々に含まれる人の顔の画像とに基づいて、人が撮像された画像と人の顔の画像との関係の学習を済ませており、学習機による人が撮像された画像と人の顔の画像との関係の学習結果を使用して検出器が、人が撮像された画像から人の顔の画像を検出する場合について説明を続ける。
第1検出部12-2は、被検者Sが撮像された複数の画像の各々から被検者Sの顔を検出した結果として、被検者Sが撮像された複数の画像の各々において被検者Sの顔の部分を囲い込む矩形(四角形)を検出する。ここで、被検者Sの顔の部分を囲い込む矩形を特定する情報の一例は、座標VC(x,y,w,h)である。被検者Sの顔の部分を囲い込む矩形を特定する情報において、xとyとはそれぞれ矩形の左上のX座標とY座標とを特定する情報であり、wとhとはそれぞれ矩形の幅と高さとを特定する情報である。
第1検出部12-2は、被検者Sが撮像された複数の画像の各々から座標VCを取得する。第1検出部12-2は、被検者Sが撮像された複数の画像の各々から座標VCを取得することによって、取得した複数の座標VCの各々に基づいて被検者Sが撮像された複数の画像の各々から被検者Sの顔の部分の位置を取得(特定)できる。
第1検出部12-2は、取得した複数の座標VCの各々に基づいて、座標VCによって表される矩形の大きさを一定にするために、被検者Sが撮像された画像のサイズを変更してもよい。以下、第1検出部12-2が、複数の座標VCの各々に基づいて、被検者Sが撮像された画像のサイズを変更する場合について説明を続ける。このように構成することによって、座標VCによって特定される被検者Sの顔の部分を囲い込む矩形の大きさが異なることによって生じる誤差を補正できる。
第2検出部12-3は、第1検出部12-2から被検者Sが撮像された複数の画像と被検者Sが撮像された複数の画像の各々に対応する座標VCを特定する情報とを取得する。第2検出部12-3は、取得した被検者Sが撮像された複数の画像と座標VCを特定する複数の情報とに基づいて、被検者Sが撮像された複数の画像の各々から被検者Sの顔の画像を検出する。
第2検出部12-3は、検出した被検者Sの顔の複数の画像の各々から被検者Sの顔の特徴点を検出する。本実施形態では、一例として、Ensemble of regression treesを使用して、被検者Sの顔の特徴点を検出する場合について説明を続ける。Ensemble of regression treesを使用することによって、回帰ツリー分析を用いてリアルタイムで高精度に被検者Sの顔の特徴点を検出できる。
本実施形態では、事前に学習機が複数の人の顔の画像と複数の人の顔の画像の各々に含まれる人の顔の特徴点とに基づいて、人の顔の画像と人の顔の特徴点との関係の学習を済ませており、学習機による人の顔の画像と人の顔の特徴点との関係の学習結果を使用して検出器が人の顔の画像から人の顔の特徴点を検出する場合について説明を続ける。本実施形態では、一例として、人の顔の画像から人の顔の特徴点を68個検出する場合について説明を続ける。
第2検出部12-3は、被検者Sの1つ顔の画像から特徴点FP01からFP68の68個検出する。第2検出部12-3は、検出した特徴点FP01からFP68の各々の座標を取得する。ここで、座標の一例は、被検者Sが撮像された画像において位置を特定するための座標である。
図2は、本実施形態に係る眼疲労評価装置が検出する特徴点の一例を示す図である。図2において、68個の特徴点の各々は点と各点を識別する番号とで示されている。
第2検出部12-3は、取得した特徴点FP01からFP68の各々の座標から、左目の部分に該当する複数の特徴点の各々の座標と右目の部分に該当する複数の特徴点の各々の座標とを取得する。具体的には、第2検出部12-3は、左目の部分に該当する複数の特徴点FP37~FP42の各々の座標を取得し、左目の部分に該当する複数の特徴点FP43~FP48の各々の座標を取得する。第2検出部12-3は、取得した複数の特徴点FP37~FP42の各々の座標を特定する情報と複数の特徴点FP43~FP48の各々の座標を特定する座標とを含む配列データを作成する。図1に戻り説明を続ける。
算出部12-4は、第2検出部12-3が作成した配列データを取得する。算出部12-4は、取得した配列データに含まれる左目の部分に該当する複数の特徴点の各々の座標と右目の部分に該当する複数の特徴点の各々の座標とを取得する。算出部12-4は、取得した左目の部分に該当する複数の特徴点の各々の座標と右目の部分に該当する複数の特徴点の各々の座標とに基づいて、左目の形状を表す特徴量と右目の形状を表す特徴量とを算出する。本実施形態では、左目の形状を表す特徴量の一例として左目の画像の縦と横との長さ(画素数)の比によって示されるアスペクト比(以下「左目アスペクト比」という)を使用し、右目の形状を表す特徴量の一例として右目の画像の縦と横との長さ(画素数)の比によって表されるアスペクト比(以下「右目アスペクト比」という)を使用した場合について説明を続ける。
図3Aと図3Bとは、本実施形態に係る眼疲労評価装置の処理の一例を示す図である。図3Aと図3Bとは、一例として、右目の部分に該当する特徴点P1から特徴点P6を示す。
図3Aに示すように、特徴点P1(図2のFP37に該当)の一例は右目の目尻に該当し、特徴点P2(図2のFP38に該当)の一例は右目において白目と黒目との右側の境界と上瞼との交点に該当し、特徴点P2(図2のFP38に該当)及び特徴点P3(図2のFP39に該当)の一例は右目において特徴点P1における目尻と特徴点P4における目頭の間を、上瞼と目の境界線を等間隔で3分割にする点に該当する。図3Aに示すように、特徴点P4(図2のFP40に該当)の一例は右目において目頭に該当し、特徴点P5(図2のFP41に該当)及び特徴点P6(図2のFP42に該当)の一例は右目において特徴点P1における目尻と特徴点P4における目頭の間を、下瞼と目の境界線を等間隔で3分割する点に該当する。
算出部12-4は、右目の部分に該当する特徴点P1から特徴点P6の各々の座標に基づいて、式(1)によって右目アスペクト比REARを算出する。
REAR=(||P2-P6||+||P3-P5||)/2||P1-P4|| (1)
算出部12-4は、左目の部分に該当する6か所の特徴点の各々の座標に基づいて、左目アスペクト比LEARを算出する。算出部12-4が左目アスペクト比LEARを算出する処理の詳細については前述した右目アスペクト比REARを算出する処理を適用できるためここでの説明を省略する。
算出部12-4は、被検者Sが撮像された複数の画像の各々で被検者Sと撮像部1との位置関係が異なることで生じる誤差を補正するために人の顔の特徴点FP01~FP68のうち、所定の特徴点の座標を使用して、被検者Sの頭部のX軸とY軸とZ軸との各々に対する動き(向き)を推定する。算出部12-4は、被検者Sの頭部のX軸とY軸とZ軸との各々に対する動きの推定結果に基づいて、左目アスペクト比と右目アスペクト比との各々に対して誤差補正を行う。算出部12-4は、左目アスペクト比と右目アスペクト比との各々に対して誤差補正を行った結果を記録装置14に記録する。以下、補正された左目アスペクト比及び右目アスペクト比が使用される。
図4は、本実施形態に係る眼疲労評価装置によって算出されたアスペクト比の統計的データの例1を示す図である。図4において、算出されたアスペクト比のデータを、その相対度数を可視化したヒストグラムで表している。以下に示されるヒストグラムについても同様である。
実際には、算出されたアスペクト比のデータは、ある区間の間を無限に連続的に変化すると考えられ、実線の様に、アスペクト比の確率密度分布のグラフとして表すことができる。
アスペクト比の確率密度分布の推定方法として、ヒストグラム密度推定や、カーネル密度推定等があるが、図4における推定方法は、カーネル密度推定で行った。
カーネル密度推定の数学的な式は、式(2)で表される。
Figure 2022100015000002
カーネル関数kには、色々な種類があるが、今回は、式(3)によって表されるガウスカーネルを設定して、算出した。
Figure 2022100015000003
式(2)に式(3)を代入すると、式(4)が得られる。
Figure 2022100015000004
xの確率密度p(x)は、平均x、標準偏差hの正規分布から求めたサンプル数N個の確率密度の平均値である。hに関しては、トライ&エラーで、そのヒストグラムに対する当てはまりの良さで、決める必要がある。
図4は、一例として、画像表示端末(VDT: Visual Display Terminals)作業を開始する前の左目アスペクト比の確率密度分布を示す。
左目アスペクト比の統計的データを取得するにあたり、被検者Sの撮像を60秒間行った。60秒間の撮像で得られた画像データのうち、目の動き、頭の動きが比較的安定していると想定される撮像が開始されてから20秒以後の1000点のデータを利用して、確率密度関数を算出した。
図4において、(1)は左目アスペクト比の確率密度分布の一例を示す。この図によれば、左目アスペクト比の確率密度分布とX軸とで囲まれた面積は1である。
図4において、(2)は左目アスペクト比の確率密度分布の他の例を示す。
判定部12-5は、算出部12-4が算出した複数の左目アスペクト比の各々を特定する情報を取得する。判定部12-5は、取得した複数の左目アスペクト比の各々を特定する情報に基づいて、左目の眼疲労を示す指標(以下「左目眼疲労インデックス」という)を算出する。
具体的には、判定部12-5は、左目アスペクト比の確率密度分布において、ピークと、所定の割合に該当するアスペクト比の範囲との比を算出する。本実施形態では、所定の割合の一例として95%(確率分布が2.5%から97.5%)を適用した場合について説明を続ける。
所定の割合として95%を適用した場合、判定部12-5は、式(2)に示すように、確率分布が2.5%から97.5%における左目アスペクト比の範囲を、左目アスペクト比の確率密度関数における最大値の2.5%から97.5%における範囲をxlとし、左目のアスペクト比における確率密度関数が最大値(ピーク)をylとしてxlとylとの比を左眼疲労にけるインデックスとする。
具体的には、判定部12-5は、左目アスペクト比の確率密度分布のピークが18.4195であり、95%に該当するアスペクト比の範囲が0.0789であるため、左目疲労インデックスとして、233.3を算出する。
左目眼疲労インデックス=(左目のアスペクト比における確率密度関数が最大となる値(yl値))/(アスペクト比の確率分布における2.5%以上の範囲(xl値)) (2)
図5は、本実施形態に係る眼疲労評価装置によって算出されたアスペクト比の統計的データの例2を示す図である。図5は、一例として、VDT作業を開始する前の右目アスペクト比の確率密度分布を示す。図5において、横軸は確率変数を、縦軸はそのときの確率密度を表す。
右目アスペクト比の統計的データを取得するにあたり、被検者Sの撮像を60秒間行った。60秒間の撮像で得られた画像データのうち、目の動き、頭の動きが比較的安定していると想定される撮像が開始されてから20秒以後の1000点のデータを利用して、確率密度関数を算出した。
図5において、(1)は右目アスペクト比の確率密度分布の一例を示す。この図によれば、右目アスペクト比の確率密度分布とX軸とで囲まれた面積は1である。
図5において、(2)は右目アスペクト比の確率密度分布の他の例を示す。
判定部12-5は、算出部12-4が算出した複数の右目アスペクト比の各々を特定する情報を取得する。判定部12-5は、取得した複数の右目アスペクト比の各々を特定する情報に基づいて、右目の眼疲労を示す指標(以下「右目眼疲労インデックス」という)を算出する。
具体的には、判定部12-5は、右目アスペクト比の確率密度分布において、ピークと、所定の割合に該当するアスペクト比の範囲との比を算出する。本実施形態では、所定の割合の一例として95%(確率分布が2.5%から97.5%)を適用した場合について説明を続ける。
所定の割合として95%を適用した場合、判定部12-5は、式(3)に示すように、確率分布が2.5%から97.5%における右目アスペクト比の範囲を、右目アスペクト比の確率密度関数における最大値の2.5%から97.5%における範囲をxrとし、右目のアスペクト比における確率密度関数が最大値(ピーク)をyrとしてxrとyrとの比を右眼疲労にけるインデックスとする。
具体的には、判定部12-5は、右目アスペクト比の確率密度分布のピークが19.0934であり、95%に該当するアスペクト比の範囲が0.0807であるため、右目疲労インデックスとして、236.5を算出する。
右目眼疲労インデックス=(右目のアスペクト比における確率密度関数が最大となる値(yr値))/(アスペクト比の確率分布における2.5%以上の範囲(xr値)) (3)
図1に戻り説明を続ける。
判定部12-5は、算出した右目眼疲労インデックスと左目眼疲労インデックスとに基づいて被検者Sの眼疲労を判定することによって評価する。
図6は、本実施形態に係る眼疲労評価装置によって算出された右目アスペクト比の確率密度分布の時間変化の一例を示す図である。
図6は、一例として、VDT作業を開始する前からVDT作業を開始してから4時間経過するまで、1時間おきに取得した右目アスペクト比の確率密度分布を示す。図6において、横軸は確率変数を、縦軸はそのときの確率密度を表す。
さらに、図6には、1時間おきに取得した右目アスペクト比の確率密度分布に基づいて算出した右目眼疲労インデックスの時間変化も示す。
図6によれば、右目のアスペクト比における確率密度関数の最大値(ピーク)(yr値)に関して、VDT作業を開始する前(眼疲労が小さいとき)は、VDT作業を開始した後と比較してあるアスペクト比で安定して大きな値をとることが分かる。換言すれば、VDT作業の時間経過にしたがって、右目アスペクト比における確率密度関数の最大値が低くなり、ブロードな(最頻値における確率密度が減少する)確率密度分布となることが分かる。つまり、右目アスペクト比における確率密度関数の最大値に基づいて、右目の疲労の度合いが分かる。
左目アスペクト比の確率密度分布の時間変化の一例については、前述した右目アスペクト比と同様の傾向であるため、図示を省略する。左目のアスペクト比における確率密度関数の最大値(ピーク)(yl値)に関しても右目のアスペクト比における確率密度関数の最大値(ピーク)と同様に、VDT作業を開始する前(眼疲労が小さいとき)は、VDT作業を開始した後と比較してあるアスペクト比で安定して大きな値をとる。換言すれば、VDT作業の時間経過にしたがって、左目アスペクト比における確率密度関数の最大値が低くなり、ブロードな(最頻値における確率密度が減少する)確率密度分布となることが分かる。つまり、左目アスペクト比における確率密度関数の最大値に基づいて、左目の疲労の度合いが分かる。
図7は、本実施形態に係る眼疲労評価装置によって算出されたアスペクト比の区間と確率密度と眼疲労インデックスとの一例を示す図である。
図7によれば、右目疲労インデックスは、VDT作業の開始前は236.6であり、VDT作業の開始から1時間経過後が171.6であり、VDT作業の開始から2時間経過後が141.3であり、VDT作業の開始から3時間経過後が122.8であり、VDT作業の開始から4時間経過後が90.6である。右目疲労インデックスは、VDT作業を開始してからの経過時間に応じて、減少することが分かる。
左目疲労インデックスは、VDT作業の開始前は233.5であり、VDT作業の開始から1時間経過後が183.1であり、VDT作業の開始から2時間経過後が138.4であり、VDT作業の開始から3時間経過後が125.5であり、VDT作業の開始から4時間経過後が74.4である。左目疲労インデックスは、VDT作業を開始してからの経過時間に応じて、減少することが分かる。
右目疲労インデックスと左目疲労インデックスとが減少するのは、スマートフォンやパソコンなどのVDT機器を長時間使用することによって目が疲れたためであると想定される。集中して画面を見つめ、眼球の動きのない状態が続いた場合には、眼球を動かすための7本の筋肉と、ピントを合わせるために“水晶体”の厚さを調節している筋肉とが筋肉疲労を起こす。また、VDT作業では、まばたきの回数が減少することが多い。
さらに右目疲労インデックスと左目疲労インデックスとが減少するのは、コンタクトの装着やエアコンの風が当たる環境などで涙が蒸発しやすくなるドライアイも原因であると考えられる。このような原因により、アスペクト比の小さくなる確率が増えることで、右目疲労インデックスの分母にあるxr値と左目疲労インデックスの分母にあるxl値が増加することで、眼疲労の増加を意味する右目疲労インデックスと左目疲労インデックスとの各々が減少する。
また、判定部12-5は、右目眼疲労インデックスと左目眼疲労インデックスとに基づいて統計処理を行うことによって、右目と左目との両方を合わせた眼疲労の指標である眼疲労インデックスを算出する。本実施形態では、統計処理の一例として、平均値を使用した場合について説明を続ける。
図7によれば、眼疲労インデックス(左右平均)は、VDT作業の開始前は235.0であり、VDT作業の開始から1時間経過後が177.3であり、VDT作業の開始から2時間経過後が139.8であり、VDT作業の開始から3時間経過後が124.1であり、VDT作業の開始から4時間経過後が82.4である。疲労インデックスは、VDT作業を開始してからの経過時間に応じて、右目疲労インデックスと左目疲労インデックスと同様に減少することが分かる。
図8は、本実施形態に係る眼疲労評価装置によって算出された眼疲労インデックスの時間変化の一例を示す図である。図8において、横軸はVDT作業の開始からの経過時間であり、縦軸は眼疲労インデックスである。
図8によれば、眼疲労インデックスは、VDT作業の開始から1時間経過後に25%程度減少することが分かる。このため、初期値に対して、眼疲労インデックスが25%以上減少した場合に、眼疲労評価装置10は、被検者SにVDT作業を中止させ、ある時間休憩させることが好ましい。作業再開前に再度、眼疲労評価装置10は、被検者Sの右目疲労インデックスと左目疲労インデックスとを算出し、算出した右目疲労インデックスと左目疲労インデックスとに基づいてその後算出した疲労インデックスが25%以上減少したか否かを判定する。眼疲労評価装置10は、その後算出した疲労インデックスに基づいて、その疲労インデックスが25%以上減少した場合に同様の処理を行う。このように構成することによって、被検者Sは、眼痛・視力低下・肩こり・頭痛のような症状を防ぐことが可能であると想定される。図1に戻り説明を続ける。
警告部12-6は、判定部12-5が算出した眼疲労インデックスを取得する。警告部12-6は、取得した眼疲労インデックスが眼疲労インデックス閾値未満であるか否かを判定する。眼疲労インデックス閾値の一例は、眼疲労インデックスの初期値から25%低下した値である。警告部12-6は、眼疲労インデックスが眼疲労インデックス閾値未満である場合に警告を発する。具体的には、警告部12-6は、被験者S又は被験者Sの管理者に対して警告を発する。
(眼疲労評価システム100の動作)
図9は、本実施形態に係る眼疲労評価システムの動作の一例を示すフロー図である。
(S1-1)
眼疲労評価装置10は、表示装置2に撮像部1によって撮像される映像を表示させる。眼疲労評価装置10は、表示装置2に注視点を表示させ、被検者Sにその注視点を注視させる。
(S2-1)
撮像部1は、被検者Sを所定の時間撮像することによって被検者Sの画像データを作成する。データ読込部15は、撮像部1からバス16を介して被検者Sの画像データを取得し、取得した画像データを被検者Sの識別情報と関連付けて記録装置14に記録させる。
(S3-1)
眼疲労評価装置10において、処理部12-1は、画像データを、記録装置14からメモリ13に呼び出す。処理部12-1は、メモリ13に呼び出した画像データを処理することによって被検者Sの画像を取得する。第1検出部12-2は、処理部12-1から被検者Sの画像を取得する。第1検出部12-2は、取得した被検者Sの画像から、被検者Sの顔を検出する。
(S4-1)
眼疲労評価装置10において、第1検出部12-2は、被検者Sの画像のサイズを変更する。
(S5-1)
眼疲労評価装置10において、第2検出部12-3は、第1検出部12-2から被検者Sの画像と座標VCとを取得する。第2検出部12-3は、取得した被検者Sの画像と座標VCとに基づいて、被検者Sの顔を検出し、検出した被検者Sの顔の画像から被検者Sの顔の特徴点を検出する。
(S6-1)
眼疲労評価装置10において、第2検出部12-3は、取得した特徴点の各々の座標VCから、左目の部分に該当する特徴点の座標と右目の部分に該当する特徴点の座標とを取得する。算出部12-4は、第2検出部12-3が取得した左目の部分に該当する特徴点の座標と右目の部分に該当する特徴点の座標とを取得する。算出部12-4は、取得した左目の部分に該当する特徴点の座標と右目の部分に該当する特徴点の座標とに基づいて、被検者Sの左目アスペクト比と右目アスペクト比とを算出する。
(S7-1)
眼疲労評価装置10において、算出部12-4は、人の顔の特徴点FP01からFP68のうち、所定の特徴点の座標を使用して、被検者Sの頭部のX軸とY軸とZ軸との各々に対する動き(向き)を推定する。
(S8-1)
眼疲労評価装置10において、算出部12-4は、被検者Sの頭部のX軸とY軸とZ軸との各々に対する動き(向き)の推定結果に基づいて、左目アスペクト比と右目アスペクト比との各々に対して誤差補正を行う。
(S9-1)
眼疲労評価装置10において、判定部12-5は、右目アスペクト比の確率密度分布に基づいて右目眼疲労インデックスを算出する。算出部12-4は、左目アスペクト比の確率密度分布に基づいて左目眼疲労インデックスを算出する。判定部12-5は、算出した右目眼疲労インデックスと左目眼疲労インデックスとに基づいて統計処理を行うことによって眼疲労インデックスを算出する。
(S10-1)
眼疲労評価装置10において、判定部12-5は、算出した眼疲労インデックスに基づいて、眼疲労度を判定する。
図9において、ステップS6-1と、ステップS7-1との順序を入れ替えてもよい。すなわち、ステップS1-1からS5-1、S7-1、S6-1、S8-1からS10-1の順序としてもよい。
前述した実施形態では、第1検出部12-2が、被検者Sの画像から、被検者Sの顔を検出する場合に、OpenCVのHaar Cascadesを使用した場合について説明したが、この例に限られない。例えば、第1検出部12-2は、Active appearance modelを使用して、被検者Sの画像から被検者Sの顔を検出してもよい。Active appearance modelは、物体の形状と外観とから学習された統計モデルに基づいて物体検出を行う。例えば、第1検出部12-2は、Local Binary Featuresを使用して、被検者Sの画像から被検者Sの顔を検出してもよい。Local Binary Featuresは、回帰学習によって非常に高速に特徴量を検出する。
前述した実施形態では、第1検出部12-2が、被検者Sの画像から、被検者S一人の顔を検出する場合について説明したがこの例に限られない。例えば、第1検出部12-2は、被検者Sの画像から、複数の被検者Sの各々の顔を検出してもよい。この場合、眼疲労評価装置10は、複数の被検者Sの各々の眼疲労を判定してもよい。
前述した実施形態では、判定部12-5は、右目アスペクト比の確率密度分布に基づいて右目眼疲労インデックスを算出し、左目アスペクト比の確率密度分布に基づいて左目眼疲労インデックスを算出する。判定部12-5は、算出した右目眼疲労インデックスと左目眼疲労インデックスとに基づいて統計処理を行うことによって眼疲労インデックスを算出する場合について説明したがこの例に限られない。例えば、判定部12-5は、右目アスペクト比の確率密度分布に基づいて右目眼疲労インデックスを算出し、算出した右目眼疲労インデックスに基づいて統計処理を行うことによって眼疲労インデックスを算出してもよい。例えば、判定部12-5は、左目アスペクト比の確率密度分布に基づいて左目眼疲労インデックスを算出し、算出した左目眼疲労インデックスに基づいて統計処理を行うことによって眼疲労インデックスを算出してもよい。
前述した実施形態では、警告部12-6は、判定部12-5が算出した眼疲労インデックスを取得し、取得した眼疲労インデックスが眼疲労インデックス閾値未満である場合に警告を発する場合について説明したが、この例に限られない。例えば、警告部12-6は、複数の眼疲労インデックス閾値に基づいて、取得した眼疲労インデックスが、いずれかの注意レベルに該当するかを判定してもよい。さらに、警告部12-6は、取得した眼疲労インデックスがいずれかの注意レベルに該当するかの判定結果を表示装置2に表示するようにしてもよい。
図10は、本実施形態に係る眼疲労評価システムの評価結果の表示の一例を示す図である。図10に示される例では、眼疲労インデックスの判定結果が円チャートを使用して表示される。
具体的には、眼疲労インデックス閾値の一例として、177、140、124及び82が設定される。円チャートにおいて、眼疲労インデックスが177以上である注意無しに該当するレベルと、140以上で且つ177未満である注意レベル1と、124以上で且つ140未満である注意レベル2と、82以上で且つ140未満である注意レベル3と、82未満である注意レベル4との各々の範囲が設定され、各範囲が異なる色で表示される。警告部12-6は、眼疲労インデックスを矢印ARで表示する。
このように構成することによって、眼疲労インデックスの判定結果を参照した被検者Sは、自分の眼疲労の程度を知ることができる。ここでは、一例として、眼疲労インデックス閾値の数が4個である場合について説明したが、眼疲労インデックス閾値の数は、2-3個でもよいし、5個以上でもよい。
また、眼疲労評価装置10は、算出した眼疲労インデックスに基づいて、同じ環境下で眼疲労の状態がどの程度継続するかを予測するようにしてもよい。このように構成することによって、予測結果に基づいて、被検者Sが休憩をとるべきタイミングを導出できる。
また、VDT作業をしている使用者に対して、自動的に眼疲労インデックスを算出するように設定することで、測定プログラムが自動的に、スマートフォン、タブレット、ノートパーソナルコンピュータなどの端末装置で起動するようにしてもよい。端末装置は、実装している撮像装置で、使用者を撮像し、撮像することによって得られる画像データに基づいて、前述した処理を行うことによって眼疲労インデックスを算出してもよい。端末装置は、眼疲労インデックスに基づいて、使用者の眼疲労を判定し、使用者の眼疲労の閾値に基づいて判定した結果を機器のモニターに表示する。このように構成することによって、使用者に対して、常に眼疲労を判定し、眼疲労の判定結果を表示できるため、使用者に眼疲労に関する情報を示すことができる。
本実施形態に係る眼疲労評価システム100によれば、眼疲労評価装置10は、被験者の眼疲労を評価する。眼疲労評価装置10は、被験者の顔の画像から取得される目の特徴点を特定する情報に基づいて目の形状を表す特徴量を算出する算出部12-4と、算出部12-4が算出した特徴量に基づいて被験者の眼疲労を判定する判定部12-5とを備える。
このように構成することによって、眼疲労評価装置10は、被験者の顔の画像から取得される目の特徴点を特定する情報に基づいて目の形状を表す特徴量を算出できる。このため、眼疲労評価装置10は、目の形状を表す特徴量の算出結果に基づいて、被験者の眼疲労を判定できる。
初期における眼疲労は、自覚症状がないために、スマートフォン、タブレット、ノートパソコンなどの端末装置に実装されている撮像装置を利用して定期的に撮像し、眼疲労評価装置10は、撮像装置が撮像することによって作成した画像データに基づいて前述した処理を行うことによって眼疲労インデックスを算出する。眼疲労評価装置10は、算出した眼疲労インデックスに基づいて、眼疲労しているか否かを判定する。被検者Sは、眼疲労評価装置10が眼疲労していると判定した場合に、VDT作業を中止して、眼疲労インデックスを向上させてから作業を再開するようにしてもよい。このようにすることで、事前に、眼痛・視力低下・肩こり・頭痛のような症状を防ぐことが可能である。
厚生労働省で作成された「情報機器作業における労働衛生管理のためのガイドライン」には、一連続作業時間及び作業休止時間として、1時間を超えないようにし、次の連続作業までの間に10分~15分の作業休止時間を設けることが記載されている。しかし、現在、VDT作業従事者以外の多くの人が、スマートフォン、タブレット端末などの機器を、毎日何時間も利用している。スマートフォン、タブレット、ノートパーソナルコンピュータに実装されている撮像装置で撮像した画像に基づいて短時間で眼疲労しているか否かを判定でき、更に判定する頻度を増加できるため、そのような人に対して、事前に眼痛・視力低下・肩こり・頭痛のような症状を防ぐことを促すことが可能である。
また、眼疲労評価装置10において、算出部12-4は、右目に該当する特徴点を特定する情報と、左目に該当する特徴点を特定する情報と、両目に該当する特徴点を特定する情報とのいずれかに基づいて、目の形状を表す特徴量を算出する。このよう構成することによって、算出部12-4は、右目の形状を表す特徴量と、左目の形状を表す特徴量と、右目及び左目の形状を表す特徴量とのいずれかを算出できる。
また、眼疲労評価装置10において、判定部12-5は、所定の時間に算出部12-4が算出した目の形状を表す特徴量の分布に基づいて導出される統計量に基づいて被験者Sの眼疲労を判定する。このように構成することによって、判定部12-5は、所定の時間に算出部12-4が算出した目の形状を表す特徴量の分布に基づいて眼疲労インデックスとしての統計量を導出し、導出した統計量に基づいて被験者Sの眼疲労を判定できる。
また、眼疲労評価装置10において、判定部12-5は、目の形状を表す特徴量の確率密度分布に基づいて所定の区間の確率密度分布から被験者Sの眼疲労を判定する。このように構成することによって、目の形状を表す特徴量の確率密度分布に基づいて所定の区間の確率密度分布から眼疲労インデックスとしての統計量を導出できるため、導出した統計量に基づいて被験者Sの眼疲労を判定できる。
また、眼疲労評価装置10において、算出部12-4は、目の特徴点を特定する情報に基づいて目の形状を表す特徴量としてアスペクト比を算出する。このように構成することによって、目の形状を表す特徴量としてアスペクト比を算出できるため、算出したアスペクト比に基づいて被験者Sの眼疲労を判定できる。
また、眼疲労評価装置10において、判定部12-5により判定された眼疲労の程度が、予め定められた閾値を超えた場合に、被験者S又は被験者Sの管理者に対して眼疲労に関する警告を発する警告部12-6をさらに備える。このように構成することによって、被検者S又は被検者Sの管理者に被検者S眼疲労に関する警告を発することができる。
(実施形態の変形例)
以下、図面を参照して、実施形態の変形例に係る眼疲労評価システムについて説明する。実施形態の変形例に係る眼疲労評価システム100aは、図1を適用できる。ただし、眼疲労評価装置10の代わりに眼疲労評価装置10aを備える点で異なる。撮像部1と表示装置2とは、眼疲労評価装置10aと接続されている。
撮像部1は、被検者Sを撮像する。
表示装置2は、撮像部1によって撮像される画像を表示する。
眼疲労評価装置10aは、表示装置2に撮像部1によって撮像される画像を表示させる。眼疲労評価装置10aは、表示装置2に注視点を表示させ、被検者Sにその注視点を注視させる。このように構成することによって、被検者Sの視線を一定に保たせることができる。眼疲労評価装置10aは、撮像部1によって撮像される画像に基づいて、被検者Sの眼の疲労を評価する。
眼疲労評価システム100aの一例では、撮像部1は、机の上に固定される。被検者Sは、椅子に座り、表示装置2に表示されている注視点を注視する。
撮像部1は、被検者Sの顔を所定の時間撮像することによって被検者Sの画像データを複数作成する。本実施形態では、一例として所定の時間を60秒間とした場合について説明を続ける。眼疲労評価装置10aは、撮像部1が作成した被検者Sの複数の画像データを取得する。仮に、撮像部1が1秒間に30フレーム撮像できる場合には、60秒間で1800フレーム撮像できるため、眼疲労評価装置10aは、約1800の画像データを取得する。眼疲労評価装置10aは、取得した被検者Sの複数の画像データを記録する。
眼疲労評価装置10aは、記録した複数の画像データをメモリに呼び出して、メモリに呼び出した複数の画像データを処理することによって被検者Sの複数の画像の各々から顔を検出する。例えば、眼疲労評価装置10aは、被検者Sの画像から顔を検出した結果として、被検者Sの顔を囲い込む矩形(四角形)を特定する情報を取得する。
眼疲労評価装置10aは、被検者Sの複数の画像の各々から取得した被検者Sの顔を囲い込む四角形を特定する情報に基づいて、被検者Sの複数の画像の各々から被検者Sの顔の特徴点を検出する。
眼疲労評価装置10aは、被検者Sの複数の画像の各々から取得した被検者Sの顔の特徴点の検出結果に基づいて、被検者Sの複数の画像の各々から被検者Sの目の特徴点を検出する。
眼疲労評価装置10aは、被検者Sの複数の画像の各々から取得した被検者Sの目の特徴点の検出結果に基づいて、被検者Sの複数の画像の各々について被検者Sの目の形状を表す特徴量を算出する。
眼疲労評価装置10aは、被検者Sの複数の画像の各々について算出した被検者Sの目の形状を表す特徴量に基づいて、被検者Sの眼疲労を判定する。
以下、眼疲労評価装置10aの詳細について説明する。
眼疲労評価装置10aは、入出力I/F11と、CPU12と、メモリ13と、記録装置14と、データ読込部15と、バス16とを備える。バス16は、入出力I/F11と、CPU12と、メモリ13と、記録装置14と、データ読込部15とを互いに接続する。
入出力I/F11は、撮像部1及び表示装置2と、眼疲労評価装置10aとの間で、情報を入出力するためのインターフェースである。
CPU12は、記録装置14に格納されたコンピュータプログラム(ソフトウェア)を実行することにより、処理部12-1、第1検出部12-2、第2検出部12-3、算出部12a-4、判定部12a-5、及び警告部12a-6として機能する。
算出部12a-4は、第2検出部12-3が作成した配列データを取得する。算出部12a-4は、取得した配列データに含まれる左目の部分に該当する複数の特徴点の各々の座標と右目の部分に該当する複数の特徴点の各々の座標とを取得する。算出部12a-4は、取得した左目の部分に該当する複数の特徴点の各々の座標と右目の部分に該当する複数の特徴点の各々の座標とに基づいて、左目の形状を表す特徴量と右目の形状を表す特徴量とを算出する。
実施形態の変形例では、左目の形状を表す特徴量の一例として左目の画像の目頭の開口部の角度(以下「左目頭開口部角度」という)及び目尻の開口部の角度(以下「左目尻開口部角度」という)を使用し、右目の形状を表す特徴量の一例として右目の画像の目頭の開口部の角度(以下「右目頭開口部角度」という)及び目尻の開口部の角度(以下「右目尻開口部角度」という)を使用した場合について説明を続ける。
図11は、実施形態の変形例に係る眼疲労評価装置の処理の一例を示す図である。図11は、一例として、右目の部分に該当する特徴点P1から特徴点P6を示す。
図11に示すように、特徴点P1(図2のFP37に該当)の一例は右目の目尻に該当し、特徴点P2(図2のFP38に該当)の一例は右目において白目と黒目との右側の境界と上瞼との交点に該当し、特徴点P3(図2のFP39に該当)の一例は右目において白目と黒目との左側の境界と上瞼との交点に該当する。図11に示すように、特徴点P4(図2のFP40に該当)の一例は右目において目頭に該当し、特徴点P5(図2のFP41に該当)の一例は右目において白目と黒目との左側の境界と下瞼との交点に該当し、特徴点P6(図2のFP42に該当)の一例は右目において白目と黒目との右側の境界と下瞼との交点に該当する。
算出部12a-4は、右目の部分に該当する特徴点P1から特徴点P6の各々の座標に基づいて、右目頭開口部角度と右目尻開口部角度とを算出する。
具体的には、算出部12a-4は、特徴点P1と特徴点P2と特徴点P6とを線で結ぶことによって形成される三角形に、余弦定理を使用して、右目尻開口部角度(特徴点P1と特徴点P2とを結んだ線と特徴点P1と特徴点P6とを結んだ線とのなす角度)を算出する。算出部12a-4は、特徴点P3と特徴点P4と特徴点P5とを線で結ぶことによって形成される三角形に、余弦定理を使用して、右目頭開口部角度(特徴点P4と特徴点P3とを結んだ線と特徴点P4と特徴点P5とを結んだ線とのなす角度)を算出する。算出部12a-4は、算出した右目頭開口部角度と右目尻開口部角度とに基づいて統計処理を行うことによって、右目頭と右目尻との両方を合わせた開口部角度である右開口部角度を算出する。本実施形態では、統計処理の一例として、平均値を使用した場合について説明を続ける。
算出部12a-4は、左目の部分に該当する6か所の特徴点の各々の座標に基づいて、左目頭開口部角度と左目尻開口部角度とを算出する。算出部12a-4が左目頭開口部角度と左目尻開口部角度とを算出する処理の詳細については前述した右目頭開口部角度と右目尻開口部角度とを算出する処理を適用できるためここでの説明を省略する。算出部12a-4は、算出した左目頭開口部角度と左目尻開口部角度とに基づいて統計処理を行うことによって、左目頭と左目尻との両方を合わせた開口部角度である左開口部角度を算出する。本実施形態では、統計処理の一例として、平均値を使用した場合について説明を続ける。
算出部12a-4は、被検者Sが撮像された複数の画像の各々で被検者Sと撮像部1との位置関係が異なることで生じる誤差を補正するために人の顔の特徴点FP01~FP68のうち、所定の特徴点の座標を使用して、被検者Sの頭部のX軸とY軸とZ軸との各々に対する動き(向き)を推定する。算出部12a-4は、被検者Sの頭部のX軸とY軸とZ軸との各々に対する動きの推定結果に基づいて、算出された右開口部角度及び、左開口部角度に対して誤差補正を行った結果を記録装置14に記録する。
図12は、実施形態の変形例に係る眼疲労評価装置によって算出された右開口部角度の統計的データの例1を示す図である。図12は、一例として、VDT作業を開始する前からVDT作業を開始してから4時間経過するまで、1時間おきに取得した右開口部角度の確率密度分布を示す。図12において、横軸はradを、縦軸はそのときの確率密度を表す。
右開口部角度の統計的データを取得するにあたり、被検者Sの撮像を60秒間行った。60秒間の撮像で得られた画像データのうち、目の動き、頭の動きが比較的安定していると想定される撮像が開始されてから20秒以後の1000点のデータを利用して、確率密度関数を算出した。
判定部12a-5は、算出部12a-4が算出した複数の右開口部角度の各々を特定する情報を取得する。判定部12a-5は、取得した複数の右開口部角度の各々を特定する情報に基づいて、右目の眼疲労を示す指標(以下「右目眼疲労インデックス」という)を算出する。
具体的には、判定部12a-5は、右開口部角度の確率密度分布において、ピークと、所定の割合に該当する右開口部角度の範囲との比を算出する。本実施形態では、所定の割合の一例として95%(確率分布が2.5%から97.5%)を適用した場合について説明を続ける。
所定の割合として95%を適用した場合、判定部12a-5は、式(4)に示すように、確率分布が2.5%から97.5%における右開口部角度の範囲を、右開口部角度の確率密度関数における最大値の2.5%から97.5%における範囲をxraとし、右目の右開口部角度における確率密度関数が最大値(ピーク)をyraとしてxraとyraとの比を右眼疲労にけるインデックスとする。
具体的には、判定部12-5は、VDT作業を開始する前において、右開口部角度の確率密度分布のピークが7.1951であり、95%に該当する右開口部角度の範囲が0.29であるため、右目疲労インデックスとして、24.8を算出する。
右目眼疲労インデックス=(右目の右開口部角度における確率密度関数が最大となる値(yra値))/(右開口部角度の確率分布における2.5%以上の範囲(xra値)) (4)
図12には、1時間おきに取得した右開口部角度の確率密度分布に基づいて算出した右目眼疲労インデックスの時間変化も示す。
図12によれば、右開口部角度における確率密度関数の最大値(ピーク)(yra値)に関して、VDT作業を開始する前(眼疲労が小さいとき)は、VDT作業を開始した後と比較してある右開口部角度で安定して大きな値をとることが分かる。換言すれば、VDT作業の時間経過にしたがって、右開口部角度における確率密度関数の最大値が低くなり、ブロードな(最頻値における確率密度が減少する)確率密度分布となることが分かる。つまり、右開口部角度における確率密度関数の最大値に基づいて、右目の疲労の度合いが分かる。
図13は、実施形態の変形例に係る眼疲労評価装置によって算出された左開口部角度の統計的データの例2を示す図である。図13は、一例として、VDT作業を開始する前からVDT作業を開始してから4時間経過するまで、1時間おきに取得した左開口部角度の確率密度分布を示す。図13において、横軸はradを、縦軸はそのときの確率密度を表す。
左開口部角度の統計的データを取得するにあたり、被検者Sの撮像を60秒間行った。60秒間の撮像で得られた画像データのうち、目の動き、頭の動きが比較的安定していると想定される撮像が開始されてから20秒以後の1000点のデータを利用して、確率密度関数を算出した。
判定部12a-5は、算出部12a-4が算出した複数の左開口部角度の各々を特定する情報を取得する。判定部12a-5は、取得した複数の左開口部角度の各々を特定する情報に基づいて、左目の眼疲労を示す指標(以下「左目眼疲労インデックス」という)を算出する。
具体的には、判定部12a-5は、左開口部角度の確率密度分布において、ピークと、所定の割合に該当する左開口部角度の範囲との比を算出する。本実施形態では、所定の割合の一例として95%(確率分布が2.5%から97.5%)を適用した場合について説明を続ける。
所定の割合として95%を適用した場合、判定部12a-5は、式(5)に示すように、確率分布が2.5%から97.5%における左開口部角度の範囲を、左開口部角度の確率密度関数における最大値の2.5%から97.5%における範囲をxlaとし、左目の左開口部角度における確率密度関数が最大値(ピーク)をylaとしてxlaとylaとの比を左眼疲労にけるインデックスとする。
具体的には、判定部12a-5は、VDT作業を開始する前において、左開口部角度の確率密度分布のピークが6.9738であり、95%に該当する左開口部角度の範囲が0.31であるため、左目疲労インデックスとして、22.5を算出する。
左目眼疲労インデックス=(左目の左開口部角度における確率密度関数が最大となる値(yla値))/(左開口部角度の確率分布における2.5%以上の範囲(xla値)) (5)
図13には、1時間おきに取得した左開口部角度の確率密度分布に基づいて算出した左目眼疲労インデックスの時間変化も示す。
図13によれば、左開口部角度における確率密度関数の最大値(ピーク)(yla値)に関して、VDT作業を開始する前(眼疲労が小さいとき)は、VDT作業を開始した後と比較してある左開口部角度で安定して大きな値をとることが分かる。換言すれば、VDT作業の時間経過にしたがって、左開口部角度における確率密度関数の最大値が低くなり、ブロードな(最頻値における確率密度が減少する)確率密度分布となることが分かる。つまり、左開口部角度における確率密度関数の最大値に基づいて、左目の疲労の度合いが分かる。
図14は、実施形態の変形例に係る眼疲労評価装置によって算出された開口部角度の区間と確率密度と眼疲労インデックスとの一例を示す図である。
図14によれば、右目疲労インデックスは、VDT作業の開始前は24.83であり、VDT作業の開始から1時間経過後が16.22であり、VDT作業の開始から2時間経過後が13.38であり、VDT作業の開始から3時間経過後が11.18であり、VDT作業の開始から4時間経過後が9.38である。右目疲労インデックスは、VDT作業を開始してからの経過時間に応じて、指数関数的に減少することが分かる。
左目疲労インデックスは、VDT作業の開始前は22.58であり、VDT作業の開始から1時間経過後が16.94であり、VDT作業の開始から2時間経過後が11.74であり、VDT作業の開始から3時間経過後が8.35であり、VDT作業の開始から4時間経過後が7.95である。左目疲労インデックスは、VDT作業を開始してからの経過時間に応じて、減少することが分かる。
右目疲労インデックスと左目疲労インデックスとが減少するのは、スマートフォンやパソコンなどのVDT機器を長時間使用することによって目が疲れたためであると想定される。集中して画面を見つめ、眼球の動きのない状態が続いた場合には、眼球を動かすための7本の筋肉と、ピントを合わせるために“水晶体”の厚さを調節している筋肉とが筋肉疲労を起こす。また、VDT作業では、まばたきの回数が減少することが多い。さらに右目疲労インデックスと左目疲労インデックスとが減少するのは、コンタクトの装着やエアコンの風が当たる環境などで涙が蒸発しやすくなるドライアイも原因であると考えられる。このような原因により、開口部角度の小さくなる確率が増えることで、右目疲労インデックスの分母にあるxra値と左目疲労インデックスの分母にあるxla値が増加することで、眼疲労の増加を意味する右目疲労インデックスと左目疲労インデックスとの各々が減少する。
また、判定部12a-5は、右目眼疲労インデックスと左目眼疲労インデックスとに基づいて統計処理を行うことによって、右目と左目との両方を合わせた眼疲労の指標である眼疲労インデックスを算出する。本実施形態では、統計処理の一例として、平均値を使用した場合について説明を続ける。
図14によれば、疲労インデックス(左右平均)は、VDT作業の開始前は23.7であり、VDT作業の開始から1時間経過後が16.58であり、VDT作業の開始から2時間経過後が12.56であり、VDT作業の開始から3時間経過後が9.76であり、VDT作業の開始から4時間経過後が8.67である。疲労インデックスは、VDT作業を開始してからの経過時間に応じて、右目疲労インデックスと左目疲労インデックスと同様に減少することが分かる。
図15は、実施形態の変形例に係る眼疲労評価装置によって算出された眼疲労インデックスの時間変化の一例を示す図である。図15において、横軸はVDT作業の開始からの経過時間であり、縦軸は眼疲労インデックスである。
図15によれば、眼疲労インデックスは、VDT作業の開始から1時間経過後に25%程度減少することが分かる。このため、初期値に対して、眼疲労インデックスが25%以上減少した場合に、眼疲労評価装置10aは、被検者SにVDT作業を中止させ、ある時間休憩させることが好ましい。作業再開前に再度、眼疲労評価装置10aは、被検者Sの右目疲労インデックスと左目疲労インデックスとを算出し、算出した右目疲労インデックスと左目疲労インデックスとに基づいてその後算出した疲労インデックスが25%以上減少したか否かを判定する。眼疲労評価装置10aは、その後算出した疲労インデックスに基づいて、その疲労インデックスが25%以上減少した場合に同様の処理を行う。このように構成することによって、被検者Sは、眼痛・視力低下・肩こり・頭痛のような症状を防ぐことが可能であると想定される。
警告部12a-6は、判定部12a-5が算出した眼疲労インデックスを取得する。警告部12a-6は、取得した眼疲労インデックスが眼疲労インデックス閾値未満であるか否かを判定する。眼疲労インデックス閾値の一例は、眼疲労インデックスの初期値から25%低下した値である。警告部12a-6は、眼疲労インデックスが眼疲労インデックス閾値未満である場合に警告を発する。具体的には、警告部12a-6は、被験者S又は被験者Sの管理者に対して警告を発する。
(眼疲労評価システム100aの動作)
図16は、実施形態の変形例に係る眼疲労評価システムの動作の一例を示すフロー図である。
ステップS1-2からS5-2は、図9のステップS1-1からS5-1を適用できるため、ここでの説明は省略する。
(S6-2)
眼疲労評価装置10aにおいて、算出部12a-4は、人の顔の特徴点FP01~FP68のうち、所定の特徴点の座標を使用して、被検者Sの頭部のX軸とY軸とZ軸との各々に対する動き(向き)を推定する。
(S7-2)
眼疲労評価装置10aにおいて、算出部12a-4は、右目の部分に該当する特徴点P1から特徴点P6の各々の座標に基づいて、右目頭開口部角度と右目尻開口部角度とを算出する。
(S8-2)
眼疲労評価装置10aにおいて、算出部12a-4は、人の顔の特徴点FP01~FP68のうち、所定の特徴点の座標を使用して、被検者Sの頭部のX軸とY軸とZ軸との各々に対する動き(向き)を推定する。算出部12a-4は、被検者Sの頭部のX軸とY軸とZ軸との各々に対する動きの推定結果に基づいて、算出された右開口部角度及び、左開口部角度に対して誤差補正を行った結果を記録装置14に記録する。
(S9-2)
眼疲労評価装置10aにおいて、判定部12a-5は、右目頭開口部角度の確率密度分布に基づいて右目眼疲労インデックスを算出する。算出部12a-4は、左目頭開口部角度の確率密度分布に基づいて左目眼疲労インデックスを算出する。判定部12a-5は、算出した右目眼疲労インデックスと左目眼疲労インデックスとに基づいて統計処理を行うことによって眼疲労インデックスを算出する。
(S10-2)
眼疲労評価装置10aにおいて、判定部12a-5は、算出した眼疲労インデックスに基づいて、眼疲労度を判定する。
図16において、ステップS6-2と、ステップS7-2との順序を入れ替えてもよい。すなわち、ステップS1-2からS5-2、S7-2、S6-2、S8-2からS10-2の順序としてもよい。
前述した実施形態の変形例では、判定部12a-5は、右目頭開口部角度の確率密度分布に基づいて右目眼疲労インデックスを算出し、左目頭開口部角度の確率密度分布に基づいて左目眼疲労インデックスを算出する。判定部12a-5は、算出した右目眼疲労インデックスと左目眼疲労インデックスとに基づいて統計処理を行うことによって眼疲労インデックスを算出する場合について説明したがこの例に限られない。例えば、判定部12a-5は、右目頭開口部角度の確率密度分布に基づいて右目眼疲労インデックスを算出し、算出した右目眼疲労インデックスに基づいて統計処理を行うことによって眼疲労インデックスを算出してもよい。例えば、判定部12a-5は、左目頭開口部角度の確率密度分布に基づいて左目眼疲労インデックスを算出し、算出した左目眼疲労インデックスに基づいて統計処理を行うことによって眼疲労インデックスを算出してもよい。
前述した実施形態の変形例では、算出部12a-4は、右目尻開口部角度と右目頭開口部角度とを算出し、算出した右目尻開口部角度と右目頭開口部角度とに基づいて、右開口部角度を算出する場合について説明したが、この例に限られない。例えば、算出部12a-4は、右目尻開口部角度を算出し、算出した右目尻開口部角度に基づいて、右開口部角度を算出してもよいし、右目頭開口部角度を算出し、算出した右目頭開口部角度に基づいて、右開口部角度を算出してもよい。
前述した実施形態の変形例では、算出部12a-4は、左目尻開口部角度と左目頭開口部角度とを算出し、算出した左目尻開口部角度と左目頭開口部角度とに基づいて、左開口部角度を算出する場合について説明したが、この例に限られない。例えば、算出部12a-4は、左目尻開口部角度を算出し、算出した左目尻開口部角度に基づいて、左開口部角度を算出してもよいし、左目頭開口部角度を算出し、算出した左目頭開口部角度に基づいて、左開口部角度を算出してもよい。
前述した実施形態の変形例では、警告部12a-6は、判定部12a-5が算出した眼疲労インデックスを取得し、取得した眼疲労インデックスが眼疲労インデックス閾値未満である場合に警告を発する場合について説明したが、この例に限られない。例えば、警告部12a-6は、複数の眼疲労インデックス閾値に基づいて、取得した眼疲労インデックスが、いずれかの注意レベルに該当するかを判定してもよい。さらに、警告部12a-6は、取得した眼疲労インデックスが、いずれかの注意レベルに該当するかの判定結果を表示装置2に表示するようにしてもよい。
図17は、実施形態の変形例に係る眼疲労評価システムの評価結果の表示の一例を示す図である。図17に示される例では、眼疲労インデックスの判定結果が棒チャートを使用して表示される。具体的には、眼疲労インデックス閾値の一例として、16.5、12.6、9.8及び8.7が設定される。棒チャートにおいて、眼疲労インデックスが16.5以上である注意無しに該当するレベルと、12.6以上で且つ16.5未満である注意レベル1と、9.8以上で且つ12.6未満である注意レベル2と、8.7以上で且つ9.8未満である注意レベル3と、8.7未満である注意レベル4との各々の範囲が設定され、各範囲が異なる色で表示される。警告部12a-6は、眼疲労インデックスをキャラクターで表示する。このように構成することによって、眼疲労インデックスの判定結果を参照した被検者Sは、自分の眼疲労状態の程度を知ることができる。ここでは、一例として、眼疲労インデックス閾値の数が4個である場合について説明したが、眼疲労インデックス閾値の数は、2-3個でもよいし、5個以上でもよい。
実施形態の変形例に係る眼疲労評価システム100aによれば、前述した実施形態に係る眼疲労評価装置10において、算出部12a-4は、目の特徴点を特定する情報に基づいて目の形状を表す特徴量として目頭の開口部の角度と目尻の開口部の角度とのいずれか一方又は両方を算出する。このように構成することによって、目の形状を表す特徴量として目頭の開口部の角度と目尻の開口部の角度とのいずれか一方又は両方を算出できるため、算出した目頭の開口部の角度と目尻の開口部の角度とのいずれか一方又は両方に基づいて被験者Sの眼疲労を判定できる。
以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
1…撮像部、2…表示装置、10…眼疲労評価装置、11…入出力I/F、12…CPU、12-1…処理部、12-2…第1検出部、12-3…第2検出部、12-4、12a-4…算出部、12-5、12a-5…判定部、12-6、12a-6…警告部、13…メモリ、14…記録装置、15…データ読込部

Claims (9)

  1. 被験者の眼疲労を評価する眼疲労評価装置であって、
    被験者の顔の画像から取得される目の特徴点を特定する情報に基づいて目の形状を表す特徴量を算出する算出部と、
    前記算出部が算出した前記特徴量に基づいて前記被験者の眼疲労を判定する判定部と
    を備える眼疲労評価装置。
  2. 前記算出部は、右目に該当する特徴点を特定する情報と、左目に該当する特徴点を特定する情報と、両目に該当する特徴点を特定する情報とのいずれかに基づいて、目の形状を表す特徴量を算出する、請求項1に記載の眼疲労評価装置。
  3. 前記判定部は、所定の時間に前記算出部が算出した目の形状を表す特徴量の分布に基づいて導出される統計量に基づいて前記被験者の眼疲労を判定する、請求項1又は請求項2に記載の眼疲労評価装置。
  4. 前記判定部は、目の形状を表す特徴量の確率密度分布に基づいて所定の区間の確率密度分布から前記被験者の眼疲労を判定する、請求項3に記載の眼疲労評価装置。
  5. 前記算出部は、目の特徴点を特定する前記情報に基づいて目の形状を表す特徴量としてアスペクト比を算出する、請求項1から請求項4のいずれか一項に記載の眼疲労評価装置。
  6. 前記算出部は、目の特徴点を特定する前記情報に基づいて目の形状を表す特徴量として目頭の開口部の角度と目尻の開口部の角度とのいずれか一方又は両方を算出する、請求項1から請求項4のいずれか一項に記載の眼疲労評価装置。
  7. 前記判定部により判定された眼疲労の程度が、予め定められた閾値を超えた場合に、前記被験者又は前記被験者の管理者に対して眼疲労に関する警告を発する警告部
    をさらに備える、請求項1から請求項5のいずれか一項に記載の眼疲労評価装置。
  8. コンピュータが実行する眼疲労評価方法であって、
    被験者の顔の画像から取得される目の特徴点を特定する情報に基づいて目の形状を表す特徴量を算出するステップと、
    算出する前記ステップで算出した前記特徴量に基づいて前記被験者の眼疲労を判定するステップと
    を有する眼疲労評価方法。
  9. コンピュータに、
    被験者の顔の画像から取得される目の特徴点を特定する情報に基づいて目の形状を表す特徴量を算出するステップと、
    算出する前記ステップで算出した前記特徴量に基づいて前記被験者の眼疲労を判定するステップと
    を実行させる、プログラム。
JP2020214134A 2020-12-23 2020-12-23 眼疲労評価装置、眼疲労評価方法およびプログラム Pending JP2022100015A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020214134A JP2022100015A (ja) 2020-12-23 2020-12-23 眼疲労評価装置、眼疲労評価方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020214134A JP2022100015A (ja) 2020-12-23 2020-12-23 眼疲労評価装置、眼疲労評価方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2022100015A true JP2022100015A (ja) 2022-07-05

Family

ID=82269839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020214134A Pending JP2022100015A (ja) 2020-12-23 2020-12-23 眼疲労評価装置、眼疲労評価方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2022100015A (ja)

Similar Documents

Publication Publication Date Title
US11583178B2 (en) Systems and methods for evaluating contrast sensitivity and other visual metrics
Kuwahara et al. Eye fatigue estimation using blink detection based on Eye Aspect Ratio Mapping (EARM)
JP2007006427A (ja) 映像監視装置
CN105326471B (zh) 婴幼儿视力测试装置
JP5225870B2 (ja) 情動分析装置
JPWO2012105196A1 (ja) 関心度推定装置および関心度推定方法
US20170156585A1 (en) Eye condition determination system
Sun et al. Real-time gaze estimation with online calibration
KR20120060978A (ko) 시선 위치 추적 기반의 3차원 인간-컴퓨터 상호작용 장치 및 방법
CN112987910B (zh) 眼球追踪设备的测试方法、装置、设备及存储介质
KR101984993B1 (ko) 사용자 맞춤형 시표 제어가 가능한 시야검사기
JP5351704B2 (ja) 映像酔い耐性評価装置及びプログラム
Jayawardena et al. Automated filtering of eye gaze metrics from dynamic areas of interest
JP2022100015A (ja) 眼疲労評価装置、眼疲労評価方法およびプログラム
Lin An eye behavior measuring device for VR system
Lee et al. A study on virtual reality sickness and visual attention
Lochbihler et al. Assessing Driver Gaze Location in a Dynamic Vehicle Environment
US11653831B2 (en) Visual performance examination device, visual performance examination method, and computer program
Hynes et al. An evaluation of lower facial micro expressions as an implicit QoE metric for an augmented reality procedure assistance application
US20210290133A1 (en) Evaluation device, evaluation method, and non-transitory storage medium
Kaur et al. Digital eye strain detection system based on svm
Ishrat et al. Eye movement analysis in the context of external stimuli effect
Lee et al. The method for visualization and analysis of eye-blinking patterns using dynamic vision
Huang et al. Point-of-regard measurement via iris contour with one eye from single image
Adiani et al. Evaluation of webcam-based eye tracking for a job interview training platform: Preliminary results

Legal Events

Date Code Title Description
A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20231031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240828

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241001