JP6221292B2 - 集中度判定プログラム、集中度判定装置、および集中度判定方法 - Google Patents

集中度判定プログラム、集中度判定装置、および集中度判定方法 Download PDF

Info

Publication number
JP6221292B2
JP6221292B2 JP2013064839A JP2013064839A JP6221292B2 JP 6221292 B2 JP6221292 B2 JP 6221292B2 JP 2013064839 A JP2013064839 A JP 2013064839A JP 2013064839 A JP2013064839 A JP 2013064839A JP 6221292 B2 JP6221292 B2 JP 6221292B2
Authority
JP
Japan
Prior art keywords
gaze
concentration
sight
line
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013064839A
Other languages
English (en)
Other versions
JP2014191474A (ja
Inventor
三原 基伸
基伸 三原
清水 雅芳
雅芳 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013064839A priority Critical patent/JP6221292B2/ja
Publication of JP2014191474A publication Critical patent/JP2014191474A/ja
Application granted granted Critical
Publication of JP6221292B2 publication Critical patent/JP6221292B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本明細書で議論される実施態様は、集中度判定プログラム、集中度判定装置、および集中度判定方法に関する。
教育ビデオや講演映像の中身、または車の運転を対象とする集中度判定方法において、視線検出技術を使ってユーザの集中度を判定する技術が知られている。例えば、ユーザがWorld Wide Web(または、テレビジョン)で教育関連または講演用の映像(静止画、動画)を視聴しているときの集中度判定方法が知られている。また、車運転中における運転状態の集中度判定方法が知られている。
例えば、正面の注視方向にある対象物とは異なる場所に追加の刺激用表示(光点の点滅)を与えて、その方向に視線を向けた場合は運転者(被験者)の集中度が低下したと判定する、運転者状態検出装置、意識状態検出方法が知られている。
また、運転者の視線方向が視覚的な刺激を加えた位置に向いているか否かを判定し、視覚的な刺激を加えた位置に向いていれば、運転者が集中していると判定する、運転者状態判定装置が知られている。
また、対象物の検出として、輪郭検出の方法が知られている。輪郭検出の方法としては、アフィン動き分割による領域分割、およびオプティカルフローによる領域分割等の方法が知られている。
特開2009−232945号公報 特開2006−158740号公報
「実時間動領域抽出を目的としたアフィン動き推定プロセッサ」松田吉雄,深山正幸,金沢大学工学部広報(2009年3月号) Odobez et al."Direct Incremental Model−Based Image Motion Segmentation for Video Analysis"Signal Processing,66 pp.143−155,1998. 「視線から何がわかるか―視線測定に基づく高次認知処理の解明」大野健彦,日本認知科学会「認知科学」9巻4号,共立出版,pp.565−576,2002年
しかしながら、これらの従来技術は、何れの発明も被験者(運転者)に対して意識的に追加刺激表示を与えて、見ている場所と違うところに視線を向けたかどうかで集中度を判定する技術である。そのため、映像視聴中であっても、運転中のシーンであっても、追加刺激を与えるために、別途にLight Emitting Diode(LED、発光ダイオード)等を光らせるための準備が必要となり、かつ検出処理量が多くなるという問題がある。
そこで、上記事情を鑑みて、簡便であり、かつ検出処理量の軽い集中度判定プログラム、集中度判定装置、および集中度判定方法を提供することを目的とする。
本明細書で後述する集中度判定プログラムのひとつは、カメラが撮像した画像を取得し、該画像から被検体の視線を検出し、前記被検体の視線から視覚刺激を含む、表示装置における注視範囲を規定し、前記注視範囲内において注視領域を決定し、前記注視領域内の画素値の変化に基づいて、前記注視領域内の視覚刺激の有無を判定し、前記視覚刺激が消失したと判定される時点から、前記被検体の視線が前記注視領域に停留する停留時間を測定し、集中度を判定する際の基準になる複数の閾値を格納する閾値情報格納部を参照し、前記複数の閾値のうち何れかの閾値を設定し、前記停留時間が設定された前記閾値を超える場合に集中度が低下したと判定する、処理をコンピュータに実行させる。
本明細書で後述する集中度判定プログラム、集中度判定装置、および集中度判定方法によれば、簡便であり、かつ検出処理量を軽減することができるという効果を奏する。
従来技術を説明するための図である。 第1の実施形態に係る集中度判定方法を説明するための図である。 閾値時間標準データの基準例を示す表である。 第1の実施形態に係る集中度判定装置の機能ブロック図である。 標準的なコンピュータのハードウエア構成の一例を示すブロック図である。 第1の実施形態に係る集中度判定方法の処理内容を図解したフローチャートである。 第1の実施形態の変形例Aに係る集中度判定方法を説明するための図である。 第1の実施形態の変形例Bに係る集中度判定方法を説明するための図である。 第2の実施形態に係る集中度判定方法を説明するための図である。 第2の実施形態における対象物の検出方法を説明するための図である。 第2の実施形態に係る集中度判定装置の機能ブロック図である。 第2の実施形態に係る集中度判定方法の処理内容を図解したフローチャートである。
まず、図1(a)〜図1(c)を用いて、従来技術について説明する。図1(a)および図1(b)は、被験者(運転者)に対して意識的に追加刺激(LED)表示を与えて、見ている場所と違うところに視線を向けたかどうかで集中度を判定する技術を示す。図1(a)は、被験者が追加刺激1に視線を向けた場合であり、被験者は集中していると判定される。図1(b)は、被験者が「今まで見ていた視覚刺激(対象物)」に視線を向けたままの場合であり、被験者は集中していないと判定される。
図1(c)に示すように、追加刺激を与えない場合、上記の従来技術を拡張して「追加刺激に相当するもの」を探すことで対応する方法が考えられる。この方法では、例えば、車の場合、信号機2の色が青から赤に変わる状態、または、前方車両のブレーキランプの点灯などが追加刺激に相当する。しかし、このような「追加刺激相当」のものがどこにあるのかを検出する必要がある。すなわち、従来技術については、画像全体から「追加刺激に相当するもの」(変化)を探す処理(画像全体を解析する処理)が必要である。一方、本明細書に記載する実施形態は、追加刺激やフレーム全体の画素を必要とせずに、視線が今ある場所の、少ない画素値の変化を利用して、集中度を判定する。これにより、簡便であり、かつ検出処理量の軽い集中度判定プログラム、集中度判定装置、および集中度判定方法を提供する。
本明細書による検出方法は、画面(視界)の中にある何かを見ている状態において、視線が今ある場所の、少ない画素値の変化を利用して、集中度を判定する。すなわち、「追加刺激を与える」のではなく、「今まで見ていた視覚刺激(対象物)」に着目する。今まで見ていた視覚刺激が、「なくなる」、「移動する」に反応しなければ、集中していないことがわかる。「なくなる」、「移動する」への反応であれば、追加刺激の付加が不要となり、LEDを追加する準備や検出処理量が多くなるという問題が解決する。
さらに、「今まで見ていた視覚刺激」がなくなることや、移動することを判定するため、そのような判定による画像処理は「視線位置」に限定してよく、追加刺激を与えない場合、どこに「追加刺激相当」のものがあるかわからないという問題が解決する。
なお、これらの実施形態において「対象物」とは、背景(または対象物の周囲)と色度またはコントラストが異なり、背景との区別が可能な「図形」のことである。
「図形」は立体物であってもよく、平面図でもよい。立体物には、人、動物、物体が含まれる。例えば、運転中の環境であれば、物体は前方車両でもよく、信号機、道路標識でもよい。また、映像視聴中の環境であれば、自然画の図(写真)で表される人であってもよく、アニメーション(人工画)の人の絵であってもよい。
「対象物」は、人や車のように「動くもの」であってもよく、標識や木のように「動かないもの」であってもよい。ただし、「動かないもの」に対しては、映像の切替わりで今まであったものがなくなる場合や、動かないものが相対的に移動する場合に、本発明が適用される。
<第1の実施形態>
次に、第1の実施形態に係る集中度判定方法として、木にいる鳥を人が見ているときの利用シーンを用いて説明する。なお、この集中度判定方法は、プログラムによってコンピュータに処理を行わせるものである。図2(a)〜図2(d)は、今まで見ていた視覚刺激として、木にいる鳥を人が見ているシーンを示す。「今まで見ていた視覚刺激」がなくなる場所は、その(画像の)周囲との色度の区別が可能であることを特徴とする。すなわち、「今まで見ていた視覚刺激」が状態変化により色度が変化したにも関わらず、同じ場所を閾値の時間以上見続けている場合、集中度が低下したと判定する。
人がものを見る場合、注目している場所に焦点が合い(中心視)、周辺はぼける(周辺視)。焦点が合う領域の注視領域の範囲は概ね視野角度2°以内である。そこで、図2(a)に示すように、このように木にいる鳥に注目していた場合、「今まで見ていた視覚刺激」の注視領域(視野角度2°以内)の平均色度を算出する。その後、平均色度変化後の視線が同じ場所を見ているかどうかを、停留時間を測定することによって判定する。
被検体の眼の情報から被検体の視線を検出するには、一般的な視線検出方法を用いることができる。例えば、非特許文献3に記載される方法、または一般的な角膜反射法による検出方法を用いることができる。
例えば、角膜反射法は、PCに内蔵可能である汎用的な小型カメラで撮影した画像から検出することができる。瞳孔は眼の中で他部分に比べて暗いこと、角膜反射は逆に他部分に比べて明るいことなどを特徴とするので、撮影した画像を元に画像処理を行い、眼領域の中からこのような特徴を持つ候補を抽出する。抽出した候補の中から、カメラ、顔位置との関係や直前の瞳孔サイズなどの整合性のルールを適用して絞り込むことで、瞳孔と角膜反射の位置関係から視線方向を算出する。
その他に、強膜トラッカー法、Electro−oculography(EOG)法、サーチコイル等の検出方法を用いてもよい。
なお、ユーザと注視範囲との間の距離に応じて、焦点が合う中心視野領域より広めの周辺視野領域(視野角5°)を注視領域として設定してもよい。例えば、遠距離には視野角5°以内、近距離には2°以内を適用してもよい。
図2(b)に時間T1経過後に鳥が動いた時の状態を示す。さらに、時間T2経過後、鳥を集中して見ていた場合は、鳥の移動とともに、視線がこれまで鳥のいた場所とは異なり、図2(c)のように、鳥が動いた場所に視線が移動する。この場合は、視線の位置(座標)が変わることから、集中して見ていることの確認が可能である。一方、時間T2経過後、集中が低下した場合は、鳥のいた同じ場所を見続けていることが想定される。この場合、視線は図2(d)のように、鳥が動いた後も、同じ場所の木を見たままになり、注視領域の平均色度(緑色系)は、鳥がいたとき(灰色系)に比べて明らかに異なる。よって、集中度判定部により、図2(d)のように色度の変化後も、同じ場所を閾値の時間以上見ていた場合には、集中度が低下したと判定する。
なお、参照する閾値時間は、停留時間から集中度を判定する際のベースになる閾値であり、サーバ等に予め格納されている。閾値として格納する値は、個人単位の値を格納してもよいし、不特定多数の閾値の平均の値を格納してもよい。例えば、利用者の個人データの平均値から決めてもよく、複数人の統計データを使用してもよい。どちらを使用しても構わないが、個人にカスタマイズする場合は、個人データの平均値を使うことが好ましい。
閾値時間については、本実施形態に係る集中度判定方法を利用する人の年齢層、または視力によって、異なることが想定される。例えば、高齢者は若年層に比べて反応が鈍くなるため、閾値時間が長くなると思われる。また、近視度が強くなるとともに、「対象物」のエッジが見えにくくなるため、閾値時間が長くなることが想定される。
年齢層や視力等の規定が難しい一般的な使用環境下では、標準の閾値時間Tth_stdを使用すればよい。
ただし、特定の年齢層、または視力等が規定可能な条件下では、例えば、図3(a)および図3(b)の表に示すように、閾値時間をそれぞれユーザの条件に対応して設定すればよい。なお、図3(a)および図3(b)の表に示した条件および数値は単に例示であって、これらに限定されるものではない。その他の様々な条件設定が可能であり、対応する数値設定も条件に応じて様々に変化させることができる。
次に、本実施形態に係る集中度判定装置について説明する。図4は、集中度判定装置の一実施例のシステム構成図を示す。
この集中度判定装置100は、視線検出部102と、注視範囲規定部104と、視線位置画像情報計算部110と、閾値情報格納部118と、集中度判定部120と、ユーザ通知部122とを備える。視線検出部102は、更に、眼情報撮像部106と、視線位置抽出部108とを備える。視線位置画像情報計算部110は、更に、注視領域決定部112と、平均色度算出部(画素値算出部)114と、停留時間測定部116とを備える。
視線検出部102は、被検体の眼の情報から被検体の視線を検出する。例えば、眼情報撮像部106が、被検体の眼の画像を取得し、視線位置抽出部108が、画像から被検体の視線を検出し、注視範囲規定部104に対して、視線がある場所の中心座標を求める。ここで、視線検出方法は、一般的な視線検出方法を用いることができる。例えば、非特許文献3に記載される方法、または一般的な角膜反射法による検出方法を用いることができる。その他に、強膜トラッカー法、EOG法、サーチコイル等の検出方法を用いてもよい。
注視範囲規定部104は、今まで見ていた視覚刺激の注視を特定し、ユーザが見ている映像の表示領域、または、車運転中であれば、視野範囲内で規定される表示領域を規定する。注視範囲規定部104は、例えば、映像用のディスプレイであれば、縦480ピクセル、横640ピクセルなどの、画素座標範囲に合せて表示領域を決定する画像表示部であってもよい。同様に、車の視野範囲領域においても、仮想の画素座標範囲を決めることで領域を決定する仮想範囲確定部であってもよい。
注視領域決定部112は、視線の中心位置から所定の注視領域を決定する。例えば、視線の中心位置から視野角で2°以内の範囲の領域を決定する。視野角2°以内の範囲の領域は、人がものを見る際に注目している場所は焦点が合うという特徴を有することが知られている。なお、ユーザと注視範囲との間の距離に応じて、焦点が合う中心視野領域より広めの周辺視野領域(視野角5°)を注視領域として設定してもよい。例えば、遠距離には視野角5°以内、近距離には2°以内を適用してもよい。
平均色度算出部114は、注視領域で決定した領域(エリア)の平均色度を求める。平均色度としては、例えば、画素値を用いて算出することができる。
停留時間測定部116は、注視領域で決定した領域の平均色度が変化した直後からの視線が同じ場所に停留する時間を測定する。
集中度判定部120は、停留時間測定部により求めた停留時間と閾値とを比較して集中度を判定する。
閾値情報格納部118は、停留時間から集中度を判定する際の基準になる閾値を格納する。閾値に格納する値は、個人単位の値を格納してもよいし、不特定多数の閾値の平均の値を格納してもよい。例えば、利用者の個人データの平均値から決めてもよく、複数人の統計データを使用してもよい。どちらを使用しても構わないが、個人にカスタマイズする場合は、個人データの平均値を使うことが好ましい。
なお、本実施形態に係る集中度判定装置100を利用する人の年齢層、または視力によって、異なることが想定される。例えば、高齢者は若年層に比べて反応が鈍くなるため、閾値時間が長くなると思われる。また、近視度が強くなるとともに、「対象物」のエッジが見えにくくなるため、閾値時間が長くなることが想定される。
そこで、年齢層や視力等の規定が難しい一般的な使用環境下では、標準の閾値時間Tth_stdを使用すればよい。ただし、特定の年齢層、または視力等が規定可能な条件下では、例えば、図3(a)および図3(b)の表に示すように、閾値時間をそれぞれユーザの条件に対応して設定すればよい。なお、図3(a)および図3(b)の表に示した条件および数値は単に例示であって、これらに限定されるものではない。その他の様々な条件設定が可能であり、対応する数値設定も条件に応じて様々に変化させることができる。
ユーザ(状態)通知部122は、集中度の判定結果に基づき、特に集中度がないと判定された場合に、ユーザに通知する。
上記のように構成されることで、本実施形態に係る集中度判定装置は、画面(視界)の中にある何かを見ている状態において、視線が今ある場所の、少ない画素値の変化を利用して集中度を判定することができる。そのため、検出処理量を軽減することができるという効果を奏する。
ここで、上記実施の形態による集中度判定装置の動作、および集中度判定方法の処理をコンピュータに行わせるために共通に適用されるコンピュータの例について説明する。
図5は、標準的なコンピュータのハードウエア構成の一例を示すブロック図である。図4に示すように、コンピュータ300は、Central Processing Unit(CPU)302、メモリ304、入力装置306、出力装置308、外部記憶装置312、媒体駆動装置314、ネットワーク接続装置等がバス310を介して接続されている。
CPU302は、コンピュータ300全体の動作を制御する演算処理装置である。メモリ304は、コンピュータ300の動作を制御するプログラムを予め記憶したり、プログラムを実行する際に必要に応じて作業領域として使用したりするための記憶部である。メモリ304は、例えばRandom Access Memory(RAM)、Read Only Memory(ROM)等である。入力装置306は、コンピュータの使用者により操作されると、その操作内容に対応付けられている使用者からの各種情報の入力を取得し、取得した入力情報をCPU302に送信する装置であり、例えばキーボード装置、マウス装置などである。出力装置308は、コンピュータ300による処理結果を出力する装置であり、表示装置などが含まれる。例えば表示装置は、CPU302により送付される表示データに応じてテキストや画像を表示する。
外部記憶装置312は、例えば、ハードディスクなどの記憶装置であり、CPU302により実行される各種制御プログラムや、取得したデータ等を記憶しておく装置である。媒体駆動装置314は、可搬記録媒体316に書き込みおよび読み出しを行うための装置である。CPU302は、可搬型記録媒体316に記録されている所定の制御プログラムを、記録媒体駆動装置314を介して読み出して実行することによって、各種の制御処理を行うようにすることもできる。可搬記録媒体316は、例えばConpact Disc(CD)−ROM、Digital Versatile Disc(DVD)、Universal Serial Bus(USB)メモリ等である。ネットワーク接続装置318は、有線または無線により外部との間で行われる各種データの授受の管理を行うインタフェース装置である。バス310は、上記各装置等を互いに接続し、データのやり取りを行う通信経路である。
続いて、上記の集中度判定装置100を用いて前述の集中度判定方法をコンピュータに行わせるプログラムについて説明する。図5は、第1の実施形態に係る集中度判定方法の処理内容を図解したフローチャートである。
まず、S100では、視線検出部102が、被検体の眼の情報から被検体の視線を検出する。例えば、眼情報撮像部106が、被検体の眼の画像を取得し、視線位置抽出部108が、画像から被検体の視線を検出し、注視範囲規定部104に対して、視線がある場所の中心座標を求める。ここで、視線検出方法は、一般的な視線検出方法を用いることができる。例えば、非特許文献3に記載される方法、または一般的な角膜反射法による検出方法を用いることができる。その他に、強膜トラッカー法、Electro−oculography(EOG)法、サーチコイル等の検出方法を用いてもよい。
続いて、S101では、注視範囲規定部104が、今まで見ていた視覚刺激の注視を特定し、視覚刺激を含む注視範囲を規定する。すなわち、ユーザが見ている映像の表示領域、または、車運転中であれば、視野範囲内で規定される表示領域を示す。例えば、映像用のディスプレイであれば、縦480ピクセル、横640ピクセルなどの、画素座標範囲に合せて表示領域を決定する。同様に、車の視野範囲領域においても、仮想の画素座標範囲を決めることで、表示領域を決定する。
次に、S102では、注視領域決定部112が、視線の中心位置から所定の注視領域を決定する。例えば、視線の中心位置から視野角で2°の範囲の領域を決定する。この領域は、人がものを見る際に注目している場所は焦点が合うという特徴に基づいて決める。
続いて、S103では、平均色度算出部114が、注視領域で決定した領域(エリア)の平均色度を求める。
そして、S104では、時間T1において、平均色度算出部114が視覚刺激の消失の有無を確認する。
次に、S105では、停留時間測定部116が、注視領域で決定した領域の平均色度が変化した直後からの視線が同じ場所に停留する時間を測定する。すなわち、視覚刺激消失後の停留時間を測定する。
続いて、S106では、集中度判定部120が、閾値情報格納部118から閾値標準データを参照し、停留時間測定部により求めた停留時間と閾値とを比較して集中度を判定する。S106の結果がYES、すなわち時間T2における視線の停留時間が閾値以内ならば、S107に進む。このとき、ユーザは視覚刺激の消失により元の場所から視線が離れているので、S107において、集中度判定部120は、ユーザが集中して見ていると判定する。
一方、S106の結果がNO、すなわち時間T2における視線の停留時間が閾値を超えていれば、S108に進む。そして、S108では、集中度判定部120は、ユーザが漠然と見ていると判定する。そして、S109に進み、S108で判定した結果を、状態通知部122により、ユーザに直ちに伝えてもよく、S108で判定した結果をデータベースにまとめておいて、データ分析に使用してもよい。
なお、閾値情報格納部118に格納する閾値時間は、停留時間から集中度を判定する際の基準になる閾値である。閾値として格納する値は、個人単位の値を格納してもよいし、不特定多数の閾値の平均の値を格納してもよい。例えば、利用者の個人データの平均値から決めてもよく、複数人の統計データを使用してもよい。どちらを使用しても構わないが、個人にカスタマイズする場合は、個人データの平均値を使うことが好ましい。
閾値時間については、本実施形態を利用する人の年齢層、または視力によって、異なることが想定される。例えば、高齢者は若年層に比べて反応が鈍くなるため、閾値時間が長くなると思われる。また、近視度が強くなるとともに、「対象物」のエッジが見えにくくなるため、閾値時間が長くなることが想定される。
年齢層や視力等の規定が難しい一般的な使用環境下では、標準の閾値時間Tth_stdを使用すればよい。
ただし、特定の年齢層、または視力等が規定可能な条件下では、例えば、図3(a)および図3(b)の表に示すように、閾値時間をそれぞれユーザの条件に対応して設定すればよい。なお、図3(a)および図3(b)の表に示した条件および数値は単に例示であって、これらに限定されるものではない。その他の様々な条件設定が可能であり、対応する数値設定も条件に応じて様々に変化させることができる。
上記のように処理を行うことで、画面(視界)の中にある何かを見ている状態において、視線が今ある場所の、少ない画素値の変化を利用して集中度を判定することができる。そのため、簡便であり、かつ検出処理量を軽減することができるという効果を奏する。
<第1の実施形態の変形例A>
次に、図7(a)〜図7(c)を用いて、第1の実施形態の変形例Aについて説明する。なお、この集中度判定方法は、プログラムによってコンピュータに処理を行わせるものである。第1の実施形態と同様に、前述の集中度判定装置100を用いることができる。
図7(a)〜図7(c)に示すように、第1の実施形態の変形例Aに係る集中度判定方法では、注視領域決定部112により決定される「今まで見ていた視覚刺激」の有無を判定する際に、注視領域の平均色度として、注視領域とその周辺とのエッジの色度差を求め、エッジの色度差に十分な変化があった場合に視覚刺激が消失したとみなす。
図7(a)は、初期の視覚刺激を見ている図を示す。例えば、四角の図形を見ているとする。元の対象が消失すれば、集中ありの場合は、図7(b)のように、消失後の視線は、閾値の時間内で元の場所から離れる。
このように、注視領域(座標)が異なる状態から、集中状態が確認できる。一方、集中度が低下している場合は、図7(c)のように、注視している場所(座標)は元の場所(図7(a))と同じであるが、エッジの色度が変化(例えば青色系→白色系)する。このエッジにおける色度の差から、視覚刺激が消失したか否かを判定する。すなわち、エッジにおける色度に十分な変化があった場合、視覚刺激が消失したとみなし、集中しているか否か(閾値時間以上、色度の異なる同じ場所を注視しているか)の判定を行う。
この集中度判定方法をコンピュータに行わせるプログラムは、図6のフローチャートに示した処理内容と同様である。ただし、S103において、視線位置画像情報計算部110は、注視領域の平均色度として、注視領域とその周辺とのエッジの色度を求める。
<第1の実施形態の変形例B>
続いて、図8(a)および図8(b)を用いて、第1の実施形態の変形例Bについて説明する。なお、この集中度判定方法は、プログラムによってコンピュータに処理を行わせるものである。第1の実施形態と同様に、前述の集中度判定装置100を用いることができる。
図8(a)および図8(b)に示すように、第1の実施形態の変形例Bに係る集中度判定方法は、注視領域決定部112により決定される「今まで見ていた視覚刺激」の有無を判定する際に、視線位置角度2°の画像の平均RGBの値を求め、平均RGBが所定の閾値以上変わる場合に視覚刺激が消失したとみなすことによって集中度を判定する。
図8(a)は「今まで見ていた視覚刺激」がある状態であり、図8(b)は「今まで見ていた視覚刺激」がなくなった状態を示す。「今まで見ていた視覚刺激」がなくなったときに、視線が閾値以内の時間で動けば「集中している」と判定する。
このとき、平均RGBの閾値としては、10以上が好ましい。なぜならば、人間の目で認識可能なRGB値の差が10以上を必要とするためである。
この集中度判定方法をコンピュータに行わせるプログラムは、図6のフローチャートに示した処理内容と同様である。ただし、S103において、平均色度算出部114は、注視領域で決定した領域の平均色度として、平均RGBの値を求める。
<第2の実施形態>
本実施形態は、視点中心位置からの注視領域内に含まれる「対象物」が検出対象となる。そのため、注視領域内で「対象物」とその周囲のエッジ(境界)の検出が可能であり、エッジが移動しているにも拘らず、注視位置が元の位置に留まる場合に、集中度が低下していると判定する。なお、この集中度判定方法は、プログラムによってコンピュータに処理を行わせるものである。第1の実施形態と同様に、前述の集中度判定装置100を用いることができる。
図9(a)〜図9(d)を用いて、第2の実施形態について説明する。第2の実施形態では、注視領域決定部112により決定される「今まで見ていた視覚刺激」は、車のような動きを持つ対象物であることを特徴とする。元々は対象物がいた場所を見ており、視線が今ある場所の対象物のみを検出する。時間経過に伴い対象物がいなくなったにも関わらず、同じ場所を閾値の時間以上見続けている場合、集中度が低下したと判定する。
図9(a)は、時間T1において、対象物(車)3に視線がある状態を示す。この状態から時間T2(図9(b))、時間T3(図9(c))、時間T4(図9(d))と対象物3は動くが、時間T4のときの視線は時間T1のときと同じ場所にある。しかし、時間T1は対象物3があるが、時間T4では対象物3がなくなる。この差を検出することによって、閾値時間以上視線が元の位置にあれば、集中していない状態と判定する。
(第2の実施形態における対象物の検出方法)
続いて、第2の実施形態における対象物の検出方法について説明する。対象物の検出方法は、例えば、輪郭検出方法を用いることができる。輪郭検出方法としては、アフィン動き分割による領域分割、またはオプティカルフローによる領域分割等の方法を用いればよい。これらの方法によって対象物を検出(区別)する。
アフィン動き分割による領域分割は、例えば、非特許文献1に記載の方法を利用することができる。アフィン動きモデルは、2次元のアフィン変換を用いて対象領域の動きを表現するものである。アフィン動きモデルは6つの動きパラメータで構成される。このパラメータにより、領域内の各画素の動きベクトルを与える。この詳細は、例えば、非特許文献2に記載されたアルゴリズムに基づき領域の分割を行うことができる。
また、オプティカルフローは、画像中の画素の動きを解析し、速度ベクトルによって物体の運動を表す方法であり、これを用いて対象領域を分割することができる。オプティカルフローを使った領域分割アルゴリズムも複数の方法が提案されている。例えば、勾配法、Watershedアルゴリズムを使った方法、EM(期待値最大化)法を使った方法などである。オプティカルフローを使った領域分割手法はオープンソースソフトウェア(OSS)として提供されている技術であり、これをベースに領域分割が可能である。
なお、これらの手法により、領域分割を行うと、例えば、図10(a)の元画像に対する領域分割後の画像は、図10(b)のようにあらわされる。以上の検出手法を使って、今見ている場所の対象物(車)に対する領域を検出する。
次に、第2の実施形態に係る集中度判定装置について説明する。図11は、第2の実施形態に係る集中度判定装置200の機能ブロック図である。集中度判定装置200の基本構成は、図4に示した第1の実施形態に係る集中度判定装置100の基本構成と同様に、視線検出部202と、注視範囲規定部204と、視線位置画像情報計算部210と、閾値情報格納部218と、集中度判定部220と、ユーザ通知部222とを備える。同様に、視線検出部202は、更に、眼情報撮像部206と、視線位置抽出部208とを備える。
しかし、視線位置画像情報計算部210は、更に、注視領域決定部212と、対象物検出部214と、停留時間測定部216とを備える。
対象物検出部214は、注視領域内の対象物を検出し、その対象物の変化に基づいて注視領域内の視覚刺激の有無を判定する。対象物の検出方法は、例えば、輪郭検出方法を用いることができる。輪郭検出方法としては、アフィン動き分割による領域分割、またはオプティカルフローによる領域分割等の方法を用いればよい。これらの方法によって対象物を検出(区別)する。
続いて、第2実施形態に係る集中度判定方法をコンピュータに行わせるプログラムについて説明する。図12は、第2の実施形態に係る集中度判定方法の処理内容を図解したフローチャートである。基本的なフローは、図6に示した第1の実施形態と同様であるが、注視領域を決定する際の、対象物の輪郭検出(領域分割)処理が異なる。すなわち、S103の代わりに、S203において、対象物検出部214は、注視領域内の対象物を検出し、その対象物の変化に基づいて注視領域内の視覚刺激の有無を判定する。対象物の検出方法は、例えば、輪郭検出方法を用いることができる。輪郭検出方法としては、アフィン動き分割による領域分割、またはオプティカルフローによる領域分割等の方法を用いればよい。これらの方法によって対象物を検出(区別)する。
このように構成することで、本明細書に記載した実施形態に係る集中度判定プログラム、集中度判定装置、および集中度判定方法は、画面(視界)の中にある何かを見ている状態において、視線が今ある場所の少ない画素値の変化を利用して集中度を判定することにより、簡便であり、かつ検出処理量を軽減することができるという効果を奏する。
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではなく、他の様々な変更が可能である。
なお、以上までに説明した実施形態に関し、更に以下の付記を開示する。
(付記1)
被検体の眼の情報から前記被検体の視線を検出し、
前記被検体の視線から視覚刺激を含む注視範囲を規定し、
前記注視範囲内において注視領域を決定し、
前記注視領域内の画素値の変化に基づいて、前記注視領域内の視覚刺激の消失を判定し、
前記視覚刺激が消失したと判定される時点から、前記被検体の視線が前記注視領域に停留する停留時間を測定し、
閾値情報格納部に格納されている閾値を参照し、
前記停留時間が前記閾値を超える場合に集中度が低下したと判定する、
処理をコンピュータに実行させる集中度判定プログラム。
(付記2)
前記注視領域内の画素値から前記注視領域内の平均色度を算出し、
前記平均色度の変化に基づいて前記注視領域内の視覚刺激の消失を判定する、
ことを特徴とする付記1に記載の集中度判定プログラム。
(付記3)
前記視覚刺激の有無の判定は、前記注視領域とその周辺とのエッジの色度差から判定する、
ことを特徴とする付記2または付記3に記載の集中度判定プログラム。
(付記4)
前記画素値の変化として、前記注視領域内の平均RGBが所定値以上変化する場合に、前記視覚刺激が消失したと判定する、
ことを特徴とする付記1〜3のいずれか一項に記載の集中度判定プログラム。
(付記5)
前記注視領域は、所定の視野角度以内である、
ことを特徴とする付記1〜4のいずれか一項に記載の集中度判定プログラム。
(付記6)
前記注視領域内の画素値に基づいて、前記注視領域内の対象物を検出し、
前記対象物の変化に基づいて前記注視領域内の視覚刺激の有無を判定する、
ことを特徴とする付記1に記載の集中度判定プログラム。
(付記7)
前記対象物の検出は輪郭検出法を用いる、
ことを特徴とする付記6に記載の集中度判定プログラム。
(付記8)
被検体の眼の情報から前記被検体の視線を検出する視線位置検出部と、
前記被検体の視線から視覚刺激を含む注視範囲を規定する注視範囲規定部と、
前記注視範囲内において注視領域を決定する注視領域決定部と、
前記注視領域内の画素値の変化に基づいて、前記注視領域内の視覚刺激の有無を判定する画素値算出部と、
前記視覚刺激が消失したと判定される時点から、前記被検体の視線が前記注視領域に停留する停留時間を測定する停留時間測定部と、
集中度を判定する際の基準になる閾値を格納する閾値情報格納部と、
前記停留時間が前記閾値を超える場合に集中度が低下したと判定する集中度判定部と、
を含む集中度判定装置。
(付記9)
前記画素値算出部は、前記注視領域内の画素値から、前記注視領域内の平均色度を算出する、
ことを特徴とする付記8に記載の集中度判定装置。
(付記10)
前記視覚刺激の有無の判定は、前記注視領域とその周辺とのエッジの色度差から判定する、
ことを特徴とする付記8または付記9に記載の集中度判定装置。
(付記11)
前記画素値の変化として、前記注視領域内の平均RGBが所定値以上変化する場合に、前記視覚刺激が消失したと判定する、
ことを特徴とする付記8〜10のいずれか一項に記載の集中度判定装置。
(付記12)
前記注視領域は、所定の視野角度以内である、
ことを特徴とする付記8〜11のいずれか一項に記載の集中度判定装置。
(付記13)

前記画素値算出部は、前記注視領域内の画素値に基づいて前記注視領域内の対象物を検出し、前記対象物の変化に基づいて前記注視領域内の視覚刺激の有無を判定する対象物検出部である、
ことを特徴とする付記8に記載の集中度判定装置。
(付記14)
前記対象物の検出は輪郭検出法を用いる、
ことを特徴とする付記13に記載の集中度判定装置。
(付記15)
コンピュータによって実行される集中度判定方法であって、
被検体の眼の情報から前記被検体の視線を検出し、
前記被検体の視線から視覚刺激を含む注視範囲を規定し、
前記注視範囲内において注視領域を決定し、
前記注視領域内の画素値の変化に基づいて、前記注視領域内の視覚刺激の有無を判定し、
前記視覚刺激が消失したと判定される時点から、前記被検体の視線が前記注視領域に停留する停留時間を測定し、
閾値情報格納部に格納されている閾値を参照し、
前記停留時間が前記閾値を超える場合に集中度が低下したと判定する、
ことを特徴とする集中度判定方法。
(付記16)
前記注視領域内の画素値から前記注視領域内の平均色度を算出し、
前記平均色度の変化に基づいて前記注視領域内の視覚刺激の消失を判定する、
ことを特徴とする付記15に記載の集中度判定方法。
(付記17)
前記視覚刺激の有無の判定は、前記注視領域とその周辺とのエッジの色度差から判定する、
ことを特徴とする付記15または付記16に記載の集中度判定方法。
(付記18)
前記画素値の変化として、前記注視領域内の平均RGBが所定値以上変化する場合に、前記視覚刺激が消失したと判定する、
ことを特徴とする付記15〜17のいずれか一項に記載の集中度判定方法。
(付記19)
前記注視領域は、所定の視野角度以内である、
ことを特徴とする付記15〜18のいずれか一項に記載の集中度判定方法。
(付記20)
前記注視領域内の画素値に基づいて、前記注視領域内の対象物を検出し、
前記対象物の変化に基づいて前記注視領域内の視覚刺激の有無を判定する、
ことを特徴とする付記15に記載の集中度判定方法。
(付記21)
前記対象物の検出は輪郭検出法を用いる、
ことを特徴とする付記19に記載の集中度判定方法。
100 集中度判定装置
102 視線検出部
104 注視範囲規定部
106 眼情報撮像部
108 視線位置抽出部
110 視線位置画像情報計算部
112 注視領域決定部
114 平均色度算出部
116 停留時間測定部
118 閾値情報格納部
120 集中度判定部
122 ユーザ通知部
214 対象物検出部

Claims (9)

  1. カメラが撮像した画像を取得し、該画像から被検体の視線を検出し、
    前記被検体の視線から視覚刺激を含む、表示装置における注視範囲を規定し、
    前記注視範囲内において、前記被検体の視線の中心位置と前記注視範囲との間の距離に応じて範囲が異なる注視領域を決定し、
    前記注視領域内の画素値の変化に基づいて、前記注視領域内の視覚刺激の有無を判定し、
    前記視覚刺激が消失したと判定される時点から、前記被検体の視線が前記注視領域に停留する停留時間を測定し、
    集中度を判定する際の基準になる複数の閾値を格納する閾値情報格納部を参照し、前記複数の閾値のうち何れかの閾値を設定し、前記停留時間が設定された前記閾値を超える場合に集中度が低下したと判定する、
    処理をコンピュータに実行させる集中度判定プログラム。
  2. 前記注視領域内の画素値から前記注視領域内の平均色度を算出し、
    前記平均色度の変化に基づいて前記注視領域内の視覚刺激の消失を判定する、
    ことを特徴とする請求項1に記載の集中度判定プログラム。
  3. 前記視覚刺激の有無を、前記注視領域とその周辺とのエッジの色度差から判定する、
    ことを特徴とする請求項2に記載の集中度判定プログラム。
  4. 前記画素値の変化として、前記注視領域内の平均RGBが所定値以上変化する場合に、前記視覚刺激が消失したと判定する、
    ことを特徴とする請求項1〜3のいずれか一項に記載の集中度判定プログラム。
  5. 前記注視領域は、所定の視野角度以内である、
    ことを特徴とする請求項1〜4のいずれか一項に記載の集中度判定プログラム。
  6. 前記注視領域内の画素値に基づいて、前記注視領域内の対象物を検出し、
    前記対象物の変化に基づいて前記注視領域内の視覚刺激の有無を判定する、
    ことを特徴とする請求項1に記載の集中度判定プログラム。
  7. 前記対象物の検出は輪郭検出法を用いる、
    ことを特徴とする請求項6に記載の集中度判定プログラム。
  8. 被検体の眼の情報から前記被検体の視線を検出する視線検出部と、
    前記被検体の視線から視覚刺激を含む注視範囲を規定する注視範囲規定部と、
    前記注視範囲内において、前記被検体の視線の中心位置と前記注視範囲との間の距離に応じて範囲が異なる注視領域を決定する注視領域決定部と、
    前記注視領域内の画素値の変化に基づいて、前記注視領域内の視覚刺激の有無を判定する平均色度算出部と、
    前記視覚刺激が消失したと判定される時点から、前記被検体の視線が前記注視領域に停留する停留時間を測定する停留時間測定部と、
    集中度を判定する際の基準になる複数の閾値を格納する閾値情報格納部と、
    前記閾値情報格納部を参照し、前記複数の閾値のうち何れかの閾値を設定し、前記停留時間が設定された前記閾値を超える場合に集中度が低下したと判定する集中度判定部と、
    を含む集中度判定装置。
  9. コンピュータによって実行される集中度判定方法であって、
    カメラが撮像した画像を取得し、該画像から被検体の視線を検出し、
    前記被検体の視線から視覚刺激を含む、表示装置における注視範囲を規定し、
    前記注視範囲内において、前記被検体の視線の中心位置と前記注視範囲との間の距離に応じて範囲が異なる注視領域を決定し、
    前記注視領域内の画素値の変化に基づいて、前記注視領域内の視覚刺激の有無を判定し、
    前記視覚刺激が消失したと判定される時点から、前記被検体の視線が前記注視領域に停留する停留時間を測定し、
    集中度を判定する際の基準になる複数の閾値を格納する閾値情報格納部を参照し、前記複数の閾値のうち何れかの閾値を設定し、前記停留時間が設定された前記閾値を超える場合に集中度が低下したと判定する、
    ことを特徴とする集中度判定方法。
JP2013064839A 2013-03-26 2013-03-26 集中度判定プログラム、集中度判定装置、および集中度判定方法 Expired - Fee Related JP6221292B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013064839A JP6221292B2 (ja) 2013-03-26 2013-03-26 集中度判定プログラム、集中度判定装置、および集中度判定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013064839A JP6221292B2 (ja) 2013-03-26 2013-03-26 集中度判定プログラム、集中度判定装置、および集中度判定方法

Publications (2)

Publication Number Publication Date
JP2014191474A JP2014191474A (ja) 2014-10-06
JP6221292B2 true JP6221292B2 (ja) 2017-11-01

Family

ID=51837698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013064839A Expired - Fee Related JP6221292B2 (ja) 2013-03-26 2013-03-26 集中度判定プログラム、集中度判定装置、および集中度判定方法

Country Status (1)

Country Link
JP (1) JP6221292B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6567842B2 (ja) * 2015-03-10 2019-08-28 Necプラットフォームズ株式会社 酒気帯び検知装置及びルームミラー装置
JP6560137B2 (ja) * 2016-02-08 2019-08-14 Kddi株式会社 集中度の推定装置
KR101816415B1 (ko) 2016-06-21 2018-02-21 현대자동차주식회사 시선 추적을 이용한 운전자 집중도 감시 장치 및 방법
KR101896790B1 (ko) * 2016-11-08 2018-10-18 현대자동차주식회사 운전자 집중도 판정 장치, 그를 포함한 시스템 및 그 방법
US20190370580A1 (en) 2017-03-14 2019-12-05 Omron Corporation Driver monitoring apparatus, driver monitoring method, learning apparatus, and learning method
JP2021089479A (ja) * 2019-12-02 2021-06-10 株式会社デンソー 意識判定装置、及び意識判定方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3257310B2 (ja) * 1994-12-22 2002-02-18 トヨタ自動車株式会社 漫然運転検出装置
JP3304905B2 (ja) * 1999-01-08 2002-07-22 住友電気工業株式会社 対象物の追従認識装置
JP4497305B2 (ja) * 2004-12-08 2010-07-07 株式会社デンソー 運転者状態判定装置
JP5036814B2 (ja) * 2006-06-11 2012-09-26 ボルボ テクノロジー コーポレイション 視覚的関心場所の決定および分析のための方法および装置
JP4625544B2 (ja) * 2008-08-05 2011-02-02 パナソニック株式会社 運転注意量判定装置、方法およびプログラム
JP5353455B2 (ja) * 2009-06-09 2013-11-27 コニカミノルタ株式会社 周辺監視装置
JP5974915B2 (ja) * 2013-01-29 2016-08-23 株式会社デンソー 覚醒度検出装置、および覚醒度検出方法

Also Published As

Publication number Publication date
JP2014191474A (ja) 2014-10-06

Similar Documents

Publication Publication Date Title
US11281288B2 (en) Eye and head tracking
JP6747504B2 (ja) 情報処理装置、情報処理方法、及びプログラム
EP3195595B1 (en) Technologies for adjusting a perspective of a captured image for display
JP6221292B2 (ja) 集中度判定プログラム、集中度判定装置、および集中度判定方法
KR102212209B1 (ko) 시선 추적 방법, 장치 및 컴퓨터 판독가능한 기록 매체
US9750420B1 (en) Facial feature selection for heart rate detection
KR20160020369A (ko) 향상된 안구 추적을 위한 장면 분석
US20160210752A1 (en) A method, apparatus, and system for displaying a graphical user interface
US11922594B2 (en) Context-aware extended reality systems
KR101272811B1 (ko) 인터페이스 시스템 및 방법
US20170236304A1 (en) System and method for detecting a gaze of a viewer
WO2017169273A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN114391117A (zh) 眼睛跟踪延迟增强
WO2021095277A1 (ja) 視線検出方法、視線検出装置、及び制御プログラム
US20170116736A1 (en) Line of sight detection system and method
JP2008237625A (ja) 見え方度判定装置
WO2019110874A1 (en) Method and apparatus for applying video viewing behavior
EP3671541B1 (en) Classification of glints using an eye tracking system
WO2017169272A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN112114659A (zh) 用于确定用户的精细的注视点的方法和系统
Brito et al. Recycling a landmark dataset for real-time facial capture and animation with low cost HMD integrated cameras
Geisler et al. Predicting visual perceivability of scene objects through spatio-temporal modeling of retinal receptive fields
JP6721169B1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
TWI767179B (zh) 混合實境中偵測真實世界光源的方法、混合實境系統及記錄媒體
US11854260B2 (en) Situation-sensitive safety glasses

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160726

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160923

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170328

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170619

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170918

R150 Certificate of patent or registration of utility model

Ref document number: 6221292

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees