JP2007164617A - ガウス関数を用いたテンプレート作成方法および眼球運動を用いた視力入力コミュニケーション方法 - Google Patents

ガウス関数を用いたテンプレート作成方法および眼球運動を用いた視力入力コミュニケーション方法 Download PDF

Info

Publication number
JP2007164617A
JP2007164617A JP2005362211A JP2005362211A JP2007164617A JP 2007164617 A JP2007164617 A JP 2007164617A JP 2005362211 A JP2005362211 A JP 2005362211A JP 2005362211 A JP2005362211 A JP 2005362211A JP 2007164617 A JP2007164617 A JP 2007164617A
Authority
JP
Japan
Prior art keywords
eye
image
template
gaze
eyes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005362211A
Other languages
English (en)
Inventor
Mikiya Tanaka
幹也 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaguchi University NUC
Original Assignee
Yamaguchi University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaguchi University NUC filed Critical Yamaguchi University NUC
Priority to JP2005362211A priority Critical patent/JP2007164617A/ja
Publication of JP2007164617A publication Critical patent/JP2007164617A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】黒目画素領域検出法として黒目のモデルとしてガウス関数を用いた2次元のガウス分布の数値をテンプレートとして登録するテンプレートの作成方法と眼球運動を用いた視力入力コミュニケーション方法を得る。
【解決手段】S1で、黒目のモデルとしてガウス関数を用いた2次元のガウス分布の数値を利用して黒目と眉毛領域のテンプレートを登録する。S2で、視線方向検出の基準となる方向別視線データをPCのメモリに登録する。被験者がディスプレイ上の意図する項目を選択する時、S3で、使用者の目の開閉により差画像を作成し目の領域を抽出し、前記テンプレートを利用して、入力画像のテンプレートマッチングを行なう。S4で、入力される毎画像も数値化し、前記方向別視線データと比較することで視線方向検出を行う。S5で、被験者はディスプレイ上の意図する項目を見つめることで選択できる。
【選択図】 図4

Description

本発明は、重度の筋萎縮性側策硬化症患者(以下、ALSという)等と介護者、家族等とのコミュニケーションを支援する、眼球運動を用いたテンプレート作成方法および眼球運動を用いた視線入力コミュニケーションシステムに関する。
近年、介護、福祉といった分野が注目を浴びている。高齢化の進むわが国にとって、それらの分野における社会的制度の設備、見直しは急務である。しかし、現状はとても満足できるようなものではない。重度肢体不自由者の介護問題も例外ではなく、以前からある問題であるにも関わらず、未だに患者、介護者にとって非常に負担の大きい問題となっている。重度肢体不自由者にとって、介護は必要不可欠なものである。しかし、現実は介護量、介護の質、支援システムなどが十分ではない。そのため、現在、介護体制の見直しが必要とされる。また、パソコン(以下、PCという。)やIT技術の急速な普及により、PCを利用した高齢者や障害者の自立が図られている(例えば、非特許文献1参照)。
しかし、重度肢体不自由者は、手足に障害を持っているためPCを操作するために必要なマウス、キーボード等の入力装置を利用することはできない。また、言語障害も併せ持つことが多いため、言葉を発することが困難である。したがって、音声入力によるPC操作も不可能である。しかし、重度肢体不自由者であっても、脳に近い目の筋肉は意識的に動かせる場合が多いことが知られている。
主な視線検出装置として光センサーCCDカメラなどが挙げられる。光センサーを用いた非接触方式もあるが、眼球運動を測定するため、直接眼球にセンサーの標準を当てる必要があるため、使用者には生理的負担を強いることになる。一方、CCDカメラを用いる方法としては、CCDカメラで目の周辺画像をパソコンに取り込み、画像処理を行うことにより視線方向を検出するものがある。また、CCDカメラは非接触方式なので、使用者の負担を除くことができるが、頭部を少しでも動かすと視線を正確に検出するのが困難になるといった問題があった。
そこで、重度肢体不自由者であっても脳に近い目の筋肉は意識的に動かせる場合が多いことに着目して、本発明者等は、筋萎縮性側策硬化症(Amyotrophic Lateral Sclerosis、以下ALSという。)等の重度肢体不自由者ためにコミュニケーション障害の壁を取り除き介護者の負担を減らすとともに、重度肢体不自由者の自立を支援する眼球運動を用いたユーザーインターフェイスを開発し、「眼球運動を用いた視力入力コミュニケーション方法」についての発明を既に提案している(例えば、特許文献1参照)。
この提案した発明は、眼球運動を用いた視線入力コミュニケーションシステムの開発を課題として、ビデオカメラを用いて患者の顔画像を取得し、画像処理により非接触的に患者の視線方向検出を行うことにより、表示画面上の意図する項目を選択するとともに、眼球運動と瞼の開閉動作による眼球機能のみで入力し、スイッチング操作で仮想キーボードによる操作により、在宅勤務を行うようにした、眼球運動を用いた視線入力コミュニケーションシステムであり、被験者の顔全体をとらえた画像より被験者に目の開閉をさせて差画像を取得し、次いで目と眉のテンプレートを登録し、キャリブレーション(方向基準画像の登録)時に得たデータと入力画像により得られたデータを比較して視線方向を検出するようにしたものである。
山本、「コミュニケーションエイド」緩和医療学,Vol.3,No.1,2001 特開2005−100366号公報(特許第3673834号)
従来の視線方向検出法である黒目画素領域検出法では、検出された目を目全体と決定し、目全体の中心を黒目、目全体からの一定距離を眉毛とするものであり、入力画像の陰影部分や眼鏡のフレーム等を黒目と認識し、テンプレート登録時に正確に黒目を登録できなかった。そこで本発明は、視線検出精度向上として視線方向検出法である黒目画素領域検出法として黒目のモデルとしてガウス関数を用いた2次元のガウス分布(60×60pixel)の数値をテンプレートとして登録することを特徴としたテンプレートの作成方法および眼球運動を用いた視力入力コミュニケーション方法を得ることを目的としている。
上記目的を達成するために、この発明の請求項1に係るテンプレート作成方法は、患者あるいは被験者の顔をとらえた画像より眉と目を含む画像を取得し、黒目のモデルとしてガウス関数を用いた2次元のガウス分布の数値を利用してテンプレート登録を行なうことを特徴とする。
これにより、従来の視線方向検出法である黒目画素領域検出法では、入力画像の陰影部分や眼鏡のフレーム等を黒目と認識し、テンプレート登録時に正確に黒目を登録できなかったが、本発明は、視線検出精度向上として視線方向検出法である黒目画素領域検出法として黒目のモデルとしてガウス関数を用いた2次元のガウス分布(60×60pixel)の数値をテンプレートとして登録するので、確実な黒目の確認ができる。
この発明の請求項2に係る眼球運動を用いた視線入力コミュニケーション方法は、患者あるいは被験者の顔をとらえた画像より眉と目を含む画像を取得し、黒目のモデルとしてガウス関数を用いた2次元のガウス分布の数値を利用して登録作成されたテンプレートを準備し、患者あるいは被験者がディスプレイ上の意図する項目を選択する時、瞼が閉じている状態の画像と瞼が開いている状態の画像から差画像を作成し、ヒストグラム処理により目の領域を抽出し、黒目のモデルとしてガウス関数を用いた2次元のガウス分布の数値を用いた前記テンプレートを利用して、入力画像の中のどの領域と最も似ているかを求めるテンプレートマッチングを行ない、視線方向検出を行なって入力される毎画像を数値化し、パソコンのメモリに登録された視線方向検出の基準となる方向別視線データと比較することで視線方向検出を行ない、視線方向はディスプレイ上に状態の変化として出力することを特徴とする。
これにより、黒目のモデルとしてガウス関数を用いた2次元のガウス分布の数値を利用して黒目および眉毛領域のテンプレートを登録する。そして、患者あるいは被験者がディスプレイ上の意図する項目を選択する時、前記テンプレートを利用して、被験者の目周辺の入力画像の中のどの領域と最も似ているかを求めるテンプレートマッチングを行なうので、確実に視線方向検出を行なうことができ、意図を相手に伝えることができる。
この発明の請求項3に係る眼球運動を用いた視線入力コミュニケーション方法は、患者あるいは被験者の顔をとらえた画像より眉と目を含む画像を取得し、黒目のモデルとしてガウス関数を用いた2次元のガウス分布の数値を利用して登録作成されたテンプレートを準備し、患者あるいは被験者がディスプレイ上の意図する項目を選択する時、瞼が閉じている状態の画像と瞼が開いている状態の画像から差画像を作成し、ヒストグラム処理により目の領域を抽出し、前記テンプレートを利用して、ピラミッド構造を用いて探索範囲を縮小して入力画像の中のどの領域と最も似ているかを求めるテンプレートマッチングを行ない、視線方向検出を行なって入力される毎画像を数値化し、パソコンのメモリに登録された視線方向検出の基準となる方向別視線データと比較することで視線方向検出を行ない、視線方向はディスプレイ上に状態の変化として出力することを特徴とする。
これにより、テンプレートマッチングのみで目の位置追跡を行うには、画像中の探索領域が広すぎるため計算に時間がかり、リアルタイムでの画像処理は困難となるが、本発明は、ピラミッド構造を用いて探索範囲を縮小して計算することでリアルタイムでの画像処理が容易となる。
この発明の請求項4に係る肢体不自由者用就業支援システムは、上記請求項2または請求項3記載の眼球運動を用いた視線入力コミュニケーション方法を利用して、PCによるSOHOビジネスを可能にするように構成した。
この発明の請求項5に係るバイオメトリクス認証システムは、上記請求項2または請求項3記載の眼球運動を用いた視線入力コミュニケーション方法を利用して構成した。
この発明の請求項6に係る車の運転時における居眠り検知システムは、上記請求項2または請求項3記載の眼球運動を用いた視線入力コミュニケーション方法を利用して構成した。
この発明の請求項7に係る目で操作するゲームシステムは、上記請求項2または請求項3記載の眼球運動を用いた視線入力コミュニケーション方法を利用して構成した。
これにより、本発明は、肢体不自由者用コミュニケーションシステムはもとより、PCによるSOHOビジネスを可能にする、肢体不自由者用就業支援システム、指紋認証や声紋認証が不可能な人を対象として、顔(目鼻)画像認証+瞬き暗証符号認証を行なう、バイオメトリクス認証システムにも応用できる。更に、健常者を対象として車の運転時における、居眠り検知システムとしても応用でき、肢体不自由者または健常者を対象にした、目で操作するゲームシステムにも応用できる。
以上のように、本発明の眼球運動を用いたテンプレートの作成方法は、視線検出精度向上として視線方向検出法である黒目画素領域検出法としてガウス関数を用いた2次元のガウス分布(60×60pixel)の数値をテンプレートとして登録するので、確実な黒目の確認ができる。
また、眼球運動を用いた視力入力コミュニケーションシステムはALS患者等の重度肢体不自由者を対象としており、黒目のモデルとしてガウス関数を用いた2次元のガウス分布の数値を利用したテンプレートを登録して用いるので、確実に視線方向検出を行なうことができ、意図を相手に伝えることができる。そして、市販のPCとビデオカメラ(CCDカメラ)を用いて患者に生理的負担が少ない非接触方式にしているため、比較的安価なシステムを得ることができる。
本発明の実施形態を図面を参照して以下に説明する。図1は視線入力式コミュニケーションシステムの概要図、図2は本発明に係る眼球運動を用いた視線入力コミュニケーションシステムのハードウェア構成図である。
図1は視線入力式コミュニケーションシステムの説明図であり、本システムは、主として一台のパソコン(以下、PCと呼ぶ。)とビデオカメラ2により構成される、非接触型コミュニケーションシステムである。ALS患者等(被験者)1を対象としたシステムであり、ベッド上で使用されることが想定されている。PC、ビデオカメラ2共に市販の製品を用いており、比較的安価なシステムを実現している。
ALS患者1は、PCの表示画面3上の区画された領域を目で注視することにより、意図する項目を選択することができる。表示画面3は、設置が容易である液晶ディスプレイを用いると良い。また、システムの使用開始時にキャリブレーション(方向基準画像の登録)を行う必要がある。キャリブレーションでは、表示画面3の区画を順次点滅(他と異なる色に変更)させて行き、ALS患者1にそれを目で追ってもらう。その時の眼球の位置などを記録し、方向決定用の基準としている。
図2は本発明に係る眼球運動を用いた視線入力コミュニケーションシステムのハードウェア構成図である。図において、PC(表示画面3と演算処理装置6の両方の機能を含む)の表示画面3の上部に取り付けられたビデオカメラ2で取り込んだALS患者(使用者または被験者)1の顔面の映像から、演算処理装置6によりALS患者1の目の位置を決定する。
視線方向の算出は、事前に決められているPC上の基準点を見ている時のいくつかの点を初期値として記憶する。また、演算処理装置6により決定された目の位置と初期値として記憶している目の位置から眼球の方向を決定し、これらに基づいて視線の方向を算出する。算出された視線方向は演算処理装置6に与えられる。画像取り込み装置4を経由して得られた小型のビデオカメラ2の画像から、患者1の頭の位置ずれが検出された場合には、演算処理装置6は頭のずれを補正するためにビデオカメラ2の上下左右の補正値を、カメラ制御装置5に送り、その補正値分の移動をビデオカメラ2に与える。
演算処理装置6は、視線方向に対応した方向に、PC上に表示されているカーソルを移動する。しかも、意識的に瞬きまたは注視をすることで、通常のPC用のマウスを使ってクリックするのと同じ機能を、目でクリックしてコマンドを送信することが可能である。また、画像取り込み装置4によって得られた計算結果より、ALS患者1の見ている領域を推定し、その領域の色を変更し表示(出力)することができる。室内の照明条件は通常の蛍光灯による明るさのみで十分であり、赤外線や特別な照明などを設置する必要はない。
図3は本発明のシステムにおけるコミュニケーションスクリーン(初期画面)の一例であり、9分割画面を示す正面図である。9つの意思項目から1項目をALS患者等の使用者1に選択してもらう。選択された項目はあらかじめ登録しておいた音声で読み上げられるようになっている。ただし、9つの項目だけでは十分な意思表現ができないため、選択した項目についてまた新たな画面を表示することによって患者の意思をより表現できるシステムとなっている。また、意思項目内容はALS協会支部に対して、患者が介護者に伝えたい意思内容のアンケート調査を行い、まとめたものを採用する。
図3のコミュニケーションスクリーンにおいて、図3(a)はコミュニケーションの初期画面である。図3(a)のように使用者が「体位変換」を選択すると初期画面から図3(b)の画面に切り替わる。図3(c)の画面で最終的に「頭部を右に」を選択すると、あらかじめ登録されていた「頭部を右に」という音声が流れる。
図4に本発明のシステム処理手順を示す。まず、患者あるいは被験者の顔をとらえた画像より眉と目を含む画像を取得する。次にS1で、黒目のモデルとしてガウス関数を用いた2次元のガウス分布の数値を利用して黒目および眉毛領域のテンプレートを登録する。次にS2で、視線方向検出の基準となる各方向の値を求め方向別視線データをPCのメモリに登録する。
患者あるいは被験者がディスプレイ上の意図する項目を選択する時、S3で、使用者に目の開閉をしてもらい差画像を作成し、ヒストグラム処理により目の領域を抽出し、黒目のモデルとしてガウス関数を用いた2次元のガウス分布の数値を利用した前記テンプレートを利用して、入力画像の中のどの領域と最も似ているかを求めるテンプレートマッチングを行なう。そして、S4で、視線方向検出を開始し、本発明の提案方法によって入力される毎画像も数値化し、前記方向別視線データと比較することで視線方向検出を行う。S5で、患者あるいは被験者はディスプレイ上の意図する項目を目で見つめることで選択できる。意図する項目を選択する時は、その項目の領域を2秒以上注視することで選択できる。そして、S6で、選択された項目の下に呼び項目が存在する場合は画面が切り替わり呼び項目が表示され、最終的に選択された項目の内容が音声で流される。これにより、使用者の意図することを相手、例えば介護者に伝えることができる。
次に、本発明の視線検出方法の個々の処理について以下に詳細に説明する。
(1.1)目の位置検出
視線方向の検出を行うためには、目の位置を特定する必要がある。本発明では瞼の開閉に着目し、瞼が閉じている状態の画像と瞼が開いている状態の画像から差画像を作成し、ヒストグラム処理により目の領域の抽出を行った。
(1.1.1)差画像による目の位置検出
差画像を用いた目の位置検出の原理を以下に示す。
(1)差画像作成のために、図5(a)の瞬きを数回して瞼が閉じている状態の画像と、図5(b)の瞼が開いている状態の画像を入力画像として取り込む。但し、本発明のシステムでは、約0.2秒に1回で画像を取り込んでいる。
(2)上記(1)の2つの画像の各画素領域で、輝度の差の絶対値を求めることで、変化のあった画素領域を算出する。これが図5(c)の差画像となる。
(3)図6において、上記(2)の差画像を垂直方向にY分割し、上部からm番目の分割領域を水平分割領域Hmとする。また、各水平分割領域Hm上の画素値を合計したものをHm_sumとする。
(4)最も大きなHm_sumを与える垂直分割領域のm番目の値を目の垂直成分として採用する。
(5)採用された水平分割領域Hm内で連続して大きな値を持つ2つの区域を検出する。そして、それぞれの区域の中心をn1,n2として、これらを目の水平位置として採用する。他方法として、値が0でない連続区域の中心を目の水平位置として採用することも考えられる。しかし、この方法では、検出時にビデオカメラ等の雑音の影響を避けるために、適切な閾値を決定する必要がある。
(6)以上の工程により、位置(n1,m)及び(n2,m)に目が存在することになる。
(1.1.2)目の位置追跡
目の位置が検出された後、テンプレートマッチングを用いて、目の位置を連続的に検出する。テンプレートマッチングにはピラッミド構造を用いた高速テンプレートマッチングを用いた。次に、テンプレートマッチングとピラッミド構造について説明する。
(a)テンプレートマッチング
あらかじめ標準パターン(テンプレート画像)を用意しておき、画像が入ってくると、それが画像の中のどの領域と最も似ているかを求める相関計算である。fをテンプレート、gを入力画像とするとfに整合するgの領域を探すために、fをgに対して可能な全ての位置に移動させる。そして、各移動(u,v)毎にfとgの類似性の測度∬fgdxdyを計算する。
ここで、コーシー・シュワルツの不等式により
Figure 2007164617
が得られる。
(1)式でfは領域kの以外では0であるから、左辺は
Figure 2007164617
と表せる。これは、fとgの相互関数Cfgと等しくなる。よって、
Figure 2007164617
となる。
しかし、右辺で∬fdxdyは、一定あるが、∬gdxdyはuとvに依存するので一定ではない。従って、単に相互関数Cfgを整合の測度と用いることはでいない。その代わりとして、正規化された相互相関として式(4)を用いる。
Figure 2007164617
この式は、g=cfが成立する変位(u,v)に対して最大(∬dxdy)1/2となる。
(b)ピラミッド構造
テンプレートマッチングのみで目の位置追跡を行うには、画像中の探索領域が広すぎるため計算に時間がかり、リアルタイムでの画像処理は困難となる。そこで、ピラミッド構造を用いて探索範囲を縮小して計算することでリアルタイムでの画像処理が容易となる。以下にピラミッド構造の概要を説明する。
M×N画素の入力画像、I×J画素のテンプレートを最下層として、それぞれ3×3の画素領域を1画素に対応させる作業を繰り返して解像度を落とした新たな画像を作成する。同様の作業を3回繰り返し、図7のような4階層の画像のピラミッド構造を作成する。
テンプレートマッチングは、この最上層から開始し候補領域を決定する。次に得られた候補位置の周辺について1つ階層を落として再びマッチングを行う。最終的な候補位置は、最下層の画像上で得られたマッチング結果となる。
(1.1.3)瞼の開閉判別
本発明のシステムでは、瞼の開閉状態を入力信号のON、OFFとして利用している。瞼の開閉状態の判別をするために、まず入力画像に対して2値化処理を施すことによって2値画像を作成する。次に、2値画像の総黒画素数と開閉閾値を比較して開閉状態を判別する。
(a)2値化処理
2値化処理とは、適切な閾値を用いて画像上の各画素を0(黒領域)または1(白領域)の2つの値に変換することである。いま、画像fが濃度範囲[a,b]であり、2値化閾値をT(a≦T≦b)とすると、2値化処理は一般に次式によって表される。
ここで、fは2値画像である。
Figure 2007164617
(b)瞼の開閉閾値
瞼の開閉判別を行うためには、開閉閾値を設定する必要がある。そこで、使用者に5秒間瞬きをしてもらい、取り込んだ全画像を2値画像に変換し、各2値化画像の総黒画素数Eを求める。画像を2値化したものを図8に示す。
最大総黒画素数Emaxと最小総黒画素数Eminとすると瞼の開閉閾値Eth
Figure 2007164617
となる。
瞼の開閉において瞼が開いている状態は、瞼が閉じている状態より図8からもわかるように瞳の黒画素領域を含むため総画素数が大きくなる。従って、瞼の開閉判別は以下の式になる。
Figure 2007164617
但し、Estateは瞼の開閉状態とする。
(1.2)視線方向検出法
従来の黒目画素領域検出法では、目の領域の画像(120×80pixel)の中心から縦横にそれぞれ±30pixelの領域を黒目の画像(60×60pixel)とし、テンプレート登録していた。黒目を追跡する時に、黒目のテンプレートのピクセル階調値(色の濃淡を数値化したもの)を入力画像(320×240pixel)のピクセル階調値と照らし合わせて最も類似する領域、つまり、誤差が最小となる領域を黒目として検出していた。
しかし、目の領域の画像(120×80pixel)の中心付近に黒目があるとは限らず、中心付近から外れる場合、このため、メガネをかけている被験者のメガネのフレームを誤認して検出する場合や陰影となった領域などを誤認して検出する場合があった。
従って、本発明では、このような誤認を防ぐために、黒目画素領域検出法の黒目の画像(60×60pixel)のピクセル階調値の替わりとしてガウス関数を用いた2次元のガウス分布(60×60pixel)の数値をテンプレートとして登録した。
(1.2.1)ガウス関数
ガウス関数(「ガウスフィルタ」http://if.Dynsite.net/t−pot/program/79_Gauss/を参照)とは指数関数的な形をした関数で、次式に示す。
Figure 2007164617
ここで、Nは規格化変数で、σは分散であり、分散とは平均<x>からのずれの2乗期待値である。分散が大きければ大きいほど関数の山は、図9(a)のように、緩やかな形になり、逆に小さくなれば、図9(b)のように、鋭い針のような形になる。
(1.2.2)ガウス分布
本発明で用いたガウス関数F(x,y)を式に示す。
Figure 2007164617
Figure 2007164617
ここで、x成分とy成分で式を分けたのは、黒目のy成分の一部は瞼で隠れてしまうため、x成分とy成分では黒目の領域が異なるためである。また、f(x),f(y)はともに0〜1の範囲である。但し、0≦x≦60、0≦y≦60、K,Kは実験的に求めた定数である。
Figure 2007164617
F(x,y)は0〜255の範囲であり、0に近づくほど色は濃くなり、255に近づくほど色は淡くなる。本発明でのガウス関数は黒目を基準としているため画素値がガウス関数の逆の下に凸形なっている。
F(x,y)を用いて、(60×60pixel)の分布図を作成し、入力画像(320×240pixel)の画素領域から分布図との誤差が最小となる領域を黒目の領域とする。
(1.2.3)黒目画素領域検出法
眉と目を含む目周辺の画像に対して高速テンプレートマッチングを行い、黒目を含む領域(60×60pixel)と眉を含む領域(40×160pixel)を図10のように検出する。眉を含む領域を同時に検出したのは、眉が眼球運動に対して変化が少ないため、眉付近の左上を基準点としたからである。キャリブレーション(方向基準画像の登録)時に、基準点と黒目を含む領域の左上の点との相対距離を各視線方向別の画像からそれぞれ算出し登録しておく。
図10において、2点の相対距離(l (n),l (n))は以下のようになる。
Figure 2007164617
一般に人が何かを目で見る時は、眼球だけなく頭部も動かしている。したがって、ディスプレイ上の区画された領域を見る時も、自然と頭部が動いてしまう傾向にある。そこで、L,Lに補正項(ΔL (n),ΔL (n))を加えることにより、頭部の移動量を補正し、検出精度を上げた。
補正項は次式になり、
Figure 2007164617
ここで、X,Yは定数であり、実験的に求めるものとする。
補正項を加えた時の2点の相対対距離(L (n),L (n))は次式となる。
Figure 2007164617
入力画像に対しても基準点を(X,Y)、黒目を含む領域の左上の点を(X,Y)、2点の相対距離を(l,l)、補正項を加えた時の2点の相対距離を(L,L)とすると式16となる。
Figure 2007164617
Figure 2007164617
キャリブレーション時に登録しておいた各方向別の相対距離(ΔLx(n),ΔLy(n))と入力画像の相対距離(L,L)を式(17)ように比較する。
Figure 2007164617
そして、最小の重み付きユークリッド距離Lを与えるn番目の項目を視線方向として採用する。最小の重み付きユークリッド距離Lを次式に示す。
Figure 2007164617
視線方向の検出精度を測定するため、患者に代わって被験者5人に対して以下のような実験を行った。被験者は椅子に座った状態で行った。また、頭部の大きな移動を防止するため、頭部を背後の壁に接触させて簡易に固定した。被験者の目とディスプレイの距離は70cm、ビデオカメラとの距離は80cmとした。室内の照明条件は通常の天井に備え付けられた蛍光灯による明るさで、実験中に大きな変化はないものとする。ディスプレイ内を、図11に示すように、9分割した。黒目の検出方法を本発明の提案法と従来法を比較するために同時に行った。視線方向検出方法は黒目画素領域検出法を用いた。
最初に、ディスプレイの中央を注視してもらい、基準となる画像を登録した。次に、ディスプレイ内の区画を順次点滅(他と異なる色に変更)させていき、それを目で追ってもらうことで、方向決定用の基準となる各画像とデータを登録した。その後、2分間で画面上の区画を約50回ランダムに点滅させた。点滅区画を目で追う作業を繰り返し行い、視線方向(0.2秒間に1個)を記録した。これを被験者1人につき3回行った。また、予め被験者に視線方向の練習を数回行ってから本実験を行った。何故なら、普段、頭を動かさずに目だけで見ることは非常に少ないため、どうしても頭が動く傾向があるため被験者に実験慣れしてもらうためであった。
実験結果は実験で得られた約600個の視線方向データを適切に編集した約500個中の成功個数(点滅区画を見た回数)の割合を成功率とした。また、点滅区間別視線検出方向結果には1点滅区画における成功数が8割以上の場合を成功とし、約50回中の成功回数の割合を成功確率とした。被験者5名に対して今回行った実験結果を図12に示した。
図12の結果より被験者個々の平均は、従来法の成功率より提案法の成功率が高くなっており、実験全体の平均も従来法の成功率(90.2%)と比べて本発明の提案法の成功率(95.2%)が5%高くなっていることから、視線方向の精度が向上したことが確認できた。
実験結果より、被験者によっても成功率に個人差があることがわかる。これは、被験者B,Cは実験の熟練者で被験者Eは実験の前に数回練習しただけの初心者だからであった。これにより、本発明の眼球運動を用いたアイ・インターフェイスは練習をすればある程度の精度向上が見込まれると考えられる。そして、本発明で用いたガウス関数のK,Kは実験的に求めた定数を用いたが、これを自動的に使用者それぞれに合わせて設定することで、更なる精度向上が見込まれると考えられる。
本発明の眼球運動を用いた視線入力コミュニケーション方法に利用される、眼球運動を用いたアイ・インターフェイスは、肢体不自由者用コミュニケーションシステムはもとより、図13に一例を示すように、PCによるSOHOビジネスを可能にする、肢体不自由者用就業支援システムにも応用できる。また、図14に示すように、指紋認証や声紋認証が不可能な人を対象として、顔(目鼻)画像認証+瞬き暗証符号認証を行なう、バイオメトリクス認証システムにも応用できる。更に、図15に示すように、健常者を対象として車の運転時における、居眠り検知システムとしても応用できる。また、図16に示すように、肢体不自由者または健常者を対象にした、目で操作するゲームシステムにも応用でき、この例では消火ゲームの例を示している。このように、眼球運動を用いたアイ・インターフェイスは幅広い分野に適用できる。
視線入力式コミュニケーションシステムの概要図である。 視線入力コミュニケーションシステムのハードウェア構成図である。 本発明のシステムにおけるコミュニケーションスクリーンの一例図である。 本発明のシステム処理手順である。 目の位置検出図である。 差画像の説明図である。 4階層の画像のピラミッド構造図である。 瞼の2値化画像である。 ガウス分布図である。 高速テンプレートマッチングによる黒目追従図である。 実験画面(9分割)である。 実験結果である。 肢体不自由者用就業支援システムの概要図である。 バイオメトリクス認証システムの概要図である。 居眠り検知システムの概要図である。 目で操作するゲームの概要図である。
符号の説明
1 ALS患者等(被験者)
2 ビデオカメラ(CCDカメラ)
3 PCの表示画面
4 画像取り込み装置
5 カメラ制御装置
6 演算処理装置

Claims (7)

  1. 患者あるいは被験者の顔をとらえた画像より眉と目を含む画像を取得し、黒目のモデルとしてガウス関数を用いた2次元のガウス分布の数値を利用してテンプレート登録を行なうことを特徴とするテンプレート作成方法。
  2. 患者あるいは被験者の顔をとらえた画像より眉と目を含む画像を取得し、黒目のモデルとしてガウス関数を用いた2次元のガウス分布の数値を利用して登録作成されたテンプレートを準備し、患者あるいは被験者がディスプレイ上の意図する項目を選択する時、瞼が閉じている状態の画像と瞼が開いている状態の画像から差画像を作成し、ヒストグラム処理により目の領域を抽出し、前記テンプレートを利用して、入力画像の中のどの領域と最も似ているかを求めるテンプレートマッチングを行ない、視線方向検出を行なって入力される毎画像を数値化し、パソコンのメモリに登録された視線方向検出の基準となる方向別視線データと比較することで視線方向検出を行ない、視線方向はディスプレイ上に状態の変化として出力することを特徴とする眼球運動を用いた視線入力コミュニケーション方法。
  3. 患者あるいは被験者の顔をとらえた画像より眉と目を含む画像を取得し、黒目のモデルとしてガウス関数を用いた2次元のガウス分布の数値を利用して登録作成されたテンプレートを準備し、患者あるいは被験者がディスプレイ上の意図する項目を選択する時、瞼が閉じている状態の画像と瞼が開いている状態の画像から差画像を作成し、ヒストグラム処理により目の領域を抽出し、前記テンプレートを利用して、ピラミッド構造を用いて探索範囲を縮小して入力画像の中のどの領域と最も似ているかを求めるテンプレートマッチングを行ない、視線方向検出を行なって入力される毎画像を数値化し、パソコンのメモリに登録された視線方向検出の基準となる方向別視線データと比較することで視線方向検出を行ない、視線方向はディスプレイ上に状態の変化として出力することを特徴とする眼球運動を用いた視線入力コミュニケーション方法。
  4. 請求項2または請求項3記載の眼球運動を用いた視線入力コミュニケーション方法を利用した、PCによるSOHOビジネスを可能にする肢体不自由者用就業支援システム。
  5. 請求項2または請求項3記載の眼球運動を用いた視線入力コミュニケーション方法を利用したバイオメトリクス認証システム。
  6. 請求項2または請求項3記載の眼球運動を用いた視線入力コミュニケーション方法を利用した、車の運転時における居眠り検知システム。
  7. 請求項2または請求項3記載の眼球運動を用いた視線入力コミュニケーション方法を利用した目で操作するゲームシステム。
JP2005362211A 2005-12-15 2005-12-15 ガウス関数を用いたテンプレート作成方法および眼球運動を用いた視力入力コミュニケーション方法 Pending JP2007164617A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005362211A JP2007164617A (ja) 2005-12-15 2005-12-15 ガウス関数を用いたテンプレート作成方法および眼球運動を用いた視力入力コミュニケーション方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005362211A JP2007164617A (ja) 2005-12-15 2005-12-15 ガウス関数を用いたテンプレート作成方法および眼球運動を用いた視力入力コミュニケーション方法

Publications (1)

Publication Number Publication Date
JP2007164617A true JP2007164617A (ja) 2007-06-28

Family

ID=38247416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005362211A Pending JP2007164617A (ja) 2005-12-15 2005-12-15 ガウス関数を用いたテンプレート作成方法および眼球運動を用いた視力入力コミュニケーション方法

Country Status (1)

Country Link
JP (1) JP2007164617A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011198141A (ja) * 2010-03-19 2011-10-06 Olympus Corp 注視エリア検出装置及び頭部装着型情報表示装置
US8340165B2 (en) 2009-12-17 2012-12-25 Electronics And Telecommunications Research Institute Method and system for analyzing error probability of communication system using Gaussian Q function
JP2014049109A (ja) * 2012-08-29 2014-03-17 Utechzone Co Ltd アイコントロールコミュニケーションシステム

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6375824A (ja) * 1986-09-18 1988-04-06 Shinwa Denshi Kk 視線認識によるコミニユケ−シヨンシステム
JPH0793700A (ja) * 1993-09-22 1995-04-07 Matsushita Electric Ind Co Ltd 運転者状態監視装置
JPH07334673A (ja) * 1994-06-13 1995-12-22 Mitsubishi Electric Corp 目標検出方法及び目標検出装置
JP2003187232A (ja) * 2001-12-20 2003-07-04 Yamaguchi Technology Licensing Organization Ltd 瞬きを用いたコミュニケーションシステム
JP2004504684A (ja) * 2000-07-24 2004-02-12 シーイング・マシーンズ・プロプライエタリー・リミテッド 顔画像処理システム
WO2005022466A2 (en) * 2003-08-29 2005-03-10 Hewlett-Packard Development Company L.P. Detecting and correcting redeye in an image
JP2005100366A (ja) * 2003-08-18 2005-04-14 Yamaguchi Univ 眼球運動を用いた視線入力コミュニケーション方法
JP2005278690A (ja) * 2004-03-26 2005-10-13 Hiroshima Industrial Promotion Organization コンピュータを用いた3次元胸部ct画像から結節状陰影を検出する方法およびその装置並びにコンピュータプログラム
JP2005292994A (ja) * 2004-03-31 2005-10-20 Toshiba Corp 人物認識装置と通行制御装置
JP2005301294A (ja) * 2005-05-06 2005-10-27 Canon Inc パターン認識方法及びその装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6375824A (ja) * 1986-09-18 1988-04-06 Shinwa Denshi Kk 視線認識によるコミニユケ−シヨンシステム
JPH0793700A (ja) * 1993-09-22 1995-04-07 Matsushita Electric Ind Co Ltd 運転者状態監視装置
JPH07334673A (ja) * 1994-06-13 1995-12-22 Mitsubishi Electric Corp 目標検出方法及び目標検出装置
JP2004504684A (ja) * 2000-07-24 2004-02-12 シーイング・マシーンズ・プロプライエタリー・リミテッド 顔画像処理システム
JP2003187232A (ja) * 2001-12-20 2003-07-04 Yamaguchi Technology Licensing Organization Ltd 瞬きを用いたコミュニケーションシステム
JP2005100366A (ja) * 2003-08-18 2005-04-14 Yamaguchi Univ 眼球運動を用いた視線入力コミュニケーション方法
WO2005022466A2 (en) * 2003-08-29 2005-03-10 Hewlett-Packard Development Company L.P. Detecting and correcting redeye in an image
JP2005278690A (ja) * 2004-03-26 2005-10-13 Hiroshima Industrial Promotion Organization コンピュータを用いた3次元胸部ct画像から結節状陰影を検出する方法およびその装置並びにコンピュータプログラム
JP2005292994A (ja) * 2004-03-31 2005-10-20 Toshiba Corp 人物認識装置と通行制御装置
JP2005301294A (ja) * 2005-05-06 2005-10-27 Canon Inc パターン認識方法及びその装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8340165B2 (en) 2009-12-17 2012-12-25 Electronics And Telecommunications Research Institute Method and system for analyzing error probability of communication system using Gaussian Q function
JP2011198141A (ja) * 2010-03-19 2011-10-06 Olympus Corp 注視エリア検出装置及び頭部装着型情報表示装置
JP2014049109A (ja) * 2012-08-29 2014-03-17 Utechzone Co Ltd アイコントロールコミュニケーションシステム

Similar Documents

Publication Publication Date Title
JP3673834B2 (ja) 眼球運動を用いた視線入力コミュニケーション方法
CN114502061B (zh) 使用深度学习的基于图像的自动皮肤诊断
JP7083809B2 (ja) プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法
Tonsen et al. Invisibleeye: Mobile eye tracking using multiple low-resolution cameras and learning-based gaze estimation
Betke et al. The camera mouse: visual tracking of body features to provide computer access for people with severe disabilities
EP2829221B1 (en) Asperger's diagnosis assistance device
JP4721941B2 (ja) 検査システム、訓練システムおよび視覚情報呈示システム
Peterson et al. Individual differences in face-looking behavior generalize from the lab to the world
Thurman et al. Perceptual and computational analysis of critical features for biological motion
KR20080005798A (ko) 모션트랙킹 기술과 증강현실 기법을 활용한 인지 및행동장애 재활 지원시스템
JP2018007792A (ja) 表情認知診断支援装置
Dael et al. Measuring body movement: Current and future directions in proxemics and kinesics.
JP2008090792A (ja) 遺伝的アルゴリズムを用いた眼球検出法
JP2007164617A (ja) ガウス関数を用いたテンプレート作成方法および眼球運動を用いた視力入力コミュニケーション方法
US11295120B2 (en) Hand gesture habit forming
Wankhede et al. Aid for ALS patient using ALS Specs and IOT
ATASOY et al. Real-Time motorized electrical hospital bed control with eye-gaze tracking
Schmidt et al. Speed, amplitude, and asymmetry of lip movement in voluntary puckering and blowing expressions: implications for facial assessment
Abbasov Features of the Perception and Recognition of Images in Art
Saleh et al. Vision-based communication system for patients with amyotrophic lateral sclerosis
KR20210084110A (ko) 인지능력 향상 판정방법
Adnan et al. Control of Electric Wheelchair via Eye Gestures for People with Neurological Disorder
Lai et al. Application of biometric technologies in biomedical systems
Abbas et al. Eye-to-text communication based on human-computer interface method
Zhang et al. Vision-based displacement sensor for people with serious spinal cord injury

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110331

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110331

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110809