JP5004099B2 - カーソル移動制御方法及びカーソル移動制御装置 - Google Patents

カーソル移動制御方法及びカーソル移動制御装置 Download PDF

Info

Publication number
JP5004099B2
JP5004099B2 JP2008181690A JP2008181690A JP5004099B2 JP 5004099 B2 JP5004099 B2 JP 5004099B2 JP 2008181690 A JP2008181690 A JP 2008181690A JP 2008181690 A JP2008181690 A JP 2008181690A JP 5004099 B2 JP5004099 B2 JP 5004099B2
Authority
JP
Japan
Prior art keywords
cursor
face
coordinate
display screen
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008181690A
Other languages
English (en)
Other versions
JP2010020619A (ja
Inventor
嘉伸 海老澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shizuoka University NUC
Original Assignee
Shizuoka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shizuoka University NUC filed Critical Shizuoka University NUC
Priority to JP2008181690A priority Critical patent/JP5004099B2/ja
Publication of JP2010020619A publication Critical patent/JP2010020619A/ja
Application granted granted Critical
Publication of JP5004099B2 publication Critical patent/JP5004099B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、対象者の画像に基づいてコンピュータのディスプレイ上のカーソルを移動させるカーソル移動制御方法及びカーソル移動制御装置に関するものである。
従来から、パーソナルコンピュータのモニター画面上のカーソルを、対象者の顔を撮影することによって検出される瞳孔等の特徴点に応じて移動させる方法について種々検討されている(下記特許文献1〜4参照)。このような方法には、対象者の画像内の瞳孔の絶対位置を画面上のカーソル位置に反映させる方法と、時間的に前後する画像フレーム間の瞳孔位置の変化をカーソルの位置変化に対応させる方法とが存在する。
特開2005−182247号公報 特開2005−352580号公報 特開2006−167256号公報 特開2006−309291号公報
特徴点の絶対位置をカーソル位置に反映させる方法では、対象者のカメラに対する初期位置がカーソルの初期位置に反映されるため、カメラ前での対象者の座った位置によっては、ディスプレイ上の端部等の不都合な位置にカーソルが現れる場合がある。これに対して、特徴点の位置変化をカーソルの位置変化に対応させる方法によれば、このようなカーソルの初期位置の不都合は防ぐことができる。しかしながら、この場合でも何らかの理由により画面上のカーソル位置が対象者の正面から大きくずれると、カーソル位置を正面側に移動させるために余計な操作が必要になりユーザの使い勝手が悪くなる。
そこで、本発明は、かかる課題に鑑みて為されたものであり、対象者が意識しなくても表示画面上のカーソル位置を対象者の正面に導くように制御することにより、ユーザの使い勝手を向上させることが可能なカーソル移動制御方法及びカーソル移動制御装置を提供することを目的とする。
上記課題を解決するため、本発明のカーソル移動制御方法は、対象者の頭部画像に基づいて、コンピュータの表示画面上のカーソルの移動量を制御するカーソル移動制御方法であって、対象者の左右の瞳孔及び左右の鼻孔のうちの少なくとも3つの組み合わせである特徴部位群の2次元位置を撮像手段によって撮像し、特徴部位群の3次元位置を時系列で検出する位置検出ステップと、特徴点部位群の3次元位置に基づいて対象者の顔方向ベクトルと該顔方向ベクトルに基づいた顔正面ベクトルを算出する顔正面ベクトル算出ステップと、特徴点部位群の少なくとも1つの2次元位置の変位量に対して変換係数を乗ずることによって、カーソルの移動量を決定する移動量決定ステップとを備え、移動量決定ステップでは、表示画面上のカーソルの位置である第1の座標と、顔正面ベクトルが示す表示画面上の第2の座標との位置関係を算出し、位置関係に応じて変換係数を変化させる。
或いは、本発明のカーソル移動制御装置は、対象者の頭部画像に基づいて、コンピュータの表示画面上のカーソルの移動量を制御するカーソル移動制御装置であって、対象者の左右の瞳孔及び左右の鼻孔のうちの少なくとも3つの組み合わせである特徴部位群の2次元位置を撮像手段によって撮像し、特徴部位群の3次元位置を時系列で検出する位置検出手段と、特徴点部位群の3次元位置に基づいて対象者の顔方向ベクトルと該顔方向ベクトルに基づいた顔正面ベクトルを算出する顔正面ベクトル算出手段と、特徴点部位群の少なくとも1つの2次元位置の変位量に対して変換係数を乗ずることによって、カーソルの移動量を決定する移動量決定手段とを備え、移動量決定手段は、表示画面上のカーソルの位置である第1の座標と、顔正面ベクトルが示す表示画面上の第2の座標との位置関係を算出し、位置関係に応じて変換係数を変化させる。
このようなカーソル移動制御方法及びカーソル移動制御装置によれば、撮像手段によって生成された対象者の画像から瞳孔及び鼻孔のうちの少なくとも3つの特徴部位群の3次元位置が検出され、その特徴部位群の3次元位置に基づいて対象者の顔方向ベクトルとそれに基づく顔正面ベクトルが算出され、特徴部位群の2次元位置の変位量に変換係数が乗算されることによりカーソルの移動量が決定される。このとき、表示画面上のカーソルの位置と顔正面ベクトルが示す表示画面上の位置との位置関係に応じて変換係数を変化させるので、カーソルの操作時に対象者が意識しなくても、顔正面の位置との関係に基づいてカーソルの位置を円滑に顔正面の位置に近づけることができる。これにより、ユーザの使い勝手を向上させることができる。
移動量決定ステップでは、表示画面上での第2の座標の移動方向において第1の座標が第2の座標よりも前方に進んでいると判別された場合には、変換係数を減少させ、第2の座標の移動方向において第1の座標が第2の座標よりも後方に遅れている場合には、変換係数を増加させる、ことが好ましい。この場合、カーソルの操作時に頭の移動方向に対してカーソルが先に進んでいる場合にカーソルの移動速度を落とし顔正面がカーソルに追いつくようにし、カーソルが後に遅れている場合にはカーソルの移動速度が上げられてカーソルが顔正面に追いつくように制御されるので、対象者が意識しなくてもカーソル位置と顔正面の位置とをスムーズに合わせることができる。
また、移動量決定ステップでは、変換係数が上限値及び下限値を超えないように変換係数を調整する、ことも好ましい。こうすれば、変換係数が大きくなりすぎたり、小さくなりすぎたりすることによるユーザのカーソルの操作性の低下を防止することができる。
本発明によるカーソル移動制御方法及びカーソル移動制御装置によれば、対象者が意識しなくても表示画面上のカーソル位置を対象者の正面に導くように制御することにより、ユーザの使い勝手を向上させることができる。
以下、図面を参照しつつ本発明に係るカーソル移動制御方法及びカーソル移動制御装置の好適な実施形態について詳細に説明する。なお、図面の説明においては同一又は相当部分には同一符号を付し、重複する説明を省略する。
まず、本発明にかかるカーソル移動制御方法を実施するためのカーソル移動制御装置の構成について、図面を参照しながら説明する。なお、本発明のカーソル移動制御装置は、パーソナルコンピュータ、サーバ装置やプロジェクタ装置等の情報表示機能を有する情報処理装置に広く適用される。
図1は、本発明のカーソル移動制御装置の好適な一実施形態であるコンピュータシステム10を示す平面図である。同図に示すように、コンピュータシステム10は、対象者Aの顔画像を撮像する1台のカメラ(撮像手段)2と、カメラ2の前面2aの撮像レンズの近傍に設けられた光源3aと、カメラ2の前面2aから離れた位置に設けられた光源3bと、カメラ2の上方において対象者Aと対面するように設けられた表示画面4と、カメラ2、光源3a,3b、及び表示画面4と接続された制御装置1とを備えている。この制御装置1は、カーソル移動制御における位置検出手段、顔正面ベクトル算出手段、移動量決定手段として機能する。
カメラ2は、対象者Aの顔画像を生成できる撮像手段であれば特定の種類のものには限定されないが、画像データをリアルタイム性が高く処理できるという点で、CCD、CMOS等の撮像素子を内蔵するデジタルカメラを用いる。対象者Aは、コンピュータシステム10の操作時にはこのカメラ2の撮像レンズ(図示せず)の光軸L1上に位置するようにする。
光源3aは、カメラ2の光軸L1に沿って、光軸L1上に位置する対象者Aをカバーする範囲に向けて、近赤外光成分を有する照明光を照射可能に構成されている。光源3bは、光軸L1からの距離が光源3aよりも離れた位置に固定され、光軸L1に沿って対象者Aをカバーする範囲に向けて、近赤外光成分を有する照明光を照射可能に構成されている。ここで、2つの光源3a,3bから照射される照明光が瞳孔の部分に輝度差を生じさせるような異なる波長成分(例えば、中心波長が850nmと950nm)を有するように設定され、かつ、光源3bは光軸L1からの距離が光源3aと等しい位置に固定されていてもよい。この場合は、瞳孔の部分に輝度差を生じさせながら、光源の構成を簡略化及び小型化することができる。
なお、カメラ2及び光源3a,3bは、対象者Aが眼鏡をかけていたときの顔画像における反射光の写り込みを防止し、対象者Aの鼻孔を検出し易くする目的で、対象者Aの顔の高さよりも低い位置(例えば、光軸L1の表示画面4の垂線に対する傾斜角が20〜35度となり、光軸L1が対象者Aの方向を向くような位置)に設けられることが好ましい。
表示画面4は、制御装置1から出力された画像データや文字データ等に基づいて、対象者Aに対して各種の画像を表示し、その画像の中に対象者Aに情報を選択させるためのカーソルも含めて表示する。
制御装置1は、カメラ2による撮像、光源3a,3bによる照明光の照射、及び表示画面4における画像表示を制御し、CPU及びRAM、ROM等のメモリによって構成されている。具体的には、制御装置1は、カメラ2によって生成された対象者Aの画像データに基づいて表示画面4上のカーソルの移動を制御する。
次に、上述したコンピュータシステム10の動作について説明するとともに、コンピュータシステム10を用いたカーソル移動制御方法について説明する。
まず、対象者Aの左右の瞳孔中心及び左の鼻孔中心(第1基準部位群)の3つの各特徴部位間の距離を実測しておく。また、対象者Aの左右の瞳孔中心及び右の鼻孔中心(第2基準部位群)の3つの各特徴部位間の距離、及び左右の鼻孔中心間の距離も併せて実測しておく。ただし、これらの距離情報は概算でもよく多少実際の値からずれていても問題ない。なぜならば、この距離のずれによって生じる顔正面ベクトルと顔方向ベクトルと顔正面ベクトルとのずれは、後述する方法によって補正されるからである。
次に、対象者Aをカメラ2の光軸L1上に位置させ、制御装置1によって撮像タイミング及び照明タイミングが制御されることにより、任意の方向を向いた対象者Aの顔画像が時系列で撮像される。このようにしてカメラ2によって生成された時系列の画像フレームは制御装置1に送られ、制御装置1によってそれぞれのフレーム画像上の左右の瞳孔中心の2次元座標、及び左右の鼻孔中心の2次元座標が検出される。その後、制御装置1によって、第1基準部位群及び第2基準部位群の2次元座標が3次元座標に変換される(以上、位置検出ステップ)。そして、制御装置1によって、変換された3次元座標に基づいて対象者Aの顔方向ベクトル及びそれに基づく顔正面ベクトルが算出される(顔正面ベクトル算出ステップ)。
ここで、位置検出ステップ及び顔正面ベクトル算出ステップについて詳細に説明する。
(位置検出ステップ)
対象者Aの撮像時には、制御装置1は、光源3a,3bを交互に点灯させて、それぞれの点灯に同期した顔画像を交互に生成させることによって、明瞳孔画像及び暗瞳孔画像を得る。明瞳孔画像は、光源3aの照射に伴って得られる画像であり、瞳孔部分の輝度が相対的に明るくなっている。これに対し、暗瞳孔画像は、光源3bの照射に伴って得られる画像であり、瞳孔部分の輝度が相対的に暗くなっている。これらの2種類の画像は、2つの光源3a,3bからの照明光の照射に伴う瞳孔からの反射光の強度が異なることに起因して得られる。例えば、フィールド走査を採用するカメラの場合は、光源3a,3bをカメラ2のフィールド信号に同期させて点灯させることで、奇数フィールドと偶数フィールド間で明瞳孔画像と暗瞳孔画像とを分離することができる。そして、制御装置1は、明瞳孔画像と暗瞳孔画像との差分を取った後に瞳孔部分の範囲を判別する。このような差分処理を行うことで、ロバスト性の高い瞳孔の検出を行うことができる。
その後、制御装置1は、検出した瞳孔の輪郭を特定して、その輪郭に近似できる楕円を算出してその楕円の中心を瞳孔の中心位置として求める。また、差分処理を施された画像を用いて、その画像を2値化した後に重心法を用いて瞳孔中心の位置を算出してもよい。このとき、画像中に目蓋等の動く対象があると瞳孔以外も明るく写る場合があるので、重心を求める際の画像領域の広さの選択が問題となる。そこで、特開2005−348832号公報に記載にように、分離度フィルタを用いて瞳孔中心の位置を算出してもよい。すなわち、円形に近いパターンを用いて分離度が最大になる中心座標を求める。
さらに、制御装置1は、左右の鼻孔中心の2次元座標を、明瞳孔画像又は暗瞳孔画像を参照して検出する。すなわち、左右の瞳孔中心の中点を求め、それより下の位置に、対象者Aが正面を向いていたと仮定した場合に中心がほぼ鼻孔位置に一致する大ウィンドウを設定し、その大ウィンドウ内で鼻孔を検出する。そして、画像の大ウィンドウ内を対象にP−tile法により輝度が低いほうから0.8%の画素を検出し、HIGH画素及びLOW画素からなる2値化画像に変換する。その後、検出された2値化画像の膨張処理及び収縮処理(モルフォロジー処理)を繰り返し画像内の領域を明確化させた後、ラベリング処理を施して大きなほうから2つの領域を選び出し、それぞれの領域について上下左右の端点より形成される長方形の中心、縦横比、及び面積を算出する。ここで、膨張処理とは、2値画像中で対象画素の近傍の8画素の1つでもHIGH画素がある場合に、対象画素をHIGH画素に変換する処理であり、収縮処理とは、2値画像中で対象画素の近傍の8画素の1つでもLOW画素がある場合に、対象画素をLOW画素に変換する処理である。そして、縦横比が0.5より小さいか0.7より大きく、かつ、全体の画像サイズが640×240画素に対して面積が100画素より小さいか300画素より大きい場合は、鼻孔像を示す領域ではないと判断する。そうでない場合は、上記長方形の中心を中心に30×30画素の小ウィンドウを設定し、もとの画像の小ウィンドウ内を対象に、P−tile法により輝度が低いほうから5%の画素を抽出する。その後、上記のモルフォロジー処理及びラベリング処理を繰り返し、最大面積の領域を求める。その領域の面積が130画素以上か70画素以下の場合は鼻孔像でないと判断し、そうでない場合は鼻孔像であると判断し、領域の上下左右の端点より形成される長方形の中心を鼻孔の中心として求める。その結果、2つの鼻孔中心が検出されたら、それぞれの座標値の大きさから左右の鼻孔の対応関係を判断する。
上記のように、大ウィンドウと小ウィンドウとを用いて鼻孔検出を行うと、撮像条件の異なる2つの鼻孔のそれぞれを検出するのに最適な閾値を与えることができ、確実に鼻孔を検出できる。
対象者Aを撮像するコンピュータシステム10におけるカメラ光学系は、図2に示すように焦点距離fのピンホールモデルと仮定することができる。同図に示すように、制御装置1が検出したフレーム画像上の右瞳孔、左瞳孔、左鼻孔、及び右鼻孔の2次元座標を、それぞれ、Q(x,y)、Q(x,y)、Q(x,y)、及びQ(x,y)とする。この場合、ピンホールを原点Oとしたカメラ座標系X−Y−Zにおける各特徴点の3次元座標Qは、(x,y,f)(n=0,1,2,3)で表される。また、ピンホールOから各特徴点へ向かう位置ベクトルに対応した単位ベクトルは、下記式(1);
Figure 0005004099

で表され、各特徴点の位置ベクトルは定数a(n=0,1,2,3)を用いて下記式(2);
Figure 0005004099

で表される。
ここで、各特徴点間の距離Lmn(m,n=0,1,2,3)は予め測定され既知であるので、両瞳孔P,Pと左鼻孔Pを組み合わせた三角形について考えると、下記式(3);
Figure 0005004099

が成立する。従って、制御装置1は、3つの特徴点P,P,Pについての次の連立方程式(4)を解くことにより、位置ベクトルP,P,Pを求めることができる。
Figure 0005004099
(顔正面ベクトル算出ステップ)
そして、制御装置1は、特徴点P,P,Pの重心、及び特徴点P,P,Pを通る平面の法線ベクトルを求める。さらに、制御装置1は、P,Pと右鼻孔Pを組み合わせた三角形についても、同様の手順によって重心と法線ベクトルとを求めた後、2つの三角形の重心の中間位置を顔位置G(x,y,z)として求め、2つの法線ベクトルの平均を顔方向ベクトルV=(n,n,n)として求める。また、制御装置1は、この顔方向ベクトルVのカメラ座標系における水平角α及び垂直角βを、下記式(5)及び(6)により算出する。
Figure 0005004099

Figure 0005004099
上述のようにして顔方向ベクトルを計算した後に、制御装置1は、表示画面4におけるカーソルの移動量を決定し(移動量決定ステップ)、その移動量に基づいて表示画面4上に表示されているカーソルを移動するように表示画面4を出力制御する。
この移動量決定ステップに先立って、制御装置1は、世界座標系における顔正面から表示画面4に向かう顔正面ベクトル、及びこのベクトルの表示画面4上の交点である顔正面ポイントを求める。図3に示すように、カメラ2はその光軸L1が表示画面4の垂線に対して所定角度(例えば、35度)上方を向くように配置され、表示画面4はカメラ2を原点とする世界座標系x−y−zのxy平面に平行で、かつxy平面から距離Lの位置に配置されているものとする。
まず、制御装置1は、対象者Aに表示画面4の中央などの基準点Cが顔の正面になるように頭部を向けさせた状態で、カメラ座標系X−Y−Zにおける顔位置Gと顔方向ベクトルVFCを求める。そして、制御装置1は、この顔位置Gと顔方向ベクトルVFCを世界座標系における顔位置Gと顔方向ベクトルVFWに変換し、世界座標系における顔位置Gから表示画面4の中央Cへ向かうベクトルである顔正面ベクトルVGCを算出する。次に、制御装置1は、顔方向ベクトルVFWと顔正面ベクトルVGCとのなす角である水平角度αH1及び垂直角度βV1を求める。以降、制御装置1は、対象者Aに任意の方向を向かせたときの世界座標系における顔方向ベクトルVFWを水平角度αH1及び垂直角度βV1の分だけ回転させることにより、顔正面ベクトルVF1に補正する。このように顔方向ベクトルVFWを補正することにより、対象者Aが正面であると意識している方向を示す顔正面ベクトルVF1を求めることができる。
さらに、対象者Aに任意の方向を向かせた際の顔正面ベクトルVF1=(nx1,ny1,nz1)の表示画面4上の交点、すなわち顔正面ポイントF(x,y,z)は、下記式(7);
Figure 0005004099

によって定数kを用いて表されるので、制御装置1は、z=−Lの条件から顔正面ポイントFの3次元座標を求めることができる。その後、制御装置1は、求めた3次元座標を表示画面4上の2次元座標に変換して、表示画面上4上の顔正面ポイントFを算出する。
(移動量決定ステップ)
その後、制御装置1は、時間的に連続する2つのフレーム画像間の瞳孔のx軸及びy軸に沿った変位量(ΔP,ΔP)に対して変換係数である可変ゲイン(k,k)を乗ずることによって、表示画面4上におけるカーソルのx軸及びy軸に沿った移動量(M,M)を算出する。具体的には、制御装置1は、変位量(ΔP,ΔP)に閾値(Th,Th)を設け、それぞれの変位量の絶対値が閾値を超えている場合は、下記式(8)及び(9);
Figure 0005004099

Figure 0005004099

を用いて、移動量(M,M)を求める。これに対して、それぞれの変位量の絶対値が閾値を超えていない場合は、対応する移動量M,Mを0と設定する。これにより、頭部や目の振動によるカーソルのふらつきを防ぐことができる。
この際、制御装置1は、表示画面4上の現在のカーソルの位置と顔正面ベクトルVF1が示す表示画面4上の顔正面ポイントFとの位置関係を算出して、その位置関係に応じて可変ゲイン(k,k)を変化させる。
詳細には、現フレーム画像の直前のタイミングの前フレーム画像の顔正面ポイントがFn−1(Fn−1,x,Fn−1,y)であり、現フレーム画像の顔正面ポイントがF(Fn,x,Fn,y)であり、前フレーム画像のカーソルの座標をCn−1(Cn−1,x,Cn−1,y)である場合を考える。そこで、制御装置1は、現フレーム画像と前フレーム画像の顔正面ポイントの移動量ΔF(ΔFn,x,ΔFn,y)を、ΔFn,x=Fn,x−Fn−1,x,ΔFn,y=Fn,y−Fn−1,yにより計算する。また、制御装置1は、前フレーム画像における顔正面ポイントとカーソル位置との位置誤差R(R,R)を、R=Fn−1,x−Cn−1,x,R=Fn−1,y−Cn−1,yにより計算する。
そして、制御装置1は、(i)ΔFn,x>0かつR>0、又は(ii)ΔFn,x<0かつR<0の場合は、下記式(10);
Figure 0005004099

を用いて、可変ゲインkを計算する(aは正の定数)。つまり、顔正面ポイントの移動方向においてカーソルの座標が顔正面ポイントの座標よりも後に遅れていると判別された場合には、可変ゲインkを位置誤差Rに応じて増加させる。
一方、制御装置1は、(iii)ΔFn,x>0かつR<0、又は(iv)ΔFn,x<0かつR>0の場合は、上記式(10)においてaを負の定数に置き換えて可変ゲインkを計算する。つまり、顔正面ポイントの移動方向においてカーソルの座標が顔正面ポイントの座標よりも先に進んでいると判別された場合には、可変ゲインkを位置誤差Rに応じて減少させる。
同様にして、制御装置1は、移動量ΔFn,yと位置誤差Rを参照することにより、顔正面ポイントの移動方向とカーソル位置との関係を判別して、下記式(11);
Figure 0005004099

を用いて、可変ゲインkを計算する(aは正又は負の定数)。
また、可変ゲイン(k,k)が大きくなりすぎたり、小さくなりすぎたりすることによるカーソルの操作性の低下を防止するために、制御装置1は、可変ゲイン(k,k)に上限値(kxmax,kymax)及び下限値(kxmin,kymin)を設ける。図4は、可変ゲイン(k,k)の位置誤差R,Rに対する変化を示すグラフである。同図に示すように、制御装置1は、位置誤差R,Rの絶対値がある程度増加した場合には、上限値(kxmax,kymax)及び下限値(kxmin,kymin)を超えないように可変ゲイン(k,k)を飽和させることにより、可変ゲイン(k,k)を調整する。
以上説明したコンピュータシステム10及びコンピュータシステム10を用いたカーソル移動制御方法によれば、カメラ2によって生成された対象者Aの画像から瞳孔及び鼻孔の4つの特徴部位群の3次元位置が検出され、その特徴部位群の3次元位置に基づいて対象者Aの顔方向ベクトルV及びそれに基づいた顔正面ベクトルVF1が算出され、特徴部位群の2次元位置の変位量(ΔP,ΔP)に可変ゲイン(k,k)が式(8)及び(9)に基づいて乗算されることによりカーソルの移動量(M,M)が決定される。このとき、表示画面4上のカーソルの位置と顔正面ベクトルVF1が示す表示画面4上の顔正面ポイントFとの位置関係に応じて変換係数を変化させるので、カーソルの操作時に対象者Aが意識しなくても、顔正面の位置との関係に基づいてカーソルの位置を円滑に顔正面の位置に近づけることができる。これにより、ユーザの使い勝手を向上させることができる。
また、表示画面4においてカーソルが顔正面の移動よりも進んでいる場合には変換係数を減少させ、カーソルが顔正面の移動よりも遅れている場合には変換係数を増加させるので、何らかの理由でカーソルが顔の正面からずれた場合でも、カーソルの操作時に頭の移動方向に対してカーソルが先に進んでいる場合にカーソルの移動速度を落とし顔正面がカーソルに追いつくようにし、カーソルが後に遅れている場合にはカーソルの移動速度が上げられてカーソルが顔正面に追いつくように制御される。これにより、カーソルを操作していると自然に顔の正面付近にカーソルが戻ってくることになり、操作時に対象者が意識しなくてもカーソル位置と顔正面の位置とをスムーズに合わせることができる。
図5は、本実施形態のコンピュータシステム10における表示画面4上のカーソル及び顔正面ポイントの軌跡を示す図であり、図6は、図5の場合の顔正面ポイントとカーソルとの距離の時間変化を示すグラフである。また、図7は、コンピュータシステム10においてゲイン(k,k)を固定値に設定した場合の表示画面4上のカーソル及び顔正面ポイントの軌跡を示す図であり、図8は、図7の場合の顔正面ポイントとカーソルとの距離の時間変化を示すグラフである。これらの結果より、対象者Aが瞳孔を適当に移動させたとき(例えば回転させたとき)、可変ゲインの場合は時間の経過に伴ってカーソルが顔正面に次第に近づいていることが分かる。これに対して、固定ゲインの場合はいったんカーソルが顔正面から外れてしまうと、時間が経過しても顔正面の位置とカーソル位置とは離れたままであることがわかる。
なお、本発明は、前述した実施形態に限定されるものではない。例えば、本発明のカーソル移動制御方法においては、顔方向ベクトルVを算出する際には左右の瞳孔及び鼻孔のうちの最低3つの特徴部位を検出すればよく、その組み合わせは任意の組み合わせを選択することができる。
また、本実施形態においては1台のカメラ2によって特徴部位の位置を検出していたが、2台のカメラによってその3次元位置を検出してもよい。
また、本実施形態においては瞳孔の変位量(ΔP,ΔP)に基づいてカーソルの移動量(M,M)を算出していたが、鼻孔の変位量や重心位置の変化に基づいてカーソルの移動量を算出してもよい。
本発明のカーソル移動制御装置の好適な一実施形態であるコンピュータシステムを示す平面図である。 図1のカメラの撮像レンズの主点を原点とした2次元座標系における画像平面と対象者との位置関係を示す図である。 図1のカメラ及び表示画面と対象者との位置関係を示す図である。 図1の制御装置が算出する可変ゲインを示すグラフである。 図1のコンピュータシステムにおける表示画面上のカーソル及び顔正面ポイントの軌跡を示す図である。 図5の場合の顔正面ポイントとカーソルとの距離の時間変化を示すグラフである。 本発明の比較例における表示画面上のカーソル及び顔正面ポイントの軌跡を示す図である。 図7の場合の顔正面ポイントとカーソルとの距離の時間変化を示すグラフである。
符号の説明
1…制御装置、2…カメラ(撮像手段)、4…表示画面、10…コンピュータシステム、k,k…可変ゲイン(変換係数)、ΔP,ΔP…変位量、M,M…カーソル移動量、R,R…位置誤差、V…顔方向ベクトル、VF1…顔正面ベクトル、A…対象者。

Claims (4)

  1. 対象者の頭部画像に基づいて、コンピュータの表示画面上のカーソルの移動量を制御するカーソル移動制御方法であって、
    前記対象者の左右の瞳孔及び左右の鼻孔のうちの少なくとも3つの組み合わせである特徴部位群の2次元位置を撮像手段によって撮像し、前記特徴部位群の3次元位置を時系列で検出する位置検出ステップと、
    前記特徴点部位群の前記3次元位置に基づいて前記対象者の顔方向ベクトルと該顔方向ベクトルに基づいた顔正面ベクトルを算出する顔正面ベクトル算出ステップと、
    前記特徴点部位群の少なくとも1つの2次元位置の変位量に対して変換係数を乗ずることによって、前記カーソルの移動量を決定する移動量決定ステップとを備え、
    前記移動量決定ステップでは、前記表示画面上の前記カーソルの位置である第1の座標と、前記顔正面ベクトルが示す前記表示画面上の第2の座標との位置関係を算出し、前記位置関係に応じて前記変換係数を変化させる、
    ことを特徴とするカーソル移動制御方法。
  2. 前記移動量決定ステップでは、前記表示画面上での前記第2の座標の移動方向において前記第1の座標が前記第2の座標よりも前方に進んでいると判別された場合には、前記変換係数を減少させ、前記第2の座標の移動方向において前記第1の座標が前記第2の座標よりも後方に遅れている場合には、前記変換係数を増加させる、
    ことを特徴とする請求項1記載のカーソル移動制御方法。
  3. 前記移動量決定ステップでは、前記変換係数が上限値及び下限値を超えないように前記変換係数を調整する、
    ことを特徴とする請求項1又は2に記載のカーソル移動制御方法。
  4. 対象者の頭部画像に基づいて、コンピュータの表示画面上のカーソルの移動量を制御するカーソル移動制御装置であって、
    前記対象者の左右の瞳孔及び左右の鼻孔のうちの少なくとも3つの組み合わせである特徴部位群の2次元位置を撮像手段によって撮像し、前記特徴部位群の3次元位置を時系列で検出する位置検出手段と、
    前記特徴点部位群の前記3次元位置に基づいて前記対象者の顔方向ベクトルと該顔方向ベクトルに基づいた顔正面ベクトルを算出する顔正面ベクトル算出手段と、
    前記特徴点部位群の少なくとも1つの2次元位置の変位量に対して変換係数を乗ずることによって、前記カーソルの移動量を決定する移動量決定手段とを備え、
    前記移動量決定手段は、前記表示画面上の前記カーソルの位置である第1の座標と、前記顔正面ベクトルが示す前記表示画面上の第2の座標との位置関係を算出し、前記位置関係に応じて前記変換係数を変化させる、
    ことを特徴とするカーソル移動制御装置。
JP2008181690A 2008-07-11 2008-07-11 カーソル移動制御方法及びカーソル移動制御装置 Expired - Fee Related JP5004099B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008181690A JP5004099B2 (ja) 2008-07-11 2008-07-11 カーソル移動制御方法及びカーソル移動制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008181690A JP5004099B2 (ja) 2008-07-11 2008-07-11 カーソル移動制御方法及びカーソル移動制御装置

Publications (2)

Publication Number Publication Date
JP2010020619A JP2010020619A (ja) 2010-01-28
JP5004099B2 true JP5004099B2 (ja) 2012-08-22

Family

ID=41705431

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008181690A Expired - Fee Related JP5004099B2 (ja) 2008-07-11 2008-07-11 カーソル移動制御方法及びカーソル移動制御装置

Country Status (1)

Country Link
JP (1) JP5004099B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101439190B1 (ko) * 2012-11-30 2014-09-12 한국과학기술원 이미지 처리 기반의 모바일 기기 구동 방법, 모바일 기기의 이미지 처리 방법 및 이를 이용하는 모바일 기기

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130187845A1 (en) * 2012-01-20 2013-07-25 Visteon Global Technologies, Inc. Adaptive interface system
CN114937059A (zh) * 2022-04-20 2022-08-23 北京字跳网络技术有限公司 显示对象的运动控制方法及设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2534517B2 (ja) * 1987-10-01 1996-09-18 株式会社エイ・ティ・アール通信システム研究所 3次元位置検出方法
JP3050808B2 (ja) * 1996-06-28 2000-06-12 財団法人大阪科学技術センター 位置指示装置
JP2000010723A (ja) * 1998-06-18 2000-01-14 Mr System Kenkyusho:Kk 視線センサのキャリブレーション方法、視線入力装置およびプログラム記憶媒体
JP4491604B2 (ja) * 2004-12-17 2010-06-30 国立大学法人静岡大学 瞳孔検出装置
JP4951751B2 (ja) * 2005-04-26 2012-06-13 国立大学法人静岡大学 瞳孔検出に基づくポインティング装置及び方法
JP4452833B2 (ja) * 2006-03-31 2010-04-21 国立大学法人静岡大学 視線移動検出方法及び視線移動検出装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101439190B1 (ko) * 2012-11-30 2014-09-12 한국과학기술원 이미지 처리 기반의 모바일 기기 구동 방법, 모바일 기기의 이미지 처리 방법 및 이를 이용하는 모바일 기기

Also Published As

Publication number Publication date
JP2010020619A (ja) 2010-01-28

Similar Documents

Publication Publication Date Title
JP4452833B2 (ja) 視線移動検出方法及び視線移動検出装置
US20050084179A1 (en) Method and apparatus for performing iris recognition from an image
TWI517828B (zh) 影像追蹤系統及其影像追蹤方法
JP5158842B2 (ja) 眼球運動計測方法および眼球運動計測装置
JPH113429A (ja) 観察者トラッキング自動立体表示装置、画像トラッキングシステム、および画像トラッキング方法
KR20120057033A (ko) Iptv 제어를 위한 원거리 시선 추적 장치 및 방법
JP7030317B2 (ja) 瞳孔検出装置及び瞳孔検出方法
TWI610059B (zh) 三維量測方法及應用其之三維量測裝置
JP6722878B2 (ja) 顔認証装置
JP2007004448A (ja) 視線検出装置
JP6452235B2 (ja) 顔検出方法、顔検出装置、及び顔検出プログラム
JP5429885B2 (ja) 特徴点追跡方法及び特徴点追跡装置
JP2006236184A (ja) 画像処理による人体検知方法
JP5004099B2 (ja) カーソル移動制御方法及びカーソル移動制御装置
JP2011095985A (ja) 画像表示装置
JPWO2018150569A1 (ja) ジェスチャー認識装置、ジェスチャー認識方法、ジェスチャー認識装置を備えたプロジェクタおよび映像信号供給装置
JP6288770B2 (ja) 顔検出方法、顔検出システム、および顔検出プログラム
JP2006163900A (ja) ドライバモニタシステムおよびその処理方法
JP6833483B2 (ja) 被写体追尾装置、その制御方法、および制御プログラム、並びに撮像装置
WO2016159255A1 (ja) 口領域検出装置及び口領域検出方法
JP2017102731A (ja) 視線検出装置及び視線検出方法
JP2008006149A (ja) 瞳孔検出装置、及び虹彩認証装置、並びに瞳孔検出方法
JP2007058507A (ja) 視線検出装置
JP2007094536A (ja) 対象物追跡装置及び対象物追跡方法
JP2007036743A (ja) 複数画像合成方法及び撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120417

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120514

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150601

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5004099

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees