JP3822483B2 - 物体向き計算装置及びその方法 - Google Patents
物体向き計算装置及びその方法 Download PDFInfo
- Publication number
- JP3822483B2 JP3822483B2 JP2001335666A JP2001335666A JP3822483B2 JP 3822483 B2 JP3822483 B2 JP 3822483B2 JP 2001335666 A JP2001335666 A JP 2001335666A JP 2001335666 A JP2001335666 A JP 2001335666A JP 3822483 B2 JP3822483 B2 JP 3822483B2
- Authority
- JP
- Japan
- Prior art keywords
- matrix
- feature point
- image
- orientation
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
Description
【発明の属する技術分野】
本発明は、CCDカメラ等で撮影された動画像を入力し、その画像から、顔の三次元向きを実時間で計算し、ディスプレイ上に顔が向いている位置を表示する技術分野に関する。
【0002】
【従来の技術】
パソコン等を操作する場合、ディスプレイ上のカーソルを動かすためにマウスが広く利用されている。操作者にとって、カーソルを動かすためにキーボードに置いた手をマウスに移動することは、スムーズな仕事の流れを阻害する動作である。ノートPCでは、アキュポイント、トラックパッド等を用いてキーボードから手を大きく移動させることなくカーソルを動かすことができるが、使い慣れるまでに時間がかかったり、広い範囲を動かす場合には不便であること等から、結局マウスを取り付けるということも少なくない。
【0003】
そのために、もし顔を動かすことによってカーソルを移動させることができれば、キーボードに置いた手を動かすことなく、仕事を効率的に進めることができるだけでなく、広い範囲に渡って動かすことも無理無くできる。また、顔の向きは人間の注意の方向をあらわすため、顔の向きでカーソルを動かすことは、人間の直感に合った動作であると考えられる。
【0004】
しかしながら、まだそのような顔向きを利用したポインター表示技術は確立されていない。これを実現するためには、顔向きを実時間で精密に求めることが必要になる。
【0005】
従来の顔向き計算方法には、大きく分けて2通りの方法がある。
【0006】
第1の従来方法は、向き毎の顔画像パターンをそのまま或いは次元圧縮してテンプレートとし、顔全体のパターンマッチングにより最もマッチしたテンプレートに対応する向きを顔の向きと判定する方法である。
【0007】
第2の従来方法は、目鼻口などの顔の特徴点を検出してそれらの画像座標を用いて幾何学的に向きを計算する方法である。
【0008】
以降、第1の従来方法をパターンベースの方法、第2の従来方法を特徴点ベースの方法とよぶことにする。
【0009】
パターンスペースの方法は、顔向き計算をパターン分類問題として扱っているため、顔向きの結果が離散値で出力され、そのままでは精度が低い。連続値として求めるためには、補間等の処理が別途必要になる。このような方法は、顔向きを精密かつ高速に求める必要のあるポインター等への応用には不向きである。
【0010】
それに対して、特徴点ベースの方法は、特徴点の座標が正確に求まりさえすれば顔向きも正確に連続値で計算できる精密な方法である。
【0011】
その中でも代表的な優れた手法がTomasiと金出によって1991年に提案された因子分解法である(Tomasi.C.and T.Kanade:Technical Report CMU−CS−91−172,CMU(1991);InternationalJournal of ComputerVision,9:2,137−154(1992))。
【0012】
この手法では、カメラパラメータを求める必要がなく、複数フレームの2次元画像から3次元形状と各フレームの向きを求めることができる。しかし、複数フレームをまとめて計算するため、バッチ処理には有用だが、処理したい画像が次々に入力されるようなオンライン処理には向かない。
【0013】
これを実時間処理に対応させるため、藤木と蔵田によって逐次型因子分解法が提案された(藤木、蔵田:電子情報通信学会論文誌、J84−D−II:8,1663−1673(2001))。
【0014】
この手法では、バッチ処理の因子分解法に比べ処理時間を10分の1に減らすことができるが、特徴点検出等の処理時間も合わせると更なる高速化が必要である。また、新しいフレーム毎に得られる向きと3次元形状を次フレームの向き計算に利用するため、誤差が蓄積される可能性もある。
【0015】
特徴点ベースの顔向き計算を行う場合、顔の特徴点を安定して検出する必要がある。
【0016】
特徴点検出の従来手法も大きく分けて2通りの方法がある。
【0017】
第1の従来方法は、コーナー検出を行った後、各フレームで検出されたコーナー同士の対応をフレーム間で取るという方法である。
【0018】
この場合、どの特徴点が得られるかは照明条件等の環境の変化や個人によって異なる。また、得られた特徴点は必ずしも目・鼻・口等とは一致しない。
【0019】
第2の従来方法は、検出したい特徴点を予め決めておき、その性質を利用して検出する方法である。例えば、顔の特徴点としては、目・鼻・口等がよく用いられる。
【0020】
福井と山口は、瞳や鼻孔が円形をしていることから、円形の分離度フィルターを利用して瞳や鼻孔を安定して検出できることを示している(福井、山口:電子情報通信学会論文誌、J80−D−II:8,2170−2177(1977))。
【0021】
口の端、即ち、上唇と下唇の接合部を口端とよぶが、口端にも分離度フィルターを利用することができる。しかし、口端の形状自体が個人差があるなど不安定なため、形状を利用して検出を行う分離度フィルターはあまり向いていない。
【0022】
顔向きが求まった後、得られた顔向き結果からポインターを表示する位置を計算しなければならないが、大きな顔の動きでポインターを動かしたい場合や逆に小さな動きでもポインターが動くようにしたい場合等、ユーザーやポインターの表示領域によって、使い易さの基準も異なる。ユーザーにとって使い易いポインター装置を実現するためには、顔を動かす範囲とポインター表示領域とを一致させればよいと考えられる。しかし、そのような技術はまだ存在しない。
【0023】
【発明が解決しようとする課題】
そこで、本発明の課題は、顔向きを利用したポインター表示装置の実現、及び、そのために必要な要素技術の確立である。
【0024】
その要素技術の中でも最も核となる課題は、入力される動画像から実時間で顔の向きを精密に計算することである。
【0025】
顔の向きをポインター等の動きに連動させるような場合、顔の向きを連続値として求める必要がある。
【0026】
本発明では、従来技術で述べたように顔向きが離散値で求まるパターンマッチングの方式ではなく、連続値で求まる特徴点ベースの方式を採用する。
【0027】
この場合、顔の特徴点を安定して検出することも重要な課題である。さらに、顔向きの計算結果からポインターの表示位置を計算する場合、ユーザーの顔向きの範囲とポインターの動く範囲を一致させる等して、ユーザーの直感に合わせて使い易くすることも本発明の課題の一つである。
【0028】
【課題を解決するための手段】
請求項1の発明は、物体の向きを計算する物体の向き計算装置であって、前記物体の特徴点の空間的位置を表す形状行列を予め作成し、この形状行列から一般逆行列を求める一般逆行列計算手段と、前記物体が撮影された画像を入力する画像入力手段と、前記画像中から前記物体の特徴点を検出すると共に、これら特徴点から計測行列を作成する特徴点検出手段と、前記特徴点検出手段で作成された計測行列と、予め作成された前記物体に関する一般逆行列を用いて物体の向きの情報を表す運動行列を計算する物体向き計算手段と、を有することを特徴とする物体向き計算装置である。
【0035】
【発明の実施の形態】
以下、本発明の顔向き計算結果を利用したポインター装置の実施形態について、図面に基づいて説明する。
【0036】
1.ポインター装置20の構成
図1は、顔向き計算結果を利用したポインター装置20の構成を示すブロック図である。
【0037】
ポインター装置20は、CCDカメラ等から動画像や静止画像を入力する画像入力部1と、入力画像中から特徴点を検出する特徴点検出部2と、形状行列登録部3と、一般逆行列格納部4と、特徴点検出部2で検出された特徴点と一般逆行列格納部4で格納されている形状行列の一般逆行列を用いて顔の向きを計算する顔向き計算部5と、顔向き計算部5の顔向き計算結果から顔が向いているディスプレイ上の点を計算し、その点上にポインターを表示するポインター表示部6とから成る。
【0038】
これら各構成の機能は、コンピュータに記憶されたプログラムによって実行されるものである。
【0039】
画像入力部1と特徴点検出部2と形状行列登録部3によって、形状行列登録方法が実行される。
【0040】
また、一般逆行列格納部4と画像入力部1と特徴点検出部2と顔向き計算部5によって、顔向き計算方法が実行される。
【0041】
特徴点検出部2によって、口端検出の方法や目・鼻・ほくろ等他の特徴点検出方法が実行される。
【0042】
ポインター表示部6によって、ポインター表示の自動調整法や、ポインター表示のユーザー調整法が実行される。
【0043】
このようなシステムによって、各要素技術を実施し、それらの結果を統合することにより、顔向きを利用したポインター表示装置20が実現される。
【0044】
簡単に、ポインター装置20によって顔向き計算結果を求めるまでを説明する。
【0045】
まず、準備としてユーザの形状行列を予め登録しておく。これは、各ユーザ毎に様々な顔の向きを撮影した画像を画像入力部1で入力する。
【0046】
次に、特徴点検出部2によって、その画像の特徴点をP個検出して、それから計測行列Wを求める。
【0047】
次に、形状行列登録部3によって、この計測行列Wからユーザ固有の形状行列Sを求めて登録しておく。
【0048】
パソコンにおいて特定のユーザがポインターを使用する場合に、そのユーザの顔向きを検出する必要がある。その時は、画像入力部1によって使用中のユーザの顔を撮影して画像を入力する。この画像から特徴点をP個検出して、それから計測行列Wnewを求める。そして、上記で予め登録してある形状行列Sから一般逆行列を求めて、この一般逆行列と前記計測行列Wnewから顔向きを表す運動行列Mnewを求める。
【0049】
2.因子分解法の説明
まず、計測行列から形状行列を求める因子分解法を説明する。
【0050】
ここでは、説明を簡便にするため正射影モデルを仮定するが、弱中心射影モデルや疑似中心射影モデル等にも拡張できる。
【0051】
フレーム数をF、特徴点数をPとする。fフレーム目の画像における特徴点の座標を{(ufp,vfp)|p=1,…,P}、重心座標を(uCf ,vCf )で表す。特徴点の座標から重心座標を引いたものを
【数1】
【数2】
とし、2F×P行列をW=〔wij〕で定義する。これは計測行列とよばれる。この計測行列と、カメラの運動を表す運動行列Mと特徴点の空間的位置を表す形状行列Sとは
【数3】
の関係が成り立つ。
【0052】
Mはfフレーム目のカメラの座標軸の基底ベクトルif ,jf の転置を上から順に並べた2F×3行列、Sはp個の特徴点の重心を原点とした三次元座標を左から順に並べた3×P行列であり、共にランクは3以下である。このことと特異値分解を利用して、Wが与えられた場合、Wを式(3)のように分解し、M,Sを求める方法が前述のTomasiと金出の因子分解法である。
【0053】
この因子分解法では、処理したい画像をまとめて扱うため、次々と新しい画像が入力されるような場面には適さない。しかしながらバッチ処理に対しては、カメラパラメータを求めることなく注目物体の向きと特徴点の三次元形状を復元することができる、大変優れた手法である。
【0054】
3.形状行列の登録方法
次に、この因子分解法をバッチ処理で用いて特徴点の形状行列を求め登録しておく方法を図3に基づいて説明する。この形状行列は、ユーザ毎に1個を形状行列登録部3に登録するものである。
【0055】
図3に形状登録処理の流れの一例を示す。
【0056】
最初に、登録フレーム数を初期化する。すなわち、f=0とする(step7)。
【0057】
次に、登録したいユーザの様々な顔向きの画像を撮影するために、ユーザーが顔を向けてほしいディスプレイ上の位置にポインターをポインター表示部6によって表示し、そのユーザーの注意を喚起する(step8)。
【0058】
ユーザーがポインター方向に顔を向けたら画像入力部1のCCDカメラで撮影する(step9)。
【0059】
特徴点検出部2が、その入力画像からP個の特徴点を検出する(step10)。
【0060】
これを繰り返し、形状を求めるために必要なフレーム数fの画像を撮影する(step13)。
【0061】
特徴点検出部2が、フレーム数fの画像に対応するP個(P>=4)の特徴点から計測行列Wを求める。そして、形状行列登録部3が、その計測行列Wに因子分解法を適用して運動行列Mと形状行列Sを求めて、Sを登録する(step14)。
【0062】
この形状行列Sは、登録したいユーザ固有のものである。したがって、ユーザが複数人の場合には、それぞれのユーザ毎に形状行列を登録する。
【0063】
また、形状行列Sの作成は、上記したように、複数のフレーム数f(f>=3)に基づいて作成する必要がある。これは式(3)を計算するために必要なためである。
【0064】
なお、step8のポインターには、キャラクターを表示しても良いし、音声で方向を知らせることもできる。
【0065】
また、step10で特徴点検出の結果を表示し、検出結果が正しくない場合はそのフレームを使わない等、検出結果を確認すれば、確実に精度の高い形状行列を求めることができる。
【0066】
また、ポインターを動かしユーザーがそれを追う間に必要なフレーム数の撮影を行い、撮影後にまとめて特徴点検出と形状復元を行うこともできる。
【0067】
4.顔向き計算方法
次に、登録した形状行列を使って、処理したい画像が入力される場合に向きを実時間で求める計算方法について説明する。
【0068】
まず、画像入力部1で、顔の向きを求めたい画像を入力する。
【0069】
次に、上記と同様に特徴点検出部2で、P個の特徴点を求め、その特徴点から計測行列Wnew を求める。
【0070】
式(3)は画像上の特徴点座標とその空間的位置とカメラ軸の関係をFフレームまとめて表現したものである。これは1フレームのみに対しても成り立つ。
【0071】
そして、顔向きを求めたい新しい1枚の画像の計測行列と運動行列をWnew ,Mnew で表し、ユーザーの顔の特徴点の3次元形状は不変なので既に登録してある形状行列Sを用いる。
【0072】
そして、形状行列登録部3に登録されている形状行列の中から、そのユーザに対応する形状行列Sを呼び出してくる。
【0073】
また、この顔向き計算方法における入力画像、すなわち、フレーム数は1でよく、この1個のフレーム数の特徴点から求めた計測行列Wnew を用いる。これは、上記の形状行列の登録方法では、3個以上のフレーム数fを必要としたが、顔向き計算方法では、式(3)を計算する必要がなく、式(8)を計算すればよいだけだからである。
【0074】
但し、新しい1枚の画像から求められる特徴点の数は、予め登録してある形状行列を作成する際に、用いた特徴点の数Pと同じ数でなければならない。数が異なる場合は、後述する。
【0075】
さて、計測行列Wnew と運動行列をMnew と、予め登録してあるユーザ固有の形状行列Sとの間には、
【数4】
の関係が成り立つ。
【0076】
文献「Regression and the Moore−Penrosepseudoinverse(Albert,A.著 Academic Press.1972)」によれば、行列方程式
【数5】
の一般解Xは
【数6】
で与えられる。ここで、A+ は行列Aの一般逆行列、Yは任意の行列を表す。これを式(4)に運用すると、新しいフレームの運動行列は
【数7】
で与えられる。ここで、SS+ はSの値域R(S)への射影行列である。R(S)はSの縦ベクトル、すなわち、各特徴点の三次元座標を表すベクトルで張られる空間である。
【0077】
P個の特徴点のうち、少なくとも4個の特徴点が同一平面上になく立体状になるようにすれば、R(S)の次元は3次元となり全空間と一致する。このとき、SS+ =Iとなり、式(7)は
【数8】
となる。
【0078】
すなわち、予め登録しておいた形状行列Sの一般逆行列を使って、新しいフレームの運動行列を求めることができる。
【0079】
一般逆行列はS+ =ST (SST )+ で与えられるが、R(SST )は先程の議論と同様に全空間と一致するので逆行列が存在し、この場合一般逆行列はS+ =ST (SST )−1で計算することができる。ここで、ST はSの転置行列を表す。
【0080】
形状行列の一般逆行列を一度計算しておけば、順次入力される画像から得られる計測行列と一般逆行列との掛け算という非常に軽い処理のみで、運動行列が計算できる。
【0081】
運動行列Mnew は、対象物体を固定しカメラ向きが変化したとみなした場合のカメラの座標軸運動を表す。すなわち運動行列Mnew の行ベクトルの転置がカメラ座標の3つの基底ベクトルのうち2つの基底ベクトルinew ,jnew になっており、inew ,jnew の外積から残りの基底ベクトルknew が求まる。対象物体の正面にカメラを置いた場合のカメラ向きを基準とすれば、カメラを固定した場合の対象物体の回転行列Rnew は、inew ,jnew ,knew を並べた行列として求まり、この回転行列から対象物体の回転角を計算することができる。
【0082】
また、対象物体の向きを表す単位ベクトル(対象物体として顔を考えた場合は、顔を平面と見倣し顔平面から外に向かった法線ベクトル)ベクトルdは、Rn ew の第3行目の行ベクトルの転置を−1倍して求まる。
【0083】
まとめると、法線ベクトルdのx成分は、運動行列Mnew の1行3列目の成分であり、法線ベクトルdのy成分は、運動行列Mnew の2行3列目の成分の−1倍である。
【0084】
図4に、対象物体として顔を考え、運動行列Mnew を計算する様子を示す。
【0085】
図4では、カメラを固定して顔を動かす様子を相対的に、顔を固定してカメラ向きが変化するとみなしている。
【0086】
図2に顔向き計算処理の流れの一例を示す。
【0087】
まず、登録してある形状行列からその一般逆行列S+を求め、一般逆行列格納部4に保存しておく(step1)。
【0088】
画像入力部1によってユーザーの顔画像を1フレーム入力する(step2)。
【0089】
特徴点検出部2によって特徴点検出を行い、計測行列Wnew を計算する(step3)。
【0090】
顔向き推定部5によって、式(8)のように計測行列Wnew と、保存してあるS+の積を計算すれば、そのフレームにおける向きMnew が求まる(step4)。
【0091】
step2からstep4を繰り返し行えばユーザーの顔向き計算をオンライン処理で実行できる。
【0092】
登録処理では形状行列を登録しておき、顔向き計算処理で一般逆行列を求めたが、登録処理で一般逆行列の計算まで行っておけば、顔向き計算処理での一般逆行列の計算は必要なくなる。
【0093】
(顔向き計算方法の変更例)
ところで、新しい1枚の画像から求められる特徴点の数は、予め登録してある形状行列を作成する際に用いた特徴点の数Pと同じ数でなければならない。しかし、常に同じ特徴点が映っているとは限らず、向きによっては登録してあった特徴点が隠れてしまったり、逆に登録してない新たな特徴点が見つかる場合がある。
【0094】
本実施形態における顔向き計算方法では、このような特徴点の増減にも簡単に対応できる。
【0095】
特徴点が隠れてしまった場合は、形状行列からその点を取り除けば、通常と同じように式(8)で向きが計算できる。
【0096】
新たな特徴点が見つかった場合は、登録済みの特徴点から運動行列を計算し、求まった運動行列の一般逆行列と、新たな特徴点の計測行列の積からその特徴点の形状行列が求まる。これを登録済みの形状行列に並べたものを新たな形状行列とすれば、次のフレームからその特徴点も利用することができる。
【0097】
但し、このように特徴点が増減する場合は、計測行列を登録済みの特徴点の重心を用いて求める必要があるため、特徴点の重心も併せて登録しておく必要がある。
【0098】
なお、本実施形態における形状行列登録方法と顔向き計算法では、顔を対象として説明しているが、対象物体は顔に限らず、任意の物体に対して向きを求めることができる。
【0099】
(口端検出方法)
3次元形状の登録で因子分解法を利用する場合や、登録した形状行列を基に顔向きを計算する場合等、特徴点ベースの手法を用いる場合はいずれも、画像における顔の特徴点座標を正確に求める必要がある。
【0100】
以下では、口端検出方法について図5に基づいて説明する。
【0101】
図5に口端位置と口周りの画像を示す。
【0102】
口周りの画像の性質として、上下の唇が合わさる部分は連続なエッジになっているという点と、口の周りはテクスチャーが少ないという点が挙げられる。
【0103】
まず、口周りの画像に1次微分フィルター等をかけ、エッジを強調する。エッジ画像に対して、物体境界の特定法(特願2001−173008)を用いれば、上記の2点を生かした口端検出を行うことができる。この物体境界の特定法とは、注目物体は明るく周りは暗い、あるいはその逆の場合に、物体の境界においては、注目画素の輝度とその外側の画素の輝度平均値との差が最大となることから、その最大値をとる画素を物体領域の境界として探索する方法である。
【0104】
従来技術で述べた福井と山口の分離度フィルターを用いて瞳と鼻孔を検出する等して、口端の探索領域を絞り込むことができるので、その探索領域に対して上述の方法を適用すれば、口端を安定して検出することができる。
【0105】
(ポインター表示の自動調整法)
以上は顔向きを計算するために必要な技術であるが、以下では、顔向きの計算結果から、ディスプレイ上にポインターを表示する位置を計算する場合を説明する。
【0106】
ディスプレイ上のポインター表示位置は、顔を平面と見倣し、顔平面から外に向かった法線ベクトルmdをディスプレイに射影することによって求まる。
【0107】
【数9】
ここで、ベクトルdは顔平面から外に向かった法線方向を表す単位ベクトルであり、例えば先に述べたように運動行列から簡単に求めることができる。
【0108】
mはユーザーが動かす顔向きの範囲とディスプレイの大きさとから決まる表示スケールを表す定数である。mの値を大きく設定すれば小さな顔向き角度でディスプレイの端まで動かすことができるし、mの値を小さく設定すればディスプレイの端まで動かすためには大きな角度で顔向きを動かす必要がある。どちらが使い易いかはユーザーによって異なるだけでなく、ディスプレイの大きさにも依存する。従って、ユーザーの顔向きの範囲とポインターの動く範囲を一致させるようなmをユーザーやディスプレイ毎に求める必要がある。
【0109】
まず、ポインター表示の自動調整法について説明する。
【0110】
これは、顔向きの統計を利用して、ポインターの動く範囲を自動調節する方法である。
【0111】
顔向き計算により求まった顔向き結果から、例えば、ディスプレイの水平方向の角度の最大値と最小値、及び、垂直方向の角度の最大値と最小値を更新していき、一定時間が経った時点で、最大角と最小角を向いている場合のポインター位置がディスプレイの四角に表示されるように、ポインター位置の表示スケールmを変化させればよい。
【0112】
ディスプレイの外を向いている場合も考慮するならば、角度の分布をとり、最大値と最小値の代りに中間値から左右に例えば40%ずつ含む領域の最大値と最小値を用いることもできる。
【0113】
このように顔向きの統計を利用することによって、顔向きの範囲を絞り込み、その範囲をディスプレイの大きさに対応させてポインター表示位置を求めれば、ユーザーの顔の動く範囲とポインターの動く範囲とのずれを防ぐことができ、直感と連動した使いやすいものになる。
【0114】
(ポインター表示のユーザー調整法)
ユーザーによるポインター表示の調整方法について説明する。
【0115】
表示スケールmの値をユーザー自身が入力できるようにすれば、実際に様々な値を試しながら表示スケールをユーザーの使い勝手の良いように設定することができる。また、上記の自動調整法により大まかに自動調整されたものを基に、このユーザー調整法により、ユーザーが微調整を行うこともできる。
【0116】
以上に述べたとおり、本発明によれば顔向きを利用したポインター装置20を実現することができる。
【0117】
本実施形態により実現される顔向きポインター表示装置20をPCのカーソル制御に用いれば、PC操作の作業効率を高めることができる。
【0118】
(変更例)
その他にも例えば、家電製品等の入力装置としても利用することができる。
【0119】
また、ディスプレイをいくつかの領域に分け文字を表示し、顔が向いている領域を選択できるような文字入力装置としても利用できる。
【0120】
また、顔向き計算技術単独で考えれば、ポインター装置に限らず、乗り物の運転者、展示物の観客、ゲーム端末の操作者などに対して顔向き計算技術が応用可能である。
【0121】
乗り物の運転者に対しては、顔向き計算により運転に支障となる脇見を検知して警報を鳴らせたり、顔向きに応じて安全運行のための適切な情報を提示することができる。展示物の観客に対しては、顔向き計算により観客の注目している展示を見極めて、その展示に関する情報を自動提示することができる。
【0122】
ゲーム端末の操作者に対しては、顔向き計算によりゲーム環境の視点を変更したり、シューティングの狙いを定めたり、首振り動作を用いて登場人物とのコミュニケーションに役立てたりすることができる。このように、顔向きポインターに関する技術は様々な分野で利用可能である。
【0123】
【発明の効果】
以上述べてきたように、本発明によれば、顔等の物体の特徴点の3次元形状を正確に求め、予め登録しておき、登録した形状行列の一般逆行列を利用することにより、次々と入力される画像から顔向きを高速かつ正確に計算することが可能である。
【0124】
そして、その計算結果から顔が向いているディスプレイ上の位置にポインターを表示することができる。
【図面の簡単な説明】
【図1】顔向きを利用したポインター表示装置の仕組みを表す。点線の矢印は形状登録処理の流れを表し、実線の矢印は顔向き計算処理の流れを表す。
【図2】顔向き計算処理の流れを表す。
【図3】形状登録処理の流れを表す。
【図4】顔向き計算方法を表す。
【図5】口端位置と口周りの画像を表す。
【符号の説明】
1 画像入力部
2 特徴点検出部
3 形状行列登録部
4 一般逆行列格納部
5 顔向き計算部
6 ポインター表示部
Claims (6)
- 物体の向きを計算する物体の向き計算装置であって、
前記物体の特徴点の空間的位置を表す形状行列を予め作成し、この形状行列から一般逆行列を求める一般逆行列計算手段と、
前記物体が撮影された画像を入力する画像入力手段と、
前記画像中から前記物体の特徴点を検出すると共に、これら特徴点から計測行列を作成する特徴点検出手段と、
前記特徴点検出手段で作成された計測行列と、予め作成された前記物体に関する一般逆行列を用いて物体の向きの情報を表す運動行列を計算する物体向き計算手段と、
を有する
ことを特徴とする物体向き計算装置。 - 前記一般逆行列計算手段は、
前記画像入力手段によって物体の様々な向きが撮影された複数の画像を入力し、
前記特徴点検出手段によって、前記各画像から前記物体の特徴点をそれぞれ検出すると共に、これら特徴点からその物体固有の計測行列を1個作成し、
この計測行列から因子分解法を用いて前記物体固有の形状行列を求め、
この形状行列から一般逆行列を求める
ことを特徴とする請求項1記載の物体向き計算装置。 - 前記物体向き計算手段によって計算した人間の顔向き情報を表す運動行列から、その人間の顔が向いているディスプレイ上の点を計算し、その点上にポインターを表示するポインター表示手段を有する
ことを特徴とする請求項1記載の物体向き計算装置。 - 前記ポインター表示手段は、
前記物体向き計算手段で計算した運動行列から顔の向きを示す顔の法線ベクトルを求め、
この法線ベクトルの係数を調整して、ポインターの動く範囲を調節する
ことを特徴とする請求項3記載の物体向き計算装置。 - 物体の向きを計算する物体の向き計算方法であって、
前記物体の特徴点の空間的位置を表す形状行列を予め作成し、この形状行列から一般逆行列を求める一般逆行列計算ステップと、
前記物体が撮影された画像を入力する画像入力ステップと、
前記画像中から前記物体の特徴点を検出すると共に、これら特徴点から計測行列を作成する特徴点検出ステップと、
前記特徴点検出ステップで作成された計測行列と、予め作成された前記物体に関する一般逆行列を用いて物体の向きの情報を表す運動行列を計算する物体向き計算ステップと、
を有する
ことを特徴とする物体向き計算方法。 - 物体の向きを計算する物体の向き計算方法をコンピュータによって実現するプログラムであって、
前記物体の特徴点の空間的位置を表す形状行列を予め作成し、この形状行列から一般逆行列を求める一般逆行列計算機能と、
前記物体が撮影された画像を入力する画像入力機能と、
前記画像中から前記物体の特徴点を検出すると共に、これら特徴点から計測行列を作成する特徴点検出機能と、
前記特徴点検出機能で作成された計測行列と、予め作成された前記物体に関する一般逆行列を用いて物体の向きの情報を表す運動行列を計算する物体向き計算機能と、
を実現する
ことを特徴とする物体向き計算方法のプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001335666A JP3822483B2 (ja) | 2001-10-31 | 2001-10-31 | 物体向き計算装置及びその方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001335666A JP3822483B2 (ja) | 2001-10-31 | 2001-10-31 | 物体向き計算装置及びその方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003141552A JP2003141552A (ja) | 2003-05-16 |
JP3822483B2 true JP3822483B2 (ja) | 2006-09-20 |
Family
ID=19150621
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001335666A Expired - Lifetime JP3822483B2 (ja) | 2001-10-31 | 2001-10-31 | 物体向き計算装置及びその方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3822483B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8401253B2 (en) | 2009-05-28 | 2013-03-19 | Kabushiki Kaisha Toshiba | Distinguishing true 3-d faces from 2-d face pictures in face recognition |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4185019B2 (ja) * | 2004-05-13 | 2008-11-19 | 株式会社東芝 | 音声出力付き表示装置 |
JP2005339288A (ja) | 2004-05-27 | 2005-12-08 | Toshiba Corp | 画像処理装置及びその方法 |
JP4216824B2 (ja) | 2005-03-07 | 2009-01-28 | 株式会社東芝 | 3次元モデル生成装置、3次元モデル生成方法および3次元モデル生成プログラム |
JP4991317B2 (ja) | 2006-02-06 | 2012-08-01 | 株式会社東芝 | 顔特徴点検出装置及びその方法 |
JP4585471B2 (ja) | 2006-03-07 | 2010-11-24 | 株式会社東芝 | 特徴点検出装置及びその方法 |
JP4936491B2 (ja) * | 2006-07-18 | 2012-05-23 | 株式会社国際電気通信基礎技術研究所 | 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム |
US8107735B2 (en) | 2007-04-10 | 2012-01-31 | Denso Corporation | Three dimensional shape reconstitution device and estimation device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09251342A (ja) * | 1996-03-15 | 1997-09-22 | Toshiba Corp | 注視箇所推定装置とその方法及びそれを使用した情報表示装置とその方法 |
JPH11120364A (ja) * | 1997-10-13 | 1999-04-30 | Nippon Telegr & Teleph Corp <Ntt> | 特徴点追跡装置 |
JP2001245323A (ja) * | 2000-02-29 | 2001-09-07 | Minolta Co Ltd | 3次元入力方法および装置 |
-
2001
- 2001-10-31 JP JP2001335666A patent/JP3822483B2/ja not_active Expired - Lifetime
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8401253B2 (en) | 2009-05-28 | 2013-03-19 | Kabushiki Kaisha Toshiba | Distinguishing true 3-d faces from 2-d face pictures in face recognition |
Also Published As
Publication number | Publication date |
---|---|
JP2003141552A (ja) | 2003-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4473754B2 (ja) | 仮想試着装置 | |
JP6560480B2 (ja) | 画像処理システム、画像処理方法、及びプログラム | |
JP7094702B2 (ja) | 画像処理装置及びその方法、プログラム | |
Rekimoto | Matrix: A realtime object identification and registration method for augmented reality | |
US8571258B2 (en) | Method of tracking the position of the head in real time in a video image stream | |
WO2016011834A1 (zh) | 一种图像处理方法及系统 | |
Tomioka et al. | Approximated user-perspective rendering in tablet-based augmented reality | |
JP4916548B2 (ja) | 画像のドミナントライン(dominantline)の確定及び使用 | |
JP5439787B2 (ja) | カメラ装置 | |
US20010000025A1 (en) | Method and apparatus for personnel detection and tracking | |
JPH11259660A (ja) | 三次元動作復元システム | |
KR20150079585A (ko) | 일련의 2d 이미지로부터 정확한 신체 사이즈 치수를 도출하는 시스템 및 방법 | |
CN112657176A (zh) | 一种结合人像行为信息的双目投影人机交互方法 | |
JP3822483B2 (ja) | 物体向き計算装置及びその方法 | |
JP2017194301A (ja) | 顔形状測定装置及び方法 | |
CN112912936A (zh) | 混合现实系统、程序、移动终端装置和方法 | |
CN109978956A (zh) | 采集设备的标定方法、装置及标定系统 | |
US11080920B2 (en) | Method of displaying an object | |
CN110288714B (zh) | 一种虚拟仿真实验系统 | |
RU2601169C1 (ru) | Способ и устройство для взаимодействия с виртуальными объектами | |
JP2000268161A (ja) | 実時間表情検出装置 | |
JPH07160412A (ja) | 指示位置検出方法 | |
Oka et al. | Real-time modeling of face deformation for 3D head pose estimation | |
JP2019046096A (ja) | 情報処理装置及びその方法 | |
CN108765556B (zh) | 一种基于改进粒子群算法的动态3d实时建模方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060411 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060523 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060622 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 3822483 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090630 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100630 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100630 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110630 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120630 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120630 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130630 Year of fee payment: 7 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |