JP2003141552A - Object direction calculation device and method - Google Patents

Object direction calculation device and method

Info

Publication number
JP2003141552A
JP2003141552A JP2001335666A JP2001335666A JP2003141552A JP 2003141552 A JP2003141552 A JP 2003141552A JP 2001335666 A JP2001335666 A JP 2001335666A JP 2001335666 A JP2001335666 A JP 2001335666A JP 2003141552 A JP2003141552 A JP 2003141552A
Authority
JP
Japan
Prior art keywords
matrix
orientation
face
image
general inverse
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001335666A
Other languages
Japanese (ja)
Other versions
JP3822483B2 (en
Inventor
Akiko Nakajima
朗子 中島
Tsugumi Yamada
貢己 山田
Atsuto Maki
淳人 牧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2001335666A priority Critical patent/JP3822483B2/en
Publication of JP2003141552A publication Critical patent/JP2003141552A/en
Application granted granted Critical
Publication of JP3822483B2 publication Critical patent/JP3822483B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships

Abstract

PROBLEM TO BE SOLVED: To provide a pointer display device for rapidly and accurately calculating face direction from images inputted one after another by accurately determining and registering the three-dimensional configurations of the characteristic points of the face, and utilizing the general inverse matrix of the registered configuration matrix. SOLUTION: Images of users with various face directions are inputted by an image input part 1. A characteristic point detecting part 2 detects P characteristic points of each image and obtains a measurement matrix W therefrom. Next, a configuration matrix registering part 3 determines a configuration matrix S from the measurement matrix W and registers it. When a particular user uses a pointer on a personal computer, the direction of the user's face needs to be detected. An image of the user's face is taken and inputted by the image input part 1 while the user is explaining. P characteristic points are detected from the image and a measurement matrix Wnew is obtained therefrom. The general inverse matrix is obtained from the registered configuration matrix S and a movement matrix Mnew showing the face direction is obtained from the general inverse matrix and the measurement matrix Wnew .

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、CCDカメラ等で
撮影された動画像を入力し、その画像から、顔の三次元
向きを実時間で計算し、ディスプレイ上に顔が向いてい
る位置を表示する技術分野に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention inputs a moving image captured by a CCD camera or the like, calculates the three-dimensional orientation of the face in real time from the image, and determines the position of the face on the display. Related to the technical field to display.

【0002】[0002]

【従来の技術】パソコン等を操作する場合、ディスプレ
イ上のカーソルを動かすためにマウスが広く利用されて
いる。操作者にとって、カーソルを動かすためにキーボ
ードに置いた手をマウスに移動することは、スムーズな
仕事の流れを阻害する動作である。ノートPCでは、ア
キュポイント、トラックパッド等を用いてキーボードか
ら手を大きく移動させることなくカーソルを動かすこと
ができるが、使い慣れるまでに時間がかかったり、広い
範囲を動かす場合には不便であること等から、結局マウ
スを取り付けるということも少なくない。
2. Description of the Related Art When operating a personal computer or the like, a mouse is widely used to move a cursor on a display. For the operator, moving the hand placed on the keyboard to move the cursor to the mouse is an operation that impedes smooth work flow. On a notebook PC, you can use the AccuPoint, trackpad, etc. to move the cursor without having to move your hands significantly from the keyboard, but it takes time to get used to it, and it is inconvenient if you move a wide range. Therefore, it is not uncommon to attach a mouse after all.

【0003】そのために、もし顔を動かすことによって
カーソルを移動させることができれば、キーボードに置
いた手を動かすことなく、仕事を効率的に進めることが
できるだけでなく、広い範囲に渡って動かすことも無理
無くできる。また、顔の向きは人間の注意の方向をあら
わすため、顔の向きでカーソルを動かすことは、人間の
直感に合った動作であると考えられる。
[0003] Therefore, if the cursor can be moved by moving the face, not only the work placed on the keyboard can be moved efficiently but also the work can be performed over a wide range. You can do it without difficulty. Further, since the direction of the face represents the direction of human attention, it is considered that moving the cursor in the direction of the face is a motion suitable for human intuition.

【0004】しかしながら、まだそのような顔向きを利
用したポインター表示技術は確立されていない。これを
実現するためには、顔向きを実時間で精密に求めること
が必要になる。
However, a pointer display technique utilizing such face orientation has not been established yet. In order to realize this, it is necessary to accurately obtain the face orientation in real time.

【0005】従来の顔向き計算方法には、大きく分けて
2通りの方法がある。
The conventional face orientation calculation methods are roughly classified into two types.

【0006】第1の従来方法は、向き毎の顔画像パター
ンをそのまま或いは次元圧縮してテンプレートとし、顔
全体のパターンマッチングにより最もマッチしたテンプ
レートに対応する向きを顔の向きと判定する方法であ
る。
The first conventional method is a method in which a face image pattern for each orientation is directly or dimensionally compressed as a template, and the orientation corresponding to the most matched template is determined as the orientation of the face by pattern matching of the entire face. .

【0007】第2の従来方法は、目鼻口などの顔の特徴
点を検出してそれらの画像座標を用いて幾何学的に向き
を計算する方法である。
The second conventional method is a method of detecting feature points of the face such as the eyes, nose and mouth, and geometrically calculating the orientation using the image coordinates of these.

【0008】以降、第1の従来方法をパターンベースの
方法、第2の従来方法を特徴点ベースの方法とよぶこと
にする。
Hereinafter, the first conventional method will be referred to as a pattern-based method, and the second conventional method will be referred to as a feature point-based method.

【0009】パターンスペースの方法は、顔向き計算を
パターン分類問題として扱っているため、顔向きの結果
が離散値で出力され、そのままでは精度が低い。連続値
として求めるためには、補間等の処理が別途必要にな
る。このような方法は、顔向きを精密かつ高速に求める
必要のあるポインター等への応用には不向きである。
Since the pattern space method handles face orientation calculation as a pattern classification problem, the face orientation result is output as discrete values, and the accuracy is low as it is. In order to obtain a continuous value, processing such as interpolation is required separately. Such a method is not suitable for application to a pointer or the like, which requires accurate and high-speed face orientation determination.

【0010】それに対して、特徴点ベースの方法は、特
徴点の座標が正確に求まりさえすれば顔向きも正確に連
続値で計算できる精密な方法である。
On the other hand, the feature point-based method is a precise method in which the face orientation can be accurately calculated as continuous values as long as the coordinates of the feature points are accurately obtained.

【0011】その中でも代表的な優れた手法がToma
siと金出によって1991年に提案された因子分解法
である(Tomasi.C.and T.Kanad
e:Technical Report CMU−CS
−91−172,CMU(1991);Interna
tionalJournal of Computer
Vision,9:2,137−154(199
2))。
Among them, a typical excellent method is Toma.
This is a factorization method proposed by Si and Kanade in 1991 (Tomasi. C. and T. Kanad.
e: Technical Report CMU-CS
-91-172, CMU (1991); Interna
regionalJournal of Computer
Vision, 9: 2, 137-154 (199
2)).

【0012】この手法では、カメラパラメータを求める
必要がなく、複数フレームの2次元画像から3次元形状
と各フレームの向きを求めることができる。しかし、複
数フレームをまとめて計算するため、バッチ処理には有
用だが、処理したい画像が次々に入力されるようなオン
ライン処理には向かない。
With this method, it is not necessary to obtain camera parameters, and it is possible to obtain the three-dimensional shape and the orientation of each frame from the two-dimensional images of a plurality of frames. However, it is useful for batch processing because it calculates multiple frames collectively, but it is not suitable for online processing in which images to be processed are input one after another.

【0013】これを実時間処理に対応させるため、藤木
と蔵田によって逐次型因子分解法が提案された(藤木、
蔵田:電子情報通信学会論文誌、J84−D−II:8,
1663−1673(2001))。
In order to handle this in real-time processing, Fujiki and Kurata proposed a recursive factorization method (Fujiki,
Kurata: Transactions of the Institute of Electronics, Information and Communication Engineers, J84-D-II: 8,
1663-1673 (2001)).

【0014】この手法では、バッチ処理の因子分解法に
比べ処理時間を10分の1に減らすことができるが、特
徴点検出等の処理時間も合わせると更なる高速化が必要
である。また、新しいフレーム毎に得られる向きと3次
元形状を次フレームの向き計算に利用するため、誤差が
蓄積される可能性もある。
With this method, the processing time can be reduced to 1/10 of that of the factorization method of batch processing, but further speeding up is required if the processing time for feature point detection is also added. Further, since the orientation and the three-dimensional shape obtained for each new frame are used for the orientation calculation of the next frame, an error may be accumulated.

【0015】特徴点ベースの顔向き計算を行う場合、顔
の特徴点を安定して検出する必要がある。
When performing face direction calculation based on feature points, it is necessary to stably detect face feature points.

【0016】特徴点検出の従来手法も大きく分けて2通
りの方法がある。
Conventional methods for detecting feature points are roughly classified into two methods.

【0017】第1の従来方法は、コーナー検出を行った
後、各フレームで検出されたコーナー同士の対応をフレ
ーム間で取るという方法である。
The first conventional method is a method in which after corners are detected, correspondence between the corners detected in each frame is obtained between the frames.

【0018】この場合、どの特徴点が得られるかは照明
条件等の環境の変化や個人によって異なる。また、得ら
れた特徴点は必ずしも目・鼻・口等とは一致しない。
In this case, which feature point is obtained depends on changes in environment such as lighting conditions and individuals. In addition, the obtained feature points do not always match the eyes, nose, mouth, etc.

【0019】第2の従来方法は、検出したい特徴点を予
め決めておき、その性質を利用して検出する方法であ
る。例えば、顔の特徴点としては、目・鼻・口等がよく
用いられる。
The second conventional method is a method in which the characteristic point to be detected is determined in advance and the characteristic is used for detection. For example, eyes, nose, mouth, etc. are often used as facial feature points.

【0020】福井と山口は、瞳や鼻孔が円形をしている
ことから、円形の分離度フィルターを利用して瞳や鼻孔
を安定して検出できることを示している(福井、山口:
電子情報通信学会論文誌、J80−D−II:8,217
0−2177(1977))。
Since Fukui and Yamaguchi have circular eyes and nostrils, they have shown that the pupils and nostrils can be stably detected using a circular resolution filter (Fukui and Yamaguchi:
IEICE Transactions, J80-D-II: 8,217
0-2177 (1977)).

【0021】口の端、即ち、上唇と下唇の接合部を口端
とよぶが、口端にも分離度フィルターを利用することが
できる。しかし、口端の形状自体が個人差があるなど不
安定なため、形状を利用して検出を行う分離度フィルタ
ーはあまり向いていない。
The end of the mouth, that is, the joint between the upper lip and the lower lip is called the mouth end, and a separability filter can be used at the mouth end. However, since the shape of the mouth end itself is unstable due to individual differences, etc., a separability filter that performs detection using the shape is not well suited.

【0022】顔向きが求まった後、得られた顔向き結果
からポインターを表示する位置を計算しなければならな
いが、大きな顔の動きでポインターを動かしたい場合や
逆に小さな動きでもポインターが動くようにしたい場合
等、ユーザーやポインターの表示領域によって、使い易
さの基準も異なる。ユーザーにとって使い易いポインタ
ー装置を実現するためには、顔を動かす範囲とポインタ
ー表示領域とを一致させればよいと考えられる。しか
し、そのような技術はまだ存在しない。
After the face orientation is obtained, the position where the pointer is displayed has to be calculated from the obtained face orientation result. However, if the user wants to move the pointer with a large facial movement, or conversely, the pointer may move even with a small movement. The user-friendliness criteria differ depending on the user and the display area of the pointer. In order to realize a pointer device that is easy for the user to use, it is conceivable that the range in which the face is moved matches the pointer display area. However, such technology does not exist yet.

【0023】[0023]

【発明が解決しようとする課題】そこで、本発明の課題
は、顔向きを利用したポインター表示装置の実現、及
び、そのために必要な要素技術の確立である。
SUMMARY OF THE INVENTION Therefore, an object of the present invention is to realize a pointer display device using face orientation and to establish elemental technology necessary for that purpose.

【0024】その要素技術の中でも最も核となる課題
は、入力される動画像から実時間で顔の向きを精密に計
算することである。
The most important task of the elemental technologies is to accurately calculate the orientation of the face in real time from the input moving image.

【0025】顔の向きをポインター等の動きに連動させ
るような場合、顔の向きを連続値として求める必要があ
る。
When the direction of the face is interlocked with the movement of the pointer or the like, it is necessary to obtain the direction of the face as a continuous value.

【0026】本発明では、従来技術で述べたように顔向
きが離散値で求まるパターンマッチングの方式ではな
く、連続値で求まる特徴点ベースの方式を採用する。
In the present invention, a feature point-based method that obtains continuous values is adopted instead of the pattern matching method that obtains face directions by discrete values as described in the prior art.

【0027】この場合、顔の特徴点を安定して検出する
ことも重要な課題である。さらに、顔向きの計算結果か
らポインターの表示位置を計算する場合、ユーザーの顔
向きの範囲とポインターの動く範囲を一致させる等し
て、ユーザーの直感に合わせて使い易くすることも本発
明の課題の一つである。
In this case, stable detection of facial feature points is also an important issue. Further, when the display position of the pointer is calculated from the calculation result of the face orientation, it is also an object of the present invention to make the user's intuition easy to use by matching the range of the user's face orientation with the range of movement of the pointer. one of.

【0028】[0028]

【課題を解決するための手段】請求項1の発明は、物体
の向きを計算する物体の向き計算装置であって、前記物
体の特徴点の空間的位置を表す形状行列を予め作成し、
この形状行列から一般逆行列を求める一般逆行列計算手
段と、前記物体が撮影された画像を入力する画像入力手
段と、前記画像中から前記物体の特徴点を検出すると共
に、これら特徴点から計測行列を作成する特徴点検出手
段と、前記特徴点検出手段で作成された計測行列と、予
め作成された前記物体に関する一般逆行列を用いて物体
の向きの情報を表す運動行列を計算する物体向き計算手
段と、を有することを特徴とする物体向き計算装置であ
る。
According to a first aspect of the present invention, there is provided an object orientation calculation device for calculating an orientation of an object, wherein a shape matrix representing a spatial position of a feature point of the object is created in advance,
General inverse matrix calculating means for obtaining a general inverse matrix from this shape matrix, image input means for inputting an image of the object, and characteristic points of the object are detected from the image and measured from these characteristic points. Object direction for calculating a motion matrix expressing the information of the direction of the object by using a feature point detecting means for creating a matrix, a measurement matrix created by the feature point detecting means, and a general inverse matrix for the object created in advance An object orientation calculation apparatus comprising: a calculation unit.

【0029】請求項2の発明は、前記一般逆行列計算手
段は、前記画像入力手段によって物体の様々な向きが撮
影された複数の画像を入力し、前記特徴点検出手段によ
って、前記各画像から前記物体の特徴点をそれぞれ検出
すると共に、これら特徴点からその物体固有の計測行列
を1個作成し、この計測行列から因子分解法を用いて前
記物体固有の形状行列を求め、この形状行列から一般逆
行列を求めることを特徴とする請求項1記載の物体向き
計算装置である。
According to a second aspect of the present invention, the general inverse matrix calculating means inputs a plurality of images in which various directions of the object are photographed by the image inputting means, and the feature point detecting means extracts from each of the images. The feature points of the object are respectively detected, and one measurement matrix peculiar to the object is created from these feature points, and the shape matrix peculiar to the object is obtained from this measurement matrix by using the factorization method. The object orientation calculation apparatus according to claim 1, wherein a general inverse matrix is obtained.

【0030】請求項3の発明は、前記物体向き計算手段
によって計算した人間の顔向き情報を表す運動行列か
ら、その人間の顔が向いているディスプレイ上の点を計
算し、その点上にポインターを表示するポインター表示
手段を有することを特徴とする請求項1記載の物体向き
計算装置である。
According to a third aspect of the present invention, a point on the display to which the human face faces is calculated from the motion matrix representing the human face direction information calculated by the object direction calculating means, and a pointer is placed on the point. 2. The object orientation calculation apparatus according to claim 1, further comprising pointer display means for displaying.

【0031】請求項4の発明は、前記ポインター表示手
段は、前記物体向き計算手段で計算した運動行列から顔
の向きを示す顔の法線ベクトルを求め、この法線ベクト
ルの係数を調整して、ポインターの動く範囲を調節する
ことを特徴とする請求項1記載の物体向き計算装置であ
る。
According to a fourth aspect of the present invention, the pointer display means obtains a face normal vector indicating the face orientation from the motion matrix calculated by the object orientation calculation means, and adjusts the coefficient of the normal vector. 2. The object orientation calculation apparatus according to claim 1, wherein the moving range of the pointer is adjusted.

【0032】請求項5の発明は、顔の特徴点を検出する
特徴点検出装置であって、口の連続なエッジと、前記口
のエッジに比べて輝度が明るい口周りの輝度とに基づい
て、口端を表す特徴点を検出することを特徴とする特徴
点検出装置である。
According to a fifth aspect of the present invention, there is provided a feature point detecting device for detecting a feature point of a face, which is based on continuous edges of the mouth and brightness around the mouth whose brightness is brighter than the edges of the mouth. A feature point detection device characterized by detecting a feature point representing a mouth end.

【0033】請求項6の発明は、物体の向きを計算する
物体の向き計算方法であって、前記物体の特徴点の空間
的位置を表す形状行列を予め作成し、この形状行列から
一般逆行列を求める一般逆行列計算ステップと、前記物
体が撮影された画像を入力する画像入力ステップと、前
記画像中から前記物体の特徴点を検出すると共に、これ
ら特徴点から計測行列を作成する特徴点検出ステップ
と、前記特徴点検出ステップで作成された計測行列と、
予め作成された前記物体に関する一般逆行列を用いて物
体の向きの情報を表す運動行列を計算する物体向き計算
ステップと、を有することを特徴とする物体向き計算方
法である。
A sixth aspect of the present invention is an object orientation calculation method for calculating the orientation of an object, wherein a shape matrix representing the spatial position of the feature points of the object is created in advance, and a general inverse matrix is created from this shape matrix. A general inverse matrix calculation step for obtaining the object, an image input step for inputting an image in which the object is photographed, feature points of the object are detected from the image, and feature point detection for creating a measurement matrix from these feature points Step, the measurement matrix created in the feature point detection step,
And an object orientation calculation step of calculating a motion matrix representing the orientation information of the object using a general inverse matrix created in advance for the object, the object orientation calculation method.

【0034】請求項7の発明は、物体の向きを計算する
物体の向き計算方法をコンピュータによって実現するプ
ログラムであって、前記物体の特徴点の空間的位置を表
す形状行列を予め作成し、この形状行列から一般逆行列
を求める一般逆行列計算機能と、前記物体が撮影された
画像を入力する画像入力機能と、前記画像中から前記物
体の特徴点を検出すると共に、これら特徴点から計測行
列を作成する特徴点検出機能と、前記特徴点検出機能で
作成された計測行列と、予め作成された前記物体に関す
る一般逆行列を用いて物体の向きの情報を表す運動行列
を計算する物体向き計算機能と、を実現することを特徴
とする物体向き計算方法のプログラムである。
According to a seventh aspect of the present invention, there is provided a program for realizing an object orientation calculation method for calculating an orientation of an object by a computer, wherein a shape matrix representing a spatial position of a feature point of the object is created in advance, and A general inverse matrix calculation function for obtaining a general inverse matrix from a shape matrix, an image input function for inputting an image in which the object is photographed, a feature point of the object is detected from the image, and a measurement matrix is obtained from these feature points. An object orientation calculation for calculating a motion matrix representing the orientation information of an object using a feature point detection function for creating a measurement matrix created by the feature point detection function, and a general inverse matrix for the object created in advance It is a program of an object orientation calculation method characterized by realizing functions and.

【0035】[0035]

【発明の実施の形態】以下、本発明の顔向き計算結果を
利用したポインター装置の実施形態について、図面に基
づいて説明する。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of a pointer device using the face orientation calculation result of the present invention will be described below with reference to the drawings.

【0036】1.ポインター装置20の構成 図1は、顔向き計算結果を利用したポインター装置20
の構成を示すブロック図である。
1. Configuration of Pointer Device 20 FIG. 1 shows a pointer device 20 using a face orientation calculation result.
3 is a block diagram showing the configuration of FIG.

【0037】ポインター装置20は、CCDカメラ等か
ら動画像や静止画像を入力する画像入力部1と、入力画
像中から特徴点を検出する特徴点検出部2と、形状行列
登録部3と、一般逆行列格納部4と、特徴点検出部2で
検出された特徴点と一般逆行列格納部4で格納されてい
る形状行列の一般逆行列を用いて顔の向きを計算する顔
向き計算部5と、顔向き計算部5の顔向き計算結果から
顔が向いているディスプレイ上の点を計算し、その点上
にポインターを表示するポインター表示部6とから成
る。
The pointer device 20 includes an image input unit 1 for inputting a moving image or a still image from a CCD camera, a feature point detecting unit 2 for detecting feature points in the input image, a shape matrix registering unit 3, and a general matrix. An inverse matrix storage unit 4, and a face orientation calculation unit 5 that calculates a face orientation using the feature points detected by the feature point detection unit 2 and the general inverse matrix of the shape matrix stored in the general inverse matrix storage unit 4. And a pointer display unit 6 for calculating a point on the display where the face is facing from the face direction calculation result of the face direction calculation unit 5 and displaying a pointer on the calculated point.

【0038】これら各構成の機能は、コンピュータに記
憶されたプログラムによって実行されるものである。
The function of each of these components is executed by a program stored in the computer.

【0039】画像入力部1と特徴点検出部2と形状行列
登録部3によって、形状行列登録方法が実行される。
The image input unit 1, the feature point detection unit 2, and the shape matrix registration unit 3 execute the shape matrix registration method.

【0040】また、一般逆行列格納部4と画像入力部1
と特徴点検出部2と顔向き計算部5によって、顔向き計
算方法が実行される。
Further, the general inverse matrix storage unit 4 and the image input unit 1
The feature point detection unit 2 and the face orientation calculation unit 5 execute the face orientation calculation method.

【0041】特徴点検出部2によって、口端検出の方法
や目・鼻・ほくろ等他の特徴点検出方法が実行される。
The feature point detection unit 2 executes the method of detecting the mouth edge and other feature point detection methods such as eyes, nose, and moles.

【0042】ポインター表示部6によって、ポインター
表示の自動調整法や、ポインター表示のユーザー調整法
が実行される。
The pointer display unit 6 executes an automatic adjustment method for pointer display and a user adjustment method for pointer display.

【0043】このようなシステムによって、各要素技術
を実施し、それらの結果を統合することにより、顔向き
を利用したポインター表示装置20が実現される。
With such a system, the pointer display device 20 utilizing the face orientation is realized by implementing each elemental technique and integrating the results.

【0044】簡単に、ポインター装置20によって顔向
き計算結果を求めるまでを説明する。
A brief description will be given of how the face orientation calculation result is obtained by the pointer device 20.

【0045】まず、準備としてユーザの形状行列を予め
登録しておく。これは、各ユーザ毎に様々な顔の向きを
撮影した画像を画像入力部1で入力する。
First, as a preparation, the shape matrix of the user is registered in advance. For this, the image input unit 1 inputs images obtained by shooting various face orientations for each user.

【0046】次に、特徴点検出部2によって、その画像
の特徴点をP個検出して、それから計測行列Wを求め
る。
Next, the characteristic point detecting section 2 detects P characteristic points of the image and obtains the measurement matrix W from them.

【0047】次に、形状行列登録部3によって、この計
測行列Wからユーザ固有の形状行列Sを求めて登録して
おく。
Next, the shape matrix registration unit 3 obtains and registers a user-specific shape matrix S from this measurement matrix W.

【0048】パソコンにおいて特定のユーザがポインタ
ーを使用する場合に、そのユーザの顔向きを検出する必
要がある。その時は、画像入力部1によって使用中のユ
ーザの顔を撮影して画像を入力する。この画像から特徴
点をP個検出して、それから計測行列Wnewを求め
る。そして、上記で予め登録してある形状行列Sから一
般逆行列を求めて、この一般逆行列と前記計測行列W
newから顔向きを表す運動行列Mnewを求める。
When a specific user uses a pointer on a personal computer, it is necessary to detect the face orientation of the user. At that time, the image input unit 1 captures the face of the user in use and inputs the image. P feature points are detected from this image, and a measurement matrix W new is obtained from the detected P feature points. Then, a general inverse matrix is obtained from the shape matrix S registered in advance above, and the general inverse matrix and the measurement matrix W are obtained.
A motion matrix M new representing the face orientation is calculated from new .

【0049】2.因子分解法の説明 まず、計測行列から形状行列を求める因子分解法を説明
する。
2. Description of factorization method First, a factorization method for obtaining a shape matrix from a measurement matrix will be described.

【0050】ここでは、説明を簡便にするため正射影モ
デルを仮定するが、弱中心射影モデルや疑似中心射影モ
デル等にも拡張できる。
Here, an orthographic projection model is assumed for simplicity of explanation, but it can be extended to a weak central projection model, a pseudo central projection model, or the like.

【0051】フレーム数をF、特徴点数をPとする。f
フレーム目の画像における特徴点の座標を{(ufp
fp)|p=1,…,P}、重心座標を(uC
vC )で表す。特徴点の座標から重心座標を引いた
ものを
Let F be the number of frames and P be the number of characteristic points. f
The coordinates of the feature point in the frame image are {(ufp
vfp) | P = 1, ..., P}, and the barycentric coordinate is (uCf
vC f). The barycentric coordinates were subtracted from the coordinates of the feature points
Things

【数1】 [Equation 1]

【数2】 とし、2F×P行列をW=〔wij〕で定義する。これ
は計測行列とよばれる。この計測行列と、カメラの運動
を表す運動行列Mと特徴点の空間的位置を表す形状行列
Sとは
[Equation 2] And the 2F × P matrix is defined by W = [w ij ]. This is called the measurement matrix. The measurement matrix, the motion matrix M representing the motion of the camera, and the shape matrix S representing the spatial position of the feature point are

【数3】 の関係が成り立つ。[Equation 3] The relationship is established.

【0052】Mはfフレーム目のカメラの座標軸の基底
ベクトルi,jの転置を上から順に並べた2F
×3行列、Sはp個の特徴点の重心を原点とした三次元
座標を左から順に並べた3×P行列であり、共にランク
は3以下である。このことと特異値分解を利用して、W
が与えられた場合、Wを式(3)のように分解し、M,
Sを求める方法が前述のTomasiと金出の因子分解
法である。
[0052] M is arranged basis vector i f of the coordinate axes of the f-th frame of the camera, from the top of the transpose of the j f in order 2F
A × 3 matrix, S is a 3 × P matrix in which three-dimensional coordinates with the centroids of p feature points as the origins are arranged in order from the left, and both ranks are 3 or less. Using this and singular value decomposition, W
When W is given, W is decomposed as in equation (3), and M,
The method of obtaining S is the above-mentioned factorization method of Tomasi and Kinade.

【0053】この因子分解法では、処理したい画像をま
とめて扱うため、次々と新しい画像が入力されるような
場面には適さない。しかしながらバッチ処理に対して
は、カメラパラメータを求めることなく注目物体の向き
と特徴点の三次元形状を復元することができる、大変優
れた手法である。
In this factorization method, since the images to be processed are handled together, they are not suitable for situations where new images are input one after another. However, for batch processing, it is a very excellent method that can restore the orientation of the target object and the three-dimensional shape of the feature points without obtaining camera parameters.

【0054】3.形状行列の登録方法 次に、この因子分解法をバッチ処理で用いて特徴点の形
状行列を求め登録しておく方法を図3に基づいて説明す
る。この形状行列は、ユーザ毎に1個を形状行列登録部
3に登録するものである。
3. Method of Registering Shape Matrix Next, a method of obtaining and registering a shape matrix of feature points by using this factorization method in batch processing will be described with reference to FIG. This shape matrix is registered in the shape matrix registration unit 3 for each user.

【0055】図3に形状登録処理の流れの一例を示す。FIG. 3 shows an example of the flow of shape registration processing.

【0056】最初に、登録フレーム数を初期化する。す
なわち、f=0とする(step7)。
First, the number of registered frames is initialized. That is, f = 0 is set (step 7).

【0057】次に、登録したいユーザの様々な顔向きの
画像を撮影するために、ユーザーが顔を向けてほしいデ
ィスプレイ上の位置にポインターをポインター表示部6
によって表示し、そのユーザーの注意を喚起する(st
ep8)。
Next, in order to photograph various face-oriented images of the user who wants to register, the pointer is displayed at the position on the display where the user wants his or her face to face.
To display the user's attention (st
ep8).

【0058】ユーザーがポインター方向に顔を向けたら
画像入力部1のCCDカメラで撮影する(step
9)。
When the user turns his / her face in the direction of the pointer, the CCD camera of the image input section 1 is used to take an image (step
9).

【0059】特徴点検出部2が、その入力画像からP個
の特徴点を検出する(step10)。
The characteristic point detecting section 2 detects P characteristic points from the input image (step 10).

【0060】これを繰り返し、形状を求めるために必要
なフレーム数fの画像を撮影する(step13)。
By repeating this, an image of the number of frames f required to obtain the shape is photographed (step 13).

【0061】特徴点検出部2が、フレーム数fの画像に
対応するP個(P>=4)の特徴点から計測行列Wを求
める。そして、形状行列登録部3が、その計測行列Wに
因子分解法を適用して運動行列Mと形状行列Sを求め
て、Sを登録する(step14)。
The feature point detection unit 2 obtains the measurement matrix W from P (P> = 4) feature points corresponding to the image of the frame number f. Then, the shape matrix registration unit 3 applies the factorization method to the measurement matrix W to obtain the motion matrix M and the shape matrix S, and registers S (step 14).

【0062】この形状行列Sは、登録したいユーザ固有
のものである。したがって、ユーザが複数人の場合に
は、それぞれのユーザ毎に形状行列を登録する。
This shape matrix S is unique to the user who wants to register. Therefore, when there are a plurality of users, the shape matrix is registered for each user.

【0063】また、形状行列Sの作成は、上記したよう
に、複数のフレーム数f(f>=3)に基づいて作成す
る必要がある。これは式(3)を計算するために必要な
ためである。
The shape matrix S needs to be created based on a plurality of frame numbers f (f> = 3) as described above. This is because it is necessary to calculate the equation (3).

【0064】なお、step8のポインターには、キャ
ラクターを表示しても良いし、音声で方向を知らせるこ
ともできる。
A character may be displayed on the pointer of step 8 or the direction can be notified by voice.

【0065】また、step10で特徴点検出の結果を
表示し、検出結果が正しくない場合はそのフレームを使
わない等、検出結果を確認すれば、確実に精度の高い形
状行列を求めることができる。
If the result of feature point detection is displayed in step 10, and if the detection result is not correct, the frame is not used, and the detection result is confirmed, it is possible to reliably obtain a highly accurate shape matrix.

【0066】また、ポインターを動かしユーザーがそれ
を追う間に必要なフレーム数の撮影を行い、撮影後にま
とめて特徴点検出と形状復元を行うこともできる。
Further, it is also possible to move the pointer and photograph a required number of frames while the user follows the pointer, and perform feature point detection and shape restoration collectively after the photographing.

【0067】4.顔向き計算方法 次に、登録した形状行列を使って、処理したい画像が入
力される場合に向きを実時間で求める計算方法について
説明する。
4. Face Orientation Calculation Method Next, a calculation method for obtaining the orientation in real time when the image to be processed is input using the registered shape matrix will be described.

【0068】まず、画像入力部1で、顔の向きを求めた
い画像を入力する。
First, the image input unit 1 inputs an image for which the face orientation is desired.

【0069】次に、上記と同様に特徴点検出部2で、P
個の特徴点を求め、その特徴点から計測行列Wnew
を求める。
Next, in the same way as described above, the feature point detection unit 2 performs P
Individual feature points are obtained, and the measurement matrix W new is calculated from the feature points.
Ask for.

【0070】式(3)は画像上の特徴点座標とその空間
的位置とカメラ軸の関係をFフレームまとめて表現した
ものである。これは1フレームのみに対しても成り立
つ。
Expression (3) expresses the relationship between the coordinates of the characteristic points on the image, the spatial position thereof, and the camera axis in F frames. This holds even for only one frame.

【0071】そして、顔向きを求めたい新しい1枚の画
像の計測行列と運動行列をWnew ,Mnew で表
し、ユーザーの顔の特徴点の3次元形状は不変なので既
に登録してある形状行列Sを用いる。
Then, a new image for which the face orientation is desired
W is the measurement matrix and motion matrix of the imagenew , MnewTable
However, since the 3D shape of the user's facial feature points is
The shape matrix S registered in is used.

【0072】そして、形状行列登録部3に登録されてい
る形状行列の中から、そのユーザに対応する形状行列S
を呼び出してくる。
The shape matrix S corresponding to the user is selected from the shape matrices registered in the shape matrix registration unit 3.
Call.

【0073】また、この顔向き計算方法における入力画
像、すなわち、フレーム数は1でよく、この1個のフレ
ーム数の特徴点から求めた計測行列Wnew を用い
る。これは、上記の形状行列の登録方法では、3個以上
のフレーム数fを必要としたが、顔向き計算方法では、
式(3)を計算する必要がなく、式(8)を計算すれば
よいだけだからである。
The input image in this face orientation calculation method, that is, the number of frames may be 1, and the measurement matrix W new obtained from the feature points of this one frame is used. This requires three or more frame numbers f in the above-described shape matrix registration method, but in the face orientation calculation method,
This is because it is not necessary to calculate the formula (3), and it is sufficient to calculate the formula (8).

【0074】但し、新しい1枚の画像から求められる特
徴点の数は、予め登録してある形状行列を作成する際
に、用いた特徴点の数Pと同じ数でなければならない。
数が異なる場合は、後述する。
However, the number of feature points obtained from one new image must be the same as the number P of feature points used when creating the previously registered shape matrix.
If the numbers are different, it will be described later.

【0075】さて、計測行列Wnew と運動行列をM
new と、予め登録してあるユーザ固有の形状行列S
との間には、
Now, the measurement matrix W new and the motion matrix are M
new and a user-specific shape matrix S registered in advance
Between

【数4】 の関係が成り立つ。[Equation 4] The relationship is established.

【0076】文献「Regression and t
he Moore−Penrosepseudoinv
erse(Albert,A.著 Academic
Press.1972)」によれば、行列方程式
The document “Regression and t”
he Moore-Penrosepseudoinv
erse (Albert, A. Academic
Press. 1972) ”, the matrix equation

【数5】 の一般解Xは[Equation 5] The general solution X of is

【数6】 で与えられる。ここで、Aは行列Aの一般逆行列、
Yは任意の行列を表す。これを式(4)に運用すると、
新しいフレームの運動行列は
[Equation 6] Given in. Where A + is the general inverse of the matrix A,
Y represents an arbitrary matrix. Applying this to equation (4),
The motion matrix for the new frame is

【数7】 で与えられる。ここで、SSはSの値域R(S)へ
の射影行列である。R(S)はSの縦ベクトル、すなわ
ち、各特徴点の三次元座標を表すベクトルで張られる空
間である。
[Equation 7] Given in. Here, SS + is a projection matrix of S to the range R (S). R (S) is a space spanned by a vertical vector of S, that is, a vector representing the three-dimensional coordinates of each feature point.

【0077】P個の特徴点のうち、少なくとも4個の特
徴点が同一平面上になく立体状になるようにすれば、R
(S)の次元は3次元となり全空間と一致する。このと
き、SS=Iとなり、式(7)は
If at least four feature points out of P feature points are not on the same plane and are three-dimensional, R
The dimension of (S) is three-dimensional, and coincides with the entire space. At this time, SS + = I, and the equation (7) becomes

【数8】 となる。[Equation 8] Becomes

【0078】すなわち、予め登録しておいた形状行列S
の一般逆行列を使って、新しいフレームの運動行列を求
めることができる。
That is, the shape matrix S registered in advance
The generalized inverse matrix of can be used to find the motion matrix for the new frame.

【0079】一般逆行列はS=S(SS
で与えられるが、R(SS)は先程の議論と同様
に全空間と一致するので逆行列が存在し、この場合一般
逆行列はS=S(SS−1で計算するこ
とができる。ここで、S はSの転置行列を表す。
The general inverse matrix is S+= ST(SST)
+Given by R (SST) Is the same as the previous discussion
Since there is an inversion matrix, the inverse matrix exists, and in this case general
The inverse matrix is S+= ST(SST)-1Can be calculated by
You can Where ST Represents the transposed matrix of S.

【0080】形状行列の一般逆行列を一度計算しておけ
ば、順次入力される画像から得られる計測行列と一般逆
行列との掛け算という非常に軽い処理のみで、運動行列
が計算できる。
Once the general inverse matrix of the shape matrix is calculated once, the motion matrix can be calculated only by a very light process of multiplying the general inverse matrix by the measurement matrix obtained from sequentially input images.

【0081】運動行列Mnew は、対象物体を固定し
カメラ向きが変化したとみなした場合のカメラの座標軸
運動を表す。すなわち運動行列Mnew の行ベクトル
の転置がカメラ座標の3つの基底ベクトルのうち2つの
基底ベクトルinew ,j new になっており、i
new ,jnew の外積から残りの基底ベクトルk
new が求まる。対象物体の正面にカメラを置いた場
合のカメラ向きを基準とすれば、カメラを固定した場合
の対象物体の回転行列Rnew は、inew ,j
new ,knew を並べた行列として求まり、この
回転行列から対象物体の回転角を計算することができ
る。
Motion matrix MnewFixed the target object
Camera coordinate axes when the camera orientation is considered to have changed
Represents exercise. That is, the motion matrix MnewRow vector
Transpose of two of the three basis vectors of camera coordinates
Basis vector inew, J newAnd i
new, JnewThe remaining basis vector k from the cross product of
newIs required. When the camera is placed in front of the target object
If the camera is fixed based on the combined camera orientation
Rotation matrix R of the target object ofnewIs inew , J
new, KnewIs obtained as a matrix in which
The rotation angle of the target object can be calculated from the rotation matrix
It

【0082】また、対象物体の向きを表す単位ベクトル
(対象物体として顔を考えた場合は、顔を平面と見倣し
顔平面から外に向かった法線ベクトル)ベクトルdは、
ew の第3行目の行ベクトルの転置を−1倍して
求まる。
The unit vector representing the orientation of the target object (in the case of considering the face as the target object, a normal vector that looks like the face as a plane and goes outward from the face plane), the vector d is
The transposition of the third row of the row vector of R n ew obtained by -1 times.

【0083】まとめると、法線ベクトルdのx成分は、
運動行列Mnew の1行3列目の成分であり、法線ベ
クトルdのy成分は、運動行列Mnew の2行3列目
の成分の−1倍である。
In summary, the x component of the normal vector d is
A component of the first row third column of motion matrix M new new, y components of the normal vector d is -1 times the second row third column components of movement matrix M new new.

【0084】図4に、対象物体として顔を考え、運動行
列Mnew を計算する様子を示す。
FIG. 4 shows how a motion matrix M new is calculated by considering a face as a target object.

【0085】図4では、カメラを固定して顔を動かす様
子を相対的に、顔を固定してカメラ向きが変化するとみ
なしている。
In FIG. 4, the manner in which the camera is fixed and the face is moved is considered to relatively change the camera orientation with the face fixed.

【0086】図2に顔向き計算処理の流れの一例を示
す。
FIG. 2 shows an example of the flow of face orientation calculation processing.

【0087】まず、登録してある形状行列からその一般
逆行列Sを求め、一般逆行列格納部4に保存しておく
(step1)。
First, the general inverse matrix S + is obtained from the registered shape matrix and stored in the general inverse matrix storage unit 4 (step 1).

【0088】画像入力部1によってユーザーの顔画像を
1フレーム入力する(step2)。
One frame of the user's face image is input by the image input unit 1 (step 2).

【0089】特徴点検出部2によって特徴点検出を行
い、計測行列Wnew を計算する(step3)。
The feature point detection unit 2 detects feature points and calculates the measurement matrix W new (step 3).

【0090】顔向き推定部5によって、式(8)のよう
に計測行列Wnew と、保存してあるSの積を計算
すれば、そのフレームにおける向きMnew が求まる
(step4)。
The face orientation estimation unit 5 calculates the product of the measurement matrix W new and the saved S + as in the equation (8), and the orientation M new in the frame is obtained (step 4).

【0091】step2からstep4を繰り返し行え
ばユーザーの顔向き計算をオンライン処理で実行でき
る。
By repeating step 2 to step 4, the face orientation of the user can be calculated by online processing.

【0092】登録処理では形状行列を登録しておき、顔
向き計算処理で一般逆行列を求めたが、登録処理で一般
逆行列の計算まで行っておけば、顔向き計算処理での一
般逆行列の計算は必要なくなる。
The shape matrix is registered in the registration process, and the general inverse matrix is obtained in the face orientation calculation process. However, if the general inverse matrix is calculated in the registration process, the general inverse matrix in the face orientation calculation process is obtained. No need to calculate.

【0093】(顔向き計算方法の変更例)ところで、新
しい1枚の画像から求められる特徴点の数は、予め登録
してある形状行列を作成する際に用いた特徴点の数Pと
同じ数でなければならない。しかし、常に同じ特徴点が
映っているとは限らず、向きによっては登録してあった
特徴点が隠れてしまったり、逆に登録してない新たな特
徴点が見つかる場合がある。
(Modification Example of Face Orientation Calculation Method) By the way, the number of feature points obtained from one new image is the same as the number P of feature points used when creating the pre-registered shape matrix. Must. However, the same feature point is not always displayed, and the registered feature point may be hidden depending on the orientation, or conversely, a new feature point that is not registered may be found.

【0094】本実施形態における顔向き計算方法では、
このような特徴点の増減にも簡単に対応できる。
In the face orientation calculation method of this embodiment,
It is possible to easily deal with the increase and decrease of such feature points.

【0095】特徴点が隠れてしまった場合は、形状行列
からその点を取り除けば、通常と同じように式(8)で
向きが計算できる。
When the characteristic point is hidden, the direction can be calculated by the equation (8) as usual by removing the point from the shape matrix.

【0096】新たな特徴点が見つかった場合は、登録済
みの特徴点から運動行列を計算し、求まった運動行列の
一般逆行列と、新たな特徴点の計測行列の積からその特
徴点の形状行列が求まる。これを登録済みの形状行列に
並べたものを新たな形状行列とすれば、次のフレームか
らその特徴点も利用することができる。
When a new feature point is found, the motion matrix is calculated from the registered feature points, and the shape of the feature point is calculated from the product of the general inverse matrix of the obtained motion matrix and the measurement matrix of the new feature point. The matrix is obtained. If a new shape matrix is obtained by arranging these in a registered shape matrix, the feature points can be used from the next frame.

【0097】但し、このように特徴点が増減する場合
は、計測行列を登録済みの特徴点の重心を用いて求める
必要があるため、特徴点の重心も併せて登録しておく必
要がある。
However, when the number of feature points increases or decreases in this way, it is necessary to obtain the measurement matrix using the centroids of the already-registered feature points, and therefore the centroids of the feature points must also be registered.

【0098】なお、本実施形態における形状行列登録方
法と顔向き計算法では、顔を対象として説明している
が、対象物体は顔に限らず、任意の物体に対して向きを
求めることができる。
In the shape matrix registration method and face orientation calculation method of this embodiment, a face is described as an object, but the object is not limited to a face, and the orientation can be obtained for any object. .

【0099】(口端検出方法)3次元形状の登録で因子
分解法を利用する場合や、登録した形状行列を基に顔向
きを計算する場合等、特徴点ベースの手法を用いる場合
はいずれも、画像における顔の特徴点座標を正確に求め
る必要がある。
(Mouth edge detection method) In the case of using the feature point-based method such as the case of using the factorization method in the registration of a three-dimensional shape or the case of calculating the face orientation based on the registered shape matrix, , It is necessary to accurately obtain the coordinates of the feature points of the face in the image.

【0100】以下では、口端検出方法について図5に基
づいて説明する。
The mouth end detection method will be described below with reference to FIG.

【0101】図5に口端位置と口周りの画像を示す。FIG. 5 shows an image of the mouth edge position and the area around the mouth.

【0102】口周りの画像の性質として、上下の唇が合
わさる部分は連続なエッジになっているという点と、口
の周りはテクスチャーが少ないという点が挙げられる。
The nature of the image around the mouth is that the part where the upper and lower lips meet is a continuous edge, and that there is little texture around the mouth.

【0103】まず、口周りの画像に1次微分フィルター
等をかけ、エッジを強調する。エッジ画像に対して、物
体境界の特定法(特願2001−173008)を用い
れば、上記の2点を生かした口端検出を行うことができ
る。この物体境界の特定法とは、注目物体は明るく周り
は暗い、あるいはその逆の場合に、物体の境界において
は、注目画素の輝度とその外側の画素の輝度平均値との
差が最大となることから、その最大値をとる画素を物体
領域の境界として探索する方法である。
First, edges are emphasized by applying a first-order differential filter or the like to the image around the mouth. If the method of specifying the object boundary (Japanese Patent Application No. 2001-173008) is used for the edge image, it is possible to perform the mouth edge detection utilizing the above two points. This method of identifying the object boundary is such that, when the target object is bright and the surroundings are dark, or vice versa, the difference between the brightness of the target pixel and the average brightness value of the pixels outside the target pixel is maximum at the boundary of the object. Therefore, it is a method of searching the pixel having the maximum value as the boundary of the object area.

【0104】従来技術で述べた福井と山口の分離度フィ
ルターを用いて瞳と鼻孔を検出する等して、口端の探索
領域を絞り込むことができるので、その探索領域に対し
て上述の方法を適用すれば、口端を安定して検出するこ
とができる。
Since the search area at the mouth end can be narrowed down by detecting the pupil and nostril using the Fukui-Yamaguchi separation degree filter described in the prior art, the above method can be applied to the search area. If applied, the mouth end can be detected stably.

【0105】(ポインター表示の自動調整法)以上は顔
向きを計算するために必要な技術であるが、以下では、
顔向きの計算結果から、ディスプレイ上にポインターを
表示する位置を計算する場合を説明する。
(Pointer Display Automatic Adjustment Method) The above is the technique necessary for calculating the face orientation.
A case where the position where the pointer is displayed on the display is calculated from the calculation result of the face orientation will be described.

【0106】ディスプレイ上のポインター表示位置は、
顔を平面と見倣し、顔平面から外に向かった法線ベクト
ルmdをディスプレイに射影することによって求まる。
The pointer display position on the display is
It is obtained by imitating the face as a plane and projecting a normal vector md directed outward from the face plane on the display.

【0107】[0107]

【数9】 ここで、ベクトルdは顔平面から外に向かった法線方向
を表す単位ベクトルであり、例えば先に述べたように運
動行列から簡単に求めることができる。
[Equation 9] Here, the vector d is a unit vector indicating the direction of the normal line extending outward from the face plane, and can be easily obtained from the motion matrix as described above, for example.

【0108】mはユーザーが動かす顔向きの範囲とディ
スプレイの大きさとから決まる表示スケールを表す定数
である。mの値を大きく設定すれば小さな顔向き角度で
ディスプレイの端まで動かすことができるし、mの値を
小さく設定すればディスプレイの端まで動かすためには
大きな角度で顔向きを動かす必要がある。どちらが使い
易いかはユーザーによって異なるだけでなく、ディスプ
レイの大きさにも依存する。従って、ユーザーの顔向き
の範囲とポインターの動く範囲を一致させるようなmを
ユーザーやディスプレイ毎に求める必要がある。
M is a constant indicating a display scale determined by the range of the face direction moved by the user and the size of the display. If the value of m is set large, the face can be moved to the edge of the display at a small angle, and if the value of m is set small, the face must be moved at a large angle to move to the edge of the display. Which one is easier to use depends not only on the user but also on the size of the display. Therefore, it is necessary to obtain m for each user or display so as to match the range of the face of the user with the range of movement of the pointer.

【0109】まず、ポインター表示の自動調整法につい
て説明する。
First, an automatic pointer display adjustment method will be described.

【0110】これは、顔向きの統計を利用して、ポイン
ターの動く範囲を自動調節する方法である。
This is a method of automatically adjusting the moving range of the pointer by using the statistics of the face orientation.

【0111】顔向き計算により求まった顔向き結果か
ら、例えば、ディスプレイの水平方向の角度の最大値と
最小値、及び、垂直方向の角度の最大値と最小値を更新
していき、一定時間が経った時点で、最大角と最小角を
向いている場合のポインター位置がディスプレイの四角
に表示されるように、ポインター位置の表示スケールm
を変化させればよい。
From the face orientation result obtained by the face orientation calculation, for example, the maximum and minimum values of the horizontal angle of the display and the maximum and minimum values of the vertical angle are updated, and a certain time At the point in time, the display scale of the pointer position m
Should be changed.

【0112】ディスプレイの外を向いている場合も考慮
するならば、角度の分布をとり、最大値と最小値の代り
に中間値から左右に例えば40%ずつ含む領域の最大値
と最小値を用いることもできる。
If the case of facing the outside of the display is taken into consideration, the distribution of angles is taken, and instead of the maximum value and the minimum value, the maximum value and the minimum value of the area including 40% to the left and right from the intermediate value are used. You can also

【0113】このように顔向きの統計を利用することに
よって、顔向きの範囲を絞り込み、その範囲をディスプ
レイの大きさに対応させてポインター表示位置を求めれ
ば、ユーザーの顔の動く範囲とポインターの動く範囲と
のずれを防ぐことができ、直感と連動した使いやすいも
のになる。
By using the face orientation statistics in this way, the face orientation range can be narrowed down and the pointer display position can be obtained by making the range correspond to the size of the display. It is possible to prevent deviation from the moving range, and it becomes easy to use in conjunction with intuition.

【0114】(ポインター表示のユーザー調整法)ユー
ザーによるポインター表示の調整方法について説明す
る。
(Pointer Display User Adjustment Method) A pointer display adjustment method by the user will be described.

【0115】表示スケールmの値をユーザー自身が入力
できるようにすれば、実際に様々な値を試しながら表示
スケールをユーザーの使い勝手の良いように設定するこ
とができる。また、上記の自動調整法により大まかに自
動調整されたものを基に、このユーザー調整法により、
ユーザーが微調整を行うこともできる。
By allowing the user to input the value of the display scale m, the display scale can be set for the user's convenience while actually trying various values. Also, based on what was roughly automatically adjusted by the above-mentioned automatic adjustment method, by this user adjustment method,
The user can also make fine adjustments.

【0116】以上に述べたとおり、本発明によれば顔向
きを利用したポインター装置20を実現することができ
る。
As described above, according to the present invention, it is possible to realize the pointer device 20 utilizing the face direction.

【0117】本実施形態により実現される顔向きポイン
ター表示装置20をPCのカーソル制御に用いれば、P
C操作の作業効率を高めることができる。
If the face-pointing pointer display device 20 realized by this embodiment is used for cursor control of a PC, P
The work efficiency of the C operation can be improved.

【0118】(変更例)その他にも例えば、家電製品等
の入力装置としても利用することができる。
(Modification) In addition, it can be used as an input device for home electric appliances, for example.

【0119】また、ディスプレイをいくつかの領域に分
け文字を表示し、顔が向いている領域を選択できるよう
な文字入力装置としても利用できる。
Further, it can be used as a character input device in which the display is divided into several areas to display characters and the area where the face is directed can be selected.

【0120】また、顔向き計算技術単独で考えれば、ポ
インター装置に限らず、乗り物の運転者、展示物の観
客、ゲーム端末の操作者などに対して顔向き計算技術が
応用可能である。
If the face orientation calculation technology is considered alone, the face orientation calculation technology can be applied not only to pointer devices but also to drivers of vehicles, spectators of exhibits, operators of game terminals, and the like.

【0121】乗り物の運転者に対しては、顔向き計算に
より運転に支障となる脇見を検知して警報を鳴らせた
り、顔向きに応じて安全運行のための適切な情報を提示
することができる。展示物の観客に対しては、顔向き計
算により観客の注目している展示を見極めて、その展示
に関する情報を自動提示することができる。
For the driver of the vehicle, it is possible to detect an inattentiveness that interferes with driving by the face orientation calculation and sound an alarm, or to present appropriate information for safe operation according to the face orientation. . For the spectators of the exhibit, it is possible to identify the exhibit that the spectator is paying attention to by face-to-face calculation and automatically present information regarding the exhibit.

【0122】ゲーム端末の操作者に対しては、顔向き計
算によりゲーム環境の視点を変更したり、シューティン
グの狙いを定めたり、首振り動作を用いて登場人物との
コミュニケーションに役立てたりすることができる。こ
のように、顔向きポインターに関する技術は様々な分野
で利用可能である。
For the operator of the game terminal, the viewpoint of the game environment can be changed by face orientation calculation, the aim of shooting can be set, and the swinging motion can be used for communication with the characters. it can. As described above, the technique relating to the face-pointing pointer can be used in various fields.

【0123】[0123]

【発明の効果】以上述べてきたように、本発明によれ
ば、顔等の物体の特徴点の3次元形状を正確に求め、予
め登録しておき、登録した形状行列の一般逆行列を利用
することにより、次々と入力される画像から顔向きを高
速かつ正確に計算することが可能である。
As described above, according to the present invention, a three-dimensional shape of a feature point of an object such as a face is accurately obtained and registered in advance, and a general inverse matrix of the registered shape matrix is used. By doing so, the face orientation can be calculated at high speed and accurately from the images input one after another.

【0124】そして、その計算結果から顔が向いている
ディスプレイ上の位置にポインターを表示することがで
きる。
From the calculation result, the pointer can be displayed at the position on the display where the face is facing.

【図面の簡単な説明】[Brief description of drawings]

【図1】顔向きを利用したポインター表示装置の仕組み
を表す。点線の矢印は形状登録処理の流れを表し、実線
の矢印は顔向き計算処理の流れを表す。
FIG. 1 illustrates a mechanism of a pointer display device that uses face orientation. The dotted arrow represents the flow of shape registration processing, and the solid arrow represents the flow of face orientation calculation processing.

【図2】顔向き計算処理の流れを表す。FIG. 2 shows a flow of face orientation calculation processing.

【図3】形状登録処理の流れを表す。FIG. 3 shows a flow of shape registration processing.

【図4】顔向き計算方法を表す。FIG. 4 shows a face orientation calculation method.

【図5】口端位置と口周りの画像を表す。FIG. 5 shows images of a mouth end position and a mouth area.

【符号の説明】[Explanation of symbols]

1 画像入力部 2 特徴点検出部 3 形状行列登録部 4 一般逆行列格納部 5 顔向き計算部 6 ポインター表示部 1 Image input section 2 Feature point detector 3 Shape matrix registration section 4 General inverse matrix storage 5 Face orientation calculator 6 pointer display

───────────────────────────────────────────────────── フロントページの続き (72)発明者 牧 淳人 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 Fターム(参考) 5B087 AA09 AA10 DD09 DE07 5L096 CA04 DA02 FA09 HA09 JA11 KA15    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Jun Maki             1st Komukai Toshiba-cho, Sachi-ku, Kawasaki-shi, Kanagawa             Inside the Toshiba Research and Development Center F term (reference) 5B087 AA09 AA10 DD09 DE07                 5L096 CA04 DA02 FA09 HA09 JA11                       KA15

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】物体の向きを計算する物体の向き計算装置
であって、 前記物体の特徴点の空間的位置を表す形状行列を予め作
成し、この形状行列から一般逆行列を求める一般逆行列
計算手段と、 前記物体が撮影された画像を入力する画像入力手段と、 前記画像中から前記物体の特徴点を検出すると共に、こ
れら特徴点から計測行列を作成する特徴点検出手段と、 前記特徴点検出手段で作成された計測行列と、予め作成
された前記物体に関する一般逆行列を用いて物体の向き
の情報を表す運動行列を計算する物体向き計算手段と、 を有することを特徴とする物体向き計算装置。
1. An object orientation calculation apparatus for calculating an orientation of an object, wherein a shape matrix representing a spatial position of a feature point of the object is created in advance, and a general inverse matrix is obtained from the shape matrix. Calculating means, image input means for inputting an image in which the object is captured, feature point detecting means for detecting feature points of the object from the image, and creating a measurement matrix from these feature points, the feature An object orientation calculation means for calculating a motion matrix expressing the orientation information of the object by using a measurement matrix created by the point detection means and a general inverse matrix for the object created in advance, Orientation calculator.
【請求項2】前記一般逆行列計算手段は、 前記画像入力手段によって物体の様々な向きが撮影され
た複数の画像を入力し、 前記特徴点検出手段によって、前記各画像から前記物体
の特徴点をそれぞれ検出すると共に、これら特徴点から
その物体固有の計測行列を1個作成し、 この計測行列から因子分解法を用いて前記物体固有の形
状行列を求め、 この形状行列から一般逆行列を求めることを特徴とする
請求項1記載の物体向き計算装置。
2. The general inverse matrix calculating means inputs a plurality of images in which various directions of the object are photographed by the image inputting means, and the characteristic point detecting means calculates characteristic points of the object from the respective images. And each of them is detected, one measurement matrix peculiar to the object is created from these feature points, the shape matrix peculiar to the object is obtained from this measurement matrix using the factorization method, and the general inverse matrix is obtained from this shape matrix. The object orientation calculation apparatus according to claim 1, wherein:
【請求項3】前記物体向き計算手段によって計算した人
間の顔向き情報を表す運動行列から、その人間の顔が向
いているディスプレイ上の点を計算し、その点上にポイ
ンターを表示するポインター表示手段を有することを特
徴とする請求項1記載の物体向き計算装置。
3. A pointer display in which a point on the display on which the human face is facing is calculated from a motion matrix representing the human face facing information calculated by the object orientation calculating means, and a pointer is displayed on the point. The object orientation calculation apparatus according to claim 1, further comprising means.
【請求項4】前記ポインター表示手段は、 前記物体向き計算手段で計算した運動行列から顔の向き
を示す顔の法線ベクトルを求め、 この法線ベクトルの係数を調整して、ポインターの動く
範囲を調節することを特徴とする請求項1記載の物体向
き計算装置。
4. The pointer display means obtains a face normal vector indicating the face orientation from the motion matrix calculated by the object orientation calculation means, adjusts the coefficient of this normal vector, and moves the pointer. The object orientation calculation apparatus according to claim 1, wherein
【請求項5】顔の特徴点を検出する特徴点検出装置であ
って、 口の連続なエッジと、前記口のエッジに比べて輝度が明
るい口周りの輝度とに基づいて、口端を表す特徴点を検
出することを特徴とする特徴点検出装置。
5. A feature point detecting device for detecting a feature point of a face, wherein the mouth end is represented based on a continuous edge of the mouth and a brightness around the mouth whose brightness is brighter than the edge of the mouth. A feature point detection device characterized by detecting feature points.
【請求項6】物体の向きを計算する物体の向き計算方法
であって、 前記物体の特徴点の空間的位置を表す形状行列を予め作
成し、この形状行列から一般逆行列を求める一般逆行列
計算ステップと、 前記物体が撮影された画像を入力する画像入力ステップ
と、 前記画像中から前記物体の特徴点を検出すると共に、こ
れら特徴点から計測行列を作成する特徴点検出ステップ
と、 前記特徴点検出ステップで作成された計測行列と、予め
作成された前記物体に関する一般逆行列を用いて物体の
向きの情報を表す運動行列を計算する物体向き計算ステ
ップと、 を有することを特徴とする物体向き計算方法。
6. An object orientation calculation method for calculating an orientation of an object, comprising: creating a shape matrix representing a spatial position of a feature point of the object in advance; and obtaining a general inverse matrix from the shape matrix. A calculation step; an image input step of inputting an image of the object captured; a feature point detection step of detecting feature points of the object from the image and creating a measurement matrix from these feature points; An object orientation calculation step of calculating a motion matrix representing the orientation information of the object using a measurement matrix created in the point detection step and a general inverse matrix created in advance for the object, Direction calculation method.
【請求項7】物体の向きを計算する物体の向き計算方法
をコンピュータによって実現するプログラムであって、 前記物体の特徴点の空間的位置を表す形状行列を予め作
成し、この形状行列から一般逆行列を求める一般逆行列
計算機能と、 前記物体が撮影された画像を入力する画像入力機能と、 前記画像中から前記物体の特徴点を検出すると共に、こ
れら特徴点から計測行列を作成する特徴点検出機能と、 前記特徴点検出機能で作成された計測行列と、予め作成
された前記物体に関する一般逆行列を用いて物体の向き
の情報を表す運動行列を計算する物体向き計算機能と、 を実現することを特徴とする物体向き計算方法のプログ
ラム。
7. A program for realizing a method for calculating an orientation of an object by a computer, the shape matrix representing a spatial position of a feature point of the object is created in advance, and a general inverse from the shape matrix. A general inverse matrix calculation function for obtaining a matrix, an image input function for inputting an image in which the object is photographed, a feature check for detecting feature points of the object from the image and creating a measurement matrix from these feature points The output function, the measurement matrix created by the feature point detection function, and the object orientation calculation function that calculates a motion matrix representing the orientation information of the object using a general inverse matrix created in advance for the object are realized. A program for an object orientation calculation method characterized by:
JP2001335666A 2001-10-31 2001-10-31 Object orientation calculation apparatus and method Expired - Lifetime JP3822483B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001335666A JP3822483B2 (en) 2001-10-31 2001-10-31 Object orientation calculation apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001335666A JP3822483B2 (en) 2001-10-31 2001-10-31 Object orientation calculation apparatus and method

Publications (2)

Publication Number Publication Date
JP2003141552A true JP2003141552A (en) 2003-05-16
JP3822483B2 JP3822483B2 (en) 2006-09-20

Family

ID=19150621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001335666A Expired - Lifetime JP3822483B2 (en) 2001-10-31 2001-10-31 Object orientation calculation apparatus and method

Country Status (1)

Country Link
JP (1) JP3822483B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005327054A (en) * 2004-05-13 2005-11-24 Toshiba Corp Display device with sound output
US7486825B2 (en) 2004-05-27 2009-02-03 Kabushiki Kaisha Toshiba Image processing apparatus and method thereof
US7706602B2 (en) 2005-03-07 2010-04-27 Kabushiki Kaisha Toshiba Generating a three-dimensional model from a standard model and multiple two-dimensional images
US7848547B2 (en) 2006-03-07 2010-12-07 Kabushiki Kaisha Toshiba Apparatus for detecting feature point and method of detecting feature point
US7873190B2 (en) 2006-02-06 2011-01-18 Kabushiki Kaisha Toshiba Face feature point detection device and method
JP2011090702A (en) * 2006-07-18 2011-05-06 Advanced Telecommunication Research Institute International Sight line direction estimating device, sight line direction estimating method, and program for executing the sight line direction estimating method by computer
US8107735B2 (en) 2007-04-10 2012-01-31 Denso Corporation Three dimensional shape reconstitution device and estimation device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5159950B2 (en) 2009-05-28 2013-03-13 株式会社東芝 Image processing apparatus, method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09251342A (en) * 1996-03-15 1997-09-22 Toshiba Corp Device and method for estimating closely watched part and device, information display device/method using the same
JPH11120364A (en) * 1997-10-13 1999-04-30 Nippon Telegr & Teleph Corp <Ntt> Feature point tracing device
JP2001245323A (en) * 2000-02-29 2001-09-07 Minolta Co Ltd Three-dimensional input method and device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09251342A (en) * 1996-03-15 1997-09-22 Toshiba Corp Device and method for estimating closely watched part and device, information display device/method using the same
JPH11120364A (en) * 1997-10-13 1999-04-30 Nippon Telegr & Teleph Corp <Ntt> Feature point tracing device
JP2001245323A (en) * 2000-02-29 2001-09-07 Minolta Co Ltd Three-dimensional input method and device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005327054A (en) * 2004-05-13 2005-11-24 Toshiba Corp Display device with sound output
US7486825B2 (en) 2004-05-27 2009-02-03 Kabushiki Kaisha Toshiba Image processing apparatus and method thereof
US7706602B2 (en) 2005-03-07 2010-04-27 Kabushiki Kaisha Toshiba Generating a three-dimensional model from a standard model and multiple two-dimensional images
US7873190B2 (en) 2006-02-06 2011-01-18 Kabushiki Kaisha Toshiba Face feature point detection device and method
US7848547B2 (en) 2006-03-07 2010-12-07 Kabushiki Kaisha Toshiba Apparatus for detecting feature point and method of detecting feature point
JP2011090702A (en) * 2006-07-18 2011-05-06 Advanced Telecommunication Research Institute International Sight line direction estimating device, sight line direction estimating method, and program for executing the sight line direction estimating method by computer
US8107735B2 (en) 2007-04-10 2012-01-31 Denso Corporation Three dimensional shape reconstitution device and estimation device

Also Published As

Publication number Publication date
JP3822483B2 (en) 2006-09-20

Similar Documents

Publication Publication Date Title
JP4473754B2 (en) Virtual fitting device
JP3512992B2 (en) Image processing apparatus and image processing method
JP4950787B2 (en) Image processing apparatus and method
JP7094702B2 (en) Image processing device and its method, program
CN110688929B (en) Human skeleton joint point positioning method and device
JP2007004767A (en) Image recognition apparatus, method and program
TW201610917A (en) Method for image segmentation
WO2006049147A1 (en) 3d shape estimation system and image generation system
JP2004094491A (en) Face orientation estimation device and method and its program
US10091474B2 (en) Image processing device, image processing method, program and computer-readable storage medium
JP2020052979A (en) Information processing device and program
CN114445562A (en) Three-dimensional reconstruction method and device, electronic device and storage medium
JP2003141552A (en) Object direction calculation device and method
CN108027647B (en) Method and apparatus for interacting with virtual objects
JP3940690B2 (en) Image processing apparatus and method
JP2000268161A (en) Real time expression detector
CN111275610A (en) Method and system for processing face aging image
CN113688680B (en) Intelligent recognition and tracking system
Tordoff et al. Head pose estimation for wearable robot control.
KR101844367B1 (en) Apparatus and Method for Head pose estimation using coarse holistic initialization followed by part localization
JP4623320B2 (en) Three-dimensional shape estimation system and image generation system
JP5951966B2 (en) Image processing apparatus, image processing system, image processing method, and program
EP3168780B1 (en) Image processing apparatus, image processing method, and computer-readable recording medium
JP4942197B2 (en) Template creation apparatus, facial expression recognition apparatus and method, program, and recording medium
CN110781712A (en) Human head space positioning method based on human face detection and recognition

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060622

R151 Written notification of patent or utility model registration

Ref document number: 3822483

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090630

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100630

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100630

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110630

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120630

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120630

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130630

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term