JPH0812706B2 - Gaze animation display device - Google Patents

Gaze animation display device

Info

Publication number
JPH0812706B2
JPH0812706B2 JP6670393A JP6670393A JPH0812706B2 JP H0812706 B2 JPH0812706 B2 JP H0812706B2 JP 6670393 A JP6670393 A JP 6670393A JP 6670393 A JP6670393 A JP 6670393A JP H0812706 B2 JPH0812706 B2 JP H0812706B2
Authority
JP
Japan
Prior art keywords
person
eyeball
model
coordinates
gazing point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP6670393A
Other languages
Japanese (ja)
Other versions
JPH06282627A (en
Inventor
精啓 森井
信二 鉄谷
文郎 岸野
Original Assignee
株式会社エイ・ティ・アール通信システム研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エイ・ティ・アール通信システム研究所 filed Critical 株式会社エイ・ティ・アール通信システム研究所
Priority to JP6670393A priority Critical patent/JPH0812706B2/en
Publication of JPH06282627A publication Critical patent/JPH06282627A/en
Publication of JPH0812706B2 publication Critical patent/JPH0812706B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、コンピュータグラフ
ィックス(以下「CG」と呼ぶ)を用いて人物などをア
ニメーション表示する分野に関し、特に、CGにより仮
想的な3次元空間を生成し、参加者にあたかもその3次
元空間内にいるかのような感覚を与えるための技術、た
とえば臨場感通信会議技術等に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a field of animation display of a person or the like using computer graphics (hereinafter referred to as "CG"). The present invention relates to a technology for giving a feeling of being in the three-dimensional space, for example, a realistic communication conference technology.

【0002】[0002]

【従来の技術】画像通信やヒューマンインターフェイス
を目的として、人物の表情をCGにより表現する研究が
行なわれている。たとえば「電子情報通信学会論文誌J
73−D−II、3、1990」の第351頁ないし3
59頁には、「知的インターフェイスのための顔の表情
合成法の一検討」という論文が掲載されている。この論
文では、画像通信やヒューマンインターフェイスを目的
とし、そのための画像合成の手法の1つとして人物の表
情をCGにより表現する手法が紹介されている。
2. Description of the Related Art For the purpose of image communication and human interface, research is being conducted to express the facial expression of a person by CG. For example, "Journal of the Institute of Electronics, Information and Communication Engineers J
73-D-II, 3, 1990, pp. 351-3.
On page 59, a paper entitled "A Study on Facial Expression Synthesis for Intelligent Interfaces" is published. In this paper, a method of expressing a person's facial expression by CG is introduced as one of image combining methods for the purpose of image communication and human interface.

【0003】[0003]

【発明が解決しようとする課題】しかし、上述の論文に
紹介されている技術は、テキスト情報や感情情報などに
より顔画像を合成する手法であって、これをこのまま臨
場感通信会議システムなどに応用するには困難がある。
たとえば、会話や会議の場合において、目の動き視線、
瞬きなどは参加者の意図を表わす重要な情報である。こ
れらの情報をリアルタイムにCG像によりアニメーショ
ン表示すれば、臨場感通信会議システムにおいてより自
然な臨場感を得ることができる。しかし、そのような技
術をどのように実現するかについては未だ提案がされて
いない。
However, the technique introduced in the above-mentioned paper is a method of synthesizing a face image using text information, emotional information, etc., and is applied as it is to a realistic communication conference system. There is a difficulty in doing so.
For example, in the case of a conversation or a meeting, the eye movement line of sight,
Blinking and the like are important information indicating the intentions of the participants. If such information is animated and displayed in real time as a CG image, a more natural presence can be obtained in the presence-oriented communication conference system. However, no proposal has yet been made on how to realize such technology.

【0004】それゆえに請求項1ないし2に記載の発明
の目的は、目の動きをより自然なものに近づけてリアル
タイムで表示することができる視線アニメーション表示
装置を提供することである。
Therefore, it is an object of the present invention to provide a visual line animation display device capable of displaying the movement of the eyes closer to a natural movement and displaying the movement in real time.

【0005】[0005]

【課題を解決するための手段】請求項1に記載の視線ア
ニメーション表示装置は、人物の視線を検出することに
より、所定の座標系内における人物の注視点の座標を得
る手段と、人物の瞬きの情報をリアルタイムに得るため
の手段と、人物の顔モデルに、所定のモデルによって近
似した眼球モデルを合成してコンピュータグラフィック
スにより表示し、かつ注視点の座標により定められる所
定の位置を眼球モデルが注視するように眼球モデルを回
転させるためのアニメーション表示手段とを含む。アニ
メーション表示手段は、注視点の座標に基づいて眼球モ
デルの回転量を決定して眼球を回転して人物の顔モデル
と合成したアニメーションを表示するための手段と、人
物の顔モデル上に、決定された回転量に対して予め定め
る関係により決定された態様で、まぶたまたは眉または
その双方を表示するための手段とを含む。アニメーショ
ンを表示するための手段とまぶたまたは眉またはその双
方を表示するための手段は、人物の瞬きの情報を得るた
めの手段によりリアルタイムに得られた瞬きの情報に応
じて、眼球モデルと瞼または眉またはその双方の表示と
を瞬き状に変化させる。
According to a first aspect of the present invention, there is provided a visual line animation display device for detecting a visual line of a person to obtain coordinates of a gazing point of the person within a predetermined coordinate system, and blinking of the human figure. Means for obtaining information in real time, and a face model of a person is combined with an eyeball model approximated by a predetermined model and displayed by computer graphics, and a predetermined position determined by the coordinates of the gazing point is displayed. And an animation display unit for rotating the eyeball model so as to gaze. The animation display means determines a rotation amount of the eyeball model based on the coordinates of the gazing point, a means for displaying the animation synthesized by rotating the eyeball and the face model of the person, and the means for determining on the face model of the person. And means for displaying the eyelids and / or eyebrows in a manner determined by a predetermined relationship with respect to the amount of rotation that has been performed. The means for displaying the animation and the means for displaying the eyelids and / or the eyebrows, the eyeball model and the eyelid The display of the eyebrows or both are changed to blink.

【0006】請求項2に記載の視線アニメーション表示
装置は、請求項1に記載の装置であって、時系列に得ら
れる注視点の座標に対して逐次スムージング処理を行な
ってアニメーション表示手段に注視点の座標として与え
るための手段をさらに含む。
The line-of-sight animation display device according to a second aspect is the device according to the first aspect, wherein smoothing processing is sequentially performed on the coordinates of the gaze point obtained in time series, and the gaze point is displayed on the animation display means. And means for providing as the coordinates of the.

【0007】[0007]

【0008】[0008]

【0009】[0009]

【作用】請求項1に記載の視線アニメーション表示装置
においては、人物の注視点の座標が得られると、それに
応じて眼球モデルがその注視点の座標により定められる
所定の位置を注視するようにアニメーション表示手段に
よってリアルタイムで回転される。眼球モデルとともに
表示される人物の顔モデルに、眼球モデルの回転ととも
に変化する態様でまぶたまたは眉またはその双方が表示
されるので、顔モデルがより自然の表情に近くなる。ま
た人物の瞬きの情報に応じて、眼球モデルとまぶたまた
は眉またはその双方とが瞬き状に変化してリアルタイム
で表示されるので、表示される顔モデルがより自然に近
く、かつ人物のそのときの状態がより忠実に再現され
る。
In the line-of-sight animation display device according to claim 1, when the coordinates of the gazing point of the person are obtained, an animation is made so that the eyeball model gazes at a predetermined position defined by the coordinates of the gazing point accordingly. It is rotated in real time by the display means. Since the eyelids and / or the eyebrows are displayed on the face model of the person displayed together with the eyeball model in a manner that changes with the rotation of the eyeball model, the face model has a more natural facial expression. In addition, depending on the blink information of the person, the eyeball model and the eyelids and / or the eyebrows change in a blinking manner and are displayed in real time, so the displayed face model is more natural and The state of is reproduced more faithfully.

【0010】請求項2に記載の視線アニメーション表示
装置は、時系列に得られる注視点の座標に対して逐次ス
ムージング処理が行なわれ、スムージング処理によって
得られた注視点の座標に基づいて眼球モデルの回転のア
ニメーション表示が行なわれるため、眼球モデルの動き
がより自然に近くなる。
In the eye-gaze animation display device according to the second aspect, the smoothing process is sequentially performed on the coordinates of the gazing point obtained in time series, and the eyeball model of the eyeball model is created based on the coordinates of the gazing point obtained by the smoothing process. Since the animation of rotation is displayed, the movement of the eyeball model becomes more natural.

【0011】[0011]

【0012】[0012]

【0013】[0013]

【実施例】以下、本発明の一実施例の視線アニメーショ
ン表示装置を、図面を参照して説明する。なお、以下の
実施例においては、本願出願人と同一の出願人による視
線検出装置(特公平3−51407号)を視線検出装置
として示す。この視線検出装置は、赤外線による瞳孔反
射光を利用している。しかし本発明はこれには限定され
ず、他の手法、たとえばEOG法、強膜反射法、磁気誘
導による方法など、種々の方法を使用することができ
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A visual line animation display device according to an embodiment of the present invention will be described below with reference to the drawings. In the following embodiments, a line-of-sight detection device (Japanese Patent Publication No. 3-51407) made by the same applicant as the present applicant is shown as the line-of-sight detection device. This line-of-sight detection device uses pupil reflected light by infrared rays. However, the present invention is not limited to this, and other methods such as EOG method, scleral reflection method, and magnetic induction method can be used.

【0014】図1を参照して、本発明の視線アニメーシ
ョン表示装置は、被写体の人物52の、赤外線による瞳
孔反射像および顔特徴点を画像処理により検出するため
の瞳孔像、顔特徴点検出部34と、瞳孔像、顔特徴点検
出部34により検出された瞳孔反射像および顔特徴点に
基づき、人物52の顔の姿勢や位置の情報と、視線や瞬
きなどの眼球表示に必要な情報を生成するためのCG情
報取得部50と、CG情報取得部50と通信回線44に
よって接続され、CG情報取得部50から得られる情報
に従ってCG像を生成するためのCG像生成装置48
と、表示装置46とを含む。
Referring to FIG. 1, the visual axis animation display device of the present invention is a pupil image / face feature point detection unit for detecting a pupil reflection image by infrared rays and a face feature point of a person 52 as a subject by image processing. 34, the pupil image, the pupil reflection image detected by the face feature point detection unit 34, and the face feature points, and information about the posture and position of the face of the person 52 and information necessary for eyeball display such as the line of sight and blinks. The CG information acquisition unit 50 for generation, the CG information acquisition unit 50, and the CG image generation apparatus 48 for generating a CG image according to the information obtained from the CG information acquisition unit 50, which are connected by the communication line 44.
And a display device 46.

【0015】瞳孔像、顔特徴点検出部34は、赤外線に
よる瞳孔反射像および顔特徴点を検出するための画像情
報を得るための1対のカメラ56と、この画像情報に対
して所定の画像処理を行なって瞳孔反射像と顔特徴点と
を得る図示されない画像処理部とを含む。
The pupil image / face feature point detecting section 34 includes a pair of cameras 56 for obtaining image information for detecting the pupil reflection image and face feature points by infrared rays, and a predetermined image for this image information. An image processing unit (not shown) that performs processing to obtain a pupil reflection image and facial feature points is included.

【0016】CG情報取得部50は、瞳孔像、顔特徴点
検出部34が検出した頭部特徴点から、頭部の位置およ
び向きを検出するための頭部位置検出部36と、瞳孔
像、顔特徴点検出部34により検出された瞳孔反射光の
画素数に基づいて、目が閉じられているか否かを判断す
るための瞬き判定部38と、瞬き判定部38により目が
開かれていると判断された場合に、瞳孔像、顔特徴点検
出部34により検出された瞳孔位置と、頭部位置検出部
36により検出された頭部位置とに基づいて、人物52
の注視点の座標を検出するための注視点検出部40と、
注視点検出部40により検出されたデータにスムージン
グ処理を行なうためのスムージング部42とを含む。こ
のCG情報取得部50によって得られた情報が通信回線
44を介してCG像生成装置48に与えられ、CG像生
成装置48が生成したCG像が表示装置46によって表
示される。
The CG information acquisition unit 50 detects the position and orientation of the head from the pupil image and the head feature points detected by the face feature point detection unit 34, and the pupil image, Based on the number of pixels of the pupil reflected light detected by the facial feature point detection unit 34, a blink determination unit 38 for determining whether or not the eyes are closed, and the eyes are opened by the blink determination unit 38. When it is determined that the person 52 is detected based on the pupil image, the pupil position detected by the facial feature point detection unit 34, and the head position detected by the head position detection unit 36.
A gazing point detection unit 40 for detecting the coordinates of the gazing point of
A smoothing unit 42 for performing a smoothing process on the data detected by the gazing point detection unit 40 is included. The information obtained by the CG information acquisition unit 50 is given to the CG image generating device 48 via the communication line 44, and the CG image generated by the CG image generating device 48 is displayed by the display device 46.

【0017】情報の流れを整理すると図2のようにな
る。まず、瞳孔像、顔特徴点検出部34により、瞳孔反
射像および顔特徴点が画像処理により検出される。瞳孔
像、顔特徴点検出部34で検出した頭部特徴点から、頭
部位置検出部36で頭部の位置および向きを検出する。
瞬き判定部38は、瞳孔像、顔特徴点検出部34で検出
された瞳孔反射光の画素数を求め、画素数が予め設定し
た値以下であれば目を閉じていると判断する。設定値以
上であれば目を開けていると判断する。瞬き判定部38
により目が開けられていると判断された場合には、瞳孔
像、顔特徴点検出部34により検出された瞳孔位置およ
び頭部位置検出部36により検出された頭部位置から、
注視点検出部40によって注視点の座標を検出する。さ
らにこの座標をスムージング部42によってスムージン
グ処理し、CG像生成装置48に与えて表示装置50に
より表示させる。瞬き判定部38が目を閉じていると判
断した場合には注視点検出部40およびスムージング部
42による処理は行なわれない。
The flow of information is arranged as shown in FIG. First, the pupil image / face feature point detection unit 34 detects the pupil reflection image and face feature points by image processing. The head position detection unit 36 detects the position and orientation of the head from the pupil image and the head feature points detected by the face feature point detection unit 34.
The blink determination unit 38 obtains the number of pixels of the pupil image and the pupil reflected light detected by the facial feature point detection unit 34, and determines that the eyes are closed if the number of pixels is equal to or less than a preset value. If it is equal to or greater than the set value, it is determined that the eyes are open. Blink determination unit 38
When it is determined that the eyes are opened by, from the pupil image, the pupil position detected by the facial feature point detection unit 34 and the head position detected by the head position detection unit 36,
The gazing point detector 40 detects the coordinates of the gazing point. Further, these coordinates are smoothed by the smoothing unit 42 and given to the CG image generating device 48 and displayed by the display device 50. When the blink determination unit 38 determines that the eyes are closed, the processing by the gazing point detection unit 40 and the smoothing unit 42 is not performed.

【0018】再び図1を参照して瞳孔像、顔特徴点検出
部34と、頭部位置検出部36と、注視点検出部40と
による注視点の座標検出の方法について説明する。この
方法は、前述の特公平3−51407号公報に記載され
たものを使用している。なおこの方法においては、人物
52から距離dだけ離れた平面54上における注視点V
の(x、y)座標が検出される。
Referring again to FIG. 1, a method of detecting the coordinates of the gazing point by the pupil image / face feature point detecting section 34, the head position detecting section 36, and the gazing point detecting section 40 will be described. This method uses the method described in Japanese Patent Publication No. 3-51407. Note that in this method, the gazing point V on the plane 54 separated from the person 52 by the distance d
The (x, y) coordinate of is detected.

【0019】図3を参照して、まず空間に所望の座標系
(X、Y、Z)を定める。図1に示される1対のカメラ
56により、人物52の顔面の3つの特徴点の、図3に
示される座標系(X、Y、Z)における座標を求める。
これらの特徴点を、図3に示すP1、P2、P3とす
る。
Referring to FIG. 3, first, a desired coordinate system (X, Y, Z) is defined in space. Coordinates of three feature points on the face of the person 52 in the coordinate system (X, Y, Z) shown in FIG. 3 are obtained by the pair of cameras 56 shown in FIG.
These characteristic points are designated as P1, P2, and P3 shown in FIG.

【0020】続いて、頭部座標系として、三角形(P
1、P2、P3)の重心PG を原点とし、P1とP2と
を結ぶ線分の方向をx軸、x軸に直交する方向をy軸、
三角形の法線方向をz軸とする座標系(x,y,z)を
考える。
Then, as a head coordinate system, a triangle (P
1, P2, the center of gravity P G of P3) as the origin, y-axis and the direction perpendicular to the direction of a line connecting the P1 and P2 x axis, the x-axis,
Consider a coordinate system (x, y, z) having the z-axis as the normal direction of the triangle.

【0021】図3において、重心PG を始点、眼球中心
62を終点とするベクトル(眼球中心位置ベクトル)e
は、定数ベクトルである。そしてこのベクトルeは、予
め較正により求めることができる。重心PG が3点P
1、P2、P3から求めることができるために、眼球中
心62の、座標系(X、Y、Z)における座標も得るこ
とができる。一方,瞳孔中心の座標系(X,Y,Z)に
おける座標は、カメラ画像から直接得ることが出来る。
この眼球中心と瞳孔中心とを結んだ半直線が視線であ
る。この視線をベクトルとして考え、平面54とこのベ
クトルとの交点とを求めることにより注視点の、平面5
4上における座標が求められる。これが、瞳孔像、顔特
徴点検出部34と、頭部位置検出部36と、注視点検出
部40とにおいてなされる処理である。
In FIG. 3, a vector having the center of gravity P G as the starting point and the eyeball center 62 as the end point (eyeball center position vector) e
Is a constant vector. The vector e can be obtained in advance by calibration. Center of gravity P G is 3 points P
Since it can be obtained from 1, P2, and P3, the coordinates of the eyeball center 62 in the coordinate system (X, Y, Z) can also be obtained. On the other hand, the coordinates in the coordinate system (X, Y, Z) of the pupil center can be directly obtained from the camera image.
The half line connecting the center of the eyeball and the center of the pupil is the line of sight. Considering this line of sight as a vector, and obtaining the intersection of the plane 54 and this vector, the plane 5
The coordinates on 4 are obtained. This is the process performed by the pupil image / face feature point detection unit 34, the head position detection unit 36, and the gazing point detection unit 40.

【0022】人間の眼球運動には、跳躍運動などの不随
意的な運動が含まれる。そのために、注視点検出部40
などによって検出されたデータをそのままCG像の表示
に使用すると不自然な感じを与える。CG像をより自然
なものにするために、スムージング部42において検出
データに対してスムージング処理を行なう。スムージン
グ方法としては、過去の所定数のサンプリングデータの
平均値を出力データとする方法を用いる。
Human eye movements include involuntary movements such as jumping movements. Therefore, the gazing point detection unit 40
If the data detected by the above method is directly used for displaying a CG image, it gives an unnatural feeling. In order to make the CG image more natural, the smoothing unit 42 performs a smoothing process on the detected data. As the smoothing method, a method of using the average value of a predetermined number of past sampling data as output data is used.

【0023】時刻tにおける注視点の検出データを(x
t 、yt )とする。出力データとして3点の平均値を使
用する場合、出力(xot、yot)は、次の式によって計
算される。
The detection data of the gazing point at time t is (x
t , y t ). When using the average value of three points as the output data, the output (x ot , y ot ) is calculated by the following formula.

【0024】[0024]

【数1】 [Equation 1]

【0025】図4には、視線を左右に移動させた場合の
注視点の検出データと、スムージングしたデータとを示
す。検出データ82のグラフに対し、3点の平均値を出
力データとしたスムージングデータ84は、より滑らか
なものとなっており、これに基づいてCG画像の眼球の
視線を変化させた場合には、検出データ82を用いた場
合と比べてより自然な感じを与える。なお、ここではス
ムージングに3点のデータを用いたが、スムージングに
用いるサンプル数は3点に限定されるわけではない。
FIG. 4 shows the detection data of the gazing point when the line of sight is moved left and right, and the smoothed data. The smoothing data 84 in which the average value of three points is output data is smoother than the graph of the detection data 82, and when the line of sight of the eyeball of the CG image is changed based on this, A more natural feeling is given as compared with the case where the detection data 82 is used. It should be noted that although three points of data are used for smoothing here, the number of samples used for smoothing is not limited to three.

【0026】図5を参照して、図1のスムージング部4
2の出力に応じて視線を変化させたCG人物像を、図1
に示されるCG像生成装置48によって生成する。ここ
では、顔のCGモデルとして、実際の人物の顔の3次元
データを基に作成した顔モデルに、球モデルで近似した
眼球を合成したモデルを用いる。もちろん、楕円球など
で近似した眼球を合成してもよい。
Referring to FIG. 5, the smoothing section 4 of FIG.
1 shows a CG person image whose line of sight is changed according to the output of FIG.
It is generated by the CG image generating device 48 shown in FIG. Here, as a CG model of a face, a model in which an eyeball approximated by a sphere model is combined with a face model created based on three-dimensional data of an actual human face is used. Of course, an eyeball approximated by an ellipsoid may be combined.

【0027】図5を参照して、ここで用いる眼球モデル
と注視点および視線との関係は次のようになっている。
眼球中心104と、瞳孔中心106と、注視点110と
を結ぶ直線を視線108とする。注視点110の変化に
対し、視線108の方向が注視点110と一致するよう
に眼球102を回転させる。このように、眼球モデルを
回転させるための注視点情報として、スムージング部4
2の出力を用いてCG像を生成することにより、人物の
視線の変化をリアルタイムに、かつ自然な形でアニメー
ション表示することができる。
Referring to FIG. 5, the relationship between the eyeball model used here, the gazing point and the line of sight is as follows.
A straight line connecting the eyeball center 104, the pupil center 106, and the gazing point 110 is defined as a line of sight 108. With respect to the change of the gazing point 110, the eyeball 102 is rotated so that the direction of the line of sight 108 matches the gazing point 110. In this way, as the gazing point information for rotating the eyeball model, the smoothing unit 4
By generating the CG image using the output of 2, the change in the line of sight of the person can be displayed in real time and in a natural form as an animation.

【0028】ところで、実際の人物の表情においては、
眼球の動きに伴ってまぶたや眉も変化する。目の自然な
アニメーション表示を行なうためには、そのようなまぶ
たや眉の動きも表現する必要がある。図6は、視線の変
化によるまぶたや眉の動きを説明するための模式図であ
る。図6に、眼球102が正面向きである場合のまぶた
122および眉124の位置を模式的に示す。
By the way, in the expression of an actual person,
The eyelids and eyebrows change as the eye moves. In order to display animations naturally, it is necessary to express such movements of the eyelids and eyebrows. FIG. 6 is a schematic diagram for explaining movements of eyelids and eyebrows due to changes in the line of sight. FIG. 6 schematically shows the positions of the eyelids 122 and the eyebrows 124 when the eyeball 102 faces front.

【0029】図7を参照して、視線が上向きとなり眼球
102が上方向に回転する場合を考える。眼球102の
回転に伴い、まぶた122も上に持ち上げられる。また
眉124も上に上がる。
With reference to FIG. 7, consider a case where the line of sight is directed upward and the eyeball 102 is rotated upward. With the rotation of the eyeball 102, the eyelid 122 is also lifted up. The eyebrows 124 also go up.

【0030】一方、図8に示されるように、視線が下向
きとなり眼球102が下方向に回転するとまぶた122
も下に下がる。この場合には眉124は下がらない方が
自然である。
On the other hand, as shown in FIG. 8, when the line of sight becomes downward and the eyeball 102 rotates downward, the eyelid 122
Also goes down. In this case, it is more natural that the eyebrows 124 are not lowered.

【0031】このような図6〜8に示されるまぶたと眉
との表示は次のようにして行なわれる。図9を参照し
て、眼球102の中心を眼球中心104とする。眼球中
心104と瞳孔中心106とを結ぶ視線108が、眼球
中心104と正面方向とを結ぶ直線となす角が、眼球1
02の回転角θである。
The display of the eyelids and eyebrows shown in FIGS. 6 to 8 is performed as follows. Referring to FIG. 9, the center of the eyeball 102 is the eyeball center 104. An angle formed by a line of sight 108 connecting the eyeball center 104 and the pupil center 106 with a straight line connecting the eyeball center 104 and the front direction is the eyeball 1
The rotation angle θ is 02.

【0032】図10を参照して、まぶた122のCG像
が、頂点132a、132b、…、132nにより構成
されているものとする。これら頂点132a〜132n
が、眼球102の回転に伴って変化するその変化量をξ
とする。図9に示される回転角θと図10に示される各
頂点の移動量ξとの関係を予め求めておき、回転角θに
応じて定まるξの位置に頂点132a〜132nを表示
する。
Referring to FIG. 10, it is assumed that the CG image of eyelid 122 is composed of vertices 132a, 132b, ..., 132n. These vertices 132a to 132n
Is the amount of change that changes with the rotation of the eyeball 102
And The relationship between the rotation angle θ shown in FIG. 9 and the movement amount ξ of each vertex shown in FIG. 10 is obtained in advance, and the vertices 132a to 132n are displayed at the positions of ξ determined according to the rotation angle θ.

【0033】図11は、このような移動量ξとθとの関
係づけの一例を示すグラフである。正面方向を向いた時
のθを0 とする。眼球の上方への回転角の最大値を
θ+ 、下方への回転角の最大値をθ- とする。眼球の上
方への回転に伴うまぶたの変化量の最大値をξ+ 、下方
への回転に伴う変化量の最大値をξ- とする。図11に
示すようにθ−ξ座標系において最大値に該当する点
(θ+ 、ξ+ )および最小値に該当する点(θ-
ξ- )をそれぞれ原点と結び、それによって得られる折
線によって最大値に該当する点と最小値に該当する点と
の間の、角θに対する変化量ξを決定する。なお、この
ように線形補間に限定されるわけではなく、非線形的な
補間を行なってもよく、要は自然な形でまぶたの変化が
得られるような関係をθとξとの間に規定しておけばよ
い。
FIG. 11 is a graph showing an example of the relationship between the movement amount ξ and θ. Θ when facing the front is 0. Let θ + be the maximum rotation angle of the eyeball upward and θ − be the maximum rotation angle of the eyeball downward. Let ξ + be the maximum value of the amount of change in the eyelids due to the upward rotation of the eyeball, and ξ − be the maximum value of the amount of change due to the downward rotation. As shown in FIG. 11, in the θ-ξ coordinate system, a point corresponding to the maximum value (θ + , ξ + ) and a point corresponding to the minimum value (θ ,
xi] -) to be united to each origin, determined between the points corresponding to the minimum and the point corresponding to the maximum value by polygonal line obtained thereby, the variation xi] for the angle theta. It should be noted that the interpolation is not limited to the linear interpolation as described above, and non-linear interpolation may be performed. The point is to define a relationship between θ and ξ so that the change of the eyelid can be obtained in a natural form. You can leave it.

【0034】また、瞬き判定部38によって被写体の人
物が瞬きをしていると判定されたばあいには、CG像の
まぶたを瞬き状に変化させ、眼球モデルの表示を隠して
あたかもCG像の人物も瞬きをしたように表示させるこ
とで、より臨場感の増した表示を行なうことができる。
Further, when the blink determination section 38 determines that the person as the subject is blinking, the eyelids of the CG image are changed to blinks to hide the display of the eyeball model as if the CG image was hidden. By displaying the person as if he or she blinked, it is possible to perform a more realistic display.

【0035】以上のように、この実施例に係る視線アニ
メーション表示装置では、注視点の座標が得られれば、
眼球の回転と、それに伴うまぶた、眉の変化をアニメー
ション表示することができる。臨場感通信会議システム
において、参加者の顔モデルに、視線をリアルタイムで
変化させることができる眼球モデルを表示でき、さらに
眼球の回転や人物の瞬きに伴うまぶた、眉の変化をリア
ルタイムでアニメーション表示することができるため、
会議の臨場感がより向上する。
As described above, in the visual line animation display device according to this embodiment, if the coordinates of the gazing point are obtained,
It is possible to animate the rotation of the eyeball and the accompanying changes in the eyelids and eyebrows. In an immersive teleconferencing system, an eyeball model that can change the line of sight in real time can be displayed on the participant's face model, and further changes in the eyelids and eyebrows that accompany rotation of the eyeball and blinking of a person are animated in real time. Because you can
The realism of the meeting is improved.

【0036】[0036]

【発明の効果】以上のように請求項1に記載の発明によ
れば、得られる人物の注視点の座標に応じて所定の位置
を注視するように眼球モデルがアニメーション表示手段
によって回転される。そのために、人物の表情をより臨
場感をもってリアルタイムで再現することが可能にな
る。眼球の回転とともに変化する態様でまぶたまたは眉
またはその双方が表示されるので、より自然に近い人物
の視線をリアルタイムで表示することができる。さら
に、人物の瞬きの情報に応じて、眼球モデルのまぶたま
たは眉またはその双方が瞬き状に変化してリアルタイム
で表示されるので、表示される顔モデルがより自然に近
く、かつ人物のそのときの状態がより忠実にリアルタイ
ムで再現される。
As described above, according to the invention described in claim 1, the eyeball model is rotated by the animation display means so as to gaze at a predetermined position according to the coordinates of the gaze point of the obtained person. Therefore, it becomes possible to reproduce the facial expression of a person in a more realistic manner in real time. Since the eyelids, the eyebrows, or both are displayed in a manner that changes with the rotation of the eyeball, it is possible to display the line of sight of a more natural person in real time. Furthermore, depending on the information about the blink of the person, the eyelids and / or eyebrows of the eyeball model or both of them change in a blinking manner and are displayed in real time, so the displayed face model is more natural and The state of is reproduced more faithfully in real time.

【0037】請求項2に記載の視線アニメーション表示
装置では、スムージング処理によって得られた注視点の
座標に基づいて眼球モデルの回転のアニメーション表示
が行なわれる。そのために、眼球の動きがより滑らかで
より自然に近くなる。その結果、人物の表情を自然に近
い形でリアルタイムでアニメーション表示することがで
きる。
In the line-of-sight animation display device according to the second aspect, the animation of the rotation of the eyeball model is displayed based on the coordinates of the gazing point obtained by the smoothing process. As a result, the movement of the eyeball becomes smoother and more natural. As a result, the facial expression of a person can be displayed as an animation in a real-time manner in real time.

【0038】[0038]

【0039】[0039]

【0040】すなわち、請求項1〜2に記載の発明によ
り、人物のCG像の目の動きをより自然なものに近づけ
てリアルタイムで表示することができる視線アニメーシ
ョン表示装置を提供することができる。
That is, according to the first and second aspects of the present invention, it is possible to provide a line-of-sight animation display device capable of displaying the movement of the eyes of the CG image of the person in a more natural manner in real time.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の視線アニメーション表示装
置の構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a line-of-sight animation display device according to an embodiment of the present invention.

【図2】本発明の一実施例の視線アニメーション表示装
置の構成および動作を模式的に示す図である。
FIG. 2 is a diagram schematically showing the configuration and operation of a visual line animation display device according to an embodiment of the present invention.

【図3】注視点の座標を得る方法を説明するための模式
図である。
FIG. 3 is a schematic diagram for explaining a method of obtaining coordinates of a gazing point.

【図4】検出データとスムージング後のデータとを示す
グラフである。
FIG. 4 is a graph showing detected data and data after smoothing.

【図5】注視点110に対応した眼球モデルの表示方法
を示す模式図である。
FIG. 5 is a schematic diagram showing a method of displaying an eyeball model corresponding to a gazing point 110.

【図6】正面向きの人物の目付近を示す模式図である。FIG. 6 is a schematic diagram showing the vicinity of the eyes of a person who is facing the front.

【図7】上向きの人物の目付近を示す模式図である。FIG. 7 is a schematic diagram showing the vicinity of the eyes of an upward facing person.

【図8】下向きの人物の目付近を示す模式図である。FIG. 8 is a schematic diagram showing the vicinity of a downward facing person's eyes.

【図9】眼球モデルの側面図である。FIG. 9 is a side view of an eyeball model.

【図10】まぶたの正面図である。FIG. 10 is a front view of an eyelid.

【図11】眼球の回転角とまぶたの変化量との関係を示
すグラフである。
FIG. 11 is a graph showing the relationship between the rotation angle of the eyeball and the amount of change in the eyelids.

【符号の説明】[Explanation of symbols]

34 瞳孔像、顔特徴点検出部 36 頭部位置検出部 38 瞬き判定部 40 注視点検出部 42 スムージング部 44 通信回線 46 表示装置 48 CG像生成装置 50 CG情報取得部 34 Pupil image, face feature point detection unit 36 Head position detection unit 38 Blink determination unit 40 Gaze point detection unit 42 Smoothing unit 44 Communication line 46 Display device 48 CG image generation device 50 CG information acquisition unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 岸野 文郎 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール通信シ ステム研究所内 (56)参考文献 情報処理学会研究報告、HI−42、11− 16頁、1992年、岸野文郎他、「眼の3次元 アニメーション表示と視線一致」 電子通信学会技術研究報告、IE−90、 37−44頁、1991年、境野英朋他、「大画面 における頭部と眼球運動の協調性に関する 一検討」 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor, Fumio Kishino, No. 5, Mihiratani, Seiji-cho, Seika-cho, Soraku-gun, Kyoto Pref., ITR Communication Systems Laboratories, Inc. (56) References Information Processing Society of Japan, Research Report, HI-42, pp. 11-16, 1992, Fumio Kishino et al., "Three-dimensional animation display of eye and eye-gaze matching" IEICE Technical Report, IE-90, pp. 37-44, 1991, Hidetomo Sakaino et al. , "A Study on Coordination between Head and Eye Movements on Large Screen"

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 人物の視線を検出することにより、所定
の座標系内における前記人物の注視点の座標を得る手段
と、 人物の瞬きの情報をリアルタイムに得るための手段と、 人物の顔モデルに、所定のモデルによって近似した眼球
モデルを合成してコンピュータグラフィックスにより表
示し、かつ前記注視点の座標により定められる所定の位
置を前記眼球モデルが注視するように前記眼球モデルを
回転させるためのアニメーション表示手段とを含み、 前記アニメーション表示手段は、前記注視点の座標に基
づいて前記眼球モデルの回転量を決定して前記眼球を回
転して前記人物の顔モデルと合成したアニメーションを
表示するための手段と、 前記人物の顔モデル上に、前記決定された回転量に対し
て予め定める関係により決定された態様で、まぶたまた
は眉またはその双方を表示するための手段とを含み、 前記アニメーションを表示するための手段と前記まぶた
または眉またはその双方を表示するための手段は、前記
人物の瞬きの情報をリアルタイムに得るための手段によ
りリアルタイムに得られた瞬きの情報に応じて、前記眼
球モデルと前記まぶたまたは眉またはその双方の表示を
瞬き状に変化させる、視線アニメーション表示装置。
1. A means for obtaining the coordinates of the gazing point of the person within a predetermined coordinate system by detecting the line of sight of the person, a means for obtaining information on the blink of the person in real time, and a face model of the person. In, to display by computer graphics by synthesizing an eyeball model approximated by a predetermined model, and for rotating the eyeball model so that the eyeball model gazes at a predetermined position defined by the coordinates of the point of gaze. An animation display means, wherein the animation display means determines an amount of rotation of the eyeball model based on the coordinates of the gazing point, rotates the eyeball, and displays an animation combined with the face model of the person. And a mode determined on the face model of the person by a predetermined relationship with respect to the determined rotation amount, A means for displaying a lid and / or eyebrows, or both, wherein the means for displaying the animation and the means for displaying the eyelids and / or eyebrows obtain the information on the blink of the person in real time. An eye gaze animation display device that changes the display of the eyeball model and the eyelid or eyebrow or both in a blinking manner in accordance with the blinking information obtained in real time by the means for.
【請求項2】 時系列に得られる前記注視点の座標に対
して逐次スムージング処理を行なって、前記アニメーシ
ョン表示手段に前記注視点の座標として与えるための手
段をさらに含む、請求項1に記載の視線アニメーション
表示装置。
2. The method according to claim 1, further comprising means for sequentially performing smoothing processing on the coordinates of the gazing point obtained in time series and giving the animation display means as the coordinates of the gazing point. Gaze animation display device.
JP6670393A 1993-03-25 1993-03-25 Gaze animation display device Expired - Fee Related JPH0812706B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6670393A JPH0812706B2 (en) 1993-03-25 1993-03-25 Gaze animation display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6670393A JPH0812706B2 (en) 1993-03-25 1993-03-25 Gaze animation display device

Publications (2)

Publication Number Publication Date
JPH06282627A JPH06282627A (en) 1994-10-07
JPH0812706B2 true JPH0812706B2 (en) 1996-02-07

Family

ID=13323568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6670393A Expired - Fee Related JPH0812706B2 (en) 1993-03-25 1993-03-25 Gaze animation display device

Country Status (1)

Country Link
JP (1) JPH0812706B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4765070B2 (en) * 2004-09-27 2011-09-07 国立大学法人電気通信大学 Character information processing method and character information processing apparatus
US7764283B2 (en) * 2005-12-23 2010-07-27 Sony Corporation Eye movement data replacement in motion capture
KR101819535B1 (en) 2011-06-30 2018-01-17 삼성전자주식회사 Method and apparatus for expressing rigid area based on expression control points
CN107735776B (en) * 2015-06-30 2021-07-13 索尼公司 Information processing apparatus, information processing method, and program
CN110313019B (en) * 2017-02-24 2023-07-04 索尼公司 Information processing apparatus, information processing method, and computer readable medium
CN109429002A (en) * 2017-08-28 2019-03-05 中国科学院深圳先进技术研究院 A kind of method and device shooting portrait
WO2019050034A1 (en) * 2017-09-11 2019-03-14 Groove X株式会社 Autonomously acting robot staring at partner

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
情報処理学会研究報告、HI−42、11−16頁、1992年、岸野文郎他、「眼の3次元アニメーション表示と視線一致」
電子通信学会技術研究報告、IE−90、37−44頁、1991年、境野英朋他、「大画面における頭部と眼球運動の協調性に関する一検討」

Also Published As

Publication number Publication date
JPH06282627A (en) 1994-10-07

Similar Documents

Publication Publication Date Title
Waltemate et al. The impact of avatar personalization and immersion on virtual body ownership, presence, and emotional response
CN110874557B (en) Voice-driven virtual face video generation method and device
CN107656613B (en) Human-computer interaction system based on eye movement tracking and working method thereof
US6249292B1 (en) Technique for controlling a presentation of a computer generated object having a plurality of movable components
NL1007397C2 (en) Method and device for displaying at least a part of the human body with a changed appearance.
US20220076474A1 (en) Computer generated hair groom transfer tool
US20210241510A1 (en) Generating textured polygon strip hair from strand-based hair for a virtual character
US20050083248A1 (en) Mobile face capture and image processing system and method
Ohya et al. Real-time reproduction of 3D human images in virtual space teleconferencing
Holloway et al. Virtual environments: A survey of the technology
US20190026935A1 (en) Method and system for providing virtual reality experience based on ultrasound data
US11380072B2 (en) Neutral avatars
JP2534617B2 (en) Real-time recognition and synthesis method of human image
JP6506443B1 (en) Image generation apparatus and image generation program
JP2018195996A (en) Image projection apparatus, image projection method, and image projection program
Pelachaud et al. Final report to NSF of the standards for facial animation workshop
Nijholt Capturing obstructed nonverbal cues in augmented reality interactions: a short survey
JPH0812706B2 (en) Gaze animation display device
JPH09305798A (en) Image display device
Zitnick et al. Manipulation of video eye gaze and head orientation for video teleconferencing
CN116710181A (en) System, method and graphical user interface for updating a display of a device with respect to a user's body
Mania et al. Gaze-aware displays and interaction
Mortlock et al. Virtual conferencing
Takegawa et al. Digital full-face mask display with expression recognition using embedded photo reflective sensor arrays
Kozima et al. Communicative criteria for processing time/space-varying information

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19960723

LAPS Cancellation because of no payment of annual fees