JPH09146692A - Image display device - Google Patents

Image display device

Info

Publication number
JPH09146692A
JPH09146692A JP7301785A JP30178595A JPH09146692A JP H09146692 A JPH09146692 A JP H09146692A JP 7301785 A JP7301785 A JP 7301785A JP 30178595 A JP30178595 A JP 30178595A JP H09146692 A JPH09146692 A JP H09146692A
Authority
JP
Japan
Prior art keywords
face
image
pointer cursor
cursor
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP7301785A
Other languages
Japanese (ja)
Inventor
Keiju Okabayashi
桂樹 岡林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP7301785A priority Critical patent/JPH09146692A/en
Publication of JPH09146692A publication Critical patent/JPH09146692A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)

Abstract

PROBLEM TO BE SOLVED: To move a position or an attitude to a desired position by freely moving it unless the face gets out of a measurement area by moving a pointer cursor to a target position found by a target pointer cursor position calculating means while using a pointer cursor moving means. SOLUTION: The direction of the face of the user operating a keyboard 6 while facing a display 5 is measured by a face azimuth measuring means 1 with six degrees of freedom, and the target position of pointer cursor on the screen of display 5 corresponding to the position and attitude of that measured face is calculated by a target pointer cursor position calculating means 2. Then, a pointer cursor moving means 3 moves the cursor displayed on the display 5 to the target position found by the calculation while controlling a computer 4. Thus, even when the position or attitude of face is freely moved, it can be moved to the desired position unless face gets out of the measurement area.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、表示画面上のポイ
ンタカーソルの位置を移動させる手段を備えた画像表示
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image display device having means for moving the position of a pointer cursor on a display screen.

【0002】[0002]

【従来の技術】現在の計算機は、Apple社のMac
intoshやマイクロソフト社のWindowsなど
に見られるようにポインタカーソル(以下、カーソルと
称す)とアイコンを使ったインターフェースが一般的で
ある。従来から、このカーソルを移動させるためのデバ
イスとしてはマウスを筆頭に、トラックボールやジョイ
スティック、タブレット、タッチパネルなどがある。マ
ウスが今のところ最良のインタフェースのようである。
2. Description of the Related Art The current computer is Mac of Apple Inc.
An interface using a pointer cursor (hereinafter referred to as a cursor) and an icon is generally used as seen in Windows and Windows of Microsoft Corporation. Conventionally, as a device for moving the cursor, there are a mouse, a trackball, a joystick, a tablet, a touch panel, and the like. The mouse seems to be the best interface so far.

【0003】しかし、Xウィンドウなどのウィンドウ環
境でプログラムを開発したりする場合、ウインドウの切
り換え時にはキーボードから手を離さなければならず、
煩わしく感じる。また、プログラム開発時以外でも、例
えば、ワードプロセッサでテキストを入力するような場
合、キーボードから手を離す動作は煩わしく、入力の効
率も低下する。キーボードから手を離さなくてよいイン
タフェースとしてはトラックボールやジョイスティッ
ク、また最近では、タッチパネルを応用したパッド(A
pple Power Bookやアルプス電気グラン
ドポイントなど)をキーボード上やキーボード付近に設
置したものがあるが、操作性に問題がある。
However, when developing a program in a window environment such as X window, it is necessary to remove the hand from the keyboard when switching windows.
I feel annoying. Further, even when the program is not being developed, for example, in the case of inputting text by a word processor, the operation of releasing the hand from the keyboard is troublesome, and the input efficiency is reduced. Trackballs and joysticks are used as interfaces that do not require you to remove your hands from the keyboard, and recently, pads that use touch panels (A
Some of them are installed on the keyboard or near the keyboard, but there is a problem in operability.

【0004】キーボードから手を離すことなく、また特
別のデバイス操作を必要としないカーソル移動方式とし
て、以下に説明するようにいくつか提案がなされてい
る。特開昭62−143124号公報には、ユーザーの
頭部にジャイロを使ったセンサを付けて、左右方向の頭
の動き(頭の中心軸回りの左右の回転と思われる)と上
下方向の動き(上下方向の回転運動になると推測できる
が、上記文献に詳細な記述なし)を検出して、その動き
によって、カーソルの位置を移動させようという提案が
ある。
Several proposals have been made as described below as a cursor movement method which does not require a special device operation without releasing the hand from the keyboard. In Japanese Patent Laid-Open No. 62-143124, a sensor using a gyro is attached to the user's head to move the head in the left-right direction (which is considered to be the left-right rotation around the central axis of the head) and the movement in the up-down direction. There is a proposal to detect (a vertical movement in a vertical direction, but not described in detail in the above document) and move the cursor position by the movement.

【0005】この手法では、センサが検出しているの
は、頭の上下左右の運動のみであるため、ごく限られた
条件(ユーザーの顔の位置がかならずディスプレイの正
面に位置するなど)でしか、顔が向いた方向にカーソル
が追従しない。換言すれば、ユーザが、頭を上下左右い
ずれにも振らずに、並進でのみ、頭位置を移動させた場
合、カーソルは追従しない。人によって、頭とディスプ
レイとの位置関係はまちまちであるので、このような方
式では、ユーザに、頭を置く位置や姿勢を強要すること
になり、ユーザにとって苦痛であり、しかもカーソルを
ユーザの直感に合った思いどおりの位置に移動させるこ
とはできない。
In this method, since the sensor detects only the movement of the head up, down, left and right, it can be performed only under very limited conditions (the position of the user's face is always located in front of the display, etc.). , The cursor does not follow the direction the face is facing. In other words, if the user moves the head position only in translation without swinging the head vertically or horizontally, the cursor does not follow. Since the positional relationship between the head and the display varies depending on the person, such a method compels the user to position the head and the posture, which is a pain for the user, and the cursor is not intuitive to the user. It cannot be moved to the desired position that suits.

【0006】また、特開昭59−117631号公報に
は、上記の方式とほぼ類似の提案があり、センサが異な
るだけである。この提案では上下の検出に重力を用いた
センサを、左右の検出に、超音波を使ったセンサを用い
ている。この提案も基本的には上記の文献(特開昭62
−143124号公報)に提案された方式と同じなの
で、上記した説明と同様の問題がある。
Further, Japanese Patent Laid-Open No. 59-117631 proposes a method that is substantially similar to the above-mentioned method, and only the sensor is different. In this proposal, a sensor using gravity is used to detect up and down, and a sensor using ultrasonic waves is used to detect left and right. This proposal is also basically based on the above-mentioned reference (Japanese Patent Laid-Open No. 62-62160)
Since it is the same as the method proposed in Japanese Laid-Open Patent Publication No. 143124), it has the same problem as described above.

【0007】さらに、特開平3−176718号公報に
は、ディスプレイ上部に付けた発光素子をユーザの頭に
つけたビデオカメラでとらえ、画像処理により発光素子
から照射されたスポット光の位置を知ることにより、カ
ーソルを移動させる方式が提案されている。この提案も
顔が向いた方向にカーソルを正確に移動させるために
は、ユーザの頭位置を拘束しなければならず、ユーザが
自由な位置や姿勢で作業することはできない。
Further, in Japanese Patent Laid-Open No. 3-176718, a light emitting element attached to the upper part of a display is captured by a video camera attached to the user's head, and the position of spot light emitted from the light emitting element is known by image processing. , A method of moving a cursor has been proposed. This proposal also requires the user's head position to be restrained in order to move the cursor accurately in the direction in which the face is facing, and the user cannot work in any position or posture.

【0008】以上の提案はユーザの頭の振り(上下左
右)を用いたものであるが、それ以外にも、特開昭61
−226827号公報や特開平2−212918号公報
には、ユーザの視線を検出してその方向にポインタカー
ソルを移動させる方式が提案されている。前者はハーフ
ミラーやレンズなどからなる視線検出センサをヘルメッ
トに付け、それをユーザがかぶせることによって視線方
向を検出し、視線方向にポインタカーソルを移動させる
ものである。この提案では、視線検出センサがついたヘ
ルメットをユーザにかぶることを強いているため、使い
勝手が悪いという問題がある。また、ハーフミラを通し
てディスプレイを見ることになり、画面が見えにくくな
る恐れがある。後者には、ディスプレイ上部に付けたビ
デオカメラによってユーザの黒目の動きを検出すること
により、視線を検出するとあるが、具体的な処理方法等
全く記述がなく、たとえ目の中の黒目の位置が検出でき
たとしても顔の向き等も視線方向に関係してくるため、
どのようにして視線を検出しようというのか全く不明で
ある。
The above proposal uses the swing of the user's head (up, down, left and right).
In Japanese Patent Laid-Open No. 226827 and Japanese Patent Laid-Open No. 2-212918, a method of detecting a user's line of sight and moving a pointer cursor in that direction is proposed. The former is to attach a line-of-sight detection sensor including a half mirror and a lens to a helmet, and the user covers it with the line-of-sight direction to detect the line-of-sight direction and move the pointer cursor in the line-of-sight direction. According to this proposal, the user is forced to wear a helmet with a line-of-sight detection sensor, which is not convenient. Also, the display is viewed through the half mirror, which may make it difficult to see the screen. In the latter, the line of sight is detected by detecting the movement of the user's black eye with a video camera attached to the upper part of the display, but there is no description of a specific processing method or the like, and even if the position of the black eye in the eye is Even if it can be detected, the direction of the face etc. will be related to the gaze direction,
It is completely unknown how to detect the line of sight.

【0009】[0009]

【発明が解決しようとする課題】本発明は、上記事情に
鑑み、ユーザに、頭部の位置や姿勢を強制することな
く、例えばディスプレイ画面を観察しながらキーボード
操作を行なうといった通常の作業で起こり得る位置や姿
勢の変化を許容し、しかも表示画面のポインタカーソル
を移動させるための操作子を操作することなく、そのポ
インタカーソルを表示画面上で移動させることのできる
画像表示装置を提供することを目的とする。
SUMMARY OF THE INVENTION In view of the above circumstances, the present invention occurs in a normal operation such as operating a keyboard while observing a display screen without forcing the user to position or position the head. It is possible to provide an image display device that allows a change in the obtained position and orientation and can move the pointer cursor on the display screen without operating an operator for moving the pointer cursor on the display screen. To aim.

【0010】[0010]

【課題を解決するための手段】上記目的を達成する本発
明の画像表示装置は、画像を表示する表示画面を有し、
その表示画面上に、その表示画面上のポイントを指示す
るポインタカーソルを含む画像を表示する表示手段と、
前記表示画面上に表示されたポインタカーソルの位置を
移動させるポインタカーソル移動手段とを備えた画像表
示装置において、表示画面に対向する顔面の位置および
姿勢を測定する6自由度顔方位測定手段と、その6自由
度顔方位測定手段により測定された顔面の位置および姿
勢に応じた、表示画面上のポインタカーソルの目標位置
を計算するポインタカーソル目標位置計算手段とを備
え、上記ポインタカーソル移動手段が、ポインタカーソ
ル目標位置計算手段で求められた上記目標位置にポイン
タカーソルを移動させるものであることを特徴とする。
An image display device of the present invention which achieves the above object has a display screen for displaying an image,
On the display screen, display means for displaying an image including a pointer cursor for pointing a point on the display screen,
In an image display device having pointer cursor moving means for moving the position of the pointer cursor displayed on the display screen, 6-degree-of-freedom face orientation measuring means for measuring the position and posture of the face facing the display screen, A pointer cursor target position calculating means for calculating a target position of the pointer cursor on the display screen according to the position and orientation of the face measured by the 6-degree-of-freedom face orientation measuring means, and the pointer cursor moving means, It is characterized in that the pointer cursor is moved to the target position obtained by the pointer cursor target position calculation means.

【0011】本発明の画像表示装置は、表示画面に対向
する顔面の位置および姿勢、すなわち6自由度を測定す
る6自由度測定手段を備えたため、その顔面が測定領域
から外れない限り、その位置や姿勢を自由に動かして
も、表示画面上のポインタカーソルを顔の向いた方向
に、すなわち直感に適合した所望の位置に移動させるこ
とができる。
Since the image display device of the present invention is provided with the 6-degree-of-freedom measuring means for measuring the position and orientation of the face facing the display screen, that is, the 6-degree-of-freedom, as long as the face does not deviate from the measurement area, the position It is possible to move the pointer cursor on the display screen in the direction in which the face is directed, that is, to a desired position adapted to intuition, even if the posture is freely moved.

【0012】ここで、上記本発明の画像表示装置におい
て、上記6自由度顔方位測定手段は、所定の方向から観
察したときの形状が姿勢に応じて変化する、顔面側に固
定されるターゲットマークと、そのターゲットマークを
撮影することによりそのターゲットマークを所定の方向
からみたときの画像を表わす画像データを得る撮像手段
と、上記画像データに基づいて、顔面の位置および姿勢
を演算する顔方位演算手段とを備えたものであってもよ
い。
Here, in the image display device of the present invention, the 6-degree-of-freedom face orientation measuring means has a target mark fixed on the face side, in which the shape when observed from a predetermined direction changes depending on the posture. And image pickup means for obtaining image data representing an image when the target mark is viewed from a predetermined direction, and face orientation calculation for calculating the position and orientation of the face based on the image data. It may be provided with a means.

【0013】この方式の場合、顔面側、例えば眼鏡や頭
部にターゲットマークを固定する必要があるが、このタ
ーゲットマークは、顔面の位置および姿勢を正確に測定
することができる程度のものでよいため、重さも軽くて
済み、ユーザに煩わしさを与えることは少ない。一方、
このようなターゲットマークを用いることにより顔面の
位置や姿勢を正確に測定することができる。
In the case of this method, it is necessary to fix the target mark on the face side, for example, the spectacles or the head, but the target mark may be such that the position and posture of the face can be accurately measured. Therefore, the weight is light and the user is not bothered. on the other hand,
By using such a target mark, the position and posture of the face can be accurately measured.

【0014】あるいは、上記本発明の画像表示装置にお
いて、上記6自由度顔方位測定手段が、顔面を撮影する
ことによりその顔面を所定の方向からみたときの画像を
表わす画像データを得る撮像手段と、その画像データに
基づいて、撮像手段で得られた画像上にあらわれた少な
くとも4つの特徴点の、その画像上の位置を追跡する特
徴点追跡手段と、この特徴点追跡手段で求められた上記
少なくとも4つの特徴点の画像上の位置に基づいて、顔
面の位置および姿勢を演算する顔方位演算手段とを備え
たものであってもよい。
Alternatively, in the image display device of the present invention, the 6-degree-of-freedom face orientation measuring means obtains image data representing an image when the face is viewed from a predetermined direction by photographing the face. A feature point tracking means for tracking the positions on the image of at least four feature points appearing on the image obtained by the image pickup means based on the image data; It may be provided with a face orientation calculating means for calculating the position and orientation of the face based on the positions of at least four feature points on the image.

【0015】この方式の場合、顔ないし頭部には上記タ
ーゲットマークを含め、何も装着する必要はなく、ユー
ザは煩わしさから完全に開放される。ここで、上記本発
明の画像表示装置において、ポインタカーソルの表示位
置の変動を抑制するポインタカーソル変動抑制手段を備
えることが好ましい。ポインタカーソルの位置が顔面な
いし頭部の位置や姿勢の変動に敏感に反応して変動する
と見ずらい画面となるおそれがある。また、顔面の位置
や姿勢の測定分解能や測定誤差等に起因してポインタカ
ーソルの位置変動(振動)が生じるおそれがあるので、
そこで、ポインタカーソル変動制御手段を備え、ユーザ
がポインタカーソルの位置の移動を意図しないような、
顔面ないし頭部の、位置や姿勢の細かな変動、あるい
は、顔面の位置や姿勢の測定誤差等に起因するポインタ
カーソルの位置変動が防止されるようにそのポインタカ
ーソルの位置変動を抑制することにより、画面の見やす
さの向上が図られる。
In the case of this system, it is not necessary to wear anything including the target mark on the face or the head, and the user is completely free from the trouble. Here, it is preferable that the image display device of the present invention includes a pointer cursor variation suppressing unit that suppresses variation in the display position of the pointer cursor. If the position of the pointer cursor changes sensitively to changes in the position or posture of the face or head, the screen may be difficult to see. In addition, there is a possibility that the position variation (vibration) of the pointer cursor may occur due to the measurement resolution and measurement error of the position and orientation of the face.
Therefore, a pointer cursor variation control means is provided so that the user does not intend to move the position of the pointer cursor,
Suppressing the position change of the pointer cursor so that the position change of the face or head or the position change of the pointer cursor caused by the measurement error of the position or position of the face or the like is prevented. , The visibility of the screen is improved.

【0016】また、上記本発明の画像表示装置におい
て、ポインタカーソルを、6自由度顔方位測定手段で測
定された顔面の位置および姿勢に応答して移動させるか
否かを指示入力する操作子を備えることが好ましい。こ
の場合に、複数の操作キーが配置されたキーボードを備
え、そのキーボードに配置された複数の操作キーのうち
の少なくとも1つの操作キーが上記操作子であってもよ
い。
In the image display device of the present invention, an operator for inputting whether or not to move the pointer cursor in response to the position and orientation of the face measured by the 6-degree-of-freedom face orientation measuring means. It is preferable to provide. In this case, a keyboard provided with a plurality of operation keys may be provided, and at least one operation key among the plurality of operation keys arranged on the keyboard may be the operator.

【0017】実際の作業にあたっては、その作業に応じ
てポインタカーソルを移動させる必要のある場合と、移
動させる必要のない、あるいは移動させてはならない場
合がある。上記操作子を備えると、そのような複数の場
合に適合した、使い勝手がさらに向上した画像表示装置
が実現する。
In the actual work, the pointer cursor may or may not need to be moved depending on the work, or may not be moved. The provision of the above-mentioned operator realizes an image display device which is suitable for a plurality of such cases and is further improved in usability.

【0018】[0018]

【発明の実施の形態】以下、本発明の実施形態について
説明する。図1〜図3は、本発明の画像形成装置の各実
施形態の概略構成を示すブロック図である。図1は、本
発明の基本的な実施形態を示すブロック図であり、この
図1に示すように、6自由度顔方位測定手段1により、
ディスプレイ5に対面してキーボード6を操作している
ユーザの顔の向き(位置と姿勢)が測定され、ポインタ
ーカーソル目標位置計算手段2が、そのユーザの顔の向
きに基づいてカーソルの移動目標位置を計算し、ポイン
タカーソル移動手段3が計算機4を制御して、ディスプ
レイ5に表示されたカーソルを、計算により求めた目標
位置に移動させる。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below. 1 to 3 are block diagrams showing a schematic configuration of each embodiment of the image forming apparatus of the present invention. FIG. 1 is a block diagram showing a basic embodiment of the present invention. As shown in FIG.
The orientation (position and orientation) of the face of the user who is operating the keyboard 6 facing the display 5 is measured, and the pointer cursor target position calculation means 2 determines the movement target position of the cursor based on the orientation of the user's face. And the pointer cursor moving means 3 controls the calculator 4 to move the cursor displayed on the display 5 to the target position calculated.

【0019】図2は、カーソルが不必要に変動するのを
抑えるカーソル変動抑制手段7を備えた構成である。ま
た、図3はユーザの顔の向きに応じてカーソルを移動さ
せるか否かを指示する操作子8を備えた例である。本発
明を計算機システムに適用した場合のイメージ図を図4
に示す。本発明の各実施形態によれば、この図4に示す
ようにユーザの顔が向いた方向に正確にカーソルを追従
させることができる。
FIG. 2 shows a structure provided with a cursor fluctuation suppressing means 7 for suppressing unnecessary fluctuation of the cursor. Further, FIG. 3 is an example provided with an operator 8 for instructing whether or not to move the cursor according to the direction of the face of the user. FIG. 4 is an image diagram when the present invention is applied to a computer system.
Shown in According to each embodiment of the present invention, as shown in FIG. 4, the cursor can be made to accurately follow the direction in which the user's face is facing.

【0020】以下、図1〜図3に示す実施形態における
各手段を詳細に説明する。まず、ユーザの顔の向きか
ら、ディスプレイ5のスクリーン上のカーソル移動目標
位置を求める手法について述べる。図5に、顔座標形と
スクリーン座標形の関係を示す。顔の向きからカーソル
位置を求めるには、ユーザの顔が向いた方にカーソルを
移動させればよい。具体的には、顔の平面(実際には平
面ではないが平面に近似する)に垂直なベクトルを方向
ベクトルとする直線がディスプレイの面(スクリーン平
面」と呼ぶことにする)と交差する点にカーソルを移動
させる。ここでは、顔の向き(6自由度(x,y,z,
roll,pitch,yaw))からカーソル位置
(2自由度(x,y))を求める方法について説明す
る。図6に、roll(ロール)、pitch(ピッ
チ)、yaw(ヨー)の定義を示す。
Each means in the embodiments shown in FIGS. 1 to 3 will be described in detail below. First, a method for obtaining the cursor movement target position on the screen of the display 5 from the direction of the user's face will be described. FIG. 5 shows the relationship between the face coordinate form and the screen coordinate form. In order to obtain the cursor position from the face direction, the cursor may be moved to the direction where the user's face is facing. Specifically, at the point where a straight line whose direction vector is a vector that is perpendicular to the plane of the face (which is not actually a plane but approximates a plane) intersects the plane of the display (called the screen plane). Move the cursor. Here, the orientation of the face (6 degrees of freedom (x, y, z,
A method for obtaining the cursor position (2 degrees of freedom (x, y)) from (roll, pitch, yaw)) will be described. FIG. 6 shows the definitions of roll (roll), pitch (pitch), and yaw (yaw).

【0021】スクリーン座標形の原点から顔座標形の原
点へのベクトルVsfを、Vsf=[xf ,yf ,z
f ,φ,θ,ψ](姿勢はPRY(pitch,rol
l,yaw)表現)とすると、マトリックス表現では、
The vector Vsf from the origin of the screen coordinate form to the origin of the face coordinate form is Vsf = [x f , y f , z
f , φ, θ, ψ] (posture is PRY (pitch, roll
l, yaw) expression), in matrix expression,

【0022】[0022]

【数1】 (Equation 1)

【0023】顔座標形で表現した顔座標形のz軸方向の
単位ベクトルは[0,0,1,0]であるので、スクリ
ーン座標形で表現した顔座標形のz軸方向の方向ベクト
ルVzfsは
Since the unit vector in the z-axis direction of the face coordinate form expressed in the face coordinate form is [0,0,1,0], the direction vector Vzfs of the face coordinate form expressed in the screen coordinate form in the z-axis direction. Is

【0024】[0024]

【数2】 (Equation 2)

【0025】となる。ここで、## EQU1 ## here,

【0026】[0026]

【数3】 (Equation 3)

【0027】とおくと、Vzfs=[a,b,c,0]
を方向ベクトルとし、顔座標形の原点を通る直線の方程
式は、
In other words, Vzfs = [a, b, c, 0]
Is a direction vector, and the equation of a straight line passing through the origin of the face coordinate form is

【0028】[0028]

【数4】 (Equation 4)

【0029】となり、この直線とスクリーン座標形のx
y平面が交わる点が、求めたいカーソルの位置Pc
(xc ,yc ,0)である。したがって、Pc をこの直
線の方程式に代入し整理すると、
Then, this straight line and x of the screen coordinate form
The point where the y-plane intersects is the position of the desired cursor P c =
(X c , y c , 0). Therefore, by substituting P c into this straight line equation and rearranging,

【0030】[0030]

【数5】 (Equation 5)

【0031】(1)、(2)式より、スクリーン座標形
で表現した顔座標形の位置および姿勢Vsf=[xf
f ,zf ,φ,θ,ψ]から、カーソルを移動させる
位置(xc ,yc )が計算できる。ターゲットマークを
用いた実施形態を図7に示す。図のように、ユーザの顔
の周囲の一部(図では頭部)にターゲットマークをつ
け、ディスプレイ上部に取り付けたけたカメラでそのタ
ーゲットマークをとらえ、視覚処理ボードに搭載された
視覚追跡システムでユーザの顔の向き(位置と姿勢)を
リアルタイム計測する。尚、モニタは、カメラで撮影さ
れた画像を表示するためのものである。ここで用いる視
覚追跡システムは、例えば、「特許協力条約に基づいて
国際公開された日本語特許出願(国際公開番号W093
/15376)」に記載されているシステムである。こ
のシステムを使ったターゲットマークの計測方法を以下
に示す。
From the equations (1) and (2), the position and orientation of the face coordinate form expressed in the screen coordinate form Vsf = [x f ,
The position (x c , y c ) where the cursor is moved can be calculated from y f , z f , φ, θ, ψ]. An embodiment using a target mark is shown in FIG. As shown in the figure, a target mark is attached to a part of the user's face (head in the figure), and the target mark is captured by the camera attached to the top of the display, and the visual tracking system installed on the visual processing board is used. Real-time measurement of the user's face orientation (position and posture). The monitor is for displaying an image taken by the camera. The visual tracking system used here is, for example, “Japanese Patent Application (International Publication No. W093) published internationally under the Patent Cooperation Treaty.
/ 15376) ”. The method of measuring the target mark using this system is shown below.

【0032】図8に、ここで使用するターゲットマーク
を示す。図のように黒い円の上部に一定量シフトして白
い三角形を配置する。このターゲットマークは、このタ
ーゲットマークを見る視点が変化すると図9のように三
角形と円の位置関係が変化することを利用して、姿勢の
ずれを検出するためのものである。この三角形と円のず
れの量は投影ヒストグラムから容易に得ることができ
る。
FIG. 8 shows the target mark used here. As shown in the figure, place a white triangle on top of the black circle with a certain amount of shift. This target mark is for detecting the deviation of the posture by utilizing the fact that the positional relationship between the triangle and the circle changes as shown in FIG. 9 when the viewpoint for viewing the target mark changes. The amount of deviation between the triangle and the circle can be easily obtained from the projection histogram.

【0033】ターゲットマークの検出はある大きさのウ
ィンドウを画面上で走らせて、そのウインドウ内の投影
ヒストグラムを調べることにより行う。この様子を図1
0に示す。ターゲットマークであるか否かは、ターゲッ
トマークの場合、x,yともに、投影ヒストグラムにピ
ークを2つ持つことで判定することができる。図11に
x、y方向の偏差の求め方を示す。この図に示すよう
に、ターゲットマークの中心位置と、あらかじめ設定し
た目標位置との差(1x,1y)が画像座標形上のxy
偏差である。実際に必要なのはカメラ座標形上の偏差な
ので、この値(lx,ly)をカメラ座標形に変換す
る。なお、ターゲットマークの中心の座標もxy投影ヒ
ストグラムから求める。
The target mark is detected by running a window of a certain size on the screen and examining the projection histogram in that window. Figure 1 shows this situation.
0 is shown. In the case of a target mark, whether or not it is a target mark can be determined by having two peaks in the projection histogram for both x and y. FIG. 11 shows how to obtain the deviations in the x and y directions. As shown in this figure, the difference (1x, 1y) between the center position of the target mark and the preset target position is xy on the image coordinate form.
Deviation. Since what is actually required is a deviation on the camera coordinate form, this value (lx, ly) is converted to the camera coordinate form. The coordinates of the center of the target mark are also obtained from the xy projection histogram.

【0034】z方向の偏差は、図11に示すように、タ
ーゲットマークの、目標とするzの値に対応するマーク
面積と、測定した面積との差により求める。次に、姿勢
(ロール、ピッチ、ヨー)方向の偏差の求め方を示す。
まず、ピッチとヨー方向の偏差の求め方を示す。これら
は、ターゲットマークを構成する下の黒円と上の白三角
形との位置関係から求める。カメラの視点が傾いた場合
は、三角マークが円の中心よりもずれて見える。このず
れがピッチ、ヨー方向の偏差である。三角形と円のずれ
も投影ヒストグラムから求める。この方法を図13に示
す。まず、x投影ヒストグラムからピークとなる点を求
める(図12中Xp1、Xp2)。このXp1とXp2
の間が三角形の部分である。この三角形の部分がマーク
全体のどの部分に位置するかを求めればよい。つまり、
マーク全体の中心Xbcと三角形の中心Xpcとの差L
yawがヨー方向の偏差である。同様にして、y投影ヒ
ストグラムからピッチ方向の偏差Lpitchを求め
る。
As shown in FIG. 11, the deviation in the z direction is obtained by the difference between the measured mark area corresponding to the target z value of the target mark and the measured area. Next, how to obtain the deviation in the posture (roll, pitch, yaw) direction will be shown.
First, how to find the deviation between the pitch and yaw directions will be described. These are obtained from the positional relationship between the lower black circle and the upper white triangle forming the target mark. When the camera's viewpoint is tilted, the triangular mark appears to be offset from the center of the circle. This deviation is the deviation in the pitch and yaw directions. The deviation between the triangle and the circle is also calculated from the projection histogram. This method is shown in FIG. First, the peak point is obtained from the x projection histogram (Xp1, Xp2 in FIG. 12). This Xp1 and Xp2
The part between is the triangular part. It suffices to find which part of the entire mark the triangular part is located. That is,
Difference L between the center Xbc of the entire mark and the center Xpc of the triangle
yaw is the deviation in the yaw direction. Similarly, the deviation Lpitch in the pitch direction is obtained from the y projection histogram.

【0035】最後に、ロール方向の偏差の求め方を示
す。これを図14に示す。ロール方向の偏差は、ロール
方向の回転により三角形の1頂点(図14図中A)のx
位置が三角形の中心線からずれることを利用する。この
ロール方向の偏差もx投影ヒストグラムから求める。つ
まり、図14に示すように、Xp1とXp2の中点Xp
cとX1pとの差が、求めるロール方向の偏差Lrol
lである。
Finally, a method of obtaining the deviation in the roll direction will be shown. This is shown in FIG. The deviation in the roll direction is x of one vertex of the triangle (A in FIG. 14) due to the rotation in the roll direction.
The position shifts from the center line of the triangle. The deviation in the roll direction is also obtained from the x projection histogram. That is, as shown in FIG. 14, the midpoint Xp of Xp1 and Xp2
The difference between c and X1p is the deviation Lroll in the desired roll direction.
l.

【0036】以上のようにして求めた偏差は、ピクセル
数で示されたものである。これを絶対的なスケール(位
置はミリメートル、姿勢はラジアン)に、実測により求
めた変換関数により変換する。この変換関数の求め方を
以下に示す。まず、図15に示すように、ターゲットマ
ークに固定された座標形のz軸方向の各点に対して、先
ず、z軸の値(カメラとターゲットマークとの距離)と
その時のターゲットマークの画面上での偏差Lz(ピク
セル数)を計測する。次に、x,y軸方向正負に数点移
動させ、その時の移動量Dx、Dyとマークの画面上で
の偏差Lx、Ly(ピクセル数)を計測する。さらに、
カメラをターゲットマークの座標形のx,y,z軸回り
に数点回転させ、そのときの移動量Dyaw,Dpit
ch,Drollとマークの画面上での偏差を計測す
る。以上の計測をz軸方向の各点において行う。
The deviation obtained as described above is represented by the number of pixels. This is converted into an absolute scale (position is millimeter, posture is radian) by a conversion function obtained by actual measurement. The method of obtaining this conversion function is shown below. First, as shown in FIG. 15, for each point in the z-axis direction of the coordinate shape fixed to the target mark, first, the value of the z-axis (distance between the camera and the target mark) and the screen of the target mark at that time. The deviation Lz (the number of pixels) above is measured. Next, the positive and negative points are moved in the x and y axis directions, and the movement amounts Dx and Dy at that time and the deviations Lx and Ly (the number of pixels) of the mark on the screen are measured. further,
The camera is rotated by several points around the x, y, z axes of the coordinate shape of the target mark, and the movement amounts Dyaw, Dpit at that time
The deviation between ch, Drroll and the mark on the screen is measured. The above measurement is performed at each point in the z-axis direction.

【0037】上記の測定により以下の関係が求まる。 (1)カメラとターゲットマークとの距離(zで近似)
と画面上でのターゲットマークの面積との関係。 (2)カメラとターゲットマークとの距離が一定の場合
の各軸方向(x,y,z,roll,pitch,ya
w)の実座標における偏差と画面上での偏差との関係。 (3)カメラとターゲットマークとの距離に対する
(2)の関係の挙動。
From the above measurement, the following relationship is obtained. (1) Distance between camera and target mark (approx. Z)
And the area of the target mark on the screen. (2) Each axial direction (x, y, z, roll, pitch, ya) when the distance between the camera and the target mark is constant.
The relationship between the deviation in the actual coordinates of w) and the deviation on the screen. (3) Behavior of the relationship of (2) with respect to the distance between the camera and the target mark.

【0038】図16はこれらの関係を示すグラフであ
る。図16(b)に示すように(2)の関係は原点を通
る直線で近似でき、この直線の傾きが図16(c)のよ
うにzに応じて変化する。この図はyの挙動について示
したものであるが、他の各軸(zを除く)についても同
じ挙動を示すので、各軸方向それぞれについて近似式A
* =g* (z)が求まる。
FIG. 16 is a graph showing these relationships. As shown in FIG. 16 (b), the relationship of (2) can be approximated by a straight line passing through the origin, and the inclination of this straight line changes according to z as shown in FIG. 16 (c). Although this figure shows the behavior of y, the same behavior is exhibited for each of the other axes (excluding z), so that the approximate expression A for each axis direction is obtained.
* = G * (z) is obtained.

【0039】以上の結果から、図17に示す手順で、画
像処理で得られた偏差L* (ピクセル)から実座標での
偏差D* (ミリ、ラジアン)に変換することができる。
図18は、ディスプレイから目を保護する眼鏡にターゲ
ットマークを取り付けた例である。こうすることによ
り、ユーザは保護用眼鏡をつけることを意識しターゲッ
トマークをつけることは意識せずにすむため、煩わしさ
がなくなる。図19は、ヘッドセットにマークをつけた
例である。この場合もターゲットマークをつけるという
煩わしさは無い。
From the above results, the deviation L * (pixels) obtained by the image processing can be converted into the deviation D * (millimeters, radians) in the actual coordinates by the procedure shown in FIG.
FIG. 18 is an example in which target marks are attached to eyeglasses that protect the eyes from the display. By doing so, the user does not have to be conscious of wearing the protective glasses and conscious of putting the target mark, so that the user is not bothered. FIG. 19 shows an example in which the headset is marked. Also in this case, there is no annoyance of attaching the target mark.

【0040】図20に、顔の特徴点を追跡する特徴点追
跡手段を備えた例を示す。ここでは、図20に示す特徴
点追跡ボードに組み込まれたアルゴリズムに従って、例
えば図21に示すような顔の特徴点をリアルタイムで追
跡して、それら特徴点の画像上での位置を求める。この
例では両目尻と口の左右の端を特徴点としているが、4
つの特徴点の相互の位置関係がわかっていれば、これら
の特徴点は顔のどの部分でもよい。特徴点の画像上での
位置から顔の向きを計算する方法は、顔を平面であると
近似すれば、4点透視問題を解けば求まる。
FIG. 20 shows an example provided with a feature point tracking means for tracking face feature points. Here, for example, the facial feature points as shown in FIG. 21 are tracked in real time according to the algorithm incorporated in the feature point tracking board shown in FIG. 20, and the positions of those feature points on the image are obtained. In this example, the feature points are the outer corners of the eyes and the left and right edges of the mouth.
These feature points may be any part of the face as long as the mutual positional relationship of the two feature points is known. A method of calculating the orientation of the face from the positions of the feature points on the image can be obtained by solving the 4-point perspective problem if the face is approximated as a plane.

【0041】この4点透視問題のアルゴリズムについ
て、公知ではあるが、以下に説明しておく。 (座標系)座標系を図22のように設定する。基準とな
る座標系を画面上に設定する。このとき、原点Oは、光
軸と画面が交わる位置に取り、視線方向をZ軸、視線に
向かって左をX軸、上方をY軸とする右手系を設定す
る。また、焦点は、Z軸負の方向にfだけ離れたところ
に存在するとし、モデル化を行う。実際の透視変換マト
リクスは、実際のレンズ系を考慮する必要があるが、こ
こでは、シンプルなモデル化を行っている。
Although the algorithm for the four-point perspective problem is known, it will be described below. (Coordinate system) The coordinate system is set as shown in FIG. Set the reference coordinate system on the screen. At this time, the origin O is set at a position where the optical axis and the screen intersect, and a right-handed system is set in which the line-of-sight direction is the Z-axis, the left side toward the line of sight is the X-axis, and the upper side is the Y-axis. Further, the focus is assumed to exist at a position separated by f in the negative direction of the Z axis, and modeling is performed. For the actual perspective transformation matrix, it is necessary to consider the actual lens system, but here, a simple modeling is performed.

【0042】対象物(ユーザの顔)の座標系としては、
計測に利用する4つの特徴点の内の一点を、対象物座標
原点O′とする。4点が存在する平面の法線方向をZ′
軸とし、X′,Y′軸に関しては、座標系が右手系を構
成するように取る。このように構成した座標系O′に於
いて、O′から他の3つの特徴点の3本のベクトルをそ
れぞれA(a1,a2,0)、B(b1,b2,0)、
C(c1,c2,0)とする(各点は、X′Y′平面内
に存在する)。
As the coordinate system of the object (user's face),
One of the four feature points used for measurement is set as the object coordinate origin O '. Let Z ′ be the normal direction of the plane where the four points exist.
With respect to the X'axis and the Y'axis, the coordinate system is taken as a right-handed system. In the coordinate system O'constructed in this way, three vectors of O'and the other three feature points are A (a1, a2, 0), B (b1, b2, 0),
Let C (c1, c2, 0) (each point lies in the X'Y 'plane).

【0043】また、各特徴点の画像面上への投影点は、
原点Oから対象物座標原点の投影点までのベクトルを、
O1(o1,o2,0)、また、各特徴点の投影点まで
のベクトルを、α(α1,α2,0)、β(β1,β
2,0)、γ(γ1,γ2,0)とする。以上により、
各特徴点と画面上の投影された特徴点の、各の座標系に
対する表現が可能となる。 (座標変換)まず、対象物座標原点からのベクトルA,
B,Cと、画像面上での特徴点ベクトルα,β,γとを
結びつける変換行列を求める。以後、ベクトルは、第四
成分を1に規格化した同時座標表示によって表現する。
The projection point of each feature point on the image plane is
The vector from the origin O to the projection point of the object coordinate origin is
O1 (o1, o2, 0) and vectors to the projection points of each feature point are α (α1, α2, 0), β (β1, β
2, 0) and γ (γ1, γ2, 0). From the above,
It is possible to represent each feature point and the feature point projected on the screen with respect to each coordinate system. (Coordinate conversion) First, the vector A from the object coordinate origin,
A transformation matrix that connects B and C with the feature point vectors α, β, and γ on the image plane is obtained. Hereinafter, the vector is represented by the simultaneous coordinate display in which the fourth component is standardized to 1.

【0044】図22からわかる通り、座標系O′−X′
Y′Z′は、座標系O−XYZをX軸方向にs,Y軸方
向にt,Z軸方向にuだけ平行移動し、更にそれを回転
させたものと理解できる。よって、ベクトルA,B,C
とベクトルα,β,γとは、平行移動・回転を表す変換
行列Tと、透視変換PzPを表す変換行列との積による
行列で結びつく。また、Uは、単位の変換行列で、p=
f/F(f:画素数で表される焦点距離、F:メートル
等の単位で表される焦点距離)は、単位長さ当たりの画
素数である。
As can be seen from FIG. 22, the coordinate system O'-X '
It can be understood that Y′Z ′ is obtained by translating the coordinate system O-XYZ by s in the X-axis direction, t in the Y-axis direction, and u in the Z-axis direction, and further rotating it. Therefore, the vectors A, B, C
And the vectors α, β, and γ are linked by a matrix formed by the product of a transformation matrix T representing translation / rotation and a transformation matrix representing the perspective transformation PzP. U is a unit conversion matrix, and p =
f / F (f: focal length represented by the number of pixels, F: focal length represented by a unit such as meters) is the number of pixels per unit length.

【0045】すなわち、 X=Pz PTU・X′ ・・・・・ (3) ここに、X′は、O′−X′Y′Z′系で表示したベク
トルであり、XはそれをX−Y面に透視変換したベクト
ルをO−XYZ系で表示したものである。また、Pz
P,T,Uは、それぞれ次のような行列である。
That is, X = P z PTU · X ′ (3) Here, X ′ is a vector represented by the O′-X′Y′Z ′ system, and X is X. It is a diagram in which a vector that has been perspective-transformed on the −Y plane is displayed in an O-XYZ system. Also, P z ,
P, T, and U are the following matrices, respectively.

【0046】[0046]

【数6】 (Equation 6)

【0047】今、Tは、O′=X′Y′Z′系およびO
−XYZ系の間の平行移動・回転を表し、
Now, T is an O '= X'Y'Z' system and O
-Represents the translation / rotation between XYZ systems,

【0048】[0048]

【数7】 (Equation 7)

【0049】(8)〜(10)式は、それぞれO′−
X′Y′Z′系のX′軸、Y′軸、Z′軸の各単位ベク
トルをO−XYZ系で成分表示したものである。Pは焦
点距離fの透視変換、Pz はX−Y面への投影変換を表
す。ここで、Pz PTUを計算すると、結局次の変換式
が得られる。
Equations (8) to (10) are respectively O'-
The unit vectors of the X'axis, Y'axis, and Z'axis of the X'Y'Z 'system are represented in the O-XYZ system. P is the perspective transformation of the focal length f, and P z is the projection transformation on the XY plane. Here, when P z PTU is calculated, the following conversion formula is finally obtained.

【0050】[0050]

【数8】 (Equation 8)

【0051】(成分関係式)(11)式において、X′
にA,B,Cを、Xにα,β,γを代入する。すなわ
ち、
(Component relational expression) In the expression (11), X '
Substitute A, B, and C for X, and α, β, and γ for X. That is,

【0052】[0052]

【数9】 (Equation 9)

【0053】これらのうち、(11),(13),(1
6)式により、
Of these, (11), (13), (1
From equation 6),

【0054】[0054]

【数10】 (Equation 10)

【0055】となり、まとめるとTherefore, in summary,

【0056】[0056]

【数11】 [Equation 11]

【0057】(20)式は、同時座標表示であるため、
以下のように変形できる。
Since equation (20) is a simultaneous coordinate display,
It can be modified as follows.

【0058】[0058]

【数12】 (Equation 12)

【0059】ここで、対象物座標原点O′の投影点O1
は、以下の様に表すことができる。
Here, the projection point O1 of the object coordinate origin O '
Can be expressed as follows:

【0060】[0060]

【数13】 (Equation 13)

【0061】(21)式の両辺を比較し、(23),
(24)式を代入し、整理すると、
Comparing both sides of the equation (21), (23),
Substituting equation (24) and rearranging,

【0062】[0062]

【数14】 [Equation 14]

【0063】となる。ここで、(11),(14),
(17)式及び(11),(15),(18)式につい
ても同様に変形整理すると、以下のようになる。
Is obtained. Where (11), (14),
The equations (17) and (11), (15), and (18) can be similarly rearranged as follows.

【0064】[0064]

【数15】 (Equation 15)

【0065】以上の式を整理すると、次のような線形方
程式が得られる。
By rearranging the above equations, the following linear equation is obtained.

【0066】[0066]

【数16】 (Equation 16)

【0067】ここで、(31)式中の6×6のマトリク
スMと呼ぶ。よって、(31)式から以下のようにな
る。
Here, the matrix M of 6 × 6 in the equation (31) is called. Therefore, the following is obtained from the equation (31).

【0068】[0068]

【数17】 [Equation 17]

【0069】ここで、nx'=(n11,n21,n31T
Y'=(n12,n22,n32T は、(32)式から求め
ることができる。また、s,t,uは、以下のようにし
て、求める。まずnx'のノルムは、単位ベクトルである
ので、
Here, n x ' = (n 11 , n 21 , n 31 ) T ,
n Y ′ = (n 12 , n 22 , n 32 ) T can be obtained from the equation (32). Further, s, t, u are obtained as follows. Norm of n x 'First, since a unit vector,

【0070】[0070]

【数18】 (Equation 18)

【0071】となり、(32)式から、Qが導かれ以下
となる。
From the equation (32), Q is derived and becomes the following.

【0072】[0072]

【数19】 [Equation 19]

【0073】よってTherefore

【0074】[0074]

【数20】 (Equation 20)

【0075】となり、(23),(24),(35)式
から、
From equations (23), (24) and (35),

【0076】[0076]

【数21】 (Equation 21)

【0077】となる。 (O′,A,B,Cの空間配置)(32),(36),
(37),(38)式から、座標系O′−X′Y′Z′
と座標系O−XYZとの間の変換式が、すべて決定さ
れ、以下の式で表すことができる。
It becomes (O ', A, B, C spatial arrangement) (32), (36),
From equations (37) and (38), the coordinate system O'-X'Y'Z '
The conversion equations between the coordinate system and the coordinate system O-XYZ are all determined and can be expressed by the following equations.

【0078】[0078]

【数22】 (Equation 22)

【0079】ここで、Aを変換マトリクスと呼び、A
は、
Here, A is called a transformation matrix, and A
Is

【0080】[0080]

【数23】 (Equation 23)

【0081】で与えられる。なお、X′は、画素値に変
換されているものとする。 (距離・姿勢表現方法)上記のように定式化を行い、導
出した変換マトリクスAにより、対象物の位置・姿勢を
表現できる。しかし、このようなマトリクスの表現形式
では、特に、操作者に対象物の姿勢を、直観的に示すこ
とができない。そこで、以下では、roll−pitc
h−yaw表現形式について、変換マトリクスAからの
導出方法を示す。 (roll−pitch−yaw表現形式)上記の変換
マトリクスAを(40)式に示す。
Is given by It is assumed that X ′ has been converted into a pixel value. (Distance / Posture Representation Method) The position / posture of the object can be represented by the conversion matrix A derived by performing the formulation as described above. However, such a matrix expression format cannot particularly intuitively indicate the posture of the object to the operator. Therefore, in the following, roll-pitc
A derivation method from the conversion matrix A for the h-yaw expression format will be shown. (Roll-pitch-yaw representation format) The conversion matrix A is shown in equation (40).

【0082】[0082]

【数24】 (Equation 24)

【0083】ここで、変換マトリクス中のn11〜n
33は、求める回転成分を表している。変換マトリクスA
を用いて、Z軸、Y軸、X軸回りの回転角(roll,
pitch,yaw角、以下RPY(φ,θ,ψ)で示
す。)を求める。今、X軸、Y軸、Z軸の回転マトリク
スを以下のように表現する。
Here, n 11 to n in the conversion matrix
33 represents the rotation component to be obtained. Transformation matrix A
Using, the rotation angle around the Z axis, Y axis, and X axis (roll,
Pitch, yaw angle, hereinafter denoted by RPY (φ, θ, ψ). ). Now, the rotation matrix of the X axis, Y axis, and Z axis is expressed as follows.

【0084】[0084]

【数25】 (Equation 25)

【0085】roll−pitch−yawは、もとの
座標系のx軸回りの回転ψ、ついでy軸回りの回転θ、
最後にz軸回りの回転φを行い回転を表現する。このこ
とから、(41),(42),(43)式の表現を用い
るとRPY(φ,θ,ψ)は、以下になる。
Roll-pitch-yaw is a rotation ψ about the x axis of the original coordinate system, then a rotation θ about the y axis,
Finally, rotation φ around the z axis is performed to express the rotation. From this, RPY (φ, θ, ψ) is as follows using the expressions of (41), (42), and (43).

【0086】[0086]

【数26】 (Equation 26)

【0087】また、RPY(φ,θ,ψ)は、(40)
式の回転成分を表しているので、
RPY (φ, θ, ψ) is (40)
Since it represents the rotation component of the equation,

【0088】[0088]

【数27】 [Equation 27]

【0089】となる。よって、(44),(45)式か
ら、
## EQU11 ## Therefore, from equations (44) and (45),

【0090】[0090]

【数28】 [Equation 28]

【0091】となり、Then,

【0092】[0092]

【数29】 (Equation 29)

【0093】となる。ここで(44)は、以下のように
変形できる。
Is obtained. Here, (44) can be modified as follows.

【0094】[0094]

【数30】 [Equation 30]

【0095】(50)式の左辺は、n11〜n33及び(4
8)式のφの結果から既知となる。
The left side of the equation (50) is n 11 to n 33 and (4
It is known from the result of φ in the equation 8).

【0096】[0096]

【数31】 (Equation 31)

【0097】(50)式の左辺の(1,1)及び(3,
1)要素と(51)式から、
(1,1) and (3, on the left side of the equation (50).
From the 1) element and the equation (51),

【0098】[0098]

【数32】 (Equation 32)

【0099】となり、Then,

【0100】[0100]

【数33】 [Equation 33]

【0101】以上、(48),(49),(53)式か
ら、角回転角roll,pitch,yaw角を求める
ことができる。以上で、4点透視問題のアルゴリズムに
ついての説明を終了する。前述したターゲットマークを
用いる方法、もしくは顔の特徴点を追跡する方法のいず
れにおいても、ターゲットマークの位置・姿勢(また
は、顔特徴点の原点の位置・姿勢)はカメラ座標形で計
測されるので、それをスクリーン座標形に変換する必要
がある。また、マークの座標形(顔特徴点の原点の座標
系)も顔座標形からずれているため変換が必要となる。
すでに示した式(1)、(2)を使用するためには、ス
クリーン座標形で表現した顔座標形の位置と姿勢を表わ
すマトリックスMsfを求めればよい。図23にマーク
座標形(顔特徴点原点座標形)とカメラ座標形を加えた
座標形の関係を示す。マーク座標形(顔特徴点原点座標
形)とカメラ座標形を加えて一般化すると以下のように
なる。
As described above, the angular rotation angles roll, pitch, yaw angle can be obtained from the equations (48), (49) and (53). This is the end of the description of the algorithm for the four-point perspective problem. In both the method using the target mark and the method for tracking the facial feature point described above, the position / orientation of the target mark (or the position / orientation of the origin of the facial feature point) is measured in the camera coordinate form. , It is necessary to convert it to screen coordinates. Further, the coordinate form of the mark (the coordinate system of the origin of the face feature point) is also deviated from the face coordinate form, so that conversion is required.
In order to use the equations (1) and (2) already shown, the matrix Msf representing the position and orientation of the face coordinate form represented by the screen coordinate form may be obtained. FIG. 23 shows the relationship between the mark coordinate form (face feature point origin coordinate form) and the camera coordinate form. The following is a generalization by adding the mark coordinate form (face feature point origin coordinate form) and the camera coordinate form.

【0102】Msc、Mcm、Mmfを図23のように
定めると、求めたいスクリーン座標形で表現した顔座標
形の位置姿勢を示すマトリックスMsfは、以下のよう
な式で計算できる。 Msf=Msc・Mcm・Mmf …(54) ここで、Mscはカメラを設置した位置であるので既知
である。また、Mmfはマークと顔の位置関係であるの
で既知である。Mcmは視覚計測により得られる。した
がって、Msfはこれらから計算でき、こうして求めた
Msfから、前述した(1)、(2)を用いて、カーソ
ル位置を求める。このように、(54)式を用いれば、
マーク座標形(顔特徴点座標形)とカメラ座標形の位置
と姿勢を任意に決めることができる。
When Msc, Mcm, and Mmf are determined as shown in FIG. 23, the matrix Msf showing the position and orientation of the face coordinate type expressed in the screen coordinate type desired to be calculated can be calculated by the following equation. Msf = Msc · Mcm · Mmf (54) Here, Msc is a known position because the camera is installed. Further, Mmf is known because it is the positional relationship between the mark and the face. Mcm is obtained by visual measurement. Therefore, Msf can be calculated from these, and the cursor position is obtained from Msf thus obtained using the above-mentioned (1) and (2). Thus, using equation (54),
The positions and postures of the mark coordinate form (face feature point coordinate form) and the camera coordinate form can be arbitrarily determined.

【0103】視覚計測の分解能が不足している場合や、
ノイズにより計測に誤差が生じた場合は、そのようなデ
ータから計算されたカーソル目標位置が影響を受け、カ
ーソルが細かく変動することが予想される。このような
場合に、カーソルの変動を抑制するフィルタの構成例を
以下に示す。
When the resolution of visual measurement is insufficient,
When noise causes an error in measurement, it is expected that the cursor target position calculated from such data will be affected and the cursor will fluctuate finely. In such a case, a configuration example of the filter that suppresses the fluctuation of the cursor is shown below.

【0104】[0104]

【数34】 (Equation 34)

【0105】この式は、過去のカーソル指令値のいくつ
か(kで数が決まる)と重み付け(mで決まる)した現
在のカーソル指令値を平均してノイズの影響を拡散す
る。mを大きく取ると、ノイズ拡散の度合いが大きくな
り、ノイズの影響が少なくなるが、応答性が劣化する。
このようなフィルタを用いればカーソルの細かな変動を
低減させることは可能であるが、完全に止めることはで
きない。また、必要のないとき(ユーザがカーソルを移
動する意思がないとき)は、カーソルは静止しているこ
とが望ましい。この問題は、ユーザが必要な時にオンに
なるスイッチをキーボード上に設けることで解決でき
る。図24のようにスイッチの状態(ON,OFF)を
PIO(パラレル入出力インターフェース)で読み込ん
で、スイッチがON状態の時(PIOのビットが1のと
き)だけカーソルが移動するようにする。図25は、こ
のスイッチをスペースキーの下に配置したキーボードの
例である。スペースキー以外のキーは図示省略されてい
る。このように、スペースキーの下に配置すれば、キー
操作の頻度の少ない親指でスイッチを操作できるため、
効率的である。また、この例では、物理的にスイッチを
設けたが、キーボード上に既にあるキーにこの機能を割
りつけてもよい。例えば、control−xやshi
ft−spaceなどのようにである。
This expression averages some past cursor command values (the number is determined by k) and weighted (determined by m) the present cursor command values to diffuse the influence of noise. When m is set to be large, the degree of noise diffusion increases and the influence of noise decreases, but the responsiveness deteriorates.
If such a filter is used, it is possible to reduce small fluctuations of the cursor, but it is not possible to stop it completely. Further, it is desirable that the cursor be stationary when it is not necessary (when the user does not intend to move the cursor). This problem can be solved by providing a switch on the keyboard that the user turns on when needed. As shown in FIG. 24, the state of the switch (ON, OFF) is read by PIO (parallel input / output interface), and the cursor is moved only when the switch is in the ON state (when the bit of PIO is 1). FIG. 25 is an example of a keyboard in which this switch is arranged below the space key. Keys other than the space key are not shown. In this way, if you place it under the space key, you can operate the switch with your thumb, which is less frequently operated.
It is efficient. Further, in this example, the switch is physically provided, but this function may be assigned to a key already existing on the keyboard. For example, control-x or shi
Like ft-space.

【0106】[0106]

【発明の効果】以上説明したように、本発明の画像表示
装置は、表示画面に対向する顔面の位置および姿勢を測
定するものであるため、ユーザに顔面ないし頭部の自由
の動きを許容し、しかもその顔の向いた位置にポインタ
カーソルを移動することができる。
As described above, since the image display device of the present invention measures the position and posture of the face facing the display screen, it allows the user to freely move the face or head. Moreover, the pointer cursor can be moved to the position where the face is facing.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の画像形成装置の一実施形態の概略構成
を示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of an embodiment of an image forming apparatus of the present invention.

【図2】本発明の画像形成装置の他の実施形態の概略構
成を示すブロック図である。
FIG. 2 is a block diagram showing a schematic configuration of another embodiment of the image forming apparatus of the invention.

【図3】本発明の画像形成装置のもう一つの実施形態の
概略構成を示すブロック図である。
FIG. 3 is a block diagram showing a schematic configuration of another embodiment of the image forming apparatus of the present invention.

【図4】本発明を計算機システムに適用した場合のイメ
ージ図である。
FIG. 4 is an image diagram when the present invention is applied to a computer system.

【図5】顔座標形とスクリーン座標形の関係を示す図で
ある。
FIG. 5 is a diagram showing a relationship between a face coordinate form and a screen coordinate form.

【図6】ロール、ピッチ、ヨーの定義を示す図である。FIG. 6 is a diagram showing definitions of roll, pitch, and yaw.

【図7】ターゲットマークを用いた実施形態を示す図で
ある。
FIG. 7 is a diagram showing an embodiment using a target mark.

【図8】ターゲットマークの構造を示す図である。FIG. 8 is a diagram showing a structure of a target mark.

【図9】視点の変化に対するターゲットマークの見え方
の例を示す図である。
FIG. 9 is a diagram showing an example of how a target mark looks with respect to a change in viewpoint.

【図10】ターゲットマークの検出法を示す模式図であ
る。
FIG. 10 is a schematic diagram showing a method of detecting a target mark.

【図11】x,y方向の偏差の検出方法を示す図であ
る。
FIG. 11 is a diagram showing a method of detecting deviations in x and y directions.

【図12】z方向の偏差の検出法を示す図である。FIG. 12 is a diagram showing a method of detecting deviation in the z direction.

【図13】ヨー、ピッチ方向の偏差の検出法を示す図で
ある。
FIG. 13 is a diagram showing a method of detecting deviations in the yaw and pitch directions.

【図14】ロール方向の偏差の検出方法を示す図であ
る。
FIG. 14 is a diagram showing a method of detecting deviation in the roll direction.

【図15】偏差の実測法の説明図である。FIG. 15 is an explanatory diagram of a deviation measuring method.

【図16】ターゲットマークの位置、姿勢とカメラによ
る測定結果との対応を示す図である。
FIG. 16 is a diagram showing the correspondence between the position and orientation of the target mark and the measurement result obtained by the camera.

【図17】ピクセル数で示された偏差を実座標での偏差
に変換するフローを示す図である。
FIG. 17 is a diagram showing a flow of converting a deviation indicated by the number of pixels into a deviation in real coordinates.

【図18】眼鏡にターゲットマークを取り付けた例を示
す図である。
FIG. 18 is a diagram showing an example in which target marks are attached to eyeglasses.

【図19】ヘッドセットにターゲットマークを取り付け
た例を示す図である。
FIG. 19 is a diagram showing an example in which a target mark is attached to a headset.

【図20】特徴点値跡手段を備えた実施形態を示す図で
ある。
FIG. 20 is a diagram showing an embodiment including feature point value trace means.

【図21】顔特徴点の例を示す模式図である。FIG. 21 is a schematic diagram showing an example of facial feature points.

【図22】4点透視問題における座標系を示す図であ
る。
FIG. 22 is a diagram showing a coordinate system in the 4-point perspective problem.

【図23】座標系、Face,Mark,Cam,Sc
reenの関係を示す図である。
FIG. 23: Coordinate system, Face, Mark, Cam, Sc
It is a figure which shows the relationship of reen.

【図24】顔の向きによりカーソルを移動させるか否か
を定めるスイッチを備えた実施形態を示す図である。
FIG. 24 is a diagram showing an embodiment including a switch that determines whether or not to move the cursor depending on the orientation of the face.

【図25】顔の向きによりカーソルを移動させるか否か
を定めるスイッチ例を示す図である。
FIG. 25 is a diagram showing an example of a switch that determines whether or not to move the cursor depending on the orientation of the face.

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 画像を表示する表示画面を有し、該表示
画面上に、該表示画面上のポイントを指示するポインタ
カーソルを含む画像を表示する表示手段と、前記表示画
面上に表示されたポインタカーソルの位置を移動させる
ポインタカーソル移動手段とを備えた画像表示装置にお
いて、 前記表示画面に対向する顔面の位置および姿勢を測定す
る6自由度顔方位測定手段と、 前記6自由度顔方位の測定手段により測定された顔面の
位置および姿勢に応じた、前記表示画面上のポインタカ
ーソルの目標位置を計算するポインタカーソル目標位置
計算手段とを備え、 前記ポインタカーソル移動手段が、前記ポインタカーソ
ル目標位置計算手段で求められた前記目標位置にポイン
タカーソルを移動させるものであることを特徴とする画
像表示装置。
1. A display unit having a display screen for displaying an image, the display unit displaying an image including a pointer cursor for pointing a point on the display screen, and a display unit displayed on the display screen. In an image display device provided with a pointer cursor moving means for moving the position of a pointer cursor, a 6-degree-of-freedom face orientation measuring means for measuring the position and orientation of the face facing the display screen, and a 6-degree-of-freedom face orientation measuring means. A pointer cursor target position calculating means for calculating a target position of the pointer cursor on the display screen according to the position and posture of the face measured by the measuring means, wherein the pointer cursor moving means is the pointer cursor target position. An image display device, characterized in that a pointer cursor is moved to the target position obtained by a calculation means.
【請求項2】 前記6自由度顔方位測定手段が、所定の
方向から観察したときの形状が姿勢に応じて変化する、
前記顔面側に固定されるターゲットマークと、前記ター
ゲットマークを撮影することにより該ターゲットマーク
を所定の方向からみたときの画像を表わす画像データを
得る撮像手段と、前記画像データに基づいて、前記顔面
の位置および姿勢を演算する顔方位演算手段とを備えた
ことを特徴とする請求項1記載の画像表示装置。
2. The shape of the 6-degree-of-freedom face orientation measuring means when observed from a predetermined direction changes depending on the posture.
A target mark fixed on the face side; an image pickup means for obtaining image data representing an image when the target mark is viewed from a predetermined direction by photographing the target mark; and the face based on the image data. The image display apparatus according to claim 1, further comprising a face orientation calculation unit that calculates the position and orientation of the image.
【請求項3】 前記6自由度顔方位測定手段が、前記顔
面を撮影することにより該顔面を所定の方向からみたと
きの画像を表わす画像データを得る撮像手段と、前記画
像データに基づいて、前記撮像手段で得られた画像上に
あらわれた少なくとも4つの特徴点の、該画像上の位置
を追跡する特徴点追跡手段と、前記特徴点追跡手段で求
められた前記少なくとも4つの特徴点の画像上の位置に
基づいて、前記顔面の位置および姿勢を演算する顔方位
演算手段とを備えたことを特徴とする請求項1記載の画
像表示装置。
3. The 6-degree-of-freedom face orientation measuring means obtains image data representing an image when the face is viewed from a predetermined direction by photographing the face, and based on the image data, Feature point tracking means for tracking the positions of at least four feature points appearing on the image obtained by the image pickup means on the image, and an image of the at least four feature points obtained by the feature point tracking means The image display device according to claim 1, further comprising a face orientation calculation unit that calculates the position and orientation of the face based on the position above.
【請求項4】 前記ポインタカーソルの表示位置の変動
を抑制するポインタカーソル変動抑制手段を備えたこと
を特徴とする請求項1記載の画像表示装置。
4. The image display device according to claim 1, further comprising pointer cursor variation suppressing means for suppressing variation in the display position of the pointer cursor.
【請求項5】 前記ポインタカーソルを、前記6自由度
顔方位測定手段で測定された顔面の位置および姿勢に応
答して移動させるか否かを指示入力する操作子を備えた
ことを特徴とする請求項1記載の画像表示装置。
5. A manipulator for inputting whether or not to move the pointer cursor in response to the position and orientation of the face measured by the 6-degree-of-freedom face orientation measuring means. The image display device according to claim 1.
【請求項6】 複数の操作キーが配置されたキーボード
を備え、該キーボードに配置された複数の操作キーのう
ちの少なくとも1つの操作キーが前記操作子であること
を特徴とする請求項5記載の画像表示装置。
6. A keyboard having a plurality of operation keys arranged therein, and at least one operation key of the plurality of operation keys arranged on the keyboard is the operator. Image display device.
JP7301785A 1995-11-20 1995-11-20 Image display device Withdrawn JPH09146692A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7301785A JPH09146692A (en) 1995-11-20 1995-11-20 Image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7301785A JPH09146692A (en) 1995-11-20 1995-11-20 Image display device

Publications (1)

Publication Number Publication Date
JPH09146692A true JPH09146692A (en) 1997-06-06

Family

ID=17901149

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7301785A Withdrawn JPH09146692A (en) 1995-11-20 1995-11-20 Image display device

Country Status (1)

Country Link
JP (1) JPH09146692A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017004553A (en) * 2016-08-22 2017-01-05 ソニー株式会社 Information processing apparatus, information processing method, and computer program
US10037078B2 (en) 2012-03-29 2018-07-31 Sony Corporation Information processing apparatus, information processing method, and computer program
JP2022517050A (en) * 2018-05-21 2022-03-04 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. How to remotely control a display device via head gestures, systems and computer programs

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10037078B2 (en) 2012-03-29 2018-07-31 Sony Corporation Information processing apparatus, information processing method, and computer program
US10437324B2 (en) 2012-03-29 2019-10-08 Sony Corporation Information processing apparatus, information processing method, and computer program
JP2017004553A (en) * 2016-08-22 2017-01-05 ソニー株式会社 Information processing apparatus, information processing method, and computer program
JP2022517050A (en) * 2018-05-21 2022-03-04 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. How to remotely control a display device via head gestures, systems and computer programs

Similar Documents

Publication Publication Date Title
US6198485B1 (en) Method and apparatus for three-dimensional input entry
US6124843A (en) Head mounting type image display system
US20160202844A1 (en) Interactive input system and method
US5818424A (en) Rod shaped device and data acquisition apparatus for determining the position and orientation of an object in space
US20140354602A1 (en) Interactive input system and method
US6359603B1 (en) Portable display and methods of controlling same
US7893920B2 (en) Operation input device and method of operation input
US7554528B2 (en) Method and apparatus for computer input using six degrees of freedom
US9195301B2 (en) Three dimensional volumetric display input and output configurations
RU2288512C2 (en) Method and system for viewing information on display
US20030132913A1 (en) Touchless computer input device to control display cursor mark position by using stereovision input from two video cameras
US20100100853A1 (en) Motion controlled user interface
CN102520799B (en) Projection keyboard
US20120092300A1 (en) Virtual touch system
JP2013029958A (en) Information processing apparatus, information processing method, and program
JP2006209359A (en) Apparatus, method and program for recognizing indicating action
US20180314326A1 (en) Virtual space position designation method, system for executing the method and non-transitory computer readable medium
JPH1163927A (en) Head position and posture measuring device, and operation monitoring device
US20040046747A1 (en) Providing input signals
JP2002143094A (en) Visual axis detector
JPH10161801A (en) Input device
JPH09146692A (en) Image display device
GB2345538A (en) Optical tracker
Mitsugami et al. Robot navigation by eye pointing
JP3349818B2 (en) Coordinate detection device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20030204