JPH0981785A - Image projection device and equipment controller - Google Patents

Image projection device and equipment controller

Info

Publication number
JPH0981785A
JPH0981785A JP7259457A JP25945795A JPH0981785A JP H0981785 A JPH0981785 A JP H0981785A JP 7259457 A JP7259457 A JP 7259457A JP 25945795 A JP25945795 A JP 25945795A JP H0981785 A JPH0981785 A JP H0981785A
Authority
JP
Japan
Prior art keywords
image
head
screen
amount
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7259457A
Other languages
Japanese (ja)
Inventor
Mitsuo Sasuga
三夫 流石
Tomiyoshi Fukumoto
富義 福元
Kazuhiro Takashima
和宏 高島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP7259457A priority Critical patent/JPH0981785A/en
Publication of JPH0981785A publication Critical patent/JPH0981785A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a small-sized, lightweight image projecting device which provides an image space giving more presence than before by composing the device of a nonflat screen and a small-sized projecting machine in one body, optically or electronically correcting image distortion which is generated in principle, and mounting a three-dimensional head movement detecting function. SOLUTION: The image projecting device is equipped with the nonflat screen 11 on which a projection image is displayed, an image signal generating means 16 which generates an image signal for projection, an image forming means 13 which generates the image to be projected with the image signal, an image projecting means 14 which projects the image formed by the image forming means 13, a projection optical system 12 which forms the projection image formed by the image forming means 13 on the screen 11, a distortion correcting means 15 which electronically corrects distortion generated by a projection optical system consisting of the projection optical system 12, screen 11, and projection image forming means, a heat movement detecting means 17 which detects the movement of a head part, and a control signal generating means 18 which controls the image signal with the detection signal from the head part movement detecting means 17.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は画像信号を投影して、ス
クリーン上に結像させる画像投影装置に関する。また、
使用者の頭部動作を検出し、これに対応して各種機器の
制御を実行する機器制御装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image projection device for projecting an image signal and forming an image on a screen. Also,
The present invention relates to a device control device that detects a head motion of a user and controls various devices correspondingly.

【0002】[0002]

【従来の技術】[Prior art]

(1) 従来、画像をスクリーンに投影する画像投影装
置は、主にスクリーンと投影装置が別々に構成されてい
る。図29から図32に画像投影装置の従来例を示す。
図29は映画館やホームシアター等で使用されている画
像投影装置の水平方向からの外観図である。301は平
面スクリーン、302は投影機で図に示すようにスクリ
ーンと投影機は正対位置に置かれる。303はこの時の
投影画像である。
(1) Conventionally, in an image projection device that projects an image on a screen, the screen and the projection device are mainly configured separately. 29 to 32 show conventional examples of the image projection apparatus.
FIG. 29 is an external view from the horizontal direction of an image projection device used in a movie theater, a home theater or the like. Reference numeral 301 denotes a flat screen, and 302 denotes a projector. As shown in the figure, the screen and the projector are placed in a facing position. 303 is a projection image at this time.

【0003】このシステムは多人数を対象として大画面
で臨場感ある画像を楽しめる反面、広いスペースで照明
を消した状態での投影が必要である等、物理的な制約も
多く、かつ機器自体が大型で消費電力も大きい。
This system allows a large number of people to enjoy a realistic image on a large screen, but on the other hand, there are many physical restrictions such as projection in a wide space with the illumination off, and the device itself Large size and large power consumption.

【0004】図30はプラネタリウムに見られるような
スクリーンが平面でなく、球面にして臨場感ある大画面
を投影する従来例である。この場合、球面スクリーン3
11に投影機312で画像を直接投影すると原理的に図
30(a)の投影画像に図30(c)に示すように樽型
歪が生じるため、投影画像自身にこれとは逆に予め糸巻
き歪図30(b)が生じるように電子的な補正をかける
ことにより、歪の少ない投影画像図30(d)を生成す
る従来例もある。
FIG. 30 shows a conventional example in which a screen as seen in a planetarium is not a flat surface but a spherical surface to project a large screen with a realistic sensation. In this case, the spherical screen 3
When an image is directly projected onto the projector 11 by the projector 312, barrel-shaped distortion is generated in the projected image of FIG. 30A as shown in FIG. 30C in principle. There is also a conventional example in which a projection image diagram 30 (d) with less distortion is generated by electronically correcting the distortion diagram 30 (b).

【0005】これに対して、個人用の投影画像装置とし
ては図29と同様な構成のハンディプロジェクタや図3
1に示すような頭部搭載型の投影装置がある。ハンディ
プロジェクタは個人用で投影機もコンパクトで投影する
スペースはさほど必要としないが、それでも大画面(4
0インチを想定)の投影には投影距離が2メートル前後
必要である。
On the other hand, as a personal projection image device, a handy projector having the same configuration as that shown in FIG.
There is a head-mounted projection device as shown in FIG. A handy projector is for personal use, and the projector is compact and does not require much space for projection, but it still has a large screen (4
A projection distance of about 2 meters is required for projection of 0 inch).

【0006】図31は頭部搭載型の投影装置であるが、
この装置は画像自体を投影するものではない。投影機3
21で透過型のスクリーン322上に投影するのは情報
データであり、その情報データを外界の像323と別表
示あるいは重ね合わせて表示するものである。
FIG. 31 shows a head-mounted projector,
This device does not project the image itself. Projector 3
It is information data that is projected on the transmissive screen 322 in 21 and the information data is displayed separately or overlaid with the image 323 of the external world.

【0007】一方、タイプが異なる個人用の頭部搭載型
ディスプレイも開発されてきている。図32はその原理
を示す図である。このタイプでは両眼の前に小型の画像
表示装置333,344を配置して、そこで表示される
画像を接眼レンズ331, 332によって拡大された虚
像335を鑑賞する。
On the other hand, head-mounted displays for individuals of different types have also been developed. FIG. 32 is a diagram showing the principle. In this type, small image display devices 333 and 344 are arranged in front of both eyes, and an image displayed there is viewed as a virtual image 335 magnified by eyepieces 331 and 332.

【0008】この例は前述した例がスクリーン上に実像
を形成するのに対して、眼の調節機能を使って虚像を鑑
賞する方式であり方式的に異なるが、形状をコンパクト
に出来るという特長がある。
This example is a method for viewing a virtual image by using the eye adjustment function, whereas the above-mentioned example forms a real image on the screen. The method is different, but the feature is that the shape can be made compact. is there.

【0009】しかし、鑑賞中絶えず眼の調節機能を使い
続けるため、眼精疲労が大きいという問題点がある。こ
のように従来例ではスクリーン上に実像を投影する方式
で、かつ個人用の臨場感あふれる画像を楽しめる画像投
影装置は存在しない。
However, there is a problem that eye strain is great because the eye adjusting function is continuously used during viewing. As described above, in the conventional example, there is no image projection apparatus that is a method of projecting a real image on a screen and can enjoy a personal, realistic image.

【0010】また、頭部搭載型の画像表示装置において
バーチャルリアリティの分野やゲーム応用の分野では頭
部の動きを検出する機能を備えた装置も開発されてはい
るが、いずれも画像表示装置としては虚像を鑑賞する方
式で、本発明で採用する実像投射型の装置は存在しな
い。 (2) また近年、頭部の動きを検出し、これに対応し
て機器を制御する装置が多くなってきた。
Further, in the field of virtual reality and the field of game application in the head-mounted image display device, a device having a function of detecting the movement of the head has been developed. Is a method of viewing a virtual image, and there is no real image projection type device adopted in the present invention. (2) In recent years, there have been many devices that detect the movement of the head and control the device in response to the movement.

【0011】例えば、頭部の動きに合わせて頭部装着型
ディスプレイに表示する映像を変えるシステムや遠隔地
にあるテレビカメラの姿勢を変えるシステムなどがあ
る。このようなシステムにおける頭部の動き、あるいは
傾き角度を得る方法は、大きく以下の二方式に分類でき
る。
For example, there are a system that changes the image displayed on the head-mounted display according to the movement of the head, a system that changes the attitude of a television camera at a remote location, and the like. The method of obtaining the movement of the head or the tilt angle in such a system can be roughly classified into the following two methods.

【0012】一つは、頭部の動き、あるいは傾き角度を
表現するための基準となる位置に信号源、あるいはこれ
に相当する装置を用意し、磁気、超音波、CCDカメラ
による映像などによって頭部の動きを検出し、その基準
点を原点として頭部の位置を絶対値として得る方式であ
り、もう一つは、頭部に装着されたヘッドセットに組み
込まれている頭部の運動、あるいは傾き角度を単独に検
出できるセンサによって、そのセンサからの出力自体、
あるいはそれに基づいた処理の結果から頭部の位置を得
る方式である。
One is to prepare a signal source or a device corresponding to it at a reference position for expressing the movement of the head or the tilt angle, and use the magnetic field, ultrasonic waves, images from a CCD camera, etc. Is a method of detecting the movement of the head part and obtaining the position of the head as an absolute value with the reference point as the origin, and the other is the movement of the head incorporated in the headset mounted on the head, or By the sensor that can detect the tilt angle independently, the output itself from that sensor,
Alternatively, it is a method of obtaining the position of the head from the result of processing based on it.

【0013】このうち、前者の方式は、頭部の動きを絶
対値として精度よく得ることができる、使用者に非接触
で検出できることなどがあり、頭部以外の位置に基準点
用の装置の設置が必要である、検出手段(磁気、光、
音、映像など)によっては、基準点と頭部の間、あるい
はその周辺に、それを遮るもの、あるいは影響を与える
ものがあってはならない、頭部の位置を基準点との位置
関係から得るために画像処理、磁界検出などの処理が必
要でこれに時間がかかることなどがある。
Of these, the former method is capable of accurately obtaining the movement of the head as an absolute value, and can be detected without contacting the user. Therefore, the device for the reference point at a position other than the head can be used. It is necessary to install the detection means (magnetism, light,
Depending on the sound, image, etc.), there should be no obstruction or influence between the reference point and the head or in the vicinity of it, and the position of the head is obtained from the positional relationship with the reference point. Therefore, processing such as image processing and magnetic field detection is required, which may take time.

【0014】一方、後者の方式には、位置検出の精度が
比較的低いが、検出速度は速い、検出に際して使用環境
に影響されにくく、影響を与えにくい、また使用者はヘ
ッドセットのみを取扱うだけでよい、つまり装置規模を
小型化できるなどの特徴がある。
On the other hand, in the latter method, the accuracy of position detection is relatively low, but the detection speed is fast, the detection environment is not easily influenced by the use environment, and the influence is hardly exerted, and the user only deals with the headset. That is, there is a feature that the device scale can be reduced.

【0015】[0015]

【発明が解決しようとする課題】[Problems to be Solved by the Invention]

(1) 以上述べてきたように、従来のスクリーンに実
像を投影する画像投影装置では臨場感あふれる大画面を
投影するためには広いスペースが必要であり、かつ装置
自体が大型になる傾向がある。
(1) As described above, a conventional image projection device that projects a real image requires a large space for projecting a large screen with a sense of reality, and the device itself tends to be large. .

【0016】また、現在一般家庭用も製品化されている
が、ある程度のスペース、あるいは投影上の制約から個
人が手軽に臨場感あるれる画像が楽しめるようなコンパ
クトなものではない。
[0016] At present, commercial products for general household use are also available, but they are not so compact that an individual can easily enjoy realistic images due to some space or projection restrictions.

【0017】また、虚像を鑑賞する方式の頭部搭載型の
表示装置は形状的にコンパクトになるが眼の調節機能を
絶えず使う為、眼精疲労が著しいという問題がある。 (2) 図36にヘッドセット10に組み込まれた速
度、あるいは加速度、あるいは角速度、または傾斜角な
どの一動作方向の頭部動作を単独に検出できるn個のセ
ンサ101〜10nによって頭部の動きを単独に検出す
る方式の従来例を示す。このような構成の装置では、最
初に設定した頭部の位置からの相対値として傾き角度を
信号処理部によって順次得ていき、この値を基に制御対
象機器1の制御を実行する。
Further, although the head-mounted display device for viewing a virtual image is compact in shape, it has a problem that eye strain is remarkable because the eye adjusting function is constantly used. (2) Movement of the head by the n sensors 101 to 10n that can independently detect the head movement in one movement direction such as velocity, acceleration, angular velocity, or inclination angle incorporated in the headset 10 in FIG. A conventional example of a method for independently detecting In the apparatus having such a configuration, the tilt angle is sequentially obtained by the signal processing unit as a relative value from the initially set head position, and the control target device 1 is controlled based on this value.

【0018】しかしながら、このような従来の構成で
は、頭部の傾きを表すための基準となる使用者の基本姿
勢が明確には規定されていないため、旋回角度(ヨー
角)、前後屈角度(ピッチ角)、左右屈角度(ロール
角)からなる傾き角度に体系的に変換することが困難で
ある。なぜなら、最初に設定する頭部の位置によって傾
き角度を得る原点および空間座標軸が異なってしまうか
らである。
However, in such a conventional configuration, since the basic posture of the user, which is a reference for representing the inclination of the head, is not clearly defined, the turning angle (yaw angle), the forward / backward bending angle ( It is difficult to systematically convert it into a tilt angle composed of a pitch angle) and a lateral bending angle (roll angle). This is because the origin and spatial coordinate axis for obtaining the tilt angle differ depending on the position of the head that is initially set.

【0019】また、頭部に装着されたヘッドセット10
に組み込まれる速度、あるいは加速度、あるいは角速
度、または傾斜角などの一動作方向の頭部動作を単独に
検出できるn個のセンサ101〜10nには、同一の運
動を行っても、その動作が行われたときの頭部の位置状
態の違いによって出力が異なる場合、あるいはドリフト
によって出力が経時変化する場合がある。
A headset 10 mounted on the head
Even if the same motion is performed, the n sensors 101 to 10n capable of independently detecting a head motion in one motion direction such as a speed, an acceleration, an angular velocity, or a tilt angle incorporated in the motion are performed. The output may vary depending on the position of the head when being broken, or the output may change over time due to drift.

【0020】さらに、複数個のセンサ101〜10nを
用いると、ある方向の頭部の動作に対してそれを検出す
るため以外のものが反応することがある。さらに、傾き
角度を得るために行う演算処理上の誤差、あるいは量子
化誤差などが累積することによって、常に正しい傾き角
度が得られると限らない。加えて、この種の装置を長時
間使用する場合には、軽量化したとしても一般的なヘル
メット程度の重量のあるヘッドセット10を装着して頭
部を動かすこと、さらにはディスプレイに表示された映
像、あるいは装置自体の動作状況などを凝視し続けるこ
とが必要なことから使用者が意識する、しないにかかわ
らず生理的、あるいは心理的な負担が大きくなってしま
う。
Further, when a plurality of sensors 101 to 10n are used, there may be a case where a motion other than for detecting the motion of the head in a certain direction reacts. Furthermore, the correct tilt angle is not always obtained by accumulating the error in the arithmetic processing performed to obtain the tilt angle, the quantization error, or the like. In addition, when this type of device is used for a long time, even if the weight is reduced, the headset 10 having a weight equivalent to a general helmet is worn and the head is moved, and further, it is displayed. Since it is necessary to keep a close eye on the image or the operation status of the device itself, the physiological or psychological burden increases regardless of whether or not the user is aware.

【0021】本発明の目的は、上記のような問題点を鑑
み、まず、頭部の動きを単独に検出するセンサによって
正確な動きを得ること、さらに頭部の傾き角度を体系的
に得るための使用者の基本姿勢を規定し、そのときの位
置を基準量として保持すること、またこの基準量を保持
するタイミングも規定し、この基準量に基づいて頭部の
傾き角度を安定して得つづけること、加えて装置の使用
時間を制限する手段を有することによって、取扱いが容
易で、使用者の身体への負担の少ない、快適な操作性の
頭部動作検出による機器制御装置を提供することにあ
る。
In view of the above problems, an object of the present invention is to first obtain an accurate motion by a sensor that independently detects the motion of the head, and further systematically obtain the tilt angle of the head. The user's basic posture is defined, the position at that time is held as a reference amount, the timing of holding this reference amount is also specified, and the tilt angle of the head can be stably obtained based on this reference amount. To provide a device control device with head movement detection that is easy to handle and has a low operability and a comfortable operability by having a means for limiting the usage time of the device. It is in.

【0022】[0022]

【課題を解決するための手段】本発明は、投影すべき画
像を表示するための非平面なスクリーンと、このスクリ
ーンに投影する画像信号を生成するための画像信号生成
手段と、この画像信号生成手段で生成した画像信号に歪
を加える歪補正手段と、この歪補正手段によって歪を加
えられた画像信号から前記スクリーンに投影すべき画像
を形成する画像形成手段と、この画像形成手段によって
形成した画像をスクリーン上に投影するための画像投影
手段と、この画像投影手段によってスクリーン上に投影
された画像を結像させる投影光学系とを具備することを
特徴とする。
According to the present invention, a non-planar screen for displaying an image to be projected, an image signal generating means for generating an image signal to be projected on the screen, and an image signal generating means. Distortion correction means for adding distortion to the image signal generated by the means, image forming means for forming an image to be projected on the screen from the image signal distorted by the distortion correction means, and the image forming means It is characterized by comprising an image projecting means for projecting an image on the screen and a projection optical system for forming an image projected on the screen by the image projecting means.

【0023】また、投影すべき画像を表示するための非
平面なスクリーンと、頭部の動きを検出する頭部動き検
出手段と、この頭部動き検出手段によって検出した頭部
の動きにより前記スクリーンに投影する画像信号を生成
するための画像信号生成手段と、この画像信号生成手段
で生成した画像信号に歪を加える歪補正手段と、この歪
補正手段によって歪を加えられた画像信号から前記スク
リーンに投影すべき画像を形成する画像形成手段と、こ
の画像形成手段によって形成した画像をスクリーン上に
投影するための画像投影手段と、この画像投影手段によ
ってスクリーン上に投影された画像を結像させる投影光
学系とを具備することを特徴とする。
Further, a non-planar screen for displaying an image to be projected, a head movement detecting means for detecting a movement of the head, and a head movement detected by the head movement detecting means for the screen. Image signal generating means for generating an image signal to be projected onto the screen, distortion correcting means for applying distortion to the image signal generated by the image signal generating means, and the screen from the image signal distorted by the distortion correcting means. Image forming means for forming an image to be projected onto the screen, image projecting means for projecting the image formed by the image forming means on the screen, and image formation of the image projected on the screen by the image projecting means And a projection optical system.

【0024】[0024]

【作用】[Action]

(1) 本発明は上述したように高倍率な投影光学系
と、小型で非平面なスクリーンを一体化し、かつ頭部の
三次元的な動きを検出する機能を搭載することにより、
眼精疲労が少なく、従来以上に臨場感ある画像を提供す
る頭部搭載型画像投影装置を実現する。
(1) The present invention integrates a high-magnification projection optical system with a small, non-planar screen as described above, and is equipped with a function for detecting three-dimensional movements of the head.
(EN) A head-mounted image projection device that provides images that are more realistic than before with less eye strain.

【0025】頭の上部に置いた小型の画像投影装置から
投射された投影画像を顔の前方に配置した広い視野角を
持つ非平面なスクリーン上に投影すると共に、頭部の三
次元的な動きを動き検出機能によって検出し、画面を制
御することにより臨場感ある画像空間を実現できる。 (2) また、本発明の頭部動作検出による機器制御装
置は、上記構成および手段によって、正確な頭部の動き
による動作量を得ること、さらに頭部の傾き角度を規定
するための使用者の姿勢を規定し、このときの動作量を
規定されたタイミングで基準量として保持することによ
り、この基準量と動作量から頭部の動きを単独に検出す
るセンサによって傾き角度を安定して得ることができ
る。
A projection image projected from a small image projection device placed on the upper part of the head is projected on a non-planar screen having a wide viewing angle arranged in front of the face, and the three-dimensional movement of the head It is possible to realize a realistic image space by detecting the motion by the motion detection function and controlling the screen. (2) Further, the device control apparatus according to the present invention for detecting a head motion is a user for obtaining a motion amount due to an accurate head motion and further for defining a tilt angle of the head by the above-described configuration and means. The posture is defined and the amount of movement at this time is held as the reference amount at the specified timing, so that the tilt angle can be stably obtained by the sensor that independently detects the movement of the head from the reference amount and the movement amount. be able to.

【0026】その上、装置の使用経過時間、あるいは使
用者のまばたきの回数の増加率、あるいは閉眼継続時間
に基づき装置の使用時間を制限して使用者の身体への負
担が大きくなりすぎないようにできる。
In addition, the use time of the device is limited based on the elapsed time of use of the device, the rate of increase in the number of blinks of the user, or the duration of eye closure so that the burden on the user's body does not become too large. You can

【0027】[0027]

【実施例】【Example】

(実施例1)図1に本発明請求項1の実施例を示す。画
像信号はまず画像生成手段16において画像形成手段1
3に表示可能な信号形態に変換される。この画像生成手
段は外部からの画像入力に対して変換することも可能で
あるし、また、自身で画像を蓄積し、それに対して変換
することも可能であるものとする。そして変換後、歪補
正手段15に入力される。通常、入力される画像信号は
幾何学的な歪は全く含まれていない。
(Embodiment 1) FIG. 1 shows an embodiment of claim 1 of the present invention. The image signal is first generated by the image forming means 16 in the image forming means 1.
3 is converted into a signal form that can be displayed. This image generating means can convert an image input from the outside, or can store an image by itself and convert it. Then, after conversion, it is input to the distortion correction means 15. Normally, the input image signal does not include any geometric distortion.

【0028】従来の投影装置での投影(投影機とスクリ
ーン が正対している場合)では投影レンズ自体が持つ
わずかな歪を除けば、幾何学的な歪が生じないため問題
はなかったが、本発明ではスクリーンと投影機(以下図
1の構成要素11〜16をまとめた総称として用いる)
は構成上、正対の位置関係にないため、原理的に幾何学
的な歪が発生する。この歪補正手段ではスクリーンと投
影機との位置関係によって生じる歪とは逆特性の歪を画
像生成手段によって生成した信号に印加して投影画像の
歪を軽減する。
In the projection by the conventional projection device (when the projector and the screen face each other), there is no problem because geometric distortion does not occur except for a slight distortion that the projection lens itself has. In the present invention, a screen and a projector (hereinafter, collectively referred to as the constituent elements 11 to 16 of FIG. 1)
In principle, geometrical distortion occurs because is not in a direct positional relationship in terms of configuration. The distortion correcting means reduces the distortion of the projected image by applying distortion having characteristics opposite to those generated by the positional relationship between the screen and the projector to the signal generated by the image generating means.

【0029】ここで歪補正された画像信号は画像形成手
段13で投影画像に変換される。画像形成手段で形成さ
れた画像は、画像投影手段14と高倍率の投影レンズ1
2によって非平面なスクリーン11に臨場感ある画像と
して投影される。
The image signal whose distortion has been corrected here is converted into a projected image by the image forming means 13. The image formed by the image forming means is the image projection means 14 and the projection lens 1 of high magnification.
It is projected as a realistic image on the non-planar screen 11 by 2.

【0030】また、これとは別に頭部に搭載した頭部動
き検出手段では頭部の三次元的な動きを検出して、制御
信号発生手段にて頭部の動きに対応した制御信号を発生
させ、これによって画像生成手段で生成する信号自身を
変化させれば、よりインタラクティブで臨場感ある画像
空間を生成することが出来る。
Separately from this, the head movement detecting means mounted on the head detects the three-dimensional movement of the head, and the control signal generating means generates a control signal corresponding to the movement of the head. Then, by changing the signal itself generated by the image generating means, a more interactive and realistic image space can be generated.

【0031】図2は本発明による頭部搭載型画像投影装
置を装着した状態を示す。ここでは図を簡単にするた
め、図1における12〜16を画像投影部23、また、
17、18を動き検出部24として表現する。この図か
ら明かなように従来の投影装置に比べ、非常にコンパク
トでありながら臨場感ある画像を楽しむことが出来る。
FIG. 2 shows a state in which the head mounted image projection device according to the present invention is mounted. Here, in order to simplify the drawing, 12 to 16 in FIG.
17 and 18 are represented as the motion detection unit 24. As is clear from this figure, compared to the conventional projection device, it is possible to enjoy an image that is very compact but realistic.

【0032】図3は具体的な画像の補正の様子を示した
図である。図3(a)は歪のない画像、図3(c)は歪
補正なしの状態で非平面なスクリーンに対して斜め上か
ら投影した場合の画像であり、入力画像にこれとは逆特
性の歪図3(b)を加えることにより最終的に歪の少な
い投影画像図3(d)をスクリーン上に形成する。
FIG. 3 is a diagram showing a concrete state of image correction. FIG. 3A is an image without distortion, and FIG. 3C is an image when projected on a non-planar screen obliquely from above without distortion correction. Finally, the distortion image 3 (b) is added to form the projected image image 3 (d) with less distortion on the screen.

【0033】本発明ではスクリーンの形状を非平面とす
るが、従来の平面スクリーンに対しての特長を図4を用
いて説明する。ここでは非平面スクリーンとして球面を
例にとり水平方向の図で説明するが、垂直方向に関して
も同様なことがいえるので省略する。
In the present invention, the screen has a non-planar shape, but the features of the conventional flat screen will be described with reference to FIG. Here, a spherical surface is taken as an example of the non-planar screen to explain in the horizontal direction, but the same applies to the vertical direction, so the description thereof will be omitted.

【0034】図4で41は平面スクリーン、42は球面
スクリーン、43は頭の上部に配置した投影機を示す。
この図4で投影機からスクリーンまでの距離をd(m) 、
投影レンズの半画角をθ(rad) とすると、投影に必要な
水平方向な長さは平面スクリーンと球面スクリーンでそ
れぞれL1、L2とするとほぼ次式で求められる。
In FIG. 4, 41 is a flat screen, 42 is a spherical screen, and 43 is a projector arranged on the upper part of the head.
In FIG. 4, the distance from the projector to the screen is d (m),
Letting the half angle of view of the projection lens be θ (rad), the horizontal lengths required for projection are given by the following equations, assuming L1 and L2 for a flat screen and a spherical screen, respectively.

【0035】[0035]

【数1】 で求められる。上式より明かなようにθ《1においては
tan θ=θと置けるが、θが増加するに従ってL1》L2と
なる。
[Equation 1] Is required. As is clear from the above equation, at θ << 1
You can set tan θ = θ, but as θ increases, L1 >> L2.

【0036】例えばd=1(m) で画角が90度(θ=π
/2)ではL1=2(m) 、L2=1.57(m) となり、球面スク
リーンと同一画角を平面スクリーンで実現しようとする
と、30%近く大きくする必要がある。画角を大きくす
れば、この差はさらに広がる。また平面スクリーンの投
影の場合、従来例と同様に投影機とスクリーンを別にす
る場合には投影時に周りの照明を消すなどして暗くする
必要がある。
For example, when d = 1 (m), the angle of view is 90 degrees (θ = π
In / 2), L1 = 2 (m) and L2 = 1.57 (m), and it is necessary to increase it by nearly 30% in order to realize the same angle of view as a spherical screen on a flat screen. Increasing the angle of view widens this difference. Further, in the case of projection on a flat screen, when the projector and the screen are separated as in the conventional example, it is necessary to turn off the surrounding illumination at the time of projection to make the screen dark.

【0037】また、平面スクリーンと投影機を一体化す
るとかなり大型になってしまう。本発明のように非平面
なスクリーンと投影機を一体化すれば、周囲に影響を与
えず(影響を受けず)に投影することが出来、かつスク
リーン以外は視野に入らないため投影画像に没頭するこ
とが出来る。ただ、構成的に画面の周辺にいくほど歪が
大きくなるが、本発明ではこの歪を考慮した補正信号を
画像信号生成手段からの信号に加えることにより歪が少
なく、かつ臨場感あふれる画像を楽しむことが出来る。
Further, if the flat screen and the projector are integrated, the size becomes considerably large. If a non-planar screen and a projector are integrated as in the present invention, it is possible to project without affecting the surroundings (without being affected), and since the parts other than the screen do not enter the field of view, they are immersed in the projected image. You can do it. However, although the distortion increases structurally toward the periphery of the screen, in the present invention, by adding a correction signal in consideration of this distortion to the signal from the image signal generating means, the distortion is small and the image is realistic. You can

【0038】本発明の他の実施例を図5に示す。51は
匡体内部に形成された非平面なスクリーン、52は投射
光学系、53は画像形成手段、54は投影機本体、55
は後側被写界深度、56は前側被写界深度、57は投影
機からスクリーンまでの平均的な距離の延長した線、5
8は投射レンズの光軸に対して垂直な軸の延長線、59
は画像表示装置の軸の延長線である。
Another embodiment of the present invention is shown in FIG. Reference numeral 51 is a non-planar screen formed inside the housing, 52 is a projection optical system, 53 is an image forming means, 54 is a projector main body, and 55
Is the rear depth of field, 56 is the front depth of field, 57 is the line extending the average distance from the projector to the screen, 5
8 is an extension line of an axis perpendicular to the optical axis of the projection lens, 59
Is an extension of the axis of the image display device.

【0039】本実施例では57、58、59の3つの延
長線が一点Pに集まるように傾けた配置にし、この状態
で投影光学系の被写界深度内におさまるような構成をと
る。
In the present embodiment, the three extension lines 57, 58 and 59 are arranged so as to be tilted so as to be gathered at one point P, and in this state, the projection optical system is configured so as to be within the depth of field.

【0040】このような関係にすると、シャインプルフ
の法則により投影スクリーンの平均的な面に対して被写
界深度に依らず全面にピントを合わせることが出来る。
本発明ではスクリーンが平面でない為、スクリーン全体
にピントを合わせる為には光学系の被写界深度に頼わざ
るを得ないが、図6に示すように従来の投影機とスクリ
ーンの位置関係をそのまま適用する場合(スクリーンと
投影光学系と画像形成手段が平行な関係)に比べ、スク
リーン全体にピントを合わせるのに必要な被写界深度を
浅くすることが出来る。被写界深度は概略的にレンズの
F値に比例することから、被写界深度を浅く出来るとい
うことは投射レンズ自体のF値を小さく出来ることにな
る。このことは画像を投影する光源の光量を有効に使え
ることを意味する。これは、同一の投影画像の明るさを
得るための光源の電力を従来よりも少なく出来、省電力
化にもつながる。本実施例によれば、より明るくピント
のあったクリアな投影画像を得ることが出来る。
With such a relationship, it is possible to focus on the entire surface of the projection screen irrespective of the depth of field according to the Scheimpflug's law.
In the present invention, since the screen is not flat, it is unavoidable to rely on the depth of field of the optical system to focus on the entire screen, but as shown in FIG. Compared with the case of applying it as it is (the screen, the projection optical system, and the image forming means are parallel to each other), the depth of field necessary for focusing on the entire screen can be made shallow. Since the depth of field is roughly proportional to the F value of the lens, the fact that the depth of field can be made shallow means that the F value of the projection lens itself can be made small. This means that the light quantity of the light source that projects the image can be effectively used. This can reduce the electric power of the light source for obtaining the same brightness of the projected image as compared with the conventional one, leading to power saving. According to this embodiment, it is possible to obtain a brighter, sharper and clearer projected image.

【0041】図7〜図9は本発明の変形例を説明する図
である。図7は光学系の基本的な投影倍率の関係を示
す。71は投影像、72は投影レンズ、73は画像形成
手段による像である。
7 to 9 are views for explaining modified examples of the present invention. FIG. 7 shows the basic projection magnification relationship of the optical system. Reference numeral 71 is a projected image, 72 is a projection lens, and 73 is an image formed by the image forming means.

【0042】この時の投影倍率は投影レンズの主点から
投影像までの距離をs1、s2、s3、主点から画像投影手段
の像までの距離をs ′1 ,s ′2 ,s ′3 とすると、画
面端と画面中心では次式で表せる。
The projection magnification at this time is s1, s2, s3 for the distance from the principal point of the projection lens to the projected image, and s'1, s'2, s'3 for the distance from the principal point to the image of the image projection means. Then, the screen edge and the screen center can be expressed by the following equations.

【0043】[0043]

【数2】 これは、投影レンズに正対した平面スクリーンでの投影
ではm1=m2=m3となり一様な倍率になるが、スクリーン
と投影レンズが正対しない場合や、正対してもスクリー
ンが平面でない場合は投影画面内の倍率は一様にならな
いため、歪が生じる。
[Equation 2] This is m1 = m2 = m3 when projecting on a flat screen directly facing the projection lens, resulting in uniform magnification, but if the screen and projection lens do not face each other, or if the screen is not flat even when facing directly Distortion occurs because the magnification on the projection screen is not uniform.

【0044】図8は本発明の変形例の水平断面である。
81は投影画像の歪を低減するために非球面化したスク
リーン、82は曲率半径が一定な球面上のスクリーン、
83は画像形成手段、84は投影機である。82のスク
リーンの場合、図7同様に球面スクリーンでの投影倍率
を定義すると、m2>m1、m3となり、図より明かななよう
に画面中心部に比べ画面周辺部では投影倍率は著し減少
する。
FIG. 8 is a horizontal cross section of a modification of the present invention.
81 is a screen which is made aspheric in order to reduce the distortion of the projected image, 82 is a screen on a spherical surface with a constant radius of curvature,
Reference numeral 83 is an image forming unit, and 84 is a projector. In the case of the 82 screen, if the projection magnification on the spherical screen is defined as in FIG. 7, m2> m1 and m3, and as is clear from the figure, the projection magnification is significantly reduced in the peripheral area of the screen compared to the central area of the screen. .

【0045】この結果、投影画面には樽型歪が生じ画質
が著しく劣化する。この場合、中心部に比べ周辺部の倍
率が低いため周辺部の画像の倍率を電子的に上げること
で歪を補正することも可能ではあるが、電子的な補正で
は画質劣化を抑えるためには複雑な処理が必要となり、
リアルタイム処理が必要な動画等の投影には適さない。
As a result, barrel distortion occurs on the projection screen and the image quality is significantly degraded. In this case, since the magnification of the peripheral portion is lower than that of the central portion, it is possible to correct the distortion by electronically increasing the magnification of the image in the peripheral portion. Complicated processing is required,
It is not suitable for projection of moving images that require real-time processing.

【0046】本発明の特徴は電子的な歪補正による投影
画像の画質が許容限界内に入るようにスクリーンの曲率
を連続的に変化させる。図8では視覚的に許容できる歪
の範囲の水平画角をθHとすると、それ以外の(θH〜
θ)が画像歪の補正領域となる。この範囲での補正は画
面中心倍率に比べ低いため、倍率を上げる(拡大)操作
が必要である。この補正を電子的な補正で画質が許容で
きる範囲は電子的補正のみで行い、それ越える範囲につ
いては電子的補正の他にスクリーン形状による補正とを
組み合わせて補正を行う。図8では補正領域での補正が
電子的な補正領域を越えている場合であり、補正領域で
のスクリーン形状を破線で示すように連続的に変化させ
る。これにより、スクリーン形状による投影画像の周辺
部の倍率は次のように変化する(スクリーン形状は左右
対称であるのでm1=m3)。
The feature of the present invention is to continuously change the curvature of the screen so that the image quality of the projected image by the electronic distortion correction falls within the allowable limit. In FIG. 8, if the horizontal angle of view within the visually permissible distortion range is θH, other angles (θH ~
θ) is the image distortion correction area. Since the correction in this range is lower than the screen center magnification, it is necessary to increase (enlarge) the magnification. This correction is performed only by electronic correction within a range in which the image quality is acceptable by electronic correction, and the range exceeding that is corrected by combining the electronic correction and the correction based on the screen shape. In FIG. 8, the correction in the correction area exceeds the electronic correction area, and the screen shape in the correction area is continuously changed as shown by the broken line. As a result, the magnification of the peripheral portion of the projected image due to the screen shape changes as follows (since the screen shape is symmetrical, m1 = m3).

【0047】[0047]

【数3】 となり、球面スクリーンに比べ周辺部の倍率は増加し、
中心部の倍率との差は減少する。この結果、スクリーン
形状による歪補正を行った上で電子的な補正を施すこと
により投影画像の歪を許容範囲内に抑えることが出来
る。
(Equation 3) And the peripheral magnification increases compared to the spherical screen,
The difference from the magnification of the central part is reduced. As a result, the distortion of the projected image can be suppressed within the allowable range by performing the electronic correction after the distortion correction based on the screen shape.

【0048】図9は本発明を垂直方向に適用した図であ
る。91は歪を軽減するために非球面化したスクリー
ン、92は球面スクリーン、93は画像形成手段、94
は投影機である。投影機とスクリーンとの関係は水平方
向に関しては左右対称であるが、垂直方向に関しては投
影機を頭上に配置する関係上、画面上半分と下半分では
歪特性が逆になるため曲率半径の変化も互いに逆にな
る。上半分では画面中心に対しては投影レンズとスクリ
ーン間の距離が短く、倍率が低くなるため倍率を上げる
ように球面スクリーンの曲率半径よりも距離が大きくな
るように非球面化し、下半分ではこれとは逆に倍率を抑
えるように球面スクリーンの曲率半径よりも距離が短く
なるように非球面化をおこなう。この場合も水平方向同
様、非球面化する曲率はさらに電子的な補正をかけた後
の投影画像の歪が許容範囲内に納まるように設定する。
このように電子的な歪補正を考慮して、スクリーンの曲
率半径を非球面化することにより、コンパクトで歪の少
ない画像投影装置を実現することが出来る。
FIG. 9 is a diagram in which the present invention is applied in the vertical direction. 91 is an aspherical screen for reducing distortion, 92 is a spherical screen, 93 is an image forming means, and 94 is
Is a projector. The relationship between the projector and the screen is symmetrical in the horizontal direction, but in the vertical direction the distortion characteristics are reversed in the upper half and the lower half of the screen because the projector is placed overhead, so the curvature radius changes. Are also opposite to each other. In the upper half, the distance between the projection lens and the screen is short with respect to the center of the screen, and the magnification is low.Therefore, in order to increase the magnification, the surface is made aspheric so that the distance is larger than the radius of curvature of the spherical screen. On the contrary, in order to suppress the magnification, asphericalization is performed so that the distance is shorter than the radius of curvature of the spherical screen. Also in this case, as in the horizontal direction, the curvature to be aspherical is set so that the distortion of the projected image after the electronic correction is further within the allowable range.
As described above, by taking the electronic distortion correction into consideration, by making the radius of curvature of the screen aspherical, it is possible to realize a compact image projection apparatus with less distortion.

【0049】図10、図11は本発明の別の変形例を説
明する図である。ここでは本発明の垂直断面を例にとっ
て説明する。111は非平面なスクリーン、112は投
影レンズ、113は画像形成手段、114は歪補正手
段、115は画像入力手段である。この場合、投影レン
ズとスクリーンとの距離は投影画面の中心を基準にとる
と上半分では距離が短く、下半分では距離が長くなる。
10 and 11 are views for explaining another modification of the present invention. Here, a vertical cross section of the present invention will be described as an example. 111 is a non-planar screen, 112 is a projection lens, 113 is an image forming means, 114 is a distortion correction means, and 115 is an image input means. In this case, the distance between the projection lens and the screen is short in the upper half and long in the lower half with respect to the center of the projection screen.

【0050】従って、投影画面は上から下にいくにつれ
て投影倍率は増加の一途を辿り、画面上端と下端では著
しい歪が生じる(図11(a))。 この歪の補正に関
しては電子的な補正、或いはスクリーンの非球面化によ
る補正が有効なことは上述した通りであるが、本実施例
ではさらに投影レンズ自身の特性に投影光学系で発生す
る歪とは逆特性の歪を与えることにより投影画像の歪を
低減する。本実施例では投影レンズに図11(b)のよ
うな糸巻き歪を予め持たせることにより、結果的に図1
1(c)に示すように投影画像の歪を低減する。このよ
うに投影レンズでも歪の補正を行うことにより電子的な
補正、及びスクリーンの非球面化による補正の負担を軽
減出来るため、簡単な構成で歪の少ない頭部搭載型画像
投影装置を実現することが出来る。
Therefore, the projection magnification of the projection screen increases from top to bottom, and significant distortion occurs at the top and bottom of the screen (FIG. 11A). As for the correction of this distortion, it is as described above that the electronic correction or the correction by asphericalizing of the screen is effective, but in the present embodiment, the distortion of the projection optical system is further affected by the characteristics of the projection lens itself. Reduces the distortion of the projected image by giving the distortion of the inverse characteristic. In this embodiment, the projection lens is provided with a pincushion distortion as shown in FIG.
As shown in 1 (c), the distortion of the projected image is reduced. In this way, since the burden of the electronic correction and the correction due to the asphericalization of the screen can be reduced by correcting the distortion even with the projection lens, a head-mounted image projection device with a simple configuration and less distortion is realized. You can

【0051】図12は本発明の他の変形例を示す。この
実施例ではスクリーンに画像を投影する投影レンズとは
別に歪補正を行う光学系を設けている。図で131は非
平面なスクリーン、132は投影光学系、133は歪補
正光学系による倒立実像面、134は歪補正光学系、1
35は画像形成手段、136は歪補正手段、137は画
像信号生成手段、138はスクリーンの平均的な結像面
である。
FIG. 12 shows another modification of the present invention. In this embodiment, an optical system for distortion correction is provided in addition to the projection lens for projecting an image on the screen. In the figure, 131 is a non-planar screen, 132 is a projection optical system, 133 is an inverted real image plane by a distortion correction optical system, 134 is a distortion correction optical system,
Reference numeral 35 is an image forming unit, 136 is a distortion correcting unit, 137 is an image signal generating unit, and 138 is an average image plane of the screen.

【0052】まず、投影光学系のみでは図13(a)
に示すような歪が生じてしまう。この場合、画面下方に
いくに従って光学系とスクリーンとの距離が大きくなる
ため垂直方向の倍率は増加する。そしてそれと共に水平
方向にも曲率を持つため、図のような非線形な歪が生じ
る。この歪は次のように説明出来る。曲面のスクリーン
に対しての平均的な結像面を仮定して倍率を概算すると
画面最上部と最下部での倍率は、(図で示す歪補正光学
系による倒立実像面に対するスクリーン 上の投影画像
の倍率)
First, the projection optical system alone is shown in FIG.
Distortion as shown in will occur. In this case, the vertical magnification increases as the distance between the optical system and the screen increases toward the bottom of the screen. Since it also has a curvature in the horizontal direction, a nonlinear distortion as shown in the figure occurs. This distortion can be explained as follows. Approximating the magnification assuming an average image plane on a curved screen, the magnification at the top and bottom of the screen is (the projected image on the screen against the inverted real image plane by the distortion correction optical system shown in the figure). Magnification)

【0053】[0053]

【数4】 ここでmd>muであるために歪が生じている。従ってこの
アンバランスさを補正光学系で補い、トータルの倍率の
差が小さくなるようにすれば、歪は大幅に低減出来る。
(Equation 4) Here, distortion occurs because md> mu. Therefore, if this unbalance is compensated by a correction optical system so that the total difference in magnification becomes small, the distortion can be greatly reduced.

【0054】そのためには、歪補正光学系と画像形成手
段を図12のように配置する。図の関係において、画像
形成手段で形成される画像に対する歪補正光学系によっ
て形成される倒立実像面の最上部倍率と最下部倍率は、
To this end, the distortion correction optical system and the image forming means are arranged as shown in FIG. In the relationship of the figures, the uppermost magnification and the lowermost magnification of the inverted real image plane formed by the distortion correction optical system for the image formed by the image forming unit are

【0055】[0055]

【数5】 となり、歪をなくすためにはmu・mcd =md・mcu となる
ように歪補正光学系134と画像形成手段の配置を決定
すればよい。この時、補正光学系とそれによる結像面と
画像形成装置のそれぞれの延長線は1点pに集まるよう
に配置(シャインプルフの法則)することによって画面
全体にピントを合わせることが出来る。
(Equation 5) Therefore, in order to eliminate the distortion, the arrangement of the distortion correction optical system 134 and the image forming means may be determined so that mu · mcd = md · mcu. At this time, by arranging the correction optical system, the image-forming surface by the correction optical system, and the respective extension lines of the image forming apparatus so as to be gathered at one point p (Scheenfluff's law), the entire screen can be focused.

【0056】図13(b)は補正光学系単体の歪特性で
ある。光学系の特性を厳密に考慮すると、非線形な特性
となるが、ここでは単純に幾何学的な配置による歪特性
を示す。これによって電子的な補正手段136によらず
とも投影画像の歪は大幅に軽減される(図13
(c))。
FIG. 13B shows distortion characteristics of the correction optical system alone. Strictly considering the characteristics of the optical system, the characteristics are nonlinear, but here the distortion characteristics due to the geometrical arrangement are simply shown. As a result, the distortion of the projected image is greatly reduced without using the electronic correction unit 136 (FIG. 13).
(C)).

【0057】また、装置の種々の制限によって倍率を厳
密に一致させることが出来なくても、この光学的な補正
により、電子的補正、スクリーン形状による補正等の負
荷を軽減することが出来る。
Even if the magnifications cannot be exactly matched due to various restrictions of the apparatus, the optical correction can reduce the load of electronic correction, correction by the screen shape, and the like.

【0058】図14〜図17本発明の他の実施例を説明
する図である。図14(a)は従来の画像投影装置の投
影状態を示す。151はスクリーン、152は投影レン
ズ、153は画像形成手段を示す。
14 to 17 are views for explaining another embodiment of the present invention. FIG. 14A shows a projection state of a conventional image projection device. Reference numeral 151 is a screen, 152 is a projection lens, and 153 is an image forming means.

【0059】この時の画角に対する周辺光量比の変化を
図14(b)に示す。図14(b)に示すように周辺光
量は画角θに対してcos θの4乗に比例して低下する。
FIG. 14B shows a change in the peripheral light amount ratio with respect to the angle of view at this time. As shown in FIG. 14B, the peripheral light amount decreases in proportion to the fourth power of cos θ with respect to the angle of view θ.

【0060】従来の画像投影装置では画角が比較的小さ
いが、投影レンズとスクリーンまでの距離を大きくする
ことによって大画面を実現していたため、必要な明るさ
を得るために光源を強くする必要はあったが、周辺光量
の低下はさほど問題とならなかった。
In the conventional image projection apparatus, the angle of view is relatively small, but since a large screen is realized by increasing the distance between the projection lens and the screen, it is necessary to strengthen the light source to obtain the required brightness. However, the decrease in peripheral light amount did not pose a problem.

【0061】しかし、本発明では肉眼に比較的近い位置
に臨場感ある大画面を投影するため、必然的に投影レン
ズの画角は従来の投影レンズに比べかなり大きくなり、
周辺光量低下が画質に及ぼす影響は大きい。このため、
本実施例では画角の増加に伴う周辺光量低下を改善す
る。
However, in the present invention, since a large screen with a realistic sensation is projected at a position relatively close to the naked eye, the angle of view of the projection lens inevitably becomes considerably larger than that of the conventional projection lens.
The decrease in the peripheral light amount has a great influence on the image quality. For this reason,
In the present embodiment, the reduction of the peripheral light amount due to the increase of the angle of view is improved.

【0062】図15(a)は本発明の垂直断面を示す。
161は非平面なスクリーン、162は投影レンズ、1
63は画像形成手段である。図15(b)はスクリーン
の反射率が一様な場合の周辺光量比(Iθ/I0)を示
す。図15(b)に示すように画面中心に対して上半分
(θ方向)と下半分(−θ方向)では周辺光量の低下が
アンバランスであり、かつ画角を大きくすると低下量と
アンバランスさが増加して画質を著しく劣化させる。
FIG. 15A shows a vertical section of the present invention.
161 is a non-planar screen, 162 is a projection lens, 1
63 is an image forming means. FIG. 15B shows the peripheral light amount ratio (Iθ / I0) when the screen reflectance is uniform. As shown in FIG. 15B, in the upper half (θ direction) and the lower half (−θ direction) of the screen center, the decrease in the peripheral light amount is unbalanced, and when the angle of view is increased, the decrease amount and the unbalanced amount are unbalanced. And the image quality is significantly deteriorated.

【0063】図16(a)は本発明の垂直断面を示す。
171は非平面なスクリーン、172は投影レンズ、1
73は画像形成手段である。図16(b)はスクリーン
の反射率が一様な場合の周辺光量比を示す。この場合も
垂直断面と同様に画角によて周辺光量が大きく低下する
ため、画質が大きく劣化する。
FIG. 16 (a) shows a vertical cross section of the present invention.
171 is a non-planar screen, 172 is a projection lens, 1
Reference numeral 73 is an image forming means. FIG. 16B shows the peripheral light amount ratio when the screen reflectance is uniform. Also in this case, as in the vertical section, the peripheral light amount greatly decreases depending on the angle of view, so that the image quality deteriorates significantly.

【0064】以上述べたように、非平面なスクリーンの
反射率が一様なままでは画面と投影位置によって周辺光
量の劣化が著しい。本実施例では、スクリーンの反射率
を投影箇所によって変化させることによって周辺光量の
低下による画質劣化を提言させる。
As described above, when the reflectance of the non-planar screen remains uniform, the peripheral light amount significantly deteriorates depending on the screen and the projection position. In the present embodiment, it is suggested that the image quality deterioration due to the reduction of the peripheral light amount is suggested by changing the reflectance of the screen depending on the projection location.

【0065】図17はスクリーンの反射率を投影箇所に
よって連続的に変化させることによって、周辺光量の低
下を許容範囲内に抑える例である。図17(a)〜
(c)は図15の垂直断面に適用した例である。図17
(a)はスクリーンの反射率が一様な場合の周辺光量
比、図17(b)は周辺光量比の低下を低減するために
連続的に変化させたスクリーンの反射率、図17(c)
は補正後の周辺光量比である。このように光学系の周辺
光量比の低下とは逆特性をスクリーンの反射率に持たせ
ることにより、画質を大幅に改善出来る。
FIG. 17 shows an example in which the decrease in the peripheral light amount is suppressed within an allowable range by continuously changing the reflectance of the screen depending on the projection location. FIG.
(C) is an example applied to the vertical section of FIG. FIG.
17A is a peripheral light amount ratio when the screen reflectance is uniform, FIG. 17B is a screen reflectance that is continuously changed to reduce a decrease in the peripheral light amount ratio, FIG. 17C.
Is the peripheral light amount ratio after correction. In this way, the image quality can be significantly improved by providing the screen reflectance with a characteristic that is opposite to the reduction in the peripheral light amount ratio of the optical system.

【0066】以下に、本発明に搭載する動き検出機構の
実施例について説明する。まず、図18を用いて説明す
る。本発明で説明する頭部搭載型画像投影装置は、それ
自体独立に頭部の動きを検出する機能を有している。従
って、内部に装着時に基準となる状態量を設定し、それ
に対する動き検出センサ出力の変化を感知することによ
り、頭部の動きを検出する。
An embodiment of the motion detecting mechanism installed in the present invention will be described below. First, it demonstrates using FIG. The head-mounted image projection device described in the present invention has a function of independently detecting the movement of the head. Therefore, the movement of the head is detected by setting a reference state quantity inside the body and detecting a change in the output of the movement detection sensor corresponding to the state quantity.

【0067】従来、動き検出機能を有するバーチャルリ
アリティシステムやゲームセンター等では動き検出を磁
気センサを用いて行ってきた。これはソース(直交コイ
ル)で発生させた磁界中にセンサ(直交コイル)を置く
とセンサに電流が誘起され、これを検出することで状態
量の位置、角度を検出する。この方式は精度よく動きが
検出される反面、原理的に動きを検出するセンサとは別
に固定のソース部分が必要であり、装置自体が大型でか
つ、価格的にも高価になるというデメリットがある。
Conventionally, in a virtual reality system having a motion detecting function, a game center, etc., motion detection has been performed using a magnetic sensor. This is because when a sensor (orthogonal coil) is placed in a magnetic field generated by a source (orthogonal coil), a current is induced in the sensor, and the position and angle of the state quantity are detected by detecting this. Although this method detects motion accurately, it has the disadvantage that it requires a fixed source part in addition to the sensor that detects motion in principle, and the device itself is large and expensive. .

【0068】本発明に搭載する動き検出機能はそれ自体
で独立し、かつ実用上問題のない動き検出を低価格なシ
ステムで実現することを目的としている。図18は装着
状態を検知して基準値を初期設定して動き検出動作に入
るまでのフローチャートを示す。図のような動作を行
い、装着時の各動き検出センサの状態を初期値として設
定し、以後は初期値からの変位量によって頭部の動きを
検出することにより、単体で自立した動き検出機能を実
現するこが出来る。
The motion detection function incorporated in the present invention is intended to realize motion detection which is independent by itself and has no practical problem in a low cost system. FIG. 18 is a flowchart showing the steps of detecting the mounting state, initializing the reference value and starting the motion detection operation. Performing the operation as shown in the figure, setting the state of each motion detection sensor at the time of wearing as the initial value, and thereafter detecting the movement of the head by the amount of displacement from the initial value, the independent motion detection function Can be realized.

【0069】図19は本発明を説明する図である。本発
明は従来の画像投影装置とは異なり、投影装置の他に頭
部の動き検出機能も搭載している。頭部の動きは図19
に示すように大きく次の3つに分けられる(a:頭部左
右方向の傾き,b:頭部前後方向の傾き,c:頭部の水
平方向の回転)。
FIG. 19 is a diagram for explaining the present invention. Unlike the conventional image projection apparatus, the present invention has a head movement detection function in addition to the projection apparatus. Figure 19 shows the movement of the head.
As shown in FIG. 3, it is roughly divided into the following three parts (a: tilt in the left-right direction of the head, b: tilt in the front-back direction of the head, c: rotation of the head in the horizontal direction).

【0070】従って、この3つの動きを検出することに
よって、頭部の3次元的な動きは検出できる。本実施例
ではこの動き検出手段として、a,bに関しては傾き角
検出センサを用い、cに関しては角速度検出センサによ
って動きを検出する。
Therefore, the three-dimensional movement of the head can be detected by detecting these three movements. In this embodiment, as the motion detecting means, a tilt angle detecting sensor is used for a and b, and a motion is detected by an angular velocity detecting sensor for c.

【0071】図20は各々のセンサの取付状態を示す。
211は頭部の左右方向の傾きを検出する傾斜角セン
サ、212は頭部水平方向への回転を検出する角速度検
出センサ、213は頭部前後方向の傾きを検出する傾斜
角センサである。211と213は同じ傾斜角センサで
あるが、角度の検出感度が互いに90度ずれた状態で最
大となるように配置する。
FIG. 20 shows the mounting state of each sensor.
Reference numeral 211 denotes a tilt angle sensor that detects the tilt of the head in the left-right direction, 212 is an angular velocity detection sensor that detects the rotation of the head in the horizontal direction, and 213 is a tilt angle sensor that detects the tilt of the head in the front-rear direction. Although 211 and 213 are the same inclination angle sensor, they are arranged so that the angle detection sensitivities become maximum when they are offset by 90 degrees.

【0072】図20では各々の傾斜角センサがx,y軸
上に配置されているが、これは必ずしも軸上である必要
はなく同一平面上で各々がx軸,y軸に平行でかつ、互
いに検出方向が90度すれた状態に配置されていれば問
題はない。角速度センサについてはほぼ頭部の回転中心
の位置に配置し、水平方向の回転を検出する。
In FIG. 20, each inclination angle sensor is arranged on the x and y axes, but this does not necessarily have to be on the axes, and on the same plane, each is parallel to the x and y axes, and There is no problem as long as the detection directions are 90 degrees apart from each other. The angular velocity sensor is arranged substantially at the position of the center of rotation of the head and detects the rotation in the horizontal direction.

【0073】図21は、図20に示すように、各センサ
を配置した場合の検出角度と出力との関係を示す。図2
1(a)は傾斜角センサ211に対応する検出角度と入
出力特性、図21(b)は角速度センサ212に対応す
る検出角速度と入出力特性、図21(c)は傾斜角セン
サ213に対応する検出角度と入出力特性である。各々
のセンサは正負の角度あるいは角速度に対して線形の入
出力関係を示すので、これらのセンサ出力から容易に頭
部の三次元的な動きを検出することが出来る。
FIG. 21 shows the relationship between the detected angle and the output when the sensors are arranged as shown in FIG. FIG.
1 (a) is a detection angle and input / output characteristics corresponding to the tilt angle sensor 211, FIG. 21 (b) is a detection angular velocity and input / output characteristics corresponding to the angular velocity sensor 212, and FIG. 21 (c) is corresponding to the tilt angle sensor 213. These are the detected angle and the input / output characteristics. Since each sensor has a linear input-output relationship with positive and negative angles or angular velocities, the three-dimensional movement of the head can be easily detected from the outputs of these sensors.

【0074】また、角速度センサについては出力をその
まま示したが、傾斜角センサと同様に角度を検出する場
合には、初期設定を行った後、それに対して角速度セン
サ出力を積分すれば角度(状態量)を求めることが出来
る。
Although the output of the angular velocity sensor is shown as it is, if the angle is detected as in the case of the tilt angle sensor, the angle (state can be calculated by initializing and then integrating the output of the angular velocity sensor). Quantity) can be obtained.

【0075】本発明の実施例を図22〜図25を用いて
説明する。図22は本実施例で使用する頭部の水平方向
の回転を検出する角速度センサの回転軸がずれた場合の
入出力特性を示す。図に示すように回転軸(この例では
z軸)に対して角度θだけ傾斜した場合の出力電圧E0は
傾斜角が増加するに従って著しく減少する。本発明で提
案する頭部搭載型画像投影装置では、装着する人によっ
て装着状態は千差万別であり、装着者によって回転中心
がバラバラになる可能性がある。このため、角速度セン
サ1つで全ての範囲をカバーしようとすると、場合によ
っては頭部の動作検出感度が著しく劣化する可能性があ
る。
An embodiment of the present invention will be described with reference to FIGS. FIG. 22 shows the input / output characteristics when the rotation axis of the angular velocity sensor for detecting the horizontal rotation of the head used in this embodiment is deviated. As shown in the figure, the output voltage E0 when it is tilted by an angle θ with respect to the rotation axis (z axis in this example) remarkably decreases as the tilt angle increases. In the head-mounted image projection apparatus proposed by the present invention, the mounting state varies depending on the person who wears it, and there is a possibility that the center of rotation will be different depending on the person who wears it. For this reason, if it is attempted to cover the entire range with one angular velocity sensor, the sensitivity for detecting the motion of the head may be significantly deteriorated in some cases.

【0076】ここでは、この動作検出感度の劣化を防止
するために頭部水平方向の回転角速度を検出する角速度
センサを複数個配置して装着者の回転中心に一番近い角
速度センサを用いて回転動作を検出する。
Here, in order to prevent the deterioration of the motion detection sensitivity, a plurality of angular velocity sensors for detecting the rotational angular velocity in the horizontal direction of the head are arranged, and the angular velocity sensor closest to the center of rotation of the wearer is used for rotation. Detect motion.

【0077】図23に複数個の角速度センサの配置状態
を示す。図は本発明の頭部搭載型画像投影装置を背面か
ら見た図である。この実施例では角速度センサを3個配
置した例を示す。図中242、243、244は回転軸
を角度θずつ傾斜させた位置に配置した角速度センサで
ある。配置する位置は左右方向については中心軸245
を移動するものとする。それぞれの角速度センサは互い
に動き検出の感度が許容限界内になる傾斜角度θおきに
配置する。
FIG. 23 shows the arrangement of a plurality of angular velocity sensors. The figure is a view of the head-mounted image projection device of the present invention as viewed from the back. In this embodiment, three angular velocity sensors are arranged. In the figure, reference numerals 242, 243, and 244 denote angular velocity sensors arranged at positions where the rotation axes are inclined by an angle θ. The placement position is the central axis 245 in the left-right direction.
Shall be moved. The respective angular velocity sensors are arranged at every inclination angle θ such that the sensitivity of motion detection is within the allowable limit.

【0078】図24は各センサの傾斜角に対する感度を
示す。図からわかるように各センサの感度のピークが傾
斜角θ毎に現れるため1つの傾斜角センサでの検出に比
べ、広範囲で一様な感度での検出が可能となる。
FIG. 24 shows the sensitivity of each sensor to the tilt angle. As can be seen from the figure, since the peak of the sensitivity of each sensor appears for each tilt angle θ, it is possible to detect with a uniform sensitivity over a wide range, compared with the detection with one tilt angle sensor.

【0079】図25を用いて本実施例の動作の流れを説
明する。まず、本発明の画像投影装置を装着し、頭部を
水平に回転させた時に回転軸が異なる複数個の角速度セ
ンサからの出力261、262、263を出力比較手段
264で比較し、その中で出力が一番大きいセンサをセ
ンサ指定手段265で指定し、それ以後の動き検出に関
しては指定されたセンサ出力を用いて行う。このように
することにより、広範囲な装着状態に対して一様な動作
検出が可能となる。
The operation flow of this embodiment will be described with reference to FIG. First, the output comparing means 264 compares the outputs 261, 262, 263 from a plurality of angular velocity sensors having different rotation axes when the head is horizontally rotated by mounting the image projection apparatus of the present invention. The sensor having the largest output is designated by the sensor designating means 265, and subsequent motion detection is performed using the designated sensor output. By doing so, it is possible to detect the motion evenly in a wide range of wearing states.

【0080】図26の実施例では頭部の動きを検出する
ために3個の角速度センサを使用する。図26に角速度
センサの取付け位置を示す。271はZ軸を中心とした
回転、272はY軸を中心とした回転、273はX軸を
中心とした回転を検出する。
In the embodiment shown in FIG. 26, three angular velocity sensors are used to detect the movement of the head. FIG. 26 shows the mounting position of the angular velocity sensor. 271 detects rotation about the Z axis, 272 detects rotation about the Y axis, and 273 detects rotation about the X axis.

【0081】本実施例では回転によって全ての頭部の動
きを検出するため、センサの取付け位置は回転軸か或い
は回転軸から検出感度が許容できる範囲内に置く必要が
ある。このようにすることによって頭部の3次元的な動
きを検出することが出来る。ここで用いる角速度センサ
はそのままの出力では動きに対する変化量のみを検出す
るため、用途によって状態量として検出する場合にはセ
ンサ出力を積分することによって状態を検出することも
可能である。この例においても同様に装着時にセンサか
らの出力を初期値として記憶し、以後この初期値からの
変化量によって動き検出を行うことにより、単体で独立
した動き検出機能を実現することが出来る。
In this embodiment, since all movements of the head are detected by rotation, it is necessary to mount the sensor at the rotation axis or within the range where the detection sensitivity is allowable from the rotation axis. By doing so, the three-dimensional movement of the head can be detected. Since the angular velocity sensor used here detects only the amount of change with respect to the motion with the output as it is, it is possible to detect the state by integrating the sensor output when detecting as the state amount depending on the application. In this example as well, similarly, the output from the sensor is stored as an initial value at the time of mounting, and thereafter, the motion detection is performed based on the amount of change from the initial value, whereby an independent motion detection function can be realized by itself.

【0082】図27、図28の実施例を示す。図27
(a)は、その一実施例を示す。頭部動き検出手段から
の出力で視野変化変換手段で視野変化を検出した後、制
御信号発生手段を介して画像信号生成手段で生成される
画像信号のうちで視野に相当する範囲を投影画像として
選択する。図27(b)は画像信号生成手段で生成され
る画像信号の表示可能範囲283で視野に相当する画像
表示範囲284,285,286を示す。ここでは画像
生成手段で生成される画像範囲は視野に相当する画像表
示範囲を十分カバーできるように非常に画角の広いもの
とする。
The embodiment of FIGS. 27 and 28 is shown. FIG.
(A) shows one example thereof. After the visual field change is detected by the visual field change conversion means by the output from the head movement detection means, the range corresponding to the visual field in the image signal generated by the image signal generation means via the control signal generation means is used as the projection image. select. FIG. 27B shows image display ranges 284, 285, 286 corresponding to the field of view in the displayable range 283 of the image signal generated by the image signal generating means. Here, the image range generated by the image generating means has a very wide angle of view so as to sufficiently cover the image display range corresponding to the field of view.

【0083】これに対して視野に相当する画像表示範囲
は正面を向いている場合には284を表示する。そして
頭部を動かして頭部動き検出手段が左斜め上を向いてい
る場合には、視野変化変換手段によって285の範囲を
スクリーン281上に投影する画像として選択する。同
様に頭部の動きが右斜め下を向いていると判断した場合
には286の画像表示範囲を選択する。このようにすれ
ば頭部の動きによって視野に相当する画像を容易に切り
替えることが出来れば、臨場感ある画像を楽しむことが
出来る。
On the other hand, the image display range corresponding to the field of view displays 284 when facing the front. When the head is moved so that the head movement detecting means faces diagonally upward to the left, the visual field change converting means selects the range 285 as an image to be projected on the screen 281. Similarly, when it is determined that the movement of the head is directed to the lower right, the image display range 286 is selected. In this way, if the image corresponding to the visual field can be easily switched by the movement of the head, it is possible to enjoy a realistic image.

【0084】図28(a)はもう一つの実施例を示す。
図27では画像の表示範囲を画像信号生成手段を用いて
視野によって切り替えたが、この実施例では画像の信号
源を外部から供給する画像発生装置に直接視野変化に関
連する制御信号を入力し、入力画像自体を変化させる方
式である。図28(b)は頭部の動き検出によって切り
替える表示画像を示す。293は正面を向いている状態
での投影画像表示範囲、294は左斜め上を向いたと判
断した時の投影画像範囲、295は右斜め下を向いたと
判断した時の投影画像表示範囲である。
FIG. 28 (a) shows another embodiment.
In FIG. 27, the display range of the image is switched depending on the field of view by using the image signal generating means, but in this embodiment, the control signal related to the change of the field of view is directly input to the image generating device which externally supplies the signal source of the image, This is a method of changing the input image itself. FIG. 28B shows a display image that is switched by detecting the movement of the head. 293 is a projected image display range when facing forward, 294 is a projected image range when it is determined that it is facing diagonally left upward, and 295 is a projected image display range when it is determined that it is facing diagonally right downward. is there.

【0085】この方式では外部の画像発生装置で入力画
像を生成させるため、本発明の画像投影装置は簡単な構
成でよく、また画像発生装置として処理能力の高いコン
ピュータ等を用いれば、かなり高度なバーチャルリアリ
ティ空間を実現することも可能である。
In this system, since an input image is generated by an external image generating device, the image projecting device of the present invention may have a simple structure, and if a computer having a high processing capacity is used as the image generating device, it is considerably advanced. It is also possible to realize a virtual reality space.

【0086】実施例1をまとめると、以下のようにな
る。 1、頭部に装着する画像投影装置において、投影画像を
表示する非平面なスクリーンと、投影する画像信号を生
成する画像信号生成手段と、その画像信号から投影する
画像を形成する画像形成手段と、画像形成手段によって
形成した画像をスクリーン上に投影するための画像投影
手段と、画像形成手段で形成された投影画像をスクリー
ン上に結像させる投影光学系と、投影光学系とスクリー
ン、及び投影画像形成手段から構成される投影光学系で
生じる歪を電子的に補正する歪補正手段と、頭部の動き
を検出する頭部動き検出手段と、頭部動き検出手段から
の検出信号により画像信号を制御する制御信号発生手段
とを具備することを特徴とする。 2、前記スクリーンが投影光学系の被写界深度内に入る
ようにスクリーンに対して画像形成手段、及び投影光学
系を傾けることを特徴とする。 3、前記スクリーンの曲率半径は、投影光学系で発生す
る歪を低減するために投影箇所において連続的に変化さ
せることを特徴とする。 4、前記投影光学系の投影レンズは、投影光学系によっ
て生じる歪と逆特性の歪曲収差をもつことを特徴とす
る。 5、前記歪補正手段は、投影光学系とは別に設けた歪補
正光学系により投影光学系の歪とは逆特性の歪を投影画
像に加えて歪を補正することを特徴とする。 6、前記スクリーンの反射率は投影光学系の周辺光量の
低下を補正するように投影中心から画面周辺にいくにつ
れて増加させることを特徴とする。 7、前記動き検出手段は、本発明画像投影装置を装着時
の状態を初期値として記憶し、以後はその初期値からの
変化を検出することで頭部の動き検出動作を行うことを
特徴とする。 8、前記頭部動き検出手段は二軸の傾斜角検出センサと
一軸の回転角速度センサを用いて、頭部の三次元運動を
検出することを特徴とする。 9、前記頭部動き検出手段における頭部の水平方向の回
転の検出は、頭部左右中心軸上に配置された複数の角速
度センサの中で装着者の頭部の回転運動に対して一番出
力の大きい角速度センサを選択し、水平方向の角度を検
出することを特徴とする。 10、前記頭部動き検出手段は、互いに直交する3軸の
回転運動を検出する3個の角速度センサーにより頭部の
三次元運動を検出することを特徴とする。 11、前記画像信号を制御する制御信号発生手段は、頭
部の三次元運動による視野の変化を投影画像に対して行
わせることを特徴とする。 (実施例1の効果)上述したように、本発明は構成上発
生する幾何学的な歪を電子的或いは光学的な補正を施す
ことにより、眼精疲労が少なくかつ小型軽量でありなが
ら、大画面が楽しめ、さらに搭載している頭部動き検出
機能によって臨場感ある画像空間を生成する画像投影装
置を実現する。 (実施例2)以下、図面に基づいて本発明の実施例を説
明する。
The first embodiment is summarized as follows. 1. In an image projection apparatus mounted on the head, a non-planar screen for displaying a projected image, an image signal generating means for generating an image signal to be projected, and an image forming means for forming an image to be projected from the image signal An image projecting means for projecting an image formed by the image forming means on a screen, a projection optical system for forming the projected image formed by the image forming means on the screen, a projection optical system and a screen, and a projection Distortion correction means for electronically correcting distortion generated in the projection optical system composed of image forming means, head movement detection means for detecting movement of the head, and image signal based on detection signals from the head movement detection means And a control signal generating means for controlling. 2. The image forming means and the projection optical system are tilted with respect to the screen so that the screen is within the depth of field of the projection optical system. 3. The radius of curvature of the screen is characterized in that it is continuously changed at the projection location in order to reduce the distortion generated in the projection optical system. 4. The projection lens of the projection optical system is characterized by having a distortion aberration having a characteristic opposite to that of the distortion generated by the projection optical system. 5. The distortion correcting means is characterized in that the distortion correcting optical system provided separately from the projection optical system corrects the distortion by adding distortion having characteristics opposite to those of the projection optical system to the projected image. 6. The reflectance of the screen is increased as it goes from the projection center to the periphery of the screen so as to correct the decrease in the peripheral light amount of the projection optical system. 7. The motion detecting means stores the state of the image projection apparatus of the present invention when the device is attached as an initial value, and thereafter performs a head motion detecting operation by detecting a change from the initial value. To do. 8. The head movement detecting means detects a three-dimensional movement of the head by using a biaxial inclination angle detection sensor and a uniaxial rotation angular velocity sensor. 9. The detection of the horizontal rotation of the head by the head movement detecting means is most suitable for the rotational movement of the head of the wearer among the plurality of angular velocity sensors arranged on the left and right central axes of the head. The feature is that an angular velocity sensor with a large output is selected to detect an angle in the horizontal direction. 10. The head movement detecting means is characterized in that the three-dimensional movement of the head is detected by three angular velocity sensors that detect rotational movements of three axes orthogonal to each other. 11. The control signal generating means for controlling the image signal is characterized in that the projection image is changed in the visual field due to the three-dimensional movement of the head. (Effect of Embodiment 1) As described above, according to the present invention, the geometric distortion generated in the configuration is corrected electronically or optically, so that the eye strain is small, the size is small, and the weight is large. It is possible to realize an image projection device that enjoys the screen and creates a realistic image space by the built-in head movement detection function. (Embodiment 2) An embodiment of the present invention will be described below with reference to the drawings.

【0087】図33は、本発明に係わる実施例の構成を
示したブロック図の一例である。本実施例の頭部動作検
出による機器制御装置は、速度、あるいは加速度、ある
いは角速度、または傾斜角などの一動作方向の頭部動作
を単独に検出できるn個のセンサ101〜10n、動作
量生成部342、基準量保持部343、状態量生成部3
44、変化量生成部345、動作パターンメモリ部34
6、頭部動作認識部347、制御信号生成部348、制
御実行処理部349からなり、センサ101〜10nは
動作量生成部342に接続され、この動作量生成部34
2は、基準量保持部343、状態量生成部344、変化
量生成部345に接続される。
FIG. 33 is an example of a block diagram showing the configuration of the embodiment according to the present invention. The device control apparatus according to the present embodiment for detecting head movements includes n sensors 101 to 10n capable of independently detecting head movements in one movement direction such as velocity, acceleration, angular velocity, or inclination angle, and movement amount generation. Unit 342, reference amount holding unit 343, state amount generation unit 3
44, change amount generation unit 345, operation pattern memory unit 34
6, the head motion recognition unit 347, the control signal generation unit 348, and the control execution processing unit 349. The sensors 101 to 10n are connected to the motion amount generation unit 342.
2 is connected to the reference amount holding unit 343, the state amount generation unit 344, and the change amount generation unit 345.

【0088】また、基準量保持部343は状態量生成部
344に、状態量生成部344は変化量生成部345、
頭部動作認識部347、および制御信号生成部348
に、変化量生成部345は頭部動作認識部347、制御
信号生成部348に接続される。
Further, the reference amount holding unit 343 is the state amount generation unit 344, the state amount generation unit 344 is the change amount generation unit 345,
Head motion recognition unit 347 and control signal generation unit 348
In addition, the change amount generation unit 345 is connected to the head motion recognition unit 347 and the control signal generation unit 348.

【0089】さらに、動作パターンメモリ部346は頭
部動作認識部347に、頭部動作認識部347は制御信
号生成部348に、制御信号生成部348は制御実行処
理部349に、制御実行処理部349は制御対象機器3
41に接続される。
Further, the motion pattern memory unit 346 is the head motion recognition unit 347, the head motion recognition unit 347 is the control signal generation unit 348, the control signal generation unit 348 is the control execution processing unit 349, and the control execution processing unit. 349 is a control target device 3
41 is connected.

【0090】動作量生成部342は、図34に示すよう
なスピーカ3511、マイク3512などを備えるヘッ
ドセット3510に組み込まれた速度、あるいは加速
度、あるいは角速度、または傾斜角などの一動作方向の
頭部動作を単独に検出できるn個のセンサ101〜10
nを備え、これらの出力を、それぞれに、あるいは組み
合わせて動作量と呼ぶ量に順次変換する。この動作量と
は、図35に示すように動作量生成部342によって、
例えば、直交する3軸方向のそれぞれの移動速度を検出
できるようにヘッドセット3510に設置された3つの
センサ101〜103からの出力をVx、Vy、Vzと
すると、ある時刻tにおける動作量Mは、それぞれ単独
に動作量a14のように、
The motion amount generating unit 342 is a head in one motion direction such as velocity, acceleration, angular velocity, or inclination angle incorporated in a headset 3510 having a speaker 3511, a microphone 3512, etc. as shown in FIG. N sensors 101 to 10 capable of independently detecting motion
n, and these outputs are converted individually or in combination into an amount called an operation amount. This motion amount is calculated by the motion amount generation unit 342 as shown in FIG.
For example, if the outputs from the three sensors 101 to 103 installed in the headset 3510 so as to detect respective moving speeds in the three orthogonal directions are Vx, Vy, and Vz, the operation amount M at a certain time t is , Each independently like the motion amount a14,

【0091】[0091]

【数6】 と規定、あるいは必要に応じてこれらを組み合わせて動
作量b15のように、
(Equation 6) And regulation, or combining them as necessary, as in the operation amount b15,

【0092】[0092]

【数7】 と規定されるセンサの出力に基づく頭部動作を表現する
量である。前者の動作量a14ようにそれぞれのセンサ
101〜103の出力を個々の動作量として扱うと、処
理をそれぞれ独立して行えるため回路構成を単純にでき
る。これは、図69に示す従来例でも行われている処理
である。
(Equation 7) Is a quantity that represents the head movement based on the output of the sensor defined as. If the outputs of the respective sensors 101 to 103 are treated as individual movement amounts like the former movement amount a14, the processing can be performed independently, so that the circuit configuration can be simplified. This is a process that is also performed in the conventional example shown in FIG.

【0093】本発明では、さらに、ある時刻における制
御に必要な出力が一つ、あるいは二つと変化するとき、
あるいは制御には3軸すべての方向の頭部動作情報が必
要ないときなど、それぞれのセンサ101〜103の出
力を選択的に処理することにより、すべてのセンサ10
1〜103の出力を常に扱う場合に比べて信号の伝送お
よび処理効率を向上させることも念頭に入れている。
In the present invention, when the output required for control at a certain time changes to one or two,
Alternatively, when the control does not require head movement information in all three directions, all the sensors 10 to 103 are selectively processed by selectively processing the outputs of the respective sensors 101 to 103.
It is also in mind to improve the signal transmission and processing efficiency as compared with the case where the outputs 1 to 103 are always handled.

【0094】さらに、異なる種類のセンサ101〜10
nによって頭部動作を検出するときなどには、同じ時刻
に検出されたセンサの出力であっても、動作量a14の
ようにして、それぞれ独立して後段の処理を行うと、そ
れらの処理時間の違いにより結果として得られる頭部動
作が実際とは時間的にずれてしまう。また、組み込まれ
た全センサ101〜10nの出力の相互関係が得られる
と、すべてのセンサ101〜10nの出力に変化が生じ
ない状態の検出、つまり静止状態の検出やある時刻に行
われている頭部動作の3次元の方向ベクトルの検出など
が容易であるため、頭部動作をより正確に把握すること
ができる。以上のような理由から、本発明においては後
者の動作量b15のようにして、ある時刻に検出された
それぞれのセンサ101〜10nの出力を組み合わせて
取り扱うことを考慮した点も従来例と異なっている。
Further, different types of sensors 101 to 10 are used.
When the head motion is detected by n, even if the output of the sensor is detected at the same time, if the subsequent processing is independently performed like the motion amount a14, the processing time is As a result, the resulting head movement is temporally different from the actual one. Further, when the interrelation of the outputs of all the incorporated sensors 101 to 10n is obtained, the detection of a state in which the outputs of all the sensors 101 to 10n do not change, that is, the detection of a stationary state or a certain time is performed. Since it is easy to detect the three-dimensional direction vector of the head movement, the head movement can be grasped more accurately. For the above reasons, the present invention is also different from the conventional example in that the latter operation amount b15 is taken into consideration by combining the outputs of the respective sensors 101 to 10n detected at a certain time. There is.

【0095】図69の従来例で示したような構成の装置
では、動きを単独に検出できるセンサから頭部の傾き角
度を体系的に得ることは、頭部の傾きを表すための基準
となる使用者の基本姿勢が一般には規定されていないた
め困難である。そこで、本発明に係わる頭部動作検出に
よる機器制御装装置では、図36のような姿勢、いわゆ
る使用者が正面を向いている状態を基準の頭部位置とす
ることにし、そのときの動作量、あるいはセンサの出力
を頭部の傾き角度を得るため基準量として基準量保持部
343で保持する。
In the apparatus having the structure shown in the conventional example of FIG. 69, systematically obtaining the tilt angle of the head from the sensor capable of independently detecting the movement is a reference for representing the tilt of the head. It is difficult because the basic posture of the user is not generally specified. Therefore, in the equipment control device by head movement detection according to the present invention, the posture as shown in FIG. 36, that is, the state in which the user is facing the front is set as the reference head position, and the movement amount at that time is set. Alternatively, the output of the sensor is held in the reference amount holding unit 343 as a reference amount for obtaining the tilt angle of the head.

【0096】このようにすることによって、速度、ある
いは加速度、あるいは角速度、または傾斜角などの一動
作方向の頭部動作を単独に検出できるセンサによっても
頭部の傾き角度を体系的に得ること、つまり本発明に係
わる頭部動作検出による機器制御装置、制御制御対象機
器341、および使用者の間での頭部の状態を一つの座
標系で共有できる。なお、図36中の正中面とは「身体
を左右の相半に分つ中心面」と、頭頂点とは「頭部の正
中面における最高点」と定義されている人体寸法計測に
関する用語である。また、保持される基準量は、センサ
の種類、特性によって静止状態を示す値、あるいは傾き
角度を示す値であるなどその性質が異なってもよい。
By doing so, the head tilt angle can be systematically obtained even by the sensor capable of independently detecting the head motion in one motion direction such as the velocity, the acceleration, the angular velocity, or the tilt angle. That is, the state of the head among the device control apparatus by the head motion detection according to the present invention, the control-controlled device 341, and the user can be shared in one coordinate system. In addition, the median plane in FIG. 36 is a term relating to the measurement of the human body, which is defined as "a center plane that divides the body into left and right phase halves", and a head vertex is defined as "the highest point on the median plane of the head". is there. Further, the held reference amount may have different properties such as a value indicating a stationary state or a value indicating a tilt angle depending on the type and characteristics of the sensor.

【0097】基準量保持部343における基準量の保持
は、装置を起動してヘッドセット3510を装着後、あ
るいはヘッドセット3510を装着して装置を起動後
に、図36で規定した姿勢、つまり正面を向いた状態で
行うことを基本とする。図37に示すように、基準量保
持部343では、まず、ある時刻における動作量の読み
込みを行い(S201)、これをヘッドセット3510
の装着、あるいは使用者による装着確認操作、あるいは
装置への電源投入、あるいは装置による任意のタイミン
グの何れかの基準量保持タイミングが検出されたかを判
断し(S202)、これが検出されるまで繰り返す。こ
の基準量保持タイミングが検出された直後、あるいは任
意に設定できる遅延時間後に、読み込んだ動作量を基準
量として保持する(S203)。
The reference amount holding unit 343 holds the reference amount after the device is activated and the headset 3510 is mounted or after the headset 3510 is mounted and the device is activated, the posture defined in FIG. It is basically done in a facing state. As shown in FIG. 37, in the reference amount holding unit 343, first, the operation amount at a certain time is read (S201), and this is read by the headset 3510.
It is determined whether or not the reference amount holding timing of the mounting, the mounting confirmation operation by the user, the power supply to the apparatus, or an arbitrary timing by the apparatus is detected (S202), and this is repeated until it is detected. Immediately after the reference amount holding timing is detected or after a delay time that can be arbitrarily set, the read operation amount is held as the reference amount (S203).

【0098】さらに、基準量の保持が終了したことを別
途用意するLEDの点灯などの保持完了通知手段によっ
て使用者に通知(S204)して処理を終える。この保
持完了通知によって、使用者は予め設定された基準量保
持タイミングで保持が行われなければ、再び装着確認操
作を、あるいは装置自身の再起動を行うなどの対応を迅
速に行うことができる。
Further, the user is notified (S204) by a holding completion notifying means such as turning on an LED separately prepared that the holding of the reference amount is finished, and the process is finished. If the user does not hold the reference amount holding timing by the holding completion notification, the user can promptly take a countermeasure such as a mounting confirmation operation again or a restart of the apparatus itself.

【0099】以降は、このようにして保持された基準量
を頭部の姿勢を表すための基準値として頭部の傾き角度
を得る。このように、図69に示した従来例と違って、
基準量保持の基本姿勢だけではなくそのタイミングまで
も規定し、この保持が正しく行われたかを使用者が容易
に確認できるようにした。
Thereafter, the inclination angle of the head is obtained by using the reference amount thus held as the reference value for expressing the posture of the head. Thus, unlike the conventional example shown in FIG. 69,
Not only the basic posture for holding the reference amount but also the timing has been specified so that the user can easily confirm whether or not this holding was performed correctly.

【0100】基準量保持部343において、図37に示
した処理の基準量保持タイミングが検出されたかを判断
し(S202)、これが検出された後に、図37に示す
ようにセンサの出力Vが予め設定していた許容値R以上
か、あるいは頭部の傾き角度に対応して得られるセンサ
の出力Vが予め設定していた許容値R以上かを判断する
ステップ(S205)を加え、センサが故障しているよ
って出力が異常である、あるいは使用者が正面を向いて
いなくて頭部が傾いていることなどによって、異常な
値、あるいは基本姿勢以外での基準量の保持を行わない
ようにする。また、この追加ステップ(S205)で、
ある時間間隔のセンサの出力の変化ΔVが予め設定して
いた許容値R以上かをも判断し(S205)、このとき
には頭部が静止していないとして基準量の保持を行わな
いようにする。このようにすると、基準量を常に規定さ
れた条件下で正しく保持することができる。
In the reference amount holding unit 343, it is judged whether or not the reference amount holding timing of the processing shown in FIG. 37 is detected (S202), and after this is detected, the output V of the sensor is previously set as shown in FIG. A step (S205) of determining whether the set allowable value R or more or the sensor output V obtained corresponding to the head tilt angle is the preset allowable value R or more is added, and the sensor malfunctions. Do not hold an abnormal value or a reference amount in a position other than the basic posture due to an abnormal output, or the user's head not tilted to the front and the head tilted. . Also, in this additional step (S205),
It is also determined whether or not the change ΔV in the output of the sensor at a certain time interval is equal to or greater than a preset allowable value R (S205), and at this time, the head is not stationary and the reference amount is not held. In this way, the reference amount can always be held correctly under the specified conditions.

【0101】ヘッドセット3510の装着を自動的に検
出するためには、図39のように頭部に固定するために
顎や後頭部などで留めるベルトの接合部をスイッチとす
る、あるいは固定に伴うヘッドセット3510内壁面の
圧力、温度の変化を検出する、さらには内壁面間に設置
した光学的スイッチの遮断を検出するなどの方法があ
る。
In order to automatically detect the wearing of the headset 3510, as shown in FIG. 39, the joint portion of the belt which is fastened to the head by the chin or the back of the head is used as a switch, or the head accompanying the fixation is used. There are methods such as detecting changes in pressure and temperature on the inner wall surface of the set 3510, and further detecting interruption of an optical switch installed between the inner wall surfaces.

【0102】また、装着確認操作とは、使用者によるヘ
ッドセット3510装着の完了後に正面を向いた状態で
に行われる別途用意するコントローラに設置されたボタ
ンの押下、あるいはスイッチの入切などの自発的操作で
ある。このようにして、使用者に基準量保持のための操
作であることを意識させることにより、任意のタイミン
グでより確実に基準量を保持することができる。
The wearing confirmation operation is a voluntary operation such as pressing a button or turning on / off of a switch, which is installed in a separately prepared controller, which is performed with the user facing the front after the wearing of the headset 3510 is completed. Operation. In this way, by making the user aware of the operation for holding the reference amount, the reference amount can be held more reliably at any timing.

【0103】状態量生成部344は、動作量生成部34
2で得られた動作量と基準量保持部343に保持されて
いる基準量から図40で規定された各角度軸に対する旋
回角度(ヨー角)、前後屈角度(ピッチ角)、左右屈角
度(ロール角)を演算し、それぞれの角度情報を状態量
と呼ぶ量として順次変換する。ある時刻tの状態量θt
は、このときの旋回角度をθy、前後屈角度をθp、左
右屈角度をθrとすると、θt = f(θy、θp、
θr)と規定される。このように処理することによっ
て、従来例などは困難であった頭部の傾き角度を体系的
に得ることができる。
The state quantity generation section 344 has a motion quantity generation section 34.
40. Based on the motion amount obtained in 2 and the reference amount held in the reference amount holding unit 343, the turning angle (yaw angle), the forward / backward bending angle (pitch angle), and the left / right bending angle ( The roll angle) is calculated, and each angle information is sequentially converted into a quantity called a state quantity. State quantity θt at a certain time t
Let θy be the turning angle at this time, θp be the front-back bending angle, and θr be the left-right bending angle, then θt = f (θy, θp,
θr). By processing in this way, it is possible to systematically obtain the tilt angle of the head, which was difficult in the conventional example.

【0104】状態量生成部344では、図41に示すよ
うに、まずその時刻の動作量を読み込む(S206)。
次に、保持されている基準量を読み込み(S207)、
状態量を得るための演算を行う(S208)。この状態
量を得るために行う演算は、基準量を基にして行われ、
センサの出力が速度などの変化量の場合は積分であり、
傾斜角度などの角度値の場合は減算である。また、図4
2のように状態量は、それぞれの角度軸において基準量
を保持した際の使用者の基本姿勢、つまり正面を向いて
いる状態を0度とする相対角度(±θ)として扱うこと
を基本とする。当然、相対角度の符号情報(+または
−)のみで頭部の姿勢の大まかな様子を得て、制御を実
行することも可能である。
As shown in FIG. 41, the state quantity generating unit 344 first reads the operation quantity at that time (S206).
Next, the stored reference amount is read (S207),
Calculation for obtaining the state quantity is performed (S208). The calculation performed to obtain this state quantity is based on the reference quantity,
If the output of the sensor is the amount of change such as speed, it is an integral,
In the case of an angle value such as a tilt angle, it is subtraction. Also, FIG.
As shown in 2, the state quantity is basically handled as a basic posture of the user when the reference quantity is held on each angle axis, that is, as a relative angle (± θ) with 0 degrees when facing the front. To do. Of course, it is also possible to obtain the rough state of the posture of the head and execute the control only with the sign information (+ or −) of the relative angle.

【0105】変化量生成部345は、連続した頭部動作
に伴う動作量、あるいは状態量のある時間間隔における
変化分を演算し、これを変化量と呼ぶ量とする。変化量
は、図43に示すように演算する時間間隔をΔtとする
と、動作量M、あるいは状態量θの変化分なので、
The change amount generating section 345 calculates the amount of movement associated with continuous head movements, or the amount of change in the state amount in a certain time interval, and sets this as the amount of change. The change amount is a change amount of the operation amount M or the state amount θ, where Δt is a time interval for calculation as shown in FIG. 43.

【0106】[0106]

【数8】 と規定できる。なお、変化量を求める演算を行う時間間
隔は、センサの特性、制御対象機器341の仕様、また
は使用者の要求に応じて任意に設定できるものとする。
(Equation 8) Can be specified. The time interval for performing the calculation for obtaining the amount of change can be arbitrarily set according to the characteristics of the sensor, the specifications of the controlled device 341, or the user's request.

【0107】本発明においては、頭部動作に伴う変化
量、あるいは状態量に応じて逐次、制御対象機器341
を制御するのみではなく、ある時間間隔の一連の頭部動
作に応じた動作パターンによる制御を行うこともでき
る。そのために、動作パターンメモリ部346は、状態
量、あるいは変化量またはその両方からなる様々な頭部
動作の基本動作パターンを予め格納している。
In the present invention, the control target device 341 is sequentially operated in accordance with the amount of change or the amount of state associated with head movement.
It is also possible to perform not only the control of the motion vector but also the motion pattern according to a series of head motions at a certain time interval. For that purpose, the motion pattern memory unit 346 stores in advance basic motion patterns of various head motions including state quantities, variation quantities, or both.

【0108】例えば、制御対象機器341の制御に状態
量θのみからなる基本動作パターンPが必要な場合、図
44(a)のように、状態量と基本動作パターンが1対
1の関係で対応づけられたテーブル形式で格納される。
また、状態量θと変化量ΔCの両方からなる基本動作パ
ターンPが必要ならば、図44(b)のように、状態
量、変化量と基本動作パターンが2対1の関係で対応づ
けられたテーブル形式で格納される。
For example, when the basic operation pattern P consisting of only the state quantity θ is required to control the controlled device 341, the state quantity and the basic operation pattern correspond to each other as shown in FIG. 44 (a). It is stored in the attached table format.
Further, if the basic operation pattern P including both the state amount θ and the change amount ΔC is required, the state amount, the change amount, and the basic operation pattern are associated with each other in a two-to-one relationship as shown in FIG. It is stored in a table format.

【0109】頭部動作認識部347は、図45に示すよ
うに、まず、頭部動作から順次得られる状態量、あるい
は変化量またはその両方を読み込む(S209)。これ
らと動作パターンメモリに格納されているデータを比較
(マッチング処理)して、一連の頭部動作を基本動作パ
ターンの何れかの動作として、あるいはそれ以外の動作
として識別する(S210)。そして、この頭部動作識
別処理の結果を出力する(S211)。さらに、別途用
意するLEDの点灯などの通知手段によって使用者に通
知する(S212)。
As shown in FIG. 45, the head movement recognizing unit 347 first reads the state quantity, the change quantity, or both obtained sequentially from the head movement (S209). These and the data stored in the motion pattern memory are compared (matching process), and a series of head motions are identified as any motion of the basic motion pattern or other motions (S210). Then, the result of the head motion identification processing is output (S211). Further, the user is notified by a notification means such as lighting of a separately prepared LED (S212).

【0110】制御信号生成部348は、動作認識部によ
って認識された認識結果、あるいは状態量、あるいは変
化量に基づいて、予めそれらの頭部動作に対応して設定
されている制御対象機器341の制御に必要な制御信号
を出力する。これらの使い分けは、制御に必要な頭部動
作の違いによって、あるいは使用者の要求によって自由
に設定できるものとする。例えば、頭部の傾き角度、つ
まり状態量に応じて頭部装着型ディスプレイに表示する
映像の視野を変えるシステムでは、状態量θと映像の視
野を制御するための制御信号Dを1対1に対応して図4
6のように設定して格納しておけばよい。
The control signal generation unit 348 is based on the recognition result, the state amount, or the change amount recognized by the motion recognition unit, and is set in advance for the controlled device 341 corresponding to those head motions. It outputs the control signals necessary for control. These can be selectively used depending on the difference in head movement required for control or the user's request. For example, in a system that changes the visual field of the image displayed on the head-mounted display according to the tilt angle of the head, that is, the state amount, the state amount θ and the control signal D for controlling the visual field of the image are set to 1: 1. Correspondingly Figure 4
It may be set as shown in 6 and stored.

【0111】制御実行処理部349は、制御信号生成部
348からの制御信号によって、所定のインタフェース
を介して制御対象機器341の制御を実行する。制御対
象機器341には、頭部動作に対応して映像の視野を変
える頭部装着型ディスプレイやテレビカメラの姿勢を変
える装置などがある。
The control execution processing section 349 executes control of the control-target equipment 341 via a predetermined interface according to the control signal from the control signal generation section 348. The control target device 341 includes a head-mounted display that changes the visual field of the image according to the head movement, a device that changes the posture of the television camera, and the like.

【0112】なお、このような制御対象機器341が外
部からの制御信号によって制御できるようになっていな
い場合や装置の小型化が必要な場合には、本発明に係わ
る頭部動作検出による機器制御装置の全体、あるいは一
部を制御対象機器341の信号処理部の一部分として組
み込み、あたかも一体の装置であるかのように構成する
こともできる。
When the controlled device 341 is not controllable by a control signal from the outside or when miniaturization of the device is required, device control by head motion detection according to the present invention is performed. The whole or part of the device may be incorporated as a part of the signal processing unit of the control target device 341, and the device may be configured as if it is an integrated device.

【0113】頭部動作が行われる時点の頭部の状態によ
ってセンサの出力が変化する場合がある。例えば、図4
7(a)のような構造の傾斜角センサ4820を考え
る。この傾斜角センサ4820は、図47(b)のよう
に、内部の振子4822が重力方向に移動することによ
って傾斜角を検出する。このセンサをX軸方向の検出を
するように設置した場合、図47(c)のように直交す
るY軸方向の傾斜角が大きくなるにつれて回転軸482
1部の摩擦が大きくなり振子4822がスムーズに重力
方向に移動できなくなる。その結果、X軸方向の傾斜角
を正しく検出できなくなる。また、センサの出力が速度
などの瞬時値を表すときにもヘッドセット3510の重
量と重力加速度の関係、あるいはそれぞれのセンサをヘ
ッドセット3510内のどの位置に設置するかによって
同一の動作であっても同じ出力が得られない場合があ
る。
The output of the sensor may change depending on the state of the head when the head operation is performed. For example, FIG.
Consider an inclination angle sensor 4820 having a structure as shown in FIG. The tilt angle sensor 4820 detects the tilt angle by moving an internal pendulum 4822 in the direction of gravity as shown in FIG. 47 (b). When this sensor is installed so as to detect in the X-axis direction, as the tilt angle in the Y-axis direction orthogonal to each other as shown in FIG.
Part of the friction becomes large and the pendulum 4822 cannot move smoothly in the direction of gravity. As a result, the tilt angle in the X-axis direction cannot be correctly detected. Also, even when the output of the sensor represents an instantaneous value such as speed, the same operation is performed depending on the relationship between the weight of the headset 3510 and the gravitational acceleration, or at which position in the headset 3510 each sensor is installed. May not get the same output.

【0114】そこで、これを補正するために動作量生成
部2のセンサ出力補正手段では、まず図48に示すよう
に状態量生成部344の状態量、つまり現在の頭部の傾
き角度を読み込む(S213)。次に、この状態量がセ
ンサの出力を補正する必要がある状態量であるかを格納
されているセンサ出力補正データテーブルから判断する
(S214)。補正する必要がある時は、その補正デー
タを読み込み(S215)、これを出力する(S21
6)。このセンサ出力補正手段には、図49に示すよう
な形式で、補正の必要な状態量についてのみのセンサの
出力補正データが格納されている。このようにすること
によって、同一の頭部動作であってもセンサの出力が異
なる場合に対応して正確な動作量を得ることができる。
Therefore, in order to correct this, the sensor output correction means of the motion amount generator 2 first reads the state amount of the state amount generator 344, that is, the current tilt angle of the head as shown in FIG. 48 ( S213). Next, it is determined from the stored sensor output correction data table whether this state quantity is a state quantity that requires correction of the sensor output (S214). When correction is necessary, the correction data is read (S215) and output (S21).
6). The sensor output correction means stores the sensor output correction data only for the state quantities that need correction in the format shown in FIG. By doing so, it is possible to obtain an accurate amount of movement corresponding to the case where the outputs of the sensors are different even with the same head movement.

【0115】制御対象機器341の制御に際しては、ヘ
ッドセット3510に組み込まれている全てのセンサの
出力を必ずしも正確に得る必要がない場合がある。例え
ば、図50(a)のように不安定な頭部動作によって、
パソコン画面上のカーソル5124を上下左右の一方向
へ直線的に動かしたい場合、あるいは図50(b)のよ
うに頭部の大まかな上下運動を“Yes”、大まかな左
右運動を“No”として回答するインタフェースを持つ
機器の制御を考えると、例えばヘッドセット3510に
組み込まれたそれぞれのセンサの出力を比較して、最も
変化量の大きいセンサの出力のみを動作量の変換に用い
て、他のセンサの出力の変化はなかったものとすれば、
直線的な動作入力が可能になり、加えて後段の処理の負
担を少なくできる。そこで、動作量生成部342は、単
独センサ選択手段によって、それぞれのセンサの出力を
比較した結果に基づいて、あるいは使用者の要求があれ
ば、任意に設定可能な一つのセンサの出力のみを動作量
の変換に用いる。この単独センサ選択手段によって、あ
る一動作方向の動作のみによって制御対象機器1を制御
できる。
In controlling the controlled device 341, it may not always be necessary to accurately obtain the outputs of all the sensors incorporated in the headset 3510. For example, due to the unstable head movement as shown in FIG.
When it is desired to move the cursor 5124 on the personal computer screen linearly in one direction of up, down, left or right, or as shown in FIG. 50 (b), the rough vertical movement of the head is “Yes” and the rough horizontal movement is “No”. Considering control of a device having an interface to answer, for example, the outputs of the sensors incorporated in the headset 3510 are compared, and only the output of the sensor with the largest change amount is used for conversion of the operation amount, Assuming that the sensor output has not changed,
A linear motion input is possible, and the processing load in the subsequent stage can be reduced. Therefore, the motion amount generation unit 342 operates only the output of one sensor that can be arbitrarily set based on the result of comparing the outputs of the respective sensors by the single sensor selection unit or when the user requests. Used for quantity conversion. By this single sensor selection means, the controlled device 1 can be controlled only by the operation in a certain operation direction.

【0116】この場合の処理は、図51に示すように、
まず全センサの出力を読み込み(S217)、ある時間
間隔におけるそれぞれの出力(Vy、Vr、Vp)の変
化量を演算し(S218)、それらの大小関係を比較し
て(S219〜S221)、最も変化量の大きいセンサ
の出力のみを動作量の変換に用いて、他のセンサの出力
の変化はなかったものとした動作量(My、Mr、M
p)を出力する(S222〜S224)。なお、センサ
の出力の変化量の比較だけではなく、絶対値の大小など
によって単独のセンサの出力を選択してもよい。
The processing in this case is as shown in FIG.
First, the outputs of all the sensors are read (S217), the amount of change in each output (Vy, Vr, Vp) at a certain time interval is calculated (S218), and the magnitude relationship between them is compared (S219 to S221). Only the output of the sensor with a large change amount is used for the conversion of the operation amount, and it is assumed that there is no change in the outputs of the other sensors (My, Mr, M
p) is output (S222 to S224). It should be noted that the output of a single sensor may be selected not only by comparing the amounts of change in the outputs of the sensors but also by the magnitude of the absolute value.

【0117】頭部動作による同一方向動作を複数の異な
る種類のセンサで検出して、その動作の特徴とセンサの
検出特性によって動作量の変換に用いるセンサを適応的
に切り換えてより正確な頭部動作の検出する装置の構成
が考えられる。例えば、図52のように頭部の旋回角度
(ヨー角)を得るために、頭部の旋回の回転中心に回転
角速度センサ5326と地磁気センサ5325を設置す
る場合を考える。このとき、回転角速度センサ5326
には頭部動作の瞬時値を得ることができるが、旋回角度
を得るために演算が必要で、その際に誤差が発生しやす
い、また、地磁気センサ5325には頭部の旋回角度を
得ることはできるが、応答速度が遅いため素早い動作の
検出は難しいなどの特徴がある。そこで、この場合は、
動作量生成部342における動作量の変換に際して、最
適センサ選択手段によって、予め設定した速度の大きさ
によって、頭部動作が設定値より速い場合は回転角速度
センサ5326、遅い場合は地磁気センサ5325とい
うように、検出に適した一つのセンサを選択する。さら
に、どのセンサを選択したかを把握できるセンサ識別番
号(センサID)をセンサの出力とともに出力し、後段
の処理部ではこれを参照して処理を行う。
A plurality of different kinds of sensors detect the same direction movement by the head movement, and the sensor used for conversion of the movement amount is adaptively switched according to the characteristics of the movement and the detection characteristics of the sensor to make the head more accurate. The configuration of the device for detecting the motion is considered. For example, consider a case where the rotational angular velocity sensor 5326 and the geomagnetism sensor 5325 are installed at the center of rotation of the head rotation in order to obtain the head rotation angle (yaw angle) as shown in FIG. At this time, the rotation angular velocity sensor 5326
Can obtain the instantaneous value of the head movement, but the calculation is required to obtain the turning angle, and an error is likely to occur at that time. Further, the geomagnetic sensor 5325 can obtain the turning angle of the head. Although it is possible, it has a feature that it is difficult to detect a quick motion because of its slow response speed. So, in this case,
When converting the motion amount in the motion amount generation unit 342, the optimum sensor selection means determines the rotational angular velocity sensor 5326 when the head motion is faster than the set value, and the geomagnetic sensor 5325 when the head motion is slower than the set value. First, one sensor suitable for detection is selected. Further, a sensor identification number (sensor ID) capable of ascertaining which sensor has been selected is output together with the output of the sensor, and the processing unit in the subsequent stage refers to this and performs processing.

【0118】次に、図53でこの場合の最適センサ選択
手段の処理を説明する。まず、ある時刻の回転角速度セ
ンサ5326出力Vtを読み込む(S225)。検出に
適した一つのセンサを選択するための設定値RとVtを
比較して(S226)、Vt>Rの場合は回転角速度セ
ンサ5326を選択し(S227)、このセンサの出力
と識別番号(センサID)を出力する(S228)。
Next, the processing of the optimum sensor selecting means in this case will be described with reference to FIG. First, the output Vt of the rotational angular velocity sensor 5326 at a certain time is read (S225). The set value R for selecting one sensor suitable for detection is compared with Vt (S226), and if Vt> R, the rotational angular velocity sensor 5326 is selected (S227), and the output of this sensor and the identification number ( The sensor ID) is output (S228).

【0119】逆に、Vt<Rの場合は地磁気センサ53
25を選択し(S229)、このセンサの出力と識別番
号(センサID)を出力する(S230)。
On the contrary, when Vt <R, the geomagnetic sensor 53
25 is selected (S229), and the output of this sensor and the identification number (sensor ID) are output (S230).

【0120】頭部動作によって家庭用のTVゲームのコ
ントロールを行う装置などには、頭部動作を検出するセ
ンサとして安価で低精度なものを使用することが考えら
れるが、このようなセンサのなかには図54のように環
境の温度変化や使用時間によって静止していても出力が
ドリフトするものがある。このような場合は、基準量保
持部343で保持された基準量が時間の経過とともに頭
部の傾き角度を得るための正しい基準とはならなくなっ
てしまう。そこで、基準量保持部343は、センサの出
力がドリフトによって変化する場合、基準量更新手段に
よって、その変化に対応して頭部の傾き角度を得る基準
として保持している基準量を自動的に更新する。なお、
センサの出力のドリフトに対応して基準量を自動的に更
新するための更新データは図55のような形式で格納さ
れている。
It is conceivable to use an inexpensive and low-precision sensor as a sensor for detecting head movements for a device for controlling a home TV game by head movements. As shown in FIG. 54, there is a case where the output drifts due to the temperature change of the environment and the usage time even when the output is stationary. In such a case, the reference amount held by the reference amount holding unit 343 becomes not a correct reference for obtaining the tilt angle of the head over time. Therefore, when the output of the sensor changes due to the drift, the reference amount holding unit 343 automatically uses the reference amount updating means to hold the reference amount held as a reference for obtaining the tilt angle of the head corresponding to the change. Update. In addition,
Update data for automatically updating the reference amount corresponding to the drift of the sensor output is stored in the format shown in FIG.

【0121】基準量更新手段の初期設定作業は、ドリフ
トの経時変化の様子を正確に得るためにヘッドセット3
510を頭部に装着せずに机上などの安定した場所に置
いて行う。まず、図56に示すように使用者による設定
作業開始操作を待ち(S231)、これが行われた後に
使用経過時間tを初期化(t=0)する(S232)。
次に、組み込まれたそれぞれのセンサの出力の経時変化
を別途設置するメモリにあるサンプリング間隔で時間情
報とともに記憶する(S233)。そして、連続したサ
ンプリング間隔のセンサの出力の変化ΔVが予め設定さ
れた値R以下になったとき、あるいは経過時間情報が使
用者が想定している装置使用時間T以上になったときに
メモリへの記憶を終了し(S234)、別途用意するL
EDの点灯などの通知手段によってこれを使用者に通知
して(S235)初期設定作業を終了する。
The initial setting operation of the reference amount updating means is performed by the headset 3 in order to accurately obtain the state of the drift change over time.
Place 510 on a stable place such as a desk without attaching it to the head. First, as shown in FIG. 56, a setting work start operation by the user is awaited (S231), and after that, the elapsed use time t is initialized (t = 0) (S232).
Next, the change with time of the output of each incorporated sensor is stored together with the time information at the sampling interval in the memory separately installed (S233). Then, when the change ΔV in the output of the sensor at consecutive sampling intervals becomes equal to or smaller than a preset value R, or when the elapsed time information becomes equal to or larger than the device usage time T assumed by the user, the data is stored in the memory. Is stored (S234), and L is prepared separately.
This is notified to the user by a notification means such as lighting of the ED (S235), and the initialization work is completed.

【0122】このドリフトの経時変化データに基づいて
基準量を更新する方法は、ドリフトの経時変化として記
憶されているセンサの出力のサンプリング間隔、または
その整数倍の時間間隔におけるの変化の割合によって使
い分ける。なぜなら、この変化の割合が制御に影響のな
いほど小さい場合は、センサの使用時間に依らず静止状
態が検出されたときにだけ、補助的にそのときのセンサ
の出力を基準量として更新すればよく、頻繁に更新処理
を行わなくてもよくなるからである。
The method of updating the reference amount based on the drift change data over time is used depending on the sampling interval of the sensor output stored as drift drift over time or the rate of change in the time interval of an integral multiple thereof. . This is because, if the rate of this change is so small that control is not affected, the output of the sensor at that time should be supplementarily updated as the reference amount only when the stationary state is detected regardless of the usage time of the sensor. This is because it is not necessary to update the data frequently.

【0123】初期設定作業で得られたドリフトの経時変
化データに基づいて基準量を更新する方法を使い分ける
処理について説明する。図57のようなドリフトの経時
変化のときの処理は、図58に示すように、センサ使用
経過時間tおよびt−1におけるドリフトによるセンサ
の出力をDt、Dt-1を読み込み(S236)、この時
間間隔の変化量ΔDを求める(S237)。この変化量
ΔDが更新方法を使い分けるために予め設定する変化の
割合の値Rと比較し(S238)、この変化量ΔDが設
定値Rより大きい場合、つまり、
A process for selectively using the method of updating the reference amount based on the drift change data obtained in the initial setting operation will be described. As shown in FIG. 58, the processing when the drift changes with time as shown in FIG. 57 reads the sensor output due to the drift at the sensor use elapsed times t and t-1 into Dt and Dt-1 (S236). The change amount ΔD of the time interval is obtained (S237). This change amount ΔD is compared with a change rate value R set in advance to properly use the updating method (S238), and when this change amount ΔD is larger than the set value R, that is,

【0124】[0124]

【数9】 のときは、記憶しているドリフトの経時変化データから[Equation 9] , The stored drift data over time

【0125】[0125]

【数10】 と更新し(S239)、逆にこの変化量ΔDが設定値R
より小さい場合、つまり、
(Equation 10) (S239), and on the contrary, the change amount ΔD is the set value R
Less than, that is,

【0126】[0126]

【数11】 のときは、記憶しているドリフトの経時変化およびセン
サ使用時間に依らず、静止状態を判断し(S240)、
これが検出されたときに補助的にこのセンサの出力Vを
読み込んで(S241)、
[Equation 11] In the case of, the stationary state is determined regardless of the change in stored drift over time and the sensor usage time (S240),
When this is detected, the output V of this sensor is read auxiliary (S241),

【0127】[0127]

【数12】 と更新する(S242)。(Equation 12) (S242).

【0128】なお、更新方法を使い分けるための変化の
割合の設定値Rは、センサの特性、あるいは制御対象機
器341の仕様、あるいは使用者の要求によって任意に
設定可能とする。
The set value R of the change rate for properly using the updating method can be arbitrarily set according to the characteristics of the sensor, the specifications of the controlled device 341, or the user's request.

【0129】実際に装置を使うときは、初期設定作業時
と使用環境の温度、あるいは再起動などによってセンサ
自身の温度が異なることにより、図59のように基準量
保持部243において保持された基準量Ref0と、ド
リフトの経時変化データとしてセンサ使用時間t=0に
対応して記憶しているセンサの出力D0とが異なる場合
がある。この場合は、記憶されたドリフトの経時変化デ
ータに基づいて基準量を更新すると頭部の傾き角度を得
るための正しい基準とはならなくなってしまう。
When the device is actually used, the temperature of the sensor itself is different due to the temperature of the initial setting work and the temperature of the use environment, or due to the restart, etc. The amount Ref0 may differ from the sensor output D0 stored as the drift change data over time corresponding to the sensor usage time t = 0. In this case, if the reference amount is updated based on the stored drift change data, the reference value for obtaining the head tilt angle will not be correct.

【0130】そこで、このときは図60のような処理に
よってドリフトの経時変化データに記憶されてるセンサ
使用時間tをシフトさせて対応する。まず、基準量保持
部343において保持された基準量をRef0、ドリフ
トの経時変化データとしてセンサ使用時間t=0に対応
して記憶しているセンサの出力D0を読み込み(S24
3)、これらの差ΔSを求める(S244)。(ΔS=
Ref0−D0) この差ΔSと予め設定していた許容範囲の設定値Rの大
小関係を比較し(S245)、ΔS>Rのとき、この基
準量Ref0に最も近い値のセンサの出力Dmを記憶し
ているドリフトの経時変化データから
Therefore, at this time, the sensor use time t stored in the drift time variation data is shifted by the process shown in FIG. First, the reference amount held in the reference amount holding unit 343 is referred to as Ref0, and the sensor output D0 stored as the drift time change data corresponding to the sensor usage time t = 0 is read (S24).
3) The difference ΔS between them is calculated (S244). (ΔS =
(Ref0-D0) This difference ΔS is compared with the preset magnitude R of the allowable range (S245), and when ΔS> R, the sensor output Dm having the value closest to the reference amount Ref0 is stored. From drift drifting data over time

【0131】[0131]

【数13】 のようにして探しだし(S246)、このときのセンサ
使用時間mから補正時間Tを以下のようにして算出する
(S247)。(T=t+m) 以降は記憶しているドリフトの経時変化データのセンサ
使用時間tをmだけシフトさせ、センサ使用時間tにお
ける基準量をReft=DT=Dt+mとして基準量を更
新する(S248)。
(Equation 13) (S246), and the correction time T is calculated from the sensor usage time m at this time as follows (S247). After (T = t + m), the sensor use time t of the stored drift time change data is shifted by m, and the reference amount at the sensor use time t is set to Reft = DT = Dt + m to update the reference amount (S248). ).

【0132】つまり、図59の場合には、D2が基準量
Ref0に最も近い値のセンサ出力Dmなので、補正時
間Tは、T=t+2となり、以降は、Reft=Dt+2
として、基準量を更新する。
That is, in the case of FIG. 59, since D2 is the sensor output Dm having the value closest to the reference amount Ref0, the correction time T becomes T = t + 2, and thereafter, Reft = Dt + 2.
As, the reference amount is updated.

【0133】動作量、基準量によって安定的に頭部の傾
き角度を得ようとしても、センサの出力へのノイズの混
入、あるいは処理過程で発生する誤差によって状態量生
成部344における角度情報が基準となる正面を向いた
状態に対してずれてしまう可能性がある。そこで、図6
1に示す一例のように旋回角度軸の正面状態を検出する
ため、ヘッドセット3510に設置された発光部a62
27からの光を体の所定の位置、例えば、図61(d)
のように胸ポケットなどに設置された反射板a6237
に向けて照射し、その反射光を同じくヘッドセット35
10に設置された受光部a6228によって受ける。そ
して、図61(a)および(b)のように反射光の有
無、あるいは強弱によって頭部が体に対して正面方向を
向いているかどうかを正面状態検出手段で検出、判断す
る。
Even if the inclination angle of the head is to be stably obtained by the operation amount and the reference amount, the angle information in the state amount generation unit 344 becomes the reference because of noise mixed in the output of the sensor or an error generated in the process. There is a possibility that it will be deviated from the state of facing the front. Therefore, FIG.
In order to detect the frontal state of the turning angle axis as in the example shown in FIG. 1, the light emitting unit a62 installed in the headset 3510.
The light from 27 is placed at a predetermined position on the body, for example, FIG. 61 (d).
Reflector a6237 installed in breast pockets, etc.
Irradiate the same to the headset 35
It is received by the light receiving unit a6228 installed in No. 10. Then, as shown in FIGS. 61 (a) and 61 (b), the front state detecting means detects and determines whether or not the head faces the front direction with respect to the body depending on the presence or absence of the reflected light or the strength of the reflected light.

【0134】なお、この反射板a6237の材質、形状
は、制御対象機器341の仕様、あるいは求められる正
面状態検出の精度によって適宜変更する。また、図61
(c)に示すように、発光部b6229、受光部b62
30、反射板b6238を追加して検出すれば、より精
度よく正面を向いているかを判断できる。
The material and shape of the reflection plate a6237 are appropriately changed according to the specifications of the control target device 341 or the required accuracy of frontal state detection. In addition, FIG.
As shown in (c), the light emitting portion b6229 and the light receiving portion b62.
If 30 and the reflector b6238 are additionally detected, it is possible to more accurately determine whether or not the user is facing the front.

【0135】さらに、ヘッドセット3510に設置され
た発光部a6227からの光を直接、体の一部に向けて
照射し、その反射光を同じくヘッドセット3510に設
置された受光部a6228によって受けるような構成に
して、その反射光の有無、あるいは強弱によって判断し
てもよい。なお、正面状態検出手段によって正面状態で
あると判断される角度は、必ずしも厳密に状態量0度に
相当する角度のみでなく、状態量0度を含む範囲(0度
±θ)であってもよい。
Furthermore, the light from the light emitting portion a6227 installed in the headset 3510 is directly directed to a part of the body, and the reflected light is received by the light receiving portion a6228 also installed in the headset 3510. It may be configured so that the determination is made based on the presence or absence of the reflected light or the strength of the reflected light. It should be noted that the angle determined to be in the front state by the front state detecting means is not necessarily strictly the angle corresponding to the state amount 0 degrees, but may be a range including the state amount 0 degrees (0 degrees ± θ). Good.

【0136】次に正面状態検出手段の出力によって、状
態量を補正する角度情報補正手段の処理を図62で説明
する。正面状態検出手段で反射光の有無、あるいはその
強弱によって、正面状態に相当する結果が得られている
かを判断し(S249)、これが得られていれば、角度
情報補正手段で状態量を0度にリセットする(S25
0)。
Next, the processing of the angle information correcting means for correcting the state quantity by the output of the front state detecting means will be described with reference to FIG. The front state detecting means determines whether or not the result corresponding to the front state is obtained depending on the presence or absence of the reflected light or its intensity (S249). If this is obtained, the angle information correcting means sets the state quantity to 0 degree. Reset to (S25
0).

【0137】例えば、図61(a)の場合は、発光部a
6227、および発光部b6229からの光のそれぞれ
の反射光が受光部a6228、および受光部b6230
でともに検出されているので旋回角度情報を0度にリセ
ットする。一方、図61(b)の場合は、発光部a62
27からの光の反射光が受光部a6228で検出されな
いのでリセットは行わない。このような手段によって、
様々な外乱や処理過程の誤差などによる角度情報のずれ
を、使用者が正面を向くことによって簡単に修正でき、
安定して制御を続けることができる。
For example, in the case of FIG. 61A, the light emitting section a
6227, and the respective reflected lights of the light from the light emitting unit b6229 are the light receiving unit a6228 and the light receiving unit b6230.
Therefore, the turning angle information is reset to 0 degrees. On the other hand, in the case of FIG. 61B, the light emitting unit a62
Since the reflected light of the light from 27 is not detected by the light receiving unit a6228, the reset is not performed. By such means
Misalignment of angle information due to various disturbances and errors in the processing process can be easily corrected by the user facing forward,
Control can be continued stably.

【0138】また、この正面状態検出手段によって正面
状態であると判断された場合、これを別途用意するLE
Dの点灯などの正面状態通知手段によって通知すれば、
使用者は、装置の使用中にこれを確認できるのみなら
ず、前述の基準量保持に際して正面を向いていることを
客観的に知ることができるため、スムーズかつ正確に基
準量保持を行うことができる。さらに、このように正正
面状態であると判断された場合のみにしか基準量の保持
を行わないように装置側で設定してあれば、常に前述の
基本姿勢における正しい基準量保持が可能である。
If the front state detecting means determines that the front state is set, the LE is separately prepared.
If it is notified by the front state notification means such as lighting of D,
Not only can the user confirm this while the device is in use, but since the user can objectively know that he or she is facing the front when holding the reference amount, it is possible to maintain the reference amount smoothly and accurately. it can. Further, if the apparatus side is set so that the reference amount is held only when it is determined that the front face is in this state, it is possible to always hold the correct reference amount in the basic posture. .

【0139】頭部動作によって頭部装着型ディスプレイ
6236に表示する映像の視野を変える装置の制御など
において、図63のように観察したい映像の視野範囲が
限定される場合がある。このとき、その範囲を使用者が
予め任意に設定しておき、それが視野に入らない角度情
報となったときに装置から発せられる通知に応じて頭部
動作を加減すれば観察したい映像周辺だけを安定して観
察できる。この操作性を確保するための状態量生成部3
44おける角度超過通知手段の処理を図64で説明す
る。まず、状態量を読み込み(S251)、この状態量
がセンサの検出範囲以上ではないか(S252)、ある
いは使用者によって任意に設定可能な範囲以上になって
いないか判断する(S253)。そして、この結果が設
定範囲以上である場合には、角度超過通知手段によって
これを使用者に通知する(S254)。
When controlling the apparatus for changing the visual field of the image displayed on the head-mounted display 6236 by the head operation, the visual field range of the image to be observed may be limited as shown in FIG. At this time, the user arbitrarily sets the range in advance, and if the head movement is adjusted according to the notification issued from the device when it becomes the angle information that does not fall within the field of view, only the periphery of the image to be observed Can be observed stably. State quantity generation unit 3 for ensuring this operability
The processing of the angle excess notification means in 44 will be described with reference to FIG. First, the state quantity is read (S251), and it is determined whether the state quantity is above the detection range of the sensor (S252) or above the range arbitrarily settable by the user (S253). If the result is above the set range, the angle excess notification means notifies the user of this (S254).

【0140】頭部動作を検出して制御を行う機器には様
々なものがあり、それぞれに必要な頭部動作とその基本
パターンが異なっている。そこで、図65に示す一連の
処理で動作パターンメモリに記憶されている内容を書き
換える。まず、動作パターンメモリ部346の記憶して
いる内容の消去、あるいは書き換えの可能、不可能を管
理するメモリ管理手段の出力が書き換え可能かを判断す
る(S255)。これが書き換え可能のとき、使用者が
行う書き込み動作開始通知を待つ(S256)。この通
知が検出されたら、頭部の状態量、あるいは変化量また
はその両方からなる動作を基本動作パターンとして基本
動作書き込み手段で新たに動作パターンメモリ部6に格
納する(S257)。この格納処理は、動作終了通知の
操作が検出(S258)されるまで行う。
There are various devices for detecting and controlling head movements, and the required head movements and their basic patterns are different. Therefore, the contents stored in the operation pattern memory are rewritten by the series of processes shown in FIG. First, it is determined whether the output of the memory management means for managing whether or not the contents stored in the operation pattern memory unit 346 can be erased or rewritten is rewritable (S255). When this is rewritable, the user waits for a writing operation start notification (S256). When this notification is detected, the motion including the state quantity of the head, the variation, or both is newly stored in the motion pattern memory unit 6 by the basic motion writing means as the basic motion pattern (S257). This storage process is performed until the operation end notification operation is detected (S258).

【0141】なお、この書き込み動作開始通知、終了通
知の操作とは別途用意するコントローラに設置されたボ
タンの押下、あるいはスイッチの入切などの使用者によ
る自発的操作である。このようにして基本動作書き込み
手段によって基本動作パターンが動作パターンメモリ部
346に書き込まれたとき、制御信号生成部348にお
いて、その状態量、あるいは変化量またはその両方から
なる基本動作パターンに対応した制御信号を制御信号設
定手段によって新たに設定する。このように、新たな基
本動作パターンを記憶する作業は、基本動作パターンの
書き込みだけではなく、これに対応した制御信号の設定
が行われたことを判断して(S259)完了となる。な
お、動作パターンメモリ部346に記憶されているデー
タを換えるには、メモリディバイス自体を交換してもよ
い。
The operation of the write operation start notification and the end notification is a voluntary operation by the user such as pressing a button installed in a controller, which is separately prepared, or turning the switch on and off. In this way, when the basic operation pattern is written in the operation pattern memory section 346 by the basic operation writing means, the control signal generation section 348 performs control corresponding to the basic operation pattern including the state quantity, the change quantity, or both. The signal is newly set by the control signal setting means. As described above, the operation of storing the new basic operation pattern is completed not only by writing the basic operation pattern but also by determining that the control signal corresponding thereto is set (S259). The memory device itself may be replaced in order to replace the data stored in the operation pattern memory unit 346.

【0142】本発明のような装置では、重量のあるヘッ
ドセット3510を装着しての頭部動作、さらにはディ
スプレイに表示された映像、あるいは装置自体の動作状
況などを凝視し続けることが必要となる。そのため、首
や肩への負担、目の疲れ、あるいは頭部装着型ディスプ
レイなどでは視界が閉鎖され続けることによる不安感や
圧迫感などといった、生理的、心理的な負担が生じてし
まう。これらの負担による疲労感が使用者に自覚されて
いれば、自ら装置の使用を中止する、休息をとるなどの
対応ができるので問題はないが、特にTVゲームなどの
エンタテイメントシステムでは操作に熱中するあまり使
用時間がつい長くなってしまいがちで、使用者自身でこ
れを防ぐことは非常に難しい。
In the device like the present invention, it is necessary to continue to gaze at the head movements when wearing the heavy headset 3510, the image displayed on the display, or the operation status of the device itself. Become. As a result, a physiological and psychological burden occurs such as a strain on the neck and shoulders, tired eyes, and anxiety and oppression due to the fact that the field of view of the head-mounted display is kept closed. If the user is aware of the fatigue caused by these loads, there is no problem because he / she can take actions such as stopping the use of the device and taking a rest, but especially in entertainment systems such as TV games, he is enthusiastic about the operation. The usage time tends to be too long, and it is very difficult for the user to prevent this.

【0143】そこで、図66に装置自体が使用時間を管
理することによって、使用時間が長くなりすぎること、
つまり身体への負担増大を防ぐための処理を示す。ま
ず、経過時間管理手段によって装置を起動してから現在
までの経過時間tを得て(S260)、この経過時間t
が制御対象機器1の仕様、作業負荷などによって予め設
定された制限時間T、あるいは使用者、もしくは管理者
によって任意に設定可能な制限時間T以上になったかを
判断する(S261)。この判断の結果、経過時間tが
制限時間T以上であるとき、これを使用者に通知し(S
262)、使用時間制限手段によって、制御実行処理部
349での一定時間後に機器制御の停止、あるいは制御
対象機器341の運転の停止を実行する(S263)。
使用者は、制限時間以上になったという通知を受けた
後、それまでの作業状態の記録などといった停止に備え
た各種作業を行う。このように装置の使用時間を管理す
ることによって、使用者の身体への負担を軽減させるこ
とができる。
Therefore, in FIG. 66, the device itself manages the usage time, so that the usage time becomes too long.
That is, the processing for preventing an increase in the burden on the body is shown. First, the elapsed time management unit obtains the elapsed time t from the time when the apparatus is started up to the present (S260), and the elapsed time t
Determines whether the time has exceeded a time limit T preset according to the specifications of the control target device 1, the work load, or the like, or a time limit T that can be arbitrarily set by the user or the administrator (S261). As a result of this determination, when the elapsed time t is equal to or longer than the time limit T, the user is notified of this (S
262), the use time limiting means stops the device control or the operation of the control target device 341 after a fixed time in the control execution processing unit 349 (S263).
After receiving the notification that the time limit has been exceeded, the user performs various work in preparation for a stop, such as recording the work status up to that point. By managing the usage time of the device in this way, the burden on the user's body can be reduced.

【0144】生理的、あるいは心理的な負担は、必ずし
も装置を使用している時間の長さだけで決まるものでは
ない。特に、視覚の疲労は作業内容、作業環境、ディス
プレイに表示される映像内容と興味の度合い、あるいは
視力の違いといった個人差などの様々な要因によって疲
労感が大きく異なる。そこで、視覚の疲労による機能低
下によって生じるまばたきの回数の増加と、使用者が目
の疲労を解消するために無意識に、あるいは意識して行
う目を閉じるという行為の時間の長さ、つまり閉眼継続
時間の延長を視覚疲労を客観的に判断するための基準と
して装置の使用時間を制限する。
The physiological or psychological burden is not necessarily determined only by the length of time the device is used. In particular, visual fatigue greatly depends on various factors such as work content, work environment, image content displayed on a display and degree of interest, or individual differences such as differences in visual acuity. Therefore, an increase in the number of blinks caused by functional deterioration due to visual fatigue, and the length of time that the user unconsciously or consciously closes the eyes to eliminate eye fatigue, that is, eye closure continues. The extension of time is used as a criterion for objectively judging the visual fatigue, and the use time of the device is limited.

【0145】そこで、図67に示す処理のように、最初
に開閉眼検出手段で、起動時のまばたきの単位時間当た
りの回数の初期値N0を保持する(S264)。次に、
装置を起動してから現在までの経過時間tを読み込む
(S265)。そして、開閉眼検出手段によって現在の
目の状態がまばたきであるかを判断し(S266)、こ
こでまばたきであるという結果が得られたら、まばたき
の単位時間当たりの回数Nを得て(S267)、瞬目増
加率演算手段でこの値Nと保持している初期値N0から
増加率を演算し(S268)、この増加率が予め設定さ
れた値R以上になったかを判断する(S269)。この
結果、増加率が設定値R以上であるとき、これを使用者
に通知し(S270)、視覚疲労軽減手段によって、制
御実行処理部349での一定時間後に機器制御の停止、
あるいは制御対象機器341の運転の停止を実行する
(S271)。
Therefore, as in the processing shown in FIG. 67, the opening / closing eye detecting means first holds the initial value N0 of the number of blinks per unit time at the time of activation (S264). next,
The elapsed time t from when the device is started up to the present is read (S265). Then, the open / close eye detecting means determines whether or not the current eye state is blinking (S266), and if the result of blinking is obtained here, the number N of blinks per unit time is obtained (S267). The blinking increase rate calculating means calculates the increase rate from this value N and the held initial value N0 (S268), and determines whether this increase rate is equal to or higher than a preset value R (S269). As a result, when the increase rate is equal to or greater than the set value R, the user is notified of this (S270), and the visual fatigue reducing means stops the device control after a certain time in the control execution processing unit 349,
Alternatively, the operation of the controlled device 341 is stopped (S271).

【0146】一方、開閉眼検出手段によって現在の目の
状態がまばたきかどうかを判断し(S266)、ここで
まばたきではないという結果が得られたら、次に閉眼状
態であるかを判断する(S272)。この判断の結果が
閉眼状態であるとき、続いてこの閉眼状態が継続中であ
るかを判断する(S273)。ここで閉眼状態継続中で
はないという結果が得られたら、閉眼開始時刻t0を装
置の使用経過時刻tから得て(t0=t)、これを保持
する(S274)。この閉眼開始時刻t0と装置の使用
経過時刻tから閉眼継続時間を演算し(S275)、こ
の閉眼継続時間が予め設定された値T以上になったかを
判断する(S276)。この結果、閉眼継続時間が設定
値T以上であるとき、これを使用者に通知し(S27
0)、視覚疲労軽減手段によって、制御実行処理部34
9での一定時間後に機器制御の停止、あるいは制御対象
機器341の運転の停止を実行する(S271)。
On the other hand, it is judged by the open / closed eye detecting means whether or not the current eye condition is blinking (S266), and if the result that it is not blinking is obtained, it is then judged whether or not the eye is closed (S272). ). When the result of this determination is that the eye is closed, it is then determined whether this eye is being continued (S273). If the result that the eye-closed state is not being continued is obtained here, the eye-closed start time t0 is obtained from the elapsed time t of use of the apparatus (t0 = t), and this is held (S274). The eye-closing duration time is calculated from the eye-closing start time t0 and the elapsed time t of use of the apparatus (S275), and it is determined whether the eye-closing duration time is equal to or more than a preset value T (S276). As a result, when the eye-closing duration time is equal to or greater than the set value T, the user is notified of this (S27
0), the control execution processing unit 34 by the visual fatigue reducing means.
After a certain time in 9, the device control is stopped, or the operation of the control target device 341 is stopped (S271).

【0147】以上のように、使用者は単位時間当たりの
まばたきの回数が増加した、あるいは閉眼継続時間が延
長したという通知、つまり視覚疲労が設定基準以上にな
ったという通知を受けた後、それまでの作業状態の記録
などといった停止に備えた各種作業を行う。
As described above, after the user receives the notification that the number of blinks per unit time has increased or that the eye-closing duration has been extended, that is, that the visual fatigue has exceeded the set standard, Perform various work in preparation for a stop, such as recording work status up to.

【0148】次に、開閉眼検出手段おいて、まばたきを
自動検出する方法の例とそのとき得れる出力を図68に
示す。図68(a)は光学的手段を用いて目の開閉状態
を検出する方法で、ヘッドセット3510に設置された
発光素子6939からの光を瞳に照射し、その反射光を
同じくヘッドセット3510に設置された受光素子69
40で受ける。その結果、受光素子6940で得られる
出力によって、図68(b)のような場合をまばたきと
して、図68(c)のような場合を閉眼状態として検出
する。
Next, FIG. 68 shows an example of a method for automatically detecting blinking in the open / closed eye detecting means and the output obtained at that time. FIG. 68 (a) shows a method of detecting the open / closed state of the eye using an optical means, in which light from a light emitting element 6939 installed in the headset 3510 is applied to the pupil, and the reflected light is also transmitted to the headset 3510. Light-receiving element 69 installed
Receive at 40. As a result, the output obtained by the light receiving element 6940 detects the case of FIG. 68 (b) as blinking and the case of FIG. 68 (c) as the eye-closed state.

【0149】一方、図68(d)は電気的手段を用いて
目の開閉状態を検出する方法で、まぶた自体の動きを検
出するため、上まぶたに電極6941を、耳たぶにアー
ス電極6942を設置し、これらの間の生体電位を測定
する。その結果、得られる生体電位の出力によって、図
68(e)のような場合をまばたきとして、図68
(f)のような場合を閉眼状態として検出する。このよ
うに、視覚の疲労の程度によっても使用時間を制限する
ことを考慮するによって、生理的、あるいは心理的な負
担の少ない装置を提供できる。
On the other hand, FIG. 68 (d) shows a method of detecting the open / closed state of the eye by using an electric means. In order to detect the movement of the eyelid itself, an electrode 6941 is installed on the upper eyelid and a ground electrode 6942 is installed on the earlobe. Then, the biopotential between them is measured. As a result, according to the output of the obtained bioelectric potential, the case shown in FIG.
The case such as (f) is detected as a closed eye state. In this way, by considering that the usage time is limited depending on the degree of visual fatigue, it is possible to provide a device with a small physiological or psychological burden.

【0150】使用時間制限手段、視覚疲労軽減手段によ
る制御の停止、あるいは運転の停止を実行は、それぞれ
を独立に、あるいはどちらかを優先するように使用者に
よって任意に設定できるようにする。このように、経過
時間、あるいは閉眼継続時間という絶対的な基準値によ
る使用時間の制限と、まばたきの回数の増加率という相
対的な基準値による使用時間の制限とを組み合わせるこ
とによって、使用者への生理的、心理的な負担を効果的
に軽減できる。なお、これらの手段によって制御の停
止、あるいは運転の停止を実行した時間を保持し、一定
時間後、つまり休息をとった後にのみ制御再開を可能と
する使用再開管理手段を有し、それまでは装置の起動を
不可能にする構成にしてもよい。
Whether the control of the control by the use time limiting means or the visual fatigue reducing means is stopped or the operation is stopped can be set independently by the user, or either of them can be arbitrarily set so as to give priority to either of them. In this way, by combining the limitation of the use time based on the absolute reference value such as the elapsed time or the eye closing duration and the limitation of the use time based on the relative reference value such as the rate of increase in the number of blinks, the user can The physiological and psychological burden of can be effectively reduced. It should be noted that there is a use resumption management means that holds the time when the control is stopped or the operation is stopped by these means and allows the control to be restarted only after a certain period of time, that is, after taking a rest. The device may not be activated.

【0151】実施例2をまとめると、以下のようにな
る。 1、頭部動作を検出し、これに対応した機器の制御を実
行する装置において、頭部に装着されるヘッドセットに
組み込まれた少なくとも一つのセンサによって頭部の一
方向動作を検出し、その検出量を必要に応じてそれぞれ
単独に、あるいは組み合わせ、これを動作量として順次
変換する動作量生成部と、頭部の傾き角度を得る基準と
するために、ヘッドセットの装着を自動的に検出後、あ
るいは使用者による装着確認操作後、あるいは電源投入
後、または装置が任意のタイミングで前記動作量生成部
からの出力、あるいはセンサの出力を保持する基準量保
持部と、前記動作量生成部で得られた動作量と前記基準
量保持部に保持されている基準量から頭部の旋回角度、
あるいは前後屈角度、あるいは左右屈角度を演算し、そ
れぞれの角度情報を状態量として順次変換する状態量生
成部と、連続した頭部動作に伴って、前記動作量生成部
から出力される動作量の変化分、あるいは前記状態量生
成部から出力される状態量の変化分を演算する変化量生
成部と、状態量、あるいは変化量またはその両方からな
る所定の様々な頭部動作の基本動作パターンを予め格納
している動作パターンメモリ部と、前記状態量生成部に
より得られた状態量、あるいは前記変化量生成部で得ら
れた変化量またはその両方を前記動作パターンメモリ部
を参照して認識する頭部動作認識部と、前記頭部動作認
識部による認識結果、あるいは前記状態量生成部により
得られた状態量、あるいは前記変化量生成部で得られた
変化量に基づいて、予めそれらの頭部動作に対応して設
定されている制御信号を出力する制御信号生成部と、前
記制御信号生成部から出力された制御信号に基づき制御
対象機器の制御を実行する制御実行処理部とを具備した
ことを特徴とする。 2、前記動作量生成部は、同一の動作であっても、その
動作が行われる時点の頭部の状態によってセンサの出力
が変化する場合、前記状態量生成部を参照して、センサ
の出力を補正するセンサ出力補正手段を有することを特
徴とする。 3、前記動作量生成部は、ヘッドセットに組み込まれた
それぞれのセンサの出力を比較した結果に基づいて、あ
るいは使用者によって任意に設定可能な一つのセンサ出
力のみを動作量の変換に用いる単独センサ選択手段を有
することを特徴とする。 4、前記動作量生成部は、頭部動作による同一方向動作
を複数の異なる種類のセンサで検出し、その動作の特徴
によって動作量の変換に用いるセンサを一つ選択する最
適センサ選択手段を有することを特徴とする。 5、前記基準量保持部は、頭部の傾き角度を得る基準と
して保持している基準量の変化に対応して、これを自動
的に更新する基準量更新手段を有することを特徴とす
る。 6、ヘッドセットに設置した少なくとも一つの発光部か
らの光を体の一部、あるいは体の所定の位置に設置した
少なくとも一つの反射板に向けて照射し、その反射光を
同じくヘッドセットに設置した少なくとも一つの受光部
によって受け、反射光の有無、あるいは強弱によって頭
部が体に対して正面方向を向いていることを検出する正
面状態検出手段を有し、前記状態量生成部において、こ
の正面状態検出部の出力に応じて角度情報を補正する角
度情報補正手段を有することを特徴とする。 7、前記状態量生成部は、状態量がセンサの検出範囲以
上、あるいは使用者によって任意に設定可能な範囲以上
の角度情報となったとき、これを使用者に通知する角度
超過通知手段を有することを特徴とする。 8、前記動作パターンメモリ部は、記憶している内容の
消去、あるいは書き換えの可能、不可能を管理するメモ
リ管理手段を有することを特徴とする。 9、前記動作パターンメモリ部は、前記メモリ管理手段
の出力が書き換え可能であるとき、使用者が行う書き込
み動作開始通知と終了通知の操作を検出して、その間の
頭部の状態量、あるいは変化量またはその両方からなる
動作を基本動作パターンとして新たに格納する基本動作
書き込み手段を有することを特徴とする。 10、前記制御信号生成部は、前記基本動作書き込み手
段によって基本動作パターンが前記動作パターンメモリ
部に書き込まれたとき、その状態量、あるいは変化量ま
たはその両方からなる基本動作パターンに対応した制御
信号を新たに設定する制御信号設定手段を有することを
特徴とする。 11、装置を起動してから現在までの経過時間を得る経
過時間管理手段と、この経過時間が予め設定された、あ
るいは使用者によって任意に設定可能な制限時間以上に
なったとき、これを使用者に通知し、前記制御実行処理
部によって一定時間後に機器制御の停止、あるいは制御
対象機器の運転の停止を実行する使用時間制限手段を有
することを特徴とする。 12、使用者のまばたき、あるいは目の開閉状態を検出
する開閉眼検出手段と、装置を起動した時点の単位時間
当たりのまばたきの回数を保持し、装置使用時間の延長
に伴うこの回数の増加率を演算する瞬目増加率演算手段
と、目を閉じ続けている時間を得る閉眼継続時間検出手
段と、この瞬目増加率、あるいは閉眼継続時間が予め設
定された値以上になったとき、これを使用者に通知し、
前記制御実行処理部によって一定時間後に機器制御の停
止、あるいは制御対象機器の運転の停止を実行する視覚
疲労軽減手段を有することを特徴とする。 (実施例2の効果)以上の説明の通り、本発明によれ
ば、センサの頭部の傾き角度の違いによる出力の違い、
あるいは検出すべき動作以外を検出してしまう誤検出、
あるいはドリフトによる出力の経時変化などを考慮し、
それに対応した処理を行うことによって正確な頭部の動
作が検出ができ、起動後に正面を向いている状態を基本
姿勢として、このときのセンサの出力を保持し、これを
基準とすることによって、旋回角度(ヨー角)、前後屈
角度(ピッチ角)、左右屈角度(ロール角)からなる頭
部の傾き角度を得ることができる。また、正面を向いて
いることを光学的手段によって検出し、角度情報を補正
することによって傾き角度を安定して得ることができ
る。
The second embodiment is summarized as follows. 1. A device that detects head movements and controls equipment corresponding thereto detects one-way head movements by at least one sensor incorporated in a headset mounted on the head, and The amount of detection can be detected individually or in combination as needed, and the amount of movement generated by the amount of motion can be converted sequentially, and the wearing of the headset can be detected automatically as a reference to obtain the tilt angle of the head. After, or after the user confirms the mounting, or after the power is turned on, or when the device has an arbitrary timing, the reference amount holding unit that holds the output from the operation amount generation unit or the output of the sensor, and the operation amount generation unit. The turning angle of the head from the amount of movement obtained in step 1 and the reference amount held in the reference amount holding unit,
Alternatively, a front-back flexion angle or a left-right flexion angle is calculated, and a state quantity generation unit that sequentially converts each angle information as a state quantity, and a movement amount output from the movement amount generation unit according to continuous head movements. Change amount, or a change amount generation unit that calculates the change amount of the state amount output from the state amount generation unit, and a predetermined basic movement pattern of the head amount including the state amount, the change amount, or both. Recognizing the state pattern obtained by the state amount generation section, or the change amount obtained by the change amount generation section, or both, with reference to the operation pattern memory section. Based on the recognition result by the head motion recognition unit, the recognition result by the head motion recognition unit, or the state amount obtained by the state amount generation unit, or the change amount obtained by the change amount generation unit A control signal generation unit that outputs a control signal that is set in advance corresponding to those head movements, and a control execution processing unit that executes control of the controlled device based on the control signal output from the control signal generation unit. And is provided. 2. If the output of the sensor changes depending on the state of the head at the time when the motion is performed, the motion amount generation unit refers to the state amount generation unit to output the sensor It is characterized in that it has a sensor output correcting means for correcting. 3. The motion amount generation unit independently uses only one sensor output that can be arbitrarily set by the user for conversion of the motion amount based on a result of comparing outputs of respective sensors incorporated in the headset. It is characterized by having a sensor selection means. 4. The motion amount generation unit has an optimum sensor selection unit that detects a motion in the same direction caused by a head motion by a plurality of different types of sensors and selects one sensor used for conversion of the motion amount according to the characteristics of the motion. It is characterized by 5. The reference amount holding unit has a reference amount updating means for automatically updating the reference amount corresponding to a change in the reference amount held as a reference for obtaining the tilt angle of the head. 6. Light from at least one light emitting unit installed on the headset is directed toward a part of the body or at least one reflector installed at a predetermined position on the body, and the reflected light is also installed on the headset. In the state quantity generation unit, the front state detection unit detects the presence or absence of reflected light or detects that the head is facing the front direction with respect to the body depending on the intensity of the reflected light. It is characterized in that it has an angle information correction means for correcting the angle information according to the output of the front state detecting section. 7. The state quantity generation unit has an angle excess notification means for notifying the user when the state quantity becomes angle information which is equal to or larger than the detection range of the sensor or a range which can be arbitrarily set by the user. It is characterized by 8. The operation pattern memory unit has a memory management unit for managing whether or not the stored contents can be erased or rewritten. 9. When the output of the memory management unit is rewritable, the operation pattern memory unit detects the operation of the write operation start notification and the end notification performed by the user, and the state quantity of the head or the change during the operation is detected. It is characterized by having a basic action writing means for newly storing an action consisting of an amount or both as a basic action pattern. 10. The control signal generation unit, when the basic operation pattern is written in the operation pattern memory unit by the basic operation writing unit, a control signal corresponding to a basic operation pattern including a state amount, a change amount, or both of them. Is further provided with control signal setting means. 11. Elapsed time management means for obtaining the elapsed time from when the device is started up to the present, and when the elapsed time is preset or exceeds a time limit that can be arbitrarily set by the user, use this It is characterized by further comprising use time limiting means for notifying an operator and stopping the device control or stopping the operation of the device to be controlled by the control execution processing unit after a predetermined time. 12. Open / closed eye detection means for detecting the blinking state or the open / closed state of the eyes of the user, and the number of blinks per unit time at the time of starting the device, and the increase rate of this number with the extension of the device use time Blink increase rate calculation means for calculating, eye-closed duration detection means for obtaining the time for which the eyes are kept closed, and this blink increase rate, or when the eye-closed duration exceeds a preset value, this To the user,
The control execution processing unit further comprises visual fatigue reducing means for stopping the device control or stopping the operation of the controlled device after a predetermined time. (Effect of Embodiment 2) As described above, according to the present invention, the difference in the output due to the difference in the tilt angle of the head of the sensor,
Or erroneous detection that detects something other than what should
Or considering the change with time of output due to drift,
Accurate head movements can be detected by performing processing corresponding to it, and the basic posture is the state of facing the front after startup, and the output of the sensor at this time is held, and by using this as a reference, It is possible to obtain a tilt angle of the head, which includes a turning angle (yaw angle), a front-back bending angle (pitch angle), and a left-right bending angle (roll angle). Further, it is possible to stably obtain the tilt angle by detecting that it is facing the front by optical means and correcting the angle information.

【0152】さらに、装置の使用経過時間、あるいはま
ばたきの回数、あるいは閉眼継続時間を管理し、それら
に基づいて装置の使用時間を制限することによって、頭
部の動きによる操作や表示された映像を凝視し続けるこ
となどによる使用者の生理的、あるいは心理的な負担が
制限なく大きくなってしまうことを防ぐことができる。
Furthermore, by controlling the elapsed time of use of the device, the number of blinks, or the eye-closing duration, and limiting the use time of the device based on these, the operation by the movement of the head and the displayed image can be performed. It is possible to prevent the physiological or psychological burden on the user from continuing to stare and increase without limitation.

【0153】[0153]

【発明の効果】上述したように、本発明は構成上発生す
る幾何学的な歪を電子的或いは光学的な補正を施すこと
により、眼精疲労が少なくかつ小型軽量でありながら、
大画面が楽しめ、さらに搭載している頭部動き検出機能
によって臨場感ある画像空間を生成する画像投影装置を
実現する。
As described above, according to the present invention, the geometrical distortion generated in the structure is corrected electronically or optically, thereby reducing eye strain and reducing the size and weight.
We will realize an image projection device that allows you to enjoy a large screen and creates a realistic image space with the built-in head movement detection function.

【0154】また、頭部の位置を基準とすることによ
り、正確な頭部の動作を検出することができる。
Further, by using the position of the head as a reference, it is possible to detect the accurate motion of the head.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の一実施例の構成を示す図である。FIG. 1 is a diagram showing a configuration of an exemplary embodiment of the present invention.

【図2】 本発明の画像投影装置を装着した状態を示す
図である。
FIG. 2 is a diagram showing a state in which the image projection apparatus of the present invention is mounted.

【図3】 本発明の画像の補正を示す図である。FIG. 3 is a diagram showing image correction according to the present invention.

【図4】 本発明の平面スクリーンの特徴を示す図であ
る。
FIG. 4 is a diagram showing the features of the flat screen of the present invention.

【図5】 スクリーンに対して画像形成手段及び投影光
学系を傾けた図である。
FIG. 5 is a diagram in which an image forming unit and a projection optical system are tilted with respect to a screen.

【図6】 スクリーンに対して画像形成手段及び投影光
学系を傾けた図である。
FIG. 6 is a diagram in which an image forming unit and a projection optical system are tilted with respect to a screen.

【図7】 スクリーンの曲率半径を投影箇所において連
続的に変化させた図である。
FIG. 7 is a diagram in which the radius of curvature of the screen is continuously changed at the projection location.

【図8】 スクリーンの曲率半径を投影箇所において連
続的に変化させた図である。
FIG. 8 is a diagram in which the radius of curvature of the screen is continuously changed at the projection location.

【図9】 スクリーンの曲率半径を投影箇所において連
続的に変化させた図である。
FIG. 9 is a diagram in which the radius of curvature of the screen is continuously changed at the projection location.

【図10】 投影光学系の投影レンズが、投影光学系に
よって生じる歪と逆特性の歪曲収差をもつことを示した
図である。
FIG. 10 is a diagram showing that the projection lens of the projection optical system has a distortion aberration having characteristics reverse to the distortion generated by the projection optical system.

【図11】 投影光学系の投影レンズが、投影光学系に
よって生じる歪と逆特性の歪曲収差をもつことを示した
図である。
FIG. 11 is a diagram showing that the projection lens of the projection optical system has a distortion aberration having an inverse characteristic to the distortion generated by the projection optical system.

【図12】 歪補正光学系により投影光学系の歪とは逆
特性の歪を投影画像に加えて歪を補正することを示す図
である。
FIG. 12 is a diagram illustrating that the distortion correction optical system corrects the distortion by adding a distortion having a characteristic opposite to that of the distortion of the projection optical system to the projection image.

【図13】 歪補正光学系により投影光学系の歪とは逆
特性の歪を投影画像に加えて歪を補正することを示す図
である。
FIG. 13 is a diagram showing that the distortion correction optical system corrects the distortion by adding the distortion having the characteristic opposite to the distortion of the projection optical system to the projection image.

【図14】 スクリーンの反射率が画面周辺にいくにつ
れて増加することを示す図である。
FIG. 14 is a diagram showing that the reflectance of the screen increases as it goes to the periphery of the screen.

【図15】 スクリーンの反射率が画面周辺にいくにつ
れて増加することを示す図である。
FIG. 15 is a diagram showing that the reflectance of the screen increases as it goes to the periphery of the screen.

【図16】 スクリーンの反射率が画面周辺にいくにつ
れて増加することを示す図である。
FIG. 16 is a diagram showing that the reflectance of the screen increases toward the periphery of the screen.

【図17】 スクリーンの反射率が画面周辺にいくにつ
れて増加することを示す図である。
FIG. 17 is a diagram showing that the reflectance of the screen increases as it goes to the periphery of the screen.

【図18】 画像投影装置を装着時の状態を初期値とし
て記憶し、以後はその初期値からの変化を検出すること
で頭部の動き検出動作を行うことを示す図である。
FIG. 18 is a diagram showing that a state when the image projection apparatus is worn is stored as an initial value, and thereafter, a head motion detection operation is performed by detecting a change from the initial value.

【図19】 二軸の傾斜角検出センサと一軸の回転角速
度センサを用いて、頭部の三次元運動を検出することを
示す図である。
FIG. 19 is a diagram showing that three-dimensional movement of the head is detected using a biaxial tilt angle detection sensor and a uniaxial rotation angular velocity sensor.

【図20】 二軸の傾斜角検出センサと一軸の回転角速
度センサを用いて、頭部の三次元運動を検出することを
示す図である。
FIG. 20 is a diagram showing that a three-dimensional movement of the head is detected using a biaxial tilt angle detection sensor and a uniaxial rotation angular velocity sensor.

【図21】 二軸の傾斜角検出センサと一軸の回転角速
度センサを用いて、頭部の三次元運動を検出することを
示す図である。
FIG. 21 is a diagram showing that three-dimensional movement of the head is detected using a biaxial tilt angle detection sensor and a uniaxial rotation angular velocity sensor.

【図22】 本願発明の頭部の水平方向の回転の検出を
示す図である。
FIG. 22 is a diagram showing detection of horizontal rotation of the head according to the present invention.

【図23】 本願発明の頭部の水平方向の回転の検出を
示す図である。
FIG. 23 is a diagram showing detection of horizontal rotation of the head according to the present invention.

【図24】 本願発明の頭部の水平方向の回転の検出を
示す図である。
FIG. 24 is a diagram showing detection of horizontal rotation of the head according to the present invention.

【図25】 本願発明の頭部の水平方向の回転の検出を
示す図である。
FIG. 25 is a diagram showing detection of horizontal rotation of the head according to the present invention.

【図26】 互いに直交する3軸の回転運動を検出する
3個の角速度センサにより頭部の三次元運動を検出する
ことを示す図である。
FIG. 26 is a diagram showing that the three-dimensional motion of the head is detected by three angular velocity sensors that detect rotational motions of three axes orthogonal to each other.

【図27】 頭部の三次元運動による視野の変化を投影
画像に対して行わせることを示す図である。
FIG. 27 is a diagram showing that the change of the visual field due to the three-dimensional movement of the head is performed on the projection image.

【図28】 頭部の三次元運動による視野の変化を投影
画像に対して行わせることを示す図である。
FIG. 28 is a diagram showing that the projection image is changed in the visual field due to the three-dimensional movement of the head.

【図29】 従来例を示す図である。FIG. 29 is a diagram showing a conventional example.

【図30】 従来例を示す図である。FIG. 30 is a diagram showing a conventional example.

【図31】 従来例を示す図である。FIG. 31 is a diagram showing a conventional example.

【図32】 従来例を示す図である。FIG. 32 is a diagram showing a conventional example.

【図33】 本発明の第2の実施例に係わる実施例の構
成を示したブロック図である。
FIG. 33 is a block diagram showing the configuration of an example according to the second example of the present invention.

【図34】 動作量生成部とセンサを組み込むヘッドセ
ットの概略構成図である。
FIG. 34 is a schematic configuration diagram of a headset incorporating an operation amount generation unit and a sensor.

【図35】 動作量生成部のブロック図である。FIG. 35 is a block diagram of a motion amount generation section.

【図36】 基準量保持部において基準量を保持する際
の基本姿勢の説明図
FIG. 36 is an explanatory diagram of a basic posture when the reference amount is held in the reference amount holding unit.

【図37】 基準量保持部における基準量保持の処理を
説明するフローチャートの図である。
FIG. 37 is a flowchart illustrating a process of holding a reference amount in a reference amount holding unit.

【図38】 基準量保持部において基準量としてその動
作量を保持しない場合のフローチャートの図である。
FIG. 38 is a flowchart showing a case where the reference amount holding unit does not hold the operation amount as a reference amount.

【図39】 ヘッドセットの装着を自動的に検出する方
法の一例の説明図である。
FIG. 39 is an explanatory diagram of an example of a method for automatically detecting wearing of a headset.

【図40】 頭部の傾き角度およびこれを規定するため
の各角度軸の説明図である。
FIG. 40 is an explanatory diagram of a tilt angle of the head and each angle axis for defining the tilt angle.

【図41】 状態量生成部における処理を説明するフロ
ーチャートの図である。
FIG. 41 is a flowchart illustrating a process performed by a state quantity generation unit.

【図42】 正面状態を0度とする相対角度として状態
量を取り扱うことのを説明する図である。
FIG. 42 is a diagram for explaining how to handle the state quantity as a relative angle with the front state being 0 degree.

【図43】 変化量生成部の変化量演算の説明図であ
る。
FIG. 43 is an explanatory diagram of change amount calculation of the change amount generation unit.

【図44】 動作パターンメモリ部に格納されている基
本動作パターン形式の一例を示す図である。
FIG. 44 is a diagram showing an example of a basic operation pattern format stored in an operation pattern memory unit.

【図45】 頭部動作認識部における頭部動作の認識処
理を説明するフローチャートの図である。
[Fig. 45] Fig. 45 is a flowchart illustrating a head movement recognition process performed by the head movement recognition unit.

【図46】 制御信号生成部に格納されている制御信号
形式の一例を示す図である。
FIG. 46 is a diagram showing an example of a control signal format stored in a control signal generation unit.

【図47】 頭部の同一動作によるセンサの出力が異な
る場合の説明図である。
FIG. 47 is an explanatory diagram in the case where the output of the sensor is different due to the same movement of the head.

【図48】 センサ出力補正手段における処理を説明す
るフローチャートの図である。
FIG. 48 is a flowchart illustrating a process performed by the sensor output correction unit.

【図49】 センサ出力補正手段に格納されている補正
データ形式の一例を示す図である。
FIG. 49 is a diagram showing an example of a correction data format stored in the sensor output correction means.

【図50】 頭部動作による直線的な動作入力が必要な
場合を説明する図である。
FIG. 50 is a diagram illustrating a case where a linear motion input by head motion is required.

【図51】 単独センサ選択手段における処理を説明す
るフローチャートの図である。
[Fig. 51] Fig. 51 is a flowchart illustrating a process in a single sensor selection unit.

【図52】 頭部の同一方向動作を複数の異なる種類の
センサで検出する場合を説明する図である。
FIG. 52 is a diagram illustrating a case where a plurality of different types of sensors detect a head motion in the same direction.

【図53】 最適センサ選択手段における処理を説明す
るフローチャートの図である。
[Fig. 53] Fig. 53 is a flowchart illustrating a process in the optimum sensor selection unit.

【図54】 センサの出力のドリフトの経時変化の一例
を示す図である。
FIG. 54 is a diagram showing an example of changes over time in the drift of the output of the sensor.

【図55】 基準量更新手段に格納されている更新デー
タ形式の一例を示す図である。
FIG. 55 is a diagram showing an example of an update data format stored in the reference amount updating means.

【図56】 基準量更新手段における初期設定作業の処
理を説明するフローチャートの図である。
FIG. 56 is a flowchart for explaining the process of the initial setting work in the reference amount updating means.

【図57】 基準量更新手段における更新方法の使い分
けを説明する図である。
[Fig. 57] Fig. 57 is a diagram for describing the proper use of the updating method in the reference amount updating means.

【図58】 基準量更新手段における更新方法の使い分
けの処理を説明するフローチャートの図である。
[Fig. 58] Fig. 58 is a flowchart illustrating a process of properly using an updating method in the reference amount updating unit.

【図59】 ドリフトの経時変化データの初期値と基準
量保持部で保持された基準量の初期値が異なる場合を説
明する図である。
FIG. 59 is a diagram for explaining a case where the initial value of drift change data and the initial value of the reference amount held in the reference amount holding unit are different.

【図60】 基準量更新手段におけるタイムシフト処理
を説明するフローチャートの図である。
FIG. 60 is a flowchart illustrating a time shift process in the reference amount updating unit.

【図61】 正面状態検出手段によって正面を向いてい
ることを検出する方法の一例を示す図である。
FIG. 61 is a diagram showing an example of a method of detecting that the front-face state detecting means faces the front.

【図62】 角度情報補正手段における処理を説明する
フローチャートの図である。
[Fig. 62] Fig. 62 is a flowchart illustrating a process in the angle information correction means.

【図63】 角度超過通知手段による安定的な機器操作
を説明する図である。
[Fig. 63] Fig. 63 is a diagram for explaining stable device operation by the angle excess notification means.

【図64】 角度超過通知手段における処理をを説明す
るフローチャートの図である。
[Fig. 64] Fig. 64 is a flowchart illustrating a process in the angle excess notifying means.

【図65】 動作パターンメモリ部に新たな基本動作パ
ターンを書き込むための一連の処理を説明するフローチ
ャートの図である。
FIG. 65 is a flowchart illustrating a series of processes for writing a new basic operation pattern in the operation pattern memory unit.

【図66】 頭部動作検出による機器制御装置の使用時
間を制限するための経過時間管理手段と使用時間制限手
段を説明するフローチャートの図である。
[Fig. 66] Fig. 66 is a flowchart illustrating an elapsed time management unit and a use time limit unit for limiting the use time of the device control apparatus by detecting the head motion.

【図67】 頭部動作検出による機器制御装置の使用時
間を制限するための開閉眼検出手段と瞬目増加率演算手
段と閉眼継続時間検出手段と視覚疲労軽減手段を説明す
るフローチャートの図である。
FIG. 67 is a flowchart illustrating an open / closed eye detection means for limiting the use time of the device control apparatus by detecting a head movement, a blink increase rate calculation means, an eye closed duration detection means, and a visual fatigue reduction means. .

【図68】 開閉眼検出手段において目の開閉状態を自
動検出する方法の例とそのとき得られる出力を説明する
図である。
FIG. 68 is a diagram for explaining an example of a method of automatically detecting the open / closed state of the eyes by the open / closed eye detection means and the output obtained at that time.

【図69】 従来の頭部の動きを単独に検出することに
よる機器制御装置の構成例の図である。
[Fig. 69] Fig. 69 is a diagram of a configuration example of a device control apparatus by individually detecting the movement of the head in the related art.

【符号の説明】[Explanation of symbols]

11,22,51,81,91,111,131,16
1,171,281,291 非平面スクリーン 12,72,112,132,152,162,17
2,282,292 投影レンズ 13,53,63,73,83,93,113,13
5,153,163,173 画像形成手段 14 画像投影手段 15,114,136 歪補正手段 16,115,137 画像信号生成手段 17 頭部動き検出手段 18 制御信号発生手段 23 画像投影部 24 動き検出部 41,151,301 平面スクリーン 42,82,92 球面スクリーン 43,54,64,84,94,302,321 投影
機 52,62 投影光学系 55,65 後側被写界深度 56,66 前側被写界深度 57,67,138 平均結像面 58,68 投影光学系の主点延長線 59,69 画像形成手段の延長線 71 投影像 133 倒立実像面 134 歪補正光学系 211,213 傾斜角センサ 212,242,243,244,271,272,2
73 角速度センサ 285,294 左斜め上画像 284,295 正面画像 286,296 右斜め下画像 283 入力画像範囲 303 投影画像 322 透過型スクリーン 323 外界の像 331,332 接眼レンズ 333,334 画像表示装置 335 虚像 101〜10n センサ 341 制御対象機器 342 動作量生成部 343 基準量保持部 344 状態量生成部 345 変化量生成部 346 動作パターンメモリ部 347 頭部動作認識部 348 制御信号生成部 349 制御実行処理部 3510 ヘッドセット 3511 スピーカ 3512 マイク 3513 頭部 3614 動作量a 3615 動作量b 4016 ベルトA 4017 接合具A 4018 ベルトB 4019 接合具B 4820 傾斜角センサ 4821 回転軸 4822 振子 5123 モニタ 5124 カーソル 5325 地磁気センサ 5326 回転角速度センサ 6227 発光部a 6228 受光部a 6229 発光部b 6230 受光部b 6231 光路a 6232 光路b 6233 光路a’ 6234 光路b’ 6235 信号処理部 6236 頭部装着型ディスプレイ 6237 反射板a 6238 反射板b 6939 発光素子 6940 受光素子 6941 電極 6942 アース電極
11, 22, 51, 81, 91, 111, 131, 16
1,171,281,291 Non-planar screen 12,72,112,132,152,162,17
2, 282, 292 Projection lens 13, 53, 63, 73, 83, 93, 113, 13
5,153,163,173 image forming means 14 image projecting means 15,114,136 distortion correcting means 16,115,137 image signal generating means 17 head motion detecting means 18 control signal generating means 23 image projecting section 24 motion detecting section 41, 151, 301 Flat screen 42, 82, 92 Spherical screen 43, 54, 64, 84, 94, 302, 321 Projector 52, 62 Projection optical system 55, 65 Rear depth of field 56, 66 Front subject Depth of field 57,67,138 Average image plane 58,68 Extension line of principal point of projection optical system 59,69 Extension line of image forming means 71 Projected image 133 Inverted real image plane 134 Distortion correction optical system 211,213 Tilt angle sensor 212 , 242, 243, 244, 271, 272, 2
73 Angular velocity sensor 285, 294 Left diagonal upper image 284, 295 Front image 286, 296 Right diagonal lower image 283 Input image range 303 Projected image 322 Transmissive screen 323 Outside image 331, 332 Eyepiece 333, 334 Image display device 335 Virtual image 101 to 10n Sensor 341 Control target device 342 Motion amount generation unit 343 Reference amount holding unit 344 State amount generation unit 345 Change amount generation unit 346 Motion pattern memory unit 347 Head motion recognition unit 348 Control signal generation unit 349 Control execution processing unit 3510 Headset 3511 Speaker 3512 Microphone 3513 Head 3614 Movement amount a 3615 Movement amount b 4016 Belt A 4017 Joining tool A 4018 Belt B 4019 Joining tool B 4820 Tilt angle sensor 4821 Rotating shaft 4822 Pendulum 5 23 monitor 5124 cursor 5325 geomagnetic sensor 5326 rotational angular velocity sensor 6227 light emitting part a 6228 light receiving part a 6229 light emitting part b 6230 light receiving part b 6231 optical path a 6232 optical path b 6233 optical path a ′ 6234 optical path b ′ 6235 signal processing part 6236 head-mounted type Display 6237 Reflector a 6238 Reflector b 6939 Light emitting element 6940 Light receiving element 6941 Electrode 6942 Ground electrode

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】投影すべき画像を表示するための非平面な
スクリーンと、 このスクリーンに投影する画像信号を生成するための画
像信号生成手段と、 この画像信号生成手段で生成した画像信号に歪を加える
歪補正手段と、 この歪補正手段によって歪を加えられた画像信号から前
記スクリーンに投影すべき画像を形成する画像形成手段
と、 この画像形成手段によって形成した画像をスクリーン上
に投影するための画像投影手段と、 この画像投影手段によってスクリーン上に投影された画
像を結像させる投影光学系とを具備することを特徴とす
る画像投影装置。
1. A non-planar screen for displaying an image to be projected, an image signal generating means for generating an image signal projected on the screen, and an image signal generated by the image signal generating means is distorted. A distortion correcting means for applying an image forming means, an image forming means for forming an image to be projected on the screen from an image signal distorted by the distortion correcting means, and an image forming means for projecting the image formed by the image forming means on the screen. 2. An image projecting device comprising: the image projecting means and the projection optical system for forming an image projected on a screen by the image projecting means.
【請求項2】投影すべき画像を表示するための非平面な
スクリーンと、 頭部の動きを検出する頭部動き検出手段と、 この頭部動き検出手段によって検出した頭部の動きによ
り前記スクリーンに投影する画像信号を生成するための
画像信号生成手段と、 この画像信号生成手段で生成した画像信号に歪を加える
歪補正手段と、 この歪補正手段によって歪を加えられた画像信号から前
記スクリーンに投影すべき画像を形成する画像形成手段
と、 この画像形成手段によって形成した画像をスクリーン上
に投影するための画像投影手段と、 この画像投影手段によってスクリーン上に投影された画
像を結像させる投影光学系とを具備することを特徴とす
る画像投影装置。
2. A non-planar screen for displaying an image to be projected, a head movement detecting means for detecting a movement of the head, and the screen by the movement of the head detected by the head movement detecting means. Image signal generating means for generating an image signal to be projected onto the screen, distortion correcting means for adding distortion to the image signal generated by the image signal generating means, and the screen signal from the image signal distorted by the distortion correcting means. Image forming means for forming an image to be projected onto the screen, image projecting means for projecting the image formed by the image forming means onto the screen, and forming the image projected on the screen by the image projecting means An image projection apparatus comprising: a projection optical system.
【請求項3】頭部の動きを検出する頭部動き検出手段
と、 この頭部動き検出手段によって検出した頭部の動きに応
じた動作量を生成する動作量生成手段と、 この動作量生成手段によって任意のタイミングで生成さ
れた動作量を、頭部の動作の基準量として保持する基準
量保持手段と、 この基準量保持手段によって保持されている基準量をも
とに、前記動作量生成手段によって生成された動作量か
ら頭部の角度の変化量を生成する変化量生成手段と、 頭部動作の基本動作パターンを記憶してなる動作パター
ン記憶手段と、 この動作パターン記憶手段に記憶された動作パターンを
もとに、前記変化量生成手段によって生成された頭部の
角度の変化量から頭部の動作を認識するための認識手段
と、 この認識手段によって認識された頭部の動作に対応して
機器の制御を行うための制御手段とを具備したことを特
徴とする機器制御装置。
3. A head movement detecting means for detecting movement of the head, a movement amount generating means for generating a movement amount according to the movement of the head detected by the head movement detecting means, and this movement amount generating means. A reference amount holding means for holding the movement amount generated at any timing by the means as a reference amount for the movement of the head, and the movement amount generation based on the reference amount held by the reference amount holding means. Change amount generating means for generating a change amount of the head angle from the operation amount generated by the means, operation pattern storing means for storing a basic operation pattern of the head operation, and the operation pattern storing means. A recognition means for recognizing the movement of the head based on the change amount of the angle of the head generated by the change amount generation means, and the movement of the head recognized by the recognition means. Device control apparatus being characterized in that and a control means for controlling the device by response.
【請求項4】前記基準量保持手段は、ヘッドセットの装
着を自動的に検出後、あるいは使用者による装着確認操
作後、あるいは電源投入後に動作量を保持することを特
徴とする請求項3記載の機器制御装置。
4. The reference amount holding means holds the operation amount after automatically detecting the mounting of the headset, after a mounting confirmation operation by a user, or after the power is turned on. Equipment control device.
【請求項5】頭部が体に対して正面を向いていることを
検出するための正面検出手段を有し、前記変化量生成手
段において、角度の変化量を補正することを特徴とする
請求項3記載の機器制御装置。
5. A front detecting means for detecting that the head is facing the front with respect to the body, and the change generating means corrects the change of the angle. Item 3. The device control device according to item 3.
JP7259457A 1995-09-13 1995-09-13 Image projection device and equipment controller Pending JPH0981785A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7259457A JPH0981785A (en) 1995-09-13 1995-09-13 Image projection device and equipment controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7259457A JPH0981785A (en) 1995-09-13 1995-09-13 Image projection device and equipment controller

Publications (1)

Publication Number Publication Date
JPH0981785A true JPH0981785A (en) 1997-03-28

Family

ID=17334338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7259457A Pending JPH0981785A (en) 1995-09-13 1995-09-13 Image projection device and equipment controller

Country Status (1)

Country Link
JP (1) JPH0981785A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002203257A (en) * 2000-10-31 2002-07-19 Namco Ltd Device, method and program for image display and information storage medium
JP2002236935A (en) * 2000-12-07 2002-08-23 Namco Ltd Image display device, image display method, information storage medium and image display program
JP2003030677A (en) * 2001-07-19 2003-01-31 Namco Ltd Image display device, image display method, information storage medium and image display program
WO2003107663A1 (en) * 2002-06-12 2003-12-24 Silicon Optix Inc. Short throw projection system and method
US7384158B2 (en) 2003-01-08 2008-06-10 Silicon Optix Inc Image projection system and method
JP2008275896A (en) * 2007-04-27 2008-11-13 Ricoh Co Ltd Image projection device
US7714943B2 (en) 2002-06-12 2010-05-11 Geo Semiconductor Inc. Ultra-thin image projection system
JP2012514392A (en) * 2008-12-30 2012-06-21 ゼンハイザー・エレクトロニック・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング・ウント・コンパニー・コマンデイトゲゼルシャフト Control system, earphone, and control method
JP2018004889A (en) * 2016-06-30 2018-01-11 パナソニックIpマネジメント株式会社 Head-up display

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002203257A (en) * 2000-10-31 2002-07-19 Namco Ltd Device, method and program for image display and information storage medium
JP4726336B2 (en) * 2000-10-31 2011-07-20 株式会社バンダイナムコゲームス Image display device, image display method, information storage medium, and image display program
JP2002236935A (en) * 2000-12-07 2002-08-23 Namco Ltd Image display device, image display method, information storage medium and image display program
JP4726347B2 (en) * 2000-12-07 2011-07-20 株式会社バンダイナムコゲームス Image display device, image display method, information storage medium, and image display program
JP2003030677A (en) * 2001-07-19 2003-01-31 Namco Ltd Image display device, image display method, information storage medium and image display program
WO2003107663A1 (en) * 2002-06-12 2003-12-24 Silicon Optix Inc. Short throw projection system and method
US7714943B2 (en) 2002-06-12 2010-05-11 Geo Semiconductor Inc. Ultra-thin image projection system
US7384158B2 (en) 2003-01-08 2008-06-10 Silicon Optix Inc Image projection system and method
JP2008275896A (en) * 2007-04-27 2008-11-13 Ricoh Co Ltd Image projection device
JP2012514392A (en) * 2008-12-30 2012-06-21 ゼンハイザー・エレクトロニック・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング・ウント・コンパニー・コマンデイトゲゼルシャフト Control system, earphone, and control method
US8949744B2 (en) 2008-12-30 2015-02-03 Sennheiser Electronic Gmbh & Co. Kg Control system, earphone and control method
JP2018004889A (en) * 2016-06-30 2018-01-11 パナソニックIpマネジメント株式会社 Head-up display

Similar Documents

Publication Publication Date Title
US11314325B2 (en) Eye tracking to adjust region-of-interest (ROI) for compressing images for transmission
US10775886B2 (en) Reducing rendering computation and power consumption by detecting saccades and blinks
US10720128B2 (en) Real-time user adaptive foveated rendering
US10983593B2 (en) Wearable glasses and method of displaying image via the wearable glasses
US10169846B2 (en) Selective peripheral vision filtering in a foveated rendering system
CN107430278B (en) User-based context sensitive hologram response
US9013264B2 (en) Multipurpose controller for electronic devices, facial expressions management and drowsiness detection
CN108154864B (en) Display screen processing method, first electronic device and second electronic device
JP7001832B2 (en) Image adjustment of the optotype tracking system
US20160170482A1 (en) Display apparatus, and control method for display apparatus
KR20190004806A (en) Face and eye tracking and facial animation using head-mounted display&#39;s face sensor
CN116033864A (en) Eye tracking using non-spherical cornea models
KR20220088678A (en) Apparatus and method for mapping a visual scene to a projection plane
WO2020256968A1 (en) Imaging device with field-of-view shift control
US20220291744A1 (en) Display processing device, display processing method, and recording medium
JPH0981785A (en) Image projection device and equipment controller
WO2019021601A1 (en) Information processing device, information processing method, and program
JP2018147086A (en) Information processing method, program, virtual space distribution system, and device
KR101492832B1 (en) Method for controlling display screen and display apparatus thereof
CN207457605U (en) Visible display device
US10444863B2 (en) Virtual reality devices and display picture generation methods
JPH08266464A (en) Simulation apparatus for eye optical system
JPH1127608A (en) Display system
WO2023023206A1 (en) Systems and methods for performing eye-tracking
CN113168300A (en) Control method and display device