JPH04293376A - Video display system - Google Patents

Video display system

Info

Publication number
JPH04293376A
JPH04293376A JP5894891A JP5894891A JPH04293376A JP H04293376 A JPH04293376 A JP H04293376A JP 5894891 A JP5894891 A JP 5894891A JP 5894891 A JP5894891 A JP 5894891A JP H04293376 A JPH04293376 A JP H04293376A
Authority
JP
Japan
Prior art keywords
video
gaze
video signal
time length
band
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5894891A
Other languages
Japanese (ja)
Other versions
JPH0738706B2 (en
Inventor
Hitoshi Hongo
仁志 本郷
Mitsuo Yamada
光穗 山田
Keiichi Ueno
圭一 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
A T R SHICHIYOUKAKU KIKO KENKYUSHO KK
Original Assignee
A T R SHICHIYOUKAKU KIKO KENKYUSHO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by A T R SHICHIYOUKAKU KIKO KENKYUSHO KK filed Critical A T R SHICHIYOUKAKU KIKO KENKYUSHO KK
Priority to JP5894891A priority Critical patent/JPH0738706B2/en
Publication of JPH04293376A publication Critical patent/JPH04293376A/en
Publication of JPH0738706B2 publication Critical patent/JPH0738706B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

PURPOSE:To reduce the information quantity of a video signal sent to a display device by limiting a band of a noted area component of the video signal in response to a length of a noted time. CONSTITUTION:The video display system in which the information quantity of a video signal sent from a video signal generator to a display device is reduced is indicated. A noticed area of an observer on a screen is detected based on an eyeball motion and a head motion. A noticed time discrimination section 83 of a picture processing unit 8 detects it that a noticed time length of an observer exceeds a prescribed time length. A control signal generating section 82 gives a control signal required to decrease the band of the noticed area component of the video signal to a switching section in response to the detection. A switching section 81 generates a synthesis video signal in which the band of the noted area component is limited in response to the given control signal and the signal is sent to the display device.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】この発明は、映像表示システムに
関し、特に、映像信号発生器と表示装置との間の伝送情
報量を減少させることのできる映像表示システムに関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video display system, and more particularly to a video display system that can reduce the amount of information transmitted between a video signal generator and a display device.

【0002】0002

【従来の技術および発明が解決しようとする課題】従来
では、映像信号または画像信号の帯域圧縮が行なわれる
場合では、DPCMや直交変換、サブサンプリングなど
画像データに含まれる冗長性、すなわち相関性の高さを
利用して、画面全体の画像データについて一様の処理が
行なわれている。したがって、帯域圧縮されて伝送され
てきた画像信号に基づく画像が画面上に表示されたとき
、観察者は画面上に表示された画像を一様の解像度で見
ることができる。すなわち、画面上に表示された画像は
、どの部分においても一様の解像度を有しており、観察
者は画面上のいたるところで同じ解像度を有する画像を
見ることができる。
[Prior Art and Problems to be Solved by the Invention] Conventionally, when band compression of video signals or image signals is performed, redundancy contained in image data, that is, correlation, is Uniform processing is performed on the image data of the entire screen using the height. Therefore, when an image based on a band-compressed and transmitted image signal is displayed on the screen, the viewer can view the image displayed on the screen at a uniform resolution. That is, the image displayed on the screen has a uniform resolution everywhere, and the viewer can see the image having the same resolution everywhere on the screen.

【0003】しかしながら、画像の解像度が一様である
ため、観察者の注視領域において詳細に画像を見ると、
画素が粗いことにより解像度の不足を感じる場合がある
。これを防ぐためには、伝送帯域を広げ解像度を向上さ
せる必要があるが、一般に伝送帯域を広くすることは好
ましくない。
However, since the resolution of the image is uniform, when the image is viewed in detail in the observer's gaze area,
You may feel that the resolution is insufficient due to the coarse pixels. In order to prevent this, it is necessary to widen the transmission band and improve resolution, but it is generally not desirable to widen the transmission band.

【0004】一方、放送および画像通信の技術分野では
、同じ映像または画像を同じ条件で多くの観察者に見せ
るという従来の形態から、個々の観察者が所望の画像部
分を個別にかつ好みに合わせて観察するという形態に移
行しつつある。したがって、画一的な映像信号または画
像信号の帯域圧縮ではこの要求に応じることができず、
観察者の必要に応じて個別に帯域圧縮を行なう技術の開
発が重要な課題となってきた。
On the other hand, in the technical fields of broadcasting and image communication, the conventional format of showing the same video or image to many viewers under the same conditions has changed from the conventional format of showing the same video or image to many viewers, to allowing each viewer to view desired image parts individually and according to their preference. There is a shift to a form of observation. Therefore, it is not possible to meet this demand with uniform band compression of video signals or image signals.
The development of technology that compresses bandwidth individually according to the needs of observers has become an important issue.

【0005】この発明は、上記のような課題を解決する
ためになされたもので、映像信号発生器と表示装置との
間の伝送情報量を減少させることのできる映像表示シス
テムを提供することを目的とする。
The present invention was made in order to solve the above-mentioned problems, and it is an object of the present invention to provide a video display system that can reduce the amount of information transmitted between a video signal generator and a display device. purpose.

【0006】[0006]

【課題を解決するための手段】この発明に係る映像表示
システムは、映像信号発生手段と、映像信号発生手段か
ら発生された映像信号に基づいて映像を画面上に表示す
る映像表示手段と、表示された映像を観察する観察者の
画面上の注視領域および注視時間長さを検出する注視状
態検出手段と、検出された注視時間長さが予め定められ
た時間長さを越えていることを判定する注視時間長さ判
定手段と、注視時間長さ判定手段に応答して、映像信号
発生手段から発生された映像信号の注視領域の映像情報
量を減少させる映像情報減少手段とを含む。
[Means for Solving the Problems] A video display system according to the present invention includes: a video signal generating means; a video display means for displaying a video on a screen based on a video signal generated from the video signal generating means; gaze state detection means for detecting a gaze area and gaze time length on a screen of an observer observing a video image, and determining whether the detected gaze time length exceeds a predetermined time length. and video information reducing means for reducing the amount of video information in the gaze area of the video signal generated by the video signal generating means in response to the gaze time length determining means.

【0007】[0007]

【作用】この発明における映像表示システムでは、注視
時間長さ判定手段が、注視状態検出手段によって検出さ
れた観察者の注視時間長さが予め定められた時間長さを
越えていることを判定する。注視時間長さが予め定めら
れた時間長さを越えているとき、映像情報減少手段が注
視時間長さ判定手段に応答して、映像信号発生手段から
発生された映像信号の注視領域の映像情報量を減少させ
る。映像表示手段は、映像情報減少手段によって情報量
が減少された映像信号に基づく映像を画面上に表示する
。したがって、映像表示手段に伝送される映像信号の映
像情報量が減少される。
[Operation] In the video display system of the present invention, the gaze time length determination means determines that the gaze time length of the observer detected by the gaze state detection means exceeds a predetermined time length. . When the gaze time length exceeds a predetermined time length, the video information reduction means responds to the gaze time length determination means to reduce the video information of the gaze area of the video signal generated by the video signal generation means. Decrease the amount. The video display means displays on the screen a video based on the video signal whose information amount has been reduced by the video information reduction means. Therefore, the amount of video information of the video signal transmitted to the video display means is reduced.

【0008】[0008]

【実施例】図1は、この発明の一実施例を示す映像表示
システムのブロック図である。図1を参照して、この映
像表示システムは、表示装置10の画面上に表示すべき
映像の映像信号を発生する映像信号発生装置1と、映像
信号の帯域を制限するローパスフィルタ(LPF)2と
、観察者の画面上の注視領域の変化に応じて映像信号に
画像処理を施す画像処理装置8と、観察者の眼球の運動
を検出する眼球運動検出装置5と、磁気センサを用いて
観察者の頭部運動を検出する頭部運動検出装置6と、検
出された頭部運動データおよび眼球運動データを演算処
理することにより観察者の視線データを求める注視点処
理装置7と、注視点データに基づいて観察者の注視領域
データを求める注視領域分離装置3とを含む。画像処理
装置8は、映像信号発生装置1から発生された映像信号
Saおよびローパスフィルタ2を経て与えられる映像信
号Sbを受けるスイッチング部81と、観察者の注視領
域データに基づいて制御信号を発生する制御信号発生部
82と、観察者の注視時間長さが所定の時間長さを越え
ていることを判定し、帯域制御信号BWを発生する注視
時間判定部83とを含む。
DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is a block diagram of a video display system showing an embodiment of the present invention. Referring to FIG. 1, this video display system includes a video signal generator 1 that generates a video signal of a video to be displayed on the screen of a display device 10, and a low pass filter (LPF) 2 that limits the band of the video signal. , an image processing device 8 that performs image processing on the video signal according to changes in the observer's gaze area on the screen, an eye movement detection device 5 that detects the movement of the observer's eyeballs, and a magnetic sensor. a head movement detection device 6 that detects the head movement of the observer; a gaze point processing device 7 that calculates gaze data of the observer by processing the detected head movement data and eyeball movement data; and a gaze point processing device 7 that calculates gaze data of the observer; and a gaze area separation device 3 that obtains gaze area data of an observer based on. The image processing device 8 includes a switching unit 81 that receives the video signal Sa generated from the video signal generation device 1 and the video signal Sb provided through the low-pass filter 2, and generates a control signal based on the viewer's gaze area data. It includes a control signal generation section 82 and a gaze time determining section 83 that determines whether the observer's gaze time length exceeds a predetermined time length and generates a band control signal BW.

【0009】動作において、観察者の眼球運動の動きお
よび頭部運動の動きが眼球運動検出装置5および頭部運
動検出装置6によりそれぞれ検出される。検出された運
動データに基づいて、注視点処理装置7が演算処理を行
なうことにより、観察者の視線の動きを示す視線データ
を求める。求められた視線データは、注視領域分離装置
3に与えられ、そこで観察者が注視している画面上の注
視領域の座標およびその周辺領域の座標が得られる。注
視領域およびその周辺領域の座標は、画像処理装置8内
の制御信号発生部82に与えられる。上記の処理につい
ては、後で詳細に説明する。
In operation, the eyeball movement and head movement of the observer are detected by the eye movement detection device 5 and the head movement detection device 6, respectively. Based on the detected movement data, the gaze point processing device 7 performs arithmetic processing to obtain line-of-sight data indicating the movement of the observer's line of sight. The obtained line-of-sight data is given to the gaze area separation device 3, where the coordinates of the gaze area on the screen that the observer is gazing at and the coordinates of its surrounding area are obtained. The coordinates of the gaze area and its surrounding area are given to a control signal generator 82 within the image processing device 8 . The above processing will be explained in detail later.

【0010】映像信号発生装置1から発生された映像信
号Saは、直接画像処理装置8内のスイッチング部81
に与えられる一方、ローパスフィルタ2にも与えられる
。ローパスフィルタ2を介して帯域制限された映像信号
Sbが出力され、スイッチング部81に与えられる。 制御信号発生部82は、注視領域分離装置3から与えら
れる注視領域データに基づいて、スイッチング部81を
制御するのに必要な制御信号を発生する。以下に、スイ
ッチング部81および注視時間判定部83における処理
について説明する。
The video signal Sa generated from the video signal generator 1 is directly transmitted to the switching section 81 in the image processing device 8.
while also being given to the low-pass filter 2. The band-limited video signal Sb is outputted via the low-pass filter 2 and given to the switching section 81 . The control signal generation section 82 generates a control signal necessary to control the switching section 81 based on the gaze region data provided from the gaze region separation device 3 . The processing in the switching unit 81 and the gaze time determining unit 83 will be described below.

【0011】図10は、人間の注視時間と正答率との間
の関係を示すグラフである。図10を参照して、以下に
注視時間と脳内での情報処理との関係について説明する
。なお、詳細は、本郷,山田らによる「注視時間制御提
示装置とこれを用いた視覚探索実験」と題された文献(
通信学会画像工学研究会資料´91年1月)に記されて
いる。図10に示した実験結果は、被験者A,Bおよび
Cに円や四角,三角といったパターンがちりばめられた
図の中から円の数を数えるという課題を与えることとし
、様々な注視時間が与えられたときにカウントの正答率
がどのように変化するかを示している。したがって、横
軸が注視時間(msec)を示し、縦軸が正答率(%)
を示す。この図から、270msの注視時間で、注視時
間に制限のない通常の場合と同じ正答率が得られる。す
なわち、このような課題が与えられた場合では、正しい
カウントを行なうのに必要な注視時間が270msであ
り、それ以上の時間をかけて被験者に画像を提示する必
要がないことが分かる。その他各種の視覚実験から、人
間の脳における視覚情報処理に必要な時間Tvは、30
0ms前後(±100ms)となることが知られている
。したがって、図1に示した映像表示システムでは、上
記の実験結果を利用して、画面上の注視が開始されてか
ら時間Tvが経過した後に、注視部分の映像信号を帯域
制限することにより、観察者の画像に対する視覚情報処
理能力を減ずることなく映像信号の伝送情報量の低減を
図るものである。
FIG. 10 is a graph showing the relationship between human gaze time and correct answer rate. Referring to FIG. 10, the relationship between gaze time and information processing in the brain will be described below. For details, please refer to the document titled "Gaze time control presentation device and visual search experiment using it" by Hongo, Yamada et al.
This is described in the Communication Society Image Engineering Study Group Materials (January 1991). The experimental results shown in Figure 10 are as follows: Subjects A, B, and C were given the task of counting the number of circles in a picture studded with patterns such as circles, squares, and triangles, and were given various fixation times. It shows how the correct answer rate for counting changes when Therefore, the horizontal axis shows the gaze time (msec), and the vertical axis shows the correct answer rate (%).
shows. From this figure, with a gaze time of 270 ms, the same correct answer rate as in the normal case where the gaze time is not limited can be obtained. That is, when such a task is given, the gaze time required to perform a correct count is 270 ms, and it is understood that there is no need to spend more time than that to present images to the subject. From various other visual experiments, the time Tv required for visual information processing in the human brain is 30
It is known that the time is around 0ms (±100ms). Therefore, in the video display system shown in FIG. 1, using the above experimental results, after the time Tv has elapsed since the start of gazing on the screen, the video signal of the gazing part is band-limited, so that observation is possible. The present invention aims to reduce the amount of information transmitted in a video signal without reducing the visual information processing ability of a person's images.

【0012】図2は、図1に示した画像処理装置8にお
ける処理を説明するためのタイミング図である。図2(
A)に示すように、画面上の注視領域がC1,C2,C
3の順で移動していくものと仮定する。すなわち、図2
(B)および(C)に示すように、観察者は、時刻t1
からt2の期間において画面上の領域C1を注視し、時
刻t3からt6の期間において領域C2を注視し、時刻
t7からt8の期間において領域C3を注視するものと
仮定する。図2(B)の縦軸は、観察者の状態の変化、
すなわち観察者が注視状態および非注視状態のいずれに
あるかを示している。図2(C)の縦軸は、表示装置1
0に与えられる映像信号の注視領域成分の帯域BWの変
化を示している。
FIG. 2 is a timing chart for explaining the processing in the image processing device 8 shown in FIG. Figure 2 (
As shown in A), the gaze areas on the screen are C1, C2, and C.
Assume that they move in the order of 3. That is, Figure 2
As shown in (B) and (C), the observer at time t1
It is assumed that a user watches a region C1 on the screen during a period from t2 to t2, a region C2 from a time t3 to t6, and a region C3 from a time t7 to t8. The vertical axis of FIG. 2(B) represents changes in the observer's state;
In other words, it indicates whether the observer is in a gazing state or a non-gazing state. The vertical axis in FIG. 2(C) is the display device 1.
It shows the change in the band BW of the gaze area component of the video signal given to 0.

【0013】図1に示した注視時間判定部83は、注視
領域分離装置3から発生される注視領域データに基づい
て、観察者の視線がある一定の領域内に前述の時間長さ
Tv以上止まっているか否かを判定する。すなわち、観
察者が注視領域C1を注視している期間は、時刻t1か
らt2の間でありこの期間の時間長さはTvより短い。 したがって、注視時間判定部83は、この期間において
は映像信号が広い帯域となるよう制御する信号BWWを
出力し、これを制御信号発生部82に与える。次に、観
察者は時刻t3からt6の期間において領域C2を注視
する。注視時間がt4を越えると、注視時間長さがTv
を越えるので、注視時間判定部83は映像信号の帯域を
狭くするよう制御する信号BWNを出力し、これを制御
信号発生部82に与える。制御信号発生部82は、信号
BWNに応答して、中止領域C2の映像信号成分を狭い
帯域になるよう制御信号をスイッチング部81に与える
。時刻t4から予め定められた時間長さTmが経過した
後、注視領域C2の映像信号の帯域は再び広げられる。 すなわち、この時間Tmの経過の後、注視時間判定部8
3が信号BWWを出力するので、制御信号発生部82に
よって注視領域C2の映像信号の帯域が広げられる。
The gaze time determination section 83 shown in FIG. 1 determines whether the observer's line of sight remains within a certain area for the above-mentioned time length Tv or more based on the gaze area data generated from the gaze area separation device 3. Determine whether or not the That is, the period during which the observer is gazing at the gaze area C1 is between time t1 and t2, and the time length of this period is shorter than Tv. Therefore, the gaze time determining section 83 outputs a signal BWW that controls the video signal to have a wide band during this period, and provides this to the control signal generating section 82. Next, the observer gazes at area C2 during the period from time t3 to t6. When the gaze time exceeds t4, the gaze time length becomes Tv
Therefore, the gaze time determination unit 83 outputs a signal BWN for controlling the video signal band to be narrowed, and supplies this to the control signal generation unit 82. In response to the signal BWN, the control signal generating section 82 supplies a control signal to the switching section 81 so that the video signal component of the stop area C2 becomes a narrow band. After a predetermined time length Tm has elapsed from time t4, the band of the video signal in the gaze area C2 is widened again. That is, after the elapse of this time Tm, the gaze time determination unit 8
3 outputs the signal BWW, the control signal generating section 82 widens the band of the video signal in the viewing area C2.

【0014】観察者は時刻t7からt8の期間において
、領域C3を注視するが、この時間長さはTvを越えて
いないので、注視領域C3の映像信号の帯域は広いまま
に保たれる。
[0014] The observer gazes at the region C3 during the period from time t7 to t8, but since this time length does not exceed Tv, the band of the video signal in the gaze region C3 remains wide.

【0015】次に、図1に示した制御信号発生部82の
動作について説明する。スイッチング部81は、帯域制
限されていない、すなわち広い帯域を有する映像信号S
aと、ローパスフィルタ2によって帯域制限された、す
なわち狭い帯域を有する映像信号Sbとを受ける。制御
信号発生部82は、映像信号の注視領域においてその帯
域を制御するのに必要な制御信号をスイッチング部81
に与える。すなわち、制御信号発生部82は、注視時間
判定部83から与えられる帯域制御信号BWに応答して
、注視領域における映像信号の帯域を制御するのに必要
な制御信号を発生し、それをスイッチング部81に与え
る。スイッチング部81は、与えられた制御信号に応答
して、受信した映像信号SaおよびSbに基づいて映像
信号を合成する。その結果、注視領域の映像信号の帯域
が制御された合成映像信号Scがスイッチング部81か
ら発生され、この合成映像信号が表示装置10に伝送さ
れる。伝送される合成映像信号Scは、観察者の注視状
態に応じて、注視領域の映像信号成分において帯域が減
少されているので、伝送情報量が減じられることになる
Next, the operation of the control signal generating section 82 shown in FIG. 1 will be explained. The switching unit 81 receives a video signal S that is not band-limited, that is, has a wide band.
a and a video signal Sb whose band is limited by the low-pass filter 2, that is, has a narrow band. The control signal generation unit 82 generates a control signal necessary for controlling the band in the viewing area of the video signal to the switching unit 81.
give to That is, the control signal generation unit 82 generates a control signal necessary for controlling the band of the video signal in the gaze area in response to the band control signal BW given from the gaze time determination unit 83, and transmits the control signal to the switching unit. Give to 81. The switching unit 81 synthesizes a video signal based on the received video signals Sa and Sb in response to a given control signal. As a result, the switching section 81 generates a composite video signal Sc in which the band of the video signal in the viewing area is controlled, and this composite video signal is transmitted to the display device 10. Since the synthesized video signal Sc to be transmitted has a reduced band in the video signal component of the viewing area according to the viewer's viewing state, the amount of transmitted information is reduced.

【0016】図1に示した実施例では、ローパスフィル
タ2を用いて映像信号の帯域を制限する場合について説
明がなされたが、これに限らず、たとえば映像信号に含
まれる色情報の解像度を下げたり、場合によってはモノ
クロにして伝送帯域を減少させることも有効であること
が指摘される。
In the embodiment shown in FIG. 1, a case has been described in which the low-pass filter 2 is used to limit the band of the video signal; however, the present invention is not limited to this. It has been pointed out that it is also effective to reduce the transmission band by making it monochrome in some cases.

【0017】画面上の注視領域の半径を決定する視覚V
θは、たとえば中心窩の次に解像度が高く、並列処理も
行なわれているParafoveaを含めて、3゜ない
し5゜が適当である。時間長さTmについては、たとえ
ば時間Tvが経過した後、次の注視点間での時間である
200ms(±100ms)が適当である。これは、時
間Tvが経過した後、人間の目は、一般にSaccad
eと呼ばれる飛ぶような運動を開始するため、このとき
Saccadic  Suppressionと呼ばれ
る視機能の低下が報告されていることに基づく。なお、
時間長さTvおよびTmならびに視覚Vθについては、
観察対象によって変化し、視覚実験を通じて任意に設定
されることになる。
Visual V that determines the radius of the gaze area on the screen
For example, 3° to 5° is appropriate for θ, including Parafovea, which has the second highest resolution after the fovea and performs parallel processing. As for the time length Tm, for example, 200 ms (±100 ms), which is the time between the next gaze points after the time Tv has elapsed, is appropriate. This means that after the time Tv has elapsed, the human eye generally
This is based on the fact that a decrease in visual function called Saccadic Suppression has been reported at this time because the patient starts a flying-like movement called Saccadic Suppression. In addition,
For time lengths Tv and Tm and visual Vθ,
It changes depending on the object to be observed, and can be arbitrarily set through visual experiments.

【0018】以下の説明では、図1に示した映像表示シ
ステムにおける観察者の視線の動きの検出およびそれに
基づく注視領域の抽出のための処理について記載する。
In the following explanation, processing for detecting the movement of the observer's line of sight and extracting the gaze area based on the movement in the video display system shown in FIG. 1 will be described.

【0019】図5は、図1に示した頭部運動検出装置6
のブロック図である。図5を参照して、この頭部運動検
出装置6は、基準磁界を発生する励磁コイル61と、励
磁コイル61を交流駆動するためのドライブ回路65と
、観察者の頭部に装着されたセンサコイル62と、観察
者の頭部に動きに応じてセンサコイル62に誘起された
電圧を検出する検出回路63と、検出回路63によって
検出された電圧に基づいて演算処理により観察者の頭部
運動を求めるCPU64とを含む。CPU64はドライ
ブ回路65をも制御する。励磁コイル61は、3軸(X
,Y,Z)方向に巻かれた3つのコイルにより構成され
る。各コイルには、ドライブ回路65から発生された、
それぞれ周波数の異なった駆動用電源電圧が供給される
。したがって、励磁コイル61によって3軸を基準とす
る磁界が発生され、その磁界の中に観察者がいることに
なる。センサコイル62も、(X,Y,Z)方向にそれ
ぞれ巻かれた3つの検出用コイルを備えている。観察者
の頭部が動くと、その動きに応じてセンサコイル62内
の各コイルに起電力が誘起される。各コイルに生じた起
電力を検出回路63により検出することにより、観察者
の頭部の動きに応じた信号が得られる。CPU64は、
この信号に基づいて演算処理することにより、観察者の
頭部の動きを示す頭部運動データHを求め、それを出力
する。
FIG. 5 shows the head motion detection device 6 shown in FIG.
FIG. Referring to FIG. 5, this head motion detection device 6 includes an excitation coil 61 that generates a reference magnetic field, a drive circuit 65 for AC driving the excitation coil 61, and a sensor attached to the head of the observer. a detection circuit 63 that detects the voltage induced in the sensor coil 62 according to the movement of the observer's head; and a detection circuit 63 that detects the movement of the observer's head through arithmetic processing based on the voltage detected by the detection circuit 63. and a CPU 64 that calculates the . The CPU 64 also controls a drive circuit 65. The excitation coil 61 has three axes (X
, Y, Z) direction. Each coil is provided with a signal generated from the drive circuit 65.
Driving power supply voltages having different frequencies are supplied. Therefore, a magnetic field based on the three axes is generated by the excitation coil 61, and the observer is present in the magnetic field. The sensor coil 62 also includes three detection coils wound in the (X, Y, Z) directions. When the observer's head moves, an electromotive force is induced in each coil in the sensor coil 62 in accordance with the movement. By detecting the electromotive force generated in each coil by the detection circuit 63, a signal corresponding to the movement of the observer's head can be obtained. The CPU 64 is
By performing arithmetic processing on the basis of this signal, head motion data H indicating the movement of the observer's head is obtained and output.

【0020】図3は、観察者の頭部運動の各運動パラメ
ータの方向を示す概略図である。観察者の前頭部に前述
のセンサコイル62が装着される。図3に示したパラメ
ータHx,Hy,Hz,Hθ,HφおよびHψは、それ
ぞれこの図に示す方向の頭部運動の動きを示している。 すなわち、Hxは頭部の水平平行運動を示し、Hyは前
後方向の動きを示し、Hzは垂直平行運動を示す。また
、Hθは首を左右に傾ける方向の運動を示し、Hφは首
の上下方向の回転運動を示し、Hψは頭部の左右方向の
回転運動を示す。
FIG. 3 is a schematic diagram showing the direction of each motion parameter of the observer's head motion. The aforementioned sensor coil 62 is attached to the forehead of the observer. The parameters Hx, Hy, Hz, Hθ, Hφ, and Hψ shown in FIG. 3 each indicate the movement of the head movement in the direction shown in this figure. That is, Hx indicates horizontal parallel motion of the head, Hy indicates forward-backward motion, and Hz indicates vertical parallel motion. Furthermore, Hθ indicates a movement in the direction of tilting the neck to the left and right, Hφ indicates a rotational movement of the neck in the vertical direction, and Hψ indicates a rotational movement of the head in the left and right direction.

【0021】図4は、観察者が表示装置10を見ている
様子を示す模式図である。図4を参照して、観察者は、
ゴーグルのような眼鏡を装着して、表示装置10の画面
上を観察している。予め定められた位置に前述の励磁コ
イル61が置かれる。センサコイル62(図示せず)は
、眼鏡66に取付けられている。観察者の頭部が動くこ
とにより、励磁コイル61とセンサコイル62との間の
位置関係が相対的に変化し、頭部運動検出が行なわれる
FIG. 4 is a schematic diagram showing how an observer looks at the display device 10. Referring to FIG. 4, the observer:
The user is observing the screen of the display device 10 while wearing glasses such as goggles. The above-mentioned excitation coil 61 is placed at a predetermined position. A sensor coil 62 (not shown) is attached to glasses 66. As the observer's head moves, the relative positional relationship between the excitation coil 61 and the sensor coil 62 changes, and head movement is detected.

【0022】図6は、図1に示した眼球運動検出装置5
における検出原理を示す概略図である。この装置では、
角膜表面の白目と黒目の反射率の違いを利用する強膜反
射方式を用いたものが一例として示される。他の方式と
して、角膜反射方式やサーチコイル方式も適用できる。 図6を参照して、左右の目E1およびE2の前方に、セ
ンサ71および72がそれぞれ配置される。各センサ7
1および72の中央には、発光素子73が配置される。 発光素子73として、比較的指向性の広い±21゜程度
の赤外線投射の発光ダイオードが用いられる。発光素子
73の両側には、受光素子74が設けられる。受光素子
74として、指向性の鋭い±10゜程度のフォトダイオ
ードが用いられる。発光素子73から眼球に向けて投射
された光は白目および黒目の部分で反射する。白目と黒
目とでは反射率が異なるので、この反射率の違いを増幅
し、差を取れば水平(左右)の眼球運動の動きが出力と
して得られ、和を取れば垂直(上下)方向の眼球の動き
が出力として得られる。
FIG. 6 shows the eye movement detection device 5 shown in FIG.
FIG. 2 is a schematic diagram showing the detection principle in FIG. With this device,
An example of this method uses a scleral reflection method that utilizes the difference in reflectance between the white and iris of the corneal surface. As other methods, a corneal reflection method and a search coil method can also be applied. Referring to FIG. 6, sensors 71 and 72 are placed in front of left and right eyes E1 and E2, respectively. Each sensor 7
A light emitting element 73 is arranged at the center of 1 and 72. As the light emitting element 73, a light emitting diode that emits infrared radiation with a relatively wide directivity of about ±21° is used. A light receiving element 74 is provided on both sides of the light emitting element 73. As the light receiving element 74, a photodiode with sharp directivity of approximately ±10° is used. The light projected from the light emitting element 73 toward the eyeball is reflected at the white and iris portions of the eye. The whites of the eyes and the iris have different reflectances, so if you amplify this difference in reflectance and take the difference, you will get the horizontal (left and right) eye movements as an output, and if you add the sum, you will get the vertical (up and down) eye movements. The movement of is obtained as output.

【0023】水平方向と垂直方向とでは、眼球に対する
センサ71および72の位置が異なり、水平方向のセン
サ71は眼球の上下に対して中央に反射光を検出し、垂
直方向のセンサ72は下方にて反射光を検出するように
それぞれ配置される。そして、一方の目E1に水平方向
のセンサ71が配置され、他方の目E2の垂直方向のセ
ンサ72が配置される。これらを同時に用いれば、2次
元的な眼球運動を検出することができる。このような検
出原理を用いて眼球の移動速度,移動方向,移動距離,
注視時間などを求める手法は、たとえば特開昭60−1
26140号公報において開示される。したがって、図
1に示した眼球運動検出装置5から観察者の眼球運動を
示すデータEが得られ、注視点処理装置7に与えられる
The positions of the sensors 71 and 72 with respect to the eyeball are different between the horizontal direction and the vertical direction, with the horizontal sensor 71 detecting the reflected light at the center of the eyeball above and below, and the vertical sensor 72 detecting the reflected light downward. and are arranged so as to detect the reflected light. A horizontal sensor 71 is placed on one eye E1, and a vertical sensor 72 is placed on the other eye E2. If these are used simultaneously, two-dimensional eye movement can be detected. Using this detection principle, the moving speed, direction, distance, and
For example, a method for determining gaze time, etc.
It is disclosed in Japanese Patent No. 26140. Therefore, data E indicating the observer's eyeball movement is obtained from the eyeball movement detection device 5 shown in FIG. 1 and is provided to the gaze point processing device 7.

【0024】図7は、観察者が装着する眼鏡66の概略
図である。この眼鏡66には、眼球運動を検出するため
の水平方向のセンサ71と、頭部運動を検出するための
センサコイル62とが設けられている。
FIG. 7 is a schematic diagram of glasses 66 worn by an observer. The glasses 66 are provided with a horizontal sensor 71 for detecting eye movement and a sensor coil 62 for detecting head movement.

【0025】図8は、頭部運動による視線の動きを説明
するための概略図である。図8を参照して、一般に視対
象が移動すると、眼球はその視対象に追従して動く。こ
の眼球の動きに代えて、頭部を移動させることによって
も視対象を追いかけることができる。通常は、両者の動
きを併用して行なっている。頭部運動には、足や背骨の
向きによる平行移動と、首,背骨,腰,足などによって
実現される回転運動とがある。この頭部運動を後述する
方法により、眼球の回転角へ換算し、図8に示した頭部
運動補正眼球回転角αが得られる。図1に示した注視点
処理装置7では、この頭部運動補正眼球回転角αと眼球
自身の回転角θとの組合わせにより、視線データが表現
される。ここで、この回転角αとθの和を総称して視線
と定義する。
FIG. 8 is a schematic diagram for explaining the movement of the line of sight due to head movement. Referring to FIG. 8, generally when a visual object moves, the eyeball moves to follow the visual object. Instead of moving the eyeballs, it is also possible to track the visual object by moving the head. Usually, both movements are used together. Head movements include parallel movements caused by the orientation of the feet and spine, and rotational movements realized by the neck, spine, hips, legs, etc. This head movement is converted into an eyeball rotation angle by a method described later, and a head movement corrected eyeball rotation angle α shown in FIG. 8 is obtained. In the gaze point processing device 7 shown in FIG. 1, line of sight data is expressed by a combination of the head movement corrected eyeball rotation angle α and the eyeball rotation angle θ. Here, the sum of the rotation angles α and θ is collectively defined as the line of sight.

【0026】図1に示した注視点処理装置7における処
理を以下に説明する。注視点処理装置7は、頭部運動デ
ータHと眼球運動データEとを受ける。データHの水平
運動成分として(Hx,Hy,Hz)が与えられ、回転
運動成分として(Hφ,Hθ,Hψ)が与えられるもの
とする。頭部運動の水平成分(Hx,Hy,Hz)によ
り視線が変化するが、これを眼球回転角(Ex,Ey)
に換算するには次式が用いられる。ここでDは被験者と
観察対象までの距離である。
The processing in the gaze point processing device 7 shown in FIG. 1 will be explained below. The gaze point processing device 7 receives head movement data H and eye movement data E. It is assumed that (Hx, Hy, Hz) is given as the horizontal motion component of data H, and (Hφ, Hθ, Hψ) is given as the rotational motion component. The line of sight changes due to the horizontal component of head movement (Hx, Hy, Hz), which can be expressed as the eye rotation angle (Ex, Ey).
The following formula is used to convert to . Here, D is the distance between the subject and the observation target.

【0027】[0027]

【数1】[Math 1]

【0028】首を左肩方向または右肩方向にHθだけ傾
げると、眼球運動系の座標が回転する。したがって、H
θだけ傾いた眼球運動座標系(Xe,Ye)を元の観察
対象に直交した座標系(Xe′,Ye′)に変換する必
要がある。そのため次式が用いられる。
When the head is tilted by Hθ towards the left or right shoulder, the coordinates of the eye movement system rotate. Therefore, H
It is necessary to convert the eye movement coordinate system (Xe, Ye) tilted by θ to a coordinate system (Xe', Ye') orthogonal to the original observation object. Therefore, the following formula is used.

【0029】[0029]

【数2】 Xe′=Xe・cosHθ+Ye・sinHθ    
              ……(3)Ye′=−X
e・sinHθ+Ye・cosHθ         
       ……(4)頭部運動により実現される視
線の動き(Xh,Yh)は、式(1)および(2)から
、次式により表わされる。
[Formula 2] Xe′=Xe・cosHθ+Ye・sinHθ
...(3) Ye'=-X
e・sinHθ+Ye・cosHθ
(4) The movement of the line of sight (Xh, Yh) realized by head movement is expressed by the following equation from equations (1) and (2).

【0030】[0030]

【数3】 Xh=Ex+Hψ                 
                         
  ……(5)Yh=Ey+Hφ          
                         
         ……(6)したがって、頭の動きを
考慮した視線の動き(Xv,Yv)は、式(3)ないし
(6)より、次式により表わされる。
[Math. 3] Xh=Ex+Hψ

...(5) Yh=Ey+Hφ

(6) Therefore, the movement of the line of sight (Xv, Yv) in consideration of the movement of the head is expressed by the following equation from equations (3) to (6).

【0031】[0031]

【数4】 Xv=Xe′+Xh                
                         
 ……(7)Yv=Ye′+Yh          
                         
       ……(8)式(7)および(8)を用い
ることにより、頭部運動と眼球運動とを組合わせて行な
われている通常の視線の動きを再現することができる。 以上のような処理は、図1に示した注視点処理装置7に
おいて行なわれ、視線の動きを示す視線データが注視領
域分離装置3に与えられる。
[Formula 4] Xv=Xe′+Xh

...(7) Yv=Ye′+Yh

...(8) By using equations (7) and (8), it is possible to reproduce the normal movement of the line of sight that is performed by combining head movement and eyeball movement. The above processing is performed in the gaze point processing device 7 shown in FIG. 1, and gaze data indicating the movement of the gaze is given to the gaze area separation device 3.

【0032】注視領域分離装置3では、与えられた視線
データに基づき、観察者の画面上での注視領域を示すデ
ータを得る。具体的には、図2(A)に示すように、注
視領域C3は、その半径Dthが予め定められたしきい
値速度Vthとサンプリング間隔Tsとの積により決ま
る。すなわち、現在の視点の位置をP1として、半径D
thにより決まる領域が画面上の注視領域C3とされる
The gaze area separation device 3 obtains data indicating the observer's gaze area on the screen based on the given line of sight data. Specifically, as shown in FIG. 2A, the radius Dth of the gaze area C3 is determined by the product of a predetermined threshold speed Vth and a sampling interval Ts. That is, assuming the current viewpoint position as P1, the radius D
The area determined by th is defined as the gaze area C3 on the screen.

【0033】視線検出によって得られるデータの座標と
表示装置10における画面上での座標とが異なっている
ので、次のような座標変換が行なわれる。図9は、視線
検出における座標と画面上での座標との対応を示す座標
図である。図9(A)を参照して、表示装置10の画面
が観察者から距離Dだけ離れた位置に置かれ、画面のサ
イズが縦Dv,横Dhであるものと仮定する。したがっ
て、画面上での座標は(1,1)…(Px,Py)によ
り表わされる。したがって、観察者から見た画面の視角
は、図9(B)に示すように、次式により表わされる。
Since the coordinates of the data obtained by line-of-sight detection are different from the coordinates on the screen of the display device 10, the following coordinate transformation is performed. FIG. 9 is a coordinate diagram showing the correspondence between coordinates in line-of-sight detection and coordinates on the screen. Referring to FIG. 9A, it is assumed that the screen of the display device 10 is placed at a distance D from the viewer, and the screen size is Dv in height and Dh in width. Therefore, the coordinates on the screen are represented by (1, 1)...(Px, Py). Therefore, the viewing angle of the screen as seen from the observer is expressed by the following equation, as shown in FIG. 9(B).

【0034】[0034]

【数5】 a=180/π・tan−1Dh/(2・D)    
                ……(9)b=18
0/π・tan−1Dv/(2・D)        
          ……(10)ここで、視線移動角
をXv,Yvとすると、これを画面上の座標Xp,Yp
に変換する式は、次式により表わされる。
[Formula 5] a=180/π・tan-1Dh/(2・D)
...(9)b=18
0/π・tan−1Dv/(2・D)
...(10) Here, if the line-of-sight movement angle is Xv, Yv, then this is the coordinate Xp, Yp on the screen.
The formula for converting into is expressed by the following formula.

【0035】[0035]

【数6】 Xp=f(Xv)=p+(r−p)・Xv/(a−Xv
)      ……(11)Yq=g(Yv)=q+(
s−q)・Yv/(b−Yv)      ……(12
)したがって、上記の式を使用することにより、視線検
出に基づいて得られた注視領域およびその周辺領域の座
標データを画面上での座標データに変換することができ
る。その結果、図1に示した制御信号発生部82から、
注視領域とその周辺領域とを区別して画像処理を行なう
のに必要な制御信号を発生させることができる。
[Formula 6] Xp=f(Xv)=p+(r-p)・Xv/(a-Xv
) ...(11) Yq=g(Yv)=q+(
s-q)・Yv/(b-Yv)...(12
) Therefore, by using the above equation, the coordinate data of the gaze area and its surrounding area obtained based on the line of sight detection can be converted into coordinate data on the screen. As a result, from the control signal generation section 82 shown in FIG.
It is possible to generate a control signal necessary for performing image processing while distinguishing between a gaze area and its surrounding area.

【0036】[0036]

【発明の効果】以上のように、この発明によれば、観察
者の注視時間長さに応じて、伝送されるべき映像信号の
注視領域の映像情報量を減少させる映像情報減少手段を
設けたので、表示装置へ伝送される映像信号の情報量を
減少させることのできる映像表示システムが得られた。
[Effects of the Invention] As described above, according to the present invention, a video information reducing means is provided for reducing the amount of video information in the viewing area of the video signal to be transmitted in accordance with the length of the viewer's viewing time. Therefore, a video display system capable of reducing the amount of information in a video signal transmitted to a display device has been obtained.

【図面の簡単な説明】[Brief explanation of drawings]

【図1】この発明の一実施例を示す映像表示システムの
ブロック図である。
FIG. 1 is a block diagram of a video display system showing an embodiment of the present invention.

【図2】図1に示した画像処理装置における処理を説明
するためのタイミング図である。
FIG. 2 is a timing diagram for explaining processing in the image processing apparatus shown in FIG. 1.

【図3】観察者の頭部運動の各運動パラメータの方向を
示す概略図である。
FIG. 3 is a schematic diagram showing the direction of each motion parameter of the observer's head motion.

【図4】観察者が表示装置を見ている様子を示す概略図
である。
FIG. 4 is a schematic diagram showing how an observer looks at the display device.

【図5】図1に示した頭部運動検出装置のブロック図で
ある。
FIG. 5 is a block diagram of the head motion detection device shown in FIG. 1.

【図6】図1に示した眼球運動検出装置における検出原
理を示す概略図である。
6 is a schematic diagram showing a detection principle in the eye movement detection device shown in FIG. 1. FIG.

【図7】観察者が装着する眼鏡の概略図である。FIG. 7 is a schematic diagram of glasses worn by an observer.

【図8】頭部運動における視線の動きを説明するための
概略図である。
FIG. 8 is a schematic diagram for explaining the movement of the line of sight during head movement.

【図9】視線検出における座標と画面上での座標との対
応を示す座標図である。
FIG. 9 is a coordinate diagram showing the correspondence between coordinates in line-of-sight detection and coordinates on the screen.

【図10】人間の注視時間と正答率との間の関係を示す
グラフである。
FIG. 10 is a graph showing the relationship between human gaze time and correct answer rate.

【符号の説明】[Explanation of symbols]

1  映像信号発生装置 2  ローパスフィルタ 7  注視点処理装置 8  画像処理装置 10  表示装置 81  スイッチング部 82  制御信号発生部 83  注視時間判定部 1 Video signal generator 2 Low pass filter 7 Gaze point processing device 8 Image processing device 10 Display device 81 Switching section 82 Control signal generation section 83 Gaze time determination unit

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】  映像信号発生手段と、前記映像信号発
生手段から発生された映像信号に基づいて映像を画面上
に表示する映像表示手段と、前記映像表示手段によって
表示された映像を観察する観察者の画面上の注視領域お
よび注視時間長さを検出する注視状態検出手段と、前記
注視状態検出手段によって検出された注視時間長さが予
め定められた時間長さを越えていることを判定する注視
時間長さ判定手段と、前記注視時間長さ判定手段に応答
して、前記映像信号発生手段から発生された映像信号の
注視領域の映像情報量を減少させる映像情報減少手段と
を含み、前記映像表示手段は、前記映像情報減少手段に
よって情報量が減少された映像信号に基づいて映像を画
面上に表示する、映像表示システム。
1. A video signal generating means, a video display means for displaying a video on a screen based on the video signal generated from the video signal generating means, and an observation for observing the video displayed by the video display means. gaze state detection means for detecting a gaze area and gaze time length on a screen of a person; and determining that the gaze time length detected by the gaze state detection means exceeds a predetermined time length. a gaze time length determining means; and a video information reducing means for reducing the amount of video information in the gaze area of the video signal generated from the video signal generating means in response to the gaze time length determining means; The video display system is a video display system in which the video display means displays video on the screen based on the video signal whose information amount has been reduced by the video information reduction means.
【請求項2】  前記予め定められた時間長さは、人間
の注視時間長さ−正答率特性に基づいて決定され、前記
映像情報減少手段は、前記注視時間長さ判定手段に応答
して、前記映像信号発生手段から発生された映像信号の
注視領域成分の帯域を減少させる映像帯域減少手段を含
む、請求項1に記載の映像表示システム。
2. The predetermined time length is determined based on a human gaze time length-correct answer rate characteristic, and the video information reduction means responds to the gaze time length determination means to: 2. The video display system according to claim 1, further comprising video band reducing means for reducing a band of a gaze area component of the video signal generated by said video signal generating means.
JP5894891A 1991-03-22 1991-03-22 Video display system Expired - Fee Related JPH0738706B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5894891A JPH0738706B2 (en) 1991-03-22 1991-03-22 Video display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5894891A JPH0738706B2 (en) 1991-03-22 1991-03-22 Video display system

Publications (2)

Publication Number Publication Date
JPH04293376A true JPH04293376A (en) 1992-10-16
JPH0738706B2 JPH0738706B2 (en) 1995-04-26

Family

ID=13099054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5894891A Expired - Fee Related JPH0738706B2 (en) 1991-03-22 1991-03-22 Video display system

Country Status (1)

Country Link
JP (1) JPH0738706B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0713497A (en) * 1993-06-14 1995-01-17 Atr Tsushin Syst Kenkyusho:Kk Image display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0713497A (en) * 1993-06-14 1995-01-17 Atr Tsushin Syst Kenkyusho:Kk Image display device

Also Published As

Publication number Publication date
JPH0738706B2 (en) 1995-04-26

Similar Documents

Publication Publication Date Title
US11854150B2 (en) Frame-by-frame rendering for augmented or virtual reality systems
Allison et al. Tolerance of temporal delay in virtual environments
US7825996B2 (en) Apparatus and method for virtual retinal display capable of controlling presentation of images to viewer in response to viewer's motion
US20060098087A1 (en) Housing device for head-worn image recording and method for control of the housing device
EP2056155A2 (en) Method and apparatus for three-dimensional (3D) viewing
KR20110101944A (en) 3-dimension glasses, method for driving 3-dimension glass and system for providing 3d image
KR101203921B1 (en) Information providing apparatus using an eye tracking and local based service
JP2011010126A (en) Image processing apparatus, and image processing method
CN114616511A (en) System and method for improving binocular vision
US20200213467A1 (en) Image display system, image display method, and image display program
JP2006133252A (en) Device for generating virtual reality
JP4708590B2 (en) Mixed reality system, head mounted display device, mixed reality realization method and program
JPH0449943A (en) Eye ball motion analyzer
JPH04293376A (en) Video display system
JPH04293375A (en) Video display system
KR100380994B1 (en) Three-dimensional display apparatus and method with gaze point feedback
State et al. Dynamic virtual convergence for video see-through head-mounted displays: Maintaining maximum stereo overlap throughout a close-range work space
JPH04288122A (en) Line-of-sight display device
JPH0684421U (en) Video display

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19951024

LAPS Cancellation because of no payment of annual fees