JP3504111B2 - Stereoscopic system, stereoscopic method, and storage medium for storing computer program for displaying a pair of images viewed from two different viewpoints in a stereoscopic manner - Google Patents

Stereoscopic system, stereoscopic method, and storage medium for storing computer program for displaying a pair of images viewed from two different viewpoints in a stereoscopic manner

Info

Publication number
JP3504111B2
JP3504111B2 JP17179897A JP17179897A JP3504111B2 JP 3504111 B2 JP3504111 B2 JP 3504111B2 JP 17179897 A JP17179897 A JP 17179897A JP 17179897 A JP17179897 A JP 17179897A JP 3504111 B2 JP3504111 B2 JP 3504111B2
Authority
JP
Japan
Prior art keywords
model
stereoscopic
image
gaze
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP17179897A
Other languages
Japanese (ja)
Other versions
JPH1083460A (en
Inventor
研一 亀山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP17179897A priority Critical patent/JP3504111B2/en
Publication of JPH1083460A publication Critical patent/JPH1083460A/en
Application granted granted Critical
Publication of JP3504111B2 publication Critical patent/JP3504111B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Digital Computer Display Output (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は両眼立体視システム
に係り、とりわけディスプレイに表示される場面の変化
に合わせて自動的に立体視条件を変化させることにより
ユーザーの疲労を低減させることができる立体視システ
ム及び立体視方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a binocular stereoscopic vision system, and in particular, it is possible to reduce user fatigue by automatically changing the stereoscopic vision conditions in accordance with changes in the scene displayed on the display. The present invention relates to a stereoscopic vision system and a stereoscopic vision method.

【0002】[0002]

【従来の技術】従来から、ディスプレイ面、すなわち2
次元の面上に、所定のずれ量(両眼視差)を与えた左眼
用の画像と右眼用の画像とを表示し、これら両画像を融
合させることにより立体視を行う両眼立体視システムが
知られている。このような両眼立体視システムにおいて
は、調節と輻輳の矛盾という本質的な問題がある。すな
わち、実際に画像が表示されているのはディスプレイ面
上であるため、眼のピント(調節位置)は常時ディスプ
レイ面に合っているが、輻輳眼球運動により定まる注視
点の位置は、ディスプレイ面上に表示される左眼用画像
と右眼用画像のずれ量により定まるため、ディスプレイ
面上に位置しない場合がほとんどである。
2. Description of the Related Art Conventionally, a display surface, that is, 2
Binocular stereoscopic vision for displaying stereoscopic vision by displaying an image for the left eye and an image for the right eye that have been given a predetermined amount of displacement (binocular parallax) on a dimensional plane, and fusing these images The system is known. In such a binocular stereoscopic system, there is an essential problem of contradiction between accommodation and convergence. That is, since the image is actually displayed on the display surface, the eye focus (adjustment position) always matches the display surface, but the position of the gazing point determined by the vergence eye movement is on the display surface. Since it is determined by the amount of shift between the image for the left eye and the image for the right eye displayed in, it is almost not located on the display surface.

【0003】このように調節と輻輳の矛盾がある場合に
おいて、矛盾の量が小さい場合は、人間は左眼用画像と
右眼用画像を融合させる能力をもっており、立体視を行
うことができる。しかし、矛盾の量が大きくなってくる
と、人間は左眼用画像と右眼用画像を融合させることが
できなくなるか、融合させることができた場合でも眼の
疲労が大きくなり、立体視を行うことが不可能または困
難となってくる。
When there is a contradiction between the adjustment and the convergence as described above, when the amount of the contradiction is small, a human has the ability to fuse the image for the left eye and the image for the right eye and can perform stereoscopic vision. However, as the amount of contradiction increases, humans cannot merge the left-eye image and the right-eye image, or even if they are able to fuse, the eye fatigue increases and stereoscopic vision becomes difficult. It becomes impossible or difficult to do.

【0004】このため、従来、システムのユーザがトラ
イアンドエラーにより見やすいように立体視条件を調整
する必要があった。また、静止画像の場合にはこの作業
は比較的容易であるが、動画の場合には、撮影対象によ
って視聴者の注視点の位置が変化するため、場面によっ
て立体視条件を設定し直さなければならならず、非常に
面倒な作業を強いられることになる。従って動画の場合
には、再生中の立体視条件の変更は行われていないとい
うのが実状である。
Therefore, conventionally, it has been necessary to adjust the stereoscopic condition so that the user of the system can easily see the image due to trial and error. In the case of a still image, this work is relatively easy, but in the case of a moving image, the position of the gazing point of the viewer changes depending on the shooting target. Therefore, it is necessary to reset the stereoscopic condition depending on the scene. Not only that, it will be a very troublesome task. Therefore, in the case of a moving image, the actual condition is that the stereoscopic condition during reproduction is not changed.

【0005】また、このような立体視システムのディス
プレイには、文字情報、メニュー、ボタン等のグラフィ
ックユーザーインターフェースアイテムが表示される場
合が多い。しかしながら、このグラフィックユーザーイ
ンターフェースアイテムについては、立体視表示画像の
立体視処理に合わせた処理がなされていないためユーザ
は、画面に違和感を感じることが多い。
Further, graphic user interface items such as character information, menus and buttons are often displayed on the display of such a stereoscopic system. However, with respect to this graphic user interface item, since processing according to the stereoscopic processing of the stereoscopic display image has not been performed, the user often feels something strange on the screen.

【0006】一方、近年、DVD等の普及によって、シ
ステムのユーザが自分の見たい角度から画像を眺められ
る機能を備えたシステムが実現されている。このような
画像表示システムについても、より効果的な立体視効果
を持たせるためのシステムが望まれているが、このため
にも、前記のような問題点を解決することが強く望まれ
ている。
On the other hand, in recent years, with the spread of DVDs and the like, a system having a function of allowing a user of the system to view an image from an angle desired by the user has been realized. Also for such an image display system, a system for providing a more effective stereoscopic effect is desired, and also for this purpose, it is strongly desired to solve the above problems. .

【0007】[0007]

【発明が解決しようとする課題】本発明は、このような
ことを考慮してなされたものであり、場面の変化に合わ
せて立体視条件を自動的に決定する機能を実現すること
により、システムのユーザに繁雑な操作を要求せず、か
つ使用者の眼に疲労感を与えない立体視システム及び立
体視方法を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in consideration of the above circumstances, and realizes a system by realizing a function of automatically determining a stereoscopic viewing condition according to a change in a scene. It is an object of the present invention to provide a stereoscopic vision system and a stereoscopic vision method that do not require the user to perform complicated operations and do not give the user a feeling of fatigue.

【0008】また、本発明の別の目的は、モデルと同時
に表示されるグラフィックユーザーインターフェースア
イテムについてもモデルに対して違和感のないように表
示することができる機能を実現し、使用者の疲労感を与
えない立体視システム及び立体視方法を提供することに
ある。
Another object of the present invention is to realize a function of displaying a graphic user interface item displayed at the same time as the model without causing a feeling of discomfort with respect to the model, thereby reducing a user's feeling of fatigue. It is to provide a stereoscopic system and a stereoscopic method which do not give.

【0009】さらなる別の目的は、場面に合わせて立体
視条件を変更させるための情報の生成方法、及びその生
成方法により作成された情報を前記右眼画像情報と左眼
用画像情報とと共に格納したDVD等の記録媒体を提供
し、さらには、この記録媒体の製造装置及び再生装置を
提供することにある。
Still another object is a method of generating information for changing a stereoscopic condition according to a scene, and information generated by the method is stored together with the right eye image information and the left eye image information. The present invention provides a recording medium such as a DVD, and further provides a manufacturing apparatus and a reproducing apparatus for this recording medium.

【0010】[0010]

【課題を解決するための手段】以上のような目的を達成
するため、請求項1記載の発明は、ディスプレイに、モ
デルを、互いに異なる2つの視点から見てなる一対の右
眼用・左眼用画像を用いて、立体視可能に表示するため
の立体視システムにおいて、モデルに対し観察者が注視
する可能性の高い範囲を決定する注視範囲決定手段と、
前記モデルのデータを変更することによって、前記注視
範囲決定手段により決定された注視範囲が立体視容易領
域内に入るように前記モデルをディスプレイ面と直交す
る方向に移動するモデル移動手段と、このモデル移動手
段によって変更されたモデルのデータを変更することに
よって、前記モデル移動手段により移動されたモデルの
大きさを移動距離に対応して拡大縮小するモデル拡大縮
小手段と、前記モデル移動手段により移動されるととも
に前記モデル拡大縮小手段により大きさが変更された後
のモデルのデータに基づいて、前記ディスプレイ上に表
示される画像データを作成する画像データ作成手段とを
備えるものである。
In order to achieve the above-mentioned object, the invention according to claim 1 is a pair of right and left eyes in which a model is displayed on a display from two different viewpoints. In the stereoscopic system for stereoscopically displaying using the image for viewing, a gaze range determining unit that determines a range in which the observer is likely to gaze at the model,
Model moving means for moving the model in a direction orthogonal to the display surface so that the gaze range determined by the gaze range determining means falls within the easy stereoscopic view by changing the data of the model, and the model moving means. By changing the data of the model changed by the moving means, the size of the model moved by the model moving means is increased or reduced according to the movement distance, and the model moving means moves the model. And image data creating means for creating image data to be displayed on the display based on the model data whose size has been changed by the model scaling means.

【0011】請求項1記載の発明によれば、注視範囲決
定手段により注視範囲が推定され、この注視範囲が立体
視容易領域内に入るようにモデルが奥行き方向に移動さ
れる。次いで、モデル拡大縮小手段によりモデルの大き
さが移動距離に対応して変化させられる。このようにし
て改変されたモデルのデータは画像データ作成手段に送
られ、画像データ作成手段はディスプレイ上に表示され
る画像データを作成する。
According to the first aspect of the present invention, the gaze range is estimated by the gaze range determining means, and the model is moved in the depth direction so that the gaze range falls within the easy stereoscopic view region. Next, the size of the model is changed by the model enlarging / reducing means according to the moving distance. The data of the model thus modified is sent to the image data creating means, and the image data creating means creates the image data to be displayed on the display.

【0012】請求項1記載の立体視システムは、前記モ
デル移動手段により移動されたモデルのうちの少なくと
もその要部が立体視容易領域内に入るように視点から見
た奥行き方向の縮尺を設定する奥行き距離縮小手段を更
に備えることが好ましい。
In the stereoscopic system according to the first aspect, the scale in the depth direction viewed from the viewpoint is set so that at least a main part of the model moved by the model moving means is within the stereoscopic easy area. It is preferable to further include depth distance reducing means.

【0013】請求項1記載の立体視システムは、実際に
表示された画像に対する視線および注視範囲を検出する
視線・注視範囲検出手段を更に備え、前記モデル移動手
段は、前記視線・注視範囲検出手段により検出された注
視範囲に基づいて前記モデルをディスプレイと直交する
方向に移動することが好ましい。
The stereoscopic system according to claim 1 further comprises line-of-sight / gaze-range detecting means for detecting a line-of-sight and a gaze range with respect to an actually displayed image, and the model moving means has the line-of-sight / gaze range detecting means. It is preferable to move the model in a direction orthogonal to the display based on the gaze range detected by.

【0014】請求項1記載の立体視システムの前記モデ
ル移動手段は、視点から見たモデルの配置条件が変化
し、この変化に合わせてモデルを移動する場合、前記配
置条件の変化が生じた時点から所定時間内、前記モデル
の注視範囲の移動量を輻輳角に換算してほぼ1度以上に
なることを防止する手段を有することが好ましい。
The model moving means of the stereoscopic system according to claim 1 changes the arrangement condition of the model viewed from the viewpoint, and when the model is moved in accordance with this change, the time when the arrangement condition changes. It is preferable to have a means for preventing the movement amount of the gaze range of the model from becoming 1 degree or more in terms of the convergence angle within a predetermined time.

【0015】請求項5記載の発明は、ディスプレイに、
モデルを、互いに異なる2つの視点から見た一対の画像
を用いて立体視可能に表示する立体視システムにおい
て、モデルに対し観察者が注視する可能性の高い部分を
決定する注視範囲決定手段と、前記注視範囲決定手段の
出力に基づいて、モデルのデータの前記一対の左、右眼
用画像上への透視変換方法を決定する透視変換決定手段
と、前記透視変換決定手段により決定された透視変換方
法に基づいて前記ディスプレイ上に表示される画像デー
タを作成する画像データ作成手段とを備えるものであ
る。
The invention according to claim 5 is a display,
In a stereoscopic system that stereoscopically displays a model using a pair of images viewed from two different viewpoints, a gaze range deciding unit that decides a part that is likely to be gazed by an observer with respect to the model, Based on the output of the gaze range determining means, a perspective transformation determining means for determining a perspective transformation method of the model data on the pair of left and right eye images, and a perspective transformation determined by the perspective transformation determining means. Image data creating means for creating image data to be displayed on the display based on a method.

【0016】このような構成によれば、請求項1の発明
のように実際にモデルを移動及び拡大・縮小することな
く、透視変換の手法により立体視容易な画像データを生
成することができる。
With such a configuration, it is possible to generate image data that is easily stereoscopically viewed by the perspective conversion method without actually moving and enlarging / reducing the model as in the first aspect of the invention.

【0017】請求項5記載の立体視システムの前記透視
変換決定手段は、前記注視範囲決定手段により決定され
た前記注視範囲像の前記一対の画像中での基準位置から
のずれが視野角にして2度以内になるような透視変換方
法を決定することが好ましい。
According to a fifth aspect of the present invention, in the perspective transformation determining means, the deviation from the reference position in the pair of images of the gaze range image determined by the gaze range determining means becomes a viewing angle. It is preferable to determine the perspective transformation method so that it is within 2 degrees.

【0018】請求項5記載の立体視システムは、視点か
ら見たモデルの配置条件が変化した場合、前記透視変換
作成手段により作成された透視変換方法を用いて前記画
像データ作成手段により作成された画像のずれの変化量
が輻輳角に換算してほぼ1度以上とすることを防止する
機能を更に有することが好ましい。
According to a fifth aspect of the present invention, when the arrangement condition of the model viewed from the viewpoint changes, the stereoscopic vision system is created by the image data creating means by using the perspective transforming method created by the perspective transform creating means. It is preferable to further have a function of preventing the change amount of the image shift from being approximately 1 degree or more in terms of the angle of convergence.

【0019】請求項1、5記載の立体視システムは、前
記注視範囲決定手段は、観察者の視点から見た前記モデ
ルの配置条件、色調、明度、彩度、大きさ、複雑さ、移
動速度のうちの全部または一部を考慮して、両眼の注視
範囲を推定する手段を有することが好ましい。
In the stereoscopic system according to any one of claims 1 and 5, the gaze range deciding means is arranged from the viewpoint of an observer, and the arrangement condition, the color tone, the brightness, the saturation, the size, the complexity, and the moving speed of the model. It is preferable to have means for estimating the gaze range of both eyes in consideration of all or part of the above.

【0020】請求項1、5記載の立体視システムは、視
野外に存在するモデルのデータを除外する視野外データ
除外手段を更に備えることが好ましい。
It is preferable that the stereoscopic system according to claims 1 and 5 further comprises an out-of-view data excluding means for excluding model data existing outside the field of view.

【0021】請求項7記載の立体視システムは、実際に
表示された画像に対する視線および注視範囲を検出する
視線・注視範囲検出手段を更に備え、前記視野外データ
除外手段は、前記視線・注視範囲検出手段により検出さ
れた視線に基づいて視野を算出し、視野外に存在するデ
ータを除外することが好ましい。
The stereoscopic system according to claim 7 further comprises line-of-sight / gaze-range detecting means for detecting a line-of-sight and a gaze range with respect to an actually displayed image, and the out-of-field data excluding means includes the line-of-sight / gaze range. It is preferable to calculate the visual field based on the line of sight detected by the detection means and exclude the data existing outside the visual field.

【0022】請求項1、5記載の立体視システムは、表
示されるモデルの色調を、視点より奥行き方向に遠ざか
るに従って背景色の色調に近づける色調変更手段を更に
備えることが好ましい。
It is preferable that the stereoscopic system according to claims 1 and 5 further comprises color tone changing means for bringing the color tone of the displayed model closer to the color tone of the background color as it goes away from the viewpoint in the depth direction.

【0023】請求項1、5記載の立体視システムの前記
画像データ作成手段は、ディスプレイ上に表示されるグ
ラフィックユーザーインターフェースアイテムの立体視
条件を定める機能を更に有していることが好ましい。
It is preferable that the image data creating means of the stereoscopic vision system according to any one of claims 1 and 5 further has a function of determining a stereoscopic vision condition of the graphic user interface item displayed on the display.

【0024】請求項1、5記載の立体視システムは、前
記モデルがディスプレイ画面端部に位置する場合、左右
画像の縁部をぼかすぼかし手段を有していることが好ま
しい。
In the stereoscopic system according to the first and fifth aspects, it is preferable that the stereoscopic system has a blurring means for blurring the edges of the left and right images when the model is located at the edge of the display screen.

【0025】請求項1、5記載の立体視システムは、さ
らに、立体視条件を変化させ立体視効果を弱めることで
眼の疲れを軽減する手段を有していることが好ましい。
It is preferable that the stereoscopic vision system according to claims 1 and 5 further comprises means for reducing eye strain by changing the stereoscopic vision condition to weaken the stereoscopic vision effect.

【0026】請求項13記載の発明は、ディスプレイ
に、互いに異なる2つの視点から見た一対の画像を立体
視可能に表示する立体視システムにおいて、観察者が注
視する可能性の高い画像部分を決定する注視範囲決定手
段と、前記注視範囲決定手段の出力に基づいて、この注
視範囲が立体視容易な領域になるような画像変換方法を
決定する画像変換決定手段と、この画像変換決定手段の
出力に基づいて前記ディスプレイ上に表示される画像デ
ータを作成する画像データ作成手段とを備えるものであ
る。
According to a thirteenth aspect of the present invention, in a stereoscopic vision system in which a pair of images viewed from two different viewpoints are stereoscopically displayed on a display, an image portion which an observer is likely to gaze is determined. Gaze range determining means, and based on the output of the gaze range determining means, an image conversion determining means that determines an image converting method such that the gaze range becomes an area that facilitates stereoscopic viewing, and an output of the image conversion determining means. And image data creating means for creating image data to be displayed on the display based on the above.

【0027】このような構成によれば、実写画像を立体
視する場合にも適用でき、この実写画像について立体視
容易な画像データを生成することができる。
With such a configuration, it can be applied to the case of stereoscopically viewing a real shot image, and it is possible to generate image data for this real shot image that is easily stereoscopically viewed.

【0028】請求項13記載の立体視システムの前記注
視範囲決定手段は、画素または画像領域の画面中での位
置、色調、明度、彩度、大きさ、複雑さ、動きのうちの
全部または一部を考慮することにより、観察者が注視す
る可能性の高い画像部分を少なくとも一つ以上推定する
機能を有することが好ましい。
In the stereoscopic vision system according to the thirteenth aspect, the gaze range determining means is all or one of a position, a color tone, a lightness, a saturation, a size, a complexity, and a movement of a pixel or an image area in a screen. It is preferable to have a function of estimating at least one image portion that is highly likely to be gazed at by the observer, by considering the parts.

【0029】請求項13記載の立体視システムの前記画
像変換決定手段は、前記注視部決定手段により決定され
た注視範囲内の基準点の左右画像間でのずれが、視野角
にして2度以内になるように変換方法を決定することが
好ましい。
[0029] In the stereoscopic vision system according to the thirteenth aspect, the image conversion determining means has a deviation of a reference point within the gazing range determined by the gazing part determining means between the left and right images within a viewing angle of 2 degrees. It is preferable to determine the conversion method so that

【0030】請求項13記載の立体視システムの前記注
視範囲決定手段は、実際に表示された画像に対する視線
および注視範囲を検出する視線・注視範囲検出手段によ
り構成されることが好ましい。
It is preferable that the gaze range determining means of the stereoscopic system according to the thirteenth aspect is constituted by a gaze / gaze range detecting means for detecting a gaze and a gaze range with respect to an actually displayed image.

【0031】請求項13記載の立体視システムは、表示
される画像の明度、色調を、前記注視部分以外の部分で
視認性が低くなるように変更する手段を有することが好
ましい。
It is preferable that the stereoscopic system according to the thirteenth aspect has means for changing the lightness and color tone of the displayed image so that the visibility becomes low in a portion other than the gaze portion.

【0032】請求項13記載の立体視システムは、前記
一対の画像の各画素または画像領域の左右像間でのずれ
量が、所定時間内に輻輳角に換算してほぼ1度以上変化
することを防止する手段を有することが好ましい。
According to a thirteenth aspect of the present invention, in the stereoscopic system, the amount of deviation between each of the pixels of the pair of images or between the left and right images of the image region changes by at least 1 degree in terms of the convergence angle within a predetermined time. It is preferable to have a means for preventing

【0033】請求項13記載の立体視システムの前記画
像データ作成手段は、ディスプレイ上に表示されるグラ
フィックユーザインタフェースアイテムの立体視条件を
定める機能を更に有していることが好ましい。
It is preferable that the image data creating means of the stereoscopic vision system according to claim 13 further has a function of defining a stereoscopic vision condition of the graphic user interface item displayed on the display.

【0034】請求項14記載の発明は、ディスプレイ
に、モデルを互いに異なる2つの視点から見た一対の画
像を立体視可能に表示する立体視方法において、モデル
に対し観察者が注視する可能性の高い範囲を決定する注
視範囲決定ステップと、前記モデルのデータを変更する
ことによって、前記注視範囲決定手段により決定された
注視範囲が立体視容易領域内に入るように前記モデルを
ディスプレイ面と直交する方向に移動するモデル移動ス
テップと、このモデル移動手段によって変更されたモデ
ルのデータを変更することによって、前記モデル移動手
段により移動されたモデルの大きさを移動距離に対応し
て拡大縮小するモデル拡大縮小ステップと、前記モデル
移動手段により移動されるとともに前記モデル拡大縮小
手段により大きさが変更された後のモデルのデータに基
づいて、前記ディスプレイ上に表示される画像データを
作成する画像データ作成ステップとを備えるものであ
る。
According to a fourteenth aspect of the present invention, in a stereoscopic viewing method for displaying a pair of images of the model viewed from two different viewpoints in a stereoscopic manner on a display, an observer may gaze at the model. A gaze range determining step of determining a high range, and by changing the data of the model, the model is orthogonal to the display surface such that the gaze range determined by the gaze range determining means falls within the easy stereoscopic view region. By moving the model moving step in the direction and changing the data of the model changed by the model moving means, the model enlargement for enlarging / reducing the size of the model moved by the model moving means in accordance with the moving distance. The reduction step, and the size is moved by the model moving means while being moved by the model moving means. Based on further modeled data after was, in which and an image data generation step of generating image data to be displayed on said display.

【0035】請求項14記載の発明によれば、注視範囲
決定ステップにより注視範囲が推定され、この注視範囲
が立体視容易領域内に入るようにモデルが奥行き方向に
移動される。次いで、モデル拡大縮小ステップによりモ
デルの大きさが移動距離に対応して変化させられる。こ
のようにして改変されたモデルのデータは画像データ作
成ステップに送られ、画像データ作成ステップでは、デ
ィスプレイ上に表示される画像データを作成する。
According to the fourteenth aspect of the present invention, the gaze range is estimated in the gaze range determining step, and the model is moved in the depth direction so that the gaze range falls within the easy stereoscopic view region. Next, in the model scaling step, the size of the model is changed according to the moving distance. The data of the model thus modified is sent to the image data creating step, and in the image data creating step, the image data displayed on the display is created.

【0036】請求項14記載の立体視方法は、前記モデ
ル移動ステップにより移動されたモデルのうちの少なく
ともその要部が立体視容易領域内に入るように視点から
見た奥行き距離の縮尺を設定する奥行き距離縮小ステッ
プを更に備えることが好ましい。
According to a fourteenth aspect of the present invention, the scale of the depth distance viewed from the viewpoint is set so that at least a main part of the model moved by the model moving step falls within the easy stereoscopic view area. It is preferable to further include a depth distance reduction step.

【0037】請求項14記載の立体視方法は、実際に表
示された画像に対する視線および注視範囲を検出する視
線・注視範囲検出ステップを更に備え、前記モデル移動
ステップは、前記視線・注視範囲検出ステップにより検
出された注視範囲に基づいて前記モデルをディスプレイ
と直交する方向に移動することが好ましい。
The stereoscopic viewing method according to claim 14 further comprises a line-of-sight / gaze-range detecting step of detecting a line-of-sight and a gaze range with respect to an actually displayed image, and the model moving step includes the line-of-sight / gaze range detecting step. It is preferable to move the model in a direction orthogonal to the display based on the gaze range detected by.

【0038】請求項14記載の立体視方法の前記モデル
移動ステップは、視点から見たモデルの3次元空間内へ
の配置条件が変化し、この変化に合わせてモデルを移動
する場合、前記配置条件の変化が生じた時点から所定時
間内、前記モデルの注視範囲の移動量を輻輳角に換算し
てほぼ1度以上になることを防止するステップを有する
ことが好ましい。
[0038] In the model moving step of the stereoscopic method according to claim 14, when the placement condition of the model in the three-dimensional space viewed from the viewpoint changes and the model is moved according to this change, the placement condition is changed. It is preferable to have a step of preventing the movement amount of the gaze range of the model from being converted into a convergence angle and becoming approximately 1 degree or more within a predetermined time from the time when the change occurs.

【0039】請求項18記載の発明は、ディスプレイ
に、モデルを、互いに異なる2つの視点から見た一対の
画像を用いて立体視可能に表示する立体視方法におい
て、モデルに対し観察者が注視する可能性の高い部分を
決定する注視範囲決定ステップと、前記注視範囲決定ス
テップの出力に基づいて、モデルのデータの前記一対の
左、右眼用画像上への透視変換方法を決定する透視変換
決定ステップと、前記透視変換決定ステップにより決定
された透視変換方法に基づいて前記ディスプレイ上に表
示される画像データを作成する画像データ作成ステップ
とを備えるものである。
According to the eighteenth aspect of the present invention, in the stereoscopic viewing method of displaying the model on the display so that the model can be viewed stereoscopically using a pair of images viewed from two different viewpoints, the observer gazes at the model. A gaze range determining step of determining a portion having a high possibility, and a perspective transform determining a method of perspective transforming the model data on the pair of left and right eye images based on the output of the gaze range determining step. And a step of creating image data for creating image data to be displayed on the display based on the perspective transformation method determined by the perspective transformation determining step.

【0040】このような構成によれば、請求項12の発
明のように実際にモデルを移動及び拡大・縮小すること
なく、透視変換の手法により立体視容易な画像データを
生成することができる。
According to such a configuration, it is possible to generate image data that is easily stereoscopically viewed by the perspective transformation method without actually moving and enlarging / reducing the model as in the twelfth aspect of the invention.

【0041】請求項18記載の立体視方法の前記透視変
換決定ステップは、前記注視範囲決定ステップにより決
定された前記注視範囲像の前記一対の画像中での基準位
置からのずれが視野角にして2度以内になるような透視
変換方法を決定することが好ましい。
In the perspective transformation determining step of the stereoscopic viewing method according to claim 18, a deviation from a reference position in the pair of images of the gaze range image determined in the gaze range determining step becomes a viewing angle. It is preferable to determine the perspective transformation method so that it is within 2 degrees.

【0042】請求項18記載の立体視方法は、視点から
見たモデルの配置条件が変化した場合、前記透視変換作
成ステップにより作成された透視変換方法を用いて前記
画像データ作成ステップにより作成された画像のずれの
変化量が輻輳角に換算してほぼ1度以上とすることを防
止するステップを有することが好ましい。
According to the eighteenth aspect, when the arrangement condition of the model viewed from the viewpoint changes, the stereoscopic vision method is created by the image data creating step by using the perspective transforming method created by the perspective transform creating step. It is preferable to have a step of preventing the change amount of the image shift from being equal to or larger than about 1 degree in terms of the convergence angle.

【0043】請求項14、18記載の立体視方法の前記
注視範囲決定ステップは、観察者の視点から見た前記モ
デルの配置条件、色調、明度、彩度、大きさ、複雑さ、
移動速度のうちの全部または一部を考慮して、両眼の注
視範囲を推定するステップを有することが好ましい。
In the stereoscopic viewing method according to any one of claims 14 and 18, the gaze range determining step includes the layout condition, color tone, brightness, saturation, size, complexity of the model viewed from the observer's viewpoint.
It is preferable to have a step of estimating the gaze range of both eyes in consideration of all or part of the moving speed.

【0044】請求項14、18記載の立体視方法は、視
野外に存在するモデルのデータを除外する視野外データ
除外ステップを更に備えることが好ましい。この場合、
実際に表示された画像に対する視線および注視範囲を検
出する視線・注視範囲検出ステップを更に備え、前記視
野外データ除外ステップは、前記視線・注視範囲検出ス
テップにより検出された視線に基づいて視野を算出し、
視野外に存在するデータを除外することが好ましい。
It is preferable that the stereoscopic vision method according to the fourteenth and eighteenth aspects further comprises an out-of-field-of-view data excluding step of excluding model data existing outside the field of view. in this case,
It further comprises a line-of-sight / gaze range detection step for detecting a line-of-sight and a gaze range for an actually displayed image, and the out-of-field-of-view data exclusion step calculates a field of view based on the line-of-sight detected by the line-of-sight / gaze range detection step. Then
It is preferable to exclude data that is outside the field of view.

【0045】請求項14、18記載の立体視方法は、表
示されるモデルの色調を、視点より奥行き方向に遠ざか
るに従って背景色の色調に近づける色調変更ステップを
更に備えることが好ましい。
It is preferable that the stereoscopic method according to the fourteenth and eighteenth aspects further comprises a color tone changing step of bringing the color tone of the displayed model closer to the color tone of the background color as the distance from the viewpoint increases in the depth direction.

【0046】請求項14、18記載の立体視方法は、前
記画像データ作成ステップは、ディスプレイ上に表示さ
れるグラフィックユーザーインターフェースアイテムの
立体視条件を定めるステップを有することが好ましい。
In the stereoscopic vision method according to any one of claims 14 and 18, it is preferable that the image data creating step includes a step of defining a stereoscopic vision condition of the graphic user interface item displayed on the display.

【0047】請求項26に記載の発明は、ディスプレイ
に、互いに異なる2つの視点から見た一対の画像を立体
視可能に表示する立体視方法は、観察者が注視する可能
性の高い画像部分を決定する注視範囲決定ステップと、
前記注視範囲決定ステップの出力に基づいて、この注視
範囲が立体視容易な領域になるような画像変換方法を決
定する画像変換決定ステップと、この画像変換決定ステ
ップの出力に基づいて前記ディスプレイ上に表示される
画像データを作成する画像データ作成ステップとを備え
るものである。
According to a twenty-sixth aspect of the present invention, in a stereoscopic viewing method for displaying a pair of images viewed from two different viewpoints on a display in a stereoscopic manner, an image portion which an observer is likely to gaze at is displayed. A gaze range determination step to determine,
Based on the output of the gaze range determination step, an image conversion determination step of determining an image conversion method such that the gaze range becomes an area that facilitates stereoscopic viewing, and on the display based on the output of the image conversion determination step. And an image data creating step of creating image data to be displayed.

【0048】このような構成によれば、実写画像を立体
視する場合にも適用でき、この実写画像について立体視
容易な画像データを生成することができる。
According to such a configuration, it can be applied to the case of stereoscopically viewing a real shot image, and it is possible to generate image data for this real shot image that is easily stereoscopically viewed.

【0049】請求項26に記載の方法の前記注視範囲決
定ステップは、画素または画像領域の画面中での位置、
色調、明度、彩度、大きさ、複雑さ、動きのうちの全部
または一部を考慮することにより、観察者が注視する可
能性の高い画像部分を少なくとも一つ以上推定すること
が好ましい。
The step of determining the gaze range of the method according to claim 26, wherein the position of the pixel or the image region in the screen is
It is preferable to estimate at least one image portion that is likely to be watched by the observer by considering all or part of the color tone, lightness, saturation, size, complexity, and movement.

【0050】請求項26記載の方法の前記画像変換決定
ステップは、前記注視部決定ステップにより決定された
注視範囲内の基準点の左右画像間でのずれが、視野角に
して2度以内になるように変換方法を決定することが好
ましい。
In the image conversion determining step of the method according to claim 26, the deviation between the left and right images of the reference point within the gazing range determined by the gazing section determining step is within 2 degrees as a viewing angle. Therefore, it is preferable to determine the conversion method.

【0051】請求項26記載の前記注視範囲決定ステッ
プは、実際に表示された画像に対する視線および注視範
囲を検出する視線・注視範囲検出ステップにより構成さ
れることが好ましい。
It is preferable that the gaze range determining step according to the twenty-sixth aspect is configured by a gaze / gaze range detecting step for detecting a gaze line and a gaze range with respect to an actually displayed image.

【0052】請求項26記載の方法は、表示される画像
の明度、色調を、前記注視部分以外の部分で視認性が低
くなるように変更するステップを有することが好まし
い。
It is preferable that the method according to the twenty-sixth aspect includes a step of changing the lightness and color tone of the displayed image so that the visibility becomes low in a portion other than the gaze portion.

【0053】請求項26記載の方法は、前記一対の画像
の各画素または画像領域の左右像間でのずれ量が、所定
時間内に輻輳角に換算してほぼ1度以上変化することを
防止するステップを有することが好ましい。
According to a twenty-sixth aspect of the present invention, the deviation amount between the left and right images of each pixel or image area of the pair of images is prevented from changing by more than 1 degree in terms of the convergence angle within a predetermined time. It is preferable to have a step of

【0054】請求項26記載の方法の前記画像データ作
成ステップは、ディスプレイ上に表示されるグラフィッ
クユーザインタフェースアイテムの立体視条件を定める
ステップを更に有していることが好ましい。
The image data creating step of the method according to claim 26 preferably further comprises the step of defining a stereoscopic viewing condition of the graphic user interface item displayed on the display.

【0055】請求項27記載の発明は、コンピュータシ
ステムに、ディスプレイ上に、モデルを互いに異なる2
つの視点から見た一対の画像を立体視可能に表示させる
コンピュータプログラムを格納する記憶媒体において、
前記コンピュータシステムに、観察者が注視する可能性
の高い範囲を決定する指令を与える注視範囲決定指令手
段と、コンピュータシステムに、前記モデルのデータを
変更することによって、前記注視範囲決定指令手段によ
り決定された注視範囲が立体視容易領域内に入るように
前記モデルをディスプレイ面と直交する方向に移動させ
る指令を与えるモデル移動指令手段と、コンピュータシ
ステムに、このモデル移動手段によって変更されたモデ
ルのデータを変更することによって、前記モデル移動手
段により移動されたモデルの大きさを移動距離に対応し
て変化させる指令を与えるモデル拡大縮小指令手段と、
コンピュータシステムに、前記モデル移動手段により移
動されるとともに前記モデル拡大縮小手段により大きさ
が変更された後のモデルのデータに基づいて、前記ディ
スプレイ上に表示される画像データを作成する指令を与
える画像データ作成指令手段とを備えるものである。
In a twenty-seventh aspect of the present invention, a computer system has two different models on the display.
In a storage medium storing a computer program for stereoscopically displaying a pair of images viewed from one viewpoint,
Gaze range determination command means for giving a command to the computer system to determine a range in which an observer is likely to gaze, and by the computer system by changing the data of the model, the gaze range determination command means Model movement command means for giving a command to move the model in a direction orthogonal to the display surface so that the focused gazing range falls within the stereoscopic easy area, and the model data changed by the model moving means to the computer system. By changing the model moving means, model scaling command means for giving a command to change the size of the model moved by the model moving means in accordance with the moving distance,
An image that gives a computer system a command to create image data to be displayed on the display based on the data of the model that has been moved by the model moving unit and has been resized by the model enlarging / reducing unit. And a data creation command means.

【0056】請求項27記載の発明によれば、まず、注
視範囲が決定され、この注視範囲が立体視容易領域内に
入るようにモデルが奥行き方向に移動される。次いで、
モデル拡大縮小手段によりモデルの大きさが移動距離に
対応して変化させられる。このようにして改変されたモ
デルのデータは画像データ作成指令に基づき、ディスプ
レイ上に表示される画像データを生成するのに使用され
る。
According to the twenty-seventh aspect of the present invention, first, the gaze range is determined, and the model is moved in the depth direction so that the gaze range falls within the easy stereoscopic view region. Then
The model enlarging / reducing means changes the size of the model in accordance with the moving distance. The data of the model modified in this way is used to generate the image data displayed on the display based on the image data generation command.

【0057】請求項27記載の記憶媒体は、前記コンピ
ュータシステムに、前記モデル移動指令手段の指令に基
づいて移動されたモデルのうちの少なくともその要部が
立体視容易領域内に入るように視点から見た奥行き方向
の縮尺を設定する指令を与える奥行き距離縮小指令手段
を更に備えることが好ましい。
According to a 27th aspect of the present invention, there is provided a storage medium in which, from the viewpoint, the computer system is configured so that at least a main part of the model moved based on the command of the model moving command means is within the easy stereoscopic view area. It is preferable to further include depth distance reduction command means for giving a command to set the scale in the viewed depth direction.

【0058】請求項27記載の記憶媒体は、コンピュー
タシステムに、実際に表示された画像に対する視線およ
び注視範囲を検出する指令を与える視線・注視範囲検出
指令手段を更に備え、前記モデル移動指令手段は、前記
コンピュータシステムに、前記視線・注視範囲検出指令
手段の指令に基づいて検出された注視範囲に基づいて前
記モデルをディスプレイと直交する方向に移動する指令
を与えることが好ましい。
The storage medium according to claim 27 further comprises line-of-sight / gaze range detection command means for giving a command to the computer system to detect the line-of-sight and gaze range of the actually displayed image, and the model movement command means. It is preferable to give a command to the computer system to move the model in a direction orthogonal to the display based on the gaze range detected based on the command of the gaze / gaze range detection command means.

【0059】請求項27記載の記憶媒体は、前記モデル
移動指令手段は、前記コンピュータシステムに、視点か
ら見たモデルの3次元空間内への配置条件が変化し、こ
の変化に合わせてモデルを移動する場合、前記配置条件
の変化が生じた時点から所定時間内、前記モデルの注視
範囲の移動量を輻輳角に換算してほぼ1度以上になるこ
とを防止する指令を与える手段を有することが好まし
い。
In the storage medium according to the twenty-seventh aspect, the model movement command means changes the arrangement condition of the model in the three-dimensional space viewed from the viewpoint in the computer system, and moves the model in accordance with the change. In this case, a means for giving a command for preventing the movement amount of the gaze range of the model from becoming approximately 1 degree or more in conversion to the convergence angle within a predetermined time from the time when the change of the arrangement condition occurs may be provided. preferable.

【0060】請求項31記載の発明は、コンピュータシ
ステムに、ディスプレイ上に、モデルを、互いに異なる
2つの視点から見た一対の画像を用いて立体視可能に表
示させるコンピュータプログラムを格納する記憶媒体に
おいて、コンピュータシステムに、モデルに対し観察者
が注視する可能性の高い部分を決定する指令を与える注
視範囲決定指令手段と、コンピュータシステムに、前記
注視範囲決定指令に基づく出力に基づいて、モデルのデ
ータの前記一対の左、右眼用画像上への透視変換方法を
決定する指令を与える透視変換決定指令手段と、コンピ
ュータシステムに、前記透視変換決定指令に基づいて決
定された透視変換方法に基づいて前記ディスプレイ上に
表示される画像データを作成する指令を与える画像デー
タ作成指令手段とを備えるものである。
According to a thirty-first aspect of the present invention, there is provided a storage medium for storing a computer program for causing a computer system to stereoscopically display a model on a display by using a pair of images viewed from two different viewpoints. , The model data based on the output based on the gaze range determination command to the computer system, and a gaze range determination command means for giving a command to the computer system to determine a part that the observer is likely to gaze at A pair of left and right perspective conversion determination command means for giving a command to determine a perspective conversion method on the image for the right eye, and the computer system based on the perspective conversion method determined based on the perspective conversion determination command. Image data creation command means for giving a command to create the image data displayed on the display; It is as it has.

【0061】このような構成によれば、請求項23の発
明のように実際にモデルを移動及び拡大・縮小すること
なく、透視変換の手法により立体視容易な画像データを
生成することができる。
According to such a configuration, it is possible to generate image data that is easy to stereoscopically view by the method of perspective transformation without actually moving and enlarging / reducing the model unlike the invention of claim 23.

【0062】請求項31記載の記憶媒体において、前記
透視変換決定指令手段は、前記コンピュータシステム
に、前記注視範囲決定手段により決定された前記注視範
囲像の前記一対の画像中での基準位置からのずれが視野
角にして2度以内になるような透視変換方法を決定する
指令を与える手段を有することが好ましい。
In the storage medium according to the thirty-first aspect, the perspective transformation determination commanding means instructs the computer system from a reference position in the pair of images of the gaze range image determined by the gaze range determining means. It is preferable to have a means for giving a command to determine the perspective conversion method so that the deviation is within 2 degrees in terms of viewing angle.

【0063】請求項31の記憶媒体は、コンピュータシ
ステムに、視点から見たモデルの配置条件が変化した場
合、前記透視変換作成手段により作成された透視変換方
法を用いて前記画像データ作成手段により作成された画
像のずれの変化量が輻輳角に換算してほぼ1度以上とす
ることを防止する指令を与える指令手段を更に有するこ
とが好ましい。
The storage medium according to claim 31 is created by the image data creating means by using the perspective transforming method created by the perspective transform creating means when the arrangement condition of the model viewed from the viewpoint changes in the computer system. It is preferable to further include a command unit that gives a command for preventing the amount of change in the image shift, which is converted to a convergence angle, from being approximately 1 degree or more.

【0064】請求項27、31記載の記憶媒体は、前記
注視範囲決定指令手段は、コンピュータシステムに、観
察者の視点から見た前記モデルの配置条件、色調、明
度、彩度、大きさ、複雑さ、移動速度のうちの全部また
は一部を考慮して、両眼の注視範囲を推定させる指令を
与える手段を有することが好ましい。
In the storage medium according to any one of claims 27 and 31, the gaze range determining command means instructs the computer system to arrange the model from the viewpoint of the observer, the arrangement condition of the model, color tone, brightness, saturation, size, and complexity. Now, it is preferable to have means for giving a command for estimating the gaze range of both eyes in consideration of all or part of the moving speed.

【0065】請求項27、31記載の記憶媒体は、コン
ピュータシステムに、視野外に存在するモデルのデータ
を除外する指令を与える視野外データ除外指令手段を更
に備えることが好ましい。この場合、記憶媒体は、前記
コンピュータシステムに、実際に表示された画像に対す
る視線および注視範囲を検出する指令を与える視線・注
視範囲検出指令手段を更に備え、前記視野外データ除外
指令手段は、前記コンピュータシステムに、前記視線・
注視範囲検出指令手段の指令に基づいて検出された視線
に基づいて視野を算出し、視野外に存在するデータを除
外する指令を与えることが好ましい。
It is preferable that the storage medium according to the twenty-seventh and thirty-first aspects further comprises an out-of-field-of-view data exclusion command means for instructing the computer system to exclude the data of the model existing outside the field of view. In this case, the storage medium further includes a line-of-sight / gaze range detection command unit that gives the computer system a command to detect a line-of-sight and a gaze range for an actually displayed image, and the out-of-field-of-view data exclusion command unit is the In the computer system,
It is preferable that the visual field is calculated based on the line of sight detected based on the command of the gaze range detection commanding means, and a command for excluding data existing outside the visual field is given.

【0066】請求項27、31記載の記憶媒体は、前記
コンピュータシステムに、表示されるモデルの色調を、
視点より奥行き方向に遠ざかるに従って背景色の色調に
近づける指令を与える色調変更指令手段を更に備えるこ
とが好ましい。
The storage medium according to the twenty-seventh and thirty-first aspects is characterized in that the color tone of the model displayed on the computer system is
It is preferable to further include a color tone change command unit that gives a command to approach the color tone of the background color as the distance from the viewpoint increases in the depth direction.

【0067】請求項27、31記載の記憶媒体は、前記
画像データ作成指令手段は、前記コンピュータシステム
に、ディスプレイ上に表示されるグラフィックユーザー
インターフェースアイテムの立体視条件を定める指令を
与える手段を有していることが好ましい。
In the storage medium according to any one of claims 27 and 31, the image data creation command means has means for giving the computer system a command for determining a stereoscopic viewing condition of a graphic user interface item displayed on a display. Preferably.

【0068】請求項39記載の発明は、コンピュータシ
ステムに、ディスプレイ上に、互いに異なる2つの視点
から見た一対の画像を立体視可能に表示させるコンピュ
ータプログラムを格納する記憶媒体において、前記コン
ピュータシステムに、観察者が注視する可能性の高い画
像部分を決定する指令を与える注視範囲決定指令手段
と、コンピュータシステムに、前記注視範囲決定指令に
基づく出力に基づいて、この注視範囲が立体視容易な領
域になるような画像変換方法を決定する指令を与える画
像変換決定指令手段と、コンピュータシステムに、この
画像変換決定手段の出力に基づいて前記ディスプレイ上
に表示される画像データを作成する指令を与える画像デ
ータ作成指令手段とを備えるものである。
According to a thirty-ninth aspect of the present invention, there is provided a storage medium for storing a computer program for causing a computer system to stereoscopically display a pair of images viewed from two different viewpoints on a display. A region in which the gaze range is easy to stereoscopically view, based on an output based on the gaze range determination command to the computer system, and a gaze range determination command means for giving a command to determine an image portion that is likely to be gazed by the observer. And an image which gives the computer system an instruction to create image data to be displayed on the display based on the output of the image conversion determination means. And a data creation command means.

【0069】このような構成によれば、実写画像を立体
視する場合にも適用でき、この実写画像について立体視
容易な画像データを生成することができる。
According to such a configuration, the present invention can be applied to a case where a real shot image is viewed stereoscopically, and it is possible to generate image data for this real shot image that is easily stereoscopically viewed.

【0070】請求項39の記憶媒体において、前記注視
範囲決定指令手段は、コンピュータシステムに、画素ま
たは画像領域の画面中での位置、色調、明度、彩度、大
きさ、複雑さ、動きのうちの全部または一部を考慮する
ことにより、観察者が注視する可能性の高い画像部分を
少なくとも一つ以上推定させる指令を与える指令手段を
有することが好ましい。
In the storage medium according to the 39th aspect, the gaze range determining command means instructs the computer system to select a position of a pixel or an image area in the screen, a color tone, a brightness, a saturation, a size, a complexity, and a movement. It is preferable to have a command unit that gives a command to estimate at least one image portion that is likely to be gazed by the observer by considering all or a part of the above.

【0071】請求項39の記憶媒体において、前記画像
変換決定指令手段は、コンピュータシステムに、前記注
視部決定指令により決定された注視範囲内の基準点の左
右画像間でのずれが、視野角にして2度以内になるよう
に変換方法を決定する指令を与える手段を有することが
好ましい。
In the storage medium according to the 39th aspect, the image conversion determination command means causes the computer system to determine, as a viewing angle, a deviation between the left and right images of the reference point within the gazing range determined by the gazing section determination command. It is preferable to have a means for giving a command to determine the conversion method so that the conversion method is within 2 degrees.

【0072】請求項39の記憶媒体において、前記注視
範囲決定指令手段は、コンピュータシステムに、実際に
表示された画像に対する視線および注視範囲を検出する
指令を与える視線・注視範囲検出指令手段により構成さ
れることが好ましい、請求項39記載の記憶媒体は、前
記コンピュータシステムに、表示される画像の明度、色
調を、前記注視部分以外の部分で視認性が低くなるよう
に変更する指令を与える手段を有することが好ましい。
In the storage medium of claim 39, the gaze range determination command means is constituted by a gaze / gaze range detection command means for giving a command to the computer system to detect a gaze line and a gaze range for an actually displayed image. 40. The storage medium according to claim 39, preferably further comprising means for giving a command to the computer system to change the brightness and color tone of the displayed image so that the visibility is reduced in a portion other than the gaze portion. It is preferable to have.

【0073】請求項39記載の記憶媒体は、前記コンピ
ュータシステムに、前記一対の画像の各画素または画像
領域の左右像間でのずれ量が、所定時間内に輻輳角に換
算してほぼ1度以上変化することを防止する指令を与え
る手段を有することが好ましい。
According to a thirty-ninth aspect of the present invention, in the storage medium according to the thirty-ninth aspect, in the computer system, a shift amount between the left and right images of each pixel or image area of the pair of images is converted into a convergence angle within a predetermined time of approximately 1 degree. It is preferable to have a means for giving an instruction to prevent the above changes.

【0074】請求項39記載の記憶媒体において、前記
画像データ作成指令手段は、ディスプレイ上に表示され
るグラフィックユーザインタフェースアイテムの立体視
条件を定める指令を与える手段を更に有していることが
好ましい。
In the storage medium of the thirty-ninth aspect, it is preferable that the image data creation commanding means further has means for giving a command for determining a stereoscopic viewing condition of the graphic user interface item displayed on the display.

【0075】請求項40記載の発明は、画像データを記
憶した記憶媒体であって、前記左眼用と右眼用の画像を
ディスプレイに表示し、これらの画像を左眼および右眼
で独立して眺めることで、立体視を行わせるシステムに
適用される記憶媒体において、前記記憶媒体には、場面
毎に、その画像中の注視範囲を立体視容易領域に位置さ
せるための画像変換方法を格納する格納部を有すること
を特徴とするものである。
According to a forty-third aspect of the present invention, which is a storage medium storing image data, the left-eye and right-eye images are displayed on a display, and these images are independent for the left-eye and the right-eye. In a storage medium applied to a stereoscopic viewing system, the storage medium stores an image conversion method for locating the gaze range in the image in the easy stereoscopic viewing region for each scene. It is characterized by having a storage part for

【0076】このような構成によれば、前記立体視シス
テム(記憶媒体再生装置)に適用することで、立体視容
易な画像データを提供できる記憶媒体を得ることができ
る。
According to this structure, a storage medium capable of providing image data that facilitates stereoscopic viewing can be obtained by applying it to the stereoscopic system (storage medium reproducing device).

【0077】請求項40記載の記憶媒体において、前記
画像変換方法は、視点を中心とし注視範囲を立体視容易
領域に位置させるための画像拡大率、奥行き距離、及び
視点からディスプレイ画面までの距離の各データを含む
ことが好ましい。
The storage medium according to claim 40, wherein the image conversion method comprises: an image enlargement ratio for locating the gaze range in the easy stereoscopic view region centering on the viewpoint, the depth distance, and the distance from the viewpoint to the display screen. It is preferable to include each data.

【0078】請求項41の発明は、請求項40記載の記
憶媒体を製造する記憶媒体製造システムであって、画像
データのうち観察者が注視する可能性の高い画像部分を
決定する注視範囲決定手段と、前記注視範囲決定手段の
出力に基づいて、この注視範囲が立体視容易な領域にな
るような画像変換方法を決定する画像変換決定手段と、
この画像変換方法を前記画像データと共に前記記憶媒体
に記載する手段とを有することを特徴とするものであ
る。
The invention of claim 41 is a storage medium manufacturing system for manufacturing the storage medium according to claim 40, wherein a gaze range deciding means for deciding an image portion which is highly likely to be gazed by an observer in the image data. And an image conversion deciding means for deciding an image converting method such that the gaze range becomes an area where stereoscopic viewing is easy, based on the output of the gaze range deciding means,
The image conversion method further comprises means for writing the image data in the storage medium together with the image data.

【0079】このような構成によれば、立体視情報が格
納された記憶媒体を製造することができる。
With this structure, it is possible to manufacture the storage medium in which the stereoscopic information is stored.

【0080】請求項41のシステムの前記注視範囲決定
手段は、画素または画像領域の画面中での位置、色調、
明度、彩度、大きさ、複雑さ、動きのうちの全部または
一部を考慮することにより、観察者が注視する可能性の
高い画像部分を少なくとも一つ以上推定する機能を有す
ることが好ましい。
The gaze range determining means of the system according to claim 41 is the position of the pixel or the image area in the screen, the color tone,
It is preferable to have a function of estimating at least one image portion that is likely to be gazed by the observer by considering all or some of the brightness, the saturation, the size, the complexity, and the movement.

【0081】請求項41のシステムの前記画像変換決定
手段は、前記注視部決定手段により決定された注視範囲
内の基準点の左右画像間でのずれが、視野角にして2度
以内になるように変換方法を決定することが好ましい。
In the image conversion determining means of the system according to claim 41, the deviation between the left and right images of the reference point within the gazing range determined by the gazing part determining means is within 2 degrees in terms of viewing angle. It is preferable to determine the conversion method.

【0082】請求項41のシステムの前記注視範囲決定
手段は、実際に表示された画像に対する視線および注視
範囲を検出する視線・注視範囲検出手段により構成され
ることが好ましい。
It is preferable that the gaze range determining means of the system according to the 41st aspect is constituted by a gaze / gaze range detecting means for detecting a gaze and a gaze range with respect to an actually displayed image.

【0083】請求項41のシステムは、表示される画像
の明度、色調を、前記注視部分以外の部分で視認性が低
くなるように変更する手段を有することが好ましい。
It is preferable that the system according to claim 41 has a means for changing the lightness and color tone of the displayed image so that the visibility becomes low in a portion other than the gaze portion.

【0084】請求項41のシステムは、ディスプレイ上
に表示されるグラフィックユーザインタフェースアイテ
ムの立体視条件を定める手段を更に有していることが好
ましい。
The system according to claim 41 preferably further comprises means for determining a stereoscopic viewing condition of the graphic user interface item displayed on the display.

【0085】請求項42記載の発明は、請求項40記載
の記憶媒体を用いて、ディスプレイ上に表示する画像デ
ータを生成する立体視システムにおいて、記憶媒体に格
納された画像データを、この記憶媒体に格納された前記
画像データ変換方法に基づいて処理し、ディスプレイ上
に表示する一対の左眼用・右眼用画像を生成する手段を
有するものである。
According to a forty-second aspect of the present invention, in a stereoscopic system for generating image data to be displayed on a display by using the storage medium according to the forty-fourth aspect, the image data stored in the storage medium is stored in the storage medium. And a means for generating a pair of left-eye and right-eye images to be displayed on the display by processing based on the image data conversion method stored in.

【0086】このような構成によれば、立体視情報が格
納された記憶媒体を再生し、立体視容易な画像を作成す
ることができる。
With such a configuration, it is possible to reproduce the storage medium in which the stereoscopic information is stored and create an image that is easily stereoscopically viewed.

【0087】[0087]

【発明の実施の形態】以下、本発明の実施形態を説明す
るが、その前に、立体視の原理について説明する。
BEST MODE FOR CARRYING OUT THE INVENTION The embodiments of the present invention will be described below, but before that, the principle of stereoscopic vision will be described.

【0088】図10は、視点中心(左眼と右眼を結ぶ線
分の中点をいう。以下本明細書において同じ。)からデ
ィスプレイ面までの距離と視点中心からの距離で表現さ
れる立体視可能領域および立体視容易領域との関係を表
したグラフである(出典;OplusE(雑誌名)に掲
載の畑田豊彦による生理工学15「3次元ディスプレ
イ」より)。
FIG. 10 shows a solid represented by the distance from the center of the viewpoint (the midpoint of the line segment connecting the left eye and the right eye. The same applies hereinafter in this specification) and the distance from the center of the viewpoint. It is a graph showing the relationship between the visible region and the easy stereoscopic region (Source: From Physiological Engineering 15 "3D Display" by Toyohiko Hatada published in OplusE (magazine name)).

【0089】ここで視点中心からディスプレイ面までの
距離は、視点中心から両眼のピントがあっている位置ま
での距離を示していることになる。また、立体視可能
(容易)領域の広さは、輻輳角の変動許容範囲を示して
いることになる。図10より分かるように、視点中心か
らディスプレイ面までの距離が小さくなるほど、立体視
可能(容易)領域は狭くなっている。
Here, the distance from the viewpoint center to the display surface means the distance from the viewpoint center to the position where both eyes are in focus. In addition, the size of the stereoscopically viewable (easy) region indicates the allowable range of fluctuation of the convergence angle. As can be seen from FIG. 10, the smaller the distance from the viewpoint center to the display surface, the narrower the stereoscopically viewable (easy) region.

【0090】ここで両眼立体視システムを三次元形状を
表示制作するCADシステムに適用した場合を考える。
この場合、システムのユーザの視点中心とディスプレイ
面との距離が60cmであるとすると、立体視可能領域
は視線中心からの奥行き距離がAn 2(cm)からAf
2(cm)までの領域となる。さらに眼の疲れが少ない
状態で立体視が可能となる領域、すなわち立体視容易領
域は、視線中心からの奥行き距離がAn1(cm)からA
f1(cm)までの領域に限定される。
Consider a case where the binocular stereoscopic system is applied to a CAD system for displaying and producing a three-dimensional shape.
In this case, if the distance between the center of the user's viewpoint of the system and the display surface is 60 cm, the depth distance from the center of the line of sight in the stereoscopic viewable area is An 2 (cm) to Af.
The area is up to 2 (cm). Furthermore, in the area where stereoscopic viewing is possible with less eye strain, that is, in the area where stereoscopic viewing is easy, the depth distance from the center of the line of sight is from An1 (cm) to A
Limited to the area up to f1 (cm).

【0091】しかしながら、上記モデル(表示対象)が
必ずしもAn1からAf1の間に位置しているとは限らな
い。従ってこの場合は、モデルの全てが立体像が見やす
い領域に入るように立体視条件を変化させる必要があ
る。
However, the model (display target) is not always located between An1 and Af1. Therefore, in this case, it is necessary to change the stereoscopic viewing conditions so that all of the models are in a region where the stereoscopic image is easy to see.

【0092】一方、3 次元の位置データを持たない通常
の画像(写真やビデオ画像のような実写画像)の場合
は、立体像が見やすいとされる領域は右眼用画像と左眼
用画像のずれの臨界値として表わせる。この値は、文献
(The CrystalEyes Handbook:L.Lipton, StereoGraphi
cs Corp. 1991)によれば視角にして1.5 度程度であ
る。また、少し大きめに見積もっても2度を超えること
はない。像を表示面より奥に知覚させる場合、最大の像
のずれは両眼間隔と同じなので、視点中心とディスプレ
イ面との距離が1 m以上なら、全ての領域が立体視容易
領域となる。しかし、画面より手前側に知覚させようと
する場合には、像がある程度以上画面から突出するとこ
の条件が満たされなくなる。従って、前記のような立体
モデルの場合と同様に、立体像を見やすくするには右眼
用と左眼用画像のずれを適宜変化させ、そのずれ量が常
に臨界値以下になるように立体視条件を変化させる必要
がある。
On the other hand, in the case of a normal image (real image such as a photograph or video image) that does not have three-dimensional position data, the region where the stereoscopic image is easily seen is the right eye image and the left eye image. It can be expressed as a critical value of deviation. This value is based on the literature (The CrystalEyes Handbook: L.Lipton, StereoGraphi
According to cs Corp. 1991), the viewing angle is about 1.5 degrees. Moreover, even if it is slightly overestimated, it will not exceed twice. When the image is perceived deeper than the display surface, the maximum image shift is the same as the distance between the eyes, so if the distance between the center of the viewpoint and the display surface is 1 m or more, all areas become stereoscopic viewing areas. However, when the image is to be perceived in front of the screen, this condition cannot be satisfied if the image protrudes from the screen to some extent. Therefore, as in the case of the stereo model as described above, in order to make the stereoscopic image easier to see, the shift between the right-eye image and the left-eye image is appropriately changed so that the shift amount is always below the critical value. It is necessary to change the conditions.

【0093】しかし、従来の立体視システムは、表示像
の変化に合わせて立体視条件を求め制御するような手段
が備わっていない。このため、予めカメラマンが撮影時
に見やすさを考慮して画像を作成しなければならず、ユ
ーザ自身がインタラクティブに表示を変えることはでき
ない。
However, the conventional stereoscopic system does not have means for obtaining and controlling the stereoscopic condition according to the change of the display image. For this reason, the cameraman must create an image in advance at the time of shooting in consideration of legibility, and the user himself cannot change the display interactively.

【0094】この発明は、場面に対する注視範囲情報に
基づいて立体視条件を制御し、観察者が見やすい立体視
画像を生成する機能を有するものである。
The present invention has a function of controlling the stereoscopic viewing condition based on the gaze range information for the scene and generating a stereoscopic image which is easy for the observer to see.

【0095】以下、図面を参照して本発明の実施の形態
について説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0096】第1の実施の形態 まず、第1の実施の形態について説明する。図1〜図1
5は本発明の第1の実施の形態を示す図である。
First Embodiment First, the first embodiment will be described. 1 to 1
5 is a diagram showing a first embodiment of the present invention.

【0097】まず、図1を参照し、本発明による立体視
システムの概要について説明する。なお、以下、立体視
システムが時分割式の立体視システムである場合につい
て説明する。
First, the outline of the stereoscopic system according to the present invention will be described with reference to FIG. In addition, the case where the stereoscopic system is a time-division type stereoscopic system will be described below.

【0098】図1は、ディスプレイ1(通常のCRTで
良い)上に左眼用画像7aと右眼用画像7bが同時に表
示されている状態を示すものである。左眼用画像7a
は、左眼用背景8aとこの背景上に映し出された左眼用
像9aとからなる。また、右眼用画像7bは、右眼用背
景8bとこの背景上に映し出された左眼用像8bとから
なる。
FIG. 1 shows a state in which an image 7a for the left eye and an image 7b for the right eye are simultaneously displayed on the display 1 (which may be a normal CRT). Left eye image 7a
Consists of a left-eye background 8a and a left-eye image 9a projected on this background. The image 7b for the right eye includes a background 8b for the right eye and an image 8b for the left eye projected on the background.

【0099】実際には、この左眼用画像7aと右眼用画
像7bは、高速で交互に映し出されるから、観察者にと
っては、1つの画面7,1つの背景8及び1つの画像9
が立体的に表示されたものとして認識されることにな
る。
In practice, the left-eye image 7a and the right-eye image 7b are displayed alternately at high speed, so that for the observer, one screen 7, one background 8 and one image 9 are displayed.
Will be recognized as being displayed three-dimensionally.

【0100】すなわち、このディスプレイ1には、画像
信号を出力する演算装置5が接続されている。この演算
装置5はディスプレイ1に表示される像9の立体視条件
を算出し、その立体視条件に基づいて、左眼用画像デー
タと右眼用画像データとを作成または処理し、前記左眼
用画像7a及び右眼用画像7bとして所定の周期で交互
にディスプレイ1に送るようになっている。
That is, the display 1 is connected to the arithmetic unit 5 for outputting an image signal. The arithmetic unit 5 calculates the stereoscopic viewing condition of the image 9 displayed on the display 1, creates or processes the left eye image data and the right eye image data based on the stereoscopic viewing condition, The image 7a for right eye and the image 7b for right eye are alternately sent to the display 1 at a predetermined cycle.

【0101】なお、この演算装置5には、ディスプレイ
1のディスプレイ面1aに表示される画像の回転、移
動、座標指定等の処理を指令するための入力手段6、例
えばキーボード6a、マウス6b、ダイヤル6c等が接
続されている。
The arithmetic unit 5 is provided with an input means 6, for example, a keyboard 6a, a mouse 6b, a dial, for instructing processing such as rotation, movement and coordinate designation of an image displayed on the display surface 1a of the display 1. 6c etc. are connected.

【0102】また、この立体視システムは液晶シャッタ
メガネ2を有している。この液晶シャッタメガネ2は、
演算装置5により生成される左眼用画像7aと右眼用画
像7bの切換え周期に同期して、一方の眼への光の入力
を遮断するようになっている。すなわち、人間の左眼3
aは液晶シャッタメガネ2の左眼用レンズ2aを通して
ディスプレイ1に表示される画像7のうち左眼用画像7
aのみを見るようになっており、また右眼3bは液晶シ
ャッタメガネ2の右眼用レンズ2aを通してディスプレ
イ1に表示される画像7のうち右眼用画像7bのみを見
るようになっている。
This stereoscopic system also has liquid crystal shutter glasses 2. This liquid crystal shutter glasses 2
The input of light to one eye is blocked in synchronization with the switching cycle of the image for left eye 7a and the image for right eye 7b generated by the arithmetic unit 5. That is, the human left eye 3
a is a left-eye image 7 out of the images 7 displayed on the display 1 through the left-eye lens 2a of the liquid crystal shutter glasses 2.
Only the image a is viewed, and the right eye 3b is configured to view only the image 7b for the right eye among the images 7 displayed on the display 1 through the lens 2a for the right eye of the liquid crystal shutter glasses 2.

【0103】従って、適切な立体視条件が設定されてい
れば、使用者は左眼用像9aと右眼用像9bとが融合し
た立体像を知覚することができるようになっている。ま
た、左眼3aと右眼3bを結ぶ線分の中点(以下、視点
中心という。)と、ディスプレイ面1aの中心1bとの
距離Zaは使用者個々の好み(画面を見る位置)により
変化するが、以下本明細中ではこの距離Zaは一定であ
る前提のもとに説明を行う。
Therefore, if appropriate stereoscopic viewing conditions are set, the user can perceive a stereoscopic image in which the left-eye image 9a and the right-eye image 9b are fused. Further, the distance Za between the midpoint of the line segment connecting the left eye 3a and the right eye 3b (hereinafter referred to as the center of the viewpoint) and the center 1b of the display surface 1a changes according to the individual preference of the user (the position at which the screen is viewed). However, in the following description, the description will be made on the assumption that the distance Za is constant.

【0104】以下、図2を参照し、この立体視システム
の構成の一例について詳述する。
Hereinafter, an example of the configuration of the stereoscopic system will be described in detail with reference to FIG.

【0105】図2に示すように、立体視システムは、シ
ステムの制御を行う制御手段10を有する。
As shown in FIG. 2, the stereoscopic system has a control means 10 for controlling the system.

【0106】この制御手段10は、入力手段6から入力
される指令を受けとり、システムに与える命令を作成す
る機能を有するものである。
The control means 10 has a function of receiving a command input from the input means 6 and creating a command to be given to the system.

【0107】この制御手段10には、3次元空間内に存
在するモデルの形状、大きさ、配置状態等の情報を記録
する記録手段11が接続されており、この記録手段11
から前記のようなモデル情報を受け取るようになってい
る。
The control means 10 is connected to a recording means 11 for recording information such as the shape, size and arrangement state of the model existing in the three-dimensional space.
The model information as described above is received from.

【0108】この制御手段10には、ディスプレイ1に
表示される文字情報、メニュー、ボタン等のグラフィッ
クユーザーインターフェースアイテムに関するデータを
管理するGUIデータ管理手段21が接続されており、
このデータ管理手段21から前記の情報を受け取るよう
になっている。
The control means 10 is connected to a GUI data management means 21 for managing data related to graphic user interface items such as character information displayed on the display 1 and menus and buttons.
The above information is received from the data management means 21.

【0109】また、このシステムは、立体視条件を算出
する立体視条件算出部を有する。この立体視条件算出部
は、視野外に存在するモデルのデータを除外する視野外
データ除外手段12と、モデルのデータに基づいて両眼
の注視範囲(注視点を含む範囲)を推定する注視範囲推
定手段13と、モデルを奥行き方向に移動する処理を行
うモデル移動手段14と、モデルの拡大縮小処理を行う
モデル拡大縮小手段15と、左眼用画像および右眼用画
像を作成する基準となる奥行き縮小距離を設定する奥行
き距離縮小手段16と、表示される画像に空気透視の効
果を与えるためにモデルの色調を変更する色調変更手段
17と、3次元空間の座標系に配置されたモデルを立体
視システムの座標系に適宜配置する処理を行う座標系変
換手段18と、眼の疲れに応じて左眼用画像と右眼用画
像のずれ量を調節するための画像ずれ量調節手段22
と、画面の縁部をぼかし処理する画面縁部処理手段23
とを備えている。
Further, this system has a stereoscopic condition calculating unit for calculating a stereoscopic condition. The stereoscopic condition calculating unit includes an out-of-field data excluding unit 12 that excludes model data existing outside the field of view, and a gaze range that estimates a gaze range (a range including the gaze point) of both eyes based on the model data. The estimation unit 13, the model moving unit 14 that performs the process of moving the model in the depth direction, the model scaling unit 15 that performs the scaling process of the model, and the reference for creating the left-eye image and the right-eye image. The depth distance reducing means 16 for setting the depth reduction distance, the color tone changing means 17 for changing the color tone of the model to give the effect of aerial perspective to the displayed image, and the model arranged in the coordinate system of the three-dimensional space are provided. Coordinate system conversion means 18 for appropriately arranging in the coordinate system of the stereoscopic system, and image shift amount adjustment means 2 for adjusting the shift amount between the left-eye image and the right-eye image according to eye fatigue.
And a screen edge processing unit 23 for blurring the screen edge.
It has and.

【0110】これら視野外データ除外手段12、注視範
囲推定手段13、モデル移動手段14、モデル拡大縮小
手段15、奥行き距離縮小手段16、色調変更手段1
7、座標系変換手段18、画面ずれ量調節手段22及び
画面縁部処理手段23は、それぞれモデルデータ管理手
段19に接続されている。このモデルデータ管理手段1
9は、前記制御手段10からの指令に基づき、上記各手
段12〜18から受け取ったデータを図に20で示す画
像データ作成手段に送出するようになっている。
These out-of-field data excluding means 12, gaze range estimating means 13, model moving means 14, model enlarging / reducing means 15, depth distance reducing means 16, color tone changing means 1
The coordinate system converting means 18, the screen shift amount adjusting means 22, and the screen edge processing means 23 are connected to the model data managing means 19, respectively. This model data management means 1
9 is adapted to send the data received from each of the above-mentioned means 12 to 18 to the image data creating means shown in FIG. 20 based on the command from the control means 10.

【0111】この画像データ作成手段20は、モデルデ
ータ管理手段19から受けとったモデルのデータに基づ
いてディスプレイ1に表示される左眼用画像7aのデー
タと右眼用画像7bのデータとを作成し、その信号をデ
ィスプレイ1に送出する。
This image data creating means 20 creates the data for the left eye image 7a and the data for the right eye image 7b displayed on the display 1 based on the model data received from the model data managing means 19. , Sends the signal to the display 1.

【0112】なお、これらの手段10〜21は、立体視
システムに設けられた前記演算装置5(図1)により構
成される。なお、コンピュータシステムに、前記各手段
10〜21を実行する手順を記載したコンピュータプロ
グラムをインストールすることによって実現されるもの
であっても良い。
These means 10 to 21 are constituted by the arithmetic unit 5 (FIG. 1) provided in the stereoscopic system. It may be realized by installing a computer program in which a procedure for executing each of the means 10 to 21 is described in a computer system.

【0113】次に、本実施の形態の作用について説明す
る。
Next, the operation of this embodiment will be described.

【0114】作用を具体的に説明する前に、図3を参照
し、本明細書中で用いられる立体視システムの座標系に
ついて説明する。図3に示すように、立体視システムの
座標系は、左眼3aと右眼3bとの中点Oを原点とする
XYZ座標系により表わされる。
Before specifically explaining the operation, the coordinate system of the stereoscopic system used in the present specification will be described with reference to FIG. As shown in FIG. 3, the coordinate system of the stereoscopic system is represented by an XYZ coordinate system whose origin is a midpoint O between the left eye 3a and the right eye 3b.

【0115】この座標系において、X軸は左眼3aと右
眼3bを結ぶ直線と一致しディスプレイ1のディスプレ
イ面1aと平行に延びている。ここで左眼3a方向を正
方向とする。
In this coordinate system, the X axis coincides with the straight line connecting the left eye 3a and the right eye 3b and extends parallel to the display surface 1a of the display 1. Here, the left eye 3a direction is defined as a positive direction.

【0116】Z軸は原点Oとディスプレイ面1aの中心
1bとを結ぶ直線と一致する。ここで原点Oから中心1
bへ向かう方向を正方向とする。なお、このZ軸は視線
中心と一致する。
The Z axis coincides with a straight line connecting the origin O and the center 1b of the display surface 1a. From origin O to center 1
The direction toward b is the positive direction. The Z axis coincides with the center of the line of sight.

【0117】Y軸は、原点Oを通りXZ平面に対して垂
直方向に延びている。ここで、上方向が正方向となって
いる。また、左眼3aと右眼3bとを結ぶ線分の長さを
眼間距離といい、左眼3aと右眼3bとを結ぶ線分の中
点、すなわち原点Oを視点中心という。
The Y axis passes through the origin O and extends in the direction perpendicular to the XZ plane. Here, the upward direction is the positive direction. Further, the length of a line segment connecting the left eye 3a and the right eye 3b is referred to as an inter-eye distance, and the midpoint of the line segment connecting the left eye 3a and the right eye 3b, that is, the origin O is referred to as the viewpoint center.

【0118】以下、本実施形態の作用について図4、図
5に示すフローチャートにより説明する。
The operation of this embodiment will be described below with reference to the flowcharts shown in FIGS.

【0119】図4に示すように、立体視システムが立ち
上げられた後、まず、入力手段6により制御手段10に
初期値が入力される(ステップS100)。ここで初期
値とは、左眼用画像7aおよび右眼用画像7bのずれ量
を後で決定する際にその決定の基礎となる眼間距離の初
期設定値や、3次元空間の座標系上に配置されたモデル
を立体視システムの座標系上にどの様に配置するかを示
すデータ、視点中心Oとディスプレイ面1aの中心1b
との距離Za(=60cm)等で、通常、記録手段11
に記憶されている。なお、初期値としての眼間距離は人
間の実際の眼間距離に等しい値、例えば6cmに設定さ
れる。
As shown in FIG. 4, after the stereoscopic system is started up, the input means 6 first inputs the initial value to the control means 10 (step S100). Here, the initial value refers to an initial set value of the inter-eye distance which is a basis of the determination when determining the shift amount of the image 7a for the left eye and the image 7b for the right eye later, and on the coordinate system of the three-dimensional space. Showing how to arrange the model placed on the coordinate system of the stereoscopic system, the viewpoint center O and the center 1b of the display surface 1a.
And the distance Za (= 60 cm), etc.
Remembered in. The eye-to-eye distance as an initial value is set to a value equal to the actual eye-to-eye distance of a human, for example, 6 cm.

【0120】初期値の入力が終了すると、次に、制御手
段10は、記録手段11から3次元空間の座標系に対応
するモデルのデータを読み込み(ステップS101)、
前記初期値とともにモデルデータ管理手段19に送る。
なお、ここでモデルのデータとは、モデルの寸法形状、
モデルの3次元空間の座標系への配置状態、およびモデ
ルの色調(色相、明度、および彩度の全てを含む。本明
細書中において同じ。)等のデータである。
When the input of the initial value is completed, the control means 10 then reads the data of the model corresponding to the coordinate system of the three-dimensional space from the recording means 11 (step S101),
It is sent to the model data management means 19 together with the initial value.
The model data here means the model's dimensions and shape,
Data such as the arrangement state of the model in the coordinate system of the three-dimensional space and the color tone of the model (including all of hue, lightness, and saturation; the same in this specification).

【0121】次に、モデルデータ管理手段19は、初期
値およびモデルのデータを座標系変換手段18に送り、
座標系変換手段18はこれら初期値およびモデルのデー
タに基づいて、図6に示すようにモデルを立体視システ
ムの座標系に配置する(ステップS102)。
Next, the model data managing means 19 sends the initial value and model data to the coordinate system converting means 18,
The coordinate system conversion means 18 arranges the model in the coordinate system of the stereoscopic system as shown in FIG. 6 based on these initial values and the model data (step S102).

【0122】次に、キーボード6a,マウス6b、ダイ
ヤル6c等からなる入力手段6により、制御手段10を
介してモデルデータ管理手段19にデータが入力され、
立体視システムの座標系上に配置されたモデルの表示位
置、姿勢(モデルの向いている方向を意味する。)等の
調節が行われる(ステップS104)。
Next, data is input to the model data management means 19 via the control means 10 by the input means 6 including the keyboard 6a, the mouse 6b, the dial 6c, etc.
The display position, the posture (meaning the direction in which the model is facing), etc. of the model arranged on the coordinate system of the stereoscopic system are adjusted (step S104).

【0123】次に、モデルデータ管理手段19は、立体
視システムの座標系に配置されたモデルのデータを、視
野外データ除外手段12に送り、この視野外データ除外
手段12は図7(a)に示すようにモデルのデータのう
ち視野外に存在するモデル(図7(a)の破線参照)の
データを削除する(SステップS105)。ステップS
105により変更されたモデル(図7(a)の実線参
照)のデータはモデルデータ管理手段19に戻されモデ
ルのデータが書き換えられる。
Next, the model data managing means 19 sends the data of the model arranged in the coordinate system of the stereoscopic system to the out-of-view data excluding means 12, and the out-of-view data excluding means 12 is shown in FIG. As shown in, the data of the model (see the broken line in FIG. 7A) existing outside the visual field is deleted from the model data (S step S105). Step S
The data of the model changed by 105 (see the solid line in FIG. 7A) is returned to the model data management means 19 and the data of the model is rewritten.

【0124】次に、モデルデータ管理手段19は、モデ
ルのデータを注視範囲推定手段13に送る。注視範囲推
定手段13は、モデルデータ管理手段19から受けとっ
たモデルの3次元空間内への配置条件と前述した初期値
とに基づいて立体視システムの座標系に配置されたモデ
ルに対する使用者の両眼の奥行き方向の注視範囲を推定
する(ステップS106)。この注視点の推定は、この
実施形態においては、例えば、以下の説明する2つの手
法のうちのいずれかの手法により行われる。
Next, the model data managing means 19 sends the model data to the gaze range estimating means 13. The gaze range estimation means 13 is used by the user for the model placed in the coordinate system of the stereoscopic system based on the placement condition of the model received from the model data management means 19 in the three-dimensional space and the above-mentioned initial value. The gaze range in the depth direction of the eye is estimated (step S106). In this embodiment, for example, the estimation of the gazing point is performed by one of the two methods described below.

【0125】まず、第1の手法について説明する。ま
ず、図8に示すように、モデルに含まれる各要素Ei
(i=1〜N)をそれぞれ包絡する包絡直方体Ri(i
=1〜N)が設定される。
First, the first method will be described. First, as shown in FIG. 8, each element Ei included in the model
Envelope cuboid Ri (i that encloses (i = 1 to N) respectively
= 1 to N) are set.

【0126】次に、各包絡直方体Riを1単位として各
包絡直方体Riに包絡される要素Eiの代表点の加重W
iを求める。加重を求めるにあたって、まず各包絡直方
体Riの頂点の数が算出される。なお、各包絡直方体R
iが有する頂点数は通常8であるが、図8に示すように
視野の境界部に存在する包絡直方体R1については、視
野内に存在する頂点(図8において黒丸で示す頂点)の
数のみを計算し、これをもって包絡直方体R1の頂点の
数とする。
Next, using each envelope rectangular parallelepiped Ri as one unit, the weight W of the representative point of the element Ei enveloped in each envelope rectangular parallelepiped Ri is weighted.
Find i. In determining the weight, first, the number of vertices of each envelope rectangular parallelepiped Ri is calculated. In addition, each envelope rectangular parallelepiped R
Although the number of vertices i has is usually 8, as for the envelope rectangular parallelepiped R1 existing at the boundary of the visual field as shown in FIG. 8, only the number of vertices (vertical circles in FIG. 8) existing in the visual field is used. It is calculated, and this is used as the number of vertices of the envelope rectangular parallelepiped R1.

【0127】次に、各包絡直方体Riに包絡される要素
Eiの複雑さを表現する係数が算出される。この係数
は、各要素がコンピュータ上の形状モデルの場合は、各
包絡直方体Riに包絡された要素Eiに含まれる辺や面
の個数に基づいて算出され、イメージの場合は、空間周
波数に基づいて算出される。この係数は包絡直方体Ri
の頂点数に掛けられ、これにより包絡直方体ごとの加重
Wiが算出される。
Next, the coefficient expressing the complexity of the element Ei enveloped in each envelope rectangular parallelepiped Ri is calculated. This coefficient is calculated based on the number of sides and faces included in the element Ei enveloped in each envelope rectangular parallelepiped Ri when each element is a shape model on a computer, and based on the spatial frequency in the case of an image. It is calculated. This coefficient is the envelope rectangular parallelepiped Ri
And the weight Wi of each envelope rectangular parallelepiped is calculated.

【0128】次に、各包絡直方体Riの代表点の座標
(xi,yi,zi)が求められる。また、代表点の座
標(xi,yi,zi)のうちZ座標Ziをもって要素
の視点からの奥行き距離Ziと定義する。なお、要素E
iの代表点の座標は、各包絡直方体Riに包絡される要
素Eiの重心の座標とする。
Next, the coordinates (xi, yi, zi) of the representative point of each envelope rectangular parallelepiped Ri are obtained. Further, the Z coordinate Zi of the coordinates (xi, yi, zi) of the representative point is defined as the depth distance Zi of the element from the viewpoint. The element E
The coordinates of the representative point of i are the coordinates of the center of gravity of the element Ei enveloped in each envelope rectangular parallelepiped Ri.

【0129】次に、各包絡直方体Riの代表点と視線中
心(立体視システム座標系のZ軸)との距離diが計算
される。
Next, the distance di between the representative point of each envelope rectangular parallelepiped Ri and the line-of-sight center (Z axis of the stereoscopic system coordinate system) is calculated.

【0130】次に、上記のようにして求めた各包絡直方
体Riの代表点の加重Wi、各包絡直方体Riの代表点
の視点中心からの距離Zi、各包絡直方体Riの代表点
と視線中心(Z軸)との距離diを用いて数式1により
注視点の奥行き座標Zdが算出される。
Next, the weight Wi of the representative point of each envelope rectangular parallelepiped Ri obtained as described above, the distance Zi from the viewpoint center of the representative point of each envelope rectangular parallelepiped Ri, the representative point of each envelope rectangular parallelepiped Ri and the line-of-sight center ( The depth coordinate Zd of the gazing point is calculated by Equation 1 using the distance di from the Z axis).

【0131】[0131]

【数1】 [Equation 1]

【0132】式1において、Nは包絡直方体の個数、Z
iはi番眼の包絡直方体の代表点の奥行き座標,Wiは
i番眼の包絡直方体の加重,diはi番眼の包絡直方体
の代表点の視線中心からの距離である。
In Expression 1, N is the number of envelope rectangular parallelepipeds, and Z
i is the depth coordinate of the representative point of the i-th enveloped rectangular parallelepiped, Wi is the weight of the i-th enveloped rectangular parallelepiped, and di is the distance from the line-of-sight center of the representative point of the i-th enveloped rectangular parallelepiped.

【0133】また、代表点の奥行き座標の標準偏差σは
数式2により算出される。
The standard deviation σ of the depth coordinates of the representative point is calculated by the mathematical formula 2.

【0134】[0134]

【数2】 [Equation 2]

【0135】これより、注視範囲は、基準点の奥行き座
標Zd、標準偏差σ、Ziの最小値Zi0 、Ziの最大
値Zi1 を用いて、数式3のように算出される。
From this, the gazing range is calculated as in Expression 3 using the depth coordinate Zd of the reference point, the standard deviation σ, the minimum value Zi0 of Zi, and the maximum value Zi1 of Zi.

【0136】[0136]

【数3】 [Equation 3]

【0137】なお、ここでmax(a、b)は、a、b
のうち大なる方を返す関数であり、min(a、b)
は、小なる方を返す関数である。
Here, max (a, b) is a, b
Is a function that returns the larger of the two, min (a, b)
Is a function that returns the lesser one.

【0138】また、式3において、aは実数の係数であ
り、どの数字を当てはめてもよいが、通常は0から2の
値を取る。
In the equation 3, a is a coefficient of a real number, and any number may be applied, but normally it takes a value from 0 to 2.

【0139】次に、第2の手法について説明する。図9
に示すように、まず各包絡直方体Riを代表点Tijを
基準に包絡直方体Ri中にボロノイ多面体を作成する。
ボロノイ多面体とは、与えられた複数個(n個)の点を
基準に空間を以下のような領域に分けるためのものであ
る(点Tij(j=1〜n)の領域をVi(Tij)と
した場合。) Vi(Tij)= {T|d(Ti,Tij)<d(Ti、Tik )}(k=1n) k≠j 但し、Tiは包絡直方体Ri内の点、d(Ti,Ti
j)は点TijからTiまでの距離を表す。
Next, the second method will be described. Figure 9
As shown in FIG. 1, first, a Voronoi polyhedron is created in each envelope rectangular parallelepiped Ri in the envelope rectangular parallelepiped Ri with the representative point Tij as a reference.
The Voronoi polyhedron is for dividing a space into the following regions based on a plurality of (n) given points (the region of points Tij (j = 1 to n) is Vi (Tij)). Vi (Tij) = {T | d (Ti, Tij) <d (Ti, Tik)} (k = 1n) k ≠ j where Ti is a point in the envelope rectangular parallelepiped Ri, and d (Ti, Ti
j) represents the distance from the point Tij to Ti.

【0140】すなわち、包絡直方体Ri内で、領域Vi
(Tij)に含まれる点Tiは他のどの代表点よりTi
jに近いことになる。
That is, in the envelope rectangular parallelepiped Ri, the area Vi
The point Ti included in (Tij) is Ti that is greater than that of any other representative point.
It will be close to j.

【0141】次に、分割された各領域Vi(Tij)に
包絡される要素Eiの複雑さを表現する係数が算出され
る。この係数は、各要素がコンピュータ上の形状モデル
の場合は、各領域Vi(Tij)に包絡された要素Ei
に含まれる辺や面の個数に基づいて算出され、イメージ
の場合は、空間周波数に基づいて算出される。この係数
が各領域の加重Wijとなる。
Next, the coefficient expressing the complexity of the element Ei enveloped in each divided area Vi (Tij) is calculated. When each element is a shape model on a computer, this coefficient is an element Ei that is enveloped in each area Vi (Tij).
It is calculated based on the number of sides and faces included in, and in the case of an image, it is calculated based on the spatial frequency. This coefficient becomes the weight Wij of each area.

【0142】次に、代表点Tijの座標(xij,yi
j,zij)のうちZ座標Zijをもって各代表点の視
点中心Oからの奥行き距離Zijと定義する。
Next, the coordinates (xij, yi) of the representative point Tij
j, zij), the Z coordinate Zij is defined as the depth distance Zij from the viewpoint center O of each representative point.

【0143】次に、各代表点と視線中心(立体視システ
ム座標系のZ軸)との距離dijが計算される。
Next, the distance dij between each representative point and the line-of-sight center (Z axis of the stereoscopic system coordinate system) is calculated.

【0144】次に、上記のようにして各包絡直方体Ri
ごとに求められた各代表点Tijの加重Wijと、各代
表点Tijの視点中心Oからの奥行き距離Zijと、各
代表点Tjと視線中心(Z軸)との距離dijとを用い
て、以下に示す数式4により注視点の奥行き座標Zdが
算出される。
Next, as described above, each envelope rectangular parallelepiped Ri
Using the weight Wij of each representative point Tij obtained for each, the depth distance Zij from the viewpoint center O of each representative point Tij, and the distance dij between each representative point Tj and the line-of-sight center (Z axis), The depth coordinate Zd of the gazing point is calculated by the following mathematical formula 4.

【0145】[0145]

【数4】 [Equation 4]

【0146】数式4においてNは包絡直方体の個数、Z
ijは包絡直方体Riのj番眼の領域の代表点の奥行き
座標、Wijは包絡直方体Riのj番眼の領域の加重、
dijは包絡直方体Riのj番眼の領域の視線中心から
の距離、iはi番眼の包絡直方体Riである。
In Equation 4, N is the number of envelope rectangular parallelepipeds and Z
ij is the depth coordinate of the representative point of the j-th area of the envelope rectangular parallelepiped Ri, Wij is the weight of the j-th area of the envelope rectangular parallelepiped Ri,
dij is the distance from the line-of-sight center of the j-th area of the envelope rectangular parallelepiped Ri, and i is the envelope rectangular parallelepiped Ri of the i-th eye.

【0147】また、代表点の奥行き座標の標準偏差σは
数式5により算出される。
Further, the standard deviation σ of the depth coordinates of the representative point is calculated by the mathematical expression 5.

【0148】[0148]

【数5】 [Equation 5]

【0149】これより、注視範囲は、基準点の奥行き座
標Zd、標準偏差σ、Ziの最小値Zi0 、Ziの最大
値Zi1 を用いて、数式6のように算出される。
From this, the gazing range is calculated as shown in Expression 6 using the depth coordinate Zd of the reference point, the standard deviation σ, the minimum value Zi0 of Zi, and the maximum value Zi1 of Zi.

【0150】[0150]

【数6】 [Equation 6]

【0151】なお、式6において、aは実数の係数であ
り、どの数字を当てはめてもよいが、通常は0から2の
値を取る。
In the expression 6, a is a coefficient of a real number, and any number may be applied, but normally it takes a value from 0 to 2.

【0152】なお、前記数式では加重Wと代表点の視線
中心からの距離dを掛けているが、 a×W+b×d (但し、a,bは係数) のような式を用いても良い。
In the above formula, the weight W is multiplied by the distance d from the center of the line of sight of the representative point, but a formula such as a × W + b × d (where a and b are coefficients) may be used.

【0153】また、第1の方法、第2の方法共,Riは
モデルの各要素Ei(i=1〜N)を包絡する直方体と
したが、各要素のうちの一部、例えば視点から見た場合
の可視面を包絡する直方体としてもよい。
In both the first method and the second method, Ri is a rectangular parallelepiped that envelops each element Ei (i = 1 to N) of the model. It may be a rectangular parallelepiped enclosing the visible surface.

【0154】以下では、一例としてa=0、すなわち、
注視範囲の基準点(以下「注視点P」という)をベース
にモデルを動かす方法について説明する。
In the following, as an example, a = 0, that is,
A method of moving the model based on the reference point of the gazing range (hereinafter referred to as "gazing point P") will be described.

【0155】上述の第1の手法または第2の手法により
求められた注視範囲の奥行き座標(Z座標)Zdは、モ
デルデータ管理手段19に送られ記憶される。
The depth coordinate (Z coordinate) Zd of the gazing range obtained by the above-mentioned first method or second method is sent to the model data management means 19 and stored therein.

【0156】次に、モデルデータ管理手段19は、モデ
ル移動手段14にモデルのデータおよび注視範囲の奥行
き座標Zdのデータを引き渡す。次いで、モデル移動手
段14は今回表示される画像、すなわち現在上記処理の
対象となっている画像が、新規画像か、変更画像かを判
断する(ステップS107)。
Next, the model data managing means 19 delivers the model data and the data of the depth coordinate Zd of the gazing range to the model moving means 14. Next, the model moving unit 14 determines whether the image displayed this time, that is, the image currently subjected to the above processing is a new image or a changed image (step S107).

【0157】ここで変更画像とは、直前までにディスプ
レイ面1a上に表示されていた画像を単に回転させた
り、姿勢を変えたり(ステップS104参照)した画
像、すなわち直前の画像と連続性を有する画像をいう。
新規画像とは、それ以外の画像をいう。
Here, the changed image is an image obtained by simply rotating the image displayed on the display surface 1a up to immediately before or changing the posture (see step S104), that is, having continuity with the immediately preceding image. An image.
The new image is an image other than that.

【0158】画像が新規画像の場合、モデル移動手段1
4は、注視範囲推定手段13により算出された注視範囲
の奥行き座標Zdに基づいて、図7(b)、(c)に示
すように、注視点Pが図9に示す立体視容易領域内に入
るようにモデル全体を奥行き方向(Z軸方向)に平行移
動する(ステップS110)。本実施形態においては、
視点中心Oからディスプレイ面1aの中心までの距離が
60cmであるから、注視点は図10のグラフの横軸に
示す視点中心Oからの奥行き距離がAn1(cm)からA
f1(cm)の範囲に位置させればよい。
When the image is a new image, the model moving means 1
4 is based on the depth coordinates Zd of the gazing range calculated by the gazing range estimating means 13, and as shown in FIGS. 7B and 7C, the gazing point P is within the stereoscopic view easy region shown in FIG. The entire model is translated in the depth direction (Z-axis direction) so as to enter (step S110). In this embodiment,
Since the distance from the viewpoint center O to the center of the display surface 1a is 60 cm, the gazing point has a depth distance from the viewpoint center O shown on the horizontal axis of the graph in FIG. 10 from An1 (cm) to A.
It may be located within the range of f1 (cm).

【0159】画像が変更画像の場合、モデル移動手段1
4は、そのままステップS110の処理を行ったと仮定
した場合の注視点位置が、現在処理対象となっている画
像の直前の画像の注視点位置に対して、輻輳角に換算し
て1度以上移動するか否かを判断し(ステップS10
8)、1度以下の場合は、上記と同様にしてステップS
110の処理を行う。ここで判定基準を1度以下とした
のは、輻輳角に換算して1度以上注視点位置が移動した
場合、眼に対する負担が大きくなりすぎるからである。
なお、眼に対する負担を感じるか否かについては個人差
があるため、判定基準を1度以下の値、例えば0.5度
としてもよい。
When the image is a modified image, the model moving means 1
4 indicates that the gazing point position, assuming that the process of step S110 has been performed as it is, moves once or more in terms of the convergence angle with respect to the gazing point position of the image immediately before the image currently being processed. It is determined whether or not (step S10
8) If it is once or less, perform step S in the same manner as above.
The process of 110 is performed. Here, the criterion is set to 1 degree or less because the burden on the eye becomes too large when the gazing point position moves by 1 degree or more in terms of the convergence angle.
Since there is an individual difference in whether or not the burden on the eyes is felt, the criterion may be set to a value of 1 degree or less, for example, 0.5 degree.

【0160】一方、モデル移動手段14は、そのままス
テップS110の処理を行ったと仮定した場合の注視点
位置が、直前に表示されている画像の注視点位置に対し
て、輻輳角に換算して1度以上移動する場合は、モデル
の移動量に所定の制限を加える。すなわちこの場合、モ
デル移動手段14は、移動後の注視点位置が直前の画像
の注視点位置に対して、輻輳角に換算して1度以上移動
しないように制限しつつ、注視点位置がなるべく立体視
容易領域に近付くようにモデル全体を奥行き方向(Z軸
に沿って)に平行移動する(ステップS109)。この
ようにして移動されたモデルの位置データ(注視点の移
動量の制限がされた場合はその旨も)は、モデルデータ
管理手段19に送られ記憶される。
On the other hand, the model moving means 14 converts the gaze point position on the assumption that the processing of step S110 is performed as it is into the convergence angle with respect to the gaze point position of the image displayed immediately before, When moving more than once, a predetermined limit is applied to the amount of movement of the model. That is, in this case, the model moving means 14 restricts the position of the point of interest after movement to the position of the point of interest of the immediately preceding image so as not to move by 1 degree or more in terms of the convergence angle, and the position of the point of interest should be as much as possible. The entire model is translated in the depth direction (along the Z-axis) so as to approach the stereoscopic view easy region (step S109). The position data of the model moved in this way (and also to that effect when the amount of movement of the gazing point is limited) is sent to and stored in the model data management means 19.

【0161】次に、モデルデータ管理手段19はモデル
拡大縮小手段15にモデルの移動距離のデータを送る。
このデータを受けとったモデル拡大縮小手段15は、モ
デルの大きさを移動距離に対応して変化させる(ステッ
プS111)。例えば、注視点Pをディスプレイ面1a
に一致させるのであれば、(移動前のモデルの大き
さ):(移動後のモデルの大きさ)=(移動前の注視点
PのZ座標Zd):(移動後の注視点のZ座標)なる関
係が成立するように、視点中心からの注視点の距離に比
例するようにモデルの大きさを変更する。これにより、
移動前後でのモデルの見た目の大きさ(使用者の網膜に
写る像の大きさ)が同じになるため、使用者はモデルの
奥行き距離の変化に気付かない。このようにすれば、モ
デルを順次回転させてモデルを異なる角度から見ようと
する場合等において、画面の書き替え時にモデルがいき
なり近付いたり遠ざかったりするような違和感を使用者
に感じさせることがないため、使用者の眼の疲労を低減
する上で有効である。以上のようにして変更されたモデ
ルの大きさのデータは、モデルデータ管理手段19に送
られ記憶される。
Next, the model data managing means 19 sends the model moving distance data to the model enlarging / reducing means 15.
The model enlarging / reducing means 15 which has received this data changes the size of the model in accordance with the moving distance (step S111). For example, if the gazing point P is the display surface 1a
(The size of the model before the movement): (the size of the model after the movement) = (Z coordinate Zd of the gazing point P before the movement): (Z coordinate of the gazing point after the movement) The size of the model is changed in proportion to the distance of the gazing point from the center of the viewpoint so that This allows
Since the apparent size of the model before and after the movement (the size of the image reflected on the user's retina) is the same, the user does not notice the change in the depth distance of the model. By doing so, when the model is rotated sequentially and the model is viewed from different angles, the user does not feel discomfort that the model suddenly approaches or moves away when the screen is rewritten. , Is effective in reducing fatigue of the eyes of the user. The model size data changed as described above is sent to and stored in the model data management unit 19.

【0162】なお、ここではモデルの見た目の大きさが
変わらないように比例係数を設定したがこれに必ずしも
忠実である必要はない。
Although the proportional coefficient is set here so that the size of the appearance of the model does not change, it is not always necessary to be faithful to this.

【0163】次に、モデルデータ管理手段19は、モデ
ルの位置データおよびモデルの大きさのデータを奥行き
距離縮小手段16に送る。ここでは、眼間距離を変える
ことにより、知覚上の奥行き距離を縮小する。データを
受けとった奥行き距離縮小手段16は、初期値として設
定された眼間距離に基づいて、図11に示すグラフより
モデル全体が立体視容易領域内に入っているか否かを判
断する(ステップS112)。
Next, the model data management means 19 sends the model position data and the model size data to the depth distance reduction means 16. Here, the perceptual depth distance is reduced by changing the inter-eye distance. Upon receiving the data, the depth distance reduction unit 16 determines whether or not the entire model is within the stereoscopic view easy region based on the graph shown in FIG. 11 based on the interocular distance set as the initial value (step S112). ).

【0164】モデルの一部が立体視容易領域の外にある
場合、奥行き距離縮小手段16は、初期値として設定さ
れた眼間距離を小さくするように補正する(ステップS
113)。眼間距離をD0からD1に縮小することによ
り、図12(a)、(b)に示すように、ディスプレイ
面1aに表示される左眼用像と右眼用像とのずれ量がd
0からd1に縮小される。立体視が容易は否かは左眼用
像と右眼用像とのずれ量が所定範囲内にあるか否かによ
り決定されるため、眼間距離を適宜小さくすることによ
りモデル全体を立体視容易領域内に収めることが可能と
なる。
If a part of the model is outside the area for easy stereoscopic viewing, the depth distance reducing means 16 corrects the inter-eye distance set as an initial value to be small (step S).
113). By reducing the inter-eye distance from D0 to D1, as shown in FIGS. 12A and 12B, the shift amount between the left-eye image and the right-eye image displayed on the display surface 1a is d.
It is reduced from 0 to d1. Whether or not stereoscopic viewing is easy is determined by whether or not the amount of displacement between the left-eye image and the right-eye image is within a predetermined range.Therefore, the entire model can be stereoscopically viewed by appropriately reducing the inter-eye distance. It becomes possible to fit within the easy area.

【0165】また図11は、視点中心からディスプレイ
面1aまでの距離を一定とした場合の、眼間距離の補正
基準を示すグラフであり、縦軸を眼間距離、横軸をモデ
ルの視点中心Oからの奥行き距離としている。以下、こ
のグラフの作成方法について説明する。
FIG. 11 is a graph showing the correction standard of the interocular distance when the distance from the viewpoint center to the display surface 1a is constant, where the vertical axis is the interocular distance and the horizontal axis is the viewpoint center of the model. Depth distance from O. The method of creating this graph will be described below.

【0166】まず、図10に基づいて、視点中心Oから
ディスプレイ面1aまでの奥行き距離(本実施形態にお
いて60cm)に対応する立体視容易領域の両端の視点
中心Oからの距離An1(cm)、Af1(cm)を求め
る。これにより初期値として設定される本来の眼間距離
D0の場合の立体視容易領域の両端の視点中心Oからの
奥行き距離が求められる。これにより図11における点
L,Mが決定される。
First, based on FIG. 10, the distance An1 (cm) from the viewpoint center O at both ends of the stereoscopic view easy region corresponding to the depth distance (60 cm in this embodiment) from the viewpoint center O to the display surface 1a, Calculate Af1 (cm). As a result, the depth distance from the viewpoint center O at both ends of the stereoscopic view easy region in the case of the original inter-eye distance D0 set as the initial value is obtained. As a result, the points L and M in FIG. 11 are determined.

【0167】次に、図13(a)に基づいて、立体視容
易領域の手前側端にモデルの要素Eが位置していると仮
定して、眼間距離D0と要素Eの視点中心Oからの距離
An1に基づいて、要素Eがディスプレイ面1aに表示さ
れる場合の左眼用像ILと右眼用像IRの位置を求め、
左眼用像IRと右眼用像ILのずれ量d0を算出する。
このずれ量d0が、立体視容易領域の手前外側に位置す
る要素を表示する像IL,IRについての最大許容ずれ
量となる。
Next, based on FIG. 13 (a), assuming that the element E of the model is located at the front side end of the easy stereoscopic region, from the inter-eye distance D0 and the viewpoint center O of the element E. The positions of the left-eye image IL and the right-eye image IR when the element E is displayed on the display surface 1a are obtained based on the distance An1 of
A shift amount d0 between the left-eye image IR and the right-eye image IL is calculated.
The shift amount d0 is the maximum allowable shift amount for the images IL and IR that display the elements located on the outer side of the easy stereoscopic region.

【0168】次に、図13(a)に示すように、眼間距
離D0の場合に立体視容易領域の手前側外部であって視
点中心Oからの奥行き距離がAnの位置に位置するモデ
ルの要素E′を考える。次いで、左眼用像IL、右眼用
像IRからそれぞれ要素E′を通る直線を作成し、これ
ら直線のX軸との交点をそれぞれ求める。これら交点間
の距離Dが、視点中心Oからの奥行き距離がAnの位置
に位置するモデルの要素E′に対して容易に立体視が行
える眼間距離Dの最大値となる。
Next, as shown in FIG. 13A, in the case of the inter-eye distance D0, the model is located outside the front side of the easy stereoscopic viewing area and the depth distance from the viewpoint center O is An. Consider element E '. Next, straight lines passing through the element E ′ are created from the left-eye image IL and the right-eye image IR, and the intersections of these straight lines with the X axis are obtained. The distance D between these intersections is the maximum value of the inter-eye distance D that enables stereoscopic viewing easily with respect to the model element E ′ located at the position where the depth distance from the viewpoint center O is An.

【0169】ただし、モデル要素E′が視点中心に極め
て近い場合、例えば視点中心Oからの奥行き距離が視点
中心Oから画面までの距離Aiの1/10以下のとき
は、眼間距離が極端に小さくなるためにほとんど視差が
つかず立体感が得られない。そこで、モデル要素E′の
奥行き距離が視点中心OからAiの1/10以下の場
合、眼間距離はモデル要素E′が視点中心OからAiの
1/10の位置にある場合と同じにする。モデルが視点
中心に極端に近い場合は、モデルの見かけ上の大きさが
大きくなるために、視野からはみ出す部分が増え、全体
としての形状認識が困難となる。したがって、上で定め
た最大許容ずれ量を越えた画像が表示されても気になら
ない。
However, when the model element E ′ is extremely close to the center of the viewpoint, for example, when the depth distance from the center O of the viewpoint is 1/10 or less of the distance Ai from the center O of the viewpoint to the screen, the inter-eye distance becomes extremely large. Since it is small, there is almost no parallax and a stereoscopic effect cannot be obtained. Therefore, when the depth distance of the model element E ′ is 1/10 or less of Ai from the viewpoint center O, the interocular distance is the same as when the model element E ′ is 1/10 of Ai from the viewpoint center O. . When the model is extremely close to the center of the viewpoint, the apparent size of the model becomes large, so that the part protruding from the field of view increases and it becomes difficult to recognize the shape as a whole. Therefore, it does not matter if an image is displayed that exceeds the maximum allowable shift amount defined above.

【0170】このようにして視点中心Oからの奥行き距
離Anを変化させて、変化した距離Anに対応する眼間
距離Dの最大値を求め、図11のグラフに(距離An、
距離Anに対応する眼間距離D)をプロットしてゆくこ
とにより、図11のグラフにおける曲線KLを定めるこ
とができる。この曲線KLにより、立体視容易領域の手
前側に位置する要素の立体視が容易にできる眼間距離を
定めることができる。
In this way, the depth distance An from the viewpoint center O is changed, and the maximum value of the interocular distance D corresponding to the changed distance An is obtained, and the graph (distance An,
By plotting the interocular distance D) corresponding to the distance An, the curve KL in the graph of FIG. 11 can be determined. With this curve KL, it is possible to determine the inter-eye distance at which the element located on the front side of the easy stereoscopic view area can easily perform stereoscopic view.

【0171】また、図13(b)により、上記手法と同
様にして、立体視容易領域の奥外側に位置する要素の立
体視を容易にするための眼間距離の補正基準を示す曲線
MNを定めることができる。
Further, as shown in FIG. 13B, a curve MN indicating the correction standard of the inter-eye distance for facilitating the stereoscopic viewing of the elements located on the outer side of the stereoscopic viewing easy region is obtained in the same manner as the above method. Can be set.

【0172】以上のようにして求められた図11のグラ
フに基づいて、奥行き距離縮小手段16は、初期値とし
て設定された眼間距離を小さくするように補正する。例
えば、図11のグラフに示すように、注視点Pを中心と
してモデルの各要素が矢印Fで示す範囲に分布している
とする。この場合、矢印Fで示す範囲の最も手前側に位
置する要素の視点中心Oからの奥行き距離がAnの時
は、曲線KLに従って眼間距離をDにすればモデルの全
要素に対して立体視を容易に行えるようにすることがで
きる。
Based on the graph of FIG. 11 obtained as described above, the depth distance reducing means 16 corrects the inter-eye distance set as the initial value to be small. For example, as shown in the graph of FIG. 11, it is assumed that each element of the model is distributed in the range indicated by the arrow F with the gazing point P as the center. In this case, when the depth distance from the viewpoint center O of the element located closest to the front in the range indicated by the arrow F is An, if the inter-eye distance is set to D according to the curve KL, all the elements of the model are stereoscopically viewed. Can be easily performed.

【0173】なお、モデルを構成する各要素の分布をみ
て、例えば1つの要素のみが他の要素の位置よりずっと
奥に位置しているような場合には、必ずしも全ての要素
を立体視容易領域に入るようにしなくてもよい。すなわ
ち少なくともモデルの要部が立体視容易領域内に入るよ
うにしてもよい。
Looking at the distribution of each element forming the model, for example, when only one element is located far behind the positions of other elements, all the elements are not necessarily in the stereoscopic view easy region. You don't have to enter. That is, at least the main part of the model may be included in the easy stereoscopic view region.

【0174】以上、モデルの一部が立体視容易領域の外
にある場合について説明したが、ステップS111終了
時点でモデル全体が立体視容易領域内に入っている場合
は、奥行き距離縮小手段16は眼間距離を初期値のまま
維持する。
The case where a part of the model is outside the stereoscopic view easy area has been described above. However, if the entire model is within the stereoscopic view easy area at the end of step S111, the depth distance reducing means 16 is The eye distance is maintained at the initial value.

【0175】以上のようにして設定された眼間距離は、
モデルデータ管理手段19に送られ記憶される。
The inter-eye distance set as described above is
It is sent to and stored in the model data management means 19.

【0176】また、注視点Pではなく注視範囲全体を基
礎として処理を行う場合には、モデルの最も手前側の要
素の代わりに注視範囲の手前の位置、モデルの最も奥の
要素の代わりに注視範囲の奥の位置を基準にすることに
より、前記と同様の方法でモデルの移動、拡大、眼間距
離の変更を行うことができる。
When the processing is performed on the basis of the entire gazing range instead of the gazing point P, the position of the foreground of the gazing range is used instead of the foremost element of the model, and the gazing point is used for the deepest element of the model. By using the position at the back of the range as a reference, the model can be moved, enlarged, and the interocular distance can be changed in the same manner as described above.

【0177】次に、モデルデータ管理手段19は、モデ
ルの位置データ、モデルの大きさのデータ、および眼間
距離のデータを色調変更手段17に送る。色調変更手段
17は、これらデータに基づいて、表示される画像に対
して空気透視の効果が必要か否かを判断する(ステップ
S114)。
Next, the model data managing means 19 sends the model position data, the model size data, and the interocular distance data to the color tone changing means 17. The color tone changing unit 17 determines whether or not the effect of the air see-through is necessary for the displayed image based on these data (step S114).

【0178】空気透視の効果が必要な場合とは、例え
ば、注視点から奥の方にモデルの要素が多い場合であ
る。このような場合、奥の方の要素は奥行き座標(Z座
標)が互いに異なる場合でも、実際にディスプレイ1上
に表示される場合には両眼像のずれ量があまり変わらな
いため、画像を見る人間が各要素間の奥行きの差を認識
しづらいからである。
The case where the effect of the air see-through is required is, for example, the case where there are many model elements in the depth direction from the gazing point. In such a case, even if the depth-side elements (Z-coordinates) of the elements at the back are different from each other, the amount of displacement between the binocular images does not change so much when the image is actually displayed on the display 1, so that the image is viewed. This is because it is difficult for humans to recognize the difference in depth between each element.

【0179】また、空気透視の効果が必要な場合の他の
例として、奥行き距離縮小手段16により設定された眼
間距離が小さい場合がある。その理由は、眼間距離が小
さく設定された場合、眼間距離が大きく設定された場合
に比べて、ディスプレイ1上に表示される左眼用像と右
眼用像とのずれ量が小さくなるため、画像を見る人間が
各要素間の奥行きの差を認識しづらいからである。
As another example of the case where the effect of the air see-through is required, the inter-eye distance set by the depth distance reducing means 16 may be small. The reason is that when the inter-eye distance is set small, the amount of deviation between the left-eye image and the right-eye image displayed on the display 1 is smaller than when the inter-eye distance is set large. Therefore, it is difficult for a person who views the image to recognize the difference in depth between the elements.

【0180】空気透視の効果が必要と判断された場合、
色調変更手段17は、モデルの色調を視点中心Oからの
奥行き距離が大きくなるにつれて、すなわちモデルの要
素EのZ座標が大きくなるにつれて背景色に近付けるよ
うに修正する(ステップS115)。空気透視の効果が
必要ないと判断された場合、色調変更手段17は、モデ
ルの色調を現状のまま維持する。
When it is judged that the effect of fluoroscopy is necessary,
The color tone changing unit 17 modifies the color tone of the model so as to approach the background color as the depth distance from the viewpoint center O increases, that is, as the Z coordinate of the element E of the model increases (step S115). When it is determined that the effect of the fluoroscopy is not necessary, the color tone changing unit 17 maintains the color tone of the model as it is.

【0181】なお、空気透視の効果は常に付与するよう
にしてもよいし、常に付与しないようにしてもよい。
The effect of the air see-through may be always added or may not be always added.

【0182】以上のようにして変更(または維持)され
たモデルの色調は、モデルデータ管理手段19に送られ
記憶される。
The color tone of the model changed (or maintained) as described above is sent to the model data management means 19 and stored therein.

【0183】以上の説明したように、ステップS115
までの処理が終了すると、モデルデータ管理手段19に
は、ディスプレイ1上に表示すべきモデルの立体視シス
テムの座標系における位置と、モデルの大きさ(形状も
含む)および色調と、ディスプレイ1上に表示すべきモ
デルの像(左眼用像および右眼用像)の表示位置の計算
の基礎となる眼間距離とが保持されることになる。
As described above, step S115
When the processes up to are completed, the model data management unit 19 causes the model 1 to display on the display 1 the position of the model to be displayed on the display 1 in the coordinate system of the stereoscopic system, the size (including the shape) and the color tone of the model. The inter-eye distance, which is the basis of calculation of the display position of the model images (left-eye image and right-eye image) to be displayed on the screen, is held.

【0184】次に、モデルデータ管理手段19は上記デ
ータを画像データ作成手段20に送る。また、制御手段
10は、GUIデータ管理手段21からディスプレイ1
に表示すべきグラフィックユーザーインターフェースア
イテムに関するデータを読み込み画像データ作成手段2
0に引き渡す。画像データ作成手段20は、グラフィッ
クユーザーインターフェースアイテムを、立体視システ
ムの座標系においてモデル移動手段14により移動され
た後の注視点と同じZ座標を有するXY平面と平行な平
面上またはこの平面近傍に配置する(ステップS11
6)。
Next, the model data managing means 19 sends the above data to the image data creating means 20. In addition, the control unit 10 controls the GUI data management unit 21 to display the display 1
Image data creating means 2 for reading data related to graphic user interface items to be displayed on
Deliver to 0. The image data creating means 20 places the graphic user interface item on or near a plane parallel to the XY plane having the same Z coordinate as the gazing point after being moved by the model moving means 14 in the coordinate system of the stereoscopic system. Arrange (step S11
6).

【0185】画像データ作成手段20は、上記データに
基づいてディスプレイ面1a上におけるモデルの各要素
に対して、左眼用像および右眼用像としての表示位置お
よび表示寸法を決定するとともに、ディスプレイ1上に
表示すべきグラフィックユーザーインターフェースアイ
テムの立体視システムの座標系における位置を決定する
(ステップS117)。
The image data creating means 20 determines the display position and the display size as the image for the left eye and the image for the right eye for each element of the model on the display surface 1a based on the above data, and The position of the graphic user interface item to be displayed on the display unit 1 in the coordinate system of the stereoscopic system is determined (step S117).

【0186】以下、図14(a)、(b)により、画像
データ作成手段20の作用を具体的に説明する。まず、
図14(a)に示すように、モデルを構成する要素E1
が立体視システムの座標系においてディスプレイ面1a
より手前側にある場合について説明する。
The operation of the image data creating means 20 will be specifically described below with reference to FIGS. 14 (a) and 14 (b). First,
As shown in FIG. 14A, the element E1 that constitutes the model
Is the display surface 1a in the coordinate system of the stereoscopic system.
The case of being on the front side will be described.

【0187】まず、左眼3aと要素E1の中心CE1を通
る直線L1(図14(a)一点鎖線参照)が設定され
る。次いで、直線LL とディスプレイ面1aとの交点C
L1が求められ、この交点CL1がディスプレイ面1a上に
表示される要素E1の左眼用像IL1の中心位置(表示位
置)として決定される。次いで、左眼3aと要素E1と
の間の距離と左眼3aと交点CR1との間の距離の比と、
要素E1の大きさと左眼用像IL1の大きさとの比が等し
くなるように、左眼用像IL1の大きさが決定され、この
決定に基づいて左眼用の画像データが作成される。ま
た、右眼用像IR1についても同様の手法で、その中心位
置CR1および大きさが決定され、この決定に基づいて右
眼用の画像データが作成される。
First, a straight line L1 passing through the left eye 3a and the center CE1 of the element E1 (see the alternate long and short dash line in FIG. 14A) is set. Next, the intersection C between the straight line LL and the display surface 1a
L1 is obtained, and the intersection CL1 is determined as the center position (display position) of the left-eye image IL1 of the element E1 displayed on the display surface 1a. Then, the ratio of the distance between the left eye 3a and the element E1 and the distance between the left eye 3a and the intersection point CR1,
The size of the image IL1 for the left eye is determined so that the ratio of the size of the element E1 to the size of the image IL1 for the left eye is equal, and the image data for the left eye is created based on this determination. The center position CR1 and size of the right-eye image IR1 are determined by the same method, and the right-eye image data is created based on this determination.

【0188】なお、図14(b)は、モデルを構成する
要素E2が立体視システムの座標系においてディスプレ
イ面1aより奥側にある場合を示しており、この場合
も、図14(a)により説明したのと同様の手法によ
り、左眼用画像および右眼用画像の中心位置および大き
さが決定される。
Note that FIG. 14B shows the case where the element E2 that constitutes the model is on the back side of the display surface 1a in the coordinate system of the stereoscopic system, and in this case also, according to FIG. The center positions and sizes of the left-eye image and the right-eye image are determined by the same method as described above.

【0189】また、画像データ作成手段20は、グラフ
ィックユーザーインターフェースアイテムについても、
上記と同様の処理を行い、左眼用像および右眼用像の表
示位置および大きさを決定する。
The image data creating means 20 also applies to the graphic user interface item,
The same processing as above is performed to determine the display positions and sizes of the left-eye image and the right-eye image.

【0190】また、要素E1と要素E2とが同時に表示
され、かつ前述したステップS115において、色調変
更手段17によりモデルの色調が視点中心からの奥行き
距離が大きくなるにつれて背景色に近付けるように修正
されている場合、画像データ作成手段20は、要素E2
に対応する左眼用像IL2および右眼用像IR2の色調を、
要素E1に対応する左眼用像IL1および右眼用像IR1の
色調より背景色に近付けた画像データを作成する。
Further, the element E1 and the element E2 are displayed at the same time, and in the above-mentioned step S115, the color tone changing means 17 corrects the color tone of the model so as to approach the background color as the depth distance from the center of the viewpoint increases. If it is, the image data creating means 20 uses the element E2.
The color tones of the image IL2 for the left eye and the image IR2 for the right eye corresponding to
Image data that is closer to the background color than the color tones of the left-eye image IL1 and the right-eye image IR1 corresponding to the element E1 is created.

【0191】また、要素E1と要素E2とが同時に表示
され、かつ要素E1および要素E2にそれぞれ対応する
左眼用および/または右眼用像が互いに重なりあう場
合、画像データ作成手段20は、手前側にある要素E1
の画像データを優先的に採用し、奥側にある要素E2に
対応する画像データのうち手前側にある要素E1に対応
する画像と重なる部分の画像データを削除する。
Further, when the element E1 and the element E2 are displayed at the same time, and the images for the left eye and / or the right eye corresponding to the elements E1 and E2 respectively overlap each other, the image data creating means 20 is Element E1 on the side
Of the image data corresponding to the element E2 on the back side is deleted, and the image data of the portion overlapping with the image corresponding to the element E1 on the front side is deleted.

【0192】次に、画像データ作成手段20は左眼用画
像データおよび右眼用画像データをディスプレイ1に送
り、ディスプレイ1はディスプレイ面1a上に、当該画
像データに基づいて画像を表示する(ステップS11
8)。
Next, the image data creating means 20 sends the image data for the left eye and the image data for the right eye to the display 1, and the display 1 displays an image on the display surface 1a based on the image data (step). S11
8).

【0193】次に、制御手段10は、引き続き立体視シ
ステムを使用するか否かを問い合わせる(ステップS1
03)。ここで、例えば、使用者がモデルの向きを変え
て表示させたい場合、ステップS104の操作が行わ
れ、その後ステップS105以降の操作が行われる。
Next, the control means 10 inquires whether or not the stereoscopic system will be continuously used (step S1).
03). Here, for example, when the user wants to change the orientation of the model for display, the operation of step S104 is performed, and then the operations of step S105 and subsequent steps are performed.

【0194】以上説明したように、本実施形態によれ
ば、モデルを表す画像を自動的に最適な立体視条件でデ
ィスプレイに表示することができる。このため、使用者
が感じる画像に対する違和感および眼の疲れを低減する
ことができる。
As described above, according to this embodiment, the image representing the model can be automatically displayed on the display under the optimum stereoscopic viewing condition. Therefore, it is possible to reduce the feeling of discomfort in the image that the user feels and the eye fatigue.

【0195】なお、この実施形態の立体視システムで
は、使用者の眼の疲れをさらに低減するため、以下のよ
うな手法をとる。すなわち、両眼融合式の立体視システ
ムは、通常の2次元表示を行うシステムと比較すると、
やはり観察者の眼に一定の負担を与えるということがあ
る。このため、このシステムでは、このような観察者の
負担を一層和らげるため、図1に示すように、左眼用画
像と右眼用画像のずれ量を調整するずれ量調整手段22
を有する。
In the stereoscopic vision system of this embodiment, the following method is adopted in order to further reduce the fatigue of the eyes of the user. That is, the binocular fusion type stereoscopic system is compared with a system which performs a normal two-dimensional display.
After all, it sometimes gives a certain burden to the eyes of the observer. Therefore, in this system, in order to further alleviate the burden on the observer, as shown in FIG. 1, the shift amount adjusting means 22 for adjusting the shift amount between the image for the left eye and the image for the right eye.
Have.

【0196】このずれ量調整手段22は、画像表示時間
を監視し、表示開始から一定時間経過したならば、ずれ
量調整指令を、前記モデルデータ管理手段19を介して
前記画像データ作成手段20に発する。
The deviation amount adjusting means 22 monitors the image display time, and when a certain time has elapsed from the start of display, the deviation amount adjusting command is sent to the image data creating means 20 via the model data managing means 19. Emit.

【0197】立体視の効果は左眼用画像と右眼用画像の
ずれ量(図14(a)におけるCL1、CR1間の距離)に
左右され、このずれ量が小さくなるほど立体視の効果は
小さくなる。一方、このずれ量が大きくなると立体視効
果は大きくなるが、大きくなりすぎると人は左眼と右眼
用の画像を融合させること、すなわち立体視が不可能と
なる。
The effect of stereoscopic vision depends on the amount of deviation (the distance between CL1 and CR1 in FIG. 14A) between the image for the left eye and the image for the right eye. The smaller the amount of deviation, the smaller the effect of stereoscopic vision. Become. On the other hand, if this shift amount becomes large, the stereoscopic effect becomes large, but if it becomes too large, a person cannot combine the images for the left eye and the right eye, that is, stereoscopic vision becomes impossible.

【0198】この実施形態では、前記データ作成手段2
0は、前記指令に基づき、図14(a)におけるCL1、
CR1間の距離、図14(b)におけるCL2、CR2間の距
離を臨界ずれ量として、図20(a)、(b)に示すよ
うに、ずれ量を変化させる。
In this embodiment, the data creating means 2
0 is CL1 in FIG. 14 (a) based on the command,
With the distance between CR1 and the distance between CL2 and CR2 in FIG. 14 (b) as the critical shift amount, the shift amount is changed as shown in FIGS. 20 (a) and 20 (b).

【0199】すなわち、図20(a)に示すように、表
示開始から所定の時間t1(例えば20分)を経過する
までは、上記ずれ量は臨界ずれ量であるが、前記時間t
1を過ぎると、前記ずれ量調整手段22からの指令に基
づき、前記データ作成手段20は、前記ずれ量を所定の
周期で緩やかに変化させ立体感を弱めるようにする。
That is, as shown in FIG. 20A, the deviation amount is a critical deviation amount until a predetermined time t1 (for example, 20 minutes) elapses from the start of the display.
When the number exceeds 1, the data creating means 20 gradually changes the deviation amount in a predetermined cycle based on a command from the deviation amount adjusting means 22 to weaken the stereoscopic effect.

【0200】このような処理を行うことにより、立体感
の強い画像を長時間見続けることが防止されるので、観
察者の眼の疲労を低減することができる。
By carrying out such a processing, it is possible to prevent an image having a strong stereoscopic effect from being continuously viewed for a long time, so that fatigue of the eyes of the observer can be reduced.

【0201】なお、図20(b)に示すような処理を行
うようにしても良い。この例では、画像表示開始時に
は、ずれ量を臨界値よりも小さくしておき、立体感を弱
めておく。そして、時間の経過に伴って臨界値に近づけ
る。
The processing shown in FIG. 20 (b) may be performed. In this example, when the image display is started, the shift amount is set smaller than the critical value to weaken the stereoscopic effect. Then, it approaches the critical value with the passage of time.

【0202】すなわち、立体視は、人間が左眼用画像と
右眼用画像を融合させることにより実現されるものであ
るが、見始めはこれになれていないため、うまく融合を
行えなかったり眼に係る負担が大きいということが考え
られる。しかし、この図20(b)に示す処理を行え
ば、このような問題点は解消される。
That is, although stereoscopic vision is realized by a human fusing the image for the left eye and the image for the right eye, this is not the case at the beginning to see, so that the fusion cannot be performed successfully or It is conceivable that the burden on However, if the processing shown in FIG. 20B is performed, such a problem is solved.

【0203】一方、本実施形態においては、立体視条件
を定めるにあたって、立体視システムの座標系上でモデ
ル全体を移動(ステップS109および110参照)し
た後、この移動のみではモデル全体が立体視容易領域に
入らない場合に、これを補うために眼間距離を補正(ス
テップS115参照)することにより奥行き距離を縮小
するようにしている。このため、単純に奥行き方向の空
間を縮小する場合より十分な立体感をもって立体視を行
うことができる。
On the other hand, in the present embodiment, in determining the stereoscopic viewing condition, after the entire model is moved on the coordinate system of the stereoscopic system (see steps S109 and 110), the entire model can be easily stereoscopically viewed. When it does not enter the area, the depth distance is reduced by correcting the inter-eye distance (see step S115) to compensate for this. Therefore, stereoscopic viewing can be performed with a sufficient stereoscopic effect as compared with the case where the space in the depth direction is simply reduced.

【0204】以下、眼間距離の補正を優先的に行うよう
にした場合に発生する問題点について図15(a)〜
(c)および図16(a)、(b)を参照して説明す
る。
The problems occurring when the inter-eye distance is corrected preferentially will be described below with reference to FIGS.
This will be described with reference to (c) and FIGS. 16 (a) and 16 (b).

【0205】図15(a)に示すように、立体視システ
ムの座標系にモデルの各要素E1,E2,E3が配置さ
れているとする。ここで眼間距離が初期値D0である場
合、ディスプレイ面1aには、要素E1,E2,E3に
それぞれ対応する左眼用画像IL1〜IL3および右眼用画
像IR1〜IR3が表示される。ここで図15(b)に示す
ように、眼間距離を初期値D0からDに縮小したとす
る。するとディスプレイ面1aには、要素E1,E2,
E3にそれぞれ対応する左眼用画像IL1′〜IL3′およ
び右眼用画像IR1′〜IR3′が表示される。眼間距離を
変化させる方法によれば、眼間距離を変化させる前の左
眼用画像IL1〜IL3および右眼用画像IR1〜IR3と、眼
間距離を変化させた後の左眼用画像IL1′〜IL3′およ
び右眼用画像IR1′〜IR3′との大きさが変化しないと
いう利点はある。
As shown in FIG. 15A, it is assumed that the model elements E1, E2, E3 are arranged in the coordinate system of the stereoscopic system. When the interocular distance is the initial value D0, the left-eye images IL1 to IL3 and the right-eye images IR1 to IR3 corresponding to the elements E1, E2, and E3 are displayed on the display surface 1a. Here, as shown in FIG. 15B, it is assumed that the interocular distance is reduced from the initial value D0 to D. Then, on the display surface 1a, the elements E1, E2,
Left eye images IL1 'to IL3' and right eye images IR1 'to IR3' respectively corresponding to E3 are displayed. According to the method of changing the interocular distance, the images IL1 to IL3 for the left eye and the images IR1 to IR3 for the right eye before changing the interocular distance, and the image IL1 for the left eye after changing the interocular distance. There is an advantage in that the sizes of the'-IL3 'and the right-eye images IR1'-IR3' do not change.

【0206】ところが、眼間距離の補正は、あくまで画
像処理上行われているにすぎず、ディスプレイ面1aを
眺める使用者の実際の眼間距離が変化しているわけでは
ない。このため図15(c)に示すように、ディスプレ
イ面1aを眺める使用者には要素E1,E2,E3が、
それぞれE1′,E2′,E3′の位置にあるように知
覚されることになる。すなわちこの場合、使用者は、要
素E1,E2,E3の奥行き方向の幅を著しく圧縮され
た状態で知覚することになってしまう。
However, the correction of the interocular distance is merely performed in the image processing, and the actual interocular distance of the user who looks at the display surface 1a does not change. Therefore, as shown in FIG. 15C, the user who looks at the display surface 1a sees the elements E1, E2, and E3.
It will be perceived as being at the positions of E1 ', E2', and E3 ', respectively. That is, in this case, the user perceives the widths of the elements E1, E2, and E3 in the depth direction in a significantly compressed state.

【0207】本実施形態は、モデル全体の移動を優先的
に行うことにより、上記問題を解決している。すなわ
ち、本実施形態においては眼間距離の補正を行う前に、
図16(b)に示すように要素E1,E2,E3を立体
視システムの座標系上で奥行き方向に移動する。このよ
うにすれば、図16(a)、(b)に示すように、使用
者が知覚する要素E1,E2,E3の位置関係は変化し
ない。ただし、モデル全体の移動を行うとディスプレイ
面1a上に表示される左眼用画像および右眼用画像の大
きさが変化するため、この大きさの変化を補正するた
め、モデルを構成する各要素の移動距離に対応させて各
要素の大きさを補正している(ステップS111参
照)。本実施形態においては、モデルを立体視容易領域
に収めるためにモデル全体の移動のみで不十分な部分に
ついてのみ眼間距離の補正を行い対処している。従っ
て、モデルの各要素の奥行き感の減少は最小限に抑えら
れる。
The present embodiment solves the above problem by preferentially moving the entire model. That is, in this embodiment, before performing the correction of the interocular distance,
As shown in FIG. 16B, the elements E1, E2, E3 are moved in the depth direction on the coordinate system of the stereoscopic system. In this way, the positional relationship of the elements E1, E2, E3 perceived by the user does not change, as shown in FIGS. 16 (a) and 16 (b). However, when the entire model is moved, the sizes of the left-eye image and the right-eye image displayed on the display surface 1a change. Therefore, in order to correct this change in size, each element forming the model is corrected. The size of each element is corrected in accordance with the moving distance of (see step S111). In the present embodiment, in order to fit the model in the area for easy stereoscopic vision, the interocular distance is corrected only for the portion where movement of the entire model is insufficient, and this is dealt with. Therefore, the reduction in the sense of depth of each element of the model is minimized.

【0208】また、このような両眼融合式立体視システ
ムでは、モデルが画面の縁部に位置する場合には、この
モデルを画面より手前に表示しようとする際、このモデ
ルのある右眼用画像、左眼用画像のどちらか一方にしか
表示されないことが考えられる。このような場合、ユー
ザは、本来画面の手前にあるべきモデルの像が、この像
よりも後ろにあるべき画面に隠されたと知覚するため、
前後関係が矛盾してしまう。このため、正しい立体視が
不可能になるということが考えられる。
Further, in such a binocular fusion type stereoscopic system, when the model is located at the edge of the screen, when the model is displayed in front of the screen, the model for the right eye with this model is used. It is conceivable that the image is displayed on only one of the image and the image for the left eye. In such a case, the user perceives that the image of the model that should be in front of the screen is hidden in the screen that should be behind this image,
The context is inconsistent. Therefore, it is considered that correct stereoscopic vision becomes impossible.

【0209】その解決策としては、第1に、全ての表示
対象(モデル)を画面より奥に設定する、第2に、画面
縁部を明確に意識させないようにする、の2つの方法が
考えられる。しかし、第1の方法では像の表示面からの
飛び出しが小さいために迫力の乏しい画像となる(立体
感を得られにくくシステムの商品価値が小さくなる)。
このため、この実施形態のシステムでは、図1に示す画
面縁部処理部23により第2の方法を実行する。
There are two possible solutions to this problem. First, all display objects (models) are set deeper than the screen, and secondly, the edges of the screen are not clearly noticed. To be However, according to the first method, the image does not pop out from the display surface so that the image becomes less powerful (the stereoscopic effect is difficult to obtain and the commercial value of the system is reduced).
Therefore, in the system of this embodiment, the screen edge processing unit 23 shown in FIG. 1 executes the second method.

【0210】この画面縁部処理部23は、前記モデルデ
ータ管理手段19からモデルの位置データ、モデルの大
きさのデータ、及び眼間距離のデータを受け取る。この
画面縁部処理部23は、これらのデータから、モデルが
画面縁部に位置するかを検知し、画面縁部ぼかし処理を
行うかを決定する。また、左右の画像の縁部のぼかし処
理を行う範囲を決定する。
The screen edge processing section 23 receives model position data, model size data, and interocular distance data from the model data management means 19. From this data, the screen edge processing unit 23 detects whether the model is located at the screen edge and determines whether to perform the screen edge blurring process. Further, the range in which the blurring process is performed on the edges of the left and right images is determined.

【0211】そして、これらの決定に基づいて、この画
面縁部処理部23は、前記決定された画面縁部につい
て、モデルの明度を縁部に近づくに従って暗くする、あ
るいは、モデルの色調を縁部に近づくに従って背景色に
近づける。
Based on these determinations, the screen edge processing unit 23 darkens the lightness of the model as it approaches the edge of the determined screen edge, or the color tone of the model to the edge. The closer to, the closer to the background color.

【0212】このデータは、前記モデルデータ管理手段
19を通して他のデータと共に画像データ作成手段20
に送られ、ステップS118で処理される。
This data, together with other data, is sent to the image data creating means 20 through the model data managing means 19.
And processed in step S118.

【0213】このような処理により、ユーザは、画面縁
部について何となく見えなくなると感じ、面前記のよう
な矛盾がある場合でも、これを意識させることを有効に
防止できる。
By such processing, the user feels that the edge of the screen is somehow invisible, and even if there is a contradiction as described above, it is possible to effectively prevent the user from being aware of it.

【0214】第2の実施の形態 次に、第2の実施の形態について説明する。図17〜図
19は本発明の第2の実施の形態を示す図である。図1
7に示すように、この第2の実施の形態は、第1の実施
の形態の注視範囲推定手段の代わりに視線・注視範囲検
出手段30が設けられ、これに伴い、立体視条件算出フ
ローが変更されている点が異なるのみで、他は第1の実
施の形態と略同一である。従って第2の実施の形態にお
いて第1の実施の形態と同一部分については同一符号を
付し、詳細な説明は省略する。
Second Embodiment Next, a second embodiment will be described. 17 to 19 are views showing a second embodiment of the present invention. Figure 1
As shown in FIG. 7, in the second embodiment, a line-of-sight / gaze range detecting means 30 is provided instead of the gaze range estimating means of the first embodiment, and accordingly, a stereoscopic vision condition calculation flow is performed. The difference is the same as the first embodiment except for the difference. Therefore, in the second embodiment, the same parts as those in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.

【0215】図17に示すように、立体視システムは、
表示された画像に対する実際の視線および注視点を検出
する視線・注視範囲検出手段30が設けられている。こ
の視線・注視範囲検出手段30は、例えば、竹井機器工
業製の両眼視線解析装置からなる。視線・注視範囲検出
手段30は、モデルデータ管理手段19に接続されてお
り、ディスプレイ面1aのいずれの部位に使用者の視線
が位置しているかのデータをリアルタイムでモデルデー
タ管理手段19に伝えるようになっている。なお、視線
・注視範囲検出手段30として、竹井機器工業製の両眼
視線解析装置と同様の機能を有する他の公知の両眼視線
解析装置を使用してもよい。
As shown in FIG. 17, the stereoscopic system is
A line-of-sight / gaze range detecting means 30 for detecting an actual line-of-sight and a point of gaze with respect to the displayed image is provided. The line-of-sight / gaze range detection means 30 is, for example, a binocular line-of-sight analysis device manufactured by Takei Kikai Kogyo. The line-of-sight / gaze range detection means 30 is connected to the model data management means 19 so as to transmit to the model data management means 19 in real time data on which part of the display surface 1a the user's line of sight is located. It has become. As the line-of-sight / gaze range detecting means 30, another known binocular line-of-sight analysis device having the same function as the binocular line-of-sight analysis device manufactured by Takei Kikai Kogyo may be used.

【0216】次に、このような構成からなる本実施形態
の作用について、図18,19を参照して説明する。
Next, the operation of this embodiment having such a configuration will be described with reference to FIGS.

【0217】図18に示すように、第1の実施の形態と
同様に、ステップS100〜104の処理操作が行われ
る。
As shown in FIG. 18, similar to the first embodiment, the processing operations of steps S100 to S104 are performed.

【0218】次に、モデルデータ管理手段19は、視線
・注視点検出位置30から使用者の視線および注視点位
置のデータを受取り(ステップS200)、検出した視
線方向から使用者が画面を見ているか否かを判断する
(ステップS201)。使用者がディスプレイ面1aを
見ていない場合は、ディスプレイ1aの中央1bを注視
点位置とする(ステップS202)。一方、使用者がデ
ィスプレイ面1aを見ている場合、使用者の視線が最も
長く留まっている位置を注視点位置とする(ステップS
203)。
Next, the model data management means 19 receives the data of the line of sight and the point of gaze of the user from the line-of-sight / gazing point detection position 30 (step S200), and the user looks at the screen from the detected line-of-sight direction. It is determined whether or not there is (step S201). When the user is not looking at the display surface 1a, the center 1b of the display 1a is set as the gazing point position (step S202). On the other hand, when the user is looking at the display surface 1a, the position where the user's line of sight is longest is set as the gazing point position (step S).
203).

【0219】なお、この場合、奥行き方向の注視範囲
は、例えば、注視点の奥行き位置の標準偏差から決定す
ることができる。
In this case, the gazing range in the depth direction can be determined, for example, from the standard deviation of the depth position of the gazing point.

【0220】次に、第1の実施の形態と同様に、ステッ
プS110〜115の処理操作が行われ、これによりモ
デルデータ管理手段19は、立体視を行うのに最適な立
体視システムの座標系におけるモデルの形状、大きさ、
配置状態および色調等のデータを得る。これらのデータ
は、画像データ作成手段20に送られ、このデータに基
づいて画像データ作成手段20は左眼用画像データおよ
び右眼用画像データを作成する(ステップS117)。
ディスプレイ1は左眼用画像データおよび右眼用画像デ
ータに基づいてディスプレイ面1aに画像を表示する
(ステップS118)。
Next, as in the first embodiment, the processing operations of steps S110 to 115 are performed, whereby the model data management means 19 causes the model coordinate system of the stereoscopic system which is optimum for stereoscopic viewing. The shape and size of the model in
Obtain data such as arrangement state and color tone. These data are sent to the image data creating means 20, and the image data creating means 20 creates the image data for the left eye and the image data for the right eye based on this data (step S117).
The display 1 displays an image on the display surface 1a based on the left-eye image data and the right-eye image data (step S118).

【0221】次に、制御手段10は、引き続き立体視シ
ステムを使用するか否かを問い合わせる(ステップS1
03)。引き続き使用する場合はステップS104から
始まる上記操作が繰り返される。
Next, the control means 10 inquires whether or not the stereoscopic system will be continuously used (step S1).
03). When it is continuously used, the above operation starting from step S104 is repeated.

【0222】以上説明したように、本実施形態によれ
ば、視線・注視範囲検出手段30により使用者の実際の
視線および注視点が検出されるようになっているため、
注視範囲の決定をより正確に行うことができる。このた
め、より適正な立体視条件を算出することができる。
As described above, according to this embodiment, the line-of-sight / gaze range detecting means 30 detects the actual line-of-sight and gaze point of the user.
The gaze range can be determined more accurately. Therefore, a more appropriate stereoscopic viewing condition can be calculated.

【0223】なお、以上説明した第1および第2の実施
の形態において、モデル移動手段14および奥行き方向
縮小手段16は注視範囲またはモデル全体が図10にお
ける立体視容易領域に入れるように作用しているが、こ
れに限定されるものではなく、注視範囲またはモデル全
体を立体視可能領域に入れるように作用するようにして
もよい。
In the first and second embodiments described above, the model moving means 14 and the depth direction reducing means 16 operate so that the gazing range or the whole model falls within the easy stereoscopic viewing area in FIG. However, the present invention is not limited to this, and the gaze range or the entire model may be put into the stereoscopic viewable region.

【0224】第3の実施の形態 次に第3の実施の形態について説明する。 Third Embodiment Next, a third embodiment will be described.

【0225】図21及び図22,図23は、第3の実施
形態を示す図である。
FIG. 21, FIG. 22, and FIG. 23 are views showing the third embodiment.

【0226】第1、第2の実施形態では、モデルを移動
し拡大あるいは縮小することにより、このモデルに対す
る注視範囲を立体視可能領域に位置させ、立体視を容易
なものとしていたが、この実施形態では、図21に示す
透視変換決定手段32で決定され透視変換記憶手段33
に記憶された透視変換方法に基づき同様の処理を行う。
In the first and second embodiments, by moving the model and enlarging or reducing it, the gaze range for this model is located in the stereoscopic viewable region, and the stereoscopic view is facilitated. In the form, the perspective transformation storage means 33 determined by the perspective transformation determination means 32 shown in FIG.
Similar processing is performed based on the perspective conversion method stored in.

【0227】以下、図22,図23を参照してこのシス
テムにおける処理を説明する。なお、前記第1の実施形
態と同様の処理については同一符号を付してその詳しい
説明は省略する。
The processing in this system will be described below with reference to FIGS. The same processes as those in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.

【0228】前記第1、第2の実施形態では、画像を作
成するのにモデルの位置の変更、拡大および眼間距離の
変更というプロセスをとったが、これは見方を変えれば
3次元モデルを2次元の画像上に投影するときの透視変
換方法としてまとめることができる。
In the first and second embodiments, the process of changing the position of the model, the enlargement and the change of the inter-eye distance is used to create the image. However, if the viewpoint is changed, a three-dimensional model is obtained. It can be summarized as a perspective transformation method when projecting onto a two-dimensional image.

【0229】すなわち、透視変換では、眼間距離を2
e、視点中心を点O(0,0,0)、視点から画面まで
の距離をDとすると、3 次元空間中の点P(xp,y
p,zp)は、左眼画像では: (D・xp/Zp+e・(D/zp−1),D・yp/
zp) 右眼画像では: (D・xp/Zp−e・(D/zp−1),D・yp/
zp) に投影されることになる。
That is, in the perspective transformation, the inter-eye distance is set to 2
e, the point O (0,0,0) at the center of the viewpoint, and D the distance from the viewpoint to the screen, the point P (xp, y in the three-dimensional space
p, zp) is in the left-eye image: (D · xp / Zp + e · (D / zp−1), D · yp /
zp) In the right-eye image: (D · xp / Zp−e · (D / zp−1), D · yp /
zp) will be projected.

【0230】従って、この透視変換の方法を用いれば、
第1の実施形態のように実際に三次元モデルを移動さ
せ、拡大・縮小といった処理を行わなくても、以下のよ
うに、同様の処理が行える。
Therefore, using this perspective transformation method,
Even if the three-dimensional model is actually moved and the processing such as enlargement / reduction is not performed as in the first embodiment, the same processing can be performed as follows.

【0231】すなわち、このシステムでは、まず図22
のステップS301で前述と同様の方法で注視範囲を求
めた後、ステップS302において、モデルの元の位置
とこのモデルを前記注視範囲内に移動させるための移動
距離とから視点を中心とした空間拡大率m(透視変換方
法)を決定する。
That is, in this system, first, FIG.
In step S301, the gaze range is obtained by the same method as described above, and then, in step S302, space expansion centering on the viewpoint is performed based on the original position of the model and the movement distance for moving the model within the gaze range. The rate m (perspective transformation method) is determined.

【0232】モデルの位置する空間全体をこの空間拡大
率mで拡大あるいは縮小すると、モデルの大きさがm倍
されると共に、このモデル内の点Pは、以下の点P’に
移動する。
When the entire space in which the model is located is expanded or contracted at this spatial expansion ratio m, the size of the model is multiplied by m, and the point P in this model moves to the following point P '.

【0233】点P’(m・xp,m・yp,m・zp) ついで、ステップS303において、透視変換後のモデ
ル内の各点が立体視容易領域に入っているかを判断す
る。すなわち、視点に一番近い代表点Nの移動後の点
N’及び、視点に一番遠い代表点Mの移動後の点M’を
算出し、これらが立体視容易領域に入るかを判断する。
Point P '(m.xp, m.yp, m.zp) Next, in step S303, it is determined whether or not each point in the model after perspective transformation is within the easy stereoscopic region. That is, the point N ′ after the movement of the representative point N closest to the viewpoint and the point M ′ after the movement of the representative point M farthest from the viewpoint are calculated, and it is determined whether or not they fall within the stereoscopic view easy region. .

【0234】入らない場合には、ステップS304にお
いて、図11に示したのと同様の考え方に基づいて眼間
距離を調整し、全ての点が立体視容易領域内に位置する
ように補正を行う。すなわち、眼間距離の縮小率をtと
すると、結局、前記3 次元空間中の点Pは左眼画像で
は: (D・xp/Zp+e・t・(D/(m・zp)−
1),D・yp/zp) 右眼画像では: (D・xp/Zp−e・t・(D/(m・zp)−
1),D・yp/zp) に投影される。
If it does not enter, in step S304, the inter-eye distance is adjusted based on the same idea as shown in FIG. 11, and correction is performed so that all points are located within the easy stereoscopic viewing area. . That is, assuming that the reduction rate of the inter-eye distance is t, the point P in the three-dimensional space is eventually: (D · xp / Zp + et · (D / (m · zp) −
1), D · yp / zp) In the right-eye image: (D · xp / Zp−e · t · (D / (m · zp) −
1), D · yp / zp).

【0235】従って、視点中心を基準とするモデル拡大
率m、本来の眼間距離2e、視点から画面までの距離
D、および図11より求まる眼間距離縮小率tより、透
視変換方法を規定することができる(S305)。
Therefore, the perspective conversion method is defined by the model enlargement ratio m based on the center of the viewpoint, the original eye distance 2e, the distance D from the viewpoint to the screen, and the eye distance reduction ratio t obtained from FIG. It is possible (S305).

【0236】この実施形態では、これらのデータ(透視
変換方法)を透視変換記憶手段33に保存し、画像デー
タ作成手段20で、画像データ作成時に利用する(S1
16〜S118)。このことで、前記第1、第2の実施
形態と同様に立体視容易な画像データを作成することが
できる。
In this embodiment, these data (perspective conversion method) are stored in the perspective conversion storage means 33, and are used by the image data creating means 20 when creating image data (S1).
16-S118). This makes it possible to create image data that facilitates stereoscopic viewing, as in the first and second embodiments.

【0237】なお、この例では、前記透視変換方法を透
視変換記憶手段33に格納するようにしていたが、DV
D等の記憶媒体に、画像データと共に予め本実施形態の
システムで求めた場面毎の透視変換方法を格納しておい
ても良い。
In this example, the perspective conversion method is stored in the perspective conversion storage means 33.
The perspective conversion method for each scene obtained in advance by the system of the present embodiment may be stored in a storage medium such as D together with the image data.

【0238】すなわち、記憶媒体に、加工前の画像デー
タ(実写画像)と共に、視点からのモデルの位置と各場
面に応じたモデル拡大率m、眼間距離縮小率t等を保存
しておけば、再生時には、前記立体視容易条件算出部を
経由しなくとも前記画像データ作成手段20で立体視容
易な画像を作成することができる。
That is, if the image data before processing (actual image) is stored in the storage medium, the position of the model from the viewpoint, the model enlargement ratio m, the interocular distance reduction ratio t, etc., are stored. At the time of reproduction, the image data creating means 20 can create an image that is easy to stereoscopically view without going through the stereoscopic view easy condition calculating unit.

【0239】第4の実施の形態 次に、この発明の第4の実施の形態について説明する。 Fourth Embodiment Next, a fourth embodiment of the present invention will be described.

【0240】図24及び図25,26は、この第4の実
施の形態を示す図である。なお、これらの図中、第1の
実施形態と同一の構成要素には同一符号を付してその詳
しい説明は省略する。
24, 25 and 26 are diagrams showing the fourth embodiment. In these figures, the same components as those in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.

【0241】前記第1〜第3の実施の形態では、形状、
大きさ、配置位置等の情報で与えられた三次元モデルを
立体視容易に表示するシステムであったが、この第4の
実施の形態は、映画や写真のような実写画像で与えられ
たものを立体視容易に表示するシステムに関するもので
ある。
In the first to third embodiments, the shape,
The system according to the fourth embodiment is a system for easily displaying a three-dimensional model given by information such as size and arrangement position in a stereoscopic manner. The present invention relates to a system for easily displaying a stereoscopic image.

【0242】このような場合、立体視が容易であるかど
うかは、注視範囲の左右画像中での位置関係によって決
定されることになる。このため、この実施形態のシステ
ムは、図24に示すように、画像データを立体視容易な
画像データに変換するための変換方法を演算・決定する
画像変換決定手段34と、決定された画像変換決定方法
に基づいて変換画像データを求める画像演算手段35と
を有する。
In such a case, whether stereoscopic viewing is easy or not is determined by the positional relationship of the gaze range in the left and right images. Therefore, in the system of this embodiment, as shown in FIG. 24, the image conversion determining unit 34 that calculates / converts the conversion method for converting the image data into the image data that facilitates stereoscopic viewing, and the determined image conversion. The image calculation means 35 for obtaining the converted image data based on the determination method.

【0243】以下、このシステムにおける処理を図2
5,26を参照して説明する。なお、前述したように、
前記第1の実施形態と同様のステップについては同一符
号を付してその説明は省略する。
Hereinafter, the processing in this system will be described with reference to FIG.
5, 26 will be described. As mentioned above,
The same steps as those in the first embodiment are designated by the same reference numerals, and the description thereof will be omitted.

【0244】このシステムには、例えば右眼用カメラで
撮った画像と左眼用カメラで撮った画像のような2つ視
差画像が与えられる。このデータは、注視範囲決定手段
13に送られ、この注視範囲決定手段13は、まずどち
らかの画像を使って注視範囲を決定する(ステップS4
01)。
This system is provided with two parallax images such as an image taken by the right-eye camera and an image taken by the left-eye camera. This data is sent to the gazing range determining means 13, and the gazing range determining means 13 first determines the gazing range using either image (step S4).
01).

【0245】注視範囲の決定には、例えば、色調で重み
づけされた画素の重心位置および重心位置からの距離の
標準偏差σを求め、重心から半径2σ以内を注視範囲と
する方法をとる。すなわち、各画素の座標を(xi,y
i)とすれば、重心位置(xG ,yG )及び標準偏差σ
は、以下の数式7,8で表される。
To determine the gazing range, for example, the standard deviation σ of the barycentric position of the pixel weighted by the color tone and the distance from the barycentric position is obtained, and the gazing range is within a radius 2σ from the barycenter. That is, the coordinates of each pixel are (xi, y
i), the position of the center of gravity (xG, yG) and the standard deviation σ
Is expressed by the following equations 7 and 8.

【0246】[0246]

【数7】 [Equation 7]

【0247】[0247]

【数8】 [Equation 8]

【0248】また、これとは異なる方法として、例え
ば、両画像間の対応画像領域を検出し、その画像領域の
対応関係から3 次元座標を求め、前記第1〜第3の実施
形態のモデルの場合と同様に奥行き方向の注視範囲を求
めてもよい。
As a method different from this, for example, a corresponding image area between both images is detected, three-dimensional coordinates are obtained from the correspondence between the image areas, and the model of the first to third embodiments is calculated. Similarly to the case, the gaze range in the depth direction may be obtained.

【0249】なお、画像領域の対応個所を探すには、両
方の画像でエッジを強調し、相関が高いものを求めるの
が一般的である(例えば文献:山口他、「信頼性の高い
対応を優先した多段階ステレオ法」,電子情報通信学会
論文誌D−II,Vol.J74−D −II,No.7など)。
In order to find the corresponding part of the image area, it is general to emphasize the edges in both images and find the one with a high correlation (for example, refer to Yamaguchi et al., "Reliable Correspondence"). Prioritized multi-stage stereo method ", IEICE Transactions D-II, Vol. J74-D-II, No. 7, etc.).

【0250】次にステップS402において、前記決定
された注視範囲内の背景以外の部分の対応点で、左右の
画像間でずれが最も大きいものを以下の2つの条件で検
索する。
Next, in step S402, the corresponding points of the portions other than the background within the determined gaze range that have the largest deviation between the left and right images are searched under the following two conditions.

【0251】すなわち、まず、画面上左側に座標原点を
とった場合に、1つの点(対応点)の左眼用画像での水
平方向(X方向)の座標をXl、右眼用画像での座標を
Xrとする。そして、第1の条件として、Xl>Xrと
なる点Sを探し出す。
That is, first, when the coordinate origin is on the left side of the screen, the horizontal (X direction) coordinate of one point (corresponding point) in the left eye image is Xl, and the right eye image is the coordinate. The coordinates are Xr. Then, as a first condition, a point S that satisfies Xl> Xr is searched for.

【0252】この点Sでは、左眼用画像での座標が右眼
用画像での座標よりも大きくなっている。すなわち、こ
の点Sは図14(a)に示すE1のように画面手前側に
認識される点となる。そして、点Sは、このような点の
うち、左右像間で最もずれ量が大きい点であるから、注
視範囲内で最も手前に認識される点となる。
At this point S, the coordinates in the left-eye image are larger than the coordinates in the right-eye image. That is, this point S is a point recognized on the front side of the screen like E1 shown in FIG. Then, the point S is the point having the largest displacement amount between the left and right images among such points, and is thus the most recognized point in the gaze range.

【0253】次に、第2の条件として、Xr>Xlとな
る点Tを探し出す。この点Tは、図14(b)にE2で
示されるように、注視範囲内で最も奥に認識される点と
なる。そして、この点Tは、このような点のうち、左右
像間で最もずれ量が大きい点であるから、注視範囲内で
最も奥に認識される点となる。
Next, as a second condition, a point T satisfying Xr> Xl is searched for. This point T is a point that is recognized deepest in the gazing range, as indicated by E2 in FIG. Since this point T is the point having the largest displacement amount between the left and right images among such points, it is the most recognized point in the gazing range.

【0254】ここで、前記点Sの左眼用画像内での位置
を(Xpl,Yp)、右側の画像内での位置を(Xp
r,Yp)とし、この点の左右像間のずれ量Xpl−X
prをdXpとする。また、点Tの左側の画像内での位
置を(Xql,Yq)、右側の画像内での位置を(Xq
r,Yq)とし、この点の左右像間のずれ量Xqr−X
qlをdXqとする。
Here, the position of the point S in the image for the left eye is (Xpl, Yp), and the position in the image on the right side is (Xp, Yp).
r, Yp), and the shift amount Xpl-X between the left and right images at this point
Let pr be dXp. Further, the position of the point T in the image on the left side is (Xql, Yq), and the position in the image on the right side is (Xql, Yq).
r, Yq), and the amount of deviation Xqr-X between the left and right images at this point
Let ql be dXq.

【0255】以下では一例として、dXp>dXqとな
る場合、すなわち点Sのずれ量が点Tのずれ量よりも大
きい場合を考える(d Xq>dXpの場合もほぼ同様に
なる)。そして、この点Sが立体視容易範囲に入ってい
るかを判断する。この実施形態では、この判断を、ステ
ップS403で、視角を用いて行う。
As an example, consider the case where dXp> dXq, that is, the amount of deviation of the point S is larger than the amount of deviation of the point T (the same applies when dXq> dXp). Then, it is determined whether or not this point S is within the easy stereoscopic view range. In this embodiment, this determination is made using the viewing angle in step S403.

【0256】すなわち、この場合、注視範囲内における
画像の最大のずれは、点Sのずれに相当するdXpとな
るので、これが視角にして2度以上のずれであるかを判
断する。前述したように、左右像のずれが視角にして2
度以上となった場合には、立体視の容易性が失われるか
らである。
That is, in this case, since the maximum shift of the image within the gazing range is dXp corresponding to the shift of the point S, it is determined whether or not this is a shift of 2 degrees or more in visual angle. As described above, the difference between the left and right images is 2
This is because the stereoscopic view is lost when the number of rotations exceeds the limit.

【0257】このステップS403において、視角に換
算したずれ量が2度以内の場合は特に画像データを変更
する必要はない。従って、そのときの視角ずれ量を「設
定値」とする。しかし、2度以上となるような場合に
は、ステップS404において、設定値を2度丁度とす
る。
In step S403, if the shift amount converted into the visual angle is within 2 degrees, it is not necessary to change the image data. Therefore, the amount of deviation of the viewing angle at that time is set as a “set value”. However, if it becomes twice or more, the set value is set exactly twice in step S404.

【0258】一方、この場合、ずれの変化量についても
考慮する必要がある。すなわち、前述したように、ずれ
の変化量が輻輳角に換算して1度以上となると立体視が
困難になるからである。
On the other hand, in this case, it is also necessary to consider the amount of shift change. That is, as described above, stereoscopic viewing becomes difficult when the amount of change in displacement becomes 1 degree or more in terms of the convergence angle.

【0259】したがって、ステップS405において、
ずれの変化量が1度以上の場合は、変化が1度以内にな
るよう設定値を定める。すなわち、この場合は、視角の
設定値は、2度丁度ではなく、変化を1度に押さえた値
とする(ステップS406)。
Therefore, in step S405,
When the amount of change in deviation is 1 degree or more, the set value is determined so that the change is within 1 degree. That is, in this case, the set value of the viewing angle is not exactly twice, but a value that suppresses the change once (step S406).

【0260】なお、前記視角(設定値)は、視点からデ
ィスプレイ面までの距離Dによって決定される。
The viewing angle (set value) is determined by the distance D from the viewpoint to the display surface.

【0261】すなわち、例えば、視角が2度の場合、画
面上での概略距離(L)は、 L=2×D×tan(π/180) =π×D/90 =0.035×D となる。
That is, for example, when the viewing angle is 2 degrees, the approximate distance (L) on the screen is: L = 2 × D × tan (π / 180) = π × D / 90 = 0.035 × D Become.

【0262】次に、ステップS407において、この設
定値を用いて空間拡大率mを決定する。ここで、空間拡
大率mは、眼間距離に相当する値を2eとし、視野角度
設定値を2度とした場合、以下のように定義される。
Next, in step S407, the spatial expansion rate m is determined using this set value. Here, the spatial expansion rate m is defined as follows when the value corresponding to the inter-eye distance is 2e and the viewing angle setting value is 2 degrees.

【0263】m=(dxp+2×e)/(L+2×e) また、前記画像をこの空間拡大率で拡大あるいは縮小し
た場合、注視範囲全体が立体視容易範囲に入っていない
場合がある。この場合には、ステップS408におい
て、前記点Sのずれ量dXqを用いて、水平方向縮小率
t を求める。
M = (dxp + 2 × e) / (L + 2 × e) When the image is enlarged or reduced at this spatial enlargement ratio, the entire gazing range may not fall within the easy stereoscopic view range. In this case, in step S408, the horizontal reduction ratio is calculated using the shift amount dXq of the point S.
Find t.

【0264】すなわち、この水平方向縮小率tは、(d
xq+2×e)/m−2×e≦0.035Dの場合に
は、 t=1.0 (dxq+2×e)/m−2×e>0.035Dの場合
には、 t=0.035×m×D/(dxq+2×e−2×e×
m) となる。
That is, the horizontal reduction ratio t is (d
xq + 2 × e) /m−2×e≦0.035D, t = 1.0 (dxq + 2 × e) / m−2 × e> 0.035D, t = 0.035 × m × D / (dxq + 2 × e-2 × e ×
m).

【0265】このようにして、空間拡大率及び水平方向
縮小率tが求められたならば、ステップS409におい
て、画像演算方法が決定される。
After the space enlargement ratio and the horizontal reduction ratio t have been obtained in this way, the image calculation method is determined in step S409.

【0266】すなわち、この実施形態の画像演算方法に
よれば、対応する左右画像上の任意の点A(xal,
y)、(xar,y)は、それぞれ以下の位置に変換さ
れる。
That is, according to the image calculation method of this embodiment, an arbitrary point A (xal,
y) and (xar, y) are converted into the following positions, respectively.

【0267】左画像:(Xal+Xar)/2+e×t
×((Xal−Xar+2×e)/(2×m×e)−
1) 右画像:(Xal+Xar)/2−e×t ×((Xal
−Xar+2×e)/(2×m×e)−1) 前記画像演算手段35は、場面毎に画像データを変換
し、前記画像データ作成手段20は、この画像変換に基
づいて立体視画像を生成する。従って、このようなシス
テムによれば、実写画像についても、前記第1〜第3の
実施形態と同様に、立体視容易な画像データを生成する
ことができる。
Left image: (Xal + Xar) / 2 + e × t
X ((Xal-Xar + 2xe) / (2xmxe)-
1) Right image: (Xal + Xar) / 2−e × t × ((Xal
-Xar + 2 * e) / (2 * m * e) -1) The image calculation means 35 converts the image data for each scene, and the image data creation means 20 creates a stereoscopic image based on this image conversion. To generate. Therefore, according to such a system, it is possible to generate image data that is easy to stereoscopically view, even for a real image, as in the first to third embodiments.

【0268】なお、この例では、場面毎に前記画像演算
手段35で画像変換を行っていたが、予めこの手法によ
り変換した画像データ又は算出した立体視条件と元の画
像データをDVD等の記憶媒体に記憶しておけば、再生
時には、前記立体視容易条件算出部を経由しなくとも前
記画像データ作成手段20で立体視容易な画像を作成す
ることができる。
In this example, the image calculation means 35 performs image conversion for each scene, but the image data converted by this method in advance or the calculated stereoscopic condition and the original image data are stored in a DVD or the like. If it is stored in the medium, it is possible to create an image that is easily stereoscopically viewed by the image data creating means 20 without having to go through the stereoscopically easy condition calculation unit during reproduction.

【0269】なお、この実施形態のシステムは、2台の
カメラで異なる視点から適当に撮った視像に基づき見や
すい立体画像を生成したい場合に有効である。
The system of this embodiment is effective when it is desired to generate an easy-to-see stereoscopic image based on visual images appropriately taken by two cameras from different viewpoints.

【0270】また、このシステムは、動きのある像か
ら、時間差を作って立体視するシステムにも適用可能で
ある。さらに、本発明は立体視システムが時分割式以外
の両眼立体視システムに適用することも可能である。
This system can also be applied to a system for stereoscopic viewing by making a time difference from a moving image. Further, the present invention can be applied to a binocular stereoscopic system other than the time division type stereoscopic system.

【0271】[0271]

【発明の効果】以上説明したように、本発明によれば、
3次元空間に配置されたモデルあるいは実写画像を、場
面の変化に応じた最適な立体視条件でディスプレイに表
示することができる。このため、使用者が感じる立体視
画像に対する違和感および眼の疲れを低減することがで
きる。
As described above, according to the present invention,
A model or a photographed image arranged in a three-dimensional space can be displayed on the display under optimal stereoscopic viewing conditions according to changes in the scene. For this reason, it is possible to reduce the discomfort and the eye fatigue of the stereoscopic image that the user feels.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施の形態を示す図であって、
立体視システムの概要を示す図。
FIG. 1 is a diagram showing a first embodiment of the present invention,
The figure which shows the outline of a stereoscopic vision system.

【図2】本発明の第1の実施の形態を示す図であって、
立体視システムの構成を示す図。
FIG. 2 is a diagram showing a first embodiment of the present invention,
The figure which shows the structure of a stereoscopic vision system.

【図3】立体視システムの座標系を示す図。FIG. 3 is a diagram showing a coordinate system of a stereoscopic system.

【図4】第1の実施の形態における立体視条件算出プロ
セスを示すフローチャート。
FIG. 4 is a flowchart showing a stereoscopic viewing condition calculation process according to the first embodiment.

【図5】第1の実施の形態における立体視条件算出プロ
セスを示すフローチャート。
FIG. 5 is a flowchart showing a stereoscopic viewing condition calculation process according to the first embodiment.

【図6】座標系変換手段の作用を示す図。FIG. 6 is a diagram showing an operation of coordinate system conversion means.

【図7】立体視条件算出部の処理操作の流れを示す図。FIG. 7 is a diagram showing a flow of processing operations of a stereoscopic condition calculating unit.

【図8】注視点の推定方法を示す図。FIG. 8 is a diagram showing a method of estimating a gazing point.

【図9】注視点の推定方法を示す図。FIG. 9 is a diagram showing a method of estimating a gazing point.

【図10】ディスプレイ面の視点中心から距離と立体視
容易(可能)領域との関係を示すグラフ。
FIG. 10 is a graph showing a relationship between the distance from the viewpoint center of the display surface and a stereoscopic view easy (possible) area.

【図11】眼間距離の補正方法を示すグラフ。FIG. 11 is a graph showing a method of correcting an inter-eye distance.

【図12】眼間距離を補正した場合のディスプレイ面上
における像のずれ量の変化を示す図。
FIG. 12 is a diagram showing a change in the amount of image shift on the display surface when the interocular distance is corrected.

【図13】図11のグラフの作成方法を示す図。13 is a diagram showing a method of creating the graph of FIG.

【図14】画像データ作成手段の作用を示す図。FIG. 14 is a diagram showing an operation of image data creating means.

【図15】眼間距離補正を行った場合の作用を示す図。FIG. 15 is a diagram showing an operation when inter-eye distance correction is performed.

【図16】モデル全体を移動した場合の作用を示す図。FIG. 16 is a diagram showing an operation when the entire model is moved.

【図17】本発明の第2の実施の形態を示す図であっ
て、立体視システムの構成を示す図。
FIG. 17 is a diagram showing a second embodiment of the present invention, which is a diagram showing a configuration of a stereoscopic system.

【図18】第2の実施の形態における立体視条件算出プ
ロセスを示すフローチャート。
FIG. 18 is a flowchart showing a stereoscopic viewing condition calculation process according to the second embodiment.

【図19】第2の実施の形態における立体視条件算出プ
ロセスを示すフローチャート。
FIG. 19 is a flowchart showing a stereoscopic viewing condition calculation process according to the second embodiment.

【図20】前記第1、第2の実施形態において、時間の
経過に応じて立体視容易条件を緩和させるプロセスを示
すグラフ。
FIG. 20 is a graph showing a process of relaxing the easy stereoscopic viewing condition according to the passage of time in the first and second embodiments.

【図21】本発明の第3の実施の形態を示す図であっ
て、立体視システムの構成を示す図。
FIG. 21 is a diagram showing the third embodiment of the present invention and is a diagram showing a configuration of a stereoscopic system.

【図22】第3の実施の形態における立体視条件算出プ
ロセスを示すフローチャート。
FIG. 22 is a flowchart showing a stereoscopic viewing condition calculation process according to the third embodiment.

【図23】第3の実施の形態における立体視条件算出プ
ロセスを示すフローチャート。
FIG. 23 is a flowchart showing a stereoscopic viewing condition calculation process according to the third embodiment.

【図24】本発明の第4の実施の形態を示す図であっ
て、立体視システムの構成を示す図。
FIG. 24 is a diagram showing the fourth embodiment of the present invention and is a diagram showing the configuration of a stereoscopic system.

【図25】第4の実施の形態における立体視条件算出プ
ロセスを示すフローチャート。
FIG. 25 is a flowchart showing a stereoscopic viewing condition calculation process according to the fourth embodiment.

【図26】第4の実施の形態における立体視条件算出プ
ロセスを示すフローチャート。
FIG. 26 is a flowchart showing a stereoscopic viewing condition calculation process according to the fourth embodiment.

【符号の説明】[Explanation of symbols]

1…ディスプレイ 12…視野外データ除外手段 13…注視範囲決定手段 14…モデル移動手段 15…モデル拡大縮小手段 16…眼間距離設定手段 17…画像データ作成手段 30…視点・注視点検出手段 32…透視変換決定手段 34…画像変換決定手段 1 ... Display 12 ... Out-of-field data excluding means 13 ... Gaze range determining means 14 ... Model moving means 15. Model scaling means 16 ... Interocular distance setting means 17 ... Image data creating means 30 ... Viewpoint / gazing point detection means 32 ... Perspective transformation determination means 34 ... Image conversion determining means

フロントページの続き (56)参考文献 特開 平7−230556(JP,A) 特開 平2−280280(JP,A) 特開 平7−44735(JP,A) 特開 平7−167633(JP,A) 特開 平7−239952(JP,A) 特開 平6−337756(JP,A) 特開 平8−19003(JP,A) 特開 平6−6830(JP,A) 特開 平8−106548(JP,A) 特開 平7−182535(JP,A) 久保田浩明 外3名,”動物体の認 識・識別をめざしたビジョンプロセッサ の構想と試作モデルの開発”,電子情報 通信学会技術研究報告 PRU89−101 〜112 パターン認識・理解,社団法人 電子情報通信学会,1990年 1月26日, 第89巻,第390号,p.49−56 (58)調査した分野(Int.Cl.7,DB名) G06T 17/40 G06F 3/00 G06F 3/14 G09G 5/36 H04N 13/04 CSDB(日本国特許庁)Continuation of the front page (56) Reference JP-A-7-230556 (JP, A) JP-A-2-280280 (JP, A) JP-A-7-44735 (JP, A) JP-A-7-167633 (JP , A) JP 7-239952 (JP, A) JP 6-337756 (JP, A) JP 8-19003 (JP, A) JP 6-8830 (JP, A) JP 8-106548 (JP, A) JP-A-7-182535 (JP, A) Hiroaki Kubota 3 others, "Concept and development of prototype model of vision processor aiming at recognition and discrimination of moving body", electronic information communication Technical Report of the Society PRU89-101 to 112 Pattern recognition and understanding, The Institute of Electronics, Information and Communication Engineers, January 26, 1990, Vol. 89, No. 390, p. 49-56 (58) Fields investigated (Int.Cl. 7 , DB name) G06T 17/40 G06F 3/00 G06F 3/14 G09G 5/36 H04N 13/04 CSDB (Japan Patent Office)

Claims (43)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 ディスプレイに、モデルを、互いに異な
る2つの視点から見てなる一対の右眼用・左眼用画像を
用いて、立体視可能に表示するための立体視システムに
おいて、 モデルに対し観察者が注視する可能性の高い範囲を決定
する注視範囲決定手段と、前記モデルのデータを変更す
ることによって、前記注視範囲決定手段により決定され
た注視範囲が立体視容易領域内に入るように前記モデル
をディスプレイ面と直交する方向に移動するモデル移動
手段と、 このモデル移動手段によって変更されたモデルのデータ
を変更することによって、前記モデル移動手段により移
動されたモデルの大きさを移動距離に対応して拡大縮小
するモデル拡大縮小手段と、 前記モデル移動手段により移動されるとともに前記モデ
ル拡大縮小手段により大きさが変更された後のモデルの
データに基づいて、前記ディスプレイ上に表示される画
像データを作成する画像データ作成手段と、 を備えることを特徴とする立体視システム。
1. A stereoscopic system for stereoscopically displaying a model on a display by using a pair of right-eye and left-eye images viewed from two different viewpoints. By changing the data of the gaze range determining means and the model for determining the range that the observer is likely to gaze, so that the gaze range determined by the gaze range determining means falls within the easy stereoscopic region. By changing the model moving means for moving the model in the direction orthogonal to the display surface and the data of the model changed by the model moving means, the size of the model moved by the model moving means is set to the movement distance. A model scaling unit that scales correspondingly; and a model scaling unit that is moved by the model moving unit and scaled by the model scaling unit. An image data creating unit that creates image data to be displayed on the display based on the model data after the change of the stereoscopic image.
【請求項2】 請求項1記載の立体視システムにおい
て、 前記モデル移動手段により移動されたモデルのうちの少
なくともその要部が立体視容易領域内に入るように視点
から見た奥行き方向の縮尺を設定する奥行き距離縮小手
段を更に備えることを特徴とする立体視システム。
2. The stereoscopic system according to claim 1, wherein the scale in the depth direction as seen from the viewpoint is such that at least a main part of the model moved by the model moving means is within the easy stereoscopic view area. A stereoscopic viewing system further comprising depth depth reducing means for setting.
【請求項3】 請求項1記載の立体視システムにおい
て、 実際に表示された画像に対する視線および注視範囲を検
出する視線・注視範囲検出手段を更に備え、 前記モデル移動手段は、前記視線・注視範囲検出手段に
より検出された注視範囲に基づいて前記モデルをディス
プレイと直交する方向に移動することを特徴とする立体
視システム。
3. The stereoscopic system according to claim 1, further comprising a line-of-sight / gaze-range detecting unit that detects a line-of-sight and a gaze range of an actually displayed image, and the model moving unit includes the line-of-sight / gaze range. A stereoscopic vision system, wherein the model is moved in a direction orthogonal to the display based on the gaze range detected by the detection means.
【請求項4】 請求項1記載の立体視システムにおい
て、 前記モデル移動手段は、 視点から見たモデルの配置条件が変化し、この変化に合
わせてモデルを移動する場合、前記配置条件の変化が生
じた時点から所定時間内、前記モデルの注視範囲の移動
量を輻輳角に換算してほぼ1度以上になることを防止す
る手段を有することを特徴とする立体視システム。
4. The stereoscopic vision system according to claim 1, wherein the model moving means changes a placement condition of the model viewed from a viewpoint, and changes the placement condition when the model is moved according to the change. A stereoscopic system comprising a means for preventing the movement amount of the gaze range of the model from converting to a convergence angle of about 1 degree or more within a predetermined time from the time of occurrence.
【請求項5】 ディスプレイに、モデルを、互いに異な
る2つの視点から見た一対の画像を用いて立体視可能に
表示する立体視システムにおいて、 モデルに対し観察者が注視する可能性の高い部分を決定
する注視範囲決定手段と、 前記注視範囲決定手段の出力に基づいて、モデルのデー
タの前記一対の左、右眼用画像上への透視変換方法を決
定する透視変換決定手段と、 前記透視変換決定手段により決定された透視変換方法に
基づいて前記ディスプレイ上に表示される画像データを
作成する画像データ作成手段とを備えることを特徴とす
る立体視システム。
5. A stereoscopic vision system in which a model is displayed on a display so as to be stereoscopically visible by using a pair of images viewed from two different viewpoints, and a portion where an observer is likely to gaze at the model is selected. Gaze range determining means for determining, and perspective transformation determining means for determining a perspective transformation method on the pair of left and right eye images of the model data based on the output of the gaze range determining means; An image data creating means for creating image data displayed on the display based on the perspective conversion method determined by the determining means.
【請求項6】 請求項1、5記載の立体視システムにお
いて、 前記注視範囲決定手段は、観察者の視点から見た前記モ
デルの配置条件、色調、明度、彩度、大きさ、複雑さ、
移動速度のうちの全部または一部を考慮して、両眼の注
視範囲を推定する手段を有することを特徴とする立体視
システム。
6. The stereoscopic vision system according to claim 1, wherein the gaze range determining unit determines an arrangement condition, a color tone, a lightness, a saturation, a size, a complexity of the model viewed from the observer's viewpoint.
A stereoscopic vision system comprising means for estimating the gaze range of both eyes in consideration of all or part of the moving speed.
【請求項7】 請求項1、5記載の立体視システムにお
いて、 視野外に存在するモデルのデータを除外する視野外デー
タ除外手段を更に備えることを特徴とする立体視システ
ム。
7. The stereoscopic system according to claim 1, further comprising an out-of-field data excluding means for excluding data of a model existing outside the field of view.
【請求項8】 請求項7記載の立体視システムにおい
て、 実際に表示された画像に対する視線および注視範囲を検
出する視線・注視範囲検出手段を更に備え、 前記視野外データ除外手段は、前記視線・注視範囲検出
手段により検出された視線に基づいて視野を算出し、視
野外に存在するデータを除外することを特徴とする立体
視システム。
8. The stereoscopic system according to claim 7, further comprising a line-of-sight / gaze-range detecting unit that detects a line-of-sight and a gaze range with respect to an actually displayed image, and the out-of-view-data excluding unit includes the line-of-sight / gaze range. A stereoscopic vision system characterized in that a visual field is calculated based on the line of sight detected by the gaze range detecting means, and data existing outside the visual field is excluded.
【請求項9】 請求項1、5記載の立体視システムにお
いて、 表示されるモデルの色調を、視点より奥行き方向に遠ざ
かるに従って背景色の色調に近づける色調変更手段を更
に備えることを特徴とする立体視システム。
9. The stereoscopic system according to claim 1, further comprising color tone changing means for bringing the color tone of the model to be displayed closer to the color tone of the background color as it goes away from the viewpoint in the depth direction. Vision system.
【請求項10】 請求項1、5記載の立体視システムに
おいて、 前記画像データ作成手段は、ディスプレイ上に表示され
るグラフィックユーザーインターフェースアイテムの立
体視条件を定める機能を更に有していることを特徴とす
る立体視システム。
10. The stereoscopic vision system according to claim 1, wherein the image data creating means further has a function of defining a stereoscopic vision condition of a graphic user interface item displayed on a display. And stereoscopic system.
【請求項11】 請求項1、5記載の立体視システムに
おいて、 前記モデルがディスプレイ画面端部に位置する場合、左
右画像の縁部をぼかすぼかし手段を有することを特徴と
する立体視システム。
11. The stereoscopic system according to claim 1, further comprising a blurring unit that blurs edges of left and right images when the model is located at an edge of a display screen.
【請求項12】 請求項1、5記載の立体視システムに
おいて、 さらに、 立体視条件を変化させ立体視効果を弱めることで眼の疲
れを軽減する手段を有することを特徴とする立体視シス
テム。
12. The stereoscopic vision system according to claim 1, further comprising means for reducing eye fatigue by changing stereoscopic vision conditions to weaken the stereoscopic vision effect.
【請求項13】 ディスプレイに、互いに異なる2つの
視点から見た一対の画像を立体視可能に表示する立体視
システムにおいて、 観察者が注視する可能性の高い画像部分を決定する注視
範囲決定手段と、 前記注視範囲決定手段の出力に基づいて、この注視範囲
が立体視容易な領域になるような画像変換方法を決定す
る画像変換決定手段と、 この画像変換決定手段の出力に基づいて前記ディスプレ
イ上に表示される画像データを作成する画像データ作成
手段とを備えることを特徴とする立体視システム。
13. A gaze range deciding means for deciding an image part which is highly likely to be gazed by an observer in a stereoscopic system for stereoscopically displaying a pair of images viewed from two different viewpoints on a display. An image conversion deciding means for deciding an image conversion method such that the gaze range becomes an area where stereoscopic viewing is easy based on the output of the gaze range deciding means; An image data creating means for creating image data to be displayed on the stereoscopic viewing system.
【請求項14】 ディスプレイに、モデルを互いに異な
る2つの視点から見た一対の画像を立体視可能に表示す
る立体視方法において、 モデルに対し観察者が注視する可能性の高い範囲を決定
する注視範囲決定ステップと、 前記モデルのデータを変更することによって、前記注視
範囲決定手段により決定された注視範囲が立体視容易領
域内に入るように前記モデルをディスプレイ面と直交す
る方向に移動するモデル移動ステップと、 このモデル移動手段によって変更されたモデルのデータ
を変更することによって、前記モデル移動手段により移
動されたモデルの大きさを移動距離に対応して拡大縮小
するモデル拡大縮小ステップと、 前記モデル移動手段により移動されるとともに前記モデ
ル拡大縮小手段により大きさが変更された後のモデルの
データに基づいて、前記ディスプレイ上に表示される画
像データを作成する画像データ作成ステップと、 を備えることを特徴とする立体視方法。
14. A stereoscopic viewing method for displaying a pair of images of a model viewed from two different viewpoints on a display in a stereoscopic manner so as to determine a range in which an observer is likely to gaze at the model. Range determination step, and model change by moving the model in a direction orthogonal to the display surface so that the gaze range determined by the gaze range determining means falls within the stereoscopic easy region by changing the model data. And a model scaling step of scaling the size of the model moved by the model moving means according to a moving distance by changing the data of the model changed by the model moving means, The model after being moved by the moving means and changed in size by the model scaling means. Based on the data, stereoscopic method characterized by and an image data generation step of generating image data to be displayed on said display.
【請求項15】 請求項14記載の立体視方法におい
て、 前記モデル移動ステップにより移動されたモデルのうち
の少なくともその要部が立体視容易領域内に入るように
視点から見た奥行き距離の縮尺を設定する奥行き距離縮
小ステップを更に備えることを特徴とする立体視方法。
15. The stereoscopic viewing method according to claim 14, wherein the scale of the depth distance seen from the viewpoint is adjusted so that at least a main part of the model moved in the model moving step falls within the easy stereoscopic viewing area. A stereoscopic viewing method further comprising a depth distance reduction step of setting.
【請求項16】 請求項14記載の立体視方法におい
て、 実際に表示された画像に対する視線および注視範囲を検
出する視線・注視範囲検出ステップを更に備え、 前記モデル移動ステップは、前記視線・注視範囲検出ス
テップにより検出された注視範囲に基づいて前記モデル
をディスプレイと直交する方向に移動することを特徴と
する立体視方法。
16. The stereoscopic viewing method according to claim 14, further comprising a line-of-sight / gaze-range detecting step of detecting a line-of-sight and a gaze range with respect to an actually displayed image, wherein the model moving step includes the line-of-sight / gaze range. A stereoscopic viewing method, wherein the model is moved in a direction orthogonal to the display based on the gaze range detected by the detecting step.
【請求項17】 請求項14記載の立体視方法におい
て、 前記モデル移動ステップは、視点から見たモデルの3次
元空間内への配置条件が変化し、この変化に合わせてモ
デルを移動する場合、前記配置条件の変化が生じた時点
から所定時間内、前記モデルの注視範囲の移動量を輻輳
角に換算してほぼ1度以上になることを防止するステッ
プを有することを特徴とする立体視方法。
17. The stereoscopic viewing method according to claim 14, wherein in the model moving step, a placement condition of the model in a three-dimensional space viewed from a viewpoint changes, and the model is moved in accordance with the change. A stereoscopic method comprising a step of preventing the movement amount of the gaze range of the model from being converted into a convergence angle and becoming substantially 1 degree or more within a predetermined time from the time when the change of the arrangement condition occurs. .
【請求項18】 ディスプレイに、モデルを、互いに異
なる2つの視点から見た一対の画像を用いて立体視可能
に表示する立体視方法において、 モデルに対し観察者が注視する可能性の高い部分を決定
する注視範囲決定ステップと、前記注視範囲決定ステッ
プの出力に基づいて、モデルのデータの前記一対の左、
右眼用画像上への透視変換方法を決定する透視変換決定
ステップと、 前記透視変換決定ステップにより決定された透視変換方
法に基づいて前記ディスプレイ上に表示される画像デー
タを作成する画像データ作成ステップとを備えることを
特徴とする立体視方法。
18. A stereoscopic viewing method for displaying a model on a display so that the model can be viewed stereoscopically by using a pair of images viewed from two different viewpoints. Gaze range determining step to determine, based on the output of the gaze range determining step, the pair of left of the model data,
A perspective transformation determining step of determining a perspective transformation method on the image for the right eye, and an image data creating step of creating image data displayed on the display based on the perspective transformation method determined by the perspective transformation determining step. And a stereoscopic viewing method.
【請求項19】 請求項14、18記載の立体視方法に
おいて、 前記注視範囲決定ステップは、観察者の視点から見た前
記モデルの配置条件、色調、明度、彩度、大きさ、複雑
さ、移動速度のうちの全部または一部を考慮して、両眼
の注視範囲を推定するステップを有することを特徴とす
る立体視方法。
19. The stereoscopic viewing method according to claim 14, wherein the gazing range determining step includes placement conditions, color tone, brightness, saturation, size, complexity of the model viewed from the observer's viewpoint. A stereoscopic viewing method comprising the step of estimating the gaze range of both eyes in consideration of all or part of the moving speed.
【請求項20】 請求項14、18記載の立体視方法に
おいて、 視野外に存在するモデルのデータを除外する視野外デー
タ除外ステップを更に備えることを特徴とする立体視方
法。
20. The stereoscopic viewing method according to claim 14, further comprising an out-of-field-of-view data excluding step of excluding data of a model existing outside the field of view.
【請求項21】 請求項20記載の立体視方法におい
て、 実際に表示された画像に対する視線および注視範囲を検
出する視線・注視範囲検出ステップを更に備え、 前記視野外データ除外ステップは、前記視線・注視範囲
検出ステップにより検出された視線に基づいて視野を算
出し、視野外に存在するデータを除外することを特徴と
する立体視方法。
21. The stereoscopic viewing method according to claim 20, further comprising a line-of-sight / gaze-range detecting step of detecting a line-of-sight and a gaze range of an actually displayed image, and the step of excluding data outside the visual field includes the line-of-sight / gaze range. A stereoscopic viewing method, wherein a visual field is calculated based on the line of sight detected by the gaze range detecting step, and data existing outside the visual field is excluded.
【請求項22】 請求項14、18記載の立体視方法に
おいて、 表示されるモデルの色調を、視点より奥行き方向に遠ざ
かるに従って背景色の色調に近づける色調変更ステップ
を更に備えることを特徴とする立体視方法。
22. The stereoscopic vision method according to claim 14, further comprising a color tone changing step of bringing the color tone of the displayed model closer to the color tone of the background color as the distance from the viewpoint increases in the depth direction. How to see.
【請求項23】 請求項14、18記載の立体視方法に
おいて、 前記画像データ作成ステップは、ディスプレイ上に表示
されるグラフィックユーザーインターフェースアイテム
の立体視条件を定めるステップを有することを特徴とす
る立体視方法。
23. The stereoscopic viewing method according to claim 14, wherein the image data creating step includes a step of defining a stereoscopic viewing condition of a graphic user interface item displayed on a display. Method.
【請求項24】 請求項14、18記載の立体視方法
おいて、 前記モデルがディスプレイ画面端部に位置する場合、左
右画像の縁部をぼかすぼかしステップを有することを特
徴とする立体視方法。
24. The stereoscopic viewing method according to claim 14, further comprising a step of blurring edges of the left and right images when the model is located at an edge of a display screen. Stereoscopic method to do.
【請求項25】 請求項14、18記載の立体視方法
おいて、 さらに、立体視条件を変化させ立体視効果を弱めること
で眼の疲れを軽減するステップを有することを特徴とす
る立体視方法。
25. The stereoscopic vision method according to claim 14, further comprising a step of reducing eye strain by changing a stereoscopic vision condition to weaken the stereoscopic vision effect. And stereoscopic method.
【請求項26】 ディスプレイに、互いに異なる2つの
視点から見た一対の画像を立体視可能に表示する立体視
方法において、 観察者が注視する可能性の高い画像部分を決定する注視
範囲決定ステップと、 前記注視範囲決定ステップの出力に基づいて、この注視
範囲が立体視容易な領域になるような画像変換方法を決
定する画像変換決定ステップと、 この画像変換決定ステップの出力に基づいて前記ディス
プレイ上に表示される画像データを作成する画像データ
作成ステップとを備えることを特徴とする立体視方法。
26. In a stereoscopic viewing method for displaying a pair of images viewed from two different viewpoints on a display in a stereoscopically viewable manner, a gaze range deciding step for deciding an image portion that is highly likely to be gazed by an observer. An image conversion determining step that determines an image conversion method such that the gaze range becomes an area where stereoscopic viewing is easy based on the output of the gaze range determining step, and the display on the display based on the output of the image conversion determining step An image data creating step of creating image data to be displayed on the stereoscopic viewing method.
【請求項27】 コンピュータシステムに、ディスプレ
イ上に、モデルを互いに異なる2つの視点から見た一対
の画像を立体視可能に表示させるコンピュータプログラ
ムを格納する記憶媒体において、 前記コンピュータシステムに、観察者が注視する可能性
の高い範囲を決定する指令を与える注視範囲決定指令手
段と、 コンピュータシステムに、前記モデルのデータを変更す
ることによって、前記注視範囲決定指令手段により決定
された注視範囲が立体視容易領域内に入るように前記モ
デルをディスプレイ面と直交する方向に移動させる指令
を与えるモデル移動指令手段と、 コンピュータシステムに、このモデル移動手段によって
変更されたモデルのデータを変更することによって、前
記モデル移動手段により移動されたモデルの大きさを移
動距離に対応して変化させる指令を与えるモデル拡大縮
小指令手段と、 コンピュータシステムに、前記モデル移動手段により移
動されるとともに前記モデル拡大縮小手段により大きさ
が変更された後のモデルのデータに基づいて、前記ディ
スプレイ上に表示される画像データを作成する指令を与
える画像データ作成指令手段と、 を備えることを特徴とする記憶媒体。
27. A storage medium storing a computer program for causing a computer system to stereoscopically display a pair of images of a model viewed from two different viewpoints on a display, wherein an observer is included in the computer system. By changing the data of the model to the gaze range determination command means that gives a command to determine the range with a high possibility of gaze, the gaze range determined by the gaze range determination command means can be easily stereoscopically viewed. Model movement command means for giving a command to move the model in a direction orthogonal to the display surface so as to enter the area, and the model data by changing the data of the model changed by the model movement means to the computer system. Transfer the size of the model moved by the moving means. Model scaling instruction means for giving a command to change in accordance with the moving distance, and to the computer system based on the model data after being moved by the model moving means and changed in size by the model scaling means And an image data creation command means for giving a command to create the image data to be displayed on the display.
【請求項28】 請求項27記載の記憶媒体において、 前記コンピュータシステムに、前記モデル移動指令手段
の指令に基づいて移動されたモデルのうちの少なくとも
その要部が立体視容易領域内に入るように視点から見た
奥行き方向の縮尺を設定する指令を与える奥行き距離縮
小指令手段を更に備えることを特徴とする記憶媒体。
28. The storage medium according to claim 27, wherein in the computer system, at least a main part of the model moved based on the instruction of the model movement instruction means is included in the stereoscopic view easy region. A storage medium further comprising depth distance reduction command means for giving a command to set a scale in the depth direction viewed from the viewpoint.
【請求項29】 請求項27記載の記憶媒体において、 コンピュータシステムに、実際に表示された画像に対す
る視線および注視範囲を検出する指令を与える視線・注
視範囲検出指令手段を更に備え、 前記モデル移動指令手段は、前記コンピュータシステム
に、前記視線・注視範囲検出指令手段の指令に基づいて
検出された注視範囲に基づいて前記モデルをディスプレ
イと直交する方向に移動する指令を与えることを特徴と
する記憶媒体。
29. The storage medium according to claim 27, further comprising line-of-sight / gaze-range detection command means for giving a command to the computer system to detect a line-of-sight and a gaze range for an actually displayed image, and the model movement command. The means gives the computer system a command to move the model in a direction orthogonal to the display based on the gaze range detected based on the command of the gaze / gaze range detection command means. .
【請求項30】 請求項27記載の記憶媒体において、 前記モデル移動指令手段は、 前記コンピュータシステムに、視点から見たモデルの3
次元空間内への配置条件が変化し、この変化に合わせて
モデルを移動する場合、前記配置条件の変化が生じた時
点から所定時間内、前記モデルの注視範囲の移動量を輻
輳角に換算してほぼ1度以上になることを防止する指令
を与える手段を有することを特徴とする記憶媒体。
30. The storage medium according to claim 27, wherein the model movement command means causes the computer system to display a model 3 from a viewpoint.
Arrangement condition in the dimensional space changes, when moving the model according to this change, within a predetermined time from the time when the change in the arrangement condition occurs, the movement amount of the gaze range of the model is converted to the convergence angle. A storage medium having means for giving a command to prevent the temperature from becoming almost once or more.
【請求項31】 コンピュータシステムに、ディスプレ
イ上に、モデルを、互いに異なる2つの視点から見た一
対の画像を用いて立体視可能に表示させるコンピュータ
プログラムを格納する記憶媒体において、 コンピュータシステムに、モデルに対し観察者が注視す
る可能性の高い部分を決定する指令を与える注視範囲決
定指令手段と、 コンピュータシステムに、前記注視範囲決定指令に基づ
く出力に基づいて、モデルのデータの前記一対の左、右
眼用画像上への透視変換方法を決定する指令を与える透
視変換決定指令手段と、 コンピュータシステムに、前記透視変換決定指令に基づ
いて決定された透視変換方法に基づいて前記ディスプレ
イ上に表示される画像データを作成する指令を与える画
像データ作成指令手段とを備えることを特徴とする記憶
媒体。
31. A storage medium storing a computer program for causing a computer system to stereoscopically display a model on a display by using a pair of images viewed from two different viewpoints. Against the gaze range determination command means for giving a command to determine the part that the observer is likely to gaze, the computer system, based on the output based on the gaze range determination command, the pair of left of the model data, A perspective transformation determination command means for giving a command to determine a perspective transformation method on the image for the right eye, and a computer system, which is displayed on the display based on the perspective transformation method determined based on the perspective transformation determination command. Image data creation command means for giving a command to create image data Storage medium.
【請求項32】 請求項27、31記載の記憶媒体にお
いて、 前記注視範囲決定指令手段は、コンピュータシステム
に、観察者の視点から見た前記モデルの配置条件、色
調、明度、彩度、大きさ、複雑さ、移動速度のうちの全
部または一部を考慮して、両眼の注視範囲を推定させる
指令を与える手段を有することを特徴とする記憶媒体。
32. The storage medium according to claim 27, wherein the gaze range determination command means instructs the computer system to arrange conditions, color tone, lightness, saturation, and size of the model viewed from the observer's viewpoint. , A storage medium having means for giving a command for estimating a gaze range of both eyes in consideration of all or part of complexity and moving speed.
【請求項33】 請求項27、31記載の記憶媒体にお
いて、 コンピュータシステムに、視野外に存在するモデルのデ
ータを除外する指令を与える視野外データ除外指令手段
を更に備えることを特徴とする記憶媒体。
33. The storage medium according to claim 27, further comprising an out-of-view data exclusion command means for giving an instruction to exclude data of a model existing outside the field of view to the computer system. .
【請求項34】 請求項27、31記載の記憶媒体にお
いて、 前記コンピュータシステムに、実際に表示された画像に
対する視線および注視範囲を検出する指令を与える視線
・注視範囲検出指令手段を更に備え、 前記視野外データ除外指令手段は、前記コンピュータシ
ステムに、前記視線・注視範囲検出指令手段の指令に基
づいて検出された視線に基づいて視野を算出し、視野外
に存在するデータを除外する指令を与えることを特徴と
する記憶媒体。
34. The storage medium according to claim 27, further comprising line-of-sight / gaze range detection command means for giving the computer system a command to detect a line-of-sight and a range of gaze with respect to an actually displayed image, The out-of-field-of-view data exclusion command means gives the computer system a command of calculating a field of view based on the line of sight detected based on the command of the line-of-sight / gaze range detection command means, and excluding data existing outside the field of view. A storage medium characterized by the above.
【請求項35】 請求項27、31記載の記憶媒体にお
いて、 前記コンピュータシステムに、表示されるモデルの色調
を、視点より奥行き方向に遠ざかるに従って背景色の色
調に近づける指令を与える色調変更指令手段を更に備え
ることを特徴とする記憶媒体。
35. The storage medium according to claim 27, further comprising a color tone change command means for giving the computer system a command to bring the color tone of the model to be displayed closer to the color tone of the background color as the distance from the viewpoint is increased in the depth direction. A storage medium further comprising:
【請求項36】 請求項27、31記載の記憶媒体にお
いて、 前記画像データ作成指令手段は、前記コンピュータシス
テムに、ディスプレイ上に表示されるグラフィックユー
ザーインターフェースアイテムの立体視条件を定める指
令を与える手段を有していることを特徴とする記憶媒
体。
36. The storage medium according to claim 27, wherein said image data creation commanding means is means for giving said computer system a command for determining a stereoscopic viewing condition of a graphic user interface item displayed on a display. A storage medium characterized by having.
【請求項37】 請求項27、31記載の記憶媒体にお
いて、 前記コンピュータシステムに、前記モデルがディスプレ
イ画面端部に位置する場合左右画像の縁部をぼかす処理
を行わせる指令手段を有することを特徴とする記憶媒
体。
37. The storage medium according to claim 27, wherein the computer system has a commanding unit for blurring the edges of the left and right images when the model is located at the edge of the display screen. Storage medium.
【請求項38】 請求項27、31記載の記憶媒体にお
いて、 さらに、前記コンピュータシステムに、立体視条件を変
化させ立体視効果を弱めることで眼の疲れを軽減させる
処理を行わせる指令手段を有することを特徴とする記憶
媒体。
38. The storage medium according to claim 27, further comprising a command means for causing the computer system to perform a process of reducing eye fatigue by changing a stereoscopic condition and weakening a stereoscopic effect. A storage medium characterized by the above.
【請求項39】 コンピュータシステムに、ディスプレ
イ上に、互いに異なる2つの視点から見た一対の画像を
立体視可能に表示させるコンピュータプログラムを格納
する記憶媒体において、 前記コンピュータシステムに、観察者が注視する可能性
の高い画像部分を決定する指令を与える注視範囲決定指
令手段と、 コンピュータシステムに、前記注視範囲決定指令に基づ
く出力に基づいて、この注視範囲が立体視容易な領域に
なるような画像変換方法を決定する指令を与える画像変
換決定指令手段と、 コンピュータシステムに、この画像変換決定手段の出力
に基づいて前記ディスプレイ上に表示される画像データ
を作成する指令を与える画像データ作成指令手段とを備
えることを特徴とする記憶媒体。
39. A storage medium storing a computer program for causing a computer system to stereoscopically display a pair of images viewed from two different viewpoints on a display, wherein an observer gazes at the computer system. Based on the output based on the gaze range decision command, the gaze range decision command means for giving a command for deciding a highly probable image portion, and image conversion such that the gaze range becomes an area where stereoscopic vision is easy Image conversion determination command means for giving a command for determining the method, and image data creation command means for giving a command to the computer system for creating the image data displayed on the display based on the output of the image conversion determination means. A storage medium provided with.
【請求項40】 画像データを記憶した記憶媒体であっ
て、 前記左眼用と右眼用の画像をディスプレイに表示し、こ
れらの画像を左眼および右眼で独立して眺めることで、
立体視を行わせるシステムに適用される記憶媒体におい
て、 前記記憶媒体には、場面毎に、その画像中の注視範囲を
立体視容易領域に位置させるための画像変換のためのデ
ータを格納する格納部を有することを特徴とする記憶媒
体。
40. A storage medium storing image data, wherein the left-eye image and the right-eye image are displayed on a display, and these images are independently viewed by the left eye and the right eye,
In a storage medium applied to a system for performing stereoscopic vision, the storage medium stores, for each scene, data for image conversion for locating a gaze range in the image in an easy stereoscopic view region. A storage medium having a part.
【請求項41】 請求項40記載の記憶媒体を製造する
記憶媒体製造システムであって、 画像データのうち、観察者が注視する可能性の高い画像
部分を決定する注視範囲決定手段と、 前記注視範囲決定手段の出力に基づいて、この注視範囲
が立体視容易な領域になるような画像変換方法を決定す
る画像変換決定手段と、 この画像変換のためのデータを前記画像データと共に前
記記憶媒体に記載する手段とを有することを特徴とする
記憶媒体製造装置。
41. A storage medium manufacturing system for manufacturing the storage medium according to claim 40, comprising: a gaze range deciding means for deciding an image portion of the image data that is likely to be gazed by an observer; An image conversion determination unit that determines an image conversion method such that the gaze range becomes an area that facilitates stereoscopic viewing based on the output of the range determination unit, and data for this image conversion in the storage medium together with the image data. A storage medium manufacturing apparatus, comprising: the described means.
【請求項42】 請求項40記載の記憶媒体を用いて、
ディスプレイ上に表示する画像データを生成する立体視
システムにおいて、 記憶媒体に格納された画像データを、この記憶媒体に格
納された前記画像データ変換のためのデータに基づいて
処理し、ディスプレイ上に表示する一対の左眼用・右眼
用画像を生成する手段を有することを特徴とする立体視
システム。
42. Using the storage medium according to claim 40,
In a stereoscopic system that generates image data to be displayed on a display, image data stored in a storage medium is processed based on the data for image data conversion stored in this storage medium, and is displayed on the display. A stereoscopic viewing system comprising means for generating a pair of left-eye and right-eye images for
【請求項43】 請求項1、5記載の立体視システムに
おいて、 前記注視範囲決定手段は、モデルに対し観察者が注視す
る可能性の高い部分を、前記モデルと前記観察者の初期
値に基づいて決定することを特徴とする立体視システ
ム。
43. The stereoscopic vision system according to claim 1, wherein the gaze range deciding unit determines a portion, which is highly likely to be gazed by an observer with respect to the model, based on initial values of the model and the observer. A stereoscopic vision system characterized by making decisions.
JP17179897A 1996-06-27 1997-06-27 Stereoscopic system, stereoscopic method, and storage medium for storing computer program for displaying a pair of images viewed from two different viewpoints in a stereoscopic manner Expired - Fee Related JP3504111B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17179897A JP3504111B2 (en) 1996-06-27 1997-06-27 Stereoscopic system, stereoscopic method, and storage medium for storing computer program for displaying a pair of images viewed from two different viewpoints in a stereoscopic manner

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP16799996 1996-06-27
JP8-167999 1996-06-27
JP17179897A JP3504111B2 (en) 1996-06-27 1997-06-27 Stereoscopic system, stereoscopic method, and storage medium for storing computer program for displaying a pair of images viewed from two different viewpoints in a stereoscopic manner

Publications (2)

Publication Number Publication Date
JPH1083460A JPH1083460A (en) 1998-03-31
JP3504111B2 true JP3504111B2 (en) 2004-03-08

Family

ID=26491866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17179897A Expired - Fee Related JP3504111B2 (en) 1996-06-27 1997-06-27 Stereoscopic system, stereoscopic method, and storage medium for storing computer program for displaying a pair of images viewed from two different viewpoints in a stereoscopic manner

Country Status (1)

Country Link
JP (1) JP3504111B2 (en)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100380994B1 (en) * 2000-12-26 2003-04-26 한국전자통신연구원 Three-dimensional display apparatus and method with gaze point feedback
ATE475153T1 (en) * 2002-01-07 2010-08-15 Koninkl Philips Electronics Nv METHOD AND UNIT FOR SCALING A THREE-DIMENSIONAL MODEL AND DISPLAY DEVICE
JP4145122B2 (en) * 2002-09-27 2008-09-03 シャープ株式会社 Stereoscopic image display device
EP2315454B1 (en) 2002-09-27 2012-07-25 Sharp Kabushiki Kaisha 3-D image display device
JP2004165710A (en) * 2002-09-27 2004-06-10 Sharp Corp Stereoscopic image display apparatus, stereoscopic image recording method, and stereoscopic image transmission method
CN1703915A (en) * 2002-09-27 2005-11-30 夏普株式会社 3-D image display unit, 3-D image recording device and 3-D image recording method
JP2004357156A (en) * 2003-05-30 2004-12-16 Sharp Corp Video reception apparatus and video playback apparatus
JP4116932B2 (en) * 2003-06-18 2008-07-09 株式会社ソフィア Game machine
JP4625805B2 (en) * 2003-07-11 2011-02-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and scaling unit for scaling a three-dimensional model
US7692646B2 (en) * 2003-12-19 2010-04-06 Koninklijke Philips Electronics N.V. Method of and scaling unit for scaling a three-dimensional model
JP4125252B2 (en) 2004-03-02 2008-07-30 株式会社東芝 Image generation apparatus, image generation method, and image generation program
JP2006178900A (en) * 2004-12-24 2006-07-06 Hitachi Displays Ltd Stereoscopic image generating device
JP4528809B2 (en) * 2007-08-01 2010-08-25 株式会社ソフイア Game machine
JP5284731B2 (en) * 2008-09-02 2013-09-11 オリンパスメディカルシステムズ株式会社 Stereoscopic image display system
JP5423339B2 (en) * 2009-11-18 2014-02-19 船井電機株式会社 Video display device
KR101719981B1 (en) * 2010-07-13 2017-03-27 엘지전자 주식회사 Method for outputting userinterface and display system enabling of the method
JP5511969B2 (en) 2010-09-14 2014-06-04 パナソニック株式会社 3D image viewing glasses and control method thereof
JP5565258B2 (en) * 2010-10-12 2014-08-06 ソニー株式会社 Image processing apparatus, image processing method, and program
JP5920911B2 (en) * 2011-11-10 2016-05-18 ソニー株式会社 Information processing apparatus, information processing method, and program
JP5873982B2 (en) 2012-10-09 2016-03-01 パナソニックIpマネジメント株式会社 3D display device, 3D image processing device, and 3D display method
JP6161348B2 (en) * 2013-03-21 2017-07-12 株式会社ジオ技術研究所 Stereoscopic image data generation device
JP6550734B2 (en) * 2014-12-02 2019-07-31 セイコーエプソン株式会社 Head-mounted display device, head-mounted display device control method, and computer program
JP6347375B1 (en) * 2017-03-07 2018-06-27 株式会社コナミデジタルエンタテインメント Display control apparatus and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
久保田浩明 外3名,"動物体の認識・識別をめざしたビジョンプロセッサの構想と試作モデルの開発",電子情報通信学会技術研究報告 PRU89−101〜112 パターン認識・理解,社団法人電子情報通信学会,1990年 1月26日,第89巻,第390号,p.49−56

Also Published As

Publication number Publication date
JPH1083460A (en) 1998-03-31

Similar Documents

Publication Publication Date Title
JP3504111B2 (en) Stereoscopic system, stereoscopic method, and storage medium for storing computer program for displaying a pair of images viewed from two different viewpoints in a stereoscopic manner
EP0817123B1 (en) Stereoscopic display system and method
JP3579162B2 (en) 3D CG image generation device
US6175379B1 (en) Stereoscopic CG image generating apparatus and stereoscopic TV apparatus
JP4578294B2 (en) Stereoscopic image display device, stereoscopic image display method, and computer program
JP3653790B2 (en) 3D electronic zoom device and 3D image quality control device
US7653213B2 (en) Eye tracking system and method
EP0817125B1 (en) Stereoscopic computer graphics moving image generating apparatus
US20100091097A1 (en) Supporting A 3D Presentation
JP2005295004A (en) Stereoscopic image processing method and apparatus thereof
JP2002123842A (en) Device for generating stereoscopic image, and medium for recording information
US11956415B2 (en) Head mounted display apparatus
JP2018500690A (en) Method and system for generating magnified 3D images
JPH1074269A (en) Stereoscopic cg moving image generator
WO2019048819A1 (en) A method of modifying an image on a computational device
US8773429B2 (en) Method and system of virtual touch in a steroscopic 3D space
KR20120035071A (en) Apparatus and method for attenuating three dimensional effect of stereoscopic image
KR100728110B1 (en) Three dimensional effect controllable stereoscopy display device and method thereof
US6091419A (en) 3-D parallax drawing system and related method
KR20200014631A (en) Image processing method and apparatus of parallel axis typed stereo camera system for 3d-vision of near objects
KR20170142896A (en) Method and apparatus for providing personal 3-dimensional image using convergence matching algorithm
KR100893381B1 (en) Methods generating real-time stereo images
JP2011180779A (en) Apparatus, method and program for generating three-dimensional image data
US6784885B1 (en) Method and apparatus for three-dimensional parallax drawing
JP6269692B2 (en) Display device, electronic device, and program

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20031202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20031209

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071219

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081219

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091219

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101219

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees