JPH11338457A - Binocular parallax type three-dimensional display method and storage medium - Google Patents

Binocular parallax type three-dimensional display method and storage medium

Info

Publication number
JPH11338457A
JPH11338457A JP10143628A JP14362898A JPH11338457A JP H11338457 A JPH11338457 A JP H11338457A JP 10143628 A JP10143628 A JP 10143628A JP 14362898 A JP14362898 A JP 14362898A JP H11338457 A JPH11338457 A JP H11338457A
Authority
JP
Japan
Prior art keywords
viewpoint
user
parallax
gaze
binocular parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10143628A
Other languages
Japanese (ja)
Other versions
JP3461117B2 (en
Inventor
Shinichi Shiwa
新一 志和
Minoru Kobayashi
稔 小林
Aiko Kitagawa
愛子 北川
Susumu Ichinose
進 一之瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP14362898A priority Critical patent/JP3461117B2/en
Publication of JPH11338457A publication Critical patent/JPH11338457A/en
Application granted granted Critical
Publication of JP3461117B2 publication Critical patent/JP3461117B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To smoothly display a three-dimensional only by processing the position data of an observing point without changing the conventional display system by displaying an image of the same observing point on both eyes only by a moving parallax when the observing point moving speed of a user is high, and making binocular parallax display when the observing point moving speed is low. SOLUTION: A magnetic sensor type head tracker having a magnetic sensor 2 on a head of a head mounted display(HMD) 1 is used for transmitting the observing point position of a user to a virtual workd description application 7. The magnetic sensor type head tracker is a device for transmitting the position and orientation of the magnetic sensor 2 in a magnetic field formed by a magnetic source 3 through a magnetic sensor controller 4 to a computer 6. Two sheets of images with biobular parallax are sent through a three- dimensional display controller 5 to the HMD1. When the observing point moving speed is high, an image of the same observing point is displayed on both eyes only by moving parallax and when the observing point moving speed is low, binocular parallax display is made.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像の立体表示方
法及び記録媒体に関し、特に、CG(ComputerGraphi
cs)等の技術を用いて形成した仮想空間を、両眼視差お
よび運動視差を用いて立体視する立体表示方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for displaying a stereoscopic image and a recording medium, and more particularly to a computer graphic (CG).
The present invention relates to a stereoscopic display method for stereoscopically viewing a virtual space formed using a technique such as cs) using binocular parallax and motion parallax.

【0002】[0002]

【従来の技術】従来の両眼視差を用いる立体表示方法で
は、両眼間隔に対応する視差パラメータを成人の両眼間
隔に対応した定数値としている。このように従来方法は
現実世界の立体視をまねたものであるため、CG等で生
成した仮想空間を立体視する場合には次の点で問題があ
る。
2. Description of the Related Art In a conventional stereoscopic display method using binocular parallax, a parallax parameter corresponding to a binocular distance is a constant value corresponding to an adult's binocular distance. As described above, since the conventional method mimics the stereoscopic view of the real world, there are problems in the following points when stereoscopically viewing a virtual space generated by CG or the like.

【0003】第1の問題点は、コンピュータの処理能力
を視覚特性上有効でない場面にも無駄に適用している点
である。すなわち、視点の移動により視野内の物体が急
速に移動する場合は、両眼視差による奥行き検出感度が
低下するため、両眼視差に代わって運動視差が奥行き検
出の支配要因となることは良く知られている。運動視差
は両眼視差と異なり単一視点の画像で十分であり、両眼
視差表示用に2視点の画像を生成することは不必要であ
る。
A first problem is that the processing power of a computer is used unnecessarily even in a scene where visual characteristics are not effective. That is, when the object in the visual field moves rapidly due to the movement of the viewpoint, the depth detection sensitivity due to the binocular parallax decreases, and it is well known that the motion parallax becomes the dominant factor in depth detection instead of the binocular parallax. Have been. Unlike the binocular parallax, the motion parallax requires a single viewpoint image, and it is unnecessary to generate a two viewpoint image for binocular parallax display.

【0004】一般に複雑なCGモデルの描画(レンダリ
ング)はコンピュータの処理における大きな負荷である
ため、運動視差画像を2度レンダリングする両眼視差表
示は運動視差表示よりもフレームレートが低下する。し
たがって、両眼視差の検出感度の低い条件で両眼視差表
示をすることは、フレームレートを低下させてチラツキ
を与えるだけの結果となっていた。
[0004] In general, drawing (rendering) a complicated CG model is a heavy load in computer processing. Therefore, the binocular parallax display that renders a motion parallax image twice has a lower frame rate than the motion parallax display. Therefore, displaying the binocular parallax under the condition that the detection sensitivity of the binocular parallax is low results only in reducing the frame rate and giving flicker.

【0005】第2の問題点は、仮想世界では現実世界を
離れて自由度の高い物の見方ができるにも関わらず、従
来は、現実の人間が見る状態をまねる以上のことがされ
ていないことである。すなわち、遠くにある物体は近く
にある物体より視差が小さいため奥行きがつかみにくい
ことは良く知られているが、従来技術では、仮想世界で
も同様の制限があった。
[0005] The second problem is that, despite the fact that in the virtual world, a person with a high degree of freedom can be seen outside the real world, conventionally, nothing has been done beyond mimicking the state of a real human being. That is. In other words, it is well known that a distant object has a smaller parallax than a nearby object, so that it is difficult to grasp the depth. However, in the related art, there is a similar limitation in a virtual world.

【0006】これに対して遠方での奥行き感を増幅させ
るために視野を広げると、近くのものを見るときには視
差が大きすぎて立体視が困難になるため使えなかった。
また逆にディスプレイの解像度不足から小さい物体を詳
しく見ようとすると、現実よりもかなり眼に近づける必
要があるが、その場合は視差が大きくなりすぎて立体視
が困難になるという問題があった。
On the other hand, if the field of view is widened in order to amplify the sense of depth at a distance, the parallax is too large when viewing a near object, so that stereoscopic viewing becomes difficult, so that it cannot be used.
Conversely, when trying to see a small object in detail due to lack of resolution of the display, it is necessary to bring the object closer to the eye than in reality. In that case, however, there is a problem that the parallax becomes too large and stereoscopic vision becomes difficult.

【0007】第3の問題点は、ヘッドマウンテッドディ
スプレイ(HMD)や大画面の囲み形ディスプレイ等で
は、ユーザーの視点から見た世界を描画するため磁気セ
ンサー等の頭部位置検出手段を用いているが、これら位
置センサーの精度が不十分なため頭を停止させても視野
が揺れることがあげられる。仮想世界では物体のポリゴ
ン数不足や照明計算の簡略化等のため、わずかの視野の
移動に対して物体の輪郭部の輝度が大きく変わることが
ある。そのため視野の揺れによる画面のチラツキが発生
し、両眼視差による立体視が困難になるという問題があ
った。一方このチラツキを減らすために位置センサーの
検出感度を低下させると、頭の動きに対する視野の動き
がなめらかでなくなるという問題があった。
A third problem is that a head-mounted display (HMD) or a large-screen box-shaped display uses a head position detecting means such as a magnetic sensor to draw the world viewed from the user's viewpoint. However, because the accuracy of these position sensors is insufficient, even if the head is stopped, the field of view may fluctuate. In the virtual world, the brightness of the contour of an object may change significantly with a slight movement of the visual field due to a shortage of polygons of the object, simplification of lighting calculation, and the like. For this reason, there is a problem that flickering of the screen occurs due to the fluctuation of the visual field, and it becomes difficult to perform the stereoscopic viewing by the binocular parallax. On the other hand, if the detection sensitivity of the position sensor is reduced in order to reduce the flicker, there is a problem that the movement of the visual field with respect to the movement of the head is not smooth.

【0008】[0008]

【発明が解決しようとする課題】本発明は、前記問題点
を解消するためになされたものであり、本発明の目的
は、従来の表示システムを変更することなく、視点の位
置データを処理するだけで、なめらかな立体表示が可能
な技術を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and an object of the present invention is to process position data of a viewpoint without changing a conventional display system. It is an object of the present invention to provide a technology capable of performing a smooth three-dimensional display only by using the technique.

【0009】本発明の他の目的は、遠距離にある物体に
十分な奥行き感を与えたり、位置センサーのノイズ等に
もとづく不愉快な視野の揺れを押さえることが可能な技
術を提供することにある。
Another object of the present invention is to provide a technology capable of giving a sufficient sense of depth to an object at a long distance and suppressing an unpleasant sway of a visual field due to noise or the like of a position sensor. .

【0010】本発明の他の目的は、高品質な立体表示を
実現することが可能な技術を提供することにある。
Another object of the present invention is to provide a technique capable of realizing high-quality stereoscopic display.

【0011】本発明の前記ならびにその他の目的と新規
な特徴は、本明細書の記述及び添付図面によって明らか
にする。
The above and other objects and novel features of the present invention will become apparent from the description of the present specification and the accompanying drawings.

【0012】[0012]

【課題を解決するための手段】本願において開示される
発明のうち代表的なものの概要を簡単に説明すれば、以
下のとおりである。
The outline of a typical invention among the inventions disclosed in the present application will be briefly described as follows.

【0013】(1)両眼視差式の立体表示方法におい
て、ユーザーの視点の移動速度を計測し、視点移動速度
が大きいときは運動視差のみで両眼に同一視点の画像を
表示し、視点移動速度が小さいときは両眼視差表示す
る。
(1) In the binocular parallax stereoscopic display method, the moving speed of the user's viewpoint is measured, and when the moving speed of the viewpoint is high, an image of the same viewpoint is displayed on both eyes only by the motion parallax. When the speed is low, binocular parallax is displayed.

【0014】(2)両眼視差式の立体表示方法におい
て、ユーザーの視点から注視点までの注視距離を計測
し、注視距離が大きい場合は視差量を増加して、注視距
離が小さい場合は視差量を減少させる。
(2) In the binocular parallax stereoscopic display method, the gaze distance from the user's viewpoint to the gaze point is measured, and the parallax amount is increased when the gaze distance is large, and the parallax is increased when the gaze distance is small. Decrease the amount.

【0015】(3)ユーザーの頭の位置を検出するセン
サーを用いる両眼視差式の立体表示方法であって、ユー
ザーが注視している注視時間を計測し、ユーザーの注視
時間が大きい場合に前記センサーの検出感度を低下させ
る。
(3) A binocular parallax stereoscopic display method using a sensor for detecting the position of the user's head, wherein a gaze time during which the user is gazing is measured. Decrease the detection sensitivity of the sensor.

【0016】(4)視点ユーザーの頭の位置を検出する
センサーを用いる両眼視差式の立体表示方法であって、
ユーザーが注視している注視時間を計測し、ユーザーの
注視データの位置及び向きの差分が閾値より小さい状態
が一定時間以上継続した場合は、“基準値”を更新せ
ず、“描画パラメータ”を基準値のまま同一視点からの
画像を描画し、前記以外の場合には“基準値”を更新
し、“描画パラメータ”を現在値として更新後の視点か
らの画像を描画する。
(4) A stereoscopic display method of binocular parallax using a sensor for detecting a position of a head of a viewpoint user,
The gaze time during which the user is gazing is measured, and if the state in which the difference between the position and orientation of the gaze data of the user is smaller than the threshold has continued for a certain period of time or more, the “reference value” is not updated and the “drawing parameter” An image from the same viewpoint is drawn with the reference value unchanged, and in other cases, the “reference value” is updated, and an image from the updated viewpoint is drawn using the “drawing parameter” as the current value.

【0017】(5)コンピュータによってユーザーの頭
の位置視点を検出するセンサーを用いる両眼視差式の立
体表示を行うための立体表示制御プログラムを記録した
記録媒体であって、ユーザーが注視している注視時間を
計測する手順と、ユーザーの注視データの位置及び向き
の差分が閾値より小さい状態が一定時間以上継続した場
合は、“基準値”を更新せず、“描画パラメータ”を基
準値のまま同一視点からの画像を描画する手段と、前記
以外の場合には“基準値”を更新し、“描画パラメー
タ”を現在値として更新後の視点からの画像を描画する
手順とををコンピュータに実行させるプログラムを記録
したコンピュータ読み取り可能な記録媒体である。
(5) A recording medium which records a stereoscopic display control program for performing binocular parallax stereoscopic display using a sensor for detecting the position and viewpoint of the user's head by a computer, wherein the user is watching. If the procedure of measuring the gaze time and the state in which the difference between the position and orientation of the user's gaze data is smaller than the threshold has continued for a certain period of time or more, the “reference value” is not updated, and the “drawing parameter” remains at the reference value. A means for drawing an image from the same viewpoint and a procedure for updating the “reference value” in other cases and drawing an image from the updated viewpoint using the “drawing parameter” as the current value are executed by the computer. And a computer-readable recording medium storing a program to be executed.

【0018】[0018]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態(実施例)を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The embodiments (examples) of the present invention will be described below in detail with reference to the drawings.

【0019】図1は本発明の実施形態(実施例)のヘッ
ドマウンテッドディスプレイ(HMD)を用いた立体表
示装置の概略構成を示すブロック構成図であり、1はヘ
ッドマウンテッドディスプレイ(以下、HMDとい
う)、2は磁気センサー、3は磁気ソース、4は磁気セ
ンサーコントローラ、5は立体表示コントローラ、6は
コンピュータ、7は仮想世界記述アプリケーションであ
る。
FIG. 1 is a block diagram showing a schematic configuration of a three-dimensional display device using a head mounted display (HMD) according to an embodiment (example) of the present invention, and 1 is a head mounted display (hereinafter, HMD). 2) a magnetic sensor, 3 a magnetic source, 4 a magnetic sensor controller, 5 a stereoscopic display controller, 6 a computer, and 7 a virtual world description application.

【0020】本実施形態の立体表示装置は、図1に示す
ように、ユーザーの視点位置を仮想世界記述アプリケー
ション7に伝えるために、前記HMD1のヘッド上に磁
気センサー2が設けられている磁気センサー式ヘッドト
ラッカーを用いた。この磁気センサー式ヘッドトラッカ
ーは、前記磁気ソース3の作る磁界中の磁気センサー2
の位置と向きを磁気センサーコントローラ4経由でコン
ピュータ6に通信する装置である。HMD1には立体表
示コントローラ5を通して両眼視差のついた2枚の画像
が送られる。
As shown in FIG. 1, the three-dimensional display device of this embodiment has a magnetic sensor 2 provided on the head of the HMD 1 for transmitting a user's viewpoint to a virtual world description application 7. A head tracker was used. The magnetic sensor type head tracker includes a magnetic sensor 2 in a magnetic field generated by the magnetic source 3.
Is a device for communicating the position and orientation of the computer to the computer 6 via the magnetic sensor controller 4. Two images with binocular parallax are sent to the HMD 1 through the stereoscopic display controller 5.

【0021】図2は本実施形態のCGで仮想世界を表示
するための処理手順(従来一般に用いられている処理手
順)を示すフローチャートである。図2の(1)は運動
視差表示の場合であり、通常のパソコンモニタに表示す
る場合にはこの処理がなされる。図2の(2)は両眼視
差表示の場合であり、本実施形態のHMD1を用いる場
合のほか、液晶シャッタメガネや偏光メガネなどのメガ
ネをかけて立体視する場合の処理フローである。表示モ
ードを両眼視差にする場合は単一視点の場合と異なり、
両眼間隔など幾つかのパラメータを追加しなければなら
ない。
FIG. 2 is a flowchart showing a processing procedure (a processing procedure generally used conventionally) for displaying a virtual world on a CG according to the present embodiment. FIG. 2A shows the case of the motion parallax display, and this processing is performed when the image is displayed on a normal personal computer monitor. FIG. 2 (2) shows a case of binocular parallax display, and is a processing flow in the case of using the HMD 1 of the present embodiment, and in the case of stereoscopic viewing using glasses such as liquid crystal shutter glasses and polarizing glasses. When the display mode is binocular parallax, unlike the case of single viewpoint,
Some parameters must be added, such as the distance between the eyes.

【0022】図2の(1)及び(2)において、コンピ
ュータ6は、まず、ユーザーの視点データを取得し(S
101、S104)、あらかじめ設定されている描画パ
ラメータ(S102、S105)に基づいて、その視点
から見えるはずの視野を計算して描画する(S103、
S106)。描画パラメータには単一視点(運動視差表
示)か両眼視点(両眼視差表示)かを決める表示モード
など、描画に必要なものすべてが含まれなければならな
い。ユーザーの視点データは重要なパラメータの一つで
あり、これはリアルタイムで更新される。
In (1) and (2) of FIG. 2, the computer 6 first obtains viewpoint data of the user (S
101, S104), and based on the preset drawing parameters (S102, S105), calculate the field of view that should be seen from that viewpoint and draw (S103, S104).
S106). The drawing parameters must include everything necessary for drawing, such as a display mode for determining whether a single viewpoint (motion parallax display) or binocular viewpoint (binocular parallax display). The user's viewpoint data is one of the important parameters, which is updated in real time.

【0023】従来は、パラメータを初期設定した後、図
2の(1)、(2)のどちらかの処理フローを固定的に
使い続けていた。しかし、本発明ではユーザーの視点の
動きを検出して、処理フローをリアルタイムで切り替え
る点が特徴となっている。最初に表示モード切り替えの
方法を説明する。
Conventionally, after initial setting of the parameters, one of the processing flows (1) and (2) of FIG. 2 has been fixedly used. However, the present invention is characterized in that the movement of the viewpoint of the user is detected and the processing flow is switched in real time. First, a method of switching the display mode will be described.

【0024】本発明では視点の移動速度に応じて両眼視
差表示モードと運動視差表示モードを切り替える。
In the present invention, the binocular parallax display mode and the motion parallax display mode are switched according to the moving speed of the viewpoint.

【0025】図3は視点移動速度の閾値と表示状態を説
明するための図である。図3の(1)に示すように、ユ
ーザーの視点は仮想空間の座標系から見ると、原点から
の位置ベクトルrと、そこからの視点の向きを示す方向
ベクトルs(単位ベクトル)で定義される。本実施形態
では視点の移動速度を求めるために、現在の視点の方向
ベクトルs2と一つの前に入力された視点の方向ベクト
ルs1の内積を計算する。時間的に隣り合った視点ベク
トルの変化は小さいため、2つのベクトルの差があまり
大きくない範囲では、ベクトルの内積はベクトルの変化
が大きいほど小さな値を取る。したがって、ある閾値を
設けて (s1とs2の内積)>閾値 の条件を満たすときに視点の移動速度が小さいと判断で
き、それ以外のときは視点の移動速度が大きいと判断で
きる。閾値は磁気センサーのノイズレベル等のシステム
性能に依存するため、使用するシステムに合わせて設定
する必要がある。
FIG. 3 is a diagram for explaining the threshold value of the viewpoint moving speed and the display state. As shown in FIG. 3A, the user's viewpoint is defined by a position vector r from the origin and a direction vector s (unit vector) indicating the direction of the viewpoint from the coordinate system in the virtual space. You. In the present embodiment, in order to obtain the moving speed of the viewpoint, the inner product of the direction vector s2 of the current viewpoint and the direction vector s1 of the previously input viewpoint is calculated. Since the change of viewpoint vectors adjacent in time is small, the inner product of the vectors takes a smaller value as the change of the vector is larger, in a range where the difference between the two vectors is not so large. Therefore, when a certain threshold value is provided and (the inner product of s1 and s2)> threshold is satisfied, it can be determined that the moving speed of the viewpoint is low, and otherwise, it is determined that the moving speed of the viewpoint is high. Since the threshold value depends on the system performance such as the noise level of the magnetic sensor, it is necessary to set the threshold value according to the system to be used.

【0026】図3の(2)は、時間経過とともに方向ベ
クトルの内積が変化するときに、どのように表示モード
が切り替わるかを示す図である。閾値を境にして両眼視
差表示と運動視差表示が交互に現れることになる。
FIG. 3 (2) is a diagram showing how the display mode is switched when the inner product of the direction vector changes over time. The binocular parallax display and the motion parallax display alternately appear at the threshold.

【0027】図4は本実施形態の表示モード変更のため
の処理手順の一実施例を示すフローチャートである。本
実施例の表示モード変更処理は、図4に示すように、プ
ログラムをスタートさせると描画のためのループが回り
始める。まず、最初にユーザーの視点データを取得し
(S201)、次に、前回位置との差分を計算する(S
202)。そして差分が閾値より大きいか判定し(S2
03)、差分が閾値より大きければ、両眼視差表示の描
画パラメータを設定し(S204)、2つのウインドウ
に視差のついた視野を描画する(S205)。一方、差
分が閾値より小きければ単一視点の表示モード(運動視
差表示モード)の描画パラメータを設定し(S20
6)、両眼を結ぶ中間地点から見える視野を一方のウイ
ンドウに描画し、他方のウインドウにも同じ画像をコピ
ーする(S207)。
FIG. 4 is a flowchart showing an example of a processing procedure for changing the display mode according to the present embodiment. In the display mode change processing of the present embodiment, as shown in FIG. 4, when a program is started, a loop for drawing starts to rotate. First, the user's viewpoint data is acquired first (S201), and then the difference from the previous position is calculated (S201).
202). Then, it is determined whether the difference is larger than the threshold (S2
03) If the difference is larger than the threshold, the drawing parameters for the binocular parallax display are set (S204), and the field of view with parallax is drawn in the two windows (S205). On the other hand, if the difference is smaller than the threshold value, the drawing parameters for the single viewpoint display mode (motion parallax display mode) are set (S20).
6) The visual field seen from the intermediate point connecting both eyes is drawn in one window, and the same image is copied to the other window (S207).

【0028】本実施例ではテクスチャー付きの500ポ
リゴン程度の仮想世界の描画に対して、両眼視差表示の
描画時間を比較した結果、1:0.8程度の時間短縮効
果があった。この比較条件ではレンダリングの負荷はそ
れほど大きくなかったため、2つの表示モードであまり
差はつかなかったが、ポリゴン数が多くなるにつれて
1:0.5に近づいていくと考えられる。勿論、視点を
動かさない場合は、本発明では表示モードの切り替えは
全く起こらないが、その場合は動きがないので両眼視差
表示のままでよく、フレームレートを上げてなめらかさ
を増す効果がなくても影響はない。
In this embodiment, the drawing time of the binocular parallax display is compared with the drawing of a virtual world of about 500 polygons with texture, and as a result, a time reduction effect of about 1: 0.8 is obtained. Under this comparison condition, the rendering load was not so large, so that there was not much difference between the two display modes. However, it is considered that the ratio approaches 1: 0.5 as the number of polygons increases. Of course, when the viewpoint is not moved, the display mode is not switched at all in the present invention, but in that case, there is no movement, so the binocular parallax display may be kept, and there is no effect of increasing the frame rate and increasing smoothness. There is no effect.

【0029】また、図4のフローチャートでは表示モー
ドを瞬間的に切り替えているが、両眼間隔0→6.5c
m、逆に6.5cm→0になめらかに切り替える方法も
考えられる。このように両眼間隔を調整すると、切り替
えを感じさせなくすることができる。
Although the display mode is instantaneously switched in the flowchart of FIG. 4, the distance between both eyes is 0 → 6.5c.
m, and conversely, a method of smoothly switching from 6.5 cm to 0 is also conceivable. By adjusting the distance between both eyes in this way, it is possible to make the user not feel switching.

【0030】次に、本発明では注視距離の大小に応じて
両眼間隔のパラメータを変化させる。図5は本実施形態
の注視距離の閾値と両眼間隔の関係を説明するための図
である。図5の(1)は、注視距離が大きい場合と小さ
い場合に両眼間隔をどう変えるかを説明している。眼球
間隔が標準値(約6.5cm)の場合の眼球をそれぞれ
左眼球1、右眼球1とする。この状態で遠距離の物体を
見ると輻輳角が小さく(輻輳角1)、したがって両眼視
差も小さいので、物体の奥行き感は少ない。しかし、同
じ遠距離物体をより眼球間隔の大きい眼(左眼球2、右
眼球2)で見れば、輻輳角は大きくなり(輻輳角2)、
両眼視差も大きくなるため奥行き感が強調される。逆に
眼前にあるような近距離物体を見る場合は、輻輳角が大
きくなりすぎて、立体視そのものが困難になる。このよ
うな近距離物体に対しては、両眼間隔を小さくすること
で立体視が容易になることがわかる。
Next, in the present invention, the parameter of the distance between the eyes is changed according to the magnitude of the gaze distance. FIG. 5 is a diagram for explaining the relationship between the gaze distance threshold and the distance between both eyes according to the present embodiment. FIG. 5A illustrates how to change the interocular distance when the gaze distance is large and small. Eyeballs when the eyeball interval is a standard value (about 6.5 cm) are referred to as a left eyeball 1 and a right eyeball 1, respectively. When viewing an object at a long distance in this state, the angle of convergence is small (angle of convergence 1) and the binocular parallax is also small, so that the depth of the object is small. However, when the same distant object is viewed with eyes having a larger eyeball distance (left eyeball 2, right eyeball 2), the convergence angle increases (convergence angle 2),
Since the binocular parallax also increases, the sense of depth is emphasized. Conversely, when viewing a short-distance object such as in front of the eyes, the convergence angle becomes too large, making stereoscopic viewing itself difficult. It can be seen that for such a short-distance object, stereoscopic viewing is facilitated by reducing the distance between the eyes.

【0031】図5の(2)は、ユーザーの注視距離が変
化するときに両眼間隔をどのように制御するかを説明す
るための図である。注視距離に2つの閾値を設け、閾値
2>閾値1とし、注視距離>閾値2のときは両眼間隔を
遠距離値(>標準値)、閾値2>注視距離>閾値1のと
きは両眼間隔を標準値、注視距離<閾値1のときは両眼
間隔を近距離値(<標準値)とする。
FIG. 5 (2) is a diagram for explaining how to control the interocular distance when the user's gaze distance changes. Two thresholds are provided for the gaze distance, and threshold 2> threshold 1. If the gaze distance> threshold 2, the distance between both eyes is a long distance value (> standard value). If the threshold 2> the gaze distance> threshold 1, both eyes are set. If the interval is a standard value, and if the gaze distance <threshold 1, the binocular interval is a short distance value (<standard value).

【0032】図6は本実施形態の両眼間隔制御のための
処理手順の一実施例を示すフローチ抄ートである。本実
施例の両眼間隔制御処理は、図6に示すように、まず、
ユーザーの視点位置データを取り込み(S301)、注
視距離を計算する(S302)。視点位置データから注
視距離を求めるには幾つかの方法があるが、本実施例で
は描画のための左右眼視点のほかに左右眼の中間に第3
の眼を考え、第3の垂線方向にあるもっとも近い物体ま
での距離をzバッファ値等から求め、それを注視距離と
した。注視距離を求める他の方法としては、両眼の視線
ベクトルを眼球運動計測器等で測定し、2つの視線の交
わる位置を3角測量の原理で求める方法もある。次に、
注視距離を2つの閾値(閾値1、閾値2)と比較し(S
303)、その大小に応じて両眼間隔を遠距離値、標準
値、近距離値の3つに変えて描画パラメータを設定し
(S304、S305、S306)、左右の視差画像を
描画する(S307、S308、S309)。この制御
をリアルタイムに行うことにより、画面の中央が遠景の
場合は、自動的に両眼間隔が広がって奥行き感が強調さ
れ、画面の中央に非常に近くに物体がある場合は自動的
に両眼間隔が狭くなって立体視しやすくさせる。また、
中距離のものを見ているときは標準の両眼間隔であるた
め、現実と同様の立体感が得られる。なお、本実施例で
は閾値を2つしか設けなかったが、閾値を多数設けて連
続的に両眼間隔を変えることも可能である。
FIG. 6 is a flowchart illustrating an example of a processing procedure for controlling the distance between eyes according to the present embodiment. As shown in FIG. 6, the binocular distance control process of the present embodiment
The user's viewpoint position data is fetched (S301), and the gaze distance is calculated (S302). There are several methods for obtaining the gaze distance from the viewpoint position data. In this embodiment, a third method is provided between the left and right eyes for drawing in addition to the left and right eyes.
The distance to the closest object in the third perpendicular direction was determined from the z-buffer value and the like, and this was taken as the gaze distance. As another method of obtaining the gaze distance, there is a method of measuring the line-of-sight vectors of both eyes with an eye movement measuring instrument or the like, and obtaining the position where two lines of sight intersect based on the principle of triangulation. next,
The gaze distance is compared with two thresholds (threshold 1 and threshold 2) (S
303), the drawing parameters are set by changing the distance between the eyes to three values of a long distance value, a standard value, and a short distance value according to the magnitude (S304, S305, S306), and the left and right parallax images are drawn (S307). , S308, S309). By performing this control in real time, if the center of the screen is a distant view, the distance between the eyes is automatically widened and the sense of depth is enhanced, and if there is an object very close to the center of the screen, both eyes are automatically set. The distance between eyes becomes narrower, making it easier to view stereoscopically. Also,
When viewing an object at a medium distance, the distance between the eyes is a standard distance between eyes, so that a stereoscopic effect similar to reality can be obtained. In this embodiment, only two thresholds are provided, but it is also possible to provide a large number of thresholds and change the binocular interval continuously.

【0033】次に、本発明では注視時間の大小に応じて
位置センサーの検出感度を変化させる。図7は本実施形
態の注視時間の閾値の設定方法を説明するための図であ
る。図7の(1)に示すように、注視領域(この図7で
は2次元的に書いてあるが、実際は奥行きのある3次元
の領域)に閾値を設け、閾値領域を作る。そして計測を
開始する注視位置(基準値:番号0)から引き続き入力
される注視位置(番号1,2,3,...n)のうち閾
値領域に含まれる数を計測する。
Next, in the present invention, the detection sensitivity of the position sensor is changed according to the magnitude of the gaze time. FIG. 7 is a diagram for explaining a method of setting a gaze time threshold according to the present embodiment. As shown in (1) of FIG. 7, a threshold value is provided in a gaze area (three-dimensional area which is written in two dimensions in FIG. 7, but is actually deep) to create a threshold area. Then, the number of gaze positions (numbers 1, 2, 3,... N) that are continuously input from the gaze position (reference value: number 0) at which measurement is started is counted in the threshold region.

【0034】図7の(2)は、閾値領域にあるかどうか
の判定方法を説明するための図である。現在入力された
視点と基準視点の方向ベクトルの内積がある閾値より大
きいかどうかを調べ、大きい場合は方向変化が小さいた
め閾値領域にあるものとする。また、2つの視点の位置
ベクトルの差の絶対値がある閾値より小さいかどうかを
調べ、小さい場合は平行移動が小さいため同様に閾値領
域にあるものとする。実際には方向変化と平行移動の両
方が同時に起こるので、2つの条件のAND条件で判定
する。
FIG. 7 (2) is a diagram for explaining a method of determining whether or not the pixel is in the threshold region. It is determined whether or not the inner product of the direction vector of the currently input viewpoint and the reference viewpoint is larger than a certain threshold value. Further, it is checked whether or not the absolute value of the difference between the position vectors of the two viewpoints is smaller than a certain threshold value. Actually, both the direction change and the parallel movement occur at the same time, so the determination is made based on the AND condition of the two conditions.

【0035】図8は本実施形態のセンサー感度の制御の
ための処理手順の一実施例を示すフローチャートであ
る。本実施例のセンサー感度の制御のための処理は、図
8に示すように、ユーザーの視点データを取得した後
(S401)、基準となる視点データとの差分を求める
(S402)。この差分が閾値以下かを判定し(S40
3)、差分が閾値以下の場合はカウンタを1増加し(S
404)、カウント数の閾値と比較する(S405)。
もし、カウント数がカウンタの閾値以上になったら、そ
の時の視点位置を基準位置として登録して(S40
6)、描画パラメータを設定し(S407)、左右画面
を描画する(S408)。以後、視点データが閾値以内
にある場合は取り込んだ入力データを無視して、常に基
準視点で描画を続ける。これによってカウント数の閾値
に対応する時間、注視位置が閾値領域内にとどまった場
合は、同程度の視点の揺れがあっても表示視野は変化せ
ず、落ち着いた立体画像が見えることになる。しかし、
その場合でも、いったん閾値領域以上に視点を移動させ
ると、カウンタは再びセットされて通常の表示モードに
戻る(S413、S414、S415)。
FIG. 8 is a flowchart showing an example of a processing procedure for controlling the sensor sensitivity according to this embodiment. In the process for controlling the sensor sensitivity according to the present embodiment, as shown in FIG. 8, after acquiring viewpoint data of the user (S401), a difference from reference viewpoint data is obtained (S402). It is determined whether this difference is equal to or smaller than the threshold (S40).
3) If the difference is equal to or smaller than the threshold, the counter is incremented by 1 (S
404), and compare with the threshold value of the count number (S405).
If the counted number is equal to or larger than the threshold value of the counter, the viewpoint position at that time is registered as a reference position (S40).
6) The drawing parameters are set (S407), and the left and right screens are drawn (S408). After that, if the viewpoint data is within the threshold, the input data taken in is ignored, and drawing is always continued at the reference viewpoint. As a result, when the gaze position remains within the threshold region for a time corresponding to the threshold value of the count number, the display field of view does not change even if there is a similar degree of viewpoint swing, and a calm stereoscopic image can be seen. But,
Even in this case, once the viewpoint is moved beyond the threshold region, the counter is set again and the display returns to the normal display mode (S413, S414, S415).

【0036】ステップ(S403)の判定が、閾値以上
の場合には、カウンタをリセットし(S409)、基準
値を更新して登録し(S410)、描画パラメータを設
定し(S411)、左右画面を描画し(S412)、ス
テップS401に戻る。
If the determination in step (S403) is equal to or greater than the threshold value, the counter is reset (S409), the reference value is updated and registered (S410), the drawing parameters are set (S411), and the left and right screens are displayed. Draw (S412), and return to step S401.

【0037】以上の説明からわかるように、本発明によ
れば、視点移動速度が大きいときは運動視差のみで両眼
に同一視点の画像を表示し、視点移動速度が小さいとき
は両眼視差表示することにより、両眼視差で立体視する
ことが困難な視点移動中は運動視差による表現がなされ
るため、ユーザーには常に両眼視差による立体表示が続
いている錯覚を与えられる。
As can be seen from the above description, according to the present invention, when the viewpoint moving speed is high, an image of the same viewpoint is displayed on both eyes only by motion parallax, and when the viewpoint moving speed is low, binocular parallax display is performed. By doing so, during viewpoint movement in which it is difficult to perform stereoscopic viewing with binocular parallax, an expression based on motion parallax is made, so that the user is always given the illusion of stereoscopic display with binocular parallax.

【0038】また、運動視差表示のときは表示のフレー
ムレートが増加するため、従来の両眼視差表示だけの場
合よりもなめらかな表示が可能になる。視点移動速度は
磁気センサーやマウス、ジョイスティック、等の視点移
動手段の出力データから求めることができる。
In addition, in the case of the motion parallax display, the display frame rate is increased, so that a smoother display is possible than in the case of the conventional binocular parallax display alone. The viewpoint moving speed can be obtained from output data of a viewpoint moving means such as a magnetic sensor, a mouse, and a joystick.

【0039】また、本発明によれば、ユーザーの視点か
ら注視点までの注視距離を計測し、注視距離が大きい場
合は視差量を増加して、注視距離が小さい場合は視差量
を減少させる制御を行うことにより、遠距離を見ている
ときはもともと視差が小さく、両眼間隔を広げても両眼
視差画像に対応点が多く容易に立体視できるため、違和
感なく距離感が増幅できる。
Further, according to the present invention, a control is performed to measure the gaze distance from the user's viewpoint to the gaze point, and increase the parallax amount when the gaze distance is large and decrease the parallax amount when the gaze distance is small. Is performed, the parallax is originally small when viewing a long distance, and even if the binocular disparity is widened, the binocular parallax image can easily be stereoscopically viewed with many corresponding points, so that the sense of distance can be amplified without a sense of discomfort.

【0040】また、小さい物体に十分眼を近づけると輻
輳角が大きくなりすぎて2つの視差画像間に対応する領
域が困難になるが、本発明によれば、この場合に自動的
に両眼間隔が小さくなるため対応点の減少が無く容易に
立体視できる。注視距離は、眼球運動計測装置を取り付
けて両眼視線の交点を測定することなどで一般的には求
めることができる。
Also, if the eyes are sufficiently close to a small object, the angle of convergence becomes too large and the area corresponding to the two parallax images becomes difficult. However, according to the present invention, the distance between the eyes is automatically adjusted in this case. , The corresponding points can be easily viewed in a stereoscopic manner without a decrease in the corresponding points. The gaze distance can be generally determined by mounting an eye movement measuring device and measuring the intersection of the binocular gazes.

【0041】また、本発明によれば、注視する物体が視
野の中央になるよう頭を動かして顔の正面で見ることが
多いと考えると、視野の中央にある物体の距離を求める
ことで注視距離を代用でき、これは、特に、CGの世界
を見る場合には有効な方法である。
According to the present invention, considering that the object to be watched is often viewed in front of the face by moving the head so that the object to be watched is at the center of the field of view, the distance of the object at the center of the field of view is determined. Distance can be substituted, which is an effective method, especially when looking at the CG world.

【0042】また、本発明によれば、ユーザーが注視し
ている注視時間を計測し、注視時間が大きい場合にセン
サーの検出感度を低下させることにより、注視時間が長
くユーザーが物体を観察しようとしていると判断できる
場合は、位置センサーの検出感度が低くなっているた
め、位置センサーのノイズや多少の頭の揺れでは視野が
変動せずに安定した画像が観察できる。
According to the present invention, the gaze time measured by the user is measured, and when the gaze time is long, the detection sensitivity of the sensor is reduced. If it can be determined that the position sensor is detected, the detection sensitivity of the position sensor is low, so that a stable image can be observed without a change in the field of view due to the noise of the position sensor or slight shaking of the head.

【0043】また、本発明によれば、周囲を見回すよう
な動作をしているときには、たとえ、視点移動が止まっ
たとしても停止時間はそれほど長くないため、その場合
は位置センサーの検出感度が高いのでなめらかな移動感
が得られる。注視時間は視点が閾値以内にある画像フレ
ーム数を数える等の方法で求められる。
Further, according to the present invention, when an operation of looking around is performed, even if the movement of the viewpoint stops, the stop time is not so long, and in that case, the detection sensitivity of the position sensor is high. Therefore, a smooth feeling of movement can be obtained. The gaze time is obtained by a method such as counting the number of image frames whose viewpoints are within the threshold value.

【0044】以上、本発明者によってなされた発明を、
前記実施例に基づき具体的に説明したが、本発明は、前
記実施例に限定されるものではなく、その要旨を逸脱し
ない範囲において種々変更可能であることは勿論であ
る。
As described above, the invention made by the present inventor is:
Although the present invention has been described in detail with reference to the embodiment, the present invention is not limited to the embodiment, and it is needless to say that various changes can be made without departing from the scope of the invention.

【0045】[0045]

【発明の効果】以上、説明したように、本発明によれ
ば、従来の表示システムを変更することなく、視点の位
置データを処理するだけで、なめらかな立体表示ができ
る。
As described above, according to the present invention, a smooth three-dimensional display can be achieved only by processing the position data of the viewpoint without changing the conventional display system.

【0046】また、遠距離にある物体に十分な奥行き感
を与えることができる。
Further, a sufficient sense of depth can be given to an object located at a long distance.

【0047】また、位置センサーのノイズ等にもとづく
不愉快な視野の揺れを押さえることができる。これらに
より、高品質な立体表示を実現することができる。
Further, it is possible to suppress the unpleasant sway of the visual field due to the noise of the position sensor. As a result, high-quality stereoscopic display can be realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態(実施例)のヘッドマウンテ
ッドディスプレイ(HMD)を用いた立体表示装置の概
略構成を示すブロック構成図である。
FIG. 1 is a block diagram showing a schematic configuration of a stereoscopic display device using a head mounted display (HMD) according to an embodiment (example) of the present invention.

【図2】本実施形態のCGで仮想世界を表示するための
処理手順の一実施例を示すフローチャートである。
FIG. 2 is a flowchart illustrating an example of a processing procedure for displaying a virtual world on a CG according to the embodiment;

【図3】本実施形態の視点移動速度の閾値と表示状態を
説明するための図である。
FIG. 3 is a diagram for explaining a threshold value and a display state of a viewpoint moving speed according to the embodiment;

【図4】本実施形態の表示モード変更のための処理手順
の一実施例を示すフローチャートである。
FIG. 4 is a flowchart illustrating an example of a processing procedure for changing a display mode according to the embodiment.

【図5】本実施形態の注視距離の閾値と両眼間隔の関係
を説明するための図である。
FIG. 5 is a diagram for explaining a relationship between a gaze distance threshold and a binocular distance according to the embodiment;

【図6】本実施形態の両眼間隔制御のための処理手順の
一実施例を示すフローチャートである。
FIG. 6 is a flowchart illustrating an example of a processing procedure for binocular distance control according to the embodiment;

【図7】本実施形態の注視時間の閾値の設定方法を説明
するための図である。
FIG. 7 is a diagram for explaining a method of setting a gaze time threshold according to the embodiment;

【図8】本実施形態のセンサー感度の制御のための処理
手順の一実施例を示すフローチャートである。
FIG. 8 is a flowchart illustrating an example of a processing procedure for controlling sensor sensitivity according to the embodiment.

【符号の説明】[Explanation of symbols]

1…HMD、2…磁気センサー、3…磁気ソース、4…
磁気センサーコントローラ、5…立体表示コントロー
ラ、6…コンピュータ、7…仮想世界記述アプリケーシ
ョン。
1 ... HMD, 2 ... magnetic sensor, 3 ... magnetic source, 4 ...
Magnetic sensor controller, 5 ... 3D display controller, 6 ... Computer, 7 ... Virtual world description application.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 一之瀬 進 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Susumu Ichinose 3-19-2 Nishi-Shinjuku, Shinjuku-ku, Tokyo Nippon Telegraph and Telephone Corporation

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 両眼視差式の立体表示方法において、ユ
ーザーの視点の移動速度を計測し、視点移動速度が大き
いときは運動視差のみで両眼に同一視点の画像を表示
し、視点移動速度が小さいときは両眼視差表示すること
を特徴とする立体表示方法。
In a binocular parallax stereoscopic display method, a moving speed of a user's viewpoint is measured, and when the viewpoint moving speed is high, an image of the same viewpoint is displayed on both eyes only by a motion parallax. A stereoscopic display method wherein binocular parallax is displayed when is small.
【請求項2】 両眼視差式の立体表示方法において、ユ
ーザーの視点から注視点までの注視距離を計測し、注視
距離が大きい場合は視差量を増加して、注視距離が小さ
い場合は視差量を減少させることを特徴とする立体表示
方法。
2. In a binocular parallax-type stereoscopic display method, a gaze distance from a user's viewpoint to a gaze point is measured, and if the gaze distance is large, the amount of parallax is increased. Stereoscopic display method characterized by reducing the number of images.
【請求項3】 ユーザーの頭の位置を検出するセンサー
を用いる両眼視差式の立体表示方法であって、ユーザー
が注視している注視時間を計測し、ユーザーの注視時間
が大きい場合に前記センサーの検出感度を低下させるこ
とを特徴とする立体表示方法。
3. A stereoscopic display method of a binocular parallax using a sensor for detecting a position of a user's head, wherein a gaze time during which the user is gazing is measured, and the sensor is used when the gaze time of the user is long. A stereoscopic display method characterized by lowering the detection sensitivity of an image.
【請求項4】 視点ユーザーの頭の位置を検出するセン
サーを用いる両眼視差式の立体表示方法であって、ユー
ザーが注視している注視時間を計測し、ユーザーの注視
データの位置及び向きの差分が閾値より小さい状態が一
定時間以上継続した場合は、“基準値”を更新せず、
“描画パラメータ”を基準値のまま同一視点からの画像
を描画し、前記以外の場合には“基準値”を更新し、
“描画パラメータ”を現在値として更新後の視点からの
画像を描画することを特徴とする立体表示方法。
4. A binocular parallax stereoscopic display method using a sensor that detects a position of a head of a viewpoint user, wherein a gaze time during which the user gazes is measured, and a position and an orientation of the user's gaze data are measured. If the state where the difference is smaller than the threshold continues for a certain period of time or more, the "reference value" is not updated,
Draw an image from the same viewpoint while keeping the “drawing parameter” as the reference value, and in other cases, update the “reference value”,
A three-dimensional display method characterized by drawing an image from an updated viewpoint using a “drawing parameter” as a current value.
【請求項5】 コンピュータによってユーザーの頭の位
置視点を検出するセンサーを用いる両眼視差式の立体表
示を行うための立体表示制御プログラムを記録した記録
媒体であって、ユーザーが注視している注視時間を計測
する手順と、ユーザーの注視データの位置及び向きの差
分が閾値より小さい状態が一定時間以上継続した場合
は、“基準値”を更新せず、“描画パラメータ”を基準
値のまま同一視点からの画像を描画する手段と、前記以
外の場合には“基準値”を更新し、“描画パラメータ”
を現在値として更新後の視点からの画像を描画する手順
とをコンピュータに実行させるプログラムを記録したコ
ンピュータ読み取り可能な記録媒体。
5. A recording medium storing a stereoscopic display control program for performing binocular parallax stereoscopic display using a sensor that detects a position and a viewpoint of a user's head by a computer, wherein the user is gazing at the gazing point. When the time measurement procedure and the state in which the difference between the position and orientation of the user's gaze data is smaller than the threshold value have continued for a certain period of time or more, the “reference value” is not updated, and the “drawing parameter” remains the same as the reference value. Means for drawing an image from the viewpoint, and in other cases, the "reference value" is updated and the "drawing parameter"
And a procedure for drawing an image from an updated viewpoint with the current value as a current value.
JP14362898A 1998-05-26 1998-05-26 Stereoscopic display method, recording medium, and stereoscopic display device Expired - Fee Related JP3461117B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14362898A JP3461117B2 (en) 1998-05-26 1998-05-26 Stereoscopic display method, recording medium, and stereoscopic display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14362898A JP3461117B2 (en) 1998-05-26 1998-05-26 Stereoscopic display method, recording medium, and stereoscopic display device

Publications (2)

Publication Number Publication Date
JPH11338457A true JPH11338457A (en) 1999-12-10
JP3461117B2 JP3461117B2 (en) 2003-10-27

Family

ID=15343185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14362898A Expired - Fee Related JP3461117B2 (en) 1998-05-26 1998-05-26 Stereoscopic display method, recording medium, and stereoscopic display device

Country Status (1)

Country Link
JP (1) JP3461117B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004320722A (en) * 2003-04-01 2004-11-11 Olympus Corp Stereoscopic observation system
JP2012141819A (en) * 2010-12-29 2012-07-26 Nintendo Co Ltd Image processing system, image processing program, image processing method and image processing device
KR20130054181A (en) * 2011-11-16 2013-05-24 크리스티 디지털 시스템즈 유에스에이, 인크 A collimated stereo display system
WO2015162946A1 (en) * 2014-04-22 2015-10-29 ソニー株式会社 Head region position detection device and head region position detection method, image processing device and image processing method, display device, and computer program
KR20150130555A (en) * 2013-03-15 2015-11-23 매직 립, 인코포레이티드 Display system and method
WO2017203818A1 (en) * 2016-05-23 2017-11-30 ソニー株式会社 Information processing device, information processing method, and program
JP2018007840A (en) * 2016-07-13 2018-01-18 オリンパス株式会社 Image processing device
CN110869980A (en) * 2017-05-18 2020-03-06 Pcms控股公司 System and method for distribution and presentation of content as a spherical video and 3D portfolio
US10761329B2 (en) 2016-01-05 2020-09-01 Qd Laser, Inc. Image projection device
US12039680B2 (en) 2023-04-17 2024-07-16 Magic Leap, Inc. Method of rendering using a display device

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004320722A (en) * 2003-04-01 2004-11-11 Olympus Corp Stereoscopic observation system
JP2012141819A (en) * 2010-12-29 2012-07-26 Nintendo Co Ltd Image processing system, image processing program, image processing method and image processing device
US9113144B2 (en) 2010-12-29 2015-08-18 Nintendo Co., Ltd. Image processing system, storage medium, image processing method, and image processing apparatus for correcting the degree of disparity of displayed objects
KR20130054181A (en) * 2011-11-16 2013-05-24 크리스티 디지털 시스템즈 유에스에이, 인크 A collimated stereo display system
JP2013106355A (en) * 2011-11-16 2013-05-30 Christie Digital Systems Usa Inc Collimated stereo display system
KR20190029795A (en) * 2013-03-15 2019-03-20 매직 립, 인코포레이티드 Display system and method
KR20210080615A (en) * 2013-03-15 2021-06-30 매직 립, 인코포레이티드 Display system and method
JP2016520891A (en) * 2013-03-15 2016-07-14 マジック リープ, インコーポレイテッド Display system and method
JP2017107605A (en) * 2013-03-15 2017-06-15 マジック リープ, インコーポレイテッド Display system and method
US11854150B2 (en) 2013-03-15 2023-12-26 Magic Leap, Inc. Frame-by-frame rendering for augmented or virtual reality systems
KR20220144892A (en) * 2013-03-15 2022-10-27 매직 립, 인코포레이티드 Display system and method
KR20210129277A (en) * 2013-03-15 2021-10-27 매직 립, 인코포레이티드 Display system and method
KR20150130555A (en) * 2013-03-15 2015-11-23 매직 립, 인코포레이티드 Display system and method
KR20190029794A (en) * 2013-03-15 2019-03-20 매직 립, 인코포레이티드 Display system and method
KR20190031337A (en) * 2013-03-15 2019-03-25 매직 립, 인코포레이티드 Display system and method
WO2015162946A1 (en) * 2014-04-22 2015-10-29 ソニー株式会社 Head region position detection device and head region position detection method, image processing device and image processing method, display device, and computer program
US10761329B2 (en) 2016-01-05 2020-09-01 Qd Laser, Inc. Image projection device
US10834382B2 (en) 2016-05-23 2020-11-10 Sony Corporation Information processing apparatus, information processing method, and program
CN109313823A (en) * 2016-05-23 2019-02-05 索尼公司 Information processing unit, information processing method and program
CN109313823B (en) * 2016-05-23 2023-07-28 索尼公司 Information processing apparatus, information processing method, and computer readable medium
WO2017203818A1 (en) * 2016-05-23 2017-11-30 ソニー株式会社 Information processing device, information processing method, and program
JP2018007840A (en) * 2016-07-13 2018-01-18 オリンパス株式会社 Image processing device
CN110869980A (en) * 2017-05-18 2020-03-06 Pcms控股公司 System and method for distribution and presentation of content as a spherical video and 3D portfolio
CN110869980B (en) * 2017-05-18 2024-01-09 交互数字Vc控股公司 Distributing and rendering content as a spherical video and 3D portfolio
US12039680B2 (en) 2023-04-17 2024-07-16 Magic Leap, Inc. Method of rendering using a display device

Also Published As

Publication number Publication date
JP3461117B2 (en) 2003-10-27

Similar Documents

Publication Publication Date Title
TWI508519B (en) An image processing apparatus, a program, an image processing method, a recording method, and a recording medium
TWI554080B (en) An image processing apparatus, a program, an image processing method, a recording method, and a recording medium
EP2378781B1 (en) Three-dimensional image display device and three-dimensional image display method
US20190166360A1 (en) Binocular fixation imaging method and apparatus
JPH11355808A (en) Video system
JP2020003898A (en) Information processing device, information processing method, and program
CN111034190B (en) Information processing apparatus, information processing method, and program
JP3461117B2 (en) Stereoscopic display method, recording medium, and stereoscopic display device
JP6963399B2 (en) Program, recording medium, image generator, image generation method
KR101947372B1 (en) Method of providing position corrected images to a head mount display and method of displaying position corrected images to a head mount display, and a head mount display for displaying the position corrected images
EP3707580A1 (en) Content generation apparatus and method
KR101320477B1 (en) Building internal navication apparatus and method for controlling distance and speed of camera
TW201925986A (en) Virtual reality device and method for operating a virtual reality device
WO2021132013A1 (en) Information processing device, information processing method, and information processing program
JPH0628452A (en) Three-dimensional image processor
US10834382B2 (en) Information processing apparatus, information processing method, and program
CN108471939B (en) Pan zone measuring method and device and wearable display equipment
JP2595942B2 (en) 3D image display device
JP2845958B2 (en) Image display device
US20240040100A1 (en) Virtual reality environment
WO2021200270A1 (en) Information processing device and information processing method
JP2010259022A (en) Display device, display method, and display program
KR20230065846A (en) Smart glasses
JPH11161815A (en) Stereoscopic display device and recording medium recording program for executing image processing for the display device
JP2024040528A (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080815

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080815

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090815

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090815

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100815

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees