JPH031217A - Stereographic image processor - Google Patents

Stereographic image processor

Info

Publication number
JPH031217A
JPH031217A JP1135430A JP13543089A JPH031217A JP H031217 A JPH031217 A JP H031217A JP 1135430 A JP1135430 A JP 1135430A JP 13543089 A JP13543089 A JP 13543089A JP H031217 A JPH031217 A JP H031217A
Authority
JP
Japan
Prior art keywords
point
cursor
depth
monitor
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1135430A
Other languages
Japanese (ja)
Inventor
Hideaki Yoshida
英明 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP1135430A priority Critical patent/JPH031217A/en
Publication of JPH031217A publication Critical patent/JPH031217A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To perform a stereographic image processing according to the intention of an operator by controlling both cursor display positions for left and right eyes by reacting according to first input information to specify the position of a drawing in an in-plane direction and second input information to specify the position in a depth direction simultaneously. CONSTITUTION:Figure (A) shows states where a liquid crystal shutter 5a at a left eye side is set at a transmitting state and a liquid crystal shutter 5b at a right eye side is set at a shielding state, and furthermore, since a point P is displayed on a minitor plane 2a and a cursor for left eye at a perspective point L by the visual point of the left eye, an observer 10 observes the cursor at the point L only with the left eye. Meanwhile, figure (B) shows that the cursor at a point R is observed with only the right eye adversely in figure (A). Then, the cursors at the points L and R are displayed on a monitor 2 alternately with a time division system as images for left and right eyes, and the switching of perspection and shielding of liquid crystal glasses 5 is performed interlocking with the above display. In such a way, the observer 10 can observe a stereographic designation point P as a stereographic image with the cursors at the points L and R.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、立体画像処理装置、詳しくは、二眼式立体画
像方式による立体座標入力装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a three-dimensional image processing device, and more particularly, to a three-dimensional coordinate input device using a two-lens three-dimensional image system.

[従来の技術] 近年画像技術の発達は目ざましく特に、立体画像処理技
術については、大型のコンピュータから小型のパーソナ
ルコンピュータまでそれぞれの演算能力の向上と相まっ
て、多方面に活用されるようになった。そして、その立
体画像の入力装置の使い勝手のよいものが要望されてい
るわけであるが、従来の座標入力装置は第13図に示さ
れるような2次元画像入力装置が実用されている。この
装置の構成は第14図のブロック構成図に示されるよう
に、コントローラ61は、全ての要素をコントロールす
るCP061aと、この装置のコントロールプログラム
を格納するROM部61bと、モニタ62に表示する色
の指示を与えるカラーパレットの記憶部61cと、同様
にモニタ62に表示する文字や線の形情報のキャラクタ
記憶部O1dと、モニタ表示データを記憶するVRAM
81eと、CPU61 aにコントロール指示を与える
キーボードスイッチ61fと、更に、クロックおよび水
平、垂直同期のための映像同期信号発生回路であるSS
G61g六、SSG61gの出力に基づいてモニタ表示
の制御を行なうカウンタ61hによって構成されている
。一方、コントローラ61に指示点の座標を指定するた
めのライトペン63はモニタ62のラスク光を検出する
光検出装置63aおよ−び指定点において操作される指
定スイッチ63bとで構成されている。この装置の動作
を説明すると、上記したように本装置は2次元用のもの
であって、キーボードスイッチ61fで選択された色お
よび線によって、ライトペン63で指示した点がカーソ
ルとして表示し、更に、その入力点を結ぶ線分の軌跡デ
ータをVRAM61 eに格納すると同時にモニタ表示
するものである。
[Conventional technology] In recent years, image technology has developed at a remarkable rate, and in particular, three-dimensional image processing technology has come to be used in a wide variety of fields as the computing power of large computers to small personal computers has improved. . There is a demand for a stereoscopic image input device that is easy to use, and a two-dimensional image input device as shown in FIG. 13 has been put into practical use as a conventional coordinate input device. As shown in the block diagram of FIG. 14, the configuration of this device includes a controller 61, a CP061a that controls all elements, a ROM section 61b that stores a control program for this device, and a color display unit 62 that displays on a monitor 62. A color palette storage unit 61c that provides instructions for color palettes, a character storage unit O1d for character and line shape information to be similarly displayed on the monitor 62, and a VRAM that stores monitor display data.
81e, a keyboard switch 61f that gives control instructions to the CPU 61a, and an SS which is a video synchronization signal generation circuit for clock and horizontal and vertical synchronization.
The counter 61h controls the monitor display based on the output of the G61g6 and the SSG61g. On the other hand, a light pen 63 for specifying the coordinates of a designated point to the controller 61 is comprised of a photodetector 63a that detects the rask light from the monitor 62 and a designation switch 63b that is operated at the designated point. To explain the operation of this device, as mentioned above, this device is for two-dimensional use, and the point indicated with the light pen 63 is displayed as a cursor depending on the color and line selected with the keyboard switch 61f, and , locus data of line segments connecting the input points are stored in the VRAM 61e and displayed on the monitor at the same time.

また立体画像に対する3次元座標の入力装置として、特
公昭57−7514号公報に開示のものは、立体像を異
なる角度から撮像した左眼画像と右眼画像を表示して電
気光学シャッタを介して立体視を行なう手段において、
同−立体点を指定する左右一対の標識が画像上を連動し
て移動するとともに、単独でも移動しつるように構成し
たことを特徴とする立体像観察装置である。
Furthermore, as an input device for three-dimensional coordinates for a three-dimensional image, the device disclosed in Japanese Patent Publication No. 7514/1980 displays a left-eye image and a right-eye image of a three-dimensional image taken from different angles, In the means of performing stereoscopic vision,
This is a three-dimensional image observation device characterized in that a pair of left and right markers specifying the same three-dimensional point are configured to move in conjunction with each other on the image, and also to move and hang independently.

[発明が解決しようとする課題] ところが、前記の第13図に示す2次元座標入力装置に
よって、立体画像座標の入力を行なうためには、2次元
座標を入力した後、奥行情報を個別にキーボード等から
入力する必要があり、実用性に欠け、画像も平面状であ
って立体感を掴むことができない。また、特公昭57−
7514号公報に開示のものでは、前記の立体像の座標
指定に際して、奥行を変化させない場合は左右画像の標
工の相対位置を一定に保ち連動した状態で左右画像上を
移動させればよいので、容易に座標指定を行なうことが
できるが、奥行を変化させる場合には、入力に際してス
イッチ操作によって入力モードを切換え、左右画像の立
体像の座標を示す左右画像の標慮の相対位置を変化させ
る必要があって、意のままに3次元の座標指定を行なう
ことは操作が難しく、可成りの習熟を要求される。
[Problems to be Solved by the Invention] However, in order to input stereoscopic image coordinates using the two-dimensional coordinate input device shown in FIG. It is not practical as it requires input from other sources, and the images are flat and cannot capture a three-dimensional effect. In addition, special public service 1977-
According to the method disclosed in Publication No. 7514, when specifying the coordinates of the three-dimensional image, if the depth is not changed, it is sufficient to keep the relative positions of the markers on the left and right images constant and move them on the left and right images in a linked manner. , it is possible to easily specify the coordinates, but when changing the depth, the input mode is changed by operating a switch when inputting, and the relative position of the marks on the left and right images indicating the coordinates of the 3D images on the left and right images is changed. However, specifying three-dimensional coordinates at will is difficult to operate and requires considerable skill.

本発明は、上述の不具合を解決するための立体画像の座
標の入力に関して表示画面上の透硯点または投影点の中
心点および奥行を簡易な操作により入力することによっ
て、容易に操作者の意に沿った立体画像処理が行なえる
ことを特徴とする立体画像処理装置を提供するにある。
In order to solve the above-mentioned problem, the present invention facilitates the operator's intention by inputting the center point and depth of a transparent point or a projection point on the display screen with a simple operation regarding the input of the coordinates of a stereoscopic image. An object of the present invention is to provide a three-dimensional image processing device that is capable of performing three-dimensional image processing in accordance with the following.

[課題を解決するための手段および作用]本発明の立体
画像処理装置は二眼式立体画像処理における左眼用カー
ソル表示位置と右眼用カーソル表示位置との双方が当該
画面の面内方向の位置を特定する第1入力情報と同画面
の奥行き方向位置を特定する第2入力情報とに同時に応
動して制御され得るようになされたことを特徴とする。
[Means and effects for solving the problem] In the stereoscopic image processing device of the present invention, both the left-eye cursor display position and the right-eye cursor display position in the two-lens stereoscopic image processing are in the in-plane direction of the screen. It is characterized in that it can be controlled in response to the first input information specifying the position and the second input information specifying the depth direction position of the same screen simultaneously.

[実 施 例] まず、本発明の実施例の詳細を説明するに先立って、本
発明の概念を第1図〜第4図を用いて説明する。
[Example] First, before explaining the details of the example of the present invention, the concept of the present invention will be explained using FIGS. 1 to 4.

第1図は、本発明の二眼式立体像観察法による立体画像
処理装置の一例であり、この装置はコントローラ1と、
モニタ2と、ライトペン3と、奥行指定装置4と、液晶
シャッタ眼鏡装置5とで構成される。そして、この装置
の作用の概念を第2゜3図の透視状態図によって説明す
る。なお、指定される位置について、モニタ表示面2a
上の左右方向(以下X方向と称する)と奥行方向の他に
上下方向(以下y方向と称する)の3方向の指定が行な
われるのであるが、後述するように観察者の両眼を水平
に位置させることから、y方向の座標値は後述する立体
画像表示のためのカーソル位置の演算には影響しない。
FIG. 1 shows an example of a stereoscopic image processing device using the two-lens stereoscopic image observation method of the present invention, and this device includes a controller 1,
It is composed of a monitor 2, a light pen 3, a depth specifying device 4, and a liquid crystal shutter glasses device 5. The concept of the operation of this device will be explained with reference to perspective diagrams in FIGS. 2-3. Note that regarding the specified position, the monitor display surface 2a
In addition to the upper left-right direction (hereinafter referred to as the X direction) and the depth direction, three directions are specified: the upper and lower directions (hereinafter referred to as the y direction). Because of the positioning, the coordinate value in the y direction does not affect calculation of the cursor position for displaying a stereoscopic image, which will be described later.

従って、X方向と奥行方向の2変数を演算の対象とする
Therefore, two variables, the X direction and the depth direction, are used as objects of calculation.

まず、指定点と視点による透視関係位置から説明すると
、第2図は視点高さにおける指定点の透視状態を示すも
のであり、同図において点E1?。
First, to explain the perspective relation position between the specified point and the viewpoint, FIG. 2 shows the perspective state of the specified point at the viewpoint height, and in the same figure, point E1? .

町は観察者10の右眼および左眼位置、点E。The town is the right and left eye positions of observer 10, point E.

は、点ER,ELの中点である。そして、表示面2aに
対して直線E RE t、は平行とする。更に中点Ec
を通るモニタ表示面2aとの垂線の交点を点Oとする。
is the midpoint between points ER and EL. The straight line E RE t is parallel to the display surface 2a. Furthermore, the midpoint Ec
The intersection of the perpendicular line with the monitor display surface 2a passing through is defined as a point O.

点Pを入力しようとする仮想立体]象の指定点とし、直
線E。P、EI?P、E、、Pとモニタ表示面2aとの
交点をそれぞれ点C,L、 Rとする。上記のように設
定された各点について説明すると、まず、モニタ面2a
上の点Oは、モニタ而2aの左右方向をX軸として、そ
のX軸の原点となる。なお、点0は図面垂直方向である
y軸の原点でもある。モニタ上の点Cは立体像上の指定
点Pが中点E。を視点としてモニタ面2a上に透視され
る点(以下透視点と称す)であって、うイトベン3によ
ってコントローラーに第1入力情報として入力される。
Let the point P be the specified point of the [virtual solid] elephant you are trying to input, and the straight line E. P.EI? Let the intersections of P, E, , P and the monitor display surface 2a be points C, L, and R, respectively. To explain each point set as above, first, monitor surface 2a
The upper point O is the origin of the X-axis, with the horizontal direction of the monitor 2a being the X-axis. Note that point 0 is also the origin of the y-axis, which is perpendicular to the drawing. The point C on the monitor is the midpoint E of the designated point P on the stereoscopic image. This is a point viewed through the monitor surface 2a from a viewpoint (hereinafter referred to as a perspective point), and is inputted to the controller by the uitoben 3 as first input information.

即ち、点Cは点Pの透視点であると同時にライトベンに
よって観察者が指定する指定点である。なお、上記指定
点CのX座標の値はX とする。但し、y方向の成分も
考慮する場合には、上記指定点CのX+Y座標は(x、
y)とする。上記の点りおよびRは、CC 立体像上の指定点Pに対する左眼、または、右眼の位置
E  または、ERを視点とするモニタ面Lゝ 2a上の各透視点を表わすものである。そして、これら
の透視点り、Hのモニタ面2a上の位置は奥行指定装置
4によって、立体像上の指定点Pの奥行の位置情報であ
る第2入力情報がコントローラーに入力され、後述する
演算式によって決定されるものである。
That is, point C is a perspective point of point P, and at the same time is a specified point specified by the observer using the light bend. Note that the value of the X coordinate of the specified point C is assumed to be X. However, when considering the component in the y direction, the X+Y coordinates of the specified point C are (x,
y). The above dots and R represent perspective points on the monitor surface L2a with the left or right eye position E or ER with respect to the specified point P on the CC stereoscopic image as the viewpoint. Then, the position of H on the monitor surface 2a in the perspective view is inputted by the depth specifying device 4 to the controller as second input information, which is the positional information of the depth of the specified point P on the stereoscopic image, and is subjected to calculations described later. It is determined by Eq.

第3図(A)は、液晶シャッタ眼鏡装置5のうち左眼側
の液晶シャッタ5aが透過状態で、右眼側の液晶シャッ
タ5bが遮蔽状態である場合を示し、更に、モニタ面2
a上に点Pが左眼の視点による透視点しに左眼用カーソ
ルが表示される。従って、この状態では観察者10は左
眼のみで点りのカーソルを見ることになる。一方、第3
図(B)は、上記第3図(A)とは逆に左眼側の液晶シ
ャッタ5aは遮蔽、右面側が透過状態を示し、同様に、
モニタ面2a上には点Pの右眼の視点による透視点Rに
右眼用カーソルが表示されている状態を示す。
FIG. 3(A) shows a case where the liquid crystal shutter 5a on the left eye side of the liquid crystal shutter glasses device 5 is in a transmitting state, and the liquid crystal shutter 5b on the right eye side is in a blocking state, and furthermore, the monitor surface 2
A cursor for the left eye is displayed on point P as a perspective point based on the viewpoint of the left eye. Therefore, in this state, the observer 10 sees the dotted cursor only with his left eye. On the other hand, the third
In FIG. 3(B), contrary to FIG. 3(A), the liquid crystal shutter 5a on the left eye side is in the shielding state, and the right side is in the transmitting state, and similarly,
A right-eye cursor is displayed on the monitor surface 2a at a perspective point R based on the viewpoint of the right eye at point P.

従って、この状態では右眼のみによって点Rのカーソル
を観察することになる。
Therefore, in this state, the cursor at point R is observed only with the right eye.

そして、上記点り、 Rのカーソルは、左、右眼用画像
として時分割方式によって交互にモニタ2に表示され、
その表示と連動して液晶シャッタ眼鏡5の透過、遮断の
切換が行なわれ、観察者10は上記点り、 Hのカーソ
ルによって立体指定点Pを立体像としてモニタ2上で観
察でき石。なお、上記の点り、 Rのカーソル以外に、
既に入力されている指定点を結んだ線も、上記の左、右
眼用画像としてカーソルと同時にモニタ2に表示され、
立体像として観察される。
Then, the above-mentioned dotted and R cursors are displayed alternately on the monitor 2 as images for the left and right eyes in a time-sharing manner.
In conjunction with this display, the liquid crystal shutter glasses 5 are switched between transmitting and blocking, and the observer 10 can observe the designated stereoscopic point P as a stereoscopic image on the monitor 2 using the cursor H. In addition to the dot and R cursor mentioned above,
The lines connecting the specified points that have already been input are also displayed on the monitor 2 at the same time as the cursor as the above left and right eye images.
Observed as a three-dimensional image.

次に、奥行指定装置4によって入力される奥行情報をも
とに指定点Cから透視点しまたは、Rまでの相対距離Z
および点り、 RのX座標値xL。
Next, based on the depth information input by the depth specifying device 4, the relative distance Z from the specified point C to R is determined.
and point, R's X coordinate value xL.

XRの演算式について説明する。The calculation formula for XR will be explained.

第4図は、第2図の視点と指定点Cおよびモニタ表面2
a上の点の関係を示し、この第4図に示されている点E
R,EL、EC,O,P、L、CおよびRは第2図のも
のと同一であるので説明は省略する。本装置のシステム
設計時に、左右の目の間隔の2分の1として定義される
基線長S(なお、−船釣に基線長Sは3〜3.5師に設
定される。)、そして、左、右眼中点E。とモニタ表面
2aの原点Oとの間隔g。を設定する。そしてライトベ
ン3によって入力される点Cの座標をX、中点E。と指
定点Cの距離をgとする。また、指定点Cから指定点P
までの距離をdとし、更に、中点E。における原点0方
向と指定点P方向の角度θとする。
Figure 4 shows the viewpoint, designated point C, and monitor surface 2 in Figure 2.
Point E shown in Fig. 4 shows the relationship between the points on a.
Since R, EL, EC, O, P, L, C and R are the same as those in FIG. 2, their explanation will be omitted. When designing the system of this device, the baseline length S is defined as 1/2 of the distance between the left and right eyes (for boat fishing, the baseline length S is set to 3 to 3.5 meters), and Midpoint E of left and right eyes. and the distance g between the origin O of the monitor surface 2a. Set. Then, the coordinates of point C input by Light Ben 3 are X, and the middle point E. Let the distance between and the specified point C be g. Also, from specified point C to specified point P
Let d be the distance to the midpoint E. Let the angle θ be between the origin 0 direction and the designated point P direction.

まず、上記の距flailは、ΔEC0Cに関する考察
により指定される点CのX座標値X と、システムの有
する観察者10とモニタ表面2aまでの距11i1!N
oを用いて表わされ、 となる。また、相対距’aZは、ΔE c P E R
およびΔCPRの相似関係に着目した考察によって、が
求められ、この式のgに(1)式を代入すると、が求め
られる。なお(1)式において画角が小さくθが8°以
内であれば、誤差1%以内として、を近似式として用い
ることもできる。一方、点り。
First, the above distance flail is calculated from the X coordinate value X of point C specified by considering ΔEC0C and the distance 11i1! between the observer 10 and the monitor surface 2a of the system! N
It is expressed using o, and becomes. Also, the relative distance 'aZ is ΔE c P E R
By considering the similarity relationship between ΔCPR and ΔCPR, is obtained, and by substituting equation (1) for g in this equation, is obtained. Note that in equation (1), if the angle of view is small and θ is within 8 degrees, the following can be used as an approximate equation with an error within 1%. On the other hand, it's lit.

RのX軸座標値X t、 、  X Rは点Cが点り、
 Rの中点であることから9次のように求められる。
The X-axis coordinate value of R is X t, , X R is at point C,
Since it is the midpoint of R, it can be calculated as the 9th order.

xR−xe+Z  ・・・・・・(4)xL−x、−Z
   ・・・・・・(5)なお、X座標は原点Oに対し
て右方向を+、左方向を−とじて取扱われるものとする
xR-xe+Z...(4)xL-x, -Z
(5) It is assumed that the X coordinate is treated with the right direction as + and the left direction as - with respect to the origin O.

次に、指定点Cにy方向の成分を含む場合の点L、Rの
座標について説明すると、前述のようにシステム両眼の
方向が水平方向に位置することから、指定点Cに対し、
y方向の値は変化せず、それぞれ座標値y の値をとる
ことになる。一方、X座標については、立体像上の指定
点を第2図のような水平断面上に投影した点を点Pとし
て扱い、距離gとdも上記水平断面に換算した値を演算
に用いるものとすれば、X軸座標X R、X t、は上
記(4)、(5)式をそのまま用いることができ、入力
点Cの座標を(x、y)とするならば、点RはCC 座標(xy)、点しは座標(xl、、yo)R″ C と表わすことができる。
Next, to explain the coordinates of points L and R when designated point C includes a component in the y direction, since the direction of both eyes of the system is located in the horizontal direction as described above, for designated point C,
The value in the y direction does not change, and each takes the value of the coordinate value y. On the other hand, regarding the X coordinate, the specified point on the 3D image is projected onto the horizontal section as shown in Figure 2, and the point is treated as point P, and the distances g and d are also converted to the above horizontal section and used in calculations. Then, the above equations (4) and (5) can be used as they are for the X-axis coordinates X R, The coordinates (xy) and dots can be expressed as coordinates (xl,,yo)R″C.

以上のようにして演算されたカーソル位置やカーソル点
を連結した線の画像の具体例として第5図(^)に左眼
用画像、(B)に右眼用画像を示し、この双方の画像が
モニタ2上に交互に表示され液晶シャッタ5を介して見
ると、立体像として観察することができる。
As specific examples of images of lines connecting the cursor positions and cursor points calculated as described above, FIG. 5(^) shows an image for the left eye, and FIG. 5(B) shows an image for the right eye. are alternately displayed on the monitor 2 and viewed through the liquid crystal shutter 5, it can be observed as a three-dimensional image.

上述のような概念に基づいた本発明の一実施例を示す立
体画像処理装置の全体の構成は第1図につき説明した通
りである。第6図は本実施例の画像処理装置のブロック
構成図である。既に従来例として第14図によって説明
した2次元画像入力装置用のものと機能が同一であるも
の、例えば、モニタ2、光検出装置3aと指定スイッチ
3bで構成されるライトベン3、コントローラ1内のカ
ラーパレットIC%キャラクタldSVRAMlesキ
ーボードスイッチif、SSGlg、カウンタ1hの説
明は省略する。
The overall configuration of a three-dimensional image processing apparatus showing an embodiment of the present invention based on the above concept is as described with reference to FIG. FIG. 6 is a block diagram of the image processing apparatus of this embodiment. A device having the same functions as the conventional example for the two-dimensional image input device explained with reference to FIG. Explanation of color palette IC% character ldSVRAMles keyboard switch if, SSGlg, and counter 1h will be omitted.

その他の構成要素のうち奥行指定装置4は、第9図(A
)にその外観図を示すようにスライドボリュームで構成
され、後述するような方法でツマミ4aによって奥行位
置に関する第2入力情報をコントローラ1に入力する。
Among other components, the depth specifying device 4 is shown in FIG.
), the second input information regarding the depth position is input to the controller 1 using a knob 4a in a manner described later.

また、液晶シャッタ眼鏡装置5は、モニタ2に交互に表
示される右眼用画像および左眼用画像の表示タイミング
に合わせて透過状態と遮蔽状態に切換える電子シャッタ
機能を有している眼鏡装置である。
Further, the liquid crystal shutter glasses device 5 is a glasses device having an electronic shutter function that switches between a transmitting state and a shielding state in accordance with the display timing of the right eye image and the left eye image that are alternately displayed on the monitor 2. be.

また、CPU1aはROM内に格納されている処理プロ
グラム1bに従ってライトベン3によって入力される指
定点Cの座標x、y  を取込み、CC また、奥行指定装置4からの奥行情報を読み取り、式(
4)、(5)によって座標X R、X Lの演算を行な
って、モニタ2に左、右眼用画像として出力する。
Further, the CPU 1a takes in the coordinates x, y of the designated point C input by the light ben 3 according to the processing program 1b stored in the ROM, reads the depth information from the depth designation device 4, and calculates the
4) and (5), the coordinates XR and XL are calculated and output to the monitor 2 as images for the left and right eyes.

更には、上記カーソル位置によって入力した立体位置の
指定点を結んだ線の軌跡データを左、右眼用として個別
にVRAMI eに格納し、カーソル表示と同時にモニ
タ上に再生するものとする。
Furthermore, it is assumed that locus data of a line connecting designated points of the stereoscopic position inputted by the cursor position is stored separately in the VRAMI e for the left and right eyes, and is reproduced on the monitor at the same time as the cursor is displayed.

次に、奥行情報の入力について、概念の説明で記載した
ように奥行指定に際して、モニタ面2aから立体指定点
Pまでの距Mdを直接(3)式に代入してもよいが、本
実施例においては、より人間の目の感覚に合致させて入
力できるように対象までの距離を光学的物点距離の単位
である、距離の逆数として定義されたデイオプタに対応
させて入力する。そこでデイオプタについて説明すると
、もとはレンズの度(パワー)を表現するために用いら
れる単位であって、焦点距離をm単位で測ったときの数
値の逆数であることを示すものである。
Next, regarding the input of depth information, as described in the explanation of the concept, when specifying the depth, the distance Md from the monitor surface 2a to the three-dimensional specified point P may be directly substituted into equation (3); In this method, the distance to the object is input in correspondence with a diopter defined as the reciprocal of the distance, which is a unit of optical object distance, so that the input can be more closely matched to the senses of the human eye. To explain the diopter, it was originally a unit used to express the power of a lens, and indicates that it is the reciprocal of the numerical value when the focal length is measured in meters.

それを−膜化して物点距離の逆数表現にも同様に用いる
ことができて、 物点までの距離が D  [m]  であるとき、逆数
表現では 1/g 〔デイオプタ]である。
It can be converted into a film and similarly used to express the distance to the object point as a reciprocal; when the distance to the object point is D [m], the reciprocal expression is 1/g [diopter].

とする。(以下、デイオプタ単位でAPlつだ距離の値
を「距離の逆数表現値」或いは単に「逆数距離」と呼ぶ
。)換言すれば、奥行指定手段の作動が逆数距離に比例
して機能するように構成することになる。
shall be. (Hereinafter, the value of AP1 distance in units of diopters will be referred to as a "reciprocal distance expression value" or simply "reciprocal distance.") In other words, the depth specifying means operates in proportion to the reciprocal distance. It will be configured.

このようにした場合の作用効果について以下に説明する
。第7図は人間の網膜のモデルを示したものであって、
EL、ERは左、右眼中心であって、Mは網膜、P′は
対象点、P′は右眼による網膜上の投影点である。また
Sは目の間隔の1/2、hは眼の焦点距離、gは対象点
までの距離、史に、tは網膜上の1象の位置を示す。距
i!tIgを逆数表現値で表示するとl/gとなる。そ
して、第7図における像の位置tと対象点の逆数距R1
/gとの関係式は、 を糟s11hIll1g となる。即ち、像の位置tと対象点の逆数距離1/gと
は比例する関係となる。従って対象点までの距離を示す
場合、デイオプタ(単位)で示すならば、人間の目に映
る像の位置の変化と比例することになり、この立体画像
処理装置においても、デイオプタ単位で立体像の位置を
入力するようにすれば、人間の感覚に合った入力処理が
なされることになる。一方、指定装置の入力する物理量
について考ると、例えば、抵抗値、長さ、角度、圧力あ
るいはディジタルカウンタを用いた場合はそのカウント
数などに対して、立体指定点までの距離が長くなってく
ると、距離の値を直接入力することが困難になる。そこ
で、上記のデイオプタ111位で入力するようにすれば
、その問題も解決し、更に、上述のように目の感覚に合
致した奥行情報の入力が可能となる。
The effects of doing so will be explained below. Figure 7 shows a model of the human retina,
EL and ER are the centers of the left and right eyes, M is the retina, P' is the target point, and P' is the point projected on the retina by the right eye. Furthermore, S represents 1/2 of the distance between the eyes, h represents the focal length of the eyes, g represents the distance to the target point, and t represents the position of one image on the retina. Distance i! When tIg is expressed as a reciprocal value, it becomes l/g. Then, the reciprocal distance R1 between the image position t and the target point in FIG.
The relational expression with /g is as follows. That is, the position t of the image and the reciprocal distance 1/g of the target point are in a proportional relationship. Therefore, when indicating the distance to a target point, if it is expressed in diopters (units), it will be proportional to the change in the position of the image as seen by the human eye, and in this 3D image processing device, the 3D image is expressed in diopters (units). If the position is input, the input processing will be done in a way that matches human senses. On the other hand, when considering the physical quantities input by the designation device, for example, resistance, length, angle, pressure, or when using a digital counter, the distance to the three-dimensional designation point becomes longer compared to the number of counts. When this happens, it becomes difficult to input distance values directly. Therefore, if the depth information is input at the 111th position described above, this problem will be solved, and furthermore, it will be possible to input depth information that matches the sense of the eye as described above.

本実施例の奥行装置4は第9図(^)に示されるような
スライドボリュームが用いられるのであるが、そのツマ
ミ4aの設定位置とそれによって入力されるデイオプタ
単位の奥行情報値りとの関係について説明する。第8図
に上記スライドボリュームのツマミ位置に対応する奥行
情報値D1スライドボリュームの抵抗値(全抵抗値R8
とする)、および第4図に示されているl」の中点EC
から立体指定点Pまでの距離g+dとの関係を示してい
る。なお、上記の奥行情報値りは目の中点ECからモニ
タ指定点Cまでの距離gのデイオプタ値から上記点Pま
での距離j7+dのデイオプタ値を差引いた値、即ち、 で示されるものとする。従って、ツマミ4aが中央の値
D−0に位置する場合は立体指定点Pがモニタ面2a上
にあり、値D>0の場合は点Pはモニタ面2aより奥に
、また、値D<Oの場合は点Pはモニタ面2aより手前
に位置することになる。
The depth device 4 of this embodiment uses a slide volume as shown in FIG. 9(^), and there is a relationship between the set position of the knob 4a and the depth information value inputted thereby in units of diopters. I will explain about it. FIG. 8 shows depth information value D1 corresponding to the slide volume knob position (total resistance value R8).
), and the midpoint EC of l'' shown in Figure 4.
It shows the relationship between the distance g+d from to the three-dimensional designated point P. Note that the above depth information value is the value obtained by subtracting the diopter value of the distance g from the center point EC of the eye to the designated monitor point C minus the diopter value of the distance j7+d to the point P, that is, it is expressed as follows. . Therefore, when the knob 4a is located at the center value D-0, the 3D designated point P is on the monitor surface 2a, and when the value D>0, the point P is deeper than the monitor surface 2a, and when the value D< In the case of O, the point P will be located in front of the monitor surface 2a.

そして、ツマミ4aは上シ己のようにデイオプタ(直に
関連しているので、観察者の口の感覚に一致した動作に
よって入力操作がなされることになる。
Since the knob 4a is directly related to the diopter (like the upper part), the input operation is performed by an operation that corresponds to the sensation of the observer's mouth.

一方、各ツマミ位置に対するスライドボリュームの抵抗
値は値D−0のツマミ位置に対して0.5 Roを基準
とし、値りの変化に比例して抵抗値を変化させるように
定め、これらの抵抗値によって奥行情報値りがCPU1
aを介してコントローラ1に入力される。
On the other hand, the resistance value of the slide volume for each knob position is based on 0.5 Ro for the value D-0 knob position, and is determined so that the resistance value changes in proportion to the change in value. Depth information value varies depending on the value of CPU1
is input to the controller 1 via a.

そして、カーソル表示がなされる点R,Lの指定点Cか
らの相対圧MZを(2)式を変形して値りを介した演算
式として、 Z−DJ)−s が求められ、更に、gに(1)式を代入して、Zは・・
・・・・・・・(7) となる。ライトペン3によってX Cs奥行指定装置に
よって値りがそれぞれ指定されれば相対距離Zの値が演
算できることになる。
Then, the relative pressure MZ from the specified point C of the points R and L where the cursor is displayed is transformed to the equation (2) and used as an arithmetic expression via the value, Z-DJ)-s is obtained, and further, Substituting equation (1) into g, Z is...
・・・・・・・・・(7) If values are specified by the light pen 3 and the X Cs depth specifying device, the value of the relative distance Z can be calculated.

以上のように構成された、本実施例の立体画像処理装置
の動作を説明すると、観察者10はモニタ2に表示され
ている右、左眼画像を眼鏡装置5を介して見ることによ
って、立体像を観察しながら、モニタ面2a上の所望の
指定点Cをライトペン3によって指定し、更に奥行指定
装置4のツマミ4aによって所望の値りを選択すると、
コントローラ1において、前記(7)式によって、相対
距離Zが演算される。そして、右、左眼用画像のカーソ
ルが点R(座標XR”c”点しく座標X L 、y c
 )上に右、左の液晶シャッタ5a。
To explain the operation of the three-dimensional image processing apparatus of this embodiment configured as described above, the observer 10 views the right and left eye images displayed on the monitor 2 through the glasses device 5, thereby realizing the three-dimensional image processing apparatus. While observing the image, specify a desired specified point C on the monitor surface 2a with the light pen 3, and further select a desired value with the knob 4a of the depth specifying device 4.
In the controller 1, the relative distance Z is calculated using the above equation (7). Then, the cursor of the right and left eye images is set to point R (coordinates
) Right and left liquid crystal shutters 5a on top.

5bのタイミングに合わせて表示される。そして、右、
左眼用画像データとして、上記カーソル位置データ、ま
たは、カーソルを結ぶ線データがVRAM1eに格納さ
れ、同時にモニタ2に表示される。従って、ライトペン
3をモニタ面2a上に接したまま、指定点Cを移動させ
、dつ、同時に奥行指定装置4を操作すれば立体空間上
に、曲線を含む任意の軌跡をリアルタイム的に描出する
ことができる。
It is displayed in accordance with the timing of 5b. And the right,
As left eye image data, the cursor position data or line data connecting the cursors is stored in the VRAM 1e and displayed on the monitor 2 at the same time. Therefore, by moving the specified point C while keeping the light pen 3 in contact with the monitor surface 2a and operating the depth specifying device 4 at the same time, any trajectory including curves can be drawn in real time in the three-dimensional space. can do.

なお、デイオプタで示される奥行指定値りに対応する関
係距離を示す第8図において、点Pまでの距離0 +d
 (m)データについて、距離1−2mの場合、値りが
0.5以上に対応する距離が示されていないが、この範
囲は距1filN+dとして、現実にとり得ない範囲で
あり、もし、この部分が観察者によって指定された場合
、コントローラ1は、1iiDとして0.5が入力され
たものとして取扱うようにする。
In addition, in Fig. 8 showing the related distance corresponding to the specified depth value indicated by the diopter, the distance to point P is 0 + d.
Regarding the (m) data, in the case of a distance of 1-2 m, the distance corresponding to a value of 0.5 or more is not shown, but this range is an impossible range in reality, assuming a distance of 1 filN + d. is specified by the observer, the controller 1 treats it as if 0.5 has been input as 1iiD.

また、上記の実施例においては、奥行指定装置4として
、スライドボリュームを用いたが、その他、第9図(B
)に示されるようなロータリータイプのボリュームを用
いた操作ツマミ41aを持つ奥行指定装置41、あるい
は第9図(C)に示されるように可変抵抗器を内蔵し、
ペダル式操作部42aを有する奥行指定装置42等が適
用可能である。
Further, in the above embodiment, a slide volume was used as the depth specifying device 4;
), or a depth specifying device 41 having an operation knob 41a using a rotary type volume, or a built-in variable resistor as shown in FIG. 9(C),
A depth specifying device 42 having a pedal-type operating section 42a or the like is applicable.

更に、上記の奥行指定装置はライトベン3とは独立して
操作されるものであったが、第10図(A) 、 (B
)に示されるものは、上記ライトベンと一体化された構
造の奥行指定装置を示し、片手で指定点C1並びに、奥
行情報値りの入力が可能なもので、使い勝手が勝れたも
のである。
Furthermore, although the above-mentioned depth specifying device was operated independently of the Light Ben 3,
) shows a depth specifying device that is integrated with the above-mentioned light ben, which allows input of the specified point C1 and the depth information value with one hand, and is very easy to use.

第10図(^)に示される奥行指定装置43は、指定ス
イッチ43cと摺動接触子43fが装管されている外筒
43hと、上記外筒43hの内部に摺動可能に嵌合され
る内筒43aによって構成されている。そして、上記内
筒43aには、その先端部に指向性のあるSPD等の受
光素子43dを装むされ、内部には開口部43gに沿っ
て、摺動方向が長手方向である摺動抵抗板43eが装管
されている。また、内1f143aは受光索子43dが
装置されている方向にバネ43bによって付勢されてい
るものとする。また、外筒43hに装る°されている摺
動接触子43fは、内筒43aに装むされた抵抗板43
eと摺接状態で組付けられていて、内筒43aの押込量
に比例して、端子間の抵抗値Raが変化する。
The depth designation device 43 shown in FIG. 10(^) is slidably fitted into an outer cylinder 43h in which a designation switch 43c and a sliding contact 43f are mounted, and the inside of the outer cylinder 43h. It is constituted by an inner cylinder 43a. The inner cylinder 43a is equipped with a light receiving element 43d such as a directional SPD at its tip, and inside is a sliding resistance plate whose sliding direction is the longitudinal direction along the opening 43g. 43e is installed. Further, it is assumed that the inner 1f 143a is biased by a spring 43b in the direction in which the light receiving cable 43d is installed. Furthermore, the sliding contact 43f mounted in the outer cylinder 43h is connected to the resistance plate 43 mounted in the inner cylinder 43a.
e, and the resistance value Ra between the terminals changes in proportion to the pushing amount of the inner cylinder 43a.

以上のように構成された奥行指定装置43の動作を説明
すると、まず、外筒を把持しモニタ面2a上に受光素子
43dを圧接する。そして指定点Cにおいて指定スイッ
チ43cを押圧すると、その指定点Cの座標がコントロ
ーラ1に読み込まれる。また、奥行情報11Dを入力す
るには、外筒43hをモニタ面2a側に押圧し、内筒a
を押し込み、抵抗値Raを変化させてその値に対応する
前記奥行情報値りをコントローラ1に入力することがで
きる。
To explain the operation of the depth specifying device 43 configured as above, first, the outer cylinder is grasped and the light receiving element 43d is pressed onto the monitor surface 2a. When the designation switch 43c is pressed at the designated point C, the coordinates of the designated point C are read into the controller 1. In addition, to input the depth information 11D, press the outer cylinder 43h toward the monitor surface 2a, and press the inner cylinder a.
can be pressed, the resistance value Ra can be changed, and the depth information value corresponding to that value can be input to the controller 1.

次に、第10図(B)に示される奥行指定装置44は、
指定スイッチ44cが装むされる外筒44fと、一方の
感圧面が上記外筒44fに同右された感圧セラミックあ
るいは感圧ゴムである感圧素子44eと、上記感圧素T
44eの他の感圧面に接触した状態で外筒44fに保持
されるものであって、指向性を有する受光素子44dに
よって+i■成される。なお、上記受光素子44dはそ
の先端を押圧するとその押圧力が感圧素子44eに伝達
されるように外筒44fに保持されているものとする。
Next, the depth designation device 44 shown in FIG. 10(B)
An outer cylinder 44f in which the designation switch 44c is mounted, a pressure-sensitive element 44e whose one pressure-sensitive surface is made of pressure-sensitive ceramic or pressure-sensitive rubber and which is the same as the outer cylinder 44f, and the pressure-sensitive element T.
It is held by the outer tube 44f in contact with the other pressure-sensitive surface of the pressure sensitive surface 44e, and is formed by the light-receiving element 44d having directivity. It is assumed that the light-receiving element 44d is held in the outer cylinder 44f so that when its tip is pressed, the pressing force is transmitted to the pressure-sensitive element 44e.

この奥行指定装置44の動作は、指定点Cの入力につい
ては、前記奥行指定装置43と同様であるので説明を省
略するが、奥行指定については外筒44fを介して受光
索子44dをモニタ面2aに押圧し、その力量を感圧素
子44eで検出して、前記奥行情報値りとしてコントロ
ーラ1に入力するものである。なおこの奥行指定装置4
4は感圧素子44eが受光素子44dを介して押圧され
る構造であるが、感圧素子を外部に露出させ、モニタ表
面2aで直接押圧する構造を用いてもよい。
The operation of this depth designation device 44 is the same as that of the depth designation device 43 described above regarding the input of the designated point C, so the explanation will be omitted. 2a, the amount of force is detected by the pressure sensitive element 44e, and inputted to the controller 1 as the depth information value. Furthermore, this depth designation device 4
4 has a structure in which the pressure-sensitive element 44e is pressed via the light-receiving element 44d, but a structure in which the pressure-sensitive element is exposed to the outside and is directly pressed by the monitor surface 2a may also be used.

上記以外の奥行指定装置の検出要素として、ストレンゲ
ージ、ダストコア、SPD、粒状カーボンなどが挙げら
れる。更に、他の奥行指定手段として、第10図(C)
に示されるような2つのブツシュ釦45a、45bを有
するディジタルカウンタ式の奥行指定装置45を用いる
ことも可能である。この装置はブツシュ釦45a、45
bの抑圧によって、それぞれ対応するスイッチをON。
Detection elements of the depth specifying device other than those described above include strain gauges, dust cores, SPDs, granular carbon, and the like. Furthermore, as another depth specifying means, FIG. 10(C)
It is also possible to use a digital counter type depth designation device 45 having two buttons 45a and 45b as shown in FIG. This device has buttons 45a and 45
By suppressing b, the corresponding switches are turned on.

OFFさせ、そのパルス数に比例して奥行指定情報値り
を増減するものである。なお、釦45a側は値りを減じ
、釦45b側は増加させるように作用する。
OFF, and the depth designation information value is increased or decreased in proportion to the number of pulses. Note that the button 45a side acts to decrease the price, and the button 45b side acts to increase it.

本実施例における左、右眼用画像データの表示点り、 
Rの演算された座標(XL、Yo)、および(xl?、
yc)と実際、モニタ2上に表示されるドツト座標値は
異なり、その換算式について説明する。第11図は表示
エリアMドツト×Nドッ) (M、 N共に奇数とする
)であるモニタ2のドツト表示状態図を示し、モニタ2
上のドツト座標て示される。そして左眼用画像の透視点
りの座標(xL、yo)に対応するドツト座標(m、n
)n−−yc で示される。右眼用の座標についても、同様にして求め
られる。
Display points for left and right eye image data in this embodiment,
The calculated coordinates of R (XL, Yo) and (xl?,
yc) and the dot coordinate values actually displayed on the monitor 2 are different, and the conversion formula will be explained. FIG. 11 shows a dot display state diagram of the monitor 2 whose display area is M dots x N dots (M and N are both odd numbers).
The dot coordinates above are shown. Then, dot coordinates (m, n
)n--yc. The coordinates for the right eye are found in the same way.

次に、本発明の前記実施例の立体画像処理装置の変形例
を第12図によって説明する。
Next, a modification of the three-dimensional image processing apparatus according to the embodiment of the present invention will be described with reference to FIG. 12.

第12図における構成要素のうちモニタ52と、ライト
ベン53と、奥行指定装置54および、液晶シャッタ眼
鏡装置55は、上記実施例のものと同一の機能を有して
いるので説明を省略する。そしてコンローラ51には前
記実施例のものと同一の機能を有する制御部の外に入力
された左右眼用画像データあるいは、通常の2次元のア
ナログ画像データなどを記録再生するスチルビデオフロ
ッピディスク装置51eと、上記ディスク装置51eの
ための録画、および11f生釦51a、51bとエジェ
クト釦51cと、フロッピディスクのアクセス釦群51
dと、立体処理と2次元処理の選択スイッチツマミ51
f、表示画像のカラー指示のためのパレット指定釦51
gが装備されている。
Among the components shown in FIG. 12, the monitor 52, light ben 53, depth specifying device 54, and liquid crystal shutter glasses device 55 have the same functions as those in the above embodiment, so their explanation will be omitted. The controller 51 has a still video floppy disk device 51e for recording and reproducing image data for left and right eyes input from outside the control unit having the same functions as those of the previous embodiment, or normal two-dimensional analog image data. and recording for the disk device 51e, 11f raw buttons 51a and 51b, eject button 51c, and floppy disk access button group 51.
d, 3D processing and 2D processing selection switch knob 51
f. Palette specification button 51 for specifying the color of the displayed image
It is equipped with g.

この変形例は、−旦入力された立体画像をディスク装置
51eによってフロッピディスクに保存、あるいは編集
ができ、更には、通常のスチルビデオカメラで撮影した
映像を原画にして立体処理を施すなど、更に機能性を高
めたものである。
In this modification, the input stereoscopic image can be saved on a floppy disk or edited by the disk device 51e, and furthermore, the stereoscopic image taken with a normal still video camera can be used as the original image to perform stereoscopic processing. It has enhanced functionality.

[発明の効果] 上述のように、本発明による立体画像処理装置は二眼式
の立体画像の座標の入力に関して表示画面上の透視点ま
たは投影点の中心点および奥行を簡易な操作により入力
することによって、容易に操作者の意に沿った立体画像
処理が行なえることを特徴とするものであって、本装置
はリアルタイムに立体像を確認しながら、順次立体像上
指定点の透視点座標と奥行tI′7報を同時入力するこ
とができ、また透視点座標と奥行情報の片方を固定して
他方のデータを変化させて指定することができるなどの
顕著な特徴を有し、例えば、立体画の絵書き用あるいは
、立体CADシステムの入力装置用に好適なものである
[Effects of the Invention] As described above, the stereoscopic image processing device according to the present invention inputs the center point and depth of a perspective point or a projection point on a display screen by a simple operation regarding input of coordinates of a two-lens stereoscopic image. This device is characterized by the ability to easily perform 3D image processing according to the operator's wishes, and while checking the 3D image in real time, this device sequentially calculates the perspective coordinates of specified points on the 3D image. It has remarkable features such as being able to simultaneously input the perspective coordinates and depth information, and specifying it by fixing one of the perspective point coordinates and depth information and changing the other data. It is suitable for drawing three-dimensional pictures or as an input device for a three-dimensional CAD system.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、本発明の一実施例を示す立体画1象処理装置
の斜視図、 第2図は、本発明の立体画像処理装置の指定点、透視点
と視点の関係を示す透視状態図、第3図(A) 、 (
B)は、上記第2図に対する左眼と右眼のための透視状
態図、 第4図は、上記第2図における視点、表示点および立体
指定点の位置関係配置図、 第5図(^) 、 (B)は、上記第2図の立体画1象
処理装置による二眼式立体像方式における左眼用画]象
図と右眼用画像図、 第6図は、上記第1図の立体画像処理装置におけるブロ
ック構成図、 第7図は、人間の網j漠モデル図、 第8図は、上記第1図の処理装置の奥行指定装置のデイ
オプタ値と抵抗値表示図、 第9図(A) 、 (r3) 、 (c)は、上記第1
図の処理装置の各柾奥行指定装置の外観図、 第10図(^) 、 (B) 、 (C)は、上記第1
図の処理装置の各種奥行指定装置の外観図、 第11図は、上記第1図の処理装置のモニタ上のドツト
表示状態図、 第12図は、本発明の上記第1図の実施例の変形例を示
す立体画像処理装置の斜視図、第13図は、従来の画像
処理装置の斜視図、第14図は2、上記第13図の従来
の装置のブロック構成図である。
FIG. 1 is a perspective view of a stereoscopic image processing device according to an embodiment of the present invention, and FIG. 2 is a perspective diagram showing the relationship between specified points, perspective points, and viewpoints of the stereoscopic image processing device of the present invention. , Figure 3 (A) , (
B) is a perspective diagram for the left eye and right eye with respect to the above figure 2, Figure 4 is a positional relationship arrangement diagram of the viewpoint, display point, and three-dimensional designation point in the above figure 2, and Figure 5 (^ ), (B) is an image for the left eye in the two-lens stereoscopic image system using the stereoscopic image processing device shown in FIG. 2 above] and an image for the right eye. FIG. 7 is a block diagram of a three-dimensional image processing device; FIG. 7 is a human web model diagram; FIG. 8 is a diagram showing the diopter value and resistance value of the depth designation device of the processing device shown in FIG. 1; (A), (r3), and (c) are the first
External views of each vertical depth specifying device of the processing device shown in the figure, Figures 10 (^), (B), and (C) are the above-mentioned
FIG. 11 is a diagram showing the state of dots displayed on the monitor of the processing device shown in FIG. 1, FIG. FIG. 13 is a perspective view of a conventional image processing apparatus, and FIG. 14 is a block diagram of the conventional apparatus shown in FIG. 13.

Claims (1)

【特許請求の範囲】[Claims] (1)二眼式立体画像処理における左眼用カーソル表示
位置と右眼用カーソル表示位置との双方が当該画面の面
内方向の位置を特定する第1入力情報と同画面の奥行き
方向位置を特定する第2入力情報とに同時に応動して制
御され得るようになされたことを特徴とする立体画像処
理装置。
(1) Both the left-eye cursor display position and the right-eye cursor display position in binocular stereoscopic image processing are based on the first input information that specifies the in-plane position of the screen and the depth direction position of the same screen. A stereoscopic image processing device characterized in that it can be controlled simultaneously in response to specified second input information.
JP1135430A 1989-05-29 1989-05-29 Stereographic image processor Pending JPH031217A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1135430A JPH031217A (en) 1989-05-29 1989-05-29 Stereographic image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1135430A JPH031217A (en) 1989-05-29 1989-05-29 Stereographic image processor

Publications (1)

Publication Number Publication Date
JPH031217A true JPH031217A (en) 1991-01-07

Family

ID=15151543

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1135430A Pending JPH031217A (en) 1989-05-29 1989-05-29 Stereographic image processor

Country Status (1)

Country Link
JP (1) JPH031217A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0627919A (en) * 1991-07-22 1994-02-04 Internatl Business Mach Corp <Ibm> Apparatus and method for generation of cursor
US6057878A (en) * 1993-10-26 2000-05-02 Matsushita Electric Industrial Co., Ltd. Three-dimensional picture image display apparatus
JP2012079328A (en) * 2004-10-12 2012-04-19 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional pointing method, three-dimensional pointing device, and three-dimensional pointing program
WO2012056721A1 (en) * 2010-10-29 2012-05-03 富士フイルム株式会社 3d image display method, 3d display control device, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0627919A (en) * 1991-07-22 1994-02-04 Internatl Business Mach Corp <Ibm> Apparatus and method for generation of cursor
US6057878A (en) * 1993-10-26 2000-05-02 Matsushita Electric Industrial Co., Ltd. Three-dimensional picture image display apparatus
JP2012079328A (en) * 2004-10-12 2012-04-19 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional pointing method, three-dimensional pointing device, and three-dimensional pointing program
WO2012056721A1 (en) * 2010-10-29 2012-05-03 富士フイルム株式会社 3d image display method, 3d display control device, and program

Similar Documents

Publication Publication Date Title
US6084594A (en) Image presentation apparatus
Burdea et al. Virtual reality technology
JP4871270B2 (en) System and method for operating in a virtual three-dimensional space and system for selecting operations via a visualization system
EP2391138B1 (en) Hand-held electronic device
JP4616543B2 (en) Multi-person shared display device
US9986228B2 (en) Trackable glasses system that provides multiple views of a shared display
EP0845737B1 (en) Image display method and apparatus therefor
JP2012139318A (en) Display control program, display control apparatu, display control system, and display control method
JP6021296B2 (en) Display control program, display control device, display control system, and display control method
JP2008219772A (en) Stereoscopic image display system
JP6148714B2 (en) Portable electronic devices
US20180278921A1 (en) Quad view display system
US20220155881A1 (en) Sensing movement of a hand-held controller
JPH031217A (en) Stereographic image processor
US20220256137A1 (en) Position calculation system
JPH0628452A (en) Three-dimensional image processor
JP2595942B2 (en) 3D image display device
JP4493082B2 (en) CG presentation device, program thereof, and CG display system
JP3546756B2 (en) Spatial coordinate input device
JPH03289615A (en) Both-eye view display device
JPH10161802A (en) Method and device for image display
JPH03288923A (en) Position input device
JP2003006677A (en) Device and method for inputting/editing three- dimensional computer graphics form
JPH0269615A (en) Stereoscopic image device
CN110581987A (en) Three-dimensional display with gesture sensing function