JPH1070740A - Stereoscopic camera and video transmission system - Google Patents

Stereoscopic camera and video transmission system

Info

Publication number
JPH1070740A
JPH1070740A JP24561896A JP24561896A JPH1070740A JP H1070740 A JPH1070740 A JP H1070740A JP 24561896 A JP24561896 A JP 24561896A JP 24561896 A JP24561896 A JP 24561896A JP H1070740 A JPH1070740 A JP H1070740A
Authority
JP
Japan
Prior art keywords
camera
cameras
video
image
stereoscopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP24561896A
Other languages
Japanese (ja)
Inventor
Kaichi Tatezawa
加一 立沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP24561896A priority Critical patent/JPH1070740A/en
Publication of JPH1070740A publication Critical patent/JPH1070740A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To obtain stereoscopy by the stereoscopic camera capable of stereoscopic photography even at the time of zooming. SOLUTION: To photograph a target point 2 by cameras 1a and 1b, the cameras 1a and 1b are arranged having their optical axes aligned with the prolongation connecting the target point 2 and both virtual eyes 3a and 3b when the cameras 1a and 1b are zoomed so as to obtain the same visual fields viewed from the positions of both the virtual eyes 3a and 3b. Thus, the visual fields of the cameras 1a and 1b and both the eyes 3a and 3b match each other even at the time of zooming by controlling the positions and angles of the cameras 1a and 1b, so reproduced images of the cameras 1a and 1b provide correct stereoscopy.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、被写体の立体感
を保ったままズーム撮影が可能な立体カメラおよびこの
立体カメラを応用することにより仮想現実感を味わえる
ようにしたビデオ映像伝送システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional camera capable of performing zoom photographing while maintaining a three-dimensional effect of a subject, and a video image transmission system capable of realizing virtual reality by applying the three-dimensional camera.

【0002】[0002]

【従来の技術】例えばスタジアムにおけるスポーツ観戦
の場合、実際にそのスタジアムに居る観客は、そのスタ
ジアムの雰囲気と相まって、迫力のある試合を楽しむこ
とができる。ところが、このようなスタジアムには収容
できる観客数に制限があり、試合の観戦をしたい全ての
人の収容は不可能である。そのため、例えば試合を実況
中継することにより、テレビジョン受像機などでの試合
の観戦ができるようにされている。
2. Description of the Related Art For example, in the case of watching sports in a stadium, spectators who are actually in the stadium can enjoy a powerful game together with the atmosphere of the stadium. However, the number of spectators that can be accommodated in such a stadium is limited, and it is impossible to accommodate all those who want to watch a game. For this reason, for example, by broadcasting a live game, it is possible to watch the game on a television receiver or the like.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、この従
来のテレビジョン受像機による観戦は、2次元による平
面画像でなされ、奥行き感を表示することができないた
め、スピード感や迫力、臨場感などに欠けるという問題
点があった。そのため、立体的な表示をなし得る表示装
置ならびに撮影装置が求められていた。
However, the watching with the conventional television receiver is performed in a two-dimensional plane image, and cannot display a sense of depth, and thus lacks a sense of speed, power, and realism. There was a problem. Therefore, a display device and a photographing device capable of providing a three-dimensional display have been demanded.

【0004】ところで、現在では、動画像を立体的に表
示可能な表示装置は、既に幾つかが実用化されている。
また、これらに対応可能なような、立体撮影装置も提案
されている。図13は、この、従来技術による立体カメ
ラの原理を概略的に示す。連動的にズーム可能なカメラ
100aおよび100bが、標準的な右目101aおよ
び左目101bの間隔Ed などの間隔で以て並行して、
固定的に配置される。Ed は、例えば7〜10cm程度
とされる。これらカメラ100aおよび100bによっ
て、被写体102が撮影される。このような構成をとる
ことによって、肉眼での立体感の再現が可能とされる。
At present, some display devices capable of displaying a moving image in three dimensions have already been put to practical use.
In addition, a stereoscopic photographing apparatus that can cope with these has been proposed. FIG. 13 schematically illustrates the principle of this conventional stereoscopic camera. Interlocking manner zoomable camera 100a and 100b are in parallel Te than at intervals, such as intervals E d standard right 101a and left 101b,
It is fixedly arranged. E d is, for example, about 7 to 10 cm. The subject 102 is photographed by the cameras 100a and 100b. With this configuration, it is possible to reproduce a three-dimensional effect with the naked eye.

【0005】ここで、図14に示されるように、位置s
において肉眼101aおよび101bで、位置tにおい
てカメラ100aおよび100bにおいて、恰も位置s
で肉眼101aおよび101bで以て見るかの如く、被
写体103における点aを注目点としてそれぞれ被写体
103および104を撮影する場合について考える。こ
の場合、カメラ100aおよび100bは、点aから位
置sおよび位置tまでの距離の比に応じてズーミングさ
れる。
[0005] Here, as shown in FIG.
At the positions of the naked eyes 101a and 101b and at the position t in the cameras 100a and 100b
Let us consider a case where the subject 103 and 104 are imaged with the point a in the subject 103 as a point of interest, as if viewed with the naked eyes 101a and 101b. In this case, the cameras 100a and 100b are zoomed according to the ratio of the distance from the point a to the positions s and t.

【0006】肉眼101aが視野角φを有している場
合、この肉眼101aは、被写体103および104上
に太線で示される範囲AおよびBを見ることができる。
また、肉眼101aでは、注目点である点aに焦点が合
い、それに対して被写体104の範囲Bが奥に見える。
When the naked eye 101a has a viewing angle φ, the naked eye 101a can see ranges A and B indicated by thick lines on the subjects 103 and 104.
Further, with the naked eye 101a, the point a, which is the point of interest, is focused, whereas the range B of the subject 104 is seen in the back.

【0007】周知であるが、カメラのズーミングは、カ
メラの視野角を狭めることによってなされる。したがっ
て、固定的に配置されているカメラ100aでは、位置
tにおいて位置sで見たときと同じ大きさに被写体10
3および104を撮影できるようにズーミングを行う
と、肉眼101aに対して、例えば図中のCで示される
範囲に視野の差が生じてしまうと共に、被写体103に
おける点a’に焦点が合うことになる。これは、カメラ
100bにおいても同様である。そのため、カメラ10
0aおよび100bとでは、位置sで見たような立体感
を正しく表現できないという問題点があった。
[0007] As is well known, zooming of a camera is accomplished by reducing the viewing angle of the camera. Therefore, in the fixedly arranged camera 100a, the size of the subject 10 at the position t is the same as when viewed at the position s.
When zooming is performed so that images 3 and 104 can be taken, a difference in the visual field occurs in the range indicated by C in the figure with respect to the naked eye 101a, and the point a ′ in the subject 103 is focused. Become. This is the same for the camera 100b. Therefore, the camera 10
With 0a and 100b, there is a problem that the stereoscopic effect as viewed at the position s cannot be correctly expressed.

【0008】また、テレビジョン受像機による観戦で
は、所詮、スタジアムにおける雰囲気などを伝えること
ができないため、物足りなさが残ることは拭いきれない
という問題点があった。
[0008] In addition, in watching a game with a television receiver, the atmosphere in the stadium cannot be conveyed after all, and there is a problem that it is not possible to wipe out the lack of satisfaction.

【0009】したがって、この発明の目的は、ズーミン
グを可能としながら正しく立体感を表現できるような立
体カメラ、および、この立体カメラを用いて、恰も現場
に居るかのような臨場感をも再現できるようなビデオ映
像伝送システムを提供することにある。
Accordingly, an object of the present invention is to provide a three-dimensional camera capable of correctly expressing a three-dimensional effect while enabling zooming, and to reproduce a sense of realism as if one were at the site by using the three-dimensional camera. Such a video image transmission system is provided.

【0010】[0010]

【課題を解決するための手段】この発明は、上述した課
題を解決するために、右目側の撮影を行う第1のカメラ
と、左目側の撮影を行う第2のカメラと、被写体と仮想
的な右目の位置とを結ぶ第1の線の延長上に、第1の線
と光軸を合わせて第1のカメラが配置され、目標点と右
目と対の仮想的な左目の位置とを結ぶ第2の線の延長上
に、第2の線と光軸を合わせて第2のカメラが配置され
るように、第1および第2のカメラの位置および角度を
所定の関係に制御する制御手段とを有し、ズーミングに
よって被写体と仮想的な右目および左目との距離が変化
しても、所定の関係が保たれることを特徴とする立体カ
メラである。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, the present invention provides a first camera for photographing the right eye side, a second camera for photographing the left eye side, and a virtual camera. A first camera is arranged on the extension of the first line connecting the right eye position with the first line so as to align the optical axis with the first line, and connects the target point with the virtual left eye position of the right eye and the pair. Control means for controlling the positions and angles of the first and second cameras in a predetermined relationship so that the second camera is arranged on the extension of the second line so that the second line is aligned with the optical axis. And a predetermined relationship is maintained even if the distance between the subject and the virtual right and left eyes changes due to zooming.

【0011】また、この発明は、上述した課題を解決す
るために、第1の場所の複数の箇所にそれぞれ配置され
る複数台のカメラと、第1の場所の複数の箇所にそれぞ
れ配置される複数台の立体的な撮影が可能な立体カメラ
と、複数台のカメラおよび映像信号と複数台の立体カメ
ラのそれぞれの映像信号を多重化する多重化手段と、多
重化信号を、第2の場所に伝送する第1の伝送手段と、
第2の場所に存在する1または複数の観客がそれぞれ有
する携帯可能な立体映像表示手段と、第2の場所に配置
され、多重化信号を受信する受信手段と、受信された多
重化信号を立体映像表示手段に伝送する第2の伝送手段
と、を有し、立体映像表示手段は、多重化信号をそれぞ
れの映像信号に分離し、それぞれの映像信号の中から必
要な映像信号を選択可能とされていることを特徴とする
ビデオ映像伝送システムである。
According to the present invention, in order to solve the above-mentioned problems, a plurality of cameras respectively arranged at a plurality of first locations and a plurality of cameras arranged at a plurality of first locations are provided. A plurality of three-dimensional cameras capable of three-dimensional imaging, a plurality of cameras, multiplexing means for multiplexing the video signals and the video signals of the plurality of three-dimensional cameras, and a multiplexed signal in a second location. A first transmission means for transmitting to
Portable stereoscopic video display means respectively owned by one or a plurality of spectators present at the second place, receiving means arranged at the second place for receiving the multiplexed signal, and displaying the received multiplexed signal in a stereoscopic manner. A second transmission unit for transmitting to the video display unit, wherein the stereoscopic video display unit separates the multiplexed signal into respective video signals, and a required video signal can be selected from the respective video signals. A video image transmission system characterized in that:

【0012】上述したように、この発明は、被写体と仮
想的な左右それぞれの目とを結ぶ線の延長上に、左右の
目に対応したそれぞれのカメラが光軸を合わせて配置さ
れ、さらにこの配置は、被写体に対してズーミングを行
っても保たれるようにされているため、撮影された映像
を正しい立体感で以て再現することができる。
As described above, according to the present invention, the respective cameras corresponding to the left and right eyes are arranged on the extension of the line connecting the subject and the virtual left and right eyes, with their optical axes aligned. Since the arrangement is maintained even when zooming is performed on the subject, the captured video can be reproduced with a correct stereoscopic effect.

【0013】また、この発明は、第1の場所で立体的に
撮影された映像を第2の場所で立体感を再現させながら
映出させることができるため、別の場所でも臨場感あふ
れる映像を見ることができる。
Further, according to the present invention, an image captured three-dimensionally at a first location can be projected while reproducing a three-dimensional effect at a second location, so that an image full of a sense of reality can be displayed at another location. You can see.

【0014】[0014]

【発明の実施の形態】以下、この発明の実施の一形態
を、図面を参照しながら説明する。図1は、この発明に
よる立体カメラの原理を概略的に示す。この発明におい
ては、このように、立体カメラを構成するカメラ1aお
よび1bのそれぞれを、被写体2と肉眼3aおよび3b
とをそれぞれ結んだ線の延長上に配置する。また、この
ときのカメラ1aおよび1bの光軸がこれらの線と一致
するように、これらカメラ1aおよび1bは、それぞれ
被写体2の方向に向けられる。このようにカメラ1aお
よび1bとを配置することによって、これらカメラ1a
および1bと肉眼3aおよび3bとの、ズーム時におけ
る視野範囲を一致させることができる。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 schematically shows the principle of a stereoscopic camera according to the present invention. In the present invention, the cameras 1a and 1b constituting the three-dimensional camera are respectively replaced with the subject 2 and the naked eyes 3a and 3b.
And placed on the extension of the line connecting them. Further, the cameras 1a and 1b are respectively directed toward the subject 2 so that the optical axes of the cameras 1a and 1b at this time coincide with these lines. By arranging the cameras 1a and 1b in this manner, these cameras 1a
And 1b and the naked eye 3a and 3b can match the visual field range at the time of zooming.

【0015】なお、以下の説明において、特に説明の無
い限りは、このようなカメラ,肉眼,および被写体との
関係を示す図は、上面方向から見た図とする。
In the following description, unless otherwise specified, a diagram showing the relationship between such a camera, the naked eye, and a subject is a diagram viewed from above.

【0016】図2に示されるように、ズームがなされて
いない場合の視野角がα0 であるカメラ1aにおいて、
ズーミングがなされると、視野角は、α<α0 である視
野角αとされる。この視野角αとα0 との差がズーミン
グの有無に対応する。また、視野角βを有する肉眼3a
においては、被写体4および5における範囲AおよびB
が視野範囲とされる。したがって、この肉眼3aでの視
野範囲とカメラ1aによる視野範囲とが一致するように
カメラ1aの視野角αを設定することによって、ズーム
時のカメラ1aによるカメラ映像と位置sにおける肉眼
3aでの視野内の映像とを一致させることができる。な
お、この説明は、カメラ1bについても同様である。
As shown in FIG. 2, in a camera 1a having a viewing angle α 0 when no zoom is performed,
When zooming is performed, the viewing angle is set to a viewing angle α satisfying α <α 0 . The difference between the viewing angles α and α 0 corresponds to the presence or absence of zooming. The naked eye 3a having a viewing angle β
, The ranges A and B in the subjects 4 and 5
Is the field of view. Therefore, by setting the viewing angle α of the camera 1a so that the visual field range of the naked eye 3a matches the visual field range of the camera 1a, the camera image of the camera 1a during zooming and the visual field of the naked eye 3a at the position s are obtained. Can be matched with the picture inside. This description is the same for the camera 1b.

【0017】一方、カメラ100aのように、上述の従
来例で説明したカメラ位置では、カメラ1aと同一のズ
ーム率でズームを行った場合に、図2中でCで示した範
囲だけ視野の差が生じてしまい、ズーム時でのカメラ1
00aのカメラ画像と位置sにおける肉眼3aでの視野
内の画像とが一致しない。
On the other hand, at the camera position described in the above-described conventional example, as in the case of the camera 100a, when the zoom is performed at the same zoom ratio as that of the camera 1a, the difference in the visual field by the range indicated by C in FIG. Camera 1 when zooming
The camera image of 00a does not match the image in the visual field with the naked eye 3a at the position s.

【0018】次に、右側のカメラ1aおよび左側のカメ
ラ1bとの関係について説明する。先ず、図3を用い
て、以下の説明に用いられる各変数および固定値につい
ての定義を行う。Ed は、人間の左右の目の間隔であ
る。d(またはd’)は、目と被写体6との距離であ
る。この距離dは、実際には仮想的な値とされる。l
は、カメラ1aおよび1bの間隔である。Dは、カメラ
1aおよびカメラ1bとを結ぶ直線の中心点と被写体6
との距離である。
Next, the relationship between the right camera 1a and the left camera 1b will be described. First, each variable and fixed value used in the following description will be defined with reference to FIG. Ed is the distance between the left and right eyes of a human. d (or d ′) is the distance between the eye and the subject 6. This distance d is actually a virtual value. l
Is the distance between the cameras 1a and 1b. D is the center point of a straight line connecting camera 1a and camera 1b and subject 6
And the distance.

【0019】このように定義した場合、d:Ed /2=
D:l/2の関係から、ズーム率Zは、Z=D/dと求
められる。図3において、目の位置がdからd’へと近
付くと、左右のカメラ1aおよび1bとの距離がlから
l’へと広がる。勿論、目の間隔Ed は、一定とされ
る。したがって、カメラ1aおよび1bとの距離は、被
写体2に近付く程広がることになる。
When defined as above, d: E d / 2 =
From the relationship of D: 1/2, the zoom ratio Z is obtained as Z = D / d. In FIG. 3, when the position of the eyes approaches d to d ′, the distance between the left and right cameras 1a and 1b increases from l to l ′. Of course, the eye interval E d is fixed. Therefore, the distance between the cameras 1a and 1b increases as the distance to the subject 2 increases.

【0020】図4は、カメラ1aおよび1bから成る視
差を示す。例えば被写体4に対して奥行きを伴って表現
されるべき被写体5に対して、上述の従来例の方法で以
て位置tに配置されたカメラ100aおよび100bと
からは、図中にFで示される視差しか得られないのに対
して、この発明による方法で以て同様の位置tに配置さ
れたカメラ1aおよび1bとからは、図中にGで示され
るように、十分な視差を得ることができる。
FIG. 4 shows the parallax composed of the cameras 1a and 1b. For example, a subject 5 to be expressed with depth relative to the subject 4 is indicated by F in the figure from the cameras 100a and 100b arranged at the position t by the above-described conventional method. While it is possible to obtain only a parallax, a sufficient parallax can be obtained from the cameras 1a and 1b arranged at the same position t by the method according to the present invention, as indicated by G in the figure. it can.

【0021】次に、この実施の一形態のより具体的な例
について説明する。図5は、カメラ1aおよび1bとか
らなる、この発明による立体カメラのより具体的な構成
例を示す。カメラ1aは、例えば外部から制御されるス
テッピングモータによって回転角が制御される回転台1
0aに対して取り付けられる。同様に、カメラ1bが回
転台10bに対して取り付けられる。このとき、回転台
10aおよび回転台10bの回転の中心がそれぞれカメ
ラ1aおよび1bの光軸の開始点に一致していると好ま
しい。
Next, a more specific example of this embodiment will be described. FIG. 5 shows a more specific configuration example of the stereoscopic camera according to the present invention, which includes the cameras 1a and 1b. The camera 1a includes, for example, a turntable 1 whose rotation angle is controlled by an externally controlled stepping motor.
0a. Similarly, the camera 1b is attached to the turntable 10b. At this time, it is preferable that the centers of rotation of the turntables 10a and 10b coincide with the start points of the optical axes of the cameras 1a and 1b, respectively.

【0022】これらカメラ1aおよび1bがそれぞれ取
り付けられた回転台10aおよび10bは、アーム11
に取り付けられる。回転台10aおよび10bには、そ
れぞれアーム11に対して横方向に対して移動可能で、
外部からの制御によって動作を制御される稼働部分が設
けられており(図示しない)、この稼働部分によって、
カメラ1aおよび1bが例えばアーム11に設けられた
レール12のガイドに基づき横方向に移動される。アー
ム11は、例えば外部から制御されるステッピングモー
タによって回転角を制御される回転台13によって、雲
台などに固定される。
The turntables 10a and 10b to which the cameras 1a and 1b are attached, respectively,
Attached to. Each of the turntables 10a and 10b is movable in the lateral direction with respect to the arm 11,
An operation part whose operation is controlled by an external control is provided (not shown).
The cameras 1a and 1b are moved laterally based on, for example, a guide of a rail 12 provided on the arm 11. The arm 11 is fixed to a camera platform or the like, for example, by a turntable 13 whose rotation angle is controlled by a stepping motor controlled from the outside.

【0023】回転台10aおよび回転台10bによっ
て、カメラ1aおよびカメラ1bのそれぞれの光軸が互
いに成す角は、θに制御される。また、同様に、カメラ
1aおよびカメラ1bとの間の、互いの光軸の開始点の
距離がlになるように制御される。図6は、このときの
光軸の成す角θおよび光軸の開始点間の距離lについて
示す。θは、カメラ1aおよび1bの光軸の開始点と、
仮想的な肉眼3aおよび3bをそれぞれ介して被写体2
とを結ぶ直線の成す角度である。上述の、ズーム率Z=
D/dとこの図とから、次に示す数式(1)および数式
(2)が導き出される。
The angle between the optical axes of the camera 1a and the camera 1b is controlled to θ by the turntables 10a and 10b. Similarly, the distance between the start point of the optical axis between the camera 1a and the camera 1b is controlled to be l. FIG. 6 shows the angle θ formed by the optical axis and the distance 1 between the starting points of the optical axis at this time. θ is the starting point of the optical axis of the cameras 1a and 1b,
The subject 2 through the virtual naked eyes 3a and 3b, respectively
And the angle formed by the straight line connecting As described above, the zoom ratio Z =
From D / d and this figure, the following equations (1) and (2) are derived.

【0024】l=Z・Ed ・・・ 数式(1)L = Z · E d (1)

【0025】 θ=2tan-1(Z・Ed /2D) ・・・ 数式(2)Θ = 2 tan −1 (Z · E d / 2D) Equation (2)

【0026】すなわち、Ed は、固定値であるため、ズ
ーム率Zおよびカメラ1aおよび1b(実際には、これ
らの中心点)と被写体2との距離Dが分かれば、これら
lおよびθが算出でき、カメラ1aおよび1bの位置お
よび角度とが制御可能とされる。なお、観客席からみた
立体像(カメラ位置からズーム率”10”)を構成する
アーム11の大きさを決めるlは、例えばEd =0.0
7mとして、d=5m,D=50mと見積もっても高々
70cm程度である。
That is, since Ed is a fixed value, if the zoom ratio Z and the distance D between the cameras 1a and 1b (actually, their center points) and the subject 2 are known, these 1 and θ can be calculated. That is, the positions and angles of the cameras 1a and 1b can be controlled. It should be noted that l that determines the size of the arm 11 forming a stereoscopic image (zoom rate “10” from the camera position) viewed from the audience seats is, for example, E d = 0.0
Assuming that the distance is 7 m, d = 5 m and D = 50 m are at most about 70 cm.

【0027】図7は、このようにカメラ1aおよび1b
の位置および角度を制御するための構成の一例を示す。
詳細は後述するが、左右のカメラ1aおよび1bにおい
て、何方か一方のカメラを基準カメラとして、他方のカ
メラのフォーカスやズームなどが制御される。ここで
は、基準カメラをカメラ1aとする。
FIG. 7 shows the cameras 1a and 1b as described above.
1 shows an example of a configuration for controlling the position and angle of an image.
As will be described later in detail, one of the left and right cameras 1a and 1b is used as a reference camera, and the focus and zoom of the other camera are controlled. Here, the reference camera is camera 1a.

【0028】カメラ1aおよび1bは、以下に示す方法
に従い自動フォーカスおよびズームの制御がなされる。
この制御の説明に先立ち、カメラ1aおよび1bの出力
レベルの調整について説明する。先ず、これらカメラ1
aおよび1bの出力信号の差分をとる。そして、差分の
小さい画像部分で、出力信号における最小および最大の
振幅部分を見つけ、この部分の、カメラ1aおよび1b
の出力信号が同一のレベルになるように、カメラ1bの
出力信号レベルを基準カメラであるカメラ1aの出力信
号レベルに対して合わせる。カメラ1a,1bは、この
ように調整される。
The cameras 1a and 1b are controlled for automatic focusing and zooming according to the following method.
Prior to the description of this control, adjustment of the output levels of the cameras 1a and 1b will be described. First, these cameras 1
The difference between the output signals a and 1b is calculated. Then, the minimum and maximum amplitude parts in the output signal are found in the image part with a small difference, and the camera parts 1a and 1b of this part are found.
The output signal level of the camera 1b is adjusted to the output signal level of the camera 1a, which is the reference camera, so that the output signals of the camera 1b are the same. The cameras 1a and 1b are adjusted in this way.

【0029】回転台10aには、2つのモータ30およ
び31とが含まれる。モータ30aは、例えばステッピ
ングモータから成り、カメラ1aの回転を制御する。モ
ータ31bは、カメラ1aの、ガイド12に沿った横方
向への移動を制御する。同様に、回転台10bにも、回
転を制御するモータ30bおよび横方向への移動を制御
するモータ31bとが含まれる。
The turntable 10a includes two motors 30 and 31. The motor 30a is composed of, for example, a stepping motor and controls the rotation of the camera 1a. The motor 31b controls the lateral movement of the camera 1a along the guide 12. Similarly, the turntable 10b also includes a motor 30b for controlling rotation and a motor 31b for controlling movement in the lateral direction.

【0030】カメラコントローラ20に対して、外部か
らコントロール信号が供給される。このコントロール信
号の供給方法については、後述する。このコントロール
信号には、カメラ1aおよび1bに対してズーミング指
示を出すための情報であるズーム率Zが含まれる。ま
た、このコントロール信号に対して、被写体までの距離
Dを含ませ、カメラ1aおよび1bにおけるオートフォ
ーカス情報とすることもできる。
An external control signal is supplied to the camera controller 20. The method of supplying the control signal will be described later. The control signal includes a zoom ratio Z which is information for issuing a zooming instruction to the cameras 1a and 1b. In addition, the control signal may include the distance D to the subject to be used as autofocus information in the cameras 1a and 1b.

【0031】カメラ1aで撮影された映像情報がカメラ
コントローラ20に対して送出される。カメラコントロ
ーラ20において、この供給された映像情報に基づい
て、カメラ1aにおけるズームおよびオートフォーカス
制御を行うための処理がなされる。カメラ1aにおい
て、この結果に基づきズームおよびオートフォーカスが
行われる。このオートフォーカス処理の結果および上述
のズーミング指示は、カメラ1bにも共に供給される。
これにより、カメラ1bにおいて、カメラ1aと同様の
動作がなされる。
Video information captured by the camera 1a is transmitted to the camera controller 20. In the camera controller 20, processing for performing zoom and autofocus control in the camera 1a is performed based on the supplied video information. In the camera 1a, zoom and autofocus are performed based on the result. The result of the autofocus processing and the above-described zooming instruction are also supplied to the camera 1b.
Thereby, the same operation as the camera 1a is performed in the camera 1b.

【0032】カメラコントローラ20に供給されるコン
トロール信号に対して距離Dの情報が含まれている場合
には、これに基づいてオートフォーカス動作を行っても
よい。
When information on the distance D is included in the control signal supplied to the camera controller 20, the autofocus operation may be performed based on the information.

【0033】カメラコントローラ20においてオートフ
ォーカス処理が行われることによって、被写体までの距
離Dを得ることができる。カメラコントローラ20から
モータ制御部21に対して、距離Dおよびズーム率Zと
が供給される。モータ制御部21において、供給された
距離Dおよびズーム率Zとから上述の数式(2)の演算
がなされ、この演算結果に基づきモータ30aおよび3
0bとが制御され、カメラ1aおよびカメラ1bの角度
がそれぞれ内側に角度θ/2とされる。また、カメラコ
ントローラ20からモータ制御部22に対して、ズーム
率Zが供給される。モータ制御部22において、供給さ
れたズーム率Zから上述の数式(1)の演算がなされ、
この演算結果に基づきモータ31aおよび31bとが制
御され、カメラ1aおよび1bとの間隔が距離lとされ
る。
By performing the auto-focus processing in the camera controller 20, the distance D to the subject can be obtained. The distance D and the zoom ratio Z are supplied from the camera controller 20 to the motor control unit 21. In the motor control unit 21, the above equation (2) is calculated from the supplied distance D and the zoom ratio Z, and the motors 30a and 3 are calculated based on the calculation result.
0b is controlled, and the angles of the camera 1a and the camera 1b are each set to the inside angle θ / 2. Further, the zoom ratio Z is supplied from the camera controller 20 to the motor control unit 22. In the motor control unit 22, the above equation (1) is calculated from the supplied zoom rate Z,
The motors 31a and 31b are controlled based on the calculation result, and the distance between the cameras 31a and 31b is set to the distance l.

【0034】一方、被写体自動追尾部23において、被
写体の追尾が行われ、コントロール信号が生成される。
このコントロール信号は、カメラコントローラ20に対
して供給される。この追尾は、例えばカメラ24によっ
て撮影され、カメラコントローラ25において所定の処
理を施された映像と、予め記憶されている被写体の例え
ば形状とが比較されることによってなされる。また、こ
の追尾は、自動的に行わずに、例えばカメラ24をオペ
レータが操作し被写体を追いかけることによって行って
もよい。この場合には、カメラ24は、アーム11に対
して一体的に動くように取り付けられるのが望ましい。
さらに、広角のレンズで広範囲を捉え、モニタ画面を見
ながらオペレータがジョイスティックなどの所定の指示
手段で以て被写体を追うようにしてもよい。さらにま
た、被写体に対して発信器などを設け、この発信器から
発信される電波や超音波を複数の受信装置で以て受信す
ることにより、被写体の追尾を行うこともできる。
On the other hand, the subject automatic tracking section 23 tracks the subject, and generates a control signal.
This control signal is supplied to the camera controller 20. This tracking is performed, for example, by comparing an image photographed by the camera 24 and subjected to predetermined processing by the camera controller 25 with, for example, the shape of the subject stored in advance. Further, this tracking may not be performed automatically, but may be performed, for example, by operating the camera 24 by an operator to chase the subject. In this case, it is desirable that the camera 24 be attached so as to move integrally with the arm 11.
Furthermore, a wide-angle lens may be used to capture a wide area, and the operator may follow the subject with a predetermined instruction means such as a joystick while watching the monitor screen. Furthermore, a transmitter can be provided for a subject, and the subject can be tracked by receiving radio waves and ultrasonic waves transmitted from the transmitter with a plurality of receiving devices.

【0035】このような、被写体の追尾により、被写体
の位置情報が時間経過に伴って得られる。この得られた
位置情報に基づき、カメラ1aおよび1bから被写体ま
での距離Dが得られる。被写体の位置情報および時間情
報とが方向・速度検出部26に対して供給される。方向
・速度検出部26において、供給されたこれら被写体の
位置情報および時間情報とから、被写体の移動方向,移
動速度,および移動の際の加速度が得られる。
By tracking the subject, position information of the subject can be obtained over time. Based on the obtained position information, a distance D from the cameras 1a and 1b to the subject is obtained. The position information and the time information of the subject are supplied to the direction / speed detection unit 26. The direction / speed detector 26 obtains the moving direction, moving speed, and acceleration of the moving of the subject from the supplied position information and time information of the subject.

【0036】この実施の一形態では、被写体の自動追尾
が行われている際のカメラ1aおよび1bのズーム率Z
は、これら被写体の移動方向,移動速度,および加速度
に基づいて選択される。例えば、移動速度が速い場合に
は、ズーム率Zが小さい値とされ、遅い場合にはズーム
率Zが大きい値とされる。また、被写体の自動追尾をせ
ずに、オペレータのカメラ24の操作によって被写体の
追尾が行われる場合には、オペレータの操作に基づい
て、直接的にズーム率Zを得ることができる。また、こ
の場合でも、ズーム率Zを自動的に選択するようにもで
きる。こうして得られた距離Dおよびズーム率Zは、上
述のコントロール信号として、カメラコントローラ25
からカメラコントローラ20に対して供給される。
In this embodiment, the zoom ratio Z of the cameras 1a and 1b during automatic tracking of a subject is performed.
Is selected based on the moving direction, moving speed, and acceleration of the subject. For example, when the moving speed is high, the zoom ratio Z is set to a small value, and when the moving speed is low, the zoom ratio Z is set to a large value. Further, when the tracking of the subject is performed by the operation of the camera 24 by the operator without automatically tracking the subject, the zoom ratio Z can be directly obtained based on the operation of the operator. Also in this case, the zoom ratio Z can be automatically selected. The distance D and the zoom ratio Z obtained as described above are used as the above-mentioned control signals in the camera controller 25.
From the camera controller 20.

【0037】次に、この実施の一形態による立体カメラ
の応用例について説明する。図8は、この立体カメラを
例えばサッカー競技が行われるスタジアムに設置し、こ
のスタジアムにおいて行われる競技の実況中継を行う例
である。この場合、実際に競技が行われるスタジアム4
0に幾つかのカメラが設置され、これらのカメラで撮影
された映像信号が多重化され別のスタジアム60に対し
て送信される。スタジアム60では、観客61a,61
b,61c,・・・がそれぞれ映像を立体的に表示可能
な表示装置(詳細は後述する)を有し、スタジアム40
から送信された信号をスタジアム60の受信システムを
介して受信する。これにより、スタジアム40で行われ
ている競技が実況され、スタジアム60に居ながらスタ
ジアム40における競技を立体的に観戦することができ
る。
Next, an application example of the stereoscopic camera according to this embodiment will be described. FIG. 8 shows an example in which this stereoscopic camera is installed in, for example, a stadium where a soccer game is performed, and a live broadcast of the game performed in this stadium is performed. In this case, the stadium 4 where the competition actually takes place
A number of cameras are installed in the camera 0, and video signals captured by these cameras are multiplexed and transmitted to another stadium 60. At the stadium 60, the audiences 61a, 61
Each of the stadiums 40b, 61c,...
Is received via the receiving system of the stadium 60. As a result, the game being played in the stadium 40 is played live, and the player can watch the game in the stadium 40 three-dimensionally while staying in the stadium 60.

【0038】スタジアム40には、この発明による立体
カメラが立体カメラ41a,41b,41c,および4
1dというように複数台設置される。さらに、高解像度
カメラがカメラ42a,42b,42c,および42d
というように複数台設置される。高解像度カメラ42
a,42b,42c,および42dは、例えば垂直解像
度で1125本を有するHDTV方式程度乃至それ以上
の解像度を有するカメラが用いられ、それぞれ固定的に
広範囲をカバーする。立体カメラ41a,41b,41
c,および41dは、上述したように、被写体(例え
ば、サッカー競技であればサッカーボール)を追尾す
る。また、この立体カメラ41a,41b,41c,お
よび41dは、それぞれ移動が可能とされる。これら立
体カメラ41a,41b,41c,および41d、およ
び高解像度カメラ42a,42b,42c,および42
dによって撮影された映像信号は、それぞれエンコーダ
50に対して供給される。
In the stadium 40, stereo cameras according to the present invention are provided with stereo cameras 41a, 41b, 41c, and 4
Plural units are installed as in 1d. In addition, the high resolution cameras are cameras 42a, 42b, 42c, and 42d.
Multiple units are installed. High resolution camera 42
For a, 42b, 42c, and 42d, for example, a camera having a resolution of about 1125 lines in the vertical resolution and having a resolution of about the HDTV system or higher is used, and each covers a fixedly wide range. Stereo cameras 41a, 41b, 41
As described above, c and 41d track the subject (for example, a soccer ball in a soccer game). The stereo cameras 41a, 41b, 41c, and 41d are each movable. These three-dimensional cameras 41a, 41b, 41c, and 41d, and high-resolution cameras 42a, 42b, 42c, and 42
The video signal captured by d is supplied to the encoder 50, respectively.

【0039】エンコーダ50において、これらの供給さ
れた映像信号が所定の圧縮方式、例えばMPEG−2方
式で以てそれぞれ圧縮される。圧縮されたこれら映像信
号は、多重化器51によって多重され多重ストリームと
され、送信システム52に対して供給される。そして、
送信システム52において変調,増幅といった処理を施
され、多重ストリームから成る送信電波とされ送信され
る。
In the encoder 50, these supplied video signals are respectively compressed by a predetermined compression system, for example, the MPEG-2 system. These compressed video signals are multiplexed by a multiplexer 51 to form a multiplexed stream, which is supplied to a transmission system 52. And
The transmission system 52 performs processing such as modulation and amplification, and transmits a transmission radio wave composed of multiple streams.

【0040】一方、上述のスタジアム40とは別の場所
に存在するスタジアム60内には、多数の観客61a,
61b,61c,・・・が存在しており、これら観客6
1a,61b,61c,・・・のそれぞれは、後述する
携帯用立体映像表示装置および付属信号処理器とから成
る受信システムを有している。
On the other hand, a large number of spectators 61a,
61b, 61c,...
Each of 1a, 61b, 61c,... Has a receiving system including a portable stereoscopic video display device and an attached signal processor described later.

【0041】スタジアム40の送信システム52から送
信された送信電波は、このスタジアム60に設けられた
受信システム53によって受信される。受信された信号
は、コンバータ54によって所定の形式に変換され、ス
タジアム60内の観客に対して送信を行うローカル送信
システム55に供給される。ローカル送信システム55
から観客61a,61b,61c,・・・がそれぞれ有
する受信システムに対して、この変換された信号が送信
される。上述したように、この送信された信号は、送信
側においてMPEG−2方式で以て圧縮された映像信号
が多重化され多重ストリームとされている。
The transmission radio wave transmitted from the transmission system 52 of the stadium 40 is received by the reception system 53 provided in the stadium 60. The received signal is converted into a predetermined format by a converter 54 and supplied to a local transmission system 55 for transmitting to a spectator in the stadium 60. Local transmission system 55
., The converted signals are transmitted to the receiving systems of the spectators 61a, 61b, 61c,. As described above, the transmitted signal is a multiplexed stream in which the video signal compressed by the MPEG-2 system on the transmitting side is multiplexed.

【0042】制御センター56では、スタジアム60の
観客61a,61b,61c,・・・がそれぞれ有する
携帯用立体映像表示装置および付属信号処理器に対する
サービス情報の提供が行われる。また、これらの機器が
観客61a,61b,61c,・・・に対して貸与され
るものである場合には、制御センター56において機器
の管理が行われる。この、制御センター56による情報
の提供および機器の管理は、所定の方法で以て処理され
た信号を、スタジアム内に設置されたアンテナ57によ
って送信/受信することによってなされる。この送信/
受信には、例えばPHS(簡易型携帯電話システム)で
用いられている方式を適用することが可能である。
In the control center 56, service information is provided to the portable stereoscopic video display device and the attached signal processor of the spectators 61a, 61b, 61c,. When these devices are lent to the spectators 61a, 61b, 61c,..., The devices are managed in the control center 56. The provision of information and the management of devices by the control center 56 are performed by transmitting / receiving a signal processed by a predetermined method using an antenna 57 installed in the stadium. This transmission /
For the reception, for example, a method used in a PHS (simplified mobile phone system) can be applied.

【0043】図9は、観客61a,61b,61c,・
・・がそれぞれ有する受信システムの、携帯用立体映像
表示装置の一例を示す。これは、既に存在する眼鏡型デ
ィスプレイを応用したものである。図9Aおよび図9B
は、この携帯用立体映像表示装置が人間の頭部に装着さ
れた様子を、それぞれ上部および横方向から見た図であ
る。この表示装置70は、このように眼鏡型の形状を有
しており、弦71およびに伸縮性のバンド72,73に
よって頭部に装着される。光学系は、前部に取り付けら
れた箱体74内部に構成される。弦71に対して、アン
テナを伴った受信装置76および各種の操作を行うため
のスイッチ77a,77b,および77cが設けられ
る。また、図示されないが、両側の弦71からそれぞれ
ケーブルが引き出され、両耳に装着されたイヤホンに対
して接続される。
FIG. 9 shows audiences 61a, 61b, 61c,.
1 shows an example of a portable stereoscopic image display device of the receiving system of the. This is an application of an existing spectacle type display. 9A and 9B
FIG. 1 is a diagram showing a state in which the portable stereoscopic image display device is mounted on a human head, as viewed from above and from the side, respectively. The display device 70 has the shape of glasses as described above, and is attached to the head by the strings 71 and the elastic bands 72 and 73. The optical system is configured inside a box 74 attached to the front part. The string 71 is provided with a receiving device 76 having an antenna and switches 77a, 77b, and 77c for performing various operations. Further, although not shown, cables are respectively drawn from the strings 71 on both sides and connected to earphones attached to both ears.

【0044】弦71には、ケーブル78が接続される。
このケーブル78の他端は、付属信号処理器90に接続
される。図10は、この付属信号処理器90の構成の一
例を示す。この付属信号処理器90は、表示装置70を
装着するそれぞれの観客が有するものである。この付属
信号処理器90は、通信コントローラ部91,信号処理
部93,および電源部94とで構成される。通信コント
ローラ部91には、アンテナ92が接続される。
A cable 78 is connected to the string 71.
The other end of the cable 78 is connected to the attached signal processor 90. FIG. 10 shows an example of the configuration of the attached signal processor 90. The attached signal processor 90 is owned by each audience wearing the display device 70. The attached signal processor 90 includes a communication controller section 91, a signal processing section 93, and a power supply section 94. An antenna 92 is connected to the communication controller 91.

【0045】通信コントロール部91は、メモリ,マイ
クロプロセッサおよびその周辺回路,通信回路などから
成る。この通信コントロール部91には、この表示装置
70および付属信号処理器90を管理するための情報、
例えばID情報が記憶されている。例えば、この表示装
置70や付属信号処理器90においてエラーなどが発生
した場合、アラームを鳴らして所持者にエラーの発生を
知らせると共に、アンテナ92からアンテナ57に対し
てID情報とエラー情報とを送信し、制御センター56
に装置の異状を自動的に知らせることが可能とされる。
The communication control section 91 comprises a memory, a microprocessor and its peripheral circuits, a communication circuit and the like. The communication control section 91 includes information for managing the display device 70 and the attached signal processor 90,
For example, ID information is stored. For example, when an error occurs in the display device 70 or the attached signal processor 90, an alarm is sounded to notify the owner of the occurrence of the error, and the ID information and the error information are transmitted from the antenna 92 to the antenna 57. And control center 56
Can be automatically notified of the abnormality of the device.

【0046】また、この表示装置70および付属信号処
理器90が貸与されたものである場合、制御センター5
6とこの通信コントロール部91との間で定期的に通信
を行いID情報の管理を行うことによって、貸与した観
客にこれらの装置を勝手に持ち帰られないようにするこ
とも可能である。
When the display device 70 and the attached signal processor 90 are lent, the control center 5
6 and the communication control unit 91 to periodically manage the ID information, thereby making it possible to prevent the rented audience from taking these devices without permission.

【0047】制御センター56からアンテナ57によっ
て送信されたサービス情報は、アンテナ92を介して通
信コントローラ91に供給される。この情報は、例えば
実況を行っている競技に関するデータベースとしてメモ
リなどに記憶される。
The service information transmitted from the control center 56 by the antenna 57 is supplied to the communication controller 91 via the antenna 92. This information is stored in a memory or the like, for example, as a database relating to a live competition.

【0048】信号処理部93は、メモリ,マイクロプロ
セッサおよびその周辺回路,ビデオ/オーディオ信号処
理回路などから成り、ビデオ/オーディオ信号の処理お
よびサービス情報の処理が行われる。信号処理部93に
対して、表示装置70のアンテナ76で受信された多重
ストリームが供給される。この信号処理部93におい
て、この多重ストリームが分離され、分離されたストリ
ームのデコードがなされる。また、表示装置70のスイ
ッチ77a,77b,および77cなどの操作によりな
された、仮想的位置の切り換え,ズーム率選択,表示モ
ードの選択,および情報ウィンドウの表示制御などの情
報がこの信号処理部93に供給される。また、通信コン
トローラ91においてメモリに記憶されている、実況さ
れた競技に関するデータなどがこの信号処理部93に対
して供給される。
The signal processing section 93 comprises a memory, a microprocessor and its peripheral circuits, a video / audio signal processing circuit, etc., and performs processing of video / audio signals and processing of service information. The multiplexed stream received by the antenna 76 of the display device 70 is supplied to the signal processing unit 93. In the signal processing section 93, the multiplexed stream is separated, and the separated stream is decoded. Information such as virtual position switching, zoom rate selection, display mode selection, and information window display control performed by operating the switches 77a, 77b, and 77c of the display device 70 is transmitted to the signal processing unit 93. Supplied to In addition, data related to the played game and the like stored in the memory of the communication controller 91 are supplied to the signal processing unit 93.

【0049】供給されたこれらの情報に基づき、この信
号処理部93において、分離されデコードされたストリ
ームの選択、映像データの切り出しおよび拡大処理、状
況表示部81および情報ウィンドウ82の生成および表
示画面80への多重などの処理がなされる。このような
処理を施されたビデオ信号がケーブル78を介して表示
装置70に対して供給される。また、この信号処理部9
3では、ストリームに含まれる音声信号の処理もなさ
れ、処理されたこの音声信号も、ビデオ信号と共にケー
ブル78を介して表示装置70に供給される。
Based on the supplied information, the signal processing section 93 selects a separated and decoded stream, cuts out and enlarges video data, generates a status display section 81 and an information window 82, and displays a display screen 80 Processing such as multiplexing is performed. The video signal subjected to such processing is supplied to the display device 70 via the cable 78. The signal processing unit 9
In 3, the audio signal included in the stream is also processed, and the processed audio signal is supplied to the display device 70 via the cable 78 together with the video signal.

【0050】電源部94は、表示装置70のための電源
およびこの付属信号処理器90自身の電源から成る。表
示装置70のための電源は、ケーブル78を介して表示
装置70に対して供給される。
The power supply 94 comprises a power supply for the display device 70 and a power supply for the attached signal processor 90 itself. Power for the display device 70 is supplied to the display device 70 via the cable 78.

【0051】図11は、箱体74内に構成された光学系
を概略的に示す。液晶パネル81は、図示されない駆動
回路によって、供給されるビデオ信号に基づき駆動され
る。このビデオ信号は、上述のカメラ1aおよび1bか
らの映像信号を合成して得られるもので、表示の際に
は、液晶パネル81の中心線を境界として、それぞれ対
応する側にカメラ1aおよびカメラ1bによる映像が映
出される。実際には、この液晶パネル81により透過光
の光量が制御されることによって、ビデオ映像の映出が
なされる。例えば白色蛍光管から成るバックライト80
で発せられた白色光がRGBフィルタを有する液晶パネ
ル81およびディフーザ82を介してハーフミラー83
に照射される。ディフーザ82は、液晶パネル81から
の光を適当に拡散させることによって、画素の境界を目
立たなくさせるものである。
FIG. 11 schematically shows an optical system formed in the box 74. The liquid crystal panel 81 is driven by a driving circuit (not shown) based on the supplied video signal. This video signal is obtained by synthesizing the video signals from the cameras 1a and 1b described above. When the video signal is displayed, the camera 1a and the camera 1b Is projected. Actually, a video image is projected by controlling the amount of transmitted light by the liquid crystal panel 81. For example, a backlight 80 composed of a white fluorescent tube
The white light emitted by the light source is transmitted through a liquid crystal panel 81 having an RGB filter and a diffuser 82 to a half mirror 83.
Is irradiated. The diffuser 82 makes the boundary of the pixel inconspicuous by appropriately diffusing the light from the liquid crystal panel 81.

【0052】ハーフミラー83に照射されたビデオ映像
は、図11において左方向に反射され、凹面ハーフミラ
ー84に照射される。そして、凹面ハーフミラー84に
入射されたビデオ映像が反射され、ハーフミラー83を
透過し、肉眼85に対して入射する。肉眼85に対し
て、反射面が凹面状とされた凹面ハーフミラー84によ
って反射された映像が照射されるため、この携帯用立体
映像表示装置70を装着した人は、実際の凹面ハーフミ
ラー84の位置よりも遠くに、より大きく映像の表示が
なされたかのように感じることができる。この例では、
肉眼85の位置から2m程の距離に、52型画面の大き
さで以て仮想的に映像86の表示がなされたかのように
感じることができる。
The video image projected on the half mirror 83 is reflected leftward in FIG. 11 and is projected on the concave half mirror 84. Then, the video image that has entered the concave half mirror 84 is reflected, passes through the half mirror 83, and enters the naked eye 85. Since the image reflected by the concave half mirror 84 having a concave reflective surface is applied to the naked eye 85, the person wearing this portable stereoscopic image display device 70 can use the actual concave half mirror 84. It is possible to feel as if the image was displayed farther away than the position. In this example,
At a distance of about 2 m from the position of the naked eye 85, it can be felt as if the image 86 was virtually displayed with the size of a 52-inch screen.

【0053】この場合、映像86は、左右の目の視差分
の差異を有する2つの映像が横に並んで表示されること
になる。そのため、左右の目の視野が重ならないよう
に、例えば箱体74の内部を仕切ることによって、立体
的な映像の表示が可能とされる。
In this case, as the image 86, two images having a difference in parallax between the left and right eyes are displayed side by side. Therefore, for example, by partitioning the inside of the box 74 so that the visual fields of the left and right eyes do not overlap, a three-dimensional image can be displayed.

【0054】なお、上述の構成を両眼のそれぞれに対し
て設け、例えば、右目に対応する液晶パネル81を上述
のカメラ1aの出力で、また、左目に対応する液晶パネ
ル81をカメラ1bの出力でというように、それぞれ対
応する側のビデオ映像信号によって駆動することでも、
立体的な映像の表示が可能とされる。
The above configuration is provided for each of the two eyes. For example, the liquid crystal panel 81 corresponding to the right eye is the output of the camera 1a, and the liquid crystal panel 81 corresponding to the left eye is the output of the camera 1b. By driving with the video signal of the corresponding side,
A three-dimensional image can be displayed.

【0055】なお、箱体74の前面は透明または半透明
とされているため、液晶シャッタ87をON/OFFす
ることで、ビデオ映像だけを見るか、ビデオ映像と外部
の情景とを同時に見るかを選択することができる。
Since the front surface of the box 74 is transparent or translucent, turning on / off the liquid crystal shutter 87 allows the user to view only the video image or simultaneously view the video image and the external scene. Can be selected.

【0056】図12は、携帯用立体映像表示装置70に
おける表示の例を示す。主画面80の右下には、状況表
示部81が表示される。この状況表示部81には、この
表示装置70を装着した観客の、スタジアム40におけ
る仮想的な位置,被写体(この例ではボール)の位置お
よび方向,および画面モードなどの情報の表示がなされ
る。主画面80の左下には、この装置70を装着した観
客の指示により、所定の方法で以て情報ウィンドウ82
を表示することができる。この情報ウィンドウ82に
は、例えばこの中継が行われている競技の主催者側から
提供された情報を表示することができる。
FIG. 12 shows an example of display on the portable stereoscopic video display device 70. At the lower right of the main screen 80, a status display section 81 is displayed. The status display section 81 displays information such as the virtual position of the spectator wearing the display device 70 in the stadium 40, the position and direction of the subject (the ball in this example), the screen mode, and the like. At the lower left of the main screen 80, an information window 82 is provided in a predetermined manner by an instruction of the spectator wearing the device 70.
Can be displayed. In the information window 82, for example, information provided by the organizer of the competition in which the relay is being performed can be displayed.

【0057】主画面80の表示には、平面的な表示を行
う2D切り出し表示モードと、立体的な表示を行う3D
表示モードとの、2種類の表示モードがある。これら2
種類の表示モードは、表示装置70の弦71に設けられ
たスイッチ71aによって選択することができる。選択
されたモードは、状況表示部81の中央部に表示され
る。
The display of the main screen 80 includes a 2D cutout display mode for performing a two-dimensional display and a 3D display mode for performing a three-dimensional display.
There are two types of display modes, a display mode. These two
The type of display mode can be selected by a switch 71 a provided on the string 71 of the display device 70. The selected mode is displayed at the center of the status display section 81.

【0058】2D切り出し表示モードにおいては、上述
の高解像度カメラ42a〜42dのうちの、後述する方
法によって選択されたカメラの映像が所定の大きさで以
て切り出されることによってズーミングされ表示され
る。このときのズーム率の選択は、表示装置70の弦7
1に設けられたスイッチ77bによってなされる。この
選択は、スイッチ77bを1回押す毎に段階的に変化す
るズーム率を選択する方法や、スイッチ77bを押し続
けることで連続的に変化するズーム率を選択する方法な
どが考えられる。これら何れの方法においても、ズーム
率を循環的に変化させると操作性の面で好ましい。
In the 2D cut-out display mode, the image of the camera selected by the method described later among the above-described high-resolution cameras 42a to 42d is cut out to a predetermined size and zoomed and displayed. At this time, the selection of the zoom ratio is performed by the string 7 of the display device 70.
This is performed by the switch 77b provided in the switch 1. For this selection, a method of selecting a zoom ratio that changes stepwise each time the switch 77b is pressed once, a method of selecting a zoom ratio that continuously changes by continuously pressing the switch 77b, and the like can be considered. In any of these methods, it is preferable in terms of operability to cyclically change the zoom ratio.

【0059】3D表示モードにおいては、上述の立体カ
メラ41a〜41dのうちの、後述する方法によって選
択されたカメラの映像が表示される。このモードでは、
表示装置70において両眼のそれぞれに対応して設けら
れた液晶パネル81が、立体カメラの右側用カメラ1a
および左側用カメラ1bそれぞれの映像信号によって独
立に駆動される。そのため、観客は、立体カメラ41a
〜41dにおいて適切にズーミングがなされた画面を、
立体的に見ることができる。
In the 3D display mode, an image of a camera selected by the method described later among the stereo cameras 41a to 41d is displayed. In this mode,
The liquid crystal panel 81 provided for each of the two eyes in the display device 70 is a right camera 1a of the stereoscopic camera.
And the left camera 1b are independently driven by the video signals. For this reason, the audience will see the stereoscopic camera 41a.
Screens that have been properly zoomed in ~ 41d,
Can be seen in three dimensions.

【0060】この表示装置70を装着した観客は、表示
装置70の弦71に設けられたスイッチ77cによっ
て、スタジアム40における観客の仮想的な位置を選択
することができる。表示装置70に受信された信号は、
上述したように、多重化されている。このスイッチ77
cを切り換えることによってこの多重化された信号の中
から、カメラ41a〜41d,およびカメラ42a〜4
2dのうち希望のカメラ位置の信号を選択することで、
この仮想的な位置の選択がなされる。選択された位置
は、状況表示部81に表示される。この例では、この観
客は、状況表示部81中のスタジアムの全体表示におけ
る上側で表される場所に、仮想的に位置していることが
示されている。
A spectator wearing the display device 70 can select a virtual position of the spectator in the stadium 40 by a switch 77c provided on the string 71 of the display device 70. The signal received by the display device 70 is
As described above, they are multiplexed. This switch 77
c, the cameras 41a to 41d and the cameras 42a to 4d are selected from the multiplexed signals.
By selecting the signal of the desired camera position from 2d,
This virtual position is selected. The selected position is displayed on the status display section 81. In this example, it is shown that the spectator is virtually located at a location represented on the upper side in the overall display of the stadium in the status display section 81.

【0061】また、この表示装置70を装着した観客
は、情報ウィンドウ82を表示させることができる。こ
の情報ウィンドウ82には、例えばサッカー中継を行う
この例では、選手の個人情報、チームの対戦成績など、
提供される様々な情報を表示させることができる。観客
は、情報ウィンドウ82に表示されるメニュー画面に従
い所定の方法で以て項目の指定などを行うことによっ
て、容易に表示させる情報の選択を行うことが可能とさ
れる。
A spectator wearing the display device 70 can display the information window 82. In this information window 82, for example, in this example of soccer relay, in this example, personal information of a player, a match result of a team, and the like are displayed.
Various information provided can be displayed. The spectator can easily select information to be displayed by designating items in a predetermined manner according to a menu screen displayed in the information window 82.

【0062】この情報ウィンドウ82の表示/非表示の
切り換えや項目指定などの操作は、例えば表示装置70
に対して細いケーブルで接続されたリモートコントロー
ラによって行うことができる。このコントローラには、
例えば所謂十字キーを設けると、快適に操作を行うこと
ができる。勿論、赤外線などによるワイヤレスのリモー
トコントローラで行ってもよい。また、上述のスイッチ
77a,77b,および77cと同様に、弦71にスイ
ッチを設け、このスイッチによって操作するようにもで
きる。
The operation of switching the display / non-display of the information window 82 and designating items is performed by, for example, the display device 70.
Can be performed by a remote controller connected by a thin cable. This controller includes:
For example, when a so-called cross key is provided, the operation can be performed comfortably. Of course, it may be performed by a wireless remote controller using infrared rays or the like. Further, similarly to the above-described switches 77a, 77b, and 77c, a switch may be provided on the string 71 and operated by the switch.

【0063】さらに、この操作を、この装置70を装着
した観客の、例えば左右何方かの目のウィンク、また、
このウィンクの組み合わせに基づいて行うことも可能で
ある。これは、この装置70の内側、すなわち目の側
に、眼球に影響を与えない程度の微弱な赤外線を発光す
る赤外線発光器および赤外線検出器を設け、瞼の部分と
眼球との赤外線の反射率の差などを検出することによっ
て、ウィンクなどの目や瞼の動きを検出することで実現
することができる。
Further, this operation is performed by, for example, winking one of the left and right eyes of the spectator wearing the device 70,
It is also possible to perform based on this combination of winks. This is because, inside the device 70, that is, on the side of the eyes, an infrared emitter and an infrared detector that emit weak infrared rays that do not affect the eyes are provided, and the reflectance of infrared rays between the eyelids and the eyes is provided. This can be realized by detecting the movement of the eyes and eyelids such as winks by detecting the difference between them.

【0064】なお、上述の説明では、この発明は、実況
中継の別スタジアムによる観戦に用いられるとしたが、
勿論、これはこの例に限定されるものではない。例え
ば、この発明による立体カメラで以て撮影された映画を
劇場で鑑賞する場合にも適用可能なものである。
In the above description, it is assumed that the present invention is used for watching live games from another stadium.
Of course, this is not limited to this example. For example, the present invention is also applicable to a case where a movie shot by the stereoscopic camera according to the present invention is viewed in a theater.

【0065】[0065]

【発明の効果】以上説明したように、この発明によれ
ば、立体映像を撮影するための2つのカメラが適切な配
置とされているために、ズーミングをした場合でも正確
な立体感を再現することができる効果がある。
As described above, according to the present invention, since the two cameras for capturing a stereoscopic video are properly arranged, an accurate stereoscopic effect can be reproduced even when zooming is performed. There is an effect that can be.

【0066】また、この発明の応用例では、実際に競技
などが行われているスタジアムに居なくても、そのスタ
ジアムの最良位置からの観戦が可能とされ、また観戦場
所が予め用意された別のスタジアムである場合には、他
の観客との一体感などまで感じ取ることができ、臨場感
あふれる観戦を行うことができる効果がある。
Further, according to the application of the present invention, it is possible to watch the game from the best position of the stadium without being in the stadium where the competition is actually being performed, and to prepare a separate watching place. In the case of the stadium, it is possible to sense a sense of unity with other spectators, and thus, it is possible to perform a realistic watching game.

【0067】さらに、別のスタジアムにおいて臨場感あ
ふれる観戦が可能とされるため、実際に競技が行われる
スタジアムの収容人数に捕らわれずに、より多くの人が
競技を楽しむことができるという効果がある。
Further, since it is possible to watch a game with a sense of reality at another stadium, there is an effect that more people can enjoy the game without being caught by the capacity of the stadium where the game actually takes place. .

【0068】また、この発明の応用例においては、テレ
ビジョン放映のような流れに沿った観戦と、見る者の意
思による、主体的に視点を変えてなされる観戦の両方を
楽しむことができるため、通常のスタジアムでの観戦よ
りも魅力ある観戦を楽しむことができる効果がある。
Also, in the application of the present invention, it is possible to enjoy both watching along a flow like television broadcasting and watching the game by changing the viewpoint independently by the viewer's intention. There is an effect that a more attractive watching game can be enjoyed than watching a normal stadium.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明による立体カメラの原理を概略的に示
す略線図である。
FIG. 1 is a schematic diagram schematically showing the principle of a stereoscopic camera according to the present invention.

【図2】この発明による立体カメラの原理を概略的に示
す略線図である。
FIG. 2 is a schematic diagram schematically showing the principle of a stereoscopic camera according to the present invention.

【図3】説明に用いられる各変数および固定値について
の定義を行うための略線図である。
FIG. 3 is a schematic diagram for defining each variable and fixed value used in the description.

【図4】2台のカメラから成る視差を示す略線図であ
る。
FIG. 4 is a schematic diagram illustrating parallax composed of two cameras.

【図5】2台のカメラからなる立体カメラのより具体的
な構成例を示す略線図である。
FIG. 5 is a schematic diagram illustrating a more specific configuration example of a stereoscopic camera including two cameras.

【図6】2台のカメラの光軸の成す角θおよび光軸の開
始点間の距離lについて示す略線図である。
FIG. 6 is a schematic diagram illustrating an angle θ between optical axes of two cameras and a distance 1 between start points of the optical axes.

【図7】立体カメラを構成する2台のカメラの位置およ
び角度を制御するための構成の一例を示すブロック図で
ある。
FIG. 7 is a block diagram showing an example of a configuration for controlling the positions and angles of two cameras constituting the stereoscopic camera.

【図8】この発明による立体カメラの応用例について説
明するための図であり、立体カメラをスタジアムに設置
し、このスタジアムにおいて行われる競技の実況中継を
行う例をを示す略線図である。
FIG. 8 is a diagram for explaining an application example of the stereoscopic camera according to the present invention, and is a schematic diagram illustrating an example in which a stereoscopic camera is installed in a stadium and a live broadcast of a competition performed in the stadium is performed.

【図9】観客が有する受信システムの、携帯用立体映像
表示装置の一例を示す略線図である。
FIG. 9 is a schematic diagram illustrating an example of a portable stereoscopic image display device of a receiving system of an audience.

【図10】付属信号処理器の構成の一例を示す略線図で
ある。
FIG. 10 is a schematic diagram illustrating an example of a configuration of an attached signal processor.

【図11】箱体内に構成された光学系を概略的に示す略
線図である。
FIG. 11 is a schematic diagram schematically showing an optical system configured in a box body.

【図12】携帯用立体映像表示装置における表示の例を
示す略線図である。
FIG. 12 is a schematic diagram illustrating an example of display on the portable stereoscopic image display device.

【図13】従来技術による立体カメラの原理を概略的に
示す略線図である。
FIG. 13 is a schematic diagram schematically illustrating the principle of a stereoscopic camera according to the related art.

【図14】従来技術による立体カメラの原理を概略的に
示す略線図である。
FIG. 14 is a schematic diagram schematically showing the principle of a conventional stereoscopic camera.

【符号の説明】[Explanation of symbols]

1a,1b・・・カメラ、3a,3b・・・肉眼、2,
4,5,6・・・被写体、40,60・・・スタジア
ム、41a〜41d・・・立体カメラ、42a〜42d
・・・高解像度カメラ、70・・・携帯用立体映像表示
装置、80・・・表示画面、81・・・状況表示部、8
2・・・情報ウィンドウ、90・・・付属信号処理器、
D・・・立体カメラから被写体までの距離、d・・・仮
想的な肉眼位置から被写体までの距離、Ed ・・・両眼
の間隔、l・・・立体カメラを構成する2つのカメラの
光軸の開始点の間隔、Z・・・ズーム率、θ・・・立体
カメラを構成する2つのカメラの光軸の成す角
1a, 1b: camera, 3a, 3b: naked eye, 2,
4, 5, 6: subject, 40, 60: stadium, 41a to 41d: stereoscopic camera, 42a to 42d
... High resolution camera, 70 ... Portable stereoscopic image display device, 80 ... Display screen, 81 ... Status display section, 8
2 ... information window, 90 ... attached signal processor,
D · · · distance from the stereoscopic camera to an object, d · · · distance from hypothetical gross position to the object, E d · · · distance between both eyes, l · · · of the two cameras constituting the stereo camera The distance between the starting points of the optical axis, Z: the zoom ratio, θ: the angle between the optical axes of the two cameras constituting the stereoscopic camera

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 ズーミングが可能で、被写体を立体的に
撮影する立体カメラにおいて、 右目側の撮影を行う第1のカメラと、 左目側の撮影を行う第2のカメラと、 被写体と仮想的な右目の位置とを結ぶ第1の線の延長上
に、上記第1の線と光軸を合わせて上記第1のカメラが
配置され、上記目標点と上記右目と対の仮想的な左目の
位置とを結ぶ第2の線の延長上に、上記第2の線と光軸
を合わせて上記第2のカメラが配置されるように、上記
第1および第2のカメラの位置および角度を所定の関係
に制御する制御手段とを有し、 ズーミングによって上記被写体と上記仮想的な右目およ
び左目との距離が変化しても、上記所定の関係が保たれ
ることを特徴とする立体カメラ。
1. A stereo camera capable of zooming and stereoscopically photographing a subject, comprising: a first camera for photographing the right eye side, a second camera for photographing the left eye side, and a virtual The first camera is arranged on an extension of the first line connecting the position of the right eye and the optical axis with the first line, and the position of the virtual left eye paired with the target point and the right eye The position and angle of the first and second cameras are set to predetermined positions so that the second camera is arranged on the extension of the second line connecting Control means for controlling the relationship, wherein the predetermined relationship is maintained even if the distance between the subject and the virtual right and left eyes changes due to zooming.
【請求項2】 請求項1に記載の立体カメラにおいて、 上記被写体を追尾する追尾手段をさらに有することを特
徴とする立体カメラ。
2. The three-dimensional camera according to claim 1, further comprising tracking means for tracking the subject.
【請求項3】 請求項1に記載の立体カメラにおいて、 上記被写体の移動の速度に応じて上記第1および第2の
カメラのズーム率を自動的に選択することを特徴とする
立体カメラ。
3. The three-dimensional camera according to claim 1, wherein a zoom ratio of the first and second cameras is automatically selected according to a moving speed of the subject.
【請求項4】 請求項1に記載の立体カメラにおいて、 上記第1および第2のカメラのうち何方か一方を基準カ
メラとし、上記一方のカメラと異なる他方のカメラの制
御を上記基準カメラの制御に基づき行うことを特徴とす
る立体カメラ。
4. The three-dimensional camera according to claim 1, wherein one of the first and second cameras is set as a reference camera, and the other camera different from the one camera is controlled by the reference camera. Stereoscopic camera characterized in that it is performed on the basis of:
【請求項5】 第1の場所から第2の場所へとビデオ映
像を伝送するビデオ映像伝送システムにおいて、 第1の場所の複数の箇所にそれぞれ配置される複数台の
カメラと、 上記第1の場所の複数の箇所にそれぞれ配置される複数
台の立体的な撮影が可能な立体カメラと、 上記複数台のカメラおよび映像信号と上記複数台の立体
カメラのそれぞれの映像信号を多重化する多重化手段
と、 上記多重化信号を、第2の場所に伝送する第1の伝送手
段と、 上記第2の場所に存在する1または複数の観客がそれぞ
れ有する携帯可能な立体映像表示手段と、 上記第2の場所に配置され、上記多重化信号を受信する
受信手段と、 上記受信された多重化信号を上記立体映像表示手段に伝
送する第2の伝送手段とを有し、 上記立体映像表示手段は、上記多重化信号を上記それぞ
れの映像信号に分離し、該それぞれの映像信号の中から
必要な上記映像信号を選択可能とされていることを特徴
とするビデオ映像伝送システム。
5. A video image transmission system for transmitting a video image from a first place to a second place, comprising: a plurality of cameras respectively arranged at a plurality of places of the first place; A plurality of three-dimensional cameras capable of three-dimensional imaging arranged at a plurality of places in the place; and a multiplexing unit for multiplexing the plurality of cameras and the video signal and the video signals of the plurality of three-dimensional cameras. Means, first transmission means for transmitting the multiplexed signal to a second location, portable three-dimensional video display means each of one or more spectators present at the second location, 2, a receiving unit that receives the multiplexed signal, and a second transmitting unit that transmits the received multiplexed signal to the stereoscopic video display unit, wherein the stereoscopic video display unit is , Above multiplex Video transmission system, characterized in that the signal is separated into the respective video signal, there is a the video signal required from the said respective video signal can be selected.
【請求項6】 請求項5に記載のビデオ映像伝送システ
ムにおいて、 上記立体映像表示手段に対して所定の情報の供給および
上記立体映像表示手段の管理を行う管理手段と、 上記立体映像表示手段と上記管理手段との間で通信を行
う通信手段とをさらに有することを特徴とするビデオ映
像伝送システム。
6. The video image transmission system according to claim 5, wherein said stereoscopic image display means supplies predetermined information to said stereoscopic image display means and manages said stereoscopic image display means. A video image transmission system, further comprising communication means for communicating with the management means.
【請求項7】 請求項5に記載のビデオ映像伝送システ
ムにおいて、 上記立体映像表示手段は、上記映像信号による映像と上
記選択情報とを多重して表示することを特徴とするビデ
オ映像伝送システム。
7. The video image transmission system according to claim 5, wherein said stereoscopic image display means multiplexes and displays an image based on said image signal and said selection information.
【請求項8】 請求項5に記載のビデオ映像伝送システ
ムにおいて、 上記立体映像表示手段は、上記映像信号による映像と上
記所定の情報に基づく表示とを多重して表示することを
特徴とするビデオ映像伝送システム。
8. The video image transmission system according to claim 5, wherein said stereoscopic image display means multiplexes and displays an image based on said image signal and a display based on said predetermined information. Video transmission system.
【請求項9】 請求項7または請求項8に記載のビデオ
映像伝送システムにおいて、 上記立体映像表示手段は、該立体映像表示手段を装着し
た人間の目の動きを検出する検出手段をさらに有し、 上記映像信号による映像に多重される表示は、上記検出
結果に基づきなされることを特徴とするビデオ映像伝送
システム。
9. The video image transmission system according to claim 7, wherein the three-dimensional image display means further includes a detection means for detecting a movement of a human eye wearing the three-dimensional image display means. The video image transmission system, wherein the display multiplexed on the image based on the image signal is performed based on the detection result.
JP24561896A 1996-08-28 1996-08-28 Stereoscopic camera and video transmission system Pending JPH1070740A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24561896A JPH1070740A (en) 1996-08-28 1996-08-28 Stereoscopic camera and video transmission system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24561896A JPH1070740A (en) 1996-08-28 1996-08-28 Stereoscopic camera and video transmission system

Publications (1)

Publication Number Publication Date
JPH1070740A true JPH1070740A (en) 1998-03-10

Family

ID=17136378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24561896A Pending JPH1070740A (en) 1996-08-28 1996-08-28 Stereoscopic camera and video transmission system

Country Status (1)

Country Link
JP (1) JPH1070740A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010035413A1 (en) * 2008-09-24 2010-04-01 富士フイルム株式会社 Three-dimensional imaging device, method, and program
JP2011082999A (en) * 2010-11-04 2011-04-21 Fujifilm Corp Three-dimensional photographing device and method, and program
WO2011121920A1 (en) * 2010-03-30 2011-10-06 パナソニック株式会社 Imaging control device, immersion position information generation device, imaging control method, immersion position information generation method
KR101088364B1 (en) 2010-02-24 2011-12-02 연세대학교 산학협력단 Apparatus and methods for capturing 3D images with dolly-effect zoom capability
WO2014077046A1 (en) * 2012-11-13 2014-05-22 ソニー株式会社 Image display device and image display method, mobile body device, image display system, and computer program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010081010A (en) * 2008-09-24 2010-04-08 Fujifilm Corp Three-dimensional imaging device, method and program
JP4625515B2 (en) * 2008-09-24 2011-02-02 富士フイルム株式会社 Three-dimensional imaging apparatus, method, and program
WO2010035413A1 (en) * 2008-09-24 2010-04-01 富士フイルム株式会社 Three-dimensional imaging device, method, and program
US8294711B2 (en) 2008-09-24 2012-10-23 Fujifilm Corporation Device, method, and program for three-dimensional imaging by reducing or eliminating parallax during a zoom operation
KR101088364B1 (en) 2010-02-24 2011-12-02 연세대학교 산학협력단 Apparatus and methods for capturing 3D images with dolly-effect zoom capability
JP5607146B2 (en) * 2010-03-30 2014-10-15 パナソニック株式会社 Imaging control apparatus, immersive position information generating apparatus, imaging control method, and immersive position information generating method
WO2011121920A1 (en) * 2010-03-30 2011-10-06 パナソニック株式会社 Imaging control device, immersion position information generation device, imaging control method, immersion position information generation method
CN102823231A (en) * 2010-03-30 2012-12-12 松下电器产业株式会社 Imaging control device, immersion position information generation device, imaging control method, immersion position information generation method
JP2014209768A (en) * 2010-03-30 2014-11-06 パナソニック株式会社 Immersion position information generation method
US9167134B2 (en) 2010-03-30 2015-10-20 Panasonic Intellectual Property Managment Co., Ltd. Imaging control device, immersion position information generation device, imaging control method, immersion position information generation method
EP2555506A4 (en) * 2010-03-30 2017-05-31 Panasonic Intellectual Property Management Co., Ltd. Imaging control device, immersion position information generation device, imaging control method, immersion position information generation method
JP2011082999A (en) * 2010-11-04 2011-04-21 Fujifilm Corp Three-dimensional photographing device and method, and program
WO2014077046A1 (en) * 2012-11-13 2014-05-22 ソニー株式会社 Image display device and image display method, mobile body device, image display system, and computer program
JPWO2014077046A1 (en) * 2012-11-13 2017-01-05 ソニー株式会社 Image display device and image display method, mobile device, image display system, and computer program
US10108018B2 (en) 2012-11-13 2018-10-23 Sony Corporation Image display apparatus for displaying an image captured by a mobile apparatus

Similar Documents

Publication Publication Date Title
AU761950B2 (en) A navigable telepresence method and system utilizing an array of cameras
US6034716A (en) Panoramic digital camera system
US6522325B1 (en) Navigable telepresence method and system utilizing an array of cameras
US7224382B2 (en) Immersive imaging system
EP3432590A1 (en) Display device and information processing terminal device
JP4378118B2 (en) 3D image presentation device
US7477284B2 (en) System and method for capturing and viewing stereoscopic panoramic images
US6836286B1 (en) Method and apparatus for producing images in a virtual space, and image pickup system for use therein
US6487012B1 (en) Optically multiplexed hand-held digital binocular system
EP1224798A2 (en) Method and system for comparing multiple images utilizing a navigable array of cameras
US20020034004A1 (en) Optically multiplexed hand-held digital binocular system
JP2007501950A (en) 3D image display device
JPH07184115A (en) Picture display device
RU2397524C2 (en) Camera for recording three-dimensional images
JPH1070740A (en) Stereoscopic camera and video transmission system
JPH086158A (en) Projection type display device
CN210605808U (en) Three-dimensional image reconstruction system
JP3386082B2 (en) Viewfinder in imaging equipment
JP2986659B2 (en) Stereoscopic image imaging and display system
JP2002142233A (en) Picture supply device and picture supply method for supplying stereoscopic picture, reception device and reception method and system and method for supplying stereoscopic picture
JP2001112024A (en) Multiple-lens stereoscopic photographing display device
JPH03226198A (en) Stereoscopic picture display device
JP5719754B2 (en) Apparatus and method for capturing and displaying stereoscopic panoramic images
JP2002027419A (en) Image terminal device and communication system using the same
JP3139100B2 (en) Multipoint image communication terminal device and multipoint interactive system