JPH08186845A - Focal distance controlling stereoscopic-vision television receiver - Google Patents

Focal distance controlling stereoscopic-vision television receiver

Info

Publication number
JPH08186845A
JPH08186845A JP6336983A JP33698394A JPH08186845A JP H08186845 A JPH08186845 A JP H08186845A JP 6336983 A JP6336983 A JP 6336983A JP 33698394 A JP33698394 A JP 33698394A JP H08186845 A JPH08186845 A JP H08186845A
Authority
JP
Japan
Prior art keywords
lens
focal length
variable focal
stereoscopic
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6336983A
Other languages
Japanese (ja)
Inventor
Nobuaki Yanagisawa
柳沢信秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP6336983A priority Critical patent/JPH08186845A/en
Publication of JPH08186845A publication Critical patent/JPH08186845A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE: To form the stereoscopic-vision television receiver with one channel in accordance with the NTSC standards without use of an eyeglass by using a lens whose focal distance is varied by electrons for all pixels of the television receiver and controlling a virtual vision of the pixcels with respect to all pixels. CONSTITUTION: A stereoscopic vision is obtained basically by controlling a virtual vision appearing in the vertical and horizontal directions by a projection lens or a concave mirror. That is, a focal distance variable lens whose focal distance is varied by electrons is used for all pixels of the television receiver to control a virtual vision of each picture element with respect to all the pixels. For the purpose of it, distance information is to be added to an NTSC signal. The detailed highs and lows of all small pixels are controlled based on the information and one virtual vision is formed through vision forming. Then a side visual sight is obtained through the combinations of large sized concaved and convex lenses. Furthermore, one channel is enough for the purpose, the NTSC stereoscopic-vision television receiver without eyeglass and taking over the existing signal is realized.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】レンズ産業に於けるフォーカス制
御の方式に関する。テレビを代表とするブラウン管映像
機器類の立体映像化。また、3次元情報を撮影する時の
物体までの距離情報を計測する方法に関する。
[Field of Industrial Application] A focus control method in the lens industry. 3D visualization of CRT image devices such as TV. The present invention also relates to a method of measuring distance information to an object when capturing three-dimensional information.

【0002】[0002]

【従来の技術】立体視の効果を動映像に於いて得るため
の方式で今までに実用化した報告があったのは大きく分
けて3種類程上げられる。そのうちの2つは左右の目の
視差を利用したもの、もう一つは光の干渉を利用したも
のである。前者の2つは、眼鏡を使うタイプの偏向テレ
ビとレンティキュラーレンズを用いたレンティキュラー
テレビ、後者のタイプは一般にホログラフィーと呼ばれ
る立体映像の技術である。これら3種の技術については
それぞれに立体映像を得る装置として実用化されている
が、それぞれに異なる短所を持っているのが実情で、そ
の短所故に一般化が遅れている。偏向テレビの短所と
は、偏向レンズを左右に垂直交差配置した偏向メガネを
かけなければ立体視できないというのがある。偏向レン
ズはサングラスにも応用されている通り光をあまり透過
しないので、いつも装着していることは違和感であるゆ
えに基本的にテレビを見るときにだけ偏向メガネをかけ
るかたちとなる。メガネが無いときには、左右の目への
分光がない状態なので、画面は2重画像のゴースト状態
として見える。よって、第3者はテレビが見にくいなど
の不便性があるという短所が上げられている。そして、
両目の視差により浮き出して見えても、実際の発光点は
違う焦点距離なので焦点が合わないことによる目への健
康的な害があるかもしれないとの報告もある。目下、劇
場や博物館の資料ビデオや、コンピュータゲームなどに
普及している。レンティキュラーテレビに関しては、メ
ガネは使わないものの、左右の目への分光を非常に小型
なレンズで直接行っているため広角視野を確保できない
という短所がある。また、小型レンズによる分光の際に
は、その個々のレンズの大部分が人間のいるところを狙
っていなければならない。つまり、テレビの右端のレン
ズと左端のレンズが発する光の交点に人間が居るように
しなければ、光の左右分光は成立しない。左右分光する
ためには機械が人間をおいかけてレンズの向きを変える
か、人間が動かずに毎回固定した位置で見なければなら
ない。現在実用化が目指されている技術では、多数の画
像チャンネルを駆使し、広角視野を実現したが、テレビ
から離れ過ぎたり近すぎたりすると画像は惚けるという
欠点がある。目下、テレビ電話やゲーム装置などへの応
用が検討されている。ホログラフィー技術については、
その情報量の莫大による電波輸送の不能性、同様にビデ
オテープに収録できないなどがある。また規格相違によ
る現放送方式後継不能も欠点である。方式に関して、撮
影においては暗い所でレーザーを照射しなければならな
いなどによる屋外撮影不能、そして動画撮影困難、同じ
く再生の時にもレーザーを使用しなければならない高コ
ストの短所もある。また、レーザーは現在赤緑青なる3
原色を表現できないので完全なカラーは記録、再生、共
にできないなどがある。目下のところ動画では実用化さ
れておらず、立体的な静止写真として壁掛けなどへの応
用が成されている。
2. Description of the Related Art There are three types of reports that have been put to practical use so far as methods for obtaining the effect of stereoscopic vision in moving images. Two of them utilize the parallax of the left and right eyes, and the other utilizes the interference of light. The former two are polarization televisions using glasses and lenticular televisions using lenticular lenses, and the latter two are stereoscopic image technologies generally called holography. These three types of technologies have been put into practical use as devices for obtaining stereoscopic images, but in reality, they have different shortcomings, and due to these shortcomings, generalization has been delayed. The disadvantage of polarized television is that it cannot be viewed stereoscopically without the use of polarizing glasses in which the polarizing lenses are vertically crossed. Since the deflection lens does not transmit much light as it is applied to sunglasses, it is uncomfortable to wear it at all times, so you basically wear deflection glasses only when you watch TV. When there is no glasses, the screen appears as a ghost image of a double image because there is no spectral distribution to the left and right eyes. Therefore, the third party has an inconvenience that it is difficult to watch television. And
There is also a report that even if it appears to be raised due to the parallax of both eyes, the actual light emitting point has a different focal length, so there may be a health hazard to the eyes due to lack of focus. Currently, it is widely used in documentary videos in theaters and museums and computer games. Lenticular TVs do not use glasses, but have the disadvantage that a wide-angle field of view cannot be secured because the light is split into the left and right eyes directly with a very small lens. In addition, most of the individual lenses must be aimed at a human being when the light is split by a small lens. In other words, the left-right spectrum of light cannot be established unless a person is present at the intersection of the light emitted by the rightmost lens and the leftmost lens of the television. In order to split left and right, the machine has to cover the human being and change the direction of the lens, or the human must look at a fixed position each time without moving. The technology that is currently being put into practical use has achieved a wide-angle field of view by making full use of a large number of image channels, but it has a drawback in that the image can fall in love if it is too far or too close to the television. At present, application to videophones and game devices is being considered. For holography technology,
Due to the enormous amount of information, there is the impossibility of radio wave transport, and similarly, it cannot be recorded on video tape. Another drawback is that the current broadcasting system cannot be succeeded due to differences in standards. With regard to the method, there is also a disadvantage that it is impossible to shoot outdoors due to having to irradiate the laser in a dark place in shooting, and it is difficult to shoot a moving image, and similarly, the laser has to be used at the time of reproduction, which is a high cost. Also, the laser is now red green blue 3
Since it is not possible to express the primary colors, it is impossible to record, reproduce, or both complete colors. Currently, it has not been put to practical use in movies, but has been applied to wall hangings as a three-dimensional still photo.

【0003】立体放送化について考えてみると、規格共
通性が重要な事が分かる。白黒からカラーテレビになっ
た前後では双方の方式について同じ電波が採用され、規
格は共通していた。消費者を考慮すると、新製品とは従
来品と継続して使える事が必要条件である。同様に現行
のテレビ方式であるNTSCやビデオに関するVTRに
従った立体テレビでなければ立体放送化は困難である。
その時上記3方式をあてがえてみると、偏向テレビ、レ
ンティキュラーテレビはNTSC規格を継続しているが
2チャンネル分以上の情報量が必要である。ことにレン
ティキュラー型では、多くのチャンネルを使うほど、広
角視野を確保できる長所があるが、多くのチャンネルを
使用すると言う事は、ビデオで言うと2台以上無ければ
録画、再生できないことを意味する。ホログラフィーに
付いて言うと先に述べるとおり情報記録方式が現行方式
とあまりに違い過ぎるため、後継は困難である。
When considering the three-dimensional broadcasting, it is understood that the commonality of standards is important. Before and after changing from black and white to color TV, the same radio waves were adopted for both systems, and the standard was common. Considering consumers, the new product must be able to continue to be used as a conventional product. Similarly, stereoscopic broadcasting is difficult unless it is a stereoscopic television conforming to the current television system such as NTSC or VTR for video.
At that time, when applying the above-mentioned three systems, the deflection television and the lenticular television continue the NTSC standard, but the amount of information for two or more channels is required. In particular, the lenticular type has the advantage that a wider angle of view can be secured as more channels are used, but the fact that many channels are used means that video recording and playback cannot be done without two or more units. To do. With regard to holography, as mentioned above, the information recording method is too different from the current method, so it is difficult to succeed it.

【0004】立体情報を取り出すために、従来は2つの
カメラ並列して撮影することで行ってきた。それは左右
のカメラの画像からコンピュータを駆使して立体情報を
取り出す方法である。そのコンピュータ解析の方法は現
在様々な分野の研究発表がなされているが、相等量の画
像量となればその計算合成にもかなりの時間がかかるの
が現状である。
Conventionally, in order to extract stereoscopic information, two cameras have been used side by side for photographing. It is a method of extracting stereoscopic information from the images of the left and right cameras by making full use of a computer. Although the method of computer analysis has been presented in various fields at present, the present situation is that it takes a considerable amount of time for calculation and synthesis when the image quantity is equivalent.

【0005】[0005]

【発明が解決しようとする課題】従来のテレビと同様の
2次元画像が再生可能であり、必要な時に立体化する事
が要求される。また、偏向テレビにあるようなメガネは
使用せずに広角視野を可能とする方式が望ましい。そし
て、従来規格に共通するように情報の規格はNTSCで
あり、ビデオの規格もVTRのまま立体化し、回線も1
つのチャンネルで済む方式が実用に向けての課題であ
る。
A two-dimensional image similar to that of a conventional television can be reproduced, and it is required to make a three-dimensional image when necessary. Further, it is desirable to use a system that enables a wide-angle field of view without using glasses such as those used in a polarized television. The information standard is NTSC, which is common to the conventional standards, the video standard is three-dimensional with VTR, and the line is 1
A method that requires only one channel is a challenge for practical use.

【0006】[0006]

【課題を解決する手段】本発明による立体画像の基本的
な方法は、凸レンズ、または凹面鏡によって出来る上下
左右反対の浮き出してくる虚像(図1、図2)を制御す
ることによる。凸レンズの場合を用いて説明すると、レ
ンズの焦点距離が浮き出してくる虚像の位置を決定す
る。いま、凸レンズを通して一つの絵を見る(図1)と
する。その絵が虚像として焦点距離位置に映っていると
すると、人間はレンズによる上下左右反対の虚像が本物
であると錯覚するかも知れない。これは、絵が焦点まで
移動したのと同じ錯覚効果がある。つまり立体的に浮き
出して見えるのである。今、レンズを違う焦点距離のも
のと瞬間的に交換したならば、焦点距離が瞬間的に変化
したので同時に絵が瞬間的に移動したのと同じ錯覚を得
ることになる(図1と図2の違い)。もしも、高速で徐
々に違う焦点距離のレンズと交換したならば、絵の虚像
はレンズの違いによって、瞬間的に前後へ躍動している
立体映像のように振る舞う錯覚を作り出す。つまり、レ
ンズを取り替えるだけで虚像位置が変化する。仮に、焦
点距離を自在に制御できるレンズがあったならば自由に
立体的な浮き沈みを制御できるはずである。では、今度
は絵全体ではなくて絵の細分化した一つ一つの点がレン
ズを持っていたらどうなるだろうか。そして一つ一つの
レンズが自在に焦点距離を制御できるものだったら、絵
は立体化した平面だけではなく、凹凸のある実在に近い
立体虚像になる。その考えを絵ではなくてテレビに置き
換えるとテレビの画素の一つ一つが小さなレンズを持っ
ていて、それらが違う焦点距離のレンズに自在に制御、
交換できるなら、平面的な画像に立体的な虚像の制御に
よって、凹凸のある立体画像を再現するメガネのない立
体テレビとなる。だが、テレビの画素の数は約25万
個、実際にレンズを機械的な手法で各々交換する事は不
可能である。何か電気的な方法で瞬間的にレンズの焦点
距離を制御できる小形化の可能なレンズが必要である。
The basic method of the stereoscopic image according to the present invention is to control a virtual image (FIGS. 1 and 2) which is formed by a convex lens or a concave mirror and which is vertically and horizontally opposite to each other. Explaining with the case of a convex lens, the focal length of the lens determines the position of the virtual image that stands out. Now, let us look at one picture through a convex lens (Fig. 1). If the picture is reflected as a virtual image at the focal length position, humans may illusion that the virtual image up and down and left and right by the lens is real. This has the same illusion effect that the picture has moved to the focal point. In other words, it appears three-dimensionally. Now, if the lens is instantaneously replaced with one with a different focal length, the focal length will change instantaneously, and the same illusion that the picture has moved instantaneously will be obtained (Figs. 1 and 2). The difference of). If you replace the lens with a lens with a different focal length at high speed, the virtual image in the picture creates the illusion that it behaves like a stereoscopic image that momentarily vibrates back and forth. That is, the virtual image position changes only by replacing the lens. If there is a lens that can control the focal length freely, it should be possible to control three-dimensional ups and downs freely. Then, what happens if not the whole picture, but each subdivided point of the picture has a lens? And if each lens can control the focal length freely, the picture is not only a three-dimensional plane, but also a three-dimensional virtual image with unevenness that is close to reality. If you replace that idea with a TV rather than a picture, each pixel of the TV has a small lens, and they can be freely controlled by lenses with different focal lengths,
If it can be exchanged, it becomes a stereoscopic television without glasses that reproduces a stereoscopic image with unevenness by controlling a stereoscopic virtual image in a planar image. However, the number of pixels in a television is about 250,000, and it is impossible to actually replace each lens by a mechanical method. There is a need for a compact lens that can control the focal length of the lens instantaneously by some electrical method.

【0007】ここに焦点距離を自由に変える事のできる
焦点距離可変レンズを考案する(図5、図6)。このレ
ンズは凸レンズから凹レンズへと変化するように湾曲し
た非球面レンズであり、覗く位置に応じて凸レンズから
凹レンズへと無段階に変化する事が可能である。凸レン
ズとして使用する時には湾曲したレンズの凸レンズの部
分を使って覗けば良い。その光学系特性は図7及び、図
8に従う。図8によると、入力する光束の幅daに比例
する出力の収差dfが生じる。つまり、入力が例え点光
源からのものであっても、出力光は一点で収束せずに収
差が確認される。それは、入力の光束の幅daの間にレ
ンズの焦点距離がdf分変化するようにレンズの湾曲率
がdf分変化しているためである。その収差の大きさを
プラスdfとするならば、別のレンズを使用して収差マ
イナスdfの湾曲を人工的に始めから作っておき、合成
すれば(−df)+df=0となり、補正は完了する。
つまり、補正レンズさえあれば、完全に凹レンズから凸
レンズへと無段階に変化する収差のない焦点距離可変レ
ンズとなる(図9、図10、図11)。結果、点光源か
らの焦点も一点に集まる。
Here, a variable focal length lens whose focal length can be freely changed is devised (FIGS. 5 and 6). This lens is an aspherical lens that is curved so as to change from a convex lens to a concave lens, and can be changed steplessly from a convex lens to a concave lens according to the position to look into. When using it as a convex lens, look through the convex lens part of the curved lens. The characteristics of the optical system are as shown in FIGS. 7 and 8. According to FIG. 8, an output aberration df proportional to the width da of the input light beam occurs. That is, even if the input is from a point light source, the output light does not converge at one point, and aberration is confirmed. This is because the curvature of the lens changes by df so that the focal length of the lens changes by df within the width da of the input light beam. If the magnitude of the aberration is set to plus df, another lens is used to artificially create a curve of minus df, and if combined, (-df) + df = 0, and the correction is completed. To do.
In other words, if there is a correction lens, it becomes a variable focal length lens that does not change steplessly from a concave lens to a convex lens (FIGS. 9, 10 and 11). As a result, the focus from the point light source is also concentrated at one point.

【0008】焦点距離可変レンズを小形化し、裏側に赤
緑青の画素と組み合わせると、画素を点光源とする、焦
点距離可変画素となる。この画素は、電子を当てるとそ
こが蛍光塗料に反応して発光しそれを点光源として座標
に応じて色彩と焦点距離を変化させ、従来のRGB(赤
青緑)の機能に立体機能を加えた素子となる。また、前
項において述べるような収差補正を行い、収差補正レン
ズを組み合わせると図9、図10となり、特性は図11
のようになる。この焦点距離可変画素群をNTSCテレ
ビと同じ25万個以上並列し、テレビと同じように使用
する(図13、図14、図15)。レンズを並列する方
法は、アクリルなどの板に製版する方法が考えられる。
また、焦点距離可変レンズと収差補正レンズとの組み合
わせにより、図15に示すようなタイプ又は、合成型の
図16、図17に示すタイプに分かれる。次に、レンズ
をテレビ応用したブラウン管として考えていくと、すべ
ての25万個以上の画素から出た光の束は、それぞれ次
の収差補正レンズを通り、焦点距離可変レンズを通過し
てから出て行く形を取る。制御方法としては、信号から
考えると立体度を決める距離情報dを加えた信号を与え
なくてはならない。それは、従来のNTSC規格信号の
赤緑青(RGB)なる情報と同じ数の平行した信号であ
る。つまり、赤緑青距離d(RGBD)のように合成し
て表記される。その立体情報を含んだ信号は、カラー情
報だけは従来規格と同様に赤緑青の電子銃から制御され
るが、距離d信号のみ別方法の制御方法を取る。それ
は、垂直同期に乗せる方法である。今、信号の一つがブ
ラウン管制御部に赤緑青と距離dの合成波として加わる
とする。次に定められた座標に走査線が来て電子銃から
その赤緑青の情報の大きさ分電子を放出したとする。そ
の電子放出のタイミングに合わせて垂直同期偏向板に距
離dの電圧を乗せる。電子が画素に衝突する垂直座標は
距離d電圧の上下に比例する。つまり、焦点距離可変レ
ンズに入射する光束が距離d電圧に比例する。よって距
離d電圧に比例して出力光束の焦点が制御される。その
方法で、画素はカラー表現と立体度の表現を可能とす
る。以上の立体的な変換工程を全画素においてNTSC
規格として行う。
When the variable focal length lens is downsized and combined with the red, green and blue pixels on the back side, a variable focal length pixel is formed by using the pixel as a point light source. This pixel responds to fluorescent paint when it hits an electron, emits light, and uses it as a point light source to change the color and focal length according to the coordinates, adding a stereoscopic function to the conventional RGB (red, blue, and green) function. It becomes an element. When aberration correction as described in the previous section is performed and an aberration correction lens is combined, the results are as shown in FIGS.
become that way. This variable focal length pixel group is arranged in parallel with the same 250,000 or more NTSC televisions and used in the same manner as a television (FIGS. 13, 14, and 15). As a method of arranging the lenses in parallel, a method of making a plate on a plate such as acrylic can be considered.
Further, depending on the combination of the variable focal length lens and the aberration correction lens, it is divided into the type shown in FIG. 15 or the combined type shown in FIGS. Next, considering the lens as a cathode ray tube applied to a television, the bundles of light emitted from all 250,000 or more pixels pass through the following aberration correction lenses, respectively, and then pass through the variable focal length lens. Take the form of going. As a control method, it is necessary to give a signal to which distance information d that determines the stereoscopic degree is added in view of the signal. It is the same number of parallel signals as the information of red, green, blue (RGB) of the conventional NTSC standard signal. In other words, it is represented by combining like the red-green-blue distance d (RGBD). Regarding the signal containing the stereoscopic information, only the color information is controlled by the red, green and blue electron guns as in the conventional standard, but only the distance d signal is controlled by another method. It is a method to add to vertical synchronization. Now, it is assumed that one of the signals is added to the cathode ray tube control unit as a composite wave of red green blue and the distance d. Next, it is assumed that the scanning line comes to the predetermined coordinates and the electrons are emitted from the electron gun by the amount of red, green, and blue information. A voltage of distance d is applied to the vertical synchronous deflection plate in accordance with the timing of electron emission. The vertical coordinate at which the electrons strike the pixel is proportional to the distance d above and below the voltage. That is, the luminous flux incident on the variable focal length lens is proportional to the distance d voltage. Therefore, the focus of the output light beam is controlled in proportion to the distance d voltage. In that way, pixels allow for color and stereoscopic representations. The above three-dimensional conversion process is applied to all pixels in NTSC.
Perform as a standard.

【0009】焦点距離可変画素は単体では小さく、それ
により制御される焦点距離の変化もまた非常に小さなも
のである。つまり、立体と呼ぶには光束はあまりに細く
広角視野は不能で、立体的とも言いにくい程度にすぎな
い。よって、視野的にも距離的にも拡大する必要があ
る。つまり、立体的であるが微小な光束を、トランジス
ターのように増幅する事で、立体的に拡大された広角視
野の光束にしたい。そこで、テレビ全体を覆うように凹
レンズと凸レンズを組み合わせた、または凸レンズのみ
を被せる構造を取ることにより、小さなレンズからの情
報を拡大(図12)して出力する工夫をする(図13、
図14)。つまり、焦点距離可変画素によって作られる
立体は、ミクロな入力光学系であり、実際に人間に見え
るようにするために、拡大するマクロな出力光学系との
2つの関係に分けて考える工夫をする。 また、今まで
と同じ2次元のテレビとして楽しみたいときには今まで
と同じになるように切り替える事が要求される。また、
構造的に立体的となるほど広角視野は不能となるが、逆
に平面的になるほど広角視野を確保可能となる。そこ
で、焦点距離可変画素の制御を行う垂直同期に含まれた
距離情報dの振幅をボリュームで調節して電圧変化を抑
制すればよい。つまり、大立体度で見ようとすると距離
情報dの電圧振幅を最大にする。その時可視範囲は狭い
が、逆にボリュームを最低にして距離情報dの振幅を零
に近くすれば平面画像となり、見る人の希望によって調
節を可能とする。
The variable focal length pixel is small by itself, and the change in the focal length controlled thereby is also very small. In other words, the light flux is too thin to be called a solid, and a wide-angle field of view cannot be obtained, and it is difficult to say that it is stereoscopic. Therefore, it is necessary to enlarge both the field of view and the distance. In other words, we want to make a three-dimensional but minute light beam into a three-dimensionally expanded light beam with a wide-angle field of view by amplifying it like a transistor. Therefore, by devising a structure in which a concave lens and a convex lens are combined so as to cover the entire television, or a structure in which only the convex lens is covered, the information from the small lens is enlarged (FIG. 12) and output (FIG. 13,
(Fig. 14). In other words, the solid body created by the variable focal length pixels is a micro input optical system, and in order to make it actually visible to humans, devise it by dividing it into two relationships with the macro output optical system that expands. . Also, if you want to enjoy the same two-dimensional television as before, you need to switch to the same as before. Also,
A wider-angle view becomes impossible as the structure becomes three-dimensional, but a wider-angle view becomes possible as the plane becomes conversely. Therefore, it suffices to suppress the voltage change by adjusting the amplitude of the distance information d included in the vertical synchronization for controlling the variable focal length pixel with the volume. In other words, the voltage amplitude of the distance information d is maximized when trying to see with a large stereoscopic degree. At that time, the visible range is narrow, but conversely, if the volume is set to the minimum and the amplitude of the distance information d is made close to zero, a flat image is formed, and the adjustment can be made according to the wish of the viewer.

【0010】次に立体画像を得るための立体カメラにつ
いての提案は2種類上げられる。それらはすべてVTR
規格上で記録される種類のカメラであり、必要な情報量
距離dデータを撮影する方法である。一つは赤外線を用
いて行うもので、フラッシュのようなパルス状態を繰り
返して距離データを得る。つまり、CCD基盤の上にR
GBと隣接して赤外線に反応するセルdを乗せて(図1
8)、赤外線を発光してから反射してCCDに帰ってく
るまでの時間を計測してその値に比例して距離データと
する。そのときの乱反射はもちろん予想されるので、平
均化回路が必要である。それらは現在すでに応用されて
いる一種のオートフォーカス技術の延長線上で実現が可
能と思われる。2つ目は、焦点距離可変レンズを応用す
るものである。焦点距離可変レンズの入出力関係を逆転
させて使用する。つまり、今までの使用方法では、電子
の衝突する座標が出力の焦点距離を決定していたが、可
逆的に考え図19に示すとおりの使用方法を取る。図で
言うと、ある点光源からの光が焦点距離可変レンズに照
射されると、出力光は点光源の距離に比例して偏りが発
生する。照度で言うと、一番光が集中する位置が、点光
源の位置と比例する。照度測定器にCCDを用いて最も
光の頻度の高い座標が事象までの距離を決定する。これ
には、先ほど画像の拡大をした図12に示す構造の逆の
使用方法をとり、大型レンズを縮小用として使用する。
つまり、撮影の時の数メートル以上の距離感を焦点距離
可変レンズの有効な数センチ距離感になるまで縮小化す
る。実際の光学系回路で考えると、被写体にフォーカス
を合わせると、凸レンズや凹レンズの機能により被写体
の虚像がCCDに照射される。このCCDの上に焦点距
離可変レンズ群の板を被せる。25万か所以上の全ての
CCDの一つ一つがこの焦点距離可変レンズを一つ一つ
被せられる。そして、被写体の虚像の微細な焦点距離差
に比例して、CCDに照射される光の頻度の高い位置が
変化する。この頻度の高い位置を計測するセルをCCD
に加えればよい。この計測が可能ならば、全CCDでカ
ラー情報赤緑青(RGB)と距離情報dを追加した、R
GBD情報として計測できる。そして、その距離d情報
を、従来規格上のVTR記録媒体の従来使用していない
エリアか、音声エリアに合成して記録すればよい。
Next, there are two types of proposals for a stereoscopic camera for obtaining a stereoscopic image. They are all VTRs
This is a type of camera that is recorded according to the standard, and is a method of capturing necessary information amount distance d data. One is to use infrared rays to obtain distance data by repeating a pulse state like a flash. In other words, R on the CCD substrate
A cell d that reacts with infrared rays is placed adjacent to GB (see FIG. 1).
8) Measure the time from the emission of infrared rays to the time when they are reflected and returned to the CCD, and use this as distance data in proportion to the time. Since the diffuse reflection at that time is of course expected, an averaging circuit is necessary. It seems that they can be realized as an extension of a kind of autofocus technology that has already been applied. The second is to apply a variable focal length lens. It is used by reversing the input / output relationship of the variable focal length lens. In other words, in the conventional usage method, the output collision distance was determined by the coordinates of the collision of electrons, but the usage method as shown in FIG. 19 is considered reversibly. In the figure, when the light from a certain point light source is applied to the variable focal length lens, the output light is biased in proportion to the distance of the point light source. In terms of illuminance, the position where the light is most concentrated is proportional to the position of the point light source. The CCD with the illuminance meter determines the distance to the event where the most frequent light coordinates are. For this purpose, a method of using the reverse of the structure shown in FIG. 12 in which the image is enlarged is used, and a large lens is used for reduction.
That is, the sense of distance of several meters or more at the time of shooting is reduced to the sense of distance of several centimeters which is effective for the variable focal length lens. In consideration of an actual optical system circuit, when the subject is focused, a virtual image of the subject is projected onto the CCD by the functions of the convex lens and the concave lens. A plate of a variable focal length lens group is put on the CCD. Each of the 250,000 or more CCDs is individually covered with this variable focal length lens. Then, in proportion to the minute focal length difference of the virtual image of the subject, the position where the frequency of the light irradiated on the CCD is high changes. A cell that measures this high-frequency position is a CCD
Add to. If this measurement is possible, all CCDs add color information red green blue (RGB) and distance information d, R
It can be measured as GBD information. Then, the distance d information may be synthesized and recorded in an area which has not been used conventionally or an audio area of the VTR recording medium according to the conventional standard.

【0011】[0011]

【作 用】いま、立体テレビの放送電波があると仮定
する。それは、現行のNTSC規格の上に距離情報dを
乗せた放送電波である。その電波を従来のテレビが受信
するとする。従来テレビには距離情報dを受信して再生
する能力はない。しかし、基本的に従来NTSCとおな
じ情報を持っているので、カラーテレビとして再生す
る。距離情報dは無視される。では立体テレビが受信す
ると、現行同様にRGBの同期と音声によりカラーテレ
ビとなるが、それと平行して距離dデータも同期を取
り、RGBのデータが電子銃を通して発射されるときに
垂直同期軸に距離データは電圧加算され、画素に衝突す
る座標の微小な変化によって入力する位置が変わり焦点
距離が制御される。そして、その画素がどんな色でどん
な立体なのか浮き出し方を決定して出力される。凹んだ
画像、飛び出した画像の原理は基本的に図1や図2、図
3のそれと何等変わらず、単にこの虚像位置決定を25
万か所について同様に行っている。その一つ一つの画素
からの情報を入力光学系として、次に大型な凹凸レンズ
による出力光学系が情報拡大を行う。結果、小さな画素
虚像が全部結晶し、一つの凹凸のある画像を再現する。
その凹凸の度合いはボリュームにより調整され、立体度
と呼ぶ。立体度が高いと飛びだし度合いが急激だが、狭
い視野でしか見れない。広い視野で見たいときには立体
度を最低にして見ればよい。しかし、このときは平面に
近い画像になることが予想される。
[Operation] It is assumed that there are 3D television broadcast waves. It is a broadcast radio wave in which the distance information d is put on the current NTSC standard. A conventional television receives the radio waves. Conventional televisions have no ability to receive and reproduce distance information d. However, since it basically has the same information as NTSC, it can be played back as a color TV. The distance information d is ignored. Then, when it is received by a stereoscopic television, it becomes a color television by RGB synchronization and sound as in the current situation, but in parallel with that, the distance d data is also synchronized, and when the RGB data is fired through the electron gun, it becomes the vertical synchronization axis. The distance data is voltage-added, and the input position changes due to a minute change in the coordinates that collide with the pixel, and the focal length is controlled. Then, it is determined how to emboss the color and the solid of the pixel, and the pixel is output. The principle of the dented image and the popped-out image is basically the same as that of FIGS. 1, 2 and 3, and this virtual image position determination is simply performed.
Do the same for everywhere. Information from each of the pixels is used as an input optical system, and then an output optical system using a large concave-convex lens enlarges information. As a result, all the small pixel virtual images are crystallized, and an image with one unevenness is reproduced.
The degree of the unevenness is adjusted by the volume and is called the stereoscopicity. When the degree of stereoscopicity is high, the degree of jumping out is rapid, but it can only be seen in a narrow field of view. If you want to see from a wide field of view, you should look at the minimum degree of stereoscopicity. However, at this time, it is expected that the image will be close to a plane.

【0012】[0012]

【発明の効果】現行のカラーテレビ放送から立体放送に
なっても規格そのものはNTSCのまま変化しないの
で、立体テレビが実用されても従来テレビと同じ扱いで
見ることができる。つまり、立体テレビでもカラーテレ
ビでも白黒でも同じ電波の規格共通性により、ハイビジ
ョンにあるような一般化に決意が伴うような性質がな
い。また、ビデオについてもVTR型となるので、市場
を同水準で扱う事ができる。 観賞については、メガネ
を使わないことによる便利さが期待できる。また、メガ
ネの焦点差による視力障害の低い立体効果がある。
[Effects of the Invention] Since the standard itself remains NTSC even when the current color television broadcasting is changed to stereoscopic broadcasting, even if the stereoscopic television is put into practical use, it can be viewed in the same way as a conventional television. In other words, due to the commonality of the same radio wave standards for stereoscopic television, color television, and black and white, there is no property that causes a decision to generalize as in high-definition television. Also, since the video is of the VTR type, the market can be handled at the same level. Concerning viewing, we can expect the convenience of not wearing glasses. In addition, there is a stereoscopic effect with low visual acuity due to the focus difference of the glasses.

【0013】[0013]

【図面の簡単な説明】[Brief description of drawings]

【図1】 焦点距離f1の凸レンズによる立体虚像Aと
その位置関係を示す。
FIG. 1 shows a three-dimensional virtual image A formed by a convex lens having a focal length f1 and its positional relationship.

【図2】 焦点距離が図1よりも短いf2の凸レンズに
よる立体虚像とその位置関係を示す。
FIG. 2 shows a three-dimensional virtual image formed by a convex lens whose focal length is f2, which is shorter than that in FIG. 1, and its positional relationship.

【図3】 凹レンズ凸レンズの組み合わせによる立体虚
像Aとその位置関係を示す。この図では凹んだ位置に虚
像が見える。また、虚像Aは図1及び図2と違い反転し
ていない。
FIG. 3 shows a three-dimensional virtual image A and its positional relationship by combining a concave lens and a convex lens. In this figure, a virtual image can be seen in the recessed position. Further, the virtual image A is not inverted unlike FIGS. 1 and 2.

【図4】 凸レンズに対する入力光の光源位置aと出力
焦点距離bの関係。
FIG. 4 shows a relationship between a light source position a of input light with respect to a convex lens and an output focal length b.

【図5】 焦点距離可変レンズが取り得る3構成の側面
図。
FIG. 5 is a side view of three possible configurations of the variable focal length lens.

【図6】 凹凸合成型の断面図FIG. 6 is a sectional view of a concave-convex composite type.

【図7】 焦点距離可変レンズの入力光束に対する出力
光束の側面図。
FIG. 7 is a side view of an output light flux with respect to an input light flux of the variable focal length lens.

【図8】 図7の特性を座標系としてグラフに示す。入
力光束の幅daに対する出力光束の収差dfがここから
計算できる。
FIG. 8 is a graph showing the characteristics of FIG. 7 as a coordinate system. The aberration df of the output light beam with respect to the width da of the input light beam can be calculated from here.

【図9】 収差を補正するためのマイナス収束差を持つ
凸レンズを使用した場合の入力と出力の関係を示す。
FIG. 9 shows the relationship between input and output when a convex lens having a negative convergence difference for correcting aberration is used.

【図10】図9の補正レンズに対する電子の入力位置に
応じて出力の焦点距離が変化する関係を示す。
10 shows a relationship in which an output focal length changes according to an electron input position with respect to the correction lens in FIG.

【図11】収差補正レンズを使用して一つの焦点距離可
変画素として使用するときの入力電子衝突位置と出力焦
点距離を座標系にしたときの関係を示す。
FIG. 11 shows a relationship when the input electron collision position and the output focal length are used as a coordinate system when the aberration correction lens is used as one focal length variable pixel.

【図12】入力する微小な光束に対して拡大して出力の
光束を得るための拡大レンズ構成を示す。これにより、
狭角視野を広角視野へと、また微小立体変化を拡大す
る。
FIG. 12 shows a magnifying lens structure for expanding an input minute light beam to obtain an output light beam. This allows
The narrow-angle field of view is expanded to the wide-angle field of view, and the minute stereoscopic change is magnified.

【図13】焦点距離可変画素を使って立体テレビを実用
するときの構成図を示す。ここでは、ブラウン管内に、
画素並びに焦点距離可変レンズ、収差補正レンズがそれ
ぞれ25万個以上並列されている。そして、図12の凹
凸レンズ配列を使用し、画像の広角視野化並びに拡大作
用を行う。ここでの虚像Aはそれぞれ、小さな画素が大
量に結晶して一つの虚像となっているものである。
FIG. 13 shows a configuration diagram when a stereoscopic television is put into practical use by using variable focal length pixels. Here, in the cathode ray tube,
More than 250,000 pixels, variable focal length lenses, and aberration correction lenses are arranged in parallel. Then, by using the concavo-convex lens array of FIG. 12, a wide-angle field of view and an enlarging action of the image are performed. Each virtual image A here is one virtual image in which a large number of small pixels are crystallized.

【図14】図13のブラウン管におけるレンズ配列を座
標系を用いて概念説明する。最初に電子銃から電子が発
射されて、距離情報分のdが加算されて画素の上で光に
なる。それが入力光束を成し、収差補正レンズを通り焦
点距離可変レンズを通って、立体再現された入力光学系
が完成する。次に、これらの微小情報を拡大するため
に、図では、凹レンズを先にとおして、拡大後に凸レン
ズに通している。
FIG. 14 conceptually describes a lens array in the cathode ray tube of FIG. 13 using a coordinate system. First, an electron is emitted from the electron gun, d for distance information is added, and it becomes light on the pixel. This forms an input light beam, passes through the aberration correction lens and the variable focal length lens, and the stereoscopically reproduced input optical system is completed. Next, in order to magnify these small amounts of information, in the figure, the concave lens is passed through first, and then the convex lens is passed through after enlargement.

【図15】図13、図14に示す立体テレビの断面図の
拡大図を示す。画素と補正レンズが一枚のアクリル板上
に乗っている。次に、右側に同じくアクリルなどででき
た焦点距離可変レンズがある。これらは横にも同じよう
に並列され、25万個以上の場所でこのレンズ関係を持
つ。
FIG. 15 is an enlarged view of a cross-sectional view of the stereoscopic television shown in FIGS. 13 and 14. Pixels and correction lenses are mounted on a single acrylic plate. Next, there is a variable focal length lens also made of acrylic or the like on the right side. These are also arranged side by side in the same way, and have this lens relationship at more than 250,000 places.

【図16】収差補正レンズと、焦点距離可変レンズの合
成されたタイプの構成図を示す。ここでは画素とは独立
しており、結果としての光束は収差を持たない。
FIG. 16 shows a configuration diagram of a combined type of an aberration correction lens and a variable focal length lens. Here, it is independent of the pixel and the resulting light bundle is aberration free.

【図17】図16の合成型を使用するときのブラウン管
におけるレンズ配置を断面で示す。同様にアクリル一枚
板に25万以上配列した構造を持つ。
FIG. 17 is a cross-sectional view showing a lens arrangement in a cathode ray tube when using the composite type shown in FIG. Similarly, it has a structure in which 250,000 or more are arranged on a single acrylic plate.

【図18】立体カメラを作るときの距離情報を取るため
のCCD配列概念図。
FIG. 18 is a conceptual diagram of a CCD array for obtaining distance information when making a stereoscopic camera.

【図19】焦点距離可変レンズと収差補正レンズを応用
した場合における効果を示す。ここでは、点光源が入力
光となり、出力頻度をグラフに示す。頻度が高いdの位
置が点光源までの距離を決定する。そして、これを実際
の3Dカメラの距離情報dを計測するために応用する。
実際の応用の場所では、このCCD群を25万個以上配
列する。
FIG. 19 shows an effect when a focal length variable lens and an aberration correction lens are applied. Here, the point light source becomes the input light, and the output frequency is shown in the graph. The position of d, which has a high frequency, determines the distance to the point light source. Then, this is applied to measure the distance information d of the actual 3D camera.
At the place of actual application, 250,000 or more of these CCD groups are arranged.

【図20】焦点距離可変テレビにおける処理フローチャ
ートを示す。
FIG. 20 shows a processing flowchart in a variable focal length television.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】平面から曲面まで緩やかに湾曲した非球面
レンズである焦点距離可変レンズは、その覗く位置に応
じて凸レンズ、平、または凹レンズへと無段階に変化す
る事ができる(図5、図6、図7)。その焦点距離可変
レンズをテレビに応用する場合、裏側に電子に反応する
蛍光塗料を塗れば、電子の衝突する位置に比例して出力
する光束の焦点が無段階に変化する焦点距離可変な画素
となる。また、この焦点距離可変画素をテレビの画素と
同数の25万個以上並列し(図14、図15、図1
7)、アクリル製版のような一枚板状レンズ群となる。
制御方法は、電子銃から飛び出した電子の垂直同期電圧
に僅かな距離情報電圧dを付加することで行う。結果、
電子はレンズに対して衝突する位置を制御され、垂直同
期電圧変動がそのまま焦点距離を制御する。この距離情
報dをNTSC規格情報に上乗せすることで、規格共通
化を行う。VTRに関しても同様に距離情報dを記録す
ることにより立体テレビ用VTRとする。焦点距離可変
画素のミクロ立体情報をマクロ化するために、テレビ画
面前面に大型凹レンズと大型凸レンズを配置し、光束群
を制御、拡大する構造を取る。(図13、図14)
1. A variable focal length lens, which is an aspherical lens that is gently curved from a flat surface to a curved surface, can be steplessly changed to a convex lens, a flat lens, or a concave lens depending on the position where it is viewed (FIG. 5, FIG. 6 and 7). When the variable focal length lens is applied to a television, if a fluorescent paint that reacts with electrons is applied to the back side, the focal point of the light flux output in proportion to the position where the electrons collide changes steplessly Become. In addition, the variable focal length pixels are arranged in parallel with the number of pixels of the television, which is equal to or larger than 250,000 (see FIGS. 14, 15, and 1).
7), a single plate lens group like an acrylic plate.
The control method is carried out by adding a slight distance information voltage d to the vertical synchronizing voltage of the electrons jumping out of the electron gun. result,
The electron is controlled at the position where it collides with the lens, and the vertical sync voltage fluctuation directly controls the focal length. The standardization is performed by adding the distance information d to the NTSC standard information. Similarly, regarding the VTR, by recording the distance information d, a VTR for stereoscopic television is obtained. In order to make the micro three-dimensional information of the variable focal length pixel macro, a large concave lens and a large convex lens are arranged on the front surface of the TV screen to control and expand the luminous flux group. (Figs. 13 and 14)
【請求項2】請求項1の焦点距離可変画素は、図8に示
すような入力光の幅とレンズの湾曲率変化による焦点距
離誤差が生じる。つまり、入力が点光源に対して出力が
一点に収束しない収差が起こる。これを補正し焦点を一
点にするために、焦点距離可変レンズで生じるプラスd
f(焦点距離差)に対して図9に示すようなマイナスd
f(焦点距離差)の収差をもう一枚のレンズ全体の湾曲
率で始めから作っておくことで収差補正を行い、双方の
レンズの収差和により一点に収束する焦点距離可変レン
ズとなりこれを収差補正レンズとする。この収差補正レ
ンズには図15の様に分割して使用する場合と、図1
6、図17に示すような合成型がある。
2. The variable focal length pixel according to claim 1 causes a focal length error due to a change in the width of the input light and the curvature of the lens as shown in FIG. That is, an aberration occurs in which the input does not converge to a point with respect to the point light source. In order to correct this and make the focal point one point, the plus d generated by the variable focal length lens
Minus d as shown in FIG. 9 with respect to f (focal length difference)
The aberration of f (focal length difference) is made from the beginning with the curvature of the other lens as a whole to correct the aberration, and it becomes a variable focal length lens that converges to one point by the sum of the aberrations of both lenses. Use as a correction lens. This aberration correction lens is divided into two parts as shown in FIG.
6, there is a composite type as shown in FIG.
【請求項3】請求項1の焦点距離可変レンズは焦点距離
を制御するのと反対に、入力と出力の関係を逆にすると
逆の効果が生じる。つまりある点光源からの光を焦点距
離可変レンズに反対方向から入射させると出力は、焦点
距離に比例する座標位置に光の頻度が収束する(図1
5)。つまり焦点距離可変レンズは可逆的であり、光源
までの距離をこの座標によって計測できる。この原理を
応用して、物体までの距離測定を行い、NTSC規格の
25万箇所以上における、カラー情報と距離情報を録画
する技術に応用する。
3. The variable focal length lens of claim 1 has the opposite effect of controlling the focal length, and vice versa when the relationship between the input and the output is reversed. That is, when the light from a certain point light source is incident on the variable focal length lens from the opposite direction, the output frequency converges at the coordinate position proportional to the focal length (FIG. 1).
5). That is, the variable focal length lens is reversible, and the distance to the light source can be measured by this coordinate. By applying this principle, the distance to an object is measured, and it is applied to the technology of recording color information and distance information at 250,000 points or more of the NTSC standard.
JP6336983A 1994-12-27 1994-12-27 Focal distance controlling stereoscopic-vision television receiver Pending JPH08186845A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6336983A JPH08186845A (en) 1994-12-27 1994-12-27 Focal distance controlling stereoscopic-vision television receiver

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6336983A JPH08186845A (en) 1994-12-27 1994-12-27 Focal distance controlling stereoscopic-vision television receiver

Publications (1)

Publication Number Publication Date
JPH08186845A true JPH08186845A (en) 1996-07-16

Family

ID=18304402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6336983A Pending JPH08186845A (en) 1994-12-27 1994-12-27 Focal distance controlling stereoscopic-vision television receiver

Country Status (1)

Country Link
JP (1) JPH08186845A (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008510340A (en) * 2004-08-10 2008-04-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ View mode detection
JP2011527790A (en) * 2008-07-09 2011-11-04 プライムセンス リミテッド Integrated processing device for 3D mapping
US8374397B2 (en) 2005-10-11 2013-02-12 Primesense Ltd Depth-varying light fields for three dimensional sensing
US8390821B2 (en) 2005-10-11 2013-03-05 Primesense Ltd. Three-dimensional sensing using speckle patterns
US8400494B2 (en) 2005-10-11 2013-03-19 Primesense Ltd. Method and system for object reconstruction
US8462207B2 (en) 2009-02-12 2013-06-11 Primesense Ltd. Depth ranging with Moiré patterns
US8493496B2 (en) 2007-04-02 2013-07-23 Primesense Ltd. Depth mapping using projected patterns
US8494252B2 (en) 2007-06-19 2013-07-23 Primesense Ltd. Depth mapping using optical elements having non-uniform focal characteristics
US8717417B2 (en) 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
US8786682B2 (en) 2009-03-05 2014-07-22 Primesense Ltd. Reference image techniques for three-dimensional sensing
US8830227B2 (en) 2009-12-06 2014-09-09 Primesense Ltd. Depth-based gain control
US8982182B2 (en) 2010-03-01 2015-03-17 Apple Inc. Non-uniform spatial resource allocation for depth mapping
US9030528B2 (en) 2011-04-04 2015-05-12 Apple Inc. Multi-zone imaging sensor and lens array
US9066087B2 (en) 2010-11-19 2015-06-23 Apple Inc. Depth mapping using time-coded illumination
US9098931B2 (en) 2010-08-11 2015-08-04 Apple Inc. Scanning projectors and image capture modules for 3D mapping
US9131136B2 (en) 2010-12-06 2015-09-08 Apple Inc. Lens arrays for pattern projection and imaging
US9157790B2 (en) 2012-02-15 2015-10-13 Apple Inc. Integrated optoelectronic modules with transmitter, receiver and beam-combining optics for aligning a beam axis with a collection axis
US9330324B2 (en) 2005-10-11 2016-05-03 Apple Inc. Error compensation in three-dimensional mapping
US9423626B2 (en) 2011-06-01 2016-08-23 Samsung Electronics Co., Ltd. Multi-view 3D image display apparatus and method
US9582889B2 (en) 2009-07-30 2017-02-28 Apple Inc. Depth mapping based on pattern matching and stereoscopic information

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008510340A (en) * 2004-08-10 2008-04-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ View mode detection
US8374397B2 (en) 2005-10-11 2013-02-12 Primesense Ltd Depth-varying light fields for three dimensional sensing
US8390821B2 (en) 2005-10-11 2013-03-05 Primesense Ltd. Three-dimensional sensing using speckle patterns
US8400494B2 (en) 2005-10-11 2013-03-19 Primesense Ltd. Method and system for object reconstruction
US9330324B2 (en) 2005-10-11 2016-05-03 Apple Inc. Error compensation in three-dimensional mapping
US9066084B2 (en) 2005-10-11 2015-06-23 Apple Inc. Method and system for object reconstruction
US8493496B2 (en) 2007-04-02 2013-07-23 Primesense Ltd. Depth mapping using projected patterns
US8494252B2 (en) 2007-06-19 2013-07-23 Primesense Ltd. Depth mapping using optical elements having non-uniform focal characteristics
JP2011527790A (en) * 2008-07-09 2011-11-04 プライムセンス リミテッド Integrated processing device for 3D mapping
US8456517B2 (en) 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
US8462207B2 (en) 2009-02-12 2013-06-11 Primesense Ltd. Depth ranging with Moiré patterns
US8786682B2 (en) 2009-03-05 2014-07-22 Primesense Ltd. Reference image techniques for three-dimensional sensing
US8717417B2 (en) 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
US9582889B2 (en) 2009-07-30 2017-02-28 Apple Inc. Depth mapping based on pattern matching and stereoscopic information
US8830227B2 (en) 2009-12-06 2014-09-09 Primesense Ltd. Depth-based gain control
US8982182B2 (en) 2010-03-01 2015-03-17 Apple Inc. Non-uniform spatial resource allocation for depth mapping
US9098931B2 (en) 2010-08-11 2015-08-04 Apple Inc. Scanning projectors and image capture modules for 3D mapping
US9066087B2 (en) 2010-11-19 2015-06-23 Apple Inc. Depth mapping using time-coded illumination
US9131136B2 (en) 2010-12-06 2015-09-08 Apple Inc. Lens arrays for pattern projection and imaging
US9167138B2 (en) 2010-12-06 2015-10-20 Apple Inc. Pattern projection and imaging using lens arrays
US9030528B2 (en) 2011-04-04 2015-05-12 Apple Inc. Multi-zone imaging sensor and lens array
US9423626B2 (en) 2011-06-01 2016-08-23 Samsung Electronics Co., Ltd. Multi-view 3D image display apparatus and method
US9157790B2 (en) 2012-02-15 2015-10-13 Apple Inc. Integrated optoelectronic modules with transmitter, receiver and beam-combining optics for aligning a beam axis with a collection axis
US9651417B2 (en) 2012-02-15 2017-05-16 Apple Inc. Scanning depth engine

Similar Documents

Publication Publication Date Title
JPH08186845A (en) Focal distance controlling stereoscopic-vision television receiver
CA1317044C (en) Active matrix lcd image projection system
US4740836A (en) Compatible 3D video display using commercial television broadcast standards and equipment
US8537204B2 (en) 3D television broadcasting system
JP3944188B2 (en) Stereo image display method, stereo image imaging method, and stereo image display apparatus
US4214257A (en) Method and color television picture tube for reproducing three-dimensional image
USRE39342E1 (en) Method for producing a synthesized stereoscopic image
US20040027451A1 (en) Immersive imaging system
US20030039031A1 (en) Observer-adaptive autostereoscopic display
US5223925A (en) Autostereoscopic system
EP1415482A1 (en) Autostereoscopic image display with observer tracking system
JP2001235708A (en) Stereoscopic image reproducing device with background
Isono et al. 50-inch autostereoscopic full-color 3D TV display system
US6183089B1 (en) Motion picture, TV and computer 3-D imaging system and method of use
US20070146845A1 (en) Three-dimensional image reproducing apparatus and method
CN1231071C (en) Stereoscopic system
RU2397524C2 (en) Camera for recording three-dimensional images
US3046330A (en) Projection of stereoscopic pictures
Borner Progress in projection of parallax-panoramagrams onto wide-angle lenticular screens
JP3676916B2 (en) Stereoscopic imaging device and stereoscopic display device
JPH0340692A (en) Stereoscopic picture display method
CN1598690A (en) Screen division stereoscopic photography projection instrument
CN104584075B (en) Object-point for description object space and the connection method for its execution
JP4505559B2 (en) Distant panel for studio set and studio set using the same
JP2003519445A (en) 3D system