JPH08194274A - Stereoscopic image pickup device - Google Patents

Stereoscopic image pickup device

Info

Publication number
JPH08194274A
JPH08194274A JP450995A JP450995A JPH08194274A JP H08194274 A JPH08194274 A JP H08194274A JP 450995 A JP450995 A JP 450995A JP 450995 A JP450995 A JP 450995A JP H08194274 A JPH08194274 A JP H08194274A
Authority
JP
Japan
Prior art keywords
imaging
stereoscopic
left
right
optical system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP450995A
Other languages
Japanese (ja)
Inventor
Shinji Araoka
Tsutomu Nakamura
Masao Sato
努 中村
政雄 佐藤
伸治 荒岡
Original Assignee
Olympus Optical Co Ltd
オリンパス光学工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd, オリンパス光学工業株式会社 filed Critical Olympus Optical Co Ltd
Priority to JP450995A priority Critical patent/JPH08194274A/en
Publication of JPH08194274A publication Critical patent/JPH08194274A/en
Application status is Withdrawn legal-status Critical

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2213/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B2213/02Viewfinders
    • G03B2213/025Sightline detection

Abstract

PURPOSE: To provide a device capable of executing automatic focusing processing or automatic exposing processing to a common range and obtaining stable stereoscopic video information which is easy to view and hardly fatigues an observer as a stereoscopic image pickup device using binocular parallax.
CONSTITUTION: This device is principally constituted of two lens systems 1 and 2 obtaining image pickup information for a left eye or a right eye, a detection circuit 8 detecting a focusing position and the angle of a line-of-sight direction concerning the lens system, a CPU 9 incorporating an area arithmetic calculation circuit and a distance arithmetic calculation circuit calculating the focusing detecting range on a subject common to two lens systems based on the detected information, and a camera driving circuit for focusing 7 performing focusing in the common detecting range calculated.
COPYRIGHT: (C)1996,JPO

Description

【発明の詳細な説明】 DETAILED DESCRIPTION OF THE INVENTION

【0001】 [0001]

【産業上の利用分野】本発明は、立体撮像装置、詳しくは、両眼視差を利用した立体撮像装置における合焦、または、測光制御に関する。 BACKGROUND OF THE INVENTION This invention is a stereoscopic imaging device, particularly, focus in the stereoscopic imaging apparatus using a binocular parallax, or relates to metering control.

【0002】 [0002]

【従来の技術】近年、両眼の視差による融像作用を利用した立体画像表示装置に関して各種の提案がなされており、また、その立体画像表示用の左右撮影画像データを取り込む立体撮像装置に関しても多くの提案がなされている。 In recent years, and various proposals have been made with respect to the stereoscopic image display device using a fusion effect of parallax of both eyes, also with respect to the stereoscopic imaging device for capturing left and right photographic image data for display that the three-dimensional image a number of proposals have been made. 例えば、特開昭63−153987号公報に開示の立体映像撮影用光学装置は、1つのレンズは固定され、他の1つのレンズは、被写体の遠近に応じてその光軸方向を変化させるために回動可能とした装置である。 For example, 3D-image pickup optical system disclosed in JP-A-63-153987, the one lens is fixed and the other one of the lens, in order to alter its optical axis direction in accordance with the distance of the object it is rotatable with the device.
また、特開昭64−11254号公報に開示の立体撮像装置は、2つのレンズの輻輳角、すなわち、2つのレンズの光軸方向の交叉する角度の変更手段として、2本レンズを均等、かつ、対称となる方向に回転させることができる回転手段を用いたものである。 Further, the stereoscopic imaging device disclosed in JP-A-64-11254, the convergence angle of the two lenses, i.e., as an optical axis direction of the cross angle change means of the two lenses, even two lenses, and , in which using a rotating means capable of rotating in a direction to be symmetrical.

【0003】また、特開平1−284090号公報に開示の立体撮像装置は、2つのミラー,プリズム等を用いて1つのテイキングレンズと2つの撮像素子のCCDで左右の映像を撮影するものである。 [0003] The stereoscopic image pickup apparatus disclosed in Japanese Patent Laid-Open No. 1-284090 is for capturing left and right images by the CCD of a single-taking lens and the two imaging devices using two mirrors, a prism, etc. .

【0004】 [0004]

【発明が解決しようとする課題】上記従来の特開昭63 The object of the invention is to be Solved by the conventional JP-A-63
−153987号公報、特開昭64−11254号公報、また、特開昭64−11254号公報等に開示の立体撮像装置では、2つのレンズの注視点、すなわち、2 -153987, JP-Sho 64-11254 and JP also in stereoscopic imaging device disclosed in JP 64-11254 discloses the like, fixation point of the two lenses, i.e., 2
つのレンズ光軸の交点に被写体がない場合、AF(自動合焦処理)エリアと、AE(自動露光処理)エリア、すなわち、測光エリアとが従来のように左右ほぼ中央に設定されているとすれば、左右レンズ間のAF,AEにずれを生ずる。 If One of no subject at the intersection of the lens optical axis, by the AF (automatic focusing process) area, AE (automatic exposure) area, i.e., and the photometric area is set horizontally substantially at the center as in the prior art if, AF between the left and right lenses, causing deviations in AE.

【0005】例えば、図21の撮影状態図に示すように立体撮像装置の輻輳角α、画角2×Z、基線長aに設定された左右2つの撮影レンズ系101,102に対して、被写体103,104,105が存在しており、左右レンズ系の注視点PA 上に被写体が存在しないとする。 [0005] For example, with respect to convergence angle alpha, angle 2 × Z, the left and right is set to the base length a 2 single imaging lens system 101 and 102 of the stereoscopic imaging apparatus as shown in photographing state diagram of FIG. 21, the subject 103, 104, 105 are present, the subject on the gazing point PA of the left and right lens systems is not present. 上記撮像レンズ系では、それぞれの光軸O1 ,O2 In the imaging lens system, the optical axes O1, O2
上に位置する被写体(白)103,被写体(黒)104 Subject (white) 103 located above, an object (black) 104
に合焦する可能性が高い。 It is likely to be focused on.

【0006】すなわち、図22(A),(B)は、上記図21の被写体が左右撮影レンズ系101,102に取り込まれる画面111,112を示す図であるが、本図に示すように上記レンズ系101,102双方共に合焦エリアを中央部113,114とすると、一方の合焦エリア113に被写体104があり、他方の合焦エリア1 Namely, FIG. 22 (A), (B) is a diagram showing a screen 111 and 112 subject the view 21 is taken to the left and right photographing lens system 101, as shown in the figure above If the focusing area to the lens system 101 and 102 both to the central portion 113 and 114, there is an object 104 in one of the focus area 113, the other focusing areas 1
14には別の被写体103が位置していることになる。 So that another object 103 is located in the 14.

【0007】従って、同一被写体104の立体視のための画像データを得ようとした場合であっても、上記撮影レンズ系101と102でそれぞれ異なった距離にある中央エリアの被写体にピントが合わせられてしまい、双方の撮影画面の合焦距離のずれが生じ、適切な左右2画面の立体表示用画像データが得られない。 Accordingly, even when obtaining the image data for the stereoscopic view of the same object 104, aligned the focus on the subject in the central area in the different distances, respectively the photographing lens system 101 and 102 and will, shift of focus distance of both imaging screen occurs, not stereoscopic display image data suitable left and right screen is obtained. また、そのずれは、観察者の目の疲労の原因にもなる。 In addition, the shift is also cause of fatigue of the observer's eye.

【0008】さらに、図23の撮影状態図に示すように撮影レンズ系121,122を輻輳角が0°、すなわち、平行視状態においた場合でも同様の不具合が生じる。 Furthermore, convergence angle of 0 ° photographing lens system 121, 122 as shown in photographing state diagram of FIG. 23, i.e., any defects similar results when placed parallel vision state. すなわち、上記図23の撮影状態にあっては、レンズ系121側の光軸O1 上に被写体(家)123があって,レンズ系122側の光軸O2 上に遠方まで被写体が存在しないとする。 That is, in the imaging state of FIG. 23, if there is an object (house) 123 on the optical axis O1 of the lens system 121 side, and the subject does not exist until far on the optical axis O2 of the lens system 122 side . また、比較的近い距離には被写体1 Moreover, the relatively close distance object 1
24,125が存在する。 24,125 exist. 上記左側レンズ系121での撮影画面126を示す図24(A)には、中央部の合焦エリア128に被写体123が位置するが、右側レンズ系122での撮影画面127を示す図24(B)には、 FIG 24 (A) showing a photographing screen 126 in the left lens system 121, although object 123 in the central portion of the focusing area 128 is located, Fig. 24 showing a photographing screen 127 of the right lens system 122 (B in),
同じ中央部の合焦エリア129は無限遠合焦状態となり、前述の場合と同様に合焦距離のずれが生じる。 Focusing area 129 of the same central portion becomes the infinity in-focus state, it arises deviation similarly focusing distance and the above-mentioned case.

【0009】上述のように、同一被写体を立体視する画像データを得る際、左右それぞれのレンズ系の撮影画面の被写体の位置が異なっている場合、従来のようにAF [0009] As described above, when obtaining the image data for stereoscopic vision of the same subject, when the position of the subject in the photographing screen of left and right lens systems are different, as in the conventional AF
検出エリアをほぼ中央部に設定し、左右独立してAF処理する方法では、左右映像にピントのずれが生じ、立体視が困難となってくる。 Set in a substantially central portion of the detection area, the method of the AF process left and right independently, defocusing the left and right images occurs, it becomes difficult to stereoscopically.

【0010】なお、上述の問題点はAF処理についてのみ記述しているが、AE(自動露光)処理に関しても、 [0010] It should be noted that, although the above-mentioned problems have been described only for the AF processing, also with respect to AE (automatic exposure) processing,
従来のように双方の撮影画面の中央部を測光エリアに設定するAE処理では、上記2つの撮影レンズ系での測光データにずれが生じ、左右2つの撮影レンズ系に共通な被写体に対するAE処理は困難になる。 In the AE process of setting the central portion of both the imaging screen to the photometric area as in the prior art, the two shift the photometric data of the photographing lens system occurs, the AE process for the common object to the left and right two imaging lens system It becomes difficult.

【0011】一方、前述の特開平1−284090号公報の立体撮像装置の場合のように2つのミラー等と1つの撮影レンズと2つのCCDを適用した立体撮影可能な光学系でも同様なことがいえる。 Meanwhile, similar in the two mirrors or the like and the one photographing lens and the applied three-dimensional imaging optical system capable of two CCD as in the case of stereoscopic imaging apparatus of JP-A-1-284090 discloses the aforementioned it can be said. 例えば、上記立体撮像装置において、光学的条件は前記従来例と同じ光学系で、前記図23と同様なシーンの場合を考えると、左右映像は前記図24(A),(B)の画面と同じ構図になるが、1つの光学系によりピント、および、明るさの制御がなされ、合焦距離、露光条件としては、左右同じとなっても、手前の被写体(人)124や被写体(花)1 For example, in the stereoscopic imaging device, optical conditions in the same optical system as the conventional example, consider the case of a similar scene to that of FIG 23, the left and right images is the diagram 24 (A), and Screen (B) Although the same composition, focus by a single optical system, and, made to control the brightness, focal length, as the exposure condition, even if the left and right sides the same, before the subject (person) 124 and a subject (flower) 1
25などの1つの主要被写体に対するAF,AE処理を実行することができない。 It can not be executed AF, the AE process for one main subject, such as 25.

【0012】従って、上記いずれかの主要被写体に対するAF,AEを行うためには、撮影者が、改めてカメラを移動し、AF,AE検出エリア内に上記主要被写体を入れる必要がある。 Accordingly, the AF to either the main subject, in order to perform the AE, the photographer moves again camera, AF, it is necessary to put the main subject AE detection area. この不具合は、焦点距離が望遠側で、至近距離の被写体に対して発生しやすい。 This defect in the focal length telephoto side, prone against close range object.

【0013】本発明は、上述の不具合を解決するために成されたものであって、両眼視差を利用するための立体撮像用の2つの撮像光学系に係る情報に基づいた共通の範囲に対して自動合焦処理、または、適正な自動露光処理が実行可能で、見やすく疲れにくい安定した状態の立体映像情報が得られる立体撮像装置を提供することを目的とする。 [0013] The present invention was made to solve the problem described above, a common range based on information relating to two imaging optical system for stereoscopic imaging for using binocular parallax automatic focusing process for, or, for proper automatic exposure processing can be executed, and an object thereof is to provide a stereoscopic imaging apparatus stereoscopic video information is obtained for easy viewing fatigue stable state.

【0014】 [0014]

【課題を解決するための手段および作用】本発明の第1 First Means and operation for solving the object of the present invention
の立体撮像装置は、両眼視差を利用した立体撮像装置において、左眼用撮像情報を得るための第1の撮像光学系と、右眼用撮像情報を得るための第2の撮像光学系と、 Stereoscopic imaging device, the stereoscopic imaging apparatus using binocular parallax, the first imaging optical system for obtaining imaging information for the left eye, and a second imaging optical system for obtaining imaging information for the right eye ,
撮像光学系に係る所定の情報を検出する検出手段と、検出された所定の情報に基づき合焦検出範囲を演算する演算手段と、演算された合焦検出範囲でピント調節を行うピント調節手段とを具備する。 Detecting means for detecting the predetermined information relating to the imaging optical system, and calculating means for calculating a focus detection range based on the detected predetermined information, and focus adjusting means for performing focus adjustment in the calculation in-focus detection range comprising a. 本立体撮像装置においては、上記検出手段により得られた情報をもとに、合焦検出範囲を演算し、その合焦検出範囲に対してピント調節が実行される。 In the stereoscopic imaging device, based on the information obtained by the detection means, calculates a focus detection range, focusing is performed for that focus detection range.

【0015】本発明の第2の立体撮像装置は、上記第1 The second three-dimensional image pickup apparatus of the present invention, the first
の立体撮像装置における上記検出手段により検出された所定の位置において、上記第1の撮像光学系と上記第2 At a predetermined position detected by the detection means in the stereoscopic image pickup device, the first imaging optical system and the second
の撮像光学系で共通に撮像される範囲内を合焦検出範囲とする。 And focus detection range within the range to be captured in common with the imaging optical system.

【0016】本発明の第3の立体撮像装置は、上記第2 A third three-dimensional image pickup apparatus of the present invention, the second
の立体撮像装置に対して、さらに、ピント調節手段による合焦後の映像全体に対する合焦検出範囲の相対位置を検出し、この相対位置情報に基づき、撮像光学系の輻輳角を変化させる制御手段を具備している。 Respect of the three-dimensional image pickup apparatus, further, detects the relative position of the focus detection range for the entire image after focusing by the focus adjusting means, based on the relative position information, control means for changing the convergence angle of the imaging optical system It is equipped with. 本立体撮像装置では、上記相対位置情報に基づいて撮影光学系の輻輳角が調節される。 In the stereoscopic imaging device, the convergence angle of the imaging optical system based on the relative position information is adjusted.

【0017】本発明の第4の立体撮像装置は、両眼視差を利用した立体撮像装置において、左眼用撮像情報を得るための第1の撮像光学系と、右眼用撮像情報を得るための第2の撮像光学系と、撮像光学系に係る所定の情報を検出する検出手段と、検出された所定の情報に基づき、測光範囲を演算する演算手段と、演算された測光範囲で露出調節を行う露出調節手段とを具備する。 The fourth three-dimensional image pickup apparatus of the present invention, in the stereoscopic imaging apparatus using binocular parallax, the first imaging optical system for obtaining imaging information for the left eye, in order to obtain imaging information for the right eye a second imaging optical system, and detecting means for detecting the predetermined information relating to the imaging optical system, based on the detected predetermined information, and calculating means for calculating a photometric range, exposure adjustment in the calculated photometric range comprising the exposure adjusting means for performing. 本立体撮像装置においては、上記検出手段により得られた情報をもとに、測光範囲を演算し、その測光範囲に対する露出調節が実行される。 In the stereoscopic imaging device, based on the information obtained by the detection means calculates the light measurement range, exposure adjustment for the metering range is performed.

【0018】 [0018]

【実施例】以下、本発明を図示の実施例に基づいて説明する。 BRIEF DESCRIPTION based on the illustrated embodiment of the present invention. 図1は、本発明の一実施例の立体撮像装置のブロック構成図である。 Figure 1 is a block diagram of a stereoscopic imaging apparatus according to an embodiment of the present invention. 本実施例の立体撮像装置は、両眼視差を利用した立体映像用の左眼,右眼用の映像情報を得るカメラブロック81と、上記左右の映像情報を用い、 Stereoscopic image pickup apparatus of this embodiment, the left eye 3D image using binocular disparity, a camera block 81 to obtain the image information for the right eye, using the video information of the right and left,
両眼視差を利用した立体画像を再生するブロックであって、撮影時のファインダとしても利用可能な再生ブロック82とで構成される。 A block for reproducing a stereoscopic image using binocular parallax, and a available playback block 82 as a finder during photographing.

【0019】上記カメラブロック81は、左眼,右眼用の被写体撮像情報を取り込むための撮像素子であるCC [0019] The camera block 81 is an imaging device for capturing left eye, the object imaging information for the right eye CC
D3,4と、撮影レンズ1a,2aをそれぞれ内蔵し、 And D3,4, photographic lens 1a, 2a were built respectively,
光軸O1 ,O2 を有し、間隔が基線長aであり、上記光軸方向を回動させることができる第1の撮像光学系としての左撮影レンズ系1および第2の撮像光学系としての右撮影レンズ系2と、上記CCD3,4の撮像出力信号を取り込み、左右の映像情報を後述するCPU9に出力する左右レンズの撮像回路5と、上記撮像回路の映像情報に基づいて被写体像のパターンを認識し、その出力をCPU9に出力する画像パターン認識回路6と、本装置全体の制御を司り、また、映像処理の制御処理も行う制御手段としての上記CPU9と、上記左右撮影レンズ系1,2のピント調節のためのフォーカス駆動,ズーム駆動,露出調節のためのアイリス駆動,レンズ輻輳角駆動等を行うためのカメラ駆動回路7と、上記各駆動により駆動された上記撮像 Has an optical axis O1, O2, spacing is base length a, as the left photographing lens system 1 and the second imaging optical system as a first imaging optical system that can rotate the direction of the optical axis a right imaging lens system 2, takes in the image pickup output signals of the CCD3,4, an imaging circuit 5 of the left and right lens for outputting the left and right image information to the CPU9 to be described later, the pattern of the object image based on the image information of the image pickup circuit recognizes an image pattern recognition circuit 6 for outputting the output to CPU 9, administers the control of the overall apparatus, also, the above CPU 9 as control means also controls the processing of the video processing, the left and right photographing lens system 1, 2 of the focus drive for focusing, zoom drive, iris drive, a camera drive circuit 7 for performing lens convergence angle drive or the like, driven the imaging by the respective drive for the exposure adjustment 光学系の回動位置や駆動状態を検出する検出手段としてのカメラ検出回路8と、上記CPU A camera detecting circuit 8 as a detection means for detecting the rotational position and the driving state of the optical system, the CPU
9を介して処理された撮影画像情報を記録媒体、例えば、磁気テープ12等に記録するための画像記録回路1 Recording medium a photographed image information processed via the 9, for example, an image recording circuit 1 for recording on the magnetic tape 12, etc.
0と、撮影条件の設定や撮影、および、再生開始停止等の指示を上記CPU9に与える外部入力検出回路11とにより構成されている。 0, setting and photographing of the photographing conditions, and is constituted by an external input detection circuit 11 to give an instruction, such as playback start stop to the CPU 9.

【0020】また、再生ブロック82は、上記CPU9 [0020] In addition, playback block 82, the CPU9
により制御され、上記撮像回路5の出力を取り込み、その映像信号を画像再生回路14に出力する画像処理回路13と、上記画像処理回路13の出力を取り込み、後述するモニタ16、または、HMD(ヘッド マウント Is controlled by, takes in the output of the image pickup circuit 5, an image processing circuit 13 for outputting the video signal to the image reproducing circuit 14 takes in the output of the image processing circuit 13, described later monitor 16 or,, HMD (Head mount
ディスプレイ)17に映像再生信号を出力する画像再生回路14と、上記モニタ16、または、HMD17における観察者の視線方向を検出する視線検出回路15と、 An image reproducing circuit 14 for outputting a video reproduction signal to a display) 17, the monitor 16, or the sight line detection circuit 15 for detecting the gaze direction of the observer in HMD17,
立体画像観察用であって、左右の映像信号をモニタするレンチキュラーレンズ式や偏光式の立体視用モニタ1 A stereoscopic image observation, a lenticular lens type or polarizable monitoring stereoscopic 1 to monitor left and right video signal
6、または、左右映像用の2組の液晶ディスプレイと該ディスプレイ画像を虚像により観察するための再生光学系で構成されるHMD17とにより構成されている。 6, or is constituted by a HMD17 composed of two sets of liquid crystal display and the display image reproduction optical system for observing the virtual image of a left and right images.

【0021】なお、上記CPU9には、上記撮像回路5 [0021] Incidentally, in the CPU9, said image pickup circuit 5
の左右映像出力とカメラ検出回路8の出力に基づいて被写体距離を演算する距離演算回路9aや、合焦検出範囲、または、測光範囲を演算する演算手段である検出エリア演算回路9bや、上記演算結果に基づいてカメラ駆動回路7を駆動する制御回路等を内蔵している。 Of and distance calculation circuit 9a for calculating the object distance based on the output of the left and right video output and camera detection circuit 8, focus detection range, or, and the detection area computing circuit 9b is a calculating means for calculating a photometric range, the operation It incorporates a control circuit for driving the camera driving circuit 7 on the basis of the results.

【0022】以上のように構成された本実施例の立体撮像装置の動作について、以下に説明する。 [0022] The operation of the stereoscopic imaging apparatus of the present embodiment constructed as described above will be described below. 本実施例の立体撮像装置においては、カメラ検出回路8より得られる輻輳角、ズーム位置,ピント面位置などのレンズの情報をもとに、CPU9においてAF(自動合焦処理)検出エリア、または、AE(自動露光処理)検出エリアを演算により決定し、そのエリアをAFエリア、すなわち、 In the stereoscopic imaging apparatus according to the present exemplary embodiment, convergence angle obtained from the camera detecting circuit 8, the zoom position, based on the information of the lens, such as a focal plane position, AF (automatic focusing process) in CPU9 detection area or, AE (automatic exposure) the detection area determined by calculation, AF area to the area, i.e.,
合焦範囲、また、AEエリア、すなわち、測光範囲として設定する。 Focusing range also,, AE area, i.e., set as the photometric range. つまり、あるピント面距離で、左右レンズの共通するエリア内に上記AF,AEエリアを設定する。 That is, in some focal plane distance, the AF in common area of ​​the right and left lenses, to set the AE area. それにより共通の被写体に対しAF,AEが実行される。 AF, AE is performed on a common object using it.

【0023】まず、2つの左右撮影レンズ系1,2の光軸O1 ,O2 を平行にセットした平行視状態の場合のA [0023] First, the case of parallel vision state has been set parallel to the optical axis O1, O2 of the two right and left photographing lens system 1, 2 A
F,AE処理について詳しく説明する。 F, will be described in detail AE processing. 図2の撮影状態図のように上述の平行視条件でレンズ系1,2がセットされたとする。 Lens system 1 is to have been set in parallel when viewed conditions described above as taking state diagram of FIG. レンズからの距離L1、または、L2での左、または、右レンズ全画角2×Z内での共通したエリアは、上記図2に示すように範囲W1、または、W2であるが、その範囲に対する立体視を行うためには、この共通エリア内に同一被写体があることが必要である。 Distance from the lens L1, or left in L2, or common areas within the right lens angles of view 2 × Z, the range W1 as shown in FIG. 2, or is a W2, its scope to perform stereoscopic respect, it is necessary that there is a same subject to the common area. 逆に、立体視される映像は、距離L1、または、L2に位置する被写体のうち、上記エリア内にある被写体の映像となる。 Conversely, images which are stereoscopically, distance L1, or of the subject positioned in the L2, the image of the subject within the area. 従って、本実施例の装置では、距離L1 、または、L2 をピント面距離とし、その距離での共通エリア内にAF、または、AE処理の検出エリアを設定し、安定した立体映像情報を得るようにしている。 Accordingly, the apparatus of the present embodiment, the distance L1 or, the L2 and focal plane distance, AF in a common area at that distance, or to set the detection area of ​​the AE processing, so as to obtain a stable three-dimensional image information I have to.

【0024】なお、図3(A),(B)は、上記図2の撮影状態における上記ピント面距離L1 上の2つのレンズ系1,2における撮影画面21,22を示し、該画面上での共通範囲W1 に対応するそれぞれ共通範囲が範囲23,24で示されている。 [0024] Incidentally, FIG. 3 (A), (B) shows a photography screen 21 in the two lens systems 1 and 2 on the focal plane distance L1 in the imaging state of FIG 2, on said screen in each common range corresponding to the common range W1 of is shown in the range 23 and 24. 同様に、図4(A), Similarly, FIG. 4 (A), the
(B)は、上記距離L1 より至近のピント面距離L2 上の2つのレンズ系1,2に対する撮影画面25,26を示し、該画面上の共通範囲W2 に対応するそれぞれ共通範囲が範囲27,28で示されている。 (B) is the distance L1 from the shows the imaging screen 25 and 26 for the two lens systems 1 and 2 on the near focus plane distance L2, respectively common range range corresponding to the common region W2 on said screen 27, It is shown at 28.

【0025】AF,AE処理を実行するに際して、ピント面距離とそのピント面距離上での被写体共通範囲を算出する必要があるが、それらの算出方法について、次に説明する。 [0025] AF, when performing the AE process, it is necessary to calculate the object common range on the focal plane distance and focal plane distance for their calculation method will now be described. まず、光学的な原理より被写体距離Lとフォーカスレンズの繰り出し量Xに対する焦点距離fの関係は、 L×X=−f 2 ………(1) となる。 First, the relationship of the focal length f from the optical principles for extension amount X of the object distance L and the focus lens becomes L × X = -f 2 ......... ( 1). 従って、ある基準より繰り出し量Xと焦点距離fを検出することにより、レンズのピント面距離Lが算出可能である。 Therefore, by detecting the movement amount X and the focal length f than a certain reference, the focus plane distance L of the lens can be calculated.

【0026】また、図5は、平行視状態でのピント面距離Lにおける共通エリアの比率rの変化を各焦点距離に対して示した線図である。 Further, FIG. 5 is a graph showing a change in the ratio r of the common area in the focal plane distance L parallel vision state for each focal length. 但し、基線長aは70mm, However, the base line length a is 70mm,
焦点距離fは8〜70mm,CCDは1/3インチの場合とし、上記共通エリアの比率rは、例えば、ピント面距離L1 では全画角幅W0 に対する共通範囲幅W1 の割合(%)で示している。 Focal length f is 8~70Mm, CCD in the case of the 1/3 inch, the ratio r of the common area, for example, a percentage of the common range width W1 with respect to the focal plane distance L1 in entire field angle width W0 (%) ing.

【0027】本図に示されるように、平行視の場合、至近側で、かつ、焦点距離fが大きくなるほど、共通エリアの比率rは、低下する。 [0027] As shown in the figure, the case of a parallel vision, in close side, and the larger the focal length f, the ratio r of the common area is reduced. また、前記図3,4の撮影画面に示すように左眼側の映像の共通エリアは、右側方向に位置するが、右眼側の映像の共通エリアは左側方向に位置する。 The common area of ​​the left eye side of the image as shown in the shooting screen of FIG. 3 and 4 is located on the right side, the common areas of the right eye image is located to the left. 上記図5の共通エリアの比率rを参照し、また、図3,4に示される撮影画面から共通エリアがどちら寄りであるかの情報に基づいてAF,AE処理のための共通エリアの設定ができる。 Referring to the ratio r of the common area of ​​FIG 5, also, the setting of a common area for the AF, AE process based on whether the information is common area from the photographed screen shown in FIGS. 3 and 4 are either closer it can.

【0028】本実施例の装置では、上述の演算法等を適用して、平行視状態でのAF,AE処理が実行されるが、そのAF,AE処理動作について、図6の制御の流れを示すブロック図と、図7のAF,AE処理のフローチャートを用いて説明する。 [0028] In apparatus of this embodiment, by applying the calculation method described above, AF in parallel vision state, but AE process is executed, the AF, the AE processing operation, the control flow of FIG. 6 It will be described with reference the block diagram, AF 7, a flowchart of the AE processing. まず、ステップS1において、ズーム釦で指示されるレンズ焦点距離f、レンズ系の基線長a、輻輳角α等を読み出す。 First, in step S1, reads the lens focal length f indicated by the zoom button, the lens system base length a of the convergence angle α and the like. この場合、平行視状態であり、上記輻輳角αは0°である。 In this case, a parallel vision state, the above-mentioned convergence angle α is 0 °.

【0029】ステップS2において、現フォーカスレンズ繰り出し位置を該カメラ検出回路8により検出し、そのデータを取り込む。 [0029] In step S2, the position feed current focus lens detected by the camera detection circuit 8 fetches the data. ステップS3において、上記フォーカスレンズ繰り出し位置に対するピント面距離Lを前記(1)式に基づき、CPU9の距離演算回路9aにて算出する。 In step S3, based on the focus plane distance L in the equation (1) with respect to the focus lens extension position is calculated in CPU9 distance calculation circuit 9a. さらに、ステップS4にてCPU9の演算回路9bにより共通エリアの比率rと画面上の共通エリア位置を求める。 Furthermore, the arithmetic circuit 9b of the CPU9 in Step S4 determine the common area position on the ratio r and the screen of the common area. これらは、前記図5の共通エリアの比率rデータ、または、ステップS1で得た各レンズ情報により演算することから求められる。 These ratios r data common area of ​​FIG 5, or is determined from that calculated by the lens information obtained in step S1. さらに、ステップS In addition, step S
5にて、図3に示すように上記共通エリア23,24のうち、全共通幅に対する枠幅b%の枠部を除いた内側をAF,AE検出エリアとして決定する。 At 5, out of the common areas 23 and 24 as shown in FIG. 3, it determines the inner excluding the frame portion of the frame width b% relative to the total common width AF, as an AE detection area. この決定はCP This decision CP
U9内のAF,AE検出エリア決定手段にてなされる。 AF in U9, made by AE detection area determining means.

【0030】なお、上記枠幅bの値は、焦点距離fの値により変化するように設定することが好ましい。 [0030] The value of the frame width b is preferably set to change the value of the focal length f. すなわち、全画角幅に対する被写体の大きさから考えると、テレ側では比較的に枠幅bを大きくして、エリアの狭め方を少なくし、ワイド側では比較的に枠幅bを小さくして、エリアをあまり狭めないようにする。 That is, considering the size of the subject relative to total angle width by increasing the relatively Wakuhaba b at the telephoto side, to reduce how narrow area, to reduce the relatively Wakuhaba b-wide-side , so as not to narrow too much the area.

【0031】そして、ステップS6において、上記A [0031] Then, in step S6, the A
F,AE検出エリアに対するAF,AE処理、すなわち、フォーカスレンズを駆動してフォーカシング処理を、また、測光値に基づくアイリスの調節をAF,AE F, AF for AE detection area, AE processing, i.e., the focusing process by driving the focus lens, also, AF adjustment of the iris based on the photometric value, AE
実行手段により実行する。 It is executed by the execution means.

【0032】ステップS7において、上記フォーカシング処理により左右のレンズ系1,2共に合焦状態が得られたかどうかをチェックし、合焦状態が得られれば、本処理を終了するが、合焦状態が得られなければ、再度A [0032] In step S7, checks whether the left and right lens systems 1 and 2 are both in-focus state obtained by the focusing process, as long obtained focus state, but the process is terminated, the in-focus state if not obtained, again A
F,AE検出エリアを設定するために、前記ステップS F, in order to set the AE detection area, the step S
1に処理を戻す。 The process returns to 1.

【0033】上述のように本実施例の装置での平行視状態でのAF,AE処理が実行されるので、双方のレンズ系に対する共通エリアをAFエリア、または、AEエリアとして設定することができ、ピント面、および、露出条件を左右のレンズ系の間で一致させることができ、観察し易く、安定した状態の立体映像用の左右の撮影画像データを得ることができる。 The AF in parallel vision state in the apparatus of the present embodiment as described above, since the AE process is executed, AF area common area for both of the lens system, or can be configured as an AE area , focal plane, and, the exposure condition can be matched between the left and right lens systems, easily observed, it is possible to obtain a photographed image data of the left and right for stereo image stable.

【0034】次に、本実施例の立体撮像装置において、 Next, the stereoscopic imaging device of the present embodiment,
輻輳視状態、すなわち、2つのレンズ系が輻輳角を持つ状態でのAF,AE処理について説明する。 Congestion vision state, i.e., AF in a state in which two lens system has an angle of convergence, the AE process is described. まず、撮影状態におけるピント面距離は、前記平行視の場合と同様に前記(1)式により求められる。 First, focal plane distance in the photographing state is determined by the parallel view of the case as well as the equation (1).

【0035】一方、被写体の共通範囲については、図8 Meanwhile, the common range of subject, 8
の撮影状態図に示すように輻輳視の条件でレンズ系1, Lens system 1 in conditions of congestion view as shown in the shooting state diagram,
2がセットされたとすると、2つの光軸O1 ,O2 の交点であるレンズ系注視点PF より遠い距離L1 上の共通エリアW1 は、図9(A),(B)の左レンズ系の画面31と右レンズ系の画面32にも示すように、上記左画面31では、画面の左側に、また、右画面32では右側に寄っている。 When 2 is set, a common area W1 on the two optical axes O1, O2 distances L1 from the lens system fixation point PF is the intersection of the FIG. 9 (A), the left lens system (B) Screen 31 and as shown in the screen 32 of the right lens system, in the left screen 31, the left side of the screen, also shifted to the right in the right screen 32. すなわち、互いに外側に寄っている。 That is, closer to the outside together. また、上記レンズ系注視点PF より近い距離L2 での共通エリアW2 は、図10(A),(B)に示すように、左画面35では、画面の右側に、また、右画面36では左側に寄っている。 The common area W2 in the lens system fixation point distance closer than PF L2, as shown in FIG. 10 (A), (B), the left screen 35, the right side of the screen, also in the right screen 36 left It relies on. すなわち、互いに内側に寄っている。 That is, closer to the inside each other.

【0036】また、上記注視点PF までの距離LF は、 [0036] In addition, the distance LF until the fixation point PF is,
左右レンズ系1,2の基線長aと傾斜角φから次式で求めることができる。 Can be calculated as base length a of the left and right lens systems 1 and 2 from the tilt angle φ by the following equation. すなわち、 LF =(a/2)×tanφ ………(2) である。 That is, LF = (a / 2) × tanφ ......... (2).

【0037】そこで、前記(1)で求めたピント面距離Lと上記注視点PF までの距離LFを比較し、 L>PF または L<PF ………(3) のいずれを満足するかをチェックすれば、ピント面が図8の距離L1 側であるか距離L2 側であるかを判別でき、画面上の共通エリアのパターンが前記図9の状態を適用すべきか、前記図10の状態を適用すべきかが解る。 [0037] Therefore, checks by comparing the distance LF to focal plane distance L and the fixation point PF obtained in the above (1), satisfies either L> PF or L <PF ......... (3) if, focal plane can be determined whether the distance L2 side is a distance L1 side of FIG. 8, or a pattern of a common area on the screen to be applied to the state of FIG. 9, applied to the state of FIG. 10 You should have seen.

【0038】さらに、共通エリアの範囲を限定するため、輻輳視の状態での共通エリアの撮影全画角幅W0 に対する比率r%は、例えば、図11に示す共通エリアの比率線図より求めることができる。 [0038] Furthermore, to limit the scope of the common area, the ratio r% for capturing full angle width W0 of the common area in the state of congestion vision, for example, be determined from the ratio diagram of a common area shown in FIG. 11 can. なお、上記図11 Note that FIG 11
は、レンズ注視点距離は2m,基線長aは70mm、焦点距離fは8〜70mm、CCD1/3インチの条件での共通エリアの比率を示す。 The lens fixation point distance 2m, base length a is 70 mm, the focal length f 8~70Mm, it indicates the ratio of the common area in the conditions of CCD 1/3 inches.

【0039】本実施例の装置における輻輳視状態でのA [0039] A of congestion vision state in the apparatus of the present embodiment
F,AE処理についても、上述の演算法等を適用してA F, the AE processing is also applied to calculation method described above A
F,AE処理が実行されるが、その処理について、前記平行視の場合と同様に前記図7のAF,AE処理のフローチャートに従って処理される。 F, although AE process is executed, for the process, the parallel view of the case as well as AF of FIG. 7, are processed according to the flowchart of AE processing. そして、共通エリアを求め、それをAF,AE検出エリアとして適用することになる。 Then, a common area, so that applying it AF, as an AE detection area.

【0040】但し、前記平行視の場合と異なる点は、この場合、輻輳角が設定されているのでカメラ検出回路8 [0040] However, the case of the different parallel view, in this case, since the convergence angle is set camera detector 8
(レンズ情報検出手段)により輻輳角が検出される。 Convergence angle is detected by (lens information detection means). 但し、この例では、直接、輻輳角そのものが検出される訳ではなく、左右レンズ系1,2の基線方向に対する傾き角φが輻輳角に対応した角度として検出される。 However, in this example, directly, the convergence angle itself does not mean to be detected, the inclination angle φ with respect to the baseline direction of the left and right lens systems 1 and 2 is detected as an angle corresponding to the angle of convergence.

【0041】そして、前述のように上記(2)式に適用して、上記注視点PF までの距離LF を求める。 [0041] Then, by applying the above equation (2) as described above, obtaining the distance LF to the fixation point PF. また、 Also,
共通エリアのパターンの指定は、前記(3)式の判別式で決定する。 Specifying patterns common area is determined by discriminant of the equation (3). さらに、共通エリアの撮影全画角幅W0 に対する比率r%は、前記図11に示す共通エリア比率線図に基づいて設定される。 Furthermore, the ratio r% for capturing full angle width W0 of the common area is set based on the common area ratio line diagram shown in FIG. 11. その他の処理は、平行視の場合と同様である。 The other processes are the same as in the case of parallel view.

【0042】以上、説明したように本実施例の立体撮像装置によれば、左右撮影レンズ系1,2が平行視の状態であっても輻輳視の状態であっても、左右レンズ系に対して共通のエリアであって、しかも、適切な大きさに限定されたエリアをAF,AEの検出エリアとして採用することができ、さらに、そのエリアに共通の被写体が存在するかどうかの確認を行って、AF,AE処理を実行する。 [0042] According to the stereoscopic imaging device of the present embodiment as described, even in the state of the left and right photographing lens system 1 parallel viewed even in a state of congestion view, to the left and right lens systems a common area Te, moreover, can be employed is limited to an appropriate size area AF, as a detection area of ​​the AE, further subjected to check whether a common object in the area exists Te, to run AF, the AE processing. 従って、従来の立体撮像装置のように、AF,A Therefore, as in the conventional stereoscopic imaging apparatus, AF, A
E検出エリアを画面中央に限定することによって生じる左右レンズ系でピント面距離データや測光データが異なってしまう不具合の発生を防止することができる。 The occurrence of a problem that the focal plane distance data and photometric data becomes different and it is possible to prevent the left and right lens systems caused by limiting the E detection area in the center of the screen.

【0043】上述の実施例の立体撮像装置では、2つのレンズ系を使用した立体映像撮影装置として説明をしたが、1つのレンズ系による立体映像撮影装置、例えば、 [0043] In the stereoscopic image pickup apparatus of the above embodiment has been described as a stereoscopic image photographing apparatus using a two lens system, the stereoscopic image photographing apparatus according to one of the lens system, for example,
前記従来の特開平1−284090号公報に開示の立体撮像装置に対しても、上記実施例に基づくAF,AE方式を適用したものを変形例として提案することが可能である。 The even for conventional Hei 1-284090 Patent Publication discloses a stereoscopic imaging device, it is possible to propose AF based on the above examples, a material obtained by applying the AE method as a modification.

【0044】すなわち、上記従来の特開平1−2840 [0044] That is, the conventional Hei 1-2840
90号公報に開示の立体撮像装置においては、左右映像のピント,明るさは同じにすることは可能であるが、片方のレンズ系に合わせるために最終的に合う主要被写体が、撮影者の意に反する可能性が出てくる。 In the stereoscopic imaging apparatus disclosed in 90 publication is that the focus of the left and right images, it is possible brightness is the same, the main subject fit finally to match the one of the lens system, meaning photographer possibility that contrary to come out. 例えば、図23の撮影状態の場合、被写体124を主要被写体として撮影しようとするときでもAF,AE検出エリアが左眼の映像の中心近傍に設定され、背景の被写体(家)1 For example, if the imaging state of FIG. 23, AF even when attempting to photograph a subject 124 as the main subject, the AE detection area is set near the center of the image of the left eye, the subject of the background (house) 1
23に合焦してしまう。 It would focus on 23.

【0045】そこで、上述した実施例の立体撮像装置のAF,AE検出エリア設定の方式を適用すれば、左右撮影画面のAF,AE検出エリアを共通エリアとして処理することができ、上述のような不具合を防止できる。 [0045] Therefore, AF of stereoscopic imaging apparatus of the embodiment described above, by applying the method of the AE detection area setting, can process the left and right shooting screen AF, the AE detection area as a common area, such as described above defects can be prevented.

【0046】ところで、上記実施例の2つのレンズ系を使用した立体撮像装置によると、各レンズ系のフォーカスレンズ枠の駆動を独立した回路及び機構で行った場合、合焦するまでの左右の映像に差が生じる可能性がある。 By the way, according to the stereoscopic imaging device using a two lens system of the embodiment, when made in the lens system focus lens frame independent circuits and mechanisms driving of the left and right images up to focus there is a possibility that the difference in results. その不具合を解決するものとして、次の変形例の立体撮像装置を提案する。 To solve the problem, we propose a three-dimensional image pickup apparatus of the next modification. すなわち、左右レンズ系1,2 In other words, the left and right lens systems 1 and 2
は、元来、略同等の特性をもつことが必要であることから、片方のレンズ系のAF制御方法に準じ、他方のレンズ系も同一量のAF制御を行うようにすれば、略一致した映像が得られる。 Was originally, since it is necessary to have a substantially equal characteristics, according to the AF control method of one of the lens system, the other lens system may be to perform the same amount of AF control, and substantially matches the video can be obtained. そこで、本変形例においては、前述のAF検出エリアの設定、または、変更を片方のレンズ系の処理でのみ行うようする。 Therefore, in this modification, setting of the aforementioned AF detection area, or to to make changes only in the processing of one of the lens system. このように処理することにより、合焦するまでの左右映像の差の発生を防止することができる。 By such processing, it is possible to prevent the occurrence of the difference between the left and right images up to focus.

【0047】しかしながら、上記変形例のおいても左右レンズ系の特性は、組立上、、または、加工上のバラツキが存在するため、ピント精度は左右で完全には一致させることは難しい。 [0047] However, the characteristics of the left and right lens systems can have up for the variation, assembled on ,, or, since variations in processing exists, focusing accuracy it is difficult to perfectly match the left and right. そこで、さらに、上記実施例の立体撮像装置の変形例として次に提案するものは、制御上、 Therefore, further, that then proposed as a modified example of the stereoscopic imaging device of the embodiment, the control on,
主になるレンズ系である片方のレンズ系における主要被写体への視線方向を図1に示すHMD17の視線検出回路15により検出し、さらに、上記主要被写体の具体的位置を検出し、それらの情報により、他方のレンズ系に対する主要被写体の位置を全体映像のどの位置になるかを算出し、改めて他方のレンズのAFエリアを設定し、 The viewing direction of the main object in one of a lens system which is mainly composed of the lens system detected by the sight line detection circuit 15 of HMD17 shown in FIG. 1, further detects the specific position of the main subject by the information , the position of the main subject relative to the other lens system calculates whether made at which position the entire image, set the AF area anew other lens,
他方のレンズ系のみのAF処理を再度行う。 It performs AF processing only the other lens system again. この変形例によると、被写体が一致したより精度の高いエリアをA According to this modification, a highly accurate than the object matches the area A
Fエリアとして設定可能となり、適切な左右映像を得ることができる。 It can be configured as F area, it is possible to obtain an appropriate left and right images.

【0048】次に、上述の変形例の処理を図12の撮影状態図,図13のHMD観察画面、および、図14のフローチャートにより詳しく説明する。 Next, photographing state diagram of FIG. 12 the process of the variation example described above, HMD observation screen of FIG. 13, and will be described in more detail in the flowchart of FIG. 14. 上記図12は、上記変形例の装置における撮影状態を示す図であり、上述の主なるレンズ系としては撮影レンズ系1を、また、他のレンズとしては撮影レンズ系2を適用した場合を示している。 FIG 12 is a diagram showing an imaging state in the apparatus of the modified example shows the case of the photographing lens system 1 as Lord lens system described above, also according to the imaging lens system 2 as another lens ing. 図13は、ファインダとしてのHMD17により観察される左右画面41,42と、視線方向等の光路を示している。 Figure 13 is a right screen 41 observed by HMD17 as a finder, and an optical path such as line-of-sight direction.

【0049】上記図12において、位置PG は、レンズ系1側のみによる被写体46に対するピント位置であり、距離Lが該ピント位置に対するピント面距離を示している。 [0049] In FIG 12, the position PG is a focus position with respect to the subject 46 by only the lens system 1 side, the distance L indicates a focal plane distance to the focus position. これは、レンズ系1が被写体46に対してベストピントであることを示す。 This indicates that the lens system 1 is the best focus on the subject 46. また、上記図13において、エリア43,44は、上記画面41,42上の求められたAF検出エリアを示している。 Further, in FIG 13, the area 43 and 44 show the AF detection area determined on the above screen 41. なお、画角2× In addition, the angle of view 2 ×
Z′は、撮影レンズ系1,2の画角2×Zに対応するH Z 'corresponds to the angle 2 × Z of the imaging lens system 1, 2 H
MDの観察画角を示す。 It shows the observation angle of view of the MD. そして、角度θ′,θは、撮影レンズ系1対応側のHMD17で検出された光軸O1 基準の視線方向角度と撮影レンズ系1の視線方向角度を示す。 Then, the angle theta ', theta indicates the viewing direction angle and gaze direction angle of the imaging lens system 1 of the detected optical axis O1 criteria HMD17 photographing lens system 1 corresponding side. また、角度η′,ηは、撮影レンズ系2側対応のH The angle eta ', eta is the imaging lens system 2 side corresponding H
MD17上と撮影レンズ系2上の演算により求められる光軸O2 基準の視線方向角度を示す。 MD17 indicating the viewing direction angle of the optical axis O2 standards required by the calculation of the upper and the imaging lens system 2.

【0050】上記角度θとθ′、および、角度ηとη′ [0050] the angle θ and θ ', and, angle η and η'
は、撮影レンズ画角2×ZとHMD17画角2×Z′の関係から、 θ/θ′=Z/Z′、また、η/η′=Z/Z′ の関係式により換算される。 It is' from the relationship, theta / theta 'photographing lens angle 2 × Z and HMD17 angle 2 × Z = Z / Z', also, eta / eta 'are translated by the relational expression = Z / Z'.

【0051】本変形例におけるAF処理を図14のフローチャートに沿って説明すると、まず、ステップS11 [0051] To explain AF process in this modification to the flowchart of FIG. 14, first, Step S11
において、レンズ系1側のAFを実行し、合焦した後、 In executes lens system 1 side of the AF, after focusing,
被写体46のピント面距離Lを検出し、HMD17の視線検出により被写体46のファインダ画面上の方向角度θ′を検出し、対応するレンズ系1の視線方向角度θを算出する。 Detecting a focal plane distance L of the object 46, detects the direction angle theta 'on the finder screen of the object 46 by the line-of-sight detection HMD17, it calculates the gaze direction angle theta of the corresponding lens system 1.

【0052】ステップS12において、上記距離Lと角度θからレンズ系2側の被写体46の視線方向η′、または、ηを演算する。 [0052] In step S12, the distance L and the angle viewing direction of the lens system 2 side of the object 46 from theta eta ', or calculates the eta. ステップS13において、視線方向η′、または、ηを中心としたエリア44をAF検出エリアに設定し、再度、AF処理を実行する。 In step S13, line-of-sight direction eta ', or set the area 44 around the eta in AF detection area again, the AF process is executed. この再A This re-A
F処理によりレンズ系2に対しても適切なAF処理がなされる。 Suitable AF process is performed with respect to the lens system 2 by F treatment. 前述したようにレンズ系1,レンズ系2間にはばらつきが存在するので、主レンズ系のAF制御方法に準じ、他方レンズ系について同一量の制御をしても、図12に示すピント面距離差ΔLが生じるため、上記変形例の手段により再AFすることにより被写体距離の修正ができる。 Lens system 1 as described above, since variations are present between the lens system 2, according to the AF control method of the main lens system, even when the control of the same amount for the other lens system, focal plane distance shown in FIG. 12 the difference ΔL occurs, it is corrected for subject distance by re AF by means of the modification.

【0053】なお、本変形例のAF処理によれば、片方の視線検出と被写体距離の情報より、他方のレンズ系側の視線方向を推定算出することができるので、上記他方側のレンズ系の視線検出手段が不要となる。 [0053] Note that according to the AF processing of this modification, the information in one of the line-of-sight detection and the object distance, can be estimated calculating the gaze direction of the other lens system side, the other side lens system line-of-sight detection means is not required.

【0054】つぎに、上記実施例の立体撮像装置に対して、観察者の融像立体視の限界視線方向角に基づいて、 Next, with respect to the stereoscopic imaging device of the embodiment, on the basis of the limit line-of-sight direction angle of the viewer's fusion stereoscopic
レンズ系の輻輳角を可変とする変形例について説明する。 The convergence angle of the lens system will be described modification variable. 前記実施例の立体撮像装置では、図15の撮影状態図における平行視状態で共通の被写体51が存在する共通範囲Wの左右の撮影画像が撮影レンズ系1、2により取り込まれる。 The stereoscopic imaging apparatus of the embodiment, the captured image of the right and left common range W which exists common object 51 in a parallel vision state in the photographing state diagram of FIG. 15 is captured by the photographing lens system 1,2. その画像が図16(A),(B)にHM The image in FIG. 16 (A), HM to (B)
D17により観察される左右画面52,53として示されるが、上記左右画面52、53の共通範囲に対応する共通エリア54,55内に設定されたAF,AE検出エリア54a,55a中に上記共通範囲Wのピント面距離Lの被写体51が位置しており、該被写体51に該レンズ系は合焦する。 Although shown as a right and left screens 52 and 53 is observed by D17, the common range AF which is set in the common area 54 and 55, AE detection area 54a, in 55a corresponding to the common range of the left and right screens 52, 53 W has the object 51 is located in the focal plane distance L, the lens system to the object 51 is focused. 合焦されたことが確認できれば、さらに、HMD17の視線検出回路15により、該被写体5 If it is confirmed to have been focused, further, the sight line detection circuit 15 of HMD17, the subject 5
1の位置する視線方向角度θが検出される。 Viewing direction angle θ to the position of 1 is detected.

【0055】ところが、上記視線方向角度θが後述する融像上の寄り目、拡散目の許容角度を超えた値になると、HMD17での観察が難しくなってしまう。 [0055] However, cross-eyed on fusion of the visual line direction angle θ will be described later, at a value exceeding the allowable angle of diffusion eyes, it becomes difficult to observe in HMD17. そこで、本変形例の立体撮像装置は、上記視線方向角度が所定の値を超えた状態になった場合には、自動的に撮影レンズ系1,2を回動させることによって、図17に示すように、被写体51に視線方向を合わせた輻輳視状態にセットすることを可能とした装置である。 Therefore, the three-dimensional imaging apparatus of this modification, when the viewing direction angle is in a state of exceeding a predetermined value, by automatically rotating the imaging lens system 1, shown in FIG. 17 as such, it is possible with the apparatus to be set to the congestion vision state in which the combined line of sight to the object 51. すなわち、本変形例では、平行視状態で視線方向が立体像として融像する限界をこえたときには、図18(A),(B)の左右観察画面61,62のように検出エリアの被写体51 That is, in this modified example, when the viewing direction exceeds the limit of fusion as a stereoscopic image in a parallel vision state, FIG. 18 (A), the object 51 of the detection area as the left and right observation screen 61, 62 (B)
が、両レンズ系1,2の光軸O1 ,O2 上に位置するように、該レンズ系を回転させ、より見やすい自然に近い映像を取り込むようにする。 But so as to be positioned on the optical axis O1, O2 of the two lens systems 1 and 2, it rotates the lens system, to capture the more visible natural image close.

【0056】上記融像上の寄り目、拡散目の許容角度について説明すると、図19の撮影状態図に示す距離L0 [0056] cross-eyed on the fusion, explaining the acceptance angle of diffusion eyes, the distance shown in the photographing state diagram of FIG. 19 L0
,LA ,LB にある被写体71,72,73に対して、被写体71の位置をレンズ系注視点とした輻輳角の条件でレンズ系1,2により撮影したとする。 , LA, for an object 71, 72, 73 in LB, and were taken by the lens system 1, 2 under the condition of convergence angle of the position of the subject 71 and the lens system gazing point. その撮影画面をHMD17により観察した場合、その左右の撮影画面に対する観察者の視線方向としては、図20の左撮影画面75に示すように被写体72,73に対する観察者の外,内側視線方向角度がそれぞれθLA′,θLB′となり、また、図20の右撮影画面76に示すように被写体72,73に対する観察者の外,内側視線方向角度がそれぞれθRA′,θRB′となる。 When observing the shooting screen by HMD17, as the viewing direction of the observer with respect to the right and left photographing screen, outside the observer with respect to the object 72, 73 as shown in the left imaging screen 75 in FIG. 20, the inner viewing direction angle each θLA ', θLB' becomes also outside of the observer with respect to the object 72, 73 as shown in the right imaging screen 76 in FIG. 20, each inner eye direction angles θRA ', θRB' becomes.

【0057】そこで、上記外、または、内側視線方向角度がある所定の角度を超えると、HMD17上の観察状態で拡散目、または、寄り目となってしまい、観察者の融像許容値を超え、融像しなくなって、立体視が不可能となってしまう。 [0057] Thus, the outer, or exceeds a predetermined angle with the inner eye direction angles, diffusion eye observation state on HMD17, or becomes a cross-eyed, beyond the fusion tolerance of the observer, no longer fusion, becomes impossible to stereoscopic. また、許容限界状態で立体視を長時間行うと目の疲れを生じてしまう。 Further, it occurs eyestrain when performing stereoscopic long time allowable limit state. 上記視線方向角度のある所定の角度が前述の融像上の拡散目、寄り目の許容角度である。 Predetermined angle with the line-of-sight direction angle is diffused eyes on the aforementioned fusion, the allowable angle of cross-eyed. したがって、融像による立体視を行う場合、 Therefore, when performing stereoscopic by fusion,
上記外、または、内側、すなわち、拡散目、または、寄り目側の許容視線方向角度内で立体視を行う必要があり、上述の変形例の立体撮像装置を適用すれば、上述の不具合が生じないことになる。 The outer, or inner, i.e., diffusion eyes, or, it is necessary to perform stereoscopic viewing by cross-eyed side allowable viewing direction angle within, by applying the three-dimensional imaging device in the above-mentioned variation, the above problem does not occur It will be.

【0058】前述の変形例の立体撮像装置において、被写体の位置の方向である視線方向を検出する場合、さらに、検出精度の高いものを別の変形例として提案できる。 [0058] In the stereoscopic imaging device of the above modification, when detecting the viewing direction is the direction of the position of the subject, further, may propose a high detection accuracy as another modified example. すなわち、この変形例では主要被写体が共通エリアのどの位置にあるかの検出、すなわち、視線方向角度を検出するには、左右の検出エリアをさらに分割し、各エリアの映像信号の高周波成分の大きさを比較することによって、主要被写体の位置を検出する。 That is, the detection of whether the main object in this modification is in any position in the common area, i.e., to detect the gaze direction angle, further divides the left and right detection area, the magnitude of the high frequency component of the video signal of each area by comparing is to detect the position of the main subject. このようにして検出した精度の高い主要被写体の位置への視線方向に左右レンズ系1,2を駆動することが可能となる。 In this way it is possible to drive the left and right lens systems 1 and 2 to the viewing direction to the location of the high and detection accuracy main subject.

【0059】さらに、上述の主要被写体の方向を検出する別の手段を適用した変形例を提案できる。 [0059] Further, we propose a variation applied to another means of detecting the direction of the main object described above. その変形例は、分割したエリアを左右レンズ系でパターンマッチングを行い、共通パターンを検出することによって主要被写体を検出する手段を適用するものである。 Modification thereof, performs pattern matching the divided areas in the left and right lens systems, it is to apply a means for detecting a main subject by detecting the common pattern. このような方法を用いて主要被写体の視線方向を高精度に検出することができる。 Using such methods it is possible to detect the gaze direction of the main object with high accuracy.

【0060】また、これらの変形例における検出手段は、前記実施例の立体撮像装置において、同一検出エリアに複数の被写体があり、どの被写体に対し、ピントを合わせるかを決定する場合にも各々有効な手段となる、 [0060] The detection means in these variations, the stereoscopic imaging apparatus of the embodiment, there are multiple subjects in the same detection area, with respect to any object, also each effective in determining the focus to becomes a means,
これらの処理は、前記図7に示したAF,AE検出エリアの決定のためのフローチャートに沿って処理することができる。 These processes, AF shown in FIG. 7, can be processed according to the flowchart for the determination of AE detection area. 具体的には、まず、同一被写体の映像位置を検出し、その被写体にAF処理した後、左右の視線検出を行って、その視線方向の近辺を検出エリアとして、A Specifically, first, it detects the image positions of the same object, after the AF process to the object, by performing the left and right line-of-sight detection, a detection area of ​​the vicinity of the viewing direction, A
F処理を行う。 Perform the F processing.

【0061】 [0061]

【発明の効果】本発明の請求項1記載の立体撮像装置においては、2つの撮像光学系に係る所定の情報に基づいて合焦検出範囲を演算して、その範囲に対して自動合焦処理を実行可能としたので、左右の撮像光学系ともに合焦ができ、見やすく疲れにくい安定した状態の立体映像情報が得られる。 In the stereoscopic imaging apparatus according to the first aspect of the present invention exhibits, by calculating the focus detection range based on predetermined information relating to the two imaging optical systems, automatic focusing process for the range since the enable execution can focus on both the right and left imaging optical systems, legible fatigue stable stereoscopic video information of the state is obtained.

【0062】本発明の請求項2記載の立体撮像装置においては、2つの撮影光学系における共通の被写体範囲に対して、合焦処理を行うようにしたので、左右の撮像光学系ともに同一被写体に対する合焦ができ、見やすく疲れにくい状態の立体映像情報を得ることができる。 [0062] In the stereoscopic imaging apparatus according to claim 2 of the present invention is to provide a common object range in the two imaging optical systems, since to perform the focusing process, for the same object in both the right and left imaging optical systems focusing can, it is possible to obtain a three-dimensional image information of the fatigue legible state.

【0063】本発明の請求項3記載の立体撮像装置は、 [0063] stereoscopic imaging apparatus according to claim 3 of the present invention,
2つの撮影光学系における合焦検出範囲の相対位置情報に基づき、撮影光学系の輻輳角を変化させるようにしたので、立体画像の観察に際して、見やすく疲れにくい状態の立体映像情報を得ることができる。 Based on the relative position information of the focus detection range in the two imaging optical systems, since so as to vary the convergence angle of the imaging optical system, can be obtained when the stereoscopic image viewing, the stereoscopic image information of the fatigue legible state .

【0064】本発明の請求項4記載の立体撮像装置においては、2つの撮像光学系に係る所定の情報に基づいて測光範囲を演算して、その測光範囲に対して露出調節処理を実行するようにしたので、左右の撮影画面に露光の差がなくなり、見やすく、疲れにくい安定した状態の立体映像情報が得られる。 [0064] In the stereoscopic imaging apparatus according to claim 4 of the present invention, by calculating the photometric range based on predetermined information relating to the two imaging optical systems, to perform the exposure adjustment processing for the photometric range since the, there is no difference in the exposure to the left and right of the shooting screen, easy to see, hard to stable three-dimensional image information of the state of fatigue can be obtained.

【図面の簡単な説明】 BRIEF DESCRIPTION OF THE DRAWINGS

【図1】本発明の一実施例の立体撮像装置のブロック構成図。 Block diagram of a stereoscopic imaging apparatus according to an embodiment of the present invention; FIG.

【図2】上記図1の立体撮像装置において、平行視を行ったときの撮影状態図。 [2] In the stereoscopic imaging device of FIG. 1, the photographing state diagram when performing parallel view.

【図3】上記図2の撮影状態で比較的に遠い位置を撮影したときの撮影画面を示す図であって、(A)は左眼用撮影画面、(B)は右眼用撮影画面である。 [Figure 3] A diagram showing a photographing screen when photographing a relatively distant position photographing state of FIG 2, (A) is a left-eye shooting screen, (B) is a right-eye imaging screen is there.

【図4】上記図2の撮影状態で比較的近い位置を撮影したときの撮影画面を示す図であって、(A)は左眼用撮影画面、(B)は右眼用撮影画面である。 [4] A diagram showing a photographing screen when taken relatively close in the photographing state of FIG 2, is (A) the left-eye shooting screen, (B) is shooting screen for the right eye .

【図5】立体撮像装置における平行視の場合のピント面距離,焦点距離と左右レンズの撮影共通エリア比率の関係を示す図。 [5] focal plane distance when parallel vision in the stereoscopic imaging device, shows the relationship between the photographing common area ratio of the focal length between the left and right lenses.

【図6】上記図1の立体撮像装置において、AF,AE [6] In the stereoscopic imaging device of FIG 1, AF, AE
処理を実行する場合の処理の流れを示すブロック構成図。 Block diagram showing the flow of processing when performing the process.

【図7】上記図1の立体撮像装置において、AF,AE [7] In the stereoscopic imaging device of FIG 1, AF, AE
処理のフローチャート。 Flow chart of the process.

【図8】上記図1の立体撮像装置において、輻輳視を行ったときの撮影状態図。 [8] In the stereoscopic imaging device of FIG. 1, the photographing state diagram when performing congestion vision.

【図9】上記図8の撮影状態で比較的に遠い位置を撮影したときの撮影画面を示す図であって、(A)は左眼用撮影画面、(B)は右眼用撮影画面である。 [9] A diagram showing a photographing screen when photographing a relatively distant position photographing state of FIG 8, (A) is a left-eye shooting screen, (B) is a right-eye imaging screen is there.

【図10】上記図8の撮影状態で比較的に近い位置を撮影したときの撮影画面を示す図であって、(A)は左眼用撮影画面、(B)は右眼用撮影画面である。 [Figure 10] A diagram showing a photographing screen when photographing a position close relatively shooting state of FIG 8, (A) is a left-eye shooting screen, (B) is a right-eye imaging screen is there.

【図11】立体撮像装置における輻輳視の場合のピント面距離,焦点距離と左右レンズの撮影共通エリア比率の関係を示す図。 [11] the focal plane distance when congestion vision in the stereoscopic imaging device, shows the relationship between the photographing common area ratio of the focal length between the left and right lenses.

【図12】上記図1の実施例の立体撮像装置の変形例による撮影状態を示す図。 12 is a diagram showing a shooting condition according to a modification of the stereoscopic imaging apparatus of the embodiment of FIG 1.

【図13】上記図12の変形例の立体撮像装置で撮影された画面をHMDで観察するときの光路を示す図。 13 is a diagram showing an optical path when observing the photographed screen HMD with stereoscopic imaging apparatus according to a modification of FIG. 12.

【図14】上記図12の変形例の立体撮像装置におけるAF処理のフローチャート。 Figure 14 is a flowchart of AF processing in the stereoscopic imaging apparatus according to a modification of FIG. 12.

【図15】上記図1の立体撮像装置による平行視での撮影状態図。 [15] photographing state diagram of a parallel vision by stereoscopic imaging device of FIG 1.

【図16】上記図15の撮影状態で取り込まれた撮影画面を示す図であって、(A)は、左眼用撮影画面であり、(B)は、右眼用撮影画面を示す。 [Figure 16] A diagram showing a photographing screen captured by imaging state of FIG. 15, (A) is a photographic screen for the left eye, showing the (B) is shooting screen for the right eye.

【図17】上記図1の立体撮像装置の変形例による輻輳視での撮影状態図。 [17] photographing state diagram of congestion view according to a modification of the stereoscopic imaging device of FIG 1.

【図18】上記図17の輻輳視による撮影状態での撮影画面を示す図であって、(A)は左眼用撮影画面、 [Figure 18] A diagram showing a photographing screen of the photographing state by the congestion view of FIG 17, (A) is shooting screen for the left eye,
(B)は右眼用撮影画面である。 (B) is a right-eye shooting screen.

【図19】上記図17の変形例の立体撮像装置にて適用される融像を許容する視線方向角を説明するための撮影状態図。 [19] photographing state diagram for explaining the gaze direction angle that allows the applied fusion by stereoscopic imaging device of a modification of FIG. 17.

【図20】上記図19の撮影状態で撮影される撮影画面をHMDで観察するときの光路を示す図。 FIG. 20 shows an optical path when observing the imaging screen captured by imaging state of FIG. 19 in HMD.

【図21】従来の立体撮像装置を用いた場合の輻輳視による撮影状態を示す図。 It shows a photographing state by the congestion seen in the case of FIG. 21 using a conventional stereoscopic imaging apparatus.

【図22】上記図1の従来の立体撮像装置で撮影された左右眼用の撮影画面であって、(A)は左眼用撮影画面、(B)は、右眼用撮影画面を示す図。 [Figure 22] A photographic image plane for the right and left eyes taken by a conventional stereoscopic imaging device of FIG. 1, (A) is photographed screen for the left eye, (B) is a view showing a right-eye imaging screen .

【図23】図1の従来の立体撮像装置を用いた場合の平行視による撮影状態を示す図。 FIG. 23 is a diagram showing a photographing state by parallel view of the case of using a conventional stereoscopic imaging device of FIG.

【図24】上記図23の従来の立体撮像装置で撮影された左右眼用の撮影画面であって、(A)は左眼用撮影画面、(B)は、右眼用撮影画面を示す図。 [Figure 24] A photographic field for the conventional right and left eyes taken by the stereoscopic imaging device of FIG. 23 shows the (A) is a left-eye shooting screen, (B), the imaging screen for the right eye FIG .

【符号の説明】 DESCRIPTION OF SYMBOLS

1……左眼用レンズ系(第1の撮像光学系) 2……右眼用レンズ系(第2の撮像光学系) 8……カメラ検出回路(所定の情報を検出する検出手段) 9……CPU(合焦検出範囲、または、測光範囲を演算する演算手段、制御手段) 7……カメラ駆動回路(ピント調節手段,露出調節手段) 1 ...... left eye lens system (first imaging optical system) 2 ...... right eye lens system (second imaging optical system) 8 ...... camera detector (detecting means for detecting a predetermined information) 9 ... ... CPU (focus detection area or, calculating means for calculating a light measurement range, the control means) 7 ...... camera driving circuit (focusing means, exposure adjusting means)

Claims (4)

    【特許請求の範囲】 [The claims]
  1. 【請求項1】両眼視差を利用した立体撮像装置において、 左眼用撮像情報を得るための第1の撮像光学系と、 右眼用撮像情報を得るための第2の撮像光学系と、 撮像光学系に係る所定の情報を検出する検出手段と、 検出された所定の情報に基づき合焦検出範囲を演算する演算手段と、 演算された合焦検出範囲でピント調節を行うピント調節手段と、 を具備したことを特徴とする立体撮像装置。 1. A stereoscopic imaging apparatus using binocular parallax, a second imaging optical system for obtaining a first imaging optical system for obtaining imaging information for the left eye, the imaging information for the right eye, detecting means for detecting the predetermined information relating to the imaging optical system, and calculating means for calculating a focus detection range based on the detected predetermined information, and focus adjusting means for performing focus adjustment in the calculation in-focus detection range the stereoscopic image pickup apparatus is characterized in that comprises a.
  2. 【請求項2】検出手段により検出された所定の位置において、第1の撮像光学系と第2の撮像光学系で共通に撮像される範囲内を合焦検出範囲とする請求項1記載の立体撮像装置。 2. A predetermined position detected by the detecting means, stereo according to claim 1, wherein the range to be imaged in common in the first imaging optical system and the second imaging optical system and focus detection range imaging device.
  3. 【請求項3】ピント調節手段による合焦後の映像全体に対する合焦検出範囲の相対位置を検出し、この相対位置情報に基づき、撮像光学系の輻輳角を変化させる制御手段を有する請求項2記載の立体撮像装置。 Wherein detecting the relative position of the focus detection range for the entire image after focusing by the focus adjusting means, according to claim 2 Based on this relative position information, having a control means for changing the convergence angle of the imaging optical system stereoscopic imaging apparatus according.
  4. 【請求項4】両眼視差を利用した立体撮像装置において、 左眼用撮像情報を得るための第1の撮像光学系と、 右眼用撮像情報を得るための第2の撮像光学系と、 撮像光学系に係る所定の情報を検出する検出手段と、 検出された所定の情報に基づき、測光範囲を演算する演算手段と、 演算された測光範囲で露出調節を行う露出調節手段と、 を具備したことを特徴とする立体撮像装置。 4. The stereoscopic imaging apparatus using binocular parallax, a second imaging optical system for obtaining a first imaging optical system for obtaining imaging information for the left eye, the imaging information for the right eye, comprising: a detection means for detecting the predetermined information relating to the imaging optical system, based on the detected predetermined information, and calculating means for calculating a photometric range, and the exposure adjusting means for performing exposure adjustment in the calculated photometric range, the stereoscopic imaging apparatus characterized by the.
JP450995A 1995-01-13 1995-01-13 Stereoscopic image pickup device Withdrawn JPH08194274A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP450995A JPH08194274A (en) 1995-01-13 1995-01-13 Stereoscopic image pickup device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP450995A JPH08194274A (en) 1995-01-13 1995-01-13 Stereoscopic image pickup device

Publications (1)

Publication Number Publication Date
JPH08194274A true JPH08194274A (en) 1996-07-30

Family

ID=11586032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP450995A Withdrawn JPH08194274A (en) 1995-01-13 1995-01-13 Stereoscopic image pickup device

Country Status (1)

Country Link
JP (1) JPH08194274A (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007068876A (en) * 2005-09-09 2007-03-22 Olympus Medical Systems Corp Medical three-dimensional observation system
JP2007075338A (en) * 2005-09-14 2007-03-29 Olympus Medical Systems Corp Medical three-dimensional observation equipment
JP2010114712A (en) * 2008-11-07 2010-05-20 Fujifilm Corp Compound-eye photographing apparatus and control method thereof, and program
EP2278821A2 (en) 2009-07-17 2011-01-26 FUJIFILM Corporation Imaging device, imaging method and recording medium
JP2011017754A (en) * 2009-07-07 2011-01-27 Canon Inc Imaging device, control method of the same, and computer program
CN101968603A (en) * 2009-07-27 2011-02-09 富士胶片株式会社 Stereoscopic imaging apparatus and stereoscopic imaging method
JP2011193285A (en) * 2010-03-15 2011-09-29 Fujifilm Corp Imaging apparatus
WO2012021541A1 (en) * 2010-08-09 2012-02-16 Qualcomm Incorporated Autofocus for stereoscopic camera
US9438889B2 (en) 2011-09-21 2016-09-06 Qualcomm Incorporated System and method for improving methods of manufacturing stereoscopic image sensors
EP2577394A4 (en) * 2010-05-31 2017-05-31 Olympus Memory Works Corp. 3-dimensional image data generating method
US9733458B2 (en) 2014-06-20 2017-08-15 Qualcomm Incorporated Multi-camera system using folded optics free from parallax artifacts
US9819863B2 (en) 2014-06-20 2017-11-14 Qualcomm Incorporated Wide field of view array camera for hemispheric and spherical imaging
US9832381B2 (en) 2014-10-31 2017-11-28 Qualcomm Incorporated Optical image stabilization for thin cameras
US9838601B2 (en) 2012-10-19 2017-12-05 Qualcomm Incorporated Multi-camera system using folded optics
US9854182B2 (en) 2014-06-20 2017-12-26 Qualcomm Incorporated Folded optic array camera using refractive prisms
US9860434B2 (en) 2014-04-04 2018-01-02 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US9973680B2 (en) 2014-04-04 2018-05-15 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US10013764B2 (en) 2014-06-19 2018-07-03 Qualcomm Incorporated Local adaptive histogram equalization
US10084958B2 (en) 2014-06-20 2018-09-25 Qualcomm Incorporated Multi-camera system using folded optics free from parallax and tilt artifacts
US10178373B2 (en) 2013-08-16 2019-01-08 Qualcomm Incorporated Stereo yaw correction using autofocus feedback

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007068876A (en) * 2005-09-09 2007-03-22 Olympus Medical Systems Corp Medical three-dimensional observation system
JP2007075338A (en) * 2005-09-14 2007-03-29 Olympus Medical Systems Corp Medical three-dimensional observation equipment
JP2010114712A (en) * 2008-11-07 2010-05-20 Fujifilm Corp Compound-eye photographing apparatus and control method thereof, and program
JP2011017754A (en) * 2009-07-07 2011-01-27 Canon Inc Imaging device, control method of the same, and computer program
US8773509B2 (en) 2009-07-17 2014-07-08 Fujifilm Corporation Imaging device, imaging method and recording medium for adjusting imaging conditions of optical systems based on viewpoint images
EP2278821A2 (en) 2009-07-17 2011-01-26 FUJIFILM Corporation Imaging device, imaging method and recording medium
CN101968603A (en) * 2009-07-27 2011-02-09 富士胶片株式会社 Stereoscopic imaging apparatus and stereoscopic imaging method
EP2282549A2 (en) 2009-07-27 2011-02-09 FUJIFILM Corporation Stereoscopic imaging apparatus and stereoscopic imaging method
JP2011028053A (en) * 2009-07-27 2011-02-10 Fujifilm Corp Stereoscopic imaging apparatus and stereoscopic imaging method
US8547417B2 (en) 2009-07-27 2013-10-01 Fujifilm Corporation Stereoscopic imaging apparatus and stereoscopic imaging method
JP2011193285A (en) * 2010-03-15 2011-09-29 Fujifilm Corp Imaging apparatus
EP2577394A4 (en) * 2010-05-31 2017-05-31 Olympus Memory Works Corp. 3-dimensional image data generating method
WO2012021541A1 (en) * 2010-08-09 2012-02-16 Qualcomm Incorporated Autofocus for stereoscopic camera
US9438889B2 (en) 2011-09-21 2016-09-06 Qualcomm Incorporated System and method for improving methods of manufacturing stereoscopic image sensors
US9838601B2 (en) 2012-10-19 2017-12-05 Qualcomm Incorporated Multi-camera system using folded optics
US10165183B2 (en) 2012-10-19 2018-12-25 Qualcomm Incorporated Multi-camera system using folded optics
US10178373B2 (en) 2013-08-16 2019-01-08 Qualcomm Incorporated Stereo yaw correction using autofocus feedback
US9860434B2 (en) 2014-04-04 2018-01-02 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US9973680B2 (en) 2014-04-04 2018-05-15 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US10013764B2 (en) 2014-06-19 2018-07-03 Qualcomm Incorporated Local adaptive histogram equalization
US10084958B2 (en) 2014-06-20 2018-09-25 Qualcomm Incorporated Multi-camera system using folded optics free from parallax and tilt artifacts
US9843723B2 (en) 2014-06-20 2017-12-12 Qualcomm Incorporated Parallax free multi-camera system capable of capturing full spherical images
US9819863B2 (en) 2014-06-20 2017-11-14 Qualcomm Incorporated Wide field of view array camera for hemispheric and spherical imaging
US9733458B2 (en) 2014-06-20 2017-08-15 Qualcomm Incorporated Multi-camera system using folded optics free from parallax artifacts
US9854182B2 (en) 2014-06-20 2017-12-26 Qualcomm Incorporated Folded optic array camera using refractive prisms
US9832381B2 (en) 2014-10-31 2017-11-28 Qualcomm Incorporated Optical image stabilization for thin cameras

Similar Documents

Publication Publication Date Title
US5805205A (en) Simulataneous two-dimensional and three-dimensional imaging system using a bifurcated, dual-aperture light valve
US5801760A (en) Stereoscopic image pickup and display apparatus
US7061532B2 (en) Single sensor chip digital stereo camera
US20050052617A1 (en) Virtual image display apparatus
US20050053274A1 (en) System and method for 3D photography and/or analysis of 3D images and/or display of 3D images
US8026950B2 (en) Method of and apparatus for selecting a stereoscopic pair of images
US8456518B2 (en) Stereoscopic camera with automatic obstruction removal
JP3035434B2 (en) Compound-eye imaging apparatus
KR100519864B1 (en) Image information input device and method
US8406619B2 (en) Stereo camera with automatic control of interocular distance
US6721500B2 (en) Apparatus for three dimensional photography
KR100865464B1 (en) Three-dimensional image producing method and apparatus therefor
JP3387624B2 (en) Three-dimensional display apparatus
US3959580A (en) Directly viewable stereoscopic projection system
US6862140B2 (en) Stereoscopic image pickup system
US7899321B2 (en) Stereo camera with automatic control of interocular distance
JP3089306B2 (en) Stereoscopic imaging and display device
JP5531483B2 (en) Imaging apparatus and a video recording and reproducing system
EP0921694B1 (en) Stereoscopic image pick-up apparatus
JP3157384B2 (en) Three-dimensional imaging device
US6864910B1 (en) Optical apparatus
JP2005252732A (en) Imaging device
JP2011205358A (en) Head-mounted display device
JP3387326B2 (en) Video observation system
CN102984530A (en) Image processing system and automatic focusing method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20020402