JP5216640B2 - Imaging apparatus and method - Google Patents

Imaging apparatus and method Download PDF

Info

Publication number
JP5216640B2
JP5216640B2 JP2009058243A JP2009058243A JP5216640B2 JP 5216640 B2 JP5216640 B2 JP 5216640B2 JP 2009058243 A JP2009058243 A JP 2009058243A JP 2009058243 A JP2009058243 A JP 2009058243A JP 5216640 B2 JP5216640 B2 JP 5216640B2
Authority
JP
Japan
Prior art keywords
optical system
image
imaging
adjustment target
reference optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009058243A
Other languages
Japanese (ja)
Other versions
JP2010213083A (en
Inventor
正明 織本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009058243A priority Critical patent/JP5216640B2/en
Publication of JP2010213083A publication Critical patent/JP2010213083A/en
Application granted granted Critical
Publication of JP5216640B2 publication Critical patent/JP5216640B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Lens Barrels (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Description

本発明は、多視点から画像を取得可能な撮像装置に関する。   The present invention relates to an imaging apparatus capable of acquiring images from multiple viewpoints.

特許文献1では、ズーム駆動可能なメインレンズ系を介して得られた画像データを減数処理して、サブレンズ系を介して得られた画像データと等価な状態の画像データを生成する。次に、この画像データとサブレンズ系を介して得られた画像データとをパターンマッチングによって比較し、メインレンズ系を介して得られた画像データに相当する画像データを、サブレンズ系を介して得られた画像データの中から切り出して、記録部に記録させる。   In Patent Document 1, image data obtained through a zoom-driven main lens system is reduced, and image data in a state equivalent to image data obtained through a sub-lens system is generated. Next, the image data and the image data obtained through the sub lens system are compared by pattern matching, and image data corresponding to the image data obtained through the main lens system is obtained through the sub lens system. The image data is cut out from the obtained image data and recorded in the recording unit.

特許文献2では、CCDカメラの光学的位置の初期調整時や、経年変化によって初期調整時からずれた場合等に、画像補正装置に補正値検出装置を接続し、CCDカメラで撮像した画像における画角差、回転ズレ、並進ズレに応じたアフィン変換の変換値を演算し、画像補正装置を設定する。そして、この画像補正装置によってCCDカメラで撮像した画像をアフィン変換し、各CCDカメラの光学的位置を等価的に精密調整してステレオ画像処理装置に出力する。
特開2005−210217号公報 特開平10−307352号公報
In Patent Document 2, a correction value detection device is connected to an image correction device when the optical position of the CCD camera is initially adjusted, or when it is deviated from the initial adjustment due to secular change. A conversion value of affine transformation corresponding to the angular difference, rotation shift, and translation shift is calculated, and the image correction apparatus is set. Then, the image captured by the CCD camera is affine transformed by the image correction device, and the optical position of each CCD camera is equivalently precisely adjusted and output to the stereo image processing device.
Japanese Patent Laying-Open No. 2005-210217 JP-A-10-307352

特許文献1・2は、ステレオカメラの左右の光学系の光軸、画角の誤差を調整または補正する方法として、機械的な調整によらず、画像処理によって行うことを開示している。しかし、左右画像の共通範囲を切り出す方法だと、左右それぞれの画像に処理を施す必要があり、カメラ制御が煩雑であった。また、一方の光学系の画角を他方より広くしておいて、狭い方の画角に合わせて切り出し、拡大処理(電子ズーム)を行う方法も開示されているが、左右の画角の差が大きくなると、電子ズーム倍率を大きくする必要があり、片方の画質が低下するという問題がある。   Patent Documents 1 and 2 disclose that a method of adjusting or correcting an error in the optical axes and angle of view of the left and right optical systems of a stereo camera is performed by image processing without mechanical adjustment. However, in the method of cutting out the common range of the left and right images, it is necessary to process the left and right images, and camera control is complicated. In addition, a method is disclosed in which the angle of view of one optical system is made wider than the other and cut out in accordance with the narrower angle of view and enlargement processing (electronic zoom) is performed. When the zoom lens becomes large, it is necessary to increase the electronic zoom magnification, and there is a problem that the image quality of one of the images is degraded.

本発明は、多視点撮像装置の複数の光学系の光軸、画角の誤差を調整するに際して、簡単な方法でズーム時の画質低下を抑えてステレオ画像を得ることを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to obtain a stereo image by suppressing an image quality deterioration during zooming by a simple method when adjusting errors of optical axes and field angles of a plurality of optical systems of a multi-viewpoint imaging apparatus.

本発明に係る撮像装置は、所望の基準光学系および基準光学系以外の1または複数の調整対象光学系の各々を介して結像した被写体像を撮像素子により光電変換して複数の画像を出力する撮像部と、撮像部の調整対象光学系を介した撮像素子の撮影範囲が、撮像部の基準光学系を介した撮像素子の撮影範囲を包含するように、調整対象光学系のズームレンズ位置を基準光学系のズームレンズ位置よりも広角側に設定する制御部と、調整対象光学系を介して撮像素子が得た画像から、基準光学系を介した撮像素子の撮影範囲に対応する領域に包含される部分画像を切り出す切出部と、を備える。   An image pickup apparatus according to the present invention outputs a plurality of images by photoelectrically converting a subject image formed through each of a desired reference optical system and one or a plurality of adjustment target optical systems other than the reference optical system using an image pickup device. The zoom lens position of the adjustment target optical system so that the imaging range of the imaging device via the imaging unit and the adjustment target optical system of the imaging unit includes the imaging range of the imaging device via the reference optical system of the imaging unit From the image obtained by the image sensor via the optical system to be adjusted, to a region corresponding to the imaging range of the image sensor via the reference optical system. And a cutout unit that cuts out the included partial image.

制御部は、調整対象光学系の各ズーム段における基準光学系に対する光学的誤差に応じて、調整対象光学系のズームレンズ位置を設定する。   The control unit sets a zoom lens position of the adjustment target optical system according to an optical error with respect to the reference optical system at each zoom stage of the adjustment target optical system.

調整対象光学系および基準光学系の絞り値を変化させる絞り機構を備え、制御部は、調整対象光学系および基準光学系のズームレンズ位置と基準光学系の絞り値に応じて調整対象光学系の絞り値を設定する。   A diaphragm mechanism is provided for changing the aperture values of the adjustment target optical system and the reference optical system, and the control unit adjusts the position of the adjustment target optical system according to the zoom lens position of the adjustment target optical system and the reference optical system and the aperture value of the reference optical system. Set the aperture value.

制御部は、調整対象光学系の被写界深度が基準光学系の被写界深度と略等しくなるように調整対象光学系の絞り値を設定する。   The control unit sets the aperture value of the adjustment target optical system so that the depth of field of the adjustment target optical system is substantially equal to the depth of field of the reference optical system.

制御部は、調整対象光学系のシャッタスピードが基準光学系のシャッタスピードと略等しくなるように撮像素子の撮像感度を設定する。   The control unit sets the imaging sensitivity of the imaging element so that the shutter speed of the adjustment target optical system is substantially equal to the shutter speed of the reference optical system.

制御部は、立体画像を出力する指示を受け付けた場合に部分画像を切り出し、切出部の切り出した部分画像と基準光学系を介して撮像素子が得た画像に基づいて、立体画像を所定の表示画面または印刷媒体に出力する立体画像出力部を備える。   The control unit cuts out the partial image when receiving an instruction to output a stereoscopic image, and converts the stereoscopic image into a predetermined image based on the partial image cut out by the cut-out unit and the image obtained by the imaging element via the reference optical system. A stereoscopic image output unit for outputting to a display screen or a print medium is provided.

領域の位置情報を調整対象光学系を介して撮像素子が得た画像と対応づけて記憶する記憶部を備え、切出部は、記憶部に記憶された領域の位置情報に応じて部分画像を切り出す。   A storage unit that stores the position information of the region in association with the image obtained by the imaging device via the adjustment target optical system, and the clipping unit stores the partial image according to the position information of the region stored in the storage unit; cut.

撮像部の複数の光学系の中から所望の基準光学系の選択を受け付ける選択部を備える。   A selection unit configured to receive selection of a desired reference optical system from among a plurality of optical systems of the imaging unit;

基準光学系または調整対象光学系を介して撮像素子が出力した画像に基づいて平面画像を所定の表示画面または印刷媒体に出力する平面画像出力部を備える。   A flat image output unit is provided that outputs a flat image to a predetermined display screen or print medium based on an image output from the image sensor via the reference optical system or the adjustment target optical system.

本発明に係る撮像方法は、所望の基準光学系および基準光学系以外の1または複数の調整対象光学系の各々を介して結像した被写体像を撮像素子により光電変換して複数の画像を出力するステップと、調整対象光学系を介した撮像素子の撮影範囲が、基準光学系を介した撮像素子の撮影範囲を包含するように、調整対象光学系のズームレンズ位置を基準光学系のズームレンズ位置よりも広角側に設定するステップと、調整対象光学系を介して撮像素子が得た画像から、基準光学系を介した撮像素子の撮影範囲に対応する領域に包含される部分画像を切り出すステップと、を実行する。   An imaging method according to the present invention outputs a plurality of images by photoelectrically converting a subject image formed through each of a desired reference optical system and each of one or a plurality of adjustment target optical systems other than the reference optical system using an imaging device. And adjusting the zoom lens position of the adjustment target optical system so that the shooting range of the image pickup element via the adjustment target optical system includes the shooting range of the image pickup element via the reference optical system. A step of setting to a wider angle side than the position, and a step of cutting out a partial image included in an area corresponding to the imaging range of the image sensor via the reference optical system from an image obtained by the image sensor via the adjustment target optical system And execute.

第1の光学系による撮影画像はそのままで、第2の光学系による撮影画像のみを切り出しまた回転させるだけであるから、撮像装置の処理は単純である。また、第2の光学系の画像のみが補間され、第1・2の光学系の画角差は必要最低限に抑えられるので、第2の光学系による撮影画像の補間拡大処理による画質劣化を小さく抑えることができる。   Since the image captured by the first optical system is left as it is, only the image captured by the second optical system is cut out and rotated, so that the processing of the imaging apparatus is simple. In addition, since only the image of the second optical system is interpolated and the difference in the angle of view between the first and second optical systems is minimized, image quality deterioration due to the interpolation enlargement processing of the captured image by the second optical system is reduced. It can be kept small.

<第1実施形態>
図1はカメラ1の電気的構成を示す。第1撮像部2aは、レンズ光軸L1に沿って配列された第1ズームレンズ11、第1絞り12、第1フォーカスレンズ13、及び第1イメージセンサ14によって構成されている。第1ズームレンズ11にはレンズモータ15、第1絞り12にはアイリスモータ16、第1フォーカスレンズ13にはレンズモータ17が接続されており、また、第1イメージセンサ14にはタイミングジェネレータ(TG)18が接続されている。モータ15〜17、及びTG18の動作はCPU19によって制御され、モータ15〜17の実際の駆動開始および終了はCPU19の制御に従ってモータドライバ29が指示する。
<First Embodiment>
FIG. 1 shows the electrical configuration of the camera 1. The first imaging unit 2a includes a first zoom lens 11, a first diaphragm 12, a first focus lens 13, and a first image sensor 14 arranged along the lens optical axis L1. A lens motor 15 is connected to the first zoom lens 11, an iris motor 16 is connected to the first diaphragm 12, a lens motor 17 is connected to the first focus lens 13, and a timing generator (TG) is connected to the first image sensor 14. ) 18 is connected. The operations of the motors 15 to 17 and the TG 18 are controlled by the CPU 19, and the motor driver 29 instructs the actual driving start and end of the motors 15 to 17 according to the control of the CPU 19.

レンズモータ15は、操作部9からのズーム操作に応じて、第1ズームレンズ11をレンズ光軸L1に沿ってTELE側(繰り出し側)、或いはWIDE側(繰り込み側)に移動させ、ズーム倍率を変化させる。アイリスモータ16は、AE(Auto Exposure)動作時に第1絞り12の開口値(絞り値)を変化させて光束を制限し、露出調整を行う。レンズモータ17は、AF(Auto Focus)動作時に第1フォーカスレンズ13をレンズ光軸L1に沿ってNEAR側(繰り出し側)、或いはINF側(繰り込み側)に移動させて合焦位置を変え、ピント調整を行う。   The lens motor 15 moves the first zoom lens 11 along the lens optical axis L1 to the TELE side (feeding side) or the WIDE side (retracting side) in accordance with the zoom operation from the operation unit 9, and the zoom magnification is increased. Change. The iris motor 16 performs exposure adjustment by changing the aperture value (aperture value) of the first diaphragm 12 to limit the light beam during AE (Auto Exposure) operation. The lens motor 17 changes the in-focus position by moving the first focus lens 13 along the lens optical axis L1 to the NEAR side (feeding side) or the INF side (retracting side) during AF (Auto Focus) operation. Make adjustments.

第1イメージセンサ14は、CCDやCMOSなどの固体撮像素子で構成され、第1ズームレンズ11、第1絞り12、及び第1フォーカスレンズ13によって結像された被写体光を受光し、受光素子に受光量に応じた光電荷を蓄積する。第1イメージセンサ14の光電荷蓄積・転送動作は、TG18によって制御され、TG18から入力されるタイミング信号(クロックパルス)により、電子シャッタ速度(光電荷蓄積時間)が決定される。第1イメージセンサ14は、撮影モード時には、1画面分の画像信号を所定周期ごとに取得し、順次、撮像回路28aに入力する。   The first image sensor 14 is composed of a solid-state imaging device such as a CCD or a CMOS, receives the subject light imaged by the first zoom lens 11, the first diaphragm 12, and the first focus lens 13, and serves as a light receiving device. Accumulate photoelectric charge according to the amount of light received. The photocharge accumulation / transfer operation of the first image sensor 14 is controlled by the TG 18, and the electronic shutter speed (photocharge accumulation time) is determined by a timing signal (clock pulse) input from the TG 18. In the shooting mode, the first image sensor 14 acquires image signals for one screen every predetermined period and sequentially inputs them to the imaging circuit 28a.

第2撮像部2bは、第1撮像部2aと同一の構成であり、レンズモータ24が接続された第2ズームレンズ20、アイリスモータ25が接続された第2絞り21、レンズモータ26が接続された第2フォーカスレンズ22、及びタイミングジェネレータ(TG)27が接続された第2イメージセンサ23によって構成されている。モータ24〜26、及びTG27の動作はCPU19によって制御される。第1撮像部2aと第2撮像部2bとは、基本的に連動して動作を行うが、各々個別に動作させることも可能となっている。なお、第1及び第2イメージセンサ14,23として、CCD型やCMOS型のイメージセンサが用いられる。   The second imaging unit 2b has the same configuration as the first imaging unit 2a. The second zoom lens 20 to which the lens motor 24 is connected, the second diaphragm 21 to which the iris motor 25 is connected, and the lens motor 26 are connected. The second focus lens 22 and a second image sensor 23 to which a timing generator (TG) 27 is connected. The operations of the motors 24 to 26 and the TG 27 are controlled by the CPU 19. The first imaging unit 2a and the second imaging unit 2b basically operate in conjunction with each other, but can also be operated individually. Incidentally, as the first and second image sensors 14 and 23, CCD type or CMOS type image sensors are used.

第1及び第2イメージセンサ14,23から出力された撮像信号は、それぞれ撮像回路28a、b(まとめて撮像回路28と表記)に含まれる相関二重サンプリング回路(CDS)に入力される。CDSは、第1及び第2イメージセンサ14,23の各受光素子の蓄積電荷量に正確に対応したR,G,Bの画像データを、撮像回路28に含まれる増幅器(AMP)に入力する。AMPは、入力された画像データを増幅し、撮像回路28に含まれるA/D変換器に入力する。A/D変換器は、入力された画像データをアナログからデジタルに変換する。撮像回路28に含まれるCDS、AMP、A/D変換器を通して、第1イメージセンサ14の撮像信号は第1画像データ(左眼用画像データ)として、第2イメージセンサ23の撮像信号は第2画像データ(右眼用画像データ)として出力される。   The imaging signals output from the first and second image sensors 14 and 23 are input to correlated double sampling circuits (CDS) included in the imaging circuits 28a and 28b (collectively expressed as the imaging circuit 28), respectively. The CDS inputs R, G, B image data accurately corresponding to the accumulated charge amount of each light receiving element of the first and second image sensors 14, 23 to an amplifier (AMP) included in the imaging circuit 28. The AMP amplifies the input image data and inputs it to an A / D converter included in the imaging circuit 28. The A / D converter converts input image data from analog to digital. Through the CDS, AMP, and A / D converter included in the imaging circuit 28, the imaging signal of the first image sensor 14 is the first image data (image data for the left eye), and the imaging signal of the second image sensor 23 is the second. Output as image data (image data for the right eye).

画像信号処理回路31は、階調変換、ホワイトバランス補正、γ補正処理などの各種画像処理をA/D変換器から入力された第1及び第2画像データに施す。フレームメモリ32は、画像信号処理回路31で各種画像処理が施された第1及び第2画像データを一時的に格納する。   The image signal processing circuit 31 performs various image processing such as gradation conversion, white balance correction, and γ correction processing on the first and second image data input from the A / D converter. The frame memory 32 temporarily stores the first and second image data subjected to various image processing by the image signal processing circuit 31.

評価値算出回路33は、フレームメモリ32に格納された第1及び第2画像データの各々からAF評価値及びAE評価値を算出する。AF評価値は、各画像データの全領域又は所定領域(例えば中央部)について輝度値の高周波成分を積算することにより算出され、画像の鮮鋭度を表す。輝度値の高周波成分とは、隣接する画素間の輝度差(コントラスト)を所定領域内について足し合わせたものである。また、AE評価値は、各画像データの全領域又は所定領域(例えば中央部)について輝度値を積算することにより算出され、画像の明るさを表す。AF評価値及びAE評価値は、公知のAF動作(自動焦点制御)及びAE動作(自動露出制御)においてそれぞれ使用される。   The evaluation value calculation circuit 33 calculates an AF evaluation value and an AE evaluation value from each of the first and second image data stored in the frame memory 32. The AF evaluation value is calculated by integrating high-frequency components of the luminance value for the entire region or predetermined region (for example, the central portion) of each image data, and represents the sharpness of the image. The high-frequency component of the luminance value is a sum of luminance differences (contrast) between adjacent pixels in a predetermined area. Further, the AE evaluation value is calculated by integrating the luminance values over the entire area or a predetermined area (for example, the central portion) of each image data, and represents the brightness of the image. The AF evaluation value and the AE evaluation value are used in a known AF operation (automatic focus control) and AE operation (automatic exposure control), respectively.

立体画像処理回路34は、フレームメモリ32に格納されている第1及び第2画像データを、表示部10が立体表示を行うための立体画像データに合成する。撮影モード時に表示部10が電子ビューファインダとして使用される際には、立体画像処理回路34によって合成された立体画像データが、表示制御部35を介して表示部10にスルー画として表示される。   The stereoscopic image processing circuit 34 combines the first and second image data stored in the frame memory 32 with stereoscopic image data for the display unit 10 to perform stereoscopic display. When the display unit 10 is used as an electronic viewfinder in the shooting mode, the stereoscopic image data synthesized by the stereoscopic image processing circuit 34 is displayed on the display unit 10 as a through image via the display control unit 35.

圧縮伸張処理回路36は、フレームメモリ32に記憶された第1及び第2画像データに対して、JPEG方式等の圧縮形式により圧縮処理を施す。メモリ制御部37は、圧縮伸張処理回路36によって圧縮処理された各画像データをメモリカード等の記録媒体38に記録させる。   The compression / decompression processing circuit 36 performs compression processing on the first and second image data stored in the frame memory 32 in a compression format such as the JPEG method. The memory control unit 37 records each image data compressed by the compression / decompression processing circuit 36 on a recording medium 38 such as a memory card.

このようにして記録媒体38に記録された第1及び第2画像データを表示部10に再生表示する場合、記録媒体38の各画像データは、メモリ制御部37によって読み出され、圧縮伸張処理回路36によって伸張処理が行われ、立体画像処理回路34によって立体画像データに変換された後、表示制御部35を介して表示部10に再生画像として表示される。   When the first and second image data recorded on the recording medium 38 in this way are reproduced and displayed on the display unit 10, each image data on the recording medium 38 is read out by the memory control unit 37, and is compressed and expanded. The decompression process is performed by 36, converted into stereoscopic image data by the stereoscopic image processing circuit 34, and then displayed as a reproduced image on the display unit 10 via the display control unit 35.

表示部10の詳細な構造は図示しないが、表示部10は、その表面にパララックスバリア表示層を備えている。表示部10は、立体表示を行う際に、パララックスバリア表示層に光透過部と光遮蔽部とが交互に所定のピッチで並んだパターンからなるパララックスバリアを発生させるとともに、その下層の画像表示面に左右の像を示す短冊状の画像断片を交互に配列して表示することで擬似的な立体視を可能にする。なお、第1撮像部2aおよび第2撮像部2bから得られた平面画像を短冊状の画像断片に再構成してこれらを交互に配列せず、第1撮像部2aまたは第2撮像部2bの一方から得られた右あるいは左の像のみを短冊状の画像断片に再構成してこれらを交互に配列すれば、観者の右目も左目も同一の平面画像を視覚することになる。   Although the detailed structure of the display unit 10 is not illustrated, the display unit 10 includes a parallax barrier display layer on the surface thereof. The display unit 10 generates a parallax barrier having a pattern in which light transmitting portions and light shielding portions are alternately arranged at a predetermined pitch on the parallax barrier display layer when performing stereoscopic display, and an image under the parallax barrier. By displaying strip-shaped image fragments showing left and right images alternately on the display surface, pseudo stereoscopic viewing is possible. Note that the planar images obtained from the first imaging unit 2a and the second imaging unit 2b are reconstructed into strip-shaped image fragments, and these are not arranged alternately, and the first imaging unit 2a or the second imaging unit 2b If only the right or left image obtained from one side is reconstructed into strip-shaped image fragments and these are alternately arranged, the viewer's right eye and left eye can see the same planar image.

CPU19は、立体カメラ1の全体の動作を統括的に制御する。CPU19には、前述のシャッタボタン5、操作部9のほか、不揮発性メモリであるEEPROM39が接続されている。EEPROM39は、各種制御用のプログラムや設定情報などを格納している。CPU19は、このプログラムや設定情報に基づいて各種処理を実行する。   The CPU 19 comprehensively controls the overall operation of the stereoscopic camera 1. In addition to the shutter button 5 and the operation unit 9 described above, an EEPROM 39 that is a nonvolatile memory is connected to the CPU 19. The EEPROM 39 stores various control programs and setting information. The CPU 19 executes various processes based on this program and setting information.

シャッタボタン5は2段押しのスイッチ構造となっている。撮影モード中に、シャッタボタン5が軽く押圧(半押し)されると、CPU19はAF動作及びAE動作を開始し撮影準備処理がなされる。この状態でさらにシャッタボタン5が強く押圧(全押し)されると、CPU19は撮影処理を開始し、1画面分の第1及び第2画像データがフレームメモリ32から記録媒体38に転送されて記録される。   The shutter button 5 has a two-stage push switch structure. When the shutter button 5 is lightly pressed (half-pressed) during the shooting mode, the CPU 19 starts an AF operation and an AE operation, and shooting preparation processing is performed. In this state, when the shutter button 5 is further pressed (fully pressed), the CPU 19 starts photographing processing, and the first and second image data for one screen are transferred from the frame memory 32 to the recording medium 38 and recorded. Is done.

AF動作は、CPU19がレンズモータ17,26を制御して第1及び第2フォーカスレンズ13,22をそれぞれ所定方向に移動させながら、順次に得られる第1及び第2画像データの各々から評価値算出回路33が算出したAF評価値の最大値を求めることによりなされる。AE動作は、AF動作が完了した後、評価値算出回路33が算出したAE評価値に基づいて、CPU19がアイリスモータ18,27及びTG18,27を制御し、第1及び第2絞り12,21の開口値(絞り値)、及び第1及び第2イメージセンサ14,23の電子シャッタ速度をEEPROM39に予め格納されたプログラム線図に従って設定することによりなされる。   In the AF operation, the CPU 19 controls the lens motors 17 and 26 to move the first and second focus lenses 13 and 22 in predetermined directions, respectively, and evaluates each of the first and second image data obtained sequentially. This is done by obtaining the maximum AF evaluation value calculated by the calculation circuit 33. In the AE operation, after the AF operation is completed, the CPU 19 controls the iris motors 18 and 27 and the TGs 18 and 27 based on the AE evaluation value calculated by the evaluation value calculation circuit 33, and the first and second apertures 12 and 21 are controlled. The aperture value (aperture value) and the electronic shutter speeds of the first and second image sensors 14 and 23 are set according to a program diagram stored in the EEPROM 39 in advance.

図2はCPU19が実行を制御する調整処理のフローチャートである。この処理をCPU19に実行させるプログラムはEEPROM39に記憶されている。   FIG. 2 is a flowchart of an adjustment process in which the CPU 19 controls the execution. A program that causes the CPU 19 to execute this processing is stored in the EEPROM 39.

S1では、基準光学系(例えば第1撮像部2a)と、基準光学系に対する光学的ずれの調整を要する光学系(例えば第2撮像部2b)との間の光学的誤差(光軸ずれ、撮像面の傾き誤差、ズーム倍率誤差など)を、双方の光学系のズームレンズ11、20の全ズーム域に渡って測定する。第1撮像部2a、第2撮像部2bのうち、どちらを基準光学系にするかは任意である。図3に例示するように、通常、鏡筒の機械的な誤差により、ズーム位置に応じて光軸誤差は変化する。また、同じ光軸画角の小さい望遠(テレ)側の方が、撮影画角に対する誤差の比率は大きくなる。一方、図4に例示するように、画面の傾きについては、撮像素子の取付誤差が支配的で、ズーム位置による変動はない。   In S1, an optical error (optical axis deviation, imaging) between the reference optical system (for example, the first imaging unit 2a) and the optical system (for example, the second imaging unit 2b) that requires adjustment of the optical deviation with respect to the reference optical system. Surface tilt error, zoom magnification error, etc.) are measured over the entire zoom range of the zoom lenses 11 and 20 of both optical systems. Which of the first imaging unit 2a and the second imaging unit 2b is used as the reference optical system is arbitrary. As illustrated in FIG. 3, the optical axis error usually varies depending on the zoom position due to a mechanical error of the lens barrel. In addition, the ratio of the error to the shooting angle of view becomes larger on the telephoto (tele) side having the same optical axis angle of view. On the other hand, as illustrated in FIG. 4, the tilt of the screen is dominated by the mounting error of the image sensor and does not vary depending on the zoom position.

S2では、上記測定結果に基づいて、第1撮像部2aのズームレンズ11の各ズーム段における第1撮像部2aの撮影範囲を包含するように、ズームレンズ11の各ズーム段に対応する第2撮像部2bのズームレンズ20のズーム位置を決定する。   In S2, based on the measurement result, the second corresponding to each zoom level of the zoom lens 11 so as to include the shooting range of the first imaging unit 2a in each zoom level of the zoom lens 11 of the first image capturing unit 2a. The zoom position of the zoom lens 20 of the imaging unit 2b is determined.

具体的には、
δan:ズーム段Znにおける第1、第2の光学系の光軸差による画角のずれ
δbn:ズーム段Znにおける第1、第2の光学系の傾き差による画角のずれ
とすると、第1の光学系のズーム位置Znに対応する第2の光学系のズーム位置Z’nは、
Z’n≧Znの画角+δan+δbn
となるように決定する。よって、第2の光学系のズーム位置Z’nは、第1の光学系のズーム位置Znよりも広角側となる。
In particular,
δan: field angle shift due to the optical axis difference between the first and second optical systems in the zoom stage Zn δbn: field angle shift due to the tilt difference between the first and second optical systems in the zoom stage Zn The zoom position Z′n of the second optical system corresponding to the zoom position Zn of the optical system of
Angle of view of Z′n ≧ Zn + δan + δbn
To be determined. Therefore, the zoom position Z′n of the second optical system is on the wide angle side with respect to the zoom position Zn of the first optical system.

そして、レンズモータ24を駆動し、操作部9にて設定された所望の第1撮像部2aのズーム位置に対応する第2撮像部2bのズーム位置に第2ズームレンズ20を移動させる。   Then, the lens motor 24 is driven, and the second zoom lens 20 is moved to the zoom position of the second imaging unit 2b corresponding to the desired zoom position of the first imaging unit 2a set by the operation unit 9.

図5は第1の光学系(第1撮像部2aの第1ズームレンズ11)のズーム位置Znに対応する第2の光学系(第2撮像部2bの第2ズームレンズ20)のズーム位置Z’nを模式的に示している。上述のように、Z’nはZnよりも広角側(撮影画角が広がる方)になる。   FIG. 5 shows the zoom position Z of the second optical system (the second zoom lens 20 of the second imaging unit 2b) corresponding to the zoom position Zn of the first optical system (the first zoom lens 11 of the first imaging unit 2a). 'n is schematically shown. As described above, Z′n is on the wide-angle side (the one with a wider field of view) than Zn.

なお、S1(光学誤差測定)およびS2(ズーム位置の設定)は、あらかじめカメラ1の製造段階で行い、カメラ1のEEPROM39にズーム位置設定値を記憶させておく。S3以降の撮影時には、操作部9のズームレバーの入力と上記EEPROM39のズーム位置設定値に応じて第1・第2の光学系の各々のズーム位置を設定する。   Note that S1 (optical error measurement) and S2 (zoom position setting) are performed in advance in the manufacturing stage of the camera 1, and the zoom position setting value is stored in the EEPROM 39 of the camera 1. At the time of photographing after S3, the zoom positions of the first and second optical systems are set according to the input of the zoom lever of the operation unit 9 and the zoom position setting value of the EEPROM 39.

S3では、シャッタボタン5の押下に応じ、各光学系に各々設定されたズーム位置で撮像を実施して画像データを得る。そして、第1撮像部2aよりも広角側のズーム位置が設定された第2撮像部2bで撮影された画像から、第1撮像部2aの撮影範囲に相当する範囲を切り出す。切り出す際には、切り出し範囲を回転して当該傾き差による画角のずれを補正する。図6は、切り出し範囲の一例を示す。このうち図6(a)は第2撮像部2bの撮影画像I1−1に対応する第1撮像部2aのテレ端での切り出し範囲I1−2、図6(b)は第2撮像部2bの撮影画像I2−1に対応する第1撮像部2aのズーム中間域での切り出し範囲I2−2、図6(c)は第2撮像部2bの撮影画像I2−1に対応する第1撮像部2aのワイド端での切り出し範囲I2−2の一例を示す。   In S3, in response to pressing of the shutter button 5, imaging is performed at a zoom position set for each optical system to obtain image data. Then, a range corresponding to the imaging range of the first imaging unit 2a is cut out from the image captured by the second imaging unit 2b in which the zoom position on the wide-angle side with respect to the first imaging unit 2a is set. When cutting out, the cut-out range is rotated to correct the angle-of-view shift due to the tilt difference. FIG. 6 shows an example of the cutout range. Among these, FIG. 6A shows the cutout range I1-2 at the tele end of the first imaging unit 2a corresponding to the captured image I1-1 of the second imaging unit 2b, and FIG. 6B shows the second imaging unit 2b. The cutout range I2-2 in the zoom intermediate range of the first imaging unit 2a corresponding to the captured image I2-1, FIG. 6C shows the first imaging unit 2a corresponding to the captured image I2-1 of the second imaging unit 2b. An example of the cutout range I2-2 at the wide end is shown.

なお、図6では示していないが、第2撮像部2bの撮影画像における切り出し範囲の位置関係は、ズーム位置によって変動しうる。例えば、光学的誤差の特性によっては、ズーム中間域では切り出し範囲の左上角および右上角が第2撮像部2bの撮影画像の外縁に接することもあり、ズーム位置に関係なく常に切り出し範囲の右下角および左下角が第2撮像部2bの撮影画像の外縁に接する訳ではない。   Although not shown in FIG. 6, the positional relationship of the cutout range in the captured image of the second imaging unit 2b can vary depending on the zoom position. For example, depending on the characteristics of the optical error, the upper left corner and the upper right corner of the cutout range may be in contact with the outer edge of the captured image of the second imaging unit 2b in the zoom middle range, and the lower right corner of the cutout range is always set regardless of the zoom position. The lower left corner does not touch the outer edge of the captured image of the second imaging unit 2b.

S4では、上記切り出された画像のサイズが、第1撮像部2aによる撮影画像データと同じ大きさとなるように、切り出された画像に補間処理を行う。補間の仕方は任意であり、例えば欠損画素の正常周辺画素による補間が挙げられる。   In S4, interpolation processing is performed on the clipped image so that the size of the clipped image is the same as the size of the captured image data by the first imaging unit 2a. The method of interpolation is arbitrary, and for example, interpolation by normal peripheral pixels of defective pixels can be mentioned.

S5では、第1撮像部2aの画像データとS4での補間処理済みの画像データからステレオ画像を生成させるよう立体画像処理回路34に指示する。   In S5, the stereoscopic image processing circuit 34 is instructed to generate a stereo image from the image data of the first imaging unit 2a and the image data that has undergone the interpolation processing in S4.

以上の処理によると、第1の光学系(第1撮像部2a)による撮影画像はそのままで、第2の光学系(第2撮像部2b)による撮影画像のみを切り出しまた回転させるだけであるから、カメラの処理は単純である。また、第2の光学系の画像のみが補間され、第1・2の光学系の画角差は必要最低限に抑えられるので、第2の光学系による撮影画像の補間拡大処理による画質劣化を小さく抑えることができる。   According to the above processing, the image captured by the first optical system (first imaging unit 2a) remains unchanged, and only the image captured by the second optical system (second imaging unit 2b) is cut out and rotated. The camera process is simple. In addition, since only the image of the second optical system is interpolated and the difference in the angle of view between the first and second optical systems is minimized, image quality deterioration due to the interpolation enlargement processing of the captured image by the second optical system is reduced. It can be kept small.

図7に例示するように、従来技術では、単純に第1の光学系の撮像範囲と第2の光学系の撮像範囲の重複をとって切り出すため、切り出し範囲は小さくなり、立体画像のサイズも小さくなるが、本願発明では、広角側の第2の光学系による撮影画像から第1の光学系の撮像範囲に対応する部分を切り出すため、従来技術に比してより大きい切り出し範囲を確保できる。   As illustrated in FIG. 7, in the conventional technique, since the imaging range of the first optical system and the imaging range of the second optical system are simply overlapped and cut out, the cutting range becomes small and the size of the stereoscopic image also increases. However, in the present invention, since a portion corresponding to the imaging range of the first optical system is cut out from the captured image by the second optical system on the wide angle side, a larger cutting range can be secured as compared with the conventional technique.

<第2実施形態>
図8は第2実施形態に係る調整処理のフローチャートである。この処理をCPU19に実行させるプログラムはEEPROM39に記憶されている。
Second Embodiment
FIG. 8 is a flowchart of the adjustment process according to the second embodiment. A program that causes the CPU 19 to execute this processing is stored in the EEPROM 39.

S11では、第1撮像部2aのズーム段を、操作部9のズームボタンの入力に応じて設定する。   In S <b> 11, the zoom level of the first imaging unit 2 a is set according to the input of the zoom button of the operation unit 9.

S12では、スルー画像の測光結果に応じて第1の光学系(第1撮像部2a)の第1絞り12の絞り値を設定する(自動露出制御:AE)。設定された第1絞り12のF値をFaとする。   In S12, the aperture value of the first aperture 12 of the first optical system (first imaging unit 2a) is set according to the photometric result of the through image (automatic exposure control: AE). The set F value of the first aperture stop 12 is Fa.

S13では、S11で設定された第1の撮像部2aの第1ズームレンズ11のズーム段における撮影範囲を包含するように、対応する第2撮像部2bの第2ズームレンズ20のズーム位置(焦点距離)を決定する。この処理は第1実施形態と同様である。   In S13, the zoom position (focal point) of the corresponding second zoom lens 20 of the second imaging unit 2b so as to include the imaging range in the zoom stage of the first zoom lens 11 of the first imaging unit 2a set in S11. Determine the distance. This process is the same as in the first embodiment.

S14では、第1・2の光学系の被写界深度を略等しくする第2の光学系のF値を決定する。第1の光学系(第1撮像部2a)の焦点距離をfa、F値をFa、第2の光学系(第2撮像部2b)の焦点距離をfb、F値をFbとすると、被写界深度は焦点距離は焦点距離の二乗に略反比例し、F値に略比例するので、第1・2の光学系の被写界深度を略等しくするには、
Fa/(fa)=Fb/(fb)
が成立すればよいから、Fb=Fa×(fb/fa)と決定する。つまり、第1の光学系に比して第2の光学系を広角側に設定すると、焦点距離が短いので被写界深度が深くなるが、F値を小さくすることでこれを相殺する。
In S14, the F value of the second optical system that makes the depths of field of the first and second optical systems substantially equal is determined. When the focal length of the first optical system (first imaging unit 2a) is fa, the F value is Fa, the focal length of the second optical system (second imaging unit 2b) is fb, and the F value is Fb, Since the depth of field is approximately inversely proportional to the square of the focal length and approximately proportional to the F value, in order to make the depth of field of the first and second optical systems substantially equal,
Fa / (fa) 2 = Fb / (fb) 2
Therefore, Fb = Fa × (fb / fa) 2 is determined. That is, when the second optical system is set on the wide-angle side as compared with the first optical system, the focal length is short and the depth of field becomes deep, but this is offset by reducing the F value.

S15では、決定したF値(Fb)が開放F値(第2の絞り21を完全に開いたときのF値)よりも大きい値になるか否かを判断し、Yesの場合はS16、Noの場合はS17に進む。   In S15, it is determined whether or not the determined F value (Fb) is larger than the open F value (F value when the second diaphragm 21 is fully opened). If Yes, S16 is No. In this case, the process proceeds to S17.

S16では、第2撮像部2bの絞りが段階的な値をとる場合は、決定したF値に最も近い絞り段を選択する。   In S16, when the aperture of the second imaging unit 2b takes a stepwise value, the aperture stage closest to the determined F value is selected.

S17では、第2撮像部2bの絞りを開放F値に設定する。   In S17, the aperture of the second imaging unit 2b is set to the full F value.

なお、上記のように第1・2の光学系の絞り(F値)を異なる設定にした場合、シャッタスピードを揃えるために感度を調節するのが好ましい。第1撮像部2aの第1イメージセンサ14のAv値をAa、Sv値をSa、第2撮像部2bの第2イメージセンサ23のAv値をAb、Sv値をSbとすると、
Aa−Sa=Ab−Sb
を満足するように、SaおよびSbを設定する。
In addition, when the apertures (F values) of the first and second optical systems are set differently as described above, it is preferable to adjust the sensitivity in order to make the shutter speed uniform. When the Av value of the first image sensor 14 of the first imaging unit 2a is Aa, the Sv value is Sa, the Av value of the second image sensor 23 of the second imaging unit 2b is Ab, and the Sv value is Sb,
Aa-Sa = Ab-Sb
Sa and Sb are set so as to satisfy

図9はシャッタスピードの設定例を示す。例えば、fa=100mm、fb=70mm、Fa=F8とすると、
Fb=8×(70/100)^2=3.91≒4(F4)に設定する。
FIG. 9 shows an example of setting the shutter speed. For example, when fa = 100 mm, fb = 70 mm, and Fa = F8,
Fb = 8 × (70/100) ^ 2 = 3.91≈4 (F4).

このとき、Aa=6、Ab=4なので、第1撮像部2aの第1イメージセンサ14のISO感度Sa=7(ISO400)とすると、
Sb=Ab+Sa−Aa=4+7−6=5(ISO100)
つまりこの場合、第2撮像部2bの第2イメージセンサ23をISO100に設定すれば、第1撮像部2a・第2撮像部2bのシャッタスピードを同じ値に設定することができる。
At this time, since Aa = 6 and Ab = 4, when ISO sensitivity Sa = 7 (ISO400) of the first image sensor 14 of the first imaging unit 2a,
Sb = Ab + Sa−Aa = 4 + 7−6 = 5 (ISO 100)
That is, in this case, if the second image sensor 23 of the second imaging unit 2b is set to ISO100, the shutter speeds of the first imaging unit 2a and the second imaging unit 2b can be set to the same value.

以上より、各光学系の被写界深度を揃えることができるので、各光学系で撮影された画像は被写体距離に応じて同様のボケ具合となり、違和感のないステレオ画像が得られる。   As described above, since the depth of field of each optical system can be made uniform, an image photographed by each optical system has the same blur condition according to the subject distance, and a stereo image without a sense of incongruity can be obtained.

また、各光学系のシャッタスピードを揃えることができるので、被写体ブレが生じた場合でも、各光学系の画像が同様のボケ具合となり、違和感のないステレオ画像が得られる。   In addition, since the shutter speeds of the optical systems can be made uniform, even when subject blurring occurs, the images of the optical systems have the same blurring condition, and a stereo image without a sense of incongruity can be obtained.

<その他の実施形態>
第1〜2実施形態において、操作部9から、第1撮像部2aあるいは第2撮像部2bの撮像した画像を平面画像として表示部10に表示する旨の指示が入力された場合、CPU19は切り出しをしていない画像(元画像)を表示部10に表示し、操作部9から、ステレオ画像を表示する旨の指示が入力された場合、CPU19は切り出し画像を作成して、上記のような立体画像を表示部10に表示するとよい。
<Other embodiments>
In the first and second embodiments, when an instruction for displaying the image captured by the first imaging unit 2a or the second imaging unit 2b as a planar image is input from the operation unit 9 on the display unit 10, the CPU 19 cuts out. When an image (original image) that has not been displayed is displayed on the display unit 10 and an instruction to display a stereo image is input from the operation unit 9, the CPU 19 creates a cut-out image and creates the three-dimensional image as described above. An image may be displayed on the display unit 10.

また、第1撮像部2aあるいは第2撮像部2bの画像を実際に切り出す代わりに、切り出し範囲を示す情報を、当該画像と対応づけて記録し、ステレオ画像を表示する場合にCPU19が当該情報を参照して実際に切り出しを行ってもよい。切り出し範囲を示す情報は、当該画像を格納したファイルのヘッダ、タグ、メタ情報として格納するとよい。   Further, instead of actually cutting out the image of the first image pickup unit 2a or the second image pickup unit 2b, the CPU 19 records information indicating the cutout range in association with the image and displays the information when the stereo image is displayed. It may actually be cut out with reference to. Information indicating the cutout range may be stored as a header, a tag, and meta information of a file storing the image.

実際に切り出しされた画像のみを記録媒体38に記録すれば、容量の節約になるが、画像を切り出さずに切り出し範囲を示す情報を記録しておけば、画像編集の自由度が増し、補間処理のされていない高画質のオリジナル画像を適宜加工して利用できる。   If only the actually cut-out image is recorded on the recording medium 38, the capacity can be saved. However, if information indicating the cut-out range is recorded without cutting out the image, the degree of freedom in image editing is increased, and interpolation processing is performed. High-quality original images that have not been processed can be appropriately processed and used.

また、表示部10は、観者に平面または立体的な画像を視覚させるプリント物に置き換えることができる。立体的なプリント物およびその作成方法はレンチキュラープリントなど公知の方法で実現できる。   In addition, the display unit 10 can be replaced with a printed matter that allows a viewer to view a planar or stereoscopic image. A three-dimensional printed material and a method for producing the three-dimensional printed material can be realized by a known method such as lenticular printing.

さらに、第1撮像部2a・第2撮像部2bのうち基準光学系をいずれに選択するかを操作部9から任意に設定できてもよいし、デフォルトでいずれか1つの光学系が選択されていてもよい。例えば、ユーザが自己の効き目に対応する光学系を基準光学系に選択し、操作部9から基準光学系の画像を平面表示する旨の指示を受け取ると、補間処理のされていない高画質の平面画像を効き目側の視点で視覚できる。また、本発明は3つ以上の光学系を有するカメラにも適用可能であり、基準光学系が少なくとも1つ決まれば、後はその他の光学系の切り出し範囲をその基準光学系に合わせて決めればよい。   Furthermore, it may be possible to arbitrarily set which of the first imaging unit 2a and the second imaging unit 2b the reference optical system is selected from the operation unit 9, or any one optical system is selected by default. May be. For example, when the user selects an optical system corresponding to his / her effect as the reference optical system and receives an instruction from the operation unit 9 to display the image of the reference optical system in a plane, a high-quality plane that is not subjected to interpolation processing. The image can be viewed from the viewpoint of the effective side. The present invention can also be applied to a camera having three or more optical systems. If at least one reference optical system is determined, the cutout range of other optical systems can be determined in accordance with the reference optical system. Good.

カメラのブロック図Camera block diagram 第1実施形態に係る調整処理のフローチャートFlow chart of adjustment processing according to the first embodiment 光軸ずれの一例を示す図Diagram showing an example of optical axis misalignment 傾き差の一例を示す図Diagram showing an example of the slope difference ズーム位置の対応を例示した図Diagram illustrating zoom position correspondence 切り出し範囲を例示した図Diagram illustrating the cutout range 従来技術の切り出し範囲と本願発明での切り出し範囲を比較した図Diagram comparing the clipping range of the prior art and the clipping range of the present invention 第2実施形態に係る調整処理のフローチャートFlowchart of adjustment processing according to the second embodiment 撮像感度の設定例を示す図Diagram showing setting example of imaging sensitivity

2a:第1撮像部、2b:第2撮像部、11:第1ズームレンズ、20:第2ズームレンズ、19:CPU 2a: first imaging unit, 2b: second imaging unit, 11: first zoom lens, 20: second zoom lens, 19: CPU

Claims (8)

所望の基準光学系および基準光学系以外の1または複数の調整対象光学系の各々を介して結像した被写体像を撮像素子により光電変換して複数の画像を出力する撮像部と、
前記撮像部の調整対象光学系を介した前記撮像素子の撮影範囲が、前記撮像部の基準光学系を介した前記撮像素子の撮影範囲を包含するように、前記調整対象光学系のズームレンズ位置を前記基準光学系のズームレンズ位置よりも広角側に設定する制御部と、
前記調整対象光学系を介して前記撮像素子が得た画像から、前記基準光学系を介した前記撮像素子の撮影範囲に対応する領域に包含される部分画像を切り出す切出部と、
前記調整対象光学系および前記基準光学系の絞り値を変化させる絞り機構と、
を備え
前記制御部は、前記調整対象光学系および前記基準光学系のズームレンズ位置と前記基準光学系の絞り値に応じて前記調整対象光学系の絞り値を設定し、かつ前記調整対象光学系の被写界深度が前記基準光学系の被写界深度と略等しくなるように前記調整対象光学系の絞り値を設定する撮像装置。
An imaging unit that photoelectrically converts an object image formed through each of a desired reference optical system and one or a plurality of adjustment target optical systems other than the reference optical system, and outputs a plurality of images;
The zoom lens position of the adjustment target optical system so that the imaging range of the imaging element via the adjustment target optical system of the imaging unit includes the imaging range of the imaging element via the reference optical system of the imaging unit A control unit for setting the zoom lens position on the wide-angle side from the zoom lens position of the reference optical system;
A cutout unit that cuts out a partial image included in a region corresponding to the imaging range of the image pickup device via the reference optical system from an image obtained by the image pickup device via the adjustment target optical system;
An aperture mechanism for changing aperture values of the adjustment target optical system and the reference optical system;
Equipped with a,
The control unit sets the aperture value of the adjustment target optical system according to the zoom lens positions of the adjustment target optical system and the reference optical system and the aperture value of the reference optical system, and the target of the adjustment target optical system. An imaging apparatus that sets an aperture value of the optical system to be adjusted so that a depth of field is substantially equal to a depth of field of the reference optical system .
前記制御部は、前記調整対象光学系の各ズーム段における前記基準光学系に対する光学的誤差に応じて、前記調整対象光学系のズームレンズ位置を設定する請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the control unit sets a zoom lens position of the adjustment target optical system according to an optical error with respect to the reference optical system at each zoom stage of the adjustment target optical system. 前記制御部は、前記調整対象光学系のシャッタスピードが前記基準光学系のシャッタスピードと略等しくなるように前記撮像素子の撮像感度を設定する請求項またはに記載の撮像装置。 Wherein the control unit, the imaging apparatus according to claim 1 or 2 shutter speed of the adjustment target optical system to set the imaging sensitivity of the imaging element so as to be substantially equal to the shutter speed of the reference optical system. 前記制御部は、立体画像を出力する指示を受け付けた場合に前記部分画像を切り出し、
前記切出部の切り出した部分画像と前記基準光学系を介して前記撮像素子が得た画像に基づいて、立体画像を所定の表示画面または印刷媒体に出力する立体画像出力部を備える請求項1〜のいずれかに記載の撮像装置。
The control unit cuts out the partial image when receiving an instruction to output a stereoscopic image,
The stereo image output part which outputs a stereo image to a predetermined | prescribed display screen or a printing medium based on the partial image which the said clipping part cut out, and the image which the said image pick-up element acquired via the said reference | standard optical system is provided. The imaging device according to any one of to 3 .
前記領域の位置情報を前記調整対象光学系を介して前記撮像素子が得た画像と対応づけて記憶する記憶部を備え、
前記切出部は、前記記憶部に記憶された前記領域の位置情報に応じて前記部分画像を切り出す請求項1〜のいずれかに記載の撮像装置。
A storage unit that stores the positional information of the region in association with an image obtained by the imaging element via the adjustment target optical system;
The cutting unit includes an imaging device according to any one of claims 1-4 for cutting the partial image according to the position information of the region stored in the storage unit.
前記撮像部の複数の光学系の中から所望の基準光学系の選択を受け付ける選択部を備える請求項1〜のいずれかに記載の撮像装置。 The imaging apparatus according to any one of claims 1 to 5, comprising a selection unit for receiving selection of a desired reference optical system from among a plurality of optical systems of the imaging unit. 前記基準光学系または前記調整対象光学系を介して前記撮像素子が出力した画像に基づいて平面画像を所定の表示画面または印刷媒体に出力する平面画像出力部を備える請求項1〜のいずれかに記載の撮像装置。 Claim 1-6 comprising a planar image output unit for outputting a planar image on a predetermined display screen or print medium based on the image the reference optical system or the image pickup element via the adjustment target optical system has an output The imaging device described in 1. 撮像装置が、
所望の基準光学系および基準光学系以外の1または複数の調整対象光学系の各々を介して結像した被写体像を撮像素子により光電変換して複数の画像を出力するステップと、
前記調整対象光学系を介した前記撮像素子の撮影範囲が、前記基準光学系を介した前記撮像素子の撮影範囲を包含するように、前記調整対象光学系のズームレンズ位置を前記基準光学系のズームレンズ位置よりも広角側に設定するステップと、
前記調整対象光学系を介して前記撮像素子が得た画像から、前記基準光学系を介した前記撮像素子の撮影範囲に対応する領域に包含される部分画像を切り出すステップと、
前記調整対象光学系および前記基準光学系の絞り値を変化させるステップと、
前記調整対象光学系および前記基準光学系のズームレンズ位置と前記基準光学系の絞り値に応じて前記調整対象光学系の絞り値を設定し、かつ前記調整対象光学系の被写界深度が前記基準光学系の被写界深度と略等しくなるように前記調整対象光学系の絞り値を設定するステップと、
を実行する撮像方法。
The imaging device
Outputting a plurality of images by photoelectrically converting a subject image formed through each of a desired reference optical system and one or a plurality of adjustment target optical systems other than the reference optical system with an imaging device;
The zoom lens position of the adjustment target optical system is adjusted so that the shooting range of the image pickup element via the adjustment target optical system includes the shooting range of the image pickup element via the reference optical system. A step for setting the wide-angle side of the zoom lens position;
Cutting out a partial image included in a region corresponding to the imaging range of the imaging element via the reference optical system from an image obtained by the imaging element via the adjustment target optical system;
Changing aperture values of the optical system to be adjusted and the reference optical system;
The aperture value of the adjustment target optical system is set according to the zoom lens position of the adjustment target optical system and the reference optical system and the aperture value of the reference optical system, and the depth of field of the adjustment target optical system is Setting the aperture value of the optical system to be adjusted to be substantially equal to the depth of field of the reference optical system;
An imaging method for executing.
JP2009058243A 2009-03-11 2009-03-11 Imaging apparatus and method Expired - Fee Related JP5216640B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009058243A JP5216640B2 (en) 2009-03-11 2009-03-11 Imaging apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009058243A JP5216640B2 (en) 2009-03-11 2009-03-11 Imaging apparatus and method

Publications (2)

Publication Number Publication Date
JP2010213083A JP2010213083A (en) 2010-09-24
JP5216640B2 true JP5216640B2 (en) 2013-06-19

Family

ID=42972793

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009058243A Expired - Fee Related JP5216640B2 (en) 2009-03-11 2009-03-11 Imaging apparatus and method

Country Status (1)

Country Link
JP (1) JP5216640B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5364066B2 (en) 2010-09-24 2013-12-11 日立オートモティブシステムズステアリング株式会社 Power steering device torque sensor neutral point adjustment method
TWI405030B (en) * 2011-02-23 2013-08-11 Largan Precision Co Ltd Imagery axle turning method for stereo vision and the apparatus thereof
JP5611469B2 (en) * 2011-09-09 2014-10-22 富士フイルム株式会社 Stereoscopic imaging apparatus and method
JP5904886B2 (en) * 2012-06-25 2016-04-20 シャープ株式会社 Imaging apparatus, defect processing method, defect processing program, and electronic information device
KR101377590B1 (en) 2012-06-27 2014-03-25 경북대학교 산학협력단 Imaging controlling apparatus and system
JP6082556B2 (en) * 2012-09-28 2017-02-15 日立オートモティブシステムズ株式会社 Imaging device
WO2014147957A1 (en) 2013-03-21 2014-09-25 パナソニック株式会社 Image processing method and image processing device
KR101464584B1 (en) * 2013-05-10 2014-11-25 경북대학교 산학협력단 Apparatus and method for controlling depth of field of camera
JP6478568B2 (en) * 2014-11-10 2019-03-06 キヤノン株式会社 CONTROL DEVICE, IMAGING DEVICE, IMAGING SYSTEM, LENS DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
CN114706222B (en) * 2022-03-31 2023-09-01 青岛虚拟现实研究院有限公司 Optical assembly method of VR equipment lens

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0946729A (en) * 1995-08-01 1997-02-14 Olympus Optical Co Ltd Stereoscopic image pickup device
JP3303254B2 (en) * 1995-12-28 2002-07-15 富士写真光機株式会社 Driving device for zoom lens
JP3595634B2 (en) * 1996-09-11 2004-12-02 キヤノン株式会社 Compound eye camera and image processing method
JP2003052058A (en) * 2001-08-06 2003-02-21 Nippon Hoso Kyokai <Nhk> Stereoscopic image photographing equipment
JP2004357156A (en) * 2003-05-30 2004-12-16 Sharp Corp Video reception apparatus and video playback apparatus
JP4483261B2 (en) * 2003-10-24 2010-06-16 ソニー株式会社 Stereoscopic image processing device
JP2005210217A (en) * 2004-01-20 2005-08-04 Olympus Corp Stereoscopic camera

Also Published As

Publication number Publication date
JP2010213083A (en) 2010-09-24

Similar Documents

Publication Publication Date Title
JP5216640B2 (en) Imaging apparatus and method
JP4406937B2 (en) Imaging device
US8885026B2 (en) Imaging device and imaging method
JP5722975B2 (en) Imaging device, shading correction method for imaging device, and program for imaging device
JP4528235B2 (en) Digital camera
JP4875225B2 (en) Stereo imaging device
JP5166650B2 (en) Stereo imaging device, image playback device, and editing software
WO2011121841A1 (en) 3d-image capturing device
WO2012002307A1 (en) Single-lens stereoscopic image capture device
JP4533735B2 (en) Stereo imaging device
JP4763827B2 (en) Stereoscopic image display device, compound eye imaging device, and stereoscopic image display program
JP2010230879A (en) Double eye camera device
JP2011199755A (en) Image pickup device
JP2011075675A (en) Compound-eye imaging apparatus
JP2006162991A (en) Stereoscopic image photographing apparatus
JP2010206643A (en) Image capturing apparatus and method, and program
JP2010154310A (en) Compound-eye camera, and photographing method
JP2010204483A (en) Imaging apparatus, method and program
JP5611469B2 (en) Stereoscopic imaging apparatus and method
JP2010206521A (en) Image capturing apparatus, method of correcting image, and program
JP2010103949A (en) Apparatus, method and program for photographing
JP4046276B2 (en) Digital camera
JP5457240B2 (en) Stereo imaging device
JP2007248698A (en) Method and apparatus for imaging
JP2012124650A (en) Imaging apparatus, and imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110707

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130304

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees