JP2012165207A - Three-dimensional imaging apparatus - Google Patents

Three-dimensional imaging apparatus Download PDF

Info

Publication number
JP2012165207A
JP2012165207A JP2011024399A JP2011024399A JP2012165207A JP 2012165207 A JP2012165207 A JP 2012165207A JP 2011024399 A JP2011024399 A JP 2011024399A JP 2011024399 A JP2011024399 A JP 2011024399A JP 2012165207 A JP2012165207 A JP 2012165207A
Authority
JP
Japan
Prior art keywords
image
eye
optical axis
camera shake
determination unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011024399A
Other languages
Japanese (ja)
Inventor
Mitsumasa Adachi
光将 安立
Soji Masui
窓爾 益井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2011024399A priority Critical patent/JP2012165207A/en
Publication of JP2012165207A publication Critical patent/JP2012165207A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional imaging apparatus allowing for comfortable three-dimensional imaging by performing optical axis displacement corrections of a left-eye imaging system and a right-eye imaging system, camera shake corrections during imaging, and parallax adjustment between a left-eye image and a right-eye image.SOLUTION: An optical axis displacement determination section 121 determines an optical axis displacement from first and second taken images stored in a storage section 133. An optical axis displacement correction region determination section 122 determines an image region used for an optical axis displacement correction. A parallax adjustment section 123 determines whether to perform a parallax adjustment of the first and second taken images. A parallax adjustment region determination section 124 determines an image region used for the parallax adjustment. A camera shake correction determination section 125 determines necessity for a camera shake correction. A camera shake correction region determination section 126 determines an image region used for the camera shake correction. An output section 142 outputs the taken images obtained after removing the foregoing three image regions from the first and second taken images.

Description

本発明は3D画像撮影装置に関し、より詳細には、左眼用撮像系及び右眼用撮像系の光軸のずれを補正し、左眼用画像及び右眼用画像に適切な視差調整と手ぶれ補正とを行う3D画像撮影装置に関する。   The present invention relates to a 3D image capturing apparatus, and more particularly, corrects a shift in the optical axis of an imaging system for a left eye and an imaging system for a right eye, and performs parallax adjustment and camera shake appropriate for an image for a left eye and an image for a right eye. The present invention relates to a 3D image capturing apparatus that performs correction.

近年、水平方向に視差を有する2つの画像が左眼用画像及び右眼用画像としてディスプレイ上に表示され、観察者が左眼用画像を左眼で、右眼用画像を右眼でそれぞれ独立して観察することで、ディスプレイ上に表示された被写体があたかも立体的に存在するかのように知覚できる3D画像に関する技術の開発が盛んに行われている。   In recent years, two images with parallax in the horizontal direction are displayed on the display as an image for the left eye and an image for the right eye, and the observer independently uses the left eye image for the left eye and the right eye image for the right eye. Thus, the development of technologies related to 3D images that can be perceived as if the subject displayed on the display exists three-dimensionally has been actively conducted.

3D画像の表示及び観察方式としては、互いに直交する直線偏光を有する左眼用画像及び右眼用画像がディスプレイ上に重ねて表示され、観察者が偏光フィルタの付いた眼鏡を用いて左眼で左眼用画像を、右眼で右眼用画像をそれぞれ独立して観察する方式がよく知られている。
また、左眼用画像及び右眼用画像それぞれが交互にディスプレイ上に表示され、観察者が左右の視界が交互に遮蔽される液晶シャッタの付いた眼鏡を用いて左眼で左眼用画像を、右眼で右眼用画像をそれぞれ独立して観察する方式等もよく知られている。
As a 3D image display and observation method, a left-eye image and a right-eye image having linearly polarized light that are orthogonal to each other are displayed on the display so that the observer can use the left eye with glasses with a polarization filter. A method of independently observing a left-eye image and a right-eye image with the right eye is well known.
In addition, the left eye image and the right eye image are alternately displayed on the display, and the left eye image is displayed with the left eye using an eyeglass with a liquid crystal shutter in which the observer alternately shields the left and right fields of view. Also, a method of independently observing the right eye image with the right eye is well known.

これらの3D画像に関する技術では、観察者から見て3D画像中の被写体画像が、表示面に対しどの程度前方に飛び出しているように知覚されるか、又は表示面に対しどの程度後方に引っ込んでいるように知覚されるかは、左眼用画像と右眼用画像との間の水平方向の視差によって決定される。一方で、左眼用画像及び右眼用画像の水平方向の視差が適切に調節されていない3D画像は、例えば被写体画像の前方への飛び出し又は後方への引っ込みが大きすぎた場合に、観察者に負担をかけ、眼精疲労や画像酔い等の原因となる可能性が指摘されている。
そこで、左眼用画像及び右眼用画像の水平方向の視差を適切に調整しつつ3D画像を撮影する撮像装置に関する技術が盛んに開発されている。
In these 3D image technologies, it is perceived as if the subject image in the 3D image is projected forward from the display surface as viewed from the observer, or how far the object image is retracted from the display surface. Is determined by the horizontal parallax between the left-eye image and the right-eye image. On the other hand, a 3D image in which the parallax in the horizontal direction of the left-eye image and the right-eye image is not properly adjusted is, for example, when the subject image protrudes forward or retracts too much, It has been pointed out that this may cause eye strain and image sickness.
Therefore, techniques relating to an imaging apparatus that captures a 3D image while appropriately adjusting the parallax in the horizontal direction of the image for the left eye and the image for the right eye have been actively developed.

左眼用画像及び右眼用画像の水平方向の視差調整に関しては、撮像装置に搭載された左眼用撮像系と右眼用撮像系との間の輻輳角を調整して行う方法と、固体撮像素子を介してメモリに一時記憶された左眼用撮影画像データ及び右眼用撮影画像データのそれぞれから出力する画像の範囲を調整して行う方法とがある。
後者の例として、特許文献1には、被写体の距離に応じて、一時記憶された左眼用撮影画像データ及び右眼用撮影画像データのそれぞれから出力する画像のアスペクト比を変更することで、立体画像の視差を調整する撮影装置に関する技術が開示されている。
Regarding the parallax adjustment in the horizontal direction of the image for the left eye and the image for the right eye, a method of adjusting the convergence angle between the imaging system for the left eye and the imaging system for the right eye mounted on the imaging device, and solid There is a method of adjusting the range of the image output from each of the left-eye photographic image data and the right-eye photographic image data temporarily stored in the memory via the image sensor.
As an example of the latter, Patent Document 1 discloses that the aspect ratio of the image output from each of the left-eye captured image data and the right-eye captured image data is changed according to the distance of the subject, A technique related to a photographing apparatus that adjusts the parallax of a stereoscopic image is disclosed.

特開2010−147784号公報JP 2010-147784 A

ところで、左眼用撮像系及び右眼用撮像系の2つの撮像系を有する、いわゆる多眼式の撮像装置では、両撮像系の光軸のずれを補正した上で撮影を行うことが3D画像の撮影では重要となる。両撮像系の光軸が垂直方向にずれていると、左眼用画像と右眼用画像とで撮影されている風景や被写体の位置がずれてしまうことになる。このような垂直方向のずれが生じると、その風景や被写体の画像は3D画像として知覚されにくく、そのズレが大きくなると適切な3D画像として知覚できないことが実験により報告されているためである(3Dコンテンツに関する調査研究報告書 財団法人 デジタルコンテンツ協会)。
By the way, in a so-called multi-lens imaging device having two imaging systems, a left-eye imaging system and a right-eye imaging system, it is possible to perform 3D image capturing after correcting the deviation of the optical axes of both imaging systems. It is important for shooting. If the optical axes of the two imaging systems are deviated in the vertical direction, the scenery and the position of the subject captured by the left-eye image and the right-eye image are deviated. This is because experiments have reported that when such a vertical shift occurs, the landscape or subject image is difficult to perceive as a 3D image, and when the deviation increases, it cannot be perceived as an appropriate 3D image (3D). Research report on content Digital Content Association).

さらに、3D画像の撮影においても、2D画像の撮影同様に撮影時の手ぶれを補正することが重要となる。3D画像における手ぶれは、通常の手ぶれによる画像の見づらさに加え、左眼用画像及び右眼用画像の上下左右方向の変化がそのまま視差の変化につながることから、知覚される立体度を不安定なものにする原因ともなり、画像酔いを誘発する可能性があるためである。   Further, in shooting a 3D image, it is important to correct camera shake at the time of shooting as in the case of shooting a 2D image. Camera shake in 3D images is not easy to see due to normal camera shake, and changes in the vertical and horizontal directions of the left and right eye images directly lead to changes in parallax. It is also a cause of image loss and may induce image sickness.

以上から、3D画像の撮影においては、左眼用撮像系及び右眼用撮像系の光軸のずれの補正、撮影時の手ぶれの補正、及び左眼用画像及び右眼用画像の間の視差の調整のそれぞれを、いかにして適切に施すかが問題となる。   From the above, in 3D image shooting, correction of the optical axis shift of the left-eye imaging system and right-eye imaging system, correction of camera shake during shooting, and parallax between the left-eye image and the right-eye image The problem is how to apply each of these adjustments appropriately.

本発明はこのような問題に鑑みてなされたものであり、撮像素子からの画像の切り出し範囲を調整することで、左眼用撮像系及び右眼用撮像系の光軸のずれの補正、撮影時の手ぶれの補正、及び左眼用画像及び右眼用画像の間の視差の調整を施し、眼精疲労や画像酔いを誘発しにくい、快適な3D画像の撮影を行うことができる3D画像撮影装置を提供することを目的とする。   The present invention has been made in view of such a problem, and by adjusting the cutout range of an image from an image sensor, correction of the optical axis shift of the left-eye imaging system and the right-eye imaging system, and imaging 3D image shooting capable of taking a comfortable 3D image that is less likely to induce eye strain and image sickness by correcting camera shake at the time and adjusting the parallax between the image for the left eye and the image for the right eye An object is to provide an apparatus.

前記目的を達成するために、本発明は、被写体を撮影して第一の撮影画像を出力する第一の撮像部(L100)及び第二の撮影画像を出力する第二の撮像部(R100)と、前記第一の撮影画像及び前記第二の撮影画像を記憶する記憶部(133)と、前記第一の撮像部(L100)と前記第二の撮像部(R100)との間の光軸のずれの有無を判定する光軸ずれ判定部(121)と、前記光軸ずれ判定部(121)が光軸がずれていると判定した場合、前記第一の撮影画像と前記第二の撮影画像から、その光軸のずれを補正するための光軸ずれ補正画像の領域を決定する光軸ずれ画像領域決定部(122)と、前記第一の撮影画像から前記光軸ずれ補正画像の領域を除いた第三の撮影画像と、前記第二の撮影画像から前記光軸ずれ補正画像の領域を除いた第四の撮影画像との間の水平方向の視差を調整するか否かを判定する視差調整部(123)と、前記視差調整部(123)が水平方向の視差を調整すると判定した場合、前記第三の撮影画像と前記第四の撮影画像から、水平方向の視差を調整するための視差調整画像の領域を決定する視差調整画像領域決定部(124)と、前記第三の撮影画像から前記視差調整画像の領域を除いた第五の撮影画像と、前記第四の撮影画像から前記視差調整画像の領域を除いた第六の撮影画像の手ぶれを補正するか否かを判定する手ぶれ補正判定部(125)と、前記手ぶれ補正判定部が手ぶれを補正すると判定した場合、前記第五の撮影画像と前記第六の撮影画像から、手ぶれ補正のための手ぶれ補正画像の領域を決定する手ぶれ補正領域決定部(126)と、前記第六の撮影画像から手ぶれ補正画像の領域を除いた第七の撮影画像と、前記第六の撮影画像から前記手ぶれ補正画像の領域を除いた第八の撮影画像とを出力する出力部(142)とを備えることを特徴とする3D画像撮影装置を提供する。   To achieve the above object, the present invention provides a first imaging unit (L100) that captures a subject and outputs a first captured image, and a second imaging unit (R100) that outputs a second captured image. A storage unit (133) for storing the first captured image and the second captured image, and an optical axis between the first image capturing unit (L100) and the second image capturing unit (R100). When the optical axis deviation determination unit (121) that determines the presence or absence of deviation and the optical axis deviation determination unit (121) determine that the optical axis is deviated, the first photographed image and the second photographed image An optical axis misalignment image area determination unit (122) that determines an optical axis misalignment correction image area for correcting the optical axis misalignment from the image, and an area of the optical axis misalignment correction image from the first captured image A third captured image excluding the image and the optical axis deviation corrected image from the second captured image A parallax adjustment unit (123) that determines whether or not to adjust the parallax in the horizontal direction with respect to the fourth captured image excluding the region, and a determination that the parallax adjustment unit (123) adjusts the parallax in the horizontal direction In this case, a parallax adjustment image region determination unit (124) that determines a region of a parallax adjustment image for adjusting the parallax in the horizontal direction from the third shooting image and the fourth shooting image, and the third shooting image Determining whether to correct camera shake of a fifth captured image obtained by removing the parallax adjusted image region from the captured image and a sixth captured image obtained by removing the parallax adjusted image region from the fourth captured image When the camera shake correction determination unit (125) and the camera shake correction determination unit determine to correct camera shake, an area of a camera shake correction image for camera shake correction is determined from the fifth captured image and the sixth captured image. Image stabilization area to be determined A portion (126), a seventh photographed image obtained by removing the image stabilization image area from the sixth photographed image, and an eighth photographed image obtained by removing the image stabilization image area from the sixth photographed image. An output unit (142) for outputting a 3D image.

上述の3D画像撮影装置は、出力画像領域決定部(127)をさらに備え、その出力画像領域決定部(127)は前記第一の撮影画像と前記第二の撮影画像、前記第三の撮影画像と前記第四の撮影画像、前記第五の撮影画像と前記第六の撮影画像、または前記第七の撮影画像と前記第八の撮影画像の組み合わせのうち、少なくとも何れか一つの組み合わせの撮影画像に対し、アスペクト比を考慮してそれら二つの撮影画像の領域を決定してもよい。   The 3D image capturing apparatus described above further includes an output image region determining unit (127), and the output image region determining unit (127) includes the first captured image, the second captured image, and the third captured image. And the fourth photographed image, the fifth photographed image and the sixth photographed image, or the combination of the seventh photographed image and the eighth photographed image. On the other hand, the areas of these two captured images may be determined in consideration of the aspect ratio.

上述の3D画像撮影装置の光軸ずれ判定部(122)は、前記第一の撮影画像と前記第二の撮影画像との間の垂直方向の差分ベクトルの大きさが所定の閾値を超える場合に第一の撮像部(L100)と第二の撮像部(R100)との間の光軸がずれていると判定してもよい。   The optical axis deviation determination unit (122) of the 3D image capturing apparatus described above is configured when the magnitude of the vertical difference vector between the first captured image and the second captured image exceeds a predetermined threshold. It may be determined that the optical axis between the first imaging unit (L100) and the second imaging unit (R100) is shifted.

上述の3D画像撮影装置の視差調整画像領域決定部(124)は、前記出力部が前記第七の撮影画像及び前記第八の撮影画像を出力する画像表示装置の表示面幅に基づいて、前記視差調整画像領域の大きさを決定してもよい。   The parallax adjusted image region determining unit (124) of the 3D image capturing device described above is based on the display surface width of the image display device in which the output unit outputs the seventh captured image and the eighth captured image. You may determine the magnitude | size of a parallax adjustment image area | region.

本発明に係る3D画像撮影装置によれば、撮像素子からの画像の切り出し範囲を調整することで、左眼用撮像系及び右眼用撮像系の光軸のずれの補正、撮影時の手ぶれの補正、及び左眼用画像及び右眼用画像の間の視差の調整を施し、眼精疲労や画像酔いを誘発しにくい、快適な3D画像の撮影を行うことができる。   According to the 3D image capturing device of the present invention, by adjusting the cutout range of the image from the image sensor, correction of the optical axis misalignment of the left-eye imaging system and the right-eye imaging system, and camera shake during shooting A correction and adjustment of parallax between the image for the left eye and the image for the right eye can be performed, and a comfortable 3D image that hardly induces eye strain or image sickness can be taken.

本発明の実施形態に係る撮像装置(デジタルビデオカメラ)1の内部構成を示すブロック図である。1 is a block diagram illustrating an internal configuration of an imaging apparatus (digital video camera) 1 according to an embodiment of the present invention. 撮像装置1が備える液晶モニタ143の構成を示す図である。It is a figure which shows the structure of the liquid crystal monitor 143 with which the imaging device 1 is provided. 撮像装置1による3D画像の撮影の処理を説明するフローチャートである。6 is a flowchart for describing 3D image shooting processing by the imaging apparatus 1. 撮像装置1が備える左眼用撮像系L100の光軸AL100と右眼用撮像系R100の光軸AR100の垂直方向のずれが生じた場合の、左眼用撮影画像データ及び右眼用撮影画像データを説明するための概念図である。Left-eye photographic image data and right-eye photographic image data in the case where a vertical shift occurs between the optical axis AL100 of the left-eye imaging system L100 and the optical axis AR100 of the right-eye imaging system R100 included in the imaging device 1 It is a conceptual diagram for demonstrating. 撮像装置1が備える光軸ずれ判定部121による光軸ずれの判定の処理を説明するための概念図である。It is a conceptual diagram for demonstrating the process of the optical axis offset determination by the optical axis offset determination part 121 with which the imaging device 1 is provided. 撮像装置1が備える光軸ずれ補正領域決定部122による、光軸のずれの補正に使用する領域を決定するための概念図である。It is a conceptual diagram for determining the area | region used for the correction | amendment of the optical axis deviation by the optical axis deviation correction area | region determination part 122 with which the imaging device 1 is provided. モニタに表示される左眼用画像中及び右眼用画像中の被写体画像の視差と、モニタの表示面に対する前方への飛び出し又は後方への引っ込み等の関係を説明するための図である。It is a figure for demonstrating the relationship of the parallax of the to-be-photographed object image in the image for left eyes displayed on a monitor, and the image for right eyes, and the protrusion to the front with respect to the display surface of a monitor, or back retracting. 撮像装置1が備える視差調整領域決定部124による、視差の調整に使用する領域を決定するための概念図である。It is a conceptual diagram for determining the area | region used for the parallax adjustment by the parallax adjustment area | region determination part 124 with which the imaging device 1 is provided. 撮像装置1が備える手ぶれ補正領域決定部126による、手ぶれ補正に使用する領域を決定するための概念図である。6 is a conceptual diagram for determining an area used for camera shake correction by a camera shake correction area determination unit 126 included in the imaging apparatus 1; FIG.

以下に図面を参照しながら、本発明に係る3D画像撮影装置の好適な実施形態を説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   A preferred embodiment of a 3D image capturing device according to the present invention will be described below with reference to the drawings. The dimensions, materials, and other specific numerical values shown in the embodiment are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

図1は、本発明の実施形態に係る撮像装置(デジタルビデオカメラ)1の内部構成の例を示すブロック図である。撮像装置1は動画及び静止画を撮影することができる。
なお、本実施形態に係る撮像装置では二つの撮像部を有し、それぞれの光軸のなす輻輳角を調整できる構成としているが、両光軸が平行となるように固定され輻輳角を調整できない撮像装置においても本発明は採用できる。また、本発明は、撮像系を複数備えているものであれば、デジタルスチルカメラをはじめ、携帯電話、PHS(Personal Handyphone System)、PDA(Personal Digital Assistant)等、撮影が可能なその他の電子機器においても採用することができる。また、複数のカメラを使用して3D画像を撮影する場合においても採用することができる。
FIG. 1 is a block diagram illustrating an example of an internal configuration of an imaging apparatus (digital video camera) 1 according to an embodiment of the present invention. The imaging device 1 can capture a moving image and a still image.
Although the imaging apparatus according to the present embodiment has two imaging units and can adjust the convergence angle formed by each optical axis, the convergence angle cannot be adjusted by fixing both optical axes to be parallel. The present invention can also be adopted in an imaging apparatus. Further, the present invention is not limited to digital still cameras, mobile phones, PHS (Personal Handyphone System), PDA (Personal Digital Assistant), and other electronic devices capable of taking pictures as long as they have a plurality of imaging systems. Can also be employed. It can also be used when a 3D image is captured using a plurality of cameras.

CPU120は、撮影、表示、記録等の撮像装置1全体の動作を統括制御する。また、CPU120は、操作部145からの入力に基づき所定の制御プログラムに従って各部を制御する。   The CPU 120 controls the overall operation of the imaging apparatus 1 such as shooting, display, and recording. Further, the CPU 120 controls each unit according to a predetermined control program based on an input from the operation unit 145.

撮像装置1には、左右一対の左眼用画像撮像部L100及び右眼用画像撮像部R100が、人の眼の間隔より少し短い所定の間隔(例えば5cm)離れて設置されている。左眼用画像撮像部L100及び右眼用画像撮像部R100は、それぞれズームレンズL101及びR101、フォーカスレンズL102及びR102、絞りL103及びR103、並びに固体撮像素子L104及びR104を備える。   The imaging apparatus 1 is provided with a pair of left and right image capturing units L100 and R100 for right eye that are separated by a predetermined interval (for example, 5 cm) slightly shorter than the interval between human eyes. The left-eye image capturing unit L100 and the right-eye image capturing unit R100 include zoom lenses L101 and R101, focus lenses L102 and R102, stops L103 and R103, and solid-state image sensors L104 and R104, respectively.

ズームレンズL101及びR101は、図示しないズームアクチュエータによって光軸AL100及びAR100に沿って移動する。フォーカスレンズL102及びR102は、図示しないフォーカスアクチュエータによって光軸AL100及びAR100に沿って移動する。絞りL103及びR103は、図示しない絞りアクチュエータに駆動されて動作する。   The zoom lenses L101 and R101 are moved along the optical axes AL100 and AR100 by a zoom actuator (not shown). The focus lenses L102 and R102 are moved along the optical axes AL100 and AR100 by a focus actuator (not shown). The diaphragms L103 and R103 operate by being driven by a diaphragm actuator (not shown).

左眼用画像撮像部L100及び右眼用撮像部R100は輻輳角アクチュエータL109及びR109とそれぞれ接続されており、輻輳角アクチュエータL109及びR109はCPU120から指令を受けて、両撮像部を駆動し、光軸AL100とAR100とのなす輻輳角を調整する。   The left-eye image capturing unit L100 and the right-eye image capturing unit R100 are connected to convergence angle actuators L109 and R109, respectively. The convergence angle actuators L109 and R109 receive commands from the CPU 120 to drive both image capturing units, The convergence angle formed by the axes AL100 and AR100 is adjusted.

ROM131はバス127を介してCPU120に接続されており、CPU120が実行する制御プログラム及び制御に必要な各種データ等を格納している。フラッシュROM132は、ユーザの設定情報等、撮像装置1の動作に関する各種設定情報を格納している。
SDRAM133は、CPU120の演算作業領域として使用されるとともに、画像データの一時記憶領域としても使用される。VRAM134は、表示用の画像データの一時記憶領域として使用される。
The ROM 131 is connected to the CPU 120 via the bus 127, and stores a control program executed by the CPU 120, various data necessary for control, and the like. The flash ROM 132 stores various setting information related to the operation of the imaging apparatus 1, such as user setting information.
The SDRAM 133 is used as a calculation work area for the CPU 120 and also as a temporary storage area for image data. The VRAM 134 is used as a temporary storage area for display image data.

撮影装置1を用いた立体画像の撮影は以下の手順で行われる。左眼用の固体撮像素子L104及び右眼用の固体撮像素子R104がそれぞれ、左眼用画像撮像部L100と右眼用撮像部R100とを通過した光を光電変換して、左右それぞれの被写体のアナログ撮像信号を生成する。
アナログ信号処理部L105及びR105が両アナログ撮像信号を増幅した後、A/D変換器L106及びR106がその増幅された信号をデジタルデータに変換する。画像入力コントローラL107及びR107は、A/D変換機L106及びR106から出力されたデジタルデータを取り込んで、SDRAM133に格納する。
The photographing of a stereoscopic image using the photographing device 1 is performed according to the following procedure. The left-eye solid-state image pickup device L104 and the right-eye solid-state image pickup device R104 photoelectrically convert the light that has passed through the left-eye image pickup portion L100 and the right-eye image pickup portion R100, respectively. An analog imaging signal is generated.
After the analog signal processing units L105 and R105 amplify both analog imaging signals, the A / D converters L106 and R106 convert the amplified signals into digital data. The image input controllers L107 and R107 take in the digital data output from the A / D converters L106 and R106 and store them in the SDRAM 133.

デジタル信号処理部L108及びR108は、CPU120からの指令に基づき、SDRAM133に格納されたデジタルデータを取り込み、所定の信号処理を施して輝度信号と色差信号とからなる信号を生成する。
デジタル信号処理部L108及びR108はまた、オフセット処理、ホワイトバランス調整処理、ガンマ補正処理、RGB補完処理、ノイズ低減処理、輪郭補正処理、色調補正処理、光源種別判定処理等の各種デジタル補正を行う。
Based on a command from the CPU 120, the digital signal processing units L108 and R108 take in digital data stored in the SDRAM 133, perform predetermined signal processing, and generate a signal composed of a luminance signal and a color difference signal.
The digital signal processing units L108 and R108 also perform various digital corrections such as offset processing, white balance adjustment processing, gamma correction processing, RGB interpolation processing, noise reduction processing, contour correction processing, color tone correction processing, and light source type determination processing.

光軸ずれ判定部121は、SDRAM133に一時記憶された左眼用撮影画像データ及び右眼用撮影画像データの垂直方向のずれから、左眼用撮像系L100及び右眼用撮像系R100の光軸の垂直方向のずれの有無を判定する。
光軸ずれ補正領域決定部123は、SDRAM133に一時記憶された左眼用撮影画像データ及び右眼用撮影画像データから左眼用撮像系L100及び右眼用撮像系R100の光軸のずれの補正に使用する領域のデータを決定する。
The optical axis deviation determination unit 121 determines the optical axes of the left-eye imaging system L100 and the right-eye imaging system R100 from the vertical deviation of the left-eye photographic image data and the right-eye photographic image data temporarily stored in the SDRAM 133. The presence or absence of vertical displacement is determined.
The optical axis deviation correction area determination unit 123 corrects the optical axis deviation of the left eye imaging system L100 and the right eye imaging system R100 from the left eye imaging image data and the right eye imaging image data temporarily stored in the SDRAM 133. Determine the data for the area to be used.

視差調整部123は、SDRAM133に一時記憶された左眼用撮影画像データ及び右眼用撮影画像データの水平方向の視差を調整する。
視差調整領域決定部124は、SDRAM133に格納された左眼用撮影画像データ及び右眼用撮影画像データから視差調整に使用する領域のデータを決定する。
The parallax adjustment unit 123 adjusts the parallax in the horizontal direction of the left-eye captured image data and the right-eye captured image data temporarily stored in the SDRAM 133.
The parallax adjustment area determination unit 124 determines area data to be used for parallax adjustment from the left-eye captured image data and the right-eye captured image data stored in the SDRAM 133.

手ぶれ補正判定部125は、SDRAM133に一時記憶された左眼用撮影画像データ及び右眼用撮影画像データに手ぶれ補正を施すか否かを判定する。
手ぶれ補正領域決定部126は、SDRAM133に格納された左眼用撮影画像データ及び右眼用撮影画像データから手ぶれ補正に使用する領域のデータを決定する。
The camera shake correction determination unit 125 determines whether or not to perform camera shake correction on the left eye captured image data and the right eye captured image data temporarily stored in the SDRAM 133.
The camera shake correction area determination unit 126 determines data of an area used for camera shake correction from the left-eye captured image data and the right-eye captured image data stored in the SDRAM 133.

出力画像領域決定部126は、SDRAM133に格納された左眼用撮影画像データ及び右眼用撮影画像データからHDD I/F138、カードI/F140、又は入出力I/Fに出力する領域のデータを決定する。   The output image area determination unit 126 outputs data of an area to be output to the HDD I / F 138, the card I / F 140, or the input / output I / F from the left-eye captured image data and the right-eye captured image data stored in the SDRAM 133. decide.

圧縮・伸張処理部135、メディア制御部136、音声・画像処理部137、HDD I/F138、カードI/F140及び入出力I/F142はデータバス127に接続されている。   The compression / decompression processing unit 135, media control unit 136, audio / image processing unit 137, HDD I / F 138, card I / F 140, and input / output I / F 142 are connected to the data bus 127.

圧縮・伸張処理部135は、CPU120からの指令に従い、SDRAM133に格納されたデータに所定形式の圧縮処理を施し、圧縮画像データを生成する。また、CPU120からの指令に従い、カード型記録媒体141等に格納された圧縮画像データに所定形式の伸張処理を施し、非圧縮画像データを生成する。
なお、本実施の形態の撮像装置1では、静止画に対してはJPEG規格に準拠した圧縮方式が、動画に対してはMPEG2規格やAVC/H.264規格に準拠した圧縮方式が採用される。
The compression / decompression processing unit 135 performs compression processing in a predetermined format on the data stored in the SDRAM 133 in accordance with a command from the CPU 120 to generate compressed image data. Further, in accordance with a command from the CPU 120, the compressed image data stored in the card type recording medium 141 or the like is subjected to a predetermined format expansion process to generate uncompressed image data.
Note that in the imaging apparatus 1 according to the present embodiment, a compression method conforming to the JPEG standard is used for still images, and an MPEG2 standard or AVC / H. A compression method conforming to the H.264 standard is adopted.

メディア制御部136は、CPU120からの指令に従い、HDD I/F138を通じてHDD139、又はカードI/F140を通じてカード型記録媒体141へのデータの書き込みやそれらからのデータの読み出しを制御する。
液晶モニタ143、スピーカ144、操作部145及び入出力端子146は入出力I/F142に接続されている。
The media control unit 136 controls writing of data to the HDD 139 through the HDD I / F 138 or reading of data from the card-type recording medium 141 through the card I / F 140 in accordance with a command from the CPU 120.
The liquid crystal monitor 143, the speaker 144, the operation unit 145, and the input / output terminal 146 are connected to the input / output I / F 142.

図2は、3D画像を表示可能な液晶モニタ143の構造の例を説明するための図である。図2においては、撮像装置1の通常の使用姿勢における液晶モニタ140に対して、水平方向をX軸、垂直方向をY軸、及び液晶モニタ140の直交
方向をZ軸として以下を説明する。
液晶モニタ143と観察者の左眼LE20及び右眼RE20の間には、レンチキュラ・レンズLL20が配置されている。このレンチキュラ・レンズLL20は、複数の円筒状凸レンズを図2のX軸方向に連ねることで構成されている。
FIG. 2 is a diagram for explaining an example of the structure of the liquid crystal monitor 143 capable of displaying a 3D image. In FIG. 2, the following will be described with respect to the liquid crystal monitor 140 in the normal use posture of the imaging apparatus 1 with the horizontal direction as the X axis, the vertical direction as the Y axis, and the orthogonal direction of the liquid crystal monitor 140 as the Z axis.
A lenticular lens LL20 is disposed between the liquid crystal monitor 143 and the left eye LE20 and right eye RE20 of the observer. The lenticular lens LL20 is configured by connecting a plurality of cylindrical convex lenses in the X-axis direction in FIG.

液晶モニタ143に表示される3D画像の表示領域は、左眼用短冊画像表示領域Lと右眼用短冊画像表示領域Rとから構成されている。左眼用短冊画像表示領域L及び右眼用短冊画像表示領域Rは、それぞれ図2のZ軸方向に細長い短冊形状をしており、X軸方向に交互に配置されている。
レンチキュラ・レンズLL20を構成する各凸レンズは、観察者の所定の観察点を基準として、それぞれ一組の左眼用短冊画像表示領域L及び右眼用短冊画像表示領域Rを含む各短冊集合画像領域に対応した位置に形成される。
The display area of the 3D image displayed on the liquid crystal monitor 143 includes a strip image display area L for the left eye and a strip image display area R for the right eye. The left-eye strip image display area L and the right-eye strip image display area R each have an elongated strip shape in the Z-axis direction of FIG. 2 and are alternately arranged in the X-axis direction.
Each convex lens constituting the lenticular lens LL20 includes a set of strip image display areas L for the left eye and a strip image display area R for the right eye, respectively, with reference to a predetermined observation point of the observer. It is formed at a position corresponding to.

そして、レンチキュラ・レンズLL20を構成する各凸レンズは、観察者の左眼LE20には液晶モニタ140の左眼用短冊画像表示領域Lに表示された左眼用短冊画像が入射され、観察者の右眼RE20には液晶モニタ140の右眼用短冊画像表示領域Rに表示された右眼用短冊画像が入射されるように、その曲率等が設定される。   In each convex lens constituting the lenticular lens LL20, the left eye strip image displayed in the left eye strip image display area L of the liquid crystal monitor 140 is incident on the viewer's left eye LE20, and the viewer's right eye The curvature and the like are set so that the right eye strip image displayed in the right eye strip image display area R of the liquid crystal monitor 140 is incident on the eye RE20.

従って、観察者の左眼は左眼用短冊画像のみを、右眼は右眼用短冊画像のみを観察することになり、観察者は撮像装置1によって撮影している画像を、液晶モニタ143を通じて3D画像として知覚することができる。   Therefore, the left eye of the observer observes only the strip image for the left eye and the right eye observes only the strip image for the right eye, and the observer views the image taken by the imaging device 1 through the liquid crystal monitor 143. It can be perceived as a 3D image.

なお、3D画像の表示のための液晶モニタ143の構造として、図2によるレンチキュラ方式を用いた場合の例を説明したが、本発明はレンチキュラ方式には限定されず、視差バリア方式や光方向制御方式等、3D画像表示のための別方式を採用することもできる。
液晶モニタ140は、撮影画像を3Dで表示するだけでなく、左眼用画像又は右眼用画像のいずれか一方を2Dで表示することもできる。また、左右眼画像の両方をいわゆるサイド・バイ・サイド方式で、二つ並べて2Dで表示することもできる。
Although the example in which the lenticular method shown in FIG. 2 is used as the structure of the liquid crystal monitor 143 for displaying a 3D image has been described, the present invention is not limited to the lenticular method, and the parallax barrier method and the light direction control. Another method for displaying 3D images, such as a method, can also be adopted.
The liquid crystal monitor 140 not only displays the captured image in 3D, but can also display either the left-eye image or the right-eye image in 2D. Also, both the left and right eye images can be displayed in 2D side by side by the so-called side-by-side method.

操作部145は、図示しないリレーズ・スイッチや電源スイッチを含む操作キー、十字キー、ジョイスティック、又は液晶モニタ143上に重畳されたタッチパネル等から構成されており、ユーザの撮像装置1への操作入力を受け付ける。
入出力端子146は、図示しないテレビモニタやPC(Personal Computer)等に接続される。
The operation unit 145 includes an operation key including a relays switch and a power switch (not shown), a cross key, a joystick, a touch panel superimposed on the liquid crystal monitor 143, and the like. Accept.
The input / output terminal 146 is connected to a television monitor, a PC (Personal Computer) or the like (not shown).

音声・画像処理部137は、例えば、SDRAM133から読み出したデジタル撮像信号に所定の画像処理を施す。CPU120の指示を受けて、音声・画像処理部137は、各種処理のための画像データを生成し、その画像データをSDRAM133から読み出されたオリジナルの撮像データに重畳させて液晶モニタ143に出力する。この出力によって、液晶モニタ143に表示される画像は各種画像データが合成されたものとなる。   For example, the sound / image processing unit 137 performs predetermined image processing on the digital imaging signal read from the SDRAM 133. In response to the instruction from the CPU 120, the sound / image processing unit 137 generates image data for various processes, superimposes the image data on the original image data read from the SDRAM 133, and outputs the image data to the liquid crystal monitor 143. . With this output, the image displayed on the liquid crystal monitor 143 is a combination of various image data.

<撮像装置1による3D画像の撮影>
図3は、撮像装置1による3D画像の撮影の際の処理を説明するためのフローチャートである。本処理は、ユーザが操作部145の図示しない録画ボタンを押したとき、図1のCPU120の統括制御によりプログラムに従い実行される。また、ユーザが撮像装置1の電源を入れ、操作部142の図示しないボタン等を使用して撮影モードを選択したとき、或は録画ボタンを半押しにしたときに取得されるスルー画像に対して本処理を開始するようにしてもよい。
<Shooting a 3D image by the imaging apparatus 1>
FIG. 3 is a flowchart for explaining a process when the imaging apparatus 1 captures a 3D image. This process is executed according to a program by the overall control of the CPU 120 in FIG. 1 when the user presses a recording button (not shown) on the operation unit 145. Further, when the user turns on the power of the imaging apparatus 1 and selects a shooting mode using a button (not shown) of the operation unit 142 or when the recording button is pressed halfway, This process may be started.

上述の通り、風景や被写体が左眼用撮像系L100及び右眼用撮像系R100を介して撮影される(ステップS101)。そして、撮影された風景や被写体は、左眼用の固体撮像素子L104及び右眼用の固体撮像素子R104を介して、左眼用撮影画像データ及び右眼用撮影画像データとして、SDRAM133に一時記録される(ステップS102)。   As described above, a landscape and a subject are photographed through the left-eye imaging system L100 and the right-eye imaging system R100 (step S101). The photographed scenery and subject are temporarily recorded in the SDRAM 133 as left-eye photographic image data and right-eye photographic image data via the left-eye solid-state image sensor L104 and the right-eye solid-state image sensor R104. (Step S102).

次に、光軸ずれ判定部121がステップS102でSDRAMに一時記憶された左眼用撮影画像データ及び右眼用撮影画像データの垂直方向のずれの有無から、左眼用撮像系L100及び右眼用撮像系R100の光軸の垂直方向のずれの有無を検出し、補正の必要性を判定する(ステップS103)。撮像装置1のような多眼式の撮像装置では、機器の特性や設定、又は撮影時の装置の向きや温度といったユーザの撮影状態等によって、左眼用撮像系L100の光軸AL100と右眼用撮像系R100の光軸AR100が垂直方向にずれてしまっていることがある。この光軸のずれにより、左眼用撮影画像と右眼用撮影画像に垂直方向のずれが生じると、その被写体は3D画像として知覚されにくく、場合によっては3D画像と知覚できないことは上述の通りである。   Next, the optical axis deviation determination unit 121 determines whether the left-eye imaging system L100 and the right-eye are detected based on whether or not the left-eye photographic image data and the right-eye photographic image data are temporarily stored in the SDRAM in step S102. The presence / absence of vertical deviation of the optical axis of the imaging system R100 is detected, and the necessity for correction is determined (step S103). In a multi-lens imaging device such as the imaging device 1, the optical axis AL100 and the right eye of the imaging system L100 for the left eye depend on the characteristics and settings of the device or the user's shooting state such as the orientation and temperature of the device at the time of shooting. The optical axis AR100 of the image pickup system R100 may be displaced in the vertical direction. As described above, when the deviation of the optical axis causes a vertical deviation between the captured image for the left eye and the captured image for the right eye, the subject is hardly perceived as a 3D image, and in some cases cannot be perceived as a 3D image. It is.

図4に、左眼用撮像系L100の光軸AL100と右眼用撮像系R100の光軸AR100の垂直方向のずれが生じた場合の、左眼用撮影画像データ及び右眼用撮影画像データを説明するための概念図を示す。光軸AL100と光軸AR100の垂直方向のずれにより、SDRAM133に一時記憶された左眼用撮影画像データLP101と右眼用撮影画像データRP101中の被写体画像データLP102及びRP102が垂直方向にずれてしまっている。これにより被写体画像は3D画像として知覚されにくいか、場合によっては3D画像として知覚されないことになる。   FIG. 4 shows left-eye photographic image data and right-eye photographic image data in the case where a vertical shift occurs between the optical axis AL100 of the left-eye imaging system L100 and the optical axis AR100 of the right-eye imaging system R100. The conceptual diagram for demonstrating is shown. Due to the vertical deviation between the optical axis AL100 and the optical axis AR100, the subject image data LP102 and RP102 in the left-eye photographed image data LP101 and right-eye photographed image data RP101 temporarily stored in the SDRAM 133 are displaced in the vertical direction. ing. As a result, the subject image is hardly perceived as a 3D image, or in some cases, it is not perceived as a 3D image.

そこで、光軸ずれ判定部121は、例えばMPEGにおける同一の被写体がフレーム間でどれだけ動いたかを特定する、いわゆる動きベクトルを算出するアルゴリズムを応用した手法により、左眼用撮影画像データLP101及び右眼用撮影画像データRP101の垂直方向のずれの有無から、光軸AL100と光軸AR100が垂直方向のずれの有無を検出する。   Therefore, the optical axis deviation determination unit 121 uses, for example, a technique that applies an algorithm for calculating a so-called motion vector that specifies how much the same subject in MPEG moves between frames, and uses the left-eye photographed image data LP101 and the right eye. The optical axis AL100 and the optical axis AR100 detect the presence / absence of the vertical deviation from the presence / absence of the vertical deviation of the eye image data RP101.

動画圧縮技術であるMPEGにおいては、ブロックマッチングに基づいて動きベクトルを検出するアルゴリズムが用いられる。ここで、動きベクトルとは2つのフレームデータ間における同一被写体の変位をベクトルで表したものである。
現在のフレームデータと過去のフレームデータとを比較し、同一の大きさで最も類似したブロックをそれぞれから抽出し、両者の位置関係から動きベクトルを算出する。
In MPEG, which is a moving image compression technique, an algorithm for detecting a motion vector based on block matching is used. Here, the motion vector is a vector representing the displacement of the same subject between two frame data.
The current frame data and past frame data are compared, the most similar blocks of the same size are extracted from each, and a motion vector is calculated from the positional relationship between them.

光軸ずれ判定部121は、上記動きベクトル算出のアルゴリズムを利用して、左眼用撮影画像データ及び右眼用撮影画像データにおける同一被写体画像データを特定し、その同一被写体画像データについて、点対点、画素対画素で対応する点を左眼用撮影画像データ及び右眼用撮影画像データから抽出し、それらの差分ベクトルを左眼用画像及び右眼用画像における被写体画像の視差として算出する。   The optical axis deviation determination unit 121 specifies the same subject image data in the left-eye photographic image data and the right-eye photographic image data by using the algorithm for calculating the motion vector. A point corresponding to the pixel-to-pixel point is extracted from the left-eye captured image data and the right-eye captured image data, and a difference vector between them is calculated as the parallax of the subject image in the left-eye image and the right-eye image.

より詳細には、図5に示すように光軸ずれ判定部121は、左眼用撮影画像データLP101中の被写体画像データLP102と同一の被写体画像データとして右眼用画像データRP101中の被写体画像データRP102を特定する。次に、光軸ずれ判定部121は、左眼用撮影画像データLP101中の被写体画像データLP102から基準点LP103を抽出する。そして、光軸ずれ判定部121は、右眼用撮影画像撮影画像データRP101から、基準点LP103に対応する対応点RP103を抽出し、基準点LP103と対応点RP103との間の差分ベクトルVV101を検出する。光軸判定部121は、差分ベクトルが検出された場合は光軸AL100と光軸AR100は垂直方向にずれており補正が必要と判定し、差分ベクトルが検出されない場合(差分ベクトルがゼロだった場合)は光軸AL100と光軸AR100はずれていないため補正は不要と判定する。
なお、光軸ずれ判定部121は右眼用撮影画像データから基準点を、左眼用撮影画像データから対応点を抽出し、差分ベクトルを算出することもできる。
More specifically, as shown in FIG. 5, the optical axis deviation determination unit 121 performs subject image data in the right eye image data RP101 as the same subject image data as the subject image data LP102 in the left eye photographed image data LP101. RP102 is specified. Next, the optical axis deviation determination unit 121 extracts the reference point LP103 from the subject image data LP102 in the left-eye photographed image data LP101. Then, the optical axis deviation determination unit 121 extracts the corresponding point RP103 corresponding to the reference point LP103 from the right-eye captured image captured image data RP101, and detects the difference vector VV101 between the reference point LP103 and the corresponding point RP103. To do. When the difference vector is detected, the optical axis determination unit 121 determines that the optical axis AL100 and the optical axis AR100 are shifted in the vertical direction and needs to be corrected. When the difference vector is not detected (when the difference vector is zero) ) Does not deviate from the optical axis AL100 and the optical axis AR100, it is determined that correction is unnecessary.
The optical axis deviation determination unit 121 can also extract a reference point from the right-eye photographic image data and a corresponding point from the left-eye photographic image data, and calculate a difference vector.

なお、光軸ずれ判定部121は、検出された差分ベクトルの大きさが所定の閾値以上の場合は補正が必要と判定し、所定の閾値未満の場合は補正は不要と判定するようにしてもよい。例えば、左眼用画像と右眼用画像の垂直方向のずれの大きさが表示画面の高さの0.7%以上であると適切な3D画像として知覚できないことが実験により報告されている(3Dコンテンツに関する調査研究報告書 財団法人 デジタルコンテンツ協会)ことから、差分ベクトルの大きさが液晶モニタ143又は入出力端子146を介して接続される外部モニタの高さの0.7%以上であるかどうかを、所定の閾値と使用してもよい。   The optical axis deviation determination unit 121 determines that correction is necessary when the magnitude of the detected difference vector is greater than or equal to a predetermined threshold value, and determines that correction is not necessary when the magnitude is less than the predetermined threshold value. Good. For example, it has been experimentally reported that when the size of the vertical shift between the left-eye image and the right-eye image is 0.7% or more of the height of the display screen, it cannot be perceived as an appropriate 3D image ( 3D content research report (Digital Content Association of Japan), whether the size of the difference vector is 0.7% or more of the height of the external monitor connected via the liquid crystal monitor 143 or the input / output terminal 146 Whether or not may be used with a predetermined threshold.

図3に戻り、光軸ずれ判定部121が光軸のずれを補正する必要があると判定した場合(ステップS103でYES)、光軸ずれ補正領域決定部122は、左眼用撮影画像データ又は右眼用撮影画像データの少なくとも何れかから、光軸のずれの補正に使用する領域を決定する(S104)。   Returning to FIG. 3, when the optical axis deviation determination unit 121 determines that the optical axis deviation needs to be corrected (YES in step S <b> 103), the optical axis deviation correction region determination unit 122 determines the left-eye captured image data or A region to be used for correcting the optical axis shift is determined from at least one of the right-eye photographed image data (S104).

図6に、光軸ずれ補正領域決定部122による、光軸のずれの補正に使用する領域を決定するための概念図を示す。光軸ずれ補正領域決定部122は、左眼用撮影画像データLP101から、差分ベクトルVV101の大きさと同じ高さをもった領域(図6においてハッチングで示した領域)を、光軸ずれ補正領域LP104として切り出すことを決定する。同様に、光軸ずれ補正領域決定部122は、右眼用撮影画像データRP101から、差分ベクトルVV101の大きさと同じ高さをもった領域(図6においてハッチングで示した領域)を、光軸ずれ補正領域RP104として切り出すことを決定する。以上のような補正を行うことで、光軸AL100と光軸AR100の光軸のずれによる左眼用撮影画像データと右眼用撮影画像データの垂直方向のずれを、補正することができる。   FIG. 6 is a conceptual diagram for determining an area used for correcting an optical axis deviation by the optical axis deviation correction area determining unit 122. The optical axis deviation correction area determining unit 122 converts an area having the same height as the difference vector VV101 from the left-eye captured image data LP101 (an area indicated by hatching in FIG. 6) to the optical axis deviation correction area LP104. Decide to cut out as. Similarly, the optical axis deviation correction area determination unit 122 converts an area having the same height as the difference vector VV101 from the right-eye captured image data RP101 (an area indicated by hatching in FIG. 6) to the optical axis deviation. It is determined to cut out as the correction region RP104. By performing the correction as described above, it is possible to correct the vertical shift between the left-eye shot image data and the right-eye shot image data due to the shift of the optical axis between the optical axis AL100 and the optical axis AR100.

図6では、左眼用撮影画像データLP101及び右眼用撮影画像データRP101の垂直方向のみから光軸ずれ補正領域を切り出すこと決定したが、液晶モニタ143等に出力する左眼用画画像及び右眼用画像のアスペクト比を整えるため、出力画像領域決定部127が水平方向からも一定の領域を切り出してもよい。   In FIG. 6, it has been decided to cut out the optical axis deviation correction region only from the vertical direction of the left-eye photographic image data LP101 and the right-eye photographic image data RP101, but the left-eye image image to be output to the liquid crystal monitor 143 and the right In order to adjust the aspect ratio of the ophthalmic image, the output image area determination unit 127 may cut out a certain area from the horizontal direction.

図3のステップS104で光軸のずれの補正が完了すると、或はステップS103で光軸ずれ判定部121が補正不要と判定すると(ステップS103でNO)、視差調整部123が左眼用撮影画像データ及び右眼用撮影画像データの調整が必要かどうかを判定する(ステップS105)。左眼用画像及び右眼用画像中のそれぞれの被写体の間の水平方向の視差が大きいと、その被写体画像は観察者からみて表示面の前方に飛び出しすぎているように知覚される、或は表示面の後方に引っ込みすぎているように知覚されることになる。これらの度合いが大きすぎると観察者に大きな負担となるからである。   When the correction of the optical axis deviation is completed in step S104 in FIG. 3 or when the optical axis deviation determination unit 121 determines that the correction is unnecessary in step S103 (NO in step S103), the parallax adjustment unit 123 captures the left-eye photographed image. It is determined whether or not the data and the right-eye photographic image data need to be adjusted (step S105). When the horizontal parallax between the respective subjects in the left-eye image and the right-eye image is large, the subject image is perceived as protruding too far forward of the display surface as viewed by the observer, or It will be perceived as being retracted too far behind the display surface. This is because if these degrees are too large, a great burden is placed on the observer.

視差調整部123は、前述のステップS103における光軸のずれの検出と同様に、いわゆる動きベクトルを算出するアルゴリズムを応用した手法により左眼用撮影画像データと右眼用撮影画像データとの間の水平方向の視差を差分ベクトルとして抽出し、観察者に負担を掛ける被写体画像データの有無を検出する。   Similar to the detection of the optical axis shift in step S103 described above, the parallax adjustment unit 123 uses a technique that applies an algorithm for calculating a so-called motion vector to obtain a difference between the captured image data for the left eye and the captured image data for the right eye. The parallax in the horizontal direction is extracted as a difference vector, and the presence or absence of subject image data that places a burden on the observer is detected.

図7を参照して、液晶モニタ143又は入出力端子を介して接続される外部モニタに表示される左眼用画像中及び右眼用画像中の被写体画像に関し、左眼用画像と右眼用画像との間の視差と、モニタの表示面に対する前方への飛び出し又は後方への引っ込みの関係を説明する。   Referring to FIG. 7, regarding the subject images in the left-eye image and the right-eye image displayed on the liquid crystal monitor 143 or the external monitor connected via the input / output terminal, the left-eye image and the right-eye image The relationship between the parallax between the images and the forward projection or the rearward withdrawal with respect to the display surface of the monitor will be described.

図7において、液晶モニタ143又は入出力端子146を介して接続される外部モニタの表示面をDP70、観察者と表示面DP70の距離をDとし、観察者の左眼LE70と右眼RE70の距離をEとする。   In FIG. 7, the display surface of the external monitor connected via the liquid crystal monitor 143 or the input / output terminal 146 is DP70, the distance between the observer and the display surface DP70 is D, and the distance between the left eye LE70 and the right eye RE70 of the observer. Is E.

図7(a)において、表示面DP70上の左眼用画像中の被写体画像の表示位置をLf、右眼用画像中の被写体画像の表示位置をRfとすると、観察者が左眼LE70でLf、右眼RE70でRfを観察した場合、両被写体画像はPfの位置で結像する。これにより3D画像では、観察者からは被写体画像が表示面DP70に対して前方に飛び出しているかのように知覚されることになる。 In FIG. 7A, when the display position of the subject image in the image for the left eye on the display surface DP70 is L f and the display position of the subject image in the image for the right eye is R f , the observer is left eye LE70. in L f, when observing the R f with the right eye RE70, both the subject image is imaged at the position of P f. As a result, in the 3D image, the observer perceives the subject image as if it protrudes forward with respect to the display surface DP70.

このとき、像LfとRfの視差をVfとすると、表示面DP70から結像位置Pfまでの距離Zfは以下の式(1)の通りとなる。 In this case, the parallax image L f and R f and V f, the distance Z f from the display surface DP70 to the imaging position P f is as the following equation (1).

(E+Vf)Zf=D・Vf ・・・(1) (E + V f ) Z f = D · V f (1)

ここで、観察者は被写体画像をディスプレイ面D70とは異なるところで知覚することになる。一方で、ピントはディスプレイ面DP70にあっていることになるため、この両者の乖離が大きいと、観察者に視覚疲労や不快感を生じるおそれがある。また、視差Vfが大きすぎると、被写体は飛び出しているようには知覚されず、単なる二重の画像として知覚されてしまうおそれがある。 Here, the observer perceives the subject image at a place different from the display surface D70. On the other hand, since the focus is on the display surface DP70, if the difference between the two is large, visual fatigue and discomfort may occur for the observer. On the other hand, if the parallax V f is too large, the subject is not perceived as popping out and may be perceived as a simple double image.

上記観察者の左眼LE70と右眼RE70の距離Eを一般的な人の瞳孔間隔である6.5cmとし、上記観察者からディスプレイ面DP70までの視聴距離Dを標準観視距離であるディスプレイの長辺の3倍距離とした場合に、観察者の眼に負担をかけず、快適に3D画像として認識できる左眼用画像と右眼用画像との間の視差量として、ディスプレイ面の幅の2.9%(視差角にして約1度)以下とすることが望ましい旨が報告されている(「人に優しい3D普及のための3DC安全ガイドライン」 3Dコンソーシアム安全ガイドライン部会発行 2010年4月20日改訂版)。   The distance E between the left eye LE70 and the right eye RE70 of the observer is 6.5 cm which is a general human pupil distance, and the viewing distance D from the observer to the display surface DP70 is a standard viewing distance. When the distance is three times the long side, the amount of parallax between the left-eye image and the right-eye image that can be comfortably recognized as a 3D image without imposing a burden on the observer's eyes, 2.9% (parallax angle about 1 degree) or less is reported to be desirable ("3DC safety guidelines for the spread of 3D that are friendly to humans" issued by the 3D Consortium Safety Guidelines Committee April 20, 2010 Revised version).

そこで、視差調整部123は、図7(a)に示すディスプレイ面幅DWと視差Vfが以下の式(2)の関係となる被写体画像が含まれている場合に、視差の調整が必要であると判定する。 Therefore, the parallax adjustment unit 123 needs to adjust the parallax when the subject image in which the display surface width DW and the parallax V f illustrated in FIG. Judge that there is.

f>0.029DW・・・(2) V f > 0.029 DW (2)

ここで、上記ディスプレイ面幅DWには、撮像装置1が備える液晶モニタ143の幅が予め設定されている値として採用される。ユーザが所有しているTVディスプレイ等の外部モニタに画像を表示させる場合は、その幅を入力し、その値を採用するようにしてもよい。   Here, as the display surface width DW, the width of the liquid crystal monitor 143 included in the imaging device 1 is adopted as a preset value. When an image is displayed on an external monitor such as a TV display owned by the user, the width may be input and the value may be adopted.

図7(b)において、表示面DP70上の左眼用画像中の被写体画像の表示位置をLb、右眼用画像中の被写体画像の位置をRbとすると、観察者が左眼LE70でLb、右眼RE70でRbを観察した場合、被写体画像はPbの位置で結像する。これにより3D画像では、観察者からは被写体画像が表示面DP70に対して後方に引っ込んでいるかのように知覚されることになる。 In FIG. 7B, if the display position of the subject image in the left-eye image on the display surface DP70 is L b , and the position of the subject image in the right-eye image is R b , the observer uses the left eye LE70. When R b is observed with L b and the right eye RE 70, the subject image is formed at the position P b . Thus, in the 3D image, the observer perceives the subject image as if it was retracted backward with respect to the display surface DP70.

このとき、像LbとRbの視差をVfとすると、表示面DP70から結像位置までの距離Zfは以下の式(3)の通りとなる。 At this time, assuming that the parallax between the images L b and R b is V f , the distance Z f from the display surface DP 70 to the image forming position is expressed by the following equation (3).

(E−Vb)Zb=D・Vb ・・・(3) (E−V b ) Z b = D · V b (3)

被写体画像が表示面に対して後方に引っ込んでいるかのように知覚される場合においても、左右眼画像間の視差によっては、観察者に視覚疲労や不快感を生じるおそれがあること、被写体が引き込んでいるようには知覚されず、単なる二重の画像として知覚されるおそれがあることは、上述した被写体画像が表示面に対して前方に飛び出しているかのように知覚される場合と同様である。   Even when the subject image is perceived as if it is retracted with respect to the display surface, depending on the parallax between the left and right eye images, there is a risk of visual fatigue or discomfort to the observer, and the subject is drawn in. It is not perceived as if the subject is moving, but may be perceived as a mere double image, as in the case where the subject image is perceived as if it is projected forward with respect to the display surface. .

そこで、視差調整部123は、図7(b)に示すディスプレイ面幅DWと視差Vfが以下の式(4)の関係となる被写体画像が含まれている場合に、視差の調整が必要であると判定する。 Therefore, the parallax adjustment unit 123 needs to adjust the parallax when the subject image in which the display surface width DW and the parallax V f illustrated in FIG. Judge that there is.

b>0.029DW ・・・(4) V b > 0.029 DW (4)

ここで、上記ディスプレイ面幅DWには、撮像装置1が備える液晶モニタ143の幅が予め設定されている値として採用される。ユーザが所有しているTVディスプレイ等の外部モニタに画像を表示させる場合は、その幅を入力し、その値を採用するようにしてもよい。   Here, as the display surface width DW, the width of the liquid crystal monitor 143 included in the imaging device 1 is adopted as a preset value. When an image is displayed on an external monitor such as a TV display owned by the user, the width may be input and the value may be adopted.

さらに、表示面から引き込んでいるかのうように知覚される3D画像では、ディスプレイ上における水平方向の視差が5cmを超えないようにすることが望ましい旨が方向されている(「人に優しい3D普及のための3DC安全ガイドライン」 3Dコンソーシアム安全ガイドライン部会発行 2010年4月20日改訂版)。人の両眼は外側には開かないことから、両眼の瞳孔間隔以上に離れた被写体を左眼及び右眼でそれぞれ独立して観察することは、眼精疲労や3D画像の破綻を誘発するおそれがあるためである。   Furthermore, in 3D images that are perceived as if they are drawn from the display surface, it is desirable that the horizontal parallax on the display should not exceed 5 cm. 3DC Safety Guidelines for the 3D Consortium Safety Guidelines Subcommittee revised version on April 20, 2010). Since both eyes of a person do not open outward, observing a subject that is more than the distance between the pupils of both eyes independently with the left and right eyes induces eye strain and 3D image failure. This is because there is a fear.

そこで、視差調整部123は、Vbが5cmを超える被写体画像が含まれている場合に視差の調製が必要であると判定するようにしても良い。Vbが5cm以上かどうかの判定及び、5cmとする調整は、予め設定又は入力されているDWの値から5cm相当のピクセル数を算出することで行われる。   Therefore, the parallax adjustment unit 123 may determine that parallax adjustment is necessary when a subject image with Vb exceeding 5 cm is included. The determination whether Vb is 5 cm or more and the adjustment to 5 cm are performed by calculating the number of pixels corresponding to 5 cm from the DW value set or inputted in advance.

なお、視差調整部123は上記の例では、観察者の負担を軽減する観点から視差の調整が必要かどうかを判定したが、撮像装置1に左眼用撮影画像と右眼用撮影画像との水平方向の視差を調整する旨の設定が予めなされている場合は視差の調整が必要であると判定し、視差の調整を行わない旨の設定がなされている場合は視差の調整が不要であると判定するようにしてもよい。   In the above example, the parallax adjustment unit 123 determines whether or not parallax adjustment is necessary from the viewpoint of reducing the burden on the viewer. However, the parallax adjustment unit 123 determines whether the left eye shot image and the right eye shot image are included in the imaging device 1. When the setting for adjusting the parallax in the horizontal direction is made in advance, it is determined that the parallax adjustment is necessary, and when the setting for not adjusting the parallax is made, the parallax adjustment is unnecessary. May be determined.

図3に戻り、視差調整部123が左眼用撮影画像データと右眼用撮影画像データの水平方向の視差の調整が必要であると判定すると(ステップS105でYES)、視差調整領域決定部124は、左眼用撮影画像データ又は右眼用撮影画像データの少なくとも何れかから、視差の調整に使用する領域を決定する(S106)。   Returning to FIG. 3, when the parallax adjustment unit 123 determines that it is necessary to adjust the parallax in the horizontal direction between the left-eye photographic image data and the right-eye photographic image data (YES in step S <b> 105), the parallax adjustment region determination unit 124. Determines a region to be used for parallax adjustment from at least one of the left-eye captured image data and the right-eye captured image data (S106).

図8に、視差調整領域決定部124による、視差の調整に使用する領域を決定するための概念図を示す。視差調整部124は左眼用撮影画像データLP101から視差調整領域LP105を、右眼用撮影画像データRP101から視差調整領域RP105をそれぞれ切り出すことを決定する。ここで、視差調整領域LP105及びRP105のサイズは、被写体画像LP102及びRP102の視差量が、上述した快適に3D画像として認識できる左眼用画像と右眼用画像との間の視差量となるように決定してもよいし、撮像装置1に予め記録されている値に基づいて決定してもよい。   FIG. 8 is a conceptual diagram for determining an area used for parallax adjustment by the parallax adjustment area determining unit 124. The parallax adjustment unit 124 determines to cut out the parallax adjustment region LP105 from the left-eye shot image data LP101 and to cut out the parallax adjustment region RP105 from the right-eye shot image data RP101. Here, the sizes of the parallax adjustment regions LP105 and RP105 are such that the parallax amounts of the subject images LP102 and RP102 are the parallax amounts between the left-eye image and the right-eye image that can be comfortably recognized as a 3D image as described above. Alternatively, it may be determined based on a value recorded in advance in the imaging apparatus 1.

図8では、左眼用撮影画像データLP101及び右眼用撮影画像データRP101の水平方向のみから視差調整領域を切り出すこと決定したが、液晶モニタ143等に出力する左眼用画画像及び右眼用画像のアスペクト比を整えるため、出力画像領域決定部127が垂直方向からも一定の領域を切り出してもよい。   In FIG. 8, it has been decided to cut out the parallax adjustment region only from the horizontal direction of the left-eye photographic image data LP101 and the right-eye photographic image data RP101, but the left-eye image image and right-eye image output to the liquid crystal monitor 143 and the like. In order to adjust the aspect ratio of the image, the output image area determination unit 127 may cut out a certain area from the vertical direction.

図3のステップS106で視差の調整が完了すると、或はステップS105で視差調整部123が視差の調整は不要と判定すると(ステップS105でNO)、視差調整部123が左眼用撮影画像データ及び右眼用撮影画像データの手ぶれ補正が必要かどうかを判定する(ステップS107)。3D画像における手ぶれは、通常の手ぶれによる画像の見づらさに加え、左眼用画像及び右眼用画像の上下左右方向の変化がそのまま視差の変化につながることから、知覚される立体度を不安定なものにする原因ともなり、画像酔いを誘発する可能性があるためである。   When the parallax adjustment is completed in step S106 of FIG. 3 or when the parallax adjustment unit 123 determines that the parallax adjustment is unnecessary in step S105 (NO in step S105), the parallax adjustment unit 123 sets the left-eye captured image data and It is determined whether camera shake correction of the right-eye photographic image data is necessary (step S107). Camera shake in a 3D image is unstable in the perceived stereoscopic degree because changes in the vertical and horizontal directions of the left-eye image and right-eye image directly lead to a change in parallax in addition to the difficulty in viewing the image due to normal camera shake. It is also a cause of image loss and may induce image sickness.

手ぶれ補正判定部125は、既知の手法によりジャイロセンサ147の出力結果又は左眼用撮影画像データ及び右眼用撮影画像データのベクトル演算の少なくとも何れか一方から手ぶれ補正が必要か否かを判定する。   The camera shake correction determination unit 125 determines whether camera shake correction is necessary from at least one of the output result of the gyro sensor 147 or the vector calculation of the left eye captured image data and the right eye captured image data by a known method. .

手ぶれ補正判定部125が手ぶれ補正が必要であると判定すると(ステップS108でYES)、手ぶれ補正領域決定部126が左眼用撮影画像データ又は右眼用撮影画像データの少なくとも何れかから、手ぶれ補正に使用する領域を決定する(S108)。   When the camera shake correction determination unit 125 determines that camera shake correction is necessary (YES in step S108), the camera shake correction region determination unit 126 performs camera shake correction from at least one of the left-eye captured image data and the right-eye captured image data. An area to be used for the process is determined (S108).

図9に、手ぶれ補正領域決定部126による、手ぶれ補正に使用する領域を決定するための概念図を示す。手ぶれ補正領域決定部126は、左眼用撮影画像データLP101から手ぶれ補正領域LP106を、右眼用撮影画像データRP101から手ぶれ補正領域RP106をそれぞれ切り出すことを決定する。
これら手ぶれ補正領域LP106及びRP106の範囲は撮影時のズーム倍率に基づいて決定され、例えば以下の式(5)及び(6)の関係を満たすように決定される。
FIG. 9 is a conceptual diagram for determining an area used for camera shake correction by the camera shake correction area determination unit 126. The camera shake correction area determination unit 126 determines to cut out the camera shake correction area LP106 from the left-eye captured image data LP101 and to extract the camera shake correction area RP106 from the right-eye captured image data RP101.
The ranges of the camera shake correction regions LP106 and RP106 are determined based on the zoom magnification at the time of shooting, and are determined so as to satisfy, for example, the following expressions (5) and (6).

(1−Vb/Va)×100=(ズーム倍率+2)% ・・・(5) (1-Vb / Va) × 100 = (zoom magnification + 2)% (5)

(1−Hb/Ha)×100=(ズーム倍率+2)% ・・・(6) (1−Hb / Ha) × 100 = (zoom magnification + 2)% (6)

ステップS108で手ぶれの補正が完了する、或は手ぶれ補正判定部125が手ぶれ補正が不要との判定をする(ステップS107でNO)と、出力画像領域決定部がアスペクト比を調整し、最終的に出力する左眼用出力画像データ及び右眼用出力画像データの領域を決定し、これらの画像データをHDD I/F138、カードI/F140、又は入出力I/F142に出力する(ステップS109)。なお、手ぶれ補正領域決定部126ではズーム倍率に関係なく予め定められた一律の手ぶれ補正領域を確保することもできる。   When the camera shake correction is completed in step S108 or the camera shake correction determination unit 125 determines that the camera shake correction is unnecessary (NO in step S107), the output image area determination unit adjusts the aspect ratio and finally. The output image data for the left eye and the output image data for the right eye to be output are determined, and these image data are output to the HDD I / F 138, the card I / F 140, or the input / output I / F 142 (step S109). Note that the camera shake correction area determination unit 126 can secure a predetermined camera shake correction area regardless of the zoom magnification.

ユーザが操作部145の図示しない録画ボタンを離し撮影を終了すると撮像装置1は、この3D画像の撮影の処理を終了する。又は、ユーザが撮像装置1の電源を切る、或は半押しにした録画ボタンを離すとスルー画像に対するこの処理を終了する。   When the user releases the recording button (not shown) of the operation unit 145 and finishes shooting, the imaging apparatus 1 ends the 3D image shooting process. Alternatively, when the user turns off the power of the imaging apparatus 1 or releases the recording button that has been half-pressed, the process for the through image is terminated.

以上に説明したように、本発明に係る撮像装置1によれば、固体撮像素子L104及びR104からの画像の切り出し範囲を調整することで、左眼用撮像系及び右眼用撮像系の光軸のずれの補正、撮影時の手ぶれの補正、及び左眼用画像及び右眼用画像の間の視差の調整を施し、眼精疲労や画像酔いを誘発しにくい、快適な3D画像の撮影を行うことができる。   As described above, according to the imaging apparatus 1 according to the present invention, the optical axes of the left-eye imaging system and the right-eye imaging system are adjusted by adjusting the cutout range of the images from the solid-state imaging devices L104 and R104. Correction of image shift, correction of camera shake at the time of shooting, and adjustment of parallax between the image for the left eye and the image for the right eye, and taking a comfortable 3D image that is less likely to induce eye strain and image sickness be able to.

1 撮像装置
120 CPU
121 光軸ずれ判定部
122 光軸ずれ補正領域決定部
123 視差調整部
124 視差調整領域決定部
125 手ぶれ補正判定部
126 手ぶれ補正領域決定部
127 出力画像領域決定部
133 SDRAM
138 HDD I/F
139 カードI/F
142 入出力I/F
143 液晶モニタ
145 操作部
1 Imaging device 120 CPU
121 optical axis deviation determination unit 122 optical axis deviation correction region determination unit 123 parallax adjustment unit 124 parallax adjustment region determination unit 125 camera shake correction determination unit 126 camera shake correction region determination unit 127 output image region determination unit 133 SDRAM
138 HDD I / F
139 Card I / F
142 I / O I / F
143 LCD monitor 145 Operation unit

Claims (4)

被写体を撮影して第一の撮影画像を出力する第一の撮像部及び第二の撮影画像を出力する第二の撮像部と、
前記第一の撮影画像及び前記第二の撮影画像を記憶する記憶部と、
前記第一の撮像部と前記第二の撮像部との間の光軸のずれの有無を判定する光軸ずれ判定部と、
前記光軸ずれ判定部が光軸がずれていると判定した場合、前記第一の撮影画像と前記第二の撮影画像から、その光軸のずれを補正するための光軸ずれ補正画像の領域を決定する光軸ずれ画像領域決定部と、
前記第一の撮影画像から前記光軸ずれ補正画像の領域を除いた第三の撮影画像と、前記第二の撮影画像から前記光軸ずれ補正画像の領域を除いた第四の撮影画像との間の水平方向の視差を調整するか否かを判定する視差調整部と、
前記視差調整部が水平方向の視差を調整すると判定した場合、前記第三の撮影画像と前記第四の撮影画像から、水平方向の視差を調整するための視差調整画像の領域を決定する視差調整画像領域決定部と、
前記第三の撮影画像から前記視差調整画像の領域を除いた第五の撮影画像と、前記第四の撮影画像から前記視差調整画像の領域を除いた第六の撮影画像の手ぶれを補正するか否かを判定する手ぶれ補正判定部と、
前記手ぶれ補正判定部が手ぶれを補正すると判定した場合、前記第五の撮影画像と前記第六の撮影画像から、手ぶれ補正のための手ぶれ補正画像の領域を決定する手ぶれ補正領域決定部と、
前記第六の撮影画像から手ぶれ補正画像の領域を除いた第七の撮影画像と、前記第六の撮影画像から前記手ぶれ補正画像の領域を除いた第八の撮影画像とを出力する出力部と
を備えることを特徴とする3D画像撮影装置。
A first imaging unit that images a subject and outputs a first captured image; and a second imaging unit that outputs a second captured image;
A storage unit for storing the first captured image and the second captured image;
An optical axis deviation determination unit that determines the presence or absence of an optical axis deviation between the first imaging unit and the second imaging unit;
When the optical axis deviation determination unit determines that the optical axis is deviated, an optical axis deviation correction image area for correcting the optical axis deviation from the first photographed image and the second photographed image. An optical axis misalignment image region determination unit for determining
A third photographed image obtained by removing the optical axis deviation corrected image area from the first photographed image, and a fourth photographed image obtained by removing the optical axis deviation corrected image area from the second photographed image. A parallax adjustment unit that determines whether or not to adjust the horizontal parallax between,
When the parallax adjustment unit determines to adjust the parallax in the horizontal direction, the parallax adjustment that determines the region of the parallax adjustment image for adjusting the parallax in the horizontal direction from the third captured image and the fourth captured image An image region determination unit;
Whether to correct camera shake of the fifth photographed image obtained by removing the region of the parallax adjustment image from the third photographed image and the sixth photographed image obtained by removing the region of the parallax adjustment image from the fourth photographed image A camera shake correction determination unit for determining whether or not,
When the camera shake correction determination unit determines to correct camera shake, a camera shake correction region determination unit that determines a region of the camera shake correction image for camera shake correction from the fifth captured image and the sixth captured image;
An output unit for outputting a seventh photographed image obtained by removing the image stabilization image area from the sixth photographed image and an eighth photographed image obtained by removing the image stabilization image area from the sixth photographed image; A 3D image photographing apparatus comprising:
前記3D画像撮影装置はさらに出力画像領域決定部を備え、
前記出力画像領域決定部は前記第一の撮影画像と前記第二の撮影画像、前記第三の撮影画像と前記第四の撮影画像、前記第五の撮影画像と前記第六の撮影画像、または前記第七の撮影画像と前記第八の撮影画像の組み合わせのうち、少なくとも何れか一つの組み合わせの撮影画像に対し、アスペクト比を考慮してそれら二つの撮影画像の領域を決定することを特徴とする請求項1に記載の3D画像撮影装置。
The 3D image capturing apparatus further includes an output image region determination unit,
The output image area determination unit includes the first captured image and the second captured image, the third captured image and the fourth captured image, the fifth captured image and the sixth captured image, or A region of the two photographed images is determined in consideration of an aspect ratio with respect to a photographed image of at least one of the combinations of the seventh photographed image and the eighth photographed image. The 3D image photographing device according to claim 1.
前記光軸ずれ判定部は、前記第一の撮影画像と前記第二の撮影画像との間の垂直方向の差分ベクトルの大きさが所定の閾値を超える場合に前記第一の撮像部と前記第二の撮像部との間の光軸がずれていると判定することを特徴とする請求項1及び2に記載の3D画像撮影装置。   The optical axis deviation determination unit is configured to detect the first imaging unit and the first imaging unit when the magnitude of a vertical difference vector between the first captured image and the second captured image exceeds a predetermined threshold. The 3D image capturing apparatus according to claim 1, wherein it is determined that the optical axis between the second imaging unit is shifted. 前記視差調整画像領域決定部は、前記出力部が前記第七の撮影画像及び前記第八の撮影画像を出力する画像表示装置の表示面幅に基づいて、前記視差調整画像領域の大きさを決定することを特徴とする請求項1から請求項3の何れか1項に記載の3D画像撮影装置。   The parallax adjustment image region determination unit determines the size of the parallax adjustment image region based on a display surface width of an image display device from which the output unit outputs the seventh captured image and the eighth captured image. The 3D image photographing device according to any one of claims 1 to 3, wherein the 3D image photographing device is provided.
JP2011024399A 2011-02-07 2011-02-07 Three-dimensional imaging apparatus Withdrawn JP2012165207A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011024399A JP2012165207A (en) 2011-02-07 2011-02-07 Three-dimensional imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011024399A JP2012165207A (en) 2011-02-07 2011-02-07 Three-dimensional imaging apparatus

Publications (1)

Publication Number Publication Date
JP2012165207A true JP2012165207A (en) 2012-08-30

Family

ID=46844168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011024399A Withdrawn JP2012165207A (en) 2011-02-07 2011-02-07 Three-dimensional imaging apparatus

Country Status (1)

Country Link
JP (1) JP2012165207A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10088409B2 (en) 2016-11-04 2018-10-02 Panasonic Intellectual Property Management Co., Ltd. Image forming device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10088409B2 (en) 2016-11-04 2018-10-02 Panasonic Intellectual Property Management Co., Ltd. Image forming device

Similar Documents

Publication Publication Date Title
US9667945B2 (en) Image processing device, image processing method and image processing computer program product
JP5963422B2 (en) Imaging apparatus, display apparatus, computer program, and stereoscopic image display system
US9491439B2 (en) Three-dimensional image capture device, lens control device and program
JP2012156680A (en) Three dimensional image processing device
US9560341B2 (en) Stereoscopic image reproduction device and method, stereoscopic image capturing device, and stereoscopic display device
KR101824439B1 (en) Mobile Stereoscopic Camera Apparatus and Method of Shooting thereof
JP5420075B2 (en) Stereoscopic image reproduction apparatus, parallax adjustment method thereof, parallax adjustment program, and imaging apparatus
US20130162764A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium
WO2012023168A1 (en) Stereoscopic image capturing device, and stereoscopic image capturing method
US9310672B2 (en) Stereoscopic image capturing device and method of controlling thereof
JPWO2012002020A1 (en) Reproduction apparatus, compound eye imaging apparatus, reproduction method, and program
WO2012105121A1 (en) 3d video playing device, 3d video playing program and recording medium for same, 3d display device, 3d imaging device, and 3d video playing method
JP6155471B2 (en) Image generating apparatus, imaging apparatus, and image generating method
JP5466773B2 (en) Stereoscopic video playback device, stereoscopic video playback program and recording medium thereof, stereoscopic display device, stereoscopic imaging device, and stereoscopic video playback method
JP2014154907A (en) Stereoscopic imaging apparatus
JP5571257B2 (en) Image processing apparatus, method, and program
JP5580486B2 (en) Image output apparatus, method and program
JP5586788B2 (en) Image display device and image pickup device
JP2012165207A (en) Three-dimensional imaging apparatus
JP2012235281A (en) Three-dimensional image photographing device and program
JP2012015820A (en) Stereoscopic video display apparatus and stereoscopic vide display method
JP2012182786A (en) Three-dimensional image pick-up device
WO2012001958A1 (en) Image processing device, method and program
JP2012253452A (en) 3d image imaging apparatus and program
JP2015029215A (en) Stereoscopic image processing device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513