JP2012220603A - Three-dimensional video signal photography device - Google Patents

Three-dimensional video signal photography device Download PDF

Info

Publication number
JP2012220603A
JP2012220603A JP2011084264A JP2011084264A JP2012220603A JP 2012220603 A JP2012220603 A JP 2012220603A JP 2011084264 A JP2011084264 A JP 2011084264A JP 2011084264 A JP2011084264 A JP 2011084264A JP 2012220603 A JP2012220603 A JP 2012220603A
Authority
JP
Japan
Prior art keywords
parallax
distribution
shooting
amount
optical system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011084264A
Other languages
Japanese (ja)
Inventor
Sumiyuki Okimoto
純幸 沖本
Kenjiro Tsuda
賢治郎 津田
Hiroaki Shimazaki
浩昭 島崎
Yuji Nagaishi
裕二 永石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2011084264A priority Critical patent/JP2012220603A/en
Publication of JP2012220603A publication Critical patent/JP2012220603A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem in which only a person who is experienced in three-dimensional photography can know what photography conditions a three-dimensional photograph is taken so as to obtain a desired stereoscopic feeling effect.SOLUTION: A three-dimensional video signal photography device includes: an optical system 110(a); a CCD 150(a); an optical system 110(b); a CCD 150(b) for generating video for stereoscopy; and a video processing part 160 having a function of detecting parallax information representing a parallax amount that the video for stereoscopy has, a function of adjusting photography conditions of the optical system 110(a), CCD 150(a), optical system 110(b), and CCD 150(b), and a function of setting parallax distribution information representing a distribution of determined parallax amounts. The video processing part 160 sets photography conditions of the optical system 110(a), CCD 150(a), optical system 110(b), and CCD 150(b) so that a distribution of parallax amounts represented by the detected parallax information approximates the distribution of parallax amounts represented by the parallax distribution information set by the video processing part 160.

Description

本発明は、例えば、立体視用の映像を撮影する3D映像信号撮影装置に関するものである。   The present invention relates to a 3D video signal photographing apparatus that photographs a stereoscopic video, for example.

両眼視差をもって左右の映像を撮影し、撮影した左右の映像を独立して左右の目に投影できる表示装置に表示することにより、3D映像信号を再現する手法(以下、3D視聴と称す)が知られている。左右の映像を取得する方法としては、2台のカメラを横に並べ同期撮影する方法若しくは、2つの光学系を基に形成される別視点での被写体像を撮影する方法が一般的である。   A method of reproducing a 3D video signal (hereinafter referred to as 3D viewing) by capturing left and right images with binocular parallax and displaying the captured left and right images on a display device that can independently project left and right eyes. Are known. As a method for acquiring the left and right images, a method in which two cameras are arranged side-by-side and a synchronous shooting is performed, or a method of shooting a subject image from a different viewpoint formed based on two optical systems is generally used.

上記の方法による3D撮影では、撮影映像の視聴時のディスプレイサイズ、視聴距離を考慮して2つの光学系の撮影パラメータを調整して、被写体を直接見ている場合と、投影された映像を見ている場合で、輻輳角すなわち両目と被写体によって成す角度が厳密に同一となるような撮影を行えば、視聴者には両者は全く同じ立体感として見える。しかしこのような撮影は、視聴環境を撮影時に完全に規定してしまうことになり、実用面で非現実的である。また被写体や撮影シーンに応じてレンズを変えて撮影するという従来の撮影スタイルでは、レンズを変えるごとに最適視聴条件が変わり、これも実用的ではない。このため、被写体を直接見る場合と投影された映像を見る場合で、輻輳角を厳密に一致させるのではなく、ある程度幅を持たせた範囲で一定の効果が得られるよう視聴条件と撮影条件を設定し撮影する、または撮影された3D映像を補正する、という方法が採られる。   In 3D shooting using the above method, the shooting parameters of the two optical systems are adjusted in consideration of the display size and viewing distance when viewing the shot image, and the projected image is viewed directly. If the shooting is performed such that the angle of convergence, that is, the angle formed by both eyes and the subject is exactly the same, the viewer will see the same stereoscopic effect. However, such shooting will completely define the viewing environment at the time of shooting, and is impractical in practical use. Moreover, in the conventional shooting style in which the lens is changed according to the subject and the shooting scene, the optimum viewing condition changes every time the lens is changed, which is also not practical. For this reason, when viewing the subject directly and when viewing the projected image, the viewing and shooting conditions are set so that a certain effect can be obtained within a certain range, rather than strictly matching the convergence angles. A method of setting and shooting or correcting a shot 3D image is employed.

このような補正方法として特許文献1では、2つのカメラで撮影した映像から、映像内の各被写体の位置のずれを視差として求め、この視差の平均値が0となるよう2つの画像をずらす方法が開示されている。3D視聴では、左目の映像と右目の映像がぴったり重なる輻輳位置にその被写体が存在するように見えるため、視差0となるよう映し出された被写体は、ディスプレイ面に存在するように見える。視聴者の目の焦点位置はディスプレイ面であるため、焦点位置と最も多くの被写体の輻輳位置がディスプレイ面で一致するこのような調整方法が、最も自然で見やすい3D映像であると考えられる。   As such a correction method, Japanese Patent Application Laid-Open No. H10-228688 calculates a position shift of each subject in a video as parallax from videos taken by two cameras, and shifts the two images so that the average value of the parallax becomes zero. Is disclosed. In 3D viewing, the subject appears to be present at the convergence position where the left-eye video and the right-eye video exactly overlap, and thus the subject projected to have a parallax of zero appears to be present on the display surface. Since the focus position of the viewer's eyes is on the display surface, such an adjustment method in which the focus position and the convergence positions of the most subjects coincide on the display surface is considered to be the most natural and easy-to-see 3D video.

特開平10−32840号公報Japanese Patent Laid-Open No. 10-32840

3D撮影の段階で3D視聴時の条件が厳密に規定できない以上、3D視聴時に投影された映像による立体感は、現実のものとは異なるものにならざるを得ない。このため従来は特許文献1に挙げたように、視聴者の見やすさを考慮した撮影パラメータ調整が行われてきた。しかし3D撮影または3D視聴は、従来の2D撮影・視聴とは異なる体験であり、この特性を活かした撮影・視聴を行いたいというのは、当然の要求である。すなわち、見やすさや安全性を維持しつつも、撮影シーンに併せてこれに合った立体感効果を演出する機能が望まれる。しかし望ましい立体感効果を得るために、どのような撮影条件で3D撮影を行えばよいか、ということは3D撮影の経験を十分に積んだ者にしか分からないという課題があった。   As long as the conditions for 3D viewing cannot be strictly defined at the 3D shooting stage, the stereoscopic effect due to the video projected at the time of 3D viewing must be different from the actual one. For this reason, conventionally, as described in Patent Document 1, shooting parameter adjustment has been performed in consideration of viewers' visibility. However, 3D shooting or 3D viewing is an experience different from conventional 2D shooting / viewing, and it is a natural requirement to perform shooting / viewing utilizing this characteristic. That is, there is a demand for a function that produces a stereoscopic effect corresponding to the shooting scene while maintaining the visibility and safety. However, in order to obtain a desirable stereoscopic effect, there is a problem that only those who have sufficient experience in 3D shooting know what shooting conditions should be used for 3D shooting.

よって本願は、撮影者の撮影意図に応じた立体感効果が得られるよう、設定した視差量の分布に応じて撮影条件を自動調節することを可能にすることを目的とする   Therefore, it is an object of the present application to make it possible to automatically adjust shooting conditions according to the set distribution of the amount of parallax so that a stereoscopic effect according to the shooting intention of the photographer can be obtained.

上記の目的を達成するために、本発明の3D映像信号撮影装置は、立体視用の映像を撮影する3D映像信号撮影装置であって、被写体を撮影し、前記立体視用の映像を生成する撮影部と、前記立体視用の映像が有する視差量を示す視差情報を検出する検出部と、前記撮影部における撮影条件を調整する調整部と、所定の視差量の分布を示す視差分布情報を設定する設定部と、を備え、前記調整部は、前記検出した視差情報が示す視差量の分布が、前記設定部が設定した視差分布情報が示す視差量の分布に近づくように前記撮影部における撮影条件を設定する。   In order to achieve the above object, a 3D video signal photographing device of the present invention is a 3D video signal photographing device for photographing a stereoscopic video, and shoots a subject to generate the stereoscopic video. A shooting unit, a detection unit that detects parallax information indicating the amount of parallax included in the stereoscopic video, an adjustment unit that adjusts shooting conditions in the shooting unit, and parallax distribution information that indicates a distribution of a predetermined amount of parallax. A setting unit that sets the parallax amount distribution indicated by the detected parallax information in the photographing unit so that the distribution of the parallax amount indicated by the parallax distribution information set by the setting unit approaches Set the shooting conditions.

このようにすれば、3D映像信号撮影装置は撮影する立体視用の映像における視差量の分布を、設定した視差量の分布に近づけるように撮影することができる。これにより、例えば意図する視差量の分布を設定するだけで、撮影パラメータを自動的に制御することが可能となる効果を奏する。   In this way, the 3D video signal imaging device can capture the distribution of the parallax amount in the stereoscopic video to be captured so as to approach the set distribution of the parallax amount. Thereby, for example, it is possible to automatically control the shooting parameters only by setting the distribution of the intended amount of parallax.

また好ましくは、前記撮影部は、第1の視点から前記被写体を撮影する第1光学系および第2の視点から前記被写体を撮影する第2光学系を有し、前記調整部は、前記検出した視差情報が示す視差量の分布の広がりを、前記設定部が設定した視差分布情報が示す視差量の分布に近づける場合、前記第1光学系および前記第2光学系の光軸間距離を調整する。   Preferably, the photographing unit includes a first optical system that photographs the subject from a first viewpoint and a second optical system that photographs the subject from a second viewpoint, and the adjustment unit detects the detected When the spread of the disparity amount indicated by the disparity information is brought close to the disparity amount distribution indicated by the disparity distribution information set by the setting unit, the distance between the optical axes of the first optical system and the second optical system is adjusted. .

このようにすれば、光軸間距離を調整することで、設定した視差分情報が示す視差量の分布の広がりに近づけることが可能となる。   In this way, by adjusting the distance between the optical axes, it becomes possible to approximate the spread of the distribution of the parallax amount indicated by the set parallax information.

また好ましくは、前記撮影部は、前記第1の視点から前記被写体を撮影する第1の光学系と、前記第2の視点から前記被写体を撮影する第2の光学系を有し、前記調整部は、前記検出した視差情報が示す視差量の分布の広がりを維持したまま、前記設定部が設定した視差分布情報が示す視差量の分布に近づける場合、前記第1光学系の光軸および前記第2光学系の光軸によって形成される輻輳角を調整する。   Preferably, the photographing unit includes a first optical system that photographs the subject from the first viewpoint, and a second optical system that photographs the subject from the second viewpoint, and the adjustment unit. In the case where the disparity amount distribution indicated by the setting unit is kept close to the disparity amount distribution indicated by the setting unit while maintaining the spread of the disparity amount distribution indicated by the detected disparity information, and the optical axis of the first optical system and the first The convergence angle formed by the optical axes of the two optical systems is adjusted.

このようにすれば、輻輳角を調整することで、検出した視差情報が示す視差量の分布の広がりを維持したまま、前記設定部が設定した視差分布情報が示す視差量の分布に近づけることができる。   In this way, by adjusting the convergence angle, it is possible to approximate the distribution of the parallax amount indicated by the parallax distribution information set by the setting unit while maintaining the spread of the distribution of the parallax amount indicated by the detected parallax information. it can.

また好ましくは、前記撮影部は、前記第1の視点から前記被写体を撮影する第1の光学系と、前記第2の視点から前記被写体を撮影する第2の光学系を有し、前記調整部は、前記検出した視差情報が示す視差量の分布形状を維持したまま前記視差分布情報が示す視差量の分布に近づける場合、前記第1光学系が有するレンズ群と前記第2光学系が有するレンズ群をシフトさせる。   Preferably, the photographing unit includes a first optical system that photographs the subject from the first viewpoint, and a second optical system that photographs the subject from the second viewpoint, and the adjustment unit. Is a lens group included in the first optical system and a lens included in the second optical system when the distribution shape of the parallax amount indicated by the detected parallax information is maintained close to the parallax amount distribution indicated by the parallax distribution information. Shift the group.

このようにすれば、レンズ群をシフトさせることで検出した視差情報が示す視差量の分布の広がりを維持したまま、前記設定部が設定した視差分布情報が示す視差量の分布に近づけることができる。   By doing so, it is possible to approximate the distribution of the parallax amount indicated by the parallax distribution information set by the setting unit while maintaining the spread of the distribution of the parallax amount indicated by the parallax information detected by shifting the lens group. .

また好ましくは、前記調整部は、前記検出した視差情報が示す視差量の分布のうち一部が、前記設定部が設定した視差分布情報が示す視差量の分布に近づくように前記撮影部における撮影条件を設定する。   Further preferably, the adjustment unit performs shooting in the shooting unit such that a part of the distribution of the parallax amount indicated by the detected parallax information approaches the distribution of the parallax amount indicated by the parallax distribution information set by the setting unit. Set conditions.

このようにすれば、例えば飛出し部分の視差量の分布を前記設定部が設定した視差分布情報が示す視差量の分布に近づけたりすることが可能となる。   In this way, for example, it is possible to make the distribution of the parallax amount at the protruding portion closer to the distribution of the parallax amount indicated by the parallax distribution information set by the setting unit.

また好ましくは、前記調整部は、前記撮影条件を変更した後、変更後の撮影条件で撮影した場合に得られる視差量の分布を推定し、推定した視差量の分布が、前記設定した視差分布情報が示す視差量の分布に近づくように前記撮影部における撮影条件を再設定する。   Preferably, the adjustment unit estimates a distribution of a parallax amount obtained when shooting is performed under the changed shooting condition after changing the shooting condition, and the estimated parallax amount distribution is the set parallax distribution. The imaging conditions in the imaging unit are reset so as to approach the distribution of the parallax amount indicated by the information.

このようにすれば、例えば変更後の撮影条件で撮影される立体視用の映像から視差量を再検出せずとも、変更後の撮影条件による視差量の分布を推定することができる。これにより、繰り替えし撮影条件を変更することができるため好適な撮影条件を見つけ易くなる。   In this way, for example, the distribution of the parallax amount according to the changed shooting condition can be estimated without re-detecting the parallax amount from the stereoscopic video shot under the changed shooting condition. This makes it easy to find suitable shooting conditions because the shooting conditions can be changed repeatedly.

また好ましくは、前記3D映像信号撮影装置はさらに、撮影モードを設定するモード設定部を備え、前記設定部は、前記モード設定部が設定する撮影モードに基づいて、視差分布情報を設定する。   Preferably, the 3D video signal photographing apparatus further includes a mode setting unit for setting a photographing mode, and the setting unit sets the parallax distribution information based on the photographing mode set by the mode setting unit.

このようにすれば、撮影モードに適した視差分布情報を設定することが出来る。   In this way, parallax distribution information suitable for the shooting mode can be set.

また好ましくは、前記設定部は、前記モード設定部が風景を撮影するモードを設定している場合、前記立体視用の映像が有する視差量のうち引っ込みに関する視差量が前記立体視用の映像が有する視差量のうち飛び出しに関する視差量よりも多い視差量の分布を視差分布情報として設定する。   Further preferably, when the mode setting unit sets a mode for shooting a landscape, the setting unit has a parallax amount related to retraction among the parallax amounts of the stereoscopic video that the stereoscopic video has. A disparity amount distribution that is larger than the disparity amount relating to popping out is set as disparity distribution information.

また好ましくは、前記設定部は、前記モード設定部がマクロを撮影するモードを設定している場合、前記立体視用の映像が有する視差量のうち飛び出しに関する視差量が前記立体視用の映像が有する視差量のうち引っ込みに関する視差量よりも多い視差量の分布を視差分布情報として設定する。   Further preferably, when the mode setting unit sets a macro shooting mode, the setting unit has a parallax amount related to popping out of a parallax amount included in the stereoscopic video image. A disparity amount distribution that is larger than the disparity amount related to retraction among the disparity amounts is set as disparity distribution information.

また好ましくは、前記設定部は、前記モード設定部が人物を撮影するモードを設定している場合、前記立体視用の映像が有する視差量のうち略ゼロの視差量が、前記立体視用の映像が有する視差量のうち飛び出しまたは引っ込みに関する視差量よりも多い視差量の分布を視差分布情報として設定する。   Further preferably, when the mode setting unit has set a mode for photographing a person, the setting unit has a parallax amount of substantially zero of the parallax amounts of the stereoscopic video image. A disparity amount distribution that is larger than the disparity amount related to popping out or retracting among the disparity amounts of the video is set as the disparity distribution information.

前記調整部は、前記検出した視差情報が示す視差量の分布に基づく特徴量が、前記設定部が設定した情報が示す視差分布に基づく特徴量に近づくように、前記撮影部における撮影条件を設定する。   The adjustment unit sets shooting conditions in the shooting unit such that a feature amount based on a distribution of parallax amounts indicated by the detected parallax information approaches a feature amount based on a parallax distribution indicated by information set by the setting unit. To do.

上記発明によれば、例えば目標とする視差量の分布に関する情報を設定するだけで、その視差量の分布に近づくように撮影条件を自動的に制御することが可能になる。これにより、目的の立体感を表現する立体視用の映像を撮影することができる。   According to the above-described invention, for example, it is possible to automatically control the shooting conditions so as to approach the distribution of the parallax amount only by setting information regarding the distribution of the target parallax amount. As a result, it is possible to shoot a stereoscopic image that expresses the target stereoscopic effect.

本実施形態におけるデジタルカメラ1を示す模式図The schematic diagram which shows the digital camera 1 in this embodiment デジタルカメラ1における映像信号の撮影動作を説明するためのフローチャートFlowchart for explaining video signal shooting operation in digital camera 1 2D撮影モードにおける撮影動作を説明するためのフローチャートFlowchart for explaining photographing operation in 2D photographing mode 3D撮影モードにおける撮影動作を説明するためのフローチャートFlowchart for explaining photographing operation in 3D photographing mode CCDイメージセンサ150(a)および150(b)から取得された映像から撮影パラメータを決定する動作のフローチャートFlowchart of an operation for determining shooting parameters from images acquired from the CCD image sensors 150 (a) and 150 (b). S503で設定される撮影モードに対応した設定ヒストグラムの例を示す図The figure which shows the example of the setting histogram corresponding to the imaging | photography mode set by S503. 設定ヒストグラムと入力ヒストグラムの差から、直接撮影パラメータを求める動作を説明するための図A diagram for explaining the operation to obtain the shooting parameters directly from the difference between the setting histogram and the input histogram 他の実施形態における撮影パラメータの決定方法を説明するための図The figure for demonstrating the determination method of the imaging | photography parameter in other embodiment.

(実施形態)
以下、本発明をデジタルカメラに適用した場合の実施形態1について図面を参照しながら説明する。
(Embodiment)
Hereinafter, a first embodiment when the present invention is applied to a digital camera will be described with reference to the drawings.

<1−1.デジタルカメラの構成>
まずは、デジタルカメラの構成に関して説明する。
<1-1. Configuration of Digital Camera>
First, the configuration of the digital camera will be described.

図1は、本実施形態におけるデジタルカメラ1を示す模式図である。   FIG. 1 is a schematic diagram showing a digital camera 1 in the present embodiment.

本実施の形態にかかるデジタルカメラ1の電気的構成について、図1を用いて説明する。図1は、デジタルカメラ1の構成を示すブロック図である。デジタルカメラ1は、光学系110(a)及び、110(b)、ズームモータ120(a)及び、120(b)、OISアクチュエータ130(a)及び、130(b)、フォーカスモータ140(a)及び、140(b)、CCDイメージセンサ150(a)及び、150(b)、映像処理部160、メモリ200、コントローラ210、ジャイロセンサ220、カードスロット230、メモリカード240、操作部材250、ズームレバー260、液晶モニタ270、内部メモリ280、モード設定ボタン290を備える構成となる。   The electrical configuration of the digital camera 1 according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing the configuration of the digital camera 1. The digital camera 1 includes an optical system 110 (a) and 110 (b), a zoom motor 120 (a) and 120 (b), an OIS actuator 130 (a) and 130 (b), and a focus motor 140 (a). 140 (b), CCD image sensors 150 (a) and 150 (b), video processing unit 160, memory 200, controller 210, gyro sensor 220, card slot 230, memory card 240, operation member 250, zoom lever 260, a liquid crystal monitor 270, an internal memory 280, and a mode setting button 290.

光学系110(a)は、ズームレンズ111(a)、OIS112(a)、フォーカスレンズ113(a)を含む。また、光学系110(b)は、ズームレンズ111(b)、OIS112(b)、フォーカスレンズ113(b)を含む。なお、光学系110(a)は、第1視点における被写体像を形成する。また、光学系110(b)は、第1視点とは異なる第2視点における被写体像を形成する。   The optical system 110 (a) includes a zoom lens 111 (a), an OIS 112 (a), and a focus lens 113 (a). The optical system 110 (b) includes a zoom lens 111 (b), an OIS 112 (b), and a focus lens 113 (b). The optical system 110 (a) forms a subject image at the first viewpoint. Further, the optical system 110 (b) forms a subject image at a second viewpoint different from the first viewpoint.

ズームレンズ111(a)及び、111(b)は、光学系の光軸に沿って移動することにより、被写体像を拡大又は縮小可能である。ズームレンズ111(a)及び、111(b)は、ズームモータ120によって制御される。   The zoom lenses 111 (a) and 111 (b) can enlarge or reduce the subject image by moving along the optical axis of the optical system. The zoom lenses 111 (a) and 111 (b) are controlled by the zoom motor 120.

OIS112(a)及び、112(b)は、内部に光軸に垂直な面内で移動可能な補正レンズを有する。OIS112(a)及び、112(b)は、デジタルカメラ1のブレを相殺する方向に補正レンズを駆動することにより、被写体像のブレを低減する。補正レンズは、OIS112(a)及び、112(b)内において最大Lだけ中心から移動することが出来る。OIS112(a)及び、112(b)は、OISアクチュエータ130によって制御される。   The OIS 112 (a) and 112 (b) have a correction lens that can move in a plane perpendicular to the optical axis. The OISs 112 (a) and 112 (b) reduce the blur of the subject image by driving the correction lens in a direction that cancels the blur of the digital camera 1. The correction lens can move from the center by a maximum L in OIS 112 (a) and 112 (b). OIS 112 (a) and 112 (b) are controlled by an OIS actuator 130.

フォーカスレンズ113(a)及び、113(b)は、光学系の光軸に沿って移動することにより、被写体像のピントを調整する。フォーカスレンズ113(a)及び、113(b)は、フォーカスモータ140によって制御される。   The focus lenses 113 (a) and 113 (b) adjust the focus of the subject image by moving along the optical axis of the optical system. The focus lenses 113 (a) and 113 (b) are controlled by the focus motor 140.

ズームモータ120は、ズームレンズ111(a)及び、111(b)を駆動制御する。ズームモータ130は、パルスモータやDCモータ、リニアモータ、サーボモータなどで実現してもよい。ズームモータ130は、カム機構やボールネジなどの機構を介してズームレンズ111(a)及び、111(b)を駆動するようにしてもよい。また、ズームレンズ111(a)と、ズームレンズ111(b)と、を同じ動作で制御する構成にしても良い。   The zoom motor 120 drives and controls the zoom lenses 111 (a) and 111 (b). The zoom motor 130 may be realized by a pulse motor, a DC motor, a linear motor, a servo motor, or the like. The zoom motor 130 may drive the zoom lenses 111 (a) and 111 (b) via a mechanism such as a cam mechanism or a ball screw. Further, the zoom lens 111 (a) and the zoom lens 111 (b) may be controlled by the same operation.

OISアクチュエータ130は、OIS112(a)及び、112(b)内の補正レンズを光軸と垂直な面内で駆動制御する。OISアクチュエータ130は、平面コイルや超音波モータなどで実現できる。   The OIS actuator 130 drives and controls the correction lenses in the OIS 112 (a) and 112 (b) in a plane perpendicular to the optical axis. The OIS actuator 130 can be realized by a planar coil or an ultrasonic motor.

フォーカスモータ140は、フォーカスレンズ113(a)及び、113(b)を駆動制御する。フォーカスモータ140は、パルスモータやDCモータ、リニアモータ、サーボモータなどで実現してもよい。フォーカスモータ140は、カム機構やボールネジなどの機構を介してフォーカスレンズ113(a)及び、113(b)を駆動するようにしてもよい。   The focus motor 140 drives and controls the focus lenses 113 (a) and 113 (b). The focus motor 140 may be realized by a pulse motor, a DC motor, a linear motor, a servo motor, or the like. The focus motor 140 may drive the focus lenses 113 (a) and 113 (b) via a mechanism such as a cam mechanism or a ball screw.

CCDイメージセンサ150(a)及び、150(b)は、光学系110(a)及び、110(b)で形成された被写体像を撮影して、第1視点信号及び、第2視点信号を生成するイメージセンサセンサ150(a)及び、150(b)は、露光、転送、電子シャッタなどの各種動作を行う。ここで、第1視点信号および第2視点信号を合わせて立体視用の映像イメージセンサ処理部160は、CCDイメージセンサ150(a)及び、150(b)で生成された第1視点信号及び、第2視点信号に対して各種の処理を施す。映像処理部160は、第1視点信号及び、第2視点信号に対して処理を施し、液晶モニタ270に表示するための画像データ(以下、レビュー画像と称す)を生成したり、メモリカード240に再格納するための映像信号を生成したりする。例えば、映像処理部160は、第1視点信号及び、第2視点信号に対してガンマ補正やホワイトバランス補正、傷補正などの各種映像処理を行う。   The CCD image sensors 150 (a) and 150 (b) capture the subject image formed by the optical systems 110 (a) and 110 (b) and generate a first viewpoint signal and a second viewpoint signal. The image sensor sensors 150 (a) and 150 (b) that perform the various operations such as exposure, transfer, and electronic shutter. Here, the video image sensor processing unit 160 for stereoscopic viewing by combining the first viewpoint signal and the second viewpoint signal, the first viewpoint signal generated by the CCD image sensors 150 (a) and 150 (b), and Various processes are performed on the second viewpoint signal. The video processing unit 160 performs processing on the first viewpoint signal and the second viewpoint signal, generates image data (hereinafter referred to as a review image) to be displayed on the liquid crystal monitor 270, and stores it in the memory card 240. Or generating a video signal for re-storage. For example, the video processing unit 160 performs various video processes such as gamma correction, white balance correction, and flaw correction on the first viewpoint signal and the second viewpoint signal.

また映像処理部160は、第1視点信号及び、第2視点信号に対して、両画像の比較から画像の特定領域ごとの視差量を求め、各視差量の出現頻度による視差ヒストグラムを算出する。さらに予め設定された特定のヒストグラムパタンとの比較を行って、所定の立体感を得るための撮影パラメータを決定する。詳細な撮影パラメータ決定処理の動作に関しては後述する。   In addition, the video processing unit 160 obtains a parallax amount for each specific region of the image from the comparison of both images with respect to the first viewpoint signal and the second viewpoint signal, and calculates a parallax histogram based on the appearance frequency of each parallax amount. Further, a shooting parameter for obtaining a predetermined stereoscopic effect is determined by comparing with a predetermined histogram pattern. Detailed operation of the imaging parameter determination process will be described later.

ここで、映像処理部160における視差量の検出は例えば、4×4画素単位で行なう。なお、視差量を検出する単位は、8×8画素、16×16画素などどのような単位でも構わない。また、視差量は、両画像のずれを示す値であればどのようなものでも構わない。   Here, the detection of the amount of parallax in the video processing unit 160 is performed in units of 4 × 4 pixels, for example. The unit for detecting the amount of parallax may be any unit such as 8 × 8 pixels or 16 × 16 pixels. Further, the parallax amount may be any value as long as it is a value indicating a shift between both images.

さらに、映像処理部160は、上記処理された第1視点信号及び、第2視点信号に対して、それぞれJPEG規格に準拠した圧縮形式等により映像信号を圧縮する。第1視点信号及び、第2視点信号を圧縮して得られる圧縮映像信号は2つが関連付けられて、メモリカード240に記録される。なお、2つが記録される際、MPFファイルフォーマットを用いて記録されるのが望ましい。また、圧縮する映像信号が動画の場合、H.264/AVC等の動画圧縮規格が適用されることになる。また、MPFファイルフォーマットと、JPEG画像若しくは、MPEG動画と、を同時に記録する構成にしても構わない。   Further, the video processing unit 160 compresses the video signal with respect to the processed first viewpoint signal and second viewpoint signal by a compression format or the like based on the JPEG standard. Two compressed video signals obtained by compressing the first viewpoint signal and the second viewpoint signal are associated with each other and recorded in the memory card 240. In addition, when two are recorded, it is desirable to record using the MPF file format. When the video signal to be compressed is a moving image, H. A moving picture compression standard such as H.264 / AVC is applied. Also, the MPF file format and the JPEG image or MPEG moving image may be recorded simultaneously.

映像処理部160は、DSPやマイコンなどで実現可能である。なお、レビュー画像の解像度は、液晶モニタ270の画面解像度に設定しても構わないし、JPEG規格に準拠した圧縮形式等により圧縮され形成される画像データの解像度に設定しても構わない。   The video processing unit 160 can be realized by a DSP, a microcomputer, or the like. The resolution of the review image may be set to the screen resolution of the liquid crystal monitor 270, or may be set to the resolution of image data that is compressed and formed by a compression format or the like conforming to the JPEG standard.

メモリ200は、映像処理部160及びコントローラ210のワークメモリとして機能する。メモリ200は、例えば、映像処理部160で処理された映像信号若しくは、映像処理部160で処理される前のCCDイメージセンサ150から入力される画像データを一時的に蓄積する。また、メモリ200は、撮影時における光学系110(a)及び、110(b)、CCDイメージセンサ150(a)及び、150(b)の撮影条件を一時的に蓄積する。撮影条件とは、被写体距離、画角情報、ISO感度、シャッタースピード、EV値、F値、レンズ間距離、撮影時刻、OISシフト量等を示す。メモリ200は、例えば、DRAM、強誘電体メモリなどで実現できる。   The memory 200 functions as a work memory for the video processing unit 160 and the controller 210. For example, the memory 200 temporarily stores the video signal processed by the video processing unit 160 or the image data input from the CCD image sensor 150 before being processed by the video processing unit 160. In addition, the memory 200 temporarily stores shooting conditions of the optical systems 110 (a) and 110 (b) and the CCD image sensors 150 (a) and 150 (b) at the time of shooting. The shooting conditions indicate subject distance, field angle information, ISO sensitivity, shutter speed, EV value, F value, distance between lenses, shooting time, OIS shift amount, and the like. The memory 200 can be realized by, for example, a DRAM or a ferroelectric memory.

コントローラ210は、全体を制御する制御手段である。CCDイメージセンサ150(a)及び、150(b)の映像から求めた視差ヒストグラムにより決定された撮影パラメータに基づいた制御も行う。コントローラ210は、半導体素子などで実現可能である。コントローラ210は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。コントローラ210は、マイコンなどで実現できる。   The controller 210 is a control means for controlling the whole. Control based on the imaging parameters determined by the parallax histogram obtained from the images of the CCD image sensors 150 (a) and 150 (b) is also performed. The controller 210 can be realized by a semiconductor element or the like. The controller 210 may be configured only by hardware, or may be realized by combining hardware and software. The controller 210 can be realized by a microcomputer or the like.

ジャイロセンサ220は、圧電素子等の振動材等で構成される。ジャイロセンサ220は、圧電素子等の振動材を一定周波数で振動させコリオリ力による力を電圧に変換して角速度情報を得る。ジャイロセンサ220から角速度情報を得、この揺れを相殺する方向にOIS内の補正レンズを駆動させることにより、使用者によりデジタルカメラ100に与えられる手振れは補正される。なお、ジャイロセンサ220は、少なくともピッチ角の角速度情報を計測可能なデバイスであればよい。また、ジャイロセンサ220がロール角の角速度情報を計測可能な場合、デジタルカメラ1の略水平方向に移動した際の回転について考慮することが可能となる。   The gyro sensor 220 is composed of a vibration material such as a piezoelectric element. The gyro sensor 220 vibrates a vibration material such as a piezoelectric element at a constant frequency, converts a force generated by the Coriolis force into a voltage, and obtains angular velocity information. By obtaining angular velocity information from the gyro sensor 220 and driving the correction lens in the OIS in a direction that cancels the shaking, the camera shake given to the digital camera 100 by the user is corrected. The gyro sensor 220 may be any device that can measure at least the angular velocity information of the pitch angle. Further, when the gyro sensor 220 can measure the angular velocity information of the roll angle, it is possible to consider the rotation when the digital camera 1 moves in a substantially horizontal direction.

カードスロット230は、メモリカード240を着脱可能である。カードスロット230は、機械的及び電気的にメモリカード240と接続可能である。   The card slot 230 is detachable from the memory card 240. The card slot 230 can be mechanically and electrically connected to the memory card 240.

メモリカード240は、フラッシュメモリや強誘電体メモリなどを内部に含み、データを格納可能である。   The memory card 240 includes a flash memory, a ferroelectric memory, and the like, and can store data.

操作部材250は、レリーズボタンを備える。レリーズボタンは、使用者の押圧操作を受け付ける。レリーズボタンを半押しした場合、コントローラ210を介してAF制御及び、AE制御を開始する。また、レリーズボタンを全押しした場合、被写体の撮影を行う。   The operation member 250 includes a release button. The release button receives a user's pressing operation. When the release button is pressed halfway, AF control and AE control are started via the controller 210. When the release button is fully pressed, the subject is photographed.

ズームレバー260は、使用者からズーム倍率の変更指示を受け付ける部材である。   The zoom lever 260 is a member that receives a zoom magnification change instruction from the user.

液晶モニタ270は、CCDイメージセンサ150で生成した第1視点信号又は、第2視点信号や、メモリカード240から読み出した第1視点信号及び、第2視点信号を2D表示若しくは、3D表示可能な表示デバイスである。また、液晶モニタ270は、デジタルカメラ100の各種の設定情報を表示可能である。例えば、液晶モニタ270は、撮影時における撮影条件である、EV値、F値、シャッタースピード、ISO感度等を表示可能である。   The liquid crystal monitor 270 displays the first viewpoint signal or the second viewpoint signal generated by the CCD image sensor 150, the first viewpoint signal read from the memory card 240, and the second viewpoint signal in 2D display or 3D display. It is a device. The liquid crystal monitor 270 can display various setting information of the digital camera 100. For example, the liquid crystal monitor 270 can display EV values, F values, shutter speeds, ISO sensitivity, and the like, which are shooting conditions at the time of shooting.

液晶モニタ270は、2D表示される場合、第1視点信号と、第2視点信号と、を選択して表示しても構わないし、第1視点信号と、第2視点信号と、を画面分割して左右もしくは上下に表示しても構わないし、第1視点信号と、第2視点信号と、をライン毎に交互に表示しても構わない。   The LCD monitor 270 may select and display the first viewpoint signal and the second viewpoint signal when 2D display is performed, and the first viewpoint signal and the second viewpoint signal may be divided into screens. The first viewpoint signal and the second viewpoint signal may be alternately displayed for each line.

液晶モニタ270は、3D表示される場合、第1視点信号と、第2視点信号と、をフレームシーケンシャルに表示しても構わないし、第1視点信号と、第2視点信号とをオーバーレイして表示しても構わない。   When the 3D display is performed, the liquid crystal monitor 270 may display the first viewpoint signal and the second viewpoint signal in a frame sequential manner, or overlay the first viewpoint signal and the second viewpoint signal. It doesn't matter.

内部メモリ280は、フラッシュメモリや強誘電低メモリなどで構成される。内部メモリ280は、デジタルカメラ1全体を制御するための制御プログラム等を格納する。   The internal memory 280 is configured by a flash memory, a ferroelectric low memory, or the like. The internal memory 280 stores a control program for controlling the entire digital camera 1 and the like.

モード設定ボタン290は、デジタルカメラ1で撮影する際の撮影モードを設定するボタンである。「撮影モード」とは、ユーザが想定する撮影シーンを示すものであり、例えば、(1)人物モード、(2)マクロモード、(3)風景モードを含む撮影モードなどがある。また、撮影シーンごとに2D撮影モードと3D撮影モードが選択できるようになっていてもよい。デジタルカメラ1は、この撮影モードを基に、適切な撮影パラメータを設定して撮影を行う。なお、デジタルカメラ1が自動設定を行うカメラ自動設定モードを含めるようにしてもよい。また、モード設定ボタン290は、メモリカード240に記録される映像信号の再生モードを設定するボタンである。   The mode setting button 290 is a button for setting a shooting mode when shooting with the digital camera 1. The “shooting mode” indicates a shooting scene assumed by the user, and includes, for example, a shooting mode including (1) portrait mode, (2) macro mode, and (3) landscape mode. Further, the 2D shooting mode and the 3D shooting mode may be selected for each shooting scene. The digital camera 1 performs shooting by setting appropriate shooting parameters based on this shooting mode. In addition, you may make it include the camera automatic setting mode in which the digital camera 1 performs automatic setting. The mode setting button 290 is a button for setting a playback mode of a video signal recorded on the memory card 240.

<1−2.映像信号撮影動作>
以下、デジタルカメラ1における映像信号の撮影動作について説明を行う。
<1-2. Video signal shooting operation>
Hereinafter, a video signal photographing operation in the digital camera 1 will be described.

図2は、デジタルカメラ1における映像信号の撮影動作を説明するためのフローチャートである。   FIG. 2 is a flowchart for explaining a video signal photographing operation in the digital camera 1.

図3は、2D撮影モードにおける撮影動作を説明するためのフローチャートである。   FIG. 3 is a flowchart for explaining a shooting operation in the 2D shooting mode.

図4は、3D撮影モードにおける撮影動作を説明するためのフローチャートである。   FIG. 4 is a flowchart for explaining a shooting operation in the 3D shooting mode.

(S201)まず、モード設定ボタン290が使用者により撮影モードに操作されると、デジタルカメラ1は操作後の撮影モードを取得する。   (S201) First, when the mode setting button 290 is operated to the shooting mode by the user, the digital camera 1 acquires the shooting mode after the operation.

(S202)コントローラ210は、取得した撮影モードが2D撮影モードか、3D撮影モードかを判定する。取得した撮影モードが2D撮影モードである場合、S301に進む。一方、3D撮影モードである場合、S401に進む。   (S202) The controller 210 determines whether the acquired shooting mode is the 2D shooting mode or the 3D shooting mode. When the acquired shooting mode is the 2D shooting mode, the process proceeds to S301. On the other hand, in the 3D shooting mode, the process proceeds to S401.

(S301)コントローラ210は、レリーズボタンが全押しされるまで待機する。   (S301) The controller 210 waits until the release button is fully pressed.

(S302)レリーズボタンが全押しされると、CCDイメージセンサ150(a)及び、150(b)のうち少なくとも一方の撮像素子は、2D撮影モードから設定される撮影条件を基に撮影動作を行い、第1視点信号及び、第2視点信号のうち少なくとも一方の映像信号を生成する。   (S302) When the release button is fully pressed, at least one of the image sensors 150 (a) and 150 (b) performs a shooting operation based on the shooting conditions set in the 2D shooting mode. Then, at least one of the first viewpoint signal and the second viewpoint signal is generated.

(S303)映像信号が生成されると、映像処理部160は、生成された映像信号に対して、2D撮影モードに則した各種映像処理を行を行い、圧縮映像信号を生成する。   (S303) When the video signal is generated, the video processing unit 160 performs various video processes in accordance with the 2D shooting mode on the generated video signal to generate a compressed video signal.

(S304)圧縮映像信号が生成されると、コントローラ210は、圧縮映像信号をカードスロット230に接続されるメモリカード240に記録する。なお、第1視点信号の圧縮映像信号と、第2視点信号の圧縮映像信号と、が得られる場合、コントローラ210は、2つの圧縮映像信号を、例えばMPOファイルフォーマットも用いて、メモリカード240に関連付けて記録する。   (S304) When the compressed video signal is generated, the controller 210 records the compressed video signal in the memory card 240 connected to the card slot 230. When the compressed video signal of the first viewpoint signal and the compressed video signal of the second viewpoint signal are obtained, the controller 210 uses the two compressed video signals in the memory card 240 using, for example, the MPO file format. Record in association.

(S401)一方、3D撮影モードが選択された場合、コントローラ210は、レリーズボタンが半押しされるまで待機する。   (S401) On the other hand, when the 3D shooting mode is selected, the controller 210 waits until the release button is half-pressed.

(S402)レリーズボタンが半押しされると、CCDイメージセンサ150(a)及び、150(b)の撮像素子から取得された映像から、映像処理部160で視差分布形状を求める。これと選択された撮影モードに応じて設定される視差分布形状に基づいて、両者が略同一となるよう撮影パラメータが決定される。   (S402) When the release button is pressed halfway, the image processor 160 obtains the parallax distribution shape from the images acquired from the CCD image sensors 150 (a) and 150 (b). Based on this and the parallax distribution shape set according to the selected shooting mode, shooting parameters are determined so that they are substantially the same.

(S403)撮影パラメータが決定されると、コントローラ210は、レリーズボタンが全押しされるまで待機する。   (S403) When the shooting parameters are determined, the controller 210 waits until the release button is fully pressed.

(S404)レリーズボタンが全押しされると、CCDイメージセンサ150(a)及び、150(b)の撮像素子は、既に設定された撮影パラメータに従って撮影動作を行い、第1視点信号及び、第2視点信号を生成する。   (S404) When the release button is fully pressed, the image sensors of the CCD image sensors 150 (a) and 150 (b) perform a shooting operation according to the already set shooting parameters, and the first viewpoint signal and the second Generate a viewpoint signal.

(S405)第1視点信号と、第2視点信号とが生成されると、映像処理部160は、生成された2つ映像信号に対して、3D撮影モードに則した各種映像処理を行い、第1視点信号と第2視点信号との2つの圧縮映像信号を生成する。   (S405) When the first viewpoint signal and the second viewpoint signal are generated, the video processing unit 160 performs various video processes in accordance with the 3D shooting mode on the generated two video signals, Two compressed video signals of the 1 viewpoint signal and the 2nd viewpoint signal are generated.

(S406)2つ圧縮映像信号が生成されると、コントローラ210は、2つ圧縮映像信号をカードスロット230に接続されるメモリカード240に記録する。なお、2つの圧縮映像信号をメモリカード240に記録する際、例えばMPFファイルフォーマットも用いて2つの圧縮映像信号を関連付けて記録する。   (S 406) When two compressed video signals are generated, the controller 210 records the two compressed video signals in the memory card 240 connected to the card slot 230. When two compressed video signals are recorded on the memory card 240, the two compressed video signals are recorded in association with each other using, for example, an MPF file format.

<1−2−1.撮影パラメータの決定>
S402において、CCDイメージセンサ150(a)および150(b)から取得された映像から撮影パラメータを決定する動作の、フローチャートを図5に示す。
<1-2-1. Determination of shooting parameters>
FIG. 5 shows a flowchart of the operation for determining the shooting parameters from the video acquired from the CCD image sensors 150 (a) and 150 (b) in S402.

(S501)まずCCDイメージセンサ150(a)および150(b)から取得された映像の比較から、画像の微小領域ごとに視差を算出する。この微小領域とは、例えば8×8画素など複数の画素が含まれる領域を示す。なお微小領域は、1画素のみを含む領域であってもかまわない。   (S501) First, the parallax is calculated for each minute region of the image from the comparison of the images acquired from the CCD image sensors 150 (a) and 150 (b). This minute region indicates a region including a plurality of pixels such as 8 × 8 pixels. Note that the minute region may be a region including only one pixel.

(S502)視差量ごとにその出現頻度をカウントすることで、入力画像の視差ヒストグラムを求める。つまり、視差ヒストグラムとは横軸に視差量をとり、縦軸にこの視差量が算出された微小領域数となる。なお、視差ヒストグラムの縦軸を特定の視差量が算出される微小領域の出現確率としてもかまわない。   (S502) A parallax histogram of the input image is obtained by counting the appearance frequency for each parallax amount. That is, in the parallax histogram, the amount of parallax is taken on the horizontal axis, and the number of minute regions where the amount of parallax is calculated on the vertical axis. Note that the vertical axis of the parallax histogram may be the appearance probability of a minute region in which a specific amount of parallax is calculated.

(S503)撮影モードに対応して格納されている設定ヒストグラムのデータベースの中から、設定された撮影モードに対応する設定ヒストグラムを選択する。なお、設定ヒストグラムの説明は後述する。   (S503) A setting histogram corresponding to the set shooting mode is selected from a database of setting histograms stored corresponding to the shooting mode. The setting histogram will be described later.

(S504)入力ヒストグラムと設定ヒストグラムを比較して、その類似性に関する評価値を計算する。視差量dに対する頻度をH(d)としてヒストグラムを表わす場合、次式によって評価値Eが算出される。   (S504) The input histogram and the set histogram are compared, and an evaluation value related to the similarity is calculated. When the histogram is expressed with the frequency with respect to the parallax amount d being H (d), the evaluation value E is calculated by the following equation.

Figure 2012220603
Figure 2012220603

ただし、Hr(d)は設定ヒストグラム、Hi(d)は入力ヒストグラムを表わす。   However, Hr (d) represents a set histogram and Hi (d) represents an input histogram.

つまり、本実施形態においては入力ヒストグラムと設定ヒストグラムとのずれを評価値として算出することになる。例えば、Eの値が大きい場合、入力ヒストグラムと設定ヒストグラムとのずれが大きいことになる。逆に、Eの値が小さい場合は入力ヒストグラムと設定ヒストグラムとのずれが小さいことになる。   That is, in this embodiment, the deviation between the input histogram and the set histogram is calculated as the evaluation value. For example, when the value of E is large, the deviation between the input histogram and the set histogram is large. Conversely, when the value of E is small, the deviation between the input histogram and the set histogram is small.

ここで、w(d)は撮影シーンに対応して設定される、視差に対する重み関数を表わす。例えばw(d)は、撮影シーンとして風景を撮影する場合、表示画面より奥行き側に視差が集中することが望ましい。このため、飛出し側の視差の|Hr(d)−Hi(d)|に基づく差を重く扱い、逆に奥行き側の視差の|Hr(d)−Hi(d)|に基づく差を軽く扱うことのできる重み関数を設定する。このような重み関数として、例えば、次式で示す形式が考えられる。   Here, w (d) represents a weighting function for parallax, which is set corresponding to the shooting scene. For example, it is desirable for w (d) to concentrate parallax closer to the depth side than the display screen when shooting a landscape as a shooting scene. For this reason, the difference based on | Hr (d) −Hi (d) | of the parallax on the fly-out side is handled heavily, and conversely, the difference based on | Hr (d) −Hi (d) | Set the weight function that can be handled. As such a weight function, for example, a form represented by the following equation can be considered.

Figure 2012220603
Figure 2012220603

ただし上式でd<0は画面奥側の視差量を示す。一方、d>0は画面飛出し側の視差量を示す。   However, in the above equation, d <0 indicates the amount of parallax on the back side of the screen. On the other hand, d> 0 indicates the amount of parallax on the screen projection side.

ただし、w(d)は評価値算出の必須項目ではない。すなわち、w(d)のない評価値であってもよく、これはw(d)=定数であることと同値である。また、w(d)は上記の数式に限定されるものではなく、引っ込み側の視差量を重視する形式でも構わない。また、視差量が0近辺を重視する形式でも構わない。   However, w (d) is not an essential item for calculating the evaluation value. That is, it may be an evaluation value without w (d), which is equivalent to w (d) = constant. In addition, w (d) is not limited to the above mathematical formula, and may be a format in which the parallax amount on the retracting side is emphasized. Further, a format in which the parallax amount places importance on the vicinity of 0 may be used.

また、上記評価値定義において、3D視聴の見易さや安全性は明示されていない。しかし、設定ヒストグラムや重み関数がこれらを考慮した形式であってもよい。たとえば、非特許文献1によれば、快適な3D視聴のための視差角の範囲は1°以内とされているので、±0.5°の範囲を超える視差には大きなペナルティがかかるような、重み関数w(d)を設定することも有効である。   Also, in the above evaluation value definition, the visibility and safety of 3D viewing are not clearly shown. However, the setting histogram and the weighting function may take a form in consideration of these. For example, according to Non-Patent Document 1, the range of the parallax angle for comfortable 3D viewing is set to be within 1 °. Therefore, a weighting function that takes a large penalty for parallax exceeding the range of ± 0.5 °. It is also effective to set w (d).

(S505)計算された評価値Eが、予め設定された閾値より小さい値である場合、処理を終了する。そして、現在の撮影パラメータを新たな撮影パラメータとして決定する。一方、計算された評価値Eが、予め設定された閾値より大きな値である場合、撮影パラメータを修正して再検証するため処理を続行する。   (S505) If the calculated evaluation value E is smaller than a preset threshold value, the process is terminated. Then, the current shooting parameter is determined as a new shooting parameter. On the other hand, when the calculated evaluation value E is larger than a preset threshold value, the processing is continued to correct the imaging parameter and re-verify it.

(S506)計算された評価値Eが、予め設定された閾値より大きな値である場合、修正すべき撮影パラメータと修正量を、2つのヒストグラムの比較に基づいて決定する。たとえば入力ヒストグラムの視差量の分布を広くまたは狭く調整する場合、第1の光学系と第2の光学系の光軸の間隔であるステレオベースを変更する。   (S506) If the calculated evaluation value E is larger than a preset threshold value, the imaging parameter to be corrected and the correction amount are determined based on the comparison of the two histograms. For example, when the parallax amount distribution of the input histogram is adjusted to be wide or narrow, the stereo base that is the distance between the optical axes of the first optical system and the second optical system is changed.

一方、入力ヒストグラムの形状を維持したままこの入力ヒストグラムを平行移動する場合、第1の光学系と第2の光学系の光軸によって為す輻輳角を調整する。なお、輻輳角の調整機構がないカメラにおいては、OISによって擬似的に輻輳角を調整してもかまわない。また、撮影して得られる映像信号をトリミング処理して擬似的に輻輳角を調整してもかまわない。   On the other hand, when the input histogram is translated while maintaining the shape of the input histogram, the convergence angle formed by the optical axes of the first optical system and the second optical system is adjusted. In a camera that does not have a convergence angle adjustment mechanism, the convergence angle may be artificially adjusted by OIS. Further, the convergence angle may be adjusted in a pseudo manner by trimming the video signal obtained by photographing.

(S507)撮影パラメータを修正した場合、入力ヒストグラムを基に修正した撮影パラメータで撮影して得られるであろう視差ヒストグラムを推定する。   (S507) When the shooting parameters are corrected, a parallax histogram that will be obtained by shooting with the corrected shooting parameters based on the input histogram is estimated.

この視差ヒストグラムの推定は、例えば、ヒストグラム横軸の各視差量dとカメラと被写体間の距離Fを相互変換することで、次式によって推定が可能である。   This parallax histogram can be estimated by, for example, the following equation by mutually converting the parallax amount d on the horizontal axis of the histogram and the distance F between the camera and the subject.

Figure 2012220603
Figure 2012220603

ただし、dは視差量、sbはステレオベース、θは輻輳角、fはレンズの焦点距離、ssは撮像面の大きさを示す。また、T()は視差量dからカメラと被写体の距離Fを算出する関数、invT()はカメラと被写体の距離Fから視差量dを算出する関数である。この方法によれば、sb、θ、f、ssの撮影パラメータの下で撮影した映像で、dの視差量を有する被写体の距離Fが、まず算出される。次に異なる撮影パラメータに変更した時の各被写体の視差量d’を、invT()を使って被写体距離Fに対して求める。この結果、入力ヒストグラムから異なる撮影パラメータで撮影した時に得られるであろうヒストグラムを推定することができる。   Here, d is the amount of parallax, sb is the stereo base, θ is the convergence angle, f is the focal length of the lens, and ss is the size of the imaging surface. T () is a function for calculating the distance F between the camera and the subject from the parallax amount d, and invT () is a function for calculating the parallax amount d from the distance F between the camera and the subject. According to this method, first, a distance F of a subject having a parallax amount of d in an image shot under shooting parameters of sb, θ, f, and ss is calculated. Next, the parallax amount d ′ of each subject when changing to a different shooting parameter is obtained with respect to the subject distance F using invT (). As a result, it is possible to estimate a histogram that would be obtained when shooting with different shooting parameters from the input histogram.

なお、入力ヒストグラムを推定する方法は上記の数式に限定されるものではなく、他の方法を用いても構わない。   Note that the method of estimating the input histogram is not limited to the above mathematical formula, and other methods may be used.

推定された視差ヒストグラムを入力ヒストグラムに置き換えてS504に戻る。   The estimated parallax histogram is replaced with the input histogram, and the process returns to S504.

以上の繰り返し処理を行うことで、設定ヒストグラムに類似したヒストグラムが得られる撮影条件が決定される。   By performing the above iterative process, the photographing conditions for obtaining a histogram similar to the set histogram are determined.

なお、ここでは2つの光学系のステレオベースsbと輻輳角θを撮影パラメータとして変更する方法を示したが、ステレオベースを変更することができない系では、2つの光学系の焦点距離fを変更することでも同様の効果を得ることができ、有効である。   Here, the method of changing the stereo base sb and the convergence angle θ of the two optical systems as imaging parameters is shown, but in the system where the stereo base cannot be changed, the focal length f of the two optical systems is changed. This is effective because the same effect can be obtained.

次に設定ヒストグラムについて図面を参照しながら説明する。   Next, the setting histogram will be described with reference to the drawings.

図6は、S503で設定される撮影モードに対応した設定ヒストグラムの例を示す。   FIG. 6 shows an example of a setting histogram corresponding to the shooting mode set in S503.

ヒストグラム601は、表示面に対して奥行き側に視差が重点的に分布するような設定となる。つまり、ヒストグラム601は、奥行き間が強調された分布と言える。これは風景画像などに適した立体感でランドスケープモードに対応する。   The histogram 601 is set so that parallax is preferentially distributed on the depth side with respect to the display surface. That is, the histogram 601 can be said to be a distribution in which the depth is emphasized. This corresponds to the landscape mode with a stereoscopic effect suitable for landscape images and the like.

ヒストグラム602は、画面上に視差が集中する設定となる。つまり、ヒストグラム602は、主要な被写体を表示面上に配置し、見やすく立体感よく表示する分布となる。これは人物画像などのポートレートモードに対応する。   The histogram 602 is set so that parallax is concentrated on the screen. In other words, the histogram 602 has a distribution in which main subjects are arranged on the display surface and are displayed with good stereoscopic effect. This corresponds to a portrait mode such as a portrait image.

さらにヒストグラム603は、画面より飛び出す視差を重点的にする設定となる。これは、マクロ撮影での被写体の立体感を楽しむための、マクロモードに対応する。   Further, the histogram 603 is set so that parallax popping out from the screen is emphasized. This corresponds to the macro mode for enjoying the stereoscopic effect of the subject in macro photography.

<1−2−2.撮影パラメータ決定の変形例>
1−2−1および図5に示した撮影パラメータの決定方法は、設定ヒストグラムと入力ヒストグラムが所定の評価値が最も小さくなる撮影パラメータを繰り返し探索するものであった。これに限らず、設定ヒストグラムと入力ヒストグラムの差から、直接撮影パラメータを求めることも可能である。このような例を、図7に示す。
<1-2-2. Modification of shooting parameter determination>
The method for determining the shooting parameter shown in 1-2-1 and FIG. 5 is to repeatedly search for a shooting parameter in which the set evaluation value and the input histogram have the smallest predetermined evaluation value. However, the present invention is not limited to this, and it is also possible to obtain the shooting parameters directly from the difference between the setting histogram and the input histogram. Such an example is shown in FIG.

以下、図5と全く同じ動作をするステップは同じ記号を付与し説明を省略する。   In the following, steps that perform exactly the same operations as in FIG.

まず、S501からS503を実施する。   First, S501 to S503 are performed.

(S704)次に、入力ヒストグラムと設定ヒストグラムの差を示す評価値として、ヒストグラム中の視差最大値、最小値、平均値のみを評価するものとする。すなわち、次式を用いて評価値を算出する。   (S704) Next, only the parallax maximum value, minimum value, and average value in the histogram are evaluated as evaluation values indicating the difference between the input histogram and the set histogram. That is, the evaluation value is calculated using the following formula.

Figure 2012220603
Figure 2012220603

ただしdrおよびdiは、設定ヒストグラムおよび入力ヒストグラムで0でない頻度を有する視差区間を示す。また、max()およびmin()は引数の集合の最大値、最小値を示すものとする。このような評価値を用いる場合、評価値0とするための撮影パラメータが、以下のような方法で直接計算で求めることが可能となる。   Here, dr and di indicate parallax intervals having a non-zero frequency in the setting histogram and the input histogram. Further, max () and min () indicate the maximum value and the minimum value of the argument set. When such an evaluation value is used, it is possible to obtain a shooting parameter for setting the evaluation value to 0 by direct calculation using the following method.

(S705)最小の評価値を得る撮影パラメータを決定するため、入力ヒストグラムの最大視差max(di)および最小視差min(di)を有する被写体が、それぞれカメラからどれだけ離れた被写体に相当するか、前述の(数式3)によって求めることができる。これを、仮にmax(di)に対応する距離を Fmax、min(di)に対応する距離を Fminとする。距離から視差を求める前述の式invT()を用いれば、設定ヒストグラムの最大視差max(dr)および最小視差min(dr)から次のような関係が成り立つ。   (S705) In order to determine the shooting parameter for obtaining the minimum evaluation value, how far away the subject having the maximum parallax max (di) and the minimum parallax min (di) of the input histogram corresponds to the subject, It can be obtained by the above (Formula 3). Assuming that the distance corresponding to max (di) is Fmax, the distance corresponding to min (di) is Fmin. If the above-described equation invT () for obtaining the parallax from the distance is used, the following relationship is established from the maximum parallax max (dr) and the minimum parallax min (dr) of the setting histogram.

Figure 2012220603
Figure 2012220603

このsb’および θ’を未知数と考えるとこの2式は連立方程式となるので、これを解くことにより撮影パラメータsb’およびθ’が直接求まる。よって、1−2−1に述べたように繰り返し演算により撮影パラメータを探索することなしに、撮影パラメータを決定することも可能である。   Considering these sb 'and θ' as unknowns, these two equations become simultaneous equations, and by solving this, the imaging parameters sb 'and θ' can be directly obtained. Therefore, as described in 1-2-1, it is also possible to determine the shooting parameter without searching for the shooting parameter by repeated calculation.

<1−3.まとめ>
本実施形態におけるデジタルカメラ1は、立体視用の映像を撮影するデジタルカメラ1であって、被写体を撮影し、前記立体視用の映像を生成する光学系110(a)、CCDイメージセンサ150(a)、光学系110(b)およびCCDイメージセンサ150(b)と、前記立体視用の映像が有する視差量を示す視差情報を検出する映像処理部160と、前記光学系110(a)、CCDイメージセンサ150(a)、光学系110(b)およびCCDイメージセンサ150(b)における撮影条件を調整する機能と、所定の視差量の分布を示す視差分布情報を設定する機能を有する映像処理部160と、を備え、前記映像処理部160は、前記検出した視差情報が示す視差量の分布が、前記映像処理部160が設定した視差分布情報が示す視差量の分布に近づくように前記光学系110(a)、CCDイメージセンサ150(a)、光学系110(b)およびCCDイメージセンサ150(b)における撮影条件を設定する。
<1-3. Summary>
The digital camera 1 according to the present embodiment is a digital camera 1 that captures a stereoscopic video, an optical system 110 (a) that captures a subject and generates the stereoscopic video, and a CCD image sensor 150 ( a), an optical system 110 (b), a CCD image sensor 150 (b), a video processing unit 160 for detecting parallax information indicating a parallax amount of the stereoscopic video, the optical system 110 (a), Video processing having a function of adjusting shooting conditions in the CCD image sensor 150 (a), the optical system 110 (b), and the CCD image sensor 150 (b) and a function of setting parallax distribution information indicating a distribution of a predetermined amount of parallax. Unit 160, and the video processing unit 160 indicates that the distribution of the parallax amount indicated by the detected parallax information is the parallax distribution information set by the video processing unit 160. The optical system 110 so as to approach the distribution of the to parallax amount (a), the CCD image sensor 150 (a), sets the imaging conditions in the optical system 110 (b) and the CCD image sensor 150 (b).

このようにすれば、デジタルカメラ1は撮影する立体視用の映像における視差量の分布を、設定した視差量の分布に近づけるように撮影することができる。これにより、例えば意図する視差量の分布を設定するだけで、撮影パラメータを自動的に制御することが可能となる効果を奏する。   In this way, the digital camera 1 can shoot so that the distribution of the parallax amount in the stereoscopic video to be shot is close to the set distribution of the parallax amount. Thereby, for example, it is possible to automatically control the shooting parameters only by setting the distribution of the intended amount of parallax.

また好ましくは、前記光学系110(a)、CCDイメージセンサ150(a)、光学系110(b)およびCCDイメージセンサー150(b)は、第1の視点から前記被写体を撮影する第1光学系および第2の視点から前記被写体を撮影する第2光学系を有し、前記映像処理部160は、前記検出した視差情報が示す視差量の分布の広がりを、前記映像処理部160が設定した視差分布情報が示す視差量の分布に近づける場合、前記第1光学系および前記第2光学系の光軸間距離を調整する。   Preferably, the optical system 110 (a), the CCD image sensor 150 (a), the optical system 110 (b), and the CCD image sensor 150 (b) are a first optical system that captures the subject from a first viewpoint. And a second optical system that captures the subject from a second viewpoint, and the video processing unit 160 sets a parallax amount distribution spread indicated by the detected parallax information by the video processing unit 160. When approaching the distribution of the parallax amount indicated by the distribution information, the distance between the optical axes of the first optical system and the second optical system is adjusted.

このようにすれば、光軸間距離を調整することで、設定した視差分情報が示す視差量の分布の広がりに近づけることが可能となる。   In this way, by adjusting the distance between the optical axes, it becomes possible to approximate the spread of the distribution of the parallax amount indicated by the set parallax information.

また好ましくは、前記光学系110(a)、CCDイメージセンサ150(a)、光学系110(b)およびCCDイメージセンサー150(b)は、前記第1の視点から前記被写体を撮影する第1の光学系と、前記第2の視点から前記被写体を撮影する第2の光学系を有し、前記映像処理部160は、前記検出した視差情報が示す視差量の分布の広がりを維持したまま、前記映像処理部160が設定した視差分布情報が示す視差量の分布に近づける場合、前記第1光学系の光軸および前記第2光学系の光軸によって形成される輻輳角を調整する。   Preferably, the optical system 110 (a), the CCD image sensor 150 (a), the optical system 110 (b), and the CCD image sensor 150 (b) are configured to take a first image of the subject from the first viewpoint. An optical system and a second optical system that captures the subject from the second viewpoint, and the video processing unit 160 maintains the spread of the distribution of the parallax amount indicated by the detected parallax information, When approaching the distribution of the parallax amount indicated by the parallax distribution information set by the video processing unit 160, the convergence angle formed by the optical axis of the first optical system and the optical axis of the second optical system is adjusted.

このようにすれば、輻輳角を調整することで、検出した視差情報が示す視差量の分布の広がりを維持したまま、前記映像処理部160が設定した視差分布情報が示す視差量の分布に近づけることができる。   In this way, by adjusting the convergence angle, the distribution of the amount of parallax indicated by the detected parallax information is maintained and the distribution of the amount of parallax indicated by the parallax distribution information set by the video processing unit 160 is maintained. be able to.

また好ましくは、前記光学系110(a)、CCDイメージセンサ150(a)、光学系110(b)およびCCDイメージセンサ150(b)は、前記第1の視点から前記被写体を撮影する第1の光学系と、前記第2の視点から前記被写体を撮影する第2の光学系を有し、前記映像処理部160は、前記検出した視差情報が示す視差量の分布形状を維持したまま前記視差分布情報が示す視差量の分布に近づける場合、前記第1光学系が有するレンズ群と前記第2光学系が有するレンズ群をシフトさせる。   Preferably, the optical system 110 (a), the CCD image sensor 150 (a), the optical system 110 (b), and the CCD image sensor 150 (b) are configured to take a first image of the subject from the first viewpoint. An optical system and a second optical system that captures the subject from the second viewpoint, and the video processing unit 160 maintains the disparity amount distribution shape indicated by the detected disparity information while maintaining the disparity distribution When approaching the distribution of the parallax amount indicated by the information, the lens group included in the first optical system and the lens group included in the second optical system are shifted.

このようにすれば、レンズ群をシフトさせることで検出した視差情報が示す視差量の分布の広がりを維持したまま、前記映像処理部160が設定した視差分布情報が示す視差量の分布に近づけることができる。   In this way, the distribution of the amount of parallax indicated by the parallax information detected by shifting the lens group is maintained, and the distribution of the amount of parallax indicated by the parallax distribution information set by the video processing unit 160 is approached. Can do.

また好ましくは、前記映像処理部160は、前記検出した視差情報が示す視差量の分布のうち一部が、前記映像処理部160が設定した視差分布情報が示す視差量の分布に近づくように前記光学系110(a)、CCDイメージセンサ150(a)、光学系110(b)およびCCDイメージセンサ150(b)における撮影条件を設定する。   Also preferably, the video processing unit 160 is configured so that a part of the distribution of the parallax amount indicated by the detected parallax information approaches the distribution of the parallax amount indicated by the parallax distribution information set by the video processing unit 160. Shooting conditions in the optical system 110 (a), the CCD image sensor 150 (a), the optical system 110 (b), and the CCD image sensor 150 (b) are set.

このようにすれば、例えば飛出し部分の視差量の分布を前記映像処理部160が設定した視差分布情報が示す視差量の分布に近づけたりすることが可能となる。   In this way, for example, the distribution of the amount of parallax at the protruding portion can be brought close to the distribution of the amount of parallax indicated by the parallax distribution information set by the video processing unit 160.

また好ましくは、前記映像処理部160は、前記撮影条件を変更した後、変更後の撮影条件で撮影した場合に得られる視差量の分布を推定し、推定した視差量の分布が、前記設定した視差分布情報が示す視差量の分布に近づくように前記光学系110(a)、CCDイメージセンサ150(a)、光学系110(b)およびCCDイメージセンサ150(b)における撮影条件を再設定する。   Preferably, the video processing unit 160 estimates the distribution of the amount of parallax obtained when shooting is performed under the changed shooting condition after changing the shooting condition, and the estimated distribution of the amount of parallax is set as the setting. The photographing conditions in the optical system 110 (a), the CCD image sensor 150 (a), the optical system 110 (b), and the CCD image sensor 150 (b) are reset so as to approach the distribution of the parallax amount indicated by the parallax distribution information. .

このようにすれば、例えば変更後の撮影条件で撮影される立体視用の映像から視差量を再検出せずとも、変更後の撮影条件による視差量の分布を推定することができる。これにより、繰り替えし撮影条件を変更することができるため好適な撮影条件を見つけ易くなる。   In this way, for example, the distribution of the parallax amount according to the changed shooting condition can be estimated without re-detecting the parallax amount from the stereoscopic video shot under the changed shooting condition. This makes it easy to find suitable shooting conditions because the shooting conditions can be changed repeatedly.

また好ましくは、前記デジタルカメラ1はさらに、撮影モードを設定するモード設定ボタン290を備え、前記映像処理部160は、前記モード設定ボタン290が設定する撮影モードに基づいて、視差分布情報を設定する。   Preferably, the digital camera 1 further includes a mode setting button 290 for setting a shooting mode, and the video processing unit 160 sets parallax distribution information based on a shooting mode set by the mode setting button 290. .

このようにすれば、撮影モードに適した視差分布情報を設定することが出来る。   In this way, parallax distribution information suitable for the shooting mode can be set.

また好ましくは、前記映像処理部160は、前記モード設定ボタン290が風景を撮影するモードを設定している場合、前記立体視用の映像が有する視差量のうち引っ込みに関する視差量が前記立体視用の映像が有する視差量のうち飛び出しに関する視差量よりも多い視差量の分布を視差分布情報として設定する。   In addition, preferably, when the mode setting button 290 sets a mode for shooting a landscape, the video processing unit 160 has a parallax amount related to retraction among the parallax amounts of the stereoscopic video. A disparity amount distribution that is larger than the disparity amount related to popping out of the disparity amounts of the video is set as the disparity distribution information.

また好ましくは、前記映像処理部160は、前記モード設定ボタン290がマクロを撮影するモードを設定している場合、前記立体視用の映像が有する視差量のうち飛び出しに関する視差量が前記立体視用の映像が有する視差量のうち引っ込みに関する視差量よりも多い視差量の分布を視差分布情報として設定する。   Also preferably, when the mode setting button 290 is set to a mode for taking a macro, the video processing unit 160 has a parallax amount related to popping out of the parallax amount of the stereoscopic video image. A disparity amount distribution that is larger than the disparity amount related to retraction among the disparity amounts included in the video is set as the disparity distribution information.

また好ましくは、前記映像処理部160は、前記モード設定ボタン290が人物を撮影するモードを設定している場合、前記立体視用の映像が有する視差量のうち略ゼロの視差量が、前記立体視用の映像が有する視差量のうち飛び出しまたは引っ込みに関する視差量よりも多い視差量の分布を視差分布情報として設定する。   In addition, preferably, when the mode setting button 290 sets a mode for photographing a person, the video processing unit 160 has a parallax amount of substantially zero among the parallax amounts of the stereoscopic video image. A disparity amount distribution that is larger than the disparity amount related to popping out or retracting is set as disparity distribution information.

また好ましくは、前記映像処理部160は、前記検出した視差情報が示す視差量の分布に基づく特徴量が、設定した情報が示す視差分布に基づく特徴量に近づくように、前記光学系110(a)、CCDイメージセンサ150(a)、光学系110(b)およびCCDイメージセンサ150(b)における撮影条件を設定する。   Also preferably, the video processing unit 160 is configured so that the feature quantity based on the distribution of the parallax amount indicated by the detected parallax information approaches the feature quantity based on the parallax distribution indicated by the set information. ), Imaging conditions in the CCD image sensor 150 (a), the optical system 110 (b), and the CCD image sensor 150 (b) are set.

<2.その他の実施形態>
なお、1−2−1における撮影パラメータの決定は、図8に示す方法を用いても構わない。
<2. Other Embodiments>
Note that the method shown in FIG. 8 may be used to determine the shooting parameters in 1-2-1.

図8に示す撮影パラメータの決定方法の場合、入力ヒストグラムを推定する機構がない。その代わり、S506の処理が終了した後、再度、視差量を検出する動作となる。   In the case of the imaging parameter determination method shown in FIG. 8, there is no mechanism for estimating the input histogram. Instead, after the process of S506 is completed, the operation of detecting the parallax amount is performed again.

また、上記実施形態で説明したデジタルカメラにおいて、各ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されても良い。   In the digital camera described in the above embodiment, each block may be individually made into one chip by a semiconductor device such as an LSI, or may be made into one chip so as to include a part or the whole.

なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。   Here, although LSI is used, it may be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.

また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。   Further, the method of circuit integration is not limited to LSI, and implementation with a dedicated circuit or a general-purpose processor is also possible. An FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.

さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてあり得る。   Further, if integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to carry out function block integration using this technology. Biotechnology can be applied as a possibility.

また、上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェアにより実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。なお、上記実施形態に係るデジタルカメラをハードウェアにより実現する場合、各処理を行うためのタイミング調整を行う必要があるのは言うまでもない。上記実施形態においては、説明便宜のため、実際のハードウェア設計で生じる各種信号のタイミング調整の詳細については省略している。   Moreover, each process of the said embodiment may be implement | achieved by hardware, and may be implement | achieved by software. Further, it may be realized by mixed processing of software and hardware. Needless to say, when the digital camera according to the above-described embodiment is realized by hardware, it is necessary to adjust timing for performing each process. In the above embodiment, for convenience of explanation, details of timing adjustment of various signals generated in actual hardware design are omitted.

また、上記実施形態における処理方法の実行順序は、必ずしも、上記実施形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。   Moreover, the execution order of the processing method in the said embodiment is not necessarily restricted to description of the said embodiment, The execution order can be changed in the range which does not deviate from the summary of invention.

なお、本発明の具体的な構成は、前述の実施形態に限られるものではなく、発明の要旨を逸脱しない範囲で種々の変更および修正が可能である。   The specific configuration of the present invention is not limited to the above-described embodiment, and various changes and modifications can be made without departing from the scope of the invention.

本発明にかかる3D映像信号処理装置、デジタル撮影装置及び、3D映像処理方法によれば、視聴した際により自然な立体感を感じる映像信号を生成することが可能となるため、3D映像を撮影するデジタルカメラ、放送用カメラ及び、3D映像の記録再生を行うレコーダー若しくは、プレーヤーに応用することが可能である。   According to the 3D video signal processing device, the digital imaging device, and the 3D video processing method according to the present invention, it is possible to generate a video signal that feels a natural three-dimensional feeling when viewed, so that 3D video is captured. The present invention can be applied to a digital camera, a broadcast camera, and a recorder or player that records and reproduces 3D video.

110(a)、110(b) 光学系
120(a)、120(b) ズームモータ
130(a)、130(b) OISアクチュエータ
140(a)、140(b) フォーカスモータ
150(a)、150(b) CCDイメージセンサ
160 映像処理部
200 メモリ
210 コントローラ
220 ジャイロセンサ
230 カードスロット
240 メモリカード
250 操作部材
260 ズームレバー
270 液晶モニタ
280 内部メモリ
290 モード設定ボタン
601、602、603 ヒストグラム
110 (a), 110 (b) Optical system 120 (a), 120 (b) Zoom motor 130 (a), 130 (b) OIS actuator 140 (a), 140 (b) Focus motor 150 (a), 150 (B) CCD image sensor 160 Video processing unit 200 Memory 210 Controller 220 Gyro sensor 230 Card slot 240 Memory card 250 Operation member 260 Zoom lever 270 Liquid crystal monitor 280 Internal memory 290 Mode setting buttons 601 602 603 Histogram

Claims (11)

立体視用の映像を撮影する3次元カメラであって、
被写体を撮影し、前記立体視用の映像を生成する撮影部と、
前記立体視用の映像が有する視差量を示す視差情報を検出する検出部と、
前記撮影部における撮影条件を調整する調整部と、
所定の視差量の分布を示す視差分布情報を設定する設定部と、を備え、
前記調整部は、前記検出した視差情報が示す視差量の分布が、前記設定部が設定した視差分布情報が示す視差量の分布に近づくように前記撮影部における撮影条件を設定する3次元カメラ。
A three-dimensional camera that shoots a stereoscopic image,
A photographing unit for photographing a subject and generating the stereoscopic image;
A detection unit for detecting parallax information indicating a parallax amount of the stereoscopic video;
An adjustment unit for adjusting shooting conditions in the shooting unit;
A setting unit that sets parallax distribution information indicating a distribution of a predetermined amount of parallax,
The adjustment unit is a three-dimensional camera that sets shooting conditions in the shooting unit such that the distribution of the parallax amount indicated by the detected parallax information approaches the distribution of the parallax amount indicated by the parallax distribution information set by the setting unit.
前記撮影部は、第1の視点から前記被写体を撮影する第1光学系および第2の視点から前記被写体を撮影する第2光学系を有し、
前記調整部は、前記検出した視差情報が示す視差量の分布の広がりを、前記設定部が設定した視差分布情報が示す視差量の分布に近づける場合、前記第1光学系および前記第2光学系の光軸間距離を調整する請求項1に記載の3次元カメラ。
The photographing unit includes a first optical system for photographing the subject from a first viewpoint and a second optical system for photographing the subject from a second viewpoint,
When the adjustment unit brings the spread of the distribution of the parallax amount indicated by the detected parallax information closer to the distribution of the parallax amount indicated by the parallax distribution information set by the setting unit, the first optical system and the second optical system The three-dimensional camera according to claim 1, wherein the distance between the optical axes is adjusted.
前記撮影部は、前記第1の視点から前記被写体を撮影する第1の光学系と、前記第2の視点から前記被写体を撮影する第2の光学系を有し、
前記調整部は、前記検出した視差情報が示す視差量の分布の広がりを維持したまま、前記設定部が設定した視差分布情報が示す視差量の分布に近づける場合、前記第1光学系の光軸および前記第2光学系の光軸によって形成される輻輳角を調整する請求項1に記載の3次元カメラ。
The photographing unit includes a first optical system that photographs the subject from the first viewpoint, and a second optical system that photographs the subject from the second viewpoint,
When the adjustment unit approaches the distribution of the parallax amount indicated by the parallax distribution information set by the setting unit while maintaining the spread of the distribution of the parallax amount indicated by the detected parallax information, the optical axis of the first optical system The three-dimensional camera according to claim 1, wherein a convergence angle formed by the optical axis of the second optical system is adjusted.
前記撮影部は、前記第1の視点から前記被写体を撮影する第1の光学系と、前記第2の視点から前記被写体を撮影する第2の光学系を有し、
前記調整部は、前記検出した視差情報が示す視差量の分布形状を維持したまま前記視差分布情報が示す視差量の分布に近づける場合、前記第1光学系が有するレンズ群と前記第2光学系が有するレンズ群をシフトさせる請求項1に記載の3次元カメラ。
The photographing unit includes a first optical system that photographs the subject from the first viewpoint, and a second optical system that photographs the subject from the second viewpoint,
When the adjustment unit approaches the distribution of the parallax amount indicated by the parallax distribution information while maintaining the distribution shape of the parallax amount indicated by the detected parallax information, the lens group included in the first optical system and the second optical system The three-dimensional camera according to claim 1, wherein a lens group included in the lens is shifted.
前記調整部は、前記検出した視差情報が示す視差量の分布のうち一部が、前記設定部が設定した視差分布情報が示す視差量の分布に近づくように前記撮影部における撮影条件を設定する請求項1に記載の3次元カメラ。   The adjustment unit sets shooting conditions in the shooting unit so that a part of the distribution of the parallax amount indicated by the detected parallax information approaches the distribution of the parallax amount indicated by the parallax distribution information set by the setting unit. The three-dimensional camera according to claim 1. 前記調整部は、前記撮影条件を変更した後、変更後の撮影条件で撮影した場合に得られる視差量の分布を推定し、推定した視差量の分布が、前記設定した視差分布情報が示す視差量の分布に近づくように前記撮影部における撮影条件を再設定する請求項1に記載の3次元カメラ。   The adjustment unit estimates the distribution of the amount of parallax obtained when shooting is performed under the changed shooting condition after changing the shooting condition, and the estimated parallax amount distribution is the parallax indicated by the set parallax distribution information The three-dimensional camera according to claim 1, wherein photographing conditions in the photographing unit are reset so as to approach a distribution of amounts. 前記3次元カメラはさらに、撮影モードを設定するモード設定部を備え、
前記設定部は、前記モード設定部が設定する撮影モードに基づいて、視差分布情報を設定する請求項1に記載の3次元カメラ。
The three-dimensional camera further includes a mode setting unit for setting a shooting mode,
The three-dimensional camera according to claim 1, wherein the setting unit sets parallax distribution information based on a shooting mode set by the mode setting unit.
前記設定部は、前記モード設定部が風景を撮影するモードを設定している場合、前記立体視用の映像が有する視差量のうち引っ込みに関する視差量が前記立体視用の映像が有する視差量のうち飛び出しに関する視差量よりも多い視差量の分布を視差分布情報として設定する請求項7に記載の3次元カメラ。   In the setting unit, when the mode setting unit sets a mode for shooting a landscape, the amount of parallax related to retraction among the amount of parallax included in the stereoscopic video is equal to the amount of parallax included in the stereoscopic video. The three-dimensional camera according to claim 7, wherein a distribution of a parallax amount larger than a parallax amount related to popping out is set as parallax distribution information. 前記設定部は、前記モード設定部がマクロを撮影するモードを設定している場合、前記立体視用の映像が有する視差量のうち飛び出しに関する視差量が前記立体視用の映像が有する視差量のうち引っ込みに関する視差量よりも多い視差量の分布を視差分布情報として設定する請求項7に記載の3次元カメラ。   The setting unit, when the mode setting unit has set a mode for shooting a macro, out of the amount of parallax of the stereoscopic video, the amount of parallax related to popping out is the amount of parallax of the stereoscopic video The three-dimensional camera according to claim 7, wherein a distribution of a parallax amount larger than a parallax amount related to retraction is set as parallax distribution information. 前記設定部は、前記モード設定部が人物を撮影するモードを設定している場合、前記立体視用の映像が有する視差量のうち略ゼロの視差量が、前記立体視用の映像が有する視差量のうち飛び出しまたは引っ込みに関する視差量よりも多い視差量の分布を視差分布情報として設定する請求項7に記載の3次元カメラ。   When the mode setting unit sets a mode for photographing a person, the setting unit has a parallax amount substantially zero among the parallax amounts of the stereoscopic video image included in the stereoscopic video image. The three-dimensional camera according to claim 7, wherein a distribution of a parallax amount larger than a parallax amount related to popping out or retracting is set as parallax distribution information. 前記調整部は、前記検出した視差情報が示す視差量の分布に基づく特徴量が、前記設定部が設定した情報が示す視差分布に基づく特徴量に近づくように、前記撮影部における撮影条件を設定する請求項1に記載の3次元カメラ。   The adjustment unit sets shooting conditions in the shooting unit such that a feature amount based on a distribution of parallax amounts indicated by the detected parallax information approaches a feature amount based on a parallax distribution indicated by information set by the setting unit. The three-dimensional camera according to claim 1.
JP2011084264A 2011-04-06 2011-04-06 Three-dimensional video signal photography device Withdrawn JP2012220603A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011084264A JP2012220603A (en) 2011-04-06 2011-04-06 Three-dimensional video signal photography device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011084264A JP2012220603A (en) 2011-04-06 2011-04-06 Three-dimensional video signal photography device

Publications (1)

Publication Number Publication Date
JP2012220603A true JP2012220603A (en) 2012-11-12

Family

ID=47272205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011084264A Withdrawn JP2012220603A (en) 2011-04-06 2011-04-06 Three-dimensional video signal photography device

Country Status (1)

Country Link
JP (1) JP2012220603A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5311526B1 (en) * 2013-03-28 2013-10-09 株式会社 アーチウェイ3D 3D stereoscopic image creation method, 3D stereoscopic image creation system, and 3D stereoscopic image creation program
JP2015023547A (en) * 2013-07-23 2015-02-02 株式会社ニコン Image processing apparatus, image processing method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5311526B1 (en) * 2013-03-28 2013-10-09 株式会社 アーチウェイ3D 3D stereoscopic image creation method, 3D stereoscopic image creation system, and 3D stereoscopic image creation program
JP2015023547A (en) * 2013-07-23 2015-02-02 株式会社ニコン Image processing apparatus, image processing method, and program

Similar Documents

Publication Publication Date Title
US9491439B2 (en) Three-dimensional image capture device, lens control device and program
JP5679978B2 (en) Stereoscopic image alignment apparatus, stereoscopic image alignment method, and program thereof
EP2590421B1 (en) Single-lens stereoscopic image capture device
JP5510238B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2011259168A (en) Stereoscopic panoramic image capturing device
US20130027520A1 (en) 3d image recording device and 3d image signal processing device
US20130050532A1 (en) Compound-eye imaging device
US9602799B2 (en) Device, method, and computer program for three-dimensional video processing
KR20140134043A (en) System and method for providing three dimensional image
JP5552197B2 (en) 3D image processing apparatus and method
US20120113226A1 (en) 3d imaging device and 3d reproduction device
JP2015017999A (en) Imaging device
US9124866B2 (en) Image output device, method, and recording medium therefor
US20130088580A1 (en) Camera body, interchangeable lens unit, image capturing device, method for controlling camera body, program, and recording medium on which program is recorded
US20130076867A1 (en) Imaging apparatus
JP2012220603A (en) Three-dimensional video signal photography device
JP5453552B2 (en) Imaging apparatus, method and program
WO2011086898A1 (en) 3d image capturing device and control method therefor
JP2011146825A (en) Stereo image photographing device and method for the same
JP5325336B2 (en) 3D image processing apparatus, method, and program
JP5221827B1 (en) Stereoscopic image capturing apparatus and zoom operation control method
JP2005072674A (en) Three-dimensional image generating apparatus and three-dimensional image generating system
JP2012151538A (en) Three-dimensional imaging apparatus
JP2011259405A (en) Imaging device and imaging method
JP2013162489A (en) 3d image pickup device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140701