JP5751472B2 - Photography equipment - Google Patents

Photography equipment Download PDF

Info

Publication number
JP5751472B2
JP5751472B2 JP2011021013A JP2011021013A JP5751472B2 JP 5751472 B2 JP5751472 B2 JP 5751472B2 JP 2011021013 A JP2011021013 A JP 2011021013A JP 2011021013 A JP2011021013 A JP 2011021013A JP 5751472 B2 JP5751472 B2 JP 5751472B2
Authority
JP
Japan
Prior art keywords
image
background
unit
imaging
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011021013A
Other languages
Japanese (ja)
Other versions
JP2012161034A (en
Inventor
野中 修
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2011021013A priority Critical patent/JP5751472B2/en
Publication of JP2012161034A publication Critical patent/JP2012161034A/en
Application granted granted Critical
Publication of JP5751472B2 publication Critical patent/JP5751472B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Description

本発明は、3次元画像の撮影を可能にする撮影機器に関する。   The present invention relates to a photographing apparatus that enables photographing of a three-dimensional image.

近年、デジタルカメラなどの撮影機能付き携帯機器は、画像処理を駆使して、様々な苦手撮影シーンを克服している。また、近年、映画産業では、臨場感を重んじた3D(3次元)化の波があり、テレビ業界もそれに追随して3D表示機器は普及傾向にある。   In recent years, portable devices with a photographing function such as a digital camera have overcome various poor photographing scenes by making full use of image processing. In recent years, there has been a 3D (three-dimensional) wave in the movie industry with a sense of realism, and the 3D display devices are also becoming popular following the television industry.

デジタルカメラ等の民生用の撮影機器においても、3D撮影可能な装置が開発されている。画像を立体的情報を含んで撮影記録し、これを再生観察する方式には多種多様な提案がある。立体視を可能にするためには、右目用の右画像と左目用の左画像、即ち、左右両眼の視点に対応する視差を持った2画像を撮像する必要がある。   In consumer photography equipment such as digital cameras, devices capable of 3D photography have been developed. There are a wide variety of proposals for methods of shooting and recording images including three-dimensional information and reproducing and observing them. In order to enable stereoscopic viewing, it is necessary to capture a right image for the right eye and a left image for the left eye, that is, two images with parallax corresponding to the viewpoints of the left and right eyes.

例えば、2D撮影用のレンズを用い、水平にずらした2回の撮影によって、立体画像を得る手法が開示されている。また、右画像を撮像する撮像装置と左画像を撮像する撮像装置の2つの撮像装置を同時に用いて3D画像を得る装置も商品化されている。   For example, a technique for obtaining a stereoscopic image by two horizontal shootings using a 2D shooting lens is disclosed. In addition, an apparatus that obtains a 3D image by simultaneously using two imaging apparatuses, that is, an imaging apparatus that captures a right image and an imaging apparatus that captures a left image, has been commercialized.

特開2001−22014号公報Japanese Patent Laid-Open No. 2001-22014

ところで、右画像及び左画像中は視差を有しており、右画像と左画像の撮影範囲にはずれがある。右画像及び左画像の中央の共通の撮影範囲の部分(以下、共通撮影部分という)のみが立体的に表示される。共通撮影部分の左右両側の撮影範囲の部分(以下、単独撮影部分という)は、右画像又は左画像の一方にしか含まれず、単独撮影部分を除く共通撮影部分が3D画像として用いられることになる。   By the way, the right image and the left image have parallax, and there is a difference between the shooting ranges of the right image and the left image. Only a portion of a common shooting range at the center of the right image and the left image (hereinafter referred to as a common shooting portion) is displayed in a three-dimensional manner. The portions of the shooting range on both the left and right sides of the common shooting portion (hereinafter referred to as a single shooting portion) are included only in one of the right image and the left image, and the common shooting portion excluding the single shooting portion is used as a 3D image. .

ところが、特に、被写体までの距離が近い場合には、近距離の被写体によって共通撮影部分の大部分が占められることになり、近距離の被写体の左右の背景部分が3D画像に含まれなくなり、背景と被写体との遠近関係が表現できなくなってしまう場合がある。例えば、自分撮りのように、カメラと被写体(撮影者)との距離が近い場合には、背景画像が占める割合が減少し、十分写し込めず、適切な遠近感を得ることができない。距離の他、撮影時に撮影範囲を決定する画角などによっても、背景の入り方が異なってくる。   However, in particular, when the distance to the subject is short, most of the common shooting portion is occupied by the short-distance subject, and the left and right background portions of the short-distance subject are not included in the 3D image. In some cases, the perspective relationship between the subject and the subject cannot be expressed. For example, when the distance between the camera and the subject (photographer) is short as in self-portrait, the ratio of the background image decreases, and the image cannot be captured sufficiently, and an appropriate perspective cannot be obtained. In addition to the distance, the manner in which the background enters differs depending on the angle of view that determines the shooting range during shooting.

このため、適切な遠近感を得るために、被写体までの距離を考慮する必要があり、撮影操作が煩雑になり、咄嗟の撮影が困難になる傾向があった。   For this reason, in order to obtain an appropriate perspective, it is necessary to consider the distance to the subject, and the photographing operation tends to be complicated, and it has been difficult to photograph the eyelids.

なお、特許文献1においては、左右の撮影光軸に適切な輻輳角を与えて良好な立体画像の撮影を可能とするステレオカメラが開示されている。しかしながら、特許文献1の発明においては、複雑な機構が必要であるという問題がある。   In Patent Document 1, a stereo camera is disclosed in which an appropriate convergence angle is given to the right and left photographing optical axes, and a good stereoscopic image can be taken. However, the invention of Patent Document 1 has a problem that a complicated mechanism is required.

本発明は、簡単な構成で、フレーミング時に距離や撮影時の画角や輻輳角や視差を意識することなく、適切な遠近感が得られる3D画像を取得することができる撮影機器を提供することを目的とする。   The present invention provides a photographing apparatus capable of obtaining a 3D image with an appropriate perspective, with a simple configuration, without being aware of distance, angle of view, convergence angle, and parallax during framing. With the goal.

本発明の撮影機器は、1回又は複数回の撮像によって視差が異なる複数の画像を得る撮像部と、上記撮像部で得られた上記複数の画像の中央部における被写体の左右の背景部分の距離の変化が所定の閾値よりも小さいか否かを各背景部分毎に判定し、小さいと判定した上記背景部分を流用可能と判定する背景判定部と、上記背景判定部の判定結果によって流用可能と判定された上記背景部分を、上記中央部の画像に合成する合成部とを具備する。 The imaging device of the present invention is a distance between an imaging unit that obtains a plurality of images with different parallaxes by one or more imagings, and a left and right background portion of the subject at the center of the plurality of images obtained by the imaging unit It is determined for each background part whether or not the change in the background is smaller than a predetermined threshold, and the background determination unit that determines that the background part determined to be small can be diverted, and can be diverted based on the determination result of the background determination unit And a combining unit that combines the determined background portion with the central image.

本発明によれば、簡単な構成で、フレーミング時に様々な要因を意識することなく、手軽な撮影で適切な遠近感が楽しめる3D画像を取得することができるという効果を有する。   According to the present invention, there is an effect that it is possible to acquire a 3D image with a simple configuration and being able to enjoy an appropriate perspective with easy shooting without being aware of various factors during framing.

本発明の一実施の形態に係る撮影機器の回路構成を示すブロック図。1 is a block diagram illustrating a circuit configuration of a photographing apparatus according to an embodiment of the present invention. 3D撮影において得られる3D撮影範囲を説明するための説明図。Explanatory drawing for demonstrating the 3D imaging | photography range obtained in 3D imaging | photography. 左右画像による一般的な3D画像の生成方法を説明するための説明図。Explanatory drawing for demonstrating the production | generation method of the general 3D image by a left-right image. 被写体の左右に追加する背景画像を説明するための説明図。Explanatory drawing for demonstrating the background image added to the right and left of a to-be-photographed object. 背景部分を画像欠落部に流用するか否かの判定方法の一例を示す説明図。Explanatory drawing which shows an example of the determination method of whether a background part is diverted to an image missing part. 背景部分を画像欠落部に流用するか否かの判定方法の一例を示す説明図。Explanatory drawing which shows an example of the determination method of whether a background part is diverted to an image missing part. 図7は撮像部2として2つの撮像素子2aを有する場合の動作フローを示すフローチャート。FIG. 7 is a flowchart illustrating an operation flow when the imaging unit 2 includes two imaging elements 2a. 背景部分を画像欠落部分に流用可能であるか否かを判定するためのフローチャート。The flowchart for determining whether a background part can be diverted to an image missing part. 図8のフローを説明するための説明図。Explanatory drawing for demonstrating the flow of FIG. 図8のフローを説明するための説明図。Explanatory drawing for demonstrating the flow of FIG. 図11は撮像部2として1つの撮像素子2aのみを有する場合の動作フローを示すフローチャート。FIG. 11 is a flowchart showing an operation flow when the imaging unit 2 has only one image sensor 2a.

以下、図面を参照して本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は本発明の一実施の形態に係る撮影機器の回路構成を示すブロック図である。   FIG. 1 is a block diagram showing a circuit configuration of a photographing apparatus according to an embodiment of the present invention.

撮影機器1は、CCDやCMOSセンサ等の撮像素子2aによって構成された撮像部2を有している。本実施の形態においては、撮像部2として右左の光学系を構成する右撮像部2R及び左撮像部2Lを有する3D撮影用の撮影部を採用した例を示している。なお、撮像部2として、2回の撮影によって左右画像を得ることを前提とした、1つの光学系のみを有する2D撮影用の撮影レンズを採用してもよい。   The photographing apparatus 1 has an imaging unit 2 configured by an imaging element 2a such as a CCD or a CMOS sensor. In the present embodiment, an example is shown in which an imaging unit for 3D imaging having a right imaging unit 2R and a left imaging unit 2L constituting a right and left optical system is employed as the imaging unit 2. Note that, as the imaging unit 2, a photographing lens for 2D photographing having only one optical system on the assumption that left and right images are obtained by photographing twice may be employed.

撮影機器1の前面に設けた撮影レンズ2bを含む光学系からの被写体の光学像OAは、左右撮像部2L,2Rを構成する各撮像素子2aの撮像面に結像するようになっている。この撮像部2は、信号処理及び制御部11によって駆動制御される。信号処理及び制御部11は、撮像部2に撮像素子2aの駆動信号を出力すると共に、撮像素子2aが光学像を光電変換して得た画像信号を取り込む。   An optical image OA of a subject from an optical system including a photographic lens 2b provided on the front surface of the photographic device 1 is formed on the imaging surface of each imaging device 2a constituting the left and right imaging units 2L and 2R. The imaging unit 2 is driven and controlled by the signal processing and control unit 11. The signal processing and control unit 11 outputs a drive signal for the image sensor 2 a to the image capturing unit 2 and captures an image signal obtained by photoelectrically converting the optical image by the image sensor 2 a.

信号処理及び制御部11は、撮像素子2aの光電変換によって得られた画像信号に対して、所定の信号処理、例えば、色信号生成処理、マトリックス変換処理、その他各種のデジタル処理を行う。信号処理及び制御部11は、画像信号及び音声信号等の記録に際して、符号化処理を施して圧縮した画像情報及び音声情報等を出力することもできるようになっている。   The signal processing and control unit 11 performs predetermined signal processing, such as color signal generation processing, matrix conversion processing, and other various digital processing, on the image signal obtained by photoelectric conversion of the image sensor 2a. The signal processing and control unit 11 can output image information, audio information, and the like compressed by performing an encoding process when recording an image signal, an audio signal, and the like.

また、撮影機器1には、操作判定部3、操作部4、時計部5、タッチパネル6も配設されている。時計部5は信号処理及び制御部11が用いる時間情報を発生する。操作判定部3は、操作部4に対するユーザ操作に基づく操作信号を発生して、信号処理及び制御部11に出力するようになっている。なお、操作部4は、撮影機器1に設けられた撮影開始終了ボタンや撮影モード設定等の図示しない各種スイッチによって構成される。タッチパネル6は、ユーザのタッチ操作に基づく操作信号を発生して、信号処理及び制御部11に出力するようになっている。信号処理及び制御部11は、操作信号に基づいて、各部を制御する。   The photographing device 1 is also provided with an operation determination unit 3, an operation unit 4, a clock unit 5, and a touch panel 6. The clock unit 5 generates time information used by the signal processing and control unit 11. The operation determination unit 3 generates an operation signal based on a user operation on the operation unit 4 and outputs the operation signal to the signal processing and control unit 11. The operation unit 4 is configured by various switches (not shown) such as a shooting start / end button and shooting mode setting provided on the shooting device 1. The touch panel 6 generates an operation signal based on a user's touch operation and outputs the operation signal to the signal processing and control unit 11. The signal processing and control unit 11 controls each unit based on the operation signal.

また、撮影機器1には、記録再生制御部11a及び表示制御部11eが設けられている。記録再生制御部11aは、信号処理及び制御部11からの画像情報及び音声情報を記録部8に与えて記録することができるようになっている。記録部8は記録再生制御部11aに制御されて、記録及び再生を行う。記録部8としては、例えばカードインターフェースを採用することができ、記録部8はメモリカード等の記録媒体に画像情報及び音声情報等を記録可能である。また、記録部8は、記録媒体に記録された画像情報及び音声情報を読み出して信号処理及び制御部11の記録再生制御部11aに供給することができる。信号処理及び制御部11は、記録再生制御部11aによって再生された記録部8からの画像情報及び音声情報を復号化して、画像信号及び音声信号を得ることができるようになっている。   In addition, the photographing apparatus 1 is provided with a recording / playback control unit 11a and a display control unit 11e. The recording / playback control unit 11a can provide the recording unit 8 with the image information and audio information from the signal processing and control unit 11 for recording. The recording unit 8 is controlled by the recording / reproduction control unit 11a to perform recording and reproduction. As the recording unit 8, for example, a card interface can be adopted, and the recording unit 8 can record image information, audio information, and the like on a recording medium such as a memory card. The recording unit 8 can read out the image information and the audio information recorded on the recording medium and supply them to the recording / reproduction control unit 11 a of the signal processing and control unit 11. The signal processing and control unit 11 can decode the image information and audio information from the recording unit 8 reproduced by the recording / reproduction control unit 11a to obtain an image signal and audio signal.

表示制御部11eは、撮像部2からの撮像画像や記録再生制御部11aからの再生画像を表示部7に与えて、これらの画像を表示させるようになっている。また、表示制御部11eは、撮影機器1の操作を行うためのメニュー表示等を表示部7に表示させることもできるようになっている。   The display control unit 11e gives a captured image from the imaging unit 2 and a reproduction image from the recording / reproduction control unit 11a to the display unit 7 to display these images. In addition, the display control unit 11e can display a menu display for operating the photographing apparatus 1 on the display unit 7.

表示部7は、撮影機器1の本体の背面に設けられており、撮影者は、撮影時に表示部7の表示画面を視認可能になっている。表示部7としては、視差画像である左画像及び右画像を夫々表示する左目用表示領域7L及び右目用表示領域7Rを有する3D表示用の表示部である。   The display unit 7 is provided on the back surface of the main body of the photographing apparatus 1 so that the photographer can visually recognize the display screen of the display unit 7 at the time of photographing. The display unit 7 is a display unit for 3D display having a left-eye display region 7L and a right-eye display region 7R for displaying a left image and a right image, which are parallax images, respectively.

なお、表示部7としては、3D表示が可能なパララックスバリア方式やレンチキュラ方式等の視差分割方式を採用した表示部を採用可能である。視差分割方式においては、3D表示用のメガネ等を用いることなく、3D表示が可能である。また、表示部7としては、3D表示用の眼鏡等を用いて3D観察を可能にする表示部を採用してもよく、更に、2D表示用の表示部を採用してもよい。   As the display unit 7, a display unit that employs a parallax division method such as a parallax barrier method or a lenticular method capable of 3D display can be used. In the parallax division method, 3D display is possible without using glasses for 3D display. Further, as the display unit 7, a display unit that enables 3D observation using 3D display glasses or the like may be employed, and further, a display unit for 2D display may be employed.

表示制御部11eは、記録部8に記録されている3D画像である右画像及び左画像が再生されると、これらの右画像及び左画像を表示部7の対応する右目用表示領域7R及び左目用表示領域7Lに表示させるように、表示制御を行う。これにより、撮像した3D画像を表示部7に立体表示することができ、撮影者は、表示部7の表示画面上において立体撮影効果を確認することが可能である。なお、表示制御部11eは、左右画像として同一の画像を表示部7に与えることにより、2D表示を行うこともできる。   When the right image and the left image that are 3D images recorded in the recording unit 8 are reproduced, the display control unit 11e displays the right image and the left image corresponding to the display area 7R for the right eye and the left eye corresponding to the display unit 7. Display control is performed so as to display in the display area 7L. Thereby, the captured 3D image can be stereoscopically displayed on the display unit 7, and the photographer can confirm the stereoscopic shooting effect on the display screen of the display unit 7. The display control unit 11e can perform 2D display by giving the display unit 7 the same image as the left and right images.

タッチパネル6は、ユーザが指で指し示した位置に応じた操作信号を発生する。タッチパネル6は、例えば表示部7の表示画面上に設けることができる。この場合には、ユーザは、表示部7の画面上に表示された各種コマンドボタンを、タッチパネル6により指示することができる。タッチパネル6はユーザ操作に基づく操作信号を信号処理及び制御部11に供給する。   The touch panel 6 generates an operation signal corresponding to the position pointed by the user with a finger. The touch panel 6 can be provided on the display screen of the display unit 7, for example. In this case, the user can instruct various command buttons displayed on the screen of the display unit 7 using the touch panel 6. The touch panel 6 supplies an operation signal based on a user operation to the signal processing and control unit 11.

本実施の形態においては、簡単な構成で、撮影時のフレーミングを意識することなく、適切な遠近感のある3D画像を簡単に取得するために、信号処理及び制御部11には、主被写体判定部11b、背景判定部11c、距離判定部11d、共通撮影範囲判定部11f、補助画像生成部11g及び合成部11hが設けられている。   In the present embodiment, in order to easily obtain a 3D image with an appropriate perspective without being aware of framing at the time of shooting with a simple configuration, the signal processing and control unit 11 has a main subject determination. A unit 11b, a background determination unit 11c, a distance determination unit 11d, a common shooting range determination unit 11f, an auxiliary image generation unit 11g, and a synthesis unit 11h are provided.

なお、信号処理及び制御部11内の各部は、CPUにより実行されるソフトウエアプログラムによって構成されてもよく、ハードウエア回路によって構成されてもよい。さらに、信号処理及び制御部11は、デジタルシグナルプロセッサ(DSP)により構成されていてもよい。   Each unit in the signal processing and control unit 11 may be configured by a software program executed by the CPU, or may be configured by a hardware circuit. Further, the signal processing and control unit 11 may be configured by a digital signal processor (DSP).

次に、図2乃至図6を参照して、信号処理及び制御部11によるカメラ制御について説明する。図2は3D撮影において得られる3D撮影範囲を説明するための説明図である。   Next, signal processing and camera control by the control unit 11 will be described with reference to FIGS. FIG. 2 is an explanatory diagram for explaining a 3D imaging range obtained in 3D imaging.

撮影機器1の2つの撮像部2R、2Lは、左右方向において、互いに基線長Bだけ離れて配置されている。なお、図2では、各構成要素を図面上で認識可能な程度の大きさとするため、撮影機器1及びその内部の構成要素のサイズ、基線長B等は、構成要素毎に縮尺を異ならせてある。また、撮像部の撮像方向は変えないものとし、輻輳角はない例で考える。   The two imaging units 2R and 2L of the imaging device 1 are arranged apart from each other by the baseline length B in the left-right direction. In FIG. 2, in order to make each constituent element recognizable on the drawing, the size of the photographing apparatus 1 and the constituent elements therein, the base line length B, and the like are different in scale for each constituent element. is there. In addition, it is assumed that the imaging direction of the imaging unit is not changed and there is no convergence angle.

各撮像部2R,2Lの画角をθとし、撮影機器1から被写体Sまでの距離をLとしたとき、各撮像部の撮影範囲X1は、次の式(1)により算出された値となる。なお、以下の式において*は乗算を示す。   When the angle of view of each imaging unit 2R, 2L is θ and the distance from the imaging device 1 to the subject S is L, the imaging range X1 of each imaging unit is a value calculated by the following equation (1). . In the following formula, * indicates multiplication.

X1=2*(L*tan(θ/2)) ・・・式(1)
また、3D撮影範囲EDは、2つの撮像部2R,2Lにより撮像された2つの画像同士で重なり合うオーバーラップ領域であるので、次の式(2)により算出された値となる。
X1 = 2 * (L * tan (θ / 2)) (1)
In addition, since the 3D imaging range ED is an overlap region where two images captured by the two imaging units 2R and 2L overlap each other, the 3D imaging range ED is a value calculated by the following equation (2).

ED=X1−B ・・・式(2)
例えば、X1=L*tanθに近似できるような画角θ(例えば、35mm判換算で略50mmのレンズに相当する)で、基線長Bが5cmで、距離Lが、自分撮りをする場合の距離、例えば50cm(=l1)、の場合、2つの撮像部2R、2Lによる3D撮影範囲EDは、次のようになる。
ED = X1-B Formula (2)
For example, the angle of view θ that can be approximated to X1 = L * tan θ (e.g., equivalent to a lens of approximately 50 mm in 35 mm format), the base line length B is 5 cm, and the distance L is the distance when taking a selfie. For example, in the case of 50 cm (= l1), the 3D imaging range ED by the two imaging units 2R and 2L is as follows.

ED=X1−B=l1*tanθ−B=50−5=45 ・・・式(3)
すなわち、3D撮影範囲EDは、横方向に45cmしかない。これでは、肩幅が45cmの人の場合は、被写体Sの顔を画面の略中央に位置させなければ、自分の3D撮影が適切にできないことになる。更にこの場合には、撮影範囲の左右方向の略全域に人物が配置され、背景が配置される領域がなく、適切な立体感が得られにくい。
ED = X1-B = l1 * tan [theta] -B = 50-5 = 45 (3)
That is, the 3D imaging range ED is only 45 cm in the lateral direction. In this case, if a person has a shoulder width of 45 cm, his / her 3D shooting cannot be performed properly unless the face of the subject S is positioned at the approximate center of the screen. Furthermore, in this case, a person is arranged in substantially the entire left and right direction of the shooting range, there is no area where the background is arranged, and it is difficult to obtain an appropriate stereoscopic effect.

一方、撮影機器1と被写体S間の距離Lが、l1より大きいL2の場合は、図2に示すように、距離l1の場合に比べて、3D撮影範囲EDは、広くなる。すなわち、撮影機器1と被写体S間の距離Lが大きくなれば、3D撮影範囲EDも広くなる。   On the other hand, when the distance L between the photographing device 1 and the subject S is L2 which is larger than l1, the 3D photographing range ED becomes wider as compared with the case where the distance l1 as shown in FIG. That is, as the distance L between the imaging device 1 and the subject S increases, the 3D imaging range ED also increases.

図3は左右画像による一般的な3D画像の生成方法を説明するための説明図である。   FIG. 3 is an explanatory diagram for explaining a general 3D image generation method using left and right images.

図3(a)は撮像部2として2D撮影用の撮像部を採用し、撮像部2を水平方向に移動させながら、異なる時間に2回の撮影を行うことで右画像及び左画像を得る例を示している。図3(b)は図3(a)の2回の撮像によって得られる画像の一例を説明するためのものであり、破線は撮像範囲25を示している。   FIG. 3A shows an example in which an imaging unit for 2D imaging is adopted as the imaging unit 2, and a right image and a left image are obtained by performing imaging twice at different times while moving the imaging unit 2 in the horizontal direction. Is shown. FIG. 3B is a diagram for explaining an example of an image obtained by the two imaging operations shown in FIG. 3A, and the broken line indicates the imaging range 25.

図3(b)は天井23u、床23d、左右の壁23l,23r及び奥の壁23oによって囲まれた部屋23内に、人物21が立ち、奥の壁23oに額縁22が飾ってある様子を示している。図3(a)では図面の簡略化のために、人物21を四角の被写体21で表し、額縁22を丸い被写体22で表している。   FIG. 3B shows a state in which a person 21 stands in a room 23 surrounded by a ceiling 23u, a floor 23d, left and right walls 23l and 23r, and a back wall 23o, and a frame 22 is displayed on the back wall 23o. Show. In FIG. 3A, for simplification of the drawing, the person 21 is represented by a square subject 21 and the frame 22 is represented by a round subject 22.

図3(a)に示すように、撮像部2は撮影レンズ2b及び撮像素子2aによって構成され、撮像部2から人物21(以下、被写体21ともいう),額縁22(以下、被写体22ともいう)までの距離が夫々l1,l2の例である。   As shown in FIG. 3A, the imaging unit 2 includes a photographic lens 2b and an imaging element 2a. From the imaging unit 2, a person 21 (hereinafter also referred to as a subject 21), a frame 22 (hereinafter also referred to as a subject 22). Are distances of l1 and l2, respectively.

いま、図3(a)において、撮像部2が左側の位置L1において被写体21,22を撮像するものとする。図3(c1)はこの場合の撮像画像(左画像)を示しており、被写体21に対応する画像23L及び被写体22に対応する画像24Lが撮像されたことを示している。次に、撮像部2を右側の位置R1に移動させて、基線長x1で右画像を撮像するものとする。右側の位置R1において同一の被写体21,22を撮像した場合の撮像画像(右画像)は図3(c2)によって示される。この場合には、被写体21に対応する画像23R及び被写体22に対応する画像24Rが撮像される。   Now, in FIG. 3A, it is assumed that the imaging unit 2 images the subjects 21 and 22 at the left position L1. FIG. 3C1 shows a captured image (left image) in this case, and shows that an image 23L corresponding to the subject 21 and an image 24L corresponding to the subject 22 are captured. Next, it is assumed that the imaging unit 2 is moved to the right position R1 and a right image is captured with a baseline length x1. A captured image (right image) when the same subjects 21 and 22 are captured at the right position R1 is shown in FIG. In this case, an image 23R corresponding to the subject 21 and an image 24R corresponding to the subject 22 are captured.

図3(c1)に示すように、左画像の撮像範囲25L内には、左右の壁のうち右側の壁23rは含まれておらず左側の壁23lの一部のみが撮影されている。逆に、図3(c2)に示すように、右画像の撮像範囲25R内には、左右の壁のうち左側の壁23lは含まれておらず右側の壁23rの一部のみが撮影されている。   As shown in FIG. 3C1, the right image wall 23r of the left and right walls is not included in the imaging range 25L of the left image, and only a part of the left wall 23l is photographed. On the contrary, as shown in FIG. 3 (c2), in the imaging range 25R of the right image, the left wall 23l is not included in the left and right walls, and only a part of the right wall 23r is photographed. Yes.

図3(c1),(c2)に示す左右画像を遠距離の被写体22の画像部分が一致するように重ねる。図3(d)はこの場合の撮像画像を示している。被写体21の画像23R,23Lの視差に応じて、額縁22に対する人物21の立体感が得られる。なお、近距離の被写体の方が、遠距離の背景に比べて視差の影響を受けやすく、背景は距離が遠くて広い範囲が映るので、視差の影響は小さい。   The left and right images shown in FIGS. 3 (c1) and 3 (c2) are overlaid so that the image portions of the long-distance subject 22 coincide. FIG. 3D shows a captured image in this case. The stereoscopic effect of the person 21 with respect to the frame 22 is obtained according to the parallax of the images 23R and 23L of the subject 21. Note that a subject at a short distance is more susceptible to parallax than a background at a long distance, and the background is far away and a wide range is reflected, so the influence of parallax is small.

図3(d)に示すように、左右画像の撮影範囲25L,25Rには、一方の画像にしか存在しない範囲(単独撮影部分)が含まれている。従って、厳密には生成される3D画像は、図3(e)に示すように、撮影範囲25L,25Rの共通の範囲(共通撮影部分)26のみである。   As shown in FIG. 3D, the left and right image shooting ranges 25L and 25R include a range (single shooting portion) that exists only in one image. Therefore, strictly speaking, the 3D image generated is only the common range (common shooting portion) 26 of the shooting ranges 25L and 25R, as shown in FIG.

上述した説明から明らかなように、この共通撮影部分は、被写体までの距離や撮影画角、撮影時の輻輳角、視差などに応じてサイズが変化する。従って、このような3D画像を表示部7の表示画面全域に表示するものとすると、正しいアスペクト比が得られない。また、アスペクト比を正しく表示しようとすると、画面の上下や左右が欠けた画像が表示されてしまう。例えば、図3(e)の画像を画面上に表示すると、図3(f)の画像が表示されることが考えられる。図3(f)では、画面の左右に画像が表示されない画像欠落部27が生じている状態を示している。   As is clear from the above description, the size of the common photographing portion changes according to the distance to the subject, the photographing angle of view, the convergence angle at the time of photographing, the parallax, and the like. Accordingly, when such a 3D image is displayed over the entire display screen of the display unit 7, a correct aspect ratio cannot be obtained. Also, if the aspect ratio is displayed correctly, an image with the top and bottom and the left and right of the screen missing is displayed. For example, when the image of FIG. 3E is displayed on the screen, the image of FIG. 3F may be displayed. FIG. 3F shows a state in which an image missing portion 27 where no image is displayed on the left and right of the screen is generated.

特に、自分で撮影機器1を持って自分を撮影する、いわゆる自分撮りの場合のように、撮影機器1と被写体間の距離が小さい場合には、被写体左右の背景画像の部分が欠けやすくなり、適切な立体感が得られにくい。   In particular, when the distance between the photographing device 1 and the subject is small, as in the case of so-called self-photographing, where the user takes the photographing device 1 by himself, the portion of the background image on the left and right sides of the subject tends to be lost. It is difficult to obtain an appropriate stereoscopic effect.

そこで、本実施の形態においては、信号処理及び制御部11は、被写体までの距離が比較的短い場合等においては、被写体の左右に背景画像を付加することで、適切な立体感が得られやすい撮像画像を得るようになっている。   Therefore, in the present embodiment, when the distance to the subject is relatively short, the signal processing and control unit 11 can easily obtain an appropriate stereoscopic effect by adding a background image to the left and right of the subject. A captured image is obtained.

図4は被写体の左右に追加する背景画像を説明するための説明図である。図4(a)は図3(a)に対応した被写体を撮影する状態を示している。図4(b),(c)は横軸に撮影範囲内の水平位置をとり縦軸に(1/距離(L))をとって、撮影範囲内の水平線上の各点における距離分布を示すものである。なお、図4(b),(c)においては、無限遠を0として表わしている。   FIG. 4 is an explanatory diagram for explaining background images added to the left and right of the subject. FIG. 4A shows a state in which a subject corresponding to FIG. 4B and 4C show the distance distribution at each point on the horizontal line in the imaging range, with the horizontal position in the imaging range on the horizontal axis and (1 / distance (L)) on the vertical axis. Is. In FIGS. 4B and 4C, infinity is represented as zero.

図4(b)は図4(a)の撮影機器1から被写体21を含む水平線(二点鎖線)上の各点までの距離を示すものである。図4(b)に示すように、撮像範囲内の被写体のうち被写体21までの距離が最も近く、壁23oの背景部分までの距離は比較的大きい。そして、被写体21の左右の背景部分の距離は、いずれの位置においても殆ど差がない。即ち、このような背景部分については立体感を出す必要がない。   FIG. 4B shows the distance from the photographing device 1 of FIG. 4A to each point on the horizontal line (two-dot chain line) including the subject 21. As shown in FIG. 4B, the distance to the subject 21 is the closest among the subjects in the imaging range, and the distance to the background portion of the wall 23o is relatively large. The distance between the left and right background portions of the subject 21 is almost the same at any position. That is, it is not necessary to give a stereoscopic effect to such a background portion.

そこで、本実施の形態においては、このような距離差が十分に小さい背景部分を画像欠落部に流用することで、画像サイズを被写体までの距離に拘わらず一定にするようになっている。なお、流用する部分は、立体的に見えないが、背景であることは分かり、主被写体の飛出し感を表現するためには問題ない。しかし、図4(c)のように背景に距離変化がある場合には、こうした措置は適当ではない。   Therefore, in the present embodiment, by using such a background portion having a sufficiently small distance difference as an image missing portion, the image size is made constant regardless of the distance to the subject. Although the diverted portion does not appear three-dimensionally, it can be seen that it is the background, and there is no problem in expressing the feeling of the main subject popping out. However, such a measure is not appropriate when there is a distance change in the background as shown in FIG.

信号処理及び制御部11の距離判定部11dは、撮像範囲の各部における撮影機器1からの距離を判定する。距離判定部11dの判定結果は主被写体判定部11b及び背景判定部11cに与えられる。主被写体判定部11bは、距離判定部11dの判定結果に基づいて、撮像範囲中の主被写体を判定する。例えば、主被写体判定部11bは、撮影機器1からの距離が最も小さい物体を主被写体と判定する。   The distance determination unit 11d of the signal processing and control unit 11 determines the distance from the imaging device 1 in each part of the imaging range. The determination result of the distance determination unit 11d is given to the main subject determination unit 11b and the background determination unit 11c. The main subject determination unit 11b determines the main subject in the imaging range based on the determination result of the distance determination unit 11d. For example, the main subject determination unit 11b determines an object having the smallest distance from the photographing device 1 as the main subject.

また、背景判定部11cは、距離判定部11dの判定結果に基づいて、撮像範囲中の背景部分を判定する。例えば、背景判定部11cは、撮像範囲中の周囲の被写体であって、撮影機器1からの距離が比較的大きい被写体を背景部分と判定する。更に、3D効果判定部を構成する背景判定部11cは、判定した背景部分において撮影機器1からの距離の変化が小さいか否かに基づいて、背景部分を画像欠落部に流用するか否かを判定する。   Moreover, the background determination part 11c determines the background part in an imaging range based on the determination result of the distance determination part 11d. For example, the background determination unit 11c determines a subject that is a surrounding subject in the imaging range and has a relatively large distance from the photographing device 1 as a background portion. Further, the background determination unit 11c constituting the 3D effect determination unit determines whether or not to divert the background part to the image missing part based on whether or not the change in the distance from the imaging device 1 is small in the determined background part. judge.

図5及び図6は背景部分を画像欠落部に流用するか否かの判定方法の一例を示す説明図である。   5 and 6 are explanatory diagrams showing an example of a method for determining whether or not the background portion is diverted to the image missing portion.

背景判定部11cは、主被写体と撮像範囲端部との間の背景部分において、その両端部の距離が略一致している場合には、背景部分において撮影機器1からの距離の変化が小さく、画像欠落部分に流用できるものと判定する。図5の丸印は、判定に用いる位置を示している。   The background determination unit 11c has a small change in the distance from the photographing device 1 in the background portion when the distance between the both ends of the background portion between the main subject and the imaging range end portion is substantially the same. It is determined that the image can be diverted to the missing part. Circles in FIG. 5 indicate positions used for determination.

即ち、背景判定部11cは、主被写体の左側の背景部分について、図5の丸印部分同士の距離の差を求める。背景判定部11cは、求めた差が所定の閾値よりも小さい場合には、背景部分において撮影機器1からの距離の変化が小さく、画像欠落部分に流用できるものと判定する。背景判定部11cは、主被写体の右側の背景部分についても、同様にして流用可能か否かの判定を行うことができる。   That is, the background determination unit 11c calculates the difference in distance between the circled portions in FIG. 5 for the background portion on the left side of the main subject. When the obtained difference is smaller than the predetermined threshold, the background determination unit 11c determines that the change in the distance from the imaging device 1 is small in the background portion and can be used for the image missing portion. The background determination unit 11c can similarly determine whether or not the background portion on the right side of the main subject can be used.

図5(a)は背景部分において撮影機器1からの距離の変化が小さく、画像欠落部分に流用できると判定される例を示している。また、図5(b)は主被写体の左側の背景部分は、画像欠落部分に流用できると判定される例を示しているが、主被写体の右側の背景部分は、背景部分において撮影機器1からの距離の変化が比較的大きく、画像欠落部分に流用できないと判定される例を示している。   FIG. 5A shows an example in which it is determined that the change in the distance from the imaging device 1 is small in the background portion and that it can be used for the image missing portion. FIG. 5B shows an example in which it is determined that the background portion on the left side of the main subject can be diverted to the image missing portion, but the background portion on the right side of the main subject is from the photographing device 1 in the background portion. In this example, it is determined that the change in the distance is relatively large and cannot be used for the missing image portion.

図6は距離の判定方法の一例を示すものである。図6は撮像部2が2つの撮像素子2aを有する場合の手法の一例を示しており、3つの被写体30〜32の撮像素子2a上の結像位置間の距離によって、被写体までの距離が同一か否かを判定するものである。被写体30,31は撮影機器1からの距離が同一であり、左右の撮像素子2aに結像される被写体30,31の像間の距離は、左右の撮像素子2aにおいて等しい距離V1である。また、撮影機器1からの距離が異なる被写体31,32については、左右の撮像素子2aに結像される被写体31,32の像間の距離は、左右の撮像素子2aにおいて異なり、夫々V2,V3である。   FIG. 6 shows an example of a distance determination method. FIG. 6 shows an example of a method in the case where the imaging unit 2 includes two imaging elements 2a, and the distance to the subject is the same depending on the distance between the imaging positions on the imaging element 2a of the three subjects 30 to 32. Whether or not. The subjects 30 and 31 have the same distance from the photographing device 1, and the distance between the images of the subjects 30 and 31 formed on the left and right imaging elements 2a is the same distance V1 in the left and right imaging elements 2a. For the subjects 31 and 32 having different distances from the photographing device 1, the distance between the images of the subjects 31 and 32 formed on the left and right imaging elements 2a is different in the left and right imaging elements 2a, and V2 and V3, respectively. It is.

背景判定部11cは、各被写体の像間の距離を左右の撮像素子2a間で比較することにより、撮影機器1から2つの位置における被写体までの距離が略一致しているか否かを判定することができる。   The background determination unit 11c determines whether or not the distances from the photographing device 1 to the subject at the two positions are substantially the same by comparing the distance between the images of each subject between the left and right imaging elements 2a. Can do.

3D効果判定部を構成する共通撮影範囲判定部11fは、左右画像の共通撮影範囲を判定する。共通撮影範囲判定部11fは、共通撮影範囲の判定結果に基づいて、画像欠落部分のサイズを求めて、補助画像生成部11gに与える。なお、共通撮影範囲判定部11fは、画像欠落部分のサイズが所定の閾値以内である場合には、補助画像の生成は不要であるものと判定して、画像欠落部分のサイズが0であることを示す情報を出力するようにしてもよい。   The common shooting range determination unit 11f constituting the 3D effect determination unit determines the common shooting range of the left and right images. The common shooting range determination unit 11f obtains the size of the missing image portion based on the determination result of the common shooting range, and gives it to the auxiliary image generation unit 11g. If the size of the missing image portion is within a predetermined threshold, the common shooting range determination unit 11f determines that the generation of the auxiliary image is unnecessary, and the size of the missing image portion is 0. May be output.

例えば、共通撮影範囲判定部11fは、主被写体比率が画面サイズの1/3よりも小さくなると、補助画像の生成は不要であると判定してもよい。例えば、共通撮影範囲判定部11fは、主被写体を顔検出などで判定し、それが占める割合が1/3以下なら、残りの2/3に背景が写って、十分に遠近感が楽しめる可能性が高いものと考えて、背景合成を行わない。例えば、図2の距離l1の被写体は顔が大きく写って背景情報がなくなる可能性が高いが、距離l2の被写体では十分に背景が映り込み、遠近感の情報が得られる。なお、判定閾値のサイズを画面サイズの1/3としたのは、もちろん、視差や輻輳角などに依存するもので、視差が大きい場合は左右画像に差異がなくなって、合成の効果も小さくなることから、例えば画面サイズの1/2にしてもよい。   For example, the common shooting range determination unit 11f may determine that the generation of the auxiliary image is unnecessary when the main subject ratio is smaller than 1/3 of the screen size. For example, the common shooting range determination unit 11f determines the main subject by face detection or the like, and if the ratio occupied by the main subject is 1/3 or less, the background is reflected in the remaining 2/3, and there is a possibility that the perspective can be fully enjoyed. Do not perform background composition. For example, the subject at a distance l1 in FIG. 2 is likely to have a large face and no background information, but the subject at a distance l2 is sufficiently reflected in the background, and perspective information can be obtained. Note that the size of the determination threshold is set to 1/3 of the screen size, of course, depending on the parallax, the convergence angle, etc. When the parallax is large, there is no difference between the left and right images, and the effect of synthesis is also reduced. Therefore, for example, it may be ½ of the screen size.

補助画像生成部11gは、背景判定部11cによって画像欠落部に流用可能であると判定された背景部分に基づく補助画像を生成する。補助画像生成部11gは、共通撮影範囲判定部11fから画像欠落部分に流用する補助画像のサイズを求め、主被写体の左右の背景部分から必要なサイズを切り出して、補助画像を生成する。なお、補助画像生成部11gは、主被写体の左右の背景部分のいずれか一方の背景部分を用いて補助画像を生成すればよい。   The auxiliary image generation unit 11g generates an auxiliary image based on the background portion determined to be divertable by the background determination unit 11c to the image missing part. The auxiliary image generation unit 11g obtains the size of the auxiliary image to be diverted from the common shooting range determination unit 11f to the image missing portion, and cuts out the necessary size from the left and right background portions of the main subject to generate an auxiliary image. The auxiliary image generation unit 11g may generate an auxiliary image using one of the left and right background portions of the main subject.

合成部11hは、共通撮影範囲の主被写体の画像部分と補助画像とを合成する。これにより、合成部11hからの3D画像は、被写体までの距離に拘わらず、同一サイズとなる。また、主被写体までの距離が近い場合でも、中央の主被写体の左右に背景が追加されるので、立体感のある画像を得ることができる。   The combining unit 11h combines the image portion of the main subject in the common shooting range and the auxiliary image. Thereby, the 3D image from the synthesis unit 11h has the same size regardless of the distance to the subject. In addition, even when the distance to the main subject is short, the background is added to the left and right of the central main subject, so that a three-dimensional image can be obtained.

なお、共通撮影範囲判定部11fは、画像欠落部分のサイズが所定の閾値以内であるか否かによって、画像欠落部分に相当する背景画像を合成するか否か決定している。画像欠落部分のサイズは、左右画像の視差、即ち、立体感に関係する。即ち、共通撮影範囲判定部11fは、十分な立体感を得られるべき画像であるか否か、即ち、3D効果を判定して画像欠落部分に相当する背景画像を合成するか否かを決定している。従って、画像欠落部分に相当する背景画像を合成するか否かを、共通撮影範囲判定部11fに代えて3D効果判定を行う他の回路によって決定してもよい。   Note that the common imaging range determination unit 11f determines whether or not to synthesize a background image corresponding to the image missing portion depending on whether or not the size of the image missing portion is within a predetermined threshold. The size of the image missing part is related to the parallax of the left and right images, that is, the stereoscopic effect. That is, the common shooting range determination unit 11f determines whether or not the image should have a sufficient stereoscopic effect, that is, whether or not the background image corresponding to the missing image portion is synthesized by determining the 3D effect. ing. Therefore, whether or not to synthesize a background image corresponding to an image missing portion may be determined by another circuit that performs 3D effect determination instead of the common imaging range determination unit 11f.

次に、このように構成された実施の形態の動作について図7乃至図11を参照して説明する。図7は撮像部2として2つの撮像素子2aを有する場合の動作フローを示すフローチャートであり、図8は背景部分を画像欠落部分に流用可能であるか否かを判定するためのフローチャートである。また、図11は撮像部2として1つの撮像素子2aのみを有する場合の動作フローを示すフローチャートである。   Next, the operation of the embodiment configured as described above will be described with reference to FIGS. FIG. 7 is a flowchart showing an operation flow in the case of having two image sensors 2a as the imaging unit 2, and FIG. 8 is a flowchart for determining whether or not the background portion can be diverted to the image missing portion. FIG. 11 is a flowchart showing an operation flow when the imaging unit 2 has only one image sensor 2a.

撮影機器1に電源が投入されると、信号処理及び制御部11は、図7のステップS11において、撮影モードであるか否かを判定する。撮影モードでない場合には、信号処理及び制御部11は、ステップS12において再生モードであるか否かを判定する。   When the photographing apparatus 1 is turned on, the signal processing and control unit 11 determines whether or not the photographing mode is in step S11 of FIG. When the shooting mode is not set, the signal processing and control unit 11 determines whether or not the playback mode is set in step S12.

信号処理及び制御部11は、ステップS12において再生モードが指示されたものと判定すると、ステップS12から処理をステップS13に移行して、記録部8によって記録されたファイルの一覧の情報を読み出し、ファイル一覧表示を表示部7に表示させる。   If the signal processing and control unit 11 determines that the reproduction mode is instructed in step S12, the process proceeds from step S12 to step S13, and reads the information of the list of files recorded by the recording unit 8, A list display is displayed on the display unit 7.

ファイル一覧の表示時に、ユーザがファイル選択を行うと(ステップS14)、信号処理及び制御部11は、選択されたファイルを記録再生制御部11aを介して読み出し、復号化処理を行って、画像信号及び音声信号を再生する(ステップS15)。信号処理及び制御部11は、再生した画像信号及び音声信号を表示部7に与えて表示させる。   When the user selects a file at the time of displaying the file list (step S14), the signal processing and control unit 11 reads out the selected file via the recording / playback control unit 11a, performs a decoding process, and outputs an image signal. Then, the audio signal is reproduced (step S15). The signal processing and control unit 11 gives the reproduced image signal and audio signal to the display unit 7 for display.

なお、ファイル一覧表示時に、終了操作が行われた場合には、信号処理及び制御部11は、処理をステップS14からステップS16に移行して再生モードを終了する。   If an end operation is performed when the file list is displayed, the signal processing and control unit 11 moves the process from step S14 to step S16 and ends the playback mode.

信号処理及び制御部11は、ステップS11において撮影モードが指示されているものと判定した場合には、ステップS21において3Dモードが指示されているか否かを判定する。3Dモードでない場合には、信号処理及び制御部11は、ステップS22において、表示部7の表示画面上にスルー画を表示する。即ち、信号処理及び制御部11は、撮像部2からの撮像画像を取込み、所定の信号処理を施した後、表示制御部11eによって表示部7に出力する。こうして、表示部7の表示画面上においてスルー画が表示される。   If the signal processing and control unit 11 determines in step S11 that the shooting mode is instructed, it determines in step S21 whether or not the 3D mode is instructed. If not in the 3D mode, the signal processing and control unit 11 displays a through image on the display screen of the display unit 7 in step S22. That is, the signal processing and control unit 11 takes a captured image from the imaging unit 2, performs predetermined signal processing, and then outputs the captured image to the display unit 7 by the display control unit 11e. In this way, a through image is displayed on the display screen of the display unit 7.

信号処理及び制御部11は、ステップS23において、撮影操作が行われたか否かを判定する。ここで、撮影者がレリーズボタンを押すと、処理はステップS23からステップS24に移行して撮影が行われる。信号処理及び制御部11は、ステップS25において、撮像部2からの撮像画像に対して所定の信号処理を施し符号化して画像ファイル化した後、記録部8に与えて記録する。   In step S23, the signal processing and control unit 11 determines whether or not a photographing operation has been performed. Here, when the photographer presses the release button, the process proceeds from step S23 to step S24, and photographing is performed. In step S <b> 25, the signal processing and control unit 11 performs predetermined signal processing on the captured image from the imaging unit 2, encodes it into an image file, and then provides the recording unit 8 for recording.

信号処理及び制御部11は、ステップS21において撮影者が3Dモードを指示したものと判定した場合には、ステップS31において左右画像を取得する。次のステップS32〜S39は、共通撮影範囲の画像に、背景画像を補助画像として合成する処理を示している。先ず、ステップS32において、背景画像の追加の要否が判定される。   If the signal processing and control unit 11 determines in step S21 that the photographer has instructed the 3D mode, the signal processing and control unit 11 acquires left and right images in step S31. The next steps S32 to S39 show processing for synthesizing a background image as an auxiliary image to an image in the common shooting range. First, in step S32, it is determined whether a background image needs to be added.

共通撮影範囲判定部11fは、左右画像の共通撮影範囲を判定する。共通撮影範囲判定部11fは、共通撮影範囲の判定結果に基づいて、画像欠落部分のサイズを求める。例えば、共通撮影範囲判定部11fは、画像欠落部分のサイズが所定の閾値以内である場合には、補助画像の生成は不要であるものと判定して、画像欠落部分のサイズが0であることを示す情報を出力する。この場合には、ステップS32〜S39の処理がスキップされる。例えば、共通撮影範囲判定部11fは、主被写体比率が画面の1/3よりも小さい場合には、補助画像の生成は不要であると判定する。   The common shooting range determination unit 11f determines the common shooting range of the left and right images. The common shooting range determination unit 11f obtains the size of the image missing portion based on the determination result of the common shooting range. For example, if the size of the missing image portion is within a predetermined threshold, the common shooting range determination unit 11f determines that the generation of the auxiliary image is unnecessary, and the size of the missing image portion is 0. The information indicating is output. In this case, the processes in steps S32 to S39 are skipped. For example, the common shooting range determination unit 11f determines that the generation of the auxiliary image is unnecessary when the main subject ratio is smaller than 1/3 of the screen.

共通撮影範囲判定部11fによって、背景画像の追加が必要と判断されると、距離判定部11dは、被写体までの距離を測距して、距離の計測結果を主被写体判定部11b及び背景判定部11cに出力する。主被写体判定部11bは、距離の計測結果に基づいて主被写体を判定し(ステップS33)、背景判定部11cは、距離の計測結果に基づいて背景部分を判定する(ステップS34)。   When it is determined by the common shooting range determination unit 11f that a background image needs to be added, the distance determination unit 11d measures the distance to the subject, and the distance measurement result is used as the main subject determination unit 11b and the background determination unit. To 11c. The main subject determination unit 11b determines the main subject based on the distance measurement result (step S33), and the background determination unit 11c determines the background portion based on the distance measurement result (step S34).

次に、背景判定部11cは、ステップS35,S36において、背景部分が画像欠落部分に流用可能であるか否かを判定する。図7の例では先ず左画像の左背景の判定が行われる。図5の説明では、主被写体の左右背景部分の距離変化が比較的小さいか否かによって、背景部分を画像欠落部分に流用可能であるか否かを判定する例について説明した。   Next, in steps S35 and S36, the background determination unit 11c determines whether or not the background portion can be used for the image missing portion. In the example of FIG. 7, the left background of the left image is first determined. In the description of FIG. 5, an example has been described in which it is determined whether or not the background portion can be diverted to the image missing portion based on whether or not the distance change between the left and right background portions of the main subject is relatively small.

更に、本実施の形態においては、図5の判定方法に加えて、図8のフローに従って背景部分を画像欠落部分に流用可能であるか否かを判定する例について説明する。図9及び図10は図8のフローを説明するための説明図である。なお、図5の判定方法を採用することなく、図8のフローのみによって背景部分を画像欠落部分に流用可能であるか否かを判定するようにしてもよい。   Furthermore, in the present embodiment, an example will be described in which it is determined whether or not the background portion can be diverted to the image missing portion according to the flow of FIG. 8 in addition to the determination method of FIG. 9 and 10 are explanatory diagrams for explaining the flow of FIG. Note that it may be determined whether the background portion can be diverted to the image missing portion only by using the flow of FIG. 8 without adopting the determination method of FIG.

背景判定部11cは、図8のステップS51において、左右画像の位置合わせを行う。この場合には、背景部分の画像を一致させる。図9は一致させる画像部分の判定方法を示している。図9は横軸に撮影範囲内の所定の水平線上の位置をとり縦軸に1/L(距離)をとって、水平線上の被写体までの距離の分布を示している。図9は実線が右画像を示し、破線が左画像を示している。実線に示す右画像は、左画像に比べて撮影範囲の右側まで撮像部分が伸び、破線に示す左画像は、右画像に比べて撮影範囲の左側まで撮像部分が伸びている。左右方向の中央が被写体存在部分であり、その左右は背景部分である。   The background determination unit 11c aligns the left and right images in step S51 of FIG. In this case, the background image is matched. FIG. 9 shows a method for determining an image portion to be matched. FIG. 9 shows the distribution of distances to the subject on the horizontal line, with the horizontal axis representing the position on a predetermined horizontal line within the imaging range and the vertical axis representing 1 / L (distance). In FIG. 9, the solid line indicates the right image, and the broken line indicates the left image. In the right image shown by the solid line, the imaging part extends to the right side of the shooting range compared to the left image, and in the left image shown by the broken line, the imaging part extends to the left side of the shooting range compared to the right image. The center in the left-right direction is the subject existing portion, and the left and right are the background portions.

背景判定部11cは、背景部分において右画像と左画像の距離が同様に変化する部分は、同一絵柄の背景部分である可能性が高い。そこで、背景判定部11cは、背景部分の距離が右画像と左画像で同様に変化する部分が一致するように、右画像と左画像との位置合わせを行う。
次に、背景判定部11cは、左右画像のうち一方の画像の欠落している画像部分を、他方の画像を流用して補正する。図10(a)は被写体41〜43の結像位置を示し、図10(b)は図10(a)の各各被写体41〜43の距離分布を示している。図10において実線は右画像を示し、破線は左画像を示している。
In the background determination unit 11c, a portion where the distance between the right image and the left image changes in the background portion is likely to be a background portion of the same pattern. Therefore, the background determination unit 11c aligns the right image and the left image so that the portions where the distance of the background portion similarly changes in the right image and the left image match.
Next, the background determination unit 11c corrects the missing image portion of one of the left and right images by using the other image. FIG. 10A shows the imaging positions of the subjects 41 to 43, and FIG. 10B shows the distance distribution of each of the subjects 41 to 43 in FIG. In FIG. 10, the solid line indicates the right image, and the broken line indicates the left image.

図10(b)に示すように、撮像範囲の左端部側には、右画像の画像欠落部が存在し、撮像範囲の右端部側には、左画像の画像欠落部が存在する。左右画像のうちの一方の画像の画像欠落部を他方の画像の画像端部の背景画像によって補正するためには、他方の画像の画像端部に一方の画像の画像欠落部に相当する画像が存在することが必要である。本実施の形態においては、背景部分の両端の距離の変化が比較的小さいと共に、一方の画像の画像欠落部の画素値と他方の画像の画像端部の画素値とが略等しいことによって、他方の画像端部を流用可能であると判定する。   As shown in FIG. 10B, an image missing portion of the right image exists on the left end side of the imaging range, and an image missing portion of the left image exists on the right end portion side of the imaging range. In order to correct the image missing portion of one image of the left and right images with the background image at the image end portion of the other image, an image corresponding to the image missing portion of one image is present at the image end portion of the other image. It is necessary to exist. In the present embodiment, the change in the distance between both ends of the background portion is relatively small, and the pixel value of the image missing portion of one image is substantially equal to the pixel value of the image end portion of the other image, whereby the other Are determined to be divertable.

即ち、背景判定部11cは、左画像について主被写体の左側の背景部分の距離変化が比較的小さいか否かを判定した後、次に、右画像の左端部と同じ位置における左画像の画素値を求める(ステップS52)。右画像の左端部の画素値と左画像の対応する位置の画素値とが略同一である場合には、右画像の左端部を延長した画像に相当する画像が左画像の左端部に存在するものと推定することができる。背景判定部11cは、ステップS53において、対応する画素位置の画素同士を比較し、画素値の差分が所定の閾値以内であるか否かを判定する(ステップS54)。   That is, the background determination unit 11c determines whether the change in the distance of the left background portion of the main subject is relatively small for the left image, and then the pixel value of the left image at the same position as the left end of the right image. Is obtained (step S52). When the pixel value at the left end of the right image is substantially the same as the pixel value at the corresponding position in the left image, an image corresponding to an image obtained by extending the left end of the right image is present at the left end of the left image. It can be estimated. In step S53, the background determination unit 11c compares the pixels at corresponding pixel positions, and determines whether or not the difference between the pixel values is within a predetermined threshold (step S54).

背景判定部11cは、左画像について主被写体の左側の背景部分の距離変化が比較的小さく、右画像の左端部の画素とその画素の同じ位置における左画像の画素値との差が所定の閾値以内である場合には、左画像の左背景部分を右画像の左の画像欠落部分に流用可能であると判定して、処理をステップS37に移行する。   The background determination unit 11c has a relatively small change in the distance of the left background portion of the main subject in the left image, and the difference between the left end pixel of the right image and the pixel value of the left image at the same position of the pixel is a predetermined threshold value. If it is within the range, it is determined that the left background portion of the left image can be diverted to the left image missing portion of the right image, and the process proceeds to step S37.

共通撮影範囲判定部11fは、画像欠落部分に対応した補助画像のサイズを補助画像生成部11gに出力しており、補助画像生成部11gは、左画像の左側の背景部分から共通撮影範囲判定部11fの出力に基づくサイズを切り出して補助画像を生成する。この補助画像が合成部11hに与えられ、合成部11hは、右画像の左側に補助画像を合成する(ステップS37)。   The common shooting range determination unit 11f outputs the size of the auxiliary image corresponding to the missing image portion to the auxiliary image generation unit 11g, and the auxiliary image generation unit 11g starts the common shooting range determination unit from the left background portion of the left image. The auxiliary image is generated by cutting out the size based on the output of 11f. This auxiliary image is given to the combining unit 11h, and the combining unit 11h combines the auxiliary image with the left side of the right image (step S37).

背景判定部11cは、ステップS35において、左画像の左側の背景部分の距離変化が比較的大きいものと判定した場合、又はステップS54においてNOの判定になった場合には、次のステップS36において、右画像の右側の背景部分を左画像の右側の画像として流用可能か否かを判定する。即ち背景判定部11cは、先ず、右画像の右側の背景部分における距離変化が比較的小さいか否かを判定する。距離変化が小さい場合には、背景判定部11cは、図8のステップS51〜S54の処理を繰り返す。   If the background determination unit 11c determines in step S35 that the distance change of the left background portion of the left image is relatively large, or if the determination in step S54 is NO, in step S36, It is determined whether the right background part of the right image can be used as the right image of the left image. That is, the background determination unit 11c first determines whether or not the change in distance in the right background portion of the right image is relatively small. When the distance change is small, the background determination unit 11c repeats the processes of steps S51 to S54 in FIG.

即ち、背景判定部11cは、ステップS51において、左右画像の位置合わせを行った後、左画像の右端部と同じ位置における右画像の画素値を求める(ステップS52)。次に、背景判定部11cは、ステップS53において、対応する画素位置の画素同士を比較し、画素値の差分が所定の閾値以内であるか否かを判定する(ステップS54)。   That is, the background determination unit 11c obtains the pixel value of the right image at the same position as the right end of the left image after aligning the left and right images in step S51 (step S52). Next, in step S53, the background determination unit 11c compares the pixels at corresponding pixel positions, and determines whether or not the pixel value difference is within a predetermined threshold (step S54).

背景判定部11cは、右画像について主被写体の右側の背景部分の距離変化が比較的小さく、左画像の右端部の画素とその画素の同じ位置における右画像の画素値との差が所定の閾値以内である場合には、右画像の右背景部分を左画像の右の画像欠落部分に流用可能であると判定して、処理をステップS38に移行する。   The background determination unit 11c has a relatively small change in the distance of the right background portion of the main subject in the right image, and the difference between the pixel at the right end of the left image and the pixel value of the right image at the same position of the pixel is a predetermined threshold value. If it is within the range, it is determined that the right background portion of the right image can be diverted to the right image missing portion of the left image, and the process proceeds to step S38.

補助画像生成部11gは、右画像の右側の背景部分から共通撮影範囲判定部11fの出力に基づくサイズを切り出して補助画像を生成する。この補助画像が合成部11hに与えられ、合成部11hは、左画像の右側に補助画像を合成する(ステップS38)。   The auxiliary image generation unit 11g generates an auxiliary image by cutting out the size based on the output of the common imaging range determination unit 11f from the right background portion of the right image. This auxiliary image is given to the synthesizing unit 11h, and the synthesizing unit 11h synthesizes the auxiliary image on the right side of the left image (step S38).

ステップS35,36において、背景判定部11cにおいて左右画像の左右の背景部分の距離変化が比較的大きいと判定された場合、又はステップS54においてNOの判定となった場合には、補助画像の合成は行われない。この場合には、ステップS39において、画像が欠落していることを示す警告表示が表示される。   In steps S35 and 36, if the background determination unit 11c determines that the distance change between the left and right background portions of the left and right images is relatively large, or if the determination in step S54 is NO, the auxiliary image is synthesized. Not done. In this case, a warning display indicating that an image is missing is displayed in step S39.

また、撮像部2として1つの撮像素子2aのみを採用した2D撮影用が用いられた場合には、図11のフローが実施される。図11において図7と同一の手順には同一符号を付して説明を省略する。図11においては、3Dモードが指示されると、信号処理及び制御部11は、ステップS45において撮影操作が行われたか否かを判定する。撮影者によってレリーズボタンが押されると、信号処理及び制御部11は、連続撮影を行う(ステップS46)。撮影者は、撮影機器1を例えば水平に動かしながらレリーズボタンを操作する。これにより、信号処理及び制御部11の連続撮影によって、右画像及び左画像を取得することができる。   In addition, when 2D imaging using only one image sensor 2a is used as the imaging unit 2, the flow of FIG. 11 is performed. In FIG. 11, the same steps as those in FIG. In FIG. 11, when the 3D mode is instructed, the signal processing and control unit 11 determines whether or not a photographing operation has been performed in step S45. When the release button is pressed by the photographer, the signal processing and control unit 11 performs continuous shooting (step S46). The photographer operates the release button while moving the photographing device 1 horizontally, for example. Thereby, the right image and the left image can be acquired by the signal processing and the continuous shooting of the control unit 11.

ステップS31〜S39における補助画像の生成処理は、図7と同様である。図11においては、補助画像が生成されている場合には、ステップS47において、信号処理及び制御部11は、補助画像を共通撮影範囲の画像に合成し3D表示を行う。ユーザは、3D表示を確認し、所望の3D撮影が行われた判断した場合に、記録操作を行う。これにより、ステップS48からステップS25に処理が移行して、合成部11hからの合成画像が記録再生制御部11aによって記録部8記録される。   The auxiliary image generation process in steps S31 to S39 is the same as that in FIG. In FIG. 11, when an auxiliary image is generated, in step S47, the signal processing and control unit 11 synthesizes the auxiliary image with an image in the common shooting range and performs 3D display. The user confirms the 3D display, and performs a recording operation when determining that the desired 3D shooting has been performed. As a result, the process proceeds from step S48 to step S25, and the synthesized image from the synthesis unit 11h is recorded in the recording unit 8 by the recording / playback control unit 11a.

このように本実施の形態においては、被写体の背景部分を切り出して補助画像を生成し、共通撮影範囲の画像に補助画像を合成することで3D画像を得ており、被写体までの距離が比較的近い場合など、画面内に背景が写る部分が少ない場合でも、被写体の左右に背景の画像を追加することができ、被主写体が近距離であることを強調し適切な遠近感を得ることができる。また、補助画像とする背景部分の距離変化が比較的小さいか否かによって、背景部分を画像欠落部分に流用するか否かを決定しており、流用によって3D効果や自然さが劣化することを防止することができる。   As described above, in the present embodiment, the background portion of the subject is cut out to generate an auxiliary image, and the auxiliary image is combined with the image in the common shooting range to obtain a 3D image, and the distance to the subject is relatively small. Even when there are few areas where the background appears on the screen, such as when the subject is close, it is possible to add background images to the left and right of the subject, emphasizing that the subject subject is close, and obtaining an appropriate perspective. Can do. Further, whether or not the background portion is diverted to the image missing portion is determined depending on whether or not the distance change of the background portion as the auxiliary image is relatively small, and the 3D effect and naturalness are deteriorated by diversion. Can be prevented.

なお、上記実施の形態においては、左右画像の一方の画像の一方端の画像欠落部に、他方の画像の一方端の背景画像を合成する例について説明したが、左右画像の一方の画像の両方の画像欠落部に、他方の画像の両方の背景画像を合成するようにしてもよい。   In the above embodiment, the example in which the background image at one end of the other image is combined with the image missing portion at one end of one of the left and right images has been described. It is also possible to combine both background images of the other image in the image missing portion.

1…撮影機器、2…撮像部、3…操作判定部、7…表示部、8…記録部、11…信号処理及び制御部、11a…記録再生制御部、11b…主被写体判定部、11c…背景判定部、11d…距離判定部、11e…表示制御部、11f…共通撮影範囲判定部、11g…補助画像生成部、11h…合成部。     DESCRIPTION OF SYMBOLS 1 ... Imaging device, 2 ... Imaging part, 3 ... Operation determination part, 7 ... Display part, 8 ... Recording part, 11 ... Signal processing and control part, 11a ... Recording / reproduction control part, 11b ... Main subject determination part, 11c ... Background determination unit, 11d ... distance determination unit, 11e ... display control unit, 11f ... common shooting range determination unit, 11g ... auxiliary image generation unit, 11h ... synthesis unit.

Claims (3)

1回又は複数回の撮像によって視差が異なる複数の画像を得る撮像部と、
上記撮像部で得られた上記複数の画像の中央部における被写体の左右の背景部分の距離の変化が所定の閾値よりも小さいか否かを各背景部分毎に判定し、小さいと判定した上記背景部分を流用可能と判定する背景判定部と、
上記背景判定部の判定結果によって流用可能と判定された上記背景部分を、上記中央部の画像に合成する合成部と
を具備したことを特徴とする撮影機器。
An imaging unit that obtains a plurality of images with different parallaxes by one or more imagings;
It is determined for each background part whether or not the change in the distance between the left and right background parts of the subject in the central part of the plurality of images obtained by the imaging unit is smaller than a predetermined threshold, and the background determined to be small A background determination unit that determines that the portion can be diverted;
An imaging apparatus, comprising: a combining unit that combines the background portion determined to be divertable based on the determination result of the background determination unit with the image in the center portion.
上記複数の画像の共通撮影範囲を判定し、当該共通撮影範囲の判定結果に基づいて画像欠落分のサイズを求め、当該画像欠落部分のサイズが所定の閾値以内の場合には、上記合成部の合成を否とする判定を行う共通撮影範囲判定部を具備したことを特徴とする請求項1に記載の撮影機器。 Determining a common photographing range of the plurality of images, determine the size of the image missing component based on the common shooting range of the determination result, the size of the image missing portion in the case within a predetermined threshold, the combining unit The photographing apparatus according to claim 1, further comprising a common photographing range determination unit configured to determine whether or not to combine. 上記背景判定部は、上記複数の画像中の背景部分における対応する画素位置の画素同士の比較に基づいて上記背景部分を流用可能か否かを更に判定する。
ことを特徴とする請求項1又は2に記載の撮影機器。
The background determination unit further determines whether or not the background portion can be diverted based on a comparison between pixels at corresponding pixel positions in the background portions in the plurality of images.
The photographing apparatus according to claim 1, wherein the photographing apparatus is characterized.
JP2011021013A 2011-02-02 2011-02-02 Photography equipment Expired - Fee Related JP5751472B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011021013A JP5751472B2 (en) 2011-02-02 2011-02-02 Photography equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011021013A JP5751472B2 (en) 2011-02-02 2011-02-02 Photography equipment

Publications (2)

Publication Number Publication Date
JP2012161034A JP2012161034A (en) 2012-08-23
JP5751472B2 true JP5751472B2 (en) 2015-07-22

Family

ID=46841177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011021013A Expired - Fee Related JP5751472B2 (en) 2011-02-02 2011-02-02 Photography equipment

Country Status (1)

Country Link
JP (1) JP5751472B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4174001B2 (en) * 2002-09-27 2008-10-29 シャープ株式会社 Stereoscopic image display apparatus, recording method, and transmission method
JP2010252046A (en) * 2009-04-15 2010-11-04 Olympus Imaging Corp Image pickup apparatus

Also Published As

Publication number Publication date
JP2012161034A (en) 2012-08-23

Similar Documents

Publication Publication Date Title
JP5214826B2 (en) Stereoscopic panorama image creation device, stereo panorama image creation method, stereo panorama image creation program, stereo panorama image playback device, stereo panorama image playback method, stereo panorama image playback program, and recording medium
JP5249149B2 (en) Stereoscopic image recording apparatus and method, stereoscopic image output apparatus and method, and stereoscopic image recording and output system
US20120263372A1 (en) Method And Apparatus For Processing 3D Image
EP2590421B1 (en) Single-lens stereoscopic image capture device
JP5371845B2 (en) Imaging apparatus, display control method thereof, and three-dimensional information acquisition apparatus
JP5420075B2 (en) Stereoscopic image reproduction apparatus, parallax adjustment method thereof, parallax adjustment program, and imaging apparatus
JP2006128818A (en) Recording program and reproducing program corresponding to stereoscopic video and 3d audio, recording apparatus, reproducing apparatus and recording medium
JP2011091481A (en) Image processor, image processing method, and program
JP2005167310A (en) Photographing apparatus
JP2012083412A (en) Image processing device, image processing method, and program
JP2009244502A (en) Image processing apparatus, image display apparatus, imaging apparatus and image processing method
WO2011152167A1 (en) Stereoscopic image control device, operation control method for same, and operation control program for same
JP5486697B2 (en) Stereoscopic video playback device, stereoscopic video playback program and recording medium thereof, stereoscopic display device, stereoscopic imaging device, and stereoscopic video playback method
JP5449535B2 (en) Stereo imaging device and control method thereof
US20120236126A1 (en) Image pickup device, image pickup method, program, and integrated circuit
CN103339948B (en) 3D video playing device, 3D imaging device, and 3D video playing method
WO2012101916A1 (en) Stereoscopic video processor, stereoscopic video processing program and recording medium therefor, stereoscopic imaging device and stereoscopic video processing method
JP2009258005A (en) Three-dimensional measuring device and three-dimensional measuring method
JP5347987B2 (en) Video processing device
JP5562122B2 (en) Image processing apparatus and control method thereof
JP5751472B2 (en) Photography equipment
JP5704885B2 (en) Imaging device, imaging method, and imaging control program
WO2012002039A1 (en) Representative image determination device, image compression device, and method for controlling operation of same and program therefor
JP5367747B2 (en) Imaging apparatus, imaging method, and imaging system
JP2011146825A (en) Stereo image photographing device and method for the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150414

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150507

R151 Written notification of patent or utility model registration

Ref document number: 5751472

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees