JP2013046343A - Image pickup device - Google Patents

Image pickup device Download PDF

Info

Publication number
JP2013046343A
JP2013046343A JP2011184660A JP2011184660A JP2013046343A JP 2013046343 A JP2013046343 A JP 2013046343A JP 2011184660 A JP2011184660 A JP 2011184660A JP 2011184660 A JP2011184660 A JP 2011184660A JP 2013046343 A JP2013046343 A JP 2013046343A
Authority
JP
Japan
Prior art keywords
image
captured
subject
unit
main subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011184660A
Other languages
Japanese (ja)
Inventor
Kei Tokui
圭 徳井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2011184660A priority Critical patent/JP2013046343A/en
Publication of JP2013046343A publication Critical patent/JP2013046343A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image pickup device configured to easily photograph solid vision images (left-eye image and right-eye image) by using one imaging element.SOLUTION: An image pickup device 1 includes: an image display section 4 to display a photographing target image captured by an imaging element 2; and an image processing section 5 to obtain a photographed image according to a shutter operation with respect to the photographing target image displayed on the image display section 4. The image processing section 5 cuts a region of a major subject from a first photographed image, and shifts laterally the cut major subject region by a predetermined amount. The image processing section 5 superimposes, as a reference subject region, the major subject region shifted by the predetermined amount on the imaging target image displayed on the image display section 4. When the shutter operation is performed with the reference subject region superimposed thereon, the image processing section 5 obtains the photographing target image as a second photographed image according to the shutter operation.

Description

本発明は、画像撮像装置に関し、より詳細には、立体視用の画像を撮影する画像撮像装置に関する。   The present invention relates to an image capturing apparatus, and more particularly to an image capturing apparatus that captures an image for stereoscopic viewing.

左眼には左眼用の画像を視認させ、右眼には右眼用の画像を視認させ、両画像内の被写体のずれ(視差)により立体像として認識させる立体画像技術が開発されている。立体画像を表示するディスプレイでは、立体画像を見るための眼鏡と組み合わせて、左右の画像を時分割で表示したり、偏光方向を変えて表示したりすることで視聴者に左右画像を分離して視認させるものがある。   A stereoscopic image technique has been developed in which a left eye is visually recognized by the left eye, a right eye is visually recognized by the right eye, and a stereoscopic image is recognized based on a shift (parallax) of a subject in both images. . In a display that displays stereoscopic images, in combination with glasses for viewing stereoscopic images, the left and right images are displayed in a time-sharing manner or by changing the polarization direction to separate the left and right images from the viewer. There is something to see.

一方、立体視用画像(すなわち、左眼用画像と右眼用画像)を撮影可能な画像撮像装置では、左眼用の画像を撮影する左眼用のカメラモジュールと、右眼用の画像を撮影する右眼用のカメラモジュールを備えたものが開発されている。カメラモジュールはレンズなどの光学部品と、光電変換により画像データを取得するセンサなどで構成され、センサには、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)といった固体撮像素子が利用されている。左右それぞれのカメラモジュールで撮影された画像を、立体表示可能なディスプレイで表示することにより立体画像を鑑賞することができる。   On the other hand, in an image capturing apparatus capable of capturing a stereoscopic image (that is, a left-eye image and a right-eye image), a left-eye camera module that captures a left-eye image, and a right-eye image A camera module for the right eye to be photographed has been developed. The camera module is composed of an optical component such as a lens and a sensor that acquires image data by photoelectric conversion. The sensor uses a solid-state image sensor such as a complementary metal oxide semiconductor (CMOS) or a charge coupled device (CCD). Yes. A stereoscopic image can be viewed by displaying images captured by the left and right camera modules on a display capable of stereoscopic display.

一方で、カメラモジュールを2個備えた場合は簡単に立体視用画像を撮影できるが、この場合、装置の大型化、消費電力の増加、コストの増加などが発生してしまう。このため、カメラモジュールを1個しか備えていない画像撮像装置でも立体視用画像を撮影できる方法が提案されている。例えば、同一の被写体を異なる位置から2回撮影することにより立体視用画像を取得する方法がある。   On the other hand, when two camera modules are provided, a stereoscopic image can be easily taken. In this case, however, the apparatus becomes large, the power consumption increases, and the cost increases. For this reason, there has been proposed a method capable of capturing a stereoscopic image even in an image capturing apparatus having only one camera module. For example, there is a method of acquiring a stereoscopic image by photographing the same subject twice from different positions.

しかしながら、異なる位置で2回撮影する場合、撮影範囲が同じになるようにしたり、視差が適度な範囲に収まるようにしたりすることは困難である。この課題を解決する方法として、例えば、特許文献1に記載の方法が挙げられる。この特許文献1では、1回目の撮影画像を2回目の撮影に利用することでフレーミングの正確性を向上させている。具体的には、1回目の撮影画像の一部を、モニタ上にリアルタイム表示される2回目の撮影対象画像に重ねて表示させ、1回目の撮影画像の一部に2回目の撮影対象画像が重なったときに2回目の撮影を行うことで、立体視用画像を取得している。   However, when photographing twice at different positions, it is difficult to make the photographing range the same or to make the parallax within an appropriate range. As a method for solving this problem, for example, a method described in Patent Document 1 can be cited. In Patent Document 1, the accuracy of framing is improved by using the first captured image for the second imaging. Specifically, a part of the first captured image is displayed so as to be superimposed on the second target image displayed in real time on the monitor, and the second target image is displayed on a part of the first captured image. A stereoscopic image is acquired by performing the second shooting when the images overlap.

特開2001−230955号公報JP 2001-230955 A

上記特許文献1に記載の方法では、2回目の撮影を1回目の撮影位置とは異なる位置で行い、1回目の撮影画像の一部に2回目の撮影対象画像が重なったときに2回目の撮影を行っている。このとき、異なる位置への移動を平行に移動してカメラを回転させない場合、無限遠の被写体を除き、1回目の画像の被写体と2回目の画像の被写体とが重なることはない。このため特許文献1に記載の方法では、カメラを平行に移動させて、かつ、カメラを回転させて撮影する必要がある。   In the method described in Patent Document 1, the second shooting is performed at a position different from the first shooting position, and the second shooting target image is overlapped with a part of the first shooting image. Shooting. At this time, when the movement to the different position is moved in parallel and the camera is not rotated, the subject of the first image and the subject of the second image do not overlap except for a subject at infinity. For this reason, in the method described in Patent Document 1, it is necessary to move the camera in parallel and rotate the camera to take an image.

すなわち、1回目の撮影画像から切り出した被写体中央部分(スケール画像)をモニタ上に表示させた状態で、カメラを異なる位置に平行移動させ、さらに、当該位置での映像に含まれる被写体中央部分が、スケール画像に重なるようにカメラを回転させて、スケール画像の位置におおよそ一致したときに撮影し、2回目の撮影画像を取得している。そうすると、特許文献1のスケール画像は視点の異なる2つの画像間の視差を考慮したものではなく、単に位置合わせに用いている。   That is, in a state where the subject central portion (scale image) cut out from the first captured image is displayed on the monitor, the camera is translated to a different position, and the subject central portion included in the video at the position is Then, the camera is rotated so as to overlap the scale image, and the image is taken when it substantially coincides with the position of the scale image, and a second taken image is obtained. Then, the scale image of Patent Document 1 does not take into account the parallax between two images with different viewpoints, but is simply used for alignment.

したがって、カメラの移動量と回転量のバランスが分からないため、立体視したときの立体画像における立体感の調整が困難である。つまり、移動量が小さく回転量も小さい場合には視差が小さすぎて立体感が得られない立体画像となり、移動量が大きく回転量も大きい場合には視差が大きすぎて融像できない立体画像となってしまう。   Therefore, since the balance between the movement amount and the rotation amount of the camera is not known, it is difficult to adjust the stereoscopic effect in the stereoscopic image when stereoscopically viewed. That is, when the amount of movement is small and the amount of rotation is small, the parallax is too small to obtain a stereoscopic effect, and when the amount of movement is large and the amount of rotation is large, the parallax is too large to be fused. turn into.

また、重ね合わせる被写体が近景のときには、遠景被写体を考慮していないため、遠景の被写体の視差が大きくなり過ぎる可能性がある。このような立体視用画像を立体表示可能なディスプレイで見たとき、被写体が融像されなかったり、視聴者の疲労が増加したりする可能性がある。また、重ね合わせる被写体が遠景のときには、近景被写体を考慮していないため、近景の被写体の視差が大きくなり過ぎる可能性がある。このような立体視用画像を立体表示可能なディスプレイで見たとき、同様に、被写体が融像されなかったり、視聴者の疲労が増加したりする可能性がある。さらに、遠景が非常に遠い場合には、カメラを移動させても遠景被写体に視差が生じることがないため、立体視用画像の撮影は困難となる。   In addition, when the subject to be superimposed is a foreground, since the distant subject is not taken into consideration, the parallax of the subject in the far view may be too large. When such a stereoscopic image is viewed on a display capable of stereoscopic display, there is a possibility that the subject is not fused or the viewer's fatigue increases. In addition, when the subject to be superimposed is a distant view, the near view subject is not taken into account, and thus the parallax of the close view subject may become too large. When such a stereoscopic image is viewed on a display capable of stereoscopic display, similarly, the subject may not be fused, or viewer fatigue may increase. Furthermore, when the distant view is very far away, parallax does not occur in the distant subject even if the camera is moved, so that it is difficult to capture a stereoscopic image.

また、画像の一部ではなく画像全体を重ねて2回目の撮影を行うようにした場合、近景と遠景が同時にモニタ画面に重ねて表示されることになるため、様々な視差が発生するとともに、複数の被写体がある場合に、操作者はどの被写体を重ね合わせれば良いのか判断に困るという問題もある。   In addition, when the second image is taken by overlaying the entire image instead of a part of the image, the near view and the distant view are displayed on the monitor screen at the same time. There is also a problem that when there are a plurality of subjects, the operator has difficulty in determining which subject to superimpose.

本発明は、上述のごとき実情に鑑みてなされたもので、1つの撮像素子を用いて、立体視用画像(左眼用画像,右眼用画像)を容易に撮影できるようにした画像撮像装置を提供すること、を目的とする。   The present invention has been made in view of the above-described circumstances, and an image imaging apparatus that can easily capture a stereoscopic image (left-eye image, right-eye image) using a single imaging device. It aims to provide.

上記課題を解決するために、本発明の第1の技術手段は、1つの撮像素子と、該撮像素子により取り込んだ撮影対象画像を表示する画像表示部と、該画像表示部に表示されている撮影対象画像に対するシャッター操作に応じて撮影画像を取得する画像処理部とを備えた画像撮像装置であって、前記画像処理部は、該画像処理部で取得された第1の撮影画像から主要被写体の領域を切り出す主要被写体領域切出部と、該切り出した主要被写体領域を左右方向に所定量シフトさせる画像シフト部と、該所定量シフトさせた主要被写体領域を基準被写体領域として前記画像表示部に表示されている撮影対象画像に重畳させる画像合成部とを備え、前記基準被写体領域が重畳された状態でシャッター操作された場合に、前記画像処理部は、前記シャッター操作に応じて前記撮影対象画像を第2の撮影画像として取得することを特徴としたものである。   In order to solve the above-described problem, the first technical means of the present invention is displayed on one image sensor, an image display unit that displays an image to be captured captured by the image sensor, and the image display unit. An image capturing apparatus including an image processing unit that acquires a captured image in response to a shutter operation on a target image, wherein the image processing unit is configured to obtain a main subject from the first captured image acquired by the image processing unit. A main subject region cutout unit that cuts out the region, an image shift unit that shifts the cut out main subject region by a predetermined amount in the left-right direction, and the main subject region that has been shifted by the predetermined amount as a reference subject region in the image display unit. An image compositing unit that superimposes the image on the image to be captured, and when the shutter is operated with the reference subject region superimposed, the image processing unit Is obtained by said obtaining the captured target image as the second photographic image in response to over operation.

第2の技術手段は、第1の技術手段において、前記画像シフト部によるシフト量は、前記画像撮像装置から前記主要被写体までの距離に基づいて決定されることを特徴としたものである。   According to a second technical means, in the first technical means, a shift amount by the image shift unit is determined based on a distance from the image imaging device to the main subject.

第3の技術手段は、第1の技術手段において、前記画像シフト部によるシフト量は、前記画像撮像装置の焦点距離に基づいて決定されることを特徴としたものである。   According to a third technical means, in the first technical means, a shift amount by the image shift unit is determined based on a focal length of the image pickup device.

第4の技術手段は、第1〜第3のいずれか1の技術手段において、前記画像表示部は、タッチパネルを備え、前記主要被写体領域は、前記画像表示部に表示された第1の撮影画像に対してユーザが前記タッチパネルを介してタッチ操作することで指定されることを特徴としたものである。   According to a fourth technical means, in any one of the first to third technical means, the image display unit includes a touch panel, and the main subject region is a first captured image displayed on the image display unit. The user is designated by performing a touch operation via the touch panel.

第5の技術手段は、第1〜第4のいずれか1の技術手段において、前記撮影対象画像の一部が前記基準被写体領域と略一致したと判定したときに、自動的にシャッター操作を行う制御部を備えたことを特徴としたものである。   The fifth technical means automatically performs a shutter operation when it is determined in any one of the first to fourth technical means that a part of the photographing target image substantially coincides with the reference subject area. A control unit is provided.

第6の技術手段は、第1〜第4のいずれか1の技術手段において、前記撮影対象画像の一部が前記基準被写体領域と略一致したと判定したときに、ユーザに対してシャッター操作を行うように促すための通知を行う制御部を備えたことを特徴としたものである。   A sixth technical means performs a shutter operation on the user when it is determined in any one of the first to fourth technical means that a part of the photographing target image substantially coincides with the reference subject area. It is characterized by including a control unit that performs a notification for prompting to perform.

第7の技術手段は、第1〜第6のいずれか1の技術手段において、前記第1の撮影画像及び前記第2の撮影画像を1つの立体視用画像データとして記憶する画像記憶部を備えたことを特徴としたものである。   A seventh technical means includes an image storage unit that stores the first photographed image and the second photographed image as one stereoscopic image data in any one of the first to sixth technical means. It is characterized by that.

本発明によれば、撮像素子を1つしか備えない場合であっても、第1の撮影画像の主要被写体領域を左右方向に所定量だけシフトさせ、このシフト後の主要被写体領域を基準被写体領域として、モニタ画面にリアルタイム表示されている撮影対象画像に重畳させて撮影することで第2の撮影画像を取得することができるため、視差が適切に調整されたずれ量の少ない立体視用画像(左眼用画像,右眼用画像)を容易に撮影、取得することができる。   According to the present invention, even when only one image sensor is provided, the main subject area of the first captured image is shifted by a predetermined amount in the left-right direction, and the main subject area after the shift is changed to the reference subject area. As a second captured image can be acquired by superimposing on the image to be captured that is displayed in real time on the monitor screen, the stereoscopic image with a small amount of deviation in which the parallax is appropriately adjusted ( Left eye image, right eye image) can be easily taken and acquired.

本発明の一実施形態に係る画像撮像装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image imaging device which concerns on one Embodiment of this invention. 本発明に係る第2の撮影画像を取得するための画像処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image process part for acquiring the 2nd picked-up image which concerns on this invention. 本発明の画像撮像装置による動作例を具体的に説明するための図である。It is a figure for demonstrating the example of an operation | movement by the image imaging device of this invention concretely. 本発明の画像撮像装置による動作例を具体的に説明するための図である。It is a figure for demonstrating the example of an operation | movement by the image imaging device of this invention concretely. 本発明の画像撮像装置による動作例を具体的に説明するための図である。It is a figure for demonstrating the example of an operation | movement by the image imaging device of this invention concretely. 本発明の画像撮像装置による動作例を具体的に説明するための図である。It is a figure for demonstrating the example of an operation | movement by the image imaging device of this invention concretely. 本発明の画像撮像装置による動作例を具体的に説明するための図である。It is a figure for demonstrating the example of an operation | movement by the image imaging device of this invention concretely. 本発明の画像撮像装置による動作例を具体的に説明するための図である。It is a figure for demonstrating the example of an operation | movement by the image imaging device of this invention concretely.

以下、図面を参照しながら、本発明の画像撮像装置に係る好適な実施の形態について説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments according to an image pickup apparatus of the invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る画像撮像装置の構成例を示すブロック図で、図中、1は画像撮像装置を示す。画像撮像装置1は、例えば、デジタルスチルカメラやカメラ付携帯電話機として構成され、撮像素子2、画像記憶部3、画像表示部4、画像処理部5、制御部6、及びキー入力部7を備えている。これら撮像素子2、画像記憶部3、画像表示部4、画像処理部5、及びキー入力部7は、CPUやメモリなどで構成される制御部6に接続されており、制御部6により各部の動作が制御される。   FIG. 1 is a block diagram illustrating a configuration example of an image capturing apparatus according to an embodiment of the present invention. In the figure, 1 indicates the image capturing apparatus. The image capturing apparatus 1 is configured as, for example, a digital still camera or a camera-equipped mobile phone, and includes an image sensor 2, an image storage unit 3, an image display unit 4, an image processing unit 5, a control unit 6, and a key input unit 7. ing. The image pickup device 2, the image storage unit 3, the image display unit 4, the image processing unit 5, and the key input unit 7 are connected to a control unit 6 including a CPU, a memory, and the like. Operation is controlled.

撮像素子2は、例えば、CMOS、CCDなどの固体撮像素子で構成され、光信号を電気信号に変換して出力する。この光電変換出力は、アナログ値の信号状態で図示しないAGC(Automatic Gain Control)アンプにより適宜ゲイン調整された後に、サンプルホールド回路(図示せず)でサンプルホールドされ、さらに、A/D変換回路(図示せず)でデジタル信号に変換されて、画像処理部5に出力される。   The image sensor 2 is composed of, for example, a solid-state image sensor such as a CMOS or a CCD, and converts an optical signal into an electric signal and outputs it. The photoelectric conversion output is appropriately gain-adjusted by an AGC (Automatic Gain Control) amplifier (not shown) in an analog signal state, then sample-held by a sample hold circuit (not shown), and further, an A / D conversion circuit ( (Not shown) is converted into a digital signal and output to the image processing unit 5.

画像処理部5は、図示しないカラープロセス回路、DMA(Direct Memory Access)コントローラ、DRAM(Dynamic Random Access Memory)などを備え、カラープロセス回路は、入力されたデジタル信号に対して補間処理、γ処理などを含むカラープロセス処理を行い、デジタル値の画像データをDMAコントローラに出力する。DMAコントローラは、入力された画像データをDRAMにDMA転送する。   The image processing unit 5 includes a color process circuit (not shown), a DMA (Direct Memory Access) controller, a DRAM (Dynamic Random Access Memory), and the like. The color process circuit performs interpolation processing, γ processing, and the like on the input digital signal. The digital image data is output to the DMA controller. The DMA controller DMA-transfers the input image data to the DRAM.

制御部6は、上記DRAMに転送された画像データを、DRAMから読み出して、図示しないVRAM(Video Random Access Memory)に書き込む処理を行う。画像表示部4は、例えば、バックライト付きカラー液晶パネルとその駆動回路とで構成され、画像撮像装置1の背面側に配設され、撮像素子2により取り込んだ撮影対象画像をモニタ表示することができる。すなわち、画像表示部4は、上記のVRAMに書き込まれた画像データを定期的に読み出し、読み出した画像データに基づく撮影対象画像をリアルタイムでモニタ表示する。   The control unit 6 performs a process of reading the image data transferred to the DRAM from the DRAM and writing it to a VRAM (Video Random Access Memory) (not shown). The image display unit 4 includes, for example, a color liquid crystal panel with a backlight and a driving circuit thereof, and is disposed on the back side of the image pickup device 1 so that a shooting target image captured by the image pickup device 2 can be displayed on a monitor. it can. That is, the image display unit 4 periodically reads out the image data written in the VRAM, and displays on the monitor an image to be captured based on the read image data in real time.

そして、ユーザは画像表示部4に表示された撮影対象画像を見ながら被写体の位置を適宜調整して撮影を実行する。具体的には、画像処理部5は、画像表示部4にリアルタイム表示中の撮影対象画像に対するシャッター操作に応じて撮影画像を取得する。例えば、キー入力部7のシャッタキーがユーザにより押下されると、制御部6は、このシャッタキーの押下を検知して、画像処理部5に撮影を指示するための所定の撮影信号(以下、単に撮影信号という)を出力する。   Then, the user performs shooting while appropriately adjusting the position of the subject while viewing the shooting target image displayed on the image display unit 4. Specifically, the image processing unit 5 acquires a captured image in response to a shutter operation on the image to be captured that is being displayed on the image display unit 4 in real time. For example, when the user presses the shutter key of the key input unit 7, the control unit 6 detects the pressing of the shutter key and detects a predetermined shooting signal (hereinafter, referred to as an image processing unit 5) to instruct shooting. Simply called a shooting signal).

画像処理部5は、制御部6からの撮影信号を受信すると、DRAMに書き込まれている画像信号に基づく撮影画像を取得し、取得した撮影画像を、例えばフラッシュメモリなどの不揮発性メモリで構成される画像記憶部3に記憶する。なお、撮影画像は、例えば、JPEG(Joint Photographic Experts Group)等の圧縮方式で圧縮された後に画像記憶部3に記憶することができる。そして、画像記憶部3に記憶された撮影画像を、ユーザの操作により読み出して、画像表示部4に表示させることができる。あるいは、画像撮像装置1をプリンタに接続すれば、画像記憶部3に記憶された撮影画像を印刷出力することもできる。   When the image processing unit 5 receives a photographic signal from the control unit 6, the image processing unit 5 acquires a photographic image based on the image signal written in the DRAM, and the acquired photographic image is configured by a nonvolatile memory such as a flash memory. Stored in the image storage unit 3. The captured image can be stored in the image storage unit 3 after being compressed by a compression method such as JPEG (Joint Photographic Experts Group). Then, the captured image stored in the image storage unit 3 can be read out by a user operation and displayed on the image display unit 4. Alternatively, if the image capturing apparatus 1 is connected to a printer, the captured image stored in the image storage unit 3 can be printed out.

以上のようにして通常の撮影処理が実行される。本実施形態の画像撮像装置1は、撮像素子を1つしか備えていないため、立体視用画像(左眼用画像,右眼用画像)を撮影するときは2回の撮影を行う。すなわち、1回目の撮影は通常の撮影と同様に行い、撮像素子2により撮影された画像が第1の撮影画像として画像記憶部3に記憶される。そして、2回目の撮影は、第1の撮影画像を利用して行い、第1の撮影画像に対して適切な視差に調整された第2の撮影画像を取得する。   A normal photographing process is executed as described above. Since the image capturing apparatus 1 of the present embodiment includes only one image sensor, when capturing a stereoscopic image (left-eye image, right-eye image), the image capturing apparatus 1 performs two capturing operations. That is, the first shooting is performed in the same manner as the normal shooting, and the image shot by the image sensor 2 is stored in the image storage unit 3 as the first shot image. The second shooting is performed using the first shot image, and a second shot image adjusted to an appropriate parallax with respect to the first shot image is acquired.

図2は、本発明に係る第2の撮影画像を取得するための画像処理部5の構成例を示すブロック図である。画像処理部5は、画像記憶部3から第1の撮影画像を読み出して、第1の撮影画像から主要被写体の領域を切り出す主要被写体領域切出部51と、切り出した主要被写体領域を左右方向に所定量シフトさせる画像シフト部52と、所定量シフトさせた主要被写体領域を基準被写体領域として画像表示部4にリアルタイム表示されている撮影対象画像に重畳させる画像合成部53とを備える。   FIG. 2 is a block diagram illustrating a configuration example of the image processing unit 5 for acquiring the second photographed image according to the present invention. The image processing unit 5 reads the first captured image from the image storage unit 3 and extracts a main subject region extraction unit 51 that extracts the main subject region from the first captured image, and the extracted main subject region in the left-right direction. An image shift unit 52 that shifts a predetermined amount, and an image composition unit 53 that superimposes a main subject region shifted by a predetermined amount as a reference subject region on a shooting target image displayed in real time on the image display unit 4 are provided.

主要被写体領域切出部51では、第1の撮影画像から主要被写体が撮影されていると推定される領域を切り出す。主要被写体領域の推定は、例えば、第1の撮影画像の微分値などに基づきフォーカスが合っている領域を算出する、第1の撮影画像を撮影したときのフォーカス領域を記憶する、顔認識技術により人物が撮影されている領域を検出する、タッチパネルによりユーザが指定することで主要被写体領域を指定する、などの方法により行うことができる。なお、タッチパネルで指定する方法の場合、画像表示部4がタッチパネルを備え、主要被写体領域は、画像表示部4に表示された第1の撮影画像に対してユーザがタッチパネルを介してタッチ操作することで指定することができる。   The main subject region cutout unit 51 cuts out a region where it is estimated that the main subject is shot from the first shot image. The main subject area is estimated by, for example, a face recognition technique that calculates a focused area based on a differential value of the first photographed image, stores a focus area when the first photographed image is photographed, and the like. It can be performed by a method of detecting an area where a person is photographed, or specifying a main subject area by a user specifying it with a touch panel. In the case of the method of designating with the touch panel, the image display unit 4 includes a touch panel, and the main subject area is touched on the first captured image displayed on the image display unit 4 by the user via the touch panel. Can be specified.

また、上記の第1の撮影画像の微分値やフォーカス領域などの情報は、例えば、画像撮像装置1が備えるオートフォーカス機能の情報から得ることができる。つまり、オートフォーカス(AF)機能によりフォーカスが合わされた領域を主要被写体領域とする。デジタルカメラにおいては、例えば、センター重点AF、人物優先(顔検出)AFなどユーザが各種のAFモードを選択できるようになっており、フォーカスが合っている領域はユーザにより選択された主要被写体である可能性が高いと推定される。また、主要被写体領域としては、オブジェクト抽出により主要被写体のみを切り出しても良いが、主要被写体が撮影されている領域(例えば、矩形領域)を背景ごと切り出しても良い。   Further, the information such as the differential value and the focus area of the first photographed image can be obtained from the information on the autofocus function provided in the image capturing apparatus 1, for example. That is, the area focused by the autofocus (AF) function is set as the main subject area. In the digital camera, for example, the user can select various AF modes such as center-weighted AF and person-priority (face detection) AF, and the focused area is the main subject selected by the user. It is estimated that the possibility is high. As the main subject area, only the main subject may be cut out by object extraction, but an area where the main subject is photographed (for example, a rectangular area) may be cut out together with the background.

画像シフト部52では、主要被写体領域切出部51で抽出された主要被写体領域を所定量だけ左右方向(横方向)に移動(シフト)させる。すなわち、第1の撮影画像の主要被写体領域の位置を基準として、主要被写体領域を所定量だけ左右方向に移動させる。1回目の撮影位置に対して2回目の撮影を右側にカメラを移動して撮影する場合には主要被写体領域の移動方向は左方向とし、1回目の撮影位置に対して2回目の撮影を左側にカメラを移動して撮影する場合には主要被写体領域の移動方向は右方向となる。なお、主要被写体領域の移動量は画像視差が適切になるように決定されるが、具体的な方法については後述するものとする。   The image shift unit 52 moves (shifts) the main subject region extracted by the main subject region cutting unit 51 in the left-right direction (lateral direction) by a predetermined amount. That is, the main subject area is moved in the left-right direction by a predetermined amount with reference to the position of the main subject area of the first captured image. When the second shooting is moved to the right with respect to the first shooting position, the moving direction of the main subject area is set to the left, and the second shooting is set to the left with respect to the first shooting position. When the camera is moved to take a picture, the moving direction of the main subject area is the right direction. Note that the amount of movement of the main subject region is determined so that the image parallax is appropriate, but a specific method will be described later.

一般的に、平行に配置されたステレオカメラにより撮影された2つの撮影画像の視差量(視差値ともいう)D(単位:m)は、カメラ間の距離に相当する基線長B、カメラの焦点距離f、カメラから被写体までの距離Zにより、
D=B×f/Z …式(1)
で与えられる。したがって、距離Zが十分に大きい遠景では視差は0となり、近景になるほど視差が大きくなる。
In general, a parallax amount (also referred to as a parallax value) D (unit: m) of two captured images captured by a stereo camera arranged in parallel is a baseline length B corresponding to the distance between the cameras, and the focal point of the camera. By the distance f and the distance Z from the camera to the subject,
D = B × f / Z (1)
Given in. Accordingly, the disparity is 0 in a distant view where the distance Z is sufficiently large, and the disparity increases as the distant view is reached.

このような条件で撮影された立体視用画像をそのまま立体表示が可能なディスプレイで観察すると、遠景にある被写体がディスプレイ面に知覚され、他の被写体はディスプレイの手前に飛び出して知覚される。しかしながら、視差範囲を有効に利用し、かつ、視差角を小さくすることを考慮すると、撮影した画像全体を横方向へシフトするなどして、ディスプレイ面より奥側に知覚されるように視差を一様に変化させることが望ましい。つまり、遠景ではシフトした量だけ視差が発生し、シフトした量と同じだけ撮影時に視差が発生している被写体がディスプレイ面に知覚されることになる。このシフト量は、遠景の被写体の視差角が大きくなり過ぎないこと、所定距離の被写体がディスプレイ面に知覚されること、などの条件により決定される。   When a stereoscopic image captured under such conditions is observed on a display capable of stereoscopic display as it is, a subject in a distant view is perceived on the display surface, and other subjects jump out in front of the display and are perceived. However, considering the effective use of the parallax range and reducing the parallax angle, the parallax can be reduced so that it is perceived deeper than the display surface, for example, by shifting the entire captured image horizontally. It is desirable to change in this way. That is, in the distant view, the parallax is generated by the shifted amount, and the subject in which the parallax is generated at the time of shooting as much as the shifted amount is perceived on the display surface. This shift amount is determined by conditions such as that the disparity angle of a distant subject does not become too large, and that a subject at a predetermined distance is perceived on the display surface.

1回目の撮影から2回目の撮影をするまでに画像撮像装置1を略平行に移動させることで、ステレオカメラと同様の立体画像を得ることができる。ここで、焦点距離fおよび被写体までの距離Zはステレオカメラのときと変わらないが、基線長Bがカメラ移動量に相当することになる。したがって、カメラ移動量を大きくすると視差も大きくなる。つまり、カメラ移動量が大きすぎると視差が大きくなりすぎるため融像できない可能性があり、カメラ移動量が小さすぎると視差が小さくなりすぎるため立体画像として認識できない可能性があり、カメラ移動量は適切に設定する必要がある。   A stereoscopic image similar to that of a stereo camera can be obtained by moving the image pickup apparatus 1 substantially in parallel from the first shooting to the second shooting. Here, the focal length f and the distance Z to the subject are not different from those of the stereo camera, but the baseline length B corresponds to the camera movement amount. Therefore, increasing the camera movement amount increases the parallax. In other words, if the camera movement amount is too large, the parallax may be too large to be fused, and if the camera movement amount is too small, the parallax may be too small to be recognized as a stereoscopic image. It needs to be set appropriately.

そこで、本発明では、主要被写体領域が所望の視差値になるように2回の撮影を行い、好適な立体画像が得られるようにする。具体的には、画像合成部53は、画像シフト部52により所定量だけシフトさせた主要被写体領域を基準被写体領域として、画像表示部4にリアルタイムで表示されている撮影対象画像に重畳する。そして、ユーザは、画像表示部4にモニタ表示された画像を見ながら2回目の撮影を行う。なお、本例の画像表示部4は、第1の撮影画像の撮影位置、すなわち、1回目の撮影位置と同じ位置での画像を撮影対象画像としてリアルタイムで表示する。このとき撮影対象画像には基準被写体領域と同一の被写体が含まれる。   Therefore, in the present invention, the photographing is performed twice so that the main subject region has a desired parallax value so that a suitable stereoscopic image can be obtained. Specifically, the image composition unit 53 superimposes the main subject region shifted by a predetermined amount by the image shift unit 52 as a reference subject region on the photographing target image displayed in real time on the image display unit 4. Then, the user performs the second shooting while viewing the image displayed on the monitor on the image display unit 4. Note that the image display unit 4 of the present example displays in real time an image at the same shooting position as the shooting position of the first shooting image, that is, the first shooting position. At this time, the photographing target image includes the same subject as the reference subject region.

従って、1回目の撮影が終了し2回目の撮影に移行すると、画像表示部4には、基準被写体領域のみ二重像になって表示されることになる。ユーザは、この二重像が略重なるように画像撮像装置1を横方向へ略平行に移動させ、さらに、ユーザがキー入力部7のシャッタキーを操作することで2回目の撮影を行い、第2の撮影画像を得る。つまり、リアルタイム表示されている撮影対象画像の一部が基準被写体領域に重畳した状態でシャッター操作された場合に、画像処理部5は、このシャッター操作に応じて撮影対象画像を第2の撮影画像として取得する。画像処理部5は、このようにして取得した第2の撮影画像を画像記憶部3に出力し、画像記憶部3は、第1の撮影画像及び第2の撮影画像を例えば左右に並べた1つの立体視用画像データとして記憶する。   Accordingly, when the first shooting is completed and the second shooting is started, only the reference subject region is displayed as a double image on the image display unit 4. The user moves the image capturing apparatus 1 in the horizontal direction so that the double images substantially overlap each other, and the user operates the shutter key of the key input unit 7 to perform the second shooting. Two captured images are obtained. That is, when a shutter operation is performed in a state where a part of the shooting target image displayed in real time is superimposed on the reference subject area, the image processing unit 5 changes the shooting target image to the second shot image in accordance with the shutter operation. Get as. The image processing unit 5 outputs the second captured image acquired in this way to the image storage unit 3, and the image storage unit 3 includes a first captured image and a second captured image arranged side by side, for example, 1 One stereoscopic image data is stored.

上記において、画像表示部4の画面上では基準被写体領域のみが二重像となっており、ユーザは他の被写体に惑わされることなくカメラ移動量を調整できるため、好適な立体視用画像を撮影することができる。また、第1の撮影画像の主要被写体領域を所定量だけ左右方向にシフトさせた基準被写体領域を画面上の撮影対象画像に合成しているため、ユーザは基準被写体領域を重ね合わせるだけで所定の視差量に調整された第2の撮影画像を得ることができるため、視差量(画像のずれ量)を気にする必要なく、好適な立体視用画像を撮影することができる。   In the above, since only the reference subject area is a double image on the screen of the image display unit 4 and the user can adjust the camera movement amount without being confused by other subjects, a suitable stereoscopic image is captured. can do. In addition, since the reference subject region obtained by shifting the main subject region of the first photographed image in the left-right direction by a predetermined amount is combined with the photographing target image on the screen, the user can perform the predetermined subject only by superimposing the reference subject region. Since the second captured image adjusted to the amount of parallax can be obtained, a suitable stereoscopic image can be captured without having to worry about the amount of parallax (image shift amount).

ここで、主要被写体領域切出部51で切り出される主要被写体領域以外の領域を透明として扱うようにしてもよい。この場合、所定量シフトされた主要被写体領域を含む第1の撮影画像が画面上の撮影対象画像に重畳されるが、ユーザからは主要被写体領域(すなわち、基準被写体領域)のみが撮影対象画像に重畳されているように視認される。このため、他の被写体に惑わされることなく、容易に被写体同士を重ね合わせることができる。なお、画像透明化の手法について特に限定するものではなく、公知の方法により実現することができる。また、ユーザに重ね合わせるべき被写体領域を提示できれば良いとの観点から、主要被写体領域を除く領域を目立たなくしても同様の効果が得られる。例えば、主要被写体領域を除く領域の透過度を大きくしたり、主要被写体領域を除く領域の明度や彩度を下げるようにしたりしても良い。つまり、主要被写体領域が相対的に目立てばよいため、主要被写体領域の透過度を例えば50%、他の領域の透過度を例えば90%などと設定すればよい。   Here, a region other than the main subject region cut out by the main subject region cutting unit 51 may be handled as transparent. In this case, the first photographed image including the main subject region shifted by a predetermined amount is superimposed on the subject image on the screen, but only the main subject region (that is, the reference subject region) is regarded as the subject image by the user. It is visually recognized as being superimposed. Therefore, the subjects can be easily overlapped without being confused by other subjects. Note that the method of image transparency is not particularly limited, and can be realized by a known method. Further, from the viewpoint that it is only necessary to present the subject area to be superimposed to the user, the same effect can be obtained even if the area excluding the main subject area is not conspicuous. For example, the transparency of the area excluding the main subject area may be increased, or the brightness and saturation of the area excluding the main subject area may be decreased. That is, since the main subject area only needs to be relatively conspicuous, the transparency of the main subject area may be set to 50%, for example, and the transparency of other areas may be set to 90%, for example.

また、全画像領域(画像全体)をモノクロ画像としておき、主要被写体領域のみカラー画像として表示すると、主要被写体領域が目立ち、ユーザが判別しやすくなるため好適である。さらに、主要被写体領域の画像と撮影対象画像との間で画素値の差分絶対値を計算し、その値が小さい画素の領域(つまり、似た画像が含まれる領域)のみカラー画像で表示すると、どの領域が重なっているかを判別しやすくなるため好適である。   Further, it is preferable that the entire image area (entire image) is set as a monochrome image and only the main subject area is displayed as a color image because the main subject area is conspicuous and the user can easily discriminate. Furthermore, when calculating the absolute difference value of the pixel value between the image of the main subject area and the image to be captured, and displaying only the area of the pixel having a small value (that is, an area including a similar image) as a color image, This is preferable because it is easy to determine which areas overlap.

また、リアルタイム表示されている撮影対象画像に重畳された基準被写体領域が画面上で大きく見えるように拡大すると、他の被写体の状態に惑わされることなく、撮影対象画像の一部を基準被写体領域に重ねることができより望ましい。この場合、撮影対象画像も同じ倍率で拡大されるものとする。基準被写体領域及び撮影対象画像が拡大されていることにより、重ね合わせの精度が向上してずれ量の少ない立体画像を得ることが可能となる。   In addition, if the reference subject area superimposed on the shooting target image displayed in real time is enlarged so that it appears larger on the screen, a part of the shooting target image can be used as the reference subject area without being confused by the state of other subjects. It can be stacked and is more desirable. In this case, the image to be captured is also enlarged at the same magnification. By enlarging the reference subject region and the shooting target image, it is possible to improve the overlay accuracy and obtain a stereoscopic image with a small amount of deviation.

ここで、リアルタイム表示されている撮影対象画像の一部が基準被写体領域と略一致した状態で撮影が行われる。撮影はユーザが任意のタイミングで行っても良いが、撮影対象画像の一部が基準被写体領域にマッチングしたときに自動的に撮影するようにしてもよい。この場合、制御部6は、撮影対象画像の一部が基準被写体領域に略一致したか否かを判定し、略一致したと判定したときに、自動的にシャッター操作を行う。例えば、基準被写体領域と撮影対象画像とが重なる領域で、輝度差の総和であるSAD(Sum of Absolute Difference)を算出し、このSADが所定閾値以下になったときに撮影を実行する。これにより、基準被写体のずれ量がある程度小さくなったときに撮影が実行され、傾きなどのずれが少なく、立体視し易い立体画像を得ることが可能となる。   Here, shooting is performed in a state where a part of the shooting target image displayed in real time substantially matches the reference subject region. Shooting may be performed by the user at an arbitrary timing, but may be automatically performed when a part of the shooting target image matches the reference subject area. In this case, the control unit 6 determines whether or not a part of the image to be captured substantially matches the reference subject area, and automatically performs a shutter operation when it is determined that the images substantially match. For example, SAD (Sum of Absolute Difference), which is the sum of luminance differences, is calculated in a region where the reference subject region and the image to be photographed overlap, and photographing is performed when this SAD falls below a predetermined threshold value. As a result, photographing is executed when the amount of deviation of the reference subject becomes small to some extent, and it is possible to obtain a stereoscopic image that is easy to stereoscopically view with little deviation such as tilt.

また、別の撮影方法として、撮影対象画像の一部が基準被写体領域に略一致したときに、ユーザに撮影タイミングを提示するようにしてもよい。この場合、制御部6は、撮影対象画像の一部が基準被写体領域に略一致したか否かを判定し、略一致したと判定したときに、ユーザに対してシャッター操作を行うように促すための通知を行う。例えば、上記と同様に、基準被写体領域と撮影対象画像とが重なる領域で、SADを算出して所定閾値以下になったときに、基準被写体領域の境界を赤などの目立つ色で囲むようにしてユーザに撮影タイミングを通知する。これにより、基準被写体のずれ量がある程度小さくなったときに撮影が実行され、傾きなどのずれが少なく立体視し易い立体画像を得ることが可能になる。さらに、撮影対象画像の一部が基準被写体領域と一致してないと判別した場合には、ユーザがシャッター操作を行っても撮影を行わないようにしても良い。これにより、被写体がずれていて適切な視差が得られていない立体視用画像の撮影を防ぐことが可能となる。   As another imaging method, the imaging timing may be presented to the user when a part of the imaging target image substantially matches the reference subject area. In this case, the control unit 6 determines whether or not a part of the image to be photographed substantially matches the reference subject area, and when it is determined that they substantially match, in order to prompt the user to perform a shutter operation. Notification of. For example, in the same manner as described above, when the SAD is calculated in a region where the reference subject region and the image to be photographed are equal to or less than a predetermined threshold value, the boundary of the reference subject region is surrounded by a conspicuous color such as red. Notify shooting timing. As a result, shooting is performed when the amount of deviation of the reference subject becomes small to some extent, and it is possible to obtain a stereoscopic image with little deviation such as tilt and easy to view stereoscopically. Further, when it is determined that a part of the image to be photographed does not match the reference subject area, the user may not perform photographing even if the user performs a shutter operation. As a result, it is possible to prevent a stereoscopic image from being photographed where the subject is displaced and an appropriate parallax is not obtained.

以下、画像シフト部52によるシフト量決定方法の一例について説明する。ここで、実際の視差値は撮像素子やディスプレイのピクセルにより量子化されており、ピクセルピッチなども考慮しなければならないが、理解しやすくするためここでは省略して説明する。   Hereinafter, an example of the shift amount determination method by the image shift unit 52 will be described. Here, the actual parallax value is quantized by the pixels of the image sensor and the display, and the pixel pitch must be taken into consideration, but for the sake of easy understanding, the description is omitted here.

平行にカメラを移動して撮影した2つの撮影画像の視差値Dは、前述の式(1)より、D=B×f/Zにより算出されるが、このときの視差の最小値を0とし、最大値をDmaxとする。このように撮影した立体視用画像をディスプレイで鑑賞すると全部の被写体がディスプレイ面から飛び出して知覚される。視差の小さい被写体の場合、ディスプレイ面には左右画像の被写体のずれが無く、飛び出さない状態で知覚される。一方、視差が大きい被写体の場合、ディスプレイ面には左右画像の被写体のずれにより飛び出して知覚される。   The parallax value D of two captured images taken by moving the camera in parallel is calculated by D = B × f / Z from the above equation (1). The minimum value of the parallax at this time is set to 0. The maximum value is Dmax. When the stereoscopic image captured in this way is viewed on the display, all subjects are perceived by popping out of the display surface. In the case of a subject with small parallax, the display surface is perceived in a state where there is no deviation between the subject of the left and right images and does not pop out. On the other hand, in the case of a subject with a large parallax, it is perceived by popping out on the display surface due to the deviation of the subject in the left and right images.

平行法で撮影された2つの撮影画像には、撮影で得られる視差と逆方向の視差である負の視差が存在しない。負の視差を有する立体視用画像をディスプレイで鑑賞した場合、負の視差である被写体はディスプレイ面より引っ込んで知覚される。このような表示は、画像の立体感や視差角の点においても有効に利用するべきであるため、一般に、平行法で撮影された2つの撮影画像から立体視用画像を生成する場合には、撮影した画像全体を平行移動させるなどして、全ての画素を横方向に移動するようにして立体視用画像を生成する。このようにして負の視差を発生させる。したがって、一様に横方向に移動したときの視差は移動量(シフト量ともいう)をΔDとすると、視差の最小値が−ΔD、最大値がDmax−ΔDとなり、撮影時の視差がDであった被写体は一様に移動した後ではD−ΔDという視差になる。また、撮影時の視差がΔDであった被写体は、一様に移動した後では視差がΔD−ΔD=0となり、ディスプレイで表示したときにディスプレイ面に知覚される。   The two captured images captured by the parallel method do not have negative parallax that is a parallax in the opposite direction to the parallax obtained by capturing. When a stereoscopic image having negative parallax is viewed on a display, a subject with negative parallax is perceived by being retracted from the display surface. Since such display should be used effectively also in terms of stereoscopic effect and parallax angle of the image, generally, when generating a stereoscopic image from two captured images captured by the parallel method, A stereoscopic image is generated so that all pixels are moved in the horizontal direction, for example, by moving the entire captured image in parallel. In this way, negative parallax is generated. Accordingly, when the movement amount (also referred to as a shift amount) is ΔD, the parallax when moving uniformly in the horizontal direction is −ΔD, the maximum value is Dmax−ΔD, and the parallax at the time of shooting is D. The subject in question has a parallax of D−ΔD after moving uniformly. In addition, the subject whose parallax at the time of shooting is ΔD is perceived on the display surface when it is displayed on the display because the parallax becomes ΔD−ΔD = 0 after moving uniformly.

上記のシフト量ΔDは、画像撮像装置1の基線長Bと焦点距離fなどにより適切に決定されるが、例えば、被写体までの距離ZがL0で撮影時の視差がD0の被写体を、立体画像として表示したときに、ディスプレイ面に知覚するような立体画像を得たい場合には、シフト量ΔDをD0とすれば良い。このとき、距離L0より手前の被写体は飛び出して知覚され、距離L0より奥の被写体は引っ込んで知覚される。つまり、このような視差を発生させる立体視用画像となるように、第1の撮影画像の主要被写体領域のシフト量ΔDを設定すれば良い。具体的には、主要被写体までの距離ZがL0であればシフト量ΔDをD0程度とする。なお、視差D0は、前述の式(1)より、B×f/L0で求めることができる。また、主要被写体までの距離ZがL0より大きければシフト量ΔDをD0より小さくし、主要被写体までの距離ZがL0より小さければシフト量ΔDをD0より大きくする。すなわち、このシフト量ΔDを、画像撮像装置1から主要被写体までの距離Zに応じて異ならせるようにしても良い。   The shift amount ΔD is appropriately determined based on the base line length B and the focal length f of the image capturing apparatus 1. For example, a subject whose distance Z to the subject is L0 and whose parallax at the time of photographing is D0 is a three-dimensional image. When it is desired to obtain a stereoscopic image that is perceived on the display surface when displayed as, the shift amount ΔD may be set to D0. At this time, the subject in front of the distance L0 pops out and is perceived, and the subject behind the distance L0 is withdrawn and perceived. That is, the shift amount ΔD of the main subject area of the first captured image may be set so as to obtain a stereoscopic image that generates such parallax. Specifically, if the distance Z to the main subject is L0, the shift amount ΔD is set to about D0. In addition, the parallax D0 can be calculated | required by Bxf / L0 from above-mentioned Formula (1). If the distance Z to the main subject is larger than L0, the shift amount ΔD is made smaller than D0, and if the distance Z to the main subject is smaller than L0, the shift amount ΔD is made larger than D0. That is, this shift amount ΔD may be varied according to the distance Z from the image capturing apparatus 1 to the main subject.

ここで、仮に一様にシフト量ΔDをD0にしてしまうと立体画像として視差が不適切になってしまう場合がある。被写体までの距離ZがL0より大きいとき、被写体の視差値DがD−D0<0となり、ディスプレイで立体画像として観察すると全部の被写体が引っ込みになってしまう。さらに、遠景の視差が引っ込み方向で大きくなり過ぎてしまう可能性がある。一方、被写体の距離ZがL0より小さいときも、被写体領域の視差値DがD−D0>0となり、ディスプレイで立体画像として観察すると全部の被写体が飛び出しになってしまう。さらに、近景の視差が飛び出し方向で大きくなり過ぎてしまう可能性がある。したがって、主要被写体までの距離Zに応じてシフト量を可変にして異ならせることにより、視差が適切に調整された立体視用画像を得ることが可能となる。   Here, if the shift amount ΔD is set to D0 uniformly, the parallax may become inappropriate as a stereoscopic image. When the distance Z to the subject is larger than L0, the parallax value D of the subject becomes D−D0 <0, and when viewed as a stereoscopic image on the display, all the subjects are retracted. Furthermore, the disparity in the distant view may become too large in the retracting direction. On the other hand, even when the subject distance Z is smaller than L0, the parallax value D of the subject area becomes D−D0> 0, and when viewed as a stereoscopic image on the display, all the subjects are popped out. Furthermore, there is a possibility that the parallax in the foreground will become too large in the pop-out direction. Therefore, it is possible to obtain a stereoscopic image in which the parallax is appropriately adjusted by varying the shift amount according to the distance Z to the main subject.

上記より好適な視差で撮影された立体視用画像を得ることが可能となる。なお、主要被写体までの距離Zは、例えば、画像撮像装置1が備えるオートフォーカス機能の設定情報から被写体までのおおよその距離が分かる。つまり、被写体までの距離Z及び焦点距離fは、第1の撮影画像を撮影したときの設定情報から得ることができる。また、基線長Bは、本発明の場合、画像撮像装置1の左右方向への移動量に相当するが、例えば、目の幅に近い65mmなどの標準的な値を設定しておく。そして、第1の撮影画像を撮影したときの被写体までの距離Z、焦点距離f、及び基線長Bは、第1の撮影画像の撮影設定情報としてメモリに保持しておき、第2の撮影画像を取得する際に、主要被写体領域切出部51及び画像シフト部52に入力される。   It is possible to obtain a stereoscopic image captured with a more preferable parallax. Note that the distance Z to the main subject can be determined, for example, from the setting information of the autofocus function provided in the image pickup apparatus 1. That is, the distance Z to the subject and the focal length f can be obtained from the setting information when the first captured image is captured. In the present invention, the base line length B corresponds to the amount of movement of the image capturing apparatus 1 in the left-right direction, but a standard value such as 65 mm close to the eye width is set. Then, the distance Z to the subject, the focal length f, and the baseline length B when the first captured image is captured are stored in the memory as the shooting setting information of the first captured image, and the second captured image is stored. Is acquired by the main subject region cutout unit 51 and the image shift unit 52.

次に、図3〜図8に基づいて、本発明の画像撮像装置1による動作例を具体的に説明する。例えば、図3のような撮影シーンであった場合を想定する。近景には被写体A、遠景には被写体C、その間に被写体Bが配置されている。1回目の撮影は、通常の撮影と同様に行われ、撮影された画像は図3の第1の撮影画像41として画像記憶部3に記憶される。このとき、主要被写体領域が被写体Aであった場合、フォーカスも被写体Aに合焦するように撮影されている。   Next, based on FIGS. 3-8, the operation example by the imaging device 1 of this invention is demonstrated concretely. For example, a case where the shooting scene is as shown in FIG. 3 is assumed. A subject A is disposed in the near view, a subject C is disposed in the distant view, and a subject B is disposed therebetween. The first shooting is performed in the same way as the normal shooting, and the shot image is stored in the image storage unit 3 as the first shot image 41 in FIG. At this time, when the main subject area is the subject A, the focus is also taken so as to focus on the subject A.

次に、1回目の撮影が終了した後に2回目の撮影に移行する。主要被写体領域切出部51は、第1の撮影画像41の撮影設定情報から、被写体Aにフォーカスを合わせて撮影されたことを特定し、この被写体Aを主要被写体として認識する。そして、図4に示すように、図3の第1の撮影画像41から、主要被写体である被写体Aを含む領域41a(以下、主要被写体領域41aという)を切り出す。次に、画像シフト部52は、第1の撮影画像41の撮影設定情報から、画像撮像装置1から主要被写体Aまでのおおよその距離を取得し、主要被写体領域切出部51にて切り出された主要被写体領域41aが適切な視差となるように、図5のように横方向(図中の画像シフト方向)へ主要被写体領域41aを所定量dだけ移動させる。   Next, after the first shooting is completed, the second shooting is started. The main subject area cutout unit 51 identifies that the subject A has been shot with focus from the shooting setting information of the first shot image 41, and recognizes the subject A as the main subject. Then, as shown in FIG. 4, a region 41a including the subject A as the main subject (hereinafter referred to as the main subject region 41a) is cut out from the first captured image 41 of FIG. Next, the image shift unit 52 acquires an approximate distance from the image capturing apparatus 1 to the main subject A from the shooting setting information of the first shot image 41, and is cut out by the main subject region cutout unit 51. As shown in FIG. 5, the main subject area 41a is moved by a predetermined amount d in the horizontal direction (image shift direction in the figure) so that the main subject area 41a has an appropriate parallax.

図5に示すように、主要被写体領域41aは、所定量dだけシフトされ、基準被写体領域41a′として画像合成部53にて画面上にリアルタイム表示されている撮影対象画像と合成される。このときの画像表示部4に表示される合成画面を図6に示す。図6において、合成画面42には、撮影対象画像として、第1の撮影画像41と同じ被写体A′、B′,C′がリアルタイムで表示されると共に、図5でシフトされた基準被写体領域41a′が重畳されている。ユーザは、基準被写体領域41a′の被写体Aが、撮影対象画像の被写体A′に略一致するように、画像撮像装置1を横向き(図中のカメラ移動方向)に移動させ、ずれ量を調整する。そして、被写体A,A′が略重なったときにシャッター操作されて撮影される。これにより、第2の撮影画像が取得され、第1の撮影画像及び第2の撮影画像により1つの立体視用画像データが生成される。このように被写体Aで適切に視差が調整されているため、立体感のある立体画像を得ることができる。   As shown in FIG. 5, the main subject area 41a is shifted by a predetermined amount d, and is synthesized as a reference subject area 41a 'with a shooting target image displayed in real time on the screen by the image synthesizing unit 53. A composite screen displayed on the image display unit 4 at this time is shown in FIG. In FIG. 6, the same subject A ′, B ′, C ′ as the first photographed image 41 is displayed in real time on the composite screen 42 as the subject image, and the reference subject region 41a shifted in FIG. 5 is displayed. ′ Is superimposed. The user moves the image pickup apparatus 1 sideways (camera movement direction in the figure) so that the subject A in the reference subject area 41a ′ substantially matches the subject A ′ of the shooting target image, and adjusts the amount of deviation. . When the subjects A and A ′ substantially overlap each other, the shutter is operated to take a picture. As a result, the second captured image is acquired, and one stereoscopic image data is generated from the first captured image and the second captured image. Thus, since the parallax is appropriately adjusted in the subject A, a stereoscopic image with a stereoscopic effect can be obtained.

次に、主要被写体が被写体Aではなく被写体Cであった場合について説明する。まず、主要被写体領域切出部51は、第1の撮影画像41の撮影設定情報から、被写体Cにフォーカスを合わせて撮影されたことを特定し、この被写体Cを主要被写体として認識する。そして、図3の第1の撮影画像41から、主要被写体である被写体Cを含む領域を切り出す。次に、図7に示すように、画像シフト部52は、第1の撮影画像41の撮影設定情報から、画像撮像装置1から被写体Cまでの距離を取得し、主要被写体領域切出部51にて切り出された主要被写体領域41cが適切な視差となるように、横方向(図中の画像シフト方向)へ主要被写体領域41cを所定量d′だけ移動させる。このとき、被写体Aよりも被写体Cの方が遠くに位置しているため、被写体Aが主要被写体のときよりもシフト量は小さくなっている。   Next, the case where the main subject is not subject A but subject C will be described. First, the main subject area cutout unit 51 specifies that the subject C is photographed in focus from the photographing setting information of the first photographed image 41, and recognizes the subject C as the main subject. Then, an area including the subject C, which is the main subject, is cut out from the first captured image 41 of FIG. Next, as shown in FIG. 7, the image shift unit 52 acquires the distance from the image capturing apparatus 1 to the subject C from the shooting setting information of the first captured image 41, and sends it to the main subject region cutting unit 51. The main subject region 41c is moved by a predetermined amount d 'in the horizontal direction (image shift direction in the figure) so that the main subject region 41c cut out in this way has an appropriate parallax. At this time, since the subject C is located farther than the subject A, the shift amount is smaller than when the subject A is the main subject.

図7に示すように、主要被写体領域41cは、所定量d′だけシフトされ、基準被写体領域41c′として画像合成部53にて画面上にリアルタイム表示されている撮影対象画像と合成される。このときの画像表示部4に表示される合成画面を図8に示す。図8において、合成画面43には、撮影対象画像として、第1の撮影画像41と同じ被写体A′、B′,C′がリアルタイムで表示されると共に、図7でシフトされた基準被写体領域41c′が重畳されている。ユーザは、基準被写体領域41c′の被写体Cが、撮影対象画像の被写体C′に略一致するように、画像撮像装置1を横向き(図中のカメラ移動方向)に移動させ、ずれ量を調整する。そして、被写体C,C′が略重なったときにシャッター操作されて撮影される。これにより、第2の撮影画像が取得され、第1の撮影画像及び第2の撮影画像により1つの立体視用画像データが生成される。このように被写体Cで適切に視差が調整されているため、立体感のある立体画像を得ることができる。   As shown in FIG. 7, the main subject area 41 c is shifted by a predetermined amount d ′, and is synthesized as a reference subject area 41 c ′ with a shooting target image displayed in real time on the screen by the image synthesis unit 53. FIG. 8 shows a composite screen displayed on the image display unit 4 at this time. In FIG. 8, the same subject A ′, B ′, C ′ as the first photographed image 41 is displayed in real time on the composite screen 43 as the subject image, and the reference subject region 41c shifted in FIG. ′ Is superimposed. The user moves the image pickup device 1 sideways (camera movement direction in the figure) so that the subject C in the reference subject region 41c ′ substantially matches the subject C ′ of the image to be photographed, and adjusts the amount of deviation. . When the subjects C and C ′ substantially overlap each other, the shutter is operated to take a picture. As a result, the second captured image is acquired, and one stereoscopic image data is generated from the first captured image and the second captured image. Thus, since the parallax is appropriately adjusted in the subject C, a stereoscopic image with a stereoscopic effect can be obtained.

以上に説明したように、本実施形態の画像撮像装置によれば、撮像素子を1つしか備えない場合であっても、第1の撮影画像の主要被写体領域を左右方向に所定量だけシフトさせ、このシフト後の主要被写体領域を基準被写体領域として、モニタ画面にリアルタイム表示されている撮影対象画像に重畳させて撮影することで第2の撮影画像を取得することができるため、視差が適切に調整されたずれ量の少ない立体視用画像(左眼用画像,右眼用画像)を容易に撮影、取得することができる。   As described above, according to the image pickup apparatus of the present embodiment, even when only one image pickup device is provided, the main subject area of the first photographed image is shifted by a predetermined amount in the left-right direction. The second photographed image can be acquired by taking the shifted main subject area as a reference subject area and superimposing it on the subject image displayed in real time on the monitor screen. It is possible to easily shoot and acquire a stereoscopic image (left eye image, right eye image) with a small adjusted shift amount.

1…画像撮像装置、2…撮像素子、3…画像記憶部、4…画像表示部、5…画像処理部、6…制御部、7…キー入力部、51…主要被写体領域切出部、52…画像シフト部、53…画像合成部。 DESCRIPTION OF SYMBOLS 1 ... Image pick-up device, 2 ... Image pick-up element, 3 ... Image memory | storage part, 4 ... Image display part, 5 ... Image processing part, 6 ... Control part, 7 ... Key input part, 51 ... Main subject area extraction part, 52 ... Image shift unit, 53.

Claims (7)

1つの撮像素子と、該撮像素子により取り込んだ撮影対象画像を表示する画像表示部と、該画像表示部に表示されている撮影対象画像に対するシャッター操作に応じて撮影画像を取得する画像処理部とを備えた画像撮像装置であって、
前記画像処理部は、該画像処理部で取得された第1の撮影画像から主要被写体の領域を切り出す主要被写体領域切出部と、該切り出した主要被写体領域を左右方向に所定量シフトさせる画像シフト部と、該所定量シフトさせた主要被写体領域を基準被写体領域として前記画像表示部に表示されている撮影対象画像に重畳させる画像合成部とを備え、
前記基準被写体領域が重畳された状態でシャッター操作された場合に、前記画像処理部は、前記シャッター操作に応じて前記撮影対象画像を第2の撮影画像として取得することを特徴とする画像撮像装置。
One image sensor, an image display unit that displays a target image captured by the image sensor, and an image processing unit that acquires a captured image in response to a shutter operation on the target image displayed on the image display unit An image pickup apparatus comprising:
The image processing unit includes a main subject region extraction unit that extracts a main subject region from the first captured image acquired by the image processing unit, and an image shift that shifts the extracted main subject region by a predetermined amount in the left-right direction. And an image composition unit that superimposes the main subject region shifted by the predetermined amount as a reference subject region on the target image displayed on the image display unit,
When the shutter operation is performed with the reference subject region superimposed, the image processing unit acquires the image to be captured as a second captured image in response to the shutter operation. .
前記画像シフト部によるシフト量は、前記画像撮像装置から前記主要被写体までの距離に基づいて決定されることを特徴とする請求項1に記載の画像撮像装置。   The image capturing apparatus according to claim 1, wherein the shift amount by the image shift unit is determined based on a distance from the image capturing apparatus to the main subject. 前記画像シフト部によるシフト量は、前記画像撮像装置の焦点距離に基づいて決定されることを特徴とする請求項1に記載の画像撮像装置。   The image capturing apparatus according to claim 1, wherein the shift amount by the image shift unit is determined based on a focal length of the image capturing apparatus. 前記画像表示部は、タッチパネルを備え、前記主要被写体領域は、前記画像表示部に表示された第1の撮影画像に対してユーザが前記タッチパネルを介してタッチ操作することで指定されることを特徴とする請求項1〜3のいずれか1項に記載の画像撮像装置。   The image display unit includes a touch panel, and the main subject area is designated by a user touching the first captured image displayed on the image display unit via the touch panel. The image capturing device according to any one of claims 1 to 3. 前記撮影対象画像の一部が前記基準被写体領域と略一致したと判定したときに、自動的にシャッター操作を行う制御部を備えたことを特徴とする請求項1〜4のいずれか1項に記載の画像撮像装置。   5. The control unit according to claim 1, further comprising a control unit that automatically performs a shutter operation when it is determined that a part of the image to be captured substantially matches the reference subject region. The imaging apparatus described. 前記撮影対象画像の一部が前記基準被写体領域と略一致したと判定したときに、ユーザに対してシャッター操作を行うように促すための通知を行う制御部を備えたことを特徴とする請求項1〜4のいずれか1項に記載の画像撮像装置。   The control unit for notifying the user to perform a shutter operation when it is determined that a part of the image to be photographed substantially matches the reference subject region. The image imaging device according to any one of 1 to 4. 前記第1の撮影画像及び前記第2の撮影画像を1つの立体視用画像データとして記憶する画像記憶部を備えたことを特徴とする請求項1〜6のいずれか1項に記載の画像撮像装置。   The image capturing apparatus according to claim 1, further comprising an image storage unit that stores the first photographed image and the second photographed image as one stereoscopic image data. apparatus.
JP2011184660A 2011-08-26 2011-08-26 Image pickup device Withdrawn JP2013046343A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011184660A JP2013046343A (en) 2011-08-26 2011-08-26 Image pickup device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011184660A JP2013046343A (en) 2011-08-26 2011-08-26 Image pickup device

Publications (1)

Publication Number Publication Date
JP2013046343A true JP2013046343A (en) 2013-03-04

Family

ID=48009877

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011184660A Withdrawn JP2013046343A (en) 2011-08-26 2011-08-26 Image pickup device

Country Status (1)

Country Link
JP (1) JP2013046343A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015037607A1 (en) * 2013-09-13 2015-03-19 京セラ株式会社 Portable terminal and image search method
KR101858522B1 (en) * 2017-03-31 2018-05-16 오스템임플란트 주식회사 Apparatus and method for guiding photographing object of interest with reference object

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015037607A1 (en) * 2013-09-13 2015-03-19 京セラ株式会社 Portable terminal and image search method
JP2015056102A (en) * 2013-09-13 2015-03-23 京セラ株式会社 Portable terminal, image retrieval program, and image retrieval method
KR101858522B1 (en) * 2017-03-31 2018-05-16 오스템임플란트 주식회사 Apparatus and method for guiding photographing object of interest with reference object

Similar Documents

Publication Publication Date Title
US8885026B2 (en) Imaging device and imaging method
US9077976B2 (en) Single-eye stereoscopic image capturing device
US20130113892A1 (en) Three-dimensional image display device, three-dimensional image display method and recording medium
JP5127787B2 (en) Compound eye photographing apparatus and control method thereof
JP5469258B2 (en) Imaging apparatus and imaging method
JP2009200560A (en) Imaging apparatus, imaging method, and program
JP5526233B2 (en) Stereoscopic image photographing apparatus and control method thereof
JP2010114760A (en) Photographing apparatus, and fingering notification method and program
US20130162764A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium
JP2011071605A (en) Three-dimensional image pickup apparatus and method
JP2011259168A (en) Stereoscopic panoramic image capturing device
JP2013041103A (en) Image pickup apparatus, control method thereof, and program
JP2011199478A (en) Imaging device, display control method therefor, and 3d information obtaining system
JP2011114547A (en) Three-dimensional image display apparatus, compound-eye imaging apparatus, and three-dimensional image display program
JP2011087128A (en) Pantoscopic camera and method for discrimination of object
JPWO2011152167A1 (en) Stereoscopic image control apparatus, operation control method thereof, and operation control program thereof
JP5449551B2 (en) Image output apparatus, method and program
US9532034B2 (en) Three-dimensional imaging apparatus and three-dimensional image display method
JP2011035643A (en) Multiple eye photography method and apparatus, and program
JP2010177921A (en) Stereoscopic imaging apparatus and stereoscopic imaging method
JP2010141609A (en) Imaging apparatus
JP5580486B2 (en) Image output apparatus, method and program
JP2013046343A (en) Image pickup device
JP2012124650A (en) Imaging apparatus, and imaging method
JP2016036081A (en) Image processing device, method and program, and recording medium

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141104