JP2012070103A - Imaging device and image communication system - Google Patents

Imaging device and image communication system Download PDF

Info

Publication number
JP2012070103A
JP2012070103A JP2010211446A JP2010211446A JP2012070103A JP 2012070103 A JP2012070103 A JP 2012070103A JP 2010211446 A JP2010211446 A JP 2010211446A JP 2010211446 A JP2010211446 A JP 2010211446A JP 2012070103 A JP2012070103 A JP 2012070103A
Authority
JP
Japan
Prior art keywords
image
unit
images
display
main subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010211446A
Other languages
Japanese (ja)
Other versions
JP2012070103A5 (en
JP5754044B2 (en
Inventor
Tsutomu Kuroki
努 黒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2010211446A priority Critical patent/JP5754044B2/en
Publication of JP2012070103A publication Critical patent/JP2012070103A/en
Publication of JP2012070103A5 publication Critical patent/JP2012070103A5/ja
Application granted granted Critical
Publication of JP5754044B2 publication Critical patent/JP5754044B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device or the like capable of easily generating a composite image with a small feeling of strangeness, and which is obtained by composing a subject image capable of being displayed three-dimensionally with a background image.SOLUTION: An imaging device has: an imaging part; a display that can display a 3-dimentional image based on two images; an image generator that generates two photographed images to be the basis for a 3-dimentional image, which are corresponding to a right eye and a left eye, based on image data generated by the imaging part; an image clipping part that clips images representing a main subject, which are obtained by removing a background from the two photographed images, respectively to acquire two main subject images corresponding to the right eye and the left eye; an image composition part that pastes the two main subject images clipped by the image clipping part on the background image to generate two composite images corresponding to the right eye and the left eye; a touch panel; and a position adjustment part that adjusts a disparity by changing a relative position of the main subject images in the two composite images depending on an input to the touch panel.

Description

本発明は、画像を撮像して表示する撮像装置、及び該撮像装置を含み、所定の通信規格にしたがって画像の通信を行う画像通信システムに関する。   The present invention relates to an imaging apparatus that captures and displays an image, and an image communication system that includes the imaging apparatus and performs image communication according to a predetermined communication standard.

近年、同一の被写体に対して複数の画像データを取得し、この取得した複数の画像データに含まれる被写体の視差を利用することにより、ユーザが立体的に見ることができる3次元画像(以下、「3D画像」という)を撮像するデジタルステレオカメラ等の撮像装置が普及しつつある。最近では、3Dの動画撮影を行うことができるデジタルカメラや、3D画像を視聴できるテレビも登場している。   In recent years, by acquiring a plurality of image data for the same subject and using the parallax of the subject included in the acquired plurality of image data, a three-dimensional image (hereinafter, referred to as a three-dimensional image) that can be viewed three-dimensionally by a user. An imaging apparatus such as a digital stereo camera that captures “3D images”) is becoming widespread. Recently, digital cameras that can shoot 3D movies and televisions that can view 3D images have also appeared.

一方、従来、合成写真を作成する様々な機器が開発されている。例えば、特許文献1には、背景画像と人物等の写真画像とフレーム画像とを重ねて表示する写真撮影遊戯機が開示されている。また、連写された画像を元に動画の合成写真を作成するデジタルカメラも開発されている。   On the other hand, various devices for creating composite photographs have been developed. For example, Patent Document 1 discloses a photographic game machine that displays a background image, a photographic image of a person, etc., and a frame image in an overlapping manner. In addition, digital cameras that create composite photos of moving images based on continuously shot images have also been developed.

特開2008−65112号公報JP 2008-65112 A

ところで、3D表示可能な人物等の被写体画像を別の背景画像に合成する場合、被写体画像の飛び出し感や引っ込み感といった立体感が背景画像とマッチせず、合成画像を3D表示すると全体的に不自然になることがある。   By the way, when a subject image such as a person capable of 3D display is combined with another background image, a stereoscopic effect such as a sense of popping out or withdrawing of the subject image does not match the background image. May be natural.

本発明は、上記に鑑みてなされたものであって、3D表示可能な被写体画像を背景画像と合成した合成画像であって、違和感の少ない3D合成画像を手軽に生成することができる撮像装置と、そのような撮像装置を含み、画像の通信を行う画像通信システムを提供することを目的とする。   The present invention has been made in view of the above, and is an image pickup apparatus that can easily generate a 3D composite image that is a composite image obtained by combining a subject image that can be displayed in 3D with a background image, and that has a little uncomfortable feeling. An object of the present invention is to provide an image communication system that includes such an imaging device and performs image communication.

上述した課題を解決し、目的を達成するために、本発明に係る撮像装置は、被写体を撮像して画像データを生成する撮像部と、2つの画像に基づく3次元画像を表示可能な表示部と、前記撮像部によって生成された画像データに基づいて、3次元画像の基となる右目及び左目に対応する2つの撮影画像を生成する画像生成部と、前記2つの撮影画像から、背景を除いた主要被写体を表す画像をそれぞれ抜き出すことにより、右目及び左目に対応する2つの主要被写体画像を取得する画像抜出し部と、前記画像抜出し部によって抜き出された前記2つの主要被写体画像を所定の背景画像に貼り付けることにより、右目及び左目に対応する2つの合成画像を生成する画像合成部と、外部からの操作の入力を受け付ける入力受付部と、前記入力受付部によって受け付けられた入力に応じて、前記2つの合成画像における前記2つの主要被写体画像の相対的な位置を変化させることにより視差を調整する位置調整部と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, an imaging apparatus according to the present invention includes an imaging unit that images a subject and generates image data, and a display unit that can display a three-dimensional image based on the two images. An image generation unit that generates two captured images corresponding to the right eye and the left eye, which are the basis of a three-dimensional image, based on the image data generated by the imaging unit, and a background is removed from the two captured images. An image extraction unit that acquires two main subject images corresponding to the right eye and the left eye by extracting each image representing the main subject, and the two main subject images extracted by the image extraction unit with a predetermined background An image composition unit that generates two composite images corresponding to the right eye and the left eye by pasting to an image, an input reception unit that receives an operation input from the outside, and the input reception Depending on input received by, characterized in that it comprises a position adjusting unit for adjusting the parallax by changing the relative position of the two main object image in the two composite images.

上記撮像装置において、前記主要被写体は、前記2つの撮影画像における視野の前方又は中央部に位置する画像であることを特徴とする。   In the imaging apparatus, the main subject is an image located in front of or in the center of the visual field in the two captured images.

上記撮像装置において、前記主要被写体は、前記2つの撮影画像において最も視差が大きい画像であることを特徴とする。   In the imaging apparatus, the main subject is an image having the largest parallax in the two captured images.

上記撮像装置は、前記撮像部の視野領域を照明する発光部をさらに備え、前記主要被写体は、前記発光部を発光させた場合、反射光が最も強くなる領域の画像であることを特徴とする。   The imaging apparatus further includes a light emitting unit that illuminates a field area of the imaging unit, and the main subject is an image of an area where reflected light is the strongest when the light emitting unit emits light. .

上記撮像装置において、前記画像合成部は、前記2つの主要被写体画像を同一の背景画像に貼り付けることにより、背景が2次元画像として表示される前記2つの合成画像を生成することを特徴とする。   In the imaging apparatus, the image composition unit generates the two composite images in which a background is displayed as a two-dimensional image by pasting the two main subject images on the same background image. .

上記撮像装置において、前記画像合成部は、前記2つの主要被写体画像を、視野の左右方向の一端部同士が互いに重なる2つの背景画像にそれぞれ貼り付けることにより、背景が3次元画像として表示可能な前記2つの合成画像を生成することを特徴とする。   In the imaging apparatus, the image composition unit can display the background as a three-dimensional image by pasting the two main subject images on two background images in which one end in the horizontal direction of the visual field overlaps each other. The two synthesized images are generated.

上記撮像装置は、フレームシーケンシャル方式で3次元画像を表示する表示画面を高速連写撮影することにより生成された撮影画像から、右目及び左目に対応する2つの表示画面撮影画像を取得する画像取得部をさらに備え、前記画像合成部は、前記画像取得部によって取得された前記2つの表示画面撮影画像に前記2つの主要被写体画像をそれぞれ貼り付けることにより、前記2つの合成画像を生成することを特徴とする。   The image pickup device acquires two display screen shot images corresponding to the right eye and the left eye from a shot image generated by performing high-speed continuous shooting on a display screen that displays a three-dimensional image by a frame sequential method. The image composition unit generates the two composite images by pasting the two main subject images on the two display screen captured images acquired by the image acquisition unit, respectively. And

上記撮像装置は、前記画像取得部によって取得された前記2つの表示画面撮影画像に基づく3次元画像が表示された場合に、該3次元画像が表示画面から仮想的に引っ込んで見えるように、前記2つの表示画面撮影画像の右目と左目との対応を判別する左右画像判別部をさらに備えることを特徴とする。   The imaging device is configured so that when a three-dimensional image based on the two display screen captured images acquired by the image acquisition unit is displayed, the three-dimensional image appears to be virtually retracted from the display screen. It is further characterized by further comprising a left and right image discriminating unit for discriminating correspondence between the right eye and the left eye of the two display screen shot images.

上記撮像装置は、前記表示部に対し、2つの画像に基づく3次元画像の表示と、2つの画像を重ね合わせた2次元画像の表示との内のいずれかを、外部から入力される信号に従い切り換えて表示させる表示制御部をさらに備えることを特徴とする。   In the imaging device, either one of a display of a three-dimensional image based on two images and a display of a two-dimensional image obtained by superimposing the two images is displayed on the display unit according to a signal input from the outside. It further includes a display control unit for switching and displaying.

上記撮像装置において、前記入力受付部は、前記表示部の表示画面上に設けられ、外部から接触する物体の位置に応じた信号の入力を受け付けるタッチパネルであり、前記位置調整部は、前記タッチパネルに接触した物体の軌跡に応じて前記主要被写体画像の視差を調整することを特徴とする。   In the imaging apparatus, the input receiving unit is a touch panel that is provided on the display screen of the display unit and receives an input of a signal according to the position of an object in contact with the outside, and the position adjusting unit is connected to the touch panel. The parallax of the main subject image is adjusted according to the trajectory of the contacted object.

上記撮像装置において、前記位置調整部は、前記2つの合成画像を重ね合わせた2次元画像において、前記2つの主要被写体画像の左右方向の一端部同士が重なる重なり領域を前記軌跡に応じて変化させることにより視差を調整することを特徴とする。   In the imaging apparatus, the position adjustment unit changes, in a two-dimensional image obtained by superimposing the two composite images, an overlapping region where one end in the left-right direction of the two main subject images overlaps according to the locus. Thus, the parallax is adjusted.

上記撮像装置において、前記位置調整部は、さらに、前記2つの合成画像を重ね合わせた2次元画像において、前記2つの主要被写体画像を、相対的な位置関係を維持しつつ前記軌跡に応じて移動させることにより、前記背景画像に対する前記主要被写体画像の位置を移動させることを特徴とする。   In the imaging apparatus, the position adjustment unit further moves the two main subject images according to the locus while maintaining a relative positional relationship in a two-dimensional image obtained by superimposing the two composite images. By doing so, the position of the main subject image with respect to the background image is moved.

上記撮像装置において、前記位置調整部は、さらに、前記2つの合成画像を重ね合わせた2次元画像において、前記2つの主要被写体画像を、相対的な位置関係を維持しつつ前記軌跡に応じて回転させることにより、前記背景画像の面内で前記主要被写体画像を回転させることを特徴とする。   In the imaging apparatus, the position adjustment unit further rotates the two main subject images according to the locus while maintaining a relative positional relationship in a two-dimensional image obtained by superimposing the two composite images. By doing so, the main subject image is rotated in the plane of the background image.

上記撮像装置は、前記2つの画像を用いて、前記外部機器で表示させるために送信する送信用画像を生成する送信用画像生成部と、前記送信用画像生成部が生成した送信用画像を前記外部機器へ送信する通信部とをさらに備えることを特徴とする。   The imaging apparatus uses the two images to generate a transmission image generation unit that generates a transmission image to be transmitted for display on the external device, and transmits the transmission image generated by the transmission image generation unit. And a communication unit for transmitting to an external device.

上記撮像装置において、前記撮像部は、前記2つの画像をそれぞれ撮像する2つの光学系を有することを特徴とする。   In the imaging apparatus, the imaging unit includes two optical systems that respectively capture the two images.

上記撮像装置において、前記撮像部は、当該撮像装置が移動する間に所定の間隔で連続的に画像を撮像する機能を有し、前記画像生成部は、前記撮像部が連続的に撮像した画像の中から前記2つの画像を抽出することを特徴とする。   In the imaging apparatus, the imaging unit has a function of continuously capturing images at a predetermined interval while the imaging device is moving, and the image generation unit is an image continuously captured by the imaging unit. The two images are extracted from the image.

上記撮像装置において、前記表示制御部は、前記2つの画像にそれぞれ対応する2つの画像データを、前記表示画面における水平方向の1画素ごとに交互に並べて前記表示部に出力する制御を行うことを特徴とする。   In the imaging apparatus, the display control unit performs control to output two image data respectively corresponding to the two images to the display unit alternately arranged for each pixel in the horizontal direction on the display screen. Features.

本発明に係る画像通信システムは、上記撮像装置と、前記撮像装置と所定の通信規格にしたがって通信可能に接続され、前記撮像装置から受信した前記送信用画像に基づいて3次元画像を表示する表示装置とを備えることを特徴とする。   An image communication system according to the present invention is a display that displays a three-dimensional image based on the image for transmission received from the image pickup apparatus, which is communicably connected to the image pickup apparatus and the image pickup apparatus in accordance with a predetermined communication standard. And a device.

本発明によれば、背景画像に貼り付けられた主要被写体画像の視差を容易に調整可能とするので、背景と主要被写体画像との間の違和感を低減することが可能となる。   According to the present invention, since the parallax of the main subject image pasted on the background image can be easily adjusted, it is possible to reduce a sense of incongruity between the background and the main subject image.

図1は、本発明の実施の形態1に係る撮像装置の構成を示す図である。FIG. 1 is a diagram illustrating a configuration of an imaging apparatus according to Embodiment 1 of the present invention. 図2は、図1に示す撮像装置が備える表示部の概略構成を示す模式図である。FIG. 2 is a schematic diagram illustrating a schematic configuration of a display unit included in the imaging apparatus illustrated in FIG. 1. 図3は、図1に示す撮像装置が備える撮像部が互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを生成する際の状況を示す模式図である。FIG. 3 is a schematic diagram illustrating a situation when the imaging unit included in the imaging apparatus illustrated in FIG. 1 generates two pieces of image data in which one end in the left-right direction of each field of view overlaps. 図4は、図3に示す状況下で撮像部が被写体に対して互いの視野の左右方向の一端部同士が重なりを有する2つの画像データに対応する画像の一例を示す図である。FIG. 4 is a diagram illustrating an example of an image corresponding to two image data in which the imaging unit has one end in the horizontal direction of each other's visual field overlapping each other in the situation illustrated in FIG. 3. 図5は、図3に示す状況下で撮像部が生成した右目画像と左目画像とを仮想的に重ね合わせた画像の一例を示す図である。FIG. 5 is a diagram illustrating an example of an image obtained by virtually superimposing the right eye image and the left eye image generated by the imaging unit under the situation illustrated in FIG. 図6は、図3に示す状況下で撮像部が生成した右目画像及び左目画像から主要被写体画像を抜き出す方法の第1例を説明する図である。FIG. 6 is a diagram illustrating a first example of a method for extracting a main subject image from the right eye image and the left eye image generated by the imaging unit under the situation illustrated in FIG. 図7は、図3に示す状況下で撮像部が生成した右目画像及び左目画像から主要被写体画像を抜き出す方法の第2例を説明する図である。FIG. 7 is a diagram illustrating a second example of a method for extracting a main subject image from the right eye image and the left eye image generated by the imaging unit under the situation illustrated in FIG. 図8は、図3に示す状況下で撮像部が生成した右目画像及び左目画像から主要被写体画像を抜き出す方法の第3例を説明する図である。FIG. 8 is a diagram illustrating a third example of a method for extracting the main subject image from the right eye image and the left eye image generated by the imaging unit under the situation illustrated in FIG. 図9は、テンプレート画像の一例を示す図である。FIG. 9 is a diagram illustrating an example of a template image. 図10は、テンプレート画像に主要被写体画像を貼り付けた合成画像の一例を示す図である。FIG. 10 is a diagram illustrating an example of a composite image in which a main subject image is pasted on a template image. 図11は、右目合成画像と左目合成画像との重ね合わせ画像上で主要被写体画像の視差を調整(飛び出し距離を増加)する様子を示す模式図である。FIG. 11 is a schematic diagram illustrating a state in which the parallax of the main subject image is adjusted (the pop-out distance is increased) on the superimposed image of the right-eye synthesized image and the left-eye synthesized image. 図12は、右目合成画像と左目合成画像との重ね合わせ画像上で主要被写体画像の位置を調整する様子を示す模式図である。FIG. 12 is a schematic diagram showing how the position of the main subject image is adjusted on the superimposed image of the right-eye synthesized image and the left-eye synthesized image. 図13は、右目合成画像と左目合成画像との重ね合わせ画像上で主要被写体画像の視差を調整(引っ込み距離を増加)する様子を示す模式図である。FIG. 13 is a schematic diagram illustrating a state in which the parallax of the main subject image is adjusted (the retract distance is increased) on the superimposed image of the right-eye synthesized image and the left-eye synthesized image. 図14は、図1に示す撮像装置の動作を示すフローチャートである。FIG. 14 is a flowchart showing the operation of the imaging apparatus shown in FIG. 図15は、テンプレート画像選択画面の一例を示す図である。FIG. 15 is a diagram illustrating an example of a template image selection screen. 図16は、主要被写体を撮影する様子を示す模式図である。FIG. 16 is a schematic diagram showing how the main subject is photographed. 図17は、図1に示す撮像装置の再生表示処理における動作を示すフローチャートである。FIG. 17 is a flowchart showing an operation in the reproduction display process of the imaging apparatus shown in FIG. 図18は、右目合成画像と左目合成画像との重ね合わせ画像を表示する撮像装置の背面側を示す模式図である。FIG. 18 is a schematic diagram illustrating a back side of an imaging apparatus that displays a superimposed image of a right-eye synthesized image and a left-eye synthesized image. 図19は、右目合成画像と左目合成画像との重ね合わせ画像上で主要被写体画像の視差を調整する様子を示す模式図である。FIG. 19 is a schematic diagram showing how the parallax of the main subject image is adjusted on the superimposed image of the right-eye synthesized image and the left-eye synthesized image. 図20は、右目合成画像と左目合成画像との重ね合わせ画像上で主要被写体画像の視差を調整する様子を示す模式図である。FIG. 20 is a schematic diagram showing how the parallax of the main subject image is adjusted on the superimposed image of the right-eye synthesized image and the left-eye synthesized image. 図21は、本発明の実施の形態2に係る撮像装置の構成を示すブロック図である。FIG. 21 is a block diagram showing a configuration of an imaging apparatus according to Embodiment 2 of the present invention. 図22は、図21に示す撮像装置でテレビの表示画面を撮影する様子を示す模式図である。FIG. 22 is a schematic diagram illustrating a state in which a television display screen is captured by the imaging device illustrated in FIG. 図23は、テレビに表示された映像から撮像装置に画像を取り込む方法を説明する図である。FIG. 23 is a diagram for describing a method for capturing an image from an image displayed on a television set into an imaging apparatus. 図24は、右目画像と左目画像との判別方法を説明する図である。FIG. 24 is a diagram illustrating a method for discriminating between the right eye image and the left eye image. 図25は、図21に示す撮像装置の動作を示すフローチャートである。FIG. 25 is a flowchart showing the operation of the imaging apparatus shown in FIG. 図26は、本発明の実施の形態3に係る画像通信システムの構成を示す模式図である。FIG. 26 is a schematic diagram showing a configuration of an image communication system according to Embodiment 3 of the present invention. 図27は、図26に示す撮像装置の構成を示すブロック図である。FIG. 27 is a block diagram illustrating a configuration of the imaging apparatus illustrated in FIG.

以下に、図面を参照して、本発明を実施するための形態(以下、「実施の形態」という)について説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, modes for carrying out the present invention (hereinafter referred to as “embodiments”) will be described with reference to the drawings.

(実施の形態1)
図1は、本発明の実施の形態1に係る撮像装置1の構成を示すブロック図である。図1に示すように、撮像装置1は、異なる位置から撮影し、互いの視野の左右方向の一端部同士が重なりを有する2つの画像に対応する画像データを生成する撮像部2と、撮像装置1の姿勢を検出する姿勢検出部3と、撮像装置1の各種情報の入力を受け付ける操作入力部4と、撮影日時の判定機能やタイマ機能を有する時計5と、2次元画像(以下、「2D画像」という)または3D画像を表示する表示部6と、外部からの接触位置や軌跡に応じた信号の入力を受け付けるタッチパネル7と、撮像部2によって生成された画像データを含む各種情報を記憶する記憶部8と、撮像装置1の動作を制御する制御部9とを備える。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of an imaging apparatus 1 according to Embodiment 1 of the present invention. As shown in FIG. 1, an imaging device 1 captures an image from two different positions and generates image data corresponding to two images in which the left and right ends of each field of view overlap each other, and the imaging device A posture detection unit 3 that detects one posture, an operation input unit 4 that receives input of various types of information of the imaging apparatus 1, a clock 5 that has a shooting date determination function and a timer function, and a two-dimensional image (hereinafter referred to as “2D”). A display unit 6 for displaying a 3D image, a touch panel 7 for receiving an input of a signal according to an external contact position or locus, and various types of information including image data generated by the imaging unit 2 are stored. A storage unit 8 and a control unit 9 that controls the operation of the imaging apparatus 1 are provided.

撮像部2は、互いに異なる光学系を有する第1撮像部21と、第2撮像部22と、発光部(ストロボ)23とを備える。第1撮像部21及び第2撮像部22は、互いの光軸L1,L2が平行または所定の角度をなすように同一平面上で並設される。   The imaging unit 2 includes a first imaging unit 21, a second imaging unit 22, and a light emitting unit (strobe) 23 having different optical systems. The first imaging unit 21 and the second imaging unit 22 are arranged side by side on the same plane so that their optical axes L1 and L2 are parallel or have a predetermined angle.

第1撮像部21は、レンズ部21aと、レンズ駆動部21bと、絞り21cと、絞り駆動部21dと、シャッタ21eと、シャッタ駆動部21fと、撮像素子21gと、信号処理部21hとを有する。   The first imaging unit 21 includes a lens unit 21a, a lens driving unit 21b, a diaphragm 21c, a diaphragm driving unit 21d, a shutter 21e, a shutter driving unit 21f, an imaging element 21g, and a signal processing unit 21h. .

レンズ部21aは、フォーカスレンズやズームレンズ等によって構成され、所定の視野領域からの光を集光する。レンズ駆動部21bは、DCモータ等によって構成され、レンズ部21aのフォーカスレンズやズームレンズ等を光軸L1上で移動させることにより、レンズ部21aのピント位置や焦点距離の変更を行う。   The lens unit 21a is configured by a focus lens, a zoom lens, or the like, and collects light from a predetermined visual field region. The lens driving unit 21b is configured by a DC motor or the like, and changes the focus position and focal length of the lens unit 21a by moving the focus lens, the zoom lens, and the like of the lens unit 21a on the optical axis L1.

絞り21cは、レンズ部21aが集光した光の入射量を制限することにより露出の調整を行う。絞り駆動部21dは、ステッピングモータ等によって構成され、絞り21cを駆動する。   The diaphragm 21c adjusts the exposure by limiting the amount of incident light collected by the lens unit 21a. The aperture drive unit 21d is configured by a stepping motor or the like, and drives the aperture 21c.

シャッタ21eは、撮像素子21gの状態を露光状態または遮光状態に設定する。シャッタ駆動部21fは、ステッピングモータ等によって構成され、レリーズ信号に応じてシャッタ21eを駆動する。   The shutter 21e sets the state of the image sensor 21g to an exposure state or a light shielding state. The shutter drive unit 21f is configured by a stepping motor or the like, and drives the shutter 21e according to the release signal.

撮像素子21gは、レンズ部21aが集光した光を受光して電気信号(アナログ信号)に変換するCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等によって実現され、変換した電気信号を信号処理部21hに出力する。   The imaging element 21g is realized by a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like that receives the light collected by the lens unit 21a and converts it into an electrical signal (analog signal), and converts the converted electrical signal. It outputs to the signal processor 21h.

信号処理部21hは、撮像素子21gから出力される電気信号に増幅等の信号処理を施した後、A/D変換を行うことによってデジタルの画像データに変換して制御部9に出力する。   The signal processing unit 21h performs signal processing such as amplification on the electrical signal output from the image sensor 21g, and then converts the digital signal to digital image data by performing A / D conversion, and outputs the digital image data to the control unit 9.

第2撮像部22は、第1撮像部21と同一の構成によって実現され、レンズ部22aと、レンズ駆動部22bと、絞り22cと、絞り駆動部22dと、シャッタ22eと、シャッタ駆動部22fと、撮像素子22gと、信号処理部22hとを有する。
発光部23は、第1撮像部21及び第2撮像部22の視野領域を照明する。
The second imaging unit 22 is realized by the same configuration as the first imaging unit 21, and includes a lens unit 22a, a lens driving unit 22b, a diaphragm 22c, a diaphragm driving unit 22d, a shutter 22e, and a shutter driving unit 22f. The image sensor 22g and the signal processor 22h are included.
The light emitting unit 23 illuminates the field areas of the first imaging unit 21 and the second imaging unit 22.

姿勢検出部3は、加速度センサによって構成され、撮像装置1の加速度を検出することにより、撮像装置1の姿勢を検出する。具体的には、姿勢検出部3は、水平面を基準としたときの撮像装置1の姿勢を検出する。   The posture detection unit 3 is configured by an acceleration sensor, and detects the posture of the imaging device 1 by detecting the acceleration of the imaging device 1. Specifically, the posture detection unit 3 detects the posture of the imaging device 1 with respect to the horizontal plane.

操作入力部4は、撮像装置1の電源状態をオン状態またはオフ状態に切換える電源スイッチ41と、静止画撮影の指示を与えるレリーズ信号を入力するレリーズスイッチ42と、撮像装置1の各種撮影モードや各種設定の切換える切換スイッチ43と、撮像部2のズーム操作を行うズームスイッチ44と、表示部6における表示態様を2D画像用と3D画像用とで切り換える2D/3D切換スイッチ45とを有する。   The operation input unit 4 includes a power switch 41 that switches the power state of the imaging device 1 to an on state or an off state, a release switch 42 that inputs a release signal that gives a still image shooting instruction, and various shooting modes of the imaging device 1. A change-over switch 43 for switching various settings, a zoom switch 44 for performing a zoom operation of the imaging unit 2, and a 2D / 3D change-over switch 45 for switching the display mode on the display unit 6 between 2D image use and 3D image use.

時計5は、撮像装置1の動作の基準となる時間信号を生成する。これにより、制御部9は、画像データの取得時間や撮像素子21g、22gの露光時間等を設定することができる。時計5は、時間計測用のタイマとしての機能も有する。   The timepiece 5 generates a time signal that serves as a reference for the operation of the imaging apparatus 1. Thereby, the control part 9 can set the acquisition time of image data, the exposure time of the image pick-up elements 21g and 22g, etc. The clock 5 also has a function as a timer for measuring time.

図2は、表示部6の概略構成を示す模式図である。図1に示すように、表示部6は、バックライト61と、表示パネル62と、視差バリア63とを有する。バックライト61は、LED(Light Emitting Diode)等によって構成され、画像を表示するための光を背面から照射する。表示パネル62は、液晶または有機EL(Electro Luminescence)等の表示パネルによって構成される。視差バリア63は、液晶等によって構成され、表示パネル62の上面に積層されてなる。視差バリア63は、表示パネル62の各画素の間隔よりも狭い間隔でスリットが設けられ、ユーザの右目ERと左目ELとにそれぞれ対応した画像を分離する。このような視差バリア63として、例えばパララックバリア方式が適用される。なお、視差バリア63の代わりに、レンティキュラレンズを積層したレンズシートを表示パネル62の上面に設けてもよい。 FIG. 2 is a schematic diagram illustrating a schematic configuration of the display unit 6. As shown in FIG. 1, the display unit 6 includes a backlight 61, a display panel 62, and a parallax barrier 63. The backlight 61 is configured by an LED (Light Emitting Diode) or the like, and irradiates light for displaying an image from the back side. The display panel 62 is configured by a display panel such as liquid crystal or organic EL (Electro Luminescence). The parallax barrier 63 is made of liquid crystal or the like and is laminated on the upper surface of the display panel 62. The parallax barrier 63 is provided with slits at an interval narrower than the interval between the pixels of the display panel 62, and separates images corresponding to the user's right eye E R and left eye E L , respectively. As such a parallax barrier 63, for example, a parallax barrier method is applied. Instead of the parallax barrier 63, a lens sheet in which lenticular lenses are stacked may be provided on the upper surface of the display panel 62.

以上の構成を有する表示部6は、制御部9から3D画像データが入力された場合、制御部9の制御のもとで表示パネル62が左端の画素から水平方向に右目画像と左目画像との順で交互に表示し、視差バリア63が表示パネル62の各画素から出た光を分離する。このため、右目画像が右目ERのみ、左目画像が左目ELのみにそれぞれ届く。これにより、ユーザは、表示部6が表示する3D画像を立体視することができる。また、表示部6が表示態様を3D画像から2D画像に切り換える際には、視差バリア63に印加される電圧がオン状態からオフ状態に変化することによって視差バリア63が遮光状態から透過状態に遷移し、右目画像または左目画像のどちらか一方が表示パネル62に出力される。 In the display unit 6 having the above configuration, when 3D image data is input from the control unit 9, the display panel 62 performs horizontal alignment of the right eye image and the left eye image from the left end pixel in the horizontal direction under the control of the control unit 9. The images are alternately displayed in order, and the parallax barrier 63 separates the light emitted from each pixel of the display panel 62. For this reason, the right eye image reaches only the right eye E R and the left eye image reaches only the left eye E L. Thereby, the user can stereoscopically view the 3D image displayed on the display unit 6. Further, when the display unit 6 switches the display mode from the 3D image to the 2D image, the voltage applied to the parallax barrier 63 changes from the on state to the off state, so that the parallax barrier 63 transitions from the light shielding state to the transmissive state. Then, either the right eye image or the left eye image is output to the display panel 62.

タッチパネル7は、表示部6の表示画面上に重ねて設けられる。タッチパネル7は、ユーザが表示部6で表示される情報や画像に基づいて接触した(タッチした)位置や軌跡を検出し、この接触位置や軌跡に応じた操作の入力を受け付ける入力受付部として機能する。一般に、タッチパネルとしては、抵抗膜方式、静電容量方式、光学式等がある。本実施の形態1では、いずれの方式のタッチパネルであっても適用可能である。   The touch panel 7 is provided so as to overlap the display screen of the display unit 6. The touch panel 7 functions as an input receiving unit that detects a position (or touched) where the user has touched (touched) based on information or an image displayed on the display unit 6 and receives an input of an operation corresponding to the contact position or locus. To do. In general, the touch panel includes a resistance film method, a capacitance method, an optical method, and the like. In the first embodiment, any type of touch panel is applicable.

記憶部8は、撮像部2が撮影した画像データを記憶する撮影画像データ記憶部81と、合成画像の背景となる画像(背景画像)に対応するデータを記憶する背景画像データ記憶部82と、撮像装置1が実行する各種プログラムを記憶するプログラム記憶部83とを有する。背景画像データ記憶部82には、テンプレートとして予め用意された画像(テンプレート画像)に対応する画像データも記憶される。記憶部8は、撮像装置1の内部に固定的に設けられるフラッシュメモリやRAM(Random Access Memory)等の半導体メモリを用いて実現される。なお、記憶部8に対し、外部から装着されるメモリカード等の記憶媒体に対して情報を記憶する一方、記憶媒体が記憶する情報を読み出す記録媒体インターフェースとしての機能を具備させてもよい。   The storage unit 8 stores a captured image data storage unit 81 that stores image data captured by the imaging unit 2, a background image data storage unit 82 that stores data corresponding to an image (background image) that is a background of the composite image, and And a program storage unit 83 that stores various programs executed by the imaging apparatus 1. The background image data storage unit 82 also stores image data corresponding to an image (template image) prepared in advance as a template. The storage unit 8 is realized using a semiconductor memory such as a flash memory or a RAM (Random Access Memory) that is fixedly provided inside the imaging apparatus 1. The storage unit 8 may be provided with a function as a recording medium interface that reads information stored in the storage medium while storing information in a storage medium such as a memory card mounted from the outside.

制御部9は、CPU(Central Processing Unit)等によって実現される。制御部9は、操作入力部4からの操作信号等に応じて記憶部8のプログラム記憶部83から各種プログラムを読み出し、撮像装置1を構成する各部に対して制御信号を送信したりデータを転送したりすることにより、撮像装置1の動作を制御する。制御部9は、画像処理部91と、表示用画像生成部92と、合成画像生成部93と、位置調整部94と、表示制御部95とを有する。   The control unit 9 is realized by a CPU (Central Processing Unit) or the like. The control unit 9 reads various programs from the program storage unit 83 of the storage unit 8 in response to an operation signal from the operation input unit 4, transmits a control signal to each unit constituting the imaging apparatus 1, and transfers data. To control the operation of the imaging apparatus 1. The control unit 9 includes an image processing unit 91, a display image generation unit 92, a composite image generation unit 93, a position adjustment unit 94, and a display control unit 95.

画像処理部91は、信号処理部21h、22hからそれぞれ出力された左目画像データ及び右目画像データに対して各種の画像処理を施し、記憶部8の撮影画像データ記憶部81へ出力する。具体的には、画像処理部91は、信号処理部21h,22hからそれぞれ出力された左目画像データ及び右目画像データに対して、エッジ強調、色補正及びγ補正等の処理を施す。   The image processing unit 91 performs various types of image processing on the left-eye image data and right-eye image data output from the signal processing units 21 h and 22 h, and outputs them to the captured image data storage unit 81 of the storage unit 8. Specifically, the image processing unit 91 performs processing such as edge enhancement, color correction, and γ correction on the left eye image data and right eye image data output from the signal processing units 21h and 22h, respectively.

表示用画像生成部92は、画像処理部91によって生成された画像データ、後述する合成画像生成部93によって生成された合成画像データ、又は撮影画像データ記憶部81に記憶された画像データに基づいて、表示部6が表示する表示用画像の画像データを生成する。具体的には、表示用画像生成部92は、表示用画像として3D画像または2D画像に対応する画像データを生成する。このうち、画像処理部91によって生成された画像データに基づいて3D画像の表示用画像データを生成する際には、画像処理された左目画像及び右目画像を所定の縦横比(例えば3:4)でそれぞれ切り出すことによって3D画像を生成する。なお、表示用画像生成部92が左目画像及び右目画像からそれぞれ切り出す縦横比を切換スイッチ43で変更できるようにしてもよい。また、表示用画像生成部92は、2D画像の表示用画像データを生成する場合、左目画像と右目画像とを重ね合せて表示するための重ね合わせ画像データを生成するか、または左目画像及び右目画像のうち一方を用いて表示用画像の画像データを生成する。   The display image generation unit 92 is based on the image data generated by the image processing unit 91, the composite image data generated by the composite image generation unit 93 to be described later, or the image data stored in the captured image data storage unit 81. The image data of the display image displayed on the display unit 6 is generated. Specifically, the display image generation unit 92 generates 3D images or image data corresponding to 2D images as display images. Among these, when generating the display image data of the 3D image based on the image data generated by the image processing unit 91, the left-eye image and the right-eye image subjected to the image processing are set to a predetermined aspect ratio (for example, 3: 4). A 3D image is generated by cutting out each of the images. Note that the aspect ratio that the display image generation unit 92 cuts out from the left-eye image and the right-eye image may be changed by the changeover switch 43. Further, when generating the display image data of the 2D image, the display image generation unit 92 generates superimposed image data for displaying the left eye image and the right eye image in a superimposed manner, or generates the left eye image and the right eye image. Image data of a display image is generated using one of the images.

合成画像生成部93は、画像処理部91によって画像処理された左目画像及び右目画像から人物等の主要被写体画像の部分を抜き出し、ユーザ所望のテンプレート画像に貼り付けることにより、左目合成画像及び右目合成画像を生成する。なお、この合成画像生成処理の詳細については後述する。   The composite image generation unit 93 extracts a main subject image portion such as a person from the left eye image and the right eye image subjected to image processing by the image processing unit 91, and pastes them on a template image desired by the user, thereby combining the left eye composite image and the right eye composite. Generate an image. Details of this composite image generation processing will be described later.

位置調整部94は、タッチパネル7に外部から接触した物体の軌跡に応じて、合成画像生成部93が生成した左目及び右目合成画像における主要被写体画像の位置を変化させることにより、合成画像に含まれる主要被写体画像の視差を調整したり、位置を移動させたりする。   The position adjustment unit 94 is included in the composite image by changing the position of the main subject image in the left-eye and right-eye composite images generated by the composite image generation unit 93 according to the trajectory of the object that has touched the touch panel 7 from the outside. Adjust the parallax of the main subject image or move the position.

表示制御部95は、2D/3D切換スイッチ45への操作による設定に従い、表示用画像生成部92が表示用画像として生成した画像データに対応する3D画像または2D画像を表示部6に表示させる制御を行う。具体的には、表示制御部95は、表示部6に3D画像を表示させる場合、表示用画像生成部92が生成した3D画像の左目画像と右目画像とを表示部6の表示画面における水平方向の1画素毎に交互に並べた3D画像を表示部6に出力する制御を行う。   The display control unit 95 controls the display unit 6 to display a 3D image or a 2D image corresponding to the image data generated as the display image by the display image generation unit 92 according to the setting by operating the 2D / 3D changeover switch 45. I do. Specifically, when displaying the 3D image on the display unit 6, the display control unit 95 displays the left-eye image and the right-eye image of the 3D image generated by the display image generation unit 92 in the horizontal direction on the display screen of the display unit 6. Control is performed to output 3D images alternately arranged for each pixel to the display unit 6.

これに対し、表示部6に2D画像を表示させる場合、表示制御部95は、視差バリア63に印加する電源をオン状態からオフ状態にすることによって視差バリア63を遮光状態から透過状態にするとともに、表示用画像生成部92によって生成された表示用画像としての左目画像若しくは右目画像、又は左目画像と右目画像との重ね合わせ画像を表示部6に出力させる制御を行う。   On the other hand, when displaying a 2D image on the display unit 6, the display control unit 95 changes the power applied to the parallax barrier 63 from the on state to the off state, thereby changing the parallax barrier 63 from the light shielding state to the transmissive state. Then, control is performed to cause the display unit 6 to output a left-eye image or a right-eye image as a display image generated by the display-image generating unit 92 or a superimposed image of the left-eye image and the right-eye image.

以上の構成を有する撮像装置1において、撮像部2が互いの視野の左右方向の一端部同士が重なりを有する2つの画像を生成する際の状況について説明する。図3は、撮像部2が、互いの視野の左右方向の一端部同士が重なりを有する2つの画像を生成する際の状況を示す模式図である。図3に示すように、まず撮像部2は、撮像部2からの距離が異なる主要被写体OB1(距離d1)及び背景被写体OB2(距離d2)に対して、距離B1だけ離れて並設された第1撮像部21及び第2撮像部22で撮影することにより、右目画像データと左目画像データとを生成する。   In the imaging device 1 having the above-described configuration, a situation when the imaging unit 2 generates two images in which one end in the left-right direction of each field of view overlaps will be described. FIG. 3 is a schematic diagram illustrating a situation when the imaging unit 2 generates two images in which one end in the horizontal direction of each field of view overlaps. As shown in FIG. 3, first, the imaging unit 2 is arranged in parallel with a main subject OB1 (distance d1) and a background subject OB2 (distance d2) having different distances from the imaging unit 2 by a distance B1. By photographing with the first imaging unit 21 and the second imaging unit 22, right-eye image data and left-eye image data are generated.

その後、表示用画像生成部92は、第1撮像部21及び第2撮像部22によって生成された右目画像データ及び左目画像データに対応する画像をそれぞれ所定の縦横比で切り出すことによって右目画像WR1及び左目画像WL1を生成する。図4は、図3に示す状況下で撮像部2が生成する2つの画像データに対応する2つの画像の一例を示す図である。図4において、右目画像WR1は、表示用画像生成部92が第1撮像部21によって生成された右目画像データに対応する画像から切り出すことにより生成されたものである。また、図4において、左目画像WL1は、表示用画像生成部92が第2撮像部22によって生成された左目画像データに対応する画像から切り出すことにより生成されたものである。図5は、図3に示す状況下で表示用画像生成部92が生成した右目画像と左目画像とを仮想的に重ね合せた画像の一例を示す図である。   Thereafter, the display image generation unit 92 cuts out images corresponding to the right-eye image data and the left-eye image data generated by the first imaging unit 21 and the second imaging unit 22 with a predetermined aspect ratio, respectively, so that the right-eye image WR1 and A left-eye image WL1 is generated. FIG. 4 is a diagram illustrating an example of two images corresponding to the two image data generated by the imaging unit 2 under the situation illustrated in FIG. 3. In FIG. 4, the right eye image WR <b> 1 is generated when the display image generation unit 92 cuts out from an image corresponding to the right eye image data generated by the first imaging unit 21. In FIG. 4, the left-eye image WL <b> 1 is generated when the display image generation unit 92 cuts out from the image corresponding to the left-eye image data generated by the second imaging unit 22. FIG. 5 is a diagram illustrating an example of an image obtained by virtually superimposing the right eye image and the left eye image generated by the display image generation unit 92 under the situation illustrated in FIG. 3.

図4及び図5に示す破線及び一点鎖線は、第1撮像部21及び第2撮像部22がそれぞれ生成する画像データに対応する画像領域を示す。以下、図5〜図8においても、破線及び一点鎖線は、図4等と同様の画像領域を意味する。   4 and 5 indicate image areas corresponding to the image data generated by the first imaging unit 21 and the second imaging unit 22, respectively. Hereinafter, also in FIGS. 5 to 8, the broken line and the alternate long and short dash line mean the same image area as in FIG. 4 and the like.

次に、合成画像生成部93が行う合成画像生成処理について説明する。図3に示すように、合成画像生成部93は、画像抜出し部93aと、合成部93bと、左右画像判別部93cとを含む。   Next, a composite image generation process performed by the composite image generation unit 93 will be described. As shown in FIG. 3, the composite image generation unit 93 includes an image extraction unit 93a, a synthesis unit 93b, and a left and right image determination unit 93c.

画像抜出し部93aは、第1撮像部21及び第2撮像部22により撮影された右目画像WR1及び左目画像WL1(図4参照)から、主要被写体OB1を表す右目被写体画像A1(R)及び左目被写体画像A1(L)(これらをまとめて主要被写体画像A1ともいう)をそれぞれ抽出する。具体的な抜出し方法としては、例えば、次の3つの方法が挙げられる。   The image extraction unit 93a is configured to select a right-eye subject image A1 (R) and a left-eye subject representing the main subject OB1 from the right-eye image WR1 and the left-eye image WL1 (see FIG. 4) captured by the first imaging unit 21 and the second imaging unit 22. Images A1 (L) (these are collectively referred to as main subject image A1) are extracted. Specific extraction methods include, for example, the following three methods.

図6は、主要被写体画像の抜出し方法の第1例を説明する図である。図6に示すように、まず、画像抜出し部93aは、右目画像WR1と左目画像WL1と重ね合わせる。このとき、図3に示すように、右目画像WR1と左目画像WL1との間では、視野の手前又は中央部に存在する被写体(例えば主要被写体OB1)ほど画像の視差が大きくなり、視野の後方又は周辺部に存在する被写体(例えば背景被写体OB2)ほど画像の視差が小さくなる。そこで、画像抜出し部93aは、右目画像WR1と左目画像WL1との重ね合わせ画像上で画像が一致しない領域、即ち、主要被写体画像A1(R)とA1(L)との左右方向の一端部同士で重なりを有する領域(斜線の白抜き部分)を抽出する。さらに、この抽出された領域と、元の右目画像WR1と左目画像WL1とがそれぞれ重なり合う領域を抽出することにより、右目被写体画像A1(R)及び左目被写体画像A1(L)を抜き出すことができる。   FIG. 6 is a diagram illustrating a first example of a method for extracting a main subject image. As shown in FIG. 6, first, the image extraction unit 93a superimposes the right eye image WR1 and the left eye image WL1. At this time, as shown in FIG. 3, the parallax of the image increases between the right eye image WR1 and the left eye image WL1 as the subject (for example, the main subject OB1) exists in front of or in the center of the field of view. The parallax of the image becomes smaller as the subject (for example, the background subject OB2) exists in the peripheral portion. Therefore, the image extracting unit 93a is a region where the images do not match on the superimposed image of the right eye image WR1 and the left eye image WL1, that is, one end in the left-right direction of the main subject images A1 (R) and A1 (L). Extract the overlapping area (shaded white area). Furthermore, the right eye subject image A1 (R) and the left eye subject image A1 (L) can be extracted by extracting the extracted region and the region where the original right eye image WR1 and the left eye image WL1 overlap each other.

図7は、主要被写体画像A1の抜出し方法の第2例を説明する図である。図7に示すように、画面の中央部付近の画像が一致するように右目画像WR1と左目画像WL1とを重ね合わせ、右目画像WR1と左目画像WL1とで一致した領域を主要被写体画像A1として抽出しても良い。或いは、右目画像WR1及び左目画像WL1の各々において鮮鋭度が最大となる領域(即ち、ピントが合っている領域)が重なるように、両画像を重ね合わせても良い。   FIG. 7 is a diagram illustrating a second example of a method for extracting the main subject image A1. As shown in FIG. 7, the right eye image WR1 and the left eye image WL1 are overlaid so that the images near the center of the screen match, and the matching area between the right eye image WR1 and the left eye image WL1 is extracted as the main subject image A1. You may do it. Alternatively, the two images may be overlapped so that the region where the sharpness is maximum (that is, the region in focus) overlaps in each of the right eye image WR1 and the left eye image WL1.

図8は、主要被写体画像A1の抜出し方法の第3例を説明する図である。図8に示すように、発光部23(図1)を発光させ、強い光が反射された領域を右目被写体画像A1(R)及び左目被写体画像A1(L)として、右目画像WR1及び左目画像WL1からそれぞれ抜き出しても良い。   FIG. 8 is a diagram illustrating a third example of a method for extracting the main subject image A1. As shown in FIG. 8, the areas where the light emitting unit 23 (FIG. 1) emits light and the strong light is reflected are the right eye subject image A1 (R) and the left eye subject image A1 (L), and the right eye image WR1 and the left eye image WL1. May be extracted from each.

合成部93bは、画像抜出し部93aによって抜き出された主要被写体画像A1を、ユーザ所望の背景画像に貼り付けることによって合成画像を生成する。実施の形態1においては、背景画像として、予め用意されたテンプレート画像の内からユーザにより選択されたテンプレート画像が用いられる。図9は、そのようなテンプレート画像の一例を示す図である。ここで、背景画像としては、図9のテンプレート画像TP1に示すような2D画像を用いても良いし、3D表示可能な画像を用いても良い。合成部93bは、背景画像として2D画像が選択された場合、図10(a)に示すように、同一の背景画像(テンプレート画像TP1)に右目被写体画像A1(R)及び左目被写体画像A1(L)をそれぞれ貼り付けて、右目合成画像WR2及び左目合成画像WL2を生成する。右目被写体画像A1(R)及び左目被写体画像A1(L)の配置は、図10(b)に示すように、右目合成画像WR2と左目合成画像WL2とを仮想的に重ね合せたときに、互いの左右方向の一端同士が重なり合うように(即ち、視差が生じるように)決定される。このような右目合成画像WR2及び左目合成画像WL2に基づき3D表示を行うと、テンプレート画像TP1上に主要被写体画像A1が仮想的に浮き出した3D合成画像WT2が得られる(図10(c)参照)。   The composition unit 93b generates a composite image by pasting the main subject image A1 extracted by the image extraction unit 93a on a background image desired by the user. In the first embodiment, a template image selected by a user from among template images prepared in advance is used as the background image. FIG. 9 is a diagram showing an example of such a template image. Here, as the background image, a 2D image as shown in the template image TP1 of FIG. 9 may be used, or an image capable of 3D display may be used. When a 2D image is selected as the background image, the synthesizer 93b adds the right eye subject image A1 (R) and the left eye subject image A1 (L) to the same background image (template image TP1) as shown in FIG. ) Are respectively pasted to generate a right eye composite image WR2 and a left eye composite image WL2. The arrangement of the right-eye subject image A1 (R) and the left-eye subject image A1 (L) is as shown in FIG. 10B when the right-eye composite image WR2 and the left-eye composite image WL2 are virtually superimposed. Are determined so that one end in the left-right direction overlaps (that is, parallax occurs). When 3D display is performed based on such a right-eye composite image WR2 and left-eye composite image WL2, a 3D composite image WT2 in which the main subject image A1 is virtually raised on the template image TP1 is obtained (see FIG. 10C). .

一方、合成部93bは、背景画像として3D画像が選択された場合、右目背景画像に右目被写体画像A1(R)を貼り付け、左目背景画像に左目被写体画像A1(L)を貼り付けることにより、右目合成画像及び左目合成画像を生成する。   On the other hand, when the 3D image is selected as the background image, the combining unit 93b pastes the right eye subject image A1 (R) to the right eye background image and pastes the left eye subject image A1 (L) to the left eye background image. A right eye composite image and a left eye composite image are generated.

左右画像判別部93cは、画像合成用の素材(画像抜出し部93aにより抜き出された主要被写体画像や背景画像として用いられる3D画像)が、右目用の画像であるか、又は左目用の画像であるかを判別する。例えば、左右画像判別部93cは、図5に示すように左右方向の一端部同士が互いに重なり合う主要被写体画像A1が取得された場合、3D画像として表示した際に主要被写体画像A1が画面から浮き出て見えるように、画面に向かって左側を右目被写体画像とし、画面に向かって右側を左目被写体画像とする。   The left and right image discriminating unit 93c is a right-eye image or a left-eye image in which an image composition material (a main subject image extracted by the image extraction unit 93a or a 3D image used as a background image) is an image for the right eye. Determine if it exists. For example, when the main subject image A1 in which the left and right ends overlap each other as shown in FIG. 5 is acquired, the left and right image determination unit 93c causes the main subject image A1 to protrude from the screen when displayed as a 3D image. As can be seen, the left-hand subject image is the left-hand subject image and the right-hand subject image is the left-eye subject image.

次に、位置調整部94が行う処理について説明する。位置調整部94は、図10(b)に示す右目合成画像WR2と左目合成画像WL2との重ね合わせ画像WD2が表示部6に表示されている間、タッチパネル7に接触した物体の軌跡に応じて、右目被写体画像A1(R)及び左目被写体画像A1(L)の相対的な位置を変化させることにより視差を調整する。また、位置調整部94は、右目被写体画像A1(R)及び左目被写体画像A1(L)を、相対的な位置関係を維持しつつ移動させることにより、背景画像に対する位置を変化させる。   Next, processing performed by the position adjustment unit 94 will be described. The position adjustment unit 94 responds to the trajectory of the object in contact with the touch panel 7 while the superimposed image WD2 of the right-eye composite image WR2 and the left-eye composite image WL2 shown in FIG. The parallax is adjusted by changing the relative positions of the right-eye subject image A1 (R) and the left-eye subject image A1 (L). Further, the position adjustment unit 94 changes the position with respect to the background image by moving the right-eye subject image A1 (R) and the left-eye subject image A1 (L) while maintaining the relative positional relationship.

例えば、図11(a)に示すように、ユーザが左目被写体画像A1(L)にタッチして右方向に移動させる入力動作を行った場合、位置調整部94は、タッチの軌跡に応じて右目被写体画像A1(R)と左目被写体画像A1(L)との重なりを小さくする(即ち、視差を大きくする)。その結果、図11(b)に示すように、3D合成画像WT2において、主要被写体画像A1が表示画面と直交する方向に仮想的に飛び出す距離(以下、「飛び出し距離」という)Dが大きくなる。反対に、ユーザが左目被写体画像A1(L)にタッチし、右目被写体画像A1(R)を越えない範囲で左方向に移動させる入力動作を行った場合、位置調整部94は、タッチの軌跡に応じて右目被写体画像A1(R)と左目被写体画像A1(L)との重なりを大きくする(即ち、視差を小さくする)。この場合、3D画像として表示された合成画像において、主要被写体画像A1の飛び出し距離Dは小さくなる。   For example, as illustrated in FIG. 11A, when the user performs an input operation of touching the left-eye subject image A1 (L) and moving it to the right, the position adjustment unit 94 performs the right-eye according to the touch trajectory. The overlap between the subject image A1 (R) and the left-eye subject image A1 (L) is reduced (that is, the parallax is increased). As a result, as shown in FIG. 11B, in the 3D composite image WT2, a distance (hereinafter referred to as “jump distance”) D in which the main subject image A1 virtually jumps out in a direction orthogonal to the display screen is increased. On the other hand, when the user touches the left eye subject image A1 (L) and performs an input operation of moving leftward within a range not exceeding the right eye subject image A1 (R), the position adjustment unit 94 follows the touch trajectory. Accordingly, the overlap between the right eye subject image A1 (R) and the left eye subject image A1 (L) is increased (that is, the parallax is reduced). In this case, the pop-out distance D of the main subject image A1 is small in the composite image displayed as a 3D image.

なお、このような操作を行っている間、ユーザは、2D/3D切換スイッチ45を操作して随時3D表示に切り換えることにより、飛び出し距離Dをリアルタイムに確認することができる。例えば、図11に示すように、主要被写体画像A1をテンプレート画像TP1内のオブジェクト(キャラクター等)の上に重なるように貼り付ける場合、主要被写体画像A1をキャラクターよりも飛び出して見せると良く、このとき、ユーザは、合成画像全体として自然に見えるように、飛び出し距離Dを調整すると良い。   While performing such an operation, the user can check the pop-up distance D in real time by operating the 2D / 3D change-over switch 45 to switch to 3D display at any time. For example, as shown in FIG. 11, when the main subject image A1 is pasted so as to overlap an object (such as a character) in the template image TP1, the main subject image A1 may be projected beyond the character. The user may adjust the pop-up distance D so that the entire composite image looks natural.

また、図12に示すように、ユーザが右目被写体画像A1(R)及び左目被写体画像A1(L)の両方にタッチし、上下左右のいずれかの方向に移動させる入力動作を行った場合、位置調整部94は、右目被写体画像A1(R)及び左目被写体画像A1(L)の位置を、両者の相対的な位置関係を変えずに、タッチの軌跡に応じて背景画像TP1に対して移動させる。その際に、ユーザが軌跡を回転させる入力動作を行った場合、位置調整部94は、この軌跡に応じて右目被写体画像A1(R)及び左目被写体画像A1(L)を背景画像TP1の面内で回転させても良い。   Also, as shown in FIG. 12, when the user touches both the right-eye subject image A1 (R) and the left-eye subject image A1 (L) and performs an input operation for moving in either the up / down / left / right direction, The adjustment unit 94 moves the positions of the right-eye subject image A1 (R) and the left-eye subject image A1 (L) with respect to the background image TP1 according to the touch trajectory without changing the relative positional relationship between them. . At that time, when the user performs an input operation to rotate the locus, the position adjustment unit 94 converts the right eye subject image A1 (R) and the left eye subject image A1 (L) in the plane of the background image TP1 according to the locus. You may rotate with.

さらに、図13(a)に示すように、ユーザが左目被写体画像A1(L)にタッチし、右目被写体画像A1(R)よりも左側まで移動させる等して、左目被写体画像A1(L)と右目被写体画像A1(R)との左右関係を逆転させる入力動作を行った場合(即ち、右目被写体画像A1(R)の左端と左目被写体画像A1(L)の右端とが重なり合う状態の場合)、位置調整部94は、主要被写体画像A1が表示画面と直交する方向に、引っ込み距離D’だけ仮想的に引っ込んで見えるように、視差を調整する(図13(b)参照)。例えば、主要被写体画像A1がテンプレート画像TP1内のオブジェクト(キャラクター等)よりも後方に存在するように見せたい場合には、主要被写体画像A1をキャラクターよりも引っ込んで見せると良い。このとき、ユーザは、合成画像全体として自然に見えるように、引っ込み距離D’を調整すると良い。   Further, as shown in FIG. 13A, when the user touches the left eye subject image A1 (L) and moves it to the left side of the right eye subject image A1 (R), the left eye subject image A1 (L) When an input operation is performed to reverse the left-right relationship with the right-eye subject image A1 (R) (that is, when the left end of the right-eye subject image A1 (R) and the right end of the left-eye subject image A1 (L) overlap) The position adjustment unit 94 adjusts the parallax so that the main subject image A1 appears to be virtually retracted by the retract distance D ′ in a direction orthogonal to the display screen (see FIG. 13B). For example, when it is desired to make the main subject image A1 appear behind the object (character or the like) in the template image TP1, the main subject image A1 may be shown retracted from the character. At this time, the user may adjust the retraction distance D ′ so that the entire synthesized image looks natural.

なお、位置調整部94は、主要被写体画像A1の視差を調整する際にタッチの軌跡が3D画像の表示可能な視差の限界値を超えた場合、視差を限界値で固定しても良い。   Note that the position adjustment unit 94 may fix the parallax at the limit value when the touch trajectory exceeds the limit value of the parallax that can display the 3D image when adjusting the parallax of the main subject image A1.

次に、撮像装置1が行う処理について説明する。図14は、撮像装置1の動作を示すフローチャートである。図14において、まず、制御部9は、撮像装置1の電源がオンになっているか否かを判断する(ステップS101)。撮像装置1の電源がオンになっている場合(ステップS101:Yes)、撮像装置1はステップS102に移行する。一方、撮像装置1の電源がオンになっていない場合(ステップS101:No)、撮像装置1は本処理を終了する。   Next, processing performed by the imaging apparatus 1 will be described. FIG. 14 is a flowchart showing the operation of the imaging apparatus 1. In FIG. 14, first, the control unit 9 determines whether or not the power of the imaging device 1 is turned on (step S <b> 101). When the power supply of the imaging device 1 is on (step S101: Yes), the imaging device 1 proceeds to step S102. On the other hand, when the power of the imaging apparatus 1 is not turned on (step S101: No), the imaging apparatus 1 ends this process.

続いて、制御部9は、撮像装置1が撮影モードに設定されているか否かを判断する(ステップS102)。撮像装置1が撮影モードに設定されている場合(ステップS102:Yes)、表示制御部95は、撮像部2が一定の微小な時間間隔で連続的に生成する画像データに対応するスルー画を、2D/3D切換スイッチ45への操作による設定に従い、2D又は3Dで表示部6に表示させる(ステップS103)。   Subsequently, the control unit 9 determines whether or not the imaging apparatus 1 is set to the shooting mode (step S102). When the imaging device 1 is set to the shooting mode (step S102: Yes), the display control unit 95 displays through images corresponding to the image data that the imaging unit 2 continuously generates at a constant minute time interval. According to the setting by operating the 2D / 3D selector switch 45, the display unit 6 displays the image in 2D or 3D (step S103).

ステップS104において、制御部9は、撮像装置1が画像合成モードに設定されているか否かを判断する。撮像装置1が画像合成モードに設定されている場合(ステップS104:Yes)、続いて制御部9は、テンプレート画像が選択されているか否かを判断する(ステップS105)。テンプレート画像が既に選択されている場合(ステップS105:Yes)、表示制御部95は、選択されたテンプレート画像を表示部6に表示させる(ステップS107)。一方、テンプレート画像がまだ選択されていない場合(ステップS105:No)、表示制御部95は、テンプレート画像選択画面を表示部6に表示させ、ユーザに所望のテンプレート画像を選択させる(ステップS106)。   In step S104, the control unit 9 determines whether or not the imaging device 1 is set to the image composition mode. When the imaging device 1 is set to the image composition mode (step S104: Yes), the control unit 9 subsequently determines whether or not a template image is selected (step S105). If a template image has already been selected (step S105: Yes), the display control unit 95 displays the selected template image on the display unit 6 (step S107). On the other hand, if a template image has not yet been selected (step S105: No), the display control unit 95 displays a template image selection screen on the display unit 6 and allows the user to select a desired template image (step S106).

図15は、ステップS106において表示部6に表示されるテンプレート画像選択画面の一例を示す模式図である。このテンプレート画像選択画面100は、背景画像データ記憶部82に記憶されたテンプレート画像データに基づいてサムネイル表示されたテンプレートの縮小画像101〜106と、OKボタン107とを含む。タッチパネル7への外部からの物体の接触により、いずれかの縮小画像とOKボタン107とを選択する信号が入力されると(ステップS106)、選択された縮小画像に対応するテンプレート画像が表示部6に表示される(ステップS107)。   FIG. 15 is a schematic diagram illustrating an example of a template image selection screen displayed on the display unit 6 in step S106. The template image selection screen 100 includes reduced images 101 to 106 of templates displayed as thumbnails based on template image data stored in the background image data storage unit 82, and an OK button 107. When a signal for selecting one of the reduced images and the OK button 107 is input due to an external object touching the touch panel 7 (step S106), a template image corresponding to the selected reduced image is displayed on the display unit 6. (Step S107).

なお、表示制御部95は、ステップS105においてテンプレート画像が既に選択されている場合であっても、テンプレート画像選択画面100を表示部6に表示させ、選択済みのテンプレート画像を強調表示する等して、ユーザに確認させるようにしても良い。   Note that the display control unit 95 displays the template image selection screen 100 on the display unit 6 and highlights the selected template image even when the template image has already been selected in step S105. You may make it make a user confirm.

ステップS108において、画像抜出し部93aは、スルー画表示された画像から、撮像装置1の視野に入った主要被写体OB1を表す主要被写体画像A1を抜き出す。主要被写体画像A1の抜出し方法については、図6〜図8を参照して説明したいずれの方法を用いても良い。   In step S108, the image extraction unit 93a extracts a main subject image A1 representing the main subject OB1 that has entered the field of view of the imaging device 1 from an image displayed as a through image. As a method of extracting the main subject image A1, any method described with reference to FIGS. 6 to 8 may be used.

続くステップS109において、合成部93bは、主要被写体画像A1をテンプレート画像TP1に貼り付けた右目合成画像及び左目合成画像を生成し、表示制御部95は、これらの合成画像を表示部6に表示させる(図16参照)。なお、この間、ユーザは、2D/3D切換スイッチ45を操作して、右目合成画像と左目合成画像とを重ね合わせた2D画像の表示と、右目合成画像及び左目合成画像に基づく3D画像の表示とを所望のタイミングで切り換えることができる。図16は、重ね合わせ画像WD2が表示される場合を示している。また、図16に示すように、ユーザは、主要被写体OB1に対する撮像部2の向きを変化させることにより、テンプレート画像TP1上における主要被写体画像A1の位置を調節することができる。   In subsequent step S109, the composition unit 93b generates a right-eye composite image and a left-eye composite image in which the main subject image A1 is pasted on the template image TP1, and the display control unit 95 displays these composite images on the display unit 6. (See FIG. 16). During this time, the user operates the 2D / 3D selector switch 45 to display a 2D image obtained by superimposing the right eye composite image and the left eye composite image, and a 3D image display based on the right eye composite image and the left eye composite image. Can be switched at a desired timing. FIG. 16 shows a case where the superimposed image WD2 is displayed. As shown in FIG. 16, the user can adjust the position of the main subject image A1 on the template image TP1 by changing the orientation of the imaging unit 2 with respect to the main subject OB1.

ステップS110において、位置調整部94は、表示部6が2D画像の表示を行っている間、重ね合わせ画像WD2上の主要被写体画像A1の表示領域に対してタッチ操作があったか否かを判定する。タッチ操作があった場合(ステップS110:Yes)、位置調整部94は、タッチの軌跡に応じて、主要被写体画像A1の視差及び位置を調整する(ステップS111)。一方、タッチ操作がない場合(ステップS110:No)、当初の視差のまま、動作はステップS112に移行する。   In step S110, the position adjustment unit 94 determines whether or not a touch operation has been performed on the display area of the main subject image A1 on the superimposed image WD2 while the display unit 6 displays a 2D image. When there is a touch operation (step S110: Yes), the position adjustment unit 94 adjusts the parallax and the position of the main subject image A1 according to the touch trajectory (step S111). On the other hand, when there is no touch operation (step S110: No), the operation proceeds to step S112 while maintaining the original parallax.

ステップS112において、制御部9は、ユーザによってレリーズスイッチ42が操作されて撮影を指示するレリーズ信号が入力されたか否かを判断する。表示部6におけるスルー画表示の開始後、又は画像合成モードの設定後、所定時間内に撮影を指示するレリーズ信号が入力された場合(ステップS112:Yes)、撮像部2は撮影を行う(ステップS113)。なお、このとき、表示制御部95は、撮影された画像を所定時間表示する所謂レックビュー表示を行うよう表示部6を制御しても良い。   In step S112, the control unit 9 determines whether or not the release switch 42 is operated by the user and a release signal instructing photographing is input. If a release signal instructing shooting is input within a predetermined time after the start of live view display on the display unit 6 or after the image composition mode is set (step S112: Yes), the imaging unit 2 performs shooting (step S112). S113). At this time, the display control unit 95 may control the display unit 6 so as to perform a so-called REC view display for displaying a photographed image for a predetermined time.

続いて、制御部9は、撮影により得られた画像データを撮影画像データ記憶部81に記憶させると共に、関連情報として、主要被写体画像A1として撮影画像から抜き出す領域(抜出し領域情報)、選択されたテンプレート画像TP1を特定する情報(背景画像情報)、テンプレート画像TP1上における主要被写体画像A1の位置(合成位置情報)、及び調整された視差の量(視差情報)等の情報を撮影画像データに関連付けて記憶させる(ステップS114)。なお、制御部9は、撮影画像データとは別に、主要被写体画像データを別途生成し、そこに背景画像情報、合成位置情報、及び視差情報を関連付けて記憶させても良い。その後、撮像装置1の動作はステップS101に戻る。   Subsequently, the control unit 9 stores the image data obtained by photographing in the photographed image data storage unit 81 and, as related information, an area extracted from the photographed image as the main subject image A1 (extraction area information) is selected. Information such as information specifying the template image TP1 (background image information), the position of the main subject image A1 on the template image TP1 (composite position information), and the amount of parallax adjusted (parallax information) are associated with the captured image data. (Step S114). The control unit 9 may separately generate main subject image data separately from the captured image data, and store background image information, composite position information, and parallax information in association therewith. Thereafter, the operation of the imaging apparatus 1 returns to step S101.

一方、所定時間内に撮影を指示するレリーズ信号が入力されない場合(ステップS112:No)、撮像装置1の動作はステップS101に戻る。   On the other hand, when the release signal instructing photographing is not input within the predetermined time (step S112: No), the operation of the imaging device 1 returns to step S101.

次に、撮像装置1が画像合成モードに設定されていない場合(ステップS104:No)について説明する。この場合、制御部9は、ユーザによってレリーズスイッチ42が操作されて撮影を指示するレリーズ信号が入力されたか否かを判断する(ステップS115)。表示部6におけるスルー画の開始後、所定時間内に、撮影を指示するレリーズ信号が入力された場合(ステップS115:Yes)、撮像部2は撮影を行い(ステップS116)、制御部9は、撮影により得られた撮影画像データを記憶部8に記憶させる(ステップS117)。なお、このとき、表示制御部95は、レックビュー表示を行うよう表示部6を制御しても良い。その後、動作はステップS101に戻る。一方、スルー画表示の開始後、所定時間内に撮影を指示するレリーズ信号が入力されない場合(ステップS115:No)、撮像装置1の動作はステップS101に戻る。   Next, a case where the imaging device 1 is not set to the image composition mode (step S104: No) will be described. In this case, the control unit 9 determines whether or not the release switch 42 is operated by the user and a release signal instructing photographing is input (step S115). When a release signal instructing shooting is input within a predetermined time after the start of the through image on the display unit 6 (step S115: Yes), the imaging unit 2 performs shooting (step S116), and the control unit 9 The photographed image data obtained by photographing is stored in the storage unit 8 (step S117). At this time, the display control unit 95 may control the display unit 6 to perform REC view display. Thereafter, the operation returns to step S101. On the other hand, after the start of the live view display, when the release signal for instructing photographing is not input within a predetermined time (step S115: No), the operation of the imaging device 1 returns to step S101.

次に、ステップS102において、撮像装置1が撮影モードに設定されていない場合を説明する(ステップS102:No)。この場合、撮像装置1は、撮影した画像データを表示部6に表示する再生表示処理を実行する(ステップS120)。   Next, the case where the imaging apparatus 1 is not set to the shooting mode in step S102 will be described (step S102: No). In this case, the imaging apparatus 1 executes a reproduction display process for displaying the captured image data on the display unit 6 (step S120).

図17は、再生表示処理における撮像装置1の動作を示すフローチャートである。図17において、まず、表示制御部95は、撮影画像データ記憶部81に記憶された画像ファイルに基づき、複数の画像をまとめて表示した画像選択画面を表示部6に表示させる(ステップS121)。   FIG. 17 is a flowchart illustrating the operation of the imaging apparatus 1 in the reproduction display process. In FIG. 17, first, the display control unit 95 causes the display unit 6 to display an image selection screen in which a plurality of images are displayed together based on the image file stored in the captured image data storage unit 81 (step S121).

ステップS122において、制御部9は、ユーザがタッチパネル7を操作することによって画像選択画面の中から画像が選択されたか否かを判断する。画像が選択されない場合(ステップS122:No)、動作はステップS121に戻る。一方、画像が選択された場合(ステップS122:Yes)、続いて制御部9は、選択された画像の関連情報に基づいて、当該画像が合成画像であるか否かを判断する(ステップS123)。制御部9は、例えば関連情報に背景画像情報が含まれる場合、当該画像が合成画像であると判断する。   In step S <b> 122, the control unit 9 determines whether an image is selected from the image selection screen by operating the touch panel 7 by the user. If no image is selected (step S122: No), the operation returns to step S121. On the other hand, when the image is selected (step S122: Yes), the control unit 9 determines whether the image is a composite image based on the related information of the selected image (step S123). . For example, when the background image information is included in the related information, the control unit 9 determines that the image is a composite image.

選択された画像が合成画像でない場合(ステップS123:No)、表示制御部95は、当該画像に対応する撮影画像データを記憶部8から読み出し、表示部6に拡大画像を表示させる(ステップS124)。   If the selected image is not a composite image (step S123: No), the display control unit 95 reads the captured image data corresponding to the image from the storage unit 8, and causes the display unit 6 to display an enlarged image (step S124). .

一方、選択された画像が合成画像である場合(ステップS123:Yes)、合成部93bは、撮影画像データ(又は被写体画像データ)を記憶部8から読み出すと共に、関連情報に基づいてテンプレート画像データを読み出し、視差情報及び合成位置情報に基づいて、主要被写体画像をテンプレート画像に貼り付けた合成画像データを生成する。さらに、表示用画像生成部92は、この合成画像データに基づいて表示用の画像データを生成し、表示制御部95は、表示用の画像データに基づいて合成画像の拡大画像を表示部6に表示させる(ステップS125)。   On the other hand, when the selected image is a composite image (step S123: Yes), the composition unit 93b reads the captured image data (or subject image data) from the storage unit 8 and also obtains template image data based on the related information. Based on the read-out parallax information and the synthesized position information, synthesized image data in which the main subject image is pasted on the template image is generated. Further, the display image generation unit 92 generates display image data based on the combined image data, and the display control unit 95 displays an enlarged image of the combined image on the display unit 6 based on the display image data. It is displayed (step S125).

図18は、ステップS125において表示部6に表示される画像の表示例を示す模式図である。表示部6の表示画面には、画像選択用の複数の縮小画像112及び113が表示される画像一覧表示領域111と、選択された縮小画像112を拡大した拡大画像表示領域114とが設けられる。このとき、ユーザは、2D/3D切換スイッチ45を操作することにより、右目合成画像と左目合成画像とを重ね合わせた2D画像の表示と、右目合成画像及び左目合成画像合成画像に基づく3D画像の表示とを所望のタイミングで切り換えることができる。図18は、2D画像として表示された重ね合わせ画像WD2を示している。   FIG. 18 is a schematic diagram illustrating a display example of an image displayed on the display unit 6 in step S125. The display screen of the display unit 6 is provided with an image list display area 111 in which a plurality of reduced images 112 and 113 for image selection are displayed, and an enlarged image display area 114 in which the selected reduced image 112 is enlarged. At this time, the user operates the 2D / 3D changeover switch 45 to display a 2D image obtained by superimposing the right eye composite image and the left eye composite image, and to display a 3D image based on the right eye composite image and the left eye composite image composite image. The display can be switched at a desired timing. FIG. 18 shows a superimposed image WD2 displayed as a 2D image.

制御部9は、表示部6が重ね合わせ画像WD2を表示している間、重ね合わせ画像WD2上の主要被写体画像A1の表示領域に対して、タッチパネル7へのタッチ操作(即ち、タッチパネル7の外部からの接触位置に応じた信号が入力)があったか否かを判断する(ステップS126)。タッチ操作があった場合(ステップS126:Yes)、制御部9は、タッチされた軌跡に応じて、主要被写体画像A1の視差及び位置を調整する(ステップS127)。視差及び位置の調整方法については、図11〜図13を参照して説明したものと同様である。   While the display unit 6 displays the superimposed image WD2, the control unit 9 touches the touch panel 7 with respect to the display area of the main subject image A1 on the superimposed image WD2 (that is, outside the touch panel 7). It is determined whether or not a signal corresponding to the contact position is input (step S126). When there is a touch operation (step S126: Yes), the control unit 9 adjusts the parallax and the position of the main subject image A1 according to the touched locus (step S127). The method for adjusting the parallax and the position is the same as that described with reference to FIGS.

なお、視差及び位置を調整する際、ユーザは、例えば図19に示すように、主要被写体画像A1の表示領域上の1箇所に指をタッチさせて操作入力を行っても良いし、図20に示すように、主要被写体画像A1の表示領域上の2箇所に指をタッチさせ、左右方向に指の間隔を広げたり、反対に、指の間隔を狭めたりする操作入力(ピンチ操作)を行っても良い。後者の場合、位置調整部94は、このような操作を、主要被写体画像A1の視差を大きく(又は小さく)する信号の入力として受け付ける。   When adjusting the parallax and the position, the user may input an operation by touching a finger on one place on the display area of the main subject image A1, as shown in FIG. 19, for example. As shown, an operation input (pinch operation) for touching two places on the display area of the main subject image A1 to widen the gap between the fingers in the left-right direction and conversely narrow the gap between the fingers is performed. Also good. In the latter case, the position adjustment unit 94 accepts such an operation as an input of a signal that increases (or decreases) the parallax of the main subject image A1.

一方、タッチ操作がない場合(ステップS126:No)、位置調整部94は、主要被写体画像A1に関して視差及び位置の調整は行わず、動作はステップS128に移行する。   On the other hand, when there is no touch operation (step S126: No), the position adjustment unit 94 does not adjust the parallax and the position with respect to the main subject image A1, and the operation proceeds to step S128.

画像一覧表示領域111から別の縮小画像113のいずれかを選択する信号入力等により、現在表示されている画像の拡大表示を終了する操作入力があった場合(ステップS128:Yes)、制御部9は、視差及び位置調整後の視差情報及び合成位置情報を、当該撮影画像データの関連情報として記憶部8に上書き記憶させる(ステップS129)。このとき、制御部9は、視差情報及び合成位置情報を保存するか否かのメッセージを表示部6に表示させ、ユーザにより入力された信号に基づいて、視差情報及び合成位置情報を上書きさせるようにしても良い。一方、現在表示されている画像の拡大表示を終了する操作入力がない場合(ステップS128:No)、動作はステップS126に戻る。   When there is an operation input for ending the enlarged display of the currently displayed image due to a signal input for selecting one of the other reduced images 113 from the image list display area 111 (step S128: Yes), the control unit 9 Causes the storage unit 8 to overwrite and store the parallax, the position-adjusted parallax information, and the combined position information as related information of the captured image data (step S129). At this time, the control unit 9 displays a message as to whether or not to save the parallax information and the combined position information on the display unit 6 and overwrites the parallax information and the combined position information based on the signal input by the user. Anyway. On the other hand, when there is no operation input for ending the enlarged display of the currently displayed image (step S128: No), the operation returns to step S126.

切換スイッチ43を介した入力信号により、撮像装置1の再生モードが終了すると(ステップS130:Yes)、動作はメインルーチンに戻る。一方、再生モードが継続している場合(ステップS130:No)、動作はステップS121に戻る。   When the reproduction mode of the imaging apparatus 1 is ended by an input signal via the changeover switch 43 (step S130: Yes), the operation returns to the main routine. On the other hand, when the reproduction mode is continued (step S130: No), the operation returns to step S121.

以上説明したように、実施の形態1によれば、撮影画像から主要被写体の画像を抜き出し、背景として予め用意されたテンプレート画像に合成するので、身近な人物等の被写体が写し出された合成画像を手軽に生成することができる。また、合成画像を生成又は表示する際に、右目画像と左目画像との重ね合わせ画像上でのタッチ操作により視差を変更できるので、ユーザは、主要被写体画像の立体感を直感的な動作で調整することが可能となる。その結果、背景画像に対する主要被写体画像の立体感(飛び出し感や引っ込み感)が自然で、違和感の少ない3D画像を表示することが可能となる。   As described above, according to the first embodiment, the image of the main subject is extracted from the photographed image and is combined with a template image prepared in advance as a background. Therefore, a composite image in which a subject such as a familiar person is copied is displayed. It can be generated easily. In addition, when generating or displaying a composite image, the parallax can be changed by a touch operation on the superimposed image of the right eye image and the left eye image, so that the user can adjust the stereoscopic effect of the main subject image with an intuitive operation. It becomes possible to do. As a result, it is possible to display a 3D image in which the main subject image has a three-dimensional effect (feeling of popping out and retracting) with respect to the background image and is less likely to be uncomfortable.

以上説明した実施の形態1においては、テンプレート画像を表示部6に表示させた状態で、撮影画像を取り込んで主要被写体画像を抜き出したが、主要被写体画像の抜出しを行った後でテンプレート画像の選択や表示を行うようにしても良い。   In the first embodiment described above, the main subject image is extracted by capturing the captured image while the template image is displayed on the display unit 6, but the template image is selected after the main subject image is extracted. Or may be displayed.

また、上記実施の形態1において、予めユーザが撮影した画像を背景画像として背景画像データ記憶部82に記憶させておき、これを用いて合成画像を生成しても良い。   In the first embodiment, an image captured by the user in advance may be stored in the background image data storage unit 82 as a background image, and a composite image may be generated using the image.

(実施の形態2)
次に、本発明の実施の形態2に係る撮像装置について説明する。本実施の形態2に係る撮像装置は、右目用の画像と左目用の画像を高速で切換えるフレームシーケンシャル方式によって3D画像を表示する3Dテレビ等の表示画面を撮影することにより取得した画像信号に基づいて、3Dの背景画像を生成することを特徴とする。
(Embodiment 2)
Next, an imaging apparatus according to Embodiment 2 of the present invention will be described. The imaging apparatus according to the second embodiment is based on an image signal acquired by photographing a display screen of a 3D television or the like that displays a 3D image by a frame sequential method that switches between a right-eye image and a left-eye image at high speed. And generating a 3D background image.

図21は、実施の形態2に係る撮像装置の構成を示すブロック図である。図21に示すように、撮像装置201は、3Dテレビ等の表示画面を撮影した撮影画像データから、3D表示可能な背景画像データを取り込む3D背景画像取得部96を備える。撮像装置201のその他の構成については、図1に示すものと同様である。   FIG. 21 is a block diagram illustrating a configuration of the imaging apparatus according to the second embodiment. As illustrated in FIG. 21, the imaging apparatus 201 includes a 3D background image acquisition unit 96 that captures background image data that can be displayed in 3D from captured image data obtained by capturing a display screen of a 3D television or the like. Other configurations of the imaging apparatus 201 are the same as those shown in FIG.

まず、本実施の形態2における背景画像の生成方法について説明する。図22は、フレームシーケンシャル方式の3Dテレビである表示装置202を撮像装置201で撮影する様子を示す模式図である。表示装置202の表示画面203には、図23(a)及び(b)に示すように、右目画像及び左目画像が所定の周期で交互に表示される。このような表示画面に対し、図23(c)に示すような撮像タイミングで高速連写撮影を行うと、右目画像及び左目画像がそれぞれ所定の周期で撮影画像に写り込む。   First, a background image generation method according to the second embodiment will be described. FIG. 22 is a schematic diagram illustrating a state in which the imaging device 201 captures an image of the display device 202 which is a frame sequential 3D television. As shown in FIGS. 23A and 23B, the right eye image and the left eye image are alternately displayed on the display screen 203 of the display device 202 at a predetermined cycle. When high-speed continuous shooting is performed on such a display screen at an imaging timing as illustrated in FIG. 23C, the right-eye image and the left-eye image are reflected in the captured image at predetermined intervals.

3D背景画像取得部96は、撮像装置1がテレビ(TV)撮影モードに設定されている間、高速連写撮影により生成された撮影画像データを所定のタイミングで取り込むことにより、背景画像として使用される右目画像及び左目画像に対応する画像データを取得する。   The 3D background image acquisition unit 96 is used as a background image by capturing captured image data generated by high-speed continuous shooting at a predetermined timing while the imaging device 1 is set in the television (TV) shooting mode. Image data corresponding to the right eye image and the left eye image is acquired.

また、合成画像生成部93の左右画像判別部93cは、3D背景画像取得部96が取り込んだ背景画像を左右いずれの背景画像とするかを判別する。ここで、図24に示すように、合成画像の背景として使用される画像は、現実の表示画面P1よりも仮想的に奥(ユーザ204から離れる方)に引っ込んで見えるようにすると良い。そのためには、表示画面P1の位置において、画面の右寄りに表示される画像がユーザ204の右目に入り、画面の左寄りに表示される画像がユーザ204の左目に入るようにすれば良い。そこで、左右画像判別部93cは、画像が画面の右寄りに写っているものを右目背景画像、画像が画面の左寄りに写っているものを左目背景画像として振り分ける(図23(d)参照)。   The left and right image determination unit 93c of the composite image generation unit 93 determines whether the background image captured by the 3D background image acquisition unit 96 is the left or right background image. Here, as shown in FIG. 24, it is preferable that the image used as the background of the composite image be seen to be virtually retracted (away from the user 204) from the actual display screen P1. For this purpose, an image displayed on the right side of the screen at the position of the display screen P1 may enter the right eye of the user 204, and an image displayed on the left side of the screen may enter the left eye of the user 204. Therefore, the left and right image discriminating unit 93c sorts the image that is on the right side of the screen as the right eye background image and the image that is on the left side of the screen as the left eye background image (see FIG. 23D).

さらに、制御部9は、右目背景画像及び左目背景画像として振り分けられた画像の内から、それぞれ、鮮鋭度の高い画像を抽出して背景画像データ記憶部82に記憶させる。   Further, the control unit 9 extracts images with high sharpness from the images sorted as the right eye background image and the left eye background image, and stores them in the background image data storage unit 82.

図25は、撮像装置201の動作を示すフローチャートである。図25において、まず、制御部9は、撮像装置201の電源がオンになっているか否かを判断する(ステップS201)。撮像装置201の電源がオンになっている場合(ステップS201:Yes)、撮像装置201はステップS202に移行する。一方、撮像装置201の電源がオンになっていない場合(ステップS201:No)、撮像装置201は動作を終了する。   FIG. 25 is a flowchart showing the operation of the imaging apparatus 201. In FIG. 25, first, the control unit 9 determines whether or not the power of the imaging device 201 is turned on (step S201). When the power of the imaging device 201 is on (step S201: Yes), the imaging device 201 proceeds to step S202. On the other hand, when the power of the imaging apparatus 201 is not turned on (step S201: No), the imaging apparatus 201 ends the operation.

ステップS202において、制御部9は、撮像装置201が撮影モードに設定されているか否かを判断する。撮影装置201が撮影モードに設定されていない場合(ステップS202:No)、動作はステップS120に移行する。なお、ステップS120における動作は、実施の形態1において説明したものと同様である。   In step S202, the control unit 9 determines whether or not the imaging apparatus 201 is set to the shooting mode. If the photographing apparatus 201 is not set to the photographing mode (step S202: No), the operation proceeds to step S120. The operation in step S120 is the same as that described in the first embodiment.

一方、撮像装置201が撮影モードに設定されている場合(ステップS202:Yes)、表示制御部95は、撮像部2が一定の微小な時間間隔で連続的に生成する画像データに対応するスルー画を、2D/3D切換スイッチ45への操作による設定に従い、2D画像又は3D画像で表示部6に表示させる(ステップS203)。   On the other hand, when the imaging apparatus 201 is set to the imaging mode (step S202: Yes), the display control unit 95 displays the through image corresponding to the image data that the imaging unit 2 continuously generates at a constant minute time interval. Are displayed on the display unit 6 as a 2D image or a 3D image according to the setting by operating the 2D / 3D changeover switch 45 (step S203).

続くステップS204において、制御部9は、撮像装置201がテレビ(TV)撮影モードに設定されているか否かを判断する(ステップS204)。テレビ撮影モードに設定されていない場合(ステップS204:No)、動作は直接ステップS209に移行する。   In subsequent step S204, the control unit 9 determines whether or not the imaging device 201 is set to the television (TV) shooting mode (step S204). When the television shooting mode is not set (step S204: No), the operation directly proceeds to step S209.

撮像装置201がテレビ撮影モードに設定されている場合(ステップS204:Yes)、制御部9は、ユーザによってレリーズスイッチ42が操作されて撮影を指示するレリーズ信号が入力されたか否かを判断する(ステップS205)。表示部6におけるスルー画表示の開始後、又は画像合成モードの設定後、所定時間内に撮影を指示するレリーズ信号が入力された場合(ステップS205:Yes)、撮像部2は高速連写撮影を行い、3D背景画像取得部96は所定のタイミングで撮影画像データを取り込む(ステップS206)。続いて、左右画像判別部93cは、3D背景画像取得部96によって取り込まれた撮影画像データに対応する画像を、左目背景画像と右目背景画像とに振り分ける処理を行う(ステップS207)。さらに、制御部9は、左目背景画像と右目背景画像とに振り分けられた画像の内から鮮鋭度の高い画像をそれぞれ抽出して、背景画像データ記憶部82に記憶させる(ステップS208)。   When the imaging device 201 is set to the television shooting mode (step S204: Yes), the control unit 9 determines whether or not a release signal instructing shooting is input by the user operating the release switch 42 (step S204: Yes). Step S205). When a release signal instructing shooting is input within a predetermined time after the start of live view display on the display unit 6 or after the image composition mode is set (step S205: Yes), the imaging unit 2 performs high-speed continuous shooting. Then, the 3D background image acquisition unit 96 captures the captured image data at a predetermined timing (step S206). Subsequently, the left and right image determination unit 93c performs a process of distributing an image corresponding to the captured image data captured by the 3D background image acquisition unit 96 into a left eye background image and a right eye background image (step S207). Further, the control unit 9 extracts images with high sharpness from the images assigned to the left eye background image and the right eye background image, and stores them in the background image data storage unit 82 (step S208).

続くステップS209において、制御部9は、撮像装置201が画像合成モードに設定されているか否かを判断する。画像合成モードに設定されている場合(ステップS209:Yes)、制御部9は、画像合成に用いられる背景画像が設定されているか否かを判断する(ステップS210)。例えば、ステップS204〜S208において背景画像が生成された場合には、生成された背景画像が設定されているものと判断される。   In subsequent step S209, the control unit 9 determines whether or not the imaging apparatus 201 is set to the image composition mode. When the image composition mode is set (step S209: Yes), the control unit 9 determines whether or not a background image used for image composition is set (step S210). For example, when a background image is generated in steps S204 to S208, it is determined that the generated background image is set.

背景画像が設定されている場合(ステップS210:Yes)、表示制御部95は、設定された背景画像を表示部6に表示させる(ステップS212)。一方、背景画像がまだ設定されていない場合(ステップS210:No)、表示制御部95は、背景画像選択画面を表示部6に表示させ、ユーザに所望の背景画像を選択させる(ステップS211)。この背景画像選択画面には、過去に生成された背景画像や、実施の形態1において用いられたテンプレート画像が表示されるようにしても良い。   When the background image is set (step S210: Yes), the display control unit 95 displays the set background image on the display unit 6 (step S212). On the other hand, when the background image has not been set yet (step S210: No), the display control unit 95 displays the background image selection screen on the display unit 6 and causes the user to select a desired background image (step S211). On this background image selection screen, a background image generated in the past or a template image used in the first embodiment may be displayed.

ステップS213において、画像抜出し部93aは、スルー画表示された画像から主要被写体画像を抜き出す。主要被写体画像の抜出し方法については、図6〜図8を参照して説明したいずれの方法を用いても良い。   In step S213, the image extraction unit 93a extracts the main subject image from the image displayed as a through image. As a method for extracting the main subject image, any method described with reference to FIGS. 6 to 8 may be used.

ステップS214において、合成部93bは、主要被写体画像を背景画像に貼り付けた右目合成画像及び左目合成画像を生成する。さらに、表示用画像生成部92は、これらの合成画像に基づく表示用の画像データを生成し、表示制御部95は、表示用の画像データに基づいて合成画像を表示部6に表示させる。このとき、表示制御部95は、2D/3D切換スイッチ45への操作による設定に従って、右目合成画像と左目合成画像とを重ね合わせた2D画像の表示、又は、右目合成画像及び左目合成画像に基づく3D画像の表示を行うよう、表示部6を制御する(図10(b)及び(c)参照)。   In step S214, the composition unit 93b generates a right eye composite image and a left eye composite image in which the main subject image is pasted on the background image. Further, the display image generation unit 92 generates display image data based on these composite images, and the display control unit 95 causes the display unit 6 to display the composite image based on the display image data. At this time, the display control unit 95 displays a 2D image obtained by superimposing the right-eye synthesized image and the left-eye synthesized image, or based on the right-eye synthesized image and the left-eye synthesized image, according to the setting by operating the 2D / 3D changeover switch 45. The display unit 6 is controlled to display a 3D image (see FIGS. 10B and 10C).

ステップS215において、位置調整部94は、表示部6が2D画像の表示を行っている間、重ね合わせ画像上の主要被写体画像の表示領域に対してタッチ操作があったか否かを判定する。タッチ操作があった場合(ステップS215:Yes)、位置調整部94は、タッチされた軌跡に応じて、主要被写体画像A1の視差を調整する(ステップS216)。一方、タッチ操作がない場合(ステップS215:No)、当初の視差のまま、動作はステップS217に移行する。   In step S215, the position adjustment unit 94 determines whether a touch operation has been performed on the display area of the main subject image on the superimposed image while the display unit 6 displays the 2D image. If there is a touch operation (step S215: Yes), the position adjustment unit 94 adjusts the parallax of the main subject image A1 according to the touched locus (step S216). On the other hand, when there is no touch operation (step S215: No), the operation proceeds to step S217 with the original parallax.

ステップS217において、制御部9は、ユーザによってレリーズスイッチ42が操作されて撮影を指示するレリーズ信号が入力されたか否かを判断する。表示部6におけるスルー画表示の開始後、又は画像合成モードの設定後、所定時間内に撮影を指示するレリーズ信号が入力された場合(ステップS217:Yes)、撮像部2は撮影を行う(ステップS218)。なお、このとき、表示制御部95は、レックビュー表示を行うよう表示部6を制御しても良い。   In step S217, the control unit 9 determines whether or not a release signal for instructing photographing is input by operating the release switch 42 by the user. When a release signal instructing shooting is input within a predetermined time after the start of live view display on the display unit 6 or after setting of the image composition mode (step S217: Yes), the imaging unit 2 performs shooting (step S217). S218). At this time, the display control unit 95 may control the display unit 6 to perform REC view display.

続いて、制御部9は、撮影により得られた画像データを撮影画像データ記憶部81に記憶させると共に、背景画像を特定する情報(背景画像情報)、背景画像上における主要被写体画像の位置(合成位置情報)、及びステップS216において調整された視差の量(視差情報)を含む関連情報を、撮影画像データに関連付けて記憶させる(ステップS219)。その後、動作はステップS201に戻る。   Subsequently, the control unit 9 stores the image data obtained by photographing in the photographed image data storage unit 81, information for specifying the background image (background image information), and the position of the main subject image on the background image (composite). Position information) and related information including the amount of parallax adjusted in step S216 (parallax information) are stored in association with the captured image data (step S219). Thereafter, the operation returns to step S201.

一方、所定時間内に撮影を指示するレリーズ信号が入力されない場合(ステップS217:No)、動作はそのままステップS201に戻る。   On the other hand, when the release signal instructing photographing is not input within the predetermined time (step S217: No), the operation directly returns to step S201.

次に、撮像装置201が画像合成モードに設定されていない場合(ステップS209:No)について説明する。この場合、制御部9は、撮影を指示するレリーズ信号が入力されたか否かを判断する(ステップS231)。表示部6がスルー画を表示し始めてから所定時間内に撮影を指示するレリーズ信号が入力された場合(ステップS231:Yes)、撮像部2は撮影を行い(ステップS232)、制御部9は、撮影により得られた撮影画像データを記憶部8に記憶させる(ステップS233)。なお、このとき、表示制御部95は、レックビュー表示を行うよう表示部6を制御しても良い。その後、動作はステップS201に戻る。一方、スルー画表示の開始後、所定時間内に撮影を指示するレリーズ信号が入力されない場合(ステップS231:No)、動作はステップS201に戻る。   Next, a case where the imaging apparatus 201 is not set to the image composition mode (step S209: No) will be described. In this case, the control unit 9 determines whether or not a release signal instructing photographing is input (step S231). When a release signal instructing shooting is input within a predetermined time after the display unit 6 starts displaying a through image (step S231: Yes), the imaging unit 2 performs shooting (step S232), and the control unit 9 Photographed image data obtained by photographing is stored in the storage unit 8 (step S233). At this time, the display control unit 95 may control the display unit 6 to perform REC view display. Thereafter, the operation returns to step S201. On the other hand, if a release signal for instructing photographing is not input within a predetermined time after the through image display is started (step S231: No), the operation returns to step S201.

以上説明した実施の形態2によれば、3D画像の表示が可能なテレビを利用して、3Dの背景画像を手軽に生成することができる。従って、ユーザは、お気に入りのキャラクターや風景が写し出された背景画像に、身近な人物等の主要被写体画像を合成して鑑賞することが可能となる。また、実施の形態2によれば、背景画像の立体感に合わせて主要被写体画像の立体感を調整することにより、違和感のない合成画像を生成して表示することが可能となる。   According to the second embodiment described above, a 3D background image can be easily generated using a television capable of displaying a 3D image. Therefore, the user can synthesize and view a main subject image such as a familiar person on a background image on which a favorite character or landscape is projected. Further, according to the second embodiment, it is possible to generate and display a composite image without a sense of incongruity by adjusting the stereoscopic effect of the main subject image in accordance with the stereoscopic effect of the background image.

(実施の形態3)
次に、本発明の実施の形態3に係る画像通信システムについて説明する。実施の形態3においては、撮像装置において生成された合成画像を、3D画像を表示可能なテレビ等の表示装置に出力して表示させることを特徴とする。
(Embodiment 3)
Next, an image communication system according to Embodiment 3 of the present invention will be described. Embodiment 3 is characterized in that a composite image generated by an imaging device is output and displayed on a display device such as a television capable of displaying a 3D image.

図26は、実施の形態3に係る画像通信システムの構成を示す模式図である。図26に示す画像通信システム300は、デジタルステレオカメラである撮像装置301と、撮像装置301と電気的に接続され、撮像装置301からの画像データを受信し、3D画像を表示することが可能な外部機器としての表示装置302とを備える。   FIG. 26 is a schematic diagram illustrating a configuration of an image communication system according to the third embodiment. An image communication system 300 illustrated in FIG. 26 is electrically connected to the imaging device 301 that is a digital stereo camera, and can receive image data from the imaging device 301 and display a 3D image. And a display device 302 as an external device.

図27は、撮像装置301の構成を示すブロック図である。図27に示すように、撮像装置301は、外部機器との間でデータの送受信を行う通信部10と、送信用画像生成部97と、通信状態検出部98とを備える。その他の構成については、図1に示す撮像装置1と同様である。或いは、撮像装置301は、図21に示す撮像装置201と同様に、3D背景画像取得部96をさらに備えても良い。   FIG. 27 is a block diagram illustrating a configuration of the imaging device 301. As illustrated in FIG. 27, the imaging device 301 includes a communication unit 10 that transmits and receives data to and from an external device, a transmission image generation unit 97, and a communication state detection unit 98. About another structure, it is the same as that of the imaging device 1 shown in FIG. Alternatively, the imaging apparatus 301 may further include a 3D background image acquisition unit 96 as in the imaging apparatus 201 illustrated in FIG.

送信用画像生成部97は、通信部10を介して外部接続された表示装置302の表示画面303で表示させるために表示装置302へ送信する送信用画像の画像データを生成する。   The transmission image generation unit 97 generates image data of a transmission image to be transmitted to the display device 302 for display on the display screen 303 of the display device 302 externally connected via the communication unit 10.

通信状態検出部98は、撮像装置301と表示装置302との通信状態を検出する。例えば、撮像装置301と表示装置302との間がHDMI(登録商標)を介して接続される場合、通信状態検出部98は、CECプロトコルにしたがって撮像装置301と表示装置302との通信状態を検出する。また、撮像装置301と表示装置302との間がインターネットを介して接続される場合、通信状態検出部98は、TCP/IPプロトコルにしたがって撮像装置301と表示装置302との通信状態を検出する。なお、撮像装置301と表示装置302との間の通信は、無線通信であってもよい。   The communication state detection unit 98 detects the communication state between the imaging device 301 and the display device 302. For example, when the imaging device 301 and the display device 302 are connected via HDMI (registered trademark), the communication state detection unit 98 detects the communication state between the imaging device 301 and the display device 302 according to the CEC protocol. To do. When the imaging device 301 and the display device 302 are connected via the Internet, the communication state detection unit 98 detects the communication state between the imaging device 301 and the display device 302 according to the TCP / IP protocol. Note that the communication between the imaging device 301 and the display device 302 may be wireless communication.

表示装置302は、例えば、表示画面303で表示する右目用の画像と左目用の画像を高速で切換えるフレームシーケンシャル方式、または液晶パネルからなる表示画面303に偏光フィルムが組み込まれた偏光フィルム方式によって3D画像を表示する3Dテレビである。このような3Dテレビが表示する3D画像をユーザが見る場合には、方式に応じた専用のメガネ304をかける必要がある。フレームシーケンシャル方式の場合に適用されるメガネ304は、画像の切り換えに同期して、表示される画像を見るための目と逆の目を閉じることが可能な構成を有する液晶シャッタメガネである。また、偏光方式の場合に適用されるメガネ304は、左目には左目画像のみが届き、右目には右目画像のみが届くように偏光フィルタが貼付された構成を有する。   For example, the display device 302 can perform 3D by a frame sequential method in which a right-eye image and a left-eye image displayed on the display screen 303 are switched at high speed, or a polarizing film method in which a polarizing film is incorporated in the display screen 303 formed of a liquid crystal panel. It is a 3D television that displays images. When a user views a 3D image displayed on such a 3D television, it is necessary to wear dedicated glasses 304 corresponding to the method. The glasses 304 applied in the case of the frame sequential method are liquid crystal shutter glasses having a configuration capable of closing an eye opposite to an eye for viewing a displayed image in synchronization with switching of images. In addition, the glasses 304 applied in the case of the polarization method have a configuration in which a polarizing filter is attached so that only the left eye image reaches the left eye and only the right eye image reaches the right eye.

このような画像通信システム300において、撮像装置301は、切換スイッチ43への操作により撮影モードに設定されている間、実施の形態1と同様に、被写体を撮影して合成画像を生成する(図14参照)。或いは、撮像装置301は、実施の形態2と同様に、表示装置302を利用して背景画像の生成を行っても良い(図25参照)。また、撮像装置301は、切換スイッチ43への操作により再生表示モードに設定されている間、撮影画像や合成画像を自身に備えられた表示部6に表示させる(図17参照)。   In such an image communication system 300, the imaging device 301 captures a subject and generates a composite image in the same manner as in the first embodiment while the photographing mode is set by operating the changeover switch 43 (FIG. 14). Alternatively, the imaging device 301 may generate a background image using the display device 302 as in the second embodiment (see FIG. 25). In addition, the imaging device 301 displays a captured image or a composite image on the display unit 6 provided in the imaging device 301 while the reproduction display mode is set by operating the changeover switch 43 (see FIG. 17).

また、撮像装置301は、表示装置302と接続されている間、表示部6に表示されている画像に対応する画像を表示装置302に表示させる。具体的には、表示用画像生成部92が撮影画像データ又は合成画像データに基づく表示用の画像データを生成する際に、送信用画像生成部97は、同じ撮影画像データ又は合成画像データに基づく送信用の画像データを生成し、通信部10を介して表示装置302に送信する。このとき、切換スイッチ43への操作により、送信用画像データを送信するか否かを切り換えるようにしても良い。また、撮像装置301における画像の表示態様によらず、表示装置302において、右目画像と左目画像との重ね合わせ画像を2D画像として表示する態様と、右目画像又は左目画像を通常の2D画像として表示させる態様と、右目画像及び左目画像に基づいて3D画像を表示させる態様とを、切換スイッチ43への操作により切り替えられるようにしても良い。   In addition, the imaging device 301 causes the display device 302 to display an image corresponding to the image displayed on the display unit 6 while being connected to the display device 302. Specifically, when the display image generating unit 92 generates display image data based on the captured image data or the composite image data, the transmission image generating unit 97 is based on the same captured image data or the composite image data. Image data for transmission is generated and transmitted to the display device 302 via the communication unit 10. At this time, whether or not to transmit the image data for transmission may be switched by operating the changeover switch 43. In addition, regardless of the display mode of the image in the imaging device 301, the display device 302 displays a superimposed image of the right eye image and the left eye image as a 2D image, and displays the right eye image or the left eye image as a normal 2D image. The mode to be displayed and the mode to display the 3D image based on the right-eye image and the left-eye image may be switched by operating the changeover switch 43.

以上説明した実施の形態3によれば、ユーザは、撮像装置において生成した合成画像を外部機器(表示装置)に表示させて鑑賞することができる。また、その際に、ユーザは、外部機器に合成画像を3D表示させて立体感をリアルタイムで確認しながら、撮像装置のタッチパネル上で主要被写体画像の視差を調整することができるので、外部機器の表示画面において自然に見える合成画像を、直感的な操作により生成することが可能となる。   According to the third embodiment described above, the user can display and view the composite image generated in the imaging device on the external device (display device). Further, at that time, the user can adjust the parallax of the main subject image on the touch panel of the imaging device while displaying the composite image in 3D on the external device and checking the stereoscopic effect in real time. A synthetic image that looks natural on the display screen can be generated by an intuitive operation.

以上説明した実施の形態1〜3においては、画像データの関連情報として、主要被写体画像の視差情報及び合成位置情報を記憶しているが、それらに加えて、主要被写体画像の凹凸等の立体感を表す情報を記憶するようにしても良い。それによって、リアルな立体感が再現された合成画像を表示することが可能となる。特に、立体の背景に違和感なく立体画像を合成するためには、ユーザによるトライアンドエラーの繰り返しが発生するため、簡単に目視確認ができ、簡単(容易)に効果を確認できる工夫が必要である。本発明の実施の形態1〜3によれば、直感的な操作を追求しており、即座(リアルタイム)に調整しながらその場で立体感の確認が出来、自然で違和感のない合成画像が誰にでも手軽に作れるという効果を奏する。   In the first to third embodiments described above, the parallax information and the composite position information of the main subject image are stored as the related information of the image data. May be stored. As a result, it is possible to display a composite image in which a realistic stereoscopic effect is reproduced. In particular, in order to synthesize a three-dimensional image without a sense of incongruity in a three-dimensional background, repeated trial and error occurs by the user. . According to the first to third embodiments of the present invention, an intuitive operation is pursued, and a stereoscopic image can be confirmed on the spot while adjusting immediately (in real time). It has the effect of being easy to make.

また、以上説明した実施の形態1〜3においては、タッチパネルへの操作により合成画像上での主要被写体画像の視差及び位置を調整したが、それ以外にも、マウスやタッチペン等のポインティングデバイスや、その他種々の入力デバイスを用いて、上述した実施の形態1〜3で説明した同等の考え方を採用し、視差及び位置の調整を行っても良い。   In the first to third embodiments described above, the parallax and the position of the main subject image on the composite image are adjusted by operating the touch panel, but in addition, a pointing device such as a mouse or a touch pen, Other various input devices may be used to adjust the parallax and the position by adopting the same concept described in the first to third embodiments.

さらに、以上説明した実施の形態1〜3においては、2つの画像をそれぞれ撮像する2つの光学系により撮像部2を構成したが、当該撮像装置が移動する間に所定の間隔で連続的に画像を撮像する機能を有する撮像部を設け、該撮像部が連続的に撮像した画像の中から、表示用画像生成部が視野の左右方向の一端部が互いに重なる2つの画像を抽出することにより、右目用及び左目用の撮影画像を生成するようにしても良い。   Furthermore, in the first to third embodiments described above, the imaging unit 2 is configured by two optical systems that respectively capture two images. However, images are continuously displayed at predetermined intervals while the imaging device moves. An image pickup unit having a function of picking up images, and from the images continuously picked up by the image pickup unit, the display image generation unit extracts two images in which one end in the left-right direction of the visual field overlaps each other, You may make it produce | generate the imaging | photography image for right eyes and left eyes.

また、以上説明した実施の形態1〜3においては、静止画である合成画像を生成する場合を説明したが、これらの実施の形態を動画に適応しても良い。   In the first to third embodiments described above, the case of generating a composite image that is a still image has been described. However, these embodiments may be applied to a moving image.

本発明に係る撮像装置は、デジタルステレオカメラ以外にも、例えばデジタルビデオカメラ、カメラ付き携帯電話等の撮影機能及び表示機能を備えた各種電子機器に適用することができる。   The imaging apparatus according to the present invention can be applied to various electronic devices having a shooting function and a display function such as a digital video camera and a camera-equipped mobile phone in addition to the digital stereo camera.

また、本発明において、外部機器としての表示装置は3Dテレビに限られるわけではなく、3D画像を表示可能な表示部を有していれば、いかなる電子機器であってもかまわない。   In the present invention, the display device as an external device is not limited to a 3D television, and any electronic device may be used as long as it has a display unit capable of displaying a 3D image.

1、201、301 撮像装置
2 撮像部
3 姿勢検出部
4 操作入力部
5 時計
6 表示部
7 タッチパネル
8 記憶部
9 制御部
10 通信部
21、22 撮像部
21a、22a レンズ部
21b、22b レンズ駆動部
21c、22c 絞り
21d、22d 絞り駆動部
21e、22e シャッタ
21f、22f シャッタ駆動部
21g、22g 撮像素子
21h、22h 信号処理部
23 発光部
41 電源スイッチ
42 レリーズスイッチ
43 切換スイッチ
44 ズームスイッチ
45 2D/3D切換スイッチ
61 バックライト
62 表示パネル
63 視差バリア
81 撮影画像データ記憶部
82 背景画像データ記憶部
83 プログラム記憶部
91 画像処理部
92 表示用画像生成部
93 合成画像生成部
93a 画像抜出し部
93b 合成部
93c 左右画像判別部
94 位置調整部
95 表示制御部
96 3D背景画像取得部
97 送信用画像生成部
98 通信状態検出部
100 テンプレート画像選択画面
101〜106 縮小画像
107 OKボタン
111 画像一覧表示領域
112、113 縮小画像
114 拡大画像表示領域
202、302 表示装置
203、303 表示画面
204 ユーザ
300 画像通信システム
1, 201, 301 Imaging device 2 Imaging unit 3 Attitude detection unit 4 Operation input unit 5 Clock 6 Display unit 7 Touch panel 8 Storage unit 9 Control unit 10 Communication unit 21, 22 Imaging unit 21a, 22a Lens unit 21b, 22b Lens drive unit 21c, 22c Aperture 21d, 22d Aperture drive unit 21e, 22e Shutter 21f, 22f Shutter drive unit 21g, 22g Image sensor 21h, 22h Signal processing unit 23 Light emitting unit 41 Power switch 42 Release switch 43 Changeover switch 44 Zoom switch 45 2D / 3D Switch 61 Backlight 62 Display panel 63 Parallax barrier 81 Captured image data storage unit 82 Background image data storage unit 83 Program storage unit 91 Image processing unit 92 Display image generation unit 93 Composite image generation unit 93a Image extraction unit 93b Synthesis unit 93 Left and right image discrimination unit 94 Position adjustment unit 95 Display control unit 96 3D background image acquisition unit 97 Transmission image generation unit 98 Communication state detection unit 100 Template image selection screen 101-106 Reduced image 107 OK button 111 Image list display area 112, 113 Reduced image 114 Enlarged image display area 202, 302 Display device 203, 303 Display screen 204 User 300 Image communication system

Claims (18)

被写体を撮像して画像データを生成する撮像部と、
2つの画像に基づく3次元画像を表示可能な表示部と、
前記撮像部によって生成された画像データに基づいて、3次元画像の基となる右目及び左目に対応する2つの撮影画像を生成する画像生成部と、
前記2つの撮影画像から背景を除いた主要被写体を表す画像をそれぞれ抜き出すことにより、右目及び左目に対応する2つの主要被写体画像を取得する画像抜出し部と、
前記画像抜出し部によって抜き出された前記2つの主要被写体画像を所定の背景画像に貼り付けることにより、右目及び左目に対応する2つの合成画像を生成する画像合成部と、
外部からの操作の入力を受け付ける入力受付部と、
前記入力受付部によって受け付けられた入力に応じて、前記2つの合成画像における前記2つの主要被写体画像の相対的な位置を変化させることにより視差を調整する位置調整部と、
を備えることを特徴とする撮像装置。
An imaging unit that images a subject and generates image data;
A display unit capable of displaying a three-dimensional image based on the two images;
An image generation unit that generates two captured images corresponding to the right eye and the left eye, which are the basis of a three-dimensional image, based on the image data generated by the imaging unit;
An image extraction unit for acquiring two main subject images corresponding to the right eye and the left eye by extracting images representing the main subject excluding the background from the two captured images;
An image composition unit for generating two composite images corresponding to the right eye and the left eye by pasting the two main subject images extracted by the image extraction unit on a predetermined background image;
An input receiving unit that receives an input of an operation from the outside;
A position adjusting unit that adjusts a parallax by changing a relative position of the two main subject images in the two composite images according to an input received by the input receiving unit;
An imaging apparatus comprising:
前記主要被写体は、前記2つの撮影画像における視野の前方又は中央部に位置する画像であることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the main subject is an image located in front of or in the center of the field of view of the two captured images. 前記主要被写体は、前記2つの撮影画像において最も視差が大きい画像であることを特徴とする請求項2に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the main subject is an image having the largest parallax in the two captured images. 前記撮像部の視野領域を照明する発光部をさらに備え、
前記主要被写体は、前記発光部を発光させた場合、反射光が最も強くなる領域の画像であることを特徴とする請求項2に記載の撮像装置。
A light emitting unit that illuminates the field of view of the imaging unit;
The imaging apparatus according to claim 2, wherein the main subject is an image of an area where reflected light is strongest when the light emitting unit emits light.
前記画像合成部は、前記2つの主要被写体画像を同一の背景画像に貼り付けることにより、背景が2次元画像として表示される前記2つの合成画像を生成することを特徴とする請求項1〜4のいずれか1項に記載の撮像装置。   5. The image synthesis unit generates the two synthesized images in which a background is displayed as a two-dimensional image by pasting the two main subject images on the same background image. The imaging device according to any one of the above. 前記画像合成部は、前記2つの主要被写体画像を、視野の左右方向の一端部同士が互いに重なる2つの背景画像にそれぞれ貼り付けることにより、背景が3次元画像として表示可能な前記2つの合成画像を生成することを特徴とする請求項1〜4のいずれか1項に記載の撮像装置。   The image composition unit attaches the two main subject images to two background images in which one end in the left-right direction of the visual field overlaps each other, whereby the two composite images that can be displayed as a three-dimensional image. The imaging device according to any one of claims 1 to 4, wherein: フレームシーケンシャル方式で3次元画像を表示する表示画面を高速連写撮影することにより生成された撮影画像から、右目及び左目に対応する2つの表示画面撮影画像を取得する画像取得部をさらに備え、
前記画像合成部は、前記画像取得部によって取得された前記2つの表示画面撮影画像に前記2つの主要被写体画像をそれぞれ貼り付けることにより、前記2つの合成画像を生成することを特徴とする請求項1〜4のいずれか1項に記載の撮像装置。
An image acquisition unit for acquiring two display screen shot images corresponding to the right eye and the left eye from a shot image generated by high-speed continuous shooting of a display screen that displays a three-dimensional image in a frame sequential manner;
The image compositing unit generates the two composite images by pasting the two main subject images on the two display screen captured images acquired by the image acquisition unit, respectively. The imaging device according to any one of 1 to 4.
前記画像取得部によって取得された前記2つの表示画面撮影画像に基づく3次元画像が表示された場合に、該3次元画像が表示画面から仮想的に引っ込んで見えるように、前記2つの表示画面撮影画像の右目と左目との対応を判別する左右画像判別部をさらに備えることを特徴とする請求項7に記載の撮像装置。   When the three-dimensional image based on the two display screen captured images acquired by the image acquisition unit is displayed, the two display screen captured images are displayed so that the three-dimensional image is virtually retracted from the display screen. The imaging apparatus according to claim 7, further comprising a left and right image discriminating unit that discriminates correspondence between a right eye and a left eye of the image. 前記表示部に対し、2つの画像に基づく3次元画像の表示と、2つの画像を重ね合わせた2次元画像の表示との内のいずれかを、外部から入力される信号に従い切り換えて表示させる表示制御部をさらに備えることを特徴とする請求項1〜8のいずれか1項に記載の撮像装置。   A display that displays either a three-dimensional image based on two images or a two-dimensional image obtained by superimposing two images in accordance with a signal input from the outside on the display unit. The imaging apparatus according to claim 1, further comprising a control unit. 前記入力受付部は、前記表示部の表示画面上に設けられ、外部から接触する物体の位置に応じた信号の入力を受け付けるタッチパネルであり、
前記位置調整部は、前記タッチパネルに接触した物体の軌跡に応じて前記主要被写体画像の視差を調整することを特徴とする請求項9に記載の撮像装置。
The input receiving unit is a touch panel that is provided on the display screen of the display unit and receives an input of a signal corresponding to the position of an object that comes into contact from the outside.
The imaging apparatus according to claim 9, wherein the position adjustment unit adjusts a parallax of the main subject image according to a trajectory of an object touching the touch panel.
前記位置調整部は、前記2つの合成画像を重ね合わせた2次元画像において、前記2つの主要被写体画像の左右方向の一端部同士が重なる重なり領域を前記軌跡に応じて変化させることにより視差を調整することを特徴とする請求項10に記載の撮像装置。   The position adjustment unit adjusts parallax in a two-dimensional image obtained by superimposing the two composite images by changing an overlapping region where one end in the left-right direction of the two main subject images overlaps according to the locus. The imaging apparatus according to claim 10. 前記位置調整部は、さらに、前記2つの合成画像を重ね合わせた2次元画像において、前記2つの主要被写体画像を、相対的な位置関係を維持しつつ前記軌跡に応じて移動させることにより、前記背景画像に対する前記主要被写体画像の位置を移動させることを特徴とする請求項10又は11に記載の撮像装置。   The position adjustment unit further moves the two main subject images in accordance with the trajectory while maintaining a relative positional relationship in a two-dimensional image obtained by superimposing the two composite images. The imaging apparatus according to claim 10 or 11, wherein a position of the main subject image with respect to a background image is moved. 前記位置調整部は、さらに、前記2つの合成画像を重ね合わせた2次元画像において、前記2つの主要被写体画像を、相対的な位置関係を維持しつつ前記軌跡に応じて回転させることにより、前記背景画像の面内で前記主要被写体画像を回転させることを特徴とする請求項10〜12のいずれか1項に記載の撮像装置。   The position adjustment unit further rotates the two main subject images according to the trajectory while maintaining a relative positional relationship in a two-dimensional image obtained by superimposing the two composite images. The imaging apparatus according to claim 10, wherein the main subject image is rotated in a plane of a background image. 前記2つの画像を用いて、前記外部機器で表示させるために送信する送信用画像を生成する送信用画像生成部と、
前記送信用画像生成部が生成した送信用画像を前記外部機器へ送信する通信部と、
をさらに備えることを特徴とする請求項1〜13のいずれか1項に記載の撮像装置。
A transmission image generation unit configured to generate a transmission image to be transmitted for display on the external device using the two images;
A communication unit that transmits the transmission image generated by the transmission image generation unit to the external device;
The imaging apparatus according to claim 1, further comprising:
前記撮像部は、前記2つの画像をそれぞれ撮像する2つの光学系を有することを特徴とする請求項1〜14のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the imaging unit includes two optical systems that respectively capture the two images. 前記撮像部は、当該撮像装置が移動する間に所定の間隔で連続的に画像を撮像する機能を有し、
前記画像生成部は、前記撮像部が連続的に撮像した画像の中から前記2つの画像を抽出することを特徴とする請求項1〜14のいずれか1項に記載の撮像装置。
The imaging unit has a function of continuously capturing images at a predetermined interval while the imaging device moves,
The imaging apparatus according to claim 1, wherein the image generation unit extracts the two images from images continuously captured by the imaging unit.
前記表示制御部は、
前記2つの画像にそれぞれ対応する2つの画像データを、前記表示画面における水平方向の1画素ごとに交互に並べて前記表示部に出力する制御を行うことを特徴とする請求項9に記載の撮像装置。
The display control unit
The imaging apparatus according to claim 9, wherein control is performed so that two image data corresponding to the two images are alternately arranged for each pixel in the horizontal direction on the display screen and output to the display unit. .
請求項1〜17のいずれか1項に記載の撮像装置と、
前記撮像装置と所定の通信規格にしたがって通信可能に接続され、前記撮像装置から受信した前記送信用画像に基づいて3次元画像を表示する表示装置と、
を備えることを特徴とする画像通信システム。
The imaging device according to any one of claims 1 to 17,
A display device that is communicably connected to the imaging device according to a predetermined communication standard and displays a three-dimensional image based on the transmission image received from the imaging device;
An image communication system comprising:
JP2010211446A 2010-09-21 2010-09-21 Imaging apparatus and image communication system Expired - Fee Related JP5754044B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010211446A JP5754044B2 (en) 2010-09-21 2010-09-21 Imaging apparatus and image communication system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010211446A JP5754044B2 (en) 2010-09-21 2010-09-21 Imaging apparatus and image communication system

Publications (3)

Publication Number Publication Date
JP2012070103A true JP2012070103A (en) 2012-04-05
JP2012070103A5 JP2012070103A5 (en) 2013-10-31
JP5754044B2 JP5754044B2 (en) 2015-07-22

Family

ID=46166862

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010211446A Expired - Fee Related JP5754044B2 (en) 2010-09-21 2010-09-21 Imaging apparatus and image communication system

Country Status (1)

Country Link
JP (1) JP5754044B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012095277A (en) * 2010-09-30 2012-05-17 Casio Comput Co Ltd Image composition apparatus, image retrieval method, and program
JP2017005689A (en) * 2015-06-08 2017-01-05 キヤノン株式会社 Image processing system and image processing method
CN108377355A (en) * 2016-11-28 2018-08-07 中兴通讯股份有限公司 A kind of video data handling procedure, device and equipment
WO2019190250A1 (en) * 2018-03-29 2019-10-03 삼성전자 주식회사 Method for synthesizing image on reflective object on basis of attribute of reflective object included in different image, and electronic device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09275578A (en) * 1996-04-04 1997-10-21 Sharp Corp Multi-viewpoint encoding and decoding device
JP2000241131A (en) * 1998-12-22 2000-09-08 Matsushita Electric Ind Co Ltd Range finder device and image sensing device
JP2006115198A (en) * 2004-10-14 2006-04-27 Canon Inc Stereoscopic image generating program, stereoscopic image generating system, and stereoscopic image generating method
JP2007110360A (en) * 2005-10-13 2007-04-26 Ntt Comware Corp Stereoscopic image processing apparatus and program
JP2010226500A (en) * 2009-03-24 2010-10-07 Toshiba Corp Device and method for displaying stereoscopic image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09275578A (en) * 1996-04-04 1997-10-21 Sharp Corp Multi-viewpoint encoding and decoding device
JP2000241131A (en) * 1998-12-22 2000-09-08 Matsushita Electric Ind Co Ltd Range finder device and image sensing device
JP2006115198A (en) * 2004-10-14 2006-04-27 Canon Inc Stereoscopic image generating program, stereoscopic image generating system, and stereoscopic image generating method
JP2007110360A (en) * 2005-10-13 2007-04-26 Ntt Comware Corp Stereoscopic image processing apparatus and program
JP2010226500A (en) * 2009-03-24 2010-10-07 Toshiba Corp Device and method for displaying stereoscopic image

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012095277A (en) * 2010-09-30 2012-05-17 Casio Comput Co Ltd Image composition apparatus, image retrieval method, and program
JP2017005689A (en) * 2015-06-08 2017-01-05 キヤノン株式会社 Image processing system and image processing method
CN108377355A (en) * 2016-11-28 2018-08-07 中兴通讯股份有限公司 A kind of video data handling procedure, device and equipment
WO2019190250A1 (en) * 2018-03-29 2019-10-03 삼성전자 주식회사 Method for synthesizing image on reflective object on basis of attribute of reflective object included in different image, and electronic device
KR20190114242A (en) * 2018-03-29 2019-10-10 삼성전자주식회사 method for synthesizing image synthesis with another image based on a properties of a reflective objects included in the image and electronic device
KR102459717B1 (en) * 2018-03-29 2022-10-27 삼성전자 주식회사 method for synthesizing image synthesis with another image based on a properties of a reflective objects included in the image and electronic device
US11494885B2 (en) 2018-03-29 2022-11-08 Samsung Electronics Co., Ltd Method for synthesizing image on reflective object on basis of attribute of reflective object included in different image, and electronic device

Also Published As

Publication number Publication date
JP5754044B2 (en) 2015-07-22

Similar Documents

Publication Publication Date Title
JP4737573B2 (en) 3D image output apparatus and method
JP5704854B2 (en) Display device
JP5269252B2 (en) Monocular stereoscopic imaging device
US9113074B2 (en) Imaging apparatus, imaging method, and computer readable storage medium for applying special effects processing to an automatically set region of a stereoscopic image
JP4661824B2 (en) Image processing apparatus, method, and program
JP4815470B2 (en) Image display device and image display method
JP5530322B2 (en) Display device and display method
JP5754044B2 (en) Imaging apparatus and image communication system
JP2011035643A (en) Multiple eye photography method and apparatus, and program
JP5750779B2 (en) Imaging apparatus, image communication system, and image communication method
JP5675197B2 (en) Display device
JP2011097451A (en) Three-dimensional image display device and method
TW201332351A (en) Image capture device with multiple lenses and method for displaying stereo image thereof
JP5580486B2 (en) Image output apparatus, method and program
JP5603732B2 (en) Imaging device
JP5586377B2 (en) Display device
JP4632060B2 (en) Image recording apparatus, method and program
JP2011211717A (en) Three-dimensional image output device and method
JP2012134873A (en) Imaging apparatus and imaging program
JP5646252B2 (en) Display device
JP5638941B2 (en) Imaging apparatus and imaging program
JP2014155126A (en) Display device, display method, and program
CN103220458B (en) A kind of stereo photographic device and stereo camera shooting method
JP5638985B2 (en) Imaging apparatus and imaging program
JP2011109268A (en) Three-dimensional image display device and method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130911

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150414

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150507

R151 Written notification of patent or utility model registration

Ref document number: 5754044

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees