JP5750779B2 - Imaging apparatus, image communication system, and image communication method - Google Patents

Imaging apparatus, image communication system, and image communication method Download PDF

Info

Publication number
JP5750779B2
JP5750779B2 JP2010196996A JP2010196996A JP5750779B2 JP 5750779 B2 JP5750779 B2 JP 5750779B2 JP 2010196996 A JP2010196996 A JP 2010196996A JP 2010196996 A JP2010196996 A JP 2010196996A JP 5750779 B2 JP5750779 B2 JP 5750779B2
Authority
JP
Japan
Prior art keywords
image
display
unit
parallax
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010196996A
Other languages
Japanese (ja)
Other versions
JP2012054836A (en
JP2012054836A5 (en
Inventor
努 黒木
努 黒木
野中 修
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2010196996A priority Critical patent/JP5750779B2/en
Priority to CN201110256196.7A priority patent/CN102387392B/en
Publication of JP2012054836A publication Critical patent/JP2012054836A/en
Publication of JP2012054836A5 publication Critical patent/JP2012054836A5/en
Application granted granted Critical
Publication of JP5750779B2 publication Critical patent/JP5750779B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像を撮像して表示する撮像装置、および該撮像装置を含み、所定の通信規格にしたがって画像の通信を行う画像通信システムに関する。   The present invention relates to an imaging device that captures and displays an image, and an image communication system that includes the imaging device and performs image communication according to a predetermined communication standard.

近年、同一の被写体に対して複数の画像データを取得し、この取得した複数の画像データに含まれる被写体の視差を利用することにより、ユーザが立体的に見ることができる3次元画像(以下、「3D画像」という)を撮像するデジタルステレオカメラ等の撮像装置が普及してきつつある。従来より、このような撮像装置を、3D画像が表示可能な表示装置と接続する技術が開示されている(例えば、特許文献1を参照)。この技術において、ユーザは専用の液晶シャッタメガネをかけることにより、表示装置が表示する3D画像を見ることができる。   In recent years, by acquiring a plurality of image data for the same subject and using the parallax of the subject included in the acquired plurality of image data, a three-dimensional image (hereinafter, referred to as a three-dimensional image) that can be viewed three-dimensionally by a user. An imaging apparatus such as a digital stereo camera that captures a “3D image”) is becoming widespread. Conventionally, a technique for connecting such an imaging device to a display device capable of displaying a 3D image has been disclosed (see, for example, Patent Document 1). In this technique, a user can view a 3D image displayed on the display device by wearing dedicated liquid crystal shutter glasses.

特開平10−145820号公報JP-A-10-145820

ところで、上述した従来技術では、ユーザが液晶シャッタメガネをかけたままで、撮像装置の表示部と表示装置の表示画面とを交互に見るような状況が生じうる。このような状況下において、撮像装置の表示部における表示形式が表示装置における表示形式と異なっていると、ユーザは撮像装置の表示部に表示される3D画像に対して違和感を感じざるを得なかった。   By the way, in the above-described conventional technology, a situation may occur in which the user watches the display unit of the imaging device and the display screen of the display device alternately while wearing the liquid crystal shutter glasses. Under such circumstances, when the display format on the display unit of the imaging device is different from the display format on the display device, the user has to feel uncomfortable with the 3D image displayed on the display unit of the imaging device. It was.

本発明は、上記に鑑みてなされたものであって、3D画像を表示可能な外部機器と通信可能に接続された状態で、ユーザが外部機器で3D画像を見る状況下においても、そのユーザに違和感を感じさせない画像を表示することができる撮像装置、および当該撮像装置を含み、画像の通信を行う画像通信システムを提供することを目的とする。   The present invention has been made in view of the above, and even when a user views a 3D image on an external device in a state in which the user can communicate with the external device capable of displaying a 3D image, It is an object of the present invention to provide an imaging device capable of displaying an image that does not give a sense of incongruity, and an image communication system that includes the imaging device and performs image communication.

上述した課題を解決し、目的を達成するために、本発明に係る撮像装置は、被写体を撮像して画像データを生成する撮像部を有し、3次元画像を表示可能な外部機器と所定の通信規格にしたがって通信可能な撮像装置であって、2つの画像に基づく3次元画像を表示可能な表示部と、前記2つの画像の少なくとも一方を用いることによって前記表示部が表示する表示用画像を生成する表示用画像生成部と、前記2つの画像を用いることによって前記外部機器で表示させるために送信する送信用画像を生成する送信用画像生成部と、前記送信用画像生成部が生成した送信用画像を前記外部機器へ送信する通信部と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, an imaging apparatus according to the present invention includes an imaging unit that captures an image of a subject and generates image data, and an external device capable of displaying a three-dimensional image and a predetermined unit. An imaging apparatus capable of communicating according to a communication standard, a display unit capable of displaying a three-dimensional image based on two images, and a display image displayed on the display unit by using at least one of the two images A display image generation unit to generate, a transmission image generation unit that generates a transmission image to be transmitted for display on the external device by using the two images, and a transmission generated by the transmission image generation unit. And a communication unit that transmits a trusted image to the external device.

また、本発明に係る撮像装置は、上記発明において、前記表示用画像生成部は、前記通信部が前記送信用画像を送信するか否かに応じて異なる表示用画像を生成することを特徴とする。   Moreover, the imaging device according to the present invention is characterized in that, in the above invention, the display image generation unit generates different display images depending on whether or not the communication unit transmits the transmission image. To do.

また、本発明に係る撮像装置は、上記発明において、前記表示用画像生成部は、前記通信部が前記送信用画像を送信する場合、表示用画像として、前記2つの画像を重ねた合成画像を生成することを特徴とする。   Moreover, in the imaging device according to the present invention, in the above invention, the display image generation unit, when the communication unit transmits the transmission image, displays a composite image obtained by superimposing the two images as a display image. It is characterized by generating.

また、本発明に係る撮像装置は、上記発明において、前記表示部の表示画面上に設けられ、外部から接触する物体の位置に応じた信号の入力を受け付けるタッチパネルと、前記表示部が表示する前記合成画像に対し、前記タッチパネルに接触した物体の軌跡に応じて前記合成画像に含まれる被写体の視差を調整する視差調整部と、前記視差調整部が視差を調整した前記合成画像を前記表示部に表示させる制御を行う表示制御部と、をさらに備え、前記送信用画像生成部は、前記視差調整部が調整した視差を有する前記2つの画像を用いることを特徴とする。   The imaging device according to the present invention is the above-described invention, wherein the imaging device according to the present invention is provided on the display screen of the display unit and receives a signal input according to the position of an object in contact with the outside, and the display unit displays the touch panel. A parallax adjustment unit that adjusts the parallax of a subject included in the synthetic image according to a trajectory of an object that has touched the touch panel with respect to the synthetic image, and the synthetic image that the parallax adjustment unit has adjusted the parallax is displayed on the display unit. A display control unit that performs display control, and the transmission image generation unit uses the two images having the parallax adjusted by the parallax adjustment unit.

また、本発明に係る撮像装置は、上記発明において、前記合成画像は、前記2つの画像から所定の領域を切り出して重ねた画像であり、前記視差調整部は、前記2つの画像の切り出し領域を変更することを特徴とする。   In the imaging device according to the present invention, in the above invention, the composite image is an image obtained by cutting out and overlapping a predetermined region from the two images, and the parallax adjustment unit includes a cut-out region of the two images. It is characterized by changing.

また、本発明に係る撮像装置は、上記発明において、前記表示用画像生成部は、前記通信部が前記送信用画像を送信しない場合、表示用画像として、前記2つの画像に基づく3次元画像を生成することを特徴とする。   In the imaging device according to the present invention, in the above invention, the display image generation unit may display a three-dimensional image based on the two images as a display image when the communication unit does not transmit the transmission image. It is characterized by generating.

また、本発明に係る撮像装置は、上記発明において、前記撮像部は、前記2つの画像として、互いの視野の左右方向の一端部同士が重なりを有する2つの画像を撮像し、各画像に対応する2つの画像データを生成することを特徴とする。   In the imaging device according to the present invention, in the above invention, the imaging unit captures, as the two images, two images in which one end in the horizontal direction of each field of view overlaps and corresponds to each image. Two image data to be generated is generated.

また、本発明に係る撮像装置は、上記発明において、前記撮像部は、前記2つの画像をそれぞれ撮像する2つの光学系を有することを特徴とする。   Moreover, the imaging device according to the present invention is characterized in that, in the above invention, the imaging unit includes two optical systems that respectively capture the two images.

また、本発明に係る撮像装置は、上記発明において、前記撮像部は、当該撮像装置が移動する間に所定の間隔で連続的に画像を撮像する機能を有し、前記送信用画像生成部および前記表示用画像生成部は、前記撮像部が連続的に撮像した画像の中から前記2つの画像を抽出することを特徴とする。   The imaging device according to the present invention is the imaging device according to the above invention, wherein the imaging unit has a function of continuously capturing images at a predetermined interval while the imaging device moves, and the transmission image generation unit and The display image generation unit extracts the two images from images continuously captured by the imaging unit.

また、本発明に係る撮像装置は、上記発明において、前記表示制御部は、前記2つの画像にそれぞれ対応する2つの画像データを、前記表示画面における水平方向の1画素ごとに交互に並べて前記表示部に出力する制御を行うことを特徴とする。   In the imaging device according to the present invention, in the above invention, the display control unit alternately arranges the two image data respectively corresponding to the two images for each pixel in the horizontal direction on the display screen. Control to output to the unit is performed.

また、本発明に係る画像通信システムは、上記発明に記載の撮像装置と、前記撮像装置と通信可能に接続され、前記撮像装置から受信した前記送信用画像に基づいて3次元画像を表示する表示装置と、を備えたことを特徴とする。   Further, an image communication system according to the present invention is a display that displays a three-dimensional image based on the image for transmission received from the image pickup apparatus and connected to the image pickup apparatus according to the invention described above. And a device.

本発明によれば、撮像装置側で表示する表示用画像と外部機器側で表示するために外部機器へ送信する送信用画像とを個別に生成するため、3D画像を表示可能な外部機器と通信可能に接続された状態で、ユーザが外部機器で3D画像を見る状況下においても、そのユーザに違和感を感じさせない画像を表示することができる。   According to the present invention, since a display image displayed on the imaging device side and a transmission image transmitted to the external device for display on the external device side are individually generated, communication with an external device capable of displaying a 3D image is performed. An image that does not make the user feel uncomfortable can be displayed even when the user views a 3D image with an external device while being connected.

図1は、本発明の実施の形態1に係る画像通信システムの構成を示す図である。FIG. 1 is a diagram showing a configuration of an image communication system according to Embodiment 1 of the present invention. 図2は、本発明の実施の形態1に係る撮像装置の構成を示すブロック図である。FIG. 2 is a block diagram showing a configuration of the imaging apparatus according to Embodiment 1 of the present invention. 図3は、本発明の実施の形態1に係る撮像装置が備える表示部の概略構成を示す模式図である。FIG. 3 is a schematic diagram illustrating a schematic configuration of a display unit included in the imaging apparatus according to Embodiment 1 of the present invention. 図4は、本発明の実施の形態1に係る撮像装置が備える撮像部が互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを生成する際の状況を示す模式図である。FIG. 4 is a schematic diagram illustrating a situation when the imaging unit included in the imaging device according to Embodiment 1 of the present invention generates two image data in which one end in the left-right direction of each field of view overlaps. . 図5は、図4に示す状況下で撮像部が被写体に対して互いの視野の左右方向の一端部同士が重なりを有する2つの画像データに対応する画像の一例を示す図である。FIG. 5 is a diagram illustrating an example of an image corresponding to two image data in which the imaging unit has one end in the horizontal direction of each other's visual field overlapping each other under the situation illustrated in FIG. 4. 図6は、図4に示す状況下で撮像部が生成した右目画像と左目画像とを仮想的に重ねた画像の一例を示す図である。FIG. 6 is a diagram illustrating an example of an image in which the right eye image and the left eye image generated by the imaging unit under the situation illustrated in FIG. 4 are virtually overlapped. 図7は、図4に示す状況下で撮像部と被写体との撮影距離の関係を示す図である。FIG. 7 is a diagram illustrating the relationship between the imaging distance between the imaging unit and the subject under the situation illustrated in FIG. 図8は、本発明の実施の形態1に係る撮像装置が備える視差調整部が行う処理の概要を示す模式図である。FIG. 8 is a schematic diagram illustrating an outline of processing performed by the parallax adjustment unit included in the imaging apparatus according to Embodiment 1 of the present invention. 図9は、本発明の実施の形態1に係る撮像装置が備える表示用画像生成部によって生成された右目画像と左目画像とを合成した合成画像の一例を示す図である。FIG. 9 is a diagram illustrating an example of a synthesized image obtained by synthesizing the right eye image and the left eye image generated by the display image generating unit included in the imaging apparatus according to Embodiment 1 of the present invention. 図10は、本発明の実施の形態1に係る画像通信システムが備える表示装置が表示する仮想的な3D画像の一例を示す図である。FIG. 10 is a diagram illustrating an example of a virtual 3D image displayed by the display device included in the image communication system according to Embodiment 1 of the present invention. 図11は、本発明の実施の形態1に係る撮像装置が行う処理の概要を示すフローチャートである。FIG. 11 is a flowchart showing an outline of processing performed by the imaging apparatus according to Embodiment 1 of the present invention. 図12は、図11の視差調整処理の概要を示すフローチャートである。FIG. 12 is a flowchart showing an overview of the parallax adjustment processing of FIG. 図13は、ユーザによって合成画像内に含まれる被写体の視差を大きくする動作を説明する図である。FIG. 13 is a diagram for explaining an operation of increasing the parallax of the subject included in the composite image by the user. 図14は、本発明の実施の形態1に係る撮像装置が備える表示部が表示する画像の一例を示す図である。FIG. 14 is a diagram illustrating an example of an image displayed on the display unit included in the imaging apparatus according to Embodiment 1 of the present invention. 図15は、本発明の実施の形態1に係る撮像装置が備える表示部が表示する画像の別な例を示す図である。FIG. 15 is a diagram illustrating another example of an image displayed on the display unit included in the imaging apparatus according to Embodiment 1 of the present invention. 図16は、ユーザによって合成画像内に含まれる被写体の視差を小さくする動作を説明する図である。FIG. 16 is a diagram for explaining an operation of reducing the parallax of the subject included in the composite image by the user. 図17は、図11の再生表示処理の概要を示すフローチャートである。FIG. 17 is a flowchart showing an outline of the reproduction display process of FIG. 図18は、本発明の実施の形態1に係る撮像装置において、視差調整部がタッチパネルにおける外部からの2つの軌跡に応じて被写体の視差を調整する調整方法(第1例)を説明する図である。FIG. 18 is a diagram illustrating an adjustment method (first example) in which the parallax adjustment unit adjusts the parallax of a subject according to two external trajectories on the touch panel in the imaging apparatus according to Embodiment 1 of the present invention. is there. 図19は、本発明の実施の形態1に係る撮像装置において、視差調整部がタッチパネルにおける外部からの2つの軌跡に応じて被写体の視差を調整する調整方法(第2例)を説明する図である。FIG. 19 is a diagram for explaining an adjustment method (second example) in which the parallax adjustment unit adjusts the parallax of the subject according to two external trajectories on the touch panel in the imaging apparatus according to Embodiment 1 of the present invention. is there. 図20は、本発明の実施の形態2に係る撮像装置の構成を示すブロック図である。FIG. 20 is a block diagram showing the configuration of the imaging apparatus according to Embodiment 2 of the present invention. 図21は、本発明の実施の形態2に係る撮像装置を用いた撮影の概要を示す図である。FIG. 21 is a diagram showing an outline of imaging using the imaging apparatus according to Embodiment 2 of the present invention. 図22は、図21に示す状況下で撮像部が生成する2つの画像データにそれぞれ対応する2つの画像の一例を示す図であり、表示用画像生成部が生成する表示用画像としての3D画像を構成する一対の画像の例を示す図である。22 is a diagram illustrating an example of two images respectively corresponding to two image data generated by the imaging unit under the situation illustrated in FIG. 21, and a 3D image as a display image generated by the display image generation unit. It is a figure which shows the example of a pair of image which comprises. 図23は、図21に示す状況下で撮像部が生成する2つの画像データにそれぞれ対応する2つの画像の第2例を示す図であり、送信用画像生成部が生成する送信用画像の例を示す図である。FIG. 23 is a diagram illustrating a second example of two images respectively corresponding to two image data generated by the imaging unit under the situation illustrated in FIG. 21, and an example of a transmission image generated by the transmission image generation unit FIG. 図24は、本発明の実施の形態2に係る撮像装置が行う処理の概要を示すフローチャートである。FIG. 24 is a flowchart illustrating an outline of processing performed by the imaging apparatus according to Embodiment 2 of the present invention. 図25は、本発明の実施の形態2に係る画像通信システムが備える表示装置の表示画面をユーザが見るときの状況を模式的に示す図である。FIG. 25 is a diagram schematically illustrating a situation when the user views the display screen of the display device included in the image communication system according to Embodiment 2 of the present invention. 図26は、本発明の実施の形態2に係る撮像装置の表示部をユーザが見るときの状況を示す図である。FIG. 26 is a diagram illustrating a situation when the user looks at the display unit of the imaging apparatus according to the second embodiment of the present invention. 図27は、タッチパネルの別な構成例を示す図である。FIG. 27 is a diagram illustrating another configuration example of the touch panel.

以下に、図面を参照して、本発明を実施するための形態(以下、「実施の形態」という)について説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, modes for carrying out the present invention (hereinafter referred to as “embodiments”) will be described with reference to the drawings.

(実施の形態1)
図1は、本発明の実施の形態1に係る画像通信システムの構成を示す図である。同図に示す画像通信システム100は、デジタルステレオカメラである撮像装置1と、撮像装置1と電気的に接続され、撮像装置1からの画像データを受信し、3D画像を表示することが可能な外部機器としての表示装置200と、を備える。
(Embodiment 1)
FIG. 1 is a diagram showing a configuration of an image communication system according to Embodiment 1 of the present invention. An image communication system 100 shown in FIG. 1 is electrically connected to the imaging device 1 that is a digital stereo camera, and can receive image data from the imaging device 1 and display a 3D image. And a display device 200 as an external device.

本実施の形態1では、表示装置200として、表示画面201で表示する右目用の画像と左目用の画像を高速で切換えるフレームシーケンシャル方式、または液晶パネルからなる表示画面201に偏光フィルムが組み込まれた偏光フィルム方式によって3D画像を表示する3Dテレビなどが適用される。このような3Dテレビが表示する3D画像をユーザが見る場合には、方式に応じた専用のメガネ300をかける必要がある。フレームシーケンシャル方式の場合に適用されるメガネ300は、画像の切り換えに同期して、表示される画像を見るための目と逆の目を閉じることが可能な構成を有する液晶シャッタメガネである。また、偏光方式の場合に適用されるメガネ300は、左目には左目用の画像(以下、「左目画像」という)のみが届き、右目には右目用の画像(以下、「右目画像」という)のみが届くように偏光フィルタが貼付された構成を有する。   In the first embodiment, as the display device 200, a polarizing film is incorporated into the display screen 201 formed of a frame sequential method or a liquid crystal panel that switches between a right-eye image and a left-eye image displayed on the display screen 201 at high speed. A 3D television or the like that displays a 3D image by a polarizing film method is applied. When a user views a 3D image displayed on such a 3D television, it is necessary to wear dedicated glasses 300 corresponding to the method. Glasses 300 applied in the case of the frame sequential method are liquid crystal shutter glasses having a configuration capable of closing an eye opposite to an eye for viewing a displayed image in synchronization with switching of images. Further, in the glasses 300 applied in the polarization method, only the image for the left eye (hereinafter referred to as “left eye image”) reaches the left eye, and the image for the right eye (hereinafter referred to as “right eye image”) reaches the right eye. It has a configuration in which a polarizing filter is attached so that only can reach.

図2は、撮像装置1の構成を示すブロック図である。図2に示すように、撮像装置1は、異なる位置から撮影し、互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを生成する撮像部2と、撮像装置1の姿勢を検出する姿勢検出部3と、撮像装置1の各種情報の入力を受け付ける操作入力部4と、撮影日時の判定機能やタイマー機能を有する時計5と、2次元画像(以下、「2D画像」という)または3D画像を表示する表示部6と、外部からの接触位置や軌跡に応じた信号の入力を受け付けるタッチパネル7と、撮像部2によって生成された画像データを含む各種情報を記憶する記憶部8と、撮像装置1の動作を制御する制御部9と、表示装置200との間でデータの送受信を行う通信部10と、を備える。   FIG. 2 is a block diagram illustrating a configuration of the imaging apparatus 1. As illustrated in FIG. 2, the imaging device 1 captures images from different positions and generates two image data in which one end in the horizontal direction of each field of view overlaps, and the posture of the imaging device 1. A posture detection unit 3 to detect, an operation input unit 4 that receives input of various information of the imaging device 1, a clock 5 having a shooting date determination function and a timer function, and a two-dimensional image (hereinafter referred to as “2D image”). Or the display part 6 which displays a 3D image, the touchscreen 7 which receives the input of the signal according to the contact position and locus | trajectory from the outside, and the memory | storage part 8 which memorize | stores the various information containing the image data produced | generated by the imaging part 2 The control unit 9 that controls the operation of the imaging device 1 and the communication unit 10 that transmits and receives data to and from the display device 200 are provided.

撮像部2は、互いに異なる光学系を有する第1撮像部21および第2撮像部22を備える。第1撮像部21および第2撮像部22は、互いの光軸L1,L2が平行または所定の角度をなすように同一平面上で並設される。   The imaging unit 2 includes a first imaging unit 21 and a second imaging unit 22 that have different optical systems. The first imaging unit 21 and the second imaging unit 22 are arranged side by side on the same plane so that their optical axes L1 and L2 are parallel or have a predetermined angle.

第1撮像部21は、レンズ部21aと、レンズ駆動部21bと、絞り21cと、絞り駆動部21dと、シャッタ21eと、シャッタ駆動部21fと、撮像素子21gと、信号処理部21hとを有する。   The first imaging unit 21 includes a lens unit 21a, a lens driving unit 21b, a diaphragm 21c, a diaphragm driving unit 21d, a shutter 21e, a shutter driving unit 21f, an imaging element 21g, and a signal processing unit 21h. .

レンズ部21aは、フォーカスレンズやズームレンズ等によって構成され、所定の視野領域からの光を集光する。レンズ駆動部21bは、DCモータ等によって構成され、レンズ部21aのフォーカスレンズやズームレンズ等を光軸L1上で移動させることにより、レンズ部21aのピント位置や焦点距離の変更を行う。   The lens unit 21a is configured by a focus lens, a zoom lens, or the like, and collects light from a predetermined visual field region. The lens driving unit 21b is configured by a DC motor or the like, and changes the focus position and focal length of the lens unit 21a by moving the focus lens, the zoom lens, and the like of the lens unit 21a on the optical axis L1.

絞り21cは、レンズ部21aが集光した光の入射量を制限することにより露出の調整を行う。絞り駆動部21dは、ステッピングモータ等によって構成され、絞り21cを駆動する。   The diaphragm 21c adjusts the exposure by limiting the amount of incident light collected by the lens unit 21a. The aperture drive unit 21d is configured by a stepping motor or the like, and drives the aperture 21c.

シャッタ21eは、撮像素子21gの状態を露光状態または遮光状態に設定する。シャッタ駆動部21fは、ステッピングモータ等によって構成され、レリーズ信号に応じてシャッタ21eを駆動する。   The shutter 21e sets the state of the image sensor 21g to an exposure state or a light shielding state. The shutter drive unit 21f is configured by a stepping motor or the like, and drives the shutter 21e according to the release signal.

撮像素子21gは、レンズ部21aが集光した光を受光して電気信号(アナログ信号)に変換するCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等によって実現され、変換した電気信号を信号処理部21hに出力する。   The imaging element 21g is realized by a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like that receives the light collected by the lens unit 21a and converts it into an electrical signal (analog signal), and converts the converted electrical signal. It outputs to the signal processor 21h.

信号処理部21hは、撮像素子21gから出力される電気信号に増幅等の信号処理を施した後、A/D変換を行うことによってデジタルの画像データに変換して制御部9に出力する。   The signal processing unit 21h performs signal processing such as amplification on the electrical signal output from the image sensor 21g, and then converts the digital signal to digital image data by performing A / D conversion, and outputs the digital image data to the control unit 9.

第2撮像部22は、第1撮像部21と同一の構成によって実現され、レンズ部22aと、レンズ駆動部22bと、絞り22cと、絞り駆動部22dと、シャッタ22eと、シャッタ駆動部22fと、撮像素子22gと、信号処理部22hとを有する。   The second imaging unit 22 is realized by the same configuration as the first imaging unit 21, and includes a lens unit 22a, a lens driving unit 22b, a diaphragm 22c, a diaphragm driving unit 22d, a shutter 22e, and a shutter driving unit 22f. The image sensor 22g and the signal processor 22h are included.

姿勢検出部3は、加速度センサによって構成され、撮像装置1の加速度を検出することにより、撮像装置1の姿勢を検出する。具体的には、姿勢検出部3は、水平面を基準としたときの撮像装置1の姿勢を検出する。   The posture detection unit 3 is configured by an acceleration sensor, and detects the posture of the imaging device 1 by detecting the acceleration of the imaging device 1. Specifically, the posture detection unit 3 detects the posture of the imaging device 1 with respect to the horizontal plane.

操作入力部4は、撮像装置1の電源状態をオン状態またはオフ状態に切換える電源スイッチ41と、静止画撮影の指示を与えるレリーズ信号を入力するレリーズスイッチ42と、撮像装置1の各種撮影モードや各種設定の切換える切換スイッチ43と、撮像部2のズーム操作を行うズームスイッチ44とを有する。   The operation input unit 4 includes a power switch 41 that switches the power state of the imaging device 1 to an on state or an off state, a release switch 42 that inputs a release signal that gives a still image shooting instruction, and various shooting modes of the imaging device 1. A change-over switch 43 for switching various settings and a zoom switch 44 for performing a zoom operation of the imaging unit 2 are provided.

時計5は、撮像装置1の動作の基準となる時間信号を生成する。これにより、制御部9は、画像データの取得時間や撮像素子21g,22gの露光時間等を設定することができる。時計5は、時間計測用のタイマとしての機能も有する。   The timepiece 5 generates a time signal that serves as a reference for the operation of the imaging apparatus 1. Thereby, the control part 9 can set the acquisition time of image data, the exposure time of the image pick-up elements 21g and 22g, etc. The clock 5 also has a function as a timer for measuring time.

図3は、表示部6の概略構成を示す模式図である。図2に示すように、表示部6は、バックライト61と、表示パネル62と、視差バリア63とを有する。バックライト61は、LED(Light Emitting Diode)等によって構成され、画像を表示するための光を背面から照射する。表示パネル62は、液晶または有機EL(Electro Luminescence)等の表示パネルによって構成される。視差バリア63は、液晶等によって構成され、表示パネル62の上面に積層されてなる。視差バリア63は、表示パネル62の各画素の間隔よりも狭い間隔でスリットが設けられ、ユーザの右目ERと左目ELとにそれぞれ対応した画像を分離する。このような視差バリア63として、例えばパララックバリア方式が適用される。なお、視差バリア63の代わりに、レンティキュラレンズを積層したレンズシートを表示パネル62の上面に設けてもよい。 FIG. 3 is a schematic diagram illustrating a schematic configuration of the display unit 6. As shown in FIG. 2, the display unit 6 includes a backlight 61, a display panel 62, and a parallax barrier 63. The backlight 61 is configured by an LED (Light Emitting Diode) or the like, and irradiates light for displaying an image from the back side. The display panel 62 is configured by a display panel such as liquid crystal or organic EL (Electro Luminescence). The parallax barrier 63 is made of liquid crystal or the like and is laminated on the upper surface of the display panel 62. The parallax barrier 63 is provided with slits at an interval narrower than the interval between the pixels of the display panel 62, and separates images corresponding to the user's right eye E R and left eye E L , respectively. As such a parallax barrier 63, for example, a parallax barrier method is applied. Instead of the parallax barrier 63, a lens sheet in which lenticular lenses are stacked may be provided on the upper surface of the display panel 62.

以上の構成を有する表示部6は、制御部9から3D画像データが入力された場合、制御部9の制御のもとで表示パネル62が左端の画素から水平方向に右目画像と左目画像との順で交互に表示し、視差バリア63が表示パネル62の各画素から出た光を分離する。このため、右目画像が右目ERのみ、左目画像が左目ELのみにそれぞれ届く。これにより、ユーザは、表示部6が表示する3D画像を立体視することができる。また、表示部6が表示態様を3D画像から2D画像に切り換える際には、視差バリア63に印加される電圧がオン状態からオフ状態に変化することによって視差バリア63が遮光状態から透過状態に遷移し、右目画像または左目画像のどちらか一方が表示パネル62に出力される。 In the display unit 6 having the above configuration, when 3D image data is input from the control unit 9, the display panel 62 performs horizontal alignment of the right eye image and the left eye image from the left end pixel in the horizontal direction under the control of the control unit 9. The images are alternately displayed in order, and the parallax barrier 63 separates the light emitted from each pixel of the display panel 62. For this reason, the right eye image reaches only the right eye E R and the left eye image reaches only the left eye E L. Thereby, the user can stereoscopically view the 3D image displayed on the display unit 6. Further, when the display unit 6 switches the display mode from the 3D image to the 2D image, the voltage applied to the parallax barrier 63 changes from the on state to the off state, so that the parallax barrier 63 transitions from the light shielding state to the transmission state. Then, either the right eye image or the left eye image is output to the display panel 62.

タッチパネル7は、表示部6の表示画面上に重ねて設けられる。タッチパネル7は、ユーザが表示部6で表示される情報や画像に基づいて接触した(タッチした)位置や軌跡を検出し、この接触位置や軌跡に応じた操作信号の入力を受け付ける。一般に、タッチパネルとしては、抵抗膜方式、静電容量方式、光学式等がある。本実施の形態1では、いずれの方式のタッチパネルであっても適用可能である。   The touch panel 7 is provided so as to overlap the display screen of the display unit 6. The touch panel 7 detects a position or locus touched (touched) based on information or an image displayed on the display unit 6 and accepts an input of an operation signal corresponding to the contact position or locus. In general, the touch panel includes a resistance film method, a capacitance method, an optical method, and the like. In the first embodiment, any type of touch panel is applicable.

記憶部8は、撮像部2が撮影した画像データを記憶する画像データ記憶部81と、撮像装置1が実行する各種プログラムを記憶するプログラム記憶部82と、表示部6が表示する3D画像の快適視差範囲を記憶した視差記憶部83とを有する。記憶部8は、撮像装置1の内部に固定的に設けられるフラッシュメモリやRAM(Random Access Memory)等の半導体メモリを用いて実現される。なお、記憶部8に対し、外部から装着されるメモリカード等の記憶媒体に対して情報を記憶する一方、記憶媒体が記憶する情報を読み出す記録媒体インターフェースとしての機能を具備させてもよい。   The storage unit 8 includes an image data storage unit 81 that stores image data captured by the imaging unit 2, a program storage unit 82 that stores various programs executed by the imaging device 1, and a comfortable 3D image displayed by the display unit 6. A parallax storage unit 83 that stores the parallax range. The storage unit 8 is realized using a semiconductor memory such as a flash memory or a RAM (Random Access Memory) that is fixedly provided inside the imaging apparatus 1. The storage unit 8 may be provided with a function as a recording medium interface that reads information stored in the storage medium while storing information in a storage medium such as a memory card mounted from the outside.

制御部9は、CPU(Central Processing Unit)等によって実現される。制御部9は、操作入力部4からの操作信号等に応じて記憶部8のプログラム記憶部82から各種プログラムを読み出し、撮像装置1を構成する各部に対して制御信号を送信したりデータを転送したりすることにより、撮像装置1の動作を制御する。制御部9は、画像処理部91と、送信用画像生成部92と、表示用画像生成部93と、視差調整部94と、表示制御部95と、通信状態検出部96とを有する。   The control unit 9 is realized by a CPU (Central Processing Unit) or the like. The control unit 9 reads various programs from the program storage unit 82 of the storage unit 8 in response to an operation signal from the operation input unit 4, transmits a control signal to each unit constituting the imaging device 1, and transfers data. To control the operation of the imaging apparatus 1. The control unit 9 includes an image processing unit 91, a transmission image generation unit 92, a display image generation unit 93, a parallax adjustment unit 94, a display control unit 95, and a communication state detection unit 96.

画像処理部91は、信号処理部21h,22hからそれぞれ出力された左目画像データおよび右目画像データに対して各種の画像処理を施し、記憶部8の画像データ記憶部81へ出力する。具体的には、画像処理部91は、信号処理部21h,22hからそれぞれ出力された左目画像データおよび右目画像データに対して、エッジ強調、色補正およびγ補正等の処理を施す。   The image processing unit 91 performs various types of image processing on the left-eye image data and right-eye image data output from the signal processing units 21 h and 22 h, and outputs them to the image data storage unit 81 of the storage unit 8. Specifically, the image processing unit 91 performs processing such as edge enhancement, color correction, and γ correction on the left eye image data and right eye image data output from the signal processing units 21h and 22h, respectively.

送信用画像生成部92は、通信部10を介して外部接続された表示装置200の表示画面201で表示させるために表示装置200へ送信する送信用画像の画像データを生成する。具体的には、送信用画像生成部92は、画像処理部91によって画像処理された左目画像データおよび右目画像データを所定の縦横比率(例えばアスペクト比3:4)でそれぞれ切り出すことによって3D画像を生成する。なお、送信用画像生成部92が左目画像データおよび右目画像データからそれぞれ切り出す縦横比率を切換スイッチ43で変更できるようにしてもよい。   The transmission image generation unit 92 generates image data of a transmission image to be transmitted to the display device 200 for display on the display screen 201 of the display device 200 externally connected via the communication unit 10. Specifically, the transmission image generation unit 92 cuts out the left-eye image data and the right-eye image data subjected to image processing by the image processing unit 91 at a predetermined aspect ratio (for example, an aspect ratio of 3: 4), thereby generating a 3D image. Generate. Note that the aspect ratio that the transmission image generation unit 92 cuts out from the left-eye image data and the right-eye image data may be changed by the changeover switch 43.

表示用画像生成部93は、表示部6が表示する表示用画像の画像データを生成する。具体的には、表示用画像生成部93は、表示用画像として3D画像または2D画像に対応する画像データを生成する。このうち3D画像の画像データを生成する際には、送信用画像生成部92と同様に左目画像データおよび右目画像データを所定の縦横比率で切り出す。   The display image generation unit 93 generates image data of a display image displayed on the display unit 6. Specifically, the display image generation unit 93 generates 3D images or image data corresponding to 2D images as display images. Among these, when generating image data of a 3D image, the left-eye image data and the right-eye image data are cut out at a predetermined aspect ratio in the same manner as the transmission image generation unit 92.

表示用画像生成部93が2D画像の画像データを生成する場合には、送信用画像生成部92が生成した左目画像と右目画像とを重ねた合成画像を生成するか、または左目画像データおよび右目画像データのうち一方を表示用画像として生成する。このうち、送信用画像生成部92が合成画像を生成する場合、表示用画像生成部93は、左目画像の画像領域内で鮮鋭度が最大となる領域と右目画像の画像領域内で鮮鋭度が最大となる領域とを一致させて重ねることによって合成画像を生成する。これにより、表示用画像生成部93は、左目画像および右目画像それぞれの画像領域内でピントが合った被写体を基準にした合成画像を生成することができる。このため、ユーザは、合成画像に含まれる近被写体の視差が小さい状態から3D画像の変化量の調整を開始することができる。   When the display image generation unit 93 generates 2D image data, the display image generation unit 93 generates a composite image in which the left eye image and the right eye image generated by the transmission image generation unit 92 are overlapped, or the left eye image data and the right eye image One of the image data is generated as a display image. Among these, when the transmission image generating unit 92 generates a composite image, the display image generating unit 93 has the sharpness in the region where the sharpness is maximum in the image region of the left eye image and in the image region of the right eye image. A composite image is generated by overlapping the maximum region with matching. As a result, the display image generation unit 93 can generate a composite image based on the subject in focus in the image areas of the left eye image and the right eye image. For this reason, the user can start adjusting the amount of change in the 3D image from a state in which the parallax of the near subject included in the composite image is small.

視差調整部94は、タッチパネル7に外部から接触した物体の軌跡に応じて、送信用画像生成部92による左目画像データおよび右目画像データの切り出し領域をそれぞれ変更して合成画像に含まれる被写体の視差を調整する。具体的には、視差調整部94は、合成画像内で左目画像と右目画像とが互いに重なっている左右方向の一端部の領域に対し、タッチパネル7に接触した物体の軌跡に応じて、例えば右目画像の領域を右方向にずらすことで合成画像に含まれる被写体の視差を調整する。   The parallax adjustment unit 94 changes the left-eye image data and right-eye image data cut-out regions by the transmission image generation unit 92 according to the trajectory of the object touching the touch panel 7 from the outside, and the parallax of the subject included in the composite image Adjust. Specifically, the parallax adjustment unit 94 performs, for example, the right eye on the region of one end in the left-right direction in which the left eye image and the right eye image overlap each other in the composite image according to the trajectory of the object that has touched the touch panel 7. The parallax of the subject included in the composite image is adjusted by shifting the image area to the right.

表示制御部95は、表示用画像生成部93が表示用画像として生成した画像データに対応する3D画像または2D画像を表示部6に表示させる制御を行う。具体的には、表示制御部95は、表示部6に3D画像を表示させる場合、送信用画像生成部92が生成した3D画像の左目画像と右目画像とを表示部6の表示画面における水平方向の1画素毎に交互に並べた3D画像を表示部6に出力する制御を行う。   The display control unit 95 controls the display unit 6 to display a 3D image or 2D image corresponding to the image data generated as the display image by the display image generation unit 93. Specifically, when displaying the 3D image on the display unit 6, the display control unit 95 displays the left eye image and the right eye image of the 3D image generated by the transmission image generation unit 92 in the horizontal direction on the display screen of the display unit 6. Control is performed to output 3D images alternately arranged for each pixel to the display unit 6.

これに対し、表示部6に2D画像を表示させる場合、表示制御部95は、視差バリア63に印加する電源をオン状態からオフ状態にすることによって視差バリア63を遮光状態から透過状態にするとともに、表示用画像生成部93によって生成された表示用画像としての左目画像または右目画像を表示部6に出力させる制御を行う。   On the other hand, when displaying a 2D image on the display unit 6, the display control unit 95 changes the power applied to the parallax barrier 63 from the on state to the off state, thereby changing the parallax barrier 63 from the light shielding state to the transmissive state. Then, control is performed to cause the display unit 6 to output the left eye image or the right eye image as the display image generated by the display image generation unit 93.

表示制御部95は、視差調整部94が調整した合成画像および合成画像に含まれる被写体の視差に関する視差情報を表示部6に表示させる制御を行う場合もある。また、表示制御部95は、視差調整部94が調整した合成画像に含まれる被写体の視差が所定の視差を超えた場合、表示部6に警告を表示させる制御を行うとともに、合成画像に含まれる被写体の視差を所定の視差に固定して表示させる制御を行う。   The display control unit 95 may control the display unit 6 to display the combined image adjusted by the parallax adjusting unit 94 and the parallax information related to the parallax of the subject included in the combined image. The display control unit 95 controls the display unit 6 to display a warning when the parallax of the subject included in the composite image adjusted by the parallax adjustment unit 94 exceeds a predetermined parallax, and is included in the composite image. Control is performed to fix the parallax of the subject to a predetermined parallax for display.

通信状態検出部96は、撮像装置1と表示装置200との通信状態を検出する。例えば、撮像装置1と表示装置200との間がHDMI(登録商標)を介して接続される場合、通信状態検出部96は、CECプロトコルにしたがって撮像装置1と表示装置200との通信状態を検出する。また、撮像装置1と表示装置200との間がインターネットを介して接続される場合、通信状態検出部96は、TCP/IPプロトコルにしたがって撮像装置1と表示装置200との通信状態を検出する。なお、撮像装置1と表示装置200との間の通信は、無線通信であってもよい。   The communication state detection unit 96 detects the communication state between the imaging device 1 and the display device 200. For example, when the imaging device 1 and the display device 200 are connected via HDMI (registered trademark), the communication state detection unit 96 detects the communication state between the imaging device 1 and the display device 200 according to the CEC protocol. To do. When the imaging device 1 and the display device 200 are connected via the Internet, the communication state detection unit 96 detects the communication state between the imaging device 1 and the display device 200 according to the TCP / IP protocol. Note that the communication between the imaging device 1 and the display device 200 may be wireless communication.

以上の構成を有する撮像装置1において、撮像部2が互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを生成する際の状況について説明する。図4は、撮像部2が、互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを生成する際の状況を示す模式図である。図4に示すように、まず撮像部2は、撮像部2からの距離が異なる被写体A1(距離d1)および被写体A2(距離d2)に対して、距離B1だけ離れて並設された第1撮像部21および第2撮像部22で撮影することにより、右目画像データと左目画像データとを生成する。   In the imaging apparatus 1 having the above-described configuration, a situation when the imaging unit 2 generates two image data in which one end in the left-right direction of each field of view overlaps will be described. FIG. 4 is a schematic diagram illustrating a situation when the imaging unit 2 generates two image data in which one end in the horizontal direction of each field of view overlaps. As shown in FIG. 4, first, the imaging unit 2 includes a first imaging that is arranged in parallel by a distance B1 with respect to a subject A1 (distance d1) and a subject A2 (distance d2) having different distances from the imaging unit 2. The right eye image data and the left eye image data are generated by photographing with the unit 21 and the second imaging unit 22.

その後、送信用画像生成部92は、第1撮像部21および第2撮像部22によって生成された右目画像データおよび左目画像データそれぞれを所定の縦横比率で切り出すことによって右目画像WR1および左目画像WL1を生成する。図5は、図4に示す状況下で撮像部2が生成する2つの画像データにそれぞれ対応する2つの画像の一例を示す図である。図5において、画像WR1は、送信用画像生成部92が第1撮像部21によって生成された右目画像データに対応する画像から切り出して生成した右目画像である。また、図5において、画像WL1は、送信用画像生成部92が第2撮像部22によって生成された左目画像データに対応する画像から切り出して生成した左目画像である。図6は、図4に示す状況下で送信用画像生成部92が生成した右目画像と左目画像とを仮想的に重ねた画像の一例を示す図である。   Thereafter, the transmission image generation unit 92 extracts the right eye image WR1 and the left eye image WL1 by cutting out the right eye image data and the left eye image data respectively generated by the first imaging unit 21 and the second imaging unit 22 at a predetermined aspect ratio. Generate. FIG. 5 is a diagram illustrating an example of two images respectively corresponding to two image data generated by the imaging unit 2 under the situation illustrated in FIG. In FIG. 5, an image WR <b> 1 is a right-eye image generated by the transmission image generation unit 92 cut out from an image corresponding to the right-eye image data generated by the first imaging unit 21. In FIG. 5, an image WL <b> 1 is a left-eye image generated by the transmission image generation unit 92 cut out from an image corresponding to the left-eye image data generated by the second imaging unit 22. FIG. 6 is a diagram illustrating an example of an image in which the right-eye image and the left-eye image generated by the transmission image generation unit 92 are virtually superimposed under the situation illustrated in FIG.

図5および図6に示す破線および一点鎖線は、第1撮像部21および第2撮像部22がそれぞれ生成する画像データに対応する画像領域を示す。以下、図8および図9においても、破線および一点鎖線は、図5等と同様の画像領域を意味する。   5 and 6 indicate image areas corresponding to the image data generated by the first imaging unit 21 and the second imaging unit 22, respectively. Hereinafter, also in FIG. 8 and FIG. 9, a broken line and a dashed-dotted line mean the same image area as FIG.

図7は、図4に示す状況下で撮像部2と被写体との撮影距離の関係を示す図である。図7では、横軸が左端を原点としたときの画像W1内の被写体位置であり、縦軸が撮像部2と被写体との距離である。図7に示すように、撮像部2と被写体A2との距離は、撮像部2と被写体A1との距離より大きい。このため、被写体A2の領域がほぼ重なる。具体的には、図6に示すように、画像W1内では、被写体A2の領域がほぼ重なる。一方、被写体A1の領域は重ならない(視差a1)。このように、右目画像WR1と左目画像WL1では、撮像部2からの距離が近い被写体(被写体A1)ほど画像内での視差が大きく、撮像部2からの距離が遠い被写体(被写体A2)ほど画像内での視差が小さい。   FIG. 7 is a diagram illustrating the relationship between the imaging distances between the imaging unit 2 and the subject under the situation illustrated in FIG. In FIG. 7, the horizontal axis is the subject position in the image W1 when the left end is the origin, and the vertical axis is the distance between the imaging unit 2 and the subject. As shown in FIG. 7, the distance between the imaging unit 2 and the subject A2 is larger than the distance between the imaging unit 2 and the subject A1. For this reason, the area of the subject A2 almost overlaps. Specifically, as shown in FIG. 6, the area of the subject A2 almost overlaps in the image W1. On the other hand, the area of the subject A1 does not overlap (parallax a1). Thus, in the right eye image WR1 and the left eye image WL1, the subject (subject A1) that is closer to the imaging unit 2 has a larger parallax in the image, and the subject that is farther from the imaging unit 2 (subject A2) is the image. The parallax inside is small.

次に、視差調整部94が行う処理の概要について説明する。図8は、視差調整部94が行う処理の概要を示す模式図である。図8(a)に示す画像WR21および図8(b)に示す画像WR22は、送信用画像生成部92が第1撮像部21によって生成された右目画像データから所定の縦横比率で切り出して生成した右目画像である。また、図8(a)に示す画像WL21および図8(b)に示す画像WL22は、送信用画像生成部92が第2撮像部22によって生成された左目画像データから所定の縦横比率で切り出した生成した左目画像である。   Next, an outline of processing performed by the parallax adjustment unit 94 will be described. FIG. 8 is a schematic diagram illustrating an outline of processing performed by the parallax adjustment unit 94. The image WR21 illustrated in FIG. 8A and the image WR22 illustrated in FIG. 8B are generated by the transmission image generation unit 92 cut out from the right-eye image data generated by the first imaging unit 21 at a predetermined aspect ratio. It is a right eye image. In addition, the image WL21 illustrated in FIG. 8A and the image WL22 illustrated in FIG. 8B are cut out from the left-eye image data generated by the second imaging unit 22 by the transmission image generation unit 92 at a predetermined aspect ratio. It is the generated left eye image.

図9は、右目画像と左目画像とを合成した合成画像の一例を示す図である。同図に示す合成画像W2(実線で囲まれた領域)は、表示用画像生成部93が、送信用画像生成部92によって生成された右目画像と左目画像とを重ねて合成した画像である。   FIG. 9 is a diagram illustrating an example of a composite image obtained by combining the right eye image and the left eye image. A composite image W2 (region surrounded by a solid line) shown in FIG. 6 is an image obtained by superimposing the right-eye image and the left-eye image generated by the display image generation unit 93 on each other.

ここまで、送信用画像生成部92における3D画像用の右目画像および左目画像の生成処理の概要を説明したが、表示用画像生成部93が3D画像用の右目画像および左目画像を生成する処理も同様である。   Up to this point, the outline of the processing for generating the right-eye image and the left-eye image for the 3D image in the transmission image generation unit 92 has been described. However, the processing for generating the right-eye image and the left-eye image for the 3D image by the display image generation unit 93 is also performed. It is the same.

視差調整部94は、タッチパネル7に接触した物体の軌跡に応じて、送信用画像生成部92が右目画像データおよび左目画像データからそれぞれ切り出して生成する右目画像および左目画像の切り出し領域を変更して被写体の視差を調整する。   The parallax adjustment unit 94 changes the cut-out areas of the right-eye image and the left-eye image that the transmission image generation unit 92 generates from the right-eye image data and the left-eye image data, respectively, according to the trajectory of the object that has touched the touch panel 7. Adjust the parallax of the subject.

具体的には、視差調整部94は、被写体A1を表示部6の表示画面と直交する垂直な方向に仮想的に飛び出させる場合、右目画像WR1と左目画像WL1とに含まれる被写体A1の視差(領域の重なり具合)を大きくすることにより、被写体が表示画面と直交する垂直な方向に仮想的に飛び出す距離(以下、「飛び出し距離」という)を調整する(図6の画像W1を参照)。これに対して、視差調整部94は、被写体A1を表示部6の表示画面と直交する垂直な方向に仮想的に引っ込ませる場合、右目画像WR1と左目画像WL1とに含まる被写体A1の視差を小さくすることにより、被写体A1が表示画面と直交する方向に仮想的に引っ込む距離(以下、「引っ込み距離」という)を調整する(図9の画像W2を参照)。   Specifically, when the parallax adjustment unit 94 virtually causes the subject A1 to jump out in a vertical direction perpendicular to the display screen of the display unit 6, the parallax ((1) of the subject A1 included in the right eye image WR1 and the left eye image WL1) By increasing the area overlap), the distance at which the subject virtually jumps out in the vertical direction orthogonal to the display screen (hereinafter referred to as “jump distance”) is adjusted (see image W1 in FIG. 6). On the other hand, when the parallax adjustment unit 94 virtually retracts the subject A1 in a vertical direction orthogonal to the display screen of the display unit 6, the parallax of the subject A1 included in the right-eye image WR1 and the left-eye image WL1. By reducing the distance, the distance that the subject A1 is virtually retracted in the direction orthogonal to the display screen (hereinafter referred to as “retraction distance”) is adjusted (see image W2 in FIG. 9).

本実施の形態1では、撮像装置1と表示装置200とが連携しているため、ユーザは、表示装置200で表示される3D画像の立体感(飛び出し距離や引っ込み距離)を、撮像装置1に設けられたタッチパネル7等の操作部材を用いて調整することができる。したがって、ユーザは、表示装置200が表示する3D画像を見ながら容易に調整を行うことができる。   In the first embodiment, since the imaging device 1 and the display device 200 are linked, the user can give the imaging device 1 the stereoscopic effect (the jumping distance and the retracting distance) of the 3D image displayed on the display device 200. Adjustment can be performed using an operation member such as the touch panel 7 provided. Therefore, the user can easily adjust while viewing the 3D image displayed on the display device 200.

なお、図8では、視差調整部94は、右目画像の切り出し領域のみ変更しているが、右目画像および左目画像それぞれを同期させながら、右目画像および左目画像それぞれの切り出し領域を変更してもよい。   In FIG. 8, the parallax adjustment unit 94 changes only the cut-out area of the right-eye image. However, the cut-out areas of the right-eye image and the left-eye image may be changed while synchronizing the right-eye image and the left-eye image. .

図10は、視差調整部94によって調整された右目画像と左目画像とを用いて表示部6または表示装置200で表示され、ユーザが認識する仮想的な3D画像の表示例を示す図である。図10においては、被写体A1が仮想的に飛び出して見える場合を示している。   FIG. 10 is a diagram illustrating a display example of a virtual 3D image displayed on the display unit 6 or the display device 200 using the right eye image and the left eye image adjusted by the parallax adjustment unit 94 and recognized by the user. FIG. 10 shows a case where the subject A1 appears to virtually protrude.

次に、撮像装置1が行う処理について説明する。図11は、撮像装置1が行う処理の概要を示すフローチャートである。図11において、まず、制御部9は、撮像装置1の電源がオンになっているか否かを判断する(ステップS101)。撮像装置1の電源がオンになっている場合(ステップS101:Yes)、撮像装置1はステップS102に移行する。一方、撮像装置1の電源がオンになっていない場合(ステップS101:No)、撮像装置1は本処理を終了する。   Next, processing performed by the imaging apparatus 1 will be described. FIG. 11 is a flowchart illustrating an outline of processing performed by the imaging apparatus 1. In FIG. 11, first, the control unit 9 determines whether or not the power of the imaging device 1 is turned on (step S <b> 101). When the power supply of the imaging device 1 is on (step S101: Yes), the imaging device 1 proceeds to step S102. On the other hand, when the power of the imaging apparatus 1 is not turned on (step S101: No), the imaging apparatus 1 ends this process.

続いて、制御部9は、撮像装置1が撮影モードに設定されているか否かを判断する(ステップS102)。撮像装置1が撮影モードに設定されている場合(ステップS102:Yes)、表示制御部95は、撮像部2が一定の微小な時間間隔で連続的に生成する画像データに対応するスルー画を表示部6に表示させる(ステップS103)。この場合のスルー画は、2D画像および3D画像のどちらでも構わない。   Subsequently, the control unit 9 determines whether or not the imaging apparatus 1 is set to the shooting mode (step S102). When the imaging device 1 is set to the imaging mode (step S102: Yes), the display control unit 95 displays a through image corresponding to image data that the imaging unit 2 continuously generates at a constant minute time interval. It is displayed on the part 6 (step S103). In this case, the through image may be either a 2D image or a 3D image.

続いて、制御部9は、ユーザによってレリーズスイッチ42が操作されて撮影を指示するレリーズ信号が入力されたか否かを判断する(ステップS104)。表示部6がスルー画を表示し始めてから所定時間内に撮影を指示するレリーズ信号が入力された場合(ステップS104:Yes)、撮像部2は撮影を行い、得られた画像データを記憶部8の画像データ記憶部81に記憶する(ステップS105)。   Subsequently, the control unit 9 determines whether or not a release signal for instructing photographing is input by operating the release switch 42 by the user (step S104). When a release signal instructing shooting is input within a predetermined time after the display unit 6 starts displaying a through image (step S104: Yes), the imaging unit 2 performs shooting and stores the obtained image data in the storage unit 8 Is stored in the image data storage unit 81 (step S105).

通信状態検出部96による検出の結果、撮像装置1と表示装置200とが接続されて通信可能な状態にある場合(ステップS106:Yes)、制御部9は、送信用画像生成部92が生成した表示用画像を、通信部10を介して送信する制御を行う(ステップS107)。その後、制御部9は、表示用画像として2D画像を時間t1だけ表示部6に表示させる制御を行う(ステップS108)。なお、ステップS107とステップS108は、並行して行うようにしてもよい。 As a result of detection by the communication state detection unit 96, when the imaging device 1 and the display device 200 are connected and are in a communicable state (step S106: Yes), the control unit 9 generates the transmission image generation unit 92. Control to transmit the display image via the communication unit 10 is performed (step S107). Thereafter, the control unit 9 performs control to display a 2D image on the display unit 6 as a display image for a time t 1 (step S108). Note that step S107 and step S108 may be performed in parallel.

一方、通信状態検出部96による検出の結果、撮像装置1と表示装置200とが接続されていない場合(ステップS106:No)、制御部9は、表示用画像として3D画像を時間t2だけレックビュー表示する(ステップS109)。この時間t2は、上述した時間t1よりも短い(t2<t1)方がより好ましい。これにより、ユーザは、表示部6と表示装置200の双方に画像が表示される場合、表示部6にのみ画像が表示される場合よりも長くレックビュー表示を見ることができる。 On the other hand, in the case of detection by the communication status detection unit 96 result, where the display device 200 and the imaging apparatus 1 is not connected (Step S106: No), the control unit 9, rec 3D images by a time t 2 as the display image A view is displayed (step S109). This time t 2 is more preferably shorter than the above-described time t 1 (t 2 <t 1 ). Thus, when the image is displayed on both the display unit 6 and the display device 200, the user can view the REC view display longer than when the image is displayed only on the display unit 6.

次に、ステップS104において、スルー画を表示し始めてから所定時間レリーズ信号が入力されない場合(ステップS104:No)を説明する。この場合において、通信状態検出部96が表示装置200との接続を検出したとき(ステップS110:Yes)、制御部9は、送信用画像生成部92が生成した送信用画像を、通信部10を介して表示装置200へ送信する制御を行う(ステップS111)。その後、制御部9は、表示用画像として表示用画像生成部93が生成した合成画像を表示部6に表示させる(ステップS112)。   Next, the case where the release signal is not input for a predetermined time after starting to display the through image in step S104 (step S104: No) will be described. In this case, when the communication state detection unit 96 detects the connection with the display device 200 (step S110: Yes), the control unit 9 transmits the transmission image generated by the transmission image generation unit 92 to the communication unit 10. The transmission control to the display device 200 is performed (step S111). Thereafter, the control unit 9 causes the display unit 6 to display the composite image generated by the display image generation unit 93 as a display image (step S112).

続いて、制御部9は、タッチパネル7の外部からの接触位置に応じた信号が入力されたか否かを判断する(ステップS113)。外部からの接触位置に応じた信号が入力された場合(ステップS113:Yes)、撮像装置1は、合成画像に含まれる被写体の飛び出し距離または引っ込み距離を調整する視差調整処理を行う(ステップS114)。視差調整処理を完了した時点で撮像装置1が表示装置200と接続されている場合(ステップS115:Yes)、制御部9は、視差調整を行った後の送信用画像を、通信部10を介して表示装置200へ送信する制御を行う(ステップS116)。この後、撮像装置1は、ステップS101に戻る。   Subsequently, the control unit 9 determines whether or not a signal corresponding to the contact position from the outside of the touch panel 7 is input (step S113). When the signal according to the contact position from the outside is input (step S113: Yes), the imaging device 1 performs a parallax adjustment process for adjusting the jump distance or the retract distance of the subject included in the composite image (step S114). . When the imaging device 1 is connected to the display device 200 when the parallax adjustment processing is completed (step S115: Yes), the control unit 9 transmits the transmission image after performing the parallax adjustment via the communication unit 10. Then, control to transmit to the display device 200 is performed (step S116). Thereafter, the imaging apparatus 1 returns to step S101.

ステップS113において、外部からの接触位置に応じた信号が入力されない場合(ステップS113:No)、所定時間経過していれば(ステップS117:Yes)、撮像装置1はステップS101へ戻る。これに対して、ステップS117において所定時間経過していなければ(ステップS117:No)、撮像装置1はステップS113に戻る。   In step S113, when the signal according to the contact position from the outside is not input (step S113: No), if the predetermined time has passed (step S117: Yes), the imaging device 1 returns to step S101. On the other hand, if the predetermined time has not elapsed in step S117 (step S117: No), the imaging apparatus 1 returns to step S113.

ステップS110において、表示装置200との接続が検出されない場合(ステップS110:No)、制御部9は、表示用画像として3D画像を表示部6に表示させる(ステップS118)。その後、ユーザによってタッチパネル7がタッチされた場合(ステップS119:Yes)、撮像装置1はステップS112へ移行する。一方、ユーザによってタッチパネル7が所定時間タッチされない場合(ステップS119:No)、撮像装置1はステップS101へ戻る。   When connection with the display device 200 is not detected in step S110 (step S110: No), the control unit 9 displays a 3D image on the display unit 6 as a display image (step S118). Thereafter, when the touch panel 7 is touched by the user (step S119: Yes), the imaging device 1 proceeds to step S112. On the other hand, when the touch panel 7 is not touched by the user for a predetermined time (step S119: No), the imaging device 1 returns to step S101.

次に、ステップS102において、撮像装置1が撮影モードに設定されていない場合を説明する(ステップS102:No)。この場合、撮像装置1は、撮影した画像データを表示部6に表示する再生表示処理を実行し(ステップS120)、ステップS101に戻る。   Next, the case where the imaging apparatus 1 is not set to the shooting mode in step S102 will be described (step S102: No). In this case, the imaging apparatus 1 executes a reproduction display process for displaying the captured image data on the display unit 6 (step S120), and returns to step S101.

次に、ステップS114の視差調整処理について説明する。図12は、視差調整処理の概要を示すフローチャートである。図12において、まず、制御部9は、タッチパネル7に接触した物体の軌跡が合成画像内に含まれる被写体の視差を大きくする動作に対応するか否かを判断する(ステップS201)。タッチパネル7に接触した物体の軌跡が合成画像内に含まれる被写体の視差を大きくする動作に対応する場合(ステップS201:Yes)、撮像装置1は後述するステップS202に移行する。一方、タッチパネル7に接触した物体の軌跡が合成画像内に含まれる被写体の視差を大きくする動作に対応しない場合(ステップS201:No)、撮像装置1はステップS211に移行する。   Next, the parallax adjustment processing in step S114 will be described. FIG. 12 is a flowchart illustrating an outline of the parallax adjustment processing. In FIG. 12, first, the control unit 9 determines whether or not the locus of the object touching the touch panel 7 corresponds to an operation for increasing the parallax of the subject included in the composite image (step S201). When the locus of the object touching the touch panel 7 corresponds to the operation of increasing the parallax of the subject included in the composite image (step S201: Yes), the imaging device 1 proceeds to step S202 described later. On the other hand, when the trajectory of the object touching the touch panel 7 does not correspond to the operation of increasing the parallax of the subject included in the composite image (step S201: No), the imaging device 1 proceeds to step S211.

図13は、ユーザによって合成画像内に含まれる被写体の視差を大きくする動作を説明する図である。図13に示すように、制御部9は、表示部6が現在表示する画像W4内において視差を持たない被写体A1の領域で、ユーザが人差し指F1をタッチパネル7に接触させながら画像W4の左側から右側に向けて移動させた場合(図13(a)→図13(b))、この動作を被写体の視差を大きくする動作として判断する。 FIG. 13 is a diagram for explaining an operation of increasing the parallax of the subject included in the composite image by the user. As shown in FIG. 13, the control unit 9, the region of the object A1 having no parallax in the image W4 in which the display unit 6 is currently displayed, from the left side of the image W4 while a user contacting the index finger F 1 on the touch panel 7 When it is moved toward the right side (FIG. 13 (a) → FIG. 13 (b)), this operation is determined as an operation for increasing the parallax of the subject.

ステップS202において、制御部9は、ユーザが人差し指でタッチパネル7に最初に接触した領域に対応する画像内に近被写体が含まれているか否かを判断する。ここで、近被写体とは、ユーザが撮像装置1を用いて複数の被写体を撮影する際に撮像部2と被写体との撮影距離が最も近い被写体である(図7を参照)。具体的には、図13に示すように、ユーザが人差し指F1でタッチパネル7に最初に接触した領域に対応する画像内に被写体A1が含まれているか否かを判断する。ユーザが人差し指F1でタッチパネル7に最初に接触した領域に対応する画像内に近被写体が含まれている場合(ステップS202:Yes)、撮像装置1はステップS203に移行する。 In step S202, the control unit 9 determines whether or not a near subject is included in an image corresponding to an area where the user first touches the touch panel 7 with the index finger. Here, the near subject is a subject having the shortest shooting distance between the imaging unit 2 and the subject when the user uses the imaging device 1 to photograph a plurality of subjects (see FIG. 7). Specifically, as shown in FIG. 13, the user determines whether contains subject A1 in the image corresponding to the regions first contacted the touch panel 7 with the index finger F 1. When the near subject is included in the image corresponding to the area where the user first touches the touch panel 7 with the index finger F 1 (step S202: Yes), the imaging device 1 proceeds to step S203.

ステップS203において、制御部9は、表示部6が表示する合成画像に対し、タッチパネル7に接触した物体の軌跡に応じて、視差調整部94が合成画像に含まれる被写体の視差を調整することにより、被写体の飛び出し距離が視差記憶部83に記憶された飛び出しの距離の限界値を超えたか否かを判断する。視差調整部94が設定する被写体の飛び出し距離が飛び出し距離の限界値を超えた場合(ステップS203:Yes)、視差調整部94は、合成画像に含まれる被写体の視差が限界値で固定されるように、送信用画像生成部92による右目画像データおよび左目画像データそれぞれの切り出し領域を変更し、被写体の飛び出し距離を限界値で調整する(ステップS204)。   In step S203, the control unit 9 causes the parallax adjustment unit 94 to adjust the parallax of the subject included in the synthesized image according to the trajectory of the object that has touched the touch panel 7 with respect to the synthesized image displayed on the display unit 6. Then, it is determined whether or not the pop-out distance of the subject has exceeded the limit value of the pop-up distance stored in the parallax storage unit 83. When the subject jump distance set by the parallax adjustment unit 94 exceeds the limit value of the jump distance (step S203: Yes), the parallax adjustment unit 94 seems to fix the parallax of the subject included in the composite image at the limit value. Then, the cut-out areas of the right-eye image data and the left-eye image data by the transmission image generation unit 92 are changed, and the pop-out distance of the subject is adjusted with a limit value (step S204).

続いて、表示制御部95は、表示部6が表示する合成画像内に被写体の飛び出し距離が限界値を超えた旨の警告を表示部6に表示させる(ステップS205)。具体的には、図14に示すように、表示制御部95は、画像W5内に視差が限界である旨をユーザに警告するためのアイコンQ1を表示部6に表示させる。これにより、ユーザは、被写体の飛び出し距離の限界を知ることができるうえ、鑑賞時に飛び出し過ぎた被写体画像による人間の目の対応限界を超えることを未然に防止することができる。なお、表示制御部95は、ユーザが誤操作、例えば被写体の視差を調整する方向が逆向きの場合に警告を表示するようにしてもよい。その後、撮像装置1は、図11に示すメインルーチンに戻る。   Subsequently, the display control unit 95 causes the display unit 6 to display a warning that the subject pop-out distance has exceeded the limit value in the composite image displayed by the display unit 6 (step S205). Specifically, as illustrated in FIG. 14, the display control unit 95 causes the display unit 6 to display an icon Q1 for warning the user that the parallax is the limit in the image W5. Thereby, the user can know the limit of the distance to which the subject jumps out, and can prevent the human eye from exceeding the correspondence limit of the human eye due to the subject image that has jumped out during viewing. The display control unit 95 may display a warning when the user makes an erroneous operation, for example, when the direction of adjusting the parallax of the subject is reversed. Thereafter, the imaging apparatus 1 returns to the main routine shown in FIG.

次に、ステップS203において、表示部6が表示する合成画像に対し、タッチパネル7に接触した物体の軌跡に応じて、視差調整部94が調整する右目画像データおよび左目画像データそれぞれの切り出し領域を変更して合成画像に含まれる被写体の視差が視差記憶部83に記憶された視差の限界値を超えない場合(ステップS203:No)について説明する。この場合、視差調整部94は、タッチパネル7に接触した物体の軌跡に応じて、送信用画像生成部92による右目画像データおよび左目画像データそれぞれの切り出し領域を変更し、合成画像に含まれる被写体の視差を調整することにより、被写体の飛び出し距離を調整する(ステップS206)。   Next, in step S203, the cut-out areas of the right-eye image data and the left-eye image data adjusted by the parallax adjustment unit 94 are changed according to the trajectory of the object touching the touch panel 7 with respect to the composite image displayed by the display unit 6. The case where the parallax of the subject included in the composite image does not exceed the parallax limit value stored in the parallax storage unit 83 will be described (step S203: No). In this case, the parallax adjustment unit 94 changes the cut-out areas of the right-eye image data and the left-eye image data by the transmission image generation unit 92 according to the locus of the object that has touched the touch panel 7, and the object included in the composite image is changed. By adjusting the parallax, the pop-out distance of the subject is adjusted (step S206).

その後、表示制御部95は、表示部6が表示する合成画像内に視差調整部94が調整した被写体の視差情報を表示させる(ステップS207)。具体的には、図15に示すように、表示制御部95は、画像W6にアイコンQ2を表示部6に表示させる。アイコンQ2は、ユーザに視差調整部94が調整した被写体の視差情報に対応する被写体の飛び出し距離情報を知らせるためのアイコンである。これにより、ユーザは、操作によって調整した被写体の視差を容易に認識することができる。この後、撮像装置1は、図11に示すメインルーチンへ戻る。   Thereafter, the display control unit 95 displays the parallax information of the subject adjusted by the parallax adjustment unit 94 in the composite image displayed by the display unit 6 (step S207). Specifically, as shown in FIG. 15, the display control unit 95 causes the display unit 6 to display an icon Q2 on the image W6. The icon Q2 is an icon for notifying the user of the subject jump distance information corresponding to the subject parallax information adjusted by the parallax adjusting unit 94. Thereby, the user can easily recognize the parallax of the subject adjusted by the operation. Thereafter, the imaging apparatus 1 returns to the main routine shown in FIG.

次に、ステップS202において、ユーザが人差し指F1でタッチパネル7に最初に接触した領域に対応する画像内に近被写体が含まれていない場合(ステップS202:No)について説明する。この場合、視差調整部94は、タッチパネル7に接触した物体の軌跡に応じて、送信用画像生成部92による右目画像データおよび左目画像データそれぞれの切り出し領域を変更し、合成画像に含まれる被写体の視差を調整することにより、被写体の引っ込み距離を調整する(ステップS208)。 Next, in step S202, if in the image corresponding to the user first touches the touch panel 7 with the index finger F 1 region contains no near-object (step S202: No) will be described. In this case, the parallax adjustment unit 94 changes the cut-out areas of the right-eye image data and the left-eye image data by the transmission image generation unit 92 according to the locus of the object that has touched the touch panel 7, and the object included in the composite image is changed. By adjusting the parallax, the retraction distance of the subject is adjusted (step S208).

その後、表示制御部95は、表示部6が表示する合成画像内に視差調整部94が設定した被写体の視差を表示部6に表示させ(ステップS209)、撮像装置1は図11に示すメインルーチンへ戻る。   Thereafter, the display control unit 95 causes the display unit 6 to display the parallax of the subject set by the parallax adjustment unit 94 in the composite image displayed by the display unit 6 (step S209), and the imaging apparatus 1 performs the main routine illustrated in FIG. Return to.

次に、ステップS201において、タッチパネル7に接触した物体の軌跡が合成画像に含まれる被写体の視差を大きくする動作でない場合(ステップS201:No)について説明する。この場合、制御部9は、タッチパネル7に接触した物体の軌跡が合成画像に含まれる被写体の視差を小さくする動作であるか否かを判断する(ステップS210)。タッチパネル7に接触した物体の軌跡が合成画像に含まれる被写体の視差を小さくする動作に対応しない場合(ステップS210:No)、撮像装置1は図10に示すメインルーチンへ戻る。一方、タッチパネル7に接触した物体の軌跡が合成画像に含まれる被写体の視差を小さくする動作に対応する場合(ステップS210:Yes)、撮像装置1はステップS211へ移行する。   Next, a case where the locus of the object that has touched the touch panel 7 is not an operation for increasing the parallax of the subject included in the composite image in step S201 (step S201: No) will be described. In this case, the control unit 9 determines whether or not the locus of the object touching the touch panel 7 is an operation for reducing the parallax of the subject included in the composite image (step S210). When the trajectory of the object in contact with the touch panel 7 does not correspond to the operation of reducing the parallax of the subject included in the composite image (step S210: No), the imaging device 1 returns to the main routine illustrated in FIG. On the other hand, when the locus of the object touching the touch panel 7 corresponds to the operation of reducing the parallax of the subject included in the composite image (step S210: Yes), the imaging device 1 proceeds to step S211.

図16は、ユーザによって合成画像内に含まれる被写体の視差を小さくする動作を説明する図である。図16に示すように、制御部9は、表示部6が現在表示している画像内において視差を持つ被写体の領域で、ユーザが人差し指F1をタッチパネル7に接触させながら画像W7の右側から左側に向けて移動させた場合(図16(a)→図16(b))、この動作を被写体の視差を小さくする動作として判断する。 FIG. 16 is a diagram for explaining an operation of reducing the parallax of the subject included in the composite image by the user. As shown in FIG. 16, the control unit 9 is an area of a subject having parallax in the image currently displayed on the display unit 6, and the user touches the touch panel 7 with the index finger F 1 while the left side of the image W 7 from the right side. In the case of moving toward () (FIG. 16 (a) → FIG. 16 (b)), this operation is determined as an operation for reducing the parallax of the subject.

ステップS211において、制御部9は、ユーザが人差し指F1でタッチパネル7に最初に接触した領域に対応する画像内に近被写体が含まれているか否かを判断する。ユーザが人指し指F1でタッチパネル7に最初に接触した領域に対応する画像内に近被写体が含まれている場合(ステップS211:Yes)、視差調整部94は、タッチパネル7に接触した物体の軌跡に応じて、送信用画像生成部92による右目画像データおよび左画像データそれぞれの切り出し領域を変更し、合成画像に含まれる被写体の視差を調整することにより、被写体の引っ込み距離を調整する(ステップS212)。 In step S211, the control unit 9 determines whether or not the user is included near the object in the image corresponding to the regions first contacted the touch panel 7 with the index finger F 1. When the near subject is included in the image corresponding to the region where the user first touches the touch panel 7 with the index finger F 1 (step S211: Yes), the parallax adjustment unit 94 follows the trajectory of the object touching the touch panel 7. Accordingly, the cut-out areas of the right-eye image data and the left-image data by the transmission image generation unit 92 are changed, and the subject retraction distance is adjusted by adjusting the parallax of the subject included in the composite image (step S212). .

その後、表示制御部95は、表示部6が表示する合成画像内に視差調整部94が設定した被写体の視差情報に対応する引っ込み距離情報を表示させる(ステップS213)。ステップS213の後、撮像装置1は図11に示すメインルーチンへ戻る。   Thereafter, the display control unit 95 displays the retraction distance information corresponding to the parallax information of the subject set by the parallax adjustment unit 94 in the composite image displayed by the display unit 6 (step S213). After step S213, the imaging apparatus 1 returns to the main routine shown in FIG.

次に、ステップS211において、ユーザが人指し指F1でタッチパネル7に最初に接触した領域に対応する画像内に近被写体が含まれていない場合(ステップS211:No)について説明する。この場合、制御部9は、表示部6が表示する合成画像に対し、タッチパネル7に接触した物体の軌跡に応じて、視差調整部94が調整する合成画像に含まれる被写体の視差が視差記憶部83に記憶された視差の限界値を超えたか否かを判断する(ステップS214)。 Next, in step S211, if in the image corresponding to the user first touches the touch panel 7 with the index finger F 1 region contains no near-object (step S211: No) will be described. In this case, with respect to the composite image displayed on the display unit 6, the control unit 9 determines that the parallax of the subject included in the composite image adjusted by the parallax adjustment unit 94 according to the locus of the object touching the touch panel 7 is the parallax storage unit. It is determined whether or not the parallax limit value stored in 83 has been exceeded (step S214).

視差調整部94が調整する合成画像に含まれる被写体の視差が視差記憶部83に記載された視差の限界値を超えた場合(ステップS214:Yes)、視差調整部94は、合成画像に含まれる被写体の視差を限界値で固定し、送信用画像生成部92による右目画像データおよび左目画像データそれぞれの切り出し領域を変更して合成画像に含まれる被写体の視差を調整することにより、被写体の飛び出し距離を限界値で調整する(ステップS215)。   When the parallax of the subject included in the synthesized image adjusted by the parallax adjusting unit 94 exceeds the parallax limit value described in the parallax storage unit 83 (step S214: Yes), the parallax adjusting unit 94 is included in the synthesized image. By fixing the parallax of the subject at a limit value and changing the cut-out areas of the right-eye image data and the left-eye image data by the transmission image generation unit 92 and adjusting the parallax of the subject included in the composite image, the subject jump-out distance Is adjusted by the limit value (step S215).

続いて、表示制御部95は、表示部6が表示する合成画像内に被写体の視差が限界値である旨の警告を表示部6に表示させる(ステップS216)。この後、撮像装置1は、図11に示すメインルーチンへ戻る。   Subsequently, the display control unit 95 causes the display unit 6 to display a warning that the parallax of the subject is the limit value in the composite image displayed by the display unit 6 (step S216). Thereafter, the imaging apparatus 1 returns to the main routine shown in FIG.

ステップS214において、視差調整部94が調整する合成画像に含まれる被写体の視差が視差記憶部83に記載された視差の限界値を超えない場合(ステップS214:No)、視差調整部94は、タッチパネル7に接触した物体の軌跡に応じて、送信用画像生成部92による右目画像データおよび左目画像データそれぞれの切り出し領域を変更し、合成画像に含まれる被写体の視差を調整することにより、被写体の飛び出し距離を調整する(ステップS217)。   In step S214, when the parallax of the subject included in the composite image adjusted by the parallax adjusting unit 94 does not exceed the parallax limit value described in the parallax storage unit 83 (step S214: No), the parallax adjusting unit 94 7 according to the trajectory of the object in contact with the object 7, the cut-out areas of the right-eye image data and the left-eye image data by the transmission image generation unit 92 are changed, and the parallax of the subject included in the composite image is adjusted, thereby popping out the subject The distance is adjusted (step S217).

その後、表示制御部95は、表示部6が表示する合成画像内に視差調整部94が設定した被写体の飛び出し距離を視差情報として表示部6に表示させる(ステップS218)。ステップS218の後、撮像装置1は、図11に示すメインルーチンへ戻る。   After that, the display control unit 95 causes the display unit 6 to display the subject jump distance set by the parallax adjustment unit 94 in the composite image displayed by the display unit 6 as parallax information (step S218). After step S218, the imaging apparatus 1 returns to the main routine shown in FIG.

次に、図11のステップS120の再生表示処理について説明する。図17は、再生表示処理の概要を示すフローチャートである。図17において、まず、表示制御部95は、画像データ記憶部81に記憶された複数の画像をまとめて表示した画像選択画面を表示部6に表示させる(ステップS301)。ここで、表示部6に表示される画像は2D画像である。   Next, the reproduction display process in step S120 of FIG. 11 will be described. FIG. 17 is a flowchart showing an outline of the reproduction display process. In FIG. 17, first, the display control unit 95 causes the display unit 6 to display an image selection screen in which a plurality of images stored in the image data storage unit 81 are displayed together (step S301). Here, the image displayed on the display unit 6 is a 2D image.

続いて、制御部9は、ユーザがタッチパネル7を操作することによって表示部6が表示する画像選択画面の中から画像が選択されたか否かを判断する(ステップS302)。ユーザによって画像選択画面の中から画像が選択されない場合(ステップS302:No)、撮像装置1はステップS301へ戻る。一方、ユーザによって画像選択画面の中から画像が選択された場合(ステップS302:Yes)において、撮像装置1が表示装置200と接続されているとき(ステップS303:Yes)、制御部9は、選択された画像に対応する送信用画像を、通信部10を介して表示装置200へ送信する(ステップS304)。その後、制御部9は、表示用画像として、選択された画像に対応する合成画像を表示部6に全画面表示させる(ステップS305)。   Subsequently, the control unit 9 determines whether or not an image is selected from the image selection screen displayed on the display unit 6 when the user operates the touch panel 7 (step S302). When no image is selected from the image selection screen by the user (step S302: No), the imaging apparatus 1 returns to step S301. On the other hand, when the image is selected from the image selection screen by the user (step S302: Yes), when the imaging device 1 is connected to the display device 200 (step S303: Yes), the control unit 9 selects The transmission image corresponding to the image thus transmitted is transmitted to the display device 200 via the communication unit 10 (step S304). Thereafter, the control unit 9 causes the display unit 6 to display the combined image corresponding to the selected image as a display image on the full screen (step S305).

続いて、制御部9は、タッチパネル7の外部からの接触位置に応じた信号が入力されたか否かを判断する(ステップS306)。タッチパネル7の外部からの接触位置に応じた信号が入力された場合(ステップS306:Yes)、撮像装置1は、視差調整処理(図12を参照)を行う(ステップS307)。撮像装置1が表示装置200と接続されている場合(ステップS308:Yes)、制御部9は、視差調整後の送信用画像を、通信部10を介して表示装置200へ送信する(ステップS309)。ステップS308で撮像装置1が表示装置200と接続されていない場合(ステップS308:No)、撮像装置1は後述するステップS310へ移行する。   Subsequently, the control unit 9 determines whether or not a signal corresponding to the contact position from the outside of the touch panel 7 has been input (step S306). When the signal according to the contact position from the outside of the touch panel 7 is input (step S306: Yes), the imaging device 1 performs a parallax adjustment process (see FIG. 12) (step S307). When the imaging device 1 is connected to the display device 200 (step S308: Yes), the control unit 9 transmits the transmission image after parallax adjustment to the display device 200 via the communication unit 10 (step S309). . When the imaging device 1 is not connected to the display device 200 in step S308 (step S308: No), the imaging device 1 proceeds to step S310 described later.

ステップS309の後、画像再生の終了指示が操作入力部4によって入力された場合(ステップS310:Yes)、撮像装置1は図11に示すメインルーチンに戻る。一方、ステップS309の後、画像再生の終了指示が操作入力部4によって入力されない場合( ステップS310:No)、撮像装置1はステップS301へ戻る。   After step S309, when an instruction to end image reproduction is input by the operation input unit 4 (step S310: Yes), the imaging apparatus 1 returns to the main routine illustrated in FIG. On the other hand, after step S309, when an instruction to end image reproduction is not input by the operation input unit 4 (step S310: No), the imaging apparatus 1 returns to step S301.

ステップS306において、タッチパネル7の外部からの物体の接触位置に応じた信号の入力がない場合(ステップS306:No)、所定時間が経過していれば(ステップS311:Yes)、撮像装置1はステップS310へ進む。これに対し、ステップS311において所定時間が経過していなければ(ステップS311:No)、撮像装置1はステップS306へ戻る。   In step S306, when there is no input of a signal corresponding to the contact position of the object from the outside of the touch panel 7 (step S306: No), if the predetermined time has elapsed (step S311: Yes), the imaging device 1 performs the step. The process proceeds to S310. On the other hand, if the predetermined time has not elapsed in step S311 (step S311: No), the imaging apparatus 1 returns to step S306.

ステップS303において、撮像装置1が表示装置200と接続されていない場合(ステップS303:No)、制御部9は、表示用画像として選択された画像に対応する3D画像を表示部6に表示させる(ステップS312)。この後、表示部6が表示している2D表示アイコンが選択された場合(ステップS313:Yes)、制御部9は、表示用画像生成部93が生成した合成画像を表示部67に表示させる(ステップS314)。その後、撮像装置1は、ステップS306へ移行する。一方、表示部6が表示している2D表示アイコンが選択されない場合(ステップS313:No)、撮像装置1はステップS310へ移行する。   If the imaging device 1 is not connected to the display device 200 in step S303 (step S303: No), the control unit 9 causes the display unit 6 to display a 3D image corresponding to the image selected as the display image (step S303: No). Step S312). Thereafter, when the 2D display icon displayed on the display unit 6 is selected (step S313: Yes), the control unit 9 causes the display unit 67 to display the composite image generated by the display image generation unit 93 ( Step S314). Thereafter, the imaging apparatus 1 proceeds to step S306. On the other hand, when the 2D display icon displayed on the display unit 6 is not selected (step S313: No), the imaging device 1 proceeds to step S310.

以上説明した本発明の実施の形態1によれば、撮像装置側で表示する表示用画像と外部機器側で表示するために外部機器(表示装置)へ送信する送信用画像とを個別に生成するため、3D画像を表示可能な外部機器と通信可能に接続された状態で、ユーザが外部機器で3D画像を見る状況下においても、そのユーザに違和感を感じさせない画像を表示することができる。   According to the first embodiment of the present invention described above, the display image to be displayed on the imaging device side and the transmission image to be transmitted to the external device (display device) for display on the external device side are individually generated. Therefore, an image that does not make the user feel uncomfortable can be displayed even when the user views the 3D image on the external device while being connected to an external device capable of displaying the 3D image.

また、本実施の形態1によれば、撮像装置と表示装置が連携しているため、ユーザが表示装置で表示する3D画像の立体感を撮像装置に設けたタッチパネル等の操作部材を利用して容易に調整することができる。したがって、本実施の形態1によれば、撮像装置と表示装置とを通信によって連携させることにより、システム全体としての操作性を向上させることができる。   Further, according to the first embodiment, since the imaging device and the display device are linked, the operation member such as a touch panel provided on the imaging device has a stereoscopic effect of a 3D image displayed by the user on the display device. It can be adjusted easily. Therefore, according to the first embodiment, the operability of the entire system can be improved by linking the imaging device and the display device through communication.

なお、本実施の形態1では、撮像装置1と表示装置200とが通信可能に接続されている場合、表示装置200で3D表示を行う一方、撮像装置1の表示部6では2D表示を行っていたが、撮像装置1の表示部6において、表示装置200とは異なる立体感を有する3D表示を行うようにしてもよい。この場合、例えば被写体の表示画面からの仮想的な飛び出し量を、表示部6の方が表示画面201よりも大きくなるようにすることができる。   In the first embodiment, when the imaging device 1 and the display device 200 are communicably connected, the display device 200 performs 3D display, while the display unit 6 of the imaging device 1 performs 2D display. However, the display unit 6 of the imaging device 1 may perform 3D display having a stereoscopic effect different from that of the display device 200. In this case, for example, the virtual pop-out amount of the subject from the display screen can be made larger on the display unit 6 than on the display screen 201.

また、本実施の形態1において、視差調整部94が、タッチパネル7における外部からの2つの物体の軌跡に応じて、2つの画像データの切り出し領域を変更して合成画像に含まれる被写体の視差を調整するようにしてもよい。具体的には、視差調整部94が、図18に示すように、ユーザの人差し指F1および親指F2の軌跡に応じて、画像W9に含まれる被写体A1の視差を調整してもよい。この場合、制御部9は、人差し指F1と親指F2とがそれぞれ最初にタッチパネル7に接触した位置と動作があった後のタッチパネル7の位置とを比較することにより、開く動作(視差を大きくする動作に対応)または閉じる動作(視差を小さくする動作に対応)に対応するか否かを判断する。その後、視差調整部94は、開く動作に対応する場合、合成画像に含まれる被写体の視差を大きくする(図18(a)→図18(b))。これに対して、視差調整部94は、閉じる動作に対応する場合、合成画像に含まれる被写体の視差を小さくする。なお、操作可能範囲に制限を設けてもよい。 Further, in the first embodiment, the parallax adjustment unit 94 changes the cut-out area of the two image data according to the trajectory of the two objects from the outside on the touch panel 7 to change the parallax of the subject included in the composite image. You may make it adjust. Specifically, as shown in FIG. 18, the parallax adjustment unit 94 may adjust the parallax of the subject A1 included in the image W9 according to the trajectory of the user's index finger F 1 and thumb F 2 . In this case, the control unit 9 compares the position where the index finger F 1 and the thumb F 2 first contact the touch panel 7 with the position of the touch panel 7 after the operation, thereby opening the operation (increasing parallax). It is determined whether or not it corresponds to a closing operation (corresponding to an operation for reducing parallax). After that, the parallax adjustment unit 94 increases the parallax of the subject included in the composite image when it corresponds to the opening operation (FIG. 18A → FIG. 18B). On the other hand, the parallax adjustment unit 94 reduces the parallax of the subject included in the composite image when it corresponds to the closing operation. In addition, you may provide a restriction | limiting in the operable range.

また、本実施の形態1において、視差調整部94が、図19に示すように、ユーザの両手の親指F1L、F1Rの軌跡を用いて調整することができるようにしてもよい。この場合、制御部9は、左親指F1Lと右親指F1Rとがそれぞれ最初にタッチパネル7に接触した位置と動作があった後のタッチパネル7の位置とを比較することにより、開く動作または閉じる動作に対応するか否かを判断する。判断後の処理は、図18に示す場合と同様である。 Further, in the first embodiment, the parallax adjusting unit 94 may be configured to adjust using the trajectories of the thumbs F 1L and F 1R of both hands of the user as shown in FIG. In this case, the control unit 9 opens or closes by comparing the position where the left thumb F 1L and the right thumb F 1R first contact the touch panel 7 with the position of the touch panel 7 after the operation. It is determined whether the operation is supported. The processing after the determination is the same as that shown in FIG.

また、本実施の形態1において、レンズ駆動部21b,22bをそれぞれ同期させながら駆動し、第1撮像部21および第2撮像部22それぞれの視野領域を変更することにより、合成画像に含まれる被写体の視差を調整するようにしてもよい。   In the first embodiment, the lens driving units 21b and 22b are driven while being synchronized with each other, and the fields included in the composite image are changed by changing the visual field areas of the first imaging unit 21 and the second imaging unit 22, respectively. The parallax may be adjusted.

また、本実施の形態1において、例えば撮像部2による撮影直後に、表示部6がレックビュー表示する画像に対して視差調整処理を行うことができるようにしてもよい。   In the first embodiment, for example, immediately after shooting by the imaging unit 2, the display unit 6 may be able to perform parallax adjustment processing on an image that is displayed in rec view.

(実施の形態2)
図20は、本発明の実施の形態2に係る撮像装置の構成を示すブロック図である。同図に示す撮像装置11は、単眼の撮像部111と、撮像装置11の動きを検出する動き検出部112と、制御部113とを備える。撮像部111の構成は、上述した撮像装置1の第1撮像部21の構成と同様である。これら以外の撮像装置11の構成は、実施の形態1で説明した撮像装置1の構成と同じである。このため撮像装置1の構成要素と対応する構成要素には、撮像装置1と同じ符号を付してある。
(Embodiment 2)
FIG. 20 is a block diagram showing the configuration of the imaging apparatus according to Embodiment 2 of the present invention. The imaging device 11 shown in the figure includes a monocular imaging unit 111, a motion detection unit 112 that detects the motion of the imaging device 11, and a control unit 113. The configuration of the imaging unit 111 is the same as the configuration of the first imaging unit 21 of the imaging device 1 described above. The configuration of the imaging apparatus 11 other than these is the same as the configuration of the imaging apparatus 1 described in the first embodiment. For this reason, the same reference numerals as those of the imaging device 1 are given to the components corresponding to the components of the imaging device 1.

動き検出部112は、例えば速度センサを有し、撮像装置11が運動する時の速度を検出し、検出結果であるセンサ信号を制御部113へ出力する。   The motion detection unit 112 includes, for example, a speed sensor, detects a speed when the imaging device 11 moves, and outputs a sensor signal as a detection result to the control unit 113.

制御部113は、画像処理部91、送信用画像生成部92、表示用画像生成部93、視差調整部94、表示制御部95、通信状態検出部96に加え、動き検出部112から受信したセンサ信号を用いて撮像装置11の動きを判定する動き判定部114を有する。   The control unit 113 includes a sensor received from the motion detection unit 112 in addition to the image processing unit 91, the transmission image generation unit 92, the display image generation unit 93, the parallax adjustment unit 94, the display control unit 95, and the communication state detection unit 96. A motion determination unit 114 that determines the motion of the imaging device 11 using a signal is included.

図21は、撮像装置11を用いた撮影の概要を示す図である。図21に示すように、撮像装置11は、ユーザが水平方向に沿ってほぼ直線的に移動させる間、所定の間隔で連続的に画像を撮像する。本実施の形態2において、送信用画像生成部92および表示用画像生成部93は、撮像装置11が移動しながら連続的に撮影した複数の画像から、2枚の画像を適宜抽出することによって3D画像用の右目画像と左目画像にそれぞれ対応する画像データを生成する。   FIG. 21 is a diagram illustrating an outline of photographing using the imaging device 11. As illustrated in FIG. 21, the imaging device 11 continuously captures images at a predetermined interval while the user moves substantially linearly along the horizontal direction. In the second embodiment, the transmission image generation unit 92 and the display image generation unit 93 perform 3D by appropriately extracting two images from a plurality of images continuously captured while the imaging device 11 is moving. Image data corresponding to the right eye image and the left eye image for the image is generated.

図22は、図21に示す状況下で撮像部111が生成する2つの画像データにそれぞれ対応する2つの画像の一例を示す図であり、表示用画像生成部93が生成する表示用画像としての3D画像を構成する一対の画像の例を示す図である。画像WL11は、表示用画像生成部93が、撮像装置11が図21の左端に位置する場合に撮像部111によって生成された画像データに対応する画像から切り出して生成した画像である。また、画像WR11は、表示用画像生成部93が、撮像部111が図21の右端に位置する場合に撮像部111によって生成された画像データに対応する画像から切り出して生成した画像である。このため、画像WL11は左目画像に相当し、画像WR11は右目画像に相当している。なお、図22に示す破線および一点鎖線は、撮像部111がそれぞれ生成する画像データに対応する画像領域を示す。   FIG. 22 is a diagram illustrating an example of two images respectively corresponding to two image data generated by the imaging unit 111 under the situation illustrated in FIG. 21, and is a display image generated by the display image generation unit 93. It is a figure which shows the example of a pair of image which comprises 3D image. The image WL11 is an image generated by the display image generation unit 93 cut out from an image corresponding to the image data generated by the imaging unit 111 when the imaging device 11 is located at the left end of FIG. The image WR11 is an image generated by the display image generation unit 93 by cutting out from an image corresponding to the image data generated by the imaging unit 111 when the imaging unit 111 is located at the right end of FIG. For this reason, the image WL11 corresponds to a left-eye image, and the image WR11 corresponds to a right-eye image. Note that the broken line and the alternate long and short dash line shown in FIG. 22 indicate image areas corresponding to the image data generated by the imaging unit 111, respectively.

左目画像WL11における被写体A1の中心と被写体A2の中心との視差L1は、右目画像WR11における被写体A1の中心と被写体A2との視差L2より小さい(L1<L2)。したがって、2つの画像WL11およびWR11を用いることにより、3D画像を表示することが可能となる。 The parallax L 1 between the center of the subject A1 and the center of the subject A2 in the left-eye image WL11 is smaller than the parallax L 2 between the center of the subject A1 and the subject A2 in the right-eye image WR11 (L 1 <L 2 ). Therefore, a 3D image can be displayed by using the two images WL11 and WR11.

図23は、図21に示す状況下で撮像部111が生成する2つの画像データにそれぞれ対応する2つの画像の別な例を示す図であり、送信用画像生成部92が生成する送信用画像の例を示す図である。画像WL11は、送信用画像生成部92が、撮像装置11が図21の左端に位置する場合に撮像部111によって生成された画像データに対応する画像から切り出して生成した画像である。また、画像WR12は、表示用画像生成部93が、撮像部111が図21の中央部に位置する場合に撮像部111によって生成された画像データに対応する画像から切り出して生成した画像である。このため、画像WL11は左目画像に相当し、画像WR12は右目画像に相当している。なお、図23に示す破線および一点鎖線は、撮像部111がそれぞれ生成する画像データに対応する画像領域を示す。   FIG. 23 is a diagram illustrating another example of two images respectively corresponding to two image data generated by the imaging unit 111 under the situation illustrated in FIG. 21, and a transmission image generated by the transmission image generation unit 92. It is a figure which shows the example of. The image WL11 is an image generated by the transmission image generation unit 92 cut out from an image corresponding to the image data generated by the imaging unit 111 when the imaging device 11 is located at the left end in FIG. The image WR12 is an image generated by the display image generation unit 93 by cutting out from an image corresponding to the image data generated by the imaging unit 111 when the imaging unit 111 is located in the center of FIG. Therefore, the image WL11 corresponds to the left eye image, and the image WR12 corresponds to the right eye image. Note that a broken line and an alternate long and short dash line shown in FIG. 23 indicate image areas corresponding to image data generated by the imaging unit 111, respectively.

画像WL11における被写体A1の中心と被写体A2の中心との視差L1は、画像WR12における被写体A1の中心と被写体A2との視差L3より小さい(L1<L3)。したがって、2つの画像WL11およびWR1を用いることによって3D画像を表示することが可能となる。また、右目画像WR12における被写体A1の中心と被写体A2との視差L3は、右目画像WR12における被写体A1の中心と被写体A2との視差L2より小さい(L 3 <L 2 )。このため、画像WL11およびWR12を用い3D表示した場合の仮想的な飛び出し量は、画像WL11およびWR11を用いて3D表示した場合の仮想的な飛び出し量よりも小さい。このようにして、送信用画像における仮想的な飛び出し量を表示用画像における仮想的な飛び出し量よりも小さくすることにより、表示装置200のように大画面で3D表示する場合の飛び出し量を抑制して、ユーザが視聴しやすい状況を作り出すことができる。 Parallax L 1 between the centers of the object A2 of the object A1 in the image WL11 is parallax L 3 is smaller than the center and the object A2 of the object A1 in the image WR12 (L 1 <L 3). Therefore, a 3D image can be displayed by using the two images WL11 and WR12. Further, the parallax L 3 between the center of the subject A1 and the subject A2 in the right eye image WR12 is smaller than the parallax L 2 between the center of the subject A1 and the subject A2 in the right eye image WR12 (L 3 <L 2 ). Therefore, virtual pop-out amount in the case of 3D display using the image WL11 and WR12 are smaller than a virtual pop-out amount in the case of 3D display using the image WL11 and WR11. In this way, by making the virtual pop-out amount in the transmission image smaller than the virtual pop-out amount in the display image, the pop-out amount in the case of 3D display on a large screen like the display device 200 is suppressed. Thus, it is possible to create a situation that is easy for the user to view.

なお、連続的に撮像した複数の画像の中からどの2枚を抽出して3D画像を構成するかについては、ユーザが適宜設定できるようにしてもよい。   Note that the user may be able to appropriately set which two images are extracted from a plurality of continuously captured images to form a 3D image.

図24は、撮像装置11が行う処理の概要を示すフローチャートである。図24において、まず、制御部113は、撮像装置11の電源がオンになっているか否かを判断する(ステップS401)。撮像装置11の電源がオンになっている場合(ステップS401:Yes)、撮像装置11はステップS402に移行する。一方、撮像装置1の電源がオンになっていない場合(ステップS401:No)、撮像装置11は本処理を終了する。   FIG. 24 is a flowchart illustrating an outline of processing performed by the imaging apparatus 11. In FIG. 24, first, the control unit 113 determines whether or not the power of the imaging device 11 is turned on (step S401). When the power of the imaging device 11 is on (step S401: Yes), the imaging device 11 proceeds to step S402. On the other hand, when the power of the imaging device 1 is not turned on (step S401: No), the imaging device 11 ends this process.

続いて、制御部113は、撮像装置11が撮影モードに設定されているか否かを判断する(ステップS402)。撮像装置11が撮影モードに設定されている場合(ステップS402:Yes)、表示制御部95は、撮像部111が一定の微小な時間間隔で連続的に生成する画像データに対応するスルー画を表示部6に表示させる(ステップS403)。この場合のスルー画は、2D画像および3D画像のどちらでも構わない。   Subsequently, the control unit 113 determines whether or not the imaging device 11 is set to the shooting mode (step S402). When the imaging device 11 is set to the imaging mode (step S402: Yes), the display control unit 95 displays a through image corresponding to the image data that the imaging unit 111 continuously generates at a constant minute time interval. It is displayed on the part 6 (step S403). In this case, the through image may be either a 2D image or a 3D image.

続いて、制御部113は、ユーザによってレリーズスイッチ42が操作されて撮影を指示するレリーズ信号が入力されたか否かを判断する(ステップS404)。撮影を指示するレリーズ信号が入力された場合(ステップS404:Yes)において、動き判定部114が撮像装置11の動きを判定した結果、撮像装置11が動いていないと判定したとき(ステップS405:No)、撮像部111は撮影を行い、得られた画像データを記憶部8の画像データ記憶部81に記憶する(ステップS405)。この画像データは、スルー画に対応しており、2D画像または3D画像である。   Subsequently, the control unit 113 determines whether or not a release signal instructing photographing is input by operating the release switch 42 by the user (step S404). When a release signal instructing photographing is input (step S404: Yes), when the motion determination unit 114 determines that the imaging device 11 is not moving as a result of determining the motion of the imaging device 11 (step S405: No). ), The imaging unit 111 performs imaging, and stores the obtained image data in the image data storage unit 81 of the storage unit 8 (step S405). This image data corresponds to a through image and is a 2D image or a 3D image.

その後、表示制御部95は、撮像部111が撮影した画像データに対応する画像を表示部6にレックビュー表示させる(ステップS407)。   After that, the display control unit 95 displays the image corresponding to the image data captured by the imaging unit 111 on the display unit 6 in a rec view display (step S407).

ステップS404においてレリーズ信号が所定時間内に入力されない場合(ステップS405:No)、撮像装置11はステップS401に戻る。   If the release signal is not input within the predetermined time in step S404 (step S405: No), the imaging device 11 returns to step S401.

次に、ステップS405で動き検出部112が撮像装置11の動きを検出した場合、すなわち撮像装置11が移動している場合(ステップS405:Yes)を説明する。この場合、撮像部111は所定の間隔で連続撮影を行い、得られた画像データを記憶部8の画像データ記憶部81に記憶する(ステップS408)。撮像部111は、撮像装置11が静止しなければ(ステップS409:No)、継続して連続撮影処理(ステップS408)を実行する。   Next, the case where the motion detection unit 112 detects the motion of the imaging device 11 in step S405, that is, the case where the imaging device 11 is moving (step S405: Yes) will be described. In this case, the imaging unit 111 performs continuous shooting at a predetermined interval, and stores the obtained image data in the image data storage unit 81 of the storage unit 8 (step S408). If the imaging device 11 is not stationary (step S409: No), the imaging unit 111 continues to perform continuous imaging processing (step S408).

以下、撮像装置11が静止した場合(ステップS409:Yes)を説明する。この場合、通信状態検出部96が表示装置200との接続を検出したとき(ステップS410:Yes)、制御部113は、通信部10を介して、送信用画像を表示装置200へ送信する(ステップS411)。ここで送信する送信用画像は、図23を参照して説明したように、表示用画像生成部93が生成する一組の画像よりも被写体間の視差が小さい画像である。   Hereinafter, the case where the imaging device 11 is stationary (step S409: Yes) will be described. In this case, when the communication state detection unit 96 detects connection with the display device 200 (step S410: Yes), the control unit 113 transmits an image for transmission to the display device 200 via the communication unit 10 (step S410). S411). As described with reference to FIG. 23, the transmission image transmitted here is an image with a smaller parallax between the subjects than the set of images generated by the display image generation unit 93.

その後、制御部113は、表示用画像生成部93が生成した合成画像を表示用画像として表示部6に表示させる(ステップS412)。本実施の形態2においても、ステップS411とステップS412の処理は並行して実行するようにしてもよい。   Thereafter, the control unit 113 causes the display unit 6 to display the composite image generated by the display image generation unit 93 as a display image (step S412). Also in the second embodiment, the processes of step S411 and step S412 may be executed in parallel.

続いて、制御部113は、タッチパネル7の外部からの接触位置に応じた信号が入力されたか否かを判断する(ステップS413)。外部からの接触位置に応じた信号が入力された場合(ステップS413:Yes)、撮像装置1は、合成画像に含まれる被写体の飛び出し距離または引っ込み距離を調整する視差調整処理を行う(ステップS414)。視差調整処理が完了した時点で、撮像装置1が表示装置200と通信可能に接続されていることを通信状態検出部96が検出した場合(ステップS415:Yes)、制御部113は、視差調整を行った後の送信用画像を、通信部10を介して表示装置200へ送信する制御を行う(ステップS416)。この後、撮像装置1は、ステップS401に戻る。   Subsequently, the control unit 113 determines whether or not a signal corresponding to the contact position from the outside of the touch panel 7 has been input (step S413). When a signal corresponding to the contact position from the outside is input (step S413: Yes), the imaging apparatus 1 performs a parallax adjustment process for adjusting the jump distance or the retract distance of the subject included in the composite image (step S414). . When the communication state detection unit 96 detects that the imaging device 1 is communicably connected to the display device 200 when the parallax adjustment processing is completed (step S415: Yes), the control unit 113 performs the parallax adjustment. Control is performed to transmit the transmitted image to the display device 200 via the communication unit 10 (step S416). Thereafter, the imaging apparatus 1 returns to step S401.

ステップS413において、外部からの接触位置に応じた信号が入力されない場合(ステップS413:No)、所定時間経過していれば(ステップS417:Yes)、撮像装置11はステップS401へ戻る。これに対して、ステップS417において所定時間経過していなければ(ステップS417:No)、撮像装置11はステップS413に戻る。   In step S413, when the signal according to the contact position from the outside is not input (step S413: No), if the predetermined time has passed (step S417: Yes), the imaging device 11 returns to step S401. On the other hand, if the predetermined time has not elapsed in step S417 (step S417: No), the imaging device 11 returns to step S413.

ステップS410において、表示装置200との接続が検出されない場合(ステップS410:No)、制御部113は、表示用画像として3D画像を表示部6に表示させる(ステップS418)。その後、ユーザによってタッチパネル7がタッチされた場合(ステップS419:Yes)、撮像装置11はステップS412へ移行する。一方、ユーザによってタッチパネル7が所定時間タッチされない場合(ステップS419:No)、撮像装置11はステップS401へ戻る。   In step S410, when the connection with the display device 200 is not detected (step S410: No), the control unit 113 displays a 3D image on the display unit 6 as a display image (step S418). Thereafter, when the touch panel 7 is touched by the user (step S419: Yes), the imaging device 11 proceeds to step S412. On the other hand, when the touch panel 7 is not touched for a predetermined time by the user (step S419: No), the imaging device 11 returns to step S401.

ステップS402において、撮像装置11が撮影モードに設定されていない場合(ステップS402:No)、撮像装置11は、撮影した画像データを表示部6に表示する再生表示処理を実行し(ステップS420)、ステップS401に戻る。ステップS420の再生表示処理は、実施の形態1で説明した再生表示処理と同様である(図17を参照)。   In step S402, when the imaging device 11 is not set to the shooting mode (step S402: No), the imaging device 11 executes reproduction display processing for displaying the captured image data on the display unit 6 (step S420). The process returns to step S401. The reproduction display process in step S420 is the same as the reproduction display process described in the first embodiment (see FIG. 17).

図25および図26は、撮像装置11を用いて3D画像を生成する際の好ましい移動距離を説明するための図である。このうち、図25は、ユーザが表示装置200の表示画面201を見るときの状況を示す図である。図25において、ユーザが表示画面201をみるときの距離をLtとし、右目ERと左目ELとの間隔をWtとしている。このとき、被写体(図25では顔を想定)を表示画面201から仮想的に飛び出させることによって立体感を与えるための視差は、両目の間隔Wt程度でよい。 FIGS. 25 and 26 are diagrams for explaining a preferable moving distance when a 3D image is generated using the imaging device 11. Among these, FIG. 25 is a diagram illustrating a situation when the user views the display screen 201 of the display device 200. In FIG. 25, the distance when the user views the display screen 201 is Lt, and the distance between the right eye E R and the left eye E L is Wt. At this time, the parallax for giving a stereoscopic effect by virtually projecting the subject (assuming a face in FIG. 25) from the display screen 201 may be about the interval Wt between both eyes.

これに対し、図26は、ユーザが表示部6を見るときの状況を示す図である。図26において、ユーザが表示部6を見るときの距離をLcとしている。ユーザが人物等を撮影する場合の撮像装置11から被写体までの距離は、ユーザが表示画面201を見るときの距離Ltと同じ程度と仮定することができる。このような仮定のもとで、表示部6で被写体を仮想的に飛び出させて立体感を出すためには、撮像装置11を図26のWc〜(Lt/Lc)×Wt程度動かす必要がある。具体的には、例えばLt=2(m)、Wt=50(cm)とすると、Wc〜4×Wtとなる。ここで、記号「〜」は、ほぼ等しいことを意味している。   On the other hand, FIG. 26 is a diagram illustrating a situation when the user views the display unit 6. In FIG. 26, the distance when the user views the display unit 6 is Lc. The distance from the imaging device 11 to the subject when the user captures a person or the like can be assumed to be approximately the same as the distance Lt when the user views the display screen 201. Under this assumption, in order to produce a stereoscopic effect by virtually projecting the subject on the display unit 6, it is necessary to move the imaging device 11 by about Wc to (Lt / Lc) × Wt in FIG. . Specifically, for example, when Lt = 2 (m) and Wt = 50 (cm), Wc˜4 × Wt. Here, the symbol “˜” means substantially equal.

以上説明した本発明の実施の形態2によれば、撮像装置側で表示する表示用画像と外部機器側で表示するために外部機器(表示装置)へ送信する送信用画像とを個別に生成するため、3D画像を表示可能な外部機器と通信可能に接続された状態で、ユーザが外部機器で3D画像を見る状況下においても、そのユーザに違和感を感じさせない画像を表示することができる。   According to the second embodiment of the present invention described above, the display image displayed on the imaging device side and the transmission image transmitted to the external device (display device) for display on the external device side are individually generated. Therefore, an image that does not make the user feel uncomfortable can be displayed even when the user views the 3D image on the external device while being connected to an external device capable of displaying the 3D image.

また、本実施の形態2によれば、実施の形態1と同様、システム全体としての操作性を向上させることができる。   Further, according to the second embodiment, the operability of the entire system can be improved as in the first embodiment.

ここまで、本発明を実施するための形態として2つの実施の形態を説明してきたが、本発明は上述した実施の形態1、2によって限定されるべきものではない。例えば、上述した実施の形態において、メガネ300をかけた状態ではユーザの視界が暗くなるため、表示部6で撮影時のフレーミング確認を行ったり操作時の表示確認を行ったりする際にユーザが表示部6の表示画面を見にくくなってしまう恐れがある。そこで、メガネ300で暗くなった分を補うため、表示部6における表示の明るさを明るくしたり、特定の色を強調したり、コントラストを高めたりするような工夫を施せばより好ましい。   Up to this point, two embodiments have been described as modes for carrying out the present invention. However, the present invention should not be limited to the above-described first and second embodiments. For example, in the above-described embodiment, since the user's field of vision is dark when glasses 300 are put on, the display is performed when the display unit 6 performs framing confirmation during shooting or display confirmation during operation. There is a risk that the display screen of the unit 6 may become difficult to see. Therefore, in order to compensate for the darkness of the glasses 300, it is preferable to devise measures such as increasing the brightness of display on the display unit 6, enhancing a specific color, and increasing the contrast.

また、本発明において、タッチパネルの構成は上述したものに限られるわけではない。図27は、タッチパネルの別な構成例を示す模式図である。図27に示すように、タッチパネル70は、フロントパネル71と、駆動部72と、駆動電極73と、受信電極74と、検出部75とを有する。   In the present invention, the configuration of the touch panel is not limited to that described above. FIG. 27 is a schematic diagram illustrating another configuration example of the touch panel. As illustrated in FIG. 27, the touch panel 70 includes a front panel 71, a drive unit 72, a drive electrode 73, a reception electrode 74, and a detection unit 75.

フロントパネル71は、所定の厚みを有し、平面的に見て矩形状に形成されたガラスまたはPET(Polyethylene Terephthalate)で構成される。駆動部72は、駆動電極73に駆動パルス(例えば印加電圧5V)を出力し、駆動電極73と受信電極74との間で静電容量を形成させる。駆動電極73および受信電極74は、ITO(Indium Tin Oxide)電極によって構成され、フロントパネル71の下面に対して所定のピッチ(例えば5mm程度)で交互に設けられる。検出部75は、静電容量センサによって構成され、ユーザの手Hが電界400に接近することにより、駆動電極73と受信電極74との間で形成された静電容量の微細な変化量、例えばユーザの手Hがフロントパネル71に接触したときの変化量として1pF程度の値を検出する。この検出部75のより詳細な構成は、例えば米国特許7148704号明細書に開示されている。   The front panel 71 is made of glass or PET (Polyethylene Terephthalate) which has a predetermined thickness and is formed in a rectangular shape when seen in a plan view. The driving unit 72 outputs a driving pulse (for example, an applied voltage of 5 V) to the driving electrode 73 to form a capacitance between the driving electrode 73 and the receiving electrode 74. The drive electrode 73 and the reception electrode 74 are composed of ITO (Indium Tin Oxide) electrodes, and are alternately provided at a predetermined pitch (for example, about 5 mm) with respect to the lower surface of the front panel 71. The detection unit 75 is configured by a capacitance sensor, and a minute amount of change in capacitance formed between the drive electrode 73 and the reception electrode 74 when the user's hand H approaches the electric field 400, for example, A value of about 1 pF is detected as the amount of change when the user's hand H contacts the front panel 71. A more detailed configuration of the detection unit 75 is disclosed in, for example, US Pat. No. 7,148,704.

以上の構成を有するタッチパネル70において、検出部75は、ユーザの手Hがフロントパネル71に触れる前から駆動電極73と受信電極74との間で形成された静電容量の微細な変化を検出することができる。具体的には、検出部75は、図27に示すように、距離h1(例えば0.5cm)の位置と距離h2(例えば1cm)の位置とにユーザの手Hがある場合のように、微小な距離しか離れていない2箇所を移動する場合の駆動電極73と受信電極74との間で形成された静電容量の変化を検出することができる。その結果、タッチパネル70は、外部からの直接的な接触がなくても操作信号の入力を受け付けることができる。   In the touch panel 70 having the above configuration, the detection unit 75 detects a minute change in capacitance formed between the drive electrode 73 and the reception electrode 74 before the user's hand H touches the front panel 71. be able to. Specifically, as shown in FIG. 27, the detection unit 75 is very small as in the case where the user's hand H is located at a distance h1 (for example, 0.5 cm) and a distance h2 (for example, 1 cm). It is possible to detect a change in the capacitance formed between the drive electrode 73 and the reception electrode 74 when moving between two places that are separated by a short distance. As a result, the touch panel 70 can accept an input of an operation signal even when there is no direct external contact.

本発明に係る撮像装置は、デジタルステレオカメラ以外にも、例えばデジタルビデオカメラ、カメラ付き携帯電話等の撮影機能および表示機能を備えた各種電子機器に適用することができる。   The imaging apparatus according to the present invention can be applied to various electronic devices having a shooting function and a display function such as a digital video camera and a camera-equipped mobile phone, in addition to a digital stereo camera.

また、本発明において、外部機器としての表示装置は3Dテレビに限られるわけではなく、3D画像を表示可能な表示部を有していれば、いかなる電子機器であってもかまわない。   In the present invention, the display device as an external device is not limited to a 3D television, and any electronic device may be used as long as it has a display unit capable of displaying a 3D image.

1、11 撮像装置
2、111 撮像部
3 姿勢検出部
4 操作入力部
5 時計
6 表示部
7、70 タッチパネル
8 記憶部
9、113 制御部
10 通信部
21 第1撮像部
21a、22a レンズ部
21b、22b レンズ駆動部
21c、22c 絞り
21d、22d 絞り駆動部
21e、22e シャッタ
21f、22f シャッタ駆動部
21g、22g 撮像素子
21h、22h 信号処理部
22 第2撮像部
41 電源スイッチ
42 レリーズスイッチ
43 切換スイッチ
44 ズームスイッチ
61 バックライト
62 表示パネル
63 視差バリア
71 フロントパネル
72 駆動部
73 駆動電極
74 受信電極
75 検出部
81 画像データ記憶部
82 プログラム記憶部
83 視差記憶部
91 画像処理部
92 送信用画像生成部
93 表示用画像生成部
94 視差調整部
95 表示制御部
96 通信状態検出部
100 画像通信システム
112 動き検出部
114 動き判定部
200 表示装置
201 表示画面
DESCRIPTION OF SYMBOLS 1, 11 Imaging device 2, 111 Imaging part 3 Posture detection part 4 Operation input part 5 Clock 6 Display part 7, 70 Touch panel 8 Storage part 9, 113 Control part 10 Communication part 21 1st imaging part 21a, 22a Lens part 21b, 22b Lens drive unit 21c, 22c Aperture 21d, 22d Aperture drive unit 21e, 22e Shutter 21f, 22f Shutter drive unit 21g, 22g Imaging element 21h, 22h Signal processing unit 22 Second imaging unit 41 Power switch 42 Release switch 43 Changeover switch 44 Zoom switch 61 Backlight 62 Display panel 63 Parallax barrier 71 Front panel 72 Drive unit 73 Drive electrode 74 Reception electrode 75 Detection unit 81 Image data storage unit 82 Program storage unit 83 Parallax storage unit 91 Image processing unit 92 Transmission image generation unit 93 Display image Generating section 94 parallax adjustment unit 95 display control unit 96 a communication state detection unit 100 an image communication system 112 motion detection unit 114 motion determination section 200 display 201 display screen

Claims (5)

被写体を撮像して画像データを生成する撮像部を有し、3次元画像を表示可能な外部機器と所定の通信規格にしたがって通信可能な撮像装置であって、
2つの画像に基づく3次元画像を表示可能な表示部と、
前記2つの画像用いることによって前記表示部が表示する表示用3次元画像を生成する表示用画像生成部と、
前記表示部の表示画面上に設けられ、外部から接触する物体の位置に応じた信号の入力を受け付けるタッチパネルと、
前記表示用3次元画像を表示中に前記タッチパネルに接触した物体の軌跡に応じて前記2つの画像の視差を調整する視差調整部と、
前記視差調整部が視差を調整した前記2つの画像を用いることによって前記外部機器で表示させるために送信する送信用画像として前記表示用3次元画像より前記2つの画像の視差が小さい3次元画像である送信用3次元画像を生成する送信用画像生成部と、
前記送信用画像生成部が生成した送信用画像を前記外部機器へ送信する通信部と、
を備えたことを特徴とする撮像装置。
An imaging apparatus having an imaging unit that images a subject and generates image data, and capable of communicating with an external device capable of displaying a three-dimensional image according to a predetermined communication standard,
A display unit capable of displaying a three-dimensional image based on the two images;
A display image generating unit for generating a three dimensional image for display said display unit to display by using the two images,
A touch panel that is provided on the display screen of the display unit and receives an input of a signal according to the position of an object that comes into contact with the outside;
A parallax adjustment unit that adjusts the parallax between the two images according to a trajectory of an object that has touched the touch panel while displaying the three-dimensional image for display;
A transmission image to be transmitted for display on the external device by using the two images whose parallax adjustment unit has adjusted the parallax is a three-dimensional image in which the parallax between the two images is smaller than that of the display three-dimensional image. A transmission image generation unit for generating a certain transmission three-dimensional image ;
A communication unit that transmits the transmission image generated by the transmission image generation unit to the external device;
An imaging apparatus comprising:
前記表示用画像生成部は、
前記通信部が前記送信用画像を送信するか否かに応じて異なる表示用画像を生成することを特徴とする請求項1記載の撮像装置。
The display image generation unit
The imaging apparatus according to claim 1 , wherein a different display image is generated according to whether the communication unit transmits the transmission image.
前記表示用画像生成部は、
前記通信部が前記送信用画像を送信する場合、前記表示用画像として、前記2つの画像を重ねた合成画像を生成することを特徴とする請求項1に記載の撮像装置。
The display image generation unit
The imaging apparatus according to claim 1, wherein when the communication unit transmits the transmission image, a composite image in which the two images are superimposed is generated as the display image.
請求項1〜のいずれか一項に記載の撮像装置と、
前記撮像装置と前記通信規格にしたがって通信可能に接続され、前記撮像装置から受信した前記送信用画像に基づいて3次元画像を表示する表示装置と、
を備えたことを特徴とする画像通信システム。
The imaging device according to any one of claims 1 to 3 ,
A display device that is communicably connected to the imaging device according to the communication standard and displays a three-dimensional image based on the transmission image received from the imaging device;
An image communication system comprising:
被写体を撮像して生成した2つの画像に基づく3次元画像を表示可能であるとともに、該3次元画像を表示可能な外部機器と所定の通信規格にしたがって通信可能であり、前記3次元画像の表示画面上で外部から接触する物体の位置に応じた信号の入力を受け付けるタッチパネルを備えた撮像装置が実行する画像通信方法であって、
前記2つの画像用いることによって表示用3次元画像を生成する表示用画像生成ステップと、
前記表示用画像生成ステップで生成した表示用画像を表示する表示ステップと、
前記表示用3次元画像を表示中に前記タッチパネルに接触した物体の軌跡に応じて前記2つの画像の視差を調整する視差調整ステップと、
前記視差調整ステップで視差を調整した前記2つの画像を用いることによって前記外部機器で表示させるために送信する送信用画像として前記表示用3次元画像より前記2つの画像の視差が小さい3次元画像である送信用3次元画像を生成する送信用画像生成ステップと、
前記送信用画像生成ステップで生成した送信用画像を前記外部機器へ送信する通信ステップと、
を有することを特徴とする画像通信方法。
It is possible to display a three-dimensional image based on two images generated by picking up a subject, and to communicate with an external device capable of displaying the three-dimensional image according to a predetermined communication standard. An image communication method executed by an imaging apparatus including a touch panel that receives an input of a signal according to the position of an object that comes into contact with the outside on the screen,
A display image generation step of generating a 3-dimensional image display by using the two images,
A display step for displaying the display image generated in the display image generation step;
A parallax adjustment step of adjusting the parallax between the two images according to a trajectory of an object that has touched the touch panel while displaying the three-dimensional image for display;
As a transmission image to be transmitted for display on the external device by using the two images whose parallax is adjusted in the parallax adjustment step, a three-dimensional image in which the parallax between the two images is smaller than the three-dimensional image for display. A transmission image generating step for generating a certain transmission three-dimensional image ;
A communication step of transmitting the transmission image generated in the transmission image generation step to the external device;
An image communication method comprising:
JP2010196996A 2010-09-02 2010-09-02 Imaging apparatus, image communication system, and image communication method Expired - Fee Related JP5750779B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010196996A JP5750779B2 (en) 2010-09-02 2010-09-02 Imaging apparatus, image communication system, and image communication method
CN201110256196.7A CN102387392B (en) 2010-09-02 2011-08-31 Shooting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010196996A JP5750779B2 (en) 2010-09-02 2010-09-02 Imaging apparatus, image communication system, and image communication method

Publications (3)

Publication Number Publication Date
JP2012054836A JP2012054836A (en) 2012-03-15
JP2012054836A5 JP2012054836A5 (en) 2013-10-17
JP5750779B2 true JP5750779B2 (en) 2015-07-22

Family

ID=45826268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010196996A Expired - Fee Related JP5750779B2 (en) 2010-09-02 2010-09-02 Imaging apparatus, image communication system, and image communication method

Country Status (2)

Country Link
JP (1) JP5750779B2 (en)
CN (1) CN102387392B (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5603732B2 (en) * 2010-10-19 2014-10-08 オリンパスイメージング株式会社 Imaging device
WO2012081127A1 (en) * 2010-12-17 2012-06-21 富士通株式会社 Stereoscopic motion picture image generation device, stereoscopic motion picture image generation method, stereoscopic motion picture image generation program
JP5909147B2 (en) 2012-05-08 2016-04-26 キヤノン株式会社 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
CN103841311A (en) * 2012-11-20 2014-06-04 广州三星通信技术研究有限公司 Method for generating 3D image and portable terminals
JP2017126980A (en) * 2016-01-08 2017-07-20 オリンパス株式会社 Information processing apparatus, imaging apparatus, display device, information processing method, imaging apparatus control method, display device control method, information processing program, imaging apparatus control program, and display device control program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69733233T2 (en) * 1996-09-11 2006-01-19 Canon K.K. Image processing for three-dimensional rendering of image data on the display of an image capture device
JPH10105735A (en) * 1996-09-30 1998-04-24 Terumo Corp Input device and picture display system
CN1703915A (en) * 2002-09-27 2005-11-30 夏普株式会社 3-D image display unit, 3-D image recording device and 3-D image recording method
US8077964B2 (en) * 2007-03-19 2011-12-13 Sony Corporation Two dimensional/three dimensional digital information acquisition and display device
JP4748399B2 (en) * 2007-08-14 2011-08-17 富士フイルム株式会社 Image processing system, image processing apparatus, and image processing method
JP4932660B2 (en) * 2007-10-05 2012-05-16 富士フイルム株式会社 Image recording apparatus and image recording method
JP2010102137A (en) * 2008-10-24 2010-05-06 Fujifilm Corp Three-dimensional photographing device, method and program
JP5087519B2 (en) * 2008-10-31 2012-12-05 富士フイルム株式会社 Imaging device
CN201345711Y (en) * 2008-12-16 2009-11-11 胡超 Portable multi-functional stereo image device

Also Published As

Publication number Publication date
CN102387392B (en) 2014-03-19
JP2012054836A (en) 2012-03-15
CN102387392A (en) 2012-03-21

Similar Documents

Publication Publication Date Title
JP5704854B2 (en) Display device
US20120019528A1 (en) Display apparatus, display method, and computer-readable recording medium
JP5530322B2 (en) Display device and display method
EP3425906A1 (en) Electronic device, face recognition and tracking method and three-dimensional display method
WO2013091201A1 (en) Method and device for adjusting viewing area, and device for displaying three-dimensional video signal
JP5750779B2 (en) Imaging apparatus, image communication system, and image communication method
JP2012186612A (en) Imaging device
JPH10105735A (en) Input device and picture display system
JP5675197B2 (en) Display device
US20120307016A1 (en) 3d camera
JP5754044B2 (en) Imaging apparatus and image communication system
JP2012032964A (en) Display device
TWI505708B (en) Image capture device with multiple lenses and method for displaying stereo image thereof
US9325975B2 (en) Image display apparatus, parallax adjustment display method thereof, and image capturing apparatus
JP5603732B2 (en) Imaging device
JP2013219421A (en) Image processing device and image processing method
JP2011186062A (en) Three-dimensional image viewing device, three-dimensional image display device and program
CN114898440A (en) Driving method of liquid crystal grating, display device and display method thereof
JP2010267192A (en) Touch control device for three-dimensional imaging
JP5586377B2 (en) Display device
JP5646252B2 (en) Display device
EP2369848A1 (en) Apparatus and method for capturing three-dimensional image
JP5638985B2 (en) Imaging apparatus and imaging program
JP2023117615A (en) Electronic apparatus, method for controlling electronic apparatus, program, and storage medium
CN115250330A (en) Electronic device, control method thereof, and storage medium

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130902

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140924

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150414

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150430

R151 Written notification of patent or utility model registration

Ref document number: 5750779

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees