JP2013078038A - Imaging device, image processing method, and program - Google Patents

Imaging device, image processing method, and program Download PDF

Info

Publication number
JP2013078038A
JP2013078038A JP2011217576A JP2011217576A JP2013078038A JP 2013078038 A JP2013078038 A JP 2013078038A JP 2011217576 A JP2011217576 A JP 2011217576A JP 2011217576 A JP2011217576 A JP 2011217576A JP 2013078038 A JP2013078038 A JP 2013078038A
Authority
JP
Japan
Prior art keywords
image data
imaging
imaging device
display
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011217576A
Other languages
Japanese (ja)
Inventor
Kenichi Horiuchi
賢一 堀内
Shigehiro Torii
重宏 鳥居
Takeshi Okubo
武 大久保
Seigo Ito
誠悟 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2011217576A priority Critical patent/JP2013078038A/en
Publication of JP2013078038A publication Critical patent/JP2013078038A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Details Of Cameras Including Film Mechanisms (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain a sufficient three-dimensional image by taking two pieces of two-dimensional images using one imaging part.SOLUTION: The imaging device generates image data 801 for a left eye when a shutter button 181 is pressed down. The imaging device generates stereoscopic image data 830 using the image data 801 for the left eye and through image data 820. The imaging device displays a stereoscopic image on the basis of the created stereoscopic image data 830 on a display. The imaging device generates image data 802 for a right eye when the shutter button 181 is pressed down again while the stereoscopic image is displayed on the display. The imaging device generates the stereoscopic image data 803 using the image data 801 for the left eye and the image data 802 for the right eye when the image data 802 for the right eye is generated. The imaging device stores the generated stereoscopic image data 803 in a flash memory 17.

Description

本発明は、撮像装置、画像処理方法、およびプログラムに関する。特に、本発明は、立体画像データを生成する撮像装置、当該撮像装置における画像処理方法、および当該撮像装置を制御するためのプログラムに関する。   The present invention relates to an imaging apparatus, an image processing method, and a program. In particular, the present invention relates to an imaging device that generates stereoscopic image data, an image processing method in the imaging device, and a program for controlling the imaging device.

従来、撮像により得られた左目用画像データと右目用画像データとに基づいて、立体画像を表示するための立体画像データを生成する撮像装置が知られている。特許文献1には、上記の撮像装置として、単眼識のデジタルカメラが開示されている。当該デジタルカメラは、立体撮影モードに設定されると、レリーズボタンを半押しされている間、一定時間間隔で連続して本撮影を行なう。ユーザは、立体撮影モードにおいて、レリーズボタンを半押しした状態でカメラをパンニングしながら被写体の撮影を行なう。デジタルカメラは、連写した画像から安定パンニング中に撮影され、かつ両眼視差に最も近い位置で撮影された2枚組みの画像の中から、最も滑らかにパンニングがされている2枚組みの画像を、最も立体視画像に適した2枚組みの画像として抽出する。さらに、デジタルカメラは、パンニング方向を検出し、最も立体視画像に適した2枚組みの画像のそれぞれを左目側画像と右目側画像に振り分けて記録する。   2. Description of the Related Art Conventionally, there has been known an imaging apparatus that generates stereoscopic image data for displaying a stereoscopic image based on left-eye image data and right-eye image data obtained by imaging. Patent Document 1 discloses a monocular digital camera as the imaging apparatus. When the digital camera is set to the stereoscopic shooting mode, the digital camera continuously performs regular shooting at regular time intervals while the release button is pressed halfway. In the stereoscopic shooting mode, the user takes a picture of the subject while panning the camera with the release button half pressed. A digital camera takes two sets of images that have been panned most smoothly from two sets of images taken during continuous panning from images that have been shot continuously and taken at the position closest to the binocular parallax. Are extracted as a set of two images most suitable for a stereoscopic image. Furthermore, the digital camera detects the panning direction and sorts and records each of the two sets of images most suitable for the stereoscopic image into a left-eye image and a right-eye image.

特許文献2には、単眼識のデジタルビデオカメラが開示されている。当該デジタルビデオカメラは、1回目のシャッタボタン押下によって1枚目の静止画像を撮影した後、2枚目の静止画像の撮影を指示する2回目のシャッタボタン押下を待機している期間中、最新のプレビュー画像と1枚目の静止画像に基づく画像をブレンディング合成することで得た画像を、表示用画像として生成及び表示する。静止画像に基づく画像は、例えば、1枚目の静止画像から抽出した顔領域内の画像である。ユーザは、静止画像に基づく画像およびプレビュー画像内における同一の被写体が表示画面上で重なるようにカメラ操作を行ない、2回目のシャッタボタン押下を行なうことで、撮影範囲が互いに一致した第1および第2の静止画像を得る。   Patent Document 2 discloses a monocular digital video camera. The digital video camera captures the first still image by first pressing the shutter button, and then waits for the second shutter button to be pressed to instruct the second still image to be shot. An image obtained by blending the image based on the preview image and the first still image is generated and displayed as a display image. The image based on the still image is, for example, an image in the face area extracted from the first still image. The user operates the camera so that the same subject in the image based on the still image and the preview image overlaps on the display screen, and presses the shutter button for the second time, so that the first and first shooting ranges that coincide with each other. 2 still images are obtained.

特許文献3には、背景画像と前景画像とを合成する単眼識の撮像装置が開示されている。撮像装置は、背景画像における被写体画像を合成すべき合成領域を特定する。また、撮像装置は、当該特定された被写体画像を合成すべき合成領域に基づいて、当該被写体画像及び背景画像の少なくとも一方に所定の画像処理を施す。さらに、撮像装置は、所定の画像処理が施された被写体画像と背景画像とを合成して被写体合成画像を生成する。   Patent Document 3 discloses a monocular imaging device that synthesizes a background image and a foreground image. The imaging device specifies a synthesis area in which the subject image in the background image is to be synthesized. In addition, the imaging device performs predetermined image processing on at least one of the subject image and the background image based on the synthesis region in which the identified subject image is to be synthesized. Furthermore, the imaging apparatus generates a subject composite image by combining the subject image on which the predetermined image processing has been performed and the background image.

特許文献4には、2眼式のデジタル立体カメラが開示されている。当該デジタル立体カメラは、被写体を撮影する複数の撮影手段と、複数の撮影手段により複数の視点から同一被写体を撮影した複数の画像からなる3次元画像を表示することが可能な表示手段と、表示手段に表示された画像に対して重畳して表示されるOSD情報の表示を制御するOSD制御手段とを備える。OSD制御手段は、表示手段に表示されたOSD情報の表示を、撮影手段のシャッタ操作に関連して消去する。   Patent Document 4 discloses a twin-lens digital stereoscopic camera. The digital stereoscopic camera includes a plurality of photographing means for photographing a subject, a display means capable of displaying a three-dimensional image composed of a plurality of images obtained by photographing the same subject from a plurality of viewpoints by a plurality of photographing means, and a display OSD control means for controlling the display of OSD information displayed superimposed on the image displayed on the means. The OSD control means erases the display of the OSD information displayed on the display means in relation to the shutter operation of the photographing means.

また、従来、視差バリア方式を用いたディスプレイが知られている。撮像装置が視差バリア方式を用いたディスプレイを備えることにより、ユーザは裸眼で立体画像を視認することができる。   Conventionally, a display using a parallax barrier method is known. When the imaging apparatus includes a display using a parallax barrier method, the user can visually recognize a stereoscopic image with the naked eye.

特開2009−103980号公報JP 2009-103980 A 特開2010−263269号公報JP 2010-263269 A 特開2011−77850号公報JP 2011-77850 A 特開2011−24123号公報JP 2011-24123 A

しかしながら、特許文献1のデジタルカメラでは、3枚以上の2次元画像を撮像により得る必要がある。また、特許文献2のデジタルビデオカメラおよび特許文献3の撮像装置では、3次元画像を生成および表示することはできない。さらに、特許文献4のデジタル立体カメラでは、立体画像を得るためには2つの撮像部による撮像が必要となる。   However, in the digital camera of Patent Document 1, it is necessary to obtain three or more two-dimensional images by imaging. Further, the digital video camera disclosed in Patent Document 2 and the imaging device disclosed in Patent Document 3 cannot generate and display a three-dimensional image. Furthermore, in the digital stereoscopic camera of Patent Document 4, imaging by two imaging units is necessary to obtain a stereoscopic image.

本願発明は、上記の問題点に鑑みなされたものであって、その目的は、1つの撮像部(カメラ11)を用いた2枚の2次元画像の撮像によって好適な3次元画像を得ることが可能な撮像装置、当該撮像装置における画像処理方法、および当該撮像装置を制御するためのプログラムに関する。   The present invention has been made in view of the above problems, and its purpose is to obtain a suitable three-dimensional image by imaging two two-dimensional images using one imaging unit (camera 11). The present invention relates to a possible imaging device, an image processing method in the imaging device, and a program for controlling the imaging device.

本発明の或る局面に従うと、撮像装置は、視差バリア方式で立体画像を表示するための立体画像データを生成する。撮像装置は、プロセッサと、メモリと、被写体を撮像するための撮像素子と、ディスプレイとを備える。プロセッサは、シャッタボタンの押下またはディスプレイに表示されたオブジェクトの選択に基づく外部入力を受け付けたことに基づき、撮像素子を用いて左目用画像データおよび右目用画像データのうちの一方の画像データを生成する。プロセッサは、一方の画像データが生成されたことに基づき、当該一方の画像データと撮像素子による撮像により得られたスルー画像データとを用いて立体画像データを生成する。プロセッサは、生成された立体画像データに基づく立体画像をディスプレイに表示させる。プロセッサは、立体画像がディスプレイに表示された状態で外部入力を再度受け付けると、撮像素子を用いて左目用画像データおよび右目用画像データのうちの他方の画像データを生成する。プロセッサは、他方の画像データが生成されたことに基づき、一方の画像データと当該他方の画像データとを用いて立体画像データを生成する。プロセッサは、一方の画像データと他方の画像データとを用いて生成された立体画像データをメモリに格納する。   According to an aspect of the present invention, the imaging device generates stereoscopic image data for displaying a stereoscopic image by a parallax barrier method. The imaging device includes a processor, a memory, an imaging device for imaging a subject, and a display. The processor generates image data of one of the left-eye image data and the right-eye image data by using the image sensor based on accepting an external input based on pressing of the shutter button or selection of an object displayed on the display. To do. Based on the generation of one image data, the processor generates stereoscopic image data using the one image data and through image data obtained by imaging with the imaging element. The processor causes a display to display a stereoscopic image based on the generated stereoscopic image data. When the processor receives the external input again in a state where the stereoscopic image is displayed on the display, the processor generates the other image data of the left-eye image data and the right-eye image data using the imaging element. Based on the generation of the other image data, the processor generates stereoscopic image data using the one image data and the other image data. The processor stores stereoscopic image data generated using one image data and the other image data in a memory.

好ましくは、撮像装置は、スルー画像データを生成するための電子シャッタと、左目用画像データおよび右目用画像データを生成するためのメカニカルシャッタとをさらに備える。プロセッサは、外部入力を受け付けたことに基づき、メカニカルシャッタを用いて、左目用画像データおよび右目用画像データのうちの一方の画像データを生成する。プロセッサは、一方の画像データが生成されたことに基づき、当該一方の画像データと電子シャッタを用いた撮像により得られたスルー画像データとを用いて立体画像データを生成する。プロセッサは、立体画像がディスプレイに表示された状態で外部入力を再度受け付けると、メカニカルシャッタを用いて、左目用画像データおよび右目用画像データのうちの他方の画像データを生成する。   Preferably, the imaging apparatus further includes an electronic shutter for generating through image data and a mechanical shutter for generating left-eye image data and right-eye image data. The processor generates image data of one of the left-eye image data and the right-eye image data using the mechanical shutter based on the reception of the external input. Based on the generation of one image data, the processor generates stereoscopic image data using the one image data and through image data obtained by imaging using the electronic shutter. When the processor receives the external input again in a state where the stereoscopic image is displayed on the display, the processor generates the other image data of the left-eye image data and the right-eye image data using the mechanical shutter.

好ましくは、撮像装置は、撮像装置の姿勢の変化を検知するセンサをさらに備える。メモリは、姿勢の変化に関する閾値を予め格納している。プロセッサは、一方の画像データを生成したときを基準として姿勢の変化が閾値以上になった場合、再度の外部入力を受け付けても、他方の画像データを生成しない。   Preferably, the imaging device further includes a sensor that detects a change in posture of the imaging device. The memory stores a threshold value related to the change in posture in advance. The processor does not generate the other image data even if the external input is received again when the change in the posture is equal to or greater than the threshold when the one image data is generated.

好ましくは、プロセッサは、姿勢の変化に伴う撮像装置の光軸の振れ角が閾値以上になった場合、再度の外部入力を受け付けても、他方の画像データを生成しない。   Preferably, when the deflection angle of the optical axis of the imaging apparatus accompanying a change in posture becomes equal to or greater than the threshold value, the processor does not generate the other image data even if a second external input is received.

好ましくは、センサは、姿勢の変化として、鉛直軸と一方の画像データを生成したときの光軸とに垂直な軸を回転軸とした撮像装置の傾きを検知する。   Preferably, the sensor detects the inclination of the imaging apparatus with the axis perpendicular to the vertical axis and the optical axis when one of the image data is generated as the rotation axis as the change in posture.

好ましくは、センサは、姿勢の変化として、鉛直軸を回転軸とした撮像装置の傾きを検知する。   Preferably, the sensor detects the inclination of the imaging apparatus with the vertical axis as the rotation axis as the change in posture.

好ましくは、センサは、姿勢の変化として、撮像装置の光軸に平行な軸を回転軸とした撮像装置の傾きを検知する。   Preferably, the sensor detects an inclination of the imaging device with an axis parallel to the optical axis of the imaging device as a rotation axis as a change in posture.

好ましくは、プロセッサは、姿勢の変化が閾値以上となった場合には、姿勢の変化を閾値未満とするための案内表示をディスプレイに表示させる。   Preferably, when the change in posture is equal to or greater than the threshold, the processor displays a guidance display for setting the change in posture below the threshold on the display.

本発明の他の局面に従うと、画像処理方法は、視差バリア方式で立体画像を表示するための立体画像データを生成する撮像装置において実行される。画像処理方法は、撮像装置が、シャッタボタンの押下またはディスプレイに表示されたオブジェクトの選択に基づく外部入力を受け付けたことに基づき、撮像素子を用いて左目用画像データおよび右目用画像データのうちの一方の画像データを生成するステップと、撮像装置が、一方の画像データが生成されたことに基づき、当該一方の画像データと撮像素子による撮像により得られたスルー画像データとを用いて立体画像データを生成するステップと、撮像装置が、生成された立体画像データに基づく立体画像をディスプレイに表示するステップと、撮像装置が、立体画像がディスプレイに表示された状態で外部入力を再度受け付けると、撮像素子を用いて左目用画像データおよび右目用画像データのうちの他方の画像データを生成するステップと、撮像装置が、他方の画像データが生成されたことに基づき、一方の画像データと当該他方の画像データとを用いて立体画像データを生成するステップと、撮像装置が、一方の画像データと他方の画像データとを用いて生成された立体画像データをメモリに格納するステップとを備える。   According to another aspect of the present invention, the image processing method is executed in an imaging device that generates stereoscopic image data for displaying a stereoscopic image by a parallax barrier method. The image processing method is based on the fact that the imaging device accepts an external input based on pressing of the shutter button or selection of an object displayed on the display, and uses the image sensor to select one of the left-eye image data and the right-eye image data. Stereo image data using the step of generating one of the image data, and the imaging device using the one image data and the through image data obtained by imaging with the imaging device based on the generation of the one image data. A step in which the imaging device displays a stereoscopic image based on the generated stereoscopic image data on the display, and the imaging device accepts an external input again while the stereoscopic image is displayed on the display. A device for generating the other image data of the left-eye image data and the right-eye image data using the element. And the step of generating stereoscopic image data using the one image data and the other image data based on the generation of the other image data, and the imaging device Storing the stereoscopic image data generated using the data and the other image data in a memory.

本発明のさらに他の局面に従うと、プログラムは、視差バリア方式で立体画像を表示するための立体画像データを生成する撮像装置を制御するために用いられる。プログラムは、シャッタボタンの押下またはディスプレイに表示されたオブジェクトの選択に基づく外部入力を受け付けたことに基づき、撮像素子を用いて左目用画像データおよび右目用画像データのうちの一方の画像データを生成するステップと、一方の画像データが生成されたことに基づき、当該一方の画像データと撮像素子による撮像により得られたスルー画像データとを用いて立体画像データを生成するステップと、生成された立体画像データに基づく立体画像をディスプレイに表示するステップと、立体画像がディスプレイに表示された状態で外部入力を再度受け付けると、撮像素子を用いて左目用画像データおよび右目用画像データのうちの他方の画像データを生成するステップと、他方の画像データが生成されたことに基づき、一方の画像データと当該他方の画像データとを用いて立体画像データを生成するステップと、一方の画像データと他方の画像データとを用いて生成された立体画像データをメモリに格納するステップとを、撮像装置に実行させる。   According to still another aspect of the present invention, the program is used to control an imaging apparatus that generates stereoscopic image data for displaying a stereoscopic image by a parallax barrier method. The program generates image data of one of the left-eye image data and the right-eye image data using the image pickup device based on accepting an external input based on pressing of the shutter button or selection of an object displayed on the display. A step of generating stereoscopic image data using the one image data and through image data obtained by imaging by the imaging device based on the generation of the one image data, and the generated stereoscopic image The step of displaying a stereoscopic image based on the image data on the display, and receiving the external input again in a state where the stereoscopic image is displayed on the display, the other of the left-eye image data and the right-eye image data using the image sensor Based on the step of generating image data and the generation of the other image data Generating stereo image data using one image data and the other image data; and storing stereo image data generated using the one image data and the other image data in a memory. And causing the imaging apparatus to execute.

本発明によれば、1つの撮像部を用いた2枚の2次元画像の撮像によって、好適な3次元画像を得ることが可能となる。   According to the present invention, it is possible to obtain a suitable three-dimensional image by imaging two two-dimensional images using one imaging unit.

携帯型電話機の外観を示した図である。It is the figure which showed the external appearance of the portable telephone. 3D撮像モードにおいて被写体を横撮りで撮像したときに、携帯型電話機で行なわれるデータ処理の例を説明するための図である。It is a figure for demonstrating the example of the data processing performed with a portable telephone, when a to-be-photographed object is imaged in 3D imaging mode. 携帯型電話機のハードウェア構成を示した図である。It is the figure which showed the hardware constitutions of the portable telephone. 携帯型電話機のハードウェア構成の要部を示した図である。It is the figure which showed the principal part of the hardware constitutions of a portable telephone. 携帯型電話機におけるデータ処理の一部の処理を説明するためのフローチャートである。It is a flowchart for demonstrating a part of data processing in a portable telephone. 携帯型電話機におけるデータ処理の残りの処理を説明するためのフローチャートである。It is a flowchart for demonstrating the remaining processes of the data processing in a mobile telephone. 携帯型電話機の姿勢の変化を説明するための図である。It is a figure for demonstrating the change of the attitude | position of a mobile telephone. 携帯型電話機の傾きの閾値を表したデータテーブルを説明するための図である。It is a figure for demonstrating the data table showing the threshold value of the inclination of a mobile telephone. ディスプレイに表示される案内表示を説明するための図である。It is a figure for demonstrating the guidance display displayed on a display. 第1の変形例における携帯型電話機におけるデータ処理の一部の処理を説明するためのフローチャートである。It is a flowchart for demonstrating a part of data processing in the portable telephone in a 1st modification. 他の携帯型電話機の外観を示した図である。It is the figure which showed the external appearance of the other portable telephone. 図11の携帯型電話機のハードウェア構成の要部を示した図である。It is the figure which showed the principal part of the hardware constitutions of the portable telephone of FIG.

以下、図面を参照しつつ、本発明の実施の形態に係る撮像装置について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, an imaging apparatus according to an embodiment of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

撮像装置としては、デジタル一眼レフカメラ、コンパクトデジタルカメラ、デジタルビデオカメラ、スマートフォンを含む携帯型電話機、PDA(Personal Digital Assistant)等の電子機器が挙げられる。以下では、撮像装置としてカメラ付きの携帯型電話機を例に挙げて説明する。   Examples of the imaging apparatus include digital single-lens reflex cameras, compact digital cameras, digital video cameras, portable telephones including smartphones, and electronic devices such as PDAs (Personal Digital Assistants). In the following, a portable phone with a camera will be described as an example of the imaging device.

<A.携帯型電話機の外観>
図1は、携帯型電話機1の外観を示した図である。図1(a)は、携帯型電話機1の正面図である。図1(b)は、携帯型電話機1の裏面図である。図1(c)は、被写体を撮像するときの状態を表した図である。
<A. Appearance of mobile phone>
FIG. 1 is a diagram showing the appearance of the mobile phone 1. FIG. 1A is a front view of the mobile phone 1. FIG. 1B is a back view of the mobile phone 1. FIG. 1C illustrates a state when the subject is imaged.

図1(a)を参照して、携帯型電話機1は、ディスプレイ20と、シャッタボタン181を含む操作ボタン18とを備える。なお、シャッタボタン181は、撮像を行なうモードでない場合には、撮像以外の処理の実行を指示するためのボタンとして機能してもよい。図1(b)を参照して、携帯型電話機1は、ディスプレイ20が設けられた表面とは反対側の表面に、撮像部としてのカメラ11と、ストロボ19とを備える。図1(c)を参照して、ユーザは、被写体を横撮りするために、携帯型電話機1を左手901と右手902とで保持している。   With reference to FIG. 1A, the mobile phone 1 includes a display 20 and operation buttons 18 including a shutter button 181. Note that the shutter button 181 may function as a button for instructing execution of processing other than imaging when the mode is not for imaging. Referring to FIG. 1B, the mobile phone 1 includes a camera 11 as an imaging unit and a strobe 19 on the surface opposite to the surface on which the display 20 is provided. Referring to FIG. 1C, the user holds the mobile phone 1 with the left hand 901 and the right hand 902 in order to take a picture of the subject.

携帯型電話機1は、3D画像(立体画像)を生成するための撮像モード(以下、「3D撮像モード」とも称する)と、2D画像を生成するための撮像モード(以下、「2D撮像モード」と称する)とを備える。なお、3D撮像モードと2D撮像モードとの間の切替処理は、ユーザの指示により行なわれる。携帯型電話機1は、3D撮像モードとして動作している場合、カメラ11により撮像された左目用画像と右目用画像とに基づき、観察者から立体的に見える3D画像を生成する。携帯型電話機1は、視差バリア方式により、3D画像をディスプレイ20に表示する。   The mobile phone 1 has an imaging mode for generating a 3D image (stereoscopic image) (hereinafter, also referred to as “3D imaging mode”) and an imaging mode for generating a 2D image (hereinafter, “2D imaging mode”). And). Note that the switching process between the 3D imaging mode and the 2D imaging mode is performed according to a user instruction. When operating in the 3D imaging mode, the mobile phone 1 generates a 3D image that is viewed stereoscopically from the observer based on the left-eye image and the right-eye image captured by the camera 11. The mobile phone 1 displays a 3D image on the display 20 by a parallax barrier method.

ところで、携帯型電話機1は、カメラを1つしか備えていない単眼式の撮像装置である。したがって、3D画像を得るためには、ユーザは以下の操作が必要となる。まず、ユーザは、カメラ11を用いた撮像により左目用画像を得る。その後、ユーザは、携帯型電話機1を矢印990の方向に移動させる。最後に、ユーザは、カメラ11を用いた撮像により右目用画像を得る。なお、撮像の詳細については後述する。   By the way, the mobile phone 1 is a monocular imaging device provided with only one camera. Therefore, in order to obtain a 3D image, the user needs the following operations. First, the user obtains an image for the left eye by imaging using the camera 11. Thereafter, the user moves the mobile phone 1 in the direction of the arrow 990. Finally, the user obtains an image for the right eye by imaging using the camera 11. Details of imaging will be described later.

また、携帯型電話機1は、スルー画像(プレビュー画像)をディスプレイ20に表示するためのライブビュー機能を備える。   The mobile phone 1 also has a live view function for displaying a through image (preview image) on the display 20.

<B.携帯型電話機のデータ処理の概要>
図2は、3D撮像モードにおいて被写体を横撮りで撮像したときに、携帯型電話機1で行なわれるデータ処理の例を説明するための図である。
<B. Overview of mobile phone data processing>
FIG. 2 is a diagram for explaining an example of data processing performed by the mobile phone 1 when a subject is imaged in the 3D imaging mode.

図2(a)を参照して、ユーザによってシャッタボタン181が押下されると、携帯型電話機1は、カメラ11を用いた撮像より得られた左目用画像データ801を、後述する画像処理エンジン13内のRAM310(図4参照)に格納する。図2(b)を参照して、左目用画像データ801がRAM310に格納されると、携帯型電話機1は、カメラ11を用いた撮像によりスルー画像データ820を連続的に生成する。スルー画像データ820は、RAM310において上書き更新される。   Referring to FIG. 2A, when the shutter button 181 is pressed by the user, the mobile phone 1 uses left-eye image data 801 obtained by imaging using the camera 11 as an image processing engine 13 described later. It is stored in the RAM 310 (see FIG. 4). Referring to FIG. 2B, when the left-eye image data 801 is stored in the RAM 310, the mobile phone 1 continuously generates through image data 820 by imaging using the camera 11. The through image data 820 is overwritten and updated in the RAM 310.

図2(c)を参照して、スルー画像データ820が生成されると、携帯型電話機1は、最初の撮像により得られた左目用画像データ801とスルー画像データ820とを用いて、3D画像データ830を生成する。3D画像データ830は、RAM310において上書き更新される。携帯型電話機1は、生成された3D画像データ830に基づく3D画像を、ディスプレイ20において表示する。つまり、携帯型電話機1は、先の撮像により得られた左目用画像データ801と、当該撮像後に得られたスルー画像データ820とを用いて、3D画像をディスプレイ20においてライブビュー表示する。   Referring to FIG. 2C, when the through image data 820 is generated, the mobile phone 1 uses the left eye image data 801 and the through image data 820 obtained by the first imaging to generate a 3D image. Data 830 is generated. The 3D image data 830 is overwritten and updated in the RAM 310. The mobile phone 1 displays a 3D image based on the generated 3D image data 830 on the display 20. That is, the mobile phone 1 uses the left-eye image data 801 obtained by the previous imaging and the through image data 820 obtained after the imaging to display a 3D image on the display 20 in a live view.

ユーザは、携帯型電話機1を図1の矢印990の方向に移動しながら、ライブビュー表示された3D画像を確認する。たとえば、ユーザが携帯型電話機1を矢印990の方向に過度に移動させると、適切な3D画像が得られない。また、ユーザが携帯型電話機1を矢印以外の方向に移動させると、適切な3D画像が得られない。このため、ユーザは、右目用画像の撮像をどの位置で行なうかを、ライブビュー表示された3D画像を視認しながら決定する。ユーザが適切な3D画像が得られたと判断した場合、ユーザは、再度シャッタボタン181を押下する。   The user confirms the 3D image displayed in live view while moving the mobile phone 1 in the direction of the arrow 990 in FIG. For example, if the user moves the mobile phone 1 excessively in the direction of the arrow 990, an appropriate 3D image cannot be obtained. Further, when the user moves the mobile phone 1 in a direction other than the arrow, an appropriate 3D image cannot be obtained. For this reason, the user determines at which position the right-eye image is to be captured while visually recognizing the 3D image displayed in live view. When the user determines that an appropriate 3D image has been obtained, the user presses the shutter button 181 again.

図2(d)を参照して、ユーザが再度シャッタボタン181を押下すると、携帯型電話機1は、カメラ11を用いて右目用画像データを得るための撮像を行なう。携帯型電話機1は、当該撮像より得られた右目用画像データ802をRAM310に格納する。   With reference to FIG. 2D, when the user presses the shutter button 181 again, the mobile phone 1 uses the camera 11 to perform imaging for obtaining right-eye image data. The mobile phone 1 stores the right-eye image data 802 obtained from the imaging in the RAM 310.

図2(e)を参照して、携帯型電話機1は、右目用画像データ802がRAM310に格納されると、右目用画像データ802と、RAM310に先に格納されていた左目用画像データ810とを用いて、3D画像データ803を生成する。携帯型電話機1は、生成した3D画像データをRAM310に格納する。   Referring to FIG. 2 (e), when the right eye image data 802 is stored in the RAM 310, the mobile phone 1 stores the right eye image data 802 and the left eye image data 810 previously stored in the RAM 310. Is used to generate 3D image data 803. The mobile phone 1 stores the generated 3D image data in the RAM 310.

図2(f)を参照して、携帯型電話機1は、左目用画像データ801と、右目用画像データ802と、3D画像データ803とを、画像処理エンジン13の外部に設けられたRAM(Random Access Memory)16(図3,図4参照)に転送する。   Referring to FIG. 2 (f), the mobile phone 1 uses left-eye image data 801, right-eye image data 802, and 3D image data 803 as RAM (Random) provided outside the image processing engine 13. Access Memory) 16 (see FIGS. 3 and 4).

図2(g)を参照して、携帯型電話機1は、さらに、ユーザからデータ保存の指示を受け付けた場合、あるいは当該指示を待つことなく自動的に、RAM16に格納された画像データ801,802,803を、後述するフラッシュメモリ17(図3参照)に書き込む。   Referring to FIG. 2 (g), the cellular phone 1 further receives image data saving instructions from the user or automatically without waiting for the instructions, the image data 801 and 802 stored in the RAM 16. , 803 are written into a flash memory 17 (see FIG. 3) to be described later.

なお、RAM16に格納された画像データ801,802,803をフラッシュメモリ17に書き込む代わりに、後述するIC(Integrated Circuit)記録メディア221(図3,図4参照)に書き込んでもよい。以下では、説明の便宜上、RAM16に格納された画像データ801,802,803を、フラッシュメモリ17に書き込む構成を例に挙げて説明する。   Instead of writing the image data 801, 802, 803 stored in the RAM 16 in the flash memory 17, it may be written in an IC (Integrated Circuit) recording medium 221 (see FIGS. 3 and 4) described later. In the following, for the sake of convenience of explanation, a configuration in which image data 801, 802, and 803 stored in the RAM 16 are written in the flash memory 17 will be described as an example.

以上のように、携帯型電話機1では、右目用画像の撮像の前に、ユーザがディスプレイ20においてライブビュー表示された3D画像を視認できる。したがって、ユーザは、適切な位置で右目用画像の撮像を行なうことができる。それゆえ、ユーザは、1つの撮像部を用いた2枚の2次元画像の撮像によって、好適な3D画像を得ることができる。なお、携帯型電話機1では、横撮りの場合のみならず、縦撮りの場合であっても横取りの場合と同様に、3D画像データを生成できる。   As described above, in the mobile phone 1, the user can visually recognize the 3D image displayed in the live view on the display 20 before capturing the right-eye image. Therefore, the user can take an image for the right eye at an appropriate position. Therefore, the user can obtain a suitable 3D image by imaging two two-dimensional images using one imaging unit. Note that the mobile phone 1 can generate 3D image data not only for horizontal shooting but also for vertical shooting, as in the case of horizontal shooting.

以下では、このようなデータ処理を実現するための携帯型電話機1の具体的な構成について、説明する。   Hereinafter, a specific configuration of the mobile phone 1 for realizing such data processing will be described.

<C.ハードウェア構成>
図3は、携帯型電話機1のハードウェア構成を示した図である。図3を参照して、携帯型電話機1は、カメラ11と、画像処理エンジン13と、プログラムを実行するCPU(Central Processing Unit)14と、データを不揮発的に格納するROM(Read Only Memory)15と、データを揮発的に格納するRAM16と、NAND型のフラッシュメモリ17と、携帯型電話機1のユーザによる指示の入力を受ける操作ボタン18と、ストロボ19と、ディスプレイ20と、通信IF(Interface)21と、リーダライタ22と、電源ユニット23と、ジャイロセンサ29とを備える。なお、ジャイロセンサ29を利用する構成については、後述する(「<F.変形例>」)。
<C. Hardware configuration>
FIG. 3 is a diagram showing a hardware configuration of the mobile phone 1. Referring to FIG. 3, a mobile phone 1 includes a camera 11, an image processing engine 13, a CPU (Central Processing Unit) 14 that executes a program, and a ROM (Read Only Memory) 15 that stores data in a nonvolatile manner. A RAM 16 for storing data in a volatile manner, a NAND flash memory 17, an operation button 18 for receiving an instruction input by a user of the mobile phone 1, a strobe 19, a display 20, and a communication IF (Interface). 21, a reader / writer 22, a power supply unit 23, and a gyro sensor 29. The configuration using the gyro sensor 29 will be described later (“<F. Modification>”).

画像処理エンジン13は、カメラ11に含まれる各撮像素子に光が照射されることにより発生した電荷に基づいて画像データを生成する。画像処理エンジン13の詳細については、後述する。なお、カメラ11は、典型的にはモジュール化(ユニット化)されている。   The image processing engine 13 generates image data based on charges generated by irradiating each image sensor included in the camera 11 with light. Details of the image processing engine 13 will be described later. The camera 11 is typically modularized (unitized).

CPU14は、画像処理エンジン13が担うデータ処理以外のデータ処理を行なう。
フラッシュメモリ17は、不揮発性の半導体メモリである。フラッシュメモリ17は、携帯型電話機1を制御するための各種のプログラム、携帯型電話機1が生成したデータ、携帯型電話機1の外部装置から取得したデータ等の各種データを揮発的に格納する。
The CPU 14 performs data processing other than the data processing performed by the image processing engine 13.
The flash memory 17 is a nonvolatile semiconductor memory. The flash memory 17 volatilely stores various data such as various programs for controlling the mobile phone 1, data generated by the mobile phone 1, and data acquired from an external device of the mobile phone 1.

通信IF21は、携帯型電話機1が外部の通信装置と無線通信を行なうための信号処理を行なう。電源ユニット23は、データバスを介して、カメラ11、画像処理エンジン13、CPU14、ストロボ19、ディスプレイ20、通信IF21、リーダライタ22、ジャイロセンサ29等に電力を供給する。   The communication IF 21 performs signal processing for the mobile phone 1 to perform wireless communication with an external communication device. The power supply unit 23 supplies power to the camera 11, the image processing engine 13, the CPU 14, the strobe 19, the display 20, the communication IF 21, the reader / writer 22, the gyro sensor 29, and the like via the data bus.

各構成要素11〜23,29は、相互にデータバスによって接続されている。リーダライタ22には、IC記録メディア221が装着される。   Each component 11-23, 29 is mutually connected by the data bus. An IC recording medium 221 is attached to the reader / writer 22.

携帯型電話機1における処理は、各ハードウェアと画像処理エンジン13とCPU14とにより実行されるソフトウェアによって実現される。このようなソフトウェアは、画像処理エンジン13、フラッシュメモリ17に予め記憶されている場合がある。また、ソフトウェアは、IC記録メディア221その他の記憶媒体に格納されて、プログラムプロダクトとして流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラムプロダクトとして提供される場合もある。このようなソフトウェアは、リーダライタ22その他の読取装置によりその記憶媒体から読み取られて、あるいは、通信IFを介してダウンロードされた後、フラッシュメモリ17に一旦格納される。そのソフトウェアは、CPU14によってフラッシュメモリ17から読み出され、さらに実行可能なプログラムの形式でフラッシュメモリ17あるいは画像処理エンジン13に格納される。画像処理エンジン13またはCPU14は、そのプログラムを実行する。   The processing in the mobile phone 1 is realized by software executed by each hardware, the image processing engine 13 and the CPU 14. Such software may be stored in advance in the image processing engine 13 and the flash memory 17. The software may be stored in the IC recording medium 221 or other storage medium and distributed as a program product. Alternatively, the software may be provided as a program product that can be downloaded by an information provider connected to the so-called Internet. Such software is read from the storage medium by the reader / writer 22 or other reading device, or downloaded via the communication IF and then temporarily stored in the flash memory 17. The software is read from the flash memory 17 by the CPU 14 and further stored in the flash memory 17 or the image processing engine 13 in the form of an executable program. The image processing engine 13 or the CPU 14 executes the program.

同図に示される携帯型電話機1を構成する各構成要素は、一般的なものである。したがって、本発明の本質的な部分は、画像処理エンジン13、フラッシュメモリ17、IC記録メディア221その他の記憶媒体に格納されたソフトウェア、あるいはネットワークを介してダウンロード可能なソフトウェアであるともいえる。なお、携帯型電話機1の各ハードウェアの動作は周知であるので、詳細な説明は繰り返さない。   Each component constituting the mobile phone 1 shown in the figure is a general one. Therefore, it can be said that the essential part of the present invention is the software stored in the image processing engine 13, the flash memory 17, the IC recording medium 221 and other storage media, or the software downloadable via the network. Since the operation of each hardware of mobile phone 1 is well known, detailed description will not be repeated.

なお、記録媒体としては、ICカードに限られず、DVD-ROM、CD−ROM、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、光カード、マスクROM、EPROM(Electronically Programmable Read-Only Memory)、EEPROM(Electronically Erasable Programmable Read-Only Memory)、フラッシュROMなどの半導体メモリ等の固定的にプログラムを担持する媒体でもよい。また、記録媒体は、当該プログラム等をコンピュータが読取可能な一時的でない媒体である。   The recording medium is not limited to an IC card, but is a DVD-ROM, CD-ROM, FD (Flexible Disk), hard disk, magnetic tape, cassette tape, optical disk (MO (Magnetic Optical Disc) / MD (Mini Disc) / It carries a fixed program such as a semiconductor memory such as a DVD (Digital Versatile Disc), an optical card, a mask ROM, an EPROM (Electronically Programmable Read-Only Memory), an EEPROM (Electronically Erasable Programmable Read-Only Memory), or a flash ROM. It may be a medium. The recording medium is a non-temporary medium that can be read by the computer.

ここでいうプログラムとは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。   The program here includes not only a program directly executable by the CPU but also a program in a source program format, a compressed program, an encrypted program, and the like.

図4は、携帯型電話機1のハードウェア構成の要部を示した図である。図4を参照して、携帯型電話機1は、カメラ11と、画像処理エンジン13と、RAM16と、フラッシュメモリ17と、ディスプレイ20と、リーダライタ22と、A/D(Analog/Digital)変換器24とを含む。リーダライタ22には、IC記録メディア221が装着されている。   FIG. 4 is a diagram showing a main part of the hardware configuration of the mobile phone 1. Referring to FIG. 4, a mobile phone 1 includes a camera 11, an image processing engine 13, a RAM 16, a flash memory 17, a display 20, a reader / writer 22, and an A / D (Analog / Digital) converter. 24. An IC recording medium 221 is attached to the reader / writer 22.

カメラ11は、レンズ111と、メカニカルシャッタ112と、撮像素子113とを備える。なお、撮像素子は、受光素子またはイメージセンサとも呼ばれる。   The camera 11 includes a lens 111, a mechanical shutter 112, and an image sensor 113. Note that the imaging element is also called a light receiving element or an image sensor.

レンズ111は、外光を集光する。具体的には、レンズ111は、被写体により反射した光等を集光する。   The lens 111 collects external light. Specifically, the lens 111 condenses light reflected by the subject.

メカニカルシャッタ112は、レンズ111を通過した光を、撮像素子113に照射するか否かを切換えるための装置である。メカニカルシャッタ112は、シャッタボタン181の押下により動作する。より詳しくは、メカニカルシャッタ112は、CPU14の指令に基づき動作する。ここで、「シャッタボタン181が押下」とは、オートフォーカス機能によりピントを合わせるためのシャッタボタン181の半押を除くものとする。   The mechanical shutter 112 is a device for switching whether to irradiate the image sensor 113 with the light that has passed through the lens 111. The mechanical shutter 112 operates when the shutter button 181 is pressed. More specifically, the mechanical shutter 112 operates based on a command from the CPU 14. Here, “pressing the shutter button 181” excludes half-pressing of the shutter button 181 for focusing by the autofocus function.

撮像素子113は、光を電気信号に変換する。また、撮像素子113は、電気信号をA/D変換器24に送る。撮像素子113は、たとえば、CCD(Charge Coupled Device)、CMOS(Charge Coupled Device)である。   The image sensor 113 converts light into an electrical signal. Further, the image sensor 113 sends an electric signal to the A / D converter 24. The image sensor 113 is, for example, a CCD (Charge Coupled Device) or a CMOS (Charge Coupled Device).

A/D変換器24は、撮像素子113が出力したアナログ信号をデジタル信号に変換する。A/D変換器24は、変換により得られたデジタル信号を画像処理エンジン13に送る。   The A / D converter 24 converts the analog signal output from the image sensor 113 into a digital signal. The A / D converter 24 sends the digital signal obtained by the conversion to the image processing engine 13.

次に、画像処理エンジン13について説明する。画像処理エンジン13は、プロセッサ300と、RAM310と、ROM320とを備える。プロセッサ300は、CPU301と、DSP(Digital Signal Processor)302とを有する。CPU301と、DSP302と、RAM310と、ROM320とは、データバスにより互いに接続されている。   Next, the image processing engine 13 will be described. The image processing engine 13 includes a processor 300, a RAM 310, and a ROM 320. The processor 300 includes a CPU 301 and a DSP (Digital Signal Processor) 302. The CPU 301, the DSP 302, the RAM 310, and the ROM 320 are connected to each other via a data bus.

プロセッサ300は、ROM320に格納されているプログラムに基づいた処理を実行する。CPU301は、画像処理エンジン13における全体制御および通信に関する処理を実行する。CPU301は、たとえばRISC(Reduced Instruction Set Computer)アーキテクチャのCPUである。DSP302は、画像処理専用のプロセッサである。なお、プロセッサ300を構成するDSP302の数は、1個に限定されるものではない。   The processor 300 executes processing based on a program stored in the ROM 320. The CPU 301 executes processing related to overall control and communication in the image processing engine 13. The CPU 301 is, for example, a RISC (Reduced Instruction Set Computer) architecture CPU. The DSP 302 is a processor dedicated to image processing. Note that the number of DSPs 302 constituting the processor 300 is not limited to one.

RAM310は、A/D変換器24から入力されるデジタル信号を一時的に記憶するバッファメモリとして機能する。また、RAM310は、CPU301およびDSP302によるデータ処理の際のワークメモリとしても機能する。ROM320は、プロセッサ300が実行するプログラムを含んでいる。   The RAM 310 functions as a buffer memory that temporarily stores the digital signal input from the A / D converter 24. The RAM 310 also functions as a work memory when data processing is performed by the CPU 301 and the DSP 302. ROM 320 includes a program executed by processor 300.

CPU301は、RAM310,16へのデータの書き込み、RAM310,16からのデータの読み出し、RAM310,16に記録されたデータの消去を実行する。また、CPU301は、IC記録メディア221へのデータの書き込み、IC記録メディア221からのデータの読み出し、IC記録メディア221に記録されたデータの消去を制御する。   The CPU 301 executes data writing to the RAMs 310 and 16, data reading from the RAMs 310 and 16, and erasing of data recorded in the RAMs 310 and 16. In addition, the CPU 301 controls writing of data to the IC recording medium 221, reading of data from the IC recording medium 221, and erasing of data recorded on the IC recording medium 221.

なお、画像処理エンジン13により実行される他の各処理については、後述する(図5,6)。   Other processes executed by the image processing engine 13 will be described later (FIGS. 5 and 6).

<D.制御構造>
図5は、携帯型電話機1におけるデータ処理の一部の処理を説明するためのフローチャートである。図6は、携帯型電話機1におけるデータ処理の残りの処理を説明するためのフローチャートである。具体的には、図5および図6は、携帯型電話機1の動作モードが3D撮像モードに切換った状態におけるデータ処理の流れを示している。
<D. Control structure>
FIG. 5 is a flowchart for explaining a part of data processing in the mobile phone 1. FIG. 6 is a flowchart for explaining the remaining data processing in the mobile phone 1. Specifically, FIG. 5 and FIG. 6 show the flow of data processing in a state where the operation mode of the mobile phone 1 is switched to the 3D imaging mode.

図5を参照して、ステップS2において、CPU14は、ユーザによってシャッタボタン181が押下されたか否かを判断する。画像処理エンジン13のCPU301は、CPU14からシャッタボタン181の押下げがなされていない旨の指示を受け付けると(ステップS2においてNO)、ステップS4において、電子シャッタを用いた被写体の撮像を行なう。なお、電子シャッタは、画像処理エンジン13により実現されるシャッタであり、物理的な遮光板は不要である。   Referring to FIG. 5, in step S2, CPU 14 determines whether shutter button 181 has been pressed by the user. When the CPU 301 of the image processing engine 13 receives an instruction from the CPU 14 that the shutter button 181 has not been pressed (NO in step S2), in step S4, the subject is imaged using the electronic shutter. The electronic shutter is a shutter realized by the image processing engine 13 and does not require a physical light shielding plate.

電子シャッタを用いた撮像を行なう場合、CPU301は、たとえば、メカニカルシャッタ112を開状態にし、メカニカルシャッタ122を閉状態にしておく。CPU301は、撮像素子113が出力したアナログ信号に基づくデジタル信号を受け付ける。なお、両方のメカニカルシャッタ112を開状態としてもよい。   When imaging using an electronic shutter, for example, the CPU 301 opens the mechanical shutter 112 and closes the mechanical shutter 122. The CPU 301 receives a digital signal based on the analog signal output from the image sensor 113. Both mechanical shutters 112 may be opened.

ステップS6において、CPU301は、デジタルデータ(以下、「RAWデータ」と称する)を生成する。ステップS8において、CPU301は、生成されたRAWデータを現像処理する。当該現像処理により、RAWデータは、人間の目で画像として認識可能な可視画像データとなる。ステップS10において、CPU301は、ディスプレイ20にスルー画像を表示させる。これにより、ユーザは、電子シャッタを用いて撮像している被写体の画像を、ディスプレイ20でリアルタイムに視認可能となる。   In step S6, the CPU 301 generates digital data (hereinafter referred to as “RAW data”). In step S8, the CPU 301 develops the generated RAW data. By the development processing, the RAW data becomes visible image data that can be recognized as an image by human eyes. In step S <b> 10, the CPU 301 displays a through image on the display 20. Thereby, the user can visually recognize the image of the subject imaged using the electronic shutter on the display 20 in real time.

CPU301は、CPU14からシャッタボタン181の押下げがなされた旨の指示を受け付けると(ステップS2においてYES)、ステップS12において、メカニカルシャッタ112を用いて被写体の撮像を行なう。具体的には、CPU301は、左目用画像を生成するための撮像を行なう。ステップS14において、CPU301は、A/D変換器24からそれぞれ出力されたデジタル信号に基づいて、RAWデータを生成する。   When the CPU 301 receives an instruction from the CPU 14 that the shutter button 181 has been pressed (YES in step S2), the CPU 301 performs imaging of the subject using the mechanical shutter 112 in step S12. Specifically, the CPU 301 performs imaging for generating a left eye image. In step S <b> 14, the CPU 301 generates RAW data based on the digital signals output from the A / D converter 24.

CPU301は、ステップS16において、現像処理を行なう。具体的には、CPU301は、センサ補正処理、デモザイク処理、画素補間処理、色補正処理(ホワイトバランス調整、カラーマトリクス変換、ガンマ変換)、RGB画像処理(シャープネス補正、トーン補正、露出補正等)を行なう。   In step S16, the CPU 301 performs development processing. Specifically, the CPU 301 performs sensor correction processing, demosaic processing, pixel interpolation processing, color correction processing (white balance adjustment, color matrix conversion, gamma conversion), and RGB image processing (sharpness correction, tone correction, exposure correction, etc.). Do.

ステップS18において、CPU14は、ユーザによってシャッタボタン181が押下されたか否かを判断する。CPU14は、シャッタボタン181が押下されていないと判断した場合(ステップS18においてNO)、ステップS20において、電子シャッタを用いた被写体の撮像を行なう。ステップS22において、CPU301は、RAWデータを生成する。ステップS24において、CPU301は、生成されたRAWデータを現像処理する。   In step S18, the CPU 14 determines whether or not the shutter button 181 has been pressed by the user. If the CPU 14 determines that the shutter button 181 has not been pressed (NO in step S18), the CPU 14 performs imaging of the subject using the electronic shutter in step S20. In step S22, the CPU 301 generates RAW data. In step S24, the CPU 301 develops the generated RAW data.

ステップS26において、CPU301は、メカニカルシャッタ112を用いた撮像により得られた画像データ(つまり、左目用画像データ)と、電子シャッタを用いた撮像により得られた画像データ(つまり、スルー画像データ)とから3D画像データを生成する。ステップS28において、CPU301は、生成した3D画像データに基づく3D画像をディスプレイ20に表示させる。つまり、CPU301は、ディスプレイ20に、3D画像をライブビュー表示させる。   In step S <b> 26, the CPU 301 obtains image data obtained by imaging using the mechanical shutter 112 (that is, image data for the left eye) and image data obtained by imaging using the electronic shutter (that is, through image data). To generate 3D image data. In step S <b> 28, the CPU 301 displays a 3D image based on the generated 3D image data on the display 20. That is, the CPU 301 displays a 3D image on the display 20 in a live view.

一方、CPU14は、シャッタボタン181が押下されたと判断した場合(ステップS18においてYES)、図6に示すステップS30を実行する。図6を参照して、ステップS30において、メカニカルシャッタ112を用いて被写体の撮像を行なう。具体的には、CPU301は、右目用画像を生成するための撮像を行なう。ステップS32において、CPU301は、A/D変換器24からそれぞれ出力されたデジタル信号に基づいて、RAWデータを生成する。CPU301は、ステップS34において、現像処理を行なう。   On the other hand, when CPU 14 determines that shutter button 181 has been pressed (YES in step S18), CPU 14 executes step S30 shown in FIG. Referring to FIG. 6, in step S <b> 30, the subject is imaged using mechanical shutter 112. Specifically, the CPU 301 performs imaging for generating a right eye image. In step S <b> 32, the CPU 301 generates RAW data based on the digital signals output from the A / D converter 24. In step S34, the CPU 301 performs development processing.

ステップS36において、CPU301は、メカニカルシャッタ112を用いた撮像により得られた2つの画像データ(つまり、左目用画像データおよび右目用画像データ)から3D画像データを生成する。   In step S <b> 36, the CPU 301 generates 3D image data from two pieces of image data (that is, left-eye image data and right-eye image data) obtained by imaging using the mechanical shutter 112.

ステップS38において、CPU301は、ステップS16,34の現像処理で得られた左目用画像データおよび右目用画像データと、ステップS36の処理で得られた3D画像データとを、RAM16に書き込む。具体的には、CPU301は、左目用画像データと、右目用画像データと、3D画像データとを、対応付けてRAM16に転送する。   In step S38, the CPU 301 writes the left-eye image data and right-eye image data obtained by the development processing in steps S16 and 34 and the 3D image data obtained in the processing in step S36 into the RAM 16. Specifically, the CPU 301 transfers the left-eye image data, the right-eye image data, and the 3D image data to the RAM 16 in association with each other.

ステップS40において、CPU301は、左目用画像データ、右目用画像データ、および3D画像データを非可逆圧縮する。たとえば、CPU301は、左目用画像データ、右目用画像データ、および3D画像データを、予め定められたフォーマット(JPEGフォーマット、DCFフォーマット、Exifフォーマット、またはTIFFフォーマット)の画像データに変換する。ステップS42において、CPU301は、ステップS40で圧縮した画像データを、フラッシュメモリ17に書き込む。   In step S40, the CPU 301 performs irreversible compression on the left-eye image data, the right-eye image data, and the 3D image data. For example, the CPU 301 converts left-eye image data, right-eye image data, and 3D image data into image data in a predetermined format (JPEG format, DCF format, Exif format, or TIFF format). In step S42, the CPU 301 writes the image data compressed in step S40 into the flash memory 17.

以上により、CPU301は、一連の処理を終了する。
<E.携帯型電話機1のまとめ>
以上のように、携帯型電話機1は、視差バリア方式で立体画像を表示するための立体画像データを生成する撮像装置である。携帯型電話機1は、CPU301と、フラッシュメモリ17と、被写体を撮像するためのカメラ11と、ディスプレイ20とを備えている。カメラ11は、撮像素子113と、スルー画像データを生成するための電子シャッタと、左目用画像データおよび右目用画像データを生成するためのメカニカルシャッタ112とを含んでいる。
As described above, the CPU 301 ends the series of processes.
<E. Summary of mobile phone 1>
As described above, the mobile phone 1 is an imaging device that generates stereoscopic image data for displaying a stereoscopic image by the parallax barrier method. The mobile phone 1 includes a CPU 301, a flash memory 17, a camera 11 for imaging a subject, and a display 20. The camera 11 includes an image sensor 113, an electronic shutter for generating through-image data, and a mechanical shutter 112 for generating left-eye image data and right-eye image data.

CPU301は、外部入力を受け付けたことに基づき、撮像素子113およびメカニカルシャッタ112を用いて、左目用画像データ生成する。CPU301は、左目用画像データが生成されたことに基づき、当該左目用画像データと電子シャッタによる撮像により得られたスルー画像データとを用いて立体画像データを生成する。CPU301は、生成された立体画像データに基づく立体画像をディスプレイ20に表示させる。   The CPU 301 generates image data for the left eye using the image sensor 113 and the mechanical shutter 112 based on the reception of the external input. Based on the generation of the left-eye image data, the CPU 301 generates stereoscopic image data using the left-eye image data and through image data obtained by imaging with the electronic shutter. The CPU 301 causes the display 20 to display a stereoscopic image based on the generated stereoscopic image data.

CPU301は、立体画像がディスプレイ20に表示された状態で外部入力を再度受け付けると、撮像素子113およびメカニカルシャッタ112を用いて、右目用画像データを生成する。CPU301は、右目用画像データが生成されたことに基づき、左目用画像データと右目用画像データとを用いて立体画像データを生成する。CPU301は、生成された立体画像データをフラッシュメモリ17に格納する。   When the CPU 301 accepts an external input again in a state where the stereoscopic image is displayed on the display 20, the CPU 301 uses the image sensor 113 and the mechanical shutter 112 to generate right-eye image data. The CPU 301 generates stereoscopic image data using the left-eye image data and the right-eye image data based on the generation of the right-eye image data. The CPU 301 stores the generated stereoscopic image data in the flash memory 17.

したがって、携帯型電話機1では、右目用画像の撮像の前に、ユーザがディスプレイ20においてライブビュー表示された3D画像を視認できる。それゆえユーザは、適切な位置で右目用画像の撮像を行なうことができる。これにより、ユーザは、1つの撮像部(カメラ11)を用いた2枚の2次元画像の撮像によって、好適な3D画像を得ることができる。   Therefore, in the mobile phone 1, the user can visually recognize the 3D image displayed in the live view on the display 20 before capturing the right-eye image. Therefore, the user can take an image for the right eye at an appropriate position. Thereby, the user can obtain a suitable 3D image by imaging two two-dimensional images using one imaging unit (camera 11).

<F.変形例>
(f1.第1の変形例)
上記においては、右目用画像データを生成するためにシャッタボタン181を再び押すときの携帯型電話機1の姿勢が適切でない場合もある。たとえば、ユーザが、左目用画像データを生成するためにシャッタボタン181を押下した後に、携帯型電話機1が前後に傾いてしまった場合、携帯型電話機1が左右に傾いてしまった場合、携帯型電話機1が上下に傾いてしまった場合である。
<F. Modification>
(F1. First modification)
In the above, the posture of the mobile phone 1 may not be appropriate when the shutter button 181 is pressed again to generate the image data for the right eye. For example, when the mobile phone 1 is tilted back and forth after the user presses the shutter button 181 to generate image data for the left eye, the mobile phone 1 is tilted left or right, the mobile phone 1 This is a case where the telephone 1 is tilted up and down.

図7は、携帯型電話機1の姿勢の変化を説明するための図である。なお、以下では、xyz軸の座標系を用いて説明する。また、説明の簡略化のため、z軸の正の向きを鉛直上向きとする。   FIG. 7 is a diagram for explaining a change in the posture of the mobile phone 1. In the following, description will be made using an xyz-axis coordinate system. For the sake of simplicity, the positive direction of the z-axis is assumed to be vertically upward.

携帯型電話機1は、携帯型電話機1の姿勢の変化を、ジャイロセンサ29(図3参照)により検知する。   The mobile phone 1 detects a change in the posture of the mobile phone 1 by a gyro sensor 29 (see FIG. 3).

図7(a)は、携帯型電話機1の姿勢の変化に伴ってカメラ11の光軸が振れる場合を説明するための図である。詳しくは、図7(a)は、携帯型電話機1が、鉛直軸(z軸)と左目用画像データを生成したときの光軸1101とに垂直な軸(y軸に平行な軸)を回転軸として回転してしまった場合を説明するための図である。   FIG. 7A is a diagram for explaining a case where the optical axis of the camera 11 is shaken with a change in the posture of the mobile phone 1. Specifically, FIG. 7A shows that the mobile phone 1 rotates an axis (an axis parallel to the y axis) perpendicular to the vertical axis (z axis) and the optical axis 1101 when the left-eye image data is generated. It is a figure for demonstrating the case where it has rotated as an axis | shaft.

図7(a)を参照して、ジャイロセンサ29は、前後の傾きとして、矢印510および矢印520の向きの携帯型電話機1の傾きを検知する。ジャイロセンサ29による検知結果は、CPU301に送られる。CPU301は、傾き角(光軸1101の振れ角)が予め定められた閾値以上になった場合、シャッタボタン181が押下されても、メカニカルシャッタ112を用いた右目用画像データの生成は行なわない。このような構成により、携帯型電話機1は、好適な3D画像データの生成が可能となる。なお、以下では、携帯型電話機1が、矢印510または矢印520の向きに傾いたときの傾き角を、説明の便宜上「ピッチ角」と称する。   Referring to FIG. 7A, gyro sensor 29 detects the inclination of mobile phone 1 in the directions of arrows 510 and 520 as the forward and backward inclinations. The detection result by the gyro sensor 29 is sent to the CPU 301. When the tilt angle (the swing angle of the optical axis 1101) is equal to or greater than a predetermined threshold, the CPU 301 does not generate right-eye image data using the mechanical shutter 112 even when the shutter button 181 is pressed. With such a configuration, the mobile phone 1 can generate suitable 3D image data. Hereinafter, the inclination angle when the mobile phone 1 is inclined in the direction of the arrow 510 or the arrow 520 is referred to as a “pitch angle” for convenience of explanation.

図7(b)は、図7(a)と同様に、携帯型電話機1の姿勢の変化に伴ってカメラ11の光軸1101が振れる場合を説明するための図である。より詳しくは、図7(b)は、携帯型電話機1が、鉛直軸(z軸)を回転軸として回転してしまった場合を説明するための図である。   FIG. 7B is a diagram for explaining a case where the optical axis 1101 of the camera 11 swings with a change in the attitude of the mobile phone 1, as in FIG. 7A. More specifically, FIG. 7B is a diagram for explaining a case where the mobile phone 1 has rotated about the vertical axis (z axis) as a rotation axis.

図7(b)を参照して、ジャイロセンサ29は、左右の傾きとして、矢印530および矢印540の向きの携帯型電話機1の傾きを検知する。ジャイロセンサ29による検知結果は、CPU301に送られる。CPU301は、傾き角(光軸1101の振れ角)が予め定められた閾値以上になった場合、シャッタボタン181が押下されても、メカニカルシャッタ112を用いた右目用画像データの生成は行なわない。このような構成により、携帯型電話機1は、好適な3D画像データの生成が可能となる。なお、以下では、携帯型電話機1が、矢印530または矢印540の向きに傾いたときの傾き角を、説明の便宜上「ヨー角」と称する。   Referring to FIG. 7B, gyro sensor 29 detects the tilt of mobile phone 1 in the directions of arrows 530 and 540 as the tilt to the left and right. The detection result by the gyro sensor 29 is sent to the CPU 301. When the tilt angle (the swing angle of the optical axis 1101) is equal to or greater than a predetermined threshold, the CPU 301 does not generate right-eye image data using the mechanical shutter 112 even when the shutter button 181 is pressed. With such a configuration, the mobile phone 1 can generate suitable 3D image data. Hereinafter, the tilt angle when the mobile phone 1 tilts in the direction of the arrow 530 or the arrow 540 is referred to as “yaw angle” for convenience of explanation.

図7(c)は、携帯型電話機1の姿勢の変化として、カメラ11の光軸1101に平行な軸(x軸に平行な軸)を回転軸として携帯型電話機1が回転する場合を説明するための図である。   FIG. 7C illustrates a case where the mobile phone 1 rotates as an axis parallel to the optical axis 1101 of the camera 11 (an axis parallel to the x axis) as a change in posture of the mobile phone 1. FIG.

図7(c)を参照して、ジャイロセンサ29は、上下の傾きとして、矢印550および矢印560の向きの携帯型電話機1の傾きを検知する。ジャイロセンサ29による検知結果は、CPU301に送られる。CPU301は、傾き角が予め定められた閾値以上になった場合、シャッタボタン181が押下されても、メカニカルシャッタ112を用いた右目用画像データの生成は行なわない。このような構成により、携帯型電話機1は、好適な3D画像データの生成が可能となる。なお、以下では、携帯型電話機1が、矢印550または矢印560の向きに傾いたときの傾き角を、説明の便宜上「ロール角」と称する。   Referring to FIG. 7C, gyro sensor 29 detects the tilt of mobile phone 1 in the directions of arrows 550 and 560 as the vertical tilt. The detection result by the gyro sensor 29 is sent to the CPU 301. When the tilt angle is equal to or greater than a predetermined threshold, the CPU 301 does not generate right-eye image data using the mechanical shutter 112 even when the shutter button 181 is pressed. With such a configuration, the mobile phone 1 can generate suitable 3D image data. Hereinafter, the tilt angle when the mobile phone 1 tilts in the direction of the arrow 550 or the arrow 560 is referred to as a “roll angle” for convenience of explanation.

図8は、携帯型電話機1の傾きの閾値を表したデータテーブル600を説明するための図である。なお、データテーブル600は、たとえば、フラッシュメモリ17に予め格納されている。図8を参照して、データテーブル600では、ピッチ角についての閾値として、“Th1”が格納されている。また、データテーブル600では、ヨー角についての閾値として、“Th2”が格納されている。さらに、データテーブルでは、ロール角についての閾値として、“Th3”が格納されている。CPU301は、データテーブル600の各閾値を参照して、メカニカルシャッタ112を用いた右目用画像データの生成を行うか否かを判断する。   FIG. 8 is a diagram for explaining a data table 600 that represents the tilt threshold of the mobile phone 1. The data table 600 is stored in advance in the flash memory 17, for example. Referring to FIG. 8, in data table 600, “Th1” is stored as a threshold value for the pitch angle. In the data table 600, “Th2” is stored as a threshold value for the yaw angle. Furthermore, in the data table, “Th3” is stored as a threshold value for the roll angle. The CPU 301 refers to each threshold value in the data table 600 and determines whether to generate image data for the right eye using the mechanical shutter 112.

なお、各閾値Th1〜Th3の値がユーザによって変更可能なように携帯型電話機1を構成してもよい。   Note that the mobile phone 1 may be configured so that the values of the threshold values Th1 to Th3 can be changed by the user.

このように、携帯型電話機1は、携帯型電話機1の姿勢の変化を検知するジャイロセンサ29を備えている。フラッシュメモリ17は、姿勢の変化に関する閾値Th1〜Th3を予め格納している。CPU301は、左目用画像データを生成したときを基準として携帯型電話機1の姿勢の変化が閾値以上になった場合、シャッタボタン181が押下されても、メカニカルシャッタ112を用いた右目用画像データの生成は行なわない。   As described above, the mobile phone 1 includes the gyro sensor 29 that detects a change in the posture of the mobile phone 1. The flash memory 17 stores in advance threshold values Th1 to Th3 related to posture changes. When the change in the attitude of the mobile phone 1 is equal to or greater than the threshold when the left-eye image data is generated, the CPU 301 sets the right-eye image data using the mechanical shutter 112 even when the shutter button 181 is pressed. Does not generate.

図9は、ディスプレイ20に表示される案内表示を説明するための図である。上述したように、携帯型電話機1の姿勢の変化が閾値以上となった場合には、シャッタボタン181が押下されても、メカニカルシャッタ112を用いた右目用画像データの生成は行なわない。つまり、携帯型電話機1は、右目用画像データの生成を許可しない。そこで、携帯型電話機1は、携帯型電話機1の姿勢の変化を閾値未満とするための案内表示をディスプレイ20に表示させる。   FIG. 9 is a diagram for explaining the guidance display displayed on the display 20. As described above, when the change in the attitude of the mobile phone 1 is equal to or greater than the threshold value, the right eye image data is not generated using the mechanical shutter 112 even when the shutter button 181 is pressed. That is, the mobile phone 1 does not permit the generation of right-eye image data. Therefore, the mobile phone 1 causes the display 20 to display a guidance display for setting the change in the posture of the mobile phone 1 to be less than the threshold value.

図9を参照して、例えば、携帯型電話機1が1回目の撮影のときに比べて、矢印520の向き(つまり、後ろ向き)に閾値Th1以上傾いてしまった場合、携帯型電話機1のCPU14は、ディスプレイ20に、携帯型電話機1を前向きに傾けるようにユーザを誘導する案内表示700を表示する。一方、携帯型電話機1が矢印510の向きに閾値Th1以上傾いてしまった場合には、CPU14は、ディスプレイ20に、携帯型電話機1を後向きに傾けるようにユーザを誘導する案内を表示する。   Referring to FIG. 9, for example, when the mobile phone 1 is tilted by the threshold Th1 or more in the direction of the arrow 520 (that is, backward) as compared with the first shooting, the CPU 14 of the mobile phone 1 Then, a guidance display 700 for guiding the user to tilt the mobile phone 1 forward is displayed on the display 20. On the other hand, when the mobile phone 1 is tilted by the threshold Th1 or more in the direction of the arrow 510, the CPU 14 displays guidance for guiding the user to tilt the mobile phone 1 backward on the display 20.

また、携帯型電話機1が矢印530の向きに閾値Th2以上傾いてしまった場合には、CPU14は、ディスプレイ20に、携帯型電話機1を右向きに傾けるようにユーザを誘導する案内を表示する。一方、携帯型電話機1が矢印540の向きに閾値Th2以上傾いてしまった場合には、CPU14は、ディスプレイ20に、携帯型電話機1を左向きに傾けるようにユーザを誘導する案内を表示する。   When the mobile phone 1 is tilted by the threshold Th2 or more in the direction of the arrow 530, the CPU 14 displays guidance for guiding the user to tilt the mobile phone 1 to the right on the display 20. On the other hand, when the mobile phone 1 is tilted by the threshold Th2 or more in the direction of the arrow 540, the CPU 14 displays guidance for guiding the user to tilt the mobile phone 1 leftward on the display 20.

また、携帯型電話機1が矢印550の向きに閾値Th3以上傾いてしまった場合には、CPU14は、ディスプレイ20に、携帯型電話機1を反時計回りに傾けるようにユーザを誘導する案内を表示する。一方、携帯型電話機1が矢印560の向きに閾値Th3以上傾いてしまった場合には、CPU14は、ディスプレイ20に、携帯型電話機1を時計回りに傾けるようにユーザを誘導する案内を表示する。   When the mobile phone 1 is tilted by the threshold Th3 or more in the direction of the arrow 550, the CPU 14 displays a guide for guiding the user to tilt the mobile phone 1 counterclockwise on the display 20. . On the other hand, when the mobile phone 1 is tilted in the direction of the arrow 560 by the threshold Th3 or more, the CPU 14 displays guidance for guiding the user to tilt the mobile phone 1 clockwise on the display 20.

当該構成により、ユーザは、メカニカルシャッタ112を用いた右目用画像データの生成が許可される撮像位置に携帯型電話機1を移動させることが可能となる。   With this configuration, the user can move the mobile phone 1 to an imaging position where generation of right-eye image data using the mechanical shutter 112 is permitted.

なお、上記においては、説明の簡略化のためz軸の正の向きを鉛直上向きとして説明したが、これに限定されるものではない。ユーザは、3D画像を得るために、携帯型電話機1を傾けた状態で被写体を撮像することもある。この場合であっても、上述したように、光軸1101の振れ角、および光軸1101に平行な軸を回転軸とした携帯型電話機1の傾き角を利用することにより、z軸の正の向きを鉛直上向きとした場合と同様、携帯型電話機1は好適な3D画像データの生成が可能となる。   In the above description, the positive direction of the z-axis is described as being vertically upward for simplification of description, but the present invention is not limited to this. In order to obtain a 3D image, the user may take an image of a subject with the mobile phone 1 tilted. Even in this case, as described above, by using the deflection angle of the optical axis 1101 and the inclination angle of the mobile phone 1 with the axis parallel to the optical axis 1101 as the rotation axis, the positive z-axis is obtained. As in the case where the orientation is vertically upward, the mobile phone 1 can generate suitable 3D image data.

図10は、第1の変形例における携帯型電話機1におけるデータ処理の一部の処理を説明するためのフローチャートである。具体的には、図10は、携帯型電話機1の動作モードが3D撮像モードに切替った状態におけるデータ処理の流れを示している。詳しくは、図10は、一例として、ピッチ角とヨー角とがそれぞれ閾値Th1,Th2以上となった場合に、メカニカルシャッタ112を用いた右目用画像データの生成を許可しない構成を説明するための図である。以下では、図5のフローチャートと異なる点を主として説明する。   FIG. 10 is a flowchart for explaining part of the data processing in the mobile phone 1 according to the first modification. Specifically, FIG. 10 shows the flow of data processing when the operation mode of the mobile phone 1 is switched to the 3D imaging mode. Specifically, FIG. 10 illustrates, as an example, a configuration that does not permit generation of right-eye image data using the mechanical shutter 112 when the pitch angle and the yaw angle are equal to or greater than the threshold values Th1 and Th2, respectively. FIG. Hereinafter, differences from the flowchart of FIG. 5 will be mainly described.

ステップS2の処理に先立ち、ステップS102において、CPU14は、ピッチ角Pとヨー角Yとの検知を開始する。ステップS2においてシャッタボタン181の押下げがなされた場合、ステップS12に先立ち、ステップS104において、CPU14は、現在のピッチ角Pおよびヨー角Yを、それぞれ、ピッチ角Poおよびヨー角YoとしてRAM16に記憶する。なお、「現在のピッチ角Pおよびヨー角Y」とは、シャッタボタン181の押下をCPU14が検知したときのピッチ角Pおよびヨー角Yを指す。   Prior to step S2, in step S102, the CPU 14 starts detecting the pitch angle P and the yaw angle Y. When the shutter button 181 is pressed in step S2, prior to step S12, in step S104, the CPU 14 stores the current pitch angle P and yaw angle Y in the RAM 16 as the pitch angle Po and yaw angle Yo, respectively. To do. “Current pitch angle P and yaw angle Y” refer to the pitch angle P and yaw angle Y when the CPU 14 detects that the shutter button 181 has been pressed.

ステップS28の後に、ステップS106において、CPU14は、以下の式(1)および式(2)がともに成立しているか否かを判断する。   After step S28, in step S106, the CPU 14 determines whether or not both of the following expressions (1) and (2) are established.

|Po−P| < Th1 … (1)
|Yo−Y| < Th2 … (2)
式(1)および式(2)がともに成立している場合(ステップS106においてYES)、CPU14は、処理をステップS18に進める。一方、式(1)および式(2)の少なくとも一方が成立していない場合、CPU14は、ステップS108において、ディスプレイ20に上述した案内表示をさせる。
| Po-P | <Th1 (1)
| Yo-Y | <Th2 (2)
When equations (1) and (2) are both established (YES in step S106), CPU 14 advances the process to step S18. On the other hand, when at least one of the formula (1) and the formula (2) is not established, the CPU 14 causes the display 20 to display the guidance described above in step S108.

ステップS18においてシャッタボタン181が押されたと判断された場合、ステップS30(図6参照)に先立ち、CPU14は、ステップS110の処理を実行する。具体的には、CPU14は、ステップS110において、ステップS106と同じ判断処理を実行する。   If it is determined in step S18 that the shutter button 181 has been pressed, the CPU 14 executes the process of step S110 prior to step S30 (see FIG. 6). Specifically, in step S110, the CPU 14 executes the same determination process as in step S106.

式(1)および式(2)がともに成立している場合(ステップS110においてYES)、CPU14は、処理をステップS30に進める。一方、式(1)および式(2)の少なくとも一方が成立していない場合、CPU14は、ステップS112において、ディスプレイ20に、メカニカルシャッタ112による撮像を許可しない旨の表示をさせる。CPU14は、ステップS112の後は、処理をステップS20に進める。   When Expression (1) and Expression (2) are both established (YES in Step S110), CPU 14 advances the process to Step S30. On the other hand, if at least one of Expression (1) and Expression (2) is not satisfied, the CPU 14 causes the display 20 to display that the imaging by the mechanical shutter 112 is not permitted in Step S112. After step S112, the CPU 14 advances the process to step S20.

なお、上記では、ピッチ角とヨー角とがそれぞれ閾値Th1,Th2以上となった場合に、メカニカルシャッタ112を用いた右目用画像データの生成を許可しない構成を例に挙げて説明したが、これに限定されるものではない。たとえば、ピッチ角とヨー角とロール角とがそれぞれ閾値Th1,Th2,Th3以上となった場合に、メカニカルシャッタ112を用いた右目用画像データの生成を許可しないように携帯型電話機1を構成してもよい。   In the above description, the configuration in which the generation of the image data for the right eye using the mechanical shutter 112 is not permitted when the pitch angle and the yaw angle are equal to or greater than the threshold values Th1 and Th2 has been described as an example. It is not limited to. For example, when the pitch angle, yaw angle, and roll angle are equal to or greater than the threshold values Th1, Th2, and Th3, respectively, the mobile phone 1 is configured not to permit generation of right-eye image data using the mechanical shutter 112. May be.

(f2.第2の変形例)
図11は、携帯型電話機1Aの外観を示した図である。図11(a)は、携帯型電話機1Aの正面図である。図11(b)は、携帯型電話機1Aの裏面図である。図11(c)は、被写体を撮像するときの状態を表した図である。
(F2. Second modification)
FIG. 11 is a diagram showing an appearance of the mobile phone 1A. FIG. 11A is a front view of the mobile phone 1A. FIG. 11B is a back view of the mobile phone 1A. FIG. 11C is a diagram illustrating a state when the subject is imaged.

図11(a)を参照して、携帯型電話機1Aは、ディスプレイ20と、シャッタボタン181を含む操作ボタン18とを備える。図11(b)を参照して、携帯型電話機1Aは、ディスプレイ20が設けられた表面とは反対側の表面に、カメラ11,12と、ストロボ19とを備える。図11(c)を参照して、ユーザは、被写体を横撮りするために、携帯型電話機1Aを右手902とで保持している。   With reference to FIG. 11A, the mobile phone 1 </ b> A includes a display 20 and operation buttons 18 including a shutter button 181. Referring to FIG. 11B, mobile phone 1A includes cameras 11 and 12 and strobe 19 on the surface opposite to the surface on which display 20 is provided. Referring to FIG. 11C, the user holds portable phone 1A with right hand 902 in order to take a picture of the subject.

携帯型電話機1Aは、3D撮像モードと、2D撮像モードとを備える。携帯型電話機1Aは、3D撮像モードとして動作している場合、カメラ11により撮像された左目用画像とカメラ12により撮像された右目用画像とに基づき、観察者から立体的に見える3D画像を生成する。携帯型電話機1Aは、視差バリア方式により、3D画像をディスプレイ20に表示する。   The mobile phone 1A includes a 3D imaging mode and a 2D imaging mode. When operating in the 3D imaging mode, the mobile phone 1A generates a 3D image that can be viewed stereoscopically from the observer based on the left-eye image captured by the camera 11 and the right-eye image captured by the camera 12. To do. The mobile phone 1A displays a 3D image on the display 20 by a parallax barrier method.

携帯型電話機1Aでは、横撮りの場合に、2つのカメラ11,12を同時に用いた被写体の撮像により、3D画像データを生成できる。しかしながら、携帯型電話機1Aでは、縦撮りの際には、2つのカメラ11,12を同時に用いても、3D画像データを生成することはできない。   The mobile phone 1A can generate 3D image data by capturing a subject using the two cameras 11 and 12 simultaneously in the case of landscape shooting. However, in the mobile phone 1A, 3D image data cannot be generated even when the two cameras 11 and 12 are used at the same time during vertical shooting.

そこで、携帯型電話機1Aでは、携帯型電話機1Aが縦撮りの姿勢になった場合、カメラ11およびカメラ12のうちいずれかのカメラの撮像を停止する。これにより、携帯型電話機1Aは、携帯型電話機1のように単眼式のカメラと同様な構成となる。したがって、携帯型電話機1Aにおいて、携帯型電話機1と同様の撮像処理を行うことにより、縦撮りであっても3D画像データを生成することが可能となる。   Therefore, in the mobile phone 1 </ b> A, when the mobile phone 1 </ b> A is in the vertical shooting posture, the imaging of either the camera 11 or the camera 12 is stopped. As a result, the mobile phone 1 </ b> A has the same configuration as a monocular camera like the mobile phone 1. Therefore, 3D image data can be generated even in vertical shooting by performing the same imaging process as that of the mobile phone 1 in the mobile phone 1A.

図12は、携帯型電話機1Aのハードウェア構成の要部を示した図である。図12を参照して、携帯型電話機1Aは、カメラ11と、カメラ12と、画像処理エンジン13と、RAM16と、フラッシュメモリ17と、ディスプレイ20と、リーダライタ22と、A/D変換器24と、A/D変換器25とを含む。リーダライタ22には、IC記録メディア221が装着されている。   FIG. 12 is a diagram showing a main part of the hardware configuration of the mobile phone 1A. Referring to FIG. 12, a mobile phone 1A includes a camera 11, a camera 12, an image processing engine 13, a RAM 16, a flash memory 17, a display 20, a reader / writer 22, and an A / D converter 24. And an A / D converter 25. An IC recording medium 221 is attached to the reader / writer 22.

カメラ12は、レンズ121と、メカニカルシャッタ122と、撮像素子123とを備
える。
The camera 12 includes a lens 121, a mechanical shutter 122, and an image sensor 123.

レンズ121は、外光を集光する。メカニカルシャッタ122は、レンズ121を通過した光を、撮像素子123に照射するか否かを切替えるための装置である。メカニカルシャッタ122は、シャッタボタン181の押下により動作する。より詳しくは、メカニカルシャッタ122は、CPU14の指令に基づき動作する。撮像素子123は、光を電気信号に変換する。また、撮像素子123は、電気信号をA/D変換器25に送る。撮像素子123は、たとえば、CCD(Charge Coupled Device)、CMOS(Charge Coupled Device)である。   The lens 121 collects external light. The mechanical shutter 122 is a device for switching whether to irradiate the image sensor 123 with light that has passed through the lens 121. The mechanical shutter 122 operates when the shutter button 181 is pressed. More specifically, the mechanical shutter 122 operates based on a command from the CPU 14. The image sensor 123 converts light into an electrical signal. Further, the image sensor 123 sends an electric signal to the A / D converter 25. The image sensor 123 is, for example, a CCD (Charge Coupled Device) or a CMOS (Charge Coupled Device).

A/D変換器25は、撮像素子123が出力したアナログ信号をデジタル信号に変換する。A/D変換器25は、変換により得られたデジタル信号を画像処理エンジン13に送る。   The A / D converter 25 converts the analog signal output from the image sensor 123 into a digital signal. The A / D converter 25 sends the digital signal obtained by the conversion to the image processing engine 13.

このように、携帯型電話機1Aは、カメラ12とA/D変換器25とさらに備える点において、携帯型電話機1のハードウェア構成と異なっている。その他ハードウェア構成は、携帯型電話機1と同じであるため、ここでは説明を繰り返さない。   Thus, the mobile phone 1A is different from the hardware configuration of the mobile phone 1 in that the camera 12 and the A / D converter 25 are further provided. Since other hardware configurations are the same as those of the mobile phone 1, the description thereof will not be repeated here.

(f3.第3の変形例)
上記においては、シャッタボタン181が押下げられることに基づき、メカニカルシャッタ112が動作する構成を例に挙げて説明したが、これに限定されるものではない。シャッタボタンの押下による外部入力の代わりに、ディスプレイ20に表示されたオブジェクトを選択する外部入力を受け付けたことに基づき、メカニカルシャッタ112を動作させてもよい。オブジェクトの一例としては、ユーザに対して、カメラ撮影を実行するためのソフトウェアボタンであることを認識させるための画像が挙げられる。
(F3. Third modification)
In the above description, the configuration in which the mechanical shutter 112 operates based on the depression of the shutter button 181 has been described as an example. However, the present invention is not limited to this. The mechanical shutter 112 may be operated based on receiving an external input for selecting an object displayed on the display 20 instead of an external input by pressing the shutter button. As an example of the object, an image for allowing the user to recognize that the button is a software button for performing camera photographing can be given.

(f4.第4の変形例)
上記において、左目用画像データを生成した後、右目用画像データを生成する構成を例に挙げて説明したが、左目用画像データと右目用画像データとの生成順序は、これに限定されるものではない。右目用画像データを生成した後、左目用画像データを生成するように、携帯型電話機1,1Aを構成してもよい。この場合、ユーザは、1回目のシャッタボタン181の押下の後に、携帯型電話機1を図1(c)の矢印990が示す向きとは逆の向きに携帯型電話機1,1Aを移動して、2回目のシャッタボタン181の押下を行なう必要がある。
(F4. Fourth modification)
In the above description, the configuration of generating the right-eye image data after generating the left-eye image data has been described as an example, but the generation order of the left-eye image data and the right-eye image data is limited to this. is not. The portable telephones 1 and 1A may be configured to generate the image data for the left eye after the image data for the right eye is generated. In this case, after the first press of the shutter button 181, the user moves the mobile phone 1, 1 </ b> A in the direction opposite to the direction indicated by the arrow 990 in FIG. It is necessary to press the shutter button 181 for the second time.

(f5.第5の変形例)
上記においては、携帯型電話機1,1Aが電子シャッタとメカニカルシャッタとを備える構成を例に挙げて説明したが、これに限定されるものではない。メカニカルシャッタを備えることなく、電子シャッタのみを備える構成であってもよい。つまり、電子シャッタにより、スルー画像データと、左目用画像データと、右目用画像データとを得る構成であってもよい。
(F5. Fifth modification)
In the above description, the mobile phone 1, 1 </ b> A has been described with reference to the configuration including the electronic shutter and the mechanical shutter, but the present invention is not limited to this. A configuration including only an electronic shutter without including a mechanical shutter may be employed. That is, the through image data, the left-eye image data, and the right-eye image data may be obtained by the electronic shutter.

(f6.第6の変形例)
上記においては、携帯型電話機1の姿勢の変化を検知する手段としてジャイロセンサ29を用いる場合を例に挙げて説明したが、これに限定されるものではない。たとえば、ジャイロセンサの代わりに、加速度センサおよび地磁気センサを用いてもよい。
(F6. Sixth Modification)
In the above description, the case where the gyro sensor 29 is used as the means for detecting the change in the attitude of the mobile phone 1 has been described as an example, but the present invention is not limited to this. For example, an acceleration sensor and a geomagnetic sensor may be used instead of the gyro sensor.

今回開示された実施の形態は例示であって、上記内容のみに制限されるものではない。本発明の範囲は特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time is an exemplification, and the present invention is not limited to the above contents. The scope of the present invention is defined by the terms of the claims, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1,1A 携帯型電話機、11,12 カメラ、13 画像処理エンジン、16,310 RAM、17 フラッシュメモリ、18 操作ボタン、20 ディスプレイ、22 リーダライタ、29 ジャイロセンサ、111,121 レンズ、112,122 メカニカルシャッタ、113,123 撮像素子、181 シャッタボタン、221 IC記録メディア、300 プロセッサ、320 ROM、600 データテーブル、700 案内表示、801,810 左目用画像データ、802 右目用画像データ、803,830 立体画像データ、820 スルー画像データ、1101 光軸。   1, 1A mobile phone, 11, 12 camera, 13 image processing engine, 16, 310 RAM, 17 flash memory, 18 operation buttons, 20 display, 22 reader / writer, 29 gyro sensor, 111, 121 lens, 112, 122 mechanical Shutter, 113, 123 Image sensor, 181 Shutter button, 221 IC recording medium, 300 processor, 320 ROM, 600 data table, 700 guidance display, 801, 810 Left-eye image data, 802 Right-eye image data, 803, 830 Stereoscopic image Data, 820 thru image data, 1101 optical axis.

Claims (10)

視差バリア方式で立体画像を表示するための立体画像データを生成する撮像装置であって、
プロセッサと、
メモリと、
被写体を撮像するための撮像素子と、
ディスプレイとを備え、
前記プロセッサは、
シャッタボタンの押下または前記ディスプレイに表示されたオブジェクトの選択に基づく外部入力を受け付けたことに基づき、前記撮像素子を用いて左目用画像データおよび右目用画像データのうちの一方の画像データを生成し、
前記一方の画像データが生成されたことに基づき、当該一方の画像データと前記撮像素子による撮像により得られたスルー画像データとを用いて立体画像データを生成し、
前記生成された立体画像データに基づく立体画像を前記ディスプレイに表示させ、
前記立体画像が前記ディスプレイに表示された状態で前記外部入力を再度受け付けると、前記撮像素子を用いて前記左目用画像データおよび前記右目用画像データのうちの他方の画像データを生成し、
前記他方の画像データが生成されたことに基づき、前記一方の画像データと当該他方の画像データとを用いて立体画像データを生成し、
前記一方の画像データと前記他方の画像データとを用いて生成された前記立体画像データを前記メモリに格納する、撮像装置。
An imaging apparatus that generates stereoscopic image data for displaying a stereoscopic image by a parallax barrier method,
A processor;
Memory,
An image sensor for imaging a subject;
With a display,
The processor is
Based on accepting an external input based on pressing of a shutter button or selection of an object displayed on the display, image data for one of left-eye image data and right-eye image data is generated using the imaging device. ,
Based on the generation of the one image data, three-dimensional image data is generated using the one image data and the through image data obtained by imaging with the imaging element,
Displaying a stereoscopic image based on the generated stereoscopic image data on the display;
When the external input is received again in a state where the stereoscopic image is displayed on the display, the image data for the left eye and the image data for the right eye are generated using the imaging element,
Based on the generation of the other image data, the one image data and the other image data are used to generate stereoscopic image data,
An imaging apparatus that stores the stereoscopic image data generated using the one image data and the other image data in the memory.
前記スルー画像データを生成するための電子シャッタと、
前記左目用画像データおよび前記右目用画像データを生成するためのメカニカルシャッタとをさらに備え、
前記プロセッサは、
前記外部入力を受け付けたことに基づき、前記メカニカルシャッタを用いて、前記左目用画像データおよび前記右目用画像データのうちの一方の画像データを生成し、
前記一方の画像データが生成されたことに基づき、当該一方の画像データと前記電子シャッタを用いた撮像により得られた前記スルー画像データとを用いて立体画像データを生成し、
前記立体画像が前記ディスプレイに表示された状態で前記外部入力を再度受け付けると、前記メカニカルシャッタを用いて、前記左目用画像データおよび前記右目用画像データのうちの他方の画像データを生成する、請求項1に記載の撮像装置。
An electronic shutter for generating the through image data;
A mechanical shutter for generating the left-eye image data and the right-eye image data;
The processor is
Based on receiving the external input, using the mechanical shutter, to generate one image data of the left-eye image data and the right-eye image data,
Based on the generation of the one image data, the stereoscopic image data is generated using the one image data and the through image data obtained by imaging using the electronic shutter,
When receiving the external input again in a state where the stereoscopic image is displayed on the display, the other image data of the left-eye image data and the right-eye image data is generated using the mechanical shutter. Item 2. The imaging device according to Item 1.
前記撮像装置の姿勢の変化を検知するセンサをさらに備え、
前記メモリは、前記姿勢の変化に関する閾値を予め格納しており、
前記プロセッサは、前記一方の画像データを生成したときを基準として前記姿勢の変化が前記閾値以上になった場合、前記再度の外部入力を受け付けても、前記他方の画像データを生成しない、請求項2に記載の撮像装置。
A sensor for detecting a change in posture of the imaging apparatus;
The memory stores in advance a threshold related to the change in posture,
The processor does not generate the other image data even if the second external input is accepted when the change in the posture is equal to or greater than the threshold value when the one image data is generated. 2. The imaging device according to 2.
前記プロセッサは、前記姿勢の変化に伴う前記撮像装置の光軸の振れ角が前記閾値以上になった場合、前記再度の外部入力を受け付けても、前記他方の画像データを生成しない、請求項3に記載の撮像装置。   The processor does not generate the other image data even if the second external input is accepted when the deflection angle of the optical axis of the imaging apparatus accompanying the change in the posture is equal to or greater than the threshold value. The imaging device described in 1. 前記センサは、前記姿勢の変化として、鉛直軸と前記一方の画像データを生成したときの光軸とに垂直な軸を回転軸とした前記撮像装置の傾きを検知する、請求項4に記載の撮像装置。   5. The sensor according to claim 4, wherein the sensor detects an inclination of the imaging apparatus with a vertical axis and an axis perpendicular to an optical axis when the one image data is generated as the change in posture. 6. Imaging device. 前記センサは、前記姿勢の変化として、鉛直軸を回転軸とした前記撮像装置の傾きを検知する、請求項4に記載の撮像装置。   The imaging device according to claim 4, wherein the sensor detects an inclination of the imaging device with a vertical axis as a rotation axis as the change in the posture. 前記センサは、前記姿勢の変化として、前記撮像装置の光軸に平行な軸を回転軸とした前記撮像装置の傾きを検知する、請求項3に記載の撮像装置。   The imaging device according to claim 3, wherein the sensor detects an inclination of the imaging device with an axis parallel to the optical axis of the imaging device as a rotation axis as the change in the posture. 前記プロセッサは、前記姿勢の変化が前記閾値以上となった場合には、前記姿勢の変化を前記閾値未満とするための案内表示を前記ディスプレイに表示させる、請求項3から7のいずれか1項に記載の撮像装置。   8. The processor according to claim 3, wherein when the change in the posture is equal to or greater than the threshold, the processor displays a guidance display for setting the change in the posture to be less than the threshold on the display. 9. The imaging device described in 1. 視差バリア方式で立体画像を表示するための立体画像データを生成する撮像装置における画像処理方法であって、
前記撮像装置が、シャッタボタンの押下またはディスプレイに表示されたオブジェクトの選択に基づく外部入力を受け付けたことに基づき、撮像素子を用いて左目用画像データおよび右目用画像データのうちの一方の画像データを生成するステップと、
前記撮像装置が、前記一方の画像データが生成されたことに基づき、当該一方の画像データと前記撮像素子による撮像により得られたスルー画像データとを用いて立体画像データを生成するステップと、
前記撮像装置が、前記生成された立体画像データに基づく立体画像をディスプレイに表示するステップと、
前記撮像装置が、前記立体画像が前記ディスプレイに表示された状態で前記外部入力を再度受け付けると、前記撮像素子を用いて前記左目用画像データおよび前記右目用画像データのうちの他方の画像データを生成するステップと、
前記撮像装置が、前記他方の画像データが生成されたことに基づき、前記一方の画像データと当該他方の画像データとを用いて立体画像データを生成するステップと、
前記撮像装置が、前記一方の画像データと前記他方の画像データとを用いて生成された前記立体画像データをメモリに格納するステップとを備える、画像処理方法。
An image processing method in an imaging apparatus for generating stereoscopic image data for displaying a stereoscopic image by a parallax barrier method,
The image pickup device accepts an external input based on pressing of a shutter button or selection of an object displayed on a display, and one image data of left eye image data and right eye image data using an image pickup device. A step of generating
The imaging device, based on the generation of the one image data, generating stereoscopic image data using the one image data and through image data obtained by imaging with the imaging element;
The imaging device displaying a stereoscopic image based on the generated stereoscopic image data on a display;
When the imaging device receives the external input again in a state where the stereoscopic image is displayed on the display, the other image data of the left-eye image data and the right-eye image data is obtained using the imaging device. Generating step;
The imaging device generates stereoscopic image data using the one image data and the other image data based on the generation of the other image data;
An image processing method, comprising: a step of storing the stereoscopic image data generated using the one image data and the other image data in a memory.
視差バリア方式で立体画像を表示するための立体画像データを生成する撮像装置を制御するためのプログラムであって、
シャッタボタンの押下またはディスプレイに表示されたオブジェクトの選択に基づく外部入力を受け付けたことに基づき、撮像素子を用いて左目用画像データおよび右目用画像データのうちの一方の画像データを生成するステップと、
前記一方の画像データが生成されたことに基づき、当該一方の画像データと前記撮像素子による撮像により得られたスルー画像データとを用いて立体画像データを生成するステップと、
前記生成された立体画像データに基づく立体画像をディスプレイに表示するステップと、
前記立体画像が前記ディスプレイに表示された状態で前記外部入力を再度受け付けると、前記撮像素子を用いて前記左目用画像データおよび前記右目用画像データのうちの他方の画像データを生成するステップと、
前記他方の画像データが生成されたことに基づき、前記一方の画像データと当該他方の画像データとを用いて立体画像データを生成するステップと、
前記一方の画像データと前記他方の画像データとを用いて生成された前記立体画像データをメモリに格納するステップとを、前記撮像装置に実行させる、プログラム。
A program for controlling an imaging device that generates stereoscopic image data for displaying a stereoscopic image by a parallax barrier method,
Generating image data of one of left-eye image data and right-eye image data using an imaging device based on receiving an external input based on pressing of a shutter button or selection of an object displayed on a display; ,
Generating one-dimensional image data using the one image data and the through-image data obtained by imaging by the imaging element based on the generation of the one image data;
Displaying a stereoscopic image on the display based on the generated stereoscopic image data;
When receiving the external input again in a state where the stereoscopic image is displayed on the display, generating the other image data of the left-eye image data and the right-eye image data using the imaging device;
Generating stereoscopic image data using the one image data and the other image data based on the generation of the other image data;
A program that causes the imaging apparatus to execute the step of storing the stereoscopic image data generated using the one image data and the other image data in a memory.
JP2011217576A 2011-09-30 2011-09-30 Imaging device, image processing method, and program Pending JP2013078038A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011217576A JP2013078038A (en) 2011-09-30 2011-09-30 Imaging device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011217576A JP2013078038A (en) 2011-09-30 2011-09-30 Imaging device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2013078038A true JP2013078038A (en) 2013-04-25

Family

ID=48481186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011217576A Pending JP2013078038A (en) 2011-09-30 2011-09-30 Imaging device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2013078038A (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003032704A (en) * 2001-07-19 2003-01-31 Seiko Epson Corp Photographing apparatus and method therefor, program and recording medium having recorded program
JP2004120059A (en) * 2002-09-24 2004-04-15 Sharp Corp Mobile apparatus
JP2006020111A (en) * 2004-07-02 2006-01-19 Pentax Corp Camera
JP2008048436A (en) * 2007-09-18 2008-02-28 Fujifilm Corp Photographic apparatus
JP2009069217A (en) * 2007-09-10 2009-04-02 Olympus Imaging Corp Camera
JP2010193377A (en) * 2009-02-20 2010-09-02 Nikon Corp Electronic camera
JP2010239564A (en) * 2009-03-31 2010-10-21 Casio Computer Co Ltd Imaging apparatus, imaging control method, and program
JP2011182122A (en) * 2010-02-26 2011-09-15 Fujitsu Ltd Device, method and program for photographing stereoscopic images

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003032704A (en) * 2001-07-19 2003-01-31 Seiko Epson Corp Photographing apparatus and method therefor, program and recording medium having recorded program
JP2004120059A (en) * 2002-09-24 2004-04-15 Sharp Corp Mobile apparatus
JP2006020111A (en) * 2004-07-02 2006-01-19 Pentax Corp Camera
JP2009069217A (en) * 2007-09-10 2009-04-02 Olympus Imaging Corp Camera
JP2008048436A (en) * 2007-09-18 2008-02-28 Fujifilm Corp Photographic apparatus
JP2010193377A (en) * 2009-02-20 2010-09-02 Nikon Corp Electronic camera
JP2010239564A (en) * 2009-03-31 2010-10-21 Casio Computer Co Ltd Imaging apparatus, imaging control method, and program
JP2011182122A (en) * 2010-02-26 2011-09-15 Fujitsu Ltd Device, method and program for photographing stereoscopic images

Similar Documents

Publication Publication Date Title
JP7185434B2 (en) Electronic device for capturing images using multiple cameras and image processing method using the same
JP5931206B2 (en) Image processing apparatus, imaging apparatus, program, and image processing method
JP6455474B2 (en) Image processing apparatus, image processing method, and program
JP2007295547A (en) Digital camera
JP7005324B2 (en) Imaging device, control method and program of imaging device
JP2011259168A (en) Stereoscopic panoramic image capturing device
JP2012222495A (en) Image processor, image processing method, and program
KR102330264B1 (en) Electronic device for playing movie based on movment information and operating mehtod thereof
JP5923595B2 (en) Image processing apparatus and method, and imaging apparatus
JP2018152787A (en) Imaging device, external device, imaging system, imaging method, operation method, and program
JP4635477B2 (en) Image photographing apparatus, pseudo three-dimensional image generation method, and program
KR102477993B1 (en) Display control apparatus, imaging apparatus, control method, and computer readable medium
JP2009258005A (en) Three-dimensional measuring device and three-dimensional measuring method
JPWO2012043003A1 (en) Stereoscopic image display apparatus and stereoscopic image display method
JP6257260B2 (en) Imaging apparatus and control method thereof
JP2020204874A (en) Image processing system, imaging system, image processing apparatus, imaging apparatus and program
WO2017145483A1 (en) Image processing device, image processing system, and program
JP2013175805A (en) Display device and image pickup device
JP2012124614A (en) Imaging apparatus and imaging apparatus control method
JP6376753B2 (en) Imaging apparatus, display control apparatus control method, and recording apparatus control method
JP5744642B2 (en) Image processing apparatus, image processing method, and program.
KR101700360B1 (en) Digital photographing apparatus, method for controlling the apparatus, and medium for recording the method
JP2013078038A (en) Imaging device, image processing method, and program
WO2024181175A1 (en) Image processing device and image processing method, virtual studio system, and imaging device
KR20120106019A (en) Multi-function camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141118

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150324