JP2012120107A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2012120107A
JP2012120107A JP2010270527A JP2010270527A JP2012120107A JP 2012120107 A JP2012120107 A JP 2012120107A JP 2010270527 A JP2010270527 A JP 2010270527A JP 2010270527 A JP2010270527 A JP 2010270527A JP 2012120107 A JP2012120107 A JP 2012120107A
Authority
JP
Japan
Prior art keywords
imaging
image
face
images
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010270527A
Other languages
Japanese (ja)
Inventor
Masahiro Tsuboi
眞佑 壷井
Akira Ugawa
明 鵜川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2010270527A priority Critical patent/JP2012120107A/en
Publication of JP2012120107A publication Critical patent/JP2012120107A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of allowing a user to photograph oneself in 3D in an appropriate and easy manner without missing whole or a part of the user's face on the image.SOLUTION: A camera 1 having a plurality of imaging parts disposed along a prescribed direction, serves as an imaging apparatus capable of photographing 3D images. The camera 1 includes: a display part 5 that acquires 3D images from two imaging parts 2R and 2L to display stereoscopic 3D images; and a control part 21 that controls to acquire a 3D image, when a user's face as a subject is detected in an overlapping area where two images, which are acquired by the photographing of the imaging parts 2R and 2L in a self photographing mode, are overlapped with each other, and when the user's whole face is included in a trimmed area without a part of the face being out of the frame when the two images are trimmed to be stereoscopically displayed in the display part 5.

Description

本発明は、撮影装置に関し、特に、3D撮影可能な撮影装置に関する。   The present invention relates to an imaging device, and more particularly to an imaging device capable of 3D imaging.

近年、カメラの自動化が進み、写真撮影に慣れていない者であっても、簡単に良好な写真を撮れるカメラが開発され、販売されている。最近では、良好な構図あるいはフレーミングで、簡単に写真撮影ができるカメラの提案も種々行われている。   In recent years, the automation of cameras has progressed, and cameras that can easily take good pictures have been developed and sold even for those who are not familiar with photography. Recently, various proposals have been made on a camera that can easily take a photograph with a good composition or framing.

例えば、人物撮影時に、人物の顔を検出し、その顔の位置が像内の所定の位置に位置すると、記録指示を出力して、撮影をガイドする撮影装置の提案がある(例えば、特許文献1参照)。   For example, when a person is photographed, there is a proposal of a photographing apparatus that detects a person's face and outputs a recording instruction when the face position is located at a predetermined position in the image to guide photographing (for example, Patent Documents). 1).

また、最近は、3D(3次元)表示機器を普及しつつあり、デジタルカメラの中には、3D撮影可能で、撮影した被写体の3D画像が立体的に見える3D表示部を有する3Dデジタルカメラも販売されている。   Recently, 3D (three-dimensional) display devices are becoming widespread. Among digital cameras, there are 3D digital cameras having a 3D display unit that can capture 3D images and can 3D images of the photographed subject. Sold.

特開2005−269562号公報JP 2005-269562 A

ところで、ユーザは、自分でカメラを持ち、レンズを自分の方に向けて自分を撮影する自分撮りを行う場合がある。
しかし、ユーザはカメラ背面の表示部を見ることができないため、撮影された画像を見ると、被写体である自分の顔が撮影画像内に正しく入っておらず、顔の一部が欠けてしまうようなことがしばしば生じる。そのため、自分撮りの場合、ユーザは、自分の顔が撮影画像内に入るまで何回か撮影をしなければならない場合がある。
By the way, there are cases where the user takes a self-portrait in which he / she owns the camera and takes the lens toward himself / herself.
However, since the user cannot see the display part on the back of the camera, when viewing the captured image, the subject's face is not correctly in the captured image, and part of the face may be missing. Something happens often. Therefore, in the case of self-shooting, the user may have to take several shots until his / her face enters the shot image.

また、上述した3Dデジタルカメラの場合、2つの撮像素子により得られた2つの画像同士の重なるオーバーラップ領域が3D画像となるため、そのオーバーラップ領域に顔が入っていない、あるいは顔の一部が欠けてしまう確率は、さらに高くなってしまう。そのため、自分の顔が撮影画像内に適切に入るまで撮影をしなければならない回数がさらに増えるという問題がある。   In the case of the 3D digital camera described above, since the overlap region where two images obtained by two image sensors overlap each other is a 3D image, no face is included in the overlap region or a part of the face. The probability of missing is even higher. Therefore, there is a problem that the number of times that the user has to shoot until his / her face properly enters the captured image further increases.

そこで、本発明は、ユーザが3D撮影で自分撮りをする場合に、3D画像内に自己の顔が入っていないあるいは顔の一部が欠けてしまうということなく、適切な3D撮影を容易に行うことができる撮影装置を提供することを目的とする。   Therefore, according to the present invention, when a user takes a self-portrait by 3D shooting, appropriate 3D shooting can be easily performed without having the face in the 3D image or missing a part of the face. An object of the present invention is to provide a photographing apparatus capable of performing the above.

本発明の一態様によれば、所定の方向に沿って配置された複数の撮像部を有して3D撮影の可能な撮影装置であって、前記複数の撮像部により3D撮影して得られた3D画像を立体表示可能な表示部と、所定のモード時に、前記複数の撮像部により撮像されて得られた複数の画像同士で重なり合うオーバーラップ領域に被写体である人の顔が検出され、かつ、前記複数の画像が前記表示部に立体表示するためにトリミングされたときに、そのトリミングされた領域内に前記人の顔が顔切れすることなく含まれている場合に、前記3D画像を取得するように制御する撮影制御部と、を有する撮影装置を提供することができる。   According to one aspect of the present invention, there is provided an imaging device having a plurality of imaging units arranged along a predetermined direction and capable of 3D imaging, and obtained by performing 3D imaging with the plurality of imaging units. A display unit capable of stereoscopically displaying a 3D image, and a face of a person who is a subject is detected in an overlapping region where a plurality of images obtained by the plurality of imaging units are captured in a predetermined mode; and When the plurality of images are trimmed for stereoscopic display on the display unit, the 3D image is acquired when the face of the person is included in the trimmed area without being cut off. Thus, it is possible to provide a photographing apparatus having a photographing control unit that performs control as described above.

本発明によれば、ユーザが3D撮影で自分撮りをする場合に、3D画像内に自己の顔が入っていないあるいは顔の一部が欠けてしまうということなく、適切な3D撮影を容易に行うことができる撮影装置を提供することができる。   According to the present invention, when a user takes a self-portrait by 3D shooting, appropriate 3D shooting can be easily performed without having a face in the 3D image or missing a part of the face. It is possible to provide an imaging device that can

本発明の実施の形態に係わる撮影装置の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the imaging device concerning embodiment of this invention. 本発明の実施の形態に係わる、3D撮影において得られる3D撮影範囲を説明するための図である。It is a figure for demonstrating the 3D imaging | photography range obtained in 3D imaging | photography concerning embodiment of this invention. 本発明の実施の形態に係わる、距離LがL1の場合の3D撮影範囲EDと3D画像範囲IDを説明するための図である。It is a figure for demonstrating 3D imaging | photography range ED and 3D image range ID in case distance L is L1 concerning embodiment of this invention. 本発明の実施の形態に係わる、距離Lが、L1よりも大きいL2の場合の3D撮影範囲EDと3D画像範囲IDを説明するための図である。It is a figure for demonstrating 3D imaging | photography range ED and 3D image range ID in case distance L is L2 larger than L1 concerning embodiment of this invention. 本発明の実施の形態に係わる、カメラ1の撮影及び再生時の処理の流れの例を示すフローチャートである。It is a flowchart which shows the example of the flow of a process at the time of imaging | photography and reproduction | regeneration of the camera 1 concerning embodiment of this invention. 本発明の実施の形態に係わる、自分撮りの場合のユーザとカメラの位置関係を説明するための図である。It is a figure for demonstrating the positional relationship of the user and camera in the case of self-portrait concerning embodiment of this invention.

以下、図面を参照して本発明の実施の形態を説明する。
まず図1に基づき、本実施の形態に係わる撮影装置の構成を説明する。図1は、本実施の形態に係わる撮影装置の構成を説明するためのブロック図である。
Embodiments of the present invention will be described below with reference to the drawings.
First, based on FIG. 1, the structure of the imaging device concerning this Embodiment is demonstrated. FIG. 1 is a block diagram for explaining the configuration of the photographing apparatus according to the present embodiment.

デジタルカメラ(以下、単にカメラともいう)1は、3D撮影が可能な撮影装置であり、2つの撮像装置と2つの対物光学系を有する撮像ユニット2と、信号処理及び制御部3と、撮影した画像を記憶する記録部4と、撮影した画像を表示する表示部5と、表示部5の表示面に取り付けられたタッチパネル6と、操作部7と、操作判定部8と、加速度センサ9と、ストロボ10と、時計部11と、スピーカ12とを含む。   A digital camera (hereinafter also simply referred to as a camera) 1 is a photographing device capable of 3D photographing, and is photographed with an imaging unit 2 having two imaging devices and two objective optical systems, a signal processing and control unit 3. A recording unit 4 for storing images, a display unit 5 for displaying captured images, a touch panel 6 attached to the display surface of the display unit 5, an operation unit 7, an operation determination unit 8, an acceleration sensor 9, A strobe 10, a clock unit 11, and a speaker 12 are included.

デジタルカメラ1は、2次元の静止画、2次元の動画、3次元の静止画及び3次元の動画の撮影が可能であり、撮影した画像を記録部4に記録し、かつ記録した画像を、表示部5に表示することができる。なお、以下の説明では、3次元の静止画撮影の場合についてのみ説明し、2次元の静止画等の撮影の場合については、説明は省略する。   The digital camera 1 can shoot a two-dimensional still image, a two-dimensional moving image, a three-dimensional still image, and a three-dimensional moving image, record the photographed image in the recording unit 4, and record the recorded image, It can be displayed on the display unit 5. In the following description, only the case of 3D still image shooting will be described, and description of the case of shooting 2D still images will be omitted.

撮像ユニット2は、カメラ1の本体の左右方向に沿って配置された右眼用の撮像部2Rと左眼用の撮像部2Lとを含む。各撮像部2R,2Lは、CCD等の撮像素子からなる撮像装置2aと、1以上のレンズからなる対物光学系2bとを含む。撮像装置2aは、対物光学系2bを通して受光した被写体像を光電変換して画像信号を生成して、信号処理及び制御部3へ出力する。2つの撮像部2L,2Rの2つの光軸OAは互いに平行で、かつ2つの光軸OA間は、距離Bだけ離れている。   The imaging unit 2 includes an imaging unit 2R for the right eye and an imaging unit 2L for the left eye that are arranged along the left-right direction of the main body of the camera 1. Each of the imaging units 2R and 2L includes an imaging device 2a including an imaging element such as a CCD and an objective optical system 2b including one or more lenses. The imaging device 2 a photoelectrically converts the subject image received through the objective optical system 2 b to generate an image signal, and outputs the image signal to the signal processing and control unit 3. The two optical axes OA of the two imaging units 2L and 2R are parallel to each other, and the two optical axes OA are separated by a distance B.

なお、本実施の形態では、撮像ユニット2は、左右2つの撮像部を有するが、所定の方向に沿って配置された3つ以上の撮像部を有してもよい。   In the present embodiment, the imaging unit 2 includes two left and right imaging units, but may include three or more imaging units arranged along a predetermined direction.

信号処理及び制御部3は、CPU、メモリなどを含む回路からなり、制御部21と、顔検出部22と、仮記録部23と、切り取り部24と、出力合成部25とを含んで構成されている。信号処理及び制御部3の各部については、後述する。   The signal processing and control unit 3 includes a circuit including a CPU, a memory, and the like, and includes a control unit 21, a face detection unit 22, a temporary recording unit 23, a cutout unit 24, and an output synthesis unit 25. ing. Each part of the signal processing and control unit 3 will be described later.

記録部4は、信号処理及び制御部3からの画像情報を図示しない記録媒体に記録する回路である。2D画像及び3D画像のデータは、記録部4に記録される。なお、記録部4は、例えばカードインターフェースを採用することができ、記録部4は、メモリカード等に画像情報を記録可能である。また、記録部4は、記録媒体に記録された画像情報を読み出して信号処理及び制御部3に供給することができる。   The recording unit 4 is a circuit that records image information from the signal processing and control unit 3 on a recording medium (not shown). The 2D image and 3D image data are recorded in the recording unit 4. The recording unit 4 can employ, for example, a card interface, and the recording unit 4 can record image information on a memory card or the like. Further, the recording unit 4 can read out image information recorded on the recording medium and supply it to the signal processing and control unit 3.

表示部5は、2つの撮像部2L,2Rにより3D撮影して得られた3D画像を立体表示可能な、パララックスバリア方式、レンチキュラ方式等の視差分割方式を採用した表示部である。視差分割方式においては、3D表示用のメガネ等を用いることなく、3D表示が可能である。そのため、表示部5は、右眼用表示領域5Rと左眼用表示領域5Lを有する。   The display unit 5 is a display unit that employs a parallax division method such as a parallax barrier method or a lenticular method, which can stereoscopically display a 3D image obtained by 3D imaging by the two imaging units 2L and 2R. In the parallax division method, 3D display is possible without using glasses for 3D display. Therefore, the display unit 5 includes a right-eye display area 5R and a left-eye display area 5L.

タッチパネル6は、ユーザが、指で指し示した表示部5の画面上の位置に応じた入力を行うための装置である。ユーザは、表示部5の画面上に表示された各種コマンドボタンを、タッチパネル6により指示することができる。タッチパネル6への入力信号は、信号処理及び制御部3に供給される。
操作部7は、カメラ1のボディに設けられた、ユーザにより操作されるレリーズボタン、設定ボタン等からなる。ユーザは、操作部7の所定のボタンを操作することによって、カメラ1を所望の撮影モードに設定することができ、所定のモードとして、後述する3D自分撮りモードも、設定することができる。
The touch panel 6 is a device for the user to input according to the position on the screen of the display unit 5 pointed by the finger. The user can instruct various command buttons displayed on the screen of the display unit 5 through the touch panel 6. An input signal to the touch panel 6 is supplied to the signal processing and control unit 3.
The operation unit 7 includes a release button, a setting button, and the like that are provided on the body of the camera 1 and are operated by the user. The user can set the camera 1 to a desired shooting mode by operating a predetermined button on the operation unit 7, and can also set a 3D self-shooting mode, which will be described later, as the predetermined mode.

操作判定部20は、操作部7からの操作信号を入力して、ユーザの種々の操作内容を判定する回路である。操作判定部20は、ユーザによる各種ボタン操作に応じた操作内容を示す操作信号を発生させて、信号処理及び制御部3に出力するようになっている。信号処理及び制御部3は、操作信号に基づいて、各部を制御する。   The operation determination unit 20 is a circuit that receives an operation signal from the operation unit 7 and determines various operation contents of the user. The operation determination unit 20 generates an operation signal indicating the operation content according to various button operations by the user and outputs the operation signal to the signal processing and control unit 3. The signal processing and control unit 3 controls each unit based on the operation signal.

加速度センサ9は、デジタルカメラ1の動きを検出するための動き検出部である。
ストロボ10は、ストロボ撮影時に発光する装置である。
時計部11は、信号処理及び制御部3が用いる時間情報を発生する。時間情報は、例えば、各種タイマー用、撮影画像の整理用等に用いられる。
スピーカ12は、制御部21からの制御の下で、所定の音を出力する音出力部である。
The acceleration sensor 9 is a motion detection unit for detecting the motion of the digital camera 1.
The strobe 10 is a device that emits light during strobe photography.
The clock unit 11 generates time information used by the signal processing and control unit 3. The time information is used, for example, for various timers and for organizing captured images.
The speaker 12 is a sound output unit that outputs a predetermined sound under the control of the control unit 21.

信号処理及び制御部3の制御部21は、カメラ1の全体の動作の制御を行うと共に、後述する3D自分撮り時の処理を実行する。
制御部21は、3D自分撮りのための処理を実行する撮影制御部であり、その処理のためのソフトウエアプログラムは、図示しないROMに記憶されている。
顔検出部22は、撮影された画像の中から人の顔を検出する処理を行う処理部である。
仮記録部23は、画像データを一時的に記録しておくためのメモリである。
切り取り部24は、後述するように、撮影した画像を立体表示するために、3D撮影時に得られた複数の画像から所定の範囲を切り取る処理、すなわちトリミング処理、を行う処理部である。3D撮影時のトリミング処理では、トリミングする範囲あるいは領域は、例えば、被写体までの距離に依存する場合がある。このような場合、トリミングする範囲あるいは領域は、オートフォーカス機能におけるピント位置、自分撮りモードにおいて予め決められた手の長さ、顔の大きさ、等の情報を用いて決定される。
The signal processing and control unit 21 of the control unit 3 controls the overall operation of the camera 1 and executes processing for 3D self-photographing described later.
The control unit 21 is a photographing control unit that executes processing for 3D self-portrait, and a software program for the processing is stored in a ROM (not shown).
The face detection unit 22 is a processing unit that performs a process of detecting a human face from a captured image.
The temporary recording unit 23 is a memory for temporarily recording image data.
As will be described later, the cutout unit 24 is a processing unit that performs a process of cutting out a predetermined range from a plurality of images obtained at the time of 3D shooting, that is, a trimming process, in order to stereoscopically display a shot image. In the trimming process at the time of 3D shooting, the range or area to be trimmed may depend on, for example, the distance to the subject. In such a case, the trimming range or area is determined using information such as the focus position in the autofocus function, the length of the hand determined in advance in the self-portrait mode, and the size of the face.

出力合成部25は、撮影された画像あるいは記録部4に記録された画像を出力するための処理部であり、特に3D画像を合成して出力可能な処理部である。出力合成部25は、表示部5に表示する画像の表示内容及び表示形態を制御する処理部である。   The output composition unit 25 is a processing unit for outputting a photographed image or an image recorded in the recording unit 4, and particularly a processing unit capable of synthesizing and outputting a 3D image. The output composition unit 25 is a processing unit that controls the display content and display form of an image displayed on the display unit 5.

なお、信号処理及び制御部3内の各部は、CPUにより実行されるソフトウエアプログラムでもよいし、ハードウエア回路でもよい。さらに、信号処理及び制御部3は、デジタルシグナルプロセッサ(DSP)により構成されていてもよい。   Each unit in the signal processing and control unit 3 may be a software program executed by a CPU or a hardware circuit. Furthermore, the signal processing and control unit 3 may be configured by a digital signal processor (DSP).

次に、ユーザが自分撮りする場合について説明する。
図2は、3D撮影において得られる3D撮影範囲を説明するための図である。デジタルカメラ1の撮像ユニット2における2つの撮像部2R、2Lは、上述したように、左右方向において、互いに基線長Bだけ離れて配置されている。
なお、図2では、各構成要素を図面上で認識可能な程度の大きさとするため、カメラ1及びその内部の構成要素のサイズ、基線長B等は、構成要素毎に縮尺を異ならせてある。
Next, a case where the user takes a selfie will be described.
FIG. 2 is a diagram for explaining a 3D imaging range obtained in 3D imaging. As described above, the two imaging units 2R and 2L in the imaging unit 2 of the digital camera 1 are arranged apart from each other by the baseline length B in the left-right direction.
In FIG. 2, the size of the camera 1 and its internal components, the base line length B, etc. are scaled differently for each component in order to make each component recognizable on the drawing. .

各撮像部の画角をθとし、カメラ1から被写体Sまでの距離をLとしたとき、各撮像部の撮影範囲X1は、次の式(1)により算出された値となる。   When the angle of view of each imaging unit is θ and the distance from the camera 1 to the subject S is L, the shooting range X1 of each imaging unit is a value calculated by the following equation (1).

X1=2×(L×tan(θ/2)) ・・・式(1)
また、3D撮影範囲EDは、2つの撮像部2R,2Lにより撮像された2つの画像同士で重なり合うオーバーラップ領域であるので、次の式(2)により算出された値となる。
X1 = 2 × (L × tan (θ / 2)) (1)
In addition, since the 3D imaging range ED is an overlap region where two images captured by the two imaging units 2R and 2L overlap each other, the 3D imaging range ED is a value calculated by the following equation (2).

ED=X1−B ・・・式(2)
例えば、X1=L×tanθに近似できるような画角θ(例えば、35mm判換算で略50mmのレンズに相当する)で、基線長Bが5cmで、距離Lが、自分撮りをする場合の距離、例えば50cm(=L1)、の場合、2つの撮像部2R、2Lによる3D撮影範囲EDは、次のようになる。
ED = X1−B Formula (2)
For example, an angle of view θ that can be approximated to X1 = L × tan θ (e.g., equivalent to a lens of approximately 50 mm in 35 mm format), a base line length B of 5 cm, and a distance L is a distance when taking a selfie. For example, in the case of 50 cm (= L1), the 3D imaging range ED by the two imaging units 2R and 2L is as follows.

ED=X1−B=L1×tanθ−B=50−5=45 ・・・式(3)
すなわち、3D撮影範囲EDは、横方向に45cmしかない。これでは、肩幅が45cmの人の場合は、被写体Sの顔を画面の略中央に位置させなければ、自分の3D撮影が適切にできないことになる。
ED = X1−B = L1 × tan θ−B = 50−5 = 45 Expression (3)
That is, the 3D imaging range ED is only 45 cm in the horizontal direction. In this case, if a person has a shoulder width of 45 cm, his / her 3D shooting cannot be performed properly unless the face of the subject S is positioned approximately at the center of the screen.

一方、カメラ1と被写体S間の距離Lが、L1より大きいL2の場合は、図2に示すように、距離L1の場合に比べて、3D撮影範囲EDは、広くなる。すなわち、カメラ1と被写体S間の距離Lが大きくなれば、3D撮影範囲EDも広くなる。しかし、自分でカメラ1を持って自分を撮影する、いわゆる自分撮りの場合は、カメラ1と被写体S間の距離Lは、50cm〜60cmであり、距離Lを大きく取ることはできない。   On the other hand, when the distance L between the camera 1 and the subject S is L2 which is larger than L1, as shown in FIG. 2, the 3D shooting range ED is wider than the distance L1. That is, as the distance L between the camera 1 and the subject S increases, the 3D shooting range ED also increases. However, in the case of so-called self-photographing where the user takes the camera 1 by himself, the distance L between the camera 1 and the subject S is 50 cm to 60 cm, and the distance L cannot be taken large.

カメラ1と被写体S間の距離Lに応じて、3D撮影範囲EDが狭くなることによる問題について、さらに詳述する。
図3と図4は、距離Lが、それぞれL1の場合とL1よりも大きいL2の場合の3D撮影範囲EDと3D画像範囲IDを説明するための図である。図3は、距離LがL1の場合の3D撮影範囲EDと3D画像範囲IDを説明するための図である。図4は、距離Lが、L1よりも大きいL2の場合の3D撮影範囲EDと3D画像範囲IDを説明するための図である。
The problem caused by the narrowing of the 3D shooting range ED according to the distance L between the camera 1 and the subject S will be described in further detail.
FIGS. 3 and 4 are diagrams for explaining the 3D imaging range ED and the 3D image range ID when the distance L is L1 and L2 larger than L1, respectively. FIG. 3 is a diagram for explaining the 3D imaging range ED and the 3D image range ID when the distance L is L1. FIG. 4 is a diagram for explaining the 3D imaging range ED and the 3D image range ID when the distance L is L2 larger than L1.

図3は、例えば、上記の式(3)で示すような条件で、自分でカメラを持って、いわゆる自分撮りをするような場合である。図3は、3D撮影範囲ED内に、被写体Sの顔が入っており、3D画像範囲EDの真ん中に顔が位置していることを示している。3D画像は、3D撮影範囲ED内の2枚の画像により表示可能となる。   For example, FIG. 3 shows a case where a so-called self-portrait is taken while holding the camera by himself / herself under the condition shown by the above formula (3). FIG. 3 shows that the face of the subject S is in the 3D shooting range ED, and the face is located in the middle of the 3D image range ED. The 3D image can be displayed by two images within the 3D shooting range ED.

現在市販されている3Dデジタルカメラの場合、撮影されて表示される3D画像は、表示部の画面のアスペクト比を考慮して、2点鎖線で示す表示領域CCが切り取られて、すなわちトリミングされて、表示される。従って、被写体Sの顔が3D撮影範囲ED内に入っていたとしても、顔の位置が2点鎖線で示す位置Pにあれば、表示部には、顔の一部の欠けた画像が、3D画像として表示されることになってしまう。   In the case of a 3D digital camera currently on the market, a display area CC indicated by a two-dot chain line is cut off, that is, trimmed, in consideration of the aspect ratio of the screen of the display unit in the 3D image that is captured and displayed. ,Is displayed. Therefore, even if the face of the subject S is within the 3D shooting range ED, if the face position is at the position P indicated by the two-dot chain line, an image with a part of the face missing is displayed on the display unit. It will be displayed as an image.

これに対して、図4のように、距離Lが比較的大きい場合、被写体Sの画像は、小さくなるので、表示部5の画面のアスペクト比を考慮しても、顔の一部が欠けた画像となる確率は低くなるが、自分撮りの場合、距離Lを長くとることが困難である。   On the other hand, as shown in FIG. 4, when the distance L is relatively large, the image of the subject S becomes small, so that even if the aspect ratio of the screen of the display unit 5 is taken into account, a part of the face is missing Although the probability of being an image is low, in the case of self-portrait, it is difficult to take a long distance L.

すなわち、ユーザが従来の3Dカメラを用いて自分を撮る場合、カメラ1の各撮像部において、被写体である自分を画面の略真ん中にしなければ、得られる3D画像は、顔の一部が欠けた画像となることが多かった。   That is, when a user takes a picture of himself / herself using a conventional 3D camera, the obtained 3D image lacks a part of the face unless the subject himself / herself is positioned at substantially the center of the screen in each imaging unit of the camera 1. It was often an image.

本実施の形態のカメラ1によれば、自分撮りの場合に、このような顔が欠けてしまうようなことなく、3D画像で自分を容易に撮ることができる。   According to the camera 1 of the present embodiment, in the case of self-photographing, the user can be easily photographed with a 3D image without such a face being missing.

図5は、カメラ1の撮影及び再生時の処理の流れの例を示すフローチャートである。図5の処理は、信号処理及び制御部3の制御部21により実行される。
撮影制御部である制御部21は、まず、カメラ1が撮影モードに設定されているか否かを判定し(S101)、カメラ1が撮影モードに設定されている場合(S101:YES)、3D自分撮りモードに設定されているか否かをさらに判定する(S102)。
FIG. 5 is a flowchart showing an example of a flow of processing at the time of shooting and reproduction by the camera 1. The processing of FIG. 5 is executed by the control unit 21 of the signal processing and control unit 3.
First, the control unit 21, which is a shooting control unit, determines whether or not the camera 1 is set to the shooting mode (S101). If the camera 1 is set to the shooting mode (S101: YES), 3D self It is further determined whether or not the shooting mode is set (S102).

カメラ1が3D自分撮りモードに設定されていない場合(S102:NO)、表示部5の全面にスルー画を表示する(S103)。即ち、信号処理及び制御部3は、撮像ユニット2からの撮像画像を取込み、所定の信号処理を施した後、出力合成部25を介して表示部5に、その撮像画像を出力する。   When the camera 1 is not set to the 3D selfie mode (S102: NO), a through image is displayed on the entire surface of the display unit 5 (S103). That is, the signal processing and control unit 3 takes a captured image from the imaging unit 2, performs predetermined signal processing, and then outputs the captured image to the display unit 5 via the output synthesis unit 25.

制御部21は、撮影者であるユーザにより、レリーズボタンが押されたか、すなわち撮影指示がされたか否かを判定し(S104)、撮影指示がされた場合は、撮影処理が行われる(S105)。   The control unit 21 determines whether or not the release button has been pressed by the user who is a photographer, that is, whether or not a shooting instruction has been given (S104). If a shooting instruction has been given, a shooting process is performed (S105). .

そして、制御部21は、撮像ユニット2からの撮像画像に対して所定の信号処理を施し符号化して画像ファイル化した後、そのファイル化したデータを記録部4に与えて記録する(S106)。   Then, the control unit 21 performs predetermined signal processing on the captured image from the imaging unit 2 and encodes it into an image file, and then gives the filed data to the recording unit 4 for recording (S106).

次に、制御部21は、電源オフの指示がされたか否かを判定し(S107)、電源オフの指示がされた場合(S107:YES)、電源をオフして、処理は終了する(S108)。電源がオフされない場合(S107:NO)、制御部21は、撮影モード及び再生モードの変更操作を受け付ける処理を実行して(S109)、処理をS101に戻す。
なお、撮影指示がされていない間は(S104:NO)、処理は、S107に移行する。
Next, the control unit 21 determines whether or not a power-off instruction has been issued (S107). When a power-off instruction has been issued (S107: YES), the power is turned off and the process ends (S108). ). When the power is not turned off (S107: NO), the control unit 21 executes a process of accepting an operation for changing the shooting mode and the playback mode (S109), and returns the process to S101.
Note that while the shooting instruction is not issued (S104: NO), the process proceeds to S107.

3D自分撮りモードが設定されている場合(S102:YES)、制御部21は、2つの撮像部2L,2Rによる撮像されて得られた2つの画像中の両方について、顔の検出を行う(S111)。この処理は、顔検出部22により、顔の検出が2つの画像のそれぞれについて行われる。   When the 3D self-portrait mode is set (S102: YES), the control unit 21 detects a face in both of the two images obtained by imaging by the two imaging units 2L and 2R (S111). ). In this process, the face detection unit 22 performs face detection for each of the two images.

なお、S102からS111への処理の移行は、3D自分撮りモードが設定された後、所定のボタンが、例えばレリーズボタンが、押されてから、行われるようにしてもよい。   The process transition from S102 to S111 may be performed after a predetermined button, for example, a release button is pressed after the 3D selfie mode is set.

制御部21は、顔検出部22により、2つの画像(すなわち左右の画像)に共に、顔が検出され、かつ顔が所定の位置あるいは範囲内にあるか否かを判定する(S112)。
S112では、例えば、左右の各画像において顔が検出されたときに、その検出された顔が2つ共、3D撮影範囲ED内にあるか否かあるいは2つの撮像部2R,2Lのそれぞれの画像中にあるか否かが判定される。検出された顔が所定の範囲内にあるか否かは、検出された顔の輪郭全体が、所定の範囲内に入るか否かにより、判定される。
The control unit 21 determines whether the face is detected in the two images (that is, the left and right images) by the face detection unit 22 and the face is within a predetermined position or range (S112).
In S112, for example, when a face is detected in each of the left and right images, whether or not both of the detected faces are within the 3D imaging range ED or the images of the two imaging units 2R and 2L. It is determined whether it is inside. Whether or not the detected face is within a predetermined range is determined by whether or not the entire contour of the detected face is within the predetermined range.

S112でYESの場合、制御部21は、2つの撮像部2R,2Lの2つの画像が3D画像表示のためのトリミングがされたときに、2つの画像の少なくとも一方において、検出された顔の顔切れが生じるか否かを判定する(S113)。すなわち、図3で説明したように、2つの撮像部2R,2Lの2つの画像の少なくとも一方において、3D画像として表示される表示領域CC内に、顔が存在しない、あるいは図3に示したように顔の一部が切れてしまうことがないかが、判定される。制御部21は、切り取り部24に、2つの撮像部2R,2Lの2つの画像に対する3D画像表示のためのトリミング処理を実行させて、そのトリミングされた領域の画像を用いて、S113の処理を行う。S113の判定は、トリミングされた領域内に、検出された顔の輪郭全体が、所定の範囲内に入るか否かにより、行われる。
以上のように、S113では、顔検出部22により検出された顔は、その大きさも判定されるので、その判定された大きさの顔全体が、表示領域CC内に入るか否かが判定される。
When YES in S112, the control unit 21 detects the face of the face detected in at least one of the two images when the two images of the two imaging units 2R and 2L are trimmed for 3D image display. It is determined whether or not a cut occurs (S113). That is, as described in FIG. 3, at least one of the two images of the two imaging units 2R and 2L has no face in the display area CC displayed as a 3D image, or as shown in FIG. It is determined whether a part of the face is not cut off. The control unit 21 causes the cropping unit 24 to perform a trimming process for 3D image display on the two images of the two imaging units 2R and 2L, and performs the process of S113 using the image of the trimmed area. Do. The determination in S113 is made based on whether or not the entire detected face contour falls within a predetermined range within the trimmed region.
As described above, in S113, since the size of the face detected by the face detection unit 22 is also determined, it is determined whether or not the entire face having the determined size falls within the display area CC. The

S112及びS113でYESの場合、すなわち、L画像とR画像において、顔が所定の位置等に検出され、かつトリミング時に顔切れが無い場合、制御部21は、2眼3D撮影を行う(S114)。すなわち、制御部21は2つの撮像部2R,2Lにより同時に撮像して得られた複数の画像であって(S111)、その同時に撮像して得られた複数の画像のオーバーラップ領域に人の顔が検出され(S112:YES)、かつ、同時に撮像して得られた複数の画像がトリミングされた領域内に人の顔が顔切れすることなく含まれている場合(S113:YES)に、同時に撮像して得られた2つの画像を3D画像として取得するように制御する。
S112でNOの場合あるいはS113でNOの場合、制御部21は、2つの撮像部2L,2Rの一方、例えば、撮像部2L(あるいは撮像部2Rでもよい)により、1眼撮影を行い、撮影した画像を、仮記録部23に仮記録する(S115)。
If YES in S112 and S113, that is, if the face is detected at a predetermined position or the like in the L image and the R image, and there is no face break during trimming, the control unit 21 performs binocular 3D shooting (S114). . That is, the control unit 21 is a plurality of images obtained by simultaneously capturing images by the two image capturing units 2R and 2L (S111), and a human face is placed in an overlapping region of the plurality of images obtained by simultaneously capturing the images. Is detected (S112: YES), and a plurality of images obtained by simultaneous imaging are included in the trimmed area without a human face being cut (S113: YES), Control is performed so that two images obtained by imaging are acquired as 3D images.
In the case of NO in S112 or NO in S113, the control unit 21 performs single-lens shooting with one of the two imaging units 2L and 2R, for example, the imaging unit 2L (or may be the imaging unit 2R). The image is temporarily recorded in the temporary recording unit 23 (S115).

S115の後、所定時間、例えば1秒、以内に、制御部21は、カメラ1が横方向にシフトしたか否かを判定する(S116)。カメラ1が横方向にシフトすなわち移動したか否かは、加速度センサ9の検出値を監視することによって、行われる。加速度センサ9からのカメラ1の左右方向の移動を示す出力値が、所定の閾値以上になったか否かにより、カメラ1の横シフトの有無が判定される。例えば、所定の閾値は、カメラ1の移動量が、例えば、1、2cmである値に対応する値である。
カメラ1の横シフトが行われない場合(S116:NO)、処理は、S11に戻る。
After S115, within a predetermined time, for example, 1 second, the control unit 21 determines whether or not the camera 1 has shifted laterally (S116). Whether the camera 1 is shifted or moved in the horizontal direction is determined by monitoring the detection value of the acceleration sensor 9. Whether or not the camera 1 is laterally shifted is determined based on whether or not an output value indicating the movement of the camera 1 in the left-right direction from the acceleration sensor 9 is equal to or greater than a predetermined threshold value. For example, the predetermined threshold is a value corresponding to a value in which the movement amount of the camera 1 is, for example, 1 or 2 cm.
When the horizontal shift of the camera 1 is not performed (S116: NO), the process returns to S11.

カメラ1の横シフトのあったことが検出されると(例えば、カメラ1が2cmだけ横シフトしたことが検出されると)、制御部21は、撮像部2L(あるいは撮像部2Rでもよい)により、2回目の1眼撮影を行い、撮影した画像を、仮記録部23に仮記録する(S117)。   When it is detected that the camera 1 has been laterally shifted (for example, when it is detected that the camera 1 has been laterally shifted by 2 cm), the control unit 21 may be controlled by the imaging unit 2L (or the imaging unit 2R). The second single-lens photographing is performed, and the photographed image is temporarily recorded in the temporary recording unit 23 (S117).

制御部21は、顔の位置がOKか否か、すなわち、仮記録された2つの画像が3D画像のためにトリミングされても、被写体の顔が、顔切れがなく、表示領域3D内にあるか否かを判定する(S118)。S118の処理は、上述したS112とS113の処理内容と同様である。すなわち、制御部21は、顔検出部22と切り取り部24を用いて、仮記録された2つの画像について、顔の検出及びトリミングを行い、被写体の顔が、顔切れがなく、表示領域3D内にあるか否かを判定する。   The control unit 21 determines whether or not the position of the face is OK, that is, even if the two temporarily recorded images are trimmed for a 3D image, the face of the subject is in the display area 3D without a face cut. It is determined whether or not (S118). The processing of S118 is the same as the processing contents of S112 and S113 described above. In other words, the control unit 21 uses the face detection unit 22 and the cropping unit 24 to perform face detection and trimming on the two temporarily recorded images, so that the subject's face has no face breaks and is within the display area 3D. It is determined whether or not.

S118でNOの場合、すなわち別々に撮影された2つの画像における顔の位置が3D画像を生成するには不適切な位置にある場合、制御部21は、S115とS117で仮記録した画像をリセットすなわち消去する(S119)。S115とS117で仮記録した画像を用いて生成される3D画像は、顔切れ等を含む3D画像となるからである。   In the case of NO in S118, that is, when the position of the face in two images photographed separately is in an inappropriate position for generating a 3D image, the control unit 21 resets the image temporarily recorded in S115 and S117. That is, it is deleted (S119). This is because the 3D image generated using the images temporarily recorded in S115 and S117 is a 3D image including a face break.

S118でYESの場合、処理は、S120は移行し、シャッター音が発生される。また、制御部21は、S114で撮影処理を行っても、シャッター音を発生させる(S120)。シャッター音は、カメラ1の本体に設けられた、スピーカ12から出力される。   If YES in S118, the process proceeds to S120, and a shutter sound is generated. Further, the control unit 21 generates a shutter sound even if the photographing process is performed in S114 (S120). The shutter sound is output from a speaker 12 provided in the main body of the camera 1.

すなわち、S114により2眼3D撮影がされた場合だけでなく、カメラ1の横方向の移動の前後での2回の1眼撮影により、トリミングされても顔切れのない3D画像が得られた場合も、シャッター音が出る。よって、ユーザは、3D自分撮りのモードに設定して、カメラ1を2眼3D撮影可能な向きに向けられたときには、直ぐにシャッター音が発生される。また、ユーザは、3D自分撮りのモードに設定して、カメラ1を2眼3D撮影可能な向きに向けられない場合には、シャッター音が出ないので、ユーザは、カメラ1を動かす。ユーザは、シャッター音が出ないので、カメラ1を動かすが、動かしている途中で、横方向にシフトがあって、かつトリミングしても顔切れがないような3D画像が得られた場合には、シャッター音が出る。   That is, not only when two-eye 3D shooting is performed by S114, but also when a single-lens shooting is performed twice before and after the camera 1 is moved in the horizontal direction, a 3D image that is trimmed even when trimmed is obtained. Even the shutter sound is emitted. Therefore, when the user sets the 3D self-portrait mode and points the camera 1 in a direction capable of two-eye 3D shooting, a shutter sound is immediately generated. Further, when the user sets the 3D self-portrait mode and the camera 1 cannot be directed in the direction capable of two-eye 3D shooting, no shutter sound is generated, so the user moves the camera 1. The user moves the camera 1 because there is no shutter sound, but if a 3D image is obtained in the middle of moving, there is a shift in the horizontal direction and the face is not cut out even after trimming. The shutter sound is heard.

よって、ユーザは、シャッター音が出るまでカメラ1を動かすという自然な撮影動作の中で、自動的に、自分撮りの3D撮影時に、顔切れなどがなく、3D画像を撮ることができる。
その後、制御部21は、左右の画像をペア化して、表示領域CCである共通部分をトリミングし(S121)、処理は、S106へ移行する。
Therefore, the user can automatically take a 3D image without a face cut or the like during 3D shooting of self-portrait in a natural shooting operation of moving the camera 1 until a shutter sound is emitted.
Thereafter, the control unit 21 pairs the left and right images, trims the common part that is the display area CC (S121), and the process proceeds to S106.

すなわち、制御部21は、同時に撮像して得られた複数の画像の前記オーバーラップ領域に人の顔が検出されず(S112:NO)、あるいは、同時に撮像して得られた複数の画像がトリミングされた領域内に人の顔が顔切れすることなく含まれていない場合(S113:NO)には、一の撮像部により仮撮影して得られた一の画像と、仮撮像後に、カメラ1の横方向への移動が検出されたときに仮撮影した他の画像とを得る。そして、制御部21は、仮撮影において得られた二つの画像のオーバーラップ領域に人の顔が検出され(S118)、かつ、仮撮影において得られた二つの画像がトリミングされた領域内に人の顔が顔切れすることなく含まれている場合(S118)に、仮撮影において得られた二つの画像を、3D画像として取得するように制御する。   That is, the control unit 21 does not detect a human face in the overlap region of a plurality of images obtained by simultaneous imaging (S112: NO), or trims a plurality of images obtained by simultaneous imaging. If the face of the person is not included in the recorded area without being cut (S113: NO), one image obtained by provisional photographing by one imaging unit and the camera 1 after provisional imaging are included. When the movement in the horizontal direction is detected, another image temporarily captured is obtained. Then, the control unit 21 detects a human face in the overlap region of the two images obtained in the provisional photographing (S118), and the person in the region in which the two images obtained in the provisional photographing are trimmed. When the face is included without being cut (S118), control is performed so that the two images obtained in the provisional shooting are acquired as 3D images.

なお、S118でNOの場合、すなわち別々に撮影された2つの画像における顔の位置が3D画像を生成するには不適切である場合、S115とS117で仮記録した画像をリセットされ、所定時間が経過したか否かが判定される(S131)。すなわち、3D自分撮りモードに設定されてから、所定時間、例えば10秒、が経過したか否かが判定され、所定時間経過していなければ、処理は、S111へ戻る。所定時間が経過すると(S131:YES)、制御部21は、所定の警告、例えば撮影できなかった旨の音声メッセージ、を出力し(S132)、処理は、S107へ移行する。すなわち、所定時間が経過すると、3D自分撮りが適切に行われなかったことが、ユーザに知らされる。   If NO in S118, that is, if the position of the face in two images taken separately is inappropriate for generating a 3D image, the temporarily recorded images are reset in S115 and S117, and the predetermined time is It is determined whether or not it has elapsed (S131). That is, it is determined whether or not a predetermined time, for example, 10 seconds has elapsed since the 3D selfie mode was set. If the predetermined time has not elapsed, the process returns to S111. When the predetermined time has elapsed (S131: YES), the control unit 21 outputs a predetermined warning, for example, a voice message indicating that the image could not be taken (S132), and the process proceeds to S107. That is, when a predetermined time has elapsed, the user is informed that 3D selfie has not been properly performed.

S101でNOの場合、すなわち撮影モードでない場合、制御部21は、再生モードが設定されているか否かを判定する(S121)。
制御部21は、S121において再生モードが指示されたものと判定すると、記録部4によって記録されたファイルの一覧の情報を読み出し、ファイル一覧表示を表示部5に表示させる。
If NO in S101, that is, if the shooting mode is not set, the control unit 21 determines whether or not the playback mode is set (S121).
When the control unit 21 determines that the reproduction mode is instructed in S121, the control unit 21 reads information on the list of files recorded by the recording unit 4 and causes the display unit 5 to display the file list display.

ファイル一覧の表示時に、ユーザがファイル選択を行うと(S123:YES)、制御部21は、選択されたファイルを記録部4から読み出し、復号化処理を行って、画像信号を再生する(S124)。制御部21の制御の下で、出力合成部25は、再生した画像信号を表示部5に供給して、再生された画像を表示させる。   When the user selects a file when displaying the file list (S123: YES), the control unit 21 reads the selected file from the recording unit 4, performs a decoding process, and reproduces an image signal (S124). . Under the control of the control unit 21, the output composition unit 25 supplies the reproduced image signal to the display unit 5 to display the reproduced image.

また、ファイル一覧表示時に、ファイルの選択も、終了操作も行われない場合(S123:NOかつS125:NO)、処理は、S122へ戻る。終了操作が行われた場合には(S125:YES)、制御部21は、処理をS107へ移行する。   If neither file selection nor end operation is performed during file list display (S123: NO and S125: NO), the process returns to S122. When the ending operation is performed (S125: YES), the control unit 21 moves the process to S107.

以上のように、制御部21は、自分撮りモード時に、2つの撮像部2R,2Lにより撮像されて得られた2つの画像同士で重なり合うオーバーラップ領域に被写体である人の顔が検出され、かつ、2つの画像が表示部5に立体表示するためにトリミングされたときに、そのトリミングされた領域内に人の顔が顔切れすることなく含まれている場合に(S112,S113:YES、及びS118:YES)、3D画像を取得するように制御する。   As described above, in the self-portrait mode, the control unit 21 detects the face of the person who is the subject in the overlap region where the two images obtained by the two imaging units 2R and 2L are overlapped, and When two images are trimmed for stereoscopic display on the display unit 5 and the human face is included in the trimmed area without being cut (S112, S113: YES, and S118: YES) Control to acquire a 3D image.

図6は、自分撮りの場合のユーザとカメラの位置関係を説明するための図である。ユーザは、カメラ1を3D自分撮りモードに設定して、カメラ1を手Hに把持した状態で腕を伸ばして、対物光学系2aを自分の方に向ける。   FIG. 6 is a diagram for explaining the positional relationship between the user and the camera in the case of self-portrait. The user sets the camera 1 to the 3D self-portrait mode, extends the arm while holding the camera 1 with the hand H, and points the objective optical system 2a toward the user.

もしも、そのときに、トリミング時に顔切れ無しで、撮影可能であれば、2眼3D撮影が行われる(S114)。S114によって3D自分撮りが出来たときには、シャッター音が鳴るので、ユーザは、3D自分撮りができたことを知ることができる。   If it is possible to shoot without trimming the face at the time of trimming at that time, two-lens 3D shooting is performed (S114). When 3D selfie is completed in S114, a shutter sound is generated, so that the user can know that 3D selfie has been completed.

しかし、シャッター音が鳴らないときには、ユーザは、カメラ1を横方向にシフトさせる。例えば、図6では、矢印LDで示す方向に、カメラ1は、点線で示す位置から、実線で示す位置まで移動されたとする。この移動の前後において仮記録された2つの画像において(S115,S117)、3D画像のためにトリミングされても顔切れ無しでユーザ自身が撮影がされているときには(S118:YES)、シャッター音が鳴るので、ユーザは、3D自分撮りができたことを知ることができる。   However, when the shutter sound does not sound, the user shifts the camera 1 in the horizontal direction. For example, in FIG. 6, it is assumed that the camera 1 is moved in the direction indicated by the arrow LD from the position indicated by the dotted line to the position indicated by the solid line. In the two images temporarily recorded before and after this movement (S115, S117), when the user himself / herself is photographed with no face cut even after trimming for a 3D image (S118: YES), a shutter sound is generated. Since it sounds, the user can know that 3D selfie has been completed.

所定時間内に、カメラ1の対物光学系2aの向きが適切に向けられない場合、すなわち、2眼3D撮影もされず、かつ2回の仮記録によっても顔切れの3D画像になってしまう場合は、何度も、2眼3D撮影が可能か否かが判定され、2眼3D撮影できない場合は、2回の仮記録による3D撮影が行われる。よって、ユーザは、シャッター音が鳴るまでは、カメラ1を横方向に移動させるという自然な撮影動作となる。   When the objective optical system 2a of the camera 1 is not properly oriented within a predetermined time, that is, when two-eye 3D photography is not performed, and a face becomes a 3D image due to two temporary recordings. In many cases, it is determined whether or not two-eye 3D imaging is possible. If two-eye 3D imaging is not possible, 3D imaging is performed by two temporary recordings. Therefore, the user performs a natural shooting operation of moving the camera 1 in the horizontal direction until the shutter sound is emitted.

また、そもそも、カメラ1には、2つの対物光学系2aがあるため、ユーザは、どちらの対物光学系を自分に向けるべきであるのかが、判らない。そして、上述したいように、カメラ1のモニタである表示部5の画面を見ることが出来ないので、ユーザは、自分が画面の真ん中に位置しているのかを知ることができない。   In the first place, since the camera 1 has two objective optical systems 2a, the user does not know which objective optical system should be directed to him. As described above, since the user cannot see the screen of the display unit 5 that is the monitor of the camera 1, the user cannot know whether he / she is located in the middle of the screen.

本実施の形態のカメラ1によれば、ユーザは、3D自分撮りモードに設定した後は、自分の方に、カメラ1の対物光学系2aを向け、シャッター音が鳴らなければ、カメラ1を横方向に動かすという簡単な操作をするだけで、2眼3D撮影による自分撮りか、2回の仮記録による3D画像による自分撮りが、実行される。
上述したように、自分撮りの場合、カメラ1と被写体との距離は、50cm〜60cm程度であり、横方向への2cm程度のシフトで、十分な3D画像を得ることができる。
According to the camera 1 of the present embodiment, after the user sets the 3D selfie mode, the user directs the objective optical system 2a of the camera 1 toward the user. By simply performing a simple operation of moving in the direction, self-portrait by two-eye 3D shooting or self-portrait by 3D image by two temporary recordings is executed.
As described above, in the case of self-portrait, the distance between the camera 1 and the subject is about 50 cm to 60 cm, and a sufficient 3D image can be obtained with a shift of about 2 cm in the lateral direction.

また、自分撮りの場合は、カメラ1のレンズを自分に向けながら、カメラ1を横方向にシフトさせることになるので、被写体を中心した円弧を描いて、カメラ1がシフトされる。よって、1眼撮影の2回撮影の場合、被写体の後ろの背景画像は、2眼3D撮影時よりも広く得られる。その結果、3D画像のための背景画像領域は広くなるので、3D画像の画角が広くなる、という効果が得られる。   Further, in the case of self-portrait, the camera 1 is shifted in the horizontal direction while pointing the lens of the camera 1 toward itself, so that the camera 1 is shifted while drawing an arc centering on the subject. Therefore, in the case of two-shot shooting of single-lens shooting, a background image behind the subject can be obtained more widely than in two-lens 3D shooting. As a result, since the background image area for the 3D image is widened, an effect that the angle of view of the 3D image is widened can be obtained.

以上のように、上述した本実施の形態のカメラ1によれば、ユーザが3D撮影で自分撮りをする場合に、3D画像内に自己の顔が入っていないあるいは顔の一部が欠けてしまうということなく、適切な3D撮影を容易に行うことができる。
なお、上記の実施の形態は、3D画像の自分撮りの例について説明したが、自分撮り以外の場合で、近距離のものを簡単に3D撮影する場合にも適用でき、有効であることは、言うまでもない。
本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。
As described above, according to the camera 1 of the present embodiment described above, when the user takes a self-portrait by 3D shooting, the face is not included in the 3D image or a part of the face is missing. That said, appropriate 3D shooting can be easily performed.
In addition, although the above-described embodiment has been described with respect to an example of 3D image self-portrait, it can be applied to cases other than self-portrait and easily 3D imaged at a short distance. Needless to say.
The present invention is not limited to the above-described embodiments, and various changes and modifications can be made without departing from the scope of the present invention.

1 デジタルカメラ、2 撮像ユニット、2a 撮像装置、2b 対物光学系、2R、2L 撮像部、R3 信号処理及び制御部、4 記録部、5 表示部、6 タッチパネル、7 操作部、8 操作判定部、9 加速度センサ、10 ストロボ、11 時計部、12 スピーカ DESCRIPTION OF SYMBOLS 1 Digital camera, 2 imaging unit, 2a imaging device, 2b objective optical system, 2R, 2L imaging part, R3 signal processing and control part, 4 recording part, 5 display part, 6 touch panel, 7 operation part, 8 operation determination part, 9 Accelerometer, 10 Strobe, 11 Clock, 12 Speaker

Claims (3)

所定の方向に沿って配置された複数の撮像部を有して3D撮影の可能な撮影装置であって、
前記複数の撮像部により3D撮影して得られた3D画像を立体表示可能な表示部と、
所定のモード時に、前記複数の撮像部により撮像されて得られた複数の画像同士で重なり合うオーバーラップ領域に被写体である人の顔が検出され、かつ、前記複数の画像が前記表示部に立体表示するためにトリミングされたときに、そのトリミングされた領域内に前記人の顔が顔切れすることなく含まれている場合に、前記3D画像を取得するように制御する撮影制御部と、
を有することを特徴とする撮影装置。
An imaging apparatus having a plurality of imaging units arranged along a predetermined direction and capable of 3D imaging,
A display unit capable of stereoscopically displaying a 3D image obtained by 3D imaging with the plurality of imaging units;
In a predetermined mode, a human face as a subject is detected in an overlapping region where a plurality of images captured by the plurality of imaging units overlap with each other, and the plurality of images are stereoscopically displayed on the display unit A shooting control unit that controls to acquire the 3D image when the face of the person is included in the trimmed area without being cut when the image is trimmed to
A photographing apparatus comprising:
前記撮影制御部は、前記複数の画像が前記複数の撮像部により同時に撮像して得られた複数の画像であって、その同時に撮像して得られた複数の画像の前記オーバーラップ領域に前記人の顔が検出され、かつ、前記同時に撮像して得られた複数の画像が前記トリミングされた領域内に前記人の顔が顔切れすることなく含まれている場合に、前記同時に撮像して得られた複数の画像を前記3D画像として取得し、
前記撮影制御部は、前記同時に撮像して得られた複数の画像の前記オーバーラップ領域に前記人の顔が検出されず、あるいは、前記同時に撮像して得られた複数の画像が前記トリミングされた領域内に前記人の顔が顔切れすることなく含まれていない場合には、一の撮像部により仮撮影して得られた一の画像と、前記仮撮像後に、前記撮影装置の前記所定の方向への移動が検出されたときに仮撮影した他の画像とを得て、前記仮撮影において得られた二つの画像の前記オーバーラップ領域に前記人の顔が検出され、かつ、前記仮撮影において得られた二つの画像が前記トリミングされた領域内に前記人の顔が顔切れすることなく含まれている場合に、前記前記仮撮影において得られた二つの画像を前記3D画像として取得することを特徴とする請求項1に記載の撮影装置。
The imaging control unit is a plurality of images obtained by simultaneously imaging the plurality of images by the plurality of imaging units, and the person is placed in the overlap region of the plurality of images obtained by simultaneously imaging the plurality of images. And when the plurality of images obtained by imaging at the same time are included in the trimmed area without the face being cut out, the images are obtained at the same time. A plurality of images obtained as the 3D image,
The photographing control unit does not detect the human face in the overlap region of the plurality of images obtained by simultaneous imaging, or the plurality of images obtained by simultaneous imaging are trimmed. When the face of the person is not included in the region without being cut out, one image obtained by provisional imaging by one imaging unit, and after the provisional imaging, the predetermined image of the imaging apparatus When the movement in the direction is detected and another image temporarily captured, the human face is detected in the overlap region of the two images obtained in the provisional imaging, and the provisional photographing The two images obtained in the provisional photographing are acquired as the 3D image when the two images obtained in the step are included in the trimmed region without the face being cut off. It is characterized by The imaging device according to claim 1.
前記撮影制御部は、前記所定のモード時に、前記オーバーラップ領域に前記人の顔が検出され、かつ、前記トリミングされた領域内に前記人の顔が顔切れすることなく含まれている場合に、所定の音を出力するように音出力部を制御することを特徴とする請求項1又は2に記載の撮影装置。   In the predetermined mode, when the human face is detected in the overlap area and the human face is included in the trimmed area without being cut out in the predetermined mode. The imaging apparatus according to claim 1, wherein the sound output unit is controlled to output a predetermined sound.
JP2010270527A 2010-12-03 2010-12-03 Imaging apparatus Pending JP2012120107A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010270527A JP2012120107A (en) 2010-12-03 2010-12-03 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010270527A JP2012120107A (en) 2010-12-03 2010-12-03 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2012120107A true JP2012120107A (en) 2012-06-21

Family

ID=46502422

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010270527A Pending JP2012120107A (en) 2010-12-03 2010-12-03 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2012120107A (en)

Similar Documents

Publication Publication Date Title
JP5547854B2 (en) Portrait image synthesis from multiple images captured by a portable device
JP6252849B2 (en) Imaging apparatus and method
JP5814566B2 (en) IMAGING DEVICE, IMAGING METHOD, AND IMAGING DEVICE CONTROL PROGRAM
JP5371845B2 (en) Imaging apparatus, display control method thereof, and three-dimensional information acquisition apparatus
JP2010252046A (en) Image pickup apparatus
JP5230013B2 (en) Imaging device
JP2005128156A (en) Focusing device and method
JP5526233B2 (en) Stereoscopic image photographing apparatus and control method thereof
JP5530322B2 (en) Display device and display method
JP2011166756A (en) Photographing apparatus and photographing system
JP2012186612A (en) Imaging device
JP2010109671A (en) Image capturing apparatus
JP2012090259A (en) Imaging apparatus
JP5987270B2 (en) Camera that can display stereoscopic images
JP5907660B2 (en) Imaging device
JP2013085239A (en) Imaging apparatus
JP6700693B2 (en) Imaging device, control method thereof, program, and storage medium
JP2005070077A (en) Digital camera
JP2012120107A (en) Imaging apparatus
JP2011091463A (en) 3d imaging apparatus and operation control method thereof
JP5750792B1 (en) Imaging apparatus, imaging method, and program
KR20130047343A (en) Camera module and method for obtaining three-dimensional photographic image of the same
JP5409481B2 (en) Compound eye photographing apparatus and program
JP5419148B2 (en) Imaging apparatus and program
JP2023157521A (en) Electronic apparatus, method for controlling electronic apparatus, program, and storage medium