JP2009047912A - Stereoscopic imaging apparatus - Google Patents

Stereoscopic imaging apparatus Download PDF

Info

Publication number
JP2009047912A
JP2009047912A JP2007213737A JP2007213737A JP2009047912A JP 2009047912 A JP2009047912 A JP 2009047912A JP 2007213737 A JP2007213737 A JP 2007213737A JP 2007213737 A JP2007213737 A JP 2007213737A JP 2009047912 A JP2009047912 A JP 2009047912A
Authority
JP
Japan
Prior art keywords
image
dominant eye
eye
photographer
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007213737A
Other languages
Japanese (ja)
Other versions
JP5231771B2 (en
Inventor
Kenichiro Ayaki
健一郎 綾木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007213737A priority Critical patent/JP5231771B2/en
Publication of JP2009047912A publication Critical patent/JP2009047912A/en
Application granted granted Critical
Publication of JP5231771B2 publication Critical patent/JP5231771B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To take a stereoscopic image with composition and facial expression that reflect an intention of a photographer, by using an image, which is taken by an imaging means compatible with a dominant eye of the photographer, as a representative image. <P>SOLUTION: An apparatus detects a face of the photographer who looks in a finder as a detected object, by using two or more object detection sensors, which are horizontally spaced apart at the rear of an apparatus body, and determines the dominant eye of the photographer who looks in the finder on the basis of each detection output of the two or more object detection sensors. Thereby, the dominant eye of the photographer can automatically be determined without troubling the photographer. Preferably, a rear camera may be arranged at the rear of a camera body, and the eye looking at a monitor, i.e. the dominant eye may be determined on the basis of the image taken by the rear camera. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は立体画像撮影装置に係り、特に利き目を考慮した表示等が可能な立体画像撮影装置に関する。   The present invention relates to a stereoscopic image capturing apparatus, and more particularly to a stereoscopic image capturing apparatus capable of displaying in consideration of the dominant eye.

複眼カメラで撮影した複数枚(例えば2枚)の平面画像で構成される立体画像を、通常の液晶ディスプレイやTV画面の構図や被写体の表情を確認する方法として、(1)2枚の画像を並べて表示する方法や(2)2枚の平面画像のうち1枚を選択して表示する方法が考えられる。   As a method of confirming the composition of a normal liquid crystal display or TV screen and the expression of a subject from a stereoscopic image composed of a plurality of (for example, two) planar images taken with a compound eye camera, (1) two images A method of displaying them side by side and (2) a method of selecting and displaying one of two planar images are conceivable.

しかしながら、(1)の方法で表示を行う場合には、表示領域が2倍となるため煩雑となる。また、(2)の方法で表示を行う場合には、表情や構図を簡便に確認することができるが、2枚の平面画像のうちどちらを表示すべきであるか、という課題があった。   However, when displaying by the method (1), the display area is doubled, which is complicated. Further, when displaying by the method (2), the expression and composition can be easily confirmed, but there is a problem of which of the two plane images should be displayed.

複数枚の画像から所望の画像を選択する技術として、特許文献1には、画像の評価値に基づいて複数枚の画像から所望の1枚の画像を代表画像として選出する技術が開示されている。   As a technique for selecting a desired image from a plurality of images, Patent Document 1 discloses a technique for selecting one desired image as a representative image from a plurality of images based on the evaluation value of the image. .

人間が立体を知覚する場合には利き目で目標物を視認し、それ以外の目で立体用の付加情報を得ている。立体視を行う場合に利き目の情報を使用するものとして、以下の技術が開示されている。   When a human perceives a solid, the target is visually recognized with the dominant eye, and additional information for the solid is obtained with the other eyes. The following technique is disclosed as using dominant eye information when performing stereoscopic viewing.

特許文献2には、頭部に装着して立体画像を鑑賞する表示装置において、電源電圧が基準値以下の場合には、利き目設定手段により設定された利き目の情報に基づいて、利き目用の表示部のみを駆動する技術が開示されている。   In Patent Document 2, in a display device that is worn on the head and views a stereoscopic image, when the power supply voltage is lower than a reference value, the dominant eye is set based on the dominant eye information set by the dominant eye setting means. A technique for driving only the display unit is disclosed.

特許文献3には、立体画像表示装置とカーソルとを用いて画像の操作を行う場合において、取得した利き目の情報に応じたカーソル等の表示を行う技術が開示されている。   Patent Document 3 discloses a technique for displaying a cursor or the like corresponding to acquired dominant eye information when an image is operated using a stereoscopic image display device and a cursor.

特許文献4には、頭部に装着して立体画像を鑑賞する表示装置において、自動的に利き目を判定し、利き目の画像を外部モニタ等へ出力させる技術が開示されている。
特開2007―25876号公報 特開平8―179275号公報 特開2004―362218号公報 特開2007―34628号公報
Patent Document 4 discloses a technique for automatically determining the dominant eye and outputting an image of the dominant eye to an external monitor or the like in a display device that is worn on the head and views a stereoscopic image.
JP 2007-25876 A JP-A-8-179275 JP 2004-362218 A JP 2007-34628 A

しかしながら、特許文献1に記載の技術においては、撮影された画像の評価値(画像の画質、撮影条件など)に基づいて代表画像を選定するものであり、利き目等の撮影者の特性が反映された代表画像を選定することができない。   However, in the technique described in Patent Document 1, a representative image is selected based on an evaluation value (image quality, image capturing condition, etc.) of a captured image, and the characteristics of the photographer such as dominant eyes are reflected. The selected representative image cannot be selected.

また、特許文献2〜4に記載の技術は、利き目の情報を用いて立体画像を表示させる技術であり、利き目の情報を撮影時に用いるものではない。   The techniques described in Patent Documents 2 to 4 are techniques for displaying a stereoscopic image using dominant eye information, and do not use dominant eye information at the time of photographing.

本発明はこのような事情に鑑みてなされたもので、撮影者の利き目に対応する撮像手段で撮影された画像を代表画像とすることで、撮影者の意図を反映した構図や表情で立体画像を撮影可能な立体画像撮影装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and an image captured by an imaging unit corresponding to a photographer's dominant eye is used as a representative image, so that a three-dimensional structure and expression reflecting the photographer's intention can be obtained. It is an object of the present invention to provide a stereoscopic image photographing apparatus capable of photographing an image.

請求項1に記載の立体画像撮影装置は、複数の視点から見た被写体像を立体画像として撮影する複数の撮像手段を備えた立体画像撮影装置において、装置本体の背面に左右方向に離間して配設された2つ以上の物体検出センサであって、ファインダを覗いた撮影者の顔を検出物体として検出する物体検出センサと、前記2つ以上の物体検出センサのそれぞれの検出出力に基づいてファインダを覗いた撮影者の利き目を判断する利き目判断手段と、を備えたことを特徴とする。   The stereoscopic image capturing apparatus according to claim 1 is a stereoscopic image capturing apparatus including a plurality of imaging units that capture subject images viewed from a plurality of viewpoints as a stereoscopic image, and is spaced apart from the back of the apparatus main body in the left-right direction. Two or more object detection sensors arranged, the object detection sensor for detecting the photographer's face looking through the finder as a detection object, and the detection outputs of the two or more object detection sensors A dominant eye judging means for judging a dominant eye of a photographer looking through the viewfinder.

請求項1に記載の立体画像撮影装置によれば、装置本体の背面に左右方向に離間して配設された2つ以上の物体検出センサによって、ファインダを覗いた撮影者の顔を検出物体として検出し、2つ以上の物体検出センサのそれぞれの検出出力に基づいてファインダを覗いた撮影者の利き目を判断する。これにより、撮影者の手を煩わすことなく、撮影者の利き目を自動的に判断することができる。   According to the three-dimensional image photographing device of claim 1, the photographer's face looking through the finder is detected as an object to be detected by the two or more object detection sensors disposed on the back surface of the device body so as to be separated in the left-right direction. Detection is performed, and the dominant eye of the photographer looking through the viewfinder is determined based on the detection output of each of the two or more object detection sensors. Thereby, it is possible to automatically determine the dominant eye of the photographer without bothering the photographer.

請求項2に記載の立体画像撮影装置は、請求項1に記載の立体画像撮影装置において、前記物体検出センサは、指向性の高い光を出射し、検出物体によって反射する光の有無、又は反射する光の光量に対応する信号を出力する光電センサであることを特徴とする。   The stereoscopic image capturing apparatus according to claim 2 is the stereoscopic image capturing apparatus according to claim 1, wherein the object detection sensor emits light having high directivity and the presence or absence of light reflected by the detected object, or reflection. It is a photoelectric sensor that outputs a signal corresponding to the amount of light to be emitted.

請求項3に記載の立体画像撮影装置は、請求項1又は2に記載の立体画像撮影装置において、前記センサは、装置本体の背面の略中央に設けられたファインダの近傍に設けられた第1のセンサと、前記装置本体の背面の端部に設けられた第2のセンサと、で構成されたことを特徴とする。   The stereoscopic image capturing apparatus according to a third aspect is the stereoscopic image capturing apparatus according to the first or second aspect, wherein the sensor is provided in the vicinity of a finder provided in a substantial center of the back surface of the apparatus main body. And a second sensor provided at an end of the back surface of the apparatus main body.

請求項3に記載の立体画像撮影装置によれば、装置本体の背面の略中央に設けられたファインダの近傍に設けられた第1のセンサ、及び装置本体の背面の端部に設けられた第2のセンサのそれぞれの検出出力に基づいてファインダを覗いた撮影者の利き目を判断する。これにより、ファインダを覗いた撮影者を確実に検出することができる。   According to the three-dimensional image capturing apparatus of the third aspect, the first sensor provided in the vicinity of the finder provided in the approximate center of the back surface of the apparatus main body, and the first sensor provided at the end of the back surface of the apparatus main body. Based on the detection output of each of the two sensors, the dominant eye of the photographer looking through the viewfinder is determined. As a result, the photographer looking through the viewfinder can be reliably detected.

請求項4に記載の立体画像撮影装置は、請求項3に記載の立体画像撮影装置において、前記第2のセンサは、前記装置本体の背面の左端に設けられた左側センサと、前記装置本体の背面の右端に設けられた右側センサとで構成され、前記利き目判定手段は、前記第1のセンサ及び前記左側センサで撮影者が検出された場合には、撮影者の利き目は右目であると判断し、前記第1のセンサ及び前記右側センサで撮影者が検出された場合には、撮影者の利き目は左目であると判断することを特徴とする。   The stereoscopic image capturing apparatus according to claim 4 is the stereoscopic image capturing apparatus according to claim 3, wherein the second sensor includes a left sensor provided at a left end of a back surface of the apparatus main body, and the apparatus main body. A right sensor provided at the right end of the back surface, and the dominant eye determination means has a right eye when a photographer is detected by the first sensor and the left sensor. If the photographer is detected by the first sensor and the right sensor, it is determined that the dominant eye of the photographer is the left eye.

請求項4に記載の立体画像撮影装置によれば、センサは、略中央部の光学ファインダの近傍に設けられた第1のセンサと、左端に設けられた左側センサと、右端に設けられた右側センサとで構成される。第1のセンサ及び左側センサで撮影者が検出された場合には、操作者の利き目は右目であると判断し、第1のセンサ及び右側センサで撮影者が検出された場合には、操作者の利き目は左目であると判断する。これにより、撮影者の手を煩わすことなく、撮影者の利き目を自動的に判断することができる。   According to the stereoscopic image capturing apparatus of claim 4, the sensors are a first sensor provided in the vicinity of the optical viewfinder at a substantially central portion, a left sensor provided at the left end, and a right side provided at the right end. It consists of a sensor. When the photographer is detected by the first sensor and the left sensor, it is determined that the dominant eye of the operator is the right eye, and when the photographer is detected by the first sensor and the right sensor, the operation is performed. The person's dominant eye is determined to be the left eye. Thereby, it is possible to automatically determine the dominant eye of the photographer without bothering the photographer.

請求項5に記載の立体画像撮影装置は、請求項1〜4に記載の立体画像撮影装置において、撮影者の利き目を設定する利き目設定手段を備え、前記利き目判断手段は、前記第1のセンサで撮影者が検出されていない場合には、前記利き目設定手段により設定された利き目を利き目と判断することを特徴とする。   The stereoscopic image capturing apparatus according to claim 5 is the stereoscopic image capturing apparatus according to any of claims 1 to 4, further comprising a dominant eye setting unit that sets a dominant eye of a photographer, wherein the dominant eye determining unit is When the photographer is not detected by one sensor, the dominant eye set by the dominant eye setting means is determined as the dominant eye.

請求項5に記載の立体画像撮影装置によれば、第1のセンサで撮影者が検出されていない場合には、撮影者の利き目を設定する利き目設定手段により設定された利き目が撮影者の利き目と判断される。これにより、利き目が自動的に判別できなかった場合においても、利き目を考慮することができる。   According to the stereoscopic image capturing device of claim 5, when the photographer is not detected by the first sensor, the dominant eye set by the dominant eye setting means for setting the dominant eye of the photographer is captured. It is judged that it is the dominant eye of the person. Thereby, even when the dominant eye cannot be automatically determined, the dominant eye can be taken into consideration.

請求項6に記載の立体画像撮影装置は、請求項1から5のいずれかに記載の立体画像撮影装置において、前記ファインダは、装置本体の前面に設けられた右目用の右側対物レンズと、装置本体の前面に設けられた左目用の左側対物レンズと、前記右側対物レンズ及び前記左側対物レンズのいずれかを介した被写体像を見るための1つの接眼部と、前記利き目判断手段における利き目の判断結果に基づいて、前記右側対物レンズから入射する光を前記接眼部へ導くか、前記左側対物レンズから入射する光を前記接眼部へ導くかの切り替えを行う切り替え手段と、を備えたことを特徴とする。   The stereoscopic image capturing apparatus according to claim 6 is the stereoscopic image capturing apparatus according to any one of claims 1 to 5, wherein the finder includes a right objective lens for a right eye provided on a front surface of the apparatus main body, and an apparatus. The left objective lens for the left eye provided on the front surface of the main body, one eyepiece for viewing the subject image through either the right objective lens or the left objective lens, and the dominant eye in the dominant eye determination means Switching means for switching whether to guide the light incident from the right objective lens to the eyepiece unit or to guide the light incident from the left objective lens to the eyepiece unit based on the determination result of the eyes; It is characterized by having.

請求項6に記載の立体画像撮影装置によれば、装置本体の前面に設けられた右目用の右側対物レンズから装置本体の背面に設けられた接眼部への光路と、装置本体の前面に設けられた左目用の左側対物レンズから接眼部への光路の2つの光路がある。撮影者の利き目の判断結果に基づいて、これらの光路が切り替えられる。これにより、利き目を考慮して撮影動作を行うことができるため、撮影者が意図した通りの立体画像が撮影できる。   According to the stereoscopic image capturing apparatus of the sixth aspect, the optical path from the right objective lens for the right eye provided on the front surface of the apparatus main body to the eyepiece provided on the back surface of the apparatus main body, and the front surface of the apparatus main body. There are two optical paths from the left objective lens for the left eye to the eyepiece. These optical paths are switched based on the determination result of the photographer's dominant eye. Thereby, since it is possible to perform a photographing operation in consideration of the dominant eye, a stereoscopic image as intended by the photographer can be photographed.

請求項7に記載の立体画像撮影装置は、複数の視点から見た被写体像を立体画像として撮影する複数の撮像手段を備えた立体画像撮影装置において、装置本体の背面に設けられた背面カメラと、前記背面カメラで撮影された画像に基づいて撮影者の顔位置を検出する顔位置検出手段と、前記顔位置検出手段で検出された顔の位置に基づいて、操作者の利き目を判断する利き目判断手段と、を備えたことを特徴とする。   The stereoscopic image capturing apparatus according to claim 7 is a stereoscopic image capturing apparatus including a plurality of imaging units that capture subject images viewed from a plurality of viewpoints as a stereoscopic image, and a rear camera provided on a back surface of the apparatus main body. A face position detecting means for detecting a photographer's face position based on an image photographed by the rear camera, and a dominant hand of the operator is determined based on the face position detected by the face position detecting means. And a dominant eye judging means.

請求項7に記載の立体画像撮影装置によれば、装置本体の背面に設けられた背面カメラで撮影された画像から撮影者の顔位置を検出し、検出された顔位置に基づいて操作者の利き目を判断する。これにより、撮影者の手を煩わすことなく、撮影者の利き目を自動的に判断することができる。   According to the stereoscopic image capturing device of the seventh aspect, the photographer's face position is detected from the image photographed by the rear camera provided on the back surface of the apparatus body, and the operator's face position is detected based on the detected face position. Judge the dominant eye. Thereby, it is possible to automatically determine the dominant eye of the photographer without bothering the photographer.

請求項8に記載の立体画像撮影装置は、請求項7に記載の立体画像撮影装置において、前記背面カメラは、前記装置本体の背面に設けられた表示手段の略中央軸線上に設けられることを特徴とする。   The stereoscopic image capturing apparatus according to claim 8 is the stereoscopic image capturing apparatus according to claim 7, wherein the rear camera is provided on a substantially central axis of display means provided on a back surface of the apparatus main body. Features.

請求項8に記載の立体画像撮影装置によれば、装置本体の背面に設けられた表示手段の略中央軸線上に背面カメラが設けられる。これにより、撮影された画像の中心と顔位置とを比較することにより、撮影者が表示手段を見ている位置を知ることができる。   According to the stereoscopic image capturing apparatus of the eighth aspect, the rear camera is provided on the substantially central axis of the display means provided on the rear surface of the apparatus main body. Thus, by comparing the center of the captured image with the face position, the position where the photographer is looking at the display means can be known.

請求項9に記載の立体画像撮影装置は、請求項7又は8に記載の立体画像撮影装置において、前記背面カメラにより撮影された画像から撮影者の顔を検出する顔検出手段を備え、前記顔位置検出手段は、前記顔検出手段により検出された撮影者の顔の中心と、前記背面カメラで撮影された画像の中心とを比較することにより、撮影者の顔の位置を判断することを特徴とする。   The stereoscopic image capturing device according to claim 9 is the stereoscopic image capturing device according to claim 7 or 8, further comprising face detection means for detecting a photographer's face from an image captured by the rear camera, The position detection means determines the position of the photographer's face by comparing the center of the photographer's face detected by the face detection means with the center of the image photographed by the rear camera. And

請求項9に記載の立体画像撮影装置によれば、検出された顔位置の中心と、背面カメラで撮影された画像の中心とを比較することにより、操作者の利き目を判断する。すなわち、検出された顔位置が画像の中心より右にあれば、撮影者の利き目は右目であると判断でき、検出された顔位置が画像の中心より左にあれば、撮影者の利き目は左目であると判断できる。これにより、撮影者の利き目を正確に判断することができる。   According to the stereoscopic image capturing apparatus of the ninth aspect, the dominant eye of the operator is determined by comparing the center of the detected face position with the center of the image captured by the rear camera. That is, if the detected face position is to the right of the center of the image, it can be determined that the photographer's dominant eye is the right eye, and if the detected face position is to the left of the image center, the photographer's dominant eye Can be determined to be the left eye. Thereby, the dominant eye of the photographer can be accurately determined.

請求項10に記載の立体画像撮影装置は、請求項7から9のいずれかに記載の立体画像撮影装置において、撮影者の利き目を設定する利き目設定手段を備え、前記利き目判断手段は、前記顔位置検出手段において撮影者の顔の位置が判断できない場合には、前記利き目設定手段により設定された利き目を利き目と判断することを特徴とする。   The stereoscopic image photographing device according to claim 10 is the stereoscopic image photographing device according to any one of claims 7 to 9, further comprising a dominant eye setting means for setting a dominant eye of the photographer, wherein the dominant eye determining means is If the position of the photographer's face cannot be determined by the face position detection means, the dominant eye set by the dominant eye setting means is determined as the dominant eye.

請求項10に記載の立体画像撮影装置によれば、検出された顔位置に基づいて利き目が判断できない場合には、撮影者の利き目を設定する利き目設定手段により設定された利き目を撮影者の利き目と判断する。これにより、利き目が自動的に判別できなかった場合においても、利き目を考慮することができる。   According to the stereoscopic image capturing device of the tenth aspect, when the dominant eye cannot be determined based on the detected face position, the dominant eye set by the dominant eye setting unit that sets the dominant eye of the photographer. Judged as the photographer's dominant eye. Thereby, even when the dominant eye cannot be automatically determined, the dominant eye can be taken into consideration.

請求項11に記載の立体画像撮影装置は、請求項1から10のいずれかに記載の立体画像撮影装置において、レリーズ操作を行うレリーズボタンを備え、前記利き目判断手段は、前記レリーズボタンの半押し時に利き目の判定を行うことを特徴とする。   The stereoscopic image capturing device according to claim 11 is the stereoscopic image capturing device according to any one of claims 1 to 10, further comprising a release button for performing a release operation, wherein the dominant eye determining unit is a half of the release button. It is characterized in that the dominant eye is determined when pressed.

請求項11に記載の立体画像撮影装置によれば、レリーズボタンの半押し時に利き目の判定が行われる。これにより、撮影動作前に利き目が判定されているため、利き目を考慮した撮影動作を早く行うことができる。   According to the three-dimensional image capturing apparatus of the eleventh aspect, the dominant eye is determined when the release button is half-pressed. Thereby, since the dominant eye is determined before the shooting operation, the shooting operation considering the dominant eye can be performed quickly.

請求項12に記載の立体画像撮影装置は、請求項1から11のいずれかに記載の立体画像撮影装置において、被写体像を表示する表示手段と、前記利き目判断手段により判断された利き目の情報に基づいて、前記立体画像を構成する複数枚の被写体像から所望の1枚の被写体像を代表画像として選択する代表画像選択手段と、前記代表画像選択手段により選択された代表画像を前記表示手段に表示させる表示制御手段と、を備えたことを特徴とする。   A stereoscopic image capturing apparatus according to a twelfth aspect is the stereoscopic image capturing apparatus according to any one of the first to eleventh aspects, wherein a display unit that displays a subject image and a dominant eye determined by the dominant eye determination unit. Based on the information, representative image selecting means for selecting a desired one subject image as a representative image from a plurality of subject images constituting the stereoscopic image, and the representative image selected by the representative image selecting means is displayed. Display control means for displaying on the means.

請求項12に記載の立体画像撮影装置によれば、利き目の情報に基づいて立体画像から所望の1枚の被写体像を代表画像として選択し、選択された代表画像を表示手段に表示させる。これにより、撮影者が意図した立体画像に最も近い平面画像を閲覧することができる。また、撮影時に、撮影者が意図した立体画像に最も近い平面画像を動画として、又はライブビュー画像(スルー画)として表示させることができる。   According to the stereoscopic image capturing apparatus of the twelfth aspect, a desired one subject image is selected as a representative image from the stereoscopic image based on the dominant eye information, and the selected representative image is displayed on the display unit. As a result, it is possible to view the flat image closest to the stereoscopic image intended by the photographer. Further, at the time of shooting, a planar image closest to the stereoscopic image intended by the photographer can be displayed as a moving image or a live view image (through image).

請求項13に記載の立体画像撮影装置は、請求項1から12のいずれかに記載の立体画像撮影装置において、前記複数の撮像手段により撮影された立体画像と、前記利き目判断手段によって判断された利き目の情報とを関連付けて記録媒体に記録する記録手段を備えたことを特徴とする。   The stereoscopic image capturing apparatus according to a thirteenth aspect is the stereoscopic image capturing apparatus according to any one of the first to twelfth aspects, wherein the stereoscopic image captured by the plurality of imaging units and the dominant eye determining unit are determined. It is characterized by comprising a recording means for recording information on a recording medium in association with information on the dominant eye.

請求項13に記載の立体画像撮影装置によれば、撮影された立体画像と、撮影者の利き目の情報とが関連付けて記録媒体に記録される。これにより、撮影された立体画像の視聴時に、撮影者の利き目の情報を用いることができる。   According to the three-dimensional image photographing apparatus of the thirteenth aspect, the photographed three-dimensional image and the photographer's dominant eye information are associated and recorded on the recording medium. Accordingly, information about the dominant eye of the photographer can be used when viewing the captured stereoscopic image.

請求項14に記載の立体画像撮影装置は、請求項13に記載の立体画像撮影装置において、前記代表画像選択手段は、前記立体画像と関連付けて記録媒体に記録された利き目の情報に基づいて、前記記録された立体画像を構成する複数の被写体像の中から所望の1枚の被写体像を代表画像として選択することを特徴とする。   A stereoscopic image capturing apparatus according to a fourteenth aspect is the stereoscopic image capturing apparatus according to the thirteenth aspect, wherein the representative image selecting unit is based on information on a dominant eye recorded on a recording medium in association with the stereoscopic image. A desired subject image is selected as a representative image from a plurality of subject images constituting the recorded stereoscopic image.

請求項14に記載の立体画像撮影装置によれば、立体画像と関連付けて記録媒体に記録された利き目の情報に基づいて、記録された立体画像を構成する複数の被写体像の中から所望の1枚の被写体像、すなわち利き目を用いて撮影された画像が代表画像として選択される。これにより、記録された画像を視聴する場合においても、利き目を考慮して画像の再生を行うことができる。この場合には、利き目の情報が記録された立体画像を取り込んで画像を再生するプログラムとして実施することもできる。   According to the three-dimensional image capturing device of claim 14, based on the dominant eye information recorded on the recording medium in association with the three-dimensional image, a desired image is selected from a plurality of subject images constituting the recorded three-dimensional image. One subject image, that is, an image taken using the dominant eye is selected as the representative image. Thereby, even when viewing the recorded image, it is possible to reproduce the image in consideration of the dominant eye. In this case, the present invention can be implemented as a program that takes in a stereoscopic image in which dominant eye information is recorded and reproduces the image.

本発明によれば、撮影者の利き目に対応する撮像手段で撮影された画像を代表画像とすることで、撮影者の意図を反映した構図や表情で立体画像を撮影することができる。   According to the present invention, it is possible to capture a stereoscopic image with a composition and facial expression reflecting the photographer's intention by using the image captured by the imaging unit corresponding to the photographer's dominant eye as the representative image.

以下、添付図面に従って本発明に係る立体画像撮影装置を実施するための最良の形態について詳細に説明する。   The best mode for carrying out a stereoscopic image photographing apparatus according to the present invention will be described below in detail with reference to the accompanying drawings.

<第1の実施の形態>
図1は、撮影者の利き目を自動的に判断する立体画像撮影装置の第1の実施の形態に係る複眼デジタルカメラ1の正面斜視図であり、図2は複眼デジタルカメラ1の背面斜視図である。
<First Embodiment>
FIG. 1 is a front perspective view of a compound-eye digital camera 1 according to a first embodiment of a stereoscopic image photographing apparatus that automatically determines a photographer's dominant eye, and FIG. 2 is a rear perspective view of the compound-eye digital camera 1. It is.

複眼デジタルカメラ1は、複数(図1では二つを例示)の撮像系を備えた複眼デジタルカメラ1であって、同一被写体を複数視点(図1では左右二つの視点を例示)からみた立体画像を撮影可能である。   The compound-eye digital camera 1 is a compound-eye digital camera 1 having a plurality of imaging systems (two are illustrated in FIG. 1), and a stereoscopic image of the same subject viewed from a plurality of viewpoints (two viewpoints on the left and right are illustrated in FIG. 1). Can be taken.

複眼デジタルカメラ1のカメラボディ12は、略直方体の箱状に形成されており、その正面には、図1に示すように、主として、右側カメラ10a、左側カメラ10b、右側対物レンズ61a、左側対物レンズ61b等が設けられている。   The camera body 12 of the compound-eye digital camera 1 is formed in a substantially rectangular parallelepiped box shape. As shown in FIG. 1, the camera body 12 mainly includes a right camera 10a, a left camera 10b, a right objective lens 61a, and a left objective. A lens 61b and the like are provided.

カメラボディ12の側面には、図示しないバッテリーカバーが設けられている。バッテリーカバーの内側には、バッテリーを収納するためのバッテリー収納室、記録メディア144を装着するためのメモリカードスロット等が設けられている。   A battery cover (not shown) is provided on the side surface of the camera body 12. Inside the battery cover, there are provided a battery storage chamber for storing the battery, a memory card slot for mounting the recording medium 144, and the like.

カメラボディ12の上面には、図2に示すように、モードダイヤル24、レリーズスイッチ26、電源ボタン28等が設けられている。   As shown in FIG. 2, a mode dial 24, a release switch 26, a power button 28, and the like are provided on the upper surface of the camera body 12.

カメラボディ12の背面には、図2に示すように、モニタ30、ズームボタン38、マクロボタン40、BACKボタン42、MENU/OKボタン44、DISPボタン46、十字ボタン48、スライドスイッチ50、左側センサ51、右側センサ52、ファインダセンサ53、接眼レンズ64等が設けられている。   On the back of the camera body 12, as shown in FIG. 2, the monitor 30, zoom button 38, macro button 40, BACK button 42, MENU / OK button 44, DISP button 46, cross button 48, slide switch 50, left sensor 51, a right side sensor 52, a finder sensor 53, an eyepiece lens 64, and the like.

カメラボディ12の底面には、図示しない三脚ネジ穴などが設けられている。   A tripod screw hole or the like (not shown) is provided on the bottom surface of the camera body 12.

右目用の画像を撮影する右側カメラ10aおよび左目用の画像を撮影する左側カメラ10bは、そのレンズ光軸が平行となるように、あるいは所定角度をなすように並設されている。複眼デジタルカメラ1の電源をONすると、右側カメラ10aおよび左側カメラ10bの前面に各々配設されたカバー(図示せず)が開くことにより右側カメラ10aおよび左側カメラ10bに被写体光が入射される。   The right camera 10a for capturing an image for the right eye and the left camera 10b for capturing an image for the left eye are arranged side by side so that their lens optical axes are parallel or at a predetermined angle. When the power of the compound-eye digital camera 1 is turned on, subject light is incident on the right camera 10a and the left camera 10b by opening covers (not shown) respectively provided on the front surfaces of the right camera 10a and the left camera 10b.

モニタ30は、4:3の一般的なアスペクト比を有し、カラー表示が可能な液晶ディスプレイで構成されている。このモニタ30は、再生モード時に撮影済み画像を表示するための画像表示パネルとして利用されるとともに、各種設定操作を行なう際の撮影者インターフェース表示パネルとして利用される。また、撮影モード時には、必要に応じてスルー画像が表示されて、画角確認用の電子ファインダとして利用される。   The monitor 30 is a liquid crystal display having a general aspect ratio of 4: 3 and capable of color display. The monitor 30 is used as an image display panel for displaying a photographed image in the reproduction mode, and is used as a photographer interface display panel when performing various setting operations. In the photographing mode, a through image is displayed as necessary, and is used as an electronic viewfinder for checking the angle of view.

モードダイヤル24は、複眼デジタルカメラ1の再生モードと撮影モードとを切り替える切り替え手段として機能し、「再生位置」と「撮影位置」の間を回転自在に設けられている。複眼デジタルカメラ1は、このモードダイヤル24を「再生位置」に位置させると、再生モードに設定され、「撮影位置」に位置させると、撮影モードに設定される。また、モードダイヤル24は、各種モード(撮影モード、再生モード、消去モード、編集モード等)の切り替え、オート撮影やマニュアル撮影等の撮影モードの設定に用いられる。このモードダイヤル24は、カメラボディ12の上面のレリーズスイッチ26の下に回転自在に設けられており、図示しないクリック機構によって、「2D静止画位置」、「2D動画位置」、「3D静止画位置」、「3D動画位置」にセット可能に設けられている。   The mode dial 24 functions as switching means for switching between the reproduction mode and the photographing mode of the compound-eye digital camera 1, and is provided rotatably between the “reproduction position” and the “photographing position”. The compound-eye digital camera 1 is set to the playback mode when the mode dial 24 is positioned at the “playback position”, and is set to the shooting mode when it is positioned at the “shooting position”. The mode dial 24 is used to switch various modes (shooting mode, playback mode, erase mode, edit mode, etc.) and set shooting modes such as auto shooting and manual shooting. The mode dial 24 is rotatably provided below the release switch 26 on the upper surface of the camera body 12, and “2D still image position”, “2D moving image position”, “3D still image position” are not shown by a click mechanism (not shown). ”And“ 3D moving image position ”.

レリーズスイッチ26は、いわゆる「半押し」と「全押し」とからなる二段ストローク式のスイッチで構成されている。複眼デジタルカメラ1は、静止画撮影時(例えば、モードダイヤル24で静止画撮影モード選択時、又はメニューから静止画撮影モード選択時)、このレリーズスイッチ26を半押しすると撮影準備処理、すなわち、AE(Automatic Exposure:自動露出)、AF(Auto Focus:自動焦点合わせ)、AWB(Automatic White Balance:自動ホワイトバランス)の各処理を行い、全押しすると、画像の撮影・記録処理を行う。また、動画撮影時(例えば、モードダイヤル24で動画撮影モード選択時、又はメニューから動画撮影モード選択時)、このレリーズスイッチ26を全押しすると、動画の撮影を開始し、再度全押しすると、撮影を終了する。なお、設定により、レリーズスイッチ26を全押している間、動画の撮影を行い、全押しを解除すると、撮影を終了するようにすることもできる。なお、静止画撮影専用のシャッタボタン及び動画撮影専用のシャッタボタンを設けるようにしてもよい。   The release switch 26 is constituted by a two-stage stroke type switch composed of so-called “half press” and “full press”. When the compound-eye digital camera 1 is taking a still image (for example, when the still image shooting mode is selected with the mode dial 24 or when the still image shooting mode is selected from the menu), the release switch 26 is pressed halfway to take a shooting preparation process, that is, AE. Each process (Automatic Exposure), AF (Auto Focus), and AWB (Automatic White Balance) is performed, and when fully pressed, an image is captured and recorded. Also, during movie shooting (for example, when the movie shooting mode is selected with the mode dial 24 or when the movie shooting mode is selected from the menu), when the release switch 26 is fully pressed, shooting of the movie is started, and when the shutter button is fully pressed again, shooting is performed. Exit. Depending on the setting, it is also possible to shoot a moving image while the release switch 26 is fully pressed, and to stop shooting when the full press is released. A shutter button dedicated to still image shooting and a shutter button dedicated to moving image shooting may be provided.

電源ボタン28は、複眼デジタルカメラ1の電源スイッチとして機能し、電源ボタン28を押下することにより、電源がON/OFFされる。   The power button 28 functions as a power switch of the compound-eye digital camera 1, and when the power button 28 is pressed, the power is turned on / off.

ズームボタン38は、右側カメラ10a及び左側カメラ10bのズーム操作に用いられ、望遠側へのズームを指示するズームテレボタン34と、広角側へのズームを指示するズームワイドボタン36とで構成されている。   The zoom button 38 is used for a zoom operation of the right camera 10a and the left camera 10b, and includes a zoom tele button 34 for instructing zooming to the telephoto side and a zoom wide button 36 for instructing zooming to the wide angle side. Yes.

MENU/OKボタン44は、メニュー画面の呼び出し(MENU機能)に用いられるとともに、選択内容の確定、処理の実行指示等(OK機能)に用いられ、複眼デジタルカメラ1の設定状態に応じて割り当てられる機能が切り替えられる。メニュー画面では、たとえば露出値、色合い、ISO感度、記録画素数などの画質調整やセルフタイマの設定、測光方式の切り替え、デジタルズームを使用するか否かなど、複眼デジタルカメラ1が持つ全ての調整項目の設定が行われる。複眼デジタルカメラ1は、このメニュー画面で設定された条件に応じて動作する。   The MENU / OK button 44 is used for calling up a menu screen (MENU function), as well as for confirming selection contents, executing instructions for processing (OK function), and assigned according to the setting state of the compound-eye digital camera 1. The function is switched. On the menu screen, for example, all adjustment items that the compound-eye digital camera 1 has such as image quality adjustment such as exposure value, hue, ISO sensitivity, number of recorded pixels, self-timer setting, photometry switching, and whether or not to use digital zoom Is set. The compound-eye digital camera 1 operates according to the conditions set on this menu screen.

DISPボタン46は、モニタ30の表示内容の切り替え指示等の入力に用いられ、BACKボタン77は入力操作のキャンセル等の指示の入力に用いられる。   The DISP button 46 is used to input an instruction to switch the display contents of the monitor 30 and the BACK button 77 is used to input an instruction to cancel the input operation.

十字ボタン48は、各種のメニューの設定や選択あるいはズームを行うためのボタンであり、上下左右4方向に押圧操作可能に設けられており、各方向のボタンには、カメラの設定状態に応じた機能が割り当てられる。たとえば、撮影時には、左ボタンにマクロ機能のON/OFFを切り替える機能が割り当てられ、右ボタンにストロボモードを切り替える機能が割り当てられる。また、上ボタンにモニタ30の明るさを替える機能が割り当てられ、下ボタンにセルフタイマのON/OFFを切り替える機能が割り当てられる。また、再生時には、右ボタンにコマ送りの機能が割り当てられ、左ボタンにコマ戻しの機能が割り当てられる。また、上ボタンにモニタ30の明るさを替える機能が割り当てられ、下ボタンに再生中の画像を削除する機能が割り当てられる。また、各種設定時には、モニタ30に表示されたカーソルを各ボタンの方向に移動させる機能が割り当てられる。   The cross button 48 is a button for setting, selecting, or zooming various menus, and is provided so that it can be pressed in four directions, up, down, left, and right. The buttons in each direction correspond to the setting state of the camera. A function is assigned. For example, at the time of shooting, a function for switching on / off of the macro function is assigned to the left button, and a function for switching the strobe mode is assigned to the right button. In addition, a function for changing the brightness of the monitor 30 is assigned to the upper button, and a function for switching ON / OFF of the self-timer is assigned to the lower button. During playback, a frame advance function is assigned to the right button, and a frame return function is assigned to the left button. Also, a function for changing the brightness of the monitor 30 is assigned to the upper button, and a function for deleting the image being reproduced is assigned to the lower button. Further, at the time of various settings, a function for moving the cursor displayed on the monitor 30 in the direction of each button is assigned.

スライドスイッチ50は、操作者の利き目の情報を入力するためのスイッチである。スライドスイッチ50を右に移動させた場合には利き目は右目に設定され、スライドスイッチ50を左に移動させた場合には利き目は左目に設定される。   The slide switch 50 is a switch for inputting information about the dominant eye of the operator. When the slide switch 50 is moved to the right, the dominant eye is set to the right eye, and when the slide switch 50 is moved to the left, the dominant eye is set to the left eye.

左側センサ51、右側センサ52及びファインダセンサ53は、指向性の高い光を発光素子から出射し、その光が検出物体で反射され、反射された光の有無や反射された光の光量を受光素子で受光して、光の有無や光の光量に対応する信号を出力することにより、検出物体を検出する反射型の光電センサである。左側センサ51及び右側センサ52はカメラボディ12の両端に設けられており、左側センサ51は、左側センサ51の前に撮影者の顔があることを検出し、右側センサ52は、右側センサ52の前に撮影者の顔があることを検出する。また、ファインダセンサ53は、後述する接眼レンズ64の近傍に設けられており、ファインダセンサ53の前に撮影者の顔があること、すなわち撮影者が接眼レンズ64を覗いていることを検出する。すなわち、左側センサ51及びファインダセンサ53で撮影者の顔があることが検出された場合には、撮影者が接眼レンズ64を右目で覗いていることを示し、右側センサ52及びファインダセンサ53で撮影者の顔があることが検出された場合には、撮影者が接眼レンズ64を右目で覗いていることを示す。なお、左側センサ51、右側センサ52及びファインダセンサ53として、反射型の光電センサに限らず、物体により光量の変化を検出することが可能であれば様々な種類の光電センサを用いることもできる。また、光電センサに限らず、超音波を用いるセンサなど様々な種類の近接センサを用いることができる。   The left sensor 51, the right sensor 52, and the finder sensor 53 emit light with high directivity from the light emitting element, the light is reflected by the detection object, and the presence or absence of the reflected light and the amount of the reflected light are received by the light receiving element. Is a reflective photoelectric sensor that detects a detection object by outputting a signal corresponding to the presence or absence of light and the amount of light. The left sensor 51 and the right sensor 52 are provided at both ends of the camera body 12. The left sensor 51 detects that the photographer's face is in front of the left sensor 51. Detect that the photographer's face is in front. The finder sensor 53 is provided in the vicinity of an eyepiece lens 64 to be described later, and detects that the photographer's face is present in front of the finder sensor 53, that is, that the photographer is looking into the eyepiece lens 64. That is, when it is detected by the left sensor 51 and the finder sensor 53 that the photographer has a face, it indicates that the photographer is looking into the eyepiece 64 with the right eye, and the right sensor 52 and the finder sensor 53 photograph the image. When it is detected that the person's face is present, this indicates that the photographer is looking into the eyepiece lens 64 with the right eye. The left sensor 51, the right sensor 52, and the finder sensor 53 are not limited to the reflective photoelectric sensors, and various types of photoelectric sensors can be used as long as the change in the amount of light can be detected by an object. In addition to the photoelectric sensor, various types of proximity sensors such as a sensor using ultrasonic waves can be used.

次に、複眼デジタルカメラ1の光学ファインダについて説明する。光学ファインダは、図3に示すように、右側対物レンズ61a、右側プリズム62a、左側対物レンズ61b、左側プリズム62b、中央プリズム63、接眼レンズ64とで構成される。左側対物レンズ61b及び左側プリズム62bは、右側対物レンズ61a及び右側プリズム62aに対して、接眼レンズ64の光軸Aを中心に線対称に設けられている。左側対物レンズ61b及び左側プリズム62bは、右側対物レンズ61a及び右側プリズム62aと同じ構成であるため、説明を省略する。   Next, the optical viewfinder of the compound-eye digital camera 1 will be described. As shown in FIG. 3, the optical viewfinder includes a right objective lens 61a, a right prism 62a, a left objective lens 61b, a left prism 62b, a central prism 63, and an eyepiece lens 64. The left objective lens 61b and the left prism 62b are provided symmetrically about the optical axis A of the eyepiece lens 64 with respect to the right objective lens 61a and the right prism 62a. The left objective lens 61b and the left prism 62b have the same configuration as the right objective lens 61a and the right prism 62a, and thus description thereof is omitted.

右側プリズム62aは、略三角柱形状の光学素子であり、右側対物レンズ61aの背面に設けられている。右側プリズム62aは、右側対物レンズ61aの光軸Laを略直角に屈折させて、接眼レンズ64の光軸Lへ導く。   The right prism 62a is an optical element having a substantially triangular prism shape, and is provided on the back surface of the right objective lens 61a. The right prism 62a refracts the optical axis La of the right objective lens 61a at a substantially right angle and guides it to the optical axis L of the eyepiece lens 64.

接眼レンズ64は、カメラボディ12の略中央に設けられており、接眼レンズ64の前面には、中央プリズム63が設けられている。   The eyepiece lens 64 is provided in the approximate center of the camera body 12, and a central prism 63 is provided on the front surface of the eyepiece lens 64.

中央プリズム63は、図4に示すように、略三角柱形状の光学素子であり、光軸Lを中心に時計回り及び反時計回りに回転自在に設けられている。中央プリズム63が回転することにより、右側対物レンズ61aによって導かれた光を接眼レンズ64に導くか、左側対物レンズ61bによって導かれた光を接眼レンズ64に導くかの切り替えが可能となっている。   As shown in FIG. 4, the central prism 63 is a substantially triangular prism-shaped optical element, and is provided so as to be rotatable clockwise and counterclockwise about the optical axis L. By rotating the central prism 63, it is possible to switch between guiding the light guided by the right objective lens 61a to the eyepiece lens 64 and guiding the light guided by the left objective lens 61b to the eyepiece lens 64. .

図4は、中央プリズム63を左から見た場合に左上方に斜辺となる場合を図示している。中央プリズム63を図4に示す状態から反時計回りに90°回転させると、図3に示す状態となる。これは、右側対物レンズ61aが選択された状態であり、中央プリズム63は、右側プリズム62aによって屈折された右側対物レンズ61aの光軸Laを光軸Lへと屈折させる。これにより、撮影者が接眼レンズ64を覗くことで、右側対物レンズ61aによって導かれた光を見ることができる。   FIG. 4 illustrates a case where the central prism 63 is inclined from the upper left when viewed from the left. When the central prism 63 is rotated 90 ° counterclockwise from the state shown in FIG. 4, the state shown in FIG. 3 is obtained. This is a state in which the right objective lens 61a is selected, and the central prism 63 refracts the optical axis La of the right objective lens 61a refracted by the right prism 62a to the optical axis L. Thereby, when the photographer looks into the eyepiece lens 64, the light guided by the right objective lens 61a can be seen.

また、中央プリズム63を図3の状態から180°回転させることにより、右側対物レンズ61aから左側対物レンズ61bへ切り替えられる。左側対物レンズ61bが選択された状態では、中央プリズム63は、左側プリズム62bによって屈折された左側対物レンズ61bの光軸Lbを光軸Lへと屈折させる。これにより、撮影者が接眼レンズ64を覗くことで、左側対物レンズ61bによって導かれた光を見ることができる。   Further, by rotating the central prism 63 from the state of FIG. 3 by 180 °, the right objective lens 61a is switched to the left objective lens 61b. When the left objective lens 61b is selected, the central prism 63 refracts the optical axis Lb of the left objective lens 61b refracted by the left prism 62b toward the optical axis L. Thereby, when the photographer looks into the eyepiece lens 64, the light guided by the left objective lens 61b can be seen.

図5は、複眼デジタルカメラ1の電気的構成を示すブロック図である。複眼デジタルカメラ1は、単視点画像(2次元画像)と、多視点画像(3次元画像、立体画像)とが撮影可能であり、また、動画、静止画、音声の記録再生が可能である。また、動画、静止画どちらにおいても、単視点画像のみでなく、多視点画像の撮影も可能である。   FIG. 5 is a block diagram showing an electrical configuration of the compound-eye digital camera 1. The compound-eye digital camera 1 can shoot single-viewpoint images (two-dimensional images) and multi-viewpoint images (three-dimensional images, stereoscopic images), and can record and reproduce moving images, still images, and audio. In addition, for both moving images and still images, not only single-view images but also multi-view images can be taken.

右側カメラ10aと左側カメラ10bの動作はCPU110によって制御される。右側カメラ10aと左側カメラ10bとは、基本的に連動して動作を行うが、各々個別に動作させることも可能となっている。   The operations of the right camera 10a and the left camera 10b are controlled by the CPU 110. The right camera 10a and the left camera 10b basically operate in conjunction with each other, but can be individually operated.

右側カメラ10aは、主として、第1絞り12a、第1フォーカスレンズ群13a及び第1イメージセンサ14aで構成される。左側カメラ10bは、右側カメラ10aと同様の構成であり、主として、第2絞り12b、第2フォーカスレンズ群13b及び第2イメージセンサ14bで構成される。   The right camera 10a mainly includes a first diaphragm 12a, a first focus lens group 13a, and a first image sensor 14a. The left camera 10b has the same configuration as that of the right camera 10a, and mainly includes a second diaphragm 12b, a second focus lens group 13b, and a second image sensor 14b.

第1絞り12a及び第2絞り12bは、モータドライバ122に接続されている。モータドライバ122は、CPU110からの指令に応じて第1絞り12a及び第2絞り12bの動作をそれぞれ制御する。   The first diaphragm 12 a and the second diaphragm 12 b are connected to the motor driver 122. The motor driver 122 controls the operations of the first diaphragm 12a and the second diaphragm 12b in accordance with commands from the CPU 110.

第1フォーカスレンズ群13a及び第2フォーカスレンズ群13bは、モータドライバ124に接続されている。モータドライバ124は、CPU110からの指令に応じて第1フォーカスレンズ群13a及び第2フォーカスレンズ群13bの動作をそれぞれ制御する。   The first focus lens group 13a and the second focus lens group 13b are connected to a motor driver 124. The motor driver 124 controls the operations of the first focus lens group 13a and the second focus lens group 13b, respectively, according to instructions from the CPU 110.

第1イメージセンサ14a及び第2イメージセンサ14bは、CCD型やCMOS型のイメージセンサであり、第1絞り12a、第1フォーカスレンズ群13a等、第2絞り12b、第2フォーカスレンズ群13bによって結像された被写体光を受光し、受光素子に受光量に応じた光電荷を蓄積する。第1イメージセンサ14a及び第2イメージセンサ14bにはタイミングジェネレータ(TG)130が接続されている。TG130の動作はCPU110によって制御される。右側カメラ10aと左側カメラ10bの第1イメージセンサ14aおよび第2イメージセンサ14bから出力された撮像信号は、それぞれA/D変換器134a、134bに入力される。第1イメージセンサ14aの光電荷蓄積・転送動作は、TG130によって制御され、TG130から入力されるタイミング信号(クロックパルス)により、電子シャッター速度(光電荷蓄積時間)が決定される。第1イメージセンサ14aは、撮影モード時には、1画面分の画像信号を所定周期ごとに取得する。レリーズスイッチ26の半押し状態が検出されたとき、CPU110は第1イメージセンサ14aから測距データを得る。CPU110は得られた測距データに基づいて、ピント、絞りなどの調整を行う。また、CPU110は得られた測距データに基づいて、図示しない駆動手段を介して右側カメラ10a及び左側カメラ10bの輻輳角の調整を行う。   The first image sensor 14a and the second image sensor 14b are CCD-type or CMOS-type image sensors, and are connected by the second diaphragm 12b and the second focus lens group 13b, such as the first diaphragm 12a and the first focus lens group 13a. The imaged subject light is received, and photoelectric charges corresponding to the amount of received light are accumulated in the light receiving element. A timing generator (TG) 130 is connected to the first image sensor 14a and the second image sensor 14b. The operation of the TG 130 is controlled by the CPU 110. Imaging signals output from the first image sensor 14a and the second image sensor 14b of the right camera 10a and the left camera 10b are input to A / D converters 134a and 134b, respectively. The photocharge accumulation / transfer operation of the first image sensor 14a is controlled by the TG 130, and the electronic shutter speed (photocharge accumulation time) is determined by a timing signal (clock pulse) input from the TG 130. The first image sensor 14a acquires an image signal for one screen every predetermined period in the photographing mode. When the half-pressed state of the release switch 26 is detected, the CPU 110 obtains distance measurement data from the first image sensor 14a. The CPU 110 adjusts the focus, aperture, and the like based on the obtained distance measurement data. Further, the CPU 110 adjusts the convergence angles of the right camera 10a and the left camera 10b through driving means (not shown) based on the obtained distance measurement data.

システムバスには、CPU110、SDRAM114、VRAM116、画像入力コントローラ136、画像信号処理回路138、圧縮伸張処理回路140、画像ファイル生成部142、メディアコントローラ146、ビデオエンコーダ148、AE/AWB検出回路152、AF検出回路154などが接続される。   The system bus includes CPU 110, SDRAM 114, VRAM 116, image input controller 136, image signal processing circuit 138, compression / decompression processing circuit 140, image file generation unit 142, media controller 146, video encoder 148, AE / AWB detection circuit 152, AF A detection circuit 154 and the like are connected.

CPU110は、複眼デジタルカメラ1の全体の動作を統括制御する制御手段として機能するとともに、各種の演算処理を行う演算手段として機能し、操作部(モードダイヤル24、レリーズスイッチ26、電源ボタン28、ズームボタン38、マクロボタン40、BACKボタン42、MENU/OKボタン44、DISPボタン46、十字ボタン48、スライドスイッチ50など)からの入力に基づき所定の制御プログラムに従って複眼デジタルカメラ1の各部を制御する。   The CPU 110 functions as a control unit that performs overall control of the overall operation of the compound-eye digital camera 1 and also functions as a calculation unit that performs various calculation processes. The operation unit (mode dial 24, release switch 26, power button 28, zoom Each part of the compound-eye digital camera 1 is controlled according to a predetermined control program based on input from the button 38, the macro button 40, the BACK button 42, the MENU / OK button 44, the DISP button 46, the cross button 48, the slide switch 50, and the like.

SDRAM114には、このCPU110が実行する制御プログラムであるファームウェア、制御に必要な各種データ、カメラ設定値、撮影された画像データ等が記録されている。なお、後述するように、撮影された画像データは、通常メモリカードに記録されるが、撮影者が選択した場合、メモリカードが装填されていない場合、メモリカードの容量が不足した場合等にはSDRAM114に記録される。   The SDRAM 114 stores firmware, which is a control program executed by the CPU 110, various data necessary for control, camera setting values, captured image data, and the like. As will be described later, the captured image data is normally recorded on the memory card. However, when the photographer selects it, the memory card is not loaded, or the memory card has insufficient capacity. Recorded in the SDRAM 114.

VRAM116は、CPU110の作業用領域として利用されるとともに、画像データの一時記憶領域として利用される。   The VRAM 116 is used as a work area for the CPU 110 and also used as a temporary storage area for image data.

アナログ信号処理部132a、132bは、第1イメージセンサ14a及び第2イメージセンサ14bから出力された画像信号に対してそれぞれ相関二重サンプリング処理(撮像素子の出力信号に含まれるノイズ(特に熱雑音)等を軽減することを目的として、撮像素子の1画素毎の出力信号に含まれるフィードスルー成分レベルと画素信号成分レベルとの差をとることにより正確な画素データを得る処理)を行い、増幅して出力する。   The analog signal processing units 132a and 132b respectively perform correlated double sampling processing on the image signals output from the first image sensor 14a and the second image sensor 14b (noise (particularly thermal noise) included in the output signal of the imaging device). In order to alleviate the above, etc., a process of obtaining accurate pixel data by taking the difference between the feedthrough component level and the pixel signal component level included in the output signal for each pixel of the image sensor is performed and amplified. Output.

A/D変換器134a、134bは、入力された画像データをアナログからデジタルに変換する。A/D変換器134a、134bを通して、第1イメージセンサ14aの撮像信号は右眼用画像データとして、第2イメージセンサ14bの撮像信号は左眼用画像データとして出力される。   The A / D converters 134a and 134b convert input image data from analog to digital. Through the A / D converters 134a and 134b, the imaging signal of the first image sensor 14a is output as right-eye image data, and the imaging signal of the second image sensor 14b is output as left-eye image data.

画像入力コントローラ136は、所定容量のラインバッファを内蔵しており、CPU110からの指令に従い、A/Dコンバータ134から出力された1画像分の画像信号を蓄積して、VRAM116に記録する。   The image input controller 136 has a built-in line buffer of a predetermined capacity, accumulates an image signal for one image output from the A / D converter 134 in accordance with a command from the CPU 110, and records it in the VRAM 116.

画像信号処理回路138は、同時化回路(単板CCDのカラーフィルタ配列に伴う色信号の空間的なズレを補間して色信号を同時式に変換する処理回路)、ホワイトバランス補正回路、ガンマ補正回路、輪郭補正回路、輝度・色差信号生成回路等を含み、CPU110からの指令に従い、A/D変換器134a、134bから入力された右眼用画像データおよび左眼用画像データに所要の信号処理を施して、輝度データ(Yデータ)と色差データ(Cr,Cbデータ)とからなる画像データ(YUVデータ)を生成し、表示用のビデオエンコーダ148に出力する。撮影モード時に電子ビューファインダとして使用される際には、生成された画像データが、ビデオエンコーダ148を介してモニタ30にライブビュー画像として表示される。また、画像信号処理回路138は、右側カメラ10aにより撮影された右眼用画像データ及び左側カメラ10bにより撮影された左眼用画像データのYC信号を、所定方式の映像信号(例えば、NTSC方式のカラー複合映像信号)に変換した上で、外部の立体画像表示装置等において立体表示を行うための立体画像データに合成する。   The image signal processing circuit 138 includes a synchronization circuit (a processing circuit that converts a color signal into a simultaneous expression by interpolating a spatial shift of the color signal associated with the color filter array of a single CCD), a white balance correction circuit, and a gamma correction. Including a circuit, a contour correction circuit, a luminance / color difference signal generation circuit, and the like, and according to a command from the CPU 110, required signal processing is performed on the right-eye image data and the left-eye image data input from the A / D converters 134a and 134b. The image data (YUV data) composed of the luminance data (Y data) and the color difference data (Cr, Cb data) is generated and output to the video encoder 148 for display. When used as an electronic viewfinder in the shooting mode, the generated image data is displayed as a live view image on the monitor 30 via the video encoder 148. Further, the image signal processing circuit 138 converts the YC signal of the right eye image data captured by the right camera 10a and the left eye image data captured by the left camera 10b into a predetermined format video signal (for example, NTSC format). Color composite video signal) and then synthesized with stereoscopic image data for stereoscopic display in an external stereoscopic image display device or the like.

圧縮伸張処理回路140は、CPU110からの指令に従い、入力された画像データに所定形式の圧縮処理を施し、圧縮画像データを生成する。また、圧縮伸張処理回路140は、VRAM116に記憶された右眼用画像データおよび左眼用画像データに対して、静止画ではJPEG、動画ではMPEG2、MPEG4、H.264方式等の所定の圧縮形式に従って圧縮処理を施す。圧縮伸張処理回路140は、静止画の2次元画像のデータをExifファイル等の所定のフォーマットの画像ファイル(画像ファイルについては後に詳述する)として記録メディア144に格納する。Exifファイルは、主画像のデータを格納する領域と、縮小画像(サムネイル画像)のデータを格納する領域とを有している。撮影によって取得された主画像のデータから画素の間引き処理その他の必要なデータ処理を経て、規定サイズ(例えば、160×120又は80×60ピクセルなど)のサムネイル画像が生成される。こうして生成されたサムネイル画像は、主画像とともにExifファイル内に書き込まれる。また、Exifファイルには、撮影日時、撮影条件、顔検出情報等のタグ情報が付属されている。   The compression / decompression processing circuit 140 performs compression processing in a predetermined format on the input image data in accordance with a command from the CPU 110 to generate compressed image data. Also, the compression / decompression processing circuit 140 applies JPEG for still images, MPEG2, MPEG4, H.264 for moving images to the image data for the right eye and the image data for the left eye stored in the VRAM 116. Compression processing is performed according to a predetermined compression format such as H.264. The compression / decompression processing circuit 140 stores the two-dimensional image data of the still image on the recording medium 144 as an image file of a predetermined format such as an Exif file (the image file will be described in detail later). The Exif file has an area for storing main image data and an area for storing reduced image (thumbnail image) data. A thumbnail image having a specified size (for example, 160 × 120 or 80 × 60 pixels) is generated from the main image data obtained by shooting through pixel thinning processing and other necessary data processing. The thumbnail image generated in this way is written in the Exif file together with the main image. Also, tag information such as shooting date / time, shooting conditions, and face detection information is attached to the Exif file.

画像ファイル生成部142は、圧縮伸張処理回路140により生成されたJPEG形式の画像データの画像ファイルを生成するものである。なお、画像ファイルの詳細については、後に詳述する。   The image file generation unit 142 generates an image file of JPEG format image data generated by the compression / decompression processing circuit 140. Details of the image file will be described later.

記録メディア144は、複眼デジタルカメラ1に着脱自在なxDピクチャカード(登録商標)、スマートメディア(登録商標)に代表される半導体メモリカード、可搬型小型ハードディスク、磁気ディスク、光ディスク、光磁気ディスク等、種々の記録媒体である。   The recording medium 144 is an xD picture card (registered trademark) detachably attached to the compound-eye digital camera 1, a semiconductor memory card represented by smart media (registered trademark), a portable small hard disk, a magnetic disk, an optical disk, a magneto-optical disk, etc. Various recording media.

メディアコントローラ146は、圧縮伸張処理回路140によって圧縮処理された各画像データを、メディアコントローラ146経由で接続された記録メディア144やその他の記録メディアに記録させる。   The media controller 146 records each image data compressed by the compression / decompression processing circuit 140 on a recording medium 144 or other recording media connected via the media controller 146.

ビデオエンコーダ148は、画像信号処理回路138から出力されたRGB信号をモニタ30に出力する。   The video encoder 148 outputs the RGB signal output from the image signal processing circuit 138 to the monitor 30.

AE/AWB検出回路152は、撮影スタンバイ状態時にレリーズスイッチ26が半押しされると、CPU110からの指令に従い、入力された画像信号からAE制御及びAWB制御に必要な物理量を算出する。たとえば、AE制御に必要な物理量として、1画面を複数のエリア(たとえば16×16)に分割し、分割したエリアごとにR、G、Bの画像信号の積算値を算出する。CPU110は、このAE/AWB検出回路152から得た積算値に基づいて被写体の明るさ(被写体輝度)を検出し、撮影に適した露出値(撮影EV値)を算出する。そして、算出した撮影EV値と所定のプログラム線図から絞り値とシャッター速度を決定する。また、AWB制御に必要な物理量として、1画面を複数のエリア(例えば、16×16)に分割し、分割したエリアごとにR、G、Bの画像信号の色別の平均積算値を算出する。CPU110は、得られたRの積算値、Bの積算値、Gの積算値から分割エリアごとにR/G及びB/Gの比を求め、求めたR/G、B/Gの値のR/G、B/Gの色空間における分布等に基づいて光源種判別を行う。そして、判別された光源種に適したホワイトバランス調整値に従って、たとえば各比の値がおよそ1(つまり、1画面においてRGBの積算比率がR:G:B≒1:1:1)になるように、ホワイトバランス調整回路のR、G、B信号に対するゲイン値(ホワイトバランス補正値)を決定する。   When the release switch 26 is half-pressed in the shooting standby state, the AE / AWB detection circuit 152 calculates a physical quantity necessary for AE control and AWB control from the input image signal in accordance with a command from the CPU 110. For example, as a physical quantity required for AE control, one screen is divided into a plurality of areas (for example, 16 × 16), and an integrated value of R, G, and B image signals is calculated for each divided area. The CPU 110 detects the brightness of the subject (subject brightness) based on the integrated value obtained from the AE / AWB detection circuit 152, and calculates an exposure value (shooting EV value) suitable for shooting. Then, an aperture value and a shutter speed are determined from the calculated photographing EV value and a predetermined program diagram. Further, as a physical quantity necessary for AWB control, one screen is divided into a plurality of areas (for example, 16 × 16), and an average integrated value for each color of R, G, and B image signals is calculated for each divided area. . The CPU 110 obtains the ratio of R / G and B / G for each divided area from the obtained R accumulated value, B accumulated value, and G accumulated value, and R of the obtained R / G and B / G values. The light source type is discriminated based on the distribution in the color space of / G and B / G. Then, according to the white balance adjustment value suitable for the determined light source type, for example, the value of each ratio is approximately 1 (that is, the RGB integration ratio is R: G: B≈1: 1: 1 in one screen). Then, a gain value (white balance correction value) for the R, G, and B signals of the white balance adjustment circuit is determined.

AF検出回路154は、撮影スタンバイ状態時にレリーズスイッチ26が半押しされると、CPU110からの指令に従い、入力された画像信号からAF制御に必要な物理量を算出する。本実施の形態の複眼デジタルカメラ1では、撮像素子128から得られる画像のコントラストによりAF制御が行われ(いわゆるコントラストAF)、AF検出回路154は、入力された画像信号から画像の鮮鋭度を示す焦点評価値を算出する。CPU110は、このAF検出回路154で算出される焦点評価値が極大となる位置を検出し、その位置にフォーカスレンズ群を移動させる。すなわち、フォーカスレンズ群を至近から無限遠まで所定のステップで移動させ、各位置で焦点評価値を取得し、得られた焦点評価値が最大の位置を合焦位置として、その位置にフォーカスレンズ群を移動させる。   When the release switch 26 is half-pressed in the shooting standby state, the AF detection circuit 154 calculates a physical quantity necessary for AF control from the input image signal in accordance with a command from the CPU 110. In the compound-eye digital camera 1 of the present embodiment, AF control is performed based on the contrast of the image obtained from the image sensor 128 (so-called contrast AF), and the AF detection circuit 154 indicates the sharpness of the image from the input image signal. A focus evaluation value is calculated. The CPU 110 detects a position where the focus evaluation value calculated by the AF detection circuit 154 is maximized, and moves the focus lens group to that position. That is, the focus lens group is moved from the closest distance to infinity in a predetermined step, the focus evaluation value is obtained at each position, and the position where the obtained focus evaluation value is the maximum is set as the in-focus position, and the focus lens group is at that position. Move.

また、複眼デジタルカメラ1には、電源電池が着脱可能に設けられている。電源電池は、充電可能な二次電池、例えばニカド電池、ニッケル水素電池、リチウムイオン電池で構成される。電源電池は使い切り型の一次電池、例えばリチウム電池、アルカリ電池で構成してもよい。電源電池は、図示しない電池収納室に装填することにより、複眼デジタルカメラ1の各手段と電気的に接続される。   Further, the compound-eye digital camera 1 is provided with a power supply battery in a detachable manner. The power battery is composed of a rechargeable secondary battery such as a nickel cadmium battery, a nickel metal hydride battery, or a lithium ion battery. The power battery may be a single use primary battery such as a lithium battery or an alkaline battery. The power supply battery is electrically connected to each means of the compound-eye digital camera 1 by being loaded into a battery storage chamber (not shown).

なお、図1の複眼デジタルカメラ1においては、2系統の撮像系(右側カメラ10aおよび左側カメラ10b)を有する例を示すが、撮像系が3個以上あってもよい。また、撮像系の配置は、横一列でなくても二次元で配置されていてもよい。また、図1の複眼デジタルカメラ1は、立体撮影のみでなく、マルチ視点や全方向の撮影も可能である。   1 shows an example having two imaging systems (the right camera 10a and the left camera 10b), but there may be three or more imaging systems. Moreover, the arrangement of the imaging system may not be one horizontal row but may be two-dimensionally arranged. In addition, the compound-eye digital camera 1 of FIG. 1 can perform not only stereoscopic shooting but also shooting from multiple viewpoints and all directions.

上記のように構成された複眼デジタルカメラ1の撮影、記録、再生及び編集の各動作について説明する。以下の処理は、主としてCPU110で行われる。   Each operation of photographing, recording, reproduction, and editing of the compound-eye digital camera 1 configured as described above will be described. The following processing is mainly performed by the CPU 110.

[撮影、記録動作]
図6は、2枚の被写体像を立体画像として撮影する撮影処理の一連の処理の流れを示すフローチャートである。複眼デジタルカメラ1の電源ボタン28がON操作されたことが検出されると、カメラ内電源がONされ、利き目情報を初期値である右目として、撮影モードで撮影スタンバイ状態にされる(ステップS10)。利き目情報の初期値を右目とするのは、右目が利き目である撮影者が多い(7割程度)という統計的情報に基づいている。モニタ30には、右側カメラ10aで撮影されたライブビュー画像が表示される。
[Shooting and recording operations]
FIG. 6 is a flowchart showing a flow of a series of photographing processes for photographing two subject images as a stereoscopic image. When it is detected that the power button 28 of the compound-eye digital camera 1 has been turned on, the power in the camera is turned on, and the dominant eye information is set to the right eye, which is the initial value, and a shooting standby state is set in the shooting mode (step S10). ). The initial value of the dominant eye information is set to the right eye based on statistical information that there are many photographers (about 70%) whose right eye is the dominant eye. On the monitor 30, a live view image taken by the right camera 10a is displayed.

レリーズスイッチ26が半押しされたかどうかが判断される(ステップS12)。レリーズスイッチが半押しされていない場合(ステップS12でNO)には、複眼デジタルカメラ1の動作モードとして撮影モード以外の動作モードに選択されたどうかが判断される(ステップS14)。複眼デジタルカメラ1の動作モードとして撮影モード以外の動作モードが選択された場合(ステップS14でYES)には、処理が終了され、複眼デジタルカメラ1の動作モードとして撮影モード以外の動作モードが選択されなかった場合(ステップS14でNO)には、複眼デジタルカメラ1の電源ボタン26がOFF操作されたかどうかが判断される(ステップS16)。複眼デジタルカメラ1の電源ボタン26がOFF操作された場合(ステップS16でYES)には、処理が終了され、複眼デジタルカメラ1の電源ボタン26がOFF操作されなかった場合(ステップS16でNO)には、再度レリーズスイッチ26が半押しされたかどうかを判断するステップ(ステップS12)が行われる。   It is determined whether or not the release switch 26 is half-pressed (step S12). If the release switch has not been pressed halfway (NO in step S12), it is determined whether an operation mode other than the photographing mode is selected as the operation mode of the compound-eye digital camera 1 (step S14). If an operation mode other than the shooting mode is selected as the operation mode of the compound-eye digital camera 1 (YES in step S14), the processing is terminated, and an operation mode other than the shooting mode is selected as the operation mode of the compound-eye digital camera 1. If not (NO in step S14), it is determined whether the power button 26 of the compound-eye digital camera 1 has been turned off (step S16). If the power button 26 of the compound-eye digital camera 1 is turned off (YES in step S16), the process is terminated, and if the power button 26 of the compound-eye digital camera 1 is not turned off (NO in step S16). In step S12, it is determined whether the release switch 26 is half-pressed again.

レリーズスイッチ26が半押しされた場合(ステップS12でYES)には、ファインダセンサ53で撮影者の顔があることが検出されたかどうかが判断される(ステップS18)。ファインダセンサ53で撮影者の顔があることが検出された場合(ステップS18でYES)には、撮影者がファインダを用いて撮影を行っているということであるため、モニタ30の電源を切り非表示とする。これにより、複眼デジタルカメラ1の消費電力を減らすことができる。その後、利き目を判定するステップ(ステップS22〜S32)へ進む。一般的には、カメラのファインダ、単眼の望遠鏡や顕微鏡、銃の照準、板塀の節穴等をのぞくとき使う方が利き目である。すなわち、撮影者が光学ファインダを覗き込むときには利き目で覗くという特性がある。したがって、利き目を判定するステップ(ステップS22〜S32)では、左側センサ51、右側センサ52及びファインダセンサ53を用いてどちらの目で光学ファインダを覗いているか判定して、利き目の判定を行う。   If the release switch 26 is pressed halfway (YES in step S12), it is determined whether or not the photographer's face is detected by the finder sensor 53 (step S18). If it is detected by the finder sensor 53 that there is a photographer's face (YES in step S18), this means that the photographer is taking a picture using the finder. Display. Thereby, the power consumption of the compound-eye digital camera 1 can be reduced. Then, it progresses to the step (steps S22-S32) which determines a dominant eye. In general, it is better to use it when looking through camera viewfinders, monocular telescopes and microscopes, gun sights, plate holes, etc. That is, there is a characteristic that when the photographer looks into the optical viewfinder, the photographer looks in with the dominant eye. Therefore, in the step of determining the dominant eye (steps S22 to S32), the left sensor 51, the right sensor 52, and the finder sensor 53 are used to determine which eye is looking into the optical finder, and the dominant eye is determined. .

まず、右側センサ52及びファインダセンサ53で撮影者の顔があることが検出されたかどうかが判断される(ステップS22)。右側センサ52及びファインダセンサ53で撮影者の顔があることが検出された場合(ステップS22でYES)には、図7に示すように、撮影者が左目で接眼レンズ64を覗いている場合であるため、左目が利き目であると判定され(ステップS24)、左側対物レンズ61bによって導かれた光が接眼レンズ64に導かれるように中央プリズム63を回転させることで、光学ファインダの光路が左側に切り替えられる(ステップS26)。   First, it is determined whether or not the right sensor 52 and the finder sensor 53 detect the presence of the photographer's face (step S22). If it is detected by the right sensor 52 and the finder sensor 53 that there is a photographer's face (YES in step S22), as shown in FIG. 7, the photographer is looking into the eyepiece 64 with the left eye. Therefore, it is determined that the left eye is a dominant eye (step S24), and the central prism 63 is rotated so that the light guided by the left objective lens 61b is guided to the eyepiece lens 64, whereby the optical path of the optical viewfinder is changed to the left side. (Step S26).

右側センサ52及びファインダセンサ53で撮影者の顔があることが検出されていない場合(ステップS22でNO)には、左側センサ51及びファインダセンサ53で撮影者の顔があることが検出されたかどうかが判断される(ステップS28)。左側センサ51及びファインダセンサ53で撮影者の顔があることが検出された場合(ステップS28でYES)には、図8に示すように、撮影者が右目で接眼レンズ64を覗いている場合であるため、右目が利き目であると判定され(ステップS30)、右側対物レンズ61aによって導かれた光が接眼レンズ64に導かれるように中央プリズム63を回転させることで、光学ファインダの光路が右側に切り替えられる(ステップS32)。これにより、利き目の情報の入力を意識する必要なく、接眼レンズ64を覗くだけで利き目の情報を取得することが可能であり、なおかつ接眼レンズ64を介して利き目に対応した被写体光を見ることができる。   If the right sensor 52 and the finder sensor 53 do not detect that there is a photographer's face (NO in step S22), whether or not the left sensor 51 and the finder sensor 53 detect that there is a photographer's face. Is determined (step S28). When it is detected by the left sensor 51 and the finder sensor 53 that there is a photographer's face (YES in step S28), as shown in FIG. 8, the photographer is looking into the eyepiece 64 with the right eye. Therefore, it is determined that the right eye is a dominant eye (step S30), and the central prism 63 is rotated so that the light guided by the right objective lens 61a is guided to the eyepiece lens 64, so that the optical path of the optical finder is on the right side. (Step S32). As a result, it is possible to acquire information on the dominant eye by simply looking into the eyepiece lens 64 without having to be aware of the input of information on the dominant eye, and the subject light corresponding to the dominant eye can be obtained via the eyepiece lens 64. Can see.

ファインダセンサ53で撮影者の顔があることが検出されたかどうかを判断するステップ(ステップS18)において、ファインダセンサ53で撮影者の顔があることが検出されていない場合(ステップS18でNO)には、スライドスイッチ50によって入力された操作者の利き目の情報が右目であるかどうかが判断される(ステップS34)。入力された利き目の情報が右目である場合(ステップS34でYES)には、右目用の撮像系である右側カメラ10aを介して撮影されるライブビュー画像をモニタ30に表示させる(ステップS36)。入力された利き目の情報が左目である場合(ステップS34でNO)には、左目用の撮像系である左側カメラ10bを介して撮影されるライブビュー画像をモニタ30に表示させる(ステップS38)。   In the step of determining whether or not the photographer's face is detected by the finder sensor 53 (step S18), if the photographer's face is not detected by the finder sensor 53 (NO in step S18). In step S34, it is determined whether or not the operator's dominant eye information input by the slide switch 50 is the right eye. If the input dominant eye information is the right eye (YES in step S34), a live view image captured through the right camera 10a, which is the right eye imaging system, is displayed on the monitor 30 (step S36). . If the input information on the dominant eye is the left eye (NO in step S34), a live view image captured through the left camera 10b that is the imaging system for the left eye is displayed on the monitor 30 (step S38). .

レリーズスイッチ26が全押しされたかどうかが判断される(ステップS40)。レリーズスイッチ26が全押しされなかった場合(ステップS40でNO)には、再度レリーズスイッチ26が半押しされたかどうかを判断するステップ(ステップS12)が行われる。レリーズスイッチ26が全押しされた場合(ステップS40でYES)には、CPU110にS2ON信号が入力される。このS2ON信号に応動して、以下のようにして立体画像の撮影(ステップS42)、撮影された立体画像の記録処理が行われる(ステップS44)。   It is determined whether the release switch 26 has been fully pressed (step S40). If the release switch 26 has not been fully pressed (NO in step S40), a step (step S12) for determining again whether the release switch 26 has been pressed halfway is performed. If the release switch 26 is fully pressed (YES in step S40), an S2 ON signal is input to the CPU 110. In response to the S2ON signal, a stereoscopic image is captured (step S42) and the captured stereoscopic image is recorded as described below (step S44).

まず、CPU110は、レリーズスイッチ26半押し時の測光値に基づいて決定した絞り値に基づいてモータドライバ122を介して第1絞り12a、第2絞り12bを駆動するとともに、前記測光値に基づいて決定したシャッター速度になるように第1イメージセンサ14a、第2イメージセンサ14bでの電荷蓄積時間(いわゆる電子シャッター)を制御する。   First, the CPU 110 drives the first diaphragm 12a and the second diaphragm 12b via the motor driver 122 based on the aperture value determined based on the photometric value when the release switch 26 is half-pressed, and based on the photometric value. The charge accumulation time (so-called electronic shutter) in the first image sensor 14a and the second image sensor 14b is controlled so that the determined shutter speed is obtained.

また、CPU110は、VRAM116に格納される右眼用画像データおよび左眼用画像データの各々からAF評価値およびAE評価値を算出する。AF評価値は、各画像データの全領域または所定領域(例えば中央部)について輝度値の高周波成分を積算することにより算出され、画像の鮮鋭度を表す。輝度値の高周波成分とは、隣接する画素間の輝度差(コントラスト)を所定領域内について足し合わせたものである。AE評価値は、各画像データの全領域または所定領域(例えば中央部)について輝度値を積算することにより算出され、画像の明るさを表す。AF評価値およびAE評価値は、後述する撮影準備処理時に実行されるAF動作およびAE動作においてそれぞれ使用される。   Further, the CPU 110 calculates an AF evaluation value and an AE evaluation value from each of the right eye image data and the left eye image data stored in the VRAM 116. The AF evaluation value is calculated by integrating high-frequency components of the luminance value for the entire area or predetermined area (for example, the central portion) of each image data, and represents the sharpness of the image. The high-frequency component of the luminance value is a sum of luminance differences (contrast) between adjacent pixels in a predetermined area. The AE evaluation value is calculated by integrating the luminance values over the entire area or a predetermined area (for example, the central portion) of each image data, and represents the brightness of the image. The AF evaluation value and the AE evaluation value are respectively used in an AF operation and an AE operation that are executed during an imaging preparation process described later.

CPU110は、CPU110が第1フォーカスレンズ13aおよび第2フォーカスレンズ13bを制御してそれぞれ所定方向に移動させながら、順次に得られる右眼用画像データおよび左眼用画像データの各々から算出されたAF評価値の最大値を求めることにより、AF動作(コントラストAF)を行う。   The CPU 110 controls the first focus lens 13a and the second focus lens 13b and moves them in predetermined directions while the CPU 110 calculates AF calculated from each of the right-eye image data and the left-eye image data obtained sequentially. An AF operation (contrast AF) is performed by obtaining the maximum evaluation value.

被写体光は、第1ズームレンズ11a、第1絞り12a、および第1フォーカスレンズ13aを介して第1イメージセンサ14aの受光面に入射する。また、第2ズームレンズ11b、第2絞り12b、および第2フォーカスレンズ13bを介して第2イメージセンサ14bの受光面に入射する。   The subject light enters the light receiving surface of the first image sensor 14a via the first zoom lens 11a, the first diaphragm 12a, and the first focus lens 13a. Further, the light enters the light receiving surface of the second image sensor 14b via the second zoom lens 11b, the second diaphragm 12b, and the second focus lens 13b.

第1イメージセンサ14a、第2イメージセンサ14bの受光面に入射した光は、その受光面に配列された各フォトダイオードによって入射光量に応じた量の信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、TG130から加えられるタイミング信号に従って読み出され、電圧信号(画像信号)として第1イメージセンサ14a、第2イメージセンサ14bから順次出力され、アナログ信号処理部132a、132bに入力される。   The light incident on the light receiving surfaces of the first image sensor 14a and the second image sensor 14b is converted into signal charges corresponding to the amount of incident light by the photodiodes arranged on the light receiving surfaces. The signal charges accumulated in each photodiode are read according to the timing signal applied from the TG 130, and are sequentially output from the first image sensor 14a and the second image sensor 14b as voltage signals (image signals), and the analog signal processing unit 132a. , 132b.

アナログ信号処理部132a、132bは、CDS回路及びアナログアンプを含み、CDS回路は、CDSパルスに基づいてCCD出力信号を相関二重サンプリング処理し、アナログアンプは、CPU110から加えられる撮影感度設定用ゲインによってCDS回路から出力される画像信号を増幅する。A/D変換器134a、134bにおいて、それぞれアナログの画像信号からデジタルの画像信号に変換される。   The analog signal processing units 132a and 132b include a CDS circuit and an analog amplifier. The CDS circuit performs correlated double sampling processing on the CCD output signal based on the CDS pulse, and the analog amplifier is a gain for setting the photographing sensitivity applied from the CPU 110. To amplify the image signal output from the CDS circuit. In the A / D converters 134a and 134b, analog image signals are converted into digital image signals, respectively.

A/D変換器134a、134bから出力された右眼用画像データおよび左眼用画像データは、それぞれ画像信号処理回路138で階調変換、ホワイトバランス調整、γ調整処理などの各種画像処理を施され、画像入力コントローラ136に内蔵のバッファメモリ3にそれぞれ一旦蓄えられる。   The right-eye image data and the left-eye image data output from the A / D converters 134a and 134b are subjected to various image processing such as gradation conversion, white balance adjustment, and γ adjustment processing by the image signal processing circuit 138, respectively. The image data is once stored in the buffer memory 3 built in the image input controller 136.

バッファメモリから読み出されたR、G、Bの画像信号は、画像信号処理回路138により輝度信号Yと色差信号Cr、Cb(YC信号)に変換され、Y信号は、輪郭調整手段により輪郭強調処理される。画像信号処理回路138で処理されたYC信号は、それぞれバッファメモリに蓄えられる。これにより、右側カメラ10a及び左側カメラ10bの2つの撮像系で同時に撮影が行われ、2枚の被写体像、すなわち立体画像が撮影される。   The R, G, and B image signals read from the buffer memory are converted into luminance signal Y and color difference signals Cr and Cb (YC signals) by the image signal processing circuit 138, and the Y signal is contour-enhanced by the contour adjusting means. It is processed. The YC signals processed by the image signal processing circuit 138 are each stored in a buffer memory. As a result, shooting is simultaneously performed by the two imaging systems of the right camera 10a and the left camera 10b, and two subject images, that is, stereoscopic images are captured.

バッファメモリに蓄えられたYC信号は、圧縮伸張処理回路140によって圧縮され、所定のフォーマットの画像ファイルとして、メディアコントローラ146を介して記録メディア144に記録される。   The YC signal stored in the buffer memory is compressed by the compression / decompression processing circuit 140 and recorded on the recording medium 144 via the media controller 146 as an image file of a predetermined format.

次に、画像ファイルについて説明する。図9は、同一画像ファイルに2枚の画像が連結された画像ファイルのデータ構造を模式的に示す図である。図9に示すように、画像ファイルは、右側カメラ10aで撮影された右目用の画像のデータの先頭を示すマーカSOI(Start of Image)の格納領域、右目用のタグ情報格納領域APP1、右目用の画像データ(JPEGデータ)の格納領域、右目用の画像のデータの終了を示すマーカEOI(End of Image)の格納領域、左側カメラ10bで撮影された左目用の画像のデータの先頭を示すマーカSOI(Start of Image)の格納領域、左目用のタグ情報格納領域APP1、左目用の画像データ(JPEGデータ)の格納領域、左目用の画像のデータの終了を示すマーカEOI(End of Image)の格納領域を含んでいる。   Next, the image file will be described. FIG. 9 is a diagram schematically showing the data structure of an image file in which two images are connected to the same image file. As shown in FIG. 9, the image file includes a marker SOI (Start of Image) storage area indicating the head of the data of the right-eye image captured by the right camera 10a, a right-eye tag information storage area APP1, and a right-eye image file. Image data (JPEG data) storage area, marker EOI (End of Image) storage area indicating the end of right-eye image data, marker indicating the start of left-eye image data captured by the left camera 10b An SOI (Start of Image) storage area, a left eye tag information storage area APP1, a left eye image data (JPEG data) storage area, and a marker EOI (End of Image) indicating the end of the left eye image data Contains storage area.

右目用及び左目用のタグ情報格納領域APP1は、APP1マーカ領域と、長さ情報領域と、Exif識別情報領域と、Tiffヘッダ領域と、IFD0領域と、Exif IFD領域と、DPS IFD領域と、互換IFD領域と、IFD1領域(サムネイルIFD領域)と、サムネイル画像データ領域とを含んでいる。撮影者の利き目の情報は、右目用のExif IFD領域、右目用の互換IFD領域、左目用のExif IFD領域、左目用の互換IFD領域の少なくとも1箇所に記録される。   The right eye and left eye tag information storage area APP1 is compatible with the APP1 marker area, the length information area, the Exif identification information area, the Tiff header area, the IFD0 area, the Exif IFD area, and the DPS IFD area. It includes an IFD area, an IFD1 area (thumbnail IFD area), and a thumbnail image data area. The photographer's dominant eye information is recorded in at least one of the right-eye Exif IFD area, the right-eye compatible IFD area, the left-eye Exif IFD area, and the left-eye compatible IFD area.

また、図10に示すように、2枚の画像を別の画像ファイルに記録することもできる。右側カメラ10aで撮影された右目用の画像ファイルにはDSCF0001.JPGのような奇数番号をつけ、また左側カメラ10bで撮影された左目用の画像の画像ファイルにはDSCF0002.JPGのような偶数番号をつけて、記録メディア144内の同一のファイルに記録する。この場合には、撮影者の利き目の情報は、右目用の画像ファイル及び左目用の画像ファイルのそれぞれに記録する必要がある。
[再生動作]
複眼デジタルカメラ1のモードとして再生モードが選択されると、記録メディア144に記録されている最終コマの画像が選択され、画像ファイルがメディアコントローラ146を介して読み出される(ステップS50)。読み出された画像ファイルのタグ情報格納領域APP1に記録されている撮影者の利き目の情報に基づいて、利き目に相当する撮像系で撮影され記録された画像(利き目側の画像)の圧縮データは、圧縮伸張処理回路140を介して非圧縮のYC信号に伸長され、バッファメモリ等に保持され、ビデオエンコーダ148を介して、図12(a)に示すような被写体像がモニタ30に表示される(ステップS52)。
In addition, as shown in FIG. 10, two images can be recorded in different image files. The right eye image file captured by the right camera 10a includes DSCF0001. An odd number such as JPG is given, and the image file of the image for the left eye photographed by the left camera 10b is DSCF0002. Even numbers such as JPG are attached and recorded in the same file in the recording medium 144. In this case, it is necessary to record information about the dominant eye of the photographer in each of the image file for the right eye and the image file for the left eye.
[Playback operation]
When the playback mode is selected as the mode of the compound-eye digital camera 1, the image of the last frame recorded on the recording medium 144 is selected, and the image file is read via the media controller 146 (step S50). Based on information on the dominant eye of the photographer recorded in the tag information storage area APP1 of the read image file, an image (image on the dominant eye side) captured and recorded by the imaging system corresponding to the dominant eye The compressed data is decompressed into an uncompressed YC signal via the compression / decompression processing circuit 140, held in a buffer memory or the like, and a subject image as shown in FIG. It is displayed (step S52).

逆コマ送りスイッチ(十字キーの左キー)が押されたかどうかが判断される(ステップS54)。十字キーの左キーが押されたと判断された場合(ステップS54でYES)には、逆方向にコマ送りされ、現在選択中のコマ番号の次に小さいコマ番号の画像ファイルが記録メディア144から読み出され、上記と同様にして利き目側の画像がモニタ30に再生される(ステップS56)。十字キーの左キーが押されていないと判断された場合(ステップS54でNO)には、順コマ送りスイッチ(十字キーの右キー)が押されたかどうかが判断される(ステップS58)。十字キーの右キーが押されたと判断された場合(ステップS58でYES)には、順方向にコマ送りされ、現在選択中のコマ番号の次に大きいコマ番号の画像ファイルが記録メディア144から読み出され、上記と同様にして利き目側の画像がモニタ30に再生される。   It is determined whether the reverse frame advance switch (left key of the cross key) has been pressed (step S54). If it is determined that the left key of the cross key has been pressed (YES in step S54), the frame is advanced in the reverse direction, and the image file having the next frame number next to the currently selected frame number is read from the recording medium 144. The dominant side image is reproduced on the monitor 30 in the same manner as described above (step S56). If it is determined that the left key of the cross key has not been pressed (NO in step S54), it is determined whether or not the forward frame advance switch (right key of the cross key) has been pressed (step S58). If it is determined that the right key of the cross key is pressed (YES in step S58), the frame is advanced in the forward direction, and the image file having the next frame number next to the currently selected frame number is read from the recording medium 144. The dominant side image is reproduced on the monitor 30 in the same manner as described above.

複眼デジタルカメラ1の動作モードとして再生モード以外の動作モードが選択されたかどうかが判断される(ステップS62)。再生モード以外のモードが選択された場合(ステップS62でYES)には、再生モードが終了される。再生モード以外のモードとしては、消去モードや編集モードなどがあげられる。画像がモニタ30に再生表示された状態で消去モードが選択されると、モニタ30に再生表示された画像の画像ファイルが記録メディア144から消去される。また、画像がモニタ30に再生表示された状態で、編集モードが選択されと、モニタ30に表示された画像を編集することができる。   It is determined whether an operation mode other than the playback mode has been selected as the operation mode of the compound-eye digital camera 1 (step S62). If a mode other than the playback mode is selected (YES in step S62), the playback mode is terminated. Examples of modes other than the playback mode include an erase mode and an edit mode. When the erasing mode is selected while the image is reproduced and displayed on the monitor 30, the image file of the image reproduced and displayed on the monitor 30 is erased from the recording medium 144. In addition, when the editing mode is selected while the image is reproduced and displayed on the monitor 30, the image displayed on the monitor 30 can be edited.

再生モード以外の動作モードが選択されなかった場合(ステップS62でNO)には、複眼デジタルカメラ1の電源ボタン26がOFF操作されたかどうかが判断される(ステップS64)。複眼デジタルカメラ1の電源ボタン26がOFF操作された場合(ステップS64でYES)には、処理が終了され、複眼デジタルカメラ1の電源ボタン26がOFF操作されなかった場合(ステップS64でNO)には、再度記録メディア144に記録されている最終コマの画像を選択するステップ(ステップS50)が行われる。   If an operation mode other than the playback mode is not selected (NO in step S62), it is determined whether the power button 26 of the compound-eye digital camera 1 has been turned OFF (step S64). If the power button 26 of the compound-eye digital camera 1 is turned off (YES in step S64), the process is terminated, and if the power button 26 of the compound-eye digital camera 1 is not turned off (NO in step S64). In step S50, the last frame image recorded on the recording medium 144 is selected again.

このように、モニタ30が2次元画像しか表示できない場合であっても、利き目の情報に基づいて利き目側の画像を再生することにより、撮影者が認識している立体画像にもっとも近い「撮影者の利き目側の平面画像」をモニタ30に再生することができる。   As described above, even when the monitor 30 can display only a two-dimensional image, by reproducing the image on the dominant eye side based on the dominant eye information, the closest to the stereoscopic image recognized by the photographer “ The “planar image of the photographer's dominant eye” can be reproduced on the monitor 30.

なお、図12(a)に示した再生方法(1枚画像の再生)以外に、図12(b)に示すような再生方法(インデックス表示)により、利き目側の被写体像を表示させることもできる。図12(b)は4枚の画像のインデックス表示の例であり、現在選択中のコマ番号の利き目側の画像が左上に表示され、次に小さいコマ番号の利き目側の画像が右上に表示され、3番目に小さいコマ番号の利き目側の画像が左下に表示され、4番目に小さいコマ番号の利き目側の画像が右下に表示される。   In addition to the reproduction method shown in FIG. 12A (reproduction of a single image), the subject image on the dominant side may be displayed by the reproduction method (index display) as shown in FIG. it can. FIG. 12B shows an example of index display of four images. The dominant-side image of the currently selected frame number is displayed on the upper left, and the dominant-side image of the next smaller frame number is displayed on the upper right. The image on the dominant side with the third smallest frame number is displayed on the lower left, and the image on the dominant side with the fourth smallest frame number is displayed on the lower right.

[選択された画像ファイルの表示動作]
記録メディア144に記録された所望の画像が選択され、選択された画像の画像ファイルが記録メディア144から読み出される(ステップS70)。画像の選択は、画像ファイルが記録されているフォルダを開いて選択してもよいし、インデックス表示を見ながら選択してもよい。読み出された画像ファイルのタグ情報格納領域APP1に記録されている撮影者の利き目の情報が参照され(ステップS72)、撮影者の利き目の情報が右目であるかどうかが判断される(ステップS74)。
[Display operation of selected image file]
A desired image recorded on the recording medium 144 is selected, and an image file of the selected image is read from the recording medium 144 (step S70). The image may be selected by opening a folder in which image files are recorded, or by selecting an index display. Information on the dominant eye of the photographer recorded in the tag information storage area APP1 of the read image file is referred to (step S72), and it is determined whether the information on the dominant eye of the photographer is the right eye ( Step S74).

撮影者の利き目の情報が右目である場合(ステップS74でYES)には、右側カメラ10aで撮影された右目用の画像がビデオエンコーダ148を介してモニタ30に表示され(ステップS76)、撮影者の利き目の情報が右目でない場合(ステップS74でNO)には、左側カメラ10bで撮影された左目用の画像がビデオエンコーダ148を介してモニタ30に表示される(ステップS78)。   If the photographer's dominant eye information is the right eye (YES in step S74), the right-eye image captured by the right camera 10a is displayed on the monitor 30 via the video encoder 148 (step S76). If the dominant eye information is not the right eye (NO in step S74), the image for the left eye photographed by the left camera 10b is displayed on the monitor 30 via the video encoder 148 (step S78).

このように、利き目の情報に基づいて利き目側の画像を表示することにより、撮影者が認識している立体画像にもっとも近い「撮影者の利き目側の平面画像」をモニタ30に表示することができる。   In this way, by displaying the dominant eye side image based on the dominant eye information, the “planar image of the dominant eye side of the photographer” closest to the stereoscopic image recognized by the photographer is displayed on the monitor 30. can do.

なお、本実施の形態では光学ファインダを用いて利き目の情報の取得、撮影動作を行ったが、光学ファインダに限らず、電子ビューファインダにも適用可能である。   In this embodiment, the dominant eye information is acquired and the photographing operation is performed using the optical viewfinder. However, the present invention is not limited to the optical viewfinder but can be applied to an electronic viewfinder.

<第2の実施の形態>
撮影者の利き目を自動的に判断する立体画像撮影装置の第1の実施の形態は、カメラボディ12の背面に設けられた左側センサ51、右側センサ52及びファインダセンサ53を用いて、接眼レンズ64を左目で覗いているか右目で覗いているかを検出することにより利き目を判断したが、利き目を判断する方法はこれに限らない。
<Second Embodiment>
The first embodiment of the stereoscopic image capturing apparatus that automatically determines the dominant eye of the photographer uses an left eye sensor 51, a right sensor 52, and a viewfinder sensor 53 provided on the back surface of the camera body 12, and an eyepiece lens. The dominant eye is determined by detecting whether the user is peeping with the left eye or the right eye, but the method of determining the dominant eye is not limited to this.

撮影者の利き目を自動的に判断する立体画像撮影装置の第2の実施の形態は、カメラボディ12の背面に設けられたカメラを用いて撮影者の利き目を判断するものである。なお、第1の実施の形態と同一の部分については、同一の符号を付し、説明を省略する。   In the second embodiment of the stereoscopic image capturing apparatus that automatically determines the dominant eye of the photographer, the dominant eye of the photographer is determined using a camera provided on the back surface of the camera body 12. In addition, about the part same as 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

図14は、撮影者の利き目を自動的に判断する立体画像撮影装置の第2の実施の形態に係る複眼デジタルカメラ100の正面斜視図であり、図15は複眼デジタルカメラ100の背面斜視図である。図16は、複眼デジタルカメラ100の電気的構成を示すブロック図である。複眼デジタルカメラ100は、複数(図14では二つを例示)の撮像系を備えた複眼デジタルカメラ100であって、同一被写体を複数視点(図14では左右二つの視点を例示)からみた立体画像を撮影可能である。   FIG. 14 is a front perspective view of a compound-eye digital camera 100 according to a second embodiment of a stereoscopic image photographing apparatus that automatically determines a photographer's dominant eye, and FIG. 15 is a rear perspective view of the compound-eye digital camera 100. It is. FIG. 16 is a block diagram showing an electrical configuration of the compound-eye digital camera 100. The compound-eye digital camera 100 is a compound-eye digital camera 100 having a plurality of imaging systems (two are illustrated in FIG. 14), and a stereoscopic image in which the same subject is viewed from a plurality of viewpoints (two viewpoints are illustrated in FIG. 14). Can be taken.

複眼デジタルカメラ100のカメラボディ112は、略直方体の箱状に形成されており、その正面には、図14に示すように、主として、右側カメラ10aズ、左側カメラ10bが設けられている。   The camera body 112 of the compound-eye digital camera 100 is formed in a substantially rectangular parallelepiped box shape. As shown in FIG. 14, a right camera 10a and a left camera 10b are mainly provided on the front surface.

カメラボディ112の背面には、図15に示すように、主として背面カメラ10c、モニタ30、ズームボタン38、マクロボタン40、BACKボタン42、MENU/OKボタン44、DISPボタン46、十字ボタン48が設けられている。   As shown in FIG. 15, a rear camera 10c, a monitor 30, a zoom button 38, a macro button 40, a BACK button 42, a MENU / OK button 44, a DISP button 46, and a cross button 48 are provided on the back of the camera body 112. It has been.

背面カメラ10cは、モニタ30の略中央軸線M上に設けられており、主として、第3絞り12c、第3フォーカスレンズ群13c及び第3イメージセンサ14cで構成される。第3絞り12cはモータドライバ122に接続され、第3フォーカスレンズ13cは、モータドライバ124に接続されている。被写体光は、第3ズームレンズ11c、第3絞り12c、および第3フォーカスレンズ13cを介して第3イメージセンサ14cの受光面に入射する。第3イメージセンサ14cは、所定のカラーフィルタ配列(例えば、ハニカム配列、ベイヤ配列)のR、G、Bのカラーフィルタが設けられたカラーCCDで構成されており、第3イメージセンサ14cの受光面に入射した光は、その受光面に配列された各フォトダイオードによって入射光量に応じた量の信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、TG130から加えられるタイミング信号に従って読み出され、電圧信号(画像信号)として第3イメージセンサ14cから順次出力され、アナログ信号処理部132cに入力される。   The rear camera 10c is provided on a substantially central axis M of the monitor 30, and mainly includes a third diaphragm 12c, a third focus lens group 13c, and a third image sensor 14c. The third diaphragm 12 c is connected to the motor driver 122, and the third focus lens 13 c is connected to the motor driver 124. The subject light enters the light receiving surface of the third image sensor 14c via the third zoom lens 11c, the third diaphragm 12c, and the third focus lens 13c. The third image sensor 14c is composed of a color CCD provided with R, G, B color filters in a predetermined color filter array (for example, honeycomb array, Bayer array), and a light receiving surface of the third image sensor 14c. The light incident on the light is converted into signal charges of an amount corresponding to the amount of incident light by the photodiodes arranged on the light receiving surface. The signal charges accumulated in each photodiode are read according to the timing signal applied from the TG 130, sequentially output from the third image sensor 14c as a voltage signal (image signal), and input to the analog signal processing unit 132c.

アナログ信号処理部132cは、第3イメージセンサ14cから出力された画像信号に対してそれぞれ相関二重サンプリング処理(撮像素子の出力信号に含まれるノイズ(特に熱雑音)等を軽減することを目的として、撮像素子の1画素毎の出力信号に含まれるフィードスルー成分レベルと画素信号成分レベルとの差をとることにより正確な画素データを得る処理)を行い、増幅して出力する。   The analog signal processing unit 132c is for the purpose of reducing correlated double sampling processing (noise (particularly thermal noise) included in the output signal of the imaging device) for the image signal output from the third image sensor 14c. Then, a process of obtaining accurate pixel data by taking the difference between the feedthrough component level and the pixel signal component level included in the output signal for each pixel of the image pickup device) is amplified and output.

A/D変換器134cは、入力された画像データをアナログからデジタルに変換する。A/D変換器134cを通して、第3イメージセンサ14cの撮像信号は背面画像データとして出力される。   The A / D converter 134c converts the input image data from analog to digital. The imaging signal of the third image sensor 14c is output as back image data through the A / D converter 134c.

システムバスには、CPU110、SDRAM114、VRAM116、画像入力コントローラ136、画像信号処理回路138、圧縮伸張処理回路140、画像ファイル生成部142、メディアコントローラ146、ビデオエンコーダ148、AE/AWB検出回路152、AF検出回路154、顔検出部160、顔位置検出部162などが接続される。   The system bus includes CPU 110, SDRAM 114, VRAM 116, image input controller 136, image signal processing circuit 138, compression / decompression processing circuit 140, image file generation unit 142, media controller 146, video encoder 148, AE / AWB detection circuit 152, AF A detection circuit 154, a face detection unit 160, a face position detection unit 162, and the like are connected.

顔検出部160は、CPU110からの指令に従い、画像データから画像内の顔領域を抽出し、その位置(たとえば、顔領域の重心)を検出する。この顔領域の抽出は、たとえば、原画像から肌色データを抽出し、肌色範囲と判断された測光点のクラスタを顔として抽出する。この他、画像から顔領域を抽出する方法としては、測光データを色相と彩度に変換し、変換した色相・彩度の二次元ヒストグラムを作成し、解析することで、顔領域を判断する方法や、人の顔の形状に相当する顔候補領域を抽出し、その領域内の特徴量から顔領域を決定する方法、画像から人の顔の輪郭を抽出し、顔領域を決定する方法、複数の顔の形状をしたテンプレートを用意し、そのテンプレートと画像との相関を計算し、この相関値により顔候補領域とすることで人の顔を抽出する方法等が知られており、これらの方法を用いて抽出することができる。   The face detection unit 160 extracts a face area in the image from the image data in accordance with a command from the CPU 110, and detects the position (for example, the center of gravity of the face area). In this face area extraction, for example, skin color data is extracted from an original image, and a cluster of photometric points determined to be in the skin color range is extracted as a face. In addition, as a method for extracting a face area from an image, a method for determining a face area by converting photometric data into hue and saturation, creating a two-dimensional histogram of the converted hue / saturation, and analyzing it. Or a method for extracting a face candidate region corresponding to the shape of a human face and determining the face region from the feature amount in the region, extracting a human face outline from an image, and determining a face region, There are known methods for extracting a human face by preparing a template having the shape of a human face, calculating the correlation between the template and an image, and using the correlation value as a face candidate region. Can be extracted.

顔位置検出部162は、撮影者の顔の中心(たとえば、顔領域の重心)が背面カメラ10cで撮影された画像のどの位置にあるかを検出する。例えば、顔検出部160で検出された顔領域の重心位置を顔の中心とし、顔の中心が画像の中心に比べて右にあるか、左にあるかを検出する。また、顔検出部160で検出された顔領域の重心位置を用いる代わりに、顔検出部160で検出された顔領域に基づいて顔位置検出部162において顔の中心を算出してもよい。これにより、顔の中心と背面カメラ10cとの位置関係が検出され、この検出結果に基づいて利き目情報が取得される。   The face position detection unit 162 detects the position of the photographer's face center (for example, the center of gravity of the face area) in the image photographed by the rear camera 10c. For example, the position of the center of gravity of the face area detected by the face detection unit 160 is used as the center of the face, and it is detected whether the center of the face is on the right or left of the center of the image. Instead of using the center of gravity position of the face area detected by the face detection unit 160, the face position detection unit 162 may calculate the center of the face based on the face area detected by the face detection unit 160. Thereby, the positional relationship between the center of the face and the rear camera 10c is detected, and dominant eye information is acquired based on the detection result.

[撮影、記録動作]
図17は、2枚の被写体像を立体画像として撮影する撮影処理の一連の処理の流れを示すフローチャートである。複眼デジタルカメラ100の電源ボタン26がON操作されると、CPU110はこれを検出し、カメラ内電源をONにし、利き目情報を初期値である右目として、撮影モードで撮影スタンバイ状態にする(ステップS10)。モニタ30には、右側カメラ10aで撮影された被写体光がライブビュー画像として表示される。
[Shooting and recording operations]
FIG. 17 is a flowchart showing a flow of a series of shooting processes for shooting two subject images as a stereoscopic image. When the power button 26 of the compound-eye digital camera 100 is turned on, the CPU 110 detects this, turns on the power in the camera, sets the dominant eye information to the right eye that is the initial value, and enters the shooting standby state in the shooting mode (step) S10). On the monitor 30, the subject light photographed by the right camera 10a is displayed as a live view image.

レリーズスイッチ26が半押しされたかどうかが判断される(ステップS12)。レリーズスイッチが半押しされていない場合(ステップS12でNO)には、複眼デジタルカメラ100の動作モードとして撮影モード以外の動作モードに選択されたどうかが判断される(ステップS14)。複眼デジタルカメラ100の動作モードとして撮影モード以外の動作モードが選択された場合(ステップS14でYES)には、処理が終了され、複眼デジタルカメラ100の動作モードとして撮影モード以外の動作モードが選択されなかった場合(ステップS14でNO)には、複眼デジタルカメラ100の電源ボタン26がOFF操作されたかどうかが判断される(ステップS16)。複眼デジタルカメラ100の電源ボタン26がOFF操作された場合(ステップS16でYES)には、処理が終了され、複眼デジタルカメラ100の電源ボタン26がOFF操作されなかった場合(ステップS16でNO)には、再度レリーズスイッチ26が半押しされたかどうかを判断するステップ(ステップS12)が行われる。   It is determined whether or not the release switch 26 is half-pressed (step S12). If the release switch is not half-pressed (NO in step S12), it is determined whether or not an operation mode other than the photographing mode is selected as the operation mode of the compound-eye digital camera 100 (step S14). If an operation mode other than the shooting mode is selected as the operation mode of the compound-eye digital camera 100 (YES in step S14), the processing is terminated, and an operation mode other than the shooting mode is selected as the operation mode of the compound-eye digital camera 100. If not (NO in step S14), it is determined whether the power button 26 of the compound-eye digital camera 100 has been turned OFF (step S16). If the power button 26 of the compound-eye digital camera 100 is turned off (YES in step S16), the process is terminated, and if the power button 26 of the compound-eye digital camera 100 is not turned off (NO in step S16). In step S12, it is determined whether the release switch 26 is half-pressed again.

レリーズスイッチ26が半押しされた場合(ステップS12でYES)には、利き目を判定するステップ(ステップS80〜S90)へ進む。一般的には、表示画面、単眼の望遠鏡や顕微鏡、銃の照準、板塀の節穴等をのぞくとき使う目が利き目である。すなわち、撮影者が液晶モニタを見るときには、主として利き目で見るという特性がある。したがって、利き目を判定するステップ(ステップS80〜S90)では、背面カメラ10cで撮影された画像を用いてどちらの目を主としてモニタ30を見ていているかを判定して、利き目の判定を行う。   If the release switch 26 is half-pressed (YES in step S12), the process proceeds to steps for determining the dominant eye (steps S80 to S90). In general, the eyes used for looking through the display screen, monocular telescope or microscope, gun sight, and the nodal hole of the lance are good-natured eyes. That is, when the photographer looks at the liquid crystal monitor, there is a characteristic that the photographer looks mainly at the dominant eye. Accordingly, in the step of determining the dominant eye (steps S80 to S90), it is determined which eye is mainly looking at the monitor 30 using the image taken by the rear camera 10c, and the dominant eye is determined. .

背面カメラ10cがONされ、撮影が行われる(ステップS80)。顔検出部160において、背面カメラ10cで撮影された画像データから顔検出が行われ(ステップS82)、画像データに顔が含まれるかどうかが判断される(ステップS84)。画像データに顔が含まれない場合(ステップS84でNO)は、利き目を判定するステップ(ステップS80〜S90)が行われず、ステップ10で設定された利き目の情報のままでステップS92へ進む。画像データに顔が含まれる場合(ステップS84でYES)は、顔位置検出部162において、顔の中心が撮影された画像の右側にあるかどうかが判断される(ステップS86)。   The rear camera 10c is turned on and photographing is performed (step S80). In the face detection unit 160, face detection is performed from image data captured by the rear camera 10c (step S82), and it is determined whether or not a face is included in the image data (step S84). If the face is not included in the image data (NO in step S84), the step of determining the dominant eye (steps S80 to S90) is not performed, and the process advances to step S92 while maintaining the dominant eye information set in step 10. . When the image data includes a face (YES in step S84), the face position detection unit 162 determines whether the center of the face is on the right side of the captured image (step S86).

顔位置が撮影された画像の右側にある場合(ステップS86でYES)は、図18に示すように、顔の中心が画像の中心より右にある場合である。背面カメラ10cは、モニタ30の略中央軸線M上にあるため、画像の中心はモニタ30の略中央軸線Mを示す。したがって、顔位置が撮影された画像の右側にある場合は、図19に示すように、操作者の顔位置が略中央軸線M、すなわちモニタ30の左にある場合である。したがって、操作者は右目でモニタ30を見ているため、操作者の利き目は右目と判定される(ステップS88)。   When the face position is on the right side of the captured image (YES in step S86), as shown in FIG. 18, the face center is on the right side of the image center. Since the rear camera 10 c is on the approximate central axis M of the monitor 30, the center of the image indicates the approximate central axis M of the monitor 30. Therefore, when the face position is on the right side of the photographed image, as shown in FIG. 19, the face position of the operator is substantially on the center axis M, that is, on the left of the monitor 30. Therefore, since the operator looks at the monitor 30 with the right eye, the dominant eye of the operator is determined to be the right eye (step S88).

顔位置が撮影された画像の左側にある場合(ステップS86でNO)は、図20に示すように、顔の中心が画像の中心より左にある場合である。したがって、顔位置が撮影された画像の左側にある場合は、図21に示すように、操作者の顔位置が略中央軸線M、すなわちモニタ30の右にある場合である。したがって、操作者は左目でモニタ30を見ているため、操作者の利き目は左目と判定される(ステップS90)。   When the face position is on the left side of the photographed image (NO in step S86), as shown in FIG. 20, the face center is on the left side of the image center. Therefore, when the face position is on the left side of the photographed image, as shown in FIG. 21, the face position of the operator is substantially on the central axis M, that is, on the right of the monitor 30. Therefore, since the operator looks at the monitor 30 with the left eye, the dominant eye of the operator is determined to be the left eye (step S90).

これにより、利き目の情報の入力を意識する必要なく、撮影時に撮影者がモニタ30を見るだけで利き目の情報を取得することが可能であり、なおかつモニタ30を介して利き目に対応した被写体光を見ることができる。   This makes it possible for the photographer to obtain the dominant eye information simply by looking at the monitor 30 at the time of shooting without having to be aware of the input of the dominant eye information. You can see the subject light.

利き目を判定するステップ(ステップS80〜S90)が終了したら、操作者の利き目の情報が右目であるかどうかが判断される(ステップS92)。入力された利き目の情報が右目である場合(ステップS92でYES)の場合には、右目用の撮像系である右側カメラ10aを介して撮影されるライブビュー画像をモニタ30に表示させる(ステップS94)。入力された利き目の情報が左目である場合(ステップS92でNO)の場合には、左目用の撮像系である左側カメラ10bを介して撮影されるライブビュー画像をモニタ30に表示させる(ステップS96)。   When the steps for determining the dominant eye (steps S80 to S90) are completed, it is determined whether or not the operator's dominant eye information is the right eye (step S92). If the input dominant eye information is the right eye (YES in step S92), a live view image photographed via the right camera 10a that is the imaging system for the right eye is displayed on the monitor 30 (step S92). S94). If the input dominant eye information is the left eye (NO in step S92), a live view image captured through the left camera 10b, which is the imaging system for the left eye, is displayed on the monitor 30 (step S92). S96).

レリーズスイッチ26が全押しされたかどうかが判断される(ステップS40)。レリーズスイッチ26が全押しされなかった場合(ステップS40でNO)には、再度レリーズスイッチ26が半押しされたかどうかを判断するステップ(ステップS12)が行われる。レリーズスイッチ26が全押しされた場合(ステップS40でYES)には、立体画像の撮影が行われ(ステップS42)、撮影された立体画像の記録処理が行われる(ステップS44)。   It is determined whether the release switch 26 has been fully pressed (step S40). If the release switch 26 has not been fully pressed (NO in step S40), a step (step S12) for determining again whether the release switch 26 has been pressed halfway is performed. When the release switch 26 is fully pressed (YES in step S40), a stereoscopic image is captured (step S42), and a recording process of the captured stereoscopic image is performed (step S44).

これにより、利き目の情報の入力を意識する必要なく、撮影時にモニタ30を見るという通常の撮影動作を行うだけで利き目の情報を入力可能であり、なおかつ撮影者が認識している立体画像にもっとも近い「撮影者の利き目側の平面画像」を撮影時のライブビュー画像や再生画像としてモニタ30に表示することができる。なお、立体画像の撮影方法、画像ファイルの記録形態、再生動作、選択された画像ファイルの表示動作については、第1の実施の形態と同じであるため、説明を省略する。   As a result, it is possible to input the dominant eye information only by performing the normal shooting operation of looking at the monitor 30 during shooting without being aware of the input of dominant eye information, and the stereoscopic image recognized by the photographer. Can be displayed on the monitor 30 as a live view image or a reproduced image at the time of shooting. The stereoscopic image capturing method, the image file recording mode, the playback operation, and the display operation of the selected image file are the same as those in the first embodiment, and thus description thereof is omitted.

なお、本実施の形態では、背面カメラ10cと、右側カメラ10a及び左側カメラ10bとが同様の構成の場合を例に説明したが、背面カメラ10cとしてパンフォーカスのカメラを用いてもよい。   In the present embodiment, the case where the rear camera 10c, the right camera 10a, and the left camera 10b have the same configuration has been described as an example, but a pan-focus camera may be used as the rear camera 10c.

また、第1の実施の形態及び第2の実施の形態では、画像ファイル生成部142において画像ファイルの作成を行い、CPU110において画像ファイルの復元処理や関連画像情報修復処理などを行う複眼デジタルカメラ1及び複眼デジタルカメラ100という装置について説明したが、複眼デジタルカメラに限らずPCなどの装置として提供してもよいし、装置に限らず、例えば、撮像装置、PC、携帯情報端末のような装置に適用するプログラムとして提供してもよい。   In the first embodiment and the second embodiment, the compound-eye digital camera 1 that creates an image file in the image file generation unit 142 and performs a restoration process of the image file and a related image information restoration process in the CPU 110. However, the present invention is not limited to a compound-eye digital camera, and may be provided as a device such as a PC. The device is not limited to a device such as an imaging device, PC, or portable information terminal. You may provide as a program to apply.

本発明が適用された複眼デジタルカメラ1の正面図である。1 is a front view of a compound-eye digital camera 1 to which the present invention is applied. 複眼デジタルカメラ1の背面斜視図である。2 is a rear perspective view of the compound-eye digital camera 1. FIG. 複眼デジタルカメラ1の要部透視図及び背面図である。FIG. 2 is a perspective view and a rear view of the main part of the compound-eye digital camera 1. プリズムの概観斜視図である。It is a general-view perspective view of a prism. 複眼デジタルカメラ1のブロック図である。1 is a block diagram of a compound eye digital camera 1. FIG. 複眼デジタルカメラ1の撮影、記録動作の処理の流れを示すフローチャートである。3 is a flowchart showing a flow of processing of photographing and recording operations of the compound-eye digital camera 1. 撮影者の目の位置と接眼レンズ64の位置とを説明するための図である。It is a figure for demonstrating a photographer's eye position and the position of the eyepiece lens 64. FIG. 撮影者の目の位置と接眼レンズの64の位置とを説明するための図である。It is a figure for demonstrating the position of a photographer's eye, and the position of 64 of an eyepiece. 画像ファイルのデータ構成を模式的に示す図である。It is a figure which shows typically the data structure of an image file. 画像ファイルのデータ構成の別の例を模式的に示す図である。It is a figure which shows typically another example of the data structure of an image file. 複眼デジタルカメラ1の再生動作の処理の流れを示すフローチャートである。4 is a flowchart showing a flow of processing of a reproduction operation of the compound eye digital camera 1. 複眼デジタルカメラ1の再生動作の表示画面の例であるIt is an example of a display screen of the reproduction operation of the compound-eye digital camera 1 複眼デジタルカメラ1の選択ファイルの表示動作の処理の流れを示すフローチャートである。4 is a flowchart showing a flow of processing of a selection file display operation of the compound eye digital camera 1. 本発明が適用された複眼デジタルカメラ10の正面図である。1 is a front view of a compound-eye digital camera 10 to which the present invention is applied. 複眼デジタルカメラ100の背面斜視図である。2 is a rear perspective view of the compound-eye digital camera 100. FIG. 複眼デジタルカメラ100のブロック図である。1 is a block diagram of a compound-eye digital camera 100. FIG. 複眼デジタルカメラ1の撮影、記録動作の処理の流れを示すフローチャートである。3 is a flowchart showing a flow of processing of photographing and recording operations of the compound-eye digital camera 1. 背面カメラ10cで撮影された画像と撮影された顔位置との関係を説明するための図であるIt is a figure for demonstrating the relationship between the image image | photographed with the back camera 10c, and the image | photographed face position. 撮影者の目の位置とモニタ30の位置との関係を説明するための図であるIt is a figure for demonstrating the relationship between a photographer's eye position and the position of the monitor. 背面カメラ10cで撮影された画像と撮影された顔位置との関係を説明するための図であるIt is a figure for demonstrating the relationship between the image image | photographed with the back camera 10c, and the image | photographed face position. 撮影者の目の位置とモニタ30の位置との関係を説明するための図であるIt is a figure for demonstrating the relationship between a photographer's eye position and the position of the monitor.

符号の説明Explanation of symbols

1、100:複眼デジタルカメラ、10a:右側カメラ、10b:左側カメラ、10c:背面カメラ、30:モニタ、51:左側センサ、52:右側センサ、53:ファインダセンサ、61a:右側対物レンズ、61b:左側対物レンズ、62a、62b、63:プリズム、64:接眼レンズ、110:CPU DESCRIPTION OF SYMBOLS 1,100: Compound-eye digital camera, 10a: Right camera, 10b: Left camera, 10c: Rear camera, 30: Monitor, 51: Left sensor, 52: Right sensor, 53: Finder sensor, 61a: Right objective lens, 61b: Left objective lens, 62a, 62b, 63: prism, 64: eyepiece, 110: CPU

Claims (14)

複数の視点から見た被写体像を立体画像として撮影する複数の撮像手段を備えた立体画像撮影装置において、
装置本体の背面に左右方向に離間して配設された2つ以上の物体検出センサであって、ファインダを覗いた撮影者の顔を検出物体として検出する物体検出センサと、
前記2つ以上の物体検出センサのそれぞれの検出出力に基づいてファインダを覗いた撮影者の利き目を判断する利き目判断手段と、
を備えたことを特徴とする立体画像撮影装置。
In a stereoscopic image capturing apparatus including a plurality of imaging means for capturing subject images viewed from a plurality of viewpoints as a stereoscopic image,
Two or more object detection sensors disposed on the back surface of the apparatus body so as to be separated from each other in the left-right direction, the object detection sensor detecting a photographer's face looking through the finder as a detection object;
A dominant eye determining means for determining a dominant eye of a photographer looking through a finder based on respective detection outputs of the two or more object detection sensors;
A three-dimensional image photographing apparatus comprising:
前記物体検出センサは、指向性の高い光を出射し、検出物体によって反射する光の有無、又は反射する光の光量に対応する信号を出力する光電センサであることを特徴とする請求項1に記載の立体画像撮影装置。   2. The photoelectric sensor according to claim 1, wherein the object detection sensor is a photoelectric sensor that emits light with high directivity and outputs a signal corresponding to the presence or absence of light reflected by the detection object or the amount of reflected light. The three-dimensional image photographing device described. 前記センサは、
装置本体の背面の略中央に設けられたファインダの近傍に設けられた第1のセンサと、
前記装置本体の背面の端部に設けられた第2のセンサと、
で構成されたことを特徴とする請求項1又は2に記載の立体画像撮影装置。
The sensor is
A first sensor provided in the vicinity of a finder provided in the approximate center of the back of the apparatus body;
A second sensor provided at an end of the back surface of the apparatus body;
The stereoscopic image capturing apparatus according to claim 1, wherein the stereoscopic image capturing apparatus is configured by:
前記第2のセンサは、前記装置本体の背面の左端に設けられた左側センサと、前記装置本体の背面の右端に設けられた右側センサとで構成され、
前記利き目判定手段は、前記第1のセンサ及び前記左側センサで撮影者が検出された場合には、撮影者の利き目は右目であると判断し、前記第1のセンサ及び前記右側センサで撮影者が検出された場合には、撮影者の利き目は左目であると判断することを特徴とする請求項3に記載の立体画像撮影装置。
The second sensor is composed of a left sensor provided at the left end of the back surface of the apparatus main body and a right sensor provided at the right end of the back surface of the apparatus body,
When the photographer is detected by the first sensor and the left sensor, the dominant eye determination unit determines that the photographer's dominant eye is a right eye, and the first sensor and the right sensor The stereoscopic image capturing apparatus according to claim 3, wherein when the photographer is detected, the dominant eye of the photographer is determined to be the left eye.
撮影者の利き目を設定する利き目設定手段を備え、
前記利き目判断手段は、前記第1のセンサで撮影者が検出されていない場合には、前記利き目設定手段により設定された利き目を利き目と判断することを特徴とする請求項1から4のいずれかに記載の立体画像撮影装置。
With a dominant eye setting means to set the dominant eye of the photographer,
The said dominant eye judging means judges that the dominant eye set by the dominant eye setting means is a dominant eye when no photographer is detected by the first sensor. 4. The stereoscopic image capturing device according to claim 4.
前記ファインダは、
装置本体の前面に設けられた右目用の右側対物レンズと、
装置本体の前面に設けられた左目用の左側対物レンズと、
前記右側対物レンズ及び前記左側対物レンズのいずれかを介した被写体像を見るための1つの接眼部と、
前記利き目判断手段における利き目の判断結果に基づいて、前記右側対物レンズから入射する光を前記接眼部へ導くか、前記左側対物レンズから入射する光を前記接眼部へ導くかの切り替えを行う切り替え手段と、
を備えたことを特徴とする請求項1から5のいずれかに記載の立体画像撮影装置。
The finder
A right objective lens for the right eye provided on the front surface of the apparatus body,
A left objective lens for the left eye provided on the front surface of the apparatus body;
One eyepiece for viewing a subject image through either the right objective lens or the left objective lens;
Switching between whether light incident from the right objective lens is guided to the eyepiece unit or light incident from the left objective lens is guided to the eyepiece unit based on the result of the dominant eye determination by the dominant eye determination unit Switching means for performing
The three-dimensional image photographing device according to claim 1, further comprising:
複数の視点から見た被写体像を立体画像として撮影する複数の撮像手段を備えた立体画像撮影装置において、
装置本体の背面に設けられた背面カメラと、
前記背面カメラにより撮影された画像に基づいて撮影者の顔の位置を検出する顔位置検出手段と、
前記顔位置検出手段により検出された撮影者の顔の位置に基づいて、撮影者の利き目を判断する利き目判断手段と、
を備えたことを特徴とする立体画像撮影装置。
In a stereoscopic image capturing apparatus including a plurality of imaging means for capturing subject images viewed from a plurality of viewpoints as a stereoscopic image,
A rear camera provided on the back of the device body;
Face position detecting means for detecting the position of the photographer's face based on an image photographed by the rear camera;
Based on the position of the photographer's face detected by the face position detection means, the dominant eye determination means for determining the dominant eye of the photographer;
A three-dimensional image photographing apparatus comprising:
前記背面カメラは、前記装置本体の背面に設けられた表示手段の略中央軸線上に設けられることを特徴とする請求項7に記載の立体画像撮影装置。   The stereoscopic image capturing apparatus according to claim 7, wherein the rear camera is provided on a substantially central axis of a display unit provided on a rear surface of the apparatus main body. 前記背面カメラにより撮影された画像から撮影者の顔を検出する顔検出手段を備え、
前記顔位置検出手段は、前記顔検出手段により検出された撮影者の顔の中心と、前記背面カメラで撮影された画像の中心とを比較することにより、撮影者の顔の位置を判断することを特徴とする請求項7又は8に記載の立体画像撮影装置。
Comprising face detection means for detecting a photographer's face from an image taken by the rear camera;
The face position detection means determines the position of the photographer's face by comparing the center of the photographer's face detected by the face detection means with the center of the image photographed by the rear camera. The three-dimensional image photographing device according to claim 7 or 8.
撮影者の利き目を設定する利き目設定手段を備え、
前記利き目判断手段は、前記顔位置検出手段において撮影者の顔の位置が判断できない場合には、前記利き目設定手段により設定された利き目を利き目と判断することを特徴とする請求項7から9のいずれかに記載の立体画像撮影装置。
With a dominant eye setting means to set the dominant eye of the photographer,
The dominant eye determining means determines that the dominant eye set by the dominant eye setting means is a dominant eye when the face position detecting means cannot determine the position of the photographer's face. The three-dimensional image photographing device according to any one of 7 to 9.
レリーズ操作を行うレリーズボタンを備え、
前記利き目判断手段は、前記レリーズボタンの半押し時に利き目の判定を行うことを特徴とする請求項1から10のいずれかに記載の立体画像撮影装置。
It has a release button for release operation.
The stereoscopic image capturing apparatus according to claim 1, wherein the dominant eye determining unit determines a dominant eye when the release button is half-pressed.
被写体像を表示する表示手段と、
前記利き目判断手段により判断された利き目の情報に基づいて、前記立体画像を構成する複数枚の被写体像から所望の1枚の被写体像を代表画像として選択する代表画像選択手段と、
前記代表画像選択手段により選択された代表画像を前記表示手段に表示させる表示制御手段と、
を備えたことを特徴とする請求項1から11のいずれかに記載の立体画像撮影装置。
Display means for displaying a subject image;
Representative image selection means for selecting a desired one subject image as a representative image from a plurality of subject images constituting the stereoscopic image based on the dominant eye information determined by the dominant eye determination means;
Display control means for causing the display means to display the representative image selected by the representative image selection means;
The three-dimensional image photographing device according to claim 1, further comprising:
前記複数の撮像手段により撮影された立体画像と、前記利き目判断手段によって判断された利き目の情報とを関連付けて記録媒体に記録する記録手段を備えたことを特徴とする請求項1〜12のいずれかに記載の立体画像撮影装置。   13. A recording unit that records a three-dimensional image captured by the plurality of imaging units and a dominant eye information determined by the dominant eye determination unit in association with each other on a recording medium. The three-dimensional image photographing device according to any one of the above. 前記代表画像選択手段は、前記立体画像と関連付けて記録媒体に記録された利き目の情報に基づいて、前記記録された立体画像を構成する複数の被写体像の中から所望の1枚の被写体像を代表画像として選択することを特徴とする請求項13に記載の立体画像撮影装置。   The representative image selecting means is a desired one subject image out of a plurality of subject images constituting the recorded stereoscopic image based on the dominant eye information recorded on the recording medium in association with the stereoscopic image. The stereoscopic image capturing apparatus according to claim 13, wherein the three-dimensional image capturing apparatus is selected as a representative image.
JP2007213737A 2007-08-20 2007-08-20 Stereo imaging device Expired - Fee Related JP5231771B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007213737A JP5231771B2 (en) 2007-08-20 2007-08-20 Stereo imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007213737A JP5231771B2 (en) 2007-08-20 2007-08-20 Stereo imaging device

Publications (2)

Publication Number Publication Date
JP2009047912A true JP2009047912A (en) 2009-03-05
JP5231771B2 JP5231771B2 (en) 2013-07-10

Family

ID=40500193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007213737A Expired - Fee Related JP5231771B2 (en) 2007-08-20 2007-08-20 Stereo imaging device

Country Status (1)

Country Link
JP (1) JP5231771B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110090315A1 (en) * 2009-10-20 2011-04-21 Sony Corporation Capturing device, image processing method, and program
JP2012210257A (en) * 2011-03-30 2012-11-01 Fujitsu Ltd Sight line direction detection device, sight line direction detection method and sight line detection program
JP2012255915A (en) * 2011-06-09 2012-12-27 Pentax Ricoh Imaging Co Ltd Digital camera
CN103547210A (en) * 2011-03-25 2014-01-29 埃西勒国际通用光学公司 Device and process for determining the dominant eye of a patient
JP2015216671A (en) * 2015-06-30 2015-12-03 株式会社ニコン Electronic apparatus and program
CN106375663A (en) * 2016-09-22 2017-02-01 宇龙计算机通信科技(深圳)有限公司 Terminal photographing method and terminal photographing device
US9888136B2 (en) 2010-02-19 2018-02-06 Nikon Corporation Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
JP2018068732A (en) * 2016-10-31 2018-05-10 株式会社トプコン Ophthalmologic apparatus
JP2019205208A (en) * 2019-09-06 2019-11-28 株式会社ニコン Electronic apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112014002822B4 (en) * 2013-06-13 2023-10-12 Leading Edge Industries, Inc METHOD AND LOAD DETECTION SYSTEM FOR DETERMINING THE WEIGHT OF GRAIN IN A TRANSPORT CONTAINER

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0787383A (en) * 1993-09-14 1995-03-31 Canon Inc Compound eye camera system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0787383A (en) * 1993-09-14 1995-03-31 Canon Inc Compound eye camera system

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102045581A (en) * 2009-10-20 2011-05-04 索尼公司 Capturing device, image processing method, and program
US20110090315A1 (en) * 2009-10-20 2011-04-21 Sony Corporation Capturing device, image processing method, and program
US8890935B2 (en) * 2009-10-20 2014-11-18 Sony Corporation Capturing device, image processing method, and program
US9888136B2 (en) 2010-02-19 2018-02-06 Nikon Corporation Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
US11882249B2 (en) 2010-02-19 2024-01-23 Nikon Corporation Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
US11343387B2 (en) 2010-02-19 2022-05-24 Nikon Corporation Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
US10764447B2 (en) 2010-02-19 2020-09-01 Nikon Corporation Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
US10264146B2 (en) 2010-02-19 2019-04-16 Nikon Corporation Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
CN103547210A (en) * 2011-03-25 2014-01-29 埃西勒国际通用光学公司 Device and process for determining the dominant eye of a patient
KR101866887B1 (en) * 2011-03-25 2018-06-15 에씰로 앙터나시오날 Device and process for determining the dominant eye of a patient
JP2012210257A (en) * 2011-03-30 2012-11-01 Fujitsu Ltd Sight line direction detection device, sight line direction detection method and sight line detection program
JP2012255915A (en) * 2011-06-09 2012-12-27 Pentax Ricoh Imaging Co Ltd Digital camera
JP2015216671A (en) * 2015-06-30 2015-12-03 株式会社ニコン Electronic apparatus and program
CN106375663A (en) * 2016-09-22 2017-02-01 宇龙计算机通信科技(深圳)有限公司 Terminal photographing method and terminal photographing device
JP2018068732A (en) * 2016-10-31 2018-05-10 株式会社トプコン Ophthalmologic apparatus
JP2019205208A (en) * 2019-09-06 2019-11-28 株式会社ニコン Electronic apparatus

Also Published As

Publication number Publication date
JP5231771B2 (en) 2013-07-10

Similar Documents

Publication Publication Date Title
US7856181B2 (en) Stereoscopic imaging device
JP4662071B2 (en) Image playback method
JP5231771B2 (en) Stereo imaging device
US8633998B2 (en) Imaging apparatus and display apparatus
US20110018970A1 (en) Compound-eye imaging apparatus
US9077976B2 (en) Single-eye stereoscopic image capturing device
US20130113892A1 (en) Three-dimensional image display device, three-dimensional image display method and recording medium
JP5474234B2 (en) Monocular stereoscopic imaging apparatus and control method thereof
US20110234881A1 (en) Display apparatus
US8284294B2 (en) Compound-eye image pickup apparatus
JP5415170B2 (en) Compound eye imaging device
JP4764854B2 (en) Imaging apparatus, image reproducing apparatus, imaging method, system, and program
JP5426262B2 (en) Compound eye imaging device
JP4763827B2 (en) Stereoscopic image display device, compound eye imaging device, and stereoscopic image display program
US20110050856A1 (en) Stereoscopic imaging apparatus
JP4730616B2 (en) Compound eye digital camera
JP5054214B2 (en) Compound eye digital camera
JP5307189B2 (en) Stereoscopic image display device, compound eye imaging device, and stereoscopic image display program
JP2011182418A (en) Imaging apparatus, image reproducing apparatus, imaging method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130322

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160329

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees