JP2010226362A - Imaging apparatus and control method thereof - Google Patents

Imaging apparatus and control method thereof Download PDF

Info

Publication number
JP2010226362A
JP2010226362A JP2009070605A JP2009070605A JP2010226362A JP 2010226362 A JP2010226362 A JP 2010226362A JP 2009070605 A JP2009070605 A JP 2009070605A JP 2009070605 A JP2009070605 A JP 2009070605A JP 2010226362 A JP2010226362 A JP 2010226362A
Authority
JP
Japan
Prior art keywords
distance
image
imaging
lens
photographer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2009070605A
Other languages
Japanese (ja)
Inventor
Kazushi Kodama
一志 児玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009070605A priority Critical patent/JP2010226362A/en
Publication of JP2010226362A publication Critical patent/JP2010226362A/en
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable a photographer to capture the most suitable image for three-dimensional (3D) viewing on a 3D image display device by customizing a lens position. <P>SOLUTION: A photographer photographs his/her own face by directing a lens 11 toward himself/herself (step S1). A face detection processing section 47 detects the face of the photographer 100 from the image, detects a distance E' on the image between both eyes from the detected face (step S2) and calculates a distance Z between the photographer 100 and a digital camera 1 from E'. Next, a distance N' between the digital camera 1 and a closest subject and a distance F' between the digital camera 1 and the farthest subject are detected (step S3). Finally, based on the information, a lens center distance A between a lens 11 and a lens 21 is calculated with which the photographer 100 can photograph the most suitable image for 3D viewing, and the lens 11 and the lens 21 are moved so that a lens distance A' between the lens 11 and the lens 21 becomes the calculated center distance A (step S4). <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は撮像装置及びその制御方法に係り、特に撮影者が立体視するのに最適な立体画像を撮影する撮像装置及びその制御方法に関する。   The present invention relates to an imaging apparatus and a control method thereof, and more particularly, to an imaging apparatus that captures a stereoscopic image optimal for a photographer to stereoscopically view and a control method thereof.

複数の撮像手段を備えた複眼撮像装置によって、視差のある2枚以上の画像を撮影し、それら異なる画像を観察者が左右それぞれの目で同時に見ることにより、画像を立体視する方法が知られている。特許文献1には、左右の画像の光路を各々制御することによって、観察者の眼が移動しても左目用画像を左目に、右目用画像を右目に導き、複数の観察者に対して広い視域で立体画像を見せることができる立体画像表示装置が開示されている。   There is known a method of stereoscopically viewing an image by photographing two or more images with parallax with a compound eye imaging device including a plurality of imaging means, and allowing an observer to simultaneously view these different images with the left and right eyes. ing. In Patent Document 1, by controlling the optical paths of the left and right images, the left-eye image is guided to the left eye and the right-eye image is guided to the right eye even when the observer's eyes move. A stereoscopic image display device capable of showing a stereoscopic image in the viewing zone is disclosed.

特開平8−62534号公報JP-A-8-62534

上記のような立体画像表示装置に表示される立体画像において、立体視に最適な画像は、立体視を行う観察者ごとに黒目の位置が異なるために、観察者ごとに異なる画像となる。しかしながら、立体撮影可能な複眼撮像装置はレンズ位置が固定されているため、撮影者によらずに同様の立体画像が撮影される。したがって、撮影した立体画像を立体表示した場合に、自ら撮影した立体画像であるにもかかわらず、自らが立体視を行うのに最適な画像であるとは限らないという問題点があった。   In the stereoscopic image displayed on the stereoscopic image display device as described above, the optimal image for stereoscopic vision is different for each observer because the position of the black eye is different for each observer performing stereoscopic vision. However, since the lens position of the compound eye imaging device capable of stereoscopic imaging is fixed, the same stereoscopic image is captured regardless of the photographer. Therefore, there is a problem in that when a captured stereoscopic image is displayed in a stereoscopic manner, it is not necessarily an optimal image for stereoscopic viewing by itself even though it is a stereoscopic image captured by itself.

本発明はこのような事情に鑑みてなされたもので、レンズ位置をカスタマイズすることで、撮影者が立体画像表示装置で立体視を行うのに最適な画像を取得することができる撮像装置及びその制御方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and an imaging apparatus capable of acquiring an optimal image for a photographer to perform stereoscopic viewing on a stereoscopic image display apparatus by customizing a lens position, and the imaging apparatus An object is to provide a control method.

前記目的を達成するために請求項1に記載の撮像装置は、第1の撮像レンズを介して受光した被写体の光学像を画像信号に変換する第1の撮像手段と、第2の撮像レンズを介して受光した被写体の光学像を画像信号に変換する第2の撮像手段と、を有し、前記第1の撮像レンズ及び前記第2の撮像レンズの間隔が変更可能に配置された複眼撮像手段と、前記複眼撮像手段と被写体との距離である第1の距離を算出する手段と、複数の画像から生成した立体画像を表示する表示手段と、撮影者が前記表示手段を視認するときの前記撮影者と前記表示手段との距離である第2の距離を算出する手段と、前記第1の撮像レンズと前記第2の撮像レンズとの最適な間隔である第3の距離を前記第1の距離及び前記第2の距離に基づいて算出する手段であって、前記複眼撮像手段によって撮像された複数の画像に基づいて生成された立体画像が、前記表示手段に表示されたときに前記撮影者が立体視するのに最適な立体画像となるための第3の距離を算出する手段と、前記第1の撮像レンズと前記第2の撮像レンズとの間隔が前記算出した第3の距離になるように、前記第1の撮像レンズ及び前記第2の撮像レンズのうち少なくとも一方を移動する移動手段とを備えたことを特徴とする。   In order to achieve the above object, an image pickup apparatus according to claim 1 includes a first image pickup unit that converts an optical image of a subject received through the first image pickup lens into an image signal, and a second image pickup lens. And a second imaging unit that converts an optical image of the subject received through the image sensor into an image signal, and a compound eye imaging unit that is arranged so that a distance between the first imaging lens and the second imaging lens can be changed. Means for calculating a first distance that is a distance between the compound-eye imaging means and a subject, display means for displaying a stereoscopic image generated from a plurality of images, and when the photographer visually recognizes the display means A means for calculating a second distance, which is a distance between the photographer and the display means, and a third distance, which is an optimum distance between the first imaging lens and the second imaging lens, are set as the first distance. Means for calculating based on the distance and the second distance; Thus, when a stereoscopic image generated based on a plurality of images captured by the compound eye imaging unit is displayed on the display unit, the stereoscopic image is optimal for the photographer to stereoscopically view. The first imaging lens and the second imaging unit are configured so that a distance between the means for calculating the third distance and the first imaging lens and the second imaging lens is equal to the calculated third distance. And a moving means for moving at least one of the imaging lenses.

請求項1に記載の発明によれば、撮影者が撮像装置の表示手段で立体視を行うのに最適な立体画像を取得することができる。   According to the first aspect of the present invention, it is possible to acquire a stereoscopic image that is optimal for a photographer to perform stereoscopic viewing on the display unit of the imaging apparatus.

請求項2に示すように請求項1に記載の撮像装置において、前記第2の距離を算出する手段は、前記撮影者の顔が被写体である撮影画像であって、前記撮影者を撮像した撮像手段と前記撮影者との距離が前記第2の距離と同じ距離である撮影画像に基づいて第2の距離を算出することを特徴とする。   The imaging apparatus according to claim 1, wherein the second distance calculating unit is a captured image in which the photographer's face is a subject and the photographer is imaged. The second distance is calculated based on a photographed image in which the distance between the means and the photographer is the same distance as the second distance.

これにより、適切に第2の距離を算出することができる。   Thereby, the second distance can be appropriately calculated.

請求項3に示すように請求項2に記載の撮像装置において、前記撮影画像は、前記第1の撮像手段及び前記第2の撮像手段のうち何れか一方で撮影された画像であることを特徴とする。   The imaging device according to claim 2, wherein the captured image is an image captured by any one of the first imaging unit and the second imaging unit. And

これにより、新たな撮像手段を備えることなく、簡単な構成で撮影画像を取得することができる。   Thereby, it is possible to acquire a captured image with a simple configuration without providing a new imaging unit.

請求項4に示すように請求項2に記載の撮像装置において、前記撮影画像は、前記表示手段と同じ平面上に配置された第3の撮像手段であることを特徴とする。   According to a fourth aspect of the present invention, in the imaging apparatus according to the second aspect, the captured image is a third imaging unit disposed on the same plane as the display unit.

これにより、通常使用する場合と同じ向きに撮像装置を保持したままで、撮影画像を取得することができる。   As a result, a captured image can be acquired while holding the imaging device in the same direction as in normal use.

請求項5に示すように請求項2から4のいずれかに記載の撮像装置において、前記撮影画像から人物の顔の領域を検出する顔検出手段と、前記検出した顔の領域から両目の領域を検出する手段と、前記検出した両目の領域から、画像上における両目の距離を算出する手段とを備え、前記第2の距離を算出する手段は、前記算出した画像上における両目の距離と前記撮影者を撮像した撮像手段の焦点距離に基づいて第2の距離を算出することを特徴とする。   The imaging device according to any one of claims 2 to 4, wherein a face detection unit that detects a human face area from the photographed image, and a region of both eyes from the detected face area. Means for detecting, and means for calculating the distance between both eyes on the image from the detected area of both eyes, and the means for calculating the second distance includes the distance between both eyes on the calculated image and the photographing. The second distance is calculated on the basis of the focal length of the imaging means that images the person.

これにより、適切に第2の距離を算出することができる。   Thereby, the second distance can be appropriately calculated.

請求項6に示すように請求項2から4のいずれかに記載の撮像装置において、前記表示手段の前面に備えられた透過型のタッチパネルであって、前記表示手段に表示された撮影画像の両目位置に対応する部分に触れることにより当該両目位置に対応するデータの入力が可能なタッチパネルと、前記タッチパネルから入力された両目位置に対応するデータに基づいて、画像上における両目の距離を算出する手段とを備え、前記第2の距離を算出する手段は、前記算出した画像上における両目の距離と前記撮影者を撮像した撮像手段の焦点距離に基づいて第2の距離を算出することを特徴とする。   The imaging apparatus according to any one of claims 2 to 4, wherein the transmissive touch panel provided on the front surface of the display means includes both eyes of a photographed image displayed on the display means. A touch panel capable of inputting data corresponding to the position of both eyes by touching a portion corresponding to the position, and means for calculating the distance between the eyes on the image based on the data corresponding to the position of both eyes input from the touch panel And the means for calculating the second distance calculates the second distance based on the distance between both eyes on the calculated image and the focal length of the image pickup means that picked up the photographer. To do.

これにより、適切に第2の距離を算出することができる。   Thereby, the second distance can be appropriately calculated.

請求項7に示すように請求項2から4のいずれかに記載の撮像装置において、前記表示手段に撮影画像とともに該撮影画像を水平方向及び垂直方向に分割する補助線を表示する手段と、前記表示手段に表示された撮影画像の両目位置に対応する位置を前記補助線と対応付けて入力する手段と、前記入力された座標に基づいて、画像上における両目の距離を算出する手段とを備え、前記第2の距離を算出する手段は、前記算出した画像上における両目の距離と前記撮影者を撮像した撮像手段の焦点距離に基づいて第2の距離を算出することを特徴とする。   In the imaging device according to any one of claims 2 to 4, as shown in claim 7, means for displaying an auxiliary line for dividing the photographed image in the horizontal direction and the vertical direction together with the photographed image on the display means, Means for inputting a position corresponding to the position of both eyes of the captured image displayed on the display means in association with the auxiliary line; and means for calculating a distance between the eyes on the image based on the input coordinates. The means for calculating the second distance calculates the second distance on the basis of the distance between both eyes on the calculated image and the focal length of the imaging means for imaging the photographer.

これにより、適切に第2の距離を算出することができる。   Thereby, the second distance can be appropriately calculated.

請求項8に示すように請求項1から7のいずれかに記載の撮像装置において、前記第1の距離を算出する手段は、前記複眼撮像手段と最も近い被写体との距離及び前記複眼撮像手段と最も遠い被写体との距離を算出することを特徴とする。   The imaging apparatus according to any one of claims 1 to 7, wherein the means for calculating the first distance includes a distance between the compound eye imaging means and the closest subject, and the compound eye imaging means. The distance to the farthest subject is calculated.

これにより、適切に、立体視を行うのに最適な立体画像を取得することができる。   Thereby, it is possible to appropriately acquire an optimal stereoscopic image for performing stereoscopic viewing.

請求項9に示すように請求項1から8のいずれかに記載の撮像装置において、前記第3の距離を算出する手段は、前記表示手段の水平方向の幅に基づいて第3の距離を算出することを特徴とする。   9. The imaging apparatus according to claim 1, wherein the third distance calculating unit calculates the third distance based on a horizontal width of the display unit. It is characterized by doing.

これにより、適切に、立体視を行うのに最適な立体画像を取得することができる。   Thereby, it is possible to appropriately acquire an optimal stereoscopic image for performing stereoscopic viewing.

前記目的を達成するために請求項10に記載の撮像装置の制御方法は、第1の撮像レンズを介して受光した被写体の光学像を画像信号に変換する第1の撮像手段と、第2の撮像レンズを介して受光した被写体の光学像を画像信号に変換する第2の撮像手段と、を有し、前記第1の撮像レンズ及び前記第2の撮像レンズの間隔が変更可能に配置された複眼撮像手段により画像を撮像する撮像工程と、前記複眼撮像手段と被写体との距離である第1の距離を算出する工程と、複数の画像から生成した立体画像を表示手段に表示する工程と、撮影者が前記表示手段を視認するときの前記撮影者と前記表示手段との距離である第2の距離を算出する工程と、前記第1の撮像レンズと前記第2の撮像レンズとの最適な間隔である第3の距離を前記第1の距離及び前記第2の距離に基づいて算出する工程であって、前記撮像工程によって撮像された複数の画像に基づいて生成された立体画像が、前記表示手段に表示されたときに前記撮影者が立体視するのに最適な立体画像となるための第3の距離を算出する工程と、前記第1の撮像レンズと前記第2の撮像レンズとの間隔が前記算出した第3の距離になるように、前記第1の撮像レンズ及び前記第2の撮像レンズのうち少なくとも一方を移動手段により移動する工程とを備えたことを特徴とする。   In order to achieve the object, a method for controlling an imaging apparatus according to claim 10 includes: a first imaging unit that converts an optical image of a subject received through the first imaging lens into an image signal; Second imaging means for converting an optical image of a subject received through the imaging lens into an image signal, and an interval between the first imaging lens and the second imaging lens is arranged to be changeable. An imaging step of capturing an image with a compound eye imaging unit, a step of calculating a first distance that is a distance between the compound eye imaging unit and a subject, a step of displaying a stereoscopic image generated from a plurality of images on a display unit, Calculating a second distance that is a distance between the photographer and the display means when the photographer visually recognizes the display means; and an optimum of the first imaging lens and the second imaging lens. A third distance, which is an interval, is the first distance A step of calculating based on the distance and the second distance, and when the stereoscopic image generated based on the plurality of images captured by the imaging step is displayed on the display means, the photographer A step of calculating a third distance for obtaining a stereoscopic image that is optimal for stereoscopic viewing, and a distance between the first imaging lens and the second imaging lens is the calculated third distance. And a step of moving at least one of the first imaging lens and the second imaging lens by a moving means.

本発明によれば、撮影者が立体画像表示装置で立体視を行うのに最適な画像を取得することができる。   According to the present invention, it is possible to acquire an optimal image for a photographer to perform stereoscopic viewing on a stereoscopic image display device.

デジタルカメラ1の斜視図Perspective view of digital camera 1 デジタルカメラ1の電気的構成の一例を示す図The figure which shows an example of the electrical constitution of the digital camera 1 レンズ移動の処理について示したフローチャートFlow chart showing the lens movement process 撮影者100とデジタルカメラ1との距離を示す図The figure which shows the distance of the photographer 100 and the digital camera 1 立体視における飛び出し量と引っ込み量を説明するための図The figure for explaining the pop-out amount and the retract amount in the stereoscopic view デジタルカメラ1の電気的構成の一例を示すブロック図Block diagram showing an example of the electrical configuration of the digital camera 1 レンズ移動の処理について示したフローチャートFlow chart showing the lens movement process 撮影画像が表示部44に表示されている様子を示す図The figure which shows a mode that the picked-up image is displayed on the display part 44. FIG. カメラ付き携帯電話2の斜視図Perspective view of camera-equipped mobile phone 2

以下、添付図面に従って本発明を実施するための形態について説明する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the accompanying drawings.

<第1の実施の形態>
図1(a)は、本実施形態におけるデジタルカメラ1の正面斜視図である。同図に示すように、デジタルカメラ1の筐体は、略直方体の箱状に形成されており、その正面にはレンズ11、レンズ21が設けられている。このように、デジタルカメラ1は、複数の撮像系を備えた複眼デジタルカメラであり、同一被写体を複数視点(図1では、左右2つの視点を例示)から見た立体画像を撮影可能である。また、後述するように、デジタルカメラ1は、レンズ11とレンズ21との間隔(レンズ11の中心とレンズ21の中心との間隔)A´を変更可能に構成されている。
<First Embodiment>
FIG. 1A is a front perspective view of the digital camera 1 in the present embodiment. As shown in the figure, the housing of the digital camera 1 is formed in a substantially rectangular parallelepiped box shape, and a lens 11 and a lens 21 are provided on the front surface thereof. As described above, the digital camera 1 is a compound-eye digital camera including a plurality of imaging systems, and can capture a stereoscopic image when the same subject is viewed from a plurality of viewpoints (two left and right viewpoints are illustrated in FIG. 1). As will be described later, the digital camera 1 is configured to be able to change the distance A ′ between the lens 11 and the lens 21 (the distance between the center of the lens 11 and the center of the lens 21) A ′.

図1(b)は、デジタルカメラ1の背面斜視図である。同図に示すように、デジタルカメラ1の背面には、表示部44が配置されている。表示部44は、立体画像を立体表示することが可能なレンチキュラーレンズ方式の3Dモニタであり、立体視をするときに両目が並ぶ方向の幅がW[mm]で構成されている。   FIG. 1B is a rear perspective view of the digital camera 1. As shown in the figure, a display unit 44 is disposed on the back surface of the digital camera 1. The display unit 44 is a lenticular lens type 3D monitor capable of stereoscopically displaying a stereoscopic image, and has a width of W [mm] in the direction in which both eyes are aligned when stereoscopically viewed.

図2は、デジタルカメラ1の電気的構成の一例を示す図である。同図に示すように、デジタルカメラ1は、第1撮像光学系10、第2撮像光学系20、撮像信号処理部31、制御バス32、データバス33、メモリ制御部36、メインメモリ37、デジタル信号処理部38、圧縮伸張処理部39、積算部40、外部メモリ制御部41、記録媒体42、表示制御部43、表示部44、CPU45、操作部46、顔検出処理部47、撮像光学系駆動部50等を備えて構成される。   FIG. 2 is a diagram illustrating an example of the electrical configuration of the digital camera 1. As shown in the figure, the digital camera 1 includes a first imaging optical system 10, a second imaging optical system 20, an imaging signal processing unit 31, a control bus 32, a data bus 33, a memory control unit 36, a main memory 37, a digital Signal processing unit 38, compression / decompression processing unit 39, integration unit 40, external memory control unit 41, recording medium 42, display control unit 43, display unit 44, CPU 45, operation unit 46, face detection processing unit 47, imaging optical system drive It comprises the part 50 grade | etc.,.

各部はCPU45に制御されて動作し、CPU45は、操作部46からの入力に基づき所定の制御プログラムを実行することにより、デジタルカメラ1の各部を制御する。   Each unit operates under the control of the CPU 45, and the CPU 45 controls each unit of the digital camera 1 by executing a predetermined control program based on an input from the operation unit 46.

デジタルカメラ1は図示しないROMを備えており、ROMにはCPU45が実行する制御プログラムのほか、制御に必要な各種データ等が記録されている。CPU45は、ROMに記録された制御プログラムをメインメモリ37に読み出し、逐次実行することにより、デジタルカメラ1の各部を制御する。   The digital camera 1 includes a ROM (not shown), and various data necessary for control are recorded in the ROM in addition to a control program executed by the CPU 45. The CPU 45 controls each part of the digital camera 1 by reading the control program recorded in the ROM into the main memory 37 and sequentially executing it.

なお、メインメモリ37は、SDRAMで構成されており、プログラムの実行処理領域として利用されるほか、画像データ等の一時記憶領域、各種作業領域として利用される。   The main memory 37 is composed of SDRAM, and is used as a program execution processing area, a temporary storage area for image data, and various work areas.

操作部46は、図示しない電源ボタン、シャッターレリーズボタン、モード切替スイッチ、十字キー等を備え、それぞれの操作に応じた信号をCPU45に出力する。   The operation unit 46 includes a power button, a shutter release button, a mode switch, a cross key, and the like (not shown), and outputs a signal corresponding to each operation to the CPU 45.

第1撮像光学系10は、レンズ11、レンズ駆動部12、撮像素子13、撮像素子駆動部15を備えている。レンズ11は、図示しないズームレンズ、フォーカスレンズ、絞り、及びメカシャッタを含み、レンズ駆動部12に駆動されて、ズーミング、フォーカシング、絞りの開口量(F値)変更、及びメカシャッタの開閉を行う。   The first imaging optical system 10 includes a lens 11, a lens driving unit 12, an imaging element 13, and an imaging element driving unit 15. The lens 11 includes a zoom lens, a focus lens, a diaphragm, and a mechanical shutter (not shown). The lens 11 is driven by a lens driving unit 12 to perform zooming, focusing, changing the aperture amount (F value) of the diaphragm, and opening / closing the mechanical shutter.

撮像素子13は、レンズ11の後段に配置されており、レンズ11を透過した被写体光を受光する。   The image sensor 13 is disposed at the rear stage of the lens 11 and receives subject light transmitted through the lens 11.

CCD13の受光面には図示しない多数の受光素子が二次元的に配列されており、各受光素子に対応して図示しない赤(R)、緑(G)、青(B)の原色カラーフィルタが所定の配列構造で配置されている。受光面上に結像された被写体光は、各受光素子によって電気信号に変換され、蓄積される。   A large number of light receiving elements (not shown) are two-dimensionally arranged on the light receiving surface of the CCD 13, and red (R), green (G), and blue (B) primary color filters (not shown) are provided corresponding to the light receiving elements. They are arranged in a predetermined arrangement structure. The subject light imaged on the light receiving surface is converted into an electrical signal by each light receiving element and accumulated.

各受光素子に蓄積された電気信号は、図示しない垂直転送路に読み出される。垂直転送路は、この信号を撮像素子駆動部15から供給されるクロックに同期して、1ラインずつ図示しない水平転送路に転送する。さらに水平転送路は、垂直転送路から転送された1ライン分の信号を、撮像素子駆動部15から供給されるクロックに同期して撮像信号処理部31へ出力する。   The electrical signal accumulated in each light receiving element is read out to a vertical transfer path (not shown). The vertical transfer path transfers this signal to the horizontal transfer path (not shown) line by line in synchronization with the clock supplied from the image sensor driving unit 15. Further, the horizontal transfer path outputs the signal for one line transferred from the vertical transfer path to the imaging signal processing unit 31 in synchronization with the clock supplied from the imaging element driving unit 15.

なお、画像信号の出力は、デジタルカメラ1が撮影モードにセットされると開始される。即ち、デジタルカメラ1が撮影モードにセットされると、表示部44にスルー画像を表示するため、画像信号の出力が開始される。このスルー画像用の画像信号の出力は、本撮影の指示が行われると一旦停止され、本撮影が終了すると再度開始される。なお、本撮影終了時には、一定時間、表示部44に本撮影された撮影画像が表示される(ポストビュー)。ユーザは、ポストビューを確認することにより、撮影画像が適切に撮影できたか否かを確認することができる。   The output of the image signal is started when the digital camera 1 is set to the shooting mode. In other words, when the digital camera 1 is set to the photographing mode, output of an image signal is started to display a through image on the display unit 44. The output of the image signal for the through image is temporarily stopped when the instruction for the main photographing is given, and is started again when the main photographing is finished. Note that, at the end of the main shooting, the captured image is displayed on the display unit 44 for a predetermined time (postview). The user can confirm whether or not the captured image has been properly captured by confirming the postview.

第2撮像光学系20についても、第1撮像光学系10と同様の構成となっている。すなわち、レンズ21を透過した被写体光は、撮像素子23の各受光素子によって電気信号に変換され、撮像信号処理部31へ出力される。前述のスルー画像は、第2撮像光学系20で撮像された画像信号に基づいて表示してもよいし、第1撮像光学系10で撮像された画像信号と第2撮像光学系20で撮像された画像信号とを立体視可能に表示してもよい。   The second imaging optical system 20 has the same configuration as that of the first imaging optical system 10. That is, the subject light transmitted through the lens 21 is converted into an electrical signal by each light receiving element of the imaging element 23 and is output to the imaging signal processing unit 31. The above-described through image may be displayed based on the image signal captured by the second imaging optical system 20 or may be captured by the image signal captured by the first imaging optical system 10 and the second imaging optical system 20. The displayed image signal may be displayed in a stereoscopic manner.

撮像信号処理部31は、図示しない相関二重サンプリング回路(CDS)、クランプ処理回路、自動ゲインコントロール回路(AGC)、及びA/D変換器を含んで構成される。   The imaging signal processing unit 31 includes a correlated double sampling circuit (CDS), a clamp processing circuit, an automatic gain control circuit (AGC), and an A / D converter (not shown).

CDSは、画像信号に含まれているノイズの除去を行う。クランプ処理回路は、暗電流成分を除去する処理を行う。さらに、AGCは、暗電流成分が除去された画像信号を、設定された撮影感度(ISO感度)に応じた所定のゲインで増幅する。所要の信号処理が施されたアナログの画像信号は、A/D変換器において所定ビットの階調幅を持ったデジタルの画像信号に変換される。この画像信号は、いわゆるRAWデータであり、画素毎にR、G、Bの濃度を示す階調値を有している。このデジタルの画像信号は、データバス33、メモリ制御部36を介してメインメモリ37に格納される。   CDS removes noise contained in an image signal. The clamp processing circuit performs processing for removing dark current components. Further, the AGC amplifies the image signal from which the dark current component is removed with a predetermined gain corresponding to the set photographing sensitivity (ISO sensitivity). The analog image signal subjected to the required signal processing is converted into a digital image signal having a gradation width of a predetermined bit by an A / D converter. This image signal is so-called RAW data, and has a gradation value indicating the density of R, G, and B for each pixel. The digital image signal is stored in the main memory 37 via the data bus 33 and the memory control unit 36.

制御バス32、データバス33には、メモリ制御部36のほか、デジタル信号処理部38、圧縮伸張処理部39、積算部40、外部メモリ制御部41、表示制御部43、顔検出処理部47等が接続されており、これらは制御バス32の制御信号に基づいて、データバス33を介して互いに情報を送受信できるようにされている。   In addition to the memory control unit 36, the control bus 32 and the data bus 33 include a digital signal processing unit 38, a compression / decompression processing unit 39, an integration unit 40, an external memory control unit 41, a display control unit 43, a face detection processing unit 47, and the like. Are connected to each other via a data bus 33 based on a control signal of the control bus 32.

デジタル信号処理部38は、メインメモリ37に格納されたR、G、Bの各色の画像信号に対して所定の信号処理を施し、輝度信号Yと色差信号Cr、Cbとからなる画像信号(Y/C信号)を生成する。   The digital signal processing unit 38 performs predetermined signal processing on the image signals of R, G, and B colors stored in the main memory 37, and an image signal (Y that includes the luminance signal Y and the color difference signals Cr and Cb). / C signal).

圧縮伸張処理部39は、CPU45からの圧縮指令に従い、入力された輝度信号Yと色差信号Cr、Cbとからなる画像信号(Y/C信号)に所定形式(たとえば、JPEG)の圧縮処理を施し、圧縮画像データを生成する。また、CPU45からの伸張指令に従い、入力された圧縮画像データに所定形式の伸張処理を施して、非圧縮の画像データを生成する。   In accordance with a compression command from the CPU 45, the compression / decompression processing unit 39 performs compression processing in a predetermined format (for example, JPEG) on the input image signal (Y / C signal) composed of the luminance signal Y and the color difference signals Cr and Cb. Generate compressed image data. Further, in accordance with a decompression command from the CPU 45, the input compressed image data is subjected to decompression processing in a predetermined format to generate non-compressed image data.

積算部40は、CPU45の指令に従い、メインメモリ37に格納されたR、G、Bの画像信号を取り込み、AE制御に必要な積算値を算出する。CPU45は、積算値から輝度値を算出し、輝度値から露出値を求める。また露出値から所定のプログラム線図に従って、絞り値及びシャッタースピードを決定する。   The accumulating unit 40 takes R, G, and B image signals stored in the main memory 37 in accordance with a command from the CPU 45 and calculates an accumulated value necessary for AE control. The CPU 45 calculates a luminance value from the integrated value and obtains an exposure value from the luminance value. Further, the aperture value and the shutter speed are determined from the exposure value according to a predetermined program diagram.

外部メモリ制御部41は、CPU45からの指令に従い、記録媒体42に対してデータの読み/書きを制御する。なお、記録媒体42は、メモリカードのようにデジタルカメラ1の本体に対して着脱自在なものでもよいし、デジタルカメラ1の本体に内蔵されたものでもよい。着脱自在とする場合は、デジタルカメラ1の本体にカードスロットを設け、このカードスロットに装填して使用する。   The external memory control unit 41 controls reading / writing of data with respect to the recording medium 42 in accordance with a command from the CPU 45. The recording medium 42 may be removable from the main body of the digital camera 1 such as a memory card, or may be built into the main body of the digital camera 1. In the case of detachable, a card slot is provided in the main body of the digital camera 1, and the card slot is used by being loaded.

表示制御部43は、CPU45からの指令に従い、表示部44への表示を制御する。表示部44は、前述したようにレンチキュラーレンズ方式の3Dモニタであり、第1撮像光学系10と第2撮像光学系20において同時に撮像した画像を、時分割で交互に指向性を持たせて表示させることができる。また、表示部44は、動画(スルー画像)を表示して電子ビューファインダとして使用できるとともに、撮影した記録前の画像(ポストビュー画像)や記録媒体42から読み出した再生画像等を表示することが可能である。   The display control unit 43 controls display on the display unit 44 in accordance with a command from the CPU 45. The display unit 44 is a lenticular lens type 3D monitor as described above, and displays images simultaneously captured by the first imaging optical system 10 and the second imaging optical system 20 with directivity alternately in time division. Can be made. Further, the display unit 44 can display a moving image (through image) and use it as an electronic viewfinder, and can display a captured image before recording (postview image), a reproduced image read from the recording medium 42, and the like. Is possible.

顔検出処理部47は、メインメモリ37に格納されたR、G、Bの各色の画像信号から人物の顔領域を検出し、さらに、検出した顔領域から両目の領域を抽出する。   The face detection processing unit 47 detects the face area of the person from the R, G, and B color image signals stored in the main memory 37, and extracts both eye areas from the detected face area.

撮像光学系駆動部50は、CPU45からの指令に従い、第1撮像光学系10及び第2撮像光学系20を図示しない移動機構によりデジタルカメラ1の筐体内で移動させ、レンズ11とレンズ21との間隔A´を変更する。なお、撮像光学系駆動部50は、第1撮像光学系10及び第2撮像光学系20のいずれか一方を移動させることにより、レンズ11とレンズ21との間隔A´を変更してもよい。   The imaging optical system drive unit 50 moves the first imaging optical system 10 and the second imaging optical system 20 within the housing of the digital camera 1 by a moving mechanism (not shown) according to a command from the CPU 45, and the lens 11 and the lens 21. The interval A ′ is changed. Note that the imaging optical system driving unit 50 may change the distance A ′ between the lens 11 and the lens 21 by moving one of the first imaging optical system 10 and the second imaging optical system 20.

次に、図3を用いて、デジタルカメラ1のレンズ移動の処理について説明する。   Next, the lens movement process of the digital camera 1 will be described with reference to FIG.

まず、操作部46のモード切替スイッチを切り換えることにより、撮影者カメラ間距離計測モードに設定する。モード設定後、撮影者は、レンズ11を自分に向けて、自分の顔の撮影を行う(ステップS1)。この撮影は、第1撮像光学系10において行うが、レンズ21を自分に向けて第2撮像光学系20において行なってもよい。   First, the mode change switch of the operation unit 46 is switched to set the photographer inter-camera distance measurement mode. After setting the mode, the photographer takes a picture of his / her face with the lens 11 facing the user (step S1). This shooting is performed in the first imaging optical system 10, but may be performed in the second imaging optical system 20 with the lens 21 facing itself.

図4(a)に示すように、撮影者100が表示部44を用いて立体視するときの撮影者100とデジタルカメラ1(表示部44)との距離をZとする。ステップS1における自分の撮影は、図4(b)に示すように、撮影者100とデジタルカメラ1(レンズ11)との距離が上記のZと同じになるようにデジタルカメラ1を保持して行う。   As shown in FIG. 4A, Z is the distance between the photographer 100 and the digital camera 1 (display unit 44) when the photographer 100 performs stereoscopic viewing using the display unit 44. As shown in FIG. 4B, the user himself / herself in step S1 is performed while holding the digital camera 1 so that the distance between the photographer 100 and the digital camera 1 (lens 11) is the same as Z. .

このように撮影した画像から、顔検出処理部47が撮影者100の顔を検出する。さらに、顔検出処理部47は、検出した顔から両目間の画像上の距離E´を検出する(ステップS2)。   The face detection processing unit 47 detects the face of the photographer 100 from the image thus taken. Further, the face detection processing unit 47 detects a distance E ′ on the image between both eyes from the detected face (step S2).

ここで、人間の目の間隔Eはほぼ一定であるため、E=60mmと設定し、CPU45は、このEと検出したE´、及び撮影時におけるレンズ11の焦点距離に基づいて、撮影者100とデジタルカメラ1との距離Zを算出する。なお、撮影者100が子供である場合は、Eを例えば50mmのように小さい値に設定してもよい。また、撮影者100が自分の目の間隔を入力できるように構成してもよい。   Here, since the interval E between human eyes is substantially constant, E = 60 mm is set, and the CPU 45 determines the photographer 100 based on E ′ detected as E and the focal length of the lens 11 at the time of photographing. A distance Z between the digital camera 1 and the digital camera 1 is calculated. When the photographer 100 is a child, E may be set to a small value such as 50 mm. Further, the photographer 100 may be configured to be able to input his / her own eye interval.

本実施の形態では、撮影者100が自分の顔を撮影することにより撮影者100とデジタルカメラ1との距離Zを算出したが、Zは、距離センサによって計測してもよいし、撮影者100が距離Zを入力できるように構成してもよい。   In the present embodiment, the photographer 100 calculates the distance Z between the photographer 100 and the digital camera 1 by photographing his / her face, but Z may be measured by a distance sensor, or the photographer 100 May be configured such that the distance Z can be input.

次に、図示しないフォーカスレンズを用いて、デジタルカメラ1と最も近い被写体との距離N´、及びデジタルカメラ1と最も遠い被写体との距離F´を算出する(ステップS3)。   Next, using a focus lens (not shown), a distance N ′ between the digital camera 1 and the closest subject and a distance F ′ between the digital camera 1 and the farthest subject are calculated (step S3).

第1撮像光学系10及び第2撮像光学系20は、合焦時の図示しないフォーカスレンズの位置により、デジタルカメラ1と被写体との距離を取得することが可能となっている。したがって、フォーカスレンズを至近位置から無限遠位置までサーチさせることにより、デジタルカメラ1と各被写体との距離情報を取得することが可能である。レンズ11のフォーカスレンズ及びレンズ12のフォーカスレンズのいずれか一方を至近位置から無限遠位置までサーチさせるのではなく、一方のフォーカスレンズを至近位置から無限遠位置側へサーチさせることにより、デジタルカメラ1と最も近い被写体との距離N´を取得し、他方のフォーカスレンズを無限遠位置から至近位置側へサーチさせることによりデジタルカメラ1から最も遠い被写体までの距離F´を取得してもよい。   The first imaging optical system 10 and the second imaging optical system 20 can acquire the distance between the digital camera 1 and the subject by the position of a focus lens (not shown) at the time of focusing. Therefore, it is possible to obtain distance information between the digital camera 1 and each subject by searching the focus lens from the closest position to the infinity position. The digital camera 1 does not search one of the focus lens of the lens 11 and the focus lens of the lens 12 from the closest position to the infinity position, but searches one focus lens from the closest position to the infinity position side. The distance F ′ from the digital camera 1 to the farthest subject may be obtained by obtaining the distance N ′ between the digital camera 1 and the closest subject.

また、距離N´及び距離F´は、距離センサによって計測してもよい。   Further, the distance N ′ and the distance F ′ may be measured by a distance sensor.

最後に、これらの情報に基づいて、撮影者100が立体視するのに最適な画像を撮影することができるレンズ11及びレンズ21との最適間隔Aを算出する。さらに、レンズ11とレンズ21との間隔A´が、算出した最適間隔Aとなるように、撮像光学系駆動部50を用いてレンズ11とレンズ21を駆動し、移動させる(ステップS4)。この後、通常の撮影モードに設定して撮影を行うことで、撮影者100が立体視するのに最適な画像を取得することが可能となる。   Finally, based on these pieces of information, an optimal distance A between the lens 11 and the lens 21 that can capture an image that is optimal for the photographer 100 to stereoscopically view is calculated. Further, the lens 11 and the lens 21 are driven and moved using the imaging optical system driving unit 50 so that the distance A ′ between the lens 11 and the lens 21 becomes the calculated optimum distance A (step S4). Thereafter, by setting the normal shooting mode and shooting, it is possible to obtain an optimal image for the photographer 100 to stereoscopically view.

ここで、最適間隔Aは、以下のように算出する。   Here, the optimum interval A is calculated as follows.

図5(a)に示すように、撮影者100が右目100Rと左目100Lにおいて表示部44に表示された101R及び101Lを視認すると、画像内の被写体101は、表示部44よりも距離Bだけ飛び出して立体視される。また、図5(b)に示すように、撮影者100が右目100Rと左目100Lにおいて表示部44に表示された102R及び102Lを視認すると、画像内の被写体102は、表示部44よりも距離Bだけ引っ込んで立体視される。この距離Bを飛び出し量、距離Bを引っ込み量と呼ぶ。 As shown in FIG. 5A, when the photographer 100 visually recognizes 101R and 101L displayed on the display unit 44 in the right eye 100R and the left eye 100L, the subject 101 in the image is a distance B N more than the display unit 44. It pops out and is stereoscopically viewed. 5B, when the photographer 100 visually recognizes 102R and 102L displayed on the display unit 44 with the right eye 100R and the left eye 100L, the subject 102 in the image is more distant from the display unit 44 by the distance B. Only F is retracted for stereoscopic viewing. Projection amount of the distance B N, referred to as the amount of retraction distance B F.

まず、生成される立体画像の飛び出し量の許容最大値をN[mm]とすると、最大飛び出し時の表示部44上の視差d[mm]は、
=NE/(Z−N)…(式1)
で表される。
First, when the allowable maximum value of the pop-out amount of the generated stereoscopic image is N [mm], the parallax d N [mm] on the display unit 44 at the time of the maximum pop-up is
d N = NE / (Z−N) (Formula 1)
It is represented by

同様に、生成される立体画像の引っ込み量の許容最大値をF[mm]とすると、最大引っ込み時の表示部44上の視差d[mm]は、
=FE/(Z+F)…(式2)
で表される。
Similarly, if the allowable maximum value of the amount of retraction of the generated stereoscopic image is F [mm], the parallax d F [mm] on the display unit 44 at the time of maximum retraction is
d F = FE / (Z + F) (Formula 2)
It is represented by

最大飛び出し時の視差dと最大引っ込み時の視差dとの比R(=d/d)に基づいて、撮影シーンの中に仮想スクリーンを仮定すると、デジタルカメラ1と仮想スクリーンまでの距離Z´[mm]は、
Z´=(R+1)/(1/N´+R/F´)…(式3)
で表される。
Based on the ratio R (= d N / d F ) of the parallax d N at the time of maximum projection and the parallax d F at the time of maximum retraction, assuming a virtual screen in the shooting scene, the distance from the digital camera 1 to the virtual screen The distance Z ′ [mm] is
Z ′ = (R + 1) / (1 / N ′ + R / F ′) (Formula 3)
It is represented by

また、仮想スクリーン幅と実スクリーン幅(表示部44の幅W)の比Sは、
S=W´/W
となる。ここで、W´は仮想スクリーンの幅を表している。
The ratio S between the virtual screen width and the actual screen width (the width W of the display unit 44) is:
S = W '/ W
It becomes. Here, W ′ represents the width of the virtual screen.

これらの数値を用いて、最適間隔A[mm]は、
A=SdN´/(Z´−N´)…(式4)
を用いて算出される。
Using these values, the optimum distance A [mm] is
A = Sd N N ′ / (Z′− N ′ ) (Formula 4)
Is calculated using

以上説明したように、表示部を視認するときの目と表示部の距離、被写体とカメラとの距離、及び撮影時の焦点距離等から最適なレンズ中心間距離を算出し、算出した距離になるようにレンズを移動させることで、その後、撮影者が立体視するのに最適な画像を撮影することができる。   As described above, the optimal distance between the center of the lens is calculated from the distance between the eyes when viewing the display unit, the distance between the subject and the camera, the focal length at the time of shooting, and the like. By moving the lens in this manner, it is possible to capture an image that is optimal for the photographer to view stereoscopically thereafter.

<第2の実施の形態>
図6は、第2の実施の形態のデジタルカメラ1の電気的構成の一例を示すブロック図である。なお、図2のブロック図と共通する部分には同一の符号を付し、その詳細な説明は省略する。
<Second Embodiment>
FIG. 6 is a block diagram illustrating an example of an electrical configuration of the digital camera 1 according to the second embodiment. In addition, the same code | symbol is attached | subjected to the part which is common in the block diagram of FIG. 2, and the detailed description is abbreviate | omitted.

図2に示す第1の実施の形態とは、顔検出処理部47の代わりに、タッチパネル48を備えたところが異なる。タッチパネル48は、例えばガラス又はプラスティック等からなり、光透過性を有する基板本体と、基板本体の上に面状に設けられ、光透過性を有する位置検出用電極と、位置検出用電極上に設けられた絶縁層とを有する静電容量式タッチパネルである。このタッチパネル48は表示部44の前面に配置され、表示部44は、タッチパネル48を用いたユーザインターフェース用表示画面として利用可能である。   The difference from the first embodiment shown in FIG. 2 is that a touch panel 48 is provided instead of the face detection processing unit 47. The touch panel 48 is made of, for example, glass, plastic, or the like, and is provided on the substrate body having light transmittance, the surface detection electrode having light transmittance on the substrate body, and the position detection electrode. It is a capacitive touch panel which has an insulating layer formed. The touch panel 48 is disposed in front of the display unit 44, and the display unit 44 can be used as a user interface display screen using the touch panel 48.

図7は、第2の実施の形態のレンズ移動の処理について示したフローチャートである。なお、図3のフローチャートと共通する部分には同一の符号を付し、その詳細な説明は省略する。   FIG. 7 is a flowchart illustrating lens movement processing according to the second embodiment. In addition, the same code | symbol is attached | subjected to the part which is common in the flowchart of FIG. 3, and the detailed description is abbreviate | omitted.

まず、操作部46のモード切替スイッチを切り換えることにより、撮影者カメラ間距離計測モードに設定する。モード設定後、撮影者は、レンズ11及びレンズ21を自分に向けて自分の顔の撮影を行う(ステップS11)。第1の実施の形態と同様に、この撮影は、図4(b)に示すように、レンズ11と撮影者100の顔との距離が図4(a)に示すZと同じになるようにデジタルカメラ1を保持して行う。   First, the mode change switch of the operation unit 46 is switched to set the photographer inter-camera distance measurement mode. After setting the mode, the photographer takes a picture of his / her face with the lens 11 and the lens 21 facing each other (step S11). As in the first embodiment, as shown in FIG. 4B, this shooting is performed so that the distance between the lens 11 and the face of the photographer 100 is the same as Z shown in FIG. This is performed while holding the digital camera 1.

次に、CPU45は、この撮影画像を表示制御部43を介して表示部44に表示する(ステップS12)。図8(a)は、撮影画像が表示部44に表示されている様子を示す図である。   Next, the CPU 45 displays the captured image on the display unit 44 via the display control unit 43 (step S12). FIG. 8A is a diagram illustrating a state in which a captured image is displayed on the display unit 44.

撮影者は、この表示された撮影画像の、両目の位置を指定する(ステップS13)。両目の位置を指定するには、図8(a)に示すように、表示部44に表示された画像内の両目の位置をタッチペン49や指でタッチパネル48を押圧することにより行う。   The photographer designates the positions of both eyes of the displayed photographed image (step S13). To specify the positions of both eyes, as shown in FIG. 8A, the positions of the eyes in the image displayed on the display unit 44 are pressed by pressing the touch panel 48 with a touch pen 49 or a finger.

CPU45は、タッチパネル48からの入力にしたがって、撮影画像内の両目の位置を検出し、両目間の画像上の距離E´を算出する。   The CPU 45 detects the position of both eyes in the captured image in accordance with the input from the touch panel 48 and calculates a distance E ′ on the image between the eyes.

なお、撮影画像内の撮影者100の両目の位置は、図8(b)に示すように、表示部44に撮影画像を複数に分割するマス目(補助線)を表示し、マス目の座標を入力することにより指定してもよい。また、さらにマス目に対応するカーソルを表示し、カーソルを移動させることにより指定してもよい。これらの場合は、CPU45は、指定されたマス目間の距離を用いて、両目間の画像上の距離E´を算出する。   As shown in FIG. 8B, the positions of both eyes of the photographer 100 in the photographed image are displayed on the display unit 44 as squares (auxiliary lines) for dividing the photographed image into a plurality of coordinates. You may specify by inputting. Furthermore, a cursor corresponding to the grid may be displayed and designated by moving the cursor. In these cases, the CPU 45 calculates a distance E ′ on the image between the eyes using the designated distance between the cells.

また、図示しないフォーカスレンズを用いて、デジタルカメラ1と最も近い被写体との距離N´、及びデジタルカメラ1と最も遠い被写体との距離F´を算出する(ステップS3)。   Further, using a focus lens (not shown), the distance N ′ between the digital camera 1 and the closest subject and the distance F ′ between the digital camera 1 and the farthest subject are calculated (step S3).

次に、これらの情報に基づいて、撮影者100が立体視するのに最適な画像を撮影することができるレンズ11及びレンズ21の最適間隔Aを算出する。さらに、レンズ11とレンズ21との間隔A´が、算出した最適間隔Aとなるように、撮像光学系駆動部50を用いてレンズ11とレンズ21を駆動し、移動させる(ステップS4)。最適間隔Aは、第1の実施の形態と同様に算出すればよい。   Next, based on these pieces of information, an optimal distance A between the lens 11 and the lens 21 that can capture an image optimal for the photographer 100 to stereoscopically view is calculated. Further, the lens 11 and the lens 21 are driven and moved using the imaging optical system driving unit 50 so that the distance A ′ between the lens 11 and the lens 21 becomes the calculated optimum distance A (step S4). What is necessary is just to calculate the optimal space | interval A similarly to 1st Embodiment.

最後に、選択された両目の位置から計算してレンズを移動させる(ステップS14)。   Finally, the lens is moved by calculation from the selected positions of both eyes (step S14).

このように、顔検出処理部47を備えていない場合であっても、タッチパネル48や表示部44に設けられたマス目を用いて両目の位置を指定することにより、撮影者100とデジタルカメラ1との距離Zを算出することができ、この距離Zを用いて最適間隔Aを算出することができる。   As described above, even if the face detection processing unit 47 is not provided, the photographer 100 and the digital camera 1 can be specified by specifying the positions of both eyes using the grids provided on the touch panel 48 or the display unit 44. The distance Z can be calculated, and the optimum distance A can be calculated using this distance Z.

<第3の実施の形態>
次に、第3の実施の形態について説明する。なお、以下の説明において、上記第1の実施の形態と同様の構成については説明を省略する。
<Third Embodiment>
Next, a third embodiment will be described. In the following description, the description of the same configuration as that of the first embodiment is omitted.

図9(a)は、本実施形態におけるカメラ付き携帯電話2の正面斜視図である。同図に示すように、カメラ付き携帯電話2の正面にはレンズ201、レンズ202が設けられている。このように、カメラ付き携帯電話2は、複数の撮像系を備えた立体撮影機能を備え、同一被写体を複数視点から見た立体画像を撮影可能である。また、第1の実施の形態のデジタルカメラ1と同様に、カメラ付き携帯電話2は、レンズ201とレンズ202との間隔A´を変更可能に構成されている。   FIG. 9A is a front perspective view of the camera-equipped mobile phone 2 in the present embodiment. As shown in the figure, a lens 201 and a lens 202 are provided on the front surface of the camera-equipped mobile phone 2. Thus, the camera-equipped mobile phone 2 has a stereoscopic shooting function including a plurality of imaging systems, and can capture a stereoscopic image of the same subject viewed from a plurality of viewpoints. Similarly to the digital camera 1 of the first embodiment, the camera-equipped mobile phone 2 is configured to be able to change the interval A ′ between the lens 201 and the lens 202.

図9(b)は、カメラ付き携帯電話2の背面斜視図である。同図に示すように、カメラ付き携帯電話2の背面には、表示部204が配置されている。第1の実施の形態のデジタルカメラ1と同様に、表示部204は立体画像を立体表示することが可能なレンチキュラーレンズ方式の3Dモニタであり、その横幅(立体視をするときに両目が並ぶ方向の幅)がW[mm]で構成されている。表示部204には、その前面にタッチパネルが配置されていてもよい。   FIG. 9B is a rear perspective view of the camera-equipped mobile phone 2. As shown in the figure, a display unit 204 is disposed on the back of the camera-equipped mobile phone 2. Similar to the digital camera 1 of the first embodiment, the display unit 204 is a lenticular lens type 3D monitor capable of stereoscopically displaying a stereoscopic image, and has a horizontal width (a direction in which both eyes line up when stereoscopically viewing). ) Is W [mm]. A touch panel may be disposed on the front surface of the display unit 204.

また、カメラ付き携帯電話2の筐体の表示部204と同じ平面上にはレンズ203が備えられている。レンズ203には、レンズ201、レンズ202と同様に図示しない撮像光学系が備えられており、画像を撮影することが可能となっている。   A lens 203 is provided on the same plane as the display unit 204 of the housing of the camera-equipped mobile phone 2. Similarly to the lens 201 and the lens 202, the lens 203 includes an imaging optical system (not shown) so that an image can be taken.

カメラ付き携帯電話2の筐体の表示部204と同じ向き(レンズ201及びレンズ202とは反対向き)にレンズが備えられていることで、撮影者カメラ間距離計測モードに設定したときに、カメラ付き携帯電話2を持ち変える必要が無く、そのまま自分を撮影することができる。   Since the lens is provided in the same direction as the display unit 204 of the housing of the camera-equipped mobile phone 2 (opposite direction to the lens 201 and the lens 202), the camera is set to the photographer inter-camera distance measurement mode. You don't have to change your mobile phone 2 and you can shoot yourself.

このように構成されたカメラ付き携帯電話2においても、撮影者100が立体視をするのに最適な立体画像を取得することが可能である。   In the camera-equipped mobile phone 2 configured as described above, it is possible to obtain an optimal stereoscopic image for the photographer 100 to perform stereoscopic viewing.

1…デジタルカメラ、2…カメラ付き携帯電話、10…第1撮像光学系、11、21、201、202、203…レンズ、20…第2撮像光学系、31…撮像信号処理部、38…デジタル信号処理部、43…表示制御部、44、204…表示部、45…CPU、46…操作部、47…顔検出処理部、48…タッチパネル、50…撮像光学系駆動部、100…撮影者   DESCRIPTION OF SYMBOLS 1 ... Digital camera, 2 ... Camera-equipped mobile phone, 10 ... 1st imaging optical system, 11, 21, 201, 202, 203 ... Lens, 20 ... 2nd imaging optical system, 31 ... Imaging signal processing part, 38 ... Digital Signal processing unit 43 ... Display control unit 44, 204 ... Display unit, 45 ... CPU, 46 ... Operation unit, 47 ... Face detection processing unit, 48 ... Touch panel, 50 ... Imaging optical system drive unit, 100 ... Photographer

Claims (10)

第1の撮像レンズを介して受光した被写体の光学像を画像信号に変換する第1の撮像手段と、第2の撮像レンズを介して受光した被写体の光学像を画像信号に変換する第2の撮像手段と、を有し、前記第1の撮像レンズ及び前記第2の撮像レンズの間隔が変更可能に配置された複眼撮像手段と、
前記複眼撮像手段と被写体との距離である第1の距離を算出する手段と、
複数の画像から生成した立体画像を表示する表示手段と、
撮影者が前記表示手段を視認するときの前記撮影者と前記表示手段との距離である第2の距離を算出する手段と、
前記第1の撮像レンズと前記第2の撮像レンズとの最適な間隔である第3の距離を前記第1の距離及び前記第2の距離に基づいて算出する手段であって、前記複眼撮像手段によって撮像された複数の画像に基づいて生成された立体画像が、前記表示手段に表示されたときに前記撮影者が立体視するのに最適な立体画像となるための第3の距離を算出する手段と、
前記第1の撮像レンズと前記第2の撮像レンズとの間隔が前記算出した第3の距離になるように、前記第1の撮像レンズ及び前記第2の撮像レンズのうち少なくとも一方を移動する移動手段と、
を備えたことを特徴とする撮像装置。
A first imaging unit that converts an optical image of a subject received through the first imaging lens into an image signal, and a second that converts an optical image of the subject received through the second imaging lens into an image signal. A compound-eye imaging unit that includes an imaging unit and is arranged so that an interval between the first imaging lens and the second imaging lens can be changed.
Means for calculating a first distance which is a distance between the compound eye imaging means and the subject;
Display means for displaying a stereoscopic image generated from a plurality of images;
Means for calculating a second distance that is a distance between the photographer and the display means when the photographer visually recognizes the display means;
Means for calculating a third distance, which is an optimum distance between the first imaging lens and the second imaging lens, based on the first distance and the second distance, the compound eye imaging means; When the stereoscopic image generated based on the plurality of images captured by the camera is displayed on the display unit, a third distance for calculating the optimal stereoscopic image for the photographer to stereoscopically view is calculated. Means,
Movement that moves at least one of the first imaging lens and the second imaging lens so that the distance between the first imaging lens and the second imaging lens is equal to the calculated third distance. Means,
An imaging apparatus comprising:
前記第2の距離を算出する手段は、前記撮影者の顔が被写体である撮影画像であって、前記撮影者を撮像した撮像手段と前記撮影者との距離が前記第2の距離と同じ距離である撮影画像に基づいて第2の距離を算出することを特徴とする請求項1に記載の撮像装置。   The means for calculating the second distance is a photographed image in which the photographer's face is a subject, and the distance between the photographing means for photographing the photographer and the photographer is the same distance as the second distance. The imaging apparatus according to claim 1, wherein the second distance is calculated based on a captured image. 前記撮影画像は、前記第1の撮像手段及び前記第2の撮像手段のうち何れか一方で撮影された画像であることを特徴とする請求項2に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the captured image is an image captured by any one of the first imaging unit and the second imaging unit. 前記撮影画像は、前記表示手段と同じ平面上に配置された第3の撮像手段であることを特徴とする請求項2に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the captured image is third imaging means arranged on the same plane as the display means. 前記撮影画像から人物の顔の領域を検出する顔検出手段と、
前記検出した顔の領域から両目の領域を検出する手段と、
前記検出した両目の領域から、画像上における両目の距離を算出する手段と、を備え、
前記第2の距離を算出する手段は、前記算出した画像上における両目の距離と前記撮影者を撮像した撮像手段の焦点距離に基づいて第2の距離を算出することを特徴とする請求項2から4のいずれかに記載の撮像装置。
Face detection means for detecting a human face region from the captured image;
Means for detecting a region of both eyes from the detected region of the face;
Means for calculating the distance between the eyes on the image from the detected area of both eyes,
The means for calculating the second distance calculates the second distance based on a distance between both eyes on the calculated image and a focal length of an image pickup means for picking up the photographer. 5. The imaging device according to any one of 4 to 4.
前記表示手段の前面に備えられた透過型のタッチパネルであって、前記表示手段に表示された撮影画像の両目位置に対応する部分に触れることにより当該両目位置に対応するデータの入力が可能なタッチパネルと、
前記タッチパネルから入力された両目位置に対応するデータに基づいて、画像上における両目の距離を算出する手段と、を備え、
前記第2の距離を算出する手段は、前記算出した画像上における両目の距離と前記撮影者を撮像した撮像手段の焦点距離に基づいて第2の距離を算出することを特徴とする請求項2から4のいずれかに記載の撮像装置。
A transmissive touch panel provided on the front surface of the display means, wherein the touch panel can input data corresponding to the positions of both eyes by touching a portion corresponding to the positions of both eyes of the captured image displayed on the display means. When,
Means for calculating the distance between the eyes on the image based on the data corresponding to the positions of both eyes input from the touch panel,
The means for calculating the second distance calculates the second distance based on a distance between both eyes on the calculated image and a focal length of an image pickup means for picking up the photographer. 5. The imaging device according to any one of 4 to 4.
前記表示手段に撮影画像とともに該撮影画像を水平方向及び垂直方向に分割する補助線を表示する手段と、
前記表示手段に表示された撮影画像の両目位置に対応する位置を前記補助線と対応付けて入力する手段と、
前記入力された座標に基づいて、画像上における両目の距離を算出する手段と、を備え、
前記第2の距離を算出する手段は、前記算出した画像上における両目の距離と前記撮影者を撮像した撮像手段の焦点距離に基づいて第2の距離を算出することを特徴とする請求項2から4のいずれかに記載の撮像装置。
Means for displaying an auxiliary line for dividing the photographed image in the horizontal and vertical directions together with the photographed image on the display means;
Means for inputting a position corresponding to the position of both eyes of the captured image displayed on the display means in association with the auxiliary line;
Means for calculating a distance between both eyes on the image based on the input coordinates,
The means for calculating the second distance calculates the second distance based on a distance between both eyes on the calculated image and a focal length of an image pickup means for picking up the photographer. 5. The imaging device according to any one of 4 to 4.
前記第1の距離を算出する手段は、前記複眼撮像手段と最も近い被写体との距離及び前記複眼撮像手段と最も遠い被写体との距離を算出することを特徴とする請求項1から7のいずれかに記載の撮像装置。   The means for calculating the first distance calculates a distance between the compound eye imaging unit and the closest subject and a distance between the compound eye imaging unit and the farthest subject. The imaging device described in 1. 前記第3の距離を算出する手段は、前記表示手段の水平方向の幅に基づいて第3の距離を算出することを特徴とする請求項1から8のいずれかに記載の撮像装置。   9. The imaging apparatus according to claim 1, wherein the means for calculating the third distance calculates the third distance based on a horizontal width of the display means. 第1の撮像レンズを介して受光した被写体の光学像を画像信号に変換する第1の撮像手段と、第2の撮像レンズを介して受光した被写体の光学像を画像信号に変換する第2の撮像手段と、を有し、前記第1の撮像レンズ及び前記第2の撮像レンズの間隔が変更可能に配置された複眼撮像手段により画像を撮像する撮像工程と、
前記複眼撮像手段と被写体との距離である第1の距離を算出する工程と、
複数の画像から生成した立体画像を表示手段に表示する工程と、
撮影者が前記表示手段を視認するときの前記撮影者と前記表示手段との距離である第2の距離を算出する工程と、
前記第1の撮像レンズと前記第2の撮像レンズとの最適な間隔である第3の距離を前記第1の距離及び前記第2の距離に基づいて算出する工程であって、前記撮像工程によって撮像された複数の画像に基づいて生成された立体画像が、前記表示手段に表示されたときに前記撮影者が立体視するのに最適な立体画像となるための第3の距離を算出する工程と、
前記第1の撮像レンズと前記第2の撮像レンズとの間隔が前記算出した第3の距離になるように、前記第1の撮像レンズ及び前記第2の撮像レンズのうち少なくとも一方を移動手段により移動する工程と、
を備えたことを特徴とする撮像装置の制御方法。
A first imaging unit that converts an optical image of a subject received through the first imaging lens into an image signal, and a second that converts an optical image of the subject received through the second imaging lens into an image signal. An imaging step of imaging an image by a compound eye imaging unit that includes an imaging unit, and an interval between the first imaging lens and the second imaging lens can be changed, and
Calculating a first distance that is a distance between the compound eye imaging means and a subject;
Displaying a stereoscopic image generated from a plurality of images on a display means;
Calculating a second distance that is a distance between the photographer and the display means when the photographer visually recognizes the display means;
A step of calculating a third distance, which is an optimum distance between the first imaging lens and the second imaging lens, based on the first distance and the second distance, wherein the imaging step Calculating a third distance for a stereoscopic image generated based on a plurality of captured images to be an optimal stereoscopic image for the photographer to stereoscopically view when displayed on the display means; When,
At least one of the first imaging lens and the second imaging lens is moved by moving means so that the distance between the first imaging lens and the second imaging lens is the calculated third distance. A moving process;
An image pickup apparatus control method comprising:
JP2009070605A 2009-03-23 2009-03-23 Imaging apparatus and control method thereof Abandoned JP2010226362A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009070605A JP2010226362A (en) 2009-03-23 2009-03-23 Imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009070605A JP2010226362A (en) 2009-03-23 2009-03-23 Imaging apparatus and control method thereof

Publications (1)

Publication Number Publication Date
JP2010226362A true JP2010226362A (en) 2010-10-07

Family

ID=43043084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009070605A Abandoned JP2010226362A (en) 2009-03-23 2009-03-23 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP2010226362A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011148544A1 (en) * 2010-05-27 2011-12-01 任天堂株式会社 Portable electronic device
JP2012010304A (en) * 2010-05-27 2012-01-12 Nintendo Co Ltd Portable electronic device
JP2012113281A (en) * 2010-11-04 2012-06-14 Panasonic Corp Stereoscopic imaging optical system, imaging device and camera
WO2014133689A1 (en) * 2013-02-28 2014-09-04 Motorola Mobility Llc Electronic device with multiview image capture and depth sensing
US9128293B2 (en) 2010-01-14 2015-09-08 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US9693039B2 (en) 2010-05-27 2017-06-27 Nintendo Co., Ltd. Hand-held electronic device
KR101867815B1 (en) * 2011-10-21 2018-06-18 엘지전자 주식회사 Apparatus for displaying a 3-dimensional image and method for adjusting viewing distance of 3-dimensional image
CN113642185A (en) * 2021-08-19 2021-11-12 东华大学 Method for identifying high-frequency flutter transmission path of satellite
CN114007057A (en) * 2020-07-28 2022-02-01 北京小米移动软件有限公司 Terminal, photographing method, photographing apparatus, and computer-readable storage medium
CN117979089A (en) * 2024-01-02 2024-05-03 深圳品阔信息技术有限公司 Live video processing method, device, equipment and medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004221700A (en) * 2003-01-09 2004-08-05 Sanyo Electric Co Ltd Stereoscopic image processing method and apparatus
JP2004356775A (en) * 2003-05-28 2004-12-16 Fuji Photo Film Co Ltd Digital still camera and its control method
JP2006064874A (en) * 2004-08-25 2006-03-09 Sharp Corp Stereoscopic image display apparatus
JP2009047894A (en) * 2007-08-20 2009-03-05 Fujifilm Corp Digital stereo camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004221700A (en) * 2003-01-09 2004-08-05 Sanyo Electric Co Ltd Stereoscopic image processing method and apparatus
JP2004356775A (en) * 2003-05-28 2004-12-16 Fuji Photo Film Co Ltd Digital still camera and its control method
JP2006064874A (en) * 2004-08-25 2006-03-09 Sharp Corp Stereoscopic image display apparatus
JP2009047894A (en) * 2007-08-20 2009-03-05 Fujifilm Corp Digital stereo camera

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9128293B2 (en) 2010-01-14 2015-09-08 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
WO2011148544A1 (en) * 2010-05-27 2011-12-01 任天堂株式会社 Portable electronic device
JP2012010304A (en) * 2010-05-27 2012-01-12 Nintendo Co Ltd Portable electronic device
US9693039B2 (en) 2010-05-27 2017-06-27 Nintendo Co., Ltd. Hand-held electronic device
JP2012113281A (en) * 2010-11-04 2012-06-14 Panasonic Corp Stereoscopic imaging optical system, imaging device and camera
KR101867815B1 (en) * 2011-10-21 2018-06-18 엘지전자 주식회사 Apparatus for displaying a 3-dimensional image and method for adjusting viewing distance of 3-dimensional image
WO2014133689A1 (en) * 2013-02-28 2014-09-04 Motorola Mobility Llc Electronic device with multiview image capture and depth sensing
CN114007057A (en) * 2020-07-28 2022-02-01 北京小米移动软件有限公司 Terminal, photographing method, photographing apparatus, and computer-readable storage medium
CN113642185A (en) * 2021-08-19 2021-11-12 东华大学 Method for identifying high-frequency flutter transmission path of satellite
CN117979089A (en) * 2024-01-02 2024-05-03 深圳品阔信息技术有限公司 Live video processing method, device, equipment and medium

Similar Documents

Publication Publication Date Title
JP2010226362A (en) Imaging apparatus and control method thereof
JP5931206B2 (en) Image processing apparatus, imaging apparatus, program, and image processing method
US20110018970A1 (en) Compound-eye imaging apparatus
EP2590421B1 (en) Single-lens stereoscopic image capture device
JP5276536B2 (en) 3D image display apparatus and 3D image display method
JP5415170B2 (en) Compound eye imaging device
JP4763827B2 (en) Stereoscopic image display device, compound eye imaging device, and stereoscopic image display program
US9609224B2 (en) Imaging device and image display method
JP4533735B2 (en) Stereo imaging device
JP5231771B2 (en) Stereo imaging device
JP2011075675A (en) Compound-eye imaging apparatus
JP2010056865A (en) Image capturing apparatus
JP5667726B2 (en) Interchangeable lens camera and viewfinder display method
JP2008310696A (en) Imaging device, stereoscopic image reproducing device, and stereoscopic image reproducing program
JP2010114760A (en) Photographing apparatus, and fingering notification method and program
US20120081592A1 (en) Digital photographing apparatus and method of controlling the same
JP2011087128A (en) Pantoscopic camera and method for discrimination of object
JP5322817B2 (en) 3D image pickup apparatus and 3D image display method
JP2011035643A (en) Multiple eye photography method and apparatus, and program
US20070195190A1 (en) Apparatus and method for determining in-focus position
JP2010114577A (en) Imaging apparatus, image processor, control method and image processing method of imaging apparatus
JP5671189B2 (en) Imaging apparatus and imaging method
JP2010141609A (en) Imaging apparatus
WO2013005477A1 (en) Imaging device, three-dimensional image capturing method and program
JP4887461B2 (en) 3D image pickup apparatus and 3D image display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120305

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20120323