JP2010231192A - Stereoscopic imaging apparatus - Google Patents

Stereoscopic imaging apparatus Download PDF

Info

Publication number
JP2010231192A
JP2010231192A JP2010040377A JP2010040377A JP2010231192A JP 2010231192 A JP2010231192 A JP 2010231192A JP 2010040377 A JP2010040377 A JP 2010040377A JP 2010040377 A JP2010040377 A JP 2010040377A JP 2010231192 A JP2010231192 A JP 2010231192A
Authority
JP
Japan
Prior art keywords
image
imaging
image data
stereo
pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010040377A
Other languages
Japanese (ja)
Inventor
Tomoyuki Kuwata
知由己 桑田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010040377A priority Critical patent/JP2010231192A/en
Publication of JP2010231192A publication Critical patent/JP2010231192A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a stereoscopic imaging apparatus for creating a stereoscopic image having a deep depth of field, without reducing the quantity of light from an object. <P>SOLUTION: A pan focus processing circuit 18R obtains the synthesized image data of a large number of image surfaces of which the position is deviated little by little, from an arithmetic processing circuit 15R. For each of the plurality of synthesized image data, a difference in brightness value between an attention pixel and a pixel in the vicinity of it is calculated to calculate the contrasts of each pixel included in the synthesized image data. Then, the contrasts of each pixel existing in the same position between the plurality of synthesized image data are compared with each other, to take out the pixel whose contrast is maximum and create pan focus image data. A control circuit 101 creates a pair of image data having parallax, based on two pan focus image data. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ステレオ撮像装置に関する。   The present invention relates to a stereo imaging device.

2つの撮像光学系を用いて、右目用の画像と、左目用の画像と、から成るステレオ画像を撮像するステレオ撮像装置が知られている(例えば、特許文献1)。このようなステレオ撮像装置は、2つの撮像光学系を所定の間隔で配置することにより、同一の被写体を撮像して得られる2つの画像に視差を生じさせる。   A stereo imaging device that captures a stereo image including a right-eye image and a left-eye image using two imaging optical systems is known (for example, Patent Document 1). Such a stereo imaging device causes parallax to occur in two images obtained by imaging the same subject by arranging two imaging optical systems at a predetermined interval.

ステレオ画像は被写界深度が深いことが望ましい。これは、遠近いずれの被写体とも鮮鋭であった方が、そうでない場合よりも立体感をはっきりと感じられる事が多いためである。例えば、撮像光学系の絞り径を小さくすることにより、ステレオ画像の被写界深度を深くすることが可能である。   It is desirable that the stereo image has a deep depth of field. This is because the stereoscopic effect is often more clearly felt when the subject is sharper than the perspective, compared with the case where the subject is not. For example, it is possible to increase the depth of field of a stereo image by reducing the aperture diameter of the imaging optical system.

他方、特許文献2には、任意の像面における像の画像データを合成する撮像装置が記載されている。この撮像装置は、マイクロレンズアレイを構成する各々のマイクロレンズの後方に配置された画素配列から、所定の光電変換素子の出力を取り出すことにより、任意の撮影距離に位置する被写体に焦点が合った画像データを合成する機能を有する。   On the other hand, Patent Document 2 describes an imaging apparatus that synthesizes image data of an image on an arbitrary image plane. This imaging apparatus is focused on a subject located at an arbitrary shooting distance by taking out an output of a predetermined photoelectric conversion element from a pixel array arranged behind each microlens constituting the microlens array. It has a function to synthesize image data.

特開平8−47001号公報Japanese Patent Laid-Open No. 8-47001 特開2007−4471号公報JP 2007-4471 A

ステレオ画像の被写界深度を深くするために撮像光学系の絞り径を小さくした場合、被写体からの光量が少なくなり、画像のノイズが増加してしまうという問題があった。   When the aperture diameter of the imaging optical system is reduced in order to increase the depth of field of the stereo image, there is a problem in that the amount of light from the subject decreases and image noise increases.

請求項1に係る発明は、被写体の画像信号を出力する少なくとも2つの撮像ユニットと、前記2つの撮像ユニットが出力した画像信号に基づいて、視差を有する一対の画像を作成する第1の画像作成手段と、を有するステレオ撮像装置であって、前記2つの撮像ユニットのうち少なくとも1つは、結像光学系と、前記結像光学系の所定の結像面近傍に二次元状に配置された複数の正レンズと、前記複数の正レンズの各々の後側に二次元状に配置され、前記結像光学系の射出瞳の異なる領域からの光束をそれぞれ受光する光電変換機能を有する複数の画素を含む撮像素子と、前記撮像素子の出力に基づきパンフォーカスな画像信号を出力できる出力手段と、を有するパンフォーカス撮像ユニットであることを特徴とするステレオ撮像装置である。
請求項6に係る発明は、被写体の画像信号を出力する少なくとも2つの撮像ユニットと、被写体までの距離を検出する測距手段と、2つの撮像ユニットが出力した画像信号に基づいて、視差を有する一対の画像を作成する第1の画像作成手段と、2つの撮像ユニットのうちいずれか一方の撮像ユニットが出力した画像信号に基づいて、視差を有する一対の画像を作成する第2の画像作成手段と、を有するステレオ撮像装置であって、2つの撮像ユニットのうち少なくとも1つは、結像光学系と、結像光学系の所定の結像面近傍に二次元状に配置された複数の正レンズと、複数の正レンズの各々の後側に二次元状に配置され、結像光学系の射出瞳の異なる領域からの光束をそれぞれ受光する光電変換機能を有する複数の画素を含み、複数の画素の出力を画像信号として出力する撮像素子とを有する撮像ユニットであり、第2の画像作成手段は、合成撮像ユニットが出力した画像信号に基づいて、視差を有する一対の画像を作成し、測距手段が検出した距離が所定値以上の場合には第1の画像作成手段により視差を有する一対の画像を作成し、測距手段が検出した距離が所定値未満の場合には第2の画像作成手段により視差を有する一対の画像を作成することを特徴とするステレオ撮像装置である。
The invention according to claim 1 is a first image creation for creating a pair of images having parallax based on at least two imaging units that output an image signal of a subject and the image signals output by the two imaging units. And at least one of the two imaging units is two-dimensionally arranged in the vicinity of the imaging optical system and a predetermined imaging plane of the imaging optical system. A plurality of pixels having a plurality of positive lenses and a photoelectric conversion function that are two-dimensionally arranged behind each of the plurality of positive lenses and receive light beams from different regions of the exit pupil of the imaging optical system. And a pan-focus imaging unit having an output device capable of outputting a pan-focus image signal based on an output of the imaging device.
The invention according to claim 6 has parallax based on at least two imaging units that output an image signal of a subject, distance measuring means that detects a distance to the subject, and image signals output by the two imaging units. First image creating means for creating a pair of images, and second image creating means for creating a pair of images having parallax based on an image signal output from one of the two imaging units. And at least one of the two imaging units includes an imaging optical system and a plurality of positive pixels arranged two-dimensionally in the vicinity of a predetermined imaging plane of the imaging optical system. A plurality of pixels that are two-dimensionally arranged on the rear side of each of the lens and the plurality of positive lenses and that have a photoelectric conversion function of receiving light beams from different regions of the exit pupil of the imaging optical system, Pixel An image pickup unit having an image pickup device for outputting an output as an image signal, wherein the second image creating means creates a pair of images having parallax based on the image signal output by the composite image pickup unit, and ranging means A pair of images having parallax is created by the first image creation means when the distance detected by the distance measurement is greater than or equal to a predetermined value, and the second image creation means when the distance detected by the distance measurement means is less than the predetermined value This is a stereo imaging device characterized in that a pair of images having parallax is created.

本発明によれば、パンフォーカス撮像ユニットを用いてステレオ画像を得ることができる。   According to the present invention, a stereo image can be obtained using a pan focus imaging unit.

第1の実施の形態によるステレオ撮像装置の構成を示す図である。It is a figure which shows the structure of the stereo imaging device by 1st Embodiment. 撮像ユニット100L,100Rの構成を示す図である。It is a figure which shows the structure of the imaging units 100L and 100R. 演算処理回路15Lの画像合成機能の一例を示す図である。It is a figure which shows an example of the image composition function of the arithmetic processing circuit 15L. 像面Z1の合成画像データと像面Z2の合成画像データを示す図である。It is a figure which shows the composite image data of the image surface Z1, and the composite image data of the image surface Z2. パンフォーカスな画像データを作成する過程を示す図である。It is a figure which shows the process which produces pan-focus image data. 撮像ユニット100Lのみを用いてステレオ画像データを作成する原理を示す図である。It is a figure which shows the principle which produces stereo image data only using the imaging unit 100L. 画素配列130と、制御回路101により作成される一対の画像データ124R,124Lとの関係を示す図である。3 is a diagram illustrating a relationship between a pixel array and a pair of image data 124R and 124L created by a control circuit 101. FIG. 光電変換素子の出力から画像データの画素値を演算する処理を示す図である。It is a figure which shows the process which calculates the pixel value of image data from the output of a photoelectric conversion element. 2つの撮像ユニットを用いてレンチキュラー式立体画像を得る処理を示す図である。It is a figure which shows the process which obtains a lenticular type | mold stereoscopic image using two imaging units. 1つの撮像ユニットを用いてレンチキュラー式立体画像を得る処理を示す図である。It is a figure which shows the process which acquires a lenticular type | mold stereoscopic image using one imaging unit. 第3の実施の形態によるステレオ撮像装置の構成を示す図である。It is a figure which shows the structure of the stereo imaging device by 3rd Embodiment. 撮像ユニット100L,200Rの構成を示す図である。It is a figure which shows the structure of the imaging units 100L and 200R. 輻輳角の調整機能の概要を説明する図である。It is a figure explaining the outline | summary of the adjustment function of a convergence angle. 図13におけるマイクロレンズアレイ12Lおよび撮像素子13Lの拡大図である。It is an enlarged view of the micro lens array 12L and the image sensor 13L in FIG. 輻輳角の変化を示す図である。It is a figure which shows the change of a convergence angle.

――第1の実施の形態――
図1は、第1の実施の形態によるステレオ撮像装置の構成を示す図である。ステレオ撮像装置1は、撮像ユニット100L,100R,制御回路101,メモリ102,入力装置103,距離センサ104を備える。
-First embodiment-
FIG. 1 is a diagram illustrating a configuration of a stereo imaging device according to the first embodiment. The stereo imaging device 1 includes imaging units 100L and 100R, a control circuit 101, a memory 102, an input device 103, and a distance sensor 104.

撮像ユニット100L,100Rは共に、撮影光学系を所定の撮影距離に位置する被写体に焦点調節した状態での一度の撮影で、至近距離から無限遠までの全ての被写体にピントが合った画像データを作成することが可能な撮像ユニットである(以下、このような撮像ユニットを合成撮像ユニットと呼ぶ)。この画像データは、奥行きのある被写体の近景から遠景まで焦点のあった画像データであるので、パンフォーカス画像データと呼ぶ。制御回路101は撮像ユニット100L,100Rがそれぞれ作成したパンフォーカス画像データに基づき、視差を有する一対の画像データを作成する。以下の説明では、この一対の画像データをステレオ画像データと呼称する。制御回路101は、入力装置103を介してユーザから入力された指示に従って上記のステレオ画像データを作成し、メモリ102に記憶する。距離センサ104は、被写体までの距離を測定した結果を制御回路101へ出力する。   Both of the imaging units 100L and 100R capture image data in which all the subjects from the closest distance to infinity are in focus in one shooting with the shooting optical system focused on the subject located at a predetermined shooting distance. An imaging unit that can be created (hereinafter, such an imaging unit is referred to as a composite imaging unit). Since this image data is image data focused from a near view to a distant view of a subject with a depth, it is called pan focus image data. The control circuit 101 creates a pair of image data having parallax based on the pan focus image data created by the imaging units 100L and 100R, respectively. In the following description, this pair of image data is referred to as stereo image data. The control circuit 101 creates the above-described stereo image data in accordance with an instruction input from the user via the input device 103 and stores it in the memory 102. The distance sensor 104 outputs the result of measuring the distance to the subject to the control circuit 101.

図2は、撮像ユニット100L,100Rの構成を示す図である。撮像ユニット100Lは、撮影レンズ11L,多数のマイクロレンズMLが二次元状に配列されたマイクロレンズアレイ12L,撮像素子13L,駆動回路14L,演算処理回路15L,メモリ16L,制御回路17L,パンフォーカス処理回路18L,出力回路19Lを備える。   FIG. 2 is a diagram illustrating the configuration of the imaging units 100L and 100R. The imaging unit 100L includes a photographing lens 11L, a microlens array 12L in which a large number of microlenses ML are two-dimensionally arranged, an imaging element 13L, a drive circuit 14L, an arithmetic processing circuit 15L, a memory 16L, a control circuit 17L, and a pan focus process. A circuit 18L and an output circuit 19L are provided.

撮像素子13Lは、マイクロレンズアレイ12Lを構成する各マイクロレンズMLの焦点面近傍に配置される。撮像素子13Lは、撮影レンズ11Lの射出瞳とほぼ共役になっている。なお、これらの位置関係は正確である必要はなく、撮像素子13Lの出力の演算過程において補正を行うことが可能である。撮影レンズ11Lの焦点面近傍に入射した結像光束は、撮像素子13Lにおいて電気信号に変換される。この撮像素子13Lは駆動回路14Lによって駆動され、撮像素子13Lが出力する画像信号は、この駆動回路14Lを介して演算処理回路15Lに取り込まれるか、あるいは出力回路19Lへ出力される。演算処理回路15Lは、上記の画像信号に基づき合成画像データを合成する。合成画像データはパンフォーカス処理回路18Lへ出力される。   The imaging element 13L is disposed in the vicinity of the focal plane of each microlens ML that constitutes the microlens array 12L. The imaging element 13L is substantially conjugate with the exit pupil of the photographing lens 11L. Note that these positional relationships do not need to be accurate, and correction can be performed in the calculation process of the output of the image sensor 13L. The imaging light flux that has entered the vicinity of the focal plane of the photographic lens 11L is converted into an electrical signal in the image sensor 13L. The image sensor 13L is driven by the drive circuit 14L, and an image signal output from the image sensor 13L is taken into the arithmetic processing circuit 15L via the drive circuit 14L or output to the output circuit 19L. The arithmetic processing circuit 15L synthesizes composite image data based on the image signal. The composite image data is output to the pan focus processing circuit 18L.

パンフォーカス処理回路18Lは、演算処理回路15Lが出力した合成画像データに基づいて、パンフォーカス画像データを作成する。作成されたパンフォーカス画像データは、メモリ16Lに格納される。出力回路19Lは、メモリ16Lに格納されているパンフォーカス画像データや駆動回路14Lが出力する画像信号を、撮像ユニット100Lの外部へ画像信号として出力する。駆動回路14L,演算処理回路15L,メモリ16L,パンフォーカス処理回路18L,出力回路19Lは、すべて制御回路17Lによって制御さ
れる。制御回路17Lは、撮像ユニット100Lの外部から入力される制御信号に従って各回路の制御を行う。
The pan focus processing circuit 18L creates pan focus image data based on the composite image data output from the arithmetic processing circuit 15L. The created pan focus image data is stored in the memory 16L. The output circuit 19L outputs the pan focus image data stored in the memory 16L and the image signal output from the drive circuit 14L to the outside of the imaging unit 100L as an image signal. The drive circuit 14L, the arithmetic processing circuit 15L, the memory 16L, the pan focus processing circuit 18L, and the output circuit 19L are all controlled by the control circuit 17L. The control circuit 17L controls each circuit in accordance with a control signal input from the outside of the imaging unit 100L.

マイクロレンズアレイ12Lは、二次元状に配列された複数のマイクロレンズMLにより構成される。撮像素子13Lには、上記の各マイクロレンズMLを通過した光を受光する画素配列130が、マイクロレンズMLに対応した配置パターンで配置されている。各々の画素配列130は、二次元状に配列された複数の光電変換素子により構成される。   The microlens array 12L is configured by a plurality of microlenses ML arranged in a two-dimensional manner. In the imaging element 13L, a pixel array 130 that receives light that has passed through each of the microlenses ML is arranged in an arrangement pattern corresponding to the microlens ML. Each pixel array 130 includes a plurality of photoelectric conversion elements arranged in a two-dimensional manner.

なお、撮像ユニット100Rの構成は、上述した撮像ユニット100Lと同一のため説明を省略する。また、演算処理回路15L,15Rが任意の面に形成された像の画像データを合成する原理については、特許文献2に記載された内容と同一であるため説明を省略する。   Note that the configuration of the imaging unit 100R is the same as that of the imaging unit 100L described above, and a description thereof will be omitted. Further, the principle of combining image data of images formed on arbitrary surfaces by the arithmetic processing circuits 15L and 15R is the same as the content described in Patent Document 2, and thus the description thereof is omitted.

撮像ユニット100L,100Rは、撮影レンズ11L,11Rの間隔が約65mmとなるように設置される。これは、人間の平均的な目の間隔とほぼ同じ長さである。   The imaging units 100L and 100R are installed so that the distance between the photographing lenses 11L and 11R is about 65 mm. This is approximately the same length as the average human eye spacing.

次に、パンフォーカス処理回路18L,18Rの処理内容を説明する。パンフォーカス処理回路18L,18Rは、演算処理回路15L,15Rが合成した合成画像データを利用して、パンフォーカス画像データを作成する。以下、パンフォーカス処理回路18Lにより実行される、パンフォーカス画像データの作成処理について説明する。   Next, processing contents of the pan focus processing circuits 18L and 18R will be described. The pan focus processing circuits 18L and 18R create pan focus image data using the composite image data synthesized by the arithmetic processing circuits 15L and 15R. Hereinafter, pan focus image data creation processing executed by the pan focus processing circuit 18L will be described.

図3は、演算処理回路15Lの画像合成機能の一例を示す図である。図3は、撮像ユニット100Lにより、光軸Z上の異なる位置に存在する小さな三角形の被写体111と、大きな四角形の被写体112とを撮像する様子を表している。以降の説明では、位置Zp1にある被写体111の被写体像が結像する像面をZ1、位置Zp2にある被写体112の被写体像が結像する像面をZ2という。   FIG. 3 is a diagram illustrating an example of an image composition function of the arithmetic processing circuit 15L. FIG. 3 illustrates a state in which the small triangular subject 111 and the large quadrangular subject 112 that are present at different positions on the optical axis Z are imaged by the imaging unit 100L. In the following description, the image plane on which the subject image of the subject 111 at the position Zp1 is formed is referred to as Z1, and the image plane on which the subject image of the subject 112 at the position Zp2 is formed is referred to as Z2.

演算処理回路15Rは特許文献2に記載された原理により、一度の撮像で得られた画像信号に基づいて、任意の像面の画像データを合成することができる。パンフォーカス処理回路18Rは、演算処理回路15Rから、少しずつ位置をずらした多数の像面の合成画像データを取得する。すなわち、至近距離から無限遠までの間に位置するどの被写体についても、その被写体にピントが合っている合成画像データが存在することになる。なお今回は説明を簡単にするため、被写体111の被写体像が結像する像面Z1の合成画像データと、被写体112の被写体像が結像する像面Z2の合成画像データと、のみを取得したものとする。   Based on the principle described in Patent Document 2, the arithmetic processing circuit 15R can synthesize image data of an arbitrary image plane based on an image signal obtained by one imaging. The pan focus processing circuit 18R acquires composite image data of a large number of image planes whose positions are gradually shifted from the arithmetic processing circuit 15R. In other words, for any subject located between the close range and infinity, there is composite image data in which the subject is in focus. In this case, for the sake of simplicity, only the composite image data of the image plane Z1 on which the subject image of the subject 111 is formed and the composite image data of the image plane Z2 on which the subject image of the subject 112 is formed are acquired. Shall.

図4は、像面Z1の合成画像データと像面Z2の合成画像データを示す図である。図4(a)に示す合成画像データ121が像面Z1に、図4(b)に示す合成画像データ122が像面Z2にそれぞれ対応する。図4において、実線で描画された被写体の輪郭は、その被写体にピントが合っていることを表す。同様に、破線で描画された被写体の輪郭は、その被写体にピントが合っておらず、被写体像がボケ像となっていることを表す。   FIG. 4 is a diagram illustrating composite image data of the image plane Z1 and composite image data of the image plane Z2. The composite image data 121 shown in FIG. 4A corresponds to the image plane Z1, and the composite image data 122 shown in FIG. 4B corresponds to the image plane Z2. In FIG. 4, the contour of the subject drawn with a solid line indicates that the subject is in focus. Similarly, the contour of the subject drawn with a broken line indicates that the subject is not in focus and the subject image is a blurred image.

図5は、パンフォーカス画像データを作成する過程を示す図である。パンフォーカス処理回路18Lは、演算処理回路15Lから取得した複数の合成画像データのそれぞれについて、合成画像データに含まれる各画素のコントラストを算出する。コントラストは、注目画素とその近傍の画素との輝度値の差を演算することにより算出される。図5では、像面Z1の合成画像データ121について、画素P1のコントラストはC1である。同様に、像面Z2の画像データ122について、画素P1と同じ位置に存在する画素P2のコントラストはC2である。   FIG. 5 is a diagram showing a process of creating pan focus image data. The pan focus processing circuit 18L calculates the contrast of each pixel included in the composite image data for each of the plurality of composite image data acquired from the arithmetic processing circuit 15L. The contrast is calculated by calculating a difference in luminance value between the pixel of interest and its neighboring pixels. In FIG. 5, the contrast of the pixel P1 is C1 for the composite image data 121 of the image plane Z1. Similarly, in the image data 122 of the image plane Z2, the contrast of the pixel P2 existing at the same position as the pixel P1 is C2.

制御回路18Lは、全ての合成画像データの各画素についてコントラストを算出した後、各合成画像データ間で、同じ位置に存在する各画素のコントラストを比較する。そして、これらの画素のうち、コントラストが最大になる画素を取り出す。例えば図5において、像面Z1では被写体112にピントが合っていないので、被写体112の輪郭を構成する画素P1のコントラストC1は、被写体112にピントが合っている像面Z2における同一位置の画素P2のコントラストC2よりも小さくなる。従って、パンフォーカス処理回路18Lは、画素P1ではなく画素P2を取り出す。   The control circuit 18L calculates the contrast for each pixel of all the composite image data, and then compares the contrast of each pixel existing at the same position between the composite image data. Of these pixels, the pixel having the maximum contrast is extracted. For example, in FIG. 5, since the subject 112 is not in focus on the image plane Z1, the contrast C1 of the pixel P1 that forms the outline of the subject 112 is the pixel P2 at the same position on the image plane Z2 that is in focus on the subject 112. Less than the contrast C2. Accordingly, the pan focus processing circuit 18L takes out the pixel P2 instead of the pixel P1.

パンフォーカス処理回路18Lは上述の処理により取り出された画素を集めることで、パンフォーカス画像データを作成する。例えば図5では、上述の処理により作成されたパンフォーカス画像データ123は、像面Z1に被写体像が結像する被写体と、像面Z2に被写体像が結像する被写体とのどちらにもピントが合っている、被写界深度が深い画像データとなる。少しずつ位置が異なる多数の像面の画像データに対してこの処理を行えば、至近距離に位置する被写体から、無限遠に位置する被写体まで、全ての被写体にピントが合ったパンフォーカス画像データが得られる。なお、パンフォーカス処理回路18Rも以上の説明と同様の処理を行う。   The pan focus processing circuit 18L creates pan focus image data by collecting the pixels extracted by the above processing. For example, in FIG. 5, the pan-focus image data 123 created by the above-described processing is focused on both the subject on which the subject image is formed on the image plane Z1 and the subject on which the subject image is formed on the image plane Z2. Matched image data with deep depth of field. If this process is performed on image data of a large number of image planes that are slightly different in position, pan-focus image data in which all subjects are in focus, from subjects located at close distances to subjects located at infinity. can get. The pan focus processing circuit 18R performs the same processing as described above.

次に、図1に示した制御回路101が実行する処理について説明する。制御回路101は、距離センサ104が出力する被写体までの距離を表す距離信号に基づき、被写体が至近距離に位置する場合とそれ以外の場合とで実行する処理を切り替える。以下、まず被写体が至近距離付近よりも遠方にある場合に制御回路101が実行する処理を説明し、その後に被写体が至近距離付近に位置する場合に制御回路101が実行する処理を説明する。   Next, processing executed by the control circuit 101 shown in FIG. 1 will be described. The control circuit 101 switches processing to be executed between a case where the subject is located at a close distance and a case other than that based on a distance signal indicating the distance to the subject output by the distance sensor 104. In the following, first, a process executed by the control circuit 101 when the subject is farther than the closest distance will be described, and then a process executed by the control circuit 101 when the subject is positioned near the close distance will be described.

被写体が至近距離付近よりも遠方に位置する場合、制御回路101は、撮像ユニット100L,100Rへ、パンフォーカス画像データを作成する指示を出力する。その結果、撮像ユニット100L,100Rのそれぞれから、パンフォーカス画像データが画像信号として出力される。制御回路101はこれら2つの撮像ユニットが出力した画像信号に基づいて、2つのパンフォーカス画像データを作成する。そして、この一対のパンフォーカス画像データをステレオ画像データとしてメモリ102に記憶する。   When the subject is located farther than the vicinity of the closest distance, the control circuit 101 outputs an instruction to create pan focus image data to the imaging units 100L and 100R. As a result, pan focus image data is output as an image signal from each of the imaging units 100L and 100R. The control circuit 101 creates two pan focus image data based on the image signals output from these two imaging units. Then, the pair of pan focus image data is stored in the memory 102 as stereo image data.

次に、被写体が至近距離付近に位置する場合に制御回路101が実行する処理を説明する。被写体が至近距離に位置する場合、撮像ユニット100Lと撮像ユニット100Rとで被写体の撮像範囲が著しく異なる。その結果、ステレオ画像の観察者がステレオ画像から被写体を立体像として認識し難くなったり、被写体が一方の撮像ユニットにしか写らなくなったりする。そこで制御回路101は、距離センサ104が出力する被写体までの距離が所定の長さに満たない場合、以下で説明するように、撮像ユニット100Lのみを用いてステレオ画像データを作成する。   Next, a process executed by the control circuit 101 when the subject is located near the close distance will be described. When the subject is located at a close distance, the imaging range of the subject is significantly different between the imaging unit 100L and the imaging unit 100R. As a result, it becomes difficult for an observer of the stereo image to recognize the subject as a stereoscopic image from the stereo image, or the subject is captured only on one of the imaging units. Therefore, when the distance to the subject output by the distance sensor 104 is less than a predetermined length, the control circuit 101 creates stereo image data using only the imaging unit 100L as described below.

図6は、撮像ユニット100Lのみを用いてステレオ画像データを作成する原理を示す図である。図6には、撮像ユニット100Lを上方から見た様子が記載されている。なお、画素配列130は実際には二次元状になっているが、ここでは説明を簡単にするため上下方向の配列のみを考える。   FIG. 6 is a diagram illustrating the principle of creating stereo image data using only the imaging unit 100L. FIG. 6 illustrates a state in which the imaging unit 100L is viewed from above. The pixel array 130 is actually two-dimensional, but only the vertical array is considered here for the sake of simplicity.

図6において、光電変換素子a1に対応するマイクロレンズMLによる、撮影レンズ11Lの瞳面への投影像が占める領域が、撮影レンズ11Lの瞳上の部分領域A1である。この投影像は実際にはボケ像となるが、ボケ像であっても近似的にはボケのない場合と同様のことが成り立つため、以下の説明ではボケを無視して説明する。部分領域A1と同様に、部分領域A2,A3,…は、光電変換素子a2,a3,…に対応する。撮影レンズ11Lの瞳上の部分領域A1,A2,A3,…を透過した光束はそれぞれ、マイクロレンズを透過して光電変換素子a1,a2,a3,…に入射する。部分領域E1,E2,E3,
…についても同様に、光電変換素子e1,e2,e3,…に対応する。
In FIG. 6, the area occupied by the projection image on the pupil plane of the photographing lens 11L by the microlens ML corresponding to the photoelectric conversion element a1 is a partial area A1 on the pupil of the photographing lens 11L. Although this projected image is actually a blurred image, even if it is a blurred image, the same thing as the case where there is no blurred is true. Therefore, in the following description, the blurred image is ignored. Like the partial area A1, the partial areas A2, A3,... Correspond to the photoelectric conversion elements a2, a3,. The light beams transmitted through the partial areas A1, A2, A3,... On the pupil of the photographing lens 11L are transmitted through the microlenses and are incident on the photoelectric conversion elements a1, a2, a3,. Partial areas E1, E2, E3
.. Also corresponds to the photoelectric conversion elements e1, e2, e3,.

制御回路101は、光電変換素子a1,a2,a3,…の出力に基づいて右目用の画像データを作成し、同様に光電変換素子e1,e2,e3,…の出力に基づいて、左目用の画像データを作成する。これらの画像データの作成方法については後に詳述する。これらの光電変換素子の出力は、駆動回路14Lと出力回路19Lとを介して制御回路101へ出力される。これら2つの画像データは、撮影レンズ11Lの左右で被写体像を瞳分割した画像データとなる。すなわち、これら2つの画像データは、領域A1とE1との間隔Lを基線長とした視差を有する一対の画像データである。   The control circuit 101 creates right-eye image data based on the outputs of the photoelectric conversion elements a1, a2, a3,..., And similarly controls the left-eye image based on the outputs of the photoelectric conversion elements e1, e2, e3,. Create image data. These image data creation methods will be described in detail later. Outputs of these photoelectric conversion elements are output to the control circuit 101 via the drive circuit 14L and the output circuit 19L. These two image data are image data obtained by dividing the subject image into pupils on the left and right sides of the photographing lens 11L. That is, these two image data are a pair of image data having a parallax with the interval L between the areas A1 and E1 as a base line length.

部分領域A1,E1は撮影レンズ11Lの瞳内に収まっているため、基線長Lは人間の平均的な目の間隔に比べて短くなる。基線長が短いと、ステレオ画像データを鑑賞する際に得られる遠近感が小さくなってしまう。しかしながら、被写体が至近距離にある場合、一対の画像データに人間の平均的な目の間隔の視差を持たせると、左右の画像の差が大きくなりすぎて立体像として認識しづらくなってしまう。また、立体像として認識できた場合であっても遠近感が過剰に感じられる場合が多い。従って、基線長Lが人間の平均的な目の間隔に比べて短いことは、至近距離に位置する被写体のステレオ画像データを作成するにあたって都合がよい。   Since the partial areas A1 and E1 are within the pupil of the photographing lens 11L, the baseline length L is shorter than the average human eye interval. If the baseline length is short, the perspective obtained when viewing stereo image data is reduced. However, when the subject is at a close distance, if a pair of image data has a parallax with an average human eye interval, the difference between the left and right images becomes too large to be recognized as a three-dimensional image. Moreover, even when the image can be recognized as a stereoscopic image, the sense of perspective is often felt excessively. Therefore, it is convenient for creating the stereo image data of the subject located at a close distance that the baseline length L is shorter than the average human eye interval.

図7および図8を用いて、至近距離の被写体を撮影した場合の画像データの作成方法について詳述する。図7は、画素配列130と、制御回路101により作成される一対の画像データ124R,124Lとの関係を示す図である。制御回路101は、各々の画素配列130について、画素配列中の右端に位置する光電変換素子e1,e2,e3,…の出力を左目用画像データ124Lの画素1つ1つに対応させる。同様に、画素配列中の左端に位置する光電変換素子a1,a2,a3,…の出力を右目用画像データ124Rの画素1つ1つに対応させる。   With reference to FIGS. 7 and 8, a method of creating image data when a subject at a close distance is photographed will be described in detail. FIG. 7 is a diagram showing the relationship between the pixel array 130 and a pair of image data 124R and 124L created by the control circuit 101. As shown in FIG. For each pixel array 130, the control circuit 101 associates the output of the photoelectric conversion elements e1, e2, e3,... Positioned at the right end in the pixel array with each pixel of the left-eye image data 124L. Similarly, the output of the photoelectric conversion elements a1, a2, a3,... Positioned at the left end in the pixel array is made to correspond to each pixel of the right-eye image data 124R.

図8は、光電変換素子の出力に基づき画像データの画素値を演算する処理を示す図である。本実施形態では、二次元状に光電変換素子が配列された画素配列130において、図中に斜線で示した最右列中央3つの光電変換素子a1の出力に基づいた演算を行い、左目用画像データ124Lの1画素の輝度値を算出する。具体的には、これら3つの光電変換素子の出力値を加算し、図中に示した画素L1の輝度値とする。a2,a3,…,e1,e2,e3,…についても同様である。   FIG. 8 is a diagram illustrating processing for calculating the pixel value of the image data based on the output of the photoelectric conversion element. In the present embodiment, in the pixel array 130 in which the photoelectric conversion elements are two-dimensionally arranged, a calculation based on the outputs of the three photoelectric conversion elements a1 in the center of the rightmost row indicated by diagonal lines in the drawing is performed, and the left-eye image The luminance value of one pixel of the data 124L is calculated. Specifically, the output values of these three photoelectric conversion elements are added to obtain the luminance value of the pixel L1 shown in the figure. The same applies to a2, a3,..., e1, e2, e3,.

画素配列と画像データにおける1画素との対応関係は、撮像素子13R上における画素配列の位置に基づいている。図8では、左目用画像データ124Lの全画素のうち、左から3つ目、上から3つ目の画素の輝度値を、左から3列目、上から3行目に位置する画素配列の光電変換素子a1の出力から演算している。   The correspondence between the pixel array and one pixel in the image data is based on the position of the pixel array on the image sensor 13R. In FIG. 8, the luminance values of the third pixel from the left and the third pixel from the top among all the pixels of the image data 124L for the left eye are shown in the pixel array located in the third column from the left and the third row from the top. Calculation is performed from the output of the photoelectric conversion element a1.

上述した第1の実施の形態によるステレオ撮像装置によれば、次の作用効果が得られる。
(1)制御回路101は、パンフォーカス処理回路18L,18Rが出力するパンフォーカス画像データに基づいて、視差を有する一対のパンフォーカス画像データを作成する。これにより、通常の撮像により得られるステレオ画像データに比べて、広い範囲の距離に存在する被写体が全て鮮明に写っている、よりステレオ画像として望ましい状態のステレオ画像データが得られる。
According to the stereo imaging device according to the first embodiment described above, the following operational effects can be obtained.
(1) The control circuit 101 creates a pair of pan focus image data having parallax based on the pan focus image data output from the pan focus processing circuits 18L and 18R. Thereby, as compared with stereo image data obtained by normal imaging, stereo image data in a desirable state as a stereo image can be obtained in which all subjects existing in a wide range of distance are clearly captured.

(2)制御回路101は、距離センサ104が検出した被写体までの距離が所定値未満でっあた場合に、撮像ユニット100Lが出力する画像データのみに基づいて、視差を有する一対の画像データを作成する。これにより、至近距離に位置する被写体からも、十分な
立体効果を得ることができる。
(2) When the distance to the subject detected by the distance sensor 104 is less than a predetermined value, the control circuit 101 generates a pair of image data having parallax based only on the image data output from the imaging unit 100L. create. As a result, a sufficient three-dimensional effect can be obtained from a subject located at a close distance.

(3)パンフォーカス処理回路18L,18Rは、パンフォーカスな画像データを、少しずつ位置をずらした多数の像面に焦点が合った画像データに基づいて作成する。これにより、レンズの絞り径を小さくする方法に比べて、ノイズの少ないパンフォーカスな画像データを得ることができる。 (3) The pan focus processing circuits 18L and 18R create pan focus image data based on image data focused on a large number of image planes whose positions are gradually shifted. Thereby, pan-focus image data with less noise can be obtained as compared with the method of reducing the aperture diameter of the lens.

以上の説明では、右目用の画像と左目用の画像とから成るステレオ画像について述べてきた。このようなステレオ画像は、公知の各種方法により鑑賞することができる。他方、レンチキュラー式立体画像として、左右二視点の画像だけではなく3つ以上の視点の画像を用いて立体効果を得る方式が知られている。以下に詳述する第2の実施形態では、このような方式のための多数視点画像を作成することができる。   In the above description, a stereo image composed of a right-eye image and a left-eye image has been described. Such a stereo image can be viewed by various known methods. On the other hand, as a lenticular three-dimensional image, a method of obtaining a three-dimensional effect using not only two left and right viewpoint images but also three or more viewpoint images is known. In the second embodiment described in detail below, a multi-viewpoint image for such a method can be created.

――第2の実施の形態――
図9は、2つの撮像ユニットを用いてレンチキュラー式立体画像を得る処理を示す図である。図9に示すように、各々の画素配列130から出力を取り出す光電変換素子の相対位置を変えることにより、被写体を異なる視点から撮像した場合と同様の画像データ221R〜230Lを得ることができる。図9では、この方法により撮像ユニット1つあたり5つの異なる視点に対応する画像データを取得している。これは、10台のカメラを並べて被写体を撮像する場合に相当する。このようにして得られた10個の画像データ221R〜230Lを公知の方法により縦のストライプ状に配列することにより、レンチキュラー式立体画像を作成することができる。
-Second embodiment-
FIG. 9 is a diagram illustrating processing for obtaining a lenticular stereoscopic image using two imaging units. As shown in FIG. 9, by changing the relative position of the photoelectric conversion element that extracts the output from each pixel array 130, the same image data 221R to 230L as when the subject is imaged from different viewpoints can be obtained. In FIG. 9, image data corresponding to five different viewpoints is acquired for each imaging unit by this method. This corresponds to a case where 10 cameras are arranged side by side to image a subject. A lenticular stereoscopic image can be created by arranging the ten pieces of image data 221R to 230L thus obtained in a vertical stripe shape by a known method.

なお上記の処理により得られた10個の画像データ221R〜230Lは視差が一定にならない。具体的には、画像データ225Rと画像データ226Lとの間の視差だけが、その他の画像データ間の視差に比べて大きくなる。しかしながら、画像データ226L〜230Lのいずれかを左目で、画像データ221R〜225Rのいずれかを右目で見られる位置にレンチキュラー式立体画像の鑑賞者がいるのであれば、通常のレンチキュラー式立体画像と同様の立体効果を得ることができる。   Note that the parallax of the ten pieces of image data 221R to 230L obtained by the above processing is not constant. Specifically, only the parallax between the image data 225R and the image data 226L is larger than the parallax between the other image data. However, if there is a viewer of a lenticular stereoscopic image at a position where any one of the image data 226L to 230L can be viewed with the left eye and any one of the image data 221R to 225R with the right eye, it is the same as a normal lenticular stereoscopic image. The three-dimensional effect can be obtained.

図10は、1つの撮像ユニットを用いてレンチキュラー式立体画像を得る処理を示す図である。図9に示した2つの撮像ユニットを用いる場合と同様に、画像データの作成に用いる光電変換素子の相対位置を変えることにより、異なる視点の画像データを得ることができる。図10では、5つの異なる視点に対応する画像データ221R〜225Rを取得している。なお、第1の実施形態と同様に、1つの撮像ユニットのみを用いて作成されたレンチキュラー式立体画像よりも、2つの撮像ユニットを用いて作成されたレンチキュラー式立体画像の方が、より大きな立体感が得られる。これは、左右の目が捕らえる画像の視差は、後者の方が大きくなるためである。   FIG. 10 is a diagram illustrating processing for obtaining a lenticular stereoscopic image using one imaging unit. Similarly to the case of using the two imaging units shown in FIG. 9, image data of different viewpoints can be obtained by changing the relative position of the photoelectric conversion element used for creating the image data. In FIG. 10, image data 221R to 225R corresponding to five different viewpoints are acquired. As in the first embodiment, a lenticular stereoscopic image created using two imaging units is larger than a lenticular stereoscopic image created using only one imaging unit. A feeling is obtained. This is because the latter has a larger parallax of images captured by the left and right eyes.

上述した第2の実施の形態による撮像装置によれば、次の作用効果が得られる。
(1)撮像装置は、2つの撮像ユニットを用いて、3つ以上の異なる視点に対応する画像データを作成する。これにより、多数の撮像ユニットを用意する必要が無く、撮像装置の大型化を回避することができる。
According to the imaging apparatus according to the second embodiment described above, the following operational effects can be obtained.
(1) The imaging apparatus uses two imaging units to create image data corresponding to three or more different viewpoints. Thereby, it is not necessary to prepare a large number of image pickup units, and an increase in size of the image pickup apparatus can be avoided.

――第3の実施の形態――
図11は、第3の実施の形態によるステレオ撮像装置の構成を示す図である。本実施形態のステレオ撮像装置2は、撮像ユニット100L,200R,制御回路201,メモリ102,入力装置103,距離センサ104,および表示装置205を備える。すなわち、ステレオ撮像装置2は、新たに表示装置205を備えると共に、第1の実施の形態における撮像ユニット100Rに代えて撮像ユニット200Rを備える。表示装置205はスキャンバックライト方式の表示装置であり、1つの画像データに基づいて平面的に画像を表示する機能と、ステレオ画像データに基づいて立体視可能な画像を表示する機能とを有する。撮像ユニット200Rの構成については後に詳述する。
--Third embodiment--
FIG. 11 is a diagram illustrating a configuration of a stereo imaging device according to the third embodiment. The stereo imaging device 2 according to this embodiment includes imaging units 100L and 200R, a control circuit 201, a memory 102, an input device 103, a distance sensor 104, and a display device 205. That is, the stereo imaging device 2 is newly provided with a display device 205 and an imaging unit 200R in place of the imaging unit 100R in the first embodiment. The display device 205 is a scan backlight type display device and has a function of displaying an image in a planar manner based on one image data and a function of displaying a stereoscopically viewable image based on stereo image data. The configuration of the imaging unit 200R will be described in detail later.

図12は、撮像ユニット100L,200Rの構成を示す図である。撮像ユニット100Lの構成は第1の実施の形態と同様であるので説明を省略する。撮像ユニット200Rは、撮像ユニット100Lや撮像ユニット100Rとは異なり、パンフォーカス画像を合成する機能を有さない。すなわち、撮像ユニット200Rは合成撮像ユニットではない。具体的には、撮影レンズ11Rの焦点面近傍にマイクロレンズアレイが配置されず、撮像素子213Rのみが配置される。なお、各々の光電変換素子に対し、当該光電変換素子への集光率を高めるためのマイクロレンズを配置してもよい。このマイクロレンズは集光率を高めるためのものであり、パンフォーカス画像を合成する目的に利用するものではない。   FIG. 12 is a diagram illustrating the configuration of the imaging units 100L and 200R. Since the configuration of the imaging unit 100L is the same as that of the first embodiment, the description thereof is omitted. Unlike the imaging unit 100L and the imaging unit 100R, the imaging unit 200R does not have a function of synthesizing a pan-focus image. That is, the imaging unit 200R is not a composite imaging unit. Specifically, the microlens array is not disposed in the vicinity of the focal plane of the photographing lens 11R, and only the image sensor 213R is disposed. In addition, you may arrange | position the micro lens for raising the condensing rate to the said photoelectric conversion element with respect to each photoelectric conversion element. This microlens is for increasing the light collection rate, and is not used for the purpose of synthesizing a pan focus image.

撮像素子213Rは、撮像ユニット100Lの撮像素子13Lと同様に、駆動回路14Rによって駆動される。撮像素子213Rが出力する画像信号は駆動回路14Rを介して画像処理回路215Rに取り込まれるか、あるいは出力回路19Rに出力される。画像処理回路215Rは、上記の画像信号に対し公知の画像処理を適用して画像データを作成する。画像処理回路215Rは、この画像データをメモリ16Rに格納する。   The image sensor 213R is driven by the drive circuit 14R in the same manner as the image sensor 13L of the image pickup unit 100L. The image signal output from the image sensor 213R is taken into the image processing circuit 215R via the drive circuit 14R or output to the output circuit 19R. The image processing circuit 215R creates image data by applying known image processing to the image signal. The image processing circuit 215R stores this image data in the memory 16R.

撮像ユニット100Lにより作成されるパンフォーカス画像データの画素数は、撮像ユニット200Rにより作成される画像データの画素数よりも少ない。これは、撮像ユニット100Lが1つのマイクロレンズMLについて1つの画素を出力するためである。すなわち、パンフォーカス画像データの画素数は、マイクロレンズアレイ12Lに含まれるマイクロレンズMLの個数による制限を受ける。   The number of pixels of pan focus image data created by the imaging unit 100L is smaller than the number of pixels of image data created by the imaging unit 200R. This is because the imaging unit 100L outputs one pixel for one microlens ML. That is, the number of pixels of pan focus image data is limited by the number of microlenses ML included in the microlens array 12L.

なお、本実施形態において、表示装置205の表示画面に表示可能な画素数は、パンフォーカス画像データの画素数よりも多く、撮像ユニット200Rにより作成される画像データの画総数よりも少ない。   In the present embodiment, the number of pixels that can be displayed on the display screen of the display device 205 is larger than the number of pixels of pan-focus image data and smaller than the total number of images of image data created by the imaging unit 200R.

制御回路201(図11)は、撮像ユニット100Lが作成したパンフォーカス画像データと、撮像ユニット200Rが作成した画像データとに基づき、ステレオ画像データを作成する。制御回路201は任意の画素数のステレオ画像データを作成することが可能に構成されている。ただし、撮像ユニット200Rが作成する画像データの画素数を、ステレオ画像データの画素数の上限とする。以下、撮像ユニット100Lが作成するパンフォーカス画像データの画素数を左側画素数、撮像ユニット200Rが作成する画像データの画素数を右側画素数、ステレオ画像データの画素数を目標画素数と呼ぶ。   The control circuit 201 (FIG. 11) creates stereo image data based on the pan focus image data created by the imaging unit 100L and the image data created by the imaging unit 200R. The control circuit 201 is configured to be able to create stereo image data having an arbitrary number of pixels. However, the number of pixels of image data created by the imaging unit 200R is the upper limit of the number of pixels of stereo image data. Hereinafter, the number of pixels of pan focus image data created by the imaging unit 100L is called the number of left pixels, the number of pixels of image data created by the imaging unit 200R is called the number of right pixels, and the number of pixels of stereo image data is called the target number of pixels.

前述の通り、撮像ユニット100Lが作成するパンフォーカス画像データと、撮像ユニット200Rが作成する画像データと、は画素数が異なる。すなわち、左側画素数と右側画素数とが異なっている。そこで、制御回路201はこれら2つの画像データに対して所定の拡大処理または縮小処理を実行することにより、2つの画像データの画素数を目標画素数に一致させ、ステレオ画像データとする。なお、制御回路201が実行する縮小処理は公知の画像縮小処理であるため、説明を省略する。   As described above, the number of pixels is different between the pan focus image data created by the imaging unit 100L and the image data created by the imaging unit 200R. That is, the left pixel number and the right pixel number are different. Therefore, the control circuit 201 executes a predetermined enlargement process or reduction process on these two image data, thereby matching the number of pixels of the two image data with the target number of pixels to obtain stereo image data. Note that the reduction process executed by the control circuit 201 is a known image reduction process, and thus description thereof is omitted.

前述の通り、目標画素数が右側画素数を上回ることはない。従って、撮像ユニット200Rが作成する画像データに対して拡大処理が実行されることはない。他方、撮像ユニット100Lが作成するパンフォーカス画像データには拡大処理が実行されることがある。制御回路201は、拡大処理を実行する際、公知の画像拡大処理を実行した後で当該画像データにぼかし処理を実行する。これは、単純に拡大しただけでは描画の荒いモザイク状の画像になってしまうためである。   As described above, the target pixel number does not exceed the right pixel number. Accordingly, the enlargement process is not executed on the image data created by the imaging unit 200R. On the other hand, enlargement processing may be performed on pan-focus image data created by the imaging unit 100L. When executing the enlargement process, the control circuit 201 performs a blurring process on the image data after executing a known image enlargement process. This is because a simple enlargement results in a rough mosaic image.

制御回路201は、作成したステレオ画像データをメモリ102に記憶する。その後、制御回路201は例えば不図示の記憶媒体にステレオ画像データを記憶させたり、あるいは表示装置205にステレオ画像データを表示させたりする。ステレオ画像データを不図示の記憶媒体に記憶させる際、ユーザは入力装置103を介して制御回路101に目標解像度を指定することができる。   The control circuit 201 stores the created stereo image data in the memory 102. Thereafter, the control circuit 201 stores the stereo image data in a storage medium (not shown) or displays the stereo image data on the display device 205, for example. When storing stereo image data in a storage medium (not shown), the user can designate a target resolution to the control circuit 101 via the input device 103.

ステレオ画像データを表示させる際、制御回路201は表示装置205に表示可能な画素数を目標画素数としてステレオ画像データを作成する。ステレオ画像データが表示されているとき、ユーザは入力装置103を介して制御回路201にステレオ画像データの拡大指示を送信することができる。制御回路201は当該指示を受けとると、目標画素数を拡大指示に応じて大きくすると共に、作成されたステレオ画像データから表示可能な画素数分の領域を切り出して新たなステレオ画像データとする。表示装置205には、この新たなステレオ画像データが表示される。   When displaying stereo image data, the control circuit 201 creates stereo image data with the number of pixels that can be displayed on the display device 205 as the target number of pixels. When the stereo image data is displayed, the user can transmit an instruction to enlarge the stereo image data to the control circuit 201 via the input device 103. Upon receiving the instruction, the control circuit 201 increases the target number of pixels in accordance with the enlargement instruction and cuts out a region for the number of pixels that can be displayed from the created stereo image data to obtain new stereo image data. The new stereo image data is displayed on the display device 205.

以上のように、パンフォーカス画像データに拡大処理やぼかし処理を適用すると、パンフォーカス画像データはこれらの処理を適用する前に比べてやや不鮮明な画像となる。しかしながら、ステレオ画像データを構成する一方の画像データが不鮮明な画像であっても、他方の画像データが鮮明であれば、十分に鑑賞に堪えるステレオ画像データとなる。なお、他方の鮮明な画像データに基づいて一方の不鮮明な画像データを補間処理することにより、より鮮明な画像を作り出すことができることは勿論である。   As described above, when the enlargement process or the blurring process is applied to the pan focus image data, the pan focus image data becomes a slightly unclear image as compared to before applying these processes. However, even if one of the image data constituting the stereo image data is an unclear image, if the other image data is clear, the stereo image data can be fully appreciated. Needless to say, a clearer image can be created by interpolating one of the unclear image data based on the other clear image data.

次に、輻輳角の調節機能について説明する。本実施形態の制御回路201は、撮影レンズ11Lの射出瞳の領域を選択する選択機能を有する。ステレオ撮像装置2を用いて撮像を行う際、ユーザは入力装置103により、撮影レンズ11Lの射出瞳の領域を指定することが可能である。制御回路201はこの指定が行われると、上記の選択機能により指定された領域を選択する。そして、撮像ユニット100Lに、パンフォーカス画像データではなく、上記の選択機能により選択された領域からの光束のみを用いて合成された画像データを作成させる。   Next, the convergence angle adjustment function will be described. The control circuit 201 of this embodiment has a selection function for selecting the exit pupil area of the photographic lens 11L. When imaging using the stereo imaging device 2, the user can designate the exit pupil region of the photographic lens 11 </ b> L with the input device 103. When this designation is made, the control circuit 201 selects the area designated by the above selection function. Then, the image pickup unit 100L is caused to create image data synthesized using only the light flux from the region selected by the selection function, not the pan focus image data.

図13は、輻輳角の調整機能の概要を説明する図である。図13には図6と同様に、撮像ユニット100L、200Rを上方から見た様子が記載されている。輻輳角の調整機能を利用しない場合、制御回路201により作成されるステレオ画像データの基線長Lsは、撮影レンズ11Rの光軸と撮影レンズ11Lの光軸との間の距離になる。   FIG. 13 is a diagram for explaining the outline of the convergence angle adjustment function. FIG. 13 shows a state in which the imaging units 100L and 200R are viewed from above, as in FIG. When the convergence angle adjustment function is not used, the base line length Ls of the stereo image data created by the control circuit 201 is the distance between the optical axis of the photographing lens 11R and the optical axis of the photographing lens 11L.

他方、制御回路201の選択機能により、撮影レンズ11Lの入射瞳のうち撮影レンズ11Rから遠い領域である図13に示す領域208が選択された場合、撮像ユニット100Lはこの領域208から撮像素子13Lに入射する光束のみを用いて画像データを合成する。これにより、制御回路201により作成されるステレオ画像データの基線長は、Lsより長い基線長Lとなる。つまり、この選択機能を用いることにより、作成されるステレオ画像データの基線長を通常よりも長くすることが可能である。逆に領域209を選択すれば、基線長は短くすることができる。   On the other hand, when the selection function of the control circuit 201 selects the region 208 shown in FIG. 13 which is a region far from the photographic lens 11R from the entrance pupil of the photographic lens 11L, the imaging unit 100L moves from this region 208 to the imaging element 13L. Image data is synthesized using only incident light beams. Thereby, the base line length of the stereo image data created by the control circuit 201 becomes the base line length L longer than Ls. That is, by using this selection function, the base line length of the created stereo image data can be made longer than usual. Conversely, if the region 209 is selected, the baseline length can be shortened.

図14は、図13におけるマイクロレンズアレイ12Lおよび撮像素子13Lの拡大図である。図13に示す領域208からの光束のみを用いて画像データを合成する場合、演算処理回路15Lは各々の画素配列130のうち、撮影レンズ11R寄りの画素の出力のみを用いて画像データを合成する。すなわち、図14に示す画素e1,e2,e3,e4,…の出力のみを用いて画像データを合成する。   FIG. 14 is an enlarged view of the microlens array 12L and the image sensor 13L in FIG. When combining image data using only the light flux from the region 208 shown in FIG. 13, the arithmetic processing circuit 15L combines the image data using only the output of the pixel closer to the photographic lens 11R in each pixel array 130. . That is, the image data is synthesized using only the outputs of the pixels e1, e2, e3, e4,.

図15は、輻輳角の変化を示す図である。被写体210に対し、輻輳角の調整機能を用いずにステレオ画像データの撮影を行った場合、被写体210に対する輻輳角は、図15に示す角度θsとなる。他方、図13に示す領域208からの光束のみを用いて画像データを合成する場合、被写体210に対する輻輳角は、図15に示す角度θとなる。このように、画像データの合成に用いる撮影レンズ11Lの射出瞳の領域を選択することにより、撮像ユニット100Lが作成する画像データは、同一被写体に対する視差が通常とは異なる視差となる。その結果、制御回路201により作成されるステレオ画像データは、同一被写体に対する輻輳角が通常とは異なる輻輳角となる。   FIG. 15 is a diagram illustrating changes in the convergence angle. When stereo image data is captured on the subject 210 without using the convergence angle adjustment function, the convergence angle with respect to the subject 210 is an angle θs shown in FIG. On the other hand, when the image data is synthesized using only the light flux from the region 208 shown in FIG. 13, the convergence angle with respect to the subject 210 is the angle θ shown in FIG. Thus, by selecting the exit pupil area of the photographic lens 11L used for the synthesis of the image data, the parallax for the same subject in the image data created by the imaging unit 100L is different from the normal parallax. As a result, the stereo image data created by the control circuit 201 has a convergence angle different from the normal convergence angle for the same subject.

上述した第3の実施の形態による撮像装置によれば、次の作用効果が得られる。
(1)撮像ユニット200Rは、撮影レンズ11Rと、撮影レンズ11Rの結像面近傍に二次元状に配置された光電変換機能を有する複数の画素を含む撮像素子213Rと、撮像素子213Rの出力に基づき撮像ユニット100Lよりも画素数の多い画像データを作成する画像処理回路215Rとを有する。制御回路201は、撮像ユニット100Lが作成したパンフォーカス画像データに所定の拡大処理を施し、撮像ユニット200Rが作成した画像データと画素数を同一にする。その後、所定のぼかし処理を施し、ステレオ画像データを作成する。このようにしたので、撮像ユニット100Lが作成する画像データよりも画素数の多いステレオ画像データを得ることができる。
According to the imaging apparatus according to the third embodiment described above, the following operational effects can be obtained.
(1) The imaging unit 200R includes an imaging lens 11R, an imaging element 213R including a plurality of pixels having a photoelectric conversion function arranged two-dimensionally in the vicinity of the imaging surface of the imaging lens 11R, and an output of the imaging element 213R. And an image processing circuit 215R that creates image data having a larger number of pixels than the imaging unit 100L. The control circuit 201 performs a predetermined enlargement process on the pan focus image data created by the imaging unit 100L so that the number of pixels is the same as the image data created by the imaging unit 200R. Thereafter, predetermined blurring processing is performed to create stereo image data. Since it did in this way, stereo image data with more pixels than the image data which the imaging unit 100L produces can be obtained.

(2)制御回路201は、撮影レンズ11Lの射出瞳の領域を選択する選択機能を有する。撮像ユニット100Lは、選択機能により選択された射出瞳の領域からの光束を受光する複数の画素の出力に基づいて、パンフォーカス画像データに代わり、同一被写体に対する視差がパンフォーカス画像データとは異なる画像データを作成する。このようにしたので、撮像ユニット100L,200Rの間隔を通常のステレオ撮像装置とは異なる長さにした場合であっても、通常のステレオ撮像装置並みの視差を得ることができる。 (2) The control circuit 201 has a selection function for selecting the exit pupil area of the photographic lens 11L. The imaging unit 100L is an image in which the parallax with respect to the same subject is different from that of the pan focus image data, instead of the pan focus image data, based on the outputs of the plurality of pixels that receive the light flux from the exit pupil area selected by the selection function. Create data. Since it did in this way, even if it is a case where the space | interval of imaging unit 100L, 200R is made into the length different from a normal stereo imaging device, the parallax equivalent to a normal stereo imaging device can be obtained.

次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。
(1)第1の実施形態において、パンフォーカス画像データを、焦点検出を行った結果に基づいて作成してもよい。すなわち、少しずつ位置をずらした多数の像面の画像データを用いるのではなく、公知の方法で焦点検出を行い、被写体像が結像することが検出された像面の画像データのみを用いてもよい。
The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.
(1) In the first embodiment, pan focus image data may be created based on the result of focus detection. That is, instead of using image data of a large number of image planes whose positions are gradually shifted, focus detection is performed by a known method, and only the image data of the image plane where it is detected that a subject image is formed is used. Also good.

(2)第1の実施形態において、被写体が十分明るい場合であれば、各画素配列130から同一の相対位置にある1つの光電変換素子の出力のみを取り出して集めることにより、パンフォーカス画像データを作成してもよい。 (2) In the first embodiment, if the subject is sufficiently bright, the pan-focus image data is obtained by collecting only the outputs of one photoelectric conversion element at the same relative position from each pixel array 130 and collecting them. You may create it.

(3)図8に示した画像データの画素値を、光電変換素子の出力を加算する以外の演算により算出してもよい。例えば、光電変換素子の出力を平均した値を画像データの画素値としてもよい。また、光電変換素子の選択パターンを、図8に斜線で示したパターンとは異なるものにしてもよい。 (3) The pixel value of the image data shown in FIG. 8 may be calculated by a calculation other than adding the output of the photoelectric conversion element. For example, a value obtained by averaging the outputs of the photoelectric conversion elements may be used as the pixel value of the image data. Further, the selection pattern of the photoelectric conversion elements may be different from the pattern shown by hatching in FIG.

(4)2つの撮像ユニットの光学特性は、完全に同一でなくてもよい。また、2つの撮像ユニットのうち一方は、撮影光学系の状態を固定したままの一度の撮影で、至近距離から無限遠までの全ての被写体にピントが合った画像データを作成することが可能な撮像ユニットでなくてもよい。 (4) The optical characteristics of the two imaging units may not be completely the same. In addition, one of the two imaging units can create image data in which all subjects from close range to infinity are in focus with one shooting with the state of the shooting optical system fixed. It may not be an imaging unit.

(5)撮影レンズの射出瞳面と撮像素子とは共役であってもよいし、ずれが存在していてもよい。 (5) The exit pupil plane of the photographic lens and the image sensor may be conjugate or there may be a shift.

(6)撮像ユニットを3つ以上用意し、それらのうち任意の2つからステレオ画像データを作成できるようにしてもよい。また、至近距離に存在する被写体を撮像する際に使用する撮像ユニットは、それらの撮像ユニットのいずれであってもよい。例えば、予め決められた1つの撮像ユニットのみを使用するようにしてもよいし、被写体の位置に応じて最適な撮像ユニットを選択するようにしてもよい。 (6) Three or more imaging units may be prepared, and stereo image data may be created from any two of them. Moreover, any of these imaging units may be used as the imaging unit used when imaging a subject existing at a close distance. For example, only one predetermined imaging unit may be used, or an optimal imaging unit may be selected according to the position of the subject.

(7)距離センサとして、従来のカメラ等に用いられてきた各種原理の距離検出装置を用いることができる。また、特開2007−316521号公報等で公知の技術を用いて撮像ユニット100Lまたは100Rのいずれかの出力により焦点検出を行い、求めた結像位置と撮影レンズのフォーカスレンズ位置とから被写体の距離を算出してもよい。このようにすることで、撮影レンズのフォーカスレンズ位置の検出手段は要するものの、他に被写体の距離検出のための機構を備える必要が無く、全体の構造が簡単になりコストを低減できる。 (7) As the distance sensor, distance detection devices of various principles that have been used in conventional cameras and the like can be used. In addition, focus detection is performed by the output of either the imaging unit 100L or 100R using a technique known in Japanese Patent Application Laid-Open No. 2007-316521 and the distance of the subject from the obtained imaging position and the focus lens position of the photographing lens. May be calculated. In this way, although the detection means for the focus lens position of the photographic lens is required, it is not necessary to provide any other mechanism for detecting the distance of the subject, and the overall structure is simplified and the cost can be reduced.

(8)第1の実施形態によるステレオ撮像装置1では、パンフォーカス画像データを作成することを必ずしも要しない。すなわち、撮像ユニット100R,100Lを近距離ではいずれか一方を、遠距離では両方を用いて、パンフォーカス画像データと所望の位置に焦点のあった画像データとの両方またはいずれか一方を作成することができる。ステレオ撮像装置としては、いずれか一方の画像データに基づきステレオ画像データを出力することができる。 (8) In the stereo imaging device 1 according to the first embodiment, it is not always necessary to create pan-focus image data. That is, using either one of the imaging units 100R and 100L at a short distance and both at a long distance, the pan focus image data and / or one of the image data focused on a desired position is created. Can do. As a stereo imaging device, stereo image data can be output based on one of the image data.

(9)第3の実施の形態に記載した輻輳角の調整機能は、第1の実施の形態のように2つの撮像ユニットが共にパンフォーカス撮像ユニットである場合にも適用することが可能である。この場合、2つの撮像ユニットの両方において輻輳角の調整を行うことができるので、第3の実施の形態に示すステレオ撮像装置2よりも調整の幅が広がる。 (9) The convergence angle adjustment function described in the third embodiment can also be applied to the case where the two imaging units are both pan-focus imaging units as in the first embodiment. . In this case, since the convergence angle can be adjusted in both of the two imaging units, the range of adjustment is wider than that of the stereo imaging device 2 shown in the third embodiment.

(10)第3の実施の形態において、検出された各種情報に基づいて制御回路201が作成するステレオ画像データの画素数を自動的に変更するようにしてもよい。例えば、動画撮影の場合に静止画撮影の場合よりも画素数を少なくするようにしてもよいし、記憶媒体の空き容量が所定量以下になった場合に画素数を少なくするようにしてもよい。 (10) In the third embodiment, the number of pixels of the stereo image data created by the control circuit 201 may be automatically changed based on the detected various information. For example, in the case of moving image shooting, the number of pixels may be made smaller than in the case of still image shooting, or the number of pixels may be reduced when the free capacity of the storage medium becomes a predetermined amount or less. .

本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。   As long as the characteristics of the present invention are not impaired, the present invention is not limited to the above-described embodiments, and other forms conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention. .

1,2 ステレオ撮像装置
18L,18R パンフォーカス処理回路
100L,100R,200R 撮像ユニット
101 制御回路
130 画素配列
ML マイクロレンズ
1, 2 Stereo imaging devices 18L, 18R Pan focus processing circuits 100L, 100R, 200R Imaging unit 101 Control circuit 130 Pixel array ML Micro lens

Claims (6)

被写体の画像信号を出力する少なくとも2つの撮像ユニットと、
前記2つの撮像ユニットが出力した画像信号に基づいて、視差を有する一対の画像を作成する第1の画像作成手段と、
を有するステレオ撮像装置であって、
前記2つの撮像ユニットのうち少なくとも1つは、結像光学系と、前記結像光学系の所定の結像面近傍に二次元状に配置された複数の正レンズと、前記複数の正レンズの各々の後側に二次元状に配置され、前記結像光学系の射出瞳の異なる領域からの光束をそれぞれ受光する光電変換機能を有する複数の画素を含む撮像素子と、前記撮像素子の出力に基づきパンフォーカスな画像信号を出力できる出力手段と、を有するパンフォーカス撮像ユニットであることを特徴とするステレオ撮像装置。
At least two imaging units for outputting an image signal of a subject;
First image creating means for creating a pair of images having parallax based on image signals output by the two imaging units;
A stereo imaging device comprising:
At least one of the two imaging units includes an imaging optical system, a plurality of positive lenses arranged two-dimensionally in the vicinity of a predetermined imaging surface of the imaging optical system, and the plurality of positive lenses. An image sensor that includes a plurality of pixels that are arranged two-dimensionally on the rear side of each of the imaging optical systems and that receives light beams from different regions of the exit pupil of the imaging optical system, and an output of the image sensor A stereo image pickup apparatus, comprising: a pan-focus image pickup unit having an output unit capable of outputting a pan-focus image signal.
請求項1に記載のステレオ撮像装置において、
前記2つの撮像ユニットはいずれも前記パンフォーカス撮像ユニットであることを特徴とするステレオ撮像装置。
The stereo imaging device according to claim 1,
The two image pickup units are both pan focus image pickup units, and a stereo image pickup apparatus is characterized.
請求項1に記載のステレオ撮像装置において、
被写体までの距離を検出する測距手段と、
前記パンフォーカス撮像ユニットが出力した画像信号に基づいて、視差を有する一対の画像を作成する第2の画像作成手段と、
を更に有し、
前記測距手段が検出した距離が所定値以上の場合には前記第1の画像作成手段により視差を有する一対の画像を作成し、前記測距手段が検出した距離が所定値未満の場合には前記第2の画像作成手段により視差を有する一対の画像を作成することを特徴とするステレオ撮像装置。
The stereo imaging device according to claim 1,
Ranging means for detecting the distance to the subject;
Second image creating means for creating a pair of images having parallax based on the image signal output by the pan focus imaging unit;
Further comprising
When the distance detected by the distance measuring means is greater than or equal to a predetermined value, a pair of images having parallax is created by the first image creating means, and when the distance detected by the distance measuring means is less than a predetermined value A stereo imaging apparatus, wherein a pair of images having parallax is created by the second image creating means.
請求項2に記載のステレオ撮像装置において、
被写体と前記ステレオ撮像装置との間の距離を検出する測距手段と、
前記2つの画像合成可能な撮像ユニットのうち、いずれか一方が出力した画像信号に基づいて、視差を有する一対の画像を作成する第3の画像作成手段と、
を更に有し、
前記測距手段が検出した距離が所定値以上の場合と所定値未満の場合とで、前記第1の画像作成手段と前記第3の画像作成手段とを切り替えて動作することを特徴とするステレオ撮像装置。
The stereo imaging device according to claim 2,
Distance measuring means for detecting a distance between a subject and the stereo imaging device;
Third image creating means for creating a pair of images having parallax based on an image signal output by either one of the two image synthesizing imaging units;
Further comprising
A stereo which operates by switching between the first image creating means and the third image creating means depending on whether the distance detected by the distance measuring means is greater than a predetermined value or less than a predetermined value. Imaging device.
請求項1または3に記載のステレオ撮像装置において、
前記2つの撮像ユニットの一方は前記パンフォーカス撮像ユニットであり、他方は、第2結像光学系と、前記第2結像光学系の所定の結像面近傍に二次元状に配置された光電変換機能を有する複数の画素を含む第2撮像素子と、前記第2撮像素子の出力に基づき前記パンフォーカス撮像ユニットが出力する画像信号よりも画素数の多い画像信号を出力する第2出力手段と、を有する標準撮像ユニットであり、
前記パンフォーカス撮像ユニットから出力された画像信号に所定の拡大処理を施し、前記標準撮像ユニットから出力された画像信号と画素数を同一にする拡大手段と、
前記拡大手段により前記拡大処理が施された画像信号に対して所定のぼかし処理を施すぼかし手段とを更に有し、
前記第1の画像作成手段は、前記ぼかし手段によりぼかし処理が施された画像信号と、前記標準撮像ユニットが出力した画像信号とに基づいて、視差を有する一対の画像であって前記パンフォーカス撮像ユニットが出力した画像信号よりも画素数の多い一対の画像を作成することを特徴とするステレオ撮像装置。
The stereo imaging device according to claim 1 or 3,
One of the two imaging units is the pan-focus imaging unit, and the other is a second imaging optical system and a photoelectric element arranged two-dimensionally in the vicinity of a predetermined imaging surface of the second imaging optical system. A second imaging device including a plurality of pixels having a conversion function; and second output means for outputting an image signal having a larger number of pixels than an image signal output from the pan-focus imaging unit based on an output of the second imaging device. A standard imaging unit having
Enlarging means that performs a predetermined enlargement process on the image signal output from the pan focus imaging unit, and makes the number of pixels the same as the image signal output from the standard imaging unit;
A blurring unit that performs a predetermined blurring process on the image signal that has been subjected to the magnification process by the magnification unit;
The first image creating unit is a pair of images having parallax based on the image signal subjected to the blurring process by the blurring unit and the image signal output by the standard imaging unit, and the pan-focus imaging A stereo imaging device that creates a pair of images having a larger number of pixels than an image signal output by a unit.
被写体の画像信号を出力する少なくとも2つの撮像ユニットと、
前記被写体までの距離を検出する測距手段と、
前記2つの撮像ユニットが出力した画像信号に基づいて、視差を有する一対の画像を作成する第1の画像作成手段と、
前記2つの撮像ユニットのうちいずれか一方の撮像ユニットが出力した画像信号に基づいて、視差を有する一対の画像を作成する第2の画像作成手段と、
を有するステレオ撮像装置であって、
前記2つの撮像ユニットのうち少なくとも1つは、結像光学系と、前記結像光学系の所定の結像面近傍に二次元状に配置された複数の正レンズと、前記複数の正レンズの各々の後側に二次元状に配置され、前記結像光学系の射出瞳の異なる領域からの光束をそれぞれ受光する光電変換機能を有する複数の画素を含み、前記複数の画素の出力を画像信号として出力する撮像素子とを有する撮像ユニットであり、
前記第2の画像作成手段は、前記合成撮像ユニットが出力した画像信号に基づいて、視差を有する一対の画像を作成し、
前記測距手段が検出した距離が所定値以上の場合には前記第1の画像作成手段により視差を有する一対の画像を作成し、前記測距手段が検出した距離が所定値未満の場合には前記第2の画像作成手段により視差を有する一対の画像を作成することを特徴とするステレオ撮像装置。
At least two imaging units for outputting an image signal of a subject;
Ranging means for detecting the distance to the subject;
First image creating means for creating a pair of images having parallax based on image signals output by the two imaging units;
Second image creation means for creating a pair of images having parallax based on an image signal output by one of the two imaging units;
A stereo imaging device comprising:
At least one of the two imaging units includes an imaging optical system, a plurality of positive lenses arranged two-dimensionally in the vicinity of a predetermined imaging surface of the imaging optical system, and the plurality of positive lenses. Each pixel includes a plurality of pixels arranged two-dimensionally on the rear side and having a photoelectric conversion function of receiving light beams from different regions of the exit pupil of the imaging optical system, and outputs the plurality of pixels as image signals. An image pickup unit having an image pickup device that outputs as:
The second image creation means creates a pair of images having parallax based on the image signal output by the composite imaging unit,
When the distance detected by the distance measuring means is greater than or equal to a predetermined value, a pair of images having parallax is created by the first image creating means, and when the distance detected by the distance measuring means is less than a predetermined value A stereo imaging apparatus, wherein a pair of images having parallax is created by the second image creating means.
JP2010040377A 2009-03-06 2010-02-25 Stereoscopic imaging apparatus Pending JP2010231192A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010040377A JP2010231192A (en) 2009-03-06 2010-02-25 Stereoscopic imaging apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009053419 2009-03-06
JP2010040377A JP2010231192A (en) 2009-03-06 2010-02-25 Stereoscopic imaging apparatus

Publications (1)

Publication Number Publication Date
JP2010231192A true JP2010231192A (en) 2010-10-14

Family

ID=43047011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010040377A Pending JP2010231192A (en) 2009-03-06 2010-02-25 Stereoscopic imaging apparatus

Country Status (1)

Country Link
JP (1) JP2010231192A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013057744A (en) * 2011-09-07 2013-03-28 Nikon Corp Imaging device
JP2017067636A (en) * 2015-09-30 2017-04-06 キヤノン株式会社 Imaging apparatus
WO2019220856A1 (en) * 2018-05-14 2019-11-21 株式会社ニコン Image display device, image display system, image display method, and image processing program
WO2023153117A1 (en) * 2022-02-08 2023-08-17 ソニーセミコンダクタソリューションズ株式会社 Information processing device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013057744A (en) * 2011-09-07 2013-03-28 Nikon Corp Imaging device
JP2017067636A (en) * 2015-09-30 2017-04-06 キヤノン株式会社 Imaging apparatus
WO2019220856A1 (en) * 2018-05-14 2019-11-21 株式会社ニコン Image display device, image display system, image display method, and image processing program
JPWO2019220856A1 (en) * 2018-05-14 2021-05-20 株式会社ニコン Image display device, image display system, image display method and image processing program
US11980417B2 (en) 2018-05-14 2024-05-14 Nikon Corporation Image display device, image display system, image display method, image processing program storage medium
WO2023153117A1 (en) * 2022-02-08 2023-08-17 ソニーセミコンダクタソリューションズ株式会社 Information processing device

Similar Documents

Publication Publication Date Title
JP5425554B2 (en) Stereo imaging device and stereo imaging method
US20020140835A1 (en) Single sensor chip digital stereo camera
US20110234767A1 (en) Stereoscopic imaging apparatus
JP5814692B2 (en) Imaging apparatus, control method therefor, and program
US9648305B2 (en) Stereoscopic imaging apparatus and stereoscopic imaging method
JP2011248693A (en) Image processing system, image processing method, image processing program and imaging apparatus
CN110754081B (en) Apparatus for imaging a local field of view, multi-aperture imaging apparatus and methods of providing these apparatus
JPH095643A (en) Stereoscopic endoscope device
WO2011070774A1 (en) 3-d video processing device and 3-d video processing method
JP2010181826A (en) Three-dimensional image forming apparatus
JP2010231192A (en) Stereoscopic imaging apparatus
JP2009048033A (en) Stereoscopic image taking apparatus
JPH10224820A (en) Compound-eye camera apparatus
JP2012008370A (en) Imaging device and interchangeable lens
JP3676916B2 (en) Stereoscopic imaging device and stereoscopic display device
JP2006267767A (en) Image display device
JP6004741B2 (en) Image processing apparatus, control method therefor, and imaging apparatus
KR101699597B1 (en) Single optical path anamorphic stereoscopic imager
JP2012015620A (en) Solid imaging device
JP2000152282A (en) Stereoscopic picture photographing device
WO2012132088A1 (en) Imaging apparatus and interchangeable lens
WO2013047220A1 (en) Digital camera
WO2012117619A1 (en) 3d imaging device
CN219895684U (en) Endoscopic imaging system
JP2013242378A (en) Imaging device, display method, and program