JP2016001326A - Image display device - Google Patents

Image display device Download PDF

Info

Publication number
JP2016001326A
JP2016001326A JP2015153729A JP2015153729A JP2016001326A JP 2016001326 A JP2016001326 A JP 2016001326A JP 2015153729 A JP2015153729 A JP 2015153729A JP 2015153729 A JP2015153729 A JP 2015153729A JP 2016001326 A JP2016001326 A JP 2016001326A
Authority
JP
Japan
Prior art keywords
image
display
microlens
display device
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015153729A
Other languages
Japanese (ja)
Inventor
岩根 透
Toru Iwane
透 岩根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2015153729A priority Critical patent/JP2016001326A/en
Publication of JP2016001326A publication Critical patent/JP2016001326A/en
Pending legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable displaying a stereoscopic image without using a refractive index distribution lens.SOLUTION: Based on a plurality of image signals output from a plurality of imaging pixels arranged correspondingly to a plurality of different photographic microlens, an image display device comprises input means for inputting image data formed by one pixel data, a generating means 106 for generating an image data for display having three-dimensional information using the image data, displaying means 110 in which a plurality of display pixels are two-dimensionally arranged and luminous fluxes are emitted from a plurality of display pixels depending on the image data for display and a microlens array in which a plurality of microlens for synthesizing luminous fluxes emitted from a plurality of display pixels to form a three-dimensional image are arranged two-dimensionally.

Description

本発明は、画像表示装置に関する。   The present invention relates to an image display device.

従来から、インテグラル式(インテグラルフォトグラフィ)によって立体像を表示する表示装置が知られている(たとえば特許文献1)。   Conventionally, a display device that displays a three-dimensional image by an integral system (integral photography) is known (for example, Patent Document 1).

特開2008−216340号公報JP 2008-216340 A

しかしながら、従来の表示装置では、三次元画像として撮影した画像を投射して表示するので、正立像として表示させるために屈折率分布レンズ等を用いる必要があるという問題がある。   However, the conventional display device projects and displays an image captured as a three-dimensional image, and thus has a problem that it is necessary to use a refractive index distribution lens or the like in order to display the image as an erect image.

請求項1に記載の発明による画像表示装置は、異なる複数の撮影用マイクロレンズに対応して配列された複数の撮像画素から出力された複数の画像信号に基づいて、1つの画素データが生成された画像データを入力する入力手段と、画像データに基づいて三次元情報を有する表示用画像データを生成する生成手段と、複数の表示画素が二次元状に配列され、表示用画像データに応じて複数の表示画素から光束を射出する表示手段と、複数の表示画素から射出された光束が合成されて三次元像を形成する複数のマイクロレンズが二次元状に配列されたマイクロレンズアレイとを備えることを特徴とする。   In the image display device according to the first aspect, one pixel data is generated based on a plurality of image signals output from a plurality of imaging pixels arranged corresponding to a plurality of different photographing microlenses. An input means for inputting the image data, a generation means for generating display image data having three-dimensional information based on the image data, and a plurality of display pixels are arranged in a two-dimensional manner, and according to the display image data Display means for emitting light beams from a plurality of display pixels, and a microlens array in which a plurality of microlenses that combine the light beams emitted from the plurality of display pixels to form a three-dimensional image are two-dimensionally arranged. It is characterized by that.

本発明によれば、立体形状を有する被写体の像を空中に立体像として表示できる。   According to the present invention, an image of a subject having a three-dimensional shape can be displayed as a three-dimensional image in the air.

本発明の実施の形態によるデジタルカメラの構成を説明する図である。It is a figure explaining the structure of the digital camera by embodiment of this invention. マイクロレンズと撮像素子との配置の一例を示す図である。It is a figure which shows an example of arrangement | positioning of a micro lens and an image pick-up element. 実施の形態におけるマイクロレンズと基点画素との位置関係を説明する図である。It is a figure explaining the positional relationship of the microlens and base point pixel in embodiment. 合成画像の生成原理を説明する図である。It is a figure explaining the production | generation principle of a synthesized image. 合成画像を生成するための積算領域と撮像画素との関係を示す図である。It is a figure which shows the relationship between the integration area | region for producing | generating a synthesized image, and an imaging pixel. 基点信号に積算するための画像信号を出力する撮像画素の位置関係の一例を示す図である。It is a figure which shows an example of the positional relationship of the imaging pixel which outputs the image signal for integrating | accumulating on a base signal. 輪帯とマイクロレンズとの関係の一例を示す図である。It is a figure which shows an example of the relationship between a ring zone and a micro lens. 実施の形態における表示装置の構成を説明する図である。FIG. 11 illustrates a structure of a display device in an embodiment. 撮像画素から出力された画像信号が割り当てられた表示画素の一例を示す図である。It is a figure which shows an example of the display pixel to which the image signal output from the imaging pixel was allocated. 光点から発した光束が撮像画素の受光面で切り取られる光断面を説明する図である。It is a figure explaining the optical cross section by which the light beam emitted from the light spot is cut off by the light-receiving surface of an imaging pixel. マイクロレンズと光断面との関係を説明する図である。It is a figure explaining the relationship between a micro lens and an optical cross section. マイクロレンズと光断面との関係を説明する図である。It is a figure explaining the relationship between a micro lens and an optical cross section. 領域分割を基点マイクロレンズに展開した場合の光断面を説明する図である。It is a figure explaining the optical cross section at the time of expand | deploying area division to a base microlens. 基点マイクロレンズの疑似光軸に対して光点が偏心した場合の分割領域を説明する図である。It is a figure explaining the division | segmentation area | region when a light spot is decentered with respect to the pseudo optical axis of a base microlens. 表示された空中像の奥行きを説明する図である。It is a figure explaining the depth of the displayed aerial image. 焦点位置と表示用画素の面との関係を示す図である。It is a figure which shows the relationship between a focus position and the surface of a pixel for a display.

本実施の形態のデジタルカメラは、任意の焦点位置が設定された画像データを生成可能に構成されている。このデジタルカメラによって立体形状を有する被写体を撮影した場合には、生成される画像データは立体形状に関する情報(立体情報)が含まれる。本実施の形態のデジタルカメラは、このような立体情報を含む画像データに対応する画像を、三次元の立体像(空中像)としてユーザにより観察可能に表示させる。以下、詳細に説明する。   The digital camera according to the present embodiment is configured to be able to generate image data in which an arbitrary focal position is set. When a subject having a three-dimensional shape is photographed by this digital camera, the generated image data includes information about the three-dimensional shape (three-dimensional information). The digital camera of the present embodiment displays an image corresponding to image data including such stereoscopic information so that the user can observe it as a three-dimensional stereoscopic image (aerial image). Details will be described below.

図1は、実施の形態によるデジタルカメラの構成を示す図である。デジタルカメラ1は、撮影レンズL1を有する交換レンズ2が着脱可能に構成されている。デジタルカメラ1は、撮像ユニット100,制御回路101,A/D変換回路102,メモリ103,操作部108,メモリカードインタフェース109および表示装置110を備える。撮像ユニット100は、多数のマイクロレンズ120が二次元状に配列されたマイクロレンズアレイ12および撮像素子13を備える。なお、以下の説明においては、z軸を撮影レンズL1の光軸に平行となるように設定し、z軸と直交する平面内でx軸とy軸とが互いに直交する方向に設定されているものとする。   FIG. 1 is a diagram illustrating a configuration of a digital camera according to an embodiment. The digital camera 1 is configured so that an interchangeable lens 2 having a photographing lens L1 can be attached and detached. The digital camera 1 includes an imaging unit 100, a control circuit 101, an A / D conversion circuit 102, a memory 103, an operation unit 108, a memory card interface 109, and a display device 110. The imaging unit 100 includes a microlens array 12 and an imaging element 13 in which a large number of microlenses 120 are arranged two-dimensionally. In the following description, the z axis is set to be parallel to the optical axis of the photographic lens L1, and the x axis and the y axis are set to be orthogonal to each other in a plane orthogonal to the z axis. Shall.

撮影レンズL1は、複数の光学レンズ群から構成され、被写体からの光束をその焦点面近傍に結像する。なお、図1では撮影レンズL1を説明の都合上1枚のレンズで代表して表している。撮影レンズL1の背後には、光軸と垂直な面内で2次元状にマイクロレンズアレイ12と撮像素子13とが順に配置される。撮像素子13は、複数の光電変換素子を備えたCCDやCMOSイメージセンサによって構成される。撮像素子13は、撮像面上に結像されている被写体像を撮像し、制御回路101により制御されて被写体像に応じた光電変換信号(画像信号)をA/D変換回路102へ出力する。なお、撮像ユニット100の詳細については説明を後述する。   The taking lens L1 is composed of a plurality of optical lens groups, and forms an image of a light flux from a subject near the focal plane. In FIG. 1, the taking lens L1 is represented by a single lens for convenience of explanation. Behind the photographic lens L1, a microlens array 12 and an image sensor 13 are sequentially arranged in a two-dimensional manner in a plane perpendicular to the optical axis. The image sensor 13 is configured by a CCD or CMOS image sensor including a plurality of photoelectric conversion elements. The image sensor 13 captures a subject image formed on the imaging surface, and outputs a photoelectric conversion signal (image signal) corresponding to the subject image to the A / D conversion circuit 102 under the control of the control circuit 101. The details of the imaging unit 100 will be described later.

A/D変換回路102は、撮像素子13が出力する画像信号にアナログ的な処理をしてからデジタル画像信号に変換する回路である。制御回路101は、CPUやメモリその他の周辺回路によって構成される。制御回路101は、制御プログラムに基づいて、デジタルカメラ1を構成する各部から入力される信号を用いて所定の演算を行い、デジタルカメラ1の各部に対する制御信号を送出して、撮影動作を制御する。また、制御回路101は、後述するように絞り値入力ボタンの操作に応じて操作部108から入力した操作信号に基づいて、ユーザにより選択された合成画像の絞り値を決定する。   The A / D conversion circuit 102 is a circuit that performs analog processing on the image signal output from the image sensor 13 and then converts it to a digital image signal. The control circuit 101 includes a CPU, a memory, and other peripheral circuits. Based on the control program, the control circuit 101 performs a predetermined calculation using signals input from each unit constituting the digital camera 1 and sends a control signal to each unit of the digital camera 1 to control the photographing operation. . Further, the control circuit 101 determines the aperture value of the composite image selected by the user based on the operation signal input from the operation unit 108 in response to the operation of the aperture value input button, as will be described later.

制御回路101は、画像積算部105、画像パターン生成部106および表示制御部107を機能的に備える。画像積算部105は、絞り値入力ボタンの操作に応じて決定された合成画像の絞り値に対応する合成画素所属テーブルを用いて、画像信号から合成画像データを生成する。画像パターン生成部106は、後述するように画像積算部105で生成された合成画像データから、後述する表示装置110に三次元情報を有する空中像を表示するために表示用画像データを作成する。表示制御部107は、表示装置110の駆動を制御し、画像パターン生成部106で生成された表示用画像データを表示装置110へ出力して、対応する三次元情報を有する空中像を表示装置110に表示させる。なお、画像積算部105および画像パターン生成部106については詳細を後述する。   The control circuit 101 functionally includes an image integration unit 105, an image pattern generation unit 106, and a display control unit 107. The image integration unit 105 generates composite image data from the image signal using a composite pixel affiliation table corresponding to the aperture value of the composite image determined according to the operation of the aperture value input button. As will be described later, the image pattern generation unit 106 generates display image data for displaying an aerial image having three-dimensional information on the display device 110 to be described later from the composite image data generated by the image integration unit 105. The display control unit 107 controls driving of the display device 110, outputs the display image data generated by the image pattern generation unit 106 to the display device 110, and displays an aerial image having corresponding three-dimensional information. To display. Details of the image integration unit 105 and the image pattern generation unit 106 will be described later.

メモリ103は、A/D変換回路102によりデジタル変換された画像信号や、画像処理、画像圧縮処理および表示用画像データ作成処理の途中や処理後のデータを一時的に格納するために使用される揮発性記憶媒体である。メモリカードインタフェース109は、メモリカード109aが着脱可能なインタフェースである。メモリカードインタフェース109は、制御回路101の制御に応じて、画像データをメモリカード109aに書き込んだり、メモリカード109aに記録されている画像データを読み出すインタフェース回路である。メモリカード109aはコンパクトフラッシュ(登録商標)やSDカードなどの半導体メモリカードである。   The memory 103 is used to temporarily store the image signal digitally converted by the A / D conversion circuit 102, and data during or after the image processing, image compression processing, and display image data creation processing. It is a volatile storage medium. The memory card interface 109 is an interface to which the memory card 109a can be attached and detached. The memory card interface 109 is an interface circuit that writes image data to the memory card 109a or reads image data recorded on the memory card 109a in accordance with the control of the control circuit 101. The memory card 109a is a semiconductor memory card such as a compact flash (registered trademark) or an SD card.

操作部108は、ユーザの操作を受け付けて、操作内容に応じた各種の操作信号を制御回路101へ出力する。操作部108は、絞り値入力ボタン,電源ボタン,レリーズボタン,その他の設定メニューの表示切換ボタン、設定メニュー決定ボタン等を含む。絞り値入力ボタンは合成画像の絞り値Fを入力する際にユーザにより操作される。ユーザにより絞り値入力ボタンが操作され絞り値Fが選択されると、操作部108は操作信号を制御回路101へ出力する。   The operation unit 108 receives a user operation and outputs various operation signals corresponding to the operation content to the control circuit 101. The operation unit 108 includes an aperture value input button, a power button, a release button, other setting menu display switching buttons, a setting menu determination button, and the like. The aperture value input button is operated by the user when inputting the aperture value F of the composite image. When the aperture value input button is operated by the user and the aperture value F is selected, the operation unit 108 outputs an operation signal to the control circuit 101.

表示装置110は、制御回路101の命令に基づいて、再生モードにおいてメモリカード109aに記録されている画像データに基づいて制御回路101で作成された表示データの表示を行う。また、表示装置110は、デジタルカメラ1の各種動作を設定するためのメニュー画面が表示される。なお、表示装置110の詳細については、説明を後述する。   The display device 110 displays the display data created by the control circuit 101 based on the image data recorded on the memory card 109a in the playback mode based on the command of the control circuit 101. The display device 110 displays a menu screen for setting various operations of the digital camera 1. Details of the display device 110 will be described later.

次に、撮像ユニット100の構成について詳細に説明する。撮像ユニット100は、上述したようにマイクロレンズアレイ12と撮像素子13とを有する。マイクロレンズアレイ12は、二次元状に配列された複数のマイクロレンズ120により構成される。撮像素子13には、上記の各マイクロレンズ120を通過した光を受光する画素配列130が、マイクロレンズ120に対応した配置パターンで配置されている。各々の画素配列130は、二次元状に配列された複数の光電変換素子131(以下、撮像画素131と呼ぶ)により構成される。   Next, the configuration of the imaging unit 100 will be described in detail. The imaging unit 100 includes the microlens array 12 and the imaging element 13 as described above. The microlens array 12 includes a plurality of microlenses 120 arranged in a two-dimensional manner. In the imaging device 13, a pixel array 130 that receives light that has passed through each of the microlenses 120 is arranged in an arrangement pattern corresponding to the microlens 120. Each pixel array 130 includes a plurality of photoelectric conversion elements 131 (hereinafter referred to as imaging pixels 131) arranged in a two-dimensional manner.

図2(a)にマイクロレンズアレイ12に配列されるマイクロレンズ120のXY平面での平面図を示す。図2(a)に示すように、マイクロレンズアレイ12は、XY平面上で、たとえば六角形に形成された複数のマイクロレンズ120がハニカム配列されている。なお、図2(a)はマイクロレンズアレイ12に設けられた複数のマイクロレンズ120のうちの一部のマイクロレンズ120を示す。図2(b)は、撮影レンズL1の光軸方向(z軸方向)における、マイクロレンズアレイ12と撮像素子13との位置関係を説明する図である。図2(b)に示すように、撮像素子13はマイクロレンズ120の焦点距離fだけ離れた位置に配置される。すなわち、複数の撮像画素131を有する画素配列130は、各画素配列130のそれぞれに対応するマイクロレンズ120の焦点距離fだけ離れた位置に設けられている。なお、図2(b)においては、マイクロレンズアレイ12に設けられた複数のマイクロレンズ120と、撮像素子13に設けられた複数の画素配列130および複数の撮像画素131の一部を示す。   FIG. 2A shows a plan view of the microlenses 120 arranged in the microlens array 12 on the XY plane. As shown in FIG. 2A, the microlens array 12 has a plurality of microlenses 120 formed in a hexagonal shape on the XY plane, for example, in a honeycomb arrangement. FIG. 2A shows some of the microlenses 120 among the plurality of microlenses 120 provided in the microlens array 12. FIG. 2B is a diagram for explaining the positional relationship between the microlens array 12 and the image sensor 13 in the optical axis direction (z-axis direction) of the photographing lens L1. As shown in FIG. 2B, the image sensor 13 is arranged at a position separated by the focal length f of the microlens 120. That is, the pixel array 130 having a plurality of imaging pixels 131 is provided at a position separated by the focal length f of the microlens 120 corresponding to each pixel array 130. 2B shows a plurality of microlenses 120 provided in the microlens array 12, a plurality of pixel arrays 130 provided in the imaging element 13, and a part of the plurality of imaging pixels 131.

上述した構成を有する撮像素子13から出力された画像信号を用いて、画像積算部105は合成画像データを作成する。画像積算部105は、あるマイクロレンズ120に対応して設けられた画素配列130に含まれる撮像画素131のうち、所定の撮像画素131(以後、基点画素132(図3)と呼ぶ)から出力される画像信号(以後、基点信号と呼ぶ)と、基点画素132に対応するマイクロレンズ120および近傍に設けられたマイクロレンズ120に対応する画素配列130に含まれる撮像画素131から出力された画像信号とを合成する。その結果、画像積算部105は、1画素に相当する合成画像信号を生
成する。画像積算部105は、各マイクロレンズ120に対応する基点画素の全てに対して上記の処理を行い、生成されたそれぞれの合成画像信号を加算して合成画像データを生成する。
Using the image signal output from the image sensor 13 having the above-described configuration, the image integration unit 105 creates composite image data. The image integration unit 105 is output from a predetermined imaging pixel 131 (hereinafter referred to as a base pixel 132 (FIG. 3)) among the imaging pixels 131 included in the pixel array 130 provided corresponding to a certain microlens 120. An image signal (hereinafter referred to as a base point signal), an image signal output from the imaging lens 131 included in the pixel array 130 corresponding to the micro lens 120 corresponding to the base pixel 132 and the micro lens 120 provided in the vicinity thereof, and Is synthesized. As a result, the image integration unit 105 generates a composite image signal corresponding to one pixel. The image integrating unit 105 performs the above-described processing on all the base pixels corresponding to each microlens 120 and adds the generated composite image signals to generate composite image data.

画像積算部105は、上述したように合成画像信号を生成する際に、合成画素所属テーブルを参照する。合成画素所属テーブルは、基点信号に合成するための画像信号を出力する撮像画素131が、どのマイクロレンズ120に対応する画素配列130のどの位置に配置されているかを示している。以下、画像積算部105が、撮像画素131から出力された画像信号を用いて合成画像信号を生成する処理について説明する。   The image integrating unit 105 refers to the composite pixel affiliation table when generating the composite image signal as described above. The combined pixel affiliation table indicates in which position of the pixel array 130 corresponding to which microlens 120 the imaging pixel 131 that outputs an image signal to be combined with the base point signal. Hereinafter, a process in which the image integration unit 105 generates a composite image signal using the image signal output from the imaging pixel 131 will be described.

図3に各マイクロレンズ120、すなわち各画素配列130に対応して設けられる基点画素132を示す。図3では、複数のマイクロレンズ120のうちの一部のマイクロレンズ120を示し、複数の撮像画素131のうちの基点画素132を代表して示す。図3では、基点画素132はマイクロレンズ120の擬似光軸に対応して配置される。なお、本実施の形態では、擬似光軸を、撮影レンズL1の瞳から入射する光束の中心と、マイクロレンズ120の主面との交点として説明する。図3においては、マイクロレンズ120の幾何学的中心と擬似光軸とが一致している場合を示している。また、以下の説明では、基点画素132に対応するマイクロレンズ120を基点マイクロレンズ121と呼ぶこととする。   FIG. 3 shows a base pixel 132 provided corresponding to each microlens 120, that is, each pixel array 130. In FIG. 3, some of the microlenses 120 are shown, and the base pixel 132 of the plurality of imaging pixels 131 is representatively shown. In FIG. 3, the base pixel 132 is arranged corresponding to the pseudo optical axis of the microlens 120. In the present embodiment, the pseudo optical axis will be described as the intersection of the center of the light beam incident from the pupil of the photographing lens L1 and the main surface of the microlens 120. FIG. 3 shows a case where the geometric center of the microlens 120 and the pseudo optical axis coincide with each other. In the following description, the microlens 120 corresponding to the base pixel 132 is referred to as a base microlens 121.

−合成画像信号の生成−
まず、図4(a)に示す被写体の像がマイクロレンズ120の頂点に結像する場合、すなわち焦点面Sがマイクロレンズ120の頂点に存在する場合の合成画像の生成原理について説明する。この場合の被写体からの光束r1〜r7は、マイクロレンズ120に対応して設けられた画素配列130の撮像画素131に入射する。画像積算部105は、図4(a)に示す撮像画素131のうち斜線を施した撮像画素131から出力された画像信号を積算することにより、合成画像データの1画素に相当する合成画像信号を生成する。画像積算部106は、この処理を全てのマイクロレンズ120に対応する画素配列130について行うことにより、合成画像データを生成する。
-Generation of composite image signal-
First, the principle of generating a composite image when the subject image shown in FIG. 4A is formed at the apex of the microlens 120, that is, when the focal plane S exists at the apex of the microlens 120 will be described. In this case, the light beams r <b> 1 to r <b> 7 from the subject are incident on the imaging pixels 131 of the pixel array 130 provided corresponding to the microlens 120. The image accumulating unit 105 accumulates image signals output from the imaged pixels 131 that are shaded among the imaged pixels 131 shown in FIG. 4A, thereby obtaining a composite image signal corresponding to one pixel of the composite image data. Generate. The image accumulating unit 106 generates composite image data by performing this process on the pixel array 130 corresponding to all the microlenses 120.

次に、ある焦点面(結像面)に結像した被写体の像について合成画像信号を生成する場合の原理を説明する。図4(b)に示すように、焦点面Sがマイクロレンズ120の頂点から離れた位置に存在する場合、被写体からの光束r1〜r5はそれぞれ異なる複数のマイクロレンズ120に入射する。このため、画像積算部105は、合成画像信号を生成するために、基点マイクロレンズ121の近傍に配置されたマイクロレンズ120に対応して配置された撮像画素131からの画像信号をも用いる必要がある。なお、図4(b)では、各光束r1〜r5の主光線を代表して示している。   Next, the principle when a composite image signal is generated for an image of a subject imaged on a certain focal plane (imaging plane) will be described. As shown in FIG. 4B, when the focal plane S exists at a position away from the apex of the microlens 120, the light beams r1 to r5 from the subject are incident on a plurality of different microlenses 120, respectively. For this reason, in order to generate a composite image signal, the image integration unit 105 needs to also use an image signal from the imaging pixel 131 disposed corresponding to the microlens 120 disposed in the vicinity of the base microlens 121. is there. In FIG. 4B, the chief rays of the light beams r1 to r5 are shown as representatives.

画像積算部105は、合成画像の絞り値Fに応じて決定される積算領域に含まれる撮像画素131から出力される画像信号を全て積算することにより合成画像データにおける1画素(合成画像の結像領域)に相当する合成画像信号を生成する。なお、積算領域は直径をDとする円で表される。積算領域の直径Dは、絞り値入力ボタン108aの操作に応じて決定された絞り値(合成画像データの絞り値)Fと、マイクロレンズ120の焦点距離fとを用いて以下の式(1)により表される。
D=f/F ・・・(1)
The image integration unit 105 integrates all the image signals output from the imaging pixels 131 included in the integration region determined according to the aperture value F of the composite image, so that one pixel (image formation of the composite image) in the composite image data is performed. A composite image signal corresponding to (region) is generated. The integrated area is represented by a circle having a diameter D. The diameter D of the integrated region is expressed by the following equation (1) using the aperture value (aperture value of the composite image data) F determined according to the operation of the aperture value input button 108a and the focal length f of the microlens 120. It is represented by
D = f / F (1)

図5は、積算領域Rsと撮像画素131との関係を示す。上述したように、画像積算部106は、円形領域として表された積算領域Rsに被覆される全ての撮像画素131から出力された画像信号を積算する。図5においては、積算される画像信号を出力する撮像画素131に斜線を付して示している。マイクロレンズ120は、マイクロレンズアレイ1
2を構成するレンズの1つなので、マイクロレンズ120の配列により許容される各マイクロレンズ120の直径よりも積算領域Rsを大きくすることはできない。したがって、合成画像データで許容される最大の絞り値Fmaxは、以下の式(2)で表される。なお、式(2)において「s」は撮像画素131の一辺の大きさを示す。また、合成画像データにおける最小の絞り値Fminはマイクロレンズ120のF値となる。
Fmax=f/s ・・・(2)
FIG. 5 shows the relationship between the integration region Rs and the imaging pixel 131. As described above, the image integration unit 106 integrates the image signals output from all the imaging pixels 131 covered by the integration region Rs represented as a circular region. In FIG. 5, the imaging pixel 131 that outputs the integrated image signal is indicated by hatching. The microlens 120 is the microlens array 1
2, the integrated region Rs cannot be made larger than the diameter of each microlens 120 allowed by the arrangement of the microlenses 120. Therefore, the maximum aperture value Fmax allowed in the composite image data is expressed by the following equation (2). In Equation (2), “s” indicates the size of one side of the imaging pixel 131. Further, the minimum aperture value Fmin in the composite image data is the F value of the microlens 120.
Fmax = f / s (2)

画像積算部105によって、基点画素132を含む画素配列130から出力された画像信号が積算された合成画像信号、すなわち積算値は以下の式(3)で表される。なお、式(3)においては、Pは撮像画素131から出力される画像信号の出力値を示す。また、式(3)の「i」は合成画像の絞り値Fのときに積算領域Rsに被覆される撮像画素131を示し、「0」は基点画素132が含まれる画素配列130に対応して配置されるマイクロレンズ120であること、すなわち基点マイクロレンズ121であることを表している。
・・・(3)
The composite image signal obtained by integrating the image signals output from the pixel array 130 including the base pixel 132 by the image integration unit 105, that is, the integrated value is represented by the following expression (3). In Expression (3), P indicates the output value of the image signal output from the imaging pixel 131. In addition, “i” in Expression (3) indicates the imaging pixel 131 covered by the integration region Rs when the aperture value F of the composite image is “0”, and “0” corresponds to the pixel array 130 including the base pixel 132. This indicates that the microlens 120 is arranged, that is, the base microlens 121.
... (3)

上述したように、画像積算部105は、基点マイクロレンズ121の近傍に設けられたマイクロレンズ120に対応する画素配列130に含まれる撮像画素131から出力される画像信号も用いて積算を行う。すなわち、画像積算部105は、合成画像の絞り値Fよって決まる積算領域Rsに被覆される撮像画素131の集合F{i}に含まれる全ての撮像画素131であって、基点マイクロレンズ121を含む近傍のマイクロレンズ120に対応して配置された撮像画素131からの画素信号の出力値を積算する。この場合、出力値Pは以下の式(4)で表される。なお、式(4)の「t」は、基点マイクロレンズ121を含む近傍のマイクロレンズ120を表す。
・・・(4)
As described above, the image integration unit 105 performs integration using the image signal output from the imaging pixel 131 included in the pixel array 130 corresponding to the microlens 120 provided in the vicinity of the base microlens 121. That is, the image integration unit 105 includes all the imaging pixels 131 included in the set F {i} of imaging pixels 131 covered by the integration region Rs determined by the aperture value F of the composite image, and includes the base microlens 121. The output values of the pixel signals from the imaging pixels 131 arranged corresponding to the neighboring microlens 120 are integrated. In this case, the output value P is expressed by the following equation (4). Note that “t” in Expression (4) represents the neighboring microlens 120 including the base microlens 121.
... (4)

図6は、画像積算部105によって1つの合成画像信号を生成する際に用いられた画像信号を出力した撮像画素131と、基点マイクロレンズ121および近傍に隣接するマイクロレンズ120a〜120fとの関係を示す。なお、図6では、合成画像信号の生成に用いられる画像信号を出力していない撮像画素131については表示を省略している。図6に示す基点マイクロレンズ121と隣接するマイクロレンズ120a〜120fに分散する各撮像画素131を集めると、図5に示す合成画像の絞り値Fにより規定される領域、すなわち積算領域Rsで被覆される複数の撮像画素131を構成することになる。   FIG. 6 shows the relationship between the imaging pixel 131 that has output an image signal used when generating one composite image signal by the image integration unit 105, the base microlens 121, and the adjacent microlenses 120a to 120f. Show. In FIG. 6, the display of the imaging pixel 131 that does not output the image signal used for generating the composite image signal is omitted. When the imaging pixels 131 dispersed in the microlenses 120a to 120f adjacent to the base microlens 121 shown in FIG. 6 are collected, they are covered with an area defined by the aperture value F of the composite image shown in FIG. A plurality of imaging pixels 131 are configured.

画像積算部105が上述した処理を行って画像信号を積算する際には、基点信号に加える画像信号を出力する撮像画素131が何れのマイクロレンズ120に対応する画素配列130のどの位置に配置されているかが重要となる。そのため、式(3)、(4)において「i」で示される撮像画素131がどのマイクロレンズ120a〜120fに対応して設けられているか、すなわち撮像画素131の分散を示すテーブルが合成画素所属テーブルとして所定の格納領域に格納されている。そして、画像積算部105は合成画像信号を生成する際にこの合成画素所属テーブルを参照する。なお、合成画素所属テーブルは以下の式(5)で表されるものとする。
t=T(i) ・・・(5)
When the image integration unit 105 performs the above-described processing and integrates the image signal, the imaging pixel 131 that outputs the image signal to be added to the base signal is arranged at which position of the pixel array 130 corresponding to any microlens 120. It is important that Therefore, a table indicating the microlens 120a to 120f corresponding to which imaging lens 131 indicated by “i” in Equations (3) and (4) is provided, that is, a table indicating the dispersion of the imaging pixels 131 is a combined pixel affiliation table. Are stored in a predetermined storage area. Then, the image integration unit 105 refers to the composite pixel affiliation table when generating the composite image signal. Note that the combined pixel affiliation table is represented by the following equation (5).
t = T d (i) (5)

以下、合成画素所属テーブルの作成原理について説明する。
図10は、マイクロレンズアレイ12において、光点LPから発し、撮像画素131の
受光面で切り取られる光束LFの光断面LFDを示す。図10に示すように、光点LPから広がる光束LFは、その前段の撮像レンズL1によって、広がり角の制限を受ける。そのため、各マイクロレンズ120にそれぞれ入射した光束LFは、マイクロレンズ120の被覆領域の外にはみ出すことはない(図10では、光断面LFDc、LFDeは一部被覆領域外にとび出しているように作図されている)。これは、撮像画素131の受光面が撮像レンズL1の瞳と光学的に共役であることによっても説明できる。撮像レンズL1を介して撮影をおこなう場合、マイクロレンズ120が被覆する領域の中に撮影瞳像、つまり光の境界ができ、その外側には光束LFは入射しない。
Hereinafter, the principle of creating the composite pixel affiliation table will be described.
FIG. 10 shows an optical cross section LFD of a light beam LF emitted from the light spot LP and cut off by the light receiving surface of the imaging pixel 131 in the microlens array 12. As shown in FIG. 10, the light beam LF that spreads from the light spot LP is limited by the spread angle by the preceding imaging lens L1. Therefore, the light beam LF incident on each microlens 120 does not protrude outside the covered area of the microlens 120 (in FIG. 10, the optical cross sections LFDc and LFDe partially protrude outside the covered area). Drawing). This can also be explained by the fact that the light receiving surface of the imaging pixel 131 is optically conjugate with the pupil of the imaging lens L1. When photographing is performed through the imaging lens L1, a photographing pupil image, that is, a light boundary is formed in an area covered by the microlens 120, and the light beam LF is not incident on the outside thereof.

上記の点を前提として説明する。図10のマイクロレンズアレイ12で、光束LFの光断面LFDa〜LFDe(総称する場合にはLFD)に対応する撮像画素131a〜131eへの入射光量を積算すれば、光点LPからの光束LFのうち、撮影レンズL1の瞳に制限された光束LFの全輻射量が得られる。したがって、画像積算部105は、画像信号を積算する際に、光点LPのz軸方向の座標に対する、撮像画素131の受光素子面の光断面LFDを演算すればよいことになる。逆に、表示素子を設け光束LFの各光断面LFDに対応するそれぞれの表示素子から光を出射すれば、入射と同じ方向に進む光束LFは必ず存在するから、「光点LP」は光束LFの集積点となる。   The description will be made on the assumption of the above points. In the microlens array 12 of FIG. 10, if the incident light amounts to the imaging pixels 131a to 131e corresponding to the light cross sections LFDa to LFDe of the light beam LF (collectively LFD) are integrated, the light beam LF from the light spot LP is integrated. Among them, the total radiation amount of the light beam LF limited to the pupil of the photographing lens L1 is obtained. Therefore, the image integration unit 105 only has to calculate the optical section LFD of the light receiving element surface of the imaging pixel 131 with respect to the z-axis direction coordinate of the light spot LP when integrating the image signal. On the contrary, if a display element is provided and light is emitted from each display element corresponding to each light section LFD of the light beam LF, the light beam LF always travels in the same direction as the incident, and thus the “light spot LP” is the light beam LF. It becomes the accumulation point of.

上記のように、光点LPから広がる光束LFの角度は撮影レンズL1の瞳、すなわち、撮像レンズL1のF値で決まる。なお、表示系などのように、撮像レンズL1が存在しない場合には、マイクロレンズ120のF値で開口の最大(Fの最小)が規定される。したがって、マイクロレンズ120の被覆領域の中心部だけ使えば、開口を制限できる。   As described above, the angle of the light beam LF spreading from the light spot LP is determined by the pupil of the photographing lens L1, that is, the F value of the imaging lens L1. When the imaging lens L1 is not present as in a display system, the maximum aperture (minimum F) is defined by the F value of the microlens 120. Therefore, if only the central part of the covering region of the microlens 120 is used, the opening can be limited.

図11を用いて、いくつ、あるいは、どのマイクロレンズ120といずれの光断面LFDとが対応するかについて、光点LPからの光束LFの広がりをマイクロレンズ120上に投影することにより説明する。なお、図11においては、説明の都合上、マイクロレンズ120が正方配列の場合を示す。また、図11では、光点LPから広がる光束LFは、光点LPのz軸方向の位置がマイクロレンズ120の焦点距離fの場合と、その二倍の2fの場合とについて示している。図11においては、光点LPの位置がfの場合の光束LFの広がりを破線で示し、2fの場合を一点鎖線で示す。光点LPがマイクロレンズ120の焦点距離fの位置にあると、光束LPの広がりはマイクロレンズ120で規定されている(光断面LFDを円とするが、マイクロレンズ120が正方形の端まで光学的に有効
ならば正方形になる)ので、ひとつのマイクロレンズ120内に光束LFが入射する。以
上により、ひとつの光点LPに対応するマイクロレンズ120が決まる。
With reference to FIG. 11, how many or which microlens 120 corresponds to which optical section LFD will be described by projecting the spread of the light beam LF from the light spot LP onto the microlens 120. Note that FIG. 11 shows a case where the microlenses 120 are in a square array for convenience of explanation. In FIG. 11, the light beam LF spreading from the light spot LP shows the case where the position of the light spot LP in the z-axis direction is the focal length f of the microlens 120 and the double of 2f. In FIG. 11, the spread of the light beam LF when the position of the light spot LP is f is indicated by a broken line, and the case of 2f is indicated by a one-dot chain line. When the light spot LP is located at the focal length f of the microlens 120, the spread of the light beam LP is defined by the microlens 120 (the optical cross section LFD is a circle, but the microlens 120 is optically extended to the end of the square. Therefore, the light beam LF is incident on one microlens 120. As described above, the microlens 120 corresponding to one light spot LP is determined.

光点LPの位置がマイクロレンズ120の焦点距離fのときは、光束LFはそのマイクロレンズ120の直下の領域全体に円形開口の光として広がる。このため、正方領域に内接する円の内部に含まれるすべての撮像画素131からの画像信号を選択すればよい。光点LPの位置の絶対値が焦点距離fより小さい場合には、光束LFはマイクロレンズ120の直下の領域内で収束せずに広がる。しかし、入射光束LFの広がり角の制限を受けているために、光断面LFDは被覆領域にとどまる。   When the position of the light spot LP is the focal length f of the microlens 120, the light beam LF spreads as light of a circular opening over the entire region immediately below the microlens 120. For this reason, it is only necessary to select image signals from all the imaging pixels 131 included in a circle inscribed in the square area. When the absolute value of the position of the light spot LP is smaller than the focal length f, the light beam LF spreads without converging in the region immediately below the microlens 120. However, since the spread angle of the incident light beam LF is limited, the light section LFD remains in the covered region.

ここで光点LPの位置が2fにある場合について説明する。図12に、この場合に関係するマイクロレンズ120を示す。図12(a)に示すように、関係するマイクロレンズ120は自身、すなわち基点マイクロレンズ121とそれに隣接する8個のマイクロレンズ120である。マイクロレンズ120による開口の制限を考えるとしたとき、図12(a)において斜線で示す被覆領域のなかに光断面LFDは存在することになる。この場合、各マイクロレンズ120による光断面LFDは、図12(b)の斜線で示す領域となる。   Here, a case where the position of the light spot LP is 2f will be described. FIG. 12 shows a microlens 120 related to this case. As shown in FIG. 12A, the related microlens 120 is itself, that is, the base microlens 121 and the eight microlenses 120 adjacent thereto. When considering the restriction of the aperture by the microlens 120, the optical cross section LFD exists in the covered region indicated by the oblique lines in FIG. In this case, the optical cross section LFD by each microlens 120 is a region indicated by the oblique lines in FIG.

図12(b)に示すように、ひとつの基点マイクロレンズ121の被覆領域が分割され、隣接するマイクロレンズ120に配分されている。分割され配分された被覆領域(部分領域)を積算した場合の全領域は、ひとつのマイクロレンズ120の開口領域になる。そのため、どのような位置の光点LPでも光断面LFDの全領域の大きさは同じになるので、部分領域を積算して全領域を算出する場合には、それぞれの部分領域が所属するマイクロレンズ120が決まればよいことになる。   As shown in FIG. 12B, the covering region of one base microlens 121 is divided and distributed to adjacent microlenses 120. The total area when the divided and distributed covering areas (partial areas) are integrated becomes an opening area of one microlens 120. Therefore, the size of the entire area of the light section LFD is the same at any position of the light spot LP. Therefore, when calculating the total area by adding the partial areas, the microlens to which each partial area belongs. 120 should be decided.

図11において、光点LPの位置と、倍率つまり基点マイクロレンズ121に隣接するマイクロレンズ120との個数と関係について示したが、これを仮想的な開口領域に適用する。本実施の形態では、倍率で縮小したマイクロレンズ120の配列で開口領域を分割し、これで定義されたマイクロレンズ120の中の同じ位置に開口領域の断片を配するという方法をとる。開口領域に外接する正方形を倍率2で縮小し、マイクロレンズ120の配列で開口領域を分割(領域分割)した場合を例に説明する。   FIG. 11 shows the relationship between the position of the light spot LP and the magnification, that is, the number of microlenses 120 adjacent to the base microlens 121, and this is applied to a virtual aperture region. In the present embodiment, a method is used in which an aperture region is divided by an array of microlenses 120 reduced in magnification, and fragments of the aperture region are arranged at the same position in the microlens 120 defined by this. A case will be described as an example where a square circumscribing the opening area is reduced by a magnification of 2 and the opening area is divided (area division) by the arrangement of the microlenses 120.

図13は、上記の領域分割を基点マイクロレンズ121に展開した場合の光断面LFDを示している。同様の領域分割を倍率に応じて行うと、倍率、すなわち光点LPに対する光断面LFDのパターンが得られる。具体的には、マイクロレンズ120の径(マイクロレンズの一辺の大きさ)をgとするとき、g/m幅の格子で開口領域が分割される。倍率
は、光点LPの高さ(位置)yとマイクロレンズの焦点距離fとの比m=y/fで表すこ
とができる。比mには負の符号も存在する。比mの符合が負の場合には、マイクロレンズ120より撮像素子13側に光点LPがあるものとする。
FIG. 13 shows an optical cross section LFD when the above-described area division is developed on the base microlens 121. When the same area division is performed according to the magnification, a pattern of the optical section LFD with respect to the magnification, that is, the light spot LP is obtained. Specifically, when the diameter of the microlens 120 (the size of one side of the microlens) is g, the opening area is divided by a grid having a g / m width. The magnification can be expressed as a ratio m = y / f between the height (position) y of the light spot LP and the focal length f of the microlens. There is also a negative sign in the ratio m. When the sign of the ratio m is negative, it is assumed that there is a light spot LP on the image sensor 13 side from the microlens 120.

上記の例では、光点LPはあるマイクロレンズ120のレンズ中心軸である疑似光軸上に存在するものとして説明したが、実際には偏心していても計算上問題はない。レンズ中心上しか演算できないとすると、合成画像の二次元的な分解能はマイクロレンズ120の個数と等しくなるが、通常これではまったく不十分である。その理由は、マイクロレンズ120に被覆される撮像画素131の数を100とすると、合成画像の分解能は画素数の1/100になるためである。このため、100万画素の合成画像を得るためには、1億個の撮像画素131が必要となる。そこで、偏心位置での合成を行い、マイクロレンズ120内に複数の光点LPが対応可能となるようにする。   In the above example, it has been described that the light spot LP exists on the pseudo optical axis that is the lens central axis of a certain microlens 120. However, there is no problem in calculation even if it is actually decentered. If it is possible to calculate only on the center of the lens, the two-dimensional resolution of the composite image is equal to the number of microlenses 120, but this is usually not sufficient. The reason is that if the number of imaging pixels 131 covered by the microlens 120 is 100, the resolution of the composite image is 1/100 of the number of pixels. For this reason, in order to obtain a composite image of 1 million pixels, 100 million imaging pixels 131 are required. Therefore, synthesis at an eccentric position is performed so that a plurality of light spots LP can be accommodated in the microlens 120.

マイクロレンズ120による被覆領域とマイクロレンズ120の個数との積は、ほぼ撮像画素131の全画素数に等しくなるから、ひとつのマイクロレンズ120内で偏心した複数の点のそれぞれを基点にして合成することは、撮像画素131からの画像信号を重畳して使用することに等しい。すなわち、各偏心した光点LPからの光束LFが重畳して撮像画素131上に存在している。ただし、倍率が1倍のときには、この演算は、単なる内挿作業になって、分解能向上には実質的に寄与しない。これは、マイクロレンズ120頂点近辺に結像すれば、光学的に奥行き方向の情報が失われることを示している。   Since the product of the area covered by the microlens 120 and the number of the microlenses 120 is substantially equal to the total number of pixels of the imaging pixel 131, synthesis is performed based on each of a plurality of eccentric points within one microlens 120. This is equivalent to using the image signal from the imaging pixel 131 superimposed. That is, the light beam LF from each decentered light spot LP is superimposed on the imaging pixel 131. However, when the magnification is 1, this calculation is merely an interpolation operation and does not substantially contribute to the resolution improvement. This indicates that if the image is formed near the apex of the microlens 120, information in the depth direction is optically lost.

図14は、基点マイクロレンズ121の疑似光軸に対して左に偏心した光点LPについての分割領域を表したものある。基点マイクロレンズ121(レンズ径をgとする)の中心、すなわち疑似光軸から図14の左方向へpだけ偏心して、光点LPの高さ(位置)が2fの場合について説明する。なお、図14においては、点O1は偏心した光点LP、点O2は疑似光軸を示す。この場合、図13に示すマイクロレンズ120を図中の右方向へpだけずらし、開口領域を分割すれば、図14に示す場合の分割領域が得られる。   FIG. 14 illustrates a divided region for the light spot LP decentered to the left with respect to the pseudo optical axis of the base microlens 121. Described below is the case where the height (position) of the light spot LP is 2f by decentering from the center of the base microlens 121 (with the lens diameter g), that is, the pseudo optical axis by p in the left direction in FIG. In FIG. 14, a point O1 indicates an eccentric light point LP, and a point O2 indicates a pseudo optical axis. In this case, by dividing the microlens 120 shown in FIG. 13 by p in the right direction in the drawing and dividing the opening region, the divided region shown in FIG. 14 can be obtained.

マイクロレンズ120を16個に分割するとすれば、レンズ中心(疑似光軸)の座標を(0,0)として、x軸y軸に対して、それぞれ−g/2、−g/4、0、g/4、g/2の位置のパターンとそれによる分割領域および、全領域の積算をおこなえば、ひとつのマイクロレンズ120に対して16点の光点群を得ることができる。   If the microlens 120 is divided into 16, the coordinates of the lens center (pseudo optical axis) are (0, 0), and −g / 2, −g / 4, 0, If the pattern of the position of g / 4, g / 2, the divided area by the pattern, and the total of the whole area are integrated, 16 light spot groups can be obtained for one microlens 120.

−合成画素所属テーブルの作成処理−
画像積算部105は、画像信号を積算する際には、合成画素所属テーブルを参照する。上述したように、この合成画素所属テーブルは、基点信号に合成するための画像信号を出力する撮像画素131が、基点マイクロレンズ121および近傍に設けられたマイクロレンズ120に対応する画素配列130のどの位置に配置されているかを特定する。
-Creation processing of composite pixel affiliation table-
The image integration unit 105 refers to the composite pixel affiliation table when integrating image signals. As described above, in this synthesized pixel affiliation table, the imaging pixel 131 that outputs an image signal to be synthesized with the base point signal is the pixel array 130 corresponding to the base microlens 121 and the microlens 120 provided in the vicinity. Determine if it is placed in position.

画像積算部105は、合成画像の焦点位置yと合成画像の絞り値F(被写界深度)とが決定されると、基点信号に合成するための画像信号を出力する撮像画素131についての合成画素所属テーブルを作成する。上述したように、何れのマイクロレンズ120に対応する何れの撮像画素131からの画像信号が基点信号に積算されるかは、合成画像の焦点位置により決定される。   When the focus position y of the composite image and the aperture value F (depth of field) of the composite image are determined, the image integration unit 105 combines the image pickup pixels 131 that output an image signal to be combined with the base point signal. Create a pixel affiliation table. As described above, which image signal from which imaging pixel 131 corresponding to which microlens 120 is added to the base point signal is determined by the focal position of the composite image.

図6(a)は、合成画像の焦点位置(焦点面)yがマイクロレンズアレイ12に対して被写体側に存在する場合を示している。また、図6(b)は、合成画像の焦点位置(焦点面)yがマイクロレンズアレイ12に対して撮像素子13側に存在する場合を示している。図6(a)および図6(b)に示すように、マイクロレンズ120aに対応する撮像画素131に関して、焦点面の位置に応じて基点信号に積算される画像信号を出力する撮像画素131の配置が異なっている。他のマイクロレンズ120b〜120fおよび基点マイクロレンズ121についても同様に異なっている。   FIG. 6A shows a case where the focus position (focal plane) y of the composite image exists on the subject side with respect to the microlens array 12. FIG. 6B shows a case where the focus position (focal plane) y of the composite image exists on the image sensor 13 side with respect to the microlens array 12. As shown in FIGS. 6A and 6B, regarding the imaging pixel 131 corresponding to the microlens 120a, the arrangement of the imaging pixel 131 that outputs an image signal integrated with the base point signal according to the position of the focal plane. Is different. The other microlenses 120b to 120f and the base microlens 121 are similarly different.

以下、画像積算部105による合成画素所属テーブルの作成処理について詳細に説明する。合成画像の焦点面がマイクロレンズアレイ12から距離yの位置に存在する、すなわち焦点距離がyであるとする。さらに、基点マイクロレンズ121からn番目のマイクロレンズ120の擬似光軸を通過する光束は、以下の式(6)で示すように、基点マイクロレンズ121の擬似光軸から距離xの位置に入射する。なお、「d」は各マイクロレンズ120の配列ピッチを示す。
x=fnd/y ・・・(6)
Hereinafter, the synthetic pixel affiliation table creation process by the image integration unit 105 will be described in detail. It is assumed that the focal plane of the composite image exists at a distance y from the microlens array 12, that is, the focal distance is y. Further, the light beam passing through the pseudo optical axis of the nth micro lens 120 from the base micro lens 121 is incident on the position of the distance x from the pseudo optical axis of the base micro lens 121 as shown in the following formula (6). . “D” indicates the arrangement pitch of the microlenses 120.
x = fnd / y (6)

撮像画素131が対応するマイクロレンズ120により結像される光束を受光することを考慮すると、合成画像の焦点位置yにおける被写体からの光のうち撮像素子13の撮像面において各マイクロレンズ120により照射される光の幅lは、以下の式(7)により表される。
l=fd/y ・・・(7)
Considering that the imaging pixel 131 receives the light beam formed by the corresponding microlens 120, the light from the subject at the focal position y of the composite image is irradiated by each microlens 120 on the imaging surface of the imaging device 13. The light width l is expressed by the following equation (7).
l = fd / y (7)

上記の光の幅lは、撮像素子13の二次元平面上においては、幅lの輪状の領域(以後、輪帯と呼ぶ)で表わされる。したがって、基点マイクロレンズ121からn番目の位置に配置されたマイクロレンズ120において、合成画像の絞り値Fにより規定された光束はこの輪帯lで示される領域内に入射する。式(7)に示すように、合成画像の焦点位置yが大きくなるほど輪帯lの幅は小さくなる。   The light width l is represented by a ring-shaped region having a width l (hereinafter referred to as a ring zone) on the two-dimensional plane of the image sensor 13. Therefore, in the microlens 120 arranged at the nth position from the base microlens 121, the light beam defined by the aperture value F of the composite image enters the region indicated by the annular zone l. As shown in Expression (7), the width of the annular zone l decreases as the focal position y of the composite image increases.

本実施の形態においては、それぞれのマイクロレンズ120のxy平面における形状は図3に示すように六角形であり、マイクロレンズアレイ12上にハニカム配列されている。図7に、ある合成画像の絞り値Fに対応する積算領域Rsのうち、n=1の場合の輪帯l1およびn=2の場合の輪帯l2を示す。図7に示すように、n=1の場合の輪帯l1は基点マイクロレンズ121およびマイクロレンズ120a〜120fにより区分されそれぞれ部分領域Rpa〜Rpgを形成する。すなわち、各部分領域Rpa〜Rpgはそれぞれ異なるマイクロレンズ120により被覆されている。したがって、画像積算部105は、輪帯l1の各部分領域Rpa〜Rpgに含まれる撮像画素131からの画像信号の出力値Pi,sを算出する。そして、画像積算部105は、同様にして、積算領域Rs、すな
わちすべての輪帯lについて積算すればよいことになる。
In the present embodiment, the shape of each microlens 120 in the xy plane is a hexagon as shown in FIG. 3 and is arranged on the microlens array 12 in a honeycomb configuration. FIG. 7 shows the annular zone l1 when n = 1 and the annular zone l2 when n = 2 in the integrated region Rs corresponding to the aperture value F of a composite image. As shown in FIG. 7, the annular zone 11 when n = 1 is divided by the base microlens 121 and the microlenses 120 a to 120 f to form partial regions Rpa to Rpg, respectively. That is, each of the partial regions Rpa to Rpg is covered with a different microlens 120. Therefore, the image integration unit 105 calculates the output value Pi, s of the image signal from the imaging pixel 131 included in each of the partial regions Rpa to Rpg of the annular zone 11. Similarly, the image integration unit 105 may perform integration over the integration region Rs, that is, all the annular zones l.

基点マイクロレンズ121および各マイクロレンズ120a〜120fに関して、隣接するマイクロレンズ120との関係は基本的に同様である。したがって、画像積算部105は、輪帯l1を構成している部分領域Rpa〜Rpgのそれぞれに含まれる各撮像画素131について、ある撮像画素131がいずれの部分領域Rpに属するかを決定する。   Regarding the base microlens 121 and the microlenses 120a to 120f, the relationship with the adjacent microlens 120 is basically the same. Therefore, the image integration unit 105 determines which partial region Rp an imaging pixel 131 belongs to for each imaging pixel 131 included in each of the partial regions Rpa to Rpg constituting the annular zone 11.

基点画素132に対して、積算される画像信号を出力する撮像画素131が含まれる積算領域Rsの径を(D=f/F)とする。また、各マイクロレンズ120のx軸方向(水平方向)の配列ピッチd、換言すると六角形形状の各マイクロレンズ120のそれぞれに内接する円の径を、積算領域Rsの径の最大値Dmaxに等しいものとする。さらに、合成画像の焦点位置(焦点距離)をマイクロレンズ120の仮想屈曲面を基準としてyとする。この場合に、マイクロレンズアレイ12における各マイクロレンズ120の配列ピッチdを投射倍率であるf/y倍して積算領域Rs上に投影した領域は、各マイクロレンズ120によって輪帯lが分割された部分領域Rpのそれぞれに相当することになる。したがって、画像積算部105は、部分領域Rpに含まれる撮像画素131の位置と、部分領域Rpに対応するマイクロレンズ120とを対応付けして、基点画素132の合成画素所属テーブルとして上記の式(5)を作成する。なお、部分領域Rpに対応するマイクロレンズ120の位置は、基点マイクロレンズ121の位置を基準とした相対位置として特定される。   The diameter of the integration region Rs including the imaging pixel 131 that outputs the image signal to be integrated with respect to the base pixel 132 is (D = f / F). Also, the arrangement pitch d of the microlenses 120 in the x-axis direction (horizontal direction), in other words, the diameter of a circle inscribed in each of the hexagonal microlenses 120 is equal to the maximum value Dmax of the diameter of the integration region Rs. Shall. Furthermore, the focal position (focal length) of the composite image is set to y with the virtual bent surface of the microlens 120 as a reference. In this case, an annular zone l is divided by each microlens 120 in a region projected on the integration region Rs by multiplying the arrangement pitch d of each microlens 120 in the microlens array 12 by f / y which is a projection magnification. This corresponds to each of the partial regions Rp. Therefore, the image integration unit 105 associates the position of the imaging pixel 131 included in the partial region Rp with the microlens 120 corresponding to the partial region Rp, and uses the above formula ( 5) is created. Note that the position of the microlens 120 corresponding to the partial region Rp is specified as a relative position based on the position of the base microlens 121.

上述のような合成画素所属テーブルを参照して生成された合成画像データは、異なる焦点位置、すなわち立体形状を有する被写体の立体情報を含むことになる。本実施の形態のデジタルカメラ1は、上記のようにして生成された立体情報を有する合成画像データに基づいて、三次元情報を有する二次元の表示用画像データを生成して、三次元画像の表示が可能に構成された表示装置100に表示用画像データに対応する表示用画像を表示させる。そして、ユーザは表示装置100を介して三次元の表示用画像を空中像として観察する。   The composite image data generated with reference to the composite pixel affiliation table as described above includes three-dimensional information of subjects having different focal positions, that is, three-dimensional shapes. The digital camera 1 according to the present embodiment generates two-dimensional display image data having three-dimensional information on the basis of the composite image data having the three-dimensional information generated as described above. A display image corresponding to the display image data is displayed on the display device 100 configured to be capable of display. Then, the user observes the three-dimensional display image as an aerial image via the display device 100.

図8を参照して、上述のようにして生成された三次元情報を含む表示用画像を表示するための表示装置110について説明する。図8はz軸方向における表示装置110の構成を模式的に示す図である。図8(a)に示すように、表示装置110は、表示器111と、表示用マイクロレンズアレイ112と、虚像レンズ113とを備える。表示器111は、たとえばバックライトを有する液晶表示器や有機EL表示器等により構成され、二次元状に配列された複数の表示画素配列114を有する。これら複数の表示画素配列114のそれぞれは、二次元状に配列された複数の表示画素115を有する。表示画素115は、上述した表示制御部107により制御されて、後述するように表示用画像データに対応して発光する。   A display device 110 for displaying a display image including the three-dimensional information generated as described above will be described with reference to FIG. FIG. 8 is a diagram schematically showing the configuration of the display device 110 in the z-axis direction. As shown in FIG. 8A, the display device 110 includes a display device 111, a display microlens array 112, and a virtual image lens 113. The display 111 is constituted by, for example, a liquid crystal display having a backlight, an organic EL display, or the like, and has a plurality of display pixel arrays 114 arranged in a two-dimensional manner. Each of the plurality of display pixel arrays 114 has a plurality of display pixels 115 arranged two-dimensionally. The display pixel 115 is controlled by the display control unit 107 described above, and emits light corresponding to display image data as described later.

表示用マイクロレンズアレイ112は、二次元状に配列された複数の表示用マイクロレンズ116により構成される。表示用マイクロレンズアレイ112は、z軸方向ユーザ(観察者)側に、表示用マイクロレンズ116の焦点距離f’だけ表示画素115から離れた位置に配置される。また、各表示用マイクロレンズ116は、複数の表示画素配列114に対応した配置パターンで配置されている。各表示用マイクロレンズ116は、画像データに応じて表示画素115から射出される光をz軸方向のユーザ(観察者)側の所定の像面に結像する。   The display microlens array 112 includes a plurality of display microlenses 116 that are arranged two-dimensionally. The display microlens array 112 is arranged on the z-axis direction user (observer) side at a position separated from the display pixel 115 by the focal length f ′ of the display microlens 116. Each display microlens 116 is arranged in an arrangement pattern corresponding to the plurality of display pixel arrays 114. Each display microlens 116 forms an image of light emitted from the display pixel 115 in accordance with image data on a predetermined image plane on the user (observer) side in the z-axis direction.

虚像レンズ113は、たとえば大口径のフレネルレンズや回折等を利用した平面レンズにより構成され、xy平面上で表示器111の全面を覆う大きさを有する。虚像レンズ113は、ユーザが虚像レンズ113を観察することにより表示器111に表示される画像
を虚像として観察可能となる位置に配置される。すなわち、虚像レンズ113は、z軸方向において、上述した表示用マイクロレンズ116による像面Qが、虚像レンズ113の焦点位置Pよりも内側となる位置に配置される。換言すると、像面Qが虚像レンズ113から虚像レンズ113の焦点位置Pまでの間に位置するように、虚像レンズ113が配置される。
The virtual image lens 113 is configured by, for example, a large-diameter Fresnel lens or a planar lens using diffraction or the like, and has a size that covers the entire surface of the display 111 on the xy plane. The virtual image lens 113 is disposed at a position where an image displayed on the display 111 can be observed as a virtual image when the user observes the virtual image lens 113. That is, the virtual image lens 113 is disposed at a position where the image plane Q by the display microlens 116 described above is inward of the focal position P of the virtual image lens 113 in the z-axis direction. In other words, the virtual image lens 113 is arranged so that the image plane Q is located between the virtual image lens 113 and the focal position P of the virtual image lens 113.

図8(b)に示すように、上述した表示装置110のz軸方向における表示用マイクロレンズアレイ112と表示画素115との位置関係は、図4に示す撮像ユニット100のz軸方向におけるマイクロレンズアレイ12と撮像画素131との位置関係と等価と見なすことができる。図4(b)に示すように、ある焦点位置Sからの被写体光が複数の撮像画素131へ入射した場合、画像パターン生成部106は、図6(a)に示す撮像画素131の入射光の配列パターンと同様の配列パターンで表示画素115が発光するように表示用画像データを生成する。この場合、図8(b)に示すように、表示画素115からの光束r1〜r5は表示用マイクロレンズ116を介して焦点位置S’に像を結ぶ。   As shown in FIG. 8B, the positional relationship between the display microlens array 112 and the display pixel 115 in the z-axis direction of the display device 110 described above is the microlens in the z-axis direction of the imaging unit 100 shown in FIG. This can be regarded as equivalent to the positional relationship between the array 12 and the imaging pixel 131. As shown in FIG. 4B, when subject light from a certain focal position S enters a plurality of imaging pixels 131, the image pattern generation unit 106 transmits the incident light of the imaging pixels 131 shown in FIG. Display image data is generated so that the display pixels 115 emit light with an array pattern similar to the array pattern. In this case, as shown in FIG. 8B, the light beams r1 to r5 from the display pixel 115 form an image at the focal position S ′ via the display microlens 116.

合成画像データの各画素のそれぞれに関して、式(5)で表されるマイクロレンズ120と撮像画素131との対応関係が表示用マイクロレンズ116と表示画素115とによって再現されると、表示器111から射出した光は合成画像データの各画素で異なる焦点位置Sに対応した焦点位置S’に像を結ぶ。その結果、合成画像データの立体情報に対応する三次元情報を有する表示用画像が立体形状を有する空中像として形成されることになる。この場合、空中像では、被写体の実際の奥行き方向の距離が、その距離感を保ったまま表示用画像で縮小して再現されることになる。すなわち、空中像では被写体の実際の距離の逆数が圧縮されることになる。なお、図8(b)においても、表示画素115からの光束r1〜r5の主光線を示している。   When the correspondence relationship between the microlens 120 and the imaging pixel 131 represented by Expression (5) is reproduced by the display microlens 116 and the display pixel 115 for each pixel of the composite image data, the display 111 The emitted light forms an image at a focal position S ′ corresponding to a different focal position S in each pixel of the composite image data. As a result, a display image having three-dimensional information corresponding to the three-dimensional information of the composite image data is formed as an aerial image having a three-dimensional shape. In this case, in the aerial image, the actual distance in the depth direction of the subject is reproduced by being reduced in the display image while maintaining the sense of distance. That is, in the aerial image, the reciprocal of the actual distance of the subject is compressed. FIG. 8B also shows the chief rays of the light beams r1 to r5 from the display pixel 115.

画像パターン生成部106は、各撮像画素131から出力された画像信号を用いて、上述のような表示用画像に対応する表示用画像データを生成する。このとき、画像パターン生成部106は、合成画素所属テーブルに基づいて、ある撮像画素131から出力された画像信号に対応した強度で発光させる表示画素115を決定する。換言すると、画像パターン生成部106は、各撮像画素131から出力された画像信号を、撮像画素131の配置位置に対応して配置された表示画素115に割り当てる。但し、表示画素115からの光の進行方向は撮影時とは逆である.したがって、合成画素所属テーブルに記録されたマ
イクロレンズ120と撮像画素131との位置関係をそのまま表示用画像データを生成する際の位置関係に用いると、観察される空中像の遠近が逆転することになる。このため、画像パターン生成部106は、合成画素所属テーブルに記録された撮像画素131を、基点マイクロレンズ121を中心として点対称とした位置、すなわち等価な位置に表示画素115を割り当てる。この結果、撮影時の像面が空中像として観察される。
The image pattern generation unit 106 generates display image data corresponding to the display image as described above, using the image signal output from each imaging pixel 131. At this time, the image pattern generation unit 106 determines a display pixel 115 that emits light with an intensity corresponding to the image signal output from a certain imaging pixel 131 based on the combined pixel affiliation table. In other words, the image pattern generation unit 106 assigns the image signal output from each imaging pixel 131 to the display pixel 115 arranged corresponding to the arrangement position of the imaging pixel 131. However, the traveling direction of the light from the display pixel 115 is opposite to that at the time of photographing, so that the positional relationship between the microlens 120 and the imaging pixel 131 recorded in the composite pixel affiliation table is generated as it is. When used for the positional relationship, the perspective of the observed aerial image is reversed. For this reason, the image pattern generation unit 106 assigns the display pixel 115 to a position where the imaging pixel 131 recorded in the composite pixel affiliation table is point-symmetric with respect to the base microlens 121, that is, an equivalent position. As a result, the image plane at the time of photographing is observed as an aerial image.

まず、画像パターン生成部106は、複数の表示用マイクロレンズ116のうちの1つの表示用マイクロレンズ116に対応する撮像ユニット100の基点マイクロレンズ121を検出する。なお、表示用マイクロレンズ116と基点マイクロレンズ121との対応関係を示すデータは、予め所定の記録領域に格納されているものとする。そして、画像パターン生成部106は、検出した基点マイクロレンズ121の合成画素所属テーブルを参照して、合成画像信号を形成する画像信号を出力した撮像画素131と、その撮像画素131の撮像素子13上での位置とを検出する。   First, the image pattern generation unit 106 detects the base microlens 121 of the imaging unit 100 corresponding to one display microlens 116 among the plurality of display microlenses 116. It is assumed that data indicating the correspondence between the display microlens 116 and the base microlens 121 is stored in a predetermined recording area in advance. Then, the image pattern generation unit 106 refers to the detected composite pixel affiliation table of the base microlens 121 and detects the image pickup pixel 131 that has output the image signal that forms the composite image signal, and the image pickup element 131 on the image pickup element 13. The position at is detected.

撮像画素131とその位置とを検出すると、画像パターン生成部106は、検出した位置に基づいて、撮像画素131からの画像信号を割り当てる表示画素115が表示用マイクロレンズ116に対してどの位置に配置されているかを検出する。そして、画像パターン生成部106は、検出された表示画素115に撮像画素131から出力された画像信号
を割り当てる。すなわち、画像パターン生成部106は、図9(a)に示す撮像画素131aからの画像信号に対応して発光するべき表示画素115として、図9(b)に示す表示画素115aを割り当てる。マイクロレンズ120および撮像画素131の間の配列と、表示用マイクロレンズ116および表示画素115の間の配列とが等価と見なせない場合には、画像パターン生成部106は、表示用マイクロレンズ116の擬似光軸からの相対位置に正規化した位置に配置された表示画素115に画像信号を割り当てる。その結果、複数の表示画素115から射出された光束r1〜r5に基づいて、表示用画像データの1つの画素データを構成することになる。
When the imaging pixel 131 and its position are detected, the image pattern generation unit 106 arranges the display pixel 115 to which the image signal from the imaging pixel 131 is allocated with respect to the display microlens 116 based on the detected position. Detect whether it has been. Then, the image pattern generation unit 106 assigns the image signal output from the imaging pixel 131 to the detected display pixel 115. That is, the image pattern generation unit 106 assigns the display pixel 115a shown in FIG. 9B as the display pixel 115 that should emit light corresponding to the image signal from the imaging pixel 131a shown in FIG. 9A. When the arrangement between the microlens 120 and the imaging pixel 131 and the arrangement between the display microlens 116 and the display pixel 115 cannot be regarded as equivalent, the image pattern generation unit 106 uses the display microlens 116. An image signal is assigned to the display pixel 115 arranged at a position normalized to a relative position from the pseudo optical axis. As a result, one pixel data of the display image data is configured based on the light beams r1 to r5 emitted from the plurality of display pixels 115.

なお、上述したように表示装置110は虚像表示を行う。このため、画像パターン生成部106は、合成画像データに対して上下方向(y軸方向)に反転するように表示用画像データを生成する。すなわち、画像パターン生成部106は、撮像画素131からの画像信号を表示用マイクロレンズ116の擬似光軸を基準として上下方向(y軸方向)に対称な位置に配置された表示画素115に割り当てる。たとえば、画像パターン生成部106は、図9(a)に示す撮像画素131bから出力された画像信号を、図9(b)に示す表示画素115に割り当てる。   As described above, the display device 110 performs virtual image display. Therefore, the image pattern generation unit 106 generates display image data so as to be inverted in the vertical direction (y-axis direction) with respect to the composite image data. That is, the image pattern generation unit 106 assigns the image signal from the imaging pixel 131 to the display pixel 115 arranged at a position symmetrical in the vertical direction (y-axis direction) with respect to the pseudo optical axis of the display microlens 116. For example, the image pattern generation unit 106 assigns the image signal output from the imaging pixel 131b illustrated in FIG. 9A to the display pixel 115 illustrated in FIG. 9B.

画像パターン生成部106は、以上の処理を全ての表示用マイクロレンズ116に対して行う。もし、同一の表示画素115に複数の撮像素子131から出力された画像信号を割り当てる場合には、画像パターン生成部106は、複数の画像信号を重畳加算する。その結果、画像パターン生成部106は表示用画像データを生成する。画像パターン生成部106は生成した表示用画像データを表示制御部107を介して表示装置110へ出力する。   The image pattern generation unit 106 performs the above processing on all the display microlenses 116. If the image signals output from the plurality of image pickup devices 131 are assigned to the same display pixel 115, the image pattern generation unit 106 superimposes and adds the plurality of image signals. As a result, the image pattern generation unit 106 generates display image data. The image pattern generation unit 106 outputs the generated display image data to the display device 110 via the display control unit 107.

この表示用画像データに基づいて各表示画素115が発光すると、表示用マイクロレンズ116によって三次元情報に応じてレリーフのようになった三次元像面が形成される。この三次元像面は、虚像レンズ113によって所定の大きさに投影されることにより、ユーザによって三次元の空中画として観察される。換言すると、表示器111と表示用マイクロレンズ116により形成される三次元像面は、撮影レンズL1で立体の被写体を撮影した場合の結像面と光学的に等価となる。そのため、予定像面近傍に結像した立体の被写体の像が虚像レンズ113によって三次元空中像として復元することになる。その結果、ユーザは三次元空中像として立体的に表示装置110によって観察することができる。   When each display pixel 115 emits light based on the display image data, a three-dimensional image surface having a relief shape is formed by the display microlens 116 according to the three-dimensional information. The three-dimensional image plane is projected to a predetermined size by the virtual image lens 113 and is observed as a three-dimensional aerial image by the user. In other words, the three-dimensional image plane formed by the display device 111 and the display microlens 116 is optically equivalent to an imaging plane when a three-dimensional subject is photographed by the photographing lens L1. Therefore, the image of the three-dimensional object formed near the planned image plane is restored as a three-dimensional aerial image by the virtual image lens 113. As a result, the user can observe the display device 110 three-dimensionally as a three-dimensional aerial image.

以上で説明した実施の形態によるデジタルカメラ1によれば、以下の作用効果が得られる。
(1)画像積算部105は、撮像素子13から出力された画像信号を用いて複数の焦点位置に関する情報を有する合成画像データを生成し、画像パターン生成部106は、合成画像データに基づいて三次元情報を有する表示用画像データを生成する。表示器111は、複数の表示画素115が二次元状に配列され、複数の表示画素115は表示用画像データに応じて複数の表示画素から光束を射出する。そして、表示用マイクロレンズアレイ112には、複数の表示画素115から射出された光束が合成されて三次元像を形成する複数の表示用マイクロレンズ116が二次元状に配列され、虚像レンズ113は表示用マイクロレンズ116により形成された三次元像を観察可能に構成する。その結果、ステレオ型やレンチキュラー方式のように右眼と左目との視差による錯覚を利用した立体表示を行うことなく、ユーザは立体形状を有する被写体の像を画面上に三次元の空中像として観察することができる。したがって、錯覚に基づくものではなく、実際に三次元に再現された空中像を観察するので、従来の立体画像の表示で問題となっていた立体酔いや小児の視覚形成機能の阻害等の生理的な悪影響を防ぐことができる。さらに、専用のメガネ等を用いることなく観察できるので、長時間の観察が可能になる。
According to the digital camera 1 according to the embodiment described above, the following operational effects can be obtained.
(1) The image integration unit 105 generates composite image data having information on a plurality of focal positions using the image signal output from the image sensor 13, and the image pattern generation unit 106 performs tertiary processing based on the composite image data. Display image data having original information is generated. In the display device 111, a plurality of display pixels 115 are two-dimensionally arranged, and the plurality of display pixels 115 emit light beams from the plurality of display pixels according to display image data. In the display microlens array 112, a plurality of display microlenses 116 that combine the light beams emitted from the plurality of display pixels 115 to form a three-dimensional image are two-dimensionally arranged. The three-dimensional image formed by the display microlens 116 is configured to be observable. As a result, the user observes a three-dimensional subject image as a three-dimensional aerial image on the screen without performing stereoscopic display using the illusion of parallax between the right eye and left eye as in the stereo type or lenticular method. can do. Therefore, it is not based on an illusion, but an aerial image that is actually reproduced in three dimensions is observed. Adverse effects can be prevented. Furthermore, since observation can be performed without using dedicated glasses or the like, long-time observation is possible.

また、ホログラム方式を用いる場合には、表示の冗長度が1000:1以上あるので、たとえば10万画素の解像度を有する立体像を再現するためには、表示器は10億画素以上の画素を有する必要がある。これに対して、本実施の形態の表示装置110では、画像の解像度に対する冗長度が100〜1000倍程度の画素数で三次元の空中像を表示できる。さらに、三次元画像として撮影した画像を投射して表示する際に、正立像として表示させるための屈折率分布レンズ等の構成を用いることなく、簡易な構成で三次元の空中像を再現できる。   Further, when the hologram method is used, since the display redundancy is 1000: 1 or more, for example, in order to reproduce a stereoscopic image having a resolution of 100,000 pixels, the display device has 1 billion pixels or more. There is a need. On the other hand, the display device 110 according to the present embodiment can display a three-dimensional aerial image with the number of pixels whose redundancy with respect to the image resolution is about 100 to 1000 times. Furthermore, when projecting and displaying an image captured as a three-dimensional image, a three-dimensional aerial image can be reproduced with a simple configuration without using a configuration such as a refractive index distribution lens for displaying the image as an erect image.

(2)複数の表示用マイクロレンズ116のそれぞれは複数の表示画素115に対応して配列されるようにし、画像パターン生成部106は、三次元像の1つの画素が複数の表示用マイクロレンズ116に対応して配列された複数の表示画素115から射出された光束で形成されるように表示用画像データを生成するようにした。換言すると、画像パターン成部106は、光束を射出する複数の表示画素115の配列関係が、合成画像データの1つの画素データに対応した複数の撮像画素131の配列関係と等価となるように、表示用画像データを生成する。その結果、各撮像画素131から出力された画像信号を、対応する表示画素115に割り当てることによって、三次元情報を有する表示用画像データを用意に生成することができる。 (2) Each of the plurality of display microlenses 116 is arranged so as to correspond to the plurality of display pixels 115, and the image pattern generation unit 106 has one pixel of the three-dimensional image as a plurality of display microlenses 116. The display image data is generated so as to be formed by the light beams emitted from the plurality of display pixels 115 arranged corresponding to the above. In other words, the image pattern forming unit 106 is configured so that the arrangement relationship of the plurality of display pixels 115 that emit the light flux is equivalent to the arrangement relationship of the plurality of imaging pixels 131 corresponding to one pixel data of the composite image data. Display image data is generated. As a result, by assigning the image signal output from each imaging pixel 131 to the corresponding display pixel 115, display image data having three-dimensional information can be generated in advance.

(3)虚像レンズ113は、虚像レンズ113とその焦点距離と間に表示用マイクロレンズ116によって三次元像面が形成されるように配置するようにした。したがって、画像パターン生成部106により生成された二次元の表示画像用データを、簡易な構成で三次元の空中像として観察することができる。 (3) The virtual image lens 113 is arranged so that a three-dimensional image surface is formed by the display microlens 116 between the virtual image lens 113 and its focal length. Therefore, the two-dimensional display image data generated by the image pattern generation unit 106 can be observed as a three-dimensional aerial image with a simple configuration.

以上で説明した実施の形態のデジタルカメラ1を、以下のように変形できる。
(1)画像積算部105により生成された合成画像データに基づいて、画像パターン生成部106が生成した表示用画像データを表示装置110に表示させるものに代えて、デジタルカメラ1とは異なる外部の表示装置(たとえばパーソナルコンピュータ、テレビ等)が備えるモニタに表示させてもよい。この場合、外部の表示装置は、デジタルカメラ1で生成され、メモリカード109aに記録された合成画像データを読み込む。そして、表示装置は、読み込んだ合成画像データを用いて、画像パターン生成部105と同様の処理を行って表示用画像データを生成し、モニタに出力する。
The digital camera 1 of the embodiment described above can be modified as follows.
(1) Based on the composite image data generated by the image integration unit 105, an external device different from the digital camera 1 is used instead of the display device 110 displaying the display image data generated by the image pattern generation unit 106. You may display on the monitor with which a display apparatus (for example, personal computer, television, etc.) is equipped. In this case, the external display device reads the composite image data generated by the digital camera 1 and recorded on the memory card 109a. Then, the display device performs processing similar to that of the image pattern generation unit 105 using the read composite image data, generates display image data, and outputs the display image data to the monitor.

この場合、表示装置が備えるモニタも、実施の形態の表示装置110と同様に、三次元空中像が観察可能に構成されている必要がある。すなわち、図8に示すように、複数の表示画素が二次元状に配置された表示器と、表示画素からの光束を結像するためのマイクロレンズが二次元状に複数配列されたマイクロレンズアレイと、マイクロレンズにより結像された三次元像を虚像としてユーザが観察するための虚像レンズとを備えていればよい。また、表示装置がデジタルカメラ1から多視点画像ファイルを読み込む際には、たとえばLANケーブルや無線通信等のインタフェースを用いるものでもよい。   In this case, the monitor included in the display device needs to be configured so that a three-dimensional aerial image can be observed, similarly to the display device 110 of the embodiment. That is, as shown in FIG. 8, a microlens array in which a display device in which a plurality of display pixels are two-dimensionally arranged and a plurality of microlenses for imaging light beams from the display pixels are two-dimensionally arranged. And a virtual image lens for the user to observe as a virtual image a three-dimensional image formed by the microlens. Further, when the display device reads the multi-viewpoint image file from the digital camera 1, for example, an interface such as a LAN cable or wireless communication may be used.

(2)上述したデジタルカメラ1や外部の表示装置が有する表示器が、虚像レンズ113を備えていなくてもよい。この場合も、表示用画像データの生成については、実施の形態と同様にして行う。ただし、画像パターン生成部106は、合成画像データに対して上下方向(y軸方向)に反転するように表示用画像データを生成する処理は行わない。このとき表示された像面は、厳密な意味での三次元像の再現ではない。撮影されたときと同じく焦点付近に撮影レンズ1で圧縮された像面の再現である。距離と焦点距離の逆数に関して線形な関係を持っているから、距離が遠ざかれば、立体はほとんど再現されなくなり、逆に近いものは同じ奥行きでも大きく表現されることになる。実際の被写体よりも近い位置に事物を立体で表現するとき、眼が光学装置でありそれがある像面で展開されることを考えると、表現される事物は実際よりも奥行きが圧縮されるはずである。したがって、表示
装置110は、この考えに基づき図15で示すように一点鎖線で示す像面PL1を表現するにあたり、レンズアレイ近傍に、破線で示すように像面PL1を圧縮した像面PL2で表す。像面PL1が実際の位置とは異なるところに現れるときには、それに応じて奥行きは調整されてもかまわない。
(2) The display device included in the digital camera 1 or the external display device described above may not include the virtual image lens 113. In this case as well, display image data is generated in the same manner as in the embodiment. However, the image pattern generation unit 106 does not perform processing for generating display image data so as to be inverted in the vertical direction (y-axis direction) with respect to the composite image data. The image plane displayed at this time is not a reproduction of a three-dimensional image in a strict sense. It is a reproduction of the image plane compressed by the taking lens 1 near the focal point as when it was taken. Since it has a linear relationship with respect to the reciprocal of the distance and the focal length, if the distance is increased, the solid is hardly reproduced, and the opposite is greatly expressed even at the same depth. When expressing a thing in three dimensions closer to the actual subject, considering that the eye is an optical device and that it is unfolded on an image plane, the expressed thing should be compressed more deeply than it actually is It is. Therefore, when the display device 110 expresses the image plane PL1 indicated by the alternate long and short dash line as shown in FIG. 15 based on this idea, the display device 110 expresses the image plane PL2 compressed as shown by the broken line in the vicinity of the lens array. . When the image plane PL1 appears at a location different from the actual position, the depth may be adjusted accordingly.

表示画面は一般に撮影をおこなったデジタルカメラ1の撮像素子131の撮像面積よりも大きい。たとえばデジタルカメラ1の撮像素子サイズをいわゆるフルサイズとすると、その大きさは35×24(mm)で、通常の20インチサイズ(40.6×30.5)のテレビのモニタの1/10に満たない.便宜上10倍としても、後述するように被写体の
撮影倍率が1/20(50mmレンズで1mの位置)として、そのまま撮像すると、倍率
は1/2になる。三次元画像では、二次元表示とは違って10倍の大きさの被写体を10
倍の距離に表示するのと、等倍かつ等距離で表示するのと、1/10倍で1/10の距離に表示するのとでは、表示内容が大きく異なる。後者のほうが相対的に奥行きが大きくなり、立体感が強まる。
The display screen is generally larger than the imaging area of the imaging element 131 of the digital camera 1 that has taken the image. For example, if the image pickup device size of the digital camera 1 is a so-called full size, the size is 35 × 24 (mm), which is 1/10 of a normal 20-inch TV monitor (40.6 × 30.5). Less than. Even if it is set to 10 times for convenience, as will be described later, if an image is taken as it is with a shooting magnification of 1/20 (position of 1 m with a 50 mm lens), the magnification becomes 1/2. In a 3D image, unlike a 2D display, a 10 times larger subject
The display contents are greatly different between the display at the double distance, the display at the same magnification and the same distance, and the display at the distance of 1/10 by 1/10. The latter has a relatively large depth and a three-dimensional effect.

次に表示の奥行きについて述べることにする。表示装置110に装備した表示用マイクロレンズアレイ112によって奥行き方向の高さを圧縮する。入力部材であるデジタルカメラ1の撮像素子13のサイズと表示器111のサイズとの比率をkとする。以下、撮影倍率(被写体の大きさと被写体像の大きさの比)がk倍を超える場合と、k倍以下の場合とに分けて説明する。   Next, the depth of display will be described. The height in the depth direction is compressed by the display microlens array 112 provided in the display device 110. Let k be the ratio between the size of the image sensor 13 of the digital camera 1 as the input member and the size of the display 111. Hereinafter, the case where the shooting magnification (ratio of the size of the subject to the size of the subject image) exceeds k times and the case where it is less than k times will be described.

撮影倍率をnとする。撮影倍率がk倍を超えるとき、すなわち、被写体がデジタルカメラ1から一定以上はなれた位置にあるとき、被写体は1/n倍の大きさで撮像素子13に
よって二次元的に取得され、表示器111上にk/n倍の大きさで表示されることになる
。n>kであるから、被写体は実際よりも小さく、つまり表示器111の表示面よりも向
うに被写体があるとみなされるように表示されることになる。本発明の表示装置110では、表示用マイクロレンズアレイ112面の近傍に立体像が表示される。この表示面までの距離をdとし、撮影時の被写体までの距離をyとすると、奥行き方向の倍率は以下の式(8)により表される。
・・・(8)
Let n be the shooting magnification. When the photographing magnification exceeds k times, that is, when the subject is located at a position more than a certain distance from the digital camera 1, the subject is acquired two-dimensionally by the image sensor 13 with a size of 1 / n times, and the display 111 It is displayed in a size of k / n times above. Since n> k, the subject is smaller than the actual size, that is, the subject is displayed so that it is considered that there is a subject facing away from the display surface of the display 111. In the display device 110 of the present invention, a stereoscopic image is displayed near the surface of the display microlens array 112. When the distance to the display surface is d and the distance to the subject at the time of shooting is y, the magnification in the depth direction is expressed by the following equation (8).
... (8)

表示される像はk/n倍であるので、換言すると(n/k)倍ということもできる。撮影倍率50倍、表示器111の大きさを撮像素子13の10倍とすると、奥行き方向の倍率は25倍であり、奥行き方向に20cmの物体はデジタルカメラ1上では80μm、表示器111上では8mmの像面高さとなる。表示用マイクロレンズアレイ112のF値と、デジタルカメラ1での撮影時のマイクロレンズアレイ12のF値が等しい場合には、表示器111のサイズが10倍となる。このため、表示器111では800μm程度の像面高さしか得られない。 Image to be displayed because it is k / n times, it is also possible in other words (n / k) 2 times that. If the photographing magnification is 50 times and the size of the display 111 is 10 times that of the image sensor 13, the magnification in the depth direction is 25 times. An object 20 cm in the depth direction is 80 μm on the digital camera 1 and on the display 111. The image surface height is 8 mm. When the F value of the display microlens array 112 and the F value of the microlens array 12 at the time of photographing with the digital camera 1 are equal, the size of the display 111 becomes ten times. For this reason, the display 111 can only obtain an image plane height of about 800 μm.

そこで表示用マイクロレンズ116のF値を大きくして整合性をとる。しかし、デジタルカメラ1のマイクロレンズ120のF値が4のときに表示用マイクロレンズ116のF値を40にするのは非現実的である。したがって、表示用マイクロレンズ116を、たとえばF=8、16程度の値となるようにする。この結果、空中像の奥行きの距離が多少減殺されるものの、立体感自体はそこなわれることなく得られる。これは、人間の知覚における立体感は相対的かつ、定性的なものであるからである。   Therefore, the F value of the display microlens 116 is increased to ensure consistency. However, when the F value of the micro lens 120 of the digital camera 1 is 4, it is impractical to set the F value of the display micro lens 116 to 40. Therefore, the display microlens 116 is set to a value of about F = 8, 16, for example. As a result, although the depth distance of the aerial image is somewhat reduced, the stereoscopic effect itself can be obtained without being lost. This is because the three-dimensional effect in human perception is relative and qualitative.

表示用マイクロレンズ116のF値の増加が、空中像の奥行きの増大につながることの説明をする。図16の焦点位置と表示用画素115の面との関係に示すように、光像の高
さをy、表示用マイクロレンズ116の中心(疑似光軸)からの距離座標をx、表示用マイクロレンズ116の間隔をd、その焦点距離をfとすると、以下の式(9)で示す関係が成立する。
y/nd=f/x ・・・(9)
なお、nは整数で隣接を表し、n=1で隣の表示用マイクロレンズ116、n=2でさらに隣の表示用マイクロレンズ116を表すものとする。
It will be explained that an increase in the F value of the display microlens 116 leads to an increase in the depth of the aerial image. As shown in the relationship between the focal position and the surface of the display pixel 115 in FIG. 16, the height of the optical image is y, the distance coordinate from the center (pseudo optical axis) of the display microlens 116 is x, and the display micro When the distance between the lenses 116 is d and the focal length is f, the relationship expressed by the following equation (9) is established.
y / nd = f / x (9)
Note that n is an integer that represents the adjacent, n = 1 represents the adjacent display microlens 116, and n = 2 represents the further adjacent display microlens 116.

上記の式(9)は、デジタルカメラ1にも、表示装置110にも等しく有効である。式(9)に示す関係により、表示器111によって再現される空中像の光像の高さyは、表示用マイクロレンズ116の焦点距離fに比例する。撮像素子13のサイズに対する表示器111のサイズが10倍の比率になっている場合では、焦点距離fも10倍になる。このため、F値が等しければ10倍の表示器111のサイズで10倍の大きさの空中像が10倍の高さyに表現されることになる。これより、さらに高さyを強調するためには表示用マイクロレンズ116の焦点距離を20倍、30倍等にする、つまり表示用マイクロレンズ116のF値を2倍、3倍にすればよい。   The above equation (9) is equally valid for both the digital camera 1 and the display device 110. Due to the relationship shown in Expression (9), the height y of the aerial image reproduced by the display 111 is proportional to the focal length f of the display microlens 116. When the size of the display 111 with respect to the size of the image sensor 13 is 10 times, the focal length f is also 10 times. For this reason, if the F values are equal, an aerial image 10 times larger than the 10 times the size of the display 111 is expressed at 10 times the height y. Thus, in order to further enhance the height y, the focal length of the display microlens 116 should be increased by 20 times, 30 times, or the like, that is, the F value of the display microlens 116 should be increased by 2 or 3 times. .

ここで、倍率がn/k>1のときについて説明する。近いところに被写体がある場合の
立体感は、遠いところとは多少異なる。近いところで倍率の小さいもの、つまり近接撮影においては、観察者は映像が等倍であることを望まない。たとえば、蜜蜂の近接撮影像を考えると、観察者は、蜜蜂が実際の大きさで表示器111、あるいは空中に立体で表示されることを期待していない。蜜蜂が空中像として表示される際、鳩ほどの大きさで、かつ多少離れたところにあることが、画像として自然である。その理由は、等倍で表示された場合、小さく表示された蜂は、観察者にはアブか蜂か判別がつかないからである。さらには、こうした事物が常に拡大された映像で提供されてきたことにもよる。
Here, the case where the magnification is n / k> 1 will be described. The stereoscopic effect when there is a subject in a close place is slightly different from that in a distant place. In the case of a small magnification at a close distance, that is, close-up photography, the observer does not want the image to be the same magnification. For example, considering a close-up image of a bee, an observer does not expect the bee to be displayed in real size in the display 111 or in the air. When a bee is displayed as an aerial image, it is natural for the image to be as large as a pigeon and at some distance. The reason is that, when displayed at the same magnification, the bee displayed small cannot be identified as an ab or a bee by the observer. Furthermore, it is because these things have always been provided in enlarged images.

たとえば、等倍でデジタルカメラ1によって、50mmの撮影レンズL1で被写体が撮影されたとすると、像面での奥行きは、等倍であるからそのまま保存される。この等倍で保存された被写体を、上記した10倍の大きさの表示器111に出力すると、500mmの位置に20cmの大きさの蜂が表示される。表示器111の観察位置が、1mであれば、観察者には奥行きが4倍で感知されることになるので、立体感が誇張されることになる。   For example, if the subject is photographed by the digital camera 1 with the 50 mm photographing lens L1 at the same magnification, the depth on the image plane is preserved as it is because it is the same magnification. When the subject stored at the same magnification is output to the display device 111 having a size of 10 times, a bee having a size of 20 cm is displayed at a position of 500 mm. If the observation position of the display 111 is 1 m, the viewer will perceive the depth four times, so that the stereoscopic effect is exaggerated.

以上のように立体感は、撮影された画像もしくは表示される画像の倍率によってかなり変化する。しかし、上述のように、人間の持つ奥行き感は曖昧であり、絶対値ではなく対象の奥行きに関する順序性が、立体感を決める基準となっている。本発明では、奥行きの量の絶対値は、撮影倍率により変化するが相対的な関係は完全に保持されるために、観察者に対して明確な立体感を提供することができる。また、完全に立体像を提供し、視差によって立体感を得るステレオ方式とは根本的に異なるために、人の視覚へ負荷が小さく、いわゆる立体酔いなどの現象は惹起されない。   As described above, the stereoscopic effect changes considerably depending on the magnification of the captured image or the displayed image. However, as described above, the sense of depth that humans have is vague, and the order of the depth of the object, not the absolute value, is the standard for determining the stereoscopic effect. In the present invention, the absolute value of the depth amount changes depending on the photographing magnification, but the relative relationship is completely maintained, so that a clear stereoscopic effect can be provided to the observer. Further, since it is fundamentally different from a stereo system that provides a stereoscopic image completely and obtains a stereoscopic effect by parallax, the load on human vision is small, and phenomena such as so-called stereoscopic sickness are not caused.

また、本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。説明に用いた実施の形態および変形例は、それぞれを適宜組合わせて構成しても構わない。   In addition, the present invention is not limited to the above-described embodiment as long as the characteristics of the present invention are not impaired, and other forms conceivable within the scope of the technical idea of the present invention are also within the scope of the present invention. included. The embodiments and modifications used in the description may be configured by appropriately combining them.

100…撮像ユニット、 101…制御回路、
105…画像積算部、 106…画像パターン生成部、
110…表示装置、 111…表示器、
112…表示用マイクロレンズアレイ、 113…虚像レンズ、
114…表示画素配列、 115…表示画素、
116…表示用マイクロレンズ
100: an imaging unit, 101: a control circuit,
105 ... an image integration unit, 106 ... an image pattern generation unit,
110 ... display device, 111 ... display device,
112 ... Display microlens array, 113 ... Virtual image lens,
114: Display pixel array, 115: Display pixel,
116 ... Display microlens

Claims (10)

異なる複数の撮影用マイクロレンズに対応して配列された複数の撮像画素から出力された複数の画像信号に基づいて、1つの画素データが生成された画像データを入力する入力手段と、
前記画像データに基づいて三次元情報を有する表示用画像データを生成する生成手段と、
複数の表示画素が二次元状に配列され、前記表示用画像データに応じて前記複数の表示画素から光束を射出する表示手段と、
前記複数の表示画素から射出された光束が合成されて三次元像を形成する複数のマイクロレンズが二次元状に配列されたマイクロレンズアレイとを備えることを特徴とする画像表示装置。
Input means for inputting image data in which one pixel data is generated based on a plurality of image signals output from a plurality of imaging pixels arranged corresponding to a plurality of different photographing microlenses;
Generating means for generating display image data having three-dimensional information based on the image data;
A plurality of display pixels arranged two-dimensionally, and display means for emitting a light beam from the plurality of display pixels according to the display image data;
An image display device comprising: a microlens array in which a plurality of microlenses that combine light beams emitted from the plurality of display pixels to form a three-dimensional image are arranged two-dimensionally.
請求項1に記載の画像表示装置において、
前記複数のマイクロレンズのそれぞれは前記複数の表示画素に対応して配列され、
前記生成手段は、複数のマイクロレンズに対応して配列された前記複数の表示画素から射出された光束を合成して前記三次元像の1つの画素が構成されるように前記表示用画像データを生成することを特徴とする画像表示装置。
The image display device according to claim 1,
Each of the plurality of microlenses is arranged corresponding to the plurality of display pixels,
The generating means combines the display image data so that one pixel of the three-dimensional image is configured by synthesizing light beams emitted from the plurality of display pixels arranged corresponding to the plurality of microlenses. An image display device characterized by generating.
請求項2に記載の画像表示装置において、
前記生成手段は、前記光束を射出する前記複数の表示画素の配列関係が前記1つの画素データに対応した前記複数の撮像画素の配列関係と等価となるように、前記表示用画像データを生成することを特徴とする画像表示装置。
The image display device according to claim 2,
The generation unit generates the display image data so that an arrangement relationship between the plurality of display pixels emitting the light flux is equivalent to an arrangement relationship between the plurality of imaging pixels corresponding to the one pixel data. An image display device characterized by that.
請求項3に記載の画像表示装置において、
前記生成手段は、前記1つの画素データに対応した前記複数の撮像画素の配列関係と、前記複数の表示画素の配列関係とが、互いに点対称となるように前記表示用画像データを生成することを特徴とする画像表示装置。
The image display device according to claim 3,
The generating means generates the display image data such that an arrangement relationship between the plurality of imaging pixels corresponding to the one pixel data and an arrangement relationship between the plurality of display pixels are point-symmetric with each other. An image display device characterized by the above.
請求項1乃至4の何れか一項に記載の画像表示装置において、
前記生成手段は、前記三次元像が前記マイクロレンズの近傍に再現され、前記三次元像の奥行き方向の倍率が前記マイクロレンズの配列面の方向の倍率よりも圧縮さるように、前記表示用画像データを生成することを特徴とする画像表示装置。
The image display device according to any one of claims 1 to 4,
The generating unit reproduces the display image so that the three-dimensional image is reproduced in the vicinity of the microlens, and the magnification in the depth direction of the three-dimensional image is compressed more than the magnification in the direction of the array plane of the microlenses. An image display device that generates data.
請求項5に記載の画像表示装置において、
前記生成手段は、前記奥行き方向の倍率が前記マイクロレンズの配列面の方向の倍率の二乗の倍数となるように、前記表示用画像データを生成することを特徴とする画像表示装置。
The image display device according to claim 5,
The image display device, wherein the generation unit generates the display image data so that the magnification in the depth direction is a multiple of the square of the magnification in the direction of the arrangement surface of the microlenses.
請求項1乃至6の何れか一項に記載の画像表示装置において、
前記生成手段は、前記1つの画素データに対応した前記複数の撮像画素の配列関係を、前記マイクロレンズの疑似光軸を基準として正規化して、前記表示用画像データを生成することを特徴とする画像表示装置。
In the image display device according to any one of claims 1 to 6,
The generation unit generates the display image data by normalizing an arrangement relationship of the plurality of imaging pixels corresponding to the one pixel data with reference to a pseudo optical axis of the microlens. Image display device.
請求項7に記載の画像表示装置において、
前記マイクロレンズのF値は、前記撮影用マイクロレンズのF値よりも大きいことを特徴とする画像表示装置。
The image display device according to claim 7,
An image display device, wherein an F value of the microlens is larger than an F value of the photographing microlens.
請求項1乃至8のいずれか一項に記載の画像表示装置において、
前記マイクロレンズにより形成された前記三次元像を観察する観察光学系をさらに備え
ることを特徴とする画像表示装置。
In the image display device according to any one of claims 1 to 8,
An image display device further comprising an observation optical system for observing the three-dimensional image formed by the microlens.
請求項9に記載の画像表示装置において、
前記観察光学系は虚像レンズにより構成され、前記虚像レンズは、前記虚像レンズとその焦点距離と間に前記三次元像面が形成されるように配置されることを特徴とする画像表示装置。
The image display device according to claim 9,
The image display apparatus, wherein the observation optical system includes a virtual image lens, and the virtual image lens is disposed so that the three-dimensional image plane is formed between the virtual image lens and a focal length thereof.
JP2015153729A 2010-06-16 2015-08-03 Image display device Pending JP2016001326A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015153729A JP2016001326A (en) 2010-06-16 2015-08-03 Image display device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010137391 2010-06-16
JP2010137391 2010-06-16
JP2015153729A JP2016001326A (en) 2010-06-16 2015-08-03 Image display device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011130067A Division JP6149339B2 (en) 2010-06-16 2011-06-10 Display device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017242383A Division JP6593428B2 (en) 2010-06-16 2017-12-19 Display device

Publications (1)

Publication Number Publication Date
JP2016001326A true JP2016001326A (en) 2016-01-07

Family

ID=55076917

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2015153729A Pending JP2016001326A (en) 2010-06-16 2015-08-03 Image display device
JP2017242383A Active JP6593428B2 (en) 2010-06-16 2017-12-19 Display device
JP2019173726A Active JP6891935B2 (en) 2010-06-16 2019-09-25 Image display device
JP2021084786A Pending JP2021152661A (en) 2010-06-16 2021-05-19 Image display device
JP2023175576A Pending JP2024012318A (en) 2010-06-16 2023-10-10 image display device

Family Applications After (4)

Application Number Title Priority Date Filing Date
JP2017242383A Active JP6593428B2 (en) 2010-06-16 2017-12-19 Display device
JP2019173726A Active JP6891935B2 (en) 2010-06-16 2019-09-25 Image display device
JP2021084786A Pending JP2021152661A (en) 2010-06-16 2021-05-19 Image display device
JP2023175576A Pending JP2024012318A (en) 2010-06-16 2023-10-10 image display device

Country Status (1)

Country Link
JP (5) JP2016001326A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114827566A (en) * 2021-01-28 2022-07-29 幻景启动股份有限公司 Floating three-dimensional image display system

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08289329A (en) * 1995-04-11 1996-11-01 Nippon Hoso Kyokai <Nhk> Stereoscopic image pickup device
JP2000308091A (en) * 1999-04-26 2000-11-02 Nippon Hoso Kyokai <Nhk> Stereoscopic image pickup device
US20030016444A1 (en) * 2001-07-13 2003-01-23 Brown Daniel M. Autostereoscopic display with rotated microlens and method of displaying multidimensional images, especially color images
JP2003075946A (en) * 2001-09-03 2003-03-12 Nippon Hoso Kyokai <Nhk> Stereoscopic image pickup unit
JP2003279894A (en) * 2002-03-22 2003-10-02 Hitachi Ltd Multi-projection stereoscopic video display device
JP2004333691A (en) * 2003-05-02 2004-11-25 Nippon Hoso Kyokai <Nhk> Lens position detecting method and device
US20050088749A1 (en) * 1997-07-08 2005-04-28 Kremen Stanley H. Modular integral magnifier
JP2005173190A (en) * 2003-12-11 2005-06-30 Nippon Hoso Kyokai <Nhk> Stereoscopic image display apparatus and stereoscopic image pickup apparatus
JP2007004471A (en) * 2005-06-23 2007-01-11 Nikon Corp Image synthesis method and image pickup apparatus
JP2007071922A (en) * 2005-09-02 2007-03-22 Nippon Hoso Kyokai <Nhk> Stereoscopic image pickup device and stereoscopic image display device
JP2007514188A (en) * 2003-11-21 2007-05-31 ナノヴェンションズ インコーポレイテッド Micro optical security and image display system
WO2007092545A2 (en) * 2006-02-07 2007-08-16 The Board Of Trustees Of The Leland Stanford Junior University Variable imaging arrangements and methods therefor
JP2008515110A (en) * 2004-10-01 2008-05-08 ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー Imaging apparatus and method
JP2008216340A (en) * 2007-02-28 2008-09-18 Nippon Hoso Kyokai <Nhk> Stereoscopic and planar images display device
JP2010050707A (en) * 2008-08-21 2010-03-04 Sony Corp Image pickup apparatus, display apparatus, and image processing apparatus
US20100328433A1 (en) * 2008-02-03 2010-12-30 Zhiyang Li Method and Devices for 3-D Display Based on Random Constructive Interference

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10319342A (en) * 1997-05-15 1998-12-04 Olympus Optical Co Ltd Eye ball projection type video display device
JP3942789B2 (en) * 2000-02-22 2007-07-11 独立行政法人科学技術振興機構 Stereoscopic image playback device with background
JP3983953B2 (en) * 2000-03-10 2007-09-26 パイオニア株式会社 Stereoscopic two-dimensional image display apparatus and image display method
JP2002189190A (en) * 2000-12-21 2002-07-05 Canon Inc Display device, display method and display equipment using the same
JP2005175539A (en) * 2003-12-05 2005-06-30 Sharp Corp Stereoscopic video display apparatus and video display method
JP4103848B2 (en) * 2004-03-19 2008-06-18 ソニー株式会社 Information processing apparatus and method, recording medium, program, and display apparatus
JP4452719B2 (en) * 2004-06-14 2010-04-21 パイオニア株式会社 Stereoscopic two-dimensional image display device
WO2006093365A1 (en) * 2005-03-02 2006-09-08 Seoul National University Industry Foundation Three-dimensional/ two-dimensional convertible display device
US20070030543A1 (en) * 2005-08-08 2007-02-08 Bahram Javidi Depth and lateral size control of three-dimensional images in projection integral imaging
JP4970798B2 (en) * 2006-01-25 2012-07-11 オリンパスメディカルシステムズ株式会社 Stereoscopic image observation device
JP2008026654A (en) * 2006-07-21 2008-02-07 Hitachi Displays Ltd Three-dimensional display device
KR101350475B1 (en) * 2007-04-12 2014-01-15 삼성전자주식회사 Highly efficient 2D/3D switchable display device
JP4875680B2 (en) * 2008-09-10 2012-02-15 日本放送協会 3D information integration apparatus and 3D information integration program

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08289329A (en) * 1995-04-11 1996-11-01 Nippon Hoso Kyokai <Nhk> Stereoscopic image pickup device
US20050088749A1 (en) * 1997-07-08 2005-04-28 Kremen Stanley H. Modular integral magnifier
US7002749B2 (en) * 1997-07-08 2006-02-21 Kremen Stanley H Modular integral magnifier
JP2000308091A (en) * 1999-04-26 2000-11-02 Nippon Hoso Kyokai <Nhk> Stereoscopic image pickup device
US20030016444A1 (en) * 2001-07-13 2003-01-23 Brown Daniel M. Autostereoscopic display with rotated microlens and method of displaying multidimensional images, especially color images
JP2003075946A (en) * 2001-09-03 2003-03-12 Nippon Hoso Kyokai <Nhk> Stereoscopic image pickup unit
JP2003279894A (en) * 2002-03-22 2003-10-02 Hitachi Ltd Multi-projection stereoscopic video display device
JP2004333691A (en) * 2003-05-02 2004-11-25 Nippon Hoso Kyokai <Nhk> Lens position detecting method and device
JP2007514188A (en) * 2003-11-21 2007-05-31 ナノヴェンションズ インコーポレイテッド Micro optical security and image display system
JP2005173190A (en) * 2003-12-11 2005-06-30 Nippon Hoso Kyokai <Nhk> Stereoscopic image display apparatus and stereoscopic image pickup apparatus
JP2008515110A (en) * 2004-10-01 2008-05-08 ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー Imaging apparatus and method
JP2007004471A (en) * 2005-06-23 2007-01-11 Nikon Corp Image synthesis method and image pickup apparatus
JP2007071922A (en) * 2005-09-02 2007-03-22 Nippon Hoso Kyokai <Nhk> Stereoscopic image pickup device and stereoscopic image display device
WO2007092545A2 (en) * 2006-02-07 2007-08-16 The Board Of Trustees Of The Leland Stanford Junior University Variable imaging arrangements and methods therefor
JP2008216340A (en) * 2007-02-28 2008-09-18 Nippon Hoso Kyokai <Nhk> Stereoscopic and planar images display device
US20100328433A1 (en) * 2008-02-03 2010-12-30 Zhiyang Li Method and Devices for 3-D Display Based on Random Constructive Interference
JP2010050707A (en) * 2008-08-21 2010-03-04 Sony Corp Image pickup apparatus, display apparatus, and image processing apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114827566A (en) * 2021-01-28 2022-07-29 幻景启动股份有限公司 Floating three-dimensional image display system
CN114827566B (en) * 2021-01-28 2024-03-08 幻景启动股份有限公司 Floating three-dimensional image display system

Also Published As

Publication number Publication date
JP6891935B2 (en) 2021-06-18
JP6593428B2 (en) 2019-10-23
JP2021152661A (en) 2021-09-30
JP2018084828A (en) 2018-05-31
JP2020076962A (en) 2020-05-21
JP2024012318A (en) 2024-01-30

Similar Documents

Publication Publication Date Title
JP6149339B2 (en) Display device
US20210173205A1 (en) Image-capturing device
JP5499778B2 (en) Imaging device
WO2013031698A1 (en) Three-dimensional image display device
JP2024012318A (en) image display device
JP6516045B2 (en) Image processing device
US20140009659A1 (en) Image processing apparatus, control method for same, and program
JP6376206B2 (en) Image processing apparatus and imaging apparatus
US10587798B2 (en) Image processing apparatus
JP6036799B2 (en) Image processing device
JP2008170915A (en) Stereoscopic imaging device by ball lens and stereoscopic image display device
JP3944202B2 (en) Stereoscopic image reproducing apparatus, control method therefor, and storage medium
JP2017182076A (en) Image display device
JP2019101225A (en) Stereoscopic display device
JP2017111246A (en) Display, electronic apparatus, image processing device, and image processing program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170425

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170828

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170919