JP7287283B2 - Imaging device and imaging method - Google Patents

Imaging device and imaging method Download PDF

Info

Publication number
JP7287283B2
JP7287283B2 JP2019568994A JP2019568994A JP7287283B2 JP 7287283 B2 JP7287283 B2 JP 7287283B2 JP 2019568994 A JP2019568994 A JP 2019568994A JP 2019568994 A JP2019568994 A JP 2019568994A JP 7287283 B2 JP7287283 B2 JP 7287283B2
Authority
JP
Japan
Prior art keywords
imaging
imaging device
incident light
light
mirror surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019568994A
Other languages
Japanese (ja)
Other versions
JPWO2019150983A1 (en
Inventor
イリヤ レシェトウスキ
厚史 伊藤
秀紀 小柳津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2019150983A1 publication Critical patent/JPWO2019150983A1/en
Application granted granted Critical
Publication of JP7287283B2 publication Critical patent/JP7287283B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B11/00Filters or other obturators specially adapted for photographic purposes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B17/00Systems with reflecting surfaces, with or without refracting elements
    • G02B17/02Catoptric systems, e.g. image erecting and reversing system
    • G02B17/06Catoptric systems, e.g. image erecting and reversing system using mirrors only, i.e. having only one curved mirror
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/17Bodies with reflectors arranged in beam forming the photographic image, e.g. for reducing dimensions of camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Blocking Light For Cameras (AREA)

Description

本開示は、撮像装置、および撮像方法に関し、特に、高価な大口径のレンズを用いることなく、明るい画像を撮像できるようにした撮像装置、および撮像方法に関する。 TECHNICAL FIELD The present disclosure relates to an imaging device and an imaging method, and more particularly to an imaging device and an imaging method capable of capturing a bright image without using an expensive large-aperture lens.

撮像装置における光学的な効率(光利用効率)は、レンズのサイズを大きくすることで、向上させることができる。 Optical efficiency (light utilization efficiency) in an imaging device can be improved by increasing the size of the lens.

しかしながら、レンズのサイズを大きくするほど、レンズのコストが増大し、特に、赤外光のレンズにおいては、コストの増大が大きい。 However, as the size of the lens increases, the cost of the lens increases, and the increase in cost is particularly large for lenses for infrared light.

そこで、レンズのサイズを大きくさせることなく、光利用効率を向上させる技術として、被写体からの入射光を平面ミラーにより分割し、撮像素子上の複数の領域に分割して複数の画像として投影させ、それぞれ独立したフィルタ処理を施した後、複数の画像を利用して画像を再構成することで、光利用効率の高い画像を生成する技術が提案されている(特許文献1参照)。 Therefore, as a technology to improve the light utilization efficiency without increasing the size of the lens, the incident light from the subject is split by a plane mirror, divided into multiple areas on the image sensor, and projected as multiple images. A technique has been proposed for generating an image with high light utilization efficiency by reconstructing an image using a plurality of images after performing independent filter processing (see Patent Document 1).

米国公開公報2016/0065938号U.S. Publication No. 2016/0065938

しかしながら、特許文献1の技術において、再構成される画像は、撮像素子の解像度の一部の画像から生成されるため、解像度が低下してしまう。 However, in the technique disclosed in Patent Document 1, the reconstructed image is generated from a part of the image having the resolution of the imaging device, so the resolution is degraded.

本開示は、このような状況に鑑みてなされたものであり、特に、高価な大口径のレンズを用いることなく、明るい画像を撮像できるようにする。 The present disclosure has been made in view of such circumstances, and in particular, enables a bright image to be captured without using an expensive large-aperture lens.

本開示の第1の側面の撮像装置は、被写体からの入射光を撮像素子に誘導する誘導部と、前記誘導部により誘導された入射光を変調する変調部と、前記変調部により変調された前記入射光を画素信号として前記撮像素子により撮像する撮像部と、前記被写体までの距離毎に、前記変調部により変調された前記入射光の前記撮像素子への入射角度に応じて設定される係数セットを用いて、前記画素信号を信号処理により最終画像として再構成する信号処理部とを含む撮像装置である。 An imaging device according to a first aspect of the present disclosure includes a guiding section that guides incident light from a subject to an imaging element, a modulating section that modulates the incident light guided by the guiding section, and an imaging unit that captures an image of the incident light as a pixel signal by the imaging element ; and a coefficient that is set according to the incident angle of the incident light to the imaging element that has been modulated by the modulating unit for each distance to the subject. and a signal processing unit that reconstructs the pixel signals as a final image by signal processing using the set .

本開示の第1の側面の撮像方法は、被写体からの入射光を撮像素子に誘導する誘導処理と、前記誘導処理により誘導された入射光を変調する変調処理と、前記変調処理により変調された前記入射光を画素信号として前記撮像素子により撮像する撮像処理と、前記被写体までの距離毎に、前記変調処理により変調された前記入射光の前記撮像素子への入射角度に応じて設定される係数セットを用いて、前記画素信号を信号処理により最終画像として再構成する信号処理とを含む撮像方法である。 An imaging method according to a first aspect of the present disclosure includes a guiding process for guiding incident light from a subject to an imaging device, a modulation process for modulating the incident light guided by the guiding process, and Imaging processing for imaging the incident light as a pixel signal by the imaging device , and a coefficient set according to an incident angle of the incident light to the imaging device modulated by the modulation processing for each distance to the subject. and signal processing for reconstructing the pixel signals as a final image by signal processing using the set .

本開示の第1の側面においては、被写体からの入射光が撮像素子に誘導され、誘導された入射光が変調され、変調された前記入射光が画素信号として前記撮像素子により撮像され、前記被写体までの距離毎に、変調された前記入射光の前記撮像素子への入射角度に応じて設定される係数セットが用いられて、前記画素信号が信号処理により最終画像として再構成される。
本開示の第2の側面の撮像装置は、被写体からの入射光を撮像素子に誘導する誘導部と、前記誘導部により誘導された入射光を変調する変調部と、前記変調部により変調された前記入射光を画素信号として撮像する撮像部と、前記画素信号を信号処理により最終画像として再構成する信号処理部とを含み、前記変調部は、前記誘導部により誘導された前記入射光を集光するレンズと、前記レンズにより集光された入射光を反射して、前記撮像部に誘導する筒状の鏡面からなる筒状鏡面とを含む撮像装置である。
本開示の第2の側面においては、被写体からの入射光が撮像素子に誘導され、誘導された入射光が変調され、変調された前記入射光が画素信号として撮像され、前記画素信号が信号処理により最終画像として再構成され、レンズにより、誘導された前記入射光が集光され、筒状鏡面により、前記レンズにより集光された入射光が反射されて、前記撮像部に誘導される。
In a first aspect of the present disclosure, incident light from a subject is guided to an imaging device, the guided incident light is modulated, the modulated incident light is imaged by the imaging device as pixel signals, and the subject is The pixel signals are reconstructed as a final image by signal processing using a coefficient set that is set according to the incident angle of the modulated incident light to the imaging element for each distance to.
An imaging device according to a second aspect of the present disclosure includes a guiding section that guides incident light from a subject to an imaging element, a modulating section that modulates the incident light guided by the guiding section, and and a signal processing unit for reconstructing the pixel signals into a final image by signal processing. The modulating unit collects the incident light guided by the guiding unit. The imaging device includes a lens that emits light, and a cylindrical mirror surface that reflects incident light condensed by the lens and guides the incident light to the imaging unit.
In a second aspect of the present disclosure, incident light from a subject is guided to an imaging device, the guided incident light is modulated, the modulated incident light is imaged as a pixel signal, and the pixel signal is subjected to signal processing. The light is reconstructed as a final image by the lens, and the guided incident light is collected by the lens, and the incident light collected by the lens is reflected by the cylindrical mirror surface and guided to the imaging unit.

本開示の一側面によれば、特に、高価な大口径のレンズを用いることなく、明るい画像を撮像することが可能となる。 According to one aspect of the present disclosure, it is possible to capture a bright image without using an expensive large-aperture lens.

一般的な撮像装置の構成例を説明する図である。It is a figure explaining the structural example of a general imaging device. 図1の撮像装置における撮像原理を説明する図である。2 is a diagram for explaining the principle of imaging in the imaging device of FIG. 1; FIG. 本開示の撮像装置の第1の実施の形態の構成例を説明する外観斜視図である。1 is an external perspective view illustrating a configuration example of an imaging device according to a first embodiment of the present disclosure; FIG. 本開示の撮像装置の第1の実施の形態の構成例を説明する側面断面図である。BRIEF DESCRIPTION OF THE DRAWINGS It is side sectional drawing explaining the structural example of 1st Embodiment of the imaging device of this indication. 図3,図4の撮像装置の撮像原理を説明する図である。5 is a diagram for explaining the imaging principle of the imaging device of FIGS. 3 and 4; FIG. 再構成の原理を説明する図である。It is a figure explaining the principle of reconstruction. 図3,図4の撮像装置による撮像処理を説明するフローチャートである。FIG. 5 is a flowchart for explaining imaging processing by the imaging device of FIGS. 3 and 4; FIG. 本開示の第1の実施の形態の変形例を説明する図である。It is a figure explaining the modification of the 1st embodiment of this indication. 本開示の撮像装置の第2の実施の形態の構成例を説明する外観斜視図である。FIG. 10 is an external perspective view illustrating a configuration example of a second embodiment of an imaging device of the present disclosure; 本開示の撮像装置の第2の実施の形態の構成例を説明する側面断面図である。FIG. 10 is a side cross-sectional view illustrating a configuration example of a second embodiment of an imaging device of the present disclosure; 図9,図10により撮像される被写体面、撮像素子により撮像される画像、および、再構成される最終画像を説明する図である。11A and 11B are diagrams for explaining a subject plane imaged in FIGS. 9 and 10, an image imaged by an imaging element, and a reconstructed final image; FIG. 本開示の撮像装置の第2の実施の形態の構成例を説明する側面断面図である。FIG. 10 is a side cross-sectional view illustrating a configuration example of a second embodiment of an imaging device of the present disclosure; 鏡面の開口角と光利用効率との関係を説明する図である。It is a figure explaining the relationship between the aperture angle of a mirror surface, and light utilization efficiency. 鏡面の開口角と光利用効率との関係を説明する図である。It is a figure explaining the relationship between the aperture angle of a mirror surface, and light utilization efficiency. 図9,図10の撮像装置による撮像処理を説明するフローチャートである。FIG. 11 is a flowchart for explaining imaging processing by the imaging device of FIGS. 9 and 10; FIG. 本開示の第2の実施の形態の変形例を説明する図である。It is a figure explaining the modification of the 2nd Embodiment of this indication.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. In the present specification and drawings, constituent elements having substantially the same functional configuration are denoted by the same reference numerals, thereby omitting redundant description.

以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.一般的な撮像装置
2.第1の実施の形態
3.第1の実施の形態の変形例
4.第2の実施の形態
5.第2の実施の形態の変形例
Embodiments for implementing the present technology will be described below. The explanation is given in the following order.
1. General imaging device 2 . First embodiment 3. Modified example of the first embodiment 4. Second embodiment 5. Modified example of the second embodiment

<<1.一般的な撮像装置>>
<一般的な撮像装置の構成>
本開示の構成について説明する前に、一般的な撮像装置の構成について説明する。
<<1. General imaging device>>
<Composition of general imaging device>
Before describing the configuration of the present disclosure, the configuration of a general imaging device will be described.

図1は、一般的な撮像装置の構成における側面断面図である。図1の撮像装置11は、レンズ31、撮像素子32、および出力部33を備えており、それらが一体となってケース21に内蔵されている。 FIG. 1 is a side cross-sectional view of the configuration of a general imaging device. The imaging device 11 of FIG. 1 includes a lens 31, an imaging element 32, and an output unit 33, which are integrally housed in the case 21. As shown in FIG.

レンズ31は、視野(FOV:Field Of View)内の入射光を集光して、撮像素子32の撮像面において合焦させる。より詳細には、レンズ31は、撮像素子32に対して画角θにおける視野FOV内の光を集光して投影し、撮像素子32の撮像面において結像させる。 The lens 31 collects incident light within a field of view (FOV) and focuses it on the imaging surface of the imaging device 32 . More specifically, the lens 31 converges and projects the light within the field of view FOV at the angle of view θ onto the imaging element 32 to form an image on the imaging plane of the imaging element 32 .

撮像素子32は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサやCCD(Charge Coupled Device)イメージセンサからなり、レンズ31を介して集光されて結像された像を撮像し、画素単位の信号として出力部33に出力する。 The imaging device 32 is composed of a CMOS (Complementary Metal Oxide Semiconductor) image sensor or a CCD (Charge Coupled Device) image sensor, captures an image formed by condensing light through the lens 31, and outputs it as a signal for each pixel. Output to unit 33 .

出力部33は、撮像素子32より出力される画素単位の信号に基づいて、信号処理を施して、画像信号として出力する。 The output unit 33 performs signal processing based on the pixel-by-pixel signal output from the imaging device 32 and outputs the processed signal as an image signal.

尚、レンズ31および撮像素子32のそれぞれの光の透過方向に対する中心位置が、光軸AXに位置合わせがなされている。 The center positions of the lens 31 and the imaging element 32 with respect to the light transmission direction are aligned with the optical axis AX.

<一般的な撮像装置の撮像原理>
次に、図2を参照して、図1の撮像装置11の撮像の原理について説明する。尚、図2においては、撮像装置11の構成のうち、説明に必要とされるレンズ31、撮像素子32、および出力部33のみが示されている。
<Image pickup principle of general image pickup device>
Next, with reference to FIG. 2, the principle of imaging by the imaging device 11 of FIG. 1 will be described. 2, only the lens 31, the image sensor 32, and the output unit 33, which are required for explanation, are shown in the configuration of the imaging device 11. As shown in FIG.

撮像装置11の撮像位置から、所定の距離であって、光軸AXに対して垂直な、被写体が存在する面を、被写体面Sとして定義し、被写体面S上の点P,Qについて考える。 A plane on which an object exists, which is a predetermined distance from the imaging position of the imaging device 11 and is perpendicular to the optical axis AX, is defined as an object plane S, and points P and Q on the object plane S are considered.

被写体面S上における点Pが点光源である場合、点光源である点Pより発せられる拡散光は、実線で示されるようにレンズ31を透過して、撮像素子32の撮像面において集光されて点P’に入射する。 When the point P on the object plane S is a point light source, the diffused light emitted from the point P, which is the point light source, passes through the lens 31 as indicated by the solid line and is condensed on the imaging surface of the imaging element 32. is incident on the point P'.

同様に、点光源である点Qより発せられる拡散光は、点線で示されるようにレンズ31を透過して、撮像素子32の撮像面において集光されて点Q’に入射する。 Similarly, diffused light emitted from point Q, which is a point light source, passes through lens 31 as indicated by the dotted line, is condensed on the imaging surface of imaging element 32, and enters point Q'.

また、その他の点についても同様に、レンズ31により集光されて、撮像素子32上の撮像面上に入射する。 Similarly, other points are condensed by the lens 31 and incident on the imaging surface of the imaging element 32 .

すなわち、レンズ31は、被写体面S状の各点光源からの拡散光を集光して、撮像素子32の撮像面の対応する点に集光するようにして、結像させる。 That is, the lens 31 converges the diffused light from each point light source on the object surface S, converges the light on the corresponding point on the imaging surface of the imaging element 32, and forms an image.

これにより、撮像素子32の撮像面においては、被写体面Sの像が投影されることになり、結果として、撮像素子32により被写体面の画像が撮像される。 As a result, the image of the subject plane S is projected onto the imaging plane of the imaging element 32 , and as a result, the imaging element 32 captures an image of the subject plane.

すなわち、被写体面S上の点と、撮像素子32の撮像面上の点とは、1対1の対応となる。このため、光利用効率を向上させるためには、各点光源から発せられる拡散光をより多くレンズ31に入射させて集光させる必要があるので、レンズ31を大径化する必要がある。 That is, points on the object plane S and points on the imaging plane of the imaging device 32 have a one-to-one correspondence. For this reason, in order to improve the light utilization efficiency, it is necessary to allow more diffused light emitted from each point light source to enter the lens 31 and condense it, so the diameter of the lens 31 must be increased.

しかしながら、レンズ31の大径化は、コストを増大させるだけでなく、レンズ31の大径化に伴って装置構成を大型化させ、携帯性を低減させる。 However, increasing the diameter of the lens 31 not only increases the cost, but also increases the size of the device configuration and reduces the portability.

<<2.第1の実施の形態>>
次に、図3,図4を参照して、本開示の撮像装置の第1の実施の形態の構成例について説明する。尚、図3は、撮像装置41の概観斜視図であり、図4は、側面断面図である。
<<2. First Embodiment>>
Next, a configuration example of the imaging device according to the first embodiment of the present disclosure will be described with reference to FIGS. 3 and 4. FIG. 3 is a schematic perspective view of the imaging device 41, and FIG. 4 is a side cross-sectional view.

図3,図4の撮像装置41は、円錐台型鏡面51、ランダムマスク52、撮像素子53、再構成部54、および出力部55を備えている。 The imaging device 41 of FIGS. 3 and 4 includes a truncated cone-shaped mirror surface 51 , a random mask 52 , an imaging element 53 , a reconstruction section 54 and an output section 55 .

円錐台型鏡面51は、円錐台状に形成された構成の内側が曲面状の鏡面とされ、大開口部51aと、大開口部51aよりも小口径の小開口部51bが設けられ、大開口部51aおよび小開口部51bのそれぞれの中心位置が光軸AXに合わせられた状態とされる。 The truncated cone-shaped mirror surface 51 is formed into a truncated cone shape and has a curved mirror surface on the inner side. The respective center positions of the portion 51a and the small opening portion 51b are aligned with the optical axis AX.

また、大開口部51aには、被写体面G1からの入射光が入射し、小口径の開口部51bに設けられたランダムマスク52を介して撮像素子53に入射する。小開口部51bは、ランダムマスク52および撮像素子53と略同サイズであるが、小開口部51b内に、ランダムマスク52および撮像素子53が全て内包される大きさである。 In addition, incident light from the subject plane G1 enters the large aperture 51a and enters the imaging element 53 through the random mask 52 provided in the small aperture 51b. The small opening 51b has substantially the same size as the random mask 52 and the imaging element 53, but is large enough to contain the random mask 52 and the imaging element 53 in the small opening 51b.

より詳細には、被写体面G1の点Pからの入射光の光路には、図5の実線で示されるように、大開口部51aを通過した後、直接ランダムマスク52を介して撮像素子53上の点P’に入射する光路と、図5の一点鎖線および点線で示されるように、開口部51aを通過した後、鏡面51に反射してから、ランダムマスク52を介して撮像素子53の点P’に入射する光路とが存在する。 More specifically, as shown by the solid line in FIG. 5, the optical path of the incident light from the point P on the object plane G1 passes through the large opening 51a, passes through the random mask 52, and passes directly onto the imaging device 53. , and after passing through the opening 51a and being reflected on the mirror surface 51, as indicated by the dashed line and the dotted line in FIG. There is an optical path incident on P'.

すなわち、図3,図4の撮像装置41においては、点Pからの拡散光のうち、円錐台型鏡面51が設けられていなければ、撮像素子53に入射することのない光が、円錐台型鏡面51により反射されることにより、仮想点P1からの拡散光として、撮像素子53上における点P’に入射される。 That is, in the imaging device 41 of FIGS. 3 and 4, among the diffused light from the point P, the light that would not enter the imaging device 53 if the truncated cone-shaped mirror surface 51 was not provided is a truncated cone-shaped light. By being reflected by the mirror surface 51, the light is incident on a point P' on the imaging element 53 as diffused light from the virtual point P1.

結果として、円錐台型鏡面51が設けられることにより、光利用効率を向上させることが可能となる。 As a result, provision of the truncated cone-shaped mirror surface 51 makes it possible to improve the light utilization efficiency.

具体的な、光の集光能力は、円錐台型鏡面51が設けられていない場合と比べて、ほぼ(大開口部51aの面積)/(大開口部51b面積)倍となる。すなわち、小開口部51bに対して、大開口部51aが、例えば、5倍の面積である場合、ランダムマスク52を介して撮像素子53に入射される光量は、円錐台型鏡面51が設けられていないときの光量に比べて、ほぼ5倍となる。つまり、この場合、撮像装置41は、5倍明るい画像を撮像することができる。 Specifically, the light condensing ability is approximately (area of the large opening 51a)/(area of the large opening 51b) times that of the case where the truncated cone-shaped mirror surface 51 is not provided. That is, when the large opening 51a has an area, for example, five times the area of the small opening 51b, the amount of light incident on the imaging device 53 through the random mask 52 is The amount of light is approximately five times the amount of light when it is not on. That is, in this case, the imaging device 41 can capture an image five times brighter.

ランダムマスク52は、円錐台型鏡面51を介して被写体面G1から入射される光を変調させて撮像素子53の撮像面に入射させる。 The random mask 52 modulates the light incident from the subject plane G<b>1 via the truncated cone-shaped mirror surface 51 and causes the light to enter the imaging plane of the imaging element 53 .

ここで、ランダムマスク52においては、図3の右上部で示されるように、開口部と遮光部とが、単位サイズΔで水平方向および垂直方向について、大きさがランダムに設定されることにより、マスクパターンが形成される。 Here, in the random mask 52, as shown in the upper right part of FIG. A mask pattern is formed.

単位サイズΔは、少なくとも撮像素子53の画素サイズよりも大きいサイズである。また、撮像素子53とランダムマスク52との間には、微小な距離dの隙間が設けられている。 The unit size Δ is at least larger than the pixel size of the image sensor 53 . A small gap of distance d is provided between the imaging element 53 and the random mask 52 .

例えば、図6の左上部で示されるように、被写体面G1上の点光源PA,PB,PCから、ランダムマスク52を透過して入射する撮像素子53上の位置Pa,Pb,Pcのそれぞれに光強度a,b,cの光線が入射するものとする。 For example, as shown in the upper left part of FIG. 6, from the point light sources PA, PB, and PC on the object plane G1, each of the positions Pa, Pb, and Pc on the imaging element 53 that is incident after passing through the random mask 52. Assume that rays of light intensities a, b, and c are incident.

図6の左上部で示されるように、各画素の検出感度は、ランダムマスク52に、ランダムに設定される開口部より入射光が変調されることにより、入射角に応じた指向性を持つことになる。ここでいう各画素の検出感度に入射角指向性を持たせるとは、撮像素子53上の領域に応じて入射光の入射角度に応じた受光感度特性を異なるものとなるように持たせることである。 As shown in the upper left part of FIG. 6, the detection sensitivity of each pixel has directivity according to the incident angle by modulating the incident light through the randomly set apertures in the random mask 52. become. Giving incident angle directivity to the detection sensitivity of each pixel referred to here means giving different light receiving sensitivity characteristics according to the incident angle of incident light depending on the area on the image sensor 53 . be.

すなわち、被写体面G1を構成する光源が点光源であることを前提とした場合、撮像素子53においては、同一の点光源より発せられた同一の光強度の光線が、入射されることになるが、ランダムマスク52により変調されることにより、撮像素子53の撮像面上の領域毎に入射角度が変化する。そして、ランダムマスク52により撮像素子53上の領域に応じて入射光の入射角度が変化することにより受光感度特性、すなわち、入射角指向性を有しているので、同一の光強度の光線であっても、撮像素子53の撮像面の前段に設けられたランダムマスク52により撮像素子53上の領域毎に異なる感度で検出されることになり、領域毎に異なる検出信号レベルの検出信号が検出される。 That is, assuming that the light source constituting the object plane G1 is a point light source, light rays with the same light intensity emitted from the same point light source are incident on the imaging device 53. , the incident angle changes for each area on the imaging surface of the imaging device 53 by being modulated by the random mask 52 . Since the random mask 52 changes the incident angle of the incident light according to the area on the image sensor 53, the light receiving sensitivity characteristic, that is, the incident angle directivity, is obtained. However, the random mask 52 provided in front of the image pickup surface of the image pickup device 53 detects with different sensitivities for each region on the image pickup device 53, and detection signals with different detection signal levels are detected for each region. be.

より具体的には、図6の右上部で示されるように、撮像素子53上の位置Pa,Pb,Pcにおける画素の検出信号レベルDA,DB,DCは、それぞれ以下の式(1)乃至式(3)で表される。 More specifically, as shown in the upper right part of FIG. 6, detection signal levels DA, DB, and DC of pixels at positions Pa, Pb, and Pc on the image sensor 53 are expressed by the following equations (1) to (3).

DA=α1×a+β1×b+γ1×c
・・・(1)
DB=α2×a+β2×b+γ2×c
・・・(2)
DC=α3×a+β3×b+γ3×c
・・・(3)
DA=α1×a+β1×b+γ1×c
... (1)
DB=α2×a+β2×b+γ2×c
... (2)
DC=α3×a+β3×b+γ3×c
... (3)

ここで、α1は、撮像素子53上の位置Paにおける復元する被写体面G1上の点光源PAからの光線の入射角度に応じて設定される検出信号レベルaに対する係数である。尚、点光源PAからの光線は、直接撮像素子53に入射するものと、円錐台型鏡面51において反射するものとの両方を含む。 Here, α1 is a coefficient for the detection signal level a set according to the incident angle of the light beam from the point light source PA on the object plane G1 to be restored at the position Pa on the imaging device 53 . The light rays from the point light source PA include both those that are directly incident on the imaging element 53 and those that are reflected by the truncated cone-shaped mirror surface 51 .

また、β1は、撮像素子53上の位置Paにおける復元する被写体面G1上の点光源PBからの光線の入射角度に応じて設定される検出信号レベルbに対する係数である。尚、点光源PBからの光線は、直接撮像素子53に入射するものと、円錐台型鏡面51において反射するものとの両方を含む。 β1 is a coefficient for the detection signal level b that is set according to the incident angle of the light beam from the point light source PB on the object plane G1 to be restored at the position Pa on the imaging device 53 . The light rays from the point light source PB include both those that directly enter the imaging element 53 and those that are reflected by the truncated cone-shaped mirror surface 51 .

さらに、γ1は、撮像素子53上の位置Paにおける復元する被写体面G1上の点光源PCからの光線の入射角度に応じて設定される検出信号レベルcに対する係数である。尚、点光源PCからの光線は、直接撮像素子53に入射するものと、円錐台型鏡面51において反射するものとの両方を含む。 Furthermore, γ1 is a coefficient for the detection signal level c set according to the incident angle of the light beam from the point light source PC on the object plane G1 to be restored at the position Pa on the image sensor 53 . The light rays from the point light source PC include both those that directly enter the imaging device 53 and those that are reflected by the truncated cone-shaped mirror surface 51 .

従って、検出信号レベルDAのうちの(α1×a)は、位置Pcにおける点光源PAからの光線による検出信号レベルを示したものである。 Therefore, (α1×a) of the detection signal level DA indicates the detection signal level due to the light beam from the point light source PA at the position Pc.

また、検出信号レベルDAのうちの(β1×b)は、位置Pcにおける点光源PBからの光線による検出信号レベルを示したものである。 Also, (β1×b) of the detection signal level DA indicates the detection signal level due to the light beam from the point light source PB at the position Pc.

さらに、検出信号レベルDAのうちの(γ1×c)は、位置Pcにおける点光源PCからの光線による検出信号レベルを示したものである。 Further, (γ1×c) of the detection signal level DA indicates the detection signal level due to the light beam from the point light source PC at the position Pc.

従って、検出信号レベルDAは、位置Paにおける点光源PA,PB,PCの各成分に、それぞれの係数α1,β1,γ1を掛けたものの合成値として表現される。以降、係数α1、β1、γ1を合わせて係数セットと呼ぶこととする。 Therefore, the detection signal level DA is expressed as a composite value obtained by multiplying each component of the point light sources PA, PB, and PC at the position Pa by respective coefficients α1, β1, and γ1. Hereinafter, the coefficients α1, β1, and γ1 are collectively referred to as a coefficient set.

同様に、点光源PBにおける検出信号レベルDBについて、係数セットα2,β2,γ2は、それぞれ点光源PAにおける検出信号レベルDAについての、係数セットα1,β1,γ1に対応するものである。また、点光源PCにおける検出信号レベルDCについて、係数セットα3,β3,γ3は、それぞれ点光源PAにおける検出信号レベルDAについての、係数セットα1,β1,γ1に対応するものである。 Similarly, the coefficient sets α2, β2, γ2 for the detected signal level DB at the point light source PB correspond to the coefficient sets α1, β1, γ1 for the detected signal level DA at the point light source PA, respectively. Also, the coefficient sets α3, β3, γ3 for the detection signal level DC at the point light source PC correspond to the coefficient sets α1, β1, γ1 for the detection signal level DA at the point light source PA, respectively.

ただし、位置Pa,Pb,Pcの画素の検出信号レベルについては、点光源PA,PB,PCのそれぞれより発せられた光線の光強度a,b,cと係数との積和により表現される値である。このため、これらの検出信号レベルは、点光源PA,PB,PCのそれぞれより発せられた光線の光強度a,b,cが入り交じったものとなるので、被写体の像が結像されたものとは異なるものである。尚、この位置Pa,Pb,Pcの画素の検出信号レベルDA,DB,DBからなる画像が、図3の画像G2に対応する。 However, the detection signal levels of the pixels at the positions Pa, Pb, and Pc are values expressed by the product sum of the light intensities a, b, and c of the light beams emitted from the point light sources PA, PB, and PC, respectively, and the coefficients. is. For this reason, these detection signal levels are a mixture of the light intensities a, b, and c of the light beams emitted from the point light sources PA, PB, and PC, respectively. is different from An image composed of detection signal levels DA, DB, and DB of pixels at positions Pa, Pb, and Pc corresponds to image G2 in FIG.

すなわち、この係数セットα1,β1,γ1,係数セットα2,β2,γ2,係数セットα3,β3,γ3と、検出信号レベルDA,DB,DCを用いた連立方程式を構成し、光強度a,b,cを解くことで、図6の右下部で示されるように各位置Pa,Pb,Pcの画素値を求める。これにより画素値の集合である復元画像(最終画像)が再構成されて復元される。 That is, a set of coefficients α1, β1, γ1, a set of coefficients α2, β2, γ2, a set of coefficients α3, β3, γ3, and detection signal levels DA, DB, DC are used to construct simultaneous equations, and light intensities a, b , c, the pixel values of the respective positions Pa, Pb, and Pc are obtained as shown in the lower right part of FIG. As a result, a restored image (final image), which is a set of pixel values, is reconstructed and restored.

また、図6の左上部で示される撮像素子53と被写体面G1との距離が変化する場合、係数セットα1,β1,γ1,係数セットα2,β2,γ2,係数セットα3,β3,γ3は、それぞれ変化することになるが、この係数セットを変化させることで、様々な距離の被写体面の復元画像(最終画像)を再構成させることができる。 Also, when the distance between the imaging device 53 and the object plane G1 shown in the upper left part of FIG. By changing this coefficient set, it is possible to reconstruct restored images (final images) of object planes at various distances.

このため、1回の撮像により、係数セットを様々な距離に対応するものに変化させることで、撮像位置から様々な距離の被写体面の画像を再構成することができる。 Therefore, by changing the coefficient set to correspond to various distances in one imaging, images of the object plane at various distances from the imaging position can be reconstructed.

結果として、図3,図4の撮像装置41を用いた撮像においては、レンズを用いた撮像装置11での撮像において合焦点がずれた状態で撮像される、いわゆる、ピンぼけといった現象を意識する必要がなく、視野FOV内に撮像したい被写体が含まれるように撮像されていれば、距離に応じた係数セットを変化させることで様々な距離の被写体面の画像を、撮像後に再構成することができる。 As a result, in imaging using the imaging device 41 of FIGS. 3 and 4, it is necessary to be aware of a phenomenon such as so-called out-of-focus, in which imaging is performed with the imaging device 11 using a lens in an out-of-focus state. If the image is captured so that the desired subject is included in the field of view FOV, images of the subject plane at various distances can be reconstructed after imaging by changing the coefficient set according to the distance. .

尚、図6の右上部で示される検出信号レベルは、被写体の像が結像された画像に対応する検出信号レベルではないので、画素値ではない。また、図6の右下部で示される検出信号レベルは、被写体の像が結像された画像に対応する画素毎の信号値、すなわち、復元画像(最終画像)の各画素の値なので、画素値となる。すなわち、この被写体面G1の復元画像(最終画像)が、画像G3に対応する。 Note that the detection signal level shown in the upper right portion of FIG. 6 is not the detection signal level corresponding to the image in which the image of the object is formed, and therefore is not the pixel value. Also, the detection signal level shown in the lower right part of FIG. becomes. That is, the restored image (final image) of this object plane G1 corresponds to the image G3.

このような構成により、撮像装置41は、いわゆるレンズレスの撮像装置として機能させることが可能となる。結果として、撮像レンズが必須構成とならないので、撮像装置の低背化、すなわち、撮像機能を実現する構成における光の入射方向に対する厚さを薄くすることが可能になる。また、係数セットを様々に変化させることにより、様々な距離の被写体面における最終画像(復元画像)を再構成して復元することが可能となる。 Such a configuration enables the imaging device 41 to function as a so-called lensless imaging device. As a result, since the imaging lens is not an essential component, it is possible to reduce the height of the imaging device, that is, to reduce the thickness in the light incident direction in the configuration that realizes the imaging function. Also, by varying the coefficient set, it is possible to reconstruct and restore the final image (restored image) on the object plane at various distances.

尚、以降においては、撮像素子53により撮像された、再構成される前の画像を単に撮像画像と称し、撮像画像が信号処理されることにより再構成されて復元される画像を最終画像(復元画像)と称する。従って、1枚の撮像画像からは、上述した係数セットを様々に変化させることにより、様々な距離の被写体面G1上の画像を最終画像として再構成させることができる。 Hereinafter, the image captured by the image pickup device 53 before reconstruction will be simply referred to as the captured image, and the image reconstructed and restored by signal processing the captured image will be referred to as the final image (restored image). image). Therefore, from one shot image, by variously changing the coefficient set described above, images on the object plane G1 at various distances can be reconstructed as the final image.

再構成部54は、上述した係数セットを備えており、撮像装置41の撮像位置から被写体面G1までの距離に応じて係数セットを用いて、撮像素子53により撮像された撮像画像に基づいて、最終画像(復元画像)を再構成して出力部55に出力する。 The reconstruction unit 54 has the above-described coefficient set, and uses the coefficient set according to the distance from the imaging position of the imaging device 41 to the object plane G1, based on the captured image captured by the imaging device 53, The final image (restored image) is reconstructed and output to the output unit 55 .

出力部55は、再構成部54より供給されてきた最終画像に信号処理を加えて画像信号として出力する。 The output unit 55 applies signal processing to the final image supplied from the reconstruction unit 54 and outputs the result as an image signal.

<図3,図4の撮像装置による撮像処理>
次に、図7のフローチャートを参照して、図3,図4の撮像装置41による撮像処理について説明する。
<Imaging Processing by the Imaging Apparatuses in FIGS. 3 and 4>
Next, imaging processing by the imaging device 41 of FIGS. 3 and 4 will be described with reference to the flowchart of FIG.

ステップS11において、円錐台型鏡面51は、被写体面G1からの光を集光して、ランダムマスク52に透過させる。 In step S<b>11 , the truncated cone-shaped mirror surface 51 collects the light from the object plane G<b>1 and transmits the light to the random mask 52 .

ステップS12において、ランダムマスク52は、鏡面51により集光された被写体面G1からの光に変調を掛けて、撮像素子53に入射させる。 In step S<b>12 , the random mask 52 modulates the light from the subject plane G<b>1 condensed by the mirror surface 51 and causes the light to enter the imaging element 53 .

ステップS13において、撮像素子53は、被写体面G1からの光であって、円錐台型鏡面51により集光され、さらに、ランダムマスク52により変調が掛けられた光からなる像を撮像して、撮像画像として再構成部54に出力する。すなわち、この場合、図3の被写体面G1の画像が、円錐台型鏡面51により集光されて、ランダムマスク52により変調が加えられることにより、例えば、撮像素子53は、画像G2で示されるような撮像画像として撮像する。すなわち、画像G2は、被写体面G1における各点を点光源とする拡散光が円錐台型鏡面51により集光されて、撮像素子53の様々な画素に拡散した状態で受光され、さらに、画素単位で、様々な光が重畳されることにより、各画素の画素値が平滑化され、全体としてボヤっとした撮像画像G2として撮像される。 In step S13, the image sensor 53 captures an image of light from the object plane G1, which is condensed by the truncated cone mirror surface 51 and modulated by the random mask 52. It is output to the reconstruction unit 54 as an image. That is, in this case, the image of the object plane G1 in FIG. captured as a captured image. That is, the image G2 is obtained by collecting diffused light from each point on the object plane G1 as a point light source by the truncated cone-shaped mirror surface 51 and receiving the light in a state of being diffused to various pixels of the imaging device 53. Then, by superimposing various lights, the pixel value of each pixel is smoothed, and a blurry captured image G2 is captured as a whole.

ステップS14において、再構成部54は、撮像素子53より出力される変調された光からなる像が撮像された撮像画像である画像G2に基づいて、撮像装置41の撮像位置から被写体面G1までの距離に応じた所定の係数セットを用いて、画像を再構成して最終画像(復元画像)として出力部55に出力する。すなわち、画像G2に対して、上述した式(1)乃至式(3)を参照して説明した係数セットを用いた連立方程式を構成して解くことにより、例えば、画像G3で示されるような最終画像(復元画像)が求められることになる。 In step S14, the reconstruction unit 54 calculates the distance from the imaging position of the imaging device 41 to the object plane G1 based on the image G2, which is a captured image in which the image formed by the modulated light output from the imaging element 53 is captured. Using a predetermined coefficient set according to the distance, the image is reconstructed and output to the output unit 55 as a final image (restored image). That is, for image G2, by constructing and solving simultaneous equations using the coefficient set described with reference to equations (1) to (3) above, the final An image (restored image) is required.

ステップS15において、出力部55は、信号処理を施して、画像信号として出力する。 In step S15, the output unit 55 performs signal processing and outputs an image signal.

すなわち、以上の一連の処理により、円錐台型鏡面51を用いることで、高価なレンズを用いることなく、光利用効率を高めることが可能となる。また、レンズを用いることなく、ランダムマスクを用いて変調を掛けた後、係数セットを用いて最終画像(復元画像)を再構成するようにしたので、低背化を実現することが可能となる。 That is, by using the truncated cone-shaped mirror surface 51 through the series of processes described above, it is possible to increase the light utilization efficiency without using an expensive lens. In addition, since a final image (restored image) is reconstructed using a coefficient set after modulation is applied using a random mask without using a lens, it is possible to achieve a low profile. .

尚、ランダムマスク52は、入射光を変調するものであるので、入射光を変調できるパターンマスクなどの構成であれば、他の構成であってもよく、例えば、回折格子や拡散板であってもよい。 Since the random mask 52 modulates the incident light, it may have another configuration as long as it is a pattern mask that can modulate the incident light. For example, it may be a diffraction grating or a diffusion plate. good too.

<<3.第1の実施の形態の変形例>>
以上においては、曲面状の鏡面からなる円錐台型鏡面51により構成される例について説明してきたが、曲面状の鏡面に代えて、平面状の鏡面により構成されるようにしてもよい。
<<3. Modified example of the first embodiment >>
In the above description, an example in which the truncated conical mirror surface 51 is formed of a curved mirror surface has been described, but instead of the curved mirror surface, a planar mirror surface may be used.

図8は、曲面状の鏡面からなる円錐台型鏡面51に代えて、4枚の平面状の鏡面からなる角錐台型鏡面71を設けるようにした第1の実施の形態の撮像装置11の変形例の構成例が示されている。 FIG. 8 shows a modification of the imaging device 11 of the first embodiment, in which instead of the truncated cone mirror surface 51 composed of curved mirror surfaces, a truncated pyramid mirror surface 71 composed of four flat mirror surfaces is provided. An example configuration is shown.

図8の角錐台型鏡面71は、4枚の平面鏡71p乃至71sが設けられており、被写体面G11からの入射光が入射する大開口部71aは、ランダムマスク52、および撮像素子53が設けられる小開口部71bよりも大きく構成される。 The truncated pyramid-shaped mirror surface 71 in FIG. 8 is provided with four plane mirrors 71p to 71s, and the random mask 52 and the imaging device 53 are provided in the large opening 71a through which the incident light from the object surface G11 is incident. It is configured to be larger than the small opening 71b.

図8の撮像装置41においても、小開口部71bの面積に対する大開口部71aの面積の倍率に応じて、光利用効率を増大させることが可能となる。 Also in the imaging device 41 of FIG. 8, it is possible to increase the light utilization efficiency according to the magnification of the area of the large opening 71a with respect to the area of the small opening 71b.

尚、角錐台型鏡面71を用いる場合、平面状の鏡面が用いられることにより、上述した行列による定義がし易くなるので、再構成部54の演算における負荷を低減させることが可能となる。 When the truncated pyramidal mirror surface 71 is used, the use of a planar mirror surface facilitates the definition by the matrix described above, so that the calculation load of the reconstruction unit 54 can be reduced.

<<4.第2の実施の形態>>
以上においては、レンズを用いることなく鏡面を用いて構成される撮像装置の構成例について説明してきたが、レンズを用いて、被写体面上の点を撮像素子上の所定の位置に対応付けて撮像した画像を撮像画像として撮像し、撮像画像に基づいて最終画像を再構成するようにしてもよい。
<<4. Second Embodiment>>
In the above, an example of the configuration of an imaging apparatus configured using a mirror surface without using a lens has been described. The resulting image may be captured as a captured image, and the final image may be reconstructed based on the captured image.

図9,図10は、ランダムマスク52に代えてレンズ101を設けるようにした撮像装置41の構成例を示している。尚、図9は、撮像装置41の外観斜視図であり、図10は、図9の撮像装置41の角錐台型鏡面71における平面鏡71qを正面に見たときの側面断面図である。 9 and 10 show a configuration example of an imaging device 41 in which a lens 101 is provided in place of the random mask 52. FIG. 9 is an external perspective view of the image pickup device 41, and FIG. 10 is a side cross-sectional view of the plane mirror 71q in the truncated pyramid mirror surface 71 of the image pickup device 41 of FIG.

図9,図10の撮像装置41は、角錐台型鏡面71、レンズ101、角柱状光吸収部91、および角柱状鏡面92、撮像素子53、再構成部54、および出力部55を備えている。尚、図9,図10の撮像装置41において、図8の撮像装置41における構成と同一の機能を備えた構成については、同一の符号を付しており、その説明は適宜省略する。 The imaging device 41 of FIGS. 9 and 10 includes a truncated pyramidal mirror surface 71 , a lens 101 , a prismatic light absorbing section 91 , a prismatic mirror surface 92 , an imaging device 53 , a reconstruction section 54 , and an output section 55 . . 9 and 10, components having the same functions as those of the imaging device 41 shown in FIG. 8 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

すなわち、図9,図10の撮像装置41において、図8の撮像装置41と異なる点は、ランダムマスク52に代えて、レンズ101、並びに、角柱状光吸収部91、および角柱状鏡面92を備えた点である。 9 and 10 differs from the imaging device 41 of FIG. That is the point.

レンズ101は、図1のレンズ31と同一の構成であり、被写体面G21からの光であって、角錐台型鏡面71により集光された光を、さらに、集光して、撮像素子53の撮像面上に投影する。 The lens 101 has the same configuration as the lens 31 in FIG. Project on the imaging plane.

角柱状光吸収部91は、レンズ101の後段に設けられる、レンズ101の径と同サイズの4枚の平面状光吸収部材91p乃至91sからなる角柱状の光吸収部材から構成される部位であり、角柱状の内側の平面状光吸収部材91p乃至91sにより入射する光を吸収することで、視野FOV以外の範囲からの入射光の撮像素子53への進入を防止する。視野FOV以外の範囲からの入射光の撮像素子53への進入を防止する原理については、図12を参照して詳細を後述する。 The prismatic light-absorbing portion 91 is provided behind the lens 101 and is a portion composed of a prismatic light-absorbing member composed of four planar light-absorbing members 91p to 91s having the same size as the diameter of the lens 101. By absorbing the incident light by the planar light absorbing members 91p to 91s inside the prismatic shape, incident light from a range other than the field of view FOV is prevented from entering the imaging device 53 . The principle of preventing incident light from entering the imaging element 53 from a range other than the field of view FOV will be described later in detail with reference to FIG.

角柱状鏡面92は、角柱状光吸収部91の後段に設けられ、レンズ101より透過される光を角柱状(開口断面が方形の筒状形状)の内側に設けられた4枚の平面鏡92p乃至92sにより反射し、撮像素子53の撮像面に入射させる。 The prismatic mirror surface 92 is provided behind the prismatic light absorbing part 91, and the light transmitted from the lens 101 is reflected by four plane mirrors 92p to 92p provided inside the prismatic shape (cylindrical shape with a square opening cross section). The light is reflected by 92 s and made incident on the imaging surface of the imaging device 53 .

より詳細には、図10で示されるように、被写体面G21上の点Pを点光源とする拡散光のうち、実線で示される光は、レンズ101により集光されて、撮像素子53上の点P’に集光されて投影される。 More specifically, as shown in FIG. 10, out of the diffused light from the point P on the object plane G21 as a point light source, the light indicated by the solid line is condensed by the lens 101 and projected onto the image sensor 53. It is condensed and projected at a point P'.

また、被写体面S上の点Pを点光源とする拡散光のうち、一点鎖線で示される光は、角錐台型鏡面71の平面鏡71pにより反射されて、点線で示される仮想点P1からの拡散光としてレンズ101を透過する。さらに、仮想点P1からの拡散光は、レンズ101を透過すると、撮像素子53とは異なる仮想的な撮像素子53’上の点P’’に仮想的に集光されて投影される。しかしながら、現実には、仮想点P1からの拡散光は、レンズ101を透過すると、角柱状鏡面92により反射して、撮像素子53上の点P1’に集光されて投影される。 Among the diffused light from the point P on the object plane S as the point light source, the light indicated by the dashed line is reflected by the plane mirror 71p of the truncated pyramid mirror surface 71 and diffuses from the virtual point P1 indicated by the dotted line. It passes through the lens 101 as light. Furthermore, when the diffused light from the virtual point P1 passes through the lens 101, it is virtually condensed and projected onto a point P'' on a virtual image pickup device 53' different from the image pickup device 53. However, in reality, when the diffused light from the virtual point P1 passes through the lens 101, it is reflected by the prismatic mirror surface 92, condensed and projected onto the point P1' on the imaging device 53.

結果として、被写体面G21上の点Pからの拡散光は、撮像素子53上の複数の点に分散しつつ、レンズ101により集光されて投影されて撮像されることになる。 As a result, the diffused light from the point P on the object plane G21 is dispersed to a plurality of points on the imaging device 53, and is condensed by the lens 101 and projected and imaged.

すなわち、角錐台型鏡面71による光の集光は、被写体面G21上の点Pを点光源とする拡散光を角柱状鏡面92内に(レンズ101に)、拡散した状態のまま誘導する集光である。これに対して、レンズ101による集光は、被写体面G21上の点Pを点光源とする拡散光を焦点距離に応じた所定の1点の焦点位置に集める集光である。 That is, the condensing of light by the truncated pyramidal mirror surface 71 guides the diffused light with the point P on the object plane G21 as the point light source into the prismatic mirror surface 92 (to the lens 101) in a diffused state. is. On the other hand, the condensing by the lens 101 is condensing of diffused light with the point P on the object plane G21 as a point light source to a predetermined focal position corresponding to the focal length.

図9,図10の撮像装置41においては、被写体面G21上の各点を点光源とする拡散光が、角錐台型鏡面71の鏡面71pにより、拡散光の状態のままレンズ101に誘導され、さらに、レンズ101により撮像素子53上のいずれか1点の焦点位置に集光されながら、角柱状鏡面92内において反射されて、撮像素子53上に投影される。 In the imaging device 41 of FIGS. 9 and 10, the diffused light with each point on the object surface G21 as a point light source is guided to the lens 101 in the state of diffused light by the mirror surface 71p of the truncated pyramid-shaped mirror surface 71. Further, while being condensed by the lens 101 to any one focal position on the imaging element 53 , the light is reflected within the prismatic mirror surface 92 and projected onto the imaging element 53 .

また、この際、図10で示されるように、被写体面G21上における各点を点光源とする拡散光は、レンズ101に直接入射して集光されて撮像素子53上に集光されて投影される場合の画素位置と、角錐台型鏡面71により反射してからレンズ101に入射し、さらに角柱状鏡面92により反射されて撮像素子53に投影される場合の画素位置とが異なる。すなわち、撮像素子53の各画素には、被写体面G21上の複数の点の光が重畳されて投影される。 At this time, as shown in FIG. 10, the diffused light with each point on the object plane G21 as a point light source is directly incident on the lens 101, condensed, condensed on the imaging element 53, and projected. The pixel position in the case where the light is reflected by the truncated pyramidal mirror surface 71 , enters the lens 101 , is further reflected by the prismatic mirror surface 92 , and is projected onto the image sensor 53 is different. That is, on each pixel of the imaging element 53, light of a plurality of points on the object plane G21 is superimposed and projected.

このため、被写体面G21上の像が、例えば、図11の左部で示されるような被写体面(の画像)G21であるような場合、撮像素子53により撮像される(出力される)画像は、図11の中央部で示されるような画像G22で示されるような、全体としてボケた画像となる。これは、図3を参照して説明した、ランダムマスク52が用いられることにより被写体面G11からの入射光に変調が掛けられて、画像G12として撮像される状態と同様の状態となる。すなわち、レンズ101と角柱状鏡面92により、誘導された被写体面G21からの入射光に変調が掛けられた状態と同様の状態となり、撮像素子53により画像G22として撮像されることになる。 Therefore, when the image on the subject plane G21 is, for example, (the image of) the subject plane G21 as shown in the left part of FIG. , the image G22 shown in the center of FIG. 11 is blurred as a whole. This is the same state as the state in which the incident light from the subject plane G11 is modulated by using the random mask 52 and captured as the image G12, as described with reference to FIG. That is, the lens 101 and the prismatic mirror surface 92 create a state similar to the state in which the guided incident light from the subject plane G21 is modulated, and the imaging device 53 picks up the image G22.

これにより、再構成部54は、撮像素子53より出力される画像に対して、上述した係数セットを用いた再構成により、例えば、図11の右部で示される画像G23を最終画像(復元画像)として出力する。 As a result, the reconstruction unit 54 reconstructs the image output from the image sensor 53 using the coefficient set described above, for example, converting the image G23 shown in the right part of FIG. 11 into the final image (restored image). ).

さらに、上述したように、被写体面G21上の各点は、角錐台型鏡面71により反射されて複数の点に分散しつつ、レンズ101により集光されて撮像素子53上の各画素に投影されて、加算された画素信号となる。結果として、被写体面G21の像が、撮像素子53の全体として平滑化された状態で撮像されることになるので、画像G22の画像は、ダイナミックレンジが抑制されたボヤっとした画像となる。 Further, as described above, each point on the object plane G21 is reflected by the truncated pyramid mirror surface 71 and dispersed into a plurality of points, and then condensed by the lens 101 and projected onto each pixel on the imaging device 53. Then, the added pixel signal is obtained. As a result, the image of the object plane G21 is captured in a smoothed state as a whole by the image sensor 53, so the image of the image G22 is a blurry image with a suppressed dynamic range.

例えば、大開口部71aを小開口部71bの2.8倍とした場合、すなわち、撮像素子53の受光する光量を全体として2.8倍だけ増大させた場合、被写体面(上の画像)G21における光量は、角錐台型鏡面71が設けられなかったときの約2.8倍となる。つまり、2.8倍だけ明るい画像として撮像される。 For example, when the large opening 71a is 2.8 times as large as the small opening 71b, that is, when the amount of light received by the imaging element 53 is increased by 2.8 times as a whole, the object plane (upper image) G21 , the amount of light is about 2.8 times that when the truncated pyramid mirror surface 71 is not provided. That is, an image that is 2.8 times brighter is captured.

しかしながら、このときの撮像画像G22のダイナミックレンジは、角錐台型鏡面71が設けられなかったときに撮像素子53において撮像される画像の約1/2.15倍となる。 However, the dynamic range of the captured image G22 at this time is about 1/2.15 times the image captured by the imaging element 53 when the truncated pyramid mirror surface 71 is not provided.

これは、被写体面G21上の点光源からの光が、角錐台型鏡面71により反射された後、レンズ101により集光されることにより、撮像素子53上のいくつかの点に分散され、さらに、複数の点からの光が加算されることで、撮像素子53の全画素において、平滑化されることにより検出信号レベルが全体として平均化されて、ダイナミックレンジが小さくなることによるものである。 This is because light from a point light source on the object plane G21 is reflected by the truncated pyramid mirror surface 71 and then condensed by the lens 101, thereby being dispersed to several points on the imaging device 53, and further This is because light from a plurality of points is added, smoothing is performed in all pixels of the image pickup device 53, thereby averaging detection signal levels as a whole and reducing the dynamic range.

ただし、画像G22を用いて、式(1)乃至式(3)を参照して説明した係数セットにより、最終画像である画像G23が復元されると、被写体面G21におけるダイナミックレンジと同程度のダイナミックレンジに復元される。 However, when the image G23, which is the final image, is restored using the image G22 by the coefficient set described with reference to equations (1) to (3), dynamic Restored to range.

結果として、撮像素子53により撮像される画像のダイナミックレンジが小さくなる分、露光時間を長くすることで、再構成される最終画像のダイナミックレンジを、角錐台型鏡面71がない場合よりも大きくすることが可能となる。また、撮像素子53のダイナミックレンジが、小さなものであっても、ダイナミックレンジの大きな撮像素子53を用いた場合と同等のダイナミックレンジの画像を再構成することが可能となる。 As a result, the dynamic range of the image picked up by the imaging device 53 is reduced, and the exposure time is lengthened, so that the dynamic range of the reconstructed final image is made larger than when the truncated pyramid mirror surface 71 is not provided. becomes possible. Moreover, even if the dynamic range of the imaging device 53 is small, it is possible to reconstruct an image with a dynamic range equivalent to that obtained when the imaging device 53 having a large dynamic range is used.

尚、角柱状光吸収部91および角柱状鏡面92を合わせた長さ(図10中の水平方向の長さ)は、レンズ101の焦点距離に対応した長さである。このため、再構成部54は、レンズ101の焦点距離に対応した係数セット(撮像装置41においてレンズ101を用いたときの被写体面S21までの距離に対応した係数セット)を用いて、画像G22より最終画像(復元画像)である画像G23を再構成する。 The total length of the prismatic light absorbing portion 91 and the prismatic mirror surface 92 (horizontal length in FIG. 10) corresponds to the focal length of the lens 101 . For this reason, the reconstruction unit 54 uses a coefficient set corresponding to the focal length of the lens 101 (a coefficient set corresponding to the distance to the object plane S21 when the lens 101 is used in the imaging device 41) to convert the image G22 into An image G23, which is the final image (restored image), is reconstructed.

<角柱状光吸収部の作用について>
次に、図12を参照して、角柱状光吸収部91の作用について説明する。
<About the action of the prismatic light absorbing part>
Next, with reference to FIG. 12, the operation of the prismatic light absorbing portion 91 will be described.

図9,図10の撮像装置41は、視野FOV内の被写体面G21の画像を撮像するが、例えば、図12で示されるように、視野FOV外の点S1からなる点光源が存在する場合、角錐台型鏡面71において反射されることにより、仮想点S1を光源とする拡散光としてレンズ101を透過する。 The imaging device 41 in FIGS. 9 and 10 captures an image of the subject plane G21 within the field of view FOV. For example, as shown in FIG. By being reflected by the truncated pyramid mirror surface 71, the light is transmitted through the lens 101 as diffused light with the virtual point S1 as the light source.

ここで、角柱状光吸収部91が鏡面構造である場合、仮想点S1を光源とする拡散光としてレンズ101を透過した光は、角柱状鏡面92内において反射を繰り返して、本来、撮像素子53において受光されるべきではない光として受光される。 Here, when the prismatic light absorbing portion 91 has a mirror surface structure, the light transmitted through the lens 101 as diffused light with the virtual point S1 as the light source is repeatedly reflected within the prismatic mirror surface 92, and originally, the image sensor 53 is received as light that should not be received at.

角柱状光吸収部91は、図12で示されるように、レンズ101を透過した仮想点S1を光源とする光を吸収することで、角柱状鏡面92内への進入を防止している。 As shown in FIG. 12, the prismatic light absorbing portion 91 prevents the light from entering the prismatic mirror surface 92 by absorbing the light transmitted through the lens 101 and having the virtual point S1 as the light source.

このため、視野FOV外からの入射光は、角柱状光吸収部91により吸収されるので、角柱状鏡面92内へと進入されることがなく、撮像素子53において受光されない。 For this reason, incident light from outside the field of view FOV is absorbed by the prismatic light absorbing portion 91 and therefore does not enter the prismatic mirror surface 92 and is not received by the imaging device 53 .

結果として、角柱状光吸収部91により、視野FOV外の光が撮像素子53において受光されない状態となるので、視野FOV内の被写体面G21からの光の利用効率を高めつつ、不要な光の進入を防ぐことが可能となる。 As a result, the light outside the field of view FOV is not received by the imaging element 53 due to the prismatic light absorbing portion 91. Therefore, the utilization efficiency of the light from the object plane G21 within the field of view FOV is increased, and unnecessary light does not enter. can be prevented.

尚、角柱状光吸収部91の図12の水平方向の長さは、視野FOVの境界の、光軸AXからみた外側の位置における入射光が、角柱状光吸収部91の図12の右端部となるように設定される。また、角柱状光吸収部91は、光を角柱状鏡面92に反射させない素材であればよく、遮光膜などにより構成するようにしてもよいし、角柱状鏡面92へと進入しないように透過させるような材質でもよい。 The length of the prismatic light-absorbing portion 91 in the horizontal direction in FIG. is set to be The prismatic light absorbing portion 91 may be made of any material that does not reflect light onto the prismatic mirror surface 92 , and may be made of a light shielding film or the like, or may transmit light so as not to enter the prismatic mirror surface 92 . Any material such as

<角錐台型鏡面の開口角について>
次に、角錐台型鏡面71の開口角について説明する。
<Regarding the aperture angle of the truncated pyramid-shaped mirror surface>
Next, the aperture angle of the truncated pyramid mirror surface 71 will be described.

ここで、例えば、図13で示されるように、角錐台型鏡面71の断面における対向する鏡面のなす角θ11を開口角と定義する。また、図10において、仮想点P1を点光源とする拡散光がレンズ101を透過して、角柱状鏡面92において反射して撮像素子53上の点P1’に入射するとき、点P1’に対して直接入射することを仮定したときの小開口部71bに対応する仮想的な開口部を仮想開口部71b’と定義する。 Here, for example, as shown in FIG. 13, the angle θ11 formed by the opposing mirror surfaces in the cross section of the truncated pyramidal mirror surface 71 is defined as the aperture angle. Further, in FIG. 10, when diffused light having a point light source at a virtual point P1 is transmitted through the lens 101 and reflected by the prismatic mirror surface 92 to enter a point P1' on the imaging element 53, the point P1' A virtual opening 71b′ is defined as a virtual opening corresponding to the small opening 71b when it is assumed that the light is directly incident on the light beam.

上述したように、大開口部71aの面積と、小開口部71bの面積比により、集光できる光量を高めることができる。 As described above, the amount of light that can be collected can be increased by adjusting the area ratio of the large opening 71a and the small opening 71b.

換言すれば、図10で示されるように、小開口部71bに対応する仮想開口部71b’の面積を広くすることで、より多くの拡散光を集光することができると考えることができる。 In other words, as shown in FIG. 10, by increasing the area of the virtual opening 71b' corresponding to the small opening 71b, it can be considered that more diffused light can be collected.

例えば、図13で示されるように、平面鏡71p,71rの開口角を開口角θ11とした場合、現実の小開口部71bと、仮想開口部71b’-1,71b’-2により、図13の角錐台型鏡面71は、点Pxを点光源とする拡散光のうち、角度θ1の範囲の光を集光することができる。 For example, as shown in FIG. 13, when the aperture angle of the plane mirrors 71p and 71r is the aperture angle θ11, the actual small aperture 71b and the virtual apertures 71b′-1 and 71b′-2 produce the The truncated pyramidal mirror surface 71 can converge the light in the range of the angle θ1 among the diffused light with the point Px as the point light source.

これに対して、図14で示されるように、平面鏡71p,71rにおいて開口角θ11(<θ12)とした場合、現実の開口部71bと、仮想開口部71b’-11乃至71b’-16により、図14の平面鏡71p,71rは、点Pxを点光源とする拡散光のうち、角度θ2(>θ1)の範囲の光を集光することができる。 On the other hand, as shown in FIG. 14, when the plane mirrors 71p and 71r have an aperture angle of θ11 (<θ12), the actual aperture 71b and the virtual apertures 71b′-11 to 71b′-16 give: The plane mirrors 71p and 71r in FIG. 14 can converge the light in the range of the angle θ2 (>θ1) among the diffused light with the point Px as the point light source.

すなわち、開口角は、小さくても角錐台型鏡面71の入射光の入射方向に対して長さを確保することにより、仮想開口部を増やすことで、より多くの光を集光することができると考えることができる。換言すれば、開口角は、小さくても角錐台型鏡面71の入射光の入射方向に対して長さを確保することで、大開口部71aと小開口部71bとの比率を大きくすることができると考えることもできる。 That is, even if the aperture angle is small, more light can be condensed by increasing the virtual aperture by securing the length with respect to the incident direction of the incident light on the truncated pyramidal mirror surface 71. can be considered. In other words, even if the aperture angle is small, it is possible to increase the ratio between the large aperture portion 71a and the small aperture portion 71b by securing the length of the truncated pyramid mirror surface 71 with respect to the incident direction of the incident light. You can think that you can.

<図9,図10の撮像装置による撮像処理>
次に、図15のフローチャートを参照して、図9,図10の撮像装置41による撮像処理について説明する。
<Imaging Processing by the Imaging Apparatus of FIGS. 9 and 10>
Next, imaging processing by the imaging device 41 of FIGS. 9 and 10 will be described with reference to the flowchart of FIG.

ステップS31において、角錐台型鏡面71は、被写体面G21からの光を集光して、レンズ101に透過させる。 In step S<b>31 , the truncated pyramid mirror surface 71 collects the light from the object surface G<b>21 and transmits the light to the lens 101 .

ステップS32において、レンズ101は、角錐台型鏡面71により集光された被写体面G21からの光を集光して、角柱状鏡面92に入射させる。この際、視野FOV外からの入射光は、角柱状光吸収部91により吸収される。 In step S<b>32 , the lens 101 condenses the light from the subject plane G<b>21 condensed by the truncated pyramidal mirror surface 71 and causes it to enter the prismatic mirror surface 92 . At this time, incident light from outside the field of view FOV is absorbed by the prismatic light absorbing portion 91 .

ステップS33において、角中状鏡面92は、レンズ101により集光された被写体面G21からの光を反射させて、撮像素子53に入射させる。 In step S<b>33 , the square mirror surface 92 reflects the light from the object surface G<b>21 condensed by the lens 101 and causes the light to enter the imaging device 53 .

ステップS34において、撮像素子53は、被写体面G21からの光であって、角錐台型鏡面71とレンズ101により集光された光からなる像を撮像して、再構成部54に出力する。すなわち、この場合、図10の被写体面G21の像が、角錐台型鏡面71およびレンズ101により集光されて、撮像素子53により、例えば、画像G22が撮像される。画像G22は、角錐台型鏡面71およびレンズ101により集光された光が、撮像素子53の様々な画素に拡散した状態で受光され、さらに、画素単位で、様々な光を重畳することにより、各画素の画素値が平滑化されて、全体としてボヤっとした画像(ダイナミックレンジが小さくされた画像)として撮像される。 In step S<b>34 , the imaging element 53 captures an image of light from the object plane G<b>21 and condensed by the truncated pyramid mirror surface 71 and the lens 101 , and outputs the image to the reconstruction unit 54 . That is, in this case, the image of the subject plane G21 in FIG. 10 is condensed by the truncated pyramid mirror surface 71 and the lens 101, and the image G22 is captured by the imaging device 53, for example. The image G22 is received in a state in which the light condensed by the truncated pyramidal mirror surface 71 and the lens 101 is diffused in various pixels of the imaging element 53, and furthermore, by superimposing various lights on a pixel-by-pixel basis, The pixel value of each pixel is smoothed, and an overall blurry image (an image with a reduced dynamic range) is captured.

ステップS35において、再構成部54は、撮像素子53より出力される集光された光からなる像が撮像された画素信号に基づいて、所定の係数セットを用いて、画像を再構成して最終画像(復元画像)として出力部55に出力する。すなわち、画像G22に対して、係数セットを用いた連立方程式を構成して解くことにより、例えば、画像G23で示されるような最終画像(復元画像)が求められることになる。 In step S35, the reconstruction unit 54 reconstructs an image using a predetermined coefficient set based on the pixel signals obtained by imaging the image composed of the condensed light output from the image sensor 53, and finalizes the image. It is output to the output unit 55 as an image (restored image). That is, by constructing and solving simultaneous equations using a coefficient set for the image G22, for example, a final image (restored image) as shown by the image G23 is obtained.

ステップS36において、出力部55は、信号処理を施して、画像信号として出力する。 In step S36, the output unit 55 performs signal processing and outputs an image signal.

すなわち、以上の一連の処理により、角錐台型鏡面71とレンズ101を用いることで、高価な大口径のレンズを用いることなく、明るい画像を撮像することが可能となる。また、レンズ101が用いられることにより、レンズ101が用いられない場合に比べて、撮像素子53により撮像される画像G22を、係数セットを用いて再構成される最終画像(復元画像)G23に近い画像として撮像することが可能となる。換言すれば、レンズ101を用いることで、画像G22を、よりスパース性の高い、最終画像である画像G23に再構成し易い画像として撮像することが可能となる。 That is, by using the truncated pyramidal mirror surface 71 and the lens 101 through the series of processes described above, it is possible to capture a bright image without using an expensive large-aperture lens. Further, by using the lens 101, the image G22 captured by the image sensor 53 is closer to the final image (restored image) G23 reconstructed using the coefficient set than when the lens 101 is not used. It becomes possible to pick up as an image. In other words, by using the lens 101, it is possible to capture the image G22 as an image having a higher sparsity and being easily reconstructed into the final image G23.

<<5.第2の実施の形態の変形例>>
また、角錐台型鏡面については、大開口部と角柱状鏡面部へと接続される小開口部に対応する大小二種類の開口部が設けられ、被写体面からの入射光を筒状鏡面に誘導する内側に鏡面が設けられている構成であれば、その他の形状の鏡面であってもよく、例えば、図16で示されるような円錐台型鏡面51であってもよい。ただし、円錐台型鏡面51である場合、対応する形状(開口断面が円形の筒状形状)の筒状光吸収部121、および筒状鏡面122を設ける必要がある。また、入射光を誘導するための大小二種類の開口部が設けられている限り、大開口部および小開口部の形状は、非対称な形状であってもよいし、両者が相似の関係を持たないものであってもよい。
<<5. Modified example of the second embodiment >>
For the truncated pyramidal mirror surface, two types of openings, large and small corresponding to the large opening and the small opening connected to the prismatic mirror surface, are provided, and the incident light from the subject surface is guided to the cylindrical mirror surface. As long as the mirror surface is provided on the inner side, the mirror surface may have another shape, for example, a truncated cone-shaped mirror surface 51 as shown in FIG. 16 may be used. However, in the case of the truncated cone-shaped mirror surface 51, it is necessary to provide a cylindrical light absorbing portion 121 and a cylindrical mirror surface 122 having a corresponding shape (cylindrical shape with a circular opening cross section). In addition, as long as two types of openings, large and small, are provided for guiding incident light, the shapes of the large and small openings may be asymmetrical or similar. It may be nothing.

尚、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。 In this specification, a system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether or not all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a single device housing a plurality of modules in one housing, are both systems. .

また、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。 Further, the embodiments of the present disclosure are not limited to the embodiments described above, and various modifications are possible without departing from the gist of the present disclosure.

さらに、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。 Furthermore, each step described in the flowchart above can be executed by one device, or can be shared by a plurality of devices.

また、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。 Further, when one step includes a plurality of processes, the plurality of processes included in the one step can be executed by one device or shared by a plurality of devices.

尚、本開示は、以下のような構成も取ることができる。 It should be noted that the present disclosure can also take the following configuration.

<1> 被写体からの入射光を撮像素子に誘導する誘導部と、
前記誘導部により誘導された入射光を、画素信号として撮像する撮像部と、
前記画素信号を信号処理により最終画像として再構成する信号処理部と
を含む撮像装置。
<2> 前記誘導部は、大開口部と小開口部とが設けられた錐台形状であって、内側が鏡面とされ、前記大開口部より入射される前記入射光を、前記小開口部より前記撮像素子に誘導する
<1>に記載の撮像装置。
<3> 前記誘導部は、前記大開口部と前記小開口部とが設けられた円錐台形状であって、内側が曲面状の鏡面とされる
<2>に記載の撮像装置。
<4> 前記誘導部は、前記大開口部と前記小開口部とが設けられた角錐台形状であって、内側が平面状の鏡面とされる
<2>に記載の撮像装置。
<5> 前記撮像素子は、前記小開口部に内包される大きさであり、
前記誘導部は、前記被写体からの入射光を誘導することにより、前記小開口部の面積を基準としたとき、前記大開口部の面積の倍率分だけ、前記撮像部における前記入射光の光量を増大させる
<2>に記載の撮像装置。
<6> 前記撮像素子の前段に前記入射光を変調する変調部をさらに含み、
前記撮像部は、前記誘導部により誘導され、かつ、前記変調部により変調された前記入射光を、前記画素信号として撮像する
<1>乃至<5>のいずれかに記載の撮像装置。
<7> 前記変調部は、ランダムマスク、または、回折格子である
<6>に記載の撮像装置。
<8> 前記変調部は、
前記誘導部により誘導された前記入射光を集光するレンズと、
前記レンズにより集光された入射光を反射して、前記撮像部に誘導する筒状の鏡面からなる筒状鏡面をさらに含む
<6>に記載の撮像装置。
<9> 前記変調部は、
前記レンズにより集光された入射光を反射して、前記撮像部に誘導する筒状の鏡面からなる筒状鏡面をさらに含む
<8>に記載の撮像装置。
<10> 前記筒状鏡面の開口断面は、円形である
<9>に記載の撮像装置。
<11> 前記筒状鏡面の開口断面は、方形である
<9>に記載の撮像装置。
<12> 前記レンズの後段であって、前記筒状鏡面の前段に、前記入射光を吸収する筒状の筒状光吸収部をさらに含む
<9>に記載の撮像装置。
<13> 前記筒状光吸収部は、前記レンズの視野外の入射光が入射する位置に設けられる
<12>に記載の撮像装置。
<14> 前記筒状光吸収部の筒長と、前記筒状鏡面の筒長との和が、前記レンズの焦点距離である
<13>に記載の撮像装置。
<15> 被写体からの入射光を撮像素子に誘導する誘導処理と、
前記誘導処理により誘導された入射光を、画素信号として撮像する撮像処理と、
前記画素信号を信号処理により最終画像として再構成する信号処理と
を含む撮像方法。
<1> a guide unit that guides incident light from a subject to an imaging device;
an imaging unit that captures the incident light guided by the guiding unit as a pixel signal;
and a signal processing unit that reconstructs the pixel signals into a final image by signal processing.
<2> The guiding portion has a truncated cone shape provided with a large opening and a small opening, the inner side of which is a mirror surface, and the incident light incident from the large opening is directed to the small opening. The image pickup apparatus according to <1>, in which the image pickup device is guided to the image pickup element.
<3> The imaging device according to <2>, wherein the guide section has a truncated cone shape with the large opening and the small opening, and the inner side is a curved mirror surface.
<4> The imaging device according to <2>, wherein the guide section has a truncated pyramid shape in which the large opening and the small opening are provided, and the inner side is a planar mirror surface.
<5> The imaging element is sized to be included in the small opening,
The guiding section guides the incident light from the subject, so that the light amount of the incident light in the imaging section is reduced by the magnification of the area of the large opening when the area of the small opening is used as a reference. The imaging device according to <2>, which is increased.
<6> further comprising a modulating unit that modulates the incident light before the imaging element;
The imaging device according to any one of <1> to <5>, wherein the imaging section captures the incident light guided by the guiding section and modulated by the modulating section as the pixel signal.
<7> The imaging device according to <6>, wherein the modulation unit is a random mask or a diffraction grating.
<8> The modulation unit
a lens for condensing the incident light guided by the guiding part;
The imaging apparatus according to <6>, further comprising a cylindrical mirror surface that reflects the incident light condensed by the lens and guides it to the imaging unit.
<9> The modulation unit
The imaging apparatus according to <8>, further comprising a cylindrical mirror surface that reflects the incident light condensed by the lens and guides it to the imaging unit.
<10> The imaging device according to <9>, wherein the opening cross-section of the cylindrical mirror surface is circular.
<11> The imaging device according to <9>, wherein the opening cross section of the cylindrical mirror surface is square.
<12> The image pickup apparatus according to <9>, further including a cylindrical light absorbing portion that absorbs the incident light, downstream of the lens and upstream of the cylindrical mirror surface.
<13> The imaging device according to <12>, wherein the cylindrical light absorbing portion is provided at a position where incident light outside the field of view of the lens enters.
<14> The imaging device according to <13>, wherein the sum of the cylindrical length of the cylindrical light absorbing portion and the cylindrical length of the cylindrical mirror surface is the focal length of the lens.
<15> Guidance processing for guiding incident light from a subject to an imaging device;
Imaging processing for imaging the incident light guided by the guiding processing as a pixel signal;
and signal processing for reconstructing the pixel signals into a final image by signal processing.

11 撮像装置, 31 レンズ, 32 撮像素子, 33 出力部, 41 バンドパスフィルタ, 51 円錐台型鏡面, 51a 大開口部, 51b 小開口部, 52 ランダムマスク, 53 撮像素子, 54 再構成部, 55 出力部, 71 角錐台型鏡面, 71a 大開口部, 71b 小開口部, 71p乃至71s 平面鏡, 71b’,71b’-1,71b’-2,71b’-11乃至71b’-16 仮想開口部, 91 角柱状光吸収部, 92 角柱状鏡面, 101 レンズ, 121 筒状光吸収部, 122 筒状鏡面 Reference Signs List 11 imaging device, 31 lens, 32 imaging device, 33 output unit, 41 bandpass filter, 51 truncated cone mirror surface, 51a large aperture, 51b small aperture, 52 random mask, 53 imaging device, 54 reconstruction unit, 55 output section 71 truncated pyramid mirror surface 71a large opening 71b small opening 71p to 71s plane mirror 71b', 71b'-1, 71b'-2, 71b'-11 to 71b'-16 virtual opening, 91 Prismatic light absorbing part 92 Prismatic mirror surface 101 Lens 121 Cylindrical light absorbing part 122 Cylindrical mirror surface

Claims (15)

被写体からの入射光を撮像素子に誘導する誘導部と、
前記誘導部により誘導された入射光を変調する変調部と、
前記変調部により変調された前記入射光を画素信号として前記撮像素子により撮像する撮像部と、
前記被写体までの距離毎に、前記変調部により変調された前記入射光の前記撮像素子への入射角度に応じて設定される係数セットを用いて、前記画素信号を信号処理により最終画像として再構成する信号処理部と
を含む撮像装置。
a guide section that guides incident light from a subject to an imaging element;
a modulating section that modulates incident light guided by the guiding section;
an imaging unit for imaging the incident light modulated by the modulating unit as a pixel signal by the imaging device ;
The pixel signals are reconstructed as a final image by signal processing using a coefficient set that is set according to the incident angle of the incident light to the imaging element modulated by the modulating unit for each distance to the subject. and a signal processing unit.
前記誘導部は、大開口部と小開口部とが設けられた錐台形状であって、内側が鏡面とされ、前記大開口部より入射される前記入射光を、前記小開口部より前記撮像素子に誘導する
請求項1に記載の撮像装置。
The guide section has a frustum shape provided with a large opening and a small opening, and has a mirror surface inside, and the incident light entering through the large opening is captured through the small opening. The imaging device according to claim 1, wherein the element is guided.
前記誘導部は、前記大開口部と前記小開口部とが設けられた円錐台形状であって、内側が曲面状の鏡面とされる
請求項2に記載の撮像装置。
3. The imaging device according to claim 2, wherein the guiding portion has a truncated cone shape with the large opening and the small opening, and the inner side is a curved mirror surface.
前記誘導部は、前記大開口部と前記小開口部とが設けられた角錐台形状であって、内側が平面状の鏡面とされる
請求項2に記載の撮像装置。
3. The imaging device according to claim 2, wherein the guide section has a truncated pyramid shape in which the large opening and the small opening are provided, and the inner side is a flat mirror surface.
前記撮像素子は、前記小開口部に内包される大きさであり、
前記誘導部は、前記被写体からの入射光を誘導することにより、前記小開口部の面積を基準としたとき、前記大開口部の面積の倍率分だけ、前記撮像部における前記入射光の光量を増大させる
請求項2に記載の撮像装置。
The imaging element is sized to be included in the small opening,
The guiding section guides the incident light from the subject, so that the light amount of the incident light in the imaging section is reduced by the magnification of the area of the large opening when the area of the small opening is used as a reference. The imaging device according to claim 2, which is increased.
前記変調部は、パターンマスク、回折格子、または拡散板である
請求項に記載の撮像装置。
The imaging device according to claim 1 , wherein the modulation section is a pattern mask, a diffraction grating, or a diffusion plate.
前記変調部は、
前記誘導部により誘導された前記入射光を集光するレンズをさらに含む
請求項に記載の撮像装置。
The modulation unit
The imaging device according to claim 1 , further comprising a lens that collects the incident light guided by the guiding section.
前記変調部は、
前記レンズにより集光された入射光を反射して、前記撮像部に誘導する筒状の鏡面からなる筒状鏡面をさらに含む
請求項に記載の撮像装置。
The modulation unit
8. The imaging apparatus according to claim 7 , further comprising a cylindrical mirror surface that reflects incident light condensed by said lens and guides it to said imaging unit.
前記筒状鏡面の開口断面は、円形である
請求項に記載の撮像装置。
The imaging device according to claim 8 , wherein the opening cross section of the cylindrical mirror surface is circular.
前記筒状鏡面の開口断面は、方形である
請求項に記載の撮像装置。
The imaging device according to claim 8 , wherein the opening cross section of the cylindrical mirror surface is square.
前記レンズの後段であって、前記筒状鏡面の前段に、前記入射光を吸収する筒状の筒状光吸収部をさらに含む
請求項に記載の撮像装置。
9. The image pickup apparatus according to claim 8 , further comprising a cylindrical light absorbing portion that absorbs the incident light after the lens and before the cylindrical mirror surface.
前記筒状光吸収部は、前記レンズの視野外の入射光が入射する位置に設けられる
請求項11に記載の撮像装置。
12. The imaging device according to claim 11 , wherein the cylindrical light absorbing portion is provided at a position where incident light outside the field of view of the lens is incident.
前記筒状光吸収部の筒長と、前記筒状鏡面の筒長との和が、前記レンズの焦点距離である
請求項12に記載の撮像装置。
13. The imaging device according to claim 12 , wherein the sum of the cylinder length of the cylindrical light absorbing portion and the cylinder length of the cylindrical mirror surface is the focal length of the lens.
被写体からの入射光を撮像素子に誘導する誘導処理と、
前記誘導処理により誘導された入射光を変調する変調処理と、
前記変調処理により変調された前記入射光を画素信号として前記撮像素子により撮像する撮像処理と、
前記被写体までの距離毎に、前記変調処理により変調された前記入射光の前記撮像素子への入射角度に応じて設定される係数セットを用いて、前記画素信号を信号処理により最終画像として再構成する信号処理と
を含む撮像方法。
Guidance processing for guiding incident light from a subject to an imaging device;
a modulation process that modulates incident light induced by the induction process;
an imaging process of imaging the incident light modulated by the modulation process with the imaging element as a pixel signal;
The pixel signals are reconstructed as a final image by signal processing using a coefficient set that is set according to the incident angle of the incident light modulated by the modulation processing to the imaging device for each distance to the subject. and an imaging method comprising:
被写体からの入射光を撮像素子に誘導する誘導部と、 a guide section that guides incident light from a subject to an imaging element;
前記誘導部により誘導された入射光を変調する変調部と、 a modulating section that modulates incident light guided by the guiding section;
前記変調部により変調された前記入射光を画素信号として撮像する撮像部と、 an imaging unit that captures the incident light modulated by the modulating unit as a pixel signal;
前記画素信号を信号処理により最終画像として再構成する信号処理部とを含み、 a signal processing unit that reconstructs the pixel signals as a final image by signal processing;
前記変調部は、 The modulation unit
前記誘導部により誘導された前記入射光を集光するレンズと、 a lens for condensing the incident light guided by the guiding part;
前記レンズにより集光された入射光を反射して、前記撮像部に誘導する筒状の鏡面からなる筒状鏡面とを含む and a cylindrical mirror surface that reflects the incident light condensed by the lens and guides it to the imaging unit.
撮像装置。 Imaging device.
JP2019568994A 2018-01-31 2019-01-18 Imaging device and imaging method Active JP7287283B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018015402 2018-01-31
JP2018015402 2018-01-31
PCT/JP2019/001382 WO2019150983A1 (en) 2018-01-31 2019-01-18 Image capture device and image capture method

Publications (2)

Publication Number Publication Date
JPWO2019150983A1 JPWO2019150983A1 (en) 2021-01-28
JP7287283B2 true JP7287283B2 (en) 2023-06-06

Family

ID=67479683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019568994A Active JP7287283B2 (en) 2018-01-31 2019-01-18 Imaging device and imaging method

Country Status (5)

Country Link
US (1) US11378866B2 (en)
EP (1) EP3748947A4 (en)
JP (1) JP7287283B2 (en)
CN (1) CN111656761A (en)
WO (1) WO2019150983A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11373278B2 (en) * 2016-09-30 2022-06-28 University Of Utah Research Foundation Lensless imaging device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1588168A (en) 2004-06-30 2005-03-02 罗筱泠 Light beam shaper
JP2010276433A (en) 2009-05-28 2010-12-09 Tokyo Institute Of Technology Imaging device, image processor, and distance measuring device
CN104749733A (en) 2013-12-26 2015-07-01 玉晶光电(厦门)有限公司 Low refection lens barrel and lens module using the lens barrel
JP2016165070A (en) 2015-03-06 2016-09-08 国立大学法人 鹿児島大学 Imaging device, extraction method of digital watermark, digital watermark and optimization method of coded aperture
US20160309065A1 (en) 2015-04-15 2016-10-20 Lytro, Inc. Light guided image plane tiled arrays with dense fiber optic bundles for light-field and high resolution image acquisition
WO2017062384A1 (en) 2015-10-05 2017-04-13 Fugue, Inc. System and method for building, optimizing, and enforcing infrastructure on a cloud based computing environment

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5073789A (en) * 1990-11-30 1991-12-17 Mumpower Ronald M Means and methods for creating multiple images on a single film frame
JP2000323692A (en) * 1999-05-07 2000-11-24 Canon Inc Solid-state image sensing device
JP4645358B2 (en) * 2004-08-20 2011-03-09 ソニー株式会社 Imaging apparatus and imaging method
BR112013021651A2 (en) 2011-02-28 2016-11-22 Fujitsu Frontech Ltd optical lighting system for imaging equipment
WO2013061582A1 (en) * 2011-10-24 2013-05-02 パナソニック株式会社 Photoacoustic imaging apparatus
JP2014095739A (en) * 2012-11-07 2014-05-22 Panasonic Corp Diffraction grating lens, imaging optical system using the same and imaging apparatus
CA2902675C (en) 2014-08-29 2021-07-27 Farnoud Kazemzadeh Imaging system and method for concurrent multiview multispectral polarimetric light-field high dynamic range imaging
EP3128750A1 (en) * 2015-08-04 2017-02-08 Thomson Licensing Plenoptic camera and method of controlling the same
KR20180080219A (en) 2015-10-09 2018-07-11 비스비 카메라 코퍼레이션 Hologram optical field imaging device and method of using same
CN105791651B (en) * 2016-04-14 2019-11-12 唐小川 Camera module and picture pick-up device with flash lamp

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1588168A (en) 2004-06-30 2005-03-02 罗筱泠 Light beam shaper
JP2010276433A (en) 2009-05-28 2010-12-09 Tokyo Institute Of Technology Imaging device, image processor, and distance measuring device
CN104749733A (en) 2013-12-26 2015-07-01 玉晶光电(厦门)有限公司 Low refection lens barrel and lens module using the lens barrel
JP2016165070A (en) 2015-03-06 2016-09-08 国立大学法人 鹿児島大学 Imaging device, extraction method of digital watermark, digital watermark and optimization method of coded aperture
US20160309065A1 (en) 2015-04-15 2016-10-20 Lytro, Inc. Light guided image plane tiled arrays with dense fiber optic bundles for light-field and high resolution image acquisition
WO2017062384A1 (en) 2015-10-05 2017-04-13 Fugue, Inc. System and method for building, optimizing, and enforcing infrastructure on a cloud based computing environment

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Aldo Roda et.al.,,Portable Device Based on Chemiluminescence Lensless Imaging for Personalized Diagonostics through Multiplex Bioanalysis,analytical chemistory,米国,Analytical Chemistory Sciety,2011年05月24日,Volume 83, Issue 8,pp. 3178-3185,https;//pubs.acs.org/doi/pdf/10.1021/ac200360k

Also Published As

Publication number Publication date
EP3748947A4 (en) 2021-09-15
US20210041764A1 (en) 2021-02-11
WO2019150983A1 (en) 2019-08-08
US11378866B2 (en) 2022-07-05
EP3748947A1 (en) 2020-12-09
CN111656761A (en) 2020-09-11
JPWO2019150983A1 (en) 2021-01-28

Similar Documents

Publication Publication Date Title
US10574916B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and computer-readable storage medium
US10321044B2 (en) Image pickup apparatus and image pickup system with point image intensity distribution calculation
CN103167236A (en) Image capturing apparatus and focus detection method
US11388383B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium
JP7192778B2 (en) IMAGING APPARATUS AND METHOD AND IMAGE PROCESSING APPARATUS AND METHOD
US11184521B2 (en) Focus detection apparatus, focus detection method, and storage medium
CN103364405A (en) Surface defect detecting apparatus and control method thereof
JP2009236819A (en) Optical apparatus, photomask inspection device, and exposure device
US9571710B2 (en) Microlens array imaging device and imaging method
JP7287283B2 (en) Imaging device and imaging method
JP2017102637A5 (en)
CN111538033A (en) Active illumination associated imaging emission system and active illumination associated imaging system
JP2008070629A (en) Light detection device, camera, focus detection device, and optical characteristic measuring device
JPH0570101B2 (en)
JP2020170118A5 (en)
WO2021048029A1 (en) Optical sensor
WO2022163306A1 (en) Imaging device and imaging method
CN212694045U (en) Active illumination associated imaging emission system and active illumination associated imaging system
JPH02186318A (en) Photographic lens having filter
KR101511226B1 (en) Optical lens system and utilization using the same.
WO2016181620A1 (en) Image processing device, imaging device, image processing method, program, and storage medium
JP3658068B2 (en) Imaging device
Sun et al. Multi-perspective fluorescence Talbot microscopy
JP2010032805A (en) Imaging apparatus
JPH07136155A (en) Radiation image photographic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230508

R151 Written notification of patent or utility model registration

Ref document number: 7287283

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151