JP2006311472A - Imaging apparatus, imaging system, and imaging method - Google Patents

Imaging apparatus, imaging system, and imaging method Download PDF

Info

Publication number
JP2006311472A
JP2006311472A JP2005217803A JP2005217803A JP2006311472A JP 2006311472 A JP2006311472 A JP 2006311472A JP 2005217803 A JP2005217803 A JP 2005217803A JP 2005217803 A JP2005217803 A JP 2005217803A JP 2006311472 A JP2006311472 A JP 2006311472A
Authority
JP
Japan
Prior art keywords
coefficient
imaging
specifying information
subject
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005217803A
Other languages
Japanese (ja)
Inventor
Seiji Yoshikawa
誠司 芳川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2005217803A priority Critical patent/JP2006311472A/en
Priority to US11/909,789 priority patent/US7978252B2/en
Priority to PCT/JP2006/306477 priority patent/WO2006106736A1/en
Publication of JP2006311472A publication Critical patent/JP2006311472A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Lens Barrels (AREA)
  • Blocking Light For Cameras (AREA)
  • Structure And Mechanism Of Cameras (AREA)
  • Lenses (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus, imaging system and imaging method which enable a single apparatus to restore an image obtained by a plurality of optical systems. <P>SOLUTION: The imaging system includes: a plurality of imaging apparatuses 100A-100C, each having an optical system 110, a phase plate (wavefront coding optical element) 120, an imaging element 130 for imaging an object aberration image which has passed through the optical system 110 and the phase plate 120, an imaging apparatus side storage unit 140 for storing coefficient specifying information for specifying a convolution coefficient, and a transmission device 150 for transmitting the object aberration image data obtained from the imaging apparatus 130 and the coefficient specifying information stored in the storage unit 140; and a processing device 200 for acquiring a coefficient from the plurality of prestored convolution coefficients, according to the coefficient specifying information in accordance with the zoom position or zoom amount transmitted from the imaging apparatus 100 and generating object image data having no dispersion from the dispersion image signal supplied from the imaging element 130. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、撮像素子を用い、ズーム光学系を備えたデジタルスチルカメラや携帯電話搭載カメラ、携帯情報端末搭載カメラ等の撮像装置および撮像方法に関するものである。   The present invention relates to an imaging apparatus and an imaging method, such as a digital still camera, a mobile phone camera, a mobile information terminal camera, and the like that use an imaging device and have a zoom optical system.

近年急峻に発展を遂げている情報のデジタル化に相俟って映像分野においてもその対応が著しい。
特に、デジタルカメラに象徴されるように撮像面は従来のフィルムに変わって固体撮像素子であるCCD(Charge Coupled Device),CMOS(Complementary Metal Oxide Semiconductor)センサが使用されているのが大半である。
In response to the digitization of information, which has been rapidly developing in recent years, the response in the video field is also remarkable.
In particular, as symbolized by a digital camera, a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor) sensor, which is a solid-state image sensor, is used in most cases instead of a conventional film.

このように、撮像素子にCCDやCMOSセンサを使った撮像レンズ装置は、被写体の映像を光学系により光学的に取り込んで、撮像素子により電気信号として抽出するものであり、デジタルスチルカメラの他、ビデオカメラ、デジタルビデオユニット、パーソナルコンピュータ、携帯電話機、携帯情報端末(PDA:Personal DigitalAssistant)等に用いられている。   As described above, an imaging lens device using a CCD or CMOS sensor as an imaging element is for taking an image of a subject optically by an optical system and extracting it as an electrical signal by the imaging element. In addition to a digital still camera, It is used for a video camera, a digital video unit, a personal computer, a mobile phone, a personal digital assistant (PDA) and the like.

図17は、一般的な撮像レンズ装置の構成および光束状態を模式的に示す図である。
この撮像レンズ装置1は、光学系2とCCDやCMOSセンサ等の撮像素子3とを有する。
光学系は、物体側レンズ21,22、絞り23、および結像レンズ24を物体側(OBJS)から撮像素子3側に向かって順に配置されている。
FIG. 17 is a diagram schematically illustrating a configuration and a light flux state of a general imaging lens device.
The imaging lens device 1 includes an optical system 2 and an imaging element 3 such as a CCD or CMOS sensor.
In the optical system, the object side lenses 21 and 22, the diaphragm 23, and the imaging lens 24 are sequentially arranged from the object side (OBJS) toward the image sensor 3 side.

撮像レンズ装置1においては、図17に示すように、ベストフォーカス面を撮像素子面上に合致させている。
図18(A)〜(C)は、撮像レンズ装置1の撮像素子3の受光面でのスポット像を示している。
In the imaging lens device 1, as shown in FIG. 17, the best focus surface is matched with the imaging device surface.
FIGS. 18A to 18C show spot images on the light receiving surface of the imaging element 3 of the imaging lens device 1.

また、位相板(Wavefront Coding optical element)により光束を規則的に分散し、デジタル処理により復元させ被写界深度の深い画像撮影を可能にする等の撮像装置が提案されている(たとえば非特許文献1,2、特許文献1〜5参照)。
"Wavefront Coding;jointly optimized optical and digital imaging systems",Edward R.Dowski,Jr.,Robert H.Cormack,Scott D.Sarama. "Wavefront Coding;A modern method of achieving high performance and/or low cost imaging systems",Edward R.Dowski,Jr.,Gregory E.Johnson. USP6,021,005 USP6,642,504 USP6,525,302 USP6,069,738 特開2003−235794号公報
In addition, an imaging apparatus has been proposed in which a light beam is regularly dispersed by a phase front (wavefront coding optical element) and restored by digital processing to enable imaging with a deep depth of field (for example, non-patent literature). 1, 2, and patent documents 1 to 5).
"Wavefront Coding; jointly optimized optical and digital imaging systems", Edward R. Dowski, Jr., Robert H. Cormack, Scott D. Sarama. "Wavefront Coding; A modern method of achieving high performance and / or low cost imaging systems", Edward R. Dowski, Jr., Gregory E. Johnson. USP 6,021,005 USP 6,642,504 USP 6,525,302 USP 6,069,738 JP 2003-235794 A

上述した各文献にて提案された撮像装置においては、その全ては通常光学系に上述の位相板を挿入した場合のPSF(Point−Spread−Function)が一定になっていることが前提であり、PSFが変化した場合は、その後のカーネルを用いたコンボリューションにより、被写界深度の深い画像を実現することは極めて難しい。
したがって、単焦点でのレンズではともかく、ズーム系のレンズでは、その光学設計の精度の高さやそれに伴うコストアップが原因となり採用するには大きな問題を抱えている。
換言すれば、従来の撮像装置においては、適正なコンボリューション演算を行うことができず、ワイド(Wide)時やテレ(Tele)時のスポット(SPOT)像のズレを引き起こす非点収差、コマ収差、ズーム色収差等の各収差を無くす光学設計が要求される。
しかしながら、これらの収差を無くす光学設計は光学設計の難易度を増し、設計工数の増大、コスト増大、レンズの大型化の問題を引き起こす。
その結果、一つの光学系に対し、一つの位相板、一つの画像復元が要求されており、一つの画像復元により、複数の光学系を制御することは、不可能とされており、システム的に複数の光学系を必要とする装置に関し、コストアンプやシステムの増大が原因となり採用するには大きな問題を抱えている。
In the imaging devices proposed in the above-mentioned documents, all of them are based on the assumption that the PSF (Point-Spread-Function) when the above-described phase plate is inserted into a normal optical system is constant, When the PSF changes, it is extremely difficult to realize an image with a deep depth of field by convolution using a subsequent kernel.
Therefore, apart from a single-focus lens, a zoom lens has a great problem in adopting it due to the high accuracy of the optical design and the associated cost increase.
In other words, in the conventional imaging apparatus, proper convolution calculation cannot be performed, and astigmatism and coma that cause a shift of a spot (SPOT) image at the time of wide or tele (Tele). Therefore, an optical design that eliminates various aberrations such as zoom chromatic aberration is required.
However, the optical design that eliminates these aberrations increases the difficulty of optical design, causing problems such as an increase in design man-hours, an increase in cost, and an increase in the size of the lens.
As a result, one phase plate and one image restoration are required for one optical system, and it is impossible to control a plurality of optical systems by one image restoration. However, there is a big problem in adopting a device that requires a plurality of optical systems due to an increase in cost amplifiers and systems.

本発明の目的は、高精細な画質を得ることが可能で、しかも、光学系を簡単化でき、コスト低減を図ることができ、ズーム位置またはズーム量を気にすることなく、レンズ設計を行うことができ、かつ精度の高い演算による画像復元が可能で、しかも複数の光学システムの画像復元を一つの装置で行うことができる撮像装置、撮像システム、および撮像方法を提供することにある。   It is an object of the present invention to obtain a high-definition image quality, simplify an optical system, reduce costs, and perform lens design without worrying about the zoom position or zoom amount. Another object of the present invention is to provide an imaging apparatus, an imaging system, and an imaging method that can perform image restoration by high-accuracy calculation and that can perform image restoration of a plurality of optical systems with one apparatus.

本発明の第1の観点の撮像システムは、光学系と光波面変調素子とを通過した被写体収差画像を撮像可能な撮像素子と、コンボリューション係数を特定する係数特定情報を記憶する撮像装置側記憶手段と、前記撮像素子から得られた被写体収差画像データと前記記憶手段に記憶された前記係数特定情報とを送信する送信手段と、を含む撮像装置と、前記撮像装置の送信手段により送信された前記被写体収差画像データと前記係数特定情報とを受信する受信手段と、複数のコンボリューション係数を記憶する処理装置側記憶手段と、前記受信手段により受信した前記係数特定情報に基づき前記処理装置側記憶手段からーのコンボリューション係数を選択する係数選択手段と、前記受信手段により受信した前記被写体収差画像データを前記係数選択手段で選択した前記一のコンボリューション係数によって変換することにより収差のない被写体画像データを生成する変換手段と、を含む処理装置と、を有する。   An image pickup system according to a first aspect of the present invention includes an image pickup device capable of picking up an object aberration image that has passed through an optical system and a light wavefront modulation device, and an image pickup device-side storage that stores coefficient specifying information for specifying a convolution coefficient. Means, and transmission means for transmitting the subject aberration image data obtained from the imaging element and the coefficient specifying information stored in the storage means, and the transmission means of the imaging apparatus. Receiving means for receiving the subject aberration image data and the coefficient specifying information, a processing apparatus side storing means for storing a plurality of convolution coefficients, and the processing apparatus side storing based on the coefficient specifying information received by the receiving means. A coefficient selection means for selecting a convolution coefficient from the means, and the subject aberration image data received by the receiving means Having a processing unit including conversion means for generating a no aberration object image data, the by converting the selected the one convolution coefficient by the means.

本発明の第2の観点の撮像装置は、光学系と光波面変調素子とを通過した被写体収差画像を撮像可能な撮像素子と、コンボリューション係数を特定する係数特定情報を記憶する撮像装置側記憶手段と、前記撮像素子から得られた被写体収差画像データと前記記憶手段に記憶された前記係数特定情報とを送信する送信手段と、を含む。   An image pickup apparatus according to a second aspect of the present invention includes an image pickup element that can pick up an object aberration image that has passed through an optical system and a light wavefront modulation element, and an image pickup apparatus side storage that stores coefficient specifying information for specifying a convolution coefficient. And transmission means for transmitting subject aberration image data obtained from the image sensor and the coefficient specifying information stored in the storage means.

本発明の第3の観点は、複数のレンズを選択的に装着可能な撮像装置であって、前記複数のレンズの内少なくとも一のレンズおよび光波面変調素子を通過した被写体収差画像を撮像可能な撮像素子と、装着されたレンズに応じたコンボリューション係数を特定する係数特定情報を取得するコンボリューション係数特定情報取得手段と、前記撮像素子から得られた被写体収差画像データと前記コンボリューション係数取得手段により取得された前記係数特定情報とを送信する送信手段と、を含む。   According to a third aspect of the present invention, there is provided an imaging apparatus capable of selectively mounting a plurality of lenses, and capable of imaging a subject aberration image that has passed through at least one of the plurality of lenses and the light wavefront modulation element. An image sensor, convolution coefficient specifying information acquiring means for acquiring coefficient specifying information for specifying a convolution coefficient corresponding to the mounted lens, subject aberration image data obtained from the image sensor, and the convolution coefficient acquiring means; Transmitting means for transmitting the coefficient specifying information acquired in step (1).

本発明の第4の観点の撮像装置は、ズ−ム光学系と光波面変調素子とを通過した被写体収差画像を撮像可能な撮像素子と、ズ−ム光学系のズ−ム量に応じたコンボリューション係数を特定可能な複数の係数特定情報を記憶する撮像装置側記憶手段と、ズ−ム光学系のズ−ム量を検知するズ−ム量検知手段と、前記ズ−ム量検知手段により検知されたズ−ム量に基づき、前記撮像装置側記憶手段から一の係数特定情報を取得する係数特定情報取得手段と、前記撮像素子から得られた被写体収差画像データと前記係数特定情報取得手段により取得された前記係数特定情報とを送信する送信手段と、を含む。   An image pickup apparatus according to a fourth aspect of the present invention is an image pickup device that can pick up an object aberration image that has passed through a zoom optical system and a light wavefront modulation device, and a zoom amount of the zoom optical system. Imaging apparatus side storage means for storing a plurality of coefficient specifying information capable of specifying convolution coefficients, zoom amount detecting means for detecting a zoom amount of a zoom optical system, and the zoom amount detecting means Coefficient specifying information acquisition means for acquiring one coefficient specifying information from the imaging device side storage means, subject aberration image data obtained from the image sensor, and acquisition of the coefficient specifying information based on the zoom amount detected by Transmitting means for transmitting the coefficient specifying information acquired by the means.

本発明の第5の観点の撮像装置は、光学系と光波面変調素子とを通過した被写体収差画像を撮像可能な撮像素子と、被写体までの距離に相当する情報を取得する被写体距離情報取得手段と、被写体までの距離に応じたコンボリューション係数を特定可能な複数の係数特定情報を記憶する撮像装置側記憶手段と、前記被写体距離情報取得手段により取得された被写体までの距離に相当する情報に基づき、前記撮像装置側記憶手段から一の係数特定情報を取得する係数特定情報取得手段と、前記撮像素子から得られた被写体収差画像データと前記係数特定情報取得手段により取得された前記係数特定情報とを送信する送信手段と、を含む。   An imaging apparatus according to a fifth aspect of the present invention is an imaging device capable of imaging a subject aberration image that has passed through an optical system and a light wavefront modulation device, and subject distance information acquisition means for acquiring information corresponding to the distance to the subject. And information corresponding to the distance to the subject acquired by the imaging device-side storage means for storing a plurality of coefficient specifying information capable of specifying a convolution coefficient according to the distance to the subject, and the subject distance information acquiring means. Based on the coefficient specifying information acquiring means for acquiring one coefficient specifying information from the imaging device side storage means, the subject aberration image data obtained from the imaging element, and the coefficient specifying information acquired by the coefficient specifying information acquiring means Transmitting means for transmitting.

本発明の第6の観点の撮像方法は、撮像素子により光学系と光波面変調素子とを通過した被写体収差画像を撮像するステップと、被写体収差画像データと、コンボリューション係数を特定する係数特定情報とを送信するステップと、前記送信された前記被写体収差画像データと前記係数特定情報とを受信するステップと、前記受信した前記係数特定情報に基づき複数のコンボリューション係数からーのコンボリューション係数を選択する係数選択手段と、前記受信した前記被写体収差画像データを前記係数選択手段で選択した前記一のコンボリューション係数によって変換することにより収差のない被写体画像データを生成するステップと、を含む。   According to a sixth aspect of the present invention, there is provided an imaging method in which a subject aberration image that has passed through an optical system and a light wavefront modulation element is picked up by an imaging device, subject aberration image data, and coefficient specifying information for specifying a convolution coefficient. Transmitting the subject aberration image data and the coefficient specifying information, and selecting a convolution coefficient from a plurality of convolution coefficients based on the received coefficient specifying information. And a step of generating subject image data having no aberration by converting the received subject aberration image data with the one convolution coefficient selected by the coefficient selection unit.

本発明によれば、高精細な画質を得ることが可能で、しかも複数の光学システムの復元を一つの装置で復元できる。   According to the present invention, high-definition image quality can be obtained, and restoration of a plurality of optical systems can be restored with a single device.

以下、本発明の実施形態を添付図面に関連付けて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

図1は、本実施形態に係る撮像システムの構成図である。   FIG. 1 is a configuration diagram of an imaging system according to the present embodiment.

本撮像システム10は、複数(本実施形態においては3つ)の光学システムである撮像装置100A,100B,100Cと処理装置200とを有する。
そして、撮像システム10は、各撮像装置100A,100B,100Cの撮像画像データ、光学システムの種類、画像取り込み時のズーム量や概略被写体距離情報、コンボリューション係数を特性する係数特定情報を、無線あるいは有線にて処理装置200に送信可能に構成されている。
The imaging system 10 includes imaging devices 100A, 100B, and 100C and a processing device 200 that are a plurality (three in the present embodiment) of optical systems.
Then, the imaging system 10 transmits the captured image data of each of the imaging apparatuses 100A, 100B, and 100C, the type of the optical system, the zoom amount and approximate subject distance information at the time of image capture, and coefficient specifying information that characterizes the convolution coefficient wirelessly or It is configured to be able to transmit to the processing device 200 by wire.

各撮像装置100A,100B,100Cは、基本的には、図1に示すように、たとえば光学系110、位相板120、光学系110と位相板120とを通過した被写体収差画像を撮像可能な撮像素子130と、コンボリューション係数を特定する係数特定情報を記憶する撮像装置側記憶部140と、撮像素子130から得られた被写体収差画像データと記憶部140に記憶された係数特定情報とを送信する送信装置150と、を主構成要素として有している。   As shown in FIG. 1, each of the imaging devices 100 </ b> A, 100 </ b> B, and 100 </ b> C basically has an imaging system capable of imaging, for example, an object aberration image that has passed through the optical system 110, the phase plate 120, and the optical system 110 and the phase plate 120. The element 130, the imaging device side storage unit 140 that stores coefficient specifying information for specifying the convolution coefficient, the subject aberration image data obtained from the imaging element 130, and the coefficient specifying information stored in the storage unit 140 are transmitted. The transmitter 150 is a main component.

図2は、本実施形態に係る撮像装置のより具体的な構成を示すブロックである。図2の撮像装置100は、図1の各撮像装置の構成に加えて、さらにズーム量検知手段としてのズーム情報検出装置160が設けられている。   FIG. 2 is a block diagram showing a more specific configuration of the imaging apparatus according to the present embodiment. The imaging apparatus 100 in FIG. 2 is further provided with a zoom information detection apparatus 160 as a zoom amount detection unit in addition to the configuration of each imaging apparatus in FIG.

ズーム光学系110は、撮像対象物体(被写体)OBJの映像を光学的に取り込む。
撮像素子130は、位相板120を含むズーム光学系110で取り込んだ像が結像され、結像1次画像情報を電気信号の1次画像信号FIMとして送信装置150に出力するCCDやCMOSセンサからなる。図2においては、撮像素子130を一例としてCCDとして記載している。
送信装置150は、ズ−ム情報検出装置160により検知されたズ−ム量に基づき、記憶部140から一の係数特定情報を取得する係数特定情報取得手段として機能し、撮像素子130から得られた被写体収差画像データと取得した係数特定情報とを処理装置200に無線あるいは有線で送信する。
The zoom optical system 110 optically captures an image of the imaging target object (subject) OBJ.
The image pickup device 130 is a CCD or CMOS sensor that forms an image captured by the zoom optical system 110 including the phase plate 120 and outputs the primary image information of the image formation as the primary image signal FIM of the electrical signal to the transmission device 150. Become. In FIG. 2, the imaging element 130 is described as a CCD as an example.
The transmission device 150 functions as a coefficient identification information acquisition unit that acquires one coefficient identification information from the storage unit 140 based on the amount of zoom detected by the zoom information detection apparatus 160, and is obtained from the image sensor 130. The subject aberration image data and the acquired coefficient specifying information are transmitted to the processing device 200 wirelessly or by wire.

図3は、本実施形態に係るズーム光学系110の光学系の構成例を模式的に示す図である。   FIG. 3 is a diagram schematically illustrating a configuration example of the optical system of the zoom optical system 110 according to the present embodiment.

図3のズーム光学系110は、物体側OBJSに配置された物体側レンズ111と、撮像素子130に結像させるための結像レンズ112と、物体側レンズ111と結像レンズ112間に配置され、結像レンズ112による撮像素子130の受光面への結像の波面を変形させる、たとえば3次元的曲面を有する位相板(Cubic Phase Plate)からなる光波面変調素子(波面形成用光学素子:Wavefront Coding Optical Element)群113を有する。また、物体側レンズ111と結像レンズ112間には図示しない絞りが配置される。
なお、本実施形態においては、位相板を用いた場合について説明したが、本発明の光波面変調素子としては、波面を変形させるものであればどのようなものでもよく、厚みが変化する光学素子(たとえば、上述の3次の位相板)、屈折率が変化する光学素子(たとえば屈折率分布型波面変調レンズ)、レンズ表面へのコーディングにより厚み、屈折率が変化する光学素子(たとえば、波面変調ハイブリッドレンズ)、光の位相分布を変調可能な液晶素子(たとえば、液晶空間位相変調素子)等の光波面変調素子であればよい。
The zoom optical system 110 in FIG. 3 is disposed between an object side lens 111 disposed on the object side OBJS, an image forming lens 112 for forming an image on the image sensor 130, and between the object side lens 111 and the image forming lens 112. An optical wavefront modulation element (wavefront forming optical element: Wavefront) made of, for example, a phase plate (Cubic Phase Plate) having a three-dimensional curved surface, which deforms the wavefront of the image formation on the light receiving surface of the imaging element 130 by the imaging lens 112. Coding Optical Element) group 113 is included. A stop (not shown) is disposed between the object side lens 111 and the imaging lens 112.
In the present embodiment, the case where the phase plate is used has been described. However, the optical wavefront modulation element of the present invention may be any element that deforms the wavefront, and an optical element whose thickness changes. (For example, the above-described third-order phase plate), an optical element whose refractive index changes (for example, a gradient index wavefront modulation lens), an optical element whose thickness and refractive index change by coding on the lens surface (for example, wavefront modulation) A light wavefront modulation element such as a hybrid lens) or a liquid crystal element capable of modulating the phase distribution of light (for example, a liquid crystal spatial phase modulation element) may be used.

図3のズーム光学系110は、デジタルカメラに用いられる3倍ズームに光学位相板120aを挿入した例である。
図で示された位相板120は、光学系により収束される光束を規則正しく分散する光学レンズである。この位相板を挿入することにより、撮像素子130上ではピントのどこにも合わない画像を実現する。
換言すれば、位相板120によって深度の深い光束(像形成の中心的役割を成す)とフレアー(ボケ部分)を形成している。
この規則的に分光した画像をデジタル処理により、ピントの合った画像に復元する手段を波面収差制御光学系システム(WFCO:Wavefront Coding Optical system)といい、この処理を送信先である処理装置200側において行う。
The zoom optical system 110 in FIG. 3 is an example in which an optical phase plate 120a is inserted into a 3 × zoom used in a digital camera.
The phase plate 120 shown in the figure is an optical lens that regularly disperses the light beam converged by the optical system. By inserting this phase plate, an image that does not fit anywhere on the image sensor 130 is realized.
In other words, the phase plate 120 forms a deep light beam (which plays a central role in image formation) and a flare (blurred portion).
Means for restoring the regularly dispersed image to a focused image by digital processing is called a wavefront aberration controlling optical system (WFCO), and this processing is performed on the processing apparatus 200 side which is a transmission destination. To do.

図4は、位相板を含まないズーム光学系110のワイド(Wide)時のスポット像を示す図である。図5は、位相板を含まないズーム光学系110のテレ(Tele)時のスポット像を示す図である。図6は、位相板を含むズーム光学系110の無限側のスポット像を示す図である。図7は、位相板を含むズーム光学系110の至近側のスポット像を示す図である。   FIG. 4 is a diagram showing a spot image when the zoom optical system 110 not including the phase plate is wide. FIG. 5 is a diagram illustrating a spot image at the time of tele (tele) of the zoom optical system 110 that does not include a phase plate. FIG. 6 is a diagram showing a spot image on the infinite side of the zoom optical system 110 including the phase plate. FIG. 7 is a diagram showing a spot image on the near side of the zoom optical system 110 including the phase plate.

基本的に、位相板を含まない光学レンズ系を通った光のスポット像は図4および図5に示されるように、そのズーム光学系がワイド時とテレ時では、異なったスポット像を示す。
当然、図6および図7に示すように、このスポット像に影響される位相板を通したスポット像も無限側と至近側では異なったスポット像となる。
このような、ズーム位置で異なるスポット像を持つ光学系においては、後で説明するH関数が異なる。
Basically, as shown in FIGS. 4 and 5, spot images of light passing through an optical lens system that does not include a phase plate show different spot images when the zoom optical system is wide and tele.
Naturally, as shown in FIGS. 6 and 7, the spot image that has passed through the phase plate affected by the spot image is also different on the infinite side and the near side.
In such an optical system having different spot images at the zoom position, the H function described later is different.

従来の装置では適正なコンボリューション演算を行うことができず、このスポット像のズレを引き起こす非点収差、コマ収差、ズーム色収差等の各収差を無くす光学設計が要求される。これらの収差を無くす光学設計は光学設計の難易度を増し、設計工数の増大、コスト増大、レンズの大型化の問題を引き起こす。
そこで、本実施形態においては、図2に示すように、撮像装置(カメラ)100が撮影状態に入った時点で、そのズーム位置またはズーム量をズーム情報検出装置160から読み出し、送信装置150から光学システムの種類、画像取り込み時のズーム量、コンボリューション係数を特定する係数特定情報を、無線あるいは有線にて処理装置200に送信する。
The conventional apparatus cannot perform an appropriate convolution calculation, and requires an optical design that eliminates astigmatism, coma aberration, zoom chromatic aberration, and the like that cause the deviation of the spot image. Optical design that eliminates these aberrations increases the difficulty of optical design, causing problems such as an increase in design man-hours, an increase in cost, and an increase in lens size.
Therefore, in the present embodiment, as shown in FIG. 2, when the imaging device (camera) 100 enters the shooting state, the zoom position or zoom amount is read from the zoom information detection device 160 and optically transmitted from the transmission device 150. Coefficient specifying information for specifying the type of system, the zoom amount at the time of image capture, and the convolution coefficient is transmitted to the processing device 200 wirelessly or by wire.

処理装置200は、送信されてきたズーム位置またはズーム量に応じて特定情報に基づき、あらかじめ記憶した複数のコンボリューション係数から一の係数を取得して、撮像素子130からの分散画像信号より分散のない被写体画像データを生成する。   The processing device 200 acquires one coefficient from a plurality of convolution coefficients stored in advance based on the specific information in accordance with the transmitted zoom position or zoom amount, and distributes the variance from the dispersed image signal from the image sensor 130. No subject image data is generated.

なお、本実施形態において、分散とは、上述したように、位相板120aを挿入することにより、撮像素子130上ではピントのどこにも合わない画像を形成し、位相板120aによって深度の深い光束(像形成の中心的役割を成す)とフレアー(ボケ部分)を形成する現象をいい、像が分散してボケ部分を形成する振る舞いから収差と同様の意味合いが含まれる。したがって、本実施形態においては、収差として説明する場合もある。   In the present embodiment, as described above, dispersion refers to the formation of an image that does not fit anywhere on the image sensor 130 by inserting the phase plate 120a. It plays a central role in image formation) and a phenomenon of forming flare (blurred portion), and includes the same meaning as aberration because of the behavior of the image being dispersed to form a blurred portion. Therefore, in this embodiment, it may be described as aberration.

処理装置200は、図1に示すように、受信部210、受信情報コントロール部220、コンボリューション装置230、カーネル・数値演算係数格納レジスタ240、および画像処理演算プロセッサ250を有する。   As illustrated in FIG. 1, the processing device 200 includes a reception unit 210, a reception information control unit 220, a convolution device 230, a kernel / numerical operation coefficient storage register 240, and an image processing operation processor 250.

図8は、受信側である処理装置200の処理概要を示すフォーチャートである。   FIG. 8 is a chart showing a processing outline of the processing apparatus 200 on the receiving side.

この処理装置200においては、画像処理演算プロセッサ250により、この複数の光学システムである撮像装置100A〜100Cを順次に駆動させる。その際、各撮像装置100A〜100Cの取り込んだ画像転送が受信部210において、重複しないよう受信部210より各撮像装置100A〜100Cからの送信情報の受信タイミングを制御する。
次に、画像取り込みを指示された単一の光学システム、たとえば撮像装置100Aは、画像情報を取り込み、その画像情報を送信装置150に伝達する。
画像情報を伝達された送信装置150は、受信部210との同期を取りながら、画像情報、光学システムの種類(AorBorC)、画像取り込み時のズーム情報、画像取り込み時の概略被写体距離情報等、カーネル、数値演算格納レジスタ240の最適値決定の要因となる情報(係数特定情報)を付加して、受信部210にデータを無線、あるいは有線で送信する。
情報を受信した受信部210は、その最適値決定の要因となる情報を受信情報コントロール部220に転送する(ST1〜ST3)。
この受信情報コントロール部220は、カーネル、数値演算格納レジスタ240より、その最適値をコンボリューション装置30にセットする(ST4)。
コンボリューション装置230は、取り込まれた画像情報とセットされた最適値であるカーネル、数値演算値を用い画像の最適復元を行う(ST5)。
In the processing device 200, the image processing arithmetic processor 250 sequentially drives the imaging devices 100A to 100C as the plurality of optical systems. At that time, the reception unit 210 controls the reception timing of transmission information from each of the imaging devices 100A to 100C so that the image transfer captured by each of the imaging devices 100A to 100C does not overlap in the reception unit 210.
Next, the single optical system instructed to capture an image, for example, the imaging apparatus 100A captures the image information and transmits the image information to the transmitting apparatus 150.
The transmitter 150 to which the image information has been transmitted, while synchronizing with the receiving unit 210, includes image information, the type of optical system (AorBorC), zoom information at the time of image capture, approximate subject distance information at the time of image capture, etc. Then, information (coefficient specifying information) that is a factor for determining the optimum value in the numerical operation storage register 240 is added, and the data is transmitted to the receiving unit 210 wirelessly or by wire.
Receiving unit 210 that has received the information transfers information that is a factor in determining the optimum value to received information control unit 220 (ST1 to ST3).
The reception information control unit 220 sets the optimum value in the convolution device 30 from the kernel and numerical operation storage register 240 (ST4).
The convolution device 230 performs optimum restoration of the image using the captured image information, the kernel which is the optimum value set, and the numerical operation value (ST5).

ここで、WFCOの基本原理について説明する。
図9に示すように、被写体の画像fがWFCO光学系Hに入ることにより、g画像が生成される。
これは、次のような式で表すことができる。
Here, the basic principle of WFCO will be described.
As shown in FIG. 9, the image f of the subject enters the WFCO optical system H, thereby generating a g image.
This can be expressed by the following equation.

(数1)
g=H*f
ここで、*はコンボリューションを表す。
(Equation 1)
g = H * f
Here, * represents convolution.

生成された、画像から被写体を求めるためには、次の処理を要する。   In order to obtain a subject from the generated image, the following processing is required.

(数2)
f=H-1*g
(Equation 2)
f = H -1 * g

ここで、関数Hに関するカーネルサイズと演算係数について説明する。
個々のズームポジション(ズーム位置)をZpn、Zpn−1・・・とする。
そのH関数をHn、Hn−1、・・・・とする。
各々のスポットが異なるため、各々のH関数は、次のようになる。
Here, the kernel size and calculation coefficient regarding the function H will be described.
Let each zoom position (zoom position) be Zpn, Zpn-1,.
The H function is defined as Hn, Hn-1,.
Since each spot is different, each H function is as follows.

Figure 2006311472
Figure 2006311472

この行列の行数および/または列数の違いをカーネルサイズ、各々の数字を演算係数とする。   The difference in the number of rows and / or the number of columns in this matrix is the kernel size, and each number is the operation coefficient.

上述したように、光波面変調素子としての位相板をズーム光学系に備えた撮像装置に適用する場合、ズーム光学系のズーム位置によって生成されるスポット像が異なる。このため、位相板より得られる焦点ズレ画像(スポット画像)を後段のDSP等でコンボリューション演算する際、適性な焦点合わせ画像を得るためには、ズーム位置に応じて異なるコンボリューション演算が必要となる。
そこで、本実施形態においては、ズーム情報検出装置160を設け、ズーム位置に応じて適正なコンボリューション演算を行い、ズーム位置によらず適性な焦点合わせ画像を得るように構成されている。
As described above, when a phase plate as a light wavefront modulation element is applied to an imaging apparatus provided in a zoom optical system, the spot image generated differs depending on the zoom position of the zoom optical system. For this reason, when a convolution calculation is performed on a defocus image (spot image) obtained from the phase plate by a DSP or the like at a later stage, different convolution calculations are required depending on the zoom position in order to obtain an appropriate focused image. Become.
Therefore, in the present embodiment, the zoom information detection device 160 is provided, and is configured to perform an appropriate convolution calculation according to the zoom position and obtain an appropriate focused image regardless of the zoom position.

以上のように、処理装置200における適正なコンボリーション演算には、コンボリューションの演算係数をレジスタ240に記憶しておく構成をとることができる。
この構成の他にも、以下の構成を採用することが可能である。
As described above, a proper convolution calculation in the processing apparatus 200 may be configured to store the convolution calculation coefficient in the register 240.
In addition to this configuration, the following configuration can be employed.

各ズーム位置に応じて、レジスタ240に補正係数を予め記憶しておき、この補正係数を用いて演算係数を補正し、補正した演算係数で適性なコンボリューション演算を行う構成、各ズーム位置に応じて、レジスタ240にカーネルサイズやコンボリューションの演算係数自体を予め記憶しておき、これら記憶したカーネルサイズや演算係数でコンボリューション演算行う構成、ズーム位置に応じた演算係数を関数としてレジスタ302に予め記憶しておき、ズーム位置によりこの関数より演算係数を求め、計算した演算係数でコンボリューション演算を行う構成等、を採用することが可能である。   A configuration in which a correction coefficient is stored in advance in the register 240 in accordance with each zoom position, a calculation coefficient is corrected using the correction coefficient, and an appropriate convolution calculation is performed using the corrected calculation coefficient. Then, the kernel 240 and the convolution calculation coefficient itself are stored in the register 240 in advance, the convolution calculation is performed using the stored kernel size and calculation coefficient, and the calculation coefficient corresponding to the zoom position is stored in the register 302 as a function in advance. It is possible to adopt a configuration in which the calculation coefficient is obtained from this function based on the zoom position, and the convolution calculation is performed using the calculated calculation coefficient.

本実施形態においては、WFCOを採用し、かつ、高精細な画質を得ることが可能で、しかも、光学系を簡単化でき、コスト低減を図ることが可能となっている。
以下、この特徴について説明する。
In the present embodiment, it is possible to adopt WFCO and obtain high-definition image quality, simplify the optical system, and reduce costs.
Hereinafter, this feature will be described.

図10(A)〜(C)は、撮像装置100の撮像素子130の受光面でのスポット像を示している。
図10(A)は焦点が0.2mmずれた場合(Defocus=0.2mm)、図10(B)が合焦点の場合(Best focus)、図9(C)が焦点が−0.2mmずれた場合(Defocus=−0.2mm)の各スポット像を示している。
図10(A)〜(C)からもわかるように、本実施形態に係る撮像レンズ装置200においては、位相板120を含む波面形成用光学素子群113によって深度の深い光束(像形成の中心的役割を成す)とフレアー(ボケ部分)が形成される。
10A to 10C show spot images on the light receiving surface of the imaging element 130 of the imaging apparatus 100. FIG.
10A shows a case where the focal point is shifted by 0.2 mm (Defocus = 0.2 mm), FIG. 10B shows a case where the focal point is a focal point (Best focus), and FIG. 9C shows a case where the focal point is shifted by −0.2 mm. In this case, each spot image is shown (Defocus = −0.2 mm).
As can be seen from FIGS. 10A to 10C, in the imaging lens device 200 according to the present embodiment, the wavefront forming optical element group 113 including the phase plate 120 causes a deep light beam (a central part of image formation). Play a role) and flare (blurred part) is formed.

このように、本実施形態の撮像装置100において形成された1次画像FIMは、深度が非常に深い光束条件にしている。   As described above, the primary image FIM formed in the imaging apparatus 100 of the present embodiment has a light beam condition with a very deep depth.

図11(A),(B)は、本実施形態に係る撮像レンズ装置により形成される1次画像の変調伝達関数(MTF:Modulation Transfer Function)について説明するための図であって、図11(A)は撮像レンズ装置の撮像素子の受光面でのスポット像を示す図で、図11(B)が空間周波数に対するMTF特性を示している。
本実施形態においては、高精細な最終画像は後段の、たとえばデジタルシグナルプロセッサ(Digital Signal Processor)からなる画像処理装置300の補正処理に任せるため、図11(A),(B)に示すように、1次画像のMTFは本質的に低い値になっている。
FIGS. 11A and 11B are diagrams for explaining a modulation transfer function (MTF) of a primary image formed by the imaging lens device according to the present embodiment. FIG. 11A is a diagram showing a spot image on the light receiving surface of the imaging element of the imaging lens device, and FIG. 11B shows the MTF characteristics with respect to the spatial frequency.
In the present embodiment, the high-definition final image is left to the correction processing of the image processing apparatus 300 including a digital signal processor (Digital Signal Processor), for example, as shown in FIGS. 11A and 11B. The MTF of the primary image is essentially a low value.

処理装置200は、たとえばDSPにより構成され、上述したように、撮像装置100による1次画像FIMを受けて、1次画像の空間周波数におけるMTFをいわゆる持ち上げる所定の補正処理等を施して高精細な最終画像FNLIMを形成する。   The processing device 200 is configured by, for example, a DSP, and receives a primary image FIM from the imaging device 100 as described above and performs a predetermined correction process or the like that raises the MTF at the spatial frequency of the primary image so as to achieve high definition. A final image FNLIM is formed.

処理装置200のMTF補正処理は、たとえば図12の曲線Aで示すように、本質的に低い値になっている1次画像のMTFを、空間周波数をパラメータとしてエッジ強調、クロマ強調等の後処理にて、図12中曲線Bで示す特性に近づく(達する)ような補正を行う。
図12中曲線Bで示す特性は、たとえば本実施形態のように、波面形成用光学素子を用いずに波面を変形させない場合に得られる特性である。
なお、本実施形態における全ての補正は、空間周波数のパラメータによる。
The MTF correction processing of the processing apparatus 200 is, for example, post-processing such as edge enhancement and chroma enhancement using the spatial frequency as a parameter for the MTF of the primary image which is essentially a low value, as shown by a curve A in FIG. Thus, the correction is performed so as to approach (reach) the characteristic indicated by the curve B in FIG.
The characteristic indicated by the curve B in FIG. 12 is a characteristic obtained when the wavefront is not deformed without using the wavefront forming optical element as in the present embodiment, for example.
It should be noted that all corrections in the present embodiment are based on spatial frequency parameters.

本実施形態においては、図12に示すように、光学的に得られる空間周波数に対するMTF特性曲線Aに対して、最終的に実現したいMTF特性曲線Bを達成するためには、それぞれの空間周波数に対し、エッジ強調等の強弱を付け、元の画像(1次画像)に対して補正をかける。
たとえば、図12のMTF特性の場合、空間周波数に対するエッジ強調の曲線は、図13に示すようになる。
In this embodiment, as shown in FIG. 12, in order to achieve the MTF characteristic curve B to be finally realized with respect to the MTF characteristic curve A with respect to the optically obtained spatial frequency, each spatial frequency is changed to each spatial frequency. On the other hand, the original image (primary image) is corrected by applying strength such as edge enhancement.
For example, in the case of the MTF characteristic of FIG. 12, the curve of edge enhancement with respect to the spatial frequency is as shown in FIG.

すなわち、空間周波数の所定帯域内における低周波数側および高周波数側でエッジ強調を弱くし、中間周波数領域においてエッジ強調を強くして補正を行うことにより、所望のMTF特性曲線Bを仮想的に実現する。   That is, a desired MTF characteristic curve B is virtually realized by performing correction by weakening edge enhancement on the low frequency side and high frequency side within a predetermined spatial frequency band and strengthening edge enhancement in the intermediate frequency region. To do.

このように、実施形態に係る撮像システム10は、1次画像を形成する光学系110を含む複数の撮像装置100と、1次画像を高精細な最終画像に形成する処理装置200からなり、光学系システムの中に、波面成形用の光学素子を新たに設けるか、またはガラス、プラスチックなどのような光学素子の面を波面成形用に成形したものを設けることにより、結像の波面を変形し、そのような波面をCCDやCMOSセンサからなる撮像素子130の撮像面(受光面)に結像させ、その結像1次画像を、処理装置200を通して高精細画像を得る画像形成システムである。
本実施形態では、撮像装置100による1次画像は深度が非常に深い光束条件にしている。そのために、1次画像のMTFは本質的に低い値になっており、そのMTFの補正を処理装置200で行う。
As described above, the imaging system 10 according to the embodiment includes the plurality of imaging devices 100 including the optical system 110 that forms the primary image, and the processing device 200 that forms the primary image into a high-definition final image. In the system system, the wavefront of the imaging is deformed by providing a new optical element for wavefront shaping, or by providing an optical element such as glass or plastic that has been molded for wavefront shaping. In this image forming system, such a wavefront is imaged on an imaging surface (light-receiving surface) of an imaging device 130 made of a CCD or a CMOS sensor, and the imaged primary image is obtained through a processing device 200.
In the present embodiment, the primary image obtained by the imaging apparatus 100 has a light flux condition with a very deep depth. For this reason, the MTF of the primary image is essentially a low value, and the processing device 200 corrects the MTF.

ここで、本実施形態における撮像装置100における結像のプロセスを、波動光学的に考察する。
物点の1点から発散された球面波は結像光学系を通過後、収斂波となる。そのとき、結像光学系が理想光学系でなければ収差が発生する。波面は球面でなく複雑な形状となる。幾何光学と波動光学の間を取り持つのが波面光学であり、波面の現象を取り扱う場合に便利である。
結像面における波動光学的MTFを扱うとき、結像光学系の射出瞳位置における波面情報が重要となる。
MTFの計算は結像点における波動光学的強度分布のフーリエ変換で求まる。その波動光学的強度分布は波動光学的振幅分布を2乗して得られるが、その波動光学的振幅分布は射出瞳における瞳関数のフーリエ変換から求まる。
さらにその瞳関数はまさに射出瞳位置における波面情報(波面収差)そのものからであることから、その光学系110を通して波面収差が厳密に数値計算できればMTFが計算できることになる。
Here, the imaging process in the imaging apparatus 100 according to the present embodiment will be considered in terms of wave optics.
A spherical wave diverging from one of the object points becomes a convergent wave after passing through the imaging optical system. At that time, aberration occurs if the imaging optical system is not an ideal optical system. The wavefront is not a spherical surface but a complicated shape. Wavefront optics lies between geometric optics and wave optics, which is convenient when dealing with wavefront phenomena.
When dealing with the wave optical MTF on the imaging plane, the wavefront information at the exit pupil position of the imaging optical system is important.
The MTF is calculated by Fourier transform of the wave optical intensity distribution at the imaging point. The wave optical intensity distribution is obtained by squaring the wave optical amplitude distribution, and the wave optical amplitude distribution is obtained from the Fourier transform of the pupil function in the exit pupil.
Further, since the pupil function is exactly from the wavefront information (wavefront aberration) at the exit pupil position itself, if the wavefront aberration can be precisely calculated through the optical system 110, the MTF can be calculated.

したがって、所定の手法によって射出瞳位置での波面情報に種々の加工を施せば、任意に結像面におけるMTF値は変更可能である。
本実施形態においても、波面の形状変化を波面形成用光学素子で行うのが主であるが、まさにphase(位相、光線に沿った光路長)に増減を設けて目的の波面形成を行っている。
そして、目的の波面形成を行えば、射出瞳からの射出光束は、図9(A)〜(C)に示す幾何光学的なスポット像からわかるように、光線の密な部分と疎の部分から形成される。
この光束状態のMTFは空間周波数の低いところでは低い値を示し、空間周波数の高いところまでは何とか解像力は維持している特徴を示している。
すなわち、この低いMTF値(または、幾何光学的にはこのようなスポット像の状態)であれば、エリアジングの現象を発生させないことになる。
つまり、ローパスフィルタが必要ないのである。
そして、後段のDSP等からなる画像処理装置200でMTF値を低くしている原因のフレアー的画像を除去すれば良いのである。それによってMTF値は著しく向上する。
Therefore, if the wavefront information at the exit pupil position is subjected to various processes by a predetermined method, the MTF value on the imaging plane can be arbitrarily changed.
In this embodiment, the wavefront shape is mainly changed by the wavefront forming optical element, but the target wavefront is formed by increasing or decreasing the phase (phase, optical path length along the light beam). .
Then, if the desired wavefront is formed, the exiting light flux from the exit pupil is made up of dense and sparse portions of the light, as can be seen from the geometric optical spot images shown in FIGS. It is formed.
The MTF in the luminous flux state shows a low value at a low spatial frequency and a characteristic that the resolving power is managed up to a high spatial frequency.
That is, if this MTF value is low (or such a spot image state in terms of geometrical optics), the phenomenon of aliasing will not occur.
That is, a low-pass filter is not necessary.
Then, the flare-like image that causes the MTF value to be lowered may be removed by the image processing apparatus 200 including a DSP or the like at the subsequent stage. Thereby, the MTF value is significantly improved.

以上説明したように、本実施形態によれば、光学系110、光波面変調素子としての位相板120、光学系110と位相板120とを通過した被写体収差画像を撮像可能な撮像素子130と、コンボリューション係数を特定する係数特定情報を記憶する撮像装置側記憶部140と、撮像素子130から得られた被写体収差画像データと記憶部140に記憶された係数特定情報とを送信する送信装置150と、を主構成要素として有する複数の撮像装置100A〜100Cと、撮像装置100から送信されてきたズーム位置またはズーム量に応じた係数特定情報に基づき、あらかじめ記憶した複数のコンボリューション係数から一の係数を取得して、撮像素子130からの分散画像信号より分散のない被写体画像データを生成する処理装置200とを有することから、複数の光学システムの画像復元を一つの装置で行うことができる。
ここで、撮像装置100A〜100Cはそれぞれのズーム位置またはズーム量に応じて適切な係数特性情報を記憶部140から選択して送信を行う。
また、ズーム位置を気にすることなくレンズ設計ができ、かつ精度の良いコンボリューションによる画像復元が可能となる。したがって、どのようなズームレンズであっても、難度が高く、高価でかつ大型化した光学レンズを必要としないレンズを駆動させること無くピントの合った画像を提供することが可能となる利点がある。
そして、本実施形態に係る撮像装置100は、デジタルカメラやカムコーダー等の民生機器の小型、軽量、コストを考慮されたズームレンズのWFCOに使用することが可能である。
ここで、撮像装置100A〜100Cは、位相板に応じた係数特定情報を記憶部140から選択し、処理装置200に送信するとともに、撮像装置各個のズーム位置やズーム量に応じたズーム情報を同じく送信装置150を用いて処理装置200へ送信するようにしてもよい。この場合処理装置200は、受信した係数特定情報と、ズーム情報とから一のコンボリュ−ション係数を取得して、画像復元を行う。
As described above, according to the present embodiment, the optical system 110, the phase plate 120 as a light wavefront modulation element, the imaging element 130 capable of capturing an object aberration image that has passed through the optical system 110 and the phase plate 120, An imaging device-side storage unit 140 that stores coefficient specifying information for specifying a convolution coefficient, and a transmission device 150 that transmits subject aberration image data obtained from the imaging element 130 and coefficient specifying information stored in the storage unit 140; , As a main component, and one coefficient from a plurality of convolution coefficients stored in advance based on coefficient specifying information corresponding to the zoom position or zoom amount transmitted from the image pickup apparatus 100 To generate subject image data having no dispersion from the dispersion image signal from the image sensor 130. Since it has bets, it is possible to perform image reconstruction of a plurality of optical systems in a single device.
Here, the imaging devices 100A to 100C select appropriate coefficient characteristic information from the storage unit 140 in accordance with the respective zoom positions or zoom amounts, and perform transmission.
In addition, it is possible to design a lens without worrying about the zoom position, and it is possible to restore an image by accurate convolution. Therefore, in any zoom lens, there is an advantage that it is possible to provide a focused image without driving a lens that is difficult, expensive, and does not require an enlarged optical lens. .
The imaging apparatus 100 according to the present embodiment can be used for a WFCO of a zoom lens in consideration of the small size, light weight, and cost of consumer equipment such as a digital camera and a camcorder.
Here, the imaging devices 100A to 100C select coefficient specifying information corresponding to the phase plate from the storage unit 140 and transmit the coefficient specifying information to the processing device 200, and the zoom information corresponding to the zoom position and zoom amount of each imaging device is the same. You may make it transmit to the processing apparatus 200 using the transmitter 150. FIG. In this case, the processing apparatus 200 acquires one convolution coefficient from the received coefficient specifying information and zoom information, and performs image restoration.

また、本実施形態においては、結像レンズ112による撮像素子130の受光面への結像の波面を変形させる波面形成用光学素子を有する撮像装置100と、撮像装置100による1次画像FIMを受けて、1次画像の空間周波数におけるMTFをいわゆる持ち上げる所定の補正処理等を施して高精細な最終画像FNLIMを形成する処理装置200とを有することから、高精細な画質を得ることが可能となるという利点がある。
また、撮像装置100の光学系110の構成を簡単化でき、製造が容易となり、コスト低減を図ることができる。
In the present embodiment, the imaging device 100 having a wavefront forming optical element that deforms the wavefront of the imaging on the light receiving surface of the imaging device 130 by the imaging lens 112 and the primary image FIM by the imaging device 100 are received. In addition, since it has the processing device 200 that forms a high-definition final image FNLIM by performing a predetermined correction process or the like for raising the MTF at the spatial frequency of the primary image, it becomes possible to obtain a high-definition image quality. There is an advantage.
In addition, the configuration of the optical system 110 of the imaging apparatus 100 can be simplified, manufacturing becomes easy, and cost can be reduced.

ところで、CCDやCMOSセンサを撮像素子として用いた場合、画素ピッチから決まる解像力限界が存在し、光学系の解像力がその限界解像力以上であるとエリアジングのような現象が発生し、最終画像に悪影響を及ぼすことは周知の事実である。
画質向上のため、可能な限りコントラストを上げることが望ましいが、そのことは高性能なレンズ系を必要とする。
By the way, when a CCD or CMOS sensor is used as an image sensor, there is a resolution limit determined by the pixel pitch, and if the resolution of the optical system exceeds the limit resolution, a phenomenon such as aliasing occurs, which adversely affects the final image. It is a well-known fact that
In order to improve image quality, it is desirable to increase the contrast as much as possible, but this requires a high-performance lens system.

しかし、上述したように、CCDやCMOSセンサを撮像素子として用いた場合、エリアジングが発生する。
現在、エリアジングの発生を避けるため、撮像レンズ装置では、一軸結晶系からなるローパスフィルタを併用し、エリアジングの現象の発生を避けている。
このようにローパスフィルタを併用することは、原理的に正しいが、ローパスフィルタそのものが結晶でできているため、高価であり、管理が大変である。また、光学系に使用することは光学系をより複雑にしているという不利益がある。
However, as described above, aliasing occurs when a CCD or CMOS sensor is used as an image sensor.
Currently, in order to avoid the occurrence of aliasing, the imaging lens apparatus uses a low-pass filter made of a uniaxial crystal system to avoid the occurrence of aliasing.
The use of a low-pass filter in this way is correct in principle, but the low-pass filter itself is made of crystal, so it is expensive and difficult to manage. Moreover, there is a disadvantage that the use of the optical system makes the optical system more complicated.

以上のように、時代の趨勢でますます高精細の画質が求められているにもかかわらず、高精細な画像を形成するためには、従来の撮像レンズ装置では光学系を複雑にしなければならない。複雑にすれば、製造が困難になったりし、また高価なローパスフィルタを利用したりするとコストアップにつながる。
しかし、本実施形態によれば、ローパスフィルタを用いなくとも、エリアジングの現象の発生を避けることができ、高精細な画質を得ることが可能となる。
As described above, in order to form a high-definition image, the optical system must be complicated in the conventional imaging lens apparatus in spite of the demand for higher-definition image due to the trend of the times. . If it is complicated, manufacturing becomes difficult, and if an expensive low-pass filter is used, the cost increases.
However, according to the present embodiment, the occurrence of aliasing can be avoided without using a low-pass filter, and high-definition image quality can be obtained.

なお、本実施形態において、光学系210の波面形成用光学素子を絞りより物体側レンズよりに配置した例を示したが、絞りと同一あるいは絞りより結像レンズ側に配置しても上記と同様の作用効果を得ることができる。   In the present embodiment, the example in which the wavefront forming optical element of the optical system 210 is disposed closer to the object side lens than the stop has been described. The effect of this can be obtained.

また、光学系110を構成するレンズは、図3の例に限定されることはなく、本発明は、種々の態様が可能である。   Further, the lens constituting the optical system 110 is not limited to the example of FIG. 3, and various aspects of the present invention are possible.

なお、上記の実施形態においては撮像装置100に図2を例としてズーム量検出装置を設ける場合を例に説明したが、たとえば図15に示すように、物体概略距離情報検出装置171および操作スイッチ172を含む撮影モード設定部170を設けて、距離情報に基づいて特定情報を選択するように構成することも可能である。   In the above embodiment, the case where the image pickup apparatus 100 is provided with the zoom amount detection device as an example in FIG. 2 has been described as an example, but as shown in FIG. 15, for example, the object approximate distance information detection device 171 and the operation switch 172 It is also possible to provide a shooting mode setting unit 170 including the above and select specific information based on distance information.

この場合、複数の撮影モード、たとえば通常撮影モード(ポートレイト)の他、マクロ撮影モード(至近)および遠景撮影モード(無限遠)を有しており、これら各種撮影モードは、撮影モード設定部170の操作スイッチ172により選択して入力することが可能に構成されている。
操作スイッチ172は、たとえば図15に示すように、カメラ(撮像装置)の背面側の液晶画面303の下部側に備えられた切替スイッチ301a,301b,301cにより構成される。
切替スイッチ301aが遠景撮影モード(無限遠)を選択し入力するためのスイッチであり、切替スイッチ301bが通常撮影モード(ポートレイト)を選択し入力するためのスイッチであり、切替スイッチ301cがマクロ撮影モード(至近)を選択し入力するためのスイッチである。
なお、モードの切り替え方法は、図15のようなスイッチによる方法の他、タッチパネル式でも構わないし、メニュー画面から物体距離を切り替えるモードを選択しても構わない。
In this case, there are a plurality of shooting modes, for example, a normal shooting mode (portrait), a macro shooting mode (close-up), and a distant view shooting mode (infinity). The operation switch 172 can be selected and input.
For example, as shown in FIG. 15, the operation switch 172 includes changeover switches 301 a, 301 b, and 301 c provided on the lower side of the liquid crystal screen 303 on the back side of the camera (imaging device).
The changeover switch 301a is a switch for selecting and inputting a distant view shooting mode (infinity), the changeover switch 301b is a switch for selecting and inputting a normal shooting mode (portrait), and the changeover switch 301c is a macro shooting. This is a switch for selecting and inputting the mode (nearest).
Note that the mode switching method may be a touch panel type as well as a switch method as shown in FIG. 15, or a mode for switching the object distance may be selected from the menu screen.

被写体距離情報生成手段としての物体概略距離情報検出装置171は、操作スイッチ172の入力情報により被写体までの距離に相当する情報を生成し、送信装置140に供給する。
処理装置200は、送信装置140の送信情報に基づき、撮像装置100の撮像素子130からの分散画像信号より分散のない画像信号に変換処理するが、このとき物体概略距離情報検出装置171の検出結果に応じて選択された係数特定情報を受けて、設定された撮影モードに応じて異なる変換処理を行う。
たとえば、処理装置200は、通常撮影モードにおける通常変換処理と、この通常変換処理に比べて近接側に収差を少なくするマクロ撮影モードに対応したマクロ変換処理と、通常変換処理に比べて遠方側に収差を少なくする遠景撮影モードに対応した遠景変換処理と、を撮影モードに応じて選択的に実行する。
ここで、撮像装置100A〜100Cは、その位相板に応じた係数特定情報を送信するとともに、被写体までの距離に相当する情報を送信し、処理装置200がこれらの2種類の情報から一のコンボリュ−ション係数を取得して、画像を復元するようにしてもよい。
The object approximate distance information detection device 171 as subject distance information generation means generates information corresponding to the distance to the subject based on the input information of the operation switch 172 and supplies the information to the transmission device 140.
Based on the transmission information of the transmission device 140, the processing device 200 converts the dispersed image signal from the image sensor 130 of the imaging device 100 into an image signal having no dispersion. At this time, the detection result of the object approximate distance information detection device 171 In response to the coefficient specifying information selected according to the above, different conversion processing is performed according to the set photographing mode.
For example, the processing device 200 includes a normal conversion process in the normal shooting mode, a macro conversion process corresponding to a macro shooting mode in which aberration is reduced on the near side compared to the normal conversion process, and a far side compared to the normal conversion process. A distant view conversion process corresponding to a distant view photographing mode for reducing aberration is selectively executed according to the photographing mode.
Here, the imaging devices 100A to 100C transmit coefficient specifying information corresponding to the phase plate, and also transmit information corresponding to the distance to the subject, and the processing device 200 uses one of these two types of information as one convolution. The image coefficient may be acquired to restore the image.

この場合も、上記した効果と同様の効果を得ることができる。
また、上記の実施形態においては、ズーム量検出装置や物体概略距離情報検出装置を設けたものを例に説明したが、これらを具備しない形態であってもよい。この場合は、図1において、撮像装置100から送信されてきた係数特定情報のみに基づき、処理装置200に予め記憶してあるコンボリュ−ション係数から一の係数を取得して分散のない被写体画像データを生成する。この場合も、上記した効果と同様の効果を得ることができる。
Also in this case, the same effect as described above can be obtained.
In the above-described embodiment, the zoom amount detection device and the object approximate distance information detection device are described as examples. However, the embodiment may not include these. In this case, in FIG. 1, based on only the coefficient specifying information transmitted from the imaging apparatus 100, one coefficient is acquired from the convolution coefficient stored in advance in the processing apparatus 200, and subject image data without dispersion is obtained. Is generated. Also in this case, the same effect as described above can be obtained.

また、本実施形態においては、光学システムを複数設けて、その撮像した画像情報を係数特定情報と共に処理装置200側に送信するようにしたが、たとえば図16に示すように、光学系110−1,110−2を複数設け、所望の光学系を順番に選択して、各光学系を通過した被写体像を単一の撮像素子130に入力するように構成することも可能である。
この場合も、上記した効果と同様の効果を得ることができる。
In this embodiment, a plurality of optical systems are provided, and the captured image information is transmitted to the processing apparatus 200 side together with the coefficient specifying information. For example, as shown in FIG. 16, the optical system 110-1 110-2, a desired optical system may be selected in order, and a subject image that has passed through each optical system may be input to a single image sensor 130.
Also in this case, the same effect as described above can be obtained.

本実施形態に係る撮像システムの構成図である。It is a block diagram of the imaging system which concerns on this embodiment. 本実施形態に係る撮像装置の具体的な構成例を示すブロックである。It is a block which shows the specific structural example of the imaging device which concerns on this embodiment. 本実施形態に係る撮像レンズ装置のズーム光学系の構成例を模式的に示す図である。It is a figure which shows typically the structural example of the zoom optical system of the imaging lens apparatus which concerns on this embodiment. 位相板を含まないズーム光学系のワイド(Wide)時のスポット像を示す図である。It is a figure which shows the spot image at the time of the wide (Wide) of the zoom optical system which does not include a phase plate. 位相板を含まないズーム光学系のテレ(Tele)時のスポット像を示す図である。It is a figure which shows the spot image at the time of tele (Tele) of the zoom optical system which does not include a phase plate. 位相板を含むズーム光学系の無限側のスポット像を示す図である。It is a figure which shows the spot image of the infinite side of the zoom optical system containing a phase plate. 位相板を含むズーム光学系の至近側のスポット像を示す図である。It is a figure which shows the spot image of the near side of the zoom optical system containing a phase plate. 本実施形態の処理装置の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of the processing apparatus of this embodiment. WFCOの原理を説明するための図である。It is a figure for demonstrating the principle of WFCO. 本実施形態に係る撮像レンズ装置の撮像素子の受光面でのスポット像を示す図であって、(A)は焦点が0.2mmずれた場合(Defocus=0.2mm)、(B)が合焦点の場合(Best focus)、(C)が焦点が−0.2mmずれた場合(Defocus=−0.2mm)の各スポット像を示す図である。It is a figure which shows the spot image in the light-receiving surface of the image pick-up element of the image pick-up lens apparatus which concerns on this embodiment, Comprising: (A) is a case where a focus shifts by 0.2 mm (Defocus = 0.2 mm), (B) is a result. In the case of a focus (Best focus), (C) is a figure which shows each spot image when a focus shifts by -0.2 mm (Defocus = -0.2 mm). 本実施形態に係る撮像レンズ装置により形成される1次画像のMTFについて説明するための図であって、(A)は撮像レンズ装置の撮像素子の受光面でのスポット像を示す図で、(B)が空間周波数に対するMTF特性を示している。It is a figure for demonstrating MTF of the primary image formed with the imaging lens apparatus which concerns on this embodiment, Comprising: (A) is a figure which shows the spot image in the light-receiving surface of the image pick-up element of an imaging lens apparatus, ( B) shows the MTF characteristic with respect to the spatial frequency. 本実施形態に係る処理装置におけるMTF補正処理を説明するための図である。It is a figure for demonstrating the MTF correction process in the processing apparatus which concerns on this embodiment. 本実施形態に係る処理装置におけるMTF補正処理を具体的に説明するための図である。It is a figure for demonstrating concretely the MTF correction process in the processing apparatus which concerns on this embodiment. 本実施形態に係る撮像装置の他の例を示すブロック図である。It is a block diagram which shows the other example of the imaging device which concerns on this embodiment. 図14の操作スイッチの構成例を示す図である。It is a figure which shows the structural example of the operation switch of FIG. 撮像システムの他の例を示す構成図である。It is a block diagram which shows the other example of an imaging system. 一般的な撮像レンズ装置の構成および光束状態を模式的に示す図である。It is a figure which shows typically the structure and light beam state of a general imaging lens apparatus. 図17の撮像レンズ装置の撮像素子の受光面でのスポット像を示す図であって、(A)は焦点が0.2mmずれた場合(Defocus=0.2mm)、(B)が合焦点の場合(Best focus)、(C)が焦点が−0.2mmずれた場合(Defocus=−0.2mm)の各スポット像を示す図である。FIG. 18A is a diagram showing a spot image on the light receiving surface of the imaging element of the imaging lens device of FIG. 17, where FIG. 17A shows a case where the focal point is shifted by 0.2 mm (Defocus = 0.2 mm), and FIG. In the case (Best focus), (C) is a diagram showing each spot image when the focal point is shifted by -0.2 mm (Defocus = -0.2 mm).

符号の説明Explanation of symbols

100…撮像装置、110…ズーム光学系、111…物体側レンズ、112…結像レンズ、113…波面形成用光学素子、120…位相板(光波面変調素子)、130…撮像素子、140…記憶部、150…送信装置、160…ズーム情報検出装置、200…処理装置、210…受信部、220…受信情報コントロール部、230…コンボリューション装置、240…カーネル、数値演算係数格納レジスタ、250…画像処理演算プロセッサ。   DESCRIPTION OF SYMBOLS 100 ... Imaging device, 110 ... Zoom optical system, 111 ... Object side lens, 112 ... Imaging lens, 113 ... Optical element for wavefront formation, 120 ... Phase plate (light wavefront modulation element), 130 ... Imaging element, 140 ... Memory , 150 ... transmitting device, 160 ... zoom information detecting device, 200 ... processing device, 210 ... receiving unit, 220 ... received information control unit, 230 ... convolution device, 240 ... kernel, numerical calculation coefficient storage register, 250 ... image Processing arithmetic processor.

Claims (6)

光学系と光波面変調素子とを通過した被写体収差画像を撮像可能な撮像素子と、
コンボリューション係数を特定する係数特定情報を記憶する撮像装置側記憶手段と、
前記撮像素子から得られた被写体収差画像データと前記記憶手段に記憶された前記係数特定情報とを送信する送信手段と、
を含む撮像装置と、
前記撮像装置の送信手段により送信された前記被写体収差画像データと前記係数特定情報とを受信する受信手段と、
複数のコンボリューション係数を記憶する処理装置側記憶手段と、
前記受信手段により受信した前記係数特定情報に基づき前記処理装置側記憶手段からーのコンボリューション係数を選択する係数選択手段と、
前記受信手段により受信した前記被写体収差画像データを前記係数選択手段で選択した前記一のコンボリューション係数によって変換することにより収差のない被写体画像データを生成する変換手段と、
を含む処理装置と、
を有する撮像システム。
An imaging device capable of imaging a subject aberration image that has passed through an optical system and a light wavefront modulation device;
Imaging device side storage means for storing coefficient specifying information for specifying a convolution coefficient;
Transmitting means for transmitting subject aberration image data obtained from the image sensor and the coefficient specifying information stored in the storage means;
An imaging device including:
Receiving means for receiving the subject aberration image data and the coefficient specifying information transmitted by the transmitting means of the imaging device;
A processor-side storage means for storing a plurality of convolution coefficients;
Coefficient selecting means for selecting a convolution coefficient from the processing device side storage means based on the coefficient specifying information received by the receiving means;
Conversion means for generating subject image data without aberration by converting the subject aberration image data received by the receiving means with the one convolution coefficient selected by the coefficient selection means;
A processing device comprising:
An imaging system.
光学系と光波面変調素子とを通過した被写体収差画像を撮像可能な撮像素子と、
コンボリューション係数を特定する係数特定情報を記憶する撮像装置側記憶手段と、
前記撮像素子から得られた被写体収差画像データと前記記憶手段に記憶された前記係数特定情報とを送信する送信手段と、
を含む撮像装置。
An imaging device capable of imaging a subject aberration image that has passed through an optical system and a light wavefront modulation device;
Imaging device side storage means for storing coefficient specifying information for specifying a convolution coefficient;
Transmitting means for transmitting subject aberration image data obtained from the image sensor and the coefficient specifying information stored in the storage means;
An imaging apparatus including:
複数のレンズを選択的に装着可能な撮像装置であって、
前記複数のレンズの内少なくとも一のレンズおよび光波面変調素子を通過した被写体収差画像を撮像可能な撮像素子と、
装着されたレンズに応じたコンボリューション係数を特定する係数特定情報を取得するコンボリューション係数特定情報取得手段と、
前記撮像素子から得られた被写体収差画像データと前記コンボリューション係数取得手段により取得された前記係数特定情報とを送信する送信手段と、
を含む撮像装置。
An imaging device capable of selectively mounting a plurality of lenses,
An imaging device capable of imaging an object aberration image that has passed through at least one of the plurality of lenses and the light wavefront modulation device;
A convolution coefficient specifying information acquiring means for acquiring coefficient specifying information for specifying a convolution coefficient corresponding to the mounted lens;
Transmitting means for transmitting subject aberration image data obtained from the image sensor and the coefficient specifying information acquired by the convolution coefficient acquiring means;
An imaging apparatus including:
ズ−ム光学系と光波面変調素子とを通過した被写体収差画像を撮像可能な撮像素子と、
ズ−ム光学系のズ−ム量に応じたコンボリューション係数を特定可能な複数の係数特定情報を記憶する撮像装置側記憶手段と、
ズ−ム光学系のズ−ム量を検知するズ−ム量検知手段と、
前記ズ−ム量検知手段により検知されたズ−ム量に基づき、前記撮像装置側記憶手段から一の係数特定情報を取得する係数特定情報取得手段と、
前記撮像素子から得られた被写体収差画像データと前記係数特定情報取得手段により取得された前記係数特定情報とを送信する送信手段と、
を含む撮像装置。
An image pickup device capable of picking up a subject aberration image that has passed through a zoom optical system and a light wavefront modulation device;
An imaging device-side storage unit that stores a plurality of coefficient specifying information capable of specifying a convolution coefficient according to a zoom amount of the zoom optical system;
A zoom amount detecting means for detecting a zoom amount of the zoom optical system;
Coefficient specifying information acquisition means for acquiring one coefficient specifying information from the imaging device side storage means based on the zoom amount detected by the zoom amount detection means;
Transmitting means for transmitting subject aberration image data obtained from the image sensor and the coefficient specifying information acquired by the coefficient specifying information acquiring means;
An imaging apparatus including:
光学系と光波面変調素子とを通過した被写体収差画像を撮像可能な撮像素子と、
被写体までの距離に相当する情報を取得する被写体距離情報取得手段と、
被写体までの距離に応じたコンボリューション係数を特定可能な複数の係数特定情報を記憶する撮像装置側記憶手段と、
前記被写体距離情報取得手段により取得された被写体までの距離に相当する情報に基づき、前記撮像装置側記憶手段から一の係数特定情報を取得する係数特定情報取得手段と、
前記撮像素子から得られた被写体収差画像データと前記係数特定情報取得手段により取得された前記係数特定情報とを送信する送信手段と、
を含む撮像装置。
An imaging device capable of imaging a subject aberration image that has passed through an optical system and a light wavefront modulation device;
Subject distance information acquisition means for acquiring information corresponding to the distance to the subject;
Imaging device side storage means for storing a plurality of coefficient specifying information capable of specifying a convolution coefficient according to the distance to the subject;
Coefficient specifying information acquisition means for acquiring one coefficient specifying information from the imaging device side storage means based on information corresponding to the distance to the subject acquired by the subject distance information acquisition means;
Transmitting means for transmitting subject aberration image data obtained from the image sensor and the coefficient specifying information acquired by the coefficient specifying information acquiring means;
An imaging apparatus including:
撮像素子により光学系と光波面変調素子とを通過した被写体収差画像を撮像するステップと、
被写体収差画像データと、コンボリューション係数を特定する係数特定情報とを送信するステップと、
前記送信された前記被写体収差画像データと前記係数特定情報とを受信するステップと、
前記受信した前記係数特定情報に基づき複数のコンボリューション係数からーのコンボリューション係数を選択する係数選択手段と、
前記受信した前記被写体収差画像データを前記係数選択手段で選択した前記一のコンボリューション係数によって変換することにより収差のない被写体画像データを生成するステップと、
を含む撮像方法。
Capturing an object aberration image that has passed through the optical system and the light wavefront modulation element with an imaging element;
Transmitting subject aberration image data and coefficient specifying information for specifying a convolution coefficient;
Receiving the transmitted subject aberration image data and the coefficient specifying information;
Coefficient selecting means for selecting a convolution coefficient from a plurality of convolution coefficients based on the received coefficient specifying information;
Transforming the received subject aberration image data with the one convolution coefficient selected by the coefficient selection means to generate subject image data without aberration;
An imaging method including:
JP2005217803A 2005-03-30 2005-07-27 Imaging apparatus, imaging system, and imaging method Pending JP2006311472A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005217803A JP2006311472A (en) 2005-03-30 2005-07-27 Imaging apparatus, imaging system, and imaging method
US11/909,789 US7978252B2 (en) 2005-03-30 2006-03-29 Imaging apparatus, imaging system, and imaging method
PCT/JP2006/306477 WO2006106736A1 (en) 2005-03-30 2006-03-29 Imaging device, imaging system, and imaging method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005100129 2005-03-30
JP2005217803A JP2006311472A (en) 2005-03-30 2005-07-27 Imaging apparatus, imaging system, and imaging method

Publications (1)

Publication Number Publication Date
JP2006311472A true JP2006311472A (en) 2006-11-09

Family

ID=37073299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005217803A Pending JP2006311472A (en) 2005-03-30 2005-07-27 Imaging apparatus, imaging system, and imaging method

Country Status (2)

Country Link
JP (1) JP2006311472A (en)
WO (1) WO2006106736A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108605095A (en) * 2016-02-26 2018-09-28 富士胶片株式会社 Image processing apparatus, photographic device and image processing method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000005127A (en) * 1998-01-23 2000-01-11 Olympus Optical Co Ltd Endoscope system
JP2003219357A (en) * 2002-01-25 2003-07-31 Fuji Photo Film Co Ltd Digital imaging apparatus and image forming system
JP2003235794A (en) * 2002-02-21 2003-08-26 Olympus Optical Co Ltd Electronic endoscopic system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000005127A (en) * 1998-01-23 2000-01-11 Olympus Optical Co Ltd Endoscope system
JP2003219357A (en) * 2002-01-25 2003-07-31 Fuji Photo Film Co Ltd Digital imaging apparatus and image forming system
JP2003235794A (en) * 2002-02-21 2003-08-26 Olympus Optical Co Ltd Electronic endoscopic system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108605095A (en) * 2016-02-26 2018-09-28 富士胶片株式会社 Image processing apparatus, photographic device and image processing method
US10748256B2 (en) 2016-02-26 2020-08-18 Fujifilm Corporation Point image restoration device and method

Also Published As

Publication number Publication date
WO2006106736A1 (en) 2006-10-12

Similar Documents

Publication Publication Date Title
JP4712631B2 (en) Imaging device
JP4749959B2 (en) Imaging device, manufacturing apparatus and manufacturing method thereof
JP4663737B2 (en) Imaging apparatus and image processing method thereof
JP4777177B2 (en) Imaging apparatus and imaging method
JP4749984B2 (en) Imaging device, manufacturing apparatus and manufacturing method thereof
JP4749985B2 (en) Imaging device, manufacturing apparatus and manufacturing method thereof
JP4818957B2 (en) Imaging apparatus and method thereof
JP2007322560A (en) Imaging apparatus, and apparatus and method of manufacturing the same
JP2008048293A (en) Imaging device and method for manufacturing same
JP2008268937A (en) Imaging device and imaging method
JP2007300208A (en) Imaging apparatus
JP2008245157A (en) Imaging device and method therefor
JP4364847B2 (en) Imaging apparatus and image conversion method
JP2006311473A (en) Imaging device and imaging method
JP2008245266A (en) Imaging apparatus and method
JP2009086017A (en) Imaging device and imaging method
JP2006094468A (en) Imaging device and imaging method
JP2006094469A (en) Imaging device and imaging method
JP2006094470A (en) Imaging device and imaging method
JP4818956B2 (en) Imaging apparatus and method thereof
JP2009033607A (en) Imaging apparatus and image processing method
JP2008245265A (en) Imaging apparatus and its manufacturing apparatus and method
JP2008011491A (en) Camera system, monitor camera, and imaging method
JP4722748B2 (en) Imaging apparatus and image generation method thereof
JP5197784B2 (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100112

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100511