JP2009159535A - Imaging apparatus, and image processing method - Google Patents

Imaging apparatus, and image processing method Download PDF

Info

Publication number
JP2009159535A
JP2009159535A JP2007338235A JP2007338235A JP2009159535A JP 2009159535 A JP2009159535 A JP 2009159535A JP 2007338235 A JP2007338235 A JP 2007338235A JP 2007338235 A JP2007338235 A JP 2007338235A JP 2009159535 A JP2009159535 A JP 2009159535A
Authority
JP
Japan
Prior art keywords
image
optical system
processing
imaging
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007338235A
Other languages
Japanese (ja)
Other versions
JP5198052B2 (en
Inventor
Takeya Sugita
丈也 杉田
Yusuke Hayashi
佑介 林
Naoto Ohara
直人 大原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2007338235A priority Critical patent/JP5198052B2/en
Publication of JP2009159535A publication Critical patent/JP2009159535A/en
Application granted granted Critical
Publication of JP5198052B2 publication Critical patent/JP5198052B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Input (AREA)
  • Studio Circuits (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus and an image processing method, capable of carrying out an image recovery process only for a necessary part and improving efficiency of the system. <P>SOLUTION: The imaging apparatus has an optical system 110 including an optical wave surface modulating element, an imaging element 120 which images an image of an object to be imaged that passes through the optical system 110, and an image processing device 140 which subjects the image data of the object to be imaged from the imaging element 120 to a predetermined process. The image processing device 140 recovers dispersed images of a selected particular area as an image signal free from dispersion. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、撮像素子を用い、光学系を備えたデジタルスチルカメラや携帯電話搭載カメラ、携帯情報端末搭載カメラ、画像検査装置、自動制御用産業カメラ、情報コード読取装置等に適用可能な撮像装置および画像処理方法に関するものである。   The present invention relates to an image pickup apparatus using an image pickup device and applicable to a digital still camera equipped with an optical system, a camera mounted on a mobile phone, a camera mounted on a portable information terminal, an image inspection device, an industrial camera for automatic control, an information code reader, and the like. And an image processing method.

近年急峻に発展を遂げている情報のデジタル化に相俟って映像分野においてもその対応が著しい。
特に、デジタルカメラに象徴されるように撮像面は従来のフィルムに代わって固体撮像素子であるCCD(Charge Coupled Device),CMOS(Complementary Metal Oxide Semiconductor)センサが使用されているのが大半である。
In response to the digitization of information, which has been rapidly developing in recent years, the response in the video field is also remarkable.
In particular, as symbolized by a digital camera, a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor) sensor, which is a solid-state imaging device, is used for the imaging surface in place of a conventional film.

このように、撮像素子にCCDやCMOSセンサを使った撮像レンズ装置は、被写体の映像を光学系により光学的に取り込んで、撮像素子により電気信号として抽出するものであり、デジタルスチルカメラの他、ビデオカメラ、デジタルビデオユニット、パーソナルコンピュータ、携帯電話機、携帯情報端末(PDA:Personal Digital Assistant)、画像検査装置、自動制御用産業カメラ等に用いられている。   As described above, an imaging lens device using a CCD or CMOS sensor as an imaging element is for taking an image of a subject optically by an optical system and extracting it as an electrical signal by the imaging element. In addition to a digital still camera, It is used for a video camera, a digital video unit, a personal computer, a mobile phone, a personal digital assistant (PDA), an image inspection apparatus, an industrial camera for automatic control, and the like.

図23は、一般的な撮像レンズ装置の構成および光束状態を模式的に示す図である。
この撮像レンズ装置1は、光学系2とCCDやCMOSセンサ等の撮像素子3とを有する。
光学系は、物体側レンズ21,22、絞り23、および結像レンズ24を物体側(OBJS)から撮像素子3側に向かって順に配置されている。
FIG. 23 is a diagram schematically illustrating a configuration and a light flux state of a general imaging lens device.
The imaging lens device 1 includes an optical system 2 and an imaging element 3 such as a CCD or CMOS sensor.
In the optical system, the object side lenses 21 and 22, the diaphragm 23, and the imaging lens 24 are sequentially arranged from the object side (OBJS) toward the image sensor 3 side.

撮像レンズ装置1においては、図23に示すように、ベストフォーカス面を撮像素子面上に合致させている。
図24(A)〜(C)は、撮像レンズ装置1の撮像素子3の受光面でのスポット像を示している。
In the imaging lens device 1, as shown in FIG. 23, the best focus surface is matched with the imaging element surface.
24A to 24C show spot images on the light receiving surface of the imaging element 3 of the imaging lens device 1.

また、光波面変調素子である位相板により光束を規則的に分散し、デジタル処理により復元させ被写界深度の深い画像撮影を可能にする等の撮像装置が提案されている(たとえば非特許文献1,2、特許文献1〜5参照)。
“Wavefront Coding;jointly optimized optical and digital imaging systems”,Edward R.Dowski,Jr.,Robert H.Cormack,Scott D.Sarama. “Wavefront Coding;A modern method of achieving high performance and/or low cost imaging systems”,Edward R.Dowski,Jr.,Gregory E.Johnson. USP6,021,005 USP6,642,504 USP6,525,302 USP6,069,738 特開2003−235794号公報
In addition, an imaging apparatus has been proposed in which a light beam is regularly dispersed by a phase plate that is a light wavefront modulation element and restored by digital processing to enable imaging with a deep depth of field (for example, non-patent literature). 1, 2, and patent documents 1 to 5).
“Wavefront Coding; jointly optimized optical and digital imaging systems”, Edward R. Dowski, Jr., Robert H. Cormack, Scott D. Sarama. “Wavefront Coding; A modern method of achieving high performance and / or low cost imaging systems”, Edward R. Dowski, Jr., Gregory E. Johnson. USP 6,021,005 USP 6,642,504 USP 6,525,302 USP 6,069,738 JP 2003-235794 A

ところで、上記提案でなされている深度拡張システムは、画面全体に対し画像復元を行っている。
このため、画面内の一部を認識することを目的とする光学システムにおいては、画面全体に処理を行うシステムは非効率的であるという問題が生じている。
By the way, the depth expansion system proposed in the above proposal performs image restoration on the entire screen.
For this reason, in an optical system aimed at recognizing a part of the screen, there is a problem that a system that performs processing on the entire screen is inefficient.

本発明の目的は、必要な箇所に対してのみ画像復元処理を行うことが可能で、システムの効率化を図ることが可能な撮像装置および画像処理方法を提供することにある。   An object of the present invention is to provide an imaging apparatus and an image processing method capable of performing image restoration processing only on necessary portions and improving the efficiency of the system.

本発明の第1の観点の撮像装置は、光波面変調素子を含む深度拡張光学系と、前記深度拡張光学系を通過した被写体像を撮像する撮像素子と、前記撮像素子からの画像信号に対して所定の領域を選択する選択手段と、前記選択した領域の画像信号に対して所定の画像処理を施す画像信号処理部と、を有し、前記画像信号処理部は、前記選択した領域の分散画像を分散のない画像信号として復元する。   An image pickup apparatus according to a first aspect of the present invention provides a depth extension optical system including a light wavefront modulation element, an image pickup element that picks up a subject image that has passed through the depth extension optical system, and an image signal from the image pickup element. Selecting means for selecting a predetermined area, and an image signal processing section for performing predetermined image processing on the image signal of the selected area, wherein the image signal processing section distributes the selected area The image is restored as an image signal without dispersion.

好適には、前記所定の領域は、画像内で予め決められている。   Preferably, the predetermined area is predetermined in the image.

好適には、前記所定の領域は画像内から特徴部位を抽出し、その部分を選択して決定される。   Preferably, the predetermined area is determined by extracting a characteristic part from the image and selecting the part.

好適には、前記特徴部位の抽出の処理は、前記撮像素子による像の光電変換と前記所定の画像処理による復元処理の間に行われる。   Preferably, the feature part extraction processing is performed between photoelectric conversion of an image by the imaging device and restoration processing by the predetermined image processing.

好適には、前記特徴部位の抽出の処理に先立って、前記撮像素子からの画像信号に対して2値化処理を行う。   Preferably, prior to the process of extracting the characteristic part, a binarization process is performed on the image signal from the image sensor.

好適には、前記特徴部位の抽出の処理において、色配列情報を用いる。   Preferably, color arrangement information is used in the process of extracting the characteristic part.

本発明の第2の観点は、光波面変調素子を含む深度拡張光学系を通過した被写体像を撮像し、撮像した画像データに画像処理を行う画像処理方法であって、撮像素子からの画像信号に対して所定の領域を選択する選択ステップと、前記選択した領域の画像信号に対して所定の画像処理を施す画像信号処理ステップと、を有し、前記画像信号処理ステップにおいては、前記選択した領域の分散画像を分散のない画像信号として復元する。   A second aspect of the present invention is an image processing method for capturing a subject image that has passed through a depth expansion optical system including a light wavefront modulation element, and performing image processing on the captured image data. A selection step for selecting a predetermined region with respect to the image, and an image signal processing step for performing predetermined image processing on the image signal of the selected region. In the image signal processing step, the selected region is selected. The dispersed image of the area is restored as an image signal without dispersion.

本発明によれば、必要な箇所に対してのみ画像復元処理を行うことが可能で、システムの効率化を図ることができる。   According to the present invention, it is possible to perform image restoration processing only on necessary portions, and the efficiency of the system can be improved.

以下、本発明の実施形態を添付図面に関連付けて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

図1は、本発明に係る撮像装置の一実施形態を示すブロック構成図である。   FIG. 1 is a block diagram illustrating an embodiment of an imaging apparatus according to the present invention.

本実施形態に係る撮像装置100は、光学系110、撮像素子120、アナログフロントエンド部(AFE)130、画像処理装置140、カメラ信号処理部150、画像表示メモリ160、画像モニタリング装置170、操作部180、および制御装置190を有している。   The imaging apparatus 100 according to the present embodiment includes an optical system 110, an imaging element 120, an analog front end unit (AFE) 130, an image processing device 140, a camera signal processing unit 150, an image display memory 160, an image monitoring device 170, and an operation unit. 180 and a control device 190.

本実施形態に係る撮像装置100は、後で詳述するように、光学系110に光波面変調素子を適用し、光波面変調素子により光束を規則的に分散し、デジタル処理により復元させ被写界深度の深い画像撮影を可能にする光波面変調光学系システム、あるいは深度拡張光学系システム(DEOS:Depth Expantion Optical system)というシステムを採用し、被写体像(たとえばバーコード等の情報コード)を的確に高精度で読み取ることが可能に構成されている。
なお、光波面変調機能は、このように光学系に光波面変調素子を配置することで発現することが可能であるが、光学系を形成する光学素子に形成された光波面変調面により発現するように構成することも可能である。
As will be described in detail later, the imaging apparatus 100 according to the present embodiment applies a light wavefront modulation element to the optical system 110, regularly disperses the light flux by the light wavefront modulation element, and restores the light by digital processing. Adopting a light wavefront modulation optical system or a depth expansion optical system (DEOS: Optical System) that enables imaging with deep depth of field, the subject image (for example, an information code such as a barcode) is accurately obtained. It can be read with high accuracy.
The light wavefront modulation function can be expressed by arranging the light wavefront modulation element in the optical system as described above, but is expressed by the light wavefront modulation surface formed in the optical element forming the optical system. It is also possible to configure as described above.

光学系110は、後で詳述する位相変調素子等の光波面変調素子を含み、被写体物体OBJを撮影した像を撮像素子120に供給する。   The optical system 110 includes an optical wavefront modulation element such as a phase modulation element, which will be described in detail later, and supplies an image obtained by photographing the subject object OBJ to the imaging element 120.

撮像素子120は、光電変換素子として機能し、光学系110で取り込んだ像が結像され、結像1次画像情報を電気信号の1次画像信号FIMとして、アナログフロントエンド部130を介して画像処理装置140に出力するCCDやCMOSセンサからなる。
図1においては、撮像素子120を一例としてCCDとして記載している。
The image sensor 120 functions as a photoelectric conversion element, an image captured by the optical system 110 is formed, and the imaged primary image information is converted into an electrical signal primary image signal FIM through the analog front end unit 130. It consists of a CCD or CMOS sensor output to the processing device 140.
In FIG. 1, the image sensor 120 is described as a CCD as an example.

アナログフロントエンド部130は、タイミングジェネレータ131と、アナログ/デジタル(A/D)コンバータ132と、を有する。
タイミングジェネレータ131では、撮像素子120のCCDの駆動タイミングを生成しており、A/Dコンバータ132は、CCDから入力されるアナログ信号をデジタル信号に変換し、画像処理装置140に出力する。
The analog front end unit 130 includes a timing generator 131 and an analog / digital (A / D) converter 132.
The timing generator 131 generates the drive timing of the CCD of the image sensor 120, and the A / D converter 132 converts an analog signal input from the CCD into a digital signal and outputs it to the image processing device 140.

画像信号処理部の一部を構成する画像処理装置(二次元コンボリューション手段)140は、前段のAFE130からくる撮像画像のデジタル信号を入力し、二次元のコンボリューション処理を施し、後段のカメラ信号処理部(DSP)150に渡す。
またたとえば、画像処理装置140は、撮像素子120からの画像信号に対して所定の領域を選択する選択手段としての機能を有し、選択した領域の分散画像信号を分散のない画像信号として復元する機能を有している。
本実施形態においては、選択される所定の領域は、たとえば画像内で予め決められている。
また、所定の領域は、画像内から特徴部位を抽出し、その部分を選択して決定されるように構成することも可能である。
この場合、画像処理装置140は、特徴部位の抽出の処理を、撮像素子120による像の光電変換と所定の画像処理による復元処理の間に行う。
本実施形態においては、特徴部位の抽出の処理に先立って、撮像素子120からの画像信号に対して2値化処理を行っている。
また、特徴部位の抽出の処理において、色配列情報を用いることも可能である。
これについては、後で例示する。
この画像処理装置140が行うフィルタリングには、コントラストを高くする機能を含む。
画像処理装置140は、制御装置190の各種情報に応じて、画像データに対してフィルタリング処理を行う。
画像処理装置140は、最初のステップでノイズ低減フィルタリングを施す機能を有する。
An image processing apparatus (two-dimensional convolution means) 140 constituting a part of the image signal processing unit inputs a digital signal of a captured image coming from the previous AFE 130, performs two-dimensional convolution processing, and performs a subsequent camera signal. The data is transferred to the processing unit (DSP) 150.
Further, for example, the image processing apparatus 140 has a function as a selection unit that selects a predetermined area for the image signal from the image sensor 120, and restores the dispersed image signal of the selected area as an image signal without dispersion. It has a function.
In the present embodiment, the predetermined region to be selected is determined in advance in the image, for example.
Further, the predetermined region can be configured to be determined by extracting a characteristic part from the image and selecting the part.
In this case, the image processing apparatus 140 performs the feature part extraction process between the photoelectric conversion of the image by the image sensor 120 and the restoration process by predetermined image processing.
In the present embodiment, the binarization process is performed on the image signal from the image sensor 120 prior to the feature part extraction process.
In addition, color arrangement information can also be used in the feature part extraction process.
This will be illustrated later.
The filtering performed by the image processing apparatus 140 includes a function for increasing the contrast.
The image processing device 140 performs a filtering process on the image data according to various types of information from the control device 190.
The image processing apparatus 140 has a function of performing noise reduction filtering in the first step.

画像処理装置140は、基本的に、図1に示すように、生(RAW)バッファメモリ141、コンボリューション演算器142、記憶手段としてのカーネルデータ格納ROM143、およびコンボリューション制御部144を有する。
なお、図1の画像処理装置140は、画像復元処理系のみを示している。
As shown in FIG. 1, the image processing apparatus 140 basically includes a raw (RAW) buffer memory 141, a convolution calculator 142, a kernel data storage ROM 143 as storage means, and a convolution control unit 144.
Note that the image processing apparatus 140 in FIG. 1 shows only an image restoration processing system.

コンボリューション制御部144は、コンボリューション処理のオンオフ、画面サイズ、カーネルデータの入れ替え等の制御を行い、制御装置190により制御される。   The convolution control unit 144 performs control such as on / off of the convolution process, screen size, and kernel data exchange, and is controlled by the control device 190.

また、カーネルデータ格納ROM143には、たとえば図2あるいは図3示すように予め用意されたそれぞれの光学系のPSFにより算出されたコンボリューション用のカーネルデータが格納されており、コンボリューション制御部144を通じてカーネルデータを選択制御する。   The kernel data storage ROM 143 stores kernel data for convolution calculated by the PSF of each optical system prepared in advance as shown in FIG. 2 or FIG. 3, for example, and passes through the convolution control unit 144. Select and control kernel data.

図2の例では、カーネルデータAは光学倍率(×1.5)、カーネルデータBは光学倍率(×5)、カーネルデータCは光学倍率(×10)に対応したデータとなっている。   In the example of FIG. 2, the kernel data A is data corresponding to the optical magnification (× 1.5), the kernel data B is data corresponding to the optical magnification (× 5), and the kernel data C is data corresponding to the optical magnification (× 10).

また、図3の例では、カーネルデータAは物体距離情報が100mm、カーネルデータBは物体距離が500mm、カーネルデータCは物体距離が4mに対応したデータとなっている。
画像処理装置140の処理については後でさらに詳述する。
In the example of FIG. 3, the kernel data A is data corresponding to an object distance information of 100 mm, the kernel data B is data corresponding to an object distance of 500 mm, and the kernel data C is data corresponding to an object distance of 4 m.
The processing of the image processing apparatus 140 will be described in detail later.

カメラ信号処理部(DSP)150は、カラー補間、ホワイトバランス、YCbCr変換処理、圧縮、ファイリング等の処理を行い、画像表示メモリ160への格納や画像モニタリング装置170への画像表示等を行う。   The camera signal processing unit (DSP) 150 performs processing such as color interpolation, white balance, YCbCr conversion processing, compression, and filing, and performs storage in the image display memory 160, image display on the image monitoring device 170, and the like.

制御装置190は、露出制御を行うとともに、操作部180などの操作入力を持ち、それらの入力に応じて、システム全体の動作を決定し、AFE130、画像処理装置140、DSP150等を制御し、システム全体の調停制御を司るものである。   The control device 190 performs exposure control, has operation inputs such as the operation unit 180, determines the operation of the entire system in accordance with those inputs, and controls the AFE 130, the image processing device 140, the DSP 150, etc. It is responsible for overall mediation control.

また、制御装置190は、たとえば画像処理装置140における所定の領域の選択制御(抽出制御)を行う。   The control device 190 performs selection control (extraction control) of a predetermined area in the image processing device 140, for example.

以上、本実施形態の特徴である画像復元処理の原理について説明した。
以下、本実施形態のDEOSに関係する光学系、画像処理装置の構成および機能について具体的に説明する。
The principle of the image restoration process that is a feature of the present embodiment has been described above.
Hereinafter, the configuration and functions of the optical system and the image processing apparatus related to the DEOS of this embodiment will be described in detail.

図4は、本実施形態に係るズーム光学系110の構成例を模式的に示す図である。この図は広角側を示している。
また、図5は、本実施形態に係る撮像レンズ装置の望遠側のズーム光学系の構成例を模式的に示す図である。
そして、図6は、本実施形態に係る光学系の広角側の像高中心のスポット形状を示す図であり、図7は、本実施形態に係る光学系の望遠側の像高中心のスポット形状を示す図である。
FIG. 4 is a diagram schematically illustrating a configuration example of the zoom optical system 110 according to the present embodiment. This figure shows the wide angle side.
FIG. 5 is a diagram schematically illustrating a configuration example of a zoom optical system on the telephoto side of the imaging lens device according to the present embodiment.
FIG. 6 is a diagram showing a spot shape at the center of the image height on the wide angle side of the optical system according to the present embodiment, and FIG. 7 is a spot shape at the center of the image height on the telephoto side of the optical system according to the present embodiment. FIG.

図4および図5の光学系110は、物体側OBJSに配置された物体側レンズ111と、撮像素子120に結像させるための結像レンズ112と、物体側レンズ111と結像レンズ112間に配置され、結像レンズ112による撮像素子120の受光面への結像の波面を変形させる、たとえば3次元的曲面を有する位相板からなる光波面変調素子(波面形成用光学素子)群113を有する。また、物体側レンズ111と結像レンズ112間には図示しない絞りが配置される。
たとえば、本実施形態においては、可変絞り110a(図1参照)が設けられ、露出制御(装置)において可変絞りの絞り度(開口度)を制御する。
4 and 5 includes an object-side lens 111 disposed on the object-side OBJS, an imaging lens 112 for forming an image on the image sensor 120, and between the object-side lens 111 and the imaging lens 112. An optical wavefront modulation element (wavefront forming optical element) group 113 made of, for example, a phase plate having a three-dimensional curved surface, which is disposed and deforms a wavefront of an image formed on the light receiving surface of the imaging element 120 by the imaging lens 112. . A stop (not shown) is disposed between the object side lens 111 and the imaging lens 112.
For example, in the present embodiment, a variable aperture 110a (see FIG. 1) is provided, and the aperture degree of the variable aperture is controlled in exposure control (apparatus).

なお、本実施形態においては、位相板を用いた場合について説明したが、本発明の光波面変調素子としては、波面を変形させるものであればどのようなものでもよく、厚みが変化する光学素子(たとえば、上述の3次の位相板)、屈折率が変化する光学素子(たとえば屈折率分布型波面変調レンズ)、レンズ表面へのコーディング等により厚み、屈折率が変化する光学素子(たとえば、波面変調ハイブリッドレンズ、あるいはレンズ面上に形成される位相面として形成される状態)、光の位相分布を変調可能な液晶素子(たとえば、液晶空間位相変調素子)等の光波面変調素子であればよい。
また、本実施形態においては、光波面変調素子である位相板を用いて規則的に分散した画像を形成する場合について説明したが、通常の光学系として用いるレンズで光波面変調素子と同様に規則的に分散した画像を形成できるものを選択した場合には、光波面変調素子を用いずに光学系のみで実現することができる。この際は、後述する位相板に起因する分散に対応するのではなく、光学系に起因する分散に対応することとなる。
In the present embodiment, the case where the phase plate is used has been described. However, the optical wavefront modulation element of the present invention may be any element that deforms the wavefront, and an optical element whose thickness changes. (For example, the above-mentioned third-order phase plate), an optical element whose refractive index changes (for example, a gradient index wavefront modulation lens), an optical element whose thickness and refractive index change due to coding on the lens surface (for example, a wavefront) A light wavefront modulation element such as a modulation hybrid lens or a phase plane formed on the lens surface) or a liquid crystal element capable of modulating the phase distribution of light (for example, a liquid crystal spatial phase modulation element). .
Further, in the present embodiment, the case where a regularly dispersed image is formed using a phase plate that is a light wavefront modulation element has been described. However, the lens used as a normal optical system has the same rule as the light wavefront modulation element. When an image that can form a dispersed image is selected, it can be realized only by an optical system without using a light wavefront modulation element. In this case, it does not correspond to the dispersion caused by the phase plate described later, but corresponds to the dispersion caused by the optical system.

図4および図5で示された位相板113aは、光学系により収束される光束を規則正しく分散する光学レンズである。この位相板を挿入することにより、撮像素子120上ではピントのどこにも合わない画像を実現する。
換言すれば、位相板113aによって深度の深い光束(像形成の中心的役割を成す)とフレアー(ボケ部分)を形成している。
この規則的に分散した画像をデジタル処理により、光学系110を移動させずにピントの合った画像に復元する手段を波面収差制御光学系システム、あるいは深度拡張光学系システム(DEOS:Depth Expantion Optical system)といい、この処理を画像処理装置140において行う。
The phase plate 113a shown in FIGS. 4 and 5 is an optical lens that regularly disperses the light beam converged by the optical system. By inserting this phase plate, an image that does not fit anywhere on the image sensor 120 is realized.
In other words, the phase plate 113a forms a deep luminous flux (which plays a central role in image formation) and a flare (blurred portion).
Means for restoring the regularly dispersed image to a focused image without moving the optical system 110 by digital processing is a wavefront aberration control optical system system or a depth expansion optical system (DEOS: Depth Expansion Optical system system). This processing is performed in the image processing apparatus 140.

ここで、DEOSの基本原理について説明する。
図8に示すように、被写体の画像fがDEOS光学系Hに入ることにより、g画像が生成される。
これは、次のような式で表される。
Here, the basic principle of DEOS will be described.
As shown in FIG. 8, when the subject image f enters the DEOS optical system H, a g image is generated.
This is expressed by the following equation.

[数1]
g=H*f
ただし、*はコンボリューションを表す。
[Equation 1]
g = H * f
However, * represents convolution.

生成された画像から被写体を求めるためには、次の処理を要する。   In order to obtain the subject from the generated image, the following processing is required.

[数2]
f=H-1*g
[Equation 2]
f = H -1 * g

ここで、Hに関するカーネルサイズと演算係数について説明する。
光学切り替え情報をKPn,KPn−1・・・とする。また、それぞれのH関数をHn,Hn−1、・・・・とする。
各々のスポット像が異なるため、各々のH関数は、次のようになる。
Here, the kernel size and calculation coefficient regarding H will be described.
The optical switching information is KPn, KPn-1,. In addition, each H function is defined as Hn, Hn-1,.
Since each spot image is different, each H function is as follows.

Figure 2009159535
Figure 2009159535

この行列の行数および/または列数の違いをカーネルサイズ、各々の数字を演算係数とする。
ここで、各々のH関数はメモリに格納しておいても構わないし、PSFを物体距離の関数としておき、物体距離によって計算し、H関数を算出することによって任意の物体距離に対して最適なフィルタを作るように設定できるようにしても構わない。また、H関数を物体距離の関数として、物体距離によってH関数を直接求めても構わない。
The difference in the number of rows and / or the number of columns in this matrix is the kernel size, and each number is the operation coefficient.
Here, each H function may be stored in a memory, and the PSF is set as a function of the object distance, and is calculated based on the object distance. By calculating the H function, an optimum object distance is obtained. It may be possible to set so as to create a filter. Alternatively, the H function may be directly obtained from the object distance using the H function as a function of the object distance.

本実施形態においては、図1に示すように、光学系110からの像を撮像素子120で受像して、絞り開放時には画像処理装置140に入力させ、光学系に応じた変換係数を取得して、取得した変換係数をもって撮像素子120からの分散画像信号より分散のない画像信号を生成するように構成している。   In this embodiment, as shown in FIG. 1, an image from the optical system 110 is received by the image sensor 120 and input to the image processing device 140 when the aperture is opened, and a conversion coefficient corresponding to the optical system is acquired. The image signal having no dispersion is generated from the dispersion image signal from the image sensor 120 with the obtained conversion coefficient.

なお、本実施形態において、分散とは、上述したように、位相板113aを挿入することにより、撮像素子120上ではピントのどこにも合わない画像を形成し、位相板113aによって深度の深い光束(像形成の中心的役割を成す)とフレアー(ボケ部分)を形成する現象をいい、像が分散してボケ部分を形成する振る舞いから収差と同様の意味合いが含まれる。したがって、本実施形態においては、収差として説明する場合もある。   In the present embodiment, as described above, dispersion refers to forming a non-focused image on the image sensor 120 by inserting the phase plate 113a as described above. It plays a central role in image formation) and a phenomenon of forming flare (blurred portion), and includes the same meaning as aberration because of the behavior of the image being dispersed to form a blurred portion. Therefore, in this embodiment, it may be described as aberration.

本実施形態においては、DEOSを採用し、高精細な画質を得ることが可能で、しかも、光学系を簡単化でき、コスト低減を図ることが可能となっている。
以下、この特徴について説明する。
In the present embodiment, DEOS can be employed to obtain high-definition image quality, and the optical system can be simplified and the cost can be reduced.
Hereinafter, this feature will be described.

図9(A)〜(C)は、撮像素子120の受光面でのスポット像を示している。
図9(A)は焦点が0.2mmずれた場合(Defocus=0.2mm)、図9(B)が合焦点の場合(Best focus)、図9(C)が焦点が−0.2mmずれた場合(Defocus=−0.2mm)の各スポット像を示している。
図9(A)〜(C)からもわかるように、本実施形態に係る撮像装置100においては、位相板113aを含む波面形成用光学素子群113によって深度の深い光束(像形成の中心的役割を成す)とフレアー(ボケ部分)が形成される。
FIGS. 9A to 9C show spot images on the light receiving surface of the image sensor 120.
9A shows a case where the focal point is shifted by 0.2 mm (Defocus = 0.2 mm), FIG. 9B shows a case where the focal point is a focal point (Best focus), and FIG. 9C shows a case where the focal point is shifted by −0.2 mm. In this case, each spot image is shown (Defocus = −0.2 mm).
As can be seen from FIGS. 9A to 9C, in the imaging apparatus 100 according to the present embodiment, a light beam having a deep depth (a central role in image formation) is obtained by the wavefront forming optical element group 113 including the phase plate 113a. And flare (blurred part) are formed.

このように、本実施形態の撮像装置100において形成された1次画像FIMは、深度が非常に深い光束条件にしている。   As described above, the primary image FIM formed in the imaging apparatus 100 of the present embodiment has a light beam condition with a very deep depth.

図10(A),(B)は、本実施形態に係る撮像レンズ装置により形成される1次画像の変調伝達関数(MTF:Modulation Transfer Function)について説明するための図であって、図10(A)は撮像レンズ装置の撮像素子の受光面でのスポット像を示す図で、図10(B)が空間周波数に対するMTF特性を示している。
本実施形態においては、高精細な最終画像は後段の、たとえばデジタルシグナルプロセッサ(Digital Signal Processor)からなる画像処理装置140の補正処理に任せるため、図10(A),(B)に示すように、1次画像のMTFは本質的に低い値になっている。
FIGS. 10A and 10B are diagrams for explaining a modulation transfer function (MTF) of a primary image formed by the imaging lens device according to the present embodiment. FIG. 10A is a diagram showing a spot image on the light receiving surface of the imaging element of the imaging lens device, and FIG. 10B shows the MTF characteristics with respect to the spatial frequency.
In this embodiment, the high-definition final image is left to the correction processing of the image processing apparatus 140 including a digital signal processor (Digital Signal Processor), for example, as shown in FIGS. 10 (A) and 10 (B). The MTF of the primary image is essentially a low value.

画像処理装置140は、上述したように、撮像素子120による1次画像FIMを受けて、1次画像の空間周波数におけるMTFをいわゆる持ち上げる所定の補正処理等を施して高精細な最終画像FNLIMを形成する。   As described above, the image processing apparatus 140 receives the primary image FIM from the image sensor 120 and performs a predetermined correction process or the like that raises the MTF at the spatial frequency of the primary image to form a high-definition final image FNLIM. To do.

画像処理装置140のMTF補正処理は、たとえば図11の曲線Aで示すように、本質的に低い値になっている1次画像のMTFを、空間周波数をパラメータとしてエッジ強調、クロマ強調等の後処理にて、図11中曲線Bで示す特性に近づく(達する)ような補正を行う。
図11中曲線Bで示す特性は、たとえば本実施形態のように、波面形成用光学素子を用いずに波面を変形させない場合に得られる特性である。
なお、本実施形態における全ての補正は、空間周波数のパラメータによる。
The MTF correction processing of the image processing apparatus 140 is performed after edge enhancement, chroma enhancement, etc., using the MTF of the primary image, which is essentially a low value, as shown by a curve A in FIG. In the process, correction is performed so as to approach (reach) the characteristic indicated by the curve B in FIG.
A characteristic indicated by a curve B in FIG. 11 is a characteristic obtained when the wavefront is not deformed without using the wavefront forming optical element as in the present embodiment, for example.
It should be noted that all corrections in the present embodiment are based on spatial frequency parameters.

本実施形態においては、図11に示すように、光学的に得られる空間周波数に対するMTF特性曲線Aに対して、最終的に実現したいMTF特性曲線Bを達成するためには、それぞれの空間周波数に対し、図12に示すようにエッジ強調等の強弱を付け、元の画像(1次画像)に対して補正をかける。
たとえば、図11のMTF特性の場合、空間周波数に対するエッジ強調の曲線は、図12に示すようになる。
In the present embodiment, as shown in FIG. 11, in order to achieve the MTF characteristic curve B that is finally realized with respect to the optically obtained MTF characteristic curve A with respect to the spatial frequency, each spatial frequency is changed to each spatial frequency. On the other hand, the original image (primary image) is corrected by applying strength such as edge enhancement as shown in FIG.
For example, in the case of the MTF characteristic of FIG. 11, the curve of edge enhancement with respect to the spatial frequency is as shown in FIG.

すなわち、空間周波数の所定帯域内における低周波数側および高周波数側でエッジ強調を弱くし、中間周波数領域においてエッジ強調を強くして補正を行うことにより、所望のMTF特性曲線Bを仮想的に実現する。   That is, a desired MTF characteristic curve B is virtually realized by performing correction by weakening edge enhancement on the low frequency side and high frequency side within a predetermined spatial frequency band and strengthening edge enhancement in the intermediate frequency region. To do.

このように、実施形態に係る撮像装置100は、基本的に、1次画像を形成する光学系110および撮像素子120と、1次画像を高精細な最終画像に形成する画像処理装置140からなり、光学系システムの中に、波面成形用の光学素子を新たに設けるか、またはガラス、プラスチックなどのような光学素子の面を波面成形用に成形したものを設けることにより、結像の波面を変形(変調)し、そのような波面をCCDやCMOSセンサからなる撮像素子120の撮像面(受光面)に結像させ、その結像1次画像を、画像処理装置140を通して高精細画像を得る画像形成システムである。
本実施形態では、撮像素子120による1次画像は深度が非常に深い光束条件にしている。そのために、1次画像のMTFは本質的に低い値になっており、そのMTFの補正を画像処理装置140で行う。
As described above, the imaging apparatus 100 according to the embodiment basically includes the optical system 110 and the imaging element 120 that form a primary image, and the image processing apparatus 140 that forms the primary image into a high-definition final image. In the optical system, a wavefront shaping optical element is newly provided, or an optical element such as glass, plastic or the like is formed for wavefront shaping, thereby forming an imaging wavefront. The wavefront is deformed (modulated), and an image of such a wavefront is formed on the image pickup surface (light receiving surface) of the image pickup device 120 formed of a CCD or CMOS sensor. An image forming system.
In the present embodiment, the primary image from the image sensor 120 has a light beam condition with a very deep depth. For this reason, the MTF of the primary image is essentially a low value, and the MTF is corrected by the image processing device 140.

ここで、本実施形態における撮像装置100における結像のプロセスを、波動光学的に考察する。
物点の1点から発散された球面波は結像光学系を通過後、収斂波となる。そのとき、結像光学系が理想光学系でなければ収差が発生する。波面は球面でなく複雑な形状となる。幾何光学と波動光学の間を取り持つのが波面光学であり、波面の現象を取り扱う場合に便利である。
結像面における波動光学的MTFを扱うとき、結像光学系の射出瞳位置における波面情報が重要となる。
MTFの計算は結像点における波動光学的強度分布のフーリエ変換で求まる。その波動光学的強度分布は波動光学的振幅分布を2乗して得られるが、その波動光学的振幅分布は射出瞳における瞳関数のフーリエ変換から求まる。
さらにその瞳関数はまさに射出瞳位置における波面情報(波面収差)そのものからであることから、その光学系110を通して波面収差が厳密に数値計算できればMTFが計算できることになる。
Here, the imaging process in the imaging apparatus 100 according to the present embodiment will be considered in terms of wave optics.
A spherical wave diverging from one of the object points becomes a convergent wave after passing through the imaging optical system. At that time, aberration occurs if the imaging optical system is not an ideal optical system. The wavefront is not a spherical surface but a complicated shape. Wavefront optics lies between geometric optics and wave optics, which is convenient when dealing with wavefront phenomena.
When dealing with the wave optical MTF on the imaging plane, the wavefront information at the exit pupil position of the imaging optical system is important.
The MTF is calculated by Fourier transform of the wave optical intensity distribution at the imaging point. The wave optical intensity distribution is obtained by squaring the wave optical amplitude distribution, and the wave optical amplitude distribution is obtained from the Fourier transform of the pupil function in the exit pupil.
Further, since the pupil function is exactly from the wavefront information (wavefront aberration) at the exit pupil position itself, if the wavefront aberration can be strictly calculated numerically through the optical system 110, the MTF can be calculated.

したがって、所定の手法によって射出瞳位置での波面情報に手を加えれば、任意に結像面におけるMTF値は変更可能である。
本実施形態においても、波面の形状変化を波面形成用光学素子で行うのが主であるが、まさにphase(位相、光線に沿った光路長)に増減を設けて目的の波面形成を行っている。
そして、目的の波面形成を行えば、射出瞳からの射出光束は、図9(A)〜(C)に示す幾何光学的なスポット像からわかるように、光線の密な部分と疎の部分から形成される。
この光束状態のMTFは空間周波数の低いところでは低い値を示し、空間周波数の高いところまでは何とか解像力は維持している特徴を示している。
すなわち、この低いMTF値(または、幾何光学的にはこのようなスポット像の状態)であれば、エリアジングの現象を発生させないことになる。
つまり、ローパスフィルタが必要ないのである。
そして、後段のDSP等からなる画像処理装置140でMTF値を低くしている原因のフレアー的画像を除去すれば良いのである。それによってMTF値は著しく向上する。
Accordingly, if the wavefront information at the exit pupil position is modified by a predetermined method, the MTF value on the imaging plane can be arbitrarily changed.
In this embodiment, the wavefront shape is mainly changed by the wavefront forming optical element, but the target wavefront is formed by increasing or decreasing the phase (phase, optical path length along the light beam). .
Then, if the desired wavefront is formed, the exiting light flux from the exit pupil is made up of dense and sparse portions of the light, as can be seen from the geometric optical spot images shown in FIGS. It is formed.
The MTF in the luminous flux state shows a low value at a low spatial frequency and a characteristic that the resolving power is managed up to a high spatial frequency.
That is, if this MTF value is low (or such a spot image state in terms of geometrical optics), the phenomenon of aliasing will not occur.
That is, a low-pass filter is not necessary.
Then, the flare-like image that causes the MTF value to be lowered may be removed by the image processing apparatus 140 made up of a later stage DSP or the like. Thereby, the MTF value is significantly improved.

次に、本実施形態および一般的な光学系のMTFのレスポンスについて考察する。   Next, the MTF response of this embodiment and a general optical system will be considered.

図13は、一般的な光学系の場合において物体が焦点位置にあるときと焦点位置から外れたときのMTFのレスポンス(応答)を示す図である。
図14は、光波面変調素子を有する本実施形態の光学系の場合において物体が焦点位置にあるときと焦点位置から外れたときのMTFのレスポンスを示す図である。
また、図15は、本実施形態に係る撮像装置のデータ復元後のMTFのレスポンスを示す図である。
FIG. 13 is a diagram illustrating the MTF response when the object is at the focal position and out of the focal position in the case of a general optical system.
FIG. 14 is a diagram showing the response of the MTF when the object is at the focal position and when the object is out of the focal position in the optical system of the present embodiment having the light wavefront modulation element.
FIG. 15 is a diagram illustrating a response of the MTF after data restoration of the imaging apparatus according to the present embodiment.

図からもわかるように、光波面変調素子を有する光学系の場合、物体が焦点位置から外れた場合でもMTFのレスポンスの変化が光波面変調素子を挿入してない光学系よりも少なくなる。
この光学系によって結像された画像を、コンボリューションフィルタによる処理によって、MTFのレスポンスが向上する。
As can be seen from the figure, in the case of an optical system having a light wavefront modulation element, the change in the response of the MTF is less than that in an optical system in which no light wavefront modulation element is inserted even when the object deviates from the focal position.
The response of the MTF is improved by processing the image formed by this optical system using a convolution filter.

図14に示した、位相板を持つ光学系のOTFの絶対値(MTF)はナイキスト周波数において0.1以上であることが好ましい。
なぜなら、図15に示した復元後のOTFを達成するためには復元フィルタでゲインを上げることになるが、センサのノイズも同時に上げることになる。そのため、ナイキスト周波数付近の高周波ではできるたけゲインを上げずに復元を行うことが好ましい。
通常の光学系の場合、ナイキスト周波数でのMTFが0.1以上あれば解像する。
したがって、復元前のMTFが0.1以上あれば復元フィルタでナイキスト周波数でのゲインを上げずに済む。復元前のMTFが0.1未満であると、復元画像がノイズの影響を大きく受けた画像になるため好ましくない。
The absolute value (MTF) of the OTF of the optical system having the phase plate shown in FIG. 14 is preferably 0.1 or more at the Nyquist frequency.
This is because, in order to achieve the OTF after restoration shown in FIG. 15, the gain is increased by the restoration filter, but the noise of the sensor is also raised at the same time. For this reason, it is preferable to perform restoration without increasing the gain as much as possible at high frequencies near the Nyquist frequency.
In the case of a normal optical system, resolution is achieved if the MTF at the Nyquist frequency is 0.1 or more.
Therefore, if the MTF before restoration is 0.1 or more, the restoration filter does not need to increase the gain at the Nyquist frequency. If the MTF before restoration is less than 0.1, the restored image becomes an image greatly affected by noise, which is not preferable.

以下に、上記構成を有する撮像装置100における選択される所定の領域を認証に必要な箇所として用いる場合の構成例について説明する。   Hereinafter, a configuration example in a case where a predetermined region selected in the imaging apparatus 100 having the above configuration is used as a location necessary for authentication will be described.

本実施形態においては、前述したように、深度拡張のための画像復元処理を、対象となる領域に限って実施する。対象領域は固定もしくは特徴点抽出による選択とする。
また、認証系や情報コード読み取りへの応用に関しては、画像データを2値化することで輪郭を鮮明にして、特徴点抽出の精度向上を図ることが可能となる。
In the present embodiment, as described above, the image restoration processing for depth extension is performed only on the target region. The target area is fixed or selected by feature point extraction.
As for application to an authentication system or information code reading, it is possible to improve the accuracy of feature point extraction by binarizing image data to make the outline clear.

すなわち、認証に必要な箇所に対してのみ画像復元処理を行うことにより、システムの効率化を図ることが可能となる。
好適には、認証に必要な箇所を画面内の固定の位置としてあらかじめ登録しておき、その部分に対してのみ復元処理を行うことでシステムの効率化を図ることが可能である。
また、画像取得後、認証に必要な箇所を探査、該当箇所に対してのみ画像復元を行い、さらに認証処理に移行するシステムとすることにより、画面内に占める認証に必要な箇所に対し自由度を持ったシステムとすることが可能である。
That is, it is possible to improve the efficiency of the system by performing the image restoration process only on the part necessary for authentication.
Preferably, a part necessary for authentication is registered in advance as a fixed position in the screen, and the restoration process is performed only on that part, so that the efficiency of the system can be improved.
In addition, after acquiring images, the system searches for the locations required for authentication, restores images only for those locations, and then moves to authentication processing. It is possible to make a system with

また、光波面変調素子を含む深度拡張光学系は、通常光学系と比べ解像力を保持する深度領域が広くすることが可能となる。そこで、認証に必要な箇所を探査する方法として、画面を二値化処理する場合、解像力を保持することで、通常よりも広い深度領域で認証が行うことが可能となる。   In addition, the depth extension optical system including the light wavefront modulation element can widen the depth region that retains the resolving power as compared with the normal optical system. Therefore, when the screen is binarized as a method for searching for a place necessary for authentication, it is possible to perform authentication in a wider depth region than usual by maintaining the resolving power.

また、光波面変調素子を含む深度拡張光学系は、復元処理前の画像ではコントラストが弱い傾向がある。しかし、色の配列に対しては影響がないために、認証する被写体が色配列により識別するには適しているため、認証に必要な箇所を探知する方法として、色配列情報を用いて処理することが可能となる。   Further, the depth extension optical system including the light wavefront modulation element tends to have a low contrast in the image before the restoration process. However, since there is no influence on the color arrangement, the subject to be authenticated is suitable for identification by the color arrangement. Therefore, the color arrangement information is used as a method for detecting the part necessary for the authentication. It becomes possible.

図16は、選択される所定の領域が画像内で予め決められている例を説明するための図である。   FIG. 16 is a diagram for explaining an example in which a predetermined region to be selected is predetermined in an image.

図16の例は、本実施形態に係る撮像装置100を図示しない監視カメラに搭載し、たとえば、ベルトコンベア200上を流れる製品210に添付された、QRコード等の2次元情報コード211を画面中央で読み取るケースである。2次元情報コード211は、カラー情報コードである場合もある。
図中の点線枠220の内側が画面内に固定された認証に必要な位置としている。この位置情報が登録されている。
図16(A)に示すように、この固定の点線枠220内に認証用カラー情報コードが含まれない状態では、認証は行われない。
一方、図16(B)に示すように、この固定の点線枠220内に認証用コードが含まれた場合は、認証を行う。
さらに、認証に必要な位置に対してのみ画像復元を行い深度拡張することで、図16(C)に示すように、奥行きのある認証も行うことが可能となる。
In the example of FIG. 16, the imaging apparatus 100 according to the present embodiment is mounted on a monitoring camera (not shown). For example, a two-dimensional information code 211 such as a QR code attached to a product 210 flowing on the belt conveyor 200 is displayed at the center of the screen. It is a case to read by. The two-dimensional information code 211 may be a color information code.
The inside of the dotted frame 220 in the figure is a position necessary for authentication fixed in the screen. This position information is registered.
As shown in FIG. 16A, authentication is not performed in a state where the authentication dotted color information code is not included in the fixed dotted line frame 220.
On the other hand, as shown in FIG. 16B, when an authentication code is included in the fixed dotted frame 220, authentication is performed.
Further, by performing image restoration only on a position necessary for authentication and extending the depth, authentication with a depth can be performed as shown in FIG.

図17は、認証に必要な箇所を探査する処理が画像取得と画像復元処理の間に行う場合のフローチャートである。
換言すれば、図17は、特徴部位の抽出の処理が、撮像素子120による像の光電変換と所定の画像処理による復元処理の間に行われることを示すフローチャートである。
FIG. 17 is a flowchart in the case where the process of searching for a place necessary for authentication is performed between the image acquisition and the image restoration process.
In other words, FIG. 17 is a flowchart showing that the feature part extraction processing is performed between photoelectric conversion of an image by the image sensor 120 and restoration processing by predetermined image processing.

本光学系の特性上、画像は、解像度は保っているがコントラストが劣化している。つまり、認証箇所の探査は十分に行えるため(ST11,ST12)、画像取得後に認証を行い(ST13)、必要箇所のみを復元処理する(ST14)ことで、画像処理量を軽減させる。   Due to the characteristics of this optical system, the resolution of the image is maintained, but the contrast is deteriorated. That is, since the authentication location can be sufficiently searched (ST11 and ST12), authentication is performed after image acquisition (ST13), and only the necessary location is restored (ST14), thereby reducing the amount of image processing.

図18(A),(B)は、認証に必要な箇所を探査する方法として、画面を二値化処理する方法を説明するための図である。   FIGS. 18A and 18B are diagrams for explaining a method of binarizing the screen as a method of searching for a place necessary for authentication.

本光学系の特性上、二値化処理により輪郭は正しく残される。
たとえば、図18(A)に示すように、対象が生体230の顔231であれば、顔の輪郭の内部に目や鼻、口などが確認されれば顔と認識される。
図18(B)に示すように、車240のナンバープレート241では、ナンバーに記載される書式は国内では同一であるため、適当な書式内に文字が確認されればナンバーと認識可能である。
Due to the characteristics of the present optical system, the contour is correctly left by the binarization process.
For example, as shown in FIG. 18A, if the target is a face 231 of the living body 230, the face is recognized if eyes, nose, mouth, etc. are confirmed inside the face outline.
As shown in FIG. 18B, in the license plate 241 of the car 240, the format described in the number is the same in Japan, so that it can be recognized as a number if characters are confirmed in an appropriate format.

図19は、認証に必要な箇所を探知する方法として、色配列情報を用いて処理する例を説明するための図である。   FIG. 19 is a diagram for explaining an example of processing using color arrangement information as a method for detecting a location necessary for authentication.

この例では、ファイル250の背ラベルにおける色ラベルを探査する。図中、Yは黄色のラベル、Gが緑のラベル、Bが青のラベル、Rが赤のラベルを示している。
たとえば、黄色Yの四角のラベルを探査し、それを基準にし、復元箇所を決定する。
また、数種類の色の配列を探査し、それを基準にし、復元箇所を決定する。
In this example, the color label in the back label of the file 250 is searched. In the figure, Y indicates a yellow label, G indicates a green label, B indicates a blue label, and R indicates a red label.
For example, a square label of yellow Y is searched, and a restoration location is determined based on the label.
In addition, an arrangement of several kinds of colors is searched, and a restoration location is determined based on the search.

次に、色配列情報を用いる抽出処理等の具体例について説明する。   Next, a specific example of extraction processing using color array information will be described.

(1):形の抽出について
たとえば、画像から直線や円を検出する方法として、Hough変換が知られている。(1962年にP.V.C.Houghによる米国特許)これにより形を抽出する。
(1): Extraction of Shape For example, Hough transform is known as a method for detecting a straight line or a circle from an image. (US patent by PVCHough in 1962) This extracts the shape.

(2):色の抽出について
RGBをHSVに変換して、hue(色相)、saturation(彩度)、value(明度)を使う方法やRGB成分の比率を使う方法などが採用することが可能である。
(2): About color extraction It is possible to convert RGB to HSV and use methods such as hue (hue), saturation (saturation) and value (lightness), and methods using the ratio of RGB components. is there.

(3):配列の処理
基本的に、上記(1),(2)を組み合わせることで、対応可能である。
たとえば、輪郭を捉えることであらかじめ定まった形状と一致するかを検索する。
次に、その輪郭内の色情報を取得する。
(3): Arrangement processing Basically, it can be handled by combining the above (1) and (2).
For example, a search is made as to whether the shape matches a predetermined shape by capturing the contour.
Next, the color information in the outline is acquired.

<認証に関する特徴点の抽出方法>
(11):バーコードの抽出
たとえば、画面全体から「大津の方法」で閾値を取得、二値化する。
次に、二値化結果から、矩形領域を抽出する
<Method of extracting feature points for authentication>
(11): Barcode extraction For example, a threshold value is acquired from the entire screen by the “Otsu method” and binarized.
Next, a rectangular area is extracted from the binarization result.

(12):生体認証
画像として取り込んだ生体データから、判定処理に不要な環境要因の除去処理を行う。
次に、空間的位置や大きさ、時間的な変化などを正規化し、保管したテンプレートとの比較判定を行う。
(12): Biometric authentication From the biometric data captured as an image, an environmental factor unnecessary for the determination process is removed.
Next, the spatial position, size, temporal change, etc. are normalized, and a comparison with the stored template is performed.

ここで、色配列情報コードについてさらに説明する。
本実施形態では、図20に示すように、カラー情報コードで使用されているR、G、Bの何れか単色のみを他の2色に比べて極端に高く感知しているエリアをカラー情報コードのエリア候補とする。これらの候補エリアが隣接し、その集合の輪郭が想定されるカラー情報コードの輪郭形状(例えば正方形)に合致する場合に、その範囲をカラー情報コードの位置として抽出する方法を採用することが可能である。
Here, the color arrangement information code will be further described.
In this embodiment, as shown in FIG. 20, an area in which only one of R, G, and B used in the color information code is sensed extremely higher than the other two colors is shown as the color information code. As an area candidate. When these candidate areas are adjacent and the outline of the set matches the assumed color information code outline shape (for example, square), it is possible to adopt a method of extracting the range as the position of the color information code It is.

図20は、色配列情報コードの画像例を示す図である。
図21は、カラー情報コードの処理を示すフローチャートである。
FIG. 20 is a diagram illustrating an image example of the color arrangement information code.
FIG. 21 is a flowchart showing the color information code processing.

たとえば、図20に示すような画像を撮像した場合、以下の処理を行う。
画面内でRやGやB(カラー情報コードに用いられている色成分)のみの色成分が強く
表れているエリアをカラー情報コードのエリア候補として捉えておく(ST21)。
(図20においてR、G、Bと記しているピクセルはその色の成分が他の色成分に比べ高く感知されていることを示す。)
それらのエリアが隣接していれば(ST22)、カラー情報コードのエリア候補の集合体とする(ST23)。
エリアの抽出が終了すると(ST24)、上記エリアの集合体の輪郭が、おおよそ正方形の形状に当てはまるか否かを判定する(ST25)。
輪郭が正方形の形状に合致していればカラー情報コードとしてデコードを行う(ST26)。
For example, when an image as shown in FIG. 20 is captured, the following processing is performed.
An area in which only R, G, and B (color components used in the color information code) color components appear strongly in the screen is regarded as an area candidate for the color information code (ST21).
(Pixels labeled R, G, and B in FIG. 20 indicate that the color component is detected higher than the other color components.)
If these areas are adjacent to each other (ST22), a group of color information code area candidates is set (ST23).
When the extraction of the area is completed (ST24), it is determined whether or not the outline of the aggregate of the areas applies to an approximately square shape (ST25).
If the outline matches the square shape, the color information code is decoded (ST26).

次に、認証に関する特徴点抽出ついて説明する。   Next, feature point extraction related to authentication will be described.

<生体認証の場合>
図22(A),(B)は、手の認証する部位を示した例を示す図であって、ここでは食指球(領域S1)、中指球(領域S2)、無名指球(領域S3)、小指球(領域S4)と手のひらを領域S5〜S20に16分割した概略図である。
<For biometric authentication>
22 (A) and 22 (B) are diagrams showing an example of a part to be authenticated by hand. Here, the phalanx (region S1), middle finger (region S2), anonymous finger (region S3), It is the schematic which divided the little finger ball (area | region S4) and the palm into area | region S5-S20.

(21):対象となる形状(例えば手)の輪郭抽出を行う。
(22):大きさの正規化のために電子ズームをかけて所定の大きさにする。
(23):生体認証を行う対象となる部分(例えば指紋なら各指先、静脈なら掌全体)の抽出する、
と言ったような手順をふむことで行う。
(21): Perform contour extraction of a target shape (for example, a hand).
(22): Apply electronic zoom to a predetermined size for size normalization.
(23): Extraction of a part to be subjected to biometric authentication (for example, each fingertip for a fingerprint and the whole palm for a vein)
It is done by including the procedure like that.

<バーコード認証の場合>
2次元バーコード(QRコード)を例に挙げて説明する。
<For barcode authentication>
A two-dimensional barcode (QR code) will be described as an example.

(31):閾値(予め決められたもの、画面内輝度の平均、etc)を決めて画像を2値化する。
(32):QRコードの3隅に特徴的に設けられている正方形の枠の中心に塗りつぶした正方形がある形状を特徴点として抽出
(33):上記特徴点を3点抽出したら、それらが、左上隅、右上隅、左下隅の位置関係となるようなエリアを切り出しを行う、
ことによって、QRコードの抽出が可能となる。
(31): A threshold value (predetermined value, average of in-screen luminance, etc) is determined, and the image is binarized.
(32): Extract a shape having a square filled in the center of a square frame characteristically provided at the three corners of the QR code as a feature point (33): After extracting the three feature points, Cut out the area that has the positional relationship of the upper left corner, upper right corner, lower left corner,
This makes it possible to extract a QR code.

以上のように、本実施形態においては、深度拡張のための画像復元処理を、対象となる領域に限って実施する。対象領域は固定もしくは特徴点抽出による選択とする。   As described above, in the present embodiment, image restoration processing for depth extension is performed only on a target region. The target area is fixed or selected by feature point extraction.

以上説明したように、本実施形態によれば、光波面変調素子を含む光学系110と、光学系110を通過した被写体像を撮像する撮像素子120と、撮像素子120からの被写体の画像データに対して所定の処理を施す画像処理装置140と、を有し、画像処理装置140は、選択した特定領域の分散画像を分散のない画像信号として復元することから、必要な箇所に対してのみ画像復元処理を行うことが可能で、システムの効率化を図ることが可能となる利点がある。
また、認証系や情報コード読み取りへの応用に関しては、画像データを2値化することで輪郭を鮮明にして、特徴点抽出の精度向上を図ることが可能となる。
As described above, according to the present embodiment, the optical system 110 including the light wavefront modulation element, the image sensor 120 that captures the subject image that has passed through the optical system 110, and the image data of the subject from the image sensor 120. An image processing device 140 that performs predetermined processing on the image, and the image processing device 140 restores the dispersed image of the selected specific area as an image signal without dispersion. There is an advantage that the restoration process can be performed and the efficiency of the system can be improved.
As for application to an authentication system or information code reading, it is possible to improve the accuracy of feature point extraction by binarizing image data to make the outline clear.

また、本実施形態によれば、1次画像を形成する光波面変調素子を含む光学系110および撮像素子120と、1次画像を高精細な最終画像に形成する画像処理装置140とを含み、撮像素子120と光波面変調素子としての位相変調素子(位相板)113aを復元に適した配置とすることができ、公差の緩い深度拡張光学系を実現できる。
その結果、復元画が良好となるようなボカシを実現でき、適切な画質の、ノイズの影響が小さく、良好な復元画像を得ることができる利点がある。
また、光学系を簡単化でき、コスト低減を図ることができ、しかも適切な画質の、ノイズの影響が小さい復元画像を得ることができる利点がある。
また、コンボリューション演算時に用いるカーネルサイズやその数値演算で用いられる係数を可変とし、操作部180等の入力により知り、適性となるカーネルサイズや上述した係数を対応させることにより、倍率やディフォーカス範囲を気にすることなくレンズ設計ができ、かつ精度の高いコンボリュ−ションによる画像復元が可能となる利点がある。
また、難度が高く、高価でかつ大型化した光学レンズを必要とせずに、かつ、レンズを駆動させること無く、撮影したい物体に対してピントが合い、背景はぼかすといった、いわゆる自然な画像を得ることもできる。
そして、本実施形態に係る撮像装置100は、デジタルカメラやカムコーダー等の民生機器の小型、軽量、コストを考慮されたDEOSの光学システムに使用することが可能である。
Further, according to the present embodiment, the optical system 110 and the imaging device 120 including the light wavefront modulation element that forms the primary image, and the image processing device 140 that forms the primary image into a high-definition final image are included. The imaging element 120 and the phase modulation element (phase plate) 113a as the light wavefront modulation element can be arranged suitable for restoration, and a depth extension optical system with a narrow tolerance can be realized.
As a result, there is an advantage that a blur that improves the restored image can be realized, and that a good restored image can be obtained with an appropriate image quality and little influence of noise.
In addition, there is an advantage that the optical system can be simplified, the cost can be reduced, and a restored image with an appropriate image quality and less influenced by noise can be obtained.
In addition, the kernel size used at the time of convolution calculation and the coefficient used in the numerical calculation are made variable, know by input from the operation unit 180, etc. There is an advantage that the lens can be designed without worrying about the image and that the image can be restored by convolution with high accuracy.
In addition, a so-called natural image is obtained in which the object to be photographed is in focus and the background is blurred without requiring a highly difficult, expensive and large optical lens and without driving the lens. You can also.
The imaging apparatus 100 according to the present embodiment can be used in a DEOS optical system in consideration of the small size, light weight, and cost of consumer devices such as digital cameras and camcorders.

また、本実施形態においては、結像レンズ112による撮像素子120の受光面への結像の波面を変形させる波面形成用光学素子を有する撮像レンズ系と、撮像素子120による1次画像FIMを受けて、1次画像の空間周波数におけるMTFをいわゆる持ち上げる所定の補正処理等を施して高精細な最終画像FNLIMを形成する画像処理装置140とを有することから、高精細な画質を得ることが可能となるという利点がある。
また、光学系110の構成を簡単化でき、製造が容易となり、コスト低減を図ることができる。
In the present embodiment, the imaging lens system having a wavefront forming optical element that deforms the wavefront of the imaging on the light receiving surface of the imaging element 120 by the imaging lens 112 and the primary image FIM by the imaging element 120 are received. In addition, the image processing apparatus 140 that forms a high-definition final image FNLIM by performing a predetermined correction process or the like that raises the MTF at the spatial frequency of the primary image, and so on, can achieve high-definition image quality. There is an advantage of becoming.
In addition, the configuration of the optical system 110 can be simplified, manufacturing becomes easy, and cost reduction can be achieved.

ところで、CCDやCMOSセンサを撮像素子として用いた場合、画素ピッチから決まる解像力限界が存在し、光学系の解像力がその限界解像力以上であるとエリアジングのような現象が発生し、最終画像に悪影響を及ぼすことは周知の事実である。
画質向上のため、可能な限りコントラストを上げることが望ましいが、そのことは高性能なレンズ系を必要とする。
By the way, when a CCD or CMOS sensor is used as an image sensor, there is a resolution limit determined by the pixel pitch, and if the resolution of the optical system exceeds the limit resolution, a phenomenon such as aliasing occurs, which adversely affects the final image. It is a well-known fact that
In order to improve image quality, it is desirable to increase the contrast as much as possible, but this requires a high-performance lens system.

しかし、上述したように、CCDやCMOSセンサを撮像素子として用いた場合、エリアジングが発生する。
現在、エリアジングの発生を避けるため、撮像レンズ装置では、一軸結晶系からなるローパスフィルタを併用し、エリアジングの現象の発生を避けている。
このようにローパスフィルタを併用することは、原理的に正しいが、ローパスフィルタそのものが結晶でできているため、高価であり、管理が大変である。また、光学系に使用することは光学系をより複雑にしているという不利益がある。
However, as described above, aliasing occurs when a CCD or CMOS sensor is used as an image sensor.
Currently, in order to avoid the occurrence of aliasing, the imaging lens apparatus uses a low-pass filter made of a uniaxial crystal system to avoid the occurrence of aliasing.
The use of a low-pass filter in this way is correct in principle, but the low-pass filter itself is made of crystal, so it is expensive and difficult to manage. Moreover, there is a disadvantage that the use of the optical system makes the optical system more complicated.

以上のように、時代の趨勢でますます高精細の画質が求められているにもかかわらず、高精細な画像を形成するためには、従来の撮像レンズ装置では光学系を複雑にしなければならない。複雑にすれば、製造が困難になったりし、また高価なローパスフィルタを利用したりするとコストアップにつながる。
しかし、本実施形態によれば、ローパスフィルタを用いなくとも、エリアジングの現象の発生を避けることができ、高精細な画質を得ることができる。
As described above, in order to form a high-definition image, the optical system must be complicated in the conventional imaging lens apparatus in spite of the demand for higher-definition image due to the trend of the times. . If it is complicated, manufacturing becomes difficult, and if an expensive low-pass filter is used, the cost increases.
However, according to this embodiment, the occurrence of aliasing can be avoided without using a low-pass filter, and high-definition image quality can be obtained.

なお、本実施形態において、光学系の波面形成用光学素子を絞りより物体側レンズよりに配置した例を示したが、絞りと同一あるいは絞りより結像レンズ側に配置しても前記と同様の作用効果を得ることができる。   In this embodiment, the example in which the wavefront forming optical element of the optical system is arranged closer to the object side lens than the stop is shown. An effect can be obtained.

本発明に係る撮像装置の一実施形態を示すブロック構成図である。1 is a block configuration diagram showing an embodiment of an imaging apparatus according to the present invention. カーネルデータROMの格納データの一例(光学倍率)を示す図である。It is a figure which shows an example (optical magnification) of the storage data of kernel data ROM. カーネルデータROMの格納データの他例を示す図である。It is a figure which shows the other example of the stored data of kernel data ROM. 本実施形態に係る撮像レンズ装置の広角側のズーム光学系の構成例を模式的に示す図である。It is a figure which shows typically the structural example of the zoom optical system of the wide angle side of the imaging lens apparatus which concerns on this embodiment. 本実施形態に係る撮像レンズ装置の望遠側のズーム光学系の構成例を模式的に示す図である。It is a figure which shows typically the structural example of the zoom optical system of the telephoto side of the imaging lens apparatus which concerns on this embodiment. 広角側の像高中心のスポット形状を示す図である。It is a figure which shows the spot shape of the image height center on the wide angle side. 望遠側の像高中心のスポット形状を示す図である。It is a figure which shows the spot shape of the image height center of a telephoto side. DEOSの原理を説明するための図である。It is a figure for demonstrating the principle of DEOS. 本実施形態に係る撮像素子の受光面でのスポット像を示す図であって、(A)は焦点が0.2mmずれた場合(Defocus=0.2mm)、(B)は合焦点の場合(Best focus)、(C)は焦点が−0.2mmずれた場合(Defocus=−0.2mm)の各スポット像を示す図である。It is a figure which shows the spot image in the light-receiving surface of the image pick-up element which concerns on this embodiment, Comprising: (A) is a case where a focus shifts 0.2 mm (Defocus = 0.2 mm), (B) is a case where it is a focusing point ( (Best focus), (C) is a diagram showing each spot image when the focal point is shifted by -0.2 mm (Defocus = -0.2 mm). 本実施形態に係る撮像素子により形成される1次画像のMTFについて説明するための図であって、(A)は撮像レンズ装置の撮像素子の受光面でのスポット像を示す図で、(B)が空間周波数に対するMTF特性を示している。It is a figure for demonstrating MTF of the primary image formed with the image sensor which concerns on this embodiment, Comprising: (A) is a figure which shows the spot image in the light-receiving surface of the image sensor of an imaging lens apparatus, (B ) Shows the MTF characteristics with respect to the spatial frequency. 本実施形態に係る画像処理装置におけるMTF補正処理を説明するための図である。It is a figure for demonstrating the MTF correction process in the image processing apparatus which concerns on this embodiment. 本実施形態に係る画像処理装置におけるMTF補正処理を具体的に説明するための図である。It is a figure for demonstrating concretely the MTF correction process in the image processing apparatus which concerns on this embodiment. 従来の光学系の場合において物体が焦点位置にあるときと焦点位置から外れたときのMTFのレスポンス(応答)を示す図である。It is a figure which shows the response (response) of MTF when an object exists in a focus position in the case of the conventional optical system, and when it remove | deviated from the focus position. 光波面変調素子を有する本実施形態の光学系の場合において物体が焦点位置にあるときと焦点位置から外れたときのMTFのレスポンスを示す図である。It is a figure which shows the response of MTF when an object exists in a focus position in the case of the optical system of this embodiment which has a light wavefront modulation element, and remove | deviates from a focus position. 本実施形態に係る撮像装置のデータ復元後のMTFのレスポンスを示す図である。It is a figure which shows the response of MTF after the data restoration of the imaging device which concerns on this embodiment. 選択される所定の領域が画像内で予め決められている例を説明するための図である。It is a figure for demonstrating the example in which the predetermined area | region selected is predetermined within the image. 認証に必要な箇所を探査する処理が画像取得と画像復元処理の間に行う場合のフローチャートである。It is a flowchart in case the process which searches a location required for authentication is performed between an image acquisition and an image restoration process. 認証に必要な箇所を探査する方法として、画面を二値化処理する方法を説明するための図である。It is a figure for demonstrating the method of binarizing a screen as a method of searching a location required for authentication. 認証に必要な箇所を探知する方法として、色配列情報を用いて処理する例を説明するための図である。It is a figure for demonstrating the example processed using color arrangement information as a method of detecting the location required for authentication. 色配列情報コードの画像例を示す図である。It is a figure which shows the example of an image of a color arrangement | sequence information code. カラー情報コードの処理を示すフローチャートである。It is a flowchart which shows the process of a color information code. 手の認証する部位を示した例を示す図である。It is a figure which shows the example which showed the site | part which the hand authenticates. 一般的な撮像レンズ装置の構成および光束状態を模式的に示す図である。It is a figure which shows typically the structure and light beam state of a general imaging lens apparatus. 図23の撮像レンズ装置の撮像素子の受光面でのスポット像を示す図であって、(A)は焦点が0.2mmずれた場合(Defocus=0.2mm)、(B)は合焦点の場合(Best focus)、(C)は焦点が−0.2mmずれた場合(Defocus=−0.2mm)の各スポット像を示す図である。FIG. 24A is a diagram showing a spot image on the light receiving surface of the imaging element of the imaging lens apparatus of FIG. 23, where FIG. 23A shows a case where the focal point is shifted by 0.2 mm (Defocus = 0.2 mm), and FIG. In the case (Best focus), (C) is a diagram showing each spot image when the focus is shifted by −0.2 mm (Defocus = −0.2 mm).

符号の説明Explanation of symbols

100・・・撮像装置、110・・・光学系、120・・・撮像素子、130・・・アナログフロントエンド部(AFE)、140・・・画像処理装置、150・・・カメラ信号処理部、180・・・操作部、190・・・制御装置、111・・・物体側レンズ、112・・・結像レンズ、113・・・波面形成用光学素子、113a・・・位相板(光波面変調素子)、142・・・コンボリューション演算器、143・・・カーネルデータROM、144・・・コンボリューション制御部。   DESCRIPTION OF SYMBOLS 100 ... Image pick-up device, 110 ... Optical system, 120 ... Image pick-up element, 130 ... Analog front end part (AFE), 140 ... Image processing apparatus, 150 ... Camera signal processing part, DESCRIPTION OF SYMBOLS 180 ... Operation part, 190 ... Control apparatus, 111 ... Object side lens, 112 ... Imaging lens, 113 ... Optical element for wavefront formation, 113a ... Phase plate (light wavefront modulation) Element), 142... Convolution calculator, 143... Kernel data ROM, 144.

Claims (7)

光波面変調素子を含む深度拡張光学系と、
前記深度拡張光学系を通過した被写体像を撮像する撮像素子と、
前記撮像素子からの画像信号に対して所定の領域を選択する選択手段と、
前記選択した領域の画像信号に対して所定の画像処理を施す画像信号処理部と、を有し、
前記画像信号処理部は、
前記選択した領域の分散画像を分散のない画像信号として復元する
撮像装置。
A depth extension optical system including an optical wavefront modulation element;
An image sensor that captures a subject image that has passed through the depth extension optical system;
Selecting means for selecting a predetermined region for the image signal from the image sensor;
An image signal processing unit that performs predetermined image processing on the image signal of the selected area,
The image signal processor is
An imaging apparatus that restores a dispersed image of the selected region as an image signal without dispersion.
前記所定の領域は、画像内で予め決められている
請求項1記載の撮像装置。
The imaging device according to claim 1, wherein the predetermined region is predetermined in an image.
前記所定の領域は画像内から特徴部位を抽出し、その部分を選択して決定される
請求項1記載の撮像装置。
The imaging apparatus according to claim 1, wherein the predetermined area is determined by extracting a characteristic part from an image and selecting the part.
前記特徴部位の抽出の処理は、前記撮像素子による像の光電変換と前記所定の画像処理による復元処理の間に行われる
請求項3記載の撮像装置。
The imaging apparatus according to claim 3, wherein the feature part extraction processing is performed between photoelectric conversion of an image by the imaging device and restoration processing by the predetermined image processing.
前記特徴部位の抽出の処理に先立って、前記撮像素子からの画像信号に対して2値化処理を行う
請求項1、3、または4に記載の撮像装置。
The imaging apparatus according to claim 1, 3, or 4, wherein binarization processing is performed on an image signal from the imaging element prior to the processing of extracting the characteristic part.
前記特徴部位の抽出の処理において、色配列情報を用いる
請求項1、3、または4に記載の撮像装置。
The imaging apparatus according to claim 1, 3, or 4, wherein color arrangement information is used in the feature part extraction process.
光波面変調素子を含む深度拡張光学系を通過した被写体像を撮像し、撮像した画像データに画像処理を行う画像処理方法であって、
撮像素子からの画像信号に対して所定の領域を選択する選択ステップと、
前記選択した領域の画像信号に対して所定の画像処理を施す画像信号処理ステップと、を有し、
前記画像信号処理ステップにおいては、
前記選択した領域の分散画像を分散のない画像信号として復元する
画像処理方法。
An image processing method for capturing a subject image that has passed through a depth expansion optical system including a light wavefront modulation element and performing image processing on the captured image data,
A selection step of selecting a predetermined region for the image signal from the image sensor;
An image signal processing step of performing predetermined image processing on the image signal of the selected area,
In the image signal processing step,
An image processing method for restoring a dispersed image of the selected area as an image signal without dispersion.
JP2007338235A 2007-12-27 2007-12-27 Imaging apparatus and image processing method Expired - Fee Related JP5198052B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007338235A JP5198052B2 (en) 2007-12-27 2007-12-27 Imaging apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007338235A JP5198052B2 (en) 2007-12-27 2007-12-27 Imaging apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2009159535A true JP2009159535A (en) 2009-07-16
JP5198052B2 JP5198052B2 (en) 2013-05-15

Family

ID=40962987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007338235A Expired - Fee Related JP5198052B2 (en) 2007-12-27 2007-12-27 Imaging apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5198052B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2259258A1 (en) 2009-06-05 2010-12-08 Hitachi Consumer Electronics Co. Ltd. Multilayered optical disk and its recording method
CN102387294A (en) * 2010-08-26 2012-03-21 富士胶片株式会社 Shooting module and image signal processing method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004287699A (en) * 2003-03-20 2004-10-14 Tama Tlo Kk Image composition device and method
JP2006166231A (en) * 2004-12-09 2006-06-22 Matsushita Electric Ind Co Ltd Imaging apparatus, and video signal processor
JP2007116261A (en) * 2005-10-18 2007-05-10 Kyocera Corp Imaging apparatus and imaging method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004287699A (en) * 2003-03-20 2004-10-14 Tama Tlo Kk Image composition device and method
JP2006166231A (en) * 2004-12-09 2006-06-22 Matsushita Electric Ind Co Ltd Imaging apparatus, and video signal processor
JP2007116261A (en) * 2005-10-18 2007-05-10 Kyocera Corp Imaging apparatus and imaging method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2259258A1 (en) 2009-06-05 2010-12-08 Hitachi Consumer Electronics Co. Ltd. Multilayered optical disk and its recording method
CN102387294A (en) * 2010-08-26 2012-03-21 富士胶片株式会社 Shooting module and image signal processing method
CN102387294B (en) * 2010-08-26 2016-09-21 富士胶片株式会社 Photographing module and image-signal processing method

Also Published As

Publication number Publication date
JP5198052B2 (en) 2013-05-15

Similar Documents

Publication Publication Date Title
US9607240B2 (en) Image processing apparatus, image capturing apparatus, image processing method, image capturing method, and non-transitory computer-readable medium for focus bracketing
US8605192B2 (en) Imaging apparatus and electronic device including an imaging apparatus
JP4818957B2 (en) Imaging apparatus and method thereof
US8773778B2 (en) Image pickup apparatus electronic device and image aberration control method
WO2007013621A1 (en) Imaging device and image processing method
JP2008048293A (en) Imaging device and method for manufacturing same
JP2008245157A (en) Imaging device and method therefor
WO2009119838A1 (en) Optical system, imaging device, and information code reader
JP5619124B2 (en) Image processing apparatus, imaging apparatus, image processing program, and image processing method
JP2007206738A (en) Imaging device and method
JP4658162B2 (en) Imaging apparatus and electronic apparatus
JP2009182735A (en) Noise eliminating method, image processor, and information code reader
JP2009086017A (en) Imaging device and imaging method
JP5198052B2 (en) Imaging apparatus and image processing method
JP2006094468A (en) Imaging device and imaging method
JP4818956B2 (en) Imaging apparatus and method thereof
JP2009033607A (en) Imaging apparatus and image processing method
JP2007007073A (en) Biological identification apparatus
JP2009033561A (en) Information code reader and method of reading the same code
JP2009134023A (en) Imaging device and information code reading device
JP2008167040A (en) Imaging apparatus, manufacturing apparatus and manufacturing method therefor, and information code reader
JP3916647B1 (en) Biometric authentication device
JP2009008935A (en) Imaging apparatus
JP2009181367A (en) Imaging apparatus and electronic device
JP2009010783A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130206

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5198052

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees