JP2015165610A - 撮像装置、撮像システムおよび撮像方法 - Google Patents

撮像装置、撮像システムおよび撮像方法 Download PDF

Info

Publication number
JP2015165610A
JP2015165610A JP2014039912A JP2014039912A JP2015165610A JP 2015165610 A JP2015165610 A JP 2015165610A JP 2014039912 A JP2014039912 A JP 2014039912A JP 2014039912 A JP2014039912 A JP 2014039912A JP 2015165610 A JP2015165610 A JP 2015165610A
Authority
JP
Japan
Prior art keywords
image
filter
imaging
unit
frequency characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014039912A
Other languages
English (en)
Inventor
亮介 笠原
Ryosuke Kasahara
亮介 笠原
太郎 澤木
Taro Sawaki
太郎 澤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014039912A priority Critical patent/JP2015165610A/ja
Priority to US14/621,934 priority patent/US20150248776A1/en
Priority to EP15156300.4A priority patent/EP2913992A3/en
Publication of JP2015165610A publication Critical patent/JP2015165610A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/006Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10792Special measures in relation to the object to be scanned
    • G06K7/10801Multidistance reading
    • G06K7/10811Focalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/10831Arrangement of optical elements, e.g. lenses, mirrors, prisms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/236Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/615Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4" involving a transfer function modelling the optical system, e.g. optical transfer function [OTF], phase transfer function [PhTF] or modulation transfer function [MTF]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10712Fixed beam scanning
    • G06K7/10722Photodetector array or CCD scanning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Abstract

【課題】所定の大きさを有する被写体を、焦点を合わせて撮像することができる撮像装置、撮像システムおよび撮像方法を提供する。【解決手段】シャインプルーフの原理に基づき、撮像素子12のセンサ面をレンズユニットの主面に対して傾けて配置させることにより、合焦位置がレンズユニットの光軸方向に延伸した合焦面が形成され、フィルタ処理部143は、周波数特性Rに基づく逆変換フィルタによる逆変換処理を実行することによって、レンズユニットの光軸方向に延伸した合焦面の各位置において、レンズユニットの光軸方向に被写界深度を拡張させる。【選択図】図9

Description

本発明は、撮像装置、撮像システムおよび撮像方法に関する。
近年、情報のデジタル化の発展に伴い、撮像装置に分野においてもデジタル化の発展が著しい。特に、デジタルカメラに代表される撮像装置において、撮像面は従来のフィルムに置き換わって固体撮像素子が使用されている。固体撮像素子(以下、単に撮像素子という)として、CCD(Charge Coupled Device)センサまたはCMOS(Complementary Metal Oxide Semiconductor)センサ等が使用されている。
このように、撮像素子を使用した撮像装置は、被写体からの光を光学系によって取り込み、固体撮像素子によって光を電気信号に変換して抽出するものである。このような撮像装置として、デジタルカメラの他、ビデオカメラ、コードリーダ(バーコードリーダ、二次元コードリーダ等)、携帯電話機、携帯情報端末(PDA:Personal Digital Assistant)および産業用カメラ等が挙げられる。
このような、CCDまたはCMOS等の撮像素子を備えた撮像装置として、多焦点の光学系を利用し、焦点が合う被写体側の位置(以下、合焦位置という)を光学系の光軸方向に延伸させ、被写体(バーコード等)の読み取り可能範囲を広げる撮像装置が提案されている(特許文献1参照)。特許文献1に記載された撮像装置は、動作が遅いオートフォーカス機構を用いずに、多焦点の光学系を用いることで、高速に被写体(バーコード等)の読み取りを行っている。
しかしながら、特許文献1に記載された撮像装置は、光学系によって合焦位置を光学系の光軸方向に延伸させているが、各合焦位置における被写界深度の制限により、その合焦位置において、サイズの大きい被写体の全体に焦点を合わせて撮像することができないという問題点があった。
本発明は、上記に鑑みてなされたものであって、所定の大きさを有する被写体を、焦点を合わせて撮像することができる撮像装置、撮像システムおよび撮像方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、入射した光に収差を与える光学系と、前記光学系を通過した前記光を画素に変換して画像を撮像する撮像手段と、前記光学系の光軸上の所定範囲において前記撮像手段により撮像された撮像画像に対して、前記収差を復元する逆変換フィルタにより逆変換処理を実行して被写界深度を拡張する逆変換手段と、を備え、前記光学系および前記撮像手段は、合焦位置が前記光軸の方向に延伸した合焦面を形成するように配置され、前記逆変換手段は、前記合焦面の各位置において前記被写界深度を拡張することを特徴とする。
本発明によれば、所定の大きさを有する被写体を、焦点を合わせて撮像することができる。
図1は、第1の実施の形態の撮像システムの全体構成の一例を示す図である。 図2は、第1の実施の形態の情報処理装置のハードウェア構成の一例を示す図である。 図3は、第1の実施の形態の撮像装置の構成の一例を示す図である。 図4は、被写体の距離によって焦点が合うか否かの説明をする図である。 図5は、シャインプルーフの原理を説明する図である。 図6は、シャインプルーフの原理によりレンズユニットの光軸方向に延伸させた合焦面を説明する図である。 図7は、撮像画像の位置によって焦点が合うか否かを説明する図である。 図8は、第1の実施の形態の撮像装置における光学系周辺の要部構成の一例を示す図である。 図9は、第1の実施の形態の撮像装置の画像処理部の構成の一例を示す図である。 図10は、第1の実施の形態の撮像装置の撮像素子により撮像される撮像画像の一例を示す図である。 図11は、第1の実施の形態の画像処理部の画像バッファ部の構成の一例を示す図である。 図12は、撮像素子から出力される画素が画像バッファ部に入力される動作を示すタイミングチャートである。 図13は、第1の実施の形態の画像処理部のフィルタ処理部の構成の一例を示す図である。 図14は、逆変換フィルタの構成の一例を示す図である。 図15は、画像を逆変換フィルタによってフィルタ処理することを説明する図である。 図16は、画像において逆変換フィルタのフィルタ処理の対象となる対象部分画像をスキャンする動作を説明する図である。 図17は、第1の実施の形態の画像処理部のフィルタ処理部の逆変換フィルタを決定するための周波数特性を演算する流れを示すフローチャートである。 図18は、光学系を通過した光による撮像画像の空間周波数特性を示す図である。 図19は、逆変換処理が行われた画像の空間周波数特性を示す図である。 図20は、合焦面の各位置において被写界深度が拡張された場合に形成される合焦領域を説明する図である。 図21は、撮像素子上でピントの合う領域が拡大されることを説明する図である。 図22は、第1の実施の形態の変形例に係る撮像装置における光学系周辺の要部構成の一例を示す図である。 図23は、撮像画像における各エリアによってパワースペクトルが異なることを説明する図である。 図24は、撮像画像全体のパワースペクトルと最適フィルタとを説明する図である。 図25は、撮像画像の平坦部のエリアのパワースペクトルと最適フィルタとを説明する図である。 図26は、撮像画像のテクスチャ部のエリアのパワースペクトルと最適フィルタとを説明する図である。 図27は、第2の実施の形態の画像処理部のフィルタ処理部の構成の一例と動作を説明する図である。 図28は、第2の実施の形態の変形例の画像処理部のフィルタ処理部の構成の一例と動作を説明する図である。 図29は、第3の実施の形態のコードリーダの外観構成の一例を示す図である。 図30は、第3の実施の形態のコードリーダの合焦面の位置および動作を説明する図である。
以下に、図面を参照しながら、本発明に係る撮像装置、撮像システムおよび撮像方法の実施の形態を詳細に説明する。また、以下の実施の形態によって本発明が限定されるものではなく、以下の実施の形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。さらに、以下の実施の形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更および組み合わせを行うことができる。
(第1の実施の形態)
<撮像システムの全体構成>
図1は、第1の実施の形態の撮像システムの全体構成の一例を示す図である。図1を参照しながら、本実施の形態の撮像システム500の構成について説明する。
図1に示すように、本実施の形態の撮像システム500は、撮像装置1と、PC2と、を備えている。撮像装置1とPC2とは、Ethernet(登録商標)ケーブル等の通信ケーブル3によって通信可能に接続されている。
撮像装置1は、被写体4からの光を電気信号に変換することによって被写体4を撮像し、撮像画像の情報(以下、単に撮像画像という)から画像処理を実行し、画像処理後の画像を、通信ケーブル3を介してPC2へ送信する。PC2は、撮像装置1から受信した画像に対して所定の処理を実行する。
例えば、撮像装置1は、生産ラインを流れる製品に添付されたバーコードを撮像して、バーコードの画像をPC2に送信する。PC2は、受信した画像からバーコードの情報を読み出して解析する。
なお、図1に示すように、撮像システム500は、撮像装置1とPC2とが通信ケーブル3を介してデータを通信する有線通信方式のシステムとしているが、これに限定されるものではない。例えば、撮像装置1とPC2とは、Wi−Fi(登録商標)(WirelessFidelity)等の無線通信方式によって互いにデータが通信可能であってもよい。
また、撮像装置1およびPC2が生産ラインにおいて使用される場合、撮像システム500は、PC2がPLC(Programmable Logic Controller)等に通信可能に接続されている構成としてもよい。この場合、撮像システム500の動作として、以下の動作が一例として挙げられる。撮像装置1は、生産ラインを流れる製品に添付されたバーコードを撮像して、バーコードの画像をPC2に送信する。PC2は、受信したバーコードの画像から、生産ラインを流れている製品の品番を判定する。PC2は、判定した品番が、生産ラインにおいて段替えされている品番と不一致である場合、判定した品番に対応する製品は異なる品番の製品であることを示す信号をPLCに送信する。PLCは、PC2から異なる品番の製品であることを示す信号を受信した場合、その製品を生産ラインから除去するように生産ラインの動作を制御する。
<情報処理装置の構成>
図2は、第1の実施の形態の情報処理装置のハードウェア構成の一例を示す図である。図2を参照しながら、情報処理装置の一例であるPC2のハードウェア構成について説明する。
図2に示すように、情報処理装置の一例であるPC2は、通信部21(通信手段)と、操作部22と、表示部23(表示手段)と、記憶部24と、外部記憶装置25と、制御部26と、を備えている。上記の各部は、バス27によって接続され、互いにデータの送受信が可能となっている。
通信部21は、通信ケーブル3を介して、撮像装置1と通信する装置である。通信部21は、例えば、NIC(Network Interface Card)等の通信装置によって実現される。通信部21の通信プロトコルは、例えば、TCP(Transmission Control Protocol)/IP(Internet Protocol)またはUDP(User Datagram Protocol)/IP等によって実現される。
操作部22は、ユーザによって制御部26に対して所定の処理を実行させるための操作入力を行う装置である。操作部22は、例えば、マウス、キーボード、テンキー、タッチパッドまたはタッチパネルにおける操作入力機能によって実現される。
表示部23は、制御部26により実行されているアプリケーション画像等を表示する装置である。表示部23は、例えば、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ、プラズマディスプレイまたは有機EL(Electroluminescence)ディスプレイ等によって実現される。
記憶部24は、PC2で実行される各種プログラムおよびPC2で行われる各種処理に使用されるデータ等を記憶する装置である。記憶部24は、例えば、ROM(Read Only Memory)およびRAM(Random Access Memory)等の記憶装置によって実現される。
外部記憶装置25は、画像、プログラムおよびフォントデータ等を蓄積して記憶する記憶装置である。外部記憶装置25は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク、または光磁気ディスク(MO:Magneto−Optical Disk)等の記憶装置によって実現される。
制御部26は、PC2の各部の動作を制御する装置である。制御部26は、例えば、CPU(Central Processing Unit)およびASIC(Application Specific Integrated Circuit)等で実現される。
<撮像装置の構成>
図3は、第1の実施の形態の撮像装置の構成の一例を示す図である。図3を参照しながら、本実施の形態の撮像装置1の構成について説明する。
図3に示すように、撮像装置1は、レンズユニット11(光学系)と、撮像素子12(撮像手段)と、画像処理部14と、認識処理部15(認識処理手段)と、通信部16と、光源17と、を備えている。
レンズユニット11は、被写体4からの光を集光し、撮像素子12に対して結像させるユニットである。レンズユニット11は、1枚以上のレンズで構成された光学系によって実現される。レンズユニット11は、位相板11aと、絞り11bとを備えている。被写体4は、例えば、人物、被監視物、バーコード、2次元コードまたは文字列等である。
位相板11aは、レンズユニット11に入射する光に対して収差を与える作用を有する。その結果、位相板11aは、撮像素子12に入射される光に対して点像分布関数を付加する作用を奏し、撮像素子12で撮像される画像がぼけた状態とする代わりに広い被写界深度でそのぼけが一定となるようにする。なお、レンズユニット11に入射する光に対して収差を与えるのは、位相板11aに限定されるものではなく、レンズユニット11に含まれるレンズによって収差が与えられるものとしてもよい。
絞り11bは、レンズユニット11に入射する光の量を自在に調整する部材であり、位相板11aの近傍に配置されている。
撮像素子12は、レンズユニット11に入射する被写体からの光を電気信号に変換することによって被写体4を撮像して画像を生成する固体撮像素子である。撮像素子12は、固体撮像素子を構成する各検出単位によって撮像した画像を構成する画素を出力する。撮像素子12は、例えば、CCDセンサまたはCMOSセンサ等によって実現される。
画像処理部14は、撮像素子12から出力される撮像画像から、フィルタ処理を施した画像(出力画像)を生成する。
認識処理部15は、画像処理部14によりフィルタ処理が実行された画像に基づいて、所定の対象物を認識する認識処理を実行する。所定の対象物とは、例えば、人物、被監視物、バーコード、2次元コードまたは文字列等である。
通信部16は、通信ケーブル3を介して、PC2と通信する装置である。通信部16は、例えば、認識処理部15から出力される画像をPC2に対して送信する。通信部16は、例えば、NIC等の通信装置によって実現される。通信部16の通信プロトコルは、例えば、TCP/IPまたはUDP/IP等によって実現される。
光源17は、後述するように、発光した光線が、センサ面(検出面)がチルトした(傾いた)撮像素子12によりレンズユニット11の光軸方向に延伸した合焦面に沿うように設置された光源である。光源17は、LED(Light Emitting Diode)またはレーザ等の発光装置である。
なお、認識処理部15は、撮像装置1に含まれる構成としているが、撮像装置1に接続される外部機器の機能によって実現されるものとしてもよい。例えば、認識処理部15は、撮像装置1ではなくPC2において実現されるものとしてもよい。
また、画像処理部14および認識処理部15は、ソフトウェアであるプログラムが実行されることによって実現されてもよく、または、ハードウェア回路によって実現されてもよい。ただし、以下の説明において、特に画像処理部14はハードウェア回路で構成されている場合を例に説明する。
<シャインプルーフの原理について>
図4は、被写体の距離によって焦点が合うか否かの説明をする図である。図5は、シャインプルーフの原理を説明する図である。図6は、シャインプルーフの原理によりレンズユニットの光軸方向に延伸させた合焦面を説明する図である。図7は、撮像画像の位置によって焦点が合うか否かを説明する図である。図4〜7を参照しながら、本実施の形態に係る撮像装置1が採用するシャインプルーフの原理について説明する。
図4に示すように、通常、撮像装置のレンズユニット11における光軸に垂直な面(主面)と、撮像素子12のセンサ面とは略平行に配置されている。光学系であるレンズユニット11には、所定の被写界深度があり、被写界深度に含まれる焦点以外の点において、被写体は焦点が合わない(合焦しない)。ここで、被写界深度とは、撮像装置の光学系からある距離にある被写体に対して、焦点が合っていると許容できる光学系の光軸方向の距離範囲のことをいう。図4に示す3つの被写体4a〜4cのうち、焦点が合う合焦位置にあるのは、被写体4bのみで、被写体4a、4cは合焦位置にない。したがって、撮像素子12で結像されるのは、被写体4bのみであり、被写体4a、被写体4cは、撮像素子12で結像しない。
そのため、一般的には、このような広い範囲の合焦位置(フォーカス位置)をサポートするために、機械的にレンズの位置を変更するオートフォーカス等の方法が用いられている。しかしながら、オートフォーカス機構はサイズが大きくなる上に高価であり、かつ合焦させるために、レンズを移動させて合焦位置を探索する必要があり、被写体に焦点の合った画像を得るまでに時間がかかるという問題点がある。
これを解決する方法の一例として、図5に示すように、撮像素子12のセンサ面を、レンズユニット11の主面に対して傾けたシャインプルーフの原理を用いる方法がある。シャインプルーフの原理とは、図5に示すように、撮像素子12のセンサ面と、レンズユニット11の主面とが1つの直線で交わる場合、合焦する被写体側の面(以下、合焦面50と称する)も同じ直線で交わるという原理である。すなわち、撮像素子12の位置によって被写体側の合焦位置が変わることになり、被写体との距離に応じた適切な場所、すなわち、合焦面50上に被写体を配置することによって、レンズユニット11の光軸方向の広い範囲において合焦した撮像画像を得ることができる。
このようにシャインプルーフの原理を用い、撮像素子12のセンサ面を、レンズユニット11の主面に対して傾けることによって、合焦位置がレンズユニット11の光軸方向に延伸した合焦面50を形成することができる。この場合、図6に示すように、被写体4a〜4cを合焦面50上に配置した状態で、撮像素子12により撮像すると、被写体4a〜4cのいずれにも焦点が合った撮像画像を得ることができる。
しかしながら、図6に示すシャインプルーフの原理を用いて合焦位置をレンズユニット11の光軸方向に延伸させる場合、被写体との距離に応じて、撮像画像上での合焦した状態で表示される適切な撮像位置が変わる。したがって、ユーザは、被写体の距離に応じて、適切な撮像位置となるように撮像装置1を移動させる必要があり、容易に被写体の撮像位置を決定することができないという問題点が出てくる。例えば、図7に示すように、撮像画像100に含まれている大きさおよび形状が全て同一の被写体4a〜4dのうち、被写体4a〜4cは、合焦面50上に配置されているため、焦点が合った状態で撮像されている。この場合、被写体4aは、合焦面50上の撮像装置1に近い位置に配置されており、被写体4cは、合焦面50上の撮像装置1から遠い位置に配置されており、被写体4bは、被写体4aと被写体4cとの中間に位置する合焦面50上に配置されている。しかし、被写体4dは、撮像装置1からの距離が被写体4aと同じ距離に配置されているが、合焦面50上に配置されていないために、焦点が合っていない状態で撮像されている。したがって、被写体4dを焦点が合った状態で撮像するために、ユーザは、被写体4dの撮像位置が、図7における被写体4aの撮像位置となるように撮像装置1を移動させなければならないが、これは容易にできることではない。以下、図8を参照しながら、この問題を解決するための本実施の形態のレンズユニット11周辺の要部構成について説明する。
<レンズユニット周辺の要部構成>
図8は、第1の実施の形態の撮像装置における光学系周辺の要部構成の一例を示す図である。図8を参照しながら、撮像装置1のレンズユニット11周辺の要部構成について説明する。
図8に示すように、撮像素子12は、センサ面がレンズユニット11の主面に対して傾けて配置されており、シャインプルーフの原理によって、合焦位置がレンズユニット11の光軸方向に延伸した合焦面50が形成されている。すなわち、合焦面50は、レンズユニット11の光学特性、およびレンズユニット11と撮像素子12のセンサ面(結像面)との位置関係に基づいて、形成される。また、光源17は、撮像素子12のセンサ面と、レンズユニット11の主面とが交わる直線の位置に配置されている。そして、光源17は、照射する光線60の方向をレンズユニット11の画角の中心軸方向からずらし、光線60を合焦面50上に位置するように照射する。光線60は、被写体に照射した場合に、円形のポインタが形成されるものとしてもよいし、矩形状のポインタが形成されるものとしてもよい。
以上のように光源17を配置することによって、光源17が照射する光線60は、合焦面50上に配置された被写体を照射することになる。図8に示すように、被写体4a〜4cは、いずれも、合焦面50上に配置されているので、光線60によって照射されることになる。逆に、被写体が光線60により照射されるように、被写体または撮像装置1を移動させることによって、被写体を焦点が合う撮像位置に配置させることができる。すなわち、ユーザは、光源17が照射する光線60が示す位置に被写体(例えば、二次元コード等)が配置されるように、撮像装置1を移動させることによって、容易に被写体の距離に応じた適切な撮像位置とすることができ、被写体の焦点が合った撮像画像を得ることができる。
なお、光源17が照射する光線60は、被写体における撮像装置1に対する面がレンズユニット11の主面と略平行等に配置されている場合、被写体の面に対して斜めから照射することになる。したがって、被写体に照射された光線60のポインタは、歪んだ形状を呈することになる。よって、光源17は、元から断面形状が歪んだ状態の光線60を照射し、被写体の面に対して斜めから照射されたときに正規の形状(円形、矩形等)となるようにしてもよい。
また、通常、撮像素子12におけるセンサ面は、長方形の形状となっている。例えば、撮像素子12が、640×480のマトリックス状に配置された検出素子で構成された場合等である。この場合、撮像素子12を、センサ面の長手方向が、レンズユニット11の主面に対して傾けて配置させることが望ましい。これによって、合焦面50をレンズユニット11の光軸方向により大きく延伸させることができる。
また、光源17は、撮像素子12のセンサ面と、レンズユニット11の主面とが交わる直線の位置に配置されているものとしたが、これに限定されるものではない。すなわち、光源17から照射される光線60が、合焦面50上に位置するように照射されるものとすれば、光源17はどの位置に配置されてもよい。
ここで、上述のように、シャインプルーフの原理を用いて、合焦位置がレンズユニット11の光軸方向に延伸した合焦面50を形成させたとしても、上述のようにレンズユニット11が有する所定の被写界深度の制限により、レンズユニット11の主面に平行な方向については焦点が合う範囲が狭い。したがって、レンズユニット11の主面に平行な方向において焦点が合う範囲を超える大きさの被写体については、被写体の全体に対して焦点を合わせて撮像することができないことになる。
ここで、合焦面50上の各位置において、上述のレンズユニット11の光軸方向の被写界深度の拡張をすることができれば、焦点が合う領域が広くなり、大きな被写体の全体に対して焦点の合った状態で撮像することが可能となる。ここで、被写界深度拡張(EDoF:Extended Depth of Field)の概略について説明する。レンズユニット11に含まれるレンズおよび位相板11aは、撮像素子12に入射される被写体の光に収差を与えて点像分布関数(PSF:Point Spread Function)を付加する働きをする。例えば、レンズは、収差として、撮像素子12に入射される被写体の光に球面収差を与える。レンズユニット11は、収差によって撮像素子で撮像する画像がぼけた状態にする代わりに広い被写界深度でそのぼけが一定となるようにする。したがって、レンズユニット11によってぼけた画像は、所定のMTF(Modulation Transfer Function)の値が得られるように補正する必要がある。MTFは、被写体の持つコントラストを、どれくらい忠実に再現できるかを数値化した値、すなわちコントラストの再現率を示す。このような、レンズユニット11によってぼけた画像に対して、ぼけを補正する撮像装置として、点像分布関数の逆変換処理を施すことによって、MTFを向上させ、高解像度の画像に補正することができる。逆変換処理は、光学系によってぼけた画像を形成する各画素に対して、逆変換フィルタによるフィルタ処理を施すことにより画像のぼけ(収差)を復元することによって実現される。以下、画像処理部14の構成の詳細を説明すると共に、逆変換処理による被写界深度拡張(EDoF:Extended Depth of Field)の方法の一例について説明する。
<画像処理部の構成および動作>
図9は、第1の実施の形態の撮像装置の画像処理部の構成の一例を示す図である。図10は、第1の実施の形態の撮像装置の撮像素子により撮像される撮像画像の一例を示す図である。図9を参照しながら、本実施の形態の撮像装置1の画像処理部14の構成について説明する。
撮像素子12は、上述のように、レンズユニット11に入射する被写体からの光を電気信号に変換することにより被写体4を撮像し、画像を生成する固体撮像素子である。以下、撮像素子12は、VGAの画像を形成して出力するものとして説明する。具体的には、撮像素子12は、図10に示すように、例えば、X方向に640個、Y方向に480個の検出素子によって、640×480のマトリックス状に配列された画素で構成される画像である撮像画像101を撮像する。
なお、撮像素子12が撮像する画像の大きさは640×480のVGAの画像であるものとしたが、これに限定されるものではなく、異なる大きさの画像であってもよい。
図9に示すように、本実施の形態の画像処理部14は、画像バッファ部141と、フィルタ処理部143(逆変換処理手段)とを備えている。
画像バッファ部141は、撮像素子12から出力される画素を順に入力してバッファリングする装置である。画像バッファ部141の具体的な構成および動作については、図11および12において後述する。
フィルタ処理部143は、画像バッファ部141から出力される画素に対して、フィルタ回路によって、所定のフィルタ処理を行う。本実施の形態においては、フィルタ処理に使用するフィルタとして、位相板11aの作用によって点像分布関数を与えられたぼけた画像に対して、ぼけ(収差)を補正(復元)する逆変換処理をするための逆変換フィルタを例に説明する。フィルタ処理部143の具体的な構成および動作については、図13〜16において後述する。
<<画像バッファ部141の構成および動作>>
図11は、第1の実施の形態の画像処理部の画像バッファ部の構成の一例を示す図である。図12は、撮像素子から出力される画素が画像バッファ部に入力される動作を示すタイミングチャートである。図11および12を参照しながら、画像処理部14の画像バッファ部141の構成および動作について説明する。
画像バッファ部141は、図11に示すように、レジスタ1411a〜1411dと、ラインバッファ1412a〜1412dと、を備えている。画像バッファ部141は、撮像素子12から出力される画素を入力部1410から入力し、バッファリングした画素を出力部1413a〜1413eから出力する。撮像素子12によって検出される画像の640×480の各画素について、X方向のX番目およびY方向のY番目の画素を(X,Y)の画素というものとする。
図11に示すように、レジスタ1411aの入力側は、入力部1410および出力部1413aに接続されている。レジスタ1411a〜1411dの出力側は、それぞれラインバッファ1412a〜1412dの入力側に接続されている。ラインバッファ1412a〜1412cの出力側は、それぞれレジスタ1411b〜1411dの入力側に接続されている。そして、ラインバッファ1412a〜1412dの出力側は、それぞれ出力部1413b〜1413eに接続されている。
次に、図12を参照しながら、撮像素子12によって検出された画像の出力動作について説明する。撮像素子12は、検出した画素をX方向の1水平ラインずつ走査しながら、その1水平ラインに含まれる画素を出力する。具体的には、撮像素子12は、Y方向の1番目の水平ラインに含まれる画素を、X方向の1番目の画素から640番目の画素まで順に出力する。撮像素子12は、上記の動作を、Y方向の480番目までの水平ラインに含まれる画素の出力をそれぞれ行う。
上記の動作を図12に示すタイミングチャートに基づいて説明する。図12に示すように、撮像素子12は、有効フレーム信号がオン状態のとき、1フレーム分、すなわち1画像分の画素を出力する。撮像素子12において、有効フレーム信号がオン状態になってからフレーム開始期間Aを経て、Y方向の1番目の水平ラインの画素の出力許可を示す有効ライン信号L1がオン状態になる。撮像素子12は、有効ライン信号L1がオン状態になっている有効データ期間Tの間に、Y方向の1番目の水平ラインを走査し、その水平ラインに含まれるX方向の1〜640番目の画素((1,1)〜(640,1)の画素)を順に出力する。撮像素子12によってY方向の1番目の水平ラインの画素が出力された後、有効ライン信号L1がオフ状態になる。
撮像素子12において、有効ライン信号L1がオフ状態になってから水平ブランキング期間Bを経て、Y方向の2番目の水平ラインの画素の出力許可を示す有効ライン信号L2がオン状態になる。撮像素子12は、有効ライン信号L2がオン状態になっている有効データ期間Tの間に、Y方向の2番目の水平ラインを走査し、その水平ラインに含まれるX方向の1〜640番目の画素((1,2)〜(640,2)の画素)を順に出力する。撮像素子12によってY方向の2番目の水平ラインの画素が出力された後、有効ライン信号L2がオフ状態になる。
撮像素子12は、以上の動作について、有効ライン信号L480がオン状態になっている有効データ期間Tの間に、Y方向の480番目の水平ラインに含まれるX方向の1〜640番目の画素を出力するまで行う。撮像素子12において、有効ライン信号L480がオフ状態になってからフレーム終了期間Cを経て、有効フレーム信号がオフ状態になる。以上の動作によって、撮像素子12による1フレーム分の画素の出力が終了する。また、撮像素子12において、有効フレーム信号がオフ状態になってから垂直ブランキング期間Dを経て、再び有効フレーム信号がオン状態になり、次の1フレーム分の画素の出力が開始される。
次に、図11を参照しながら、画像バッファ部141における撮像素子12から出力される画素のバッファリング処理について説明する。画像バッファ部141は、撮像素子12から出力される画素を入力部1410から入力する。具体的には、画像バッファ部141は、まず、Y方向の1番目の水平ラインについて、撮像素子12から入力した(1,1)の画素を、出力部1413aから出力すると共に、レジスタ1411aに格納する。
画像バッファ部141は、次のタイミングで、レジスタ1411aに格納した画素をラインバッファ1412aの記憶領域1aに格納する。そして、画像バッファ部141は、撮像素子12から次に入力した(2,1)の画素を出力部1413aから出力すると共に、レジスタ1411aに格納する。
画像バッファ部141は、次のタイミングで、記憶領域1aに格納した画素をラインバッファ1412aの記憶領域2aにシフトして格納し、レジスタ1411aに格納した画素を記憶領域1aに格納する。そして、画像バッファ部141は、撮像素子12から次に入力した(3,1)の画素を出力部1413aから出力すると共に、レジスタ1411aに格納する。
以上の動作を繰り返すことにより、画像バッファ部141は、撮像素子12から入力したY方向の1番目の水平ラインの画素を出力部1413aから出力する。それと共に、画像バッファ部141は、Y方向の1番目の水平ラインの1〜639番目の画素をラインバッファ1412aの記憶領域639a〜1aにそれぞれ格納し、640番目の画素をレジスタ1411aに格納する。
次に、画像バッファ部141は、ラインバッファ1412aの記憶領域1a〜639aに格納した画素を記憶領域2a〜640aにシフトして格納し、レジスタ1411aに格納した画素を記憶領域1aに格納する。画像バッファ部141は、記憶領域640aに格納した(1,1)の画素を出力部1413bから出力すると共に、レジスタ1411bに格納する。そして、画像バッファ部141は、Y方向の2番目の水平ラインについて、撮像素子12から入力した(1,2)の画素を出力部1413aから出力すると共に、レジスタ1411aに格納する。すなわち、画像バッファ部141は、X方向の値が同一の画素である(1,1)および(1,2)の画素を、出力部1413bおよび1413aからそれぞれ出力する。
画像バッファ部141は、次のタイミングで、レジスタ1411bに格納した画素をラインバッファ1412bの記憶領域1bに格納する。画像バッファ部141は、ラインバッファ1412aの記憶領域1a〜639aに格納した画素を記憶領域2a〜640aにシフトして格納し、レジスタ1411aに格納した画素を記憶領域1aに格納する。画像バッファ部141は、記憶領域640aに格納した(2,1)の画素を出力部1413bから出力すると共に、レジスタ1411bに格納する。そして、画像バッファ部141は、撮像素子12から次に入力した(2,2)の画素を出力部1413aから出力すると共に、レジスタ1411aに格納する。
画像バッファ部141は、次のタイミングで、記憶領域1bに格納した画素をラインバッファ1412bの記憶領域2bにシフトして格納し、レジスタ1411bに格納した画素を記憶領域1bに格納する。画像バッファ部141は、ラインバッファ1412aの記憶領域1a〜639aに格納した画素を記憶領域2a〜640aにシフトして格納し、レジスタ1411aに格納した画素を記憶領域1aに格納する。画像バッファ部141は、記憶領域640aに格納した(3,1)の画素を出力部1413bから出力すると共に、レジスタ1411bに格納する。そして、画像バッファ部141は、撮像素子12から次に入力した(3,2)の画素を出力部1413aから出力すると共に、レジスタ1411aに格納する。
以上の動作を繰り返すことにより、画像バッファ部141は、撮像素子12から入力したY方向の1および2番目の水平ラインの画素についてX方向の値が同一の画素を、出力部1413aおよび1413bからそれぞれ同一のタイミングで出力する。それと共に、画像バッファ部141は、Y方向の1番目の水平ラインの1〜639番目の画素をラインバッファ1412bの記憶領域1b〜639bにそれぞれ格納し、640番目の画素をレジスタ1411bに格納する。さらに、画像バッファ部141は、Y方向の2番目の水平ラインの1〜639番目の画素をラインバッファ1412aの記憶領域1a〜639aにそれぞれ格納し、640番目の画素をレジスタ1411aに格納する。
以上の動作のように、画像バッファ部141は、撮像素子12から入力した各水平ラインの画素をラインバッファ1412a〜1412dにバッファリングする。それと共に、画像バッファ部141は、X方向の値が同一の画素、すなわち、(X,Y−4)、(X,Y−3)、(X,Y−2),(X,Y−1)および(X,Y)の画素を、出力部1413a〜1413eからそれぞれ同一のタイミングで出力する。
なお、図11は画像バッファ部141の構成の一例を示すものであり、この構成に限定されるものではなく、上述した画像バッファ部141のバッファリング処理と同様の作用を奏する構成であればよい。
<<フィルタ処理部143の構成および動作>>
図13は、第1の実施の形態の画像処理部のフィルタ処理部の構成の一例を示す図である。図14は、逆変換フィルタの構成の一例を示す図である。図15は、画像を逆変換フィルタによってフィルタ処理することを説明する図である。図16は、画像において逆変換フィルタのフィルタ処理の対象となる対象部分画像をスキャンする動作を説明する図である。図13〜16を参照しながら、画像処理部14のフィルタ処理部143の構成および動作について説明する。
フィルタ処理部143は、図13に示すように、レジスタ1432a〜1432e、1433a〜1433e、1434a〜1434e、1435a〜1435e、1436a〜1436eおよび1437a〜1437eを備えている。フィルタ処理部143は、乗算器1438a〜1438e、1439a〜1439e、1440a〜1440e、1441a〜1441eおよび1442a〜1442eを備えている。フィルタ処理部143は、加算器1443a〜1443e、1444a〜1444e、1445a〜1445e、1446a〜1446eおよび1447a〜1447cを備えている。フィルタ処理部143は、画像バッファ部141から出力される画素を入力部1431a〜1431eから入力する。そして、フィルタ処理部143は、入力した画素について、導出方法を後述するフィルタ係数を有する逆変換フィルタによってコンボリューション演算(畳み込み演算)を行い、演算値を出力部1448から出力する。
乗算器1438a〜1438e、1439a〜1439e、1440a〜1440e、1441a〜1441eおよび1442a〜1442eは、入力側から入力される画素の値とフィルタ係数との乗算値を出力する回路である。具体的には、乗算器1438a〜1442aは、それぞれフィルタ係数a55〜a51と画素との乗算値を出力する。乗算器1438b〜1442bは、それぞれフィルタ係数a45〜a41と画素との乗算値を出力する。乗算器1438c〜1442cは、それぞれフィルタ係数a35〜a31と画素との乗算値を出力する。乗算器1438d〜1442dは、それぞれフィルタ係数a25〜a21と画素との乗算値を出力する。乗算器1438e〜1442eは、それぞれフィルタ係数a15〜a11と画素との乗算値を出力する。加算器1443a〜1443e、1444a〜1444e、1445a〜1445e、1446a〜1446e、ならびに1447aおよび1447cは、入力側から入力される2つのデータの値の加算値を出力する回路である。加算器1447bは、入力側から入力される3つのデータの値の加算値を出力する回路である。
図13に示すように、入力部1431a〜1431eは、それぞれレジスタ1432a〜1432eの入力側に接続されている。レジスタ1432a〜1437aは、直列に接続している。レジスタ1432b〜1437b、1432c〜1437c、1432d〜1437dおよび1432e〜1437eのそれぞれについても同様である。
入力部1431a〜1431eは、それぞれ乗算器1438a〜1438eの入力側に接続されている。レジスタ1432a〜1435aの出力側は、それぞれ乗算器1439a〜1442aの入力側に接続されている。レジスタ1432b〜1435bと乗算器1439b〜1442bとの接続関係、レジスタ1432c〜1435cと乗算器1439c〜1442cとの接続関係、レジスタ1432d〜1435dと乗算器1439d〜1442dとの接続関係、およびレジスタ1432e〜1435eと乗算器1439e〜1442eとの接続関係もそれぞれ同様である。
乗算器1438a〜1438eの出力側は、それぞれ加算器1443a〜1443eの入力側に接続されている。加算器1443a〜1446aは、直列に接続している。加算器1443b〜1446b、1443c〜1446c、1443d〜1446dおよび1443e〜1446eのそれぞれについても同様である。
乗算器1439a〜1442aの出力側は、それぞれ加算器1443a〜1446aの入力側に接続されている。乗算器1439b〜1442bと加算器1443b〜1446bとの接続関係、乗算器1439c〜1442cと加算器1443c〜1446cとの接続関係、乗算器1439d〜1442dと加算器1443d〜1446dとの接続関係、および乗算器1439e〜1442eと加算器1443e〜1446eとの接続関係もそれぞれ同様である。
加算器1446aおよび1446bの出力側は、加算器1447aの入力側に接続されている。加算器1446dおよび1446eの出力側は、加算器1447cの入力側に接続されている。加算器1446c、1447aおよび1447cの出力側は、加算器1447bの入力側に接続されている。加算器1447bの出力側は、出力部1448に接続されている。
次に、図13〜16を参照しながら、フィルタ処理部143における逆変換処理について説明する。逆変換処理に使用されるフィルタは、図14に示すように、上述したフィルタ係数a11〜a15、a21〜a25、a31〜a35、a41〜a45およびa51〜a55によって構成されるタップ数が5×5の線形フィルタである逆変換フィルタ121である。逆変換フィルタ121による逆変換処理の対象となる画像の部分を、図15に示す対象部分画像131であるものとする。対象部分画像131は、画素A11〜A15、A21〜A25、A31〜A35、A41〜A45およびA51〜A55によって構成された5×5の部分画像である。
レジスタ1432a〜1432e、1433a〜1433e、1434a〜1434e、1435a〜1435e、1436a〜1436eおよび1437a〜1437eには、データが格納されていない状態、すなわち、0の値が格納された状態であるものとする。フィルタ処理部143は、入力部1431a〜1431eから対象部分画像131の画素A51、A41、A31、A21およびA11を入力し、それぞれレジスタ1432a〜1432eに格納すると共に、乗算器1438a〜1438eに入力させる。乗算器1438a〜1438eは、それぞれのフィルタ係数であるa55、a45、a35、a25およびa15と、それぞれ入力した画素A51、A41、A31、A21およびA11との乗算値を出力する。乗算器1438a〜1438eによって演算された乗算値は、加算器1447a〜1447cによって加算される。加算値は、加算器1447bから出力され、出力部1448からフィルタ処理部143の外部に出力される。
フィルタ処理部143は、次のタイミングで、レジスタ1432a〜1432eに格納した画素A51、A41、A31、A21およびA11を、それぞれレジスタ1433a〜1433eにシフトして格納し、乗算器1439a〜1439eに入力させる。フィルタ処理部143は、入力部1431a〜1431eから対象部分画像131の画素A52、A42、A32、A22およびA12を入力し、それぞれレジスタ1432a〜1432eに格納すると共に、乗算器1438a〜1438eに入力させる。乗算器1439a〜1439eは、それぞれのフィルタ係数であるa54、a44、a34、a24およびa14と、それぞれ入力した画素A51、A41、A31、A21およびA11との乗算値を出力する。乗算器1438a〜1438eは、それぞれのフィルタ係数であるa55、a45、a35、a25およびa15と、それぞれ入力した画素A52、A42、A32、A22およびA12との乗算値を出力する。乗算器1439a〜1439eによって演算された乗算値、および乗算器1438a〜1438eによって演算された乗算値は、加算器1443a〜1443eおよび1447a〜1447cによって加算される。加算値は、加算器1447bから出力され、出力部1448からフィルタ処理部143の外部に出力される。
そして、以上の動作が繰り返された結果、レジスタ1432a〜1436a、1432b〜1436b、1432c〜1436c、1432d〜1436dおよび1432e〜1436eに、それぞれ画素A55〜A51、A45〜A41、A35〜A31、A25〜A21およびA15〜A11が格納されたものとする。また、乗算器1438a〜1442a、1438b〜1442b、1438c〜1442c、1438d〜1442dおよび1438e〜1442eに、それぞれ画素A55〜A51、A45〜A41、A35〜A31、A25〜A21およびA15〜A11が入力されたものとする。乗算器1442a〜1442eは、それぞれのフィルタ係数であるa51、a41、a31、a21およびa11と、それぞれ入力した画素A51、A41、A31、A21およびA11との乗算値を出力する。乗算器1441a〜1441eは、それぞれのフィルタ係数であるa52、a42、a32、a22およびa12と、それぞれ入力した画素A52、A42、A32、A22およびA12との乗算値を出力する。乗算器1440a〜1440eは、それぞれのフィルタ係数であるa53、a43、a33、a23およびa13と、それぞれ入力した画素A53、A43、A33、A23およびA13との乗算値を出力する。乗算器1439a〜1439eは、それぞれのフィルタ係数であるa54、a44、a34、a24およびa14と、それぞれ入力した画素A54、A44、A34、A24およびA14との乗算値を出力する。乗算器1438a〜1438eは、それぞれのフィルタ係数であるa55、a45、a35、a25およびa15と、それぞれ入力した画素A55、A45、A35、A25およびA15との乗算値を出力する。
乗算器1438a〜1438e、1439a〜1439e、1440a〜1440e、1441a〜1441eおよび1442a〜1442eによって演算された乗算値は、図13に示す全ての加算器によって加算される。加算値は、加算器1447bから出力され、出力部1448からフィルタ処理部143の外部に出力される。この加算値は、図15に示すように、対象部分画像131に対して逆変換フィルタ121によってコンボリューション演算した値、すなわち、図15の式(1)で表される演算値と同一である。コンボリューション演算の演算値は、対象部分画像131の中央に位置する画素である中央データに対して逆変換処理を実行した値となる。すなわち、コンボリューションの演算値は、逆変換処理後の画像において、逆変換処理前の画像の中央データに相当する位置の画素となる。
次に、フィルタ処理部143の逆変換処理について、図16を参照しながら、画像105においてX方向の水平ラインを走査しながら逆変換処理をする動作の概略を説明する。図16(a)は、フィルタ処理部143が、画像105における(1,1)の画素に対して逆変換フィルタ121によって逆変換処理をする状態を示している。図16(a)に示すように、(1,1)の画素を中央データ135aとしてコンボリューション演算するためには、(1,1)の画素を中央データとする対象部分画像131aと、画像105とが重複している部分の画素が必要になる。すなわち、対象部分画像131aのうち、図15に示す対象部分画像131の画素A33〜A35、A43〜A45およびA53〜A55に相当する画素が必要である。
そのためは、画素A33〜A35、A43〜A45およびA53〜A55に相当する画素が、画像バッファ部141の出力部1413a〜1413cから出力されている必要がある。さらに、画素A35〜A33、A45〜A43およびA55〜A53に相当する画素が、フィルタ処理部143のレジスタ1432c〜1434c、1432b〜1434bおよび1432a〜1434aに格納されている必要がある。そして、対象部分画像131aにおいて、画像105と重複していない部分の画素は「0」として取り扱うものとする。
以上の状態において、フィルタ処理部143は、図15に示したコンボリューション演算と同様に、対象部分画像131aに対して逆変換フィルタ121によってコンボリューション演算を行う。フィルタ処理部143は、画像105の対象部分画像131aの中央データ135aである(1,1)の画素に対してコンボリューション演算した値を、逆変換処理後の画像の(1,1)の画素として出力する。
次に、フィルタ処理部143は、図16(b)に示すように、コンボリューション演算の対象となる画素をX方向にひとつシフトし、対象部分画像131bの中央データ135bである(2,1)の画素に対して逆変換処理をする。そして、フィルタ処理部143は、X方向の水平ラインをシフトしながらコンボリューション演算を繰り返し、図16(c)に示すように、X方向の水平ラインの最後の画素である(640,1)の画素に対して逆変換処理をする。(640,1)の画素は、図16(c)に示すように、対象部分画像131cの中央データ135cである。
以上のように、フィルタ処理部143は、X方向の水平ラインをシフトしながらコンボリューション演算を繰り返し、水平ラインの最後の画素に対する逆変換処理が終了すると、Y方向の次の水平ラインに対して同様に逆変換処理を行う。
図16(d)〜16(f)は、フィルタ処理部143が、画像105におけるY方向の4番目の水平ラインの画素に対して逆変換処理を行う状態を示している。図16(d)は、フィルタ処理部143が、画像105における(1,4)の画素に対して逆変換フィルタ121によって逆変換処理をする状態を示している。図16(d)に示すように、(1,4)の画素を中央データ135dとしてコンボリューション演算するためには、(1,4)の画素を中央データとする対象部分画像131dと、画像105とが重複している部分の画素が必要になる。そして、対象部分画像131dにおいて、画像105と重複していない部分の画素は、上述と同様に「0」として取り扱うものとする。
図16(e)は、フィルタ処理部143が、画像105における(5,4)の画素に対して逆変換フィルタ121によって逆変換処理をする状態を示している。図16(e)に示すように、(5,4)の画素を中央データ135eとする対象部分画像131eは全体が画像105と重複しているので、フィルタ処理部143は、対象部分画像131eに含まれる画素をすべて利用した逆変換処理が可能となる。
そして、フィルタ処理部143は、X方向の水平ラインをシフトしながらコンボリューション演算を繰り返し、図16(f)に示すように、X方向の水平ラインの最後の画素である(640,4)の画素に対して逆変換処理をする。(640,4)の画素は、図16(f)に示すように、対象部分画像131fの中央データ135fである。
以上のように、フィルタ処理部143は、画像105を構成する各画素に対して逆変換フィルタ121によるコンボリューション演算を行って逆変換処理をするので、位相板11aによってぼけた画像を補正し、画像の解像度を向上させることができる。
なお、上述のように、画像105における逆変換フィルタ121によるコンボリューション演算の対象となる対象部分画像について、画像105と重複していない部分の画素は「0」としたが、これに限定されるものではない。例えば、対象部分画像の画像105と重複していない部分の画素は、対象部分画像の中央データを基準にして、対象部分画像の画像105と重複している部分の画素を折り返した場合の画素を用いるものとしてもよい。
具体的に、図16(a)の対象部分画像131aを例にして説明する。対象部分画像131aのそれぞれの画素の名称を、仮に図15に示す対象部分画像131の画素の名称と同様とする。この場合、対象部分画像131aの画像105と重複していない部分の画素は、画素A11〜A15、A21〜A25、A31、A32、A41、A42、A51およびA52である。また、対象部分画像131aの画像105と重複している部分の画素は、画素A33〜A35、A43〜A45およびA53〜A55である。
このとき、画素A31、A32、A41、A42、A51およびA52は、中央データを基準にして、対象部分画像131aの画像105と重複している部分の画素を折り返し、それぞれ画素A35、A34、A45、A44、A55およびA54の値を用いる。また、画素A13〜A15およびA23〜A25は、中央データを基準にして、対象部分画像131aの画像105と重複している部分の画素を折り返し、それぞれ画素A53〜A55およびA43〜A45の値を用いる。そして、画素A11、A12、A21およびA22は、中央データを基準にして、対象部分画像131aの画像105と重複している部分の画素のうち点対象の位置関係にある画素、すなわち、それぞれA55、A54、A45およびA44の値を用いる。以上のような方法によって、対象部分画像の各画素を決定するものとしてもよい。
また、図14および15に示すように、フィルタ処理部143が有する逆変換フィルタはタップ数が5×5のフィルタとしているが、これに限定されるものではない。すなわち、フィルタのタップ数は3×3、15×15または21×21等異なるタップ数としてもよい。この場合、フィルタのタップ数に合わせて、対象部分画像の大きさも一致させる必要がある。また、フィルタによる逆変換処理の対象となる中央データが存在するように、フィルタのタップ数は奇数である必要がある。
また、逆変換フィルタは、例えば15×15以上のタップ数であることが好ましい。逆変換フィルタは、タップ数が多いほど、位相板によって被写界深度が拡張されてぼけが加えられた画像に対して、ぼけを補正できる光軸上の幅を大きくすることができる。したがって、タップ数が多い逆変換フィルタを用いることによって、位相板およびレンズの被写界深度についての設計のバリエーションを増やすことができる。
<逆変換フィルタの周波数特性の導出>
まず、1箇所のフォーカス位置において光学系であるレンズユニット11によって広がったスポットを一点に集まるように復元する逆変換処理に使用される逆変換フィルタの周波数特性の導出方法について説明する。上述の周波数特性を実現するフィルタとしては、2次元の線形フィルタかつFIR(Finite Impulse Response)フィルタが好適である。
まず、撮像素子12によって撮像された画像への光学系による影響のモデルを以下の式(2)に示す2次元のコンボリューション演算(畳み込み演算)の式によって表す。
Figure 2015165610
ここで、imagecapturedは光学系を通って検出された2次元の撮像画像の画素であり、imageidealは被写体4そのものを示す理想画像の画素であり、hは光学系のPSFを示す。
以下、画像処理系(撮像素子12および画像処理部14)に加わるノイズの影響を考慮して、逆変換処理後の画像の各画素と、理想画像の各画素との誤差についての平均二乗誤差を最小とする逆変換フィルタの周波数特性の導出を考える。平均二乗誤差は、以下の式(3)によって表される。
Figure 2015165610
ここで、E[]は期待値(平均値)を示し、nは画像上の位置を示し、imageprocessed(n)は、imagecaptured(n)に対して逆変換処理をした画像の画素を示す。なお、imagecapturedは、ノイズが含まれていることを考慮する。
波形x(n)が持つ全エネルギーのnの全領域についての総和と、波形x(n)のエネルギーのフーリエ変換X(ω)の全周波数成分についての総和とが等しいとするパーセバルの定理より、式(3)は、周波数領域における平均二乗誤差として以下の式(4)で表される。
Figure 2015165610
ここで、IMAGEideal(ω)はimageideal(n)の周波数特性を示し、IMAGEprocessed(ω)はimageprocessed(n)の周波数特性を示し、ωは空間周波数を示す。
ここで、逆変換フィルタの周波数特性をR(ω)とすると、以下の式(5)の最小値を与える周波数特性R(ω)が最適の逆変換フィルタとなる。
Figure 2015165610
ここで、IMAGEcaptured(ω)は、imagecaptured(n)の周波数特性である。
式(5)において、IMAGEideal(ω)=S(ω)、およびIMAGEcaptured(ω)=X(ω)とし、式(5)の最小値をもとめるため、式(5)をRによって微分すると、下記の式(6)が得られる。
Figure 2015165610
ここで、E[|X(ω)|]は、ノイズを含んだ撮像画像のパワースペクトルの平均値であり、E[S(ω)・X(ω)]は、ノイズを含んだ撮像画像と理想画像との相互パワースペクトルの平均値である。
式(5)の最小値をもとめるため式(6)の最右辺を0とすると下記の式(7)が得られる。
Figure 2015165610
式(7)から下記の式(8)が得られる。
Figure 2015165610
この式(8)に示す周波数特性R(ω)に基づく逆変換フィルタが、上述の式(3)に示す平均二乗誤差を最小とする最適のフィルタとなる。
ここで、ノイズの周波数特性をW(ω)とし、光学系のPSFであるhの周波数特性をH(ω)として、上述の式(2)を周波数空間で示すと下記の式(9)で示される。
Figure 2015165610
ノイズの周波数特性W(ω)と、周波数特性S(ω)とが無相関であるとすると、E[S(ω)・W(ω)]=0であるので、上述の式(8)の右辺の分母に、式(9)を代入すると、下記の式(10)が得られる。
Figure 2015165610
同じくノイズの周波数特性W(ω)と、周波数特性S(ω)とが無相関であるとすると、E[W(ω)・S(ω)]=0およびE[S(ω)・W(ω)]=0であるので、上述の式(8)の右辺の分母に、式(9)を代入すると、下記の式(11)が得られる。
Figure 2015165610
上述の式(8)、(10)および(11)から、下記の式(12)に示す周波数特性R(ω)が得られる。
Figure 2015165610
この式(12)に示す周波数特性R(ω)に基づく逆変換フィルタが、画像処理系のノイズを考慮した場合の上述の式(3)に示す平均二乗誤差を最小とする最適なフィルタとなる。ここで、E[|S(ω)|]は理想画像のパワースペクトルの平均値であり、E[|W(ω)|]はノイズのパワースペクトルの平均値であり、|H(ω)|は光学系の周波数特性のパワースペクトルである。
また、上述の式(12)に示す周波数特性R(ω)を適用した場合において、逆変換処理後の画像の各画素と、理想画像の各画素との二乗誤差についての周波数領域における積分を取ると、下記の式(13)が得られる。
Figure 2015165610
上記の式(13)の演算においては、上述のように、ノイズの周波数特性W(ω)と、周波数特性S(ω)とが無相関であることを利用している式(13)の最右辺の第1項は、逆変換処理後の画像の復元しきれなかった誤差量を示している。第2項は、ノイズによる誤差量を示している。
式(13)の積分値が最小となるように、光学系の周波数特性H(ω)を設計することによって、上述の式(5)に示す周波数領域においての平均二乗誤差が最小となる光学系および逆変換フィルタの組み合わせを得ることができる。また、パーセバルの定理より、上述の式(3)に示す実空間における平均二乗誤差が最小となる光学系および逆変換フィルタの組み合わせを得ることができる。
ただし、上述の式(12)に示す周波数特性R(ω)に基づく逆変換フィルタは、レンズユニット11の光軸方向の1箇所のフォーカス位置(すなわち1箇所の周波数特性H)において、光学系によって広がったスポットを復元することができるものである。したがって、式(12)に示す周波数特性R(ω)に基づく逆変換フィルタは、スポットの形状が異なるその他のデフォーカス位置においては、スポットを復元するための最適なフィルタにはならない。
次に、レンズユニット11の光軸方向のあるデフォーカス位置範囲内において光学系であるレンズユニット11によって広がったスポットを復元する逆変換処理に使用される逆変換フィルタの周波数特性の導出方法について説明する。これによって、1箇所のフォーカス位置における最適な逆変換フィルタではなく、複数の位置において最適な逆変換フィルタをもとめることができる。
まず、2箇所のデフォーカス位置を想定し、上述の式(5)を変形して、2つの画像についての周波数領域における平均二乗誤差の和は、下記の式(14)で表される。
Figure 2015165610
2つの画像は、それぞれIMAGE1およびIMAGE2に対応する。
式(14)において、IMAGE1ideal(ω)=S1(ω)、IMAGE1captured(ω)=X1(ω)、IMAGE2ideal(ω)=S2(ω)およびIMAGE2captured(ω)=X2(ω)とする。そして、式(14)の最小値をもとめるため、式(14)をRによって微分すると、下記の式(15)が得られる。
Figure 2015165610
式(15)の最小値をもとめるため式(15)の最右辺を0として、周波数特性R(ω)について解くと、下記の式(16)が得られる。
Figure 2015165610
撮像装置1によって同一の画像を撮像しているものと仮定すると、S1(ω)=S2(ω)となり、これをS(ω)とおき、さらに、上述の式(9)の関係式から下記の式(17)が得られる。
Figure 2015165610
この式(17)に示す周波数特性R(ω)に基づく逆変換フィルタが、上述の式(14)に示す周波数領域の平均二乗誤差を最小とする最適なフィルタとなる。
以上は2つの画像の場合であったが、N個の画像、すなわち、N箇所のデフォーカス位置に一般化した周波数特性R(ω)は、下記の式(18)で表される。
Figure 2015165610
この式(18)に示す周波数特性R(ω)に基づく逆変換フィルタが、画像処理系のノイズを考慮し、式(14)に基づく複数のデフォーカス位置に対応する周波数領域の平均二乗誤差を最小とする最適なフィルタとなる。なお、できるだけ多くのデフォーカス位置、すなわち、できるだけ大きなNの値によって周波数特性Rを導出するのが好ましい。
また、上述の式(17)に示す周波数特性R(ω)を適用した場合において、逆変換処理後の画像の各画素と、理想画像の各画素との二乗誤差についての周波数領域における積分を取ると、下記の式(19)が得られる。
Figure 2015165610
上記の式(19)の演算においては、上述のように、ノイズの周波数特性W(ω)と、周波数特性S(ω)とが無相関であることを利用している。
上述の式(19)について、N個の画像、すなわち、N箇所のデフォーカス位置に一般化すると、下記の式(20)が得られる。
Figure 2015165610
式(20)に示す値をNで割った値である下記の式(21)で示される値をN箇所のデフォーカス位置に一般化した場合の周波数領域における平均二乗誤差MSE(Mean Square Error)であると定義する。
Figure 2015165610
式(21)に示すMSEが最小となるように、光学系の周波数特性H(ω)を設計することによって、上述の式(14)に示す周波数領域においての平均二乗誤差が最小となる光学系および逆変換フィルタの組み合わせを得ることができる。また、パーセバルの定理により、実空間においての平均二乗誤差が最小となる光学系および逆変換フィルタの組み合わせを得ることができる。したがって、式(18)に示す周波数特性R(ω)に基づいて、例えば、画像処理部14の画像バッファ部141が有する逆変換フィルタ121を導出するものとすればよい。
以上のように、N箇所のデフォーカス位置、すなわち、複数のデフォーカス位置について、式(18)に示す周波数特性R(ω)から最適な逆変換フィルタをもとめることができる。これによって、デフォーカス位置によってスポットの形状が変わっても、同一の逆変換フィルタによって復元することができるので、より広い範囲にまで被写界深度を拡張することができる。
図17は、第1の実施の形態の画像処理部のフィルタ処理部の逆変換フィルタを決定するための周波数特性を演算する流れを示すフローチャートである。図17を参照しながら、式(18)に示す周波数特性Rを具体的に演算する流れについて説明する。
<<ステップS1>>
まず、レンズユニット11における面曲率および面間隔等、ならびに位相板11aの特性等の光学系パラメータに基づいて、レンズユニット11に対する光線追跡演算によりPSFを導出する。ここで、複数のデフォーカス位置における光学系パラメータによって光線追跡演算を行い、PSFを導出する。そして、ステップS2へ進む。
<<ステップS2>>
ステップS1で導出したPSFをフーリエ変換することによって、光学系の周波数特性Hを導出する。そして、ステップS5へ進む。
<<ステップS3>>
画像処理系(撮像素子12および画像処理部14)に加わるノイズ特性を測定する。そして、ノイズ特性をフーリエ変換することによって、ノイズの周波数特性Wを導出する。なお、ノイズ特性の測定が困難である場合は、空間周波数によらず、撮像素子12のS/N比の値を定数としてノイズの周波数特性Wを導出するものとしてもよい。そして、ステップS5へ進む。
<<ステップS4>>
撮像装置1により、自然風景またはバーコード等を様々な大きさおよび撮影条件によって撮像された画像を理想画像とする。理想画像を構成する画素の値をフーリエ変換し、空間周波数ωについての平均値を被写体の周波数特性Sとして導出する。なお、被写体の周波数特性Sは、被写体から出る光に収差を与えない光学系を通過した光に基づく撮像画像の画素の周波数特性としてもよい。また、被写体の周波数特性Sは、定数としてもよい。そして、ステップS5へ進む。
<<ステップS5>>
ステップS2で導出した光学系の周波数特性H、ステップS3で導出したノイズの周波数特性W、およびステップS4で導出した被写体の周波数特性Sから、上述の式(18)を使用して、逆変換フィルタの周波数特性Rを演算する。
<MTFの空間周波数特性>
図18は、光学系を通過した光による撮像画像の空間周波数特性を示す図である。図19は、逆変換処理が行われた画像の空間周波数特性を示す図である。図18および19を参照しながら、画像の空間周波数特性について説明する。
まず、図18を参照しながら、レンズユニット11(光学系)を通過した光が撮像素子12によって撮像された画像についての空間周波数ωに対するMTFについて説明する。図18に示される目標空間周波数特性201は、被写体の撮像画像のコントラストが完全に再現された場合のMTFの空間周波数ωについての特性(MTF=1)を示す。
上述したように、レンズユニット11を通過した光は、収差を与えるレンズおよび位相板11aの作用によって点像分布関数(PSF)が付加される。図18における空間周波数特性202は、レンズユニット11を通過した光に基づいて、撮像素子12によりフォーカス位置において撮像された撮像画像のMTFの空間周波数ωについての特性を示す。図18における空間周波数特性203は、レンズユニット11を通過した光に基づいて撮像素子12によってあるデフォーカス位置において撮像された撮像画像のMTFの空間周波数ωについての特性を示す。レンズユニット11を通過した光はPSFが付加されているので、フォーカス位置における空間周波数特性202、およびデフォーカス位置における空間周波数特性203は、図18に示すように、何れも目標空間周波数特性201よりも低い値となる。
次に、図19(a)を参照しながら、図13に示すフィルタ処理部143が有する逆変換フィルタが、上述の式(12)に示す周波数特性Rによってもとめられた場合を考える。この場合において、撮像素子12によって撮像された画像がフィルタ処理部143によって逆変換処理が行われた画像についての空間周波数ωに対するMTFについて説明する。
図19(a)における空間周波数特性202aは、撮像素子12によりフォーカス位置において撮像された撮像画像について、フィルタ処理部143により逆変換処理された画像のMTFの空間周波数ωについての特性を示す。図19(a)における空間周波数特性203aは、撮像素子12によりあるデフォーカス位置において撮像された撮像画像について、フィルタ処理部143により逆変換処理された画像のMTFの空間周波数ωについての特性を示す。上述のように、式(12)は、1箇所のフォーカス位置において、レンズユニット11によってPSFが付加された画像を復元する逆変換フィルタの周波数特性Rを示すので、空間周波数特性202aは、MTF=1となり、目標空間周波数特性201と一致する。しかし、式(12)に示す周波数特性Rから導出された逆変換フィルタは、フォーカス位置におけるスポットとは形状の異なるデフォーカス位置には対応していないので、空間周波数特性203aのMTFは、空間周波数特性202aのMTFよりも低くなる。
次に、図19(b)を参照しながら、図13に示すフィルタ処理部143が有する逆変換フィルタが、上述の式(18)に示す周波数特性Rに基づいてもとめられた場合を考える。この場合において、撮像素子12によって撮像された画像がフィルタ処理部143によって逆変換処理が行われた画像についての空間周波数ωに対するMTFについて説明する。
図19(b)における空間周波数特性202bは、撮像素子12によりデフォーカス位置P1において撮像された撮像画像について、フィルタ処理部143により逆変換処理された画像のMTFの空間周波数ωについての特性を示す。図19(b)における空間周波数特性203bは、撮像素子12によりデフォーカス位置P2において撮像された撮像画像について、フィルタ処理部143により逆変換処理された画像のMTFの空間周波数ωについての特性を示す。上述のように、式(18)は、複数のデフォーカス位置において、すなわち、レンズユニット11の光軸方向の所定の位置範囲(被写界深度)において、レンズユニット11によってPSFが付加された画像を復元する逆変換フィルタの周波数特性Rを示す。したがって、被写界深度に含まれる何れのデフォーカス位置においても、撮像素子12により撮像され、かつ、フィルタ処理部143により逆変換処理された画像の空間周波数特性におけるMTFは、目標空間周波数特性201のMTFに近接することになる。すなわち、上述の逆変換フィルタによって複数のデフォーカス位置における画像が逆変換処理された画像の周波数特性は、図19(b)に示すように、目標空間周波数特性201よりも大きい値であったり、小さい値であったりする。いずれにしても、上述の逆変換フィルタによって逆変換処理された画像の周波数特性は、図19(b)に示すように、目標空間周波数特性201に近接する。
このように、フィルタ処理部143は、式(18)に示す周波数特性R(ω)に基づいてもとめられた逆変換フィルタによる逆変換処理によって、所定の位置範囲において、レンズユニット11によってPSFが付加された画像を復元することができる。したがって、所定の位置範囲においてスポットの形状が変わっても、同一の逆変換フィルタによって復元することができるので、より広い範囲にまで被写界深度を拡張することができる。
<合焦領域の形成>
図20は、合焦面の各位置において被写界深度が拡張された場合に形成される合焦領域を説明する図である。図21は、撮像素子上でピントの合う領域が拡大されることを説明する図である。図20および21を参照しながら、合焦面50の各位置において被写界深度が拡張されることによって形成される合焦領域51について説明する。
上述のように、フィルタ処理部143が、上述の式(18)に示す周波数特性R(ω)に基づく逆変換フィルタによる逆変換処理を実行することによって、図20(a)に示すように、合焦面50の各位置において、矢印の方向(レンズユニット11の光軸方向)に被写界深度が拡張する。したがって、逆変換処理をしない場合、被写体が合焦面50上に位置しないと焦点が合った状態で撮像されないのに対して、上述の逆変換処理を実行することによって、焦点が合う領域がレンズユニット11の光軸方向に拡張され、合焦領域51が形成される。すなわち、被写体がこの合焦領域51内に含まれていれば、被写体の全体に対して焦点が合った状態で撮像することが可能となる。例えば、図20(b)に示すように、様々な角度で配置された被写体4e〜4gは、いずれも全体が合焦領域51に含まれているので、全体に対して焦点が合った状態で撮像されることができる。この場合、光源17から照射される光線60は、少なくとも合焦領域51内に含まれるように照射すればよい。
また、例えば、上述の図8に示す合焦面50上の被写体4cが配置された位置(合焦面50の奥側)における合焦範囲を、撮像素子12のセンサ面において考えると、フィルタ処理部143によって逆変換処理がされない場合、図21(a)に示すように、合焦範囲は狭い。これに対して、フィルタ処理部143によって逆変換処理が実行される場合、図21(b)に示すように、撮像素子12のセンサ面において合焦面50の奥側に対応する合焦範囲は広くなる。
以上のように、本実施の形態に係る撮像装置1は、シャインプルーフの原理に基づき、撮像素子12のセンサ面をレンズユニット11の主面に対して傾けて配置させ、合焦位置がレンズユニット11の光軸方向に延伸した合焦面50を形成させている。さらに、光源17を、照射する光線60の方向をレンズユニット11の画角の中心軸方向からずらし、光線60を合焦面50上に位置するように照射するように配置するものとしている。これによって、レンズユニット11の光軸方向の広い範囲において合焦した撮像画像を得ることができると共に、ユーザは、光源17が照射する光線60が示す位置に被写体が配置されるように、撮像装置1を移動させることによって、容易に被写体の距離に応じた適切な撮像位置とすることができ、被写体に焦点が合った撮像画像を得ることができる。なお、光源17は、光線60を厳密に合焦面50上に位置するように照射することは、必ずしも必要ではなく、少なくとも、光線60を、合焦面50と少しずれた位置、かつ合焦面50と平行となるように照射する等のように、合焦面50の近傍に照射するようにしても、上述の効果を得ることはできる。
また、フィルタ処理部143が、上述の式(18)に示す周波数特性R(ω)に基づく逆変換フィルタによる逆変換処理を実行することによって、レンズユニット11の光軸方向に延伸した合焦面50の各位置において、レンズユニット11の光軸方向に被写界深度が拡張する。これによって、焦点が合う領域がレンズユニット11の光軸方向に拡張され、合焦領域51が形成される。そして、被写体が合焦領域51内に含まれていれば、所定の大きさを有する被写体でも、被写体の全体に対して焦点が合った状態で撮像することが可能となる。また、レンズユニット11の光軸方向の広い範囲において、被写体の全体に対して合焦した撮像画像を得ることができる。
なお、本実施の形態に係る撮像装置1は、光源17を備えるものとし、ユーザは、光源17が照射する光線60が示す位置に被写体が配置されるように、撮像装置1を移動させることによって、容易に被写体の焦点が合った撮像画像を得ることができるものとしている。しかし、例えば、撮像装置1が生産ライン等において固定して使用される場合、被写体(例えば、生産ラインを流れるワークに貼付された二次元コード等)が、通常、合焦面50または合焦領域51を必ず通過するように撮像装置1は固定される。この場合は、必ずしも光源17は必要がなく、被写体が合焦領域51内に含まれていれば、所定の大きさを有する被写体でも、被写体の全体に対して焦点が合った状態で撮像することができるという効果は得られる。
また、上述のように、シャインプルーフの原理を用いて、合焦位置がレンズユニット11の光軸方向に延伸した合焦面50を形成させ、レンズユニット11が有する被写界深度の制限による狭い合焦範囲において撮像可能な小さな被写体を扱う場合は、必ずしも、フィルタ処理部143の逆変換処理による被写界深度の拡張は必要がない。この場合においても、光源17を備えた撮像装置1は、レンズユニット11の光軸方向の広い範囲において合焦した撮像画像を得ることができると共に、ユーザは光源17が照射する光線60が示す位置に被写体が配置されるように、撮像装置1を移動させることによって、容易に被写体の距離に応じた適切な撮像位置とすることができ、被写体の焦点が合った撮像画像を得ることができるという効果が得られる。
また、被写界深度拡張のために、上述の式(18)に示す周波数特性R(ω)に基づく逆変換フィルタによる逆変換処理を例に挙げたが、被写界深度拡張の方法はこれに限定されるものではない。すなわち、異なる逆変換フィルタによる逆変換処理、または、異なるその他の処理によって被写界深度の拡張が実現されるものとしてもよい。
<第1の実施の形態の変形例>
本実施の形態の変形例に係る撮像装置について、上述の本実施の形態に係る撮像装置1と相違する点を中心に説明する。
図22は、第1の実施の形態の変形例に係る撮像装置における光学系周辺の要部構成の一例を示す図である。図22を参照しながら、本実施の形態の変形例に係る撮像装置の光学系周辺の要部構成について説明する。
本変形例に係る撮像装置は、第1の実施の形態に係る撮像装置1におけるレンズユニット11を、多焦点レンズ11c(光学系)に置換した構成を有する。このような多焦点レンズ11cを用いることによって、図22に示すように、第1の実施の形態における合焦面50と同様に、合焦位置が光軸方向に延伸した合焦面50aを形成することができる。また、多焦点レンズ11cを用いることによって、撮像素子12aは、センサ面が多焦点レンズ11cの主面に対して傾けて配置する必要がなく、撮像素子12aのセンサ面と、多焦点レンズ11cの主面とは平行の状態となっている。なお、平行の状態とは、厳密に平行である状態に限定するものではなく、略平行である状態を含むものとする。このような本変形例に係る撮像装置の構成を採用することによって、図22に示す合焦面50a上に存在する3つの被写体4a〜4cは、いずれも撮像素子12a上で結像する。すなわち、合焦面50aは、多焦点レンズ11cの光学特性、および多焦点レンズ11cと撮像素子12aのセンサ面(結像面)との位置関係に基づいて、形成される。そして、光源17は、照射する光線60の方向を多焦点レンズ11cの画角の中心軸方向からずらし、光線60を合焦面50a上に位置するように照射する。
以上のように、撮像装置の光学系として多焦点レンズ11cを用いることにより、合焦位置が光軸方向に延伸した合焦面50aを形成することができると共に、撮像素子12aのセンサ面を多焦点レンズ11cの主面に対して傾けて配置する必要のない構成とすることができる。したがって、撮像装置の全体のサイズをコンパクトにすることが可能となる。
(第2の実施の形態)
第2の実施の形態に係る撮像装置について、第1の実施の形態に係る撮像装置と相違する点を中心に説明する。第1の実施の形態においては、被写界深度拡張のためのフィルタ処理部143における逆変換処理として、所定の位置範囲(複数のデフォーカス位置)においてスポットの形状が変わっても、同一の逆変換フィルタによって復元することができる処理について説明した。本実施の形態においては、ノイズを抑制しながら、光学的な収差であるぼけを復元する逆変換処理により被写界深度拡張を実現する動作について説明する。本実施の形態において、撮像システムの全体構成、撮像システムの構成、レンズユニット11周辺の要部構成、および画像バッファ部141の構成については、第1の実施の形態における図1〜3、8および11に示す構成と同様である。
<局所的な逆変換フィルタの周波数特性R’について>
図23は、撮像画像における各エリアによってパワースペクトルが異なることを説明する図である。図24は、撮像画像全体のパワースペクトルと最適フィルタとを説明する図である。図25は、撮像画像の平坦部のエリアのパワースペクトルと最適フィルタとを説明する図である。図26は、撮像画像のテクスチャ部のエリアのパワースペクトルと最適フィルタとを説明する図である。図23〜26を参照しながら、局所的な逆変換フィルタの周波数特性R’(ω)について説明する。
第1の実施の形態の逆変換フィルタの周波数特定R(ω)をもとめる式(12)における周波数特性S(ω)は、既知であるものとし、すなわち、理想画像全体の周波数特性であるといえるものである。しかし、図23に示すように、実際の撮像素子12によって実際に撮像された画像である撮像画像102は、テクスチャ部102a、およびテクスチャ部102aとは異なる平坦部を有するものである。第1の実施の形態においては、図24(a)に示す既知である理想画像全体の周波数特性S(ω)に基づいて、上述の式(21)に示すMSEが最小となるような図24(b)に示す逆変換フィルタの周波数特性R(ω)を用いて逆変換処理を実行する動作を説明した。この周波数特性R(ω)に基づいてフィルタ処理を実行すると、撮像画像102全体では、確かに上述の式(21)に示すMSEを最小にすることができる。しかし、例えば、撮像画像102における平坦部であるエリア103においては、スペクトルがない部分の空間周波数ωの領域まで増幅されてしまい、不要なノイズが増加する。
ここで、図25(a)に示すように、理想画像においてエリア103に相当する局所的なエリアの周波数特性をS’(ω)とする。そして、周波数特性S’(ω)のスペクトルが存在する空間周波数ωの領域(低周波数領域)のみを増幅し、エリア103において最小のMSEを与えるような局所的な逆変換フィルタの周波数特性R’(ω)を考えることができる(図25(b)参照)。
また、テクスチャ部102aを含むエリア104においては、図26(a)に示すように、理想画像においてエリア104に相当する局所的なエリアの周波数特性S’(ω)は、空間周波数ωの高周波領域までスペクトルが存在する。したがって、エリア104の周波数特性S’(ω)については、高周波領域まで増幅し、エリア104において最小のMSEを与えるような局所的な逆変換フィルタの周波数特性R’(ω)を考えることができる(図26(b)参照)。
このように、画像の逆変換処理として、局所的に逆変換フィルタをかける周波数特性R’(ω)を導出することによって、ノイズの増幅を抑制し、画像のテクスチャの再現性を向上することができる。以下に、局所的な逆変換フィルタの周波数特性R’(ω)、および、周波数特性R’(ω)による逆変換処理の演算を簡略化するために導出する周波数特性K(ω)について説明する。
まず、上述の式(12)に示す周波数特性R(ω)をもとめる式の中の周波数特性S(ω)を、理想画像の局所的なエリアの周波数特性S’(ω)に置き換えると、下記の式(22)で示される局所的なエリアの最小のMSEを与える周波数特性R’(ω)が得られる。
Figure 2015165610
この周波数特性R’(ω)を、撮像画像ごと、かつ、撮像画像の局所的なエリアごと(画素ごと)にもとめることによって、局所的なエリアの最小のMSEが得られ、かつ、撮像画像全体に共通の周波数特性R(ω)に基づく逆変換フィルタによる逆変換処理を実行するよりもノイズの増加を抑制することができる。なお、周波数特性R’(ω)をもとめる局所的なエリアは、画素ごとに限らず、撮像画像の所定の画素群(所定部分)ごとであってもよい。
ここで、式(22)の中の周波数特性S’(ω)は、撮像画像から直接得ることができないので、上述の式(9)を使用して、理想画像の局所的なパワースペクトルの平均値E[|S’(ω)|]を下記の式(23)のように定義する。
Figure 2015165610
ここで、X’(ω)は、撮像画像の局所的なエリア(画素)の周波数特性であり、式(23)は、X’(ω)>>W(ω)の関係から近似をとっている。すなわち、撮像画像のノイズ成分は、画素よりも十分小さいと仮定している。また、ここで、平均値E[|S’(ω)|]は、より正確には、周波数特性S(ω)に対して周波数特性X(ω)についての最小のMSEを与える逆変換フィルタの周波数特性R(ω)を用いた場合、下記の式(24)によって表される。
Figure 2015165610
次に、ノイズのモデルを下記のように考える。撮像画像のノイズは、画素によらず定常的な振幅を持つノイズと、その画素に比例する振幅を持つノイズとを有することを考慮し、下記の式(25)のように定義する。
Figure 2015165610
ここで、kは、撮像画像の画素に比例する振幅を持つノイズの比例定数であり、cは、撮像画像の各画素に依存しない定常的な振幅を持つノイズ成分である。パーセバルの定理により、式(25)を周波数領域に変換すると、下記の式(26)となる。
Figure 2015165610
上述の式(24)および(26)を、式(22)に代入すると、下記の式(27)が得られる。
Figure 2015165610
kとcとは、グレースケールチャートの撮像画像の解析によって得ることができ、その値を用いることによって、最小のMSEを与える局所的な逆変換フィルタの周波数特性R’(ω)が得られる。
実際の回路実装においては、上述の局所的な逆変換フィルタの周波数特性R’(ω)を画素ごとに直接演算することで実現は可能であるが、局所的な逆変換フィルタをもとめるのは演算負荷が大きいため、以下の方法を用いて、演算負荷を低減することができる。なお、以下においては、式(25)に示す撮像画像の画素に比例する振幅を持つノイズであるk|x(n)|の成分は省略するが、導出する式のノイズのパワースペクトル|W(ω)|に、この項を追加することによって、その効果を得ることができる。
まず、式(22)を下記の式(28)のように変形する。
Figure 2015165610
ここで、局所的な逆変換フィルタの周波数特性R’(ω)と、逆変換フィルタの周波数特性R(ω)との比をK(ω)とすると、K(ω)は下記の式(29)で表される。
Figure 2015165610
そして、予めもとめておいた周波数特性R(ω)と、式(29)に示すK(ω)とによって、局所的な逆変換フィルタの周波数特性R’(ω)をもとめることを考えると、周波数特性R’(ω)は、下記の式(30)によってもとめることができる。
Figure 2015165610
すなわち、予めもとめておいた周波数特性R(ω)に基づく逆変換フィルタと直列に、K(ω)という特性に基づくフィルタ(以下、補正フィルタと称する)を作用させることによって、周波数特性R’(ω)に基づく局所的な逆変換フィルタと同等なフィルタ処理を行うことが可能となる。
ここで、式を簡略化するため、以下の式(31)に示すようにA(ω)を定義する。
Figure 2015165610
この式(31)を上述の式(29)に代入すると、補正フィルタの周波数特性K(ω)は、下記の式(32)によってもとめることができる。
Figure 2015165610
なお、ノイズが大きいものと仮定し、A(ω)<<E[1/|S’(ω)|]かつA(ω)<<E[1/|S(ω)|]であるとすると、式(32)は、下記の式(33)のように簡略化されて表される。
Figure 2015165610
さらに、被写体の典型的なスペクトルを一様分布とし、E[|S(ω)|]=1とすると、式(33)は、下記の式(34)のようにさらに簡略化されて表される。
Figure 2015165610
なお、実用上は、A(ω)<<E[1/|S’(ω)|]かつA(ω)<<E[1/|S(ω)|]が成立しない場合を考慮して、以下の式(35)に示すように比例係数tを導入して周波数特性K(ω)を表すこともできる。
Figure 2015165610
また、補正フィルタの周波数特性K(ω)を演算するための式(32)〜(35)における理想画像の局所的なパワースペクトルの平均値E[|S’(ω)|]は、上述に示した式(24)によってもとめることができる。
以上のように、局所的な逆変換フィルタの周波数特性R’(ω)は、予めもとめておいた逆変換フィルタの周波数特性R(ω)と、式(32)〜(35)によって算出される補正フィルタの周波数特性K(ω)とを乗算することによってもとめることができるので、演算負荷を低減することができる。
<フィルタ処理部の構成および動作>
図27は、第2の実施の形態の画像処理部のフィルタ処理部の構成の一例と動作を説明する図である。図27を参照しながら、画像処理部14のフィルタ処理部143aの構成をおよび動作について説明する。
フィルタ処理部143a(逆変換処理手段)は、図27に示すように、FT(Fourier Transform)部1431_1と、乗算器1432_1〜1432_50と、K演算部1433_1と、乗算器1434_1〜1434_50と、IFT(Inverse Fourier Transform)部1435_1と、備えている。
FT部1431_1は、例えば、5×5の画素を入力して、フーリエ変換を実行し、周波数領域に変換する。その結果、FT部1431_1は、5×5の画素すなわち25個のデータから、25個の複素数に変換して、25個の実部データおよび25個の虚部データ(まとめてデータX’1〜X’50と表すものとする)を出力する。
乗算器1432_1〜1432_50は、入力される2つのデータを乗算して出力する。乗算器1434_1〜1434_50についても同様である。
K演算部1433_1は、上述の式(24)、および式(32)〜(35)のいずれかに基づいて、入力される周波数特性R(ω)とX’(ω)との乗算値から補正フィルタの周波数特性K(ω)を出力する。なお、K演算部1433_1は、周波数特性K(ω)の値と、周波数特性R(ω)とX’(ω)との乗算値、すなわち、周波数特性S’(ω)とが関連付けられたルックアップテーブルを参照して、周波数特性K(ω)をもとめるものとしてもよい。
IFT部1435_1は、乗算器1434_1〜1434_50から出力される乗算値(周波数領域の値)から実空間の値に変換する逆フーリエ変換を実行して、1×1の画素を出力する。このIFT部1435_1から出力される画素が、撮像画像の5×5の画素に対して、周波数特性R’(ω)に基づく逆変換フィルタによって逆変換処理が実行された画素となる。
次に、フィルタ処理部143aの動作の一連の流れについて説明する。まず、撮像素子12によって撮像された撮像画像は、上述のように画像バッファ部141によってバッファリングされ、画像バッファ部141から5つの画素が出力される。したがって、フィルタ処理部143aのFT部1431_1は、画像バッファ部141から5×5の画素を単位として入力するものとする。FT部1431_1は、入力した5×5の画素に基づいてフーリエ変換を実行して周波数領域に変換し、25個の複素数に変換して、25個の実部データおよび25個の虚部データであるデータX’1〜X’50を出力する。
次に、乗算器1432_1は、FT部1431_1から出力されたデータX’1、および逆変換フィルタの周波数特性R(ω)から導出され、データX’1に対応するフィルタ係数R1を入力する。乗算器1432_1は、データX’1とフィルタ係数R1とを乗算して、乗算値R1・X’1を出力する。同様に、乗算器1432_2〜1432_50は、それぞれ、FT部1431_1から出力されたデータX’2〜X’50、およびフィルタ係数R2〜R50を入力し、それらの乗算値R2・X’2〜R50・X’50を出力する。
次に、K演算部1433_1は、上述の式(24)、および式(32)〜(35)のいずれかに基づいて、入力した乗算値R1・X’1〜R50・X’50から、それぞれ周波数特性K(ω)に基づく補正フィルタの係数であるフィルタ係数K1〜K50を演算する。
次に、乗算器1434_1は、乗算器1432_1から出力された乗算値R1・X’1と、K演算部1433_1から出力されたフィルタ係数K1とを乗算して、データR1・K1・X’1を出力する。同様に、乗算器1434_2〜1434_50は、それぞれ乗算器1432_2〜1432_50から出力された乗算値R2・X’2〜R50・X’50と、K演算部1433_1から出力されたフィルタ係数K2〜K50とを乗算して、それぞれデータR2・K2・X’2〜R50・K50・X’50を出力する。
そして、IFT部1435_1は、乗算器1434_1〜1434_50からそれぞれ出力されたデータR1・K1・X’1〜R50・K50・X’50に基づいて、実空間の値に変換する逆フーリエ変換を実行し、1×1の画素を出力する。上述のように、IFT部1435_1から出力される画素が、撮像画像の5×5の部分画像の画素に対して、その5×5の画素のうち中央の画素に対応した周波数特性R’(ω)に基づく逆変換フィルタによって逆変換処理が実行された画素となる。
以上のように、フィルタ処理部143aが、上述のように、局所的な逆変換フィルタの周波数特性R’(ω)に基づく逆変換フィルタにより逆変換処理を実行することによっても、レンズユニット11の光軸方向に延伸した合焦面50の各位置において、レンズユニット11の光軸方向に被写界深度を拡張させる。これによって、焦点が合う領域がレンズユニット11の光軸方向に拡張され、合焦領域51(図20参照)が形成される。そして、被写体が合焦領域51内に含まれていれば、所定の大きさを有する被写体でも、被写体の全体に対して焦点が合った状態で撮像することが可能となる。また、レンズユニット11の光軸方向の広い範囲において、被写体の全体に対して合焦した撮像画像を得ることができる。
また、撮像素子12によって撮像された撮像画像ごと、かつ、撮像画像の局所的なエリアごと(画素ごと)に、逆変換フィルタの周波数特性R’(ω)をもとめるものとしている。この周波数特性R’(ω)に基づく逆変換フィルタによって局所的なエリアごと(画素ごと)に逆変換処理を実行することによって、局所的なエリアについて最小のMSE(平均二乗誤差)が得られると共に、撮像画像全体に共通の周波数特性R(ω)に基づく逆変換フィルタによる逆変換処理を実行するよりもノイズの増加を抑制することができる。
また、局所的な逆変換フィルタの周波数特性R’(ω)を、上述の式(30)に示すようにK(ω)・R(ω)と定義し、周波数特性R(ω)に基づく逆変換フィルタの処理と、周波数特性K(ω)に基づく補正フィルタの処理とを分けてフィルタ回路を構成するものとしている。さらに、周波数特性K(ω)の導出する回路は、上述の式(32)〜(35)に示す計算式に基づいて構成するものとしている。これによって、周波数特性R’(ω)を画素ごとに直接導出する場合と比較して、演算負荷を低減することができ、実装するフィルタ回路を簡略化することができる。
なお、図11および27で説明したように、画像バッファ部141は、5つの画素を出力して、フィルタ処理部143aは、5×5の画素を入力してタップ数が5×5である逆変換処理を実行するものとしたが、これに限定されるものではない。すなわち、逆変換処理のタップ数は3×3、11×11または21×21等異なるタップ数としてもよい。この場合、フィルタによる逆変換処理の対象となるフィルタ処理部143aに入力する画素群において、中央の画素が存在するように、フィルタのタップ数は奇数である必要がある。
<第2の実施の形態の変形例>
本実施の形態の変形例に係る撮像装置について、上述の本実施の形態に係る撮像装置の構成および動作と相違する点を中心に説明する。本変形例においては、図27に示す画像処理部14のフィルタ処理部143aは、後述する図28に示すフィルタ処理部143bに置き換えられている。
図28は、第2の実施の形態の変形例の画像処理部のフィルタ処理部の構成の一例と動作を説明する図である。図28および図14〜16を参照しながら、画像処理部14のフィルタ処理部143bの構成および動作について説明する。
フィルタ処理部143b(逆変換処理手段)は、図28に示すように、逆フィルタ処理部1436_1と、DCT(Discrete Cosine Transform:離散コサイン変換)部1431a_1と、K演算部1433a_1と、ビットダウン部1437_1〜1437_9と、乗算器1434a_1〜1434a_9と、IDCT(Inverse Discrete Cosine Transform:逆離散コサイン変換)部1435a_1と、を備えている。
逆フィルタ処理部1436_1は、例えば、5×5の画素を入力して、上述の式(12)によって導出される周波数特性R(ω)に基づく逆変換フィルタによって逆変換処理を実行する。
DCT部1431a_1は、逆フィルタ処理部1436_1によって逆変換処理された画像において、例えば、3×3の画素を入力し、離散コサイン変換を実行し、周波数領域に変換する。その結果、DCT部1431a_1は、3×3の画素すなわち9個のデータから、9個の周波数領域の値に変換して出力する。ここで、DCT部1431a_1に入力される3×3の画素は、逆フィルタ処理部1436_1により周波数特性R(ω)に基づく逆変換フィルタによって逆変換処理されている画素なので、DCT部1431a_1が出力する9個の周波数領域の値を、本変形例において、それぞれ乗算値R1・X’1〜R9・X’9と表すものとする。
K演算部1433a_1は、上述の式(24)、および式(32)〜(35)のいずれかに基づいて、入力される周波数特性R(ω)とX’(ω)との乗算値から補正フィルタの周波数特性K(ω)を出力する。具体的には、K演算部1433a_1は、上述の式(24)、および式(32)〜(35)のいずれかに基づいて、入力した乗算値R1・X’1〜R9・X’9から、それぞれ周波数特性K(ω)に基づく補正フィルタの係数であるフィルタ係数K1〜K9を演算する。なお、K演算部1433a_1は、周波数特性K(ω)の値と、周波数特性R(ω)およびX’(ω)の値とが関連付けられたルックアップテーブルを参照して、周波数特性K(ω)をもとめるものとしてもよい。
ビットダウン部1437_1〜1437_9は、K演算部1433a_1から出力されるフィルタ係数K1〜K9に対して、それぞれ量子化ビット数を減少させる。これは、フィルタ係数K1〜K9は、量子化ビット数を減少させて、補正フィルタによるフィルタ処理を実行しても、画像の劣化にはほとんど影響がないためである。したがって、ビットダウン部1437_1〜1437_9によりフィルタ係数K1〜K9の量子化ビット数を減少させることによって、後段の乗算器1434a_1〜1434a_9による演算負荷を低減することができる。
乗算器1434a_1〜1434a_9は、入力される2つのデータを乗算して出力する。
IDCT部1435a_1は、乗算器1434a_1〜1434a_9から出力される乗算値(周波数領域の値)から実空間の値に変換する逆離散コサイン変換を実行して、1×1の画素を出力する。このIDCT部1435a_1から出力される画素が、撮像画像の5×5の画素に対して、周波数特性R’(ω)に基づく逆変換フィルタによって逆変換処理が実行された画素となる。
次に、フィルタ処理部143bの動作の一連の流れについて説明する。まず、撮像素子12によって撮像された撮像画像は、上述のように画像バッファ部141によってバッファリングされ、画像バッファ部141から5つの画素が出力される。したがって、フィルタ処理部143bの逆フィルタ処理部1436_1は、画像バッファ部141から5×5の画素を単位として入力するものとする。この逆フィルタ処理部1436_1における周波数特性R(ω)に基づく逆変換フィルタによる逆変換処理の動作の詳細を、図14〜16を参照しながら説明する。
逆変換処理に使用されるフィルタは、図14に示すように、フィルタ係数a11〜a15、a21〜a25、a31〜a35、a41〜a45およびa51〜a55によって構成されるタップ数が5×5の線形フィルタである逆変換フィルタ121であるとする。また、逆変換フィルタ121による逆変換処理の対象となる画像の部分を、図15に示す対象部分画像131であるものとする。対象部分画像131は、画素A11〜A15、A21〜A25、A31〜A35、A41〜A45およびA51〜A55によって構成された5×5の部分画像である。
逆変換フィルタによる逆変換処理は、図15に示すように、対象部分画像131に対して逆変換フィルタ121によってコンボリューション演算した値、すなわち、式(1)で表される演算値となる。コンボリューション演算の演算値は、対象部分画像131の中央に位置する画素である中央データに対して逆変換処理を実行した値となる。すなわち、コンボリューションの演算値は、逆変換処理後の画像において、逆変換処理前の画像の中央データに相当する位置の画素となる。
次に、逆フィルタ処理部1436_1の逆変換処理について、図16を参照しながら、画像105においてX方向の水平ラインを走査しながら逆変換処理をする動作の概略を説明する。図16(a)は、逆フィルタ処理部1436_1が、画像105における(1,1)の画素に対して逆変換フィルタ121によって逆変換処理をする状態を示している。図16(a)に示すように、(1,1)の画素を中央データ135aとしてコンボリューション演算するためには、(1,1)の画素を中央データとする対象部分画像131aと、画像105とが重複している部分の画素が必要になる。すなわち、対象部分画像131aのうち、図15に示す対象部分画像131の画素A33〜A35、A43〜A45およびA53〜A55に相当する画素が必要である。
そのためは、画素A33〜A35、A43〜A45およびA53〜A55に相当する画素が、画像バッファ部141の出力部1413a〜1413cから出力されている必要がある。そして、対象部分画像131aにおいて、画像105と重複していない部分の画素は「0」として取り扱うものとする。
以上の状態において、逆フィルタ処理部1436_1は、図15に示したコンボリューション演算と同様に、対象部分画像131aに対して逆変換フィルタ121によってコンボリューション演算を行う。逆フィルタ処理部1436_1は、画像105の対象部分画像131aの中央データ135aである(1,1)の画素に対してコンボリューション演算した値を、逆変換処理後の画像の(1,1)の画素として出力する。
次に、逆フィルタ処理部1436_1は、図16(b)に示すように、コンボリューション演算の対象となる画素をX方向にひとつシフトし、対象部分画像131bの中央データ135bである(2,1)の画素に対して逆変換処理をする。そして、逆フィルタ処理部1436_1は、X方向の水平ラインをシフトしながらコンボリューション演算を繰り返し、図16(c)に示すように、X方向の水平ラインの最後の画素である(640,1)の画素に対して逆変換処理をする。(640,1)の画素は、図16(c)に示すように、対象部分画像131cの中央データ135cである。
以上のように、逆フィルタ処理部1436_1は、X方向の水平ラインをシフトしながらコンボリューション演算を繰り返し、水平ラインの最後の画素に対する逆変換処理が終了すると、Y方向の次の水平ラインに対して同様に逆変換処理を行う。
図16(d)〜16(f)は、逆フィルタ処理部1436_1が、画像105におけるY方向の4番目の水平ラインの画素に対して逆変換処理を行う状態を示している。図16(d)は、逆フィルタ処理部1436_1が、画像105における(1,4)の画素に対して逆変換フィルタ121によって逆変換処理をする状態を示している。図16(d)に示すように、(1,4)の画素を中央データ135dとしてコンボリューション演算するためには、(1,4)の画素を中央データとする対象部分画像131dと、画像105とが重複している部分の画素が必要になる。そして、対象部分画像131dにおいて、画像105と重複していない部分の画素は、上述と同様に「0」として取り扱うものとする。
図16(e)は、逆フィルタ処理部1436_1が、画像105における(5,4)の画素に対して逆変換フィルタ121によって逆変換処理をする状態を示している。図16(e)に示すように、(5,4)の画素を中央データ135eとする対象部分画像131eは全体が画像105と重複しているので、逆フィルタ処理部1436_1は、対象部分画像131eに含まれる画素をすべて利用した逆変換処理が可能となる。
そして、逆フィルタ処理部1436_1は、X方向の水平ラインをシフトしながらコンボリューション演算を繰り返し、図16(f)に示すように、X方向の水平ラインの最後の画素である(640,4)の画素に対して逆変換処理をする。(640,4)の画素は、図16(f)に示すように、対象部分画像131fの中央データ135fである。
次に、DCT部1431a_1は、上述のように逆フィルタ処理部1436_1によって逆変換処理された画像に対して、例えば、3×3の画素を入力し、離散コサイン変換を実行して周波数領域に変換し、9個の周波数領域の値である乗算値R1・X’1〜R9・X’9を出力する。このように、DCT部1431a_1による周波数領域への変換は、第2の実施の形態における図27に示すFT部1431_1による周波数領域への変換後に出力するデータ数が入力データ数の2倍の数になるのに対し、出力するデータ数が入力データ数と同一となる。したがって、DCT部1431a_1の後段の回路を簡略化することができる。もちろん、DCT部1431a_1およびIDCT部1435a_1ではなく、代わりに第2の実施の形態で示したものと同じくそれぞれFT部およびIFT部を用いてもよい。
次に、K演算部1433a_1は、上述の式(24)、および式(32)〜(35)のいずれかに基づいて、入力した乗算値R1・X’1〜R9・X’9から、それぞれ周波数特性K(ω)に基づく補正フィルタの係数であるフィルタ係数K1〜K9を演算する。
次に、ビットダウン部1437_1〜1437_9は、K演算部1433a_1から出力されるフィルタ係数K1〜K9に対して、それぞれ量子化ビット数を減少させ、量子化ビット数が減少したフィルタ係数K1〜K9をそれぞれ出力する。
次に、乗算器1434a_1〜1434a_9は、DCT部1431a_1から出力された乗算値R1・X’1〜R9・X’9と、ビットダウン部1437_1〜1437_9からそれぞれ出力されたフィルタ係数K1〜K9とを乗算して、それぞれデータR1・K1・X’1〜R9・K9・X’9を出力する。
そして、IDCT部1435a_1は、乗算器1434a_1〜1434a_9からそれぞれ出力されたデータR1・K1・X’1〜R9・K9・X’9に基づいて、実空間の値に変換する逆離散コサイン変換を実行し、1×1の画素を出力する。上述のように、IDCT部1435a_1から出力される画素が、撮像画像の5×5の部分画像の画素に対して、その5×5の画素のうち中央の画素に対応した周波数特性R’(ω)に基づく逆変換フィルタによって逆変換処理が実行された画素となる。
以上のように、画像処理部14のフィルタ処理部143bの構成を、図28に示される構成とすることによって、第2の実施の形態の同様の効果を有する。
また、図28に示すフィルタ処理部143bにおいては、撮像画像の5×5の画素を逆フィルタ処理部1436_1による周波数特性R(ω)に基づく逆変換フィルタによって逆変換処理を実行した後、その逆変換処理をした画像から、画素数を減少させた3×3の画素に対して、DCT部1431a_1以降の補正フィルタによるフィルタ処理を実行している。すなわち、補正フィルタのタップ数は、周波数特性R(ω)に基づく逆変換フィルタのタップ数よりも小さいものとしている。これは、K演算部1433a_1による補正フィルタのフィルタ係数を演算するためにK演算部1433a_1に入力されるデータの数を減少させても、画像の劣化にはほとんど影響がないためである。これによって、実装するフィルタ回路をさらに簡略化することができる。
なお、K演算部1433a_1によって出力されたフィルタ係数を、ビットダウン部1437_1〜1437_9によって、量子化ビット数を減少させているが、これは必須ではなく、ビットダウン部1437_1〜1437_9を必ずしも設ける必要はない。また、このビットダウン部を、第2の実施の形態のフィルタ処理部143aに適用し、フィルタ処理部143aにおけるK演算部1433_1の後段側に設置することも可能である。
(第3の実施の形態)
第3の実施の形態においては、第1または第2の実施の形態に係る撮像装置をコードリーダに適用した場合について説明する。したがって、第3の実施の形態のコードリーダは、第1または第2の実施の形態に係る撮像装置の構成および動作と同様である。
<コードリーダの構成および動作>
図29は、第3の実施の形態のコードリーダの外観構成の一例を示す図である。図30は、第3の実施の形態のコードリーダの合焦面の位置および動作を説明する図である。図29および30を参照しながら、本実施の形態に係る撮像装置としてのコードリーダ1_1の構成および動作について説明する。図29のうち、図29(a)は、コードリーダ1_1の側面図を示し、図29(b)は、コードリーダ1_1の平面図を示す。
コードリーダ1_1は、バーコードまたは二次元コード等を被写体として撮像(読み取り)するハンディタイプの装置である。図29(a)に示すように、コードリーダ1_1は、ヘッド31と、取っ手32と、を備えている。ヘッド31は、図29(b)に示すように、被写体からの光を集光し、撮像素子12(図示せず)に対して結像させるレンズユニット11と、光線60を照射する光源17と、を備えている。取っ手32は、ユーザが把持する部分であり、情報を所定の方式により記号化したバーコードまたは二次元コード等(コード)の被写体を撮像するトリガとなる操作ボタン(図示せず)が備えられている。
撮像素子12は、図示しないが、センサ面がレンズユニット11の主面に対して傾けて配置されており、シャインプルーフの原理によって、合焦位置がレンズユニット11の光軸方向に延伸した合焦面50b(図30参照)が形成されている。光源17は、図30に示すように、照射する光線60の方向をレンズユニット11の画角の中心軸方向からずらし、光線60を合焦面50b上に位置するように照射する。認識処理部15(図示せず)は、撮像素子12によって撮像されたバーコードまたは二次元コード等の撮像画像であって、画像処理部14によりフィルタ処理が実行された画像に基づいて、バーコードまたは二次元コード等を認識する処理を実行する。
以上の構成によって、レンズユニット11の光軸方向の広い範囲において合焦した撮像画像を得ることができると共に、ユーザは、光源17が照射する光線60が示す位置にバーコードまたは二次元コード等の被写体が配置されるように、コードリーダ1_1を移動させることによって、容易に被写体の距離に応じた適切な撮像位置とすることができ、被写体に焦点が合った撮像画像を得ることができる。
また、図示しないフィルタ処理部143(143a、143b)によって、逆変換フィルタによる逆変換処理を実行することによって、レンズユニット11の光軸方向に延伸した合焦面50bの各位置において、レンズユニット11の光軸方向に被写界深度が拡張する。これによって、焦点が合う領域がレンズユニット11の光軸方向に拡張され、合焦領域が形成される。そして、バーコードまたは二次元コード等の被写体が合焦領域内に含まれていれば、所定の大きさを有する被写体でも、被写体の全体に対して焦点が合った状態で撮像することが可能となる。また、レンズユニット11の光軸方向の広い範囲において、バーコードまたは二次元コード等の全体に対して合焦した撮像画像を得ることができる。
なお、図29に示すように、コードリーダ1_1は、ハンディタイプの装置としているが、これに限定されるものではなく、固定式のコードリーダであってもよい。
1 撮像装置
1_1 コードリーダ
2 PC
3 通信ケーブル
4、4a〜4g 被写体
11 レンズユニット
11a 位相板
11b 絞り
11c 多焦点レンズ
12、12a 撮像素子
14 画像処理部
15 認識処理部
16 通信部
17 光源
21 通信部
22 操作部
23 表示部
24 記憶部
25 外部記憶装置
26 制御部
27 バス
31 ヘッド
32 取っ手
50、50a、50b 合焦面
51 合焦領域
60 光線
100〜102 撮像画像
102a テクスチャ部
103、104 エリア
105 画像
121 逆変換フィルタ
131、131a〜131f 対象部分画像
135a〜135f 中央データ
141 画像バッファ部
143、143a、143b フィルタ処理部
201 目標空間周波数特性
202、202a、202b 空間周波数特性
203、203a、203b 空間周波数特性
500 撮像システム
1410 入力部
1411a〜1411d レジスタ
1412a〜1412d ラインバッファ
1413a〜1413e 出力部
1431a〜1431e 入力部
1431_1 FT部
1431a_1 DCT部
1432a〜1432e レジスタ
1432_1〜1432_50 乗算器
1433a〜1433e レジスタ
1433_1、1433a_1 K演算部
1434a〜1434e レジスタ
1434_1〜1434_50 乗算器
1434a_1〜1434a_9 乗算器
1435a〜1435e レジスタ
1435_1 IFT部
1435a_1 IDCT部
1436a〜1436e レジスタ
1436_1 逆フィルタ処理部
1437a〜1437e レジスタ
1437_1〜1437_9 ビットダウン部
1438a〜1438e 乗算器
1439a〜1439e 乗算器
1440a〜1440e 乗算器
1441a〜1441e 乗算器
1442a〜1442e 乗算器
1443a〜1443e 加算器
1444a〜1444e 加算器
1445a〜1445e 加算器
1446a〜1446e 加算器
1447a〜1447c 加算器
1448 出力部
A フレーム開始期間
B 水平ブランキング期間
C フレーム終了期間
D 垂直ブランキング期間
T 有効データ期間
特開2010−152881号公報

Claims (13)

  1. 入射した光に収差を与える光学系と、
    前記光学系を通過した前記光を画素に変換して画像を撮像する撮像手段と、
    前記光学系の光軸上の所定範囲において前記撮像手段により撮像された撮像画像に対して、前記収差を復元する逆変換フィルタにより逆変換処理を実行して被写界深度を拡張する逆変換手段と、
    を備え、
    前記光学系および前記撮像手段は、合焦位置が前記光軸の方向に延伸した合焦面を形成するように配置され、
    前記逆変換手段は、前記合焦面の各位置において前記被写界深度を拡張する撮像装置。
  2. 前記合焦面は、前記撮像手段の検出面が前記光学系の主面に対して傾いて配置されたことにより形成された請求項1に記載の撮像装置。
  3. 前記検出面の長手方向が前記主面に対して傾いて配置された請求項2に記載の撮像装置。
  4. 前記光学系は、多焦点レンズを含み、
    前記撮像手段の検出面は、前記光学系の前記主面に対して平行に配置された請求項1に記載の撮像装置。
  5. 前記合焦面の各位置において前記被写界深度が拡張された合焦領域に含まれるように光線を照射する光源をさらに備えた請求項1〜4のいずれか一項に記載の撮像装置。
  6. 前記光源は、前記光線が被写体に照射された場合に該被写体に形成される該光線のポインタの形状が正規の形状となるように、該光線の断面形状を歪ませた状態で該光線を照射する請求項5に記載の撮像装置。
  7. 前記逆変換フィルタは、被写体の理想画像の画素の周波数特性と、前記逆変換手段により前記逆変換処理がなされた出力画像の画素の周波数特性との平均二乗誤差を最小にするフィルタである請求項1〜6のいずれか一項に記載の撮像装置。
  8. 前記逆変換フィルタは、被写体の理想画像の所定部分の画素の周波数特性と、前記逆変換手段によって前記逆変換処理がなされた出力画像の所定部分の画素の周波数特性との平均二乗誤差を最小にするフィルタである請求項1〜6のいずれか一項に記載の撮像装置。
  9. 前記逆変換フィルタの周波数特性は、前記撮像画像全体に対して前記収差を復元するためのフィルタの周波数特性と、該フィルタの周波数特性を補正する補正フィルタの周波数特性との積である請求項8に記載の撮像装置。
  10. 前記逆変換手段により前記逆変換処理がなされた出力画像に基づいて、情報を所定の方式により記号化したコードを認識する認識処理手段をさらに備えた請求項1〜9のいずれか一項に記載の撮像装置。
  11. 請求項1〜10のいずれか一項に記載の撮像装置と、
    前記撮像装置から前記逆変換処理がなされた出力画像を受信する通信手段と、該出力画像を表示する表示手段とを備える情報処理装置と、
    を備えた撮像システム。
  12. 請求項1〜9のいずれか一項に記載の撮像装置と、
    前記逆変換手段により前記逆変換処理がなされた出力画像に基づいて、情報を所定の方式により記号化したコードを認識する認識処理手段と、
    を備えた撮像システム。
  13. 光学系および撮像手段が、合焦位置が前記光学系の光軸の方向に延伸した合焦面を形成するように配置された撮像装置の撮像方法であって、
    前記光学系により入射した光に収差を与える光学処理ステップと、
    前記撮像手段により前記光学系を通過した前記光を画素に変換して画像を撮像する撮像ステップと、
    前記光学系の光軸上の所定範囲において撮像した撮像画像に対して、前記収差を復元する逆変換フィルタにより逆変換処理を実行して、前記合焦面の各位置において被写界深度を拡張する逆変換ステップと、
    を有する撮像方法。
JP2014039912A 2014-02-28 2014-02-28 撮像装置、撮像システムおよび撮像方法 Pending JP2015165610A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014039912A JP2015165610A (ja) 2014-02-28 2014-02-28 撮像装置、撮像システムおよび撮像方法
US14/621,934 US20150248776A1 (en) 2014-02-28 2015-02-13 Image capturing apparatus, image capturing system, and image capturing method
EP15156300.4A EP2913992A3 (en) 2014-02-28 2015-02-24 Image capturing apparatus, image capturing system, and image capturing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014039912A JP2015165610A (ja) 2014-02-28 2014-02-28 撮像装置、撮像システムおよび撮像方法

Publications (1)

Publication Number Publication Date
JP2015165610A true JP2015165610A (ja) 2015-09-17

Family

ID=52629376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014039912A Pending JP2015165610A (ja) 2014-02-28 2014-02-28 撮像装置、撮像システムおよび撮像方法

Country Status (3)

Country Link
US (1) US20150248776A1 (ja)
EP (1) EP2913992A3 (ja)
JP (1) JP2015165610A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11172112B2 (en) 2019-09-09 2021-11-09 Embedtek, LLC Imaging system including a non-linear reflector

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5864813B2 (ja) * 2013-03-04 2016-02-17 富士フイルム株式会社 復元フィルタ生成装置及び方法、画像処理装置及び方法、撮像装置、プログラム並びに記録媒体
JP2015056143A (ja) * 2013-09-13 2015-03-23 ソニー株式会社 情報処理装置および情報処理方法
JP6318520B2 (ja) * 2013-09-27 2018-05-09 株式会社リコー 撮像装置、撮像システムおよび撮像方法
CN106254804B (zh) * 2016-01-18 2019-03-29 北京智谷睿拓技术服务有限公司 光场显示控制方法和装置、光场显示设备
JP7059185B2 (ja) * 2016-08-16 2022-04-25 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法、および撮像装置
CN108132530B (zh) * 2017-03-03 2022-01-25 中国北方车辆研究所 一种基于像差平衡和控制的大景深光学方法及其系统
JP6469324B1 (ja) * 2017-04-27 2019-02-13 三菱電機株式会社 画像読み取り装置
CN110850594B (zh) * 2018-08-20 2022-05-17 余姚舜宇智能光学技术有限公司 头戴式可视设备及用于头戴式可视设备的眼球追踪系统
JP7271159B2 (ja) 2018-12-14 2023-05-11 キヤノン株式会社 制御装置、撮像装置、レンズ装置、プログラム、および制御装置の制御方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996024085A1 (en) * 1995-02-03 1996-08-08 The Regents Of The University Of Colorado Extended depth of field optical systems
US7327387B2 (en) * 2000-02-21 2008-02-05 Fujifilm Corporation Image pick-up information transmitting system and remote control method for an information transmitting system
JP3999505B2 (ja) * 2001-11-30 2007-10-31 オリンパス株式会社 カメラ
US20070291177A1 (en) * 2006-06-20 2007-12-20 Nokia Corporation System, method and computer program product for providing reference lines on a viewfinder
EP2183635B1 (en) * 2007-08-04 2015-09-16 Omnivision Technologies, Inc. Multi-region imaging systems
US20100155482A1 (en) 2008-12-23 2010-06-24 Ncr Corporation Methods and Apparatus for Increased Range of Focus in Image Based Bar Code Scanning
JP2011133593A (ja) * 2009-12-24 2011-07-07 Kyocera Corp 撮像装置
CN103460108B (zh) * 2011-03-31 2015-08-12 富士胶片株式会社 焦点扩展光学系统以及EDoF摄像系统
JP5274623B2 (ja) * 2011-07-04 2013-08-28 キヤノン株式会社 画像処理装置、撮像装置、画像処理プログラム、および画像処理方法
JP5959976B2 (ja) * 2012-07-27 2016-08-02 キヤノン株式会社 画像処理方法、画像処理プログラム、画像処理装置および撮像装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11172112B2 (en) 2019-09-09 2021-11-09 Embedtek, LLC Imaging system including a non-linear reflector

Also Published As

Publication number Publication date
EP2913992A3 (en) 2015-10-14
US20150248776A1 (en) 2015-09-03
EP2913992A2 (en) 2015-09-02

Similar Documents

Publication Publication Date Title
JP2015165610A (ja) 撮像装置、撮像システムおよび撮像方法
US20070285527A1 (en) Imaging apparatus and method, and program
JP2014027570A (ja) 画像処理方法、画像処理プログラム、画像処理装置および撮像装置
JP6236908B2 (ja) 撮像装置、撮像システムおよび撮像方法
JP2015219754A (ja) 撮像装置および撮像方法
JP2013045404A (ja) 画像処理方法、画像処理装置、撮像装置および画像処理プログラム
JP6318520B2 (ja) 撮像装置、撮像システムおよび撮像方法
US9967528B2 (en) Image processing apparatus and image processing method
JP6314641B2 (ja) 撮像装置および撮像方法
US9374568B2 (en) Image processing apparatus, imaging apparatus, and image processing method
EP3439286B1 (en) Calibration of pixels for producing super resolution images
JP2015216544A (ja) 撮像装置および撮像方法
JP7191588B2 (ja) 画像処理方法、画像処理装置、撮像装置、レンズ装置、プログラム、および、記憶媒体
JP2015211401A (ja) 撮像装置および撮像方法
JP2015211357A (ja) 撮像装置および撮像方法
JP6291795B2 (ja) 撮像システムおよび撮像方法
JP2016005080A (ja) 撮像装置、撮像システムおよび撮像方法
JP6375131B2 (ja) 撮像装置、画像処理方法及び制御プログラム
JP2015005881A (ja) 画像処理装置、撮像装置および撮像システム
JP5418258B2 (ja) 撮像装置および画像処理方法
JP6350205B2 (ja) 処理装置、処理方法および処理プログラム
JP5131300B2 (ja) 画像処理装置、撮像装置、および、画像処理プログラム
JP2016174263A (ja) 動画撮影に好適な画像処理機能とそれを有する撮像装置、画像処理装置、画像処理方法、画像処理プログラム
JP2010079640A (ja) 画像処理装置及びその方法並びに画像処理プログラム
JP2020061687A (ja) ブレ補正装置、撮像装置、ブレ補正方法、及びプログラム