JP2014507856A - レンズ部の縦の色収差を利用したイメージングシステム及びその操作方法 - Google Patents

レンズ部の縦の色収差を利用したイメージングシステム及びその操作方法 Download PDF

Info

Publication number
JP2014507856A
JP2014507856A JP2013548788A JP2013548788A JP2014507856A JP 2014507856 A JP2014507856 A JP 2014507856A JP 2013548788 A JP2013548788 A JP 2013548788A JP 2013548788 A JP2013548788 A JP 2013548788A JP 2014507856 A JP2014507856 A JP 2014507856A
Authority
JP
Japan
Prior art keywords
image
unit
information
color
imaging system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013548788A
Other languages
English (en)
Other versions
JP5976676B2 (ja
Inventor
ムハンマド アティフ
ムハンマド シディキ
クリスチャン ウンルー
マルクス カム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2014507856A publication Critical patent/JP2014507856A/ja
Application granted granted Critical
Publication of JP5976676B2 publication Critical patent/JP5976676B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/611Correction of chromatic aberration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

【課題】レンズ部の縦の色収差を利用したイメージングシステム及びその操作方法
【解決手段】撮像部(100)のレンズ部(120)は、縦の色収差を特徴とする。撮像されたシーンから、イメージセンサ(140)は、異なるスペクトル内容の色補正されていない第1の画像を取得する。明度処理部(202)は、レンズ部(120)の撮像特性の情報に基づいて第1の画像から広域輝度鮮明度情報を算出する。色度処理部(201)は、第1の画像に基づいて色度情報を算出する。同期部(280)は、例えば、拡張された被写界深度を有する出力画像を提供するために、算出された色度情報及び輝度情報を合成する。撮像部(100)は、例えば、カメラシステム又はデジタル顕微鏡又はデジタル望遠鏡において提供され得る。
【選択図】図1A

Description

本発明は、撮像後のデジタル画像処理技術の分野に係るものである。一実施形態は、縦の色収差を伴う色補正されないレンズ部と、撮像後のデジタル画像処理のための処理部を含むイメージングシステムに関する。さらなる実施形態は、縦の色収差を伴う色補正されないレンズ部を含むイメージングシステムの操作方法に関する。
F.Guichard et al.,”Extended Depth−of−Field using Sharpness Transport across Colour Channels”,SPIE,Proceedings of Electronic Imageing,2009,は、物体距離に対して少なくともRGB画像の1つの色平面が焦点の当たっているシーンの情報を含む拡張された被写界深度の画像を得る方法について述べている。Oliver Cossairt et al.,”Spectral Focal Sweep:Extended Depth of Field from Chromatic Aberrations”,IEEE International Conference on Computational Photography(ICCP),March 2010,は、拡張された被写界深度の画像を復元するために、大きい縦の色収差レンズで得られる2値画像(binary image)から畳み込みを解くスペクトルフォーカルスイープ(focal sweep)カメラを提供する。Shen, C.H. and Chen,HH,”Robust focus measure for low−contrast images”,International Conference on Consumer Electronics(ICCE),2006,は、焦点と鮮明度の情報を評価するために、離散コサイン変換エネルギー測定を用いることを提案している。
Manu Parmar and Brian Wandell,”Interleaved Imaging:An Imaging System Design Inspired by Rod−Con Vision”,Proceedings of SPIE,2009,は、グレースケール画像を得るための高感度の白黒ピクセルセットとカラー画像を得るための低感度の3色ピクセルセットによるイメージング構造を提案している。明度が低い条件の下では、出力画像の空間情報は主にグレースケール画像から導出されるが、高感度ピクセルが飽和させられている明所視の条件下では、出力画像はカラー画像からのみ導出される。透明視の条件下では、出力画像はカラー、グレースケール両方から導出される。ここで、各ピクセル値は距離関数及び相似関数を用いることによって隣接ピクセル値を考慮して更新される。相似関数は、各カラー及びグレースケール両方の情報を提供する。ここで、グレースケール情報の重みは、その時点で距離及び相似が評価された隣接ピクセル周辺の画像パッチにおける飽和ピクセルの割合で決定される。
S.Chung et al.,”Removing Chromatic Aberration by Digital Image Proceeding”;Optical Engineering;Vol.49(6);June 2010;は、色差信号の幅境界の評価に対して色収差を示さないエッジにおける色の振舞いを解析することによって色収差を除去することを提案している。幅境界条件を妨げるピクセル値は、色収差を引き起こすカラーフリンジと認識され、許容値に置き換えられる。
本願発明の目的は、少ない計算量でより良い画像を得るために改良されたイメージングシステムを提供することにある。
上記目的は、独立項の内容で達成される。さらなる実施形態は従属項で個別に定義される。発明の詳細と効果は、後述する添付の図面と関連した実施形態の説明により明らかにされる。多様な実施形態の特徴は互いに排除されずに組合せられ得る。
図1Aは、本願発明の一実施形態による撮像処理部、及び縦の色収差を伴う色補正されないレンズ部を含むイメージングシステムのブロック図である。 図1Bは、図1Aの撮像処理部のブロック図である。 図2は、また別の実施形態によるイメージングシステムの撮像部の断面図である。 図3Aは、一実施形態によるRGB画像の補間に関する輝度処理部の詳細のブロック図である。 図3Bは、一実施形態によるRGBIR画像の補間に関する輝度処理部の詳細のブロック図である。 図3Cは、本願発明のさらにまた別の実施形態によるデコンボリューション(deconvolution)に関する輝度処理部の詳細のブロック図である。 図4Aは、本願発明の効果を表すために分光感度を表している図である。 図4Bは、本願発明の効果を表すために標準的な輝度に対するPSFの深度分散(depth variance)を表している図である。 図4Cは、本願発明の効果を表すために広域輝度に対するPSFの深度分散を表している図である。 図4Dは、基礎発明の効果を表すために色補正されるレンズ集合体の点拡がり関数を示している図である。 図4Eは、基礎発明の効果を表すために色補正されないレンズ集合体の点拡がり関数を示している図である。 図4Fは、本願発明の効果を表すためにIRセンサの分光感度を含む分光感度を表している図である。 図5Aは、一実施形態による深度マップの生成にかかる色度処理部の詳細のブロック図である。 図5Bは、IRセンサについての一実施形態による深度マップの生成に係る色度処理部の詳細のブロック図である。 図5Cは、さらに別の実施形態による同期部の詳細のブロック図である。 図6Aは、一実施形態によるRGBW画像から出力画像を導出するプロセスを表している図である。 図6Bは、一実施形態によるRGBIR画像から出力画像を導出するプロセスを表している図である。 図6Cは、一実施形態によるRGB画像から出力画像を導出するプロセスを表している図である。 図6Dは、一実施形態によるRGBIR画像から出力画像を導出するプロセスを表している図である。 図7は、発明のまた別の実施形態によるイメージングシステムを操作する方法に係る単純化されたフローチャートである。
本稿の読解を簡単化するための決め事として、可視及び赤外線のスペクトルのいずれの部分幅も「色」と呼ぶ。この呼び方が人間の視力の見地から正しくないとしても、特にIRを色と呼ぶ。例えば、IRのスペクトル幅における放射線のみを伝達させるフィルタも「カラーフィルタ」と呼ばれる。
図1は、撮像部100を含むイメージングシステム400を示す。イメージングシステム400は、携帯又は固定カメラシステムの一部であり、例えば、監視カメラシステム、診断又は外科手術用カメラ、生産工程管理システムに備えられたカメラ、デジタル顕微鏡、デジタル望遠鏡、一般消費者向け又はプロ仕様の静止カメラ又はビデオカメラ、その他遠隔操作又はゲームアプリケーションで動きや姿勢を検出するカメラであり得る。他の実施形態によれば、イメージングシステムは、例えば、携帯電話、PDA、音楽プレイヤーのようなカメラシステムを含む手持ちデバイスに組み込まれる。
撮像部100は、開口部110を含み、開口部110の開口部を通過する放射線がレンズ部120とイメージセンサ部140の付随物を通過するよう配置される。開口部110はレンズ部120の内部に配置され、特にレンズ部120の瞳面の位置に配置され得る。
レンズ部120は、1枚のレンズ、マイクロレンズの配列、又は複数のレンズを含むレンズの集合であり得る。レンズ部120は、縦の色収差を特徴としており、撮像部100は、色補正された画像を生成するための縦(軸上)の色収差を相殺する要素を含まない。例えば、レンズ部120は、屈折率が波長の関数として焦点距離の変化する入射光線の波長の関数であるガラス又はプラスチックのような分散性の高い素材で形成された合成レンズである。例えば、レンズ部120は、第1の焦点面FIRの赤外線、焦点面Fの赤の可視光線、焦点面Fの緑の光線、焦点面Fの青の光線を撮像する。
ある実施形態によれば、レンズ部120は、レンズ部120が球面収差又は場依存収差(field dependent aberration)を示さない、又はほとんど無視できる程度に示すように、球面収差又は場依存収差を相殺する相殺要素を含み得る。
イメージセンサ部140は、複数のピクセルセンサを含み、各ピクセルセンサは光信号(photo signal)を入射光から電気信号に変換するフォトセンサを備える。イメージセンサ部140は、1つのイメージセンサ部140の全てのピクセルセンサのピクセル値をデジタル形式で含む画像信号を出力し得る。
撮像部100は、グレースケール画像及び赤外線画像を提供し得る。他の実施形態によれば、カラーフィルタ部130は、レンズ部120とイメージセンサ部140との間に配置され得る。カラーフィルタ部130は、複数のカラーフィルタ部を備え、各カラーフィルタ部は、例えば、青、赤、緑、白、赤外線のようなフィルタ色を持つ。各カラーフィルタ部は、1つの単一ピクセルセンサに配置され得、各ピクセルセンサは特定色の画像情報を受け取る。イメージセンサ部140は、2つ、3つ、4つ、又はそれ以上の異なる部分画像を出力し、各部分画像は入射光の特定の周波数帯に関する画像情報を含む。部分画像の1つは、撮像されたシーンの赤外線部分を表し得る。
イメージセンサ部140は、撮像されたシーンから異なるスペクトル内容(spectral content)又は分光組成である複数の色補正されていない第1の画像、例えば、「赤」のフィルタ色を使用した「赤」の画像、「青」のフィルタ色を使用した「青」の画像、「緑」のフィルタ色を使用した「緑」の画像を取得する。第1の画像の1つは、少なくとも赤外部分を構成する又は含み得、各画像信号を出力する。異なるスペクトル内容の画像の画像は、重複したスペクトル内容の画像を含み得る。例えば、イメージセンサ部140は、フィルタ色が可視スペクトル全体に対してほぼ透明である「白」の広域カラーフィルタ部に配置される広域の精度の高いピクセルセンサを含み得る。以下では、異なるスペクトル内容の第1の画像は、色平面又は画像とし、可視スペクトル全体に及ぶ情報を含むグレースケール画像を含み得、赤外線のような可視領域の外側のスペクトル内容を指し得る。
画像処理部200は、輝度情報と色情報の両方を含む色平面を受け取り、修正出力画像信号を計算する。修正出力画像信号は、例えば、第1の画像と比べて被写界深度を浅く又は深くした画像、又はリフォーカスされた画像、又は3D効果を特徴づけた画像であり得ることを表す。
修正画像は、例えば、色付けされた画像を表すデジタル値の集合として、イメージングシステム400の不揮発性メモリ310に格納され得る。不揮発性メモリ310は、カメラシステムのメモリーカードであり得る。代わりに、又はさらに、修正画像は、イメージングシステム400のディスプレイデバイスに表示され得、または有線又は無線通信チャネルを介してイメージングシステム400に接続された別のシステムへ出力され得、または修正出力画像に含まれる情報のさらなる処理のため、処理システム又はアプリケーションに供給され得る。
図1Bは、画像処理部200の詳細を示す。明度(intensity)処理部202は、輝度情報から、例えばPSF(点拡がり関数(point spread function))のようなレンズ部120の撮像特性であるレンズのパラメータに基づいて広域輝度鮮明度情報(sharp intensity information)を計算し得る。広域輝度は、明度画像に対応する。色度処理部201は、色情報に基づいてレンズ部120の使用により生じる色収差を補正することによって色度情報を計算し得る。同期部280は、輝度情報から得られた結果物である鮮明度情報と、色情報から導出され補正された色度情報と、に基づいて修正出力画像を同期する。
ある実施形態によれば、明度処理部202は、撮像部100の出力信号、例えば色平面、に基づいて広域輝度情報を計算する輝度前処理部250を含む。デコンボリューション部260は、広域輝度情報に基づいて広域輝度鮮明度情報(sharp intensity information)を計算するため、レンズ部120の情報を利用する。
図1Aのイメージセンサ部140は、特に「白」の色平面又はグレースケール画像、例えば、4×4又は2×4のRGBWモザイクパターンのようなRGBWモザイクパターンを使った画像、を供給し得る。その際、少なくとも昼光条件(Daylight Condition)の下では、「白」の色平面は、直接的に、デコンボリューション部260へ供給される広域輝度情報を表し、明度処理部202は、「白」の色平面に基づいて鮮明度(Sharp Intensity)情報を計算する。
イメージセンサ部140が「白」の色平面を出力しない場合には、輝度前処理部250は、色平面に基づいてグレースケール画像を計算し、算出されたグレースケール画像を広域輝度情報としてデコンボリューション部260へ供給する
明度処理部202が鮮明度情報を計算している間、色度処理部201は、IR平面を含み得る色情報を計算する。レンズ部120の色収差により、色ごとに焦点距離が異なる。ここで、レンズ部に使われる典型的な分散性のある素材に対して、波長の短い光線は波長の長い光線より浅い深さの焦点に集まる。色度処理部201は、各色平面の焦点を測定すること、及び得られた焦点測定を互いに比較することによって、粗い深度を生成し得る。この情報に基づいて、IR平面を含み得る色平面の色収差は、色収差から生じる色ボケの影響を除去するために補正される。
色度処理部201は、IR平面を含み得る色平面の前処理を行う色度前処理部210、色及びIR平面のピクセル値に対する深度値を結集した深度マップを生成する深度推定部220を含み得る。補正部230は、主に色補正されないレンズ部120の利用によって生じる色収差を補正する。例えば、補正部230は、色差信号の幅境界を評価することによって色収差を示さないエッジの色の振舞いを解析し、色収差によって生じるカラーフリンジとして幅境界を妨げるピクセル値を識別して、これらのピクセル値を許容値に置き換える。またもう一つの実施形態によれば、補正部203は、例えば深度マップに基づいて色平面における鮮明度情報を交換し得る。
図1の画像処理部200のすべての要素は、例えば集積回路として、FPGAs(Field Programmable Gate Arrays)、ASICs(Application Specific Integrated Circuits)のようなハードウェアのみか、例えばコンピュータプログラム又はマイクロコントローラメモリに実装され得るソフトウェアのみか、またはハードウェア及びソフトウェアの要素の組合せによって具現化され得る。
図2は、撮像部100の断面図を示す。撮像部100は、開口部110を含み得、露出している間、シーン又は物体の画像である可視光線又は/及び赤外線は、開口部110の開口115、レンズ部120、イメージセンサ部140の付随物を通過する。イメージセンサ部140は複数のピクセルセンサ145を備える。各ピクセルセンサ145は、光信号を入射光から電気信号へ変換するフォトセンサを含む。ピクセルセンサ145は、半導体基板に形成され得る。ピクセルセンサ145は、1平面又は異なる平面に配置され得る。撮像部100は、レンズ部120とイメージセンサ部140の間、又は開口部110とレンズ部120の間にカラーフィルタ部130を備える。
例えば、イメージセンサ部140は、半導体基板の基板表面に対し隣接して形成される表面フォトダイオードの数ミクロン下の基板部分に形成される深いフォトダイオードを備え、垂直に取り付けられるフォトダイオード構造を有する。可視光線は半導体基板の表面部で吸収され、赤外線は半導体基板へより深く突き抜ける。その結果、深いフォトダイオードのみが赤外線を受光する。もう一つの例では、イメージセンサ部140は、フォトダイオードが配列で配置された構成のフォトダイオードを統合した側部を有し得る。
カラーフィルタ部130は、イメージセンサ部140と密接して配置され得、複数のカラーフィルタ区分135を含み得、各カラーフィルタ区分135は、例えば、緑、赤、青、マゼンタ、黄、白、又はIR(赤外線)のようなフィルタ色を有する。各カラーフィルタ区分135は1つのピクセルセンサ145に配置され、各ピクセルセンサ145は、画像の色差情報を受け取る。例えば、2×2行列で形成されるカラーフィルタ区分135は、ベイヤーモザイクパターンを形成するように配置され得、「緑」のフィルタ色のカラーフィルタ区分135が、2×2行列のある一方の対角線に配置され、1つの「赤」のフィルタ色のカラーフィルタ区分135及び1つの「青」のフィルタ色のカラーフィルタ区分135が、もう一方の2×2行列の対角線に配置される。ベイヤーモザイクパターンでは、「緑」のフィルタ色のサンプリングレートは、緑色が人間の目に対して最も多くの輝度情報を伝えることを考慮して、「赤」及び「青」のフィルタ色の2倍となっている。
もう一つの実施形態によれば、カラーフィルタ区分135は、4つ目のフィルタ色である「エメラルド」を伴うRGBEモザイクパターン、又は1つのシアン、2つの黄、1つのマゼンタのカラーフィルタ区分135からなるCYYMモザイクパターン、又は1つのシアン、1つの黄、1つの緑、1つのマゼンタのカラーフィルタ区分135からなるCYGMモザイクパターン、を形成するために、カラーフィルタ部130の中に連続して配置される2×2の行列群に配置され得る。もう一つの実施形態によれば、カラーフィルタ部130は、異なる三つのフィルタ色である3つのカラーフィルタ部のモザイク行列群、及びカラーフィルタ能力を持たず、可視スペクトル内の全ての色に対して透過的な1つの透明フィルタ部を含む。透過フィルタ部及びカラーフィルタ区分135は、例えば、4×4又は2×4のRGBWモザイクパターンのようなRGBWモザイクパターンを形成するように配置され得る。
カラーフィルタ区分135のフィルタ幅は、可視スペクトルの一部に制限されない。ある実施形態によれば、カラーフィルタ130は、少なくとも1つの赤外線に対し透過的なタイプであるカラーフィルタ部を含む。例えば、カラーフィルタ130は、各2×2の行列群が1つの赤、1つの緑、1つの青、1つの赤外部のカラーフィルタ区分135を含み、行列群は、規則的にモザイクパターンを形成するように配置されるRGBIRフィルタである。4つの色である、R、G、B、IRは、2×2の行列群の中にいずれの並べ方によっても配置される。
赤外線は、カラーフィルタ区分135の間にある赤外線透過部133を通ってカラーフィルタ部130を通過し得る。ある実施形態によれば、カラーフィルタ130は、少なくとも1つの赤外線に対し透過的なタイプのカラーフィルタ部を含む。例えば、カラーフィルタ130は、各2×2の行列群が1つの赤、1つの緑、1つの青、そして1つの赤外部のカラーフィルタ区分135を含み、行列群は、モザイクパターンを形成するように規則的に配置されるRGBIRフィルタである。別の実施形態によれば、カラーフィルタ部130は、カラーフィルタ区分135が赤外線の周波数帯の部分に対し透過的であり得るため、深いフォトダイオードに配置された部分を含まない。
色収差の影響で、青、緑、赤、赤外部の各カラー画像は、近くから遠くまで相異なる距離に焦点が集まり、各4つの画像平面の鮮明度の測定又は比較によって、4つの深度マップの層が計算され得る。
各レンズ部120は、複数の区分を有するマイクロレンズの配列として実現され得る。レンズ部120の各レンズ区分は、1つのピクセルセンサ145及び1つのカラーフィルタ区分135に対して配置され得る。
他の実施形態によれば、レンズ部120は、物体空間の物体をセンサ平面に撮像するように構成される複数のレンズを備えるように実現され得る。色収差の影響により、青、緑、赤、赤外部の各カラー画像は、異なる距離で別の焦点平面に焦点を集め得る。2又はそれ以上のセンサ平面を持つイメージセンサ部に係る実施形態においては、赤外線に対する第1の焦点平面と可視光線に対し割当てられる第2の焦点平面との間の距離は、通常は第1のセンサ平面と第2のセンサ平面との間の距離と一致しない。結果として、この場合、第1の画像及び第2の画像のうちの少なくとも1つは、赤外線の画像及び可視光線の画像の両方が同時に取得される時、大幅に焦点から外れる。
図3Aは、RGBベイヤーモザイクのカラーフィルタを利用するイメージセンサ部140からカラーフィルタされた第1の画像、例えば、赤、緑、青の色平面を受け取る輝度前処理部250の一実施形態を示す。他の実施形態によれば、イメージセンサ部140は、シアン、黄、マゼンタ、緑の色平面を供給するCYGMセンサであるか、シアン、黄、マゼンタの色平面を供給するCYYMセンサであり得る。
輝度前処理部250は、受け取った各色平面に対し、各ピクセルは各々別のフィルタ色を割り当てられために有効なピクセル値を持っていない各色平面のピクセル値を補間する補間部252を含み得る。補間は、失われたピクセル値を同じ色平面の隣接するピクセル、及び/又は、対応する別の色平面のピクセルの値から推定することによって行われ得る。撮像部100が1つのカラーチャネルのみを出力する実施形態は、1つ、又は2つ、又は全てのカラーチャネルに対し個別に重みづけ部256を提供する。各重みづけ部256は、色平面のピクセル値に色平面に割り当てられる特定の値を乗じる。重畳部254は、図1Bのデコンボリューション部260に供給するグレースケール画像を得るために、補間され、重みづけられた色平面を合成し得る。RGBセンサに係るある実施形態によれば、算出された広域輝度は、等しく重みづけられた赤、緑、青のカラーイメージをまとめることによって得られ得る。
各重みづけ部256は、構築されずに、重み「1」で色平面を重みづけるための有線接続であり得る。また別の実施形態は、設定可能な重みづけ部256と、照明条件の関数、又はユーザの入力に対する反応、で重みづけ部256の重みを設定する重みづけ制御部258とを提供する。少なくとも重みの1つは、「0」の値であり得る。ある実施形態によれば、明度画像は、白や赤外部分を含むセンサ平面における入手可能な全てのスペクトル成分の加重平均である。
ある実施形態によれば、イメージングシステムは、算出された広域輝度を得るための重みを選択するために、シーンに光を当てる光源のタイプについての情報を利用する。例えば、少なくとも1つの特定のタイプの光源に対して、適切な色の重みについての情報が重みづけ制御部258に格納され得る。ここで、色の感度に各重みを乗じることによって得られた色成分の合計を乗じられた光源のパワースペクトル密度が、ある深度不変量のPSFを達成するために、スペクトルの可視領域にわたって広範囲で均一であるように、色の重みは予め定義される。重みづけ制御部258は、光を当てている撮像されたシーンの光源を日光又は、例えば、白熱灯、蛍光灯、LED灯などの人工光に分類するために適合させられ得る。他の実施形態によれば、重みづけ制御部258は、光源のタイプを指示しているユーザの命令を処理し得る。
また別の実施形態によれば、撮像部100は、複数層のイメージセンサからなり、ピクセルセンサ層が透明な基盤上に積み上げられ、各ピクセルセンサの層は赤、緑、青の光線が半導体を通過して異なる深さに達する事実を利用することによって、入射光線の別のスペクトル幅に対して敏感である。前述のような場合は、イメージセンサは完全な色平面が提供され、例えば、積層されたピクセルセンサが利用されて、補間部252は省略され得る。
図3Bは、カラーフィルタされた第1の画像群、例えば、RGBIRベイヤーモザイクカラーフィルタを用いるイメージセンサ部140からの、赤、緑、青、赤外部の色平面、を受け取る輝度前処理部250の実施例を示す。他の実施形態によれば、イメージセンサ部140は、シアン、黄、マゼンタ、緑、赤外部、の色平面を供給するCYGMIRセンサ、又はシアン、黄、マゼンタ、赤外部、の色平面を供給するCYYMIRセンサであり得る。
算出された広域輝度は、少なくとも昼光条件の場合、同じ重みの赤、緑、青、赤外部のカラーイメージを足し合わせることによって得られ得る。
図3Cは、デコンボリューション部260の実施形態を示す。デコンボリューション部260は、例えば、グレースケール画像のような広域輝度情報を受け取り、レンズ部120の撮像特性の情報を使って鮮明度情報を復元する。ある実施形態によれば、デコンボリューション部260は、図1のレンズ部120の撮像特性のようなPSFを使ってグレースケール画像をデコンボリューションする。点拡がり関数は、メモリ部262に格納され得る。副デコンボリューション部264は、デコンボリューションを実行し、鮮明度情報を表すグレースケール画像を出力する。
図3Cのデコンボリューション部260のある実施形態によれば、メモリ部262は、インフォーカス(in−focus)のPSFを格納し得る。他の実施形態によれば、メモリ262部は、複数の異なる被写界深度の幅に対する点拡がり関数を格納し得、それらのうちの1つがユーザ要求に対応する反応として選択され得る。例えば、PSFの深度不変性(depth invariance)の大きさがそれほど大きくない場合には、「接写」、「肖像」、「風景」のようなユーザ選択可能なシーンモードに対応するインフォーカスのPSF及び1つ、2つ、3つ以上のPSFが提供され得る。
結果として生じる鮮明度情報は、ほぼ、広域のスペクトルを有するような物体の大きい被写界深度に対しての深度不変量(depth invariant)である。これは現実世界の物体の多くに対して当てはまる。
図4Aから4Eは、デコンボリューションのプロセスの詳細と効果を示す。図4Aの上半分は、RGBイメージセンサの分光感度の第1の図を示す。曲線422は「赤」のカラーフィルタが配置されたピクセルの分光感度であり、曲線424は「緑」のカラーフィルタが配置されたピクセルの分光感度であり、「青」のカラーフィルタが配置されたピクセルの分光感度である。全ての線図において、分光感度は、波長の関数としてプロットされる。
図4Aの下半分は、左側で「標準的な」輝度428の分光感度を表す第2の図を示し、広域輝度429の分光感度を表す第3の図を示している。通常、輝度は、RGBからYUVへの変換によってRGB色平面から取得され、YUV空間では、Yはグレースケール画像または輝度を表し、UVは2つのカラーチャネル又は色度の微分を表し、輝度はCIE(Commission Internationale del’Eclairage)1931標準によって定義された比視感度にほぼ相当する方法で定義される。標準的な輝度Yは、WR=0.299で赤の信号を、WB=0.114で青の信号を、WG=0.587で緑の信号を重みづけ、3つの重みづけ操作の結果を合計することによって得られる。第2の図に示された標準的な輝度の分光感度の曲線428は、第1の図の分光感度の曲線422、424、426にこれらの重みづけを適用した結果である。
対して、実施形態によって算出された広域輝度429は、主にパンクロマチック(panchromatic)センサ素子によって取得された白のイメージ、又は昼光条件でモノクローム(moonochrome)センサを通じて取得されたグレースケールのイメージに相当し、取得されたイメージは広域特性を有する。カラーチャネルのみ出力するイメージセンサについては、算出された広域輝度は、HSI色空間において定義される明度に類似して算出され得る。RGBセンサについてのある実施形態によれば、算出された広域輝度は、昼光条件において等しい重みで赤、緑、青のカラーイメージを合計することによって得られる。
昼光以外の照明条件において、カラーチャネル、例えば、赤、緑、青のチャネル、又は、赤、緑、青、IRチャネルの重みは、イメージングシステムにおいて利用可能な計算リソースを用いて、最終的な分光感度の反応がPSFの深度不変量を確保するために可視スペクトルの中で可能な限り広域で平坦であるが、少なくともCIE1931標準によって定義された比視感度よりも平坦であるように、選択され得る。例えば、算出された広域輝度429は、少なくとも100nm又は200nmの波長の幅を通してほぼ平坦であり、平坦な幅における感度は10%又は20%よりも大きく変化しない。また別の実施形態によれば、最終的な分光感度の反応の振幅は、可視スペクトルの半数以上で、50%よりも大きく変化しない。
広域輝度は、ベイヤーセンサ、RGBセンサ、RGBIRセンサ、又はCYGM、CYGMIR、CYYM、CYYMIRセンサ、のカラーチャネルをデモザイクし、対応するピクセル値を等しい重みで合計することによって、又はIRチャネルを含み得る積層又は複数層のRGBセンサ又はRGBIRセンサのカラーチャネルを合計することによって、適切な白のチャネルから直接的に得られ得る。他の照明条件下においては、重みは、取得されたシーン画像を照らす光源、例えば、白熱灯、蛍光灯、LED灯、のパワースペクトル密度を考慮して選択され、結果として得られる点拡がり関数は等しい重みを用いて得られる深度分散(depth variant)よりも小さい。
図4Bの下半分は、図4Bの上半分における標準的な輝度の分光感度の曲線428に対して現実のレンズで評価された一次元のPSFである402、404、406の一群を示す。対して、図4Cは、図4Cの上半分における広域輝度の分光感度の曲線429に対して現実のレンズで評価された一次元のPSFである412、414、416の一群を示す。各々のPSFは、点光源と配置されたレンズの平面との一定の距離の点光源に対する各レンズの配置の反応を表している。PSFは10cmから無限距離にプロットされる。
図4B及び4Cは、標準輝度と比較して広域輝度はより大きな深度不変量のPSFをもたらすことを示す。より具体的に言うと、標準輝度の場合、近い距離のPSFはより大きく変化する。図4B及び4Cは、昼光条件についてのものである。他の照明条件下では、広域輝度は各色に対して適した重みを選択することによって得られ得る。ある実施形態によれば、白熱灯では、青が緑より重みを持ち、緑は赤よりも重みを持ち、重みは、結果として得られる輝度が上述の「広域輝度」の特性を有するように選択される。
図4Dは、標準的なレンズ配置に対する一次元のPSFである422、424、426の一群を図示すのに対し、図4Eは色補正されないレンズ配置に対する一次元のPSFである432、434、436の一群に係るものである。各々のPSFは、点光源とレンズが配置されるレンズ平面との間の一定の距離に対する点光源に対してのレンズ配置の反応を示す。両方の図のPSFを比較すると、色補正されないレンズ配置に対するPSFは、色補正されるレンズ配置のそれらより著しく低い値に離れている。ボケが深度不変量のほとんど広範囲にわたっているために、色収差を伴うレンズの配置はボケをもたらすが、演繹的な既知のボケフィルタ(blur kernel)を伴う単純なデコンボリューションプロセスは鮮明度情報を復元するのに十分である。ある実施形態によれば、インフォーカスの位置に対応するPSFがデコンボリューションのために選択される。前述のインフォーカスの位置は釣り合いの取れた位置であって、前述のPSFは近く又は遠くのデフォーカス位置の両方において色補正されないレンズに対し類似して及びゆっくりとのみ変化するため、前述のインフォーカスのPSFは最適な結果をもたらす。
結果として生じる鮮明度情報は、ほぼ、広域のスペクトルを有するような物体の大きい被写界深度に対しての深度不変量である。これは現実世界の物体の多くに対して当てはまる。
図4Fの上半分は、RGBIRイメージセンサの分光感度である第1の図を示す。曲線421は、IR分光感度フィルタが配置されたピクセルの分光感度である。曲線422は、「赤」のフィルタ色が配置されたピクセルの分光感度である。曲線424は、「緑」のフィルタ色が配置されたピクセルの分光感度である。曲線426は、「青」のフィルタ色が配置されたピクセルの分光感度である。全ての線図において、分光感度は波長の関数でプロットされる。
図4Fの下半分は、左側に赤、緑、青の色平面に基づく「標準的な」輝度428の分光感度を描いている第2の図を示し、赤外部を含む全ての色平面から結果として得られる広域輝度430の分光感度を描いている第3の図を示す。第2の図に示される標準的な輝度の分光感度の曲線428は、第1の図の分光感度の曲線422、424、426に対し重みを適用したことによって得られる。
対して、前述の実施形態で算出される広域輝度430は、パンクロマチックセンサ素子によって取得された白の画像、又は取得される画像が広域特性を有する昼光条件においてモノクロームセンサを通して取得されるグレースケール画像と概ね一致する。ただ1つのカラーチャネルを出力するイメージセンサについては、算出された広域輝度は、HSI色空間において定義されているような明度に類似して算出され得る。RGBIRセンサについてのある実施形態によれば、算出された広域輝度は、昼光条件の場合で等しい重みの赤、緑、青の色画像を合計することによって得られる。
昼光の他の照明条件では、例えば、赤、緑、青、赤外部のチャネルである、カラーチャネルの重みは、イメージングシステムの利用可能な計算リソースを用いて、最終的な分光感度の反応がPSFの深度不変量を確保するために可視スペクトルの内で可能な限り広域で平坦であるが、少なくともCIE1931標準によって定義された比視感度(Photopic Luminosity Function)よりも平坦であるように、選択され得る。例えば、算出された広域輝度429は、少なくとも100nm又は200nmの波長幅にわたってほぼ平坦である。ここで、前述の平坦幅において感度は10%又は20%より大きく変化しない。また別の実施形態によれば、最終的な分光感度の反応の振幅は、可視スペクトルの半分にわたって50%より大きく変化しない。
図5Aは、図1Bの色度処理部201の構成要素としての深度マップ推定部220に係るものである。第1の色補正されていない部分画像又は色平面は、次の処理に向けて、少なくとも2つ又は全ての色平面を保持するストレージ部222に供給され得る。
ある実施形態によれば、深度マップ部224は、例えば、DCT(Discrete Cosine Transform)を使って、ストレージ部222に一時的に格納される色平面の全てについて関係する鮮明度情報を比較する。例えば、関係する色平面間の鮮明度は、色平面における特定の位置の隣接する各ピクセルにおいて、正規化された特定の場所の勾配及び平均勾配の差の合計を計算することによって測定され得る。最も鮮明な色平面の部分領域又は撮像されたシーンのピクセルを推定することによって、深度マップ部224は、各ピクセル又はピクセルの集合に距離情報を割り当てる深度マップを生成し得る。ある実施形態によれば、Hadamard変換は、鮮明度測定に用いられる。Hadamard変換の結果は、DCTのものに近いが、Hadamard変換の実行には加算及び減算しか要求されないため、計算量は少ない。代わりに、又はさらに、他の知られた鮮明度測定が用いられ得る。
また別の実施形態によれば、勾配は、対数の定義域が深度推定を照明条件におけるわずかな変化又は異なる色における明度勾配のわずかな変化から独立させるため、正規化のステップが省かれ得る対数の定義域において算出される。
深度マップは、図1Bの補正部230に供給され得る。補正部230は、色平面における色収差を補正する。例えば、補正部230は、色収差を示さないエッジにおける色の振舞いに基づいて色差に対する幅境界を評価し、幅境界を妨げるピクセルを識別して、これらのピクセルを許容値のピクセル値に置き換える。また別の実施形態によれば、補正部230は、補正された色画像を提供するために深度マップに含まれる情報を用い得る。例えば、補正部230は、各画像領域に対して最も鮮明な色平面の高周波数をコピーすることによって他の色平面への鮮明度の移送を実行する。例えば、ある色平面の各ボケた部分領域に対し、最も鮮明な色平面のハイパスフィルタされたものが各部分領域に加算され得る。
図5Bは、IR平面を保持する追加のストレージ部222を伴う深度マップ推定部220を示す。
図5Cは、拡張された被写界深度の修正出力画像を得るために、鮮明度情報を図1Bの補正部230によって出力される補正された色画像に移す(transfer)同期部280に係るものである。ある実施形態によれば、同期部280は、例えば色度情報処理中に、得られた深度マップに基づいて補正された画像に鮮明度情報を移す。例えば、最も鮮明なスペクトル成分からの鮮明度情報は、補正されていないスペクトル成分へ転写される。また別の実施形態によれば、同期部280は、深度マップ、及び画像合成に係るユーザの要求を表すユーザ情報に基づいて鮮明度情報を移す。ユーザ要求は、撮像後の焦点距離の選択、又は合焦範囲の選択の実行に関するものであり得る。
RGBW又はRGBWIRに係る実施形態によれば、同期部280はインターリーブ撮像手法、例えば、薄明視の照明条件に対する出力画像が色経路によって得られる色画像、及び輝度経路から得られるグレースケール画像の両方から導出される手法、によって修正出力画像を得ることができ得る。各色平面に対して、各ピクセル値は、距離関数及び相似関数を用いて隣接するピクセル値に基づいて更新される。ここで、相似関数は各色画像とグレースケール画像の両方の情報を使って、グレースケール画像からの情報に対する重みを決定する。例えば、重みは、距離及び相似がその時点で評価された隣接ピクセル周辺の画像パッチにおける飽和ピクセルの一部によって、決定され得る。
標準的な手法以外においては、色画像と合成されるグレースケール画像は、色補正されないレンズ部の撮像特性を考慮するプロセス、例えば、撮像部から得られるグレースケール画像にレンズ部のPSFでデコンボリューションすることによって得られる。
RGB又はRGBIRイメージセンサに係るまた別の実施形態によれば、同期部280は、類似のインターリーブ撮像手法によって出力画像を得る。ここで、相似関数で用いられるグレースケール画像は、RGB信号をHSI(Hue−Saturation−Intensity)空間に変換することによって得られる光線の明度をデコンボリューションすることによって得られ得る。光線の明度信号、又は内在するRGB画像は、PSFがより大きな深度不変量である広域輝度信号と一致するように、前処理され得る。
図6Aは、R、G、B、W平面を出力するRGBW画像センサに基づく実施形態に係るものである(602)。輝度経路において、W平面は、直接的に広域輝度信号を与える、又は広域輝度信号に相当させるために前処理され得る(650)。W平面は、レンズ部のPSFを使ってデコンボリューションされる(660)。元のR、G、B平面は、色経路に提供される(610)。R、G、B平面の色収差は(630)で相殺される。深度マップは、元のR、G、B平面から導出され(620)、R、G、B平面の色収差を相殺、又は補正するのに利用され得る。デコンボリューションされたW平面は、補正されたR、G、Bの各平面でインターリーブされる(680)。修正されたRGB平面、又は同等の情報を備える修正色画像が出力される(690)。
図6Bは、R、G、B、IR、W平面を出力するRGBWIR画像センサに基づく実施形態に係るものである(602)。輝度経路において、W平面は直接的に広域輝度信号を与える、又は広域輝度信号に相当させるために前処理され得る(650)。W平面は、レンズ部のPSFを使ってデコンボリューションされる(660)。元のR、G、B、IR平面は、色経路に提供される(610)。R、G、B、IR平面の色収差は(630)で相殺される。深度マップは、元のR、G、B、IR平面から導出され(620)、R、G、B、IR平面の色収差を相殺、又は補正するのに利用され得る。デコンボリューションされたW平面は、補正されたR、G、B、IRの各平面でインターリーブされる(680)。修正されたR、G、B、IR平面、又は同等の情報を備える修正色画像が出力される(690)。
図6Cは、R、G、B平面を出力するRGB画像センサに基づく実施形態に係るものである(602)。R、G、B平面は、例えば、HSI空間に変換される(650)などの前処理が行われ得る。ここで、色相(Hue)、彩度(Saturation)、明度(Light Intensity)が得られる(652)。明度はレンズのPSFを使ってデコンボリューションされる(660)。元のR、G、B平面は、色経路に提供される(614)、又は逆HSI変換を使ってHSI値から再計算され得る(610)。R、G、B平面の色収差は、(630)で相殺される。深度マップは、元のR、G、B平面から算出され(620)、R、G、B平面の色収差を相殺、又は補正するのに利用され得る。デコンボリューションされた明度は、補正されたR、G、Bの各平面でインターリーブされる(680)。修正されたRGB平面、又は同等の情報を備える修正色画像が出力される(690)。
図6Dは、R、G、B、IR平面を出力するRGBIR画像センサに基づく実施形態に係るものである(602)。R、G、B平面は、例えば、HSI空間に変換される(650)などの前処理が行われ得る。ここで、色相、彩度、明度が得られる(652)。明度はレンズのPSFを使ってデコンボリューションされる(660)。元のR、G、B、IR平面は、色経路に提供される(614)。R、G、B、IR平面の色収差は、(630)で相殺される。深度マップは、元のR、G、B、IR平面から算出され(620)、R、G、B、IR平面の色収差を相殺、又は補正するのに利用され得る。デコンボリューションされた明度は、補正されたR、G、B、IRの各平面でインターリーブされる(680)。修正されたR、G、B、IR平面、又は同等の情報を備える修正色画像が出力される(690)。
図7は、イメージングシステムの操作方法に係るものである。この方法は、縦の色収差を特徴とするレンズ部を使って撮像された画像の少なくとも2つの色補正されていない第1の画像を取得することを提供する。ここで、第1の画像は異なるスペクトル成分を有し、例えば、異なる色平面を表す。第1の画像から広域輝度鮮明度情報(704)、及び色度情報(706)が算出される。算出された色度情報、又は広域輝度鮮明度情報は、出力画像を提供するために合成される(708)。
広域輝度情報の算出は、色補正されていない第1の画像の少なくとも1つから導出されるグレースケール画像をレンズ部の点拡がり関数でデコンボリューションすることを含み得る。色度情報の算出は、色補正されないレンズ部を用いる結果生じる色収差の影響を相殺することを含み得る。色度情報及び広域輝度鮮明度情報の算出は、色度情報及び広域輝度鮮明度情報の両方に基づく相似関数を使ったインターリーブの過程に基づいて行われ得る。
色平面の間の鮮明度の移送を用いる手法の精度が、高い値に対する深度推定の質にのみ依存する場合、本願の手法は、被写界深度の拡張又は他の効果が単純なデコンボリューションを行うことによって取得され得る広域輝度チャネルとして知られたPSFを利用する。本願の手法は、カラーチャネルにおける色収差の補正も提供する。ここで、残存する小さな人工色は、人間の目は輝度収差に対してよりも色信号収差に対して感度が低いという事実により、画像の質を低下させない。
一方で、スペクトルフォーカルスイープについての手法では、色平面に含まれる色情報を失い、最終的な画像で人工的な色ボケが現れる。本願の手法は、少ない計算量で、十分なより良い結果をもたらし、第1段階で広域輝度鮮明度情報及び色度情報を分離し互いに独立して処理し、第2段階でそれらを合成することによって、知覚的にこれまでの手法よりも意義のある現実世界のシーンの描写が得られる。

Claims (16)

  1. 縦の色収差を伴うレンズ部(120)と、撮像されたシーンから異なるスペクトル内容の色補正されていない第1の画像を生成するイメージセンサ部(140)と、を有する撮像部(100)と、
    広域輝度鮮明度情報を前記第1の画像と前記レンズ部(120)の撮像特性の情報とに基づいて計算する明度処理部(202)と、
    前記第1の画像に基づいて色度情報を計算する色度処理部(201)と、
    前記色度情報と前記広域輝度鮮明度情報を合成する同期部(280)と、
    を備えるイメージングシステム。
  2. 前記イメージセンサ部(140)は、グレースケール画像を出力し、
    前記明度処理部(202)は、前記グレースケール画像に基づいて前記広域輝度鮮明度情報を計算する、
    請求項1に記載のイメージングシステム。
  3. 前記撮像部(100)は、少なくとも2つのカラーフィルタされた第1の画像を供給し、
    前記明度処理部(202)は、前記少なくとも2つのカラーフィルタされた第1の画像からグレースケール画像又は明度関数を生成する輝度前処理部(250)を備え、
    前記明度処理部(202)は、生成された前記グレースケール画像に基づいて広域輝度鮮明度情報を計算する、
    請求項1に記載のイメージングシステム。
  4. 前記明度処理部(202)は、
    各々が前記第1の画像の1つに選択可能な重みを適用する制御可能な重みづけ部(256)と、
    ユーザの入力又は第1の画像の評価に応じて、前記重みづけ部(256)のために重みを選択する重みづけ制御部(258)と、を備え、
    請求項2または3に記載のイメージングシステム。
  5. 前記明度処理部(202)は、前記レンズ部(120)のPSFでグレースケール画像をデコンボリューションすることによって前記広域輝度鮮明度情報を算出するデコンボリューション部(260)を備える、
    請求項2〜4のいずれか1項に記載のイメージングシステム。
  6. 前記色度処理部(201)は、
    前記第1の画像から深度マップを生成する深度マップ推定部(220)を備える、
    請求項1〜5のいずれか1項に記載のイメージングシステム。
  7. 前記色度処理部(201)は、
    前記第1の画像から補正された画像を提供するために、前記第1の画像の色収差を補正する補正部(230)をさらに備える、
    請求項6に記載のイメージングシステム。
  8. 前記同期部(280)は、鮮明度情報を前記広域輝度鮮明度情報から前記補正された画像に移す、
    請求項1〜7のいずれか1項に記載のイメージングシステム。
  9. 前記同期部(280)は、鮮明度情報を前記広域輝度鮮明度情報から前記補正された画像に前記深度マップに基づいて移す、
    請求項7に記載のイメージングシステム。
  10. 前記同期部(280)は、前記色度処理部(201)から取得される補正された画像及び、前記明度処理部(202)から取得されるグレースケール画像をインターリーブし、各前記補正された画像に対し、ピクセル値は距離関数及び相似関数を用いて隣接するピクセル値に基づいて更新され、前記相似関数は各前記補正された画像及び前記グレースケール画像の両方からの情報を使って、前記グレースケール画像からの情報のための重みを決定する、
    請求項1〜6のいずれか1項に記載のイメージングシステム。
  11. 前記同期部(280)は、さらにユーザ要求に基づいて鮮明度情報を転写し、
    前記ユーザ要求は、3D効果、焦点距離の選択、合焦範囲の選択の実行を含むグループから選択される1つ又はそれ以上の項目に関わる、
    請求項9に記載のイメージングシステム。
  12. 前記イメージングシステムは、カメラシステム、デジタル望遠鏡、又はデジタル顕微鏡に提供される、
    請求項1〜11のいずれか1項に記載のイメージングシステム。
  13. 縦の色収差を特徴とするレンズ部(120)を用いて撮像されたシーンの少なくとも2つの色補正されていない第1の画像を取得し、前記第1の画像は異なる分光組成を持つこと、
    前記レンズ部(120)の撮像特性の情報に基づいて前記第1の画像から広域輝度鮮明度情報を算出すること、
    補正された画像を得るために前記第1の画像から色度情報を算出すること、
    同期部(280)を用いて出力画像を提供するために前記色度情報及び前記広域輝度鮮明度情報を合成すること、
    を含むイメージングシステムの操作方法。
  14. 前記広域輝度鮮明度情報を算出することは、
    デコンボリューション部(260)及び前記レンズ部(120)の点拡がり関数を用いて前記第1の画像のうちの少なくとも1つから導出されるグレースケール画像をデコンボリューションすること、
    を含む請求項13に記載のイメージングシステムの操作方法。
  15. 前記広域輝度鮮明度情報を算出することは、
    前記第1の画像に重みをつけること、
    前記重みは、点拡がり関数の結果が昼光以外の照明条件下で等しい重みを用いることによって得られるものよりもより少ない深度分散であるように照明条件に対応して選択されること、
    を含む請求項13又は14に記載のイメージングシステムの操作方法。
  16. 前記色度情報及び輝度情報を合成することは、
    前記色度情報を表す前記補正された画像及び前記広域輝度鮮明度情報を表すグレースケール画像をインターリーブすること、を含み、
    各補正された画像に対して、距離関数及び相似関数を用いて隣接ピクセル値に基づいてピクセル値は更新され、
    前記相似関数は各補正された画像及びグレースケール画像の両方の情報を用い、前記グレースケール画像からの情報に対して重みを決定する、
    請求項13〜15のいずれか1項に記載のイメージングシステムの操作方法。
JP2013548788A 2011-01-14 2012-01-13 レンズ部の縦の色収差を利用したイメージングシステム及びその操作方法 Expired - Fee Related JP5976676B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP11000283.9 2011-01-14
EP11000283 2011-01-14
EP11003573 2011-05-02
EP11003573.0 2011-05-02
PCT/EP2012/000143 WO2012095322A1 (en) 2011-01-14 2012-01-13 Imaging system using a lens unit with longitudinal chromatic aberrations and method of operating

Publications (2)

Publication Number Publication Date
JP2014507856A true JP2014507856A (ja) 2014-03-27
JP5976676B2 JP5976676B2 (ja) 2016-08-24

Family

ID=45757364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013548788A Expired - Fee Related JP5976676B2 (ja) 2011-01-14 2012-01-13 レンズ部の縦の色収差を利用したイメージングシステム及びその操作方法

Country Status (5)

Country Link
US (1) US9979941B2 (ja)
EP (1) EP2664153B1 (ja)
JP (1) JP5976676B2 (ja)
CN (1) CN103430551B (ja)
WO (1) WO2012095322A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016171088A1 (ja) * 2015-04-23 2016-10-27 富士フイルム株式会社 撮像装置及び撮像装置の画像処理方法及びプログラム
WO2016171087A1 (ja) * 2015-04-23 2016-10-27 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP2017536171A (ja) * 2014-11-06 2017-12-07 ソニー株式会社 軸上色収差を有するレンズを含む撮像システム、内視鏡及び撮像方法
US10339638B2 (en) 2015-04-23 2019-07-02 Fujifilm Corporation Image processing device, imaging device, image processing method, and image processing program
JP2019216376A (ja) * 2018-06-13 2019-12-19 キヤノン株式会社 画像処理装置、撮像装置、および画像処理方法
JP2020513880A (ja) * 2016-12-16 2020-05-21 ソニー株式会社 シーンの画像の撮影
CN114175615A (zh) * 2019-09-18 2022-03-11 索尼半导体解决方案公司 摄像器件、摄像系统和摄像方法
WO2023079842A1 (ja) * 2021-11-08 2023-05-11 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、撮像システム及び撮像処理方法

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012105222A1 (ja) * 2011-01-31 2012-08-09 パナソニック株式会社 画像復元装置、撮像装置及び画像復元方法
JP2013219705A (ja) * 2012-04-12 2013-10-24 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
FR3013491B1 (fr) * 2013-11-19 2016-01-15 Commissariat Energie Atomique Determination de la carte de profondeur image d'une scene
US10136107B2 (en) * 2013-11-21 2018-11-20 Semiconductor Components Industries, Llc Imaging systems with visible light sensitive pixels and infrared light sensitive pixels
US9940527B2 (en) * 2014-07-28 2018-04-10 Hyundai Mobis Co., Ltd. Driving assist system for vehicle and method thereof
JP2016170122A (ja) * 2015-03-13 2016-09-23 キヤノン株式会社 計測装置
CN105070270B (zh) * 2015-09-14 2017-10-17 深圳市华星光电技术有限公司 Rgbw面板子像素的补偿方法及装置
KR102391632B1 (ko) * 2016-06-07 2022-04-27 애어리3디 인크. 광 필드 이미징 장치 및 깊이 획득 및 3차원 이미징 방법
US10992917B2 (en) * 2016-06-17 2021-04-27 Sony Corporation Image processing device, image processing method, program, and image processing system that use parallax information
FR3056332A1 (fr) * 2016-09-21 2018-03-23 Stmicroelectronics (Grenoble 2) Sas Dispositif comportant un capteur d'image 2d et un capteur de profondeur
US11172172B2 (en) 2016-12-30 2021-11-09 Texas Instruments Incorporated Efficient and flexible color processor
WO2019048492A1 (en) 2017-09-08 2019-03-14 Sony Corporation IMAGING DEVICE, METHOD AND PROGRAM FOR PRODUCING IMAGES OF A SCENE
CN107911599B (zh) * 2017-10-30 2020-08-21 北京航天福道高技术股份有限公司 一种红外图像全局自动对焦方法及装置
CN109756713B (zh) * 2017-11-08 2021-12-21 超威半导体公司 图像捕获装置、执行处理的方法以及计算机可读介质
US10948715B2 (en) 2018-08-31 2021-03-16 Hellman Optics, LLC Chromatic lens and methods and systems using same
JP7301601B2 (ja) * 2019-05-24 2023-07-03 キヤノン株式会社 画像処理装置、撮像装置、レンズ装置、画像処理システム、画像処理方法、および、プログラム
CN111131798B (zh) * 2019-10-18 2021-06-01 华为技术有限公司 图像处理方法、图像处理装置以及摄像装置
US11601607B2 (en) 2020-07-27 2023-03-07 Meta Platforms Technologies, Llc Infrared and non-infrared channel blender for depth mapping using structured light
CN112465724B (zh) * 2020-12-07 2024-03-08 清华大学深圳国际研究生院 基于剪切波域的交叉通道先验信息的色差校正方法
CN116520095B (zh) * 2023-07-03 2023-09-12 昆明理工大学 故障测距方法、系统以及计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033060A (ja) * 2006-07-28 2008-02-14 Kyocera Corp 撮像装置および撮像方法、並びに画像処理装置
JP2010147926A (ja) * 2008-12-19 2010-07-01 Sanyo Electric Co Ltd 撮像装置
JP2010288150A (ja) * 2009-06-12 2010-12-24 Toshiba Corp 固体撮像装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6934408B2 (en) * 2000-08-25 2005-08-23 Amnis Corporation Method and apparatus for reading reporter labeled beads
US8339462B2 (en) * 2008-01-28 2012-12-25 DigitalOptics Corporation Europe Limited Methods and apparatuses for addressing chromatic abberations and purple fringing
JPWO2005018236A1 (ja) 2003-08-13 2006-10-12 スカラ株式会社 カメラ、画像処理装置、画像データ処理方法、及びプログラム
WO2006026354A2 (en) * 2004-08-25 2006-03-09 Newport Imaging Corporation Apparatus for multiple camera devices and method of operating same
US7224540B2 (en) 2005-01-31 2007-05-29 Datalogic Scanning, Inc. Extended depth of field imaging system using chromatic aberration
EP1856907A2 (fr) * 2005-03-07 2007-11-21 DXO Labs Procédé pour commander une action, notamment une modification de netteté, à partir d'une image numérique en couleurs
US7683950B2 (en) * 2005-04-26 2010-03-23 Eastman Kodak Company Method and apparatus for correcting a channel dependent color aberration in a digital image
US7792357B2 (en) * 2007-05-30 2010-09-07 Microsoft Corporation Chromatic aberration correction
EP2017591A1 (en) * 2007-07-18 2009-01-21 Fujifilm Corporation Imaging apparatus
KR101340518B1 (ko) * 2007-08-23 2013-12-11 삼성전기주식회사 영상의 색수차 보정 방법 및 장치
US8149319B2 (en) * 2007-12-03 2012-04-03 Ricoh Co., Ltd. End-to-end design of electro-optic imaging systems for color-correlated objects
JP5224804B2 (ja) * 2007-12-27 2013-07-03 三星電子株式会社 撮像装置
JP5132401B2 (ja) * 2008-04-16 2013-01-30 キヤノン株式会社 画像処理装置及び画像処理方法
US8866920B2 (en) * 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8760756B2 (en) * 2008-10-14 2014-06-24 Burnham Institute For Medical Research Automated scanning cytometry using chromatic aberration for multiplanar image acquisition
TW201119019A (en) * 2009-04-30 2011-06-01 Corning Inc CMOS image sensor on stacked semiconductor-on-insulator substrate and process for making same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033060A (ja) * 2006-07-28 2008-02-14 Kyocera Corp 撮像装置および撮像方法、並びに画像処理装置
JP2010147926A (ja) * 2008-12-19 2010-07-01 Sanyo Electric Co Ltd 撮像装置
JP2010288150A (ja) * 2009-06-12 2010-12-24 Toshiba Corp 固体撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN7015003538; PARMAR et al.: 'Interleaved Imaging: An Imaging System Design Inspired by Rod-Cone Vision' Proc. SPIE 7250, Digital Photography V Vol.7250, 20090119, 725008-1 - 25008-8, IS&T/SPIE Electronic Imaging *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017536171A (ja) * 2014-11-06 2017-12-07 ソニー株式会社 軸上色収差を有するレンズを含む撮像システム、内視鏡及び撮像方法
US10395347B2 (en) 2015-04-23 2019-08-27 Fujifilm Corporation Image processing device, imaging device, image processing method, and image processing program
US10634830B2 (en) 2015-04-23 2020-04-28 Fujifilm Corporation Imaging device, image processing method and program for imaging device
WO2016171087A1 (ja) * 2015-04-23 2016-10-27 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
CN107534732A (zh) * 2015-04-23 2018-01-02 富士胶片株式会社 图像处理装置、摄像装置、图像处理方法及图像处理程序
JPWO2016171088A1 (ja) * 2015-04-23 2018-03-15 富士フイルム株式会社 撮像装置及び撮像装置の画像処理方法及びプログラム
JPWO2016171087A1 (ja) * 2015-04-23 2018-03-15 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP6240813B2 (ja) * 2015-04-23 2017-11-29 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
WO2016171088A1 (ja) * 2015-04-23 2016-10-27 富士フイルム株式会社 撮像装置及び撮像装置の画像処理方法及びプログラム
US10339638B2 (en) 2015-04-23 2019-07-02 Fujifilm Corporation Image processing device, imaging device, image processing method, and image processing program
JP2020513880A (ja) * 2016-12-16 2020-05-21 ソニー株式会社 シーンの画像の撮影
US11510548B2 (en) 2016-12-16 2022-11-29 Sony Corporation Capturing an image of a scene
JP2019216376A (ja) * 2018-06-13 2019-12-19 キヤノン株式会社 画像処理装置、撮像装置、および画像処理方法
JP7171254B2 (ja) 2018-06-13 2022-11-15 キヤノン株式会社 画像処理装置、撮像装置、および画像処理方法
CN114175615A (zh) * 2019-09-18 2022-03-11 索尼半导体解决方案公司 摄像器件、摄像系统和摄像方法
WO2023079842A1 (ja) * 2021-11-08 2023-05-11 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、撮像システム及び撮像処理方法

Also Published As

Publication number Publication date
WO2012095322A1 (en) 2012-07-19
CN103430551B (zh) 2017-06-09
EP2664153A1 (en) 2013-11-20
EP2664153B1 (en) 2020-03-04
JP5976676B2 (ja) 2016-08-24
US20130278726A1 (en) 2013-10-24
US9979941B2 (en) 2018-05-22
CN103430551A (zh) 2013-12-04

Similar Documents

Publication Publication Date Title
JP5976676B2 (ja) レンズ部の縦の色収差を利用したイメージングシステム及びその操作方法
US9635275B2 (en) Flash system for multi-aperture imaging
US8805070B2 (en) Image processing apparatus and image processing method
CN102204258B (zh) 图像输入装置
CN102369721B (zh) 具有合成全色图像的彩色滤光器阵列(cfa)图像
KR20100025362A (ko) 높은 동적 범위를 가지는 영상을 생성하는 장치 및 방법
CN108370422A (zh) 利用单个矩阵传感器采集可见和近红外图像的系统和方法
JP5185253B2 (ja) デジタル画像上の相対照度現象の処理方法及び関連する処理システム
JP2011176710A (ja) 撮像装置
US9432642B2 (en) Imaging system and method having extended depth of field
JP2007006061A (ja) カラーフィルター及びそれを有する撮像装置
JP2007202128A (ja) 撮像装置および画像データ補正方法
US10395347B2 (en) Image processing device, imaging device, image processing method, and image processing program
WO2016111175A1 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP2011109620A (ja) 撮像装置および画像処理方法
US8804025B2 (en) Signal processing device and imaging device
JP2012010141A (ja) 画像処理装置
CN112335233B (zh) 图像生成装置以及摄像装置
JP5409158B2 (ja) 単板カラー2次元撮像素子を備える撮像装置
JP5920144B2 (ja) 撮像装置および撮像方法
ITMI20091990A1 (it) Metodo per adattare un sistema di acquisizione d'immagine ad una scena

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160720

R150 Certificate of patent or registration of utility model

Ref document number: 5976676

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees