JP2023033168A - 複数のイメージセンサを含む映像獲得装置、それを含む電子装置、及び映像獲得装置の制御方法 - Google Patents

複数のイメージセンサを含む映像獲得装置、それを含む電子装置、及び映像獲得装置の制御方法 Download PDF

Info

Publication number
JP2023033168A
JP2023033168A JP2022129504A JP2022129504A JP2023033168A JP 2023033168 A JP2023033168 A JP 2023033168A JP 2022129504 A JP2022129504 A JP 2022129504A JP 2022129504 A JP2022129504 A JP 2022129504A JP 2023033168 A JP2023033168 A JP 2023033168A
Authority
JP
Japan
Prior art keywords
image
sensor
processor
image sensor
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022129504A
Other languages
English (en)
Inventor
ウ-シク キム
Woo-Shik Kim
ヨンジュン ロ
Younggeun Roh
インファ リュ
Inhwan Ryu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2023033168A publication Critical patent/JP2023033168A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • H04N23/15Image signal generation with circuitry for avoiding or correcting image misregistration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/85Camera processing pipelines; Components thereof for processing colour signals for matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/745Circuitry for generating timing or clock signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/67Circuits for processing colour signals for matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/73Colour balance circuits, e.g. white balance circuits or colour temperature control

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

【課題】複数のイメージセンサを含む映像獲得装置、及びそれを含む電子装置を提供する。【解決手段】第1波長帯域に基づくの第1映像を獲得する第1イメージセンサ、10nmないし1,000nmの第2波長帯域に基づくの第2映像を獲得する第2イメージセンサ、及び第1イメージセンサ及び第2イメージセンサからそれぞれ出力された第1映像と第2映像とを整合し、第2映像から推定された照明値を利用し、整合された映像について色変換を行うプロセッサを含む映像獲得装置である。【選択図】図1

Description

本発明は、複数のイメージセンサを含む映像獲得装置、それを含む電子装置、及び映像獲得装置の制御方法に関する。
映像センサは、被写体から入射される光を受光し、受光された光を光電変換し、電気的信号を生成する装置である。
映像センサは、カラー表現のために、通常、赤色光、緑色光、青色光を選択的に透過させるフィルタ要素のアレイからなるカラーフィルタを使用し、各フィルタ要素を透過した光の量をセンシングした後、映像処理を介し、被写体に係わるカラー映像を形成する。
該映像センサを介してセンシングされた値は、照明によって影響を受けるために、カメラによって撮影された映像のカラーも、照明によって影響を受けることになる。そのような影響をなくし、できる限り物体固有の色を撮影させる技術を、ホワイトバランスと言う。
従来のホワイトバランス技術は、RGB映像を撮影した後、その映像内情報を分析し、ホワイトバランスを行う。そのような方法は、グレイワールド仮定(gray world assumption)、すなわち、映像のR,G,Bチャネル別平均値が同一であるという仮定、または他の制約事項があるために、そのような制約事項を満足させることができない状況においては、正しく動作しないものでもある。
本発明が解決しようとする課題は、複数のイメージセンサを含む映像獲得装置、それを含む電子装置、及び映像獲得装置の制御方法を提供することである。
一実施形態による映像獲得装置は、第1波長帯域に基づく第1映像を獲得する第1イメージセンサと、10nmないし1,000nmの第2波長帯域に基づく第2映像を獲得する第2イメージセンサと、前記第1イメージセンサ及び前記第2イメージセンサからそれぞれ出力された前記第1映像と前記第2映像とを整合し、前記第2映像から推定された照明値を利用し、前記整合された映像について色変換を行うプロセッサと、を含む。
前記プロセッサは、前記第1映像を一または複数の領域に分割して、前記第1映像の分割されたそれぞれの領域に対応する第2映像の領域毎に、それぞれの照明値を推定し、前記第2映像の領域毎に推定されたそれぞれの照明値を利用し、前記第1映像の分割されたそれぞれの領域について前記色変換を行う。
前記プロセッサは、前記第2映像の領域毎に推定されたそれぞれの照明値のうち、隣接した領域の照明値との差が第1臨界値以上である場合、前記差が、前記第1臨界値より小さくなるように、隣接した領域の照明値のうちいずれか1つの照明値を調整する。
前記プロセッサは、前記色変換を行った後、前記隣接した領域の境界部分につき、後処理(post-processing)を行う。
前記プロセッサは、前記第1イメージセンサ及び前記第2イメージセンサそれぞれの解像度、画角及び焦点距離のうちの少なくとも一つに基づいて、前記第1映像と前記第2映像との整合のためのパラメータを算出する。
前記プロセッサは、前記第2イメージセンサから出力された複数のチャネルから得られたスペクトル情報を利用し、前記照明値を推定する。
前記プロセッサは、既定の照明値に係わる第2映像が学習されたニューラルネットワークを利用し、前記第2イメージセンサから獲得された第2映像に係わる前記照明値を推定する。
前記プロセッサは、前記第1映像及び前記第2映像それぞれの特徴(feature)を抽出し、前記抽出された特徴をマッチングさせることにより、前記第1映像と前記第2映像との整合を行う。
前記プロセッサは、前記第1映像及び前記第2映像の画素グループ単位、画素単位またはサブ画素単位で、前記第1映像と前記第2映像との整合を行う。
前記第1イメージセンサは、複数の第1センシング要素がアレイされた第1センサ層と、前記第1センサ層上に配され、交互配列された赤色フィルタ、緑色フィルタ、青色フィルタを含むカラーフィルタと、を具備する第1画素アレイを含み、前記第2イメージセンサは、複数の第2センシング要素がアレイされた第2センサ層と、前記第2センサ層上に配され、透過波長帯域が異なる複数のユニットフィルタからなるフィルタグループが反復配列された分光フィルタと、を具備する。
前記複数のユニットフィルタそれぞれの透過波長帯域は、可視光線を含み、該可視光線より広い範囲の波長帯域に含まれ、前記フィルタグループは、4×4アレイ形態に配列される16個のユニットフィルタを含む。
前記第1画素アレイと前記第2画素アレイは、同じ回路基板上に、水平に離隔されて配される。
前記第1センサ層からの信号を処理する第1回路要素と、前記第2センサ層からの信号を処理する第2回路要素とが、前記回路基板に具備される。
前記映像獲得装置は、前記第1回路要素、前記第2回路要素の動作を同期させるタイミングコントローラをさらに含む。
前記映像獲得装置は、前記第1映像に係わるデータを保存する第1メモリと、前記第2映像に係わるデータを保存する第2メモリと、をさらに含む。
前記第1メモリ及び前記第2メモリが前記回路基板内に具備される。
前記映像獲得装置は、被写体の光学像を前記第1イメージセンサに形成するものであり、1以上のレンズを含む、第1イメージング光学系;及び前記被写体の光学像(optical image)を前記第2イメージセンサに形成するものであり、1以上のレンズを含む第2イメージング光学系をさらに含む。
前記第1イメージング光学系と前記第2イメージング光学系は、同じ焦点距離、及び同じ画角を有するように設定される。
他の実施形態による電子装置は、前記映像獲得装置を含む。
さらに他の実施形態による複数のイメージセンサを利用した映像獲得装置の制御方法は、第1イメージセンサ及び第2イメージセンサからそれぞれ第1映像及び第2映像を獲得する段階と、前記獲得された第1映像と第2映像とを整合する段階と、前記第2映像から推定された照明値を利用し、前記整合された映像について色変換を行う段階と、を含む。
本実施形態による映像獲得装置は、互いに異なる種類の2つのイメージセンサを活用し、特定制約条件なしに、1以上の照明環境の影響下においても、正確なホワイトバランスを遂行することができる。
前述の映像獲得装置は、多様な電子装置にも採用される。
一実施形態による映像獲得装置の概略的な構造を示すブロック図である。 図1に示された映像獲得装置の詳細ブロック図である。 図1に示された映像獲得装置の概略的な構造を示す概念図である。 一実施形態による映像獲得装置に具備される第1イメージセンサ、第2イメージセンサの回路構成を示した図である。 一実施形態による映像獲得装置に具備される第1イメージセンサによる波長スペクトルを示した図である。 一実施形態による映像獲得装置に具備される第1イメージセンサの例示的な画素配列を示した図である。 一実施形態による映像獲得装置に具備される第1イメージセンサの例示的な画素配列を示した図である。 一実施形態による映像獲得装置に具備される第1イメージセンサの例示的な画素配列を示した図である。 一実施形態による映像獲得装置に具備される第2イメージセンサによる波長スペクトルを示した図である。 一実施形態他の映像獲得装置に具備される第2イメージセンサの例示的な画素配列を示した図である。 一実施形態他の映像獲得装置に具備される第2イメージセンサの例示的な画素配列を示した図である。 一実施形態他の映像獲得装置に具備される第2イメージセンサの例示的な画素配列を示した図である。 他の実施形態による映像獲得装置の制御方法について概略的に説明するフローチャートである。 一実施形態による電子装置の概略的な構造を示すブロック図である。 図14の電子装置に具備されるカメラモジュールを概略的に示したブロック図である。 一実施形態による映像獲得装置が適用された電子装置の多様な例を示す図である。 一実施形態による映像獲得装置が適用された電子装置の多様な例を示す図である。 一実施形態による映像獲得装置が適用された電子装置の多様な例を示す図である。 一実施形態による映像獲得装置が適用された電子装置の多様な例を示す図である。 一実施形態による映像獲得装置が適用された電子装置の多様な例を示す図である。 一実施形態による映像獲得装置が適用された電子装置の多様な例を示す図である。 一実施形態による映像獲得装置が適用された電子装置の多様な例を示す図である。 一実施形態による映像獲得装置が適用された電子装置の多様な例を示す図である。 一実施形態による映像獲得装置が適用された電子装置の多様な例を示す図である。 一実施形態による映像獲得装置が適用された電子装置の多様な例を示す図である。
以下、添付図面を参照し、実施形態について詳細に説明する。説明される実施形態は、単に例示的なものに過ぎず、そのような実施形態から、多様な変形が可能である。以下の図面において、同一参照符号は、同一構成要素を称し、図面上において、各構成要素の大きさは、説明の明瞭さと便宜さとのためにも誇張されている。
以下において、「上部」や「上」と記載されたところは、接触して真上にあるものだけではなく、非接触で上にあるものも含みうる。
第1、第2のような用語は、多様な構成要素の説明に使用されうる、1つの構成要素を他の構成要素から区別する目的のみに使用される。そのような用語は、構成要素の物質または構造が異なることを限定するものではない。
単数の表現は、文脈上明白に異なって意味しない限り、複数の表現を含む。また、ある部分がある構成要素を「含む」とするとき、それは、特別に反対となる記載がない限り、他の構成要素を除くものではなく、他の構成要素をさらに含みうるということを意味する。
また、明細書に記載され「…部」、「モジュール」というような用語は、少なくとも1つの機能や動作を処理する単位を意味し、それは、ハードウェアまたはソフトウェアによっても具現されるか、あるいはハードウェアとソフトウェアとの結合によっても具現される。
「前記」の用語、及びそれと類似した指示用語の使用は、単数及び複数のいずれにも該当するものでもある。
方法を構成する段階は、説明された順に行わなければならないという明白な言及がなければ、適当な順序によっても遂行される。また、全ての例示的な用語(例:「例えば」)の使用は、単に技術的思想について詳細に説明するためのものであり、請求項によって限定されない以上、そのような用語により、権利範囲が限定されるものではない。
一般的に、カメラでセンシングされる値は、次の数式1のように、照明、物体の色相、及びカメラ反応の積でもって示すことができる。
Figure 2023033168000002
センシングされた値は、照明によって影響を受けるために、カメラに撮影された映像のカラーも、照明によって影響を受けることになる。そのような影響をなくし、できる限り物体固有の色を撮影するようにすることがホワイトバランスである。
スマートフォンを含む映像撮影装置は、光をR、G、Bの三種類スペクトルにセンシングする。そして、該三種類のセンシングされた値を使用し、変換を行うことにより、表現する色相を作り出す。既存の方法においては、RGB映像を撮影した後、その映像内情報を分析し、ホワイトバランスを行う。そのような方法には、グレイワールド仮定(gray world assumption)、または他の制約事項があるために、そのような制約事項を満足させることができない状況においては、正しく動作しないのである。
また、既存の方法においては、RGBカメラを使用して映像を取得した後、その映像の情報を使用し、ホワイトバランスを遂行していた。該RGBカメラは、基本的に、三種色相のスペクトルについてセンシングし、各色相につき、広帯域フィルタ(wide band filter)を使用するために、正確なスペクトル情報を得るのに限界がある。従って、正確なホワイトバランス遂行にも限界がある。そのような限界は、特に、1以上の照明が被写体に照らされる場合に生じるが、従来技術においては、それぞれの照明分離に限界があるためである。例えば、ある人を撮影するとき、左側窓を介して自然光が入り、右側においては、室内に他の照明があるならば、その人の右側と左側との顔色が異なるように示される現象が生じうる。また、特定色がシーン(scene)にドミナント(dominant)である場合にも、誤差が生じるが、例えば、雪を背景にしたスキー場写真などにおいて、雪色相が実際の色相と異なるように示される場合を挙げることができる。
一実施形態による映像獲得装置は、ホワイトバランスを正確に遂行するために、マルチスペクトラルイメージ(MSI:multispectral image)センサを使用し、照明と物体との色を分離し、物体の正確な色相を求めた後、その情報、すなわち、照明値を使用し、RGB映像につき、色変換またはカラーマッピングを行い、ホワイトバランスを遂行する。
図1は、一実施形態による映像獲得装置の概略的な構造を示すブロック図である。
図1を参照すれば、映像獲得装置は、第1イメージセンサ100、第2イメージセンサ200及びプロセッサ500を含む。一実施形態による映像獲得装置は、複数のイメージセンサを利用し、撮影される映像についてホワイトバランスを正確に遂行する。第1イメージセンサ100は、第1波長帯域の第1映像を獲得する。第2波長帯域は、該第1波長帯域を含み、それよりさらに広いものである。第2イメージセンサ200は、第2波長帯域の第2映像を獲得する。ここで、第1イメージセンサ100は、RGBイメージセンサであり、第2イメージセンサ200は、マルチスペクトラルイメージ(MSI)センサでもある。該RGBイメージセンサは、Rチャネル、Gチャネル及びBチャネルを有する。該MSIセンサは、RGBセンサよりもさらに多数のチャネルを有することにより、さらに多くの波長帯域の光をセンシングする。
プロセッサ500は、第1イメージセンサ100及び第2イメージセンサ200からそれぞれ出力された第1映像と第2映像とを整合し、該第2映像から推定された照明値を利用し、整合された映像について色変換を行う。
また、プロセッサ500は、第1映像を、一または複数の領域に分割し、該第1映像の分割されたそれぞれの領域に対応する第2映像の領域毎に、それぞれの照明値を推定し、該第2映像の領域毎に推定されたそれぞれの照明値を利用し、該第1映像の分割されたそれぞれの領域について色変換を行うこともできる。
また、プロセッサ500は、第2映像の領域毎に推定されたそれぞれの照明値のうち、隣接した領域の照明値との差が第1臨界値以上である場合、該差が第1臨界値より小さくなるように、隣接した領域の照明値のうち、いずれか1つの照明値を調整することができる。その場合、プロセッサ500は、色変換を行った後、隣接した領域の境界部分につき、後処理(post-processing)を行うこともできる。
図2は、図1に図示された映像獲得装置の詳細ブロック図である。
図2を参照すれば、映像獲得装置は、第1波長帯域に基づく第1映像IM1を獲得する第1イメージセンサ100、第2波長帯域に基づく第2映像IM2を獲得する第2イメージセンサ200、及び第1映像IM1と第2映像IM2とを信号処理し、第3映像IM3を生成するプロセッサ500を含む。ここで、第3映像IM3は、第1イメージセンサ100から獲得された第1映像についてホワイトバランスが遂行された映像、または第1イメージセンサ100から獲得された第1映像と、第2イメージセンサ200から獲得された第2映像とを整合した映像についてホワイトバランスが遂行された映像である。
第1イメージセンサ100は、一般的なRGBカメラに採用されるセンサであり、ベイヤーカラーフィルタアレイを使用するCMOS(complementary metal oxide semiconductor)イメージセンサでもある。第1イメージセンサ100が獲得する第1映像IM1は、赤色,緑色,青色を表すRGB映像でもある。第1イメージセンサ100は、一般的に、380nmないし780nmの帯域幅を有する。
第2イメージセンサ200は、第1イメージセンサ100よりさらに多種波長の光をセンシングするセンサである。第2イメージセンサ200は、例えば、16個のチャネルを使用することができ、あるいは31個のチャネル、またはその他個数のチャネルを使用することができる。第2イメージセンサ200は、第1イメージセンサ100より多くのチャネルを有することができる。各チャネルの帯域幅は、R,G,B帯域よりさらに狭く設定され、全てのチャネルの帯域幅を合わせた全体帯域幅は、RGB帯域幅、すなわち、可視光線帯域幅を含み、それより広いものである。例えば、第2イメージセンサ200は、10nmないし1,000nmの帯域幅を有することができる。また、350nmないし1,000nmの帯域幅を有することもできる。第2イメージセンサ200が獲得する第2映像IM2は、マルチスペクトラル映像または超分光(hyperspectral)映像でもあり、RGB波長帯域より広い波長帯域、例えば、可視光線帯域を含み、それより広い波長帯域である紫外線波長帯域ないし赤外線波長帯域を、16個以上のチャネルに分割した波長に基づく映像でもある。第2映像IM2は、第2イメージセンサ200の可用なあらゆる数のチャネルを活用して取得した映像でもあり、または特定チャネルを選別して取得した映像でもある。第2映像IM2の空間解像度は、第1映像IM1の空間解像度よりも低いが、ただし、それに限定されるものではない。
一実施形態において、第1イメージセンサ100は、RGBセンサであり、第2イメージセンサ200は、MSIセンサでもある。このとき、RGBセンサは、CMOSイメージセンサでもある。該RGBセンサは、ベイヤーカラーフィルタアレイを使用し、R、G、Bを示すスペクトルをそれぞれセンシングした三種チャネルの映像を生成することができる。また、他種カラーフィルタアレイを使用することができるということは、言うまでもない。該MSIセンサは、RGBセンサとは異なる波長の光をセンシングして示す。該MSIセンサは、チャネル数をさらに多く有することにより、さらに多種波長の光をセンシングすることを特徴とする。特定例において、チャネル数は、16個のチャネルを使用することができる。他例において、31個のチャネルを使用することができる。各チャネルは、所望する帯域の光をセンシングするように、光が透過する帯域、透過量及び帯域幅を調整することができる。全チャネルの帯域幅を合わせて構成される全体帯域幅は、既存のRGBセンサの帯域幅を含み、それよりさらに広いのである。該RGBセンサと該MSIセンサとのセンシングスペクトルまたは波長帯域は、図5及び図9を参照して後述する。
第1イメージセンサ100と第2イメージセンサ200は、それぞれ別個のチップによっても構成され、または単一チップによっても構成される。
一実施形態において、異種センサ間の互いに異なる解像度、出力速度及び映像整合に必要な領域の大きさにより、タイミング制御(timing control)を行うことができる。例えば、RGBセンサに基づく動作において、1つのRGB映像列を読み取るとき、その領域に該当するMSIセンサの映像列は、すでにバッファに保存されてもおり、あるいは新たに読み取らなければならないものでもある。そのようなタイミングを計算してセンシングされた信号をリードアウト(read out)することができる。または、2つのセンサの動作は、同じ同期化(synchronization)信号を使用しても同期される。そして、2つのセンサが同位置の被写体に焦点が合わされるように焦点制御を行うことができる。
一実施形態において、MSIセンサで映像を取得するとき、全チャネル、例えば、16個チャネルについて映像を取得するか、あるいは特定チャネルだけ選別して取得することができる。センサ画素の区間化(binning)を行うか、あるいは映像取得後、特定チャネルを選択したり合成したりすることを介し、一部所望するチャネルだけ使用することもできる。
第1メモリ300は、第1イメージセンサ100からリードアウトされた第1映像IM1を保存する。第2メモリ310は、第2イメージセンサ200からリードアウトされた第2映像IM2を保存する。
各センサにおいて映像は、ライン単位で読み取られ、順次に保存される。第1メモリ300及び第2メモリ310は、映像を各ライン単位で保存するラインメモリであるか、あるいは映像全体を保存するフレームバッファでもある。
一実施形態において、映像を出力するとき、RGB映像だけ出力し、RGB映像は、フレームバッファに保存し、MSI映像は、ラインバッファに保存し、ライン単位でプロセッシングした後、該フレームバッファにあるRGB映像をアップデートすることもできる。メモリ300及び310は、SRAM(static random access memory)、またはDRAM(dynamic random access memory)を使用することができるが、該メモリの種類に限定があるものではない。
それぞれのメモリ300及び310は、センサ外部に位置することができ、あるいはセンサ内部にも集積される。該センサ内部に集積される場合、該メモリは、センサ回路のようにも集積されるが、このとき、画素部と、その以外の部分である回路部と、メモリとをそれぞれのスタックによって構成し、2スタックに集積し、1つのチップで構成することができる。または、画素部、回路部、メモリの3層を有する3スタックで具現することもできる。
一実施形態において、第1イメージセンサと第2イメージセンサとから獲得された第1映像及び第2映像を、それぞれ異なるメモリに保存すると説明されたが、それに限定されるものではなく、1つのメモリに保存することができるということは、言うまでもない。
プロセッサ500は、映像整合部510、照明推定部520及び色相変換部530を含む。図示されていないが、プロセッサ500は、映像信号処理部(ISP:image signal processor)をさらに含むものでもある。該映像信号処理部は、第1イメージセンサ100及び第2イメージセンサ200からそれぞれ映像を取得した後、それぞれのメモリに保存される前、または保存された後、基本的な映像処理を行うことができる。例えば、不良画素補正(bad pixel correction)、固定パターンノイズ補正(fixed pattern noise correction)、クロストーク低減(crosstalk reduction)、リモサイシング(remosaicing)、デモザイシング(demosaicing)、偽色低減(false color reduction)、ノイズ除去(denoising)、色収差補正(chromatic aberration correction)などを遂行することができる。
また、プロセッサ500またはISPは、第1イメージセンサ及び第2イメージセンサに、同一映像処理を施してもよく、異なる映像処理を施してもよい。
一実施形態において、プロセッサ500は、ホワイトバランスを正確に遂行するために、MSIセンサを使用し、照明と物体色とを分離させ、物体の正確な色相を求めた後、照明値を利用し、RGBセンサから獲得された映像の色、または整合された映像の色の色変換(color conversion)を行い、ホワイトバランスを調節する。プロセッサ500の具体的な機能につき、さらに詳細に説明する。
映像整合部510は、第1イメージセンサ100及び第2イメージセンサ200からそれぞれ出力された第1映像IM1と第2映像IM2とを整合する。
映像整合部510は、第1イメージセンサ100と第2イメージセンサ200との相対的位置情報を活用し、第1映像IM1と第2映像IM2とを整合(image registration)することができる。映像整合部520は、第1イメージセンサ100、第2イメージセンサ200で獲得された映像の空間解像度(spatial resolution)、映像獲得に使用された光学系の画角(field of view)、焦点距離(focal length)などを考慮し、映像の各画素間位置関係を把握する。このとき、1センサ(例えば、第1または第2イメージセンサ)の映像を基準にし、他センサの映像を、その上にオーバレイ(overlay)することができる。例えば、第1イメージセンサ100が獲得した第1映像IM1を基準にし、前記第1映像IM1の各画素につき、それに対応する第2映像IM2の画素を求めることができる。そのために、第2映像IM2の画素につき、スケール変換(scaling)、移動変換(translation)、回転変換(rotation)、アファイン変換(affine transform)、遠近変換(perspective transform)などを行うことができる。
また、第2映像IM2の一または複数の画素が、第1映像IM1の画素に対応し、第2映像IM2の複数の画素を、位置に応じた所定の比率で混合することにより、第1映像の画素に対応する第2映像IM2の画素値を生成することができる。第2映像IM2のチャネルに基づく画像を映像整合に使用してもよい。整合の精度を高めるために、サブ画素(sub-pixel)単位で整合を行うことができる。該サブ画素単位の整合においては、画素の位置は、整数に代えて、実数を用いて表現されてもよい。
映像整合部510は、焦点制御を介し、第1イメージセンサ100と第2イメージセンサ200とが同じ位置の被写体に焦点を合わせるようにし、整合の効率を高めることができる。そして、2つのセンサが同じ画角を有するようにし、映像整合遂行を、迅速であって正確に行わせる。例えば、第1イメージセンサ100と第2イメージセンサ200とに、光学像を形成させるためのイメージング光学系が、同じ焦点距離と、同じ画角とを有する場合、第1映像IM1と第2映像IM2とには、平行移動だけ存在し、パラメータは、第1イメージセンサ100と第2イメージセンサ200との相対的位置、及び各光学系の焦点距離を使用しても計算される。
第2映像IM2の空間解像度が、第1映像IM1の空間解像度より高い場合、第2映像IM2をダウンサンプリングし、映像整合を行うことができる。このとき、バイラテラルフィルタリング(bi-lateral filtering)、ガイデッドフィルタリング(guided filtering)のように、エッジ情報を考慮したフィルタリングを使用し、ダウンサンプリングすることにより、映像整合をさらに正確に行うことができる。
第2映像IM2の空間解像度が、第1映像IM1の空間解像度より低い場合、補間(interpolation)によって、第1映像の各画素位置に対応する第2映像サンプルをチャネル毎に生成することができる。同様に、バイラテラルフィルタリング、ガイデッドフィルタリングなどを用いて、エッジ情報を考慮した補間がなされてもよい。
または、第2映像IM2の空間解像度を第1映像IM1の空間解像度と同じになるように調整した後、映像整合を行うことができる。2つの映像の解像度が同一であるように、デモザイシング(demosaicing)を行うことができる。その場合、2つのイメージセンサに、光学像をそれぞれ形成させる2つの光学系が、同じ焦点距離と画角とを有せば、補間を考慮することなく、平行移動(translation)だけ考慮し、映像整合を行うことができる。例えば、第1イメージセンサ100と第2イメージセンサ200とが同じ焦点と、同じ画角とを有するならば、各センサを使用して取得された映像間には、平行移動だけ生じることになり、平行移動パラメータは、2センサ間の相対的位置を含むカメラ外部パラメータ(camera extrinsic parameter)と、焦点距離を含むカメラ内部パラメータ(camera intrinsic parameter)とを使用して計算することができる。
整合を行う前、第1映像IM1、第2映像IM2に含まれた収差を補正することができる。すなわち、第1映像IM1、第2映像IM2を獲得するときに使用されるイメージング光学系に含まれたレンズによる、歪曲、幾何収差、色収差のような影響を補正(correction)した後、整合を行うことができる。
映像整合部510は、映像内エッジ特徴(edge feature)情報を抽出し、2映像間の特徴をマッチングさせることができる。被写体の境界領域において、映像整合が食い違う場合、カラー歪曲(color distortion)が生じうるために、エッジ情報を抽出し、2映像間エッジが整列(align)されるように整合を行い、境界領域で歪曲が生じないように処理することができる。エッジ以外に、コーナー点(corner points)のような他の映像特徴を使用し、映像整合を行うことができる。
また、映像整合部510は、画素単位で映像整合を行う代わりに、画素グループ単位で映像整合を行うことができる。例えば、RGB映像の画素をグループに分類した後、各グループに対応するMSI映像のグループをマッチングし、映像整合を行うことができる。
ここで、該画素グループは、一定の大きさと形態とのパターンを有することができる。該パターンは、例えば、ライン形態、または四角形のブロック形態でもある。特定例において、RGB映像を四角形領域に分割した後、領域毎に対応するMSI領域を探した後、その領域のMSI情報を使用し、ホワイトバランスを遂行し、その結果として探した情報を使用し、当該RGB領域映像を変換することができる。該画素グループは、前景客体(foreground object)領域と背景(background)領域とに区分されうる。該画素グループは、関心領域(ROI:region of interest)とnon-ROI領域とに区分されうる。また、該画素グループは、映像分割(image segmentation)または色相分布を考慮して区分されうる。
照明推定部520は、第2イメージセンサ200から獲得された第2映像から照明値を推定する。照明推定部520は、MSIセンサの映像から、多数のチャネルからなるスペクトル情報を使用し、照明推定(illumination estimation)を行う。そのために、照明と、客体の表面反射(surface reflectance)は、スペクトル分解(spectral decomposition)を介し、照明(E)は、次の数式2により、物体の色相(S)は、次の数式3によって表現することができる。
Figure 2023033168000003
Figure 2023033168000004
この二つの積が色相を示し、第2イメージセンサ200を介してセンシングされた値は、次の数式4-1、4-2のように表現することができる。
Figure 2023033168000005
ここで、mとnは、それぞれ照明と物体色相とのスペクトルをスペクトル分解したときに使用した基底ベクトル(basis vector)の数であり、xは、空間位置(spatial position)を示し、kは、チャネルインデックス(index)を示す。そのような線形方程式につき、非線形最適化(non-linear optimization)技法などを使用して解を求め、照明のスペクトルを推定することができる。
また、選択的には、照明推定部520は、ニューラルネットワークを使用し、照明推定を行うことができる。既定の照明値に係わるMSIセンサ映像を学習させ、ニューラルネットワークを構築し、照明推定を行う。学習された後には、ニューラルネットワークの入力として、MSIセンサ映像を得て、出力として、照明値を得る。
照明推定部520は、映像を画素グループに分割し、領域毎に、照明推定を行うことができる。このとき、使用する画素グループは、映像整合部510で使用する画素グループのような画素グループを使用することができる。
照明推定部520は、照明推定を行った結果を、波長による照明の関数で示しうる。または、事前に定義された基本関数(basis function)につき、波長による照明の関数をスペクトル分解したとき、各基本関数の係数(coefficient)でもっても示される。また、照明の色温度(color temperature)インデックスでもっても示される。ここで、該色温度は、光源の光を数値的に表示する方法であり、表示単位は、K(Kelvin)を使用する。該色温度は、照明の種類によって異なり、該色温度が低いほど、赤色を帯び、該色温度が高いほど、青色を帯びることになる。
また、事前に波長による照明の関数集合を定義し、そのうち、最も近似した関数のインデックスを出力することができる。ニューラルネットワークを使用する場合にも、そのように出力を定義し、定められた出力について学習を遂行し、ニューラルネットワークを構成することができる。
また、照明推定部520は、第1イメージセンサから獲得された第1映像と、第2イメージセンサから獲得された第2映像とをいずれも使用し、照明推定を行うことができる。このとき、第1映像と第2映像とをそれぞれ別途に使用して照明推定を行った後、それぞれの結果を混合することもできる。
または、多重チャネルを使用し、照明推定を行うとき、第2映像のチャネルと、第1映像のチャネルとをいずれも考慮し、照明推定を行うことができる。
また、ニューラルネットワークを使用する場合、特定照明に係わる第1映像、すなわち、RGB映像と、第2映像、すなわち、MSI映像との反応をいずれも考慮し、学習させることができる。その場合、ニューラルネットワークの入力は、RGB映像とMSI映像とになり、出力は、推定された照明値になる。
色相変換部530は、映像整合部510で整合された映像について、照明推定部520で推定された照明値を利用して色変換を行う。
色相変換部530は、映像整合部510及び照明推定部520で使用された画素グループ毎に、カラーマッピングを行う。ここで、該カラーマッピングの入力は、各画素のR,G,B値であり、出力は、入力値が照明を考慮して補正されたR’,G’,B’値である。入力ベクトルI=[RGB]を、出力ベクトルI’=[R’G’B’]に変換するための方法として、3×3マトリックス演算でもあり、次の数式5の通りである。
Figure 2023033168000006
ここで、Mは、R、G、Bを独立させて考慮した対角行列(diagonal matrix)でもある。または、R、G、Bを混合し、R’、G’、B’を生成する非対角行列(non-diagonal matrix)でもある。または、3×3行列以外に、R、G、B間の交差項(cross-term)を考慮するか、あるいは二次項を考慮した行列でもある。その場合、入力ベクトルIは、R、G、B以外に、交差項または二次項を含んで構成される。そのような行列は、色温度により、既定の行列を使用することができる。または、既定の照明関数に係わるインデックスによって定められた行列を使用することができる。または、さらに正確な結果を得るために、照明関数を使用し、非線形最適化を行い、最適化された行列を作ることもできる。
色相変換部530は、領域毎に色相を変換した後、互いに隣接した領域において、境界欠陥(boundary artifact)が生じないようにすることができる。そのために、隣接した領域間に、照明関数差が既定値より大きくないようにする。また、色相変換を行った後、境界領域について後処理を介し、色相変換がソフトになるようにすることもできる。
図3は、一実施形態による映像獲得装置の概略的な構造を示す概念図であり、図4は、一実施形態による映像獲得装置に具備される第1イメージセンサ、第2イメージセンサの回路構成を示す。
映像獲得装置1000は、第1波長帯域に基づく第1映像IM1を獲得する第1イメージセンサ100、第2波長帯域に基づく第2映像IM2を獲得する第2イメージセンサ200、並びに第1映像IM1及び第2映像IM2を信号処理し、第3映像を生成するプロセッサ500を含む。映像獲得装置1000は、また、第1映像IM1に係わるデータが保存される第1メモリ300と、第2映像IM2に係わるデータが保存される第2メモリ310と、をさらに含み、映像を出力する映像出力部700をさらに含むものでもある。
映像獲得装置1000は、また、第1イメージセンサ100に、被写体OBJの光学像を形成する第1イメージング光学系190と、第2イメージセンサ200に、被写体OBJの光学像を形成する第2イメージング光学系290と、を含むものでもある。第1イメージング光学系190及び第2イメージング光学系290は、それぞれ1つのレンズを含むように図示されているが、それは、例示的なものであり、それに限定されるものではない。第1イメージング光学系190及び第2イメージング光学系290は、同じ焦点距離と、同じ画角とを有するようにも構成され、その場合、第3映像IM3を形成するために、第1映像IM1と第2映像IM2とを整合する過程が、さらに容易でもある。ただし、それに限定されるものではない。
第1イメージセンサ100は、第1画素アレイPA1を含み、第1画素アレイPA1は、複数の第1センシング要素がアレイされた第1センサ層110と、第1センサ層110上に配されたカラーフィルタ120と、を含む。カラーフィルタ120は、交互配列された赤色フィルタ、緑色フィルタ、青色フィルタを含むものでもある。第1画素アレイPA1上には、第1マイクロレンズアレイ130が配されうる。第1画素アレイPA1に適用される画素配列の多様な例示は、図5ないし図8を参照して後述する。
第2イメージセンサ200は、第2画素アレイPA2を含み、第2画素アレイPA2は、複数の第2センシング要素がアレイされた第2センサ層210と、第2センサ層210上に配された分光フィルタ220と、を含む。分光フィルタ220は、複数のフィルタグループを含み、複数のフィルタグループそれぞれは、透過波長帯域が異なる複数のユニットフィルタによってもなる。分光フィルタ220は、カラーフィルタ120より広い波長帯域、例えば、紫外線波長範囲または赤外線波長範囲の波長帯域を、カラーフィルタ120より細分してフィルタリングするようにも構成される。第2画素アレイPA2上には、第2マイクロレンズアレイ230が配されうる。第2画素アレイPA2に適用される画素配列の例示は、図10ないし図12を参照して後述する。
第1センサ層110、第2センサ層210は、CCD(charge coupled device)センサまたはCMOSセンサを含むが、それらに限定されるものではない。
第1画素アレイPA1と第2画素アレイPA2は、同じ回路基板SU上に水平に、例えば、X方向に離隔されても配される。
回路基板SUには、第1センサ層110からの信号を処理する第1回路要素と、第2センサ層210からの信号を処理する第2回路要素と、が具備されうる。ただし、それに限定されるものではなく、第1回路要素及び第2回路要素は、それぞれ別途の基板に具備されることも可能である。
第1映像IM1及び第2映像IM2に係わるデータが保存される第1メモリ300及び第2メモリ310は、回路基板SUと別個に図示されているが、それは例示的なものであり、回路基板SU内に、回路要素のような層、または別途の層に区分されても配される。
第1メモリ300及び第2メモリ310は、映像をライン単位で保存するラインメモリでもあり、映像全体を保存するフレームバッファでもある。第1メモリ300及び第2メモリ310には、SRAMまたはDRAMが使用されうる。
回路基板SUに、映像獲得装置1000に必要な多様な回路要素が集積配置されうる。例えば、多様なアナログ回路、デジタル回路を含むロジックレイヤが具備され、データが保存されるメモリレイヤが具備されうる。該ロジックレイヤードとメモリレイヤは、他層に構成されるか、あるいは同じ層にも構成される。
図4を参照すれば、第1画素アレイPA1に、ロウデコーダ102、出力回路103、タイミングコントローラ(TC)101が連結される。ロウデコーダ102は、タイミングコントローラ101から出力されたロウアドレス信号に応答し、第1画素アレイPA1のロウ一つを選択する。出力回路103は、選択されたロウに沿って配列された複数の画素から、カラム単位で光感知信号を出力する。そのために、出力回路103は、カラムデコーダとアナログ・デジタル変換器(ADC:analog to digital converter)を含むものでもある。例えば、出力回路103は、カラムデコーダと第1画素アレイPA1との間において、カラム別にそれぞれ配された複数のADC、またはカラムデコーダの出力端に配された1つのADCを含むものでもある。タイミングコントローラ101、ロウデコーダ102及び出力回路103は、1つのチップ、またはそれぞれ別個のチップによっても具現される。例示された回路要素の少なくとも一部が、図3の回路基板SUに具備されうる。出力回路103を介して出力された第1映像IM1を処理するためのプロセッサが、タイミングコントローラ101、ロウデコーダ102及び出力回路103と共に、1つのチップによっても具現される。
第2画素アレイPA2にも、ロウデコーダ202、出力回路203、タイミングコントローラ(TC)201が連結され、前述のところと類似して、第2画素アレイPA2からの信号が処理されうる。また、出力回路203を介して出力された第2映像IM2を処理するためのプロセッサが、タイミングコントローラ201、ロウデコーダ202及び出力回路203と共に、1つのチップによっても具現される。
第1画素アレイPA1及び第2画素アレイPA2は、画素サイズ、個数が同じように図示されているが、それは、便宜上の例示であり、それに限定されるものではない。
互いに異なる種類の2つのセンサを動作させるにあたり、互いに異なる解像度、出力速度及び映像整合に必要な領域の大きさにより、タイミング制御が必要にもなる。例えば、第1イメージセンサ100を基準に、1つの映像列を読み取るとき、その領域に対応する第2イメージセンサ200の映像列は、すでにバッファに保存されてもあり、あるいは新たに読み取らなければないないものでもある。または、第1イメージセンサ100、第2イメージセンサ200の動作は、同じ同期信号を使用し、同期化されうる。例えば、タイミングコントローラ400がさらに具備され、第1イメージセンサ100、第2イメージセンサ200に同期信号(sync.)を伝送することもできる。
図5は、一実施形態による映像獲得装置に具備される第1イメージセンサによる波長スペクトルを示し、図6ないし図8は、一実施形態による映像獲得装置に具備される第1イメージセンサの例示的な画素配列を示す。
図6を参照すれば、第1画素アレイPA1に具備されるカラーフィルタ120には、赤色(R),緑色(G),青色(B)波長帯域をフィルタリングするフィルタが、ベイヤーパターン(Bayer pattern)に配列されている。すなわち、1つの単位画素は、2×2アレイに配列されたサブ画素を含み、複数の単位画素が二次元的に反復配列される。単位画素の1行に、赤色フィルタ、緑色フィルタが配され、2行に、緑色フィルタ、青色フィルタが配される。画素配列は、ベイヤーパターン以外に、他の方式でも可能である。
例えば、図7を参照すれば、マゼンタ(magenta)画素(M)、シアン(cyan)画素(C)、イエロー(yellow)画素(Y)及び緑色画素(G)が、1つの単位画素を構成するCYGM方式の配列も可能である。また、図8を参照すれば、緑色画素(G)、赤色画素(R)、青色画素(B)及び白色画素(W)が1つの単位画素を構成するRGBW方式の配列も可能である。また、図示されていないが、単位画素が3×2アレイ形態を有することもできる。それ以外にも、第1画素アレイPA1の画素は、第1イメージセンサ100の色特性により、多様な方式に配列されうる。
図9は、一実施形態による映像獲得装置に具備される第2イメージセンサによる波長スペクトルを示し、図10ないし図12は、一実施形態による映像獲得装置の第2イメージセンサの例示的な画素配列を示す。
図10を参照すれば、第2画素アレイPA2に具備される分光フィルタ220は、二次元形態に配列される複数のフィルタグループ221を含むものでもある。ここで、各フィルタグループ221は、4×4アレイ形態に配列される16個のユニットフィルタF1~F16を含むものでもある。
第1ユニットフィルタF1及び第2ユニットフィルタF2は、紫外線領域の中心波長UV1,UV2を有することができ、第3ユニットフィルタF3ないし第5ユニットフィルタF5は、青色光領域の中心波長B1~B3を有することができる。第6ユニットフィルタF6ないし第11ユニットフィルタF11は、緑色光領域の中心波長G1~G6を有することができ、第12ユニットフィルタF12ないし第14ユニットフィルタF14は、赤色光領域の中心波長R1~R3を有することができる。そして、第15ユニットフィルタF15及び第16ユニットフィルタF16は、近赤外線領域の中心波長NIR1,NIR2を有することができる。
図11は、分光フィルタ220に具備される他例のフィルタグループ222一つに係わる平面図を図示している。図11を参照すれば、フィルタグループ222は、3×3アレイ形態に配列される9個のユニットフィルタF1~F9を含むものでもある。ここで、第1ユニットフィルタF1及び第2ユニットフィルタF2は、紫外線領域の中心波長UV1,UV2を有することができ、第4ユニットフィルタF4、第5ユニットフィルタF5及び第7ユニットフィルタF7は、青色光領域の中心波長B1~B3を有することができる。第3ユニットフィルタF3及び第6ユニットフィルタF6は、緑色光領域の中心波長G1,G2を有することができ、第8ユニットフィルタF8及び第9ユニットフィルタF9は、赤色光領域の中心波長R1,R2を有することができる。
図12は、分光フィルタ220に具備される他例のフィルタグループ223一つに係わる平面図を図示している。図12を参照すれば、フィルタグループ223は、5×5アレイ形態に配列される25個のユニットフィルタF1~F25を含むものでもある。ここで、第1ユニットフィルタF1ないし第3ユニットフィルタF3は、紫外線領域の中心波長UV1~UV3を有することができ、第6ユニットフィルタF6、第7ユニットフィルタF7、第8ユニットフィルタF8、第11ユニットフィルタF11及び第12ユニットフィルタF12は、青色光領域の中心波長B1~B5を有することができる。第4ユニットフィルタF4、第5ユニットフィルタF5及び第9ユニットフィルタF9は、緑色光領域の中心波長G1~G3を有することができ、第10ユニットフィルタF10、第13ユニットフィルタF13、第14ユニットフィルタF14、第15ユニットフィルタF15、第18ユニットフィルタF18及び第19ユニットフィルタF19は、赤色光領域の中心波長R1~R6を有することができる。そして、第20ユニットフィルタF20、第23ユニットフィルタF23、第24ユニットフィルタF24及び第25ユニットフィルタF25は、近赤外線領域の中心波長NIR1~NIR4を有することができる。
分光フィルタ220に具備される前述のユニットフィルタは、2つの反射板を有する共振構造を有することができ、該共振構造の特性により、透過される波長帯域が決定されうる。該反射板の材質、及びキャビティ内誘電物質の材質、キャビティ厚により、透過波長帯域が調節されうる。それ以外にも、格子(grating)を活用した構造、DBR(distributed Bragg reflector)を活用した構造などがユニットフィルタに適用されうる。
それ以外にも、第2画素アレイPA2の画素は、第2イメージセンサ200の色特性により、多様な方式にも配列される。
図13は、他の実施形態による映像獲得装置の制御方法について概略的に説明するフローチャートである。
図13を参照すれば、段階1300において、第1映像及び第2映像を獲得する。ここで、該第1映像は、一般的なRGBセンサ、またはCMOSイメージセンサから獲得されたRGB映像である。該第2映像は、MSIセンサから獲得された映像である。該第2映像は、該第1映像より広い波長帯域を有することができる。また、該第2映像は、該第1映像の3個チャネル、R,G,、Bチャネルより多数のチャネルを有する映像である。
段階1302において、第1映像の領域を分割する。ここで、該領域分割は、第1映像の画素グループでもあり、所定の大きさと形態とのパターンを有することができる。そのようなパターンは、ラインまたは四角形でもある。また、該画素グループは、前景と背景とに区分されるか、あるいはROIとnon-ROIとにも区分される。
段階1304において、第1映像のそれぞれの領域に対応する第2映像の領域を区分する。段階1302において、第1映像で分割された領域に対応する第2映像の領域を区分する。また、第1映像と第2映像との映像整合を介し、ある1映像に整合された他の映像をオーバレイすることができる。また、段階1302及び段階1304を介して分割された領域単位において、映像整合を行い、オーバレイを行うこともできる。段階1302及び段階1304において、画素グループ単位で映像整合を行うように説明されるが、それに限定されるものではなく、画素単位またはサブ画素単位で映像整合を行うことができるということは、言うまでもない。
段階1306において、第2映像のそれぞれの領域に係わる照明値を推定する。MSIセンサから獲得された第2映像において、多数のチャネルからなるスペクトル情報を利用して照明値を推定する。ここで、段階1302及び段階1304において、第2映像で分割されたそれぞれの領域について照明値を推定する。
段階1308において、第1映像のそれぞれの領域に推定された照明値を利用し、色変換を行う。ここで、該第1映像は、段階1300において、RGBセンサまたはCMOSイメージセンサから獲得されたRGB映像であるか、あるいは段階1302及び段階1304において、第1映像と第2映像とを整合した整合映像でもある。
一実施形態による映像獲得装置の制御方法は、RGBセンサとMSIセンサとを使用し、RGBカメラに撮影される映像についてホワイトバランスを遂行する。該ホワイトバランスを正確に遂行するために、MSIセンサを使用し、照明と、物体の色とを分離し、物体の正確な色相を探した後、その情報を使用し、RGB映像についてカラーマッピングし、ホワイトバランスを遂行する。
前述の映像獲得装置1000は、多様な高性能光学装置、または高性能電子装置にも採用される。そのような電子装置は、例えば、スマートフォン、携帯電話、ハンドフォン、PDA(personal digital assistant)、ラップトップ(laptop)、PC(personal computer)、多様な携帯機器、家電製品、保安カメラ、医療用カメラ、自動車、事物インターネット(IoT:internet of things)機器、その他のモバイルまたは非モバイルのコンピューティング装置でもあるが、それらに制限されるものではない。
該電子装置は、映像獲得装置1000以外にも、それに具備されたイメージセンサを制御するプロセッサ、例えば、アプリケーションプロセッサ(AP:application processor)をさらに含み、該プロセッサを介し、オペレーティングシステム(OS)または応用プログラムを駆動し、多数のハードウェア構成要素またはソフトウェア構成要素を制御することができ、各種のデータ処理及び演算を行うことができる。該プロセッサは、GPU(graphics processing unit)及び/またはイメージ信号プロセッサ(image signal processor)をさらに含むものでもある。該プロセッサにイメージ信号プロセッサが含まれる場合、イメージセンサによって獲得されたイメージ(または、映像)を、プロセッサを利用し、保存及び/または出力することができる。
図14は、一実施形態による電子装置の概略的な構造を示すブロック図である。図14を参照すれば、ネットワーク環境ED00において電子装置ED01は、第1ネットワークED98(近距離無線通信ネットワークなど)を介し、他の電子装置ED02と通信するか、あるいは第2ネットワークED99(遠距離無線通信ネットワークなど)を介し、さらに他の電子装置ED04及び/またはサーバED08と通信することができる。電子装置ED01は、サーバED08を介し、電子装置ED04と通信することができる。電子装置ED01は、プロセッサED20、メモリED30、入力装置ED50、音響出力装置ED55、表示装置ED60、オーディオモジュールED70、センサモジュールED76、インターフェースED77、ハプティックモジュールED79、カメラモジュールED80、電力管理モジュールED88、バッテリED89、通信モジュールED90、加入者識別モジュールED96及び/またはアンテナモジュールED97を含むものでもある。電子装置ED01には、該構成要素のうち一部(表示装置ED60など)が省略されるか、あるいは他の構成要素が追加されうる。該構成要素のうち一部は、1つの統合された回路によっても具現される。例えば、センサモジュールED76(指紋センサ、虹彩センサ、照度センサなど)は、表示装置ED60(ディスプレイなど)に埋め込まれても具現される。また、イメージセンサ1000に分光機能が含まれる場合、センサモジュールの一部機能(カラーセンサ、照度センサ)が、別途のセンサモジュールではなく、イメージセンサ1000自体によっても具現される。
プロセッサED20は、ソフトウェア(プログラムED40など)を実行し、プロセッサED20に連結された電子装置ED01のうち、1または複数個の他の構成要素(ハードウェア構成要素、ソフトウェア構成要素など)を制御することができ、多様なデータ処理または演算を行うことができる。該データ処理または該演算の一部として、プロセッサED20は、他の構成要素(センサモジュールED76、通信モジュールED90など)から受信された命令及び/またはデータを、揮発性メモリED32にロードし、揮発性メモリED32に保存された命令及び/またはデータを処理し、結果データを、不揮発性メモリED34に保存することができる。プロセッサED20は、メインプロセッサED21(中央処理装置、アプリケーションプロセッサなど)、及びそれと独立し、または共に運用可能な補助プロセッサED23(グラフィック処理装置、イメージシグナルプロセッサ、センサハブプロセッサ、コミュニケーションプロセッサなど)を含むものでもある。補助プロセッサED23は、メインプロセッサED21より電力を少なく使用し、特化された機能を遂行することができる。
補助プロセッサED23は、メインプロセッサED21が、インアクティブ状態(スリープ状態)にある間、メインプロセッサED21の代わりを行い、あるいはメインプロセッサED21がアクティブ状態(アプリケーション実行状態)にある間、メインプロセッサED21と共に、電子装置ED01の構成要素のうち一部構成要素(表示装置ED60、センサモジュールED76、通信モジュールED90など)と係わる機能及び/または状態を制御することができる。補助プロセッサED23(イメージシグナルプロセッサ、コミュニケーションプロセッサなど)は、機能的に関連する他の構成要素(カメラモジュールED80、通信モジュールED90など)の一部としても具現される。
メモリED30は、電子装置ED01の構成要素(プロセッサED20、センサモジュールED76など)が必要とする多様なデータを保存することができる。該データは、例えば、ソフトウェア(プログラムED40など)、及びそれと係わる命令に対する入力データ及び/または出力データを含むものでもある。メモリED30は、揮発性メモリED32及び/または不揮発性メモリED34を含むものでもある。不揮発性メモリED32は、電子装置ED01内に固定装着された内蔵メモリED36と、脱着可能な外装メモリED38と、を含むものでもある。
プログラムED40は、メモリED30に、ソフトウェアとして保存され、オペレーティングシステムED42、ミドルウェアED44及び/またはアプリケーションED46を含むものでもある。
入力装置ED50は、電子装置ED01の構成要素(プロセッサED20など)に使用される命令及び/またはデータを、電子装置ED01の外部(ユーザなど)から受信することができる。入力装置ED50は、マイク、マウス、キーボード及び/またはデジタルペン(スタイラスペンなど)を含むものでもある。
音響出力装置ED55は、音響信号を、電子装置ED01の外部に出力することができる。音響出力装置ED55は、スピーカ及び/またはレシーバを含むものでもある。該スピーカは、マルチメディア再生または録音再生のように、一般的な用途としても使用され、該レシーバは、着信電話を受信するためにも使用される。該レシーバは、スピーカの一部に結合されているか、あるいは独立した別途の装置としても具現される。
表示装置ED60は、電子装置ED01の外部に情報を視覚的に提供することができる。表示装置ED60は、ディスプレイ、ホログラム装置またはプロジェクタ、及び当該装置を制御するための制御回路を含むものでもある。表示装置ED60は、タッチを感知するように設定されたタッチ回路(touch circuitry)、及び/またはタッチによって生じる力の強さを測定するように設定されたセンサ回路(圧力センサなど)を含むものでもある。
オーディオモジュールED70は、音を電気信号に変換させるか、あるいは反対に電気信号を音に変換させることができる。オーディオモジュールED70は、入力装置ED50を介し、音を獲得するか、あるいは音響出力装置ED55及び/または電子装置ED01と、直接または無線で連結された他の電子装置(電子装置ED02など)のスピーカ及び/またはヘッドホーンを介し、音を出力することができる。
センサモジュールED76は、電子装置ED01の作動状態(電力、温度など)、または外部の環境状態(ユーザ状態など)を感知し、感知された状態に対応する電気信号及び/またはデータ値を生成することができる。センサモジュールED76は、ジェスチャセンサ、ジャイロセンサ、気圧センサ、マグネチックセンサ、加速度センサ、グリップセンサ、近接センサ、カラーセンサ、IR(infrared)センサ、生体センサ、温度センサ、湿度センサ及び/または照度センサを含むものでもある。
インターフェースED77は、電子装置ED01が、他の電子装置(電子装置ED02など)と直接または無線で連結されるために使用されうる1または複数の指定されたプロトコルを支援することができる。インターフェースED77は、HDMI(登録商標、high definition multimedia interface)、USB(universal serial bus)インターフェース、SDカードインターフェース及び/またはオーディオインターフェースを含むものでもある。
連結端子ED78は、電子装置ED01が、他の電子装置(電子装置ED02など)と物理的に連結されうるコネクタを含むものでもある。連結端子ED78は、HDMIコネクタ、USBコネクタ、SDカードコネクタ及び/またはオーディオコネクタ(ヘッドホーンコネクタなど)を含むものでもある。
ハプティックモジュールED79は、電気的信号を、ユーザが触覚または運動感覚を介して認知することができる機械的な刺激(振動、動きなど)、または電気的な刺激に変換することができる。ハプティックモジュールED79は、モータ、圧電素子及び/または電気刺激装置を含むものでもある。
カメラモジュールED80は、静止映像及び動画を撮影することができる。カメラモジュールED80は、前述の映像獲得装置1000を含み、さらなるレンズアセンブリイメージシグナルプロセッサ及び/またはフラッシュを含むものでもある。カメラモジュールED80に含まれたレンズアセンブリは、イメージ撮影の対象である被写体から放出される光を収集することができる。
電力管理モジュールED88は、電子装置ED01に供給される電力を管理することができる。電力管理モジュールED88は、PMIC(power management integrated circuit)の一部としても具現される。
バッテリED89は、電子装置ED01の構成要素に電力を供給することができる。バッテリED89は、再充電不可能な一次電池、再充電可能な二次電池、及び/または燃料電池を含むものでもある。
通信モジュールED90は、電子装置ED01と、他の電子装置(電子装置ED02、電子装置ED04、サーバED08など)との直接(有線)通信チャネル及び/または無線通信チャネルの樹立、及び樹立された通信チャネルを介する通信遂行を支援することができる。通信モジュールED90は、プロセッサED20(アプリケーションプロセッサなど)と独立して運用され、直接通信及び/または無線通信を支援する1または複数のコミュニケーションプロセッサを含むものでもある。通信モジュールED90は、無線通信モジュールED92(セルラ通信モジュール、近距離無線通信モジュール、GNSS(global navigation satellite system)など)通信モジュール)及び/または有線通信モジュールED94(LAN(local area network)通信モジュール、電力線通信モジュールなど)を含むものでもある。それら通信モジュールのうち当該通信モジュールは、第1ネットワークED98(ブルートゥース(登録商標)、Wi-Fi(wireless fidelity) directまたはIrDA(infrared data association)のような近距離通信ネットワーク)または第2ネットワークED99(セルラネットワーク、インターネットまたはコンピュータネットワーク(LAN、WANなど)のような遠距離通信ネットワーク)を介し、他の電子装置と通信することができる。そのようなさまざまな種類の通信モジュールは、1つの構成要素(単一チップなど)に統合されるか、あるいは互いに別途の複数の構成要素(複数チップ)によっても具現される。無線通信モジュールED92は、加入者識別モジュールED96に保存された加入者情報(国際モバイル加入者識別子(IMSI)など)を利用し、第1ネットワークED98及び/または第2ネットワークED99のような通信ネットワーク内において、電子装置ED01を確認及び認証することができる。
アンテナモジュールED97は、信号及び/または電力を、外部(他の電子装置など)に送信するか、あるいは外部から受信することができる。アンテナは、基板(PCB(printed circuit board)など)上に形成された導電性パターンによってなる放射体を含むものでもある。アンテナモジュールED97は、1または複数のアンテナを含むものでもある。複数のアンテナが含まれた場合、通信モジュールED90により、複数のアンテナのうち、第1ネットワークED98及び/または第2ネットワークED99のような通信ネットワークで使用される通信方式に適するアンテナが選択されうる。選択されたアンテナを介し、通信モジュールED90と、他の電子装置との間において、信号及び/または電力が送信されるか、あるいは受信されうる。アンテナ以外に、他の部品(RFIC(radio frequency integrated circuit)など)がアンテナモジュールED97の一部としても含まれる。
構成要素のうち一部は、周辺機器間の通信方式(バス、GPIO(general purpose input and output)、SPI(serial peripheral interface)、MIPI(mobile industry processor interface)など)を介して互いに連結され、信号(命令、データなど)を相互交換することができる。
命令またはデータは、第2ネットワークED99に連結されたサーバED08を介し、電子装置ED01と、外部の電子装置ED04との間において、送信または受信されうる。他の電子装置ED02,ED04は、電子装置ED01と同一であるか、あるいは異なる種類の装置でもある。電子装置ED01で実行される動作の全部または一部は、他の電子装置ED02,ED04,ED08のうち、1または複数の装置で実行されうる。例えば、電子装置ED01がある機能やサービスを遂行しなければならないとき、機能またはサービスを、自主的に実行させる代わりに、1または複数の他の電子装置に、その機能またはそのサービスの一部、または全体を遂行するように要請することができる。要請を受信した1または複数の他の電子装置は、要請と係わる追加機能またはサービスを実行し、その実行結果を、電子装置ED01に伝達することができる。そのために、クラウドコンピューティング、分散コンピューティング及び/またはクライアント・サーバコンピューティング技術が利用されうる。
図15は、図14の電子装置に具備されるカメラモジュールED80を概略的に例示したブロック図である。カメラモジュールED80は、前述の映像獲得装置1000を含むか、あるいはそこから変形された構造を有することができる。図15を参照すれば、カメラモジュールED80は、レンズアセンブリCM10、フラッシュCM20、イメージセンサCM30、イメージスタビライザCM40、メモリCM50(バッファメモリなど)及び/またはイメージシグナルプロセッサ(ISP)CM60を含むものでもある。
イメージセンサCM30は、前述の映像獲得装置1000に具備される第1イメージセンサ100、第2イメージセンサ200を含むものでもある。第1イメージセンサ100、第2イメージセンサ200は、被写体から放出または反射され、レンズアセンブリCM10を介して伝達された光を電気的な信号に変換することにより、被写体に対応するイメージを獲得することができる。第1イメージセンサ100は、RGB映像を獲得し、第2イメージセンサ200は、紫外線波長範囲または赤外線波長範囲の超分光映像を獲得することができる。
イメージセンサCM30は、前述の第1イメージセンサ100、第2イメージセンサ200以外にも、他のRGBセンサ、BW(black and white)センサ、IRセンサまたはUV(ultraviolet)センサのように、属性が異なるイメージセンサのうちから選択された1または複数のセンサをさらに含むものでもある。イメージセンサCM30に含まれたそれぞれのセンサは、CCD(charge coupled device)センサ及び/またはCMOS(complementary metal oxide semiconductor)センサでもっても具現される。
レンズアセンブリCM10は、イメージ撮影の対象である被写体から放出される光を収集することができる。カメラモジュールED80は、複数のレンズアセンブリCM10を含み、そのような場合、カメラモジュールED80は、デュアルカメラ、360°カメラまたは球形カメラ(spherical camera)にもなる。複数のレンズアセンブリCM10のうち一部は、同一レンズ属性(画角、焦点距離、自動焦点、F値(F number)、光学ズームなど)を有するか、あるいは他のレンズ属性を有することができる。レンズアセンブリCM10は、広角レンズまたは望遠レンズを含むものでもある。
レンズアセンブリCM10は、イメージセンサCM30に具備される2つのイメージセンサが、同じ位置の被写体の光学像を形成するようにも構成され、かつ/あるいはフォーカス制御されうる。
フラッシュCM20は、被写体から放出または反射される光を強化させるために使用される光を放出することができる。フラッシュCM20は、1または複数の発光ダイオード(RGB(red-green-blue) LED、white LED、infrared LED、ultraviolet LEDなど)及び/またはキセノンランプを含むものでもある。
イメージスタビライザCM40は、カメラモジュールED80、またはそれを含む電子装置CM01の動きに反応し、レンズアセンブリCM10に含まれた1または複数個のレンズ、またはイメージセンサ1000を、特定方向に動かすか、あるいはイメージセンサ1000の動作特性を制御(リードアウト(read-out)タイミングの調整など)し、動きによる否定的な影響が補償されるようにする。イメージスタビライザCM40は、カメラモジュールED80の内部または外部に配されたジャイロセンサ(図示せず)または加速度センサ(図示せず)を利用し、カメラモジュールED80または電子装置ED01の動きを感知することができる。イメージスタビライザCM40は、光学式にも具現される。
メモリCM50は、イメージセンサ1000を介して獲得されたイメージの一部データまたは全体データが、次のイメージ処理作業のために保存することができる。例えば、複数のイメージが高速に獲得される場合、獲得された原本データ(Bayer-patternedデータ、高解像度データなど)は、メモリCM50に保存し、低解像度イメージのみをディスプレイした後、選択された(ユーザ選択など)イメージの原本データが、イメージシグナルプロセッサCM60に伝達するようにするところにも使用される。メモリCM50は、電子装置ED01のメモリED30に統合されているか、あるいは独立して運用される別途のメモリによっても構成される。
イメージシグナルプロセッサCM60は、イメージセンサCM30を介して獲得されたイメージ、またはメモリCM50に保存されたイメージデータにつき、イメージ処理を行うことができる。図1ないし図13で説明されたように、イメージセンサCM30に含まれる2つのイメージセンサが獲得した第1映像(例えば、RGB映像)、第2映像(例えば、MSI映像)を処理し、ホワイトバランスが遂行された第3映像を生成することができる。そのために、プロセッサ500の構成が、イメージシグナルプロセッサCM60にも含まれる。
イメージ処理は、これら以外にも、デプス地図(depth map)生成、三次元モデリング、パノラマ生成、特徴点抽出、イメージ合成及び/またはイメージ補償(ノイズ低減、解像度調整、明るさ調整、ぼやかし(blurring)、シャープニング(sharpening)、ソフトニング(softening)など)を含むものでもある。イメージシグナルプロセッサCM60は、カメラモジュールED80に含まれた構成要素(イメージセンサCM30など)に対する制御(露出時間制御またはリードアウトタイミング制御など)を行うことができる。イメージシグナルプロセッサCM60によって処理されたイメージは、追加処理のために、メモリCM50にさらに保存されるか、あるいはカメラモジュールED80の外部構成要素(メモリED30、表示装置ED60、電子装置ED02、電子装置ED04、サーバED08など)にも提供される。イメージシグナルプロセッサCM60は、プロセッサED20に統合されるか、あるいはプロセッサED20と独立して運用される別途のプロセッサとしても構成される。イメージシグナルプロセッサCM60がプロセッサED20と別途のプロセッサとして構成された場合、イメージシグナルプロセッサCM60によって処理されたイメージは、プロセッサED20により、さらなるイメージ処理を経た後、表示装置ED60を介しても表示される。
電子装置ED01は、それぞれ異なる属性または機能を有する複数のカメラモジュールED80を含むものでもある。そのような場合、複数のカメラモジュールED80のうち一つは、広角カメラであり、他の一つは、望遠カメラでもある。類似して、複数のカメラモジュールED80のうち一つは、前面カメラであり、他の一つは、背面カメラでもある。
図16ないし図25は、一実施形態による映像獲得装置が適用された電子装置の多様な例を示す。
一実施形態による映像獲得装置は、図16に図示されたモバイルフォンまたはスマートフォン5100m、図17に図示されたタブレットまたはスマートタブレット5200、図18に図示されたデジタルカメラまたはカムコーダ5300、図19に図示されたノート型パソコン5400にも適用され、あるいは図20に図示されたテレビまたはスマートテレビ5500などにも適用される。例えば、スマートフォン5100mまたはスマートタブレット5200は、高解像度イメージセンサがそれぞれ搭載された複数の高解像度カメラを含むものでもある。該高解像度カメラを利用し、映像内被写体のデプス情報を抽出するか、映像のアウトフォーカシングを調節するか、あるいは映像内被写体を自動的に識別することができる。
また、映像獲得装置1000は、図21に図示されたスマート冷蔵庫5600、図22に図示された保安カメラ5700、図23に図示されたロボット5800、図24に図示された医療用カメラ5900などにも適用される。例えば、スマート冷蔵庫5600は、映像獲得装置1000を利用し、冷蔵庫内にある飲食物を自動的に認識し、特定飲食物の存在いかん、入庫されたり出庫されたりした飲食物の種類などを、スマートフォンを介し、ユーザに知らせることができる。保安カメラ5700は、超高解像度映像を提供することができ、高感度を利用し、暗い環境においても、映像内の事物または人を認識可能とする。ロボット5800は、人が直接接近することができない災害現場または産業現場に投入され、高解像度映像を提供することができる。医療用カメラ5900は、診断または手術のための高解像度映像を提供することができ、視野を動的に調節することができる。
また、映像獲得装置1000は、図25に図示されているように車両6000にも適用される。車両6000は、多様な位置に配された複数の車両用カメラ6010,6020,6030,6040を含むものでもあり、それぞれの車両用カメラ6010,6020,6030,6040は、一実施形態による映像獲得装置を含むものでもある。車両6000は、複数の車両用カメラ6010,6020,6030,6040を利用し、車両6000内部または周辺に係わる多様な情報を運転手に提供することができ、映像内の事物または人を自動的に認識し、自律走行に必要な情報を提供することができる。
前述の映像獲得装置、及びそれを含む電子装置は、たとえ図面に図示された実施形態を参照して説明されたにしても、それらは、例示的なものに過ぎず、当該分野でにおいて当業者であるならば、それらから多様な変形、及び均等な他の実施形態が可能であるという点を理解するであろう。従って、開示された実施形態は、限定的な観点ではなく、説明的な観点から考慮されなければならない。権利範囲は、前述の説明ではなく、特許請求の範囲に示されており、それと同等な範囲内にある全ての差異は、権利範囲に含まれるものであると解釈されなければならないのである。
100 第1イメージセンサ
110 第1センサ層
120 カラーフィルタ
130 第1マイクロレンズアレイ
190 第1イメージング光学系
200 第2イメージセンサ
210 第2センサ層
220 分光フィルタ
230 第2マイクロレンズアレイ
290 第2イメージング光学系
300 第1メモリ
310 第2メモリ
500 プロセッサ
510 映像整合部
520 照明推定部
530 色相変換部
700 映像抽出部
1000 映像獲得装置

Claims (20)

  1. 第1波長帯域に基づく第1映像を獲得する第1イメージセンサと、
    10nmないし1,000nmの第2波長帯域に基づく第2映像を獲得する第2イメージセンサと、
    前記第1イメージセンサ及び前記第2イメージセンサからそれぞれ出力された前記第1映像と前記第2映像とを整合し、前記第2映像から推定された照明値を利用し、前記整合された映像について色変換を行うプロセッサと、を含む、映像獲得装置。
  2. 前記プロセッサは、
    前記第1映像を一または複数の領域に分割し、
    前記第1映像の分割されたそれぞれの領域に対応する第2映像の領域毎に、それぞれの照明値を推定し、
    前記第2映像の領域毎に推定されたそれぞれの照明値を利用し、前記第1映像の分割されたそれぞれの領域について前記色変換を行う、請求項1に記載の映像獲得装置。
  3. 前記プロセッサは、
    前記第2映像の領域毎に推定されたそれぞれの照明値のうち、隣接した領域の照明値との差が第1臨界値以上である場合、
    前記差が、前記第1臨界値より小さくなるように、隣接した領域の照明値のうち、いずれか1つの照明値を調整する、請求項2に記載の映像獲得装置。
  4. 前記プロセッサは、
    前記色変換を行った後、前記隣接した領域の境界部分につき、後処理を行う、請求項3に記載の映像獲得装置。
  5. 前記プロセッサは、
    前記第1イメージセンサ及び前記第2イメージセンサそれぞれの解像度、画角及び焦点距離のうちの少なくとも一つに基づいて、前記第1映像と前記第2映像との整合のためのパラメータを算出する、請求項1に記載の映像獲得装置。
  6. 前記プロセッサは、
    前記第2イメージセンサから出力された複数のチャネルから得られたスペクトル情報を利用し、前記照明値を推定する、請求項1に記載の映像獲得装置。
  7. 前記プロセッサは、
    既定の照明値に係わる第2映像が学習されたニューラルネットワークを利用し、前記第2イメージセンサから獲得された第2映像に係わる前記照明値を推定する、請求項1に記載の映像獲得装置。
  8. 前記プロセッサは、
    前記第1映像及び前記第2映像それぞれの特徴を抽出し、前記抽出された特徴をマッチングさせることにより、前記第1映像と前記第2映像との整合を行う、請求項1に記載の映像獲得装置。
  9. 前記プロセッサは、
    前記第1映像及び前記第2映像の画素グループ単位、画素単位またはサブ画素単位でもって、前記第1映像と前記第2映像との整合を行う、請求項1に記載の映像獲得装置。
  10. 前記第1イメージセンサは、
    複数の第1センシング要素がアレイされた第1センサ層と、
    前記第1センサ層上に配され、交互配列された赤色フィルタ、緑色フィルタ、青色フィルタを含むカラーフィルタと、を具備する第1画素アレイを含み、
    前記第2イメージセンサは、
    複数の第2センシング要素がアレイされた第2センサ層と、
    前記第2センサ層上に配され、透過波長帯域が異なる複数のユニットフィルタからなるフィルタグループが反復配列された分光フィルタと、を具備する第2画素アレイを含む、請求項1に記載の映像獲得装置。
  11. 前記複数のユニットフィルタそれぞれの透過波長帯域は、
    可視光線を含み、可視光線より広い範囲の波長帯域であり、
    前記フィルタグループは、4×4アレイ形態に配列される16個のユニットフィルタを含む、請求項10に記載の映像獲得装置。
  12. 前記第1画素アレイと前記第2画素アレイは、同じ回路基板上に、水平に離隔されて配される、請求項10に記載の映像獲得装置。
  13. 前記第1センサ層からの信号を処理する第1回路要素と、前記第2センサ層からの信号を処理する第2回路要素とが、前記回路基板に具備される、請求項12に記載の映像獲得装置。
  14. 前記第1回路要素、前記第2回路要素の動作を同期させるタイミングコントローラをさらに含む、請求項13に記載の映像獲得装置。
  15. 前記第1映像に係わるデータを保存する第1メモリと、
    前記第2映像に係わるデータを保存する第2メモリと、をさらに含む、請求項12に記載の映像獲得装置。
  16. 前記第1メモリ及び前記第2メモリが、前記回路基板内に具備される、請求項15に記載の映像獲得装置。
  17. 被写体の光学像を前記第1イメージセンサに形成するものであり、1以上のレンズを含む第1イメージング光学系と、
    前記被写体の光学像を前記第2イメージセンサに形成するものであり、1以上のレンズを含む第2イメージング光学系と、をさらに含む、請求項1に記載の映像獲得装置。
  18. 前記第1イメージング光学系と前記第2イメージング光学系は、同じ焦点距離、及び同じ画角を有するように設定される、請求項17に記載の映像獲得装置。
  19. 請求項1ないし18のうちいずれか1項に記載の映像獲得装置を含む、電子装置。
  20. 複数のイメージセンサを利用した映像獲得装置の制御方法において、
    第1イメージセンサ及び第2イメージセンサからそれぞれ第1映像及び第2映像を獲得する段階と、
    前記獲得された第1映像と第2映像とを整合する段階と、
    前記第2映像から推定された照明値を利用し、前記整合された映像について色変換を行う段階と、を含む、映像獲得装置の制御方法。
JP2022129504A 2021-08-27 2022-08-16 複数のイメージセンサを含む映像獲得装置、それを含む電子装置、及び映像獲得装置の制御方法 Pending JP2023033168A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0113981 2021-08-27
KR1020210113981A KR20230031580A (ko) 2021-08-27 2021-08-27 복수의 이미지 센서를 포함한 영상 획득 장치 및 이를 포함하는 전자 장치

Publications (1)

Publication Number Publication Date
JP2023033168A true JP2023033168A (ja) 2023-03-09

Family

ID=83360992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022129504A Pending JP2023033168A (ja) 2021-08-27 2022-08-16 複数のイメージセンサを含む映像獲得装置、それを含む電子装置、及び映像獲得装置の制御方法

Country Status (5)

Country Link
US (1) US20230066267A1 (ja)
EP (1) EP4142300A1 (ja)
JP (1) JP2023033168A (ja)
KR (1) KR20230031580A (ja)
CN (1) CN115734082A (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5687676B2 (ja) * 2012-10-23 2015-03-18 オリンパス株式会社 撮像装置及び画像生成方法
US10791310B2 (en) * 2018-10-02 2020-09-29 Intel Corporation Method and system of deep learning-based automatic white balancing
CN110533620B (zh) * 2019-07-19 2021-09-10 西安电子科技大学 基于aae提取空间特征的高光谱和全色图像融合方法

Also Published As

Publication number Publication date
KR20230031580A (ko) 2023-03-07
US20230066267A1 (en) 2023-03-02
EP4142300A1 (en) 2023-03-01
CN115734082A (zh) 2023-03-03

Similar Documents

Publication Publication Date Title
US7801357B2 (en) Image processing device, image processing method, program for the same, and computer readable recording medium recorded with program
KR20170046498A (ko) 이미지 처리 장치의 저조도 화질 개선 방법 및 상기 방법을 수행하는 이미지 처리 시스템의 동작 방법
EP4202822A1 (en) Image processing method, image processing system, electronic device, and readable storage medium
US20180204311A1 (en) Image processing device, image processing method, and program
US11558587B2 (en) Camera module comprising complementary color filter array and electronic device comprising same
US20180336667A1 (en) Methods and apparatus for pixel readout
EP4207099A1 (en) Image acquisition apparatus and electronic apparatus including the same
EP4156675A1 (en) Image acquisition apparatus providing white balance function and electronic apparatus including the same
EP4152397A1 (en) Image sensor and electronic apparatus including the image sensor
US11895401B2 (en) Camera module for high resolution auto focusing and electronic device including same
US20230117639A1 (en) Image acquisition apparatus, image acquisition method, and electronic device including the same
JP2023033168A (ja) 複数のイメージセンサを含む映像獲得装置、それを含む電子装置、及び映像獲得装置の制御方法
US20230239553A1 (en) Multi-sensor imaging color correction
EP4171019A1 (en) Electronic device comprising image sensor, and method for controlling same
JP7482170B2 (ja) 映像獲得装置及び電子装置
CN115375615A (zh) 用于生成感兴趣区域的深度信息的电子设备及其操作方法
KR102667267B1 (ko) 영상 획득 장치 및 이를 포함하는 전자 장치
KR20210130972A (ko) 전자 장치의 컬러 필터, 및 그 전자 장치
KR20230105295A (ko) 영상 획득 장치 및 이를 포함하는 전자 장치
US20230007197A1 (en) Electronic device and method for controlling the same
US20230139533A1 (en) Optical sensor including nanophotonic microlens array and electronic device including the same
US20230325995A1 (en) Method and apparatus for acquiring image using multispectral sensor
CN111681221A (zh) 一种基于基元矢量多角度描述彩色图像的方法
KR20240054134A (ko) 이미지 센서의 이미지를 이용한 학습 기반 화질 개선 방법 및 이를 지원하는 전자 장치
KR20210151613A (ko) 이미지 처리 장치 및 이미지 처리 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240219

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240514