JP7101646B2 - イメージ復元方法及び装置 - Google Patents

イメージ復元方法及び装置 Download PDF

Info

Publication number
JP7101646B2
JP7101646B2 JP2019154767A JP2019154767A JP7101646B2 JP 7101646 B2 JP7101646 B2 JP 7101646B2 JP 2019154767 A JP2019154767 A JP 2019154767A JP 2019154767 A JP2019154767 A JP 2019154767A JP 7101646 B2 JP7101646 B2 JP 7101646B2
Authority
JP
Japan
Prior art keywords
image
image restoration
kernel
acquisition unit
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019154767A
Other languages
English (en)
Other versions
JP2020042801A (ja
Inventor
良鎬 趙
徳寧 姜
東▲きょん▼ 南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020180153829A external-priority patent/KR102614908B1/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2020042801A publication Critical patent/JP2020042801A/ja
Application granted granted Critical
Publication of JP7101646B2 publication Critical patent/JP7101646B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Medical Informatics (AREA)
  • Image Processing (AREA)

Description

以下、イメージを復元する技術が提供される。
光学技術及びイメージ処理技術の発達に伴ってマルチメディアコンテンツ、セキュリティー及び認識など、広範囲な分野に撮影装置が活用されている。例えば、撮影装置は、モバイル機器、カメラ、車両、及びコンピュータなどに搭載され、イメージを撮影したり、オブジェクトを認識したり、機器を制御するためのデータを取得する。撮影装置の体積は、レンズのサイズ、レンズの焦点距離(focal length)、及びセンサのサイズなどによって決定される。例えば、レンズのサイズとセンサのサイズに基づいて撮影装置の体積が調整される。センサのサイズが減少することにより、センサに入射される光量が減少し得る。そのため、イメージの解像度が低くなったり、低照度の環境における撮影が困難であることもある。撮影装置の体積を減少させるために、小型レンズから構成されたマルチレンズを用いてもよい。レンズのサイズが減少する場合、レンズの焦点距離も減少し得る。したがって、マルチレンズを介して撮影装置の体積が減少される。
一実施形態に係るイメージ復元装置は、マルチレンズを介して撮影された入力イメージに対して深度が与えられなくても、入力イメージから高解像度の出力イメージを復元することにある。
一実施形態によれば、イメージ復元方法は、オブジェクトの入力イメージを再配列することによって対象イメージを取得するステップと、前記取得された対象イメージから、拡張間隔を有するカーネルに対応する畳み込みレイヤを含むイメージ復元モデルに基づいて出力イメージを復元するステップとを含む。
前記出力イメージを復元するステップは、複数の拡張間隔に前記畳み込みレイヤに基づいて前記出力イメージを復元するステップを含み、前記複数の拡張間隔は、イメージセンサ内に含まれる検出エレメント及び前記イメージセンサ内に含まれるレンズの構成に基づいて決定され得る。
前記拡張間隔は、イメージセンサから離隔した前記オブジェクトの地点と前記イメージセンサとの間の距離、及び前記イメージセンサに含まれる検出エレメントの構成に基づいて決定され得る。
前記カーネルは、イメージセンサから閾値距離よりも遠く離隔した前記オブジェクトの地点から放射された光線を受信するように構成される前記イメージセンサに含まれる複数の検出エレメントの位置関係に基づいて決定され得る。
前記イメージ復元モデルは、イメージセンサから最小撮影距離に位置する地点から放射された光線を受信するように構成される前記イメージセンサに含まれる複数の検出エレメントの位置関係に基づいて決定されたカーネルに対応する畳み込みレイヤを含み得る。
前記最小撮影距離に対応するカーネルは、最大ディスパリティに対応する拡張間隔を有し、前記最大ディスパリティは、イメージセンサの最小撮影距離、前記イメージセンサの中心レンズから最外郭レンズまでの距離、及びレンズの焦点距離に基づいて決定され得る。
前記イメージ復元モデルは、複数のレベルに個別的に対応する複数の畳み込みレイヤをさらに含み得る。
前記イメージ復元モデルは、互いに異なる拡張間隔を個別的に有する複数のカーネルに対応する複数の畳み込みレイヤを含み得る。
前記出力イメージを復元するステップは、前記畳み込みレイヤに基づいて前記対象イメージから特徴データを抽出するステップと、前記特徴データから、前記イメージ復元モデルに含まれた畳み込みレイヤ以外のレイヤに基づいて前記出力イメージを生成するステップとを含み得る。
前記イメージ復元モデルは、同一の拡張間隔を有する複数のカーネルに対応する複数の畳み込みレイヤをさらに含み得る。
前記出力イメージを復元するステップは、基準複眼イメージが再配列された基準入力イメージから基準出力イメージを出力するようにトレーニングされたイメージ復元モデルに基づいて、前記対象イメージから前記出力イメージを復元するステップを含み得る。
前記対象イメージを取得するステップは、複眼視野(CEV:compound eye vision)イメージを取得するステップと、前記複眼視野イメージを再配列することによって前記対象イメージを生成するステップとを含み得る。
前記複眼視野イメージを取得するステップは、アレイ形態で提供される複数のレンズを介して複数の検出エレメントで受信された光線の強度に基づいて前記複眼視野イメージを取得するステップを含み得る。
前記複数のレンズは、前記複数の検出エレメントに対してずれて配置され得る。
前記対象イメージを生成するステップは、前記複数の検出エレメントから検出されるライトフィールド情報に基づいて前記複眼視野イメージを再配列するステップを含み得る。
前記複眼視野イメージを再配列するステップは、前記複数の検出エレメントで互いに類似のライトフィールド情報を検出した検出エレメントのピクセルが互いに隣接するように、前記複眼視野イメージのピクセルを再配列するステップを含み得る。
前記複眼視野イメージのピクセルを再配列するステップは、イメージセンサから閾値距離よりも遠い地点から放射される光線及び前記複数の検出エレメントの間の位置関係に基づいて、前記複数の検出エレメントのそれぞれに対して当該検出エレメントから検出されるライトフィールドを放出した前記オブジェクトの地点を決定するステップと、互いに隣接する再配置された地点から放出されたライトフィールド情報に対応するピクセルが隣接するように前記ピクセルを再配列するステップとを含み得る。
一実施形態に係るイメージ復元装置は、対象イメージを取得するイメージ取得部と、前記取得された対象イメージから、拡張間隔を有するカーネルに対応する畳み込みレイヤを含むイメージ復元モデルに基づいて出力イメージを復元するプロセッサとを含む。
他の一実施形態に係るイメージ復元方法は、イメージセンサと対象オブジェクトとの間の各距離に対応する対象オブジェクトの入力イメージを再配列することによって、複数の対象イメージを取得するステップと、前記取得された複数の対象イメージのそれぞれから、畳み込みレイヤを含むイメージ復元モデルに基づいて出力イメージを復元するステップとを含む。
一実施形態に係るイメージ復元装置は、マルチレンズの構造により発生するディスパリティごとに設定された様々な拡張間隔を有する畳み込みレイヤを含むイメージ復元モデルを用いて、高解像度の出力イメージを精密に復元することができる。
一実施形態に係るイメージ復元装置は、被写体までの深度が与えられなくても、イメージ復元モデルに基づいてカメラから近いオブジェクトを鮮明な形態に復元することができる。
一実施形態に係るイメージ復元装置の構造を示す図である。 一実施形態に係る検出エレメントがレンズを介して光線を受信する形状を示す図である。 一実施形態に係る検出エレメントに対応するピクセルの再配置を概念的に示す図である。 一実施形態に係る複眼視野イメージを再配列して対象イメージを生成する過程を説明する図である。 一実施形態に係るオブジェクトとの距離に応じて光線を受信する検出エレメントが変化することを説明する図である。 一実施形態に係るオブジェクトとの距離に応じて光線を受信する検出エレメントが変化することを説明する図である。 一実施形態に係る複眼視野イメージの再配列で近接したオブジェクトに対する解像度の低下を説明する図である。 一実施形態に係る対象イメージから出力イメージを復元する過程を説明する図である。 一実施形態に係る畳み込みレイヤで用いられる拡張間隔を有するカーネルを説明する図である。 一実施形態に係る畳み込みレイヤで用いられる拡張間隔を有するカーネルを説明する図である。 一実施形態に係る畳み込みレイヤで用いられる拡張間隔を有するカーネルを説明する図である。 一実施形態に係る最大ディスパリティを説明する図である。 一実施形態に係るイメージ復元モデルの詳細構造を説明する図である。 他の一実施形態に係るイメージ復元過程を説明する図である。 一実施形態に係るイメージ復元方法を説明するフローチャートである。 一実施形態に係るイメージ復元モデルをトレーニングさせる方法を説明するフローチャートである。 一実施形態に係るイメージ復元装置の構成を説明するブロック図である。 一実施形態に係るトレーニング装置の構成を説明するブロック図である。 一実施形態に係るイメージ復元装置が実現される機器を示す図である。 一実施形態に係るイメージ復元装置が実現される機器を示す図である。
下記で説明する実施形態は様々な変更が加えられることができる。本特許出願の範囲はこのような実施形態によって制限も限定もされることはない。各図面に提示された同じ参照符号は同じ部材を示す。
本明細書で開示されている特定の構造的又は機能的な説明は、単に実施形態を説明するための目的として例示されたものであり、実施形態は様々な異なる形態で実施され、本明細書に説明された実施形態に限定されることはない。
本明細書で用いる用語は、単に特定の実施形態を説明するために用いられるものであって、本発明を限定しようとする意図はない。単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なる定義がされない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈されるべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
また、添付図面を参照して説明することにおいて、図面符号に関係なく同じ構成要素は同じ参照符号を付与し、これに対する重複する説明は省略する。実施形態の説明において関連する公知技術に対する具体的な説明が実施形態の要旨を不要に曖昧にすると判断される場合、その詳細な説明は省略する。
図1は、一実施形態に係るイメージ復元装置の構造を示す図である。
図1は、イメージ復元装置100におけるイメージセンサの構造を主に図示する。一実施形態に係るイメージ復元装置100によって撮影及び復元されるイメージの品質は、センサ120に含まれる検出エレメントの数、及び検出エレメントに入射される光量によって決定される。例えば、イメージの解像度は、センサ120に含まれる検出エレメントの数により決定され、イメージの感度は検出エレメントに入射される光量によって決定される。検出エレメントに入射される光量は、検出エレメントのサイズに基づいて決定される。検出エレメントのサイズが大きいほど、検出エレメントに入射される光量は増加し、センサ120の動的範囲が増加する。したがって、センサ120に含まれる検出エレメントの数が増加するにつれてセンサ120は高解像度のイメージを撮影することができ、検出エレメントのサイズが増加するにつれてセンサ120は低照度で高感度イメージ撮影に有利に作用する。
イメージ復元装置100の体積は、レンズ111の焦点距離(focal length)fによって決定される。より具体的に、イメージ復元装置100の体積は、レンズ111とセンサ120との間の間隔によって決定されるが、レンズ111によって屈折された光190を収集するために、センサ120は、レンズ111の焦点距離fに位置しなければならず、イメージ復元装置100に含まれるレンズ111とセンサ120は、レンズ111の焦点距離fだけ離隔して配置されなければならない。レンズ111の焦点距離fは、イメージ復元装置100の視野角とレンズ111のサイズ(例えば、レンズ111の口径の半径)によって決定される。例えば、視野角が固定される場合、レンズ111のサイズに比例して焦点距離fが長くなる。また、レンズ111のサイズは、センサ120のサイズに基づいて決定される。例えば、一定の視野角範囲のイメージを撮影するためには、センサ120のサイズが増加することによりレンズ111のサイズを増加させなければならない。
前述した内容によれば、視野角及びイメージの解像度を保持しながらイメージの感度を増加させるためには、イメージ復元装置100の体積が増加してしまう。例えば、イメージの解像度を保持しながらイメージの感度を増加させるには、センサ120に含まれる検出エレメントの数を保持しながら各検出エレメントのサイズを増加させなければならないため、センサ120のサイズが増加する。ここで、視野角の保持には、センサ120のサイズが増加するにつれてレンズ111のサイズが増加し、レンズ111の焦点距離fが長くなるため、イメージ復元装置100の体積が増加する。
イメージ復元装置100の体積を減少させるために、センサ120の解像度を保持しながら検出エレメントのサイズを減少させたり、検出エレメントのサイズを保持しながらセンサ120の解像度を減少させるといった設計方法が考慮される。ただし、センサ120の解像度を保持しながら検出エレメントのサイズを減少させる場合、センサ120のサイズが減少してレンズ111の焦点距離fが短くなってイメージ復元装置100の体積を減少させ得るが、イメージの感度は低下する。この場合、低照度の画質が減少する。また、検出エレメントのサイズを保持しながらセンサ120の解像度を減少させる場合、センサ120のサイズが減少してレンズ111の焦点距離fは短くなってイメージ復元装置100の体積は減少されるが、イメージの解像度は低下してしまう。
スマートフォンカメラのイメージ画質は増加しているが、まだDSLRカメラのイメージ画質より低い。スマートフォンカメラによってキャプチャーされる光量において差があるためである。ただし、光量を確保するためにセンサの大きさが増加した構造は、焦点の長さ(focal length)及び開口の大きさ(aperture size)などが増加するため、スマートフォンのフォームファクターを満たすことができない。以下では、レンズアレイ110を介してスマートフォンのフォームファクターを満たしながらも、高解像度のイメージを撮影することのできるイメージ復元装置100について説明する。
図1を参照すると、イメージ復元装置100は、レンズアレイ110及びセンサ120を含む。レンズアレイ110はレンズを含み、センサ120は検出エレメントを含む。
一実施形態によれば、レンズアレイ110に含まれるレンズそれぞれのサイズを減少させるほど、言い換えれば、同一の広さに含まれるレンズ数を増加させるほどレンズ111の焦点距離fは小さくなり、イメージ復元装置100の厚さは減少する。この場合、イメージ復元装置100は、各レンズ111で撮影された低解像度イメージを組み合わせてオリジナルの高解像度のイメージを復元することができる。したがって、レンズアレイ110に含まれるレンズを分割することで、薄型カメラ(thin camera)を実現することができる。
レンズアレイ110の個別レンズ111は、自体のサイズに対応するセンサ120の一定領域をカバーする。言い換えれば、当該領域に含まれるセンサ120の検出エレメントには、当該個別レンズ111を通過した光190が入射される。光190は、複数の光線を含む。光線191は、光子101の流れに対応する。センサ120の検出エレメントのそれぞれは、レンズアレイ110のレンズを通過した光線191に基づいて検出情報を生成する。例えば、検出エレメント121は、レンズ111を介して入射される光線191に基づいて検出情報を生成する。イメージ復元装置100は、センサ120によって出力された検出情報に基づいて、イメージ復元装置100の視野に含まれる地点に関するオリジナル色信号に対応する色情報(例えば、色値)を決定し、決定された色情報に基づいて撮影イメージを復元することができる。
また、検出エレメント121は、任意の色を検出するための色フィルタを含む。検出エレメント121は、特定の色に対応する色値を検出情報として生成する。センサ120を構成する複数の検出エレメントのそれぞれは、空間的に隣接している隣接の検出エレメントと異なる色を検出するように配置される。
検出情報の多様性が十分に確保され、イメージ復元装置100の視野に含まれる地点に対応するオリジナル信号情報と検出情報との間に完全ランク(full rank)関係が形成されるとき、センサ120の最大の解像度に対応する撮影イメージが導き出される。検出情報の多様性は、レンズアレイ110に含まれるレンズの数及びセンサ120に含まれる検出エレメントの数のようなイメージ復元装置100のパラメータに基づいて確保され得る。
参考として、図1に図示されていないが、イメージ復元装置100は、イメージを復元するために用いられるイメージ復元モデルを格納するメモリ、及びイメージ復元モデルを用いてイメージを復元するプロセッサを含んでもよい。
一実施形態に係るイメージ復元装置100は、ノイズ成分を含まない理想的な条件から除外されるイメージを撮影する実際の条件(real condition)に含まれる様々なノイズ成分にも強靭にイメージを復元することができる。例えば、光学的数回、製造誤差、レンズとセンサとの間の補正誤差が実際の条件として発生する可能性があり、カメラから被写体までの深度は知らされていないことがある。また、イメージ復元装置100は、任意のパターン(例えば、ベイヤー(Bayer)パターン)などに関わらず、イメージを復元することができる。以下で説明する実施形態は、イメージ復元装置100が多重レンズで撮影された複数の低解像度イメージを用いて高解像度のイメージを復元する動作について説明する。後述するが、複数の低解像度イメージは、複眼視野イメージの形態に示されてもよい。
図2は、一実施形態に係る検出エレメントがレンズを介して光線を受信する形状を示す図である。
上述したように、センサは、個別地点(points)230X1~X10に対応する光線を受信する。光線はレンズ210を介してセンサによって検出される。例えば、個別地点230のそれぞれから複数の光線が放出される。同一の地点から放出された光線は、ライトフィールド(LF:light field)を形成する。任意の地点から放出されたライトフィールドは、被写体上の任意の地点から反射された光線の方向及び強度を示すフィールドである。例えば、第1地点X1から放出された光線は第1ライトフィールドを形成し、第1検出エレメントS1、第4検出エレメントS4、及び第7検出エレメントS7に入射する。残りの地点X2乃至X10のそれぞれから放出された光線もそれぞれそれ対応するライトフィールドを形成する。個別地点230は、例えば、任意のオブジェクト(例えば、被写体)上の地点であってもよい。個別地点230から放出される光線は、例えば、太陽光などがオブジェクトから反射した光線であってもよい。
検出エレメント220(例えば、S1~S10)は、複数のレンズを通過した光線を重複して検出することができる。例えば、図2に示されたレンズアレイでは、レンズ210からセンサまでの焦点距離は減少し得る。したがって、検出エレメントS1は、地点X1~X3から放射された光線が重なった検出情報(例えば、強度値)を生成する。イメージ復元装置は、イメージを復元するために、このような重なった検出情報を復元する必要がある。
図2に示された検出エレメントS1~S10によって生成される検出情報は、下記の数式(1)により、地点230のそれぞれから入射される光線に対応するオリジナル信号情報(例えば、強度値)にモデリングされる。
Figure 0007101646000001

上述した数式(1)において、Sは個別検出エレメントによって検出される検出情報(例えば、検出された強度値)を指示する行列を示す。Xは、個別地点から検出エレメントS1~S10に入射される光線に対応する信号値(例えば、入射した光線の色値)を指示する行列を示す。Tは、変換行列として検出エレメントS1~S10によって検出された検出情報、及び入射される光に対応する信号情報間の関係を示す。図2に示された構造において、個別地点X1~X10に対応する光線、レンズ、及び検出エレメントS1~S10は、下記の数式(2)のようにモデリングされる。下記の数式(2)において、個別地点X1~X10は、イメージセンサから無限の焦点位置(infinite focal point)に配置されたものにモデリングされる。例えば、個別地点X1~X10及びイメージセンサ間の距離は閾値距離よりも大きい。
Figure 0007101646000002
上述した数式(2)において、説明の便宜のために、個別地点X1~X10のそれぞれに対応する光線の信号情報(例えば、光線強度値)をX1~X10に表示した。また、検出エレメントS1~S10で検出された検出情報(例えば、検出強度値)もS1~S10に表示した。一実施形態によれば、センサを構成する検出エレメントS1~S10に対応する検出情報(例えば、色情報)と、個別地点から入射される光線X1~X10に対応するオリジナル信号間の関係(例えば、上述した変換行列)は、上述したレンズ210とセンサとの間の配置、レンズアレイを構成するレンズの個数、センサを構成する検出エレメントS1~S10の個数などに基づいて決定される。
下記の図3は、上述したモデリングに基づいて検出エレメントに対応するピクセルを再配置する動作について説明する。
図3は、一実施形態に係る検出エレメントに対応するピクセルの再配置を概念的に示す図である。
一実施形態によれば、複数のレンズ及び複数の検出エレメント311は、互いに対してずれて配置されている。例えば、レンズは整数個数の検出エレメント311をカバーするものではなく、非整数(non-integer)個数の検出エレメント311をカバーする。一実施形態に係るマルチレンズアレイ構造は、分数整列の構造(fractional alignment structure)で実現する。図3に示すように、各レンズは、光学中心軸(OCA:optical center axis)がそれぞれ異なる。マルチレンズアレイ構造のパラメータは、検出エレメントの個数P及びレンズの個数Lである。レンズの個数L及び検出エレメントの個数P間の比率P/Lは、実数として決定される。レンズのそれぞれは、P/Lに対応するピクセルオフセットと同じ個数の検出エレメントをカバーする。参考として、図3で各レンズは3.33個の検出エレメントをカバーするものと示された。このように各レンズの光学中心軸が少しずつ異なるため、各レンズは互いに異なるライトフィールド情報を受信する。各レンズの主光線(chief ray)の方向も変わるため、イメージセンサは、光学的により多くの検出情報を、ライトフィールド情報の他の組合せを検出する検出エレメントのそれぞれに基づいて取得することができる。したがって、イメージ復元装置は、このように取得された様々な検出情報を介してより高解像度のイメージを復元することができる。
図3は、レンズ及び検出エレメント311間の幾何構造を示した断面図であり、第1レンズは、第1検出エレメントS1ないし第3検出エレメントS3の全てと共に、第4検出エレメントS4の一部(例えば、1/3に該当する部分)をカバーする。第2レンズは、第4検出エレメントS4の一部及び第7検出エレメントS7の一部と共に、第5検出エレメントS5及び第6検出エレメントS6の全てをカバーする。第3レンズは、第8検出エレメントS8ないし第10検出エレメントS10及び第7検出エレメントS7の一部をカバーする。
上述したレンズ及び検出エレメント311の幾何構造により、各レンズがカバーする検出エレメント311は、他のレンズによってカバーされる検出エレメントが検出するライトフィールド情報と同一ではないライトフィールド情報を検出する。ライトフィールド情報は、複数のライトフィールドが組み合わせられた情報を示すことができる。例えば、第1レンズによってカバーされる第1検出エレメントS1は、第1地点X1~第3地点X3に対応するライトフィールドを検出する。一方、第2レンズによってカバーされる第5検出エレメントS5は、第3地点X3~第5地点X5に対応するライトフィールドを検出する。
一実施形態に係るイメージ復元装置は、ライトフィールド情報間の相関性に基づいて、入力イメージのピクセルの位置を再配列することができる。例えば、イメージ復元装置は、複数の検出エレメント311で互いに類似のライトフィールド情報を検出した検出エレメント311のピクセルが互いに隣接するよう、入力イメージ(例えば、複眼視野イメージ)のピクセルを再配列することができる。
例えば、イメージ復元装置は、図3に示すように、個別検出エレメントで検出された信号の強度値を指示するピクセルを、当該検出エレメントから検出されるライトフィールド及び他の検出エレメントから検出されるライトフィールド情報間の類似度に応じて再配列することができる。例えば、2つの検出エレメント311で検出された2つのライトフィールド情報が互いに同一のライトフィールドを多く含むほど、2つのライトフィールド情報間の類似度は高い。
一実施形態によれば、イメージ復元装置は、光線を反射する被写体の地点がイメージセンサから無限の焦点位置に配置されたと仮定し、各検出エレメントから検出されるライトフィールド情報を決定する。例えば、イメージ復元装置は、イメージセンサから閾値距離よりも遠い地点から放射される光線及び複数の検出エレメント311間の位置関係に基づいて、複数の検出エレメント311のそれぞれに対して当該検出エレメントから検出されるライトフィールドを放出する地点を決定する。イメージ復元装置は、空間的に互いに隣接する地点から放出されるライトフィールドに対応するピクセルが隣接するようにピクセルを再配列することができる。
参考として、図2において、個別地点X1~X10は互いに隣接する順に示されたものである。例えば、第1地点X1は第2地点X2に隣接し、第2地点X2は第1地点X1及び第3地点X3に隣接する。互いに隣接する二地点は、例えば、被写体で空間的に隣接する地点であり得る。
第1検出エレメントS1で検出されたライトフィールド情報及び第8検出エレメントS8で検出されたライトフィールド情報は、両方が第2地点X2及び第3地点X3に対応するライトフィールドを含む。したがって、第1検出エレメントS1及び第8検出エレメントS8は、互いに類似のライトフィールド情報を検出する。上述した数式(2)を互いに類似のライトフィールド情報に対応するピクセルが隣接するように再配列すると、下記の数式(3)のように示すことができる。
Figure 0007101646000003
上述した数式(3)により再配列された検出エレメント312は、図3に示すように図示される。図3に示すように、第1検出エレメントS1は第1レンズによってカバーされ、第8検出エレメントS8は第3レンズによってカバーされ、第5検出エレメントS5は第2レンズによってカバーされる。したがって、互いに異なるレンズを通過した光線に対応する検出情報が隣接するよう、イメージ復元装置はピクセルを再配列することができる。
以下、図4では再配列によるイメージを説明する。
図4は、一実施形態に係る複眼視野イメージを再配列して対象イメージを生成する過程を説明する図である。
一実施形態に係るイメージ復元装置は、オリジナル場面401を上述した構造のレンズ及び検出エレメント410を介して撮影する。複数のレンズを通過した光線を検出することによって、イメージ復元装置は、複眼視野(CEV:compound eye vision)イメージ402を取得する。複眼視野イメージ402は、昆虫の複眼を介して観測されるように、同一の場面401を重複的に撮影したイメージを示す。例えば、イメージ復元装置は、アレイ形態に配列された複数のレンズを介して複数の検出エレメント410で受信された光線の強度に基づいて複眼視野イメージ402を取得することができる。
例えば、図4において、イメージセンサは、複数のレンズによってカバーされる領域に応じて検出エレメント410が分類される。図4において、第1レンズに対応する領域411ないし第9レンズに対応する領域419として合計9個の領域が示されており、説明の便宜のために領域411~419のそれぞれが整数個の検出エレメント410を含むものと示すが、これに限定されることなく、領域411~419のそれぞれが非整数個(fractional number)の検出エレメント410を含んでもよい。
参考として、図4において、場面401の任意の地点から反射された光線がイメージセンサに達するピクセルをそれぞれ1番ピクセル~9番ピクセルに示す。図4で複眼視野イメージ402に含まれたイメージそれぞれは、複数のレンズのそれぞれに対応する。
イメージ復元装置は、複数の検出エレメント410から検出されるライトフィールド情報に基づいて複眼視野イメージ402を再配列する。イメージ復元装置は、複眼視野イメージ402を再配列することで対象イメージ403を生成する。例えば、イメージ復元装置は、上述した数式(3)を参照して説明したように、類似のライトフィールド情報を検出するものと決定された検出エレメント410のピクセルを集める(gather)。
例えば、図4に示すように、再配列されたピクセル440で1番ピクセル~9番ピクセルが互いに隣接している。このようなピクセルの再配列を下記の数式(4)のように示す。
Figure 0007101646000004
上述した数式(4)において、Sは個別検出エレメントによって検出される検出情報を指示する行列を示す。Xは個別地点から検出エレメント410に入射される光線に対応する信号値を指示する行列を示す。Tは変換行列として、検出エレメント410によって検出された検出情報及び入射される光に対応する信号情報間の関係を示す。Pは再配列の行列として、イメージセンサ及びオブジェクト間の距離(例えば、閾値よりも大きい距離)に基づいて類似のライトフィールド情報に対応するピクセルが隣接するように整列させる行列を示す。
イメージ復元装置は、上述した数式(4)により、オリジナル場面401を復元するために行列P・Tの逆行列を用いる。行列P・Tの逆行列が存在するためには、行列P・Tが完全ランクを有しなければならない。したがって、撮影装置のパラメータは、行列P・Tが完全ランクを有するように調整される。一実施形態に係る行列P・Tは逆行列が存在するため、オリジナル信号情報を指示する行列Xは、行列P・Tの逆行列及び検出エレメントによって検出された検出情報を指示する行列Sの積から下記の数式(5)のように算出される。
Figure 0007101646000005
上述した数式(5)において、Nはノイズとして、ライトフィールド情報の検出で発生するノイズを示す。
一実施形態に係るイメージ復元装置は、場面401を撮影して取得された複眼視野イメージ402を再配列することで、対象イメージ403を生成することができる。場面401がイメージセンサから比較的に遠い距離に位置するオブジェクトだけを含む場合、図4に示すように、オブジェクトから反射された光線に対応するピクセルが互いに隣接するように再配列されるため、イメージ復元装置は高解像度のイメージを取得することができる。
ただし、これはオブジェクトがイメージセンサに対して無限の焦点距離(例えば、閾値距離よりも大きい距離)以後に位置する場合を仮定したのである。以下、比較的に近い距離に対するイメージ復元動作について説明する。
図5及び図6は、一実施形態に係るオブジェクトとの距離に応じて光線を受信する検出エレメントが変化することについて説明する図である。
イメージセンサに対する被写体の位置が変化すると、任意のライトフィールド情報が検出される検出エレメントも変化する。
例えば、図5に示すように、任意の被写体531が無限の焦点位置である第6地点X6にある場合、第2検出エレメントS2、第6検出エレメントS6、及び第9検出エレメントS9から第6地点X6に対応するライトフィールドが検出される。これとは異なって、第6地点X6の方向に被写体532が有限の(finite)深度に位置する場合、第1検出エレメントS1、第6検出エレメントS6、及び第10検出エレメントS10から第6地点X6に対応するライトフィールドが検出される。したがって、検出エレメント510で同じ方向の地点に対するライトフィールドが検出される検出エレメントの位置は、イメージセンサと地点との間の距離によって変わり得る。
図6は、3×3レンズアレイの構造で、無限の焦点位置の被写体631が存在する場合、イメージセンサ610で当該被写体631の任意の地点に対応するライトフィールドが検出される第1検出エレメント691を示す。無限の焦点位置及びイメージセンサ610の間の中間距離に被写体632が存在する場合、イメージセンサ610は、任意の地点に対応するライトフィールドを第2検出エレメント692から検出する。中間距離よりも近い距離に被写体633が存在する場合、イメージセンサ610は、第3検出エレメント693から被写体633の任意の地点に対するライトフィールドを検出する。
一実施形態に係るイメージ復元装置は、無限の焦点位置でライトフィールド情報の相関性の高いピクセルどうしが隣接するよう再配列された対象イメージから、被写体との深度を考慮した機械学習構造を介して出力イメージを復元することができる。このように復元された出力イメージは、高解像度のイメージである。
図7は、一実施形態に係る複眼視野イメージの再配列で近接したオブジェクトに対する解像度の低下を説明する図である。
一実施形態によれば、イメージ復元装置は、場面701を撮影することによって複眼視野イメージ702を生成する。例えば、場面701は、イメージセンサに極めて近い距離、例えば、被写体のイメージを復元するための最小距離の未満に位置する詳細部分781を含む。最小距離は、検出エレメントの個数及び大きさ、検出エレメント及びレンズ間の距離、レンズの個数及び大きさに基づいて決定される。例えば、最小距離は、イメージセンサの最外郭レンズ及びイメージセンサの中心レンズ間の距離に基づいて決定される。また、場面701は、無限の焦点位置及びイメージセンサ間の中間程度の距離に対象部分791を含む。
検出エレメント710によって検出された複眼視野イメージ702で、場面701の対象部分791に対応する地点から反射した光線は、第1領域711で1番ピクセルに対応する。同様に、対象部分791に対応する地点から反射した光線は、第2領域712で2番ピクセル、第3領域713で3番ピクセル、第4領域714で4番ピクセル、第5領域715で5番ピクセル、第6領域716で6番ピクセル、第7領域717で7番ピクセル、第8領域718で8番ピクセル、第9領域で9番ピクセルに対応する。図4に示されたものとは異なって、図7では、対象部分791に対応するライトフィールドのうち一部が各レンズによってカバーされる中心検出エレメントでない、その周辺の検出エレメントで検出される。
イメージ復元装置は、図3及び図4を参照して上述したものと類似に、複眼視野イメージ702のピクセルを再配列する。ただし、対象部分791に対するピクセル741で対象部分791から誘発されたライトフィールドに対応する1番ピクセルないし9番ピクセルは、互いに隣接しないように再配列される。図3及び図4では、オブジェクトが無限の焦点位置にあると仮定したが、図7では、対象部分791が中間程度の位置にあるためである。したがって、複眼視野イメージ702が再配列された対象イメージ703は、オリジナルの場面に比べてブラー(Blur)に示される。
さらに、場面の詳細部分781から復元された、対象イメージ703で近い部分782は、さらにブラーに復元され得る。詳細部分781に対して再配列されたピクセル742は、カメラから詳細部分781までの物理的距離がカメラから中間位置を有する対象位置791までの物理的距離よりも短いため、対象部分791に対して再配列されたピクセル741よりもさらに遠く再配列されるためである。
一実施形態に係るイメージ復元装置は、このような距離に応じるライトフィールドの検出位置変化を考慮して、様々な拡張間隔を有するカーネルを用いた畳み込みニューラルネットワークに基づいて複眼視野イメージ702を高解像度に復元することができる。
以下は、畳み込みニューラルネットワークを用いた、対象イメージ703の復元を説明する。
図8は、一実施形態に係る対象イメージから出力イメージを復元する過程を説明する図である。
一実施形態に係るイメージ復元装置は、入力レイヤ812に検出エレメント811によって検出された複眼視野イメージを再配列して対象イメージ803を生成する。イメージ復元装置は、対象イメージ803のピクセルをイメージ復元モデル850に入力する。
イメージ復元装置は、上述したことにより生成された対象イメージ803から、イメージ復元モデル850に基づいて出力イメージ804を算出する。例えば、イメージ復元モデル850は、基準複眼イメージが再配列された基準入力イメージから基準出力イメージ804を出力するよう、トレーニングされたモデルであり得る。イメージ復元モデル850は、入力レイヤ、複数の隠れレイヤ、及び出力レイヤを含む。イメージ復元モデル850は、例えば、機械学習構造として、畳み込みニューラルネットワークを含んでもよく、隠れレイヤは、畳み込みレイヤを含む。畳み込みニューラルネットワークは、畳み込みレイヤを含むニューラルネットワークを示す。例えば、イメージ復元モデル850は、様々な拡張間隔を有するカーネルに対応する畳み込みレイヤを含む。カーネルは、n×nの大きさである。ここで、nは1以上の整数であってもよく、以下ではn=3である例示を主に説明する。様々な拡張間隔のカーネルは、下記の図9A~図9Cを参照して詳細に説明する。
例えば、イメージ復元装置は、イメージセンサ内でレンズ及び検出エレメントの配置構造に基づいて決定された複数の拡張間隔のそれぞれに対応するカーネルを有する畳み込みレイヤに基づいて出力イメージ804を算出する。例えば、拡張間隔のそれぞれは、レンズの間に誘発されたディスパリティ(disparity)のそれぞれに対応する。このような様々な拡張間隔に対応するカーネルを有する畳み込みレイヤを用いて、対象イメージ803に対してn×nカーネルを用いた畳み込み演算を繰り返すことで、特徴データ(例えば、イメージ特徴)を抽出することができる。イメージ復元装置は、複数のレベルに対応する畳み込みレイヤを介してより抽象化された特徴を抽出することができる。例えば、イメージ復元装置は、N個のレベルに対応する畳み込みレイヤ(例えば、Conv~Conv)を含む。ここで、Nは1以上の整数である。また、各畳み込みレイヤは、様々な拡張間隔を有する複数のカーネルに対応する隠れ出力を生成し得る。
イメージ復元装置は、複数のレベルに対応する畳み込みレイヤの下位レベル(例えば、入力レイヤに近いレベル)から上位レベル(例えば、出力レイヤに近いレベル)に対象イメージ803に対応する入力データを伝播することによって、対象イメージ803が抽象化された特徴データを抽出することができる。また、イメージ復元装置は、このような対象イメージ803が抽象化された特徴データから最終的に復元された出力イメージ804を算出する。出力イメージ804のピクセル890は、実際の場面に類似する高解像度に復元されたピクセル値を有することができる。
一実施形態に係るイメージ復元装置は、様々な拡張間隔を有するカーネルに対応する畳み込みレイヤを用いることによって、場面に示されるオブジェクトまでの正確な深度推定を行わなくても、高解像度の出力イメージ804を生成することができる。カーネルは、オブジェクトとイメージセンサとの間の距離に応じてイメージセンサに入射される光線の分布により設計された拡張間隔を有し、イメージ復元装置は、畳み込みレイヤを介してイメージの特徴を抽出しながら、上述したカーネルを介して類似のライトフィールド情報を有するピクセルフォーカシングし得る。図8に示すように、対象イメージ803は、多少ブラーのある形態の近いオブジェクト882を含むが、イメージ復元装置は、イメージ復元モデル850に基づいて対象イメージ803から鮮明な形態の近いオブジェクト883を含む出力イメージ804を算出することができる。
参考として、対象イメージ803は、ライトフィールド間の相関性の高いピクセルが集まったイメージであるため、イメージ復元モデル850は、当該対象イメージ803からより高解像度の出力イメージ804を算出することができる。例えば、複眼視野イメージを直接ニューラルネットワークにトレーニングさせることよりも、再配列の後にトレーニングさせることがさらに有利である。複眼視野イメージがニューラルネットワークに入力される場合、復元すべきピクセル位置と相関性の低いイメージ信号がニューラルネットワークに参照されて復元されたイメージの解像度が低下されるためである。
参考として、ニューラルネットワークは、ディープニューラルネットワーク(DNN:deep neural network)の例示である。DNNは、完全接続ネットワーク(fully connected network)、ディープ畳み込みネットワーク(deep convolutional network)、及びリカレントニューラルネットワーク(recurrent neural network)などを含む。ニューラルネットワークは、ディープラーニングに基づいて非線形関係にある入力データ及び出力データを互いにマッピングすることによりイメージ復元などを行う。ディープラーニングは、ビッグデータセットからイメージ復元のような問題を解決するための機械学習の方式である。ディープラーニングの教師あり(supervised)又は教師なし(unsupervised)学習を介して入力データ及び出力データを互いにマッピングすることができる。
ニューラルネットワークは、入力レイヤ、隠れレイヤ、及び出力レイヤを含む。入力レイヤ、隠れレイヤ、及び出力レイヤはそれぞれ複数のノードを含む。図8において隠れレイヤは、畳み込みレイヤとして示されている。
図8に示されたイメージ復元モデル850は、N個の隠れレイヤを含む。Nは1以上の整数であってもよい。また、ニューラルネットワークは、入力データを受信するための別途の入力レイヤを含むが、これに限定されることなく、入力データが隠れレイヤに直接入力されてもよい。ニューラルネットワークから出力レイヤを除いたレイヤのノードは、出力信号を送信するためのリンクを介して次のレイヤのノードと接続される。リンクの数は、次のレイヤに含まれたノードの数に対応する。
隠れレイヤに含まれる各ノードには、以前レイヤに含まれるノードの加重された入力に関する活性関数の出力が入力される。加重された入力は、以前レイヤに含まれるノードの入力に加重値が乗算されたものである。加重値は、ニューラルネットワークのパラメータに称される。一実施形態によれば、加重値は、畳み込みレイヤでカーネル行列に含まれたカーネル要素に対応する。活性関数は、シグモイド(sigmoid)、双曲線タンジェント(hyperbolic tangent;tanh)及びReLU(正規化線形関数:rectified linear unit)を含み、活性関数によってニューラルネットワークに非線型性が形成される。出力レイヤに含まれる各ノードには、以前レイヤに含まれるノードの加重された入力が入力される。
ニューラルネットワークの幅と深度が十分に大きければ、任意の関数を実現する程の容量を有することができる。ニューラルネットワークが適切なトレーニング過程を介して十分に多いトレーニングデータを学習すれば、最適な復元性能を達成することができる。
以下、図9A~図9Cを参照して各畳み込みレイヤに対応する、様々な拡張間隔を有するカーネルについて説明する。
図9A~図9Cは、一実施形態に係る畳み込みレイヤで用いられる拡張間隔を有するカーネルを説明する図である。
カーネルは、畳み込みニューラルネットワークのパラメータとして、例えば、行列のように定義される。カーネルは、畳み込み行列とも呼んでもよく、フィルタとも呼んでもよい。カーネルは正方形の行列として、例えば、n×n行列に定義される。nは1以上の整数である。カーネルが行列(以下、カーネル行列)に定義される場合、カーネル行列は複数の要素を含む。nが奇数である場合、本明細書でカーネル行列において、1行目の1列目の要素(例えば、(1,1)の要素)、1行目の中間列の要素(例えば、(1、(n+1)/2)の要素)、1行目の最後列の要素(例えば、(1、n)の要素)、中間行の1列目の要素(例えば、((n+1)/2、1)の要素)、中心要素(例えば、((n+1)/2、(n+1)/2)の要素)、中間行の最後列の要素(例えば、((n+1)/2、n)の要素)、最後行の1列目の要素(例えば、(n、1)の要素)、最後行の中間列の要素(例えば、(n、(n+1)/2)の要素)、及び最後行の最後列の要素(例えば、(n、n)の要素)は、マシンラーニングによってトレーニングされた任意の加重値(例えば、非ゼロ値(non-zero value))を有し、残りの要素は0の値を有するが、これに限定されることはない。本明細書において、カーネル行列で非ゼロ値を有するカーネルの行列の要素をカーネル要素と示すことができる。参考として、図9A~図9Cではカーネル要素をドット(dot)に表現し、残りの0の値を有する要素は空欄(blank)に表現した。
ニューラルネットワークを構成している畳み込みレイヤは、1つ又はそれ以上の個数のカーネルを有する。プロセッサは、畳み込みレイヤのカーネルを用いて畳み込み演算を行ってもよい。例えば、プロセッサは、カーネルを入力データに対して巡回(stride)しながら、カーネルの巡回されたピクセル位置でカーネルの要素及び入力データで当該のカーネル要素に対応する値の間の行列積を行う。このように、プロセッサは、任意のピクセル位置に対して、カーネルの要素及びそれに対応する入力データ値の行列積を算出することで、当該ピクセル位置に対する特徴値を出力することができる。
プロセッサは、個別カーネルごとに入力データから特徴マップを抽出する。例えば、畳み込みレイヤがm個のカーネルを有する場合、プロセッサは、当該の畳み込みレイヤに基づいて入力データからm個の特徴マップを抽出する。mは1以上の整数である。
カーネル行列に含まれる要素は一種の加重値として、トレーニングの対象となり得る。例えば、ニューラルネットワークの損失が最小化されるように、例えば、逆伝播によってイメージ復元モデルのトレーニングに基づいてカーネルの要素がアップデートされる。ただし、これに限定されることはない。
カーネルの大きさは、カーネル行列の行の個数及び列の個数により決定される。例えば、カーネルが正方形の行列として、n×n行列から構成される場合、当該カーネルの大きさはn×nである。本明細書ではn=3である場合について主に説明し、この場合、カーネル行列に含まれる要素の個数は合計9個であり得る。
一実施形態によれば、イメージ復元モデルは、様々な拡張間隔を有するカーネルに対応する畳み込みレイヤを含む。図9A~図9Cは、拡張間隔を有するカーネルの例示を示す。
本明細書で拡張間隔は、同じ行又は同じ列の内で任意のカーネル加重値及び他のカーネル加重値が配置された要素間の間隔を示す。
イメージ復元モデルは、イメージセンサから閾値距離よりも遠く位置する地点で放射された光線が受信される検出エレメントの位置関係に基づいて決定されたカーネルに対応する畳み込みレイヤを含む。例えば、図9Aは、被写体がイメージセンサから無限大の距離にあると仮定した場合について最適化されたカーネルであって、基本カーネル(default kernel)のように示してもよい。カーネルのカーネル加重値間に離隔する拡張間隔961が基本値(例えば、1)であってもよい。
図9Bは、拡張間隔962が2であるカーネル952を示す。図9Cは、拡張間隔963が3であるカーネル953を示す。ただし、カーネルの拡張間隔が図9A~図9Cに限定されることはない。カーネルの拡張間隔はkであり、kは1以上の整数である。
さらに、イメージ復元モデルは、イメージセンサから最小撮影距離に位置する地点に放射された光線が受信される検出エレメントの位置関係に基づいて決定されたカーネルに対応する畳み込みレイヤを含む。最小撮影距離に対応するカーネルは、イメージセンサの最小撮影距離、イメージセンサの中心レンズから最外郭レンズまでの距離、及びレンズの焦点距離に基づいて算出された最大ディスパリティにより決定された拡張間隔を有する。このように、被写体がイメージセンサから最小撮影距離にあると仮定する場合に対して、算出された拡張間隔を有するカーネルを最大カーネルと示す。最大カーネルは、当該イメージセンサに対して使用され得る拡張間隔のうち最も大きい拡張間隔を有する。最大カーネルの拡張間隔は最大ディスパリティにより決定され、最大ディスパリティについては、下記の図10を参照して詳細に説明することにする。
上述したように、イメージ復元装置は、拡張間隔が互いに異なる数個のカーネルに対応する畳み込みレイヤを含むイメージ復元モデルに基づいて、被写体の深度により多重レンズを介して互いに異なる位置の検出エレメントから検出されるピクセル値を組み合わせて高解像度のイメージを復元することができる。
図10は、一実施形態に係る最大ディスパリティを説明する図である。
ディスパリティは、任意のあるレンズに属する検出エレメント1010で被写体との距離に応じて光線が検出される位置が可変されるとき、可変された位置とレンズの中心位置との間の差を示す。例えば、イメージ復元モデルは、イメージセンサの幾何構造(例えば、レンズ及び検出エレメントの配置)により全ての可能なディスパリティごとの拡張間隔を有するカーネルに対応する畳み込みレイヤを含む。イメージセンサで各レンズによってカバーされる検出エレメントの個数は限定されるため、ディスパリティも離散的に示されてもよい。
最大ディスパリティは、レンズアレイのうち最外郭レンズによってカバーされる領域に位置する検出エレメント1010で、無限の焦点位置から放出された光線を受信する検出エレメントと、最小撮影距離から放出された光線を受信する検出エレメントとの間のディスパリティを示す。
最大ディスパリティは、イメージセンサの最小撮影距離、イメージセンサの中心レンズから最外郭レンズまでの距離、及びレンズの焦点距離に基づいて決定される。例えば、図10において、被写体がイメージセンサから最小撮影距離Dに位置する状況を仮定する。図10において、Lは中心レンズから最外郭レンズまでの距離、fはレンズの焦点距離を示す。ここで、最大ディスパリティは、2×h=2(L×f)/Dで算出される。最大ディスパリティをピクセル個数の単位に表現する場合、(2×h)/pixel_pitchに示す。pixel_pitchは、イメージで任意のピクセルのピッチを示す長さとして、例えば、イメージセンサに含まれた検出エレメント1010のそれぞれの長さ又は幅に対応する。
一実施形態に係るイメージ復元モデルは、最大ディスパリティを基準にして決定された拡張距離、及び最大ディスパリティを基準にして決定された個数(number)のカーネルに対応する畳み込みレイヤを含む。
図11は、一実施形態に係るイメージ復元モデルの詳細構造を説明する図である。
一実施形態に係るイメージ復元装置は、上述したように、複眼視野イメージ1102から再配列されたイメージ1103(例えば、対象イメージ)を生成する。イメージ復元装置は、対象イメージからイメージ復元モデル1150に基づいて出力イメージ1104を算出する。
例えば、イメージ復元装置は、イメージセンサ内でレンズ及び検出エレメントの配置構造に基づいて決定された複数の拡張間隔のそれぞれに対応するカーネルを有する畳み込みレイヤに基づいて、出力イメージを算出し得る。イメージ復元モデル1150は、検出エレメント配置構造及びイメージセンサから地点までの距離に基づいて決定された拡張間隔を有するカーネルを有する畳み込みレイヤを含む。
イメージ復元モデル1150は、複数のレベル1151に対応する畳み込みレイヤを含む。イメージ復元モデル1150の入力側に近いレイヤであるほど、低いレベルに対応するレイヤである。イメージ復元モデル1150の出力側に近いレイヤであるほど、高いレベルに対応するレイヤである。
また、イメージ復元モデル1150は、互いに異なる拡張間隔を有するカーネルのそれぞれに対応する畳み込みレイヤを含む。イメージ復元モデル1150は、同一の拡張間隔を有する複数のカーネルに対応する畳み込みレイヤを含む。例えば、図11で、第1畳み込みレイヤ(1st Multi-Dilation Conv)は同一の大きさ(例えば、3×3)のカーネルを様々な拡張間隔に含むことができる。第1畳み込みレイヤ(1st Multi-Dilation Conv)は拡張間隔が1であるカーネルを7個、拡張間隔が10であるカーネルを6個、拡張間隔が21であるカーネルを7個、拡張間隔が32であるカーネルを6個、拡張間隔が43であるカーネルを6個、拡張間隔が54であるカーネルを7個、拡張間隔が65であるカーネルを6個、拡張間隔が76であるカーネルを7個、拡張間隔が87であるカーネルを6個、拡張間隔が98であるカーネルを6個含む。したがって、第1畳み込みレイヤ(1st Multi-Dilation Conv)のカーネルは、拡張間隔が1から98まで多様であり、イメージ復元モデル1150は、各拡張間隔ごとに複数の特徴マップを抽出することができる。例えば、拡張間隔が1であるカーネルに対応してイメージ復元モデル1150は7個の特徴マップを抽出することができる。
参考として、図11において各レベルのレイヤは、レイヤの入力側及び出力側に畳み込みレイヤを含み、二畳み込みレイヤ間にReLUレイヤを含むものと示したが、これに限定されることはない。
イメージ復元モデル1150は、下位レイヤであるほど様々な拡張間隔のカーネルに対応する畳み込みレイヤを含み、上位レイヤであるほど減少した拡張間隔のカーネルに対応する畳み込みレイヤを含む。例えば、イメージ復元モデル1150は、下位レイヤから上位レイヤまで各畳み込みレイヤに対応するカーネルの拡張間隔の個数及び大きさが徐々に減少する。例えば、第2畳み込みレイヤ(2nd Multi-Dilation Conv)は、第1畳み込みレイヤ(1st Multi-Dilation Conv)に比べて、拡張間隔が98であるカーネルの個数が6個から2個に減少し、代わりに、拡張間隔が1であるカーネルの個数が7個から11個に増加するよう設計されている。また、レイヤのレベルが増加するほど、カーネルの拡張間隔が徐々に減少する。最後の第19畳み込みレイヤ(19th Multi-Dilation Conv)は、拡張間隔が1であるカーネルのみを64個含んでいる。したがって、イメージ復元モデル1150のレイヤは、データの次元を保持しながら、カーネルの拡張間隔が徐々に減少するよう設計されることができる。上位レイヤは、より広いピクセル領域をカバーすることができる。
一実施形態に係るイメージ復元装置は、上述した畳み込みレイヤに基づいて対象イメージから特徴データを抽出する。イメージ復元装置は、特徴データからイメージ復元モデル1150の残りのレイヤに基づいて出力イメージを生成する。例えば、イメージ復元装置は、イメージ復元モデル1150の下位レイヤから上位レイヤに向かって、対象イメージを伝えることによって最終的に出力イメージを生成することができる。イメージ復元モデル1150の下位レイヤから上位レイヤに伝播されるほど、より抽象化された特徴を抽出することができる。図11に示された例示として、イメージ復元モデル1150で各レベルに対応する畳み込みレイヤは合計64個の特徴マップを抽出し、イメージ復元装置は、このように抽出された特徴マップから出力イメージを生成することができる。
カーネルの大きさは保持しながら、様々な拡張間隔のカーネルを用いることによって、イメージ復元装置は演算量が増加されることなく、高解像度のイメージを復元することができる。イメージ復元装置は、各オブジェクトに対する深度推定を行わなくても、高解像度のイメージを復元することができる。
図1~図11では、様々な拡張間隔を有するカーネルを用いたイメージ復元について説明したが、下記の図12では、単一の拡張間隔を有するカーネルを用いたイメージ復元について説明する。
図12は、他の一実施形態に係るイメージ復元過程を説明する図である。
一実施形態によれば、イメージ復元モデル1250は、単一の拡張間隔を有するカーネルに対応する畳み込みレイヤを含む。
例えば、イメージ復元装置は、イメージセンサと対象オブジェクトとの間の距離別に入力イメージを再配列することで、他の深度に対応する複数の対象イメージ1231,1232,1233を取得することができる。上述したように、被写体とイメージセンサとの間の距離に応じて、互いに類似のライトフィールド情報が検出される検出エレメントの位置が変わる。互いに類似のライトフィールド情報が検出される検出エレメントの位置は、被写体とイメージセンサとの間の距離に応じるディスパリティごとに変わり得る。イメージ復元装置は、イメージセンサに示される複数のディスパリティのうち、各ディスパリティに対応する再配列の行列を用いて複眼視野イメージ1202を変換し得る。深度推定動作がないため、イメージ復元装置は、深度により発生し得る全てのケースに対して、複眼視野イメージ1202から対象イメージ1231,1232,1233を生成する。したがって、イメージ復元装置は、イメージセンサで示されるディスパリティの個数だけの対象イメージ1231,1232,1233を取得することができる。
参考として、上述した数式(4)では、イメージセンサから無限の焦点位置にある被写体に対して撮影された複眼視野イメージ1202を再配列する再配列の行列について説明したが、図12では、各ディスパリティに対応する距離ごとの再配列の行列を用いて、イメージ復元装置が被写体に対して撮影された複眼視野イメージ1202を再配列することができる。
イメージ復元装置は、取得された複数の対象イメージ1231,1232,1233のそれぞれから、畳み込みレイヤを含むイメージ復元モデル1250に基づいて出力イメージ1204を復元する。ディスパリティごとに対象イメージ1231,1232,1233が生成されたため、対象イメージ1231,1232,1233のうち少なくとも1つは、実際の場面に示されるオブジェクトそれぞれの正確な深度に対応する。イメージ復元装置は、複数の対象イメージから単一の拡張間隔を有するカーネルに対応する畳み込みレイヤを含むイメージ復元モデル1250に基づいて出力イメージ1204を算出する。実際の場面に複数のオブジェクトが存在しても、イメージ復元装置は、トレーニングされたイメージ復元モデル1250を介して複数の対象イメージ1231,1232,1233のそれぞれから各オブジェクトの深度に対応する部分の特徴を抽出することによって、その特徴から高解像度の出力イメージ1204を算出することができる。
図1~図11において、イメージ復元装置がイメージセンサに示されるディスパリティごとに設定されたカーネルを用いて、深度情報がなくともイメージを高解像度に復元することができる。図12では、イメージ復元装置がイメージセンサに示されるディスパリティごとに再配列の行列を決定し、再配列の行列に基づいて生成された対象イメージ1231,1232,1233を用いて深度情報がなくてもイメージを高解像度に復元することができる。
図13は、一実施形態に係るイメージ復元方法を説明するフローチャートである。
まず、ステップS1310において、イメージ復元装置は、対象イメージを取得する。イメージ復元装置は、イメージセンサを介して実際の場面を撮影した複眼視野イメージを取得する。イメージ復元装置は、複眼視野イメージを再配列の行列を介して変換することにより対象イメージを取得し得る。
そして、ステップS1320において、イメージ復元装置は、取得された対象イメージから拡張間隔を有するカーネルに対応する畳み込みレイヤを含むイメージ復元モデルに基づいて出力イメージを復元する。
ただし、イメージ復元方法が図13に示されたものに限定されることなく、図1ないし図12を参照して説明された動作の一部と結合して並列的又は時系列的に実行されてもよい。
図14は、一実施形態に係るイメージ復元モデルをトレーニングする方法を説明するフローチャートである。
まず、ステップS1410において、トレーニング装置は、トレーニングデータから基準入力イメージを生成する。例えば、トレーニングデータは、トレーニング入力及びトレーニング出力の対を含む。トレーニング出力は、任意のトレーニング入力に対して与えられたグラウンドトルース(ground truth)であってもよい。一実施形態によれば、トレーニング入力は複眼視野イメージであってもよく、トレーニング出力は当該の複眼視野イメージに対する実際の場面であってもよい。トレーニング装置は、トレーニング入力、例えば、複眼視野イメージを再配列の行列を介して変換することで、基準入力イメージを生成する。基準入力イメージは、図4及び図7を参照して説明したように、再配列の行列を介してトレーニング入力が変換された対象イメージであり得る。
そして、ステップS1420において、トレーニング装置は、イメージ復元モデルが基準入力イメージから基準出力イメージを算出するよう、拡張間隔を有するカーネルに対応する畳み込みレイヤを含むイメージ復元モデルをトレーニングする。例えば、トレーニング装置は、イメージ復元モデルの入力レイヤから出力レイヤに基準入力イメージを伝播することによって、臨時出力イメージを算出することができる。本明細書において、トレーニングが完了する前のイメージ復元モデルは臨時モデルと示し、臨時モデルの出力は臨時出力イメージと示す。トレーニング装置は、臨時出力イメージ及び基準出力イメージ間の損失を算出する。損失は様々な損失関数によって算出され、特定の関数に限定されることはない。トレーニング装置はその損失が最小化されるよう、イメージ復元モデルのパラメータ(例えば、連結加重値)をアップデートする。トレーニング装置は、損失が収斂されるまで、臨時出力イメージの算出及びそれに基づいたイメージ復元モデルのパラメータアップデートを繰り返す。
損失が収斂されれば、トレーニング装置はトレーニングを終了し、トレーニングが完了したイメージ復元モデル及びそれに対応するパラメータを格納する。
図15は、一実施形態に係るイメージ復元装置の構成を説明するブロック図である。
イメージ復元装置1500は、プロセッサ1510、メモリ1520、及びイメージ取得部1530を含む。
プロセッサ1510は、取得された対象イメージから拡張間隔を有するカーネルを有する畳み込みレイヤを含むイメージ復元モデルに基づいて出力イメージを復元する。ただし、プロセッサ1510の動作がこれに限定されることなく、図1ないし図14を参照して説明された動作を行ってもよい。
メモリ1520は、イメージ復元モデル及びパラメータを格納する。イメージ復元モデルは、トレーニングが完了したモデルであり得る。また、メモリ1520は、イメージ復元方法を行うために求められるデータを臨時的又は永久的に格納する。例えば、メモリ1520は、イメージ取得部1530によって取得される対象イメージ、出力イメージ、及び各畳み込みレイヤから出力される特徴データなどを格納する。
イメージ取得部1530は、対象イメージを取得する。例えば、イメージ取得部1530は、複眼視野イメージを撮影するイメージセンサを含む。イメージセンサは、図1及び図2で上述したような構造により実現される。
図16は、一実施形態に係るトレーニング装置の構成を説明するブロック図である。
トレーニング装置1600は、プロセッサ1610及びメモリ1620を含む。
プロセッサ1610は、メモリ1620からトレーニングデータ1621及びイメージ復元モデル1622をロードする。プロセッサ1610は、トレーニング入力から再配列の行列を用いて基準入力イメージを生成する。プロセッサ1610は、基準入力イメージからトレーニング出力を算出するように、イメージ復元モデル1622をトレーニングする。例えば、プロセッサ1610は、イメージ復元モデル1622に基準入力イメージを伝えることによって、臨時出力イメージを算出し、臨時出力イメージ及び基準出力イメージ間の損失が最小化されるようにイメージ復元モデル1622のパラメータをアップデートする。
基準入力イメージは、再配列の行列を介してライトフィールド情報の相関性の高いピクセルが隣接するようピクセルが再配列されたイメージであるため、トレーニング装置1600は、基準入力イメージを介してより高解像度のイメージを出力するようイメージ復元モデル1622をトレーニングさせることができる。
図17及び図18は、一実施形態に係るイメージ復元装置が実現される機器を示す図である。
一実施形態に係るイメージ復元装置は、様々な技術分野に適用される。イメージ復元装置は、複数のレンズから構成されるレンズアレイ及び複数の検出エレメントで構成されるセンサが比較的に短い焦点距離で離隔するように設計される。したがって、イメージ復元装置は、高画質撮影のためにセンサの大きさが大きくなりながらも、超薄型カメラに具現することができる。このように、イメージ復元装置は、マルチレンズアレイ構造を介して減少した厚さで具現される。イメージ復元装置は、AP(Application Processor)、FPGA、チップなどに具現されてカメラのイメージ信号プロセッサとして実現される。イメージ復元装置は、スマートフォンの前面カメラ又は後面カメラに適用される。イメージ復元装置で、大型フルフレームセンサ(Full Frame Sensor)及びマイクロレンズアレイ(Micro-lens Array)が結合した構造で携帯電話カメラに適用される。また、薄型構造又は曲がった構造で車両用として実現されてもよい。
例えば、図17に示すように、スマートフォン機器1700に前面又は後面カメラとしてイメージ復元装置1710が実現される。イメージ復元装置1710のセンサはフルフレームに実現され、レンズアレイはマイクロレンズとして実現される。
また、図18に示すように、車両1800に曲線を有する前面カメラ又は後面カメラとしてイメージ復元装置1810が実現される。ただし、これに限定されることなく、イメージ復元装置は、DSLRカメラ、ドローン、CCTV、ウェブ用カメラ、360度撮影カメラ、映画及び放送のためのカメラ、及びVR/ARカメラなどに使用される。さらに、イメージ復元装置は、柔軟かつ伸縮可能カメラ(Flexible/Stretchable Camera)、虫の目カメラ、コンタクトレンズタイプ(Contact lens type)カメラなどのような様々な分野にも適用され得る。
さらに、イメージ復元装置は、連続したフレームのビデオイメージで撮影された複数のフレーム情報を用いて解像度を増加するマルチフレーム超解像度のイメージ復元(Multi-frame Super Resolution image restoration)にも適用され得る。
以上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組合せで具現される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことが把握する。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はそのうちの1つ以上の組合せを含み、希望の通りに動作するよう処理装置を構成したり、独立的又は結合的に処理装置を命令することができる。ソフトウェア及び/又はデータは、処理装置によって解釈されたり処理装置に命令又はデータを提供するために、いずれかの類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、又は送信される信号波に永久的又は一時的に具体化することができる。ソフトウェアはネットワークに連結されたコンピュータシステム上に分散され、分散した方法で格納されたり実行され得る。ソフトウェア及びデータは1つ以上のコンピュータで読出し可能な記録媒体に格納され得る。
本実施形態による方法は、様々なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独で又はその組合せを含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD-ROM、DYIJDのような光記録媒体、フロプティカルディスクのような磁気-光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明に示す動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
上述したように実施形態をたとえ限定された図面によって説明したが、当技術分野で通常の知識を有する者であれば、上記の説明に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順で実行されてよく、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組み合わせられてもよいし、他の構成要素又は均等物によって代替又は置換されたとしても適切な結果を達成することができる。
したがって、本発明の範囲は、開示された実施形態に限定されて定められるものではなく、特許請求の範囲及び特許請求の範囲と均等なものなどによって定められるものである。
1500:イメージ復元装置
1510:プロセッサ
1520:メモリ
1530:イメージ取得部

Claims (18)

  1. イメージ取得部及びプロセッサを有するイメージ復元装置が実行するイメージ復元方法において、
    前記イメージ取得部が、オブジェクトの入力イメージを再配列することによって対象イメージを取得するステップと、
    前記プロセッサが、前記取得された対象イメージから、拡張間隔を有するカーネルに対応する畳み込みレイヤを含むイメージ復元モデルに基づいて出力イメージを復元するステップであって、前記拡張間隔は、イメージセンサから離隔した前記オブジェクトの地点と前記イメージセンサとの間の距離、及び前記イメージセンサに含まれる検出エレメントの構成に基づいて決定される、ステップと、
    を含むイメージ復元方法。
  2. イメージ取得部及びプロセッサを有するイメージ復元装置が実行するイメージ復元方法において、
    前記イメージ取得部が、オブジェクトの入力イメージを再配列することによって対象イメージを取得するステップと、
    前記プロセッサが、前記取得された対象イメージから、拡張間隔を有するカーネルに対応する畳み込みレイヤを含むイメージ復元モデルに基づいて出力イメージを復元するステップであって、前記カーネルは、イメージセンサから閾値距離よりも遠く離隔した前記オブジェクトの地点から放射された光線を受信するように構成される前記イメージセンサに含まれる複数の検出エレメントの位置関係に基づいて決定される、
    と、
    を含むイメージ復元方法。
  3. イメージ取得部及びプロセッサを有するイメージ復元装置が実行するイメージ復元方法において、
    前記イメージ取得部が、オブジェクトの入力イメージを再配列することによって対象イメージを取得するステップと、
    前記プロセッサが、前記取得された対象イメージから、拡張間隔を有するカーネルに対応する畳み込みレイヤを含むイメージ復元モデルに基づいて出力イメージを復元するステップえあって、前記イメージ復元モデルは、イメージセンサから最小撮影距離に位置する地点から放射された光線を受信するように構成される前記イメージセンサに含まれる複数の検出エレメントの位置関係に基づいて決定されたカーネルに対応する畳み込みレイヤを含むステップと、
    を含むイメージ復元方法。
  4. 前記最小撮影距離に対応するカーネルは、最大ディスパリティに対応する拡張間隔を有し、
    前記最大ディスパリティは、イメージセンサの最小撮影距離、前記イメージセンサの中心レンズから最外郭レンズまでの距離、及びレンズの焦点距離に基づいて決定される、請求項3に記載のイメージ復元方法。
  5. 前記イメージ復元モデルは、複数のレベルに個別的に対応する複数の畳み込みレイヤをさらに含む、請求項1ないしいずれか1項に記載のイメージ復元方法。
  6. 前記イメージ復元モデルは、互いに異なる拡張間隔を個別的に有する複数のカーネルに対応する複数の畳み込みレイヤを含む、請求項1ないしいずれか1項に記載のイメージ復元方法。
  7. 前記出力イメージを復元するステップは、
    前記プロセッサが、前記畳み込みレイヤに基づいて前記対象イメージから特徴データを抽出するステップと、
    前記プロセッサが、前記特徴データから、前記イメージ復元モデルに含まれた畳み込みレイヤ以外のレイヤに基づいて前記出力イメージを生成するステップと、
    を含む、請求項1ないしいずれか1項に記載のイメージ復元方法。
  8. 前記イメージ復元モデルは、同一の拡張間隔を有する複数のカーネルに対応する複数の畳み込みレイヤをさらに含む、請求項1ないしいずれか1項に記載のイメージ復元方法。
  9. 前記出力イメージを復元するステップは、前記プロセッサが、基準複眼イメージが再配列された基準入力イメージから基準出力イメージを出力するようにトレーニングされたイメージ復元モデルに基づいて、前記対象イメージから前記出力イメージを復元するステップを含む、請求項1ないしいずれか1項に記載のイメージ復元方法。
  10. 前記対象イメージを取得するステップは、
    前記イメージ取得部が、複眼視野(CEV:compound eye vision)イメージを取得するステップと、
    前記イメージ取得部が、前記複眼視野イメージを再配列することによって前記対象イメージを生成するステップと、
    を含む、請求項1ないしいずれか1項に記載のイメージ復元方法。
  11. 前記複眼視野イメージを取得するステップは、前記イメージ取得部が、アレイ形態で提供される複数のレンズを介して複数の検出エレメントで受信された光線の強度に基づいて前記複眼視野イメージを取得するステップを含む、請求項10に記載のイメージ復元方法。
  12. 前記複数のレンズは、前記複数の検出エレメントに対してずれて配置される、請求項11に記載のイメージ復元方法。
  13. 前記対象イメージを生成するステップは、前記イメージ取得部が、前記複数の検出エレメントから検出されるライトフィールド情報に基づいて前記複眼視野イメージを再配列するステップを含む、請求項11に記載のイメージ復元方法。
  14. 前記複眼視野イメージを再配列するステップは、前記イメージ取得部が、前記複数の検出エレメントで互いに類似のライトフィールド情報を検出した検出エレメントのピクセルが互いに隣接するように、前記複眼視野イメージのピクセルを再配列するステップを含む、請求項13に記載のイメージ復元方法。
  15. 前記複眼視野イメージのピクセルを再配列するステップは、
    前記イメージ取得部が、イメージセンサから閾値距離よりも遠い地点から放射される光線及び前記複数の検出エレメントの間の位置関係に基づいて、前記複数の検出エレメントのそれぞれに対して当該検出エレメントから検出されるライトフィールドを放出した前記オブジェクトの地点を決定するステップと、
    前記イメージ取得部が、互いに隣接する再配置された地点から放出されたライトフィールド情報に対応するピクセルが隣接するように前記ピクセルを再配列するステップと、
    を含む、請求項13に記載のイメージ復元方法。
  16. 請求項1ないし請求項15に記載のいずれか一項に記載の方法を実行するための命令語を含む1つ以上のコンピュータプログラムを格納したコンピュータ読み取り可能な記録媒体。
  17. 前記イメージ復元装置において、
    対象イメージを取得する前記イメージ取得部と、
    前記取得された対象イメージから、拡張間隔を有するカーネルに対応する畳み込みレイヤを含むイメージ復元モデルに基づいて出力イメージを復元する前記プロセッサと、
    を含み、
    請求項1ないし請求項15に記載のいずれか一項に記載の方法を実行するように構成された、イメージ復元装置。
  18. イメージ取得部及びプロセッサを有するイメージ復元装置が実行するイメージ復元方法において、
    前記イメージ取得部が、イメージセンサと対象オブジェクトとの間の各距離に対応する対象オブジェクトの入力イメージを再配列することによって、複数の対象イメージを取得するステップと、
    前記プロセッサが、前記取得された複数の対象イメージのそれぞれから、畳み込みレイヤを含むイメージ復元モデルに基づいて出力イメージを復元するステップと、
    を含み、
    前記イメージ復元モデルは、イメージセンサから最小撮影距離に位置する地点から放射された光線を受信するように構成される前記イメージセンサに含まれる複数の検出エレメントの位置関係に基づいて決定されたカーネルに対応する畳み込みレイヤを含む、
    イメージ復元方法。
JP2019154767A 2018-09-13 2019-08-27 イメージ復元方法及び装置 Active JP7101646B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862730641P 2018-09-13 2018-09-13
US62/730,641 2018-09-13
KR10-2018-0153829 2018-12-03
KR1020180153829A KR102614908B1 (ko) 2018-09-13 2018-12-03 이미지 복원 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2020042801A JP2020042801A (ja) 2020-03-19
JP7101646B2 true JP7101646B2 (ja) 2022-07-15

Family

ID=67766069

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019154767A Active JP7101646B2 (ja) 2018-09-13 2019-08-27 イメージ復元方法及び装置

Country Status (4)

Country Link
US (2) US11030724B2 (ja)
EP (1) EP3624049B1 (ja)
JP (1) JP7101646B2 (ja)
CN (1) CN110896467B (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11030724B2 (en) * 2018-09-13 2021-06-08 Samsung Electronics Co., Ltd. Method and apparatus for restoring image
US20200137380A1 (en) * 2018-10-31 2020-04-30 Intel Corporation Multi-plane display image synthesis mechanism
CN111401512A (zh) * 2019-01-03 2020-07-10 三星电子株式会社 以可变的扩张率在神经网络中进行卷积的方法和系统
JP7123884B2 (ja) * 2019-09-12 2022-08-23 株式会社東芝 撮像装置、方法及びプログラム
KR20210066366A (ko) 2019-11-28 2021-06-07 삼성전자주식회사 영상 복원 방법 및 장치
KR20220013183A (ko) * 2020-07-24 2022-02-04 삼성전자주식회사 영상 복원 장치 및 방법
US11490067B2 (en) * 2020-08-07 2022-11-01 Owl Autonomous Imaging, Inc. Multi-aperture ranging devices and methods
WO2022173848A1 (en) * 2021-02-11 2022-08-18 The Regents Of The University Of California Methods of holographic image reconstruction with phase recovery and autofocusing using recurrent neural networks
GB2618466A (en) * 2021-02-20 2023-11-08 Boe Technology Group Co Ltd Image acquisition device, image acquisition apparatus, image acquisition method and manufacturing method
US11870968B2 (en) * 2021-04-13 2024-01-09 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for an improved camera system using filters and machine learning to estimate depth

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008241355A (ja) 2007-03-26 2008-10-09 Funai Electric Co Ltd 物体の距離導出装置
JP2010263501A (ja) 2009-05-08 2010-11-18 Sony Corp 撮像装置
JP2013532878A (ja) 2010-08-06 2013-08-19 ヴァレリーヴィチ シムニコ,ドミトリー 超解像度画像を生成する方法及びこれを実施するための非線形デジタルフィルター
US20170070673A1 (en) 2013-03-15 2017-03-09 Pelican Imaging Corporation Systems and Methods for Synthesizing High Resolution Images Using Image Deconvolution Based on Motion and Depth Information

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3821614B2 (ja) 1999-08-20 2006-09-13 独立行政法人科学技術振興機構 画像入力装置
US7412107B2 (en) 2004-12-17 2008-08-12 The Regents Of The University Of California, Santa Cruz System and method for robust multi-frame demosaicing and color super-resolution
US7724439B2 (en) 2007-10-24 2010-05-25 Aptina Imaging Corporation Lens, a lens array and imaging device and system having a lens, and method of forming the same
JP2009206922A (ja) 2008-02-28 2009-09-10 Funai Electric Co Ltd 複眼撮像装置
US9485397B2 (en) 2010-06-14 2016-11-01 Heptagon Micro Optics Pte. Ltd. Camera, and method of manufacturing a plurality of cameras
JP5660711B2 (ja) * 2010-09-16 2015-01-28 富士フイルム株式会社 復元ゲインデータ生成方法
JP5963448B2 (ja) 2012-01-13 2016-08-03 キヤノン株式会社 撮像装置
US9396523B2 (en) * 2013-07-24 2016-07-19 Microsoft Technology Licensing, Llc Image restoration cascade
US9426361B2 (en) 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
WO2015179446A1 (en) 2014-05-20 2015-11-26 BROWND, Samuel, R. Systems and methods for mediated-reality surgical visualization
DE102014212104A1 (de) 2014-06-24 2015-12-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zur relativen positionierung einer multiaperturoptik mit mehreren optischen kanälen relativ zu einem bildsensor
CN105472233B (zh) 2014-09-09 2019-01-18 北京智谷技术服务有限公司 光场采集控制方法和装置、光场采集设备
CN104363369B (zh) * 2014-11-17 2017-11-03 清华大学深圳研究生院 一种光场相机的图像恢复方法及装置
KR101715470B1 (ko) 2015-04-10 2017-03-14 충북대학교 산학협력단 집적영상 현미경 장치 및 심도범위 개선 방법
WO2017106734A1 (en) * 2015-12-16 2017-06-22 Martineau Pierre R Method and apparatus for remanent imaging control
JP2017139576A (ja) 2016-02-02 2017-08-10 キヤノン株式会社 撮像装置およびその制御方法ならびにプログラム
JP6728365B2 (ja) 2016-08-25 2020-07-22 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、記憶媒体
JP6929047B2 (ja) 2016-11-24 2021-09-01 キヤノン株式会社 画像処理装置、情報処理方法及びプログラム
KR102646437B1 (ko) 2016-11-25 2024-03-11 삼성전자주식회사 멀티 렌즈 기반의 촬영 장치 및 방법
CN106960415A (zh) * 2017-03-17 2017-07-18 深圳市唯特视科技有限公司 一种基于像素递归超分辨率模型恢复图像的方法
WO2019075335A1 (en) * 2017-10-13 2019-04-18 Trustees Of Boston University LENS-FREE COMPOSITE EYE CAMERAS BASED ON ANGLE-SENSITIVE METASURFACES
KR102565277B1 (ko) 2017-11-24 2023-08-09 삼성전자주식회사 영상 복원 장치 및 방법
KR102614907B1 (ko) 2018-04-04 2023-12-19 삼성전자주식회사 이미지 센서 및 이미지 센서 제조 방법
CN109241895B (zh) * 2018-08-28 2021-06-04 北京航空航天大学 密集人群计数方法及装置
US11030724B2 (en) * 2018-09-13 2021-06-08 Samsung Electronics Co., Ltd. Method and apparatus for restoring image
KR102644944B1 (ko) 2018-10-04 2024-03-08 삼성전자주식회사 이미지 센서 및 이미지 센싱 방법
KR20200067020A (ko) 2018-12-03 2020-06-11 삼성전자주식회사 캘리브레이션 방법 및 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008241355A (ja) 2007-03-26 2008-10-09 Funai Electric Co Ltd 物体の距離導出装置
JP2010263501A (ja) 2009-05-08 2010-11-18 Sony Corp 撮像装置
JP2013532878A (ja) 2010-08-06 2013-08-19 ヴァレリーヴィチ シムニコ,ドミトリー 超解像度画像を生成する方法及びこれを実施するための非線形デジタルフィルター
US20170070673A1 (en) 2013-03-15 2017-03-09 Pelican Imaging Corporation Systems and Methods for Synthesizing High Resolution Images Using Image Deconvolution Based on Motion and Depth Information

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Youngjin Yoon et al.,"Light-Field Image Super-Resolution Using Convolutional Neural Network",IEEE Signal Processing Letters,米国,IEEE,2017年02月15日,Vol.24, No.6,pp.848-852
内田 雄基、外2名,"画素補間を最小限に抑えた光線の逆追跡に基づくLight Field Camera画像の高解像度化",情報処理学会研究報告,日本,情報処理学会,2016年02月19日,Vol.2016-AVM-92, No.1,pp.1-6
村田 賢太,"第5章 waifu2xによる画像の超解像 深層学習が画像をきれいに拡大できるしくみ",WEB+DB PRESS,日本,(株)技術評論社,2015年11月25日,Vol.89,pp.73-77
河畑 則文,"CNNの構造に基づいた多視点超解像画像の最適設計と符号化画質評価",電子情報通信学会技術研究報告,日本,一般社団法人電子情報通信学会,2018年05月18日,Vol.118, No.65,pp.15-20

Also Published As

Publication number Publication date
JP2020042801A (ja) 2020-03-19
US20210256659A1 (en) 2021-08-19
EP3624049A1 (en) 2020-03-18
US20200090306A1 (en) 2020-03-19
US11030724B2 (en) 2021-06-08
CN110896467A (zh) 2020-03-20
CN110896467B (zh) 2023-08-18
US11663699B2 (en) 2023-05-30
EP3624049B1 (en) 2023-08-09

Similar Documents

Publication Publication Date Title
JP7101646B2 (ja) イメージ復元方法及び装置
EP3816929B1 (en) Method and apparatus for restoring image
KR102565277B1 (ko) 영상 복원 장치 및 방법
US11375092B2 (en) Image sensor and image sensing method
EP3633969B1 (en) Image sensor and image sensing method
US11941781B2 (en) Method and apparatus for restoring image
KR102614908B1 (ko) 이미지 복원 방법 및 장치
US20210352209A1 (en) Image sensor
JP2020197774A (ja) 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体
KR102644944B1 (ko) 이미지 센서 및 이미지 센싱 방법
JP7146461B2 (ja) 画像処理方法、画像処理装置、撮像装置、プログラム、および、記憶媒体
US11651475B2 (en) Image restoration method and device
KR20210137886A (ko) 이미지 센서
US20220179171A1 (en) Lens assembly and electronic device including the same
KR20220080249A (ko) 영상 처리 방법 및 장치
KR20200043778A (ko) 영상 처리 장치 및 방법
KR20230111379A (ko) 이미지 센서 및 이미징 장치
JP2024061326A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220518

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220518

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220526

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220705

R150 Certificate of patent or registration of utility model

Ref document number: 7101646

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150