JP2004312745A - 自動焦点、被写界深度及び高分解能機能を実現する複合カメラ及び方法 - Google Patents

自動焦点、被写界深度及び高分解能機能を実現する複合カメラ及び方法 Download PDF

Info

Publication number
JP2004312745A
JP2004312745A JP2004110671A JP2004110671A JP2004312745A JP 2004312745 A JP2004312745 A JP 2004312745A JP 2004110671 A JP2004110671 A JP 2004110671A JP 2004110671 A JP2004110671 A JP 2004110671A JP 2004312745 A JP2004312745 A JP 2004312745A
Authority
JP
Japan
Prior art keywords
data
image
component
pixel
virtual image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004110671A
Other languages
English (en)
Inventor
George Q Chen
キュー. チェン ジョージ
Li Hong
ホン リ
Peter Mcguinness
マクギネス ピーター
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ST MICROELECTRONICS Inc
STMicroelectronics lnc USA
Original Assignee
ST MICROELECTRONICS Inc
STMicroelectronics lnc USA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ST MICROELECTRONICS Inc, STMicroelectronics lnc USA filed Critical ST MICROELECTRONICS Inc
Publication of JP2004312745A publication Critical patent/JP2004312745A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/21Indexing scheme for image data processing or generation, in general involving computational photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Studio Circuits (AREA)

Abstract

【課題】 大きな被写界深度を有する向上させたバーチャルイメージを発生することが可能な複合カメラシステムを提供する。
【解決手段】 本発明に基づく複合カメラシステムは、オブジェクトのイメージデータを発生する複数個のコンポーネントカメラ、及び該イメージデータから向上させたバーチャルイメージを発生するデータプロセッサを有している。該データプロセッサは、第一深さ面において第一コンポーネントバーチャルイメージを発生し、第二深さ面において第二コンポーネントバーチャルイメージを発生し、第一コンポーネントバーチャルイメージから第一の選択したピクセルを向上させたバーチャルイメージ内へ挿入し且つ第二コンポーネントバーチャルイメージからの第二の選択したピクセルを向上させたバーチャルイメージ内へ挿入させることにより向上させたバーチャルイメージを発生する。
【選択図】 図1

Description

本発明は、大略、イメージ処理装置に関するものであって、更に詳細には、複合カメラによりキャプチャされた複数個の入力イメージからバーチャルイメージ即ち仮想画像を発生する複合カメラに関するものである。
複合カメラは、1組のコンポーネントカメラと、データプロセッサと、該データプロッセサ上で稼動するイメージ処理ソフトウエアとから構成されている。該コンポーネントカメラは、有線又は無線の電子的信号を介して同期させることが可能である。複合カメラからの個別的なイメージ即ち画像は有線又は無線の接続を介してデータプロセッサへ送信される。イメージ処理ソフトウエアがコンポーネントカメラからのイメージを入力として受取り且つバーチャルカメラの仕様に従って出力イメージを合成する。
従来の複合カメラは多数の態様で実現させることが可能である。第一の従来の実施例においては、複合カメラは多数の同期された通常のビデオカメラとこれらのビデオコンポーネントカメラへ接続された別個のマイクロプロセッサとを有している。第二の従来の実施例においては、複数個のコンポーネントイメージセンサーとマイクロプロセッサとを例えばプリント回路基板(PCB)又はハイブリッド基板等の1個の基板上に集積化させる。同期及び通信は基板上のプリント回路接続を介して達成される。3番目の従来の実施例においては、コンポーネントイメージセンサー及びマイクロプロセッサは非常に小さく且つ単一のシリコンチップ上に集積化される。
カメラの物理的なモデルはシャッターと、レンズと、イメージ面とから構成されている。シャッターは、カメラ内に光を入らせるアパーチャと呼ばれる開口を有している。オブジェクト表面上の1つのポイント即ち1つの点から来る1束の光線が該アパーチャを介して入り、レンズにより屈折され、イメージ面上に集光され且つフォーカスされ、そこでオブジェクトポイントの色が記録される。
あるアパーチャ寸法の場合には、イメージが鮮明である範囲の深さが存在している。これは「被写界深度」と呼ばれ且つそれはアパーチャ寸法に逆比例する。イメージ面が前後にスライドして該被写界深度の範囲内において全体的に最も良いイメージをサーチする。通常、大きな被写界深度の範囲が所望される。このことは、センサーからの高い感度を必要とする。何故ならば、アパーチャ寸法は比例的に小さくなるからである。
従来のカメラは、フォーカス即ち焦点及びアパーチャを変化させるために複雑な光学的及び機械的コンポーネントに依存している。物理的な条件が、カメラが達成することが可能な最大の分解能を制限する。複合カメラにおいては、これらの特徴は、マイクロプロセッサ上でイメージ処理ソフトウエアを稼動させることによりデジタル的に実現させることが可能である。
然しながら、従来の複合カメライメージ処理システムは、主に、二つのエリアに焦点を当てている。コンピュータビジョンにおいて、通常の方法は、シーン内のオブジェクトの三次元幾何学的形状を最初にリカバーすることである。これは運動からの構造復元(structure−from−motion)と呼ばれる。次に、入力イメージが回復した幾何学的形状を介してバーチャルカメラへ転送される。Olivier Faugeras著「三次元コンピュータビジョン−幾何学的観点(Three Dimensional Computer Visions − A Geometric Viewpoint)」、ザ・MIT・プレス、1996年は良い文献である。Faugerasの文献の開示内容を、引用によって本明細書に取込む。このアプローチの問題は、復元された幾何学的形状は、通常、非常に正確なものではなく、特に、色のテクスチャを欠如するオブジェクトの表面に関してそうである。そのことは、合成したイメージにおいて目に見えるアーチファクト即ち人工的効果が発生する。
コンピュータグラフィックスにおいて、光フィールド(light field)アプローチは、1つの深さ面のみを使用するものとして考えることが可能である。光フィールドアプローチについての良い文献は、M. Levoy及びP. Hanrahan著「光フィールドレンダリング(Light Field Rendering)」、プロシーディングズ・オブ・ザ・ACM SIGGRAPH 96、31−42頁、1996年の文献である。このLevoy及びHanrahanの文献の開示内容は、引用によって本明細書に取込む。然しながら、光フィールドアプローチにおいては、ぼけを取扱うために、コンポーネントカメラを密集して配置させねばならない。密集して配置させたカメラは、通常、多数のカメラとなる。多数のカメラは、処理すべき大量のデータを発生させる。このことは、イメージ処理システムのコスト及び複雑性を著しく増加させることとなる。
従って、ビデオイメージを処理するための改良した装置及び方法を提供することが必要とされている。特に、改良したオートフォーカス即ち自動焦点、高分解能、及び被写界深度機能を実現するイメージ処理システムに対する必要性が存在している。
Olivier Faugeras著「三次元コンピュータビジョン−幾何学的観点(Three Dimensional Computer Visions − A Geometric Viewpoint)」、ザ・MITプレス、1996年 M. Levoy及びP. Hanrahan著「光フィールドレンダリング(Light Field Rendering)」、プロシーディングズ・オブ・ザ・ACM SIGGRAPH 96、31−42頁、1996年
本発明は、以上の点に鑑みなされたものであって、上述した如き従来技術の欠点を解消し、大きな被写界深度を有するエンハンストバーチャルイメージ即ち拡張型仮想画像を発生することが可能な複合カメラシステムを提供することを主要な目的とする。
本発明の好適な実施例によれば、複合カメラシステムが、(1)オブジェクトのイメージデータを発生することが可能な複数個のコンポーネントカメラ、(2)該複数個のコンポーネントカメラからイメージデータを受取り且つエンハンストバーチャルイメージ即ち拡張型仮想画像を発生することが可能なデータプロセッサを有している。データプロセッサは、第一深さ面において第一コンポーネントバーチャルイメージを発生し、第二深さ面において第二コンポーネントバーチャルイメージを発生し、且つ第一コンポーネントバーチャルイメージから第一の選択したピクセルをエンハンストバーチャルイメージ内に挿入し且つ第二コンポーネントバーチャルイメージからの第二の選択したピクセルをエンハンストバーチャルイメージ内に挿入することにより、エンハンストバーチャルイメージを発生させる。
本発明の1実施例によれば、データプロセッサは、第一及び第二コンポーネントバーチャルイメージから対応するピクセルのぼけの量を比較し且つ第一及び第二コンポーネントバーチャルイメージの各々から最小量のぼけを有するピクセルを選択することによって第一コンポーネントバーチャルイメージから第一の選択したピクセルを選択し且つ第二コンポーネントバーチャルイメージから第二の選択したピクセルを選択する。
本発明の別の実施例によれば、データプロセッサは、最小量の色偏差を有する第一及び第二コンポーネントバーチャルイメージの各々からピクセルを選択することによって最小量のぼけを有するピクセルを選択する。
本発明の更に別の実施例によれば、データプロセッサは、バーチャルピクセルデータ(u,v)を逆投影してオブジェクトの第一深さ面に位置したポイントデータ(x,y,z)を発生し、次いでポイントデータ(x,y,z)を投影して第一コンポーネントカメラのイメージ面に位置した第一ピクセルデータ(u1,v1)を発生することによって第一コンポーネントバーチャルイメージを発生する。
本発明の更に別の実施例によれば、データプロセッサは、第一深さ面に位置しているポイントデータ(x,y,z)を投影して第二コンポーネントカメラのイメージ面に位置した第二ピクセルデータ(u2,v2)を発生することにより第一コンポーネントバーチャルイメージを発生する。
本発明の更に別の実施例によれば、データプロセッサは、第一ピクセルデータ(u1,v1)の色と第二ピクセルデータ(u2,v2)の色とを結合することにより第一コンポーネントバーチャルイメージを発生する。
本発明の更に別の実施例によれば、データプロセッサは、バーチャルピクセルデータ(u,v)を逆投影してオブジェクトの第二深さ面に位置したポイントデータ(x,y,z)を発生し、次いでポイントデータ(x,y,z)を投影して第一コンポーネントカメラのイメージ面に位置した第一ピクセルデータ(u1,v1)を発生することにより第二コンポーネントバーチャルイメージを発生する。
本発明の更に別の実施例によれば、データプロセッサは、第二深さ面に位置しているポイントデータ(x,y,z)を投影して第二コンポーネントカメラのイメージ面に位置した第二ピクセルデータ(u2,v2)を発生することにより第二コンポーネントバーチャルイメージを発生する。
本発明の更に別の実施例によれば、データプロセッサは、第一ピクセルデータ(u1,v1)の色と第二ピクセルデータ(u2,v2)の色とを結合させることにより第二コンポーネントバーチャルイメージを発生する。
本発明の別の目的とするところは、高分解能バーチャルイメージを発生することが可能な複合カメラシステムを提供することである。本発明の好適実施例によれば、複合カメラシステムは、(1)オブジェクトのイメージデータを発生することが可能な複数個のコンポーネントカメラ、(2)第一コンポーネントカメラからの第一イメージデータと第二コンポーネントカメラからの第二イメージデータとを受取り且つ(i)バーチャルピクセルデータ(u,v)を逆投影してオブジェクトの第一オブジェクト面と関連する深さz=Z1に位置したポイントデータ(x,y,z)を発生し、(ii)ポイントデータ(x,y,z)を投影して第一イメージデータのイメージ面に位置した第一ピクセルデータ(u1,v1)を発生し、(iii)ポイントデータ(x,y,z)を投影して第二イメージデータのイメージ面に位置した第二ピクセルデータ(u2,v2)を発生することにより高分解能バーチャルイメージを発生することが可能なデータプロセッサを有しており、バーチャルピクセルデータ(u,v)のピクセル密度が第一ピクセルデータ(u1,v1)及び第二ピクセルデータ(u2,v2)のピクセル密度よりも一層大きいことを特徴としている。
本明細書において本発明の原理を説明するために使用する種々の実施例及び以下に説明する図1乃至5は単に例示的なものであって、本発明の技術的範囲を制限するような態様で解釈されるべきものではない。当業者によって理解されるように、本発明の原理は、適宜構成したイメージ処理システムにおいて実現することが可能なものである。
最初に、図1乃至5に示した物品は縮尺通りのものでないことを理解すべきである。当業者によって理解されるように、図1乃至5における物品は、本発明の動作の説明を簡単化させるためにそれらの相対的な位置関係を示すために描いたものである。
図1は、本発明の第一の例示的実施例に基づく複合カメラシステム100を示している。複合カメラシステム100は、例示的なコンポーネントビデオカメラ110a,110b,110cを包含するN個のコンポーネントビデオカメラ110と、処理システム130とを有している。コンポーネントビデオカメラ110a,110b,110cは、夫々、適宜ビデオカメラ1、ビデオカメラ2、ビデオカメラNのラベルを付してある。処理システム130及びN個のコンポーネントビデオカメラ110は通信リンク120を介して通信を行う。通信リンク120は、ネットワーク接続等の有線リンク、又は無線リンクとすることが可能である。
本発明の例示的実施例によれば、処理システム130はパソコン(PC)、ワークステーション、又は同様のシステムとすることが可能である。コンポーネントビデオカメラ110は互いに且つ処理システム130と同期されている。コンポーネントビデオカメラ110からの個々のイメージデータは処理システム130へ送信され、そこでイメージ処理ソフトウエアがコンポーネントビデオカメラ110からのイメージデータを入力として受取り且つ以下に詳細に説明するようにバーチャルカメラの仕様に従って出力イメージを合成する。
更に、理解すべきことであるが、コンポーネントビデオカメラ110が実際のビデオカメラであることは必要ではない。当業者により理解されるように、各コンポーネントカメラ110は、後に処理システム130へ転送するためにイメージデータをキャプチャするスチルカメラとすることも可能である。
図2は本発明の第二の例示的実施例に基づく複合カメラシステム200を示している。複合カメラシステム200は複数個のコンポーネントイメージセンサー及びビデオプロセッサ270を有している。本発明の好適実施例によれば、コンポーネントイメージセンサーの各々は後にビデオプロセッサ270へ転送するためにイメージデータをキャプチャすることが可能なスチルカメラである。更に、理解すべきことであるが、ビデオプロセッサ270はビデオデータ以外のイメージデータを処理することが可能である。好適実施例によれば、ビデオプロセッサ270はスチルイメージデータを処理することが可能である。
本発明の1実施例においては、コンポーネントイメージセンサー及びビデオプロセッサ270は1個のプリント回路基板(PCB)299上に集積化させることが可能である。本発明の別の実施例によれば、コンポーネントイメージセンサー及びビデオプロセッサ270は単一の集積回路(IC)チップ299上に集積化させることが可能である。同期及び通信はPCB299(又はICチップ299)上のプリント回路接続260を介して達成される。
コンポーネントイメージセンサーは5×5イメージセンサーアレイを形成すべく5個の行と5個の列に配列されている。そのアレイの最初の行はコンポーネントイメージセンサー210a,210b,210c,210d,210eを有している。該アレイの第二の行はコンポーネントイメージセンサー220a,220b,220c,220d,220eを有している(イメージセンサー220eのみに記号が付けてある)。該アレイの3番目の行はコンポーネントイメージセンサー230a,230b,230c,230d,230eを有している(イメージセンサー230eのみに記号が付けてある)。該アレイの4番目の行はコンポーネントイメージセンサー240a,240b,240c,240d,240eを有している(イメージセンサー240eのみに記号が付けてある)。該アレイの5番目の行はコンポーネントイメージセンサー250a,250b,250c,250d,250eを有している。
コンポーネントイメージセンサー210a−e,220a−e,230a−e,240a−e,250a−eは互いに且つビデオプロセッサ270と同期される。コンポーネントイメージセンサー210a−e,220a−e,230a−e,240a−e,250a−eからの個々のイメージデータはビデオプロセッサ270へ送信され、そこでイメージ処理ソフトウエアがコンポーネントイメージセンサー210a−e,220a−e,230a−e,240a−e,250a−eからのイメージデータを入力として受取り且つ以下に更に詳細に説明するようにバーチャルカメラの仕様に従って出力イメージを合成する。
図3は本発明の原理に基づく複合カメラシステム100及び200の動作を例示した光学的構成を示している。処理システム130(ビデオプロセッサ270)が図1におけるコンポーネントビデオカメラ(又は図2におけるコンポーネントイメージセンサー)により採取された入力イメージからバーチャルイメージIVを発生する。本発明によるバーチャルイメージの発生に関しての説明の便宜上、以下の説明においては、イメージデータをキャプチャするためにコンポーネントイメージセンサー210及び210bを使用し且つビデオプロセッサ270を使用するものと仮定する。然しながら、以下の説明は、図1に示した複合カメラを包含する複合カメラの別の実施例に対しても適用可能なものである。
図3に示したように、オブジェクトO(双方向矢印)がオブジェクト面(点線で示してある)内に存在している。コンポーネントイメージセンサー210aがオブジェクトOからの焦点距離f1においてイメージI1を発生する。コンポーネントイメージセンサー210bがオブジェクトOからの焦点距離f2においてイメージI2を発生する。図示例においては、f1=f2である。バーチャルイメージIVがこれら二つの入力イメージI1及びI2から合成される。本発明の原理によれば、バーチャルイメージIVは次式で示されるように、変換されたイメージの加重平均として計算される。
Figure 2004312745
式1aにおいて、w1及びw2の値は正の加重値、即ち重み値であり、w1=cos(φ1)及びw2=cos(φ2)であり、尚φ1は(u1,v1)から送られる光線と(u2,v2)から送られる光線との間の角度である。これらの加重即ち重み係数に基づいて、バーチャルからより遠いコンポーネントカメラは、より近い別のカメラよりも加重即ち重みの貢献度はより少ないものとすべきである。更に、(u1,v1)及び(u2,v2)は以下の式から計算される。
Figure 2004312745
1(f,fv,z)=T1(f,z)・Tv -1(fv,z)の値及びM2(f,fv,z)=T2(f,z)・Tv -1(fv、z)の値はバーチャルカメライメージ面からコンポーネントカメライメージ面への結合変換である。従って、M1及びM2は、両方のコンポーネントカメラの共通の焦点距離fと、バーチャル焦点距離fvと、オブジェクト面の深さzとに依存する。
2個を超えるコンポーネントカメラがある場合には、全てのカメラを包含させるためにより多くの繰返しとなる以外、基準は実質的に上述したものと同じである。その手順のステップは以下の通りである。
(1)オブジェクト面の深さzを決定し、
(2)各バーチャルピクセルデータ(u,v)に対して、
(i)変換Mi(f,fv,z)、i=1,...,nを計算し;
(ii)重さwiを計算し;
(iii)ワープ(warp)させ、次いで次式に従って、
Figure 2004312745
色をブレンドさせる。
上述した変換マトリクスは以下のようにして派生される。ピクセルを座標(u,v)により2Dイメージ面上で表現し、ポイントを(x,y,z)により3D空間内において表わし、且つカメラを3×4マトリクスP(f)によって表わし、尚fはカメラの焦点距離である。P(f)を介して(x,y,z)を(u,v)へ投影させるプロセスは次式で表わされる。
Figure 2004312745
尚、
Figure 2004312745
は3×3マトリクスを有しており、且つ「・」記号はマトリクス乗算を示す。Tはプレーンプロジェクションマトリクス(PPM)即ち面投影マトリクスである。式3は以下の如くに簡単化させることが可能である。
Figure 2004312745
上の式5は深さzを有する2D面上のポイント(x,y,z)をイメージピクセル(u,v)へマッピングする。PとTとの間の差異は、前者が3Dから2Dへのマッピングであり、一方後者は2Dから2Dへのマッピングである。式5の逆形式は以下の如くである。
Figure 2004312745
式6はイメージ面上のピクセル(u,v)を深さzにおけるオブジェクト面上に逆投影させる。
1例として、面投影マトリクスが夫々T(f,z)及びTv(fv,z)である2個のカメラが存在するものと仮定する。ビデオプロセッサ270は、最初に、バーチャルピクセル(u,v)をIvから深さzにおける面へ逆投影し、その結果次式に従ってポイント(x,y,z)が得られる。
Figure 2004312745
次に、ビデオプロセッサ270はポイント(x,y,z)を次式に従ってコンポーネントイメージ面Iへ前方向へ投影させる。
Figure 2004312745
マトリクスMは「ワーピングマトリクス(warping matrix)」と呼ばれる。何故ならば、それは第一カメラのイメージ面から別のカメラのイメージ面へピクセルをワープ(warp)、即ち変換させるからである。Mは、深さz及びコンポーネント及びバーチャルカメラの、夫々、焦点距離f及びfvの関数である。要するに、3つのタイプのマトリクスが関与し、即ち(1)マトリクスPは3Dを2Dへマッピングし、(2)マトリクスTは通常の2D面をイメージ面へマッピングし、(3)マトリクスMは該イメージ面を別のイメージ面へマッピングする。
好適には、上述したアルゴリズムを、複雑で且つ高価な電気機械的装置を必要とすることなしに、複合カメラにおいてオートフォーカス、被写界深度、高分解能機能を実現するために使用することが可能である。
図4は、オブジェクトのボディ上の幾つかの位置においてオブジェクト面(又は深さ面)の配置を示している。オブジェクトはジョウロ400であり、それは容器405と、側部ハンドル410と、上部ハンドル415と、吐水口420とを有している。ジョウロ400のイメージは複合カメラシステム200によりキャプチャされる。本発明の原理に従い、ビデオプロセッサ270は、複合カメラ200に対して見えるジョウロ400の本体上の多数の位置においてオブジェクト面(又は深さ面)zを配置させることが可能である。例えば、ビデオプロセッサ270は容器405の正面上の点Bに深さ面を配置させることが可能である。一方、ビデオプロセッサ270は、上部ハンドル415の正面上の点Aにおいて、又は吐水口420の端部上の点Cにおいて深さ面を配置させることが可能である。
注意すべきことであるが、容器405の正面上の点Bに深さ面zを配置させる場合には、複合カメラシステム200により発生されるイメージが吐水口420上の点Cにおいて及び上部ハンドル415上の点Aにおいてぼける場合がある。この現象について図5A及び5Bを参照して説明する。
図5A及び5Bは深さ面Zを異なる深さに移動させる効果を示している。最初に、深さ面(即ちオブジェクト面)が深さZ1にある。図5Aにおいて、RVはバーチャル光線であり、R1及びR2は円形状のオブジェクト500から2つの異なるイメージセンサー210a及び210bへ伝達される2つの光線である。イメージセンサー210aはポイントAを見且つイメージセンサー210bはポイントBを見る。ポイントA及びポイントBは異なる色を有している。所で、
Figure 2004312745
であるから、RRの色はポイントA及びポイントBからの両方の色の結合である。これは図4において発生する場合のあるぼけの源である。
このぼけを除去するために、図5Bに示したように、2番目の深さ面をZ2に付加している。ポイントA及びポイントBは一層近いので、それらの色は類似している蓋然性が高く、全体的により少ないぼけとなる。このことは、複数個の深さ面を使用することはぼけを減少させることに貢献する場合があることを示している。然しながら、各深さ面は潜在的なバーチャルイメージを導入するので、どのピクセルがバーチャル光線RVにとって最も良い選択であるかの決定をせねばならない。本発明の原理によれば、ビデオプロセッサ270は最も少ない色偏差を有する深さ面を選択する。
従来のカメラは、イメージ面をスライドさせ且つ結果的に得られるイメージを解析することによってオートファーカス機能を実現している。然しながら、本発明の原理によれば、イメージ面を物理的にスライドさせる動作は、ソフトウエアにおいてデジタル的にバーチャル深さ面を移動させるビデオプロセッサ270により実施される。
同様に、ビデオプロセッサ270は、興味のある深さ範囲(例えば、Z1からZ2)をカバーする複数個のバーチャル深さ面を使用することにより被写界深度機能を実現する。ビデオプロセッサ270は潜在的なバーチャルイメージの全てを最終的なイメージへ統合させる。ビデオプロセッサ270は、コンポーネントバーチャルイメージの各々から、最小量のぼけを有するピクセルのグループを選択することにより最終イメージを発生する。このことは、ビデオプロセッサ270による高いレベルの計算を必要とする。然しながら、物理的な部分が関与するものではない。
大きな被写界深度のイメージを合成することに加えて、ビデオプロセッサ270は、同時に、シーンオブジェクトの深さを推定することが可能である。上述したことから想起されるように、バーチャルピクセル(u,v)に対して、ビデオプロセッサ270は空間内の1組の候補深さ位置z1,z2,...,zmを選択することが可能である。これらの位置ziの各々において、ビデオプロセッサ270は以下の2つの変数を計算することが可能である。即ち、(1)色は次式により与えられ、
Figure 2004312745
且つ(2)色偏差は次式により与えられる。
Figure 2004312745
従って、バーチャルピクセル(u,v)に対して、ビデオプロセッサ270は1組の色(Iv1,Iv2,...,Ivm)及び偏差(var1,var2,...,varm)を計算する。z=z1における偏差(即ち、vari、iは1,2,...,mの内)が現在の偏差の組の中で最小のものである場合には、(u,v)の最終の色はIvi(即ち、Iv,u,v=Ivi)であり、且つ(u,v)の深さはzである。
このことについて以下に更に詳細に説明する。概念的には、バーチャルカメラのイメージ面上の各ピクセルから、ビデオプロセッサ270がバーチャル光線を送り出す。このバーチャル光線は一連の面と交差し、該面の深さ範囲は興味のあるシーン全体をカバーする。バーチャル光線と該面との間の各交差点において、ビデオプロセッサ270は対応する入力光線を検索し且つ平均の色及び偏差を計算する。最も低い偏差を有する交差点の色及び深さが現在のバーチャル光線のものとして記録される。全ての面の位置が検査され且つ全てのバーチャルピクセルがスキャンされた後に、バーチャルイメージ及びその深さマップがビデオプロセッサ270により形成される。その深さマップの分解能はビデオプロセッサ270により選択された面の数に依存する。より多くの深さ面はより細かい深さマップを与える。
ビデオプロセッサ270は、又、より高い密度のピクセルを有するバーチャルカメラを選択することにより高分解能機能を実現する。ビデオプロセッサ270は異なるコンポーネントカメラからのピクセルを「ワーピング(warping)」又は補間することにより新たなピクセルを挿入する。複合カメラは、定義上、異なる位置にある複数個のコンポーネントカメラを包含しており、従って、異なる観察角度を包含している。コンポーネントカメラはオブジェクト上の異なるポイント(点)を見る。コンポーネントイメージがバーチャルカメラに関してのそれらの相対的な位置を補償した後に結合されると、入力したものよりもより高い分解能のバーチャルイメージを合成させることが可能である。勿論、幾つかのオブジェクトポイントは1個を超える数のコンポーネントカメラにより見られるので、分解能の向上はコンポーネントカメラの数に直線的に関連するものではない。即ち、N個のコンポーネントカメラは必ずしもN倍高い分解能のバーチャルイメージを保証するものではない。
以上、本発明の具体的実施の態様について詳細に説明したが、本発明は、これら具体例にのみ制限されるべきものではなく、本発明の技術的範囲を逸脱することなしに種々の変形が可能であることは勿論である。
本発明の第一の例示的実施例に基づく複合カメラシステムを示した概略図。 本発明の第二の実施例に基づく複合カメラシステムを示した概略図。 本発明の原理に基づく複合カメラシステムの動作を示した光学的構成を示した概略図。 オブジェクトのボディ上に幾つかの位置におけるオブジェクト面(即ち深さ面)の配置を示した概略図。 (A)及び(B)は深さ面Zを異なる深さへ移動させた場合の効果を示した各概略図。
符号の説明
100 複合カメラシステム
110 コンポーネントビデオカメラ
120 通信リンク
130 処理システム

Claims (26)

  1. 大きな被写界深度を有するエンハンストバーチャルイメージを発生することが可能な複合カメラシステムにおいて、
    オブジェクトのイメージデータを発生することが可能な複数個のコンポーネントカメラ、
    前記複数個のコンポーネントカメラからイメージデータを受取り且つそれから前記エンハンストバーチャルイメージを発生することが可能なデータプロセッサ、
    を有しており、前記データプロセッサが第一深さ面において第一コンポーネントバーチャルイメージを発生し、第二深さ面において第二コンポーネントバーチャルイメージを発生し、且つ前記第一コンポーネントバーチャルイメージから第一の選択したピクセルを前記エンハンストバーチャルイメージ内に挿入し且つ前記第二コンポーネントバーチャルイメージからの第二の選択したピクセルを前記エンハンストバーチャルイメージ内に挿入することにより前記エンハンストバーチャルイメージを発生させることを特徴とする複合カメラシステム。
  2. 請求項1において、前記データプロセッサが、前記第一及び第二コンポーネントバーチャルイメージから対応するピクセルのぼけの量を比較し且つ前記第一及び第二コンポーネントバーチャルイメージの各々から最小量のぼけを有するピクセルを選択することによって、前記第一コンポーネントバーチャルイメージから前記第一の選択したピクセルを選択し且つ前記第二コンポーネントバーチャルイメージから前記第二の選択したピクセルを選択することを特徴とする複合カメラシステム。
  3. 請求項2において、前記データプロセッサが、最小量の色偏差を有する前記第一及び第二コンポーネントバーチャルイメージの各々からピクセルを選択することにより前記最小量のぼけを有するピクセルを選択することを特徴とする複合カメラシステム。
  4. 請求項3において、前記データプロセッサが、前記オブジェクトの前記第一深さ面に位置しているポイントデータ(x,y,z)を発生するためにバーチャルピクセルデータ(u,v)を逆投影し、次いで第一コンポーネントカメラのイメージ面に位置した第一ピクセルデータ(u1,v1)を発生させるために前記ポイントデータ(x,y,z)を投影させることにより前記第一コンポーネントバーチャルイメージを発生させることを特徴とする複合カメラシステム。
  5. 請求項4において、前記データプロセッサが、第二コンポーネントカメラのイメージ面に位置した第二ピクセルデータ(u2,v2)を発生させるために前記第一深さ面に位置しているポイントデータ(x,y,z)を投影することにより前記第一コンポーネントバーチャルイメージを発生させることを特徴とする複合カメラシステム。
  6. 請求項5において、前記データプロセッサが、前記第一ピクセルデータ(u1,v1)の色と前記第二ピクセルデータ(u2,v2)の色とを結合させることにより前記第一コンポーネントバーチャルイメージを発生させることを特徴とする複合カメラシステム。
  7. 請求項3において、前記データプロセッサが、前記オブジェクトの前記第二深さ面に位置したポイントデータ(x,y,z)を発生させるためにバーチャルピクセルデータ(u,v)を逆投影し、次いで第一コンポーネントカメラのイメージ面に位置した第一ピクセルデータ(u1,v1)を発生させるために前記ポイントデータ(x,y,z)を投影させることにより前記第二コンポーネントバーチャルイメージを発生させることを特徴とする複合カメラシステム。
  8. 請求項7において、前記データプロセッサが、第二コンポーネントカメラのイメージ面に位置した第二ピクセルデータ(u2,v2)を発生させるために前記第二深さ面に位置したポイントデータ(x,y,z)を投影させることにより前記第二コンポーネントバーチャルイメージを発生させることを特徴とする複合カメラシステム。
  9. 請求項8において、前記データプロセッサが、前記第一ピクセルデータ(u1,v1)の色と前記第二ピクセルデータ(u2,v2)の色とを結合させることにより前記第二コンポーネントバーチャルイメージを発生させることを特徴とする複合カメラシステム。
  10. 複合カメラシステムにおいて使用するための大きな被写界深度を有するエンハンストバーチャルイメージを発生させる方法において、
    複数個のコンポーネントカメラの各々においてオブジェクトのイメージデータを発生し、
    前記複数個のコンポーネントカメラからイメージデータを受取り、
    第一深さ面において第一コンポーネントバーチャルイメージを発生し、
    第二深さ面において第二コンポーネントバーチャルイメージを発生し、
    前記第一コンポーネントバーチャルイメージから第一の選択したピクセルを前記エンハンストバーチャルイメージ内へ挿入し且つ前記第二コンポーネントバーチャルイメージからの第二の選択したピクセルを前記エンハンストバーチャルイメージ内に挿入して前記エンハンストバーチャルイメージを発生させる、
    上記各ステップを有していることを特徴とする方法。
  11. 請求項10において、更に、
    前記第一及び第二コンポーネントバーチャルイメージからの対応するピクセルのぼけの量を比較することにより前記第一コンポーネントバーチャルイメージからの前記第一の選択したピクセル及び前記第二コンポーネントバーチャルイメージからの前記第二の選択したピクセルを選択し、
    前記第一及び第二コンポーネントバーチャルイメージの各々から最小量のぼけを有するピクセルを前記エンハンストバーチャルイメージ内へ挿入する、
    上記各ステップを有していることを特徴とする方法。
  12. 請求項11において、最小量のぼけを有するピクセルを前記エンハンストバーチャルイメージ内へ挿入する場合に、最小量の色偏差を有する前記第一及び第二コンポーネントバーチャルイメージの各々からのピクセルを前記エンハンストバーチャルイメージ内へ挿入させることを特徴とする方法。
  13. 請求項12において、前記第一コンポーネントバーチャルイメージを発生させる場合に、
    バーチャルピクセルデータ(u,v)を逆投影して前記オブジェクトの前記第一深さ面に位置したポイントデータ(x,y,z)を発生し、
    前記ポイントデータ(x,y,z)を投影して第一コンポーネントカメラのイメージ面に位置した第一ピクセルデータ(u1,v1)を発生する、
    上記各ステップを有していることを特徴とする方法。
  14. 請求項13において、前記第一コンポーネントバーチャルイメージを発生させる場合に、前記第一深さ面に位置しているポイントデータ(x,y,z)を投影して第二コンポーネントカメラのイメージ面に位置した第二ピクセルデータ(u2,v2)を発生させることを特徴とする方法。
  15. 請求項14において、前記第一コンポーネントバーチャルイメージを発生させる場合に、前記第一ピクセルデータ(u1,v1)の色と前記第二ピクセルデータ(u2,v2)の色とを結合させることを特徴とする方法。
  16. 請求項12において、前記第二コンポーネントバーチャルイメージを発生させる場合に、
    バーチャルピクセルデータ(u,v)を逆投影して前記オブジェクトの前記第二深さ面に位置したポイントデータ(x,y,z)を発生し、
    前記ポイントデータ(x,y,z)を投影して第一コンポーネントカメラのイメージ面に位置した第一ピクセルデータ(u1,v1)を発生する、
    上記各ステップを有していることを特徴とする方法。
  17. 請求項16において、前記第二コンポーネントバーチャルイメージを発生する場合に、前記第二深さ面に位置しているポイントデータ(x,y,z)を投影して第二コンポーネントカメラのイメージ面に位置した第二ピクセルデータ(u2,v2)を発生する、
    ことを特徴とする方法。
  18. 請求項17において、前記第二コンポーネントバーチャルイメージを発生する場合に、前記第二ピクセルデータ(u1,v1)の色と前記第二ピクセルデータ(u2,v2)の色とを結合させることを特徴とする方法。
  19. 高分解能バーチャルイメージを発生することが可能な複合カメラシステムにおいて、
    オブジェクトのイメージデータを発生することが可能な複数個のコンポーネントカメラ、
    第一コンポーネントカメラから第一イメージデータを受取り且つ第二コンポーネントカメラから第二イメージデータを受取ることが可能であり且つ(1)バーチャルピクセルデータ(u,v)を逆投影して前記オブジェクトの第一オブジェクト面と関連した深さz=Z1に位置したポイントデータ(x,y,z)を発生し、(2)前記ポイントデータ(x,y,z)を投影して前記第一イメージデータのイメージ面に位置した第一ピクセルデータ(u1,v1)を発生し、(3)前記ポイントデータ(x,y,z)を投影して前記第二イメージデータのイメージ面に位置した第二ピクセルデータ(u2,v2)を発生することによって前記高分解能バーチャルイメージを発生することが可能なデータプロセッサ、
    を有しており、前記バーチャルピクセルデータ(u,v)のピクセル密度が前記第一ピクセルデータ(u1,v1)及び第二ピクセルデータ(u2,v2)のピクセル密度よりも大きいことを特徴とする複合カメラシステム。
  20. 請求項19において、前記データプロセッサが、前記第一ピクセルデータ(u1,v1)の色と前記第二ピクセルデータ(u2,v2)の色とを結合させることにより前記バーチャルイメージを発生させることを特徴とする複合カメラシステム。
  21. 請求項20において、前記データプロセッサが、前記第一の色を第一加重係数で乗算して第一積を形成し、前記第二の色を第二加重係数で乗算して第二積を形成し、前記第一積及び第二積を加算し、その色の和を重みの和で割算することにより前記第一ピクセルデータ(u1,v1)の色と前記第二ピクセルデータ(u2,v2)の色とを結合させることを特徴とする複合カメラシステム。
  22. 請求項21において、前記重みがcos(φ)に比例し、尚φがコンポーネントカメラからのバーチャル光線と対応光線との間の角度であることを特徴とする複合カメラシステム。
  23. 請求項19において、前記データプロセッサが、逆面投影マトリクスを使用して前記バーチャルピクセルデータ(u,v)を投影して前記ポイントデータ(x,y,z)を発生し且つ第一面投影マトリクスを使用して前記ポイントデータ(x,y,z)を投影して前記第一ピクセルデータ(u1,v1)を発生することを特徴とする複合カメラシステム。
  24. 請求項23において、前記データプロセッサが、第二面投影マトリクスを使用して前記ポイントデータ(x,y,z)を投影して前記第二ピクセルデータ(u2,v2)を発生することを特徴とする複合カメラシステム。
  25. 請求項24において、前記データプロセッサが、更に、前記オブジェクトの第二オブジェクト面と関連する深さz=Z2に位置した前記ポイントデータ(x,y,z)を発生するために前記バーチャルピクセルデータ(u,v)を逆投影し且つ前記第一イメージの前記イメージ面に位置した前記第一ピクセルデータ(u1,v1)を発生するために前記ポイントデータ(x,y,z)を投影することにより前記複合カメラシステムの焦点を調節することが可能であることを特徴とする複合カメラシステム。
  26. 請求項25において、前記データプロセッサが、更に、前記第二イメージの前記イメージ面に位置した第二ピクセルデータ(u2,v2)を発生するために前記オブジェクトの前記第二オブジェクト面と関連する深さz=Z2に位置した前記ポイントデータ(x,y,z)を投影することにより前記複合カメラシステムの前記焦点を調節することが可能であることを特徴とする複合カメラシステム。
JP2004110671A 2003-04-04 2004-04-05 自動焦点、被写界深度及び高分解能機能を実現する複合カメラ及び方法 Pending JP2004312745A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/407,490 US7425984B2 (en) 2003-04-04 2003-04-04 Compound camera and methods for implementing auto-focus, depth-of-field and high-resolution functions

Publications (1)

Publication Number Publication Date
JP2004312745A true JP2004312745A (ja) 2004-11-04

Family

ID=32850666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004110671A Pending JP2004312745A (ja) 2003-04-04 2004-04-05 自動焦点、被写界深度及び高分解能機能を実現する複合カメラ及び方法

Country Status (4)

Country Link
US (2) US7425984B2 (ja)
EP (1) EP1465111B1 (ja)
JP (1) JP2004312745A (ja)
DE (1) DE602004022889D1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101358042B1 (ko) 2013-01-31 2014-02-10 주식회사 나무가 개체차 조정장치

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7268804B2 (en) 2003-04-04 2007-09-11 Stmicroelectronics, Inc. Compound camera and method for synthesizing a virtual image from multiple input images
US8553113B2 (en) * 2003-08-20 2013-10-08 At&T Intellectual Property I, L.P. Digital image capturing system and method
EP1900216A2 (en) * 2005-05-12 2008-03-19 Tenebraex Corporation Improved methods of creating a virtual window
US8446509B2 (en) * 2006-08-09 2013-05-21 Tenebraex Corporation Methods of creating a virtual window
US20090290033A1 (en) * 2007-11-16 2009-11-26 Tenebraex Corporation Systems and methods of creating a virtual window
EP2223526B1 (en) * 2007-11-16 2015-01-28 Scallop Imaging, LLC Systems and methods of creating a virtual window
US8791984B2 (en) * 2007-11-16 2014-07-29 Scallop Imaging, Llc Digital security camera
US8280194B2 (en) * 2008-04-29 2012-10-02 Sony Corporation Reduced hardware implementation for a two-picture depth map algorithm
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
EP4336447A1 (en) 2008-05-20 2024-03-13 FotoNation Limited Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
CN101673395B (zh) * 2008-09-10 2012-09-05 华为终端有限公司 图像拼接方法及装置
US8194995B2 (en) * 2008-09-30 2012-06-05 Sony Corporation Fast camera auto-focus
US8553093B2 (en) 2008-09-30 2013-10-08 Sony Corporation Method and apparatus for super-resolution imaging using digital imaging devices
US8436909B2 (en) * 2008-10-21 2013-05-07 Stmicroelectronics S.R.L. Compound camera sensor and related method of processing digital images
WO2011037964A1 (en) * 2009-09-22 2011-03-31 Tenebraex Corporation Systems and methods for correcting images in a multi-sensor system
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8335390B2 (en) * 2010-03-22 2012-12-18 Sony Corporation Blur function modeling for depth of field rendering
WO2011143501A1 (en) 2010-05-12 2011-11-17 Pelican Imaging Corporation Architectures for imager arrays and array cameras
EP2410377A1 (en) 2010-07-20 2012-01-25 Research In Motion Limited Method for decreasing depth of field of a camera having fixed aperture
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
WO2012155119A1 (en) 2011-05-11 2012-11-15 Pelican Imaging Corporation Systems and methods for transmitting and receiving array camera image data
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
US8928737B2 (en) * 2011-07-26 2015-01-06 Indiana University Research And Technology Corp. System and method for three dimensional imaging
US20130057655A1 (en) * 2011-09-02 2013-03-07 Wen-Yueh Su Image processing system and automatic focusing method
US20140225991A1 (en) * 2011-09-02 2014-08-14 Htc Corporation Image capturing apparatus and method for obatining depth information of field thereof
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
US8542933B2 (en) 2011-09-28 2013-09-24 Pelican Imaging Corporation Systems and methods for decoding light field image files
WO2013126578A1 (en) 2012-02-21 2013-08-29 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
KR20150023907A (ko) 2012-06-28 2015-03-05 펠리칸 이매징 코포레이션 결함있는 카메라 어레이들, 광학 어레이들 및 센서들을 검출하기 위한 시스템들 및 방법들
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
EP2888720B1 (en) 2012-08-21 2021-03-17 FotoNation Limited System and method for depth estimation from images captured using array cameras
EP2888698A4 (en) 2012-08-23 2016-06-29 Pelican Imaging Corp PROPERTY-BASED HIGH-RESOLUTION MOTION ESTIMATION FROM LOW-RESOLUTION IMAGES RECORDED WITH AN ARRAY SOURCE
EP2901671A4 (en) * 2012-09-28 2016-08-24 Pelican Imaging Corp CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW
WO2014078443A1 (en) 2012-11-13 2014-05-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
US9253380B2 (en) 2013-02-24 2016-02-02 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
WO2014138697A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
WO2014165244A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
WO2014153098A1 (en) 2013-03-14 2014-09-25 Pelican Imaging Corporation Photmetric normalization in array cameras
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9497370B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Array camera architecture implementing quantum dot color filters
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
WO2014145856A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
JP6100089B2 (ja) * 2013-05-17 2017-03-22 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
US9264592B2 (en) 2013-11-07 2016-02-16 Pelican Imaging Corporation Array camera modules incorporating independently aligned lens stacks
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
US9426361B2 (en) 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
CN113256730B (zh) 2014-09-29 2023-09-05 快图有限公司 用于阵列相机的动态校准的系统和方法
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
CN107346531A (zh) * 2016-05-05 2017-11-14 中兴通讯股份有限公司 一种图像优化方法、装置及终端
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US10721419B2 (en) * 2017-11-30 2020-07-21 International Business Machines Corporation Ortho-selfie distortion correction using multiple image sensors to synthesize a virtual image
MX2022003020A (es) 2019-09-17 2022-06-14 Boston Polarimetrics Inc Sistemas y metodos para modelado de superficie usando se?ales de polarizacion.
EP4042101A4 (en) 2019-10-07 2023-11-22 Boston Polarimetrics, Inc. SYSTEMS AND METHODS FOR DETECTING SURFACE NORMALS USING POLARIZATION
JP7329143B2 (ja) 2019-11-30 2023-08-17 ボストン ポーラリメトリックス,インコーポレイティド 偏光キューを用いた透明な物体のセグメンテーションのためのシステム及び方法
US11195303B2 (en) 2020-01-29 2021-12-07 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
CN115428028A (zh) 2020-01-30 2022-12-02 因思创新有限责任公司 用于合成用于在包括偏振图像的不同成像模态下训练统计模型的数据的系统和方法
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4404594A (en) 1981-11-02 1983-09-13 Itek Corporation Imaging system with enlarged depth of field
JP3745117B2 (ja) * 1998-05-08 2006-02-15 キヤノン株式会社 画像処理装置及び画像処理方法
US6469710B1 (en) * 1998-09-25 2002-10-22 Microsoft Corporation Inverse texture mapping using weighted pyramid blending
US6201899B1 (en) * 1998-10-09 2001-03-13 Sarnoff Corporation Method and apparatus for extended depth of field imaging
CA2316611A1 (en) * 1999-08-31 2001-02-28 Nintendo Co. Ltd. Method and apparatus for providing depth blur effects within a 3d videographics system
US7085409B2 (en) * 2000-10-18 2006-08-01 Sarnoff Corporation Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery
US6990681B2 (en) * 2001-08-09 2006-01-24 Sony Corporation Enhancing broadcast of an event with synthetic scene using a depth map
US7003136B1 (en) * 2002-04-26 2006-02-21 Hewlett-Packard Development Company, L.P. Plan-view projections of depth image data for object tracking
US7006709B2 (en) * 2002-06-15 2006-02-28 Microsoft Corporation System and method deghosting mosaics using multiperspective plane sweep
US7084904B2 (en) * 2002-09-30 2006-08-01 Microsoft Corporation Foveated wide-angle imaging system and method for capturing and viewing wide-angle images in real time
US6975329B2 (en) * 2002-12-09 2005-12-13 Nvidia Corporation Depth-of-field effects using texture lookup
US20030146922A1 (en) * 2002-12-20 2003-08-07 Nassir Navab System and method for diminished reality
US7268804B2 (en) 2003-04-04 2007-09-11 Stmicroelectronics, Inc. Compound camera and method for synthesizing a virtual image from multiple input images

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101358042B1 (ko) 2013-01-31 2014-02-10 주식회사 나무가 개체차 조정장치

Also Published As

Publication number Publication date
DE602004022889D1 (de) 2009-10-15
EP1465111A3 (en) 2005-04-06
EP1465111B1 (en) 2009-09-02
US20040196379A1 (en) 2004-10-07
US7425984B2 (en) 2008-09-16
EP1465111A2 (en) 2004-10-06
US8264541B2 (en) 2012-09-11
US20080198220A1 (en) 2008-08-21

Similar Documents

Publication Publication Date Title
JP2004312745A (ja) 自動焦点、被写界深度及び高分解能機能を実現する複合カメラ及び方法
JP3593466B2 (ja) 仮想視点画像生成方法およびその装置
JP4942221B2 (ja) 高解像度仮想焦点面画像生成方法
Aggarwal et al. Split aperture imaging for high dynamic range
EP3057317B1 (en) Light-field camera
US6205241B1 (en) Compression of stereoscopic images
US20050117215A1 (en) Stereoscopic imaging
CN108475327A (zh) 三维采集与渲染
EP1355274A3 (en) 3D reconstruction of multiple views with altering search path and occlusion modeling
JPH08331607A (ja) 三次元表示画像生成方法
CN110517211B (zh) 一种基于梯度域映射的图像融合方法
CA2540538C (en) Stereoscopic imaging
EP1445736A2 (en) Method and system for providing a volumetric representation of a three-dimensional object
Ichimaru et al. Unified underwater structure-from-motion
JP4193292B2 (ja) 多眼式データ入力装置
US10726581B2 (en) System and method for scene-space video processing
JP2004310777A (ja) 複数個の入力イメージからバーチャルイメージを合成する複合カメラ及び方法
CN104463958A (zh) 基于视差图融合的三维超分辨率方法
Bove Synthetic movies derived from multi-dimensional image sensors
Tsai et al. Model-based synthetic view generation from a monocular video sequence
Keinert et al. Cost-effective multi-camera array for high quality video with very high dynamic range
JP2005107463A (ja) インテグラルフォトグラフィ
JP2019035656A (ja) 3次元形状測定装置、3次元形状測定方法、及び3次元形状測定プログラム
Pedersini et al. Accurate 3-D reconstruction from trinocular views through integration of improved edge-matching and area-matching techniques
Pelletier et al. Real-time free viewpoint video from a range sensor and color cameras