JP2013539608A - 複数の画像センサからのデータの合成 - Google Patents

複数の画像センサからのデータの合成 Download PDF

Info

Publication number
JP2013539608A
JP2013539608A JP2013503852A JP2013503852A JP2013539608A JP 2013539608 A JP2013539608 A JP 2013539608A JP 2013503852 A JP2013503852 A JP 2013503852A JP 2013503852 A JP2013503852 A JP 2013503852A JP 2013539608 A JP2013539608 A JP 2013539608A
Authority
JP
Japan
Prior art keywords
data
image
line
sensor
control signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013503852A
Other languages
English (en)
Other versions
JP5559416B2 (ja
Inventor
アレックシック、ミリボジェ
ゴマ、セルジウ・アール.
ホワン、ハウ
チャン、ジョセフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2013539608A publication Critical patent/JP2013539608A/ja
Application granted granted Critical
Publication of JP5559416B2 publication Critical patent/JP5559416B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/665Control of cameras or camera modules involving internal camera communication with the image sensor, e.g. synchronising or multiplexing SSIS control signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Image Analysis (AREA)
  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Facsimiles In General (AREA)
  • Facsimile Heads (AREA)
  • Image Input (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)

Abstract

複数のセンサからのデータを合成する方法を開示する。本方法は、複数の画像センサに共通制御信号を与えることを含む。複数の画像センサの各々は、共通制御信号に応答して画像データを生成する。本方法はまた、複数の画像センサの各々から同期データ出力を受信することを含む。
【選択図】 図19

Description

優先権の主張
本出願は、2010年4月5日に出願された米国仮出願第61/320,940号、2010年4月14日に出願された米国仮出願第61/324,259号、2010年6月28日に出願された米国仮出願第61/359,312号、および2010年11月11日に出願された米国仮出願第61/412,755号の各々の利益を主張し、その各々を参照により組み込む。
本開示は、一般に、複数の画像センサからのデータを合成することに関する。
技術の進歩により、コンピューティングデバイスは、より小型でより強力になった。たとえば、現在、小型で軽量な、ユーザが容易に持ち運べるポータブルワイヤレス電話、携帯情報端末(PDA)、およびページングデバイスなどのワイヤレスコンピューティングデバイスを含む様々なポータブルパーソナルコンピューティングデバイスが存在する。より具体的には、セルラー電話やインターネットプロトコル(IP)電話などのポータブルワイヤレス電話は、ボイスおよびデータパケットを、ワイヤレスネットワークを介して伝達することができる。さらに、多くのそのようなワイヤレス電話は、その中に組み込まれた他のタイプのデバイスを含む。たとえば、ワイヤレス電話は、デジタルスチルカメラおよびデジタルビデオカメラをも含むことができる。また、そのようなワイヤレス電話は、ウェブブラウザアプリケーションなど、インターネットにアクセスするために使用できるソフトウェアアプリケーションを含む実行可能命令を処理することができる。
さらに、ワイヤレスデバイスは、3次元(3D)アプリケーションを実行し得る。3Dアプリケーションでは、一般に、シーンから深さ情報をキャプチャするために少なくとも2つの画像センサが使用される。2つの画像センサからのフレームデータは、距離情報を推論するために合成および処理され、3D表現を構築するために使用される。センサの各々からの画像データを合成することは、一般に、フレーム同期およびライン同期を実行することを伴い、それにより、同期および整合の課題を生じ得る。さらに、複数のセンサからの画像データのフィルタリング、およびそのような画像データをインターリーブすることは、ソースセンサが異なる周波数または位相でデータを与えるときにさらに複雑になり得る。複数のセンサからのデータを効果的に同期させ、全体的な画像処理システムコストおよび複雑さを低減するようにデータを効率的に処理することが有利であろう。
複数カメラアレイアプリケーションでは、複数のセンサの各々からの画像データは、ラインレベルにおいて同期され、処理されるべきである。第1の画像センサからの画像データと第2の画像センサからの画像データとが同期され、処理される、複数のセンサからのデータを合成する画像処理システムを開示する。同期データラインは、第1の画像センサによって生成された第1のデータストリームからの第1のデータを第2の画像センサによって生成された第2のデータストリームからの第2のデータと同期させ、合成することによって生成される。画像信号プロセッサは、コンバイナから受信した同期データラインを処理し、処理済みフレームをディスプレイに出力するように構成される。
特定の実施形態では、方法を開示する。本方法は、同期すべき複数の画像センサに共通制御信号を与えることを含む。本方法は、複数の画像センサのうちの第1の画像センサから第1のデータラインを受信することと、複数の画像センサのうちの第2の画像センサから第2のデータラインを受信することと、同期データラインを生成するために第1のデータラインと第2のデータラインとを合成することとをさらに含む。
別の特定の実施形態では、装置を開示する。本装置は、共通制御信号を介して同期すべき複数の画像センサの第1の画像センサからの第1のデータラインを受信するように構成された第1の入力を含む。本装置は、複数の画像センサのうちの第2の画像センサからの第2のデータラインを受信するように構成された第2の入力と、第1の入力と第2の入力とに結合されたコンバイナとをさらに含み、コンバイナは、同期データラインを生成するために第1のデータラインと第2のデータラインとを合成するように構成される。
別の特定の実施形態では、方法を開示する。本方法は、複数の画像センサに共通制御信号を与えることを含む。複数の画像センサの各々は、共通制御信号に応答して画像データを生成する。本方法は、複数の画像センサの各々から同期データ出力を受信することと、同期データラインを生成するために複数の画像センサの各々からの同期データ出力を合成することと、画像プロセッサの単一カメラ入力を介して画像プロセッサに同期データラインを与えることとをさらに含む。
別の特定の実施形態では、装置を開示する。本装置は、複数の画像センサに共通制御信号を与えるように構成されたセンサシンクロナイザを含む。複数の画像センサの各々は、共通制御信号に応答して画像データを生成する。本装置は、画像プロセッサの単一カメラ入力を介して画像プロセッサに与えられるべき同期データラインを生成するために複数の画像センサの各々から受信した同期データ出力を合成するように構成されたコンバイナをさらに含む。
別の特定の実施形態では、方法を開示する。本方法は、複数の画像センサに共通制御信号を与えることを含む。複数の画像センサの各々は、共通制御信号に応答して画像データを生成する。本方法は、複数の画像センサの各々から同期データ出力を受信することをさらに含む。
別の特定の実施形態では、方法を開示する。本方法は、複数の画像センサにおいて共通制御信号を受信することを含む。複数の画像センサの各々は、共通制御信号に応答して画像データを生成する。本方法は、複数の画像センサの各々から同期データ出力を生成することをさらに含む。
別の特定の実施形態では、装置を開示する。本装置は、複数の画像センサに画像データを生成させるために複数の画像センサに共通制御信号を与えるように構成されたセンサシンクロナイザを含む。本装置は、複数の画像センサの各々から同期データ出力を受信するように構成されたセンサデータインターフェースをさらに含む。
別の特定の実施形態では、方法を開示する。本方法は、単一カメラのための入力を有する画像プロセッサにおいて画像データのラインを受信することを含む。画像データの各ラインは、第1のカメラによってキャプチャされた第1の画像からの第1のラインデータと、第2のカメラによってキャプチャされた第2の画像からの第2のラインデータとを含む。本方法は、第1の画像のラインデータに対応する第1のセクションを有し、第2の画像のラインデータに対応する第2のセクションを有する出力フレームを生成することをさらに含む。第1のセクションと第2のセクションとは、3次元(3D)画像フォーマットまたは3Dビデオフォーマットを生成するために使用されるように構成される。
別の特定の実施形態では、装置を開示する。本装置は、単一カメラのための入力を有する画像プロセッサを含む。画像プロセッサは、入力を介して画像データのラインを受信するように構成される。画像データの各ラインは、第1のカメラによってキャプチャされた第1の画像からの第1のラインデータと、第2のカメラによってキャプチャされた第2の画像からの第2のラインデータとを含む。画像プロセッサは、第1の画像のラインデータに対応する第1のセクションを有し、第2の画像のラインデータに対応する第2のセクションを有する出力フレームを生成するように構成される。第1のセクションと第2のセクションとは、3次元(3D)画像フォーマットまたは3Dビデオフォーマットを生成するために使用されるように構成される。
特定の実施形態では、複数のセンサからのデータをフレームに合成する方法を開示する。本方法は、第1の画像センサから第1のデータストリームを受信することと、第2の画像センサから第2のデータストリームを受信することと、フレームを生成するために第1のデータストリームからのデータと第2のデータストリームからのデータとを合成することとを含む。本方法は、画像信号プロセッサにおいてフレームを処理して処理済みフレームを生成することと、表示のために処理済みフレームを出力することとをさらに含む。第1の画像センサと第2の画像センサの各々は、画像信号プロセッサに直接応答する。
別の特定の実施形態では、装置を開示する。本装置は、第1のデータストリームを生成するように構成された第1の画像センサと、第2のデータストリームを生成するように構成された第2の画像センサと、フレームを生成するために第1のデータストリームからの第1のデータと第2のデータストリームからの第2データとを合成するように構成されたコンバイナとを含む。本装置は、フレームを処理し、処理済みフレームをディスプレイに出力するように構成された画像信号プロセッサをさらに含む。第1の画像センサと第2の画像センサの各々は、画像信号プロセッサに直接応答する。
別の特定の実施形態では、方法を開示する。本方法は、第1の画像センサから画像の第1の画像データを受信することと、第2の画像センサから画像の第2の画像データを受信することと、画像データの収集中に第1の画像センサと第2の画像センサとのラインごとの露光を同期させることを含む。第1の画像センサと第2の画像センサとは、互いに独立している。同期は、ラインごとに行われ得、フレームごとに行われ得る。
別の特定の実施形態では、装置を開示する。本装置は、メモリバッファを含む。メモリバッファは、各フレームのストリーミングを通して決定論的順序(deterministic order)で着信ストリームを整合させるセクションと、ストリーム間のプログラマブルギャップセクションとを含む。
別の特定の実施形態では、方法を開示する。本方法は、単一カメラのための入力を有する画像プロセッサにおいて画像データの行を受信することを含む。画像データの各行は、第1のカメラによってキャプチャされた第1の画像の行からのデータと、第2のカメラによってキャプチャされた第2の画像の行からのデータとを含む。本方法はまた、3次元(3D)画像フォーマットまたは3Dビデオフォーマットを有する出力を生成することを含む。出力は、第1の画像と第2の画像とに対応する。
別の特定の実施形態では、装置を開示する。本装置は、単一カメラのための入力を有する画像プロセッサを含む。本装置はまた、画像データの行を画像プロセッサに送るように構成されたコンバイナを含む。画像データの各行は、第1のカメラによってキャプチャされた第1の画像の行からの第1のデータと、第2のカメラによってキャプチャされた第2の画像の行からの第2のデータとを含む。画像プロセッサは、3次元(3D)画像フォーマットまたは3Dビデオフォーマットのいずれかを有する出力を生成するように構成される。出力は、第1の画像と第2の画像とに対応する。
開示する実施形態のうちの少なくとも1つによって与えられる1つの特定の利点は、複数の画像センサからの画像データを同期させ、制御するために単一の画像信号プロセッサが使用され得るということである。別の特定の利点は、ストリーム間にギャップがあるので画像信号プロセッサ中で合成されたストリームを単一フレームとして処理するフレキシビリティがもたらされることであり、後続のブロックベースの処理によるストリームのコンタミネーションを回避する(すなわち、ギャップが最大のブロックベース処理に等しい場合、ストリームのコンタミネーションが回避される)。
本開示の他の態様、利点、および特徴は、図面の簡単な説明、発明を実施するための形態、および特許請求の範囲を含む、本出願全体の検討の後に明らかになろう。
複数の画像センサからのデータを合成する画像処理システムの特定の例示的な実施形態のブロック図。 複数の画像センサからのデータを合成する画像処理システムの第2の例示的な実施形態のブロック図。 複数の画像センサからのデータを合成する画像処理システムの第3の例示的な実施形態のブロック図。 第1の画像センサと第2の画像センサとが共通制御データを受信する、図2の画像処理システムの選択された部分の特定の例示的な実施形態のブロック図。 複数の画像センサからのデータを合成する画像処理システムの第4の例示的な実施形態のブロック図。 第1の画像センサの出力における第1のデータストリームと第2の画像センサの出力における第2のデータストリームとが合成されて同期データラインを形成する第1の実施形態の図表示。 第1の画像センサの出力における第1のデータストリームと第2の画像センサの出力における第2のデータストリームとが合成されて同期データラインを形成する第2の実施形態の図表示。 第1のセンサからの第1のデータストリームと第2のセンサからの第2のデータストリームとの間の2ライン位相差を示す位相図の第1の実施形態の図表示。 第1のセンサからの第1のデータストリームと第2のセンサからの第2のデータストリームとの間の1ライン位相差を示す位相図の第2の実施形態の図表示。 複数のセンサの各々のピクセルデータと同期データラインとを示す図表示。 複数のセンサのためのフレーム有効信号タイミングとライン有効信号タイミングとを示すタイミング図。 第1のセンサからの第1のデータストリームと第2のセンサからの第2のデータストリームとの間の3ライン位相差を示す位相図の第3の実施形態の図表示。 3次元画像フォーマットを生成するために複数の画像センサからのデータを合成する画像処理システムの特定の例示的な実施形態のブロック図。 複数の画像センサからのデータを合成する画像処理システムを有するモバイルデバイスの様々な実施形態を示す図表示。 画像間の重複を含む、カメラのアレイによってキャプチャされる画像の一例を示す図表示。 各画像がそれ自体のシフト成分と回転成分とを有し得る、画像間の重複を含む、カメラのアレイによってキャプチャされる画像の一例を示す図表示。 カメラのアレイとカメラのアレイに関連する電気接続との特定の一実施形態を示すブロック図。 カメラアレイ処理システムの第1の特定の例示的な実施形態のブロック図。 カメラアレイ処理システムの第1の特定の例示的な実施形態のブロック図。 メインレンズとアレイに配列された複数のカメラとを含むカメラシステムを示す図表示。 自動車における複数カメラモジュールを示す図表示。 複数のセンサからのデータを同期データラインに合成する方法の特定の例示的な実施形態の流れ図。 複数の画像センサに共通制御信号を与え、画像プロセッサの単一カメラ入力を介して画像プロセッサに同期データラインを与える方法の特定の例示的な実施形態の流れ図。 複数の画像センサに共通制御信号を与え、複数の画像センサの各々から同期データ出力を受信する方法の特定の例示的な実施形態の流れ図。 複数の画像センサにおいて共通制御信号を受信し、複数の画像センサの各々から同期データ出力を生成する方法の特定の例示的な実施形態の流れ図。 単一カメラのための入力を有する画像信号プロセッサにおいて複数のセンサからのデータを合成する方法の特定の例示的な実施形態の流れ図。 複数のセンサからのデータをフレームに合成する方法の特定の例示的な実施形態の流れ図。 第1の画像センサと第2の画像センサとのラインごとの露光を同期させる方法の特定の例示的な実施形態の流れ図。 複数のセンサからのデータを合成して3次元画像データを生成する方法の第1の例示的な実施形態の流れ図。 複数のセンサからのデータを合成して3次元画像データを生成する方法の第2の例示的な実施形態の流れ図。 第1の画像センサと第2の画像センサとのラインごとの露光を同期させる方法の特定の例示的な実施形態の流れ図。 複数のセンサからのデータを合成して同期データラインから3次元画像データを生成する方法の特定の例示的な実施形態の流れ図。 複数の画像センサからのデータを合成する画像処理システムの特定の例示的な実施形態のブロック図。 複数の画像センサからのデータを合成する画像処理システムを含むワイヤレスデバイスの第1の例示的な実施形態のブロック図。 複数の画像センサからのデータを合成する画像処理システムを含むワイヤレスデバイスの第2の例示的な実施形態のブロック図。
図1を参照すると、複数のセンサからのデータを合成する画像処理システムの特定の例示的な実施形態が示され、全体的に100と称される。画像処理システム100は、複数カメラモジュール102と、センサモジュール104と、単一カメラチップモジュール106とを含む。特定の実施形態では、センサモジュール104は、図2および図3のセンサ202および204などの複数のセンサを含むことができ、複数のセンサの各々は、画像のデータラインを含むデータストリームを生成するように構成される。単一カメラモジュール106は、図2および図3の画像プロセッサ208など、単一カメラ入力を有する画像プロセッサを含むことができる。複数のセンサの画像データストリームのラインごとの画像データを同期データライン108に合成することによって、画像プロセッサが単一カメラ入力を有するとしても、画像プロセッサがマルチカメラ処理のためのフォーマッティングを実行することが可能になる。その結果、各カメラのために別個のプロセッサを使用するシステム、または複数カメラ入力を有するプロセッサを使用するシステムと比較して、システム100は低コストで実装され得る。
図2を参照すると、複数のセンサからのデータを合成する画像処理システムの特定の例示的な実施形態が示され、全体的に200と称される。画像処理システム200は、第1のセンサ202と、第2のセンサ204とを含む。画像処理システム200は、コンバイナ206と、画像信号プロセッサまたはビデオフロントエンド208と、センサシンクロナイザ230とをさらに含む。画像信号プロセッサ208は、ディスプレイデバイス(図示せず)に結合され得る。コンバイナ206は、1つまたは複数のラインバッファ216を含む。画像処理システム200は、少なくとも1つの半導体ダイに統合され得る。
第1のセンサ202は、第1の画像データストリーム212として示される第1のデータストリームを生成するように構成される。第1の画像データストリーム212は、第1のデータライン222を含む。第2のセンサ204は、第2の画像データストリーム214として示される第2のデータストリームを生成するように構成される。第2の画像データストリーム214は、第2のデータライン224を含む。第1のセンサ202および第2のセンサ204は、互いに独立し、センサシンクロナイザ230から共通制御信号234を受信する実質的に同様の画像センサであり得る。センサシンクロナイザ230は、制御/データ信号232を受信し、第1のセンサ202および第2のセンサ204に共通制御信号234を出力するように構成され、第1のセンサ202および第2のセンサ204が近接して整合されるデータストリーム212、214を生成することが可能になる。たとえば、データストリーム212、214は、周波数および位相など、実質的に同じタイミング特性を有し得る。特定の実施形態では、制御/データ信号232は、画像信号プロセッサ208から受信され得る。
コンバイナ206は、第1の画像データストリーム212と第2の画像データストリーム214とに応答する。コンバイナ206は、ラインバッファ216内で第1の画像データストリーム212からのデータと第2の画像データストリーム214からのデータとを合成するように構成される。特定の実施形態では、ラインバッファ216は、第1のセンサ202からの第1のデータライン222などの第1のデータを整合させ、第2のセンサ204からの第2のデータライン224などの第2のデータを整合させるように構成される。特定の実施形態では、コンバイナ206は、ラインバッファ216内に記憶されたデータに応答し、画像信号プロセッサ208にラインデータ218を与える。特定の実施形態では、ラインデータ218は複数の行を含むことができ、各行は、図6に関して説明するような、各センサ202、204からの対応する行の合成である。
画像信号プロセッサ208は、ラインデータ218を処理し、処理済みラインデータ240を生成するように構成される。特定の実施形態では、処理済みラインデータ240は、処理済みフレームデータとして与えられ得る。2つのセンサを示したが、他の実施形態が3つ以上のセンサを含むことができることを理解されたい。たとえば、図3に、3つ以上のセンサを含む実施形態300を示す。第Nのセンサ305は、第Nの画像データストリーム315として示される第Nのデータストリームを生成するように構成される。第Nの画像データストリーム315は、第Nのデータライン325を含む。第Nのセンサ305は、第1の画像センサ202および第2の画像センサ204と実質的に同様であり得、センサシンクロナイザ230から共通制御信号234を受信し得、第1のセンサ202、第2のセンサ204、および第Nのセンサ305が近接して整合されるデータストリーム212、214、315を生成することが可能になる。たとえば、データストリーム212、214、315は、周波数および位相など、実質的に同じタイミング特性を有し得る。コンバイナ206は、第1の画像データストリーム212と第2の画像データストリーム214と第Nの画像データストリーム315とに応答する。コンバイナ206は、ラインバッファ216内で第1の画像データストリーム212からのデータと第2の画像データストリーム214からのデータと第Nの画像データストリーム315からのデータとを合成するように構成される。
共通に制御される同様のセンサ(たとえば、図2の202、204、または図3の202、204、305)から受信されたデータは実質的に同じ周波数および位相を有するので、コンバイナ206において受信されるデータストリーム間の同期は画像データの単一画像ライン内で行われ得る。特定の実施形態では、ラインバッファ216は、最悪の場合のミスアラインメントのために寸法決定され得る(すなわち、同期ミスアラインメントが3本のラインであった場合、ラインバッファ212は、少なくとも6本のラインをバッファするようにサイズ決定される)。その結果、合成データは、単一の画像信号プロセッサを使用して効率的に処理され得る。したがって、複数プロセッサシステム(たとえば、各センサに割り当てられたプロセッサ)と比較して、全体的な画像システムのコストおよび複雑さが低減され得る。
図4を参照すると、図2の画像処理システム200の選択された部分400の特定の例示的な実施形態が示されている。画像処理システムの部分400は、第1のセンサ202と、第2のセンサ204と、センサシンクロナイザ230とを含む。特定の実施形態では、第1のセンサ202と第2のセンサ204とは、センサシンクロナイザ230から同じ開始信号またはリセット信号と同じクロック入力とを受信する同じセンサまたはほとんど同じセンサである。たとえば、第1のセンサ202と第2のセンサ204とは各々、センサシンクロナイザ230から共通制御データ/信号を受信し得る。特定の実施形態では、制御データ/信号は、制御クロック信号404と、制御データ信号406と、カメラクロック信号408と、カメラリセット信号410とを含むことができる。制御データ/信号404〜410は、形成され、2ワイヤチップ間通信プロトコルに準拠する、集積回路間(I2C:Inter-Integrated Circuit)マルチマスタシリアルコンピュータバスなどのインターフェースを介して送信され得る。代替的に、制御データ/信号404〜410は、形成され、デジタルカメラモジュールとモバイルフォンエンジンとの間のシリアルインターフェースの仕様に準拠する、カメラシリアルインターフェース(CSI:Camera Serial Interface)などのインターフェース、周辺デバイス(カメラ)とホストプロセッサ(ベースバンド、アプリケーションエンジン)との間の、カメラシリアルインターフェース2(CSI−2:Camera Serial Interface 2)などのインターフェース、デジタルカメラモジュールとモバイルフォンエンジンとの間の、カメラパラレルインターフェース(CPI:Camera Parallel Interface)などのパラレルインターフェース、または他の制御インターフェースに従って送信され得る。
第1のセンサ202は、図2または図5のシステムに示すように、コンバイナ206に第1のタイミングデータ420と第1のセンサ画像データ422とを送るように構成され得る。同様に、第2のセンサ204は、図2または図5のコンバイナ206に第2のタイミングデータ430と第2のセンサ画像データ432とを送るように構成され得る。
動作中、第1のセンサ202と第2のセンサ204とは各々、タイミングの見地から同じ条件またはほとんど同じ条件で動作する。たとえば、第1のセンサ202と第2のセンサ204は各々、同じ制御クロック信号404と、同じ制御データ信号406と、同じカメラクロック信号408と、同じカメラリセット信号410とを受信する。第1のセンサ202と第2のセンサ204とは同じであるか、ほとんど同じであるので、それらは、同じタイミング条件下で実質的に同様に動作する。たとえば、第1のセンサ202からのデータ出力は、第2のセンサ204からのデータ出力と実質的に同じ周波数および位相を有する。例示のために、第1のセンサ202と第2のセンサ204とからのデータ出力間の位相差は、位相差の単一水平線未満であり得、2つの画像センサ202、204からの画像データを同期させて、制御するために単一の画像信号プロセッサを使用することが可能になる。
図5を参照すると、複数のセンサからのデータを合成する画像処理システムの特定の例示的な実施形態のブロック図が示され、全体的に500と称される。システム500は、第1の画像センサ202と、第2の画像センサ204と、コンバイナ206と、センサシンクロナイザ230と、画像信号プロセッサ208とを含む。システム500は、レジスタインターフェース510とクロック管理デバイス512とをさらに含む。特定の実施形態では、レジスタインターフェース510は、センサシンクロナイザ230内にあり得る。代替的に、レジスタインターフェース510はスタンドアロンモジュールであり得る。特定の実施形態では、システム500は、(影で示された)薄型出力フォーマッタ(thin output formatter)506と(影で示された)トランスポートパッカーおよびフォーマッタ(transport packer and formatter)508とをさらに含むことができる。
特定の実施形態では、コンバイナ206は、第1のセンサ202から第1のタイミングデータ420と第1のセンサ画像データ422とを受信するように構成される。コンバイナ206はまた、第2のセンサ204から第2のタイミングデータ430と第2のセンサ画像データ432とを受信するように構成される。コンバイナ206は、クロック管理デバイス512からクロック信号526を受信するようにさらに構成される。コンバイナ206は、第1のタイミングデータ420と、第1のセンサ画像データ422と、第2のタイミングデータ430と、第2のセンサ画像データ432とを使用して同期データラインを生成し、この同期データラインは、画像信号プロセッサ208に与えられる。画像信号プロセッサ208は、同期データラインを処理して処理済みデータラインデータを作成する。処理済みデータラインデータは、ディスプレイデバイスなどの別の構成要素に与えられ得る。したがって、複数のセンサからの画像データは、ディスプレイデバイスにおける表示のために合成され、処理され、レンダリングされ得る。
特定の実施形態では、第1のタイミングデータ420は第1のピクセルクロックに関連し得、第1のセンサ画像データ422は第1のピクセルサイズに関連し得、第2のタイミングデータ430は第2のピクセルクロックに関連し得、第2のセンサ画像データ432は第2のピクセルサイズに関連し得る。コンバイナ406が、第1のタイミングデータ420と、第1のセンサ画像データ422と、第2のタイミングデータ430と、第2のセンサ画像データ432とを合成して同期データラインを生成するとき、第1の画像データの第1のラインと第2の画像データの対応するラインとが単一画像ラインに合成される。特定の実施形態では、単一画像ラインのサイズは、第1の画像データの第1のラインまたは第2の画像データの対応するラインのサイズの実質的に2倍(たとえば、第1のピクセルサイズまたは第2のピクセルサイズのサイズの2倍)であり得、合成された単一画像ラインのピクセルクロックのレートは、第1のピクセルクロックまたは第2のピクセルクロックのレートの実質的に2倍であり得る(たとえば、第1のピクセルクロック周波数または第2のピクセルクロック周波数の2倍であるクロック周波数を有し得る)。生成された同期データラインは、コンバイナタイミングデータ信号528とコンバイナ画像データ信号530とを介して画像信号プロセッサ208に送られる。
特定の実施形態では、コンバイナ206によって生成された同期データラインは、薄型出力フォーマッタ506に与えられてフォーマット済みデータを作成し、このフォーマット済みデータは、画像信号プロセッサ208に与えられるより前にトランスポートパッカーおよびフォーマッタ508に与えられる。
特定の実施形態では、薄型出力フォーマッタ506は、コンバイナタイミングデータ信号528とコンバイナ画像データ信号530とを受信してフォーマット済みデータを作成する。フォーマット済みデータは、出力フォーマッタタイミングデータ信号536と、出力フォーマッタ画像データ信号538と、出力フォーマッタ統計データ信号540と、出力フォーマッタ開始データ信号542と、出力フォーマッタ有効データ信号544とを含むことができる。特定の実施形態では、トランスポートパッカーおよびフォーマッタ508は、薄型出力フォーマッタ506からフォーマット済みデータ536〜544を受信し、トランスポートタイミングデータ信号546とトランスポート画像データ信号548とを含むトランスポートデータストリームを生成する。
特定の実施形態では、レジスタインターフェース510は、画像信号プロセッサ208に結合され、クロック管理デバイス512に結合され得る。特定の実施形態では、レジスタインターフェース510は、クロック管理デバイス512からクロック信号527を受信し得、レジスタバス572に結合され得る。クロック管理デバイス512は、第2のタイミングデータ信号430を受信し、クロック信号526を出力するように構成される。特定の実施形態では、コンバイナ206が複数のセンサからの同時データを合成しながらフレーム処理レートを維持すること可能にするために、クロック信号526は、第2のタイミングデータ信号430の周波数の実質的に2倍である。
共通に制御される同様のセンサからのデータ出力は実質的に同じ周波数および位相を有するので、データストリーム間の同期は画像データの単一画像ライン内で行われ得る。このようにして、合成データは、画像データの単一のラインへのアクセスを有する単一の画像信号プロセッサを使用して効率的に処理され得る。
図6を参照すると、第1の画像センサの出力における第1のデータストリームと第2の画像センサの出力における第2のデータストリームとが合成されて同期データラインを形成する特定の実施形態の図表示が示され、全体的に600と称される。図2の第1のセンサ202などの第1のセンサは、画像の第1の画像データに対応する第1のデータストリーム602を生成する。図2の第2のセンサ204などの第2のセンサは、画像の第2の画像データに対応する第2のデータストリーム604を生成する。第1のデータストリーム602からのデータと第2のデータストリーム604からのデータとは合成されて、データ出力データストリーム606を形成する。
特定の実施形態では、第1のデータストリーム602は、画像の第1の画像データの第1のラインに関連するデータを含み、第2のデータストリーム604は、画像の第2の画像データの対応するラインに関連するデータを含む。第1のデータストリーム602は、第1のラインインデックス値を有するラインデータ610と、第2のラインインデックス値を有するラインデータ612と、第3のラインインデックス値を有するラインデータ614と、第4のラインインデックス値を有するラインデータ616とを含む。第2のデータストリーム604は、第1のラインインデックス値を有する対応するラインデータ620と、第2のラインインデックス値を有する対応するラインデータ622と、第3のラインインデックス値を有する対応するラインデータ624と、第4のラインインデックス値を有する対応するラインデータ626とを含む、第1のデータストリームのラインデータに対応するラインデータを含む。
データ出力データストリーム606は、画像の第1の画像データの第1のラインと画像の第2の画像データの対応するラインとの合成を含む。図示のように、第1のデータストリーム602と第2のデータストリーム604とはインターリーブされて、データ出力データストリーム606を形成する。たとえば、データ出力データストリーム606は、第1のラインインデックス値を有する合成ラインデータ630と、第2のラインインデックス値を有する合成ラインデータ632と、第3のラインインデックス値を有する合成ラインデータ634とを含む。合成ラインデータ630は、ラインデータ610と対応するラインデータ620とを含む。合成ラインデータ632は、ラインデータ612と対応するラインデータ622とを含む。合成ラインデータ634は、ラインデータ614と対応するラインデータ624とを含む。各合成ライン630〜634は、図2のラインバッファ216などのラインバッファ内で対応するラインを合成することによって生成され得る。
特定の実施形態では、第1のデータストリーム602からのデータは、第2のデータストリーム604からのデータと合成されて、フレーム660を形成する複数の同期データラインを生成する。フレーム660は、複数の行642を含むことができ、各行は、ラインインデックス値に対応し、ラインインデックス値を有する第1の画像データのラインとラインインデックス値を有する第2の画像データの対応するラインとを含む同期データラインを記憶する。たとえば、フレーム660の第1の行は、合成ラインデータ630を含み、フレーム660の第2の行は、合成ラインデータ632を含み、フレーム660の第3の行は、合成ラインデータ634を含むなどがあり得る。各同期画像データラインは、フレーム660中のデータを整合するようにフレーム660の一部を形成する。
フレーム660は、画像センサからの画像データの読取り順序に一致する行642の順序で示される(すなわち、画像センサのトップライン(ラインインデックス1)からの合成データがフレーム660の上部ラインにあり、画像センサの次のライン(ラインインデックス2)からの合成データがフレーム660の次のラインにある)。代替的に、他の実施形態では、フレーム660の行は、画像データの読取り順序に一致しないことがあり、代わりに画像データの任意の他の順序に対応することがある。たとえば、フレーム660のトップ行がラインインデックス2に対応し得、フレーム660の次の行がラインインデックス1に対応し得る。フレーム660は、行642の各々が画像データのラインインデックス値のいずれかに対応するようにプログラムされ得るようにプログラム可能であり得る。
特定の実施形態では、第1の画像データの第1のライン610は、第1のピクセルサイズ(たとえば、ライン当たりのピクセル数)と第1のピクセルクロックとに関連し、第2の画像データの対応するライン620は、第2のピクセルサイズと第2のピクセルクロックとに関連する。データストリーム602を生成する第1のセンサとデータストリーム604を生成する第2のセンサとは、共通クロック信号と共通リセット信号とを受信するように構成される。第1の画像データの第1のライン610と第2の画像データの対応するライン620とが単一画像ラインに合成されると、単一画像ラインのサイズは、第1の画像データの第1のライン610または第2の画像データの対応するライン620のサイズの実質的に2倍になり、合成された単一画像ラインのピクセルクロック信号(たとえば、第3のピクセルクロック信号)は、第1のピクセルクロック信号または第2のピクセルクロック信号のクロックレートの実質的に2倍であるクロックレートを有する。たとえば、合成ラインデータ630は、ラインデータ610の画像サイズの実質的に2倍である画像サイズ、または対応するラインデータ620の画像サイズの実質的に2倍である画像サイズを有し得る。同様に、合成ラインデータ630のピクセルクロック周波数が、第1のピクセルクロックまたは第2のピクセルクロックの周波数の実質的に2倍である周波数を有する第3のピクセルクロック信号に関連するように、合成ラインデータ630のピクセルクロック周波数は、ラインデータ610に関連する第1のピクセルクロック信号の周波数の実質的に2倍である周波数、または対応するラインデータ620に関連する第2のピクセルクロック信号の周波数の実質的に2倍である周波数を有し得る。
代替的に、ラインサイズが等しい、3つの画像センサからのラインデータを合成する実装形態では、同期ラインサイズは、センサラインサイズの実質的に3倍であり得、ピクセルクロックレートは、個々のセンサのピクセルクロックレートの実質的に3倍であり得る。サイズが等しくない任意の数のセンサの一般的な場合では、同期ラインサイズは、合成されたラインサイズの和以上として設定され得、ピクセルクロックレートは、出力ライン帯域幅が入力帯域幅の和以上となるように設定され得る。
フレーム660は、図2の画像信号プロセッサ208などの画像信号プロセッサにおいて処理されて、処理済みフレーム650を生成する。処理済みフレーム650は、図2のセンサ202などの第1の画像センサからの第1の画像データを含む第1のセクション652と、図2のセンサ204などの第2の画像センサからの第2の画像データを含む第2のセクション654と、ギャップセクション656とを含む。ギャップセクション656は、第1のセクション652と第2のセクション654との間に配設される非画像データを含むことができる。
特定の実施形態では、第1のセクション652は、第1の画像データのラインを含み、第2のセクション654は、第2の画像データの対応するラインを含む。特定の実施形態では、ギャップセクション656は、エッジフィルタリングのために使用され得、幅が約5ピクセルであるブラックギャップを含むことができる。さらなる一例として、ギャップセクション656は、ライン間に追加され、補間カーネルのサイズ、または画像信号プロセッサによってフレーム650に適用される最大2次元フィルタのサイズに等しいサイズを有し得る。
特定の例示的な実施形態では、自動露光、自動フォーカス、および自動ホワイトバランスのための統計は、第1のセクション652または第2のセクション654のいずれかから収集され得、そのいずれかは、それぞれのセンサのうちの1つからの全画像であり得る。したがって、両方のセンサが実質的に同じタイミング情報を受信しているので、自動露光、自動フォーカス、および自動ホワイトバランスのための統計は、最終画像の1/2(たとえば、第1のセクション652)から収集され得、両方のセンサに適用され得る。したがって、画像の画像データの1画像ライン内で同期が行われ得るように、複数のセンサからのデータ出力は実質的に同じ周波数および位相を有する。
フレーム650は、少なくとも1つの半導体ダイに統合されたメモリに記憶され得る。フレーム650は、セットトップボックス、音楽プレーヤ、ビデオプレーヤ、エンターテインメントユニット、ナビゲーションデバイス、通信デバイス、携帯情報端末(PDA)、固定ロケーションデータユニット、およびコンピュータなどの消費者用電子装置に組み込まれたメモリに記憶され得る。電子デバイスは、複数のセンサからの画像データを処理する3Dアプリケーションを含む、画像処理方法を利用し得る。
図7を参照すると、第1の画像センサの出力における第1のデータストリームと第2の画像センサの出力における第2のデータストリームとが合成されて同期データラインを形成する第2の実施形態の図表示が示され、全体的に700と称される。図2の第1の画像センサ202などの第1のセンサは、画像の第1の画像データに対応する第1のデータストリーム702を生成する。図2の第2の画像センサ204などの第2のセンサは、画像の第2の画像データに対応する第2のデータストリーム704を生成する。第1のデータストリーム702からのデータと第2のデータストリーム704からのデータとは合成されて、データ出力データストリーム706を形成する。
特定の実施形態では、第1のデータストリーム702は、画像の第1の画像データの第1のラインに関連するデータを含み、第2のデータストリーム704は、画像の第2の画像データの対応するラインに関連するデータを含む。第1のデータストリーム702は、第1のラインインデックス値を有するラインデータ710と、第2のラインインデックス値を有するラインデータ712と、第3のラインインデックス値を有するラインデータ714と、第4のラインインデックス値を有するラインデータ716とを含む。第2のデータストリーム704は、第1のラインインデックス値を有する対応するラインデータ720と、第2のラインインデックス値を有する対応するラインデータ722と、第3のラインインデックス値を有する対応するラインデータ724と、第4のラインインデックス値を有する対応するラインデータ726とを含む、第1のデータストリームのラインデータに対応するラインデータを含む。
データ出力データストリーム706は、画像の第1の画像データの第1のラインと画像の第2の画像データの対応するラインとの合成を含む。図示のように、第1のデータストリーム702と第2のデータストリーム704とはギャップセクション708を用いてインターリーブされて、データ出力データストリーム706を形成する。たとえば、データ出力データストリーム706の図示の部分は、第1のラインインデックス値を有する合成ラインデータ730と、第2のラインインデックス値を有する合成ラインデータ732と、第3のラインインデックス値を有する合成ラインデータ734とを含む。合成ラインデータ730は、対応するラインデータ720からギャップセクション708だけ分離されたラインデータ710を含む。合成ラインデータ732は、対応するラインデータ722からギャップセクション708だけ分離されたラインデータ712を含む。合成ラインデータ734は、対応するラインデータ724からギャップセクション708だけ分離されたラインデータ714を含む。各合成ライン730〜734は、図2のラインバッファ216などのラインバッファ内で対応するラインを対応するライン間のギャップセクション708と合成することによって生成され得る。
特定の実施形態では、第1のデータストリーム702からのデータは、第2のデータストリーム704からのデータと合成されて、フレーム740を形成する複数の同期データラインを生成する。フレーム740は、複数の行742を含むことができ、各行は、ラインインデックス値に対応し、ラインインデックス値を有する第1の画像データのラインを記憶し、ラインインデックス値を有する第2の画像データの対応するラインを記憶する。たとえば、フレーム740中のデータが整合されるように、フレーム740の第1の行は、合成ラインデータ730を含み、フレーム740の第2の行は、合成ラインデータ732を含み、フレーム740の第3の行は、合成ラインデータ734を含むなどがあり得る。
特定の実施形態では、第1の画像データの第1のライン710は、第1のピクセルサイズ(たとえば、ライン当たりのピクセル数)と第1のピクセルクロックとに関連し、第2の画像データの対応するライン720は、第2のピクセルサイズと第2のピクセルクロックとに関連する。データストリーム702を生成する第1のセンサとデータストリーム704を生成する第2のセンサとは、共通クロック信号と共通リセット信号とを受信するように構成される。第1の画像データの第1のライン710と第2の画像データの対応するライン720とが単一画像ラインに合成されると、単一画像ラインのサイズは、第1の画像データの第1のライン710または第2の画像データの対応するライン720のサイズの約2倍になる。さらに、合成された単一画像ラインのピクセルクロック信号(たとえば、第3のピクセルクロック信号)は、第1のピクセルクロック信号または第2のピクセルクロック信号のクロックレートの約2倍であるクロックレートを有する。たとえば、合成ラインデータ730は、ラインデータ710の画像サイズの約2倍である画像サイズ、または対応するラインデータ720の画像サイズの約2倍である画像サイズを有し得る。同様に、合成ラインデータ730のピクセルクロック周波数が、第1のピクセルクロックまたは第2のピクセルクロックの周波数の約2倍である周波数を有する第3のピクセルクロック信号に関連するように、合成ラインデータ730のピクセルクロック周波数は、ラインデータ710に関連する第1のピクセルクロック信号の周波数の約2倍である周波数、または対応するラインデータ720に関連する第2のピクセルクロック信号の周波数の約2倍である周波数を有し得る。
各ギャップセクション708は、非画像データを含むことができる。特定の実施形態では、ギャップセクション708によって形成されるフレーム740中の非画像データエリアは、エッジフィルタリングのために使用され得る。ギャップセクション708は、幅が約5ピクセルであるブラックギャップを含むことができる。他の実施形態では、各ギャップセクション708は、補間カーネルのサイズ、または図2の画像プロセッサ208などの画像プロセッサによってフレーム740に適用される最大2次元フィルタのサイズに等しいサイズを有する。フレーム740は、画像プロセッサによって処理されて、3D画像を生成する。
図8を参照すると、第1のセンサからの第1のデータストリームと第2のセンサからの第2のデータストリームとの間の2ライン位相差を示す位相図の第1の実施形態の図表示が示され、全体的に800と称される。図2の第1のセンサ202などの第1のセンサは、第1のセンサの第1のラインデータ802と、第1のセンサの第2のラインデータ804と、第1のセンサの第3のラインデータ806とを含む第1のデータストリームを生成する。図2の第2のセンサ204などの第2のセンサは、第2のセンサの第1のラインデータ812と、第2のセンサの第2のラインデータ814と、第2のセンサの第3のラインデータ816とを含む第2のデータストリームを生成する。第1のデータストリームからのデータと第2のデータストリームからのデータとは合成されて、合成ライン820を形成する。図8に示す特定の実施形態では、第1、第2および第3のラインデータが示されている。代替的に、任意の数のラインデータが生成され得る(たとえば、図6および図7に示す720本のライン)。
図8の特定の実施形態では、第1のデータストリームのデータと第2のデータストリームのデータとの間に2ライン位相差がある。たとえば、第1のセンサの第1のラインデータ802は、第1のライン位相中に図2のコンバイナ216などのコンバイナによって受信され得、第1のセンサの第2のラインデータ804は、第2のライン位相中に受信され得、第1のセンサの第3のラインデータ806と第2のセンサの第1のラインデータ812とは、第3のライン位相中に受信され得る。したがって、第1のセンサの第1のラインデータ802と第2のセンサの第1のラインデータ812との間に2ライン位相差がある。
合成ライン820は、画像の第1の画像データの第1のラインと画像の第2の画像データの対応するラインとの合成を含む。図示のように、第1のデータストリームと第2のデータストリームとはインターリーブされて、合成ライン820を形成する。たとえば、合成ライン820は、第1のセンサの第1のラインデータ802と第2のセンサの第1のラインデータ812とを有する合成ラインデータ822と、第1のセンサの第2のラインデータ804と第2のセンサの第2のラインデータ814とを有する合成ラインデータ824と、第1のセンサの第3のラインデータ806と第2のセンサの第3のラインデータ816とを有する合成ラインデータ826とを含む。各合成ライン822〜826は、図2のラインバッファ216などのラインバッファ内で対応するラインを合成することによって生成され得る。ラインバッファは、同期データライン(たとえば、合成ラインデータ822)が生成される前に第1の画像センサから受信される次のデータライン(たとえば、第1のセンサの第2のラインデータ804)の少なくとも一部分をバッファするように構成され得る。したがって、2ライン位相差を有する複数のセンサからのデータ出力は、画像の画像データの1画像ライン内で同期が行われ得るように合成され得る。
図9を参照すると、第1のセンサからの第1のデータストリームと第2のセンサからの第2のデータストリームとの間の1ライン位相差を示す位相図の第1の実施形態の図表示が示され、全体的に900と称される。図2の第1のセンサ202などの第1のセンサは、第1のセンサの第1のラインデータ902と、第1のセンサの第2のラインデータ904と、第1のセンサの第3のラインデータ906と、第1のセンサの第4のラインデータ908とを含む第1のデータストリームを生成する。図2の第2のセンサ204などの第2のセンサは、第2のセンサの第1のラインデータ912と、第2のセンサの第2のラインデータ914と、第2のセンサの第3のラインデータ916と、第2のセンサの第4のラインデータ918とを含む第2のデータストリームを生成する。第1のデータストリームからのデータと第2のデータストリームからのデータとは合成されて、合成ライン920を形成する。図9に示す特定の実施形態では、第1、第2、第3、および第4のラインデータが示されている。代替的に、任意の数のラインデータが生成され得る(たとえば、図6および図7に示す720本のライン)。
図9の特定の実施形態では、第1のデータストリームのデータと第2のデータストリームのデータとの間に1ライン位相差がある。たとえば、第1のセンサの第1のラインデータ902は、第1のライン位相中に図2のコンバイナ216などのコンバイナによって受信され得、第1のセンサの第2のラインデータ904と第2のセンサの第1のラインデータ912とは、第2のライン位相中に受信され得る。したがって、第1のセンサの第1のラインデータ902と第2のセンサの第1のラインデータ912との間に1ライン位相差がある。
合成ライン920は、画像の第1の画像データの第1のラインと画像の第2の画像データの対応するラインとの合成を含む。図示のように、第1のデータストリームと第2のデータストリームとはインターリーブされて、合成ライン920を形成する。たとえば、合成ライン920は、第1のセンサの第1のラインデータ902と第2のセンサの第1のラインデータ912とを有する合成ラインデータ922と、第1のセンサの第2のラインデータ904と第2のセンサの第2のラインデータ914とを有する合成ラインデータ924と、第1のセンサの第3のラインデータ906と第2のセンサの第3のラインデータ916とを有する合成ラインデータ926と、第1のセンサの第4のラインデータ908と第2のセンサの第4のラインデータ918とを有する合成ラインデータ928とを含む。各合成ライン922〜926は、図2のラインバッファ216などのラインバッファ内で対応するラインを合成することによって生成され得る。したがって、1ライン位相差を有する複数のセンサからのデータ出力は、画像の画像データの1画像ライン内で同期が行われ得るように合成され得る。
図10を参照すると、複数のセンサの各々の赤緑青(RGB)データを示し、同期データラインを示す図表示が示され、全体的に1000と称される。図10に示す実施形態では、図3の第1のセンサ202などの第1のセンサは、第1のセンサの第1のラインデータ1002と、第1のセンサの第2のラインデータ1004と、第1のセンサの第3のラインデータ1006とを含む第1のデータストリームを生成する。図3の第2のセンサ204などの第2のセンサは、第2のセンサの第1のラインデータ1012と、第2のセンサの第2のラインデータ1014と、第2のセンサの第3のラインデータ1016とを含む第2のデータストリームを生成する。図3の第Nのセンサ305などの第3のセンサは、第3のセンサの第1のラインデータ1022と、第3のセンサの第2のラインデータ1024と、第3のセンサの第3のラインデータ1026とを含む第3のデータストリームを生成する。第1のデータストリームからのデータと第2のデータストリームからのデータと第3のデータストリームからのデータとは合成されて、合成ライン1020を形成する。
例示的な一例として、ベイヤー(Bayer)フィルタに従って、第1のラインデータの各々1002、1012、1022は、赤と緑との交互のピクセル値を含み、第2のラインデータの各々1004、1014、1024は、緑と青との交互のピクセル値を含み、第3のラインデータの各々1006、1016、1026は、赤と緑との交互のピクセル値を含む。
図示のように、第1のデータストリームと第2のデータストリームと第3のデータストリームとはインターリーブされて、合成ラインデータストリーム1020を形成する。たとえば、合成ラインデータストリーム1020は、第1のセンサの第1のラインデータ1002と第2のセンサの第1のラインデータ1012と第3のセンサの第1のラインデータ1002とを有する合成ラインデータ1040と、第1のセンサの第2のラインデータ1004と第2のセンサの第2のラインデータ1014と第3のセンサの第2のラインデータ1024とを有する合成ラインデータ1050と、第1のセンサの第3のラインデータ1006と第2のセンサの第3のラインデータ1016と第3のセンサの第3のラインデータ1026とを有する合成ラインデータ1060とを含む。各合成ライン1040〜1060は、図3のラインバッファ216などのラインバッファ内で対応するラインを合成することによって生成され得る。各合成ライン1040〜1060は、それのそれぞれのセンサラインデータから読み取られた、図3の画像信号プロセッサ208などの画像信号プロセッサにおいてデモザイクされるべき未加工ピクセル(たとえば、R、G、およびB)値を含むことができる。したがって、複数のセンサからのデータ出力は、画像の画像データの1画像ライン内で同期が行われ得るように合成され得る。
図10には、ベイヤーフィルタパターンに従ってRGBデータを含むものとして未加工ピクセル値を示したが、他の実施形態では、センサからのラインデータは、ベイヤーRGBピクセル値を含まないことがある。たとえば、センサは、代わりに、例示的な、非限定的な例として、ルーマ、青色差クロマ、および赤色差クロマ(YCbCr)の値、シアン、黄、緑、およびマゼンタ(CYGM)の値、赤、緑、青、およびエメラルド(RGBE)の値、または任意の他のタイプの値を与え得る。代替的に、または追加として、センサのうちの1つまたは複数は、パンクロマティック(panchromatic)セル、光受容体(photoreceptor)のグループを介したマイクロレンズ、垂直方向の色フィルタ、または未加工画像データのラインごとの読出しが可能な任意の他のセンサ技術を実装し得る。
図11を参照すると、複数のセンサを有する装置に関連する信号タイミングを示すタイミング図の特定の実施形態が示され、全体的に1100と称される。信号は、第1のセンサのフレーム有効(FV:frame valid)信号1102およびライン有効(LV:line valid)信号1104と、第2のセンサのFV1106およびLV1108と、第3のセンサのFV1110およびLV1112とを含む。特定の実施形態では、第1のセンサ、第2のセンサ、および第3のセンサは、図3の第1のセンサ202、第2のセンサ204、および第3のセンサ305であり得る。また、合成フレーム有効信号1114が合成ライン有効/データ信号1116およびライン負荷(LL:line load)信号1118と共に示されている。
特定の実施形態では、信号1114〜1118は、コンバイナによって生成される図6のフレーム660などのフレームの1つまたは複数の同期データラインに関係するシグナリングに対応し、信号1102〜1112は、コンバイナにおいて受信されるシグナリングに対応する。図示のように、第1のラインデータ1120、第2のラインデータ1122、および第3のラインデータ1124が第1のセンサから受信され、第1のラインデータ1130、第2のラインデータ1132、および第3のラインデータ1134が第2のセンサから受信され、第1のラインデータ1140、第2のラインデータ1142、および第3のラインデータ1144が第3のセンサから受信される。
第1のラインデータ1130は、第1のラインデータ1120および第1のラインデータ1140より前に第2のセンサから受信される。第1のラインデータ1130と第2のラインデータ1120との受信間の位相差が第1の位相差1180として示されている。第1のセンサの第1のラインデータ1120は、第3のセンサの第1のラインデータ1140より前に受信され、第2の位相差1182として示されている。センサの各々からのラインデータは、対応するフレーム有効信号の立ち上りエッジの後に続き得、画像データラインを介して受信したデータが各特定のセンサからの有効ラインデータであることを示す。図示のように、合成フレーム有効ライン1114は、たとえば、図2のコンバイナ206において第1のラインデータの各々1120、1130、および1140が受信される後まで低いままであり、非有効データであることを示す。第1のラインの各々1120、1130、および1140が受信された後、合成フレーム有効信号1114は上昇して、有効データライン上の有効信号1116を示す。第1の同期データライン1150は、有効信号がLLライン1118上でアサートされるのと同時に生成される。第1の同期ラインデータ1150が生成された後、合成フレーム有効信号1114は有効状態のままであるが、LL信号1118は非有効状態に戻り、その後、第2の同期データライン1160が生成されると、LL信号1118は有効状態に戻り、続いて第3の同期データライン1170が生成される。
図12を参照すると、第1のセンサからの第1のデータストリームと第2のセンサからの第2のデータストリームと第3のセンサからの第3のデータストリームとの間の3ライン位相差を示す位相図の第1の実施形態の図表示が示され、全体的に1200と称される。図3の第1のセンサ202などの第1のセンサは、第1のセンサの第1のラインデータ1202と、第1のセンサの第2のラインデータ1204と、第1のセンサの第3のラインデータ1206と、第1のセンサの第4のラインデータ1208とを含む第1のデータストリームを生成する。図3の第2のセンサ204などの第2のセンサは、第2のセンサの第1のラインデータ1212と、第2のセンサの第2のラインデータ1214と、第2のセンサの第3のラインデータ1216と、第2のセンサの第4のラインデータ1218とを含む第2のデータストリームを生成する。図3の第Nのセンサ305などの第3のセンサは、第3のセンサの第1のラインデータ1222と、第3のセンサの第2のラインデータ1224と、第3のセンサの第3のラインデータ1226と、第3のセンサの第4のラインデータ1228とを含む第3のデータストリームを生成する。第1のデータストリームからのデータと第2のデータストリームからのデータと第3のデータストリームからのデータとは合成されて、合成ライン1220を形成する。図12に示す特定の実施形態では、第1、第2、第3、および第4のラインデータが示されている。代替的に、任意の数のラインデータが生成され得る(たとえば、図6および図7に示す720本のライン)。
特定の実施形態では、第1のデータストリームのデータと第2のデータストリームのデータと第3のデータストリームからのデータとの間に3ライン位相差がある。たとえば、第3のセンサの第1のラインデータ1222は、第1のライン位相中に図2のコンバイナ216などのコンバイナによって受信され得、第1のセンサの第1のラインデータ1202と第3のセンサの第2のラインデータ1224とは、第2のライン位相中に受信され得、第1のセンサの第2のラインデータ1204と第3のセンサの第3のラインデータ1226とは、第3のライン位相中に受信され得、第1のセンサの第3のラインデータ1206と第2のセンサの第1のラインデータ1212と第3のセンサの第4のラインデータ1228とは、第4のライン位相中に受信され得る。したがって、第1のセンサの第1のラインデータ1202と第2のセンサの第1のラインデータ1212と第3のセンサの第1のラインデータ1222との間に3ライン位相差がある。
合成ライン1220は、画像の第1の画像データの第1のラインと画像の第2の画像データと第3の画像データとの対応するラインとの合成を含む。図示のように、第1のデータストリームと第2のデータストリームと第3のデータストリームとはインターリーブされて、合成ライン1220を形成する。たとえば、合成ライン1220は、第1のセンサの第1のラインデータ1202と第2のセンサの第1のラインデータ1212と第3のセンサの第1のラインデータ1222とを有する合成ラインデータ1232と、第1のセンサの第2のラインデータ1204と第2のセンサの第2のラインデータ1214と第3のセンサの第2のラインデータ1224とを有する合成ラインデータ1234と、第1のセンサの第3のラインデータ1206と第2のセンサの第3のラインデータ1216と第3のセンサの第3のラインデータ1226とを有する合成ラインデータ1236とを含む。各合成ライン1232〜1236は、図3のラインバッファ216などのラインバッファ内で対応するラインを合成することによって生成され得る。したがって、3ライン位相差を有する複数のセンサからのデータ出力は、画像の画像データの1画像ライン内で同期が行われ得るように合成され得る。
図13を参照すると、複数のセンサからのデータを合成して3Dデータを生成する画像処理システムの特定の例示的な実施形態が示され、全体的に1300と称される。画像処理システム1300は、第1の画像センサ1302と、第2のセンサ1304とを含む。画像処理システム1300は、コンバイナ1306と画像プロセッサ1308とをさらに含む。画像プロセッサ1308は、ディスプレイデバイス1310に結合される。コンバイナ1306は、少なくとも1つのラインバッファ1312を含む。画像処理システム1300は、少なくとも1つの半導体ダイに統合され得る。
第1の画像センサ1302は、第1の画像データストリーム1314として示されている第1のデータストリームを生成するように構成され、第2の画像センサ1304は、第2の画像データストリーム1316として示されている第2のデータストリームを生成するように構成される。特定の実施形態では、第1の画像データストリーム1314は、第2の画像データストリーム1316と非同期であり得る。第1の画像センサ1302および第2の画像センサ1304は、互いに独立し、プロセッサ(たとえば、コンバイナ1306または画像プロセッサ1308)から共通制御信号を受信して、近接して整合されるデータストリーム1314、1316を生成し得る実質的に同様の画像センサであり得る。たとえば、画像データストリーム1314、1316は、周波数および位相など、実質的に同じタイミング特性を有し得る。共通制御信号は、図2の信号シンクロナイザ230を介してなどプロセッサによって生成され得るので、画像センサ1302、1304の各々は、単一のプロセッサに直接応答し、単一のプロセッサによって制御され得る。2つの画像センサ1302、1304について示したが、3つ以上の画像センサが画像処理システム1300とともに使用され得ることを理解されたい。
コンバイナ1306は、第1の画像データストリーム1314と第2の画像データストリーム1316とに応答する。コンバイナ1306は、ラインバッファ1312内で第1の画像データストリーム1314からのデータと第2の画像データストリーム1316からのデータとを合成するように構成される。特定の実施形態では、ラインバッファ1312は、第1の画像センサ1302からの第1のデータと第2の画像センサ1304からの第2のデータとを整合させるように構成される。特定の実施形態では、コンバイナ1306は、ラインバッファ1312内に記憶されたデータに応答し、画像プロセッサ1308にフレームデータ1318を与える。特定の実施形態では、フレームデータ1318は画像データの複数の行を含むことができ、各行は、図3に関して説明したような、各センサ1302、1304からの対応する行の合成である。
画像プロセッサ1308は、フレームデータ1318を処理し、処理済みフレームデータ1320をディスプレイデバイス1310に出力するように構成される。処理済みフレームデータ1320は、3D画像フォーマットまたは3Dビデオフォーマットを有し得る。
ディスプレイデバイス1310は、処理済みフレームデータ1320を受信することに応答して画像データをレンダリングし、表示する。したがって、複数の画像センサからの画像データは、ディスプレイデバイス1310における表示のために合成され、処理され、次いでレンダリングされ得る。特定の実施形態では、ディスプレイデバイス1310は、画像プロセッサ1308に直接応答しない画像プロセッサ1308から分離され得る。たとえば、ディスプレイデバイス1310は、画像プロセッサ1308とは別個のデバイスであり得る。
共通に制御される同様の画像センサ1302、1304から受信されるデータは実質的に同じ周波数および位相を有し得るので、データストリーム1314、1316間の同期は画像データの単一画像ライン内で行われ得る。特定の実施形態では、ラインバッファ1312は、最悪の場合のミスアラインメントのために寸法決定され得る(たとえば、同期ミスアラインメントが3本のラインであった場合、ラインバッファ1312は、少なくとも6本のラインを記憶するようにサイズ決定される)。その結果、合成データは、単一の画像プロセッサ1308を使用して効率的に処理され得る。したがって、複数プロセッサシステム(たとえば、各センサに割り当てられたプロセッサ)と比較して、全体的な画像システムのコストおよび複雑さが低減され得る。
実施形態は、3D/立体画像および/またはビデオデータを与えるように構成され得る。たとえば、1つのそのような実施形態では、第1の画像センサ1302および第2の画像センサ1304は、左/右(立体)画像を与えるように隣り合わせに配置され得る。コンバイナ1306によって与えられる信号は、画像プロセッサ1308によって受信され、画像プロセッサ1308によって処理されて3D画像を生成し得る。ユーザコマンドにより、画像プロセッサ1308がただ1つのセンサ(すなわち、第1の画像センサ1302または第2の画像センサ1304)からデータを受信し、処理して3D画像を生成する代わりに2次元(2D)画像を生成することが可能になる。
画像プロセッサ1308など、単一カメラのための入力を有する画像プロセッサは、コンバイナ1306によって与えられる、2つのカメラからの合成データを使用することによって3D処理のために使用され得るデータを処理することが可能である。画像プロセッサ1308は、コンバイナ1306から、またはコンバイナ1306からの画像データを記憶するメモリから画像データを受信し得る。1つのそのような実施形態では、画像プロセッサ1308は、画像プロセッサ1308による後続の処理が画像プロセッサ1308からの処理済みデータに基づいて3D立体画像/ビデオストリームを与えるように、2D画像/ビデオデータとして受信した画像データを処理する。代替的に、画像プロセッサ1308は、受信した画像データに基づいて3D立体画像/ビデオストリームを直接与えるように構成され得る。一実施形態では、3Dキャプチャシステムは、第1の集積回路として実装されるコンバイナ1306と、第2の集積回路として実装される画像プロセッサ1308とを備える。第1の集積回路および第2の集積回路は、たとえば、シリアルバス、パラレルバス、またはI2Cバスのうちの1つまたは複数によって接続され得る。
画像データストリーム1314、1316を合成してフレームデータ1318を生成することによって、画像プロセッサ1308が単一カメラ入力を有するとしても、画像プロセッサ1308がマルチカメラ3D処理のためのフォーマッティングを実行することが可能になる。その結果、システム1300は、各カメラのために別個のプロセッサを使用するシステム、または複数カメラ入力を有するプロセッサを使用するシステムと比較して、低コストで実装され得る。
図14を参照すると、複数の画像センサからのデータを合成する画像処理システムを有するモバイルデバイスの様々な実施形態を示すブロック図が示され、全体的に1400と称される。1402に示す特定の実施形態では、モバイルデバイスは、2つの隣接するカメラのアレイを有する画像処理システムを含む。1404に示す特定の実施形態では、モバイルデバイスは、インライン構成に配列された3つのカメラのアレイを有する画像処理システムを含む。代替的に、任意の数のカメラはインライン構成に配列され得る。1406に示す特定の実施形態では、モバイルデバイスは、カメラの3×3アレイを有する画像処理システムを含む。1408に示す特定の実施形態では、モバイルデバイスは、カメラの5×5アレイを有する画像処理システムを含む。代替的に、任意の数のカメラは、2次元アレイに配列され得る。
図15を参照すると、複数のカメラまたは画像センサによってキャプチャされた画像のアレイの一例が示され、全体的に1500と称される。図15に示すように、1つのカメラによってキャプチャされた画像は、他の近隣カメラによってキャプチャされた画像と重複し得る。画像重複は、カメラの各々によってキャプチャされた画像を単一の画像に合成する際に有用であり得る。図15に示す特定の実施形態では、アレイ1500は、カメラまたは画像センサの4×4アレイに対応する。代替的に、任意の数のカメラは、2次元アレイ(たとえば、図18および図19に示す5×5アレイ)に配列され得る。
各カメラは、アレイ1500の単一のカメラ画像をキャプチャする。図15に示す実施形態では、アレイ1500は4×4アレイである。したがって、アレイ1500は、第1の行1502と第2の行1504と第3の行1506と第4の行1508とを含む。さらに、アレイ1500は、第1の列1510と第2の列1512と第3の列1514と第4の列1516とを含む。例示的な例として、単一カメラ画像1518は、第1の行1502と第4の列1516とに対応するカメラによってキャプチャされ得る。単一カメラ画像1518は、近隣セルの他のカメラによってキャプチャされたカメラ画像と重複し得る。第1の行1502と第4の列1516とに対応するカメラの場合、近隣セルのカメラは、第1の行1502と第3の列1514とに対応するカメラ、第2の行1504と第3の列1514とに対応するカメラ、または第2の行1504と第4の列1516とに対応するカメラを含むことができる。たとえば、単一カメラ画像重複1520は、第1の行1502と第4の列1516とに対応するカメラによってキャプチャされた単一カメラ画像1508に関連し得る。図15は、行1502〜1508の各々の各カメラと列1510〜1516の各々の各カメラとの絶対アラインメントの理論的事例を示す。したがって、近隣行(たとえば、第2の行1504)に対応するカメラによってキャプチャされた画像との画像重複は、近隣列(たとえば、第3の列1514)に対応するカメラによってキャプチャされた画像との画像重複と同じであり得る。
個々の画像は、特定の水平解像度(「H−res」)でキャプチャされ得る。例示のために、水平解像度1522は、第1の行1502と第4の列1516とに対応するカメラによってキャプチャされた単一カメラ画像1518に関連し得る。図15に、各カメラが同じ水平解像度1522を有する場合の画像重複の理論的事例を示す。したがって、全体的な水平解像度1524(すなわち、行1502〜1508の各々中のピクセル数)は、個々のカメラの水平解像度1522と行中のセルの数(「n」)との組合せに基づいて計算され得る。図15の4×4アレイ1500の場合、各行に4つのセル(すなわち、列1510〜1516の各々に関連するセル)がある。全体的な水平解像度1524は、画像重複を考慮し得る。たとえば、全体的な水平解像度1524は、H_res*n−overlap*(n−2)として計算され得、overlapは、隣接する画像の重複ピクセルの数を示す。全体的な垂直解像度を判断するために同様の計算が実行され得る。
図15に、各カメラの同じ画像重複との絶対アラインメントの理論的事例を示す。個々のカメラによってキャプチャされた画像間の画像重複によって、個々の画像の各々を単一画像に「縫い合わせる」ことが可能になる。
図16を参照すると、複数のカメラまたは画像センサによってキャプチャされた画像のアレイの一例が示され、全体的に1600と称される。図16に示すように、1つのカメラによってキャプチャされた画像は、他の近隣カメラによってキャプチャされた画像と重複し得る。画像重複は、カメラの各々によってキャプチャされた画像を単一の画像に合成する際に有用であり得る。図16に示す特定の実施形態では、アレイ1600は、カメラまたは画像センサの4×4アレイに対応する。代替的に、任意の数のカメラは、2次元アレイに配列され得る。図16に、機械制約のために(図15に示した)一行または一列に並んだカメラの絶対アラインメントを達成することが実現可能でないことがあることを示す。
アレイ1600の各画像は、それ自体の回転1602、シフト1604、傾き(図示せず)を有し得る。1つまたは複数の配置許容差1606は、各画像に関連し得る。配置許容差1606は、回転許容差、シフト許容差、傾き許容差、またはそれらの組合せを含むことができる。画像重複は、カメラの各々によってキャプチャされた画像を単一の画像に合成する際に有用であり得る。図16に、画像を合成するのに使用される画像重複が、デバイスを構築することに関連する機械制約から生じる、各画像の回転1602、シフト1604、および傾きを考慮し得ることを示す。デバイスが構築されると、画像重複は既知となり、不変となり得る。したがって、画像重複は、定量化され得、後の段階で補正され得る。
図17を参照すると、カメラのアレイとこのアレイに関連する電気接続との特定の実施形態が示され、全体的に1700と称される。図17に、アレイ1700の各カメラが第1のタイプのインターフェース(すなわち、データインターフェース1702)と第2のタイプのインターフェース(すなわち、制御インターフェース1704)とを有することを示す。図17に示す実施形態では、アレイ1700はカメラの3×3アレイを含む。代替的に、アレイ1700は、4×4アレイに配列されたカメラ(たとえば、図15および図16のアレイ1500、1600)または2次元アレイに配列された任意の他の数のカメラを含むことができる。
データインターフェース1702は、シリアルデータバス(たとえば、モバイル業界プロセッサインターフェース(Mobile Industry Processor Interface)または標準モバイルイメージングアーキテクチャインターフェース(Standard Mobile Imaging Architecture interface))を含むことができる。図17のデータインターフェース1702は、アレイ1700の第1の行1706と、アレイ1700の第2の行1708と、アレイ1700の第3の行1710とに関連する。並列に処理されるべき、行1706〜1710の各々中のカメラからのデータを収集するために、データインターフェース1702に関連するラインが使用され得る。例示的な例として、最大5メガピクセル(mpix)の解像度および10フレーム毎秒の場合、4本のワイヤが必要とされ得る(たとえば、差分データおよびクロック)。
図17の例示的な3×3アレイ1700では、行1706〜1710の各々は、アレイ1700の第1の列1712中のカメラと、アレイ1700の第2の列1714中のカメラと、アレイ1700の第3の列1716中のカメラとを含む。したがって、並列に処理されるべき9つのカメラからのデータを収集するために、データインターフェース1702が使用され得る。
制御インターフェース1704は、アレイ1700中のすべてのカメラを同期させるために使用されるラインを含むことができる。たとえば、制御インターフェースラインは、クロック、リセット、およびI2C通信に関連し得る。図17の例示的な3×3アレイ1700では、アレイ1700の9つのカメラを同期させるために制御インターフェース1704が使用され得る。
図18を参照すると、カメラアレイ処理システムの特定の実施形態が示され、全体的に1800と称される。アレイ1802中のすべてのカメラは、得られた画像データが最終画像に合成される前に、共通制御信号に応答し、整合され、処理され得る。図18に示す実施形態では、アレイ1802はカメラの5×5アレイを含む。代替的に、アレイ1802は、2次元アレイ(たとえば、図17の3×3アレイ1700)に配列された任意の他の数のカメラを含むことができる。
アレイ1802中のすべてのカメラは、単一のISPパイプラインを使用する同時画像センササポートの方法を使用して同期され得る。さらに、カメラの各行は、アラインメント方法を使用して整合され得る。すなわち、画像の1つの行は、収集され、同じ順序で整合され、処理のために単一のラインとしてn*lineのサイズで送られ得、nは、行中のカメラの数であり、lineは、1つのカメラの水平サイズ(すなわち、図15で説明した「H_res」)である。図18に示す5×5アレイ1802は、第1の行1804と第2の行1806と第3の行1808と第4の行1810と第5の行1812とを含む。さらに、5×5アレイ1802は、第1の列1814と第2の列1816と第3の列1818と第4の列1820と第5の列1822とを含む。行1804〜1812の各々は、VFE構成要素において色について並列に処理され得、行1804〜1812の各々は、行中の各個の画像を整合させ、修正するためにグラフィックスプロセッサまたはグラフィックス処理ユニット(GPU)構成要素において処理され得る。修正および整合の後に、行1804〜1812のすべてを一緒に合成するためにGPU処理が実行され得、最終画像を生じる。
第1の行1804は、第1のアラインメントブロック1824に関連し得、第2の行1806は、第2のアラインメントブロック1826に関連し得、第3の行1808は、第3のアラインメントブロック1828に関連し得、第4の行1810は、第4のアラインメントブロック1830に関連し得、第5の行1812は、第5のアラインメントブロック1832に関連し得る。例示のために、第1のアラインメントブロック1824は、第1の行1804中の各カメラ(すなわち、アレイ1802の5つの列1814〜1822中の5つのカメラ)から画像データラインを収集するように適合され得る。第1のアラインメントブロック1824は、画像データラインを同じ順序で整合させ、処理するための画像データラインを単一のラインとして送るように適合され得る。第1のアラインメントブロック1824は、図2、図3、および図5の206のコンバイナに関して説明したような色について処理されるように、第1のVFE構成要素1834に単一のラインとして処理のために画像データラインを送るように適合され得る。単一のラインのサイズは、カメラの数(すなわち、5つのカメラ)と第1の行1804中の各カメラの水平サイズ(すなわち、図15で説明した「H_res」)とに基づいて判断され得る。
第2のアラインメントブロック1826は、第2の行1806中の各カメラから画像を収集し、画像を同じ順序で整合させ、処理するための画像を第2のVFE構成要素1836に単一のラインとして送るように適合され得る。第3のアラインメントブロック1828は、第3の行1808中の各カメラから画像データラインを収集し、画像データラインを同じ順序で整合させ、処理するための画像データラインを第3のVFE構成要素1838に単一のラインとして送るように適合され得る。第4のアラインメントブロック1830は、第4の行1810中の各カメラから画像データラインを収集し、画像データラインを同じ順序で整合させ、処理するための画像データラインを第4のVFE構成要素1840に単一のラインとして送るように適合され得る。第5のアラインメントブロック1832は、第5の行1812中の各カメラから画像データラインを収集し、画像データラインを同じ順序で整合させ、処理するための画像データラインを第5のVFE構成要素1842に単一のラインとして送るように適合され得る。
制御同期ブロック1844は、センサシンクロナイザ230と同様の方法でアレイ1802のカメラの各々(すなわち、図18の例示的な5×5アレイ1802の場合25個のカメラ)を同期させるために使用され得る。特定の実施形態では、制御同期ブロック1834は、図17に示す制御インターフェース1704を実装し得る。制御同期ブロック1844は、アレイ1802のカメラの各々とVFE構成要素1834〜1842の各々とに通信可能に結合され得る。アレイ1802中のすべてのカメラの同期は、高解像度でのローリングシャッター(rolling shutter)の使用を可能にし得る。すべてのカメラが同時に読み出され得るので、ローリングシャッター効果が(アレイのサイズとともに)減少され得る。たとえば、図18の5×5アレイ1802では、25個のカメラの同期は、相補型金属酸化膜半導体(CMOS)カメラに関連するローリングシャッター効果を減少させ得る。
第1のVFE構成要素1834は、第1の行1804中の各個の画像(すなわち、5列1814〜1822中のカメラによってキャプチャされた5つの画像)を整合させ、修正するために第1のGPU構成要素1846に通信可能に結合され得る。第2のVFE構成要素1836は、第2の行1806中の各個の画像を整合させ、修正するために第2のGPU構成要素1848に通信可能に結合され得る。第3のVFE構成要素1838は、第3の行1808中の各個の画像を整合させ、修正するために第3のGPU構成要素1850に通信可能に結合され得る。第4のVFE構成要素1840は、第4の行1810中の各個の画像を整合させ、修正するために第4のGPU構成要素1852に通信可能に結合され得る。第5のVFE構成要素1842は、第5の行1812中の各個の画像を整合させ、修正するために第5のGPU構成要素1854に通信可能に結合され得る。GPU構成要素1846〜1854の各々は、行1804〜1812のすべてを一緒に合成するように適合されたGPU処理構成要素1856に通信可能に結合され得、最終画像を生じる。
図18に示す実施形態では、アラインメントブロック1824〜1832の各々は、それ自体のVFE構成要素とそれ自体のGPU修正およびアラインメント構成要素とに関連する。したがって、図18に、行1804〜1812の各々が、別個のVFE構成要素を使用して色について並列に処理され得、行1804〜1812の各々が、特定の行中の各個の画像を整合させ、修正するために別個のGPU構成要素を使用して処理され得ることを示す。代替的に、アラインメントブロック1824〜1832の各々は、単一のVFE構成要素と単一のGPU修正およびアラインメント構成要素とに関連し得る(図19参照)。
図19を参照すると、カメラアレイ処理システムの特定の実施形態が示され、全体的に1900と称される。アレイ1902中のすべてのカメラは、最終画像に合成される前に、同期され、整合され、処理され得る。図19に示す実施形態では、アレイ1902はカメラの5×5アレイを含む。代替的に、アレイ1902は、2次元アレイに配列された任意の他の数のカメラを含むことができる。図19に、アレイ1902のすべての行を処理するために、図18に示した複数のVFE構成要素と複数のGPU修正およびアラインメント構成要素ではなく、単一のVFE構成要素と単一のGPU修正およびアラインメント構成要素とが使用され得ることを示す。
図19に示す5×5アレイ1902は、第1の行1904と第2の行1906と第3の行1908と第4の行1910と第5の行1912とを含む。さらに、5×5アレイ1902は、第1の列1914と第2の列1916と第3の列1918と第4の列1920と第5の列1922とを含む。第1の行1904は、第1のアラインメントブロック1924に関連し得、第2の行1906は、第2のアラインメントブロック1926に関連し得、第3の行1908は、第3のアラインメントブロック1928に関連し得、第4の行1910は、第4のアラインメントブロック1930に関連し得、第5の行1912は、第5のアラインメントブロック1932に関連し得る。例示のために、第1のアラインメントブロック1924は、第1の行1904中の各カメラ(すなわち、アレイ1902の5つの列1914〜1922中の5つのカメラ)から画像データラインを収集するように適合され得る。
第1のアラインメントブロック1924は、画像データラインを同じ順序で整合させ、処理するための画像データラインを単一のラインとして送るように適合され得る。第2のアラインメントブロック1926は、第2の行1906中の各カメラから画像データラインを収集し、画像データラインを同じ順序で整合させ、処理するための画像データラインを単一のラインとして送るように適合され得る。第3のアラインメントブロック1928は、第3の行1908中の各カメラから画像データラインを収集し、画像データラインを同じ順序で整合させ、処理するための画像データラインを単一のラインとして送るように適合され得る。第4のアラインメントブロック1930は、第4の行1910中の各カメラから画像データラインを収集し、画像データラインを同じ順序で整合させ、処理するための画像データラインを単一のラインとして送るように適合され得る。第5のアラインメントブロック1932は、第5の行1912中の各カメラから画像データラインを収集し、画像データラインを同じ順序で整合させ、処理するための画像データラインを単一のラインとして送るように適合され得る。
図19に示す実施形態では、アラインメントブロック1924〜1932の各々は、色について処理されるように、単一のVFE構成要素1934に処理のためにそれの画像を送るように適合され得る。単一のVFE構成要素1934は、5つのアラインメントブロック1924〜1932から送られた5つのラインの各々を処理し得る。上記の通り、特定のアラインメントブロックからの単一のラインのサイズは、特定の行中のカメラの数(すなわち、5つのカメラ)と特定の行中の各カメラの水平サイズ(すなわち、図15で説明した「H_res」)とに基づいて判断され得る。したがって、図19の単一のVFE構成要素1934によって処理される複数のラインのサイズは、図18のVFE構成要素1834〜1842のうちの1つによって処理される単一のラインのサイズの5倍になり得る。
制御同期ブロック1936は、1つまたは複数の行1904〜1912中のカメラに共通制御信号を与えることなどによってアレイ1902のカメラの各々を同期させるために使用され得る。制御同期ブロック1936は、アレイ1902のカメラの各々と単一のVFE構成要素1934とに通信可能に結合され得る。アレイ1902中のすべてのカメラの同期は、高解像度でのローリングシャッターの使用を可能にし得る。すべてのカメラが同時に読み出され得るので、ローリングシャッター効果が(アレイのサイズとともに)減少され得る。たとえば、図19の5×5アレイ1902では、25個のカメラの同期は、CMOSカメラに関連するローリングシャッター効果を減少させ得る。
単一のVFE構成要素1934は、行1904〜1912の各々中の各個の画像を整合させ、修正するために単一のGPU構成要素1938に通信可能に結合され得る。したがって、図19の単一のGPU構成要素1938は、図18のGPUアラインメントおよび修正構成要素1846〜1854の各々によって5つの画像が処理されるのと比較して、25個の画像を整合させ、修正し得る。単一のGPU構成要素1938は、行1904〜1912のすべてを一緒に合成するように適合されたGPU処理構成要素1940に通信可能に結合され得、最終画像を生じる。
図20に、入射光2004を合焦させるように構成されたメインレンズ2002とアレイ2006に配列された複数のカメラとを含む高解像度デジタルカメラシステム2000を示す。高解像度画像は、アレイ2006中のカメラの各々においてキャプチャされた画像を合成することによってコンポジット(または「モザイク」)画像して生成され得る。たとえば、アレイ2006のカメラの各々は、CMOSタイプカメラまたは電荷結合デバイス(CCD)タイプカメラであり得る。メインレンズ2002は、キャプチャされたシーンを(メインレンズ2002の「焦点平面」またはアレイ2006中のカメラの「物体平面」と呼ばれる)平面2008に合焦させ得、そして、アレイ2006中の各カメラは、全画像の一部分をキャプチャし得る。アレイ2006の各カメラは、平面2008においてそのネイバーの視野に部分的に重複する視野を有する。この重複により、アレイ2006中の近隣カメラから撮影された画像を行ごとに整合し、後続の処理中に互いに「縫い合わせる」ことが可能になり得、アレイ内のカメラの(図16に関して説明したような)非理想位置およびアラインメントに対する裕度を与え得る。
コンポジット画像は、行ごとにアレイ2006のカメラからの画像データを整合させることによって生成され得る。たとえば、図20のアレイ2006は、3行をもつ3×3アレイを含む。アレイ2006の特定の行(「アレイ行」)内の各カメラは、列および行(「センサ列」および「センサ行」)に配列された光検出器を有する画像センサを含むことができる。アレイ行内のカメラは、センサ行が実質的に整合されるように配置され得る。例示のために、アレイ行中の各カメラの第1のセンサ行は、同じアレイ行中の1つおきのカメラの第1のセンサ行と実質的に整合している。
画像キャプチャ中に、画像データの第1のセンサ行は、アレイ行中の各カメラから読み取られ、(図17〜図19に関して説明したような)画像処理回路に与えられる。第1のセンサ行からの画像データは、アレイ行中の各カメラの位置に従ってマージされる。マージされた画像データは、それがより大きいカメラからの画像データの単一の行であるかのように処理される。第2、第3、および後続の画像センサ行は、読み取られ、マージされ、コンポジット画像の行として処理させるために画像処理回路に与えられる。各アレイ行は、他のアレイ行と並列に処理され得る。
図20の構成は、高解像度カメラの廉価の代替物をもたらし得る。たとえば、100メガピクセル(mpix)カメラは、メインレンズの後ろに20個の5mpixのCMOSカメラのアレイを使用して構築され得る。画像キャプチャは、各カメラが画像の一部分をキャプチャする複数のCMOSカメラを使用して実行され得るので、「ローリングシャッター」アーティファクトは、単一の100mpixのCMOSカメラが画像全体をキャプチャするのと比較して低減され得る。
図21を参照すると、マルチカメラモジュールの実装形態の特定の実施形態が示され、全体的に2100と称される。システム2100に、自動車上に取り付けられる、図1〜図5に示したような複数カメラモジュールなどの複数カメラモジュールを示す。複数カメラモジュールは、図6〜図7に関して説明したような、3次元画像またはビデオデータとしてフォーマットするための同期ラインデータフレームを生成するように構成され得る。自動車の後部部分に複数カメラモジュールを取り付けることによって、自動車をバックさせる間に内部ディスプレイ(図示せず)上で深さ知覚を自動車のオペレータに与えるために3次元ビューが取得され得る。複数カメラモジュールは、自動車に限定されずに、任意のタイプの車両に取り付けられ得ることが理解されよう。
図22を参照すると、複数のセンサからのデータを同期データラインに合成する方法の特定の例示的な実施形態の流れ図が示され、全体的に2200と称される。例示的な例として、方法2200は図2のシステム、図3のシステム、図5のシステム、またはそれらの任意の組合せによって実行され得る。
2202において、同期すべき複数の画像センサに共通制御信号を与える。たとえば、共通制御信号は、図4に示す共通制御信号404〜410など、共通クロック信号と共通リセット信号とを含むことができる。
2204において、複数の画像センサの第1の画像センサから第1のデータラインを受信する。2206において、複数の画像センサの第2の画像センサから第2のデータラインを受信する。たとえば、第1のセンサおよび第2のセンサは、図2のセンサ202、204であり得る。
2208において、第1のデータラインおよび第2のデータラインを合成して同期データラインを生成する。たとえば、方法2200は、ラインバイアスによって、ライン上で、第1の画像センサから受信した第1のデータストリームと第2の画像センサから受信した第2のデータストリームとをインターリーブすることを含むことができる。同期データラインは、図5に示す第1のセンサ画像データ422と第2のセンサ画像データ432とを合成するコンバイナ406に関して説明したように形成され得る。
同期データラインは、図6のフレーム660などのフレームの一部を形成し得る。フレームは、第1の画像センサからの第1の画像データを含む第1のセクション(たとえば、第1のセクション652)と、第2の画像センサからの第2の画像データを含む第2のセクション(たとえば、第2のセクション654)と、第1のセクションと第2のセクションとの間に配設される非画像データを含むギャップセクション(たとえば、ギャップセクション656)とを含むことができる。他の実施形態では、フレームは、第1のセクションと第2のセクションとの間にギャップセクションを含まないことがある。
第1のデータラインを受信することは、第2のデータラインを受信することが完了する前に完了し得、同期データラインは、第2のデータラインを受信することが完了した後に生成され得る。一例として、図8の合成データライン822は、第2のセンサの第1のラインデータ812が受信された後に生成される。
3つ以上の画像センサを有する実施形態では、図11に示したような、複数の画像センサの第3の画像センサから第3のデータラインが受信され得る。第3のデータラインは、第1のデータラインおよび第2のデータラインと合成されて、図11の第1の同期データライン1150などの同期データラインを生成し得る。
図23を参照すると、複数の画像センサに共通制御信号を与え、画像プロセッサの単一カメラ入力を介して画像プロセッサに同期データラインを与える方法の特定の例示的な実施形態の流れ図が示され、全体的に2300と称される。方法2300は、例示的な、非限定的な例として、図2、図3、および図5のシステムのうちの1つまたは複数において実行され得る。
2302において、複数の画像センサに共通制御信号を与える。複数の画像センサの各々は、共通制御信号に応答して画像データを生成し得る。たとえば、共通制御信号は、図2のセンサシンクロナイザ230など、複数の画像センサの各々に結合されたセンサシンクロナイザによって与えられ得る。例示のために、センサシンクロナイザは、集積回路間(I2C)制御インターフェースを介して、カメラシリアルインターフェース(CSI)仕様に準拠するインターフェースを介して、またはカメラパラレルインターフェース(CPI)仕様に準拠するインターフェースを介して複数の画像センサの各々に結合され得る。
2304において、複数の画像センサの各々から同期データ出力を受信する。複数の画像センサの第1の画像センサから第1のデータラインが受信され得、複数の画像センサの第2の画像センサから第2のデータラインが受信され得る。第1のデータラインを受信することは、第2のデータラインを受信することが完了する前に完了し得、図8中で第2のセンサの第1のラインデータ812が受信された後に生成される合成データライン822などの同期データラインは、第2のデータラインを受信することが完了した後に生成され得る。
2306において、複数の画像センサの各々からの同期データ出力を合成して同期データラインを生成する。たとえば、図2のコンバイナ206は、ラインバイアスによって、ライン上で、第1の画像センサ202から受信した第1のデータストリームと第2の画像センサ204から受信した第2のデータストリームとをインターリーブし得る。
2308において、画像プロセッサの単一カメラ入力を介して画像プロセッサに同期データラインを与える。同期データラインは、図6のフレーム660など、複数の行を有するフレームの一部を形成し得る。たとえば、フレームは、第1の画像センサからの第1の画像データを含む第1のセクションと、第2の画像センサからの第2の画像データを含む第2のセクションと、第1のセクションと第2のセクションとの間のギャップセクションとを含むことができる。
図24を参照すると、複数の画像センサに共通制御信号を与え、複数の画像センサの各々から同期データ出力を受信する方法の特定の例示的な実施形態の流れ図が示され、全体的に2400と称される。
2402において、複数の画像センサに共通制御信号を与える。複数の画像センサの各々は、共通制御信号に応答して画像データを生成する。たとえば、共通制御信号は、図2〜図5のいずれかのセンサシンクロナイザ230、図18の制御同期ブロック1844、図19の制御同期ブロック1936、またはそれらの任意の組合せなど、複数の画像センサの各々に結合されたセンサシンクロナイザによって与えられ得る。
2404において、複数の画像センサの各々から同期データ出力を受信する。同期データ出力は、第1の画像センサから受信した第1のデータラインと第2の画像センサから受信した第2のデータラインとを含むことができる。例示的な、非限定的な例として、図9の1ライン位相差、図8の2ライン位相差、または図12の3ライン位相差など、第1の画像センサから受信した各データラインと第2の画像センサからの各対応するデータラインとの間の位相オフセットは実質的に一定であり得る。
図25を参照すると、複数の画像センサにおいて共通制御信号を受信し、複数の画像センサの各々から同期データ出力を生成する方法の特定の例示的な実施形態の流れ図が示され、全体的に2500と称される。
2502において、複数の画像センサにおいて共通制御信号を受信する。複数の画像センサの各々は、共通制御信号に応答して画像データを生成する。たとえば、共通制御信号は、図2〜図5のいずれかのセンサシンクロナイザ230、図18の制御同期ブロック1844、図19の制御同期ブロック1936、またはそれらの任意の組合せなど、複数の画像センサの各々に結合されたセンサシンクロナイザから受信され得る。
2504において、複数の画像センサの各々から同期データ出力を生成する。同期データ出力は、第1の画像センサから受信した第1のデータラインと第2の画像センサから受信した第2のデータラインとを含むことができる。例示的な、非限定的な例として、図9の1ライン位相差、図8の2ライン位相差、または図12の3ライン位相差など、第1の画像センサから受信した各データラインと第2の画像センサからの各対応するデータラインとの間の位相オフセットは実質的に一定であり得る。
図26を参照すると、単一カメラのための入力を有する画像信号プロセッサにおいて複数のセンサからのデータを合成する方法の特定の例示的な実施形態の流れ図が示され、全体的に2600と称される。
2602において、単一カメラのための入力を有する画像プロセッサにおいて画像データのラインを受信する。画像データの各ラインは、第1のカメラによってキャプチャされた第1の画像からの第1のラインデータと、第2のカメラによってキャプチャされた第2の画像からの第2のラインデータとを含むことができる。例示的な、非限定的な例として、画像プロセッサは、図2〜図3または図5の画像信号プロセッサ208、図13の画像プロセッサ1308、図18のVFE1834〜1842、図19のVFE1934〜1942、あるいはそれらの任意の組合せを含むことができる。
画像データのラインは、第1のカメラと第2のカメラとに結合されたコンバイナから画像プロセッサにおいて受信され得る。第1のカメラからの第1の画像データと第2のカメラからの第2の画像データとのラインごとの読出しは、コンバイナを使用して同期されて、画像データの各ラインを生成し得る。たとえば、コンバイナは、図2〜図3または図5のコンバイナ206、図13のコンバイナ1306、図18のデータアラインメントブロック1824〜1832、図19のデータアラインメントブロック1924〜1932、あるいはそれらの任意の組合せであり得る。
2604において、第1の画像のラインデータに対応する第1のセクションを有し、第2の画像のラインデータに対応する第2のセクションを有する出力フレームを生成する。第1のセクションと第2のセクションとは、3次元(3D)画像フォーマットまたは3Dビデオフォーマットを生成するために使用されるように構成され得る。
特定の実施形態では、出力フレームは処理されて3D画像データを生成し、この3D画像データはディスプレイデバイスに送られる。別の実施形態では、出力フレームは処理されて3Dビデオデータを生成し、この3Dビデオデータは、図13のディスプレイデバイス1310などのディスプレイデバイスに送られる。例示のために、ディスプレイデバイスは、通信デバイス、カメラ、携帯情報端末、およびコンピュータのうちの少なくとも1つの構成要素であり得る。
図27を参照すると、複数のセンサからのデータをフレームに合成する方法の例示的な実施形態の流れ図が示され、全体的に2700と称される。例示的な例として、方法2700は図2のシステム、図5のシステム、またはそれらの任意の組合せによって実行され得る。
2702において、図2の第1のセンサ202などの第1の画像センサから第1のデータストリームを受信する。図2の第1の画像データストリーム212、図6の第1のデータストリーム602、または図5のタイミングデータ信号420および画像データ信号422などの第1のデータストリームは、画像の第1の画像データに対応し得る。2704において、図2の第2のセンサ204などの第2の画像センサから第2のデータストリームを受信する。図2の第2の画像データストリーム214、図6の第2のデータストリーム604、または図5のタイミング信号データ430および画像データ信号432などの第2のデータストリームは、画像の第2の画像データに対応し得る。
2706において、第1のデータストリームからのデータと第2のデータストリームからのデータとを合成する。たとえば、図2のコンバイナ206または図5のコンバイナ206などのコンバイナは、第1のデータストリームからの第1の画像データと第2のデータストリームからの第2の画像データとを合成し、得られるフレームを生成し得る。例示のために、第1のデータストリームは、第1のラインインデックス値を有するラインデータ、第2のラインインデックス値を有するラインデータなどを含む、第1の画像データの第1のラインに関連するデータを含むことができる。第2のデータストリームは、第1のラインインデックス値を有する対応するラインデータ、第2のラインインデックス値を有する対応するラインデータなどを含む、第1のデータストリームのラインデータに対応するラインデータを含むことができる。第1のラインインデックス値を有する第1のデータストリームからのラインデータと、対応する第1のラインインデックス値を有する第2のデータストリームからのラインデータとは、互いに付加されるか、または合成されて単一の画像ラインを形成し得る。プロセスは、各ラインインデックス値に対して繰り返されて、図6のフレーム660などの得られるフレームを生成し得る。特定の実施形態では、フレームは、複数の行を含むことができ、各行は、ラインインデックス値に対応し、ラインインデックス値を有する第1の画像データのラインを記憶し、ラインインデックス値を有する第2の画像データの対応するラインを記憶する。特定の実施形態では、第1の画像データの第1のラインと第2の画像データの対応するラインとが単一画像ラインに合成されると、単一画像ラインのサイズは、第1の画像データの第1のラインまたは第2の画像データの対応するラインのサイズの実質的に2倍になる。
2708において、画像信号プロセッサにおいてフレームを処理して、処理済みフレームを生成する。特定の実施形態では、画像信号プロセッサは、図2の画像信号プロセッサ208または図5の画像信号プロセッサ208であり得、処理済みフレームは、図2の処理済みフレーム240または図6の処理済みフレーム650であり得る。特定の実施形態では、処理済みフレームは、第1のセクション652など、第1の画像センサからの第1の画像データを含む第1のセクションと、第2のセクション654など、第2の画像センサからの第2の画像データを含む第2のセクションと、図6のギャップセクション656などのギャップセクションとを含むことができる。ギャップセクションは、第1のセクションと第2のセクションとの間に配設される非画像データを含むことができる。特定の実施形態では、第1のセクションは第1の画像データのラインを含むことができ、第2のセクションは第2の画像データの対応するラインを含むことができる。
2710において、ディスプレイデバイスにおいて表示されるべき処理済みフレームを出力する。特定の実施形態では、第1の画像センサおよび第2の画像センサは各々、画像信号プロセッサに直接応答し、ディスプレイデバイスは、画像信号プロセッサから分離され得る。
図28を参照すると、第1の画像センサと第2の画像センサとを同期させる方法の例示的な実施形態の流れ図が示され、全体的に2800と称される。例示的な例として、方法2800は図2のシステム200、図5のシステム600、またはそれらの任意の組合せにおいて実行され得る。
2802において、第1の画像センサから画像の第1の画像データを受信する。特定の実施形態では、第1の画像センサは、図2の第1のセンサ202であり得る。2804において、第1の画像センサから第1の画像データに関連する第1のデータストリームを受信する。特定の実施形態では、第1のデータストリームは、画像センサによって生成され得、図2の第1の画像データストリーム212、図6の第1のデータストリーム602、または図5のタイミングデータ信号420および画像データ信号422であり得る。
2806において、第2の画像センサから画像の第2の画像データを受信する。特定の実施形態では、第2の画像センサは、図2の第2のセンサ204であり得る。2808において、第2の画像センサから第2の画像データに関連する第2のデータストリームを受信する。特定の実施形態では、第2のデータストリームは、画像センサによって生成され得、図2の第2の画像データストリーム214、図6の第2のデータストリーム604、または図5のタイミングデータ信号430および画像データ信号432であり得る。
2810において、画像データ収集中に第1の画像センサと第2の画像センサとのラインごとの露光を同期させる。特定の実施形態では、同期は、図2のコンバイナ206または図5のコンバイナ206などのコンバイナを含むホストにおいて画像の画像データ収集中に行われ得る。特定の実施形態では、第1の画像センサと第2の画像センサとは互いに独立している。たとえば、図2の第1のセンサ202と第2のセンサ204とは、制御信号232を介して画像信号プロセッサ208に直接応答して、互いに独立したまま同様のタイミング特性を有する。2812において、第1のデータストリームと第2のデータストリームとをインターリーブする。特定の実施形態では、第1のデータストリームと第2のデータストリームとは、ラインバイアスによって、ライン上で、インターリーブされ得る。たとえば、第1のラインインデックス値を有する第1のデータストリームからのラインデータと、対応する第1のラインインデックス値を有する第2のデータストリームからのラインデータとは、互いに付加されてインターリーブされた単一の画像ラインを形成し得る。
したがって、合成データは、単一の画像信号プロセッサを使用して効率的に処理され得る。したがって、プロセッサが各センサに割り当てられる複数プロセッサシステムと比較して、全体的な画像システムのコストおよび複雑さが低減され得る。
図29を参照すると、複数の画像センサからのデータを合成して3D画像データを生成する方法の特定の例示的な実施形態の流れ図が示され、全体的に2900と称される。例示的な例として、方法2900は図13のシステムによって実行され得る。
本方法は、2902において、第1のカメラからの第1の画像データと第2のカメラからの第2の画像データとのラインごとの読出しを同期させて、画像データの行を生成することを含む。第1のカメラからの第1の画像データは、図1の第1の画像センサ1302からの画像データストリーム1314であり得、第2の画像データは、図13の第2の画像センサ1304からの画像データストリーム1316であり得る。
本方法は、2904において、単一カメラのための入力を有する画像プロセッサにおいて画像データの行を受信することを含む。画像データの各行は、第1のカメラによってキャプチャされた第1の画像の行からのデータと、第2のカメラによってキャプチャされた第2の画像の行からのデータとを含む。画像データの行は、図7に示すデータ出力ストリーム706であり得る。
本方法は、2906において、画像プロセッサを用いて3D画像フォーマットまたは3Dビデオフォーマットのうちの1つを有する出力を生成することを含む。出力は、第1の画像と第2の画像とに対応する。2908において、出力をディスプレイデバイス(たとえば、図13のディスプレイデバイス1310)に送る。
図30を参照すると、複数のセンサからのデータをフレームに合成する方法の例示的な実施形態の流れ図が示され、全体的に3000と称される。例示的な例として、方法3000は図13のシステムによって実行され得る。
3002において、図13の第1の画像センサ1302などの第1の画像センサから第1のデータストリームを受信する。図13の第1の画像データストリーム1314または図7の第1のデータストリーム702などの第1のデータストリームは、第1の画像の第1の画像データに対応し得る。3004において、図13の第2の画像センサ1304などの第2の画像センサから第2のデータストリームを受信する。図13の第2の画像データストリーム1316または図7の第2のデータストリーム704などの第2のデータストリームは、第2の画像の第2の画像データに対応し得る。第1の画像および第2の画像はシーンの画像であり得る。シーンの第1の画像と第2の画像とは、実質的に同時に撮影され得るか、または異なる時間に撮影され得る。第1の画像は、第2の画像とは異なるバンテージポイント(vantage point)から撮影され得、したがって、深さ情報は、シーンの第1の画像と第2の画像とから判断され得る。
3006において、第1のデータストリームからのデータと第2のデータストリームからのデータとを合成する。たとえば、図13のコンバイナ1306などのコンバイナは、第1のデータストリームからの第1の画像データと第2のデータストリームからの第2の画像データとを合成し、得られるフレームを生成し得る。例示のために、第1のデータストリームは、第1のラインインデックス値を有するラインデータ、第2のラインインデックス値を有するラインデータなどを含む、第1の画像データの第1のラインに関連するデータを含むことができる。第2のデータストリームは、第1のラインインデックス値を有する対応するラインデータ、第2のラインインデックス値を有する対応するラインデータなどを含む、第1のデータストリームのラインデータに対応するラインデータを含むことができる。第1のラインインデックス値を有する第1のデータストリームからのラインデータと、対応する第1のラインインデックス値を有する第2のデータストリームからのラインデータとは、互いに付加されるか、または合成されて単一の画像ラインを形成し得る。プロセスは、各ラインインデックス値に対して繰り返されて、図7のフレーム740などの得られるフレームを生成し得る。特定の実施形態では、フレームは、複数の行を含むことができ、各行は、ラインインデックス値に対応し、ラインインデックス値を有する第1の画像データのラインを記憶し、ラインインデックス値を有する第2の画像データの対応するラインを記憶する。特定の実施形態では、第1の画像データの第1のラインと第2の画像データの対応するラインとが単一画像ラインに合成されると、単一画像ラインのサイズは、第1の画像データの第1のラインまたは第2の画像データの対応するラインのサイズの実質的に2倍になる。
3008において、単一カメラのための入力を介して画像データの行としてフレームを受信する。特定の実施形態では、単一カメラのための入力は、図13の画像プロセッサ1308などの画像プロセッサの入力であり得る。フレームは、図7のフレーム740であり得る。
3010において、フレームから出力を生成する。出力は、3D画像フォーマットまたは3Dビデオフォーマットのうちの1つを有し得る。出力は、第1の画像と第2の画像とに対応する。出力は、図13の処理済みフレームデータ1320であり得る。3012において、ディスプレイデバイスに出力を送る。特定の実施形態では、ディスプレイデバイスは、図13のディスプレイデバイス1310であり得る。
図31を参照すると、第1の画像センサと第2の画像センサとを同期させる方法の例示的な実施形態の流れ図が示され、全体的に3100と称される。例示的な例として、方法3100は図13のシステム1300によって実行され得る。
3102において、第1の画像センサから画像の第1の画像データを受信する。特定の実施形態では、第1の画像センサは、図13の第1の画像センサ1302であり得る。3104において、第1の画像センサから第1の画像データに関連する第1のデータストリームを受信する。特定の実施形態では、第1のデータストリームは、画像センサによって生成され得、図13の第1の画像データストリーム1314または図7の第1のデータストリーム702であり得る。
3106において、第2の画像センサから画像の第2の画像データを受信する。特定の実施形態では、第2の画像センサは、図13の第2の画像センサ1304であり得る。3108において、第2の画像センサから第2の画像データに関連する第2のデータストリームを受信する。特定の実施形態では、第2のデータストリームは、画像センサによって生成され得、図13の第2の画像データストリーム1316または図7の第2のデータストリーム704であり得る。
3110において、画像データ収集中に第1の画像センサと第2の画像センサとのラインごとの露光を同期させる。特定の実施形態では、同期は、図13のコンバイナ1306などのコンバイナを含むホストにおいて画像の画像データ収集中に行われ得る。特定の実施形態では、第1の画像センサと第2の画像センサとは互いに独立している。たとえば、図13の第1の画像センサ1302と第2の画像センサ1304とは、制御信号を介して画像プロセッサ1308に直接応答して、互いに独立したまま同様のタイミング特性を有し得る。別の実施形態では、第1の画像センサ1302と第2の画像センサ1304とは、制御信号を介してコンバイナ1306に直接応答して、互いに独立したまま同様のタイミング特性を有する。3112において、第1のデータストリームと第2のデータストリームとをインターリーブする。特定の実施形態では、第1のデータストリームと第2のデータストリームとは、ラインバイアスによって、ライン上で、インターリーブされ得る。たとえば、第1のラインインデックス値を有する第1のデータストリームからのラインデータと、対応する第1のラインインデックス値を有する第2のデータストリームからのラインデータとは、互いに付加されてインターリーブされた単一の画像ラインを形成し得る。
したがって、合成データは、単一の画像プロセッサを使用して効率的に処理され得る。したがって、プロセッサが各センサに割り当てられる複数プロセッサシステムと比較して、全体的な画像システムのコストおよび複雑さが低減され得る。
図32を参照すると、画像プロセッサを用いて3D画像を生成する方法の例示的な実施形態の流れ図が示され、全体的に3200と称される。画像プロセッサは、図13の画像プロセッサ1308であり得る。方法3200は、画像プロセッサがコンバイナ(たとえば、図1のコンバイナ1306)から受信したフレームまたはメモリからのフレームを扱うとき、あるいは3D画像を表示するデバイスのズーム機能またはパン機能を使用して、表示された3D画像を変更することをユーザが選択したときに使用され得る。
3202において、画像プロセッサは、キャリブレーション行列のパラメータに基づいて第1の画像と第2の画像とを修正する。キャリブレーション行列は、第1の画像と第2の画像とをキャプチャする第1の画像センサと第2の画像センサとの相対位置の調整を行い得る。2つのカメラの相対位置は、シーンひずみと目の疲れとを最小限に抑えることを保証するように選択され得る。第1の画像センサの位置と第2の画像センサの位置とが互いに対して固定された、3D画像を撮影するデバイスの場合、キャリブレーション行列は製造プロセス中に判断され得る。キャリブレーションはデバイスのメモリに記憶され得る。第1の画像センサ、第2の画像センサ、またはその両方の位置が調整可能である、3D画像を撮影するデバイスの場合、キャリブレーション行列を判断し、メモリにキャリブレーション行列を記憶するキャリブレーションルーチンを実行するために、デバイスのプロセッサが使用され得る。キャリブレーションルーチンは、第1の画像センサと第2の画像センサとを画像センサから設定距離に位置する特定のキャリブレーションシーン上に合焦させることを必要とし得る。キャリブレーションルーチンは、画像センサの互いに対する位置調整の後に実行され得る。
3204において、画像プロセッサは第1の画像中でキーポイントを検出する。画像プロセッサは、第1の画像中で特徴的な(高周波数)ポイントを検出し得る。3206において、第1の画像および第2の画像中のローカル画像パッチ間のブロックマッチングを行って、第1の画像中で検出された各キーポイントについての視差(disparity)を計算する。誤った一致が破棄されることを保証するために、信頼性推定値(reliability estimator)がキーポイントごとに生成され得る。3208において、画像プロセッサは、計算された視差から判断される視差範囲に基づいてコンバージェンス調整を判断する。コンバージェンス調整は、シーン深さと表示ジオメトリとを考慮に入れる。
3210において、3D画像を表示することになるディスプレイデバイスが出力を生成する能力の範囲内にコンバージェンス調整があるとき、画像プロセッサは、コンバージェンス調整に基づいて第1の画像および第2の画像のうちの少なくとも1つを選択的にシフトする。3212において、ディスプレイデバイスが出力を生成する能力の範囲内にコンバージェンス調整がないとき、画像プロセッサは、シーンの大部分に一致するように視差を調整して第1の画像を使用する。3214において、画像プロセッサは、ディスプレイデバイスの1つまたは複数のディスプレイ特性に基づいて出力をクロップする。
図33は、複数の画像センサからのデータを合成する画像処理システム3300の特定の実施形態のブロック図である。画像処理システム3300は、第1のレンズ3304に結合され、第2のレンズ3306に結合され、ポータブルマルチメディアデバイスのアプリケーションプロセッサチップセット3308に結合された画像センサデバイス3302を含むことができる。画像センサデバイス3302は、コンバイナ3310と、単一カメラのための入力を受信する画像プロセッサ3312とを含むことができる。画像プロセッサ3312は、コンバイナ3310から、またはポータブルマルチメディアデバイスのアプリケーションプロセッサチップセット3308のメモリデバイス3314から単一カメラ入力を受信し得る。コンバイナ3310は、図13のシステム1300を実装することによって、図29〜図31の実施形態のいずれかに従って動作することによって、またはそれらの任意の組合せなどによって第1のデータストリームからのデータと第2のデータストリームからのデータとを合成してフレームを生成し得る。
コンバイナ3310は、第1のセンサ3316から第1のアナログデジタル変換器3318を介して画像データを受信するために結合される。コンバイナ3310は、第2のセンサ3320から第2のアナログデジタル変換器3322を介して画像データを受信するために結合される。コンバイナ3310または画像プロセッサ3312は、第1のセンサ3316と第2のセンサ3320とを制御し得、これらのセンサは、場合によっては互いに独立していることがある。特定の実施形態では、画像プロセッサ3312は、(影で示された)センサシンクロナイザ3330を介して第1のセンサ3316と第2のセンサ3320とを制御し得る。
特定の実施形態では、コンバイナ3310など、画像処理回路を含む集積回路は、フレームを生成するように構成される。画像処理回路は、第1のセンサ3316などの第1の画像センサから第1のデータストリームを受信するように、第2のセンサ3320などの第2の画像センサから第2のデータストリームを受信するように、および第1のデータストリームからのデータと第2のデータストリームからのデータとを合成してフレームを生成するように構成される。たとえば、図7の第1のデータストリーム702と第2のデータストリーム704とはコンバイナ3310によって合成されて、図7のフレーム740を形成し得る。
コンバイナ3310からの出力は、ポータブルマルチメディアデバイスのアプリケーションプロセッサチップセット3308のメモリデバイス3314に、画像プロセッサ3312に、またはその両方に送られ得る。画像プロセッサ3312は、画像処理システムによって実行される1つまたは複数の演算などの追加の画像処理演算を実行するように構成され得る。画像プロセッサ3312は、コンバイナ3310から、またはメモリデバイス3314からフレームを受信し得る。画像プロセッサ3312は、3D画像フォーマットまたは3Dビデオフォーマットを有する処理済みフレームなどの処理済み画像データを生成し得る。一実施形態では、処理済み画像データを生成するための平均時間は約20ミリ秒である。画像プロセッサ3312は、さらなる処理、送信、記憶、ディスプレイデバイス3324への表示、またはそれらの任意の組合せのためのポータブルマルチメディアデバイスのアプリケーションプロセッサチップセット3308に処理済み画像データを与え得る。
図34を参照すると、本明細書で説明する、フレーム生成器モジュールを含むワイヤレス電話などの電子デバイスの特定の例示的な実施形態のブロック図が示され、全体的に3400と称される。デバイス3400は、メモリ3432に結合されたプロセッサ3410を含む。プロセッサは、コントローラ3464を含むか、またはそれに結合される。代替的に、電子デバイスは、セットトップボックス、音楽プレーヤ、ビデオプレーヤ、エンターテインメントユニット、ナビゲーションデバイス、通信デバイス、携帯情報端末(PDA)、カメラ、固定ロケーションデータユニット、またはコンピュータであり得る。
図34はまた、プロセッサ3410とディスプレイ3428とに結合されたディスプレイコントローラ3426を示す。コーダ/デコーダ(コーデック)3434はまた、プロセッサ3410に結合され得る。スピーカー3439およびマイクロフォン3438はコーデック3434に結合され得る。カメラコントローラ3470はまた、プロセッサ3410に結合され得る。第1のカメラ3472および第2のカメラ3473はカメラコントローラ3470に結合され得る。
図34はまた、ワイヤレスインターフェース3440がプロセッサ3410とワイヤレスアンテナ3442とに結合され得ることを示す。特定の実施形態では、プロセッサ3410、ディスプレイコントローラ3426、メモリ3432、コーデック3434、ワイヤレスインターフェース3440、およびコントローラ3464は、システムインパッケージまたはシステムオンチップ3422中に含まれる。特定の実施形態では、入力デバイス3430および電源3444はオンチップシステム3422に結合される。さらに、特定の実施形態では、図34に示したように、ディスプレイ3428、入力デバイス3430、スピーカー3439、マイクロフォン3438、ワイヤレスアンテナ3442、および電源3444は、オンチップシステム3422の外部にある。しかしながら、各々は、インターフェースまたはコントローラなど、オンチップシステム3422の構成要素に結合され得る。
特定の実施形態では、プロセッサ3410は、メモリ3432に記憶されたプログラム命令3482など、プロセッサ可読媒体からプロセッサ可読プログラム命令を実行する。たとえば、メモリ3432は、プロセッサ3410によって読取り可能であり得、命令3482は、図22の方法2200を実行するためにプロセッサ3410によって実行可能である動作命令であり得る。たとえば、命令3482は、カメラ3473などの第1の画像センサから第1のデータストリームを受信するために、カメラ3472などの第2の画像センサから第2のデータストリームを受信するために、および第1のデータストリームからのデータと第2のデータストリームからのデータとを合成してフレームを生成するためにプロセッサ3410によって実行可能である命令を含むことができる。たとえば、第1の画像センサは図2の第1のセンサ202であり得、第2の画像センサは図2の第2のセンサ204であり得る。命令3482は、プロセッサ3410において、または画像信号プロセッサ(図示せず)においてフレームを処理して処理済みフレームを生成するためにプロセッサ3410によって実行可能である命令をさらに含むことができる。命令3482は、ディスプレイデバイス3428において表示されるべきであるか、または画像データ3480としてメモリ3432に記憶されるべき処理済みフレームを出力するためにプロセッサ3410によって実行可能である命令をさらに含むことができる。
図35を参照すると、モバイルフォンなどの電子デバイスの特定の例示的な実施形態のブロック図が示され、全体的に3500と称される。デバイス3500は、メモリ3504に結合されたプロセッサ3502を含む。プロセッサ3502は、画像プロセッサ3506を含むか、またはそれに結合される。画像プロセッサ3506は、単一カメラ入力を受信し得、3Dデータ3590を出力し得る。3Dデータ3590は、3D画像フォーマットまたは3Dビデオフォーマットであり得る。代替的に、電子デバイス3500は、セットトップボックス、音楽プレーヤ、ビデオプレーヤ、エンターテインメントユニット、ナビゲーションデバイス、通信デバイス、携帯情報端末(PDA)、カメラ、固定ロケーションデータユニット、コンピュータ、またはそれらの組合せであり得る。
図35はまた、プロセッサ3502とディスプレイ3510とに結合されたディスプレイコントローラ3508を示す。コーダ/デコーダ(コーデック)3512はまた、プロセッサ3502に結合され得る。スピーカー3514およびマイクロフォン3516はコーデック3512に結合され得る。カメラコントローラ3518はまた、プロセッサ3502に結合され得る。カメラコントローラ3518はコンバイナ3520を含むことができる。コンバイナ3520は、画像プロセッサ3506に画像データを与え得る。例示的な例として、コンバイナ3520は図13のコンバイナ1306、または図7に関して説明したような複数のカメラからのデータを合成するように構成された他のハードウェア回路またはプロセッサであり得る。第1のカメラ3522および第2のカメラ3524はカメラコントローラ3518に結合され得る。
図35はまた、ワイヤレスインターフェース3526がプロセッサ3502とワイヤレスアンテナ3528とに結合され得ることを示す。特定の実施形態では、プロセッサ3502、ディスプレイコントローラ3508、メモリ3504、コーデック3512、カメラコントローラ3518、およびワイヤレスインターフェース3526は、システムインパッケージまたはシステムオンチップ3530中に含まれる。特定の実施形態では、入力デバイス3532および電源3534はオンチップシステム3530に結合される。さらに、特定の実施形態では、図35に示したように、ディスプレイ3510、入力デバイス3532、スピーカー3514、マイクロフォン3516、ワイヤレスアンテナ3528、および電源3534は、オンチップシステム3530の外部にある。しかしながら、各々は、インターフェースまたはコントローラなど、オンチップシステム3530の構成要素に結合され得る。
特定の実施形態では、プロセッサ3502は、メモリ3504に記憶されたプログラム命令3536など、プロセッサ可読媒体からプロセッサ可読プログラム命令を実行する。たとえば、メモリ3504は、プロセッサ3502によって読取り可能であり得、命令3536は、図25の方法2500を実行するためにプロセッサ3502によって実行可能である動作命令であり得る。たとえば、命令3536は、カメラ3522などの第1の画像センサから第1のデータストリームを受信するために、カメラ3524などの第2の画像センサから第2のデータストリームを受信するために、およびカメラコントローラ3518のコンバイナ3520を使用して第1のデータストリームからのデータと第2のデータストリームからのデータとを合成してフレームを生成するためにプロセッサ3502によって実行可能である命令を含むことができる。たとえば、第1の画像センサは図13の第1の画像センサ1302であり得、第2の画像センサは図13の第2の画像センサ1304であり得る。命令3536は、画像プロセッサ3506においてフレームを処理して処理済みフレームを生成するためにプロセッサ3502によって実行可能である命令をさらに含むことができる。命令3536は、処理済みフレームを3Dデータとしてディスプレイデバイス3510において表示するためのディスプレイコントローラ3508に出力するために、または処理済みフレームを画像データ3538としてメモリ3504に記憶するためにプロセッサ3502によって実行可能である命令をさらに含むことができる。
さらに、本明細書で開示した実施形態に関して説明した様々な例示的な論理ブロック、構成、モジュール、回路、およびアルゴリズムステップは、電子ハードウェア、プロセッサによって実行されるコンピュータソフトウェア、または両方の組合せとして実装され得ることを、当業者は諒解されよう。様々な例示的な構成要素、ブロック、構成、モジュール、回路、およびステップを、上記では概して、それらの機能に関して説明した。そのような機能をハードウェアとして実装するか、プロセッサによって実行されるソフトウェアとして実装するかは、特定の適用例および全体的なシステムに課される設計制約に依存する。当業者は、説明した機能を特定の適用例ごとに様々な方法で実装し得るが、そのような実装の決定は、本開示の範囲からの逸脱を生じるものと解釈すべきではない。
図22〜図32の方法は、コンピュータ可読命令の形態でメモリに記憶され得るプログラムコードを実行することによって実行され得る。その場合、デジタル信号プロセッサ(DSP)、画像信号プロセッサ(ISP)、または他のプロセッサなどのプロセッサは、画像処理方法のうちの1つまたは複数を実行するためにメモリに記憶された命令を実行し得る。ある場合には、これらの方法は、画像処理を加速するために様々なハードウェア構成要素を呼び出すDSPまたはISPによって実行され得る。他の場合には、本明細書で説明するユニットは、マイクロプロセッサ、1つまたは複数の特定用途向け集積回路(ASIC)、1つまたは複数のフィールドプログラマブルゲートアレイ(FPGA)、またはそれらの任意の組合せとして実装され得、これらの方法は、それらによって実行され得る。
本明細書で開示する実施形態に関して説明した方法またはアルゴリズムのステップは、直接ハードウェアで実施され得るか、プロセッサによって実行されるソフトウェアモジュールで実施され得るか、またはその2つの組合せで実施され得る。ソフトウェアモジュールは、ランダムアクセスメモリ(RAM)、フラッシュメモリ、読取り専用メモリ(ROM)、プログラマブル読取り専用メモリ(PROM)、消去可能プログラマブル読取り専用メモリ(EPROM)、電気消去可能プログラマブル読取り専用メモリ(EEPROM)、レジスタ、ハードディスク、リムーバブルディスク、コンパクトディスク読取り専用メモリ(CD−ROM)、または当技術分野で知られている任意の他の形態の非一時的コンピュータ可読記憶媒体中に常駐し得る。例示的な記憶媒体は、プロセッサが記憶媒体から情報を読み取り、記憶媒体に情報を書き込むことができるように、プロセッサに結合される。代替として、記憶媒体は、プロセッサに一体化され得る。プロセッサおよび記憶媒体は、特定用途向け集積回路(ASIC)中に常駐し得る。ASICは、コンピューティングデバイスまたはユーザ端末中に常駐し得る。代替として、プロセッサおよび記憶媒体は、コンピューティングデバイスまたはユーザ端末中に個別構成要素として常駐し得る。
開示した実施形態の上記の説明は、開示した実施形態を当業者が作成または使用できるように行ったものである。これらの実施形態への様々な変更は、当業者にはすぐに明らかになり、本明細書で定義された原理は、本開示の範囲から逸脱することなく他の実施形態に適用され得る。したがって、本開示は、本明細書に示した実施形態に限定されるものではなく、特許請求の範囲によって定義される原理および新規の特徴と合致することが可能な最も広い範囲が与えられるべきものである。
開示した実施形態の上記の説明は、開示した実施形態を当業者が作成または使用できるように行ったものである。これらの実施形態への様々な変更は、当業者にはすぐに明らかになり、本明細書で定義された原理は、本開示の範囲から逸脱することなく他の実施形態に適用され得る。したがって、本開示は、本明細書に示した実施形態に限定されるものではなく、特許請求の範囲によって定義される原理および新規の特徴と合致することが可能な最も広い範囲が与えられるべきものである。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1] 複数の画像センサに共通制御信号を与えることであって、前記複数の画像センサの各々は、前記共通制御信号に応答して画像データを生成することと、
前記複数の画像センサの各々から同期データ出力を受信することと、
を具備する方法。
[2] 前記同期データ出力は、第1の画像センサから受信した第1のデータラインと第2の画像センサから受信した第2のデータラインとを含み、
前記第1の画像センサから受信した各データラインと前記第2の画像センサからの各対応するデータラインとの間の位相オフセットは、実質的に一定である、上記[1]に記載の方法。
[3] 前記共通制御信号は、前記複数の画像センサの各々に結合されたセンサシンクロナイザによって与えられる、上記[1]に記載の方法。
[4] 前記センサシンクロナイザは、集積回路間(I2C)制御インターフェースを介して前記複数の画像センサの各々に結合される、上記[3]に記載の方法。
[5] 前記共通制御信号は、カメラリセット信号と、カメラクロック信号と、制御クロック信号と、制御データ信号とを含む、上記[4]に記載の方法。
[6] 前記センサシンクロナイザは、カメラシリアルインターフェース(CSI)仕様に準拠するインターフェースを介して前記複数の画像センサの各々に結合される、上記[3]に記載の方法。
[7] 前記センサシンクロナイザは、カメラパラレルインターフェース(CPI)仕様に準拠するインターフェースを介して前記複数の画像センサの各々に結合される、上記[3]に記載の方法。
[8] 複数の画像センサで共通制御信号を受信することであって、前記複数の画像センサの各々は、前記共通制御信号に応答して画像データを生成することと、
前記複数の画像センサの各々から同期データ出力を生成することと、
を具備する方法。
[9] 前記同期データ出力は、第1の画像センサによって生成された第1のデータラインと第2の画像センサによって生成された第2のデータラインとを含み、
前記第1の画像センサからの各データライン出力と前記第2の画像センサからの各対応するデータライン出力との間の位相オフセットは、実質的に一定である、上記[8]に記載の方法。
[10] 前記共通制御信号が、前記複数の画像センサの各々に結合されたセンサシンクロナイザから受信される、上記[8]に記載の方法。
[11] 前記共通制御信号は、集積回路間(I2C)制御インターフェースを介して前記複数の画像センサの各々で受信される、上記[8]に記載の方法。
[12] 前記共通制御信号は、カメラリセット信号と、カメラクロック信号と、制御クロック信号と、制御データ信号とを含む、上記[11]に記載の方法。
[13] 前記共通制御信号は、カメラシリアルインターフェース(CSI)仕様に準拠するインターフェースを介して前記複数の画像センサの各々で受信される、上記[8]に記載の方法。
[14] 前記共通制御信号が、カメラパラレルインターフェース(CPI)仕様に準拠するインターフェースを介して前記複数の画像センサの各々で受信される、上記[8]に記載の方法。
[15] 複数の画像センサに画像データを生成させるために、前記複数の画像センサに共通制御信号を与えるように構成されたセンサシンクロナイザと、
前記複数の画像センサの各々から同期データ出力を受信するように構成されたセンサデータインターフェースと、
を具備する装置。
[16] 前記センサシンクロナイザは、集積回路間(I2C)制御インターフェースを介して前記複数の画像センサの各々に結合される、上記[15]に記載の装置。
[17] 前記共通制御信号は、カメラリセット信号と、カメラクロック信号と、制御クロック信号と、制御データ信号とを含む、上記[15]に記載の装置。
[18] 前記センサシンクロナイザは、カメラシリアルインターフェース(CSI)仕様に準拠するインターフェースを介して前記複数の画像センサの各々に結合される、上記[15]に記載の装置。
[19] 前記センサシンクロナイザは、カメラパラレルインターフェース(CPI)仕様に準拠するインターフェースを介して前記複数の画像センサの各々に結合される、上記[15]に記載の装置。
[20] 第1の画像センサと、
第2の画像センサと、
を具備し、
前記第1の画像センサと前記第2の画像センサとは、共通制御信号を受信するように構成され、前記共通制御信号に応答して同期データ出力を生成する、装置。
[21] 前記同期データ出力は、前記第1の画像センサによって生成された第1のデータラインと前記第2の画像センサによって生成された第2のデータラインとを含み、
前記第1の画像センサからの各データライン出力と前記第2の画像センサからの各対応するデータライン出力との間の位相オフセットは、実質的に一定である、上記[20]に記載の装置。
[22] 前記第1の画像センサと前記第2の画像センサとは、集積回路間(I2C)制御インターフェースを介して前記共通制御信号を受信するように構成される、上記[20]に記載の装置。
[23] 前記第1の画像センサと前記第2の画像センサとは、カメラシリアルインターフェース(CSI)仕様に準拠するインターフェースを介して前記共通制御信号を受信するように構成される、上記[20]に記載の装置。
[24] 前記第1の画像センサと前記第2の画像センサとは、カメラパラレルインターフェース(CPI)仕様に準拠するインターフェースを介して前記共通制御信号を受信するように構成される、上記[20]に記載の装置。
[25] 複数の画像センサに画像データを生成させるために、前記複数の画像センサに共通制御信号を与えるための手段と、
前記複数の画像センサの各々から同期データ出力を受信するための手段と、
を具備する装置。
[26] 前記共通制御信号を与えるための前記手段は、集積回路間(I2C)制御インターフェースを介して前記複数の画像センサの各々に結合される、上記[25]に記載の装置。
[27] 前記共通制御信号を与えるための前記手段は、カメラシリアルインターフェース(CSI)仕様に準拠するインターフェースを介して前記複数の画像センサの各々に結合される、上記[25]に記載の装置。
[28] 前記共通制御信号を与えるための前記手段は、カメラパラレルインターフェース(CPI)仕様に準拠するインターフェースを介して前記複数の画像センサの各々に結合される、上記[25]に記載の装置。
[29] 第1の画像データを生成するための手段と、
第2の画像データを生成するための手段と、
を具備し、
前記第1の画像データを生成するための前記手段と前記第2の画像データを生成するための前記手段とは、共通制御信号を受信するように構成され、前記共通制御信号に応答して同期データ出力を生成する、装置。
[30] 前記同期データ出力は、前記第1の画像データを生成するための前記手段によって生成された第1のデータラインと前記第2の画像データを生成するための前記手段によって生成された第2のデータラインとを含み、
前記第1の画像データを生成するための前記手段からの各データライン出力と前記第2の画像データを生成するための前記手段からの各対応するデータライン出力との間の位相オフセットは、実質的に一定である、上記[29]に記載の装置。
[31] 前記第1の画像データを生成するための前記手段と前記第2の画像データを生成するための前記手段とは、集積回路間(I2C)制御インターフェースを介して前記共通制御信号を受信するように構成される、上記[29]に記載の装置。
[32] プロセッサによって実行されたとき、前記プロセッサに、
複数の画像センサに共通制御信号を与えることであって、前記複数の画像センサの各々は、前記共通制御信号に応答して画像データを生成することと、
前記複数の画像センサの各々から同期データ出力を受信することと、
を行わせる命令を備える非一時的コンピュータ可読媒体。
[33] 前記同期データ出力は、第1の画像センサから受信した第1のデータラインと第2の画像センサから受信した第2のデータラインとを含み、
前記第1の画像センサから受信した各データラインと前記第2の画像センサからの各対応するデータラインとの間の位相オフセットは、実質的に一定である、上記[32]に記載の非一時的コンピュータ可読媒体。
[34] プロセッサによって実行されたとき、前記プロセッサに、
複数の画像センサにおいて共通制御信号を受信することであって、前記複数の画像センサの各々は、前記共通制御信号に応答して画像データを生成することと、
前記複数の画像センサの各々から同期データ出力を生成することと、
を行わせる命令を備える非一時的コンピュータ可読媒体。
[35] 前記同期データ出力は、第1の画像センサによって生成された第1のデータラインと第2の画像センサによって生成された第2のデータラインとを含み、
前記第1の画像センサからの各データライン出力と前記第2の画像センサからの各対応するデータライン出力との間の位相オフセットは、実質的に一定である、上記[34]に記載の非一時的コンピュータ可読媒体。

Claims (35)

  1. 複数の画像センサに共通制御信号を与えることであって、前記複数の画像センサの各々は、前記共通制御信号に応答して画像データを生成することと、
    前記複数の画像センサの各々から同期データ出力を受信することと、
    を具備する方法。
  2. 前記同期データ出力は、第1の画像センサから受信した第1のデータラインと第2の画像センサから受信した第2のデータラインとを含み、
    前記第1の画像センサから受信した各データラインと前記第2の画像センサからの各対応するデータラインとの間の位相オフセットは、実質的に一定である、請求項1に記載の方法。
  3. 前記共通制御信号は、前記複数の画像センサの各々に結合されたセンサシンクロナイザによって与えられる、請求項1に記載の方法。
  4. 前記センサシンクロナイザは、集積回路間(I2C)制御インターフェースを介して前記複数の画像センサの各々に結合される、請求項3に記載の方法。
  5. 前記共通制御信号は、カメラリセット信号と、カメラクロック信号と、制御クロック信号と、制御データ信号とを含む、請求項4に記載の方法。
  6. 前記センサシンクロナイザは、カメラシリアルインターフェース(CSI)仕様に準拠するインターフェースを介して前記複数の画像センサの各々に結合される、請求項3に記載の方法。
  7. 前記センサシンクロナイザは、カメラパラレルインターフェース(CPI)仕様に準拠するインターフェースを介して前記複数の画像センサの各々に結合される、請求項3に記載の方法。
  8. 複数の画像センサで共通制御信号を受信することであって、前記複数の画像センサの各々は、前記共通制御信号に応答して画像データを生成することと、
    前記複数の画像センサの各々から同期データ出力を生成することと、
    を具備する方法。
  9. 前記同期データ出力は、第1の画像センサによって生成された第1のデータラインと第2の画像センサによって生成された第2のデータラインとを含み、
    前記第1の画像センサからの各データライン出力と前記第2の画像センサからの各対応するデータライン出力との間の位相オフセットは、実質的に一定である、請求項8に記載の方法。
  10. 前記共通制御信号が、前記複数の画像センサの各々に結合されたセンサシンクロナイザから受信される、請求項8に記載の方法。
  11. 前記共通制御信号は、集積回路間(I2C)制御インターフェースを介して前記複数の画像センサの各々で受信される、請求項8に記載の方法。
  12. 前記共通制御信号は、カメラリセット信号と、カメラクロック信号と、制御クロック信号と、制御データ信号とを含む、請求項11に記載の方法。
  13. 前記共通制御信号は、カメラシリアルインターフェース(CSI)仕様に準拠するインターフェースを介して前記複数の画像センサの各々で受信される、請求項8に記載の方法。
  14. 前記共通制御信号が、カメラパラレルインターフェース(CPI)仕様に準拠するインターフェースを介して前記複数の画像センサの各々で受信される、請求項8に記載の方法。
  15. 複数の画像センサに画像データを生成させるために、前記複数の画像センサに共通制御信号を与えるように構成されたセンサシンクロナイザと、
    前記複数の画像センサの各々から同期データ出力を受信するように構成されたセンサデータインターフェースと、
    を具備する装置。
  16. 前記センサシンクロナイザは、集積回路間(I2C)制御インターフェースを介して前記複数の画像センサの各々に結合される、請求項15に記載の装置。
  17. 前記共通制御信号は、カメラリセット信号と、カメラクロック信号と、制御クロック信号と、制御データ信号とを含む、請求項15に記載の装置。
  18. 前記センサシンクロナイザは、カメラシリアルインターフェース(CSI)仕様に準拠するインターフェースを介して前記複数の画像センサの各々に結合される、請求項15に記載の装置。
  19. 前記センサシンクロナイザは、カメラパラレルインターフェース(CPI)仕様に準拠するインターフェースを介して前記複数の画像センサの各々に結合される、請求項15に記載の装置。
  20. 第1の画像センサと、
    第2の画像センサと、
    を具備し、
    前記第1の画像センサと前記第2の画像センサとは、共通制御信号を受信するように構成され、前記共通制御信号に応答して同期データ出力を生成する、装置。
  21. 前記同期データ出力は、前記第1の画像センサによって生成された第1のデータラインと前記第2の画像センサによって生成された第2のデータラインとを含み、
    前記第1の画像センサからの各データライン出力と前記第2の画像センサからの各対応するデータライン出力との間の位相オフセットは、実質的に一定である、請求項20に記載の装置。
  22. 前記第1の画像センサと前記第2の画像センサとは、集積回路間(I2C)制御インターフェースを介して前記共通制御信号を受信するように構成される、請求項20に記載の装置。
  23. 前記第1の画像センサと前記第2の画像センサとは、カメラシリアルインターフェース(CSI)仕様に準拠するインターフェースを介して前記共通制御信号を受信するように構成される、請求項20に記載の装置。
  24. 前記第1の画像センサと前記第2の画像センサとは、カメラパラレルインターフェース(CPI)仕様に準拠するインターフェースを介して前記共通制御信号を受信するように構成される、請求項20に記載の装置。
  25. 複数の画像センサに画像データを生成させるために、前記複数の画像センサに共通制御信号を与えるための手段と、
    前記複数の画像センサの各々から同期データ出力を受信するための手段と、
    を具備する装置。
  26. 前記共通制御信号を与えるための前記手段は、集積回路間(I2C)制御インターフェースを介して前記複数の画像センサの各々に結合される、請求項25に記載の装置。
  27. 前記共通制御信号を与えるための前記手段は、カメラシリアルインターフェース(CSI)仕様に準拠するインターフェースを介して前記複数の画像センサの各々に結合される、請求項25に記載の装置。
  28. 前記共通制御信号を与えるための前記手段は、カメラパラレルインターフェース(CPI)仕様に準拠するインターフェースを介して前記複数の画像センサの各々に結合される、請求項25に記載の装置。
  29. 第1の画像データを生成するための手段と、
    第2の画像データを生成するための手段と、
    を具備し、
    前記第1の画像データを生成するための前記手段と前記第2の画像データを生成するための前記手段とは、共通制御信号を受信するように構成され、前記共通制御信号に応答して同期データ出力を生成する、装置。
  30. 前記同期データ出力は、前記第1の画像データを生成するための前記手段によって生成された第1のデータラインと前記第2の画像データを生成するための前記手段によって生成された第2のデータラインとを含み、
    前記第1の画像データを生成するための前記手段からの各データライン出力と前記第2の画像データを生成するための前記手段からの各対応するデータライン出力との間の位相オフセットは、実質的に一定である、請求項29に記載の装置。
  31. 前記第1の画像データを生成するための前記手段と前記第2の画像データを生成するための前記手段とは、集積回路間(I2C)制御インターフェースを介して前記共通制御信号を受信するように構成される、請求項29に記載の装置。
  32. プロセッサによって実行されたとき、前記プロセッサに、
    複数の画像センサに共通制御信号を与えることであって、前記複数の画像センサの各々は、前記共通制御信号に応答して画像データを生成することと、
    前記複数の画像センサの各々から同期データ出力を受信することと、
    を行わせる命令を備える非一時的コンピュータ可読媒体。
  33. 前記同期データ出力は、第1の画像センサから受信した第1のデータラインと第2の画像センサから受信した第2のデータラインとを含み、
    前記第1の画像センサから受信した各データラインと前記第2の画像センサからの各対応するデータラインとの間の位相オフセットは、実質的に一定である、請求項32に記載の非一時的コンピュータ可読媒体。
  34. プロセッサによって実行されたとき、前記プロセッサに、
    複数の画像センサにおいて共通制御信号を受信することであって、前記複数の画像センサの各々は、前記共通制御信号に応答して画像データを生成することと、
    前記複数の画像センサの各々から同期データ出力を生成することと、
    を行わせる命令を備える非一時的コンピュータ可読媒体。
  35. 前記同期データ出力は、第1の画像センサによって生成された第1のデータラインと第2の画像センサによって生成された第2のデータラインとを含み、
    前記第1の画像センサからの各データライン出力と前記第2の画像センサからの各対応するデータライン出力との間の位相オフセットは、実質的に一定である、請求項34に記載の非一時的コンピュータ可読媒体。
JP2013503852A 2010-04-05 2011-04-05 複数の画像センサからのデータの合成 Active JP5559416B2 (ja)

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
US32094010P 2010-04-05 2010-04-05
US61/320,940 2010-04-05
US32425910P 2010-04-14 2010-04-14
US61/324,259 2010-04-14
US35931210P 2010-06-28 2010-06-28
US61/359,312 2010-06-28
US41275510P 2010-11-11 2010-11-11
US61/412,755 2010-11-11
US61/079,629 2011-04-04
US13/079,629 US9001227B2 (en) 2010-04-05 2011-04-04 Combining data from multiple image sensors
PCT/US2011/031285 WO2011127078A1 (en) 2010-04-05 2011-04-05 Combining data from multiple image sensors

Publications (2)

Publication Number Publication Date
JP2013539608A true JP2013539608A (ja) 2013-10-24
JP5559416B2 JP5559416B2 (ja) 2014-07-23

Family

ID=44709236

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2013503850A Pending JP2013528021A (ja) 2010-04-05 2011-04-05 複数の画像センサからのデータの合成
JP2013503852A Active JP5559416B2 (ja) 2010-04-05 2011-04-05 複数の画像センサからのデータの合成
JP2013503851A Expired - Fee Related JP5675959B2 (ja) 2010-04-05 2011-04-05 複数の画像センサからのデータの合成

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2013503850A Pending JP2013528021A (ja) 2010-04-05 2011-04-05 複数の画像センサからのデータの合成

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2013503851A Expired - Fee Related JP5675959B2 (ja) 2010-04-05 2011-04-05 複数の画像センサからのデータの合成

Country Status (15)

Country Link
US (3) US9001227B2 (ja)
EP (3) EP2556658A1 (ja)
JP (3) JP2013528021A (ja)
KR (3) KR101517661B1 (ja)
CN (3) CN102884783B (ja)
AR (3) AR081161A1 (ja)
AU (1) AU2011237801A1 (ja)
BR (2) BR112012025182A2 (ja)
CA (1) CA2794682A1 (ja)
IL (1) IL222289A0 (ja)
RU (1) RU2012146968A (ja)
SG (1) SG184225A1 (ja)
TW (3) TW201205308A (ja)
WO (3) WO2011127077A1 (ja)
ZA (1) ZA201208298B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016199593A1 (ja) * 2015-06-10 2016-12-15 ソニー株式会社 画像処理装置および方法
JP2016220254A (ja) * 2016-09-14 2016-12-22 株式会社リコー 撮像装置

Families Citing this family (229)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
EP4336447A1 (en) 2008-05-20 2024-03-13 FotoNation Limited Capturing and processing of images using monolithic camera array with heterogeneous imagers
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8896668B2 (en) 2010-04-05 2014-11-25 Qualcomm Incorporated Combining data from multiple image sensors
US9001227B2 (en) 2010-04-05 2015-04-07 Qualcomm Incorporated Combining data from multiple image sensors
US8917632B2 (en) 2010-04-07 2014-12-23 Apple Inc. Different rate controller configurations for different cameras of a mobile device
WO2011143501A1 (en) 2010-05-12 2011-11-17 Pelican Imaging Corporation Architectures for imager arrays and array cameras
US20140192238A1 (en) 2010-10-24 2014-07-10 Linx Computational Imaging Ltd. System and Method for Imaging and Image Processing
US8555067B2 (en) 2010-10-28 2013-10-08 Apple Inc. Methods and apparatus for delivering electronic identification components over a wireless network
KR101720190B1 (ko) * 2010-11-04 2017-03-27 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
JP2012198075A (ja) * 2011-03-18 2012-10-18 Ricoh Co Ltd ステレオカメラ装置、画像補整方法
US9313390B2 (en) * 2011-04-08 2016-04-12 Qualcomm Incorporated Systems and methods to calibrate a multi camera device
WO2012155119A1 (en) * 2011-05-11 2012-11-15 Pelican Imaging Corporation Systems and methods for transmitting and receiving array camera image data
JP5821300B2 (ja) 2011-06-07 2015-11-24 ソニー株式会社 撮像装置及び撮像方法
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
US8542933B2 (en) 2011-09-28 2013-09-24 Pelican Imaging Corporation Systems and methods for decoding light field image files
JP6021489B2 (ja) * 2011-10-03 2016-11-09 キヤノン株式会社 撮像装置、画像処理装置およびその方法
US9495018B2 (en) 2011-11-01 2016-11-15 Qualcomm Incorporated System and method for improving orientation data
JP5918982B2 (ja) * 2011-11-22 2016-05-18 キヤノン株式会社 撮像装置、再生装置、その制御方法、撮像システム、及びプログラム
DE102012003127A1 (de) * 2012-02-16 2013-09-05 Leica Camera Ag Verfahren für eine Autofokuseinrichtung
WO2013126578A1 (en) 2012-02-21 2013-08-29 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
US10848731B2 (en) 2012-02-24 2020-11-24 Matterport, Inc. Capturing and aligning panoramic image and depth data
US9324190B2 (en) 2012-02-24 2016-04-26 Matterport, Inc. Capturing and aligning three-dimensional scenes
US11282287B2 (en) 2012-02-24 2022-03-22 Matterport, Inc. Employing three-dimensional (3D) data predicted from two-dimensional (2D) images using neural networks for 3D modeling applications and other applications
JP6007509B2 (ja) * 2012-02-27 2016-10-12 株式会社リコー シリアルi/fバス制御装置及び撮像装置
US9253450B2 (en) 2012-04-18 2016-02-02 Utc Fire & Security Americas Corporation, Inc. Total bus surveillance system
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
US20130327831A1 (en) * 2012-06-11 2013-12-12 Datalogic ADC, Inc. Dynamic imager switching
KR20150023907A (ko) 2012-06-28 2015-03-05 펠리칸 이매징 코포레이션 결함있는 카메라 어레이들, 광학 어레이들 및 센서들을 검출하기 위한 시스템들 및 방법들
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
EP2888720B1 (en) 2012-08-21 2021-03-17 FotoNation Limited System and method for depth estimation from images captured using array cameras
EP2888698A4 (en) 2012-08-23 2016-06-29 Pelican Imaging Corp PROPERTY-BASED HIGH-RESOLUTION MOTION ESTIMATION FROM LOW-RESOLUTION IMAGES RECORDED WITH AN ARRAY SOURCE
US9229526B1 (en) * 2012-09-10 2016-01-05 Amazon Technologies, Inc. Dedicated image processor
WO2014043641A1 (en) 2012-09-14 2014-03-20 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
US20140085497A1 (en) * 2012-09-26 2014-03-27 Omnivision Technologies, Inc. Systems And Methods For Sychronizing Multiple Video Sensors
US20140092439A1 (en) * 2012-09-28 2014-04-03 Scott A. Krig Encoding images using a 3d mesh of polygons and corresponding textures
EP2901671A4 (en) 2012-09-28 2016-08-24 Pelican Imaging Corp CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW
US9275459B2 (en) * 2012-10-05 2016-03-01 Qualcomm Incorporated Method and apparatus for calibrating an imaging device
WO2014078443A1 (en) 2012-11-13 2014-05-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
WO2014083489A1 (en) 2012-11-28 2014-06-05 Corephotonics Ltd. High-resolution thin multi-aperture imaging systems
US9195254B2 (en) * 2012-12-21 2015-11-24 Qualcomm, Incorporated Method and apparatus for multi-level de-emphasis
US9686460B2 (en) * 2012-12-27 2017-06-20 Intel Corporation Enabling a metadata storage subsystem
US9244694B2 (en) * 2012-12-27 2016-01-26 Intel Corporation Executing a command within a transport mechanism based on a get and set architecture
US9270876B2 (en) 2013-01-05 2016-02-23 The Lightco Inc. Methods and apparatus for using multiple optical chains in parallel with multiple different exposure times
EP2946336B1 (en) 2013-01-15 2023-06-21 Mobileye Vision Technologies Ltd. Stereo assist with rolling shutters
KR20140094395A (ko) * 2013-01-22 2014-07-30 삼성전자주식회사 복수 개의 마이크로렌즈를 사용하여 촬영하는 촬영 장치 및 그 촬영 방법
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
US9253380B2 (en) 2013-02-24 2016-02-02 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
WO2014138697A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
WO2014165244A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
WO2014153098A1 (en) 2013-03-14 2014-09-25 Pelican Imaging Corporation Photmetric normalization in array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
WO2014145856A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9497370B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Array camera architecture implementing quantum dot color filters
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
CN109040552B (zh) 2013-06-13 2021-06-22 核心光电有限公司 双孔径变焦数字摄影机
JP5953270B2 (ja) * 2013-07-04 2016-07-20 オリンパス株式会社 撮像装置
CN108388005A (zh) 2013-07-04 2018-08-10 核心光电有限公司 小型长焦透镜套件
US9955142B2 (en) * 2013-07-05 2018-04-24 Mediatek Inc. On-line stereo camera calibration device and method for generating stereo camera parameters
JP5902354B2 (ja) * 2013-07-16 2016-04-13 富士フイルム株式会社 撮影装置及び3次元計測装置
CN108989649B (zh) * 2013-08-01 2021-03-19 核心光电有限公司 具有自动聚焦的纤薄多孔径成像系统及其使用方法
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
US9423588B2 (en) * 2013-10-18 2016-08-23 The Lightco Inc. Methods and apparatus for supporting zoom operations
US9549127B2 (en) * 2013-10-18 2017-01-17 Light Labs Inc. Image capture control methods and apparatus
US9374514B2 (en) 2013-10-18 2016-06-21 The Lightco Inc. Methods and apparatus relating to a camera including multiple optical chains
US9736365B2 (en) 2013-10-26 2017-08-15 Light Labs Inc. Zoom related methods and apparatus
US9467627B2 (en) 2013-10-26 2016-10-11 The Lightco Inc. Methods and apparatus for use with multiple optical chains
US9426365B2 (en) 2013-11-01 2016-08-23 The Lightco Inc. Image stabilization related methods and apparatus
US9264592B2 (en) 2013-11-07 2016-02-16 Pelican Imaging Corporation Array camera modules incorporating independently aligned lens stacks
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
US9426361B2 (en) 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
CN104994369B (zh) * 2013-12-04 2018-08-21 南京中兴软件有限责任公司 一种图像处理方法、用户终端、图像处理终端及系统
CN103702073A (zh) * 2013-12-11 2014-04-02 天津大学 一拖多个成像传感器同步成像的一体化相机电路
KR101528556B1 (ko) * 2013-12-12 2015-06-17 (주)씨프로 Cctv용 파노라마 카메라 장치
KR101530163B1 (ko) * 2013-12-12 2015-06-17 (주)씨프로 Cctv용 파노라마 카메라 장치
US9554031B2 (en) 2013-12-31 2017-01-24 Light Labs Inc. Camera focusing related methods and apparatus
KR102128468B1 (ko) 2014-02-19 2020-06-30 삼성전자주식회사 복수의 이미지 신호 프로세서들을 포함하는 이미지 처리 장치 및 이미지 처리 방법
US9462170B2 (en) 2014-02-21 2016-10-04 The Lightco Inc. Lighting methods and apparatus
US9979878B2 (en) 2014-02-21 2018-05-22 Light Labs Inc. Intuitive camera user interface methods and apparatus
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
CN103916498B (zh) * 2014-03-28 2017-02-15 宁波萨瑞通讯有限公司 串口摄像头和并口摄像头兼容方法
US9247117B2 (en) 2014-04-07 2016-01-26 Pelican Imaging Corporation Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
US10191356B2 (en) 2014-07-04 2019-01-29 Light Labs Inc. Methods and apparatus relating to detection and/or indicating a dirty lens condition
WO2016007799A1 (en) 2014-07-09 2016-01-14 The Lightco Inc. Camera device including multiple optical chains and related methods
KR102157675B1 (ko) * 2014-07-25 2020-09-18 삼성전자주식회사 촬영 장치 및 그 촬영 방법
US9392188B2 (en) 2014-08-10 2016-07-12 Corephotonics Ltd. Zoom dual-aperture camera with folded lens
CN105335779B (zh) * 2014-08-14 2018-03-02 夏志刚 数卡器及使用数卡器进行数卡的方法
US9313391B1 (en) * 2014-08-14 2016-04-12 Amazon Technologies, Inc. Camera interfaces for electronic devices
US9992483B2 (en) * 2014-09-03 2018-06-05 Intel Corporation Imaging architecture for depth camera mode with mode switching
CN113256730B (zh) 2014-09-29 2023-09-05 快图有限公司 用于阵列相机的动态校准的系统和方法
US9912864B2 (en) 2014-10-17 2018-03-06 Light Labs Inc. Methods and apparatus for using a camera device to support multiple modes of operation
US10944911B2 (en) * 2014-10-24 2021-03-09 Texas Instruments Incorporated Image data processing for digital overlap wide dynamic range sensors
US9842071B2 (en) * 2014-11-11 2017-12-12 Microchip Technology Incorporated Multi-channel I2S transmit control system and method
WO2016100756A1 (en) 2014-12-17 2016-06-23 The Lightco Inc. Methods and apparatus for implementing and using camera devices
US9544503B2 (en) 2014-12-30 2017-01-10 Light Labs Inc. Exposure control methods and apparatus
CN112327464A (zh) 2015-01-03 2021-02-05 核心光电有限公司 微型长焦镜头模块和使用该镜头模块的相机
US9491495B2 (en) 2015-01-16 2016-11-08 Analog Devices Global Method and apparatus for providing input to a camera serial interface transmitter
JP2016178371A (ja) * 2015-03-18 2016-10-06 キヤノン株式会社 撮像装置
EP3278178B1 (en) 2015-04-02 2019-04-03 Corephotonics Ltd. Dual voice coil motor structure in a dual-optical module camera
US9824427B2 (en) 2015-04-15 2017-11-21 Light Labs Inc. Methods and apparatus for generating a sharp image
ES2907810T3 (es) 2015-04-16 2022-04-26 Corephotonics Ltd Enfoque automático y estabilización de imagen óptica en una cámara compacta de plegado
US10043307B2 (en) 2015-04-17 2018-08-07 General Electric Company Monitoring parking rule violations
US9857584B2 (en) 2015-04-17 2018-01-02 Light Labs Inc. Camera device methods, apparatus and components
US10380430B2 (en) 2015-04-17 2019-08-13 Current Lighting Solutions, Llc User interfaces for parking zone creation
US10091447B2 (en) 2015-04-17 2018-10-02 Light Labs Inc. Methods and apparatus for synchronizing readout of multiple image sensors
US10075651B2 (en) 2015-04-17 2018-09-11 Light Labs Inc. Methods and apparatus for capturing images using multiple camera modules in an efficient manner
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
US9967535B2 (en) 2015-04-17 2018-05-08 Light Labs Inc. Methods and apparatus for reducing noise in images
WO2016172641A1 (en) 2015-04-22 2016-10-27 The Lightco Inc. Filter mounting methods and apparatus and related camera apparatus
ES2891150T3 (es) * 2015-05-06 2022-01-26 Reactive Reality Ag Método y sistema para producir imágenes de salida
US10373338B2 (en) * 2015-05-27 2019-08-06 Kyocera Corporation Calculation device, camera device, vehicle, and calibration method
EP3722860B1 (en) 2015-05-28 2023-04-19 Corephotonics Ltd. Bi-directional stiffness for optical image stabilization and auto-focus in a digital camera
US10129483B2 (en) 2015-06-23 2018-11-13 Light Labs Inc. Methods and apparatus for implementing zoom using one or more moveable camera modules
US10491806B2 (en) 2015-08-03 2019-11-26 Light Labs Inc. Camera device control related methods and apparatus
KR102143309B1 (ko) 2015-08-13 2020-08-11 코어포토닉스 리미티드 비디오 지원 및 스위칭/비스위칭 동적 제어 기능이 있는 듀얼-애퍼처 줌 카메라
US10365480B2 (en) 2015-08-27 2019-07-30 Light Labs Inc. Methods and apparatus for implementing and/or using camera devices with one or more light redirection devices
KR102143730B1 (ko) 2015-09-06 2020-08-12 코어포토닉스 리미티드 소형의 접이식 카메라의 롤 보정에 의한 자동 초점 및 광학식 손떨림 방지
US9992477B2 (en) * 2015-09-24 2018-06-05 Ouster, Inc. Optical system for collecting distance information within a field
US9749549B2 (en) 2015-10-06 2017-08-29 Light Labs Inc. Methods and apparatus for facilitating selective blurring of one or more image portions
KR102480600B1 (ko) * 2015-10-21 2022-12-23 삼성전자주식회사 이미지 처리 장치의 저조도 화질 개선 방법 및 상기 방법을 수행하는 이미지 처리 시스템의 동작 방법
US10225445B2 (en) 2015-12-18 2019-03-05 Light Labs Inc. Methods and apparatus for providing a camera lens or viewing point indicator
US10003738B2 (en) 2015-12-18 2018-06-19 Light Labs Inc. Methods and apparatus for detecting and/or indicating a blocked sensor or camera module
KR102503442B1 (ko) * 2015-12-24 2023-02-28 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
KR102433293B1 (ko) * 2015-12-24 2022-08-18 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
KR101751140B1 (ko) 2015-12-24 2017-06-26 삼성전기주식회사 이미지 센서 및 카메라 모듈
WO2017115179A1 (en) 2015-12-29 2017-07-06 Corephotonics Ltd. Dual-aperture zoom digital camera with automatic adjustable tele field of view
US10108462B2 (en) 2016-02-12 2018-10-23 Microsoft Technology Licensing, Llc Virtualizing sensors
JP6743427B2 (ja) * 2016-03-08 2020-08-19 株式会社リコー 情報処理装置、撮像システムおよびデータ転送方法
US10306218B2 (en) 2016-03-22 2019-05-28 Light Labs Inc. Camera calibration apparatus and methods
CN105635601B (zh) * 2016-03-28 2019-04-23 广州市盛光微电子有限公司 一种多传感器多通道视频数据输入方法和装置
US10719107B2 (en) 2016-03-29 2020-07-21 Intel Corporation Method and apparatus to maintain node power budget for systems that share a power supply
US9813783B2 (en) * 2016-04-01 2017-11-07 Intel Corporation Multi-camera dataset assembly and management with high precision timestamp requirements
DE102016208210A1 (de) * 2016-05-12 2017-11-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. 3d-multiaperturabbildungsvorrichtungen, multiaperturabbildungsvorrichtung, verfahren zum bereitstellen eines ausgangssignals einer 3d-multiaperturabbildungsvorrichtung und verfahren zum erfassen eines gesamtgesichtsfeldes
JP6695739B2 (ja) * 2016-05-26 2020-05-20 ソニーセミコンダクタソリューションズ株式会社 処理装置、画像センサ、およびシステム
EP3758356B1 (en) 2016-05-30 2021-10-20 Corephotonics Ltd. Actuator
CN109639954B (zh) 2016-06-19 2020-10-23 核心光电有限公司 双孔径摄影机中的帧同步系统和方法
US9948832B2 (en) 2016-06-22 2018-04-17 Light Labs Inc. Methods and apparatus for synchronized image capture in a device including optical chains with different orientations
KR102390572B1 (ko) 2016-07-07 2022-04-25 코어포토닉스 리미티드 폴디드 옵틱용 선형 볼 가이드 음성 코일 모터
US10706518B2 (en) 2016-07-07 2020-07-07 Corephotonics Ltd. Dual camera system with improved video smooth transition by image blending
US10284838B2 (en) 2016-08-19 2019-05-07 Titan Medical Inc. Method and apparatus for transmitting images captured by first and second image sensors
US20180063428A1 (en) * 2016-09-01 2018-03-01 ORBI, Inc. System and method for virtual reality image and video capture and stitching
KR101809727B1 (ko) * 2016-09-27 2017-12-15 주식회사 켐트로닉스 Svm 시스템 및 그의 영상입력 및 처리방법
JP6838725B2 (ja) * 2016-10-20 2021-03-03 日立Astemo株式会社 カメラ装置
EP3550821A4 (en) * 2016-11-29 2020-04-01 Sony Corporation IMAGING DEVICE, IMAGING CONTROL METHOD, AND PROGRAM
EP4246993A3 (en) 2016-12-28 2024-03-06 Corephotonics Ltd. Folded camera structure with an extended light-folding-element scanning range
EP3395056B1 (en) 2017-01-12 2021-06-09 Corephotonics Ltd. Compact folded camera
US10692262B2 (en) 2017-01-12 2020-06-23 Electronics And Telecommunications Research Institute Apparatus and method for processing information of multiple cameras
KR102557662B1 (ko) 2017-02-09 2023-07-19 삼성전자주식회사 이미지 처리 장치 및 이를 포함하는 전자 장치
JP2018128401A (ja) * 2017-02-10 2018-08-16 東芝Itコントロールシステム株式会社 X線透視検査装置
CN110058372B (zh) 2017-02-23 2022-02-08 核心光电有限公司 折叠式摄影机透镜设计
KR102396500B1 (ko) * 2017-03-02 2022-05-11 소니 세미컨덕터 솔루션즈 가부시키가이샤 화상 센서, 및 제어 시스템
US10554958B2 (en) 2017-03-13 2020-02-04 Microsoft Technology Licensing, Llc Systems and methods for interleaving multiple active camera frames
US10645286B2 (en) 2017-03-15 2020-05-05 Corephotonics Ltd. Camera with panoramic scanning range
CN108881112B (zh) * 2017-05-10 2021-07-30 北京猎户星空科技有限公司 基于传感器的数据的生成、传输、处理方法、装置及其系统
CN108881946A (zh) * 2017-05-10 2018-11-23 北京猎户星空科技有限公司 传感器数据的生成、传输、处理方法、装置及其系统
TWI617195B (zh) * 2017-06-22 2018-03-01 宏碁股份有限公司 影像擷取裝置及其影像拼接方法
CN109214983B (zh) * 2017-06-30 2022-12-13 宏碁股份有限公司 图像获取装置及其图像拼接方法
CN109309784B (zh) * 2017-07-28 2021-05-28 展讯通信(上海)有限公司 移动终端
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US10904512B2 (en) 2017-09-06 2021-01-26 Corephotonics Ltd. Combined stereoscopic and phase detection depth mapping in a dual aperture camera
KR102385333B1 (ko) * 2017-09-15 2022-04-12 삼성전자주식회사 복수의 이미지 센서들을 제어하기 위한 전자 장치 및 방법
US10951834B2 (en) 2017-10-03 2021-03-16 Corephotonics Ltd. Synthetically enlarged camera aperture
CN110140076B (zh) 2017-11-23 2021-05-21 核心光电有限公司 紧凑型折叠式摄影机结构
KR20190065736A (ko) * 2017-12-04 2019-06-12 삼성전자주식회사 3d 이미지를 생성하기 위한 전자 장치 및 방법
KR102091369B1 (ko) 2018-02-05 2020-05-18 코어포토닉스 리미티드 폴디드 카메라에 대한 감소된 높이 페널티
KR20230019502A (ko) 2018-02-12 2023-02-08 코어포토닉스 리미티드 광학 이미지 안정화 기능을 갖는 폴디드 카메라
US10764512B2 (en) * 2018-03-26 2020-09-01 Mediatek Inc. Method of image fusion on camera device equipped with multiple cameras
CN108540689B (zh) * 2018-04-09 2020-10-02 珠海全志科技股份有限公司 图像信号处理器、应用处理器及移动装置
US10694168B2 (en) 2018-04-22 2020-06-23 Corephotonics Ltd. System and method for mitigating or preventing eye damage from structured light IR/NIR projector systems
WO2019207464A2 (en) 2018-04-23 2019-10-31 Corephotonics Ltd. An optical-path folding-element with an extended two degree of freedom rotation range
EP3573342B1 (en) * 2018-05-25 2021-03-31 Harman Becker Automotive Systems GmbH Multi-rate digital sensor synchronization
KR102107299B1 (ko) * 2018-06-21 2020-05-06 한국산업기술대학교산학협력단 영상 데이터 전송 방법 및 이를 수행하는 장치들
WO2019245117A1 (ko) * 2018-06-22 2019-12-26 재단법인 실감교류인체감응솔루션연구단 디모자이킹 장치 및 그 방법, 이를 적용한 스테레오 카메라
US11363180B2 (en) 2018-08-04 2022-06-14 Corephotonics Ltd. Switchable continuous display information system above camera
WO2020039302A1 (en) 2018-08-22 2020-02-27 Corephotonics Ltd. Two-state zoom folded camera
US11861481B2 (en) * 2018-12-21 2024-01-02 Waymo Llc Searching an autonomous vehicle sensor data repository
CN111919057B (zh) 2019-01-07 2021-08-31 核心光电有限公司 具有滑动接头的旋转机构
US11092456B2 (en) * 2019-03-08 2021-08-17 Aptiv Technologies Limited Object location indicator system and method
KR102494006B1 (ko) 2019-03-09 2023-01-30 코어포토닉스 리미티드 동적 입체 캘리브레이션을 위한 시스템 및 방법
CN110392149A (zh) * 2019-07-23 2019-10-29 华为技术有限公司 图像摄取显示终端
EP3837662A4 (en) 2019-07-31 2021-12-15 Corephotonics Ltd. SYSTEM AND METHOD FOR GENERATING BACKGROUND BLUR DURING CAMERA PAN or MOVEMENT
CN110381272B (zh) 2019-08-22 2022-05-13 睿镞科技(北京)有限责任公司 图像传感器组合系统及产生单一和复合视野图像的装置
MX2022003020A (es) 2019-09-17 2022-06-14 Boston Polarimetrics Inc Sistemas y metodos para modelado de superficie usando se?ales de polarizacion.
GB2587671A (en) * 2019-10-02 2021-04-07 Advanced Mobility Res And Development Ltd Systems and methods for aircraft
EP4042101A4 (en) 2019-10-07 2023-11-22 Boston Polarimetrics, Inc. SYSTEMS AND METHODS FOR DETECTING SURFACE NORMALS USING POLARIZATION
US11659135B2 (en) 2019-10-30 2023-05-23 Corephotonics Ltd. Slow or fast motion video using depth information
JP7329143B2 (ja) 2019-11-30 2023-08-17 ボストン ポーラリメトリックス,インコーポレイティド 偏光キューを用いた透明な物体のセグメンテーションのためのシステム及び方法
US11949976B2 (en) 2019-12-09 2024-04-02 Corephotonics Ltd. Systems and methods for obtaining a smart panoramic image
US11770618B2 (en) 2019-12-09 2023-09-26 Corephotonics Ltd. Systems and methods for obtaining a smart panoramic image
CN111031209B (zh) * 2019-12-17 2021-11-05 威海华菱光电股份有限公司 图像处理装置
US11195303B2 (en) 2020-01-29 2021-12-07 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
CN115428028A (zh) 2020-01-30 2022-12-02 因思创新有限责任公司 用于合成用于在包括偏振图像的不同成像模态下训练统计模型的数据的系统和方法
WO2021162173A1 (ko) * 2020-02-14 2021-08-19 엘지전자 주식회사 멀티 카메라, 이미지를 촬영하는 장치 및 그 방법
US11693064B2 (en) 2020-04-26 2023-07-04 Corephotonics Ltd. Temperature control for Hall bar sensor correction
WO2021234515A1 (en) 2020-05-17 2021-11-25 Corephotonics Ltd. Image stitching in the presence of a full field of view reference image
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
CN117572549A (zh) 2020-05-30 2024-02-20 核心光电有限公司 用于获得超微距图像的系统和方法
KR20210150704A (ko) 2020-06-04 2021-12-13 삼성전자주식회사 라인 인터리빙 컨트롤러 및 이를 포함하는 이미지 신호 프로세서
KR102455520B1 (ko) * 2020-06-05 2022-10-17 한국과학기술원 마이크로렌즈 어레이를 이용한 초박형 카메라 장치 그리고 이의 다기능 이미징 방법
WO2022013753A1 (en) 2020-07-15 2022-01-20 Corephotonics Ltd. Point of view aberrations correction in a scanning folded camera
US11637977B2 (en) 2020-07-15 2023-04-25 Corephotonics Ltd. Image sensors and sensing methods to obtain time-of-flight and phase detection information
CN114071027B (zh) * 2020-07-29 2023-04-28 华为技术有限公司 一种多数据传输通道的融合装置和电子设备
WO2022023914A1 (en) 2020-07-31 2022-02-03 Corephotonics Ltd. Hall sensor - magnet geometry for large stroke linear position sensing
CN116679419A (zh) 2020-08-12 2023-09-01 核心光电有限公司 用于光学防抖的装置和方法
JP7419204B2 (ja) * 2020-09-18 2024-01-22 株式会社東芝 画像処理装置
CN116420105A (zh) * 2020-09-30 2023-07-11 斯纳普公司 用于增强现实护目镜中的计算机视觉模式的低功耗相机管线
US20220164350A1 (en) * 2020-11-25 2022-05-26 Waymo Llc Searching an autonomous vehicle sensor data repository based on context embedding
KR20220075028A (ko) 2020-11-26 2022-06-07 삼성전자주식회사 다중 크롭 기능을 갖는 이미지 센서를 포함하는 전자 장치
CN112689072A (zh) * 2020-12-23 2021-04-20 合肥安迅精密技术有限公司 一种相机系统
CN115190254A (zh) * 2021-04-07 2022-10-14 影石创新科技股份有限公司 多个视觉传感器的同步曝光电路、曝光方法及曝光装置
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
US20230123736A1 (en) * 2021-10-14 2023-04-20 Redzone Robotics, Inc. Data translation and interoperability
US11995012B2 (en) * 2022-03-15 2024-05-28 Samsung Electronics Co., Ltd. High speed interface for multi image sensor device
US11818329B1 (en) * 2022-09-21 2023-11-14 Ghost Autonomy Inc. Synchronizing stereoscopic cameras using padding data setting modification
US20240163571A1 (en) * 2022-11-14 2024-05-16 Samsung Electronics Co., Ltd. Image processing apparatus including line interleaving controller and operating method thereof
CN117729394B (zh) * 2024-02-18 2024-04-30 厦门瑞为信息技术有限公司 单个图像处理模块同时处理多个图像传感器的方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006518147A (ja) * 2003-02-17 2006-08-03 アクシス アクチボラグ パンおよび/またはチルト機能を有するカメラ

Family Cites Families (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8030A (en) * 1851-04-08 Celia b
US4323925A (en) 1980-07-07 1982-04-06 Avco Everett Research Laboratory, Inc. Method and apparatus for arraying image sensor modules
US4523226A (en) 1982-01-27 1985-06-11 Stereographics Corporation Stereoscopic television system
JPH0530423A (ja) 1991-07-25 1993-02-05 Nippon Television Network Corp ワイド画面edtv信号用映像切替装置
WO1994018789A1 (en) 1993-02-11 1994-08-18 Polycom, Inc. Resolution enhancement system
JPH06350937A (ja) 1993-06-14 1994-12-22 Pioneer Electron Corp 画像合成再生装置
DE69430153T2 (de) 1993-06-21 2002-09-05 Nippon Telegraph & Telephone Verfahren und Vorrichtung zur dreidimensionalen Bilderzeugung von Objekten
WO1995006283A1 (en) 1993-08-24 1995-03-02 Downs Roger C Topography processor system
JPH09507349A (ja) 1993-12-29 1997-07-22 ライカ アクチエンゲゼルシャフト 表示装置上に立体ビデオ映像を表示するための方法及び装置
US5786850A (en) 1994-02-17 1998-07-28 Ultrak, Inc. Multiple room portable camera system
JP3428132B2 (ja) * 1994-03-14 2003-07-22 ソニー株式会社 テレビジョン方式及び表示装置
US6064355A (en) 1994-05-24 2000-05-16 Texas Instruments Incorporated Method and apparatus for playback with a virtual reality system
DE19542308A1 (de) 1994-11-25 1996-05-30 Zeiss Carl Fa Verfahren und Vorrichtung zur Darstellung dreidimensionaler Videobilder
JP3771954B2 (ja) 1995-08-04 2006-05-10 ソニー株式会社 画像表示制御装置および方法
US5995140A (en) * 1995-08-28 1999-11-30 Ultrak, Inc. System and method for synchronization of multiple video cameras
US6108005A (en) 1996-08-30 2000-08-22 Space Corporation Method for producing a synthesized stereoscopic image
UA22127C2 (uk) 1996-09-10 1998-04-30 Сергій Іванович Мірошніченко Телевізійhа система високої розрізhяльhої здатhості
US6278480B1 (en) 1997-02-07 2001-08-21 Canon Kabushiki Kaisha Compound eye camera system
US6137580A (en) * 1998-09-22 2000-10-24 Creo Srl Autofocus system
GB2343320B (en) * 1998-10-31 2003-03-26 Ibm Camera system for three dimentional images and video
WO2000039998A2 (en) 1998-12-30 2000-07-06 Chequemate International, Inc. System and method for recording and broadcasting three-dimensional video
US6611289B1 (en) 1999-01-15 2003-08-26 Yanbin Yu Digital cameras using multiple sensors with multiple lenses
US7050085B1 (en) 2000-10-26 2006-05-23 Imove, Inc. System and method for camera calibration
JP3619063B2 (ja) 1999-07-08 2005-02-09 キヤノン株式会社 立体画像処理装置、その方法、立体視パラメータ設定装置、その方法そしてコンピュータプログラム記憶媒体
GB2355612A (en) 1999-10-19 2001-04-25 Tricorder Technology Plc Image processing arrangement producing a combined output signal from input video signals.
AU2599701A (en) 1999-12-28 2001-07-09 Vrex, Inc. A 3d camera
WO2001097531A2 (en) 2000-06-12 2001-12-20 Vrex, Inc. Electronic stereoscopic media delivery system
JP2001069530A (ja) 2000-07-28 2001-03-16 Fujitsu Ltd 立体映像高能率符号化装置
EP3388784B1 (en) 2001-05-04 2019-07-17 Vexcel Imaging GmbH Method and large format camera for acquiring a large format image of a large area object
US7002618B2 (en) 2001-06-01 2006-02-21 Stereographics Corporation Plano-stereoscopic DVD movie
US7277121B2 (en) 2001-08-29 2007-10-02 Sanyo Electric Co., Ltd. Stereoscopic image processing and display system
JP3789794B2 (ja) 2001-09-26 2006-06-28 三洋電機株式会社 立体画像処理方法、装置、およびシステム
US7319720B2 (en) 2002-01-28 2008-01-15 Microsoft Corporation Stereoscopic video
CA2380105A1 (en) 2002-04-09 2003-10-09 Nicholas Routhier Process and system for encoding and playback of stereoscopic video sequences
WO2004001667A2 (en) * 2002-06-21 2003-12-31 The Trustees Of Columbia University In The City Of New York Systems and methods for de-blurring motion blurred images
US7804995B2 (en) 2002-07-02 2010-09-28 Reald Inc. Stereoscopic format converter
US20040075741A1 (en) * 2002-10-17 2004-04-22 Berkey Thomas F. Multiple camera image multiplexer
JP4252105B2 (ja) 2002-12-13 2009-04-08 シャープ株式会社 画像データ作成装置及び画像データ再生装置
KR100477801B1 (ko) 2002-12-26 2005-03-22 한국전자통신연구원 3차원 영상정보 기술장치와 그 방법 및 이를 이용한 3차원영상정보 검색장치 및 그 방법
US7525576B2 (en) * 2003-02-17 2009-04-28 Axis, Ab Method and apparatus for panning and tilting a camera
KR100771299B1 (ko) 2003-06-26 2007-10-29 삼성전기주식회사 색 보간용 라인 버퍼 및 라인 데이터 제공 방법
SE0302065D0 (sv) * 2003-07-14 2003-07-14 Stefan Carlsson Video - method and apparatus
RU2250504C1 (ru) 2003-07-18 2005-04-20 Мироничев Сергей Юрьевич Способ многоканального видеоаудионаблюдения и реализующая его интегрированная высокочастотная система
US7112774B2 (en) 2003-10-09 2006-09-26 Avago Technologies Sensor Ip (Singapore) Pte. Ltd CMOS stereo imaging system and method
JP4483261B2 (ja) 2003-10-24 2010-06-16 ソニー株式会社 立体視画像処理装置
JP4293053B2 (ja) * 2004-05-19 2009-07-08 ソニー株式会社 撮像装置及び方法
JP2006005608A (ja) 2004-06-17 2006-01-05 Hitachi Ltd 撮像装置
JP4424088B2 (ja) * 2004-06-25 2010-03-03 株式会社日立製作所 撮像装置
US20060054782A1 (en) 2004-08-25 2006-03-16 Olsen Richard I Apparatus for multiple camera devices and method of operating same
KR100782811B1 (ko) * 2005-02-04 2007-12-06 삼성전자주식회사 영상의 주파수 특성에 따라 포맷을 달리하는 스테레오 영상 합성 방법 및 장치와, 그 영상의 송신 및 수신 방법과, 그 영상의 재생 방법 및 장치
US7561191B2 (en) 2005-02-18 2009-07-14 Eastman Kodak Company Camera phone using multiple lenses and image sensors to provide an extended zoom range
US7206136B2 (en) 2005-02-18 2007-04-17 Eastman Kodak Company Digital camera using multiple lenses and image sensors to provide an extended zoom range
US7577881B1 (en) 2005-05-10 2009-08-18 Ikanos Communications Inc. Method and apparatus for an interleaver
JP4665166B2 (ja) 2005-06-29 2011-04-06 ソニー株式会社 ステレオ画像処理装置、ステレオ画像処理方法およびステレオ画像処理用プログラム
US20070146478A1 (en) 2005-07-14 2007-06-28 Butler-Smith Bernard J Stereoscopic 3D rig calibration and viewing device
WO2007014293A1 (en) 2005-07-25 2007-02-01 The Regents Of The University Of California Digital imaging system and method to produce mosaic images
JP4630149B2 (ja) 2005-07-26 2011-02-09 シャープ株式会社 画像処理装置
JP4185926B2 (ja) 2005-08-26 2008-11-26 ファナック株式会社 ロボット協調制御方法及びシステム
KR101185870B1 (ko) 2005-10-12 2012-09-25 삼성전자주식회사 3d 입체 영상 처리 장치 및 방법
TW200721803A (en) 2005-10-17 2007-06-01 Via Tech Inc 3-D stereoscopic image display system
JP4199238B2 (ja) 2006-01-11 2008-12-17 パナソニック株式会社 撮影システム
US20070248260A1 (en) 2006-04-20 2007-10-25 Nokia Corporation Supporting a 3D presentation
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
US8456515B2 (en) * 2006-07-25 2013-06-04 Qualcomm Incorporated Stereo image and video directional mapping of offset
KR101311896B1 (ko) 2006-11-14 2013-10-14 삼성전자주식회사 입체 영상의 변위 조정방법 및 이를 적용한 입체 영상장치
US8330801B2 (en) 2006-12-22 2012-12-11 Qualcomm Incorporated Complexity-adaptive 2D-to-3D video sequence conversion
US8520079B2 (en) 2007-02-15 2013-08-27 Pictometry International Corp. Event multiplexer for managing the capture of images
EP1988713A1 (en) * 2007-04-30 2008-11-05 STMicroelectronics (Research & Development) Limited Image processing apparatus and method using padding data
JP4720785B2 (ja) 2007-05-21 2011-07-13 富士フイルム株式会社 撮像装置、画像再生装置、撮像方法及びプログラム
US8794526B2 (en) * 2007-06-04 2014-08-05 Hand Held Products, Inc. Indicia reading terminal processing plurality of frames of image data responsively to trigger signal activation
US8009200B2 (en) * 2007-06-15 2011-08-30 Microsoft Corporation Multiple sensor input data synthesis
KR101313740B1 (ko) 2007-10-08 2013-10-15 주식회사 스테레오피아 원소스 멀티유즈 스테레오 카메라 및 스테레오 영상 컨텐츠제작방법
CN101286000A (zh) * 2008-05-30 2008-10-15 钟磊 N镜头立体数码相机
JP5512683B2 (ja) * 2008-09-11 2014-06-04 ユニバーシティ オブ マルタ 同期化された映像データを生成及び送信するための方法及び装置
JP4793451B2 (ja) 2009-01-21 2011-10-12 ソニー株式会社 信号処理装置、画像表示装置、信号処理方法およびコンピュータプログラム
GB0912970D0 (en) 2009-07-27 2009-09-02 St Microelectronics Res & Dev Improvements in or relating to a sensor and sensor system for a camera
US9544661B2 (en) 2009-09-03 2017-01-10 Lg Electronics Inc. Cable broadcast receiver and 3D video data processing method thereof
US9001227B2 (en) 2010-04-05 2015-04-07 Qualcomm Incorporated Combining data from multiple image sensors
US8896668B2 (en) 2010-04-05 2014-11-25 Qualcomm Incorporated Combining data from multiple image sensors

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006518147A (ja) * 2003-02-17 2006-08-03 アクシス アクチボラグ パンおよび/またはチルト機能を有するカメラ

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016199593A1 (ja) * 2015-06-10 2016-12-15 ソニー株式会社 画像処理装置および方法
JP2016220254A (ja) * 2016-09-14 2016-12-22 株式会社リコー 撮像装置

Also Published As

Publication number Publication date
KR101399718B1 (ko) 2014-05-27
KR101512222B1 (ko) 2015-04-14
BR112012025182A2 (pt) 2016-06-21
JP5559416B2 (ja) 2014-07-23
WO2011127076A1 (en) 2011-10-13
KR20130028096A (ko) 2013-03-18
US20110242356A1 (en) 2011-10-06
SG184225A1 (en) 2012-11-29
KR20130006503A (ko) 2013-01-16
ZA201208298B (en) 2013-07-31
CN102884783B (zh) 2017-03-08
TWI508520B (zh) 2015-11-11
EP2556657A1 (en) 2013-02-13
CN102884783A (zh) 2013-01-16
US9001227B2 (en) 2015-04-07
TW201205308A (en) 2012-02-01
WO2011127077A1 (en) 2011-10-13
IL222289A0 (en) 2012-12-31
TW201212643A (en) 2012-03-16
JP2013530558A (ja) 2013-07-25
RU2012146968A (ru) 2014-05-20
JP5675959B2 (ja) 2015-02-25
EP2556658A1 (en) 2013-02-13
AR081161A1 (es) 2012-07-04
BR112012025366A2 (pt) 2016-06-28
JP2013528021A (ja) 2013-07-04
AU2011237801A1 (en) 2012-11-01
AR081486A1 (es) 2012-09-19
AR081160A1 (es) 2012-07-04
EP2556656A1 (en) 2013-02-13
TW201210314A (en) 2012-03-01
KR20120137432A (ko) 2012-12-20
KR101517661B1 (ko) 2015-05-04
CN102859987A (zh) 2013-01-02
WO2011127078A1 (en) 2011-10-13
US20110242355A1 (en) 2011-10-06
CA2794682A1 (en) 2011-10-13
TWI442766B (zh) 2014-06-21
CN102870401B (zh) 2016-04-06
CN102870401A (zh) 2013-01-09
US20110242342A1 (en) 2011-10-06

Similar Documents

Publication Publication Date Title
JP5559416B2 (ja) 複数の画像センサからのデータの合成
US8896668B2 (en) Combining data from multiple image sensors
JP2011216948A (ja) カメラシステム、映像処理装置及びカメラ装置
JP7118659B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム
US11218679B2 (en) Image processing device, image processing method, and imaging device
JP2003348605A (ja) カラービデオカメラ

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131022

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140117

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140605

R150 Certificate of patent or registration of utility model

Ref document number: 5559416

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250