JP2021507637A - マルチカメラ画像処理 - Google Patents

マルチカメラ画像処理 Download PDF

Info

Publication number
JP2021507637A
JP2021507637A JP2020534941A JP2020534941A JP2021507637A JP 2021507637 A JP2021507637 A JP 2021507637A JP 2020534941 A JP2020534941 A JP 2020534941A JP 2020534941 A JP2020534941 A JP 2020534941A JP 2021507637 A JP2021507637 A JP 2021507637A
Authority
JP
Japan
Prior art keywords
color temperature
cameras
illuminance
camera
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020534941A
Other languages
English (en)
Other versions
JP7318953B2 (ja
Inventor
ダブラル シャーシャンク
ダブラル シャーシャンク
フア ギャング
フア ギャング
マングラ マヤンク
マングラ マヤンク
Original Assignee
日本テキサス・インスツルメンツ合同会社
テキサス インスツルメンツ インコーポレイテッド
テキサス インスツルメンツ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本テキサス・インスツルメンツ合同会社, テキサス インスツルメンツ インコーポレイテッド, テキサス インスツルメンツ インコーポレイテッド filed Critical 日本テキサス・インスツルメンツ合同会社
Publication of JP2021507637A publication Critical patent/JP2021507637A/ja
Application granted granted Critical
Publication of JP7318953B2 publication Critical patent/JP7318953B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/268Signal distribution or switching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Studio Circuits (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

説明される例において、システムオンチップ(SoC)(102)が、画像処理システム(100)における複数のカメラ(105)の動的グループ化を実装する。SoC(102)は、画像信号プロセッサ(ISP)(104)を含み、画像信号プロセッサ(ISP)(104)は、複数のカメラ(105)から画像に対応する信号を受信し、カメラ(105)の各々によって観察された測定視野照度及び色温度に基づいて、カメラ(105)をグループに動的グループ化し、それらグループの1つのグループに関連するカメラ(105)を同じ露光/利得設定に割り当てるように構成される。SoC(102)は、統計エンジン(106)を更に含み、統計エンジン(106)は、ISP(104)から画像信号及び画像信号に関連する統計を受け取り、ISP(104)に転送するため、画像信号に基づいて各画像の画像照度及び色温度の測定値を決定するように構成される。

Description

本願は、画像処理システムに関し、特に、画像処理応用例におけるマルチカメラ調和のための事前処理スキームに関する。
サラウンドビューシステム等の画像処理システムは、複数のカメラから受け取った画像から画像を結合する。或る例において、駐車支援応用例を実装するために車両サラウンドビューシステムが用いられ、車両の周囲の全視野を網羅するように車両の様々な箇所に4つのカメラが配置される。画像処理システムは、複数のカメラによって撮像された画像から結合された画像を形成する。結合された画像は、例えば、車両の周りの潜在的な障害に関する情報を集めるために用いられる。
本開示は、画像処理応用例におけるマルチカメラ調和のための事前処理スキームを実装するためのシステム及び方法に関する。
一例において、画像処理システムを実装するシステムオンチップ(SoC)が開示される。SoCは画像信号プロセッサ(ISP)を含み、画像信号プロセッサ(ISP)は、複数のカメラから或る画像に対応する信号を受信し、カメラの各々によって観察された測定視野照度及び/又は色温度に基づいて、それらのカメラを幾つかのグループに動的にグループ化し、それらのグループの1つのグループに関連するカメラを、同じ露光/利得設定に割り当てるように構成される。SoCは統計エンジンを更に含み、統計エンジンは、ISPから画像信号及び画像信号に関連する統計を受け取り、ISPに転送するために画像信号に基づいて各画像の画像照度及び/又は色温度の測定値を決定するように構成される。
別の例において、2つ又はそれ以上のカメラを動的にグループ化することによって画像処理システムを実装するための方法が開示される。この方法は、2つ又はそれ以上のカメラ画像処理システム内の各カメラの視野照度及び/又は色温度を統計エンジンによって推定することを含む。この方法は、2つ又はそれ以上のカメラを、その2つ又はそれ以上のカメラ間の推定された視野照度及び/又は色温度のスプレッドに基づいて、画像信号プロセッサ(ISP)により1つ又は複数のグループにグループ化することを更に含み、スプレッドは、2つ又はそれ以上のカメラの最小測定視野照度及び/又は色温度と、2つ又はそれ以上のカメラの最大測定視野照度及び/又は色温度とを決定することによって計算される。この方法は更に、各グループに対するカメラ露光/利得設定をISPによって選択することを更に含み、それらのグループの所与の1つ内の1つ又は複数のカメラが同じカメラ露光/利得設定を有する。
更に別の例において、2つ又はそれ以上のカメラを動的にグループ化することによって画像処理システムを実装するための方法が開示される。この方法は、2つ又はそれ以上のカメラ画像処理システム内の各カメラの視野照度及び/又は色温度を、統計エンジンによって推定することを含む。この方法は、2つ又はそれ以上のカメラがグループ化され得る複数の手法を画像信号プロセッサ(ISP)によって定義することを更に含む。この方法は、グループ化の複数の手法に対する1つ又は複数のコスト関数をISPによって定義することを更に含む。この方法は、カメラがグループ化され得る複数の手法の各々に対するコスト関数を、ISPによって、1つ又は複数のコスト関数に基づいて計算することを更に含む。この方法は、カメラを、コストを削減するため1つ又は複数のグループに、ISPによってグループ化することを更に含み、コストは、合成画像内において画像調和とダイナミックレンジが均衡する程度を定義する。この方法は、各グループに対するカメラ露光/利得設定をISPによって選択することを更に含み、これらのグループの所与の1つのグループ内の1つ又は複数のカメラは、同じカメラ露光/利得設定を有する。この方法は、2つ又はそれ以上のカメラ画像処理システムのカメラによって捕捉された画像をブレンドする合成画像をディスプレイに描画することを更に含む。
例示の画像処理システムのブロック図である。
例示の画像処理システムを実装するために用いられる例示のハードウェア構成要素のブロック図である。
例示の画像処理カメラシステムの図である。
4カメラ画像処理カメラシステムにおいて近傍の視野間で重なる領域の例である。
画像処理システムを実装する車両の例示の図を示す。
図5の車両によって観察されるシーンを図示する例示の合成画像を示す。
本明細書に開示されるように実装された画像処理システムにおいて用いられる例示のカメラのブロック図である。
画像処理システムによって行われる例示の動作の概要を図示する。
同じ露光/利得設定を備える1つのグループにグループ化された4つのカメラを備える画像処理システムの例示の状態である。
各カメラが同じ露光/利得設定を持つように割り当てられる低ダイナミックレンジ設定を観察する画像処理システムの例示の画像出力を図示する。
1つのカメラが分離され、他のカメラとは異なるそれ自体の露光/利得設定に割り当てられた画像処理システムの例示の状態である。
カメラが分離されている、高ダイナミックレンジ設定を観察する画像処理システムの例示の画像出力を図示する。
ヒューリスティックを用いてカメラを動的にグループ化することによって画像処理システムを実装するための例示の方法である。
例示の動的なカメラグループ化のグラフである。
4つのカメラがループ構成に配置される場合、全数探索を用いてカメラが検討及びグループ化される例示の手法を図示する。
全数探索を用いてカメラを動的にグループ化することによって画像システムを実装するための例示の方法である。
コストを、照度及び/又は色温度の比の関数として表示するグラフを図示する。
グループにわたる低照度変化に対する例示のコスト関数を示す。
本明細書に開示されるシステム及び方法は、システムオンチップ(SoC)内に埋め込まれるマルチチャネル画像信号プロセッサ(ISP)を用いる画像処理システムを実装する。ISPは、複数のカメラから画像を受け取り、画像統計を生成する。この画像統計は、設定の動的レンジを決定するために、統合された統計エンジンによって処理される。或る設定が、複数のカメラによって複数の角度から捕捉された集合的シーンを表す。カメラがシーンを観察している照度及び/又は色温度に従って、カメラを幾つかのグループに動的に配置する、動的なグループ化方法が実装される。マルチチャネルISP及び統合統計エンジンアーキテクチャは、動的なグループ化方法とともに、高い画像品質を備える効率的な画像処理解決策を提供する。本明細書において開示される画像処理システムは、種々のカメラソースからの画像をともにブレンドして複合画像にする車両サラウンドビューシステム等の、サラウンドビュー画像合成システムを実装するために用いられ得る。
本明細書に開示される画像処理解決策は、SoCの外部にある複数のISPを用いる解決策と比較して、リソース消費が少なく、高い画像品質を提供する。また、本明細書に開示される画像処理解決策は、合成画像における測光差を低減するための後処理方法を実装するために図形処理ユニット(GPU)及び/又はデジタル信号プロセッサ(DSP)を用いる解決策と比べて、リソース消費が少なくて済む。本明細書に開示される解決策は、レンズ歪補正及び視点変換を行うために幾何学変換エンジンを用い、測光差をなくすための後処理を必要としない。一例において、幾何学変換エンジンはGPUとし得る。また、SoC埋め込みISPの使用は、部品の数(例えば、外部ISPチップの数)を低減し、それによって、本明細書に開示される解決策を実装するための部品表及びコストを削減する。
本明細書に説明されるマルチチャネルISPは、複数のカメラからの信号を同時に処理する能力を提供するため複数のチャネルを有する。画像処理システムへの各入力画像がマルチチャネルISPを用いて処理される。幾つかの例において、マルチチャネルISPはSoC内に実装され、他の例において、マルチチャネルISPはSoCの外部で実装される。SoC内でマルチチャネルISPを使用することにより、画像チャネルの各々がグローバルノードから、即ち、ISPそれ自体から制御され得る。
マルチチャネルISPアーキテクチャは、カメラの各々から収集した統計を処理するために統合統計エンジンを用いる。マルチチャネルISPは、各カメラから統計(例えば、露出、照度、色温度、ホワイトバランス、焦点等)を収集し、その統計を統合統計エンジンに転送する。統合統計エンジンは、画像処理の前に統計をフォーマット(例えば、生フォーマット)で分析し、グローバル統計バッファを生成し、シーンを同種又は異種として分類するために、設定の総ダイナミックレンジを決定する。特に、設定の総ダイナミックレンジが閾値又はそれ以下である場合、シーンは同種として分類され、設定の総ダイナミックレンジが閾値を超える場合、シーンは異種として分類される。統合統計エンジンによって行われるシーンの分類及び統計の処理に基づいて、全体的に適正な露出及びホワイトバランスがISPによって選択される。このように、各画像に関連する統計は、各カメラの露出及びホワイトバランスに関する知的判定を行うために利用可能である。
ISPは、設定の決定されたダイナミックレンジに基づいてカメラをグループ化する動的グループ化を実装する。例えば、シーンが照度又は色温度の観点から同種として考えられる(ダイナミックレンジが閾値と等しいかそれ以下であることによって判定される)場合、グループ内の各カメラを同じ露出に設定することによってカメラがグループ化される。本明細書に用いられる場合、用語「露出」は、露出時間を含むカメラの露出レベルを指す。画像センサは、全体的な露出に影響を与える露出時間と増幅/変換利得との両方を有する。別の例において、シーンが異種である(閾値を超えるダイナミックレンジを示す)場合、1つ又は複数のカメラが既存のグループから除去される。こういった動的グループ化は、画像調和とダイナミックレンジとの間のトレードオフを均衡させる。
上述したように、カメラのグループ化は動的である。幾つかの例において、カメラは一日を通した光の変化に対応するように再グループ化される。或る例において、シーンのダイナミックレンジは、各カメラを横断する相対的に小さい或る時点におけるものである。この時点において、各カメラが同じグループに割り当てられる。また、この例を継続すると、光が変化するにつれて、ダイナミックレンジは閾値に到達し、カメラは再グループ化され、そのため、カメラのサブセットが所与のグループにあり、カメラの別のサブセットが別のグループにあるようになる。このように、カメラは、カメラによって観察される設定(照度及び/又は色温度)のパラメータが変化するにつれて動的に再グループ化される。
このシステムは、品質視覚体験を提供し、(例えば、ダイナミックレンジが低いとき)標準ダイナミックレンジ設定で可視シームラインをなくすことによって、また(例えば、ダイナミックレンジが高いとき)非標準ダイナミックレンジ設定でダイナミックレンジを保持することによって、調和を達成する。特に、統計エンジン及びカメラの動的グループ化を組み込むことによって、計算を多用する後処理方法を不要にする。全体として、このシステムは、コスト効率がよく、より低いコスト/電力で、視覚的に優良な出力を提供する。
本明細書において開示されるシステム及び方法は、画像事前処理が1つのSoCにおいて成されるが、実際の画像合成は別のSoCにおいて成されるという技術的解決策に適用する。このように、本明細書において開示されるシステム及び方法は、画像合成が同じ部分又はシステムにおいて発生するか否かに関係なく、同じグループ内のカメラに露光/利得設定を割り当てるために動的グループ化が用いられる画像事前処理に適用する。また、本明細書に開示されるシステム及び方法は、画像事前処理及び動的グループ化及び画像合成が同じSoCにおいて成される技術的解決策に適用する。
図1は、画像処理システム100の実装の概要を示すブロック図である。画像処理システム100は、システムオンチップ(SoC)102内に埋め込まれる画像信号プロセッサ(ISP)104を含む。ISP104は、2つ又はそれ以上のカメラ1...Nからの或る画像に対応する信号を受信するように構成され、Nは2以上の整数である。ISP104は更に、複数のカメラ105の露光/利得設定を観察に応じて割り当てることによって、2つ又はそれ以上のカメラ1...Nを、カメラ1...Nの各々によって観察された照度及び/又は色温度に基づいて、幾つかのグループに動的グループ化するように構成される。統計エンジン106が、ISP104から画像信号及び画像信号に関連する統計を受信し、2つ又はそれ以上のカメラ1...Nから捕捉された画像に対応する設定の総ダイナミックレンジを決定するように構成される。統計エンジン106は、設定の総ダイナミックレンジをISP104に転送する。幾何学変換エンジン108が、2つ又はそれ以上のカメラ1...Nによって捕捉された画像を結合する描画された合成画像110を描画するため、ISP104から受け取った画像の幾何学変換を行うように構成される。
図1に示される例において、幾何学変換エンジン108はSoC102の外部である。しかしながら他の例において、幾何学変換エンジン108はSoC102に埋め込まれる。幾つかの例において、幾何学変換エンジン108はグラフィックス処理ユニット(GPU)であり、別の例において、幾何学変換エンジン108は、専用ハードウェアアクセラレータ(HWA)、デジタル信号プロセッサ(DSP)、又は別のタイプの汎用プロセッサである。幾何学変換エンジン108が汎用プロセッサによって実装される例では、幾つかの例において、汎用プロセッサは汎用処理ユニット112と同じであるが、他の例において、汎用プロセッサは、汎用処理ユニット112とは異なるモジュールである。幾つかの例において、GPUは省かれ得る。合成画像を提供するために、幾何学変換エンジン108は、レンズ歪補正及び視点変換を実行する。SoC102内の汎用処理ユニット112は、ISP104、統計エンジン106、及び幾つかの例において幾何学変換エンジン108を制御するための制御コードを実行する。
一例において、カメラ1...Nの各々は、センサ、レンズ、ハウジング、及びデジタイザを含み、そのため、ISP104はカメラ1...Nから画像データを受信する。ISP104は、カメラ1...Nの各々から受け取った画像を処理する。或る例において、ISPはマルチチャネルISPとして実装され、そのため、2つ又はそれ以上のカメラ105の各々に対する個々のISPの必要性がなくなる。更なる例において、ISP104は、バックチャネル制御信号又は他のフィードバック信号を介して、カメラ105の各々のグループ化に基づいて、カメラ1...Nの各々の露光/利得設定を設定/変更するように構成される。
カメラ105の各々は、シーン角度の照度及び/又は色温度を測定する。照度は、単位面積当たりの光束を測定する照度及び光束発散度の尺度を指し、典型的にルクスの単位(記号lx)で測定される。色温度は、光の色及び色相の尺度であり、理想的な黒体放射体の温度を指す。理想的な黒体放射体は光源のものに匹敵する色の光を放射する。色温度は、従来から、単位ケルビン(記号K)で表され、これは絶対温度に対する尺度の単位でもある。本明細書に説明される例に関連する文脈において、色温度は、単位面積当たりで観察される色合いとも呼ばれる。そのため、説明を簡潔にするために、「色温度」はシーンにおける光源の色を指す。
ダイナミックレンジは、総称として、シーンの最高照度尺度対シーンの最低照度尺度の比、及び、シーンの最高色温度対シーンの最低色温度の比を指す。ダイナミックレンジはデシベル(dB)で表される。ダイナミックレンジは、典型的に、倍率を備えるログ領域における比として表される。幾つかの例において、倍率は約20である。このように、一例において、ダイナミックレンジは式1によって表される。
式1:20log(最高照度/最低照度)=ダイナミックレンジ
用語「ダイナミックレンジ」の使い方が画像処理における標準用法と矛盾する場合、本明細書に説明される例において、ダイナミックレンジは、強度における差又は強度デルタとも称され得る。幾つかの例において、照度及び/又は色温度を組み込む総ダイナミックレンジに到達するために、照度及び/又は色温度の加重平均、及び、三次元黒体軌跡を横切るシーンにおいて観察される範囲を表すメートル法が用いられる。
動的グループ化プロセスは、同じグループにおけるカメラ105の各カメラがISP104によって同じ露光/利得設定に割り当てられるように実行される。従って、ISP104は、類似の照度及び/又は類似の色温度を備えるシーンの区分を観察するカメラ105を同じ露光/利得設定に設定するようにプログラムされる。類似の照度及び/又は色温度を有することは、測定照度又は色温度が閾値内であることを指す。例として、カメラ1が10ルクスの光を観察し、カメラ2が11ルクスの光を観察している場合、測定照度が充分に類似しているので、カメラ1とカメラ2は、ISP104を介して、共通のグループに割り当てられ、同じ露光/利得設定を有するように設定される。この例においてカメラ105を同じ露光/利得設定に設定することによって、カメラ1及びカメラ2からの画像がともにブレンドされて描画された合成画像110を形成するときに、シームラインが回避される。別の例において、カメラ1とカメラ2の間の露出差が閾値を超える(例えば、大きな照度差がカメラ1と2によって観察される)場合、ISP104は、カメラ1を第1のグループに、カメラ2を異なる露出を有する第2のグループに割り当てる。例えば、所与のカメラ105がシーンの暗い領域を観察しているが、別のカメラ105が明るい領域を観察しているシーンがある場合、カメラを同じ露光/利得設定に設定することは、所与の及び他のカメラ105の1つによって捕捉されたシーンの詳細を過度に限定し得る。即ち、1つの画像が暗くなりすぎるか露出過度になりすぎる恐れがある。このように、カメラ105を異なる露出を有する異なるグループに割り当てることによって、SoCは、描画される合成画像110に対するシーンのダイナミックレンジを保持する必要性と画像調和(そのため、合成画像がシームラインを有する)の必要性を絶えず均衡させる。
カメラを異なるグループに割り当てるために用いられる閾値パラメータは、構成可能であり、従って、プログラム可能である。カメラ105は、カメラ105によって観察される設定が変わると、動的に再グループ化される。幾つかの例において、カメラ105は、一日の光の変化に合わせて再グループ化される。
ISP104は、カメラのグループ化が実施されるにつれて、各カメラの露光/利得設定を割り当てるための自動露出機能を実装する。或る例において、自動露出機能は、ISP104内の機能的ソフトウェアモジュールとして実装される。動的グループ化処理は、ISP104によって幾つかの手法で実装される。一例において、動的グループ化処理は、類似の視野照度及び/又は色温度を備えるカメラを同じグループにグループ化するヒューリスティックに基づいてカメラをグループ化する。別の例において、動的グループ化処理は、カメラを全数探索に基づいてグループ化する。幾つかの例において、全数探索グループ化は、カメラがグループ化される許容し得る手法に対するコストを計算し、コストを削減するためにカメラをグループ化する。これに関連して、コストは画像調和とダイナミックレンジが均衡される程度を定義し、そのため、画像調和が達成されダイナミックレンジが保持される。
このように、画像処理システム100を用いることにより、画像調和とダイナミックレンジの保持との間のトレードオフの注意深い均衡を提供して、描画された合成画像110においてシーンの詳細が可視化されるようにすることによって、描画された合成画像110は高い画像品質を達成する。ISP104は、複数の外部ISPチップの必要性をなくすことによってコストを低減する。また、GPU又はDSP、又は、描画された合成画像110における測光差を低減するために必要とされる幾何学変換エンジン108によって複雑な後処理方法を実装するために典型的に用いられる数Ghz(より多くの電力を使用する)に比べて、N個のカメラ105の動的グループ化は、より低い周波数(例えば、200Mhz)で、典型的に少ない処理サイクルを用いる(例えば、幾何学変換エンジン108又はGPU/DSP使用解決策の場合の有意に高い割合とは異なり、ISPは汎用処理ユニット112の20%を使用する)。このように、ISP104によって実装されるN個のカメラ105の動的グループ化は、幾何学変換エンジン108又は個別のDSPによる複雑な後処理が行われないため、電力並びに面積を削減する。言い換えると、複雑な後処理において、幾何学変換エンジン108、GPU、又は個別のDSPを用いる必要性を回避することによって、低コスト化及び低放熱化が達成される。
図2は、図1に図示された画像処理システムを含む画像処理システム200を実装するために用いられる、例示のハードウェア構成要素のブロック図である。SoC202が、汎用処理ユニット212、電力管理回路(PMC)インタフェース216、統計エンジン206、画像信号プロセッサ(ISP)204、ビデオポート214、内部メモリ218、ディスプレイコントローラサブシステム220、周辺機器222、外部メモリコントローラ224、及びデジタル信号プロセッサ(DSP)232を含む。この例において、これらの部分は、システムバス231に双方向に接続される。幾何学変換エンジン208は、ISP204から受け取る画像の幾何学変換を行い、2つ又はそれ以上のカメラ1...Nによって捕捉される画像を結合する合成画像をディスプレイ228上に描画するように構成される。図2に示される例において、幾何学変換エンジン208は、SoC202の外部にある。他の例において、幾何学変換エンジン208は、SoC202内に埋め込まれる。
汎用処理ユニット212は制御コードを実行する。制御コードは、SoC202によって実行されると、ユーザとの相互作用を促進する。このように、汎用処理ユニット212は、SoC202が(典型的に周辺機器222を介して受け取られる)ユーザ入力にどのように応答するかを制御する。統計エンジン206は、ISP204から受け取る照度及び/又は色温度統計を処理して、カメラ1...Nの各々によって観察される設定の総ダイナミックレンジを決定する。ISP204は、画像の各々の照度及び/又は色温度に関連するデータを含む、カメラ205から受け取る画像及びデータを処理する。ISP204はまた、各カメラによって観察される照度及び/又は色温度の類似性に応じて、カメラの露出を(ビデオポート214を介して)設定するように、動的グループ化を行う。ISP204によって実装される動的グループ化は、合成され描画された画像に対する画像調和とダイナミックレンジとの間の計算されたトレードオフを提供する。或る例において、幾何学変換エンジン208は、レンズ歪補正及び視点変換を行うように構成される。視点変換が、あたかも画像が或る仮想視点から捕捉されたように見えるように画像を変換することによって視点を生成する。幾つかの例において、幾何学変換エンジン208はISP204内に実装される。
幾何学変換エンジン208は、ディスプレイ228上に表示されるべきデータの操作のために用いられる画像合成及びディスプレイ志向操作を行う。幾つかの例において、ISP204ではなく、幾何学変換エンジン208がレンズ歪補正及び視点変換を行うように構成される。幾つかの例において、幾何学変換エンジン208はグラフィックス処理ユニット(GPU)であり、他の例において、幾何学変換エンジン108は専用ハードウェアアクセラレータ(HWA)、デジタル信号プロセッサ(DSP)、又は別のタイプの汎用プロセッサである。幾何学変換エンジン208がDSPによって実装される例では、幾つかの例において、DSPはDSP232と同じであるが、他の例では、DSPはDSP232とは異なるモジュールである。幾何学変換エンジン208が汎用プロセッサによって実装される例では、幾つかの例では、汎用プロセッサは汎用処理ユニット212と同じであるが、他の例では、汎用プロセッサは汎用処理ユニット212とは異なるモジュールである。GPUは、画像処理システム、又は任意のタイプのマルチカメラシステム、又は複数画像のブレンディングの実装のための必須要件ではない。
ビデオポート214は、カメラ1...Nから入力画像を受け取る。ビデオポート214は、典型的に、処理の前に画像データを適切にバッファリングすることも含み、ISP204がカメラ205の露出をフィードバックループで設定することを促進する。内部メモリ218は、他のユニットによって用いられるデータをストアし、ユニット間でデータを渡すために用いられ得る。ディスプレイコントローラサブシステム220は、画像処理システム200によって用いられるディスプレイ228を駆動するための信号を生成する。少なくとも一例において、汎用処理ユニット212、ISP204、統計エンジン206、幾何学変換エンジン208、及び/又は、ディスプレイコントローラサブシステム220は、命令及びデータキャッシュを含む。少なくとも一例において、汎用処理ユニット212、ISP204、統計エンジン206、幾何学変換エンジン208、及び/又は、ディスプレイコントローラサブシステム220のための命令及びデータキャッシュは、それぞれ、汎用処理ユニット212、ISP204、統計エンジン206、幾何学変換エンジン208、及び/又は、ディスプレイコントローラサブシステム220の各々の中に実装される。少なくとも1つの他の例において、汎用処理ユニット212、ISP204、統計エンジン206、幾何学変換エンジン208、及び/又は、ディスプレイコントローラサブシステム220のための命令及びデータキャッシュは、内部メモリ218内に、SoC202内の他の処理ユニットに、又はSoC202の外部の処理ユニットによって実装される。幾つかの例において、周辺機器222は、ダイレクトメモリアクセスコントローラ、電力制御ロジック、プログラマブルタイマ、及び、外部システムとのデータ交換のための外部通信ポート等の種々の部分である。PMCインタフェース216は、SoC202に対する電力要求を管理するために、電力管理集積回路(PMIC)226とインタフェースする。外部メモリコントローラ224は、外部メモリ230へのデータ移動又は外部メモリ230からのデータ移動を制御する。或る例において、デジタル信号プロセッサ(DSP)232は、合成画像をディスプレイ228上に描画するためのブレンディング/スティッチング操作を行う。
図3は、図1及び図2によって説明されるような例示の画像処理システム300の図である。この例において、4つのカメラが、異なる4つのシーン角度、即ち、シーン角度1 351、シーン角度2 352、シーン角度3 353、及びシーン角度4 354を捕捉する。この例において、近傍のシーン角度が重なり、そのため、シーン角度1 351はシーン角度2 352及びシーン角度4 354と重なり、シーン角度2 352はシーン角度1 351及びシーン角度3 353と重なり、シーン角度3 353はシーン角度2 352及びシーン角度4 354と重なり、シーン角度4 354はシーン角度3 353及びシーン角度1 351と重なる。4つのカメラによって捕捉されたシーン角度(図3では、シーン角度1 351、シーン角度2 352、シーン角度3 353、及びシーン角度4 354)はシステムオンチップ(SoC)302に入力される。画像は、ISP304によって処理され、ISP304は4つのカメラの各々の露出をフィードバックループで設定するようにカメラの動的グループ化を実装する。ISP304によって実装されるカメラの動的グループ化は、合成シーン画像308の画像調和とダイナミックレンジの保持との間のトレードオフを均衡させるようにカメラをグループ化する。SoC302は、合成シーン画像308をディスプレイ端末306上に出力する。ディスプレイ端末306は、画像処理システム300のユーザによってアクセスされる。オートモーティブ(例えば、駐車支援システム)及びセキュリティシステム用を含む、多くの異なる利用例が画像処理システム300によってサポートされる。
図4は、図1に示される画像処理システム100、図2に示される画像処理システム200、及び/又は図3に示される画像処理システム300等の画像処理システムにおいて近傍の視野間で重なる領域の別の例である。図4に示されるように、複合画像合成は、視野1、視野2、視野3、及び視野4の4つの入力フレームからのデータを含む。重なる領域は、同じ物理的角度に対応するフレームの部分であり、2つの近傍のカメラによって捕捉される。図4に示される4つの視野は、例えば、車に搭載されたカメラ、或いはセキュリティ用途又はその他の画像処理システム用途のために建物内に設置されたカメラによって捕捉された角度に対応する。
図5は、図1の画像処理システム100、図2の画像処理システム200、又は図3の画像処理システム300を用いる画像合成システムを実装する車両501の例示の図形500を示す。車両501は、図5の例では、俯瞰視野で示される。車両501は、このように、車両501の各直交辺及び各角部に配置されて車両501に固定される8個のカメラ505を含む。このように、カメラ505は各々、第1の視野510、第2の視野512、第3の視野514、第4の視野516、第5の視野518、第6の視野520、第7の視野522、及び第8の視野524を提供するそれぞれの視点配向を有する。図示された例において、カメラ505は各々、約90°の視野を有するように示されている。しかしながら、他の例において、視野は他の角度及び配向を有する。カメラ505の各々は、(例えば、図1のSoC102、図2のSoC202、及び/又は図3のSoC302等のシステムオンチップ(SoC)を介して)結合されるリアルタイム画像データを、ディスプレイ端末306等のディスプレイ端末上に表示される合成画像として、提供する。その結果、ユーザは、車両501の描画された三次元表現に関する所与の仮想位置から、ユーザの視野視点に対応する位置視点に基づく位置及び配向における合成画像を見る。
また、図形500は、カメラ505によって提供される視野間の重なりを示す。図5の例において、図形500は、第1及び第2の視野510及び512に関連する第1の重なり550、第2及び第3の視野512及び514に関連する第2の重なり552、第3及び第4の視野514及び516に関連する第3の重なり554、及び第4及び第5の視野516及び518に関連する第4の重なり556を含む。図形500はまた、第5及び第6の視野518及び520に関連する第5の重なり558、第6及び第7の視野520及び522に関連する第6の重なり560、第7及び第8の視野522及び524に関連する第7の重なり562、及び第8及び第1の視野524及び510に関連する第8の重なり564を含む。幾つかの例において、画像信号プロセッサ(ISP)(図1のISP104、図2のISP204、及び図3のISP304等)は、カメラ505を介して提供される画像信号に基づいて、重なり(第1の重なり550、第2の重なり552、第3の重なり554、第4の重なり556、第5の重なり558、第6の重なり560、第7の重なり562、及び第8の重なり564)を識別するように構成される。幾つかの例において、SoC(図1のSoC102、図2のSoC202、又は図3のSoC302等)は、それぞれの重なり(第1の重なり550、第2の重なり552、第3の重なり554、第4の重なり556、第5の重なり558、第6の重なり560、第7の重なり562、及び第8の重なり564)において、画像データによって特徴付けられた画像をカメラ505の各々によって調整することによって、単一の連続した対象のシーンとして合成画像を生成するように構成される。従って、幾つかの例において、合成され描画された画像データは、車両501と、カメラ505の各々によって捕捉された対象のシーンの各々のリアルタイムビデオ画像との描画された三次元表現を含み、それらは、カメラ505の各々の視野510、512、514、516、518、520、522、及び524に関して連続的に重畳される。従って、合成画像は、例えば、車両501の描画された表現を実質的に囲むように重畳され、車両501の周りの、対応する対象のシーンのビデオ画像をユーザインタフェース24(例えば、ディスプレイ228又はディスプレイ端末306)を介してユーザに表示する。
図6は、描画された合成画像600の第1の例を図示する。描画された合成画像600は、車両601の描画された三次元の仮想表現(この例では、図5の例における車両501の3D表現)を含むものとして示される。この例において、描画された合成画像600は、図1の画像処理システム100、図2の画像処理システム200、又は図3の画像処理システム300を用いる画像合成システムによって、ともにスティッチングされている。この例において、ユーザは例えば、対象のシーンの三次元の特徴を確認することができる。描画された合成画像600は、車両601の描画された三次元の仮想表現を囲む単一の連続した対象のシーンとして表現される複合画像データを示す。複合画像データは例えば、図1の画像プロセッサ(ISP)104、図2のISP204、又は図3のISP304等の画像信号プロセッサに基づいて生成され、それらは、それぞれの視野510、512、514、516、518、520、522、及び524の間の、それぞれの重なり(第1の重なり550、第2の重なり552、第3の重なり554、第4の重なり556、第5の重なり558、第6の重なり560、第7の重なり562、及び第8の重なり564)において、図5のカメラ505の各々によって生成されるリアルタイムビデオデータ及び深度データをアラインする。従って、描画された合成画像600は、例えば、車両601の描画された三次元の仮想表現(又は図5の車両501)と、カメラ505の各々によって捕捉された対象のシーンの各々のリアルタイムビデオ画像とを含み、それらは、図5のカメラ505の各々のそれぞれの視野(第1の視野510、第2の視野512、第3の視野514、第4の視野516、第5の視野518、第6の視野520、第7の視野522、及び第8の視野524)に関して連続的に重畳される。
図6の例において、描画された合成画像600は、所与の位置視点からユーザに表示されるものとして示される。所与の位置視点は、車両601(又は図5の車両501)の描画された三次元の仮想表現から所定の距離、オフセットされ、車両601の描画された三次元の仮想表現の前方と右側との間から直角に下を見る視野に対応する配向角(例えば、球面座標系における方位及び極角)に基づく。位置視点は例えば、複合画像データのプラットフォーム中心視野を実装するユーザに基づき、その場合、ユーザの位置視点が、車両601の描画された三次元の仮想表現からオフセットされ、車両601の描画された三次元の仮想表現の上に実質的に中心がくる。プラットフォーム中心視野では、例として、ユーザは、図3のディスプレイ端末306内に実装されるユーザインタフェース等のユーザインタフェースを介して入力を提供して、視野配向をグラフィカル制御又はハードウェア制御を介して移動、ズーム、又は変化させて、位置視点を変化させる。従って、ユーザは、車両601の描画された三次元の仮想表現に関して実質的に任意の角度及び/又は任意の距離から、対象のシーンのリアルタイムビデオ画像を見る。また、ユーザは、例えば、ユーザインタフェースを実装して、カメラ505のそれぞれ1つの視点配向に実質的に類似するユーザの位置視点に関連するカメラ視点視野等の、異なる視野に切り替える。このように、合成画像は、或る例において、車両601が位置する地理的領域に対応する環境内の空間認識を提供するように表示される。
図7は、図1の画像処理システム100、図2の画像処理システム200、又は図3の画像処理システム300等の画像処理システムによる使用のために用いられ得る、例示のカメラ700である。従って、カメラ700は、図1に図示されたカメラ105、図2に図示されたカメラ205、及び図5に図示されたカメラ505のブロック図である。カメラ700は、センサ702、レンズ704、ハウジング706、及びデジタイザ708を含む。
幾つかの例において、センサ702は、電荷結合素子(CCD)又は相補型金属酸化物半導体(CMOS)である。レンズ704は、光を屈曲させ、屈折させ、センサ702上に焦点を合わせる。レンズ704は、センサ702、ハウジング706、及びデジタイザ708と併せて用いられ、オブジェクト及びシーンの画像を、写真フィルム上か又は画像を化学的又は電子的にストアできる別の媒体上に現像する。幾つかの例において、CCD及びCMOSセンサは、デジタイザ708を用いることなく光信号を電気信号に変換する。従って、幾つかの例において、カメラ700はデジタイザ708を含まない。CCDセンサは、アナログ電圧信号を出力するため、幾つかの例において、アナログデジタル(AD)変換のためのデジタイザ708を含む。CMOSセンサはデジタル信号を直接的に出力する。幾つかの例において、また特に図7に図示されたカメラ700において、画像処理システムがシステムオンチップ(SoC)内にISP(例えば、図1のISP104、図2のISP204、又は図3のISP304)を埋め込んでいるので、カメラ700は画像信号プロセッサ(ISP)を含まない。このように、SoC(例えば、図1のSoC102、図2のSoC202、又は図3のSoC302)は、異なるカメラ(例えば、図1のカメラ105、図2のカメラ205、又は図5のカメラ505)の各々に対して異なるISPを持つのではなく、1つのISPを埋め込む。
図8は、図1の画像処理システム100、図2の画像処理システム200、及び/又は図3の画像処理システム300等の画像処理システムによって行われる例示の動作の概要を図示する。この例において、4つの画像(画像851、画像852、画像853、及び画像854)が、4つの異なるカメラによって捕捉される。これらのカメラによって4つの画像が捕捉された後、レンズ歪補正802が行われ、その後、視点変換804が行われ、その後、ブレンディング/スティッチング動作806が行われて、描画された合成シーン画像808が生成される。視点変換804は、画像が或る仮想視点から捕捉されたかのように見えるように画像を変換することによって視点を生成する。1つの実装例において、描画された合成シーン画像808を生成するためのブレンディング/スティッチング動作806がデジタル信号プロセッサ(DSP)(図2のDSP232等)によって実行され、レンズ歪補正802及び視点変換804が、図1のISP104、図2のISP204、又は図3のISP304等の画像信号プロセッサ(ISP)によって実行される。別の実装例において、図1の幾何学変換エンジン108又は図2の幾何学変換エンジン208等の幾何学変換エンジン(幾つかの例において、幾何学変換エンジン108はグラフィックス処理ユニット(GPU)であり、幾何学変換エンジン208はグラフィックス処理ユニット(GPU)である)によって、レンズ歪補正802及び視点変換804が実行され、一方で、描画された合成シーン画像808を生成するためのブレンディング/スティッチング動作806がDSP(図2のDSP232等)によって実行される。幾つかの例において、合成画像は、図1の描画された合成画像110、図3の合成シーン画像308、及び/又は図6の描画された合成画像600を表す。
図9は、画像処理システム(例えば、図1の画像処理システム100、図2の画像処理システム200、及び/又は図3の画像処理システム300)の画像処理システム状態900であり、4つのカメラ905が同じ露出を有する1つのグループにグループ化されている。カメラ1〜4の各々はそれぞれの統計907を生成する。統計907は、自動露出、自動ホワイトバランス、及び自動焦点等のハードウェア支援統計を含む。カメラ905からの統計907は、自動露出エンジン909に提供され、自動露出エンジン909は、カメラをどのようにグループ化するかを決定し、それらを連続フィードバックループにグループ化する。自動露出エンジン909は、或る例において、システムオンチップ(SoC)内に埋め込まれた画像信号プロセッサ(ISP)(例えば、図1のSoC102内のISP104、図2のSoC202内のISP204、及び/又は図3のSoC302内のISP304)内の機能的ソフトウェアモジュールである。この特定の画像処理システム状態900において、4つのカメラ905は、(ブレンドされた)結果の描画された合成画像における可視シームラインを回避するために、自動露出エンジン909によって同じ露出を持つように設定される。画像処理システム状態900は、典型的に、カメラ1〜4によって測定されるダイナミックレンジの全体的な設定が低いときの状態である。カメラ1〜4が同じ露出を持つように割り当てられているので、ダイナミックレンジを低減することによって画像調和が達成される。
図10は、画像処理システムが図9における例示の画像処理システム状態900にあるときと同じ露光/利得設定を持つようにカメラがグループ化された後の画像処理システムの合成画像出力1000を図示する。同じ露光/利得設定を持つようにカメラをグループ化することは、通常、設定が全体的に低ダイナミックレンジにあるときに行われる。カメラが同じ露光/利得設定を持つようにグループ化されていない場合、少なくとも2つのカメラ間の露光/利得設定が異なり得るため、画像品質を低下させる可視シームライン(これは、1つのカメラの境界が終わり別のカメラの境界が開始する箇所を示す)が合成画像出力、特に、画像領域1001及び画像領域1003に存在する可能性がある。これに対し、図10では、画像領域1001及び画像領域1003内に可視シームラインは存在しない。これは、図9に示される画像処理システム状態900によって図示されるように、カメラが同じ露光/利得設定に割り当てられているためである。このように、図10ではえ、画像調和が達成され、そのため、シームラインが除去されている。画像調和は、多くのそのようなインスタンスにおいて、カメラが同じ露光/利得設定に割り当てられているときでも、ダイナミックレンジを妥協することなく達成される。
図11は1つのカメラが分離されている画像処理システム(例えば、図1の画像処理システム100、図2の画像処理システム200、及び/又は図3の画像処理システム300)の例示の画像処理システム状態1100である。この例において、図9に図示される例示の画像処理システム状態900と同様に、カメラ1〜4の各々はそれぞれの統計1107を生成する。統計1107は、自動露出、自動ホワイトバランス、及び自動焦点等のハードウェア支援統計を含む。カメラ1105からの統計1107は自動露出エンジン1109に提供され、自動露出エンジン1109は、カメラをどのようにグループ化するかを決定し、それらを連続フィードバックループにグループ化する。この特定の画像処理システム状態1100において、カメラ1は、自動露出エンジン1109の異なるインスタンスの第1のインスタンス、即ち自動露出エンジン1によって、第1の露光/利得設定に設定され、一方、カメラ2〜4は、自動露出エンジン1109の異なるインスタンスの第2のインスタンス、即ち、自動露出エンジン2によって第2の露光/利得設定を持つように設定される。第2の露光/利得設定は第1の露光/利得設定とは異なる。幾つかの例において、各自動露出エンジン1109(例えば、自動露出エンジン1及び自動露出エンジン2)は、システムオンチップ(SoC)(例えば、図1のSoC102内のISP104、図2のSoC202内のISP204、及び/又は図3のSoC302内ISP304)内に埋め込まれた画像信号プロセッサ(ISP)によって実行されているソフトウェアモジュールのインスタンスである。サラウンドサウンドビューシステムは、カメラ1〜4によって測定される場合に、典型的に、全体設定が高ダイナミックレンジを有するシチュエーションにおける画像処理システム状態1100にある。カメラ1はカメラ2〜4とは異なる露光/利得設定を備える異なるグループに割り当てられるので、画像調和を均衡させる一方で、結果の合成画像(例えば、図1の描画された合成画像110、図3の描画された合成シーン画像308、及び/又は図6の描画された合成画像600)に対して合理的なダイナミックレンジが達成される。
図12は、1つのカメラが画像処理システムの他のカメラとは異なる露光/利得設定を持つように設定される高ダイナミックレンジ設定を観察する4つのカメラを備える画像処理システムの例示の合成画像出力1200を図示する。図12は、図11の例示の画像処理システム状態1100から生成される例示の画像を図示する。図12に示される例示の合成画像出力1200において、カメラの3つは、シーンの相対的に暗い部分を観察しているが、車の前方部分のカメラは、シーンの相対的に明るい部分を観察している。車の前方に位置するカメラは、画像領域1211を観察している。図12において、図11に示される画像処理システム状態1100に従って合成画像出力1200において合理的なダイナミックレンジを達成するために、前方カメラは、シーンにおいて他の3つのカメラとは異なるグループに割り当てられている。特に、画像領域1211を観察している前方カメラは、第1のグループに割り当てられて第1の露光/利得設定を持つように設定されるが、他の3つのカメラは、第2のグループに割り当てられて第1の露光/利得設定とは異なる第2の露光/利得設定を持つように設定される。前方カメラを残りの3つのカメラとは異なるグループに割り当てることによって、画像領域1201(丸で囲まれた箇所)及び画像領域1203(丸で囲まれた箇所)におけるシームラインの存在を均衡させている一方で、画像領域1211における道路標示が一層はっきりと見える。前方カメラが残りのカメラ(第2のグループ)と同じグループに割り当てられた場合、合成画像出力1200は、画像領域1201及び画像領域1203にシームラインを示さないであろうが、前方カメラは露出過多になり得、画像領域1211は明るくなり過ぎ、道路の詳細がなくなる。図12は、従って、画像調和に比べてダイナミックレンジが有利であるシナリオを表す。
図13は、ヒューリスティックを用いてカメラを動的にグループ化することによって、画像処理システム(例えば、図1の画像処理システム100、図2の画像処理システム200、及び/又は図3の画像処理システム300)を実装するための例示の方法である。方法1300は、例えば、図1の画像処理システム100、図2の画像処理システム200、及び/又は図3の画像処理システム300等の画像処理システムによって実施される。1302で、各カメラの視野照度及び/又は色温度は、図1の画像信号プロセッサ(ISP)104、図2のISP204、及び/又は図3のISP304等の画像信号プロセッサ(ISP)に転送するため統計エンジン(例えば、図1の統計エンジン106及び/又は図2の統計エンジン206)によって推定される。幾つかの例において、各カメラの視野照度だけが推定されるか或いは各カメラの色温度だけが推定される。幾つかの例において、各カメラの視野照度及び/又は色温度を推定することは、各カメラの特定の時間期間にわたる平均の視野照度及び/又は色温度を推定することを含む。
1304で、カメラのグループ化が、閾値を下回る視野照度及び/又は視野色温度における差異を備えるカメラをともにグループ化することによって行われる。より具体的には、類似の視野照度及び/又は類似の視野色温度を備えるカメラが、スプレッドに応じて、ともにグループ化される。スプレッドは、2つ又はそれ以上のカメラの最小測定視野照度及び/又は色温度と2つ又はそれ以上のカメラの最大測定視野照度及び/又は色温度とを決定することによって計算される。カメラは、カメラ視野照度及び/又は色温度のスプレッドが閾値より上の場合に、或るグループ割り当て方法によって、異なるグループに割り当てられる。グループ割り当て方法は、カメラに対して分類された測定照度及び/又は色温度内の第1の測定照度及び/又は色温度と第2の測定照度及び/又は色温度とを有する連続するカメラ間で、最大測定照度及び/又は色温度ジャンプを決定することを含み、第1の測定照度及び/又は色温度は第2の測定照度及び/又は色温度より低い。第1の測定視野照度及び/又は色温度に等しい又はそれ以下の測定視野照度及び/又は色温度を備えるカメラは、第1のグループに割り当てられ、第2の測定視野照度及び/又は色温度に等しい又はそれ以上の測定視野照度及び/又は色温度を備えるカメラは第2のグループに割り当てられる。本明細書に用いられる場合、用語「ジャンプ」は、連続するカメラ(カメラが、最も暗い測定視野照度及び/又は色温度から最も明るい視野測定照度及び/又は色温度の順に分類されている場合)の測定視野照度及び/又は/又は色温度の間の差に対応する。グループ化方法は、例えば、図1のISP104、図2のISP204、及び/又は図3のISP304等の(ISP)によって行われる。閾値は、構成可能である。各グループにおけるカメラは、ISPによって、同じ露光/利得設定を有するように割り当てられる。
幾つかの例において、所与のグループ内のカメラは、2つ以上のグループが形成されるように更にグループ化される。所与のグループ内のカメラの測定視野照度及び/又は色温度のグループスプレッドが閾値を超えるとき、ヒューリスティック例を用いて、所与のグループ内のカメラはサブグループ割り当て方法によって再グループ化される。サブグループ割り当て方法は、カメラに対して分類された測定照度及び/又は色温度内で、所与のグループ内の連続するカメラ間の最大測定照度及び/又は色温度ジャンプを決定することであって、連続するカメラは、そのカメラに対して分類された測定照度及び/又は色温度内の第1の測定視野照度及び/又は色温度と第2の測定視野照度及び/又は色温度とを有し、第1の測定視野照度及び/又は色温度は、第2の測定視野照度及び/又は色温度より低い、最大測定照度及び/又は色温度ジャンプを決定することと、第1の測定視野照度及び/又は色温度に等しい又はそれ以下である測定視野照度及び/又は色温度を備える所与のグループ内のカメラを所与のグループ(同じグループ)に割り当て、第2の測定視野照度及び/又は色温度に等しい又はそれ以上の測定視野照度及び/又は色温度を備える所与のグループ内のカメラを別のグループ(新しいグループ)に割り当てることとを含む。幾つかの例において、サブグループスプレッドは、所与のグループ内のカメラの最小測定視野照度及び/又は色温度と所与のグループ内のカメラの最大測定視野照度及び/又は色温度とを決定することによって計算される。各グループ内のカメラは、同じ露光/利得設定を持つように、ISPによって割り当てられる。幾つかの例において、サブグループ内のジャンプが閾値を超える場合、或るグループに既に割り当てられたカメラの更なるグループ化が適切である。幾つかの例において、サブグループ化はそのシステムの特徴である。
幾つかの例において、カメラをグループ化する際、他のファクタが考慮される。動的グループ化は、カメラの以前のグループ化を考慮し、それは、以前のグループにおける第1のカメラが、後続の動的グループ化の繰り返しの間に、第1のカメラのグループ内の他のカメラと類似の照度及び/又は色温度を観察する例を活用する。以前のグループ化が将来のグループ化に影響を与える例として、車両2が車両1とは反対方向に移動し、車両2が車の「ブライトライト」設定をイネーブルして、車両1に近づいているような、車両1が別の車両2に近づいている例を考慮する。車両1上の前方カメラは、ほんの数秒間のみ車両2のブライトライトを観察するので、車両1の前方カメラを他の3つのカメラとは異なるグループに割り当てることなく、グループ化は、ブライトライト設定を観察する直前(例えば、ブライトライト設定を観察する5秒前)にカメラが同じグループに割り当てられていたことを考慮する。従ってカメラを異なるグループにグループ化することはない。この例では、5秒の時間閾値が実装される。また、この例において、カメラの以前のグループ化は、どのカメラをともにグループ化するかを選択するときに考慮する1つのファクタである。以前のグループ化を考慮することが有用である別の例は、履歴統計を活用することによる。カメラの以前のグループ化の履歴統計は、幾つかのカメラが、しばしば、ともにグループ化されることを示し得、従って、次のグループ化は、それを、次のグループ化を考慮するためのファクタ(例えば、加重平均の使用)として用い得る。更なる例として、グループ化はカメラの相対的位置を考慮し、そのため、グループ化は重なる視野(FOV)を備えるカメラを考慮する(例えば、重なるFOVを備えるカメラは同じグループに入れられる。これは、他のカメラと近傍のカメラは、類似の照度及び/又は色温度視野尺度を有しやすいというヒューリスティックを用いて複雑性を削減する制約である)。他の例において、グループ化は、重なっていない視野を備えるカメラをともにグループ化する。
1306で、各グループに対する露出履歴が更新され、各グループに対する露光/利得設定ロックが更新される。グループ露出履歴及びロックは、グループ露出継続性、平滑度、及び高速応答を促進するために維持される。グループ露出履歴は、或る例において、急激で大きなシーン照度変化を検出するために用いられる。或る実装例において、照度及び/又は色温度差異に対する閾値に加えて、第2の閾値、即ち、時間閾値が含まれ、そのため、時間閾値を超える特定の時間期間の間に照度及び/又は色温度が観察される場合にカメラが再グループ化される。例えば、幾つかのシナリオにおいて、数分の間(車がトンネルを通過する間)にカメラの異なる照度及び/又は色温度が観察される。幾つかの例において、そのようなシナリオは、照度及び/又は色温度尺度が一時的であり、数分が経過した後に、履歴的に一層一貫した照度及び/又は色温度メトリックに復帰することを意味している。同様に、幾つかの例において、小規模及び/又は過渡のシーン変化による好ましくない露出調整を避けるためにグループ露出ロックが用いられる。幾つかの例において、特定の閾値時間に亘って、大規模なカメラ視野照度及び/又は色温度変化が観察されるとき、グループ露光/利得設定がロック解除される(変更される)。他の例において、特定の閾値時間に亘るカメラ視野照度及び/又は色温度変化が小さい(例えば、カメラの1つが一時的に樹木の影を観察した)とき、グループ露光/利得設定がロックされる(そのため、露光/利得設定は変化しない)。1308で、ISPは、各グループに対するカメラ露出を選択する。グループ露出がロック解除されると各カメラの新しい露出が選択される。しかしながら、各グループに対するカメラ露出を変更する前に、ISPによってグループ露出履歴及びロック情報が調べられる。幾つかの例において、グループ露出履歴は、グループ化によって考慮されるファクタである。これは、グループ化が、過去に1つの露出設定を有する場合、露出を設定の時間から新規の現象を観察する時間までの時間閾値を超えていない場合(上述のように、「ブライトライト」及びトンネル例を考慮する)、類似の露出設定が適切であると判定するからである。例えば、時間閾値を超えることに応答して、カメラの露出設定がロック解除され、それによって、カメラの露出が変更される。また、幾つかの例において、事前定義された視野照度又は色温度ターゲットに基づいて、新しい露出が選択される。幾つかの例において、統計的、エンジニアリング的、又は数学的モデルを用いてオンライン又はオフラインで、事前定義された視野照度又は色温度ターゲットが推定される。1310で、合成画像(例えば、図1の描画された合成画像110、図3の合成シーン画像308、及び/又は図6の描画された合成画像600)がシステムオンチップ(SoC)(例えば、図1のSoC102、図2のSoC202、及び/又は図3のSoC302)によって、ディスプレイ(例えば、図2のディスプレイ228及び/又は図3のディスプレイ端末306)に描画される。
図14は、図1の画像処理システム100、図2の画像処理システム200、及び/又は図3の画像処理システム300等の画像処理システムにおいて、ヒューリスティックを用いる例示の動的カメラグループ化のグラフ1400である。動的グループ化は、例えば、図1の画像信号プロセッサ(ISP)104、ISP204、又はISP304によって実装される。カメラの推定された視野照度が提供される(この例において、照度は色温度の尺度も同様に含む)。グラフ1400の横軸1402(この例において、横軸1は、「カメラ 暗から明」と表記されている)に沿って、カメラ(例えば、図1のカメラ105、図2のカメラ205、又は図5のカメラ505)は、暗から明の順に並べられている。カメラは、それらの照度に基づいて、縦軸1404(この例において、縦軸は、「照度」と表記されている軸である)に沿って垂直に表示されている。図14において、縦軸は「照度」と表記されているが、幾つかの例において、カメラは、それらの色温度に基づいて或いは測定視野照度及び/又は測定視野色温度の組み合わせに基づいて分類される。表記「照度」はこのように、照度に加えて、色温度の表記を組み合わせている。これは、「カメラ 暗から明へ」が最低色温度から最高色温度の分類を組み合わせているのと同様である。カメラ視野照度のスプレッド(例えば、最高観察視野照度と最低観察視野照度との差)が事前定義された閾値より低い場合、カメラは、均一の露光/利得設定を備える1つのグループに割り当てられる。カメラの視野照度の差異が事前定義された閾値を超える場合、カメラの分類された視野照度における最高視野照度ジャンプ(デルタ)が決定される。図13に関連して説明されるように、用語「ジャンプ」は、連続するカメラの測定視野照度及び/又は色温度の間の差に対応する(カメラが、最も暗い測定視野照度及び/又は色温度から最も明るい視野測定照度及び/又は色温度の順に分類されている場合)。この例において、及び一般性を失うことなく、分類された視野における最高視野照度ジャンプは測定視野照度B1及びB2(例えば、B2>B1)を備える2つのカメラを含むと想定すると、それらのカメラは、B1に等しい又はそれ以下の測定視野照度を備えるカメラが1つのグループに割り当てられ、一方、B2に等しい又はそれ以上の測定視野照度を備えるカメラは、異なるグループに割り当てられるように、グループに割り当てられる。グラフ1400において、照度ジャンプ1410は、グループ1 1406において最高視野照度を備えるカメラと、グループ2 1408において最低視野照度を備えるカメラとの間に示される。
幾つかの例において、例えば、1304で、図13に説明される方法を用いて、図4におけるカメラを2つのグループではなく3つのグループに例えば割り当てることによって、複数のジャンプが決定される。例として、グループ内のカメラの分類された視野照度内のカメラにおける最高照度ジャンプ(デルタ)が決定される。また、一般性を失うことなく、分類された視野における最高視野照度ジャンプは、測定視野照度B2及びB3(例えば、B3>B2)を備える同じグループ内の2つのカメラを含むことを想定する。その結果、B2に等しい又はそれ以下の測定視野照度を備えるカメラは1つのグループに割り当てられ、一方、B3に等しい又はそれ以上の測定視野照度を備えるカメラは異なるグループに割り当てられる。
図15は、或る例において、4つのカメラがループ構造に配置される場合、画像処理システム(例えば、図1の画像処理システム100、図2の画像処理システム200、及び/又は図3の画像処理システム300)内の全数探索を用いて、カメラが検討及びグループ化される異なる手法を示す。グループ化は、例えば、図1のISP104、図2のISP204、及び/又は図3のISP304によって行われる。図15に図示される例によって示されるグループ化のタイプはカメラグループ化を制約し、そのため、近傍のカメラのみがともにグループ化される(なお、この制約は、幾つかの例において、緩和されている)。4つのカメラを備える例において、5つの異なるシナリオが存在する。即ち、4つのカメラを含む1つのグループ1502、各グループに1つのカメラを備える4つのグループ1504、2+2グループ化1506(2つの可能な手法)、3+1グループ化
1508(4つの可能な手法)、及び2+1+1グループ化1510(4つの可能な手法)である。このように、この例において、カメラがグループ化されるために、合計12の異なる手法がある。網羅的な動的グループ化方法は、12の可能な手法の各々に対してコスト関数を計算し、図16、図17、及び図18に関連して下記に説明するように、コストを削減するためカメラをグループ化する。
図16は、全数探索を用いてカメラを動的グループ化することによって画像処理システム(例えば、図1の画像処理システム100、図2の画像処理システム200、及び/又は図3の画像処理システム300)を実装するための例示の方法1600である。全数探索動的カメラグループ化は、例えば、図1のISP104、図2のISP204、及び図3のISP304等の画像信号プロセッサ(ISP)によって行われる。網羅的な動的グループ化方法は、カメラがグループ化される手法の各々に対してコスト関数を計算し、コストを削減するためカメラをグループ化する。これに関連し、コストは、ダイナミックレンジ維持を有利にして、画像調和をどの程度諦められているか、又はその逆を反映する。1602で、統計エンジン(例えば、図1の統計エンジン106及び/又は図2の統計エンジン206)は、ISPに転送するため、各カメラの視野照度及び/又は色温度を推定する。幾つかの例において、各カメラの視野照度のみが推定される、或いは、各カメラの色温度のみが推定される。幾つかの例において、各カメラの視野照度及び/又は色温度を推定することは、各カメラの、特定の時間にわたる平均視野照度及び/又は色温度を推定することを含む。カメラ画像照度は、カメラ露出及び視野の照度によって影響される。同じシーンにおいて、幾つかの例では、カメラ露出が高くなると、その結果、画像照度が高くなる。しかしながら、現在のカメラ露出及び現在の画像照度は、システムのパラメータである。従って、幾つかの例において、視野(シーン)照度は、現在のカメラ画像照度及び/又は現在のカメラ露出から(例えば、ほぼ線形の関係を想定することによって)推定される。露出と画像色温度は実質的に独立している。また、説明したように、色温度は、そのシーンにおける光源の色を指す。従って、2つのカメラ視野が、有意に異なる色温度を観察する場合、幾つかの例において、ISP(図1のISP104、図2のISP204、及び/又は図3のISP304等)は、色差を低減するように異なるホワイトバランスゲインを適用する。
1604で、複数のカメラがグループ化される複数の手法が定義される。図15に示される例において、12の可能な手法がある(同じグループにおけるカメラが近接している場合)。しかしながら、1604では、幾つかの例において、付加的な制約が追加され、そのため、可能な手法のサブセットが除外される(例えば、各グループにおいて1つのカメラを備える4つのグループ1504等のグループが除外される)。1606で、複数のグループ化の手法に対する1つ又は複数のコスト関数が定義される。幾つかの例において、コスト関数は、グループ内の不均一な照度及び/又は色温度に対するコスト、及びグループを横断する低照度及び/又は色温度変化に対するコストを比較検討する。一例において、グループ化に対する1つ又は複数のコスト関数は、グループ内の不均一な照度及び/又は色温度に対するコストを定義する第1のコスト関数、及びグループを横断する照度及び/又は色温度変化に対するコストを定義する第2のコスト関数を含む複数のコスト関数である。1608で、カメラがグループ化される複数の手法(例えば、7通りのグループ化)の各々に対するコストは1つ又は複数のコスト関数に基づいて計算される。
1610で、ISPは、コストを削減するため、カメラの各々を1つ又は複数のグループにグループ化する。一例として、各カメラのためのグループを選択するために、ISPは、コストを最低レベルまで削減するグループ化配置(例えば、最低コストグループ化)を選択する。また、グループ化を変更するための閾値が定義される。コストの削減が閾値より大きい場合、ISPは、コストを削減するため、カメラのグループ化を変更する。コストの削減が閾値未満である場合、ISPは、カメラの現在のグループ化を変更しないことを選択する。幾つかの例において、コストを削減するためのグループ化は、カメラの以前のグループ化(例えば、上述の「ブライトライト」例を参照)、グループ露出履歴(例えば、上述の「トンネル」例を参照)、及び/又はカメラの相対的位置(例えば、重ならない視野を備えるカメラは、事実上、同じグループに属する)に基づく。1612で、ISPは、各グループに対するカメラ露出を選択する。グループの所与の1つ内の1つ又は複数のカメラは同じカメラ露出を有する。1614で、合成画像(例えば、図1の描画された合成画像110、図3の合成シーン画像308、及び/又は図6の描画された合成画像600)はディスプレイ(例えば、図2のディスプレイ228及び/又は図3のディスプレイ端末306)に描画される。
幾つかの例において、合成画像は、図1の幾何学変換エンジン108及び/又は図2の幾何学変換エンジン208等の幾何学変換エンジンによって描画される。他の例において、合成画像は、図1のSoC102及び/又は図2のSoC202等のSoCによって描画される。本明細書において開示されるシステム及び方法は、画像事前処理が1つのSoCにおいて生じるが、実際の画像合成は別のSoCにおいて生じるという技術的解決策に適用する。このように、本明細書において開示されるシステム及び方法は、画像合成が同じ部分又はシステムにおいて生じるか否かに関係なく、同じグループ内のカメラに露光/利得設定を割り当てるために動的グループ化が用いられる画像事前処理に適用する。同時に、本明細書に開示されるシステム及び方法は、画像事前処理及び動的グループ化及び画像合成が同じSoCにおいて生じる技術的解決策に適用する。
図17は、コストを、図面1706に図示される4つのカメラ画像処理システムにおいて提示される1つのグループにおける照度及び/又は色温度の比の関数として表示するグラフ1700を図示する。従って、少なくとも一例において、グラフ1700は、図面1706に対するコスト関数の出力を表す。図17に示されるコスト関数は、或る例において、図16の1606で定義される1つ又は複数のコスト関数である。特に、図16に関連して説明したように(1606を参照)、グループ内の不均一な照度及び/又は色温度に対するコストは、例えば、全体のコストを計算する(又は全体のコストのファクタとする)ために用いられる。カメラのグループ化は全数探索ステージの間に与えられる。例えば、図面1706において、カメラの2つ(例えば、C0及びC1)は1つのグループに属するが、他の2つのカメラ(例えば、C2及びC3)は別のグループに属する。
本例において、それぞれ、カメラC0、C1、C2、及びC3の視野照度/色温度がB0、B1、B2、及びB3であると推定する。(C2、C3)グループの場合、最も明るい/最高色温度視野対最も暗い/最低色温度視野の比rは式2によって与えられる。
式2:max(B2,B3)/min(B2,B3)=r
幾つかの例において、グループにおいて一層多くのカメラがある場合、比rは、式2に類似する手法で定義される。グループが単一のカメラを有する場合、この比は1であると定義される。ほぼ1(例えば、2未満)の低い比は、グループにおける均一の照度及び/又は色温度を示唆し、それはカメラがほぼ同じグループにあることを示唆する。高い比、即ち、4(例えば)に等しい又はそれ以上である比は、グループにおける不均一な照度を示唆し、カメラが同じグループ内にあることはほぼない。幾つかの例において、1つのグループ内の不均一な照度及び/又は色温度に対するコスト1704は、比1702の関数として定義され、それは、図17に示されるように、1付近の小さい比の場合は0に近く、より大きい比値の場合は増大する。幾つかの例において、コスト関数の特定の形状は経験的に決定される。幾つかの例において、コスト関数に対する線形関数又は他の高次関数が定義される。また、幾つかの例において、グループの全体コストは、各グループのコストの合計である。また、図17に示されるコスト関数は、照度尺度のみ又は色温度尺度のみを含むように拡張可能である。
図18は、コスト1804を、図1806に図示される4つのカメラ画像処理システムにおいて提示される、グループを横断する低照度及び/又は色温度変化の比1802の関数として表すグラフ1800を図示する。従って、少なくとも一例において、グラフ1800は、図1806に対するコスト関数の出力を表す。図18に示されるコスト関数は、或る例において、図16の1606で定義される1つ又は複数のコスト関数である。図16(1606を参照)に関連して説明されるように、例えば、全体のコスト(又は全体のコストのファクタ)を計算するために、グループを横断する低照度及び/又は色温度変化に対するコストが用いられる。
図18は、グループを横断する低照度及び/又は色温度変化に対するコストをどのように定義するかの例を示す。本例の場合、4カメラ画像処理システムが実装されていることが想定される。カメラのグループ化は図1806に示される。この例において、カメラの2つ(例えば、C0及びC1)が1つのグループに属し、他の2つのカメラ(例えば、C2及びC3)が別のグループに属すること、及び、それぞれ、カメラの視野照度/色温度はB0、B1、B2、及びB3であることが更に想定される。C0とC3との間にグループ境界が存在する。幾つかの例において、カメラ間のこの境界の照度/色温度比は、式3によって定義される。
式3:max(B0/B3,B3/B0)=r
ほぼ1(又は例えば、2未満)である低い比は、境界を横断する低い照度及び/又は色温度変化を示唆する(例えば、C0及びC3は類似の視野照度及び/又は色温度を有し、恐らく同じグループにあるべきである)。高い比は、境界を横断する高い照度及び/又は色温度変化を示唆する(例えば、C0及びC3は、大きい視野照度及び/又は色温度差を有し、恐らく異なるグループにあるべきである)。幾つかの例において、1つのグループ境界のための低い照度及び/又は色温度に対するコスト関数は、上記の比の関数として定義され、図18に示されるように、ほぼ1の小さい比1802の場合は大きく、大きい比値の場合は、ほぼ0まで小さくなる。図18に示されるように、比1802が増大する(グループ間の照度/色温度における差が大きくなることを意味する)につれて、コスト1804(グループを異なるように維持するためのシステムに対するコスト)は減少し、またその逆も同様である。幾つかの例において、関数の固有の形状は経験的に決定される。幾つかの例において、コスト関数に対する線形関数又は他の一層高次の関数が定義される。また、幾つかの例において、コストは、グループ境界の領域に対するグループを横断する低い照度及び/又は色温度変化に対するコストの合計として定義される。また、図18に示されるコスト関数は、照度尺度のみ、又は色温度尺度のみを含むように拡張可能である。
特許請求の範囲内で、説明した実施形態における変更が可能であり、他の実施形態が可能である。

Claims (20)

  1. システムオンチップ(SoC)であって、
    画像信号プロセッサ(ISP)及び統計エンジンを含み、
    前記画像信号プロセッサ(ISP)が、
    2つ又はそれ以上のカメラからの画像に対応する信号を受信し、
    前記2つ又はそれ以上のカメラを、前記カメラの各々によって観察される測定視野照度及び/又は色温度に基づいて、複数グループに動的グループ化し、及び
    前記複数グループの或るグループに関連するカメラを、同じ露光/利得設定に割り当てる、
    ように構成され、
    前記統計エンジンが、
    前記ISPから前記画像に対応する信号及び前記画像信号に関連する統計を受け取り、及び
    前記ISPに転送するため、前記画像信号に基づく各画像の画像視野照度及び/又は色温度の測定値を推定する、
    ように構成される、
    SoC。
  2. 請求項1に記載のSoCであって、前記2つ又はそれ以上のカメラによって捕捉された前記画像をブレンドする合成画像を描画するために、前記ISPから受け取った画像の幾何学変換を行うように構成される幾何学変換エンジンを更に含む、SoC。
  3. 請求項1に記載のSoCであって、前記統計エンジンが更に、前記2つ又はそれ以上のカメラから捕捉された前記画像信号に対応する設定の総ダイナミックレンジを決定するように構成される、SoC。
  4. 請求項1に記載のSoCであって、前記ISPが更に、前記カメラにわたる前記測定視野照度及び/又は色温度が事前定義された閾値より低いことを判定することに応答して、前記2つ又はそれ以上のカメラを、1つのグループに割り当てるように構成される、SoC。
  5. 請求項1に記載のSoCであって、前記ISPが更に、
    前記2つ又はそれ以上のカメラの前記測定視野照度及び/又は色温度のスプレッドが閾値を上回るか否かを判定することであって、前記スプレッドが、前記2つ又はそれ以上のカメラの最小測定視野照度及び/又は色温度と前記2つ又はそれ以上のカメラの最大測定視野照度及び/又は色温度とを決定することによって計算される、前記判定すること、
    2つの連続するカメラ間の最大測定照度及び/又は色温度差を決定することであって、前記2つの連続するカメラが、それぞれ、前記カメラに対して分類された測定照度及び/又は色温度範囲内で、第1の測定視野照度及び/又は色温度と第2の測定視野照度及び/又は色温度とを有し、前記第1の測定視野照度及び/又は色温度が前記第2の測定視野照度及び/又は色温度より低い、前記最大測定照度及び/又は色温度差を決定すること、及び
    前記第1の測定視野照度及び/又は色温度に等しい又はそれ以下の測定視野照度及び/又は色温度を有する前記カメラを第1のグループに割り当て、前記第2の測定視野照度及び/又は色温度に等しい又はそれ以上の測定視野照度及び/又は色温度を有する前記カメラを第2のグループに割り当てること、
    を行うように構成される、
    SoC。
  6. 請求項1に記載のSoCであって、前記ISPが、
    前記2つ又はそれ以上のカメラがグループ化される複数の手法を定義し、
    前記複数のグループ化の手法に対する1つ又は複数のコスト関数を定義し、
    前記カメラがグループ化される前記複数の手法の各々に対するコストを、前記1つ又は複数のコスト関数に基づいて、計算し、及び
    前記コストを削減するように前記カメラをグループ化する、
    ように構成され、前記コストが、描画された合成画像内において画像調和とダイナミックレンジがどの程度均衡しているかを定義する、
    SoC。
  7. 請求項6に記載のSoCであって、前記グループ化に対する前記1つ又は複数のコスト関数が、
    前記グループ内の不均一な照度及び/又は色温度に対する第1のコストを定義する第1のコスト関数、及び
    前記グループにわたる照度及び/又は色温度の変化に対する第2のコストを定義する第2のコスト関数、
    を含む複数のコスト関数である、
    SoC。
  8. 方法であって、
    統計エンジンによって、2つ又はそれ以上のカメラを有する画像処理システム内の各カメラの視野照度及び/又は色温度を推定すること、
    画像信号プロセッサ(ISP)によって、前記2つ又はそれ以上のカメラ間の前記推定された視野照度及び/又は色温度のスプレッドに基づいて、前記2つ又はそれ以上のカメラを1つ又は複数のグループにグループ化することであって、前記スプレッドが、前記2つ又はそれ以上のカメラの最小測定視野照度及び/又は色温度と前記2つ又はそれ以上のカメラの最大測定視野照度及び/又は色温度とを決定することによって計算されること、及び
    前記ISPによって、各グループに対するカメラ露光/利得設定を選択することであって、前記グループの所与の1つ内の1つ又はそれ以上のカメラが同じカメラ露光/利得設定を持つこと、
    を含む、方法。
  9. 請求項8に記載の方法であって、前記画像処理システムの前記カメラによって捕捉された画像をブレンドする合成画像をディスプレイに描画することを更に含む、方法。
  10. 請求項8に記載の方法であって、前記2つ又はそれ以上のカメラの前記推定された視野照度及び/又は色温度の前記スプレッドが事前定義された閾値より低いことに応答して、前記2つ又はそれ以上のカメラが前記同じグループに割り当てられる、方法。
  11. 請求項8に記載の方法であって、前記カメラの前記推定された視野照度及び/又は色温度の前記スプレッドが閾値を上回ることに応答して、前記カメラが、グループ割り当て方法によって、異なるグループに割り当てられ、前記グループ割り当て方法が、
    2つの連続するカメラ間の最大測定照度及び/又は色温度差を決定することであって、前記2つの連続するカメラが、それぞれ、前記グループ内の前記カメラに対して分類された測定照度及び/又は色温度内の第1の測定視野照度及び/又は色温度と第2の測定視野照度及び/又は色温度とを有し、前記第1の測定視野照度及び/又は色温度が前記第2の測定視野照度及び/又は色温度より低いこと、及び
    前記第1の測定視野照度及び/又は色温度に等しい又はそれ以下の測定視野照度及び/又は色温度を備える前記カメラを第1のグループに、前記第2の測定視野照度及び/又は色温度に等しい又はそれ以上の測定視野照度及び/又は色温度を備える前記カメラを第2のグループに割り当てること、
    を含む、方法。
  12. 請求項11に記載の方法であって、前記第2のグループ内の前記カメラの測定視野照度及び/又は色温度のサブグループスプレッドがサブグループスプレッド閾値を超えることに応答して、前記第2のグループ内のカメラが、サブグループ割り当て方法によって更にグループ化され、前記サブグループ割り当て方法が、
    前記第2のグループ内の2つの連続するカメラ間の最大測定視野照度及び/又は色温度差を決定することであって、前記第2のグループ内の前記2つの連続するカメラが、それぞれ、前記第2のグループ内の前記カメラに対して分類された測定照度及び/又は色温度内の第3の測定視野照度及び/又は色温度と第4の測定視野照度及び/又は色温度とを有し、前記第3の測定視野照度及び/又は色温度が前記第4の測定視野照度及び/又は色温度より低いこと、及び
    前記第3の測定視野照度及び/又は色温度に等しい又はそれ以下の測定視野照度及び/又は色温度を備える前記第2のグループ内の前記カメラを前記第2のグループに、前記第4の測定視野照度及び/又は色温度に等しい又はそれ以上の測定視野照度及び/又は色温度を備える前記グループ内の前記カメラを第3のグループに割り当てること、
    を含み、
    前記サブグループスプレッドが前記第2のグループ内の前記カメラの最小測定視野照度及び/又は色温度と前記第2のグループ内の前記カメラの最大測定視野照度及び/又は色温度とを決定することによって計算される、
    方法。
  13. 請求項8に記載の方法であって、1つ又は複数のカメラが異なるグループに再割り当てされることを防止するため、グループに対する前記カメラ露光/利得設定が、前記ISPによってロックされ、前記グループ内の前記カメラの1つに対する前記推定されたカメラ視野照度及び/又は色温度における変化が、所定の時間の間ロック閾値より高いことが観察されることに応答してロック解除される、方法。
  14. 請求項8に記載の方法であって、前記グループ化が更に、前記カメラの以前のグループ化、グループ露光/利得履歴、及び前記カメラの相対的位置に基づいており、各グループに対して前記カメラ露光/利得設定を設定することが、事前定義された視野照度及び/又は色温度ターゲットに基づいている、方法。
  15. 方法であって、
    2つ又はそれ以上のカメラを備える画像処理システム内の各カメラの視野照度及び/又は色温度を、統計エンジンによって推定すること、
    前記2つ又はそれ以上のカメラがグループ化される複数の手法を、画像信号プロセッサ(ISP)によって定義すること、
    前記複数のグループ化の手法に対する1つ又は複数のコスト関数を、前記ISPによって定義すること、
    前記カメラがグループ化される前記複数の手法の各々に対するコストを、前記1つ又は複数のコスト関数に基づいて、前記ISPによって計算すること、
    前記コストを削減するため、前記ISPによって、前記カメラを1つ又は複数のグループにグループ化することであって、前記コストが、合成画像内で画像調和とダイナミックレンジとがどの程度均衡しているかを定義すること、
    各グループに対するカメラ露光/利得設定を、前記ISPによって選択することであって、前記グループの所与の1つ内の1つ又はそれ以上のカメラが同じカメラ露光/利得設定を有すること、及び
    前記画像処理システムの前記カメラによって捕捉された画像をブレンドする前記合成画像をディスプレイに描画すること、
    を含む、方法。
  16. 請求項15に記載の方法であって、前記統計エンジンが、現在のカメラ画像照度及び/又は色温度及び現在のカメラ露光/利得設定から、前記現在のカメラ画像照度及び/又は色温度と前記現在のカメラ露光/利得設定との間の関係を線形化することによって、前記2つ又はそれ以上のカメラの各々のための画像照度及び/又は色温度の測定値を推定する、方法。
  17. 請求項15に記載の方法であって、前記2つ又はそれ以上のカメラがグループ化される前記複数の手法を定義することが、重ならない視野を備えるカメラを前記同じグループ内に入れることを含む、方法。
  18. 請求項15に記載の方法であって、前記グループ化することに対する前記1つ又は複数のコスト関数が、
    前記グループ内の不均一な照度及び/又は色温度に対する第1のコストを定義する第1のコスト関数と、
    前記グループを横断する照度及び/又は色温度変化に対する第2のコストを定義する第2のコスト関数と、
    を含む複数のコスト関数である、
    方法。
  19. 請求項18に記載の方法であって、前記グループ内の不均一な照度及び/又は色温度に対する前記第1のコストを定義する前記第1のコスト関数が第1のコスト関数方法によって決定され、前記第1のコスト関数方法が、
    グループ内の前記カメラの前記照度及び/又は色温度の最大対前記カメラの前記照度及び/又は色温度を最小の比を決定すること、及び
    前記比に比例する前記比の関数を定義すること、
    を含む、方法。
  20. 請求項18に記載の方法であって、前記グループを横断する照度及び/又は色温度変化に対する前記第2のコストを定義する前記第2のコスト関数が、第2のコスト関数方法によって決定され、前記第2のコスト関数方法が、
    異なるグループ内にある近傍のカメラ間の比を、第1のカメラの前記照度及び/又は色温度対第2のカメラの前記照度及び/又は色温度、及び前記第2のカメラの前記照度及び/又は色温度対前記第1のカメラの前記照度及び/又は色温度の最大として、決定すること、及び
    前記比に対して反比例する前記比の関数を定義すること、
    を含む、方法。
JP2020534941A 2017-12-20 2018-12-20 マルチカメラ画像処理 Active JP7318953B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762608452P 2017-12-20 2017-12-20
US62/608,452 2017-12-20
US16/226,085 US11057573B2 (en) 2017-12-20 2018-12-19 Multi camera image processing
US16/226,085 2018-12-19
PCT/US2018/066875 WO2019126546A1 (en) 2017-12-20 2018-12-20 Multi camera image processing

Publications (2)

Publication Number Publication Date
JP2021507637A true JP2021507637A (ja) 2021-02-22
JP7318953B2 JP7318953B2 (ja) 2023-08-01

Family

ID=66815254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020534941A Active JP7318953B2 (ja) 2017-12-20 2018-12-20 マルチカメラ画像処理

Country Status (5)

Country Link
US (2) US11057573B2 (ja)
EP (1) EP3729803A4 (ja)
JP (1) JP7318953B2 (ja)
CN (1) CN111434108B (ja)
WO (1) WO2019126546A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107066987B (zh) * 2017-04-26 2020-12-15 胡明建 摄像头数据直接传给gpu处理的方法
US10861359B2 (en) * 2017-05-16 2020-12-08 Texas Instruments Incorporated Surround-view with seamless transition to 3D view system and method
CN107277480B (zh) * 2017-07-10 2019-03-29 Oppo广东移动通信有限公司 白平衡同步方法、装置和终端设备
WO2019079403A1 (en) * 2017-10-18 2019-04-25 Gopro, Inc. LOCAL EXPOSURE COMPENSATION
JP6944350B2 (ja) * 2017-11-13 2021-10-06 アルパイン株式会社 撮影画像表示システム、電子ミラーシステム及び撮影画像表示方法
JP6662401B2 (ja) * 2018-03-13 2020-03-11 オムロン株式会社 乗員監視装置
KR102177878B1 (ko) * 2019-03-11 2020-11-12 현대모비스 주식회사 영상 처리 장치 및 방법
US11341607B2 (en) * 2019-06-07 2022-05-24 Texas Instruments Incorporated Enhanced rendering of surround view images
US11438497B2 (en) * 2019-12-13 2022-09-06 Sony Group Corporation Managing multiple image devices
US11315260B2 (en) * 2019-12-23 2022-04-26 Waymo Llc Geo-motion and appearance aware data association
WO2022126378A1 (zh) * 2020-12-15 2022-06-23 深圳市大疆创新科技有限公司 相机的控制方法及装置
US20220237051A1 (en) * 2021-01-28 2022-07-28 Dell Products L.P. Method and system for providing composable infrastructure capabilities
EP4075790B1 (en) 2021-04-13 2023-04-05 Axis AB Exposure time control in a video camera
US11943540B2 (en) * 2021-09-30 2024-03-26 Texas Instruments Incorporated Method and apparatus for automatic exposure
CN117729394B (zh) * 2024-02-18 2024-04-30 厦门瑞为信息技术有限公司 单个图像处理模块同时处理多个图像传感器的方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006345254A (ja) * 2005-06-09 2006-12-21 Canon Inc 撮影装置及びその制御方法及びプログラム及び記憶媒体
JP2009017565A (ja) * 2008-07-18 2009-01-22 Fujifilm Corp 画像再生装置、カメラ、画像再生方法、及びプログラム
JP2016127571A (ja) * 2015-01-08 2016-07-11 キヤノン株式会社 カメラシステム、表示制御装置、表示制御方法、及びプログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6061468A (en) * 1997-07-28 2000-05-09 Compaq Computer Corporation Method for reconstructing a three-dimensional object from a closed-loop sequence of images taken by an uncalibrated camera
US8135068B1 (en) 2005-07-19 2012-03-13 Maxim Integrated Products, Inc. Method and/or architecture for motion estimation using integrated information from camera ISP
US8717460B2 (en) 2009-02-04 2014-05-06 Texas Instruments Incorporated Methods and systems for automatic white balance
US20120019613A1 (en) * 2009-12-11 2012-01-26 Tessera Technologies Ireland Limited Dynamically Variable Stereo Base for (3D) Panorama Creation on Handheld Device
AU2011202609B2 (en) 2011-05-24 2013-05-16 Canon Kabushiki Kaisha Image clustering method
CN104365081B (zh) * 2012-06-11 2018-05-08 索尼电脑娱乐公司 图像生成设备以及图像生成方法
CN104335569B (zh) * 2012-06-11 2017-08-25 索尼电脑娱乐公司 图像生成设备以及图像生成方法
EP2680228B1 (en) * 2012-06-25 2014-11-26 Softkinetic Software Improvements in or relating to three dimensional close interactions.
US9519839B2 (en) 2013-02-25 2016-12-13 Texas Instruments Incorporated Illumination estimation using natural scene statistics
US9508014B2 (en) 2013-05-06 2016-11-29 Magna Electronics Inc. Vehicular multi-camera vision system
US8811811B1 (en) * 2013-07-18 2014-08-19 Fraunhofer-Gesellscahft zur Foerderung der angewandten Forschung e.V. Camera system and method for generating high-quality HDR images or videos
KR102126487B1 (ko) 2013-10-24 2020-06-24 삼성전자주식회사 이미지 촬영 장치의 자동 화이트 밸런스 조절 방법 및 이를 이용하는 이미지 촬영 장치
US9509909B2 (en) 2013-11-18 2016-11-29 Texas Instruments Incorporated Method and apparatus for a surround view camera system photometric alignment
US10368011B2 (en) 2014-07-25 2019-07-30 Jaunt Inc. Camera array removing lens distortion
US10511787B2 (en) * 2015-02-12 2019-12-17 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Light-field camera
US10523865B2 (en) 2016-01-06 2019-12-31 Texas Instruments Incorporated Three dimensional rendering for surround view using predetermined viewpoint lookup tables
WO2017125779A1 (en) 2016-01-22 2017-07-27 Videostitch A system for immersive video for segmented capture of a scene
JP6525921B2 (ja) 2016-05-13 2019-06-05 キヤノン株式会社 画像処理装置、画像処理方法、検索装置
CN106385544B (zh) * 2016-09-23 2019-08-02 浙江宇视科技有限公司 一种相机曝光调节方法及装置
KR101816449B1 (ko) * 2016-10-20 2018-01-08 현대자동차주식회사 다시점 카메라의 통합 노출 제어 장치, 그를 포함한 시스템 및 그 방법
CN107197207A (zh) 2017-06-26 2017-09-22 上海赫千电子科技有限公司 一种车载多摄像头系统及其拍摄方法
US10373322B1 (en) * 2018-07-16 2019-08-06 Accel Robotics Corporation Autonomous store system that analyzes camera images to track people and their interactions with items
US10586208B2 (en) * 2018-07-16 2020-03-10 Accel Robotics Corporation Smart shelf system that integrates images and quantity sensors
WO2020171259A1 (ko) 2019-02-21 2020-08-27 엘지전자 주식회사 단말기 케이스

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006345254A (ja) * 2005-06-09 2006-12-21 Canon Inc 撮影装置及びその制御方法及びプログラム及び記憶媒体
JP2009017565A (ja) * 2008-07-18 2009-01-22 Fujifilm Corp 画像再生装置、カメラ、画像再生方法、及びプログラム
JP2016127571A (ja) * 2015-01-08 2016-07-11 キヤノン株式会社 カメラシステム、表示制御装置、表示制御方法、及びプログラム

Also Published As

Publication number Publication date
US20190191106A1 (en) 2019-06-20
WO2019126546A1 (en) 2019-06-27
US11700350B2 (en) 2023-07-11
US20210281772A1 (en) 2021-09-09
EP3729803A1 (en) 2020-10-28
CN111434108A (zh) 2020-07-17
JP7318953B2 (ja) 2023-08-01
EP3729803A4 (en) 2020-11-04
CN111434108B (zh) 2023-05-16
US11057573B2 (en) 2021-07-06

Similar Documents

Publication Publication Date Title
JP7318953B2 (ja) マルチカメラ画像処理
JP7003238B2 (ja) 画像処理方法、装置、及び、デバイス
US20230050695A1 (en) Systems and methods for capturing digital images
CN111028189B (zh) 图像处理方法、装置、存储介质及电子设备
CN110022469B (zh) 图像处理方法、装置、存储介质及电子设备
US11431915B2 (en) Image acquisition method, electronic device, and non-transitory computer readable storage medium
US10699377B2 (en) Method, device, and camera for blending a first and a second image having overlapping fields of view
WO2016107635A1 (en) Method and system for generating at least one image of a real environment
JP2018503326A (ja) 高ダイナミックレンジ(hdr)画素ストリームを生成するためのシステムおよび方法
CN106664351A (zh) 使用块匹配的镜头阴影颜色校正的方法和系统
CN110349163B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
JP2010016743A (ja) 測距装置、測距方法、測距プログラム又は撮像装置
JP2014039170A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP6083974B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN104796583B (zh) 相机噪声模型产生及使用方法以及使用该方法的装置
CN105827898B (zh) 应用于摄像机的伽马曲线调整方法及装置
CN109788206B (zh) 测光方法、装置、拍摄设备和存储介质
JP2015515169A (ja) 画像センサと、複数のフレームを用いて視野の外縁に向かって失われる照度を分析して減少させる手段とを含むビジョンシステム
CN110930440B (zh) 图像对齐方法、装置、存储介质及电子设备
Gu et al. A fast color tracking system with automatic exposure control
CN115187487A (zh) 图像处理方法及装置、电子设备、存储介质
JP2011223378A (ja) 電子カメラ
US20190052803A1 (en) Image processing system, imaging apparatus, image processing apparatus, control method, and storage medium
WO2020062269A1 (zh) 图像传感器、获取图像的方法、视觉系统及存储介质
CN114500870B (zh) 图像处理方法、装置及电子设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200622

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211216

A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20211216

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20220318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221012

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230712

R150 Certificate of patent or registration of utility model

Ref document number: 7318953

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150