JP7186672B2 - マルチスコピック雑音削減およびハイ・ダイナミック・レンジのためのシステムおよび方法 - Google Patents

マルチスコピック雑音削減およびハイ・ダイナミック・レンジのためのシステムおよび方法 Download PDF

Info

Publication number
JP7186672B2
JP7186672B2 JP2019116364A JP2019116364A JP7186672B2 JP 7186672 B2 JP7186672 B2 JP 7186672B2 JP 2019116364 A JP2019116364 A JP 2019116364A JP 2019116364 A JP2019116364 A JP 2019116364A JP 7186672 B2 JP7186672 B2 JP 7186672B2
Authority
JP
Japan
Prior art keywords
image
image data
burst
image capture
capture system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019116364A
Other languages
English (en)
Other versions
JP2019165506A5 (ja
JP2019165506A (ja
Inventor
ジョナサン・ティルトン・バロン
スティーヴン・ジョセフ・ディヴァーディ
ライアン・ガイス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2019165506A publication Critical patent/JP2019165506A/ja
Publication of JP2019165506A5 publication Critical patent/JP2019165506A5/ja
Application granted granted Critical
Publication of JP7186672B2 publication Critical patent/JP7186672B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0088Synthesising a monoscopic image signal from stereoscopic images, e.g. synthesising a panoramic or high resolution monoscopic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Measurement Of Optical Distance (AREA)

Description

関連出願の記載
本願は、2015年12月7日に出願された米国特許出願番号第14/961、102号に対する優先権を主張し、参照により全体として本明細書に組み込む。
マルチスコピック・イメージング・システムは、シーンの複数の画像をキャプチャするように動作可能である。幾つかのケースでは、当該キャプチャされた画像は、異なる視点から、異なる参照角度から、および/または異なる期間にわたって撮像された当該シーンからの共通要素を含んでもよい。さらに、画像補正を、キャプチャされた画像からの当該共通要素に基づいて当該複数の画像のうち少なくとも1つに適用してもよい。
本開示における実施形態は、立体、およびより一般に、マルチスコピック・イメージング(multiscopic imaging)システムにおける画像品質を改善するための方法およびシステムに関する。立体イメージング・システムからの画像ペアが、画像視差を補正するために、空間的に整列され、ワープされてもよい。当該整列されワープされた画像ペアが「スタックされて」もよい。雑音削減アルゴリズムを当該スタックされた画像に適用してもよい。ハイ・ダイナミック・レンジ・アルゴリズムを1つまたは複数の雑音除去された画像に適用してもよい。
視差の高速で、高解像度な推定を、同時にキャプチャされた画像ペア、または画像バーストに適用される堅牢なバースト雑音除去およびHDR処理と組み合わせることは、単一のカメラからのバーストを用いて可能なものよりも短い時間で、高解像度で低雑音な画像を提供しうる。
1態様では、方法が提供される。当該方法は、コンピューティング・システムにより、バースト画像データを受信するステップであって、当該バースト画像データは第1の画像キャプチャ・システムにより生成される第1の画像データおよび第2の画像キャプチャ・システムにより生成される第2の画像データを含み、第1の画像キャプチャ・システムおよび第2の画像キャプチャ・システムの各光軸はベースライン距離により分離され、第1の画像データおよび第2の画像データは少なくとも1つの画像ペアを含む、ステップを含む。当該方法はさらに、当該コンピューティング・システムにより、当該バースト画像データの視差を当該ベースライン距離に少なくとも基づいて決定するステップと、第1の画像データまたは第2の画像データのうち少なくとも1つを当該決定された視差に従って調節して、ワープされた画像スタックを提供するステップを含む。当該方法はさらに、バーストノイズ除去アルゴリズムに従って少なくとも1つの出力画像を生成するステップであって、当該バーストノイズ除去アルゴリズムは当該ワープされた画像スタックの加重平均を決定するステップを含む、ステップを含む。当該方法は場合によっては当該コンピューティング・システムにより、少なくとも1つの整形ホモグラフィ関数を決定するステップであって、当該少なくとも1つの整形ホモグラフィ関数は、当該複数の画像ペアの夫々の画像ペアを整列するように構成される、ステップと、当該少なくとも1つの整形ホモグラフィ関数に従って第1の画像データまたは第2の画像データのうち少なくとも1つを調節するステップとを含む。場合によっては、第1の画像キャプチャ・システムおよび第2の画像キャプチャ・システムの各光軸は実質的に同一の方向を向く。
1態様では、システムが提供される。当該システムは複数の画像キャプチャ・システムを含む。当該複数の画像キャプチャ・システムは少なくとも第1の画像キャプチャ・システムおよび第2の画像キャプチャ・システムを含み、第1の画像キャプチャ・システムは第1の画像データをキャプチャするように動作可能であり、第2の画像キャプチャ・システムは第2の画像データをキャプチャするように動作可能であり、第1の画像キャプチャ・システムおよび第2の画像キャプチャ・システムの各光軸はベースライン距離により分離され、第1の画像データおよび第2の画像データは少なくとも1つの画像ペアを有するバースト画像データを含む。当該システムはさらにメモリおよびプロセッサを備えたコントローラを含む。当該メモリは、命令を含むように構成され、プロセッサは、当該命令を実行して、方法を提供する上の態様に従う方法を実行するように構成される。
1態様では、システムが提供される。当該システムは複数の画像キャプチャ・システムを含む。当該複数の画像キャプチャ・システムは少なくとも第1の画像キャプチャ・システムおよび第2の画像キャプチャ・システムを含む。第1の画像キャプチャ・システムは第1の画像データをキャプチャするように動作可能であり、第2の画像キャプチャ・システムは第2の画像データをキャプチャするように動作可能である。第1の画像キャプチャ・システムおよび第2の画像キャプチャ・システムの各光軸はベースライン距離により分離される。第1の画像データおよび第2の画像データは少なくとも1つの画像ペアを有するバースト画像データを含む。当該システムはまた、コントローラを含む。当該コントローラはメモリおよびプロセッサを含む。当該メモリは命令を含むように構成され、当該プロセッサは、当該命令を実行して動作を実施するように構成される。当該動作は、当該バースト画像データを当該複数の画像キャプチャ・システムから受信するステップを含む。当該動作はまた、当該バースト画像データの視差を当該ベースライン距離に少なくとも基づいて決定するステップを含む。当該動作はさらに、第1の画像データまたは第2の画像データのうち少なくとも1つを当該決定された視差に従って調節して、ワープされた画像スタックを提供するステップを含む。当該動作はまた、バーストノイズ除去アルゴリズムに従って少なくとも1つの出力画像を生成するステップを含む。当該バーストノイズ除去アルゴリズムは当該ワープされた画像スタックの加重平均を決定するステップを含む。当該動作はさらに場合によっては、当該コンピューティング・システムにより、少なくとも1つの整形ホモグラフィ関数を決定するステップであって、当該少なくとも1つの整形ホモグラフィ関数は、当該複数の画像ペアの夫々の画像ペアを整列するように構成されるステップと、当該少なくとも1つの整形ホモグラフィ関数に従って第1の画像データまたは第2の画像データのうち少なくとも1つを調節するステップとを含んでもよい。
1態様では、方法が提供される。当該方法はコンピューティング・システムにより、バースト画像データを受信するステップを含む。当該バースト画像データは、第1の画像キャプチャ・システムにより生成される第1の画像データおよび第2の画像キャプチャ・システムにより生成される第2の画像データを含む。第1の画像キャプチャ・システムおよび第2の画像キャプチャ・システムの各光軸はベースライン距離により分離され、実質的に同一方向を向く。第1の画像データおよび第2の画像データは少なくとも1つの画像ペアを含む。当該方法は当該コンピューティング・システムにより、少なくとも1つの整形ホモグラフィ関数を決定するステップを含む。当該少なくとも1つの整形ホモグラフィ関数は、当該複数の画像ペアの夫々の画像ペアを整列するように構成される。当該方法はまた、当該少なくとも1つの整形ホモグラフィ関数に従って第1の画像データまたは第2の画像データのうち少なくとも1つを調節するステップを含む。当該方法はさらに、当該コンピューティング・システムにより、当該バースト画像データの視差を当該ベースライン距離に少なくとも基づいて決定するステップを含む。当該方法はさらに、第1の画像データまたは第2の画像データのうち少なくとも1つを当該決定された視差に従って調節して、ワープされた画像スタックを提供するステップを含む。当該方法は、バーストノイズ除去アルゴリズムに従って少なくとも1つの出力画像を生成するステップを含む。当該バーストノイズ除去アルゴリズムは当該ワープされた画像スタックの加重平均を決定するステップを含む。
各態様は以下の任意の特徴を含んでもよい。当該少なくとも1つの整形ホモグラフィ関数は幾何画素補正関数および光度計画素補正関数を含んでもよい。当該バースト画像データの視差を決定するステップは、第1の画像データ、第2の画像データ、およびベースライン距離に基づいて視差関数を推定するステップを含んでもよい。当該決定された視差に従って第1の画像データまたは第2の画像データのうち少なくとも1つを調節するステップは、当該推定された視差関数の逆を第1の画像データまたは第2の画像データのうち少なくとも1つに適用するステップを含んでもよい。加重平均は、ワープされた画像スタックの対応する画素の画素単位平均を含んでもよい。当該方法はさらに、ハイ・ダイナミック・レンジ(HDR)関数を当該少なくとも1つの出力画像に適用して少なくとも1つのHDR出力画像を提供するステップを含んでもよい。第1の画像キャプチャ・システムは、カラー・フィルタ・アレイに光学的に接続された画像センサを含んでもよく、第2の画像キャプチャ・システムはカラー・フィルタ・アレイなしの画像センサを含んでもよい。当該バースト画像データは生画像フォーマット、WebP画像フォーマット、またはJPEG画像フォーマットの少なくとも1つに従ってフォーマットされた画像を含んでもよい。当該バースト画像データは2から100個の間の画像を含んでもよい。第1の画像キャプチャ・システムはロー・パス・フィルタに光学的に接続された画像センサを含んでもよく、第2の画像キャプチャ・システムはロー・パス・フィルタのない画像センサを含んでもよい。第1の画像キャプチャ・システムは第1の焦点距離を有する光学機器に光学的に接続された画像センサを含んでもよく、第2の画像キャプチャ・システムは第2の焦点距離を有する光学機器に光学的に接続された画像センサを含んでもよい。第1の焦点距離と第2の焦点距離は異なる。当該複数の画像キャプチャ・システムを形状の境界に沿って配置してもよく、当該形状はリング、ディスク、または球のうち1つを含む。当該コンピューティング・システムは、少なくとも1つのプログラム可能回路内シリアルプログラミング(ICSP)マイクロコントローラを含むコントローラを備えてもよい。
1態様では、実行されたときコンピュータに本明細書で説明した態様の何れかに従う動作を実施させるプロセッサ実行可能命令を含むコンピュータ可読媒体が提供される。
上述の態様は、画像キャプチャ・システムにおける雑音削減に関連する課題を解決することを目的とする。
他の態様、実施形態、および実装は、必要に応じて添付図面を参照して以下の詳細な説明を読むことで当業者には明らかになろう。
例示的な実施形態に従うシステムを示す図である。 例示的な実施形態に従うシステムを示す図である。 例示的な実施形態に従う画像キャプチャ・シナリオを示す図である。 例示的な実施形態に従う画像キャプチャ・シナリオを示す図である。 例示的な実施形態に従う画像キャプチャ・シナリオを示す図である。 例示的な実施形態に従う流れ図を示す図である。 例示的な実施形態に従う方法を示す図である。
概要
本開示は、ステレオおよびマルチスコピック・カメラシステムにおける雑音削減およびハイ・ダイナミック・レンジを提供する方法およびシステムに関する。
特に携帯電話カメラのような消費者デバイス向けのデジタル撮影の品質は、小型のセンサおよび開口サイズにより制限されうる。かかる特性はキャプチャできる光子の数を制限する可能性があり、これが、「ショット雑音」またはセンサ画素により吸収される光子の数におけるランダムな分散を比例的に増大させる。シャッタ長を増大させるとこの雑音が減るが、おそらくモーション・ブラーの増大という代償を払うことになる。
別の制約は携帯電話カメラ画像の狭いダイナミックレンジである。非常に明るいオブジェクトおよび非常に暗いオブジェクトが同一のシーンに存在するとき、センサ画素のダイナミックレンジは明るい画像領域および暗い画像領域の両方における細部を適切にキャプチャできないかもしれず、過度に飽和した画像または不飽和の画像が生ずる。高品質カメラはより多くのビット深度画像を読み出し得るセンサを使用するが、それらには依然として制約がある。
これらの課題の両方に対する可能な解決策はバースト撮影であり、当該撮影においては、単一の写真を撮るのではなく、カメラは高速にN枚の写真を撮影する。これらのN個の画像はついで様々なアルゴリズムの1つを用いてマージされ、その結果、画素ごとにより少ない雑音およびより広いダイナミックレンジが生ずる。課題は、N枚の写真のバーストは単一の写真につきN回を要し、これがユーザエクスペリエンスに否定的に影響し、キャプチャ中のシーン動きの量を増大させることである。
本明細書で説明したように、バースト撮影が立体カメラシステムまたはマルチスコピック・カメラシステムにより実施されてもよい。当該バースト画像データがより高品質の出力画像を提供するために整形され、ワープされ、および雑音除去されてもよい。かかるシナリオでは、高解像度で低雑音の画像が単一の画像センサバーストの半分の時間(またはそれ未満)で生成されうる。
例示的な実施形態では、立体カメラシステムはバースト画像データをキャプチャしてもよい。当該画像「バースト」は、当該カメラの各画像センサにより矢継ぎ早にキャプチャされた1乃至10個の画像を含んでもよい。即ち、当該バースト画像データは、複数の画像ペアを含む(例えば、第1の画像センサからの)第1の画像データおよび(例えば、第2の画像センサからの)第2の画像データを含んでもよい。当該画像ペアは、第1のおよび第2の画像センサにより順序において実質的に同時にキャプチャされた第1のおよび第2の画像データからの対応する画像を含んでもよい。当該バースト画像データが、生画像フォーマット、WebP画像フォーマット、JPEG画像フォーマット、または別のタイプの画像フォーマットに従ってフォーマットされた画像を含んでもよい。さらに、幾つかの実施形態では、当該バースト画像データは2から100個の間の画像を含んでもよい。
画像ペアごとに、少なくとも1つの整形ホモグラフィ関数が当該システムのコントローラにより決定されてもよい。当該整形ホモグラフィ関数(複数可)が、当該画像ペアの2つの画像が空間的に整列されるように、当該画像ペアの一方のまたは両方の画像を調整するように決定されてもよい。整形ホモグラフィ関数(複数可)がカメラの「工場」較正に基づいて決定されてもよい。さらにまたは代替的に、整形ホモグラフィ関数(複数可)が別のタイプの較正に基づいて決定されてもよい。例示的な実施形態では、整形ホモグラフィ関数(複数可)が幾何画素補正関数および光度計画素補正関数を含んでもよい。
幾つかの実施形態では、当該少なくとも1つの整形ホモグラフィ関数の決定および当該ホモグラフィ関数に基づく画像(複数可)の調整を行う必要はない。例えば、当該画像ペアの2つの画像を、他の技術を介して整列または登録してもよい。当該他の画像配列/登録技術は、並進的整列(translational alignment)(例えば、XおよびYの並進のみ)または類似性整列(similarity alignment)を含んでもよいがこれらに限られない。さらに、本明細書で開示した整列技術が、線形変換(例えば、回転、拡大、変換等)および/または非剛直変換(例えば、参照画像と整列するための画像のローカルワーピング)を含んでもよい。かかる非剛直変換は「オプティカル・フロー」変換を含んでもよい。
当該コントローラが、少なくともベースライン距離に基づいてバースト画像データの視差を決定するように構成されてもよい。当該視差が3次元画像処理方法の一部として決定されてもよい。例示的な実施形態では、当該視差の決定が、第1の画像データ、第2の画像データ、およびベースライン距離に基づいて視差関数を推定するステップを含んでもよい。
当該コントローラが各画像ペアの少なくとも1つの画像を当該決定された視差に従ってワープしてもよい。即ち、当該コントローラは、当該各画像ペアの少なくとも1つの画像を、それが実質的に当該画像ペアの対応する画像にマッチするように調節してもよい。例示的な実施形態では、当該コントローラは、ベース画像を、当該画像ペアからまたはより一般には当該バースト画像データから選択してもよい。かかるシナリオでは、当該コントローラは、実質的に当該ベース画像にマッチするように、当該バースト画像データ内の他の画像の全てまたは少なくとも一部を調節してもよい。即ち、当該バースト画像データの各他の画像を、当該ベース画像にマッチするように調節してもよい。さらに、当該ベース画像に関して、当該バースト画像データの各他の画像が、1)異なる画像キャプチャ・システムにより同一の時点でキャプチャされ、2)同一の画像キャプチャ・システムにより異なる時点でキャプチャされ、または3)異なる画像キャプチャ・システムにより異なる時点でキャプチャされてもよい。
幾つかの例では、かかる画像調整は、推定された視差関数の逆を第1の画像データまたは第2の画像データのうち少なくとも1つに適用するステップを含んでもよい。本明細書のどこかで説明するように、当該画像調整が、当該画像キャプチャ・システムのエピポーラ幾何に関する情報に基づいて、当該バースト画像データの1つまたは複数の画像をワープするステップを含んでもよい。当該バースト画像データのかかる調整および/またはワーピングが、ワープされた画像スタックを形成してもよい。
例示的な実施形態では、当該コントローラが、当該ワープされた画像スタックの画素ごとの加重平均に基づいて少なくとも1つの出力画像を生成してもよい。幾つかの実施形態では、当該コントローラが、当該ワープされた画像スタックからの画素を夫々の画像タイルにグループ化してもよい。かかるシナリオでは、当該コントローラは、当該夫々の画像タイルの加重平均に基づいて当該少なくとも1つの出力画像を生成してもよい。幾つかの実施形態では、当該夫々の画像タイルは他の画像タイルと重複してもしなくてもよい。複数の類似画像に基づく他の雑音除去技術が本明細書で考慮される。
当該コントローラはさらにハイ・ダイナミック・レンジ(HDR)関数を当該少なくとも1つの出力画像に適用して少なくとも1つのHDR出力画像を提供してもよい。
本明細書で考慮するシステムおよび方法は様々な異なるマルチスコピック・イメージング・システムを含んでもよい。例えば、当該イメージング・システムは、カラー・フィルタ・アレイに(例えば、Bayerフィルタ)光学的に接続された画像センサを有する第1の画像キャプチャ・システムおよびかかるカラー・フィルタ・アレイのない画像センサを有する第2の画像キャプチャ・システムを含んでもよい。代替的にまたはさらに、第1の画像キャプチャ・システムがロー・パス・フィルタに光学的に接続された画像センサを含んでもよく、第2の画像キャプチャ・システムはがかかるロー・パス・フィルタのない画像センサを含んでもよい。
幾つかの例では、本明細書で考慮するシステムは異なる焦点距離を有する光学機器を伴う画像キャプチャ・システムを含んでもよい。即ち、第1の画像データが第1の焦点距離でキャプチャされ、第2の画像データが第2の焦点距離でキャプチャされて、所与のシーンの異なる「ズーム」レベルを提供してもよい。
例示的な実施形態では、当該複数の画像キャプチャ・システムが様々な方法で配置されてもよい。例えば、当該画像キャプチャ・システムが大抵の立体イメージング・システムのように、直線に沿って配置されてもよい。代替的にまたはさらに、当該画像キャプチャ・システムを形状の境界に沿って配置してもよい。例えば、当該形状はリングまたは球を含んでもよい。かかるシナリオでは、当該画像キャプチャ・システムが360度視野をキャプチャするように動作可能であってもよい。他種のマルチスコピック画像キャプチャ・システムが考慮される。
本明細書で説明したコントローラは少なくとも1つのプログラム可能回路内シリアルプログラミング(ICSP)マイクロコントローラを含んでもよい。さらにまたは代替的に、グラフィカル演算装置(GPU)のような他種のマイクロプロセッサが本明細書で考慮される。
例示的なシステム
図1Aは、例示的な実施形態に従うシステム100を示す。システム100は第1の画像キャプチャ・システム110および第2の画像キャプチャ・システム120を含む。したがって、幾つかの実施形態では、システム100を立体イメージング・システムと考えてもよい。さらにまたは代替的に、システム100は画像キャプチャ・システム130を含んでもよい。かかるシナリオでは、システム100をマルチスコピック・イメージング・システムと考えてもよい。
画像キャプチャ・システム110および120がそれぞれ、電荷結合素子(CCD)または金属酸化物半導体(MOS)センサのような画像センサを含んでもよい。当該夫々の画像センサは無数の個々の写真センサまたは画素を含んでもよい。例示的な実施形態では、当該夫々の画像センサが3:2のアスペクト比で配置されてもよく、それぞれが3、872×2、592画素、またはおおよそ1千万画素を含んでもよい。しかし、異なるアスペクト比およびより多くまたは少ない画素を有する多数の他の画像センサが考慮される。
画像キャプチャ・システム110および120が、デジタル撮影および/またはデジタルビデオ情報を提供するように動作可能であってもよい。即ち、画像キャプチャ・システム110および120が、立体またはマルチスコピックのデジタル・スチル・カメラおよび/またはデジタル・ビデオ・カメラとして構成されてもよい。画像キャプチャ・システム110および120は様々な要素を含んでもよい。当該要素は、開口、シャッタ、記録面(例えば、1つまたは複数の画像センサ)、および/またはレンズを含むがこれらに限られない。
当該複数の画像キャプチャ・システムが異なる方位で配置されてもよい。例えば、立体イメージング・システムのシナリオにおいて、画像キャプチャ・システム110および120がベースライン距離により平行な光軸で分離されてもよい。代替的にまたはさらに、マルチスコピック・イメージング・システムのケースでは、当該複数の画像キャプチャ・システムを形状の境界に沿って配置してもよい。例えば、当該形状はリング、ディスク、または球を含んでもよい。システム100の当該複数の画像キャプチャ・システムの他の形状および/または配置が可能である。
システム100はユーザ・インタフェース140を含んでもよい。ユーザ・インタフェース140はディスプレイ142およびコントロール144を含んでもよい。ユーザ・インタフェース140が、スピーカ、スピーカジャック、オーディオ出力ポート、オーディオ出力デバイス、イヤホン、および/または他の同様なデバイスを介して可聴出力(複数可)を生成するように構成されてもよい。
例示的な実施形態では、ディスプレイ142がシステム100に関する情報を提供するように構成されたビューファインダおよび/または別のディスプレイを含んでもよい。ディスプレイ142は多要素発光ダイオード(LED)ディスプレイ、液晶(LCD)ディスプレイ、プラズマディスプレイまたは別のタイプのディスプレイを含んでもよい。例示的な実施形態では、ディスプレイ142がタッチ・スクリーンであってもよい。かかるシナリオでは、システム100のユーザが、ディスプレイ142と対話することでシステム100の設定を調節できてもよい。
コントロール144は、ユーザが対話できるボタン、スイッチ、ダイヤル、または他種のコントロールを含んでもよい。具体的には、コントロール144は、多数の他の可能性のうち、フォーカス、視野、ズーム、シャッタ速度、開口、および/またはISOを調節するように動作可能なシャッタボタンおよびコントロールを含んでもよい。例示的な実施形態では、当該シャッタボタンが、1つの画像フレームが画像キャプチャ・システム110および120の各々によりキャプチャされて画像ペアを形成する画像キャプチャ・プロセスをトリガするように動作可能であってもよい。代替的にまたはさらに、当該シャッタボタンが、複数の静的画像またはビデオ・ストリームをトリガするように動作可能であってもよい。さらに、幾つかの実施形態が、他のコントロールを介してまたはコントローラ150を介して当該画像キャプチャ・プロセスをトリガするステップを含んでもよい。例えば、当該画像キャプチャ・プロセスがタイマまたはリモートトリガを介してトリガしてもよい。
キャプチャされたデジタル画像が画素の1次元、2次元、または多次元アレイとして表されてもよい。各画素が夫々の画素の色および/または明度を符号化しうる1つまたは複数の値により表されてもよい。例えば、1つの可能な符号化はYCbCr色モデルを使用する。この色モデルでは、Yチャネルは画素の明度を表してもよく、CbおよびCrチャネルはそれぞれ、当該画素の青色度および赤色度を表してもよい。例えば、これらのチャネルの各々は0から255の値をとりうる。したがって、画素の明度を、当該画素が黒であるかまたは黒に近い場合は0または0に近い値で表してもよく、当該画素が白または白に近い場合には255または255に近い値で表してもよい。しかし、255の値は非限定的な参照点であり、幾つかの実装では異なる最大値(例えば、1023、4095等)を使用してもよい。
赤緑青(RGB)色モデルまたはシアン・マゼンタ・イエロー・キー(CMYK)のような他の色モデルをここでの実施形態で使用してもよい。さらに、画像内の画素が、生の(未圧縮)フォーマット、またはジョイント・フォトグラフィック・エキスパート・グループ(JPEG)、ポータブル・ネットワークグラフィック(PNG)、グラフィック交換フォーマット(GIF)等のような圧縮フォーマットを含む様々なファイルフォーマットで表されてもよい。
例示的な実施形態では、画像キャプチャ・システム110および120が、毎秒30フレーム(FPS)の速度で画像フレームをキャプチャするように構成されてもよい。しかし、より高速または低速のフレーム・レートを有する画像キャプチャ・システムが可能である。
さらにまたは代替的に、画像キャプチャ・システム110および120はバーストフレーム・レートを有する「バースト」キャプチャモードを含んでもよい。当該バーストフレーム・レートが、短期間にわたって通常よりも高速なキャプチャフレーム・レートを含んでもよい。例えば、画像キャプチャ・システム110および120が30FPSの「正常な」フレーム・レートを有するシナリオにおいて、画像キャプチャ・システム110および120はそれぞれ、バースト画像データを提供するように動作可能であってもよい。当該バースト画像データは、60FPSで連続的にキャプチャされた2組の10個の画像フレーム(各画像キャプチャ・システムから1セット)を含んでもよい。他のバースト画像フレーム量および他のバーストフレーム・レートが可能である。
例示的な実施形態では、画像キャプチャ・システム110および120が、協調された画像キャプチャを提供するように通信可能におよび/または機械的に接続されてもよい。即ち、夫々の画像フレームが、画像キャプチャ・システム110および120により実質的に同時に(例えば、同期して)キャプチャされてもよい。実質的に同時にキャプチャされた夫々の画像フレームを画像ペアと称してもよい。
幾つかの実施形態では、本明細書のどこかで説明するように、当該夫々の画像フレームが第1の画像キャプチャ・システム110および第2の画像キャプチャ・システム120により同時にキャプチャされる必要はない。しかし、当該夫々の画像フレーム間の相対的なキャプチャ時刻を測定、記録、および使用して、本明細書で説明した様々な画像調整をより容易に相関付けおよび/または決定してもよい。
幾つかの実施形態では、画像キャプチャ・システム110および120が実質的に同様であってもよく、物理位置および/または方位でのみ異なってもよい。しかし、他の実施形態では、画像キャプチャ・システム110および120が他の方法で異なってもよい。例えば、第1の画像キャプチャ・システム110がカラー・フィルタ・アレイに光学的に接続された画像センサを含んでもよく、第2の画像キャプチャ・システム120がカラー・フィルタ・アレイなしの画像センサを含んでもよい(または逆も成り立つ)。当該カラー・フィルタ・アレイが、その波長に基づいて光を選択的に吸収するように構成されたBayer色フィルタまたは別のタイプのフィルタを含んでもよい。
例示的な実施形態では、第1の画像キャプチャ・システム110がロー・パス・フィルタに光学的に接続された画像センサを含んでもよく、第2の画像キャプチャ・システム120がロー・パス・フィルタのない画像センサを含んでもよい(または逆も成り立つ)。
さらにまたは代替的に、第1の画像キャプチャ・システム110が、第1の焦点距離(例えば、35mm)を有する光学機器に光学的に接続された画像センサを含んでもよく、第2の画像キャプチャ・システムが第2の焦点距離(例えば、105mm)を有する光学機器に光学的に接続された画像センサを含んでもよく、または逆も成り立つ。かかるシナリオでは、本明細書で説明した画像処理動作の一部または全てが画像フレームの一部に関連してもよい。即ち、画像矯正、ワーピング、雑音除去、およびハイ・ダイナミック・レンジ処理を、当該画像キャプチャ・システムの夫々の視野が重複する画像フレームの「重複」部分に適用してもよい。
例示的な実施形態では、第1の画像キャプチャ・システム110および第2の画像キャプチャ・システム120がそれぞれ、立体イメージング・システムまたは双眼イメージング・システムの「左」および「右」の画像センサ(または逆も成り立つ)として動作可能であってもよい。即ち、第1の画像キャプチャ・システム110および第2の画像キャプチャ・システム120の組合せがシーンに関する立体イメージング情報を提供するように構成されてもよい。幾つかの実施形態では、画像キャプチャ・システム110および120の当該組合せが、3次元深度を示す情報および/または視覚的深度認識を提供するのに有用な情報を提供してもよい。
代替的にまたはさらに、画像キャプチャ・システム110、120、および/または130がウェラブルカメラを含んでもよい。さらに、任意数の画像キャプチャ・システム110、120、および/または130が他の画像キャプチャ・システムから物理的に切り離されてもよい。即ち、本明細書で考慮される画像キャプチャ・システムを異なる位置に配置してもよい。例えば、本明細書で考慮する画像キャプチャ・システムが、異なる位置に配置され複数のユーザにより操作される複数のスマートフォン・カメラを含んでもよい。さらにまたは代替的に、当該画像キャプチャ・システムのうち1つまたは複数が固定位置にあってもよく(例えば、三脚上で安定)、一方または他方の画像キャプチャ・システムがモバイルまたは可動であってもよい。当該複数の画像キャプチャ・システムの他の組合せ、方位、および配置が可能である。
システム100はまた、コントローラ150を含む。コントローラ150は1つまたは複数のプロセッサ152およびメモリ154を含んでもよい。例示的な実施形態では、コントローラ150は少なくとも1つのプログラム可能回路内シリアルプログラミング(ICSP)マイクロコントローラを含む。さらにまたは代替的に、1つまたは複数のプロセッサ152は、1つまたは複数の汎用目的プロセッサ(例えば、マイクロプロセッサ)および/または1つまたは複数の特殊目的プロセッサ、例えば、デジタル信号プロセッサ(DSP)、グラフィック演算装置(GPU)、浮動小数点ユニット(FPU)、ネットワークプロセッサ、または特殊用途向け集積回路(ASIC)を含んでもよい。メモリ154がコンピュータ可読プログラム命令を格納するように構成されてもよい。メモリ154が、光、磁気、有機、または他のメモリまたはディスク記憶のような揮発性および/または不揮発性記憶コンポーネントを含んでもよく、これらを1つまたは複数のプロセッサ152に全体としてまたは部分的に組みこんでもよい。幾つかの実施形態では、メモリ154を、単一の物理デバイス(例えば、1つの光、磁気、有機または他のメモリまたはディスク記憶ユニット)を用いて実装してもよく、他の実施形態では、メモリ154を、複数の物理デバイスを用いて実装してもよい。
1つまたは複数のプロセッサ152が当該命令を実行して動作を実施するように構成されてもよい。幾つかの実施形態では、当該動作が、画像キャプチャ・システム110、120、および/または130によりキャプチャされた1つまたは複数の画像の調整および/または拡張を含んでもよい。
コントローラ150が、通信インタフェースを介して第1の画像キャプチャ・システム110、第2の画像キャプチャ・システム120、および/または当該他の画像キャプチャ・システム130に通信可能に接続されてもよい。当該通信インタフェースは1つまたは複数の無線インタフェースおよび/または1つまたは複数の有線インタフェースを含んでもよい。これらにより、コントローラ150は、システム100の他の要素と1つまたは複数のネットワークを介して通信することができる。例示的な実施形態では、無線インタフェースは、Bluetooth(登録商標)、WiFi(例えば、IEEE802.11プロトコル)、ロング・ターム・エボリューション(LTE)、WiMAX(例えば、IEEE802.16標準)、無線周波数ID(RFID)プロトコル、近距離通信(NFC)、および/または他の無線通信プロトコルのような1つまたは複数の無線通信プロトコルの下での通信を提供してもよい。有線インタフェースが、ワイヤ、有線のツイストペア、同軸ケーブル、光リンク、光ファイバリンク、または他種の物理接続を介して通信するためのEthernetインタフェース、ユニバーサル・シリアル・バス(USB)インタフェース、または同様なインタフェースを含んでもよい。また、当該通信インタフェースの一部を少なくとも構成する1つまたは複数のルータ、スイッチ、および/または他のデバイスまたはネットワークがあってもよい。
図1Aはコントローラ150が第1の画像キャプチャ・システム110および第2の画像キャプチャ・システム120から略離れているとして示しているが、コントローラ150が、システム100の1つまたは複数の要素に物理的に配置されるかまたはそれに組み込まれてもよい。例えば、コントローラ150を第1の画像キャプチャ・システム110に組み込んでもよい。代替的に、コントローラ150を第2の画像キャプチャ・システム120に組み込んでもよい。さらに、コントローラ150が第1の画像キャプチャ・システム110および第2の画像キャプチャ・システム120の間で分散してもよい。別の実施形態では、コントローラ150は分散コンピューティング・ネットワークおよび/またはクラウド・コンピューティング・ネットワークを含んでもよい。
図1Bは例示的な実施形態に従うシステム160の側面図および上面図を示す。システム160が、図1Aを参照して図示および説明されたシステム100の幾つかのまたは全ての要素を含んでもよい。例えば、システム160は第1の画像キャプチャ・システム110および第2の画像キャプチャ・システム120を含んでもよい。
当該画像キャプチャ・システムの組合せが、シーンを参照するために配置されてもよい。具体的には、システム160が、当該シーンに基づいて画像(例えば、デジタル画像情報)を提供するように構成されてもよい。
例示的な実施形態では、第1の画像キャプチャ・システム110および第2の画像キャプチャ・システム120が、ベースライン分離162、またはベースライン距離で互いに離れて配置されてもよい。幾つかの実施形態では、ベースライン分離162が、第1の画像キャプチャ・システム110および第2の画像キャプチャ・システム120の各光軸の間の距離に基づいてもよい。第1の画像キャプチャ・システム110および第2の画像キャプチャ・システム120の光軸が平行であってもよい。しかし、幾つかの実施形態では、当該光軸が平行である必要はない。さらに、当該光軸のうち少なくとも1つが調節可能であってもよい。
幾つかの実施形態では、当該シーンはオブジェクト164を含んでもよい。かかるシナリオでは、第1の画像キャプチャ・システム110および第2の画像キャプチャ・システム120は夫々の画像データ114および124を提供してもよい。画像データ114および124は当該シーンおよびオブジェクト164に関する画像情報を含んでもよい。画像データ114および124が、少なくとも第1の画像キャプチャ・システム110および第2の画像キャプチャ・システム120の異なる物理位置のため、異なってもよい。例えば、画像フレーム112および122に示すように、オブジェクト164の相対的な位置が画像フレーム112および122内で異なってもよい。即ち、オブジェクト164が画像フレーム112および122の両方に含まれてもよい。しかし、オブジェクト164が、画像フレーム112および122内の異なる相対的な位置に出現してもよい。オブジェクト164の当該相対的な位置における差分が、その特定の画像特徴に対する視差を考慮してもよい。当該夫々の画像キャプチャ・システムからの他の距離および/または位置に対応する他の画像特徴が視差の他の値に関連してもよい。
図1Bはオブジェクト164のみを含むシーンを含むが、説明の目的のためにのみ、簡単な説明が提供されていることは理解される。画像キャプチャ・システム110および120がより複雑なシーンをキャプチャするように構成されてもよい。例えば、システム160が、任意数のオブジェクトまたは特徴(またはかかるオブジェクトまたは特徴の欠如)を含みうる多種多様なシーンを撮像するように構成されてもよい。
図2A、2B、および2Cは本開示の範囲内で考慮される様々な画像キャプチャ・シナリオを示す。
図2Aは、例示的な実施形態に従う画像キャプチャ・シナリオ200を示す。画像キャプチャ・シナリオ200は第1の画像キャプチャ・システムおよび第2の画像キャプチャ・システムを含む。これらが、図1Aおよび1Bを参照して図示および説明した画像キャプチャ・システム110および120と同様または同一であってもよい。時刻tで、第1の画像キャプチャ・システムが画像フレーム210をキャプチャし始めてもよい。即ち、第1の画像キャプチャ・システムの画像センサはtおよびtの間に露出期間202に対するシーンから光子を収集してもよい。時刻tでまた、第2の画像キャプチャ・システムが画像フレーム220のキャプチャを開始してもよい。第1の画像キャプチャ・システムと同様に、第2の画像キャプチャ・システムがtおよびtの間に露出期間202に対するシーンから光子を収集してもよい。画像フレーム210および画像フレーム220の組合せを画像ペア1と考えてもよい。
後続の画像ペア、当該複数の画像キャプチャ・システムによりキャプチャされてもよい。即ち、画像ペア2が、画像フレーム212および222を含み、tおよびtの間に露出期間204にわたってキャプチャされてもよい。さらに、画像フレーム214および224を含む画像ペア3がtおよびtの間に露出期間206にわたってキャプチャされてもよい。この特定の時間シーケンスおよび露出期間が変化してもよいことは理解される。
図2Bは、例示的な実施形態に従う画像キャプチャ・シナリオ230を示す。かかるシナリオでは、夫々の画像ペアの画像フレームが同一の露出期間でキャプチャされる必要はない。例えば、画像フレーム232が、tからtの露出期間にわたって第1の画像キャプチャ・システムによりキャプチャされてもよい。しかし、画像フレーム238がより短い露出期間にわたってキャプチャされてもよい。それにもかかわらず、画像フレーム232および238を、本開示の目的のために画像ペア1と考えてもよい。例えば、各夫々の画像ペアからの1つまたは複数の画像がベース画像または参照画像に関して異なる明度を有してもよい。かかるシナリオでは、アナログおよび/またはデジタル・ゲインが場合によっては当該夫々の画像センサで適用されてもよく、またはデジタル・ゲインを、当該ベース画像と同様に「総露出」(例えば、露出時間とゲインの積)を提供するために当該夫々の画像(複数可)に適用してもよい。したがって、当該様々な画像フレームをより容易に比較および/または結合してもよく、画像矯正、ステレオワーピング、および雑音除去を依然として成分画像フレームに適用してもよい。同様に、画像フレーム240および242が対応する画像フレーム234および236と比較して異なる露出期間を有してもよい。
図2Cは例示的な実施形態に従う画像キャプチャ・シナリオ250を示す。示すように、画像フレーム258、260、および262は異なる露出期間を有してもよく、かつ/または、対応する画像フレーム252、254、および256と比較して異なる時点に開始してもよい(例えば、当該夫々の画像が異なる時点で開始および/または終了してもよい)。それにもかかわらず画像フレーム(252&258)、(254&260)、および(256&262)が本開示の範囲内の画像ペアを考慮してもよい。
図3は例示的な実施形態に従う流れ図300を示す。本明細書で説明したように、コントローラ150が様々な動作を実行するように構成されてもよい。流れ図300の様々なブロックは幾つかのまたは全てのかかる動作を示してもよい。さらに、流れ図300のブロックは、図1Aおよび1Bに関して図示および説明されたシステム100および/または160の要素を含みうる動作を図示および説明する。流れ図300のブロックは特定の順序を有するとして示されているが、1つまたは複数のブロックを、除去し、追加し、反復し、別のブロックと並列に完了し、および/またはばらばらに完了してもよい。
例えば、示すようにブロック302で、コントローラ150が、バースト画像データを画像キャプチャ・システム110および120から受信するように動作可能であってもよい。当該バースト画像データは、第1の画像キャプチャ・システム110からの第1の画像データおよび第2の画像キャプチャ・システム120からの第2の画像データを含んでもよい。当該バースト画像データは少なくとも1つの画像ペアを含んでもよい。さらにまたは代替的に、当該バースト画像データは複数の画像ペア(例えば、10画像ペア)および/またはビデオ・ストリームを含んでもよい。
ブロック304で示すように、コントローラ150が、当該バースト画像データに基づいて少なくとも1つの整形ホモグラフィ関数を決定するように構成されてもよい。当該少なくとも1つの整形ホモグラフィ関数が、当該少なくとも1つの画像ペアの対応する画像部分を整列するように構成されてもよい。当該少なくとも1つの整形ホモグラフィ関数が、通常の利用の前に較正手続きに基づいて決定されてもよい。例えば、当該較正手続きが基本行列を提供してもよい。当該基本行列は画像キャプチャ・システム110と120の間の幾何的関係を記述しうる。
さらにまたは代替的に、当該較正手続きは、画像キャプチャ・システム110および120のエピポーラ幾何に関する情報を提供してもよい。例えば、かかる情報が、画像キャプチャ・システム110および120の対応するエピポーラ線を含んでもよい。エピポーラ幾何に関する情報は、少なくともエピポーラ線の知識が、ターゲット画像を参照画像で整列しようと試みるときに可能な検索パラメータを削減しうるので(例えば、1D線に沿った対応するオブジェクト/特徴の検索と、2D領域内の対応するオブジェクト/特徴の検索)、画像処理効率を高め得る。
代替的にまたはさらに、当該少なくとも1つの整形ホモグラフィ関数が、「オンザフライで」、例えば、画像ペアの両方のフレーム内の対応する特徴のような画像ペアのフレームの間の比較に基づいて、決定されてもよい。かかるシナリオでは、当該2つのカメラの間の1つまたは複数の基本行列が、当該画像ペアの対応する特徴に基づいて決定されてもよい。1例として、当該基本行列が、当該画像ペアの水平軸上の対応する点の視差または最小二乗誤差に基づいて決定されてもよい。
整形ホモグラフィ関数(複数可)が線形変換を含んでもよい。当該線形変換は回転変換、拡大変換、および/または画像スキュー変換を含んでもよい。例えば、当該回転変換が第2の画像フレームに関して第1の画像フレームを回転するステップを含んでもよく、または逆も成り立つ。当該拡大変換が、第2の画像フレームに関して第1の画像フレームを拡大または縮小するステップを含んでもよく、または逆も成り立つ。当該画像スキュー変換が画像をz軸捩れに関して調整するステップを含んでもよい。他種の画像変換が、画像ペアのフレームおよび/または一般にバースト画像データを整列または整形するために考慮される。
例示的な実施形態では、整形ホモグラフィ関数(複数可)が、シーンのエピポーラ幾何の計算または推定に基づいて画像フレームを整列するように動作可能であってもよい。即ち、当該画像フレームの一方または両方が共通画像平面をエミュレートするように変換されてもよい。整形ホモグラフィ関数(複数可)が様々な画像処理技術を用いて決定されてもよいことは理解される。各かかる画像処理技術が本明細書で考慮されている。
ブロック306で示すように、コントローラ150が、第1の画像データまたは第2の画像データのうち少なくとも1つを、決定された少なくとも1つの整形ホモグラフィ関数に従って調節するように動作可能であってもよい。即ち、コントローラ150が、相対的な回転、スキュー、スケール等を調整することで、第1の画像データを第2の画像データで整列してもよい。幾つかの実施形態では、第1の画像データまたは第2の画像データの1つが当該少なくとも1つの整形ホモグラフィ関数に従って修正されてもよい。幾つかの他の実施形態では、第1の画像データおよび第2の画像データの両方が当該少なくとも1つの整形ホモグラフィ関数に従って修正される。
例示的な実施形態では、当該少なくとも1つの整形ホモグラフィ関数に従って第1のおよび/または第2の画像データを調整するステップが、オプティカル・フローまたは他の画像処理アルゴリズムに従って当該画像データをさらに調整する前に、当該画像データの「疎な整列」を提供してもよい。
ブロック308で示すように、コントローラ150が、バースト画像データの視差の決定を実施するように動作可能であってもよい。当該視差は、立体画像ペアの「左」および「右」の画像における2つの対応する点の間の距離を含んでもよい。例示的な実施形態では、当該視差がベースライン距離に少なくとも基づいて当該コントローラにより決定されてもよい。他の実施形態では、当該視差が、立体画像ペアの左および右の画像の間の比較に基づいて決定されてもよい。例示的な実施形態では、当該視差の決定が、第1の画像データ、第2の画像データ、およびベースライン距離に基づいて視差関数を推定するステップを含んでもよい。換言すれば、当該視差が3次元画像処理方法の一部として決定されてもよい。
幾つかの実施形態では、コントローラ150が、当該立体画像ペアの左および右の画像の間の比較に基づいて視差画像を提供するように構成されてもよい。例示的な実施形態では、当該視差画像が、当該立体画像ペアの左および右の画像フレーム内の対応する特徴の間の幾何的視差に基づく画素明度レベルを有する画像フレームを含んでもよい。さらにまたは代替的に、コントローラ150が、当該立体画像ペアの当該画像フレームの間の比較に基づいて視差マップを提供するように構成されてもよい。
他の情報が、当該視差の決定を支援するために取得および/または受信されてもよい。例えば、コントローラ150は、LIDAR、RADAR、超音波センサまたは別のタイプの距離測定システムを介して範囲データを受信してもよい。コントローラ150はこの範囲データを利用して、当該視差を少なくとも部分的に決定してもよい。
ブロック310で示すように、コントローラ150が、決定された視差に従って各画像ペアの少なくとも1つの画像を「ワープ」または修正するように動作可能であってもよい。即ち、コントローラ150は各画像ペアの少なくとも1つの画像を、それが実質的に当該画像ペアの対応する画像にマッチするように調節してもよい。幾つかの例では、かかる画像調整が、決定された視差および/または推定された視差関数の逆を第1の画像データまたは第2の画像データのうち少なくとも1つに適用するステップを含んでもよい。当該バースト画像データのかかるワーピングが、ワープされた画像スタックを形成してもよい。幾つかの実施形態では、当該ワープされた画像スタックは、オブジェクト動き、カメラ動き、および/または画像雑音の可能な例外を伴って、互いと実質的に同様である画像フレームを含んでもよい。
代替的にまたはさらに、画像調整が、参照画像内の対応する位置に基づくターゲット画像内の1つまたは複数の画素(例えば、正確に整列された画素)を移動するステップを含んでもよい。2つの画像が同時に異なる視点からキャプチャされるシナリオにおいて、当該シーンのオプティカル・フロー・マップが提供されてもよい。当該オプティカル・フロー・マップが、例えば、当該参照画像内の対応する正しく整列された画素に基づいて当該ターゲット画像内で移動された各画素に対する相対的な距離および/または方向を含んでもよい。当該オプティカル・フロー・マップを、当該シーンの深度マップを提供するために使用してもよい。例えば、当該深度マップが、当該画像キャプチャ・システム(複数可)のベースライン距離および/または視野に基づいてもよい。
ブロック312で示すように、コントローラ150が雑音を当該ワープされた画像スタックから除去するように構成されてもよい。即ち、コントローラ150がバーストノイズ除去アルゴリズムを当該ワープされた画像スタックに適用して少なくとも1つの出力画像を生成してもよい。当該少なくとも1つの出力画像はより少ないショット雑音または他種の画像雑音を含みうる。
例示的な実施形態では、当該バーストノイズ除去アルゴリズムは、ワープされた画像スタックの加重平均を決定するステップを含んでもよい。かかるシナリオでは、当該加重平均は当該ワープされた画像スタックの対応する画素の画素単位平均を含んでもよい。当該加重平均が、他の可能性のうち、対応する画素強度、色、および/または光度に基づいてもよい。代替的にまたはさらに、当該バーストノイズ除去アルゴリズムはロー・パス・フィルタおよび/または高速フーリエ変換(FFT)を含んでもよい。さらに、他の実施形態が、(例えば、色、明度等に基づいて)同様な画素領域を識別しこれらの領域に対してフィルタおよび/または平均化を適用するバーストノイズ除去アルゴリズムを含んでもよい。
幾つかの実施形態では、Wienerフィルタを、ワープされた画像スタックから望ましくない雑音をフィルタするために使用してもよい。かかるシナリオでは、Wienerフィルタは推定されたランダム・プロセス(例えば、ショット雑音)と所望の画像との間の平均二乗誤差を削減または最小化してもよい。さらにまたは代替的に、ブロック・マッチングおよび3Dフィルタ(BM3D)または非局所平均のような他種の画像雑音除去フィルタが可能である。様々な他のノイズ除去技術およびアルゴリズムが可能であり、本明細書で考慮されることは理解される。
幾つかの画素符号化では、各画素の明度を表すのに8ビットを使用する。そのようにすることは、ロー・ダイナミック・レンジ(LDR)イメージングと称される。結果として、256レベルのみの明度がサポートされうる。しかし、実世界シーンはしばしば、合理的にLDRイメージングにより表されうる広い動的な範囲の明度を示す。例えば、個人が暗い部屋の中で窓の前に立っているシーンは極度に明るい領域および極度に暗い領域の両方を含みうる。しかし、かかるシーンの画像をキャプチャするためのLDRイメージングの利用は、当該画像がキャプチャされた露出長に基づいて当該明るい領域および/または当該暗い領域の細部の損失をもたらしうる。
短い露出長はシーンの明るい領域の合理的に正確な表現を生成しうるが、暗い領域の露出不足をもたらしうる。反対に、長い露出長は暗い領域の合理的に正確な表現を生成しうるが、明るい領域を過度に露出するおそれがある。この例示的なシーンでは、露出長が長すぎる場合、部屋の中の特徴は正しく露出されたようにみえるが、窓外部の特徴はかき消されたように見える。しかし、露出長が短すぎる場合、窓外部の特徴は正常に見えるが、部屋の中の特徴は暗くなったように見える。これらの結果の何れかは望ましくない。幾つかのシーンに対して、明るい領域および暗い領域の両方の細部を許容可能な細部で表現するキャプチャされた画像をもたらす単一の露出長は無いかもしれない。
個人が暗い部屋の中で窓の前に立っているシナリオでは、第1の画像フレームを第1の露出長でキャプチャしてもよい。第1の露出長は当該シーンの空および雲の部分を正しく露出しうるが、人および周囲の部屋の不正確な露出(例えば、露出不足)をもたらしうる。第2の画像フレームを第2の露出長でキャプチャしてもよい。第2の露出長は人および周囲の部屋を正しく露出しうるが、当該シーンの空および雲の部分の不正確な露出(例えば、過度な露出)をもたらしうる。
場合によっては、ブロック314で示すように、コントローラ150が、ハイ・ダイナミック・レンジ(HDR)処理をワープされた画像スタックおよび/または1つまたは複数の出力画像に適用するように動作可能であってもよい。以上の例を用いて、画像スタックの第1の画像フレームの正しく露出された画素を、第1の画像フレーム内の不正確に露出された画素に対応する当該画像スタックの第2の画像フレーム内の画素と結合してもよい。例えば、第1の画像フレームの正しく露出された空および雲の部分を、第2の画像フレームからの正しく露出された人および部屋の部分と結合してもよい。結果の複合画像は当該シーンの明るい領域および暗い領域の両方の細部を合理的に良好に再生しうる。
キャプチャされた画像からの画素を結合して複合画像を形成することを、幾つかの方法で実現してもよい。例えば、画像の画素ごとの組合せを、例えば当該画素の明度に従って各画像の画素に重みを割り当てることで形成してもよい。ついで、その重みに依存して、特定の画素を最終的な画像に含めるかまたはそこから排除してもよい。代替的に、複数のLDR画像をHDR画像に結合してもよく、当該HDR画像をついで、その明度が、従来型のビデオ出力デバイスのディスプレイ能力と同等の範囲内に入るように、トーン・マップしてもよい。しかし、キャプチャされた画像から画素を結合する他の方法を、本明細書の実施形態の代わりに使用してもよい。
幾つかの実施形態では、HDR処理を、自動露出ブラケット(AEB)を用いてキャプチャされた画像フレームに基づいて実施してもよい。即ち、ワープされた画像スタックが、或る範囲の露出期間を有する画像フレームを含んでもよい。したがって、HDR出力画像が、当該ワープされた画像スタック内の複数の画像フレームからの正しく露出された領域に基づいて提供されてもよい。幾つかの実施形態では、当該バースト画像データが、18個の露出値(EV)にわたってキャプチャされた画像フレームを含んでもよい。他の露出ブラケット範囲が可能である。
HDR出力画像を提供するための、HDR、または「HDR風の」処理をワープされた画像スタックおよび/または出力画像(複数可)に適用する他の方法が可能である。例えば、出力画像の露出、明度、ガンマ、色、または他の態様を、過度に露出された領域および露出不足である領域を減らすために調節してもよい。かかるシナリオでは、出力画像の陰影を増やしてもよく、出力画像のハイライトを減らしてもよい。
さらにまたは代替的に、1つまたは複数の出力画像が、局所コントラストを保持しつつ当該出力画像のダイナミックレンジまたはコントラスト比を低減するためにトーン・マップされてもよい。画像の細部を保持しつつ画像の過度に露出された領域および露出不足な領域を削減するための他の方法が本明細書で考慮される。
シーン動きの量を増大させることである。
例示的な実施形態では、コントローラ150が、同様な特性をもつ画像画素を有する「タイル」に従って各画像フレーム内の画素をグループ化、指定、および/または分離するために画像データを分析するように動作可能であってもよい。1例として、画像フレームを分析して、画素の明度、色、トーン、形状、エッジ等のような1つまたは複数の画像の特性に従って同様なタイルまたは領域を決定してもよい。例えば、高い明度(例えば、空)を有する画素領域が第1のタイルに関連付けられてもよく、低い明度(例えば、地上)を有する画素領域が第2のタイルに関連付けられてもよい。幾つかの実施形態では、単一の画像フレームが何十、何百、何千、またはそれ以上のタイルを含んでもよい。
バースト画像データが、上述したのと同様な方式でタイルされてもよい。したがって、当該バースト画像データが、夫々の画像フレーム内の同様な形状および位置を有するタイルを伴う画像フレームを含んでもよい。当該夫々の画像フレーム間の対応するタイルをマッチすることは、画素全体を検索するよりも実質的に高速であるかもしれない。
したがって、本明細書で説明した画像処理動作の何れかを、タイルベースで実施してもよい。即ち、少なくとも1つの整形ホモグラフィ関数が、対応するタイルを少なくとも1つの画像ペア内で整列することに基づいて決定されてもよい。さらに、視差が、立体画像ペア(複数可)の画像フレーム内の同様なタイルの相対的な位置を比較することで決定されてもよい。さらに、バーストノイズ除去アルゴリズムを、ワープされた画像スタックの各画像フレームの対応するタイルを比較することで実施してもよい。さらに、HDR処理が、当該ワープされた画像スタックの様々な画像フレームからの正確に露出されたタイルを結合するステップを含んでもよい。
幾つかの実施形態では、タイルを扱うことに基づく画像処理が、画素ごとの画像処理に対する速度および画像品質の改善をもたらしうる。例えば、タイルされた画像処理は、「ゴースト発生」、ぼかし画像アーチファクト、および/またはタイル境界のエッジでのアーチファクトを削減または排除しうる。
例示的な方法
図4は、例示的な実施形態に従う方法400を示す。方法400が様々なブロックまたはステップを含んでもよい。当該ブロックまたはステップを独立にまたは組合せで実施してもよい。当該ブロックまたはステップを、任意の順序でおよび/または逐次的にまたは並列に実施してもよい。さらに、ブロックまたはステップを省略するかまたは方法400に追加してもよい。
方法400の幾つかのまたは全てのブロックが、図1Aおよび1Bを参照して図示および説明されたシステム100および/またはシステム160の要素を含んでもよい。さらに、方法400の様々なブロックが図3の流れ図300を参照して図示および説明された動作と同様または同一であってもよい。
ブロック402は、コンピューティング・システムにより、バースト画像データを受信するステップを含む。当該コンピューティング・システムが、図1Aに関して図示および説明されたコントローラ150と同様または同一であってもよい。当該バースト画像データは第1の画像キャプチャ・システムにより生成される第1の画像データおよび第2の画像キャプチャ・システムにより生成される第2の画像データを含む。第1の画像キャプチャ・システムおよび第2の画像キャプチャ・システムの各光軸がベースライン距離により分離され、実質的に同一方向を向いてもよい。第1の画像データおよび第2の画像データは少なくとも1つの画像ペアを含む。
ブロック404は、当該コンピューティング・システムにより、少なくとも1つの整形ホモグラフィ関数を決定するステップを含む。当該少なくとも1つの整形ホモグラフィ関数は、当該複数の画像ペアの夫々の画像ペアを整列するように構成される。例示的な実施形態では、当該少なくとも1つの整形ホモグラフィ関数は幾何画素補正関数および光度計画素補正関数を含む。
ブロック406は、当該少なくとも1つの整形ホモグラフィ関数に従って第1の画像データまたは第2の画像データのうち少なくとも1つを調節するステップを含む。
ブロック408は、当該コンピューティング・システムにより、当該ベースライン距離に少なくとも基づいて当該バースト画像データの視差を決定するステップを含む。例示的な実施形態では、当該バースト画像データの当該視差を決定するステップは、第1の画像データ、第2の画像データ、およびベースライン距離に基づいて視差関数を推定するステップを含む。
ブロック410は、第1の画像データまたは第2の画像データのうち少なくとも1つを当該決定された視差に従って調節して、ワープされた画像スタックを提供するステップを含む。例示的な実施形態では、当該決定された視差に従って第1の画像データまたは第2の画像データのうち少なくとも1つを調節するステップは、当該推定された視差関数の逆を第1の画像データまたは第2の画像データのうち少なくとも1つに適用するステップを含む。
ブロック412は、バーストノイズ除去アルゴリズムに従って少なくとも1つの出力画像を生成するステップを含む。当該バーストノイズ除去アルゴリズムは、当該ワープされた画像スタックの加重平均を決定するステップを含む。例えば、幾つかの実施形態では、当該加重平均は、当該ワープされた画像スタックの対応する画素の画素単位平均を含む。
場合によっては、当該方法は、ハイ・ダイナミック・レンジ(HDR)関数を当該少なくとも1つの出力画像に適用して少なくとも1つのHDR出力画像を提供するステップを含んでもよい。
幾つかの実施形態では、第1の画像キャプチャ・システムおよび第2の画像キャプチャ・システムは、例えば、当該画像キャプチャ・システムが異なる画像センサ、光路、光伝達関数(OTF)、および/または視野を有することに基づいて異なる夫々の画像を提供してもよい。かかるケースでは、本明細書で説明した方法およびプロセスを依然として適用してもよい。例えば、画像配列、ワーピング、および雑音除去プロセスを、当該夫々の画像キャプチャ・システムからの画像の間の関連する差分(複数可)を補償する際にバースト画像データに適用してもよい。
1例として、第1の画像キャプチャ・システムは、カラー・フィルタ・アレイに光学的に接続された画像センサを含んでもよく、第2の画像キャプチャ・システムはカラー・フィルタ・アレイなしの画像センサを含んでもよい。任意の画像補償ブロックまたはステップは、一方のまたは両方の画像キャプチャ・システムからの画像フレームの少なくとも幾つかの画素の明度レベルを、例えば、当該カラー・フィルタ・アレイの波長依存光伝達関数に基づいて調整するステップを含んでもよい。
別のシナリオでは、第1の画像キャプチャ・システムは、ロー・パス・フィルタに光学的に接続された画像センサを含んでもよく、第2の画像キャプチャ・システムはロー・パス・フィルタのない画像センサを含んでもよい。かかる例では、任意の画像補償ブロックまたはステップが、当該画像フレームの画像情報の明度レベル、または別の態様を当該ロー・パス・フィルタの波長依存光伝達関数に基づいて調整するステップを含んでもよい。
さらに、別の実施形態では、第1の画像キャプチャ・システムが、例えば、第1の焦点距離を有する光学機器に光学的に接続された画像センサを含んでもよく、第2の画像キャプチャ・システムは、第1の焦点距離と異なる第2の焦点距離を有する光学機器に光学的に接続された画像センサを含んでもよい。かかるシナリオでは、任意の画像補償ブロックまたはステップが、一方のまたは両方の組の画像データを、当該夫々の画像キャプチャ・デバイス内の光学機器の差分に基づいて調整するステップを含んでもよい。非限定的な例として、当該画像データを、異なる視野、口径食、歪み(例えば、樽、針刺し、または口髭歪み)、および当該2つの異なる組の光学機器の間の色収差を補償することに基づいて調節してもよい。例えば、樽歪みの差分をBrown-Conrady歪み補正アルゴリズムを用いて補償してもよい。上述の異なる光シナリオを補完するために様々な他の画像補正アルゴリズムを実装してもよいことは理解される。かかる他の画像補正アルゴリズム全てが本開示の範囲内で考慮される。
図に示す特定の配置を限定として考えるべきではない。他の実施形態が所与の図に示した各要素のうちより多くまたは少ないものを含んでもよいことは理解されるべきである。さらに、図示した要素の一部を結合または省略してもよい。さらに、例示的な実施形態が、図に示していない要素を含んでもよい。
情報の処理を表すステップまたはブロックは、本明細書で説明した方法または技術の特殊ロジック関数を実施するように構成されうる回路に対応しうる。代替的にまたはさらに、情報の処理を表すステップまたはブロックはモジュール、セグメント、または(関連データを含む)プログラムコードの部分に対応しうる。当該プログラムコードが、当該方法または技術における特殊ロジック関数またはアクションを実装するためのプロセッサにより実行可能な1つまたは複数の命令を含むことができる。当該プログラムコードおよび/または関連データを、ディスク、ハード・ドライブ、または他の記憶媒体を含む記憶デバイスのような任意のタイプのコンピュータ可読媒体に格納しうる。
当該コンピュータ可読媒体はまた、レジスタメモリ、プロセッサキャッシュ、およびランダムアクセスメモリ(RAM)のような短期間データを格納するコンピュータ可読媒体のような非一時的コンピュータ可読媒体を含むことができる。当該コンピュータ可読媒体はまた、プログラムコードおよび/またはデータをより長期間格納する非一時的コンピュータ可読媒体を含むことができる。したがって、当該コンピュータ可読媒体は、例えば、読取専用メモリ(ROM)、光または磁気ディスク、コンパクト・ディスク読取専用メモリ(CD-ROM)のようなセカンダリまたは永続長期記憶を含んでもよい。当該コンピュータ可読媒体は任意の他の揮発性または不揮発性記憶システムであることもできる。コンピュータ可読媒体をコンピュータ可読記憶媒体、例えば、または有形記憶デバイスと考えることができる。
様々な例および実施形態を開示したが、他の例および実施形態は当業者に明らかであろう。当該様々な開示された例および実施形態は例示の目的のためであり、限定を意図するものではない。その真の範囲と趣旨は添付の特許請求の範囲により示される。
110 第1の画像キャプチャ・システム
120 第2の画像キャプチャ・システム
140 ユーザ・インタフェース
142 ディスプレイ
144 コントロール
150 コントローラ
152 プロセッサ(複数可)
154 メモリ

Claims (8)

  1. 複数の画像キャプチャ・システムであって、前記複数の画像キャプチャ・システムは少なくとも第1の画像キャプチャ・システムおよび第2の画像キャプチャ・システムを含み、前記第1および前記第2の画像キャプチャ・システムの各光軸はベースライン距離により分離され、前記第1および前記第2の画像キャプチャ・システムは一緒にバースト画像データをキャプチャするように動作可能である、前記複数の画像キャプチャ・システムと、
    メモリおよびプロセッサを備えたコントローラであって、前記メモリは命令を含むように構成され、前記プロセッサは動作を実施するために前記命令を実行するように構成される、コントローラと、
    を備え、前記動作は、
    前記複数の画像キャプチャ・システムからバースト画像データを受信するステップと、
    ワープされた画像スタックを提供するために前記受信したバースト画像データを調整するステップと、
    バーストノイズ除去アルゴリズムに従って少なくとも1つの出力画像を生成するステップであって、前記バーストノイズ除去アルゴリズムは前記ワープされた画像スタックの加重平均を決定することを含む、ステップと、
    を含み、
    前記バースト画像データは少なくとも1つの画像ペアを含み、前記少なくとも1つの画像ペアは第1の画像と第2の画像とを含み、
    前記少なくとも1つの画像ペアの前記第1の画像は前記第1の画像キャプチャ・システムにより第1の露出時間でキャプチャされ、前記少なくとも1つの画像ペアの前記第2の画像は前記第2の画像キャプチャ・システムにより第2の露出時間でキャプチャされ、前記第1の露出時間は前記第2の露出時間と異なり、
    前記第1の画像キャプチャ・システムは第1の光学機器に光学的に接続された第1の画像センサを備え、前記第1の画像センサと前記第1の光学機器は第1の焦点距離と関連し、前記第2の画像キャプチャ・システムは第2の光学機器に光学的に接続された第2の画像センサを備え、前記第2の画像センサと前記第2の光学機器は第2の焦点距離と関連し、前記第1の焦点距離は前記第2の焦点距離と異なり、
    前記動作は、ハイ・ダイナミック・レンジ(HDR)処理を前記ワープされた画像スタックに適用するために前記第1の画像の正しく露出された画素を前記第1の画像の不正確に露出された画素に対応する前記第2の画像内の画素と結合するステップをさらに含む、
    システム。
  2. 前記ワープされた画像スタックを提供するために前記受信したバースト画像データを調整するステップは、
    前記ベースライン距離に少なくとも基づいて前記受信したバースト画像データの視差を決定するステップと、
    前記決定された視差に従って前記受信したバースト画像データを調整するステップと、
    を含む、請求項1に記載のシステム。
  3. 前記受信したバースト画像データの視差を決定するステップは前記受信したバースト画像データと前記ベースライン距離に基づいて視差関数を推定するステップを含む、請求項2に記載のシステム。
  4. 前記決定された視差に従って前記受信したバースト画像データを調整するステップは前記バースト画像データの少なくとも1つに前記推定された視差関数の逆を適用するステップを含む、請求項3に記載のシステム。
  5. 前記ワープされた画像スタックを提供するために前記受信したバースト画像データを調整するステップは、
    前記バースト画像データの2以上の異なる画像内のキャプチャされたオブジェクトの相対的な位置の差に少なくとも基づいて前記受信したバースト画像データの視差を決定するステップと、
    前記決定した差分に従って前記受信したバースト画像データを調整するステップと
    を含む、請求項1に記載のシステム。
  6. 前記動作は、
    少なくとも1つのホモグラフィ関数を決定するステップであって、前記少なくとも1つのホモグラフィ関数は前記バースト画像データの2以上の画像の対応する画像部分を整列するように構成される、ステップと、
    前記少なくとも1つのホモグラフィ関数に従って前記バースト画像データの前記2以上の画像うちの少なくとも1つを調節するステップと
    をさらに含む、請求項1に記載のシステム。
  7. 前記バースト画像データは参照総露出を有する参照画像と少なくとも1つの非参照画像とを含み、前記ワープされた画像スタックを提供するために前記受信したバースト画像データを調整するステップは、
    前記少なくとも1つの非参照画像を前記参照画像と比較するステップと、
    前記比較に基づいて、各非参照画像が前記参照総露出と同等の総露出を備えるように各非参照画像にゲインを適用するステップと、
    を含む、請求項1に記載のシステム。
  8. 前記第1の焦点距離は35mmで前記第2の焦点距離は105mmである、請求項1に記載のシステム。
JP2019116364A 2015-12-07 2019-06-24 マルチスコピック雑音削減およびハイ・ダイナミック・レンジのためのシステムおよび方法 Active JP7186672B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/961,102 US9762893B2 (en) 2015-12-07 2015-12-07 Systems and methods for multiscopic noise reduction and high-dynamic range
US14/961,102 2015-12-07

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018513646A Division JP6818015B2 (ja) 2015-12-07 2016-11-30 マルチスコピック雑音削減およびハイ・ダイナミック・レンジのためのシステムおよび方法

Publications (3)

Publication Number Publication Date
JP2019165506A JP2019165506A (ja) 2019-09-26
JP2019165506A5 JP2019165506A5 (ja) 2020-11-12
JP7186672B2 true JP7186672B2 (ja) 2022-12-09

Family

ID=58800470

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018513646A Active JP6818015B2 (ja) 2015-12-07 2016-11-30 マルチスコピック雑音削減およびハイ・ダイナミック・レンジのためのシステムおよび方法
JP2019116364A Active JP7186672B2 (ja) 2015-12-07 2019-06-24 マルチスコピック雑音削減およびハイ・ダイナミック・レンジのためのシステムおよび方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018513646A Active JP6818015B2 (ja) 2015-12-07 2016-11-30 マルチスコピック雑音削減およびハイ・ダイナミック・レンジのためのシステムおよび方法

Country Status (6)

Country Link
US (4) US9762893B2 (ja)
EP (1) EP3335420A4 (ja)
JP (2) JP6818015B2 (ja)
KR (2) KR101991474B1 (ja)
CN (2) CN110225330A (ja)
WO (1) WO2017100061A1 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10410398B2 (en) * 2015-02-20 2019-09-10 Qualcomm Incorporated Systems and methods for reducing memory bandwidth using low quality tiles
US9762893B2 (en) * 2015-12-07 2017-09-12 Google Inc. Systems and methods for multiscopic noise reduction and high-dynamic range
WO2018048838A1 (en) * 2016-09-06 2018-03-15 Apple Inc. Still image stabilization/optical image stabilization synchronization in multi-camera image capture
US10499042B2 (en) * 2017-04-01 2019-12-03 Intel Corporation Barreling and compositing of images
US10863105B1 (en) 2017-06-27 2020-12-08 Amazon Technologies, Inc. High dynamic range imaging for event detection and inventory management
CN107730464B (zh) * 2017-10-09 2021-03-30 四川大学 基于块匹配的图像降噪并行算法
WO2019164497A1 (en) * 2018-02-23 2019-08-29 Sony Mobile Communications Inc. Methods, devices, and computer program products for gradient based depth reconstructions with robust statistics
CN111837144A (zh) * 2018-03-13 2020-10-27 奇跃公司 使用机器学习的增强图像深度感测
CN108717690B (zh) * 2018-05-21 2022-03-04 电子科技大学 一种高动态范围图片的合成方法
US11216923B2 (en) 2018-05-23 2022-01-04 Samsung Electronics Co., Ltd. Apparatus and method for successive multi-frame image denoising
CN108924434B (zh) * 2018-06-29 2020-08-18 宁波大学 一种基于曝光变换的立体高动态范围图像合成方法
US10902556B2 (en) 2018-07-16 2021-01-26 Nvidia Corporation Compensating for disparity variation when viewing captured multi video image streams
KR102525000B1 (ko) 2018-08-08 2023-04-24 삼성전자 주식회사 복수의 이미지들이 합성된 이미지를 깊이 정보에 기반하여 흐림 처리하는 전자 장치 및 상기 전자 장치의 구동 방법
US11790493B2 (en) * 2018-09-28 2023-10-17 Pfu Limited Image processing device, control method, and control program
US11212509B2 (en) 2018-12-20 2021-12-28 Snap Inc. Flexible eyewear device with dual cameras for generating stereoscopic images
GB2588616B (en) * 2019-10-29 2021-10-27 Visidon Oy Image processing method and apparatus
US10965931B1 (en) * 2019-12-06 2021-03-30 Snap Inc. Sensor misalignment compensation
CN112288646A (zh) * 2020-01-07 2021-01-29 影石创新科技股份有限公司 堆叠降噪方法、装置、电子设备及存储介质
WO2021234515A1 (en) * 2020-05-17 2021-11-25 Corephotonics Ltd. Image stitching in the presence of a full field of view reference image
JP2023528407A (ja) * 2020-06-04 2023-07-04 アドヴァンスド ファーム テクノロジーズ インコーポレイテッド グローバルシャッタ同期式カラーステレオカメラシステム
KR20220013183A (ko) 2020-07-24 2022-02-04 삼성전자주식회사 영상 복원 장치 및 방법
US20230013884A1 (en) * 2021-07-14 2023-01-19 Cilag Gmbh International Endoscope with synthetic aperture multispectral camera array

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004120527A (ja) 2002-09-27 2004-04-15 Fuji Photo Film Co Ltd 2眼式デジタルカメラ
JP2007208704A (ja) 2006-02-02 2007-08-16 Casio Comput Co Ltd 撮像装置、画像処理方法及びプログラム
JP2013121173A (ja) 2011-12-09 2013-06-17 Panasonic Corp 撮像装置
JP2013162272A (ja) 2012-02-03 2013-08-19 Olympus Imaging Corp 撮像装置
JP2015144475A (ja) 2015-03-11 2015-08-06 キヤノン株式会社 撮像装置、撮像装置の制御方法、プログラム及び記憶媒体

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3733359B2 (ja) * 1996-04-05 2006-01-11 松下電器産業株式会社 視差推定方法、画像伝送方法、画像表示方法、多視点画像伝送方法、多視点画像復元方法および視差推定装置
JP3769850B2 (ja) * 1996-12-26 2006-04-26 松下電器産業株式会社 中間視点画像生成方法および視差推定方法および画像伝送方法
JP3912639B2 (ja) 1998-07-17 2007-05-09 日本ビクター株式会社 3次元画像処理装置
JP2000102040A (ja) * 1998-09-28 2000-04-07 Olympus Optical Co Ltd 電子ステレオカメラ
JP2003209858A (ja) * 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
JP4017579B2 (ja) * 2003-09-19 2007-12-05 株式会社ソニー・コンピュータエンタテインメント 撮影補助器、画像処理方法、画像処理装置、コンピュータプログラム、プログラムを格納した記録媒体
JP2006093860A (ja) * 2004-09-21 2006-04-06 Olympus Corp 2眼撮像系を搭載したカメラ
US7587099B2 (en) 2006-01-27 2009-09-08 Microsoft Corporation Region-based image denoising
JP4748398B2 (ja) * 2007-06-15 2011-08-17 富士フイルム株式会社 撮像装置、撮像方法及びプログラム
JP4828506B2 (ja) * 2007-11-05 2011-11-30 日本電信電話株式会社 仮想視点画像生成装置、プログラムおよび記録媒体
US8866920B2 (en) * 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
JP2009284188A (ja) * 2008-05-22 2009-12-03 Panasonic Corp カラー撮像装置
JP5444651B2 (ja) * 2008-07-16 2014-03-19 カシオ計算機株式会社 カメラ装置、その撮影方法と撮影制御プログラム
JP2010147812A (ja) 2008-12-18 2010-07-01 Fujifilm Corp 複眼カメラ及び画像処理方法
US8090251B2 (en) * 2009-10-13 2012-01-03 James Cameron Frame linked 2D/3D camera system
CN103957356B (zh) * 2010-02-19 2018-11-09 株式会社尼康 电子设备以及电子设备的图像取得方法
US8588551B2 (en) * 2010-03-01 2013-11-19 Microsoft Corp. Multi-image sharpening and denoising using lucky imaging
JP5679978B2 (ja) 2010-03-19 2015-03-04 パナソニックIpマネジメント株式会社 立体視用画像位置合わせ装置、立体視用画像位置合わせ方法、及びそのプログラム
US8749660B2 (en) * 2010-03-24 2014-06-10 Fujifilm Corporation Image recording apparatus and image processing method
KR101661215B1 (ko) 2010-08-16 2016-09-30 삼성전자주식회사 영상 처리 방법 및 영상 처리 장치
JP2012216939A (ja) * 2011-03-31 2012-11-08 Fujifilm Corp 画像処理装置、画像処理方法及びプログラム
JP5863280B2 (ja) * 2011-05-24 2016-02-16 キヤノン株式会社 撮像装置、画像処理方法及びプログラム
JP5917054B2 (ja) * 2011-09-12 2016-05-11 キヤノン株式会社 撮像装置、画像データ処理方法、およびプログラム
JP2013090129A (ja) 2011-10-18 2013-05-13 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
KR101854188B1 (ko) * 2011-10-25 2018-05-08 삼성전자주식회사 3차원 영상 획득 장치 및 3차원 영상 획득 장치에서 깊이 정보 산출 방법
JP5992184B2 (ja) * 2012-03-09 2016-09-14 株式会社トプコン 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム
US20140009462A1 (en) * 2012-04-17 2014-01-09 3Dmedia Corporation Systems and methods for improving overall quality of three-dimensional content by altering parallax budget or compensating for moving objects
US9526069B2 (en) 2012-04-20 2016-12-20 Qualcomm Incorporated Early initiation of dormancy of a radio connection
CN104335246B (zh) * 2012-05-01 2018-09-04 Fotonation开曼有限公司 用pi滤光器群组来形成图案的相机模块
JP2014022806A (ja) * 2012-07-13 2014-02-03 Sharp Corp 撮像装置および撮像装置制御方法
US8619082B1 (en) * 2012-08-21 2013-12-31 Pelican Imaging Corporation Systems and methods for parallax detection and correction in images captured using array cameras that contain occlusions using subsets of images to perform depth estimation
US8866927B2 (en) 2012-12-13 2014-10-21 Google Inc. Determining an image capture payload burst structure based on a metering image capture sweep
US9633442B2 (en) * 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
JP5887303B2 (ja) * 2013-06-19 2016-03-16 株式会社 日立産業制御ソリューションズ 画像信号処理装置,撮像装置および画像処理プログラム
US9615012B2 (en) * 2013-09-30 2017-04-04 Google Inc. Using a second camera to adjust settings of first camera
EP2887642A3 (en) * 2013-12-23 2015-07-01 Nokia Corporation Method, apparatus and computer program product for image refocusing for light-field images
CN104995908B (zh) * 2014-02-07 2018-01-30 株式会社摩如富 图像处理装置以及图像处理方法
WO2015172366A1 (zh) * 2014-05-15 2015-11-19 华为技术有限公司 用于多帧降噪的方法和终端
US10237473B2 (en) 2015-09-04 2019-03-19 Apple Inc. Depth map calculation in a stereo camera system
US10284835B2 (en) 2015-09-04 2019-05-07 Apple Inc. Photo-realistic shallow depth-of-field rendering from focal stacks
US9762893B2 (en) * 2015-12-07 2017-09-12 Google Inc. Systems and methods for multiscopic noise reduction and high-dynamic range

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004120527A (ja) 2002-09-27 2004-04-15 Fuji Photo Film Co Ltd 2眼式デジタルカメラ
JP2007208704A (ja) 2006-02-02 2007-08-16 Casio Comput Co Ltd 撮像装置、画像処理方法及びプログラム
JP2013121173A (ja) 2011-12-09 2013-06-17 Panasonic Corp 撮像装置
JP2013162272A (ja) 2012-02-03 2013-08-19 Olympus Imaging Corp 撮像装置
JP2015144475A (ja) 2015-03-11 2015-08-06 キヤノン株式会社 撮像装置、撮像装置の制御方法、プログラム及び記憶媒体

Also Published As

Publication number Publication date
JP6818015B2 (ja) 2021-01-20
KR20190071011A (ko) 2019-06-21
KR20180030727A (ko) 2018-03-23
CN110225330A (zh) 2019-09-10
CN107925751B (zh) 2019-06-04
KR101991474B1 (ko) 2019-06-20
EP3335420A1 (en) 2018-06-20
WO2017100061A1 (en) 2017-06-15
US20170163966A1 (en) 2017-06-08
US10187628B2 (en) 2019-01-22
CN107925751A (zh) 2018-04-17
US10897609B2 (en) 2021-01-19
US20200084429A1 (en) 2020-03-12
US10477185B2 (en) 2019-11-12
US20190124319A1 (en) 2019-04-25
US9762893B2 (en) 2017-09-12
KR102142641B1 (ko) 2020-08-07
JP2019165506A (ja) 2019-09-26
JP2019500762A (ja) 2019-01-10
US20170347088A1 (en) 2017-11-30
EP3335420A4 (en) 2019-07-03

Similar Documents

Publication Publication Date Title
JP7186672B2 (ja) マルチスコピック雑音削減およびハイ・ダイナミック・レンジのためのシステムおよび方法
CN111164647B (zh) 使用单个相机估算深度
US9544574B2 (en) Selecting camera pairs for stereoscopic imaging
US9918065B2 (en) Depth-assisted focus in multi-camera systems
EP3053332B1 (en) Using a second camera to adjust settings of first camera
US9774880B2 (en) Depth-based video compression
US9743015B2 (en) Image capturing apparatus and method of controlling the same
US8995784B2 (en) Structure descriptors for image processing
US20230033956A1 (en) Estimating depth based on iris size
US20230319401A1 (en) Image capture using dynamic lens positions
WO2024076363A1 (en) Field of view correction techniques for shutterless camera systems

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190627

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200706

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20201001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210128

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211019

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211019

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20211028

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20211101

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20211224

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220104

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220516

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220823

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220829

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20221003

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20221031

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20221031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221129

R150 Certificate of patent or registration of utility model

Ref document number: 7186672

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150