JP2016540417A - 画像キャプチャ制御方法および装置 - Google Patents

画像キャプチャ制御方法および装置 Download PDF

Info

Publication number
JP2016540417A
JP2016540417A JP2016524463A JP2016524463A JP2016540417A JP 2016540417 A JP2016540417 A JP 2016540417A JP 2016524463 A JP2016524463 A JP 2016524463A JP 2016524463 A JP2016524463 A JP 2016524463A JP 2016540417 A JP2016540417 A JP 2016540417A
Authority
JP
Japan
Prior art keywords
sensor
image
image sensor
interest
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016524463A
Other languages
English (en)
Inventor
ラロイア、ラジブ
Original Assignee
ザ ライト・コ インコーポレイテッド
ザ ライト・コ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/327,515 external-priority patent/US9563033B2/en
Priority claimed from US14/327,514 external-priority patent/US9578252B2/en
Priority claimed from US14/516,568 external-priority patent/US9374514B2/en
Application filed by ザ ライト・コ インコーポレイテッド, ザ ライト・コ インコーポレイテッド filed Critical ザ ライト・コ インコーポレイテッド
Publication of JP2016540417A publication Critical patent/JP2016540417A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B17/00Systems with reflecting surfaces, with or without refracting elements
    • G02B17/008Systems specially adapted to form image relays or chained systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/0055Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element
    • G02B13/0065Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element having a beam-folding prism or mirror
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B17/00Systems with reflecting surfaces, with or without refracting elements
    • G02B17/08Catadioptric systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/04Prisms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/687Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/28Mobile studios

Abstract

同じ画像エリアの部分をキャプチャするために使用される異なる光学チェーンに対応するセンサからの画素値の行の読み出しを制御するための方法および装置が説明される。いくつかの実施形態では、読み出しは、ユーザ入力および/またはキャプチャされた画像もしくはキャプチャされた画像の一部分における動きの速度に関する決定に基づいて制御される。低速の動きの場合、より大きい焦点距離を有する1つまたは複数の光学チェーンに対応する1つまたは複数のセンサの画素行読み出し速度は通常の速度で進むことができるが、小さい焦点距離に対応するセンサの読み出し速度は低速化され得る。いくつかの実施形態では、高速の動きの場合、より小さい焦点距離を有する光学チェーンに対応するセンサの読み出し速度は、通常の速度で進むことができる。【選択図】図68A

Description

本出願は、画像をキャプチャ(capture)および生成する方法および装置に関し、より詳細には、たとえば、画素値が読み出し可能であり、および/または複数の光学チェーン(optical chain)の出力を処理するセンサを各々が有する、複数の光学チェーンを含むカメラデバイスの制御に関する方法および装置に関する。
高品質デジタルカメラは、大部分がフィルムカメラに取って代わっている。しかしながら、フィルムカメラと同様にデジタルカメラでも、カメラ業界によって、カメラ上で使用されるレンズのサイズおよび品質に大きな注目が集められている。品質の良い写真を撮影しようとする人々はさまざまな理由により、大型で嵩高く、多くの場合は高価であるレンズに投資するよう勧められることが多い。大きな絞りのレンズを使用する理由には、より小さな絞りのレンズと比較して大きな絞りのレンズ(aperture lens)が所与の時間期間内で大量の光をキャプチャできるということがある。望遠レンズは、大きな絞りという理由だけでなく、長い焦点距離という理由でも大きくなる傾向がある。一般に、焦点距離が長いほど、レンズも大きい。長い焦点距離は、写真撮影者に、遠く離れたところから写真を撮影する能力を与える。
高品質写真を実現するために、キャプチャ可能な光の量は、多くの場合、最終的な画質にとって重要である。大きな絞りのレンズを有することは、小さいレンズを使用して同じ量の光をキャプチャするために必要とされるであろうよりも短い露光時間の間に大量の光がキャプチャされることを可能にする。短い露光時間の使用は、特に動きのある画像に関して、ぼけを減少させることができる。大量の光をキャプチャできることは、光の少ない状況においてすら品質の良い画像の撮影を容易にすることもできる。さらに、大きな絞りのレンズを使用することは、肖像写真撮影のための小さな被写界深度などの芸術的な効果を有することを可能にする。
大きなレンズは、より小さなレンズと比較して比較的大量の光をキャプチャする能力に関する多数の利点を有し、光学的技法またはデジタル技法を使用して実施され得る大きなズーム範囲をサポートするために使用可能であり、多くの場合、焦点に対する良好な制御を可能にするが、大きなレンズを使用することには、多数の欠点もある。
大きなレンズは重い傾向があり、比較的頑丈で多くの場合に大きな支持構造が、カメラアセンブリのさまざまなレンズをアライメントされた状態に保つことを必要とする。大きなレンズの重い重量により、そのようなレンズを有するカメラの輸送は困難で、嵩張るものになる。そのうえ、大きなレンズを有する途方もないカメラの重量が、人々が短時間保持するのにうんざりするようになり得るということを考えれば、大きなレンズを有するカメラは、多くの場合、延長された時間期間にわたって三脚または他の支持物が使用されることを必要とする。
重量およびサイズの欠点に加えて、大きなレンズは高価であるという欠点も有する。これは、とりわけ、大きな高品質の光学部品を製造することと、カメラレンズを長年使用することがもたらすと予想されることを反映し得る時間期間にわたって適切なアライメントを維持するようにこれらの光学部品を包装することとの難しさによるものである。
デジタルカメラでは、センサとして使用される感光性電子回路たとえば光感知デバイスは、多くの場合、その各々が測定された強度レベルを記録する多数の単一センサ素子を備える、電荷結合素子(CCD)画像センサまたは相補型金属酸化膜半導体(CMOS)画像センサのいずれかである。
多くのデジタルカメラでは、センサアレイは、配置内に赤色領域と緑色領域と青色領域とを有するパターン化されたカラーフィルタモザイクで覆われる。ベイヤーフィルタモザイクは、フォトセンサの正方形グリッド上にRGBカラーフィルタを配置するための1つのよく知られているカラーフィルタアレイ(CFA)である。カラーフィルタのその特定の配置は、多数のデジタル画像センサにおいて使用される。カラー画像をキャプチャするそのようなフィルタベースの手法では、各センサ素子は、光の単一の原色の強度を記録することができる。カメラは、次いで、デモザイシングと呼ばれることがあるプロセスによって、隣接するセンサ素子の色情報を正常に補間し、最終的な画像を作製する。カラーフィルタを使用するセンサアレイ内のセンサ素子は、センサ素子上で使用されるフィルタにより最終的なカラー画像の1チャネルのみ(赤色のみ、または緑色のみ、または青色のみ)を記録するにもかかわらず、多くの場合「画素」と呼ばれる。
カメラでは、光が通過できる丸いすなわち円形のレンズ(レンズ素子)、たとえば丸い絞りを有するレンズが一般に使用される。これは、光が、垂直方向と水平方向の両方(実際にはあらゆる方向)が等しいレンズを通過することを可能にする。1つまたは複数の丸いレンズが使用される光学チェーン内の素子は、多くの場合、カメラのセンサにおいて鮮明な画像を記録するのに十分な光を通過させるのに十分なサイズである。レンズにとって、光軸は、レンズの中央を通過し、レンズの平面に垂直な線である。レンズアセンブリが複数のレンズ素子から構築されるとき、素子は、一般的に、すべてが、レンズアセンブリの光軸でもある共通光軸を共有するように配置される。一般的な光学チェーン、たとえばカメラモジュールでは、光軸は、センサの中央も通過する。レンズアセンブリまたはカメラモジュールの光軸に沿って伝わる光は、経路に沿ったいかなるレンズによっても曲げられず、引き続き一直線の光軸に沿って伝わる。すべてのレンズ素子が円形の場合、そのようなカメラモジュールは、光軸を中心として円筒状に対称性を有する。ほとんどのカメラでは、カメラの光学素子は直線構成で配置され、光軸は、外側レンズを通って直線でセンサまで到達する。そのような構成は、比較的厚いカメラ、たとえば大きな前面から背面の距離すなわち奥行きを有するカメラをもたらすことができる。大きな光学部品を有するおよび/または機械的ズームをサポートするカメラでは、カメラの厚さは著しくなることがあり、カメラは、多くの場合、奥行きがありすぎてポケット、さらには場合によってはバッグにしまえない、数インチの厚さおよび遠さである。
カメラおよび他の光学系は、多くの場合、焦点距離に関して論じられる。光学系の焦点距離は、その系がどれくらい強く光を収束または発散させるかの尺度である。空気中の光学系において、焦点距離は、最初は平行にされた光線が焦点に導かれる距離である。より短い焦点距離を有する系は、長い焦点距離を有する系よりも大きな屈折力を有する。すなわち、より短い焦点距離を有する系は、光線をより強く曲げ、光線をより短距離で焦点に導く。多くの場合大きなレンズを使用して達成される、焦点距離が長いほど(屈折力が低いほど)、より高い倍率たとえばズームと、より狭い画角(被写界)とをもたらす。したがって、大きな、たとえば長い、焦点距離を有する、光学チェーンたとえばカメラモジュールは、より短い焦点距離を有する同じロケーションにおける光学チェーンよりもシーンエリアの小さい部分に対応する画像をキャプチャする。同じセンササイズの場合、より短い焦点距離またはより高い屈折力を有する光学チェーンは、より長い焦点距離を有する光学チェーンよりも広い画角と関連付けられ、したがって、より大きな焦点距離を有する、同じ位置における光学チェーンよりも、光学チェーンから同じ距離で、シーンエリアのより大きい部分に対応する画像をキャプチャすることを理解されたい。
レンズ素子の焦点距離は、一般に、丸い絞り、たとえば光が通過できる丸いエリアを有するレンズ素子レンズの場合、レンズサイズたとえば直径の関数ではない。デバイスの焦点距離は、デバイスを構成する1つまたは複数の光学素子たとえばレンズと、それらの相互作用に依存するので、光学チェーンまたは他の光学デバイスでは、デバイスの焦点距離は有効焦点距離と呼ばれることもある。良好な品質の鮮明な写真を撮影することは、有効焦点距離が長いとき、より大きい絞りのレンズ素子(より大きい直径のレンズ)を必要とする。
大きい焦点距離のレンズおよび大きい焦点距離を有する光学チェーンの使用は、多くの場合、提供できるズームの量(倍率)のために、望ましい。しかしながら、大きい焦点距離を有する光学チェーンを作り出すために通常使用される光学構成要素の使用は、特に、光軸に沿った光が最も外側のレンズから、レンズを通過する光に基づいて画像をキャプチャするために使用されるセンサまで直線状に通過するように、光学構成要素が配置される場合に、厚いカメラにつながる傾向がある。
上記の説明から、たとえば、カメラデバイスの1つまたは複数の光学チェーンによる画像のキャプチャを容易にするために、カメラデバイスの制御を提供する新しいまたは改善された方法および/または装置が必要とされていることが理解されよう。少なくともいくつかの実施形態では、ユーザ入力および/または動作のモードの自動化された選択は、いつまたはどのようにして画素値が1つまたは複数のセンサから読み取られるかを制御することを決定する、および/またはそのために使用されることが望ましい。
上記から、たとえば同期方式で画像をキャプチャするために1つまたは複数の光学チェーンまたは要素をカメラが使用することを可能にする新しいおよび/または改善された方法および装置が必要とされていることも理解されたい。
同じ画像エリアの部分をキャプチャするために使用される異なる光学チェーンに対応するセンサからの画素値の行の読み出しを制御するための方法および装置が説明される。読み出しは、ユーザ入力および/またはキャプチャされた画像もしくはキャプチャされた画像の一部分における動きの速度に関する決定に基づいて制御され得、いくつかの実施形態では、制御される。いくつかの実施形態では、動きの速度が遅い場合、より大きい焦点距離を有する1つまたは複数の光学チェーンに対応する1つまたは複数のセンサの画素行読み出し速度は通常の速度で進むことができるが、小さい焦点距離に対応するセンサの読み出し速度は低速化される。いくつかの実施形態では、高速の動きが検出される場合、後でキャプチャされる第1の画像と第2の画像との大きな差から決定され得、いくつかの実施形態では、決定されるので、より小さい焦点距離を有し、したがって、より大きい画像エリアをキャプチャする光学チェーンに対応するセンサの読み出し速度は、通常の速度で進むことができる。光学チェーンに対応するセンサが通常の速度で読み出される少なくともいくつかの実施形態では、より大きい焦点距離を有する光学チェーンに対応する1つまたは複数のセンサは、画素値の行の合同読み出しを実行するように制御され、それによって、より大きい焦点距離を有する複数の光学チェーンに対応するセンサの読み出しが、小さい焦点距離を有する光学チェーンに対応するセンサを読み出すために必要とされる時間と同じ時間またはほぼ同じ時間で完了され得る。より大きい焦点距離に対応する光学チェーンは、異なる画像部分に対応し、順次または少なくともセンサの一部分が異なる時刻に読み出される方式で読み出され得、小さい焦点距離の光学チェーンに対応するセンサの読み出しと、そうでなければ異なる光学チェーンによってキャプチャされた画像を結合させることによって生成される合成画像に導入されるであろう時間的歪みを最小限にするまたは減少させる方式での、より大きい焦点距離の光学チェーンに対応するセンサの読み出しとの同期を可能にする。
いくつかの実施形態によれば、第1のセンサを含む第1の光学チェーンと第2のセンサを含む第2の光学チェーンとを少なくとも含むカメラデバイスを使用して画像をキャプチャする例示的な方法であって、前記第1の光学チェーンは前記第2の光学チェーンよりも小さい焦点距離を有し、この方法は、第2の光学チェーンの第2のセンサを、第2のセンサの連続画素要素行に対応する画素要素の合同読み出しを実行するように制御するか、それとも前記第2のセンサの画素要素の連続行の個別読み出しを実行するように制御するかの決定を、i)ユーザ入力、またはii)動きの決定された速度のうちの少なくとも1つに基づいて行うことと、前記第1のセンサの画素値を読み出すように第1のセンサを制御することと、第2のセンサの連続画素要素行に対応する画素要素の合同読み出しを実行するまたは前記第2のセンサの画素要素の連続行の個別読み出しを実行する前記決定に従って前記第2のセンサの画素要素の画素値を読み出すように第2のセンサを制御することとを備える。
いくつかの実施形態によれば、例示的なカメラデバイスは、第1のセンサを含み第1の焦点距離を有する第1の光学チェーンと、第2のセンサを含み第2の焦点距離を有する第2の光学チェーンと、前記第1の焦点距離は前記第2の焦点距離よりも小さい、第2の光学チェーンの第2のセンサを、第2のセンサの連続画素要素行に対応する画素要素の合同読み出しを実行するように制御するか、それとも前記第2のセンサの画素要素の連続行の個別読み出しを実行するように制御するかの決定を、i)ユーザ入力、またはii)動きの決定された速度、のうちの少なくとも1つに基づいて行うように構成された読み出し制御決定モジュールと、前記読み出し制御決定に従って、i)前記第1のセンサの画素値を読み出すように第1のセンサを制御し、ii)前記第2のセンサの画素要素の画素値を読み出すために第2のセンサを制御するように構成されたセンサ読み出し制御モジュールとを含む。
いくつかの実施形態によれば、カメラデバイスは非一時的な機械可読媒体を含み、この非一時的な機械可読媒体は、第1のセンサを含む、第2の光学チェーンよりも小さい焦点距離を有する第1の光学チェーンと、前記第2のセンサを含む第2の光学チェーンとを少なくとも含むカメラデバイスのプロセッサによって実行されたとき、第2の光学チェーンの第2のセンサを、第2のセンサの連続画素要素行に対応する画素要素の合同読み出しを実行するように制御するか、それとも前記第2のセンサの画素要素の連続行の個別読み出しを実行するように制御するかの決定を、i)ユーザ入力、またはii)動きの決定された速度のうちの少なくとも1つに基づいて行うステップと、前記第1のセンサの画素値を読み出すように第1のセンサを制御するステップと、第2のセンサの連続画素要素行に対応する画素要素の合同読み出しを実行するまたは前記第2のセンサの画素要素の連続行の個別読み出しを実行する前記決定に従って前記第2のセンサの画素要素の画素値を読み出すように第2のセンサを制御するステップとを実行するようにカメラデバイスを制御するプロセッサ実行可能命令を含む。
いくつかの特徴は、説明される、複数の光学チェーンを使用する同期方式でシーンエリアの画像をキャプチャすることに関する方法および装置を対象とする。さまざまな実施形態では、カメラデバイスの複数の光学チェーンに対応する画像センサは、画像センサが、現在のスキャン位置に対応する画素値の行を有するとき、現在のスキャン位置に対応する画素値の行を読み出すためにローリングシャッターモードで動作される。
いくつかの実施形態では、関心シーンエリアは、スキャン、したがって、協調された方式で動作される1つまたは複数のカメラ光学チェーンによる関心シーンエリアの画像キャプチャを始めることによってキャプチャされる。いくつかの実施形態では、センサコントローラは、画素値たとえば画素値の行の読み出しを同期方式で実行するようにカメラデバイスの複数の画像センサの各々を制御し、たとえば、画素値の行は、ローリングシャッター実装形態の動作に従って順次読み出される。いくつかの実施形態では、センサコントローラは、光学チェーンに対応する画像センサが、現在のスキャン位置に対応する画素の読み取られていない行、たとえば、読み出されることになっている画素値の行を有するかどうか決定を行う。たとえば、所与の画像センサが、現在のスキャン位置に対応するエリアの外部にある画像部分に対応するので、この画像センサが、現在のスキャン位置に対応する画素値の読み取られていない行を有さない場合、センサコントローラは、画像センサから画素の行を読み出すことをスキップする。所与の画像センサが、現在のスキャン位置に対応する画素値の読み取られていない行を有する場合、画像センサからの画素の行が読み出される。いくつかの実施形態では、画像センサ読み出しはスキャン位置に基づいて制御され、複数の画像センサのセンサ読み出しは、協調された方式で行われる。
関心シーンエリアの一部分をスキャンするようにカメラデバイスを動作させる例示的な方法は、関心シーンエリアの第1の縁から関心シーンエリアの第2の縁まで関心シーンエリアをスキャンするように複数の画像センサを制御することを備え、関心シーンエリアの第1の(たとえば、上)縁と第2の(たとえば、下)縁が平行であり、スキャンすることが、関心シーンエリアの第1の縁から第2の縁まで(たとえば、均一の速度で)進むスキャン位置に従って画像キャプチャを制御することを含み、この制御することは、第1の画像センサが、現在のスキャン位置に対応する画素値の行を有するとき、現在のスキャン位置に対応する画素値の行を読み出すためにローリングシャッターモードで複数の画像センサのうちの第1の画像センサを動作させることを含み、現在のスキャン位置は経時的に(たとえば、スキャンが第1の縁から第2の縁まで進むにつれて)変化し、制御することは、第2の画像センサが、現在のスキャン位置に対応する画素値の行を有するとき、現在のスキャン位置に対応する画素値の行を読み出すためにローリングシャッターモードで複数の画像センサのうちの第2の画像センサを動作させることをさらに含み、第1の画像センサおよび第2の画像センサは関心シーンエリアの異なる部分の画像をキャプチャする。
例示的なカメラデバイスは、複数の光学チェーンと、関心シーンエリアの第1の縁から関心シーンエリアの第2の縁まで関心シーンエリアをスキャンするように複数の光学チェーンに対応する複数の画像センサを制御するように構成されたセンサコントローラとを備え、関心シーンエリアの第1の縁と第2の縁が平行であり、センサコントローラは、スキャンの一部として、関心シーンエリアの第1の縁から第2の縁まで進むスキャン位置に従って画像キャプチャを制御し、センサコントローラは、第1の画像センサが、現在のスキャン位置に対応する画素値の行を有するとき、現在のスキャン位置に対応する画素値の行を読み出すようにローリングシャッターモードに複数の画像センサのうちの第1の画像センサを制御し、現在のスキャン位置は経時的に変化し、センサコントローラは、第2の画像センサが、現在のスキャン位置に対応する画素値の行を有するとき、現在のスキャン位置に対応する画素値の行を読み出すようにローリングシャッターモードで複数の画像センサのうちの第2の画像センサをさらに制御し、第1の画像センサおよび第2の画像センサは関心シーンエリアの異なる部分の画像をキャプチャする。
いくつかの実施形態では、例示的なカメラデバイスは、コンピュータ実行可能命令を備える非一時的なコンピュータ可読媒体を含み、この非一時的なコンピュータ可読媒体は、プロセッサによって実行されるとき、関心シーンエリアの第1の縁から関心シーンエリアの第2の縁まで関心シーンエリアをスキャンするように複数の画像センサを制御する命令を備え、関心シーンエリアの第1の縁と第2の縁は平行であり、スキャンすることは、関心シーンエリアの第1の縁から第2の縁まで進むスキャン位置に従って画像キャプチャを制御することを含み、命令は、プロセッサに、第1の画像センサが、現在のスキャン位置に対応する画素値の行を有するとき、現在のスキャン位置に対応する画素値の行を読み出すようにローリングシャッターモードで複数の画像センサのうちの第1の画像センサを制御させることを含み、現在のスキャン位置は経時的に変化し、命令は、プロセッサに、第2の画像センサが、現在のスキャン位置に対応する画素値の行を有するとき、現在のスキャン位置に対応する画素値の行を読み出すようにモードローリングシャッターで複数の画像センサのうちの第2の画像センサをさらに制御させ、第1の画像センサおよび第2の画像センサは関心シーンエリアの異なる部分の画像をキャプチャする、一時的なコンピュータ可読媒体。
少なくともいくつかの特徴は、関心シーンエリアをスキャンするように複数の光学チェーンを制御すること、したがって説明される同期方式でシーンエリアの画像をキャプチャすることに関する方法および装置を対象とする。さまざまな実施形態では、カメラデバイスの複数の光学チェーンに対応する画像センサが、同時に、たとえば並行して、関心シーンエリアの一部分に対応する画素値の行を読み出すためにローリングシャッターモードで動作される。したがって、さまざまな実施形態では、対応する2つ以上の光学チェーンに含まれる2つ以上の画像センサの同期されたローリングシャッター読み出しが実施される。複数たとえば2つ以上の光学チェーンは、残りの光学チェーンたとえば関心シーンの異なる部分を対象とする光学チェーンのうちの1つまたは複数を同時に読み出すために動作されるが、他の画像センサが画素値を読み出している間、画素値を読み出さないように制御され得る。
さまざまな実施形態では、それぞれ2つ以上の光学チェーンに対応する2つ以上の画像センサの読み出し速度は、対応する光学チェーンの焦点距離の関数として制御される。第1の光学チェーンの焦点距離(たとえば、f2)が第2の光学チェーンの焦点距離(たとえば、f1)よりも大きいいくつかの実施形態では、センサ読み出しコントローラは、第2の焦点距離(f1)と第1の焦点距離(f2)の比に第2の光学チェーンに対応する第2の画像センサ内の画素の同じ数の行を読み出すために使用される時間の量をかけたものとして算出される時間の期間内に第1の画像センサ内の画素のいくつかの行を読み出すように、対応する第1の画像センサを制御する。
関心シーンエリアに対応する画像をキャプチャする例示的な方法は、関心シーンエリアの一部分に対応する画素値を同時に(たとえば、並行して)読み出すように複数の光学チェーンを制御することを備え、この複数の光学チェーンは、第1の焦点距離を有する第1の光学チェーンと第2の焦点距離を有する第2の光学チェーンとを含み、第2の焦点距離は第1の焦点距離と異なり、関心シーンエリアの異なる部分が異なる時刻に読み出される。いくつかの実施形態では、制御することは、第1の光学チェーンに含まれる第1の画像センサおよび第2の光学チェーンに含まれる第2の画像センサの同期されたローリングシャッター読み出しを実施することを含む。
関心シーンエリアに対応する画像をキャプチャする例示的なカメラデバイスは、複数の光学チェーンと、関心シーンエリアの一部分に対応する画素値を同時に読み出すように複数の光学チェーンを制御するように構成されたコントローラとを備え、複数の光学チェーンは、第1の焦点距離を有する第1の光学チェーンと第2の焦点距離を有する第2の光学チェーンとを含み、第2の焦点距離は第1の焦点距離と異なり、関心シーンエリアの異なる部分は異なる時刻に読み出される。
いくつかの実施形態では、例示的なカメラデバイスは、コンピュータ実行可能命令を備える非一時的なコンピュータ可読媒体を含み、この非一時的なコンピュータ可読媒体は、プロセッサによって実行されたとき、関心シーンエリアの一部分に対応する画素値を同時に読み出すように複数の光学チェーンを制御する命令を備え、この複数の光学チェーンは、第1の焦点距離を有する第1の光学チェーンと第2の焦点距離を有する第2の光学チェーンとを含み、第2の焦点距離は第1の焦点距離と異なり、関心シーンエリアの異なる部分が異なる時刻に読み出される。
多くの実施形態および特徴が上記の概要で説明されたが、本明細書で説明される新規な特徴の多くは、他の新規な特徴とは無関係に使用可能であることを理解されたい。したがって、さまざまな例示的な実施形態が説明されているが、適用例は、特定の例示的な実施形態または特定の例示的な実施形態に説明される特徴の組み合わせに限定されない。
多数のさらなる特徴および実施形態が、以降の詳細な説明で説明される。
本発明の一実施形態により実施される例示的な装置、たとえばカメラデバイスのブロック図。 カメラの正面から見えるレンズを有する、本発明による複数の光学チェーン、たとえばカメラモジュールを組み込んだ、例示的な一実施形態により実施される装置の正面図。 例示的な装置のさらなる詳細をさらに示す、図2の例示的な装置の側面図。 別の実施形態により実施されるカメラデバイスを示す図。 1つの特定の実施形態で実施される、図4Aに示されるカメラデバイスの光学チェーンをより詳細に示す図。 図1、図8、図12A、またはさまざまな他の実施形態のカメラデバイスに含まれる光学チェーンの1つとして使用され得る例示的な光学チェーン、たとえばカメラモジュールを示す図。 カメラモジュールが画像をキャプチャすることを可能にするために引っ込められるそのカバーを有する本発明の1つの特徴による複数のカメラモジュールを含む例示的なカメラの投射図。 カバーを閉位置に有し、それによってカメラ前面を覆う、図6のカメラを示す図。 個々のカメラモジュールのレンズの配置がより良く理解できるように、カメラモジュールのより良いビューを有する、図6のものに類似したカメラデバイスの正面図。 図8のカメラデバイスであるが、カメラデバイスの前面上でのレンズの配置のより良い理解を可能にする、カメラケースが示されていない図。 カメラが奥行きD1と高さHとを有することがわかる、図7のカメラデバイスの側面図。 図8および図9に示されるレンズの配置をより詳細に示す図。 図11に示されるレンズ配置を有する、図6および図8に示されるタイプのカメラデバイスを実施するために一実施形態で使用される光学チェーン、たとえばカメラモジュールの配置を示す図。 カメラデバイス内のさまざまな光学チェーンおよび光学チェーンの要素の配置がより詳細に示される、図8に示されるタイプのカメラデバイスの斜視図。 光学チェーンの一部である光方向変換デバイスの位置、たとえば角度を変えることによって、図12Bに示される光学チェーンの光軸の第1の部分がどのように変更可能であるかを示す図。 光学チェーンの一部である光方向変換デバイスの位置、たとえば角度を変えることによって、図12Bに示される光学チェーンの光軸の第1の部分がどのように変更可能であるかを示す図。 光学チェーンの一部である光方向変換デバイスの位置、たとえば角度を変えることによって、図12Bに示される光学チェーンの光軸の第1の部分がどのように変更可能であるかを示す図。 光学チェーンの一部である光方向変換デバイスの位置、たとえば角度を変えることによって、図12Bに示される光学チェーンの光軸の第1の部分がどのように変更可能であるかを示す図。 図14〜17に示されるさまざまなカメラデバイス実施形態で使用可能であり、使用される、非円形の絞りと光方向変換デバイスたとえば鏡とを有するレンズを有するカメラモジュールを示す図。 例示的な一実施形態による、カメラ内の複数の光学チェーン(OC)の例示的な配置ならびに光学チェーンの各々の要素の構成および配置を示す図。 大きな焦点距離を有する光学チェーンのための非円形レンズとより小さな焦点距離を有する光学チェーンのための円形レンズとを使用する例示的なカメラデバイスを示す図。 カメラケースのない、図14に示されるカメラデバイスの前面の図。 カメラが奥行きD2と高さHとを有することがわかる、図14のカメラデバイスの側面図。ここで、D2は、図6〜9に示されるカメラデバイスの奥行きであるD1よりも小さい。 図15に示されるレンズ配置を有する、図14に示されるタイプのカメラデバイスを実施するために一実施形態で使用されるカメラモジュールの配置を示す図。 カメラデバイス内のさまざまな光学チェーンおよび光学チェーンの要素の配置がより詳細に示される、図14に示されるタイプのカメラデバイスの斜視図。 図12Aの実施形態で使用され得、および時々使用されるレンズなどの、丸い開口を有する例示的なレンズに対応する丸い絞りを示す図。 周波数情報が両方の次元で同じまたは類似している、図18に示されるタイプのレンズから予想される周波数特性を示す図。 丸い絞りの場合、光が通過する開口の長さが、レンズ開口が存在する平面の両方の次元でどれくらい同じであるかを示す図。 例示的な丸くない、たとえば卵形の、絞りを示す図。陰影が、キャプチャされる水平方向および垂直方向の各々における周波数情報の相対量を示すために使用され、より多くの周波数情報が、それによってより高い周波数情報がキャプチャされることになる水平方向よりも垂直方向で入手可能であり、絞りの狭い方の次元よりも長い方の次元で入手可能であることが図から明らかである。 垂直(Y)方向および水平(X)方向における丸くない絞りの長さの比較を示す図。垂直次元は、図22の例における2つの次元のうち長い方である。 異なる方向に指向された複数の丸くないレンズからの画像情報を結合することによって、丸いレンズから取得されると予想される情報を近似する画像情報がどのように達成可能であるかを示す図。より多くの情報が、合成画像を生成するために図23の例で結合される複数の個々の画像の重複により、さまざまな縁部ロケーションにおいてよりも、結合された画像の中心に向かって入手可能である。 丸くない絞りを有する、たとえば卵形または長円形の形状の絞りに近似する、レンズを作り出すために、丸い絞りを有するレンズがどのように切断またはマスキング可能であるかを示す図。 図24に示されるような、丸いレンズ、たとえば丸い絞りを有するレンズを切断またはマスキングすることから生じる絞りを示す図。 丸い絞りを有する外側レンズと組み合わせて光を90度方向変換するために光方向変換デバイスを使用することが通常、カメラの奥行きたとえば厚さが、丸い絞りを有するレンズの直径に等しいまたはこれよりも大きいことをどのように必要とするかを示す図。 いくつかの実施形態では、光を90度方向変換する光方向変換デバイスと組み合わせた丸くない、たとえば卵形の、絞りを有するレンズの使用が、カメラの奥行きがあるよりも1つの次元において長いレンズの使用をどのように可能にすることができるかを示す図。 丸くない絞りを含むカメラモジュールの光路の長さが、カメラの奥行きよりもどのように長くなり得るかを示す図。光方向変換デバイスは、カメラデバイスの一端に位置決め可能である。 光がカメラモジュールを通過するときどの方角に方向変換されるかに応じてカメラの背面または前面のいずれかにセンサが位置決めされることを可能にしながら、複数の光方向変換デバイスが、比較的長い光進行経路、したがって焦点距離を可能にするためにカメラモジュールにおいて使用される例を示す図。 合成画像を生成するために画像を結合するとき高周波数情報が複数の方向の各々において入手可能であるように非円形の絞りを有する複数のレンズが、複数の方向における高周波数情報を収集するために単一の例示的なカメラデバイス内でどのように使用可能であるかを示す図。 本発明の1つまたは複数の実施形態により実施されるカメラのカメラモジュールによってキャプチャされたその画像を有し得るシーンエリアを含む例示的なシーンを示す図。 そのうちのいくつかが異なる焦点距離を有する複数のカメラモジュールを含むカメラの異なるカメラモジュールが、関心シーンエリアの異なるサイズの部分をどのようにキャプチャし得るかを示す図。 図32に示される複数のカメラモジュールを含むカメラの異なるカメラモジュールが、図31に示される関心シーンエリアの異なる部分をどのようにキャプチャし得るかを示す図。 図33に示されるサイズのシーンエリアをキャプチャするモジュールを有するカメラによってキャプチャされた異なる画像と、合成画像を生成するために画像の結合を容易にする、互いに対するそれらの関係とを示す図。 異なるセンサによってキャプチャされた画像が容易に結合可能であるように協調された方式における異なる光学チェーンのセンサの読み取りのローリングシャッター制御に関する態様を示す図。 異なるセンサによってキャプチャされた画像が容易に結合可能であるように協調された方式における異なる光学チェーンのセンサの読み取りのローリングシャッター制御に関する態様を示す図。 異なるセンサによってキャプチャされた画像が容易に結合可能であるように協調された方式における異なる光学チェーンのセンサの読み取りのローリングシャッター制御に関する態様を示す図。 異なるセンサによってキャプチャされた画像が容易に結合可能であるように協調された方式における異なる光学チェーンのセンサの読み取りのローリングシャッター制御に関する態様を示す図。 異なるセンサによってキャプチャされた画像が容易に結合可能であるように協調された方式における異なる光学チェーンのセンサの読み取りのローリングシャッター制御に関する態様を示す図。 例示的な一実施形態により複数のカメラモジュールを使用して画像をキャプチャし、画像を結合する例示的な方法を示す図。 図41Aと図41Bの組み合わせを備え、関心シーンをスキャンし、それから合成画像を生成するようにカメラデバイスを動作させる例示的な方法のステップを示す流れ図。 図41Aと図41Bの組み合わせを備え、関心シーンをスキャンし、それから合成画像を生成するようにカメラデバイスを動作させる例示的な方法のステップを示す流れ図。 複数のカメラモジュールを同期方式で使用して関心シーンをキャプチャする方法のステップを示す図。 別の例示的な実施形態による、複数のカメラモジュールを同期方式で使用して関心シーンをキャプチャする方法のステップを示す図。 例示的な一実施形態による、複数のカメラモジュールを同期方式で使用して画像をキャプチャする方法のステップを示す図。 例示的な一実施形態による、カメラデバイスを使用して画像をキャプチャする方法を示す流れ図。 例示的な一実施形態による、画像をキャプチャする方法を示す流れ図。 例示的な一実施形態による、合成画像を生成する方法の流れ図。 例示的な一実施形態による、移動可能な鏡を含む例示的なカメラデバイスの図。 例示的な一実施形態による、移動可能なプリズムを含む例示的なカメラデバイスの図。 例示的な一実施形態による、例示的なカメラデバイスに含まれ得る例示的なモジュールのアセンブリの図。 例示的な一実施形態による、結合された画像を生成するために使用される例示的なキャプチャされた画像を示すために使用される図。 例示的な一実施形態による、結合された画像を生成するために使用される例示的なキャプチャされた画像を示すために使用される図。 例示的な一実施形態による、少なくとも1つの画像をキャプチャする例示的な方法の流れ図の第1のパート。 例示的な一実施形態による、少なくとも1つの画像をキャプチャする例示的な方法の流れ図の第2のパート。 例示的な一実施形態による、移動可能な鏡を含む例示的なカメラデバイスの図。 例示的な一実施形態による、移動可能なプリズムを含む例示的なカメラデバイスの図。 例示的な一実施形態による、例示的なカメラデバイスに含まれ得る例示的なモジュールのアセンブリの図。 例示的な一実施形態による、例示的な格納されたズーム設定と光方向変換デバイス位置のマッピングテーブルの図。 例示的な一実施形態による、結合された画像が、1Xのズーム設定に対応して、複数の光学チェーンからのキャプチャされた画像から生成される例を示す図。 例示的な一実施形態による、結合された画像が、2Xのズーム設定に対応して、複数の光学チェーンからのキャプチャされた画像から生成される例を示す図。 例示的な一実施形態による、結合された画像が、3Xのズーム設定に対応して、複数の光学チェーンからのキャプチャされた画像から生成される例を示す図。 例示的な一実施形態による、結合された画像が、4Xのズーム設定に対応して、複数の光学チェーンからのキャプチャされた画像から生成される例を示す図。 例示的な一実施形態による、画像をキャプチャする例示的な方法の流れ図の第1のパート。 例示的な一実施形態による、画像をキャプチャする例示的な方法の流れ図の第2のパート。 例示的な一実施形態による、画像をキャプチャする例示的な方法の流れ図の第3のパート。 例示的な一実施形態による、画像をキャプチャする例示的な方法の流れ図の第4のパート。 例示的な一実施形態による、移動可能な光方向変換デバイスを有する複数の光学チェーンを含む例示的なカメラデバイスの図。 例示的な一実施形態による、例示的なカメラデバイスに含まれ得る例示的なモジュールのアセンブリの図。 例示的な実施形態による、異なるズーム焦点距離設定に対応する例示的な合成画像を示す図。 例示的な一実施形態による、ユーザが選択した焦点距離設定が最大ズームアウトたとえばズーム焦点距離設定=f2に設定される一例のために、合成画像を生成するために結合されたキャプチャされた画像を示す図。 例示的な一実施形態による、ユーザが選択した焦点距離設定が最大ズームインたとえばズーム焦点距離設定=f1に設定される一例のために、そのうちのいくつかは、合成画像を生成するために結合された、キャプチャされた画像とトリミングされたキャプチャされた画像とを示す図。 例示的な一実施形態による、ユーザが選択した焦点距離設定が中間値たとえばf2とf1との間の値に設定される一例のために、そのうちのいくつかは、合成画像を生成するために結合された、キャプチャされた画像とトリミングされたキャプチャされた画像とを示す図。 例示的な一実施形態による、各々、ユーザが選択したズーム焦点距離設定の関数として位置決めされる、たとえば調整される、移動可能な光方向変換デバイスを含む例示的なユーザ制御されたズームと異なる光学チェーンからのキャプチャされた画像間の例示的な重複とを示す図。 例示的な一実施形態による、カメラデバイスを使用して画像をキャプチャする例示的な方法の流れ図の第1のパート。 例示的な一実施形態による、カメラデバイスを使用して画像をキャプチャする例示的な方法の流れ図の第2のパート。 例示的な一実施形態による、異なる焦点距離を有する少なくとも2つの光学チェーンを含む例示的なカメラデバイスの図。 例示的な一実施形態による、例示的なカメラデバイスに含まれ得るモジュールのアセンブリの図。 例示的な一実施形態による、例示的な関心シーンと、カメラデバイス内の異なる光学チェーンに対応する例示的なキャプチャエリアとを示す図。 高い感知された速度による、ユーザにより入力された高速度の動作の動きモードまたは動作の自動モードに対応する一例のための例示的な読み出し時間を示す図。 低い感知された速度による、ユーザにより入力された高解像度の動作のモードまたは動作の自動モードに対応する一例のための例示的な読み出し時間を示す図。
図1は、本発明の例示的な一実施形態により実施される、デジタルカメラ、カメラ機能を有するノートパッド、またはカメラ機能を有する携帯電話などの例示的なカメラデバイス100を示す。カメラデバイス100は、いくつかの実施形態では、ポータブルデバイスである。他の実施形態では、カメラデバイス100は、壁に取り付けられたカメラなどの固定デバイスである。
図1は、装置100のさまざまな要素間の接続を示すブロック図形式でカメラデバイス100を示す。例示的なカメラデバイス100は、参照番号100となる線によって接された方形箱によって表されるハウジング内に取り付けられた、ディスプレイデバイス102と、発光体モジュール104と、入力デバイス106と、入力状態検出モジュール148と、露光および読み出しコントローラ150たとえばローリングシャッターコントローラ150と、光制御デバイス152と、メモリ108と、プロセッサ110と、モジュールのハードウェアアセンブリ180と、ワイヤレスおよび/または有線インターフェース114、たとえば、セルラーインターフェース、WIFIインターフェース、および/またはUSBインターフェースと、I/Oインターフェース112と、加速度計モジュール122と、3軸ジャイロ192と、バス116とを含む。発光体モジュール104は、すべての発光要素が同時にオンになる必要はないように個々に制御可能なLED(発光ダイオード)または他のタイプの発光要素であってよい発光要素を含む。いくつかの実施形態では、入力デバイス106は、たとえば、キーパッド、タッチスクリーン、または情報、データ、および/もしくは命令を入力するために使用され得る類似のデバイスであってよく、いくつかの実施形態では、キーパッド、タッチスクリーン、または類似のデバイスである。加速度計モジュール122は、3軸加速度計モジュールを提供する垂直軸上に配列された、加速度計1 124と、加速度計2 126と、加速度計3 128とを含む。したがって、加速度計モジュール122は、3つの独立軸に沿って測定することができる。同様に、194と196と198とを含む3軸ジャイロ192は、3つの異なる軸の各々に沿って回転を測定することができる。加速度計モジュール122およびジャイロモジュール192の出力は、監視可能であり、いくつかの実施形態では監視され、加速度計およびジャイロの出力の変化は、1つまたは複数の方向における動きを示す加速度の変化を検出するために、プロセッサ110および/またはズーム制御モジュールたとえばズームコントローラ140によって経時的に解釈およびチェックされる。いくつかの実施形態では、入力デバイス106は、カメラズーム機能を有効または無効にするために使用可能な少なくとも1つのズーム制御ボタンを含む。いくつかのそのような実施形態では、ズーム制御ボタンが押下された状態であるとき、カメラズーム機能が有効にされ、ボタンが押下されていない状態であるとき、カメラズーム機能が無効にされる。入力状態検出モジュール148は、ボタンが押下された状態であるか押下されていない状態であるかを検出するために、入力デバイスたとえばズーム制御ボタンの状態を検出するように構成される。いくつかの実施形態では、状態検出モジュール148によって検出されるズーム制御ボタンの状態、たとえば、ズーム制御ボタンが、ズームが有効にされていることを示す押下された状態であるか、ズームが無効にされていることを示す押下されていない状態であるか、を示すビットを含むステータスレジスタがカメラデバイス100内に存在する。
ディスプレイデバイス102は、画像、ビデオ、カメラデバイスの構成に関する情報、および/またはカメラデバイス上で実行されているデータ処理のステータスを表示するために使用されるタッチスクリーンであってよく、いくつかの実施形態では、タッチスクリーンである。ディスプレイデバイス102がタッチスクリーンである場合、ディスプレイデバイス102は、追加入力デバイスとして、および/または別個の入力デバイスたとえばボタン106の代替として働く。いくつかの実施形態で説明されるように、ズーミング動作は、ズーム制御センサたとえばタッチセンサを押すことによって制御可能である。いくつかの実施形態では、カメラユーザがズーム制御センサに触れると、ズーム機能が有効にされる。たとえば、タッチセンサ上の指は、ズーム機能を作動させる/有効にする。I/Oインターフェース112は、ディスプレイ102と入力デバイス106とをバス116に結合させ、ディスプレイ102と、入力デバイス106と、バス116を介して通信および相互作用可能なカメラの他の要素とをインターフェース接続する。
I/Oインターフェース112に結合されることに加えて、バス116は、メモリ108、プロセッサ110、任意選択のオートフォーカスコントローラ132、ワイヤレスおよび/または有線インターフェース114、ズーム制御モジュール140、ならびに複数の光学チェーン130、たとえば、本明細書ではカメラモジュールとも呼ばれるX個の光学チェーンに結合される。いくつかの実施形態では、Xは2よりも大きい整数、たとえば、3、4、7、または特定の実施形態によっては、これらよりも大きい値である。複数のカメラモジュール130は、さまざまなカメラモジュールセットおよび/または本出願で説明される配置のいずれかを使用して実施され得る。たとえば、いくつかの実施形態では、カメラデバイス100は、図12Aに示されるカメラモジュールのセットを使用して実施されるが、他の実施形態では、カメラデバイス100は、図13Bまたは図17Aまたは本出願に含まれる他の図のいずれか1つに示されるモジュール配置を使用して実施される。複数の光学チェーン130内の個々の光学チェーンによってキャプチャされた画像は、たとえばデータ/情報120の一部として、メモリ108に格納可能であり、たとえば、1つまたは複数の合成画像を生成するためにプロセッサ110によって処理可能であり、さまざまな実施形態では、格納され、処理される。
X個のカメラモジュール131〜133は、異なる焦点距離を有するカメラモジュールを含んでよく、さまざまな実施形態では、これを含む。複数のカメラモジュールは、所与の焦点距離で設けられ得る。たとえば、いくつかの実施形態では、フルフレームDSLRカメラに対して35mm相当の焦点距離を有する複数のカメラモジュール、フルフレームDSLRカメラに対して70mm相当の焦点距離を有する複数のカメラモジュール、およびフルフレームDSLRカメラに対して140mm相当の焦点距離を有する複数のカメラモジュールが、個々のカメラデバイスに含まれる。さまざまな焦点距離は例示的なものであり、異なる焦点距離を有する多種多様のカメラモジュールが使用されてよい。カメラデバイス100は、例示的なものと考えられるべきである。他の図のうちのいくつかに関してカメラまたはカメラデバイス他の参照がなされる限り、少なくともいくつかの実施形態では、カメラデバイスまたはカメラは、図1に示される要素が特定の図または実施形態に示されていない場合であっても、その要素を含むことを理解されたい。いくつかの実施形態では、図1に示される要素のすべてがカメラデバイスまたはカメラに含まれるが、他の実施形態では、図1に示される要素のサブセットが含まれ、図1の要素の説明は、すべての実施形態において特定の要素が不可欠または必要であることを暗示することを意図するものではない。
以下で説明されるように、同時にまたは所与の時間期間中にキャプチャされた異なるカメラモジュールからの画像は、合成画像、たとえば、カメラモジュール131、133のうちの単一のカメラモジュールによってキャプチャされた個々の画像よりも良い解像度、周波数コンテンツ、および/または光範囲を有する画像を生成するために結合可能である。
複数のキャプチャされた画像および/または合成画像は、ビデオたとえばある時間期間に対応する一連の画像を形成するように処理され得、いくつかの実施形態では、そのように処理される。インターフェース114は、カメラデバイス100の内部構成要素を、外部ネットワークたとえばインターネット、および/または1つもしくは複数の他のデバイスたとえばメモリもしくはスタンドアロンコンピュータに結合させる。インターフェース114を介して、カメラデバイス100は、データ、たとえば、キャプチャされた画像、生成された合成画像、および/または生成されたビデオを出力することができ、出力する。出力は、ネットワークに対してであってもよいし、処理、格納のための、および/または共有されることになる、別の外部デバイスに対してであってもよい。キャプチャされた画像データ、生成された合成画像、および/またはビデオは、さらなる処理のために別のデバイスに対する入力データとして提供されてもよいし、および/またはたとえば、外部メモリ、外部デバイスにおける、もしくはネットワークにおける格納のために、送られてもよい。
カメラデバイス100のインターフェース114は、画像データが外部コンピュータ上で処理され得るようにコンピュータに結合され得、いくつかの例では、結合される。いくつかの実施形態では、外部コンピュータは、出力された画像データのより多くの計算的に複雑な画像処理が外部コンピュータ上で発生することを可能にするカメラデバイス100よりも高い計算処理能力を有する。インターフェース114はまた、データ、情報、および命令によって、カメラデバイス100上での格納および/または処理のために、1つもしくは複数のネットワークおよび/またはコンピュータもしくはメモリなどの他の外部デバイスからカメラデバイス100に供給されることが可能になる。たとえば、背景画像は、カメラデバイス100によってキャプチャされた1つまたは複数の画像と、カメラプロセッサ110によって結合されるために、カメラデバイスに供給され得る。命令および/またはデータの更新は、インターフェース114を介してカメラ上にロードされ、メモリ108内に格納可能である。
ライティングモジュール104は、いくつかの実施形態では、カメラフラッシュとして働くように制御された方式で照明可能な複数の発光要素たとえばLEDを含み、LEDは、ローリングシャッターの動作および/または露光時間に基づいて、グループでまたは個々に、たとえば同期方式で、制御される。説明のために、例示的な実施形態では、LEDは発光デバイスとして使用されるので、モジュール104はLEDモジュールと呼ばれるが、上記で説明されたように、本発明はLED実施形態に限定されず、他の発光源も使用されてよい。いくつかの実施形態では、LEDモジュール104は、発光要素たとえばLEDのアレイを含む。いくつかの実施形態では、LEDモジュール104内の発光要素は、各個々のLEDおよび/またはLEDのグループがローリングシャッターの動作との同期方式で照明可能であるように配置される。発光要素は、すべてではないが、いくつかの実施形態では、全エリアが画像キャプチャ中に常に照らされる必要がないように、異なる時刻にエリアの異なる部分が照明されるように、順次照明される。すべてのライティング要素は、センサの画素要素のフルセットの読み出しを伴う画像キャプチャ動作の持続時間全体にわたってオンに保たれないが、ローリングシャッターの使用の結果として所与の時刻にその画像をキャプチャしたエリアの部分たとえばスキャンエリアが、ローリングシャッターの動作との発光要素のライティングの同期のために照明される。したがって、さまざまな発光要素は、いくつかの実施形態では、露光時間と、センサのどの部分が所与の時刻に画像の一部分をキャプチャするために使用されるかに基づいて、異なる時刻に明るくなるように制御される。いくつかの実施形態では、LEDモジュール104内の発光要素は、発光要素の複数のセットを含み、発光要素の各セットは、明るくなり、画像センサの異なる部分によってキャプチャされる異なる画像エリアに対応する。レンズは、異なる発光要素からの光を、1つまたは複数のカメラモジュールの使用によってカメラによってキャプチャされる異なるシーンエリアに方向づけるために使用され得、いくつかの実施形態では、使用される。
ローリングシャッターコントローラ150は、異なる時刻における1つまたは複数の画像センサの異なる部分の読み出しを制御する電子シャッターである。各画像センサは、一度に1つの行の画素値を読み、さまざまな列が順を追って読まれる。以下で説明されるように、異なるセンサによってキャプチャされた画像の読み出しは、いくつかの実施形態では、センサが、いくつかの実施形態では複数のセンサが同時に同じ画像エリアをキャプチャすることとの同期方式で、関心画像エリアと呼ばれることがある関心シーンエリアをキャプチャするように制御される。
実施形態の大部分で電子ローリングシャッターが使用されるが、いくつかの実施形態では、機械的ローリングシャッターが使用されることがある。
光制御デバイス152は、ローリングシャッターコントローラ150の動作との同期方式で発光要素(たとえば、LEDモジュール104に含まれる)を制御するように構成される。いくつかの実施形態では、光制御デバイス152は、ローリングシャッター150のタイミングと同期される方式で異なる時刻に光を発するためにアレイ内の発光要素の異なるセットを制御するように構成される。いくつかの実施形態では、光制御デバイス152は、第1の時間期間中に光を出力するように第1の画像エリアに対応する発光要素の第1のセットを制御するように構成され、この第1の時間期間は、ローリングシャッターのタイミングに基づいて決定され、センサの第1の部分が画像キャプチャのために露光される時間期間である。いくつかの実施形態では、光制御デバイス152は、第2の時間期間中に光を出力するように第2の画像エリアに対応する発光要素の第2のセットを制御するようにさらに構成され、この第2の時間期間は、ローリングシャッターのタイミングに基づいて決定され、センサの第2の部分が画像キャプチャのために露光される時間期間である。いくつかの実施形態では、第1の時間期間は、第2の時間期間に重複しない時間の少なくとも一部分を含む。
いくつかの実施形態では、光制御デバイス152は、第3の時間期間中に光を出力するように第Nの画像エリアに対応する発光要素の第Nのセットを制御するようにさらに構成され、前記第Nの時間期間は、ローリングシャッターのタイミングに基づいて決定され、センサの第Nの部分が画像キャプチャのために露光される時間期間であり、Nは、総合画像エリアの1回の完全な読み出しを完了するために前記ローリングシャッターによって使用される時間期間の総数に対応する整数値である。
いくつかの実施形態では、光制御デバイス152は、時間の前記第2の期間に重複しない第1の時間期間に含まれる時間の前記部分中にオフになるように発光要素の第2のセットを制御するようにさらに構成される。いくつかの実施形態では、光制御デバイスは、露光設定に基づいて、発光要素の第1のセットおよび前記第2のセットがいつオンになり得るかを決定するように構成される。いくつかの実施形態では、光制御デバイスは、前記センサの異なる部分の読み出し間の時間の量に基づいて、発光要素の前記第1のセットおよび前記第2のセットがいつオンになり得るかを決定するように構成される。いくつかの実施形態では、複数の発光要素内の発光要素の異なるセットが、異なるレンズで覆われる。いくつかのそのような実施形態では、光制御デバイス152は、カメラデバイスによって使用されている有効焦点距離設定に基づいて、発光要素のどのセットを使用するかを決定するようにさらに構成される。
加速度計モジュール122は、加速度計1 124と加速度計2 126と加速度計3 128とを含む複数の加速度計を含む。加速度計の各々は、所与の方向におけるカメラ加速度を検出するように構成される。3つの加速度計124、126、および128は、加速度計モジュール122に含まれると示されているが、いくつかの実施形態では、4つ以上の加速度計が使用可能であることを理解されたい。同様に、ジャイロモジュール192は、3つのジャイロ、すなわち194と、196と、198とを、カメラデバイスが通常使用される3次元現実世界環境において使用するのに好適な各軸に対して1つ含む。所与の方向における加速度計によって検出されるカメラ加速度が監視される。カメラの動きを示す、加速度および/または加速度の変化、ならびに回転が監視され、動き、たとえば前方へのカメラの動き、後方へのカメラの動きなどの、1つまたは複数の方向を検出するために処理される。以下で説明されるように、カメラの動きを示す加速度/回転は、ズーム動作を制御するために使用可能であり、および/または場合によってはカメラマウントに提供可能であり、これによって、次いで、カメラを安定させる助けとなるようにカメラマウントを回転させるまたはカメラ支持具を回転させるなどの措置を講じることができる。
カメラデバイス100は、オートフォーカスコントローラ132および/またはオートフォーカス駆動部アセンブリ134を含み得、いくつかの実施形態では、これらを含む。オートフォーカス駆動部アセンブリ134は、いくつかの実施形態では、レンズ駆動部として実施される。オートフォーカスコントローラ132は、少なくともいくつかのオートフォーカス実施形態に存在するが、固定フォーカス実施形態では省略され得る。オートフォーカスコントローラ132は、所望の、たとえばユーザにより示された、フォーカスを達成するために使用される1つまたは複数の光学チェーンにおける少なくとも1つのレンズ位置の調整を制御する。個々の駆動部アセンブリが各光学チェーンに含まれる場合、オートフォーカスコントローラ132は、同じターゲットに焦点を合わせるためにさまざまな光学チェーンのオートフォーカス駆動部を駆動し得る。
ズーム制御モジュール140は、ユーザ入力に応答してズーム動作を実行するように構成される。
プロセッサ110は、本明細書で説明される方法のステップを実施するようにカメラデバイス100の要素を制御するようにカメラデバイス100の動作を制御する。プロセッサは、方法を実施するように事前構成された専用プロセッサであってよい。しかしながら、多くの実施形態では、プロセッサ110は、実行されるとき、プロセッサに、本明細書で説明される方法の1つ、より多く、またはすべてを実施するようにカメラデバイス100を制御させる命令を含む、メモリ108内に格納されたソフトウェアモジュールおよび/またはルーチンの指示に従って動作する。メモリ108はモジュールのアセンブリ118を含み、1つまたは複数のモジュールは、本発明の画像キャプチャおよび/または画像データ処理方法を実施するための1つまたは複数のソフトウェアルーチンたとえば機械実行可能命令を含む。118のモジュール内の個々のステップおよび/またはコードの行は、プロセッサ110によって実行されるとき、本発明の方法のステップを実行するようにプロセッサ110を制御する。プロセッサ110によって実行されるとき、データ処理モジュール118は、少なくともいくつかのデータを、本発明の方法によりプロセッサ110によって処理させる。モジュールのアセンブリ118は、たとえばユーザ入力に基づいて、複数のカメラデバイス動作のモードのうちのどれが実施されるべきかを決定するモード制御モジュールを含む。異なる動作のモードでは、異なるカメラモジュール131、133は、選択された動作のモードに基づいて、異なるように制御され得、多くの場合、制御される。たとえば、動作のモードに応じて、異なるカメラモジュールは異なる露光時間を使用し得る。あるいは、カメラモジュールが方向づけられるシーンエリアと、したがってシーンのどの部分が個々のカメラモジュールによってキャプチャされるかは、以下で図5および図34に関して説明されるように、異なるカメラモジュールによってキャプチャされる画像が、合成画像を形成するためにどのように使用可能か、たとえば結合可能であるか、および個々のカメラモジュールは、ユーザにより選択されたまたは自動的に選択された動作のモード中により大きなシーンのどの部分をキャプチャするべきかに応じて変更され得る。いくつかの実施形態では、1つまたは複数のモジュールのアセンブリからの命令を実行するときプロセッサによって実行される動作が、代わりに、同じ機能を実行するハードウェアモジュールによって実行され、モジュールのハードウェアアセンブリに含まれる。
結果として生じるデータおよび情報(たとえば、シーンのキャプチャされた画像、シーンの結合された画像など)は、将来の使用、追加処理、および/またはたとえば表示のためのディスプレイデバイス102への、もしくは送信、処理、および/もしくは表示のための別のデバイスへの出力のために、データメモリ120内に格納される。メモリ108は、異なるタイプのメモリ、たとえばモジュールのアセンブリ118およびデータ/情報120が将来の使用のために格納され得、いくつかの実施形態では格納される、ランダムアクセスメモリ(RAM)を含む。モジュールのアセンブリ118が電源異常に備えて格納され得る読み出し専用メモリ(ROM)。データ、情報、および命令の格納のためのフラッシュメモリなどの不揮発性メモリも、メモリ108を実施するために使用され得る。メモリカードは、データ(たとえば、画像およびビデオ)および/またはプログラミングなどの命令を格納するための追加メモリを提供するためにデバイスに追加され得る。したがって、メモリ108は、ストレージデバイスとして働く、多種多様の非一時的なコンピュータ可読媒体または機械可読媒体のいずれかを使用して実施され得る。
カメラデバイス100の一般的な構成要素について、図1を参照しながら説明してきたが、ここで、複数の光学チェーン130に関するさまざまな特徴が、それぞれカメラデバイス100を前面および側面の視点から示す図2と図3とを参照しながら説明される。図2の破線101は断面線を示す。
箱117は凡例を表し、OC=光学チェーンたとえばカメラモジュールを示し、各L1は、光学チェーン内の最も外側のレンズを表す。箱119は凡例を表し、S=センサ、F=フィルタ、L=レンズを示し、L1は、光学チェーン内の最も外側のレンズを表し、L2は、光学チェーン内の内側レンズを表す。図3は、光学チェーンの1つの可能な実装形態を示すが、以下で説明されるように、他の実施形態も可能であり、光学チェーンは、図3に示される要素に加えて、1つまたは複数の光方向変換要素を含み得る。異なる光学チェーンのレンズは異なる形状を有してよく、たとえば、いくつかのレンズには、丸い絞りが使用され、他のレンズには、丸くない絞りが使用される。しかしながら、いくつかの実施形態では、丸い絞りを有するレンズが、カメラデバイスの光学チェーンの各々に使用される。
図2は、例示的なカメラデバイス100の前面を示す。図1に示される、カメラアセンブリの前面に向かう光である光131の光線は、カメラハウジングの前面に設置されたレンズに入り得る。カメラデバイス100の前面から、カメラデバイス100は、カメラハウジングを表す外側長方形と、複数の光学チェーン130が取り付けられた前面カメラ本体の部分を表すカメラの中心に向かう正方形とを有する、比較的平坦なデバイスと見える。図2に示される外側レンズは、同じサイズである円形絞りを有するように示されているが、以下で説明されるように、異なるサイズのレンズが、焦点距離たとえば、に応じて異なる光学チェーンに使用され得、より大きな焦点距離を有する光学チェーンは通常、小さな焦点距離を有する光学チェーンよりも大きい絞りを有する外側レンズを含むことに留意されたい。
カメラデバイス100の側面視点を示す図3は、光学チェーン130のセットのうちの7つの光学チェーンのうちの3つ(OC1 121、OC7 145、OC4 133)と、ディスプレイ102と、プロセッサ110とを示す。OC1 121は、外側レンズL1 103と、フィルタ123と、内側レンズL2 125と、センサ127とを含む。いくつかの実施形態では、OC1 121は、ズーミング動作および/またはオートフォーカス動作の目的でレンズL2 125の位置を制御するためのレンズ駆動部(LD)129をさらに含む。露光および読み出しコントローラ150は図に示されていないが、同期方式で、たとえばシーンエリアが個々のセンサによってキャプチャされることを考慮に入れて、センサ127、151、および139からの画素値の行の読み出しを制御するために使用される。LD129は、それが接続され、それによって、LDが結合された光学チェーンの他の要素に対して1つまたは複数の要素を移動させることによって光路の改変を可能にする、レンズ、1つまたは複数のレンズを収納するバレルもしくはシリンダ、またはセンサを移動可能な、モータまたは他の駆動機構を含む。LD129は、レンズL2 125に結合される、たとえば接続されるように示されており、したがって、たとえば、動作ズーミング動作またはオートフォーカスの一部としてレンズL2の位置を移動させることができるが、他の実施形態では、LD129は、光学チェーンの一部である円筒状またはバレル形状の構成要素に、またはセンサ127に結合される。したがって、レンズ駆動部は、たとえば、ズーミング動作および/またはフォーカス動作の一部としてセンサ127とレンズ125との間の距離を変更するために、センサ127に対するレンズの相対位置を変えることができる。OC7 145は、外側レンズL1 115と、フィルタ147と、内側レンズL2 149と、センサ151とを含む。OC7 145は、レンズL2 149の位置を制御するためのLD153をさらに含む。LD153は、レンズ、バレル、シリンダ、センサ、またはLD153が接続された他の光学チェーン要素を移動可能なモータまたは他の駆動機構を含む。
OC4 133は、外側レンズL1 109と、フィルタ135と、内側レンズL2 137と、センサ139とを含む。OC4 133は、レンズL2 137の位置を制御するためのLD141を含む。LD141は、モータまたは他の駆動機構を含み、他の光学チェーンの駆動部と同じまたは類似の方式で動作する。OCのうちの3つのみが図3に示されているが、カメラデバイス100の他のOCは、同じまたは類似の構造を有し得、および/または光方向変換デバイスなどの他の要素を含み得、いくつかの実施形態では、同じまたは類似の構造を有し、および/または他の要素を含むことを理解されたい。したがって、カメラデバイス100の複数の光学チェーン間の差が可能であり、いくつかの実施形態では、並行して動作可能な複数の光学チェーンの使用によって単一のカメラデバイス内でさまざまな焦点距離がサポートされることを可能にするために存在する。
図3と、その中に示される、カメラモジュールと呼ばれることもある光学チェーン(OC)は、さまざまな実施形態で使用されるOCの一般的な構造を示す。しかしながら、多数の修正形態および特定の構成が可能である。図3の要素がなされ得るが、特定の実施形態におけるOC(カメラモジュール)は特定の実施形態に関して説明されるように構成され、さまざまな異なるカメラモジュールが、多くの場合、単一のカメラデバイス内で使用されることを理解されたい。図5および図13Aは、光方向変換デバイスを含む光学チェーンたとえばカメラモジュールを示す。そのようなモジュールは、単独で、または図3および図4Aまたは本出願の他の図に示されるモジュールなどの他のモジュールと組み合わせて、使用可能である。
フィルタは、特定の色であってよく、またはいくつかの光学チェーンにおいて使用され得るが、フィルタは、すべての光学チェーンにおいて使用される必要はなく、いくつかの実施形態では、使用されないことがある。フィルタが明確に省略されるおよび/または省略されるもしくはすべての光が通過する要素であると説明される実施形態では、図3のOCについて参照がなされ得るが、省略される、または実施形態が広帯域フィルタを有することを意図される場合に広いスペクトルの光が通過することを可能にするような性質であることが意図される一実施形態では、フィルタが省略されることを理解されたい。図3のOCでは、光方向変換デバイス(R)たとえば鏡またはプリズムが示されていないが、以下で説明されるように、少なくともいくつかの実施形態では、1つまたは複数の鏡が、たとえば光路の長さを増加させるまたはより好都合な内部構成要素構成に寄与するために光が方向変換されるOCに含まれる。図3に示されるOC121、145、133の各々はそれら自体の光軸を有することを理解されたい。例では、各光軸は、光学チェーンの先頭でレンズ103、115、または109の中心を通過し、OCを通過して、対応するセンサ127、151、139に至る。
プロセッサ110は、LDおよびセンサ127、151、139に結合されると示されていないが、そのような接続が存在し、例示的なOCの構成の例示を容易にするために図3から省略されていることを理解されたい。
理解されるべきであるように、レンズ、フィルタ、および/または鏡の数および配置は特定の実施形態に応じて変化可能であり、図3に示される配置は、例示的なものであり、性質を制限することではなく、さまざまな特徴の理解を容易にすることを意図されている。
複数の光学チェーン130の前面は図2で視認可能であり、各光学チェーンの最も外側のレンズは、実線を使用して表される円として現れる(OC1 L1 103、OC2 L1 105、OC3 L1 107、OC4 L1 109、OC5 L1 111、OC6 L1 113、OC7 L1 115)。図2の例では、複数の光学チェーン130は、図2に示される中実の円によって表されるレンズ(OC1 L1 103、OC2 L1 105、OC3 L1 107、OC4 L1 109、OC5 L1 111、OC6 L1 113、OC7 L1 115)をそれぞれ含む、7つの光学チェーンすなわちOC1 121、OC2 157、OC3 159、OC4 133、OC5 171、OC6 173、OC7 145を含む。光学チェーンのレンズは、前面からユニットとして見られたとき図2の例では略円形であるパターンを形成するように配置される。いくつかの実施形態では、円形配置が使用されるが、他の実施形態では、非円形配置が使用され、好ましい。いくつかの実施形態では、全体的なパターンは略円形またはほぼ円形であるが、略円の中心への異なる距離および/または1つのレンズから別のレンズへの異なる距離は、デブスマップの生成を容易にし、繰り返しパターンの縁を識別する必要のない繰り返しパターンなどの周期構造を含み得る画像の処理を阻止するために意図的に使用される。そのような繰り返しパターンは、グリルまたはスクリーンで見つけられ得る。
光学カメラモジュールと呼ばれることもある複数の光学チェーンOC1〜OC7の複数のレンズに対応する全体的な総合光キャプチャエリアは、結合すると、はるかに大きい開口を有するが、通常であれば図2に示されるレンズが占有するエリアを占有する単一のレンズの湾曲によって必要とされるであろう厚さを有する単一のレンズを必要とすることのないレンズの全体的な総合光キャプチャエリアを近似することができる。
光学チェーンOC1〜OC7のレンズ開口間の間隙が示されているが、レンズが、互いに密に嵌合し、実線によって形成される円によって表されるレンズ間の間隙を最小限にするように作製され得、いくつかの実施形態では、そのように作製されることを理解されたい。図2には7つの光学チェーンが示されているが、他の数の光学チェーンも可能であることを理解されたい。たとえば、図12Aおよび図17Aに示されるように、いくつかの実施形態では、17のカメラモジュールが単一のカメラデバイス内で使用される。一層大きな数の光学チェーンを含むカメラデバイスも可能である。
複数の光学チェーンの使用は、単一の光学チェーンの使用に勝るいくつかの利点を有する。複数の光学チェーンを使用することは、ノイズ平均化を可能にする。たとえば、小さなセンササイズを仮定すれば、1つの光学チェーンが別の光学チェーンと異なる数、たとえば1つまたは複数の、光子を検出し得るランダムな確率が存在する。これは、画像が感知されることにおける実際の人間が知覚可能な変動とは反対のノイズを表し得る。異なる光学チェーンによって感知された画像の一部分に対応する感知された画素値を平均化することによって、不規則ノイズが平均化され、単一の光学チェーンの出力が使用された場合よりも正確で快い画像またはシーンの表現がもたらされ得る。
小さいサイズの光学センサ(たとえば、個々の画素要素)を仮定すれば、光感受性に関するダイナミックレンジは通常、制限され、センサは、明るい条件下で容易に飽和されるようになる。異なる露光時間に対応する複数の光学チェーンを使用することによって、シーンエリアの暗い部分は、より長い露光時間に対応するセンサによって感知可能であるが、シーンエリアの光の部分は、飽和されることのない、より短い露光時間を用いて、光学チェーンによって感知可能である。センサ飽和を示す画素値によって示される、飽和されるようになる光学チェーンの画素センサは無視可能であり、他の、たとえばあまり露光されない、光学チェーンからの画素値は、他の光学チェーンの飽和された画素センサからの寄与なしで使用可能である。いくつかの実施形態では、露光時間の関数としての飽和されていない画素値の重み付けおよび組み合わせが使用される。異なる露光時間を有するセンサの出力を結合することによって、単一のセンサと露光時間とを使用して可能であろうよりも大きなダイナミックレンジがカバーされ得る。
図3は、図1および図2に示されるカメラデバイス100の断面視点である。図2の破線101は、図3の断面図が対応するカメラデバイス内のロケーションを示す。側断面図から、第1の光学チェーン、第7の光学チェーン、および第4の光学チェーンの構成要素が視認可能である。
図3に示されるように、複数の光学チェーンを含むにもかかわらず、カメラデバイス100は、少なくともいくつかの実施形態において、比較的薄型のデバイス、たとえば、厚さが2、3、または4センチメートルよりも薄いデバイスとして実施可能である。より厚いデバイス、たとえば望遠レンズを有するデバイスも可能であり、本発明の範囲内であるが、より薄いバージョンが携帯電話および/またはタブレット実装形態に特に好適である。以下で説明されるように、光方向変換要素および/または非円形レンズの使用などのさまざまな技法が、比較的大きい焦点距離、たとえば、比較的薄いカメラデバイスフォーマットにおける、フルフレームDSLRカメラに対して150mm相当の焦点距離、フルフレームDSLRカメラに対して300mm相当の焦点距離、または上記のカメラモジュールをサポートするために、ハンドヘルドカメラで一般に使用されるセンサなどの小さいセンサに関連して、使用可能である。
図3の図に示されるように、ディスプレイデバイス102は、複数の光学チェーン130の後ろに置かれ得、プロセッサ110、メモリ、および他の構成要素は、少なくともいくつかの実施形態では、ディスプレイおよび/または光学チェーン130より上方または下方に位置決めされ得る。以下で説明されるように、および図3に示されるように、光学チェーンOC1 121、OC7 145、OC4 133の各々は、レンズL1とフィルタFと第2のレンズL2とを通過してセンサSに到達する光をキャプチャしてその強度を測定するセンサSへ進む、外側レンズL1と、任意選択のフィルタFと、第2の任意選択のレンズL2とを含み得、いくつかの実施形態では、これらを含む。フィルタは、カラーフィルタまたはさまざまな他のタイプの光フィルタのうちの1つであってもよいし、特定の光学チェーン実施形態または構成によっては省略されてもよい。
比較的大きい光キャプチャエリアをサポートし、カラーフィルタリングおよび露光時間に関する大きな柔軟性を提供しながら、図3に示されるカメラデバイス100は比較的薄く、図2で視認可能なカメラデバイスの全体的な横方向の長さもしくはさらには上下方向の長さよりもはるかに薄い、たとえば、5分の1、10分の1、20分の1、または一層薄い厚さを有することに留意されたい。
図4Aは、本発明により実施されるカメラデバイス200を示す。図4のカメラデバイス200は、図1〜3のデバイス100に示される同じ要素のうちの多くまたはすべてを含む。例示的なカメラデバイス200は、互いに結合された、複数の光学チェーン(OC1 205、OC2 207、…、OC X 209と、プロセッサ211と、メモリ213と、ディスプレイ215とを含む。OC1 205は、外側レンズL1 251と、光方向変換要素R 252と、ヒンジ(または鏡)駆動部HD291と、フィルタ253と、内側レンズL2 255と、センサ1 257と、LD259とを含む。HD291は、光方向変換デバイス(R)252たとえば鏡が取り付けられるヒンジの位置を移動させ、したがって、レンズ251を移動させることなくモジュール205が向けられるシーンエリアを変更するために鏡を移動させるために使用可能である。モジュール205が向けられるシーンエリアを変更するために鏡252を移動させる(たとえば、ヒンジのまわりに回転させる)ことは、いくつかの実施形態と同様に屈折力を持たない、外側レンズ251がガラスの平面状断片またはプラスチック断片である一実施形態において、特に有用である。
図4Aに示される光学チェーンは、カメラ200内のさまざまな位置に配置可能である。図4Aに示される要素と同じである図4B内の要素は、同じ参照番号を使用して識別され、再び説明されない。図4Bは、光がカメラ200の前面または面を介して入り、カメラ200の外側部分を形成するカメラハウジングの内部上部部分に取り付けられた第1〜第3のカメラモジュールのセンサ257、269、281にそれぞれ方向変換される配置内の光学チェーンの構成を示す。
図4Bの実施形態でわかるように、水平次元に入る光は、垂直に上方に方向変換される。たとえば、第1の光学チェーン205の外側レンズ251を通って入る光は、センサ257に向かって進むときフィルタ253および内側レンズ255を通過するように、鏡252によって上方に方向変換される。要素252などの光方向変換要素を有する、第1の光学チェーン205などの光学チェーンは、説明の目的で、2つのパートすなわちパートAおよびパートBに分割可能である。パートAは、光路内で光方向変換要素252の前にある光学チェーン内のすべての要素からなり、パートBは、光路内で光方向変換要素の後ろにあるすべての光学素子(画像センサを含む)からなる。カメラの外部から見られる光学チェーン205の光軸は、パートAの光軸291である。光軸291に沿って光学チェーン205内へと進む光は、第1の光学チェーンのパートBの光軸293に沿って上方に方向変換される。
光学チェーン205の特定の例示的な一実施形態では、パートAは、いかなる屈折力を有する光学素子を含まず、たとえば、パートAは、平面状ガラスまたはフィルタを含むが、レンズは含まない。この場合、カメラの外部から見られる光学チェーンの光軸は、単に、光方向変換要素によってパートBの光軸293に沿って方向変換される光路に沿っている。いくつかの実施形態では、1つまたは複数のレンズ255が、屈折力を有する光学チェーンのパートBに含まれる。したがって、少なくともいくつかの実施形態では、外側レンズ251は、カメラ200の表面から突き出さない平坦なまたは比較的平坦なレンズとして実施され得ることを理解されたい。これによって、すり傷のリスクが低減され、レンズがカメラから突き出す場合にそうであろうようにポケットまたはケースから外側レンズを挿入または除去するときに外側レンズが挟まれる可能性も低減される。
第2のカメラモジュールおよび第3のカメラモジュールの光軸は第1の光学モジュール205の光軸に類似しており、光学チェーンの構成要素も、2つのパート、すなわち、光学チェーンの鏡へ進む構成部品に対応するパートAおよび光学チェーンの鏡に続く構成要素に対応するパートBにグループ化され得ることを理解されたい。光学チェーンの光路の視点から、構成要素のような光路はパートAおよびパートBとしてグループ化され得、鏡は、光路のパートAと光路のパートBとの間の遷移点を提供する。
すべてではないが、いくつかの実施形態では、図4Aのカメラデバイス200のプロセッサ211は図1のデバイス100のプロセッサ110と同じであるかまたはこれに類似しており、図4Aのデバイス200のメモリ213は図1のデバイス100のメモリ108と同じであるかまたはこれに類似しており、デバイス200のズーム制御モジュール214はデバイス100のズーム制御モジュール140と同じであるかまたはこれに類似しており、デバイス200の加速度計モジュール216はデバイス100の加速度計モジュール122と同じであるかまたはこれに類似しており、図4Aのデバイス200のディスプレイ215は図1のデバイス100のディスプレイ102と同じであるかまたはこれに類似している。
OC2 207は、外側レンズL1 263と、光方向変換デバイス231と、ヒンジ駆動部293と、フィルタ265と、内側レンズL2 267と、センサ2 269と、LD271とを含む。OC N 209は、外側レンズL1 275と、光方向変換デバイス235と、ヒンジ駆動部295と、フィルタ277と、内側レンズL2 279と、センサN 281と、LD283とを含む。露光および読み出しコントローラ150は、露光時間も制御しながら、たとえば画素値の列を同期方式で読み出すようにセンサを制御する。いくつかの実施形態では、露光および読み出しコントローラ150は、露光コントローラ287とセンサ読み出しコントローラ289とを含むローリングシャッターコントローラである。オートフォーカスコントローラ152は、いくつかの実施形態では、レンズ駆動部259と271と283とを制御するために含まれる。
図4Aの実施形態では、光学チェーン(光学チェーン1 205、光学チェーン2 207、…、光学チェーンN 209)は独立アセンブリとして示されおり、各モジュールのレンズ駆動部はそれぞれ、別個のLD要素(LD259、LD271、LD283)である。示されるLDの各々は、ズーミング動作および/またはフォーカス動作の一部として、接続された対応するレンズの位置を調整する。いくつかの実施形態では、LDは、LDがレンズ支持機構またはレンズとセンサの両方に接続されるレンズおよび/またはセンサの位置を制御する。
図4Aでは、各光学チェーン内のセンサの前にくる鏡とさまざまなレンズとフィルタとの間の構造上の関係は、他の図のうちのいくつかにおいてよりも、はっきりとわかる。図4Aでは、4つの要素、たとえば2つのレンズ(それぞれL1とL2に対応する列201と203とを参照されたい)、光方向変換デバイスR(列217を参照されたい)、およびフィルタ(列202に対応する)が、各センサの前に示されているが、はるかに大きな組み合わせ(たとえば、数)のレンズ、光方向変換要素、および/またはフィルタが、1つまたは複数の光学チェーンのセンサの前にきてよく、2〜10の範囲の要素が一般的であり、いくつかの実施形態、たとえば、ハイエンド実施形態ならびに/または多数のフィルタおよび/もしくはレンズの選択肢をサポートする実施形態では、一層大きな数の要素が使用されることを理解されたい。そのうえ、すべての示されている要素がすべての光学チェーンに含まれる必要はないことを理解されたい。たとえば、短い焦点距離を有する光学チェーンは、短い焦点距離を考えると、まっすぐであるが依然として比較的にコンパクトな方式で実施可能であるので、いくつかの実施形態では、比較的短い焦点距離を有する光学チェーンが、たとえば光を90度方向変換するために、光方向変換要素の使用が使用されることなく実施され得る。
すべてではないが、いくつかの実施形態では、光学チェーンがカメラデバイス内に取り付けられ、場合によっては、たとえば、より短い焦点距離の光学チェーンが、カメラデバイスの前面から背面に向かってまっすぐに延在する。しかしながら、同じカメラ内では、より長い焦点距離のカメラモジュールは、カメラモジュールの光路の少なくとも一部分が横に延在することを可能にし、光軸の長さがカメラの奥行きよりも長いことを可能にする光方向変換デバイスを含み得、場合によっては、これを含む。そのようなモジュールの全長が、より短い焦点距離を有するカメラモジュールの全長よりも長い傾向があることを考えると、光方向変換要素たとえば鏡の使用は、長い焦点距離のカメラモジュールにとって特に有利である。カメラは、多種多様の異なるカメラモジュールを有し得、いくつかのモジュールは光方向変換要素たとえば鏡を持ち、他のモジュールは鏡を持たない。異なる光学チェーンに対応するフィルタおよび/またはレンズは、平面内に配置され得、いくつかの実施形態では配置され、たとえば、最も外側のレンズの絞りは、カメラの面と平行に延在する平面、たとえば、カメラが垂直方向であり、カメラの上部がいずれも上向きであるとき、カメラの前面が垂直と水平の両方に延在する平面内に構成され得る。
図5は、さまざまな例示的な実施形態で使用される光学チェーンたとえばカメラモジュール500を示す。図5に示されるタイプの複数の光学チェーンは、以下で詳細に説明されるカメラ600などのカメラデバイスで使用される。カメラモジュール500は、外側レンズ512と、レンズ512の後ろに位置決めされた光方向変換デバイスたとえば鏡510と、ヒンジ駆動部516と、鏡ヒンジ508と、第1の円筒状モジュール部分506と、第2の円筒状モジュール部分504と、センサ502と、レンズ駆動部514とを含む光学チェーンである。光は、レンズ512を介して光学チェーン500に入り、光学チェーンの背面にあるセンサ502に到達するように鏡510によって方向変換される。第1の円筒状部分504および第2の円筒状部分506は、1つまたは複数のレンズまたはフィルタ、ならびに光がセンサ502に到達する前に通過し得る他の光学構成要素を収納することができる。鏡510は通常、光がカメラの側面に向かって進み、光学チェーン500が、光学チェーン500が取り付けられたカメラデバイスの横方向の距離を効果的に使用することを可能にするように、その光軸に沿ってレンズ512(カメラの面に位置決めされ得る)を通って入る光が光学チェーン500のパートBの光軸に沿って方向変換されるように、光を90度方向変換するために使用されるが、ヒンジ駆動部516は、方向変換の角度が90度から変化するように方向変換の角度を変えるために、ヒンジ508およびしたがって鏡510の位置を移動させ得る。したがって、光学チェーン500が効果的に向く方向は、レンズ512を移動させることなくヒンジ508および鏡510のすべてまたは一部分を移動させることによって変えられ得る。いくつかの実施形態では、ヒンジの軸は、光軸のパートBに垂直であり、カメラ600の前面の場所と平行である。いくつかの実施形態では、レンズ512は、屈折力を持たない平面状ガラスである。
ヒンジ駆動部は、鏡510および/または円筒状部分506などのカメラモジュールの他の構成要素に鏡を接続するヒンジ508の位置を駆動または変更するために使用可能なモータまたは他の機械的機構を使用して実施され得る。
円筒状部分またはバレル部分504、506は、互いに対して摺動するように駆動部514によって移動され得、たとえば、バレル部分504は、バレル部分506内外へとまたはそれからさらに移動するように移動され、それによって、フォーカス動作またはズーム動作の一部として、レンズ512からセンサ502までの距離を変え得る。
光学チェーン500は、比較的に長い光学チェーンが、光学チェーン500の全長よりも短い奥行きを有するカメラデバイス内に位置決めされることを可能にすることを理解されたい。カメラモジュール500は、複数の光学チェーンを含むが、依然として、ポケットまたは他のストレージデバイス内の格納を容易にするために比較的薄いことが意図されたカメラデバイスを実施するのに特に好適である。
図6は、複数の光学チェーンたとえば図5に示されるタイプのカメラモジュールを含むカメラデバイス600の斜視図である。カメラ600は、可撓性であり、ハンドグリップを形成し、レンズエリア604を露出するために側部に摺動可能なカバー602を含む。図6の実施形態では、レンズエリア604は、各々が円によって表される複数の外側レンズを含む。より大きい円は、より小さいレンズを有する光学チェーンよりも大きい絞りと焦点距離とを有する光学チェーンに対応する。図6の実施形態は、3つの異なる焦点距離に対応する合計17の光学チェーンを含む。レンズエリア604内の5つの最も小さい円によってわかる5つの小さい焦点距離の光学チェーンと、5つの中間の焦点距離の光学チェーンの外側レンズを表す5つの中間サイズの円によってわかる5つの中間の焦点距離の光学チェーンと、図6のレンズエリア604に示される7つのより大きい円によってわかる7つの長い焦点距離の光学チェーンが存在する。最小の光学チェーンと最大の光学チェーンとの間の焦点距離の関係は、一実施形態では、最小焦点距離が最大光学チェーンの焦点距離の4分の1であり、中間の焦点距離の光学チェーンの焦点距離の2分の1であるようなものである。たとえば、小さい焦点距離の光学チェーン、中間焦点距離の光学チェーン、および長い焦点距離の光学チェーンはそれぞれ、35mm、70mm、および140mmの相当するフルフレームDSLR焦点距離を有し得、一実施形態では、これを有する。そのような焦点距離の差が、35mmカメラモジュールは、70mmカメラモジュールによってキャプチャされるエリアよりも約4倍大きく、140mmの焦点距離を有するカメラモジュールによってキャプチャされるシーンエリア16倍のサイズの、シーンエリアをキャプチャすることをもたらすことを理解されたい。図6には示されていないが、カメラデバイス600は、図1および図4Aのカメラデバイス100およびカメラデバイス200と同じまたは類似の要素を含み得、いくつかの実施形態では、これを含むことを理解されたい。したがって、カメラデバイス600は、プロセッサ110/211、メモリ108/213、ズームコントローラ140/214、露光および読み出しコントローラ150、加速度計、ジャイロ、オートフォーカスコントローラ132などのさまざまな要素、ならびに上記でカメラデバイス100および200に関して説明されたさまざまな他の要素を含むことを理解されたい。
関心シーンエリアの部分をキャプチャするために異なる焦点距離を有するカメラモジュールを使用することによって、次いで、さまざまな実施形態で行われるように画像を結合することによって、合成画像は、いかなる個々のセンサよりも高い全体画素カウントを有することができる。したがって、異なる焦点距離を有する異なるカメラモジュールによって使用されるセンサが同じ画素カウントを有するときでも、合成画像の画素の数は、個々のセンサの画素の数よりもはるかに高くなり得る。
いくつかの実施形態では、以下で説明されるように、関心シーンエリアの異なる部分は、最大焦点距離を有するカメラモジュールのうちの異なるものによってキャプチャされる。次いで、より大きい関心シーンエリアが、関心シーンエリア全体に対応し得る場合、たとえば、最小のサポートされる焦点距離を使用するカメラデバイスのカメラモジュールの場合、中間または小さい焦点距離を有するカメラモジュールが、関心シーンエリアのより大きい部分をキャプチャするために使用される。重複する画像は、異なるカメラモジュールの画像センサによってキャプチャされる。カメラデバイス上のカメラモジュールの位置についての既知の空間情報、たとえば、異なるカメラモジュールの外側レンズ間の距離および/または個々のカメラモジュール(結合されることになる画像をキャプチャする)の各々が指す角度に基づいて、奥行き情報が生成される。以下でさらに説明されるように、合成画像を形成するために、異なるカメラモジュールによってキャプチャされた画像が、奥行き情報を使用して結合される。画像は、シーンまたはシーンエリア内の奥行き情報を生成することなく結合可能であり、いくつかの実施形態では、結合されることに留意されたい。いくつかのそのような実施形態では、最初に、関心シーンエリアを覆う画像が基準画像として選定される。次いで、合成画像が、基準画像においてキャプチャされた視点から生成される。そのような一実施形態では、基準画像内の選定された画素の小さいブロックが、他の画像の選定されたサブセットに含まれる各画像内の合致する画素の集合で結合される。組み合わせは、基準画像ブロック内の各画素が、被写体内の画像の各々における合致する画素(または、画像部分が非整数画素シフトと合致する場合、補間された画素)で結合されるように実行される。結合は画素値の重み付け和であってよく、ここで、重みは、画素が属する画像の品質に基づいて割り当てられる。この結合された画素のブロックは、ここで、合成画像の対応するブロックになる。プロセスは、合成画像全体を生成するために基準画像の他のブロックに対して繰り返される。異なる焦点距離を有するカメラモジュールで撮影された画像、次いで、基準画像は、異なる倍率を有することに留意されたい。この場合、これらの画像はまず、上記のプロセスが実行される前に基準画像と同じ倍率を有するように適切に拡大縮小されるべきである。より良いSNRを有する可能性を有するように上記のように複数の画像を結合することによって生成される合成画像、次いで、合成画像を生成するために使用される画像結合に基づいて選択された基準画像。
3つの異なる焦点距離に対応するその17の異なるカメラモジュールを有する図6のカメラデバイスは、以下で詳細に説明されるように、合成画像を生成するためにキャプチャされた画像を結合するのに特に好適である。
図7は、カメラケースを閉位置に有する、図6のカメラデバイス600を示す。可撓性ケース602は、カメラが使用中でないとき、レンズエリア604とその中に含まれるレンズとを保護可能なカバーとして働くことに留意されたい。
図8は、カメラデバイス600およびカメラデバイスのレンズ配置の正面図であり、15の外側レンズは、レンズエリア604内の円としてはっきりと視認可能である。最小焦点距離を有するカメラモジュールに対応する最小レンズの直径はdであり、中間の焦点距離のモジュールに対応する外側レンズは直径2dを有し、最大焦点距離を有するカメラモジュールは直径4dを有することに留意されたい。これは、f1が最大焦点距離(f3)の4分の1であり、中間の焦点距離を有するカメラモジュールの中間の焦点距離f2の焦点距離の2分の1である焦点距離関係ことを仮定すると、同じ「fストップ」すなわち「f値」を有するカメラモジュールをもたらす。「f値」は、焦点距離と絞り直径の比であり、カメラモジュールの回折限界を決定する。f値が小さいほど、カメラモジュールの回折限界となる可能性が低くなる。より小さいf値は通常、カメラモジュールにおけるより大きな光学的複雑さに対応する。5または6の成形されたプラスチック要素を有する小さいレンズは、最近、約2.4のf値に対するコスト効率の高い方式で製造可能である。したがって、いくつかの実施形態では、複数のプラスチック要素で作製されたプラスチックレンズが使用される。
図9は、レンズ構成およびレンズエリアのより良い理解を可能にするためにケース、制御装置、および他の特徴が省略された、カメラデバイス600の簡略図である。
図10は、カメラデバイス600の側面図1000である。図10に示されるように、カメラデバイスは、高さH(制御ボタンを含まない)と、奥行きD1とを有する。D1は、図6に示される最大レンズの絞りの直径Dに等しいかまたはこれよりも大きい。以下に説明されるように、実施形態によっては、丸い絞りを有する外側レンズの直径は、光方向変換要素たとえば鏡が光を方向変換するために使用される場合、カメラの最小奥行きに影響を与えることができる。この場合、カメラの最小奥行きは、この直径よりも大きくなければならない。そうでない場合、実際のモジュール絞りは外側レンズの直径よりも小さく、より小さな外側レンズが使用されてよい。
図11は、カメラ600の外側レンズ配置の拡大されたバージョン1100を示す。図11では、3つの異なるサイズの外側レンズがはっきりと視認可能であり、最大直径のレンズは、最大焦点距離、およびしたがってズームたとえば倍率、を有するカメラモジュールに対応する。
図12Aは、カメラ600の17の光学チェーンたとえばカメラモジュールがカメラ600の本体内にどのように配置可能であるかを示す図1200である。最大レンズと最大のサポートされる焦点距離とを有する7つの光学チェーン1202、1206、1210、1212、1216、1220、1222が、図5に示されるタイプの光学チェーンを使用して実施される。同様に、中間の直径のレンズと中間のサポートされる焦点距離とを有する5つのカメラモジュール1204、1208、1214、1218、1224も、図5に示されるタイプの光学チェーンを使用して実施される。最小直径の外側レンズと最小焦点距離とを有する5つの光学チェーン1226、1228、1230、1232、および1234は、鏡を使用せず、カメラの背面に向かってまっすぐに延在する光学チェーンを使用して実施される。図3の実施形態で使用されるタイプの光学チェーンは、光学チェーン1226、1228、1230、1232、および1234に使用され得る。しかしながら、図5に示されるタイプの光学チェーンは、光学チェーン1226、1228、1230、1232、および1234として使用され得、いくつかの実施形態では、使用されることを理解されたい。
カメラモジュールを見ることを可能にするためにカメラハウジングの前面が除去された正面図と考えられ得る図12Aの例から、単一のカメラを使用したシーンエリアの同じまたは異なる部分の複数の画像の同時および/または同期されたキャプチャを可能にする、より大きな数のカメラモジュールが単一のカメラデバイス600にどのように組み込み可能であるかがわかる。カメラデバイスは、次いで、カメラ600のカメラモジュールの単一のモジュールを使用して可能である超える画素の数などの画像属性および/または品質を有する合成画像を生成するために、複数の画像を結合することができる。
図12Bは、カメラデバイス内のさまざまな光学チェーンおよびカメラデバイス内の光学チェーンの要素の配置をより詳細に示す、カメラデバイス600の斜視図1250を示す。したがって、図12Bは、図12Aに関して詳細に説明されるようなさまざまな対応する焦点距離を有する複数の光学チェーン(OC)1202、1204、1206、1208、1210、1212、1214、1216、1218、1220、1222、1224、1226、1228、1230、1232、および1234のより詳細な図を示す。
図12Bに示されるように、カメラ600は、カメラの前表面(矢印1223によって示される)からカメラの背/後表面(矢印1227によって示される)までのカメラ600の厚さを表す奥行きD1を有する。図12Bには示されていないが、いくつかの実施形態では、カメラデバイス600は、図1および/または図4Aのカメラデバイスと同じまたは類似の要素を含む。
いくつかの実施形態では、光学チェーン1202、1206、1210、1212、1216、1220、1222、1204、1208、1214、1218、1224に含まれる要素は、上記で図4Bおよび図5に関して説明された要素に類似しているが、光学チェーン1226、1228、1230、1232、および1234に含まれる要素は、上記で図3に関して説明された要素に類似している。図12Bの実施形態では、各OCは、丸い外側レンズを使用する。
OC1202は、外側レンズ1203と、レンズ1203の後ろに位置決めされた光方向変換デバイス1205たとえば鏡と、第1の内側レンズ1207と、フィルタ1213と、第2の内側レンズ1215と、センサ1217とを含む。いくつかの実施形態では、OC1202、1206、1210、1212、1216、1220、1222は、同じ焦点距離(図12の他のOCと比較すると最大焦点距離)を有し、鏡、フィルタ、センサなどの類似の要素を使用する。したがって、OC1206、1210、1212、1216、1220、1222に対応する要素は、OC1202内の類似の要素を識別するために使用される同じ参照番号を使用して識別されているが、これらのOC内の参照番号の後に、プライム符号(’)、ダブルプライム符号(’’)、トリプルプライム符号(’’’)などが続く。たとえば、OC1206は、外側レンズ1203’と、レンズ1203’の後ろに位置決めされた光方向変換デバイス1205’たとえば鏡と、第1の内側レンズ1207’と、フィルタ1213’と、第2の内側レンズ1215’と、センサ1217’とを含む。OC1210は、外側レンズ1203’’と、光方向変換デバイス1205’’と、第1の内側レンズ1207’’と、フィルタ1213’’と、第2の内側レンズ1215’’と、センサ1217’’とを含む。OC1212は、外側レンズ1203’’’と、光方向変換デバイス1205’’’と、第1の内側レンズ1207’’’と、フィルタ1213’’’と、第2の内側レンズ1215’’’と、センサ1217’’’とを含む。OC1216は、外側レンズ1203’’’’と、光方向変換デバイス1205’’’’と、第1の内側レンズ1207’’’’と、フィルタ1213’’’’と、第2の内側レンズ1215’’’’と、センサ1217’’’’’とを含む。OC1220は、外側レンズ1203’’’’’と、光方向変換デバイス1205’’’’’と、第1の内側レンズ1207’’’’’と、フィルタ1213’’’’’と、第2の内側レンズ1215’’’’’と、センサ1217’’’’’’とを含む。OC1222は、外側レンズ1203’’’’’’と、光方向変換デバイス1205’’’’’’と、第1の内側レンズ1207’’’’’’と、フィルタ1213’’’’’’と、第2の内側レンズ1215’’’’’’と、センサ1217’’’’’’とを含む。
同様に、同じ焦点距離(中間の)を有するOC1204、1208、1214、1218、1224に対応する要素が、同じ参照番号を使用して識別される。OC1204は、外側レンズ1233と、レンズ1233の後ろに位置決めされた光方向変換デバイス1235たとえば鏡と、第1の内側レンズ1237と、フィルタ1243と、第2の内側レンズ1245と、センサ1247とを含む。光学チェーン1208は、外側レンズ1233’と、レンズ1233’の後ろに位置決めされた光方向変換デバイス1235’たとえば鏡と、第1の内側レンズ1237’と、フィルタ1243’と、第2の内側レンズ1245’と、センサ1247’とを含む。OC1214は、外側レンズ1233’’と、光方向変換デバイス1235’’と、第1の内側レンズ1237’’と、フィルタ1243’’と、第2の内側レンズ1245’’と、センサ1247’’とを含む。OC1218は、外側レンズ1233’’’と、光方向変換デバイス1235’’’と、第1の内側レンズ1237’’’と、フィルタ1243’’’と、第2の内側レンズ1245’’’と、センサ1247’’’とを含み、OC1224は、外側レンズ1233’’’’と、光方向変換デバイス1235’’’’と、第1の内側レンズ1237’’’’と、フィルタ1243’’’’と、第2の内側レンズ1245’’’’と、センサ1247’’’’とを含む。
図4Bに関して説明されたように、要素1205などの光方向変換要素を有する、光学チェーン1202(またはOC1206、1210、1212、1216、1220、1222、1204、1208、1214、1218、1224)などの光学チェーンは、説明の目的で、2つのパートに分割可能である。カメラの前面の外部から見られる光学チェーン1202の光軸は、第1のパート1201の光軸(カメラ600の前面1223から外側レンズ1203を介してOCに入る)である。光軸に沿って光学チェーン1202内へと進む光は、方向変換要素1205によって方向変換され、第1の光学チェーンの第2のパート1209を横断して、センサ1217に到達する。同様に、光学チェーン1204の光軸は、第1のパート1211と、方向変換要素1235による光方向変換の後の第2のパート1219とを含み、光学チェーン1206の光軸は第1のパート1221と第2のパート1229とを含み、光学チェーン1208の光軸は第1のパート1231と第2のパート1239とを含み、光学チェーン1210の光軸は第1のパート1241と第2のパート1249とを含み、光学チェーン1212の光軸は第1のパート1251と第2のパート1259とを含み、光学チェーン1214の光軸は第1のパート1261と第2のパート1269とを含み、光学チェーン1216の光軸は第1のパート1271と第2のパート1279とを含み、光学チェーン1218の光軸は第1のパート1278と第2のパート1288とを含み、光学チェーン1220の光軸は第1のパート1281と第2のパート1289とを含み、光学チェーン1222の光軸は第1のパート1291と第2のパート1299とを含み、光学チェーン1224の光軸は第1のパート1292と第2のパート1298とを含む。
図12Bの例では、他の光学チェーンOC1226、1228、1230、1232、および1234(最小焦点距離OC)は、各々、光が入る最も外側のレンズ1252、1253、1254、1255、および1256をそれぞれ有するが、OC1226、1228、1230、1232、および1234は、光方向変換要素を持たない。図12Bには示されていないが、OC1226、1228、1230、1232、および1234は各々、カメラ600の前面1223に垂直な光軸を有する。
外側レンズおよび内側レンズ、鏡、フィルタ、およびセンサなどのOCのさまざまな要素の機能は、先に、たとえば図4Bおよび図5の説明において、説明されている。図12Bに示されるOCの要素の機能は、図4A〜図4Bおよび図5に関して説明された機能と同じまたはこれに類似しているので、説明は繰り返されない。
光は、それぞれの外側レンズを介してOC1202、1206、1210、1212、1216、1220、1222、1204、1208、1214、1218、1224の各々に入り、光学チェーンの各々の背面にあるそれぞれのセンサに到達するように、それぞれの方向変換要素によって方向変換される。多くの場合、光がOCに入る外側レンズは、光が入る入射瞳と呼ばれる。たとえば、光学チェーン1202の外側レンズ1203を通って(たとえば、第1の光軸1201によって示されるカメラ600の前面1223から)入る光は、センサ1217に向かって進むとき第1の内側レンズ1207とフィルタ1213と第2の内側レンズ1215とを通過するように、鏡1205によって方向変換される。これより多いまたは少ない数の要素、たとえばレンズ、フィルタなどは、いくつかの実施形態では、OCの各々に含まれ得る。カメラデバイス600内の他の光学チェーンと同じ形状および/または解像度のセンサを依然として使用しながら、異なる光学チェーンは、異なるレンズを使用し得る。
OCのレンズの後ろに位置決めされた、たとえばヒンジ結合された鏡などの光方向変換要素またはプリズムなどの他の光方向変換デバイスが移動および/または回転可能であり、それが、対応するOCの外側レンズの外部から見られるOCの光軸の変化をもたらすことを理解されたい。それは、カメラの外部から見られる光学チェーンの光軸(光軸1201、1211、1231などの第1のパートの光軸として上記で説明された)は、対応するOCの光方向変換要素を制御することによって変化可能である。したがって、図12Bの例では、光軸1201、1211、1221、1231、…、1298、1299は平行であるように見えるが、いくつかの実施形態では、対応する光学チェーン内の外側レンズの後ろに置かれた鏡などの光方向変換要素を制御することによって、光軸は、1つまたは複数のOCの光軸が互いと平行でないように変化可能であることを理解されたい。鏡の移動を制御することによって光学チェーンの光軸を変化させる機能は、たとえば所与の方向の写真を撮影するために、カメラがその方向に向けられる場合と同じ効果をもたらし、したがって、カメラデバイスを実際に移動させることなく異なる視点から画像をキャプチャする機能を提供する。
異なる位置において光方向変換デバイス1205’’を有する光学チェーン1210を示す図12C〜図12Eは、光方向変換デバイス1205’’の位置を変えることによって光路の第1のパート1241がどのように変えられ得るかの好例である。OC1210は、外側レンズ1203’’と、レンズ1203’’の後ろに位置決めされた光方向変換デバイス1205’’たとえば鏡と、第1の内側レンズ1207’’と、フィルタ1213’’と、第2の内側レンズ1215’’と、センサ1217’’とを含む。
図12Cでは、鏡の角度は上方に傾斜しており、光路の第1の部分1241が左に角度づけられることになる。鏡1205’’をこの位置に上昇させることによって理解されるべきであるように、光方向変換デバイス1205’’が光学チェーンモジュール1210の底部に対して45度傾斜しているときと異なる画像エリアが観察され、センサ1217’’によってキャプチャされ、光学チェーンモジュール1210の底部は、レンズ1203’’がカメラの前面に面していると仮定すると、モジュールが取り付けられるカメラの背面と一致する。
図12Dの構成では、すなわち、平面鏡1205’’が45度の角度であり、センサに向けられる画像がシーンエリアの中心部分に対応するとき、鏡1205’’の位置たとえば角度を変更することによって、センサ1217’’によってキャプチャされるシーンエリアの部分が変わると仮定する。図12Eは、鏡1205’’の角度を減少させることによって第1の部分1241がどのように右に向けられ得るかを示すが、図12Fは、鏡1205’’の角度をさらにもっと減少させることによってシーンの部分がどのようにキャプチャされ、変更され得るかを示す。
図12Cに示されるように光方向変換デバイスの角度を上昇させることは、いくつかの実施形態でサポートされているが、他の実施形態では、45度以下の角度がサポートされる。そのような実施形態では、カメラの最大奥行きは、45度の角度を超えて光方向変換デバイスを上昇させる能力をサポートするために増加される必要はない。
図12Bに示されるモジュールの光方向変換デバイスの位置を変えることによって、光方向変換デバイスを有するモジュールによってキャプチャされる画像エリアは、モジュールそれ自体を移動させることなく変更可能であることを理解されたい。モジュール1208、1210、1212、1214、1218、1220、1202、1204などのカメラの面上で45度の角度と平行に配置された光学チェーンモジュールの場合、光方向変換デバイスの角度を変更することによって、画像キャプチャエリアが、たとえばカメラの中心の真正面から効果的に移動され、またはたとえば関心シーンエリアのコーナーの四半分から、シーンエリアの何らかの他の部分をキャプチャする。カメラモジュールが、カメラデバイス1250の前面の1つのコーナーからカメラデバイス1250の別のコーナーまで延在する45度の角度に沿ってまたはこれと平行に配置される場合、鏡位置を変更することは、キャプチャされている画像エリアを45度の対角線に沿って摺動させる効果を有する。したがって、カメラモジュールが、カメラの前面の45度のバイアスに沿って設置されるとき、画像キャプチャエリアは、カメラの前面に対して45度の角度に沿って配置されたモジュールの光方向変換デバイスの単純な移動を介して、大きい画像エリアの中心部分ではなく大きい画像エリアの四半分がキャプチャされるように、シフトされ得る。画像キャプチャエリアは、図12C〜図12Dに示されるように光方向変換デバイス1205’’の角度を変えることによって、中心からコーナーの四半分に、またはその逆に、効果的に摺動され得る。
異なる光学チェーンは、鏡の位置および焦点距離に応じて、関心シーンエリアの異なる部分をキャプチャするために使用可能であり、いくつかの実施形態では、そのために使用される。キャプチャされる画像エリアは重複してよく、多くの場合は重複するが、重複する必要はない。異なるカメラモジュールによってキャプチャされるエリアの重複は、異なるモジュールによってキャプチャされる画像の組み合わせを容易にする。
たとえば、少なくともいくつかの光学チェーンの光軸が平行でない一実施形態に関する以下の説明を考えてみる。説明の目的で、図12Bを参照し、図12Bに示される要素に対応する参照番号を使用しているが、図12Bの例とは異なるこの特定の実施形態の説明のために、2つ以上の光学チェーンの光軸(光学チェーンの最も外側のレンズの外部から見られる)は互いと平行ではなく、カメラの前面に垂直でないことがあることが理解されよう。この実施形態により実施されるカメラデバイスは、第1の光軸と第1の最も外側のレンズとを有するカメラの第1の光学チェーンたとえば第1のOC1202と、第1の光軸と平行でない第2の光軸と第1の最も外側のレンズと異なる第2の最も外側のレンズとを有するカメラの第2の光学チェーンたとえば第2のOC1208またはOC1210とを含む。第1の光学チェーンは、関心シーンエリアの第1の部分の第1の画像をキャプチャするために使用可能であり、いくつかの実施形態では、そのために使用され、第2の光学チェーンは、関心シーンエリアの第2の部分の第2の画像をキャプチャするために使用可能であり、いくつかの実施形態では、そのために使用される。いくつかのそのような実施形態では、第1の光軸および第2の光軸は、たとえばカメラ600の前(1223)面などの、カメラの前面に垂直でない。いくつかの実施形態では、第1の光学チェーンおよび第2の光学チェーンに加えて、例示的なカメラは、第3の光軸と第1の最も外側のレンズおよび第2の最も外側のレンズ(たとえば、1203および1203’’)とは別個の第3の最も外側のレンズ1253とを有する第3の光学チェーンたとえばOC1228を含む。いくつかの実施形態では、第3の光学チェーンは、第1の光学チェーンまたは第2の光学チェーンのうちの少なくとも1つの焦点距離よりも小さい焦点距離を有する。いくつかの実施形態では、第3の光学チェーンは、第3の画像をキャプチャするために使用され、この第3の画像は、関心シーンエリアを含み、たとえば、関心シーンエリア全体の画像である。いくつかの実施形態では、第3の光軸はカメラの前面1223に垂直である。いくつかの実施形態では、第3の光軸は、第1の光軸または第2の光軸のいずれとも平行でない。いくつかの実施形態では、第2の光学チェーンは第2の焦点距離を有し、第1の光学チェーンは第1の焦点距離を有し、第2の焦点距離は前記第1の焦点距離よりも小さい。いくつかの他の実施形態では、第1の焦点距離と第2の焦点距離は同じである。いくつかの実施形態では、第3の光学チェーンは、第1の焦点距離および第2の焦点距離よりも小さい第3の焦点距離を有する。
いくつかの実施形態では、第1の光学チェーン、第2の光学チェーン、および第3の光学チェーンに加えて、カメラは、前記第1の最も外側のレンズ、前記第2の最も外側のレンズ、および前記第3の最も外側のレンズとは別個の第4の最も外側のレンズたとえばレンズ1256を有する、第4の光学チェーンたとえばOC1234を含む。いくつかの実施形態では、第4の光学チェーンは、第4の画像をキャプチャするために使用され、この第4の画像は、関心シーンエリア、たとえば関心シーンエリア全体の、第2の画像を含む。いくつかの実施形態では、第4の光学チェーンは第4の光軸を有し、第3の光軸と第4の光軸は互いと平行である。いくつかの実施形態では、第3の光軸および第4の光軸は、第1の光軸または第2の光軸と平行でない。
いくつかの実施形態では、カメラは、第1の光軸および第2の光軸と平行でない第5の光軸を有する第5の光学チェーンたとえばOC1220と、第1の光軸、第2の光軸、または第5の光軸と平行でない第6の光軸を有する第6の光学チェーンたとえばOC1212とをさらに含む。いくつかの実施形態では、第5の光学チェーンは、第5の画像をキャプチャするために使用され、第6の光学チェーンは、第6の画像をキャプチャするために使用され、第5の画像は関心シーンエリアの第3の部分の画像であり、第6の画像は関心シーンエリアの第4の部分の画像である。いくつかの実施形態では、カメラは、第1の光学チェーンと同じ焦点距離と第7の画像とを有する第7の光学チェーンたとえばOC1216をさらに含み、前記第7の光学チェーンは、カメラの面(1223)に垂直な光軸を有する。
いくつかの実施形態では、カメラ600は、少なくとも第1の画像と第2の画像とを結合することによって合成画像を生成するように構成されたプロセッサ(たとえば、プロセッサ110、211)を含む。いくつかの実施形態では、プロセッサは、第1の画像、第2の画像、第3の画像、第4の画像、第5の画像、および第6の画像から合成画像を生成するように構成される。いくつかの実施形態では、プロセッサは、第1の画像、第2の画像、第3の画像、第4の画像、第5の画像、第6の画像、および第7の画像から合成画像を生成するように構成される。いくつかの実施形態では、プロセッサは、デバイスメモリたとえばメモリ108内での生成された合成画像の格納、および/またはディスプレイたとえばディスプレイ102上での合成画像の出力、および/またはインターフェース114などのインターフェースを介した別のデバイスへのキャプチャされた画像もしくは合成画像の送信を制御するようにさらに構成される。
図13Aは、構造に関して図5に示されるカメラモジュール500に類似しているが、丸くない、たとえば卵形の、外側レンズ1312と方形の鏡1310とを光方向変換デバイスとして使用する、例示的な光学チェーンたとえばカメラモジュール1300を示す。光学チェーン1300は、さまざまな例示的な実施形態において使用される。カメラモジュール1300は、すべてではないがいくつかの実施形態では屈折力を持たない平面状ガラスである外側レンズ1312と、レンズ1312の後ろに位置決めされた光方向変換デバイスたとえば鏡1310と、ヒンジ駆動部1316と、鏡ヒンジ1308と、第1の円筒状モジュール部分1306と、第2の円筒状モジュール部分1304と、センサ1302と、レンズ駆動部1313とを含む光学チェーンである。いくつかの実施形態では、断面は円形ではなく卵形であることがあるので、いくつかの実施形態では、円筒状モジュール部分は、正確に円筒状でなくてよい。しかしながら、卵形の断面を有している場合ですら、それらの部分は、形状が略円筒状に見え、したがって、円筒状部分と呼ばれる。光は、レンズ1312を介してカメラモジュール1300に入り、光学チェーンの背面にあるセンサ1302に到達するように鏡1310によって方向変換される。第1の円筒状モジュール部分1304および第2の円筒状モジュール部分1306は、1つまたは複数のレンズまたはフィルタ、ならびに光がセンサ1302に到達する前に通過し得る他の光学構成要素を収納することができる。外側レンズ1312は、丸くない絞りを有するが、センサ1302は、図5の実施形態で使用されるものと同じ形状および/またはタイプであってよい。したがって、異なる光学チェーンは異なるレンズを使用し得るが、異なる光学チェーンは、カメラデバイス内の他の光学チェーンと同じ形状および/または解像度のセンサを依然として使用し得る。
潜在的なカメラの厚さに関して丸くない絞りを有する光学チェーンを使用する利点は、以降の説明に鑑みて明らかであろう。
図13Bは、カメラハウジング1322を含むカメラデバイス1320内の複数の光学チェーン(OC)の例示的な配置を示す。カメラ内部の光学チェーンの配置に加えて、光学チェーンの各々の内部要素の構成および配置も、より詳細に示されている。6つのOCを有する1つの例示的な配置が図13Bに示されているが、光学チェーンは、カメラ1320内のさまざまな他の位置に配置可能であることを理解されたい。図13Bに示されるように、カメラ1320は、カメラの前表面(矢印1321によって示される)からカメラの背/後表面(矢印1325によって示される)までのカメラ1320の厚さを表す奥行きDを有する。図13Bは、カメラハウジング1322、厚さ(D)1323、前表面1321、および後表面1325などのカメラデバイス1320のさまざまな特徴がより良く理解できるように、カメラデバイス1320の斜視図を示すことを理解されたい。いくつかの実施形態では、カメラデバイス1320は、図1および/または図4Aのカメラデバイスと同じまたは類似の要素を含む。
図13Bに示される複数の光学チェーンは、OC1324と、OC1326と、OC1328と、OC1330と、OC1332と、OC1333とを含む。示されているさまざまな光学チェーンの各々に含まれる要素は、上記で図4Aおよび図13Aに関して説明された要素に類似している。図13Bの実施形態では、各OCは、丸くない、たとえば卵形の、外側レンズを使用する。
OC1324は、外側レンズ1334と、レンズ1334の後ろに位置決めされた光方向変換デバイス1335たとえば鏡と、第1の内側レンズ1336と、フィルタ1338と、第2の内側レンズ1340と、センサ1342とを含む。OC1326は、外側レンズ1344と、レンズ1344の後ろに位置決めされた光方向変換デバイス1345と、第1の内側レンズ1346と、フィルタ1348と、第2の内側レンズ1350と、センサ1352とを含む。OC1328は、外側レンズ1354と、レンズ1354の後ろに位置決めされた光方向変換デバイス1355と、第1の内側レンズ1356と、フィルタ1358と、第2の内側レンズ1360と、センサ1362とを含む。同様に、OC1330は、外側レンズ1364と、レンズ1364の後ろに位置決めされた光方向変換デバイス1365と、第1の内側レンズ1366と、フィルタ1368と、第2の内側レンズ1370と、センサ1372とを含む。OC1332は、外側レンズ1374と、レンズ1374の後ろに位置決めされた光方向変換デバイス1375と、第1の内側レンズ1376と、フィルタ1378と、第2の内側レンズ1380と、センサ1382とを含む。OC1333は、外側レンズ1384と、レンズ1384の後ろに位置決めされた光方向変換デバイス1385と、第1の内側レンズ1386と、フィルタ1388と、第2の内側レンズ1390と、センサ1392とを含む。
図4Bに関して説明されたように、要素1335などの光方向変換要素を有する、図13Bに示される光学チェーン1324などの光学チェーンは、説明の目的で、2つのパートに分割可能である。カメラの外部から見られる光学チェーン1324の光軸は、第1のパート1331の光軸(カメラ1320の前面から外側レンズ1334を介してOCに入る)である。光軸に沿って光学チェーン1324内へと進む光は、方向変換要素1335によって方向変換され、第1の光学チェーンの第2のパート1339を横断して、センサ1342に到達する。同様に、光学チェーン1326の光軸は、第1のパート1341と、方向変換要素1345による光方向変換の後の第2のパート1349とを含み、光学チェーン1328の光軸は第1のパート1351と第2のパート1359とを含み、光学チェーン1330の光軸は第1のパート1361と第2のパート1369とを含み、光学チェーン1332の光軸は第1のパート1371と第2のパート1379とを含み、光学チェーン1333の光軸は第1のパート1381と第2のパート1389とを含む。
いくつかの特定の実施形態では、カメラ1320は、非円形の(丸くないとも呼ばれる)絞りを有するレンズを有するOC1324〜1333などの、複数の光学チェーン/カメラモジュールを有する。そのような一実施形態では、カメラ1320は、非円形の絞りがカメラの厚さの方向に沿った第1の方向のD(カメラの厚さ)よりも小さいかまたはこれに等しい長さと、カメラの厚さの方向に垂直な第2の方向に沿ったDよりも大きい長さとを有するレンズ1336を使用する、第1の光学チェーンたとえばOC1324を含む。さまざまな実施形態では、第1のレンズは、第2の光軸部分上の光方向変換要素に最も近いレンズ、たとえばレンズ1336である。いくつかのそのような実施形態では、カメラ1320は、非円形の絞りがカメラの厚さの方向に沿った第1の方向のDよりも小さいかまたはこれに等しい長さと、第1の方向に垂直な第3の方向に沿ったDよりも大きい長さとを有するレンズ1346を使用する、第2の光学チェーンたとえばOC1326をさらに含む。いくつかのそのような実施形態では、第2の方向と第3の方向は、互いに対して90度の角度をなす。いくつかのそのような実施形態では、カメラ1320は、非円形の絞りがカメラの厚さの方向に沿った第1の方向のD(カメラの厚さ)よりも小さいかまたはこれに等しい長さと、第1の方向に垂直な第4の方向に沿ったDよりも大きい長さとを有するレンズ1386を使用する、第3の光学チェーンたとえばOC1333をさらに含み、第1の方向と第2の方向と第3の方向は異なる。いくつかのそのような実施形態では、第2の方向と第3の方向は、互いに対して90度の角度をなし、第2の方向と第4の方向は、互いに対して30度から60度の間の角度(たとえば、45度)をなす。いくつかの実施形態では、第1の光方向変換デバイスは鏡である。いくつかの実施形態では、第1の光方向変換デバイスはプリズムである。いくつかの実施形態では、第1の光方向変換デバイスは、光を90度方向変換する、45度の角度がつけられた平面鏡である。
外側レンズおよび内側レンズ、鏡、フィルタ、およびセンサなどのOCのさまざまな要素の機能は、先に、たとえば図4Aおよび図13Aの説明において、説明されている。図13Bに示されるOCの要素の機能は同じまたは類似しているので、したがって、説明は詳細に繰り返されない。
光は、それぞれの外側レンズを介してOC1324〜1333の各々に入り、光学チェーンの各々の背面にあるそれぞれのセンサに到達するように、それぞれの方向変換要素によって方向変換される。多くの場合、光がOCに入る外側レンズは、光が入る入射瞳と呼ばれる。たとえば、光学チェーン1324の外側レンズ1334を通って(たとえば、第1の光軸1331によって示されるカメラ1320の前面から)入る光は、センサ1342に向かって進むとき第1の内側レンズ1336とフィルタ1338と第2の内側レンズ1340とを通過するように、鏡1335によって方向変換される。これより多いまたは少ない数の要素、たとえばレンズ、フィルタなどは、いくつかの実施形態では、OCの各々に含まれ得る。カメラデバイス内の他の光学チェーンと同じ形状および/または解像度のセンサを依然として使用しながら、異なる光学チェーンは、異なるレンズを使用し得る。
図14は、カメラデバイス600に類似しているが、大きい焦点距離の光学チェーンに丸くない絞りを有するレンズを使用するカメラデバイス1400を示す。さまざまな実施形態では、丸くない絞りを有するレンズが、カメラハウジング1402内のさまざまな光学チェーンの一部として含まれる。丸くない、たとえば卵形の、絞りを有するレンズの使用が、レンズエリア1404内で視認可能である。丸くないレンズは、図6で使用される丸いレンズと同じ最大長を1つの次元に有するが、他の方向、たとえば最大絞り長さの方向に垂直な方向では、図6で使用される丸いレンズよりも小さい。丸くない絞りを有するレンズの異なる方位は、さまざまな方向において低周波数情報に加えて高周波数情報のキャプチャを可能にするために意図的に使用される。カメラ1400は、図13Bに示されるカメラ1320に類似しており、しかしながら、図13Bには、丸くない絞りを有する光学チェーン/カメラモジュールの特定の配置が示されているが、図14では、カメラ1400は、わかるように、そのうちのいくつかは丸い絞りを有するレンズを使用し、いくつかの他のものは丸くない絞りを有するレンズを使用する、光学チェーンを含む。図13Bに示され、上記で説明された複数のさまざまな光学チェーンは、カメラ1400において使用可能である。
図14には示されていないが、カメラデバイス1400は、図1および図4Aのカメラデバイス100およびカメラデバイス200と同じまたは類似の要素を含み得、場合によっては、これを含むことを理解されたい。したがって、カメラデバイス1400は、プロセッサ110/211、メモリ108/213、ズームコントローラ140/214、露光および読み出しコントローラ150、加速度計、ジャイロ、オートフォーカスコントローラ152などのさまざまな要素、ならびに上記でカメラデバイス100および200に関して説明されたさまざまな他の要素を含むことを理解されたい。
図15は、レンズエリア1404がはっきりと示された、カメラ1400の簡略正面図1500である。図15では、よりはっきりとわかるように、カメラのレンズエリア1404は、そのうちのいくつかは丸いが、さまざまな他のものは丸くない、外側レンズ絞りを示す。上記で説明されたように、そのような組み合わせは、さまざまな方向において低周波数情報に加えて高周波数情報をキャプチャすることを可能にする。
図16は、カメラデバイス1400の側面図1600である。カメラ1400の側面図1600では、カメラ1400の前表面1602および後表面1604も示されている。カメラの高さHは、カメラデバイス600に対応する図10の例と同じであるが、カメラデバイス1400は、D1よりも小さく、いくつかの実施形態では最大長の方向における卵形の絞りの長さよりも小さい奥行きD2を用いて、実施されることに留意されたい。図14の実施形態では、最大焦点距離を有するカメラモジュールに卵形の絞りを有するレンズを使用することによって、カメラの奥行きは、最大絞り寸法の最大寸法によって制限されず、絞りの最大長よりも小さくてよい。
カメラ1400などのカメラに含まれる大きい絞りのレンズまたは最大絞りレンズは、大きなレンズまたはそれに関連付けられたまたは光方向変換デバイスの物理的サイズによりカメラの最小厚さに影響を与え得るが、多くの場合、より大きい絞りに丸くないレンズを使用しながら、丸いレンズを使用して、より小さい絞りをサポートすることが可能である。これは、より小さい丸いレンズに対応する光方向変換デバイスが、そうでなければカメラの本体内のより大きい丸い絞りの光を90度方向変換することが必要とされる鏡ほど大きさも奥行きもないことがあるからである。いくつかの実施形態では、丸くない絞りを有する大きなレンズと、丸い絞りを有するより小さいレンズの組み合わせが使用される。この手法は、図17に示される実施形態を含むいくつかの実施形態において使用される。
図17Aは、カメラデバイス1400を実施するために使用され得る、光学チェーンたとえばカメラモジュールの配置1700を示す。図5および図13Aに示されるタイプの光学チェーン(OC)は、図17の実施形態において使用され得るが、実装形態は、そのような光学チェーンの使用に限定されない。丸い絞りを有するレンズは、中間焦点距離を有する光学チェーン1704、1708、1714、1718、1724と、小さい焦点距離を有する光学チェーン1726、1728、1730、1732、および1734に使用されることに留意されたい。丸くない絞りを有するレンズは、大きい焦点距離を有する光学チェーン1702、1706、1710、1712、1716、1720、1722に使用される。図18〜図23の説明から明らかになるように、丸くない絞りの特定の配置および角度が有益であることがある。光学チェーン1704、1708、1714、1718、および1724の各々は、丸い絞りを有するレンズを使用し、図5に関して詳細に説明された要素と同じまたはこれに類似した要素を含む。同様に、光学チェーン1702、1706、1710、1712、1716、1720、1722の各々は、丸くない絞りを有するレンズを使用し、図13Aに関して詳細に説明された要素と同じまたはこれに類似した要素を含む。
一実施形態では、OC1722などの光学チェーン(OC)は、第1の焦点距離と第1の非円形のレンズとを有する第1の光学チェーンであり、別の光学チェーンたとえばOC1706は、第2の焦点距離と第2の非円形のレンズとを有する第2の光学チェーンである。いくつかの実施形態では、第1の焦点距離と第2の焦点距離は同じである。いくつかの他の実施形態では、第1の焦点距離と第2の焦点距離は異なる。いくつかの実施形態では、第1の非円形のレンズは、カメラ1400の奥行き、たとえば図16に示される奥行きD2よりも大きい量、第1の方向に延在する。いくつかの実施形態では、第1の光学チェーンは第1のセンサを含み、第2の光学チェーンは、たとえば図13Aのセンサ1302などの第2のセンサを含む。いくつかの実施形態では、カメラ1400は、合成画像を生成する目的で第1のセンサおよび第2のセンサによってキャプチャされた画像を結合するために第1のセンサおよび第2のセンサに結合された、たとえばプロセッサ110または211などのプロセッサをさらに含む。いくつかの実施形態では、第1の光学チェーンは第1の光方向変換要素を含み、第2の光学チェーンは、たとえば図13Aの光方向変換要素1310などの第2の光方向変換要素を含む。いくつかのそのような実施形態では、第1の光方向変換要素は、カメラの奥行きよりも大きい量、少なくとも1つの方向に延在し、第2の光方向変換要素は、カメラの奥行きよりも大きい量、少なくとも1つの方向に延在する。いくつかの実施形態では、第1の光方向変換要素および第2の光方向変換要素は平面鏡である。いくつかの実施形態では、第1の光方向変換要素および第2の光方向変換要素はプリズムである。いくつかの実施形態では、第1の焦点距離および第2の焦点距離は、70mmに等しいかまたはこれよりも大きく、第3の焦点距離は70mmよりも小さい。いくつかの実施形態では、第1のセンサおよび第2のセンサは同じ数の画素を有し、第3の光学チェーンは、第1のセンサおよび第2のセンサと同じ数の画素を有する第3のセンサを含む。
いくつかの実施形態では、丸い絞りレンズを使用する光学チェーンたとえばOC1704または1728は、第3の焦点距離を有し、丸いレンズを含む、第3の光学チェーンであり、第3の焦点距離は第1の焦点距離または第2の焦点距離よりも小さい。いくつかの実施形態では、第1の光学チェーン1722に対応する第1の非円形のレンズは、第1の方向に垂直な第2の方向においてよりも第1の方向において長く、第2の光学チェーン1706に対応する第2の非円形のレンズは、第4の方向においてよりも第3の方向において長く、第4の方向は第3の方向に垂直である。いくつかの実施形態では、第1の方向と第3の方向は異なる。いくつかの実施形態では、第1の方向は第1の平面内に延在し、第3の方向は、第1の平面と同じ平面内にある。いくつかの実施形態では、平面は、カメラ1400の前面に対応する。
いくつかの実施形態では、別のカメラモジュールたとえば1710は、第4の焦点距離と第3の非円形のレンズとを有する第4の光学チェーンであり、第4の焦点距離は第3の焦点距離よりも大きい。いくつかのそのような実施形態では、第3の非円形のレンズは、第6の方向においてよりも第5の方向において長く、第6の方向は第5の方向に垂直である。いくつかのそのような実施形態では、第1の方向と第3の方向と第5の方向は、少なくとも20度異なる。
図17Bは、カメラデバイス内のさまざまな光学チェーンおよび光学チェーンの要素の配置がより詳細に示される、カメラデバイス1400の斜視図1750を示す。
図17Bは、カメラデバイス内のさまざまな光学チェーンおよびカメラデバイス内の光学チェーンの要素の配置をより詳細に示す、カメラデバイス1400の斜視図1750を示す。したがって、図17Bは、図17Aに関して詳細に説明されるようなさまざまな対応する焦点距離を有する複数の光学チェーン(OC)1702、1704、1706、1708、1710、1712、1714、1716、1718、1720、1722、1724、1726、1728、1730、1732、および1734のより詳細な図を示す。
図17Bに示されるように、カメラ1400は、カメラの前表面(矢印1723によって示される)からカメラの背/後表面(矢印1727によって示される)までのカメラ1400の厚さを表す奥行きD2を有する。図17Bには示されていないが、いくつかの実施形態では、カメラデバイス1400は、図1および/または図4Aのカメラデバイスと同じまたは類似の要素を含む。
いくつかの実施形態では、光学チェーン1702、1706、1710、1712、1716、1720、1722に含まれる要素は、上記で図13Bに関して説明された要素に類似している。光学チェーン1704、1708、1714、1718、1724およびこれらの光学チェーンに含まれる要素は、上記で図12Bに関して説明されたOC1204、1208、1214、1218、1224に関して説明されたものに類似しているが、光学チェーン1726、1728、1730、1732、および1734ならびにその中に含まれる要素は、OC1226、1228、1230、1232、および1234ならびに図3に関して説明されたOCに関して説明されたものに類似している。図17Bの図示の実施形態では、OCのうちのいくつかは非円形の外側レンズを使用するが、他のOCは丸い外側レンズを使用する。
OC1702は、非円形の外側レンズ1703と、レンズ1703の後ろに位置決めされた光方向変換デバイス1705たとえば鏡と、第1の内側レンズ1707(非円形)と、フィルタ1713と、第2の内側レンズ1715と、センサ1717とを含む。いくつかの実施形態では、OC1702、1706、1710、1717、1716、1720、1722は、同じ焦点距離(図17の他のOCと比較すると最大焦点距離)を有し、鏡、フィルタ、センサなどの類似の要素を使用する。したがって、OC1706、1710、1717、1716、1720、1722に対応する要素は、OC1702内の類似の要素を識別するために使用される同じ参照番号を使用して識別されているが、これらのOC内の参照番号の後に、プライム符号(’)、ダブルプライム符号(’’)、トリプルプライム符号(’’’)などが続く。たとえば、OC1706は、非円形の外側レンズ1703’と、レンズ1703’の後ろに位置決めされた光方向変換デバイス1705’たとえば鏡と、第1の非円形内側レンズ1707’と、フィルタ1713’と、第2の内側レンズ1715’と、センサ1717’とを含む。OC1710は、非円形の外側レンズ1703’’と、光方向変換デバイス1705’’と、第1の非円形の内側レンズ1707’’と、フィルタ1713’’と、第2の内側レンズ1715’’と、センサ1717’’とを含む。OC1712は、非円形の外側レンズ1703’’’と、光方向変換デバイス1705’’’と、第1の非円形の内側レンズ1707’’’と、フィルタ1713’’’と、第2の内側レンズ1715’’’と、センサ1717’’’とを含む。OC1716は、非円形の外側レンズ1703’’’’と、光方向変換デバイス1705’’’’と、第1の非円形の内側レンズ1707’’’’と、フィルタ1713’’’’と、第2の内側レンズ1715’’’’と、センサ1717’’’’とを含む。OC1720は、非円形の外側レンズ1703’’’’’と、光方向変換デバイス1705’’’’’と、第1の非円形の内側レンズ1707’’’’’と、フィルタ1713’’’’’と、第2の内側レンズ1715’’’’’と、センサ1717’’’’’とを含む。OC1722は、非円形の外側レンズ1703’’’’’’と、光方向変換デバイス1705’’’’’’と、第1の非円形の内側レンズ1707’’’’’’と、フィルタ1713’’’’’’と、第2の内側レンズ1715’’’’’’と、センサ1717’’’’’’とを含む。
いくつかの実施形態では、光学チェーン1704、1708、1714、1718、1724は、同じ焦点距離(中間)を有する。OC1704は、外側レンズ1733と、レンズ1733の後ろに位置決めされた光方向変換デバイス1735たとえば鏡と、第1の内側レンズ1737と、フィルタ1743と、第2の内側レンズ1745と、センサ1747とを含む。OC1704と同じ焦点距離を有するOC1708、1714、1718、1724に対応する要素は、OC1704内の類似の要素を識別するために使用される同じ参照番号を使用して識別されているが、これらのOC内の参照番号の後に、プライム符号(’)、ダブルプライム符号(’’)などが続く。図示のように、光学チェーン1708は、外側レンズ1733’と、レンズ1733’の後ろに位置決めされた光方向変換デバイス1735’たとえば鏡と、第1の内側レンズ1737’と、フィルタ1743’と、第2の内側レンズ1745’と、センサ1747’とを含む。OC1714は、外側レンズ1733’’と、光方向変換デバイス1735’’と、第1の内側レンズ1737’’と、フィルタ1743’’と、第2の内側レンズ1745’’と、センサ1747’’とを含む。OC1718は、外側レンズ1733’’’と、光方向変換デバイス1735’’’と、第1の内側レンズ1737’’’と、フィルタ1743’’’と、第2の内側レンズ1745’’’と、センサ1747’’’とを含み、OC1724は、外側レンズ1733’’’’と、光方向変換デバイス1735’’’’と、第1の内側レンズ1737’’’’と、フィルタ1743’’’’と、第2の内側レンズ1745’’’’と、センサ1747’’’’とを含む。
先に説明されたように、要素1705などの光方向変換要素を有する、OC1702(またはOC1706、1710、1712、1716、1720、1722、1704、1708、1714、1718、1724)などの光学チェーンは、説明の目的で、2つのパートに分割可能である。カメラの前面の外部から見られる光学チェーン1702の光軸は、第1のパート1701の光軸(カメラ1400の前面1723から外側レンズ1703を介してOCに入る)である。光軸に沿って光学チェーン1702内へと進む光は、方向変換要素1705によって方向変換され、第1の光学チェーンの第2のパート1709を横断して、センサ1717に到達する。同様に、光学チェーン1704の光軸は、第1のパート1711と、方向変換要素1735による光方向変換の後の第2のパート1719とを含み、光学チェーン1706の光軸は第1のパート1721と第2のパート1729とを含み、光学チェーン1708の光軸は第1のパート1731と第2のパート1739とを含み、光学チェーン1710の光軸は第1のパート1741と第2のパート1749とを含み、光学チェーン1717の光軸は第1のパート1751と第2のパート1759とを含み、光学チェーン1714の光軸は第1のパート1761と第2のパート1769とを含み、光学チェーン1716の光軸は第1のパート1771と第2のパート1779とを含み、光学チェーン1718の光軸は第1のパート1778と第2のパート1788とを含み、光学チェーン1720の光軸は第1のパート1781と第2のパート1789とを含み、光学チェーン1722の光軸は第1のパート1791と第2のパート1799とを含み、光学チェーン1724の光軸は第1のパート1792と第2のパート1798とを含む。
図17Bの例では、他の光学チェーンOC1726、1728、1730、1732、および1734(最小焦点距離OC)は、各々、光が入る最も外側のレンズ1752、1753、1754、1755、および1756をそれぞれ有するが、OC1726、1728、1730、1732、および1734は、光方向変換要素を持たない。図17Bには示されていないが、OC1726、1728、1730、1732、および1734は各々、カメラ1400の前面1723に垂直な光軸を有する。
外側レンズおよび内側レンズ、鏡、フィルタ、およびセンサなどのOCのさまざまな要素の機能は、先に、たとえば図4Bおよび図5に関して、説明されている。図17Bに示されるOCの要素の機能は、図4A〜図4Bおよび図5に関して説明された機能と同じまたはこれに類似しているので、説明は繰り返されない。
光は、それぞれの外側レンズを介してOC1702、1706、1710、1717、1716、1720、1722、1704、1708、1714、1718、1724の各々に入り、光学チェーンの各々の背面にあるそれぞれのセンサに到達するように、それぞれの方向変換要素によって方向変換される。多くの場合、光がOCに入る外側レンズは、光が入る入射瞳と呼ばれる。たとえば、光学チェーン1702の外側レンズ1703を通って(たとえば、第1の光軸1701によって示されるカメラ1400の前面1723から)入る光は、センサ1717に向かって進むとき第1の内側レンズ1707とフィルタ1713と第2の内側レンズ1715とを通過するように、鏡1705によって方向変換される。これより多いまたは少ない数の要素、たとえばレンズ、フィルタなどは、いくつかの実施形態では、OCの各々に含まれ得る。カメラデバイス1400内の他の光学チェーンと同じ形状および/または解像度のセンサを依然として使用しながら、異なる光学チェーンは、異なるレンズを使用し得る。図17Bに示される方式で配置された非円形のレンズを有する光学チェーンの使用は、いくつかの利点を提供し、光学チェーンを有する薄いカメラの実装形態がさまざまな異なる焦点距離を有することを可能にすることを理解されたい。
OCのレンズの後ろに位置決めされた、たとえばヒンジ結合された鏡などの光方向変換要素が移動および/または回転可能であり、それが、対応するOCの外側レンズの外部から見られるOCの光軸の変化をもたらすことを理解されたい。それは、カメラの外部から見られる光学チェーンの光軸(光軸1701、1711、1731などの第1のパートの光軸として上記で説明された)は、対応するOCの光方向変換要素を制御することによって変化可能である。したがって、図17Bの例では、光軸1701、1711、1721、1731、…、1798、1799は平行であるように見えるが、いくつかの実施形態では、対応する光学チェーン内の外側レンズの後ろに置かれた鏡などの光方向変換要素を制御することによって、光軸は、1つまたは複数のOCの光軸が互いと平行でないように変化可能であることを理解されたい。鏡の移動を制御することによって光学チェーンの光軸を変化させる能力は、たとえば所与の方向の写真を撮影するために、カメラがその方向に向けられる場合と同じ効果をもたらし、したがって、カメラデバイスを実際に移動させることなく異なる視点から画像をキャプチャする能力を提供する。
図18は、図12Aおよび図12Bの実施形態で使用され得、および時々使用されるレンズなどの、丸い開口を有する例示的なレンズに対応する丸い絞り1800を示す。
図19は、図18に示されるタイプの丸い絞り1800を有する良く設計された(回折限界の)レンズから予想される可能な周波数特性を示し、周波数情報は、垂直方向と水平方向の両方(実際には、あらゆる方向)において均一である。垂直次元および水平次元における均一な周波数特性は、垂直次元と水平次元の両方における同じまたは類似の周波数特性と、したがって解像度とを可能にする。センサの画素または画素要素の数は、解像度に影響を与えることができるが、センサまたは画像の画素の数は、ビューアが画像の異なる特徴を区別する能力に関係する解像度と混同されるべきではない。解像度は、線が互いに対してどのくらい近くなり得るかと、依然として目に見えて解像され得るかとを定量化する。解像度単位は、1mm当たりの線、1インチ当たりの線などの物理的なサイズに、および/または、たとえば写真の高さ当たりの線など、画像の全体的な大きさに結び付けられ得る。
丸い絞りを有するレンズのほぼ均一な周波数応答を考えれば、丸いレンズを使用してキャプチャされる画像のビューは、垂直線と水平線とを同様に良好に識別することができるはずである。
図20は、丸い絞り1800の場合、光が通過する開口の長さが、レンズ開口が存在する平面の両方の寸法でどれくらい同じであるかを示す。図示のように、垂直方向L1における開口の長さは、水平方向L2における開口の長さに等しい。理解されるべきであるように、これは、レンズが、丸くない絞り、たとえば、光が通過する、卵形の絞り、長円形の絞り、または他の丸くない形状の絞りを有する場合ではない。
図21は、例示的な丸くない、たとえば卵形の、絞り2100を示す。陰影が、キャプチャされる水平方向および垂直方向の各々における周波数情報の相対量を示すために使用され、より多くの周波数情報が、それによってより高い周波数情報がキャプチャされることになる水平方向よりも垂直方向で入手可能であり、絞りの狭い方の次元よりも長い方の次元、たとえば最大長さ方向で入手可能であることが図から明らかである。
一般に、最も良く設計されたレンズの性能ですら、回折限界のために絞りサイズによって制限される。絞りが大きいほど、良く設計されたレンズは、細部をキャプチャすることに関して実行することが一層可能であるはずである。言い換えれば、絞りが大きいほど、可能な解像度が大きくなる。キャプチャされた解像度は、図19と同様に周波数領域において表現可能である。図19における円のより大きい半径は、画像のすべての空間方向、たとえば、水平、垂直、または斜めにおける、より多くのキャプチャされる高周波数情報を示す。カメラモジュールが回折限界ではなく、上記で当てはまらないことがあるときですら、より大きい絞りエリアは、所与の時間期間内に、より多くの光をキャプチャし、その画像をキャプチャさせるべき被写体が動いているときによくあることだが露光時間が制限されるとき、画像の粒子の粗さまたはノイズを低下させるので、より大きい絞りを使用することが依然として望ましいときがあることに留意することが重要である。
絞りが丸くなく、卵形である場合、よく設計された、回折限界のレンズに対して、対応して、卵形の短い方の次元の方向よりも卵形の長い方の次元の方向に沿ってより詳細にキャプチャされる。
図22は、垂直(Y)方向および水平(X)方向における丸くない絞り2100の長さの比較を示す。垂直次元は、図22の例における2つの次元のうち長い方である。図示のように、垂直方向LYに光が通過する開口の長さは、水平方向LXにおける開口の長さよりも大きい。
図23は、異なる方向に向けられた卵形の絞り2100、2100’、2100’’、2100’’’を有する複数の丸くないレンズからの画像情報を結合することによって、丸い絞り1800を有するレンズ(大きい方の卵形の寸法と等しい半径を有する)から取得されると予想される情報を近似する画像情報がどのように達成可能であるかを示す図2300である。より多くの情報が、合成画像を生成するために図23の例で結合される複数の個々の画像の重複により、さまざまな縁部ロケーションにおいてよりも結合された画像の中心に向かって入手可能である。互いに対する異なる角度における複数の丸くないレンズの使用による高周波数情報のキャプチャおよび画像を結合することは、個々の丸くないレンズによってキャプチャされる高周波数情報の欠如を補う助けとなる。図23に示される絞りを有するレンズを用いてキャプチャされた画像を結合することによって達成可能な解像度は、丸いレンズを使用してキャプチャされる画像の解像度を近似することができるが、合成画像は、同じ画像をキャプチャするために単一の丸いレンズを使用して取得されるであろうよりも大きい、画像重複の領域における輝度情報に関するダイナミックレンジを持ち得ることを理解されたい。これは、異なるレンズが各々、中心領域において光をキャプチャするからである。図23に示される絞りを有するレンズを使用してキャプチャされた画像を結合することによって生成される合成画像は、本発明の一実施形態により、高品質の中心画像部分と、合成画像の縁に向かって、より低い品質とをもたらすことを理解されたい。この画質劣化は、単一の高品質レンズが使用された場合に予想され得るものに類似しており、画質は通常、レンズの縁に向かってよりも、レンズの中心に向かって良くなる。
したがって、図23に示される絞りを有するレンズを使用してキャプチャされた画像を結合することによって生成される合成画像は、絞りの最大長さの方向に類似の最大絞り寸法を有する単一の丸いレンズを使用して画像をキャプチャすることによって取得され得るよりも、少なくともいくつかの点において、類似またはより良い品質の合成画像をもたらすことができることを理解されたい。
図24は、丸くない絞りを有する、たとえば卵形または長円形の形状の絞りに近似する、レンズを作り出すために、丸い絞り1800を有するレンズがどのように切断またはマスキング可能であるかを示す。そのような一実施形態は、所与の最大絞りに対する最大量またはかなりの量の光のキャプチャを可能にする。
図25は、図24に示される絞り、たとえば卵形の絞りに近似した長円形の絞りを有するレンズを作り出すために、丸いレンズ、たとえば丸い絞り1800を有するレンズを切断またはマスキングすることから生じる絞り2500を示す。
図25に示されるタイプのレンズは、いくつかの実施形態では、カメラデバイスの丸くないレンズとして使用される。したがって、図14のカメラデバイスのいくつかの実施形態では、卵形のレンズとして示されているが、図25に示されるタイプの卵形でない絞りを有するレンズが使用される。
図26は、前方側面2614と上部2612と底部2616と後面すなわち背面2618とを有するハウジング2610を含むカメラ2600の図である。丸い絞り2606に対応する丸いレンズは、ハウジング2610の前面2614内に取り付けられる。図26は、丸い絞り2606を有する外側レンズと組み合わせて光を90度方向変換するために、光方向変換デバイス2604たとえば鏡を使用することが通常、カメラの奥行きたとえば厚さがレンズおよびレンズの一部である対応する絞り2606の直径に等しいまたはこれよりも大きいことをどのように必要とするかを示す。本発明のいくつかの実施形態では、レンズは単に、プラスチックまたはガラスの丸い平坦な断片である。丸い絞り2606は、図26では、カメラデバイス2600の前面上に破線の使用によって示されている。丸い絞り2606を通過する光は、カメラ2600の上部に取り付けられたセンサ2602に向かって鏡2604によって90度で反射する。図26の例においてカメラ内に取り付けられた光方向変換デバイス前面から後面までの距離RDと光方向変換デバイスの高さRHは等しく、両方とも、丸い絞り2606の直径LXよりも大きいかまたはこれに等しいことに留意されたい。その結果、カメラ2600の奥行きは、丸い絞り2606の直径に等しいまたはこれよりも大きい。
図27は、前方側面2714と上部2712と底部2716と後面すなわち背面2718とを有するハウジング2710を含むカメラ2700の図である。丸くない、たとえば卵形の、絞り2706に対応する丸くないレンズは、ハウジング2710の前面2714内に取り付けられる。図27は、丸くない、たとえば卵形の、絞り2706を有する外側レンズと組み合わせて光を90度方向変換するために光方向変換デバイス2704たとえば鏡を使用することが、カメラの奥行きがあるよりも1つの次元において長いレンズの使用をどのように可能にすることができるかを示すことができる。センサ2702が、図26の実施形態のセンサ2602と同じ位置に(カメラハウジングの上部部分と平行に)カメラ2700の上部2712に取り付けられるが、鏡2704は現在、図26の実施形態で使用される鏡2604よりも奥行きが小さい平坦な方形表面を有する鏡を使用して実施可能であることに留意されたい。簡単にするために方形の鏡が使用されているが、いくつかの実施形態では、卵形の鏡も使用可能であり、絞り停止具としても働くことができることも指摘する価値がある。いくつかの実施形態では、丸くない、たとえば卵形の、絞りの使用が、より薄いカメラ、たとえば卵形の絞りの最大寸法に等しい直径を有する丸い絞りを有するカメラよりも小さな厚さを有するカメラを可能にすることを理解されたい。
図28は、前方側面2814と上部2812と底部2816と後面すなわち背面2818とを有するハウジング2810を含むカメラ2800の図である。丸くない、たとえば卵形の、絞り2806に対応する丸くないレンズは、ハウジング2810の前面2814内に取り付けられる。図28は、カメラ2800において、丸くない絞り2806を含む光学チェーンの光路の長さが、カメラ2800の奥行きよりもどのように長くなり得るかを示す。光方向変換デバイス2804は、カメラデバイス2800の一端、たとえば底端2816に位置決め可能である。カメラ2800の対向端の近くの光方向変換デバイス2804およびセンサ2802の位置決めは、追加の卵形の絞りのレンズおよび光方向変換デバイスのための十分な空間を可能にすることを理解されたい。
図29は、絞り2906、第1の光方向変換デバイス2904、第2の光方向変換デバイス2901、およびセンサ2902に対応してカメラの前面に取り付けられたレンズを含むカメラモジュールを光が通過するとき光がどの方角に方向変換されるかに応じてセンサ2902がカメラの背面2918または前面2914のいずれかに位置決めされることを可能にしながら、複数の光方向変換デバイス2904、2901が、比較的長い光進行経路、したがって焦点距離を可能にするために、光学チェーンたとえばカメラモジュール内で使用されるカメラ2900の一例を示す。図29では、カメラモジュールの外側レンズは、第1の光方向変換デバイス2904であるようにカメラ2900の底部2916の近くに位置決めされるが、第2の光方向変換デバイス2901は、カメラ2900の上部2912の近くに位置決めされることに留意されたい。センサ2902は、カメラ2900の内部背面2918に取り付けられて示されているが、他の実施形態では、たとえば、第2の光方向変換デバイス2901が光をカメラの前面に方向づける場合、センサ2902は、カメラハウジング2910の内部前面に取り付けられる。
図30は、非円形の外側レンズと絞りとを有する4つの光学チェーンを含むカメラデバイス3000の図である。図27〜29と同様に簡単にする目的で、図30の実施形態では、単一の参照番号が、非円形のレンズとその対応する非円形の絞りの両方を表すために使用される。光は、カメラの前面を介してレンズの外側の非円形の絞りに入り、図において「X」によって示されるように、外側レンズ(たとえば、レンズ3001、3011、3021、および3031)の下の1つまたは複数の光方向変換デバイス位置を介して、対応するセンサに方向変換される。
カメラデバイス3000は、卵形の絞りを有する非円形のレンズ3001と光方向変換要素3003と光路3005とセンサ3007とを含む第1の光学チェーンを含む。光は第1の光学チェーンに入り、第1の光路3005の第1の部分を横断してから鏡3003に当たり、センサ3007に向かって90度または約90度方向変換される。
カメラデバイス3000は、卵形の絞りを有する第2の非円形のレンズ3011と第2の光方向変換要素3013と第2の光路3015と第2のセンサ3017とを含む第2の光学チェーンをさらに含む。光は第2の光学チェーンに入り、第2の光路3015の第1の部分を横断してから鏡3013に当たり、第2のセンサ3017に向かって90度または約90度方向変換される。
カメラデバイス3000は、卵形の絞りを有する第3の非円形のレンズ3021と第3の光方向変換要素3023と第3の光路3025と第3のセンサ3027とを含む第3の光学チェーンをさらに含む。光は第3の光学チェーンに入り、第3の光路3025の第1の部分を横断してから鏡3023に当たり、第3のセンサ3027に向かって90度または約90度方向変換される。
カメラデバイス3000は、卵形の絞りを有する第4の非円形のレンズ3031と第4の光方向変換要素3033と第4の光路3035と第4のセンサ3037とを含む第4の光学チェーンをさらに含む。光は第4の光学チェーンに入り、第4の光路3035の第1の部分を横断してから第4の鏡3033に当たり、第4のセンサ3027に向かって90度または約90度方向変換される。
4つのレンズおよび対応する絞り3001、3011、3021、3031がカメラ3000の前面に設置されるが、これらは、使用中は通常水平方向と一致するカメラハウジングの底部に対して各絞りの最大の長さが異なる角度であるように意図的に位置決めされることに留意されたい。
図30は、合成画像を生成するために画像を結合するとき高周波数情報、したがって高解像度が複数の方向の各々において入手可能であるように、非円形の絞りを有する複数のレンズ3001、3011、3021、3031が、複数の方向における高周波数情報を収集するために単一の例示的なカメラデバイス3000内でどのように使用可能であるかを示す。図30に示されるカメラモジュールは、光路が交差する個々の光路にカメラデバイス内の空間の大部分を利用するように示されているが、光学チェーンは、交差しない光路を有する個々の内蔵(self contained)モジュールとして実施可能であり、いくつかの実施形態では、実施されることを理解されたい。
そのような密閉された内蔵光モジュールは、埃および/または砂が懸念される屋外および/または海岸での使用が意図されたカメラ実施形態など、埃および/または混入に関する他の懸念事項が問題になり得るいくつかの実施形態では、特に望ましいことがある。
図31は、本発明の1つまたは複数の実施形態により実施されるカメラのカメラモジュールによってキャプチャされたその画像のすべてまたは一部分を有し得るシーンエリア3104を含む例示的なシーン3102を示す。例示的なシーン3102は、山3112、鳥3113、人間3106、および家屋3108からなるビューを含む。シーン3102は、非常に広いエリアを対象とするが、関心シーンエリア3104は、人間3106と、ハウジング3108とを含む。「シーン」または「シーンエリア」に対する言及がなされているが、そのような言及は、3次元である物理的シーンと解釈されるべきではなく、理想的なカメラを使用してシーンの画像をキャプチャすることによって取得される物理的シーンの2次元投影または表現と解釈されるべきであることが指摘されるべきである。シーンのエリアに対するいかなる言及も、そのような2次元投影におけるエリアと解釈されるべきである。そのような投影では、カメラに十分近い小さな物体ですら、カメラに対するその近接性を考えると、大きいエリアを有するように見え得るが、遠い物体は、よりカメラに近い等しいサイズの物体よりも小さいように見える。
図32は、そのうちのいくつかが異なる焦点距離を有する、各カメラデバイスが(図12Aおよび図17Aに示されるように)複数の光学チェーンを含む、図6のカメラデバイス600または図14のカメラデバイス1400などの、カメラの異なる光学チェーンたとえばカメラモジュールは、関心シーンエリア3202(図31に示される関心シーンエリア3104に対応し得る)の異なるサイズの部分をどのようにキャプチャすることができるかを示す図3200である。
説明の目的で、異なるシーンエリアに対応する画像のキャプチャおよび結合は、カメラ600内の光学チェーンの配置を示す図12Aを参照することによって、カメラデバイス600を使用して説明される。
カメラデバイス600が、図12Aに示されるように配置された17のモジュールを含むという説明の目的について考えてみよう。図12Aの例で先に説明されたように、3つの異なる焦点距離すなわちf1、f2、およびf3が使用されており、ここで、f1<f2<f3、f1はf2の2分の1、f2はf3の2分の1である。
説明の目的で、第1〜第7のカメラモジュール1202、1206、1210、1212、1216 1220、1222はそれぞれ、最大のレンズ(したがって、さまざまな実施形態では、最大の絞り)とサポートされる最大焦点距離(f3)とを有するモジュールである。以下の説明を簡単にするために、さまざまなカメラモジュール間の距離は、カメラとシーン内のすべての物体との間の距離よりもはるかに小さいことがさらに仮定される。しかしながら、このことは、説明される発明の制限ではなく、以降の説明をより簡単なものにすることが意味されるにすぎない。
第8〜第12のカメラモジュールである5つの中間のサイズのカメラモジュールは、それぞれ参照番号1204、1208、1214、1218、1224に相当し、中間の直径のレンズと、サポートされる中間の焦点距離(f2)とを有する。
第13〜第17のカメラモジュールである5つのカメラモジュールは、それぞれ参照番号1226、1228、1230、1230、1234に相当し、最小の直径の外側レンズと、最小の焦点距離(f1)とを有する。
最大の焦点距離f3を有するカメラモジュールが最大の倍率を提供することを考えると、これらのカメラモジュールが関心シーンエリアの最小部分をキャプチャすることを理解されたい。異なる焦点距離のカメラモジュールは同じ総画素カウントを有するセンサを使用すると仮定すると、より大きい焦点距離(f3)を有するモジュールは、中間の焦点距離(f2)および小さい焦点距離(f1)のカメラモジュールの場合よりも、より多くの画素が小さいシーンエリアの画像をキャプチャするために使用されるので、画素とシーンエリアとのより大きな比を有する画像を提供する。
異なる焦点距離(f1、f2、f3)を有するモジュール間の倍率の差を考えると、小さい焦点距離(f1)のカメラモジュールによってキャプチャされるシーンエリアは、最大の(f3)焦点距離を有するカメラモジュールによってキャプチャされる関心シーンエリア部分の約16倍のサイズである関心シーンエリアの部分に対応することを理解されたい。中間の焦点距離(f2)を有するカメラモジュールによってキャプチャされる関心シーンエリアの部分は、最大の焦点距離(f3)を有するカメラモジュールによってキャプチャされる関心シーンエリアの部分の4倍のサイズであり、最小の焦点距離(f1)を有するカメラモジュールによってキャプチャされる関心シーンエリアの部分の4分の1のサイズである。
f1焦点距離に対応するカメラモジュールによってキャプチャされるシーンエリアとf2焦点距離に対応するカメラモジュールによってキャプチャされるシーンエリアとの間の関係は、7つの別個のシーンエリアを示す図32の例の文脈で理解可能である。
図32の例では、関心シーンエリアは参照3202によって識別される。対角線3250および3260は、異なるエリア間の関係および異なるエリアが互いに対してどのように対応するかをより良く理解できるように示されている。第1のシーンエリア3204と第4のシーンエリア3210は、類似のサイズであるかまたは同じサイズであり、図31に示される例示的な関心シーンエリア3102に対応する全関心シーンエリア3202に対応する。説明の目的で、第1のシーンエリアおよび第4のシーンエリアが、焦点距離f1を有する光学チェーンによって、すなわち、より小さい焦点距離の光学チェーンによってキャプチャされると考える。説明目的で、(f1)カメラモジュール1228が第1のシーンエリア3204をキャプチャするために使用され、(f1)カメラモジュール1232は第4のシーンエリア3210をキャプチャするために使用されると仮定する。1228および1232によってキャプチャされる実際の画像は、関心シーンエリアがキャプチャされることを保証するためにやや大きいシーンエリアであることがあることに留意されたい。
f2カメラモジュール1204は第2のシーンエリアをキャプチャするために使用され、(f2)カメラモジュール1208は第3のシーンエリアをキャプチャするために使用され、(f2)カメラモジュール1218は第5のシーンエリアをキャプチャするために使用され、(f2)カメラモジュール1214は第6のシーンエリア3214をキャプチャするために使用さ、(f2)カメラモジュール1224は第7のシーンエリア3216をキャプチャするために使用されることも仮定する。また、他のシーンエリアのキャプチャと同様に、モジュール1204、1208、1218、1214、および1224によってキャプチャされる実際の画像は、それぞれの第2のシーンエリア3206、第3のシーンエリア3208、第5のシーンエリア3212、第6のシーンエリア3214、および第7のシーンエリア3216が、キャプチャされた画像内に完全に含まれることを保証するために、やや大きいシーンエリアであることがある。
図1200に示されるカメラモジュールの外側レンズの相対位置は既知であり、固定されていることに留意されたい。しかしながら、いくつかの実施形態では、モジュール1204、1208、1218、1214、および1224は、鏡510の角度を変更するためにヒンジ(鏡)駆動部516によって駆動可能たとえば移動または回転可能である図5の鏡510を含むモジュール500と、要素および機能に関して同じまたは類似している。鏡駆動部516は、ヒンジ軸のまわりで鏡を回転可能であり、したがって、その角度を変更できるが、ヒンジ508は、他の方向における動きを防止し、したがって(カメラの外部の)光軸は、ヒンジの軸に垂直な平面内で回転する。鏡510が45度の角度であるとき、その光軸に沿ってレンズ512に入る光は、モジュール500のパートBの光軸の中へと90度屈折される。本明細書では、ヒンジ結合され、軸に沿って回転可能な鏡510について説明しているが、いくつかの他の実施形態では、鏡の場所は、この動きが、任意の固定軸に沿った回転であるように制限されないように異なる平面に移動される。この場合、カメラモジュールの光軸は、任意の所望の方向に(関心シーン内の任意の点の方を)指すようにさせられ得る。
いくつかのモジュールは、移動可能でありヒンジ結合される鏡を使用するが、他の実施形態では、カメラモジュールのうちの1つまたは複数は、移動可能ヒンジ508および鏡駆動部516が省略されることを可能にする固定位置鏡で実施される。たとえば、一実施形態では、全関心シーンエリアをキャプチャするために使用されるカメラモジュールは固定された鏡を有するが、関心シーンエリアの小さい部分をキャプチャするために使用されるカメラモジュールは各々、移動可能にヒンジ結合された鏡を含む。いくつかは固定された鏡を有し、他のものは移動可能な鏡を有するカメラモジュールの結合が使用可能であり、少なくとも1つの実施形態では、例示的なカメラデバイスに含まれる複数のカメラモジュールの各々は、移動可能な鏡を有する。
鏡/ヒンジ駆動部516は、カメラ動作の特定のモードに応じて、プロセッサ110によって制御される。したがって、ユーザが第1の動作のモードを選択すると、1つまたは複数のカメラモジュールは、鏡を第1の角度にし得るが、別の動作のモード中、たとえば、図34に示されるように画像がキャプチャされ結合されることになるモジュールは、1つまたは複数のカメラモジュールは、プロセッサ110の制御下で鏡を異なる位置に駆動させる。カメラデバイス動作の特定のモードは、モード制御モジュール111の制御下で動作するプロセッサ110によってユーザ入力に基づいて決定されてもよいし、モード制御モジュールがハードウェア内で実施されるとき、モード制御モジュール111によって直接的に決定されてもよい。
1204、1208、1218、1214、および1224の各々における鏡が45度である場合、各モジュールはカメラの前面から直接見え、それらの光軸はすべて平行である。この場合、モジュールの各々は、本質的に同じシーンエリアすなわち図32の第7のシーンエリアを撮像する。モジュール1204を用いて第2のシーンエリアの画像をキャプチャするために、モジュール1204のヒンジ結合された鏡510は、カメラモジュール1204の光軸が第2のシーンエリア3206の中心の方を向くように調整されることが必要である。モジュール1204は、鏡がヒンジのまわりで回転するにつれて、光軸が向く関心シーンエリア3202内のロケーションが3202の対角線3250に沿って移動するような方式で、カメラ1200内で位置決めされることに留意されたい。同様に、カメラモジュール1214のための鏡は、第6のシーンエリアをキャプチャするように調整されることが必要である。図12では、カメラモジュール1204、1214は対角線3250に近接して、たとえば、これに沿ってまたは隣接して配置されるが、カメラモジュール1208、1218は、対角線3260に近接して、たとえば、これに沿ってまたは隣接して設置されることに留意されたい。1214において鏡を回転させること、たとえば、角度したがって鏡の傾斜を変更させることは、モジュールの光軸を対角線3250に沿って移動させる。モジュール1208および1218の鏡も同様に、第3のシーンエリア(3208)および第5のシーンエリア(3212)の画像をそれぞれキャプチャするように角度付けられる、たとえば回転される。モジュール1208、1218の場合、光軸は、関心シーンエリアの対角線3260に沿って移動する。第7の画像エリア3216をキャプチャするために使用されるモジュール1224は関心シーンエリア3202の中心を向き、そのため、その鏡は45度に維持される。
上記の説明から、少なくともいくつかのカメラモジュールを対角線3250および3260に沿って配置させることが特に有益であることを理解されたい。これらのモジュールは、これらの2つの対角線のうちの一方と平行なそれらの光軸のパートBを有する。したがって、対角線に沿った最大の絞りを有するモジュール1210、1220、2202、1212の配置と、同じ対角線に沿っているが、空間の理由のための他のモジュールからずらされた中間の絞りのモジュール1204、1214、1208、1208の配置は、画像キャプチャと、いくつかの実施形態において動作のモードを結合することとを容易にするので、意図的な設計の選択肢である。
重複するシーンエリアたとえば3210および3204に基づいて、たとえばカメラに含まれるプロセッサによって、デプスマップが生成される。いくつかの実施形態では、シーン内の物体の奥行きは、異なるモジュールによってキャプチャされた画像内の物体の相対位置を調べることによって決定可能である。少なくともいくつかの実施形態では、デプスマップは、たとえば、合成画像を形成するために異なる光学チェーンによってキャプチャされた画像を結合する際に光学チェーンの異なる光学チェーンおよび/または光軸の外側レンズの相対位置についての情報と組み合わせて使用される。合成画像の生成における奥行き情報の使用は、視差、視点、および/または画像内で発生し得るもしくは存在する他の画像歪みの是正を可能にする。
図32の例では、本発明を説明する目的で、7つの別個のシーンエリアが示されている。これらの7つのシーンエリアの各々は、結合される前に図1200に示されるカメラデバイス600の異なる光学チェーンによってキャプチャされ得、いくつかの実施形態では、キャプチャされる。カメラモジュールは、以下で説明されるように、画像を同時に、たとえば並行して、キャプチャすることができる。しかしながら、ローリングシャッターが使用される、以下で説明されるいくつかの実施形態では、カメラモジュールは、関心シーンエリアの所与の部分をキャプチャするすべての異なるカメラモジュールが所与の部分を同時にキャプチャするように同期方式で関心シーンエリアの一部分をキャプチャするように制御される。
合成画像を生成するために図32に示される7つの異なるシーンエリア部分に対応する7つの画像を結合することによって、単一の画像センサの4倍の画素カウントを有する合成画像を生成することが可能であることを理解されたい。たとえば、画像部分の各々が、800万画素センサを使用してカメラモジュールによってキャプチャされる場合、第2のシーンエリア、第3のシーンエリア、第5のシーンエリア、および第6のシーンエリアは各々、異なる800万画素センサによってキャプチャされ、したがって800万画素を合成画像に貢献させるので、図32に示される関心シーンエリアに対応する合成画像は、3200万画素の全体画素カウントを有するであろう。キャプチャされた画像が、対応するシーンエリアよりもやや大きい場合、実際の解像度が、やや低い可能性がある。
第1のシーンエリアと第4のシーンエリアとをキャプチャするために使用されるセンサは、第2のシーンエリアと第3のシーンエリアと第5のシーンエリアと第6のシーンエリアとをキャプチャするために使用されるセンサの結合によってキャプチャされる画像エリアと同じ画像エリアに対応するので、合成画像の全体画素カウントの増加をもたらす可能性は低いが、これらのセンサは、f1レンズを使用することなく可能であろうよりも増加された光キャプチャを提供し、また、デプスマップの生成を可能にし、合成画像を生成するプロセスの一部として第2のシーンエリア、第3のシーンエリア、第5のシーンエリア、および第6のシーンエリアに対応する画像を位置合わせし縫い合わせる際に使用可能である全体的なシーンエリアの画像を提供する重要な情報も提供する。
(f3)カメラモジュールたとえば1216は、第7のシーンエリアをキャプチャするために使用される。第7のシーンエリアの中心は、関心画像エリアの中心と一致する。事実上大部分のレンズは、視野の中心において最小の収差と最良の画質とを有するので、これは、関心シーンエリアの中心が、第7のシーンエリアをキャプチャするカメラモジュールによって高品質で画像化されることを保証する。第7のシーンエリアを画像化することはまた、関心シーンエリアの中心でキャプチャされる光エネルギーの総量を増加させる。このことは、キャプチャされた画像から生成される合成画像が、関心シーンエリアの中心で、その最良の品質(高解像度および最小ノイズ)を有することを可能にする。
単一レンズカメラによってキャプチャされる画像は、光学収差により、縁よりも中心において良いことが多く、口径食は中心においてよりもフィールドの縁の近くで大きいことを理解されたい。何らかの実施形態により生成される合成画像は、画像の中心において類似の高品質を示し、合成画像の縁に向かって、より低い品質の可能性がある。この影響は、従来の単一レンズカメラの影響に類似していることを考えると、合成画像は、単一カメラモジュールによってキャプチャされる画像に類似しているが、この画像よりも潜在的により高い品質であることを理解されたい。
図33は、本発明のより良い理解を与えるために、図32の例でキャプチャされる異なる画像部分が、図31に示される例示的な関心シーンエリアにどのように関係し得るかを示す。図32で説明されるように異なるモジュールによってキャプチャされる関心シーンエリアの画像部分の各々は、図33では、同じ参照番号の後にプライム符号(’)が続くことを用いて識別される。たとえば、3202’は、関心シーンを含むキャプチャされる全関心シーンエリアを示し、3206’は第2のシーンエリアであり、関心シーンエリアの一部分に関係し、3208’は第3のシーンエリアであり、関心シーンエリアの別の部分に関係し、3210’は第4のシーンエリアであり、全関心シーンエリアを含み、3212’は第5のシーンエリアであり、関心シーンエリアの別の部分に関係し、3214’は第6のシーンエリアであり、関心シーンエリアの別の部分に関係し、3216’は第7のシーンエリアであり、関心シーンエリアの中心部分に関係する。キャプチャされる画像部分の各々が、図31に示される例示的な関心シーンエリアにどのように関係するかは、図33からより良く理解できる。
図34は、光学チェーンたとえば3つの異なる焦点距離たとえば(f1、f2、およびf3)に対応するカメラモジュールを有するカメラによってキャプチャされる異なる画像部分を示す図3400である。上記でさまざまなセクションで説明されるように、いくつかの実施形態では、カメラ内の光学チェーンの各々は、画像部分が、対応する光学チェーンによってキャプチャされるときに光をキャプチャする対応する画像センサを含む。一実施形態では、第1の光学チェーンは、関心シーン3404の第1の画像(中間のサイズの長方形3404として示されている)をキャプチャする第1のセンサを含む。第2のセンサを含む第2の光学チェーンは、関心シーンの画像部分3406(小さいサイズの長方形3406として示される)をキャプチャし、第3の光学チェーンは、関心シーンの別の画像部分3408をキャプチャする第3のセンサを含み、第5の光学チェーンは、関心シーンの別の画像部分3410をキャプチャする第5のセンサを含み、第6のセンサを含む第6の光学チェーンは、関心シーンの別の画像部分3412をキャプチャし、第7のセンサを含む第7の光学チェーンは、関心シーンの別の画像部分3414をキャプチャする。そのうえ、第4のセンサを含む第4の光学チェーンは、関心シーン全体を含む画像3402をキャプチャする。一実施形態では、第2の光学チェーン、第3の光学チェーン、第5の光学チェーン、第6の光学チェーン、および第7の光学チェーンの焦点距離は同じ(f3)であり、関心シーンエリア3404をキャプチャする第1の光学チェーンの焦点距離(f2)およびシーンエリア3402をキャプチャする第4の光学チェーンの焦点距離(f1)よりも大きい。そのような一実施形態では、さまざまな光学チェーンの焦点距離は、f1<f2<f3のようなものである。
一実施形態が上記で説明されているが、さまざまな異なる変形形態が可能であることを理解されたい。そのような異なる一実施形態では、図34に示される異なる画像部分は、2つの異なる焦点距離たとえば(f1、f2)に対応する光学チェーンを有するカメラによってキャプチャされ、そこで、画像部分3406、3408、3410、3412、3414は、画像部分3402と3404とをキャプチャする光学チェーンの焦点距離(たとえば、f1)よりも大きい焦点距離(たとえば、f2)を有する光学チェーンによってキャプチャされる。そのような一実施形態では、f2はf1の2倍である。図34およびその中に示される画像部分は、異なるカメラモジュールに対応するローリングシャッターが、カメラモジュールセンサの各々が画像部分をキャプチャするように独立して(非同期的に)動作される場合に導入され得る動きに関連する(カメラまたは被写体に関連する)歪みを減少させるまたは最小限にするやり方で異なるカメラモジュールによってキャプチャされる画像の結合を容易にするように協調された方式でどのように制御可能であるかを説明する際に使用される。協調された方式でのカメラモジュールのセンサからの読み出しは、異なる光学チェーンによってキャプチャする協調されていない非同期画像による歪みを最小限にする助けとなり、キャプチャされる画像は容易に結合可能である。
上記で説明される対応する光学チェーンに含まれるさまざまなセンサによって実行される上記で説明された画像キャプチャ動作は、図17に示されるように配置された光学チェーンを含むカメラ1400などのカメラによって実行され得、いくつかの実施形態では、実行される。別の実施形態では、上記で説明される対応する光学チェーンに含まれるセンサによって実行される画像キャプチャ動作は、図12に示されるように配置された光学チェーンを含むカメラ600によって実行される。
図35は、ローリングシャッターを使用する4つの光学チェーンたとえばカメラモジュールのセンサが、キャプチャされた画像と、同じ関心シーンエリアのより大きい部分をキャプチャする、より小さい焦点距離を有する別の光学チェーンによってキャプチャされた1つまたは複数の画像との結合を容易にする方式で、関心シーンエリアをキャプチャするようにどのように組み合わせて使用可能であるかを示す。図706、708、710、および712は、異なる光学チェーンに対応する例示的な画像センサが、画像キャプチャ動作の一部としてある縁から別の縁までの(たとえば、上部から底部までの)読み出しを実行するようにどのように制御されるかを示す。たとえば、図706は、706に示される画像センサが対応する第2の光学チェーンによって画像部分3406(図34に示される)をキャプチャすることの一部としてたとえば上部から底部まで読み出し可能な画素要素のN個の行を有する図34に関して説明される第2の画像センサを示す。図708は、708に示される画像センサが対応する第3の光学チェーンによって画像部分3408をキャプチャすることの一部として上部から底部まで読み出し可能な画素要素のN個の行を有する、上記で図34に関して説明された第3の画像センサを示す。同様に、710および712は各々、図34に示される画像部分3410と3412とをキャプチャする画素要素のN個の行を有する第5のセンサと第6のセンサとを示す。図706、708に示されるセンサからの読み出しは、同時に同期して開始し、図710、712に示されるセンサからの読み出しは、図710、712に示されるセンサからの読み出しが終わると、一緒に開始する。
図36は、図34に示される画像部分3406と3408と3410と3412とをキャプチャするために使用される光学チェーン(図34に関して説明された第2の光学チェーン、第3の光学チェーン、第5の光学チェーン、および第6の光学チェーン)の焦点距離の半分または約半分の焦点距離を有する、光学チェーンたとえば図34に関して説明された第1の光学チェーンに対応するセンサは、より小さい焦点距離を有する光学チェーンが、より大きい焦点距離を有する複数の光学チェーンとの同期方式で関心シーンのすべてまたは一部分をキャプチャするようにどのように制御可能であるかを示す。図3600は、図35に示されるより大きい焦点距離を有する光学チェーンに対応する他のセンサに対応する画素行の読み出しと同期される方式で読み出し可能な画素要素のN個の行を有する第1のセンサを示す。図3600は、比較的小さい焦点距離に対応する第1のセンサが画素要素のN個の行を有することを示すが、図3600内の長方形は、第1のセンサの物理的サイズを示さないまたは表さないことを理解されたい。
図35、図36、図37、図38、および図39は、異なるセンサによってキャプチャされた画像が容易に結合可能であるように協調された方式における異なるカメラモジュールのセンサの読み取りのローリングシャッター制御に関するさまざまな態様を示す。ローリングシャッターが使用される実施形態で理解されるべきであるように、画素値の行が順次読み出される。図35、図36、図37、図38、および図39では、各センサは画素要素の同じ数の行、たとえばN個の行を含むと仮定される。したがって、これらの図について説明する目的で、Nは、センサ上の画素値の行の数であり、ローリングシャッター制御の説明を容易にするために、異なるカメラモジュールのセンサは画素要素の同じ数の行を有すると仮定される。センサは画素要素のN個の行を有するが、いくつかの実施形態では、行の合同読み取りが許可され、その場合、センサは、画素要素のN/M個の行を有するかのように動作し、ここで、Mは合同読み取り係数、たとえば、合同で読み出される、たとえば加算され読み出される行の数であり、それによって、画素要素の単一の行からの読み出しとして同じ数の画素値を生じさせる。合同読み取り動作は、センサの完全な読み出しが、個々の行が個別に読み取られる場合にセンサを読み出すためにかかるであろう時間のM分の1で完了可能であるという利点を有する。
電子ローリングシャッターの実装形態の場合、画像センサの行が順に読み出されることを理解されたい。各行を読むためにかけられる時間はきわめて短いが、行の数が大きくなることがあり、画像全体を読むためにかけられる最小時間が50ミリ秒以上にもなることがある。行読み取り時間が短いので、所与の行中のすべての画素が(ほとんど)同時に読まれると仮定するものとする。画素の所与の行に関する光の積分(integration)は、その行がリセットされる(カーテンを開ける)と始まり、その行が読み出される(カーテンを閉じる)と終わる。露光持続時間は、行のリセット時刻と行の読み取り時刻との間の持続時間である。所与の行の露光瞬間または(キャプチャ時間)は、その行が読み出される時刻と定義可能である。より正確には、露光瞬間は、行のリセット時刻と行の読み取り時刻の平均と考えられ得る。明らかに、画像センサの異なる行に対応するシーンエリアは、異なる時刻にキャプチャされる。所与の関心シーンエリアの一部分が、1つの画像を作製するために複数のキャプチャされた画像を結合する意図をもって、電子ローリングシャッターを各々実施する、複数のカメラモジュールによってキャプチャされるとき、さまざまなモジュールのローリングシャッターが同期されない場合、動きに関連したアーチファクトが観測され得る。これらのアーチファクトを最小限にするために、カメラモジュールのローリングシャッターは、シーンエリアの任意の所与の点の画像が、(ほぼ)同じ瞬間に異なるセンサによってキャプチャされるように同期される。
画素値の行を読み出すために時間期間TRがかかると仮定すると、N個の行を有するセンサの完全な読み取りを完了するには、TRのN倍の時間期間がかかる。シーンエリアの異なる部分に対応する複数のセンサが、できる限り迅速に画像をキャプチャするように動作される場合、画像を結合することが、結合される異なる時間にキャプチャされたシーンの一部分によるアーチファクトをもたらすことが可能である。
そのような時間(動きに関連した)アーチファクトを回避するために、異なるセンサにシーンエリアの同じ部分を同時にキャプチャさせることが望ましいことを理解されたい。より小さい焦点距離を有する(したがって、シーンのより大きいパートをキャプチャする)カメラモジュールによってキャプチャされた1つまたは複数の画像と大きい焦点距離を有する複数のカメラモジュールからの画像とを結合するとき、たとえば、ローリングシャッターが、より大きい焦点距離を有し、したがってシーンのより小さい部分に対応する画像をキャプチャするカメラモジュールのセンサの行の数の何らかの結合に等しいいくつかの行を有するより大きいセンサにわたって制御されていたかのように、より大きい焦点距離のモジュールのうちのいくつかがシーンの一部分を順次キャプチャすることが望ましいことがあることも理解されたい。
図35は、その各々が異なるカメラモジュールに対応する4つのセンサに対応する図706、708、710、712に示される画素要素のN個の行がどのように順次読み出し可能であるかを示す。図706、708、710、712に示される4つのセンサに対応する画素要素の行は、シーン部分3406、3408、3410、および3412などのシーンの4つの異なる部分をキャプチャすることができることに留意されたい。
説明の目的で、図706、708、710、712に示される画素要素の行は、その各々が焦点距離f3を有する第2の光学チェーン、第3の光学チェーン、第5の光学チェーン、および第6の光学チェーンのセンサに対応すると仮定する。以下で説明されるように、f3は、いくつかの実施形態では、関心シーン3404をキャプチャする第1の光学チェーンの焦点距離f2の2倍であり、シーンエリア3402をキャプチャする第4の光学チェーンの焦点距離f1の4倍である。したがって、焦点距離f3を使用する光学チェーンは、比較的高い倍率を提供するが、焦点距離f2または焦点距離f1を使用する光学チェーンよりも、シーンの小さい部分をキャプチャする。焦点距離f3を使用する光学チェーンは、焦点距離f2を有する光学チェーンのサイズの4分の1であり、焦点距離f1を有する光学チェーンのサイズ16分の1であるシーンエリアの画像をキャプチャする。図3500は、関心シーンの一部分をキャプチャするより大きい焦点距離の光学チェーンに対応するセンサが画素要素のN個の行を有することを示しているが、図706、708、710、712内の長方形は、センサの物理的サイズではなく、センサによってキャプチャされる画像エリアの相対的サイズを示すまたは表すことを理解されたい。
焦点距離とシーンエリアキャプチャサイズのこの関係は、図34、図35、図36、および図37では、示されている画素要素の行の相対的サイズによって表される。したがって、画素要素の実際のサイズは同じであってよいが、センサの各々では、キャプチャされる画素値が対応するシーンの部分のサイズは、特定のセンサが含まれるカメラモジュールの焦点距離に依存することを理解されたい。
説明の目的で、図35の図706、708、710、712は、焦点距離f3を有する光学チェーンに対応する4つのセンサに対応する画素要素の行を示すことが仮定される。図706に対応するセンサが関心シーンの左上部分をほぼキャプチャし、図708に対応するセンサが関心シーンの右上部分をほぼキャプチャし、図710に対応するセンサが関心シーンの左下部分をほぼキャプチャし、図712に対応するセンサが関心シーンの右下部分をほぼキャプチャすることも仮定される。
図706に対応するセンサが第2のセンサS2であると仮定すると、画素行1の第1のラインの読み出しは、読み取りセンサ2ライン1を表すRS21によって示される時間によって完了される。類似の注釈は、他のセンサの画素要素のラインの読み出しが、図35〜39の垂直軸に対応し、図の上部から下部にかけて増加する時間で完了される点を示すために使用される。図708に対応するセンサ3の読み出しは、RS21からの読み出しと同じ時点で完了される。図35の例では、4つのセンサS2、S3、S5、S6によってキャプチャされる画像エリア間の重複はなく、センサS5からの読み出しは、センサS2の最後の画素行に続いて次の画素行に対応するかのように完了されることに留意されたい。センサが、重複する画像部分に対応する画素値の行を有する場合、センサは同時に読み出すであろうが、図35の例は、多数の実施形態では当てはまらない、キャプチャされる画像エリアにおける重複はないと仮定することに留意されたい。
説明の目的で、TRは、図35の例で使用されるセンサのいずれか1つから画素値の1行を読み出す時間であると仮定される。例における各センサはN個の行を含むので、N個のセンサのいずれか1つを完全に読み取るために必要とされる時間はN TRである。したがって、第1のセンサS2および第3のセンサS3の行(ラインN)の読み出しは時刻N TRに完了されるが、センサS5およびS6の最後の行(ラインN)の読み出しは、時刻2 N TRに完了される。
センサが異なる数の画素の行を含む場合、総読み出し時間は、当然のことながら、センサ内の行の数に依存する。
同じ時間期間N TR内にセンサを読み出すことが望ましいと思われる可能性があるが、異なるセンサからの画像が、ローリングシャッターを使用して読み出されているとき、図710、712に示されるセンサに対応する画素行が、図706、708に示されるセンサに対応する画素行の読み出しに続いて読み出されるようにセンサを制御することが望ましいことがある。このように、読み出しは、図706、710に対応する画素行が単一のローリングシャッターの一部であるかのように順次行われる。いくつかの実施形態で使用されるこの手法は、合成画像が、各々がN個の行を有する2つの別個のセンサではなく画素要素の2N個の行を有する単一のより大きいセンサを使用して取得されるであろうものに類似することを可能にする。したがって、あるセンサの最後の行と次のセンサの第1の行との間で生じ得る時間的不連続性を回避することは、画像の異なる部分に対応するセンサによってキャプチャされる画像を結合するとき、利点を有することができる。
したがって、図706、708、710、712に示される画素要素の行に対応するローリングシャッターを使用する4つのカメラモジュールのセンサは、キャプチャされた画像を結合することを容易にする方式で関心シーンエリアをキャプチャするために組み合わせて使用可能であることを理解されたい。
キャプチャされた画像は、より大きいシーンエリアの合成画像を形成するために互いに、およびより大きいシーンエリアの1つまたは複数の画像を用いて結合可能である。より大きいシーンエリアの画像は、同じシーンのより大きい部分をキャプチャする、より小さい焦点距離たとえば焦点距離f2を有するカメラモジュールによってキャプチャ可能であり、いくつかの実施形態では、キャプチャされる。
図36は、図35に示される画素要素の行のセットによって表されるシーンエリアをキャプチャするために使用されるカメラモジュールの焦点距離f3の半分または約半分である焦点距離f2を有する、光学チェーンたとえばカメラモジュールに対応するセンサが、より小さい焦点(f2)距離を有する光学チェーンが、より長い焦点距離を有する複数の光学チェーンとの同期方式で関心シーンの一部分をキャプチャするようにどのように制御可能であるかを示す。図36では、画素値の行が読み出される速度は、焦点距離と1つまたは複数の他のサポートされる焦点距離の相対比に基づく係数倍に減少される。
焦点距離f2はf3の焦点距離の2分の1であるので、N個の画素要素行を含む図3600に対応するセンサは、図35の例のセンサによってキャプチャされるシーンの実質的に同じ画像部分をキャプチャし、画素行の読み出し速度は2分の1に減少され、すなわち、1つの画素要素行は時間期間2TR内に読み出される。したがって、N個の画素要素行を含む図3600に対応するセンサの読み出しは、完全に読み出されるために図706、710に対応するセンサの結合によって使用される同じ時間の量である画素行の完全な読み出しを完了するのに、N(2TR)の総時間期間がかかる。図36がセンサS1に対応すると仮定すると、S1の画素値の第1の行の読み出しは、読み取りセンサ1ライン1を表すインジケータRS1L1によって示される時点に対応する時刻2TRに完了される。したがって、図35と図36の画素行の読み出しが同期されるそのような一実施形態では、図3600に示される画素要素行を有するセンサS1は、その読み出しを、図706に対応するセンサS2および図708に対応するセンサS3がそれらの画素要素の第1の行の読み出しを始めるのと同時に始める。センサS1は、図710および712に示される画素要素の最後の行が読み出される同じ時刻にまたはその付近で、その画素要素のN個の行の読み出しを完了する。したがって、センサS1は、図35が対応するセンサと同期される様式で、その画素行の読み出しを始め、その画素行読み出しを終える。
センサS1がセンサS2、S3、S5、S6と同じ行あたり読み出し速度で読み出された場合、センサS1の読み出しは時刻NTRに完了されているが、これは、異なる光学チェーンに対応するセンサが、高い動きの速度で移動している物体を含む画像から生成された合成画像内の時間アーチファクトにつながり得る、異なる時刻に画像エリアの同じ部分をキャプチャするという望ましくない影響をもたらすであろう。そのような時間アーチファクトは、本明細書で説明される同期された画像キャプチャ技法によって減少または回避される。
図37は、図35に示される画像をキャプチャするために使用されるカメラモジュールの4分の1または約4分の1の焦点距離f3である焦点距離(たとえば、f1)を有する、光学チェーン(たとえば、図34に関して説明された第4の光学チェーン)に対応するセンサS4が、より大きい焦点距離を有する複数のカメラモジュールとの同期方式で関心シーンの一部分を対応する光学チェーンがキャプチャするように、どのように制御可能であるかを示す。
図3700のセンサが対応する光学チェーンの焦点距離(たとえば、f1)はf3の焦点距離の4分の1に対応するので、N個の画素要素行を含む図3700のセンサは、図35および図36の例のセンサによってキャプチャされるシーンの実質的に同じ画像部分をキャプチャし、図3700のセンサのN個の画素行の読み出し速度は4分の1に減少され、すなわち、1つの画素要素行は時間期間4TR内に読み出される。図37では、図3700は、センサが、図35の図706に対応するセンサよりも垂直次元において4倍大きいシーン部分を対象とすることを考慮に入れて、持続時間4TRを有する時間期間ごとに画素値の1行を読み出すように制御されるN個の画素要素行を有するセンサを示す。図3700は、小さい焦点距離f1を有する光学チェーンに対応するセンサが画素要素のN個の行を有することを示すが、図3700内の長方形は、センサの物理的サイズを示さないまたは表さないことを理解されたい。さまざまな光学チェーン内のセンサ(画素要素を含む)のサイズは同じであってよい。
理解されるべきであるように、センサS4の第1のラインの読み出しは時刻RS4L1に完了され、第Nのラインは時刻RS4LNに読み出される。画素値の行の読み出し速度が、図35および図36に示されるセンサ読み出しとの同期を維持するために図37では4 TRごとに1回発生することを考えると、センサS4の読み出しは、0の開始時刻を仮定して時刻4NTRに行われることに留意されたい。
図38は、図35、図36、および図37の実施形態で使用されるセンサが同期方式で一緒に使用されるときの、これらのセンサ間の行読み出しタイミング関係をより詳細に示す。例示および説明の目的で、図34に示され上記で対応する説明で説明されるようなさまざまな光学チェーンによってキャプチャされる同じ画像および/または画像部分は、図38〜39では参照のために使用されている。したがって、同じ参照番号が使用されている。ブロック3402は、焦点距離f1を有する光学チェーンに対応するセンサによってキャプチャされるシーンエリアを表す。ブロック3404は、焦点距離f2を有するセンサによってキャプチャされるシーンエリア3402の部分を表す。ブロック3406、3410、3408、3412、および3414は、図38の例では最高倍率を提供する、焦点距離f3を有する異なるカメラモジュールによってキャプチャされるシーンエリアのブロックを表し、シーンエリアの最小部分がキャプチャされる。
図39は、大部分のセンサにおける行の数ははるかに大きいという理解の下で、図38に示される例に類似しているが、行の数Nが6であるように選択される、すなわち、センサの各々が6行たとえばN=6の画素要素を含む特定の例を示す。したがって、図39は、N=6の単純な場合に対して同期がどのように達成され得るかを示すために例示的な目的で示され、例の各センサは同じサイズであるが、異なる焦点距離を有する光学チェーンに対応する。
センサが、シーンエリアの同じ部分に対応する画像をキャプチャするとき、読み出しが並行して行われることを図39から理解されたい。画素値のラインが読み出されると、次の読み出しは、同期された読み出し制御が、読み取られていない画素値の次の行が読み出されるべきであることを示すまで、行われない。
センサが、他のセンサがない画像エリアに対応するとき、そのセンサは画素値のその行を読み出し、一方、他のセンサは、読み出し動作を実行することを抑制する。たとえば、図39の例では、最小焦点距離を有し、最大画像エリアをキャプチャするセンサS4は画素値のその第1の行を読み出し、一方、センサS1、S2、S3、およびS6は、画素値を読み出すことを抑制する。しかしながら、センサが、他のセンサによってもキャプチャされる画像エリアの一部分をキャプチャするとき、そのセンサは、そのセンサまたは同じ画像エリアをキャプチャするセンサの読み出しと厳密に一致するように同期される方式で画素値を読み出す。たとえば、時刻RS3L3から時刻RS4L4に至る時間期間中、センサS1、センサS2、およびセンサS3も画素読み出しを実行する。この時間期間中に実行される読み出しの数は、センサの行読み出し速度に依存し、光学チェーンに対応するセンサは、センサS4が画素値の単一の行を読み出す時間期間内に画素値の複数の行を読み出す、より大きい焦点距離を有する。
画素要素の行を読み取るために使用される時間の最小量を示す時間の単位であるTRは、ミリ秒または他の任意の適切な時間の単位で表現されてよいことに留意されたい。したがって、垂直軸は、シーンエリアのスキャンおよびセンサの読み出しが上部で開始し、下部に向かって進むという仮定に基づいて、上部から下部まで進行する時間を示すことが意図される。上部から下部までのスキャン方向は例の目的で示されているが、これは、タイミング同期機能に不可欠または重要ではない。
センサが対応する光学チェーンの焦点距離に基づいて読み出し速度を同期させる方法は、センサが同じサイズであり同じ数の行を含む単純な場合で説明されているが、方法は、異なるサイズのセンサおよび/または異なる数の行の画素値を有するセンサを使用する光学チェーンとともに使用するのに特に適していることを理解されたい。理解されるべきであるように、そのような違いは、存在する場合、開始時刻および停止時刻、ならびに複数の光学チェーンたとえばカメラモジュールによって関心画像エリアの同期された画像キャプチャを達成する方式でセンサの読み出しを制御するために使用されることになる読み出し速度に関して考慮に入れられ得、いくつかの実施形態では、考慮に入れられる。そのうえ、異なるモジュールによってキャプチャされる画像エリアにおける重複は、部分的に重複している画像エリアに対応することがある異なるセンサの読み出しに関する開始時刻を決定するとき、考慮に入れられ得る。
たとえば、図35の例のセンサS5が、センサS2の最後の行のうちのいくつかによってキャプチャされる画像部分に重なった画像エリアをキャプチャした場合、S5画素要素の第1の行の読み出しは、同じ画像部分をキャプチャしたセンサS2の画素要素の行と並行して行われる。そのような一実施形態では、S5の画素要素の行のすべてではないが、いくつかの読み出しは、S2およびS5によってキャプチャされていた画像エリアにおける部分的重複により、センサS2の読み出しの完了に続く。
図36〜図39は、小さい焦点距離を有するカメラモジュールに対応するセンサの読み出し速度が、より大きい焦点距離を有するカメラモジュールに対応する画像キャプチャおよびセンサの画素読み出しにセンサを同期させるためにどのように低速化可能であるかを説明するために使用されているが、ここで、画像内の画素カウントを最大限にすることは最優先ではなく、画素行の合同読み取りは、より大きい焦点距離のカメラモジュールに対応するセンサの読み出しを高速化するために使用可能であり、いくつかの実施形態では、そのために使用される。M個の行のグループの合同読み取り中、センサは、デジタル化および読み取りの前にM個の行の各々の対応する画素を合計するためにアナログ回路を使用する。M個の行の合同読み取りは、一般的に、単一の行を読み取るのと同じ時間がかかり、それによって、読み取りスピードをM倍高速化する。そのような手法は、単一のセンサを読み出すために必要とされる時間期間に等しい時間期間内の関心シーンエリアの同期されたローリングシャッター制御キャプチャを可能にする。そのような手法は、合成画像内のより低い全体的画像画素カウントをもたらすことがあり、たとえば、場合によっては、合成画像の画素カウントが単一のセンサの画素カウントに減少されるが、そのような手法は、キャプチャされている画像内の物体が、キャプチャがより短い時間期間内に行われた場合よりもキャプチャ時間期間内にさらに移動するので、全体的な画像キャプチャ期間が増加される場合、その物体の動きがアーチファクトを導入するので、その動きが存在するケースで望ましいことがある。
図40は、例示的な一実施形態により複数の光学チェーンたとえばカメラモジュールを使用して画像をキャプチャし、画像を結合する例示的な方法を示す。
図40は、例示的な一実施形態により合成画像を生成するためにローリングシャッターを有する少なくとも1つのセンサを含む、たとえば図6、図8、および/または図14に示される撮像デバイスなどの、撮像デバイスを制御する例示的な方法のステップを示す流れ図4000を示す。流れ図4000の方法を実施するカメラデバイスは、図1のカメラデバイス100および図4Aのデバイス200と同じまたは類似の要素を含むことができ、場合によっては、これを含む。
流れ図4000の方法は、図1のカメラ100などのカメラデバイスを使用して実行可能であり、いくつかの実施形態では、実行される。いくつかの実施形態では、カメラ100はバッテリ式ハンドヘルドデバイスである。例示的な方法は、たとえば、カメラデバイスたとえばカメラ100のユーザが、関心シーンエリアの画像のキャプチャをトリガするためにボタンを押すまたは別の行動を起こすとき、ステップ4002において開始する。説明の目的で、カメラデバイスが複数の光学チェーンたとえばカメラモジュールを含み、カメラモジュールの各々は独立して動作および制御可能であると考える。説明の目的で、異なるシーンエリアに対応する画像のキャプチャおよび結合は、図12Aに示される光学チェーンを参照し、それを例のベースとして使用することによって説明される。図12Aの例で先に説明されたように、3つの異なる焦点距離すなわちf1、f2、およびf3が使用されており、ここで、f1<f2<f3である。
動作は、ステップ4002から、画像キャプチャ動作を伴うステップ4004、4006、4008、4010、4012、4014、および4016に進む。画像キャプチャ動作は、同期方式で実行され得、いくつかの実施形態では、実行される。少なくともいくつかの同期される実施形態では、異なる光学チェーンの必ずしもすべてでないがいくつかによってキャプチャされる画像は、同じまたは重複する時間期間に対応する。他の実施形態では、画像キャプチャが同期されるのではなく、キャプチャされた画像のうちの複数の画像が、同じまたは重複する時間期間中にキャプチャされる。さらに他の実施形態では、少なくともいくつかの画像が順次、たとえばすばやく連続して、キャプチャされる。逐次的な画像キャプチャは、シーンエリアの異なる部分に対応する画像をキャプチャするために使用され得、いくつかの実施形態では、使用される。ステップ4004では、第1の焦点距離(f1)を有するカメラの第1の光学チェーンたとえば第1のカメラモジュール1228は、関心シーンエリアの第1の画像をキャプチャするように動作される。いくつかの実施形態では、関心シーンエリアは、全画像キャプチャエリアよりもやや小さいことがある。動作は、ステップ4004からステップ4018に進む。
ステップ4006では、第2のシーンエリアの第2の画像が、第1の焦点距離(f1)よりも大きい第2の焦点距離(f2)を有するカメラたとえば光学チェーン1204の第2の光学チェーンを使用してキャプチャされ、第2のシーンエリアは関心シーンエリアの第1の部分である。さまざまな実施形態では、第2の光学チェーンは、関心シーンエリアの一部たとえば4分の1または半分の部分をキャプチャする。動作は、ステップ4006からステップ4018に進む。
ステップ4008では、第3のシーンエリアの第3の画像が、第1の焦点距離よりも大きい第3の焦点距離(f2)を有するカメラたとえば光学チェーン1208の第3の光学チェーンを使用してキャプチャされ、第3のシーンエリアの少なくとも一部分は第2のシーンエリアと重複しておらず、第3のシーンエリアは関心シーンエリアの第2の部分である。したがって、いくつかの実施形態では、第3の光学チェーンは、関心シーンエリアの一部たとえば別の4分の1の部分をキャプチャする。動作は、ステップ4008からステップ4018に進む。いくつかの実施形態では、第1の光学チェーン、第2の光学チェーン、および第3の光学チェーンは、カメラの前面に外側レンズを有する。すべてではないが、いくつかの実施形態では、光学チェーンの最も外側のレンズは、ゼロ屈折力を有する平面状ガラスまたはプラスチックレンズである。
ステップ4010では、第4の画像が、f1に等しいまたはこれよりも小さい第4の焦点距離を有するカメラたとえば光学チェーン1234の第4の光学チェーンを使用してキャプチャされ、第4の画像は関心シーンエリアである。いくつかの実施形態では、第4の焦点距離は、第1の焦点距離と同じかこれよりも小さい。動作は、ステップ4010からステップ4018に進む。
ステップ4012では、第5のシーンエリアの第5の画像が、第1の焦点距離(f1)よりも大きい第5の焦点距離を有するカメラたとえば光学チェーン1218の第5の光学チェーンを使用してキャプチャされ、第5のシーンエリアは関心シーンエリアの第3の部分である。したがって、第5の光学チェーンは、関心シーンエリアの一部たとえば4分の1または半分の部分をキャプチャする。動作は、ステップ4012からステップ4018に進む。
ステップ4014では、第6のシーンエリアの第6の画像が、第1の焦点距離(f1)よりも大きい第6の焦点距離を有するカメラたとえば光学チェーン1214の第6の光学チェーンを使用してキャプチャされ、第6のシーンエリアは関心シーンエリアの第4の部分である。動作は、ステップ4014からステップ4018に進む。
ステップ4016では、第7のシーンエリアの第7の画像が、第1の焦点距離(f1)よりも大きい第7の焦点距離を有するカメラたとえば光学チェーン1224の第7の光学チェーンを使用してキャプチャされ、第7のシーンエリアは関心シーンエリアの中心にある。動作は、ステップ4016からステップ4018に進む。
いくつかの実施形態では、第1の焦点距離と第4の焦点距離は同じである。いくつかの実施形態では、第2の焦点距離と、第3の焦点距離と、第5の焦点距離と、第6の焦点距離は同じである。いくつかの実施形態では、第7の焦点距離は、第2の焦点距離、第3の焦点距離、第5の焦点距離、および第6の焦点距離と同じである。いくつかの実施形態では、第2のシーンエリア、第3のシーンエリア、第5のシーンエリア、および第6のシーンエリアの合併(union)たとえば結合は、関心シーンエリアを含む。
ここで、ステップ4018に戻る。ステップ4018は、必ずしもすべてではないがいくつかの実施形態において実行される。ステップ4018では、キャプチャされた画像のうちの少なくとも2つに含まれる関心シーンエリアの一部分に関する奥行き情報が生成される。したがって、いくつかの実施形態では、関心シーンエリアの一部分に関するデプスマップ情報を生成するために、同じ関心シーンエリアの少なくとも2つのキャプチャされた画像が使用される。いくつかの実施形態では、ステップ4018はステップ4020を含む。そのような実施形態では、ステップ4020に示されるように、少なくとも第1のキャプチャされた画像および第4のキャプチャされた画像が、奥行き情報を生成するために使用される。一実施形態では、第1キャプチャされた画像および第4のキャプチャされた画像は、奥行き情報を生成するために使用されるが、他のキャプチャされた画像も、奥行き情報を生成する際に使用されてよい。さまざまな実施形態では、奥行き情報は、カメラに含まれるプロセッサ、たとえばプロセッサ110または211などによって生成される。
さまざまな実施形態では、第2の光学チェーン、第3の光学チェーン、第5の光学チェーン、第6の光学チェーン、および第7の光学チェーンは、これらの光学チェーンによって撮影されたシーンの部分の画像が、異なる空間的に分離された入射瞳からのものであり、したがって異なる視点を有するような方式で配置される。異なる視点を有するそのような画像を結合することは、アーチファクトたとえば視差を導入する。これらの異なる光学チェーンによってキャプチャされたさまざまな画像を使用して生成された合成画像からのそのようなアーチファクトの影響を最小限にする、および/またはこれを緩和するために、異なる視点による合成画像の歪みを回避するために画像を結合するとき視差是正を提供する奥行き情報が使用される。
動作は、ステップ4018からステップ4022に進む。ステップ4022では、少なくとも第1のキャプチャされた画像、第2のキャプチャされた画像、および第3のキャプチャされた画像から合成画像が生成される。いくつかの実施形態では、合成画像を生成するステップは、合成画像を生成する際に奥行き情報が使用されるステップ4024を含む。そのような実施形態では、合成画像は、生成された奥行き情報、たとえば、ステップ4018において生成された奥行き情報に応じて、少なくとも第1のキャプチャされた画像、第2のキャプチャされた画像、および第3のキャプチャされた画像から生成される。いくつかの実施形態では、奥行き情報は、合成画像を生成する際に使用されるが、奥行き情報の使用は、必ずしもすべての実施形態で、合成画像を生成するために必要とは限らない。いくつかの実施形態では、合成画像を生成するステップ4022は、図示のステップ4026に示されるように、合成画像を生成するために第4のキャプチャされた画像、第5のキャプチャされた画像、第6のキャプチャされた画像、および第7のキャプチャされた画像を使用することをさらに含む。合成画像は、関心シーンエリアの画像を含む。さまざまな実施形態では、生成される合成画像は、関心シーンエリアの画像である。動作は、ステップ4022からステップ4028に進む。ステップ4028では、1つもしくは複数のキャプチャされた画像、たとえば、第1の画像、第2の画像、第3の画像、第4の画像、第5の画像、第6の画像、および/もしくは第7の画像、ならびに/または合成画像は、たとえばデバイスメモリ内に格納され、ならびに/またはたとえば、ディスプレイデバイスに、および/もしくはインターフェースを介して外部デバイスに出力される。
いくつかの例示的な実施形態では、たとえばカメラデバイス100などの撮像デバイスが、流れ図4000の方法を実施するために使用される。そのような一実施形態では、カメラデバイス100の複数の光学チェーン130は、図12Aに示される方式で配置された光学チェーンを含み、光学チェーンのより詳細な配置および要素(たとえば、センサ、フィルタ)は、図12Bにさらに示されている。したがって、そのような一実施形態では、複数の光学チェーン130は、図12Aに関して説明された光学チェーン1202〜1234を含む。別の実施形態では、カメラデバイス100の複数の光学チェーン130は、図17Aに示されるタイプおよび配置の光学チェーンを含む。したがって、そのような一実施形態では、複数の光学チェーン130は、図17Aおよび図17Bに関して説明された光学チェーン1702〜1734を含む。
いくつかの例示的な実施形態では、プロセッサ110は、上記で説明された光学チェーンによってキャプチャされた2つ以上の画像を結合することによって合成画像を生成するように構成される。一実施形態では、プロセッサ110は、少なくとも第1の光学チェーンによってキャプチャされた関心シーンエリアの第1の画像、第2の光学チェーンを使用してキャプチャされた、関心シーンエリアの第1の部分である第2のシーンエリアの第2の画像、および第3の光学チェーンを使用してキャプチャされた第3のシーンエリアの第3の画像から合成画像を生成するように構成され、第3のシーンエリアは関心シーンエリアの第2の部分であり、第3のシーンエリアの少なくとも一部分は第2のシーンエリアと重複しない。
いくつかの実施形態では、プロセッサ110は、キャプチャされた画像のうちの少なくとも2つに含まれる関心シーンエリアの一部分に関する奥行き情報が生成するように構成される。いくつかの実施形態では、プロセッサ110は、少なくとも第1の光学チェーンによってキャプチャされた第1の画像と第4の光学チェーンによってキャプチャされた第4のキャプチャされた画像とを使用して奥行き情報を生成するようにさらに構成され、第4の画像は関心シーンエリアである。いくつかのそのような実施形態では、プロセッサ110は、前記奥行き情報に応じて合成画像を生成するようにさらに構成される。いくつかの実施形態では、第4の光学チェーンは、第1の光学チェーンの第1の焦点距離に等しいかこれよりも小さい第4の焦点距離を有する。いくつかの実施形態では、プロセッサ110は、メモリ108内の1つもしくは複数のキャプチャされた画像および/もしくは生成された合成画像の格納ならびに/またはディスプレイ102上での1つもしくは複数のキャプチャされた画像および/もしくは合成画像の出力ならびに/またはインターフェース114などのインターフェースを介した別のデバイスへのキャプチャされた画像もしくは合成画像の送信を制御するようにさらに構成される。
方法4000のさまざまな機能および/またはステップは、そのようなデバイスが汎用プロセッサおよび/または画像センサを使用することがあるとしても、カメラおよび/または画像処理の改善に関することを理解されたい。奥行き情報を生成するステップおよび合成画像を生成するステップなどの方法4000の1つまたは複数のステップは、プロセッサたとえばプロセッサ110、211によって実行されるように説明されてきたが、方法4000のステップのうちの1つまたは複数は、専用回路、たとえば、方法を実行する撮像デバイスの効率、精度、および/または動作能力を改善する、ASIC、FPGA、および/または他の特定用途向け回路によって実施され得、いくつかの実施形態では、実施されることを理解されたい。いくつかの実施形態では、専用ハードウェアたとえば回路、および/または専用ハードウェアとソフトウェアの組み合わせが、方法4000の1つまたは複数のステップを実施する際に利用され、その中で、方法を実施する撮像デバイスたとえばカメラに追加の画像処理効率、精度、および/または動作能力を提供する。
図41Aと図41Bの結合を備える図41は、例示的な一実施形態により関心シーンエリアの一部分をスキャンするためにローリングシャッターを有する少なくとも1つの画像センサを含む、たとえば図6、図8、および/または図14に示される撮像デバイスなどの撮像デバイスを動作させる例示的な方法のステップを示す流れ図4100である。流れ図4100の方法を実施するカメラデバイスは、図1および図4Aのカメラデバイスと同じまたは類似の要素を含むことができ、場合によっては、これを含む。
例示的な方法はステップ4102で開始し、たとえば、ユーザはカメラデバイス上で関心シーンエリアのキャプチャを始め、このことが、カメラデバイスたとえばカメラデバイス100に、1つまたは複数の光学チェーンによる関心シーンエリアのスキャンと、したがって画像キャプチャとを始めさせる。説明の目的で、カメラデバイスは複数の画像センサを含み、各センサは、光学チェーンの一部であり、たとえば、第1のセンサ〜第Xのセンサは、第1の光学チェーン〜第Xの光学チェーンにそれぞれ含まれると考える。動作は、ステップ4102からステップ4104に進む。ステップ4104では、カメラに含まれる複数の画像センサは、関心シーンエリアの第1の縁から関心シーンエリアの第2の縁まで関心シーンエリアをスキャンするように制御され、関心シーンエリアの第1の縁(たとえば、上部)と第2の縁(たとえば、下部)は平行であり、スキャンすることは、関心シーンエリアの第1の縁から第2の縁まで(たとえば、均一な速度で)進むスキャン位置に従って画像キャプチャを制御することを含む。いくつかの実施形態では、複数の画像センサは、関心シーンエリアの実質的に重複しない部分(いくつかの実施形態では、画像部分の大半は重複しない)をキャプチャする複数の画像センサを含み、複数のセンサによってキャプチャされる関心シーンエリアの部分の合併は、関心シーンエリアを包含する。いくつかの実施形態では、複数の画像センサは、偶数のセンサ、たとえば4つを含む。
いくつかの実施形態では、複数の画像センサは、第1の画像センサと、第2の画像センサと、第3の画像センサとを含み、第1の画像センサは関心シーンエリアの第1の部分をキャプチャし、第2の画像センサは関心シーンエリアの第2の部分をキャプチャし、第3の画像センサは関心シーンエリア全体をキャプチャする。いくつかのそのような実施形態では、関心シーンエリアの第1の部分と第2の部分は部分的に重複しない。
いくつかの実施形態では、第1のセンサは、第2のセンサによってキャプチャされない関心シーンエリアの一部分の画像をキャプチャし、第2のセンサは、第1のセンサによってキャプチャされない関心シーンエリアの一部分の画像をキャプチャする。いくつかの実施形態では、第1のセンサによってキャプチャされる関心シーンエリアの第1の部分は、第2のセンサによってキャプチャされる関心シーンエリアの第2の部分に先行するスキャンロケーションで始まる。いくつかの実施形態では、関心シーンエリアの第2の部分は、関心シーンエリアの中心に対応する。いくつかの実施形態では、複数のセンサは5つのセンサを含み、そのうちの4つは、関心シーンエリアの実質的に重複していない部分をキャプチャする。いくつかの実施形態では、関心シーンエリアの第2の部分の第1〜第4の異なるコーナー部分は、5つのセンサのうちの残りの4つのセンサによってキャプチャされる関心シーンエリアの異なる対応する部分に重なる。
いくつかの実施形態では、複数のセンサは5つのセンサを含み、そのうちの4つは関心シーンエリアの4つの異なる部分をキャプチャし、関心シーンエリアの4つの異なる部分の各々の少なくとも1つのコーナーは、関心シーンエリアの4つの異なる部分のうちの他の3つによってキャプチャされる画像部分と重ならず、第5のセンサは、関心シーンエリアの中心部分をキャプチャする。
さまざまな実施形態では、ステップ4104は、ステップ4106、4108、および4110のうちの1つまたは複数を実行することを含む。関心シーンエリアをスキャンするように1つまたは複数のセンサを制御することの一部として、ステップ4106では、ローリングシャッターモードである複数のセンサの中の第1のセンサは、第1のセンサが、現在のスキャン位置に対応する画素値の読み取られていない行を有するとき、現在のスキャン位置に対応する画素値のまだ読み取られていない行を読み出すように動作され、現在のスキャン位置は経時的に(たとえば、スキャンが第1の縁から第2の縁に進むにつれて)変化する。いくつかの実施形態では、スキャン位置は、関心シーンエリアの第1の縁から関心シーンエリアの第2の縁に均一な速度で進む。
ステップ4108では、ローリングシャッターモードである複数のセンサの中の第2のセンサは、第2のセンサが、現在のスキャン位置に対応する画素値の読み取られていない行を有するとき、現在のスキャン位置に対応する画素値のまだ読み取られていない行を読み出すように動作され、第1のセンサおよび第2のセンサは、関心シーンエリアの異なる部分の画像をキャプチャする(たとえば、異なる部分が部分的に重複してもよいし、ある部分が他の部分の内部にあってもよい)。同様に、関心シーンエリアをスキャンすることを制御することの一部として、ステップ4110では、ローリングシャッターモードである複数のセンサの中の第Xのセンサは、第Xのセンサが、現在のスキャン位置に対応する画素値の読み取られていない行を有するとき、現在のスキャン位置に対応する画素値のまだ読み取られていない行を読み出すように動作される。したがって、このようにして、関心シーン全体および/または関心シーンのさまざまな部分が、カメラデバイスのさまざまなセンサによってスキャンされる。
いくつかの実施形態では、第1のセンサおよび第2のセンサはそれぞれ、関心シーンエリアの第1の部分および第2の部分に対応し、関心シーンエリアの第1の部分の長さは、スキャンの方向において、関心シーンエリアの第2の部分の長さよりも大きい。いくつかの実施形態では、スキャンの方向は、上部から下部に進む。いくつかの実施形態では、第1のセンサは、第1の焦点距離を有する第1の光学チェーンに対応し、第2のセンサは、第2の焦点距離を有する第2の光学チェーンに対応する。いくつかの実施形態では、制御ステップ4104は、1つまたは複数の画像センサの読み出しの持続時間を制御するためにステップ4112を実行することをさらに含む。ステップ4112では、第1のセンサの読み出しの持続時間は、第1のセンサの画像キャプチャサイズおよび/または第1のセンサが対応する第1の光学チェーンの焦点距離の関数として制御される。いくつかの実施形態では、ステップ4112は、センサ読み出しの持続時間を制御することの一部として、ステップ4114または4116のうちの1つを実行することを含む。ステップ4114では、第1のセンサの読み出しの持続時間は、第1の光学チェーンの焦点距離が第2の光学チェーンの焦点距離よりも小さいとき第2のセンサの読み出しよりも長い持続時間を有するように制御される。いくつかの実施形態では、第1のセンサの読み出しの持続時間は、第1のセンサおよび第2のセンサがそれぞれ関心シーンエリアの第1の部分および第2の部分に対応するとき第2のセンサの読み出しよりも長い持続時間を有するように制御され、スキャンの方向における関心シーンエリアの第1の部分の長さは、スキャンの方向における関心スキャンエリアの第2の部分の長さよりも大きい。これは、たとえば、第1のセンサを含む第1の光学チェーンの焦点距離が、第2のセンサを含む第2の光学チェーンの焦点距離よりも小さいとき、発生する。
いくつかの他の実施形態では、第1の光学チェーン(第1のセンサが対応する)の焦点距離は、第2の光学チェーンの焦点距離のN倍である。いくつかのそのような実施形態では、ステップ4116は、ステップ4112の一部として実行される。ステップ4116では、第1のセンサからの画素値の読み出しの持続時間は、画素値の行が第2のセンサから読み出される速度よりもN倍速い速度で第1のセンサから画素値の行を読み取ることを含むように制御される。さまざまな実施形態では、カメラデバイス内のローリングシャッターコントローラは、上記で説明されたスキャンと読み出し動作とを制御する。いくつかの実施形態では、第1のセンサの画素サイズは、第2のセンサの画素サイズと同じである。いくつかの実施形態では、第1のセンサと第2のセンサは、画素の同じ総数の行および列を含む。
動作は、ステップ4101(上記で説明された1つまたは複数のステップを含む)から、接続ノードA4118を介して、ステップ4120に進む。ステップ4120では、第1〜第Xのセンサから読み出された1つまたは複数の画像が格納され、たとえば、X個の画像が、X個のセンサの各々に対応して1つ、格納される。動作は、ステップ4120からステップ4122に進む。ステップ4122では、キャプチャされた画像(センサから読み出された)のうち少なくとも2つ以上またはすべてが、本発明により合成画像を生成するために結合される。
図42は、いくつかの実施形態で実施される複数の光学チェーンたとえばカメラモジュールを使用して関心シーンをキャプチャする方法4200のステップを示す。この方法はステップ4202で開始し、たとえば、ユーザはカメラデバイス上で関心シーンエリアのキャプチャを始め、このことが、カメラデバイスたとえばカメラデバイス100に、協調された方式で動作される1つまたは複数のカメラ光学チェーンによる関心シーンエリアのスキャンと、したがって画像キャプチャとを始めさせる。
動作はステップ4204に進み、ステップ4204では、カメラデバイスは、たとえば図42の例では現在のスキャン位置をスキャン位置開始値たとえば1に設定することによって、現在のスキャン位置を初期化する。
スキャン位置値が初期化されると、動作はステップ4204からステップ4206に進み、コントローラたとえばローリングシャッターコントローラ150は、同期方式で画素値たとえば画素値の行の読み出しを実行するようにカメラデバイスの画像センサの各々を制御し、たとえば、画素値の行は、ローリングシャッター実装形態の動作に従って順次読み出される。
ステップ4206は、関心シーンエリアの少なくとも一部分をキャプチャするために使用される画像センサ1〜Xの各々に対する画像センサ読み出し制御ステップを含む。ステップ4210および4214は、説明の目的で示されており、同じまたは類似のステップが、関心シーンエリアの少なくとも一部分をキャプチャするために使用される他の画像センサの各々に対して実行される。
ステップ4210では、画像センサ1が、現在のスキャン位置に対応する画素のまだ読み取られていない行、たとえば、読み出されることになっている画素値の行を有するかどうかに関して、決定がなされる。たとえば、画像センサ1が、現在のスキャン位置に対応するエリアの外部にある画像部分に対応するので、この画像センサが、現在のスキャン位置に対応する画素値の読み取られていない行を有さない場合、動作は、画素の行が画像センサ1から読み出されることなく、ステップ4220に進む。
ステップ4214では、画像センサXが、現在のスキャン位置に対応する画素のまだ読み取られていない行、たとえば、読み出されることになっている画素値の行を有するかどうかに関して、決定がなされる。たとえば、画像センサXが、現在のスキャン位置に対応するエリアの外部にある画像部分に対応するので、画像センサXが、現在のスキャン位置に対応する画素値の読み取られていない行を有さない場合、動作は、画素の行が画像センサXから読み出されることなく、ステップ4220に進む。
時間動作がステップ4206からステップ4220に進むことによって、現在のスキャン位置に対応する画素要素の読み取られていない行を有する画像センサ1〜Xの各々が、現在のスキャン位置に対応する行の画素値を読み出すことを理解されたい。
ステップ4220では、現在のスキャン位置が次のスキャン位置に更新され、たとえば、現在のスキャン位置が1つ増分される。現在のスキャン位置が増分されるにつれて、画像のスキャンが次のスキャンラインに移動し、このことによって、スキャンラインが、順に、たとえばシーンエリアの上部から下部までのスキャンと仮定して、画像の上部から画像の下部まで、通過することになる。
動作はステップ4220からステップ4222に進み、ステップ4222では、ステップ4220で更新されたばかりの現在のスキャン位置が関心シーンの最後のスキャン位置値を超えるかどうかに関して決定がなされる。現在のスキャン位置が関心シーンエリアの最後のスキャン位置を超える場合、画像センサ読み出しの結果として関心シーンが完全にスキャンおよびキャプチャされたことが示される。しかしながら、ステップ4222において、現在のスキャン位置値が関心シーンエリアの最後のスキャン位置値を超えないと決定される場合、動作は、現在のシーンエリア位置に対応する画素要素の行を有する画像センサの読み取られていない画素要素行が読み出されるようにステップ4206に進む。
カメラ光学変化およびその対応する画像センサが対象とするシーンの焦点距離およびエリアが、図42の実施形態において画像センサの画素値の行が特定の時点で読み出されるかどうかに影響を与えることを理解されたい。画像センサ読み出しはスキャン位置に基づいて制御されるので、複数の画像センサのセンサ読み出しは、協調された方式で行われる。画素値の画像センサ読み出しは、図42の実施形態では協調されるが、いくつかの画像センサの読み出しは、1つまたは複数の他のセンサの読み出しが完了される前に、カメラデバイス構成に応じて行われ得る。
一般に、図42の実施形態では、より小さい焦点距離を有し、したがって関心シーンエリアのより大きい部分に対応するカメラ光学チェーン画像に対応する画像センサの読み出しは、同じ数の画素要素の行を有するが、より大きい焦点距離を有し、したがって全体的な関心シーンエリアのより小さい部分に対応する画像センサの読み出しよりも遅い速度で行われる。
全関心シーンエリアがスキャンされると、動作はステップ4222からステップ4224に進み、ステップ4224では、第1〜第Xの画像センサから読み出された画像たとえば画素値のセットが、メモリ内に格納される。次いで、ステップ4224では、キャプチャされた画像は、格納および/または出力され得る、たとえば送信および/または表示され得る合成画像を生成するために、たとえばプロセッサ110によって処理される。ステップ4226で実行される合成画像の生成は、合成画像を生成するために使用可能であり、さまざまな実施形態では使用される、少なくともいくつかの画像結合プロセスに関して上記で説明されたものなどの重み付け和手法を使用して、異なる画像センサによってキャプチャされた画像の画素値を結合することを含む、さまざまな手段のいずれかにおいて実行され得る。
図42の方法は、画像センサの画素要素の行を読み出すことに関して説明されていることを理解されたい。いくつかの画像センサは、動作のモードに応じて、複数の画素行の画素要素が単一の行として扱われることを可能にする。そのような「合同」読み取りは、合同で読み取られた行の各々が単一の画素値として読み出されることによって感知された画素値の総和である単一の画素値をもたらす。そのような「合同」読み取りの場合、画素値の単一の行として合同で読み出される画素要素の複数の行は、図42の方法を実施する目的で、画素要素の一行として扱われる。減少される数の画素値が画像センサから読み取られることになるが、合同読み取り手法は、動きが問題である実施形態において望ましいことがあり、できる限り短い時間で画像をキャプチャすることが望ましい。
一般に、画像センサの各々が同じ数の画素値の行を含むと仮定すると、異なる画像センサが異なる焦点距離に対応する場合、図42の実施形態において画像センサの行のフルセットを読み出すための読み出し時間は、画像センサが含まれる光学チェーンたとえばカメラモジュールの焦点距離と、所与の時刻に合同で読み出されて画素要素の単一の行として扱われる画像センサの画素要素の行の数との関数として表現可能である。
いくつかの例示的な実施形態では、たとえばカメラデバイス100などの撮像デバイスが、流れ図4100および流れ図4200の方法を実施するために使用される。そのような一実施形態では、カメラデバイス100の複数の光学チェーン130は、図12Aに示される方式で配置された光学チェーンを含み、光学チェーンのより詳細な配置および要素(たとえば、センサ、フィルタ)は、図12Bにさらに示されている。したがって、そのような一実施形態では、複数の光学チェーン130は、図12Aに関して説明された光学チェーン1202〜1234を含む。別の実施形態では、カメラデバイス100の複数の光学チェーン130は、図17Aに示される光タイプおよび配置の光学チェーンを含む。したがって、そのような一実施形態では、複数の光学チェーン130は、そのうちのいくつかは非円形のレンズを含む、図17Aおよび図17Bに関して説明された光学チェーン1702〜1734を含む。
いくつかの実施形態では、コントローラ150(センサ読み出しコントローラ289を含む)は、関心シーンエリアの第1の縁から関心シーンエリアの第2の縁まで関心シーンエリアをスキャンするように、複数の光学チェーン130に対応する複数の画像センサを制御するように構成され、関心シーンエリアの第1の縁と第2の縁は平行であり、センサコントローラ289は、スキャンの一部として、関心シーンエリアの第1の縁から第2の縁に進むスキャン位置に従って画像キャプチャを制御する。センサコントローラは、ローリングシャッターモードである複数の画像センサの中の第1のセンサを、第1のセンサが、現在のスキャン位置に対応する画素値の行を有するとき、現在のスキャン位置に対応する画素値の行を読み出すように制御し、現在のスキャン位置は経時的に変化する。いくつかの実施形態では、センサコントローラ289は、ローリングシャッターモードである複数のセンサの中の第2のセンサを、この第2のセンサが、現在のスキャン位置に対応する画素値の行を有するとき、現在のスキャン位置に対応する画素値の行を読み出すようにさらに制御し、第1の画像センサおよび第2の画像センサは関心シーンエリアの異なる部分の画像をキャプチャする。
いくつかの実施形態では、第1の画像センサは、第2のセンサによってキャプチャされない関心シーンエリアの一部分の画像をキャプチャし、第2の画像センサは、前記第1の画像センサによってキャプチャされない前記関心シーンエリアの一部分の画像をキャプチャする。
いくつかの実施形態では、複数の画像センサは、第3の画像センサ(たとえば、第3の光学チェーンに対応する)をさらに含む。いくつかのそのような実施形態では、第1の画像センサは前記関心シーンエリアの第1の部分をキャプチャし、第2の画像センサは関心シーンエリアの第2の部分をキャプチャし、関心シーンエリアの第1の部分および第2の部分は部分的に重複せず、第3の画像センサは関心シーンエリア全体をキャプチャする。これは、図12および図32を簡単に参照することによって理解可能である。たとえば、第1の部分3206は、第1の光学チェーンたとえばOC1204に対応する第1の画像センサによってキャプチャされ、第2の部分3208は、第2の光学チェーンたとえばOC1208に対応する第2の画像センサによってキャプチャされ、第3の部分3202は、第3の光学チェーンたとえばOC1228に対応する第3の画像センサによってキャプチャされる。関心シーンエリアの第1の部分と第2の部分(3206および3208)は部分的に重複せず、第3の画像センサは関心シーンエリア全体をキャプチャすることは、図32の例から理解されよう。
一実施形態では、第1のセンサおよび第2のセンサはそれぞれ、関心シーンエリアの第1の部分および第2の部分に対応し、関心シーンエリアの第1の部分の長さは、スキャンの方向において、たとえば、上部から下部まで、関心シーンエリアの第2の部分の長さよりも大きい。そのような一実施形態では、センサコントローラ289は、第2の画像センサの読み出しよりも長い持続時間を有するように第1の画像センサの読み出しの持続時間を制御するように構成される。
いくつかの実施形態では、第1の画像センサは、第1の焦点距離を有する光学チェーンたとえばOC1204に対応し、前記第2の画像センサは、第2の焦点距離を有する光学チェーンたとえばOC1234に対応する。いくつかのそのような実施形態では、コントローラ289は、第1の画像センサおよび第2の画像センサが対応する個々の光学チェーンの焦点距離の関数として、第1の画像センサおよび第2の画像センサから画素行が読み取られる速度を制御するように構成される。いくつかの実施形態では、第1の画像センサの画素サイズは、第2の画像センサの画素サイズと同じである。いくつかの実施形態では、第1の焦点距離は、第2の焦点距離のN倍である。そのような実施形態では、センサコントローラは、画素値の行が第2の画像センサから読み出される速度よりもN倍速い速度に第1の画像センサからの画素値の読み出しの持続時間を制御するようにさらに構成される。いくつかの実施形態では、第1の画像センサと第2の画像センサは、画素の同じ総数の行および列を含む。
いくつかの実施形態では、複数の画像センサ(複数の光学チェーン130に対応する)は、関心シーンエリアの実質的に重複しない部分をキャプチャする複数の画像センサを含み、複数のセンサによってキャプチャされる関心シーンエリアの部分の合併は、関心シーンエリアを包含する。いくつかの実施形態では、複数の画像センサは、偶数のセンサを含む。いくつかの実施形態では、偶数の画像センサは4つである。
一実施形態では、第1の画像センサによってキャプチャされる関心シーンエリアの第1の部分は、第2の画像センサによってキャプチャされる関心シーンエリアの第2の部分に先行するスキャンロケーションで始まる。一実施形態では、関心シーンエリアの第2の部分は、前記関心シーンエリアの中心に対応する。いくつかのそのような実施形態では、複数の画像センサ(複数の光学チェーンに対応する)は5つの画像センサを含み、そのうちの4つは、関心シーンエリアの実質的に重複しない部分をキャプチャする。いくつかのそのような実施形態では、関心シーンエリアの第2の部分の第1〜第4の異なるコーナー部分は、前記5つのセンサのうちの残りの4つのセンサによってキャプチャされる関心シーンエリアの異なる対応する部分に重なる。この配置は、図32を簡単に参照することによって理解可能である。シーンエリア3216(中心にある)の4つのコーナーは、4つのセンサ(4つの光学チェーンに対応する)によってキャプチャされる関心シーンエリアの異なる部分(シーンエリア3206、3208、3212、3214)に重なることが理解されよう。
いくつかの実施形態では、複数のセンサは5つのセンサを含み、そのうちの4つは関心シーンエリアの4つの異なる部分をキャプチャし、関心シーンエリアの4つの異なる部分の各々の少なくとも1つのコーナーは、関心シーンエリアの4つの異なる部分のうちの他の3つによってキャプチャされる画像部分と重ならず、第5のセンサは、関心シーンエリアの中心部分をキャプチャする。
さまざまな実施形態では、プロセッサ110は、たとえば、図42に関して説明されるセンサ読み出し動作の開始の前に、現在のスキャン位置をスキャン位置開始値に設定することによって、現在のスキャン位置を初期化する。さまざまな実施形態では、露光および読み出しコントローラ150(センサ読み出しコントローラ289を含む)は、単独で、またはプロセッサ110の指示に従って、画素値たとえば画素値の行の読み出しを同期方式で実行するようにカメラデバイスの画像センサの各々を制御する。いくつかの実施形態では、コントローラ150は、1つまたは複数の画像センサが、現在のスキャン位置に対応する画素の読み取られていない行、たとえば、読み出されることになる画素値の行を有するかどうかに関して決定するようにさらに構成される。1つまたは複数の画像センサは、現在のスキャン位置に対応する画素の読み取られていない行を有さないと決定されるとき、コントローラ150は、画素値の行の読み出しを実行するように1つまたは複数の画像センサの各々を制御する。いくつかの実施形態では、プロセッサ110は、現在のスキャン位置を次のスキャン位置に更新する、たとえば、現在のスキャン位置を1つ増分するようにさらに構成される。
方法4100および4200のさまざまな機能および/またはステップは、そのようなデバイスが汎用プロセッサおよび/または画像センサを使用することがあるとしても、カメラおよび/または画像処理の改善に関することを理解されたい。方法4100および4200の1つまたは複数のステップは、プロセッサたとえばプロセッサ110、211によって実行されるように説明されてきたが、方法4100および4200のステップのうちの1つまたは複数は、専用回路、たとえば、方法を実行する撮像デバイスの効率、精度、および/または動作能力を改善する、ASIC、FPGA、および/または他の特定用途向け回路によって実施され得、いくつかの実施形態では、実施されることを理解されたい。いくつかの実施形態では、専用ハードウェアたとえば回路、および/または専用ハードウェアとソフトウェアの組み合わせが、方法4100および4200の1つまたは複数のステップを実施する際に利用され、その中で、方法を実施する撮像デバイスたとえばカメラに追加の画像処理効率、精度、および/または動作能力を提供する。図43は、別の例示的な実施形態による、複数の光学チェーンたとえばカメラモジュールを同期方式で使用して関心シーンエリアをキャプチャする方法4300のステップを示す。説明の目的で、異なる光学チェーンの画像センサによって実行される異なるシーンエリアに対応する画像のキャプチャは、図12Aに示される光学チェーンを参照し、それを例のベースとして使用することによって説明される。図12Aの例で先に説明されたように、3つの異なる焦点距離すなわちf1、f2、およびf3が使用されており、ここで、f1<f2<f3であり、同じ焦点距離関係が、説明のために考えられる。
方法4300は、たとえば、カメラデバイスたとえばカメラ100のユーザが、関心シーンエリアの画像のキャプチャをトリガするためにボタンを押すまたは別の行動を起こすとき、ステップ4302で開始する。ステップ4304では、露光および読み出しコントローラ150(センサ読み出しコントローラ289を含む)は、単独で、またはプロセッサ110の指示に従って、同時に、たとえば、並行して、関心シーンエリアの一部分に対応する画素値を読み出すように複数の光学チェーン130を制御する。複数たとえば2つ以上の光学チェーン130は、残りの光学チェーン130たとえば関心シーンの異なる部分を対象とする光学チェーンのうちの1つまたは複数を同時に読み出すように動作されるが、他の画像センサが画素値を読み出している間、画素値を読み出すように制御されないことがあることを理解されたい。方法4300の少なくとも1つの実装形態では、複数の光学チェーン130は、第1の焦点距離(f2)を有する第1の光学チェーンたとえば光学チェーン1204)と、第2の焦点距離(f1)を有する第2の光学チェーンたとえば光学チェーン1234とを含む。画像センサの読み出しの一部として、関心シーンエリアの異なる部分は、異なる時刻に、たとえばローリングシャッターとして、読み出され、読み出しは、画像センサの上部から画像センサの下部に下降し、画像センサの上部はローリングシャッター読み出しの開始に対応し、画像センサの下部は、読み出されることになる最後の行に対応する。センサ読み出しの同期を容易にするために、少なくとも1つの実施形態では、異なる光学チェーンの画像センサの上部および下部は、画素値の行の読み出しが容易に同期可能であるように同じ方向に配置される。しかしながら、光学チェーンの異なる画像センサに対する均一スキャンおよびしたがって読み出し方向の使用は、少なくともいくつかの実施形態に対して使用されるとしても、すべての実施形態にとって必須ではない。
画像センサは、たとえば実施されたローリングシャッター制御に従って画素行読み出しを順次実行するように制御されるので、関心シーンエリアの異なる部分は、異なる時刻に1つまたは複数の光学チェーンのセンサから読み出され、一方、関心シーンエリアの一部分に対応する画素値の読み出しは、関心シーンエリアの同じ部分に対応する画素値の行を並行して読み出す複数の光学チェーンのセンサとの同期方式で行われる。
少なくともいくつかの実施形態では、ステップ4304は、さまざまなサブステップを含む。ステップ4304は、第1の光学チェーンに含まれる第1の画像センサおよび第2の光学チェーンに含まれる第2の画像センサの同期されたローリングシャッター読み出しを実施するステップ4306を含む。したがって、第1の光学チェーンおよび第2の光学チェーンの第1の画像センサおよび第2の画像センサは、第1の光学チェーンの第1の画像センサの読み出しを制御するために使用される第1のローリングシャッターのタイミングおよび第2の画像センサすなわち第2の光学チェーンの画像センサの読み出しを制御するために使用される第2のローリングシャッターのタイミングの動作を考慮に入れる同期された様式で読み出される。
ステップ4306の一部として、ステップ4308および4310は実行され得、さまざまな実施形態では、実行される。ステップ4308では、第1の光学チェーンの第1の画像センサは、第1の画像センサの上縁で始まり第1の画像センサの下縁に進む画素値の行を順次読み出すように制御され、第1の光学チェーンの第1の画像センサの上縁は、第1の画像センサのローリングシャッター制御された読み出しの一部として最初に読み出される画素値の行に対応する。ステップ4310では、第2の光学チェーンの第2の画像センサは、第2の画像センサの上縁で始まる画素値の行を順次読み出すように制御される。第2の画像センサの読み出しは、第2の画像センサの下縁に進み、第2の光学チェーンの第2の画像センサの上縁は、第2の画像センサのローリングシャッター制御された読み出しの一部として最初に読み出される画素値の行に対応する。この例では、第1の画像センサおよび第2の画像センサは、これらが両方とも、方法を実施するカメラデバイスたとえばカメラデバイス100の上部に対して同じ方向に方向づけられた上部と下部とを有するように構成される。
4300の方法は、第1の光学チェーンおよび第2の光学チェーンの第1の画像センサおよび第2の画像センサに関して説明されるが、いくつかの実施形態では、方法は、3つ以上の光学チェーンに対して、たとえばZ個の光学チェーンに対して実施され、ここで、Zは2からZの範囲内のどこにあってもよく、Zは整数であることを理解されたい。そのように、実装形態では、ステップ4306は、方法が実施される個々のZ個の光学チェーンおよびカメラデバイスの対応する画像センサの各々に対する、ステップ4308、4310に類似した読み出しステップを含む。
ステップ4306に加えて、ステップ4304はステップ4312を含む。ステップ4312では、第1の画像センサおよび第2の画像センサの読み出し速度はそれぞれ、第1の光学チェーンおよび第2の光学チェーンの焦点距離の関数として制御される。第1の光学チェーンの焦点距離(f2)が第2の光学チェーンの焦点距離(f1)よりも大きいいくつかの実施形態では、画像センサ読み出しコントローラ289は、第2の焦点距離(f1)と第1の焦点距離(f2)の比に前記第2の画像センサ内の同じ数の画素の行を読み出すために使用される時間の量をかけたものとして算出される時間の期間内に第1の画像センサ内の画素のいくつかの行を読み出すように第1の画像センサを制御する。
たとえば、第1の画像センサと第2の画像センサが同じ数の画素要素の行を有するが、第1の画像センサは、第1の焦点距離(f2)を有する第1の光学チェーン1204および第2の焦点距離(f1)を有する第2の光学チェーンたとえばモジュール1234に対応し、ここで、f2はf1の2倍である場合を考える。先に説明されたように、そのような場合では、第2の光学チェーン(f1)は、第1の光学チェーン(f2)によってキャプチャされるシーンエリアのサイズの4倍または約4倍であるシーンエリアの一部分をキャプチャする。画像キャプチャプロセスを同期させるために、第1の光学チェーン(f2)の画像センサが、時間NTR内に画素値のそのフルセットを読み取るように制御される(ここで、Nは第1の画像センサおよび第2の画像センサ上の画素要素行の数、TRは、画像センサのいずれかの上で画素要素の単一の行を読み取るために必要とされる時間である)と仮定して、より短い点距離(f1)を有する第2の画像センサは、画像センサの行のすべては個々に読み出し可能であると仮定して、時間期間2NTRにわたってその画素値の行を読み出すように制御される。
したがって、画像センサは同じ数の行を有すると仮定して、その画素値の行を読み出すように画像センサが制御される時間は、以下のとおりである。
画素要素のN個の行とf2の焦点距離とを有するセンサ1は、(f2/f2)NTRの読み出し期間を有する
画素値の個々の行の各々が個々に読み出されると仮定して、同じく画素要素のN個の行とf1の焦点距離(センサ1の焦点距離f2よりも小さい)とを有するセンサ2は、NTR(f2/f1)=2NTR(f2=2f1であるので)の読み出し期間を有する
f2は、例で使用されている最大の焦点距離であるので、この例では分子として使用されることに留意されたい。
前述のように、動作のいくつかのモードでは、画素要素の行からの合同読み出しは、画像センサを読み出すために必要とされる時間の量を減少させるために実施され得る。生成される合成画像の全体画素カウントを最大限にするために各センサの画素要素の行が個々に読み出され、より小さい焦点距離に対応するセンサの読み出し速度は、より大きい焦点距離を有する光学チェーンに対応するセンサの関心シーンの画素値の読み出ししたがって画像部分のキャプチャとの同期を維持するように減少されるさまざまな実施形態では、これは、すべての実施形態で発生するとは限らない。
たとえば、速い動きのキャプチャが望ましい特定の例示的な一実施形態では、より短い焦点距離に対応する画像センサの行読み出し速度を低速化させるのではなく、合同読み出し動作が、より大きい焦点距離に対応する画像センサの行に対して実行される。前述のように、合同読み出しでは、画素値の複数の行が合同で読み出され、たとえば、2行の合同読み取りが実施されるとき、画素値の2行は、単一の行として同じ数の画素値を提供する。Mの係数による合同読み取りは、同じ係数による画素値の行の減少をもたらすが、画像センサ読み出しは、時間のM分の1で完了される。
少なくとも1つの実施形態では、短い焦点距離、たとえば、合成画像を形成するために結合される画像をキャプチャするために使用されることになる最大焦点距離よりも短い焦点距離を有する光学チェーンに対応する1つまたは複数のセンサの読み出し速度を低速化するのではなく、より長い焦点距離を有するセンサの画素行の合同読み出しが実施され、合同で読み出される行の数は、焦点距離の差の関数として制御される。たとえば、f2がf1の2倍である場合、一実施形態では、Mは、f2焦点距離に対応するセンサの読み出しが、より短い焦点距離f1を有する光学チェーンに対応する第2のセンサから画素値の行を読み出すために使用される時間の半分で完了できるように、2に等しく設定される。
そのような場合、最短焦点距離を有するセンサの画素行を読み出すために必要とされる時間は、複数の画像センサが読み出しを完了する時間的制約として働き、より大きい焦点距離を有するセンサは、行読み出しの数を、より大きい焦点距離とより小さい焦点距離の比によって決定される係数に基づく合同読み取り動作の使用によって減少させる。たとえば、f2がf1よりも2倍大きい場合、f2焦点距離を有する光学チェーンに対応するセンサは、2という合同読み取り係数によって実施される合同読み取りを使用して読み出される。
このようにして、異なる焦点距離を有する光学チェーンの画像センサは、関心シーンエリアの同じ部分をキャプチャするように制御可能であり、総キャプチャ時間は、単一の画像センサを読み取るために必要とされる時間に限定される。
合同読み取りは、より大きい焦点距離を有する画像センサから読み出される画素値の数を減少させるが、読み取りを実行するために必要とされる時間が減少され、画像の総画素カウントは、より短い焦点距離f1を有する光学チェーンの総画素カウント未満には減少されない。
少なくとも1つの実施形態では、ユーザは、たとえばいくつかの実施形態において画像をキャプチャするために使用される総時間を、単一の画像センサを読み取るために必要とされる時間に対応するNTRに保つように画像キャプチャ時間期間を減少させるまたは最小限にするために合同読み取りが使用される動作の動きモードと、画像キャプチャ時間を犠牲にして画像の画素カウントが最適化される動作の静止または低速動きモード、たとえば、より短い焦点距離を有する光学チェーンの画像センサに対応する画素要素行の読み出し時間期間が、より大きい焦点距離を有する光学チェーンによるシーンエリアキャプチャとのタイミング同期を達成するために増加される一実施形態とを選択する機会が提供される。
合同読み取り係数Mの潜在的使用を考慮に入れると、画素要素の同じ数の行を有するが異なる焦点距離f1およびf2にそれぞれ対応する第1の画像センサおよび第2の画像センサから画素値の行を読み出すために使用される総時間は、ここでf2はf1よりも大きく、次のように表現可能である。
画素要素のN個の行を有し、f1の焦点距離(より短い焦点距離)を有する光学チェーンに対応するセンサ2は、NTRの読み出し期間を有する
同じくN個の行の画素要素を有するがf2の焦点距離(より大きい)を有する光学チェーンに対応するセンサ1は、M倍で行の合同読み取りを実行するように制御され、NTR/Mという読み出し期間を有し、ここで、画素要素のM個の行ごとに画素値の1行が読み出されると仮定して、Mは(f2/f1)に等しい。
センサ1(より大きい焦点距離f2)は、センサ2よりも短い時間で読み出しを完了するが、さまざまな実施形態では、センサ1が対応する光学チェーンと同じ焦点距離(f2)を有するが、画像エリアをキャプチャする別のセンサS3は、センサ1によってキャプチャされるエリアの下のスキャン方向に関して、画像の下方部分をキャプチャすることを理解されたい。したがって、f2がf1の2倍であると仮定すると、センサS1およびS3の読み出しは、センサ2が読み出される同じ時間期間NTRと一致するが、センサ1 S1の読み出しはNTRの前半に行われ、センサ3 S3の読み出しはNTRの後半に行われる。
上記の説明から、第1の光学チェーンおよび第2の光学チェーンの焦点距離の関数として第1の画像センサおよび第2の画像センサの読み出し速度を制御することを含むステップ4312は、カメラのオペレータによって選択される動作のモード、たとえば静止動きまたは高速動きにも依存し得ることを理解されたい。どのモードの選択は、なされ得、いくつかの実施形態では、1つまたは複数の順次キャプチャされた画像もしくは異なる時点でキャプチャされた画像の部分において検出された動きに基づいて、自動的になされる。たとえば、結合された画像の画質を画像の全体画素カウントを減少させるであろうよりも多く低下させる可能性が高い動きによりアーチファクトを引き起こす可能性が高い1つまたは複数の物体の動きが検出される場合、画素行を読み出す合同読み取り手法が使用される。
ビデオの場合、カメラデバイスは、最良品質の合成画像を作り出すために動作のどのモードで動作するかに関して更新された決定を行い得、いくつかの実施形態では、これを行う。前記決定の結果として、カメラデバイスは、動作のモードと、あるフレーム時間から次のフレーム時間まで使用される画像キャプチャ同期技法を切り換え得る。これが、異なる数の画素を有する同じビデオシーケンスに対応する異なる合成画像をもたらすことがあるが、全体的な画質は最大にされる。
いくつかの実施形態では、そのような動的な切り換えがサポートされるが、他の実施形態では、同期技法および動作のモードが決定されると、そのモードは、ビデオシーケンス内の画像の画素要素の数が1つの合成画像当たりで一定のままであるように、ビデオシーケンスにわたって維持される。
理解されるべきであるように、第3のセンサが、別の画像センサたとえば第1の画像センサによってキャプチャされた画像部分の下方(スキャン方向に関して)設置される関心シーンエリアの画像部分をキャプチャする、複数の画像センサの同期された読み出しの場合、第3の画像センサからの画素値の読み出しは、第1の画像センサからの画素値の読み出しに続く。
したがって、少なくとも1つの実施形態では、ステップ4304はステップ4314を含み、ステップ4314では、第3の光学チェーンたとえば光学チェーン1218の第3の画像センサは、画素値の最後の行が第1の画像センサから読み出された後、関心シーンの第3の部分に対応する画素値を読み出すように制御される。いくつかの実施形態では、前記関心シーンエリアの第3の部分は、前記関心シーンエリアの前記第1の部分の下方(スキャンの方向において)に位置決めされる。いくつかのそのような実施形態では、第1の画像センサは関心シーンエリアの第1の部分をキャプチャし、第2の画像センサは、第1の部分よりも大きい関心シーンエリアの第2の部分をキャプチャする。いくつかのそのような実施形態では、第2の画像センサ(より小さい焦点距離の光学チェーンに対応する)は、結合された第1の画像センサおよび第3の画像センサと実質的に同じ画像エリアを、しかし第1の画像センサと第3の画像センサのいずれかの読み出し時間よりも長い読み出し時間中に、キャプチャする。
そのような一実施形態では、第1の画像センサに対応する画素値は、第2の画像センサから画素値が読み出される時間期間中に読み出され得るが、第1の画像センサの読み出し時間と第3の画像センサの読み出し時間は重複しないことを理解されたい。
しかしながら、第1の画像センサおよび第3の画像センサが関心シーンの重複する部分をキャプチャするように制御される実施形態では、重複するシーン部分に対応する画素行の読み出しは、第1の画像センサおよび第3の画像センサから同時に読み出され得る。
ステップ4304から、動作はステップ4316に進み、ステップ4316では、ステップ4304で制御された画像センサから読み出された画像は、その後の処理のためにメモリ内に格納される。動作は、次いでステップ4318に進む。ステップ4318では、たとえばステップ4304において、同期方式で異なる光学チェーンによってキャプチャされた画像は、合成画像を生成するために結合される。
ビデオの場合、ステップ4304、4316、および4318は、各フレーム時間に対して実行され、たとえば、1つの合成画像が各フレーム時間に対して生成される。
いくつかの実施形態では、動作はステップ4318からステップ4320に進む。ステップ4320では、ステップ4318で生成された合成画像は、メモリ内に格納され、送信され、および/またはたとえばディスプレイ102上に表示される。
いくつかの実施形態では、合成画像の生成はカメラデバイス100内で行われ、次いで、合成画像が表示または送信されるが、他の実施形態では、合成画像は、たとえばキャプチャ処理後プロセスおよび/またはビデオ作製プロセスの一部として、プロセッサによって生成される。そのような実施形態では、合成画像の生成は、関心シーンエリアの画像をキャプチャするために使用される光学チェーン130を含むカメラデバイス100のメモリとプロセッサとディスプレイと異なるメモリとプロセッサとディスプレイを含むコンピュータシステム上で行われ得る。
いくつかの例示的な実施形態では、たとえばカメラデバイス100などの撮像デバイスが、流れ図4300の方法を実施するために使用される。そのような一実施形態では、カメラデバイス100の複数の光学チェーン130は、図12Aに示される方式で配置された光学チェーンを含み、光学チェーンのより詳細な配置および要素は、図12Bにさらに示されている。別の実施形態では、カメラデバイス100の複数の光学チェーン130は、図17Aに示されるタイプおよび配置の光学チェーンを含む。
一実施形態では、コントローラ150(画像センサ読み出しコントローラ289を含む)は、前記関心シーンエリアの一部分に対応する画素値を同時に読み出すように複数の光学チェーンを制御するように構成され、複数の光学チェーン130は、第1の焦点距離(f2)を有する第1の光学チェーン1204と、第2の焦点距離(f1)を有する第2の光学チェーン1234とを含み、第2の焦点距離は第1の焦点距離と異なり、前記関心シーンエリアの異なる部分は異なる時刻に読み出される。さまざまな実施形態では、コントローラ150は、からの第1の光学チェーン1204に含まれる第1の画像センサおよび第2の光学チェーン1234に含まれる第2の画像センサ同期されたローリングシャッター読み出しを実施するように構成される。
いくつかの実施形態では、コントローラ150は、第1の画像センサのローリングシャッター読み出しを実施することの一部として画素値の行に対応する第1の光学チェーンの第1の画像センサの上縁を最初に読み取るように構成され、ローリングシャッター読み出しは、第1の画像センサの上縁で始まり第1の画像センサの下縁まで進む画素値の行の順次読み出しを含む。さまざまな実施形態では、コントローラ150は、第2の画像センサのローリングシャッター読み出しの一部として画素値の行に対応する第2の光学チェーンの第2の画像センサの上縁を最初に読み取るようにさらに構成され、第2の画像センサのローリングシャッター読み出しは、第2の画像センサの上縁で始まり第2の画像センサの下縁まで進む画素値の行の順次読み出しを含み、第1の画像センサおよび第2の画像センサのスキャン方向(上部から下部まで)は同じである。図43に関して説明される例では、画像センサのスキャンの上部から下部の方向が考えられているが、しかしながら、画像センサのローリングシャッター読み出しの一部として、異なる方向における画像センサの1つの縁から別の縁までのスキャンが可能であることを理解されたい。
いくつかの実施形態では、第1の画像センサと第2の画像センサは、画素の同じ数の行を含む。いくつかの実施形態では、コントローラ150は、関心シーンエリアの一部分に対応する画素値を同時に読み出すように複数の光学チェーンを制御するように構成されることの一部として、第1の光学チェーンおよび第2の光学チェーンの焦点距離の関数として第1の画像センサおよび第2の画像センサの読み出し速度を制御するように構成される。
いくつかの実施形態では、第1の焦点距離は、第2の焦点距離よりも大きい。いくつかの実施形態では、コントローラ150は、第2の焦点距離と第1の焦点距離の比に第2の画像センサ内の画素の同じ数の行を読み出すために使用される時間の量をかけたものとして算出される時間の期間内に第1の画像センサ内の画素のいくつかの行を読み出すように第1の画像センサを制御するようにさらに構成される。たとえば、第1の光学チェーンおよび第2の光学チェーンにそれぞれ対応する第1のセンサおよび第2のセンサの両方は、画素要素のN個の行を有する第2の光学チェーンの焦点距離がFS2であり、第1の光学チェーンの焦点距離がFS1であり、と考えてみる。センサ2からN個の行を読み取るのに時間TS2がかかる場合、コントローラ150は、時間期間TS1=(FS2/FS1)×TS2内にセンサ1の読み出しを制御する。
いくつかの実施形態では、第1の焦点距離は、第2の焦点距離の2倍である。そのような実施形態では、コントローラ150は、第1の画像センサを読み出すために使用される第1の時間期間の2倍の長さである時間期間にわたって完全に読み出されるように第2の画像センサを制御するようにさらに構成される。
さまざまな実施形態では、第1の画像センサは関心シーンエリアの第1の部分をキャプチャし、第2の画像センサは、第1の部分よりも大きい関心シーンエリアの第2の部分をキャプチャする。いくつかのそのような実施形態では、コントローラ150は、画素値の最後の行が第1の画像センサから読み出された後、関心シーンエリアの第3の部分に対応する画素値を読み出すように第3の光学チェーンたとえば光学チェーン1218の第3の画像センサを制御するようにさらに構成され、関心シーンエリアの第3の部分は関心シーンエリアの第1の部分の下方に位置決めされる。いくつかの実施形態では、第2の画像センサは、少なくとも第1の画像センサおよび第3の画像センサのキャプチャと実質的に同じ画像エリアを、しかし第1の画像センサと第3の画像センサのいずれかの個別読み出し時間よりも長い読み出し時間中に、キャプチャする。
さまざまな実施形態では、センサ読み出し動作の一部としてセンサによってキャプチャされる画像は、デバイスメモリたとえばメモリ108内に格納される。いくつかの実施形態では、これらの画像のうちの1つまたは複数は、合成画像を生成することの一部としてさらに処理される。いくつかの実施形態では、プロセッサ110は、2つ以上のキャプチャされた画像を結合することによって合成画像を生成するように構成される。いくつかの実施形態では、プロセッサ110は、メモリ108内での生成された合成画像の格納、および/またはディスプレイ102上での合成画像の出力、および/またはインターフェース114などのインターフェースを介した別のデバイスへのキャプチャされた画像もしくは合成画像の送信を制御するようにさらに構成される。
方法4300のさまざまな機能および/またはステップは、そのようなデバイスが汎用プロセッサおよび/または画像センサを使用することがあるとしても、カメラおよび/または画像処理の改善に関することを理解されたい。たとえば合成画像生成ステップなどの方法4300の1つまたは複数のステップは、プロセッサたとえばプロセッサ110、211によって実行されるように説明されてきたが、方法4300のステップのうちの1つまたは複数は、専用回路、たとえば、方法を実行する撮像デバイスの効率、精度、および/または動作能力を改善する、ASIC、FPGA、および/または特定用途向け回路によって実施され得、いくつかの実施形態では、実施されることを理解されたい。いくつかの実施形態では、専用ハードウェアたとえば回路、および/または専用ハードウェアとソフトウェアの組み合わせが、方法4300の1つまたは複数のステップを実施する際に利用され、その中で、方法を実施する撮像デバイスたとえばカメラに追加の画像処理効率、精度、および/または動作能力を提供する。
図44は、例示的な一実施形態による、複数の光学チェーンを使用して画像をキャプチャする例示的な方法のステップを示す流れ図4400を示す。この方法は、例示的な一実施形態により画像をキャプチャするように、たとえば、図1、図6、図8、および/または図14に示される撮像デバイスなどの、撮像デバイスを制御することを含む。流れ図4400の方法を実施するカメラデバイスは、図1および/または図4Aのカメラデバイスと同じまたは類似の要素を含むことができ、場合によっては、これを含む。
流れ図4400の方法は、図1のカメラ100などのカメラデバイスを使用して実行可能であり、いくつかの実施形態では、実行される。そのような一実施形態では、カメラデバイス100の複数の光学チェーン130は、図12Aに示されるような方式で配置された光学チェーンたとえばカメラモジュールを含み、光学チェーンのより詳細な配置および要素は、図12Bにさらに示されている。別の実施形態では、カメラデバイス100の複数の光学チェーン130は、図17Aに示されるタイプおよび配置の光学チェーンを含む。そのような一実施形態では、複数の光学チェーン130は、図17Aおよび図17Bに関して説明された光学チェーン1702〜1734を含む。
例示的な方法はステップ4402で開始し、たとえば、ユーザは関心シーンエリアのキャプチャを始め、このことが、カメラデバイスたとえばカメラデバイス100に、1つまたは複数の光学チェーンによる関心シーンエリアの画像キャプチャを始めさせる。説明の目的で、カメラデバイスが複数の光学チェーンを含み、光学チェーンの各々は独立して動作および制御可能であると考える。
動作は、ステップ4402から、画像キャプチャ動作を伴うステップ4404、4406、4408、4410、4412、4414、および4416に進む。画像キャプチャ動作は、同期方式で実行され得、いくつかの実施形態では、実行される。少なくともいくつかの同期される実施形態では、異なる光学チェーンの必ずしもすべてでないがいくつかによってキャプチャされる画像は、同じまたは重複する時間期間に対応する。他の実施形態では、画像キャプチャが同期されるのではなく、キャプチャされた画像のうちの複数の画像が、同じまたは重複する時間期間中にキャプチャされる。さらに他の実施形態では、少なくともいくつかの画像が順次、たとえばすばやく連続して、キャプチャされる。逐次的な画像キャプチャは、シーンエリアの異なる部分に対応する画像をキャプチャするために使用され得、いくつかの実施形態では、使用される。
ステップ4404では、カメラデバイスの第1の光学チェーンは、関心シーンエリアの第1の部分の第1の画像をキャプチャするために使用され、第1の光学チェーンは、第1の光軸と、第1の最も外側のレンズとを有する。いくつかの実施形態では、関心シーンエリアは、全画像キャプチャエリアよりもやや小さいことがある。動作は、ステップ4404からステップ4418に進む。ステップ4418は、必ずしもすべてではないがいくつかの実施形態において実行される。ステップ4418がスキップされるいくつかの実施形態では、動作は、直接ステップ4420に進む。
ステップ4406では、シーンエリアの第2の部分の第2の画像がカメラデバイスの第2の光学チェーンを使用してキャプチャされ、第2の光学チェーンは、第1の光軸と平行でない第2の光軸と、第1の最も外側のレンズとは別個である第2の最も外側のレンズとを有する。したがって、さまざまな実施形態では、各光学チェーンは、各光学チェーンが異なる外側レンズを有することにより物理的に共通部分がなく(disjoint)重複しない入射瞳を有することを理解されたい。いくつかの実施形態では、第1の光軸および第2の光軸は、カメラの前面に垂直でない。いくつかの実施形態では、第1の光学チェーンと第2の光学チェーンは同じ焦点距離を有する。動作は、ステップ4406からステップ4418に進む。
ステップ4408では、関心シーンエリアたとえば関心シーンエリア全体を含む第3の画像が、前記第1の最も外側のレンズおよび前記第2の最も外側のレンズとは別個である第3の最も外側のレンズを有するカメラデバイスの第3の光学チェーンを使用してキャプチャされる。いくつかの実施形態では、第3の光学チェーンは、第1の光軸または第2の光軸のいずれと平行でない第3の光軸を有する。いくつかの実施形態では、第3の光学チェーンの焦点距離は、第1の光学チェーンおよび第2の光学チェーンのうちの少なくとも1つの焦点距離よりも小さい。いくつかの実施形態では、第3の光学チェーンの焦点距離は、第1の光学チェーンの焦点距離よりも小さい。いくつかの実施形態では、第3の光学チェーンの焦点距離は、第2の光学チェーンの焦点距離よりも小さい。いくつかの実施形態では、第3の光学チェーンの焦点距離は、第1の光学チェーンおよび第2の光学チェーンの焦点距離よりも小さい。いくつかの実施形態では、第3の光軸はカメラデバイスの前面に垂直である。いくつかの実施形態では、第1の光学チェーンは、第1のセンサを使用して第1の画像をキャプチャし、第3の光学チェーンは、第3のセンサを使用して第3の画像をキャプチャする。動作は、ステップ4408からステップ4418に進む。
ステップ4410では、第4の画像が、前記第1の最も外側のレンズ、前記第2の最も外側のレンズ、および前記第3の最も外側のレンズとは別個である第4の最も外側のレンズを有するカメラデバイスの第4の光学チェーンを使用してキャプチャされ、第4の画像は関心シーンエリアの第2の画像を含む。いくつかの実施形態では、第3の光学チェーンは第3の光軸を有し、第4の光学チェーンは第4の光軸を有する。いくつかの実施形態では、第3の光軸と第4の光軸は互いと平行である。いくつかの実施形態では、第3の光軸および第4の光軸は、第1の光軸または第2の光軸と平行でない。いくつかの実施形態では、第3の光軸および第4の光軸は、カメラの前面に垂直である。いくつかの実施形態では、第4の光学チェーンは、第3の光学チェーンの焦点距離と同じである焦点距離を有する。動作は、ステップ4410からステップ4418に進む。
ステップ4412では、第5の画像が、第5の光軸を有するカメラデバイスの第5の光学チェーンを使用してキャプチャされ、第5の画像は関心シーンエリアの第3の部分の画像であり、第5の光軸は第1の光軸および第2の光軸と平行でない。したがって、第5の光学チェーンは、関心シーンエリアの一部たとえば4分の1または半分の部分をキャプチャする。動作は、ステップ4412からステップ4418に進む。
ステップ4414では、第6の画像が、第1の光軸、第2の光軸、または第5の光軸と平行でない第6の光軸を有するカメラデバイスの第6の光学チェーンを使用してキャプチャされ、第6の画像は関心シーンエリアの第4の部分の画像である。動作は、ステップ4414からステップ4418に進む。いくつかの実施形態では、第1の画像、第2の画像、第5の画像、および第6の画像は各々、第1の数の画素値を有する。
ステップ4416では、第7のシーンエリアの第7の画像が、第1の光学チェーンと同じ焦点距離を有するカメラデバイスの第7の光学チェーンを使用してキャプチャされ、第7の光学チェーンは、カメラの面に垂直な光軸を有する。いくつかの実施形態では、第7のシーンは関心シーンエリアの中心にある。動作は、ステップ4416からステップ4418に進む。
ここで、ステップ4418に戻る。ステップ4418では、1つもしくは複数のキャプチャされた画像、たとえば、第1の画像、第2の画像、第3の画像、第4の画像、第5の画像、第6の画像、および/もしくは第7の画像が、たとえばデバイスメモリ内に格納され、ならびに/またはたとえば、ディスプレイデバイスに、および/もしくはインターフェースを介して外部デバイスに出力される。いくつかの実施形態では、プロセッサ110は、メモリ108内での1つもしくは複数のキャプチャされた画像の格納および/またはディスプレイ102への1つもしくは複数のキャプチャされた画像の出力を制御する。いくつかの実施形態では、ステップ4418が実行されるが、いくつかの他の実施形態では、ステップ4418はスキップされることがある。そのような実施形態では、動作は、前のステップからステップ4420に直接進む。
さまざまな実施形態では、第2の光学チェーン、第3の光学チェーン、第5の光学チェーン、および第6の光学チェーンは、これらの光学チェーンによって撮影された関心シーンエリアの部分の画像が、異なる空間的に分離された入射瞳からのものであり、したがって異なる視点を有するような方式で配置される。異なる視点を有するそのような画像を結合することは、アーチファクトたとえば視差を導入する。これらの異なる光学チェーンによってキャプチャされたさまざまな画像を使用して生成された合成画像からのそのようなアーチファクトの影響を最小限にする、および/またはこれを緩和するために、いくつかの実施形態では、異なる視点による合成画像の歪みを回避するために画像を結合するとき視差是正を提供する奥行き情報が使用される。
ステップ4420に戻る。ステップ4420では、合成画像は、キャプチャされた画像のうちの少なくとも2つ、たとえば第1の画像と第2の画像とを結合することによって、生成される。さまざまな実施形態では、合成画像は、たとえば、方法4400のステップを実施するカメラデバイスのプロセッサ110または211などのプロセッサによって生成される。いくつかの実施形態では、ステップ4420を実行することは、ステップ4424および4426のうちの1つまたは複数を実行することを含む。いくつかの実施形態では、サブステップ4424および4426は、そのうちのいずれか1つはステップ4420を実施することの一部として実行され得る、異なる代替形態である。いくつかの実施形態では、ステップ4420は、ステップ4424を実行することを含み、ステップ4424では、合成画像を生成することの一部として、少なくとも前記第1の画像、前記第2の画像、前記第3の画像、および前記第4の画像が結合される。そのような実施形態では、プロセッサ110は、少なくとも第1の画像と第2の画像と第3の画像と第4の画像とを結合することによって合成画像を生成するように構成される。いくつかの実施形態では、この合成画像は関心シーンエリアの合成画像であり、合成画像は、第1の画像、第2の画像、第3の画像、および第4の画像のいずれもが個々に有するよりも大きい数の画素値を有する。
いくつかの実施形態では、ステップ4420は、ステップ4426を実行することを含み、ステップ4426では、合成画像は、たとえば、少なくとも前記第1の画像、前記第2の画像、前記第3の画像、前記第4の画像、前記第5の画像、および前記第6の画像から、プロセッサ110によって生成され、合成画像は、画素値の第1の数の3倍以上であるが画素値の第1の数の6倍よりも少ない数の画素値を有する。いくつかの実施形態では、合成画像は、合成画像を生成するために結合された画素値の数の総和から生じる画素値の数よりも小さい数の画素値を含む。さまざまな実施形態では、生成される合成画像は、関心シーンエリアの画像である。いくつかの実施形態では、合成画像は、第1の画像、第2の画像、第3の画像、第4の画像、第5の画像、第6の画像、および第7の画像から生成される。
いくつかの実施形態では、動作はステップ4420からステップ4428に進む。ステップ4428では、生成された合成画像は、たとえばデバイスメモリ内に格納され、ならびに/またはたとえば、ディスプレイデバイスに、および/もしくはインターフェースを介して外部デバイスに、出力される。いくつかの実施形態では、メモリ108内での合成画像の格納、ならびに/またはたとえば、ディスプレイデバイスへの、および/もしくはインターフェースを介した外部デバイスへの出力は、プロセッサ110の制御下で実行される。
方法4400のさまざまな機能および/またはステップは、そのようなデバイスが汎用プロセッサおよび/または画像センサを使用することがあるとしても、カメラおよび/または画像処理の改善に関することを理解されたい。たとえば合成画像生成ステップなどの方法4400の1つまたは複数のステップは、プロセッサたとえばプロセッサ110、211によって実行されるように説明されてきたが、方法4400のステップのうちの1つまたは複数は、専用回路、たとえば、方法を実行する撮像デバイスの効率、精度、および/または動作能力を改善する、ASIC、FPGA、および/または特定用途向け回路によって実施され得、いくつかの実施形態では、実施されることを理解されたい。いくつかの実施形態では、専用ハードウェアたとえば回路、および/または専用ハードウェアとソフトウェアの組み合わせが、方法4400の1つまたは複数のステップを実施する際に利用され、その中で、方法を実施する撮像デバイスたとえばカメラに追加の画像処理効率、精度、および/または動作能力を提供する。
図45は、画像をキャプチャする例示的な方法のステップを示す流れ図6700を示す。画像は、厚さDを有する前表面と後表面とを有するカメラハウジングを含むカメラデバイスに含まれる複数の光学チェーンを使用してキャプチャされ得、いくつかの実施形態では、キャプチャされ、Dは、前表面と後表面との間の距離である。一実施形態では、流れ図6700の方法は、たとえば図13Bに示されるカメラデバイス1320などのカメラデバイスを使用して画像をキャプチャするために実施可能である。カメラデバイスは複数の光学チェーンを含み、光学チェーンの各々は独立して動作および制御可能である。流れ図6700の方法を実施するカメラデバイスは、図1および/または図4Aのカメラデバイスと同じまたは類似の要素を含むことができ、場合によっては、これを含む。したがって、方法6700を実施するカメラデバイスは、プロセッサと、メモリと、インターフェースと、図1および図4Aに関して説明された他の要素とを含むことを理解されたい。
例示的な方法はステップ6702で開始し、たとえば、ユーザは関心シーンエリアのキャプチャを始め、このことが、カメラデバイスたとえばカメラデバイス1320に、1つまたは複数の光学チェーンによる関心シーンエリアの画像キャプチャを始めさせる。動作は、ステップ6702から、画像キャプチャ動作を伴うステップ6704、6706、6708、および6710に進む。画像キャプチャ動作は、同期方式で実行され得、いくつかの実施形態では、実行される。少なくともいくつかの同期される実施形態では、異なる光学チェーンの必ずしもすべてでないがいくつかによってキャプチャされる画像は、同じまたは重複する時間期間に対応する。他の実施形態では、画像キャプチャが同期されるのではなく、キャプチャされた画像のうちの複数の画像が、同じまたは重複する時間期間中にキャプチャされる。さらに他の実施形態では、少なくともいくつかの画像が順次、たとえばすばやく連続して、キャプチャされる。逐次的な画像キャプチャは、シーンエリアの異なる部分に対応する画像をキャプチャするために使用され得、いくつかの実施形態では、使用される。
ステップ6704では、第1の画像が、カメラハウジング内の第1の光学チェーンを使用してキャプチャされ、この第1の光学チェーンは、i)第1の光方向変換デバイスと、ii)非円形の絞りを有する第1のレンズと、iii)センサとを含み、第1の光学チェーンは、光方向変換デバイスの前の第1の光軸部分と光方向変換デバイスからセンサまで延在する第2の光軸部分とを含む光軸を有し、第1のレンズは第2の光軸部分上にあり、非円形の絞りは、カメラの厚さの方向に沿った第1の方向においてDよりも小さいまたはこれに等しい長さと、第1の方向に垂直な第2の方向に沿ってDよりも大きい長さとを有する。いくつかの実施形態では、第1のレンズは、第2の光軸部分上の光方向変換デバイスに最も近いレンズである。流れ図6700の方法を実施するために使用可能な例示的なカメラデバイスのさまざまな要素および/または構造上の特徴は、カメラハウジング1322、厚さ1323、前表面1321、および後表面1325などのそのような特徴を示す図13Bから理解できる。動作は、ステップ6704からステップ6712に進む。
ステップ6706では、第2の画像が、カメラハウジング内の第2の光学チェーンを使用してキャプチャされ、第2の光学チェーンは、i)第2の光方向変換デバイスと、ii)第2の非円形の絞りを有する第2のレンズと、iii)第2のセンサとを含み、第2の光学チェーンは、第2の光方向変換デバイスの前の第3の光軸部分と第2の光方向変換デバイスから第2のセンサまで延在する第4の光軸部分とを含む光軸を有し、第2の非円形の絞りは、カメラの厚さに沿って第1の方向においてDよりも小さいまたはこれに等しい長さと、カメラの厚さの方向に垂直な第3の方向に沿ってDよりも大きい長さとを有し、第2の方向と第3の方向は異なる。いくつかの実施形態では、第2の方向と第3の方向は、互いに対して90度の角度をなす。動作は、ステップ6706からステップ6712に進む。
ステップ6708では、第3の画像が、第3の光学チェーンを使用してキャプチャされ、第3の光学チェーンは、i)第3の光方向変換デバイスと、ii)第3の非円形の絞りを有する第3のレンズと、iii)第3のセンサとを含み、第3の光学チェーンは、第3の光方向変換デバイスの前の第5の光軸部分と第3の光方向変換デバイスから第3のセンサまで延在する第6の光軸部分とを含む光軸を有し、第3の非円形の絞りは、カメラの厚さに沿って第1の方向においてDよりも小さいまたはこれに等しい長さと、カメラの厚さの方向に垂直な第4の方向に沿ってDよりも大きい長さとを有し、第1の方向と第2の方向と第3の方向は異なる。いくつかの実施形態では、第2の方向と第3の方向は、互いに対して90度の角度をなし、第2の方向と第4の方向は、互いに対して30度から60度の間の角度をなす。動作は、ステップ6708からステップ6712に進む。
同様に、図に示されるいくつかの実施形態では、カメラデバイス内の1つまたは複数の追加光学チェーンが、追加画像をキャプチャするために使用可能である。追加光学チェーンが追加画像をキャプチャするために使用されるいくつかのそのような実施形態では、ステップ6710が実行される。ステップ6710では、第Zの画像が、第Zの光学チェーンを使用してキャプチャされ、第Zの光学チェーンは、i)第Zの光方向変換デバイスと、ii)非円形の絞りを有する第Zのレンズと、iii)第Zのセンサとを含み、第Zの光学チェーンは、第Zの光方向変換デバイスの前の光軸部分と第Zの光方向変換デバイスからセンサまで延在する別の光軸部分とを含む光軸を有し、非円形の絞りは、カメラの厚さに沿って第1の方向においてDよりも小さいまたはこれに等しい長さと、カメラの厚さの方向に垂直な方向に沿ってDよりも大きい長さとを有する。動作は、ステップ6710からステップ6712に進む。いくつかの実施形態では、上記で説明された複数の光学チェーンによってキャプチャされるさまざまな画像は、同じ時間期間内でキャプチャされる。
ここで、ステップ6712に戻る。ステップ6712では、1つまたは複数のキャプチャされた画像、たとえば、第1のキャプチャされた画像、第2のキャプチャされた画像、第3のキャプチャされた画像などは、本発明の特徴によるさらなる処理のために、たとえばデバイスメモリ内に格納され、ならびに/またはたとえば、ディスプレイデバイスに、および/もしくはインターフェースを介して外部デバイスに出力される。動作は、ステップ6712からステップ6714に進む。ステップ6714では、合成画像は、キャプチャされた画像のうちの少なくとも2つ以上を結合することによって、生成される。さまざまな実施形態では、合成画像は、たとえば、方法6700のステップを実施するカメラデバイスのプロセッサ110または211などのプロセッサによって生成される。さまざまな実施形態では、生成される合成画像は、関心シーンエリアの画像である。いくつかの実施形態では、複数の光学チェーンのうちの少なくともいくつかは、関心シーンエリアの一部分をキャプチャし、次いで、キャプチャされた部分は、合成画像を生成するために本発明の方法により結合され得る。ステップ6714は、必ずしもすべてではないがいくつかの実施形態において実行される。
動作は、ステップ6714からステップ6716に進む。ステップ6716では、生成された合成画像は、たとえばデバイスメモリ内に格納され、ならびに/またはたとえば、ディスプレイデバイスに、および/もしくはインターフェースを介して外部デバイスに、出力される。
方法6700のさまざまな機能および/またはステップは、そのようなデバイスが汎用プロセッサおよび/または画像センサを使用することがあるとしても、カメラおよび/または画像処理の改善に関することを理解されたい。たとえば合成画像生成ステップなどの方法6700の1つまたは複数のステップは、プロセッサたとえばプロセッサ110、211によって実行されるように説明されてきたが、方法6700のステップのうちの1つまたは複数は、専用回路、たとえば、方法を実行する撮像デバイスの効率、精度、および/または動作能力を改善する、ASIC、FPGA、および/または特定用途向け回路によって実施され得、いくつかの実施形態では、実施されることを理解されたい。いくつかの実施形態では、専用ハードウェアたとえば回路、および/または専用ハードウェアとソフトウェアの組み合わせが、方法6700の1つまたは複数のステップを実施する際に利用され、その中で、方法を実施する撮像デバイスたとえばカメラに追加の画像処理効率、精度、および/または動作能力を提供する。
図46は、画像をキャプチャする例示的な方法のステップを示す流れ図6800である。画像は、複数の光学チェーンを含むカメラデバイスを使用してキャプチャされ得、いくつかの実施形態では、キャプチャされる。一実施形態では、流れ図6800の方法は、たとえば図14に示されるカメラデバイス1400などのカメラデバイスを使用して画像をキャプチャするために実施可能である。カメラデバイスは複数の光学チェーンを含み、光学チェーンの各々は独立して動作および制御可能である。流れ図6800の方法を実施するカメラデバイスは、図1および/または図4Aのカメラデバイスと同じまたは類似の要素を含むことができ、場合によっては、これを含む。流れ図6800の方法を実施するために使用可能な例示的なカメラデバイスのさまざまな要素および/または特徴は、非円形の絞りのレンズを有する光学チェーン、丸いレンズを有する光学チェーン、カメラ厚さなどなどのそのような特徴を示す図14〜17から理解できる。
例示的な方法はステップ6802で開始し、たとえば、ユーザは関心シーンエリアのキャプチャを始め、このことが、カメラデバイスたとえばカメラデバイス1400に、1つまたは複数の光学チェーンによる関心シーンエリアの画像キャプチャを始めさせる。動作は、ステップ6802から、画像キャプチャ動作を伴うステップ6804、6806、6808、6810、および6812に進む。画像キャプチャ動作は、同期方式で実行され得、いくつかの実施形態では、実行される。少なくともいくつかの同期される実施形態では、異なる光学チェーンの必ずしもすべてでないがいくつかによってキャプチャされる画像は、同じまたは重複する時間期間に対応する。他の実施形態では、画像キャプチャが同期されるのではなく、キャプチャされた画像のうちの複数の画像が、同じまたは重複する時間期間中にキャプチャされる。さらに他の実施形態では、少なくともいくつかの画像が順次、たとえばすばやく連続して、キャプチャされる。逐次的な画像キャプチャは、シーンエリアの異なる部分に対応する画像をキャプチャするために使用され得、いくつかの実施形態では、使用される。
ステップ6804では、第1の画像が、第1の時間期間中にカメラの第1の光学チェーンを使用してキャプチャされ、第1の光学チェーンは、第1の焦点距離と、第1の非円形のレンズとを有する。動作は、ステップ6804からステップ6814に進む。
ステップ6806では、第2の画像が、第1の時間期間中にカメラの第2の光学チェーンを使用してキャプチャされ、第2の光学チェーンは、第2の焦点距離と、第2の非円形のレンズとを有する。いくつかの実施形態では、第1の焦点距離と第2の焦点距離は同じである。いくつかの実施形態では、第1の焦点距離と第2の焦点距離は異なる。いくつかの実施形態では、第1の非円形のレンズは、第1の方向に垂直な第2の方向においてよりも第1の方向において長く、第2の非円形のレンズは、第4の方向においてよりも第3の方向において長く、第4の方向は第3の方向に垂直であり、第1の方向と第3の方向は異なる。いくつかの実施形態では、第1の光学チェーンは第1のセンサを含み、第2の光学チェーンは第2のセンサを含む。動作は、ステップ6806からステップ6814に進む。
ステップ6808では、第3の画像が、第3の焦点距離を有し丸いレンズを含む第3の光学チェーンを使用してキャプチャされ、第3の焦点距離は、第1の焦点距離または第2の焦点距離よりも小さい。いくつかの実施形態では、第2の方向と第4の方向は同じであり、カメラの奥行き(厚さ)に対応する。動作は、ステップ6808からステップ6814に進む。
ステップ6810では、第4の画像が、第4の焦点距離と第3の非円形のレンズとを有する第4の光学チェーンを使用してキャプチャされ、第4の焦点距離は第3の焦点距離よりも大きい。いくつかの実施形態では、第3の非円形のレンズは、第6の方向においてよりも第5の方向において長く、第6の方向は第5の方向に垂直であり、第1の方向と第3の方向と第5の方向は少なくとも20度異なる。動作は、ステップ6810からステップ6814に進む。
同様に、カメラデバイス内の1つまたは複数の追加光学チェーンが、追加画像をキャプチャするために使用可能であり、いくつかの実施形態では、使用される。一実施形態では、追加画像は、ステップ6812に示されるように、円形のレンズを有する光部品(optical)を使用してキャプチャされる。ステップ6812では、追加画像が、円形のレンズを含む複数の追加光学チェーンを使用してキャプチャされ、追加の光学チェーンの各々は、第1の光学チェーンよりも小さい焦点距離を有する円形のレンズを含む。いくつかの実施形態では、上記で説明された複数の光学チェーンによってキャプチャされるさまざまな画像は、同じ時間期間内でキャプチャされる。動作は、ステップ6812からステップ6814に進む。
ここで、ステップ6814に戻る。ステップ6814では、1つまたは複数のキャプチャされた画像、たとえば、第1のキャプチャされた画像、第2のキャプチャされた画像、第3のキャプチャされた画像などは、本発明の特徴によるさらなる処理のために、たとえばデバイスメモリ内に格納され、ならびに/またはたとえば、ディスプレイデバイスに、および/もしくはインターフェースを介して外部デバイスに出力される。動作は、ステップ6814から、必ずしもすべてでないがいくつかの実施形態で実行されるステップ6816に進む。ステップ6816では、合成画像は、キャプチャされた画像のうちの少なくとも2つ以上を結合することによって、たとえば、少なくとも第1の画像と第2の画像とを結合することによって、生成される。さまざまな実施形態では、合成画像は、たとえば、方法6800のステップを実施するカメラデバイス1400のプロセッサ110または211などのプロセッサによって生成される。さまざまな実施形態では、生成される合成画像は、関心シーンエリアの画像である。いくつかの実施形態では、複数の光学チェーンのうちの少なくともいくつかは、関心シーンエリアの一部分をキャプチャし、次いで、キャプチャされた部分は、合成画像を生成するために本発明の方法により結合され得る。
動作は、ステップ6816からステップ6818に進む。ステップ6818では、生成された合成画像は、たとえばデバイスメモリ内に格納され、ならびに/またはたとえば、ディスプレイデバイスに、および/もしくはインターフェースを介して外部デバイスに、出力される。
方法6800のさまざまな機能および/またはステップは、そのようなデバイスが汎用プロセッサおよび/または画像センサを使用することがあるとしても、カメラおよび/または画像処理の改善に関することを理解されたい。たとえば合成画像生成ステップなどの方法6800の1つまたは複数のステップは、プロセッサたとえばプロセッサ110、211によって実行されるように説明されてきたが、方法6800のステップのうちの1つまたは複数は、専用回路、たとえば、方法を実行する撮像デバイスの効率、精度、および/または動作能力を改善する、ASIC、FPGA、および/または特定用途向け回路によって実施され得、いくつかの実施形態では、実施されることを理解されたい。いくつかの実施形態では、専用ハードウェアたとえば回路、および/または専用ハードウェアとソフトウェアの組み合わせが、方法6800の1つまたは複数のステップを実施する際に利用され、その中で、方法を実施する撮像デバイスたとえばカメラに追加の画像処理効率、精度、および/または動作能力を提供する。
図47は、さまざまな例示的な実施形態による、合成画像を生成する例示的な方法の流れ図4500である。流れ図4500の動作は、カメラデバイスまたは画像処理デバイスと組み合わせたカメラデバイスによって実行され得る。いくつかの実施形態では、カメラデバイスはカメラに含まれる。いくつかの実施形態では、カメラデバイスは、ワイヤレス通信デバイスたとえばスマートフォンに含まれる。いくつかの実施形態では、画像処理デバイスはパーソナルコンピュータである。
例示的な方法の動作は、初期化が実行されるステップ4502で開始し、ステップ4504に進む。いくつかの実施形態では、動作はまた、ステップ4502から、任意選択のステップ4516、4518、および4522のうちの1つまたは複数またはすべてに進む。
ステップ4504では、第1の角度に設定された光方向変換デバイスを含むカメラデバイスの第1の光学チェーンは、第1の画像をキャプチャするように動作される。動作は、ステップ4504からステップ4506に進み、ステップ4506では、前記光方向変換デバイスの角度は第2の角度に変更される。動作は、ステップ4506からステップ4510に進む。ステップ4510では、第1の光学チェーンは、光方向変換デバイスが第2の角度に設定されている間、第2の画像をキャプチャするように動作される。動作は、ステップ4510からステップ4512に進む。
ステップ4512では、第1の画像および第2の画像から合成画像が生成される。
いくつかの実施形態では、光方向変換デバイスは鏡、たとえば、実質的な平面鏡である。実質的な平面鏡は、いくつかの実施形態で使用される平面鏡、ならびにわずかな曲率を持ち得る鏡、たとえば、いくつかの実施形態では0〜3度の範囲内の曲率を有する鏡を含むが、他の範囲も可能である。いくつかのそのような実施形態では、実質的な平面鏡は平面鏡である。さまざまな実施形態では、第1の光方向変換デバイスはプリズムである。いくつかの実施形態では、ステップ4506はステップ4508を含み、光方向変換デバイスの角度が、第1の画像と第2の画像とをキャプチャするために使用される画像センサの平面または第1の光学チェーン内のレンズのうちの少なくとも1つに対して変更される。
いくつかの実施形態では、第1の画像および第2の画像が第1の時間の期間中にキャプチャされ、ステップ4516が実行される。ステップ4516では、カメラデバイスの位置が、第1の画像および第2の画像が同じカメラデバイス位置からキャプチャされるように、第1の時間の期間によって維持される。いくつかのそのような実施形態では、第1の画像および第2の画像がそれぞれ、関心シーンエリアの第1の部分および第2の部分に対応し、前記第1の部分と前記第2の部分は少なくとも部分的に重複しない。
いくつかの実施形態では、第1の画像は第1のシーンエリア部分を含み、第2の画像は第2のシーンエリア部分を含み、第1のシーンエリア部分と第2のシーンエリア部分は重複しない。いくつかの実施形態では、ステップ4512はステップ4514を含む。ステップ4514では、第1のシーンエリア部分に対応する前記第1の画像の少なくとも一部と前記第2のシーンエリア部分に対応する前記第2の画像の少なくとも一部が、前記合成画像に組み込まれる。
したがって、この例示的な実施形態では、合成画像は、少なくとも重複しない画像部分から生成される。合成画像が対応するシーンエリアは、第1の画像と第2の画像のうちの単一の画像の画像エリアのサブセットではない。いくつかの実施形態では、第1の画像および第2の画像は、重複するシーンエリア部分も含み得る。
いくつかの実施形態では、光方向変換デバイスの移動がビデオフレームキャプチャ速度の関数として制御されるステップ4518が実行される。いくつかのそのような実施形態では、ステップ4518はステップ4520を含む。ステップ4520では、光方向変換デバイスは、z個の異なる画像がビデオフレームごとにキャプチャされるように移動され、ここで、zは、単一の合成ビデオフレームを生成するために第1の光学チェーンによってキャプチャされる画像の数に対応する。
いくつかの実施形態では、カメラは少なくとも2つの光学チェーンを含み、ステップ4522、4524、および4526は実行される。ステップ4522では、カメラデバイスの第2の光学チェーンは、第2の光学チェーン内の第2の光方向変換デバイスたとえば鏡またはプリズムが第3の角度である間、第3の画像をキャプチャするように動作される。動作は、ステップ4522からステップ4524に進む。ステップ4524では、第2の光方向変換デバイスの角度は第4の角度に設定される。動作は、ステップ4524からステップ4526に進む。ステップ4526では、第2の光学チェーンは、第2の光方向変換デバイスが第4の角度に設定されている間、第4の画像をキャプチャするように動作される。
いくつかの実施形態では、第1の画像および第3の画像は第1のキャプチャ時間に対応し、第2の画像および第4の画像は第2のキャプチャ時間に対応する。いくつかのそのような実施形態では、カメラは、第1のキャプチャ時間および第2のキャプチャ時間に対して同じ位置に維持される。
動作は、ステップ4526からステップ4512に進む。いくつかの実施形態では、ステップ4512はステップ4528を含み、ステップ4528では、合成画像が第1の画像、第2の画像、第3の画像、および第4の画像から生成される。
図48Aは、例示的な一実施形態による例示的なカメラデバイス4600の図である。カメラデバイス4600は、プロセッサ4602、たとえばCPUと、メモリ4604と、モジュールのアセンブリ4606、たとえば、回路などのハードウェアモジュールのアセンブリと、ユーザ入力インターフェース4608と、ディスプレイ4610と、I/Oインターフェース4612と、さまざまな要素がデータと情報とを交換し得るバス4621を介して互いに結合された複数の光学チェーン(光学チェーン1 4618、…、光学チェーンN 4620)とを含む。ディスプレイ4610、たとえば、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、有機発光ダイオード(OLED)ディスプレイ、またはアクティブマトリクス有機発光ダイオード(AMOLED)ディスプレイは、カメラデバイス4600のユーザに画像、画像部分、ユーザメニューなどを表示するためのものである。ユーザ入力インターフェース4608としては、たとえば、ユーザからの入力を受け取るための、スイッチ、ボタン、タッチスクリーンインターフェースなどがある。I/Oインターフェース4612には、他のデバイスたとえばパーソナルコンピュータと通信するための複数の通信ポートがある。I/Oインターフェース4612は、いくつかの実施形態では、1つまたは複数のワイヤレス通信インターフェースを含む。I/Oインターフェース4612上で通信される情報としては、たとえば、複数の光学チェーンからキャプチャされた画像から生成された結合された画像、ならびに/または外部で、たとえばパーソナルコンピュータ内で、処理および/もしくは結合されることになる、個々の光学チェーンからキャプチャされた画像がある。
メモリ4604は、モジュールのアセンブリ4614と、データ/情報4616とを含む。
光学チェーン1 4618は、レンズ4622、たとえば外側レンズと、移動可能な鏡4624、たとえば移動可能な実質的な平面鏡と、画像センサ4626とを含む。いくつかの実施形態では、実質的な平面鏡は平面鏡である。さまざまな実施形態では、平面鏡は、平坦な光反射表面を有する。いくつかの実施形態では、実質的な平面鏡は、0〜5度の範囲の曲率を有する。さまざまな実施形態では、移動可能な鏡4624はヒンジ取り付け部を含む。光学チェーン1 4618は、鏡移動モジュール4628、たとえば駆動モータおよび対応する駆動回路と、鏡位置検出モジュール4630、たとえば、レゾルバまたはシンクロまたは光学式ロータリエンコーダまたは磁気ロータリエンコーダなどの角度位置検知デバイスと、いくつかの実施形態では、センサ測定値をデジタル値に変換する回路、たとえばアナログ−デジタル変換器とをさらに含む。画像センサ4626は、第1の画像と第2の画像とをキャプチャするために使用される。光は、鏡4624に到達する前にレンズ4622を通過する。光方向変換デバイスである鏡4624は、レンズ4622を通過した光を画像センサ4626上に方向づける。
光学チェーンN 4620は、レンズ4632、たとえば外側レンズと、移動可能な鏡4634、たとえば移動可能な実質的な平面鏡と、画像センサ4636とを含む。いくつかの実施形態では、移動可能な実質的な平面鏡は平面鏡である。さまざまな実施形態では、移動可能な鏡4634はヒンジ取り付け部を含む。光学チェーンN 4620は、鏡移動モジュール4638、たとえば駆動モータおよび対応する駆動回路と、鏡位置検出モジュール4640、たとえば、レゾルバまたはシンクロまたは光学式ロータリエンコーダまたは磁気ロータリエンコーダなどの角度位置検知デバイスと、いくつかの実施形態では、センサ測定値をデジタル値に変換する回路とをさらに含む。いくつかの実施形態における光学チェーンモジュール(4618、…、4620)のうちの1つまたは複数は、1つまたは複数の追加要素、たとえば、追加のレンズ、追加の鏡、プリズム、フィルタなどを含む。
図48Bは、例示的な一実施形態による例示的なカメラデバイス4700の図である。カメラデバイス4700は、プロセッサ4602、たとえばCPUと、メモリ4604と、モジュールのアセンブリ4606、たとえば、回路などのハードウェアモジュールのアセンブリと、ユーザ入力インターフェース4608と、ディスプレイ4610と、I/Oインターフェース4612と、さまざまな要素がデータと情報とを交換し得るバス4621を介して互いに結合された複数の光学チェーン(光学チェーン1 4718、…、光学チェーンN 4720)とを含む。ディスプレイ4610、たとえば、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、有機発光ダイオード(OLED)ディスプレイ、またはアクティブマトリクス有機発光ダイオード(AMOLED)ディスプレイは、カメラデバイス4700のユーザに画像、画像部分、ユーザメニューなどを表示するためのものである。ユーザ入力インターフェース4608としては、たとえば、ユーザからの入力を受け取るための、スイッチ、ボタン、タッチスクリーンインターフェースなどがある。I/Oインターフェース4612には、他のデバイスたとえばパーソナルコンピュータと通信するための複数の通信ポートがある。I/Oインターフェース4612は、いくつかの実施形態では、1つまたは複数のワイヤレス通信インターフェースを含む。I/Oインターフェース4612上で通信される情報としては、たとえば、複数の光学チェーンからキャプチャされた画像から生成された結合された画像、ならびに/または外部で、たとえばパーソナルコンピュータ内で、処理および/もしくは結合されることになる、個々の光学チェーンからキャプチャされた画像がある。
メモリ4604は、モジュールのアセンブリ4614と、データ/情報4616とを含む。
光学チェーン1 4718は、レンズ4722、たとえば外側レンズと、プリズム4724と、画像センサ4726とを含む。さまざまな実施形態では、プリズム4724はヒンジ取り付け部を含む。光学チェーン1 4718は、プリズム移動モジュール4728、たとえば駆動モータおよび対応する駆動回路と、プリズム位置検出モジュール4730、たとえば、レゾルバまたはシンクロまたは光学式ロータリエンコーダまたは磁気ロータリエンコーダなどの角度位置検知デバイスと、いくつかの実施形態では、センサ測定値をデジタル値に変換する回路、たとえばアナログ−デジタル変換器とをさらに含む。画像センサ4726は、第1の画像と第2の画像とをキャプチャするために使用される。光は、プリズム4724に到達する前にレンズ4722を通過する。光方向変換デバイスであるプリズム4724は、レンズ4722を通過した光を画像センサ4726上に方向づける。
光学チェーンN 4720は、レンズ4732、たとえば外側レンズと、移動可能なプリズム4734と、画像センサ4736とを含む。さまざまな実施形態では、移動可能なプリズム4734はヒンジ取り付け部を含む。光学チェーンN 4720は、プリズム移動モジュール4738、たとえば駆動モータおよび対応する駆動回路と、プリズム位置検出モジュール4740、たとえば、レゾルバまたはシンクロまたは光学式ロータリエンコーダまたは磁気ロータリエンコーダなどの角度位置検知デバイスと、いくつかの実施形態では、センサ測定値をデジタル値に変換する回路とをさらに含む。いくつかの実施形態における光学チェーンモジュール(4718、…、4720)のうちの1つまたは複数は、1つまたは複数の追加要素、たとえば、追加のレンズ、追加のプリズム、鏡、フィルタなどを含む。
図48は、本発明により実施されるカメラデバイスたとえば図46のカメラ4600または図47のカメラ4700に含まれ得るモジュールのアセンブリ4800の図である。モジュールのアセンブリ4800は、方法のステップ、たとえば図45の流れ図4500の方法のステップを実施し得る。いくつかの実施形態では、モジュールのアセンブリ4800は、互いに結合され得る回路のアセンブリである。例示的な一実施形態では、モジュールのアセンブリ4800は、図46のカメラ4600または図47のカメラ4700のモジュールのアセンブリ4606である。いくつかの実施形態では、モジュールのアセンブリ4800は、ソフトウェアモジュールのアセンブリである。例示的な一実施形態では、モジュールのアセンブリ4800は、図46のカメラ4600または図47のカメラ4700のメモリ4604のモジュールのアセンブリ4614である。
図48Cは、図48Aに示されるカメラデバイス4600または図48Bのカメラデバイス4700において使用可能であり、いくつかの実施形態では使用される、モジュールのアセンブリ4800を示す。モジュールのアセンブリ4800内のモジュールは、たとえば個々の回路として、プロセッサ4602内部のハードウェア内で完全に実施可能であり、いくつかの実施形態では、実施される。モジュールのアセンブリ4800内のモジュールは、たとえば異なるモジュールに対応する個々の回路として、モジュールのアセンブリ4606内部のハードウェア内で完全に実施可能であり、いくつかの実施形態では、実施される。他の実施形態では、モジュールのうちのいくつかは、プロセッサ4602の内部の、たとえば回路として、実施され、他のモジュールは、プロセッサの外部にあり、これに結合されたモジュールのアセンブリ4606の内部の、たとえば回路として、実施される。理解されるべきであるように、プロセッサ上での、および/またはプロセッサの外部にあるいくつかのモジュールとの、モジュールの統合のレベルは、設計上の選択肢の1つであり得る。
あるいは、回路として実施されるのではなく、モジュールのアセンブリ4800内のモジュールのすべてまたはいくつかは、ソフトウェア内で実施され、カメラデバイス4600またはカメラデバイス4700のメモリ4604内に格納され得、モジュールは、モジュールがプロセッサたとえばプロセッサ4602によって実行されるとき、モジュールに対応する機能を実施するように、カメラデバイス4600またはカメラデバイス4700の動作を制御する。いくつかのそのような実施形態では、モジュールのアセンブリ4800は、モジュールのアセンブリ4614としてメモリ4604に含まれる。さらに他の実施形態では、モジュールのアセンブリ4800内のさまざまなモジュールは、ハードウェアとソフトウェアの組み合わせとして実施され、たとえば、プロセッサの外部にある別の回路は、プロセッサ4602に入力を提供し、次いで、プロセッサ4602は、ソフトウェア制御下でモジュールの機能の一部分を実行するように動作する。図48Aおよび図48Bの実施形態では、単一のプロセッサたとえばコンピュータとして示されているが、プロセッサ4602は、1つまたは複数のプロセッサたとえばコンピュータとして実施され得ることを理解されたい。
ソフトウェア内で実施されるとき、モジュールは、プロセッサ4602によって実行されるとモジュールに対応する機能を実施するようにプロセッサ4602を構成するコードを含む。モジュールのアセンブリ4800がメモリ4604内に格納される実施形態では、メモリ4604は、少なくとも1つのコンピュータたとえばプロセッサ4602にモジュールが対応する機能を実施させるために、コード、たとえば各モジュールに対する個々のコードを備えるコンピュータ可読媒体を備えるコンピュータプログラム製品である。
完全にハードウェアベースのモジュールまたは完全にソフトウェアベースのモジュールが使用されてよい。しかしながら、ソフトウェアとハードウェアのいかなる組み合わせも、たとえば、回路により実施されるモジュールも、機能を実施するために使用され得ることを理解されたい。理解されるべきであるように、図48Cに示されるモジュールは、図47の方法流れ図4500に示される対応するステップの機能を実行するように、カメラデバイス4600またはカメラデバイス4700またはプロセッサ4602などのその中の要素を制御および/または構成する。したがって、モジュールのアセンブリ4800は、図47に示される方法の対応するステップの機能を実行するさまざまなモジュールを含む。
図48Cは、例示的な一実施形態によるモジュールのアセンブリ4800である。モジュールのアセンブリ4800は、光方向変換デバイス制御モジュール4802と、画像キャプチャ制御モジュール4804と、合成画像生成モジュール4806と、安定性制御モジュール4808と、光方向変換デバイス移動タイミング制御モジュール4810とを含む。
光方向変換設定制御モジュール4802、たとえば、鏡方向変換設定制御モジュールまたはプリズム方向変換設定制御モジュールは、第1の光部品たとえば光学チェーン1 4618または光学チェーン1 4718によって使用される少なくとも1つの光方向変換デバイス角度位置を決定するように構成される。画像キャプチャ制御モジュール4804は、第1の光方向変換デバイスたとえば鏡4624またはプリズム4724が光方向変換デバイス制御モジュール4802の指示に従って第1の角度に設定されている間、第1の画像をキャプチャし、第1の光方向変換デバイスが光方向変換デバイス制御モジュール4802の指示に従って第2の角度に設定されている間、第2の画像をキャプチャするように、第1の光学チェーンを動作させるように構成される。合成画像生成モジュール4806は、第1の画像および第2の画像から合成画像を生成するように構成される。いくつかの実施形態では、光方向変換デバイスは、平面鏡または実質的な平面鏡である鏡、たとえば鏡4624である。いくつかの実施形態では、光方向変換デバイスは、プリズム、たとえばプリズム4724である。
光方向変換デバイス制御モジュール4802は、決定された光方向変換デバイス角度が現在の光方向変換デバイス角度と異なるとき変化するように、光方向変換デバイスたとえば鏡4624またはプリズム4724の角度を制御するようにさらに構成される。いくつかの実施形態では、光方向変換デバイスは、鏡、たとえば鏡4624であり、実質的な平面鏡であり、変化は、第1の光学チェーンに含まれる画像センサたとえばセンサ4626またはレンズたとえばレンズ4622の平面の少なくとも1つに対して鏡の角度を変えることを含む。
さまざまな実施形態では、たとえば第1の光学チェーンすなわち光学チェーン1 4618または光学チェーン1 4718からの第1の画像および第2の画像は、第1の時間の期間中にキャプチャされ、安定性制御モジュール4808は、たとえば、第1の画像および第2の画像が同じカメラ位置からキャプチャされるように、第1の時間の期間全体を通して画像安定性を維持するように構成される。いくつかの実施形態では、第1の画像および第2の画像はそれぞれ、関心シーンの第1の部分および第2の部分に対応し、前記第1の部分および前記第2の部分は少なくとも部分的に重複しない。
いくつかの実施形態では、第1の画像は第1のシーンエリア部分を含み、第2の画像は第2のシーンエリア部分を含み、第1のシーン部分と第2のシーン部分は重複しない。さまざまな実施形態では、第1の画像および第2の画像は、重複するシーンエリア部分も含み得る。いくつかのそのような実施形態では、合成画像生成モジュール4806は、前記第1のシーンエリア部分に対応する前記第1の画像の少なくとも一部と前記第2のシーンエリア部分に対応する前記第2の画像の一部とを前記合成画像に組み込むことによって第1の画像および第2の画像から合成画像を生成するように構成される。したがって、さまざまな実施形態では、合成画像は、少なくとも重複しない部分から生成される。
光方向変換デバイス移動タイミング制御モジュール4810は、光方向変換デバイスの移動をビデオフレームキャプチャ速度の関数として制御するように構成される。いくつかのそのような実施形態では、光方向変換デバイス移動タイミング制御モジュール4810は、z個の異なる画像がビデオフレームごとにキャプチャされるように光方向変換デバイスを移動させるためにビデオキャプチャ速度の関数として光方向変換デバイスの移動を制御し、ここで、zは、単一の合成画像を生成するために第1の光学チェーンによってキャプチャされる画像の数に対応する。
さまざまな実施形態では、モジュールのアセンブリ4800を含むカメラデバイスは、異なる角度に設定可能な第2の光方向変換デバイスたとえば移動可能な鏡4634または移動可能なプリズム4734を含む第2の光学チェーンたとえば光学チェーンN 4620または光学チェーンN 4720を含み、光方向変換デバイス制御モジュール4802は、第2の光方向変換デバイスが位置決めされる第3の角度を決定するようにさらに構成される。いくつかのそのような実施形態では、画像キャプチャ制御モジュール4804は、第2の光方向変換デバイスが第3の角度に設定されている間、第3の画像をキャプチャし、第2の光方向変換デバイスが第4の角度に設定されている間、第4の画像をキャプチャするように、第2の光学チェーンたとえばモジュール4620またはモジュール4720を制御するようにさらに構成される。いくつかのそのような実施形態では、合成画像生成モジュール4806は、第1の画像および第2の画像に加えて第3の画像および第4の画像から合成画像を生成するようにさらに構成される。いくつかの実施形態では、第1の画像および第3の画像は第1のキャプチャ時間に対応し、第2の画像および第4の画像は第2のキャプチャ時間に対応する。さまざまな実施形態では、カメラデバイスは、第1のキャプチャ時間および第2のキャプチャ時間に対して同じ位置に維持される。
図49は、例示的な一実施形態による、組み合わされた画像を生成するために使用される例示的なキャプチャされた画像を示すために使用される図4900である。図4900は、例示的な一実施形態による、2つの光学チェーンを含む例示的なカメラデバイス4902を含む。カメラデバイス4900は、たとえば、図48Aのカメラデバイス4600もしくは図48Bのカメラデバイス4700、図48Cのモジュールのアセンブリ4800を含むカメラデバイス、および/または図47の流れ図4500の方法を実施するカメラデバイスである。カメラデバイス4900の光学チェーンの各々は、レンズ、たとえば外側レンズと、制御可能な移動可能な光方向変換デバイス、たとえば、移動可能な鏡または移動可能なプリズムと、画像センサとを含む。一例では、レンズL1 4904は光学チェーン1のための外側レンズであり、レンズL2 4906は光学チェーン2のための外側レンズである。
図49の図4908は、関心シーン4910内の第1のキャプチャされた画像4912を示す。図49の図4914は、関心シーン4910内の第2のキャプチャされた画像4916を示す。図49の図4918は、関心シーン4910内の第3のキャプチャされた画像4920を示す。図49の図4922は、関心シーン4910内の第4のキャプチャされた画像4924を示す。画像(第1の画像4912、第2の画像4916、第3の画像4920、第4の画像4924)の各々は、他の画像に対して重複しない画像部分を含むことに留意されたい。図4944は、キャプチャされた画像(第1の画像4912、第2の画像4916、第3の画像4920、および第4の画像4924)から生成された、関心シーンエリア4910に対応する、合成画像4925を示す。
テーブル4926は、どの光学チェーンがどの画像をキャプチャするために使用されるかと、画像キャプチャに使用される例示的な光方向変換デバイス角度設定と、キャプチャされた画像に対応する例示的なキャプチャ時間とを示す。第1の列4928は、キャプチャされた画像を識別する。第2の列4930は、第1の列の同じ行にある識別された画像をキャプチャするために使用される光学チェーンを識別する。第3の列4932は、画像をキャプチャした光学チェーンの光方向変換デバイスが画像キャプチャのときに設定された例示的な光方向変換デバイス角度設定を識別する。第4の列4934は、同じ行の対応する画像がキャプチャされた例示的なキャプチャ時間を識別する。
行4936は、第1の画像4912が光学チェーン1によってキャプチャされたことと、第1の画像がキャプチャされたとき、光学チェーン1の制御可能な移動可能な光方向変換デバイスが第1の角度に設定されたことと、第1の画像が第1のキャプチャ時間間隔中にキャプチャされたこととを識別する。行4938は、第2の画像4916が光学チェーン1によってキャプチャされたことと、第2の画像がキャプチャされたとき、光学チェーン1の制御可能な移動可能な光方向変換デバイスが第2の角度に設定されたことと、第2の画像が第2のキャプチャ時間間隔中にキャプチャされたこととを識別する。行4940は、第3の画像4920が光学チェーン2によってキャプチャされたことと、第3の画像がキャプチャされたとき、光学チェーン2の制御可能な移動可能な光方向変換デバイスが第3の角度に設定されたことと、第3の画像が第1のキャプチャ時間間隔中にキャプチャされたこととを識別する。行4942は、第4の画像4924が光学チェーン2によってキャプチャされたことと、第4の画像がキャプチャされたとき、光学チェーン2の制御可能な移動可能な光方向変換デバイスが第4の角度に設定されたことと、第4の画像が第2のキャプチャ時間間隔中にキャプチャされたこととを識別する。
例示的な一実施形態では、第2の角度は第1の角度よりも大きく、第4の角度は第3の角度よりも大きい。いくつかのそのような実施形態では、第1の角度は第3の角度と実質的に同じであり、第2の角度は第4の角度と実質的に同じである。さまざまな実施形態では、第1のキャプチャ時間は、第2のキャプチャ時間と同じ持続時間である。いくつかの実施形態では、第1の光学チェーンの移動可能な光方向変換デバイスおよび第2の光学チェーンの移動可能な光方向変換デバイスは、たとえば第1のキャプチャ時間と第2のキャプチャ時間との間の小さい時間間隙を容易にするために、第1のキャプチャ時間と第2のキャプチャ時間との間の時間間隔中に平行に移動される。いくつかの実施形態では、第1の光学チェーンの移動可能な光方向変換デバイスおよび第2の光学チェーンの移動可能な光方向変換デバイスは、たとえば瞬間バッテリ電力消費を制限するために、第1のキャプチャ時間と第2のキャプチャ時間との間の時間間隔中に連続的に移動される。
図50は、例示的な一実施形態による、組み合わされた画像を生成するために使用される例示的なキャプチャされた画像を示すために使用される図5000である。図5000は、例示的な一実施形態による、3つの光学チェーンを含む例示的なカメラデバイス5002を含む。カメラデバイス5000は、たとえば、図48Aのカメラデバイス4600もしくは図48Bのカメラ4700、図48Cのモジュールのアセンブリ4800を含むカメラデバイス、および/または図47の流れ図4500の方法を実施するカメラデバイスである。カメラデバイス5000の光学チェーンの各々は、レンズ、たとえば外側レンズと、制御可能な移動可能な光方向変換デバイスと、画像センサとを含む。レンズL1 5004は光学チェーン1のための外側レンズであり、レンズL2 5006は光学チェーン2のための外側レンズであり、レンズL3 5008は光学チェーン3のための外側レンズである。
図50の図5010は、関心シーン5011内のキャプチャされた画像I1 5012を示す。図50の図5013は、関心シーン5011内のキャプチャされた画像I2 5014を示す。図50の図5015は、関心シーン5011内のキャプチャされた画像I3 5016を示す。図50の図5017は、関心シーン5011内のキャプチャされた画像I4 5018を示す。図50の図5019は、関心シーン5011内のキャプチャされた画像I5 5020を示す。図50の図5021は、関心シーン5011内のキャプチャされた画像I6 5022を示す。図50の図5023は、関心シーン5011内のキャプチャされた画像I7 5026を示す。図50の図5025は、関心シーン5011内のキャプチャされた画像I8 5026を示す。図50の図5027は、関心シーン5011内のキャプチャされた画像I9 5028を示す。図50の図5029は、関心シーン5011内のキャプチャされた画像I10 5030を示す。図50の図5031は、関心シーン5011内のキャプチャされた画像I11 5033を示す。図50の図5034は、関心シーン5011内のキャプチャされた画像I12 5035を示す。
関心シーンエリア5011に対応する合成画像5060が、キャプチャされた画像(I1 5012、I2 5014、I3 5016、I4 5018、I5 5020、I6 5022、I7 5024、I8 5026、I9 5028、I10 5030、I11 5033、I12 5035)から生成される。
テーブル5036は、カメラ5002のどの光学チェーンがどの画像をキャプチャするために使用されるかと、画像キャプチャに使用される例示的な光方向変換デバイス角度設定と、キャプチャされた画像に対応する例示的なキャプチャ時刻とを示す。第1の列5037は、キャプチャされた画像を識別する。第2の列5038は、第1の列の同じ行にある識別された画像をキャプチャするために使用される光学モジュールを識別する。第3の列5039は、画像をキャプチャした光学チェーンの移動可能な光方向変換デバイスが画像キャプチャのときに設定された例示的な光方向変換デバイス角度設定を識別する。第4の列5050は、同じ行の対応する画像がキャプチャされた例示的なキャプチャ時刻を識別する。
テーブル5036の第2の行は、画像I1 5012が光学チェーン1によってキャプチャされたこと、画像I1がキャプチャされたとき、光学チェーン1の制御可能な光方向変換デバイスが角度α=α1に設定されたことと、画像I1が第1のキャプチャ時間間隔中にキャプチャされたこととを識別する。テーブル5036の第3の行は、画像I2 5014が光学チェーン1によってキャプチャされたこと、画像I2がキャプチャされたとき、光学チェーン1の制御可能な移動可能な光方向変換デバイスが角度α=α2に設定されたことと、画像I2が第2のキャプチャ時間間隔中にキャプチャされたこととを識別する。テーブル5036の第4の行は、画像I3 5016が光学チェーン1によってキャプチャされたこと、画像I3 5016がキャプチャされたとき、光学チェーン1の制御可能な光方向変換デバイスが角度α=α3に設定されたことと、画像I3 5016が第3のキャプチャ時間間隔中にキャプチャされたこととを識別する。テーブル5036の第5の行は、画像I4 5018が光学チェーン1によってキャプチャされたこと、画像I4がキャプチャされたとき、光学チェーン1の制御可能な移動可能な光方向変換デバイスが角度α=α4に設定されたことと、画像I4が第4のキャプチャ時間間隔中にキャプチャされたこととを識別する。いくつかの実施形態では、α4>α3>α2>α1である。いくつかの他の実施形態では、α4<α3<α2<α1である。
テーブル5036の第6の行は、画像I5 5020が光学チェーン2によってキャプチャされたこと、画像I5 5020がキャプチャされたとき、光学チェーン2の制御可能な移動可能な光方向変換デバイスが角度β=β1に設定されたことと、画像I5が第1のキャプチャ時間間隔中にキャプチャされたこととを識別する。テーブル5036の第7の行は、画像I6 5022が光学チェーン2によってキャプチャされたこと、画像I6がキャプチャされたとき、光学チェーン2の制御可能な移動可能な光方向変換デバイスが角度β=β2に設定されたことと、画像I6が第2のキャプチャ時間間隔中にキャプチャされたこととを識別する。テーブル5036の第8の行は、画像I7 5024が光学チェーン2によってキャプチャされたこと、画像I7 5024がキャプチャされたとき、光学チェーン2の制御可能な移動可能な光方向変換デバイスが角度β=β3に設定されたことと、画像I7 5024が第3のキャプチャ時間間隔中にキャプチャされたこととを識別する。テーブル5036の第9の行は、画像I8 5026が光学チェーン2によってキャプチャされたこと、画像I8 5026がキャプチャされたとき、光学チェーン2の制御可能な移動可能な光方向変換デバイスが角度β=β4に設定されたことと、画像I8 5026が第4のキャプチャ時間間隔中にキャプチャされたこととを識別する。いくつかの実施形態では、β4>β3>β2>β1である。いくつかの実施形態では、β4<β3<β2<β1である。
テーブル5036の第10の行は、画像I9 5028が光学チェーン3によってキャプチャされたこと、画像I9 5028がキャプチャされたとき、光学チェーン3の制御可能な移動可能な光方向変換デバイスが角度θ=θ1に設定されたことと、画像I9が第1のキャプチャ時間間隔中にキャプチャされたこととを識別する。テーブル5036の第11の行は、画像I10 5030が光学チェーン3によってキャプチャされたこと、画像I10がキャプチャされたとき、光学チェーン3の制御可能な移動可能な光方向変換デバイスが角度θ=θ2に設定されたことと、画像I10が第2のキャプチャ時間間隔中にキャプチャされたこととを識別する。テーブル5036の第12の行は、画像I11 5033が光学チェーン3によってキャプチャされたこと、画像I11 5033がキャプチャされたとき、光学チェーン3の制御可能な移動可能な光方向変換デバイスが角度θ=θ3に設定されたことと、画像I11 5033が第3のキャプチャ時間間隔中にキャプチャされたこととを識別する。テーブル5036の第13の行は、画像I12 5026が光学チェーン3によってキャプチャされたこと、画像I12 5035がキャプチャされたとき、光学チェーン3の制御可能な移動可能な光方向変換デバイスが角度θ=θ4に設定されたことと、画像I12 5035が第4のキャプチャ時間間隔中にキャプチャされたこととを識別する。いくつかの実施形態では、θ4>θ3>θ2>θ1である。いくつかの実施形態では、θ4<θ3<θ2<θ1である。
図51Aと図51Bの組み合わせを備える図51は、少なくとも1つの画像をキャプチャする例示的な方法の流れ図5100である。流れ図5100の例示的な方法は、5つ以上の光学チェーンを含むカメラデバイスによって、または5つ以上の光学チェーンを含むカメラデバイスおよび画像処理デバイスによって実行され得る。いくつかの実施形態では、カメラデバイスは、スマートフォンとカメラのうちの1つである。いくつかの実施形態では、画像処理デバイスはパーソナルコンピュータである。
例示的な方法の動作はステップ5102で開始し、ステップ5104に進む。ステップ5104では、ズーム設定を光方向変換デバイス位置にマッピングする情報がメモリ内に格納される。さまざまな実施形態では、光方向変換デバイスは、鏡たとえば平面鏡、またはプリズムである。動作は、ステップ5104からステップ5106に進む。ステップ5106では、ズーム設定を示すユーザ入力が受け取られる。動作は、ステップ5106からステップ5108に進む。ステップ5108では、示されたズーム設定に従って第1の光方向変換デバイスを移動させる前に、光方向変換デバイス位置が、示されたズーム設定に基づいて計算される。したがって、ステップ5108では、移動可能な制御可能な光方向変換デバイスのための光方向変換デバイス位置が、たとえばメモリ内に格納されたルックアップテーブルから、ズーム設定に対応して決定される。たとえば、ステップ5108では、カメラデバイスは、示されたズーム設定に対応する第1の光学チェーンの第1の光方向変換デバイスのための第1の位置と、示されたズーム設定に対応する第3の光学チェーンの第2の光方向変換デバイスのための第2の位置と、示されたズーム設定に対応する第4の光学チェーンの第3の光方向変換デバイスのための第3の位置と、示されたズーム設定に対応する第5の光学チェーンの第4の光方向変換デバイスのための第4の位置とを決定する。いくつかの実施形態では、複数の所定の個別の可能な代替のユーザ選択可能ズーム設定の各々に対応して、移動可能な光方向変換デバイスの各々に対する光方向変換デバイス位置および/または角度の対応するセットがある。動作は、ステップ5108から、並列に実行され得るステップ5110、5112、5114、および5116に進む。
ステップ5110では、第1の光学チェーンまたはカメラデバイスの第1の光方向変換デバイスが、示されたズーム設定に従って第1の位置に移動され、前記第1の光方向変換デバイスは実質的な平面鏡またはプリズムのうちの1つである。いくつかの実施形態では、実質的な平面鏡は平面鏡である。いくつかの実施形態では、第1の光方向変換デバイスは平面鏡であり、前記第1の位置は、第1の平面鏡の第1の方向に対応する第1の鏡位置である。さまざまな実施形態では、第1の平面鏡の第1の方向は、第1の平面鏡の平面に垂直な方向として定義される。ステップ5112では、カメラデバイスの第3の光学チェーンの第2の光方向変換デバイスが、示されたズーム設定に従って第2の位置に移動される。いくつかの実施形態では、第2の光方向変換デバイスは第2の平面鏡であり、前記第2の位置は、第2の平面鏡の第1の方向に対応する第2の鏡位置である。さまざまな実施形態では、第2の平面鏡の第1の方向は、第2の平面鏡の平面に垂直な方向として定義される。ステップ5114では、カメラデバイスの第4の光学チェーンの第3の光方向変換デバイスが、示されたズーム設定に従って第3の位置に移動される。いくつかの実施形態では、第3の光方向変換デバイスは第3の平面鏡であり、前記第3の位置は、第3の平面鏡の第1の方向に対応する第3の鏡位置である。さまざまな実施形態では、第3の平面鏡の第1の方向は、第3の平面鏡の平面に垂直な方向として定義される。ステップ5116では、カメラデバイスの第5の光学チェーンの光方向変換デバイスが、示されたズーム設定に従って第4の位置に移動される。いくつかの実施形態では、前記第4の光方向変換デバイスは第4の平面鏡であり、前記第4の位置は、第4の平面鏡の第1の方向に対応する第4の鏡位置である。さまざまな実施形態では、第4の平面鏡の第1の方向は、第4の平面鏡の平面に垂直な方向として定義される。動作は、ステップ5110、5112、5114、および5116から、接続ノードA5118を介して、ステップ5120、5122、5124、5126、および5128に進み、いくつかの実施形態では、ステップ5130および5132に進む。さまざまな実施形態では、ステップ5120、5122、5124、5126、5128、5130、および5132は、並列に実行される。
ステップ5120では、カメラデバイスは、前記第1の光方向変換デバイスが第1の位置にある間、前記第1の光学チェーンを使用して関心シーンエリアの第1の部分の第1の画像をキャプチャする。ステップ5122では、カメラデバイスは、前記第1の光方向変換デバイスが第1の位置にある間、第2の光学チェーンを使用して関心シーンエリアの第2の部分の第2の画像をキャプチャする。いくつかの実施形態では、第1の画像は、第2の画像がキャプチャされる時間の期間に少なくとも部分的に重なる時間の期間中にキャプチャされる。いくつかの実施形態では、前記第1の画像は、前記第2の画像がキャプチャされるのと同時にキャプチャされる。ステップ5124では、カメラデバイスは、前記第1の光方向変換デバイスが第1の位置にある間、第3の光学チェーンを使用して関心シーンエリアの第3の部分の第3の画像をキャプチャする。ステップ5126では、カメラデバイスは、前記第1の光方向変換デバイスが第1の位置にある間、前記第4の光学チェーンを使用して関心シーンエリアの第4の部分の第4の画像をキャプチャする。ステップ5128では、カメラデバイスは、前記第1の光方向変換デバイスが第1の位置にある間、前記第5の光学チェーンを使用して関心シーンエリアの第5の部分の第5の画像をキャプチャする。いくつかの実施形態では、任意選択のステップ5130および任意選択のステップ5132のうちの一方または両方が実行される。ステップ5130では、カメラデバイスは、前記第1の光方向変換デバイスが第1の位置にある間、第6の光学チェーンを使用して関心シーンエリアの第6の部分の第6の画像をキャプチャする。ステップ5132では、カメラデバイスは、前記第1の光方向変換デバイスが第1の位置にある間、第7の光学チェーンを使用して関心シーンエリアの第7の部分の第7の画像をキャプチャする。
さまざまな実施形態では、第1の平面状光方向変換デバイス、第2の平面状光方向変換デバイス、第3の平面状光方向変換デバイス、および第4の平面状平面状光方向変換デバイスは、ステップ5120、5122、5124、5126、および5128の画像キャプチャ動作中に移動されない。さまざまな実施形態では、第1の平面状光方向変換デバイス、第2の平面状光方向変換デバイス、第3の平面状光方向変換デバイス、および第4の平面状光方向変換デバイスは、ステップ5120、5122、5124、5126、5128、5130、および5132の画像キャプチャ動作中に移動されない。さまざまな実施形態では、第1の光学チェーン、第2の光学チェーン、第3の光学チェーン、第4の光学チェーン、および第5の光学チェーンは、たとえば特定のズーム設定のために設定されるとき、画像を同時にキャプチャする。さまざまな実施形態では、第1の光学チェーン、第2の光学チェーン、第3の光学チェーン、第4の光学チェーン、第5の光学チェーン、第6の光学チェーン、および第7の光学チェーンは、たとえば特定のズーム設定のために設定されるとき、画像を同時にキャプチャする。
動作は、ステップ5120、5122、5124、5126、5128から、いくつかの実施形態ではステップ5130および/または5132から、ステップ5134に進む。ステップ5134では、キャプチャされた画像が、示されたズーム設定に対応する合成画像を生成するために結合される。いくつかの実施形態では、ステップ5134は、ステップ5136と5138の一方または両方を含む。ステップ5136では、第1の画像、第2の画像、第3の画像、第4の画像、および第5の画像が、示されたズーム設定に対応する合成画像を生成するために結合される。ステップ5138では、第1の画像、第2の画像、第3の画像、第4の画像、第5の画像、第6の画像、および第7の画像が、示されたズーム設定に対応する合成画像を生成するために結合される。動作はステップ5134からステップ5140に進み、ステップ5140では、生成された合成画像がメモリ内に格納される。ステップ5134および5136は、カメラデバイスによって実行されてもよいし、画像処理デバイスによって実行されてもよい。動作は、ステップ5140から、接続ノードB5142を介して、ステップ5106に進む。
いくつかの実施形態では、第1の光学チェーンと第2の光学チェーンは異なる焦点距離を有する。いくつかのそのような実施形態では、第1の光学チェーンは、第2の光学チェーンよりも大きい焦点距離を有する。いくつかのそのような実施形態では、第2の光学チェーンは、第1の光学チェーン、第2の光学チェーン、第3の光学チェーン、および第4の光学チェーンの各々よりも小さい焦点距離を有する。いくつかの実施形態では、第1の光学チェーン、第3の光学チェーン、第4の光学チェーン、および第5の光学チェーンは同じ焦点距離を有し、第2の光学チェーンよりも小さい関心シーンエリアの部分をキャプチャする。
さまざまな実施形態では、第1の光学チェーンは、移動可能な光方向変換デバイスである第1の光方向変換デバイスを含み、第2の光学チェーンは移動可能な光方向変換デバイスを含まない。
さまざまな実施形態では、第1の光学チェーン、第3の光学チェーン、第4の光学チェーン、および第5の光学チェーンは各々、移動可能な制御可能な光方向変換デバイスを含み、第2の光学チェーン、第6の光学チェーン、および第7の光学チェーンは、移動可能な制御可能な光方向変換デバイスを含まず、たとえば、第2の光学チェーン、第6の光学チェーン、および第7の光学チェーン内の光方向変換デバイスは固定位置光方向変換デバイスであり、たとえば、その各々は、固定位置に堅固に取り付けられている(hard mounted)。いくつかの実施形態では、第2の画像、第6の画像、および第7の画像のうちの2つは、実質的に同じサイズである。いくつかの実施形態では、第2の画像、第6の画像、および第7の画像のうちの1つは、第1の画像、第3の画像、第4の画像、および第5の画像の各々と実質的に同じサイズである。
図52は、例示的な一実施形態による例示的なカメラデバイス5200の図である。カメラデバイス5200は、プロセッサ5202、たとえばCPUと、メモリ5204と、モジュールのアセンブリ5206、たとえば、回路などのハードウェアモジュールのアセンブリと、ユーザ入力インターフェース5208と、ディスプレイ5210と、I/Oインターフェース5212と、さまざまな要素がデータと情報とを交換し得るバス5231を介して互いに結合された複数の光学チェーン(光学チェーン1 5218、光学チェーン2 5220、光学チェーン3 5222、光学チェーン4 5224、光学チェーン5 5226、光学チェーン6 5228、光学チェーン7 5230)とを含む。いくつかの実施形態では、光学チェーン6 5228および光学チェーン7 5230は任意選択である。ディスプレイ5210、たとえば、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、有機発光ダイオード(OLED)ディスプレイ、またはアクティブマトリクス有機発光ダイオード(AMOLED)ディスプレイは、カメラ5200のユーザに画像、画像部分、ユーザメニューなどを表示するためのものである。ユーザ入力インターフェース5208としては、たとえば、ユーザからの入力を受け取るための、スイッチ、ボタン、タッチスクリーンインターフェースなどがある。I/Oインターフェース5212には、他のデバイスたとえばパーソナルコンピュータと通信するための複数の通信ポートがある。I/Oインターフェース5212は、いくつかの実施形態では、1つまたは複数のワイヤレス通信インターフェースを含む。I/Oインターフェース5212上で通信される情報としては、たとえば、複数の光学チェーンからキャプチャされた画像から生成された結合された画像、ならびに/または外部で、たとえばパーソナルコンピュータ内で、処理および/もしくは結合されることになる、個々の光学チェーンからキャプチャされた画像がある。
メモリ5204は、モジュールのアセンブリ5214と、データ/情報5216とを含む。データ/情報5216は、いくつかの実施形態では、ズーム設定を光方向変換デバイス位置にマッピングする格納された情報、たとえば図55のルックアップテーブル5500を含む。
光学チェーン1 5218は、レンズ5232、たとえば外側レンズと、移動可能な実質的な平面鏡5234と、画像センサ5236とを含む。いくつかの実施形態では、実質的な平面鏡は平面鏡である。さまざまな実施形態では、移動可能な鏡5234はヒンジ取り付け部を含む。光学チェーン1 5218は、鏡移動モジュール5238、たとえば駆動モータおよび対応する駆動回路と、鏡位置検出モジュール5240、たとえば、レゾルバまたはシンクロまたは光学式ロータリエンコーダまたは磁気ロータリエンコーダなどの角度位置検知デバイスと、いくつかの実施形態では、センサ測定値をデジタル値に変換する回路、たとえばアナログ−デジタル変換器とをさらに含む。画像センサ5236は、関心シーンエリアの第1の部分の第1の画像をキャプチャするために使用される。光は、鏡5234に到達する前にレンズ5232を通過する。光方向変換デバイスである鏡5234は、レンズ5232を通過した光を画像センサ5234上に方向づける。
光学チェーン2 5220は、レンズ5242、たとえば外側レンズと、固定された鏡5244、たとえば実質的な平面状の固定された鏡と、画像センサ5246とを含む。いくつかの実施形態では、実質的な平面状の固定された鏡は、固定された平面鏡である。画像センサ5246は、関心シーンエリアの第2の部分の第2の画像をキャプチャするために使用される。光は、鏡5246に到達する前にレンズ5242を通過する。光方向変換デバイスである鏡5244は、レンズ5242を通過した光を画像センサ5246上に方向づける。
光学チェーン3 5222は、レンズ5248、たとえば外側レンズと、移動可能な実質的な平面鏡5250と、画像センサ5252とを含む。さまざまな実施形態では、移動可能な鏡5250はヒンジ取り付け部を含む。光学チェーン3 5222は、鏡移動モジュール5254、たとえば駆動モータおよび対応する駆動回路と、鏡位置検出モジュール5256、たとえば、レゾルバまたはシンクロまたは光学式ロータリエンコーダまたは磁気ロータリエンコーダなどの角度位置検知デバイスと、いくつかの実施形態では、センサ測定値をデジタル値に変換する回路、たとえばアナログ−デジタル変換器とをさらに含む。画像センサ5252は、関心シーンエリアの第3の部分の第3の画像をキャプチャするために使用される。光は、鏡5250に到達する前にレンズ5248を通過する。光方向変換デバイスである鏡5250は、レンズ5248を通過した光を画像センサ5252上に方向づける。
光学チェーン4 5224は、レンズ5258、たとえば外側レンズと、移動可能な実質的な平面鏡5260と、画像センサ5262とを含む。さまざまな実施形態では、移動可能な鏡5260はヒンジ取り付け部を含む。光学チェーン4 5224は、鏡移動モジュール5264、たとえば駆動モータおよび対応する駆動回路と、鏡位置検出モジュール5266、たとえば、レゾルバまたはシンクロまたは光学式ロータリエンコーダまたは磁気ロータリエンコーダなどの角度位置検知デバイスと、いくつかの実施形態では、センサ測定値をデジタル値に変換する回路、たとえばアナログ−デジタル変換器とをさらに含む。画像センサ5262は、関心シーンエリアの第4の部分の第4の画像をキャプチャするために使用される。光は、鏡5260に到達する前にレンズ5258を通過する。光方向変換デバイスである鏡5260は、レンズ5258を通過した光を画像センサ5262上に方向づける。
光学チェーン5 5226は、レンズ5268、たとえば外側レンズと、移動可能な実質的な平面鏡5270と、画像センサ5272とを含む。さまざまな実施形態では、移動可能な鏡5270はヒンジ取り付け部を含む。光学チェーン5 5226は、鏡移動モジュール5274、たとえば駆動モータおよび対応する駆動回路と、鏡位置検出モジュール5276、たとえば、レゾルバまたはシンクロまたは光学式ロータリエンコーダまたは磁気ロータリエンコーダなどの角度位置検知デバイスと、いくつかの実施形態では、センサ測定値をデジタル値に変換する回路、たとえばアナログ−デジタル変換器とをさらに含む。画像センサ5272は、関心シーンエリアの第5の部分の第5の画像をキャプチャするために使用される。光は、鏡5270に到達する前にレンズ5268を通過する。光方向変換デバイスである鏡5270は、レンズ5268を通過した光を画像センサ5272上に方向づける。
光学チェーン6 5228は、レンズ5278、たとえば外側レンズと、固定された鏡5280、たとえば固定された実質的な平面鏡と、画像センサ5282とを含む。いくつかの実施形態では、固定された実質的な平面鏡は、固定された平面鏡である。画像センサ5282は、関心シーンエリアの第6の部分の第6の画像をキャプチャするために使用される。光は、鏡5280に到達する前にレンズ5278を通過する。光方向変換デバイスである鏡5280は、レンズ5278を通過した光を画像センサ5282上に方向づける。
光学チェーン7 5230は、レンズ5284、たとえば外側レンズと、固定された鏡5286、たとえば固定された実質的な平面鏡と、画像センサ5288とを含む。いくつかの実施形態では、固定された実質的な平面鏡は、固定された平面鏡である。代替実施形態では、光学チェーン7 5230は、たとえばズーム設定には関係なく固定位置に設定された移動可能な実質的な平面鏡を含む。画像センサ5288は、関心シーンエリアの第7の部分の第7の画像をキャプチャするために使用される。光は、鏡5286に到達する前にレンズ5284を通過する。光方向変換デバイスである鏡5286は、レンズ5284を通過した光を画像センサ5288上に方向づける。
いくつかの例示的な実施形態では、第2の画像のサイズは、関心シーンのサイズと実質的に同じである。いくつかの実施形態では、第1の画像、第3の画像、第4の画像、および第5の画像のサイズは実質的に同じである。いくつかのそのような実施形態では、第1の画像のサイズは、関心シーンのサイズの約4分の1である。いくつかの実施形態では、第7の画像のサイズは第1の画像のサイズと実質的に同じであり、第6の画像のサイズは第2の画像のサイズと実質的に同じである。さまざまな実施形態では、第2の画像および第6の画像は、奥行き情報を計算するために使用される。
図53は、例示的な一実施形態による例示的なカメラデバイス5300の図である。カメラデバイス5300は、プロセッサ5202、たとえばCPUと、メモリ5204と、モジュールのアセンブリ5206、たとえば、回路などのハードウェアモジュールのアセンブリと、ユーザ入力インターフェース5208と、ディスプレイ5210と、I/Oインターフェース5212と、さまざまな要素がデータと情報とを交換し得るバス5231を介して互いに結合された複数の光学チェーン(光学チェーン1 5218、光学チェーン2 5220、光学チェーン3 5222、光学チェーン4 5224、光学チェーン5 5226、光学チェーン6 5228、光学チェーン7 5230)とを含む。いくつかの実施形態では、光学チェーン6 5328および光学チェーン7 5330は任意選択である。ディスプレイ5210、たとえば、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、有機発光ダイオード(OLED)ディスプレイ、またはアクティブマトリクス有機発光ダイオード(AMOLED)ディスプレイは、カメラ5300のユーザに画像、画像部分、ユーザメニューなどを表示するためのものである。ユーザ入力インターフェース5208としては、たとえば、ユーザからの入力を受け取るための、スイッチ、ボタン、タッチスクリーンインターフェースなどがある。I/Oインターフェース5212には、他のデバイスたとえばパーソナルコンピュータと通信するための複数の通信ポートがある。I/Oインターフェース5212は、いくつかの実施形態では、1つまたは複数のワイヤレス通信インターフェースを含む。I/Oインターフェース5212上で通信される情報としては、たとえば、複数の光学チェーンからキャプチャされた画像から生成された結合された画像、ならびに/または外部で、たとえばパーソナルコンピュータ内で、処理および/もしくは結合されることになる、個々の光学チェーンからキャプチャされた画像がある。
メモリ5204は、モジュールのアセンブリ5214と、データ/情報5216とを含む。データ/情報5216は、いくつかの実施形態では、ズーム設定を光方向変換デバイス位置にマッピングする格納された情報、たとえば図55のルックアップテーブル5500を含む。
光学チェーン1 5318は、レンズ5332、たとえば外側レンズと、移動可能なプリズム5334と、画像センサ5336とを含む。さまざまな実施形態では、移動可能なプリズム5334はヒンジ取り付け部を含む。光学チェーン1 5318は、プリズム移動モジュール5338、たとえば駆動モータおよび対応する駆動回路と、プリズム位置検出モジュール5340、たとえば、レゾルバまたはシンクロまたは光学式ロータリエンコーダまたは磁気ロータリエンコーダなどの角度位置検知デバイスと、いくつかの実施形態では、センサ測定値をデジタル値に変換する回路、たとえばアナログ−デジタル変換器とをさらに含む。画像センサ5336は、関心シーンエリアの第1の部分の第1の画像をキャプチャするために使用される。光は、プリズム5334に到達する前にレンズ5332を通過する。光方向変換デバイスであるプリズム5334は、レンズ5332を通過した光を画像センサ5334上に方向づける。
光学チェーン2 5320は、レンズ5342、たとえば外側レンズと、固定されたプリズム5344と、画像センサ5346とを含む。画像センサ5346は、関心シーンエリアの第2の部分の第2の画像をキャプチャするために使用される。光は、プリズム5346に到達する前にレンズ5342を通過する。光方向変換デバイスであるプリズム5344は、レンズ5342を通過した光を画像センサ5346上に方向づける。
光学チェーン3 5322は、レンズ5348、たとえば外側レンズと、移動可能なプリズム5350と、画像センサ5352とを含む。さまざまな実施形態では、移動可能なプリズム5350はヒンジ取り付け部を含む。光学チェーン3 5322は、プリズム移動モジュール5354、たとえば駆動モータおよび対応する駆動回路と、プリズム位置検出モジュール5346、たとえば、レゾルバまたはシンクロまたは光学式ロータリエンコーダまたは磁気ロータリエンコーダなどの角度位置検知デバイスと、いくつかの実施形態では、センサ測定値をデジタル値に変換する回路、たとえばアナログ−デジタル変換器とをさらに含む。画像センサ5352は、関心シーンエリアの第3の部分の第3の画像をキャプチャするために使用される。光は、プリズム5350に到達する前にレンズ5348を通過する。光方向変換デバイスであるプリズム5350は、レンズ5348を通過した光を画像センサ5352上に方向づける。
光学チェーン4 5324は、レンズ5358、たとえば外側レンズと、移動可能なプリズム5360と、画像センサ5362とを含む。さまざまな実施形態では、移動可能なプリズム5360はヒンジ取り付け部を含む。光学チェーン4 5324は、プリズム移動モジュール5364、たとえば駆動モータおよび対応する駆動回路と、プリズム位置検出モジュール5366、たとえば、レゾルバまたはシンクロまたは光学式ロータリエンコーダまたは磁気ロータリエンコーダなどの角度位置検知デバイスと、いくつかの実施形態では、センサ測定値をデジタル値に変換する回路、たとえばアナログ−デジタル変換器とをさらに含む。画像センサ5362は、関心シーンエリアの第4の部分の第4の画像をキャプチャするために使用される。光は、プリズム5360に到達する前にレンズ5358を通過する。光方向変換デバイスであるプリズム5360は、レンズ5358を通過した光を画像センサ5362上に方向づける。
光学チェーン5 5326は、レンズ5368、たとえば外側レンズと、移動可能なプリズム5370と、画像センサ5372とを含む。さまざまな実施形態では、移動可能なプリズム5370はヒンジ取り付け部を含む。光学チェーン5 5326は、プリズム移動モジュール5374、たとえば駆動モータおよび対応する駆動回路と、プリズム位置検出モジュール5376、たとえば、レゾルバまたはシンクロまたは光学式ロータリエンコーダまたは磁気ロータリエンコーダなどの角度位置検知デバイスと、いくつかの実施形態では、センサ測定値をデジタル値に変換する回路、たとえばアナログ−デジタル変換器とをさらに含む。画像センサ5372は、関心シーンエリアの第5の部分の第5の画像をキャプチャするために使用される。光は、プリズム5370に到達する前にレンズ5378を通過する。光方向変換デバイスであるプリズム5370は、レンズ5368を通過した光を画像センサ5372上に方向づける。
光学チェーン6 5328は、レンズ5278、たとえば外側レンズと、固定されたプリズム5380と、画像センサ5382とを含む。画像センサ5382は、関心シーンエリアの第6の部分の第6の画像をキャプチャするために使用される。光は、プリズム5380に到達する前にレンズ5378を通過する。光方向変換デバイスであるプリズム5380は、レンズ5378を通過した光を画像センサ5382上に方向づける。
光学チェーン7 5330は、レンズ5384、たとえば外側レンズと、固定されたプリズム5386と、画像センサ5388とを含む。いくつかの実施形態では、光学チェーン75338の固定位置プリズム5386は、ズーム設定には関係なく固定位置に設定された移動可能なプリズムによって置き換えられる。画像センサ5388は、関心シーンエリアの第7の部分の第7の画像をキャプチャするために使用される。光は、プリズム5386に到達する前にレンズ5384を通過する。光方向変換デバイスであるプリズム5386は、レンズ5384を通過した光を画像センサ5388上に方向づける。
いくつかの例示的な実施形態では、第2の画像のサイズは、関心シーンのサイズと実質的に同じである。いくつかの実施形態では、第1の画像、第3の画像、第4の画像、および第5の画像のサイズは実質的に同じである。いくつかのそのような実施形態では、第1の画像のサイズは、関心シーンのサイズの約4分の1である。いくつかの実施形態では、第7の画像のサイズは第1の画像のサイズと実質的に同じであり、第6の画像のサイズは第2の画像のサイズと実質的に同じである。さまざまな実施形態では、第2の画像および第6の画像は、奥行き情報を計算するために使用される。
図54は、本発明により実施されるカメラデバイスたとえば図52のカメラ5200または図53のカメラ5300に含まれ得るモジュールのアセンブリ5400の図である。モジュールのアセンブリ5400は、方法のステップ、たとえば図51の流れ図5100の方法のステップを実施し得る。いくつかの実施形態では、モジュールのアセンブリ5400は、互いに結合され得る回路のアセンブリである。例示的な一実施形態では、モジュールのアセンブリ5400は、図52のカメラ5200または図53のカメラ5300のモジュールのアセンブリ5206である。いくつかの実施形態では、モジュールのアセンブリ5400は、ソフトウェアモジュールのアセンブリである。例示的な一実施形態では、モジュールのアセンブリ5400は、図52のカメラデバイス5200または図53のカメラデバイス5300のメモリ5204のモジュールのアセンブリ5214である。
図54は、図52に示されるカメラデバイス5200または図53のカメラデバイス5300において使用可能であり、いくつかの実施形態では使用される、モジュールのアセンブリ5400を示す。モジュールのアセンブリ5400内のモジュールは、たとえば個々の回路として、プロセッサ5202内部のハードウェア内で完全に実施可能であり、いくつかの実施形態では、実施される。モジュールのアセンブリ5400内のモジュールは、たとえば異なるモジュールに対応する個々の回路として、モジュールのアセンブリ5206内部のハードウェア内で完全に実施可能であり、いくつかの実施形態では、実施される。他の実施形態では、モジュールのうちのいくつかは、プロセッサ5202の内部の、たとえば回路として、実施され、他のモジュールは、プロセッサの外部にあり、これに結合されたモジュールのアセンブリ5206の内部の、たとえば回路として、実施される。理解されるべきであるように、プロセッサ上での、および/またはプロセッサの外部にあるいくつかのモジュールとの、モジュールの統合のレベルは、設計上の選択肢の1つであり得る。
あるいは、回路として実施されるのではなく、モジュールのアセンブリ5400内のモジュールのすべてまたはいくつかは、ソフトウェア内で実施され、カメラデバイス5200またはカメラデバイス5300のメモリ5204内に格納され得、モジュールは、モジュールがプロセッサたとえばプロセッサ5202によって実行されるとき、モジュールに対応する機能を実施するように、カメラデバイス5200またはカメラデバイス5300の動作を制御する。いくつかのそのような実施形態では、モジュールのアセンブリ5400は、モジュールのアセンブリ5214としてメモリ5204に含まれる。さらに他の実施形態では、モジュールのアセンブリ5400内のさまざまなモジュールは、ハードウェアとソフトウェアの組み合わせとして実施され、たとえば、プロセッサの外部にある別の回路は、プロセッサ5202に入力を提供し、次いで、プロセッサ5202は、ソフトウェア制御下でモジュールの機能の一部分を実行するように動作する。図52および図53の実施形態では、単一のプロセッサたとえばコンピュータとして示されているが、プロセッサ5202は、1つまたは複数のプロセッサたとえばコンピュータとして実施され得ることを理解されたい。
ソフトウェア内で実施されるとき、モジュールは、プロセッサ5202によって実行されるとモジュールに対応する機能を実施するようにプロセッサ5202を構成するコードを含む。モジュールのアセンブリ5400がメモリ5204内に格納される実施形態では、メモリ5204は、少なくとも1つのコンピュータたとえばプロセッサ5202にモジュールが対応する機能を実施させるために、コード、たとえば各モジュールに対する個々のコードを備えるコンピュータ可読媒体を備えるコンピュータプログラム製品である。
完全にハードウェアベースのモジュールまたは完全にソフトウェアベースのモジュールが使用されてよい。しかしながら、ソフトウェアとハードウェアのいかなる組み合わせも、たとえば、回路により実施されるモジュールも、機能を実施するために使用され得ることを理解されたい。理解されるべきであるように、図54に示されるモジュールは、図51の方法流れ図5100に示される対応するステップの機能を実行するように、カメラデバイス5200またはカメラデバイス5300またはプロセッサ5202などのその中の要素を制御および/または構成する。したがって、モジュールのアセンブリ5400は、図51に示される方法の対応するステップの機能を実行するさまざまなモジュールを含む。
図54は、例示的な一実施形態によるモジュールのアセンブリ5400の図である。モジュールのアセンブリ5400は、光方向変換デバイス位置決め制御モジュール5402と、画像キャプチャ制御モジュール5404と、合成画像生成モジュール5406と、光方向変換デバイス位置計算モジュール5408と、ユーザズーム入力モジュール5410とを含む。
光方向変換デバイス位置決め制御モジュール5402は、示されたズーム設定に従って第1の位置に移動するように、第1の光学チェーンに含まれる第1の光方向変換デバイスを制御するように構成され、前記第1の光方向変換デバイスは、実質的な平面鏡またはプリズムのうちの1つである。いくつかの実施形態では、実質的な平面鏡は平面鏡である。
画像キャプチャ制御モジュール5404は、前記第1の光方向変換デバイスが第1の位置にある間、関心シーンの第1の部分の第1の画像をキャプチャするように第1の光学チェーンを制御するように構成される。画像キャプチャ制御モジュール5404は、関心シーンの第2の部分の第2の画像をキャプチャするように第2の光学チェーンを制御するようにさらに構成され、第2の画像は、前記第1の光方向変換デバイスが第1の位置にある間、キャプチャされる。いくつかの実施形態では、第1の画像と第2の画像は、画像キャプチャ制御モジュール5404の制御下で、同時にキャプチャされる。
いくつかの実施形態では、第1の光学チェーンと第2の光学チェーンは異なる焦点距離を有する。いくつかのそのような実施形態では、第1の光学チェーンは、第2の光学チェーンよりも大きい焦点距離を有する。さまざまな実施形態では、第1の光方向変換デバイスは移動可能な光方向変換デバイスを含み、第2の光学チェーンは移動可能な光方向変換デバイスを含まない。
さまざまな実施形態では、モジュールのアセンブリ5400を含むカメラデバイスは、第2の光方向変換デバイスを含む第3の光学チェーンと、第3の光方向変換デバイスを含む第4の光学チェーンと、第4の光方向変換デバイスを含む第5の光学チェーンとを含む。いくつかのそのような実施形態では、光方向変換デバイス位置決め制御モジュール5402は、示されたズーム設定に従って第3の光学チェーンの第2の光方向変換デバイスを第2の位置に移動させ、示されたズーム設定に従って第4の光学チェーンの第3の光方向変換デバイスを第3の位置に移動させ、示されたズーム設定に従って第5の光学チェーンの第4の光方向変換デバイスを第4の位置に移動させるようにさらに構成される。いくつかのそのような実施形態では、画像キャプチャ制御モジュール5404は、第1の光方向変換デバイスが第1の位置にある間、関心シーンの第3の部分の第3の画像をキャプチャするように第3の光学チェーンを制御し、第1の光方向変換デバイスが第1の位置にある間、関心シーンの第4の部分の第4の画像をキャプチャするように第4の光学チェーンを制御し、第1の光方向変換デバイスが第1の位置にある間、関心シーンの第5の部分の第5の画像をキャプチャするように第5の光学チェーンを制御するようにさらに構成される。
いくつかの実施形態では、モジュールのアセンブリ5400を含むカメラデバイスは、第6の光学チェーンと第7の光学チェーンとをさらに含み、画像キャプチャ制御モジュール5404は、第1の光方向変換デバイスが第1の位置にある間、関心シーンの第6の部分の第6の画像をキャプチャするように第6の光学チェーンを制御し、第1の光方向変換デバイスが第1の位置にある間、関心シーンの第7の部分の第7の画像をキャプチャするように第7の光学チェーンを制御するようにさらに構成される。さまざまな実施形態では、第1の光学チェーン、第2の光学チェーン、第3の光学チェーン、第4の光学チェーン、第5の光学チェーン、第6の光学チェーン、および第7の光学チェーンは、移動可能な光方向変換デバイスが移動していない時間間隔中に画像をキャプチャするように、画像キャプチャ制御モジュール5404の指示に従って制御される。さまざまな実施形態では、第1の光学チェーン、第2の光学チェーン、第3の光学チェーン、第4の光学チェーン、第5の光学チェーン、第6の光学チェーン、および第7の光学チェーンは、キャプチャされた画像の各々が、他のキャプチャされた画像に少なくとも部分的に適時に重複するように、画像をキャプチャするように、画像キャプチャ制御モジュール5404の指示に従って制御される。いくつかの実施形態では、第1の光学チェーン、第2の光学チェーン、第3の光学チェーン、第4の光学チェーン、第5の光学チェーン、第6の光学チェーン、および第7の光学チェーンは、画像を同時にキャプチャするように、画像キャプチャ制御モジュール5404の指示に従って制御される。
合成画像生成モジュール5406は、示されたズーム設定に対応する合成画像を生成するために少なくとも第1の画像と第2の画像とを結合するように構成される。モジュールのアセンブリ5400を含むカメラデバイスが5つの光学チェーンを含むいくつかの実施形態では、合成画像生成モジュール5406は、示されたズーム設定に対応する合成画像を生成するために、第1の画像と第2の画像と第3の画像と第4の画像と第5の画像とを結合するように構成される。モジュールのアセンブリ5400を含むカメラデバイスが7つの光学チェーンを含むいくつかの実施形態では、合成画像生成モジュール5406は、示されたズーム設定に対応する合成画像を生成する、たとえば、重複する部分からの情報を結合するために、第1の画像と第2の画像と第3の画像と第4の画像と第5の画像と第6の画像と第7の画像とを結合するように構成される。
さまざまな実施形態では、第1の光学チェーン、第3の光学チェーン、第4の光学チェーン、および第5の光学チェーンは同じ焦点距離を有し、第2の光学チェーンよりも小さい関心シーンエリアの部分をキャプチャする。いくつかの実施形態では、第2の光学チェーンおよび第6の光学チェーンは同じ焦点距離を有し、関心シーンの同じ部分または関心シーンの実質的に同じ部分をキャプチャする。
光方向変換デバイス位置計算モジュール5408は、たとえば、第1の光学チェーンの第1の移動可能な光方向変換デバイス、第3の光学チェーンの第2の移動可能な光方向変換デバイス、第4の光学チェーンの第3の移動可能な光方向変換デバイス、および第5の光学チェーンの第4の移動可能な光方向変換デバイスに関して、示されたズーム設定に従って第1の光方向変換デバイスを移動させる前に、示されたズーム設定に基づいて光方向変換デバイス位置を計算するように構成される。
ユーザズーム入力モジュール5410は、たとえばユーザ入力インターフェース5208から、ズーム設定を示すユーザ入力を受け取るように構成される。
図55は、移動可能な光方向変換デバイスを含む4つの光学チェーンを含む例示的な一実施形態による、例示的な格納されたズーム設定と光方向変換デバイス位置のマッピングテーブル5500の図である。たとえば、テーブル5500は、図51の流れ図5100による方法を実施するときに使用され得る。移動可能な光方向変換デバイスは、たとえば、鏡たとえば実質的な平面鏡、またはプリズムである。いくつかの実施形態では、実質的な平面鏡は平面鏡である。この例では、光学チェーン1、3、4、および5は、移動可能な光方向変換デバイスを含む。4つの移動可能な光方向変換デバイスは、たとえば、図52のカメラ5200の移動可能な制御可能な鏡(5234、5250、5260、5270)または図53のカメラ5300の移動可能な制御可能なプリズム(5334、5350、5360、5370)である。
第1の行5502は、列(第1の列5502、第2の列5504、第3の列5506、第4の列5508、第5の列5510、第6の列5512、第7の列5514、8の列5516、第9の列5518)にそれぞれ対応する9つの列ヘッダ(ズーム設定、光学チェーン1の光方向変換デバイス1の位置、光学チェーン1の光方向変換デバイス1の角度、光学チェーン3の光方向変換デバイス2の位置、光学チェーン3の光方向変換デバイス2の角度、光学チェーン4の光方向変換デバイス3の位置、光学チェーン4の光方向変換デバイス3の角度、光学チェーン5の光方向変換デバイス4の位置、光学チェーン5の光方向変換デバイス4の角度)を含む。テーブル5500では、第1の位置は、移動可能な光方向変換デバイス1である、光学チェーン1の光方向変換デバイスのための設定位置である。αは、第1の位置に対応する角度設定である。第2の位置は、移動可能な光方向変換デバイス2である、光学チェーン3の光方向変換デバイスのための設定位置である。βは、第2の位置に対応する角度設定である。第3の位置は、移動可能な光方向変換デバイス3である、光学チェーン4の光方向変換デバイスのための設定位置である。θは、第3の位置に対応する角度設定である。第4の位置は、移動可能な光方向変換デバイス4である、光学チェーン5の光方向変換デバイスのための設定位置である。Фは、第4の位置に対応する角度設定である。
第2の行5522は、1Xのズーム設定に対して、第1の位置=P1A、α=α1、第2の位置=P2A、β=β1、第3の位置=P3A、θ=θ1、第4の位置=P4A、およびФ=Ф1であることを示す。第3の行5524は、2Xのズーム設定に対して、第1の位置=P1B、α=α2、第2の位置=P2B、β=β2、第3の位置=P3B、θ=θ2、第4の位置=P4B、およびФ=Ф2であることを示す。第4の行5526は、3Xのズーム設定に対して、第1の位置=P1C、α=α3、第2の位置=P2C、β=β3、第3の位置=P3C、θ=θ3、第4の位置=P4C、およびФ=Ф3であることを示す。第5の行5528は、4Xのズーム設定に対して、第1の位置=P1D、α=α4、第2の位置=P2D、β=β4、第3の位置=P3D、θ=θ4、第4の位置=P4D、およびФ=Ф4であることを示す。
図56は、例示的な一実施形態による、結合された画像が、1Xのズーム設定に対応して、複数の光学チェーンからのキャプチャされた画像から生成される例を示す図5600である。たとえば、図52のカメラデバイス5200または図53のカメラデバイス5300は、図55の格納されるズーム光設定と光方向変換デバイス位置のマッピングテーブル5500を使用し、1Xのズーム設定に従って移動可能な光方向変換デバイスを位置決めし、光学チェーンから画像(5604、5606、5608、5610、5612、5614、5616)をキャプチャし、結合された画像5618を生成するために、図51の流れ図5100による方法を実施する。エリア5602は、関心シーンエリアを表す。第1の画像5604は関心シーン5602の第1の部分のものであり、第1の光学チェーンを使用してキャプチャされ、第1の光学チェーンの移動可能な光方向変換デバイスは、テーブル5500に列挙されるように、第1の光学チェーンのための1Xズーム設定に対応する、変数第1の位置=値P1A、および変数α=値α1であるように、設定される。第2の画像5606は関心シーン5602の第2の部分のものであり、第2の光学チェーンを使用してキャプチャされる。第3の画像5608は関心シーン5602の第3の部分のものであり、第3の光学チェーンを使用してキャプチャされ、第3の光学チェーンの移動可能な光方向変換デバイスは、テーブル5500に列挙されるように、第3の光学チェーンのための1Xズーム設定に対応する、変数第2の位置=値P2A、および変数β=値β1であるように、設定される。第4の画像5610は関心シーン5602の第4の部分のものであり、第4の光学チェーンを使用してキャプチャされ、第4の光学チェーンの移動可能な光方向変換デバイスは、テーブル5500に列挙されるように、第4の光学チェーンのための1Xズーム設定に対応する、変数第3の位置=値P3A、および変数θ=値θ1であるように、設定される。第5の画像5612は関心シーン5602の第5の部分のものであり、第5の光学チェーンを使用してキャプチャされ、第5の光学チェーンの移動可能な光方向変換デバイスは、テーブル5500に列挙されるように、第5の光学チェーンのための1Xズーム設定に対応する、変数第4の位置=値P4A、および変数Ф=値Ф1であるように、設定される。第6の画像5614は関心シーン5602の第6の部分のものであり、第6の光学チェーンを使用してキャプチャされる。第7の画像5616は関心シーン5602の第7の部分のものであり、第7の光学チェーンを使用してキャプチャされる。
第1の画像5604は、関心シーンの左上コーナーに対応する、関心シーン5602の第1の部分のものである。第2の画像5606は、関心シーンのエリア全体または関心シーンのエリアの実質的に全体に対応する、関心シーン5602の第2の部分のものである。第3の画像5608は、関心シーンの左下コーナーに対応する、関心シーン5602の第3の部分のものである。第4の画像5610は、関心シーンの右上コーナーに対応する、関心シーン5602の第4の部分のものである。第5の画像5612は、関心シーンの右下コーナーに対応する、関心シーン5602の第5の部分のものである。第6の画像5614は、関心シーンのエリア全体または関心シーンのエリアの実質的に全体に対応する、関心シーン5602の第6の部分のものである。第7の画像5616は、関心シーンの中心エリアに対応する、関心シーン5602の第7の部分のものである。
1X設定に対する、結合された画像5618は、関心シーンのエリア5602全体または関心シーンのエリア5602の実質的に全体に対応する合成画像5618を生成するために、キャプチャされた画像(5604、5606、5608、5610、5612、5614、5616)を結合することによって、生成される。結合された画像5618の中心のエリアは、結合された画像5618の外部近くのエリアよりも多くのキャプチャされた画像からの情報を使用して生成されることに留意されたい。
図57は、例示的な一実施形態による、組み合わされた画像が、2Xのズーム設定に対応して、複数の光学チェーンからのキャプチャされた画像から生成される例を示す図5700である。たとえば、図52のカメラデバイス5200または図53のカメラデバイス5300は、図55の格納されるズーム光設定と光方向変換デバイス位置のマッピングテーブル5500を使用し、2Xのズーム設定に従って移動可能な光方向変換デバイスを位置決めし、光学チェーンから画像(5704、5706、5708、5710、5712、5714、5716)をキャプチャし、結合された画像5718を生成するために、図51の流れ図5100による方法を実施する。エリア5702は、関心シーンエリアを表す。第1の画像5704は関心シーン5702の第1の部分のものであり、第1の光学チェーンを使用してキャプチャされ、第1の光学チェーンの移動可能な光方向変換デバイスは、テーブル5500に列挙されるように、第1の光学チェーンのための2Xズーム設定に対応する、変数第1の位置=値P1B、および変数α=値α2であるように、設定される。第2の画像5706は関心シーン5702の第2の部分のものであり、第2の光学チェーンを使用してキャプチャされる。第3の画像5708は関心シーン5702の3の部分のものであり、第3の光学チェーンを使用してキャプチャされ、第3の光学チェーンの移動可能な光方向変換デバイスは、テーブル5500に列挙されるように、第3の光学チェーンのための2Xズーム設定に対応する、変数第2の位置=値P2B、および変数β=値β 2であるように、設定される。第4の画像5710は関心シーン5702の第4の部分のものであり、第4の光学チェーンを使用してキャプチャされ、第4の光学チェーンの移動可能な光方向変換デバイスは、テーブル5500に列挙されるように、第4の光学チェーンのための2Xズーム設定に対応する、変数第3の位置=値P3B、および変数θ=値θ2であるように、設定される。第5の画像5712は関心シーン5702の第5の部分のものであり、第5の光学チェーンを使用してキャプチャされ、第5の光学チェーンの移動可能な光方向変換デバイスは、テーブル5500に列挙されるように、第5の光学チェーンのための2Xズーム設定に対応する、変数第4の位置=値P4B、および変数Ф=値Ф2であるように、設定される。第6の画像5714は関心シーン5702の第6の部分のものであり、第6の光学チェーンを使用してキャプチャされる。第7の画像5716は関心シーン5702の第7の部分のものであり、第7の光学チェーンを使用してキャプチャされる。
第1の画像5704は、関心シーンの中心から関心シーンの左上コーナーまで延在する対角線に沿って中心が置かれた、関心シーンの左上エリア内のエリアに対応する関心シーン5702の第1の部分のものである。第2の画像5706は、関心シーンのエリア全体または関心シーンのエリアの実質的に全体に対応する、関心シーン5702の第2の部分のものである。第3の画像5708は、関心シーンの中心から関心シーンの左下コーナーまで延在する対角線に沿って中心が置かれた、関心シーンの左下エリアに対応する関心シーン5702の第3の部分のものである。第4の画像5710は、関心シーンの中心から関心シーンの右上コーナーまで延在する対角線に沿って中心が置かれた、関心シーンの右上エリアに対応する関心シーン5702の第4の部分のものである。第5の画像5712は、関心シーンの中心から関心シーンの右下コーナーまで延在する対角線に沿って中心が置かれた、関心シーンの右下エリアに対応する関心シーン5702の第5の部分のものである。第6の画像5714は、関心シーンのエリア全体または関心シーンのエリアの実質的に全体に対応する、関心シーン5702の第6の部分のものである。第7の画像5716は、関心シーンの中心エリアに対応する、関心シーン5702の第7の部分のものである。
2Xズーム設定に対する、結合された画像5718は、関心シーンのエリアの2分の1または約2分の1であるエリアに対応し、関心シーンの中心に中心が置かれた合成画像5718を生成するために、キャプチャされた画像(5704、5706、5708、5710、5712、5714、5716)、たとえば、境界線が使用される合成画像5718のエリア内にあるキャプチャされた画像内の重複するエリアからの情報を結合することによって生成される。結合された画像5718は、第1の画像5704、トリミングされた第2の画像5707、第3の画像5708、第4の画像5710、第5の画像5712、トリミングされた第6の画像5715、および第7の画像5716から生成されることに留意されたい。結合された画像5718の中心のエリアは、結合された画像5718の外部近くのエリアよりも多くのキャプチャされた画像からの情報を使用して生成されることに留意されたい。
図58は、例示的な一実施形態による、組み合わされた画像が、3Xのズーム設定に対応して、複数の光学チェーンからのキャプチャされた画像から生成される例を示す図5800である。たとえば、図52のカメラデバイス5200または図53のカメラデバイス5300は、図55の格納されるズーム光設定と光方向変換デバイス位置のマッピングテーブル5500を使用し、3Xのズーム設定に従って移動可能な光方向変換デバイスを位置決めし、光学チェーンから画像(5804、5806、5808、5810、5812、5814、5816)をキャプチャし、結合された画像5818を生成するために、図51の流れ図5100による方法を実施する。エリア5802は、関心シーンエリアを表す。第1の画像5804は関心シーン5802の第1の部分のものであり、第1の光学チェーンを使用してキャプチャされ、第1の光学チェーンの移動可能な光方向変換デバイスは、テーブル5500に列挙されるように、第1の光学チェーンのための3Xズーム設定に対応する、変数第1の位置=値P1C、および変数α=値α3であるように、設定される。第2の画像5806は関心シーン5802の第2の部分のものであり、第2の光学チェーンを使用してキャプチャされる。第3の画像5808は関心シーン5802の第3の部分のものであり、第3の光学チェーンを使用してキャプチャされ、第3の光学チェーンの移動可能な光方向変換デバイスは、テーブル5500に列挙されるように、第3の光学チェーンのための3Xズーム設定に対応する、変数第2の位置=値P2C、および変数β=値β 3であるように、設定される。第4の画像5810は関心シーン5802の第4の部分のものであり、第4の光学チェーンを使用してキャプチャされ、第4の光学チェーンの移動可能な光方向変換デバイスは、テーブル5500に列挙されるように、第4の光学チェーンのための3Xズーム設定に対応する、変数第3の位置=値P3C、および変数θ=値θ3であるように、設定される。第5の画像5812は関心シーン5802の第5の部分のものであり、第5の光学チェーンを使用してキャプチャされ、第5の光学チェーンの移動可能な光方向変換デバイスは、テーブル5500に列挙されるように、第5の光学チェーンのための3Xズーム設定に対応する、変数第4の位置=値P4C、および変数Ф=値Ф3であるように、設定される。第6の画像5814は関心シーン5802の第6の部分のものであり、第6の光学チェーンを使用してキャプチャされる。第7の画像5816は関心シーン5802の第7の部分のものであり、第7の光学チェーンを使用してキャプチャされる。
第1の画像5804は、関心シーンの中心から関心シーンの左上コーナーまで延在する対角線に沿って中心が置かれた、関心シーンの左上エリア内のエリアに対応する関心シーン5802の第1の部分のものである。第2の画像5806は、関心シーンのエリア全体または関心シーンのエリアの実質的に全体に対応する、関心シーン5802の第2の部分のものである。第3の画像5808は、関心シーンの中心から関心シーンの左下コーナーまで延在する対角線に沿って中心に置かれた、関心シーンの左下エリアに対応する関心シーン5802の第3の部分のものである。第4の画像5810は、関心シーンの中心から関心シーンの右上コーナーまで延在する対角線に沿って中心に置かれた、関心シーンの右上エリアに対応する関心シーン5802の第4の部分のものである。第5の画像5812は、関心シーンの中心から関心シーンの右下コーナーまで延在する対角線に沿って中心に置かれた、関心シーンの右下エリアに対応する関心シーン5802の第5の部分のものである。第6の画像5814は、関心シーンのエリア全体または関心シーンのエリアの実質的に全体に対応する、関心シーン5802の第6の部分のものである。第7の画像5816は、関心シーンの中心エリアに対応する、関心シーン5802の第7の部分のものである。
3Xズーム設定に対する、結合された画像5818は、関心シーンのエリアの3分の1または約3分の1であるエリアに対応し、関心シーンの中心に中心が置かれた合成画像5818を生成するために、キャプチャされた画像(5804、5806、5808、5810、5812、5814、5816)、たとえば、境界線が使用される合成画像5718のエリア内にあるキャプチャされた画像内の重複するエリアからの情報を結合することによって生成される。結合された画像5818は、第1の画像5804、トリミングされた第2の画像5807、第3の画像5808、第4の画像5810、第5の画像5812、トリミングされた第6の画像5815、および第7の画像5816から生成されることに留意されたい。結合された画像5818の中心のエリアは、結合された画像5818の外部近くのエリアよりも多くのキャプチャされた画像からの情報を使用して生成されることに留意されたい。
図59は、例示的な一実施形態による、組み合わされた画像が、4Xのズーム設定に対応して、複数の光学チェーンからのキャプチャされた画像から生成される例を示す図5900である。たとえば、図52のカメラデバイス5200または図53のカメラデバイス5300は、図55の格納されるズーム光設定と光方向変換デバイス位置のマッピングテーブル5500を使用し、4Xのズーム設定に従って移動可能な光方向変換デバイスを位置決めし、光学チェーンから画像(5904、5906、5908、5910、5912、5914、5916)をキャプチャし、結合された画像5918を生成するために、図51の流れ図5100による方法を実施する。エリア5902は、関心シーンエリアを表す。第1の画像5904は関心シーン5902の第1の部分のものであり、第1の光学チェーンを使用してキャプチャされ、第1の光学チェーンの移動可能な光方向変換デバイスは、テーブル5500に列挙されるように、第1の光学チェーンのための4Xズーム設定に対応する、変数第1の位置=P1D、および変数α=値α4であるように、設定される。第2の画像5906は関心シーン5902の第2の部分のものであり、第2の光学チェーンを使用してキャプチャされる。第3の画像5908は関心シーン5902の第3の部分のものであり、第3の光学チェーンを使用してキャプチャされ、第3の光学チェーンの移動可能な光方向変換デバイスは、テーブル5500に列挙されるように、第3の光学チェーンのための4Xズーム設定に対応する、変数第2の位置=値P2D、および変数β=値β 4であるように、設定される。第4の画像5910は関心シーン5902の第4の部分のものであり、第4の光学チェーンを使用してキャプチャされ、第4の光学チェーンの移動可能な光方向変換デバイスは、テーブル5500に列挙されるように、第4の光学チェーンのための4Xズーム設定に対応する、変数第3の位置=値P3D、および変数θ=値θ4であるように、設定される。第5の画像5912は関心シーン5902の第5の部分のものであり、第5の光学チェーンを使用してキャプチャされ、第5の光学チェーンの移動可能な光方向変換デバイスは、テーブル5500に列挙されるように、第5の光学チェーンのための4Xズーム設定に対応する、変数第4の位置=値P4D、および変数Ф=値Ф4であるように、設定される。第6の画像5914は関心シーン5902の第6の部分のものであり、第6の光学チェーンを使用してキャプチャされる。第7の画像5916は関心シーン5902の第7の部分のものであり、第7の光学チェーンを使用してキャプチャされる。
第1の画像5904は、関心シーンの中心エリアに対応する、関心シーン5902の第1の部分のものである。第2の画像5906は、関心シーンのエリア全体または関心シーンのエリアの実質的に全体に対応する、関心シーン5902の第2の部分のものである。第3の画像5908は、関心シーンの中心エリアに対応する、関心シーン5902の第3の部分のものである。第4の画像5910は、関心シーンの中心エリアに対応する、関心シーン5902の第4の部分のものである。第5の画像5912は、関心シーンの中心エリアに対応する、関心シーン5902の第5の部分のものである。第6の画像5914は、関心シーンのエリア全体または関心シーンのエリアの実質的に全体に対応する、関心シーン5902の第6の部分のものである。第7の画像5916は、関心シーンの中心エリアに対応する、関心シーン5902の第7の部分のものである。
4Xズーム設定に対する、結合された画像5918は、関心シーンのエリアの4分の1または約4分の1であるエリアに対応し、関心シーンの中心に中心が置かれた合成画像5918を生成するために、キャプチャされた画像(5904、5906、5908、5910、5912、5914、5916)、たとえば、キャプチャされた画像内の重複するエリアからの情報を結合することによって生成される。結合された画像5918は、第1の画像5904、トリミングされた第2の画像5907、第3の画像5908、第4の画像5910、第5の画像5912、トリミングされた第6の画像5915、および第7の画像5916から生成されることに留意されたい。
図60A、図60B、図60C、および図60Dの組み合わせを備える図60は、例示的な一実施形態による、画像をキャプチャする例示的な方法の流れ図6000である。流れ図6000の例示的な方法は、複数の光学チェーンを含むカメラデバイスによって、または複数の光学チェーンを含むカメラデバイスおよび画像処理デバイスによって実行され得る。いくつかの実施形態では、カメラデバイスは、スマートフォンとカメラのうちの1つである。いくつかの実施形態では、画像処理デバイスはパーソナルコンピュータである。
例示的な方法の動作はステップ6002で開始し、ステップ6004に進む。ステップ6004では、カメラデバイスは、ユーザ制御ズームインまたはユーザ制御ズームアウトを示す情報を監視する。ステップ6004は、継続的に実行される。ステップ6004は、ユーザ制御ズームイン動作またはユーザ制御ズームアウト動作が実行可能であることを示す情報をカメラデバイスが検出するステップ6006を含み得、場合によっては、これを含む。動作は、ステップ6006からステップ6008に進む。検出がユーザ制御ズームインに対するものである場合、動作はステップ6008からステップ6010に進む。しかしながら、検出がユーザ制御ズームアウトに対するものである場合は、動作はステップ6008から、接続ノード6012を介してステップ6014に進む。
ステップ6010に戻ると、ステップ6010では、カメラデバイスが、ユーザ制御に応答してズームイン動作を実施する。ステップ6010は、ステップ6016とステップ6018とを含む。いくつかの実施形態では、ステップ6010は、ステップ6020と6022の一方または両方をさらに含む。ステップ6016では、カメラデバイスが、カメラデバイスの第1の光学チェーンの第1の光方向変換デバイスの方向を調整し、この第1の光方向変換デバイスは実質的な平面鏡またはプリズムのうちの1つであり、前記調整は、前記カメラデバイスの第1の光学チェーンによってキャプチャされたシーンエリアと前記カメラデバイスの第2の光学チェーンによってキャプチャされたシーンエリアにおける重複を増加させる。いくつかの実施形態では、実質的な平面鏡は平面鏡である。
ステップ6018では、カメラデバイスが、カメラデバイスの第2の光学チェーンの第2の光方向変換デバイスの方向を調整し、この第2の光方向変換デバイスは鏡またはプリズムのうちの1つであり、前記調整は、第1の光学チェーンおよび第2の光学チェーンによってキャプチャされるシーンエリアにおける重複を増加させる。ステップ6020では、カメラデバイスは、カメラデバイスの第4の光学チェーンの第4の光方向変換デバイスの方向を調整し、この第4の光方向変換デバイスは鏡またはプリズムのうちの1つであり、前記調整は、第1の光学チェーン、第2の光学チェーン、および第4の光学チェーンによってキャプチャされるシーンエリアにおける重複を増加させる。ステップ6022では、カメラデバイスは、カメラデバイスの第5の光学チェーンの第5の光方向変換デバイスの方向を調整し、この第5の光方向変換デバイスは鏡またはプリズムのうちの1つであり、前記調整は、第1の光学チェーン、第2の光学チェーン、第4の光学チェーン、および第5の光学チェーンによってキャプチャされるシーンエリアにおける重複を増加させる。
ステップ6014に戻ると、ステップ6014では、カメラデバイスが、ユーザ制御に応答してズームアウト動作を実施する。ステップ6014は、ステップ6026とステップ6028とを含む。いくつかの実施形態では、ステップ6014は、ステップ6030と6032の一方または両方をさらに含む。ステップ6026では、カメラデバイスが、カメラデバイスの第1の光学チェーンの第1の光方向変換デバイスの方向を調整し、前記調整は、前記カメラデバイスの第1の光学チェーンおよび前記カメラデバイスの第2の光学チェーンによってキャプチャされるシーンエリアにおける重複を減少させる。
ステップ6028では、カメラデバイスが、カメラデバイスの第2の光学チェーンの第2の光方向変換デバイスの方向を調整し、前記調整は、第1の光学チェーンおよび第2の光学チェーンによってキャプチャされるシーンエリアにおける重複を減少させる。ステップ6030では、カメラデバイスは、カメラデバイスの第4の光学チェーンの第4の光方向変換デバイスの方向を調整し、前記調整は、第1の光学チェーン、第2の光学チェーン、および第4の光学チェーンによってキャプチャされるシーンエリアにおける重複を減少させる。ステップ6032では、カメラデバイスは、カメラデバイスの第5の光学チェーンの第5の光方向変換デバイスの方向を調整し、前記調整は、第1の光学チェーン、第2の光学チェーン、第4の光学チェーン、および第5の光学チェーンによってキャプチャされるシーンエリアにおける重複を減少させる。
動作は、ステップ6010またはステップ6014から、接続ノードB6024を介して、ステップ6036、6038、および6040に進む。いくつかの実施形態では、動作はまた、接続ノードB6024を介して、ステップ6042、6044、6046、6048、6050、6052、および6054のうちの1つまたは複数またはすべてに進む。
ステップ6036では、カメラデバイスが、第1の光学チェーンを使用してシーンエリアの画像をキャプチャする。ステップ6038では、カメラデバイスは、第2の光学チェーンを使用してシーンエリアの画像をキャプチャする。ステップ6040では、カメラデバイスは、第3の光学チェーンを使用してシーンエリアの画像をキャプチャする。ステップ6042では、カメラデバイスは、第4の光学チェーンを使用してシーンエリアの画像をキャプチャする。ステップ6044では、カメラデバイスは、第5の光学チェーンを使用してシーンエリアの画像をキャプチャする。ステップ6046では、カメラデバイスは、第6の光学チェーンを使用してシーンエリアの画像をキャプチャする。ステップ6048では、カメラデバイスは、第7の光学チェーンを使用してシーンエリアの画像をキャプチャする。ステップ6050では、カメラデバイスは、第8の光学チェーンを使用してシーンエリアの画像をキャプチャする。ステップ6052では、カメラデバイスは、第9の光学チェーンを使用してシーンエリアの画像をキャプチャする。ステップ6054では、カメラデバイスは、第10の光学チェーンを使用してシーンエリアの画像をキャプチャする。
動作は、ステップ6036、6038、6040、6042、6044、6046、6048、6050、6052、および6054から、接続ノードC6056を介して、ステップ6058に進む。ステップ6058では、合成画像が、ズーム焦点距離設定に従って生成される。ステップ6058は、ステップ6060、6062、6064、6066、6068、6070、および6072のうちの1つまたは複数またはすべてを含む。いくつかの実施形態では、ステップ6058は、ステップ6060、6062、6064、6066、6068、6070、および6072のうちの1つを含む。
ステップ6060では、合成画像が、第1の光学チェーン、第2の光学チェーン、および第3の光学チェーンによってキャプチャされた画像から、ズーム設定に従って生成される。いくつかのそのような実施形態では、ステップ6060はステップ6074を含み、ステップ6074では、ズーム焦点距離設定がf2よりも大きいとき、第3の光学チェーンによってキャプチャされた画像に対してトリミング動作が実行される。
ステップ6062では、合成画像が、第1の光学チェーン、第2の光学チェーン、第3の光学チェーン、第4の光学チェーン、および第5の光学チェーンによってキャプチャされた画像から、ズーム設定に従って生成される。いくつかのそのような実施形態では、ステップ6062はステップ6076を含み、ステップ6074では、ズーム焦点距離設定がf2よりも大きいとき、第3の光学チェーンによってキャプチャされた画像に対してトリミング動作が実行される。
ステップ6064では、合成画像が、第1の光学チェーン、第2の光学チェーン、第3の光学チェーン、第4の光学チェーン、第5の光学チェーン、および第6の光学チェーンによってキャプチャされた画像から、ズーム設定に従って生成される。いくつかのそのような実施形態では、ステップ6064はステップ6078を含み、ステップ6078では、ズーム焦点距離設定がf2よりも大きいとき、第3の光学チェーンによってキャプチャされた画像に対してトリミング動作が実行される。
ステップ6066では、合成画像が、第1の光学チェーン、第2の光学チェーン、第3の光学チェーン、第4の光学チェーン、第5の光学チェーン、第6の光学チェーン、および第7の光学チェーンによってキャプチャされた画像から、ズーム設定に従って生成される。いくつかのそのような実施形態では、ステップ6066はステップ6080を含み、ステップ6080では、ズーム焦点距離設定がf2よりも大きいとき、第3の光学チェーンおよび第7の光学チェーンによってキャプチャされた画像に対してトリミング動作が実行される。
ステップ6068では、合成画像が、第1の光学チェーン、第2の光学チェーン、第3の光学チェーン、第4の光学チェーン、第5の光学チェーン、第6の光学チェーン、第7の光学チェーン、および第8の光学チェーンによってキャプチャされた画像から、ズーム設定に従って生成される。いくつかのそのような実施形態では、ステップ6068はステップ6082を含み、ステップ6074では、ズーム焦点距離設定がf2よりも大きいとき、第3の光学チェーン、第7の光学チェーンおよび第8の光学チェーンによってキャプチャされた画像に対してトリミング動作が実行される。
ステップ6070では、合成画像が、第1の光学チェーン、第2の光学チェーン、第3の光学チェーン、第4の光学チェーン、第5の光学チェーン、第6の光学チェーン、第7の光学チェーン、第8の光学チェーン、および第9の光学チェーンによってキャプチャされた画像から、ズーム設定に従って生成される。いくつかのそのような実施形態では、ステップ6070はステップ6084を含み、ステップ6084では、ズーム焦点距離設定がf2よりも大きいとき、第3の光学チェーン、第7の光学チェーン、第8の光学チェーン、および第9の光学チェーンによってキャプチャされた画像に対してトリミング動作が実行される。
ステップ6072では、合成画像が、第1の光学チェーン、第2の光学チェーン、第3の光学チェーン、第4の光学チェーン、第5の光学チェーン、第6の光学チェーン、第7の光学チェーン、第8の光学チェーン、第9の光学チェーン、および第10の光学チェーンによってキャプチャされた画像から、ズーム設定に従って生成される。いくつかのそのような実施形態では、ステップ6072はステップ6086を含み、ステップ6086では、ズーム焦点距離設定がf2よりも大きいとき、第3の光学チェーン、第7の光学チェーン、第8の光学チェーン、第9の光学チェーン、および第10の光学チェーンによってキャプチャされた画像に対してトリミング動作が実行される。
動作はステップ6058からステップ6088に進み、ステップ6088では、生成された合成画像がメモリ内に格納される。いくつかの実施形態では、ステップ6058および6088は、画像をキャプチャしたカメラデバイスによって実行される。他の実施形態では、ステップ6058および6088は、画像処理デバイス、たとえば、キャプチャされた画像を複数の光学チェーンから受け取ったパーソナルコンピュータによって実行される。
動作は、ステップ6088から、接続ノードD6090を介して、ステップ6004に進む。
いくつかの実施形態では、焦点距離f2は小さい焦点距離であり、光学チェーンは大きいエリアをキャプチャし、トリミングは、ユーザにより選択されたズーム設定に基づいて必要な範囲で使用されるので、f2に対応する光学チェーンのうちの1つまたは複数またはすべてが、鏡を必要とせず、これを含まない。
さまざまな実施形態では、f1>f2である。いくつかのそのような実施形態では、f1=2 f2である。さまざまな実施形態では、最大ズームインは、ユーザにより選択されたズーム焦点距離設定=f1に対応し、f2焦点距離チェーンに対するトリミングが行われる。
いくつかの実施形態では、最大ズームイン時、重複は、合成画像を生成するために使用されるさまざまなチェーンに関して、合計である。いくつかの実施形態では、最大ズームイン時、たとえば第1のチェーン、第2のチェーン、第4のチェーン、および第5の光学チェーンの移動可能な鏡は各々、その光学チェーンのそれぞれのセンサに対して45度の角度に設定される。
さまざまな実施形態では、最大ズームアウト時、重複は、移動可能な光方向変換デバイスを有するチェーン間で最小であり、個々の光学チェーンの移動可能な鏡の鏡角度はカメラ構成に依存する。
いくつかの実施形態では、最大ズームインと最大ズームアウトの間で、f2モジュールによってキャプチャされた画像のトリミングが実施され、トリミングの量は、ユーザにより選択されたズーム設定の関数である。さまざまな実施形態では、ユーザにより選択されたズーム設定=f1の場合は、最大トリミングがあり、ユーザにより選択されたズーム設定=f2の場合は、トリミングはない。
図61は、さまざまな例示的な実施形態による例示的なカメラデバイス6100の図である。カメラデバイス6100は、プロセッサ6102、たとえばCPUと、メモリ6104と、モジュールのアセンブリ6106、たとえば、回路などのハードウェアモジュールのアセンブリと、ユーザ入力インターフェース6108と、ディスプレイ6110と、I/Oインターフェース6112と、さまざまな要素がデータと情報とを交換し得るバス6137を介して互いに結合された複数の光学チェーン(光学チェーン1 6118、光学チェーン2 6120、光学チェーン3 6122、光学チェーン4 6124、光学チェーン5 6126、光学チェーン6 6128、光学チェーン7 6130、光学チェーン8 6132、光学チェーン9 6134、光学チェーン10 6136)とを含む。いくつかの実施形態では、光学チェーン4 6124、光学チェーン5 6126、光学チェーン6 6128、光学チェーン7 6130、光学チェーン8 6132、光学チェーン9 6134、および 光学チェーン10 6136は任意選択である。ディスプレイ6110、たとえば、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、有機発光ダイオード(OLED)ディスプレイ、またはアクティブマトリクス有機発光ダイオード(AMOLED)ディスプレイは、カメラ6100のユーザに画像、画像部分、ユーザメニューなどを表示するためのものである。ユーザ入力インターフェース6108としては、たとえば、ユーザからの入力を受け取るための、スイッチ、ボタン、タッチスクリーンインターフェースなどがある。受け取られるユーザ入力としては、ユーザ制御されたズームインまたはユーザ制御されたズームアウトを示す入力がある。I/Oインターフェース6112には、他のデバイスたとえばパーソナルコンピュータと通信するための複数の通信ポートがある。I/Oインターフェース6112は、いくつかの実施形態では、1つまたは複数のワイヤレス通信インターフェースを含む。I/Oインターフェース6112上で通信される情報としては、たとえば、複数の光学チェーンからキャプチャされた画像から生成された結合された画像、ならびに/または外部で、たとえばパーソナルコンピュータ内で、処理および/もしくは結合されることになる、個々の光学チェーンからキャプチャされた画像がある。
メモリ6104は、モジュールのアセンブリ6114と、データ/情報6116とを含む。データ/情報6116は、いくつかの実施形態では、ユーザズームイン情報およびまたはユーザズームアウト情報の関数として移動可能な光方向変換を含む光学チェーンの光方向変換デバイス位置を決定するために使用される格納された情報、たとえば移動可能な光方向変換デバイスを有する複数の光学チェーンに対する目盛係数および/または較正情報を含む。データ情報6116は、いくつかの実施形態では、ズーム設定に対応する光学チェーンから、たとえば、光方向変換デバイスがズーム設定の関数として移動されない1つまたは複数の光学チェーンのための、キャプチャされた画像に対して実行されるトリミングの量を決定するために使用される格納された情報をさらに含む。
光学チェーン1 6118は、レンズ6138、たとえば外側レンズと、移動可能な実質的な平面鏡6140と、画像センサ6142とを含む。いくつかの実施形態では、実質的な平面鏡は平面鏡である。さまざまな実施形態では、移動可能な鏡6140はヒンジ取り付け部を含む。光学チェーン1 6118は、鏡移動モジュール6144、たとえば駆動モータおよび対応する駆動回路と、鏡位置検出モジュール6146、たとえば、レゾルバまたはシンクロまたは光学式ロータリエンコーダまたは磁気ロータリエンコーダなどの角度位置検知デバイスと、いくつかの実施形態では、センサ測定値をデジタル値に変換する回路、たとえばアナログ−デジタル変換器とをさらに含む。画像センサ6142は、画像をキャプチャするために使用される。光は、鏡6140に到達する前にレンズ6138を通過する。光方向変換デバイスである鏡6140は、レンズ6138を通過した光を画像センサ6142上に方向づける。
光学チェーン2 6120は、レンズ6148、たとえば外側レンズと、移動可能な実質的な平面鏡6150と、画像センサ6152とを含む。いくつかの実施形態では、実質的な平面鏡は平面鏡である。さまざまな実施形態では、移動可能な鏡6150はヒンジ取り付け部を含む。光学チェーン2 6120は、鏡移動モジュール6154、たとえば駆動モータおよび対応する駆動回路と、鏡位置検出モジュール6156、たとえば、レゾルバまたはシンクロまたは光学式ロータリエンコーダまたは磁気ロータリエンコーダなどの角度位置検知デバイスと、いくつかの実施形態では、センサ測定値をデジタル値に変換する回路、たとえばアナログ−デジタル変換器とをさらに含む。画像センサ6152は、画像をキャプチャするために使用される。光は、鏡6150に到達する前にレンズ6148を通過する。光方向変換デバイスである鏡6150は、レンズ6148を通過した光を画像センサ6152上に方向づける。
光学チェーン3 6122は、レンズ6158、たとえば外側レンズと、固定された鏡6160、たとえば実質的な平面状の固定された鏡と、画像センサ6162とを含む。いくつかの実施形態では、実質的な平面状の固定された鏡は、固定された平面鏡である。画像センサ6162は、画像をキャプチャするために使用される。光は、鏡6160に到達する前にレンズ6122を通過する。光方向変換デバイスである鏡6160は、レンズ6158を通過した光を画像センサ6162上に方向づける。
光学チェーン4 6124は、レンズ6164、たとえば外側レンズと、移動可能な実質的な平面鏡6166と、画像センサ6168とを含む。いくつかの実施形態では、実質的な平面鏡は平面鏡である。さまざまな実施形態では、移動可能な鏡6166はヒンジ取り付け部を含む。光学チェーン4 6124は、鏡移動モジュール6170、たとえば駆動モータおよび対応する駆動回路と、鏡位置検出モジュール6172、たとえば、レゾルバまたはシンクロまたは光学式ロータリエンコーダまたは磁気ロータリエンコーダなどの角度位置検知デバイスと、いくつかの実施形態では、センサ測定値をデジタル値に変換する回路、たとえばアナログ−デジタル変換器とをさらに含む。画像センサ6168は、画像をキャプチャするために使用される。光は、鏡6166に到達する前にレンズ6164を通過する。光方向変換デバイスである鏡6166は、レンズ6164を通過した光を画像センサ6168上に方向づける。
光学チェーン5 6126は、レンズ6174、たとえば外側レンズと、移動可能な実質的な平面鏡6176と、画像センサ6178とを含む。いくつかの実施形態では、実質的な平面鏡は平面鏡である。さまざまな実施形態では、移動可能な鏡6176はヒンジ取り付け部を含む。光学チェーン5 6126は、鏡移動モジュール6180、たとえば駆動モータおよび対応する駆動回路と、鏡位置検出モジュール6182、たとえば、レゾルバまたはシンクロまたは光学式ロータリエンコーダまたは磁気ロータリエンコーダなどの角度位置検知デバイスと、いくつかの実施形態では、センサ測定値をデジタル値に変換する回路、たとえばアナログ−デジタル変換器とをさらに含む。画像センサ6178は、画像をキャプチャするために使用される。光は、鏡6176に到達する前にレンズ6174を通過する。光方向変換デバイスである鏡6176は、レンズ6174を通過した光を画像センサ6178上に方向づける。
光学チェーン6 6128は、レンズ6184、たとえば外側レンズと、固定された鏡6185、たとえば実質的な平面状の固定された鏡と、画像センサ6186とを含む。いくつかの実施形態では、実質的な平面状の固定された鏡は、固定された平面鏡である。画像センサ6186は、画像をキャプチャするために使用される。光は、鏡6185に到達する前にレンズ6184を通過する。光方向変換デバイスである鏡6185は、レンズ6184を通過した光を画像センサ6186上に方向づける。
光学チェーン7 6130は、レンズ6187、たとえば外側レンズと、固定された鏡6188、たとえば実質的な平面状の固定された鏡と、画像センサ6189とを含む。いくつかの実施形態では、実質的な平面状の固定された鏡は、固定された平面鏡である。画像センサ6189は、画像をキャプチャするために使用される。光は、鏡6188に到達する前にレンズ6187を通過する。光方向変換デバイスである鏡6188は、レンズ6187を通過した光を画像センサ6189上に方向づける。
光学チェーン8 6132は、レンズ6190、たとえば外側レンズと、固定された鏡6191、たとえば実質的な平面状の固定された鏡と、画像センサ6192とを含む。いくつかの実施形態では、実質的な平面状の固定された鏡は、固定された平面鏡である。画像センサ6192は、画像をキャプチャするために使用される。光は、鏡6191に到達する前にレンズ6190を通過する。光方向変換デバイスである鏡6191は、レンズ6190を通過した光を画像センサ6192上に方向づける。
光学チェーン9 6134は、レンズ6193、たとえば外側レンズと、固定された鏡6194、たとえば実質的な平面状の固定された鏡と、画像センサ6195とを含む。いくつかの実施形態では、実質的な平面状の固定された鏡は、固定された平面鏡である。画像センサ6195は、画像をキャプチャするために使用される。光は、鏡6194に到達する前にレンズ6193を通過する。光方向変換デバイスである鏡6194は、レンズ6193を通過した光を画像センサ6195上に方向づける。
光学チェーン10 6136は、レンズ6196、たとえば外側レンズと、固定された鏡6197、たとえば実質的な平面状の固定された鏡と、画像センサ6198とを含む。いくつかの実施形態では、実質的な平面状の固定された鏡は、固定された平面鏡である。画像センサ6198は、画像をキャプチャするために使用される。光は、鏡6197に到達する前にレンズ6196を通過する。光方向変換デバイスである鏡6197は、レンズ6196を通過した光を画像センサ6198上に方向づける。
例示的な一実施形態では、光学チェーン1 6118、光学チェーン2 6120、光学チェーン4 6124、光学チェーン5 6126、および光学チェーン6 6128は焦点距離=f1を有し、光学チェーン3 6122、光学チェーン7 6130、光学チェーン8 6132、光学チェーン9 6134、および光学チェーン10 6136は焦点距離=f2を有し、f1>f2である。
さまざまな実施形態では、カメラデバイス6100は、f2のズーム焦点距離設定とズーム焦点距離設定f1との間のユーザ選択可能な連続ズーム能力を含む。
いくつかの実施形態では、鏡がズーム設定(光学チェーン3 6122、光学チェーン6 6128、光学チェーン7 6130、光学チェーン8 6132、光学チェーン9 6134、および光学チェーン10 6136)の関数として移動しない光学チェーンによってキャプチャされる画像は、ズーム設定に関係なく、実質的に同じ位置に中心が置かれる。さまざまな実施形態では、鏡がズーム設定の関数を移動させる光学チェーン(光学チェーン1 6118、光学チェーン2 6120、光学チェーン4 6124、光学チェーン5 6126)によってキャプチャされた画像は、ズーム設定の関数として中心が置かれる画像をキャプチャする。たとえば、光学チェーン1 6118によってキャプチャされた画像は、ズーム設定の関数として、ズーム画像の中心と関心シーンのコーナーの間で第1の対角線に沿って設置され、光学チェーン2 6120によってキャプチャされた画像は、ズーム設定の関数として、ズーム画像の中心と関心シーンのコーナーの間で第2の対角線に沿って設置され、光学チェーン4 6124によってキャプチャされた画像は、ズーム設定の関数として、ズーム画像の中心と関心シーンのコーナーの間で第3の対角線に沿って設置され、光学チェーン5 6126によってキャプチャされた画像は、ズーム設定の関数として、ズーム画像の中心と関心シーンのコーナーの間で第2の対角線に沿って設置される。
いくつかの実施形態では、固定された鏡を有する光学チェーン(光学チェーン3 6122、光学チェーン6 6128、光学チェーン7 6130、光学チェーン8 6132、光学チェーン9 6134、光学チェーン10 6136)は、移動可能な鏡を有する光学チェーンによって置き換えられ得、鏡は、ズーム設定に関係なく固定位置にあるままである。
さまざまな実施形態では、異なるタイプの光方向変換デバイスが、鏡の代わりに使用され、たとえば、プリズムが光学チェーン内で鏡の代わりに使用される。たとえば、移動可能なプリズムが、移動可能な実質的な平面鏡6140の代わりに、光学チェーン1 6118内で使用される。いくつかの実施形態では、異なるタイプの光方向変換デバイスが、異なる光学チェーン内で使用される。たとえば、一実施形態では、移動可能な実質的な平面鏡が光学チェーン1 6118内で使用され、移動可能なプリズムが光学チェーン2 6120内で使用される。
いくつかの実施形態では、焦点距離f2に対応する光学チェーンは光方向変換デバイスを含まず、光学チェーンの画像センサは、光方向変換デバイスを介して、方向変換なしに光学チェーンのレンズに入る光をキャプチャすることが可能であるように位置決めされる。
いくつかの実施形態では、f2は小さい焦点距離であり、光学チェーンは大きいエリアをキャプチャし、トリミングは、ユーザにより選択されたズーム設定に基づいて必要な範囲で使用されるので、焦点距離f2に対応する光学チェーン、たとえば、光学チェーン3 6122、光学チェーン7 6130、光学チェーン8 6132、光学チェーン9 6134、および/または光学チェーン10 6136のうちの1つまたは複数またはすべては、鏡を必要とせず、これを含まない。
さまざまな実施形態では、f1>f2である。いくつかのそのような実施形態では、f1=2 f2である。さまざまな実施形態では、最大ズームインは、ユーザにより選択されたズーム焦点距離設定=f1に対応し、f2焦点距離チェーンに対するトリミングが行われる。
いくつかの実施形態では、最大ズームイン時、重複は、合成画像を生成するために使用されるさまざまなチェーンに関して、合計である。いくつかの実施形態では、最大ズームイン時、移動可能な鏡たとえば鏡(6140、6150、6166、6176)はそれぞれ、チェーン(6118、6120、6124、6126)のそれぞれのセンサ(6142、6152、6168、6178)に対して45度の角度に設定される。
さまざまな実施形態では、最大ズームアウト時、重複は、移動可能な光方向変換デバイスを有するチェーン間で最小であり、個々の光学チェーンの移動可能な鏡の鏡角度はカメラ構成に依存する。
いくつかの実施形態では、最大ズームインと最大ズームアウトの間で、f2モジュールたとえばモジュール(6122、6130、6132、6134、6134、6136)によってキャプチャされた画像のトリミングが実施され、トリミングの量は、ユーザにより選択されたズーム設定の関数である。さまざまな実施形態では、ユーザにより選択されたズーム設定=f1の場合は、最大トリミングがあり、ユーザにより選択されたズーム設定=f2の場合は、トリミングはない。
例示的な一実施形態では、図61のカメラ6100は図12Bのカメラ1250であり、図61の光学チェーン(光学チェーン1 6118、光学チェーン2 6120、光学チェーン3 6122、光学チェーン4 6124、光学チェーン5 6126、光学チェーン6 6128、光学チェーン7 6130、光学チェーン8 6132、光学チェーン9 6134、光学チェーン10 6136)はそれぞれ、光学チェーン(1210、1212、1224、1202、1220、1216、1208、1214、1204、1218)である。いくつかの実施形態では、光学チェーン(1210、1212、1202、1220、1216)はf1の焦点距離を有し、光学チェーン(1224、1208、1214、1204、1218)はf2の焦点距離を有する。そのような実施形態では、チェーン(1224、1216、1208、1214、1204、1218)の鏡は、たとえばf2〜f1の範囲内で、ズーム焦点距離設定に関係なく、固定位置にあるままであったが、チェーン(1210、1212、1202、1220)の鏡は、たとえばf2〜f1の範囲内で、ユーザにより選択された焦点距離設定の関数として制御可能に位置決めされる。
図62は、本発明により実施されるカメラデバイスたとえば図61のカメラ6100に含まれ得るモジュールのアセンブリ6200の図である。モジュールのアセンブリ6200は、方法のステップ、たとえば図60の流れ図6000の方法のステップを実施し得る。いくつかの実施形態では、モジュールのアセンブリ6200は、互いに結合され得る回路のアセンブリである。例示的な一実施形態では、モジュールのアセンブリ6200は、図61のカメラ6100のモジュールのアセンブリ6106である。いくつかの実施形態では、モジュールのアセンブリ6200は、ソフトウェアモジュールのアセンブリである。例示的な一実施形態では、モジュールのアセンブリ6200は、図61のカメラ6100のメモリ6104のモジュールのアセンブリ6114である。
図62は、図61に示されるカメラデバイス6100において使用可能であり、いくつかの実施形態では使用される、モジュールのアセンブリ6200を示す。モジュールのアセンブリ6200内のモジュールは、たとえば個々の回路として、プロセッサ6102内部のハードウェア内で完全に実施可能であり、いくつかの実施形態では、実施される。モジュールのアセンブリ6200内のモジュールは、たとえば異なるモジュールに対応する個々の回路として、モジュールのアセンブリ6106内部のハードウェア内で完全に実施可能であり、いくつかの実施形態では、実施される。他の実施形態では、モジュールのうちのいくつかは、プロセッサ6102の内部の、たとえば回路として、実施され、他のモジュールは、プロセッサの外部にあり、これに結合されたモジュールのアセンブリ6106の内部の、たとえば回路として、実施される。理解されるべきであるように、プロセッサ上での、および/またはプロセッサの外部にあるいくつかのモジュールとの、モジュールの統合のレベルは、設計上の選択肢の1つであり得る。
あるいは、回路として実施されるのではなく、モジュールのアセンブリ6100内のモジュールのすべてまたはいくつかは、ソフトウェア内で実施され、カメラデバイス6100のメモリ6104内に格納され得、モジュールは、モジュールがプロセッサたとえばプロセッサ6102によって実行されるとき、モジュールに対応する機能を実施するように、カメラ6100の動作を制御する。いくつかのそのような実施形態では、モジュールのアセンブリ6200は、モジュールのアセンブリ6114としてメモリ6104に含まれる。さらに他の実施形態では、モジュールのアセンブリ6200内のさまざまなモジュールは、ハードウェアとソフトウェアの組み合わせとして実施され、たとえば、プロセッサの外部にある別の回路は、プロセッサ6102に入力を提供し、次いで、プロセッサ6102は、ソフトウェア制御下でモジュールの機能の一部分を実行するように動作する。図61の実施形態では、単一のプロセッサたとえばコンピュータとして示されているが、プロセッサ6102は、1つまたは複数のプロセッサたとえばコンピュータとして実施され得ることを理解されたい。
ソフトウェア内で実施されるとき、モジュールは、プロセッサ6102によって実行されるとモジュールに対応する機能を実施するようにプロセッサ6102を構成するコードを含む。モジュールのアセンブリ6200がメモリ6104内に格納される実施形態では、メモリ6104は、少なくとも1つのコンピュータたとえばプロセッサ6102にモジュールが対応する機能を実施させるために、コード、たとえば各モジュールに対する個々のコードを備えるコンピュータ可読媒体を備えるコンピュータプログラム製品である。
完全にハードウェアベースのモジュールまたは完全にソフトウェアベースのモジュールが使用されてよい。しかしながら、ソフトウェアとハードウェアのいかなる組み合わせも、たとえば、回路により実施されるモジュールも、機能を実施するために使用され得ることを理解されたい。理解されるべきであるように、図62に示されるモジュールは、図60の方法流れ図6000に示される対応するステップの機能を実行するように、カメラデバイス6100またはプロセッサ6102などのその中の要素を制御および/または構成する。したがって、モジュールのアセンブリ6200は、図60に示される方法の対応するステップの機能を実行するさまざまなモジュールを含む。
モジュールのアセンブリ6200は、ズーム入力監視モジュール6202と、ズームイン光方向変換デバイス位置決め調整制御モジュール6204と、ズームアウト光方向変換デバイス位置決め調整制御モジュール6206と、画像キャプチャ制御モジュール6208と、合成画像生成モジュール6210と、トリミングモジュール6212と、合成画像格納モジュール6214とを含む。
ズーム入力監視モジュール6202は、ユーザ制御ユーザ入力ズームまたはユーザ制御ズーム出力が実行可能であることを示す情報を監視するように構成される。ズーム入力監視モジュール6202は、ユーザ制御ズームイン動作またはユーザ制御ズーム出力動作が実行可能であることを示す情報を検出する。検出される情報は、たとえばズームインもしくはズームアウトのうちのどちらが実行可能であるかを識別する情報および/または、たとえばカメラが画像をキャプチャ可能であるズーム設定のための選択された値を示す情報を含む。
ズームイン光方向変換デバイス位置決め調整制御モジュール6204は、ユーザ制御に応答してズームイン動作を実施するように構成され、前記ズームイン動作は、カメラの第1の光学チェーンの第1の光方向変換デバイスの方向を調整することを含み、前記第1の光方向変換デバイスは実質的な平面鏡またはプリズムのうちの1つであり、前記調整は、カメラの第1の光学チェーンおよびカメラの第2の光学チェーンによってキャプチャされるシーンエリアにおける重複を増加させる。いくつかの実施形態では、第1の光方向変換デバイスの方向は、第1の光方向変換デバイスの面に垂直な方向である。
さまざまな実施形態では、ズームイン光方向変換デバイス位置決め調整制御モジュール6204は、第2の光学チェーンの第2の光方向変換デバイスの方向を調整するようにさらに構成され、前記第2の光方向変換デバイスは鏡またはプリズムのうちの1つであり、前記調整は、ズームイン動作を実施することの一部として、第1の光学チェーンおよび第2の光学チェーンによってキャプチャされるシーンエリアにおける重複を増加させる。
いくつかの実施形態では、ズームイン光方向変換デバイス位置決め調整制御モジュール6204は、第4の光学チェーンの第4の光方向変換デバイスおよび第5の光学チェーンの第5の光方向変換デバイスの方向を調整するようにさらに構成され、前記調整は、第1の光学チェーン、第2の光学チェーン、第4の光学チェーン、および第5の光学チェーンによってキャプチャされるシーンエリアにおける重複を増加させる。
ズームアウト光方向変換デバイス位置決め調整制御モジュール6206は、ユーザ制御に応答してズームアウト動作を実施するように構成され、前記ズームアウト動作は、第1の光方向変換デバイスの方向と第2の光方向変換デバイスの方向とを調整することを含み、前記調整は、第1の光学チェーンおよび第2の光学チェーンによってキャプチャされるシーンエリアにおける重複を減少させる。いくつかの実施形態では、ズームアウト光方向変換デバイス位置決め調整制御モジュール6206は、第4の光学チェーンの第4の光方向変換デバイスおよび第5の光学チェーンの第5の光方向変換デバイスの方向を調整するようにさらに構成され、前記調整は、第1の光学チェーン、第2の光学チェーン、第4の光学チェーン、および第5の光学チェーンによってキャプチャされるシーンエリアにおける重複を減少させる。
画像キャプチャ制御モジュール6208は、シーンエリアの画像をキャプチャするように第1の光学チェーンを制御し、シーンエリアの画像をキャプチャするために第2の光学チェーンを制御するように構成される。画像キャプチャ制御モジュール6208は、シーンエリアの画像をキャプチャするためにカメラデバイスの第3の光学チェーンを制御するようにさらに構成される。
ある実施形態では、第1の光学チェーンと第2の光学チェーンは同じ焦点距離f1を有する。いくつかのそのような実施形態では、カメラの第3の光学チェーンは焦点距離f2を有し、ここで、f2はf1よりも小さい。いくつかの実施形態では、第3の光学チェーンは、光学チェーンの面に垂直であり、ズーム設定に関係なく固定されたままである光軸を有し、範囲は、f2とf1の間に及ぶ。
さまざまな実施形態では、ズームイン動作およびズームアウト動作は、f2〜f1の範囲内のズーム焦点距離設定に対応し、前記範囲はf2とf1とを含む。
いくつかの実施形態では、画像キャプチャ制御モジュール6208は、シーンエリアの画像をキャプチャするように第4の光学チェーンを制御し、シーンエリアの画像をキャプチャするために第5の光学チェーンを制御するようにさらに構成される。いくつかのそのような実施形態では、画像キャプチャ制御モジュール6208は、シーンエリアの画像をキャプチャするためにカメラデバイスの第6の光学チェーンを制御するようにさらに構成される。いくつかのそのような実施形態では、第1の光学チェーン、第2の光学チェーン、第4の光学チェーン、第5の光学チェーン、および第6の光学チェーンは、同じ焦点距離、たとえばf1を有する。
いくつかの実施形態では、画像キャプチャ制御モジュール6208は、シーンエリアの画像をキャプチャするために第7の光学チェーンを制御するようにさらに構成される。いくつかのそのような実施形態では、画像キャプチャ制御モジュール6208は、シーンエリアの画像をキャプチャするために第8の光学チェーンを制御するようにさらに構成される。いくつかのそのような実施形態では、画像キャプチャ制御モジュール6208は、シーンエリアの画像をキャプチャするために第9の光学チェーンを制御するようにさらに構成される。いくつかの実施形態では、画像キャプチャ制御モジュール6208は、シーンエリアの画像をキャプチャするために第10の光学チェーンを制御するようにさらに構成される。いくつかのそのような実施形態では、第3の光学チェーン、第7の光学チェーン、第8の光学チェーン、第9の光学チェーン、および第10の光学チェーンは、同じ焦点距離、たとえばf2を有する。
合成画像生成モジュール6210は、キャプチャされた画像から、ズーム焦点距離設定に従って、合成画像を生成するように構成される。いくつかの実施形態では、合成画像生成モジュール6210は、第1の光学チェーン、第2の光学チェーン、および第3の光学チェーンによってキャプチャされた画像から、ズーム焦点距離設定に従って、合成画像を生成するように構成される。いくつかの実施形態では、合成画像生成モジュール6210は、第1の光学チェーン、第2の光学チェーン、第3の光学チェーン、第4の光学チェーン、および第5の光学チェーンによってキャプチャされた画像から、ズーム焦点距離設定に従って、合成画像を生成するように構成される。いくつかの実施形態では、合成画像生成モジュール6210は、第1の光学チェーン、第2の光学チェーン、第3の光学チェーン、第4の光学チェーン、第5の光学チェーン、および第6の光学チェーンによってキャプチャされた画像から、ズーム焦点距離設定に従って、合成画像を生成するように構成される。いくつかの実施形態では、合成画像生成モジュール6210は、第1の光学チェーン、第2の光学チェーン、第3の光学チェーン、第4の光学チェーン、第5の光学チェーン、第6の光学チェーン、および第7の光学チェーンによってキャプチャされた画像から、ズーム焦点距離設定に従って、合成画像を生成するように構成される。いくつかの実施形態では、合成画像生成モジュール6210は、第1の光学チェーン、第2の光学チェーン、第3の光学チェーン、第4の光学チェーン、第5の光学チェーン、第6の光学チェーン、第7の光学チェーン、および第8の光学チェーンによってキャプチャされた画像から、ズーム焦点距離設定に従って、合成画像を生成するように構成される。いくつかの実施形態では、合成画像生成モジュール6210は、第1の光学チェーン、第2の光学チェーン、第3の光学チェーン、第4の光学チェーン、第5の光学チェーン、第6の光学チェーン、第7の光学チェーン、第8の光学チェーン、および第9の光学チェーンによってキャプチャされた画像から、ズーム焦点距離設定に従って、合成画像を生成するように構成される。いくつかの実施形態では、合成画像生成モジュール6210は、第1の光学チェーン、第2の光学チェーン、第3の光学チェーン、第4の光学チェーン、第5の光学チェーン、第6の光学チェーン、第7の光学チェーン、第8の光学チェーン、第9の光学チェーン、および第10の光学チェーンによってキャプチャされた画像から、ズーム焦点距離設定に従って、合成画像を生成するように構成される。
トリミングモジュール6212は、ズーム設定がf2よりも大きいとき、第3の光学チェーンによってキャプチャされた画像に対してトリミング動作を実行するように構成される。さまざまな実施形態では、トリミングの量は、ズーム焦点距離設定とf2との差の関数であり、トリミングモジュール6212は、トリミングを実行する前にトリミングの量を決定する、たとえば、これを算出する。
いくつかの実施形態では、トリミングモジュール6216は、ズーム設定がf2よりも大きいとき、第3の光学チェーンおよび第7の光学チェーンによってキャプチャされた画像に対してトリミング動作を実行するように構成される。いくつかの実施形態では、トリミングモジュール6216は、ズーム設定がf2よりも大きいとき、第3の光学チェーン、第7の光学チェーン、および第8の光学チェーンによってキャプチャされた画像に対してトリミング動作を実行するように構成される。いくつかの実施形態では、トリミングモジュール6216は、ズーム設定がf2よりも大きいとき、第3の光学チェーン、第7の光学チェーン、第8の光学チェーン、および第9の光学チェーンによってキャプチャされた画像に対してトリミング動作を実行するように構成される。いくつかの実施形態では、トリミングモジュール6216は、ズーム設定がf2よりも大きいとき、第3の光学チェーン、第7の光学チェーン、第8の光学チェーン、第9の光学チェーン、および第10の光学チェーンによってキャプチャされた画像に対してトリミング動作を実行するように構成される。
合成画像格納モジュール6214は、生成された合成画像をメモリ内に格納するように構成される。
図63は、例示的な実施形態による、異なるズーム焦点距離設定に対応する例示的な合成画像を示す図6300である。図6301は、例示的な関心シーン6302を含む。例示的なカメラデバイス、たとえば図62のカメラ6100および/または図60の流れ図6000の方法を実施するカメラは、f2〜f1のズーム焦点距離設定の範囲における連続ズームイン/ズームアウト能力を含み、ここで、f2<f1であると考える。図6303は、f2という、ユーザにより選択されたズーム焦点距離設定に対応する、例示的な合成画像6304を示す。この例では、合成画像6304は、関心シーン6302のその全エリアに対応する。図6305は、f1という、ユーザにより選択されたズーム焦点距離設定に対応する、例示的な合成画像6306を示す。この例では、合成画像6306は最大ズームインに対応し、合成画像6304は最大ズームアウトに対応する。
図6307は、複数の例示的な異なるユーザにより選択されたズーム焦点距離設定に対応する合成画像(6304、6310、6312、6314、6316、6318、6320、6322、6324、6326、6306)を示す。この例では、ズームは、画像の中心のまわりにあることに留意されたい。方向6306−>6310−>6312−>6314−>6316−>6318−>6320−>6322−>6324−>6326−>6306に進むのが、ズームイン方向である。方向6306−>6326−>6324−>6322−>6320−>6318−>6316−>6314−>6312−>6310−>6304に進むのが、ズームイン方向である。さまざまな実施形態では、ズーム焦点距離設定f2〜f1の範囲内で連続ズームが可能である。
図64の図6400は、例示的な一実施形態による、ユーザが選択した焦点距離設定が最大ズームアウトたとえばズーム焦点距離設定=f2に設定される一例のために、合成画像を生成するために組み合わされたキャプチャされた画像を示す。例示的なカメラデバイス、たとえば図62のカメラデバイス6100および/または図60の流れ図6000の方法を実施するカメラデバイスは、f2〜f1のズーム焦点距離設定の範囲における連続的ズームイン/ズームアウト能力を含み、ここで、f2<f1であると考える。
図6401は、光学チェーン1のキャプチャ画像6404が関心シーン6402の左上部分に対応することを示す。図6403は、光学チェーン2のキャプチャ画像6406が関心シーン6402の左下部分に対応することを示す。図6405は、光学チェーン3のキャプチャ画像6408が関心シーン6402全体に対応することを示す。図6407は、光学チェーン4のキャプチャ画像6410が関心シーン6402の右上部分に対応することを示す。図6409は、光学チェーン5のキャプチャ画像6412が関心シーン6402の右下部分に対応することを示す。図6411は、光学チェーン6のキャプチャ画像6414が関心シーン6402の中心部分に対応することを示す。図6413は、光学チェーン7のキャプチャ画像6416が関心シーン6402全体に対応することを示す。図6415は、光学チェーン8のキャプチャ画像6418が関心シーン6402全体に対応することを示す。図6417は、光学チェーン9のキャプチャ画像6420が関心シーン6402全体に対応することを示す。図6419は、光学チェーン10のキャプチャ画像6422が関心シーン6402全体に対応することを示す。
合成画像が、キャプチャされた画像(6404、6406、6408、6410、6412、6414、6418、6420、6422)から、ズーム焦点距離設定に従って、生成される。生成される合成画像は、たとえば、図63の合成画像6304である。
図65の図6500は、例示的な一実施形態による、ユーザが選択した焦点距離設定が最大ズームインたとえばズーム焦点距離設定=f1に設定される一例のために、そのうちのいくつかは、合成画像を生成するために組み合わされた、キャプチャされた画像とトリミングされたキャプチャされた画像とを示す。例示的なカメラデバイス、たとえば図62のカメラ6100および/または図60の流れ図6000の方法を実施するカメラは、f2〜f1のズーム焦点距離設定の範囲における連続的ズームイン/ズームアウト能力を含み、ここで、f2<f1であると考える。
図6501は、光学チェーン1のキャプチャ画像6504が関心シーン6502の中心部分に対応することを示す。図6503は、光学チェーン2のキャプチャ画像6506が関心シーン6502の中心部分に対応することを示す。図6505は、光学チェーン3のキャプチャ画像6508が関心シーン6502全体に対応することを示す。図6507は、光学チェーン4のキャプチャ画像6510が関心シーン6502の中心部分に対応することを示す。図6509は、光学チェーン5のキャプチャ画像6512が関心シーン6502の中心部分に対応することを示す。図6511は、光学チェーン6のキャプチャ画像6514が関心シーン6502の中心部分に対応することを示す。図6513は、光学チェーン7のキャプチャ画像6516が関心シーン6502全体に対応することを示す。図6515は、光学チェーン8のキャプチャ画像6518が関心シーン6502全体に対応することを示す。図6517は、光学チェーン9のキャプチャ画像6520が関心シーン6502全体に対応することを示す。図6519は、光学チェーン10のキャプチャ画像6522が関心シーン6502全体に対応することを示す。
この例では、ユーザにより選択されたズーム焦点距離設定は、f2よりも大きいf1であるので、トリミング動作は、焦点距離=f2を有する光学チェーンに対して実行される。トリミングの量は、ズーム焦点距離設定とf2との差の関数である。したがって、キャプチャされた画像(6508、6516、6518、6520、6522)はトリミングされる。
図6521は、光学チェーン3のトリミングされたキャプチャ画像6524が関心シーン6502の中心部分に対応することを示す。図6523は、光学チェーン7のトリミングされたキャプチャ画像6526が関心シーン6502の中心部分に対応することを示す。図6525は、光学チェーン8のトリミングされたキャプチャ画像6528が関心シーン6502の中心部分に対応することを示す。図6527は、光学チェーン9のトリミングされたキャプチャ画像6530が関心シーン6502の中心部分に対応することを示す。図6529は、光学チェーン10のトリミングされたキャプチャ画像6532が関心シーン6502の中心部分に対応することを示す。
合成画像は、光学チェーン1のキャプチャ画像6504、光学チェーン2のキャプチャ画像6506、光学チェーン3のトリミングされた画像6524、光学チェーン4のキャプチャ画像6510、光学チェーン5のキャプチャ画像6512、光学チェーン6のキャプチャ画像6514、光学チェーン7のトリミングされた画像6526、光学チェーン8のトリミングされた画像6528、光学チェーン9のトリミングされた画像6530、および光学チェーン10のトリミングされた画像6532から、ズーム焦点距離設定に従って、生成される。生成される合成画像は、たとえば、図63の合成画像6306である。
図66の図6600は、例示的な一実施形態による、ユーザが選択した焦点距離設定が中間値たとえばf2とf1との間の値に設定される一例のために、そのうちのいくつかは、合成画像を生成するために組み合わされた、キャプチャされた画像とトリミングされたキャプチャされた画像とを示す。例示的なカメラデバイス、たとえば図62のカメラデバイス6100および/または図60の流れ図6000の方法を実施するカメラは、f2〜f1のズーム焦点距離設定の範囲における連続的ズームイン/ズームアウト能力を含み、ここで、f2<f1であると考える。
図6601は、光学チェーン1のキャプチャ画像6604が、関心シーンの中心から関心シーンの左上コーナーに延在する対角線に沿って中心が置かれた、関心シーン6602の一部分に対応することを示す。図6603は、光学チェーン2のキャプチャ画像6606が、関心シーンの中心から関心シーンの左下コーナーに延在する対角線に沿って中心が置かれた、関心シーン6602の一部分に対応することを示す。図6605は、光学チェーン3のキャプチャ画像6608が関心シーン6602全体に対応することを示す。図6607は、光学チェーン4のキャプチャ画像6610が、関心シーンの中心から関心シーンの右上コーナーに延在する対角線に沿って中心が置かれた、関心シーン6602の一部分に対応することを示す。図6609は、光学チェーン5のキャプチャ画像6612が、関心シーンの中心から関心シーンの右下コーナーに延在する対角線に沿って中心が置かれた、関心シーン6602の一部分に対応することを示す。図6611は、光学チェーン6のキャプチャ画像6614が関心シーン6602の中心部分に対応することを示す。図6613は、光学チェーン7のキャプチャ画像6616が関心シーン6602全体に対応することを示す。図6615は、光学チェーン8のキャプチャ画像6618が関心シーン6602全体に対応することを示す。図6617は、光学チェーン9のキャプチャ画像6620が関心シーン6602全体に対応することを示す。図6619は、光学チェーン10のキャプチャ画像6622が関心シーン6602全体に対応することを示す。
この例では、ユーザにより選択されたズーム焦点距離設定は、f2よりも大きい値であるので、トリミング動作は、焦点距離=f2を有する光学チェーンに対して実行される。トリミングの量は、ズーム焦点距離設定とf2との差の関数である。したがって、キャプチャされた画像(6608、6616、6618、6620、6622)はトリミングされる。
図6621は、光学チェーン3のトリミングされたキャプチャ画像6624が関心シーン6602の中心部分に対応することを示す。図6623は、光学チェーン7のトリミングされたキャプチャ画像6626が関心シーン6602の中心部分に対応することを示す。図6625は、光学チェーン8のトリミングされたキャプチャ画像6628が関心シーン6602の中心部分に対応することを示す。図6627は、光学チェーン9のトリミングされたキャプチャ画像6630が関心シーン6602の中心部分に対応することを示す。図6629は、光学チェーン10のトリミングされたキャプチャ画像6632が関心シーン6602の中心部分に対応することを示す。
合成画像は、光学チェーン1のキャプチャ画像6604、光学チェーン2のキャプチャ画像6606、光学チェーン3のトリミングされた画像6624、光学チェーン4のキャプチャ画像6610、光学チェーン5のキャプチャ画像6612、光学チェーン6のキャプチャ画像6614、光学チェーン7のトリミングされた画像6626、光学チェーン8のトリミングされた画像6628、光学チェーン9のトリミングされた画像6630、および光学チェーン10のトリミングされた画像6632から、ズーム焦点距離設定に従って、生成される。
生成される合成画像は、たとえば、図63の合成画像6318である。
図67は、例示的な一実施形態による、各々、ユーザが選択したズーム焦点距離設定の関数として位置決めされる、たとえば調整される、移動可能な光方向変換デバイスを含む例示的なユーザ制御されたズームと異なる光学チェーンからのキャプチャされた画像間の例示的な重複とを示す図6650を含む。
図6651、6653、および6655は、最大ズームアウトに対応する、f2という、ユーザにより選択されたズーム焦点距離設定の一例に対応する。図6667、6669、および6671は、中間のズーム設定に対応する、f2とf1の中間の値の、ユーザにより選択されたズーム焦点距離設定の一例に対応し、ここで、f1>f2である。図6673、6675、および6677は、最大ズームインに対応する、ユーザにより選択されたズーム焦点距離設定f1の一例に対応する。
凡例6668は、移動可能な光方向変換デバイスたとえば移動可能な実質的な平面鏡またはプリズムを有する複数の光学チェーンの各々によってキャプチャされる関心シーンの部分を示すために使用されるシェーディングパターンを識別する。ブロック6670によって示される縦線シェーディングは、移動可能な光方向変換デバイスたとえば図61のカメラデバイス6100の光学チェーン1 6118を有する第1の光学チェーンによってキャプチャされる画像を識別するために使用される。ブロック6672によって示される横線シェーディングは、移動可能な光方向変換デバイスたとえば図61のカメラデバイス6100の光学チェーン2 6120を有する第2の光学チェーンによってキャプチャされる画像を識別するために使用される。ブロック6674によって示される右下がりシェーディングは、移動可能な光方向変換デバイスたとえば図61のカメラデバイス6100の光学チェーン4 6124を有する第3の光学チェーンによってキャプチャされる画像を識別するために使用される。ブロック6676によって示される右上がりシェーディングは、移動可能な光方向変換デバイスたとえば図61のカメラデバイス6100の光学チェーン5 6125を有する第4の光学チェーンによってキャプチャされる画像を識別するために使用される。
図6653は、f2のズーム焦点距離設定に対応する最大ズームアウトでは、移動可能な光方向変換デバイスを含む4つの光学チェーンによってキャプチャされる画像は重複しない、または実質的に重複しないことを示す。図6655は、図6653に示される、移動可能な光方向変換デバイスを含む4つの光学チェーンからキャプチャされた画像を含む画像から生成された、ズーム焦点距離設定=f2に対する合成画像6662は、関心シーン6652の全エリアまたは実質的な全エリアを占めることを示す。
図6669は、f2とf1との間のズーム焦点距離設定値に対応する中間のズーム設定では、移動可能な光方向変換デバイスを含む4つの光学チェーンによってキャプチャされる画像は部分的に重複することを示す。観察され得るように、最大重複は、関心シーンの中心部分にある。図6671は、図6669に示される、移動可能な光方向変換デバイスを含む4つの光学チェーンからキャプチャされた画像を含む画像から生成された、中間のズーム焦点距離設定に対する合成画像6664は、関心シーン6652の中心部分を占めることを示す。
図6675は、f1のズーム焦点距離設定値に対応する最大ズームインでは、移動可能な光方向変換デバイスを含む4つの光学チェーンによってキャプチャされる画像は完全に重複する、または実質的に完全に重複することを示す。図6677は、図6669に示される、移動可能な光方向変換デバイスを含む4つの光学チェーンからキャプチャされた画像を含む画像から生成された、f1のズーム焦点距離設定に対応する最大ズームインに対する合成画像6666は、関心シーン6652の中心部分を占めることを示す。合成画像6666のサイズは、移動可能な光方向変換デバイスを有する個々の光学チェーンによってキャプチャされるサイズと同じまたは実質的に同じであることに留意されたい。
図6653から図6669に進むことは例示的なズームインを示し、図6669から図6675に進むことは、さらなるズームインを示す。図6675から図6669に進むことは例示的なズームアウトを示し、図6669から図6653に進むことは、さらなるズームアウトを示す。
他の光学チェーンからキャプチャされた画像は、合成画像を生成する際にさらに使用され得、いくつかの実施形態では、使用され、たとえば、光方向変換デバイスがズーム焦点距離設定の関数として移動されない光学チェーンからキャプチャされた画像が、合成画像を生成する際にさらに使用されることを理解されたい。いくつかのそのような実施形態では、移動可能な光方向変換デバイスがズーム焦点距離設定の関数として移動されない光学チェーンによってキャプチャされたいくつかの画像に対してトリミングが使用され、たとえば、トリミングは、図61のカメラ6100の光学チェーン3 6122、光学チェーン7 6128、光学チェーン8 6132、光学チェーン9 6134、光学チェーン10 6136によってキャプチャされた画像に対して使用され、トリミングの量は、ユーザにより選択されたズーム焦点距離設定がf2よりも大きい量の関数である。たとえば、トリミングは、合成画像6652を生成する際には使用されず、最大トリミングが、合成画像6666を生成する際に使用される。
図68Aと図68Bの組み合わせを備える図68は、少なくとも第1のセンサを含む第1の光学チェーンと第2のセンサを含む第2の光学チェーンとを含むカメラデバイスを使用して画像をキャプチャする例示的な方法の流れ図6900であり、前記第1の光学チェーンは、第2の光学チェーンよりも小さい焦点距離を有する。例示的な一実施形態では、第1の光学チェーンの焦点距離はf2であり、第2の光学チェーンの焦点距離はf1であり、ここで、f2<f1である。
例示的な方法の動作はステップ6902で開始し、ステップ6902では、カメラデバイスの電源が投入され、初期化され、任意選択のステップ6904および6906の一方または両方に進む。
ステップ6904では、カメラデバイスがユーザ入力を受け取る。いくつかの実施形態では、ステップ6904は、ステップ6908と6910の一方または両方を含む。ステップ6908では、カメラデバイスが、高速の動き動作を示すユーザ入力を受け取る。ステップ6910では、カメラデバイスが、動作の高解像度モードを示すユーザ入力を受け取る。
ステップ6906に戻ると、ステップ6906では、カメラデバイスが、動きの速度を決定する。さまざまな実施形態では、ステップ6906は、カメラデバイスが前記カメラデバイスの光学チェーンによって順次キャプチャされた画像から動きの速度を決定するステップ6911を含む。いくつかのそのような実施形態では、ステップ6911はステップ6912を含み、ステップ6912では、カメラデバイスは、第1の時間期間中にキャプチャされた画像と、第1の時間期間に続く第2の時間期間中にキャプチャされた画像との差に基づいて、動きの速度を決定する。
動作は、ステップ6904および/またはステップ6906からステップ6914に進む。ステップ6914では、カメラデバイスは、たとえば、前記カメラデバイスの制御デバイス内で、i)ユーザ入力、またはii)第2のセンサの連続する画素要素行に対応する画素要素の合同読み出しを実行するように、もしくは第2のセンサの画素要素の連続行の個々の読み出しを実行するように、第2の光学チェーンの第2のセンサを制御するかどうか、動きの決定された速度、のうちの少なくとも1つに基づいて決定を行う。いくつかの実施形態では、ステップ6914は、ステップ6916と6918の一方または両方を含む。ステップ6916では、カメラデバイスが、ユーザ入力に基づいて決定を行う。ステップ6918では、カメラデバイスが、決定された動きの速度に基づいて決定を行う。
いくつかの実施形態では、ステップ6916は、ステップ6920と6922の一方または両方を含む。ステップ6920では、カメラデバイスが、ユーザ入力が高速の動き動作のモードの選択を示すとき第2のセンサの連続画素要素行に対応する画素要素の合同読み出しを実行することを決定する。ステップ6922では、カメラデバイスが、ユーザ入力が動作の高解像度モードの選択を示すとき前記第2のセンサの画素要素の連続行の個々の読み出しを実行することを決定する。
いくつかの実施形態では、ステップ6918は、ステップ6924と6926の一方または両方を含む。ステップ6924では、カメラデバイスが、動きの速度が第1の閾値を上回るとき第2のセンサの連続画素要素行に対応する画素要素の合同読み出しを実行することを決定する。ステップ6926では、カメラデバイスが、動きの速度が前記第1の閾値を下回るとき前記第2のセンサの画素要素の連続行の個々の読み出しを実行することを決定する。
動作は、ステップ6914から、接続ノードA6928を介して、ステップ6930およびステップ6932に進む。カメラが第3の光学チェーンを含むいくつかの実施形態では、動作は、ステップ6914から、接続ノードA6928を介して、ステップ6944にも進む。ステップ6930では、カメラが、第1のセンサの画素値を読み出すように第1のセンサを制御する。いくつかの実施形態では、ステップ6930はステップ6936を含み、ステップ6936では、カメラは、前記決定が、前記第2のセンサの画素要素の連続行の個々の読み出しを実行する決定であるとき、第2の焦点距離と第1の焦点距離の比の関数である速度で第1のセンサの画素要素の画素値を読み出すように第1のセンサを制御する。いくつかのそのような実施形態では、ステップ6936はステップ6938を含み、ステップ6938では、カメラデバイスは、画素値の行が第2のセンサから読み取られる速度よりも遅い速度で画素値の行を読み出すように第1のセンサを制御する。
ステップ6932に戻ると、ステップ6932では、第2のセンサの画素要素行の合同読み出しを実行するまたは前記第2のセンサの画素要素の連続行の個々の読み出しを実行する決定に応じた第2のセンサの場合、カメラデバイスは、画素要素の画素値を読み出すように第2のセンサを制御する。いくつかの実施形態では、ステップ6932は、ステップ6940とステップ6942の一方または両方を含む。ステップ6940では、カメラデバイスは、第1のセンサの少なくともいくつかの画素値の読み出しと並行して画素値を読み出すように第2のセンサを制御する。ステップ6942では、カメラデバイスは、前記決定が、第2のセンサの連続画素要素行に対応する画素要素の合同読み出しを実行する決定であるとき、第1の焦点距離と第2の焦点距離の比の関数として、合同読み出しにおいて読み出されることになる画素要素の行の数を制御する。
ステップ6944に戻ると、ステップ6944では、カメラデバイスは、前記決定が第2のセンサの連続画素要素に対応する画素要素の合同読み出しを実行する、決定であるとき、連続画素要素行に対応する画素要素の合同読み出しを実行するように、第2の光学チェーンと同じ焦点距離を有する第3の光学チェーンに対応する第3のセンサを制御し、前記第3のセンサは、第2のセンサの読み出しが完了された後であるが第1のセンサの読み出しの完了の前に、画素値のうちのいくつかを合同で読み出すように制御される。動作は、ステップ6930、6932、および6944から、接続ノードB6946を介して、ステップ6904および6906への入力に進む。
図69は、さまざまな例示的な実施形態による例示的なカメラデバイス7000の図である。カメラデバイス7000は、プロセッサ7002、たとえばCPUと、メモリ7004と、モジュールのアセンブリ7006、たとえば、回路などのハードウェアモジュールのアセンブリと、ユーザ入力インターフェース7008と、ディスプレイ7010と、I/Oインターフェース7012と、さまざまな要素がデータと情報とを交換し得るバス7037を介して互いに結合された複数の光学チェーン(光学チェーン1 7018、光学チェーン2 7020、光学チェーン3 7022、光学チェーン4 7024、光学チェーン5 7026 、…、光学チェーンN 7028)とを含む。いくつかの実施形態では、光学チェーン3 7022、光学チェーン4 7024、光学チェーン5 7026、…、光学チェーンN 7028は任意選択であり、光学チェーンのうちの1つまたは複数が含まれてよい。ディスプレイ7010、たとえば、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、有機発光ダイオード(OLED)ディスプレイ、またはアクティブマトリクス有機発光ダイオード(AMOLED)ディスプレイは、カメラ7000のユーザに画像、画像部分、ユーザメニューなどを表示するためのものである。ユーザ入力インターフェース7008としては、たとえば、ユーザからの入力を受け取るための、スイッチ、ボタン、タッチスクリーンインターフェースなどがある。受け取られるユーザ入力としては、たとえば、高速の動作の動きモードをユーザが選択したことを示す入力またはユーザが動作の高解像モードを選択したことを示す入力がある。いくつかの実施形態では、さまざまな動作のモードが、動作のユーザモードのメニュー、たとえば、動作の代替モードのメニューから選択可能であり、場合によっては選択される。I/Oインターフェース7012には、他のデバイスたとえばパーソナルコンピュータと通信するための複数の通信ポートがある。I/Oインターフェース7012は、いくつかの実施形態では、1つまたは複数のワイヤレス通信インターフェースを含む。I/Oインターフェース7012上で通信される情報としては、たとえば、複数の光学チェーンからキャプチャされた画像から生成された結合された画像、ならびに/または外部で、たとえばパーソナルコンピュータ内で、処理および/もしくは結合されることになる、個々の光学チェーンからキャプチャされた画像がある。
メモリ7004は、モジュールのアセンブリ7014と、データ/情報7016とを含む。データ/情報7016は、いくつかの実施形態では、選択された動作のモードを示す受け取られるユーザ入力、たとえば第2のセンサに関して、合同読み出しを実行するかまたは個別読み出しを実行するかに関する決定を行う際に使用される動き閾値の格納される速度、決定された動きの速度、第1の光学チェーンのための焦点距離値、第2の光学チェーンのための焦点距離値、光学チェーンの画像センサからの読み出し、合同読み出しで読み取られる決定された行の数、第1のセンサに対応する読み出し速度タイミング情報、および第2のセンサに対応する読み出し速度タイミング情報のうちの1つまたは複数またはすべてを含む。
光学チェーン1 7018は、レンズ7038、たとえば外側レンズと、固定された鏡7040、たとえば実質的な平面状の固定された鏡と、画像センサ7042とを含む。いくつかの実施形態では、実質的な平面状の固定された鏡は、固定された平面鏡である。画像センサ7042は、画像をキャプチャするために使用される。光は、鏡7040に到達する前にレンズ7038を通過する。光方向変換デバイスである鏡7040は、レンズ7038を通過した光を画像センサ7042上に方向づける。
光学チェーン2 7020は、レンズ7044、たとえば外側レンズと、移動可能な実質的な平面鏡7046と、画像センサ7048とを含む。いくつかの実施形態では、実質的な平面鏡は平面鏡である。さまざまな実施形態では、移動可能な鏡7046はヒンジ取り付け部を含む。光学チェーン2 7020は、鏡移動モジュール7050、たとえば駆動モータおよび対応する駆動回路と、鏡位置検出モジュール7052、たとえば、レゾルバまたはシンクロまたは光学式ロータリエンコーダまたは磁気ロータリエンコーダなどの角度位置検知デバイスと、いくつかの実施形態では、センサ測定値をデジタル値に変換する回路、たとえばアナログ−デジタル変換器とをさらに含む。画像センサ7048は、画像をキャプチャするために使用される。光は、鏡7046に到達する前にレンズ7044を通過する。光方向変換デバイスである鏡7046は、レンズ7044を通過した光を画像センサ7048上に方向づける。
光学チェーン3 7022は、レンズ7054、たとえば外側レンズと、移動可能な実質的な平面鏡7056と、画像センサ7058とを含む。いくつかの実施形態では、実質的な平面鏡は平面鏡である。さまざまな実施形態では、移動可能な鏡7056はヒンジ取り付け部を含む。光学チェーン3 7022は、鏡移動モジュール7060、たとえば駆動モータおよび対応する駆動回路と、鏡位置検出モジュール7062、たとえば、レゾルバまたはシンクロまたは光学式ロータリエンコーダまたは磁気ロータリエンコーダなどの角度位置検知デバイスと、いくつかの実施形態では、センサ測定値をデジタル値に変換する回路、たとえばアナログ−デジタル変換器とをさらに含む。画像センサ7058は、画像をキャプチャするために使用される。光は、鏡7056に到達する前にレンズ7054を通過する。光方向変換デバイスである鏡7056は、レンズ7054を通過した光を画像センサ7058上に方向づける。
光学チェーン4 7024は、レンズ7064、たとえば外側レンズと、移動可能な実質的な平面鏡7066と、画像センサ7068とを含む。いくつかの実施形態では、実質的な平面鏡は平面鏡である。さまざまな実施形態では、移動可能な鏡7066はヒンジ取り付け部を含む。光学チェーン4 7024は、鏡移動モジュール7070、たとえば駆動モータおよび対応する駆動回路と、鏡位置検出モジュール7072、たとえば、レゾルバまたはシンクロまたは光学式ロータリエンコーダまたは磁気ロータリエンコーダなどの角度位置検知デバイスと、いくつかの実施形態では、センサ測定値をデジタル値に変換する回路、たとえばアナログ−デジタル変換器とをさらに含む。画像センサ7068は、画像をキャプチャするために使用される。光は、鏡7066に到達する前にレンズ7064を通過する。光方向変換デバイスである鏡7066は、レンズ7064を通過した光を画像センサ7068上に方向づける。
光学チェーン5 7026は、レンズ7074、たとえば外側レンズと、移動可能な実質的な平面鏡7076と、画像センサ7078とを含む。いくつかの実施形態では、実質的な平面鏡は平面鏡である。さまざまな実施形態では、移動可能な鏡7076はヒンジ取り付け部を含む。光学チェーン5 7026は、鏡移動モジュール7080、たとえば駆動モータおよび対応する駆動回路と、鏡位置検出モジュール7082、たとえば、レゾルバまたはシンクロまたは光学式ロータリエンコーダまたは磁気ロータリエンコーダなどの角度位置検知デバイスと、いくつかの実施形態では、センサ測定値をデジタル値に変換する回路、たとえばアナログ−デジタル変換器とをさらに含む。画像センサ7078は、画像をキャプチャするために使用される。光は、鏡7076に到達する前にレンズ7074を通過する。光方向変換デバイスである鏡7076は、レンズ7074を通過した光を画像センサ7078上に方向づける。
追加の光学チェーンたとえば光学チェーンN 7028は、固定された光方向変換デバイスまたは移動可能な光方向変換デバイス、たとえば鏡を含んでよい。
例示的な一実施形態では、光学チェーン1 7018は焦点距離=f2を有し、光学チェーン2 7020、光学チェーン3 7022、光学チェーン4 6124、および光学チェーン5 6126の各々は焦点距離=f1を有し、f1>f2である。
さまざまな実施形態では、異なるタイプの光方向変換デバイスが、鏡の代わりに使用され、たとえば、プリズムが光学チェーン内で鏡の代わりに使用される。たとえば、移動可能なプリズムが、移動可能な実質的な平面鏡7046の代わりに、光学チェーン2 7020内で使用される。いくつかの実施形態では、異なるタイプの光方向変換デバイスが、異なる光学チェーン内で使用される。
いくつかの実施形態では、焦点距離f2に対応する光学チェーンは光方向変換デバイスを含まず、光学チェーンの画像センサは、光方向変換デバイスを介して、方向変換なしに光学チェーンのレンズに入る光をキャプチャすることが可能であるように位置決めされる。
さまざまな実施形態では、f1>f2である。いくつかのそのような実施形態では、f1=2 f2である。
例示的な一実施形態では、図69のカメラ7000は図12Bのカメラ1250であり、図69の光学チェーン(光学チェーン1 7018、光学チェーン2 7020、光学チェーン3 7022、光学チェーン4 7024、光学チェーン5 7026)はそれぞれ、図12Bのカメラ1250の光学チェーン(1202、1210、1212、1224、1220)である。
図70は、本発明により実施されるカメラデバイスたとえば図69のカメラデバイス7000に含まれ得るモジュールのアセンブリ7100の図である。モジュールのアセンブリ7100は、方法のステップ、たとえば図68の流れ図6900の方法のステップを実施し得る。いくつかの実施形態では、モジュールのアセンブリ7100は、互いに結合され得る回路のアセンブリである。例示的な一実施形態では、モジュールのアセンブリ7100は、図69のカメラ7000のモジュールのアセンブリ7006である。いくつかの実施形態では、モジュールのアセンブリ7100は、ソフトウェアモジュールのアセンブリである。例示的な一実施形態では、モジュールのアセンブリ7100は、図69のカメラ7000のメモリ7004のモジュールのアセンブリ7014である。
図70は、図69に示されるカメラデバイス7000において使用可能であり、いくつかの実施形態では使用される、モジュールのアセンブリ7100を示す。モジュールのアセンブリ7100内のモジュールは、たとえば個々の回路として、プロセッサ7002内部のハードウェア内で完全に実施可能であり、いくつかの実施形態では、実施される。モジュールのアセンブリ7100内のモジュールは、たとえば異なるモジュールに対応する個々の回路として、モジュールのアセンブリ7006内部のハードウェア内で完全に実施可能であり、いくつかの実施形態では、実施される。他の実施形態では、モジュールのうちのいくつかは、プロセッサ7002の内部の、たとえば回路として、実施され、他のモジュールは、プロセッサの外部にあり、これに結合されたモジュールのアセンブリ7006の内部の、たとえば回路として、実施される。理解されるべきであるように、プロセッサ上での、および/またはプロセッサの外部にあるいくつかのモジュールとの、モジュールの統合のレベルは、設計上の選択肢の1つであり得る。
あるいは、回路として実施されるのではなく、モジュールのアセンブリ7100内のモジュールのすべてまたはいくつかは、ソフトウェア内で実施され、カメラ7000のメモリ7004内に格納され得、モジュールは、モジュールがプロセッサたとえばプロセッサ7002によって実行されるとき、モジュールに対応する機能を実施するように、カメラ7000の動作を制御する。いくつかのそのような実施形態では、モジュールのアセンブリ7100は、モジュールのアセンブリ7014としてメモリ7004に含まれる。さらに他の実施形態では、モジュールのアセンブリ7100内のさまざまなモジュールは、ハードウェアとソフトウェアの組み合わせとして実施され、たとえば、プロセッサの外部にある別の回路は、プロセッサ7002に入力を提供し、次いで、プロセッサ7002は、ソフトウェア制御下でモジュールの機能の一部分を実行するように動作する。図69の実施形態では、単一のプロセッサたとえばコンピュータとして示されているが、プロセッサ7002は、1つまたは複数のプロセッサたとえばコンピュータとして実施され得ることを理解されたい。
ソフトウェア内で実施されるとき、モジュールは、プロセッサ7002によって実行されるとモジュールに対応する機能を実施するようにプロセッサ7002を構成するコードを含む。モジュールのアセンブリ7100がメモリ7004内に格納される実施形態では、メモリ7004は、少なくとも1つのコンピュータたとえばプロセッサ7002にモジュールが対応する機能を実施させるために、コード、たとえば各モジュールに対する個々のコードを備えるコンピュータ可読媒体を備えるコンピュータプログラム製品である。
完全にハードウェアベースのモジュールまたは完全にソフトウェアベースのモジュールが使用されてよい。しかしながら、ソフトウェアとハードウェアのいかなる組み合わせも、たとえば、回路により実施されるモジュールも、機能を実施するために使用され得ることを理解されたい。理解されるべきであるように、図71に示されるモジュールは、図68の方法流れ図6900に示される対応するステップの機能を実行するように、カメラ7000またはプロセッサ7002などのその中の要素を制御および/または構成する。したがって、モジュールのアセンブリ7100は、図68に示される方法の対応するステップの機能を実行するさまざまなモジュールを含む。
図70は、さまざまな例示的な実施形態によるモジュールのアセンブリ7100である。モジュールのアセンブリ7100は、読み出し制御決定モジュール7102と、センサ読み出し制御モジュール7104と、モード制御モジュール7106と、動き速度決定モジュール7108と、合同読み出し制御モジュール7110とを含む。
さまざまな実施形態では、モジュールのアセンブリ710は、第1のセンサたとえばセンサ7042を含み、第1の焦点距離たとえばf2を有する第1の光学チェーンたとえば光学チェーン1 7018と、第2のセンサたとえばセンサ7048を含み、第2の焦点距離たとえばf1を有する第2の光学チェーンたとえば光学チェーン2 7020とを含む、カメラデバイス、たとえば図69のカメラデバイス7000に含まれ、前記第1の焦点距離は前記第2の焦点距離よりも小さい。
読み出し制御決定モジュール7102は、i)ユーザ入力、またはii)第2のセンサの連続する画素要素行に対応する画素要素の合同読み出しを実行するように、もしくは第2のセンサの画素要素の連続行の個別読み出しを実行するように、第2の光学チェーンの第2のセンサを制御するかどうか、動きの決定された速度、のうちの少なくとも1つに基づいて、読み出し制御決定を行うように構成される。
センサ読み出し制御モジュール7104は、読み出し制御決定に従って、i)前記第1のセンサの画素値を読み出すために第1のセンサを制御し、ii)第2のセンサの画素要素の画素値を読み出すために第2のセンサを制御するように構成される。
さまざまな実施形態では、センサ読み出し制御モジュール7104は、前記センサ制御決定が、第2のセンサの連続画素要素行に対応する画素要素の合同読み出しを実行するように第2のセンサを制御する決定であるとき第2のセンサの連続画素要素行に対応する画素要素の合同読み出しを実行するように前記第2のセンサを制御し、前記センサ制御決定が、前記第2のセンサの画素要素の連続行の個別読み出しを実行する決定であるとき、前記第2のセンサの画素要素の連続行の個別読み出しを実行するように第2のセンサを制御するように構成される。いくつかのそのような実施形態では、前記センサ読み出し制御モジュール7104は、同期方式で関心画像エリアの同じ部分に対応する画素値の行を読み出すように第1のセンサと第2のセンサとを制御する。いくつかの実施形態では、第1のセンサおよび第2のセンサは重複する画像部分に対応し、前記センサ読み出し制御モジュール7104は、並行して関心画像エリアの同じ部分に対応する画素値を読み出すように第1のセンサと第2のセンサとを制御するように構成される。
いくつかの実施形態では、前記センサ読み出し制御モジュール7104は、画素値を読み出すように第2のセンサを制御することの一部として、前記第1のセンサの少なくともいくつかの画素値の読み出しと並行して画素値を読み出すように第2のセンサを制御する。
いくつかの実施形態では、ユーザ入力インターフェース、たとえば、図69のカメラ7000のユーザ入力インターフェース7008は、動作の自動モード、動作の高速動きモード、または動作の高解像度モードを示すユーザ入力を受け取るように構成される。モード制御モジュール7106は、受け取られたユーザ入力に応答して動作のモードにカメラデバイスを設定するように構成される。さまざまな実施形態では、読み出し制御決定モジュール7102は、受け取られたユーザ入力が動作の自動モードを示すとき、前記カメラデバイスによってキャプチャされた画像において検出される動きの速度に基づいて、前記決定を行うように構成される。
読み出し制御決定モジュール7102は、いくつかの実施形態では、i)動きの速度が第1の閾値を上回るとき、第2のセンサの連続画素要素行に対応する画素要素の合同読み出しを実行することを決定し、ii)動きの速度が前記第1の閾値よりも下回るとき、前記第2のセンサの画素要素の連続行の個別読み出しを実行することを決定するように構成される。
動き速度決定モジュール7108は、たとえば読み出し制御決定モジュール7102が決定を行う前に、前記カメラデバイスの光学チェーンによって順次キャプチャされる画像から動きの前記速度を決定するように構成される。さまざまな実施形態では、動き速度決定モジュール7108は、第1の時間期間中にキャプチャされる画像と前記第1の時間期間に続く第2の時間期間中にキャプチャされる画像との差に基づいて動きの速度を決定する。
いくつかの実施形態では、読み出し制御決定モジュール7102は、i)ユーザ入力が高速の動作の動きモードの選択を示すとき、第2のセンサの連続画素要素行に対応する画素要素の合同読み出しを実行することを決定し、ii)ユーザ入力が動作の高解像度動きモードの選択を示すとき、前記第2のセンサの画素要素の連続行の個別読み出しを実行することを決定するように構成される。
さまざまな実施形態では、センサ読み出し制御モジュール7104は、前記決定が、第2のセンサの続画素要素行に対応する画素要素の合同読み出しを実行する決定であるとき連続画素要素行に対応する画素要素の合同読み出しを実行するように前記第2の光学チェーンと同じ焦点距離を有する第3の光学チェーンたとえば光学チェーン3 7022に対応する第3のセンサたとえばセンサ7058を制御するようにさらに構成され、前記第3のセンサは、前記第2のセンサの読み出しが完了した後であるが第1のセンサの読み出しの完了の前に、画素値の少なくともいくつかの行を合同で読み出すように制御される。
合同読み出し制御モジュール7110は、前記決定が、第2のセンサの連続画素要素行に対応する画素要素の合同読み出しを実行する決定であるとき、第1の焦点距離と第2の焦点距離の比の関数として、合同読み取りにおいて読み出されることになる画素要素の行の数を制御するように構成される。
いくつかの実施形態では、センサ読み出し制御モジュール7104は、前記決定が、前記第2のセンサの画素要素の連続行の個別読み出しを実行する決定であるとき、第2の焦点距離と第1の焦点距離の比の関数である速度で第1のセンサの画素要素の画素値を読み出すように前記第1のセンサを制御するようにさらに構成される。いくつかのそのような実施形態では、前記センサ読み出し制御モジュール7104は、第2の焦点距離と第1の焦点距離の比の関数であることに基づく速度で第1のセンサの画素要素の画素値を読み出すように前記第1のセンサを制御するように構成されることの一部として、画素値の行が第2のセンサから読み取られる速度よりも遅い速度で画素値の行を読み出すように第1のセンサを制御するようにさらに構成される。
図71は、例示的な一実施形態による、例示的な関心シーン7202と、カメラデバイス内の異なる光学チェーンに対応する例示的なキャプチャエリアとを示す図7200である。エリア7204は、焦点距離=f2を有する光学チェーン1のセンサのためのセンサキャプチャエリアを表す。エリア7206は、焦点距離=f1を有する光学チェーン2のセンサのためのセンサキャプチャエリアを表す。エリア7028は、焦点距離=f1を有する光学チェーン3のセンサのためのセンサキャプチャエリアを表す。一例では、カメラデバイスは、図68の流れ図6900による方法を実施し、図70のモジュールのアセンブリ7100を含む、図69のカメラデバイス7000である。
図72は、高い感知されたレートによる、ユーザにより入力された高速の動作の動きモードまたは動作の自動モードに対応する一例のための例示的な読み出し時間を示す図7300である。光学チェーン1に含まれる第1のセンサ7302は、図71のキャプチャエリア7204に対応する。光学チェーン2に含まれる第2のセンサ7304は、図71のキャプチャエリア7206に対応する。光学チェーン3に含まれる第3のセンサ7306は、図71のキャプチャエリア7208に対応する。列7308は、第1のセンサ7302の画素要素行の各々に対応する行読み出し時間を列挙する。列7310は、第2のセンサ7304および第3のセンサ7306の連続画素要素行のペアの各々に対応する合同行読み出し時間を列挙する。
この例では、早い読み取りを達成するために、たとえば、ぼけを回避または減少させるために、第2のセンサおよび第3のセンサの連続画素要素行に対応する画素要素の合同読み出しが実行される。時間0−>TRの間、第1のセンサの第1の行が読み出され、第2のセンサの第1の行および第2の行に対して合同読み出しが実行される。時間TR−>2TRの間、第1のセンサの第2の行が読み出され、第2のセンサの第3の行および第4の行に対して合同読み出しが実行される。時間2TR−>3TRの間、第1のセンサの第3の行が読み出され、第2のセンサの第5の行および第6の行に対して合同読み出しが実行される。時間3TR−>4TRの間、第1のセンサの第4の行が読み出され、第2のセンサの第7の行および第8の行に対して合同読み出しが実行される。時間4TR−>5TRの間、第1のセンサの第5の行が読み出され、第2のセンサの第9の行および第10の行に対して合同読み出しが実行される。時間5TR−>6TRの間、第1のセンサの第6の行が読み出され、第3のセンサの第1の行および第2の行に対して合同読み出しが実行される。時間6TR−>7TRの間、第1のセンサの第7の行が読み出され、第3のセンサの第3の行および第4の行に対して合同読み出しが実行される。時間7TR−>8TRの間、第1のセンサの第8の行が読み出され、第3のセンサの第5の行および第6の行に対して合同読み出しが実行される。時間8TR−>9TRの間、第1のセンサの第9の行が読み出され、第3のセンサの第7の行および第8の行に対して合同読み出しが実行される。時間9TR−>10TRの間、第1のセンサの第10の行が読み出され、第3のセンサの第9の行および第10の行に対して合同読み出しが実行される。
図73は、低い感知された速度による、ユーザにより入力された高解像度の動作のモードまたは動作の自動モードに対応する一例のための例示的な読み出し時間を示す図7400である。光学チェーン1に含まれる第1のセンサ7402は、図71のキャプチャエリア7204に対応する。光学チェーン2に含まれる第2のセンサ7404は、図71のキャプチャエリア7206に対応する。光学チェーン3に含まれる第3のセンサ7406は、図71のキャプチャエリア7208に対応する。列7408は、第1のセンサ7402の画素要素行の各々に対応する行読み出し時間を列挙する。列7410は、第2のセンサ7404および第3のセンサ7406の連続画素要素行のペアの各々に対応する個別読み出し時間を列挙する。
この例では、高解像度を達成するために、第2のセンサおよび第3のセンサの画素要素行に対応する画素要素の個別読み出しが実行される。時間0−>2TRの間、第1のセンサの第1の行が読み出され、時間0−>TRの間、第2のセンサの第1の行が読み出され、時間1TR−>2TRの間、第2のセンサの第2の行が読み出される。時間2TR−>4TRの間、第1のセンサの第2の行が読み出され、時間2TR−>3TRの間、第2のセンサの第3の行が読み出され、時間3TR−>4TRの間、第2のセンサの第4の行が読み出される。時間4TR−>6TRの間、第1のセンサの第3の行が読み出され、時間4TR−>5TRの間、第2のセンサの第5の行が読み出され、時間5TR−>6TRの間、第2のセンサの第6の行が読み出される。時間6TR−>8TRの間、第1のセンサの第4の行が読み出され、時間6TR−>7TRの間、第2のセンサの第7の行が読み出され、時間7TR−>8TRの間、第2のセンサの第8の行が読み出される。時間8TR−>10TRの間、第1のセンサの第5の行が読み出され、時間8TR−>9TRの間、第2のセンサの第9の行が読み出され、時間9TR−>10TRの間、第2のセンサの第10の行が読み出される。時間10−>12TRの間、第1のセンサの第6の行が読み出され、時間10−>11TRの間、第3のセンサの第1の行が読み出され、時間11TR−>12TRの間、第3のセンサの第2の行が読み出される。時間12TR−>14TRの間、第1のセンサの第7の行が読み出され、時間12TR−>13TRの間、第3のセンサの第3の行が読み出され、時間13TR−>14TRの間、第3のセンサの第4の行が読み出される。時間14TR−>16TRの間、第1のセンサの第8の行が読み出され、時間14TR−>15TRの間、第3のセンサの第5の行が読み出され、時間15TR−>16TRの間、第3のセンサの第6の行が読み出される。時間16TR−>18TRの間、第1のセンサの第9の行が読み出され、時間16TR−>17TRの間、第3のセンサの第7の行が読み出され、時間17TR−>18TRの間、第3のセンサの第8の行が読み出され、時間18TR−>20TRの間、第1のセンサの第10の行が読み出され、時間18TR−>19TRの間、第3のセンサの第9の行が読み出され、時間19TR−>20TRの間、第3のセンサの第10の行が読み出される。
図73の例の場合の全体読み出し時間は、図72の例の2倍の長さであることに留意されたい。
さまざまな特徴は、説明される1つまたは複数の光方向変換要素を使用してカメラ装置の厚さを減少させる方法および装置を対象とする。さまざまな実施形態では、光軸に沿った光の経路が、センサに到達する前に方向変換される。少なくともいくつかの実施形態では、光軸に沿ってカメラデバイスの前面に入る光の経路が、カメラの面と平行に延在する方向に少なくとも部分的に進むように方向変換される。したがって、少なくともいくつかの実施形態では、光の経路の長さは、カメラの奥行き、たとえば前面から背面までの長さによって制限されない。
たとえば鏡またはプリズムなどの光方向変換要素の使用は、1つまたは複数のカメラモジュールを含む、カメラ内のたとえば光学チェーンたとえばカメラモジュールの最も前面のレンズから対応するセンサまでの光路の長さを延在する際に有用である。いくつかの実施形態では、丸いレンズ、たとえば、丸い絞りを有するレンズが最も外側のカメラレンズとして使用され、最も外側のレンズの直径と同等の奥行きを有する光方向変換要素が使用される。このように、カメラが垂直に配置され、カメラハウジングの前面に対応する垂直平面内に1つまたは複数のレンズが取り付けられると仮定して、1つまたは複数の外側レンズの垂直次元と水平次元の両方と考えられ得るものの中で受け取られる光は、光学チェーンの前面の最も外側のレンズがカメラの先頭に位置決めされて光学チェーンの最も外側のレンズの真後ろのカメラの背面にセンサが位置決めされる直線状の前面から背面への構成で光学チェーンが配置されることを可能にするのに十分なほどカメラの奥行きがあることを必要とすることなく、方向変換およびキャプチャ可能である。
いくつかの実施形態では、カメラが、複数の光学チェーンたとえばカメラモジュールを使用して実施される。少なくともいくつかのそのような実施形態では、光の方向変換は、カメラモジュールの少なくとも一部分が左右の寸法たとえばカメラの横方向寸法または上下の寸法(高さ)を利用でき、それによって、比較的長い焦点距離が比較的薄いカメラフォーマットでサポート可能であるように実施される。そのような一実施形態では、小さい焦点距離を有するカメラモジュールおよび対応する小さいレンズは、直線状の前後の実装形態で実施されるが、より大きい焦点距離を有するカメラモジュールおよびより大きいレンズは、より大きい焦点距離を有するカメラモジュールの一部分がカメラの前面に対して横にまたは上下方向実施されることを可能にするために、たとえばいくつかの実施形態では90度の、光方向変換を利用する。
多くの実施形態では、カメラモジュールのために丸いレンズが使用されるが、少なくともいくつかの実施形態では、長い焦点距離を有するカメラモジュールが、丸くない構成、たとえば、卵形の構成、細長い構成、または1次元において他の次元よりも長い絞りを有する他のレンズ構成を有するレンズを使用して実施される。少なくとも1つのそのような実施形態では、丸くないレンズが、光方向変換デバイスと組み合わせて使用される。詳細な説明で説明されるように、1つまたは複数の光方向変換デバイスと組み合わせた丸くないレンズの使用は、丸い絞りを有するレンズが代わりに使用される場合に可能であろうよりも薄いカメラモジュールを実施するために使用可能である。
少なくともいくつかの実施形態では、いくつかは丸いレンズを有し、他のものは丸くないレンズを有するカメラモジュールの組み合わせが使用される。丸くないレンズ、たとえば、平面の1次元において同じ平面の別の次元よりも長い絞りを有するレンズが、大きい焦点距離、たとえば、いくつかの実施形態ではフルフレームDSLRの70mmの焦点距離に等しいまたはこれよりも大きい、いくつかの実施形態ではフルフレームDSLRの150mmの焦点距離に等しいまたはこれよりも大きい、いくつかの実施形態ではフルフレームDSLRの300mmの焦点距離に等しいまたはこれよりも大きい、焦点距離を有するカメラモジュールに使用される。少なくともいくつかのそのような実施形態では、丸い絞りを有するレンズが、小さい、たとえば、70mmのフルフレームDSLRよりも短い焦点距離に等しい、焦点距離を有するカメラモジュールに使用される。レンズ(カメラ)の焦点距離は、多くの場合、フルフレームDSLRカメラにとって等価な焦点距離と述べられ、DSLRカメラはデジタル一眼レフカメラである。35mmの等価な焦点距離を有する光学チェーンなどのレンズまたはシステムは、35mmレンズを有するフルフレームDSLRカメラが形作るであろうものと同じロケーションから同じショットを形作る。センサは一般にフルフレームDSLRセンサよりもはるかに小さいので、35mmの等価な焦点距離を有する光学チェーンの実際の焦点距離は、著しく小さいことがある。一般に、センサが、各次元において5分の1の大きさ(25分の1の大きさの面積)である場合、7mmの実焦点距離の光学チェーンは、フルフレームDSLRの35mmに等しい焦点距離を有する。
さまざまな実施形態では、光方向変換が、薄型カメラ実装形態を可能にするためにいくつかの焦点距離を有するカメラモジュールに使用されるが、35mmフルフレームDSLR焦点距離に等しいより短い焦点距離たとえば焦点距離を有するいくつかの他のカメラモジュールが、光方向変換要素を使用せずに、実施され得、場合によっては、実施される。
いくつかの実施形態では、カメラ厚さがカメラモジュール(いくつかの実施形態では水平方向に沿っている)の最も外側のレンズ素子および対応する絞りの最大寸法よりも小さいことを可能にするために、いくつかの実施形態では、一方向、たとえば別の方向よりも水平方向、たとえば、垂直方向におけるより大きい絞りをサポートするように構成される光方向変換デバイスが、使用される。この光方向変換デバイスは、方向変換後、異なる方向に、たとえば垂直に進むように、カメラモジュールの光軸に沿ってカメラに向かって進む光を方向変換する。これは、光方向変換デバイスの奥行きが絞りの最大次元よりも小さいことを可能にする。
1次元(たとえば、水平)において他の次元よりも大きい絞りをサポートする方向変換要素の使用は、他の次元よりも1次元(たとえば、水平)においてより高い品質、たとえば、より多くのキャプチャされた高解像度周波数画像コンテンツを有する、二次元画像のキャプチャをもたらす。そのような画像は、同じ量の光学情報が垂直次元と水平次元の両方においてキャプチャされるより均一な画像よりも好ましくないことがあるが、光がカメラに入るレンズ開口の最大長さよりもカメラが薄型であることを可能にするので、長円形絞りをサポートする光方向変換要素を使用することによって可能にされた薄型カメラ幅が望ましいことがある。したがって、そのような一実施形態では、カメラの厚さは、長円形または非円形のレンズ開口(絞り)の最大次元レンズ開口によって結合または制限されない。
非円形の絞り、たとえば、長円形の絞り、卵形の絞り、または他の非円形の絞りの使用は、より高い周波数画像情報が、他の次元においてよりも1次元において、たとえば非円形のレンズのより長い寸法に沿って、キャプチャされることをもたらすことができる。さまざまな実施形態では、1次元において他の次元よりも狭いレンズおよび/または有効絞りから生じる異なる方向における高周波数情報の差を補うために、より高い解像度次元の異なる方位を有する複数の光学チェーンが使用される。異なる方位を有する光学チェーンは、画像内の最高解像度次元の異なる方向(たとえば、水平、垂直、斜め)を有する画像をキャプチャし、カメラは垂直方位にあり、カメラレンズは前を向いている。
そのような一実施形態では、異なる光学チェーンによってキャプチャされた画像は、結合された画像すなわち合成画像を形成するために結合される。たとえば異なる光学チェーンによって同時にキャプチャされた、異なる次元における異なる量の高周波数情報と画像を結合することによって理解されるべきであるように、結合された画像は、丸くない絞り停止具を有する光学チェーンによって1次元においてキャプチャされる、より低い周波数情報によって制限される必要はない。これは、異なる光学チェーン、たとえば、他の光学チェーンが経験する次元におけるより高い周波数情報のキャプチャを可能にすることができる方位を有する光学チェーンによってキャプチャされた画像は、他の光学チェーンによってキャプチャされた画像の弱点を補うために使用可能であるからである。一例として、両方とも丸くない絞り、たとえば長円形の絞りを有する2つの光学チェーンがある場合、第1の光学チェーンの方位は、第1の光学チェーンの絞りが水平次元においてより大きく、第1の光学チェーンによってキャプチャされる画像に水平方向においてより高い解像度を与えるようなものであってよく、第2の光学チェーンの方位は、対応して、より高い垂直解像度を有する画像をキャプチャするようなものであってよい。2つの画像は、垂直方向と水平方向の両方でより高い解像度を有する単一の合成画像に結合可能であり、いくつかの実施形態では、結合される。
したがって、丸くない絞りを有するが異なる方位を有する複数の光学チェーンを使用し、そのような光学チェーンによってキャプチャされた画像を結合することによって、その直径が通常ならばカメラの奥行きによって限定されるであろうより小さい丸い絞りの使用によって画像の品質(鮮鋭度)が制限されることなく、比較的薄いカメラが実施可能である。
いくつかの実施形態では、丸くないレンズが、画像を並行してキャプチャするために使用される複数の光学チェーンの最も外側のレンズとして使用され、次いで、これらの画像は、結合された画像を形成するために結合される。丸くないレンズは、長円形レンズを形成するために、丸いレンズの一部分、たとえば左部分と右部分とを切除することによって形成され得る。他の実施形態では、丸いレンズの一部分は、適用されるマスクまたはレンズが取り付けられて長円形の絞りを有するレンズを形成するカメラハウジングの一部分によってマスキングされる。さらに他の実施形態では、丸い外側レンズが使用され、光方向変換デバイスは、丸いレンズを通過するすべての光がセンサに方向変換されるとは限らないようなサイズおよび形状である。そのような実施形態では、光方向変換デバイスは、光学的光路に対する制約として動作し、センサへと通過する光に対する絞り停止具、たとえば光制約の点になる。したがって、さまざまな実施形態では、長円形のレンズは絞り停止具として働き、長円形の絞りは光学チェーンの光路上の収縮点となるが、他の実施形態では、光方向変換要素は、光路に対する制約および光学チェーン内の絞り停止具として働き、有効絞りは、外側レンズが丸いことがあるという事実にもかかわらず、形状が長円形である。
エリアの複数の画像を同時にキャプチャするために複数の光学チェーンを使用する方法および装置が説明される。次いで、複数のキャプチャされた画像が、結合された画像を形成するために結合され得、いくつかの実施形態では、結合される。結合された画像は、さまざまな実施形態では、通常、光学チェーンのうちの単一のチェーンのみを使用して達成されるであろうよりも高い品質である。
さまざまな実施形態は、一般に高品質の大きなレンズの単一の光学チェーンカメラ実装形態とともに使用されるよりも小さいおよび/または低コストの構成要素を使用して通常実施可能である複数の光学チェーンの使用によって、大きなレンズおよび/または大きな高品質センサの使用に関連付けられる利益の多くを提供する。
さまざまな実施形態では、光学チェーンたとえばカメラモジュールは、1つまたは複数のレンズと光方向変換デバイスとセンサとを含む要素の組み合わせを含む。光方向変換デバイスは分光器(light diverter)であり、さまざまな形をとってよく、たとえば、光方向変換デバイスは鏡またはプリズムであってよい。光方向変換デバイスは、光方向変換デバイスを移動させることによって光学チェーンが向く角度およびしたがって方向が変更されることを可能にするようにヒンジ結合され得る。
少なくともいくつかの実施形態では、異なる方位を有する丸くない絞りを有する異なる光学チェーンによってキャプチャされる画像が結合される。いくつかの実施形態では、異なる方位を有する2つ、3つ、またはそれ以上、たとえば6つまたはそれ以上の光学チェーンからの画像は、単一の結合された画像を形成するために結合される。いくつかの実施形態では、異なる方位を有する光学チェーンからの画像が結合されるが、説明の目的で、同じ方位を有する複数の光学チェーンによってキャプチャされた画像は、たとえば、カメラの底部たとえば水平線に対して異なる方位を有する光学チェーンによってキャプチャされた1つまたは複数の画像と結合可能であることを理解されたい。したがって、異なる光学チェーンからの画像を結合することによって、多数の利点が達成可能であり、複数の小さいレンズが使用されることを可能にし、単一の大きい丸いレンズを使用するシステムと比較して、比較的薄いカメラハウジングが可能である。
さまざまな実施形態では、複数の光学チェーンの外側レンズが固定され、したがって、多くの従来のズームカメラデバイスとは異なり、そのような実施形態では、外側レンズ、すなわち、カメラの面上のレンズは、カメラ本体から移動せず、ズーム動作中ですらカメラの面に対して固定される。最も外側のレンズは、いくつかの実施形態では、ゼロまたはごくわずかの屈折率を有し、外側レンズが対応する光学チェーンに埃が入るのを防ぐカバーとして主に働き得る。外側レンズは、そのような実施形態では、平坦なガラスまたはプラスチックを使用して実施され得る。いくつかの実施形態では、カメラが保管して置かれ、カメラデバイスが使用可能であるとき摺動されて戻るとき、摺動可能なカバーが外側レンズ上で摺動される。図14は、レンズが見えるようにされ、レンズカバーを含むカメラグリップまたはハンドルとして使用可能であるその場合、ある位置へのカバーの摺動そのような一実施形態を示す。
いくつかの実施形態では、最も外側のレンズの一部分が、カメラデバイスの前面からカメラデバイスの表面を越えて延在し得るが、最も外側のレンズは、一般に、仮にあったとしても、カメラの厚さよりも小さい少量延在する。したがって、使用中ですら、レンズは、光学チェーンが取り付けられるカメラデバイスの面を著しく越えないように、通常、多くてもカメラデバイスの半分の厚さよりも小さく延在する。
すべてではないとしても多くの場合、写真を撮影するために使用されるカメラデバイスの光学チェーンモジュールのうちの1つまたは複数によってキャプチャされた現実世界の物体および/またはシーンを表す画像は、コンピュータ可読媒体たとえばRAMもしくは他のメモリデバイス上にデジタル形式で保存され、および/または紙もしくは別の印刷可能媒体に印刷された画像の形で格納される。
静止画像キャプチャの文脈で説明されているが、本発明のカメラデバイスおよび光学チェーンモジュールはビデオをキャプチャするためにも使用可能であることを理解されたい。いくつかの実施形態では、ビデオシーケンスがキャプチャされ、ユーザは、たとえばビデオシーケンス内の、シーケンスのフレームに示される物体を、フォーカスエリアとして選択することができ、次いで、カメラデバイスは、光学チェーンモジュールを使用して1つまたは複数の画像をキャプチャする。いくつかの実施形態では、画像は、1つまたは複数の画像たとえばフレームを生成するために結合する。結合された画像たとえばフレームのシーケンスは生成され得、いくつかの実施形態では、生成され、たとえば、いくつかまたはすべての個々のフレームは、同時にキャプチャされた複数の画像に対応するが、異なるフレームは、異なる時間にキャプチャされた画像に対応する。
異なる光学チェーンモジュールは、異なる量の光ために、をキャプチャするいくつかの実施形態では異なる露光時間を使用してように制御され得、場合によっては、制御され、キャプチャされた画像は、その後、単一の露光時間を使用して達成されるであろうよりも大きいダイナミックレンジを有する画像を作り出すために結合され、同じまたは類似の効果は、同じ露光時間を有する異なる光学チェーン上での異なるフィルタの使用によって達成され得、いくつかの実施形態では、達成される。たとえば、同じ露光時間であるが異なるフィルタを使用することによって、異なる光学チェーンモジュールのセンサは、異なる量の光が通過することを可能にする異なるフィルタにより異なる量の光を感知する。そのような一実施形態では、光学チェーンの露光時間は、同じ色に対応する異なる光学チェーンモジュールに対応する少なくともいくつかのフィルタが、異なる量の光が通過することを可能にすることによって、同じに保持される。カラーではない実施形態では、異なる暗さレベルの中性フィルタが、カラーフィルタリングされないセンサの前に使用される。いくつかの実施形態では、異なる暗さレベルのフィルタモードへの切り換えが、1つまたは複数の光学チェーンモジュール内の所定の位置に所望のフィルタを移動させるフィルタプラッタの単純な回転または移動によって達成される。
本発明のカメラデバイスは、複数の動作のモードと、異なる動作のモード間の切り換えとをサポートする。異なるモードは、エリアごとの異なる数の複数のレンズ、および/またはシーンエリアを並行してキャプチャするために使用される異なる光学チェーンのための異なる露光時間を使用してよい。異なる露光モードおよびフィルタモードもサポートされ、たとえばユーザ入力に基づいて、切り換えられてよい。
多数の追加変形形態および組み合わせが、本発明の範囲内にとどまりながら、可能である。
本発明の技法は、ソフトウェア、ハードウェア、および/またはソフトウェアとハードウェアの組み合わせを使用して実施され得る。本発明は、装置、たとえば、専用カメラデバイス、携帯電話、および/または1つまたは複数のカメラもしくはカメラモジュールを含む他のデバイスを対象とする。本発明は、方法、たとえば、本発明により、カメラ、カメラを含むデバイス、カメラモジュールなどを制御および/または動作させる方法も対象とする。本発明はまた、本発明による1つまたは複数のステップを実施するように機械を制御するための機械可読命令を含む、機械可読媒体、たとえば、ROM、RAM、CD、ハードディスクなどを対象とする。
さまざまな実施形態では、本明細書で説明されるデバイスは、本発明の1つまたは複数の方法に対応するステップ、たとえば、画像キャプチャの制御および/または画像の結合を実行するために、1つまたは複数のモジュールを使用して実施される。したがって、いくつかの実施形態では、本発明のさまざまな特徴が、モジュールを使用して実施される。そのようなモジュールは、ソフトウェア、ハードウェア、またはソフトウェアとハードウェアの組み合わせを使用して実施され得る。ハードウェア実装形態の場合、ハードウェア内で実施される実施形態は、モジュールの一部またはすべてとして、回路を使用し得る。あるいは、モジュールは、1つまたは複数の回路とレンズおよび/または他のハードウェア要素などの光学素子の組み合わせとして、ハードウェア内で実施され得る。したがって、少なくともいくつかの実施形態では、1つまたは複数のモジュールが、場合によっては、すべてのモジュールが、ハードウェア内で完全に実施される。上記で説明された方法または方法ステップの多くは、たとえば1つまたは複数のノード内で、上記で説明された方法のすべてまたは一部分を実施するように、機械、たとえば、追加ハードウェアを持つまたは持たないカメラデバイスまたは汎用コンピュータを制御するために、メモリデバイス、たとえば、RAM、フロッピー(登録商標)ディスクなどの機械可読媒体に含まれる、ソフトウェアなどの機械実行可能命令を使用して実施可能である。したがって、とりわけ、本発明は、機械、たとえば、プロセッサおよび関連ハードウェアに、上記で説明された方法のステップのうちのたとえば1つもしくは複数もしくはすべてを実行させる、または、上記で説明された方法のステップのうちのたとえば1つもしくは複数もしくはすべてを実行するように機械を制御するための機械実行可能命令を含む機械可読媒体を対象とする。
カメラの文脈で説明されているが、本発明の方法および装置のうちの少なくともいくつかは、タブレットを含む広範囲の画像キャプチャシステムおよび画像キャプチャ機能をサポートまたは提供する携帯電話デバイスに適用可能である。本明細書で説明されるカメラデバイスによってキャプチャされる画像は、工事現場に関する、事故における、および/または家屋の状況に関する情報であろうと乗り物の状況に関する情報であろうと個人情報を保存するための、状況を文書化するために有用な、現実世界の画像であってよい。
キャプチャされる画像および/または合成画像は、カメラデバイス上で表示され得、または個人記録もしくは業務記録の一部としてファイル内に維持可能な写真もしくは永久文書として印刷するためにプリンタに送られ得、場合によっては、表示され、送られる。
上記で説明される本発明の方法および装置に関する多数の追加の変形形態は、本発明の上記の説明に鑑みて、当業者には明らかであろう。そのような変形形態は、本発明の範囲内であると考えられるべきである。さまざまな実施形態では、カメラデバイスは、本発明の方法を実施するために、および/またはキャプチャされた画像もしくは生成された合成画像を格納または表示のために他のデバイスに移送するために、デジタルカメラ、ビデオカメラ、ノートブックコンピュータ、携帯情報端末(PDA)、または受信機/送信機回路とロジックおよび/またはルーチンとを含む他のポータブルデバイスとして実施される。
多数の追加変形形態および組み合わせが、本発明の範囲内にとどまりながら、可能である。いくつかの実施形態で実施されるカメラは、使用中にカメラの前面を超えて延在せず、ポータブルハンドヘルドカメラまたはカメラを含むデバイスとして実施される、光学チェーンを有する。そのようなデバイスは、比較的平坦な前面を有し得、いくつかの実施形態では、これを有し、光学チェーンの前面で絞りを覆うために使用される最も外側のレンズまたは透明な、たとえば、(平坦なガラスまたはプラスチック)光学チェーンの覆いが固定される。しかしながら、他の実施形態では、レンズおよび/または光学チェーンの他の要素は、カメラデバイスの面を越えて延在し得、場合によっては、延在する。
さまざまな実施形態では、カメラデバイスは、本発明の方法を実施するために、および/またはキャプチャされた画像もしくは生成された合成画像を格納または表示のために他のデバイスに移送するために、デジタルカメラ、ビデオカメラ、ノートブックコンピュータ、携帯情報端末(PDA)、または受信機/送信機回路とロジックおよび/またはルーチンとを含む他のポータブルデバイスとして実施される。
多数の追加実施形態が、上記で説明された特徴の範囲内にとどまりながら、可能である。

Claims (61)

  1. 第1のセンサを含む第1の光学チェーンと第2のセンサを含む第2の光学チェーンとを少なくとも含むカメラデバイスを使用して画像をキャプチャする方法であって、前記第1の光学チェーンは前記第2の光学チェーンよりも小さい焦点距離を有する方法であり、前記方法は、
    前記第2の光学チェーンの前記第2のセンサを、前記第2のセンサの連続画素要素行に対応する画素要素の合同読み出しを実行するように制御するか、それとも前記第2のセンサの画素要素の連続行の個別読み出しを実行するように制御するかの決定を、i)ユーザ入力、またはii)決定された動きの速度のうちの少なくとも1つに基づいて行うこと
    を備える方法。
  2. 前記第1のセンサの画素値を読み出すように前記第1のセンサを制御することと、
    前記第2のセンサの連続画素要素行に対応する画素要素の合同読み出しを実行する、または前記第2のセンサの画素要素の連続行の個別読み出しを実行する前記決定に従って、前記第2のセンサの画素要素の画素値を読み出すように前記第2のセンサを制御することと
    をさらに備える、請求項1に記載の方法。
  3. 前記第1の焦点距離が前記第2の焦点距離よりも小さい、請求項2に記載の方法。
  4. 画素値を読み出すように前記第2のセンサを制御することが、前記第1のセンサの少なくともいくつかの画素値の読み出しと並行して画素値を読み出すように前記第2のセンサを制御することを含む、請求項2に記載の方法。
  5. 決定を行う前記ステップがユーザ入力に基づき、前記ユーザ入力が、高速の動作の動きモードまたは動作の高解像度モードを示し、決定を行う前記ステップは、
    i)前記ユーザ入力が、高速の動作の動きモードの選択を示すとき、前記第2のセンサの連続画素要素行に対応する画素要素の合同読み出しを実行することを決定することと、
    ii)前記ユーザ入力が、動作の高解像度動きモードの選択を示すとき、前記第2のセンサの画素要素の連続行の個別読み出しを実行することを決定することと
    を含むユーザ入力に基づく、請求項2に記載の方法。
  6. 決定を行う前記ステップが動きの速度に基づき、決定を行う前記ステップが、
    i)前記動きの速度が第1の閾値を上回るとき、前記第2のセンサの連続画素要素行に対応する画素要素の合同読み出しを実行することを決定することと、
    ii)前記動きの速度が前記第1の閾値を下回るとき、前記第2のセンサの画素要素の連続行の個別読み出しを実行することを決定することと
    を含む、請求項4に記載の方法。
  7. 前記カメラデバイスの光学チェーンによって順次キャプチャされた画像から前記動きの速度を決定すること
    をさらに備える、請求項6に記載の方法。
  8. 前記決定することが、第1の時間期間中にキャプチャされた画像と前記第1の時間期間に続く第2の時間期間中にキャプチャされた画像との差に基づいて前記動きの速度を決定することを含む、請求項7に記載の方法。
  9. 前記決定が、前記第2のセンサの連続画素要素行に対応する画素要素の合同読み出しを実行する決定であるとき、連続画素要素行に対応する画素要素の合同読み出しを実行するように、前記第2の光学チェーンと同じ焦点距離を有する第3の光学チェーンに対応する第3のセンサを制御することをさらに備え、前記第3のセンサが、前記第2のセナーの読み出しが完了した後であるが前記第1のセンサの前記読み出しの完了の前に画素値の少なくともいくつかの行を合同で読み出すように制御される、
    請求項2に記載の方法。
  10. 前記決定が、前記第2のセンサの連続画素要素行に対応する画素要素の合同読み出しを実行する決定であるとき、第1の焦点距離と第2の焦点距離の比の関数として合同読み取りにおいて読み出されることになる画素要素の行の数を制御すること
    をさらに備える、請求項2に記載の方法。
  11. 前記決定が、前記第2のセンサの画素要素の連続行の個別読み出しを実行する決定であるとき、第2の焦点距離と第1の焦点距離の比の関数である速度で前記第1のセンサの画素要素の画素値を読み出すように前記第1のセンサを制御すること
    をさらに備える、請求項2に記載の方法。
  12. 第1のセンサを含み、第1の焦点距離を有する第1の光学チェーンと、
    第2のセンサを含み、第2の焦点距離を有する第2の光学チェーンと、前記第1の焦点距離は前記第2の焦点距離よりも小さい、
    前記第2の光学チェーンの前記第2のセンサを、前記第2のセンサの連続画素要素行に対応する画素要素の合同読み出しを実行するように制御するか、それとも前記第2のセンサの画素要素の連続行の個別読み出しを実行するように制御するかの決定を、i)ユーザ入力、またはii)決定された動きの速度のうちの少なくとも1つに基づいて行うように構成された読み出し制御決定モジュールと
    を備えるカメラデバイス。
  13. i)前記第1のセンサの画素値を読み出すように前記第1のセンサを制御し、
    ii)前記読み出し制御決定に従って前記第2のセンサの画素要素の画素値を読み出すように前記第2のセンサを制御する
    ように構成されたセンサ読み出し制御モジュール
    をさらに備える、請求項12に記載のカメラデバイス。
  14. 前記第1の焦点距離が前記第2の焦点距離よりも小さい、請求項13に記載のカメラデバイス。
  15. 前記センサ読み出し制御モジュールが、画素値を読み出すように前記第2のセンサを制御することの一部として、前記第1のセンサの少なくともいくつかの画素値の読み出しと並行して画素値を読み出すように前記第2のセンサを制御する、請求項13に記載のカメラデバイス。
  16. 動作の自動モード、動作の高速動きモード、または動作の高解像度モードを示すユーザ入力を受け取るように構成されたユーザ入力インターフェースと、
    受け取られたユーザ入力に応答して動作のモードに前記カメラデバイスを設定するように構成されたモード制御モジュールと
    をさらに備え、
    ここにおいて、前記読み出し制御決定モジュールは、受け取られたユーザ入力が動作の自動モードを示すとき、前記カメラデバイスによってキャプチャされた画像において検出される動きの速度に基づいて前記決定を行うように構成される、
    請求項13に記載のカメラデバイス。
  17. 前記読み出し制御決定モジュールが、
    i)前記動きの速度が第1の閾値を上回るとき、前記第2のセンサの連続画素要素行に対応する画素要素の合同読み出しを実行することを決定し、
    ii)前記動きの速度が前記第1の閾値を下回るとき、前記第2のセンサの画素要素の連続行の個別読み出しを実行することを決定する
    ように構成される、請求項15に記載のカメラデバイス。
  18. 前記カメラデバイスの光学チェーンによって順次キャプチャされた画像から前記動きの速度を決定するように構成された動き速度決定モジュール
    をさらに備える、請求項17に記載のカメラデバイス。
  19. 前記動き速度決定モジュールが、第1の時間期間中にキャプチャされた画像と前記第1の時間期間に続く第2の時間期間中にキャプチャされた画像との差に基づいて前記動きの速度を決定する、請求項18に記載のカメラデバイス。
  20. 前記センサ読み出し制御モジュールが、
    前記決定が、前記第2のセンサの連続画素要素行に対応する画素要素の合同読み出しを実行する決定であるとき、連続画素要素行に対応する画素要素の合同読み出しを実行するように、前記第2の光学チェーンと同じ焦点距離を有する第3の光学チェーンに対応する第3のセンサを制御するようにさらに構成され、前記第3のセンサが、前記第2のセンサの読み出しが完了した後であるが前記第1のセンサの前記読み出しの完了の前に画素値の少なくともいくつかの行を合同で読み出すように制御される、
    請求項13に記載のカメラデバイス。
  21. 前記決定が、前記第2のセンサの連続画素要素行に対応する画素要素の合同読み出しを読み出す決定であるとき、前記第1の焦点距離と前記第2の焦点距離の比の関数として合同読み取りにおいて読み出されることになる画素要素の行の数を制御するように構成された合同読み出し制御モジュール
    をさらに備える、請求項13に記載のカメラデバイス。
  22. 第1のセンサを含む、第2の光学チェーンよりも小さい焦点距離を有する第1の光学チェーンと、第2のセンサを含む前記第2の光学チェーンとを少なくとも含むカメラデバイスのプロセッサによって実行されたとき、
    前記第2の光学チェーンの前記第2のセンサを、前記第2のセンサの連続画素要素行に対応する画素要素の合同読み出しを実行するように制御するか、それとも前記第2のセンサの画素要素の連続行の個別読み出しを実行するように制御するかの決定を、i)ユーザ入力、またはii)決定された動きの速度のうちの少なくとも1つに基づいて行うステップを実行するように前記カメラデバイスを制御するプロセッサ実行可能命令を含む非一時的な機械可読媒体。
  23. 前記プロセッサによって実行されたとき、
    前記第1のセンサの画素値を読み出すように前記第1のセンサを制御するステップと、
    前記第2のセンサの連続画素要素行に対応する画素要素の合同読み出しを実行するまたは前記第2のセンサの画素要素の連続行の個別読み出しを実行する前記決定に従って前記第2のセンサの画素要素の画素値を読み出すように前記第2のセンサを制御するステップと
    を実行するように前記カメラデバイスを制御するプロセッサ実行可能命令をさらに備える、請求項22に記載の非一時的な機械可読媒体。
  24. 関心シーンエリアの一部分をスキャンするようにカメラデバイスを動作させる方法であって、
    前記関心シーンエリアの第1の縁から前記関心シーンエリアの第2の縁まで前記関心シーンエリアをスキャンするように複数の画像センサを制御することを備え、前記関心シーンエリアの前記第1の縁と前記第2の縁が平行であり、前記スキャンすることが、前記関心シーンエリアの前記第1の縁から前記第2の縁まで進むスキャン位置に従って画像キャプチャを制御することを含み、前記制御することが、第1の画像センサが、現在のスキャン位置に対応する画素値の行を有するとき、前記現在のスキャン位置に対応する画素値の行を読み出すためにローリングシャッターモードで前記複数の画像センサのうちの前記第1の画像センサを動作させることを含み、前記現在のスキャン位置が経時的に変化し、前記制御することが、第2の画像センサが、前記現在のスキャン位置に対応する画素値の行を有するとき、前記現在のスキャン位置に対応する画素値の行を読み出すためにローリングシャッターモードで前記複数の画像センサのうちの前記第2の画像センサを動作させることをさらに含み、前記第1の画像センサおよび前記第2の画像センサが前記関心シーンエリアの異なる部分の画像をキャプチャする、方法。
  25. 前記第1の画像センサが、前記第2の画像センサによってキャプチャされない前記関心シーンエリアの一部分の画像をキャプチャし、
    ここにおいて、前記第2の画像センサが、前記第1の画像センサによってキャプチャされない前記関心シーンエリアの一部分の画像をキャプチャする、請求項24に記載の方法。
  26. 前記第1の画像センサおよび前記第2の画像センサがそれぞれ前記関心シーンエリアの第1の部分および第2の部分に対応し、前記関心シーンエリアの前記第1の部分の長さは、スキャンの方向において、前記関心シーンエリアの前記第2の部分の長さよりも大きく、前記制御することが、
    前記第2の画像センサの読み出しよりも長い持続時間を有するように前記第1の画像センサの読み出しの持続時間を制御すること
    をさらに含む、請求項24に記載の方法。
  27. 前記第1の画像センサが、第1の焦点距離を有する光学チェーンに対応し、
    ここにおいて、前記第2の画像センサが、第2の焦点距離を有する光学チェーンに対応し、
    ここにおいて、前記制御することが、前記第1の画像センサおよび前記第2の画像センサが対応する個々の光学チェーンの焦点距離の関数として、画素行が前記第1の画像センサおよび前記第2の画像センサから読み取られる速度を制御することを含む、請求項24に記載の方法。
  28. 前記第1の画像センサの画素サイズが前記第2の画像センサの画素サイズと同じである、請求項27に記載の方法。
  29. 前記第1の焦点距離が前記第2の焦点距離のN倍であり、前記第1の画像センサからの画素値の読み出しの持続時間を制御する前記ステップが、前記第2の画像センサから画素値の行が読み取られる速度よりもN倍速い速度で前記第1の画像センサから画素値の行を読み取ることを含む、請求項28に記載の方法。
  30. 前記複数の画像センサが、前記関心シーンエリアの実質的に重複しない部分をキャプチャする複数の画像センサを含み、ここにおいて、前記複数の画像センサによってキャプチャされる前記関心シーンエリアの部分の合併が前記関心シーンエリアを対象とする、請求項24に記載の方法。
  31. 前記第1の画像センサによってキャプチャされる前記関心シーンエリアの第1の部分が、前記第2の画像センサによってキャプチャされる前記関心シーンエリアの第2の部分に先行するスキャンロケーションで始まる、請求項24に記載の方法。
  32. 前記複数の画像センサが5つのセンサを含み、そのうちの4つは前記関心シーンの実質的に重複しない部分をキャプチャし、ここにおいて、前記関心シーンエリアの前記第2の部分の第1から第4の異なるコーナー部分が、前記5つのセンサの前記残りの4つのセンサによってキャプチャされる前記関心シーンエリアの異なる対応する部分と重なる、請求項31に記載の方法。
  33. 前記複数の画像センサが5つのセンサを含み、そのうちの4つは前記関心シーンエリアの4つの異なる部分をキャプチャし、前記関心シーンエリアの前記4つの異なる部分の各々の少なくとも1つのコーナーが、前記関心シーンエリアの前記4つの異なる部分のうちの他の3つによってキャプチャされる画像部分と重ならず、第5のセンサが前記関心シーンエリアの中心部分をキャプチャする、請求項31に記載の方法。
  34. 前記複数の画像センサが第3の画像センサを含み、
    ここにおいて、前記第1の画像センサが前記関心シーンエリアの第1の部分をキャプチャし、
    ここにおいて、前記第2の画像センサが前記関心シーンエリアの第2の部分をキャプチャし、ここにおいて、前記関心シーンエリアの前記第1の部分と前記第2の部分が部分的に重複せず、
    ここにおいて、前記第3の画像センサが前記関心シーンエリア全体をキャプチャする、
    請求項24に記載の方法。
  35. 複数の光学チェーンと、
    関心シーンエリアの第1の縁から前記関心シーンエリアの第2の縁まで前記関心シーンエリアをスキャンするように前記複数の光学チェーンに対応する複数の画像センサを制御するように構成されたセンサコントローラとを備え、前記関心シーンエリアの前記第1の縁と前記第2の縁が平行であり、前記センサコントローラが、前記スキャンの一部として、前記関心シーンエリアの前記第1の縁から前記第2の縁まで進むスキャン位置に従って画像キャプチャを制御し、前記センサコントローラが、第1の画像センサが、現在のスキャン位置に対応する画素値の行を有するとき、前記現在のスキャン位置に対応する画素値の行を読み出すようにローリングシャッターモードに前記複数の画像センサのうちの前記第1の画像センサを制御し、前記現在のスキャン位置が経時的に変化し、前記センサコントローラが、第2の画像センサが、前記現在のスキャン位置に対応する画素値の行を有するとき、前記現在のスキャン位置に対応する画素値の行を読み出すようにローリングシャッターモードで前記複数の画像センサのうちの前記第2の画像センサをさらに制御し、前記第1の画像センサおよび前記第2の画像センサが前記関心シーンエリアの異なる部分の画像をキャプチャする、
    カメラデバイス。
  36. 前記第1の画像センサが、前記第2の画像センサによってキャプチャされない前記関心シーンエリアの一部分の画像をキャプチャし、
    前記第2の画像センサが、前記第1の画像センサによってキャプチャされない前記関心シーンエリアの一部分の画像をキャプチャする、請求項35に記載のカメラデバイス。
  37. 前記第1の画像センサおよび前記第2の画像センサがそれぞれ前記関心シーンエリアの第1の部分および第2の部分に対応し、前記関心シーンエリアの前記第1の部分の長さは、スキャンの方向において、前記関心シーンエリアの前記第2の部分の長さよりも大きく、前記センサコントローラが、
    前記第2の画像センサの読み出しよりも長い持続時間を有するように前記第1の画像センサの読み出しの持続時間を制御する
    ようにさらに構成される、請求項35に記載のカメラデバイス。
  38. 前記第1の画像センサが、第1の焦点距離を有する光学チェーンに対応し、前記第2の画像センサが、第2の焦点距離を有する光学チェーンに対応し、
    ここにおいて、前記センサコントローラが、前記第1の画像センサおよび前記第2の画像センサが対応する個々の光学チェーンの焦点距離の関数として、画素行が前記第1の画像センサおよび前記第2の画像センサから読み取られる速度を制御するように構成される、請求項35に記載のカメラデバイス。
  39. 前記複数の画像センサが、前記関心シーンエリアの実質的に重複しない部分をキャプチャする複数の画像センサを含み、ここにおいて、前記複数の画像センサによってキャプチャされる前記関心シーンエリアの部分の合併が前記関心シーンエリアを対象とする、請求項35に記載のカメラデバイス。
  40. 前記第1の画像センサによってキャプチャされる前記関心シーンエリアの第1の部分が、前記第2の画像センサによってキャプチャされる前記関心シーンエリアの第2の部分に先行するスキャンロケーションで始まる、請求項35に記載のカメラデバイス。
  41. 前記複数の画像センサが5つのセンサを含み、そのうちの4つは前記関心シーンの実質的に重複しない部分をキャプチャし、ここにおいて、前記関心シーンエリアの前記第2の部分の第1から第4の異なるコーナー部分が、前記5つのセンサの残りの4つのセンサによってキャプチャされる前記関心シーンエリアの異なる対応する部分に重複する、請求項40に記載のカメラデバイス。
  42. 前記複数の画像センサが第3の画像センサを含み、
    ここにおいて、前記第1の画像センサが前記関心シーンエリアの第1の部分をキャプチャし、
    ここにおいて、前記第2の画像センサが前記関心シーンエリアの第2の部分をキャプチャし、ここにおいて、前記関心シーンエリアの前記第1の部分と前記第2の部分が部分的に重複せず、
    ここにおいて、前記第3の画像センサが前記関心シーンエリア全体をキャプチャする、
    請求項35に記載のカメラデバイス。
  43. コンピュータ実行可読命令を備え、
    プロセッサによって実行されるとき、関心シーンエリアの第1の縁から前記関心シーンエリアの第2の縁まで前記関心シーンエリアをスキャンするように複数の画像センサを制御する命令を備え、前記関心シーンエリアの前記第1の縁と前記第2の縁が平行であり、前記スキャンすることが、前記関心シーンエリアの前記第1の縁から前記第2の縁まで進むスキャン位置に従って画像キャプチャを制御することを含み、前記命令が、前記プロセッサに、第1の画像センサが現在のスキャン位置に対応する画素値の行を有するとき、前記現在のスキャン位置に対応する画素値の行を読み出すようにローリングシャッターモードで前記複数の画像センサのうちの前記第1の画像センサを制御させることを含み、前記現在のスキャン位置が経時的に変化し、前記命令が、前記プロセッサに、第2の画像センサが前記現在のスキャン位置に対応する画素値の行を有するとき、前記現在のスキャン位置に対応する画素値の行を読み出すようにローリングシャッターモードで前記複数の画像センサのうちの前記第2の画像センサをさらに制御させ、前記第1の画像センサおよび前記第2の画像センサが前記関心シーンエリアの異なる部分の画像をキャプチャする、非一時的なコンピュータ可読媒体。
  44. 関心シーンエリアに対応する画像をキャプチャする方法であって、
    前記関心シーンエリアの一部分に対応する画素値を同時に読み出すように複数の光学チェーンを制御することを備え、前記複数の光学チェーンが、第1の焦点距離を有する第1の光学チェーンと第2の焦点距離を有する第2の光学チェーンとを含み、前記第2の焦点距離が前記第1の焦点距離と異なり、前記関心シーンエリアの異なる部分が異なる時刻に読み出される、方法。
  45. 前記制御することが、前記第1の光学チェーンに含まれる第1の画像センサおよび前記第2の光学チェーンに含まれる第2の画像センサの同期されたローリングシャッター読み出しを実施することを含む、請求項44に記載の方法。
  46. 前記第1の光学チェーンの前記第1の画像センサの上縁が、前記第1の画像センサの前記ローリングシャッター読み出しの一部として最初に読み出される画素値の行に対応し、前記ローリングシャッター読み出しが、前記第1の画像センサの前記上縁で始まり前記第1の画像センサの下縁まで進む画素値の行の順次読み出しを含み、
    ここにおいて、前記第2の光学チェーンの前記第2の画像センサの上縁が、前記第2の画像センサのローリングシャッター読み出しの一部として最初に読み出される画素値の行に対応し、前記第2の画像センサの前記ローリングシャッター読み出しが、前記第2の画像センサの前記上縁で始まり前記第2の画像センサの下縁まで進む画素値の行の順次読み出しを含み、前記第1の画像センサと前記第2の画像センサのスキャン方向が同じである、請求項45に記載の方法。
  47. 前記第1の画像センサと前記第2の画像センサが同じ数の画素の行を含み、
    ここにおいて、前記関心シーンエリアの一部分に対応する画素値を同時に読み出すように複数の光学チェーンを制御することが、前記第1の光学チェーンおよび前記第2の光学チェーンの焦点距離の関数として前記第1の画像センサおよび前記第2の画像センサの読み出し速度を制御することを含む、
    請求項46に記載の方法。
  48. 前記第1の光学チェーンの前記第1の焦点距離が前記第2の光学チェーンの前記第2の焦点距離よりも大きく、前記方法が、
    前記第2の焦点距離と前記第1の焦点距離の比に前記第2の画像センサ内の画素の同じ数の行を読み出すために使用される時間の量をかけたものとして算出される時間の期間内に前記第1の画像センサ内の画素のいくつかの行を読み出すように前記第1の画像センサを制御すること
    を備える、請求項47に記載の方法。
  49. 前記第1の焦点距離が前記第2の焦点距離の2倍であり、
    ここにおいて、前記第2の画像センサが、前記第1の画像センサを完全に読み出すために使用される第1の時間期間の2倍の長さである時間期間にわたって完全に読み出される、
    請求項48に記載の方法。
  50. 前記関心シーンエリアの一部分に対応する画素値を同時に読み出すように前記複数の光学チェーンを制御することが、
    画素値の最後の行が前記第1の画像センサから読み出された後、前記関心シーンエリアの第3の部分に対応する画素値を読み出すように第3の光学チェーンの第3の画像センサを制御すること
    をさらに備え、
    ここにおいて、前記第1の画像センサが前記関心シーンエリアの第1の部分をキャプチャし、
    ここにおいて、前記第2の画像センサが、前記第1の部分よりも大きい前記関心シーンエリアの第2の部分をキャプチャし、
    ここにおいて、前記関心シーンエリアの前記第3の部分が、前記関心シーンエリアの前記第1の部分の下方に位置決めされる、
    請求項49に記載の方法。
  51. 前記第2の画像センサ(より小さい焦点距離画像センサが、より大きい画像エリアをキャプチャする)が、前記第1の画像センサおよび前記第3の画像センサがキャプチャするのと少なくとも実質的に同じ画像エリアを、しかし前記第1の画像センサおよび前記第3の画像センサのいずれかの個々の読み出し時間よりも長い読み出し時間中に、キャプチャする、
    請求項50に記載の方法。
  52. 関心シーンエリアに対応する画像をキャプチャするカメラデバイスであって、
    複数の光学チェーンと、
    前記関心シーンエリアの一部分に対応する画素値を同時に読み出すように前記複数の光学チェーンを制御するように構成されたコントローラとを備え、前記複数の光学チェーンが、第1の焦点距離を有する第1の光学チェーンと第2の焦点距離を有する第2の光学チェーンとを含み、前記第2の焦点距離が前記第1の焦点距離と異なり、前記関心シーンエリアの異なる部分が異なる時刻に読み出される、カメラデバイス。
  53. 前記コントローラが、前記第1の光学チェーンに含まれる第1の画像センサおよび前記第2の光学チェーンに含まれる第2の画像センサの同期されたローリングシャッター読み出しを実施するように構成される、請求項52に記載のカメラデバイス。
  54. 前記第1の光学チェーンの前記第1の画像センサの上縁が、前記第1の画像センサの前記ローリングシャッター読み出しの一部として最初に読み出される画素値の行に対応し、前記ローリングシャッター読み出しが、前記第1の画像センサの前記上縁で始まり前記第1の画像センサの下縁まで進む画素値の行の順次読み出しを含み、
    ここにおいて、前記第2の光学チェーンの前記第2の画像センサの上縁が、前記第2の画像センサのローリングシャッター読み出しの一部として最初に読み出される画素値の行に対応し、前記第2の画像センサの前記ローリングシャッター読み出しが、前記第2の画像センサの前記上縁で始まり前記第2の画像センサの下縁まで進む画素値の行の順次読み出しを含み、前記第1の画像センサと前記第2の画像センサのスキャン方向が同じである、請求項53に記載のカメラデバイス。
  55. 前記第1の画像センサと前記第2の画像センサが同じ数の画素の行を含み、
    ここにおいて、前記コントローラが、前記関心シーンエリアの一部分に対応する画素値を同時に読み出すように複数の光学チェーンを制御するように構成されることの一部として、前記第1の光学チェーンおよび前記第2の光学チェーンの焦点距離の関数として、前記第1の画像センサおよび前記第2の画像センサの読み出し速度を制御するように構成される、
    請求項54に記載のカメラデバイス。
  56. 前記第1の焦点距離が前記第2の焦点距離よりも大きく、
    ここにおいて、前記コントローラが、前記第2の焦点距離と前記第1の焦点距離の比に前記第2の画像センサ内の画素の同じ数の行を読み出すために使用される時間の量をかけたものとして算出される時間の期間内に前記第1の画像センサ内の画素のいくつかの行を読み出すように前記第1の画像センサを制御するようにさらに構成される、請求項55に記載のカメラデバイス。
  57. 前記第1の焦点距離が前記第2の焦点距離の2倍であり、
    ここにおいて、前記コントローラが、前記第1の画像センサを完全に読み出すために使用される第1の時間期間の2倍の長さである時間期間にわたって完全に読み出されるように前記第2の画像センサを制御するようにさらに構成される、
    請求項56に記載のカメラデバイス。
  58. ここにおいて、前記第1の画像センサが前記関心シーンエリアの第1の部分をキャプチャし、
    ここにおいて、前記第2の画像センサが、前記第1の部分よりも大きい前記関心シーンエリアの第2の部分をキャプチャし、
    ここにおいて、前記コントローラが、画素値の最後の行が前記第1の画像センサから読み出された後、前記関心シーンエリアの第3の部分に対応する画素値を読み出すように第3の光学チェーンの第3の画像センサを制御するようにさらに構成され、前記関心シーンエリアの前記第3の部分が前記関心シーンエリアの前記第1の部分の下方に位置決めされる、
    請求項57に記載のカメラデバイス。
  59. 前記第2の画像センサが、前記第1の画像センサおよび前記第3の画像センサがキャプチャするのと少なくとも実質的に同じ画像エリアを、しかし前記第1の画像センサおよび前記第3の画像センサのいずれかの個々の読み出し時間よりも長い読み出し時間中に、キャプチャする、
    請求項58に記載のカメラデバイス。
  60. コンピュータ実行可能命令を備え、
    プロセッサによって実行されるとき、前記関心シーンエリアの一部分に対応する画素値を同時に読み出すように複数の光学チェーンを制御する命令を備え、前記複数の光学チェーンが、第1の焦点距離を有する第1の光学チェーンと第2の焦点距離を有する第2の光学チェーンとを含み、前記第2の焦点距離が前記第1の焦点距離と異なり、前記関心シーンエリアの異なる部分が異なる時刻に読み出される、非一時的なコンピュータ可読媒体。
  61. 前記プロセッサによって実行されるとき、前記関心シーンエリアの一部分に対応する画素値を同時に読み出すように前記複数の光学チェーンを制御する前記命令が、前記第1の光学チェーンに含まれる第1の画像センサおよび前記第2の光学チェーンに含まれる第2の画像センサの同期されたローリングシャッター読み出しを実施するための命令を含む、
    請求項60に記載の非一時的なコンピュータ可読媒体。
JP2016524463A 2013-10-18 2014-10-17 画像キャプチャ制御方法および装置 Pending JP2016540417A (ja)

Applications Claiming Priority (31)

Application Number Priority Date Filing Date Title
US201361893100P 2013-10-18 2013-10-18
US61/893,100 2013-10-18
US201461978818P 2014-04-11 2014-04-11
US61/978,818 2014-04-11
US201461981849P 2014-04-20 2014-04-20
US61/981,849 2014-04-20
US201462021094P 2014-07-04 2014-07-04
US62/021,094 2014-07-04
US14/327,515 US9563033B2 (en) 2013-10-18 2014-07-09 Methods and apparatus for capturing images and/or for using captured images
US14/327,514 US9578252B2 (en) 2013-10-18 2014-07-09 Methods and apparatus for capturing images using optical chains and/or for using captured images
US14/327,492 US9851527B2 (en) 2013-10-18 2014-07-09 Methods and apparatus for capturing and/or combining images
US14/327,524 2014-07-09
US14/327,514 2014-07-09
US14/327,515 2014-07-09
US14/327,525 2014-07-09
US14/327,525 US9197816B2 (en) 2013-10-18 2014-07-09 Zoom related methods and apparatus
US14/327,510 US9325906B2 (en) 2013-10-18 2014-07-09 Methods and apparatus relating to a thin camera device
US14/327,510 2014-07-09
US14/327,512 2014-07-09
US14/327,524 US9423588B2 (en) 2013-10-18 2014-07-09 Methods and apparatus for supporting zoom operations
US14/327,518 2014-07-09
US14/327,512 US9557519B2 (en) 2013-10-18 2014-07-09 Methods and apparatus for implementing a camera device supporting a number of different focal lengths
US14/327,518 US9557520B2 (en) 2013-10-18 2014-07-09 Synchronized image capture methods and apparatus
US14/327,508 US9549127B2 (en) 2013-10-18 2014-07-09 Image capture control methods and apparatus
US14/327,517 2014-07-09
US14/327,517 US9551854B2 (en) 2013-10-18 2014-07-09 Methods and apparatus for controlling sensors to capture images in a synchronized manner
US14/327,508 2014-07-09
US14/327,492 2014-07-09
US14/516,568 US9374514B2 (en) 2013-10-18 2014-10-16 Methods and apparatus relating to a camera including multiple optical chains
US14/516,568 2014-10-16
PCT/US2014/061258 WO2015058157A1 (en) 2013-10-18 2014-10-17 Image capture control methods and apparatus

Publications (1)

Publication Number Publication Date
JP2016540417A true JP2016540417A (ja) 2016-12-22

Family

ID=56365886

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2016524463A Pending JP2016540417A (ja) 2013-10-18 2014-10-17 画像キャプチャ制御方法および装置
JP2016524434A Pending JP2016541151A (ja) 2013-10-18 2014-10-17 カメラデバイスを実施および/または使用するための方法および装置
JP2016524532A Withdrawn JP2016540418A (ja) 2013-10-18 2014-10-17 画像のキャプチャおよび/または結合のための方法および装置

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2016524434A Pending JP2016541151A (ja) 2013-10-18 2014-10-17 カメラデバイスを実施および/または使用するための方法および装置
JP2016524532A Withdrawn JP2016540418A (ja) 2013-10-18 2014-10-17 画像のキャプチャおよび/または結合のための方法および装置

Country Status (4)

Country Link
EP (3) EP3058713B1 (ja)
JP (3) JP2016540417A (ja)
KR (1) KR20160075583A (ja)
CN (3) CN105830424B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018533751A (ja) * 2015-08-19 2018-11-15 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ チャネル特有の調整可能性を有するマルチ開口撮像装置
JP2020525823A (ja) * 2017-06-30 2020-08-27 ポライト アーエスアー モバイル機器に組み込むための複数のカメラを有するモジュール

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9979890B2 (en) 2015-04-23 2018-05-22 Apple Inc. Digital viewfinder user interface for multiple cameras
US9854156B1 (en) 2016-06-12 2017-12-26 Apple Inc. User interface for camera effects
KR102558471B1 (ko) * 2016-07-27 2023-07-25 삼성전자주식회사 전자 장치 및 그의 동작 방법
US10984519B2 (en) * 2016-08-03 2021-04-20 Panduit Corp. Method for evaluating the optical insertion loss of a mechanical splice joint of two optical fibers
CN106657801B (zh) * 2016-10-26 2019-05-24 浙江大华技术股份有限公司 一种视频信息采集方法及装置
EP3516862A4 (en) 2016-10-26 2020-01-22 Zhejiang Dahua Technology Co., Ltd EXPOSURE CONTROL SYSTEMS AND METHODS
EP3579040B1 (en) * 2017-02-23 2021-06-23 Corephotonics Ltd. Folded camera lens designs
DE102017206429A1 (de) * 2017-04-13 2018-10-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtung, Abbildungssystem und Verfahren zum Bereitstellen einer Multiaperturabbildungsvorrichtung
DE102017208709B3 (de) * 2017-05-23 2018-10-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrrichtung und Verfahren zum Bereitstellen einer Multiaperturabbildungsvorrichtung
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
CN107343124B (zh) * 2017-08-08 2020-07-03 信利光电股份有限公司 一种摄像头
JP2019102889A (ja) * 2017-11-29 2019-06-24 株式会社デンソー カメラシステム
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
CN208386734U (zh) * 2018-06-14 2019-01-15 Oppo广东移动通信有限公司 摄像头模组和电子装置
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
KR102075847B1 (ko) * 2018-11-14 2020-02-10 망고슬래브 주식회사 디지털 메모 생성 및 저장 장치 및 방법
KR101987922B1 (ko) 2019-01-08 2019-06-11 오은실 라이트 셀의 능동적 제어를 통한 자동 이미지 캡쳐 시스템
CN116990928A (zh) * 2019-02-25 2023-11-03 核心光电有限公司 相机及包括所述相机的多重相机
CN111901475A (zh) * 2019-05-06 2020-11-06 苹果公司 用于捕获和管理视觉媒体的用户界面
CN112887586B (zh) * 2019-05-06 2022-05-10 苹果公司 用于捕获和管理视觉媒体的用户界面
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
CN115299859A (zh) * 2021-03-03 2022-11-08 重庆金山医疗技术研究院有限公司 一种内窥镜系统
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
CN116132824B (zh) * 2023-04-13 2023-06-16 四川新视创伟超高清科技有限公司 一种图像分区转换方法、系统、电子设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008022386A (ja) * 2006-07-14 2008-01-31 Casio Comput Co Ltd 撮像装置、及びそのズーム制御方法
WO2009098877A1 (ja) * 2008-02-06 2009-08-13 Panasonic Corporation 画像処理装置、及び画像処理方法
JP2013021730A (ja) * 2012-10-26 2013-01-31 Sony Corp 情報処理装置、表示装置、情報処理装置の制御方法およびプログラム
JP2013143753A (ja) * 2012-01-12 2013-07-22 Olympus Corp 撮像装置
WO2013108656A1 (ja) * 2012-01-16 2013-07-25 ソニー株式会社 固体撮像素子およびカメラシステム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11311819A (ja) * 1998-04-28 1999-11-09 Olympus Optical Co Ltd カメラの撮影レンズ
JP3463612B2 (ja) * 1999-01-21 2003-11-05 日本電気株式会社 画像入力方法、画像入力装置及び記録媒体
US6829011B1 (en) * 1999-09-02 2004-12-07 Olympus Optical Co., Ltd. Electronic imaging device
JP2003023553A (ja) * 2001-07-06 2003-01-24 Saibuaasu:Kk 遠隔操作カメラおよび画像提供装置
JP2003143459A (ja) * 2001-11-02 2003-05-16 Canon Inc 複眼撮像系およびこれを備えた装置
JP4635550B2 (ja) * 2004-10-04 2011-02-23 株式会社ニコン カメラ
JP2006267391A (ja) * 2005-03-23 2006-10-05 Mitsubishi Electric Corp 撮像装置
JP2008263251A (ja) * 2005-08-05 2008-10-30 Matsushita Electric Ind Co Ltd 監視カメラ装置
JP4448844B2 (ja) * 2006-11-22 2010-04-14 富士フイルム株式会社 複眼撮像装置
US20080247745A1 (en) * 2007-04-04 2008-10-09 Nilsson Rene Camera assembly with zoom imaging and method
CN101498821B (zh) * 2008-02-02 2010-12-22 华晶科技股份有限公司 镜头模组以及镜头模组的焦距调整方法
US8134589B2 (en) * 2008-07-17 2012-03-13 Eastman Kodak Company Zoom by multiple image capture
US9621825B2 (en) * 2008-11-25 2017-04-11 Capsovision Inc Camera system with multiple pixel arrays on a chip
FR2940720B1 (fr) * 2008-12-31 2011-03-18 St Microelectronics Sa Dispositif de saisie d'images comprenant des moyens de correction de mise au point
CN101833157A (zh) * 2009-03-13 2010-09-15 鸿富锦精密工业(深圳)有限公司 相机模组
US8553106B2 (en) * 2009-05-04 2013-10-08 Digitaloptics Corporation Dual lens digital zoom
US20100328471A1 (en) * 2009-06-24 2010-12-30 Justin Boland Wearable Multi-Channel Camera
JP2011138047A (ja) * 2009-12-28 2011-07-14 Olympus Imaging Corp 光路反射型のズームレンズを備えた撮像装置
WO2012089895A1 (en) * 2010-12-31 2012-07-05 Multitouch Oy Rolling shutter compensation in camera array
US9172856B2 (en) * 2011-03-29 2015-10-27 Microsoft Technology Licensing, Llc Folded imaging path camera
US9270875B2 (en) * 2011-07-20 2016-02-23 Broadcom Corporation Dual image capture processing
US20130258044A1 (en) * 2012-03-30 2013-10-03 Zetta Research And Development Llc - Forc Series Multi-lens camera
WO2015009237A1 (en) * 2013-07-17 2015-01-22 Heptagon Micro Optics Pte. Ltd. Camera module including a non-circular lens

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008022386A (ja) * 2006-07-14 2008-01-31 Casio Comput Co Ltd 撮像装置、及びそのズーム制御方法
WO2009098877A1 (ja) * 2008-02-06 2009-08-13 Panasonic Corporation 画像処理装置、及び画像処理方法
JP2013143753A (ja) * 2012-01-12 2013-07-22 Olympus Corp 撮像装置
WO2013108656A1 (ja) * 2012-01-16 2013-07-25 ソニー株式会社 固体撮像素子およびカメラシステム
JP2013021730A (ja) * 2012-10-26 2013-01-31 Sony Corp 情報処理装置、表示装置、情報処理装置の制御方法およびプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018533751A (ja) * 2015-08-19 2018-11-15 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ チャネル特有の調整可能性を有するマルチ開口撮像装置
US10732377B2 (en) 2015-08-19 2020-08-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Multi-aperture imaging device having channel-specific adjustability
JP2020525823A (ja) * 2017-06-30 2020-08-27 ポライト アーエスアー モバイル機器に組み込むための複数のカメラを有するモジュール
JP7144458B2 (ja) 2017-06-30 2022-09-29 ポライト アーエスアー モバイル機器に組み込むための複数のカメラを有するモジュール

Also Published As

Publication number Publication date
EP3058713B1 (en) 2021-01-27
KR20160075583A (ko) 2016-06-29
CN105829945B (zh) 2019-04-09
JP2016541151A (ja) 2016-12-28
JP2016540418A (ja) 2016-12-22
EP3058416A4 (en) 2017-06-07
EP3058416A1 (en) 2016-08-24
EP3058416B1 (en) 2019-11-20
CN105830425A (zh) 2016-08-03
CN105829945A (zh) 2016-08-03
EP3058714A1 (en) 2016-08-24
EP3058713A4 (en) 2017-11-15
CN105830424B (zh) 2018-12-11
EP3058714A4 (en) 2017-11-22
EP3058713A1 (en) 2016-08-24
CN105830424A (zh) 2016-08-03

Similar Documents

Publication Publication Date Title
US10120159B2 (en) Methods and apparatus for supporting zoom operations
US10274706B2 (en) Image capture control methods and apparatus
EP3058713B1 (en) Image capture control methods and apparatus
WO2015058156A1 (en) Methods and apparatus for capturing and/or combining images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190301

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190827