JP2018517161A - デュアルカメラオートフォーカス - Google Patents

デュアルカメラオートフォーカス Download PDF

Info

Publication number
JP2018517161A
JP2018517161A JP2017550844A JP2017550844A JP2018517161A JP 2018517161 A JP2018517161 A JP 2018517161A JP 2017550844 A JP2017550844 A JP 2017550844A JP 2017550844 A JP2017550844 A JP 2017550844A JP 2018517161 A JP2018517161 A JP 2018517161A
Authority
JP
Japan
Prior art keywords
focus
camera
image
focus position
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017550844A
Other languages
English (en)
Inventor
シャンムガバディベル、カルティケヤン
ウ、フン−シン
リウ、シジョン
ラビララ、ナラヤナ・カルティック・サダナンダム
ダヤナ、ベンカタ・ラビ・キラン
ゴリケリ、アダルシュ・アバイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2018517161A publication Critical patent/JP2018517161A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

実例的な実施形態は、誤り検出を用いるデジタルカメラにおけるデュアルカメラオートフォーカシングを対象としている。補助レンズおよび画像センサは、主要レンズおよび画像センサとハウジングを共有し、それらは一緒に、シーンへの距離を決定するためのレンジファインダとしての役割をする。シーン距離は、画像における最大シャープネスを実現するために、コントラスト検出オートフォーカスと組み合わせて使用される。距離決定における誤りは、補助レンズおよび主要レンズから収集されたデータの比較を使用して発見および修正されうる。
【選択図】図2

Description

[0001]本願は、概してデジタル画像処理に関し、より具体的には、自動デジタル画像フォーカスを改善するための方法およびシステムに関する。
関連技術の説明
[0002]デジタルイメージングシステム(例えば、デジタルカメラ)の自動フォーカシング(オートフォーカス)特徴は、迅速かつ円滑に、遠距離シーンからクローズアップショットまで、関心のある物体またはシーンにフォーカスを合わせるための機能性を、システムに提供する。オートフォーカス特徴は概して、適切なレンズ位置を決定するために、移動可能レンズアセンブリの異なるレンズ位置(それらのレンズ位置は、異なるフォーカシング距離に対応する)を使用してキャプチャされる多数の画像のシャープネスまたはコントラスト値を使用する。オートフォーカス特徴は、その後、物体またはシーンにフォーカスを合わせるために適切な位置にレンズを移動させる。
[0003]概して、カメラのための2つのタイプの距離推定方法がある。1つのタイプの距離推定は、アクティブセンサである。アクティブセンサは、「飛行時間(time of flight)」を測定するためのレーザからの光もしくは超音波、または反射の角度を測定するための赤外線を含みうる。もう1つのタイプの距離推定は、パッシブセンサを用いて行われる。パッシブセンサの例は、入射光を画像のペアに分割し、それらを比較することによって実現される位相検出、およびフォーカス情報を提供するための2つの較正されたカメラを伴うデュアルカメラシステム(例えば、レンジファインダ)を含む。
[0004]現在のデジタルオートフォーカス技術に関する1つの課題は、オートフォーカスオペレーションの時間消費性質(time consuming nature)である。別の課題は、結果的にレンズの物理的転位(displacement)をもたらすイベントによって引き起こされうる、カメラレンズがもはや正しく較正されないときをデジタルカメラが認識できないこと(inability)である。
[0005]本発明のシステム、方法、およびデバイスは各々、いくつかの態様を有し、そのどれ一つも単独でその望ましい属性を担わない。以下に続く請求項によって明示されるような本発明の範囲を制限することなく、いくつかの特徴が次に簡潔に論じられることになる。この議論を考慮した後、および特に「詳細な説明」と題されたセクションを読んだ後、当業者は、本発明の特徴がいかにして利点を提供するかを理解することになる。
[0006]本開示の一態様は、少なくとも1つのレンズを備え、調整可能なフォーカスを有するレンズアセンブリ、およびセンサを含む、シーンの画像をキャプチャするように構成される主要カメラを備える、画像をキャプチャするように構成される装置を提供する。その装置は、主要カメラから既知の距離に位置づけられ、シーンの画像をキャプチャするように構成される第2のカメラをさらに備え、その第2のカメラは、少なくとも1つのレンズを備えるレンズアセンブリ、およびセンサを含む。その装置は、主要カメラおよび第2のカメラによってキャプチャされる画像を記憶するように構成されるメモリコンポーネントをさらに備える。その装置は、主要カメラによってキャプチャされる第1の画像および第2のカメラによってキャプチャされる第2の画像に基づいて、第1のフォーカス位置を決定するように構成されるレンジファインダ(「デュアルカメラ」とも本明細書では称される)をさらに備える。その装置は、第1のフォーカス位置に主要カメラのフォーカスを調整すること、第1のフォーカス位置から複数のフォーカス位置に主要カメラのフォーカスを移動させ、複数の画像に基づいて第2のフォーカス位置を決定すること、その複数の画像のうちの1つは、その複数のフォーカス位置の各々で主要カメラによってキャプチャされる、および第2のフォーカス位置に主要カメラのフォーカスを調整すること、を行うように動作可能に構成されるフォーカシングコンポーネントをさらに備える。
[0007]本開示の別の態様は、画像をキャプチャするための方法を提供し、その方法は、主要カメラを使用してシーンの画像をキャプチャすること、第2のカメラを使用してシーンの画像をキャプチャすること、メモリコンポーネントを使用して主要カメラおよび第2のカメラによってキャプチャされる画像を記憶すること、主要カメラによってキャプチャされる第1の画像および第2のカメラによってキャプチャされる第2の画像に基づいて、第1のフォーカス位置を決定すること、フォーカシングコンポーネントを使用して第1のフォーカス位置に主要カメラのフォーカスを調整すること、第1のフォーカス位置から複数のフォーカス位置に主要カメラのフォーカスを移動させること、複数の画像に基づいて第2のフォーカス位置を決定すること、その複数の画像のうちの1つは、その複数のフォーカス位置の各々で主要カメラによってキャプチャされる、および第2のフォーカス位置に主要カメラのフォーカスを調整すること、を備える。
[0008]本開示の別の態様は、主要カメラを使用してシーンの画像をキャプチャするための手段、第2のカメラを使用してシーンの画像をキャプチャするための手段、メモリコンポーネントを使用して主要カメラおよび第2のカメラによってキャプチャされる画像を記憶するための手段、主要カメラによってキャプチャされる第1の画像および第2のカメラによってキャプチャされる第2の画像に基づいて、第1のフォーカス位置を決定するための手段、フォーカシングコンポーネントを使用して第1のフォーカス位置に主要カメラのフォーカスを調整するための手段、第1のフォーカス位置から複数のフォーカス位置に主要カメラのフォーカスを移動させるための手段、複数の画像に基づいて第2のフォーカス位置を決定するための手段と、その複数の画像のうちの1つは、その複数のフォーカス位置の各々で主要カメラによってキャプチャされる、および第2のフォーカス位置に主要カメラのフォーカスを調整するための手段、を備える、画像をキャプチャするように構成される装置を提供する。
[0009]本開示の別の態様は、コードを備える非一時的なコンピュータ可読媒体を提供し、そのコードは、実行されるとき、画像をキャプチャするように構成される装置に、主要カメラを使用してシーンの画像をキャプチャすること、第2のカメラを使用してシーンの画像をキャプチャすること、メモリコンポーネントを使用して主要カメラおよび第2のカメラによってキャプチャされる画像を記憶すること、主要カメラによってキャプチャされる第1の画像および第2のカメラによってキャプチャされる第2の画像に基づいて、第1のフォーカス位置を決定すること、フォーカシングコンポーネントを使用して第1のフォーカス位置に主要カメラのフォーカスを調整すること、第1のフォーカス位置から複数のフォーカス位置に主要カメラのフォーカスを移動させること、複数の画像に基づいて第2のフォーカス位置を決定すること、その複数の画像のうちの1つは、その複数のフォーカス位置の各々で主要カメラによってキャプチャされる、および第2のフォーカス位置に主要カメラのフォーカスを調整すること、を行わせる。
レンジファインダカメラシステムを包含するモバイルデバイスの簡約化された例を例示する。 デュアルカメラレンジファインダを使用して構成されるデジタルカメラの簡約化されたブロック図を例示する。 プロセッサおよびプロセッサと統合された周辺ハードウェアの簡約化されたブロック図を例示する。 コントラスト検出オートフォーカス方法を使用して最適フォーカスを実現するために要求されるレンズ移動の量の例を例示する。 複合デュアルカメラオートフォーカス(combination dual camera autofocus)およびコントラスト検出オートフォーカス方法の実施形態を使用して最適フォーカスを実現するためのレンズ移動の量の例を例示する。 レンジファインダ誤り検出システムの簡約化された例となるブロック図を例示する。 本発明の実例的な実施形態にしたがった、方法を例示するフローチャートである。
詳細な説明
[0017]以下に続く詳細な説明は、本発明のある特定の具体的な実施形態を対象としている。しかしながら、本発明は、数多くの異なる手法で具現化されうる。本明細書における態様が、幅広い形式で具現化されうること、および本明細書で開示されているあらゆる指定の構造、機能、またはその両方が、ただ代表的なものにすぎない(is merely representative)ことは明らかであるべきである。本明細書における教示に基づいて、当業者は、本明細書で開示される態様が、あらゆる他の態様から独立してインプリメントされうること、およびこれらの態様のうちの2つ以上が、様々な手法で組み合わされうることを認めるはずである。例えば、本明細書で述べられる態様のあらゆる数を使用して、装置がインプリメントされうる、または方法が実施されうる。加えて、本明細書で述べられる態様のうちの1つまたは複数に加えた、またはそれ以外の他の構造、機能性、または構造および機能性を使用して、そのような装置がインプリメントされうる、またはそのような方法が実施されうる。
[0018]本明細書で説明される例、システム、および方法は、デジタルカメラ技術に関して説明される。本明細書で説明されるシステムおよび方法は、様々な異なるデジタルカメラデバイス上でインプリメントされうる。これらは、汎用もしくは専用デジタルカメラシステム、環境、または構成を含む。本発明を用いた使用に適しうるデジタルカメラシステム、環境、および構成の例は、デジタルカメラ、ハンドヘルドまたはラップトップデバイス、ならびにモバイルデバイス(例えば、電話、スマートフォン、携帯情報端末(PDA)、ウルトラモバイルパーソナルコンピュータ(UMPC)、およびモバイルインターネットデバイス(MID))を含むが、それらに制限されない。
[0019]図1は、2つのカメラを使用してオートフォーカスを改善するためのシステムおよび方法を含みうるイメージングデバイス100の一実施形態の例を例示する。イメージングデバイス100は、例えば、携帯電話、カメラ、タブレットコンピュータ、または画像をキャプチャするように構成される別のデバイス、を含むモバイルデバイスでありうる。例示されるイメージングデバイス100は、カメラシステム101のハウジングを含み、モバイルデバイス100内の別個のおよび区別できる(distinct)コンポーネントでありうるか、モバイルデバイス100と組み合わされうるか、モバイルデバイス100を実質的に組成し(make up)うる。モバイルデバイス100は、カメラシステム101にサラウディング構造ハウジング(surrounding structural housing)を提供しうる。この実例的な実施形態に付言すると、カメラシステム101は、カメラシステム101に機能性を提供するための(図2で例示されるような)それ独自のプロセッサ201を包含しうる、またはモバイルシステム100それ自体が、カメラシステム101に対する機能がモバイルデバイス100のそれに対して補助的であるプロセッサ201を含みうる。カメラシステム101は、各々が別個の画像センサを備える、主要レンズハウジング102および補助レンズハウジング103を含み得、その組合せはレンジファインダ212として機能し、カメラシステム101と現在のシーンとの間の距離推定303を可能にしうる。主要および補助レンズハウジング102および103は、互いから既知の距離分だけ分離されうる。主要および補助レンズハウジング102および103の各々の光学軸は、マッチングする向き(orientation)を有するようにアラインされ得、同じ(または実質的に同じ)視野(FOV)215を有するようにモバイルデバイス100から外に向かって面する。
[0020]図2は、いくつかの実施形態にしたがった実例的なカメラシステム101のブロック図を例示する。先に論じられたように、カメラシステム101は、2つの別個のレンズコンポーネント:(1)主要216、および(2)補助217を含みうる。主要レンズコンポーネント216は、いくつかの実施形態では単一のレンズ、または複数のレンズもしくは光学素子でありうる主要レンズ204を含みうる。主要レンズコンポーネント216はまた、主要レンズ204、および少なくとも1つのレンズ204の移動をできるようにするための主要レンズアクチュエータ207を包含する主要レンズハウジング102構造、ならびに主要画像センサ208を含みうる。補助コンポーネント217は、レンズ103、少なくとも1つのレンズ205、および補助画像センサ209を包含する構造を含みうる。カメラシステムは、主要画像センサ208と補助画像センサ209との両方の間の機能的インタフェースをさらに含みうる。このインタフェースはまた、ワイヤレスにまたはハードウェアを介して接続される物理インタフェース、例えば、プロセッサ201、または他のロジック回路(circuitry)もしくは信号処理コンポーネントも含みうる。一例では、プロセッサ201は、少なくとも1つの画像センサ(208および209)に応答し、それによって提供されるデータを処理しうる。
[0021]上で説明されたように、図2は、カメラシステム101の実施形態の例を例示する。カメラシステム101は、主要レンズ204のための主要レンズハウジング102を含む。主要レンズハウジング102は、主要レンズ204を包含するおよび位置付けるための構造を提供する。主要レンズ204は、少なくとも1つのレンズを含む。主要レンズハウジング102は、主要レンズ204の固定された面している向き(facing orientation)を維持しながら、主要レンズハウジング102内の固定されたパスに沿った主要レンズ204の移動を可能にするようにさらに構成されうる。主要レンズハウジング102は、フォーカス制御機能213を提供し、ここにおいて主要レンズ204は、主要レンズアクチュエータ207を使用して第1のまたは初期の主要レンズ位置206に位置付けられる。1つの例となる実施形態では、フォーカス制御機能213は、レンジファインダ機能212によって提供されるデータ、コントラストオートフォーカス機能301によって提供されるデータ、またはその両方を使用しうる。主要レンズアクチュエータ207は、レンズハウジング102に物理的に接続されうるか、もしくはその一部でありうる、または別個のコンポーネントでありうる。1つの例となる実施形態では、距離推定および視差値303が、第1のフォーカス位置を決定する704ために、レンジファインダ212として、少なくとも主要レンズハウジング102および補助レンズハウジング103を、それらの関連付けられた画像センサ(211および210)とともに、使用して計算されうる。代わりとして、フォーカス制御機能213は、複数の主要レンズ位置206に基づいてコントラストおよびシャープネス値を計算するために主要レンズハウジング102、主要画像センサ208、およびプロセッサ201を使用するコントラスト検出オートフォーカスに基づいて、第1のまたは初期の主要レンズ位置206を提供しうる。フォーカス制御機能213を提供することの他にも、主要レンズハウジング102は、ハウジングに対する一時的なおよび恒久的な備品(fixtures)の取り付けをサポートするように構成されうる。例えば、主要レンズハウジング102は、磁性材料、ねじ部材もしくはレシーバ、または取り付けの他の方法を備えて構成されうる。これは、ユーザに、ユーザのエクスペリエンスをさらに改善するために、追加のレンズ、1つまたは複数の写真フィルタ、または様々な他の取り付け器具を取り付けるオプションを与えうる。主要レンズハウジング102はまた、主要画像センサ208に許容された光を視準するための固定されたまたは調整可能な開口部(aperture)を含むように設計されうる。
[0022]図2でさらに図示されるように、カメラシステム101は、補助レンズハウジング103を包含しうる。補助レンズハウジング103は、補助レンズ205配列を包含するための構造を提供し、固定された向き215を維持しながら、ハウジング内の固定されたパスに沿った補助レンズ205の移動を可能にするように構成されうる、または代わりとして、レンズハウジング103は、補助レンズ205配列を、向きが実質的に主要レンズ204のそれに向いた(to)状態の固定された位置に保ちうる。主要レンズハウジング102と同様に、補助レンズハウジング103は、ハウジングに対する一時的なおよび恒久的な備品の取り付けをサポートするように構成されうる。補助レンズハウジング103はまた、補助画像センサ209に許容にされた光を視準するための固定されたまたは調整可能な開口部を含むように設計されうる。
[0023]図2の実施形態で例示されるように、カメラシステム101は、主要画像センサ208をさらに含む。主要画像センサ208は、主要レンズ204を通じて光学画像214の光を受信し、特定のフレームのための画像統計で組成される電子信号に光を変換しうる。画像フレームは、画像センサ(208および209)によってキャプチャされる単一の静止画像である。実例的な実施形態では、画像センサは、各主要レンズ位置206で少なくとも1つの画像フレームをキャプチャし得、さらに、メモリコンポーネント302において、画像統計を、それに関連付けられた特定のレンズ位置とともに記憶しうる。シーン214の画像統計は、主要レンズアクチュエータ207を使用して主要レンズ204の位置を調整することによって、操作されうる。したがって、主要画像センサ208は、主要レンズハウジング102に、または代わりとして、カメラシステム101のスタンドアロン素子として結合されうる。主要画像センサ208はまた、信号プロセッサ211または電子信号を処理する能力をもつ他のコンピューティング媒体と統合されうる。
[0024]主要レンズ204は、適当なレンズが面している向き(lens facing orientation)215を維持しながら、特定のシーンの光をフォーカスするためにハウジング102内でその位置を調整することを可能にされうる。主要レンズ204は、レンズ位置206調整を提供するために、主要レンズアクチュエータ207とさらに結合されうる。いくつかの実施形態では、主要レンズ204は、ダブルガウス(Double Gauss)またはクックトリプレットレンズ(Cooke triplet lens)として設計されうる。いくつかの実施形態では、主要レンズ204は、成形された(molded)プラスチックまたはガラスであり得、分散および屈折率(dispersion and refractive indexes)のバリエーションで作られるレンズ素子のグループでありうる。
[0025]主要レンズアクチュエータ207は、主要レンズ204の位置を調整するための手段を提供する。1つの実例的な実施形態では、電気機械システムが、最適な画像フォーカスを実現するために主要レンズ位置206における精密調整を可能にするために使用されうる。例えば、主要レンズ204は、直線移動を提供するために微少電気機械システム(MEMS)を使用して移動させられ得、それは、レンズ204が精密インクリメントで移動させられることを可能にし、主要画像センサ208が各インクリメントで画像フレームをキャプチャすることを可能にする。別の例では、主要レンズ204は、各レンズ位置206でのフレームの収集のために別々の位置206にレンズを反復して位置付けしうるステップモータによって移動させられる。主要レンズ204はまた、主要レンズハウジング102内の予めプログラムされた別々のレンズ位置206のセットに沿って移動させられうる。したがって、主要レンズアクチュエータ207は、粗または微(coarse or fine)インクリメントで、視差値または距離計算303によって決定されたステージの予めプログラミングされたセットに沿って、あるいは コントラスト検出オートフォーカスアルゴリズムによって決定されたアドホックベースでのどちらかで、主要レンズ204を移動させうる。主要レンズアクチュエータ207は、主要レンズ204または主要レンズハウジング102のいずれかと、またはその両方に統合され得、さらにプロセッサ201と統合されうる。オートフォーカスモジュール213とオートフォーカスライブラリ212との両方が、以下で説明されるように、最も高いコントラストおよびシャープネスをもつ画像を提供するレンズロケーション206を決定するために、および視差値および推定される距離303の計算のために、メモリコンポーネントにおいてフレームの収集を記憶しうる。
[0026]図2は、補助画像センサ209を備えるカメラシステム101をさらに例示する。補助画像センサ209は、補助レンズハウジング103を通じて光学画像214の光を受信しうる。光学画像214の光は、固定されたフォーカスの、広角の、または標準の補助レンズ205を使用することによって操作されうる。したがって、補助画像センサ209は、補助レンズハウジング103に、または補助レンズ205自体に結合されうる。補助画像センサ209は、その固定されたフレームのための画像統計を包含する電子信号に光学画像214を変換し、それは主要画像センサ208からの電子信号と組み合わせてプロセッサ201に送られる。補助画像センサ209はまた、信号プロセッサ210または電子信号を処理する能力をもつあらゆる他の媒体に結合されうる。
[0027]補助レンズ205は、適当な向きおよび光視準を維持するために、補助レンズハウジング103と統合されうる。補助レンズ205は、各フレームに基づいて画像統計を生成するために、補助画像センサ209にさらに結合されうる。補助レンズ205は、ダブルガウスまたはクックトリプレットレンズとして設計されうるが、分散および屈折率のバリエーションで作られる、あらゆる成形されたプラスチックまたはガラス非球面レンズ素子でありうる。
[0028]図2は、カメラシステム101内の、かつ主要画像センサ208、主要レンズアクチュエータ207、および補助画像センサ209と統合されたプロセッサ201をさらに例示する。プロセッサは、カメラシステム自体の素子でありうるか、またはそのカメラシステム101が組み込まれる独立システムに関連付けられた素子でありうる(例えば、プロセッサが、モバイルデバイス101に属する)。主要画像センサ208と補助画像センサ209との両方が、光学画像214によって提供される光強度を測定し、各フレームのための画像統計で組成される電子信号にその光を変換するように機能しうる。センサによって提供される画像統計は、少なくとも1つの画像センサからの画像フレームを処理するために必要なデータをプロセッサ201に供給しうる。プロセッサ201は、シーンをフォーカスするために主要レンズ204のロケーションを調整しうる主要レンズアクチュエータ207を制御しうる。シーンフォーカシングは、単体で、または補助画像センサ209によって提供される画像統計と併せて、主要センサ208画像統計に基づきうる。主要レンズ204の距離および方向移動は、以下で解説されるように、オートフォーカスライブラリ212計算およびオートフォーカスモジュール213によって提供される方向に基づきうる。主要画像信号プロセッサ(ISP)211および補助ISP210は、センサ情報を処理するためにプロセッサ201によって行われるアルゴリズムのセット、またはスタンドアロン信号プロセッサでありうる。主要ISP211は、主要画像センサ208から画像情報を収集し、処理された画像フレーム、すなわち言い方を変えれば電気的にコード化されたスチル画像、およびオートフォーカス統計を生成するために、情報を処理するように構成されうる。オートフォーカス統計は、オートフォーカスモジュール213が、少なくとも1つのコントラスト検出オートフォーカスアルゴリズム301によってなされた計算に基づいて主要レンズ204位置を決定することを可能にしうる。コントラスト検出オートフォーカスアルゴリズム301は、画像統計を、主要レンズ204位置を表す値にそれらをマッピングすることによって活用しうる、または代わりとして、別々でない(non-discrete)、アドホック位置にレンズを位置付けうる。プロセッサ201はまた、主要レンズアクチュエータ207に結合され、少なくとも1つの画像センサからの画像情報を用いてなされた計算に基づいてレンズを調整しうる。
[0029]図3の例となる実施形態で例示されるように、主要画像センサ208および補助画像センサ209は両方、主要ISP208および補助ISP209を包含するプロセッサ201と統合される。両方の画像センサ(208および209)は、プロセッサ201または他のデジタル信号プロセッサに、同じシーン214の画像情報の2つの区別できるセットを提供しうる。図3のプロセッサ201は、オートフォーカスモジュール213およびオートフォーカスライブラリ212を包含する例となる実施形態である。オートフォーカスモジュール213は、主要ISP211と機能的に統合され、処理された画像データの通信を可能にする。オートフォーカスライブラリ212も同様に、主要ISP211に加え、補助ISP210と統合され、両方のISPからの処理されたデータの通信を可能にする。オートフォーカスモジュール213は、コントラスト検出アルゴリズム301のセット、メモリコンポーネント302、およびデュアルカメラオートフォーカスアルゴリズム305から成り得、主要レンズアクチュエータ207と統合されうる。同様に、オートフォーカスライブラリ212は、視差値を計算し、特定のシーンの距離を推定しうる距離推定アルゴリズム303、デュアルカメラ深度ライブラリ304、およびメモリコンポーネント302から妥協されうる。
[0030]オートフォーカスモジュール213は、プロセッサ機能の一部であり得、プロセッサ201が主要レンズアクチュエータ207を制御することを可能にしうる。図3で図示されるように、オートフォーカスモジュール213は、いくつかのコントラスト検出アルゴリズム301で組成されうる。概して、コントラスト検出アルゴリズム301は、各レンズ位置206で画像センサ(208および209)から受信された画像統計を評価し、その後程度に差はあれど(more or less)コントラストがあるかどうか決定するために再評価する。コントラストが増加した場合、レンズは、コントラストが最大化されるまでその方向に移動させられる。コントラストが減少される場合、レンズは、反対方向に移動させられる。レンズのこの移動は、コントラストが最大化されるまで繰り返される。1つの実例的な実施形態では、主要レンズアクチュエータ207が、3つの指定のタイプのコントラスト検出:(1)網羅的オートフォーカス(exhaustive autofocus)、(2)勾配予測オートフォーカス、および(3)継続的オートフォーカス、のアルゴリズムを用いることによって、主要レンズ204を特定のシーン214にフォーカスするためにアクティブ化されうる。コントラスト検出オートフォーカスは、画像のフォーカスの度合を表す値に画像をマッピングするフォーカス特徴を活用し、コントラスト検出アルゴリズム301にしたがって最大のフォーカスをもつ画像を求めて探索して、反復してレンズを移動させる。一例では、カメラシステム101のユーザは、所与のシーン214に対してどのコントラスト検出オートフォーカスアルゴリズム301が最も適切でありうるかを決定し、使用されるようにそれを選択しうる、または代わりとして、プロセッサ201は、画像センサ(208および209)情報に基づいて適切なアルゴリズムを決定しうる。主要レンズアクチュエータは、コントラスト検出アルゴリズム301、またはデュアルカメラオートフォーカスアルゴリズム305のどちらかによってアクティブ化されうる。デュアルカメラオートフォーカスアルゴリズムは、計算された距離または視差値303に対応するある範囲の(a range of)レンズ位置206をもつデジタルルックアップテーブルを使用して主要レンズ206の位置を調整するために、主要レンズアクチュエータ207をアクティブ化しうる。ルックアップテーブルは、メモリコンポーネント302において記憶されうる。オートフォーカスモジュール213は、主要レンズアクチュエータ207をアクティブ化し、1つまたは複数のコントラスト検出オートフォーカスアルゴリズム301を使用して主要レンズ206の位置を調整しうる。オートフォーカスモジュール213は、メモリコンポーネント302において、1つまたは複数のアルゴリズムによって計算されたレンズ位置に加え、関連付けられた処理された画像フレームをさらに記憶しうる。
[0031]オートフォーカスライブラリ212モジュールは、主要ISP211と補助ISP210との両方に加え、オートフォーカスモジュール213内のデュアルカメラオートフォーカス305アルゴリズムとインタフェース接続しうる。オートフォーカスライブラリ212は、主要211と補助210との両方のISPから処理された画像フレームを受信し、カメラシステム101とキャプチャされているシーン214との間の距離303を推定するために、画像の視差値を決定しうる。一例では、プロセッサ201は、主要211および補助210のISPによって生成された処理された画像フレームまたは画像統計間の視差値303を決定することによって距離を計算しうる。この距離推定および視差値303は、メモリコンポーネント302において将来的な使用のために記憶されうる。オートフォーカスライブラリ212はまた、デュアルカメラ深度ライブラリ304を含み得、ここにおいて、距離推定または視差値303は、予め設定された主要レンズ位置206と相互に関連しうる。特定の距離推定または視差値303は、指定のレンズ位置206に関し得、メモリコンポーネントにおいて記憶されうるか、または1つまたは複数の距離推定または視差値303を、コントラスト検出オートフォーカスアルゴリズム301によって決定されたレンズ位置206と比較することによって、学習されうる。シーンの視差値または推定された距離303は、主要レンズアクチュエータ207に、初期のまたは後続の主要レンズ調整206を行うように指示するために使用されうる。
[0032]上で論じられたように、コントラスト検出アルゴリズム301は、どのレンズ位置が最大コントラストを提供するかを決定するために、継続的にレンズを移動させ、各レンズ位置で画像統計を再評価しうる。これは、レンズが理想的な(perfect)位置を通過し(move past)、その後、一度コントラストが再び減少し始めたらその位置に戻り(move back)ように要求されることを意味し、結果としてスローフォーカシング機能をもたらす。図3で例示されるように、オートフォーカスモジュール213は、オートフォーカスライブラリ212によって決定されたレンズ位置206を受信し、主要レンズアクチュエータに、距離推定または視差値303に関連付けられた位置にレンズを移動させるように指示しうるデュアルカメラオートフォーカス素子を含みうる。これは、レンズが、先に説明されたコントラスト検出アルゴリズムと組み合わせてデュアルカメラオートフォーカスアルゴリズムを使用して、理想的なフォーカス位置により迅速に移動させられうることを意味する。デュアルカメラオートフォーカス素子は、オートフォーカスモジュール213メモリコンポーネントにおいて、距離推定または視差値303をさらに記憶しうる。
[0033]図4は、コントラスト検出オートフォーカス301のために要求されるレンズ移動の数の例を提供するグラフを例示する。この図では、y軸は、画像のフォーカスが合っている(an image is in focus)かどうかを決定するために使用される基準、このケースでは画像シャープネスを表すが、他の実施形態では画像のコントラストもまた表しうる。例として画像シャープネスを使用すると、ゼロ点またはy軸の原点は、画像シャープネスの最も低い値を表し、その後にy軸の値がゼロ点から増加されることに伴った画像シャープネスの増加が続く。水平の限界線がy軸402と交差し、それは、主要レンズ位置206の関数として生成される画像シャープネスまたはコントラストの最も高いレベルを表す。この最も高いレベルのシャープネス(またはコントラスト)は、シーン214の最良フォーカスをもつ画像によって特徴付けられる。
[0034]引き続き図4を参照すると、x軸は、主要レンズハウジング102内の主要レンズ位置206を表し、ここにおいて、ゼロ点または原点は、主要レンズハウジング102内部の、その最も遠く引っ込んだ(retracted)位置における主要レンズ位置206を表す。x軸に沿ったx値の増加は、主要レンズハウジング102内の引っ込んだ位置217から主要レンズハウジング102内の最も外側に延びた(outermost extended)レンズ位置216に向かった主要レンズ204の移動を表す。重ねて、主要レンズが移動しうる範囲(the range of which the main lens can move)の限界に起因して、x軸は、延びたレンズ位置216を表す最大値、およびゼロ点における完全に引っ込んだレンズ位置217を表す最小値を有するだろう。
[0035]さらに図4については、釣鐘曲線(bell curve)401は、ゼロ点からx軸に対して(across)伸びるように例示され、主要レンズ位置206(x軸)に基づいた画像シャープネス(y軸)を表す。図4で図示される例では、釣鐘曲線401の頂点は、x軸の中央で、または言い換えると、主要レンズ204が、主要レンズハウジング102内で中央に置かれる位置にあるとき、最良フォーカス値402に達する。この釣鐘曲線401内にあるのは、x軸から始まり(starting at)、釣鐘曲線401の辺(edge)まで延びる8つの垂直線である。これらの線は、適当な主要レンズ位置206を決定するためにコントラスト検出オートフォーカスアルゴリズム301のみを使用する主要レンズ位置206を表す。コントラスト検出アルゴリズム301は、レンズ位置の各々で画像をキャプチャし、画像のフォーカスの度合を表す値にキャプチャされた画像をマッピングするフォーカス測定を活用する。例えば、図4は、主要レンズ204が8つの異なる位置において移動させられることを図示し、各位置は、移動のシーケンスを表す数でマークされる(例えば、第1の位置は「1」でマークされる、第2の位置は「2」で記される、等)。コントラスト検出アルゴリズム301は、レンズ位置206を狭めるために異なる位置でキャプチャされた画像のフォーカス測定を、最良フォーカスを提供するものと比較することによって、レンズ位置206を決定する。図4は、網羅的オートフォーカスアルゴリズム301および最良フォーカスを提供する位置に達するために要求される比較的数の多い(relatively high number of)レンズ位置206の例を図示する。
[0036]図5は、最良フォーカスを提供する位置を発見するために使用される技法の比較のためのモデルを例示する。これより前に言及されたように、図4は、コントラスト検出オートフォーカス301のために要求される、比較的数の多いレンズ移動の例を提供するグラフを例示する。しかしながら、図5では、デュアルカメラオートフォーカスおよびコントラスト検出ハイブリッドモデルのために要求される、比較的数の少ないレンズ移動の例を図示する。図4と同様に、図5におけるy軸およびx軸は、それぞれ、画像シャープネスまたは画像コントラスト(または画像のフォーカスが合っていることを示すために使用される別の画像特性)、および主要レンズハウジング102内の主要レンズ位置206を表す。図5における釣鐘曲線501は、図4におけるそれと同一(identical)であり、主要レンズ位置206に基づいた画像シャープネスを表す。図4と図5との間の主な差異は、x軸から始まり、釣鐘曲線501の辺まで延びる垂直線の数である。これらの線は、デュアルカメラオートフォーカス305およびコントラスト検出オートフォーカスアルゴリズム301ハイブリッドシステムを使用する主要レンズ位置206を表す。デュアルカメラオートフォーカスアルゴリズム305は、主要画像センサ208および補助画像センサ209からの処理されたフレームから計算された距離推定または視差値303に基づいて、初期のレンズ位置を決定する。1つの実例的な実施形態では、距離推定または視差値303は、指定の主要レンズロケーション206と相互に関連しうる。一度初期の主要レンズ位置206が設定されたら、オートフォーカスアルゴリズム301が、最良フォーカス502の位置を決定するために、主要レンズ位置206を微調整する(fine tune)ために使用される。デュアルカメラ305とコントラスト検出301との両方のオートフォーカスで主要レンズ204をフォーカスするこのハイブリッド方法は、結果としてコントラスト検出オートフォーカス301のみに基づいたシステムより少ないレンズ移動で最良フォーカスを実現しうるフォーカシングプロセスをもたらす。
[0037]図6は、デュアルカメラオートフォーカス素子およびコントラスト検出アルゴリズムがカメラシステム101における不正確性を決定しうる、デュアルカメラ誤り検出の方法を例示する。制限されない例では、誤り検出は、主要レンズ204および補助レンズ205の立体的配列(stereo alignment)が正確かどうか、またはオートフォーカスライブラリ212によって提供されるレンズ位置206が、コントラスト検出アルゴリズムによって決定されるレンズ位置と密接にマッチングするかどうかを決定しうる。誤り検出は、カメラシステム101が、現在のシーン214のための第1の主要レンズ位置206を発見する際にコントラスト検出アルゴリズム301のみを使用してシーンにフォーカスすることを周期的に可能にすることによって、開始されうる。これは、プロセッサ201が、コントラスト検出アルゴリズムによって決定されるような第1のレンズ位置を、オートフォーカスライブラリ212によって決定される第1のレンズ位置と比較し、2つの方法間のレンズ位置206の差異が、予め設定された品質値を超えるかどうかを確立することを可能にするだろう。デルタ値は、メモリコンポーネントにおいて記憶され、オートフォーカスライブラリ212によってなされた距離推定または視差値303決定を修正するために使用されうる。
[0038]図6は、そのために誤り検出が開始される実例的な方法をさらに例示する。デュアルカメラオートフォーカス素子は、第1の主要レンズ位置206変化を開始し得、その後に、最も高いコントラストまたはシャープネスに基づいてレンズ位置206を決定しうる1つまたは複数のコントラスト検出アルゴリズム301を使用する主要レンズ204に対するさらなる調整が続く。しかしながら、プロセッサ201は、コントラスト検出アルゴリズムのみを使用して、第1の主要レンズ位置206変化を決定しうる。コントラスト検出アルゴリズムは、どのレンズ位置206が最も高いコントラスト画像を提供するかを決定するために、異なるレンズ位置206で得られる(taken)複数の画像を比較することによって、第1の主要レンズ位置206を決定しうる。この第1の主要レンズ位置206はその後、同じシーンについて距離推定または視差値303によって決定された主要レンズ位置206と比較されうる。主要レンズ204と補助レンズ205との間の立体的ずれ(stereo misalignment)は、主要画像センサ208および補助画像センサ209の各々からの画像を比較することによって検出されうる。誤りの検出の際、プロセッサ201は、コントラスト検出アルゴリズムを、主要レンズ位置206決定のための唯一の方法として指定しうる。
[0039]図7は、それによってデュアルカメラオートフォーカス305およびコントラスト検出オートフォーカスアルゴリズム301ハイブリッドシステムが動作しうる例となる方法700を例示する。初めに、701、シーン214の画像は、主要画像センサ208を使用してキャプチャされうる。このプロセスは、フレームのための画像統計に加え、画像がキャプチャされる瞬間における主要レンズ206のロケーションを含むが、それに制限されない関連付けられた情報を包含しうる電子信号に、シーン214の光を変換するために主要画像センサ208を使用することを伴う。画像統計および関連付けられた情報は、プロセッサ201に通信されうる。本質的に同じ瞬間に、702、補助画像センサ209は、同じシーン214の画像をキャプチャするために使用されうる。同様に、補助画像センサ209は、フレームのための画像統計および関連付けられたデータを備える電子信号にシーンの光を変換する。一度主要208および補助209画像センサがプロセッサ201に画像統計および関連付けられた情報を通信すると、プロセッサ201は、メモリコンポーネント302および703においてデータを記憶しうる。プロセッサ201はまた、ISP(211および210それぞれ)を通じて、主要208および補助209画像センサからの画像統計を処理することになる。第1のフォーカス位置の決定704は、視差値または距離推定303に基づいてなされる。主要211および補助210ISPによって処理された画像統計は、視差値、およびカメラシステムとシーンにおけるポイントとの間の距離が画像統計または処理された画像データに基づいて計算されうる303、オートフォーカスライブラリ212に通信されうる。計算された距離推定303値は、予め設定された主要レンズ位置206に対応しうる。オートフォーカスモジュール213は、主要レンズアクチュエータ207に、視差値または距離推定303に関連付けられた位置に主要レンズ204を調整するように指示し、それによって、第1のフォーカス位置への主要カメラレンズ204のフォーカスの調整705を可能にする。
[0040]主要レンズ204が第1のフォーカス位置に調整された705後、追加の画像フレームが主要ISP211によって処理され、オートフォーカスモジュール213に通信されうる。上で言及されたように、少なくとも1つのコントラスト検出オートフォーカスアルゴリズム301が、第1のフォーカス位置705でキャプチャされた画像のコントラストまたはシャープネスを評価するために使用されうる。続いて706、オートフォーカスモジュールは、主要レンズアクチュエータに、第1のフォーカス位置705に加えて、複数の主要レンズ位置206調整を行うように指示し、少なくとも1つのコントラスト検出オートフォーカスアルゴリズム301を使用して複数のレンズ位置206の各々でキャプチャされた処理された画像を評価しうる。複数のフォーカス位置707の各々で主要カメラによってキャプチャされた複数の画像の評価に基づいて、オートフォーカスモジュールは、複数のレンズ位置のうちのどの主要レンズ位置206が最も高いコントラストまたはシャープネス値を提供するかの決定をなすことになる。これは、結果として複数のフォーカス位置のうちの1つから第2のフォーカス位置への主要カメラのフォーカスの調整708をもたらす。
[0041]上で説明された方法の様々なオペレーションは、様々なハードウェアおよび/またはソフトウェアコンポーネント(複数を含む)、回路、ならびに/あるいはモジュール(複数を含む)のような、オペレーションを行う能力を有するあらゆる適した手段によって行われうる。概して、図で例示されるいずれのオペレーションも、オペレーションを行う能力を有する対応する機能的手段によって行われうる。
[0042]本開示と関係して説明される様々な例示的なロジックブロック、モジュール、および回路は、汎用プロセッサ、デジタルシグナルプロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)または他のプログラマブルロジックデバイス(PLD)、ディスクリートゲートまたはトランジスタロジック、ディスクリートハードウェアコンポーネント、あるいは本明細書で説明される機能を行うように設計されたそれらのあらゆる組合せでインプリメントされうる、または行われうる。汎用プロセッサはマイクロプロセッサでありうるが、代わりとして、プロセッサは、あらゆる商業的に利用可能なプロセッサ、コントローラ、マイクロコントローラ、またはステートマシンでありうる。プロセッサはまた、コンピューティングデバイスの組合せ、例えば、DSPおよびマイクロプロセッサの組合せ、複数のマイクロプロセッサ、DSPコアと併せた1つまたは複数のマイクロプロセッサ、またはあらゆる他のそのような構成、としてインプリメントされうる。
[0043]本明細書で開示される方法は、説明される方法を実現するための1つまたは複数のステップまたはアクションを備える。方法ステップおよび/またはアクションは、請求項の範囲から逸脱することなく、交換されうる。言い換えると、ステップまたはアクションの指定の順番が指定されない限り、指定のステップおよび/またはアクションの順番および/または使用は、請求項の範囲から逸脱することなく、変更されうる。
[0044]説明される機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらのあらゆる組合せにおいてインプリメントされうる。ソフトウェアにおいてインプリメントされる場合、機能は、コンピュータ可読媒体上の1つまたは複数の命令として記憶されうる。記憶媒体は、コンピュータによってアクセスされうるあらゆる利用可能な媒体でありうる。制限ではなく例として、そのようなコンピュータ可読媒体は、RAM、ROM、EEPROM(登録商標)、CD−ROM、もしくは他の光学ディスクストレージ、磁気ディスクストレージもしくは他の磁気記憶デバイス、または命令もしくはデータ構造の形態で所望のプログラムコードを搬送もしくは記憶するために使用されうる、およびコンピュータによってアクセスされうるあらゆる他の媒体を備えうる。本明細書で使用される場合、ディスク(disk)およびディスク(disc)は、コンパクトディスク(CD: compact disc)、レーザーディスク(登録商標) (laser disc)、光学ディスク(optical disc)、デジタル多用途ディスク(DVD:digital versatile disc)、フロッピー(登録商標)ディスク、およびBlu-ray(登録商標)ディスクを含み、ここでディスク(disk)は大抵、磁気的にデータを再生する一方で、ディスク(disc)は、レーザを用いて光学的にデータを再生する。
[0045]したがって、ある特定の態様は、本明細書で提示されるオペレーションを行うためのコンピュータプログラム製品を備えうる。例えば、そのようなコンピュータプログラム製品は、命令が記憶された(および/または符号化された)コンピュータ可読媒体を備え得、命令は、本明細書で説明されるオペレーションを行うように1つまたは複数のプロセッサによって実行可能である。ある特定の態様では、コンピュータプログラム製品は、パッケージング材料を含みうる。
[0046]さらに、本明細書で説明される方法および技法を行うためのモジュールおよび/または他の適切な手段が、適用できる場合 (as applicable)、ユーザ端末および/または基地局によって、ダウンロードされうる、および/または別の形で(otherwise)取得されうることは認められるべきである。例えば、そのようなデバイスは、本明細書で説明される方法を行うための手段の転送を容易にするために、サーバに結合されうる。代わりとして、本明細書で説明される様々な方法が、記憶手段(例えば、RAM、ROM、コンパクトディスク(CD)またはフロッピーディスクのような物理記憶媒体、等)を介して、ユーザ端末および/または基地局が、記憶手段をデバイスに結合または提供する際に様々な方法を取得しうるように、提供されうる。さらに、本明細書で説明される方法および技法をデバイスに提供するためのあらゆる他の適した技法が利用されうる。
[0047]前述が本開示の態様を対象としている一方で、本開示の他の、およびさらなる態様が、それらの基本の範囲から逸脱することなく考案され得、それらの範囲は、以下に続く請求項によって決定される。
[0037]図6は、デュアルカメラオートフォーカス素子およびコントラスト検出アルゴリズムがカメラシステム101における不正確性を決定しうる、デュアルカメラシステム600における誤り検出601の方法を例示する。制限されない例では、誤り検出601は、主要レンズ204および補助レンズ205の立体的配列(stereo alignment)が正確かどうか、またはオートフォーカスライブラリ212によって提供されるレンズ位置206が、コントラスト検出アルゴリズム603によって決定されるレンズ位置と密接にマッチングするかどうか602を決定しうる。誤り検出601は、カメラシステム101が、現在のシーン214のための第1の主要レンズ位置206を発見する際にコントラスト検出アルゴリズム301のみを使用してシーンにフォーカスする609ことを周期的に可能にすることによって、開始されうる。これは、プロセッサ201が、コントラスト検出アルゴリズム301によって決定されるような第1のレンズ位置を、オートフォーカスライブラリ212によって決定される第1のレンズ位置と比較し604、2つの方法間のレンズ位置206の差異605が、予め設定された品質値を超えるかどうかを確立することを可能にするだろう。デルタ値は、メモリコンポーネントにおいて記憶され605、オートフォーカスライブラリ212によってなされた距離推定または視差値303決定607を修正する606ために使用されうる。
[0038]図6は、そのために誤り検出601が開始される実例的な方法をさらに例示する。デュアルカメラオートフォーカス素子305は、第1の主要レンズ位置206変化を開始し得、その後に、最も高いコントラストまたはシャープネスに基づいてレンズ位置206を決定しうる1つまたは複数のコントラスト検出アルゴリズム301を使用する主要レンズ204に対するさらなる調整608が続く。しかしながら、プロセッサ201は、コントラスト検出アルゴリズム609のみを使用して、第1の主要レンズ位置206変化を決定しうる。コントラスト検出アルゴリズム301は、どのレンズ位置206が最も高いコントラスト画像を提供するかを決定する610ために、異なるレンズ位置206で得られる(taken)複数の画像を比較することによって、第1の主要レンズ位置206を決定しうる。この第1の主要レンズ位置206はその後、同じシーンについて距離推定または視差値303によって決定された主要レンズ位置206と比較されうる603。主要レンズ204と補助レンズ205との間の立体的ずれ(stereo misalignment)は、主要画像センサ208および補助画像センサ209の各々からの画像を比較することによって検出されうる604。誤りの検出の際、プロセッサ201は、コントラスト検出アルゴリズムを、主要レンズ位置206決定611のための唯一の方法として指定しうる609
[0047]前述が本開示の態様を対象としている一方で、本開示の他の、およびさらなる態
様が、それらの基本の範囲から逸脱することなく考案され得、それらの範囲は、以下に続
く請求項によって決定される。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
画像をキャプチャするように構成される装置であって、
シーンの画像をキャプチャするように構成される主要カメラと、前記主要カメラは、
少なくとも1つのレンズを備え、調整可能なフォーカスを有するレンズアセンブリと、
センサと、
を含む、
前記主要カメラから既知の距離に位置づけられ、前記シーンの画像をキャプチャするように構成される第2のカメラと、前記第2のカメラは、
少なくとも1つのレンズを備えるレンズアセンブリと、
センサと、
を含む、
前記主要カメラおよび前記第2のカメラによってキャプチャされる画像を記憶するように構成されるメモリコンポーネントと、
前記主要カメラによってキャプチャされる第1の画像および前記第2のカメラによってキャプチャされる第2の画像に基づいて、第1のフォーカス位置を決定するように構成されるレンジファインダと、
フォーカシングコンポーネントと、前記フォーカシングコンポーネントは、
前記第1のフォーカス位置に前記主要カメラのフォーカスを調整することと、
前記第1のフォーカス位置から複数のフォーカス位置に前記主要カメラのフォーカスを移動させ、前記複数のフォーカス位置の各々で前記主要カメラによってキャプチャされた複数の画像に基づいて第2のフォーカス位置を決定することと、
前記第2のフォーカス位置に前記主要カメラのフォーカスを調整することと、
を行うように動作可能に構成される、
を備える、装置。
[C2]
前記フォーカシングコンポーネントは、最も高いコントラストを有する前記複数の画像のうちの画像を決定することと、前記最も高いコントラストを有する前記画像のフォーカス位置を決定することと、前記第2のフォーカス位置を前記最も高いコントラストを有する前記画像の前記フォーカス位置と同じであるように設定することと、によって、前記第2のフォーカス位置を決定するようにさらに構成される、C1に記載の装置。
[C3]
前記メモリコンポーネントは、前記第1の画像および前記第2の画像から計算された距離値または視差値に関するフォーカス位置のセットを記憶するように構成される、C1に記載の装置。
[C4]
前記レンジファインダは、前記装置と前記シーンにおけるポイントとの間の距離を推定することによって前記第1のフォーカス位置を決定する、C1に記載の装置。
[C5]
前記距離値は、前記視差値から計算される、C4に記載の装置。
[C6]
前記フォーカシングコンポーネントは、前記複数のフォーカス位置に前記主要カメラの前記フォーカスを調整するように構成されるアクチュエータを備える、C1に記載の装置。
[C7]
前記レンジファインダは、前記主要カメラおよび前記補助カメラを備える、C1に記載の装置。
[C8]
前記フォーカシングコンポーネントは、(1)最も高いコントラストを有する画像によって決定される前記第1のフォーカス位置と(2)前記距離値を計算することによって決定される前記第1のフォーカス位置との間の主要レンズ位置デルタを決定することによって、前記レンジファインダの正確性を決定するようにさらに構成される、C1に記載の装置。
[C9]
前記メモリコンポーネントは、前記主要レンズ位置デルタを記憶するように構成される、C8に記載の装置。
[C10]
前記フォーカシングコンポーネントは、前記記憶された主要レンズ位置デルタに少なくとも部分的に基づいて、前記第1のフォーカス位置に前記主要カメラの前記フォーカスを調整するようにさらに構成される、C9に記載の装置。
[C11]
前記メモリコンポーネントは、前記現在のシーンの前記推定された距離を記憶するようにさらに構成される、C1に記載のオートフォーカスモジュール。
[C12]
前記補助画像センサは、固定されたフォーカスレンズを備える、C1に記載の装置。
[C13]
画像をキャプチャするための方法であって、前記方法は、
主要カメラを使用して前記シーンの画像をキャプチャすることと、
第2のカメラを使用してシーンの画像をキャプチャすることと、
メモリコンポーネントを使用して前記主要カメラおよび前記第2のカメラによってキャプチャされる画像を記憶することと、
前記主要カメラによってキャプチャされる第1の画像および前記第2のカメラによってキャプチャされる第2の画像に基づいて、第1のフォーカス位置を決定することと、
フォーカシングコンポーネントを使用して前記第1のフォーカス位置に前記主要カメラのフォーカスを調整することと、
前記第1のフォーカス位置から複数のフォーカス位置に前記主要カメラの前記フォーカスを移動させることと、
複数の画像に基づいて第2のフォーカス位置を決定することと、前記複数の画像のうちの1つは、前記複数のフォーカス位置の各々で前記主要カメラによってキャプチャされる、
前記第2のフォーカス位置に前記主要カメラのフォーカスを調整することと、
を備える、方法。
[C14]
前記主要カメラによってキャプチャされる前記第1の画像および前記第2のカメラによってキャプチャされる前記第2の画像に基づいて、視差値を決定することと、
メモリコンポーネントにおいて前記視差値を記憶することと、
をさらに備える、C13に記載の方法。
[C15]
前記視差値を使用して前記装置から前記シーンにおけるポイントまでの距離値を推定することと、
前記メモリコンポーネントにおいて前記距離値を記憶することと、
をさらに備える、C13に記載の方法。
[C16]
前記フォーカシングコンポーネントを使用して前記第2のフォーカス位置を決定することと、
最も高いコントラストを有する前記複数の画像のうちの画像を決定することと、
前記最も高いコントラストを有する前記画像のフォーカス位置を決定することと、
前記第2のフォーカス位置を前記最も高いコントラストを有する前記画像の前記フォーカス位置と同じであるように設定することと、
をさらに備える、C13に記載の方法。
[C17]
前記メモリコンポーネントにおいて記憶されたレンズ位置の値のセットを検索することと、前記レンズ値は、複数の距離値または視差値に対応する、
前記レンズフォーカス位置のうちのどれが、前記複数の前記距離値または前記視差値のうちの1つと対応するかを決定することと、
前記第1のフォーカス位置を決定することと、
をさらに備える、C13に記載の方法。
[C18]
アクチュエータを使用して前記複数のフォーカス位置に前記主要カメラの前記フォーカスを調整することをさらに備える、C13に記載の方法。
[C19]
(1)最も高いコントラストを有する前記画像によって決定される前記第1のフォーカス位置と(2)前記距離値を計算することによって決定される前記第1のフォーカス位置との間の主要レンズ位置デルタを決定し、前記フォーカシングコンポーネントを使用して前記レンジファインダの正確性を決定することをさらに備える、C13に記載の方法。
[C20]
前記メモリコンポーネントにおいて前記主要レンズ位置デルタを記憶することをさらに備える、C19に記載の方法。
[C21]
前記記憶された主要レンズ位置デルタに少なくとも部分的に基づいて、前記第1のフォーカス位置に前記主要カメラの前記フォーカスを調整することをさらに備える、C19に記載の方法。
[C22]
画像をキャプチャするように構成される装置であって、
主要カメラを使用してシーンの画像をキャプチャするための手段と、
第2のカメラを使用して前記シーンの画像をキャプチャするための手段と、
メモリコンポーネントを使用して前記主要カメラおよび前記第2のカメラによってキャプチャされる画像を記憶するための手段と、
前記主要カメラによってキャプチャされる第1の画像および前記第2のカメラによってキャプチャされる第2の画像に基づいて、第1のフォーカス位置を決定するための手段と、
フォーカシングコンポーネントを使用して前記第1のフォーカス位置に前記主要カメラのフォーカスを調整するための手段と、
前記第1のフォーカス位置から複数のフォーカス位置に前記主要カメラの前記フォーカスを移動させるための手段と、
複数の画像に基づいて第2のフォーカス位置を決定するための手段と、前記複数の画像のうちの1つは、前記複数のフォーカス位置の各々で前記主要カメラによってキャプチャされる、
前記第2のフォーカス位置に前記主要カメラのフォーカスを調整するための手段と、
を備える、装置。
[C23]
前記第1のフォーカス位置を決定するための手段は、レンジファインダである、C22に記載の装置。
[C24]
前記レンジファインダにおける誤りを決定するための手段をさらに備える、C22に記載の装置。
[C25]
第2のフォーカス位置を決定するための前記手段、C22に記載の装置。
[C26]
前記第2のフォーカス位置を決定するための手段は、第1のフォーカシングコンポーネントを備え、
最も高いコントラストを有する前記複数の画像のうちの画像を決定するための手段は、第2のフォーカシングコンポーネントを備え、
前記最も高いコントラストを有する前記画像のフォーカス位置を決定するための手段は、第3のフォーカシングコンポーネントを備え、
前記第2のフォーカス位置を前記最も高いコントラストを有する前記画像の前記フォーカス位置と同じであるように設定するための手段は、第4のフォーカシングコンポーネントを備える、C22に記載の装置。
[C27]
レンズ位置の値を記憶するための手段は、第1のメモリコンポーネントを備え、
前記第1の画像および前記第2の画像における1つまたは複数の特徴間の視差値を計算することによって、前記第1のフォーカス位置を決定するための手段は、第1のレンジファインダを備え、
前記レンズフォーカス位置のうちのどれが、前記視差値に対応するかを決定するための手段は、第2のレンジファインダを備える、C22に記載の装置。
[C28]
コードを備える非一時的なコンピュータ可読媒体であって、前記コードは、実行されるとき、画像をキャプチャするように構成される装置に、
主要カメラを使用してシーンの画像をキャプチャすることと、
第2のカメラを使用して前記シーンの画像をキャプチャすることと、
メモリコンポーネントを使用して前記主要カメラおよび前記第2のカメラによってキャプチャされる画像を記憶することと、
前記主要カメラによってキャプチャされる第1の画像および前記第2のカメラによってキャプチャされる第2の画像に基づいて、第1のフォーカス位置を決定することと、
フォーカシングコンポーネントを使用して前記第1のフォーカス位置に前記主要カメラのフォーカスを調整することと、
前記第1のフォーカス位置から複数のフォーカス位置に前記主要カメラの前記フォーカスを移動させることと、
複数の画像に基づいて第2のフォーカス位置を決定することと、前記複数の画像のうちの1つは、前記複数のフォーカス位置の各々で前記主要カメラによってキャプチャされる、
前記第2のフォーカス位置に前記主要カメラのフォーカスを調整することと、
を行わせる、非一時的なコンピュータ可読媒体。
[C29]
レンジファインダ機能に基づいて、前記第1のフォーカス位置を決定するようにさらに構成される、C28に記載の非一時的なコンピュータ可読媒体。
[C30]
前記レンジファインダ機能における誤りを検出するようにさらに構成される、C28に記載の非一時的なコンピュータ可読媒体。

Claims (30)

  1. 画像をキャプチャするように構成される装置であって、
    シーンの画像をキャプチャするように構成される主要カメラと、前記主要カメラは、
    少なくとも1つのレンズを備え、調整可能なフォーカスを有するレンズアセンブリと、
    センサと、
    を含む、
    前記主要カメラから既知の距離に位置づけられ、前記シーンの画像をキャプチャするように構成される第2のカメラと、前記第2のカメラは、
    少なくとも1つのレンズを備えるレンズアセンブリと、
    センサと、
    を含む、
    前記主要カメラおよび前記第2のカメラによってキャプチャされる画像を記憶するように構成されるメモリコンポーネントと、
    前記主要カメラによってキャプチャされる第1の画像および前記第2のカメラによってキャプチャされる第2の画像に基づいて、第1のフォーカス位置を決定するように構成されるレンジファインダと、
    フォーカシングコンポーネントと、前記フォーカシングコンポーネントは、
    前記第1のフォーカス位置に前記主要カメラのフォーカスを調整することと、
    前記第1のフォーカス位置から複数のフォーカス位置に前記主要カメラのフォーカスを移動させ、前記複数のフォーカス位置の各々で前記主要カメラによってキャプチャされた複数の画像に基づいて第2のフォーカス位置を決定することと、
    前記第2のフォーカス位置に前記主要カメラのフォーカスを調整することと、
    を行うように動作可能に構成される、
    を備える、装置。
  2. 前記フォーカシングコンポーネントは、最も高いコントラストを有する前記複数の画像のうちの画像を決定することと、前記最も高いコントラストを有する前記画像のフォーカス位置を決定することと、前記第2のフォーカス位置を前記最も高いコントラストを有する前記画像の前記フォーカス位置と同じであるように設定することと、によって、前記第2のフォーカス位置を決定するようにさらに構成される、請求項1に記載の装置。
  3. 前記メモリコンポーネントは、前記第1の画像および前記第2の画像から計算された距離値または視差値に関するフォーカス位置のセットを記憶するように構成される、請求項1に記載の装置。
  4. 前記レンジファインダは、前記装置と前記シーンにおけるポイントとの間の距離を推定することによって前記第1のフォーカス位置を決定する、請求項1に記載の装置。
  5. 前記距離値は、前記視差値から計算される、請求項4に記載の装置。
  6. 前記フォーカシングコンポーネントは、前記複数のフォーカス位置に前記主要カメラの前記フォーカスを調整するように構成されるアクチュエータを備える、請求項1に記載の装置。
  7. 前記レンジファインダは、前記主要カメラおよび前記補助カメラを備える、請求項1に記載の装置。
  8. 前記フォーカシングコンポーネントは、(1)最も高いコントラストを有する画像によって決定される前記第1のフォーカス位置と(2)前記距離値を計算することによって決定される前記第1のフォーカス位置との間の主要レンズ位置デルタを決定することによって、前記レンジファインダの正確性を決定するようにさらに構成される、請求項1に記載の装置。
  9. 前記メモリコンポーネントは、前記主要レンズ位置デルタを記憶するように構成される、請求項8に記載の装置。
  10. 前記フォーカシングコンポーネントは、前記記憶された主要レンズ位置デルタに少なくとも部分的に基づいて、前記第1のフォーカス位置に前記主要カメラの前記フォーカスを調整するようにさらに構成される、請求項9に記載の装置。
  11. 前記メモリコンポーネントは、前記現在のシーンの前記推定された距離を記憶するようにさらに構成される、請求項1に記載のオートフォーカスモジュール。
  12. 前記補助画像センサは、固定されたフォーカスレンズを備える、請求項1に記載の装置。
  13. 画像をキャプチャするための方法であって、前記方法は、
    主要カメラを使用して前記シーンの画像をキャプチャすることと、
    第2のカメラを使用してシーンの画像をキャプチャすることと、
    メモリコンポーネントを使用して前記主要カメラおよび前記第2のカメラによってキャプチャされる画像を記憶することと、
    前記主要カメラによってキャプチャされる第1の画像および前記第2のカメラによってキャプチャされる第2の画像に基づいて、第1のフォーカス位置を決定することと、
    フォーカシングコンポーネントを使用して前記第1のフォーカス位置に前記主要カメラのフォーカスを調整することと、
    前記第1のフォーカス位置から複数のフォーカス位置に前記主要カメラの前記フォーカスを移動させることと、
    複数の画像に基づいて第2のフォーカス位置を決定することと、前記複数の画像のうちの1つは、前記複数のフォーカス位置の各々で前記主要カメラによってキャプチャされる、
    前記第2のフォーカス位置に前記主要カメラのフォーカスを調整することと、
    を備える、方法。
  14. 前記主要カメラによってキャプチャされる前記第1の画像および前記第2のカメラによってキャプチャされる前記第2の画像に基づいて、視差値を決定することと、
    メモリコンポーネントにおいて前記視差値を記憶することと、
    をさらに備える、請求項13に記載の方法。
  15. 前記視差値を使用して前記装置から前記シーンにおけるポイントまでの距離値を推定することと、
    前記メモリコンポーネントにおいて前記距離値を記憶することと、
    をさらに備える、請求項13に記載の方法。
  16. 前記フォーカシングコンポーネントを使用して前記第2のフォーカス位置を決定することと、
    最も高いコントラストを有する前記複数の画像のうちの画像を決定することと、
    前記最も高いコントラストを有する前記画像のフォーカス位置を決定することと、
    前記第2のフォーカス位置を前記最も高いコントラストを有する前記画像の前記フォーカス位置と同じであるように設定することと、
    をさらに備える、請求項13に記載の方法。
  17. 前記メモリコンポーネントにおいて記憶されたレンズ位置の値のセットを検索することと、前記レンズ値は、複数の距離値または視差値に対応する、
    前記レンズフォーカス位置のうちのどれが、前記複数の前記距離値または前記視差値のうちの1つと対応するかを決定することと、
    前記第1のフォーカス位置を決定することと、
    をさらに備える、請求項13に記載の方法。
  18. アクチュエータを使用して前記複数のフォーカス位置に前記主要カメラの前記フォーカスを調整することをさらに備える、請求項13に記載の方法。
  19. (1)最も高いコントラストを有する前記画像によって決定される前記第1のフォーカス位置と(2)前記距離値を計算することによって決定される前記第1のフォーカス位置との間の主要レンズ位置デルタを決定し、前記フォーカシングコンポーネントを使用して前記レンジファインダの正確性を決定することをさらに備える、請求項13に記載の方法。
  20. 前記メモリコンポーネントにおいて前記主要レンズ位置デルタを記憶することをさらに備える、請求項19に記載の方法。
  21. 前記記憶された主要レンズ位置デルタに少なくとも部分的に基づいて、前記第1のフォーカス位置に前記主要カメラの前記フォーカスを調整することをさらに備える、請求項19に記載の方法。
  22. 画像をキャプチャするように構成される装置であって、
    主要カメラを使用してシーンの画像をキャプチャするための手段と、
    第2のカメラを使用して前記シーンの画像をキャプチャするための手段と、
    メモリコンポーネントを使用して前記主要カメラおよび前記第2のカメラによってキャプチャされる画像を記憶するための手段と、
    前記主要カメラによってキャプチャされる第1の画像および前記第2のカメラによってキャプチャされる第2の画像に基づいて、第1のフォーカス位置を決定するための手段と、
    フォーカシングコンポーネントを使用して前記第1のフォーカス位置に前記主要カメラのフォーカスを調整するための手段と、
    前記第1のフォーカス位置から複数のフォーカス位置に前記主要カメラの前記フォーカスを移動させるための手段と、
    複数の画像に基づいて第2のフォーカス位置を決定するための手段と、前記複数の画像のうちの1つは、前記複数のフォーカス位置の各々で前記主要カメラによってキャプチャされる、
    前記第2のフォーカス位置に前記主要カメラのフォーカスを調整するための手段と、
    を備える、装置。
  23. 前記第1のフォーカス位置を決定するための手段は、レンジファインダである、請求項22に記載の装置。
  24. 前記レンジファインダにおける誤りを決定するための手段をさらに備える、請求項22に記載の装置。
  25. 第2のフォーカス位置を決定するための前記手段、請求項22に記載の装置。
  26. 前記第2のフォーカス位置を決定するための手段は、第1のフォーカシングコンポーネントを備え、
    最も高いコントラストを有する前記複数の画像のうちの画像を決定するための手段は、第2のフォーカシングコンポーネントを備え、
    前記最も高いコントラストを有する前記画像のフォーカス位置を決定するための手段は、第3のフォーカシングコンポーネントを備え、
    前記第2のフォーカス位置を前記最も高いコントラストを有する前記画像の前記フォーカス位置と同じであるように設定するための手段は、第4のフォーカシングコンポーネントを備える、請求項22に記載の装置。
  27. レンズ位置の値を記憶するための手段は、第1のメモリコンポーネントを備え、
    前記第1の画像および前記第2の画像における1つまたは複数の特徴間の視差値を計算することによって、前記第1のフォーカス位置を決定するための手段は、第1のレンジファインダを備え、
    前記レンズフォーカス位置のうちのどれが、前記視差値に対応するかを決定するための手段は、第2のレンジファインダを備える、請求項22に記載の装置。
  28. コードを備える非一時的なコンピュータ可読媒体であって、前記コードは、実行されるとき、画像をキャプチャするように構成される装置に、
    主要カメラを使用してシーンの画像をキャプチャすることと、
    第2のカメラを使用して前記シーンの画像をキャプチャすることと、
    メモリコンポーネントを使用して前記主要カメラおよび前記第2のカメラによってキャプチャされる画像を記憶することと、
    前記主要カメラによってキャプチャされる第1の画像および前記第2のカメラによってキャプチャされる第2の画像に基づいて、第1のフォーカス位置を決定することと、
    フォーカシングコンポーネントを使用して前記第1のフォーカス位置に前記主要カメラのフォーカスを調整することと、
    前記第1のフォーカス位置から複数のフォーカス位置に前記主要カメラの前記フォーカスを移動させることと、
    複数の画像に基づいて第2のフォーカス位置を決定することと、前記複数の画像のうちの1つは、前記複数のフォーカス位置の各々で前記主要カメラによってキャプチャされる、
    前記第2のフォーカス位置に前記主要カメラのフォーカスを調整することと、
    を行わせる、非一時的なコンピュータ可読媒体。
  29. レンジファインダ機能に基づいて、前記第1のフォーカス位置を決定するようにさらに構成される、請求項28に記載の非一時的なコンピュータ可読媒体。
  30. 前記レンジファインダ機能における誤りを検出するようにさらに構成される、請求項28に記載の非一時的なコンピュータ可読媒体。
JP2017550844A 2015-03-31 2016-03-16 デュアルカメラオートフォーカス Pending JP2018517161A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/675,283 US20160295097A1 (en) 2015-03-31 2015-03-31 Dual camera autofocus
US14/675,283 2015-03-31
PCT/US2016/022567 WO2016160335A1 (en) 2015-03-31 2016-03-16 Dual camera autofocus

Publications (1)

Publication Number Publication Date
JP2018517161A true JP2018517161A (ja) 2018-06-28

Family

ID=55646887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017550844A Pending JP2018517161A (ja) 2015-03-31 2016-03-16 デュアルカメラオートフォーカス

Country Status (5)

Country Link
US (1) US20160295097A1 (ja)
EP (1) EP3278553A1 (ja)
JP (1) JP2018517161A (ja)
CN (1) CN107431745A (ja)
WO (1) WO2016160335A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11631190B2 (en) 2019-02-18 2023-04-18 Samsung Electronics Co., Ltd. Electronic device and method for controlling auto focusing thereof

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6677454B2 (ja) * 2015-05-07 2020-04-08 株式会社アールエフ 撮像装置および口腔内カメラ
CN116567378A (zh) 2015-06-29 2023-08-08 Lg伊诺特有限公司 双相机模块及光学装置
US9866745B2 (en) * 2015-07-13 2018-01-09 Htc Corporation Image capturing device and hybrid auto-focus method thereof
US11016268B2 (en) 2016-02-19 2021-05-25 Almalence Inc. Collapsible imaging systems having lens arrays
US10701256B2 (en) 2016-06-12 2020-06-30 Apple Inc. Switchover control techniques for dual-sensor camera system
US10429608B1 (en) 2016-09-23 2019-10-01 Apple Inc. Primary-subordinate camera focus based on lens position sensing
US10284761B2 (en) 2016-11-17 2019-05-07 Motorola Mobility Llc Multi-camera capture of a high dynamic range image
CN106454124A (zh) * 2016-11-28 2017-02-22 努比亚技术有限公司 双摄像头实现对焦的装置及方法
CN106488137A (zh) 2016-11-29 2017-03-08 广东欧珀移动通信有限公司 双摄像头对焦方法、装置和终端设备
US10250794B2 (en) * 2017-01-04 2019-04-02 Motorola Mobility Llc Capturing an image using multi-camera automatic focus
US10169671B2 (en) 2017-02-17 2019-01-01 Motorola Mobility Llc Face detection with temperature and distance validation
CN106713718A (zh) * 2017-02-27 2017-05-24 努比亚技术有限公司 一种基于双摄像头的对焦方法及移动终端
CN106851103B (zh) * 2017-02-27 2019-08-27 上海兴芯微电子科技有限公司 基于双摄像头系统的自动对焦方法和装置
US10250795B2 (en) * 2017-03-15 2019-04-02 Motorola Mobility Llc Identifying a focus point in a scene utilizing a plurality of cameras
WO2018226482A1 (en) * 2017-06-08 2018-12-13 Almalence Inc. Collapsible imaging system having lenslet arrays for aberration correction
CN107277348B (zh) * 2017-06-16 2019-08-16 Oppo广东移动通信有限公司 对焦方法、装置、计算机可读存储介质和移动终端
CN109274785B (zh) * 2017-07-17 2021-04-16 中兴通讯股份有限公司 一种信息处理方法及移动终端设备
US11218626B2 (en) * 2017-07-28 2022-01-04 Black Sesame International Holding Limited Fast focus using dual cameras
US10764486B2 (en) 2018-01-11 2020-09-01 Qualcomm Incorporated Multi-camera autofocus synchronization
US11019241B1 (en) * 2018-09-11 2021-05-25 Apple Inc. Camera lens control during magnetic interference
CN111226154B (zh) * 2018-09-26 2023-02-21 深圳市大疆创新科技有限公司 自动对焦相机和系统
CN111182199B (zh) * 2018-11-13 2022-02-11 深圳富泰宏精密工业有限公司 电子装置及拍照方法
US10460473B1 (en) * 2018-12-14 2019-10-29 Zoox, Inc. Camera calibration system
US11039117B2 (en) * 2019-08-27 2021-06-15 Htc Corporation Dual lens imaging module and capturing method thereof
CN112526801B (zh) * 2019-09-03 2022-01-25 宏达国际电子股份有限公司 双镜头成像模块及其提取方法
WO2021184341A1 (en) * 2020-03-20 2021-09-23 SZ DJI Technology Co., Ltd. Autofocus method and camera system thereof
US11523043B2 (en) 2020-10-12 2022-12-06 Apple Inc. Camera autofocus using time-of-flight assistance
US11653111B2 (en) 2021-03-31 2023-05-16 Apple Inc. Exposure truncation for image sensors
CN117356102A (zh) * 2021-04-28 2024-01-05 高通股份有限公司 多相机系统中辅助相机的镜头定位
US11750922B2 (en) 2021-09-13 2023-09-05 Apple Inc. Camera switchover control techniques for multiple-camera systems
US20230081349A1 (en) * 2021-09-13 2023-03-16 Apple Inc. Object Depth Estimation and Camera Focusing Techniques for Multiple-Camera Systems
CN117097984B (zh) * 2023-09-26 2023-12-26 武汉华工激光工程有限责任公司 一种基于标定和复合搜索的相机自动对焦方法及系统

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7911516B2 (en) * 2004-09-27 2011-03-22 Panasonic Corporation Camera module and electronic apparatus provided with it
US8289377B1 (en) * 2007-08-31 2012-10-16 DigitalOptics Corporation MEMS Video mode hidden autofocus
JP5185097B2 (ja) * 2008-12-19 2013-04-17 富士フイルム株式会社 撮影装置および合焦位置決定方法
JP5609467B2 (ja) * 2010-09-15 2014-10-22 株式会社リコー 撮像装置及び撮像方法
US8760567B2 (en) * 2010-12-21 2014-06-24 Samsung Electronics Co., Ltd. Photographing apparatus and method to reduce auto-focus time
US9313390B2 (en) * 2011-04-08 2016-04-12 Qualcomm Incorporated Systems and methods to calibrate a multi camera device
US20130057655A1 (en) * 2011-09-02 2013-03-07 Wen-Yueh Su Image processing system and automatic focusing method
KR101888956B1 (ko) * 2012-05-31 2018-08-17 엘지이노텍 주식회사 카메라 모듈 및 그의 오토 포커싱 방법
US10178373B2 (en) * 2013-08-16 2019-01-08 Qualcomm Incorporated Stereo yaw correction using autofocus feedback

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11631190B2 (en) 2019-02-18 2023-04-18 Samsung Electronics Co., Ltd. Electronic device and method for controlling auto focusing thereof

Also Published As

Publication number Publication date
EP3278553A1 (en) 2018-02-07
US20160295097A1 (en) 2016-10-06
WO2016160335A1 (en) 2016-10-06
CN107431745A (zh) 2017-12-01

Similar Documents

Publication Publication Date Title
JP2018517161A (ja) デュアルカメラオートフォーカス
US10061182B2 (en) Systems and methods for autofocus trigger
CN102984530B (zh) 图像处理系统及自动对焦方法
CN107257934B (zh) 用于深度辅助式自动聚焦的搜索范围扩展
WO2016049889A1 (zh) 一种自动对焦方法、装置及电子设备
US11956536B2 (en) Methods and apparatus for defocus reduction using laser autofocus
KR101854461B1 (ko) 카메라 시스템 및 이의 객체 인식 방법
JP4852591B2 (ja) 立体画像処理装置、方法及び記録媒体並びに立体撮像装置
US9697604B2 (en) Image capturing device and method for detecting image deformation thereof
JP2003131121A (ja) 自動焦点調節装置及び方法
WO2018077218A1 (zh) 一种深度测量方法及系统
TWI471677B (zh) 自動對焦方法及自動對焦裝置
US20150201182A1 (en) Auto focus method and auto focus apparatus
WO2017136109A1 (en) Calibration of hybrid auto focus (af) imaging systems
WO2017117749A1 (zh) 基于多种测距方式的跟焦系统、方法及拍摄系统
JP2013044844A (ja) 画像処理装置および画像処理方法
US11750922B2 (en) Camera switchover control techniques for multiple-camera systems
CN106973199B (zh) 利用对焦距离扫描提高深度精确度的多光圈相机系统
US20140327743A1 (en) Auto focus method and auto focus apparatus
JP6734994B2 (ja) ステレオ計測装置及びシステム
US20230081349A1 (en) Object Depth Estimation and Camera Focusing Techniques for Multiple-Camera Systems
JP2023041663A (ja) マルチカメラシステムのためのカメラ切替制御技法
JP2012022716A (ja) 立体画像処理装置、方法及びプログラム並びに立体撮像装置